Ми поступово наближаємось до ери фейкової інформації, де за допомогою штучного інтелекту люди перестануть вірити навіть власним очам.
А тому суспільству необхідно буде знайти спосіб, як підтверджувати чи спростовувати той контент, який нам буде пропонувати запрограмований алгоритм.
Сьогодні весь світ працює над штучним інтелектом і нанотехнологіями. І справді, кожного року технології змінюються і вдосконалюються.
Втім, разом зі стрімким розвитком можливостей нових технологій зростають і спроби їхнього використання у створенні та поширенні фейкової інформації. Варто зауважити: спектр можливостей настільки широкий, що з текстової форми він перейшов на візуалізацію. А запитання, як боротись з такими предметами маніпуляції – залишаються відкритими.
Часто можна почути пораду на кшталт: не вір усьому, що прочитаєш. І сьогодні, у часи проривних нових технологій, вона дійсно корисна. Але невже скоро нам потрібно буде сумніватись ще й в усьому тому, що ми бачимо і чуємо?
Зловмисники вже активно використовують досягнення штучного інтелекту в негативному контексті. Яскравий приклад – відео – «DeepFake», в яких обличчя відомих людей за допомогою нейромережі підставляють іншим (наприклад, акторам з порно). Це той випадок, коли потрібно сумніватись буквально у всьому, що ми бачимо.
Цілком ймовірно протягом найближчих двох років може з'явитися система, яка буде видавати переконливі фальшиві новини постійно. Також він каже про те, що цілком очевидно, якщо ця технологія дозріє, а для цього потрібні один або два роки, вона могла б бути використана для дезінформації або ж пропаганди. А тому для їхнього спростування потрібен ретельний фактчекінг.
Ось тут у гру і вступають журналісти, і що важливо, вони повинні бути справжніми професіоналами своєї справи. Це мають бути люди, які кожну отриману інформацію будуть постійно піддавати критичному аналізу.
Суспільству потрібні ті журналісти, які будуть проводити якісну перевірку інформації, спираючись не на одне джерело. Такі дії водночас не дозволять неправдивій інформації міцно вкорінюватись в суспільну свідомість. Зрозуміло, що помиляються усі. Але у таких ситуаціях потрібно чесно повідомляти своїх читачів, слухачів чи глядачів про помилку і перепрошувати.
Чи варто вірити своїм очам?
Сайт ThisPersonDoesNotExist.com застосовує алгоритми штучного інтелекту для створення фотографій людей, максимально схожих на справжніх, але яких насправді ніколи не існувало. Про це повідомляє The Verge.
Довідка: ThisPersonDoesNotExist.com (з англійської перекладається, як «цієї особи не існує») – це вебсайт, що демонструє повністю автоматизований синтез зображень людини, нескінченно генеруючи зображення, що виглядають як особисті портрети людських облич за допомогою StyleGAN, нової генеративної мережі (GAN), створеної дослідниками NVIDIA. Сайт опублікований у лютому 2019 року.
Автором сайту є інженер з програмного забезпечення Філіп Ванг. Програміст, застосувавши штучний інтелект NVIDIA, створив особливий тип нейромережі, знаний як StyleGAN, для створення нових зображень. Ця нейромережа створює обличчя, скануючи реальні фотографії та адаптує фотографію під велику кількість заданих параметрів. А при кожному оновленні сторінки – завантажується нова світлина.
Безперечно, ця технологія дуже перспективна, адже це не тільки нескінченна генерація облич та світлин, але й теоретична можливість створювати будь-яку інформацію. Наприклад, дослідники вже експериментують з персонажами для аніме, новими шрифтами та графіті.
Але є дві сторони медалі. З одного боку, першочерговою метою цієї технології було покращення комп’ютерних інтерфейсів. А з другого, зараз, у часи, коли фейковий контент – серйозна проблема, запровадження таких технологій, ймовірно, буде працювати, як дезінформація.
А значить, журналістам доведеться перевіряти навіть усе те, що вони побачили. Звісно, на це потрібно буде куди більше часу. Але якщо відповідати на питання, що ж важливіше: якість чи оперативність, то однозначно потрібно обирати перше.
Не усі нові технології – це прогрес і добро?
Такі програми – стартовий майданчик для створення потоку неправдивої інформації та спаму, поширенні шкідливого контенту у світових масштабах. Такі алгоритми в майбутньому тільки знижуватимуть рівень журналістики загалом та псуватимуть довірливе ставлення до журналістів зокрема.
Звісно, поки що помітно, що у роботі цих технологій є щось не справжнє, але цього вже достатньо, щоб захопитись від нинішніх технологій. І варто зачекати пару років, щоб ера синтезованих фейків запрацювала настільки вдало, що буде складно відрізнити неправдиву інформацію від правдивої.
Але, в цілому, прогноз невтішний: людьми справді легко маніпулювати – і як мінімум, тому що ми дозволяємо маніпуляторам це робити.
Як росіяни поширюють неправду в українському інформаційному просторі, використовуючи DeepFake
Під час російсько-української війни Росія залучила чимало цифрових технологій для дезінформації.
Зокрема, таких як DeepFake, підробка голосу, маніпуляції з ідентифікацією облич людей. Використання Кремлем DeepFake стало особливо масовим в інформаційному просторі України після повномасштабного російського нападу на Україну.
Прикладом такої дезінформації є поширюваний 16 березня 2022 року DeepFake, де начебто президент України Володимир Зеленський повідомляє про капітуляцію та пропонує українським військовим скласти зброю.
Однак, DeepFake – це майстерна підробка відео за спеціальною методикою синтезу зображення людини з використанням штучного інтелекту, а у запущеному росіянами відео навіть не дуже досвідчений реципієнт зможе розпізнати ознаки підробки.
Так, росіяни, приліпивши чуже тіло до голови Зеленського, навіть не змогли поєднати їх якісно. Крім того, творці DeepFake неякісно синтезували голос та не змогли навіть правильно підібрати колір одягу пана президента.
Ще одним показовим прикладом, як використовують технологію DeepFake росіяни під час сучасної війни є спроба російських спецслужб від імені нібито українського прем’єр-міністра Дениса Шмигаля зв’язатися з одним із засновників компанії Baykar Халюком Байрактаром.
Водночас й в цьому випадку можна відзначити низький рівень підготовки російських оперативників. Вони декілька разів викрили себе під час розмови, зокрема через незнання правильної вимови сталого вислову «бабине літо», яке вони вимовляли як російське «бабьє лєто». У кінці розмови росіянам повідомили, що вони викриті й будуть притягнуті до відповідальності.
У Головному управлінні розвідки України заявили, що метою цієї акції була спроба дискредитація співробітництва між Україною та Туреччиною. Схожий випадок зафіксували й у червні 2022 року, коли бургомістр Берліна Франциска Ґіффай провела зустріч із «фальшивим» мером Києва. Зустріч із нібито Віталієм Кличком організували за запитом «української сторони», але за пів години розмови у німецьких посадовців з'явилися підозри щодо особи мера. Вже після цього справжній мер Києва відреагував на інцидент.
У коментарі найбільшій німецькій газеті-таблоїду «Bild» очільник Києва розповів, що начебто від його імені мерам декількох європейських столиць із фальшивої поштової адреси розіслали запити на спілкування через програму Zoom. Кличко зазначив, що, найімовірніше, це зробили для того, щоб розсварити українських політиків із європейськими партнерами – й ті припинили допомагати Україні.
Дезінформація часто непомітна
Дезінформація прагне посіяти паніку й недовіру та невпевненість навіть до науково доведених фактів.
Крім цього, закон дезінформації, підтверджений дослідженнями в галузі психології, влаштований так, що коли реципієнт часто чує одну й ту ж брехню, у його голові вона стає правдою й відповідно виникає штучно створена ілюзія усвідомлення істини навіть тоді, коли йдеться про відверту брехню.
Водночас, завдання журналістів – перевіряти факти й джерела, на яких вони спираються. Чим більше різних джерел поширить дезінформацію, тим масштабнішою й відомішою вона буде. Також дезінформація часто буває там, де є суперечки, адже коли люди агресивні й налаштовані одне проти одного, тоді легше посіяти сумніви й страх, нав’язати неправдиві ідеї.
Разом з тим ще одна стратегія дезінформації – поширити якомога більше суперечливої інформації, щоб переконати аудиторію в тому, що версій так багато, що знайти правду просто неможливо. Це п’ять ключових аспектів, які варто зауважити.
Дотримуйтесь інформаційної гігієни.
А Фіртка й надалі відстежуватиме шкідливі інформаційні вкиди.
Підписуйтесь на канал Фіртки в Telegram, читайте нас у Facebook, дивіться на YouTubе. Цікаві та актуальні новини з першоджерел!
Читайте також: