З усіх страшних повноважень Інтернету, здатність до обману нічого не підозрюючих може бути найстрашнішою. Clickbait, сфотографовані фотографії та неправдиві новини - одні з найгірших злочинців, але останніми роками також спостерігається поява нового потенційно небезпечного інструменту, відомого як штучний інтелект глибокого факелу (AI).
Термін deepfake позначає фальсифіковані комп'ютерні відео та аудіо, які важко відрізнити від справжнього, незмінного вмісту. Це зняти, що таке Photoshop для зображень.
Яким чином працює глибокий файл ШІ?
Інструмент спирається на те, що відоме як генеративні змагальні мережі (GANs), методика, винайдена в 2014 році Ian Goodfellow, доктор наук. студент, який зараз працює в Apple, повідомляє Popular Mechanics.
Алгоритм GAN передбачає два окремих ІС, той, який генерує контент - скажімо, фотографії людей - і супротивника, який намагається відгадати, чи є зображення справжніми або фальшивими, повідомляє Vox. Генеральний ШІ починає майже не уявляти, як виглядають люди, тобто його партнер може легко відрізнити справжні фотографії від помилкових. Але з часом кожен тип ШІ стає прогресивно кращим, і з часом генеруючий ШІ починає створювати контент, який виглядає ідеально життєвим.
Глибокі приклади
GAN - це вражаючий інструмент, який не завжди використовується для шкідливих цілей. У 2018 році картина, створена GAN, що імітує голландський художник "Старий майстер", наприклад, Рембрандт ван Рійн 17 століття, продала в аукціонному будинку Christie за неймовірні 432 500 доларів.
Того ж року deepfakes піднявся на широке місце, головним чином через користувача Reddit, який отримав назву "deepfakes", - повідомив Віце. Техніка GAN часто використовувалася для розміщення облич відомих знаменитостей - у тому числі Гала Гадот, Мейсі Вільямс та Тейлор Свіфт - на тілах актрис порнографічних фільмів.
Інші GAN навчилися робити єдине зображення людини та створювати досить реалістичні альтернативні фотографії чи відео цієї людини. У 2019 році глубокий фейк може створити моторошні, але реалістичні фільми про Мона Ліза, що розмовляють, рухаються та посміхаються в різних положеннях.
Deepfakes також може змінювати звуковий вміст. Як повідомляв The Verge на початку цього року, техніка може з'єднати нові слова у відео людини, яка розмовляє, зробивши так, що вони сказали щось, чого ніколи не мали намір.
Простота, з якою новий інструмент може бути розгорнута, потенційно лякає наслідки. Якщо хто і де завгодно може зробити реалістичні фільми, де показані знаменитість чи політик, які говорять, рухаються та говорять слова, які вони ніколи не говорили, глядачі змушені бути більш обережними щодо вмісту в Інтернеті. Як приклад, просто прослухайте попередження президента Обами проти "спотвореного" дистопічного майбутнього у цьому відео з "Buzzfeed", створеному за допомогою deepfake режисера Джордана Пілі.