Убедительный дипфейк можно создать уже менее чем за $100

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Дипфейки становятся доступнее, дешевле и убедительнее. В качестве примера того, как просто можно получить поддельное изображение любой персоны, представленной в сети, эксперты FireEye создали фейковые фотографии и аудиозаписи Тома Хэнкса. Все инструменты для этого уже есть в открытом доступе, они не требуют углубленных знаний и серьезных расходов.

Специалисты по сетевой безопасности из FireEye сгенерировали несколько фейковых изображений актера Тома Хэнкса, чтобы протестировать, насколько легко программы с открытым кодом можно адаптировать для кампаний по дезинформации.

Вывод, который озвучил Филип Талли, датолог FireEye: «Люди, не обладающие большим опытом, могут взять модели машинного обучения и сделать с их помощью очень серьезные вещи».

Если рассматривать «фотографии» Тома Хэнкса придирчиво, можно заметить неестественные складки на шее и текстуру кожи. Однако знакомые черты лица актера воспроизведены точно. Если такое изображение выложить в социальную сеть, она легко сойдет за настоящую, пишет Wired UK.

dipfeyk_11.png

Для того чтобы создать подделку, Талли нужно было лишь собрать несколько сотен изображений Хэнкса, и потратить менее $100 на аренду программы для генерации изображений — систему Nvidia, выпущенную в прошлом году.

Также разработчик воспользовался другими открытыми ИИ-приложениями, для того чтобы сымитировать голос актера, взятый из клипов, выложенных в YouTube. В этом случае результаты были менее впечатляющими, но это пока — алгоритмы имитации голоса развиваются просто чуть медленнее, чем генераторы фейковых изображений.

Тем не менее, пример FireEye показывает, насколько дешево и просто любой человек может сегодня сгенерировать дипфейки — изображение узнаваемого персонажа в обстоятельствах, которых на самом деле никогда не было. Сам этот термин пошел от названия аккаунта на Reddit, который в 2017 году публиковал порнографические видео с наложенными на исполнительниц лицами голливудских актрис. Действительно, пока большинство такой продукции низкого качества и служит развлекательным или порнографическим целям. Но программы, находящиеся в распоряжении корпораций, способны выдавать намного более качественный результат.

По мнению Ли Фостера из той же компании, занимающегося анализом сетевых манипуляций, дипфейки не обязательно должны быть высокого качества, чтобы выполнять свою функцию. Поддельная фотография Хэнкса может быть достаточно убедительной в мире, где люди потребляют огромное количество информации, не особенно вглядываясь в изображения.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+