Где тут криминал? Чем опасны синтетические медиа и кто с ними борется

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Блог компании TEAMLY. Автор: @Khrenova. С развитием искусственного интеллекта появились и синтетические медиа. Это интернет-ресурсы или отдельные публикации, созданные с помощью AI-технологий. Опасность в том, что для производства таких материалов можно использовать дипфейки и генерировать ложный контент.

Это Лера из TEAMLY. Заметила, что мы стали свидетелями рождения нового явления — медиа-криминалистики. Как когда-то люди не могли осмыслить серийные преступления и начали изучать образ мысли таких преступников, изучать их почерк. Или, например, преступления из сферы искусства, когда их расследовали по логике обычной кражи. А потом сформировался целый отдел ФБР (подробнее в книге Роберта Уиттмана и Джона Шиффмана «Операция «Шедевр». Спецагент под прикрытием в мире искусства»). А сейчас вот специально обученные люди пристально смотрят в глаза, сравнивают оттенки и пытаются предотвратить появление дипфейков. Кто, как и зачем это делает — читайте в статье.

Не нужно ждать инфоповода, чтобы выпустить новость, которая взорвет интернет. Достаточно дать задание нейросети и вот уже видеоролик или фотография набирают миллионы просмотров. Такие возможности не упустят мошенники и просто недобросовестные СМИ, ведь фейки способны влиять на общественное мнение и действия людей. Как ответ на вызов возникла новая область криминалистики — медиа-криминалистика. Рассказываем, что это и какую пользу несет обществу.

Медиа-криминалистика: как появилась и чем занимается

Эта область знаний изучает манипуляции и правонарушения с помощью синтетических медиа. Например, помогает выявлять вредоносный контент и бороться с дезинформацией в СМИ. В частности, медиа-криминалистика занимается случаями неэтичного или преступного применения технологии дипфейков.

Термин «дипфейк» происходит от слов «deep learning» — глубокое обучение и «fake» — фальшивый. Технология создает реалистичные изображения людей в искусственных обстоятельствах. Например, дипфейк может поместить Роберта Паттинсона на съемочную площадку «Титаника» или показать вашего соседа по подъезду в компании Илона Маска. Конечно, такой контент будет забавным, но есть множество примеров, когда дипфейки в СМИ вызвали серьезные последствия.

«Задержание» Дональда Трампа. В марте 2023 года интернет взорвали фотографии ареста экс-президента США. Через пару дней выяснилось, что изображения сгенерированы нейросетью Midjourney. Но к этому времени они успели разлететься по социальным сетям и новостным сайтам.

dipfeyk1.png

Журналист Элиот Хиггинс, который создал фейковые фото с помощью нейросети, не ожидал такого интереса аудитории — за два дня пост набрал 5 миллионов просмотров

Фейковые фото Тейлор Свифт. Популярная американская певица пострадала от дипфейков в январе 2024 года. В заблокированной в России социальной сети Х появились изображения непристойного характера, созданные искусственным интеллектом. Через 17 часов публикацию удалили, но она набрала десятки миллионов просмотров и репостов.

Политические провокации. Эксперты беспокоятся, что дипфейки могут деструктивно влиять на политические процессы в мире. Так, в отчете Всемирного экономического форума говорится, что искусственный контент может воздействовать на избирателей. В 2024 году во многих странах состоятся выборы, в том числе в США, России и Индии. Эксперты считают, что фейковые аудио и видеозаписи могут использовать для манипуляций общественным мнением во время агитационных кампаний.

С помощью искусственного интеллекта мошенники совершают и другие преступления. Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр