Задетектить и промаркировать: машинный контент не могут выявить сами машины. И это проблема
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Блог компании МТС. @Mixail_Sviridov. Возможности нейросетей в плане генерации контента используются всё активнее. Маркетологи, копирайтеры, пиарщики и представители других креативных и не очень профессий работают с нейросетями ежедневно. За последние пару лет появилось очень много сервисов, которые предлагают бесплатно или за небольшую плату сгенерировать текст, картинку, видео.
Всё это хорошо, но в некоторых случаях важно знать, где написанное или нарисованное «вручную», а где — сгенерированный контент (тут ждём искромётных шуток в комментариях по поводу самой этой статьи). Зачем? Это важно в случае научной работы, студенческой дипломной работы, рисунков для разного рода конкурсов. И сервисы выявления машинного контента вроде бы есть. Но вот беда — они не работают. Почему и что с этим делать?
Тексты и GPTZero
Совсем недавно команда OpenAI опубликовала статью для представителей сферы образования. Она была посвящена приёмам работы с ChatGPT, и в этой же статье говорилось о том, что сервисы детекции машинного контента не работают. И это несмотря на то, что такие сервисы пытаются использовать преподаватели в университетах для выявления созданных нейронками научных и не очень текстов, над которыми должны работать студенты.
В статье от Open AI, в частности, говорится: «Если кратко, то сервисы определения машинного контента не работают. Хотя некоторые компании, включая OpenAI, представили инструменты, предназначенные для обнаружения сгенерированного контента, ни один из этих инструментов не стал особенно эффективным. Машины просто не видят особой разницы между контентом, который создан нейросетью или человеком».
Один из достаточно известных сервисов, GPTZero, часто выдаёт ложные срабатывания, помечая «человеческий» текст как машинный. А вот машинный как раз чаще всего определяется как написанный человеком. Та же компания OpenAI не так давно запустила собственный сервис по детекции машинного контента — AI Classifier. Работал он исключительно с текстами. В итоге оказалось, что эффективность работы этого сервиса не дотягивает даже до 30%. Так что проще угадать, где какой текст, чем определять это при помощи сервиса.
Фактчекинг такие сервисы тоже не в состоянии выполнять, а ведь проверка того, что написано в статье, заметке или новости — это важно. Все мы знаем, что ChatGPT склонен добавлять в контент что-то от себя, если не может найти информацию по теме в сети. Эта склонность нейросети подвела многих авторов и даже юристов.
Что нам остаётся? Либо ждать более надёжного сервиса по детекции машинного контента, либо определять автора самостоятельно. Если не знаешь человека, то сказать, чей текст, если он написан хорошо, сложно. Но если преподаватель хорошо знаком с особенностями «рукописных» работ своих студентов, он без проблем определит, написано это подопечным или кем-то ещё.
Изображения и Google DeepMind
Корпорация Google разработала сервис иного рода — он может определять и маркировать водяными знаками графический контент. Но с оговорками: не любые картинки, а только те, что созданы посредством генератора изображений Google Imagen. К сожалению, пока что речь о распознавании любых синтетических изображений не идёт.
Как и в случае с текстами, актуальность проблемы растёт с каждым днём. Сгенерированных картинок всё больше, включая дипфейки, работы для конкурсов и т. п. А определять, что это за контент, если он создан нейронкой высокого класса, сложно. Далеко не всегда это может сделать и специалист.
По мнению многих экспертов, пришло время стандартизации и регламентации графического контента, созданного машиной. Проблема дипфейков сейчас весьма актуальна. И они вполне могут работать в качестве политического или социального инструмента. Кроме того, нейросети берут базу для генерации контента из сети, в том числе речь идёт о защищённой копирайтом графике. Сейчас в судах рассматривается немало судебных исков от графических дизайнеров, художников и фотографов к компаниям, разработавшим генеративные нейросети.
Так вот, в Google DeepMind пытаются решить эту проблему при помощи водяных знаков. Нейросеть при генерации картинки добавляет водяные знаки, которые не видны человеку, а вот для машины они очень хорошо заметны. При этом речь идёт не про обычные водяные знаки, которые можно обрезать или затереть. Здесь всё сложнее — такая маркировка «зашита» в саму картинку, так что сервис, который обучен определять сгенерированный контент по водяным знакам, сможет сделать это сразу, как ни обрезай графику.
Новые правила для всех
В июле 2023 года корпорация Google и шесть разработчиков известных ИИ подписали совместное соглашение о безопасной разработке и использовании ИИ. На практике это будет выражаться в маркировании сгенерированного контента при помощи незаметных для человека отметок. Машина же сможет определить их сразу — даже после изменения графики в графическом редакторе.
Всё это — лишь первый шаг. Эксперты считают, что нужны общие для всех стандарты маркирования сгенерированного контента. Сейчас тот же Google DeepMind может определять изображения, которые созданы им же. Картинки от Midjourney, Kandinsky или Stable Diffusion он определить пока не в состоянии.
Соответственно, нужны инструменты как маркирования, которые будут унифицированы для всех, так и выявления водяных знаков, причём на любом контенте — от графики до текстов. С последними всё достаточно сложно, поскольку каким образом можно помечать тексты, неясно. Если в картинку «зашить» информацию достаточно просто, с текстом так сделать не получится.
В ЕС, кстати, уже задумались над новыми законами в отношении маркирования сгенерированного текста. Так, законодательные органы Евросоюза предложили ввести обязательную маркировку любого контента (текста, изображений, видео- и аудиофайлов), созданного искусственным интеллектом. Цель этой инициативы — оградить общество от попыток манипуляций через фейковый контент.
- Источник(и):
- Войдите на сайт для отправки комментариев