Чат-боты укрепляют заблуждения, загоняя пользователей в информационный пузырь
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Чат-боты представляют ограниченную информацию, соответствующую существующим убеждениям пользователей, укрепляя их в уверенности в собственной правоте. Об исследовании сообщает пресс-служба Университета Джона Хопкинса.
Исследователи из Университета Джонса Хопкинса проанализировали, как использование чат-ботов влияет на взгляды людей. Анализ показал, что короткие ответы без альтернативных мнений подтверждают уверенность пользователей в собственной правоте, способствуя поляризации взглядов. Внедрение ИИ в поисковые системы может усугубить общественный раскол по острым вопросам и сделать людей уязвимыми для манипуляций.
Перед началом эксперимента ученые попросили 272 участников исследования описать свою точку зрения по различным острым вопросам, в том числе здравоохранению, доступности студенческих кредитов и миграционной политике. После этого испытуемым предложили найти дополнительную информацию в Интернете по этой теме, используя либо чат-бота, либо традиционную поисковую систему.
После поиска исследователи попросили участников написать новое эссе и ответить на вопросы по заданной теме. Также испытуемым представили две статьи с альтернативными мнениями по каждому вопросу. Участники должны были прокомментировать, насколько они доверяют представленной информации.
Исследование показало, что участники, которые пользовались чат-ботами, в результате поиска утвердились в своих взглядах и с явным несогласием реагировали на альтернативные точки зрения. По словам ученых, в этой группе пользователи погружались в эхо-камеру или информационный пузырь, получая только ту информацию, которую они хотели услышать и которая подтверждала уже сформировавшиеся у них взгляды.
Это связано со спецификой работы чат-ботов: такие программы генерируют короткие ответы, основанные на вопросе, в котором уже отражены взгляды пользователя. В отличие от стандартного поиска, в котором по заданным ключам находится широкий спектр статей, чат-бот ограничен вопросом, заданным в простой форме. Например, если спросить «какие преимущества у общедоступного здравоохранения?», ИИ расскажет только про положительные стороны такой системы, опустив, например, информацию о расходах на ее поддержание.
Поскольку люди читают краткий абзац, созданный ИИ, они думают, что получают объективные, основанные на фактах ответы. Даже если чат-бот намеренно не искажает информацию, его ответы отражают склонности человека, задающего вопросы. Так что на самом деле люди получают ответы, которые хотят услышать, – Цзян Сяо, доцент кафедры информатики в Университете Джонса Хопкинса, соавтор исследования.
Исследователи представили выводы на Конференции «Человеческий фактор в вычислительных системах» (ACM CHI Conference).
- Источник(и):
- Войдите на сайт для отправки комментариев