Ученые требуют немедленных действий по ограничению языковых моделей ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
В прошлом году разработчики из OpenAI и Центра искусственного интеллекта Стэнфордского университета обсудили вопросы создания и применения больших языковых моделей вроде GPT-3. Специалисты в области информатики, лингвистики, философии, политологии и социологии постарались определить, каковы технические ограничения языковых моделей, и какое воздействие они оказывают на общество.
В статье, опубликованной на днях на сайте arXiv.org, авторы собрали мнения участников октябрьской конференции и высказались за то, чтобы как можно скорее дать ответы на поставленные вопросы.
Масштабные языковые модели вроде GPT-3, созданной OpenAI, или появившейся в конце 2020 еще более крупной модели Google обучаются при помощи громадного объема текстов, собранных с ресурсов вроде Reddit или Wikipedia. В результате в них проникает предвзятость против различных групп, включая женщин и людей с ограниченными возможностями.
К примеру, GPT-3 имеет весьма нелицеприятное мнение о чернокожих и считает, что все мусульмане террористы. Также большие модели усиливают распространение дезинформации, пишет Venture Beat.
По мнению ряда авторов, применение таких моделей оказывает неблагоприятное воздействие на общество, причем в большей мере — на маргинализированные сообщества. И если такие инструменты попадут в руки бизнеса, это будет иметь негативные и опасные последствия.
В качестве рекомендации участники предложили разработать законы, требующие от компаний сообщать, когда текст сгенерирован ИИ — по аналогии с калифорнийским законом о чатботах, предписывающим им оповещать людей, что они говорят с машиной. Среди других предложений:
- обучение специальной модели, которая будет работать фильтром для контента, создаваемого языковой моделью;
- разработка набора тестов на предвзятость, которые должна будет проходить языковая модель прежде, чем будет готова к открытой работе.
В 2018 компания Accenture представила первый алгоритм для анализа того, насколько справедливо выносят вердикты ИИ-алгоритмы. При этом разработчики признаются, что они не нашли «волшебную кнопку, способную научить ИИ справедливости».
- Источник(и):
- Войдите на сайт для отправки комментариев