Системы распознавания эмоций предложили временно запретить
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Системы распознавания эмоций предложили временно запретить. Об этом говорится в годовом отчете института AI Now в Нью-Йорке. По мнению ученых, технология пока имеет «мало научной основы», поэтому ее не следует использовать в решениях, «которые влияют на жизнь людей».
Несмотря на отсутствие научных доказательств о том, что машины постоянно и правильно распознают эмоции людей, этот рынок уже оценивается в 20 млрд. долларов и быстро растет. Сейчас технология уже используется для оценки претендентов на рабочие места и лиц, подозреваемых в совершении преступлений. Причем системы тестируются и в других областях — например, в гарнитурах VR, чтобы определить эмоциональное состояние спортсменов.
Кроме того, ученые беспокоятся, что технология может усиливать расовое и гендерное неравенство.
«Регулирующие органы должны вмешаться, чтобы серьезно ограничить использование систем, а компаниям, занимающимся искусственным интеллектом, следует прекратить его внедрение», — отмечают в AI Now.
В частности, ученые сослалась на недавнее исследование Ассоциации психологов США, в ходе которого в течение двух лет изучалось более тысячи статей по определению эмоций. Они сделали вывод, что для определения эмоций недостаточно проанализировать только лицо человека, а нужно намного больше данных.
В своем докладе AI Now призвала правительства и бизнес прекратить использование технологии распознавания лиц до тех пор, пока риски не снизятся, а технология не станет более продвинутой. Компании, которые продвигают такие системы, ученые обвинили в распространении «системного расизма и женоненавистничества».
- Источник(и):
- Войдите на сайт для отправки комментариев