Ученые предлагают новый подход к созданию объективного ИИ

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Алгоритмы ИИ могут быть не менее предвзятыми, чем люди, и руководствоваться искаженными данными при определении суммы кредита, устройстве на работу или вынесении приговора. Исследователи из Бостона предложили для начала определить саму «справедливость».

По мере того как искусственный интеллект становится все более умелым в решении сложных задач, мы начинаем ему доверять принимать важные решения. Но насколько справедливые решения он принимает? Работа специалистов Бостонского университета «From Soft Classifiers to Hard Decisions: How fair can we be?», которая будет представлена на конференции Ассоциации вычислительной техники ACT FAT, пытается дать ответ на этот вопрос. Она основана на изучении исследований последних лет, посвященных предвзятости ИИ, сообщает VentureBeat.

Ученые, которые занимаются этой темой, сталкиваются с отсутствием четкого критерия оценки непредвзятости ИИ. У разный научных групп — разные определения справедливости. Каждое по отдельности кажется верным, но они абсолютно не совместимы друг с другом.

Невозможно создать систему, которая удовлетворяла бы всем сразу, говорит профессор Адам Смит, соавтор статьи.

Бостонская группа использовала в качестве отправной точки данные, опубликованные в рамках исследования программы оценки рецидивизма COMPASS. Проводившая исследование организация ProPublica пришла к выводу, что COMPASS предвзята к афроамериканцам и рекомендует осуждать их на более продолжительные сроки тюремного заключения.

На основании этих данных ученые разработали новый подход к оценке риска повторного совершения преступления. Он снижает и ложно положительные и ложно отрицательные значения, то есть добивается большей объективности для различных групп населения. Кроме того, платформа научилась отмечать случаи, в оценке которых она не уверена.

Протестировав свой алгоритм на данных расследования ProPublica, ученые обнаружили, что только 75% случаев получили верную оценку программы COMPASS. Четверть нуждается в перепроверке.

Осенью прошлого года IBM выпустила эксперта по предвзятости — пакет программ AI Fairness 360. Это комплексное решение с открытым кодом, с помощью которого можно проверить, есть ли у используемого алгоритма нежелательные предубеждения.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+