Кризис воспроизводимости исследований в области искусственного интеллекта

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

В исследованиях ИИ доминируют технологические гиганты, однако грань между реальными прорывами и рекламой коммерческого продукта постепенно размывается. Некоторые учёные считают, что пора это прекратить.

В прошлом месяце в журнале Nature опубликовали ругательный отзыв, подписанный 31 учёным. Им не понравилось исследование Google Health, ранее появившееся в этом же журнале. В нём компания Google описывала успешные результаты испытаний искусственного интеллекта (ИИ), искавшего признаки рака груди на медицинских фотоснимках. Критики утверждают, что команда Google предоставила так мало информации о коде и ходе испытаний, что исследование оказалось больше похожим на рекламное описание закрытой частной технологии.

«Мы не могли это больше выносить, — говорит Бенджамин Хайбе-Каинс, ведущий автор отзыва, изучающий вычислительную геномику в Торонтском университете. – И дело не в этом конкретном исследовании – мы уже много лет подряд наблюдаем подобную тенденцию, и это нас уже реально раздражает».

Хайбе-Каинс с коллегами принадлежат к растущему числу учёных, сопротивляющихся видимому отсутствию прозрачности в исследованиях ИИ.

«Увидев эту работу от Google, мы поняли, что это лишь ещё один пример из ряда восторженных публикаций в очень уважаемом журнале, не имеющих ничего общего с наукой, — говорит он. – Это больше реклама прикольной технологии. Мы с этим ничего сделать не можем».

Наука основывается на доверии, в том числе – раскрытии деталей того, как ведутся исследования, достаточно подробном для того, чтобы другие могли повторить их и подтвердить полученные результаты. Именно так наука исправляет саму себя, и выкорчёвывает неподтверждённые результаты. Воспроизводимость позволяет другим основывать свою работу на этих результатах, что помогает двигать область знаний вперёд. Наука, которую нельзя воспроизвести, оказывается на обочине истории.

По крайней мере, теоретически. На практике мало какие исследования полностью воспроизводятся, поскольку большинству исследователей интереснее получать новые результаты, чем повторять старые. Однако в таких областях, как биология, физика, информатика, исследователи ожидают, что авторы дадут достаточно информации доля того, чтобы эти эксперименты можно было провести повторно – даже если это и делается редко.

Амбициозный новичок

ИИ ругают по нескольким причинам. Во-первых, это новичок. Экспериментальной наукой он стал в последние лет десять – так говорит Джоэль Пиньо, специалист по информатике из Facebook AI Research и университета Макгилла, соавтор жалобы.

«Сначала это была чисто теоретическая область, но теперь мы проводим всё больше экспериментов, — говорит она. – И наша приверженность строгой методологии отстаёт от амбициозности наших экспериментов».

Это не просто академическая проблема. Отсутствие прозрачности не позволяет как следует проверить новые модели и технологии ИИ на надёжность, отсутствие искажений и безопасность. ИИ быстро переходит из исследовательских лабораторий в реальный мир, что напрямую влияет на жизни людей. Однако хорошо работающие в лаборатории модели машинного обучения (МО) могут сломаться в реальном мире, что потенциально может привести к опасным последствиям. Воспроизведение результатов экспериментов разными исследователями в разных условиях быстрее вскроет возможные проблемы, что сделает ИИ надёжнее для всех.

ИИ и так страдает от проблемы «чёрного ящика»: иногда невозможно сказать, как или почему модель МО выдаёт именно такой результат. Отсутствие прозрачности в исследованиях только всё ухудшает. Большим моделям требуется как можно больше наблюдателей, чтобы большее число людей испытывало их и разбиралось в их работе. Именно так можно сделать использование ИИ в здравоохранении безопаснее, в обеспечении общественного порядка – справедливее, в чатах – вежливее.

Нормальной воспроизводимости ИИ мешают отсутствие трёх вещей: кода, данных и железа. Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Хабр