Сэм Альтман сам займется безопасностью ИИ в OpenAI

Распустив прежнюю команду, которая занималась вопросами защиты человечества от потенциального ущерба, который нам может нанести появление универсального ИИ, гендиректор компании создал новую. Комитет по безопасности и защите будет возглавлять сам Сэм Альтман и еще три члена правления — они будут надзирать за ходом разработки новой большой языковой модели, которая затмит предыдущие. Такой «самоконтроль» выглядит почти что фарсом на фоне стремления некогда некоммерческой организации к сверхприбыли.

Станет ли новая передовая модель OpenAI пятым поколением GPT или чем-то совершенно другим — пока неизвестно, но ее описывают как прорыв к вожделенному универсальному ИИ. Этим термином обычно называют искусственный интеллект, способный соображать как человек и выполнять новые для себя задачи без предварительного обучения.

Пока специалисты OpenAI будут вести разработку новой модели, за ними присмотрят Брет Тайлор, Адам Д’Анжело и Николь Селигмен, а также сам Сэм Альтман. Эти члены совета директоров сменят Илью Суцкевера и Яна Лейке, недавно покинувших OpenAI, сообщает Ars Technica.

После ухода Лейке написал, что его решение было продиктовано неразрешимым конфликтом между соображениями безопасности и стремлением к выпуску доходной продукции. И выразил беспокойство тем, что индустрия в целом не способна сейчас адекватно решать проблемы безопасности, которые возникают по мере того, как ИИ становится более умным.

«За последние годы культура и процессы безопасности были отодвинуты назад в угоду блестящим товарам», — написал тогда Лейке.

Пытаясь отвести от компании волну общественного возмущения (которую усилил скандал с клонированием голоса Скарлет Йоханссон), через две недели после ухода Лейке правление сформировало Комитет по безопасности и защите. В него вошли четверо членов совета директоров, тех самых, кто больше всех заинтересован в «блестящих продуктах».

Под безопасностью новый комитет понимает не только обычное «мы не дадим ИИ пуститься во все тяжкие и захватить мир», но и более широкий набор «процессов и мер защиты», куда входят исследования в области этики ИИ, защита детей, обеспечение невмешательства в выборы, оценка влияния на общество. Первой задачей комитета станет анализ и дальнейшая разработка этих процессов и мер, которая должна быть завершена за ближайшие 90 дней. После чего рекомендации будут опубликованы.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+