Без должного надзора разработки OpenAI могут привести к беде

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Два бывших члена совета директоров OpenAI, покинувшие компанию полгода назад после неудачной попытки захвата власти, заявили, что разработчикам искусственного интеллекта нельзя доверять самим управлять своими предприятиями — необходим надзор со стороны независимых общественных организаций и правительства. Они обвинили Сэма Альтмана в том, что он создал «токсичную культуру лжи» в OpenAI и все его решения подчинены только одному — получению прибыли любой ценой.

Хелен Тонер и Таша Макколей входили в совет директоров OpenAI и, вместе с большинством других членов правления, высказались за отстранение основателя и генерального директора компании Сэма Альтмана. Задумка не удалась, Альтман вскоре вернулся на свою должность руководителя OpenAI, а в кресло совета директоров — через пять месяцев. Попутно он почти полностью сменил состав правления, оставив только самых лояльных. Тонер и Макколей в их число не попали.

В интервью The Economist они поведали, что выступили против Альтмана, поддержав протесты руководителей отделов компании, которые жаловались на «токсичную культуру лжи», созданную боссом, и «поведение, которое можно описать как психологическое насилие». До этого Альтмана обвиняли в интриганстве и недостаточно серьезном отношении к мерам безопасности при разработке универсального ИИ. Позже пошла волна критики от покинувших компанию сотрудников, недовольных финансированием их отделов или условиями контрактов. Когда Альтман вернулся в правление, Тонер и Макколей написали, что OpenAI нельзя теперь доверять.

«Мы также чувствуем, что с тех пор, как он вернулся в компанию — в том числе, в совет, и после ухода главных талантов, ориентированных на безопасность — что эксперимент с саморегулированием OpenAI может закончиться плохо», — заявили дамы.

По их мнению, для успеха заявленной миссии OpenAI — создания ИИ, который послужит на благо всему человечеству — необходимо вмешательство и контроль со стороны правительства и эффективные нормы надзора. Раньше они верили в возможность самостоятельного управления OpenAI, но «на основании личного опыта убедились, что самоуправление не может выдерживать давление инициатив по получению прибыли».

Тонер и Макколей призывают к регулированию не только OpenAI, но и всех крупных компаний, занятых разработкой ИИ, пишет BI. По их мнению, плохо сформулированные законы вредят свободному развитию молодых компаний и инноваций.

«Важно, чтобы законодатели при разработке новых правил действовали независимо от крупных компаний», — считают они.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

ХайТек+