Сэм Альтман: «Мне кажется, люди у власти не осознают, как быстро меняется мир»

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Буквально за пару месяцев ChatGPT убедил многих, кто общался с этим ботом, что мы стоим на пороге самого значительного технологического рывка в истории человечества. Огонь, колесо, электричество, транзистор, интернет — все это делало нас намного более сильными. Но ИИ — изобретение другого рода, он может стать ровней нам, возможно, превзойти или даже причинить нам вред.

Если потенциал генеративных моделей действительно настолько высок, на Сэме Альтмане, главе OpenAI, разработавшей ChatGPT и GPT-4, лежит огромная ответственность. Которую, судя по его интервью популярному блогеру Лексу Фридману, он сознает. Альтман слегка напуган происходящим, и это, пожалуй, хороший знак.

Разработчики OpenAI смогли создать условия, в которых появился и развился генеративный интеллект, не похожий на человеческий, но имитирующий наше сознание. Никто не может сказать со всей определенностью, что значит быть GPT или как именно он генерирует ответы на запросы. Никто не понимает до конца, как он работает. Кое-кто опасается, что ИИ — если не сегодня, то в скором будущем — захочет поработить или просто уничтожить нас.

«Прежде всего, я бы сказал, я думаю, такая возможность существует, — признал Альтман. — И очень важно признать это. Потому что если мы не будем об этом говорить, если не будем относиться к этому как потенциально возможному исходу, мы не будем стараться решить эту проблему. Я думаю, мы должны открыть новые методы, чтобы суметь ее решить».

По его мнению, единственный способ убедиться в безопасности ИИ — это метод многократных испытаний, постепенного изучения модели и отсечения нежелательных сценариев развития, пишет New Atlas.

«Я думаю, безумием было бы не быть немного напуганным, — сказал Альтман. — И я сочувствую людям, которые напуганы сильно».

И пугаться есть чего. Вскоре, как считает глава OpenAI, появится множество больших языковых моделей с открытым кодом с очень небольшим контролем безопасности или вообще без него. Можно пытаться регулировать этот процесс, можно создавать более мощный ИИ, чтобы предотвращать такое. В любом случае, действовать надо.

«Я думаю, один из множества уроков, который мы вынесли из коллапса банка Silicon Valley Bank, это то, как быстро и насколько сильно мир меняется, и насколько мало, как мне кажется, эксперты, лидеры, ведущие предприниматели, регуляторы, кто бы то ни был, понимают это. Скорость, с которой произошло банкротство SVB, из-за Твиттера, из-за банковских приложений, не важно, настолько отличалась от кризиса 2008 года, когда у нас еще не было таких штук. И я не думаю, что люди у власти понимают, насколько сильно все изменилось в этой сфере. И я думаю, это только лишь небольшая репетиция перед изменениями, которые принесет универсальный ИИ».

Футуролог, айтишник и крестный отец виртуальной реальности Джарон Ланье заслужил прозвище Мрачный оптимист за свои прогнозы о будущем человечества и рисках, которые несут нам технологии. В своих книгах он описывает опасности и минусы гаджетов и социальных сетей, которые лишают нас свободы выбора. Однако в появлении интеллектуальных чатботов вроде ChatGPT он видит возможность освобождения от опасных иллюзий.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+