Сэм Альтман: «Генеративный ИИ изменит общество, и мне немного страшно»

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Руководитель OpenAI, разработчика языковой модели GPT-4 и чатбота ChatGPT, верит, что искусственный интеллект преобразит человечество. Он может стать «величайшей из всех созданных людьми технологий» и в значительной мере улучшит жизнь, но опасности, которые она несет, также вполне реальны. Прежде всего, он боится волны дезинформации, а также роста безработицы.

«Мы должны быть осторожны, — сказал Сэм Альтман в интервью ABC News. — Я думаю, люди должны быть довольны, что мы немного напуганы».

В разговоре, посвященном недавнему выходу нового поколения языковой модели GPT-4 Альтман в очередной раз подтвердил свою позицию относительно регулирования ИИ: оно необходимо, как и участие общества. Обратная связь пользователей ChatGPT помогает ограничить потенциальные негативные последствия. И добавил, что находится в «постоянном контакте» с правительством.

ChatGPT, появившийся в открытом доступе несколько месяцев назад, уже считается самым быстро растущим приложением в истории — количество активных пользователей перевалило за 100 миллионов. Для сравнения, Инстаграму потребовалось на это три года, ТикТоку — девять месяцев. Признавая успех своего продукта, Альтман, тем не менее, видит и определенные риски, связанные с его внедрением.

«В особенности меня тревожит, что эти модели могут быть использованы для масштабной дезинформации, — сказал он. — Теперь, когда они научились лучше писать компьютерный код, их могут использовать для активных кибератак».

Сами по себе они не опасны, но могут стать мощным инструментом в руках людей.

«Другие люди могут не придерживаться таких ограничений, которые накладываем на себя мы, — добавил он. — Общество, я полагаю, обладает ограниченным запасом времени, чтобы понять, как на это реагировать, как это регулировать, как это использовать».

Возможность дезинформировать общество Альтман считает главной опасностью генеративных моделей.

«То, о чем я пытаюсь предостеречь людей больше всего, я зову „проблемой галлюцинаций“. Модель с уверенностью утверждает нечто, что считает фактом, хотя она выдумала все с начала и до конца», — сказал он.

Эта проблема заложена в природе модели: она создавалась для написания художественных текстов и использует принципы дедуктивного мышления, а не факты. GPT предсказывает следующее слово на основании огромного массива прочитанных предложений, где это слово используется. Со временем, как надеется Альтман и его коллеги, модель разовьет в себе способность к рассуждению и научится использовать интернет для того, чтобы отделить факты от вымысла. Например, GPT-4 на 40% чаще дает точную информацию, чем предыдущая версия. Однако и ее пока не следует использовать в качестве основного источника информации.

Еще одна опасность, исходящая от этой технологии — рост безработицы. По мнению Альтмана, в такая ситуация вполне вероятно возникнет, причем в самом ближайшем будущем.

«Я думаю, через пару поколений человечество докажет, что способно отлично адаптироваться к крупным технологическим сдвигам. Но если такое происходит менее чем за десять лет, некоторые из таких сдвигов… Это меня тревожит больше всего», — заявил глава OpenAI.

Впрочем, Сэм Альтман убежден, что «творческий потенциал человечества безграничен, и мы найдем новую работу. Мы найдем, чем заняться».

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

ХайТек+