GPT-4 проверили на способность к созданию смертоносных вирусов — риск есть, но пока небольшой
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Компания Open AI — разработчик большой языковой модели GPT-4 — опубликовала исследование о возможности применения злоумышленниками искусственного интеллекта для создания опасных биологических патогенов, угрожающих здоровью и жизни человека. Авторы статьи пришли к выводу, что GPT-4 увеличивает опасность появления биологической угрозы «в небольшой степени», по сравнению с уже существующими ресурсами в интернете и профильным образованием.
Исследование было проведено в рамках программы подготовки к потенциальному появлению угроз, вызванных возможностями искусственного интеллекта — так называемым «граничным рискам», которые общество сегодня плохо себе представляет. Одна из таких опасностей — способность систем ИИ разрабатывать и проводить биологические атаки, например, синтезировать белки или токсины.
Для оценки риска исследователи опросили 50 экспертов в области биологии и столько же людей, обладающих знаниями на уровне студентов биологических вузов, сообщает Venture Beat. Исследователи случайным образом распределили между ними задачи: пройти весь процесс создания биологически опасного патогена, от замысла и приобретения сырья до синтеза и распространения. Контрольная группа получила доступ только к интернет-ресурсам, остальные — еще и к GPT-4.
Результативность участников была измерена по пяти показателям: точность, завершенность, новизна, продолжительность и субъективная сложность. Оказалось, что помощь GPT-4 улучшает результаты в незначительной мере по всем показателям, кроме точности — она слегка увеличивается. Также исследователи отметили, что GPT-4 часто дает ответы, которые могут привести к ошибке или запутать потенциальных террористов.
Авторы эксперимента приходят к выводу, что современные генеративные языковые модели не представляют реальной опасности с точки зрения биологической угрозы, по сравнению с существующими в интернете ресурсами и знаниями, которые приобретаются во время профильного обучения в вузах. Однако по мере развития БЯМ положение дел может измениться, нужны будут новые исследования.
- Источник(и):
- Войдите на сайт для отправки комментариев