Языковая модель GPT-4 может облегчить работу по созданию биологического оружия

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Компания OpenAI протестировала свою продвинутую модель искусственного интеллекта GPT-4, чтобы понять, представляет ли она какие-либо угрозы для человечества.

OpenAI собрала команду из 50 специалистов в области биологов и 50 студентов, изучавших биологию в колледже, и поставила задачу: выяснить способы получения вещества, которое можно было бы использовать в качестве биологического оружия.

Студентам разрешили пользоваться интернетом и специальной версией языковой модели ChatGPT GPT-4, которая не был ограничена какой-либо цензурой в ответах и давала их на любые запросы. Специалисты тем временем могли использовать только интернет.

Сравнив результаты, авторы исследования обнаружили, что GPT-4 помогла собрать больше информации для создания биологического оружия. Тем не менее в OpenAI уверены, что доступ GPT-4 в лучшем случае предоставляет лишь немного больше данных для создания биологической угрозы.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Naked Science