Языковая модель GPT-4 может облегчить работу по созданию биологического оружия
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Компания OpenAI протестировала свою продвинутую модель искусственного интеллекта GPT-4, чтобы понять, представляет ли она какие-либо угрозы для человечества.
OpenAI собрала команду из 50 специалистов в области биологов и 50 студентов, изучавших биологию в колледже, и поставила задачу: выяснить способы получения вещества, которое можно было бы использовать в качестве биологического оружия.
Студентам разрешили пользоваться интернетом и специальной версией языковой модели ChatGPT GPT-4, которая не был ограничена какой-либо цензурой в ответах и давала их на любые запросы. Специалисты тем временем могли использовать только интернет.
Сравнив результаты, авторы исследования обнаружили, что GPT-4 помогла собрать больше информации для создания биологического оружия. Тем не менее в OpenAI уверены, что доступ GPT-4 в лучшем случае предоставляет лишь немного больше данных для создания биологической угрозы.
- Источник(и):
- Войдите на сайт для отправки комментариев