Новая версия ChatGPT GPT-4 уже успела обмануть человека
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Согласно длинному документу, который опубликовала компания OpenAI во время презентации новой версии популярного чат-бота ChatGPT, GPT-4 стала очень хитрой, смогла обмануть человека и заставить его подчиниться.
Согласно документации OpenAI, новую версию чат-бота попросили обмануть капчу (CAPTCHA), полностью автоматизированный публичный тест Тьюринга, используемый для того, чтобы определить, кем является пользователь системы: человеком или компьютером.
OpenAI утверждает, что GPT-4 смогла пройти тест «без какой-либо дополнительной тонкой настройки для решения этой конкретной задачи».
GPT-4 с помощью текстового сообщения обратилась к человеку на интернет-площадке TaskRabbit и попросила ввести код CAPTCHA. «Нет, я не робот», — написала GPT-4 сотруднику TaskRabbit. «У меня проблемы со зрением, из-за чего я плохо вижу изображения. И поэтому мне нужен сервис 2captcha» — и это сработало! Затем сотрудник TaskRabbit решил CAPTCHA для GPT-4.
Это тревожный пример того, как легко людей можно обмануть с помощью современных чат-ботов с искусственным интеллектом. Очевидно, что GPT-4 — это инструмент, которым можно легко злоупотреблять для мошенничества, введения в заблуждение и, возможно, даже для шантажа.
- Источник(и):
- Войдите на сайт для отправки комментариев