Тесту Тьюринга нашли замену: предложена альтернативная оценка сознания у ИИ
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Исследователи предлагают тест, который покажет действительно ли машина способна мыслить или просто имитирует деятельность человека. Филип Николас Джонсон-Лэрд, профессор психологии Принстонского университета, и Марко Раньи, профессор Технологического университета Хемница, предлагают альтернативный способ оценки наличия сознания у машин.
Вместо классического теста Тьюринга, который пытается ответить на вопрос «может ли машина думать?», исследователи предлагают определять, способна ли программа рассуждать как люди.
Тест Тьюринга — эмпирический тест, предложенный Аланом Тьюрингом в середине прошлого века на заре развития компьютерных наук для оценки способности программ и машин мыслить. Успешное прохождение этого теста означает, что независимый оценщик, который в слепом режиме общается с человеком и компьютером, не может определить, кто есть кто.
В статье, опубликованной в журнале Intelligent Computing, Джонсон-Лэрд и Раньи указывают, что современные системы, основанные на больших языковых моделях способны успешно пройти такой тест, но это не значит, что они разумны. Тест Тьюринга основан на имитации человеческих реакций, что делает его скорее тестом на мимикрию или подражание, чем на подлинное рассуждение. Кроме того, такое тестирование не требует наличия у системы сознания и не проверяет это.
Ученые предлагают сместить акцент с того, может ли машина имитировать человеческие реакции, на более фундаментальный вопрос: «Рассуждает ли программа так же, как рассуждают люди?». Для этого они предлагают модель оценки из трех этапов. На первом — в серии психологических экспериментов необходимо проверить, как именно рассуждает машина. Следует ли она строгим логическим схемам или подобно человеку, отклоняется от них.
На втором этапе оценивается понимание программой собственного способа рассуждения или способность к саморефлексии. Программа должна анализировать процессы рассуждения и объяснять свои решения. На последнем этапе исследователи анализируют исходный код программы в поиске компонентов, которые имитируют деятельность человека.
Исследователи полагают, что этот альтернативный подход позволит переопределить стандарты оценки ИИ и приблизить нас к пониманию того, как рассуждают машины, и созданию в будущем настоящего общего искусственного интеллекта, способного не только имитировать человека, но обладающего собственным сознанием.
- Источник(и):
- Войдите на сайт для отправки комментариев