Сильный искусственный интеллект (AGI). Быть или не быть?

Автор: Джимшер Челидзе. Искусственный интеллект продолжает свое развитие. И все чаще от разных компаний мы слышим про сильный ИИ. Но что это и стоит ли ждать его создания в ближайшее время?

Содержание

- Введение

- Ограничения на пути к сильному ИИ

- Резюме

Введение

Сильный или общий ИИ (AGI) – это ИИ, который может ориентироваться в меняющихся условиях, моделировать и прогнозировать развитие ситуации. Если ситуация выходит за стандартные алгоритмы, то он должен самостоятельно найти ее решение. Например, решить задачу «поступить в университет». Или изучить правила игры в шашки, и вместо шахмат начать играть в шашки.

Какими качествами должен обладать такой ИИ?

Мышление – использование таких методов как дедукция, индукция, ассоциация и т.д., которые направлены на выделение фактов из информации, их представление (сохранение). Это позволит точнее решать задачи в условиях неопределённости.

Память – использование различных типов памяти (кратковременная, долговременная). Может быть использована для решения задач опираясь на предыдущий опыт. Даже если Вы попробуете пообщаться с ChatGPT 4, то увидите, что алгоритм обладает небольшой краткосрочной памятью, и через 10–15 сообщений забывает, с чего все начиналось. Вообще, по моему мнению, вопрос памяти и «массивности» ИИ-моделей станет ключевым ограничением в развитии ИИ. Об этом чуть ниже.

Планирование – тактическое и стратегическое. Да, уже есть исследования, которые утверждают, что ИИ может планировать свои действия и даже обманывать человека для достижения своих целей. Но сейчас это все равно только в стадии зарождения. И чем глубже будет планирование, особенно в условиях неопределенности, тем больше нужно мощностей. Ведь одно дело планировать игру в шахматы на 3–6 шагов в глубину, где все правила четкие, а другое в ситуации неопределенности.

Обучение – имитация действий другого объекта и обучение через проведение экспериментов. Сейчас ИИ учится на больших массивах данных, но он сам не моделирует и не проводит экспериментов. Хотя, мы не до конца понимаем, как работает тот же Chat GPT. И это одна из главных проблем. Но обучение требует формирования долгосрочной памяти и сложных взаимосвязей. А это, как мы поняли, проблема для ИИ.

Сейчас такого сильного ИИ сейчас нет ни у кого. Мы лишь на стадии перехода от слабого к промежуточному. Да, ChatGPT от OpenAI, LaMDA от Google и другие большие языковые модели (LLM) умеют генерировать текст / иллюстрацию / видео через анализ запроса и обработку больших данных. Но они лишь транслируют то, чему обучили их создатели. Они ищут наиболее вероятные варианты сочетания слов и предложений, слов и изображений, пытаются имитировать человеческую деятельность.

Но не стоит питать иллюзий, это лишь математика и статистика. А в их ответах много «брака» и «галлюцинаций». К реальному взаимодействию с миром они еще не готовы.

Давайте приведем простой пример.

В рамках своей деятельности, особенно в области управления проектами, я решил написать пост о том, почему Agile не универсальный подход к управлению проектами. Почему при правильном применении любая компания и команда должны уходить ближе к гибридным или каскадным подходам.

И я решил попробовать в деле ChatGPT, GigaChat, YaGPT и AI Search.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр