Сильный искусственный интеллект (AGI). Быть или не быть?
Автор: Джимшер Челидзе. Искусственный интеллект продолжает свое развитие. И все чаще от разных компаний мы слышим про сильный ИИ. Но что это и стоит ли ждать его создания в ближайшее время?
Содержание
- Введение
- Ограничения на пути к сильному ИИ
- Резюме
Введение
Сильный или общий ИИ (AGI) – это ИИ, который может ориентироваться в меняющихся условиях, моделировать и прогнозировать развитие ситуации. Если ситуация выходит за стандартные алгоритмы, то он должен самостоятельно найти ее решение. Например, решить задачу «поступить в университет». Или изучить правила игры в шашки, и вместо шахмат начать играть в шашки.
Какими качествами должен обладать такой ИИ?
Мышление – использование таких методов как дедукция, индукция, ассоциация и т.д., которые направлены на выделение фактов из информации, их представление (сохранение). Это позволит точнее решать задачи в условиях неопределённости.
Память – использование различных типов памяти (кратковременная, долговременная). Может быть использована для решения задач опираясь на предыдущий опыт. Даже если Вы попробуете пообщаться с ChatGPT 4, то увидите, что алгоритм обладает небольшой краткосрочной памятью, и через 10–15 сообщений забывает, с чего все начиналось. Вообще, по моему мнению, вопрос памяти и «массивности» ИИ-моделей станет ключевым ограничением в развитии ИИ. Об этом чуть ниже.
Планирование – тактическое и стратегическое. Да, уже есть исследования, которые утверждают, что ИИ может планировать свои действия и даже обманывать человека для достижения своих целей. Но сейчас это все равно только в стадии зарождения. И чем глубже будет планирование, особенно в условиях неопределенности, тем больше нужно мощностей. Ведь одно дело планировать игру в шахматы на 3–6 шагов в глубину, где все правила четкие, а другое в ситуации неопределенности.
Обучение – имитация действий другого объекта и обучение через проведение экспериментов. Сейчас ИИ учится на больших массивах данных, но он сам не моделирует и не проводит экспериментов. Хотя, мы не до конца понимаем, как работает тот же Chat GPT. И это одна из главных проблем. Но обучение требует формирования долгосрочной памяти и сложных взаимосвязей. А это, как мы поняли, проблема для ИИ.
Сейчас такого сильного ИИ сейчас нет ни у кого. Мы лишь на стадии перехода от слабого к промежуточному. Да, ChatGPT от OpenAI, LaMDA от Google и другие большие языковые модели (LLM) умеют генерировать текст / иллюстрацию / видео через анализ запроса и обработку больших данных. Но они лишь транслируют то, чему обучили их создатели. Они ищут наиболее вероятные варианты сочетания слов и предложений, слов и изображений, пытаются имитировать человеческую деятельность.
Но не стоит питать иллюзий, это лишь математика и статистика. А в их ответах много «брака» и «галлюцинаций». К реальному взаимодействию с миром они еще не готовы.
Давайте приведем простой пример.
В рамках своей деятельности, особенно в области управления проектами, я решил написать пост о том, почему Agile не универсальный подход к управлению проектами. Почему при правильном применении любая компания и команда должны уходить ближе к гибридным или каскадным подходам.
И я решил попробовать в деле ChatGPT, GigaChat, YaGPT и AI Search.
- Источник(и):
- Войдите на сайт для отправки комментариев