ИИ: пора начинать бояться?
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Искусственный интеллект (ИИ) уже вышел за рамки академических лабораторий и стал неотъемлемой частью нашей повседневной жизни. От систем рекомендаций в интернет-магазинах до ассистентов и автономных транспортных средств — ИИ непрерывно трансформирует множество аспектов нашего общества. Однако, вместе с возможностями, которые он предоставляет, возникает и беспокойство относительно его потенциальных угроз.
Широко обсуждаемые сценарии, в которых машины могут обрести сознание или начать действовать вопреки интересам человечества, стали темой, как вечерних телевизионных ток-шоу, так и серьёзных академических исследований. Захватывающие сюжетные линии научно-фантастических произведений превращаются в массовом сознании в очередную фобию.
Меня зовут Тимур, эту статью я предлагаю вашему вниманию в качестве руководителя команды разработки (Development Team Leader) международного проекта по созданию сильного искусственного интеллекта (AGI) для поддержки предпринимателей среднего и малого бизнеса (SME). Но сегодня разговор почти не связан с тем, над чем без малого год занимается наша команда.
Сегодня я бы хотел поговорить о безопасности искусственного интеллекта. В этой статье я хочу поделиться своим взглядом на эту проблему, проведя нестрогий анализ возможных рисков. Также мне бы хотелось остановиться на некоторых технологических и технических аспектах создания сильного ИИ и в некоторой степени поспорить с философским подходом к теме безопасности искусственного интеллекта и синтетического сознания.
Я знаю, что не все члены Сообщества любят формат «long read». Именно ориентируясь на них, я вынес некоторые рассуждения и поясняющие примеры в блоки, названные мною «лирические отступления» — их запросто можно не читать. Но если кому то ближе формат поста, то я сразу «телеграфной строкой» приведу резюме выводов, к которым пришёл в итоге:
Бояться уже пора, но не ИИ, а человека. ИИ может нести экзистенциальный риск человечеству лишь в случае, если разработчики преднамеренно заложат в него подобные цели. Одним словом, всё как всегда.
Экономические и социальные риски существуют, но их оценка сильно искажена политическими манипуляциями различного толка. Что же касательно персональных рисков, то ИИ их не увеличивает.
Теперь можно сразу переходить в комментарии или к чтению публикаций других авторов. Текст же ниже предлагается в качестве воскресного чтива тем, кому интересно, каким образом я пришел к подобным выводам.
Кого или чего нам стоит бояться?
- Источник(и):
- Войдите на сайт для отправки комментариев