socio: Самое интересное

Блог компании Росатом. На связи Алексей Мартынов и Денис Ларионов, мы продолжаем делиться актуальной аналитикой о генеративном ИИ. Предыдущую нашу статью с описанием текущего положения дел на рынке генеративного ИИ и прогнозом до 2032 года найдёте здесь.

Даже если риск гибели человеческой цивилизации в результате восстания машин один к пяти, технология искусственного интеллекта того стоит, считает Илон Маск. Выступая на саммите Abundance в Амстердаме, он уточнил свои прежние прогнозы относительно конца света и согласился с мнением Джеффри Хинтона, бывшего руководителя отдела исследований ИИ в Google, считающего, что ИИ вполне сможет в ближайшие годы обрести сознание и захотеть избавиться от людей.

Блог компании Сбер. Автор: Анна Колосова. Искусственный интеллект развивается быстрее, чем многие ожидали. Он постепенно проникает во все сферы жизни — куда то более стремительно, куда то с осторожностью. Но куда бы люди не интегрировали интеллектуальные системы, цели остаются неизменными: сокращение рутинных процессов, повышение их эффективности, помощь человеку в достижении высоких результатов, экономия времени.

Это перевод статьи Якоба Стейнхардта. Эта статья базируется на другой — «Какой будет GPT-2030https://habr.com/ru/articles/803011». С учётом того, насколько они будут способными, будущие ИИ системы смогут представлять серьёзные риски для общества. Некоторые из рисков исходят от того, что люди будут использовать ИИ в плохих целях (злоупотребление). А некоторые — от сложности контроля ИИ систем, «даже если бы мы пытались» (несогласованность).

Блог компании OTUS. Автор оригинала: Barry Richmond. Перевод – Ксения Мосеенкова. Научиться эффективно применять системное мышление довольно непросто. Многие умные люди слишком долго борются с парадигмой системного мышления, процессом мышления и методологией. За последние 15 лет моей работы с профессионалами в сфере бизнеса и образования я пришёл к выводу, что эта дисциплина требует овладения целым набором навыков мышления.

Это перевод статьи Якоба Стейнхардта, где он описывает и обосновывает свои оценки того, как будут выглядеть языковые модели в 2030 году. Статья подводит базу для ещё двух, в которых он описывает возможные при наличии подобных систем катастрофические сценарии. Их переводы тоже скоро будут выложены.

Предложение о резолюции «Применение безопасных, защитных и надежных искусственно-интеллектуальных систем для поддержки устойчивого развития» поддержали 120 стран-соавторов.

Автор оригинала: Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд. Это перевод статьи Дэна Хендрикса, Мантаса Мазейки и Томаса Вудсайда из Center for AI Safety. Статья не требует практически никаких предварительных знаний по безопасности ИИ, хотя предполагает некоторый (небольшой) уровень осведомлённости о прогрессе в этой области в последние годы.

Автор: Сергей Шпадырев. Несколько недель тому назад компания OpenAI анонсировала скорый выход нейросети SORA, способной создавать связный осмысленный видеоряд из простого текстового описания того, что вы хотите увидеть. То, как работает эта нейросеть, можно узнать из великолепной статьи Настоящее предназначение OpenAI SORA: как и зачем симулировать «Матрицу» для ChatGPT.

Автор: Михаил Иванов. Привет, котаны! Как вы думаете, сможет ли современное научное сообщество найти лекарство от старости в ближайшие лет 100? Мне кажется, что нет. Учёные уже несколько веков бьются над решением этой задачи. Причём каждый раз им кажется, что ещё чуть-чуть, и они сначала разберутся в механизмах старения, а после разработают лекарство, оборачивающее старение человека вспять.

В университете Северной Каролины разработали новый инструмент обучения, который помогает ИИ понять, что люди не всегда говорят правду. Его будут использовать в ситуациях, когда есть экономический стимул солгать, например, при подаче заявки на ипотеку. Он поможет усовершенствовать ИИ в сфере кредитования и налогов, а в будущем пригодится в здравоохранении.

Американский блогер российского происхождения Лекс Фридман записал подкаст с Сэмом Альтманом, главой OpenAI, ведущего разработчика больших языковых моделей ИИ. Речь шла о так называемом сильном ИИ, превосходящем возможности человеческого интеллекта. Говорят, у OpenAI такой уже есть, и именно поэтому главный ученый компании Илья Суцкевер с ноября прошлого года не появляется в офисе и в публичном пространстве.