Блог компании Росатом. На связи Алексей Мартынов и Денис Ларионов, мы продолжаем делиться актуальной аналитикой о генеративном ИИ. Предыдущую нашу статью с описанием текущего положения дел на рынке генеративного ИИ и прогнозом до 2032 года найдёте здесь.
|
Даже если риск гибели человеческой цивилизации в результате восстания машин один к пяти, технология искусственного интеллекта того стоит, считает Илон Маск. Выступая на саммите Abundance в Амстердаме, он уточнил свои прежние прогнозы относительно конца света и согласился с мнением Джеффри Хинтона, бывшего руководителя отдела исследований ИИ в Google, считающего, что ИИ вполне сможет в ближайшие годы обрести сознание и захотеть избавиться от людей.
|
Блог компании Сбер. Автор: Анна Колосова. Искусственный интеллект развивается быстрее, чем многие ожидали. Он постепенно проникает во все сферы жизни — куда то более стремительно, куда то с осторожностью. Но куда бы люди не интегрировали интеллектуальные системы, цели остаются неизменными: сокращение рутинных процессов, повышение их эффективности, помощь человеку в достижении высоких результатов, экономия времени.
|
Это перевод статьи Якоба Стейнхардта. Эта статья базируется на другой — «Какой будет GPT-2030https://habr.com/ru/articles/803011». С учётом того, насколько они будут способными, будущие ИИ системы смогут представлять серьёзные риски для общества. Некоторые из рисков исходят от того, что люди будут использовать ИИ в плохих целях (злоупотребление). А некоторые — от сложности контроля ИИ систем, «даже если бы мы пытались» (несогласованность).
|
Блог компании OTUS. Автор оригинала: Barry Richmond. Перевод – Ксения Мосеенкова. Научиться эффективно применять системное мышление довольно непросто. Многие умные люди слишком долго борются с парадигмой системного мышления, процессом мышления и методологией. За последние 15 лет моей работы с профессионалами в сфере бизнеса и образования я пришёл к выводу, что эта дисциплина требует овладения целым набором навыков мышления.
|
Это перевод статьи Якоба Стейнхардта, где он описывает и обосновывает свои оценки того, как будут выглядеть языковые модели в 2030 году. Статья подводит базу для ещё двух, в которых он описывает возможные при наличии подобных систем катастрофические сценарии. Их переводы тоже скоро будут выложены.
|
Предложение о резолюции «Применение безопасных, защитных и надежных искусственно-интеллектуальных систем для поддержки устойчивого развития» поддержали 120 стран-соавторов.
|
Автор оригинала: Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд. Это перевод статьи Дэна Хендрикса, Мантаса Мазейки и Томаса Вудсайда из Center for AI Safety. Статья не требует практически никаких предварительных знаний по безопасности ИИ, хотя предполагает некоторый (небольшой) уровень осведомлённости о прогрессе в этой области в последние годы.
|
|
Автор: Михаил Иванов. Привет, котаны! Как вы думаете, сможет ли современное научное сообщество найти лекарство от старости в ближайшие лет 100? Мне кажется, что нет. Учёные уже несколько веков бьются над решением этой задачи. Причём каждый раз им кажется, что ещё чуть-чуть, и они сначала разберутся в механизмах старения, а после разработают лекарство, оборачивающее старение человека вспять.
|
В университете Северной Каролины разработали новый инструмент обучения, который помогает ИИ понять, что люди не всегда говорят правду. Его будут использовать в ситуациях, когда есть экономический стимул солгать, например, при подаче заявки на ипотеку. Он поможет усовершенствовать ИИ в сфере кредитования и налогов, а в будущем пригодится в здравоохранении.
|
Американский блогер российского происхождения Лекс Фридман записал подкаст с Сэмом Альтманом, главой OpenAI, ведущего разработчика больших языковых моделей ИИ. Речь шла о так называемом сильном ИИ, превосходящем возможности человеческого интеллекта. Говорят, у OpenAI такой уже есть, и именно поэтому главный ученый компании Илья Суцкевер с ноября прошлого года не появляется в офисе и в публичном пространстве.
|