Это перевод статьи Якоба Стейнхардта. Эта статья базируется на другой — «Какой будет GPT-2030https://habr.com/ru/articles/803011». С учётом того, насколько они будут способными, будущие ИИ системы смогут представлять серьёзные риски для общества. Некоторые из рисков исходят от того, что люди будут использовать ИИ в плохих целях (злоупотребление). А некоторые — от сложности контроля ИИ систем, «даже если бы мы пытались» (несогласованность).
|
Блог компании OTUS. Автор оригинала: Barry Richmond. Перевод – Ксения Мосеенкова. Научиться эффективно применять системное мышление довольно непросто. Многие умные люди слишком долго борются с парадигмой системного мышления, процессом мышления и методологией. За последние 15 лет моей работы с профессионалами в сфере бизнеса и образования я пришёл к выводу, что эта дисциплина требует овладения целым набором навыков мышления.
|
Это перевод статьи Якоба Стейнхардта, где он описывает и обосновывает свои оценки того, как будут выглядеть языковые модели в 2030 году. Статья подводит базу для ещё двух, в которых он описывает возможные при наличии подобных систем катастрофические сценарии. Их переводы тоже скоро будут выложены.
|
Предложение о резолюции «Применение безопасных, защитных и надежных искусственно-интеллектуальных систем для поддержки устойчивого развития» поддержали 120 стран-соавторов.
|
Автор оригинала: Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд. Это перевод статьи Дэна Хендрикса, Мантаса Мазейки и Томаса Вудсайда из Center for AI Safety. Статья не требует практически никаких предварительных знаний по безопасности ИИ, хотя предполагает некоторый (небольшой) уровень осведомлённости о прогрессе в этой области в последние годы.
|
|
Автор: Михаил Иванов. Привет, котаны! Как вы думаете, сможет ли современное научное сообщество найти лекарство от старости в ближайшие лет 100? Мне кажется, что нет. Учёные уже несколько веков бьются над решением этой задачи. Причём каждый раз им кажется, что ещё чуть-чуть, и они сначала разберутся в механизмах старения, а после разработают лекарство, оборачивающее старение человека вспять.
|
В университете Северной Каролины разработали новый инструмент обучения, который помогает ИИ понять, что люди не всегда говорят правду. Его будут использовать в ситуациях, когда есть экономический стимул солгать, например, при подаче заявки на ипотеку. Он поможет усовершенствовать ИИ в сфере кредитования и налогов, а в будущем пригодится в здравоохранении.
|
Американский блогер российского происхождения Лекс Фридман записал подкаст с Сэмом Альтманом, главой OpenAI, ведущего разработчика больших языковых моделей ИИ. Речь шла о так называемом сильном ИИ, превосходящем возможности человеческого интеллекта. Говорят, у OpenAI такой уже есть, и именно поэтому главный ученый компании Илья Суцкевер с ноября прошлого года не появляется в офисе и в публичном пространстве.
|
Программу научили распознавать ситуации, в которых людям выгодно говорить неправду. Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию.
|
Ученые из Польши и Великобритании провели эксперимент с участием реальных людей и аватаров, управляемых искусственным интеллектом, и пришли к выводу, что первые могут менять свои суждения в области морали под воздействием вторых.
|
Блог компании Онлайн Патент. Автор: @gregyku. Сингапур — небольшое островное государство с площадью всего 734 кв. км и населением 5,9 млн человек. В 1960-х там не было ничего, кроме трущоб, а сейчас его называют одним из самых технологически продвинутых мест планеты. Одно из самых впечатляющих преобразований — цифровизация госуправления.
|