Глава Google считает, что страх перед ИИ «совершенно оправдан»
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Сундар Пичаи, генеральный директор Google, одной из крупнейших компаний, работающих в области искусственного интеллекта, в интервью на этой неделе сказал, что опасения по поводу пагубного применения технологии «совершенно оправданы» – однако мы должны доверять технологической индустрии в том, что она сумеет со всей ответственностью урегулировать её использование.
В беседе с The Washington Post Пичаи сказал, что новые ИИ-инструменты – лежащие в основе таких инноваций, как робомобили и распознающие заболевания алгоритмы – требуют от компаний определять этические рамки и тщательно продумывать, как этой технологией можно злоупотребить.
«Думаю, технобизнес должен понять, что нельзя сначала создать её, а потом исправить, — сказал Пичаи. – Я думаю, это не сработает».
Техногиганты должны гарантировать, что ИИ, «имеющий свои цели», не навредит человечеству, сказал Пичаи. Он сказал, что оптимистично оценивает долгосрочные преимущества технологии, но его оценка потенциальных рисков ИИ совпадает с мнением некоторых критиков технологий, утверждающих, что эту технологию можно будет использовать для внедрения инвазивной слежки, изготовления смертельного оружия и распространения дезинформации. Другие управляющие технокомпаний, такие, как основатель SpaceX и Tesla Илон Маск, сделали более смелые предсказания, согласно которым ИИ может оказаться «гораздо опаснее ядерных бомб».
ИИ технология от Google лежит в основе всего, от спорного китайского проекта компании до появления полных ненависти и теорий заговора видеороликов на сервисе YouTube, являющемся подразделением компании. Эту проблему Пичаи обещал решить в будущем году. То, как в Google решают применять ИИ, также породило недавние волнения среди работников компании.
Призыв Пичаи к саморегулированию последовал за его выступлением в Конгрессе, где законотворцы угрожали ограничить использование технологии в ответ на неправильное её использование, в том числе – как посредника для распространения дезинформации и высказываний, несущих ненависть [hate speech].
Его признание наличия возможных угроз со стороны ИИ было критически важным, поскольку ранее этот программист, родившийся в Индии, часто расхваливал то, как изменят мир последствия внедрения автоматизированных систем, способных обучаться и принимать решения без надзора со стороны человека.
Пичаи рассказал в интервью, что законодатели всего мира до сих пор пытаются осознать эффект ИИ и потенциальную необходимость его государственного регулирования.
«Иногда меня беспокоит, что люди недооценивают масштабы изменений, которые могут произойти в ближайшей и среднесрочной перспективе, и я думаю, что эти вопросы на самом деле крайне сложны», — сказал он.
Другие техногиганты, включая Microsoft, недавно занялись регулированием ИИ – как со стороны компаний, создающих эту технологию, так и со стороны правительств, надзирающих за её использованием.
Однако при надлежащем обращении ИИ может дать «огромные преимущества», пояснил Пичаи, включая помощь врачам в распознавании глазных заболеваний и других болезней при помощи автоматического сканирования историй болезни.
«Регулировать технологию, находящуюся на ранней стадии развития, тяжело, но я думаю, что компании должны заниматься саморегуляцией, — сказал он. – Поэтому мы так активно пытаемся озвучить набор принципов ИИ. Мы, возможно, не всё сделали правильно, но мы подумали, что важно начать этот диалог».
Пичаи, присоединившийся к Google в 2004-м, и через занявший пост генерального директора, в январе
назвал ИИ «одной из важнейших вещей, над которыми работает человечество» и сказал, что она может оказаться «более важной» для человечества, чем «электричество или огонь».
Однако гонка в совершенствовании машин, способных работать самостоятельно, породило знакомые опасения, что корпоративный дух Кремниевой долины – «делай быстро, наноси ущерб», как однажды описали это в Facebook – может привести к тому, что мощная и несовершенная технология устранит рабочие места и навредит людям.
В самой компании Google попытки создать ИИ также вызывают споры: компания столкнулась со шквалом критики в этом году из-за работы над контрактом для министерства обороны, в рамках которого ИИ, способный автоматически маркировать автомобили, здания и другие объекты, будет использоваться в военных дронах. Некоторые сотрудники даже уволились, назвав причиной этого заработок компании на «военном бизнесе».
Пичаи в ответ на вопросы о такой реакции сотрудников сказал газете, что эти работники были «важной частью нашей культуры. У них есть возможность сказать своё слово, и это важно для компании, это то, что мы ценим», — сказал он.
В июне, после анонса, где компания сообщила, что не будет продлять этот контракт, Пичаи раскрыл набор этических принципов при создании ИИ, куда входит
запрет на разработку систем, которые могут быть использованы для причинения вреда, нарушения прав человека или помогать следить за людьми «в нарушение норм, принятых международным сообществом».
Компанию критиковали за выпуск во всеобщее пользование инструментов для работы с ИИ, которые могут быть использованы во вред. Выпущенный в свет в 2015 программный пакет TensorFlow, внутренняя система машинного обучения Google, помог ускорить широкомасштабную разработку ИИ, но при этом была использована для автоматизации создания поддельных видеороликов, которые затем были использованы для дезинформации и преследования.
Google и лично Пичаи защищали выпуск, утверждая, что ограничение распространения технологии означало бы, что общественность недостаточно тщательно контролировала бы её, а разработчики и исследователи не смогли бы улучшить её возможности так, чтобы это пошло ей на пользу.
«Я считаю, что со временем, успешно развивая технологию, важно обсуждать этические проблемы и когнитивные искажения, и развивать её одновременно, — сказал Пичаи в интервью. – В некотором смысле нам хочется разработать этическую платформу, привлечь учёных не из области информатики на раннем этапе развития. Необходимо вовлекать человечество более активно, поскольку эта технология повлияет на человечество».
Пичаи сравнил ранние попытки установки параметров ИИ с попытками научного сообщества ограничить генетические исследования на ранних этапах развития этой области.
«Многие биологи начали проводить разграничения, указывающие, куда должна развиваться технология, — сказал он. – Академическое сообщество занялось активным саморегулированием, что, как мне кажется, было чрезвычайно важно».
Директор Google сказал, что такой подход был бы совершенно необходим при разработке автономного оружия – а эта проблема мучает директоров и сотрудников технокомпаний.
В июле тысячи работников индустрии, представлявших такие компании, как Google, подписали петицию по запрещению ИИ-инструментов, которые можно было бы запрограммировать на убийство.
Пичаи сказал, что посчитал несколько наполненных ненавистью и теориями заговора на YouTube, описанных в статье WP, «отвратительными», и дал понять, что компания будет работать над улучшением систем, распознающих проблемный контент. В этих роликах, суммарные просмотры которых превысили несколько миллионов раз с момента появления в апреле, обсуждались беспочвенные обвинения Хиллари Клинтон и её давней помощницы Хьюмы Абедин в том, что они напали на девочку, убили её и выпили её кровь.
Пичаи сказал, что сам не видел этих роликов, о которых ему задавали вопросы в Конгрессе, и отказался сообщить, являются ли подобные недостатки YouTube результатом ограничений распознающих нежелательный контент систем или правил оценки необходимости удаления видео. Но он добавил, что «в 2019 году вы увидите больше работы в этой области с нашей стороны».
Пичаи также охарактеризовал попытки Google разработать новый продукт в контролируемом Китаем сегменте интернета, как предварительные, и не сообщил, что это может быть за продукт и когда он может появиться на рынке, если вообще выйдет.
Его называют «проект Стрекоза» [Project Dragonfly], и он вызвал сильную негативную реакцию сотрудников и борцов за соблюдение прав, предупреждающих о возможной помощи компании Google в правительственной слежке за гражданами страны, нетерпимой к политическим диссидентам. В ответ на вопрос о возможности того, что Google создаст продукт, позволяющий китайским чиновникам узнавать, когда человек вводит в поиск некие чувствительные слова, типа «резня на площади Тяньаньмэнь», Пичаи сказал, что подобные суждения пока слишком рано выносить.
«Всё это гипотетические рассуждения, — сказал Пичаи. — Мы ужасно далеко от такого положения вещей».
Автор: Вячеслав Голованов
- Источник(и):
- Войдите на сайт для отправки комментариев