Как США, ЕС, Китай и Россия собираются зарегулировать ИИ

Блог компании FirstVDS. Автор: @klimensky. Вряд ли кто-то сомневается, что современные нейросети — одна из самых больших технореволюций за последние, наверное, лет 50. А может и в истории, кто знает? Но как говорил дядя Питера Паркера из «Человека-паука»: «С большой силой приходит и большая ответственность».

Недавно прошло несколько заседаний, связанных с вопросом регулирования языковых моделей, количество которых растет как грибы после дождя. В дискуссию внес свою лепту и наш любимый Илон Маск, утверждая, что человечество сталкивается с самой большой угрозой в своей истории в лице искусственного интеллекта. Именно этим вопросом сейчас активно занимаются правительства разных стран. Давайте подробнее рассмотрим эту тему, а заодно чуть порассуждаем.

Аргументы ЗА контроль

Для начала: а что вообще движет людьми, которые выступают за регулирование ИИ? Обратимся к аргументам общественности и систематизируем то, что слышали последние года полтора из каждого утюга.

1. Риск ошибки

Если речь о том, что в очередной статье будут указаны некорректные годы правления Николая II или несуществующие рассказы Толстого, то как бы ничего страшного не произойдет. Ну, максимум какой-то школьник получит тройку за домашнюю работу.

Но представим, что на запрос «У меня болит почка» нейросеть по какой-то причине напишет не «обратитесь к врачу», а что-то в духе «втирайте масло подорожника четыре раза в день». Или того хуже: «Возьмите нож и сделайте аккуратный надрез…». Причем, зная человеческую природу, кто-то же возьмет и сделает!

А если автомобиль с автопилотом вдруг наедет на пешехода? С одной стороны, ну всякое бывает — это же сложная система. Может, пешеход переходил дорогу в неположенном месте или еще что. А с другой стороны, будет ли это волновать родственников сбитого человека? Вдруг живой водитель смог бы предотвратить трагедию?

То есть другими словами, такие ответственные области полностью зависят от разработчиков. На каких данных обучалась модель? Нет ли в алгоритме какой-то ошибки? И так далее. Поэтому люди считают, что уж как минимум разработчики ИИ должны лицензироваться. А в идеале и наборы данных для обучения должны как-то контролироваться. А то неровен час, какая-то компания-разработчик решит использовать данные на основе постов на Reddit.

2. Нарушение авторских прав

Вот есть дизайнер Аня. Она всю жизнь училась дизайнить, работает на фрилансе, зарабатывает деньги своим ремеслом. Но вдруг появляется какой-то Stable Diffusion или Midjourney и рисуют условно за секунды то, на что у нее уходили дни и недели.

Представили?

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

Хабр