OpenAI незаметно сняла запрет на использование ChatGPT в военных целях

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

OpenAI изменила свою политику, убрав явный запрет на использование своих технологий в военных целях. Новая формулировка сохраняет запрет на причинение вреда и упоминает разработку оружия, но не вводит полный запрет на военное использование. Эти изменения вызвали обеспокоенность экспертов, которые указывают на возможные последствия для безопасности и этики в военных приложениях. Военные по всему миру активно внедряют методы машинного обучения, несмотря на риски безопасности при работе с секретными данными и галлюцинации ИИ.

Это редактирование — часть масштабного изменения политики, которое, по словам компании, было призвано сделать документ «более понятным и читабельным». Оно включает в себя много других существенных изменений в формулировках и форматировании.

«Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, которые также могут создавать GPT. Такой принцип, как „Не причиняй вреда другим“, является широким, но понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей», — сказал представитель OpenAI Нико Феликс.

Он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях.

Хейди Клааф, эксперт по машинному обучению и безопасности автономных систем, отметила, что OpenAI хорошо осознает риски и вред, связанные с возможным использованием их технологий и услуг в военных целях. Новая политика OpenAI отдает более высокий приоритет законности по сравнению с безопасностью.

Она сказала: «Между этими двумя политиками существует явная разница: в первой четко указано, что разработка вооружений, а также военные действия запрещены, а во второй подчеркивается гибкость и соблюдение закона».

Однако разработка оружия и осуществление военной деятельности в различной степени законны. Клааф выразила опасения относительно последствий для безопасности, учитывая многочисленные случаи предвзятости и галлюцинаций в больших языковых моделях. Она подчеркнула, что использование этих технологий в военных операциях может усугубить ущерб и увеличить число жертв среди гражданского населения.

Директор института AI Now Сара Майерс Уэст упоминает применение систем искусственного интеллекта в атаках на гражданское население в секторе Газа. Она также подчеркивает, что формулировка политики осталась расплывчатой.

Хотя на данный момент искусственный интеллект не способен прямо участвовать в насилии и убийствах, существует значительное количество вспомогательных задач, выполняемых ИИ для военных нужд. Сотрудники вооруженных сил США уже применяют технологию OpenAI для ускорения процесса оформления документов. Национальное агентство геопространственной разведки, напрямую участвующее в военных операциях США, публично объявило, что ее аналитики пользуются ChatGPT. Даже если инструменты OpenAI в военных структурах используются для задач, не связанных с непосредственным насилием, они тем не менее косвенно способствуют ведению боевых действий и нанесению ущерба жизни людей.

По мнению экспертов, OpenAI ослабляет свою позицию по взаимодействию с военными структурами. Переход от упоминания «военных действий» к «оружию» может создать возможность для компании поддерживать операционную инфраструктуру, пока её применение не столкнется с прямой разработкой оружия в узком смысле. Кроме того, OpenAI тесно сотрудничает с Microsoft, крупным оборонным подрядчиком, который вложил $13 млрд в производителя LLM.

Военные по всему миру активно внедряют методы машинного обучения, в том числе исследуют использование ChatGPT. Эти модели обучаются на больших объемах данных, но не всегда гарантируют четкое понимание реальности. Быстрый анализ текста делает такие модели привлекательными для министерства обороны, работающего с огромными данными.

Некоторые высокопоставленные представители военного руководства США выразили беспокойство относительно тенденции больших языковых моделей вставлять ошибки и искажения, а также рисков безопасности, связанных с использованием ChatGPT для анализа секретных данных. Но Пентагон все равно стремится применять искусственный интеллект. В ноябре заместитель министра обороны Кэтлин Хикс заявила, что искусственный интеллект является ключевой частью всестороннего подхода к военным инновациям. Вместе с тем она отметила, что большинство текущих предложений еще не соответствуют этическим принципам.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4 (2 votes)
Источник(и):

ХайТек+