Это редактирование — часть масштабного изменения политики, которое, по словам компании, было призвано сделать документ «более понятным и читабельным». Оно включает в себя много других существенных изменений в формулировках и форматировании. «Мы стремились создать набор универсальных принципов, которые легко запомнить и применять, тем более что наши инструменты теперь используются во всем мире обычными пользователями, которые также могут создавать GPT. Такой принцип, как „Не причиняй вреда другим“, является широким, но понятным и актуальным во многих контекстах. Кроме того, в качестве ярких примеров мы специально привели оружие и ранения других людей», — сказал представитель OpenAI Нико Феликс. Он отказался сообщить, распространяется ли расплывчатый запрет на «нанесение вреда» на любое использование в военных целях.
Хейди Клааф, эксперт по машинному обучению и безопасности автономных систем, отметила, что OpenAI хорошо осознает риски и вред, связанные с возможным использованием их технологий и услуг в военных целях. Новая политика OpenAI отдает более высокий приоритет законности по сравнению с безопасностью. Она сказала: «Между этими двумя политиками существует явная разница: в первой четко указано, что разработка вооружений, а также военные действия запрещены, а во второй подчеркивается гибкость и соблюдение закона». Однако разработка оружия и осуществление военной деятельности в различной степени законны. Клааф выразила опасения относительно последствий для безопасности, учитывая многочисленные случаи предвзятости и галлюцинаций в больших языковых моделях. Она подчеркнула, что использование этих технологий в военных операциях может усугубить ущерб и увеличить число жертв среди гражданского населения.
Директор института AI Now Сара Майерс Уэст упоминает применение систем искусственного интеллекта в атаках на гражданское население в секторе Газа. Она также подчеркивает, что формулировка политики осталась расплывчатой.
Хотя на данный момент искусственный интеллект не способен прямо участвовать в насилии и убийствах, существует значительное количество вспомогательных задач, выполняемых ИИ для военных нужд. Сотрудники вооруженных сил США уже применяют технологию OpenAI для ускорения процесса оформления документов. Национальное агентство геопространственной разведки, напрямую участвующее в военных операциях США, публично объявило, что ее аналитики пользуются ChatGPT. Даже если инструменты OpenAI в военных структурах используются для задач, не связанных с непосредственным насилием, они тем не менее косвенно способствуют ведению боевых действий и нанесению ущерба жизни людей.
По мнению экспертов, OpenAI ослабляет свою позицию по взаимодействию с военными структурами. Переход от упоминания «военных действий» к «оружию» может создать возможность для компании поддерживать операционную инфраструктуру, пока её применение не столкнется с прямой разработкой оружия в узком смысле. Кроме того, OpenAI тесно сотрудничает с Microsoft, крупным оборонным подрядчиком, который вложил $13 млрд в производителя LLM.
Военные по всему миру активно внедряют методы машинного обучения, в том числе исследуют использование ChatGPT. Эти модели обучаются на больших объемах данных, но не всегда гарантируют четкое понимание реальности. Быстрый анализ текста делает такие модели привлекательными для министерства обороны, работающего с огромными данными.
Некоторые высокопоставленные представители военного руководства США выразили беспокойство относительно тенденции больших языковых моделей вставлять ошибки и искажения, а также рисков безопасности, связанных с использованием ChatGPT для анализа секретных данных. Но Пентагон все равно стремится применять искусственный интеллект. В ноябре заместитель министра обороны Кэтлин Хикс заявила, что искусственный интеллект является ключевой частью всестороннего подхода к военным инновациям. Вместе с тем она отметила, что большинство текущих предложений еще не соответствуют этическим принципам.