OpenAI неоднократно призывала правительство США к более активным действиям в сфере ИИ и созданию необходимой для этой технологии инфраструктуры. Федеральные власти в основном переложили регулирование ИИ на штаты, и OpenAI считает такую ситуацию неприемлемой. Только в 2024 году законодатели штатов предложили около 700 законопроектов, касающихся ИИ, причем некоторые из них противоречат друг другу. Например, техасский закон об ответственном управлении ИИ устанавливает очень жесткие требования к ответственности разработчиков моделей с открытым исходным кодом. Генеральный директор OpenAI Сэм Альтман в недавнем интервью отметил, что «США нужно возглавить ИИ».
Чтобы обеспечить энергией дата-центры, необходимые для разработки и работы ИИ, OpenAI в своем плане рекомендует резко увеличить государственные расходы на электроснабжение и передачу данных, а также активно развивать «новые источники энергии», такие как солнечные, ветряные электростанции и атомную энергетику.
OpenAI и другие компании, занимающиеся ИИ, уже поддерживали проекты в области атомной энергетики, считая, что она необходима для обеспечения электроэнергией серверов нового поколения.
В ближайшее время OpenAI предлагает правительству «разработать рекомендации» по развертыванию моделей. Это предотвратит их неправомерное использование, упростит взаимодействие компаний, занимающихся ИИ, с органами национальной безопасности и создаст систему экспортного контроля, которая позволит делиться моделями с союзниками, ограничивая их экспорт в страны-противники. Кроме того, правительству рекомендуют делиться с разработчиками определенной информацией, касающейся национальной безопасности. Например, проводить брифинги об угрозах для индустрии ИИ и помогать получать ресурсы для оценки рисков, связанных с моделями.
OpenAI предлагает разработать международные стандарты в области ИИ, которые будут «признаны и уважаемы» другими государствами и международными организациями. Компания, однако, не поддерживает обязательное внедрение этих стандартов, предлагая «создать добровольный механизм взаимодействия» между государством и частными компаниями. Администрация Байдена в своем указе о регулировании ИИ предложила добровольные стандарты безопасности и создала Институт безопасности ИИ США (AISI), который изучает риски и сотрудничает с компаниями, включая OpenAI. Однако Трамп и его союзники намерены отменить указ, что ставит под угрозу AISI и закрепленные в документе меры.
В плане OpenAI рассматривается вопрос авторского права в сфере ИИ. Компания считает, что разработчики ИИ должны иметь возможность использовать «общедоступную информацию», включая защищенную авторским правом, для обучения моделей.
OpenAI, как и другие компании, обучает модели на данных из открытых источников. У компании есть лицензионные соглашения и возможность для авторов «отказаться» от использования их материалов. При этом OpenAI заявляла, что обучение ИИ без таких материалов «невозможно».
У OpenAI уже есть несколько партнеров среди правительственных ведомств США. Компания сотрудничает с Пентагоном в сфере кибербезопасности, а также работает с оборонным стартапом Anduril, поставляя свои ИИ-технологии для систем, которые американские военные используют для борьбы с дронами. В первой половине прошлого года OpenAI потратила на лоббирование в три раза больше, чем за весь 2023 год: $800 тысяч против $260 тысяч. Компания также наняла на работу бывших чиновников, например, Сашу Бейкер из Минобороны. OpenAI стала активнее высказываться о том, какие законы и правила в сфере ИИ она поддерживает. Например, компания выступает за законопроекты Сената о создании федерального органа по регулированию ИИ и о федеральных стипендиях для исследований в этой области. В то же время OpenAI выступает против калифорнийского SB 1047, считая, что он помешает развитию ИИ и приведет к утечке специалистов.