По сообщению Управления киберпространства Китая, поставщики услуг должны гарантировать, что контент является достоверным и уважает интеллектуальную собственность, а также не дискриминирует и не ставит под угрозу безопасность страны и граждан. Операторы ИИ также должны четко маркировать контент, созданный ИИ.
Эти требования — часть усилий Пекина по регулированию взрывного роста генеративного ИИ после того, как ChatGPT от OpenAI запустил гонку искусственного интеллекта в ноябре прошлого года. Компании — от Alibaba до SenseTime и Baidu — стремятся создать надежную платформу искусственного интеллекта следующего поколения для крупнейшего в мире интернет-рынка. В марте Baidu, который считается лидером на китайском рынке генеративных нейросетей, запустила тестирование чат-бота Ernie. Вслед за этим Alibaba анонсировала чат-бот под названием Tongyi Qianwen и открыла бета-тестирование для корпоративных клиентов по приглашению.
Аналогичные процессы происходят на Западе, где Google, Microsoft и другие компании разрабатывают свои ИИ-модели. Министерство торговли США только что опубликовало официальное сообщение по поводу необходимости проведения сертификации потенциально рискованных моделей ИИ перед их выпуском.
По словам главы Национального управления по телекоммуникациям и информации при Министерстве торговли США Алана Дэвидсона, «необходимо установить ограничения, чтобы быть уверенными, что ИИ-модели используются ответственно». На публичное обсуждение этого вопроса отводится 60 дней.
На прошлой неделе президент Джо Байден обсуждал в Белом доме тему ИИ с консультативным советом, в который входят представители Microsoft и Google. На вопрос репортёра, представляют ли опасность технологии ИИ, Байден ответил: «Это ещё предстоит выяснить. Возможно».
Microsoft, Google и другие компании, разрабатывающие модели генеративного ИИ, заявили, что постоянно обновляют меры безопасности, в том числе программируя чат-боты так, чтобы те не отвечали на определённые вопросы. В блоге OpenAI отмечается, что мощные системы ИИ должны подвергаться тщательной оценке безопасности. Недавно более 1300 специалистов в области искусственного интеллекта и информационных технологий, включая Илона Маска, подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GTP-4 из-за «значительных рисков для общества и человечества». Сообществом их призыв услышан не был — часть ключевых специалистов по ИИ в мире раскритиковали его и призвали не ограничивать развитие технологий. Но на растущие опасения, судя по последним событиям, решили отреагировать власти США и Китая.
В США нет федерального закона, регулирующего использование ИИ-систем, но некоторые госучреждения используют уже существующие юридические рычаги. Антимонопольное подразделение Министерства юстиции США заявило, что следит за конкуренцией в этом секторе, а Федеральная торговая комиссия США предупредила компании о юридических последствиях ложных или необоснованных заявлений о ИИ-сервисах.