Hitech logo

Тренды

Власти США и Китая решили, что этап бесконтрольного развития ИИ закончился

TODO:
Екатерина Смирнова12 апреля 2023 г., 18:14

Китай планирует начать проверять на безопасность сервисы генеративного ИИ, прежде чем разрешать им выходить на рынок. Это вызывает неопределенность в отношении дальнейшей работы ботов-конкурентов ChatGPT, представленных крупнейшими технологическими компаниями страны, включая Baidu и Alibaba. Параллельно с этим власти США также изучают вопрос о необходимости проверки инструментов искусственного интеллекта из-за растущих опасений, что те могут использоваться в деструктивных целях.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

По сообщению Управления киберпространства Китая, поставщики услуг должны гарантировать, что контент является достоверным и уважает интеллектуальную собственность, а также не дискриминирует и не ставит под угрозу безопасность страны и граждан. Операторы ИИ также должны четко маркировать контент, созданный ИИ.

Эти требования — часть усилий Пекина по регулированию взрывного роста генеративного ИИ после того, как ChatGPT от OpenAI запустил гонку искусственного интеллекта в ноябре прошлого года. Компании — от Alibaba до SenseTime и Baidu — стремятся создать надежную платформу искусственного интеллекта следующего поколения для крупнейшего в мире интернет-рынка. В марте Baidu, который считается лидером на китайском рынке генеративных нейросетей, запустила тестирование чат-бота Ernie. Вслед за этим Alibaba анонсировала чат-бот под названием Tongyi Qianwen и открыла бета-тестирование для корпоративных клиентов по приглашению.

Аналогичные процессы происходят на Западе, где Google, Microsoft и другие компании разрабатывают свои ИИ-модели. Министерство торговли США только что опубликовало официальное сообщение по поводу необходимости проведения сертификации потенциально рискованных моделей ИИ перед их выпуском.

По словам главы Национального управления по телекоммуникациям и информации при Министерстве торговли США Алана Дэвидсона, «необходимо установить ограничения, чтобы быть уверенными, что ИИ-модели используются ответственно». На публичное обсуждение этого вопроса отводится 60 дней.

На прошлой неделе президент Джо Байден обсуждал в Белом доме тему ИИ с консультативным советом, в который входят представители Microsoft и Google. На вопрос репортёра, представляют ли опасность технологии ИИ, Байден ответил: «Это ещё предстоит выяснить. Возможно».

Microsoft, Google и другие компании, разрабатывающие модели генеративного ИИ, заявили, что постоянно обновляют меры безопасности, в том числе программируя чат-боты так, чтобы те не отвечали на определённые вопросы. В блоге OpenAI отмечается, что мощные системы ИИ должны подвергаться тщательной оценке безопасности. Недавно более 1300 специалистов в области искусственного интеллекта и информационных технологий, включая Илона Маска, подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GTP-4 из-за «значительных рисков для общества и человечества». Сообществом их призыв услышан не был — часть ключевых специалистов по ИИ в мире раскритиковали его и призвали не ограничивать развитие технологий. Но на растущие опасения, судя по последним событиям, решили отреагировать власти США и Китая.

В США нет федерального закона, регулирующего использование ИИ-систем, но некоторые госучреждения используют уже существующие юридические рычаги. Антимонопольное подразделение Министерства юстиции США заявило, что следит за конкуренцией в этом секторе, а Федеральная торговая комиссия США предупредила компании о юридических последствиях ложных или необоснованных заявлений о ИИ-сервисах.