Закон устанавливает комплексные правила для технологий ИИ, основанные на оценке рисков их применения в таких областях, как автономный транспорт, медицинские устройства, финансовые сервисы и образование. Он запрещает использование систем «социального рейтинга», которые ранжируют граждан на основе анализа их данных. Также запрещены прогнозное моделирование для полиции и эмоциональное распознавание на рабочих местах и в школах — все, что может привести к дискриминации и разделению людей на группы по их поведению, внешнему виду или привычкам.
Системы ИИ высокого риска, такие как автономные автомобили, медицинские устройства, финансовые и образовательные сервисы, будут тщательно оцениваться на предмет угроз здоровью, безопасности и правам граждан. Закон также устанавливает жесткие ограничения на генеративные системы ИИ, включая ChatGPT. Для таких систем вводятся требования соблюдения авторских прав, раскрытия информации об обучении моделей и регулярного тестирования на кибербезопасность.
Принятие этого закона стало реакцией на запуск ChatGPT от OpenAI в ноябре 2022 года. Чиновники тогда осознали, что существующее законодательство не охватывает все аспекты, связанные с генеративным ИИ и использованием материалов, защищенных авторским правом.
Полностью закон вступит в силу через 12 месяцев. Существующие системы, такие как ChatGPT, Gemini и Copilot, получат переходный период в 36 месяцев для приведения в соответствие с новыми нормами. Матье Мишель, государственный секретарь Бельгии по вопросам цифровизации, заявил, что принятие закона об ИИ является важным шагом для ЕС, предопределяющим развитие систем ИИ в Европе.
Компании, нарушившие закон, будут оштрафованы на сумму до 35 млн евро или 7% их годовой выручки. Это затронет прежде всего американские технологические гиганты, такие как Google, Microsoft и OpenAI. Десислава Савова, глава глобальной группы потребительских товаров и розничной торговли в ЕС, подчеркнула важность эффективной реализации и соблюдения закона об ИИ.
Декларируется, что основная цель нового закона — обеспечить доверие, прозрачность и подотчетность при использовании технологий ИИ, не сдерживая при этом развитие полезных технологий.