что нужно знать поставщикам и пользователям AI-систем из третьих стран
Регламент ЕС об искусственном интеллекте (Regulation (EU) 2024/1689, «AI Act») — первый в мире комплексный горизонтальный закон, регулирующий разработку, вывод на рынок и использование AI-систем. Регламент вступил в силу 1 августа 2024 года и применяется поэтапно вплоть до 2027 года.
AI Act строится на принципе пропорциональности: чем выше потенциальный вред от AI-системы для здоровья, безопасности или фундаментальных прав, тем строже требования. Большинство систем с минимальным риском (чат-боты, фильтры спама, рекомендательные алгоритмы) либо вовсе не подпадают под жёсткие нормы, либо требуют только базовой прозрачности.
AI Act делит все AI-системы на четыре уровня риска. От уровня зависит всё: объём обязанностей, необходимость оценки соответствия и размер штрафов. Вдобавок выделена отдельная категория — модели общего назначения (GPAI).
AI Act обладает широким экстерриториальным охватом — по модели, схожей с GDPR. Компания из России, Казахстана, США или любой другой страны вне ЕС подпадает под регламент, если её AI-система работает на рынке ЕС или затрагивает лиц в ЕС. При этом физическое присутствие в Евросоюзе не требуется.
Даже если компания не имеет офиса в ЕС, она попадает под AI Act при выполнении хотя бы одного из следующих условий:
Поставщик (provider) — тот, кто разрабатывает AI-систему и выводит её на рынок ЕС под своим именем. Для high-risk AI-систем AI Act устанавливает самый объёмный набор требований. Исполнение обязанностей должно быть завершено до момента вывода системы на рынок ЕС.
- При выводе high-risk AI-системы на рынок ЕС
- Если у компании нет юрлица в ЕС
- До момента вывода системы на рынок
- Хранить копию EU-декларации о соответствии и техдокументации
- Взаимодействовать с национальными регуляторами ЕС
- Быть точкой контакта при проверках и инцидентах
Deployer (пользователь) — юридическое или физическое лицо, использующее AI-систему в профессиональных целях. AI Act накладывает на deployers меньше обязанностей, чем на поставщиков, но пренебрегать ими нельзя: ответственность deployer'а наступает независимо от того, соответствует ли сама AI-система требованиям регламента.
- Использовать AI-систему строго по инструкции поставщика
- Назначить ответственного за человеческий надзор
- Не использовать high-risk AI в целях, не предусмотренных поставщиком
- Проводить оценку воздействия на фундаментальные права (FRIA)
- Обеспечить прозрачность для физических лиц, попадающих под действие AI
- Вести логи работы системы (если технически возможно)
- Уведомлять поставщика о выявленных рисках и инцидентах
- Техническая документация и оценка соответствия
- CE-маркировка и регистрация в EU AI database
- Архитектурные меры безопасности
- Качество обучающих данных
- Инструкции по безопасному применению
- Механизм автоматического логирования
Компании из третьих стран нередко допускают одни и те же просчёты при анализе применимости AI Act. Разбираем четыре наиболее распространённых — с указанием реальных последствий.

