Регламент ЕС об искусственном интеллекте (AI Act): что нужно знать поставщикам и пользователям AI‑систем из третьих стран
🇪🇺 EU AI Act · Reg. 2024/1689
Регламент ЕС об искусственном интеллекте (AI Act):
что нужно знать поставщикам и пользователям AI-систем из третьих стран
Как работает экстерриториальный охват AI Act, какие обязанности возникают у российских и международных компаний при выходе на рынок ЕС — и что грозит за несоблюдение.
В силе с 1 августа 2024 Поставщики и пользователи Штрафы до 35 млн € / 7% оборота Третьи страны
1. Что такое AI Act и когда он применяется

Регламент ЕС об искусственном интеллекте (Regulation (EU) 2024/1689, «AI Act») — первый в мире комплексный горизонтальный закон, регулирующий разработку, вывод на рынок и использование AI-систем. Регламент вступил в силу 1 августа 2024 года и применяется поэтапно вплоть до 2027 года.

AI Act строится на принципе пропорциональности: чем выше потенциальный вред от AI-системы для здоровья, безопасности или фундаментальных прав, тем строже требования. Большинство систем с минимальным риском (чат-боты, фильтры спама, рекомендательные алгоритмы) либо вовсе не подпадают под жёсткие нормы, либо требуют только базовой прозрачности.

📌 Ключевое определение: что такое «AI-система» по AI Act
Machine-based system, designed to operate with varying levels of autonomy, that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers from the input it receives how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Проще говоря: любая система, которая на основе входных данных генерирует выводы (предсказания, решения, контент) с определённой степенью автономии.
1 августа 2024
AI Act вступил в силу
Регламент официально опубликован и вступил в силу. Начинается отсчёт переходных периодов для разных категорий.
2 февраля 2025
Запрет неприемлемых AI-систем
Вступил в силу запрет на AI-системы категории «неприемлемый риск»: социальный скоринг, биометрическая слежка в реальном времени, манипулятивные системы.
✔ Уже применяется
2 августа 2025
GPAI-модели и система управления
Требования к моделям общего назначения (GPT-класс), создание Европейского совета по ИИ, национальные органы надзора.
⏳ Скоро
2 августа 2026
Требования к AI высокого риска (Annex I)
Полный набор обязанностей для высокорисковых AI-систем: оценка соответствия, регистрация в EU базе, CE-маркировка.
📅 2026
2 августа 2027
Высокорисковые системы (Annex II)
Требования для встроенных AI-систем в продуктах, регулируемых профильным законодательством ЕС (медтехника, авто, авиация).
📅 2027
💶
Макс. штраф
35 млн € или 7% годового оборота — за запрещённые AI
🌍
Охват
Экстерриториальный — применяется к компаниям из любой страны при работе с рынком ЕС
🤖
Под регулированием
Все AI-системы, выводимые на рынок ЕС или используемые на его территории
2. Классификация AI-систем по уровням риска

AI Act делит все AI-системы на четыре уровня риска. От уровня зависит всё: объём обязанностей, необходимость оценки соответствия и размер штрафов. Вдобавок выделена отдельная категория — модели общего назначения (GPAI).

🚫
Неприемлемый риск — запрещено
Prohibited AI Systems
Системы, запрещённые полностью с 2 февраля 2025 года. Разработка, вывод на рынок и использование таких систем в ЕС влечёт максимальные санкции.
Примеры: социальный скоринг граждан госорганами; биометрическая идентификация в реальном времени в публичных местах (кроме исключений); системы, манипулирующие подсознательно; эксплуатация уязвимостей (дети, пожилые, инвалиды); предсказание преступлений на основе профилирования.
Высокий риск — жёсткое регулирование
High-Risk AI Systems
Самая регулируемая рабочая категория. Полный набор требований: оценка соответствия, документация, регистрация, мониторинг. Перечни — в Annex I и Annex III AI Act.
Примеры: критическая инфраструктура (энергетика, вода, транспорт); образовательные системы оценки; AI в HR (подбор, продвижение, увольнение); кредитный скоринг и страховые оценки; системы в здравоохранении; правоохранительные AI; миграция и убежище; отправление правосудия.
💬
Ограниченный риск — прозрачность
Limited-Risk AI Systems
Требования сводятся к обязательной прозрачности: пользователи должны знать, что взаимодействуют с AI-системой, а не с человеком.
Примеры: чат-боты и виртуальные ассистенты; системы генерации дипфейков и синтетического контента; AI, имитирующий эмоции человека.
Минимальный риск — добровольные нормы
Minimal-Risk AI Systems
Регулирование не обязательно. Регламент поощряет добровольное принятие кодексов поведения, но не навязывает обязательных требований.
Примеры: спам-фильтры, рекомендательные движки без значимого влияния на права, игровые AI, инструменты анализа данных без автономных решений.
🧠 Отдельная категория: GPAI-модели (General Purpose AI)
Модели общего назначения — такие как GPT-4, Claude, Gemini, LLaMA — выделены в особую категорию. Их провайдеры обязаны раскрывать техническую документацию, соблюдать авторские права при обучении и обеспечивать прозрачность. Модели с «системными рисками» (вычислительные мощности обучения > 10²⁵ FLOP) подпадают под усиленные требования.
📄 Техдокументация ©️ Авторские права ⚡ Системные риски
3. Кого затрагивает из третьих стран

AI Act обладает широким экстерриториальным охватом — по модели, схожей с GDPR. Компания из России, Казахстана, США или любой другой страны вне ЕС подпадает под регламент, если её AI-система работает на рынке ЕС или затрагивает лиц в ЕС. При этом физическое присутствие в Евросоюзе не требуется.

Provider / Поставщик
Разработчики и вендоры AI
Любое лицо (юридическое или физическое) из третьей страны, которое разрабатывает AI-систему или GPAI-модель и размещает её на рынке ЕС под своим именем или торговой маркой — либо вводит её в эксплуатацию в ЕС.
🌍 Независимо от юрисдикции регистрации
Deployer / Пользователь
Компании, применяющие AI
Юридическое или физическое лицо, использующее AI-систему высокого риска в профессиональных целях. Deployer обязан соблюдать AI Act, если расположен или находится в ЕС — даже если AI-система создана за рубежом.
🏢 Локализация в ЕС — ключевой признак

Даже если компания не имеет офиса в ЕС, она попадает под AI Act при выполнении хотя бы одного из следующих условий:

🛒
AI-система выведена на рынок ЕС
Продажа, лицензирование или бесплатное распространение AI-системы для пользователей в ЕС — независимо от того, где расположены серверы и где зарегистрирована компания.
AI-система введена в эксплуатацию в ЕС
Использование AI-системы в операционных процессах, затрагивающих физических лиц на территории ЕС — например, AI-система оценки кредитоспособности клиентов из ЕС.
📤
Результаты AI используются в ЕС
Если выходные данные AI-системы (прогнозы, решения, рекомендации) применяются в отношении лиц или процессов на территории ЕС — даже при физическом расположении инфраструктуры за рубежом.
🤝
Продажа через EU-дистрибьютора
Если AI-система из третьей страны реализуется через европейского дистрибьютора, который вносит в неё существенные изменения — дистрибьютор может быть признан поставщиком и взять на себя соответствующие обязанности.
Практический вывод: российская компания, предлагающая SaaS-платформу с AI-компонентами европейским клиентам, или стартап, выходящий на рынок ЕС с AI-продуктом, обязан изучить AI Act — вне зависимости от того, есть ли у него европейское юрлицо. Подробнее об AI-комплаенсе — на странице wcr-consulting.com/artificial-intelligence/.
4. Обязанности поставщиков (providers) из третьих стран

Поставщик (provider) — тот, кто разрабатывает AI-систему и выводит её на рынок ЕС под своим именем. Для high-risk AI-систем AI Act устанавливает самый объёмный набор требований. Исполнение обязанностей должно быть завершено до момента вывода системы на рынок ЕС.

1
Управление рисками
Внедрить и поддерживать систему управления рисками на протяжении всего жизненного цикла AI-системы (ст. 9 AI Act).
2
Качество данных
Обеспечить надлежащие практики управления данными при обучении, валидации и тестировании — включая анализ на предмет предвзятости (ст. 10).
3
Техническая документация
Подготовить и поддерживать в актуальном состоянии полную техдокументацию (Annex IV): архитектура, данные, метрики точности, меры безопасности.
4
Логирование и прозрачность
Обеспечить автоматическое ведение логов (record-keeping) и прозрачность для deployers: инструкции по эксплуатации, ограничения, известные риски (ст. 13).
5
Человеческий надзор
Проектировать систему так, чтобы человек мог эффективно осуществлять надзор и при необходимости вмешиваться или останавливать работу (ст. 14).
6
Точность и кибербезопасность
Обеспечить надлежащий уровень точности, надёжности и кибербезопасности (устойчивость к атакам, включая adversarial attacks) (ст. 15).
7
Оценка соответствия
Провести оценку соответствия (conformity assessment) — самостоятельно или через нотифицированный орган — до вывода системы на рынок ЕС (ст. 43).
8
Регистрация и CE-маркировка
Зарегистрировать AI-систему в EU AI database (ст. 49, 71) и нанести CE-маркировку перед выводом на рынок ЕС.
🏢 Особое требование для компаний из третьих стран: EU-представитель
Когда обязателен
  • При выводе high-risk AI-системы на рынок ЕС
  • Если у компании нет юрлица в ЕС
  • До момента вывода системы на рынок
Функции представителя
  • Хранить копию EU-декларации о соответствии и техдокументации
  • Взаимодействовать с национальными регуляторами ЕС
  • Быть точкой контакта при проверках и инцидентах
Важно: назначение EU-представителя не снимает ответственности с поставщика из третьей страны. При нарушении AI Act санкции применяются к поставщику напрямую — так же, как GDPR применяет санкции к контролёру данных вне ЕС.
5. Обязанности пользователей (deployers) из третьих стран

Deployer (пользователь) — юридическое или физическое лицо, использующее AI-систему в профессиональных целях. AI Act накладывает на deployers меньше обязанностей, чем на поставщиков, но пренебрегать ими нельзя: ответственность deployer'а наступает независимо от того, соответствует ли сама AI-система требованиям регламента.

🏢 Deployer — ваши обязанности
  • Использовать AI-систему строго по инструкции поставщика
  • Назначить ответственного за человеческий надзор
  • Не использовать high-risk AI в целях, не предусмотренных поставщиком
  • Проводить оценку воздействия на фундаментальные права (FRIA)
  • Обеспечить прозрачность для физических лиц, попадающих под действие AI
  • Вести логи работы системы (если технически возможно)
  • Уведомлять поставщика о выявленных рисках и инцидентах
📦 Поставщик сделал за вас
  • Техническая документация и оценка соответствия
  • CE-маркировка и регистрация в EU AI database
  • Архитектурные меры безопасности
  • Качество обучающих данных
  • Инструкции по безопасному применению
  • Механизм автоматического логирования
🔍
Оценка воздействия на фундаментальные права (FRIA)
Deployers публичных органов и операторы критической инфраструктуры обязаны проводить оценку воздействия на основные права до начала использования high-risk AI-системы (ст. 27 AI Act). Документ фиксирует: какие права могут быть затронуты, насколько значителен риск и какие меры митигации приняты.
📄 До начала использования
👁
Человеческий надзор и право на вмешательство
Deployer обязан назначить компетентное лицо для надзора за AI-системой с реальными полномочиями остановить её работу. «Надзор на бумаге» без практических инструментов вмешательства — нарушение.
👤 Назначить ответственного
📢
Прозрачность для субъектов
Физические лица, в отношении которых применяется high-risk AI-система, должны быть об этом уведомлены (ст. 50). При использовании AI для генерации контента — маркировка «создано AI». Чат-боты и голосовые ассистенты обязаны раскрывать свою AI-природу.
🔔 Уведомление субъекта
🚨
Реагирование на инциденты
Deployers обязаны незамедлительно сообщать поставщику и компетентному национальному органу об инцидентах и серьёзных неисправностях high-risk AI-систем. Стандарт — аналогичен уведомлению об утечке данных по GDPR.
⏱ Незамедлительно
Важно для HR и финтеха: если ваша компания использует AI-сервис (например, платформу автоматического отбора резюме, кредитный скоринг или систему фрод-детекции) для работы с физическими лицами в ЕС — вы deployer. Проверьте, относится ли используемая система к high-risk категории по Annex III AI Act. Если да — обязанности deployer'а применяются к вам уже с августа 2026 года.
6. Типичные ошибки и их последствия

Компании из третьих стран нередко допускают одни и те же просчёты при анализе применимости AI Act. Разбираем четыре наиболее распространённых — с указанием реальных последствий.

🌍
«Мы не в ЕС — AI Act нас не касается»
Самое распространённое заблуждение: раз компания зарегистрирована за пределами ЕС, регламент к ней неприменим. AI Act прямо распространяется на поставщиков из третьих стран, если их AI-системы выводятся на рынок ЕС или их результаты используются на территории ЕС — по аналогии с экстерриториальным действием GDPR.
Последствие: штраф до 15 млн € или 3% глобального оборота за нарушения в сфере high-risk AI; до 35 млн € или 7% оборота — за запрещённые AI-системы. Санкции применяются вне зависимости от юрисдикции регистрации.
Решение: провести анализ применимости AI Act к каждому продукту, ориентированному на европейских пользователей или партнёров.
📂
Неверная классификация уровня риска системы
Компания самостоятельно решает, что её AI-система относится к «минимальному риску», пропуская оценку соответствия. Между тем Annex III AI Act содержит детальный перечень high-risk сфер: HR, кредитование, образование, здравоохранение, правоохранение. Многие B2B SaaS-решения попадают именно туда.
Последствие: вывод на рынок ЕС без обязательной оценки соответствия влечёт штраф до 15 млн € или 3% оборота, плюс обязанность немедленно отозвать систему с рынка.
Решение: провести юридический анализ по матрице Annex I и Annex III AI Act до начала продаж в ЕС — это обязательный шаг AI-комплаенса.
🏢
Отсутствие EU-представителя у поставщика из третьей страны
Компания выводит high-risk AI-систему на рынок ЕС без назначения авторизованного представителя в ЕС. Национальные регуляторы не могут взаимодействовать с поставщиком напрямую, а значит, именно отсутствие представителя становится первым выявленным нарушением при проверке.
Последствие: отдельный состав нарушения — штраф до 15 млн € плюс запрет реализации системы до устранения. EU-представитель — обязательное условие для выхода на рынок.
Решение: назначить EU-представителя (европейское юрлицо или специализированного представителя) до начала любых продаж high-risk AI-систем в ЕС.
🔁
Использование запрещённых сценариев AI в продукте
Продукт содержит функции, которые по AI Act относятся к категории «неприемлемый риск»: например, скрытое отслеживание эмоций сотрудников, системы оценки социального поведения или манипулятивные механизмы вовлечения. Поставщик может не осознавать, что такие функции запрещены с февраля 2025 года.
Последствие: максимальные санкции — до 35 млн € или 7% глобального годового оборота. Запрет на распространение в ЕС без возможности «исправить» нарушение: запрещённая функция должна быть полностью удалена.
Решение: провести аудит продукта на предмет функций из категории «неприемлемый риск» ещё до выхода на рынок ЕС — с привлечением специалиста по AI-праву.

Готовитесь к выходу на рынок ЕС с AI-продуктом?
WCR Consulting проводит AI Act compliance-аудит: классификацию систем по уровням риска, подготовку технической документации, оценку воздействия на права (FRIA) и сопровождение при назначении EU-представителя.