EU AI Act и ИИ-агенты: классификация рисков и обязательства оператора
EU AI Act — первый в мире комплексный закон об искусственном интеллекте — уже в силе. ИИ-агенты попадают под его действие, и то, какие именно обязательства возникают, зависит от классификации агента по уровням риска. Разбираем: как классифицировать агента, что обязан сделать оператор, какие сроки и что грозит за несоответствие.
EU AI Act применяется к широкому кругу участников — не только европейским компаниям. Определяющий критерий — не юрисдикция регистрации, а место использования системы.
Провайдеры AI-систем
Компании, которые разрабатывают или создают AI-системы и выводят их на рынок ЕС — независимо от страны регистрации.
Операторы AI-систем
Компании и физлица, которые используют AI-системы в профессиональном контексте. Если вы внедрили агента в свой продукт или процессы — вы оператор.
Импортёры и дистрибьюторы
Компании, которые поставляют AI-системы третьих стран на рынок ЕС или распространяют их среди пользователей в ЕС.
Экстерриториальный принцип — как у GDPR
EU AI Act применяется к компании за пределами ЕС, если её AI-система используется на территории ЕС или её результат воздействует на людей в ЕС. Если ваш агент обслуживает европейских клиентов — EU AI Act применяется к вам, даже если компания зарегистрирована в ОАЭ, Казахстане или США.
Для агентов на базе GPAI-моделей (GPT-4, Claude, Gemini и им подобных) действует двухуровневое регулирование: провайдер базовой модели несёт обязательства по GPAI-режиму, а оператор, встраивающий агента в продукт, — обязательства по уровню риска конкретного use case.
EU AI Act делит все AI-системы на четыре уровня риска. Уровень определяется не типом технологии, а сценарием использования — тем, какие решения принимает агент и как они влияют на права людей.
Запрещённые агенты — полный запрет
Агенты для социального скоринга граждан, скрытой манипуляции, биометрической идентификации в реальном времени в публичных местах, эксплуатации уязвимостей людей.
с авг. 2024
Строгие обязательства — документация, oversight, соответствие
Агенты в HR (найм, оценка), кредитовании, образовании, медицине, правосудии, критической инфраструктуре, миграционном контроле, страховании.
к авг. 2026
Требования прозрачности — AI disclosure обязателен
Чат-боты, агенты-ассистенты, системы, генерирующие синтетический контент. Пользователь должен знать, что взаимодействует с ИИ.
Добровольный кодекс практики — формальных обязательств минимум
Агенты для внутренних задач без влияния на права людей: анализ данных, автоматизация рутины, внутренние инструменты.
Важно: классификация зависит от use case, а не от названия продукта. Один и тот же агент может быть minimal risk для внутренних задач и high-risk для HR-скрининга. Если агент используется в нескольких сценариях — применяется наивысший уровень риска среди всех сценариев.
Если агент классифицируется как high-risk — оператор и провайдер обязаны выполнить исчерпывающий перечень требований до начала эксплуатации. Это наиболее ресурсоёмкий режим соответствия.
Техническая документация
Подробное описание системы: назначение, архитектура, данные обучения, меры безопасности, ограничения, производительность.
Логирование и ведение журналов
Автоматическое логирование операций агента в объёме, позволяющем проследить события и установить причины инцидентов.
Human oversight (надзор человека)
Механизм, позволяющий оператору контролировать, прерывать или корректировать работу агента. Возможность отключения системы.
Точность, надёжность, защита от ошибок
Задокументированные показатели точности. Устойчивость к ошибкам и манипуляциям. Резервные процедуры при сбоях.
Кибербезопасность и защита данных
Меры против adversarial attacks, защита входных данных, устойчивость к попыткам манипуляции моделью.
Управление рисками (Risk Management)
Непрерывный процесс: идентификация рисков, их оценка, меры снижения, мониторинг post-deployment.
Регистрация в EU AI database
High-risk системы, кроме отдельных исключений, должны быть зарегистрированы в официальной базе данных ЕС.
Уведомление регулятора об инцидентах
При серьёзных инцидентах или неисправностях — обязательное уведомление национального надзорного органа.
Штрафы за нарушение обязательств high-risk
За несоблюдение обязательств для high-risk AI — до 3% годового мирового оборота или €15 млн (применяется большее). За запрещённые практики — до 7% / €35 млн. За предоставление ложной информации регулятору — до 1% / €7.5 млн.
Большинство клиентских агентов-ассистентов и чат-ботов попадают в категорию limited risk. Здесь нет тяжёлого compliance, но есть чёткие обязательства по прозрачности — их нарушение тоже влечёт санкции.
AI Disclosure для чат-ботов
Пользователь должен быть уведомлён, что взаимодействует с ИИ-системой, а не с человеком. Уведомление — до начала взаимодействия, понятным языком.
Маркировка синтетического контента
Контент, сгенерированный агентом (тексты, изображения, аудио, видео), должен быть помечен как созданный ИИ. Для deepfakes — обязательная маркировка.
Исключение: очевидный контекст
Если из контекста очевидно, что пользователь взаимодействует с ИИ (например, AI writing assistant), прямое уведомление не обязательно.
- В начале чата: «Вы общаетесь с AI-ассистентом»
- В подписи к тексту: «Создано с помощью ИИ»
- В ToU: описание AI-функционала и его ограничений
- При генерации документа: пометка об AI-создании
- Кнопка «Связаться с человеком» при эскалации
- Явный UI-индикатор AI-режима в продукте
На практике требования limited risk реализуются через обновление ToU, Privacy Policy и UI-элементов продукта. Это относительно несложно, но требует юридической проверки формулировок — особенно для мультиязычных продуктов с европейской аудиторией.
Большинство современных агентов построены на GPAI-моделях (General Purpose AI) — GPT-4, Claude, Gemini и других. EU AI Act устанавливает отдельный режим для провайдеров таких моделей — с разграничением между стандартными моделями и моделями с «системным риском».
Базовые требования к провайдерам
- Техническая документация о модели
- Документация для downstream операторов
- Соблюдение авторского права при обучении
- Публичный реестр использованных данных
Повышенные требования
- Оценка и снижение системных рисков
- Adversarial testing (red-teaming)
- Уведомление об инцидентах Еврокомиссии
- Меры кибербезопасности
- Энергетическая эффективность
модели
агента
На практике: даже если GPT-4 или Claude имеют собственную compliance-документацию, это не освобождает вашу компанию как оператора агента от собственных обязательств по EU AI Act — особенно если агент попадает в high-risk категорию по вашему use case.
EU AI Act вводит два ключевых понятия: provider (провайдер) и deployer (оператор). Понимание этих ролей критично — от них зависит, какой объём обязательств несёт ваша компания.
| Область | Provider (провайдер) | Deployer (оператор) |
|---|---|---|
| Кто это | Разрабатывает и выводит на рынок AI-систему или GPAI-модель | Использует AI-систему в профессиональном контексте |
| Техническая документация | Полная — включая архитектуру, данные, метрики | Использует документацию провайдера; своя — по надзору и рискам |
| Human oversight | Проектирует механизм oversight в системе | Внедряет и обеспечивает работу human oversight |
| Регистрация | Регистрирует high-risk системы в EU AI database | Регистрирует своё использование (для ряда high-risk категорий) |
| Инциденты | Уведомляет регулятора о серьёзных инцидентах | Уведомляет провайдера и регулятора при серьёзных инцидентах |
| Оценка соответствия | Проводит до вывода на рынок | Обеспечивает соответствие в рамках своего использования |
Важно: оператор может стать провайдером. Если компания существенно модифицирует AI-систему, изменяет её назначение или выводит под своим брендом — EU AI Act может признать её провайдером со всеми соответствующими обязательствами. Это актуально для компаний, которые fine-tune модели или создают специализированных агентов на базе общих LLM.
EU AI Act вводится поэтапно. Сроки определяют, когда именно каждая категория требований становится обязательной. Для большинства агентов критичная дата — август 2026.
Вступление в силу
Закон вступил в силу. Запрет на неприемлемые практики. Начало переходного периода.
GPAI и Governance
Требования к GPAI-моделям. Обязательства по кодексам практики. Создание надзорных органов ЕС.
High-risk и прозрачность
Полные обязательства для high-risk систем. Требования прозрачности для limited-risk агентов. AI disclosure обязателен.
Встроенные high-risk системы
Требования для AI-систем, встроенных в продукты, регулируемые другими законодательными актами ЕС.
Что делать прямо сейчас (март 2026)
До августа 2026 остаётся менее 6 месяцев. Для компаний с агентами в high-risk категориях — это не «успеем потом», а реальный дедлайн для завершения compliance-программы. Минимальный план: классифицировать агента, определить обязательства, начать работу над документацией и human oversight. Для limited-risk — обновить ToU и добавить AI disclosure.
EU AI Act неотделим от GDPR-compliance, договорной защиты и governance. Связанные материалы и услуги WCR Consulting:
Юридическое сопровождение ИИ-агентов
Полный цикл: EU AI Act, GDPR, договор с провайдером, Governance.
AI Regulatory Compliance
Приведение агента в соответствие с EU AI Act — от классификации до документации.
AI Governance Framework
Human oversight, реестр агентов, процедуры — основа соответствия EU AI Act.
Оценка юридических рисков ИИ
Классификация агента по EU AI Act и карта конкретных обязательств.
Ответственность за действия ИИ-агента
Цепочка ответственности, триггеры претензий и механизмы защиты.
ИИ-агент и GDPR
Правовые основания, DPA, Art. 22 и DPIA для агентов с персональными данными.
Расскажите, что делает агент и в каких сценариях используется. Определим уровень риска, составим карту обязательств и предложим план соответствия до августа 2026.
Материал подготовлен для общего информирования и не является юридической консультацией или заключением по конкретной ситуации.

