EU AI Act и ИИ-агенты: классификация и обязательства оператора
AI Law · EU AI Act

EU AI Act и ИИ-агенты: классификация рисков и обязательства оператора

EU AI Act — первый в мире комплексный закон об искусственном интеллекте — уже в силе. ИИ-агенты попадают под его действие, и то, какие именно обязательства возникают, зависит от классификации агента по уровням риска. Разбираем: как классифицировать агента, что обязан сделать оператор, какие сроки и что грозит за несоответствие.

EU AI Act High-risk AI GPAI Models Оператор / Провайдер Human Oversight
1. На кого распространяется EU AI Act

EU AI Act применяется к широкому кругу участников — не только европейским компаниям. Определяющий критерий — не юрисдикция регистрации, а место использования системы.

01
Провайдеры AI-систем

Компании, которые разрабатывают или создают AI-системы и выводят их на рынок ЕС — независимо от страны регистрации.

02
Операторы AI-систем

Компании и физлица, которые используют AI-системы в профессиональном контексте. Если вы внедрили агента в свой продукт или процессы — вы оператор.

03
Импортёры и дистрибьюторы

Компании, которые поставляют AI-системы третьих стран на рынок ЕС или распространяют их среди пользователей в ЕС.

Экстерриториальный принцип — как у GDPR

EU AI Act применяется к компании за пределами ЕС, если её AI-система используется на территории ЕС или её результат воздействует на людей в ЕС. Если ваш агент обслуживает европейских клиентов — EU AI Act применяется к вам, даже если компания зарегистрирована в ОАЭ, Казахстане или США.

Для агентов на базе GPAI-моделей (GPT-4, Claude, Gemini и им подобных) действует двухуровневое регулирование: провайдер базовой модели несёт обязательства по GPAI-режиму, а оператор, встраивающий агента в продукт, — обязательства по уровню риска конкретного use case.

2. Классификация агентов по уровням риска

EU AI Act делит все AI-системы на четыре уровня риска. Уровень определяется не типом технологии, а сценарием использования — тем, какие решения принимает агент и как они влияют на права людей.

Недопустимый
Запрещённые агенты — полный запрет

Агенты для социального скоринга граждан, скрытой манипуляции, биометрической идентификации в реальном времени в публичных местах, эксплуатации уязвимостей людей.

Полный запрет
с авг. 2024
Высокий риск
Строгие обязательства — документация, oversight, соответствие

Агенты в HR (найм, оценка), кредитовании, образовании, медицине, правосудии, критической инфраструктуре, миграционном контроле, страховании.

Полное соответствие
к авг. 2026
Ограниченный риск
Требования прозрачности — AI disclosure обязателен

Чат-боты, агенты-ассистенты, системы, генерирующие синтетический контент. Пользователь должен знать, что взаимодействует с ИИ.

С авг. 2026
Минимальный риск
Добровольный кодекс практики — формальных обязательств минимум

Агенты для внутренних задач без влияния на права людей: анализ данных, автоматизация рутины, внутренние инструменты.

Добровольно
!

Важно: классификация зависит от use case, а не от названия продукта. Один и тот же агент может быть minimal risk для внутренних задач и high-risk для HR-скрининга. Если агент используется в нескольких сценариях — применяется наивысший уровень риска среди всех сценариев.

3. High-risk агенты: полный перечень обязательств

Если агент классифицируется как high-risk — оператор и провайдер обязаны выполнить исчерпывающий перечень требований до начала эксплуатации. Это наиболее ресурсоёмкий режим соответствия.

📋
Техническая документация

Подробное описание системы: назначение, архитектура, данные обучения, меры безопасности, ограничения, производительность.

📊
Логирование и ведение журналов

Автоматическое логирование операций агента в объёме, позволяющем проследить события и установить причины инцидентов.

👁
Human oversight (надзор человека)

Механизм, позволяющий оператору контролировать, прерывать или корректировать работу агента. Возможность отключения системы.

🎯
Точность, надёжность, защита от ошибок

Задокументированные показатели точности. Устойчивость к ошибкам и манипуляциям. Резервные процедуры при сбоях.

🔒
Кибербезопасность и защита данных

Меры против adversarial attacks, защита входных данных, устойчивость к попыткам манипуляции моделью.

⚖️
Управление рисками (Risk Management)

Непрерывный процесс: идентификация рисков, их оценка, меры снижения, мониторинг post-deployment.

🏛
Регистрация в EU AI database

High-risk системы, кроме отдельных исключений, должны быть зарегистрированы в официальной базе данных ЕС.

🔔
Уведомление регулятора об инцидентах

При серьёзных инцидентах или неисправностях — обязательное уведомление национального надзорного органа.

3%мирового оборота

Штрафы за нарушение обязательств high-risk

За несоблюдение обязательств для high-risk AI — до 3% годового мирового оборота или €15 млн (применяется большее). За запрещённые практики — до 7% / €35 млн. За предоставление ложной информации регулятору — до 1% / €7.5 млн.

4. Limited risk: требования прозрачности

Большинство клиентских агентов-ассистентов и чат-ботов попадают в категорию limited risk. Здесь нет тяжёлого compliance, но есть чёткие обязательства по прозрачности — их нарушение тоже влечёт санкции.

Art. 50(1)
AI Disclosure для чат-ботов

Пользователь должен быть уведомлён, что взаимодействует с ИИ-системой, а не с человеком. Уведомление — до начала взаимодействия, понятным языком.

Art. 50(2)
Маркировка синтетического контента

Контент, сгенерированный агентом (тексты, изображения, аудио, видео), должен быть помечен как созданный ИИ. Для deepfakes — обязательная маркировка.

Art. 50(4)
Исключение: очевидный контекст

Если из контекста очевидно, что пользователь взаимодействует с ИИ (например, AI writing assistant), прямое уведомление не обязательно.

Практические примеры для limited-risk агентов
  • В начале чата: «Вы общаетесь с AI-ассистентом»
  • В подписи к тексту: «Создано с помощью ИИ»
  • В ToU: описание AI-функционала и его ограничений
  • При генерации документа: пометка об AI-создании
  • Кнопка «Связаться с человеком» при эскалации
  • Явный UI-индикатор AI-режима в продукте

На практике требования limited risk реализуются через обновление ToU, Privacy Policy и UI-элементов продукта. Это относительно несложно, но требует юридической проверки формулировок — особенно для мультиязычных продуктов с европейской аудиторией.

5. GPAI-модели: отдельный режим для LLM

Большинство современных агентов построены на GPAI-моделях (General Purpose AI) — GPT-4, Claude, Gemini и других. EU AI Act устанавливает отдельный режим для провайдеров таких моделей — с разграничением между стандартными моделями и моделями с «системным риском».

Стандартные GPAI-модели
Базовые требования к провайдерам
  • Техническая документация о модели
  • Документация для downstream операторов
  • Соблюдение авторского права при обучении
  • Публичный реестр использованных данных
GPAI с «системным риском» (>10²⁵ FLOP)
Повышенные требования
  • Оценка и снижение системных рисков
  • Adversarial testing (red-teaming)
  • Уведомление об инцидентах Еврокомиссии
  • Меры кибербезопасности
  • Энергетическая эффективность
Двухуровневое регулирование: кто за что отвечает
Провайдер
модели
Несёт обязательства по GPAI-режиму: документация, авторское право, оценка системных рисков. Обязан предоставить операторам информацию, необходимую для их собственного compliance.
Оператор
агента
Несёт обязательства по уровню риска конкретного use case. Получает от провайдера информацию о модели и использует её для оценки своего агента. Не может ссылаться на «это ответственность провайдера».

На практике: даже если GPT-4 или Claude имеют собственную compliance-документацию, это не освобождает вашу компанию как оператора агента от собственных обязательств по EU AI Act — особенно если агент попадает в high-risk категорию по вашему use case.

6. Роли: оператор vs провайдер по EU AI Act

EU AI Act вводит два ключевых понятия: provider (провайдер) и deployer (оператор). Понимание этих ролей критично — от них зависит, какой объём обязательств несёт ваша компания.

Разграничение обязательств: провайдер vs оператор
По Art. 3 и главам III–IV EU AI Act
ОбластьProvider (провайдер)Deployer (оператор)
Кто этоРазрабатывает и выводит на рынок AI-систему или GPAI-модельИспользует AI-систему в профессиональном контексте
Техническая документацияПолная — включая архитектуру, данные, метрикиИспользует документацию провайдера; своя — по надзору и рискам
Human oversightПроектирует механизм oversight в системеВнедряет и обеспечивает работу human oversight
РегистрацияРегистрирует high-risk системы в EU AI databaseРегистрирует своё использование (для ряда high-risk категорий)
ИнцидентыУведомляет регулятора о серьёзных инцидентахУведомляет провайдера и регулятора при серьёзных инцидентах
Оценка соответствияПроводит до вывода на рынокОбеспечивает соответствие в рамках своего использования

Важно: оператор может стать провайдером. Если компания существенно модифицирует AI-систему, изменяет её назначение или выводит под своим брендом — EU AI Act может признать её провайдером со всеми соответствующими обязательствами. Это актуально для компаний, которые fine-tune модели или создают специализированных агентов на базе общих LLM.

7. Сроки вступления в силу и переходный период

EU AI Act вводится поэтапно. Сроки определяют, когда именно каждая категория требований становится обязательной. Для большинства агентов критичная дата — август 2026.

Август 2024
Вступление в силу

Закон вступил в силу. Запрет на неприемлемые практики. Начало переходного периода.

Август 2025
GPAI и Governance

Требования к GPAI-моделям. Обязательства по кодексам практики. Создание надзорных органов ЕС.

Август 2026
High-risk и прозрачность

Полные обязательства для high-risk систем. Требования прозрачности для limited-risk агентов. AI disclosure обязателен.

Август 2027
Встроенные high-risk системы

Требования для AI-систем, встроенных в продукты, регулируемые другими законодательными актами ЕС.

Что делать прямо сейчас (март 2026)

До августа 2026 остаётся менее 6 месяцев. Для компаний с агентами в high-risk категориях — это не «успеем потом», а реальный дедлайн для завершения compliance-программы. Минимальный план: классифицировать агента, определить обязательства, начать работу над документацией и human oversight. Для limited-risk — обновить ToU и добавить AI disclosure.

8. Связанные страницы и услуги

EU AI Act неотделим от GDPR-compliance, договорной защиты и governance. Связанные материалы и услуги WCR Consulting:

Нужно классифицировать агента по EU AI Act?

Расскажите, что делает агент и в каких сценариях используется. Определим уровень риска, составим карту обязательств и предложим план соответствия до августа 2026.