Главная/ AI Law/ ИИ-агенты
AI Law · AI Agents

Юридическое сопровождение ИИ-агентов

ИИ-агент действует автономно, вызывает внешние системы и совершает действия с реальными последствиями — без участия человека на каждом шаге. Кто несёт ответственность? Как выстроить договорную защиту? Что требует EU AI Act и GDPR для таких систем?

Task Agent Process Agent Decision Agent Multi-agent LLM + Tools Agentic SaaS AI в HR / кредите Agentic RAG
Для кого

Кто обращается за этой услугой

🤖
Продукт на базе агента

Строите B2B или B2C продукт с ИИ-агентом внутри. Нужно понять правовой профиль, обновить ToU, закрыть риски перед EU AI Act и настроить договор с провайдером модели.

⚙️
Автоматизация бизнес-процессов

Внедряете агента во внутренние процессы — HR, юридический анализ, клиентский сервис, финансы. Нужно выстроить governance, назначить ответственных и закрыть GDPR-риски.

🔗
Инвестор или покупатель AI-компании

Оцениваете компанию, продукт которой — агентная система. Нужен правовой DD: классификация риска, договоры с провайдерами, compliance с EU AI Act, карта ответственности.

Что делаем

Услуги направления

⚖️ Оценка правового профиля агента

Анализируем архитектуру и сценарии использования. Классификация по EU AI Act, карта применимых требований GDPR и отраслевых норм, оценка роли компании (оператор / провайдер / пользователь).

EU AI Act классификация Risk register GDPR mapping
📄 Договор с провайдером агента

Анализируем ToS провайдера и готовим переговорные клаузулы в интересах оператора. Права на данные, training restrictions, ограничение ответственности, change control при обновлении модели, SLA и IP-права на output.

ToS review DPA Change control SLA
🔒 GDPR-compliance для агента

Правовые основания обработки данных агентом (Art. 6), Data Processing Agreement с провайдером (Art. 28), DPIA для автоматизированных решений с правовыми последствиями, механизм права на объяснение (Art. 22).

GDPR Art. 22 DPA DPIA Privacy by Design
🏗 AI Governance для агентных систем

Реестр AI-систем и матрица ролей, политика допустимого использования (AUP), процедура change control при обновлении модели, incident response — классификация, уведомление, документирование.

AI Registry AUP Incident response Human oversight
Правовой контекст

Почему агенты — отдельная правовая задача

ИИ-агент отличается от пассивного инструмента тремя свойствами, каждое из которых создаёт самостоятельный правовой риск.

🎯
Автономность

Агент действует без подтверждения каждого шага. При инциденте — непонятно, кто принял решение: человек или система. Это центральный вопрос ответственности.

Реальные действия

Агент не генерирует текст — он отправляет письма, создаёт документы, совершает транзакции, вызывает API. Каждое действие может иметь договорные и деликтные последствия.

🗄️
Данные и GDPR

Агент обрабатывает персональные данные автономно, часто сверх изначально предусмотренного объёма. GDPR Art. 22, право на объяснение, privacy by design — всё это применяется.

🔍
Непрозрачность

В multi-agent архитектуре цепочка решений нечитаема. Восстановить, какой агент принял ключевое решение, — технически и юридически сложно. Это проблема доказуемости.

🔄
Провайдер меняет модель

Большинство ToS позволяют обновлять модель без предупреждения. Поведение агента меняется — ответственность перед клиентами остаётся у оператора.

📋
EU AI Act

Decision Agent в HR, кредите, медицине — high-risk AI. Обязательны: документация, логирование, human oversight. Штрафы до 3% мирового оборота.

Ответственность

Кто отвечает за действия агента

Правовой принцип
ИИ-агент — инструмент, не субъект. Всю ответственность несут люди и компании.

Ни одна правовая система не признаёт агента субъектом права. Ответственность «собирается» из ролей в цепочке создания и использования агента — и первая претензия почти всегда приходит к оператору.

  • Разработчик / провайдер модели — дефекты модели, Product Liability, нарушения при обучении
  • Оператор (ваша компания) — выбор агента, сценарии, oversight, клиентские обязательства
  • Пользователь — если превысил полномочия или использовал не по назначению
  • Третьи лица — GDPR Art. 82, деликтные иски, регуляторные претензии
Обсудить риски →

Разбор вашего сценария
на первой консультации

Защита

Как снизить ответственность оператора

Работает связка: процесс + документы + контракты. Каждый элемент создаёт «доказуемость» управления агентом.

📋
Документы и договоры

ToU с AI disclosure и ограничением ответственности. DPA с провайдером. MSA с лимитами и indemnities. Клаузулы change control и обязанности уведомления при обновлении модели.

ToU / Terms DPA MSA / SLA Indemnities
⚙️
Процесс и доказуемость

Human oversight для критичных решений. Логирование inputs/outputs, версий модели, контекста. Incident response с фиксацией и post-mortem. Change control при обновлениях агента.

Human oversight Logging Incident response Change control
Процесс

Как выглядит работа

Шаг 1
Разбор агента и сценариев

Изучаем архитектуру, провайдера, данные, юрисдикции и тип клиентов. Формируем правовой профиль и карту применимых требований.

Шаг 2
Risk register и приоритеты

Карта рисков по use cases: где возникает ответственность, что требует EU AI Act и GDPR, что нужно закрыть до запуска в продакшн.

Шаг 3
Договоры и документы

ToS провайдера, DPA, обновление ToU продукта с AI disclosure и ограничением ответственности. MSA при необходимости.

Шаг 4
Governance и доказуемость

Реестр агента, матрица ролей, AUP, процедуры change control и incident response. «Paper trail» который защищает при проверке или претензии.

Из практики

Что идёт не так

Когда клиенты приходят к нам после самостоятельного запуска агента — чаще всего мы видим одно из этого.

1
ToU не обновлены до запуска агента в продакшн

Агент запущен, но Terms of Use не содержат AI disclosure и ограничения ответственности. При первой претензии клиента компания оказывается без договорной защиты.

2
Провайдер обновил модель — поведение агента изменилось

В договоре с провайдером нет клаузулы об уведомлениях при обновлении модели. Агент начал давать другие результаты — клиенты жалуются, а компания не знала об изменениях.

3
DPA с провайдером не заключён

Агент обрабатывает персональные данные клиентов, но Data Processing Agreement с провайдером отсутствует. Это прямое нарушение GDPR Art. 28 с риском штрафа.

4
Никто в компании не назначен ответственным за агента

При инциденте или регуляторном запросе нет задокументированной цепочки ответственности. EU AI Act требует назначенного оператора с конкретными обязанностями.

5
Decision Agent без human oversight

Агент принимает решения с правовыми последствиями — одобрение заявок, ценообразование, отбор кандидатов — полностью автономно. EU AI Act для high-risk требует обязательного human oversight.

FAQ

Частые вопросы

Агент — это high-risk AI по EU AI Act?+
Зависит от сценария. Decision Agent в HR, кредитовании, медицине или правосудии — почти гарантированно high-risk. Task Agent для внутренних задач без влияния на права людей — скорее minimal risk. Классификация требует анализа конкретного use case, а не типа архитектуры.
Нужен ли DPA с провайдером агента?+
Да, если агент обрабатывает персональные данные — DPA обязателен по GDPR Art. 28. Большинство провайдеров предлагают стандартный DPA, но его условия не всегда закрывают риски оператора. Важно проверить ограничения на использование данных и training restrictions.
Можно ли переложить ответственность на провайдера?+
Частично — через контракт: SLA, indemnities, обязанности уведомлений при изменении модели. Но стандартные ToS большинства провайдеров ограничивают их ответственность суммой подписки. Если вы продаёте продукт на базе агента — претензии клиентов придут к вам.
Что такое human oversight и почему он важен?+
EU AI Act требует, чтобы для high-risk AI человек мог контролировать, прерывать или корректировать работу системы. Для агентов: механизм остановки, логирование, возможность пересмотра автоматизированных решений. Отсутствие oversight — основание для претензии регулятора.
Нужно ли обновлять ToU при добавлении агента в продукт?+
Да, обязательно — и до запуска в продакшн. ToU должны включать: AI disclosure (пользователь знает что взаимодействует с агентом), ограничение ответственности за точность автоматизированных решений, запреты использования в определённых сценариях.
Как работает ответственность в multi-agent системах?+
Это один из наиболее сложных вопросов. Когда решение принимает цепочка агентов — восстановить «виновное» звено технически сложно. Правовое решение: чёткая матрица ролей, логирование каждого звена, договорное распределение ответственности между провайдерами компонентов.
Начать сотрудничество

Внедряете ИИ-агента или уже используете?

Опишите сценарии агента, провайдера, юрисдикции и тип клиентов — предложим конкретный формат правовой поддержки.

Формат запроса: сценарии агента · провайдер · данные · юрисдикции · B2B/B2C · сроки