AI Law · Гайд

ИИ-агенты: правовое регулирование, ответственность и риски

ИИ-агент автономно принимает решения и совершает реальные действия — отправляет письма, создаёт документы, инициирует транзакции. Кто несёт ответственность за эти действия? Как работает EU AI Act и GDPR для автономных систем? Что проверить в договоре с провайдером? Разбираем юридическую сторону ИИ-агентов от определения до multi-agent архитектур.

ИИ-агенты AI Liability GDPR EU AI Act Договор с провайдером Multi-agent
1. Что такое ИИ-агент: определение и отличие от обычного ИИ

ИИ-агент — это программная система на основе искусственного интеллекта, которая автономно воспринимает информацию, принимает решения и совершает действия для достижения поставленной цели без пошагового участия человека.

Рабочее определение

ИИ-агент отличается от обычного ИИ-инструмента тремя свойствами: автономность (действует без подтверждения каждого шага), целеориентированность (преследует конкретный результат) и способность к действию (пишет код, отправляет письма, совершает транзакции, вызывает внешние API). Именно эти свойства создают юридически значимые последствия.

С правовой точки зрения, ключевое отличие агента от пассивного ИИ-инструмента состоит в том, что агент производит юридически значимые действия: создаёт документы, инициирует транзакции, ведёт переговоры, принимает решения об отборе персонала или выдаче кредита. Это меняет вопрос ответственности принципиально.

Обычный ИИ-инструмент
Пассивный ответчик
  • отвечает на запрос пользователя
  • не инициирует действий самостоятельно
  • результат — текст, изображение, код
  • каждый шаг требует подтверждения человека
  • ограниченная цепочка причинно-следствия
ИИ-агент
Автономный исполнитель
  • самостоятельно планирует и выполняет задачи
  • вызывает инструменты, API, внешние системы
  • результат — реальные действия с последствиями
  • может действовать без участия человека часами
  • порождает сложные цепочки ответственности

Именно автономность и способность к реальным действиям делают ИИ-агентов объектом пристального внимания со стороны регуляторов и юридического сообщества. Бизнес, внедряющий агентов, сталкивается с вопросами, на которые существующее законодательство пока не даёт однозначных ответов.

2. Виды ИИ-агентов и их юридическая значимость

Не все ИИ-агенты создают одинаковый правовой риск. Юридическая значимость агента определяется тем, какие именно действия он совершает и с какими последствиями.

🤖
Task Agent

Выполняет конкретную, ограниченную задачу: ищет информацию, формирует отчёт, проверяет данные. Действует в рамках жёстко заданного сценария.

Пример: анализ договора, мониторинг новостей
Риск: умеренный
⚙️
Process Agent

Автоматизирует сложные многошаговые процессы: управляет воронкой продаж, обрабатывает заявки, ведёт переписку с клиентами от имени компании.

Пример: CRM-агент, HR-скрининг, онбординг
Риск: повышенный
🔗
Decision Agent

Принимает решения с прямыми правовыми последствиями: одобряет кредит, отказывает в страховке, выставляет оферту, инициирует транзакцию.

Пример: кредитный скоринг, ценообразование
Риск: высокий

Отдельную категорию образуют multi-agent системы — архитектуры, где несколько агентов взаимодействуют между собой, делегируют задачи и совместно достигают результата. Такие системы создают наиболее сложные правовые вопросы, поскольку цепочка принятия решений может быть практически непрозрачной для человека.

3. Правовой статус ИИ-агента: субъект или инструмент?

Один из ключевых правовых вопросов об ИИ-агентах — является ли агент самостоятельным субъектом права или остаётся инструментом в руках человека (компании)? От ответа зависит вся конструкция ответственности.

Позиция действующего права

Ни одна существующая правовая система не признаёт ИИ-агента самостоятельным субъектом права. Агент — это инструмент, программный продукт. Он не может быть стороной договора, не несёт ответственности и не обладает правами. Всю правовую ответственность несут люди и компании, стоящие за агентом.

Что это означает практически

Если агент совершил ошибку, нанёс ущерб или нарушил закон, ответственность распределяется между разработчиком, провайдером, оператором и пользователем — в зависимости от структуры отношений, договорных условий и применимого законодательства. Это и есть центральный правовой вопрос при работе с агентами.

Ключевой вывод для бизнеса

Компания, внедряющая ИИ-агента, принимает на себя правовую ответственность за его действия. Объём этой ответственности зависит от того, насколько грамотно выстроена договорная база с провайдером, настроен human oversight и задокументированы границы полномочий агента.

4. Ответственность за действия ИИ-агента

Когда ИИ-агент совершает ошибку — неверно оформляет документ, принимает дискриминационное решение, инициирует несанкционированную транзакцию — возникает вопрос: кто несёт ответственность?

Ответ зависит от позиции в цепочке создания и использования агента. Право выделяет несколько потенциальных носителей ответственности.

DEV
Разработчик / провайдер модели

Несёт ответственность за дефекты самой модели, недостаточные предупреждения о рисках, нарушения при обучении (данные, IP). Ответственность ограничена условиями ToS и применимым законодательством о продуктовой ответственности.

Product liability → AI Liability Directive (EU)
OPS
Оператор / компания-интегратор

Несёт основную операционную ответственность: выбрал агента, определил сценарии использования, настроил полномочия. По EU AI Act — оператор несёт обязательства по oversight, документации и соответствию требованиям.

EU AI Act: Operator obligations
USR
Пользователь

При определённых условиях — если пользователь расширил полномочия агента за пределы предусмотренного, проигнорировал предупреждения или использовал агента не по назначению — ответственность может перейти на него.

Contributory negligence → ToU restrictions
3RD
Третьи лица и пострадавшие

Лица, пострадавшие от действий агента, вправе предъявить требования — как в рамках деликтного права, так и через специальные механизмы, предусмотренные регуляторными актами (EU AI Act, GDPR).

GDPR Art. 82 → Tort liability
Детальный разбор: цепочка ответственности при использовании ИИ-агентов, распределение рисков в договорах и практические механизмы защиты — в отдельной статье «Ответственность за действия ИИ-агента» →
5. ИИ-агенты и GDPR: обработка данных и автоматизированные решения

ИИ-агент, работающий с персональными данными, автоматически становится объектом требований GDPR. При этом агент создаёт специфические проблемы, которые не возникают при использовании обычных программных инструментов.

GDPR Art. 6
Правовое основание обработки

Агент должен обрабатывать данные только при наличии правового основания. Вопрос: распространяется ли согласие пользователя на все последующие действия агента — в том числе непредвиденные?

GDPR Art. 22
Право на объяснение

Если агент принимает решение с юридическими последствиями (отказ, одобрение, цена), субъект данных вправе требовать объяснения. Агент должен быть объяснимым — или решение должен принимать человек.

GDPR Art. 25
Privacy by Design

Агент должен быть спроектирован с учётом принципов минимизации данных и защиты приватности. Это обязательство лежит на операторе — компании, внедряющей агента.

GDPR Art. 28
Договор с обработчиком

Если агент предоставляется как услуга внешним провайдером, между оператором и провайдером должен быть заключён Data Processing Agreement (DPA) — обязательный документ.

!

Особый риск: агент может незаметно «дрейфовать» в обработку большего объёма данных, чем было предусмотрено изначально. Мониторинг того, какие данные реально обрабатывает агент, становится обязательным элементом compliance-программы.

Подробный анализ: как ИИ-агент взаимодействует с GDPR, какие документы нужны и как выстроить compliance-структуру — в отдельной статье «ИИ-агент и GDPR» →

6. EU AI Act и классификация ИИ-агентов по уровням риска

EU AI Act — первый в мире комплексный закон об ИИ — вступил в силу в 2024 году и создаёт обязательную систему классификации AI-систем по уровням риска. ИИ-агенты попадают под его действие, и их правовой режим определяется характером принимаемых решений.

Недопустимый
Запрещённые агенты

Агенты для социального скоринга граждан, скрытой манипуляции, использования биометрии в реальном времени в публичных пространствах — полностью запрещены.

Высокий риск
Строгие обязательства

Агенты в HR (найм, оценка), кредитовании, правосудии, критической инфраструктуре. Обязательны: документация, логирование, human oversight, соответствие стандартам точности.

Ограниченный
Требования прозрачности

Чат-боты и агенты, взаимодействующие с людьми, обязаны раскрывать свою природу — пользователь должен знать, что общается с ИИ.

Минимальный
Добровольный кодекс практики

Агенты для внутренних задач, не влияющих на права людей: анализ данных, автоматизация рутины. Формальных обязательств минимум.

Что меняется для агентов в 2025–2026?

Требования EU AI Act применяются поэтапно. Для high-risk систем — полное соответствие к середине 2026 года. ИИ-агенты общего назначения (GPAI), в том числе на базе GPT-4, Claude, Gemini, подпадают под отдельные требования к прозрачности и оценке рисков.

Экстерриториальный принцип: если ИИ-агент используется на территории ЕС или гражданами ЕС — EU AI Act применяется вне зависимости от юрисдикции компании-оператора.

7. Договорная база: что проверить до внедрения агента

Договор с провайдером ИИ-агента — это не стандартное SaaS-соглашение. Он регулирует распределение ответственности за автономные действия агента, права на данные, которые агент обрабатывает, и условия при инцидентах. Большинство стандартных ToS провайдеров написаны в интересах провайдера — не оператора.

01
Права на данные и training restrictions

Может ли провайдер использовать данные, которые агент обрабатывает, для обучения модели? Передаются ли данные третьим лицам? Это критично для конфиденциальной информации клиентов.

Риск при игнорировании: нарушение GDPR, утечка коммерческой тайны
02
Ограничение ответственности провайдера

Стандартные ToS ограничивают ответственность провайдера суммой подписки. При серьёзном инциденте компания-оператор остаётся с полным ущербом один на один. Нужны переговорные клаузулы.

Риск при игнорировании: полная ответственность оператора за ущерб от агента
03
Change control и уведомления об изменениях модели

Провайдер вправе обновить модель без предупреждения — и поведение агента изменится. Оператор должен получать уведомления о материальных изменениях и иметь право на тестирование перед обновлением.

Риск при игнорировании: непредвиденное изменение поведения агента в продакшне
04
SLA и ответственность за downtime

Если агент интегрирован в бизнес-процессы, его недоступность — это операционный ущерб. SLA должен включать гарантии доступности, метрики качества и компенсационный механизм.

Риск при игнорировании: операционные потери без механизма компенсации
05
IP-права на output агента

Кому принадлежат результаты работы агента — документы, код, анализы? Большинство провайдеров передают права пользователю, но с ограничениями. Это важно при коммерческом использовании output.

Риск при игнорировании: спорный правовой статус результатов работы агента

Полная карта клаузул, чек-лист для переговоров с провайдером и типовые формулировки — в статье «Договор с провайдером ИИ-агента» →

8. Multi-agent системы: новые правовые риски

Multi-agent системы — это архитектуры, где несколько ИИ-агентов взаимодействуют между собой: один агент планирует, другой исполняет, третий проверяет результат. Юридические риски таких систем экспоненциально выше, чем у одиночного агента.

Пример архитектуры multi-agent системы

Orchestrator Agent
Research Agent
Web Search
Orchestrator Agent
Writing Agent
Email API
Orchestrator Agent
Decision Agent
CRM / ERP

В такой архитектуре решение, инициированное Orchestrator, проходит через несколько агентов и инструментов прежде, чем произойдёт реальное действие. Восстановить полную цепочку ответственности — крайне сложная задача.

Непрозрачная цепочка решений

Невозможно установить, какой именно агент принял ключевое решение. Аудит и доказательство добросовестности становятся технически затруднительными.

Размытая ответственность

Если каждый агент — от разного провайдера, вопрос ответственности превращается в многостороннюю правовую коллизию без очевидного решения.

GDPR: отсутствие human oversight

При полностью автономном pipeline данные могут обрабатываться способами, которые не были предусмотрены изначально и не прошли DPIA.

Prompt injection и безопасность

Вредоносные инструкции, внедрённые во входящие данные, могут заставить агент выполнить несанкционированные действия — юридически это ущерб оператора.

Детальный правовой разбор multi-agent архитектур — в статье «Multi-agent системы: правовые риски» →

9. Как WCR Consulting помогает с правовым сопровождением ИИ-агентов

WCR Consulting сопровождает компании на всех этапах работы с ИИ-агентами: от оценки рисков и проверки договора с провайдером до выстраивания полной compliance-структуры и документационной базы.

Все темы, затронутые в этой статье, подробно разобраны в отдельных материалах кластера. Изучите то, что актуально прямо сейчас:

Используете ИИ-агента в продукте или процессах?

Расскажите, что делает агент, на чём работает и в каких странах. Поможем разобраться с рисками, проверим договор с провайдером или выстроим Governance — зависит от задачи.