Кто отвечает за ошибки AI: ответственность разработчика, провайдера и пользователя
⚖️ 6 разделов  ·  ~8 мин чтения
Кто отвечает за ошибки AI: разработчик, провайдер или пользователь
AI принял решение — и оно оказалось неверным. Практический разбор распределения ответственности по EU AI Liability Directive и способы её ограничить.
AI Liability Directive Бремя доказывания Human-in-the-loop Terms of Use
1. Когда AI ошибается — кто платит

Представьте: HR-платформа на базе AI отсеяла резюме квалифицированного кандидата из-за предвзятости в обучающих данных. Или медицинский AI-ассистент рекомендовал неверную дозировку препарата. Или кредитный скоринг AI отказал заёмщику, хотя его профиль соответствовал всем критериям. AI принял решение. Решение оказалось неверным. Кто несёт ответственность?

⚖️ Реальный сценарий

Европейская логистическая компания внедрила AI-систему для управления маршрутами доставки. Система давала сбой в условиях непредвиденных дорожных изменений и систематически нарушала сроки доставки. Клиенты понесли убытки и подали иски.

Вопрос 1: Кто ответственен — разработчик AI-модели, компания-интегратор, продавшая платформу, или логистическая компания, которая её использовала?

Вопрос 2: Что нужно доказать пострадавшему клиенту — конкретную ошибку в коде или достаточно факта ущерба и использования AI-системы?

Вопрос 3: Могла ли логистическая компания заранее ограничить свою ответственность через договор с разработчиком и Terms of Use с клиентами?

🏗️
Разработчик модели знал об ограничениях системы в нестандартных условиях, но не задокументировал их явно. Отвечает ли он за убытки конечного клиента, с которым не имел договора?
🔧
Провайдер / интегратор настраивал систему под нужды логистики. Он изменил обучающие параметры. Добавляет ли это ему ответственность как «производителя» AI-продукта?
👤
Конечный пользователь (логистическая компания) не проводил тестирования в edge-случаях перед внедрением. Достаточно ли этого, чтобы возложить на него основную вину?
3
потенциальных ответчика в каждом AI-инциденте
€35M
максимальный штраф по EU AI Act при нарушениях
2026
год, когда EU AI Liability Directive применяется полностью
⚖️ До 2026 года большинство AI-инцидентов решалось по общим нормам деликтного права и договорной ответственности. С принятием EU AI Liability Directive появляется специальный механизм распределения бремени доказывания — и это меняет баланс сил между всеми участниками цепочки.
2. Три роли и их ответственность

В цепочке AI-продукта всегда есть как минимум три участника с разным объёмом контроля над системой — и соответственно разным уровнем ответственности. Ключевой принцип: чем больше контроль над системой, тем выше ответственность.

🏗️
Разработчик модели
Model developer / AI provider (EU AI Act)
Обязанности
Обеспечить безопасность и надёжность модели по назначению
Документировать ограничения, граничные случаи, известные ошибки
Предоставить downstream-провайдерам полную техническую документацию
Для GPAI-моделей — соответствие EU AI Act с августа 2025
Риск ответственности
Конструктивный дефект модели — неправильный архитектурный выбор
Дефект обучения — смещение в данных, переобучение
Неполная документация, скрывающая известные риски
Отсутствие предупреждений об ограниченности применения
🔧
Провайдер / Интегратор
Service provider / Deployer (EU AI Act)
Обязанности
Корректно внедрить модель под конкретный use case
Протестировать систему в условиях реального применения
Информировать пользователей об ограничениях AI-вывода
Обеспечить human oversight для High Risk решений
Риск ответственности
Некорректная конфигурация под задачу (fine-tuning без тестирования)
Применение модели за пределами заявленного назначения
Недостаточное раскрытие рисков AI-вывода конечному пользователю
Если изменил модель — может быть приравнен к производителю
👤
Конечный пользователь / Клиент
End user / Deployer-operator (EU AI Act)
Права
Получить объяснение AI-решения (право на объяснение в High Risk)
Оспорить автоматизированное решение, влияющее на его права
Требовать участия человека при высокорисковых решениях
Собственная ответственность
Использование AI вопреки инструкциям провайдера
Игнорирование предупреждений об ограничениях системы
Принятие критических решений без проверки AI-вывода человеком
⚡ Важный нюанс: смещение ролей

Если провайдер дообучает или существенно модифицирует модель разработчика — он может быть признан «производителем» AI-системы и взять на себя ответственность, изначально лежавшую на разработчике. Это критично при fine-tuning, RAG-интеграции и кастомизации моделей под конкретные задачи.

3. EU AI Liability Directive: как работает

EU AI Liability Directive (AILD) — документ, дополняющий AI Act в части гражданско-правовой ответственности. Его ключевое нововведение — презумпция причинно-следственной связи: пострадавшему не нужно доказывать, как именно AI-система привела к ущербу.

⚖️ Главный механизм: презумпция каузальности
До AILD (общее право)

Пострадавший должен был доказать: (1) факт ущерба, (2) нарушение ответчиком обязанности, (3) прямую причинно-следственную связь между нарушением и ущербом. В случае с AI — практически невозможно: «чёрный ящик» не раскрывает логику решений.

С AILD 2026

Если истец докажет нарушение AI Act провайдером/разработчиком и факт ущерба — причинно-следственная связь презюмируется автоматически. Ответчик сам должен опровергнуть её. Бремя доказывания смещается на сторону AI-компании.

1
Право на доступ к доказательствам

AILD даёт судам право обязать провайдера раскрыть внутреннюю документацию AI-системы — логи, обучающие данные, метрики. Отказ от раскрытия — сам по себе может трактоваться против ответчика.

2
Упрощённый иск для физлиц и малого бизнеса

Для ущерба в сфере основных прав (занятость, кредитование, образование) иск подаётся по упрощённой процедуре. Пороговая сумма, обязательная для полного доказывания, снижена — это делает судебное преследование практически доступным для физических лиц.

3
Связь с AI Act: нарушение = облегчённое доказывание

Если система нарушала требования AI Act (нет технического файла, нет оценки рисков, нет human oversight) — это автоматически усиливает позицию истца. Соответствие AI Act — первая линия защиты от LIABILITY-иска.

🛡️ Как ограничить ответственность
📄 Terms of Use с AI-дисклеймером

Явное указание на вероятностную природу AI-вывода, отсутствие гарантий точности, необходимость верификации человеком. Должно быть читаемым — не мелким шрифтом в конце страницы. Суды оценивают реальность принятия условий.

💰 Liability Cap в договоре

Ограничение максимальной суммы ответственности провайдера — обычно в размере стоимости подписки за период или фиксированной суммы. Работает в B2B-отношениях; для потребителей ЕС — ограничена нормами о защите прав потребителей.

🔄 Распределение в B2B-контракте

Чёткое разграничение ответственности между разработчиком и провайдером в SLA и договоре поставки AI-услуг. Кто отвечает за дефект модели vs некорректную конфигурацию — должно быть прописано явно.

📋 Документация как защита

Полная техническая документация AI-системы, включая известные ограничения — как аргумент в суде: «мы уведомили пользователя о рисках, он принял решение сам». Особенно важно при иске от deployer к developer.

⚠️ Дисклеймер сам по себе не освобождает от ответственности за нарушение AI Act. Если система не соответствовала требованиям (нет technical file, нет human oversight) — Terms of Use не закроет LIABILITY-иск по AILD. Compliance и контрактная защита работают только вместе.
4. Human-in-the-loop: почему это критично

Human-in-the-loop (HITL) — не просто best practice, а требование AI Act для High Risk систем и ключевой аргумент защиты в LIABILITY-споре. Наличие документированного human oversight существенно снижает риск ответственности провайдера и пользователя при оспариваемом AI-решении.

Степень участия человека определяет и степень автономии AI-системы — и соответственно объём ответственности каждой из сторон.

Human-in-the-loop
Человек проверяет каждое решение AI

AI предлагает вариант — человек утверждает или отклоняет. Минимальная правовая уязвимость: ответственность за финальное решение несёт человек-оператор. Обязательно для High Risk систем по AI Act (кредитование, найм, медицина, образование, правосудие).

Human-on-the-loop
Человек мониторит, может вмешаться

AI действует автономно, но человек наблюдает и может остановить процесс. Промежуточная модель: ответственность делится, степень зависит от того, насколько человек мог и должен был вмешаться. Требует чёткого регламента вмешательства и его документирования.

Human-out-of-the-loop
Полностью автономное AI-решение

Человек не участвует в принятии решения. Максимальная правовая уязвимость: вся ответственность ложится на провайдера/оператора. Допустимо только для Minimal Risk систем. Для High Risk — прямое нарушение AI Act.

📋Задокументируйте HITL-процедуру — кто, когда и как проверяет AI-вывод. Устного регламента недостаточно для защиты в суде.
🔍Определите критерии вмешательства — при каких значениях уверенности AI человек обязан перепроверить. Пороговые значения фиксируйте.
📊Ведите логи проверок — какие решения AI проверялись, кем, что было изменено. Это доказательная база при LIABILITY-споре.
🎓Обучите операторов — «нажать подтвердить» без реальной проверки — это не HITL. Регуляторы оценивают реальность oversight.
⚖️Зафиксируйте в Terms of Use — обязанность пользователя верифицировать AI-вывод перед принятием юридически значимых решений.
🔄Проверяйте регулярно — дрейф модели со временем может изменить качество вывода. Мониторинг после деплоя — требование AI Act, не опция.
💡 Наличие работающего HITL с документацией — это не только compliance, но и сильнейший аргумент защиты в суде: «наша система предоставляла рекомендацию, финальное решение принимал сертифицированный специалист, прошедший обучение по работе с AI-выводом». Суды учитывают это при распределении ответственности.
5. Что делать прямо сейчас

Вопрос «кто отвечает за AI-ошибку» больше не теоретический — с 2026 года EU AI Liability Directive делает ответ на него юридически обязывающим. Три ключевых вывода:

🏗️
Разработчик
Несёт ответственность за конструктивные дефекты модели и неполную документацию. Документируйте ограничения явно — суд не принимает «это подразумевалось».
🔧
Провайдер / Интегратор
Риск возрастает при fine-tuning и кастомизации. Terms of Use с AI-дисклеймером и Liability Cap в B2B-контракте — минимальный набор защиты.
👤
Конечный пользователь
Обязан верифицировать AI-вывод для значимых решений. Документированный HITL-процесс — лучшая защита и compliance-требование AI Act одновременно.
Оцените AI-риски вашего бизнеса
Анализ вашей позиции по AI Act, оценка LIABILITY-уязвимостей, разработка Terms of Use и HITL-процедур — под конкретный продукт и рынок.
⚖️Анализ роли в AI-цепочке — разработчик, провайдер или оператор: какой объём ответственности несёт ваша компания
📋Разработка Terms of Use с AI-дисклеймером, корректным описанием ограничений и Liability Cap под вашу модель
🔍HITL-аудит — соответствует ли ваш human oversight реальным требованиям AI Act для систем High Risk
🛡️Контрактная защита — перераспределение ответственности в B2B-договорах с разработчиками и клиентами
⚠️ Важно: дисклеймер без compliance не защищает. Если система нарушает AI Act — Terms of Use не закроет LIABILITY-иск. Контрактная и регуляторная защита работают только вместе.
💡 Если вы разрабатываете AI-продукт для EU-рынка — параллельно проверьте соответствие EU AI Act: нарушение Act автоматически усиливает позицию истца по AILD.