Представьте: HR-платформа на базе AI отсеяла резюме квалифицированного кандидата из-за предвзятости в обучающих данных. Или медицинский AI-ассистент рекомендовал неверную дозировку препарата. Или кредитный скоринг AI отказал заёмщику, хотя его профиль соответствовал всем критериям. AI принял решение. Решение оказалось неверным. Кто несёт ответственность?
Европейская логистическая компания внедрила AI-систему для управления маршрутами доставки. Система давала сбой в условиях непредвиденных дорожных изменений и систематически нарушала сроки доставки. Клиенты понесли убытки и подали иски.
Вопрос 1: Кто ответственен — разработчик AI-модели, компания-интегратор, продавшая платформу, или логистическая компания, которая её использовала?
Вопрос 2: Что нужно доказать пострадавшему клиенту — конкретную ошибку в коде или достаточно факта ущерба и использования AI-системы?
Вопрос 3: Могла ли логистическая компания заранее ограничить свою ответственность через договор с разработчиком и Terms of Use с клиентами?
В цепочке AI-продукта всегда есть как минимум три участника с разным объёмом контроля над системой — и соответственно разным уровнем ответственности. Ключевой принцип: чем больше контроль над системой, тем выше ответственность.
Если провайдер дообучает или существенно модифицирует модель разработчика — он может быть признан «производителем» AI-системы и взять на себя ответственность, изначально лежавшую на разработчике. Это критично при fine-tuning, RAG-интеграции и кастомизации моделей под конкретные задачи.
EU AI Liability Directive (AILD) — документ, дополняющий AI Act в части гражданско-правовой ответственности. Его ключевое нововведение — презумпция причинно-следственной связи: пострадавшему не нужно доказывать, как именно AI-система привела к ущербу.
Пострадавший должен был доказать: (1) факт ущерба, (2) нарушение ответчиком обязанности, (3) прямую причинно-следственную связь между нарушением и ущербом. В случае с AI — практически невозможно: «чёрный ящик» не раскрывает логику решений.
Если истец докажет нарушение AI Act провайдером/разработчиком и факт ущерба — причинно-следственная связь презюмируется автоматически. Ответчик сам должен опровергнуть её. Бремя доказывания смещается на сторону AI-компании.
AILD даёт судам право обязать провайдера раскрыть внутреннюю документацию AI-системы — логи, обучающие данные, метрики. Отказ от раскрытия — сам по себе может трактоваться против ответчика.
Для ущерба в сфере основных прав (занятость, кредитование, образование) иск подаётся по упрощённой процедуре. Пороговая сумма, обязательная для полного доказывания, снижена — это делает судебное преследование практически доступным для физических лиц.
Если система нарушала требования AI Act (нет технического файла, нет оценки рисков, нет human oversight) — это автоматически усиливает позицию истца. Соответствие AI Act — первая линия защиты от LIABILITY-иска.
Явное указание на вероятностную природу AI-вывода, отсутствие гарантий точности, необходимость верификации человеком. Должно быть читаемым — не мелким шрифтом в конце страницы. Суды оценивают реальность принятия условий.
Ограничение максимальной суммы ответственности провайдера — обычно в размере стоимости подписки за период или фиксированной суммы. Работает в B2B-отношениях; для потребителей ЕС — ограничена нормами о защите прав потребителей.
Чёткое разграничение ответственности между разработчиком и провайдером в SLA и договоре поставки AI-услуг. Кто отвечает за дефект модели vs некорректную конфигурацию — должно быть прописано явно.
Полная техническая документация AI-системы, включая известные ограничения — как аргумент в суде: «мы уведомили пользователя о рисках, он принял решение сам». Особенно важно при иске от deployer к developer.
Human-in-the-loop (HITL) — не просто best practice, а требование AI Act для High Risk систем и ключевой аргумент защиты в LIABILITY-споре. Наличие документированного human oversight существенно снижает риск ответственности провайдера и пользователя при оспариваемом AI-решении.
Степень участия человека определяет и степень автономии AI-системы — и соответственно объём ответственности каждой из сторон.
AI предлагает вариант — человек утверждает или отклоняет. Минимальная правовая уязвимость: ответственность за финальное решение несёт человек-оператор. Обязательно для High Risk систем по AI Act (кредитование, найм, медицина, образование, правосудие).
AI действует автономно, но человек наблюдает и может остановить процесс. Промежуточная модель: ответственность делится, степень зависит от того, насколько человек мог и должен был вмешаться. Требует чёткого регламента вмешательства и его документирования.
Человек не участвует в принятии решения. Максимальная правовая уязвимость: вся ответственность ложится на провайдера/оператора. Допустимо только для Minimal Risk систем. Для High Risk — прямое нарушение AI Act.
Вопрос «кто отвечает за AI-ошибку» больше не теоретический — с 2026 года EU AI Liability Directive делает ответ на него юридически обязывающим. Три ключевых вывода:

