AI Due Diligence: что проверять при инвестиции в AI-компанию
5 блоков юридической проверки, которые отличают AI DD от классического legal due diligence — и которые большинство инвесторов всё ещё пропускают
- 1Почему AI DD отличается от обычного legal DD
- 2Блок 1: Права на модель — кто создал, кому принадлежит
- 3Блок 2: Данные — лицензии, GDPR и scraping-риски
- 4Блок 3: AI Act compliance — классификация и статус
- 5Блок 4: Контракты с провайдерами
- 6Блок 5: Регуляторные и судебные риски
- 7Красные флаги — 5 стоп-факторов для инвестора
Классический legal due diligence проверяет корпоративную структуру, финансовую отчётность, трудовые договоры и регистрацию IP. В AI-компании этого недостаточно — и не потому, что стандарты выросли. Просто природа актива другая.
Ключевой актив AI-стартапа — это модель. Но модель — не просто код: это результат обучения на конкретных данных, с использованием конкретных инструментов, конкретными людьми. Каждое из этих звеньев несёт самостоятельный правовой риск. AI Due Diligence — это структурированная проверка всей этой цепочки до подписания term sheet.
- Корпоративная структура и cap table
- Финансовая отчётность и задолженности
- Регистрация IP: патенты, торговые марки
- Трудовые договоры и NDA
- Судебные дела и претензии
- Происхождение модели: кто и как обучал
- Права на обучающие данные (training data)
- Compliance по EU AI Act / GPAI
- Условия контрактов с foundation model провайдерами
- Санкционный скрининг команды и данных
Модель — это код плюс веса плюс pipeline обучения. Каждый из этих элементов может принадлежать разным лицам: штатным сотрудникам, подрядчикам, open-source проектам, foundation model провайдерам. Задача инвестора — понять, что именно стартап считает своим и насколько это соответствует реальным правовым основаниям.
Чеклист по блоку 1 — Права на модель:
- ☑️IP Assignment во всех трудовых договорах и contractor agreements — проверить актуальность, полноту и применимое право
- ☑️Реестр использованных pre-trained/open-source моделей — лицензия каждой: тип, коммерческие ограничения, производные работы
- ☑️Model Card или аналогичная документация — описание возможностей, ограничений и intended use
- ☑️Отсутствие явных нарушений третьих лиц — патентные поиски, уведомления о претензиях, DMCA notices
3. Блок 2: Данные — лицензии, GDPR и scraping-риски
Training data — вторая критическая точка. Модель воспроизводит паттерны из данных, на которых обучалась. Если данные были получены незаконно или использованы без надлежащей лицензии, это не просто юридический риск — это риск для всего продукта.
- ☑️Data inventory — полный реестр источников данных с указанием лицензии или правового основания для каждого
- ☑️GDPR/PDPL compliance — наличие или отсутствие персональных данных в training set, основание обработки (consent / legitimate interest)
- ☑️Scraping-политика — соответствие ToS scraped-сайтов, наличие или отсутствие cease-and-desist уведомлений
- ☑️Data retention policy — как долго хранятся обучающие данные и выходные данные модели, процедура erasure
С 2025–2026 года EU AI Act вступает в силу поэтапно. Для инвестора ключевой вопрос — к какой категории риска относится AI-система стартапа и насколько компания готова соответствовать требованиям своей категории к установленным дедлайнам.
Timeline вступления в силу:
Чеклист по блоку 3 — AI Act compliance:
- ☑️Самоклассификация по уровню риска — есть ли у компании документированная классификация и методология, по которой она проводилась
- ☑️Техническая документация — для High Risk и GPAI: наличие, актуальность, соответствие Annex IV требованиям AI Act
- ☑️Conformity Assessment roadmap — для High Risk: план и статус прохождения оценки соответствия до August 2026
- ☑️Transparency notices — для всех систем: уведомления пользователей об AI, политика раскрытия
Большинство AI-стартапов строят продукты на foundation models от OpenAI, Anthropic, Google или через облачных провайдеров (AWS, Azure, GCP). Условия этих контрактов напрямую ограничивают, что компания может делать со своей собственной моделью и данными.
- No-training clause: OpenAI не обучается на API-данных (по умолчанию)
- Usage policies: запрет на определённые use cases
- Право прекратить доступ без предупреждения
- Ограничения на публикацию benchmark-результатов
- Строгая usage policy с Constitution AI ограничениями
- No training on API data: закреплено в ToS
- Ограничения на autonomous / agentic use cases
- Enterprise договоры отличаются от API ToS
- Data residency опции — важно для GDPR
- Service agreement + foundational model lincense layer
- SLA и uptime обязательства
- Условия прекращения сервиса и data portability
- ☑️Реестр всех API/SaaS провайдеров — с актуальными версиями ToS и Enterprise agreements, если есть
- ☑️No-training clause во всех провайдерских контрактах — или документированное решение использовать opt-out
- ☑️Data residency соответствует целевым рынкам — EU-клиенты: данные в ЕС или соглашение SCCs
- ☑️Отсутствие vendor lock-in без exit strategy — если 100% продукта на одном провайдере, что происходит при прекращении сервиса
6. Блок 5: Регуляторные и судебные риски
Последний, но не менее критичный блок — проверка текущих и потенциальных регуляторных и судебных рисков. AI-компании всё чаще становятся мишенью претензий от правообладателей, регуляторов и частных лиц.
- ☑️Litigation search — поиск по базам судебных дел в целевых юрисдикциях + запрос representations в SPA
- ☑️Санкционный скрининг всей цепочки — основатели, ключевые инвесторы, jurisdiction of data processing
- ☑️Регуляторная история — запросы DPA, предписания, штрафы. Необходимо запросить как часть legal rep в SPA
- ☑️Страховое покрытие — наличие E&O / cyber liability страховки с покрытием AI-специфических рисков
По результатам AI DD один из следующих факторов должен стать основанием для паузы в сделке — до получения удовлетворительных объяснений или устранения риска.

