AI Law · 2025
EU AI Act
ОАЭ
Великобритания
Сингапур
США
AI Law 2025: как регулируют ИИ в ЕС, ОАЭ и мире
Кто попадает под новые законы об ИИ, что уже работает — и три шага, с которых стоит начать прямо сейчас
⚖️ EU AI Act
🇦🇪 ОАЭ
🌍 Мир
🛡️ Практика
1. Почему AI Law важен прямо сейчас
Несколько лет назад компании использовали ИИ без особых юридических вопросов.
Сейчас картина изменилась: крупнейший закон об ИИ в мире вступил в силу,
ОАЭ формируют собственные правила игры, а регуляторы по всему миру подтягиваются.
Тихой гавани «без регулирования» больше нет.
130+
стран разрабатывают или уже приняли правила регулирования ИИ
€35M
максимальный штраф по EU AI Act — или 7% от глобального оборота
2025
год, когда большинство требований EU AI Act стали обязательными к исполнению
🌊Эффект GDPR — теперь для ИИ
В 2018-м многие думали, что GDPR «не про нас». Потом пришли штрафы и audit-запросы. EU AI Act работает по той же логике экстерриториальности — и охватывает любую компанию, чьи продукты используются в ЕС.
🎯Это не про далёкое будущее
Запреты на отдельные AI-системы уже действуют. Требования к GPAI-моделям — с августа 2025. Полные требования для продуктов высокого риска — с 2026. Многое происходит прямо сейчас.
"
Наши клиенты — основатели AI-стартапов из ОАЭ, Европы и Сингапура — чаще всего
задают один вопрос:
«Это точно касается нас?» Ответ почти всегда: скорее да, чем нет.
Вопрос только в том, как именно и что с этим делать.
Подробнее — в нашем разделе
AI Law и регулирование ИИ.
2. EU AI Act: главное за 5 минут
🌍
Важно: закон работает экстерриториально. Если вы находитесь в ОАЭ, Сингапуре или
США, но ваш AI-продукт используется клиентами из ЕС — вы попадаете под EU AI Act.
Ровно та же логика, что с GDPR. Игнорировать это не получится.
EU AI Act делит все AI-системы на четыре категории риска.
От категории зависит, какие требования применяются к вашему продукту.
EU AI Act: что нужно знать основателю AI-стартапа — полный разбор для тех, кто хочет углубиться.
🚫 ЗапрещеноProhibited AI Systems
Системы, которые нельзя использовать вообще. Полный запрет, вступил в силу в феврале 2025.
Примеры: социальный скоринг граждан, манипулятивные системы, биометрическая идентификация в реальном времени в публичных местах
Нельзя
🔴 Высокий рискHigh Risk AI Systems
Требуют conformity assessment, регистрации в EU DB, технической документации и человеческого надзора.
Примеры: AI в найме, кредитный скоринг, медицинские устройства, системы в образовании, критическая инфраструктура
до €30M / 6%
🟡 Ограниченный рискLimited Risk
Прозрачность: пользователь должен знать, что общается с AI. Минимальные требования.
Примеры: чат-боты, deepfake-генераторы, recommendation systems с ограниченным влиянием
до €15M / 3%
🟢 Минимальный рискMinimal Risk
Большинство B2B AI-инструментов. Требований почти нет, рекомендуется следовать voluntary codes of conduct.
Примеры: spam-фильтры, AI в видеоиграх, большинство productivity AI-инструментов
Без штрафов Когда что вступает в силу:
Фев 2025
Запрещённые системы
Prohibited AI — вывод из эксплуатации
Авг 2025
GPAI Models
Документация, copyright policy, adversarial testing для GPAI
Авг 2026
High Risk полностью
Conformity assessment и регистрация в EU DB обязательны
2027+
Встроенные системы
High Risk AI в уже сертифицированном оборудовании
3. Стратегия ОАЭ по регулированию ИИ
ОАЭ подходят к регулированию ИИ иначе, чем Европа — и это не недостаток,
а осознанная стратегия. Вместо жёсткого запретительного закона — поддержка инноваций
с постепенным выстраиванием отраслевых правил. Для международных стартапов это создаёт
другой тип возможностей.
🏛️UAE AI Office (MOIAT)
Министерство AI координирует национальную стратегию. UAE AI Strategy 2031 — ориентир для всей экосистемы. Фокус на AI в государственном секторе и конкурентоспособности.
🏦CBUAE — финансовый сектор
Центральный банк ОАЭ выпустил Guidance on AI для банков и финтех-компаний. Требования по управлению рисками AI-систем в финансовом секторе.
🏙️DIFC — международный финансовый центр
Собственная регуляторная среда DIFC. Активно развивает AI Governance Framework для компаний, зарегистрированных в свободной зоне.
📐ADGM — Abu Dhabi Global Market
Выпустил AI Guidelines для финансовых компаний. Фокус на прозрачности и управлении рисками — ближе к принципиальному подходу Великобритании, чем к закону ЕС.
🇪🇺 Подход ЕСЗапрещать и обязывать
Жёсткая классификация, обязательные требования, крупные штрафы. Прецедентный закон с детальными правилами. Задача — защита граждан.
🇦🇪 Подход ОАЭПоддерживать и направлять
Добровольные guidance, отраслевые рекомендации, поддержка внедрения. Задача — сделать ОАЭ глобальным AI-хабом. Правила ужесточатся — но постепенно.
4. Как регулируют ИИ в других юрисдикциях
ЕС и ОАЭ — два полюса. Между ними — целый спектр подходов.
Три юрисдикции, с которыми часто работают наши клиенты:
🇬🇧Великобритания
✅ ПринципиальныйНет единого закона — есть принципы (прозрачность, справедливость, объяснимость) и отраслевые регуляторы (FCA, ICO, CMA). Гибко, но требует понимания, кто именно вас регулирует. White Paper по AI уже опубликован, законодательство ожидается.
🇸🇬Сингапур
📋 РекомендательныйModel AI Governance Framework — добровольный, но де-факто стандарт для серьёзных компаний. PDPC активно регулирует AI в части персональных данных. Сингапур хочет быть «ответственным AI-хабом» — баланс инноваций и governance.
🇺🇸США
⚠️ ФрагментарныйПока нет федерального закона. Есть Executive Order на AI и NIST AI RMF как добровольный фреймворк. На уровне штатов — Colorado, Illinois, Техас уже приняли отраслевые законы. Ситуация быстро меняется — следить придётся внимательно.
💡
Если ваш продукт работает в нескольких из этих юрисдикций — требования будут складываться,
а не исключать друг друга. ЕС задаёт наиболее высокую планку, остальные юрисдикции
постепенно подтягиваются к аналогичным стандартам.
5. Кому из IT-компаний нужно реагировать прямо сейчас
Простой тест из трёх вопросов: Что вы делаете, где вы работаете, кто ваши пользователи.
Ответы определяют, насколько срочно нужно действовать.
🔴 Срочно
действуйтеВы продаёте AI-продукт высокого риска на рынок ЕС
Критерий: High Risk система + EU-пользователи
Что это: HR-AI, медицинские системы, кредитный скоринг, AI в образовании, системы
биометрии — и при этом есть клиенты или пользователи из ЕС.
Что делать: немедленно начать conformity assessment, подготовить техническую
документацию, назначить ответственного за AI Act compliance. Дедлайн август 2026 —
он уже близко.
🟡 Нужна
оценкаУ вас есть пользователи из ЕС — неважно, где ваш офис
Критерий: EU-пользователи любого AI-продукта
Что это: SaaS с AI-функциями, приложения с EU-аудиторией, B2B-продукты для
европейских компаний. Вы в ОАЭ или Сингапуре — не важно: работает экстерриториальный принцип.
Что делать: провести классификацию AI-систем по уровням риска,
проверить, попадаете ли под High Risk или GPAI-требования, подготовить transparency notices.
🟢 Готовьте
базуВы используете AI внутри компании — без прямого выхода на EU-рынок
Критерий: внутренние AI-инструменты без EU-пользователей
Что это: AI для внутренних процессов, автоматизация, аналитика —
без продажи EU-клиентам. Пока минимальные требования по EU AI Act.
Что делать: начать с инвентаризации AI-систем и разработки AI Governance политики.
Регуляторный ландшафт будет ужесточаться, и инфраструктура compliance пригодится раньше,
чем кажется.
6. Три первых шага
Compliance по AI Act не строится за ночь. Но начать можно уже сейчас —
и это не требует армии юристов. Три конкретных шага, с которых мы рекомендуем начинать.
Инвентаризация AI-систем
Составьте список: какие AI-инструменты используете в продукте и во внутренних процессах,
что именно они делают, на каких данных работают. Без этого списка невозможно
оценить ни риски, ни применимость закона.
- Продукт: все AI-фичи с описанием функции
- Операции: ChatGPT, Copilot, AI-аналитика, автоматизация
- Данные: какие персональные данные обрабатываются через AI
Оценка применимости EU AI Act
Для каждой системы из инвентаризации — ответить на вопрос: к какой категории риска
она относится? Если есть EU-пользователи, это не опциональный вопрос. Самостоятельная
классификация — первый шаг, после которого уже понятно, что делать дальше.
- Запрещённые практики — нет ли среди ваших систем?
- High Risk — попадает ли продукт в annexes к AI Act?
- GPAI — разрабатываете ли вы собственную foundation model?
Проверка контрактов с AI-провайдерами
OpenAI, Anthropic, Google — все они имеют свои Terms of Service, которые влияют
на то, как вы можете использовать данные и что можете обещать своим клиентам.
Проверить: no-training clause, DPA, data residency, применимое право.
- Есть ли no-training clause по вашему тарифу?
- Заключён ли DPA с провайдером для GDPR-целей?
- Ваш Terms of Use содержит AI-дисклеймер для пользователей?
7. Как WCR Consulting помогает
Мы помогаем AI-компаниям разобраться в регуляторных требованиях и выстроить
compliance без лишней бюрократии. Три направления, с которых обычно начинают наши клиенты:
🔍
С этого начинаютAI Risk Assessment
Классифицируем ваши AI-системы по EU AI Act, определяем уровень риска и даём конкретный план действий: что срочно, что можно подождать, что не требует изменений.
🏛️
Следующий шагAI Governance Framework
Разрабатываем внутреннюю политику управления ИИ: от инвентаризации систем до процедур human oversight и документации для регулятора. Подробнее:
AI Governance Framework.
📄
Для конкретных вопросовLegal Opinion по EU AI Act
Письменное правовое заключение: попадает ли ваш продукт под EU AI Act, какие обязательства возникают и что нужно сделать до ближайших дедлайнов. Подходит для совета директоров и инвесторов.
Разберёмся в регуляторике вместе
Первичная консультация покажет, касается ли вас EU AI Act, что сделать в первую очередь
и насколько это реально выполнить силами вашей команды.
✓Конкретный ответ: попадаете под EU AI Act или нет, и почему
✓Приоритеты: что нужно сделать до августа 2026, а что подождёт
✓Оценка рисков по вашей конкретной AI-системе и рынкам присутствия
✓Практический план без перегруза юридическим языком
Мы не продаём compliance ради compliance. Если ваша ситуация не требует срочных действий —
скажем об этом прямо и объясним, на что обратить внимание в будущем.