Image for Article 'Who Is Reponsible for AI?'

Кто в ответе за ИИ? Разграничение ответственности в эпоху автономных систем

С развитием искусственного интеллекта (ИИ) и его интеграцией в повседневную жизнь возрастает необходимость в юридическом разграничении ответственности. Кто отвечает, если автономная система нанесла ущерб: разработчик алгоритма, производитель оборудования, оператор или пользователь? Эта тема стала особенно актуальной в свете последних законодательных инициатив в России, ЕС, США и Китае.

Российская инициатива: роботы-доставщики на улицах

Компания «Яндекс» представила в Минэкономики России проект экспериментального правового режима (ЭПР), предполагающий допуск автономных роботов-доставщиков на тротуары и велодорожки. Согласно проекту:

  • скорость робота ограничивается 25 км/ч;
  • устройство должно быть оснащено номером и QR-кодом;
  • вводится обязательное страхование ответственности (500 тыс. руб.);
  • предлагается механизм оформления ДТП с участием робота.

Инициатива подчёркивает вызов: как обеспечить безопасность и соблюдение правовых норм при участии автономных систем в общественном пространстве?

Европейский союз: первый в мире всеобъемлющий закон об ИИ

12 июля 2024 года в Официальном журнале ЕС опубликован Закон об ИИ (AI Act), вступивший в силу 1 августа 2024 года. Это первый комплексный нормативный акт, регулирующий ИИ-системы на основе подхода, основанного на степени риска:

  • запрещаются ИИ-системы с «недопустимым риском» (например, социальный рейтинг, распознавание лиц в реальном времени в общественных местах — за исключением строго оговорённых случаев);
  • для «высокорисковых» ИИ (например, в медицине, транспорте) установлены строгие требования по прозрачности, управлению данными и человеческому контролю;
  • запрет на ИИ с недопустимым риском вступает в силу с 2 февраля 2025 года;
  • поэтапное применение остальных требований продлится до 2027 года: обязанности для систем высокого риска полностью вступают в силу с 1 августа 2027 года.

AI Act прямо адресует риски дискриминации, предвзятости (bias), нарушения прав человека и автономного принятия решений без достаточного человеческого контроля. Акцент сделан не на «невозможности апелляции», а на обеспечении возможности человека вмешаться в принятие критически важных решений.

США: попытка приостановить инициативы штатов

В мае 2025 года республиканцами был внесён законопроект в Палату представителей США, инициированный председателем Комитета по энергетике и торговле Бреттом Гютри. Документ предлагает 10-летний мораторий на регулирование ИИ на уровне штатов, чтобы сохранить единую федеральную политику и избежать фрагментации.

Однако:

  • проект столкнулся с критикой по линии 10‑й поправки к Конституции США, ограничивающей полномочия федерального центра;
  • в Сенате его прохождение маловероятно из-за правила Бёрда (Byrd Rule), которое ограничивает включение нефинансовых положений в законопроекты по бюджету;
  • в отсутствие федерального регулирования штаты продолжают принимать собственные акты — только Калифорния уже внедрила более 20 актов, касающихся ИИ.

Таким образом, регулирование ИИ в США остаётся разрозненным, создавая сложности для компаний, действующих в нескольких штатах.

Китай: государственный контроль и алгоритмическая этика

Китай реализует централизованный и идеологически ориентированный подход. В сентябре 2024 года был опубликован черновик технического стандарта по маркировке синтетического контента (водяные знаки, метаданные), подготовленный Национальным техническим комитетом по информационной безопасности (NISSTC). Он дополняет существующую нормативную базу:

  • 2021: Этические принципы ИИ;
  • 2022: Положение о технологиях «глубокого синтеза» (deep synthesis) — регулирование дипфейков и генеративных алгоритмов;
  • 2023: Временные меры по регулированию генеративного ИИ — требования к регистрации алгоритмов, обеспечению цензуры и соответствию идеологическим стандартам;
  • 2024: Стратегия глобального управления ИИ — попытка предложить альтернативу западным стандартам регулирования.

Китай делает упор на управляемость, прозрачность происхождения контента и защиту общественной морали. В отличие от ЕС, права человека не являются главным ориентиром.

Кто отвечает за действия ИИ?

Системы ИИ нарушают привычные границы между производителем, пользователем и разработчиком. Основные участники и зоны их ответственности:

УчастникВозможная зона ответственности
Разработчик ПООшибки в алгоритме, недостаточное тестирование, предвзятые исходные данные
Производитель техникиАппаратные сбои, некорректная интеграция с ИИ
Оператор / владелецНеправильная эксплуатация, отсутствие процедур контроля
ПользовательЗлоупотребление ИИ, нарушение инструкций
Страховая компанияВыплата компенсаций при неустановленном виновнике или коллективной ответственности

В зависимости от юрисдикции, приоритеты варьируются: ЕС требует чёткой архитектуры человеческого надзора, Китай вводит централизованный контроль, а США пока не пришли к единой модели регулирования.

Выводы: как бизнесу подготовиться к регулированию ИИ

  1. Анализ рисков. Оцените, может ли ваша ИИ-система привести к вреду, дискриминации или юридическим последствиям.
  2. Структурирование договоров. Включите в контракты положения о распределении ответственности, ограничении убытков и страховании.
  3. Аудит ИИ-систем. Внедрите механизмы прозрачности, отслеживания и вмешательства человека.
  4. Мониторинг норм. Следите за изменениями законодательства в ключевых юрисдикциях и обновляйте внутренние политики.

ИИ всё чаще участвует в гражданских и коммерческих отношениях. Регулирование будет только ужесточаться — подготовка к этому сегодня означает меньше рисков завтра.

* * *

Если вы хотите оценить юридические риски использования ИИ, пересмотреть договоры с подрядчиками или внедрить внутреннюю политику соответствия — пишите нам по адресу info@danilovpartners.com, наша фирма готова помочь.