С развитием искусственного интеллекта (ИИ) и его интеграцией в повседневную жизнь возрастает необходимость в юридическом разграничении ответственности. Кто отвечает, если автономная система нанесла ущерб: разработчик алгоритма, производитель оборудования, оператор или пользователь? Эта тема стала особенно актуальной в свете последних законодательных инициатив в России, ЕС, США и Китае.
Российская инициатива: роботы-доставщики на улицах
Компания «Яндекс» представила в Минэкономики России проект экспериментального правового режима (ЭПР), предполагающий допуск автономных роботов-доставщиков на тротуары и велодорожки. Согласно проекту:
- скорость робота ограничивается 25 км/ч;
- устройство должно быть оснащено номером и QR-кодом;
- вводится обязательное страхование ответственности (500 тыс. руб.);
- предлагается механизм оформления ДТП с участием робота.
Инициатива подчёркивает вызов: как обеспечить безопасность и соблюдение правовых норм при участии автономных систем в общественном пространстве?
Европейский союз: первый в мире всеобъемлющий закон об ИИ
12 июля 2024 года в Официальном журнале ЕС опубликован Закон об ИИ (AI Act), вступивший в силу 1 августа 2024 года. Это первый комплексный нормативный акт, регулирующий ИИ-системы на основе подхода, основанного на степени риска:
- запрещаются ИИ-системы с «недопустимым риском» (например, социальный рейтинг, распознавание лиц в реальном времени в общественных местах — за исключением строго оговорённых случаев);
- для «высокорисковых» ИИ (например, в медицине, транспорте) установлены строгие требования по прозрачности, управлению данными и человеческому контролю;
- запрет на ИИ с недопустимым риском вступает в силу с 2 февраля 2025 года;
- поэтапное применение остальных требований продлится до 2027 года: обязанности для систем высокого риска полностью вступают в силу с 1 августа 2027 года.
AI Act прямо адресует риски дискриминации, предвзятости (bias), нарушения прав человека и автономного принятия решений без достаточного человеческого контроля. Акцент сделан не на «невозможности апелляции», а на обеспечении возможности человека вмешаться в принятие критически важных решений.
США: попытка приостановить инициативы штатов
В мае 2025 года республиканцами был внесён законопроект в Палату представителей США, инициированный председателем Комитета по энергетике и торговле Бреттом Гютри. Документ предлагает 10-летний мораторий на регулирование ИИ на уровне штатов, чтобы сохранить единую федеральную политику и избежать фрагментации.
Однако:
- проект столкнулся с критикой по линии 10‑й поправки к Конституции США, ограничивающей полномочия федерального центра;
- в Сенате его прохождение маловероятно из-за правила Бёрда (Byrd Rule), которое ограничивает включение нефинансовых положений в законопроекты по бюджету;
- в отсутствие федерального регулирования штаты продолжают принимать собственные акты — только Калифорния уже внедрила более 20 актов, касающихся ИИ.
Таким образом, регулирование ИИ в США остаётся разрозненным, создавая сложности для компаний, действующих в нескольких штатах.
Китай: государственный контроль и алгоритмическая этика
Китай реализует централизованный и идеологически ориентированный подход. В сентябре 2024 года был опубликован черновик технического стандарта по маркировке синтетического контента (водяные знаки, метаданные), подготовленный Национальным техническим комитетом по информационной безопасности (NISSTC). Он дополняет существующую нормативную базу:
- 2021: Этические принципы ИИ;
- 2022: Положение о технологиях «глубокого синтеза» (deep synthesis) — регулирование дипфейков и генеративных алгоритмов;
- 2023: Временные меры по регулированию генеративного ИИ — требования к регистрации алгоритмов, обеспечению цензуры и соответствию идеологическим стандартам;
- 2024: Стратегия глобального управления ИИ — попытка предложить альтернативу западным стандартам регулирования.
Китай делает упор на управляемость, прозрачность происхождения контента и защиту общественной морали. В отличие от ЕС, права человека не являются главным ориентиром.
Кто отвечает за действия ИИ?
Системы ИИ нарушают привычные границы между производителем, пользователем и разработчиком. Основные участники и зоны их ответственности:
Участник | Возможная зона ответственности |
Разработчик ПО | Ошибки в алгоритме, недостаточное тестирование, предвзятые исходные данные |
Производитель техники | Аппаратные сбои, некорректная интеграция с ИИ |
Оператор / владелец | Неправильная эксплуатация, отсутствие процедур контроля |
Пользователь | Злоупотребление ИИ, нарушение инструкций |
Страховая компания | Выплата компенсаций при неустановленном виновнике или коллективной ответственности |
В зависимости от юрисдикции, приоритеты варьируются: ЕС требует чёткой архитектуры человеческого надзора, Китай вводит централизованный контроль, а США пока не пришли к единой модели регулирования.
Выводы: как бизнесу подготовиться к регулированию ИИ
- Анализ рисков. Оцените, может ли ваша ИИ-система привести к вреду, дискриминации или юридическим последствиям.
- Структурирование договоров. Включите в контракты положения о распределении ответственности, ограничении убытков и страховании.
- Аудит ИИ-систем. Внедрите механизмы прозрачности, отслеживания и вмешательства человека.
- Мониторинг норм. Следите за изменениями законодательства в ключевых юрисдикциях и обновляйте внутренние политики.
ИИ всё чаще участвует в гражданских и коммерческих отношениях. Регулирование будет только ужесточаться — подготовка к этому сегодня означает меньше рисков завтра.
* * *
Если вы хотите оценить юридические риски использования ИИ, пересмотреть договоры с подрядчиками или внедрить внутреннюю политику соответствия — пишите нам по адресу info@danilovpartners.com, наша фирма готова помочь.