ИИ - юридическое лицо
В статье ниже исследуется трансформация правового статуса систем ИИ в контексте их интеграции в деятельность органов государственного управления и хозяйствующих субъектов. На основе анализа прецедента включения алгоритмической модели в состав правительства Албании, а также положений вновь принятых нормативных актов Российской Федерации и Республики Беларусь обосновывается тезис о формировании феномена «функциональной правосубъектности». Данная форма субъектности не тождественна правоспособности физического или юридического лица, но представляет собой институционально признанную возможность автономного совершения юридически значимых действий в ограниченной предметной области. Рассматриваются онтологические особенности такой субъектности, эпистемические проблемы верификации алгоритмических решений и предлагается институциональная модель, сочетающая операциональную автономию с сохранением ответственности за человеком. Уделяется внимание анализу законодательных инициатив и правоприменительной практики в Союзном государстве, формулируются рекомендации по гармонизации подходов к регулированию искусственного интеллекта в Республике Беларусь.
Введение.
Стремительное проникновение технологий искусственного интеллекта в сферы, традиционно считавшиеся прерогативой человека, ставит перед правовой доктриной вопрос онтологического и нормативного характера: в каком качестве система, способная к автономному принятию решений, может выступать в правоотношениях? Долгое время дискуссия вращалась вокруг дихотомии «объект — субъект», где в качестве субъекта мыслился исключительно человек или созданные им коллективные образования. Однако практика последних лет демонстрирует появление феноменов, не укладывающихся в эту бинарную логику.
Сентябрь 2025 года ознаменовался событием, которое может быть квалифицировано как институциональный прорыв. Правительство Албании объявило о включении в свой состав модели искусственного интеллекта Diella, наделённой полномочиями в сфере контроля государственных закупок. Формально оставаясь программным продуктом, Diella интегрирована в национальную платформу электронных услуг e-Albania и осуществляет автоматизированную проверку контрактов, выявление и блокирование подозрительных сделок. Целью эксперимента объявлено создание «неподкупной» системы распределения государственных средств, свободной от коррупционных рисков.
Данный прецедент, несмотря на его неоднозначную оценку (президент Албании отказался утвердить назначение, ссылаясь на отсутствие правовой базы), ставит вопрос о необходимости выработки правовых форм, адекватных новому типу агентности. Параллельно с этим в Российской Федерации и Республике Беларусь разворачиваются процессы формирования национального законодательства об ИИ и робототехнике, а также накапливается опыт применения программных роботов в деятельности органов власти.
Попытаемся обосновать концепцию функциональной правосубъектности как наиболее адекватный способ юридической фиксации места автономных систем в современном правопорядке, а также предложить конкретные пути её имплементации в законодательство Союзного государства с учётом актуальных нормативных изменений и правоприменительной практики.
1. Эмпирический базис: прецеденты институциональной интеграции автономных систем.
Для начала выделим три уровня интеграции систем искусственного интеллекта в деятельность, имеющую юридическое значение.
Первый уровень — автоматизация вспомогательных процессов (роботизация). Данный уровень характеризуется использованием программных роботов (RPA-решений) для выполнения рутинных операций, не связанных с принятием содержательных решений. Примером служит опыт Санкт-Петербурга, где более ста программных роботов, разработанных Комитетом по информатизации и связи, ежедневно осуществляют сверку документов, регистрацию обращений граждан, формирование межведомственных запросов и подготовку отчётности. Экономический эффект оценивается в сотни тысяч сэкономленных человеко-часов. С правовой точки зрения, действия таких роботов полностью охватываются категорией «техническое средство» и не порождают проблем субъектности.
Второй уровень — алгоритмическое сопровождение принятия решений. Здесь системы искусственного интеллекта используются для анализа больших массивов данных и предоставления рекомендаций лицу, принимающему решение. Как отмечается в профессиональной литературе, современная юридическая деятельность неизбежно осуществляется внутри высоконагруженных цифровых платформ. Налоговые органы применяют риск-модели для отбора объектов проверок, суды общей юрисдикции рассматривают миллионы дел, обработка которых в ручном режиме практически невозможна. На данном уровне возникает проблема «чёрного ящика»: лицо, принимающее решение, не всегда способно верифицировать основания алгоритмической рекомендации, однако юридическая ответственность по-прежнему лежит на нём.
Третий уровень — функциональное замещение (алгоритмическое управление). На этом уровне система наделяется полномочиями совершать юридически значимые действия без непосредственного участия человека в каждом конкретном акте. Именно к этому типу относится албанский эксперимент с «министром» Diella. Характерно, что система не просто консультирует чиновников, а самостоятельно блокирует подозрительные сделки в сфере госзакупок, реализуя властные полномочия. Правовая коллизия, возникшая при её назначении (отказ президента утвердить состав правительства), наглядно демонстрирует, что действующее законодательство не содержит механизмов легитимации подобной практики. Дальнейшее развитие этого уровня демонстрирует анонсированный албанским премьер-министром проект создания восьмидесяти трёх «цифровых помощников» для парламента, которые будут анализировать стенограммы заседаний и уведомлять депутатов о пропущенных темах. Хотя метафора «беременности» министра-ИИ является скорее публицистической, она указывает на тенденцию тиражирования алгоритмических агентов в структурах власти.
2. Правовая регламентация: актуальное состояние и тенденции развития.
2.1. Российская Федерация.
В Российской Федерации формирование нормативной базы осуществляется по нескольким направлениям.
Во-первых, развивается институт экспериментальных правовых режимов (ЭПР). С 2021 года установлено девятнадцать экспериментов в сфере беспилотных авиационных систем, высокоавтоматизированного транспорта, медицины и государственных услуг. В феврале 2026 года в Государственную Думу внесён законопроект, предусматривающий увеличение максимального срока действия ЭПР с трёх до пяти лет и упрощение порядка их запуска за счёт исключения требования об обязательном наличии правового барьера. Данная инициатива призвана расширить возможности тестирования технологий в условиях правовой неопределённости .
Во-вторых, разрабатывается законодательство о робототехнике. По сообщениям Министерства промышленности и торговли, подготовлен законопроект, который должен сформировать комплексную правовую базу для всего жизненного цикла робототехнических решений. Ключевым принципом заявляется сохранение контроля и юридической ответственности за человеком независимо от уровня автономности технологий. Документ также определяет обязанности участников рынка и создаёт основы для международного сотрудничества .
В-третьих, в уголовное законодательство предлагается ввести квалифицирующий признак «совершение преступления с использованием искусственного интеллекта». Соответствующий законопроект, подготовленный Министерством цифрового развития, вызвал критику Министерства юстиции, указавшего на неопределённость ключевого понятия и риск роста нагрузки на экспертные учреждения, которые будут вынуждены подтверждать факт использования именно искусственного интеллекта, а не иных программных средств .
2.2. Республика Беларусь.
В Беларуси процесс формирования законодательства об искусственном интеллекте находится в активной стадии. В настоящее время отдельный закон об искусственном интеллекте отсутствует, однако действуют отдельные нормативные акты, создающие основу для развития технологий. Ключевое значение имеет Декрет № 8 «О развитии цифровой экономики» (2017 год), предоставивший резидентам Парка высоких технологий широкие возможности для деятельности в сфере искусственного интеллекта. В стратегии «Наука и технологии: 2018–2040» искусственный интеллект определён в качестве одного из приоритетных направлений развития .
В марте 2025 года на заседании Постоянной комиссии Межпарламентской Ассамблеи СНГ по науке и образованию одобрен проект модельного закона «О технологиях искусственного интеллекта», призванный обеспечить единую терминологию и принципы регулирования на пространстве Содружества. Принципиально важным направлением является гармонизация белорусского законодательства с российскими техническими нормативно-правовыми актами. Насчитывается более ста российских документов в различных областях, с которыми необходимо согласовать национальные подходы для обеспечения единых правил игры в рамках Союзного государства. В августе 2025 года утверждено межправительственное соглашение о сотрудничестве в сфере интеллектуальной собственности, предусматривающее обмен информацией о законодательстве и правоприменительной практике в области искусственного интеллекта.
3. Философско-правовое обоснование функциональной правосубъектности.
В отличие от субстанциального подхода, требующего доказательств наличия у сущности разума, воли или способности к интересам, функциональный подход исходит из потребностей правового оборота. История права знает примеры признания субъектности за образованиями, заведомо не обладающими психическими свойствами человека (юридические лица, государство, муниципальные образования). Основанием такого признания выступает не онтологическая данность, а необходимость эффективной организации общественных отношений.
Применительно к системам искусственного интеллекта функциональная правосубъектность может быть определена как признаваемая правопорядком способность автономной алгоритмической системы совершать юридически значимые действия в строго определённой предметной области, с сохранением механизмов ответственности за человеком (разработчиком, оператором, владельцем) и возможностью судебного пересмотра принятых решений.
Данная концепция обладает следующими преимуществами:
1. Градуированность. Объём правосубъектности может варьироваться в зависимости от степени автономности системы и сферы её применения. Система, осуществляющая блокировку подозрительных транзакций, обладает иным объёмом полномочий, нежели система, дающая рекомендации врачу.
2. Инструментальность. Признание функциональной субъектности не требует решения неразрешимых философских вопросов о наличии у машины сознания. Оно служит сугубо прагматической цели — легитимации действий, которые объективно совершаются системой и имеют правовые последствия.
3. Сохранение антропоцентричности. Ответственность за конечные результаты функционирования системы сохраняется за человеком (коллективом людей). Это соответствует принципу, закреплённому в разрабатываемом российском законе о робототехнике.
Албанский прецедент хорошо иллюстрирует данную модель. Diella не становится «физическим лицом» в каком-либо смысле. Она выполняет строго очерченную функцию, действует в рамках заданных алгоритмов, а её решения могут быть оспорены в административном или судебном порядке. Ответственность за функционирование системы в целом несёт правительство, её внедрившее. Проблема заключается не в отсутствии субъектности как таковой, а в отсутствии правовой формы, которая могла бы эту субъектность легитимировать.
4. Модель включения автономных систем в правовое пространство.
Исходя из изложенных теоретических посылок и с учётом успешных практик (Санкт-Петербург, эксперименты в рамках ЭПР), а также выявленных проблем (албанский прецедент), предлагается следующая институциональная модель.
Модель включает три взаимосвязанных компонента:
А. Правовой статус. На уровне специального закона закрепляется понятие «автономная система, действующая в публично значимой сфере». Закон определяет:
· требования к регистрации таких систем;
· порядок подтверждения их соответствия (сертификации);
· объём полномочий (жёстко фиксированный перечень действий, которые система вправе совершать самостоятельно);
· требования к прозрачности алгоритмов (обязательное документирование логики принятия решений, обеспечение возможности аудита).
Б. Процедурные гарантии. Поскольку решения системы могут затрагивать права и законные интересы граждан и организаций, необходимы процессуальные механизмы их проверки. Предлагается создание специализированных комиссий (возможно, в рамках существующих административных органов или судов), уполномоченных рассматривать жалобы на действия алгоритмических систем. При этом бремя доказывания корректности работы системы должно лежать на стороне, её внедрившей (презумпция добросовестности не применяется).
В. Ответственность и страхование. Юридическая ответственность за вред, причинённый действиями автономной системы, должна быть распределённой:
· Разработчик (производитель) отвечает за недостатки алгоритма, допущенные при проектировании и создании системы.
· Оператор (владелец, государственный орган) отвечает за ненадлежащее использование, несвоевременное обновление, игнорирование сигналов о сбоях.
· Механизм обязательного страхования рисков причинения вреда должен обеспечивать компенсацию потерпевшим вне зависимости от того, на каком этапе произошёл сбой.
5. Ситуация в Республике Беларусь и предложения по совершенствованию.
Анализ состояния дел в Республике Беларусь позволяет сделать следующие выводы.
Достижения. В стране создана базовая инфраструктура для развития технологий искусственного интеллекта (Парк высоких технологий, Декрет № 8). Имеется практический опыт применения таких технологий в промышленности, сельском хозяйстве, банковском секторе и медицине. Активно ведётся работа по гармонизации подходов с Российской Федерацией, что критически важно в условиях формирования единого экономического пространства.
Проблемы и нерешённые вопросы. Основной проблемой является отсутствие специального законодательства, которое бы определяло правовой статус систем искусственного интеллекта и порядок их использования в публичном управлении и хозяйственной деятельности. Отсутствие чётких правил создаёт риски для граждан и бизнеса, а также сдерживает внедрение технологий, поскольку потенциальные пользователи не имеют гарантий правовой защиты. Опыт Албании показывает, что внедрение систем без надлежащей правовой базы порождает коллизии и ставит под сомнение легитимность принимаемых решений.
Предложения по развитию.
1. Ускорить принятие рамочного закона «О технологиях искусственного интеллекта». Закон должен закрепить основные понятия, принципы регулирования (включая приоритет безопасности человека и сохранение ответственности), а также полномочия государственного органа, ответственного за реализацию государственной политики в данной сфере.
2. Легализовать и стимулировать использование экспериментальных правовых режимов. Опыт Российской Федерации по расширению возможностей ЭПР может быть полезен. Необходимо создать правовые условия для тестирования технологий искусственного интеллекта в ограниченных масштабах.
3. Разработать и внедрить механизмы сертификации и стандартизации. Опираясь на разрабатываемый технический комитет по искусственному интеллекту, следует ускорить принятие национальных стандартов, гармонизированных с российскими и международными подходами. Это обеспечит взаимное признание результатов сертификации и упростит кооперацию.
4. Интегрировать вопросы правового регулирования ИИ в повестку законодательного органа. Учитывая заявленный курс на гармонизацию, целесообразно разработать и принять модельные акты, которые зададут единые стандарты в таких чувствительных областях, как использование искусственного интеллекта в государственном управлении, здравоохранении, на транспорте. Это позволит избежать фрагментации правового пространства и создаст условия для формирования общего рынка технологий и услуг.
Заключение.
Формирование функциональной правосубъектности систем искусственного интеллекта является объективным процессом, обусловленным их реальным включением в общественные отношения. Отказ от признания этого факта и попытки удержаться в рамках традиционной дихотомии «объект-субъект» ведут к правовой неопределённости, росту рисков и утрате контроля над технологическим развитием.
Прецедент албанского «миниcтра» Diella, несмотря на свою внешнюю экстравагантность, высветил насущную потребность в правовых формах, адекватных новому типу агентности. Российская практика экспериментальных правовых режимов и разработки законодательства о робототехнике, а также белорусские инициативы по созданию национального закона и гармонизации с нормами Российской Федерации создают основу для выработки согласованных международных подходов.
Предложенная в статье модель, сочетающая законодательное закрепление функционального статуса, процессуальные гарантии прав граждан и распределённую ответственность, может служить основой для дальнейших законотворческих инициатив. Ключевая задача на ближайшую перспективу — перейти от точечных экспериментов к системному правовому регулированию, обеспечивающему баланс между технологическим развитием, защитой прав человека и интересами общества и государства.
Свидетельство о публикации №226030100284