Проанализированы сложившиеся подходы к пониманию правовой природы и правового статуса искусственного интеллекта как в отечественной, так и в зарубежной доктрине. Выявлены наиболее значимые позиции правоведов в данной сфере, а также спорные проблемы. Намечены возможные подходы к регулированию гражданских отношений с участием разных форм искусственного интеллекта.
Artificial intelligence as a participant in civil relations: the transformation of law.pdf Национальная стратегия развития искусственного интеллекта на период до 2030 года [1], определяя приоритетные направления развития и использования технологий искусственного интеллекта (далее - ИИ) в социальной и экономической сферах, указывает в качестве отдельных путей оптимизации указанных отраслей автоматизацию рутинных (повторяющихся) производственных операций, использование автономного интеллектуального оборудования и робототехнических комплексов, интеллектуальных систем управления логистикой. Таким образом, повсеместное внедрение IT-технологий, в том числе и в экономические, хозяйственные отношения, является стратегической задачей. Следует обратить внимание на тот факт, что разнообразные носители искусственного интеллекта в той или иной мере уже выполняют определенные операции, юридически значимые действия (в большей или меньшей степени автономно): с помощью голосовых сообщений боты информируют потребителей услуг, способны поддерживать простейшие диалоги, в финансовой сфере они проводят некоторые простейшие операции, транзакции, в разных сферах постепенно внедряются беспилотные транспортные средства. Необходимо признать: искусственный интеллект на сегодняшний день является активным участником гражданского оборота, следовательно, остро стоит проблема правовой регламентации отношений с его участием. Поэтому безотлагательными являются такие ключевые вопросы, как правовая природа различных форм ИИ, их способность (или неспособность) обладать правами и нести обязанности, особенности осуществления прав и исполнения обязанностей с их участием, вопросы границ ответственности за ненадлежащую реализацию прав и исполнение обязанностей с участием юнитов ИИ. В этой связи в науке о праве активно дискутируется несколько направлений. Важной проблемой, требующей неспешного рассмотрения, является проблема дефиниций понятия «искусственный интеллект». Пока можно констатировать, что многочисленные попытки исчерпывающе и универсально определить указанное понятие, отражают отдельные, свойственные не всем видам цифровых, электронных, программируемых устройств, характеристики, а иногда грешат описательностью и узкоспециальным подходом [2. С. 46-91]. Данное понятие используется правоведами очень собирательно и подчас включает в себя разнообразные и разнородные явления, объединенные тем не менее единой сферой бытования - цифровой средой. В рамках дискуссии о признаках ИИ, позволяющих рассматривать его юниты как участников гражданско-правовых отношений, можно утверждать, что наиболее релевантной характеристикой любого цифрового участника гражданских отношений необходимо признать его роль в осуществлении прав и исполнении обязанностей. При этом наиболее важна степень самостоятельности юнитов, поскольку разные формы ИИ наделены этим признаком в разной степени. Убедительными являются аргументы в пользу того, что робототехнику, выполняющую простейшие вспомогательные, рутинные производственные операции и работающую по строго заданным алгоритмам, а также лишенную функции принимать самостоятельные решения, необходимо рассматривать как объект в праве. Вместе с тем необходимо учитывать, что роботы, наделенные когнитивными способностями, способностью взаимодействовать со средой и вносить в нее изменения, т.е. обладающие высокой степенью автономности, уже не являются исключительно инструментом, а значит, не могут признаваться объектом права. Предложения специалистов по поводу наделения цифрового актанта способностью обладать правами и нести обязанности вызывают наиболее острые дискуссии. Сторонники наделения ИИ правоспособностью оперируют следующими аргументами. Не одно столетие существует и оправдывает себя в качестве субъекта права фикция - юридическое лицо. Юниты ИИ по аналогии предлагается наделить статусом специфических субъектов права [3; 4. С. 96], учитывая способность отдельных разновидностей обладать когнитивными способностями, реагировать на изменения окружающей действительности и действовать на основе полученных ими самими аналитических данных [5. С. 358]. Противники наделения ИИ правосубъектностью усматривают в этом покушение на антропоцентризм [6]. Однако, как правило, в отношении ИИ специалисты не ведут речь о самоценности цифровых актантов. Цель правовой регламентации отношений в указанной сфере - упорядочить их и создать возможности безопасного и полезного использования достижений IT-технологий во благо человечеству. Поэтому идея создания нового субъекта права - электронного лица -нашла достаточно активную поддержку среди правоведов [2, 7, 8]. Наиболее часто сомнения исследователей, связанные с наделением форм ИИ правосубъектностью, обусловлены такой характеристикой, как антропоморфизм, т.е. перенесение на программируемые системы психических свойств, присущих человеку [9]. В качестве основного аргумента невозможности наделения правосубъектностью ИИ противники выдвигают отсутствие у него воли [10]. Между тем из всех известных гражданскому праву субъектов - физического лица, юридического лица, публично-правовых образований - волей в собственно биологическом, психологическом смысле обладает исключительно физическое лицо. По отношению ко всем остальным субъектам понятие воли применяется в специальном условном смысле, подразумевая коллективное волеизъявление или иную демонстрацию намерений. Правоспособностью, подразумевающей, по справедливому замечанию Л.А. Чеговадзе, «индивидуальные потребности субъекта, определяющие основные компоненты социально-психологической регуляции его поведения: интерес, цели, мотивы, волю, социально-правовые установки» [11. С. 115], может быть наделен и ИИ, учитывая, что его волеизъявление проявляется в соответствии с интересом, целями и мотивами, социальноправовыми установками, заданными программными алгоритмами, т.е. имеет технологический характер. Необходимо понимать, что само существо волеизъявления по отношению к цифровому интеллекту другое, как и в случае, скажем, с юридическим лицом. Здесь следует развести два принципиально разных понятия, имеющих различное значение для права, - волю и волеизъявление. ИИ также способен на волеизъявление, которое повлечет определенные юридические последствия: в частности, в финансовой сфере боты, совершающие транзакции, проявляют волеизъявление, имеющее совершенно конкретные правовые последствия. То есть для права важно проявление воли вовне, а не внутренние психологические процессы [12. С. 17; 13]. В качестве еще одного аргумента в пользу признания объективированного волеизъявления ИИ служит и следующий довод: волеизъявление в его субъективном проявлении может порождать ряд негативных явлений -злоупотребление правом, шикану. Волеизъявление ИИ формируется объективно через заданные алгоритмы и в этом смысле более непредвзято, поскольку запрограммировано на достижение конкретных законных результатов. Если ИИ действует с противоправной целью, ответственность в первую очередь должна лежать на разработчиках программного обеспечения и владельцах устройства. Если ИИ сертифицирован и прошел государственную регистрацию, то его волеизъявление прогнозируемо и одобрено государственными органами. Таким образом, будет обеспечена безопасность его деятельности, подтверждены частная и общественная польза и легитимность. В этом случае вред, причиненный действиями ИИ, должен возмещаться из государственной казны, по аналогии с вредом, причиненными действиями (бездействием) государственных органов. Именно в контексте проблем наделения ИИ способностью к волеизъявлению минимизируется субъективизм в реализации прав и исполнении обязанностей. Следующее обстоятельство, которое, по мнению некоторых исследователей, препятствует наделению ИИ правоспособностью, заключается в том, что, в отличие от субъектов права в классическом понимании, у ИИ отсутствует осознанность. Но, с другой стороны, это сближает его с субъектами -носителями неполной или ограниченной дееспособности. Вспомним известный пример наделения правами и обязанностями лиц с ущербным сознанием или вовсе без такового - несовершеннолетних, душевнобольных [14. С. 120-122], юридических лиц - в противовес аргументу о том, что ИИ не наделен сознанием [15]. Кроме того, уже сейчас умные роботы могут в разной степени «осознавать» и оценивать свои действия. Таким образом, правовой статус ИИ будет зависеть от понимания специфики его самосознания (либо отсутствия такового). Доводы о том, что ИИ не может быть субъектом, поскольку лишен способности осознавать и оценивать свои действия, опровергнуты действительностью: сложные нейронные сети уже способны самоидентифицироваться, наделены отдельными свойствами самосознания. ИИ не может и не должен обладать антропоморфизмом во всей смысловой полноте этого понятия, поскольку продуктам цифровых технологий не свойственны определенные, присущие исключительно человеку характеристики. Человек руководствуется не только рациональными, но и ценностными ориентирами, осуществляя ту или иную деятельность, у цифровых субъектов отсутствует такой ценностно ориентированный самоконтроль. Безусловно, неприменимы по отношению к ИИ такие эмоциональнооценочные гуманистические качества, как чувства долга, привязанности и ряд им подобных. Вместе с тем это обстоятельство не означает, что деяния ИИ не должны оцениваться с позиций этики. Служебная функция носителей ИИ и подконтрольность не снимают возможности их самостоятельных, юридически значимых действий. Проблема заключается не в том, как относиться к юниту, а в том, как рационально и безопасно организовать его деятельность. Эта идея выражена в перечне поручений Правительству РФ, утвержденных Президентом по итогам конференции по искусственному интеллекту 31 декабря 2020 г., где первой обозначена задача принять федеральные законы, предусматривающие «возможность установления в отдельных отраслях экономики и социальной сфере экспериментальных правовых режимов в целях расширения применения технологий искусственного интеллекта». Теоретическая мысль уже приходила к необходимости выработки критериев, в соответствии с которыми отдельные разновидности ИИ могут наделяться правами и обязанностями, а также деликтоспосбностью, поскольку это проблема, вызванная к жизни необходимостью оценивать юридически значимые действия ИИ. В частности, в 2016 г. была предпринята попытка предложить соответствующие изменения в гражданское законодательство, дополнив Гражданский кодекс РФ главой о роботах-агентах [16]. Эта попытка не лишена рационального зерна в части способности электронных агентов иметь права и обязанности, нести гражданско-правовую ответственность. Однако во многом механическое переложение главы о юридических лицах не отразило всей специфики принципиально иной природы цифровых субъектов и отношений в сфере использования ИИ. Пока отечественная доктрина не выработала универсального подхода к природе явлений, обозначенных собирательным термином ИИ. Следует ли наделять таких участников гражданских отношений статусом объекта права, использовать применительно к ним нормы об ограниченной дееспособности или делегировать им статус субъектов - необходимо признать все еще открытыми вопросами. Вместе с тем достаточно убедительно звучат доводы в пользу как гражданско-правовой, так и уголовной ответственности за результаты деятельности ИИ владельцев, создателей ИИ и разработчиков программного обеспечения для него. Так, Резолюция Европейского парламента от 16 февраля 2017 г. с рекомендациями Комиссии по правилам гражданского права в области робототехники (2015/2103(INL); далее - Резолюция) указывает на то, что в вопросах использования ИИ центральными становятся проблемы ответственности лиц, связанных с процессами разработки и коммерческого использования устройств с ИИ (Введение, п. М) [17]. На наш взгляд, степень автономности и самостоятельности должна определяться объективными критериями - наличием тех или иных компетенций. Критерии этих компетенций могут быть выработаны совместными усилиями специалистов в области информационных технологий и правоведами и закреплены нормативно. При этом следует учитывать сложность прогнозирования и верификации результатов действия систем ИИ и предусмотреть способы такой верификации. Например, в Резолюции содержится предложение о создании так называемых «черных ящиков» для утилитов, фиксирующих оперативную деятельность нейросети. По мнению авторов Резолюции, это позволит проследить алгоритм принятия решений ИИ и приблизиться к пониманию деликтоспо-собности его утилитов. В мировой практике существует несколько подходов к пониманию правового статуса и деликтоспособности ИИ: ИИ и робототехника как объекты, ИИ как юридическое лицо, ИИ как физическое лицо, ИИ как электронный субъект права [18]. Согласно действующим в ЕС правилам, ответственность за вред, причиненный действиями (бездействием) роботов третьим лицам, находится в причинно-следственной связи с действиями (бездействием) производителей, разработчиков, операторов, владельцев или пользователей, если они могли предвидеть и избежать действий роботов, в результате которых причинен ущерб, вред [17]. В Резолюции указывается на пробельность норм в случаях, когда ущерб причинен по причине самостоятельно принятых ИИ решений. В документе ставится вопрос о том, насколько автономные роботы вписываются в систему существующих правовых категорий и не следует ли рассматривать их как принципиально новую категорию права (п. AC). В отечественных исследованиях в узкоспециальных смыслах вопросам ответственности носителей ИИ периодически уделяется внимание. Так, было предложено признать беспилотные транспортные средства источником повышенной опасности, а ответственность за вред, причиненный ими, возложить на лицо, их программировавшее, или лицо, ответственное за их использование [19]. Исследователями предложено несколько моделей ответственности за действия (бездействие) юнитов ИИ. В зависимости от степени самостоятельности волеизъявления ИИ, ответственность за его действия (бездействие) могут нести как непосредственно правонарушитель, так и изготовитель (программист), сам ИИ, а также владелец или пользователь ИИ [2. С. 251-252]. Действительно, в отношении деликтоспособности ИИ должен применяться принцип гибкого правового регулирования, о котором отчетливо сказано в Национальной стратегии развития искусственного интеллекта на период до 2023 года (п. 51) [1]. Подобный дифференцированный подход к цифровым технологиям видится наиболее продуктивным и справедливым по следующим соображениям. Деликтоспособность ИИ должна определяться в соответствии с правовым статусом робота (объект или субъект, компетенции ИИ), отраслевой принадлежностью отношений, уровнем автономности ИИ (уровнем организации нейросетей). В настоящее время используется четыре основных вида ИИ. К наиболее простым относят реактивные машины, которые не имеют памяти и запрограммированы на выполнение отдельных конкретных задач, они лишены памяти и не способны использовать собственный опыт. Второй разновидностью являются системы с ограниченной памятью, основанной на прошлом опыте, который вместе с тем не сохраняется и не входит в библиотеку информации ИИ. ИИ третьего типа (теория разума) уже способен распознавать человеческие эмоции и намерения, обладает социальным интеллектом и способен участвовать в командной работе. Наконец, системы ИИ, обладающие самосознанием, способны сформировать представление о себе, что почти полностью имитирует человеческий мозг [20]. Это самый общий посыл для разграничения правовых статусов разных видов ИИ. И если первые два типа с большой долей уверенности можно отнести к категории объектов права, то более совершенные виды ИИ могут быть дифференцированно отнесены к субъектам права. Задача правоведов на данном этапе - выработать критерии для определения правового статуса разных видов ИИ. Именно в связи с появлением новых участников гражданских отношений - различных форм ИИ - в настоящее время происходит коренное переустройство самой системы права, начиная с его субъектно-объектного состава вплоть до пересмотра базовых категорий правоспособности, делик-тоспособности, принципов осуществления прав и исполнения обязанностей. В определении границ возможного, дозволенного и должного, ответственности по отношению к наиболее автономным и развитым формам ИИ особую значимость приобретают принципы осуществления прав и исполнения обязанностей. Данные начала должны быть заложены в алгоритмы программного обеспечения ИИ. Поэтому особое внимание должно уделяться оценке качества программного обеспечения ИИ. При этом, как и в отношении других участников гражданских отношений, эти установления должны содержать императивы двух уровней. Первый из них - комплекс целеполагающих начал, концентрирующих в себе представления о нормальном, долженствующем развитии гражданско-правовых отношений, выраженных в форме идей, освоенных доктриной и функционирующих в процессе законотворчества. Эти принципы осуществления представляют собой концентрированные подходы к правореа-лизации и правоприменению. В данной группе начал выражены ценностные, гуманистические, социальные приоритеты, на которых должен быть основан механизм осуществления прав и исполнения обязанностей ИИ. К таковым относятся принцип гарантированного осуществления прав и исполнения обязанностей, принцип сочетания частных (личных) и общественных интересов, принцип эффективности. Второй уровень принципов осуществления - принципы-методы, определяющие выбор способов и средств осуществления прав и исполнения обязанностей. В группе принципов-методов отражаются приемы и способы, пути достижения этих целей. Принципы-методы в механизме осуществления гражданских прав и исполнения обязанностей выполняют специфичные функции: часть из них направлена непосредственно на формирование определенного типа поведения субъектов правоотношений и связана с волеизъявлением участников правоотношений (например, принцип беспрепятственного осуществления прав, принцип диспозитивности, недопустимость злоупотребления правом), остальные - на формирование объективных условий, не зависящих от воли правообладателя (принципы сохранения прав в случае отказа граждан и юридических лиц от этих прав, равенства участников гражданских правоотношений, соразмерности гражданских прав и обязанностей). Таким образом, принципы-методы формируют конкретные субъектнообъектные связи в пределах каждой стадии действия механизма осуществления прав и исполнения обязанностей. Следует признать изменение состава и содержания принципов осуществления прав в цифровых взаимодействиях. Так, применительно к ИИ теряет свою актуальность принцип добросовестного осуществления прав и исполнения обязанностей. Это связано с тем, что само правосодержание применительно к цифровому агенту другое. При осуществлении прав и исполнении обязанностей субъектами - носителями ИИ отсутствует элемент субъективности, так как юнит действует по заданному алгоритму, следовательно, личное волеизъявление отсутствует. С другой стороны, актуализируется вопрос о корректном понимании равенства участников гражданских правоотношений с участием ИИ. В уже упомянутой Резолюции этой проблеме посвящена часть «Этические принципы», в которой, в частности, говорится о том, что вся система руководящих принципов в сфере использования ИИ должна базироваться на правилах «делай благо» и «не навреди». Подводя некоторые итоги, можно отметить, что ИИ становится участником гражданских отношений, которые требуют соответствующего правового регулирования. Для права определяющей характеристикой любого цифрового участника гражданских отношений является его роль в осуществлении прав и исполнении обязанностей. Очевидно, что ИИ должен быть наделен правоспособностью и нести ответственность за свои деяния, иначе мы не сможем использовать в полной мере весь потенциал ИИ как технологии (лица), позволяющий реализовывать определенные компетенции, поскольку действия такого участника правоотношений не могут быть признаны юридически значимыми, будь то торговля, транспортные отношения, медицина, образование, сфера услуг (в том числе государственные), государственное управление, реализация правосудия, коммуникации, различная операторская деятельность. В соответствии со своим предназначением и регистрацией ИИ может наделяться (или не наделяться) разной правосубъектностью: быть объектом правоотношений, быть агентом - субъектом с узкоспециальной правоспособностью в рамках определенных функций, участвовать в гражданских отношениях как полноправный субъект. Но правоспособность эта специфическая, обусловленная наличием у робота определенного набора качеств, таких как уровень самосознания, автономность, сложность нейросетей и компетенций. Необходимо создать классификацию форм ИИ по правосубъектности, по компетенциям, которые сертифицированы посредством государственной регистрации. Например, юнит-судья, помощник судьи должны иметь круг определенных компетенций, в соответствии с которыми определяется граница ответственности за их действия (бездействие). Соответственно, должны быть определены правовые статусы разных типов ИИ, включая новый специфичный правовой статус ограниченной цифровой правоспособности. Необходимо рассматривать правосубъектность ИИ в связи с его право-осуществлением, принципами права, правосодержанием. Требуется создать для разновидностей ИИ определенный механизм ответственности, обусловленный правовым статусом, присвоенным ему при государственной регистрации. Если ИИ осуществляет функции государственных органов или ответственного лица, то ответственность за его действия (бездействие) должна быть возложена на государство, субъекта государства или муниципальное образование. Если ИИ действует в интересах физического лица - ответственным за деяния ИИ должен признаваться бенефициар. Не исключена в ряде случаев необходимость признавать самостоятельную ответственность ИИ за свои деяния. Таким образом, применительно к носителям ИИ меняется природа осуществления права - уходит субъективное волеизъявление, осуществление становится объективным, непредвзятым. При осуществлении прав ИИ отпадает необходимость в толковании права. В программном обеспечении ИИ должна быть заложена выверенная система принципов осуществления прав и исполнения обязанностей. Тогда ИИ будет сертифицирован на определенный объем правомочий, ориентирован на конкретные компетенции и наделен специфичной деликтоспособностью.
Национальная стратегия развития искусственного интеллекта на период до 2030 года : утв. Указом Президента Российской Федерации от 10.10.2019 № 490. URL: http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf
Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы : дис.. д-ра юрид. наук. М., 2018. 257 с.
Морхат П.М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Сер. Юриспруденция. 2018. № 2. С. 62-63.
Понкин И.В. Искусственный интеллект с точки зрения права // Вестник РУДН. Сер. Юридические науки. 2018. Т. 22, № 1. С. 91-109.
Ужов Ф.В. Искусственный интеллект как субъект права // Пробелы в российском законодательстве. 2017. № 3. С. 357-360.
Спицин И.Н., Тарасов И.Н. использование искусственного интеллекта при отправлении правосудия: теоретические аспекты правовой регламентации (постановка проблемы) // Актуальные вопросы российского права. 2020. Т. 15, № 8. С. 96-107.
Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157-170.
Ирискина Е.Н., Беляков К.О. Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубъекта гражданско-правовых отношений // Гуманитарная информатика. 2016. Вып. 10. С. 63-72.
Толковый словарь русского языка / С.Ю. Ожегов, Н.Ю. Шведова. М. : Азъ, 1994. URL: http://slovar-ozhegova.biz/chto-oznachaet-slovo-antropologiya
Дурнева П.Н. Искусственный интеллект: анализ с точки зрения классической теории правосубъектности // Гражданское право. 2019. № 5. С. 30-33.
Чеговадзе Л.А. Структура и состояние гражданского правоотношения. М. : Статут, 2004. 539 с.
Рыженков А.Я. Действие своей волей и в своем интересе как принцип гражданского законодательства // Юрист. 2014. № 16. С. 16-21.
Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. Вып. 55. С. 46-62.
Покровский И.А. Основные проблемы гражданского права. Петроград : Право, 1917. 349 с.
Афанасьев С.Ф. К вопросу о законодательном регулировании искусственного интеллекта// Российская юстиция. 2020. № 7. С. 46-49.
О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники. URL: https://www.dentons.com/ru/insights/alerts/2017/january/27/dentons-develops-first-robotics-draft-law-in-russia
Резолюция Европейского парламента от 16.02.2017 года с рекомендациями Комиссии по правилам гражданского права в области робототехники (2015/2103(INL). URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html
Ручкина Г.Ф. Искусственный интеллект, роботы и объекты робототехники: к вопросу о теории правового регулирования в Российской Федерации // Банковское право. 2020. № 1. С. 7-18.
Антонов А.А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7. С. 69-74.
Технологии искусственного интеллекта и машинного обучения. URL: https://hsbi.hse.ru/articles/tekhnologii-iskusstvennogo-intellekta-i-mashinnogo-obucheniya/#:~:text=Виды% 20и%20технологии%20искусственного%20интеллекта.,и%20решающие%20только%20определенные%20задачи