Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права | Вестн. Том. гос. ун-та. Право. 2020. № 36. DOI: 10.17223/22253513/36/13

Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права

В апреле 2019 г. независимой экспертной группой Европейской комиссии по вопросам искусственного интеллекта был издан новый вариант руководящих этических принципов благонадежности искусственного интеллекта вместе с документом, содержащим детальное определение искусственного интеллекта. Данное определение ставит перед юристами массу серьезных вопросов, ответить на которые, используя сложившийся теоретический инструментарий, чрезвычайно сложно.

New technologies in the field of artificial intelligence challenge the foundations of civil law.pdf Техника со временем достигнет такого совершенства, что человек сможет обходиться и без самого себя. Ежи Лец Тема искусственного интеллекта все чаще обсуждается учеными всего мира. Развитие в области робототехники идет стремительными темпами, которые, помимо азарта и восхищения, не могут не вызывать определенной паники. Как сказал Франсуа Вольтер, «прогресс - закон природы». Тем не менее современное человечество, создавая «сверхумные машины» по своему образу и подобию, ставит перед собой огромное количество нетривиальных вопросов, игнорировать которые не представляется возможным. Некоторые из этих вопросов предстоит решать и юристам. Правовой статус «машины, наделенной искусственным интеллектом» (англ. - Artificial Intelligence; AI) по сей день является неопределенным. Учеными из разных стран на протяжении последних десятилетий предлагались различные варианты: придать роботам статус юридического лица, изобрести новое понятие - электронное лицо, некоторые даже осмеливались сравнивать их с человеком. Иные и вовсе высказывались об опасности наделения роботов каким-либо правовым статусом. Прежде чем вступать в научную дискуссию по данному вопросу, необходимо обратиться к существующим на данный момент нормам права в данной области. Е.Н. Афанасьева 146 В число стран, более или менее основательно занимающихся вопросами робототехники на законодательном уровне, входят Соединенные Штаты Америки, Китай, Япония, Южная Корея, ОАЭ, Сингапур, Канада, Тайвань, Великобритания, Германия, Новая Зеландия, Нидерланды, Эстония, Франция, а также Европейский Союз. Данная работа не преследует цель дать исчерпывающий анализ всех существующих норм в интересующей нас области, поэтому обратимся к основным из них. Одной из центральных юрисдикций, в которой вопросы регулирования робототехники и искусственного интеллекта проработаны наиболее подробно, является Европейский Союз. Проведен целый ряд правовых исследований по данной проблематике, разработаны концепции развития рассматриваемых отраслей, существуют проекты нормативных актов. В апреле 2018 г. двадцатью пятью государствами - членами Европейского Союза подписана Декларация о сотрудничестве в области искусственного интеллекта - Declaration of cooperation on Artificial Intelligence [1]. Предполагается совместная деятельность по ряду направлений, среди которых: - повышение технологического и производственного потенциала Европы в области искусственного интеллекта; - применение искусственного интеллекта и решение социально -экономических проблем, с этим связанных; - преобразование рынков труда и модернизация систем образования и обучения в Европе, включая повышение квалификации и переквалификацию граждан ЕС; - обеспечение надлежащих правовых и этических норм, в основе которых лежат основные права и ценности ЕС, включая неприкосновенность частной жизни и защиту персональных данных, а также такие принципы, как прозрачность и подотчетность и пр. В июне 2018 г. в рамках стратегии по вопросам искусственного интеллекта, объявленной ранее в том же году, Европейской комиссией была создана экспертная группа - The High-Level Expert Group on Artificial Intelligence (AI HLEG). В декабре 2018 г. AI HLEG представила первый проект Руководящих этических принципов надежного искусственного интеллекта - The Ethics Guidelines for Trustworthy Artificial Intelligence. В ходе последующих обсуждений с заинтересованными сторонами и встреч с представителями государств-членов руководящие принципы были пересмотрены и опубликованы в апреле 2019 г. [2]. Опираясь на основы права и этические принципы, в рассматриваемом документе перечислено семь ключевых требований, которым должны соответствовать системы искусственного интеллекта, чтобы быть надежными: - человеческое управление и надзор (human agency and oversight); - техническая надежность и безопасность (technical robustness and safety); - конфиденциальность и управление данными (privacy and data governance); Новые технологии в области искусственного интеллекта 147 - прозрачность (transparency); - многообразие, недискриминация и справедливость (diversity, nondiscrimination and fairness); - социальное и экологическое благополучие (social and environmental well-being); - подотчетность (accountability). По мнению экспертной группы, разрабатывавшей Руководящие этические принципы надежного искусственного интеллекта, все перечисленные требования имеют одинаковое значение, поддерживают друг друга и должны быть реализованы и оценены на протяжении всего жизненного цикла системы. Однако остановимся подробнее на первом требовании. Представляется, что последующие требования включают элементы, которые так или иначе уже отражены в действующем законодательстве и, по сути, являются производными от первого. Итак, кто главнее: человек или машина? На практике нам об этом поведает время, а пока обратимся к теории, предлагаемой ЕС. В соответствии с рассматриваемыми этическими принципами системы искусственного интеллекта должны поддерживать автономию человека и процесс принятия им решений, как это предписано принципом уважения автономии человека. Данное требование позволяет системам искусственного интеллекта выступать в качестве факторов, способствующих созданию демократического, процветающего и справедливого общества, оказывая поддержку пользователям и поощряя основные права, а также обеспечивая надзор со стороны человека. Как и многие технологии, системы искусственного интеллекта могут в равной степени обеспечивать и ограничивать основные права. Они могут приносить пользу людям, например помогая им отслеживать свои личные данные или увеличивая доступность образования, тем самым поддерживая их право на образование. Однако, учитывая охват и возможности рассматриваемых систем, они могут также негативно сказываться на основных правах. В ситуациях, когда риски существуют, по мнению экспертной группы AI HLEG, следует проводить оценку такого воздействия на фундаментальные права. Подобный анализ должен быть осуществлен до внедрения конкретной системы, включая и оценку того, могут ли эти риски быть уменьшены или оправданы в случае необходимости в демократическом обществе в целях уважения прав и свобод других. Кроме того, следует создать механизмы для получения внешней обратной связи в отношении систем искусственного интеллекта, которые потенциально грозят нарушением основных прав. Обращаясь к вопросу о человеческом управлении, AI HLEG отмечает, что пользователи должны иметь возможность принимать обоснованные автономные решения относительно систем искусственного интеллекта. Людям следует предоставить знания и инструменты для удовлетворительного понимания и взаимодействия с такими системами и, где это возможно, позволить разумно самостоятельно оценить или оспорить действия системы. Задача искусственного интеллекта - поддерживать людей в принятии Е.Н. Афанасьева 148 лучших, более информированных решений в соответствии с их целями. Системы искусственного интеллекта иногда могут быть использованы для влияния на поведение человека с помощью механизмов, которые трудно обнаружить, поскольку они могут использовать подсознательные процессы, включая различные формы несправедливых манипуляций, обмана, слежки и понуждения1, способные угрожать индивидуальной автономии. Итоговый принцип автономии пользователей должен быть центральным для функциональности системы. Ключом к этому является право не подчиняться решению, основанному исключительно на автоматизированной обработке, когда это создает правовые последствия для пользователей или аналогичным образом существенно влияет на них. Концепция человеческого надзора, по заверениям AI HLEG, помогает гарантировать, что система не подорвет автономию человека или не вызовет других негативных последствий. Надзор может быть обеспечен с помощью таких механизмов управления, как human-in-the-loop (HITL), human-on-the-loop (HOTL) или human-in-command (HIC). HITL относится к способности человека вмешиваться в каждый цикл принятия решений системы, что во многих случаях невозможно и нежелательно. HOTL обеспечивает возможность вмешательства человека во время цикла проектирования системы и мониторинга ее работы. HIC означает способность контролировать общую деятельность системы искусственного интеллекта (включая ее более широкие экономические, социальные, правовые и этические последствия) и решать, когда и как использовать систему в любой конкретной ситуации. Это может включать в себя решение не использовать систему в конкретной ситуации, установить уровни дискреции человека во время использования системы или обеспечить возможность переопределения решения, принятого системой. Кроме того, необходимо обеспечить, чтобы государственные органы имели возможность осуществлять контроль в соответствии с их полномочиями. Механизмы надзора могут потребоваться в различной степени для поддержки других мер безопасности и контроля в зависимости от области применения системы и потенциального риска. При прочих равных условиях чем меньше контроля человек может осуществлять над системой искусственного интеллекта, тем более обширное тестирование и более строгое управление требуются. На первый взгляд, принципы вполне разумные, однако их реализация на практике может оказаться весьма затруднительной. В целях решения данной проблемы в Руководящих принципах представлен оценочный перечень, содержащий руководящие указания по практическому осуществлению каждого требования. Этот оценочный список еще будет проходить 1 Последние два термина переведены мною не вполне точно по причине неблагозвучности. Если выражение «herding and conditioning», использованное в докладе независимой экспертной группы Европейской комиссии AI HLEG переводить дословно, то получается, что системы искусственного интеллекта могут осуществлять «выпас» (как в случае со скотом) и «воздействие на условные рефлексы» человека. Новые технологии в области искусственного интеллекта 149 доработку, в которой могут участвовать все заинтересованные стороны, с тем чтобы получить обратную связь для его улучшения (ведь документ вышел совсем недавно - 8 апреля 2019 г.). Под заинтересованными сторонами, участвующими в жизненном цикле систем искусственного интеллекта, AI HLEG понимает разработчиков (developers), администраторов размещения (deployers) и конечных пользователей (end-users), а также общество в целом. Под разработчиками экспертная группа Еврокомиссии подразумевает тех, кто занимается исследованиями, проектированием и / или разработкой систем искусственного интеллекта. Администраторы размещения -это государственные или частные организации, которые используют системы искусственного интеллекта в своих бизнес-процессах и предлагают продукты и услуги другим. Конечными пользователями являются те, кто прямо или косвенно взаимодействует с системой искусственного интеллекта. Каждая из перечисленных заинтересованных сторон играет свою роль в обеспечении соблюдения требований: - разработчики должны внедрять и применять требования к процессам проектирования и разработки; - администраторы размещения должны обеспечивать, чтобы используемые ими системы, а также предлагаемые ими продукты и услуги отвечали требованиям; - конечные пользователи и общество в целом должны быть информированы об этих требованиях и иметь возможность требовать их соблюдения. Непосредственно решение задачи по обеспечению соблюдения требований, обозначенных AI HLEG, ложится на плечи юристов и правоприменителей. Подобная задача представляется весьма непростой, учитывая отсутствие сложившейся практики и соответствующей законодательной базы. Фактически ее только предстоит создать и внедрить, причем в соответствии с уже существующими нормами. Сделать это, не имея четкого понимания, что есть искусственный интеллект и каков его правовой статус, практически невозможно. Полагая начало выполнению данной задачи, параллельно с приведенными выше этическими принципами надежного искусственного интеллекта AI HLEG также подготовила пересмотренный документ, в котором подробно излагается определение искусственного интеллекта. Вот как выглядит это определение: “Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behavior by analysing how the environment is affected by their previous actions...” [3]. «Системы искусственного интеллекта (AI) - это программные (и, возможно, также аппаратные) системы, разработанные людьми, которые, учи- Е.Н. Афанасьева 150 тывая сложную цель, действуют в физическом или цифровом измерении, воспринимая свою среду посредством сбора данных, интерпретируя собранные структурированные или неструктурированные данные, рассуждая о знаниях или обрабатывая информацию, полученную из этих данных, и принимая решение о наилучших действиях для достижения данной цели. Системы AI могут либо использовать символические правила, либо изучать числовую модель, а также адаптировать свое поведение, анализируя, как на окружающую среду влияют их предыдущие действия...» (перевод мой. - Е.А.). Данное определение, безусловно, достойно самого подробного изучения и анализа, который, вероятно будет осуществлен в последующих работах. Тем не менее ключевой момент, на который необходимо обратить пристальное внимание уже сейчас, - это то, что системы искусственного интеллекта «действуют... принимая решения...» Подобная формулировка ставит под угрозу рассмотренное выше фундаментальное требование о человеческом управлении и надзоре. Безусловно, впоследствии данное определение обрастет бесчисленным количеством технических подробностей и формулировок, через которые «простому смертному юристу» будет крайне сложно добраться до сути. А суть, как видно из приведенного определения, над которым не один год работали далеко не случайные люди, в том, что искусственный интеллект наделяется волевыми признаками. Как известно еще из теории права, жизненные обстоятельства, с которыми нормы права связывают возникновение, изменение или прекращение правоотношений, называются юридическими фактами, которые по волевому признаку принято делить на события и действия. События - это обстоятельства, которые объективно не зависят от воли и сознания людей (например, стихийные бедствия). Они могут быть уникальными и периодическими, моментальными и продолжительными, абсолютными (полностью независимыми от воли людей) и относительными (вызванными деятельностью людей, но в данном правоотношении независимыми от породивших их причин). Действия - это факты, которые зависят от воли людей, поскольку совершаются ими. В свете сказанного выше встает резонный вопрос: какое место в системе юридических фактов следует отвести действиям, совершенным по воле искусственного интеллекта (т.е. на основе принятых им решений)? Ведь действия до недавнего времени были прерогативой людей. Даже если собака, кусая соседа, действовала по своему усмотрению, отвечать за последствия будет ее хозяин, поскольку с точки зрения права собака, какой бы дрессированной она ни была, считается вещью. Остаются «события», которые объективно не зависят от воли и сознания людей. Действительно, если система искусственного интеллекта, пусть даже созданная и запрограммированная человеком, самостоятельно принимает решения о своих действиях в каждой конкретной ситуации, то воля и сознание человека здесь совершенно не причем. На данном этапе остает- Новые технологии в области искусственного интеллекта 151 ся лишь констатировать, что с правовой точки зрения самостоятельные действия систем искусственного интеллекта формально подпадают под признаки стихийных бедствий. Так или иначе, становится очевидным, что помимо преобразования рынков труда, модернизации систем образования и переквалификации граждан, которыми так озабочен Евросоюз, юристам всего мира придется подстраивать основы теории права под этот меняющийся со скоростью звука «безумный, безумный, безумный, безумный мир». Если только искусственный интеллект не сделает это за них.

Ключевые слова

искусственный интеллект, новые технологии, программные системы, юридические факты, правовой статус, artificial intelligence, new technologies, software systems, legal facts, legal status

Авторы

ФИООрганизацияДополнительноE-mail
Афанасьева Екатерина НодариевнаУниверситет Турина; Jalanna Fashion Groupкандидат юридических наук; главный юрисконсультlegal.services.afanasyeva@gmail.com
Всего: 1

Ссылки

EU Member States sign up to cooperate on Artificial Intelligence // European Commission. URL: https://ec.europa.eu/jrc/communities/en/commumty/humaint/news/eu-member-states-sign-cooperate-artificial-intelligence (accessed: 22.04.2019).
Requirements of Trustworthy AI // European Commission. URL: https://ec.europa.eu/ futurium/en/ai-alliance-consultation/guidelines/1#well-being (accessed: 22.04.2019).
Ethics Guidelines for Trustworthy AI // European Commission. URL: https://ec.europa.eu/futurium/en/ai-alliance-consultation (accessed: 22.04.2019).
 Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права | Вестн. Том. гос. ун-та. Право. 2020. № 36. DOI: 10.17223/22253513/36/13

Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права | Вестн. Том. гос. ун-та. Право. 2020. № 36. DOI: 10.17223/22253513/36/13

Полнотекстовая версия