Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги2 / 17

.pdf
Скачиваний:
0
Добавлен:
24.02.2024
Размер:
2.71 Mб
Скачать

«умная машина» может быть наделена правосубъектностью по аналогии с кор-

поративной правоспособностью для удовлетворения человеческих интересов.

Другой вопрос, есть ли необходимость в наделении роботов правосубъ-

ектностью юридического лица. Понимание юридического лица как способа ми-

нимизации рисков наступления юридической ответственности вряд ли приме-

нимо к роботам, поскольку позволит избежать производителям и владельцам роботов юридической ответственности. Так, член Европарламента Ж. Лебретон при обсуждении резолюции о роботах отметил: «Я возражаю против данной перспективы по двум причинам: прежде всего, поскольку она снимет всякую ответственность с их производителей и пользователей, что, несомненно, обра-

довало бы мощные лобби; во-вторых, и это главное, потому что я считаю, так-

же как и Жак Маритен, что человеческая личность наделена духовным суще-

ствованием, с которым несопоставим ни один искусственный интеллект»120.

Наделение роботов специальной правосубъектностью возможно при наличии достаточных гарантий прав иных участников правоотношения.

При этом данные цели могут быть достигнуты с помощью иных правовых средств и режимов без наделения роботов правосубъектностью: как разновид-

ность имущества, база данных и пр. Поэтому концепция электронного лица на текущем этапе научной дискуссии весьма спорна.

В-третьих, весьма оригинально решается вопрос об ответственности за вред, причиненный действиями роботами.

Положительное решение о наделении роботов делинквентностью может быть принято только при условии наличия достаточного имущества такого ро-

бота или страховании его имущественной ответственности.

Кроме того, не стоит забывать о том, что наказание с его целями исправле-

ния и предупреждения новых правонарушений в отношении роботов оказыва-

120 European Parliament. REPORT with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). Debates. February, 15 2017. URL: http://www.europarl.europa.eu/ sides/getDoc.do?type= CRE&reference=20170215&secondRef=ITEM-014&language=EN&ring =A8-2017-0005 (дата обращения: 01.02.2019).

141

ется неприменимой. Хотя в юридической литературе предлагается использо-

вать такую меру, как уничтожение роботов.

Следует отметить, что авторам законопроекта не удалось четко провести грань в установлении ответственности за вред, причиненный роботом как юри-

дическим лицом и одновременно в качестве робота-имущества.

В-четвертых, в законопроекте предлагается установить требование о со-

блюдении безопасности деятельности роботов и введения специальной системы предупреждения о возникновении правового конфликта.

Обратимся теперь к официальным правовым документам Европейского Союза, регламентирующим вопросы социально-правового статуса искусствен-

ного интеллекта. Резолюция Европарламента от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» представляет собой комплекс правовых принципов и этических требований в сфере создания и использования роботов.

Резолюция как таковая не содержит конкретных норм права, но выступает ба-

зовым ориентиром для государств Европейского Союза в части разработки нормативных правовых актов относительно робототехники. Следует отметить основательный и серьезный подход резолюции к теме автономных роботов и искусственного интеллекта. В резолюции отражены различные аспекты ис-

пользования роботов: использование роботов в промышленности, помощи не-

мощным и больным, замена рутинного труда и т.п. При этом резолюция лишена пафоса восторженности и призывает к осторожному использованию самообу-

чаемых роботов вследствие тех угроз, которые они могут создать: потеря рабо-

ты для людей; рост социального неравенства; проблема подконтрольности и управляемости роботов; вопрос об ответственности за вред, причиненный ав-

тономными роботами, и др. Учет преимуществ и угроз от использования искус-

ственного интеллекта привел Европарламент к установлению принципа посте-

пенности, прагматичности и осторожности по отношению к будущим инициа-

тивам в сфере робототехники и искусственного интеллекта. С одной стороны,

данный принцип обеспечивает учет всех рисков и угроз, а с другой — не меша-

ет инновационному развитию в сфере робототехники.

142

В резолюции Европарламента особо оговариваются вопросы ответственно-

сти в случае использования автономных роботов. Автономность роботов в кон-

тексте резолюции понимается как способность принимать решения и реализо-

вывать их самостоятельно без внешнего контроля или воздействия. При этом автономность воспринимается в чисто техническом плане как реализация про-

граммы.

Следует отметить, что самостоятельность робота на текущем уровне тех-

нологического развития относительна. Во-первых, алгоритм действий робота создается человеком, даже если речь идет об искусственном интеллекте и само-

обучаемых нейронных сетях. Именно человек закладывает на уровне програм-

мы модель деятельности робота. Во-вторых, чаще всего робот действует в глу-

боком взаимодействии с человеком как дистанционно (управление дронами,

глубоководными аппаратами), так и внутри устройства (управление самоле-

том). Как отмечает Д. Минделл, существует миф о самостоятельности роботов

инеобходимо четко осознавать зависимость роботов от человека121.

Врезолюции Европарламента предлагаются следующие признаки авто-

номных (умных) роботов:

-способность становиться автономным, используя сенсоры и (или) об-

мениваться данными со своей средой;

-способность самообучаться на основе приобретенного опыта;

-наличие по меньшей мере минимальной физической поддержки;

-способность адаптировать свои действия и поведение в соответствии

сусловиями среды;

-отсутствие жизни с биологической точки зрения.

В мировой юридической литературе предпринимаются попытки рассмот-

реть природу роботов по аналогии с правовым режимом животных. При этом в большинстве правовых систем мира животные рассматриваются как объект права с учетом принципа гуманного отношения к ним. В отличие от роботов,

121 Минделл Д. Восстание машин отменяется. Мифы о роботизации. М.: Альпина, 2017.

С. 24.

143

часть из животных способны к проявлению эмоций, но не обладают свободой воли и не могут, следовательно, осуществлять права и обязанности.

Еще одним способом решения проблемы правосубъектности «разумных роботов» выступает концепция «электронного лица», которая активно отстаи-

вается П.М. Морхатом в своих научных исследованиях 122. П.М. Морхат в каче-

стве основных предпосылок наделения тех или иных лиц правосубъектностью называет: наличие морального права, социальный потенциал и юридическое удобство. Естественно, что искусственный интеллект может использоваться только в целях юридического удобства в ряде случаев: ведение электронного бизнеса и определение юрисдикции, создание объектов интеллектуальной соб-

ственности, ограничение ответственности разработчиков юнитов искусственного интеллекта123.

При этом данные цели могут быть достигнуты с помощью иных правовых средств и режимов без наделения роботов правосубъектностью: как разновид-

ность имущества, база данных и пр.124. Поэтому концепция электронного лица на текущем этапе научной дискуссии весьма спорна.

Г.А. Гаджиев и Е.А. Войникас предлагают исходить при решении вопроса о правосубъектности роботов из того, способен ли будет робот удовлетворить требования о возмещении наступившего вреда самостоятельно. По их словам,

«если признание робота субъектом права имеет какой-либо смысл или назначе-

ние, то оно заключается в более эффективном и сбалансированном распределе-

нии ответственности. Напротив, если робот не способен возместить нанесен-

ный им вред, необходимость признания его субъектом права становится про-

блематичной. В свою очередь, задача или социальная потребность в распреде-

122Морхат П.М. К вопросу о правосубъектности «электронного лица» // Юридические исследования. 2018. № 4. С. 66. DOI: 10.25136/2409-7136.2018.4.25647.

123Морхат П.М. Юнит искусственного интеллекта как электронное лицо // Вестник Московского государственного областного университета. Серия юриспруденция. 2018. № 2. С. 70.

124Schrijver S. The Future Is Now: Legal Consequences of Electronic Personality for Autonomous

Robots. In: Who’s Who Legal, 2018. Available at: http://whoswholegal.com/news/features/ arti- cle/34313/future-now-legal-consequences-electronic-personality-autonomousrobots (accessed: 05.08.2019).

144

лении ответственности является следствием более сложной, универсальной по-

требности в равновесии»125.

Поскольку вопрос о самостоятельности робота как субъекта права прежде-

временен, в резолюции Европарламента отмечается возможность применения к деликтным отношениям с участие роботов двух юридических конструкций:

-конструкция ответственности производителя за неисправности робота

(за качество и безопасность робота);

-конструкция ответственности за вредоносные действия, согласно кото-

рым пользователь робота несет ответственность за поведение, повлекшее за со-

бой возникновение вреда.

При этом в акте Европейского парламента подчеркивается недостаточ-

ность вышеуказанных правил в том случае, если вред наступил вследствие дей-

ствий и решений робота и при отсутствии вины и причинно-следственной связи действий человека и наступившего вреда. Не предрешая окончательные юри-

дические решения в этом вопросе, Европарламент наметил целый ряд направ-

лений развития законодательства в части ответственности за действия умных роботов.

Прежде всего, Европарламент в решении вопроса об ответственности в связи с использованием автономных роботов придерживается идеи недопу-

стимости ограничения видов, форм и объема компенсации того вреда, который может быть причинен умными роботами. Такой подход обеспечивает учет ин-

тересов пострадавших и ограничивает лоббистские устремления производите-

лей роботов в виде снижения объема собственной ответственности.

Европарламент при определении лица, которое будет нести ответствен-

ность за действия робота, исходит из теории риска, при которой ответствен-

ность возлагается на то лицо, которое могло минимизировать риски и учиты-

вать негативные последствия. При этом степень ответственности должна опре-

125 Гаджиев Г.А., Войникас Е.А. Может ли робот быть субъектом права? (поиск правовых форм для регулирования цифровой экономики) // Право. Журнал Высшей школы экономики. 2018. № 4. С. 41.

145

деляться степенью автономности робота и той ролью, которую играет человек,

обучающий робота.

В резолюции Европарламента отмечается сложность решения вопроса об ответственности в том случае, когда вред возник в отсутствие контроля че-

ловека в условиях высокой автономности робота. В этом случае отсутствие ви-

ны и причинно-следственной связи выступает препятствием в возложении от-

ветственности на человека. Для такого рода случаев Европарламент предлагает использовать механизм страхования ответственности через внесение взносов производителями и владельцами роботов для компенсации вреда пострадавшим лицам.

В рамах европейского права интересным представляется позиция П. Черке,

который видит два варианта решения вопроса об ответственности за вред, при-

чиненный в связи с использованием искусственного интеллекта:

1)возложение ответственности на лицо, которое программирует искус-

ственный интеллект с применением по аналогии ст. 12 Конвенции ООН об ис-

пользовании электронных технологий в международных контрактах;

2)использование теории «большого кармана» («deeppocket») через ин-

ститут страхования или состоятельных и заинтересованных корпораций126.

Теория «deeppocket» исходит из идеи распределения юридической ответ-

ственности в отношении лиц, находящихся в более выгодном положении. Ин-

ститутом страхования могут быть охвачены крупные технологические компа-

нии, которые производят роботов. Таким образом, риск наступления ответ-

ственности будет рационально и справедливо распределен.

В перспективе Европарламент предлагает рассмотреть вопрос о наделении роботов самостоятельным правовым статусом для тех случаев, когда роботы как электронные лица принимают решения автономно.

Среди положительных сторон резолюции Европарламента можно назвать следующие:

126 P. Cerka, J. Grigiene, G. Sirbikyte Liability for damages caused by artificial intelligence // Computer law & security review. 2015. № 31. P. 387.

146

-комплексный подход к регулированию робототехники с учетом дости-

жений технической науки, этики и права;

-рекомендация Еврокомиссии создать Агентство ЕС по робототехнике

иискусственному интеллекту, который бы выступил регулятором правовых,

технических и этических аспектов использования умных роботов;

-объективность и осторожность с учетом как преимуществ, так и угроз,

которые порождает использование искусственного интеллекта.

Отдельный предмет исследования составляют вопросы этики при приме-

нении искусственного интеллекта, нашедшие отражение в Хартии робототех-

ники — приложении к резолюции Европарламента. Совершенно справедливо то, что Европарламент пришел к выводу относительно разработки не только юридических, но и этических стандартов в сфере искусственного интеллекта.

Робототехника с непреложностью ставит целый ряд вопросов философского и этического порядка: признание умных роботов в качестве личности, подобной человеку; допустимость использования роботов в ряде сфер жизнедеятельно-

сти; возможность применения боевых роботов и роботов в качестве оружия;

соблюдение неприкосновенности частной и семейной жизни в случае контакта с роботами.

В Хартии робототехники сформулированы этические принципы для иссле-

дователей робототехники:

1)принцип «делай добро», определяющий использование роботов в ин-

тересах людей;

2)принцип «не навреди», направленный на недопущение вреда людям при использовании роботов;

3)принцип самостоятельности, означающий право человека самостоя-

тельно решать вопрос о возможности взаимодействия с роботом;

4) принцип справедливости, согласно которому все блага, получаемые при использовании роботов, должны быть распределены справедливо.

В Хартии робототехники особое внимание уделяется принципам работы комитета по этике научных исследований в сфере робототехники, а также эти-

147

ческим стандартам для разработчиков и пользователей умных роботов.

В первую очередь, в Хартии подчеркивается необходимость соблюдения чело-

веческого достоинства и неприкосновенности частной жизни при взаимодей-

ствии с роботом и запрет на применение робота как средства причинения вреда

(оружия). Причем именно на разработчиков возлагается ответственность за все возможные вредные последствия.

Обратимся теперь к североамериканскому подходу к решению правовых проблем искусственного интеллекта. В США, как и в России и странах Европы,

отсутствует единое нормативное правовое регулирование робототехники и ис-

кусственного интеллекта. Вопросы развития робототехники решаются на уров-

не стратегических документов и планов.

Среди стратегических актов можно назвать Национальную робототехниче-

скую инициативу («National Robotics Initiative», 2011 г.), в которой агрегируют-

ся планы финансирования и разработки роботов в различных областях: астро-

навтике, здравоохранении, сельском хозяйстве и т.п.127

Более конкретные вопросы решаются на уровне Дорожной карты развития робототехники в США («Roadmap for US Robotics», 2009 г.). В дорожной карте отмечается назревшая необходимость в развитии законодательства о роботах,

поскольку существующие правовые акты тормозят прогресс в этой сфере.

Не решены вопросы безопасности роботов, ответственности производителей,

страхования, что не позволяет предприятиям инвестировать в данную область.

Наконец, особый интерес представляет White House National Artificial Intelligence Researchand Development Strategic Plan (2016) и Preparing For The Future Of Artificial Intelligence (2016), которым предусмотрена стратегия управления и регулирования процессов развития робототехники128. Ответственным опреде-

127National Robotics Initiative 2.0: Ubiquitous Collaborative Robots (NRI-2.0) [Electronic resource] //The National Science Foundation [Site]. URL: https://www.nsf.gov/pubs/2017/nsf17518/nsf17518.htm (accessed: 08.08.2019).

128The National Artificial Intelligence Research And Development Strategic Plan [Electronic resource] // The Federal Networking and Information Technology Research and Development [Site]. URL: https://www.nitrd.gov/PUBS/national_ai_rd_strategic_plan.pdf(accessed: 03.08.2019). Р. 1.

148

лен Подкомитет по исследованиям и разработкам в области сетевых технологий

иинформационных технологий (НИТРД) и Правительство США.

ВПлане Белого Дома предусмотрен ряд принципов развития робототехни-

ки в США:

-прозрачность и понятность технологий искусственного интеллекта для общества;

-разработка архитектуры роботов в соответствии с требованиями этики;

-включение этических принципов в алгоритмы принятия решения, по-

скольку роботы будут неизбежно сталкиваться с моральными диллемами.

Отдельные вопросы использования роботов определяются в законодатель-

стве штатов и судебной практике. Так, в ряде штатов разрешено применение беспилотных автомобилей на дорогах.

Уникальный анализ прецедентного права представлен в работе Р. Кало

«Роботы в американском праве». В статье анализируется 9 судебных решений,

которые касаются роботов. В части из них речь идет о роботах как объектах права. Примечательно, что в части решений суды пытаются разобрать пробле-

му правосубъектности роботов и сравнивают человека и искусственный интел-

лект. Автор показывает, что роботы стали частью современного общества и юристам неизбежно предстоит решать сложные правовые и этические вопро-

сы в понимании и использовании умных машин129.

Полагаем, что американское право относительно искусственного интел-

лекта будет развиваться по пути накопления прецедентов с учетом сложившей-

ся традиции формирования права и мышления по аналогии. Скорее всего,

именно в практике будут найдены взвешенные и справедливые рецепты по по-

воду правосубъектности и ответственности роботов.

Можно отметить, что проект закона о регулировании робототехники (закон Гришина) мог стать одним из самых смелых в мировой практике, поскольку предполагал наделение автономных роботов специальной правосубъектностью

129 Calo, Ryan, Robots in American Law (February 24, 2016). University of Washington School of Law Research Paper No. 2016-04.Available at SSRN: https://ssrn.com/abstract=2737598 Р. 43–44.

149

по аналогии с юридическими лицами. Однако придание искусственному интел-

лекту статуса правовой личности возможно при наличии таких критериев, как независимость роботов от человека, наличие способности к осуществлению прав и обязанностей (воли) и решения вопроса об учете интересов лиц, которые могут пострадать от действий роботов.

В то же время имеется интересный опыт ЕС в части определения правовой природы искусственного интеллекта в законодательстве европейских стран. Ре-

золюция Европарламента «Нормы гражданского права о робототехнике» пред-

ставляет собой комплекс юридических и этических ориентиров для ученых,

производителей, пользователей и органов публичной власти в сфере использо-

вания робототехники и искусственного интеллекта. В резолюции предлагаются дальнейшие пути общественной дискуссии по поводу статуса умных роботов в рамках общей убежденности в недопустимости ограничения ответственности за вред, причиненный посредством использования роботов. Важно то, что в Ре-

золюции поднимается серьезный вопрос об определении субъекта ответствен-

ности в том случае, когда вред был причинен роботом при принятии им само-

стоятельного от человека решения на основе обучения и собственного опыта.

Представляется, что европейский опыт указывает на необходимость осто-

рожного правового регулирования в сфере робототехники с учетом недопусти-

мости расширения горизонта неопределенности и риска опасных этических и социальных последствий придания роботам качеств квазиличности.

Американское право в области робототехники развивается аналогичным путем, как и в России через принятие стратегических документов. С другой стороны, очевидно появление правовых актов отдельных штатов по частным вопросам робототехники. Кроме того, можно предположить, что проблема пра-

восубъектности роботов будет находить решение в прецедентном праве США.

150

Соседние файлы в папке книги2