Деликтная ответственность и искусственный интеллект

Проблемы деликтной ответственности и искусственного интеллекта в современном мире, их сравнительно-правовой анализ. Несовершенство действующего законодательства в сфере решения проблемы ответственности за вред, причиненный искусственным интеллектом.

Рубрика Государство и право
Вид статья
Язык русский
Дата добавления 25.10.2021
Размер файла 26,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Деликтная ответственность и искусственный интеллект

Аннотация

деликтная ответственность искусственный интеллект

Кутаев Владимир Владимирович, студент 3-го курса Университета имени О.Е. Кутафина (МГЮА)

Автор рассматривает проблемы деликтной ответственности и искусственного интеллекта в современном мире, проводит сравнительноправовой анализ. Отмечается несовершенство действующего законодательства, которое не позволяет в полной мере разрешить проблемы ответственности за вред, причиненный искусственным интеллектом.

Ключевые слова: человек; техника; искусственный интеллект; деликтная ответственность; электронное лицо; источник повышенной опасности.

Abstract

TORT RESPONSIBILITY AND ARTIFICIAL INTELLIGENCE

Vladimir V. Kutaev, Undergraduate Student, Kutafin Moscow University (MSAL).

The author examines the problems of tort responsibility and artificial intelligence in the modern world and conducts a comparative legal analysis. The paper highlights the imperfection of the current legislation that prevents from solving problems of liability for harm caused by artificial intelligence.

Keywords: human; technique; artificial intelligence; tort liability; electronic person; source of increased danger.

Искусственный интеллект, как сложное и многоуровневое явление, представляет собой неоднозначный элемент общественных отношений, регулирование деятельности которого является разносторонним процессом, включающим проработку всех ключевых сфер общественной жизни. Привычное мнение о том, что роботы могут лишь приносить пользу людям, уже давно в полной мере не соответствует действительности, ведь огромное количество прецедентов говорит об обратном.

Неотвратимость намеченной проблемы подчеркивается в резолюции Европарламента от 2017 г., которая выводит на новый уровень регламентацию робототехники, отмечая, что законы, установленные А. Азимовым, отнюдь не предел мечтаний фантаста, а вполне реальная участь ближайшего будущего. Принимается во внимание тот факт, что существующая сегодня тенденция разработки умных и автономных машин, способных обучаться и самостоятельно принимать решения, в перспективевлечет за собой не только экономическую выгоду, но и ряд вопросов, связанных с прямым и косвенным влиянием таких машин на общество в целом. Стоит отметить, что рассматриваемый документ по большей части не отвечает на вопросы, а лишь задает их. В этом и заключается основная проблематика данной сферы, точнее трудности разрешения Резолюция Европарламента от 16.02.2017 P8_TA-PROV(2017)0051 // URL: https://robo- pravo.ru/riezoliutsiia ies(дата обращения: 20.12.2020).. И с учетом всего вышесказанного невольно напрашивается вывод, который сделал профессор Дж. Балкин: «Истинное влияние роботов на право иправовые институты мы поймем только в нужный момент» Balkin J. B.The Path of Robotics Law // The Circuit, 2017. № 5. P. 72..

Для продолжения работы необходимо детализировать понятия «искусственный интеллект» и «Робот». Дж. Маккарти предложил дефиницию «искусственный интеллект» (ArtificialIntelligence) в 1956 г., однако слово «интеллект» вовсе не отождествлялось с интеллектом человека, который имеет ряд творческих характеристик McCarthy, John. What is Artificial Intelligence? // Computer Science Department, 2007. № 4. P. 103.. «Intelligence» понимается, как вычислительная составляющая способности достигать целей в мире, а уже вошедшему в обиход «интеллекту» есть английский аналог «intellect». Таким образом, уместнее будет употреблять словосочетание «искусственный разум», по крайней мере, на данном этапе, поскольку, как утверждает М. А. Рожкова, умственные способности человека направлены по большей части на ассоциативные связи, но вот в робототехнике наличествуют лишь вычислительные процессы Рожкова М. А. Искусственный интеллект и интеллектуальные роботы -- что это такое или кто это такие? // Закон.ру. 2019. URL: https://zakon.ru/blog/2019/11/23/iskusstven- nyj intellektiintellektualnyerobotychto etotakoeil(датаобращения: 20.12.2020).. Это же подтверждается и исследованиями Б. А. Кобринского, который настаивает на дифференциации человеческого интеллекта и технического, поскольку последний не умеет синтезировать новый материал Кобринский Б. А. Персонализированная медицина: геном, электронное здравоохра-нение и интеллектуальные системы. Часть 2. Молекулярная генетика и методы ин-теллектуального анализа // Российский вестник перинатологии и педиатрии. 2017 ; № 62 (6). С. 16-22.. На том основании, что в большинстве современных нормативными правовыми актами и доктринах используется термин «искусственный интеллект», автором было принято решение использовать указанное понятие и в данном исследовании.

На наш взгляд необходимо выделить несколько основных компонентов искусственного интеллекта:

— последовательный алгоритм принятия решений;

— определение данных, релевантных заложенным задачам;

— обусловленный функциональной сущностью уровень автономности, который позволяет самостоятельно без участия третьих лиц принимать решения, а в ряде случаев -- развиваться, адаптироваться к окружающей среде.

Таким образом, по нашему мнению, можно определить искусственный интеллект, как роботизированную систему, способную самостоятельно выполнять ряд целей и задач и быть автономной независимо от пользователя.

Однако, несмотря на видимую однозначность указанного выше определения, следует отметить, что присутствует соответствующая классификация, согласно которой искусственный интеллект разделяются по своим способностям и возможностям. Дж. Серл выдвигает концепцию дифференциации искусственного интеллекта на «сильные» и «слабые» Серл Дж. Сознание, мозг и программы // Behavioral andbrainsciences, 1980, Т. 3, № 3. С. 417.. «Слабый искусственный интеллект» -- это попытка моделирования человеческого разума аналогично моделированию погодных условий, изменений климата или других природных явлений. Указанный вид контролируется человеком, и его деятельность направлена исключительно на достижение поставленных задач.

«Сильный искусственный интеллект», напротив, стремится воссоздать разум или интеллект, который буквально понимает другие психические состояния. Такой вид способен самостоятельно «думать», обладать функциональным сознанием, которое пока что является привилегией лишь живых существ. Необходимо сразу уточнить, что в настоящее время полная реализация «сильного искусственного интеллекта» не осуществлена, что значительно облегчает вопрос юридической ответственности. По этой причине последующая работа пойдет с учетом предложенной автором дефиниции, а также в рамках концепции «слабого искусственного интеллекта», согласно которым система не наделена полноценным функциональным сознанием, а саморегулирование и автономность пока что существенно ограничены.

Деликтные обязательства -- это один из видов гражданско-правовых обязательств, которым присущи соответствующие свойства и признаки. Однако от договорных обязательств они отличаются тем, что деликтные обязательства возникают, если потерпевший и причинитель вреда не состоят между собой в договорных отношениях, а если и состоят, то причиненный вред является результатом действий, не связанных с нарушением существующих договорных обязательств Шевченко А. С., Шевченко Г Н.Деликтные обязательства в российском гражданском праве : учебное пособие М. : Статут, 2013. С. 9..

Рассматриваемая ответственность наступает лишь при соблюдении определенного перечня условий, которые вытекают из природы данной формы юридической ответственности. К таким условиям относятся:

— противоправность деяния;

— наличие вреда в результате совершения противоправного деяния;

— причинная связь;

— вина. Причем сразу стоит отметить, что в исключительных случаях возможно наступление деликтной ответственности и при отсутствии вины. Так, на основании ст. 1079 ГК РФ владельцы источников повышенной опасности обязаны возместить причиненный вред, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 № 14-ФЗ (ред. от 08.12.2020) // СЗ РФ. 1996, № 5, ст. 1079.. Сходная ситуация закрепляется и ст. 1095 ГК РФ, согласно которой вред, причиненный вследствие недостатков товара, работы или услуги, подлежит возмещению продавцом или изготовителем товара, лицом, выполнившим работу или оказавшим услугу, независимо отих вины.

Подобные элементы деликтной ответственности выделяет и М. Э. Герстнер Gerstner M. E. Comment, Liability Issues with Artificial Intelligence Software // 33 Santa Clara L. Rev. 239 (1993). № 5.P. 239.. Указанные условия деликтной ответственности допустимо применить ко многим участникам гражданских правоотношений в сфере использования искусственного интеллекта, однако причинно-следственная связь должна иметь объективный и прямой характер, а отсутствие вины как обязательного признака в некоторых случаях не должно умалять прав и свобод. С учетом законодательной ситуации в различных странах, выделяют несколько основных подходов к рассмотрению ответственности искусственного интеллекта.

В современных научных исследованиях можно найти концепцию, согласно которой ответственность искусственного интеллекта должна регламентироваться по соответствующим нормам в отношении физических лиц. Сложно согласиться с таким подходом, поскольку наделение искусственного интеллекта человеческой правоспособностью связано с множеством морально-этических проблем, ведь нельзя отрицать, что человек существенно отличается от самого развитого антропоморфногоробота. Конечно, в далекой перспективе имеет место допущение такой возможности, но пока что конкретно этот подход не выходит за пределы фантастики.

Отсутствие единой позиции на этот счет не позволяет в полной мере разрешить проблему деликтной ответственности искусственного интеллекта и создает еще большее количество трудностей, связанных с поиском оптимального правового подхода. Ситуация обостряется и тем, что вред, который может нанести технология, уже исчисляется сотнями прецедентов, однако по мере развития технологий количественный фактор может существенное возрасти. Управление по охране труда США огласило статистику, согласно которой ежевевно на фабриках погибает один или два человека по вине робота Payne v. ABB Flexible Automation, Inc., 116 F.3d 480 (Table), 1997 WL 311586 (8th Cir. 1997) // URL: https://itlaw.wikia.org/wiki/Payne v. ABB Flexible Automation(датаобра-щения: 20.12.2020).. Возникают и проблемы, связанные с роботизированной хирургией, поскольку искусственный интеллект не всегда справляется в должной мере со своими функциями Homer Lee REECE, and Nelda Reece, Plaintiffs, v. INTUITIVE SURGICAL, INC.,63 F. SuP. 1337 (N. D. Ala. 2014) // URL: https://casetext.com/case/reece-v-intuitive-surgical-inc-1(датаоб-ращения: 20.12.2020).. Не трудно предположить, что подобных дел будет становиться все больше, однако продуктивных мер в части касающейся деликтной ответственности так и не было выработано.

К примеру, кто несет ответственность в перепалке чат-ботов в Амстердаме, один из которых обещал устроить теракт? КашмирХ.After Twitter bot makes death threat, its owner gets questioned by police // URL https://splinternews.com/after-twitter-bot-makes-death-threat-its-owner-gets-qu-17938

45332(дата обращения: 12.11.2020). Или инцидент, в результате которого беспилотный автомобиль марки Teslaсбил насмерть человека Струкова Т. Автопилот-убийца. Пять самых опасных аварий с участием Tesla// URLhttps://360tv.ru/news/tekst/avtopilot-ubijtsa/(дата обращения: 20.12.2020)..

В представленных случаях основания деликтной ответственности отсутствуют у людей, хотя как-то связанных с искусственным интеллектом. Нельзя установить вину водителя, который просто сидел в салоне автомобиля, смело положившись на автопилотное вождение. Однако факт противоправного деяния остается, и по этой причине необходимо определить субъекта ответственности.

В резолюции Европарламента от 2017 г. отмечается возможность наделения искусственного интеллекта определенной правоспособностью, в результате чего технологии будут самостоятельно отвечать за причиненный ими вред. Реализация данной перспективы предполагает создание электронного лица.

Возникает множество споров на тему того, способно ли предполагаемое электронное лицо в должной мере полностью отвечать по обязательствам вследствие деликта. Для ответа на данный вопрос, стоит повторно уточнить основные функции деликтной ответственности. М. И. Кулагин отмечает превентивную, карательную и компенсационную (имущественную и моральную) Кулагин М. И. Предпринимательство и право: опыт Запада // Избранные труды. М., 1997. С. 283..

Карательная функция заключается в претерпевании неблагоприятных последствий правонарушителем в результате совершенного деликта. Как правило, данный факт выражается в имущественных лишениях. На данном этапе развития технологий данная функция не применима к искусственному интеллекту, т.к. нет имущества, которое могло бы принадлежать ему на праве собственности. Однако в качестве неимущественной формы реализации карательной функции возможен вариант перепрограммирования технологии или же ее деактивация, обязанность по которым должна быть возложена либо на производителя, либо на специально созданный независимый орган. Представляется, что на сегодняшний день это единственно возможный на данный момент подход к реализации карательной функции. К тому же, подобным образом может осуществляться и превентивная функция, которая заключается в предупреждении новых правонарушений.

И. Джуфрид указывает на возможность создания специального страхового фонда, который будет компенсировать причиненный технологиями вред Giuffrida I. Liability for AI Decision-Making: Some Legal and Ethical Considerations // 88 Fordham L. Rev. 439 (2019). P. 22.. Это коррелирует с ограниченной деликтоспособностью искусственного интеллекта и в полной мере покрывает компенсационную функцию.

В подобном случае искусственный интеллект действительно может рассматриваться в качестве электронного лица, к тому же в настоящее время уже присутствует ряд законодательных нововведений, так или иначе следующих концепции электронного лица. Так, например, в США в штате Алабама определяются автоматизированные системы вождения, автоматизированные грузовые автомобили и грузовые автомобили, оснащенные системой дистанционного управления. Допускается таким коммерческим автономным транспортным средствам работать в штате без водителя, который физически присутствует при соблюдении определенных критериев. Эти критерии включают соответствие государственным законам и стандартам безопасности. Автоматизированные коммерческие автомобили должны быть зарегистрированы и иметь минимальное страховое покрытие ответственности в размере 2 000 000 долл. США. Заметно, что определенное развитие уже намечается, поскольку с 2012 г. по крайней мере 41 штат и округ Колумбия приняли законодательство, касающееся автономных транспортных средств ОбзорзаконодательстваСША«Vehicles: Self- Driving Vehicles Enacted Legislation», NCSL) // URL: http://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehi-

cles-enacted-legislation.aspx(датаобращения: 20.12.2020)..

В Российской Федерации пока что нет вообще подобной законодательной практики. Можно отметить поправки к Воздушному кодексу Российской Федерации, устанавливающие обязательную сертификацию, аттестацию и государственную регистрацию беспилотных летательных аппаратов (дронов), однако в контексте рассматриваемой модели технологий в качестве субъекта деликтной ответственности это не приобретает должной значимости Федеральный закон от 30.12.2015 № 462-ФЗ «О внесении изменений в Воздушный ко-декс Российской Федерации в части использования беспилотных воздушных судов» // Российская газета, № 1, 11.01.2016..

По мнению автора, указанная концепция позволит «с нуля» создать правовое регулирование ответственности искусственного интеллекта, поскольку не придется пересматривать конвенциональные взгляды на правосубъектность юридических или физических лиц. Это удобно с точки зрения фикции, однако на практике, на наш взгляд, рассматриваемый подход вызовет необходимость пересмотра значительной части законодательства, причем не только в области гражданского права, и поскольку в рамках данного исследования рассматривается исключительно «слабый искусственный интеллект», то подобная концепция не представляется на сегодняшний день оптимальной.

Особого внимания заслуживает, на наш взгляд, подход, указанный А. С. Шевченко и Г. Н. Шевченко, согласно которому искусственный интеллект может рассматриваться в качестве источника повышенной опасности Шевченко А. С., Шевченко Г. Н., FordhamL.Деликтные обязательства в российском гра-жданском праве : учебное пособие // М. : Статут, 2013. С. 47.. При таком рассмотрении технологии не является субъектом деликтной ответственности, однако поскольку в настоящее время присутствует исключительно «слабый искусственный интеллект», то данная концепция является наиболее применимой.

В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов и др.), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего.

Причем в п. 18 постановления Пленума Верховного Суда Российской Федерации от 26.01.2010 № 1 «О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина» отмечается, что источником повышенной опасности следует признать любую деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами Постановление Пленума Верховного Суда РФ от 26.01.2010 № 1 «О применении суда-ми гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью грарфжданина» // Бюллетень Вер-ховного Суда РФ. 2019. № 3.. Таким образом, перечень источников повышенной опасности остается открытым, что позволяет без труда учитывать в нем и искусственный интеллект.

Что касается других стран, то стоит отметить, что Пекинская академия искусственного интеллекта опубликовала «Пекинские принципы искусственного интеллекта» «Пекинские принципы искусственного интеллекта», B EIJINGАCAD., // URL: http:// www.baai.ac.cn/blog/beijing-ai-principles/(дата обращения: 20.12.2020)., затем последовали «Принципы управления искусственным интеллектом нового поколения», опубликованные Национальным комитетом по управлению искусственным интеллектом нового поколения. В данных НПА содержится ссылка на необходимость информирования пользователей о потенциальных рисках, что характеризует искусственный интеллект как источник повышенной опасности.

В США имеется Свод деликтного права 1977 г., где в параграфе 519 регламентируется общее правило наложения ответственности на лиц, причиняющих вред посредством чрезвычайно опасной деятельности, что может позволить отнести искусственный интеллект к источникам повышенной опасности Цвайгерт К., Кетц Х, FordhamL.Введение в сравнительное правоведение в сфере част-ного права : в 2 т. Т. 2 // М. : Междунар. отношения, 1998. С. 460-461..

Данный подход уже на сегодняшний день в правоприменительной практик и не потребует серьезных изменений законодательства в сравнении с предыдущими концепциями. Т.к. перечень источников повышенной опасности является открытым, то достаточно очень четко на законодательном уровне установить определение искусственного интеллекта, согласно которому таковым признается роботизированная система, способная самостоятельно выполнять ряд целей и задач и быть автономной независимо от пользователя, не обладающая полноценным сознанием в биологическом и когнитивном смысле.

Необходимо составить список искусственного интеллекта, причем оставить его открытым, что позволит адаптироваться под быстрые темпы развития технологий и решать правовые споры в соответствие с действующим законодательством.

Рассмотрение искусственного интеллекта в качестве источника повышенной опасности позволит наиболее объективно распределять ответственность, поскольку в некоторых случаях может быть установлена и халатность со стороны производителя, что, в свою очередь, может уменьшить ответственность непосредственного потребителя. В соответствии со ст. 1080 ГК РФ лица, совместно причинившие вред, отвечают перед потерпевшим солидарно. Если производитель допустил какие-то ошибки при создании системы, что поспособствовало причинению вреда другому лицу, то он и владелец технологии будут солидарно отвечать по деликтным обязательствам на основании ст. 1080 ГК РФ.

Подводя итоги, можно сказать, что ответственность искусственного интеллекта в полной мере не урегулирована ни в одной стране, что должно подталкивать законодателей на скорейшее реформирование нормативной системы по данному вопросу.

Результатом исследования стало определение оптимальной в текущих условиях концепции -- искусственный интеллект в качестве источника повышенной

опасности. Указанный подход действительно рационален, поскольку законодательные нововведения будут минимальными, и основная задача будет заключаться в поддержании актуальности списка искусственного интеллекта.

Развитие технологий оставляет позади нас уже привычный, традиционный мир, но взамен ясно проглядывается необходимость сделать шаг в сторону новой, развивающейся цивилизации. Указанная проблема будет еще очень долгое время являться актуальной и задача как правоведов нынешних, так и правоведов будущих -- четко отслеживать малейшие изменения в сфере информационного производства.

Библиография

деликтная ответственность искусственный интеллект

1. КашмирХ.After Twitter bot makes death threat, its owner gets questioned by police //URLhttps://splinternews.com/after-twitter-bot-makes-death-threat-its-owner-gets-qu-1793845332(дата обращения: 20.12.2020).

2. Кобринский Б. А. Персонализированная медицина: геном, электронное здравоохранение и интеллектуальные системы. Часть 2. Молекулярная генетика и методы интеллектуального анализа // Российский вестник перинатологии и педиатрии. -- 2017. -- № 62 (6). -- С. 16-22.

3. Коновалов А. В. Принцип разумности в гражданском праве // Актуальные проблемы российского права. -- 2019. -- № 8 (105). -- URL: https://cyberleninka.ru/article/n/prin- tsIP-razumnosti-v-grazhdanskom-prave(дата обращения: 20.12.2020).

4. Кулагин М. И. Предпринимательство и право: опыт Запада // Избранные труды. -- М., 1997.

5. Рожкова М. А. Искусственный интеллект и интеллектуальные роботы -- что это такое или кто это такие? // Закон.ру. 2019. 23 ноября. -- URL: https://zakon.ru/blog/2019/11/23/iskusstvennyjintellektiintellektualnyerobotychto etotakoeil

(дата обращения: 20.12.2020).

6. СерлДж.Сознание, мозгипрограммы // Behavioral and brain sciences. -- 1980. -- Т. 3, № 3 (Сентябрь). -- С. 20.

7. Струкова Т. Автопилот-убийца. Пять самых опасных аварий с участием Tesla// URLhttps://360tv.ru/news/tekst/avtopilot-ubijtsa/(дата обращения: 20.12.2020).

8. Толкачев С. А., Кулаков А. Д. Роботизация как направление неоиндустриализации (на примере США) // Мир новой экономики. -- 2016. -- № 2. -- URL: https://cyberleninka. ru/article/n/robotizatsiya-kak-napravlenie-neoindustrializatsii-na-primere-ssha(дата обращения: 20.12.2020).

9. Цвайгерт К., Кетц Х. Введение в сравнительное правоведение в сфере частного права : в 2 т. Т. 2 // М. : Междунар. отношения, 1998.

10. Шевченко А. С., Шевченко Г. Н. «Деликтные обязательства в российском гражданском праве : учебное пособие». -- М. : Статут, 2013.

11. Balkin, Jack B.,The Path of Robotics Law // The Circuit, 2015. -- № 5. -- P. 72.

12. Gerstner M. E. Comment, Liability Issues with Artificial Intelligence Software // 33 Santa Clara L. Rev. 239 (1993) -- P. 20.

13. Giuffrida I., Liability for AI Decision-Making: Some Legal and Ethical Considerations // 88 Fordham L. Rev. 439 (2019). -- P. 22.

14. Homer Lee REECE, and Nelda Reece, Plaintiffs, v. INTUITIVE SURGICAL, INC.,63 F. SuP. 1337 (N. D. Ala. 2014) // URL: https://casetext.com/case/reece-v-intuitive-surgical-inc-1(датаобращения: 20.12.2020).

15. McCarthyJ. What is Artificial Intelligence? // Computer Science Department, 2007. -- № 5. -- P. 103.

16. Payne v. ABB Flexible Automation, Inc., 116 F.3d 480 (Table), 1997 WL 311586 (8th Cir. 1997) // URL: https://itlaw.wikia.org/wiki/Payne v. ABB Flexible Automation(датаобращения: 20.12.2020).

REFERENCES

1. Kashmir Kh. «After Twitter bot makes death threat, its owner gets questioned by police,» 2015. Available from: https://splinternews.com/after-twitter-bot-makes-death-threat-its- owner-gets-qu-1793845332(accessed: 20 Dec 2020).

2. Kobrinsky BA. «Personalized medicine: genome, e-health and intelligent systems. partPart 2. Molecular genetics and methods of intellectual analysis». RossiyskiyVestnikPerinatologiiiPediatrii. 17;62(6):16-22 (In Russ.).

3. Konovalov A. V. Printsiprazumnosti v grazhdanskomprave [Principle of Reasonableness in Civil Law]. Actual Problems of Russian Law. 2019;8(105) available from: https://cyberleninka. ru/article/n/printsTP-razumnosti-v-grazhdanskom-prave(accessed: 20 Dec 2020) (In Russ.).

4. Kulagin MT. Predprinimatelstvoipravo: opytzapada [«Entrepreneurship and Law: Experience of the West»]. Selected Writings. Moscow, 1997 (In Russ.).

5. RozhkovaMA. Tskusstvennyyintellektiintellektualnyeroboty -- chtoetotakoeiliktoetotakie? [Artificial intelligence and intelligent robots -- what is it or who is it?]. [Electronic resource]. ZAKON.ru. 2019. 23 November. Available from:https://zakon.ru/blog/2019/11/23/iskusstvennyjintellektiintellektualnyerobotychtoetotakoeil(accessed: 20 Dec 2020) (In Russ.).

6. Searle, Dzh. Soznanie, mozgiprogrammy [Consciousness, brain and programs]. Behavioral and Brain Sciences. 1980;3(3):20 (In Russ.).

7. StrukovaT. Avtopilot-ubiytsa. Pyatsamykhopasnykhavariy s uchastiem tesla [Autopilot Killer. Five most dangerous accidents involving Tesla]. Available from: https://360tv.ru/ news/tekst/avtopilot-ubijtsa/(accessed: 20 Dec 2020) (In Russ.).

8. TolkachevSA, Kulakov AD. Robotizatsiyakaknapravlenieneoindustrializatsii (naprimereSShA) [Robotization as a direction of neoindustrialization (A Case Study of the USA)]. The World of New Economy. 2016;2. Available from: https://cyberleninka.ru/article/n/roboti- zatsiya-kak-napravlenie-neoindustrializatsii-na-primere-ssha(accessed: 20 Dec 2020) (In Russ.).

9. Tsweigert K, KetzKh. Vvedenie v sravnitelnoepravovedenie v sferechastnogoprava: v 2-kh t. [Introduction to comparative law in the field of private law: In 2 vol]. Vol. 2. Tr. from German. Moscow: Mezhdunar. otnosheniya Publ.; 1998 (In Russ.).

10. Shevchenko AS, Shevchenko GN. Deliktnyeobyazatelstva v rossiyskomgrazhdanskomprave: uchebnoeposobie [Tort Obligations in Russian Civil Law: A Textbook]. Moscow: Statut Publ.; 2013 (In Russ.).

11. Balkin JB. The Path of Robotics Law. The Circuit. 2015;5:72.

12. Gerstner ME. Comment, Liability Issues with Artificial Intelligence Software. Santa Clara L. Rev. 1993;33:239.

13. Giuffrida I. Liability for AI Decision-Making: Some Legal and Ethical Considerations. Fordham L. Rev. 2019;88:439.

14. Homer Lee REECE, and Nelda Reece, Plaintiffs, v. INTUITIVE SURGICAL, INC.,63 F. Supp. 1337 (N.D. Ala. 2014). Available from: https://casetext.com/case/reece-v-intuitive-surgical-inc-1(accessed: 20 Dec 2020).

15. McCarthy J. What is Artificial Intelligence? Computer Science Department. 2007;5:103.

16. Payne v. ABB Flexible Automation, Inc., 116 F.3d 480 (Table), 1997 WL 311586 (8th Cir. 1997). Available from: itlaw.wikia.org/wiki/Payne_v._ABB_Flexible_Automation (accessed: 20 Dec 2020).

Размещено на Allbest.ru

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.