Відшкодування шкоди, завданої використанням технологій штучного інтелекту, як спеціальний делікт

Активне використання досягнень комп'ютерних технологій породжує нові ризики, зокрема створює небезпеку завдання шкоди. Напрацювання теоретичної моделі відшкодування шкоди, завданої використанням технологій штучного інтелекту, як спеціального делікту.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 26.11.2022
Размер файла 23,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://allbest.ru

ВІДШКОДУВАННЯ ШКОДИ, ЗАВДАНОЇ ВИКОРИСТАННЯМ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ, ЯК СПЕЦІАЛЬНИЙ ДЕЛІКТ

Великанова Марина Миколаївна,

доктор юридичних наук, доцент, провідний науковий співробітник Київського регіонального центру Національної академії правових наук України

У статті піднімається проблема відшкодування шкоди, завданої використанням технологій штучного інтелекту.

Наголошується, що активне використання досягнень комп'ютерних технологій не тільки створює додаткові можливості для людства, а й породжує нові ризики, зокрема створює небезпеку завдання шкоди. Тому метою публікації є напрацювання теоретичної моделі відшкодування шкоди, завданої використанням технологій штучного інтелекту, як спеціального делікту.

На підставі аналізу міжнародних та вітчизняних джерел розглядаються різні підходи до відшкодування шкоди, завданої використанням технологій штучного інтелекту. Зокрема, досліджуються два режими цивільної відповідальності за шкоду, спричинену штучним інтелектом: сувора відповідальність та відповідальність за принципом вини. Загальний режим суворої відповідальності передбачає відповідальність оператора систем штучного інтелекту за шкоду, завдану штучним інтелектом, незалежно від того, де відбувається операція та відбувається це фізично чи віртуально. Натомість відповідальність за принципом вини створює можливість оператору уникнути відповідальності за шкоду, завдану використанням штучного інтелекту, якщо система штучного інтелекту була активована без його відома або оператор проявив належну обачність щодо супроводу системи штучного інтелекту. Згадується також про розподіл відповідальності між операторами, потерпілою особою.

У результаті робиться висновок, що коли розвиток систем штучного інтелекту досягне рівня абсолютної автономності у прийнятті та реалізації рішень, то питання відповідальності за шкоду, спричинену штучним інтелектом, має бути переглянуте з позицій можливості встановлення правового статусу «електронної особи» та визначення її правосуб'єктності.

Ключові слова: цифрові технології, цивільне право, зобов'язання, відповідальність, електронна особа.

Velykanova Maryna

Compensation for damage caused by the use of artificial intelligence technologies as a special tort

The article is raised the issue of compensation for damage caused by the use of artificial intelligence technologies.

It is emphasized that the active use of advances in computer technology not only creates additional opportunities for humanity, but also creates new risks, including the danger of harm. Therefore, the purpose of the publication is to develop a theoretical model of compensation for damage caused by the use of artificial intelligence technologies as a special tort.

Based on the analysis of international and native sources, different approaches to compensation for damage caused by the use of artificial intelligence technologies are considered. In particular, two regimes of civil liability for damage caused by artificial intelligence are investigated: strict liability regime and fault-based liability. The general regime of strict liability provides for the liability of the operator of artificial intelligence systems for damage caused by artificial intelligence, regardless of where the operation takes place and it happens physically or virtually. Instead, fault-based liability makes it possible for an operator to avoid liability for damage caused by the use of artificial intelligence if the artificial intelligence system has been activated without his knowledge, or if the operator has exercised due care in maintaining the artificial intelligence system. The division of responsibility between the operators and the victim is also mentioned.

As a result, it is concluded that when the development of artificial intelligence systems reaches the level of absolute autonomy in decision-making and implementation, the issue of liability for damage caused by artificial intelligence should be reconsidered from the standpoint of establishing the legal status of "electronic person" and determining its legal personality.

Key words: digital technologies, civil law, obligations, liability, electronic personality.

технологія штучний інтелект небезпека відшкодування шкода

Сьогодні людство живе в умовах тотальної діджиталізації: важко уявити сучасну людину без смартфону, розумного годинника, незареєстровану в соціальних мережах чи таку, що не користується Інтернетом. Самокеровані автомобілі, розумні будинки, віртуальні помічники, розумні міста - вже не фантастика, а реалії сьогодення. Занурення людини в цифровий світ стає дедалі глобальнішим, чому сприяє і світова пандемія COVID-19. Тому не дивно, що досить стрімко стали розвиватися технології штучного інтелекту.

У заяві міністрів G20 щодо торгівлі та цифрової економіки [1] було наголошено, що вигоди від збільшення продуктивності завдяки використанню нових технологій, таких як штучний інтелект (ШІ), мобільні телекомунікаційні технології п'ятого покоління (5G), Інтернет речей (IoT), Distributed Ledger Technologies (наприклад, block chain), розширять перспективи фізичних та юридичних осіб, створюючи нові можливості, послуги та зайнятість, що може привести до більшого добробуту та подальшої інклюзивності зазначених осіб. Проте, незважаючи на великий потенціал для суспільства, цифровізація може створити й низку проблем, пов'язаних із безпекою.

Питання правового регулювання відносин, пов'язаних із використанням штучного інтелекту, зараз досить активно обговорюється у науковій спільноті. Зокрема, правовому режиму штучного інтелекту присвячені публікації О.А. Баранова, М.О. Стефанчука, Вірджинії Дігнум. Питання нормативного регулювання використання штучного інтелекту були предметом досліджень І.В. Понкіна, А.І. Редькіної, В. Ніколсона Прайса II. Відповідальність за шкоду, спричинену використанням технологій штучного інтелекту, досліджувалася Мохаммадом Башайре, Жан-Себастьяном Богетті, Емі- ліано Маркізіо та іншими науковцями. Проте, незважаючи на такий підвищений науковий інтерес до врегулювання відносин, пов'язаних із використанням технологій штучного інтелекту, нині ще не напрацьовано уніфікованого розуміння місця штучного інтелекту в системі цивільного права та підходів до застосування юридичної відповідальності за шкоду, спричинену використанням технологій штучного інтелекту.

З огляду на зазначене, метою цієї публікації є розроблення теоретичної моделі відшкодування шкоди, завданої використанням технологій штучного інтелекту, як спеціального делікту.

Загалом деліктні зобов'язання, спрямовані на відшкодування шкоди, завданої особі або майну, також не здобули однозначного розуміння серед науковців. Зокрема, окремими авторами деліктні зобов'язання розглядаються як недоговірні зобов'язання, спрямовані на відшкодування шкоди, завданої особі або майну в результаті протиправного діяння, не пов'язаного з порушенням договору [2, с. 47]. Інші вчені вважають, що говорити про подібність понять «зобов'язання з відшкодування шкоди» та «відповідальність за завдану шкоду», а також їх тотожність із поняттям «деліктне зобов'язання» не можна [3, с. 288-289]. Деліктна відповідальність не вичерпує змісту деліктного зобов'язання, а є лише одним із його елементів, оскільки не будь-який обов'язок із відшкодування заподіяної шкоди може розглядатися як міра відповідальності. Тому можливі випадки, коли відповідальність взагалі у зміст конкретного деліктного зобов'язання не включається [4, с. 587-588]. Тому, не маючи на меті визначення змісту поняття «зобов'язання з відшкодування шкоди», у цій публікації будемо виходити із позиції Т.С. Ківалової, відповідно до якої під час аналізу цивільних недоговірних охоронних правовідносин доцільніше говорити не про «правопорушення», а про «завдання шкоди» як підставу виникнення і визначальну ознаку таких правовідносин [5, с. 22-23].

У попередній публікації [6], присвяченій правовим проблемам та ризикам використання технологій штучного інтелекту, вже йшлося про окремі питання відшкодування шкоди, завданої використанням технологій штучного інтелекту, зокрема зазначалося, що визначення особи, відповідальної за шкоду, завдану штучним інтелектом, має здійснюватися виходячи із того, хто став причиною дії чи бездіяльності штучного інтелекту, у результаті якої було завдано шкоду. Це залежить від того, наскільки такий штучний інтелект був автономним. Тому було зроблено висновок, що відшкодування шкоди, завданої штучним інтелектом, за правилами відшкодування шкоди, завданої джерелом підвищеної небезпеки, не зовсім відповідає суті таких відносин. Оскільки коли йдеться про відшкодування шкоди, завданої джерелом підвищеної небезпеки, то заподіяння такої шкоди відбувається у разі використання певного транспортного засобу, механізму, обладнання, які, хоча і можуть вийти з-під контролю людини, не здатні приймати автономні рішення. Натомість особливістю штучного інтелекту є саме його здатність самостійно приймати рішення. А тому може йтися не тільки про непідконтрольність його людині, а й про непередбачуваність його дій та завдання шкоди. Оскільки така шкода є непередбачуваною, то і її заподіяння не охоплюється поняттям діяльності, що створює підвищену небезпеку для оточення, у розумінні Principles of European Tort Law [6, с. 194-195].

20 жовтня 2020 року Європейським парламентом було схвалено Резолюцію з рекомендаціями Комісії щодо режиму цивільної відповідальності для штучного інтелекту (2020/2014 (INL)), якою визначені ключові аспекти захисту користувачів від збитків, що можуть бути завдані пристроями та системами, які використовують штучний інтелект [7]. У цій Резолюції йдеться про два режими цивільної відповідальності за шкоду, спричинену штучним інтелектом: 1) сувора відповідальність; 2) відповідальність за принципом вини.

Загальний режим суворої відповідальності має встановлюватися для автономних систем штучного інтелекту з високим ризиком. У такому разі оператор відповідає за шкоду, завдану штучним інтелектом, незалежно від того, де відбувається операція, відбувається це фізично чи віртуально. У розумінні Резолюції система штучного інтелекту становить високий ризик, коли її автономне функціонування передбачає значний потенціал заподіяння шкоди одній або кільком особам випадковим чином і виходить за рамки того, що можна обґрунтовано очікувати. При цьому має враховуватися сектор, у якому можна очікувати виникнення значних ризиків, і характер виконуваних заходів. Значущість ризику потенційно залежить від взаємодії між ступенем тяжкості можливої шкоди, ймовірністю заподіяння шкоди чи збитку та способом використання системи штучного інтелекту. Усі системи штучного інтелекту з високим ризиком мають бути вичерпно перераховані у Додатку до запропонованого Регламенту [8], який із періодичністю не рідше один раз на шість місяців повинен переглядатися.

Відповідальність за принципом вини має місце тоді, коли всі види діяльності, пристрої чи процеси, керовані системами штучного інтелекту, які завдають шкоди чи створюють небезпеку, не перелічені у Додатку до запропонованого Регламенту. У такому разі питання покладення обов'язку відшкодування шкоди, завданої використанням технологій штучного інтелекту, на оператора вирішується таким чином. Оператор не несе відповідальності, якщо може довести, що шкода чи збиток заподіяні без його вини, виходячи з таких підстав:

а) система штучного інтелекту була активована без його відома, тоді як були вжиті всі розумні та необхідні заходи, щоб уникнути такої активації поза контролем оператора;

б) оператор проявив належну обачність, виконуючи всі такі дії: вибрано систему штучного інтелекту відповідно до завдання та навичок, система штучного інтелекту належно супроводжувалася, відбувався моніторинг діяльності та підтримка надійності роботи шляхом регулярного встановлення всіх доступних оновлень [8].

Під шкодою, завданою використанням технологій штучного інтелекту, розуміється несприятливий вплив на життя, здоров'я, фізичну цілісність фізичної особи, майно фізичної або юридичної особи або спричинення значної нематеріальної шкоди, що призводить до підтверджуваних економічних збитків [8].

Проте у науці висловлюються різні думки з проводу встановлення того чи іншого режиму відповідальності за шкоду, спричинену використанням технологій штучного інтелекту. Так, на думку А.В. Кирилюк, традиційним рішенням може стати інститут суворої відповідальності, хоча, як зазначає авторка, це може істотно обмежити інновації у сфері ІТ-технологій. При цьому виникає проблема визначення належного суб'єкта відповідальності. До кола таких суб'єктів можуть бути віднесені власники, оператори, проєктувальники, програмісти. Тому стоїть питання визначення та розподілу ступеня вини таких осіб [9].

У зв'язку з цим доцільно зазначити, що у Додатку до Резолюції з рекомендаціями Комісії щодо режиму цивільної відповідальності для штучного інтелекту від 20 жовтня 2020 року передбачено розподіл відповідальності між операторами, потерпілою особою [8]. Так, якщо шкода чи збиток заподіяні як фізичною чи віртуальною діяльністю, пристроєм чи процесом, керованими системою штучного інтелекту, так і діями потерпілої особи або будь-якої особи, за яку постраждала особа відповідає, розмір відповідальності оператора відповідно зменшиться. Оператор не несе відповідальності, якщо потерпіла особа або особа, за яку він/вона відповідає, винна виключно за заподіяну шкоду. Якщо в системі штучного інтелекту є більше одного оператора, то вони несуть солідарну відповідальність. Якщо оператор фронтенду «Оператор фронтенду» означає будь-яку фізичну або юридичну особу, яка здійснює певний контроль над ризиком, пов'язаним із функціонуванням ШІ-системи, та отримує вигоди від її функціонування. Annex to the Resolution: Detailed Recommendations for Drawing Up a European Parliament and Council Regulation on Liability for the Operation of Artificial Intelligence-Systems. URL: https://www.europarl.europa. eu/doceo/document/TA-9-2020-0276_EN.html (дата звернення: 29.03.2021). також є виробником системи штучного інтелекту, то питання відповідальності такого оператора має вирішуватися за приписами Регламенту до Резолюції від 20 жовтня 2020 року, оскільки у цьому разі він має перевагу над Директивою про відповідальність за якість товару (Product Liability Directive). Якщо серверний оператор також кваліфікується як виробник, як визначено в статті 3 Директиви про відповідальність за якість товару (Product Liability Directive), ця Директива повинна застосовуватися до нього. Якщо є лише один оператор, і цей оператор також є виробником системи штучного інтелекту, то Регламент повинен мати перевагу над Директивою про відповідальність за якість товару (Product Liability Directive).

Директива про відповідальність за якість товару визначає відповідальність виробника за шкоду, спричинену дефектом його товару [10]. Виробником, згідно з цією Директивою, є виробник готової продукції, виробник будь-якої сировини або виробник складової частини та будь- яка особа, яка, наносячи своє ім'я, торгову марку чи іншу відмітну ознаку на продукт, представляє себе його виробником. Якщо виробника продукту неможливо ідентифікувати, кожен постачальник товару вважатиметься його виробником, якщо він не повідомить потерпілу особу протягом розумного часу про особу виробника або особу, яка поставила йому товар.

Є.О. Мічурін пропонує застосовувати різні підходи до відшкодування шкоди, завданої використанням технологій штучного інтелекту. За твердженням автора, якщо шкода завдається діяльністю робота із вмонтованим штучним інтелектом (відносно самостійною програмою дій), то власник штучного інтелекту має відшкодовувати шкоду за правилами відповідальності за шкоду, спричинену джерелом підвищеної небезпеки, за умови, що він порушує рекомендації виробника штучного інтелекту (порушення інструкції). Якщо причиною шкоди був дефект (налаштування) штучного інтелекту з вини виробника або виробник не попередив у інструкції з використання штучного інтелекту про потенційні його шкідливі властивості (що призвело до спричинення шкоди), то шкода відшкодовуватиметься за нормами про відповідальність за шкоду, завдану внаслідок дефекту товару (дефекту у продукції). У разі придбання споживачем виробу зі штучним інтелектом мають застосовуватися норми законодавства про захист прав споживачів [11, с. 72].

Водночас вище вже висловлювалася думка про застосування положень відшкодування шкоди, завданої джерелом підвищеної небезпеки, до відносин зі спричинення шкоди використанням технологій штучного інтелекту. У цьому контексті ще раз хотілося б наголосити, що робот із вмонтованим штучним інтелектом може бути не тільки непідконтрольний людині, що його використовує, а й непередбачуваним. Тому неможливим є застосування правил відшкодування шкоди, завданої джерелом підвищеної небезпеки, оскільки її заподіяння не охоплюється поняттям діяльності, що створює підвищену небезпеку для оточення.

Отже, назріла нагальна потреба на законодавчому рівні закріпити відшкодування шкоди, завданої використанням технологій штучного інтелекту, як спеціальний делікт. При цьому обов'язок відшкодування такої шкоди має покладатися на оператора автономних систем штучного інтелекту або за правилами суворої відповідальності, або за правилами відповідальності на принципі вини залежно від оцінки рівня ризику для таких систем штучного інтелекту. У тому разі, коли розвиток систем штучного інтелекту досягне рівня абсолютної автономності у прийнятті та реалізації рішень, питання відповідальності за шкоду, спричинену штучним інтелектом, має бути переглянуте. Тому видається перспективним напрямом подальшого дослідження напрацювання теоретичних положень щодо правового статусу «електронної особи». У межах такого дослідження необхідно визначити обсяг правосуб'єктності електронної особи, у тому числі й обсяг її юридичної відповідальності.

ЛІТЕРАТУРА:

1. G20 Ministerial Statement on Trade and Digital Economy. URL: https://www.mofa.go.jp/ files/000486596.pdf (дата звернення: 29.03.2021).

2. Отраднова О.О., Безкоровайна Ю.М. Деліктні зобов'язання у цивільному праві Німеччини. Університетські наукові записки. 2010. № 4(36). С. 47-52.

3. Гринько (Русу) С.Д. Вітчизняна концепція деліктних зобов'язань. Університетські наукові записки. 2012. № 1(41). С. 287-294.

4. Мануїлова К.В. Правова природа та зміст деліктних зобов'язань. Актуальні проблеми держави і права. 2011. Вип. 61. С. 583-589.

5. Ківалова Т.С. Зобов'язання відшкодування шкоди за цивільним законодавством України: автореф. дис. ... д-ра юрид. наук : 12.00.03 / Одеська національна юридична академія. Одеса, 2008. 40 с.

6. Velykanova M.M. Artificial intelligence: Legal problems аnd risks. Journal of the National Academy of Legal Sciences of Ukraine. 2020. Vol. 27, No. 4. P. 185-198.

7. European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence (2020/2014(INL)). URL: https://www.europarl. europa.eu/doceo/document/TA-9-2020-0276_EN.html (дата звернення: 29.03.2021).

8. Annex to the Resolution: Detailed Recommendations for Drawing Up a European Parliament and Council Regulation on Liability for the Operation of Artificial Intelligence-Systems. URL: https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_EN.html (дата звернення: 29.03.2021).

9. Кирилюк А.В. Відповідальність штучного інтелекту. URL: http://dspace.onua.edu. ua/bitstream/handle/11300/13507/Кирилюк%20А.%20В.%20Відповідальність%20штуч- ного%20інтелекту.pdf?sequence=1&isAІlowed=y (дата звернення: 03.06.2021).

10. Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products. URL: https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A31985L0374 (дата звернення: 03.06.2021).

11. Мічурін Є.О. Правова природа штучного інтелекту. Форум Права. 2020. 64(5). С. 67-75. URL: http://doi.org/10.5281/zenodo.4300624 (дата звернення: 03.06.2021).

Размещено на Allbest.ru

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.