Проблема правового регулювання у сфері штучного інтелекту в контексті розвитку законодавства Європейського Союзу

Вивчення актуальної в сучасних умовах цифрової трансформації та розбудови інформаційного суспільства проблеми правового регулювання у сфері штучного інтелекту. Визначення можливості надання специфічного правового статусу для роботів зі штучним інтелектом.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 23.12.2022
Размер файла 85,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Державна наукова установа «Інститут інформації, безпеки і права Національної академії правових наук України» Київ, Україна

Національний юридичний університет імені Ярослава Мудрого Харків, Україна

Проблема правового регулювання у сфері штучного інтелекту в контексті розвитку законодавства Європейського Союзу

Володимир Григорович Пилипчук

Баранов Олександр Андрійович

Гиляка Олег Сергійович

Кафедра міжнародного приватного права і

порівняльного правознавства

Анотація

правовий робот штучний інтелект

У запропонованій статті досліджується актуальна в сучасних умовах цифрової трансформації та розбудови інформаційного суспільства проблема правового регулювання у сфері штучного інтелекту. Розглядаються основні положення та пропозиції щодо Регламенту Європейського Парламенту та Ради, який має встановити гармонізовані правила у сфері штучного інтелекту (Закону про штучний інтелект), оприлюднені у квітні 2021 року Європейською Комісією. Проаналізовані мета, сфера правового регулювання, основні правові принципи, правові механізми, конкретний зміст базових правових норм Регламенту. Надані оцінки щодо переваг та недоліків запропонованого варіанту правового регулювання у сфері штучного інтелекту. Сформульовано актуальні наукові та прикладні проблеми щодо пошуку балансу з питань взаємодії людини зі штучним інтелектом; визначення можливості надання специфічного правового статусу для роботів зі штучним інтелектом; розробки моделі правового регулювання у сфері штучного інтелекту та формування державно-правових гарантій захисту прав, свобод і безпеки людини в умовах застосування штучного інтелекту. Для здійснення дослідження було застосовано систему методів наукового пізнання, зокрема загальнофілософський, загальнонаукові (діалектичний, аналізу, синтезу, абстрагування, аналогії), приватні методи наукового пізнання, що застосовуються в багатьох галузевих науках (порівняльний, кількісного й якісного аналізу), а також спеціально-юридичні (формально-юридичний, порівняльно-правовий, системно-структурний). Також визначені рекомендації і пропозиції щодо пріоритетних напрямів наукових досліджень з проблем правового регулювання у сфері штучного інтелекту.

Ключові слова: штучний інтелект, регламент, правове регулювання, права людини, безпека.

Volodymyr G. Pylypchuk

State Scientific Institution «Institute of Information, Security and Law of the National Academy of Legal Sciences of Ukraine» Kyiv, Ukraine

Oleksandr A. Baranov

State Scientific Institution «Institute of Information, Security and Law of the National Academy of Legal Sciences of Ukraine» Kyiv, Ukraine

Oleh S. Hyliaka

State Scientific Institution «Institute of Information, Security and Law of the National Academy of Legal Sciences of Ukraine» Kyiv, Ukraine

Department of Private International and Comparative Law Yaroslav Mudryi National Law University Kharkiv, Ukraine

The problem of legal regulation in the field of artificial intelligence in the context of the development of the legislation of the European Union

Abstract

In the offered article the problem of legal regulation in the field of artificial intelligence actual in modern conditions of digital transformation and development of information society is investigated. The main provisions and proposals on the Regulation of the European Parliament and of the Council, which should establish harmonized rules in the field of artificial intelligence (Artificial Intelligence Act), published in April 2021 by the European Commission, are considered. The purpose, sphere of legal regulation, basic legal principles, legal mechanisms, specific content of basic legal norms of the Regulations are analyzed. Estimates of the advantages and disadvantages of the proposed legal regulation in the field of artificial intelligence are provided. The actual scientific and applied problems of finding a balance on the interaction of man with artificial intelligence are formulated; determining the possibility of granting a specific legal status for robots with artificial intelligence; development of a model of legal regulation in the field of artificial intelligence and the formation of state and legal guarantees for the protection of human rights, freedoms and security in the application of artificial intelligence. To carry out the study, a system of methods of scientific cognition was used, including general philosophical, general scientific (dialectical, analysis, synthesis, abstraction, analogy), private methods of scientific cognition used in many branches of science (comparative, quantitative and qualitative analysis), and special legal (formal-legal, comparative-legal, system-structural). Recommendations and proposals on priority areas of research on the problems of legal regulation in the field of artificial intelligence are also identified.

Keywords: artificial intelligence, regulations, legal regulation, human rights, security.

Вступ

Протягом ХХ-ХХІ століть, як свідчить історико-правовий аналіз, відбулася кардинальна трансформація суспільних відносин у різних сферах життєдіяльності людини, суспільства, держави та міжнародної спільноти. Поряд з цим стрімко розвиваються інформаційні технології, продукція і послуги, формується національний та глобальний інформаційний простір. За цих умов прийняття обґрунтованих управлінських та інших рішень потребує усе більших обсягів інформації щодо суспільних та міжнародних процесів.

Досить довго обсяги та якість інформації, що використовувалася, були задовільними з огляду на колишні вимоги до прийняття рішень, але зростаюча динаміка соціально-економічних змін в окремих державах та світовому співтоваристві спричинила різке підвищення вимог до швидкості та якості прийняття рішень на усіх рівнях суспільного життя. Часовий горизонт впевненого прогнозування чи передбачення став суттєво зменшуватися, передусім щодо середньо- та довгострокових стратегій розвитку, а обсяг часу, необхідного для здійснення усталених управлінських, виробничих, технологічних процесів залишився переважно незмінним.

Зазначене призвело до виникнення істотної проблеми, зміст якої полягає в тому, що у певний момент історичного розвитку соціуму когнітивні можливості людини стали обмежувати збір та оброблення необхідного обсягу інформації та забезпечувати необхідну швидкість прийняття рішень, які б мали стати адекватною реакцією на сучасні трансформаційні зміни. Яскравим свідченням наявності цієї проблеми є те, що низка негативних факторів, як-то: виснаження планетарних запасів корисних копалин, виникнення дефіциту родючої землі та продовольства, чистої води та повітря і багато іншого стали наслідком обмеженості можливостей людства в аналізі величезного масиву інформації з метою прийняття раціональних рішень в режимі реального часу.

В середині ХХ століття людство відповіло на виклик щодо наявності когнітивних можливостей широким впровадженням інформаційних технологій практично в усі суспільні процеси. Поширеними стали автоматизація, комп'ютеризація, інформатизація, цифровізація, впровадження яких потребувало значних інтелектуальних, матеріально-технічних, фінансових, організаційних та інших ресурсів. Результатом стало прийняття та реалізація в багатьох державах світу національних програм розвитку інформаційного суспільства - суспільства, в якому сукупність суспільних відносин задля підвищення ефективності людської діяльності в різних сферах реалізується на основі використання інформаційних комп'ютерних технологій [1].

На сучасному етапі естафету з подолання обмеженості людських можливостей у процесі прийняття рішень підхопила технологія Інтернету речей - сукупність взаємодіючих технічних систем і комплексів, що складаються з мікропроцесорів, сенсорів, пристроїв, систем передачі даних, локальних і / або розподілених обчислювальних ресурсів і програмних засобів, зокрема програм штучного інтелекту (ШІ), призначених для реалізації суспільних відносин, в тому числі, пов'язаних з наданням послуг і проведенням робіт при безпосередній участі або без участі суб'єктів (юридичних або фізичних осіб) на основі використання великих даних і мережі Інтернет [2].

Фундаментальною перевагою технології Інтернету речей (ІР) є те, що за умови її використання рішення приймаються і виконуються в режимі реального часу на основі наявності потенційної можливості:

збору і обробки величезної кількості даних;

ідентифікації всіх суб'єктів і об'єктів, що беруть участь у процесах або є дотичними до них;

застосування роботів, які виконують різноманітні роботи та послуги в матеріальному світі;

застосування спеціальних математичних алгоритмів, зокрема алгоритмів штучного інтелекту (ШІ).

Поступово наприкінці 1990-х років сформувалася стійка думка про те, що використання систем зі штучним інтелектом відкриває позитивні перспективи вирішення локальних і глобальних проблем людства завдяки можливості приймати раціональні рішення, максимально релевантні обставинам, що змінюються, практично в режимі реального часу.

Уряди провідних країн, усвідомлюючи відповідальність за розвиток своїх держав і розуміючи переваги ШІ, в останні 3-4 роки розробляють та приймають відповідні національні стратегії, основною метою яких є забезпечення власної конкурентної переваги в міжнародній економіці. Наприклад, тільки за останні роки Австралія [3], Канада [4], Китай [5], Велика Британія [6], ЄС [7], Данія, Індія, Італія, Кенія, Малайзія, Мексика, Німеччина [8], Південна Корея [9], Сполучені Штати Америки [10], Нова Зеландія, ОАЕ, Польща, Росія, Сінгапур, Тайвань, Туніс, Україна, Фінляндія, Франція, Швеція, Японія та інші прийняли стратегії та інші урядові документи з використання та розвитку систем штучного інтелекту.

У національних стратегіях розвитку штучного інтелекту розглядається широкий спектр питань, пов'язаних із розробкою та розвитком технологій та іншими проблемами широкого використання систем зі ШІ (соціальними, економічними, політичними, технологічними, правовими тощо). Правові складові національних стратегій розвитку ШІ різняться між собою за змістом та підходами щодо системності розгляду проблем. Це зумовлено відмінностями в розумінні функціональних можливостей ШІ та, відповідно, його соціальної ролі [11].

21 квітня 2021 року в Європейському Союзі були оприлюднені пропозиції щодо правового регулювання застосування штучного інтелекту. Водночас, у різних країнах розпочалося активне обговорення ініціативи Європейської Комісії, яка запропонувала до розгляду інституціям ЄС та європейській спільноті довгоочікуваний документ з правового регулювання суспільних відносин, пов'язаних зі штучним інтелектом - Регламент Європейського Парламенту і Ради, що встановлює гармонізовані правила про штучний інтелект (Закон про штучний інтелект, 21 квітня 2021 р.) (далі - Регламент) [12].

Ця подія була сприйнята з ентузіазмом широким загалом вчених та експертів, оскільки нині понад 30 держав прийняли національні стратегії розвитку штучного інтелекту. Десять із них визначили в якості основної мети цих стратегій набуття статусу провідної держави в галузі розвитку та використання систем зі штучним інтелектом. Крім цього, майже усі держави задекларували необхідність правових досліджень та створення національного законодавства у сфері застосування штучного інтелекту [11].

Заслуговують на підтримку оцінки, що фактично ЄС першим у світі запропонував можливий варіант правового регулювання з питань застосування штучного інтелекту. Водночас, деякі автори не уникнули надто компліментарної реакції на цю подію, зазначаючи, що Регламент - це перша блискуча спроба Єврокомісії сформулювати закон, який можна застосовувати конкретно до штучного інтелекту [13] або, що ЄС очолює розробку нових глобальних норм, щоб переконатись, що ШІ можна довіряти [14]. При цьому, критики висловили іншу позицію, зазначаючи, що Регламент є ретроградним кроком, який призведе до подальшого відставання ЄС у глобальній боротьбі за домінування у секторі ШІ [15].

В сучасних умовах глобальних трансформацій, незалежно від подальшої дискусії навколо положень вказаного Регламенту та процесу їх опрацювання, цілком зрозумілою видається історична значущість самого факту його оприлюднення та подальшого формування нормативно-правової бази країн-членів ЄС з питань застосування штучного інтелекту.

Враховуючи надзвичайну актуальність вказаної проблеми, метою статті є дослідження основних пропозиції Європейської Комісії, викладених у проекті Закону про штучний інтелект від 21 квітня 2021 р.

Матеріали і методи

Для здійснення дослідження було застосовано систему методів наукового пізнання, зокрема загальнофілософський, загальнонаукові (діалектичний, аналізу, синтезу, абстрагування, аналогії), приватні методи наукового пізнання, що застосовуються в багатьох галузевих науках (порівняльний, кількісного й якісного аналізу), а також спеціально-юридичні (формально-юридичний, порівняльно- правовий, системно-структурний).

Загальнофілософський (універсальний) метод пізнання використовувався на всіх етапах пізнавального процесу. Діалектичний метод був використаний для аналізу доктринальних підходів до визначення терміну «штучний інтелект», який до теперішнього часу не отримав сталого визначення ні в праві, ні в доктрині, в тому числі з огляду на вітчизняний правовий та правозастосовний досвід. Оцінюючи діяльність у цій сфері, вчені та експерти зазначають, що штучний інтелект є швидко зростаючою і часто незрозумілою для широкого загалу галуззю технології, яка розпочнеться не завтра, а вже почалася й нині щоденно впливає на життя кожної людини. Історичний метод використано під час історико-правового аналізу формування інформаційного суспільства та процесів цифрової трансформації, завдяки чому встановлено, що наприкінці ХХ століття сформувалася стійка думка, що використання систем зі штучним інтелектом відкриває позитивні перспективи вирішення локальних і глобальних проблем людства. За цих умов Європейський Союз та низка країн світу прийняли стратегії та інші правові акти з питань використання і розвитку систем штучного інтелекту. Герменевтичний метод застосовувався при тлумаченні наукових понять теорії права та положень чинного законодавства. Метод дедукції надав можливість на основі доктринальних поглядів науковців вивести загальний висновок щодо основних засад та принципів визначення напрямів та змісту правового регулювання з питань штучного інтелекту. Індуктивний метод пізнання надав можливість одержати загальний висновок, що існує необхідність розробки набору базових правил застосування штучного інтелекту як на державному, так і на місцевому рівнях, який дозволить контролювати передові технології, що використовуються в нагляді держави за громадянами, на загальнодержавному рівні потрібно закріпити базовий захист громадян від надмірного державного моніторингу соціальних мереж та інших загальнодоступних даних.

Формально-логічний метод став у нагоді при аналізі змісту чинного європейського та вітчизняного законодавства щодо використання штучного інтелекту в різних сферах суспільного життя, з'ясуванні проблематики його законодавчої техніки у відповідних нормативно-правових актах. Завдяки порівняльно-правовому методу проведено компаративний аналіз і вивчено особливості законодавчого регулювання та захисту прав людини в умовах використання штучного інтелекту на предмет виявлення найбільш передових правових засобів, що можуть бути інкорпоровані до національного законодавства у відповідній сфері.

Свого застосування також дістали й спеціально-юридичні методи, зокрема формально-юридичний та системно-структурний використано при розробці та вивченні термінологічного апарату даної роботи, а саме при з'ясуванні змісту категорій «штучний інтелект», «інтернет речей», «інформаційне суспільство», «цифровізація», а також при формулюванні дефініції зазначених правових категорій.

Теоретичну основу дослідження становлять переважно наукові праці й висновки провідних зарубіжних фахівців, присвячені дослідженню проблем функціонування штучного інтелекту та захисту прав людини в умовах масової цифровізації суспільних відносин. Нормативна база для цього дослідження включає акти Європейського Парламенту, рекомендації Європейської комісії, нормативно-правові акти країн Європи, міжнародних організацій, чинні закони та інші нормативно-правові акти України, що регулюють суспільно-правові відносини, які виникають у зв'язку з застосуванням штучного інтелекту. Аналіз нормативно-правової бази свідчить про наявність у законодавстві ЄС необхідних правових засад та механізмів регулювання суспільних відносин у сфері цифрової трансформації та розвитку інформаційних технологій, продуктів і послуг. Емпіричну базу для дослідження становлять рішення Європейського Суду з прав людини, який активно враховує сучасні виклики правам людини при тлумаченні норм статей Європейської конвенції про захист прав людини і основних свобод. Окрім цього, в роботі використовуються доктринальні джерела, що розкривають зміст та характерні особливості застосування штучного інтелекту в умовах цифровізації, та пропонують перспективні шляхи захисту прав людини від можливих загроз.

Результати і обговорення

Слід зауважити, що розробці пропозицій до Регламенту Європейської комісії щодо правового регулювання застосування штучного інтелекту передувала досить напружена робота, починаючи з підготовки, обговорення та оприлюднення Резолюції Європейського Парламенту з рекомендаціями Комісії з питань цивільно-правових норм щодо робототехніки (лютий 2017 р.) [16] та закінчуючи Білою книгою про штучний інтелект: європейський підхід до досконалості та довіри (лютий 2020 р.) [17]. Власне основний зміст Білої книги, доопрацьований в ході відкритих обговорень, і було покладено в основу тексту проекту Регламенту Єврокомісії.

Стосовно обговорень проекту Білої книги слід зауважити, що протягом чотирьох місяців в он-лайн режимі було отримано та опрацьовано понад 1200 змін і доповнень до її тексту, зокрема: 352 - від компаній, підприємств та організацій; 406 - від приватних осіб (92% від громадян країн-членів ЄС); 152 - від дослідних установ; 73 - від державних органів; 160 - від інституцій громадянського суспільства; 22 - від профспілок. При цьому, 84 % пропозицій бізнесу і промисловості надійшло з 27 держав-членів ЄС [12].

Також необхідно звернути увагу, що вказані пропозиції викладені у формі Регламенту, який відповідно до Договору про функціонування Європейського Союзу [18], є нормативно-правовим документом прямої дії на всій території ЕС та не потребує додаткових зусиль щодо його імплементації в національні законодавства держав-членів ЄС.

Обраний вид законодавчого акту (Регламент) також свідчить про послідовну й наполегливу політику Європейського Союзу щодо створення єдиної, гармонізованої правової бази у сфері цифрової трансформації для усіх держав-членів, у тому числі з питань застосування штучного інтелекту.

Оцінюючи діяльність у цій сфері вчені та експерти зазначають, що штучний інтелект є швидко зростаючою і часто незрозумілою для широкого загалу галуззю технології [19], яка розпочнеться не завтра, а вже почалася й нині щоденно впливає на життя кожної людини [20].

Приведемо стислу характеристику запропонованого проекту Регламенту відповідно до прес-релізу Європейської Комісії [21].

По-перше, нове правове регулювання має застосовуватися безпосередньо та однаковим чином у всіх державах-членах ЄС на основі майбутнього визначення штучного інтелекту.

По-друге, все регулювання буде базуватись на підході, що ґрунтується на оцінці ризику: неприйнятний, високий, обмежений та мінімальний.

Неприйнятний ризик: системи ШІ, які вважаються явною загрозою безпеці, життєзабезпеченню та правам людини, будуть заборонені. До такого типу штучного інтелекту відносяться системи або програми, які маніпулюють поведінкою людини, намагаються подолати вільне волевиявлення користувачів (наприклад, іграшки, що використовують голосову допомогу, що заохочує небезпечну поведінку неповнолітніх), та системи, які надають змогу урядам здійснювати «соціальну оцінку» поведінки людей.

Високий ризик: системи ШІ, визначені як системи високого ризику, включають технології ШІ, що використовуються у:

критичній інфраструктурі (наприклад, на транспорті), що може загрожувати життю і здоров'ю громадян;

компонентах безпеки виробів (наприклад, застосування штучного інтелекту в хірургії з роботом);

працевлаштуванні, управлінні працівниками та доступі до самозайнятості (наприклад, програмне забезпечення для сортування резюме в інтересах процедури кадрового відбору);

правоохоронних органах, які можуть перешкоджати основним правам людей (наприклад, оцінка достовірності доказів);

системі відправлення правосуддя та демократичних процесах (наприклад, застосування законодавства до конкретної сукупності фактів).

Для допуску на вільний ринок системи ШІ з високим ризиком мають відповідати суворим вимогам до певних складових алгоритму та оброблення даних.

Обмежений ризик: системи ШІ з конкретними зобов'язаннями щодо прозорості їх застосування. Наприклад, користувачі таких систем ШІ, як чат-боти, мають право знати, що вони взаємодіють з машиною для прийняття власного рішення з цього приводу.

Мінімальний ризик: законодавча пропозиція дозволяє безкоштовно використовувати такі програми, як відеоігри з підтримкою ШІ або фільтри спаму. Проект Регламенту не передбачає регулювання таких випадків.

Що стосується управління процесами застосування систем ШІ, Європейська Комісія пропонує національним компетентним органам нагляду за ринком здійснювати нагляд за новими правилами, тоді як створення Європейської ради з питань штучного інтелекту сприятиме їх впровадженню, а також сприятиме розробці стандартів щодо ШІ. Крім цього, пропонуються добровільні кодекси поведінки зі штучним інтелектом, які не мають високого ризику, а також регуляторні механізми для сприяння відповідальним інноваціям.

Розглянемо основні правові засади, новації та механізми, запропоновані Регламентом для врегулювання питань застосування штучного інтелекту.

1) понятійно-категоріальний апарат. Перед Європейською Комісією та владними інституціями держав, при розробленні нормативно-правових актів, спрямованих на врегулювання суспільних відносин, що базуються на використанні інформаційних (цифрових) технологій, включаючи технології штучного інтелекту, завжди постає проблема визначення дефініцій нових термінів. Це пояснюється низкою причин, зокрема:

до сфери правового регулювання, як правило, нові терміни потрапляють із відповідних технічних, технологічних або інших галузей знань та практичної діяльності, які знаходяться в активній фазі свого розвитку;

дефініції новітніх термінів не є усталеними тому, що завжди існує велика вірогідність їх зміни під впливом нових наукових і науково-технічних здобутків. Більш того, навколо цих дефініцій в їх «рідній» галузі знань ще можуть відбуватися дискусії, а інтереси правового регулювання будуть потребувати застосування саме такого терміну;

дефініції одного і того ж терміну для різних галузей знань можуть мати різний зміст, який може має як однакові міждисциплінарні методологічні завдання, так і специфічні завдання для кожної галузі.

З урахуванням зазначеного, поряд з універсальними вимогами до термінологічних систем у праві, в останні десятиліття поширюється вимога щодо забезпечення правової визначеності: дефініція новітніх технологічно забарвлених термінів має бути максимально позбавлена технічних подробиць і деталей, щоб забезпечити дотримання важливого правового принципу технологічної нейтральності правового регулювання і забезпечити «довголіття» терміну, «поглинаючи» майбутні технологічні досягнення.

Саме тому у своєї відомої Резолюції (2017 р.) Європарламент констатував факт відсутності загальноприйнятої дефініції термінів «робот» та «штучний інтелект», які були б гнучкими і не перешкоджали інноваціям, та сформулював завдання Єврокомісії щодо розроблення визначення термінів кіберфізічних систем (IoT - авт.), автономних систем (систем ШІ - авт.), інтелектуальних автономних роботів та їх підкатегорій [16].

У 2018 р. в Стратегії «Штучний інтелект для Європи» Європейська Комісія вперше надала офіційне визначення цієї дефініції, а саме: штучний інтелект (ШІ) - це системи, які демонструють інтелектуальну поведінку, аналізуючи своє середовище і роблячи дії (з певним ступенем автономії) для досягнення конкретних цілей [22].

Протягом останніх років таке розуміння ШІ було змінено і в Регламенті з'явився новий варіант дефініції: система штучного інтелекту - це програмне забезпечення, розроблене за одним або декількома методами та підходами, переліченими у Додатку I (додаток до Регламенту - авт.), і може, для певного набору визначених людиною цілей, створювати результати, такі як вміст, прогнози, рекомендації, або рішення, що впливають на середовище, з яким вони взаємодіють [12].

До методів та підходів щодо створення програм ШІ, визначених в Додатку 1 Регламенту, відносяться:

підходи до машинного навчання, включаючи контрольоване і неконтрольоване навчання та навчання з використанням широкого спектру методів;

підходи, засновані на логікі та знаннях, включаючи індуктивне (логічне) програмування, бази знань, індуктивні та дедуктивні механізми, (символічні) міркування та експертні системи;

статистичні підходи, методи пошуку та оптимізації тощо.

Додаток 1 до Регламенту, як видається, слід сприймати як орієнтовний перелік методів та підходів щодо створення програм штучного інтелекту, складений до відома чи прикладу. Такий погляд підтверджується попередньою експертною оцінкою згідно з якою визначені у Додатку 1 Регламенту частина методів та підходів вважаються застарілими [13].

Відповідно, у статті 4 Регламенту зазначено, що Європейська Комісія уповноважена приймати акти для внесення змін до переліку методів та підходів, зазначених у Додатку I, з метою його оновлення з урахуванням розвитку технологічних розробок. Зрозуміло, що вичерпний перелік методів та підходів буде створювати суттєві бар'єри при віднесенні тих чи інших систем до систем штучного інтелекту, що перешкоджатиме розвитку інновацій та не сприятиме здійсненню належного правового регулювання доступу на ринок систем ШІ.

Основні засади та принципи щодо визначення напрямів та змісту правового регулювання з питань штучного інтелекту.

Аналіз нормативно-правової бази свідчить про наявність у законодавстві ЄС необхідних правових засад та механізмів регулювання суспільних відносин у сфері цифрової трансформації та розвитку інформаційних технологій, продуктів і послуг.

У Стратегії «Штучний інтелект для Європи» зазначається, що політика ЄС щодо ШІ спрямована на [22]:

підвищення технологічного і промислового потенціалу ЄС та поширення ШІ у приватному і державному секторах економіки;

підготовку до соціально-економічних змін, викликаних розвитком штучного інтелекту;

забезпечення відповідної етичної і правової бази, заснованої на цінностях Європейського Союзу та відповідно до Хартії основних прав в ЄС.

У Координаційному плані щодо штучного інтелекту (2018 р.) в частині створення належної та передбачуваної етичної і нормативно-правової бази у цій сфері передбачено, що вона має забезпечити [23]:

ефективні гарантії захисту основних прав і свобод;

довіру до штучного інтелекту;

безпеку інвестицій;

конкурентні переваги для європейських підприємств на світовому ринку.

Крім цього, взірцем у деяких підходах для вказаного Регламенту є Регламент Європейського Парламенту і Ради (ЄС) 2016/679 від 27 квітня 2016 року про захист фізичних осіб у зв'язку з опрацюванням персональних даних і про вільний рух таких даних (GDPR) [24].

Основна мета та цілі розроблення нормативно-правової бази для використання штучного інтелекту.

У Пояснювальному меморандумі до Регламенту Європейська Комісія визначає наступні конкретні цілі свої пропозиції:

гарантувати, що системи штучного інтелекту, які розміщуються на ринку Європейського Союзу та використовуються, є безпечними та поважають існуючий закон про основні права та цінності ЄС;

забезпечити правову визначеність для сприяння інвестиціям та інноваціям у ШІ;

посилити управління та ефективне застосування чинного законодавства про основні права та вимоги безпеки, що застосовуються до систем ШІ;

сприяти розвитку єдиного ринку законних, безпечних та надійних програм ШІ та запобігати фрагментації ринку.

Крім цього, у статті 1 Регламенту визначені:

гармонізовані правила розміщення на ринку, введення в експлуатацію та використання систем штучного інтелекту («системи ШІ») в ЄС;

заборони певних практик штучного інтелекту;

конкретні вимоги до систем ШІ з високим ризиком та зобов'язання для операторів таких систем;

гармонізовані правила прозорості для систем штучного інтелекту, призначених для взаємодії з фізичними особами, систем розпізнавання емоцій та біометричної системи класифікації, а також систем штучного інтелекту, що використовуються для генерації або маніпулювання вмістом зображень, аудіо чи відео;

- правила моніторингу та нагляду за ринком.

Водночас, дослідники звертають увагу на інші акценти мети, яку ставить Європейська Комісія, а саме:

забезпечення правових гарантій конфіденційності та основних прав європейських громадян з одночасним посиленням підтримки інвестицій та інновацій у розвиток штучного інтелекту в ЄС [20];

регулювання для усунення потенційних ризиків при розробці та експлуатації потенційно шкідливих продуктів і послуг, в яких використовується програмне забезпечення на основі машинного навчання та інших методів ШІ [13];

забезпечення правової визначеності для сприяння інвестиціям та інноваціям у ШІ [25];

формування своєї цифрової стратегії як такої, що надає пріоритет всебічним нормативним рамкам, спрямованим на посилення довіри до нових технологій та інновацій [26];

збільшення довіри до систем штучного інтелекту для забезпечення їх впровадження [27];

встановлення правових обмежень щодо використання поліцією розпізнавання обличчя [28] тощо.

Територіальне охоплення правового регулювання з питань штучного інтелекту.

Оскільки в якості зразка для певних правових механізмів застосування штучного інтелекту було взято GDPR, то в Регламенті задіяна аналогічна правова конструкція щодо визначення територіального охоплення. Запропонований в Регламенті екстериторіальний підхід щодо правового регулювання полягає в тому, що закордонні компанії, які хочуть продавати власні системи зі ШІ для використання в ЄС мають виконувати всі вимоги та положення Регламенту.

Запровадження принципу екстериторіальності щодо штучного інтелекту має вкрай важливі наслідки для економіки не лише ЄС, але і всього світу. Формулювання цього принципу в редакції: «якщо бажаєш просувати свої товари, які містять системи штучного інтелекту, то маєш виконувати вимоги Регламенту» означає, що вимоги Регламенту стосуються не лише безпосереднього виробника систем ШІ, але й усіх інших виробників до продукції яких в якості складових входять системи ШІ або інші вироби, що містять системи ШІ. Таким чином, оскільки Європейський Союз має розвинений ринок високотехнологічної продукції великої ємності, для значної частини країн світу, які будуть виробляти продукцію, що містить системи штучного інтелекту, ЄС по суті стає опосередкованим законодавцем.

Підходи до правового регулювання у сфері штучного інтелекту, що ґрунтуються на оцінках ризику.

Положення Регламенту для високо ризикованих систем ШІ визначають особливий порядок допуску на ринок ЄС шляхом створення та функціонування розгалуженої системи управління ризиками та якістю. Мова йде про використання ризик-орієнтованого підходу для регулювання порядку застосування систем ШІ, який широко використовується у нормативно-правових документах ЄС у сферах кібербезпеки, захисту персональних даних тощо.

На таку стратегію побудови правової бази Регламенту вченими та експертами звертається особлива увага, зокрема: однією з яскравих точок дотику з підходом GDPR є так званий «підхід, заснований на оцінці ризику» [20], Регламент про штучний інтелект проголошується як новий «GDPR для ШІ» [29]. При цьому, варто звернути увагу на деякі базові принципи.

Перший базовий правовий принцип - пряма заборона певних категорій систем ШІ.

Регламентом забороняється просування на ринок Євросоюзу систем ШІ, застосування яких є несумісним з європейськими цінностями, правами і свободами (стаття 5) [12], які:

використовують підсвідомі методики, які забезпечують істотне спотворення поведінки людини таким чином, щоб це завдало або могло завдати фізичну або психологічну шкоду;

використовують будь-яку вразливість певної групи осіб через їх вік, фізичні чи психічні вади, щоб істотно спотворювати поведінку людини, які відносяться до цієї групи, таким чином, щоб це завдало або могло завдати цій особі чи іншій особі фізичну або психологічну шкоду;

вводяться в експлуатацію або використовуються публічними органами влади для оцінки або класифікації репутації фізичних осіб або особистісних характеристик з соціальним балом, що призводить до наступного:

згубного чи несприятливого ставлення до певних фізичних осіб або груп в соціальному контексті, які не пов'язані з контекстами, відповідно до яких дані були спочатку створені або зібрані (мова йде про профілювання - авт.);

згубного чи несприятливого ставлення до певних фізичних осіб або груп, яке є невиправданим або непропорційним їх соціальній поведінки або її тяжкості;

використовуються у віддалених системах біометричної ідентифікації «в режимі реального часу» в публічних місцях для цілей правоохоронних органів.

Як видається, з погляду майбутньої правозастосовної практики, пункти 1) та

видаються найбільш дискусійними і такими, що потребують подальшого опрацювання з огляду на складність визначення чітких критеріїв причинно-наслідкових зв'язків між алгоритмом дії штучного інтелекту та факту завдання фізичної або психологічної шкоди, а також визначення певних алгоритмів ШІ такими, що реалізують підсвідомі методики, які однозначно мають мету нанесення шкоди.

Зазначене також підтверджується оцінками окремих авторів, наприклад, щодо недостатньої ясності та юридичної неоднозначності визначення систем ШІ з високим ризиком та визначення, що використовується для «підсвідомих методів», які застосовуються стосовно заборонених систем ШІ [30] або, що заборона на використання ШІ для певних сфер може призвести до обмеження конкуренції для європейських гравців та переміщенню інновацій з ЄС до інших країн [20] тощо.

Загалом, наявність в Регламенті прямої заборони доступу на ринок ЄС певних категорій систем ШІ може бути причиною критики цієї позиції Європейської Комісії. Однак, за нашими оцінками, розробники Регламенту цілком слушно вважають, що саме така концепція буде сприяти формуванню атмосфери довіри до виробів із штучним інтелектом у широких верств політиків, бізнесу і населення Європейського Союзу та інших держав, що співпрацюють з ЄС, за рахунок повного виключення випадків застосування систем ШІ, які реально можуть нанести шкоду.

Другий базовий правовий принцип - встановлення детального та всеосяжного правового режиму допуску високоризикованих систем штучного інтелекту на ринок ЄС.

Регламентом визначається клас високоризикованих систем ШІ, для якого встановлюється детальний правовий режим допуску на ринок ЄС. Основною метою цього режиму є виключення можливості нанесення шкоди при використанні високоризикованих систем ШІ або мінімізація ризиків отримання такої шкоди. Власне базова ідея всього Регламенту полягає саме у створенні правового забезпечення досягнення цієї мети.

У статті 6 Регламенту також викладено засади класифікації систем ШІ, згідно з якою вводиться термін «високоризикованого штучного інтелекту».

Високоризикований штучний інтелект - це така система ШІ, яка розміщується на ринку чи вводиться в експлуатацію незалежно від продуктів, зазначених у пунктах (а) та (б) та для якої виконуються обидві наступні умови:

а) система штучного інтелекту призначена для використання в якості компонента безпеки продукції, або ж вона сама є продукцією, на яку поширюється законодавство ЄС, наведене у Додатку II Регламенту;

б) продукція, компонентом безпеки якої є система штучного інтелекту, або сама система ШІ є продукцією, повинна пройти оцінку відповідності третьою стороною з метою розміщення на ринку або введення в експлуатацію цієї продукції відповідно до законодавства, наведеного у Додатку II Регламенту.

Крім загальних засад віднесення систем ШІ до високоризикованих у Додатку ІІІ до Регламенту наведено перелік систем ШІ, що віднесені до високоризикованих у зв'язку з їх застосуванням у таких сферах:

біометрична ідентифікація фізичних осіб;

управління та експлуатація критичної інфраструктури;

освіта та професійне навчання;

зайнятість, управління працівниками та доступ до самозайнятості;

доступ та користування приватними послугами і державними послугами та привілеями;

міграція, притулок та управління прикордонним контролем;

відправлення правосуддя та демократичні процеси.

Слід також зауважити, що особливу увагу в Регламенті приділено застосуванню систем штучного інтелекту, віднесених до високоризикованих та призначених для правоохоронної діяльності, зокрема:

використання правоохоронними органами ШІ для складання індивідуальних оцінок ризику фізичної особи щодо вчинення чи повторного вчинення злочину або ризику щодо потенційних жертв кримінальних правопорушень;

використання правоохоронними органами поліграфів та подібних інструментів або систем зі ШІ для виявлення емоційного стану фізичної особи;

використання правоохоронними органами ШІ для оцінки достовірності доказів у ході розслідування кримінальних правопорушень;

використання правоохоронними органами ШІ для прогнозування виникнення або повторення фактичного чи потенційного кримінального правопорушення на основі профілювання фізичних осіб або оцінки особистісних якостей та характеристики або минулої злочинної поведінки фізичних осіб або груп;

використання правоохоронними органами для профілювання фізичних осіб під час виявлення, розслідування або переслідування у кримінальних правопорушеннях;

аналізу злочинів щодо фізичних осіб, що надають можливість правоохоронним органам здійснювати пошук складних, пов'язаних та не пов'язаних між собою великих масивів даних, доступних у різних джерелах даних або в різних форматах даних, з метою виявлення невідомих закономірностей або виявлення прихованих взаємозв'язків у цих даних.

З огляду на поширення конфліктів у різних державах світу, пов'язаних з використанням систем публічного відеоспостереження зі ШІ з правоохоронною метою, цілком зрозумілою видається позиція Європейської Комісії у цій сфері.

Важливу думку в частині віднесення до високоризикованих систем ШІ, які використовуються у сфері зайнятості, управління працівниками та забезпечення доступ до самозайнятості, було оприлюднено Х. Монзон. Загалом підтримуючи підхід, реалізований у проекті Регламенту щодо обережної оцінки можливості застосування систем ШІ для оцінки чи надання певних характеристик персоналу внаслідок дуже великого ризику проявів непрямої дискримінації, вона звертає увагу, що це поняття не народилося внаслідок використання технологій, а пройшло до цього довгий і незалежний шлях, визнаний на рівні юриспруденції та нормативному рівні [31].

У контексті зазначеного слід звернути увагу, що створення алгоритмів майже усіх сучасних систем ШІ, які демонструють високу ефективність моделювання когнітивних функцій людини, базується на використанні різних методів машинного навчання (штучні нейронні мережі, глибинне навчання, індуктивне логічне програмування, баєсові мережі, навчання з підкріпленням тощо). Відповідно, для розробки і «навчання» алгоритмів систем штучного інтелекту як і для навчання дітей різного віку широко використовуються результати людського досвіду, представлені певною інформацією або у формі даних. При цьому, недоліки реальної людської діяльності знаходять відображення в інформації або даних, що використовуються і для «навчання» систем ШІ.

В цілому, як видається, причинами відомих нині проявів непрямої дискримінації та помилок, пов'язаних з використанням систем штучного інтелекту, є обставини, що історично складалися завдяки:

наявності певних упереджених традицій та звичаїв;

утворенню певної упередженої сукупності норм законодавства, кожна з яких окремо могла не визнаватись дискримінаційною;

застосуванню недосконало сформованих критеріїв оцінки або визначення окремих даних чи характеристик суб'єктів;

використанню не репрезентативного набору фактологічних чи інших даних про людину.

У «доалгоритмічну епоху» (коли були відсутні системи штучного інтелекту) ризик можливого прояву непрямої дискримінації за наявності вище названих обставин мінімізувався завдяки впливу досвіду, особистих якостей та вражень особи, яка приймала рішення стосовно надання тих чи інших оцінок людині. Це відбувалося тому, що особа, яка приймає рішення в частині визначення оцінки, крім оброблення звичайним набором людських когнітивних функцій певної сукупності фактологічної інформації про конкретну людину, застосовує ще й такі надскладні когнітивні функції як: співчуття, почуття гідності, поваги, емоції, емпатії тощо.

Таким чином, внаслідок застосування надскладних когнітивних функцій відбувалася компенсація недосконалості критеріїв, які застосовувались. Водночас, сучасна наука і техніка ще не демонструють прикладів, які б свідчили про можливість моделювання надскладних когнітивних функцій на алгоритмічному рівні. Тому сучасні моделі систем штучного інтелекту, безумовно, можуть допускати помилки при оцінки якостей людини, які стають причиною проявів непрямої дискримінації.

Вирішення проблеми високого ризику проявів непрямої дискримінації за умови використання систем ШІ видається можливим за такими напрямами:

Перший (внутрішній для систем ШІ) - вдосконалення можливостей систем ШІ в частині моделювання надскладних когнітивних функцій людини. Однак, цей шлях є довгим і недостатньо надійним в частині прогнозування результату.

Другий (зовнішній для систем ШІ) - це: а) відпрацювання більш точних, детальних та достовірних критеріїв оцінки тих чи інших якостей та характеристик людей за певним репрезативним набором фактологічних чи інших даних; б) вдосконалення системи права на рівні юриспруденції та на нормативному рівні з метою створення правових умов зниження ризиків можливого прояву непрямої дискримінації; в) попереднє максимальне очищення від можливих упереджень різної природи інформації та даних, які готуються для використання у «навчанні» систем ШІ.

Проблема непрямої дискримінації при застосуванні систем ШІ відома майже в усіх країнах світу. Наприклад, у травні 2021 року Робоча група з питань штучного інтелекту (ШІ) Палати представників США провела слухання на тему «Справедливі алгоритми: як орієнтований на людину штучний інтелект може боротися із системним расизмом та расовою несправедливістю у житлово-фінансових послугах» [32]. Учасниками слухань були висловлені наступні пропозиції: використовувати для аналізу неупереджені дані, вдосконалити урядові фінансові положення з метою зниження ризику нерівності, розробити більш репрезентативні та надійні масиви даних з нетрадиційних джерел тощо [33].

У запропонованому Європейською Комісією варіанті Регламенту ще залишається багато дискусійних питань, які потребують подальшого опрацювання. Але вкрай важливою для визначення подальшого вектору розвитку людства і правового регулювання штучного інтелекту є проблема передбачуваних та керованих відносин та визначення якою інформацією потрібно обмінюватися між людьми та роботами. В Регламенті Європейська Комісія врахувала майже всі рекомендації відомої Резолюції Європейського Парламенту (2017 р.) [16] за винятком зазначеної проблеми.

Запропонований проект Регламенту принципово не налаштований для застосування до автономних роботів, оскільки за наданим в ньому визначенні система штучного інтелекту може застосовуватися для певного набору визначених людиною цілей, створювати результати, такі як вміст, прогнози, рекомендації, або рішення, що впливають на середовище, з яким вони взаємодіють.

У Резолюції Європейського Парламенту (2017 р.) [16] робиться акцент на тому, що передбачувані та керовані відносини мають вирішальне значення для визначення того, якою інформацією потрібно обмінюватися між людьми та роботами, щоб забезпечити безперешкодні спільні дії між людиною і роботом. А тому рекомендує Єврокомісії подати таку пропозицію щодо законодавчого інструменту з правових питань, пов'язаних з розробкою та використанням робототехніки та ШІ, горизонт дії якої простягався би на майбутні 10-15 років, тобто на час протягом якого очікується бурхливий розвиток роботів та ШІ, передусім, в частині автономізації їх дій. При цьому зауважує, що майбутній законодавчий документ жодним чином не повинен обмежувати тип або розмір збитків, форми компенсації виключно на тій підставі, що шкоду завдає нелюдський агент.

І вже в окремому пункті Рекомендацій (п. 59) зовсім явно дає завдання Євро- комісії: вивчити, проаналізувати та розглянути наслідки усіх можливих правових рішень, таких як створення специфічного правового статусу для роботів, щоб можна було встановити принаймні для найскладніших автономних роботів статус електронних осіб, відповідальних за запобігання шкоди, яку вони можуть заподіяти, і, можливо застосування електронної правосуб'єктності у випадках, коли роботи приймають самостійні рішення або самостійно взаємодіють з третіми особами.

Європейський Парламент також побіжно визначає, що характерним критерієм автономності робота та штучного інтелекту є здатність до самонавчання. Нині ми є свідками того, що наука і практика знаходиться на порозі створення роботів зі штучним інтелектом та системами самонавчання нового покоління.

В цілому, як свідчить аналіз, у найближчій історичній перспективі постане вкрай актуальною проблема створення моделі правового регулювання розробки, впровадження і застосування роботів зі штучним інтелектом та можливостями для самонавчання. Її вирішенню, як видається, може сприяти запровадження нового терміну - «загальний штучний інтелект» (ЗШІ, Artificial General Intelligence, AGI) [34].

Сутність цього поняття може визначатися як сукупність комп'ютерних програм, що еквівалентно імітують (моделюють) когнітивні функції людини, які використовуються при реалізації будь-якого виду діяльності без участі людини для досягнення поставлених або самостійно визначених цілей відповідно до встановлених критеріїв і параметрів їх досягнення.

Поряд з викладеним варто зауважити, що українська правова наука поряд із вченими провідних країн світу вже активно рухається в контексті вивчення нагальних проблем правового регулювання з питань розробки, впровадження і застосування штучного інтелекту та робототехніки. Зокрема, на основі розглянутих та інших наукових здобутків [34, 2, 11, 35, 36, 37, 38, 39, 40 тощо] до затвердженої 26 березня 2021 р. Загальними зборами НАПрН України Стратегії розвитку Національної академії правових наук України на 2021-2025 роки (визначає пріоритетні напрями фундаментальних і прикладних досліджень, завдання та принципи подальшого розвитку правової науки, наукового забезпечення модернізації державно-правових відносин в Україні) було включено окремий розділ «Правове забезпечення у сфері цифрової трансформації».

Висновки

Розгляд проблеми правового регулювання у сфері застосування штучного інтелекту в контексті розвитку законодавства Європейського Союзу дає можливість дійти таких основних висновків і пропозицій.

Історико-правовий аналіз формування інформаційного суспільства та процесів цифрової трансформації свідчить, що наприкінці ХХ століття сформувалася стійка думка, що використання систем зі штучним інтелектом відкриває позитивні перспективи вирішення локальних і глобальних проблем людства. За цих умов Європейський Союз та низка країн світу (Австралія, Велика Британія, Індія, Канада, Китай, Малайзія, Мексика, Південна Корея, Сполучені Штати Америки, Японія та інші) прийняли стратегії та інші правові акти з питань використання і розвитку систем штучного інтелекту.

У вказаних документах розглядається широкий спектр актуальних проблем використання систем зі штучним інтелектом (соціальних, економічних, політичних, технологічних, правових тощо). Водночас, правові складові національних стратегій розвитку штучного інтелекту різняться між собою за змістом та підходами щодо системності розгляду реальних та потенційних проблем у цій сфері.

У контексті сучасних глобальних процесів перспективними видаються оприлюднені у квітні 2021 р. пропозиції Європейської Комісії щодо правового регулювання у сфері штучного інтелекту та прийняття Регламенту Європейського Парламенту і Ради, що встановлює гармонізовані правила про штучний інтелект - Закону про штучний інтелект (Artificial intelligence Act).

При цьому, Європейською Комісією визначено такі основні цілі правового регулювання у сфері штучного інтелекту:

гарантувати, що системи штучного інтелекту, які розміщуються на ринку Європейського Союзу та використовуються, є безпечними та поважають існуючий закон про основні права та цінності ЄС;

забезпечити правову визначеність для сприяння інвестиціям та інноваціям у штучний інтелект;

посилити управління та ефективне застосування чинного законодавства про основні права та вимоги безпеки, що застосовуються до систем штучного інтелекту;

сприяти розвитку єдиного ринку законних, безпечних та надійних програм штучного інтелекту та запобігати фрагментації ринку.

У сучасних умовах вкрай актуальною і складною науковою та прикладною проблемою постає створення моделі правового регулювання розроблення, впровадження і застосування роботів зі штучним інтелектом та можливостями для самонавчання.

При цьому, відповідно до правових актів ЄС передусім мають бути опрацьовані можливі наслідки усіх правових рішень у разі:

створення специфічного правового статусу для роботів зі штучним інтелектом;

встановлення для найскладніших автономних роботів статусу електронних осіб, відповідальних за запобігання шкоди, яку вони можуть заподіяти;

можливого застосування електронної правосуб'єктності у випадках, коли роботи приймають самостійні рішення або самостійно взаємодіють з третіми особами.

У контексті формування законодавства ЄС у сфері штучного інтелекту актуальним також постає питання створення національного законодавства у вказаній сфері. Його вирішенню сприятиме розвиток наукових досліджень з питань правового забезпечення у сфері цифрової трансформації, визначених Стратегією розвитку Національної академії правових наук України на 2021-2025 роки, зокрема щодо:

теоретико-методологічних засад формування і розвитку новітніх правових засад визначення понять, критеріїв, змісту та обсягів правоздатності, дієздатності й деліктоздатності штучного інтелекту і робототехніки, опрацювання проблем визначення їх спеціальної або загальної правосуб'єктності та юридичної відповідальності у цій сфері;

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.