Гармонізація процесів нормативного регулювання використання штучного інтелекту в Україні та інших країнах Європи

Дорожня карта з регулювання штучного інтелекту в Україні, етапи реалізації даної ініціативи. Кроки для віднайдення балансу між розвитком технологій і захистом прав людини. Процеси гармонізації нормативного регулювання. з європейським законодавством.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 11.06.2024
Размер файла 23,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Гармонізація процесів нормативного регулювання використання штучного інтелекту в Україні та інших країнах Європи

Яновицька Анна Віталіївна кандидатка юридичних наук, доцентка, доцентка кафедри господарсько-правових дисциплін, Львівський державний університет внутрішніх справ, м. Львів

Анотація

В Україні представлено Дорожню карту з регулювання штучного інтелекту (ШІ), яка окреслює загалом два етапи реалізації даної ініціативи. Остаточний результат очікується одержати у 2027 році із можливою імплементацією положень AI Act у національне законодавство. AI Act - це так званий закон про штучний інтелект ЄС, який Європейський парламент прийняв більшістю голосів. Однак, остаточний текст AI Act очікує ще офіційного схвалення Європейською Радою. Мета цього документа - сприяти використанню орієнтованого на людину та надійного штучного інтелекту, одночасно забезпечуючи високий рівень захисту.

Дорожня карта передбачає кроки для віднайдення балансу між розвитком технологій і захистом прав людини, водночас, покладається на результати кращих європейських практик. Задля цього Україна долучилась до методології HUDERIA. Методологія покликана дати розуміння, які системи ШІ є безпечними і не порушують права людини; визначити, які дії потрібно вжити для покращення системи ШІ, якщо вона виявляється ризикованою тощо. Також передбачається застосовувати «Sandbox».

Процеси гармонізації нормативного регулювання потребують дослідження його основних підходів. Особливу увагу заслуговують положення AI Act щодо сфери застосування та кола заборон. AI Act не розглядає ШІ як суб'єкт; усі поняття, визначені в документі, розглядаються через призму розуміння ШІ як елемента системи. Однак, наукова дискусія триватиме упродовж всього часу розвитку і вдосконалення ШІ, тому остаточні висновки робити занадто рано.

На даному етапі формування нормативного регулювання ШІ в Україні, цікавим є досвід Великої Британії. У країні прийнято Білу книгу, де не йдеться про прийняття спеціального нормативного акта, як це зроблено в ЄС, а робиться наголос на вдосконаленні існуючого законодавства. Разом з тим, відбувається активна міжнародна співпраця. Результати цієї співпраці будуть важливими для розвитку процесів застосування і регулювання ШІ у багатьох країнах.

Ключові слова. Штучний інтелект (ШІ), нормативне регулювання ШІ, технологія ШІ, AI Act, практика використання ШІ.

Annotation

штучний інтелект гармонізація європейське законодавство

Yanovytska Anna Vitaliivna Candidate of Juridical Sciences, Docent, Docent of the Department of Legal Commercial Disciplines, Lviv State University of Internal Affairs, Lviv

HARMONIZATION OF THE REGULATORY PROCESSES OF THE USE OF ARTIFICIAL INTELLIGENCE IN UKRAINE AND OTHER EUROPEAN COUNTRIES

In Ukraine, the Roadmap for the regulation of artificial intelligence (AI) has been presented, which outlines in general two stages of the implementation of this initiative. The final result is expected in 2027 with the possible implementation of the provisions of the AI Act into national legislation. The AI Act is the so-called EU regulation on artificial intelligence, which was adopted by the European Parliament by a majority vote. However, the final text of the AI Act still awaits official approval by the European Council. The purpose of this document is to promote the use of human-centered and reliable artificial intelligence, while ensuring a high level of protection.

The Roadmap provides steps to find a balance between technology development and human rights protection, while relying on the results of European best practices. For this purpose, Ukraine joined the HUDERIA methodology. The methodology is designed to provide an understanding of which AI systems are safe and do not violate human rights; determine what actions need to be taken to improve the AI system if it is found to be risky, etc. It is also planned to use "Sandbox".

The processes of harmonization of regulation require research into its main approaches. Special attention should be paid to the provisions of the AI Act regarding the scope of application and scope of prohibitions. The AI Act does not treat AI as a personality; all concepts defined in the document are considered through the lens of understanding AI as an element of a system. However, the scientific debate will continue throughout the development and improvement of AI, so it is too early to draw final conclusions.

At this stage of the formation of normative regulation of AI in Ukraine, the experience of Great Britain is interesting. The country has adopted a White paper, which does not refer to the adoption of a special regulatory act, as is done in the EU, but emphasizes the improvement of existing legislation. At the same time, there is active international cooperation. The results of this cooperation will be important for the development of AI application and regulation processes in many countries.

Keywords. Artificial intelligence (AI), AI regulation, AI technology, AI Act, AI practice.

Постановка проблеми

Штучний інтелект, його системи та процеси мають потенціал кардинально змінити людський досвід. Регуляторні акти розроблені та узгоджені за підтримки населення в усьому світі, покликані визначити свободи та права, які дозволяють кожній людині жити життям волі та гідності. Але в багатьох наборах принципів управління штучним інтелектом, створених компаніями, урядами, громадянським суспільством і міжнародними організаціями, права людини не закладені в основу. Загалом, проблема нормативного регулювання ШІ виникає із проблеми пошуку балансу між технологічним прогресом і задоволенням потреби людини бути єдиною «розумною істотою». Штучний інтелект як результат інтелектуальної діяльності людини, тепер і сам може виступати «творцем». Країни ЄС, Велика Британія та й Україна зараз активно напрацьовують шляхи збалансованого регулювання застосування ШІ у найрізноманітніших сферах життєдіяльності.

Аналіз останніх досліджень і публікацій. Потенціал застосування ШІ сприяв активізації наукових досліджень у різних галузях. В останні роки, у сфері юриспруденції це дослідження науковців, які, серед іншого, зазвичай стосуються питань юридичної природи ШІ: об'єкт чи суб'єкт правовідносин (О. Зозуляк, К. Некіт, Є. Тимошенко та ін.), відповідальності і відшкодування шкоди, завданої ШІ (М. Великанова, Р. Майданик, О. Радутний та ін. ) та, звісно, місця ШІ у праві інтелектуальної власності (У. Андрусів, А. Каткова, М. Уткіна, І. Якубівський та ін.).

Мета даної статті- визначити основні процеси, які супроводжують розроблення нормативного регулювання ШІ у країнах ЄС та Великій Британії; встановити особливості нормативного регулювання ШІ і потенціал України у цій сфері.

Виклад основного матеріалу

У жовтні 2023 року Міністерством цифрової трансформації України представлено Дорожню карту з регулювання штучного інтелекту (ШІ) в Україні [1] (далі - Дорожня карта). Доволі лаконічний документ, окреслює загалом два етапи реалізації даної ініціативи: перший - «позазаконодавчий трек», який вміщує підготовчий процес, застосу¬вання регуляторної пісочниці (т. з. Sandbox), проведення консультаційних заходів тощо. Водночас, цей етап охоплює трирічний термін (2023-2025 роки) і супроводжує реалізацію другого етапу - «законодавчий трек». «Таймлайн» цього етапу розпочинається у 2024 році, коли у ЄС відбудеться прийняття відповідного регулюючого акта (далі - AI Act), і має завершитись у 2027 році із можливою імплементацією положень AI Act у національне законодавство.

9 грудня 2023 р., Парламент і Рада ЄС досягли попередньої згоди щодо закону про штучний інтелект (AI Act). Уже 13 лютого 2024 року - Комітети з питань внутрішнього ринку та громадянських свобод проголосували «за» - 71, «проти» - 8 (7 утрималися) за схвалення результатів переговорів з державами- членами щодо AI Act. 27 держав-членів ЄС одноголосно схвалили AI Act, підтверджуючи політичну угоду, досягнуту в грудні [2]. 13 березня 2024 року

Європейський парламент прийняв AI Act більшістю в 523 голоси «за», 46 «проти» і 49 утрималися. Очікується, що Європейська Рада офіційно схвалить остаточний текст AI Act впродовж квітня 2024 року. Після цього останнього офіційного кроку та завершення лінгвістичної роботи над AI Act, він буде опублікований в Офіційному журналі ЄС та набере чинності через 20 днів після такого опублікування [3].

По своїй суті AI Act є «горизонтальним», тобто запроваджує правила для використання ШІ в усіх секторах і галузях [4]. Його мета - сприяти використанню орієнтованого на людину та надійного штучного інтелекту, одночасно забезпечуючи високий рівень захисту здоров'я, безпеку та основні права, закріплені у Хартії, включаючи демократію, верховенство права та захист навколишнього середовища від шкідливого впливу систем штучного інтелекту в Союзі та підтримку інновацій. Цей акт встановлює: (а) гармонізовані правила розміщення на ринку, введення в експлуатацію та використання систем ШІ у Союзі; (b) заборони певних практик штучного інтелекту; (c) особливі вимоги до систем ШІ з високим рівнем ризику та зобов'язання для операторів таких систем; (d) гармонізовані правила прозорості для певних систем ШІ; (e) правила ринкового моніторингу, управління ринковим наглядом та правозастосування [5].

Дослідження процесів з напрацювання положень AI Act, продемонстрували деякі потенційні проблеми. Зокрема, рівень ризику при застосуванні тої чи іншої системи ШІ залежить від контексту, в якому застосовується система, а тому не може бути повністю визначений заздалегідь; може виникати ризик, що регулюванням технологій ШІ, які вже використовуються в різних сферах, будуть займатись зовсім різні органи влади; регуляторні норми можуть по-різному тлумачитися та застосовуватися [4].

Очевидно з метою уникнення подібних проблем, Дорожня карта передбачає кроки для віднайдення балансу «між інтересам бізнесу і забезпеченням належного рівня захисту громадян від ризиків ШІ». Разом з тим, «рано чи пізно Україна повинна буде імплементувати AI Act Європейського Союзу як одну з умов євроінтеграції в цифровій сфері» [1].

На даному етапі AI Act складається із дванадцяти розділів та додатків: Розділ I: Загальні положення; Розділ II: Заборонені практики штучного інтелекту; Розділ III: Система штучного інтелекту високого ризику; Розділ IV: Зобов'язання щодо прозорості для постачальників і розгортачів певних систем ШІ та моделей GPAI; Розділ V: Заходи на підтримку інновацій; Розділ VI: Управління; Розділ VII: База даних ЄС для систем штучного інтелекту високого ризику, перелічених у Додатку III; Розділ VIII: Постринковий моніторинг, обмін інформацією, ринковий нагляд; Розділ VIIIA: Моделі ШІ загального призначення; Розділ IX: Кодекси поведінки; Розділ X: Конфіденційність і штрафні санкції; Розділ XI: Делегування повноважень і процедура комітету; Розділ XII: Прикінцеві положення [5].

На особливу увагу заслуговують положення щодо сфери застосування AI Act та заборон [5]. Так, у загальному забороняється (стаття 5) розміщення на ринку, введення в експлуатацію або використання системи штучного інтелекту, яка: має вплив на підсвідомість, навмисно маніпулює та вводить в оману людину із метою нав'язати певне рішення, яке б за інших обставин особа не прийняла, і яке завдало чи може завдати значну шкоду; використовує будь-яку вразливість особи або певної групи осіб (вік, інвалідність тощо); використовує системи категоризації фізичних осіб за біометричними даними, релігійними переконаннями, політичними поглядами тощо, чи здійснює категоризацію протягом певного періоду часу на основі соціальної поведінки особи; використовує системи дистанційної біометричної ідентифікації «в режимі реального часу» в загальнодоступних місцях; створює або розширює бази даних розпізнавання облич; оцінює або прогнозує ризики вчинення фізичною особою кримінального правопорушення; спрямована на розпізнання емоцій фізичної особи на робочому місці та в навчальних закладах.

Разом з тим, наведені заборони мають окремі винятки як і застосування самого AI Act. Так, наприклад, розміщення на ринку, введення в експлуатацію з цією конкретною метою або використання систем ШІ для визначення емоцій фізичної особи на робочому місці та в навчальних закладах, можливе за випадків, коли використання системи ШІ обумовлене медичними причинами або з міркувань безпеки (стаття 5). Щодо документа загалом, то, наприклад, його положення не поширюється на системи та моделі штучного інтелекту, включаючи їхні результати, спеціально розроблені та введені в експлуатацію виключно з метою наукових досліджень і розробок; не застосовується до систем штучного інтелекту, якщо вони розміщуються на ринку, вводяться в експлуатацію або використовуються з або без модифікації таких систем виключно для військових цілей, оборони чи національної безпеки, незалежно від типу суб'єкта, що здійснює таку діяльність (стаття 2) та ін.

Важливо зауважити, що незважаючи на формулювання «штучний інтелект», AI Act не розглядає його як суб'єкт, усі поняття, визначені в документі, розглядаються через призму розуміння ШІ як елемента системи. «Система штучного інтелекту» означає машинну систему, розроблену для роботи з різними рівнями автономності і може проявляти адаптивність після розгортання та яка, для явних чи неявних цілей, робить висновок, на основі вхідних даних, які вона отримує, як генерувати результати, такі як прогнози, вміст, рекомендації або рішення, які можуть впливати на фізичне або віртуальне середовище.

Наведене положення є важливим, враховуючи багаторічні дискусії щодо можливих підходів до розуміння ШІ і ризики, які з цього випливатимуть. Так, О. Радутний у своєму дослідженні припускає, що штучний інтелект, так само як і людина, може мати здатність усвідомлювати фактичну сторону того, що відбувається, усвідомлювати суспільну небезпечність свого діяння, яке реалізується в інформаційному просторі або завдяки роботизованим консолям, а тому може бути визнаним суб'єктом злочину [6, с. 111]. Натомість, Є. Тимошенко звертає увагу на те, що правовий статус робота не може бути отриманий з моделі фізичної особи. Оскільки тоді робот буде мати права людини - право на гідність, недоторканність, винагороду, громадянство і т.д, а це суперечить Хартії основних прав ЄС і Конвенції про захист прав людини і основних свобод. Правовий статус не може бути отриманий і з моделі юридичної особи, оскільки вона передбачає наявність людей, які представляють її та керують нею. Штучний інтелект, фізично втілений в об'єкт робототехніки, повинен розглядатися в якості суб'єкта правовідносин, можливо, десь посередині між юридичними і фізичними особами, поєднуючи їх окремі риси з урахуванням відповідної специфіки [7, с.330]. Слід зауважити, що особливість ШІ полягає у тому, що потенціал його застосування не обмежується однією сферою людської життєдіяльності.

Очевидно, що дана дискусія триватиме упродовж всього часу розвитку і вдосконалення ШІ, тому остаточні висновки робити занадто рано. Водночас, варто погодитись, що на сьогодні врегульовувати застосування ШІ слід через поняття його як об'єкта. Більше того, у певній ситуації, слушно зауважує А. Каткова, що ШІ потрібно сприймати як джерело підвищеної небезпеки та розглядати з урахуванням всіх специфічних умов відповідальності за завдану шкоду з боку саме джерела підвищеної небезпеки, що вже встановлено нормами чинного законодавства України [8, с 49].

У ЄС для уникнення ризиків, Комітет з штучного інтелекту (CAI) Ради Європи розробляє методологію HUDERIA (Human Rights, Democracy, and the Rule of Law Impact Assessment). Ця методологія покликана дати розуміння, які системи ШІ є безпечними і не порушують права людини; визначити, які дії потрібно вжити для покращення системи ШІ, якщо вона виявляється ризикованою. Для цього HUDERIA має етапи: (1) ідентифікація ризику системи ШІ: визначення того, чи становить система ШІ певний ризик; (2) оцінка впливу: залучення стейкхолдерів для покращення якості (точності) оцінки рівня ризику і впливу системи ШІ на вищезазначені права та безпосередньо сама оцінка; (3) оцінка управління: відповіді на соціотехнічні питання та питання, що стосуються прав людини, демократії та верховенства права; (6) пом'якшення негативного впливу та оцінка системи ШІ: визначення відповідних заходів з пом'якшення впливу системи ШІ та забезпечення постійної оцінки [9]. Дорожня карта передбачає участь України у цьому проекті та адаптацію методології HUDERIA для розроблення вітчизняного нормативного регулювання ШІ.

Також запровадження регуляторних «Sandbox» штучного інтелекту, за вимогами AI Act, має забезпечувати контрольоване середовище, яке сприяє інноваціям і розробці, навчанню, тестуванню та перевірці інноваційних систем штучного інтелекту протягом обмеженого часу до їх розміщення на ринку або введення в експлуатацію, відповідно до конкретного плану «пісочниці», погодженого між потенційними постачальниками та компетентним органом. Дорожня карта також передбачає застосування цього інструмента, хоча його сутність не розкривається. Вочевидь, тут потрібно враховувати результатив¬ність європейських «Sandbox».

Слід звернути увагу, що питанням нормативного регулювання ШІ активно займаються і у Великій Британії. М. Донелан зазначає, що у Великій Британії розташована третина європейських компаній зі штучним інтелектом і вдвічі більше, ніж у будь-якій іншій європейській країні; надзвичайно важливо зробити все можливе, щоб створити належне середовище для використання переваг ШІ та залишатися в авангарді технологічних розробок. Оскільки ШІ вже входить у наше повсякденне життя, є численні приклади, які можуть допомогти проілюструвати реальні, відчутні переваги, які ШІ може принести; разом з тим, сама швидкість змін може викликати занепокоєння [10].

Таким чином мінімізація ризиків і збільшення переваг застосування ШІ у Великій Британії покладається на системну роботу, окреслену у так званій Білій книзі. Слід зауважити, що у зазначеному документі не йдеться про прийняття спеціального нормативного акта, як це зроблено в ЄС. Увага зосереджується на наявному нормативному регулюванні, його вдосконаленні і практиці застосування: «закони Великобританії, регуляторні органи та суди вже розглядають деякі нові ризики, пов'язані з технологіями ШІ» [10]. Разом з тим, у Білій книзі йдеться й про те, що слід прослідковувати неузгодженості у законодавчому регулювання ШІ; забезпечувати пропорційність розподілу компетенції між регулюючими органами, щоб по-перше, регулятивний тягар не лягав непропорційно на менші компанії, а по-друге, щоб деякі регулюючі органи не почали домінувати та тлумачити сферу своїх повноважень або ролі ширше, ніж це було задумано.

Видається, що на даному етапі формування нормативного регулювання ШІ в Україні, наведений підхід доцільно запозичити. У деякій мірі, реформування чинного законодавства уже відбувається із врахуванням сучасних викликів, які задає ШІ. Так, у новому Законі України «Про авторське право і суміжні права» визначено, що комп'ютерна програма може згенерувати об'єкт, що відрізняється від існуючих подібних об'єктів та утворений у результаті функціонування комп'ютерної програми без безпосередньої участі фізичної особи в утворенні цього об'єкта, але який вважатиметься неоригіна- льним об'єктом. У результаті утворення неоригінального об'єкта, згенерова- ного комп'ютерною програмою, особисті немайнові права не виникають; а результат охороняється правом особливого роду (sui generis) [11]. Слушно зауважує І. Якубівський, що оновлений ЦК України теж повинен відображати ці останні тенденції та зафіксувати віднесення згаданих об'єктів до об'єктів права інтелектуальної власності [12, с.191].

Поряд із цим, звертаючись до наявної Дорожньої карти, цікавими є положення про те, що Україна декларує слідування принципу виваженості - «ми не прагнемо впровадити регулювання одними з перших, натомість очікуємо на результати подібних ініціатив в інших країнах (вчимось на чужих помилках)» та, разом з цим, відмовляємось «від розробки суперечливих АІ Act стандартів чи заміни, змішування або запозичення вимог щодо регулювання штучного інтелекту з законів і політик інших держав» [1].

У рамках міжнародної співпраці, у тому числі заради досягнення Цілей сталого розвитку ООН, країни все більше зосереджують зусилля на координації діяльності щодо ШІ. Так, ще у листопаді 2023 року, за участі країн-учасниць Саміту з безпеки ШІ і у тому числі України, було підписано так звану «Декларацію Блетчлі» [13]. Мета документа - сформувати позицію, яка контролюватиме розвиток штучного інтелекту та гарантуватиме безпечний розвиток технології загалом. Нещодавно, на початку квітня 2024 року, стало відомо про підписання угоди про перевірку безпеки великих мовних моделей (LLM), які лежать в основі систем ШІ, між США та Великобританією. Угода (MoU), підписана у Вашингтоні міністром торгівлі США Д. Раймондо та міністром технологій Великої Британії М. Донелан, передбачає, що обидві країни працюватимуть над узгодженням своїх наукових підходів і тісно співпрацюватимуть над розробкою наборів оцінок для моделей ШІ, систем та агентів [14]. Видається, що результати цієї співпраці будуть важливими для розвитку процесів застосування і регулювання ШІ у багатьох країнах.

Висновки

Потенціал застосування ШІ достатньо широкий, а це потребує детального аналізу усіх реальних та потенційних ризиків. Формування Дорожньої карти з регулювання штучного інтелекту в Україні є безумовно важливим кроком, але разом з цим, не можна покладатись лише на єдиний результат - схвалення документа, який врегульовуватиме застосування ШІ на подобі AI Act у ЄС. Видається позитивним і таким, що потребуватиме подальших досліджень, процес реформування уже діючого законодавства України з тим, щоб саме зараз сприяти розвитку технологічного прогресу і, разом з тим, забезпечувати права і свободи кожного громадянина.

Література

1.Дорожня карта з регулювання штучного інтелекту в Україні. 2023. Міністерство цифрової трансформації України. URL: https://cms.thedigital.gov.ua/storage/uploads/files/ page/community/docs/%D0%94%D0%BE%D 1%80%D0%BE%D0%B6%D0%BD%D 1%8F_% D0%BA%D0%B0%D 1 %80%D 1%82%D0%B0_%D0%B7_%D1%80%D0%B5%D0%B3%D 1 % 83%D0%BB%D1%8E%D0%B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%A8%D0%86_% D0%B2_%D0%A3%D0%BA%D1%80%D0%B0%D1%97%D0%BD%D1%96_compressed.pdf

2.EU Artificial Intelligence Act. Timeline of Developments. 2024. URL: https:// artificialintelligenceact.eu/developments/

3.European Parliament Approves the AI Act. 2024. Hunton Andrews Kurth's Privacy & Information Security Law Blog. URL: https://www.huntonprivacyblog.com/2024/03/13/european- parliament-approves-the-ai-act/

4.Бойко Д. Штучний інтелект в ЄС і Британії: порівняння регуляторних підходів. 2023. Центр Дністрянського. Публікації. URL: https://dc.org.ua/news/shtuchnyy-intelekt-v-es- i-brytaniyi-porivnyannya-regulyatornyh-pidhodiv

5.The EU Artificial Intelligence Act. Final Draft of the Artificial Intelligence Act as of 21st January 2024. URL: https://artificialintelligenceact.eu/ai-act-explorer/

6.Радутний О.Е. Штучний інтелект як суб'єкт злочину. Інформація і право. 2017. № 4(23). С. 106-115.

7.Тимошенко Є.А. Штучний інтелект як суб'єкт права інтелектуальної власності. Часопис Київського університету права. 2020. №4. С.328-332.

8.Каткова Т. Г. Штучний інтелект в Україні: правові аспекти. Право і суспільство. №6. 2020. С. 46-55.

9.HUDERIA: етичний компас для штучного інтелекту. 2023. Центр демократії та верховенства права. URL: https://cedem.org.ua/consultations/huderia/

10.A pro-innovation approach to AI regulation. Policy paper. 2023. URL: https://www.gov.uk/ government/publications/ai-regulation-a-pro-innovation-approach/white-paper

11.Про авторське право і суміжні права: Закон України від 01.12.2022 № 2811-IX. URL: https://zakon.rada.gov.ua/laws/show/2811-20#n461

12.Якубівський І.Є. Об'єкти права інтелектуальної власності в контексті оновлення цивільного кодексу України. Актуальні питання модернізації приватно-правових відносин: європейський досвід та перспективи. Матвєєвські цивілістичні читання. Матеріали міжн. наук.-практ. конф. Київ, 20 жовт. 2023 р. / В. В. Цюра, В. О. Бажанов, Б. С. Щербина та ін.; відп. ред. В. В. Цюра. К.:2023. С. 187-191.

13.The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. Policy paper. 2023. URL: https://www.gov.uk/government/publications/ai-safety-summit- 2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety- summit-1-2-november-2023

14.Ghoshal А. US and UK sign agreement to test the safety of AI models. СІО. 2024. URL: https://www.cio.com/article/2076986/us-and-uk-sign-agreement-to-test-the-safety-of-ai-models.html

References

1.Dorozhnia karl^ z rehuliuvannia shtuchnoho intelektu v Ukraini. (2023). [Roadmap for regulation of artificial intelligence in Ukraine]. Ministry of Digital Transformation of Ukraine. Retrieved from https://cms.thedigital.gov.ua/storage/uploads/files/page/community/docs/%D0% 94%D0%BE%D1%80%D0%BE%D0%B6%D0%BD%D 1 %8F_%D0%BA%D0%B0%D1 %80% D1%82%D0%B0_%D0%B7_%D1%80%D0%B5%D0%B3%D1%83%D0%BB%D1%8E%D0% B2%D0%B0%D0%BD%D0%BD%D1%8F_%D0%A8%D0%86_%D0%B2_%D0%A3%D0% BA%D 1%80%D0%B0%D 1%97%D0%BD%D 1%96_compressed.pdf [in Ukrainian].

2.EU Artificial Intelligence Act. Timeline of Developments. (2024). Retrieved from https://artificialintelligenceact.eu/developments/ [in English].

3.European Parliament Approves the AI Act. (2024). Hunton AndrewsKurth'sPrivacy & Information Security Law Blog. Retrieved from https://www.huntonprivacyblog.com/2024/03/13/ european-parliament-approves-the-ai-act/ [in English].

4.Boiko D. (2023). Shtuchnyi intelekt v YeS i Brytanii: porivniannia rehuliatornykh pidkhodiv. [Artificial intelligence in the EU and Britain: a comparison of regulatory approaches]. Dnistryanskyi Center. Publications. Retrieved from https://dc.org.ua/news/shtuchnyy-intelekt-v- es-i-brytaniyi-porivnyannya-regulyatornyh-pidhodiv [in Ukrainian].

5.The EU Artificial Intelligence Act. Final Draft of the Artificial Intelligence Act as of 21st January 2024. (2024). Retrieved from https://artificialintelligenceact.eu/ai-act-explorer/ [in English].

6.Radutnyi O. E. (2017). Shtuchnyi intelekt yak subiekt zlochynu. [Artificial intelligence as a subject of crime]. Informatsiia iparvo - Information and law. № 4(23). P. 106-115. [in Ukrainian].

7.Tymoshenko Ye. A. (2020). Shtuchnyi intelekt yak subiekt prava intelektualnoi vlasnosti. [Artificial intelligence as a subject of intellectual property law]. Chasopys Kyivskoho universytetu prava - Journal of the Kyiv University of Law. №4. С.328-332. [in Ukrainian].

8.Katkova T. H. (2020). Shtuchnyi intelekt v Ukraini: pravovi aspekty. [Artificial intelligence in Ukraine: legal aspects]. Pravo i suspilstvo - Law and society. №6. С. 46-55. [in Ukrainian].

9.HUDERIA: etychnyi kompas dlia shtuchnoho intelektu. [HUDERIA: Ethical Compass for Artificial Intelligence]. (2023). Center for Democracy and the Rule of Law. Retrieved from https://cedem.org.ua/consultations/huderia/ [in Ukrainian].

10.A pro-innovation approach to AI regulation. Policy paper. (2023). Retrieved from https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper [in English].

11.Pro avtorske pravo i sumizhni prava: Zakon Ukrainy [On copyright and related rights: Law of Ukraine] (2022) № 2811-IX. Retrieved from https://zakon.rada.gov.ua/laws/show/2811- 20#n461 [in Ukrainian].

12.Yakubivskyi I. Ie. (2023) Obiekty prava intelektualnoi vlasnosti v konteksti onovlennia tsyvilnoho kodeksu Ukrainy. [Objects of intellectual property law in the context of updating the Civil Code of Ukraine]. Aktualni pytannia modernizatsii pryvatno-pravovykh vidnosyn: yevropeiskyi dosvid ta perspektyvy. Matvieievski tsyvilistychni chytannia. - Current issues of modernization of private legal relations: European experience andperspectives. Matveev's civic readings. Materials of international science and practice conf. Kyiv, October 20 2023 / V. V. Tsyura, V. O. Bazhanov, B. S. Shcherbina, etc.; resp. ed. V. V. Tsyura. К.: С. 187-191. [in Ukrainian].

13.The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. Policy paper. (2023). Retrieved from https://www.gov.uk/government/publications/ai- safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the- ai-safety-summit-1-2-november-2023 [in English].

14.Ghoshal А. (2024). US and UK sign agreement to test the safety of AI models. СІО. Retrieved from https://www.cio.com/article/2076986/us-and-uk-sign-agreement-to-test-the-safety- of-ai-models.html [in English].

Размещено на Allbest.ru

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.