Правове регулювання використання алгоритмів для прийняття юридично значущих рішень

У статті розглянуті доктринальні та нормативні джерела ЄС та США, розгляд наявного досвіду використання алгоритмічних систем при прийнятті юридично значущих рішень. Встановлено існування різних підходів до реалізації права на роз'яснення рішень.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 23.01.2024
Размер файла 26,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Правове регулювання використання алгоритмів для прийняття юридично значущих рішень

Токарева Віра Олександрівна,

кандидат юридичних наук, доцент, доцент кафедри цивільного права

Національного університету "Одеська юридична академія"

правове регулювання використання алгоритмів для прийняття юридично значущих рішень

Анотація

У статті розглянуті доктринальні та нормативні джерела ЄС та США, розгляд наявного досвіду використання алгоритмічних систем при прийнятті юридично значущих рішень. Юридично значущі рішення, які донедавна, приймалися людьми, такі як отримання соціальної виплати, банківського кредиту, укладення договору страхування, наразі, автоматизуються та передаються для оцінки ризиків системам ШІ. Приділено увагу правовому регулюванню використання алгоритмічних систем при прийнятті юридично значущих рішень стосовно фізичних осіб відповідно до Регламенту ЄС 2016/679. Встановлено, що з огляду на різний рівень втручання людини у процес прийняття рішення розрізняють системи прогнозування: повністю автоматизованого прийняття рішень, які не залежать від участі людини та частково автоматизовані із остаточним прийняття рішення людиною. Здатність алгоритмізованих систем передбачати майбутні події, поведінку фізичної особи та надавати юридичну оцінку поведінці на підставі аналізу персональних даних та вчинків в мережі обумовлює поширення використання алгоритмізованих систем при прийнятті рішень. Встановлено існування різних підходів до реалізації права на роз'яснення рішень прийнятих із використанням штучного інтелекту у США та ЄС. Держави ЄС традиційно приділяють значну увагу дотриманню прав та свобод людини, а вимоги забезпечення прозорості діяльності органів державної влади та виконання обов'язків контролерами із розкриття певних даних передбачені в окремих положеннях держав членів. Проведено аналіз доктринальних підходів до тлумачення статті 22 Регламенту ЄС 2016/679. Проаналізовані позиції науковців, які покладають на контролерів обов'язок, у разі використання алгоритмів при прийнятті юридично значущих рішень, розкривати суб'єкту даних повну інформацію про логіку, алгоритм прийняття рішення, навіть, технічну складову. Розглянуто протилежний підхід науковців які стверджують про відсутність у діючому європейському законодавстві вимоги розкривати інформацію про логіку прийняття рішень із алгоритмом.

Встановлено, що для уникнення негативних наслідків прийняття рішень із використанням алгоритмів має стати забезпечення у законодавстві право фізичної особи на отримання інформації про логіку та роз'яснення індивідуального юридично значущого рішення прийнятого із використанням алгоритму. юридичний право алгоритмічний

Ключові слова: фізична особа, особисті немайнові права, права людини, цифрові права, персональні дані, захист персональних даних, дискримінація, цифровізація, штучний інтелект, правосуб'єктність.

Tokareva Vira

Legal regulation of the use of decision-making with the help of algorithms

The article discusses the doctrinal and regulatory sources of the EU and the USA. The legal regulation of using algorithmic systems to automated individual decision-making, including profiling is revealed. Until recently, legally significant decisions that were made by humans, such as receiving a social benefit, a bank loan, or entering into an insurance contract, are now being automated and transferred to AI systems for risk assessment. The use of automated decision-making systems in the economic sector, public services based on big data analysis technologies, saves human resources and increases the efficiency of decision-making. The legal regulation of automated individual decision-making, including profiling regarding natural person in accordance with The EU General Data Protection Regulation 2016/679 is revealed. It has been established that due to the different level of human intervention in the decision-making process, forecasting systems are distinguished: fully automated decision-making that does not depend on human participation and partially automated with the final decision-making by a natural person. A specific method of data mining is profiling, which does not grant enough autonomy and self-determination of the individual. It is found that there are different approaches to the exercise of the right to clarification of decision-making algorithm in the USA and the EU. The EU States traditionally pay considerable attention to the observance of human rights and freedoms, and the requirements for ensuring transparency of public authorities and fulfillment of the obligations of controllers to disclose certain data are provided for in certain provisions of the Member States. The doctrinal approaches to the interpretation of Article 22 of EU Regulation 2016/679 were analyzed. It is found that there is a position of scholars who impose on controllers the obligation to disclose to the data subject full information about the logic, decision-making algorithm, and even the technical component when using algorithms in making legally significant decisions. And supporters of the opposite position, who believe that there is no requirement to disclose information about the logic of the algorithm. Decision-making with the help of an algorithm should be based on the principles of transparency and accountability. It has been established that the use of algorithmic systems in decisionmaking raises the issue of non-discrimination and the problem of disclosure of the algorithm's functioning, which is due to the protection of the algorithm by patent law, high cost and may not provide the desired explanation of the logic of the decision. It is established that in order to avoid negative consequences of decision-making using algorithms, the legislation should ensure the right of an individual to disclose the logic and explain individual legally significant decisions made by an algorithm.

Key words: natural person, personal moral rights, personal date, human rights, digital rights, legal capacity, data protection, discrimination, digitalization, artificial intelligence.

Аналіз персональних даних суб'єктів використаються для прийняття рішень із використанням автоматизованих систем, як рішення про соціальні виплати, видачу банківського кредиту, укладення договору страхування, спрошуючи роботу людину, та водночас певною мірою усуваючи її від процесу прийняття рішення. Автоматизовані системи прийняття рішень отримають використання у кримінальному у провадженні в США. Оскільки прийнятті юридично значущих рішень алгоритмами на підставі аналізу великих даних, можуть бути дискримінаційними, помилковими та спричиняти юридичні наслідки для людини, постає потреба пошуку адекватного та ефективного механізму забезпечення прозорості алгоритму, поряд із цим не порушуючи патентні права правовласників програмного забезпечення (алгоритму) та бути ясним та зрозумілим для сприйняття людиною.

Метою статті є дослідження доктринальних підходів та нормативних джерел ЄС та США, наявного досвіду використання алгоритмічних систем при прийнятті юридично значущих рішень та інструментів покликаних уникненню негативних наслідків прийняття таких рішень на фізичних осіб.

Стан дослідження теми. Окремі аспекти використання систем автоматизованого прийняття рішень, штучного інтелекту та алгоритмів у судовому процесі були розглянуто у дисертаційному дослідженні П.А. Прохорова на тему: "Порядок ухвалення судових рішень у цивільному процесі України". Питання застування технологій обробки інформації під час здійснення правосуддя та алгоритмізованого правозастосування торкається С.А. Чванкін у своєму дисертаційному дослідженні на здобуття ступеня доктора юридичних наук на тему "Інформаційні технології у доказуванні у цивільному процесі: теоретичні та практичні аспекти". Однак, дане питання розглядалося з точки зору процесуального права, що не дозволяє більш широко розглянути проблему.

Виклад основного матеріалу. Використання алгоритмів та штучного інтелекту відбувається у судовому процесі [1], що ставить актуальним критерії та логіку прийняття рішень, ризики порушення права на здійснення правосуддя та рівності учасників процесу. Науковці наполягають, що поширення використання інструментів аналізу даних та предиктивних алгоритмів як в судах, так і під час прийняття управлінських рішень має бути прозорим для суб'єктів стосовно яких приймаються такі рішення. У противному випадку непрозорість прийняття доленосних рішень алгоритмом у кримінальному провадженні ставить під сумнів дотримання прав людини.

Доки буде залишатися проблема "чорної скриньки" якою називають системи автоматизованого прийняття рішень, яка не розкриває критерії якими керується система, людина буде залишатися вразливою по відношенню до автоматизованої системи та буде існувати ризик дискримінації. Адже лише людина ладна звернути увагу на неочевидні мотиви вчинення злочину та оцінити чинники особистого характеру, які система штучного інтелекту не здатна врахувати.

Європейська спільнота традиційно вимогливо ставиться до питань дотримання прав людини та послідовно впроваджує засади суворої регламентації можливості застування алгоритмізованих систем та штучного інтелекту. Біла книга із штучного інтелекту ЄС від 19.02.2020 дотримується людино центричного підходу та ризик орієнтованого підходу до використання новітніх технологій та приділяє увагу етиці застування штучного інтелекту [2].

У квітні 2021 року Комісією ЄС була внесена пропозиція до Європейського Парламенту та Ради прийняти Гармонізовані правила щодо штучного інтелекту (Акт про штучний інтелект) та внести зміни до деяких законодавчих актів Союзу [3], у якій приділено увагу ефективному застосуванню законодавства та дотриманню прав людини в умовах розвитку штучного інтелекту. Ризик застосування розробок нових та потужних інструментів технологій не за призначенням, для маніпулювання, експлуатації та соціального контролю викликає занепокоєність та з огляду на невідповідність подібної практики загальноєвропейським цінностям прав людини її пропонується заборонити. Відповідно до ст. 5 Проекту Ака про штучний інтелект запропоновано заборонити наступні види діяльності в сфері штучного інтелекту: маркетинг, введення в експлуатацію або застосування систем штучного інтелекту, які використовують сублімінальні методи впливу на підсвідомість, що завдають або можуть завдати фізичну або психологічну шкоду людині або третій особі; маркетинг, введення в експлуатацію або застосування систем штучного інтелекту, які використовують буд-які вразливі вади, пов'язані із віком або фізичними або розумовими недоліками визначеної групи осіб, для зміни поведінки учасника такої групи таким способом, що завдає спричиняє або може завдати фізичну або психологічну шкоду людині або третій особі; маркетинг, замовлення або використання державними органами або від їх імені систем штучного інтелекту призначених для оцінки або ранжування надійності окремих осіб протягом певного періоду часу на підставі їх соціальної поведінки або відомих або прогнозованих особистих якостей. Соціальна оцінка при цьому приводить до упередженого або несприятливого відношення до певної категорії осіб у аспекті, не пов'язаному із отриманими даних або неупереджене ставлення є невиправданим або невідповідним; використання систем дистанційної біометричної ідентифікації у режимі реального часу в публічних місцях з метою правоохоронної діяльності (за виключенням проектів передбачених в Проекті, як цілеспрямований пошук конкретних потенційних жертв злочинів, викрадених дітей; запобігання конкретної, істотної та неминучої загрози життю та фізичної безпеки людей або запобігання терористичного акту; виявлення, встановлення місцезнаходження, ідентифікація або переслідування виконавця чи підозрюваного у вчиненні кримінального злочину).

До того ж ст. 6 Проект пропонує правила розмежування систем штучного інтелекту залежно від ступеня ризику. Наприклад до категорії систем штучного інтелекту із високим ступенем ризику віднесений: скорінг при наймані на роботу, онлайн-біометрія, предикативні системи судочинства. З огляду на означене, у разі прийняття даного законопроекту в ЄС буду повністю заборонено використання систем соціального рейтингу, оцінки та прогнозування соціальної поведінки осіб, систем онлайн розпізнавання обличчя, які, наразі, отримали широке використання в КНР.

Як зазначають Дж. Гакутан, Н. Сельвадурай, що непрозорість під час прийняття рішень, таємниця логіки прийняття рішень алгоритмом та відсутність можливості отримати пояснення прийнятих рішень зацікавленими особами, ставлять потребу запровадження у законодавстві права на тлумачення алгоритмізованих рішень та право на їх оскарження у разі, якщо вони порушують право на недоторканність приватного життя та право на гідність. Оскільки відсутності прозорості, оцінка та прийняття рішень без розкриття обґрунтування таких рішень ставить під загрозу право на недоторканність приватного життя та гідність особи [4]. Для забезпечення прозорості рішень та ефективного контролю за системами автоматизованого ухвалення рішень суб'єкти даних мають бути наділені правом на роз'яснення рішень відносно них, зокрема тих які зачіпають долю суб'єкта та правом на оскарження таких рішень.

З урахуванням викладеного, слід констатувати існування різних підходів до реалізації права на роз'яснення рішення прийнятого за допомогою штучного інтелекту у США та ЄС. Традиційно держави ЄС приділяють значну увагу дотриманню прав та свобод людини, а вимоги забезпечення прозорості діяльності органів державної влади та виконання обов'язків контролерами із розкриття певних даних передбачені в окремих положеннях держав членів. Тож, для надання громадянам певного захисту від алгоритмізованих систем, забезпечення прозорості та певного контролю за алгоритмами та недопущення дискримінації у Франції, згідно із Законом Про цифрову республіку від 7 жовтня 2016 р. передбачено, що правила які визначають засади алгоритмізованої обробки мають бути оприлюдненні на державному сайті [5]. Прозорість систем автоматизованого прийняття рішень та алгоритмів виступає певною мірою заходом контролю для надання можливості суб'єктам даних оскаржити дискримінаційні та не справедливі рішення.

Науковцями висуваються різні позиції щодо тлумачення норми ст. 22 Регламенту ЄС 2016/679. Одні науковці, Дж. Малджері, А. Селбст дотримуються широкого тлумачення норм ст. 22 та покладають на контролерів обов'язок у разі використання алгоритмів при прийнятті юридично значущих рішень, розкривати суб'єкту даних повну інформацію про логіку, алгоритм прийняття рішення, навіть, технічну складову [6, 7].

Прибічники протилежної позиції, С. Вахтер, М. Айзек, Т. Кім, стверджують, що відповідно до змісту ст. 22 Регламенту ЄС 2016/679 контролери не зобов'язані надавати детальну інформацію про алгоритм прийняття рішення, а обмеженні повідомленням суб'єкта даних загальної інформації, без обов'язку розкриття деталей функціонування алгоритму. Дана позиція ґрунтується, на відсутності конкретизованої інформації яку має розкрити контролер фізичній особі за Регламентом ЄС 2016/679 [8, 9, 10]. Крім того ст. 22 містить застереження, що вона застосовується у разі коли система приймає рішення самостійно без будь-якого втручання людини.

До того ж практика імплементація Регламенту ЄС 2016/679 у національне законодавство членами Європейського Союзу свідчить, що переважна більшість держав уникають застосування розширювального підходу, який зобов'язує контролерів надавати суб'єктам даних докладну інформацію про функціонування алгоритмів [11]. Серед держав які передбачили обов'язок розкриття логіки прийняття рішення, слід навести Нідерланди де, п. 4 ст. 42 Закон про захист персональних даних передбачає, що контролер у разі прийняття рішення із застосуванням алгоритму інформує суб'єкта даних про логіку, що лежить в основі автоматизованої обробки даних щодо нього [12]. Відповідно до позиції Робочої групи із захисту прав людини у сфері обробки персональних даних, що функціонує під керівництвом Європейської комісії викладеній у Керівництві з автоматизованого прийняття індивідуальних рішень та профайлінгу для цілей Регламенту ЄС 2016/679 формулювання "рішення, засновані виключно на автоматизованій обробці", не свідчить, що у разі, формальної участі людини, контролер звільняється від обов'язку надати відповідну інформацію суб'єктам персональних даних [13].

Тож, буквальне тлумачення норм Регламенту не свідчить, про обов'язок контролера розкривати докладну інформацію про прийняття рішення алгоритмом, водночас це питання залишається дискусійним та розв'язується у кожному конкретному випадку у правозастосовчій практиці.

За твердженням французьких науковців у рішенні про використання алгоритму мають бути відображені способи функціонування алгоритму [14]. Водночас у разі законодавчого закріплення вимоги прозорості функціонування систем автоматизованого прийняття рішень постає питання способів її забезпечення, оскільки робота алгоритму виглядає як математична формула, а не література, доступна для сприйняття кожним користувачем. До того ж, у разі розкриття логіки функціонування алгоритму, виникає побоювання, що фізична особа зможе під лаштувати свої показника для отримання певного більш вигідного для неї результату. Також залишається актуальним покладення відповідальності за помилки вчиненні автоматизованою системою, що ставить питання, здатності алгоритму досягати не лише заздалегідь запрограмованого результату та здатності налаштовуватися на вирішення задач непередбачуваним шляхом [15].

Згідно із дослідженням проведеним Відділом наукового прогнозування Європейської парламентської дослідницької служби [16], що розкриття всього алгоритму вимагає значних ресурсів та не забезпечує бажаного пояснення логіки прийнятого рішень, тому дослідники пропонують встановлення заходів, направлених на розкриття інформації про логіку прийняття індивідуальних рішень, аналізу вхідних даних, статистичного пояснення, перевірки коду (конструкції) та статистичного аналізу, визначення чутливості окремих даних (які саме змінні зумовлюють результат).

Відтак, підхід в ЄС можна охарактеризувати превалюванням прав людини та суб'єктів даних над інтересами компаній, які отримують економічні переваги від обробки персональних даних із використання автоматизованих систем. Домінуючий підхід в доктрині ЄС спрямований на розкриття даних функціонування алгоритму та надання суб'єктам даних вичерпного обґрунтування прийнятого щодо них рішення. Проте такий підхід не обов'язково передбачає розкриття повної логіки прийняття рішення, та спирається на тезу, що у разі необхідності, за відсутності інших способів пояснення логіки прийняття рішень можливе покладення на контролера обов'язку розкриття технічних особливостей (коду) відповідного алгоритму. Водночас, наразі, Регламент ЄС 2016/679, не містить конкретизації та не покладає юридичних обов'язків на контролерів даних надавати технічну інформацію (фактично відкриваючи "чорну скриньку") про те, як працює алгоритм обробки персональних даних.

Наразі, вчиняються спроби забезпечення прозорості та підзвітності алгоритмізованих систем прийняття рішень у США. В 2019 році в Конгресі США було представлено Законопроект Про алгоритмічну підзвітність [17] який покладає обов'язок на осіб які використовують автоматизовані системи прийняття рішень, під час розробки, використання, проектування та навчання таких систем проводити оцінку їх впливу на здатність дотримання таких засад як: точність, справедливість, неупередженість, не дискримінаційність, конфіденційність та безпека. До наглядового органу має бути надано детальний опис, призначення, конструкцію, здатність до навчання системи автоматизованого прийняття рішень. Наразі, даний Законопроект знаходиться на розгляді із доповненнями у редакції від 3.02.2022 року. Аналогічний законопроект запропоновано в Штаті Каліфорнія. Законопроект передбачає надання способу функціонування алгоритму. Законопроект передбачає визначення систем автоматизованого прийняття рішень, як обчислювального процесу, у тому числі процесі заснованого на машинному навчанні, статистиці або інших методах обробки даних, техніках які здатні приймати рішення або полегшують прийняття рішення людиною, які впливають на людину. Поряд зі цим передбачається запровадження такої категорії як, "оцінка впливу автоматизованих систем прийняття рішень" яка позначає оцінку систем автоматизованого прийняття рішень та процесу їх розробки, включаючи, дані про дизайн та навчання системи, на предмет впливу на точність, справедливість, неупередженість, недискримінаційність, конфіденційність та безпеку. Також, окремі штати як Нью-Йорк [18] та Вашингтон розробляють законодавство в області правового регулювання застосування систем автоматизованого прийняття рішень державними органами [19].

Український підхід можна в охарактеризувати як спрямований на розкриття інформації відносно функціонування алгоритму, щоб суб'єкт даних мав повноцінну можливість отримати обґрунтування прийнятого рішення відносно себе. Закон України "Про захист персональних даних", передбачає право знати механізм автоматичної обробки персональних даних та право особи на захист від автоматизованого рішення, яке має для нього правові наслідки у п. 13, ч. 2 ст. 8, водночас зміст даних прав не розкривається у Законі.

Слід зазначити, що розробка обчислювальних та автоматизованого систем сягає 50-х років [20]. Якщо з технічної точки зору різниця між системами автоматизованого прийняття рішень заснованому на аналізі великих даних, машинному навчанні та сучасних нейронних мережах є істотною, то з юридичної точки зору різниця є не настільки кардинальною. Оскільки дискусію викликає автоматизація прийняття саме юридично значущих рішень, що може бути застосована в різноманітних не пов'язаних між собою сферах діяльності та галузях права, як то приватно-правових так і публічно-правових, при державному управлінні та правозастосовчій практиці, постає питання відносно правового статусу програми. Адже в результаті застосування технології автоматизованого прийняття рішень відбувається зміна правового статусу суб'єкта, коли замість людини рішення приймаються програмою. Хоча, наразі, законодавство ЄС містить застереження, щодо можливості прийняття юридично значущих рішень алгоритмом без участі людини.

Висновок

Використання алгоритмізованих систем під час прийняття рішень проникає у різні сфери людського буття: видача соціальних виплат, банківського кредиту, укладення договору страхування, навіть, судочинство. Використання алгоритмізованих систем під час прийняття доленосних рішень розкриття суб'єктам даних інформації про логіку прийняття індивідуального рішення, аналізу вхідних даних, статистичного пояснення, перевірки коду (конструкції) та статистичного аналізу, визначення чутливості окремих даних (які саме змінні зумовлюють результат). Враховуючи викладене, для недопущення дискримінації та вирішення дилеми пов'язаної із розкриттям функціонування системи автоматизованого прийняття рішення (алгоритму), яке захищено патентним законодавством, має стати наділення фізичних осіб правом на роз'яснення та отримання інформації про логіку прийняття індивідуальних рішень алгоритмом, навіть, із формальною участю людини та право оскарження таких рішень, якщо вони порушують право на недоторканність приватного життя та право на гідність.

Література

1. Прохоров П.А. Порядок ухвалення судових рішень у цивільному процесі України. Кваліфікаційна наукова праця на правах рукопису. Дисертація на здобуття ступеня доктора філософії за спеціальністю 081 Право. Національний університет "Одеська юридична академія". Одеса. 2021. С. 13.

2. White Paper on Artificial Intelligence - A European approach to excellence and trust Brussels, 19.2.2020 COM (2020) URL: https:// commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_en.pdf

3. Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence act) and amending certain union legislative acts 2021/0106 (COD), 21.4.2021. URL: https://digital-strategy. ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review

4. Joshua Gacutan, Niloufer Selvadurai, A statutory right to explanation for decisions generated using artificial intelligence. International Journal of Law and Information Technology, Volume 28, Issue 3, Autumn 2020, P. 193-216.

5. Sartor G. Human Rights and Information Technologies. The Oxford Handbook of Law, Regulation and Technology / ed. by R. Brownsword, E. Scotford, K. Yeung. Oxford, 2017. Р 442-450.

6. Malgieri G., Comande G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation. International Data Privacy Law. 2017. № 4. Vol. 7. P. 243-265.

7. Selbst A. D., Powles J. Meaningful information and the right to explanation. International Data Privacy Law. 2017. № 4. Vol. 7. P. 233-242.

8. Wachter S., Mittelstadt B., Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law. 2017. № 2. Vol. 7. P. 76-99.

9. Isak M., Lee A. B. The Right Not to Be Subject to Automated Decisions Based on Profiling. EU Internet Law: Regulation and Enforcement / ed. T. Synodinou, P. Jougleux, C. Markou, T. Prastitou. Springer, 2017. Pp. 77-98/

10. Kim, Tae Wan and Routledge, Bryan R., Why a Right to an Explanation of Algorithmic Decision-Making Should Exist: A Trust- Based Approach. 2020. October 21. URL: https://ssrn.com/abstract=3716519

11. Malgieri G. Automated decision-making in the EU Member States: The right to explanation and other "suitable safeguards" in the national legislations. Computer law & security review. 2019. № 35. P. 6.

12. Wet bescherming persoonsgegevens [Regeling vervallen per 25-05-2018.] URL: https://wetten.overheid.nl/

13. BWBR0011468/2018-05-01

14. Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (wp251rev.01). European Commission. URL: https://ec.europa.eu/newsroom/article29/item-detail. cfm?item_id=612053

15. Duclercq J.B. L'automatisation algoritmique des decisions administratives individuelles. Revue du droit public. 2019. №. 2. P. 296-340.

16. Hildebrandt M. Criminal Law and Technology in a Data-Driven Society // DubberM. D., Hornle T. (eds.). The Oxford Handbook of Criminal Law. Oxford, 2014. Р 174-200.

17. Web H. A governance framework for algorithmic accountability and transparency. 2019. URL: https://www.semanticscholar.org/ paper/A-governance-framework-for-algorithmic-and-Webb/391a7aa2203cf3c17d975d66391f65f40b6f401e

18. Algorithmic Accountability Act of 2022 S.3572/ URL: https://www.congress.gov/bill/117th-congress/senate-bill/3572/text

19. New York State Senate S2277. The Digital fairness Act. January 19, 2023. URL: https://www.nysenate.gov/legislation/bills/2023/ S2277

20. Washington State Senate Bill 5527 URL: https://app.leg.wa.gov/billsummary?BillNumber=5527&Year=2021&Initiative=false

21. Токарева В.О. Обчислювальна творчість (щодо питання творчості штучного інтелекту). Часопис цивілістики. 2018. № 30. С. 38-43.

Размещено на Allbest.ru

...

Подобные документы

  • Визначення поняття аналітичної інформації, її джерел. Інформаційно-аналітична система прийняття рішень у громадянському суспільстві. Розгляд особливостей інформаційно-аналітичного забезпечення прийняття управлінських рішень органами державної влади.

    контрольная работа [268,1 K], добавлен 07.11.2015

  • Системи судових і правоохоронних органів різних країн; принципові відмінності до проблеми примусового виконання рішень. Організаційно-правові форми служб виконавчого провадження в європейській практиці, США; виконання судових рішень в РФ і в Україні.

    реферат [26,6 K], добавлен 10.06.2012

  • Функціональні характеристики і технологія прийняття управлінських рішень. Міжгалузева координація дій місцевих органів державної влади при здійсненні своїх повноважень. Організаційно-правовий механізм підвищення ефективності державного управління.

    магистерская работа [244,4 K], добавлен 23.04.2011

  • Вивчення процедури прийняття і оприлюднення рішень Конституційного Суду України. Визначення правової природи, виявлення підстав і аналіз причин невиконання рішень Конституційного суду. Підвищення ефективності рішень Конституційного Суду України.

    курсовая работа [36,5 K], добавлен 10.06.2011

  • Соціальна обумовленість криміналізації суспільно небезпечних діянь, що посягають на порядок виконання судових рішень в Україні. Кримінально-правова кваліфікація та призначення покарання у злочинах, що посягають на порядок виконання судових рішень.

    диссертация [11,1 M], добавлен 25.03.2019

  • Складові системи кримінально-правового забезпечення охорони порядку виконання судових рішень. Об’єктивні та суб’єктивні ознаки складів відповідних злочинів. Головні санкції кримінально-правових норм, шо полягають в умисному невиконанні судових рішень.

    автореферат [52,7 K], добавлен 25.03.2019

  • Юридична природа інституту визнання та виконання рішень іноземних судів в сучасному міжнародному праві. Співвідношення понять "визнання" та "виконання" іноземних судових рішень. Судова процедура визнання та виконання рішень іноземних судів в Україні.

    дипломная работа [163,5 K], добавлен 07.10.2010

  • Громадськість як один із найважливіших суб’єктів в правовому механізмі забезпечення екологічної безпеки у плануванні та забудові міст України. Питання правових засад участі громадськості у прийнятті рішень, що стосуються довкілля, врахування інтересів.

    реферат [17,0 K], добавлен 14.05.2011

  • Поняття рішення іноземного суду, його визнання і виконання доручень. Процедура надання дозволу на примусове задоволення вироку. Відкриття виконавчого провадження. Умови і порядок визнання рішень зарубіжного суду, які не підлягають примусовій реалізації.

    курсовая работа [29,8 K], добавлен 08.11.2010

  • Рослинний світ, як об'єкт правової охорони та використання. Правове регулювання суспільних відносин, які виникають у сфері охорони, використання та відтворення рослин і багаторічних насаджень сільськогосподарського призначення. Лісове законодавство.

    реферат [25,0 K], добавлен 22.04.2011

  • Опис особливостей оскарження рішень, дій чи бездіяльності суб’єктів публічної адміністрації з надання адміністративних послуг на стадії порушення та підготовки до судового розгляду адміністративної справи. Обґрунтовано доцільність правового регулювання.

    статья [21,6 K], добавлен 11.09.2017

  • Загальна характеристика кримінально-процесуального права особи на оскарження. Причини зупинки досудового розслідування. Ознайомлення із підставами, суб’єктами, процесуальним порядком і наслідками оскарження дій і рішень органів досудового розслідування.

    реферат [28,0 K], добавлен 17.10.2012

  • Право на оскарження і межі перегляду судових рішень судом апеляційної інстанції. Правила і строки підготовки справи до розгляду у судовому засіданні чи в порядку письмового провадження. Ухвали і постанови рішень, підстави для їх скасування або зміни.

    реферат [21,9 K], добавлен 20.06.2009

  • Сутність і завдання інститутів апеляційного, касаційного провадження, у Верховному Суді та за нововиявленими обставинами; перегляд судових рішень згідно нового Кримінально-процесуального кодексу України. Суспільні відносини між суб’єктами судочинства.

    курсовая работа [213,4 K], добавлен 09.12.2013

  • Загальні положення перегляду судових рішень, у том числі із використанням нововиявлених обставин в господарському процесі. Теоретичні основи віндикаційного позову, зразок його написання з причини витребування майна власником від добросовісного набувача.

    контрольная работа [28,2 K], добавлен 16.11.2010

  • Поняття, форма та зміст скарги в кримінальному процесі. Правова сутність оскарження, умови його використання, правила документального оформлення. Процесуальні особи, рішення, дії чи бездіяльність яких є предметом оскарження. Судовий розгляд скарги.

    диссертация [294,7 K], добавлен 23.03.2019

  • Визначення і характеристика водних ресурсів як об'єктів правової охорони. Аналіз проблеми використання вод низької якості з джерел водопостачання. Правове регулювання пріоритету питного водопостачання. Відповідальність за порушення водного законодавства.

    контрольная работа [36,1 K], добавлен 27.01.2012

  • Судовий прецедент у праві Європейського Союзу як результат діяльності Європейського Суду, утвореного Римським договором. Абстрактивність у нормах Конвенції. Дебати довкола можливостей реалізації рішень. Доктрини дії прецеденту у праві Європейського Суду.

    доклад [20,2 K], добавлен 19.11.2010

  • Реалізація права - здійснення юридично закріплених і гарантованих державою можливостей. Проблема методів реалізації права. Особливості актів правозастосування. Аналіз ставлення людей до нормативно-правового акту. Правова культура і правовий нігілізм.

    реферат [31,9 K], добавлен 01.05.2009

  • Землі як об'єкти використання та охорони. Суб'єкти, об'єкти та форми правового регулювання використання та охорони земель в Україні, завдання держави в цій сфері. Види і зміст контролю та юридичної відповідальності за порушення земельного законодавства.

    дипломная работа [131,6 K], добавлен 13.04.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.