Використання штучного інтелекту в судових та правоохоронних системах: етичні чинники, світовий досвід

Світовий досвід використання штучного інтелекту у судовій та правоохоронній діяльності. Проблеми, шляхи вирішення етичних та правових проблем. Підходи до регулювання та використання штучного інтелекту у США, ЄС, Китаї, Переваги та недоліки кожної системи.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 24.03.2021
Размер файла 21,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Використання штучного інтелекту в судових та правоохоронних системах: етичні чинники, світовий досвід

Завадський А.А., магістрант факультету адвокатури Національного юридичного університету імені Ярослава Мудрого

У статті розглядається світовий досвід використання штучного інтелекту у судовій та правоохоронній діяльності, наявні проблеми, шляхи вирішення етичних та правових проблем.

Порівнюються підходи до регулювання та використання штучного інтелекту у США, ЄС та Китаї, оцінюються переваги та недоліки кожної системи. Американська система регулювання на цей час є найбільш ліберальною та децентралізованою. Тільки нещодавно була прийнята резолюція Американської асоціації юристів з рекомендаціями щодо використання штучного інтелекту у юридичній та судовій діяльності, однак на федеральному рівні регуляції досі не має.

При цьому у США працюють досить багато систем штучного інтелекту у судовій та правоохоронній сферах, але їх використання наразі піддається критиці з боку громадськості та правозахисників. Китайська модель - найбільше залежить від держави, але має певні переваги: велике фінансування, майже необмежений доступ до різноманітних даних, у тому числі й про громадян, працює з 2017 року система суду з використанням штучного інтелекту, у якому вже розглянуто десятки тисяч справ. Європейська модель регулювання після розгляду вбачається найбільш збалансованою. У ній втілюються добре розроблені етичні принципи для систем штучного інтелекту у судових системах, повага до прав людини, передбачення можливих негативних наслідків від використання штучного інтелекту. Ключовим принципом можна визнати принцип контролю з боку користувача - користувачі повинні володіти правом вибору і необхідною інформацією.

Досліджені також фінансові показники витрат на програми штучного інтелекту у Сполучених Штатах Америки та Китаї.

Визначені чинники майже одночасної появи національних та міжнародних етичних підходів та стандартів у галузі штучного інтелекту взагалі та у судовій та правоохоронній діяльності зокрема. Проаналізовано кілька важливих міжнародних та національних документів, що належать до сфери регулювання штучного інтелекту. Розглянуто декілька прикладів неетичної поведінки систем штучного інтелекту у правоохоронній та судовій діяльності. Наведено приклади упередженості систем штучного інтелекту, ризики використання таких систем у судовій та правоохоронній діяльності.

Ключові слова: право, етика, штучний інтелект, судова діяльність, правоохоронна діяльність.

інтелект судовий правоохоронний

Use of artificial intelligence in judicial and law enforcement systems: ethical factors, world experience

The article examines the world experience of using artificial intelligence in judicial and law enforcement activities, existing problems, ways of solving ethical and legal obstacles. Compared approaches to the regulation and use of artificial intelligence in the US, EU, and China, and the advantages and disadvantages of each system are evaluated.

The US regulatory system is currently the most liberal and decentralized. A resolution of the American Bar Association adopted with recommendations on the use of artificial intelligence in a legal and judicial activity. However, there are quite a few artificial intelligence systems in the US in the judiciary and law enforcement, but their use is currently being criticized by the public and human rights defenders.

The Chinese model is most state-dependent, but it has some advantages: high funding, almost unlimited access to a variety of data, including personal data of citizens, an existing artificial intelligence court system that has been in place since 2017 and has already reviewed tens of thousands of cases.

The European model of regulation is the most balanced. It embodies well-developed ethical principles for artificial intelligence systems in the judiciary, respect for human rights, and anticipation of possible negative consequences for the use of artificial intelligence. The key principle is to recognize the principle of control by the user - users must have the right to choose and the necessary information.

Have been investigated the costs of artificial intelligence programs in the United States and China. Identified factors of almost simultaneous emergence of national and international ethical approaches and standards in the field of artificial intelligence in general and in judicial and law enforcement activities.

Was analyzed several important international and national documents related to the field of artificial intelligence regulation.

Several examples of non-ethical behavior of artificial intelligence systems in law enforcement and judicial activity are discussed. Examples are given of biased artificial intelligence systems and the risks of using such systems in judicial and law enforcement activities.

Key words: law, ethics, artificial intelligence, judicial system, law enforcement.

Постановка проблеми й актуальність теми

Бурхливий розвиток штучного інтелекту торкнувся майже усіх сфер діяльності людства. Не є винятком і судова та право - охоронна системи. Наразі є вже декілька систем з використанням штучного інтелекту, що використовуються у судовій та правоохоронній діяльності. США та Китай змагаються за першість у цій сфері, Європейський Союз виробив рекомендації з використання штучного інтелекту у судовій системі. З урахуванням того, що Україна проголошує цифровізацію та програму «Держава у смартфоні», прагне до вступу в ЄС, доцільно вивчити світовий досвід та оцінити як переваги, так і наявні недоліки систем, що вже працю ють, та перспективних розробок, ризики використання штучного інтелекту у судовій та правоохоронній сферах.

Аналіз досліджень

Використання штучного інтелекту для виконання певних завдань юриспруденції є предметом вивчення В. Барфілда (Barfield, 2005), Дж. Сартора (Sartor, 2009), К. Санстейна (Sunstein, 2001) і К. Эшли (Ashley, 2017).

Про етичні аспекти використання штучного інтелекту в правовій площині писали Гаррі Сурден (Surden, 2018, 2019), Джанін Черні (Cerny, 2019), Стів Делчин (Delchin, 2019), Хуу Нгуен (Nguyen, 2019), Едуардо Маграні (Magrani, 2019).

Можна відзначити працю О.Е. Радутного, який вивчає різні аспекти використання штучного інтелекту, у тому числі й питання етики та моралі [1].

Багато досліджень присвячені тільки технічним та технологічним аспектам використання штучного інтелекту у правоохоронній діяльності та судах, але для цього дослідження вони є другорядними.

Мета статті - проаналізувати наявні та перспективні підходи до регулювання штучного інтелекту та етичних засад цього регулювання та дослідити правовий та етичний аспекти використання штучного інтелекту, чинні проблеми та рішення.

Розглянути системи та програми штучного інтелекту, що використовуються у судовій та правоохоронній діяльності у різних країнах, оцінити відомі переваги та недоліки, шляхи їх удосконалення. Надати інформацію для прийняття зважених рішень під час вибору тієї чи іншої моделі для використання в українських реаліях.

Виклад основного матеріалу

Зараз провідні світові країни та світова спільнота зайняті розв'язанням етичних питань, пов'язаних зі штучним інтелектом, тому що ці системи активно впроваджуються в життя. Вже масово використовуються системи штучного інтелекту для передбачення рішень суддів, виявлення зв'язків між учасниками судових процесів, передбачення поведінки обвинувачених і засуджених, пошуку доказів і багато іншого.

При цьому виникають саме етичні проблеми, як-от: упередженість штучного інтелекту, використання великих даних для обґрунтування звинувачень і пошуку доказів на користь звинувачення і приховування доказів, здатних виправдати підозрюваних.

Якщо гаяти час, то незабаром вже буде пізно намагатися виправити ситуацію, а саме відрегулювати те, що вже працює набагато важче, і це змушує держави та спільноти виробляти нові підходи до управління і регулювання зазначеної галузі.

У цьому світлі корисно розглянути досвід відразу декількох правових систем - Європейського Союзу, США та Китаю. Саме ці три гравці визначають майбутнє у сфері штучного інтелекту, його застосування в праві і, відповідно, етичні підходи в цих питаннях. При цьому ці країни представляють не тільки різні правові, але й відмінні суспільні системи. По суті це різні полюси, між якими можна вмістити усі наявні варіанти регулювання використання штучного інтелекту: від децентралізації й лібералізації до жорсткого регулювання та контролю.

Європейський Союз займає позицію випереджувального регулювання. Під цим ми розуміємо такий стан, за якого регулювання здійснюється на стадії, що передує масовому поширенню технології, але при цьому вже є досвід її застосування, що дозволяє оцінити ризики та передбачити певні наслідки.

Таке регулювання встановлює обмеження, вказуючи на проблемні області та пропонуючи інструменти вирішення можливих проблем.

США в галузі штучного інтелекту віддають перевагу більш довгим строкам для етапу «неврегульованого» використання технології. Це дозволяє оцінити потенціал технологій для бізнесу та держави, дати час на формування механізмів саморегуляції у галузі. Такий підхід працює, тому що саморегуляція виникає на перетині інтересів бізнесу, суспільства, представленого різними групами інтересів і впливу, та уряду. Часто регуляція відбувається в одному або декількох штатах, які таким чином апробують підходи щодо регулювання і реакцію на таке регулювання з боку зазначених гравців. Ще одним засобом регулювання є судові рішення, що використовують прецеденти для вирішення поточних питань і в цій галузі.

При цьому потрібно чітко розуміти, що федеральний уряд є одним з локомотивів в області розробки та впровадження штучного інтелекту. Вже у 2020 році уряд стане одним з найбільших інвесторів, реалізуючи стратегію розвитку штучного інтелекту в США. Плануються щорічні інвестиції по $12 млрд на рік протягом як мінімум десятиліття [2].

Централізований підхід Китаю до розвитку галузі штучного інтелекту був закріплений на рівні державних програм. Державне фінансування Китаєм невійськових розробок штучного інтелекту оцінювалось, за різними китайськими джерелами, від 25 до 40 млрд дол. на рік, але ці цифри викликають певні сумніви, тому була проведена робота з незалежної оцінки витрат. Дослідники з Центру безпеки та новітніх технологій (CSET) при Школі іноземної служби Уолша в Джорджтауні опублікували першу редакцію детального аналізу держфінансування Китаєм невійськових досліджень і прикладних розробок у галузі штучного інтелекту: у 2018 державне фінансування Китаєм невійськових фундаментальних і прикладних досліджень у галузі штучного інтелекту склало від 1,7 до 5,7 млрд дол. [3, с. 11-12], а військових від 0,3 до 2,7 млрд дол. [3, с. 13].

У галузі права можна відзначити систему суду всередині головного в Китаї мобільного додатку WeChat. Замість судді працює штучний інтелект. Розглядаються цивільні позови в області авторського права, торгових суперечок і порушень у сфері електронної комерції. За заявою Верховного Суду Китаю тестування системи йде з 2017 року, розглянуто 118 764 справ, і рішення прийняті по 88 401 [4].

У травні 2019 року Пекінською академією штучного інтелекту (BAAI), Пекінським університетом, Університетом Цінхуа, Інститутом автоматизації та Інститутом обчислювальної техніки Китайської академії наук були опубліковані «Пекінські принципи штучного інтелекту». Крім перелічених установ, у створенні документа взяли участь члени промислової ліги штучного інтелекту, до якої входять китайські компанії-гіганти - Baidu, Alibaba, і Tencent. Згідно з представленим документом призначення штучного інтелекту полягає в тому, щоб сприяти прогресу суспільства і людської цивілізації, сталому розвитку природи та суспільства. Штучний інтелект не повинен зазіхати на особисте життя, гідність, свободу, незалежність і права людей. Розробники документа закликали повною мірою враховувати правові та етичні ризики, стежити, щоб розвиток штучного інтелекту приносив користь, а не шкоду [5].

Розглянемо приклади використання штучного інтелекту у США та Європі.

В Америці діє програмний продукт з використанням можливостей штучного інтелекту - COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Він застосовується суддями в окремих штатах під час розгляду заяв про умовно-дострокове звільнення ув'язненого, визначення виду нагляду за звільненим і навіть під час призначення терміну покарання підсудному. Штучний інтелект на підставі пройденого людиною тестування (137 питань) та її персональних даних прогнозує ймовірність скоєння рецидивного злочину.

COMPAS використовується з 1998 р., тому до послуг штучного інтелекту вже більше мільйона анкет, і він зіставляє відповіді старих рецидивістів з відповідями нового випробуваного для винесення висновку про ймовірність повторного злочину. Алгоритми роботи COMPAS зберігаються розробниками в секреті.

Відповідно до проведених незалежними експертами досліджень точність COMPAS в прогнозуванні рецидиву складає 65%, проте приблизно ті ж показники точності прогнозу (63-67%) дають передбачення фокус-групи з 400 випадкових осіб, зібраних в Інтернеті. Люди ґрунтувалися всього на 7 змінних щодо кожної людини, тоді як програма - мінімум на 137 показниках [6].

COMPAS піддався критиці з боку громадськості та правозахисників, які звинувачували систему в упередженому ставленні до чорношкірих американців. Розробники не погодилися та зробили заяву, що параметр «раса» не враховується під час аналізу даних і винесення прогнозу про можливий рецидив. Це підтверджують і незалежні дослідження вчених. Звинувачення в упередженості штучного інтелекту з'явилися через непрямі ознаки: «дійсно, чорношкірі обвинувачені з більшою частотою відносяться COMPAS до категорії середнього або високого ризику повторного злочину (58% проти 33%). І навіть якщо алгоритм Northpointe не використовує расу безпосередньо, багато атрибутів, які пророкують повторне правопорушення, залежать від раси. Наприклад, чорні обвинувачені з більшою ймовірністю будуть мати попередні арешти, і оскільки попередні арешти пророкують повторний злочин, алгоритм позначає більшу кількість чорних обвинувачених як тих, хто відноситься до категорії високого ризику, навіть якщо він не використовує їх расу в класифікації безпосередньо» [7].

У місті Дарем (Великобританія) місцева поліція використовує продукт, розроблений Кембриджським університетом, під назвою HART (Harm Assessment Risk Tool) - інструмент оцінки ризиків шкоди. У цю програму завантажені 104 тис. поліційних справ за 5 років затримань зловмисників поліцією Дарема. HART дає кожному новому затриманому прогноз щодо ризиків вчинення нового злочину. Ці прогнози поліція використовує, щоб вирішити, чи можливо відпустити затриманого під заставу або необхідно утримувати його під вартою. Незалежне експертне дослідження HART показало, що загальна точність прогнозів HART становить близько 63%.

Хвиля невдоволення піднялася в пресі у зв'язку з тим, що нібито алгоритм HART дискримінує жителів бідних районів. Дані про адресу були виключені з бази даних HART, але, як показало розслідування громадської організації Big Brother Watch [8], що бореться за конфіденційність і цивільні права в Великобританії, поліція Дарема викупила в агентства по споживчому кредитуванню Experian базу даних на всіх 50 млн дорослих Великобританії й зараз алгоритм, вирішуючи, чи варто відпускати під заставу або залишити під вартою, знайомиться з кредитною історією, даними про стан здоров'я, про успішність у школі, особистих іменах, пов'язаних з етнічною приналежністю, аналізує активність в соцмережах.

І це лише декілька прикладів упередженості штучного інтелекту чи тих, хто його розробляє або використовує. Програми штучного інтелекту можуть мати в собі упередженість їх програмістів і людей, з якими вони взаємодіють. Це дуже складне питання для вирішення, але без цього рішення довіру до систем штучного інтелекту важко відновити. Наприклад, штучний інтелект може поводитися упереджено тому, що він навчається на даних, де вже можуть існувати певні упередження. Тому будь-яка програма суддівства повинна враховувати ці упередження і перевірятися на них.

З огляду на наявні виклики останнім часом міжнародні організації опублікували принципи етичного штучного інтелекту. Певною мірою усі вони вплинуть та вже впливають на відносини на перетині штучного інтелекту та права, судової системи та правоохоронної діяльності.

Принципи ОЕСР (Організація Економічного Співробітництва та Розвитку) по штучному інтелекту ратифіковані 42 країнами. На них посилаються, згідно з розпорядженням президента США, під час розробки стандартів штучного інтелекту.

Принципи юридичного комітету Глобальної ініціативи IEEE з етики автономних та інтелектуальних систем стануть основою для стандартів та акредитації для штучного інтелекту в правовій сфері (IEEE є глобальним технологічним дослідницьким центром і органом зі встановлення стандартів).

Європейська комісія з ефективності правосуддя (CEPEJ) ухвалила Хартію про етичні принципи застосування штучного інтелекту в судових системах у грудні 2018 року. Хартія стане основою для сертифікації систем на базі штучного інтелекту для застосування у судових системах. Можна очікувати, що вона, як і GDPR, матиме глобальний вплив. У Хартії проголошені п'ять принципів:

1. Принцип поваги фундаментальних прав - розробка і впровадження штучного інтелекту не повинні порушувати фундаментальні права людини.

2. Принцип відмови від дискримінації - запобігання появи або посилення дискримінації щодо окремих людей і груп.

3. Принцип якості та безпеки - обробка судових рішень і даних повинна проводитися в технічно захищеній обстановці, на підставі перевірених джерел і з застосуванням моделей, розроблених фахівцями декількох наукових дисциплін.

4. Принцип відкритості, неупередженості та чесності - методи обробки даних повинні бути доступними та зрозумілими для можливості перевірки третьою стороною.

5. Принцип контролю з боку користувача - користувачі повинні володіти правом вибору і необхідною інформацією [9, с. 7-12].

Ключовим є останній з наведених принципів. У Раді Європи наголошують, що штучний інтелект (тобто будь-які комп'ютерні програми та алгоритми) є лише допоміжним сервісом і не повинен приймати рішення за компетентну людину (суддю, поліціанта і так далі). Програма може пропонувати результати (наприклад судді, про те, яке рішення прийняти по конкретній справі на основі аналізу попереднього прецедентного права або судової практики з даної категорії справ) і давати поради сторонам, які хотіли б врегулювати спір поза судовою системою (наприклад, за допомогою посередницьких послуг), але в будь-якому разі важливо, щоб остаточне рішення було залишено на розсуд судді або сторони спору.

У додатках до Хартії Європейська комісія з ефективності правосуддя приводить приблизний перелік програмного забезпечення, в якому використовується штучний інтелект і на який має поширюватися дія прийнятого документа: просунуті прецедентні пошукові системи (пошукові системи у сфері судової практики); платформи для вирішення спорів онлайн; системи аналізу перспектив вирішення спору в суді, шкали розрахунків очікуваних компенсацій або штрафів; різні прогностичні програми, що пророкують імовірність повторної кримінальної поведінки затриманої особи, ймовірність скоєння злочину в будь-якому районі тощо; сервіси допомоги в складанні документів на підставі шаблонів, включаючи контракти з різними критеріями; «чат-боти» для юридичного консультування сторін або їх підтримки в суді [9].

На відміну від Європи, Сполучені Штати поки що уникають законодавчої регламентації, але, як вже було зазначено, використовують механізми професійного регулювання. Так, на щорічних зборах Американської асоціації юристів (American Bar Association) у 2019 було прийнято резолюцію, яка закликає суди та адвокатів вирішувати етичні та правові питання, пов'язані з використанням штучного інтелекту в юридичній практиці [10].

Резолюція відображає поширення проблем і можливостей, пов'язаних зі штучним інтелектом, з якими стикаються юридичні фірми, корпорації та звичайні громадяни. У ньому визнається, що етика штучного інтелекту виходить за рамки професійної етики: «штучний інтелект, його виробництво і розгортання повинні бути корисними (або, як мінімум, не шкідливими) для адвоката, суду, клієнтів і суспільства в цілому» [10, с. 10].

Також наголошується на необхідності переконливих доказів того, що штучний інтелект виконує своє цільове завдання: «Як адвокат або суд дізнаються, чи працює штучний інтелект належним чином?» [10, с. 11]. Часто ефективність штучного інтелекту припускають без отримання належних доказів.

Посилаючись на Правило 1.1 Типових правил ABA (обов'язок компетентності), Резолюція визнає, що адвокати повинні «бути поінформовані та обізнані про поточний стан технології». У ній також підкреслюється, що адвокати «не повинні знати всі технічні хитросплетіння систем штучного інтелекту» [10, с. 5].

Висновки

Отже, можна зазначити, що сьогодні правова система і суспільство не мають підстав довіряти розробникам та постачальникам систем штучного інтелекту - ні тим, хто використовує штучний інтелект для оцінки ризиків у галузі кримінального правосуддя, ні іншим, хто використовує технологію у сфері виявлення та передбачення злочинів.

Тому без урахування етичних норм та втілення етичних стандартів на усіх етапах - від розроблення і проектування до втілення та використання систем штучного інтелекту у судовій та правоохоронній діяльності - цю довіру не відновити та неможливо побудувати систему, рішенням якої можна було б довіряти.

Потрібно залучення до обговорення проблеми законодавців, фахівців у галузі права, розробки програмного забезпечення, громадськості та навіть іноземних експертів. Результатом широкого обговорення повинні стати етичні рекомендації та норми для усіх розробників та користувачів штучного інтелекту у країні. Це дозволить використовувати єдиний підхід до всіх гравців та чітко окреслити, що є прийнятним та неприйнятним, і з урахуванням цього розробити правові засади використання штучного інтелекту у судовій та правоохоронній діяльності, визначити відповідальність для розробників та користувачів таких систем, міри контролю та забезпечення прозорості та законності під час використання. «Хартія про етичні принципи застосування штучного інтелекту в судових системах» може стати гарним зразком для розробки національних етичних принципів у цій сфері.

Список використаних джерел

1. Радутний О.Е. Мораль і право для штучного інтелекту та цифрової людини: закони робототехніки та «проблема вагонетки». Інформація і право. 2019. № 3. С. 78-95.

2. Fei-Fei Li, John Etchemendy. We Need a National Vision for AI. October 23, 2019.

3. Chinese Public AI RD Spending Provisional Findings. December, 2019. In brave new world of China's digital courts, judges are AI and verdicts come via chat app. The Japan Times.

4. Beijing AI Principles Ш.

5. Ed Yong. A Popular Algorithm Is No Better at Predicting Crimes Than Random People. The Atlantic. January 17, 2018.

6. Sam Corbett-Davies, Emma Pierson, Avi Feller, Sharad Goel. A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear. The Washington Post. October 17, 2016.

7. Police use Experian Marketing Data for AI Custody Decisions, PRESS RELEASES, Big Brother Watch. 6th April 2018.

8. Council of Europe. European commission for the efficiency of justice (CEPEJ). European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment. С. 79.

9. Resolution. American Bar Association, House of Delegates. Adopted: August 12-13, 2019.

Размещено на Allbest.ru

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.