Этика алгоритмов сбора и анализа данных: предвзятость роботизированных систем и алгоритмов
Интернет-пользователь как этический субъект. Роль гражданина и его персональных данных в эпоху цифровизации. Виды и последствия алгоритмической необъективности. Репутационные кейсы бизнеса и ИТ-компаний, где задействована работа роботизированных систем.
Рубрика | Журналистика, издательское дело и СМИ |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 23.08.2020 |
Размер файла | 102,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
https://hightech.plus/2018/07/27/ii-onkologa-ibm-watson-ulichili-vo-vrachebnih-oshibkah-.
С исследователем Мишрой Шармой, как и с самим понятием «алгоритмическая необъективность», не согласен московский биоинформатик и выпускник «Сколтеха» Владислав Белоусов. Говоря об оценке криминогенности, Белоусов отметил, что такие вещи, как, например, преступления, априори предсказывать сложно. Так, по его словам, ИИ просто «цепляется» за некоторые факты, которые могут повлиять на оценку криминального риска. «Мы действительно не можем сказать, что чернокожий безработный выходец из бедной семьи с алкогольной зависимостью завтра совершит преступление, -- отмечает Белоусов. -- Но сочетание многих факторов повышает эту вероятность». Системы с ИИ делают именно это: считывают совокупность факторов и выдают результат. По словам эксперта, таким образом ИИ не может быть «предвзятым». «Это просто статистика. Как она может быть необъективной? В данном вопросе нет места гуманитарным понятиям об этике», -- подчеркивает Белоусов.
По мнению главного редактора портала «Системный Блокъ» и академического руководителя магистратуры «Цифровые методы в гуманитарных науках» НИУ ВШЭ Даниила Скоринкина, на предвзятость алгоритмов в эпоху deep learning влияют не когнитивные искажения разработчиков, а дисбаланс обучающей выборки («мало негров, женщин и таджиков, много белых мужчин»). Как указывает Скоринкин, избавить ИИ от предвзятости может помочь сбалансированность и репрезентативность обучающих выборок (например, когда все социальные и демографические категории представлены в адекватной пропорции). Возможно, разработчикам также поможет сознательный отказ от учета в качестве признаков для обучения моделей ИИ некоторых параметров, опора на которые не всегда считается этичной (таких как раса или пол).
Также, по мнению эксперта, опаснее всего не только необъективность, но и в целом системы с ИИ будут в тех странах, где авторитарное государство «пытается воспитать удобных себе людей через систему поощрений и наказаний, основанных на алгоритмах вроде социального кредита в Китае». Однако последствий неэтичного использования технологий ИИ в России Скоринкин пока не видит: по его словам, отечественные чиновники плохо разбираются во внедрении такого типа систем.
Сатьярт Мишра Шарма подтверждает мнение Скоринкина: на объективность алгоритмов напрямую влияет качество входных данных, то есть качество сбора и предварительного анализа. «В машинном обучении есть популярный концепт, который обозначают как garbage in, garbage out. Если вы «скормите» алгоритму мусор, он ответит вам мусором», -- отмечает исследователь.
Отвечая на вопрос о персональных данных и о том, могут ли алгоритмы деанонимизировать такие данные, Мишра Шарма говорит, что такая проблема может иметь место: «Мы смотрим на алгоритмы машинного обучения как на некий черный ящик. Они могут переобучаться, то есть способны выучить не какие-то общие черты системы, а конкретные ее части. Если не учесть такое переобучение, может случиться некая утечка информации. Но с этим можно бороться: например, тщательно анонимизировать данные при входе в систему машинного обучения». Возвращаясь к вопросу о предвзятости «умных» систем, исследователь отметил, что это частая проблема банковских структур и алгоритмов кредитного скоринга. Если у входных данных есть атрибут вроде этничности или пола, алгоритм способен выучить это как решающий фактор, не учитывая то, что он может сложно взаимодействовать с другими факторами.
Как еще, кроме улучшения разнообразия выборки, мы можем делать системы с ИИ более этичными? Шарма отвечает: мы должны учитывать не только способность систем переобучаться, но и компетенции самих создателей. Речь здесь не об устранении когнитивных искажений, а о том, чтобы нанимать в качестве разработчиков людей со стэком разных компетенций.
С технической точки зрения создать алгоритм машинного обучения может практически любой человек, который более-менее разбирается в программировании. Но чтобы понимать, как именно устроены эти алгоритмы и наблюдать за ними предметно, а не «методом черного ящика», нужно глубоко изучить работу ИИ и задачу, для которой он создается. Учитывать момент предвзятости гораздо сложнее, чем создать «умную» систему.
Алгоритмическая необъективность сегодня -- развивающаяся область. «Когда я учился в магистратуре, студентам почти ничего об этом не говорили. Просто упоминали, что есть такая вещь и что ее надо иметь в виду», -- говорит Шарма. По словам исследователя, cегодня на проблему AI bias можно смотреть с технической, социальной или политической точек зрения, но решение где-то между ними. Сейчас за соблюдением «умными» системами человеческого разнообразия следят независимые эксперты и сообщества вроде Algorithmic Justice League, чья миссия -- справедливость, ответственность и подотчетность любых интеллектуальных систем Algorithmic Justice League. .
Сегодня в научном сообществе есть фокус на разработку специальных алгоритмов, которые помогут нам превратить ИИ из «черного ящика» в понятную систему. Так, от новшеств в разработке ИИ мы переходим к разработкам в области его объяснения. Агентство перспективных оборонных исследований при Минобороны США (DARPA), финансирует 13 подобных «объяснительных» проектов. Любопытно, что именно военные решили одними из первых отказаться от слепого доверия системам с машинным или глубоким обучением. В ближайшие годы Минобороны США планирует развивать наземные и воздушные беспилотники, для которых безошибочный ИИ -- ключевой компонент безопасной работы «The U.S. Military Wants Its Autonomous Machines to Explain Themselves». MIT Technology Review. URL: https://www.technologyreview.com/2017/03/14/243295/the-us-military-wants-its-autonomous-machines-to-explain-themselves/ .
Заключение
Недавно «Роснефеть» объявила о намерении профинансировать новую магистерскую программу МГУ «Геномика и здоровье человека»«“Роснефть” обучит в МГУ секвентированию генома человека». The Bell. . Судя по новостям в медиа, новый набор магистрантов (предполагается поступление 5-10 молодых специалистов) будут обучать способам получения генетической информации и методикам обработки этих данных. Биоинформатик Влад Белоусов предполагает, что «Роснефть», возможно, верит в то, что по SNP (мутации, специфичные для человека) можно обучить предиктор успешности сотрудника и использовать это при приеме на работу. Рискнем привести здесь небольшой анекдот, который был услышан от одного биоинформатика и скоро может стать реальностью:
«Вакансия в “Роснефти”. Требования к работе:
Высшее техническое образование.
Целеустремленность, ответственность.
Отсутствие мутаций K247Y и A54V в генах SM4RT4SS и G0SD8P соответственно».
В апреле Русская служба «Би-би-си» писала о том, что «Роснефть» собирается потратить около 1 млрд долларов на центр генетических технологий и генетического редактирования «"Роснефть" и дочь Путина займутся генетическими исследованиями россиян». Русская служба «Би-би-си. Так что мнение о том, что бизнес может использовать разработки в области ИИ и биоинформатики в неэтичных целях, вполне имеет право на существование.
Целью данного исследования была попытка понять, что именно влияет на алгоритмическую необъективность роботизированных систем и алгоритмов и как ее можно предотвратить.
В рамках этой цели мы выполнили такие задачи: изучили историю ЭВМ и понятия «искусственный интеллект»; дали определение понятию «предвзятость ИИ»; рассмотрели влияние «предвзятости» на жизнь человека и бизнеса; описали, как работает цифровой контроль, правовое регулирование ИИ и обработка больших данных в разных странах; разобрались, как меняются понятия об этике в цифровую эпоху и где место интернет-пользователя в новой системе ценностей. В работе мы пользовались теоретической и эмпирической базами источников, обратились к экспертам за комментарием и проанализировали полученную информацию.
В ходе исследования мы проверяли гипотезу о том, что путем анализа существующих кейсов есть шанс определить, в каких индустриях предвзятость ИИ будет критической, а также узнать, что именно влияет на его предвзятость. Гипотезу можно считать подтвержденной: с помощью экспертов и анализа источников мы выяснили, что наиболее «чувствительные» области для необъективности алгоритмов -- это правоохранение, медицина, рекрутинг и государственный цифровой контроль.
Очевидно, что системам, в основе которых лежат обученные нейронные сети и сложные алгоритмы их обучения, предстоит большой путь к справедливому общественному и государственному регулированию. Сложностей на этом пути масса: от недостатка мощностей и осведомленности госрегуляторов для адекватного внедрения ИИ в «чувствительных» областях до когнитивных искажений, предвзятости и недостатка междисциплинарных навыков самих разработчиков. Однако это не значит, что мы никогда не увидим действительно объективную систему -- такие уже есть. Все зависит от параметров входных данных и проблемы, для решения которой «умный» алгоритм создается. Остается надеяться, что задачи, которые человечество решит оптимизировать с помощью «умных» систем, будут ориентированы на благо.
Список литературы
«5 поколение ЭВМ». История развития ЭВМ. URL: https://clck.ru/NNRXU
«Азиломарские принципы искусственного интеллекта». Робоправо. URL: http://robopravo.ru/azilomarskiie_printsipy_ii
«Британская компания сообщила об утечке данных 267 млн пользователей Facebook». Ведомости. URL: https://www.vedomosti.ru/technology/news/2019/12/20/819272-ob-utechke-facebook
Бруссард М. Искусственный интеллект. Пределы возможного //М.: Альпина Нон-фикшн. - 2020.
Варламов, О. О. «О необходимости перехода от теории искусственного интеллекта к разработке теории активного отражения». Известия Южного федерального университета. Технические науки 77.2 (2007).
Варламов О. О. О необходимости разработки моделей этики для робототехнических систем // Информация и образование: границы коммуникаций. - 2018. - №. 10. - С. 95.
Вейценбаум Д. Возможности вычислительных машин и человеческий разум: От сужения к вычислениям: Пер. с англ. - Радио и связь, 1982.
Верещагина Н. В. Роботы, искусственный интеллект, восстание машин: мифология НТР и научная фантастика //Технологос. - 2016. - №. 3.
«Власти Китая решили акцентировать внимание на развитии ИИ». URL: https://clck.ru/NLSxJ
«В Росреестре предложили создать государственный аналог «Яндекс карт»», Балашова А., «РБК». URL: https://clck.ru/MA2Cm
«Все под контролем. Что представляют из себя «умные города» в Китае», Тищенко М., Republic. URL: https://republic.ru/posts/87253
Галимов Р. Г. Основы алгоритмов машинного обучения - обучение с учителем // Аллея науки. - 2017. - Т. 1. - №. 14. - С. 810-817.
«Где создают искусственный интеллект: топ-10 стран мира». URL: https://clck.ru/NKNX2
Денисов Э. и др. Роботы, искусственный интеллект, дополненная и виртуальная реальность: этические, правовые и гигиенические проблемы //Гигиена и санитария. - 2019. - Т. 98. - №. 1. - С. 5-10.
«Европейский парламент - информационный проект». URL: https://clck.ru/NLTWs
«ЕК приняла цифровую стратегию ЕС, включающую правовые нормы для искусственного интеллекта»/ «ТАСС». URL: https://tass.ru/ekonomika/7797081
«ЕС опубликовал закон против порабощения человечества искусственным интеллектом», Гергиев Р., CNews. URL: https://clck.ru/NLTdY
«Закон о безопасности КНР». Википедия. URL: https://clck.ru/NKcNo
Зекерьяев Р. И. Типы виртуальной личности интернет-пользователя // Ученые записки. Электронный научный журнал Курского государственного университета. - 2019. - №. 1 (49).
Зекерьяев Р. И. Типы виртуальной личности интернет-пользователя // Ученые записки. Электронный научный журнал Курского государственного университета. - 2019. - №. 1 (49).
Зуева В. Н. Обучение с подкреплением в нейронных сетях //Вестник СевКавГТИ. - 2013. - №. 14. - С. 125-128.
Иванов А. Д. Транспарентность роботизированной журналистики: как новые технологии угрожают принципам профессии //Вестник Челябинского государственного университета. - 2017. - №. 8 (404).
«ИИ-онколога IBM Watson уличили во врачебных ошибках». Хайтек Плюс. URL: https://hightech.plus/2018/07/27/ii-onkologa-ibm-watson-ulichili-vo-vrachebnih-oshibkah-
«Интернет вещей, IoT, M2M. Мировой рынок». Tadviser. URL: https://clck.ru/EjWLr
Исследование аналитической компании IDC «The Diverse and Exploding Digital Universe: An Updated Forecast of Worldwide Information Growth Through 2011». URL: https://www.ifap.ru/library/book268.pdf
«Искусственный интеллект: угроза или возможность?», ВЦИОМ. URL: https://clck.ru/NLTv5
«ИТ-программа из России прошла тест на человечность». Русская служба Би-Би-Си. URL: https://clck.ru/NNQgQ
Казакова И. А. История вычислительной техники. - 2011.
Калачева Е. А. Роботы и общество: философско-этические проблемы взаимодействия. Искусственный интеллект: философия, методология, инновации //Сб. трудов IХ Всероссийская конференция студентов, аспирантов и молодых ученых.--М.: МИРЭА. - 2015. - С. 202-205.
Кафтанников И. Л., Парасич А. В. Проблемы формирования обучающей выборки в задачах машинного обучения //Вестник Южно-Уральского государственного университета. Серия: Компьютерные технологии, управление, радиоэлектроника. - 2016. - Т. 16. - №. 3.
«Клиенты Сбербанка попали на черный рынок». Коммерсантъ. URL: https://www.kommersant.ru/doc/4111863
«Кодекс поведения в интернете». URL: https://compress.ru/article.aspx?id=18188
«Конвенция о защите физических лиц при автоматизированной обработке персональных данных». URL: http://www.consultant.ru/document/cons_doc_LAW_121499/
Конституция Российской Федерации. URL: https://clck.ru/CBCL8
«Концепты социального дискурса. Этика». Гуманитарный портал. URL: https://gtmarket.ru/concepts/7185
«Кто мировой лидер в сфере искусственного интеллекта? Рейтинг искусственного интеллекта на ведущих конференциях 2019 года», Чувпило Г. URL: https://clck.ru/NKNVY
Лебедев Л. С. Обзор экспертных систем и перспективы их применения в энергетике //Вестник Иркутского государственного технического университета. - 2014. - №. 4 (87).
«Логическая машина Раймонда Луллия». Vicent. URL: https://vikent.ru/enc/2295/
«Логическое программирование». IPC. URL: https://ipc.susu.ru/lp-14.html
Маковкин А. С. Этические проблемы применения искусственного интеллекта //Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. - 2015. - №. 2-2. - С. 130-132.
Максимов Л. В. К понятию «объект морали» (по мотивам эколого-этических дискуссий) // Этическая мысль. - 2010. - №. 10.
Максимов Л. В. К понятию «объект морали» (по мотивам эколого-этических дискуссий) // Этическая мысль. - 2010. - №. 10.
Макулин А. В. Интеллектуальные системы в гуманитарной сфере и цифровая философия //Вестник Северного (Арктического) федерального университета. Серия: Гуманитарные и социальные науки. - 2016. - №. 2.
Маслов С. Ю. Обратный метод установления выводимости для логических исчислений //Труды Математического института имени ВА Стеклова. - 1968. - Т. 98. - №. 0. - С. 26-87.
«Модель Маккаллока-Питса». Распознавание. URL: https://clck.ru/NNRef
«Можем ли мы вскрыть чёрный ящик искусственного интеллекта?» Хабр. URL: https://habr.com/ru/post/398451
«Москва-2030: Умный город», Официальный сайт мэра Москвы. URL: https://www.mos.ru/2030
Национальный проект «Цифровая экономика», визуализация. URL: https://clck.ru/NLRqt
Нестеров А. Ю. Проблема понимания и искусственный интеллект // Открытое образование. - 2008. - №. 1.
«Обезличенные данные» или что планируется в 152-ФЗ», «Хабр». URL: https://habr.com/ru/post/468081/
«Обезличенные данные просятся на бумагу», Устинова А., ComNews. URL: https://clck.ru/NLRgu
О внесении изменений в Федеральный закон «О персональных данных». URL: https://digital.gov.ru/ru/documents/3529/
Осминская Наталья Александровна Проблема всеобщей науки и классификации наук в ранних текстах Г. В. Лейбница 1666--1669 гг. // Вестник РУДН. Серия: Философия. 2013. №1. URL: https://cyberleninka.ru/article/n/problema-vseobschey-nauki-i-klassifikatsii-nauk-v-rannih-tekstah-g-v-leybnitsa-1666-1669-gg
Поспелов Д. А. Становление информатики в России. - Новосибирск, Научно-издательский центр ОИГГМ, 2015.
«Проблемы обеспечения конфиденциальности персональных данных в условиях реализации кампании по созданию «Умных городов» в Китае: недостатки закона о кибербезопасности» , Русалкина Е.П., c.1. URL: https://clck.ru/NKSqn
Прогнозы развития технологии искусственного интеллекта на 2019 год». PWC. URL: https://www.pwc.ru/ru/publications/artificial-intelligence-predictions-2019.html
«Развитие искусственного интеллекта Китая вышло на ведущий международный уровень», Янь Ли, «Жэньминь Жибао». URL: https://clck.ru/NLStn
«Развитие искусственного интеллекта». Министерство экономического развития РФ. URL: https://clck.ru/NNRu6
«Разностная машина Чарльза Бэббиджа». Galanix. URL: https://clck.ru/NNQsH
Ройзензон Г. В. Проблемы формализации понятия этики в искусственном интеллекте // Шестнадцатая Национальная конференция по искусственному интеллекту с международным участием КИИ-2018. - 2018. - С. 245-252.
«Роботы развозят еду, а дроны следят за людьми. Технологии в Китае против коронавируса». Степанова А., «ТАСС». URL: https://tass.ru/obschestvo/7854501
«Россия названа мировым лидером по внедрению искусственного интеллекта», Гурьянов С. URL: https://clck.ru/NLTpK
«Россия проигрывает гонку за искусственный интеллект», Анпилогов А. URL: https://clck.ru/NLTsi
Руднев В. П. Субъект ноль и проблема искусственного интеллекта // Международный журнал исследований культуры. - 2013. - №. 3 (12).
«Руководство по машинному обучению для новичков». Medium. URL: https://clck.ru/NNRbN
«"Роснефть" и дочь Путина займутся генетическими исследованиями россиян». Русская служба «Би-би-си». URL: https://www.bbc.com/russian/features-52470990?ocid=wsrussian.social.in-app-messaging.telegram..russiantelegram_.edit
«Рынок искусственного интеллекта в России в 2019 г. вырастет до $140 миллионов». CNews. URL: https://clck.ru/NNQiA
«Сексизм и шовинизм искусственного интеллекта. Почему так сложно его побороть?» Tadviser. URL: https://clck.ru/NNQBs
Смолин Д. Введение в искусственный интеллект. Конспект лекций. - Litres, 2018.
«Современные проблемы информатики». НГУ. URL: https://clck.ru/NNQpr
Соколова С. Н. Искусственный интеллект и безопасность общества //Вестник Полесского государственного университета. Серия общественных и гуманитарных наук. - 2016. - №. 1.
«Толковый словарь по искусственному интеллекту». Российская ассоциация искусственного интеллекта. URL: https://clck.ru/NNQbB
Тьюринг А. М. Вычислительные машины и разум //В сб.: Хофштадер Д., Деннет Д. Глаз разума.-Самара: Бахрах-М. - 2003. - С. 47-59.
«“Умный город” или “Старший брат”? Как мэрия научилась знать о москвичах все», Захаров А., «Русская служба BBC». URL: https://clck.ru/NLRLR
Федеральный закон от 24.04.2020 N 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»». URL: https://clck.ru/NLRYj
ФЗ «О персональных данных» от 27.07.2006 №152-ФЗ. URL: https://clck.ru/DWym4
ФКЗ от 30.05.2001 №3-ФКЗ (ред от 3.07.2016) «О чрезвычайном положении». URL: https://clck.ru/JnyW2
Хайкин С. Нейронные сети: полный курс, 2-е издание. - Издательский дом Вильямс, 2008.
«Хартия Европейского союза об Основных правах». URL: https://eulaw.ru/treaties/charter/
Хант Э. Искусственный интеллект [Текст]. - 1978.
Хоткина З. А. Почему искусственный интеллект (ИИ) имеет «склонность к дискриминации» женщин? // Женщины в профессиях XXI века: тенденции, проблемы, пер. - С. 26.
Цитаты известных личностей. URL: https://clck.ru/NKLUq
«Цифровая экономика». Как реорганизовать нацпрограмму, чтобы она заработала в полную силу», CNews Analytics. URL: https://clck.ru/NLSEQ
Цыбульская Е. В., Михайлова Т. Л. Негативное влияние искусственного интеллекта-через призму этики //Международный студенческий научный вестник. - 2016. - №. 3-4. - С. 42-42.
«Чемпион мира завершил карьеру». Газета.ру. URL: https://www.gazeta.ru/tech/2019/11/28/12836642/ii_wins.shtml
«Что такое deep learning и почему о нем все говорят?» Хайтек.фм. URL: https://clck.ru/NNRvZ
«Эвристическое программирование». Национальная психологическая энциклопедия. URL: https://clck.ru/NNR4D
«Эмоциональный робот: как стартап меняет отрасль клиентских коммуникаций». РБК. URL: https://clck.ru/NNQvY
Ященко В. А. Теория искусственного интеллекта (основные положения) //Математические машины и системы. - 2011. - Т. 1. - №. 4.
«Deep learning & Machine learning: в чем разница?» DataStart. URL: https://clck.ru/NNRi7
«Google уличили в отслеживании местоположения пользователя даже при выключенных настройках». N+1. URL: https://nplus1.ru/news/2018/08/13/Big-brother-is-watching-you
«Zoom раскрывает персональные данные пользователей с нестандартной почтой». The Village. URL: https://www.the-village.ru/village/city/news-city/378663-zoom-trublemaker
Algorithmic Justice League. URL: https://www.ajlunited.org/learn-more
«Amazon scraps secret AI recruiting tool that showed bias against women». URL: https://www.reuters.com/article/us-amazon-com-jobsautomation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-biasagainst-women-idUSKCN1MK08G
Amnesty International. Доклад 2017/18. Права человека в мире, с.191. URL: https://clck.ru/NLTR6
Barlow H. B. Unsupervised learning //Neural computation. - 1989. - Т. 1. - №. 3. - С. 295-311.
«Data Analytics and Algorithmic Bias in Policing». Royal United Services Institute for Defence and Security Studies. URL: https://rusi.org/sites/default/files/20190916_data_analytics_and_algorithmic_bias_in_policing_web.pdf
«Dealing With Bias in Artificial Intelligence». The New York Times. URL: https://www.nytimes.com/2019/11/19/technology/artificial-intelligence-bias.html?searchResultPosition=1
Dietterich T. G., Kong E. B. Machine learning bias, statistical bias, and statistical variance of decision tree algorithms. - Technical report, Department of Computer Science, Oregon State University, 1995.
Dietterich T. G., Kong E. B. Machine learning bias, statistical bias, and statistical variance of decision tree algorithms. - Technical report, Department of Computer Science, Oregon State University, 1995.
IBM Research. URL: https://www.research.ibm.com/5-in-5/ai-and-bias/
«In 2017, society started talking AI bias seriously». Engadget. URL: https://www.engadget.com/2017-12-21-algorithmic-bias-in-2018.html
Lambrecht A., Tucker C. Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Published Online: 10 Apr 2019. URL: https://www.researchgate.net/publication
Lambrecht A., Tucker C. Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Published Online: 10 Apr 2019. URL: https://www.researchgate.net/ publication
Life Inside China's Social Credit Laboratory, Simina Misteranu. URL: https://clck.ru/NLSnJ
«Logic Theorist». Википедия. URL: https://en.wikipedia.org/wiki/Logic_Theorist
«Machine bias». ProPublica. URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Next Generation Artificial Intelligence Development Plan. URL: https://clck.ru/NLSdD
Taigman Y. et al. Deepface: Closing the gap to human-level performance in face verification // Proceedings of the IEEE conference on computer vision and pattern recognition. - 2014. - С. 1701-1708.
«The U.S. Military Wants Its Autonomous Machines to Explain Themselves». MIT Technology Review. URL: https://www.technologyreview.com/2017/03/14/243295/the-us-military-wants-its-autonomous-machines-to-explain-themselves/
«This is how AI bias really happens -- and why it's so hard to fix». MIT Review. URL: https://clck.ru/NNQKs
«Understanding the differences between AI, machine learning, and deep learning». TechRepublic. URL: https://clck.ru/NNRZN
«What is algorithmic bias?» TechTalks. URL: https://bdtechtalks.com/2018/03/26/racist-sexist-ai-deep-learning-algorithms/
Приложение
Комментарии экспертов
Сатьярт Мишра Шарма, исследователь Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных «Сколково»
И Здесь и далее: И -- интервьюер, Э -- эксперт.: Давай начнем с первого вопроса. В каких областях алгоритмическая необъективность может стать самой критичной?
Э: С моей точки зрения это либо правоохранение, либо медицина. Например, в Америке многие полицейские департаменты заключили какие-то контракты со стартапами, которые занимаются алгоритмами распознавания лиц и это очень тонкая область, где может быть много bias. И в этой области можно кому-то сломать жизнь просто, если [выявится] неаккуратность программиста или ученого, который писал эти алгоритмы. И в медицине тоже, потому что принимаются решения, которые влияют на здоровье человека. И здесь все очень тонко. Две самые такие области.
И: Давай к следующему вопросу.
Э: Как проблема сбора персональных данных может влиять на этику систем и алгоритмов? Можно сказать о качестве сбора данных. Вообще в машинном обучении есть такой концепт, на английском говорят garbage in, garbage out. Если ты своему алгоритму предоставишь мусор, он тебе ответит мусором. Здесь точно влияет качество сбора данных. Вопрос именно про персональные данные, насколько они могут деанонимизироваться?
И: Да.
Э: Это может быть проблемой, потому что мы смотрим на алгоритмы машинного обучения как на некий черный ящик. Они могут переобучаться. То есть, они могут выучить не какие-то общие черты системы, но они могут выучить конкретные экземпляры, которые мы им даем. И если не учитывать это переобучение, то тогда может быть некая утечка информации. И персональные данные могут не оставаться анонимными. Но с этим можно бороться, например, анонимизировать их очень тщательно при входе в систему машинного обучения. А вообще я хотел добавить к первому вопросу, что очень-очень давно используются в машинном обучении для такой штуки, которая называется кредитный скоринг, когда банк решает, давать ли кому-то кредит. И здесь тоже очень старая задача, здесь прям… Если на входе есть какое-то поле, например, этничность или пол, то алгоритм может выучить это как какой-то решающий фактор, не учитывая то, что этот фактор как-то сложно взаимодействует с другими факторами, и выдавать решения просто по этому фактору.
И: Давай к 3 вопросу. Как и с помощью чего мы можем делать системы с искусственным интеллектом более этичными?
Э: Учитывать вот эти bias при построении системы. Как это делать? Нужно, чтоб их строили люди, которые реально понимают в этом, потому что с технической точки зрения построить какой-то алгоритм машинного обучения не очень сложно, любой человек, который более-менее разбирается в программировании, может за пару месяцев научиться это делать. Но чтобы понимать, как все происходит, как эти алгоритмы вообще устроены, чтобы не смотреть на них как на черные ящики, для этого надо намного более глубоко проникнуть в эту тему. И вообще чтобы просто по галочкам какой-то компании сказать, что у нас есть умный алгоритм машинного обучения, который делает это и это, это не очень сложно. Это можно легко построить, но учитывать все эти bias посложнее. Например, у нас в университете, когда я проходил магистратуру, почти ничего об этом не говорили, просто упоминали, что есть такая вещь и это надо учитывать, но это сейчас очень развивающаяся область. Я бы сказал, за последние 2-3 года выходит очень много статей по ней, она быстро развивается. Не знаю, какие конкретные советы я мог дать… Нанимать людей, который понимают, чем они занимаются. Я могу дать более технический ответ - есть алгоритмы, которые учитывают вот эти bias, они сейчас не очень распространены, прям новые. Я могу дать ссылку на статью, но она на английском и очень техничная.
И: По поводу России, как я поняла, ты не можешь сказать?
Э: Я вообще не очень отделяю российский рынок от международного. Я не могу прокомментировать, как что-то конкретное в России происходит. И по 3 вопросу можно сказать, что сейчас развивается такое движение, где люди понимают, что это на них уже влияет и в дальнейшем будет намного сильнее влиять, и, если увеличить… Если люди больше знают об этом, то будет больше давления на компании, которые этим занимаются, и давления с политической точки зрения. Сейчас скину ссылку на организацию, которая в Америке начала распространять информацию про то, как такие факторы могут влиять на алгоритмы машинного обучения. На эту проблему можно смотреть с технической точки зрения, с социальной, политической или вообще. Решение где-то между ними.
Даниил Скоринкин, академический руководитель магистратуры «Цифровые методы в гуманитарных науках», главный редактор издания «Системный Блокъ» Комментарий дан в письменном виде.
И: В каких областях, на ваш взгляд, алгоритмическая необъективность («прездвзятость») ИИ может стать наиболее критичной? От глобальных решений до жизни конкретного гражданина.
Э: В тех областях, где авторитарное государство пытается воспитать удобных себе людей через систему поощрений и наказаний, основанных на алгоритмах. Типа социального кредита в Китае.
И: Как проблема сбора персональных данных может влиять на этику систем и алгоритмов? Или тут лучше говорить о качестве сбора больших данных? Как я поняла в ходе исследования, на предвзятость алгоритмов непосредственно влияет предвзятый опыт и когнитивные искажения тех, кто эти алгоритмы создает.
Э: Тут много проблем в одном вопросе описано. Я бы сказал, что на предвзятость алгоритмов сегодня (в эпоху deep learning) влияют не когнитивные искажения разработчиков, а дисбаланс обучающей выборки (мало негров, женщин и таджиков, много белых мужчин, вот это все). Но это в общем банальности.
И: Как и с помощью чего мы можем делать системы с ИИ более этичными?
Э: Сбалансированность и репрезентативность обучающих выборок (представлены все соц-дем категории в адекватной пропорции). Возможно, сознательный отказ от учета в качестве признаков для обучения моделей ИИ некоторых соц-дем параметров, опора на которые не всегда считается этичной (раса, пол).
И: Как вы видите проблему с этичностью умных алгоритмов и их внедрения в России?
Э: От неэтичности умных алгоритмов нас спасет [непрофессионализм] ответственных чиновников. Надеюсь. Иначе нам конечно грозит аналог Китая со всеми вытекающими (притеснение меньшинств, тотальная слежка, преследование мыслепреступлений и т.д).
Владислав Белоусов, биоинженер и бионформатик
Э: Роснефть хочет геном просеквенировать всем сотрудникам. Видела новость? Может, они верят в то, что по SNP можно обучить предиктор успешности сотрудника и использовать при приёме на работу? SNP -- это мутации, специфичные для человека. Ты можешь включить предсказание способностей человека по ДНК. Но я лишь предположил, что они хотят предсказывать, если что.
И: Еще не видела, включу в диссертацию. Что насчет алгоритмической необъективности ИИ? Что думаешь по моим вопросам?
Э: Я не понимаю, что ты имеешь ввиду под этим. Это просто статистика. Как она может быть необъективной? В данном вопросе нет места гуманитарным понятиям об этике. Если система думает, что у кого-то больше шансов совершить преступление, значит, об этом говорит совокупность факторов. Да, у чернокожих эта вероятность может быть больше. Но где тут нетерпимость?
И: Я скорее о том, верен ли мой тезис про то, что на то, что называют предвзятостью ИИ, влияет весь человеческий опыт -- который расистский, сексистский и какой угодно.
Э: Мы действительно не можем сказать, что чернокожий безработный выходец из детдома, алкоголик, кто угодно, завтра совершит преступление. Но сочетание многих факторов повышает эту вероятность. Это всё.
Размещено на Allbest.ru
...Подобные документы
Понятие интернет-ресурсов. Виды информации и ее свойства. Особенности сбора информации. Оценка и отбор новостей. Правила сбора оффлайновой информации. Понятие информационных потоков. Особенности сбора и обработки информации для интернет-ресурсов.
курсовая работа [563,8 K], добавлен 18.08.2012Значимость данных социологии в журналистской работе, форма и содержание их предъявления в СМИ. Социологические методы в труде журналиста. Место и роль данных социологических исследований в статьях обозревателя газеты "Аргументы и Факты" В. Костикова.
курсовая работа [93,7 K], добавлен 16.08.2011Особенности и задачи Интернет-журналистики. Роль средств массовой информации и коммуникации в развитии интернета. Виды интернет-публикаций. Законодательная база и WEB–журналистика. Лексические особенности интернет-пространства. Типичная структура сайта.
курсовая работа [837,4 K], добавлен 10.12.2011Интернет как средство массовой информации (СМИ). Интернет-СМИ как часть медиасистемы. Место и роль интернет-журналистики в системе российских СМИ. Типология интернет-ресурсов. Действующие сетевые источники новостной информации региона и их аудитория.
дипломная работа [881,9 K], добавлен 11.07.2015История создания и внедрения виртуальных сетей Интернет. Развитие Интернета в России. Характеристики интернет-пространства. Виды и особенности интернет-публикаций. Законодательная база и WEB–журналистика. Создание сайта, методы его продвижения в сети.
дипломная работа [3,6 M], добавлен 10.12.2011Понятие и признаки реалити-шоу. Программа "Битва экстрасенсов" как шоу на современном телевидении и как пример развлекательной журналистики. Журналистская этика на современном телевидении. Оценка этических нарушений в программе "Битва экстрасенсов".
курсовая работа [63,5 K], добавлен 22.08.2017Роль "информационной войны" и "кибервойны" в условиях арабо-израильского конфликта. Анализ ситуации в Секторе Газа в восприятии палестинских и израильских СМИ (на примере контент-анализа материалов с Интернет-порталов Isralife.com и Palestine-info.ru).
дипломная работа [2,4 M], добавлен 07.06.2014Изучение истории партии "Единая Россия": руководящие органы, символика, партийная пресса, слоганы. Структурно-функциональные особенности официального Интернет-сайта. Специфика отбора информации для размещения на сайт. Написание новостного материала.
контрольная работа [31,3 K], добавлен 11.03.2011Интернет-сайты (порталы): история, особенности, структура, принципы функционирования. Жанровая специфика и языковые особенности информационно-развлекательных Интернет-сайтов. Содержательно-концептуальные особенности информационного проекта "Ekanight.ru".
дипломная работа [1,8 M], добавлен 14.10.2012Интернет, его роль в жизни современного человека и средствах массовой информации. Сущность и назначение сетевой прессы и электронной доски объявлений. Характеристика телеконференций Usenet и служб прямого общения пользователей - Web Chat, IRC и ICQ.
контрольная работа [23,7 K], добавлен 24.03.2010Понятие-Интернет как СМИ. Возможности и свойства сети Интернет. Отличия от других СМИ. Особенности размещения информации в ИнтернетеОсобенности интернет-версий печатных издании. Структура информационного и информационно-развлекательного сайта.
курсовая работа [532,8 K], добавлен 24.04.2007Интернет-газета в системе интернет-журналистики. Специфика сетевых средств массовой информации. Электронная версия газеты "Ведомости" в системе российских СМИ. Поведение и интересы читателя сетевых СМИ, особенности представления материала в сети.
курсовая работа [51,3 K], добавлен 15.05.2012История развития социальных сетей, их виды и актуальность. Сущность и характеристики аудитории. Психологические особенности и мотивы общения в Интернете. Методы воздействия крупных компаний на аудиторию социальных сетей с целью продвижения своего бренда.
курсовая работа [52,5 K], добавлен 23.11.2013Требования, предъявляемые к информации. Репортерская работа в системе журналистской деятельности. Основные источники информации. Способы проверки фактических сведений. Интервью как метод сбора информации. Главные особенности документального метода.
методичка [18,7 K], добавлен 13.06.2012Начало развития сети Интернет. Средство массовой информации, характеризующееся обращенностью к массовой аудитории, общедоступностью. Интернет - многогранное средство массовой информации. Появление авторских проектов в Интернете, их роль для журналистики.
курсовая работа [63,4 K], добавлен 15.01.2011Стремление к мультимедийности как современная тенденция. "Трансформация" аудитории интернет-СМИ под влиянием мультимедийных технологий. Видеопотребление в интернет. Анализ видеоконтента федеральных интернет-СМИ на примере ria.ru, lenta.ru, rbc.ru.
дипломная работа [74,1 K], добавлен 14.05.2013Деятельность средств массовой информации, отражающая состояние региональных социально-политических систем и процессов. Средства массовой информации: понятие, виды, значение. Роль средств массовой информации в политическом пространстве Санкт-Петербурга.
дипломная работа [120,8 K], добавлен 17.05.2011Комплексный анализ основных характеристик Интернета как средства массовой информации. Структура, типы, цели интернет-журналистики и блогов, выявление их особенностей, сходств и различий. Роль и значение интернет-журналистики в системе новых медиа.
курсовая работа [42,8 K], добавлен 15.06.2014Особенности новостного сообщения в современном средстве массовой информации. Место и роль интернет-газеты в современном информационном поле. Особенности творческой деятельности журналиста по подготовке и выпуску новостного материала в интернет-газете.
курсовая работа [26,4 K], добавлен 17.04.2009Место Интернет-СМИ в современной информационной инфраструктуре. Информационная инфраструктура и её техническое видоизменение в условиях информационной революции. Анализ Интернет-версии газеты "Коммерсантъ" как примера традиционного Интернет-СМИ.
дипломная работа [1,5 M], добавлен 30.07.2013