Этика алгоритмов сбора и анализа данных: предвзятость роботизированных систем и алгоритмов

Интернет-пользователь как этический субъект. Роль гражданина и его персональных данных в эпоху цифровизации. Виды и последствия алгоритмической необъективности. Репутационные кейсы бизнеса и ИТ-компаний, где задействована работа роботизированных систем.

Рубрика Журналистика, издательское дело и СМИ
Вид дипломная работа
Язык русский
Дата добавления 23.08.2020
Размер файла 102,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Во время запуска системы государство присваивает гражданину рейтинг в 1000 баллов. Меняется он в зависимости от поступков человека. Понижается -- за совершение правонарушений (например, за написание критических высказываний против власти в социальных сетях, за нарушение правил дорожного движения, опоздание на работу и другое). Растет -- если человек занимается волонтерством, создает рабочие места, помогает своей семье и другим людям в кризисной ситуации. Высокий рейтинг дает право на дополнительные льготы и услуги. Это может быть скидка на оплату отопления, выгодные условия кредита, бесплатный прокат велосипедов. Граждане с низким рейтингом могут быть лишены возможности пользоваться самолетами и высокоскоростным транспортом. А если их рейтинг опустится ниже 600, то они будут «взяты на карандаш» как неблагонадежные и станут объектами пристального наблюдения.

Есть не только «умные города», но и «умные деревни». Сегодня в экспериментальном режиме правила в разных городах и деревнях могут несколько отличаться. В передовой деревне Ронгчен, где эксперимент удался и где побывал корреспондент Financial Times Life Inside China's Social Credit Laboratory, Simina Misteranu. , люди могут получать баллы за уход за стариками и вежливость к соседям. Лучшие «цивилизованные семьи» демонстрируются на досках почета.

Кроме государственной системы социальных кредитов, имеют место и дополнения к ней.

Во-первых, иногда соседские сообщества сами придумывают критерии, по которым человек в их сообществе может быть оштрафован. Так, сообщество из 300 семей First Morning Light из деревни Ронгчен ввело штрафы за «незаконное распространение религии».

Во-вторых, свои системы социального кредита бывают у компаний. Например, она есть у китайской системы мобильных платежей Alipay -- Zhima Credit. Zhima Credit рассчитывает личный кредит пользователя, анализируя истории платежей, список друзей в социальной сети и другие критерии поведения. Директор по технологиям этой компании отметил, что ответственным поведением с точки зрения Zhima Credit может считаться покупка подгузников, а негативным -- игра в видеоигры несколько часов подряд Там же. .

Отдельная система социальных кредитов создается и для компаний. Их рейтинг также может быть повышен или понижен, и он влияет на условия финансовых кредитов для них.

В «Докладе о работе китайского правительства» в 2019 году предложено углубить научно-исследовательскую работу в области больших данных и искусственного интеллекта, а также развивать новое поколение информационных технологий, высококачественное оборудование, биомедицину, транспортные средства на новых источниках энергии, новые материалы, новые промышленные кластеры для укрепления цифровой экономики, сообщает издание «Жэньминь Жибао». «Развитие искусственного интеллекта Китая вышло на ведущий международный уровень», Янь Ли, «Жэньминь Жибао».

Объем рынка искусственного интеллекта в Китае растет ежегодно. Например, в 2017 году он достиг 23,74 миллиарда юаней (232 миллиарда рублей), чем превзошел состояние 2016 года на 67% «Власти Китая решили акцентировать внимание на развитии ИИ». .

Пример коммерчески успешного проекта -- «беспилотный супермаркет». Супермаркет без кассиров и без охраны. Первый такой магазин был презентован в 2017 году, а открыт -- в 2018. Система распознавания лиц и поведения сама контролирует посетителей. Расчет за покупки происходит автоматически. Сейчас есть также «беспилотные» книжные магазины и «беспилотные» уборщики улиц.

Во время пандемии коронавируса были актуализированы все ресурсы систем, основанных на искусственном интеллекте. Роботы были привлечены для доставки еды, лекарств и осмотра пациентов. Патрульные дроны облетали провинции, информируя людей о необходимых мерах безопасности и призывая надеть маску. В автобусах были установлены тепловизоры с автоматическим распознаванием лиц: определяется температура человека, и, если она выше положенного, система об этом сообщит, а человек должен обратиться в больницу. Похожая система есть теперь и на некоторых дронах: она измеряет температуру у нескольких людей одновременно и сохраняет данные о тех, у кого она повышена. Роботы, дистанционно управляемые врачами, могут брать анализы на коронавирус у людей с наличием симптомов «Роботы развозят еду, а дроны следят за людьми. Технологии в Китае против коронавируса». Степанова А., «ТАСС». .

Заместитель министра иностранных дел Китая Чжан Есуй на пресс-конференции «Всекитайского собрания народных представителей» 13-го созыва отметил, что Китай, с одной стороны, должен активно содействовать развитию и применению технологий искусственного интеллекта -- и с другой стороны, принимать меры по предупреждению и сдерживанию, чтобы обеспечить безопасность и контроль. Например, это должен быть закон о цифровой безопасности, закон о защите персональной информации, а также пересмотр закона о развитии науки и техники и другие законодательные акты, тесно связанные с искусственным интеллектом «Развитие искусственного интеллекта Китая вышло на ведущий международный уровень», Янь Ли, «Жэньминь Жибао». . На сегодняшний день в сети Интернет на русском языке нет никаких данных о существовании закона о цифровой безопасности в Китае. Закон о защите персональной информации в Китае отсутствует «Проблемы обеспечения конфиденциальности персональных данных в условиях реализации кампании по созданию «Умных городов» в Китае: недостатки закона о кибербезопасности» , Русалкина Е.П., c.1..

Однако некоторые шаги в сторону гарантий конфиденциальности информации делаются. Так, в 2012-м году принято Решение «Об усилении защиты онлайн-информации» и Уведомление «Об усилении управления доступом к сети смарт терминалов». В 2013-м -- Решение о внесении изменений в Закон КНР «О защите прав и интересов потребителей» «Проблемы обеспечения конфиденциальности персональных данных в условиях реализации кампании по созданию «Умных городов» в Китае: недостатки закона о кибербезопасности» , Русалкина Е.П., c.4..

В «Решении» 2012 года ответственность за защиту онлайн информации возлагается на провайдера. Информация должна собираться только в случаях необходимости и с разрешения пользователя. Передавать информацию третьим лицам запрещается.

Согласно поправке 2013-го года, операторы электронного бизнеса могут собирать только данные, связанные с их бизнес-операциями. Запрещается собирать информацию тайно, нелегально и передавать ее третьим лицам.

В Уведомлении 2012-го года запрещается предустановка на устройства с искусственным интеллектом таких приложений или создание таких функций, которые могут вызвать у пользователей обеспокоенность в отношении неприкосновенности их частной жизни. Производители смартфонов должны продумать и реализовать систему защиты данных на каждом из них. Обработка и хранение персональных данных возможны только с разрешения пользователя.

Перечисленные законодательные акты определяют ответственность провайдеров, операторов и производителей смарт-устройств. На практике, например, в процессе реализации программы «Умный город», сферы деятельности разных компаний пересекаются, и сложно понять, кто из них должен отвечать за конфиденциальность данных в конкретной ситуации.

В 2017 году вступил в силу «Закон о кибербезопасности». Данный закон разграничивает право на персональную информацию и право на неприкосновенность частной жизни. Кроме того, он относит защиту персональной онлайн информации к базовым гражданским правам. Главные требования к защите персональной информации: предотвращение ее повреждения, утраты или раскрытия. При этом каждый пользователь должен быть обязательно верифицирован -- иначе он не получит доступ к сети. Более того, провозглашается «национальный киберсуверенитет» КНР. Запрещается хранить данные за пределами КНР.

Китайские граждане и организации должны быть оштрафованы за нарушение данного закона, нелегально нажитое имущество будет конфисковано. В случае, если иностранная организация или физическое лицо будут заподозрены в атаке, взломе, нанесении вреда важной информационной инфраструктуре КНР, власти имеют право заморозить их активы.

По мнению правозащитной организации Amnesty International, «Закон о кибербезопасности» ведет к институционализации цензуры и «делает интернет-компании агентами государства, предписывая им заниматься цензурой и предоставлять персональные данные пользователей властям по их первому требованию» «Закон о безопасности КНР»./ «Википедия .

Спустя 2 месяца после принятия данного закона, Управление по вопросам киберпространства Китая и Управление по вопросам киберпространства провинции Гуандун начали совместное расследование в отношении интернет-компаний WeChat, Sina Weibo и Tieba. Причина обозначена так: на платформах компаний есть пользовательские аккаунты, с которых «распространяется информация, угрожающая национальной безопасности, общественной безопасности, общественному порядку, включая насилие, террор, ложные сведения, сплетни и порнографию». После разбирательств по этому вопросу WeChat, крупнейший мессенджер в Китае, изменил условия пользования платформой и передал спецслужбам данные более чем 900 млн пользователей Amnesty International. Доклад 2017/18. Права человека в мире, с.191.

Правовое регулирование в Европейском союзе

Европейский союз -- это экономическое и политическое объединение европейских стран. В 2020 году в него входят 27 государств.

Европейский союз провозглашает в качестве своих основных ценностей уважение к человеческому достоинству и правам человека, свободу, народовластие, равноправие и правовое государство. Под равноправием понимается равенство всех перед законом и равенство в правах, вне зависимости от статуса, гендера, национальности, расы, происхождения, религиозной принадлежности и так далее. Это то, что должно объединять страны-участницы: в союз не может входить ни одна страна, которая не признаёт эти ценности «Европейский парламент -- информационный проект». . Создается соответствующее законодательство, которое регулирует сферы жизни так, чтобы перечисленные ценности соблюдались. Главная цель ЕС -- защищать эти ценности в Европе и содействовать миру и благосостоянию граждан стран-членов Там же..

Один из ключевых документов Евросоюза -- «Хартия основных прав». В ней, кроме уже перечисленных ценностей и связанных с ними прав человека, прописано право на защиту информации, биоэтику и хорошее управление. При необходимости, например, у работников есть право организовать стачку или забастовку. Под биоэтикой понимается обязательность добровольного и осознанного согласия человека на любое вмешательство медицины и биологической науки, а также запрет на превращение человеческого тела в источник прибыли. Вопрос о защите данных прописан следующим образом:

1. Каждый человек имеет право на защиту относящихся к нему данных личного характера.

2. Обработка подобных данных должна производиться без манипуляций, в четко определенных целях, с согласия заинтересованного лица либо при наличии других правомерных оснований, предусмотренных законом. Каждый человек имеет право на получение доступа к собранным в отношении него данным и право на устранение в них ошибок.

3. Соблюдение этих правил подлежит контролю со стороны независимого органа «Хартия Европейского союза об Основных правах». / .

Кроме того, отдельно прописана свобода выражения мнений и свобода информации: «Данное право включает в себя свободу придерживаться собственных взглядов и свободу получать или распространять информацию и идеи без вмешательства со стороны публичных властей и вне зависимости от государственных границ. Обеспечиваются свобода и плюрализм массовой информации» Там же. .

Также прописано право на собственность, неприкосновенность частной собственности, а также право на защиту интеллектуальной собственности.

В 2019 году Евросоюз подготовил и представил к обсуждению проект Директивы об этичном подходе к разработке искусственного интеллекта «ЕС опубликовал закон против порабощения человечества искусственным интеллектом», Гергиев Р., CNews . Основная идея в том, чтобы законодательно установить границы и этику применения технологий искусственного интеллекта: они должны быть человекоцентричными, безопасными, применяться на пользу обществу, человеку и его свободе. Искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот. Он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками. Граждане должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

Согласно Директиве, общественность должна иметь полное представление о том, какие работы по развитию технологии ИИ ведутся, и всякая разработка должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Должны создаваться механизмы, обеспечивающие ответственность ИИ-систем за результаты их работы. Директива представлена для обсуждения общественности и специалистам IT-индустрии. После принятия окончательного варианта она будет обязательна к исполнению для всех участников рынка.

В 2020 году Еврокомиссия приняла цифровую стратегию Евросоюза. Она содержит принципы разработки правовых норм для развития и внедрения искусственного интеллекта. Цель данной стратегии -- достижение мирового лидерства в сфере создания искусственного интеллекта.

Глава Еврокомиссии Урсула фон дер Ляйен отметила: «Еврокомиссия приняла новую цифровую стратегию. Она должна гарантировать, что цифровые технологии, включая развитие искусственного интеллекта, обеспечат мощный подъем европейской экономики, и гарантируют выполнение климатических целей Еврокомиссии» «ЕК приняла цифровую стратегию ЕС, включающую правовые нормы для искусственного интеллекта»/ «ТАСС». .

Евросоюз заявил о намерении вкладывать в развитие искусственного интеллекта по €20 млрд ежегодно, до 2030 года. Планируется привлекать к этому как европейское и государственное, так и частное инвестирование.

В качестве главного принципа развития искусственного интеллекта провозглашен полный контроль человека и общества над всеми критическими решениями систем ИИ. Технологии должны быть направлены на удовлетворение потребностей человека, в частности в сфере труда, медицины, правопорядка. Любые системы ИИ должны быть тестированы и сертифицированы.

В рамках достижения целей по развитию технологии искусственного интеллекта, Евросоюз привлекает на работу иностранных специалистов, в том числе из Китая, России и СНГ.

Страны Европейского экономического пространства совместно с Швейцарией занимают второе место в топе регионов, лидирующих в сфере искусственного интеллекта в 2019 году «Кто мировой лидер в сфере искусственного интеллекта? Рейтинг искусственного интеллекта на ведущих конференциях 2019 года», Чувпило Г . На первом месте -- США, на третьем месте -- Китай.

Таким образом, мы рассмотрели сущность правового регулирования в области искусственного интеллекта и больших данных в Российской Федерации и в странах с диаметрально противоположным политическим подходом к данному вопросу. Для анализа мы взяли топ-3 региона, самых успешных в развитии ИИ.

Китай ориентируется, прежде всего, на технократические цели, на укрепление государственной силы и позиций Коммунистической партии Китая. Технологии искусственного интеллекта активно применяются для слежки за гражданами, для манипулирования и экономического давления на них. Создана целая система, которая автоматически влияет на социальный статус гражданина и может делать это без его ведома и против его воли.

Европейский союз регулирует все практики и процессы в соответствии с ценностями и целями, на основе которых был создан: права и достоинство человека, свобода личности, благосостояние всех граждан, равенство, демократия (право граждан влиять на политические процессы в стране и на управление страной), экологическое благополучие, мир. В вопросах искусственного интеллекта декларируется главенство человеческой личности, свободы и общественного блага. Технологии искусственного интеллекта не должны применяться во вред человеку или без его ведома. Каждый гражданин имеет право на доступ к информации о себе. При этом, ЕС, как и Китай, претендует на мировое лидерство в развитии технологий искусственного интеллекта и готов вкладывать в это деньги.

Россия не входит в мировые рейтинги ни по количеству передовых научных исследований в сфере искусственного интеллекта, ни по активности развития и внедрения технологий. Однако по данным компании Microsoft российский бизнес активнее всего внедряет технологии искусственного интеллекта в свою практику: этим занимаются 30% компаний «Россия названа мировым лидером по внедрению искусственного интеллекта», Гурьянов С.. Российские директора компаний занимают второе место в мире по уровню положительного отношения к искусственному интеллекту «Россия проигрывает гонку за искусственный интеллект», Анпилогов А .

По данным ВЦИОМ, слышали о технологии ИИ 75% россиян, однако понимают, что это такое, лишь 29%. 48% выражают по отношению к технологии искусственного интеллекта восхищение, воодушевление и доверие, 31% относятся нейтрально, 12% -- с опасением, недоверием и другими негативными эмоциями «Искусственный интеллект: угроза или возможность?», ВЦИОМ. .

При этом политически, на наш взгляд, в отношении технологий искусственного интеллекта Россия в большей степени ориентирована на китайские практики. Активно и повсеместно внедряется система распознавания лиц, в интернете есть четкий курс на деанонимизацию и уголовную ответственность за высказывания, люди часто не имеют доступа к информации о себе и не могут использовать данные с видеокамер для решения своих проблем, а технологии могут применяться принудительно, тайно и в противоречии существующим законам (таким как Конституция Российской Федерации, ФЗ «О Персональных данных» и «Конвенция о защите физических лиц при автоматизированной обработке персональных данных» «Конвенция о защите физических лиц при автоматизированной обработке персональных данных». , ратифицированная РФ).

Глава 2. Этика роботизированных систем и алгоритмов

2.1 Интернет-пользователь как этический субъект. Роль гражданина и его персональных данных в эпоху цифровизации

В истории философии трактовка понятия субъекта на протяжении веков носила дискуссионный характер.

В докантовской философии субъект отождествлялся с субстанцией. Определяющими категориями обоих понятий являлись, во-первых, способность к производству активности, а во-вторых, обладание рядом черт и свойств.

Кант же развивает осмысление субъекта через категорию объекта. И тот, и другой -- две предельные стороны познавательного процесса. С той разницей, что одна (субъект) его провоцирует, а другая (объект) является предметом познания и обобщения.

После кантовской легализации в теории познания предельной пары «субъект-объект» философская мысль начала стремиться к конкретизации их значений. Так, идеализм уподоблял субъекта понятию «Я», подразумевая под ним индивида, обладающего сознанием (за исключением разве что Гегеля, который объяснял потенцию к деятельности через наличие Абсолютного Духа).

Эмпирики продолжали рассмотрение субъекта как обладающего сознанием индивида (человека), который посредством чувственного опыта осуществляет познание объекта (окружающего мира). В идеалистическом изводе эмпиризма объект представлял собой чувственный образ окружающего мира.

Совершенно новое наполнения субъекта привнес материализм. Фейербах рассматривал субъект в единстве его тела и сознания. К понятию субъекта же философ добавил замечание о том, что сам объект предстает сквозь призму чувственного восприятия субъекта.

Затем Маркс внес существенные коррективы в субъект-объектные отношения. Субъект не только обладает потенцией к познанию объекта, но и способностью к его преобразованию, преображению либо разрушению.

Обобщая, можно говорить о том, что сегодня понятие субъекта зиждется на следующих положениях:

1) Под субъектом предстает либо конкретный индивид, либо группа индивидов, имеющих сознание и телесное воплощение;

2) Субъект не может мыслиться вне социума;

3) Субъект предполагает объект, на который направлена его деятельность;

4) Способен к активности (познавательной и практической деятельности над субъектом).

Сегодня данная трактовка господствует в большинстве гуманитарных дисциплин, и в том числе в этике. Этика определяет субъекта как конкретную телесную и разумную личность, способную к рефлексии, этическому рассуждению и целеполаганию, к различению добра и зла, предпринимающую осознанный выбор модели поведения по отношению к объектам морали, а также несущую ответственность за этот выбор Максимов Л. В. К понятию «объект морали» (по мотивам эколого-этических дискуссий) // Этическая мысль. - 2010. - №. 10..

Этическим объектом же является либо:

1) Сам этический субъект, и тогда мы говорим о рефлексии или самопознании. На эту особенность этики указывал К. Венн«Концепты социального дискурса. Этика». «Гуманитарный портал». , говоря о двойной субъективности субъекта, так как тот одновременно является и субъектом рассуждения и субъектом деятельности, которая будет оцениваться как моральная, либо аморальная.

2) Другие личности и группы;

3) Категории морали, этические установки, паттерны, мотивы и поступки;

4) Существа и предметы, не являющиеся телесными и разумными личностями.

Таким образом, этический субъект абсолютно свободен в выборе этического объекта, над которым будет произведена его познающая деятельность. Преобразующая же деятельность этического субъекта над этическим объектом не обладает подобной свободой. Её сдерживают объективность досягаемости, этические нормы, закон и воля других личностей.

Перенесение этических субъект-объектных отношений из «реальной» жизни в «виртуальную» ставит перед современной этикой множество теоретических вопросов, а также вызовов, которым необходимо найти практическое решение.

Для современной философской мысли очевидным представляется отождествление интернет-пользователя и субъекта. Но в этом случае возникает теоретическое противоречие в самом содержании понятия.

И этика, и философия познания единогласно сходятся в том, что телесность -- необходимый признак субъекта деятельности. Несмотря на то, что зачастую интернет предоставляет возможность пользователю отождествления себя с каким-либо персонажем (например, в некоторых компьютерных играх субъект производит деятельность над объектом за счет «тела» своего героя), говорить о том, что субъект, пребывая в интернет-пространстве, меняет своё физическое тело на виртуальное, не приходится. Мы не можем утверждать, что подобная «подмена» тел является важной тенденцией в деятельности пользователя хотя бы потому, что интернет предоставляет еще большее число различных видов коммуникаций, не располагающих наглядными образами виртуальных тел.

Не меньшее число вопросов вызывает и физическое воплощение объекта. Если деятельность субъекта в интернете направлена на другую личность, то зачастую он может обладать ложными предположениями о её телесности либо не обладать ими вовсе.

Стоит отметить, что интернет дает индивиду возможность визуальной трансформации не только своей телесности, но и вообще любой идентичности. В виртуальном пространстве без труда можно указать любые пол, возраст, социальный статус, национальность и так далее. Оказывают ли такие перемены в виртуальном мире воздействие на восприятие своей идентичности человеком в реальном мире -- большой вопрос для современной психологии и этики. Но то, что подобные манипуляции существенно видоизменяют коммуникацию индивидов, так как субъект познает заведомо ложный и искаженный объект -- бесспорно.

Для современной этики существует еще один нерешенный теоретический вопрос, связанный с существованием этического субъекта в интернет-пространстве. Важнейшим признаком этического субъекта является способность разграничения добра со злом. Такое разграничение осуществляется за счет владения категориальным нравственным аппаратом в рамках конкретной социальной группы. На самых разных уровнях устройства (человечество, нация, страна, религиозная группа, класс, сотрудники одной компании и так далее) каждая группа имеет свои нравственные установки и убеждения. Интернет-пространство предоставляет возможность людям организовывать группы стихийным образом, а также проникать в естественно образованные группы за счет форсировки своих личных данных. Таким образом, субъект легко может оказаться в положении, когда общих нравственных критериев с другими членами группы у него нет.

Такого рода ситуации существенным образом влияют на другое важнейшее положение об этическом субъекте как о личности, совершающей осознанный выбор определенной модели поведения. Этот выбор зачастую основывается на категориальном аппарате той социальной группы, с которой он себя идентифицирует. В ситуации, когда группа собрана случайным образом, а ее аппарат размыт и неясен, индивид начинает испытывать серьезные проблемы при осуществлении нравственного выбора. Часто такой выбор бывает плохо осознан. В этой связи психологи сегодня все чаще говорят о девиантном поведении в сети.

В связи с тем, что многие девиантные типы поведения в сети характерны только для виртуальной жизни, и этика, занимающаяся проблемами «реальности», еще не успела основательно их изучить, виртуальная среда самостоятельно начала разрабатывать собственные этические нормы. Так происходит в любой социальной группе, где девиантные отклонения начинают угрожать ее существованию. Сетевой этикет или нетикет -- это негласный свод правил поведения пользователя в сети, признающийся большинством в группе «Кодекс поведения в интернете. Кодекс состоит из рекомендательной части и ограничивающей.

К рекомендательной части относятся призывы к каждому интернет-пользователю в том, чтобы:

1) Изучать традиции конкретного сообщества, прежде чем вступать в активную коммуникацию (то есть утвердится в категориальном аппарате по разграничению добра со злом в данной группе);

2) Изучать историю беседы, пользуясь функцией поиска (чтобы не задавать участникам группы те вопросы, на которые они уже отвечали);

3) Верно оформлять сообщения. Основной критерий -- легкая читабельность;

4) Скрывать часть длинного сообщения и так далее.

К ограничивающей части относятся формы поведения, осуждаемые большинством в интернет-пространстве и доставляющие неудобства его пользователям. Среди них:

1) Привлечение к себе внимания за счет троллинга и флуда;

2) Игнорирование;

3) Флейм;

4) Некорректные и неинформативные ответы;

5) Оффтоп -- сообщение, явно выходящее за рамки установленной темы обсуждения;

6) Оверквотинг -- излишнее и избыточное цитирование, не несущее в себе актуальную и адекватную заявленной теме информацию.

Помимо этического разрешения проблем девиантного поведения изнутри (сетевого этикета, созданного самими пользователями), появилось и предложение извне -- Этический кодекс Интернета. Его создатели -- пользовательская группа Inethics. На данный момент кодекс представлен к обсуждению.

В отличие от нетикета, в кодексе нет ограничивающей части, весь он представлен в виде рекомендаций. В соответствии с ним интернет-сообщество:

1) Уважает свободу слова, открытость и оперативность информации;

2) Соблюдает законы своей страны;

3) Уважает честь и достоинство людей;

4) Понимает общедоступность интернета (думает о детях и разного рода меньшинствах при совершении акта деятельности);

4) Распространяет только правдивую информацию;

5) Уважает авторские права и не идет на плагиат;

6) Стремится к чистоте и грамотности родного языка;

7) Уважает моральные ценности и культуру;

8) Проявляет принципиальность в борьбе со спамом и сетевыми атаками;

9) Признает ошибки и исправляет их.

Следует отметить, что и нетикет, и Этический кодекс пока еще не уделяют достаточного внимания, пожалуй, главной проблеме, с которой столкнулись интернет-пользователи сегодня, -- коммуникативной и информационной приватности.

Виртуальная среда, по мнению А. Бюля, строится по аналогии с реальной Зекерьяев Р. И. Типы виртуальной личности интернет-пользователя // Ученые записки. Электронный научный журнал Курского государственного университета. - 2019. - №. 1 (49).. Механизмы субъект-объектных отношений, осуществляемых в интернете, возможны потому, что в реальной жизни есть их аналоги. Такая особенность интернет-пространства заставляет пользователя ошибочно полагать, что для всех категорий реальности, к которым он привык, уже существуют аналоги в сети. Однако это не так. Самым ярким примером является право на неприкосновенность частной жизни. Ментально привыкший к этому праву пользователь зачастую ведет себя в сети так, как будто институт приватности существует и в интернет-пространстве.

Помимо заведомо публичной информации, пользователь оставляет о себе еще множество данных, совершенно не подозревая об этом. Подобное явление получило название «цифрового следа» или «цифровой тени».

Находясь в сети, информация о пользователе непрерывно пополняет какие-либо базы данных. Например, Google отслеживает, архивирует и анализирует запросы пользователя, сохраняет данные о местоположении и передвижениях «Google уличили в отслеживании местоположения пользователя даже при выключенных настройках». N+1. . Более того, даже если исключить непосредственное пребывание пользователя в интернете, цифровая тень о нем все равно легко может появиться.

Случайное попадание человека (а также его транспорта, дома и так далее) на фотографию или видеосъемку, которая впоследствии будет добавлена в сеть, множит его цифровую тень. Если учесть, что сегодня большинство общественных мест оснащены камерами видеонаблюдения, информация о которых передается в сетевое хранилище, можно предположить, что едва ли в крупном городе найдется человек, не несущий за собой цифровой след в визуальном, текстовом или голосовом формате.

Получается, что человек не имеет представления о том, какая именно информация о нем содержится в цифровой тени. Он лишен всякой возможности влиять на эту информацию. За счет размещения данных в сети информация может храниться неограниченное количество времени. Например, почтовый клиент Gmail позволяет пользователям не удалять письма, а лишь перемещать их в архив. Данные постоянно подвергаются архивированию и резервному копированию, и поэтому даже удаленные пользователем файлы исчезают только из поля его видимости, но не из сети вообще. Вне зависимости от желаний субъекта информация о нем неуправляемо множится каждый день, и остановить этот процесс невозможно.

Таким образом, мы не можем говорить о развитом институте неприкосновенности частной жизни в сети, потому что:

1) Независимо от желаний субъекта информация о его частной жизни растет каждый день;

2) Субъект не влияет на эту информацию;

3) Субъект не знает, какая именно информация о нем доступна.

Мнимость наличия приватности в сети сохраняется сегодня, пожалуй, лишь за счет того, что цифровая тень еще плохо структурирована. Однако современные технологии на основе ИИ (как, например, распознавание лиц или голоса) выявляют ту траекторию, по которой способна пойти её будущая структуризация.

Помимо пассивного цифрового следа (неосознаваемого субъектом и возникающего вне зависимости от него), существует и активный цифровой след (информация о частной жизни пользователя, осознанно вынесенная в сеть). Чаще всего активная цифровая тень расширяется за счет сбора персональных данных: фамилии, имени, отчества, номера телефона, адреса электронной почты, а иногда и паспортных данных, данных о доходах и расходах, месте работы, состоянии здоровья, то есть вообще любых данных, позволяющих идентифицировать субъекта.

Собираются персональные данные как государственными органами (при оформлении документов в сети, записи к врачу, оплате штрафов и налогов), так и рекламными сайтами, интернет-магазинами, сервисами доставки, социальными сетями, интернет-провайдерами, рекрутинговыми порталами, операторами публичных WI-FI-сетей, мобильными операторами и так далее.

Их использование позволяет демонстрировать индивидуальный подход коммерческих серверов к предпочтениям клиента, предлагать взаимовыгодные решения и персонализированный продукт либо услугу. Однако сам факт существования больших данных наносит еще один удар по институту приватности и неприкосновенности частной жизни. Очевидно, что сегодня наибольшим успехом на рынке пользуется тот производитель, который владеет максимально подробной информацией о потребителе.

В России действует закон «О персональных данных»О внесении изменений в Федеральный закон «О персональных данных. В соответствии с ним любая их обработка должна иметь законное и справедливое обоснование. То есть осуществлять сбор, хранение и распространение персональных данных можно только либо с разрешения пользователя, либо в экстренных ситуациях, предусмотренных законом. Также закон подразумевает адекватность объемов обрабатываемых данных и той задачи, ради которой они собирались.

Подобные законы существуют и в США, и в странах Евросоюза. Получается, что на законодательном уровне частная жизнь пользователей находится под охраной. Однако коммерческая выгода от владения персональной информацией настолько высока, что в сети распространилась практика продажи персональных данных, либо их сбора (без согласия самого субъекта) с помощью специальных алгоритмов. Вот лишь некоторые из них: брутфорс, бонусный брутфорс, радужная таблица, фишинг, социальная инженерия, вредоносные программы. Рассмотрим каждый алгоритм подробнее.

Так как пользователи оставляют свои персональные данные на множестве сетевых площадок, самым распространенным способом их получения является взлом пользовательского аккаунта. Брутфорс представляет собой совокупность методов, при которых программа перебирает все возможные варианты паролей при помощи обычного словаря. Программа также учитывает все возможные комбинации слитного написания слов, как например «этомойпароль». Брутфорс используется злоумышленниками, в первую очередь, для взлома почтовых аккаунтов. Для взлома аккаунтов социальных сетей данный алгоритм мало пригоден.

Бонусный брутфорс (или «брутфорс +») похож на атаку по словарю, но содержит в себе «бонус» перебирания спонтанных буквенных и цифровых комбинаций, не содержащихся в словарях. Например: «этомойпарольааа1». Метод такого перебора можно упростить за счет использования дополнительных вычислительных возможностей компьютера (таких как GPU, распределительно-вычислительных моделей или зомби-ботнетов Ботнет -- сеть компьютеров, которой хакер управляет удаленно. ).

Самой распространенной является атака с использованием радужной таблицы. Радужная таблица -- список предварительно вычисленных числовых значений зашифрованных паролей (хэшей). Такие пароли используются большинством современных систем. Таблица включает в себя хеши всех возможных комбинаций паролей для любого алгоритма хэширования. Таким образом, время, затраченное на взлом такой системы, сводится ко времени перебора хешированных паролей из списка.

Фишинг, в отличие от предыдущих методов, запрашивает у пользователя данные сам: через поддельные сайты онлайн-банкинга, платежных систем, страниц налоговых сборов и так далее. Фишинговое сообщение содержит в себе заверение о возникшей «серьезной проблеме с безопасностью».

Социальная инженерия сходна с фишингом, только происходит в реальном мире. Это метод получения конфиденциальной информации, базирующийся на знании особенностей психики людей. Осуществляется он за счет звонков от «сотрудников банка», «работников, отвечающих за ИТ-безопасность» и так далее.

Что касается вредоносного ПО, то в данном случае на компьютер пользователя вирусным путем устанавливается специальная программа перехвата вводимой с клавиатуры или выводимой на экран информации (например, с помощью скриншотов). Таким образом абсолютно вся информация, создаваемая пользователем и в визуальном, и в текстовом варианте, оказывается в руках третьих лиц.

Стоит отметить, что это лишь некоторые из существующих методов. В действительности их намного больше. Не стоит сбрасывать со счетов и человеческий фактор (очень часто работодатели, сами того не понимая, передают излишнюю конфиденциальную информацию о сотрудниках другим структурам), и простую продажу персональных данных.

В виду огромного количества способов незаконного получения персональных данных, сегодня даже многие крупные компании страдают от их утечки. Например, 24 августа 2019 года об утечке персональных данных своих клиентов заявил Сбербанк«Клиенты Сбербанка попали на черный рынок». Коммерсантъ. . В итоге данные о 60 миллионах держателей кредитных карт оказались на черном рынке. На данный момент, это самая крупная утечка, происходившая в банковской сфере.

В том же году исследовательское агентство Comparitech заявило об утечке данных пользователей Facebook «Британская компания сообщила об утечке данных 267 млн пользователей Facebook». Ведомости.. Пострадало 267 миллионов человек. Их конфиденциальные данные были выложены в сеть, и ознакомиться с ними мог любой желающий.

Последняя из громких -- утечка данных пользователей сервиса видеоконференций Zoom «Zoom раскрывает персональные данные пользователей с нестандартной почтой». The Village . Помимо рассекречивания стандартных данных (ФИО, возраст, адрес электронной почты, номер телефона и домашний адрес), The Washington Post указывали на то, что более 15 000 приватных видеозвонков оказались выложенными в сеть.

Исходя из вышесказанного, проблема приватности и конфиденциальности в интернете на сегодняшний день является стержневой для современных этики, юриспруденции и психологии. Особо следует обратить внимание на то, что этический субъект в интернете сегодня не осознает и не может осознавать, какую информацию он ежесекундно создает, не может ей управлять и, самое главное, -- не может ручаться за ее безопасность. Исторический опыт говорит нам о том, что информация, созданная и обобщенная людьми, со временем множится. Сегодня ее приумножение составляет примерно 60% в год Исследование аналитической компании IDC «The Diverse and Exploding Digital Universe: An Updated Forecast of Worldwide Information Growth Through 2011». . За один год человечество способно перейти рубеж того объема информации, который копился мировой историей в течение 5 тысячелетий.

При этом человечество не способно оптимально обработать всю накопленную информацию. Создание объективных и непредвзятых систем на основе ИИ, который обучается на прошлом опыте и существующих данных, таким образом -- большой вопрос. Накопленная человечеством цифровая тень, очевидно, не всегда выдерживает примерку этических категорий.

2.2 Алгоритмическая необъективность ИИ и понятие «предвзятости»

Глубокое обучение ИИ строится на огромном количестве больших данных. От качества выборки, то есть сбора и предварительного анализа этих данных, зависит не только результативность работы систем ИИ, но также их объективность. Так как «умные» алгоритмы разрабатывает человек, то, как и его создатель, современный и доступный нам ИИ обладает так называемой «предвзятостью», или алгоритмической (и когнитивной) необъективностью. В зарубежных источниках для данного феномена введен термин «AI bias» Dietterich T. G., Kong E. B. Machine learning bias, statistical bias, and statistical variance of decision tree algorithms. - Technical report, Department of Computer Science, Oregon State University, 1995.. Предвзятость систем ИИ ведет к ошибкам в поиске закономерностей, распознавании, оптимизации и предсказании тенденций -- то есть главных задачах ИИ. Мало того: как и создатель-человек, алгоритм может быть дискриминирующим.

Несколько лет назад женщины-ученые из Лондонской школы экономики с помощью эмпирических методов изучили алгоритмы таргетированной рекламы Facebook и Google. Они решили выяснить, кому системы чаще показывают объявления о высокооплачиваемых вакансиях в традиционно «мужских» областях математики, науки, техники и инженерии. Результатом анализа стала статья 2018-го года «Алгоритм предвзятости? Эмпирическое исследование явной дискриминации по признаку пола в рекламе вакансий STEM» Lambrecht A., Tucker C. Algorithmic Bias? An Empirical Study of Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Published Online: 10 Apr 2019. URL: https://www.researchgate.net/ publication. Исследовательницы выяснили, что, несмотря на гендерную нейтральность объявлений, системы Facebook и Google показывали мужчинам рекламу значительно чаще, чем женщинам. Причиной оказался не тайный заговор сексистов, а сам алгоритм: его научили оптимизировать затраты на рекламу. «Умная» система, фактически обученная на прошлом опыте, «посчитала», что для нее выгоднее показывать объявления специалистам мужского пола.

Сам по себе алгоритм не способен быть неэтичным или дискриминирующим. Системы с искусственным интеллектом не пытаются имитировать человеческий мозг, а решают заданную человеком проблему через методы машинного обучения. Способность ИИ «самостоятельно» принимать решения (как в кейсе с рекламой вакансий) позволяет нам говорить об алгоритме как об «умной» системе, но основной вопрос -- не в том, каким образом ИИ приходит к решению, а на каких данных обучается, чтобы это решение выполнялось.

Обучаясь на больших наборах данных, система получает некие навыки. То, как она эти навыки задействует, при этом для разработчиков остается неясным. Для описания работы такой системы подходит модель «черного ящика»: система, которую рассматривают в таком виде, описывается как имеющая некий «вход» для ввода данных и «выход» для отображения результатов. Процессы, которые происходят между «входом» и «выходом», наблюдателю неизвестны «Можем ли мы вскрыть чёрный ящик искусственного интеллекта?» Хабр.. И если мы в некоторых случаях не можем точно определить, какие именно процессы влияют на предвзятость алгоритма, то точно можем сказать, что влияет на входные данные. Это человек и его социально-культурный опыт.

Современное общество далеко от гендерного, зарплатного, возрастного, расового и классового равенства. Большинство социально-экономических данных несут на себе печать такой дискриминацииХоткина З. А. Почему искусственный интеллект (ИИ) имеет «склонность к дискриминации» женщин? // Женщины в профессиях XXI века: тенденции, проблемы, пер. - С. 26.. Очистить данные от следов неравенства тяжело: например, даже если мы уберем из резюме соискателей пол или слово «женщина», есть множеств других гендерно-окрашенных слов, на которые способен среагировать алгоритм. Так случилось с рекрутинговой системой Amazon Amazon scraps secret AI recruiting tool that showed bias against women. URL: https://www.reuters.com/article/us-amazon-com-jobsautomation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-biasagainst-women-idUSKCN1MK08G : оказалось, что она нарочно отметала женские резюме, которые соискательницы подавали на IT-должности. Компании, которая разработала алгоритм для поиска лучших кадров с 2014 года, уже в 2017-м пришлось распустить команду разработчиков и признать проект неудачным. Реальный мир и предвзятость тех, кто его населяет, делает предвзятым самые сложные системы. Самые близкие к этическому вопросу виды AI bias -- сексизм, расизм и необъективность в области социального равенства.

Тема «предвзятости» ИИ давно вышла за пределы научного и IT-сообщества: чем ближе ИИ к рядовому пользователю интернета или обычному гражданину, тем заметнее становятся AI bias. Так, тему необъективности «умных» систем обсуждают не только профильные СМИ вроде TechTalks «What is algorithmic bias?» TechTalks. или Engadget «In 2017, society started talking AI bias seriously». Engadget. , но и The New York Times «Dealing With Bias in Artificial Intelligence». The New York Times. , Forbes, The Guardian и другие авторитетные массовые издания.

За этичностью принимаемых ИИ решений сегодня следит только общественность и те, кто его разработал. В предыдущих фрагментах исследования мы поднимали вопрос госрегулировании роботизированных систем и, как видно из анализа, немногие государства преуспели именно в контроле интеллектуальных систем. Однако научное сообщество предпринимает попытки самостоятельно сформировать базовые принципы регуляции и развития ИИ: так, например, по итогам конференции разработчиков и исследователей в сфере ИИ, которая состоялась в 2107-м в Азиломаре (США), были сформированы так называемые «Азиломарские принципы искусственного интеллекта» «Азиломарские принципы искусственного интеллекта». Робоправо. . Под этими принципами подписались более 3,5 тысячи ученых и представителей крупных IT-корпораций.

Предвзятость ИИ, по мнению исследователя и журналиста Леонида Черняка, это третье звено в цепочке двух других предвзятостей -- когнитивной и алгоритмической «Сексизм и шовинизм искусственного интеллекта. Почему так сложно его побороть?» Tadviser. .

Когнитивная предвзятость -- то, что свойственно человеку, то есть разработчику, который трудится над системой глубокого обучения. Алгоритмическая предвзятость -- неверные дискриминирующие решения системы. AI bias -- то, что мы получаем в процессе работы с такой системой.

Когнитивные искажения -- нормальная часть человеческой психики. По данным IBM, выявлено и классифицировано около 180 типов таких искажений IBM Research. . Каждое из них может повлиять на то, как человек принимает решение. Такие искажения находят свое продолжение в «умных» системах, которые, в свою очередь, используют для принятия «чувствительных» решений правительством или бизнесом. Неверные данные, в которых может содержаться скрытая дискриминация, могут использоваться при обучении алгоритма и вредить объективности результата.

Algorithmic bias (алгоритмическая предвзятость) и, как следствие, AI bias, о которой, по ощущениям автора данной работы, стали активно писать примерно в середине 2010-х, явление не новое. Впервые о том, как человек влияет на объективность машины, задумался Джозеф Вейценбаум -- создатель программы «Элиза» (1966 год) и главный критик идей о реальном «искусственном мозге». В своей монографии «Возможности вычислительных машин и человеческий разум» ученый пишет о том, что предвзятость алгоритма может заключаться не только в ошибочных данных, но и в особенностях кода самой программы Вейценбаум Д. Возможности вычислительных машин и человеческий разум: От сужения к вычислениям: Пер. с англ. - Радио и связь, 1982.. Особенно если код нетривиален.

Как расизм, сексизм и другие виды дискриминации могут влиять на реальную жизнь человека через решения машины? Хороший пример приводит «Machine bias». ProPublica ProPublica: исследователи количественно изучили расовую дискриминацию в американской системе оценки криминального риска. Система считала чернокожих людей наиболее «криминогенными», присваивая им неоправданно высокий балл в предсказании будущих преступлений.

Британские ученые из Королевского объединенного института оборонных исследований выяснили, что массового внедрения систем ИИ боятся полицейские. По данным исследования «Анализ данных и алгоритмическая погрешность в полицейской работе», использование умных систем, как считает полиция, приведет к ошибкам в анализе данных, прогнозах криминогенности и необъективной оценке рисков. В частности, бедные слои населения могут быть причислены системой к высокорисковой группе только из-за того, что их данные чаще можно найти в правительственных базах: малообеспеченные граждане чаще контактируют с социальными службами «Data Analytics and Algorithmic Bias in Policing». Royal United Services Institute for Defence and Security Studies. . Исследование подготовлено по заказу Центра этики данных и инноваций (CDEI).

В 2019-М году MIT Review опубликовал статью «This is how AI bias really happens -- and why it's so hard to fix» «This is how AI bias really happens -- and why it's so hard to fix». MIT Review . По мнению автора, у «предвзятости» ИИ есть три причины:

1. Размытая задача. Например, скоринговому алгоритму банка нужно определить кредитные качества клиента. Четкого определения этому понятию нет. То, что на выходе решит машина, будет продиктовано личными формальными представлениями программистов.

2. Сбор данных. Данные могут быть либо нерепрезентативными (в датасете больше резюме мужчин-разработчиков, чем женщин-разработчиц), либо уже быть необъективными.

3. Подготовка данных. Предрассудки программистов могут сказаться при выборе атрибутов для алгоритма, с помощью которых он будет оценивать соискателя вакансии, получателя кредита, потенциального преступника и прочих.

Понятных методов для того, чтобы действительно сделать модель недискриминирующей и этичной, нет. Несмотря на развитие технологий, разработчики «умных» систем -- носители определенных ценностей и представители определенных социальных групп и взглядов. Кроме того, компьютер не способен понять, что значит «объективность» в человеческом понимании: для этого нам пришлось бы выдумать и закрепить общечеловеческое понятие справедливости, что, конечно, невозможно.

Глава 3. Виды и последствия алгоритмической необъективности

С точки зрения исследователя Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных «Сколково» Сатьярта Мишры Шармы, самыми рискованными областями применения систем ИИ и последствий алгоритмической необъективности могут стать правоохранение и медицина. По словам Шармы, многие полицейские департаменты США сегодня заключают контракты со стартапами, которые разрабатывают алгоритмы по распознаванию лиц. Предвзятость алгоритмов тут выливается в этнический вопрос: как в кейсе расследования ProPublica, которого мы касались выше, из-за ошибки разработки на оценку криминогенности может влиять расовое происхождение человека. И правоохранение, и медицина -- две наиболее тонкие области применения ИИ: решения на основе алгоритма способны влиять на судьбу, жизнь и здоровье конкретного индивида.

Иллюстративный пример последний лет -- ошибки медицинского ИИ «Watson для онкологии», разработанного компанией IBM. Эта система по-прежнему используется для помощи в лечении онкологических пациентов в 230 больницах, однако отчеты 2017-го показали, что ИИ неверен в своих рекомендациях: предлагает противопоказанный для пациента с кровотечением препарат, ошибается в диагностике и так далее. По внутренним документам IBM, в предвзятости системы виновны разработчики компании, а также медики, которые учат Watson на гипотетических случаях, а не на реальных карточках пациентов. Сейчас IBM отходит от внедрения ИИ в области медицины и сосредотачивается на партнерствах со страховыми компаниями «ИИ-онколога IBM Watson уличили во врачебных ошибках». Хайтек Плюс. URL:

...

Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.