Техносоциальное неравенство в цифровую эпоху

Развитие информационных технологий - важнейший фактор, который способствует концентрации власти и рычагов тотального контроля в одних руках. Различная степень обеспечения свободы воли как один из наиболее важных показателей социального неравенства.

Рубрика Социология и обществознание
Вид статья
Язык русский
Дата добавления 11.01.2021
Размер файла 28,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru

Размещено на http://www.allbest.ru

Техносоциальное неравенство в цифровую эпоху

К.А. Даллакян

В статье рассматривается проблема взаимоотношения социальных, техносоциальных субъектов и систем искусственного интеллекта в грядущем смешанном обществе. Выявляются угрозы возможного техносоциального неравенства как между людьми и роботами, так и между обычными людьми и лицами, имплантировавшими чипы с целью усиления своих интеллектуальных возможностей. Подчеркивается необходимость разработки моральных и правовых норм регуляции поведения субъектов в смешанном обществе. Раскрываются методологические основы робоэтики и предлагаются стратегические шаги построения взаимодействия акторов смешанного общества.

Ключевые слова: искусственный интеллект, смешанное общество, робоэтика, техновидовой расизм, техносоциальное неравенство, кибертехнологии, манипуляция.

TECHNOSOCIAL INEQUALITIES IN THE DIGITAL AGE. Dallakian Karlen A.

The article is devoted to the problem of relationship between social, techno-social subjects and artificial intelligence systems in the future mixed society. The threats of possible techno-social inequality both between humans and robots, and between ordinary people and persons, implanted chips to increase their intellectual capabilities, are considered. The necessity of development moral and legal norms of subjects behavior in the mixed society is emphasized. The author reveals methodological foundations of bioethics and proposes strategic steps for constructing interactions of actors in a mixed society.

Key words: artificial intelligence, mixed society, roboethics, techno-species racism, techno-social inequality, cyber technology, manipulation.

Четвертая научно-техническая революция, осуществляя переход к кибертехнологиям и робототехнике, трансформирует не только способ существования человека и общества, но и бытие в целом. Возникает новая форма движения материи. Какими будут ее реалии, зависит от нашей готовности к осмыслению возникающих проблем. Если эти изменения будут осознаны и смоделированы, то удастся смягчить социальное напряжение, в том числе и от “техносоциального” неравенства в период перехода общества в смешанный формат “человек -- робот” Яницкий О.Н. Четвертая научно-техническая революция и глубинные изменения процессов глобализации // Вестник Института социологии. 2017. № 21. С. 12-34. Kurzweil R. The age of spiritual machines. N.Y., 1999..

Модель и специфика “техносоциального” неравенства будут зависеть, прежде всего, от характера отношения человека к системам искусственного интеллекта. Не секрет, что отношение человека к своему окружению на протяжении тысячелетий окрашено изрядной долей эгоизма, постоянно приводящего его к критической черте самоуничтожения. В философии это приняло форму дилеммы “свое -- иное”, однако не в гегелевском, а скорее в постмодернистском смысле. Иное рассматривается не как диалектическое дополнение к своему, а как просто отличающееся от него, другое. Мы даже в XXI в. не можем принять и понять то, что не похоже на нас Вершинина И.А., Мартыненко T.C.Неравенство в современном мире: обзор международных докладов // Вестник Московского университета. Серия 18. Социология и политология. 2016. № 3. С. 74-91.. Не только представителей других видов, рас, культур, стран, этносов, но даже пола и возраста Викторов А.Ш. Институты неравенства в современном обществе // Вестник Московского университета. Серия 18. Социология и политология. 2019. № 1. С. 7-28. . Что тогда говорить о “техновидовом” неприятии? Возможность нового “техновидового” расизма чрезвычайно велика. Угроза человечеству со стороны роботов, о которой предупреждают многие ученые и писатели, скорее всего, будет следствием человеческого неприятия автономии и достоинства искусственного интеллекта (ИИ).

Причем проблема интеллектуального и социального неравенства может возникнуть не только между людьми и собственно роботами, но и между обычными людьми и людьми, имплантировавшими в мозг чипы с целью усиления своих интеллектуальных возможностей. Социально-экономическое неравенство в скором времени позволит некоторым людям посредством новых технологий умножить свои интеллектуальные и физические возможности, еще более увеличивая пропасть между членами общества. Техносоциальное неравенство может быть гораздо страшнее просто социального, ибо последнее имеет место хотя бы внутри одного вида homosapiens.

Это актуализирует необходимость создания моральных и правовых норм регуляции отношений социальных и техносоциальных субъектов. Россия, имея достаточные интеллектуальные ресурсы, сегодня явно отстает от передовых стран мира в этом процессе, что может привести нас к неминуемому дальнейшему скатыванию к числу сырьевых стран Кудрин А. Российский инвестиционный форум. Сочи, 2017.. Техносоциальное неравенство может развиться и между целыми странами. Более кибернетизированная страна, оснащенная новейшими высокими технологиями, развитыми системами искусственного интеллекта, демонстрируя беспрецедентные формы социального неравенства, может практически поработить многие неблагополучные в этом отношении страны Осипова Н.Г. Неравенство в эпоху глобализации: сущность, институты, региональная специфика и динамика // Вестник Московского университета. Серия 18. Социология и политология. 2014. № 2. С. 22-46..

Возможные проблемы во взаимодействии людей с ИИ не означают, что не следует развивать кибертехнологии и робототехнику, напротив, это означает, что необходимо предвидеть предстоящие угрозы и управлять процессом. Эволюция человека, хотим мы этого или нет, пролегает через создание не только ИИ, робота, но и “киберчеловека”, многократно превосходящего обычных людей по своим возможностям. Появление человека на Земле было ответом на потребность биосферы в космическом расширении собственных границ. “Киберчеловек” и ИИ являются, кроме всего прочего, еще и необходимым средством освоения космоса. Длительные космические полеты, демонстрируя биологическую неприспособленность человека к ним, станут в скором времени прерогативой роботов Дудоров Е. Готовим робота “Федора” к полету в космос // РИА Новости. 2019.27.02. URL: https://ria.ru.cdn. ampproject.org.

Однако даже если исключить возможное в будущем “восстание техномасс”, которым давно пугают человечество, возникает множество проблем во взаимодействии людей с киберсуществами. Прежде всего, потому что искусственными системами намного легче управлять. Причем не только собственно роботами, но и людьми, имплантировавшими в мозг чипы с целью усиления своих интеллектуальных возможностей. Можно ли будет говорить тогда о свободе воли и социальном равенстве, если доступ в мозг будет открыт производителям и владельцам чипов? Возрастает угроза тотальной манипуляции массами. А это означает, что и рамки морали резко расширятся, ибо, как известно еще со времен И. Канта, о морали имеет смысл говорить лишь тогда, когда есть свобода воли. Если выбор предопределен, то и морали нет, так как нет ответственности за собственный (если так можно будет назвать) выбор.

Это актуализирует необходимость уже сейчас задуматься о защите интеллектуальной свободы людей будущего. Иначе античное рабовладение покажется нам раем. Если в прошлом веке Николай Бердяев и Питирим Сорокин предупреждали о наступлении нового средневековья, то сегодня можно уже говорить о возможной угрозе наступления нового рабовладения Бердяев Н.А. Новое Средневековье. Т. 8. М., 2018..

Цифровая эпоха порождает новые виды неравенства и между странами. Неравенство ощутят, прежде всего, страны, которые не достаточно активно вошли в цифровой мир. Причем особенно остро свою “ущербность” будут осознавать страны, не освоившие высокие технологии и не применяющие системы ИИ в военно-промышленном комплексе. Возможность применения боевых роботов и военной робототехники в целом еще больше увеличит пропасть между странами. Сегодня известны различные модели боевых роботов -- Doga (Израиль, 2009), Kuratas(Япония, 2012), Нерехту (Россия, 2015), Orca (США, 2017) и другие “безотказные” и не знающие моральных сомнений техносолдаты. Многие ученые, общественные и политические деятели предупреждают об опасности развития военной робототехники и возможной непредсказуемости их применения. Так, в 2012 г. была создана организация Campaignto Stop Killer Robots, а в 2017-м 115 экспертов, включая Илона Маска, активно занимающегося производством автомобилей-беспилотников, обратились в ООН с просьбой запретить разработки и производство военных роботов The Guardian. Interfax. 2017.20.08..

Одним из преимуществ ИИ и робототехники перед людьми является также и то, что они могут существовать в недоступных для живых существ, включая человека, пространственно-временных метриках. Человек, открыв для себя нанотехнологии, практически получил возможность ментального присутствия в микромирах См.: Даллакян К.А. Пространственно-временной сдвиг в эпоху нанотехнологий // Культура в глобализационном мире. М., 2013. С. 43-55.. Кроме всевозможных преимуществ подобный пространственновременной сдвиг может еще более усилить техносоциальное неравенство как между различными странами, так и между человеком и системами ИИ. Во-первых, страны, имеющие доступ в микромиры, будут более привилегированными по сравнению со странами, не имеющими таких технологий. Во-вторых, степень развития ИИ может увеличить их автономию от человека, и тогда в микро- и мега-мирах ИИ и роботы могут, физически присутствуя в этих сферах, обладать преимуществом перед людьми. Например, попав в организм человека, ИИ может иметь искушение “похозяйничать” там. Не исключено, что местом, особенно понравившемся ему, может оказаться человеческий мозг.

Израильский профессор Юваль Ной Харари в своей работе “Homo Deus. Краткая история будущего” устами датаистов предрекает в скором времени гибель homosapiens. Логика проста: если все живое есть алгоритм, инструмент, предназначенный для обработки информации, то следующий этап эволюции человека -- ИИ, бесконечно превосходящий по своим интеллектуальным возможностям человека. Человек благодаря речи, письменности и искусственным механизмам стал хозяином планеты, ИИ же благодаря экспоненциально растущим интеллектуальным возможностям создаст космический интернет вещей -- космической паутины, где все будет взаимодействовать со всем, и человек может стать уже и не нужным. “Как человек в свое время отодвинул в эволюционной цепи обезьяну, -- резюмирует автор, -- так и ИИ отодвинет человека” Харари Ю.Н.Homo Deus. Краткая история будущего. М., 2018. С. 218..

Однако все это не так однозначно, как может показаться. Да и сам Ю. Харари больше ставит вопросы для размышления, чем выносит вердикты. Совершенствование ИИ в процессе “техноэволюции”, открывая перед человечеством фантастические горизонты, порождает и много доселе неизвестных проблем, ответов на которые у человечества пока нет. Самопрограммирующиеся и самообучающиеся системы, как показывает опыт, самостоятельно овладевая определенными навыками, за считанные часы проходят путь, который люди прошли за тысячелетия. Человек уже для их развития становится не нужным. Причем скорость техноэволюции, в отличие от биологической, ничем не ограничена.

Рэй Курцвейл, технический директор всемирно известной корпорации Гугл, отмечает, что мощность биопрограммирования удваивается с каждым годом. Стоимость секвестирования генома за несколько лет сократилась в миллион раз -- с одного миллиарда до одной тысячи долларов. Современные технологии позволяют моделировать, проводить симуляции и репрограммировать геном в два раза эффективнее с каждым годом. Согласно прогнозу Р. Курц- вейла, благодаря новым технологиям к 2045 г. возможности нашего интеллекта вырастут в миллиард раз, а к 2050 -- будет решена проблема старения и смерти Курцвейл Р Эволюция разума. М., 2015. С. 135.. Так что выражение “Живы будем -- не помрем!” приобретает новое звучание. Но это возможно завтра или послезавтра.

Сегодня же, пока мы продолжаем искать свою идентичность, наш восточный сосед наращивает тотальную цифровизацию. Китайская компания Алибаба успешно разработала и внедрила уже успевшую нашуметь программу “Рейтинг благонадежности” или “Рейтинг доверия”. Известно, что граждане Поднебесной получают баллы за следование социальным нормам и правилам и соответственно лишаются их за нарушение. Автоматические системы идентифицируют граждан и допускают их к потреблению государственных услуг и общественных благ. Лица, имеющие низкий рейтинг благонадежности, лишаются права выезда из города, им не продаются билеты на воздушный и наземный транспорт, а также они не могут посещать некоторые публичные заведения, такие как театр, рестораны и т.д. Социальный рейтинг в Китае // TADVISER. 2019.10.04.

Как видим, уже сегодня цифровизация приводит к новым формам неравенства, а порой и несправедливости, ведь не вовремя оплаченный счет, например, за квартиру или переход улицы не в том месте пока еще не характеризует человека как неблагонадежного. Преступник может оплачивать счета вовремя и переходить дорогу в нужном месте, а сам замышлять преступление вплоть до террористического акта. Тем более, что возможны и сбои системы. Так известно, что одну достопочтенную бизнес-леди не пустили на встречу из-за резко упавшего рейтинга благонадежности. После ее возмущения было выяснено, что автоматическая система ошиблась. Дело в том, что изображение женщины было на баннере, прикрепленном к автобусу, который ехал на зеленый свет светофора. Для пешеходов же естественно горел красный. Система зафиксировала нарушение, так как изображение на баннере было идентифицировано как физическое лицо, нарушающее правила дорожного движения. Хорошо, что справедливость восторжествовала, но издержки могли бы быть и более значительными.

Интересен также случай с интеллектуальной системой Zero Trust, получившей доступ к информации государственных служащих. Проанализировав всего один процент чиновников, она обнаружила 9000 коррупционеров. Она отслеживала все передвижения, в том числе и финансовые. В результате возник общественный скандал и во многих регионах систему отключили Gilman E., Barth D. Zero Trust Networks. Sebastopol, 2017.. Но это только пока...

Информационные технологии способствуют еще большей концентрации власти и рычагов тотального контроля в одних руках, усиливая социальное неравенство. Формируется олигополия, синтезирующая власть государства и крупных корпораций. Народ все в большей степени не только отдаляется от возможности участвовать в государственном управлении, но и лишается доступа к современным управляющим информационным технологиям. Известно, что руководство Фэйсбук ведет переговоры с китайскими властями о перспективах функционирования на территории Китая, причем, отнюдь не исключается возможность сотрудничества с властями и передачи им данных пользователей.

В киберпространстве к тому же возникают еще и новые формы насилия. Формируются новые виды сетей -- информационные, политические, коммуникационные, криминальные и т.п. Контроль над подобными группами порой бывает установить очень сложно, что часто может привести к трагическим последствиям. Например, печально известны кибер-группы смерти “Синий кит”, “Беги или умри” и другие, манипулирующие поведением детей и склоняющие их к суициду Костюченко Е. Тридцатилетняя история “групп смерти” -- от Юзнета до наших дней // Новая газета. 2019.15.05. № 51..

Техносоциальное неравенство проявляется не только в различном доступе к информации, но еще и в различной степени владения информационными технологиями. Не секрет, что сегодня происходит перепрофилирование криминала. Видеокамеры и кредитные карты оставляют в прошлом многие преступные специализации. На смену им приходят киберхакеры, манипулирующие не только экономической, но и политической информацией. Поэтому, прежде всего, необходимо обеспечить всеобщее цифровое образование всех слоев населения. Ведь развитие и успешное функционирование смешанного общества, оптимальное взаимодействие человека и искусственного интеллекта в решении возникающих проблем предполагают интеграцию интеллектуальных усилий всего населения страны.

В свое время бывший госсекретарь США Генри Киссинджер заметил, что “эпоха Просвещения началась по существу с философских идей, которые распространились с помощью новой технологии. Наше же время движется по противоположному пути. Разработана потенциально доминирующая технология искусственного интеллекта, которая нуждается в направляющей философии. Но разработкой таковой никто даже не занимается” Киссинджер Г. Как завершается эпоха Просвещения // Россия в глобальной политике. 2018. № 4. С. 21..

Необходимо философско-методологическое осмысление, прежде всего, отнюдь не такого уж тривиального, как может показаться, вопроса о векторе дальнейшего развития систем искусственного интеллекта. Многие авторы акцентируют внимание общественности лишь на возможных угрозах, которые таят в себе роботы. Людей пугают искусственным интеллектом, в миллионы раз превосходящим человеческий, приводя, например, факт, что робот, имея начальные алгоритмы незнакомой ему игры, путем проб и ошибок за несколько часов сам освоил уровень, к которому человечество пришло за 1500 лет.

Важнейшим показателем социального неравенства остается различная степень обеспечения свободы воли. Можно ли будет продолжать говорить о свободе воли киберсуществ, социальных и техносоциальных субъектов киберпространства? Уже сегодня существует техническая возможность прослушивания частных лиц и управления поведением людей посредством сброса информации в социальные сети. Растет угроза тотальной манипуляции массами, которая, тем не менее, не идет ни в какое сравнение с возможным характером и масштабом манипулирования киберчеловеком и ИИ. Это означает, что и рамки морали могут резко расшириться.

Подобные угрозы заставляют уже сейчас задуматься о защите интеллектуальной свободы людей будущего. Однако при всем том следует заметить, что беды человечества отнюдь не из-за превосходства развитого интеллекта одних его представителей над интеллектом других. Да и вряд ли ИИ может придумать что-то хуже печей Освенцима или взрывов в Хиросиме и Нагасаки...

Понятно, что многим не нравится перспектива потерять лавры “венца” природы. Однако эволюцию не остановить. У человечества есть лишь один выбор -- готовиться к будущим технотрансформациям, которые с необходимостью приведут к смешанному обществу, или оказаться в роли существа, попавшего впросак при столкновении лицом к лицу с более могущественным созданием.

Важнейшим условием подготовки такого перехода к смешанному обществу, предполагающего дальнейшее развитие и совершенствование систем искусственного интеллекта, является интеграция усилий представителей различных наук и социальных сфер, прежде всего, для разработки этических ограничений активности ИИ и оптимизации его взаимоотношений с людьми, которые для краткости и удобства называют робоэтикой Даллакян К. А. Робоэтика // Сайт Russian Behavioral Unit. 2018. URL: https:// humanai.ru. Одним из мировых лидеров в области разработки этических стандартов для ИИ является Институт инженеров электротехники и электроники -- IEEE (Institute of Electrical and Electronics Engineers).Институт разработал три новых стандарта робоэтики, которые должны сделать человеческое благополучие приоритетом при развитии высоких технологий Переводпринциповпоробоэтике. Institute of Electrical and Electronics Engineers // Сайт Russian Behavioral Unit. 2017. URL: https://humanai.ru . C. 17-18.. Они включают в себя следующие пункты:

Стандарт для этического влияния роботизированных и интеллектуальных систем, в котором рассматриваются действия ИИ, скрыто или явно влияющие на поведение и эмоции человека.

Стандарт отказоустойчивости. Роботизированные системы в процессе работы потенциально могут нанести вред людям и окружающей среде. Этот стандарт устанавливает четкие процедуры оценки, тестирования и сертификации отказоустойчивости роботизированных систем. Его необходимо внедрить для создания эффективных мер безопасности, снижающих риск ошибок, и безопасного прекращения эксплуатации скомпрометированных систем.

Стандарт для влияния ИИ на благосостояние общества, в котором определяется, какие показатели человеческого благосостояния необходимо принимать в расчет при внедрении тех или иных интеллектуальных систем в конкретное общество Veruggio G. EURON. Roboethics Roadmap. Genova, 2007..

Следует подчеркнуть, что развитие робоэтики предполагает международную интеграцию работы не только инженеров, представителей технических, естественных и гуманитарных специальностей, но и политиков, и деятелей искусства. Между тем, вопросы о природе и сущности робоэтики, ее объекте и предмете остаются открытыми.

Необходимо, прежде всего, ответить на следующие вопросы. “Робоэтика представляет собой этику взаимоотношений роботов, отношений роботов к людям или людей к ним?” “Возможно ли наличие морали у искусственных систем?” Ведь мораль -- форма общественного сознания, регулирующая поведение людей (а может и не только людей) посредством представлений о добре и зле, хорошем и плохом, правильном и неправильном. “Существуют ли такие представления у систем искусственного интеллекта?” Очевидно, что такие нормы и правила можно вложить в них. Это скорее будет напоминать внутреннюю регуляцию поведения человека посредством совести, а не со стороны общественного мнения. Тогда робоэтика должна включать в себя не только нормы поведения роботов, но и отношения к ним со стороны людей.

Обычно разговор о робоэтике начинают с трех законов робототехники Айзека Азимова, которые он сформулировал еще в 1942 г.

“1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Робот должен повиноваться всем приказам, которые дает человек, если эти приказы не противоречат Первому Закону.

Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму Законам” Азимов А. Хоровод // Я, робот. М., 2008. С. 27..

Со временем А. Азимов добавил еще и Нулевой закон, который предшествует трем вышеназванным: “Робот не может причинять вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред” Азимов А. Роботы и империя. М., 2007. С. 92..

Однако сегодня возникает множество вопросов, которые, демонстрируя явную недостаточность вышеперечисленных законов, требуют дальнейшего развития робоэтики. Возможны ситуации, когда искусственный интеллект будет не в состоянии избежать вынужденных жертв и окажется перед выбором действия, в любом случае приносящего вред человеку, например в ситуации аварии. Какую стратегию должен выбрать робот (например, беспилотник), если жертвы неизбежны? Сохранить жизнь своему хозяину, которому он по определению (или по контракту) не имеет права навредить или ребенку, переходящему дорогу с нарушением правил дорожного движения? Вопрос не из легких, хотя и широко дискутируемый в специальной литературе.

Попытка ответить на подобные вопросы подталкивает исследователей различных сфер к разработке стратегии развития этики искусственного интеллекта. Однако прежде всего, возникает вопрос о философско-методологических основаниях этой новой для человечества области. Вообще оправдано ли говорить о робоэтике, если этика как учение о морали начинается с автономии воли, т.е. о моральности или аморальности поступка можно говорить только в том случае, если действующий субъект имеет свободу выбора. Будут ли машины иметь эту свободу или будут жестко запрограммированных человеком? Можно ли вообще давать ИИ такую свободу и к чему это может привести?

Уже сегодня эксперименты показывают, что даже на существующем уровне развития ИИ возникают ситуации, когда вынужденно нарушается заданная человеком программа. Причем ИИ нарушает запрограммированные траектории именно с целью не навредить человеку. Известно, что беспилотник нарушил запрет не заезжать на газон, когда возникла угроза задавить человека. Тогда возникает вопрос о целесообразности и формах наказания ИИ за нарушение, встроенных в него программ. Если речь идет об этике, то наказание должно быть или посредством самобичевания (аналог совести человека) или общественным мнением (в случае с ИИ личным хозяином). В случае правового наказания ответственность, естественно, должна ложиться на хозяина ИИ.

Для решения этих и других вопросов оптимизации взаимоотношений ИИ и человека предлагаем следующие шаги:

Подготовка общественного мнения к необходимости развития робототехники вообще и беспилотников, в частности, включающая планирование и проведение передач по радио и телевидению, публикацию статей в прессе и интернете, демонстрацию видеороликов, организацию и проведение научно-практических конференций.

Разработка морально-этических норм регуляции поведения роботов и их хозяев, определение видов и моделей ответственности за нарушение этих норм.

Дифференциация субъектов ответственности, которая должна разделяться между производителем машин, их владельцами и самими роботами.

Разработка приоритетов в роботоэтике. Требование, предложенное Айзеком Азимовым “Не навреди человеку”, должно быть конкретизировано с учетом конкретных обстоятельств и условий. Для этого робот должен иметь возможность относительно самостоятельно принимать решение, т.е. обладать в определенной мере свободой. Понятие “искусственный интеллект” в таком случае расширяется до понятия “искусственный разум”.

Производители робототехники должны исходить из общечеловеческой морали. Робот должен служить человечеству, а не только хозяину. (Нулевое правило этики А. Азимова.) Возможность использования роботов в узко личностных, классовых, национальных, конфессиональных целях, противоречащих интересам человечества, должна быть заблокирована производителем. В то же время в робо- этике должна развиваться профессиональная этика. Причем, если во взаимодействии людей приоритет за общечеловеческой этикой, то в робоэтике приоритет должен быть за профессиональной этикой. Например, этика беспилотников может быть основана на одних правилах, а этика роботов-полицейских -- на других. Поэтому развивать следует не только робоэтику вообще, но еще и специальную этику ИИ (т.е. профессиональную этику).

Исправное состояние и определенное “человеческое” отношение к роботам должно быть гарантировано их хозяевами. Если робот -- субъект морали, то он требует к себе соответствующего отношения. Кроме того, некоторые правила поведения робота должны обсуждаться с его хозяином под личную ответственность.

Дискуссия о том, как должен вести себя робот при неизбежности аварии, решается существующими моральными и правовыми нормами для людей. Причем необходима максимальная детализация системных приоритетов. Например, какие ценности выше, т.е. четко обозначена иерархия ценностей.

Необходимо составить перечень категорий роботоэтики (например, не “добро” и “зло”, а “правильно” и “неправильно” и т.п.) и определить их содержание. Одна из особенностей роботоэтики заключается в чисто рациональном ее характере. Здесь отсутствуют такие человеческие чувства, как гнев, ненависть, зависть, алчность, жадность, приводящие к печальным последствиям.

Должны быть созданы научно-исследовательские коллективы, разрабатывающие нормы поведения роботов в конкретной социокультурной среде, исходя из существующих в конкретной стране ценностей и законов.

Современный этап развития ИИ актуализирует проблему в первую очередь не столько моральной, сколько правовой ответственности, так как моральная ответственность возникает лишь с обретением определенной автономией воли. Это вопрос будущего. Сегодня же по отношению к беспилотникам актуальнее говорить об ответственности вообще, а точнее, о юридической ответственности.

Общие опции должны быть обеспечены производителем (к правилам А. Азимова должны быть добавлены специальные опции), а специфические -- добавлены хозяином под свою ответственность. Перед покупкой беспилотника хозяин должен пройти “моральноэтическое” тестирование на фирме, их продающей, для выяснения и хранения особенностей морально-этических ценностей хозяина беспилотника.

Беспилотник должен быть оснащен средством экстренной связи с хозяином в случае непредвиденных ситуаций. Тогда хозяин будет иметь возможность вмешаться в ситуацию, а, следовательно, и нести юридическую ответственность за возможную аварию.

У роботов должен быть создан механизм внутренней саморегуляции поведения подобный совести. Мораль управляет людьми посредством общественного мнения (уважения, презрения) и саморегуляции (угрызения совести). При нарушении моральных норм, включенных в память ИИ, кроме установления штрафов и санкций хозяину должен запуститься еще и процесс саморазрушения робота.

Беспилотники должны быть снабжены системой считки намерений противоположного (рядом находящегося) беспилотника. Уже существует система распознавания эмоций (боли) человека искусственным интеллектом. Коммуникация между автомобилями беспилотниками должна уменьшить количество аварий, которых сегодня насчитывается более 1,3 млн в год.

Должна быть создана и развиваться виртуальная система (система виртуальной реальности) тестирования взаимодействия беспилотников между собой и человеком с целью дальнейшего переноса результатов в действительность Даллакян К.А. Робоэтика..

Разработка и внедрение норм и принципов робоэтики, конечно, не способны устранить проблемы, связанные с техносоциальным неравенством, однако они будут способствовать в определенной мере регуляции взаимодействия роботов между собой и cлюдьми. Возникновение и развитие смешанного общества предполагает создание внутри- и межгосударственных структур, призванных регулировать отношения техновидового неравенства. Такие структуры, на наш взгляд, должны стать дополнительной характеристикой гарантийного государства, о котором писали классики российской правовой науки Алексеев Н.Н. Русский народ и государство. М., 1998..

Важнейшее место в развитии социально-гарантийного государства, стабилизирующего следствия социального вообще и техносо- циального, в частности, неравенства принадлежит гражданскому обществу, развитие и совершенствование институтов которого является насущной проблемой уже сегодняшнего времени. Это должно стать приоритетной задачей мирового научного сообщества.

Список литературы

социальный неравенство информационный

1. Азимов А. Роботы и империя. М., 2007.

2. Азимов А. Хоровод // Я, робот. М., 2008.

3. Алексеев Н.Н. Русский народ и государство. М., 1998.

4. Бердяев Н.А. Новое Средневековье. М., 2018.

5. Вершинина И.А., Мартыненко Т.С. Неравенство в современном мире: обзор международных докладов // Вестник Московского университета. Серия 18. Социология и политология. 2016. Т. 22. № 3.

6. Викторов А.Ш. Институты неравенства в современном обществе // Вестник Московского университета. Серия 18. Социология и политология. 2019. № 1.

7. Даллакян К.А. Робоэтика // Сайт Russian Behavioral Unit. 2018. URL: https:// humanai.ru

8. Даллакян К.А. Дорожная карта по разработке принципов робоэтики // Сайт Russian Behavioral Unit. 2018. URL: https://humanai.ru

9. Дудоров E. Готовим робота “Федора” к полету в космос // РИА Новости. 2019.27.02. URL: https://ria.ru.cdn.ampproject.org

10. Киссинджер Г. Как завершается эпоха Просвещения // Россия в глобальной политике. 2018. № 4.

11. Костюченко E. Тридцатилетняя история “групп смерти” -- от Юзнета до наших дней // Новая газета. 2019.15.05. № 51.

12. Кудрин А. Российский инвестиционный форум. Сочи, 2017.

13. Куртцвейл Р. Эволюция разума. М., 2015.

14. Осипова Н.Г. Неравенство в эпоху глобализации: сущность, институты, региональная специфика и динамика // Вестник Московского университета. Серия 18. Социология и политология. 2014. № 2. С. 22-46.

15. Перевод принципов по робоэтике. Institute of Electrical and Electronics Engineers // СайтRussian Behavioral Unit. 2017. URL: https://humanai.ru. С. 17-18.

16. Социальный рейтинг в Китае // TADVISER. 2019.10.04.

17. Харари Ю.Н. Homo Deus. Краткая история будущего. М., 2018.

18. Яницкий О.Н. Четвертая научно-техническая революция и глубинные изменения процессов глобализации // Вестник Института социологии. 2017. № 21.

References

1. A. Asimov Robots and Empire. M., 2007.

2. Azimov A. Dance // I, robot. M., 2008.

3. Alekseev N. N. Russian people and the state. M., 1998.

4. Berdyaev N. And. The New Middle Ages. M., 2018.

5. Vershinina I. A., Martynenko T. S. Inequality in the modern world: an overview of international reports // the Moscow University Herald. Series 18. Sociology and Political Science. 2016. Vol. 22. No. 3.

6. Viktorov A. Sh. Institutes of inequality in modern society / / Vestnik Moskovskogo universiteta. Series 18. Sociology and Political Science. 2019. № 1.

7. Dallakyan K. A. Roboetika / / Website of the Russian Behavioral Unit. 2018. URL: https:// humanai.ru

8. Dallakyan K. A. Road map for the development of the principles of roboetics / / Website of the Russian Behavioral Unit. 2018. URL: https://humanai.ru

9. Dudorov E. Preparing the robot "Fedor" to fly into space / / RIA Novosti. 2019.27.02. URL: https://ria.ru.cdn.ampproject.org

10. Kissinger G. How the Age of Enlightenment Ends // Russia in global politics. 2018. No. 4.

11. Kostyuchenko E. Thirty-year history of " death groups -- - from Yuznet to the present day / / Novaya Gazeta. 2019.15.05. № 51.

12. A. Kudrin, the Russian investment forum. Sochi, 2017.

13. Kurtzweil R. Evolution of Reason, Moscow, 2015.

14.Osipova N. G. Inequality in the era of globalization: essence, institutions, regional specifics and dynamics // Bulletin of the Moscow University. Series 18. Sociology and Political Science. 2014. No. 2. P. 22-46.

15. Translation principles for robotica. Institute of Electrical and Electronics Engineers / / Website of the Russian Behavioral Unit. 2017. URL: https://humanai.ru 17-18.

16. Social rating in China / / TADVISER. 2019.10.04.

17. Harari Yu. N. Homo Deus. A Brief History of the future, Moscow, 2018.

18. Yanitsky O. N. Chetvertaya nauchno-tekhnicheskaya revolyutsiya i glubinnye izmeneniya protsessov globalizatsii [The fourth scientific and technical revolution and deep changes in the processes of globalization]. 2017. № 21.

Размещено на Allbest.ru

...

Подобные документы

  • Развитие информационных технологий в современном мире. Понятие "информационное неравенство". Социологические и социокультурные аспекты "цифрового неравенства" в российском обществе. Основные проблемы использования информационных технологий, их решение.

    доклад [17,3 K], добавлен 24.05.2012

  • Неравные жизненные шансы и возможности удовлетворения потребностей в основе социального неравенства. Основные механизмы социального неравенства. Принципы проведения социальной политики. Сущность теории функционализма и конфликта. Железный закон олигархии.

    презентация [8,5 M], добавлен 13.12.2016

  • Гуманитарное и естественнонаучное образование. Проблемы образования в современной России и социального неравенства. Тенденции изменения неравенства. Стремительное нарастание неравенства в российском обществе как результат рыночных реформ 90-х годов.

    курсовая работа [33,4 K], добавлен 11.06.2009

  • Сравнительная характеристика социального неравенства России и Бразилии. Исследование социальной дифференциации. Измерение экономического неравенства по группам населения. Изучение границы бедности и уровня материальной обеспеченности в государстве.

    курсовая работа [229,1 K], добавлен 11.10.2014

  • Сущность и причины социальной дифференциации. Понятие и истоки социального неравенства в экономике, социальных отношениях и общественно-политической жизни. Корреляция между уровнем социального неравенства и формами политического правления страны.

    курсовая работа [46,0 K], добавлен 19.05.2013

  • Рассмотрение основных теорий социального неравенства. Описание факторов и специфики неравенства в современном российском обществе. Изучение социальной стратификации, социально-экономической дифференциации труда. Отношение населения к данной проблеме.

    курсовая работа [304,7 K], добавлен 31.10.2014

  • Анализ причин возникновения экономического неравенства, мировые тенденции и пути решения этой проблемы. Инструменты оценки неравенства доходов различных групп населения. Механизмы функционирования системы социальной защиты в Республике Беларусь.

    курсовая работа [270,5 K], добавлен 01.06.2016

  • Общие принципы измерения в социологии. Использование математических методов сбора и обработки первичной социальной информации для измерения социального неравенства. Концепции прожиточного минимума и относительной бедности. Методы измерения бедности.

    курсовая работа [181,1 K], добавлен 25.01.2016

  • Выявление основных особенностей общественного мнения по проблеме социального неравенства, причин и факторов влияющих на его характеристики с целью выработки рекомендаций по способам минимизации социального расслоения в современном российском обществе.

    курсовая работа [233,7 K], добавлен 16.02.2011

  • Сущность и истоки социального неравенства, особенности его проявления в современном обществе. Источники социальной напряженности. Подходы к сглаживанию неравенства. Понятие социологической анкеты и принципы ее составления, назначение и эффективность.

    контрольная работа [65,6 K], добавлен 17.10.2010

  • Социальные и культурные неравенства в истории социологической мысли. Роль компьютерных знаний в структурировании ансамбля капиталов. Структурный аспект социального порядка как функция высшего образования. Социологические объяснения культурных неравенств.

    дипломная работа [160,1 K], добавлен 13.08.2011

  • Социальное неравенство в обществе. Понятие социальной стратификации как иерархически организованной структуры социального неравенства, существующей в обществе в определенный исторический отрезок времени. Сущность социальной мобильности, ее динамика.

    контрольная работа [28,9 K], добавлен 16.08.2014

  • Факторы и основы этнического и расового неравенства. Этнический стереотип. Законодательство РФ об этнической дискриминации и расовом неравенстве. Специфика межэтнических отношений. Проблемы национального, расового и религиозного неравенства в РФ.

    курсовая работа [60,4 K], добавлен 28.04.2008

  • Стратификационные концепции, социальная дифференциация совокупностей людей на классы в иерархическом ранге. Основные формы стратификации и взаимоотношения между ними, причины социального неравенства. Соотношение неравенства, равенства и справедливости.

    реферат [28,0 K], добавлен 17.11.2010

  • Рассмотрение проблемы социального неравенства в трудах П.А. Кропоткина, Э. Дюркгейма и М. Вебера. Изучение функционалистского и марксистского подхода к данной теме. Исторический пример фактического отсутствия государственной власти в Республике Сомали.

    эссе [15,8 K], добавлен 02.10.2014

  • Юмористическая культура как составляющая повседневного дискурса социального неравенства. Анекдоты о "новых русских" 90-х гг. ХХ в. как форма осмысления социальных, культурных противоречий переходного общества. Социальная стратификация современной Украины.

    реферат [57,9 K], добавлен 25.12.2016

  • Понятие социального класса и социального слоя. Исторические типы стратификации. Рабство, касты, сословия, классы. Типология классов. Сущность социального неравенства и его причины. Измерение неравенства. Социальная мобильность.

    реферат [27,8 K], добавлен 23.03.2004

  • Понятие, сущность, предпосылки и проявления неравенства по признаку пола в сфере трудовой занятости. Социально-экономические проблемы и факторы, определяющие предвзятое отношение к женщинами. Исследование гендерного неравенства в сфере труда в г. Тамбове.

    дипломная работа [1,4 M], добавлен 15.02.2017

  • Понятие, сущность, цели, задачи, виды и пути развития социального обеспечения, его роль в социальной работе. Анализ основных функций государственного социального обеспечения. Адресность социальных выплат как важнейший принцип социальной политики в России.

    реферат [20,8 K], добавлен 27.07.2010

  • Описания идей социального неравенства в общественной мысли до возникновения социологии. Характеристика семейной, государственной, языковой, расовой, религиозной и имущественной группировки населения. Изучение модели и системы социальной стратификации.

    реферат [60,4 K], добавлен 19.05.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.