Журналистика с искусственным интеллектом

Использование средствами массовой информации технологий, основанных на алгоритмах искусственного интеллекта. Применение этих технологий в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах.

Рубрика Журналистика, издательское дело и СМИ
Вид статья
Язык русский
Дата добавления 23.07.2021
Размер файла 194,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://allbest.ru

ЖУРНАЛИСТИКА С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ

Суходолов Александр Петрович

Профессор, член Союза журналистов Москвы, Байкальский государственный университет, Российская Федерация, г. Иркутск

Бычкова Анна Михайловна

Эксперт Федеральной службы РФ по надзору в сфере связи, информационных технологий и массовых коммуникаций, кандидат юридических наук, доцент, Байкальский государственный университет, Российская Федерация, г. Иркутск

Ованесян Сергей Суренович

Профессор, доктор экономических наук Байкальский государственный университет, Российская Федерация, г. Иркутск

Аннотация. Статья посвящена использованию средствами массовой информации технологий, основанных на алгоритмах искусственного интеллекта. Раскрыты принципы действия машинного обучения, глубинного обучения, основанного на нейросетях, и рекомендательных систем. Сделан аналитический обзор применения этих технологий в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах (сообщения о чрезвычайных происшествиях, результатах спортивных соревнований, ходе избирательных кампаний и т.д.); интерактивное общение с аудиторией; отслеживание информационных поводов; проверка фактов на достоверность (факт-чекинг); распознавание изображений; производство видеоконтента и пр. Приведены примеры конкретных технологий: Reuters News Tracer, Wordsmith, Heliograf, интерфейс прикладного программирования Perspective, Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Factmata и др. Пример компании Factmata представлен как комплексный подход к алгоритмизации медиасферы, включающий такие направления, как контекстуализа- ция утверждений, аргументов и историй; ведение черного списка, в который по решению алгоритма попадают домены, характеризуемые как hateful (возбуждающие ненависть), hyperpartisan (чрезмерно политизированные, выступающие в пользу какой-либо политической партии), toxic (токсичные, вредные), fake news (распространяющие фейковые новости). Отмечено, что машинное обучение алгоритмов для генерации и анализа текстов становится чрезвычайно доступным. Указано, что новое поколение алгоритмов, основанных на искусственном интеллекте, способно распознавать эмоциональную окраску текста. Проанализировано воздействие медиасферы на потребителей информации, в том числе с учетом таких факторов, как влияние «эхокамеры» и «информационного пузыря» («пузыря фильтров»). Авторы констатируют, что информация стала своего рода наркотиком, легкодоступным для любых слоев населения и практически легальным, а ее адресаты -- благодаря таргетированию и персонализации -- превращаются в идеальных потребителей.

Ключевые слова. СМИ, средства массовой информации, медиа, искусственный интеллект, алгоритмизация, большие данные, эхокамера, информационный пузырь, информационная зависимость.

искусственный интеллект средства массовая информация

JOURNALISM FEATURING ARTIFICIAL INTELLIGENCE

Alexander P. Sukhodolov

Professor, Member of Moscow Union of Journalists

Baikal State University, Irkutsk, Russian Federation

Anna M. Bychkova

Expert, Federal Service for Supervision of Communications, Information Technology and Mass Communications, PhD in Law, Associate Professor

Baikal State University, Irkutsk, Russian Federation

Sergey S. Ovanesyan

Professor, D.Sc. in Economics, Baikal State University, Irkutsk, Russian Federation

Abstract. The article deals with mass media techniques based on the algorithms of artificial intelligence, principles of machine learning and deep learning based on neural networks, and recommenders. The authors provide an analytical review of experiences of applying these techniques in various spheres, namely, data processing and analysis, automated production of reports on current events and facts, interactive communication with audience, tracking newsworthy events, fact-checking, visual discovery, video content production, and others.

The mass media techniques are demonstrated by the list of examples of Reuters News Tracer, Wordsmith, Heliograf, Perspective (an interface of applied programming), Newswhip, Quackbot, Guardian Chatbot, Wibbitz, Fact- mata, et al. Factmata is given special attention to as a complex approach to algorithmization of the Media that includes such methods as contextualization of statements, arguments and stories, and keeping a blacklist of domains which the algorithms mark as hateful, hyperpartisan, toxic, or fake news.

The authors note that machine learning of algorithms for generating and analyzing texts is becoming easily accessible. Moreover, the new generation of algorithms based on artificial intelligence is able to identify text sentiment. The analysis of the impact of the media environment, including such factors as echo chamber and filter bubble, on information users shows that information can now be compared to a drug which is almost legal and easily available for use by any social group, and its users, due to targeting and personalization, are transforming into its «ideal consumers».

Keywords. The Mass Media, artificial intelligence, algorithmization, Big Data, echo chamber, filter bubble, information addiction.

Современный медиарынок представлен не только средствами массовой информации и потребителями информации. На этом рынке возник и с каждым годом занимает все больше места принципиально новый участник -- искусственный интеллект, меняющий привычный облик традиционной журналистики и переформатирующий некогда привычное нам медиапространство. Если представить ситуацию схематически (рис.), то мы увидим систему, в которой уже не только СМИ коммуницируют с потребителем, а потребитель -- со СМИ; во взаимодействие с ними все чаще и больше включается искусственный интеллект. Функционал и значение этого своеобразного посредника, как и сам процесс становления и развития искусственного интеллекта в сфере СМИ, требуют серьезного научного изучения и осмысления.

Современные средства массовой информации, как никогда ранее, активно взаимодействуют с потребителем массовой информации. С появлением Интернета это взаимодействие приобретает все более интерактивный характер, а средства массовой информации превращаются в глобальные средства массовой информации и массовой коммуникации. Если ранее пользователь СМИ осуществлял обратную связь с ними в виде «писем в редакцию», то теперь спектр такого взаимодействия существенно расширился и качественно изменился. Он включает уже не только комментарии, лайки, репосты, обсуждения в социальных сетях (в том числе и при непосредственном участии авторов информационных материалов), но и возможность формирования самими пользователями своей колонки новостей, создания ими контента для СМИ путем передачи фотографий, видео- и аудиозаписей с места событий и др.

Высокотехнологичные компании, стремительно внедряющие в деятельность современных СМИ искусственный интеллект и принципиально меняющие практику журналистской работы, по сути, становятся новым игроком на поле массмедиа, превращая IT-индустрию едва ли не в главную фигуру на рынке средств массовой информации, затмевающую собой таких традиционных и важных его участников, как государство и крупный бизнес [1].

Медиабизнес берет на вооружение искусственный интеллект, возможности которого существенно превышают возможности человеческого интеллекта в таких сферах, как обработка и анализ данных; автоматическое продуцирование информации о текущих событиях и фактах (сообщения о чрезвычайных происшествиях, результатах спортивных соревнований, ходе избирательных кампаний и т.д.); интерактивное общение с аудиторией; отслеживание информационных поводов; проверка фактов на достоверность (факт-чекинг); распознавание изображений; производство видеоконтента и др.

В свою очередь, с потребителем искусственный интеллект взаимодействует в целях составления его персонального профиля для предложения именно тех информационных материалов, которые с большей вероятностью заинтересуют пользователя и обеспечат переход на сайт разместившего их СМИ, гарантируя последнему просмотры и обратную связь.

Важно обратить внимание на то, что системы искусственного интеллекта принято делить на «слабые», предназначенные для решения вполне определенных, конкретных задач, и «сильные», универсальные, способные решать любые задачи, какими бы сложными они ни были. Предметом настоящего исследования является применение в журналистике первых систем и попытка ответить на вопрос, с чем же мы имеем дело, сталкиваясь с возможностями искусственного интеллекта в журналистике и сравнивая их с возможностями журналиста-человека.

Авторство словосочетания «искусственный интеллект» принадлежит Джону Маккарти. Именно ему это направление обязано появлением такого названия, которое -- по системе ассоциаций -- позволяет понять, о чем идет речь. «Идея названия состояла не в прямой связи, не в замене и даже не в дополнении человеческого интеллекта искусственным (хотя уже тогда это и стало происходить), а в аналогии: у человека есть некая интеллектуальная функция принятия решений, и у машины есть нечто подобное -- неживое, как и сама машина, искусственное», -- пишет А.В. Курпатов [2, с. 96]. В 1956 г. математики, собравшиеся в рамках Дартмутского летнего исследовательского проекта, организованного Джоном Маккарти при финансовой поддержке Фонда Рокфеллера, проголосовали за предложенное название, и словосочетание «искусственный интеллект» ворвалось в нашу жизнь.

«Сам термин “искусственный интеллект” имеет двести официальных определений», -- констатирует С.В. Карелов, являющийся одним из выдающихся российских экспертов в данной области [3, с. 40]. Это понятие, используемое для широчайшего круга областей техники, бизнеса, различного рода гуманитарных, социальных, политтехно- логических процессов, наполняется разным содержанием.

Как бы то ни было, основными компонентами того, что в настоящее время принято называть искусственным интеллектом, являются:

- машинное обучение;

- глубинное обучение, основанное на нейросетях;

- рекомендательные системы.

Машинное обучение -- одно из направлений развития искусственного интеллекта, основной принцип которого заключается в том, что машины получают данные и обучаются на них, обнаруживая определенные закономерности. Это наиболее перспективный инструмент для бизнеса, науки и принятия важных управленческих решений. Системы машинного обучения способны быстро применять знания, полученные при обучении на больших наборах данных, что позволяет им преуспевать в решении таких задач, как распознавание лиц, речи, объектов, перевод и многие другие. В отличие от программ с закодированными вручную инструкциями для выполнения конкретных задач, машинное обучение позволяет системе учиться самостоятельно распознавать шаблоны и делать прогнозы [4].

Например, для того чтобы обучить машину классифицировать данные (присваивать теги) при наличии информационных поводов, публикаций или прочих текстов с большим количеством слов, не нужно искать ключевые слова, чтобы сделать выводы на их основе. Вместо этого машине демонстрируется как можно большее количество уже имеющихся размеченных текстов с большим количеством классов, и впоследствии, получая новый -- неразмеченный -- текст, машина уже сама классифицирует его.

Таким образом, при появлении, к примеру, нового информационного повода обученная машина понимает его тематику, передаваемое им настроение и определяет потенциальную аудиторию, которой он будет интересен, а также может спрогнозировать его популярность, рейтинг и т.п.

Глубинное обучение является подмножеством машинного обучения. Оно применяет некоторые методы машинного обучения для решения реальных задач, используя нейронные сети, которые могут имитировать принятие решений человеком.

Нейронные сети возникли в результате исследований в области искусственного интеллекта, в ходе которых появилась идея воспроизвести способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. Теория искусственных нейронных систем зародилась в 1940-х гг., и спустя 20 лет уже были разработаны однослойные нейронные системы (перцептроны), которые в ряде случаев оказались способны обучаться, осуществлять предсказания и распознавать образы. В конце 1970-х -- начале 1980-х гг. в академическом сообществе считалось, что развитие теории искусственного интеллекта перестало иметь научно-практическую значимость. В то время, которое называют «зимой искусственного интеллекта», объективно существовали три причины, делавшие невозможным дальнейшее его развитие: низкая вычислительная мощность оборудования, «нисходящий» подход, основанный на стремлении ученых воспроизвести аналог человека в виде машины, а не создать искусственный интеллект с нуля, и физическое отсутствие того, что сегодня называется большими данными (или Big Data).

В 1980-х гг. благодаря революционным работам Джона Хопфилда, Тейво Кохонена и Рода Брукса в этой области произошел прорыв. Так, в 1986 г. Род Брукс, исходя из того, как функционирует наша нервная система, сформулировал «восходящий» подход в рамках создания нейронных сетей. Эволюционно она выполняет свою главную функцию -- восприятие изменений в окружающей среде в качестве раздражителя, их идентификация и ответ на них в виде приспособительных реакций, что соответствует целям и задачам системы. Суть подхода Брукса заключалась в том, что устроенная таким образом искусственная сеть, имеющая достаточную сложность организации и запрограммированная на определенный результат, будет сама себя двигать и развивать, оказавшись в той или иной информационной среде. Многослойные нейронные сети нового поколения стали успешно справляться с задачами, недоступными для перцептронов [5, с. 112-113].

В 1988 г. французским ученым Яном Лекуном была предложена идея сверточных нейронных сетей, основанная на том, что зрительная кора имеет небольшие участки клеток, которые чувствительны к конкретным областям поля зрения. Например, одни нейроны активируются, когда воспринимают вертикальные границы, а другие -- горизонтальные или диагональные. Все эти нейроны сосредоточены в виде стержневой архитектуры и вместе формируют визуальное восприятие. Данную идею специализированных компонентов внутри системы, решающих конкретные задачи (как клетки зрительной коры, которые ищут специфические характеристики и обобщают их), используют машины, применяющие технологию сверточных нейронных сетей.

Оттолкнувшись от знания о том, что мозг воспринимает информацию не в моменте, а с учетом определенного контекста, ученые в качестве аналогии этого процесса создали так называемые рекуррентные нейросети, преследующие цель обучить компьютеры анализировать накопленный опыт. Они используют работу предыдущих нейросетей сначала для классификации, а потом для создания некоего контента. Результаты работы рекуррентных нейросетей мы можем наблюдать каждый раз, когда вводим поисковые запросы: поисковая система, обученная на том, что уже спрашивали по этой теме другие пользователи, подбирает нам похожие слова. Рекуррентные нейросети обучают и чат-ботов.

Современная элементная база позволила создать мощные нейрокомпьютеры и программные нейропакеты для распознавания образов, текстового поиска, поиска изображений, перевода, прогнозирования, обнаружения спама, мошенничества и решения ряда других задач.

Качество глубинного обучения зависит от величины массивов данных для обучения, так как существует огромное количество параметров, которые необходимо настроить для алгоритмов обучения, чтобы избежать ложных срабатываний. При недостаточности входных данных глубинное обучение может выдавать ошибочные результаты. Например, система распознавания лиц Google на первых этапах запуска помечала много темнокожих лиц как «гориллы». «Это пример того, что произойдет, если у вас нет афроамериканских лиц в вашем наборе обучения, -- поясняла Anu Tewary, главный специалист по работе с данными Mint at Intuit. -- Если у вас нет афроамериканцев, работающих над системой, если у вас нет афроамериканцев, тестирующих систему, то, когда ваша система сталкивается с афроамериканскими лицами, она не будет знать, как вести себя» [4].

Основная область применения рекомендательных систем -- персонализация, базирующаяся на двух основных принципах: сравнение потребителей между собой на основе их покупок, просмотров, скачиваний и т.д. (если два пользователя просмотрели одни и те же публикации, но некоторые просмотрены только одним из них, то их можно порекомендовать и второму) и оценка популярности (чем более весомые с точки зрения рейтинга медиаперсоны или интернет-страницы расскажут о каком-то продукте, тем больше у него шансов быть рекомендованным пользователям).

В таблице приведены примеры технологий с использованием искусственного интеллекта и сферы их применения в журналистике. Интранет (англ. Intranet, также употребляется термин «интрасеть») -- в отличие от Интернета, это внутренняя частная сеть организации или крупного государственного ведомства.

Охарактеризуем основные тенденции в применении искусственного интеллекта в журналистике на примере предложений, сконцентрированных в программных продуктах компании Factmata. IT-технологии компании отслеживают контент и общение на всех цифровых платформах (новостные и нишевые сайты, Facebook, Twitter, YouTube и пр.), в Intranet1, на 300 тыс. сайтов, в 30 млн блогов, а также осуществляют мониторинг полицейских отчетов, форумов и дискуссионных площадок.

Factmata предлагает пользователям взаимодействие по трем направлениям: Factmata Intelligence Reports, Factmata Moderation и Factmata API.

Factmata Intelligence Reports контекстуализирует все утверждения, аргументы и рассказы, касающиеся любой темы. Углубленный анализ актуальной новостной повестки и обсуждений в социальных сетях призван «удовлетворить реальные потребности общества с помощью более обоснованных политических решений, защитить от вредных слухов». Использование этого программного обеспечения позволяет определить новые тенденции, источники их появления (включая авторов, создающих «истории»), сгруппировать их, выявить «агентов влияния», проанализировать популярные заявления, претензии и аргументы, а также просчитать, какие темы будут обсуждаться в ближайшем будущем, чтобы «сыграть на опережение».

Примеры технологий с использованием искусственного интеллекта и сферы их применения в журналистике

Технология/ разработчик

СМИ, использующее данную технологию

Сфера применения технологии

Reuters News Tracer / Thomson Reuters

Reuters

Отслеживание главных событий дня в социальных сетях и проверка достоверности сообщений в Twitter1

Wordsmith / Automated Insights2

Associated Press

Создание репортажей на основе финансовых данных [7]

Heliograf / The Washington Post3

The Washington Post

Освещение спортивных мероприятий и предвыборных кампаний4

Интерфейс прикладного программирования Perspective / Jigsaw (Alphabet / Google)5

The New York Times

Модерирование комментариев читателей [8]

Reuters Connect6

Reuters

Платформа отображает весь контент Reuters, включая архив, а также контент медиапартнеров по всему миру в режиме реального времени

Newswhip

Associated Press

Программа отслеживает распространение любого контента на семи крупнейших социальных платформах в течение нескольких минут после размещения и позволяет составить прогноз того, что будет волновать аудиторию в ближайшем будущем

Quackbot7

Используется более чем в 1 650 новостных отделах по всему миру, число пользователей превышает 8 тыс. журналистов

Бот делает скриншоты любой веб-страницы, может предложить надежные источники данных, учитывая тему журналистского исследования, позволяет загружать PDF-файлы в DocumentCloud, извлекать

текст и диаграммы из PDF- файлов, следить за изменениями на веб-сайтах, создавать быстрые диаграммы и многое другое

Guardian Chatbot8

Guardian

Бот взаимодействует с читателями, рассказывая о новостях, а также предоставляя самые популярные заголовки или истории9

Wibbitz10

Reuters, USA Today, Bloomberg, Forbes, NBC

Автоматическое формирование нарезки коротких видеосюжетов из отснятого видеоматериала

Lynx Insight / Reuters

Reuters

Анализ данных, предложение идей для сюжетов и автоматическое написание части текста [9; 10]

Factmata11

-

Отслеживание актуальных трендов;прогноз относительно тем, которые станут актуальными в ближайшем будущем; обнаружение вредоносного контента

Factmata Moderation помогает издателям и брендам избегать коммуникации с дискредитированными платформами и небезопасным программным обеспечением, а рекламодателям и рекламным платформам предлагает использовать пополняемый черный список Factmata, который содержит тысячи доменов, представляющих миллионы URL- адресов, отнесенных искусственным интеллектом к ненавистническим (Hateful), пропагандистским (Propagandist), вводящим в заблуждение (Deceptive) и распространяющим фальшивые новости (Fake News). «Вы можете быть уверены, что список честный и непредвзятый. Наш искусственный интеллект принимает решения, основываясь на реальном контенте каждого веб-сайта, без какого-либо влияния на редактирование. Все результаты проверены нашей командой», -- заверяет рекламное сообщение на сайте. Домены помечены как Hateful (возбуждающие ненависть), Hyperpartisan (чрезмерно политизированные, выступающие в пользу какой-либо политической партии), Toxic (токсичные, вредные), Fake News (распространяющие фейковые новости). The making of Reuters News Tracer // Thomson Reuters. 2017. URL: https://blogs. thomsonreuters.com/answerson/making-reuters-news-tracer.

Automated Insights. URL: https://automatedinsights.com. Известно, например, что в 2014 г. Wordsmith написал и опубликовал миллиард заметок [6].

Arc Publishing. URL: www.arcpublishing.com.

The Washington Post leverages automated storytelling to cover high school football // The Washington Post. URL: https://www.washingtonpost.com/pr/wp/2017/09/01/the-washington-post- leverages-heliograf-to-cover-high-school-football/?utm_term=.9779d899278e.

Perspective. URL: https://www.perspectiveapi.com/#.

Reuters Connect. URL: https://agency.reuters.com/en/reuters-connect.html.

Bot Studio. URL: https://bots.qz.com.

Factmata API не только классифицирует контент на основе его источника или языка, но также предлагает контекстное понимание того, что оно может означать: насколько это предвзято, токсично, вредоносно или обманчиво. Обращение к программе или интеграция с интерфейсом Batch анализирует введенный контент, выставляя баллы по девяти параметрам.

Таким образом,технологии, предоставляемые Factmata, по сути, не только определяют, какой контент будет востребован пользователями в текущий момент и в ближайшем будущем, но и представляют собой аналог государственного регулятора, который может, основываясь на «умозаключениях» искусственного интеллекта, определять дальнейшую судьбу медиаресурса.

Генерация контента является одним из самых востребованных медиасферой направлений внедрения искусственного интеллекта. В частности, генерация естественных языков (Natural language generation) -- это технология, которая преобразует данные из любой отрасли в понятные человеку описания.

В конце 2015 г. Automated Insights представила новую версию своей платформы Wordsmith, предназначенную для того, чтобы любой профессионал мог легко загружать свои данные и автоматически генерировать собственные тексты. Assosiated Press стала одной из первых компаний, воспользовавшихся предоставленной возможностью. Каждый квартал публичные компании в США публикуют корпоративные отчеты о прибылях и убытках, и каждый квартал репортеры Assosiated Press просматривали эти отчеты, извлекая соответствующие финансовые показатели для составления историй, основанных на этих цифрах. Так как Wordsmith использует генерацию естественного языка, чтобы превратить данные в письменное повествование на простом языке, то в этом случае платформа за доли секунды преобразует данные о доходах из Zacks Investment Research в историю, публикуемую Assosiated Press. Таким образом, команда Wordsmith настроила механизм генерации естественного языка для написания статей в стиле Assosiated Press.

В результате Assosiated Press теперь производит 4 400 квартальных отчетов о доходах -- почти в 15 раз больше, чем ранее, когда над ними работали репортеры. Отчеты не только отличает качество, которое читатели ожидают от статей, написанных человеком, в них уменьшилось число ошибок, совершавшихся при составлении отчетов вручную. Помимо пояснительной записки внизу публикации, нет никаких доказательств того, что она была произведена алгоритмом. Персонал агентства воспринял нововведение положительно, так как автоматизация высвободила примерно 20 % времени, которое ранее тратилось сотрудниками на составление отчетов о доходах каждый квартал.

Технология Automated Insights оказала заметное влияние и на фондовый рынок: в результате партнерства между Assosiated Press и Automated Insights у сотен фирм, которым уделялось мало внимания со стороны трейдеров, увеличился объем торгов и возросла ликвидность12.

Журналистка издания Financial Times Сара О'Коннор в мае 2016 г. соревновалась с искусственным интеллектом в написании статьи о занятости в Великобритании на основе официальных данных. Программа действительно оказалась быстрее журналистки: она справилась за 12 минут против 35 минут, которые потребовались О'Коннор, а написанная статья содержала достоверные факты и релевантный контекст. Однако искусственный интеллект «оказался лишен главного журналистского навыка -- определить новостную ценность и отличать ее от просто унылой информации»: хотя программа правильно указала, что уровень безработицы не изменился, она упустила из виду, что число соискателей в этом году впервые увеличилось [11]. The Guardian Chatbot // Product Hunt. URL: https://www.producthunt.com/posts/the- guardian-chatbot.

Introducing the Guardian Chatbot // Support The Guardian. URL: https://www.theguardian. com/help/insideguardian/2016/nov/07/introducing-the-guardian-chatbot.

Wibbitz. URL: https://www.wibbitz.com.

Factmata. URL: https://factmata.com.

Следует также учесть, что машинное обучение алгоритмов для генерации и анализа текстов становится чрезвычайно доступным. Журнал «Эксперт» сообщает об эксперименте американских ученых Джозефа Баллока и Мигеля Луэнго-Ороса, в рамках которого они, потратив всего восемь долларов на облачные вычисления Amazon Web Services, за 13 часов создали генератор политических речей на базе более 7 тыс. текстов выступлений в ООН с 1970 по 2015 г. В результате эксперимента в 90 % случаев ученым удалось получить качественные, практически неотличимые от созданных человеком тексты. Как указывают авторы, при незначительном редактировании эти тексты можно публиковать [1, с. 16-17].

Когда обсуждают преимущества журналистов перед искусственным интеллектом, нередко указывают, что только человеку-профессиона- лу подвластно привнесение в текст контекста или эмоциональной оценки, что отчасти подтверждается некоторыми исследованиями. Например, в США и в Германии группам журналистов показывали большое количество статей соответственно на английском и на немецком языках. Половина текстов была написана людьми, половина -- машинами. В среднем люди не могли их различить, а когда испытуемых попросили классифицировать тексты по достоверности и интересности, оказалось, что они находят более достоверными тексты, написанные машиной. При этом опрошенные отметили, что читать их не так интересно, как «человеческие» статьи Роботы в журналистике, или Как использовать искусственный интеллект для создания контента // habr. 2019. URL: https:// habr.com/ru/company/dataschool/blog/439388..12 Automated Insights. URL:https://automatedinsights.com/customer-stories/ associated-press.

С. Карелов проанализировал эксперимент, в ходе которого программа IBM Debater соревновалась с чемпионом мира по дебатам англичанином Харишем Натарайаном в дискуссии по проблеме, анализом которой оппоненты предварительно не занимались. В данном случае перед участниками поставили вопрос, нужно ли государству бюджетировать школьное образование. У оппонентов было 15 минут на подготовку, 4 -- на изложение своих аргументов (так как у программы нет позиции, то первым выступал человек), 4 -- на опровержение чужих и 2 -- на резюме. В этом споре человек доказывал, что государство не должно финансировать школьное образование, а машина обосновывала обратное, причем для подготовки своей аргументации за 15 минут IBM Debater проанализировал 4 млрд документов и «выдал очень хорошую речь на основе гигантского опыта семидесяти двух стран за последние шестьдесят лет, обобщив все в цифрах и графиках». Тем не менее в электронном голосовании победил Хариш Ната- райан, причем если в голосовании до начала дебатов большинство телезрителей высказывались за бюджетирование, то по их окончании позиция части голосовавших «за» сместилась к противоположной точке зрения. С. Карелов полагает, что машина проиграла потому, что человек говорит эмоционально, а у компьютера эмоций нет и он по определению проигрывает, хотя IBM Debater, анализируя и разбивая аргументы человека, «просто размазал его»14. Тем не менее С. Карелов справедливо указывает, что технология IBM Debater -- очень серьезный прорыв, так как благодаря ей программисты доказали, что «понимание тоже может быть вычислением» [3].

Однако у IBM уже есть приложения, определяющие эмоции, в том числе и иронию. Когнитивная система технологии Expressive Text to Speech, к примеру, способна не просто распознавать речь, но и понимать тон, контекст и ее эмоциональную окраску. IBM Watson Tone Analyzer помогает задать общий тон текстового общения, что образует эмоциональную составляющую сообщения. Разработчики сервиса создали модель для оценки эмоций в тексте, разделив их на три категории: положительные эмоции (радость, оптимизм, вдохновение, счастье, удовлетворенность), отрицательные эмоции (страх, отвращение, отрицание, унижение, вина, отчаяние) и гнев как разновидность негативных эмоций с такими составляющими, как агрессия, ярость, фрустрация, раздражение, враждебность. Более того, приложение способно анализировать социальную составляющую по трем типам: открытость, выражение согласия, честность (добросовестность) -- и определять стиль изложения. Аналитический стиль изложения показывает стремление автора сообщения к анализу, осмыслению сути вещей; уверенность отражает степень убежденности в чем-либо; осторожность -- склонность к осмыслению поступательного развития событий IBM Watson Tone Analyzer помогает сделать общение между людьми более эффективным // habr. 2015. URL: https://habr. com/ru/company/ibm/blog/367747..

Оценка восприятия информационного материала (А/Б- тестирование) -- также набирающая популярность в СМИ технология. Если автор хочет протестировать, как его материал будет востребован в нескольких целевых группах или как будут восприняты различные варианты одной и той же публикации, то решение этой задачи можно полностью автоматизировать: «Алгоритмы могут использовать одни и те же данные, чтобы рассказывать истории на разных языках и под разными углами, тем самым персонализируя их в соответствии с предпочтениями читателей» [1, с. 17].

Выявление фейковых новостей также становится задачей, с решением которой успешно справляются алгоритмы, основанные на искусственном интеллекте [12]. Ли Кай-Фу описывает историю успеха китайской компании Toutiao. Первоначально она использовала вводящие в заблуждение тексты, о которых сообщали читатели. По существу, это была бесплатная разметка данных. Затем Toutiao с помощью этих помеченных данных научила алгоритм самостоятельно распознавать фальшивые новости, после чего -- отдельный алгоритм такие новости создавать. Далее оба алгоритма заставили соревноваться в том, чтобы обмануть друг друга, и в процессе этой борьбы они совершенствовались. Основанный на искусственном интеллекте подход к контенту принес компании огромную прибыль [13, с. 113].

Одной из ярких особенностей функционирования современных СМИ является вынужденная конкуренция с блогерами, видеоблогерами, микроблогерами и прочими интернет-субъектами за внимание потребителя. Чтобы выжить, современной журналистике нужна реклама, а рекламные бюджеты, как известно, приходят туда, где больше всего пользователей, лайков, просмотров, комментариев и перепостов.

Таким образом, невозможно анализировать применение искусственного интеллекта в такой сфере, как журналистика, в отрыве от характеристики потребления произведенного контента, потому что журналистика не существует сама для себя, журналистика (пока еще) нужна обществу. «Мы -- плоть от плоти -- продукт информационной среды. А сейчас она изменилась не просто содержательно, как это происходило на прежних культурных сломах, но и структурно: современный человек зависим до степени патологии», -- пишет А.В. Курпатов [2, с. 385].

В 2017 г. профессор Хюн Сук Сео с группой исследователей Корейского университета в Сеуле провел первое комплексное исследование пациентов с цифровой зависимостью, которое доказало, что речь идет именно о наркомании. Для того чтобы показать наркотическую природу цифровой зависимости, ученые собрали две группы добровольцев: одна группа была представлена подростками, страдающими цифровой зависимостью, вторая -- зависимыми от наркотиков и алкоголя. Проведенные с помощью магнитнорезонансного томографа, способного фиксировать химические изменения в различных отделах мозга, тесты показали, что цифровая зависимость приводит к тем же изменениям, что и традиционные виды наркомании.

«Развитие телефонной зависимости ведет к повышению концентрации гамма-аминомасляной кислоты (ГАМК), главного “тормоза” мозга, в передней поясной коре и нарушению баланса между ГАМК и глутаматом, другой важной сигнальной молекулой нервной системы.

Изучение этого процесса может помочь нам понять, как возникают другие виды зависимости», -- отмечают авторы исследования. Как показали результаты исследований, развитие телефонной наркомании влияет на работу мозга на химическом уровне и приводит к серьезным изменениям в той части коры мозга, которая отвечает за импульсивное поведение и чувство тревожности Ученые выяснили, какие последствия вызывает телефонная зависимость // РИА Новости. 2017. URL: https://ria. ru/20171130/1509920071.html..

Информационная зависимость, возникающая вследствие бесконечного поиска информации по сайтам и ее потребления, сегодня выделяется наряду с такими поведенческими зависимостями, как:

- киберсексуальная зависимость, характеризующаяся непреодолимым влечением к посещению порносайтов и занятию киберсексом;

- пристрастие к виртуальным знакомствам, проявляющееся в наличии избыточного числа знакомых и друзей в Интернете;

- навязчивая потребность в трате денег, выражающаяся в совершении покупок и/или участии в аукционах;

- игровая зависимость как навязчивое желание беспрерывно играть в компьютерные игры [14, с. 23-24].

«Наш мозг не справляется с надвигающимся информационным штормом, наше мышление уплощается и примитивизируется. Вкупе же с утратой всяких социальных иерархий при ложной трактовке понятия «свобода мнений» («личное мнение» должно подкрепляться структурой фактов, а не личным же мнением) это приводит к тотальной неспособности к обучению и развитию», -- предостерегает А.В. Курпатов [2, с. 385]. Добавим к этому, что проблемы информационной зависимости и примитивизации мышления серьезно усугубляются под воздействием эффектов «эхокамеры» и «информационного пузыря» («пузыря фильтров»).

«Эхокамера» описывается как социальный паттерн, в котором люди с определенными убеждениями предпочитают общаться друг с другом, благодаря чему эти убеждения многократно усиливаются вследствие постоянного повторения и подкрепления [15, р. 203]. При этом подобные сообщения заглушают другие информационные потоки, и в результате любые высказывания приводят не к дискуссиям, а к поддакиванию и поддержке единомышленников. В эту закрытую систему альтернативная информация не проникает: в социальных сетях пользователи предпочитают окружать себя виртуальными собеседниками, разделяющими их взгляды, что усиливает их убеждения и одновременно с этим искажает общую картину действительности. Адресат формирует сообщение, которое получают его единомышленники, они его повторяют (зачастую преувеличивая и искажая информацию) до тех пор, пока большинство людей не предположат, что некоторые вариации этой истории являются правдой. Складывается ситуация, когда все уже сказано и новая информация может быть допущена «только по принципу калейдоскопа: смешение определенных элементов дает все новые комбинации». Доминирующая логика лишает свободы и «запирает в клетку» взгляды и убеждения отдельного человека, заключая его в изолированной и заглушенной «эхо- камере» [16, p. 35].

Что касается средств массовой информации, то эффект «эхокамеры» многократно усиливается другим явлением современной медиасреды -- «информационным пузырем». В «эхокамере» пользователи попадают под напор информации от единомышленников, тогда как «пузырь фильтров» -- это следствие действия алгоритмов, подбирающих контент на основе предшествующего поведения пользователя в Интернете. Так, издание The Washington Post еще в 2016 г. сообщало о 98 маркерах, за которыми скрываются персональные данные, на основе которых рекламодатели предлагают пользователям Facebook таргетированную рекламу [17]. В итоге сайты показывают только информацию, которая является производной от предыдущих действий пользователя, и отсекают все не связанные с этими действиями сведения, погружая пользователя в своего рода информационное слепое пятно [18].

Каждое действие пользователя в поисковых системах и социальных сетях приводит к тому, что результаты становятся все более персонализированными. Так, если у пользователя есть два друга в социальной сети, один из которых делает посты с поддержкой президента, а другой -- с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со все более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллектуально изолированными в своем собственном «информационном пузыре». И. Парайзер приводит пример, когда один пользователь искал информацию в Google по запросу British Petroleum и в ответ получил только инвестиционные новости о компании British Petroleum; тогда как другой пользователь, отправив такой же запрос, получил в ответ информацию о взрыве нефтяной платформы Deepwater Horizon, и эти страницы с результатами поиска «разительно различались» между собой [18]. Таким образом, «пузырь фильтров» вреден как для отдельной личности, так и для общества в целом, поскольку он влияет на формирование гражданского мнения и делает людей более уязвимыми перед пропагандой и манипуляциями. И если А.В. Курпатов пишет, что «случилось то, к чему прежние элиты государства готовы не были: традиционные СМИ больше не создают единой платформы для общественной дискуссии, не формируют информационную повестку» [2, с. 338], то также можно смело утверждать, что «единую платформу» теперь создает себе сам пользователь при деятельном участии технологий искусственного интеллекта.

Знаменитый изобретатель и футуролог Рей Курцвейл руководит командой, создающей технологию, которая сможет воспроизводить нервную систему человека и, таким образом, превратится в его «компьютерного друга». Р. Курцвейл поясняет, что «система будет знать на семантически глубоком уровне все то, чем вы интересуетесь, а не только основные темы ваших интересов. Я предполагаю, что через несколько лет система сможет дать пользователю ответы на большинство вопросов раньше, чем эти вопросы будут заданы, ведь система будет досконально знать все то, что интересует вас и что вы хотите увидеть». Иными словами, пользователь будет получать индивидуальные ответы на поисковые запросы, которые будут учитывать и его опыт в Интернете, и контекст его интересов, и даже его характер и темперамент -- все это Р. Курцвейл называет «эмоциональным интеллектом», оказывающим более сильное влияние на интересы, чем жажда информации и аналитические способности. Это приведет к такому симбиозу человека с компьютером, при котором инициатива незаметно перейдет от пользователя к компьютеру, а последний под видом «угадывания» будет формировать и направлять интересы человека [19, с. 49].

Технология Рея Курцвейла не кажется фантастикой после экспериментов в социальных сетях в ходе предвыборной президентской кампании 2016 г. в США. Победу Дональда Трампа на этих выборах отчасти связывают с применением результатов исследований Михаила Козинского. Занимаясь психометрией, М. Козинский в 2008 г. запустил приложение для Facebook под названием MyPersonality, которое предлагало пользователям бесплатно пройти тест OCEAN и получить результаты по пяти показателям: открытость (готовность к новому), добросовестность (перфекционизм), экстраверсия (отношение к социуму), доброжелательность (дружелюбность и готовность к сотрудничеству) и нейротизм (насколько легко человека вывести из себя). Впервые в истории психологических исследований команда М. Козинского получила информацию по миллионам протестированных пользователей, а затем -- поскольку условием прохождения теста значилось предоставление доступа к информации и действиям испытуемых в социальной сети -- исследователи изучили их пол, возраст и место жительства, а также лайки и репосты в Facebook и сформировали выводы о наличии связей между особенностями личности и поведением в социальных сетях.

В 2012 г. Козинский доказал, что достаточно анализа 68 лайков в Facebook, чтобы определить цвет кожи испытуемого (с вероятностью в 95 %), его гомосексуальность (88 % вероятности) и приверженность Демократической или Республиканской партии США (85 % вероятности). В ходе дальнейших исследований стало ясно, что модель позволяет сделать выводы об интеллектуальном развитии, религиозных предпочтениях, вредных привычках и пр.

Исследования М. Козинского взяла на вооружение интернет-компания Cambridge Analytica, специализирующаяся на Big Data, отработав эту методологию в ходе референдума по поводу выхода Великобритании из Евросоюза. 19 сентября 2016 г. директор Cambridge Analytica А. Никс, известный также как «digital- специалист Трампа», в ходе презентации деятельности своей компании объявил, что маркетинговый успех Cambridge Analytica основан на трех китах: психологическом поведенческом анализе, изучении Big Data и таргетированной рекламе. «Мы в Cambridge Analytica разработали модель, которая позволит высчитать личность каждого совершеннолетнего гражданина США», -- пояснил А. Никс, указав, что его фирма закупает персональные данные из всех возможных источников: кадастровые списки, бонусные программы, телефонные справочники, клубные карты, газетные подписки, медицинские данные. Затем Cambridge Analytica «скрещивает» эти данные со списками зарегистрированных сторонников Республиканской партии и данными по лайкам-репостам в Facebook, в результате чего получается личный профиль по методу OCEAN, и цифровые данные демонстрируют людей со страхами, стремлениями, интересами и адресами проживания. А. Никс также заявил, что у Cambridge Analytica имеются психограммы всех совершеннолетних американцев (220 млн человек), и на примере закона о свободном распространении оружия продемонстрировал, каким образом осуществляется воздействие на отдельных пользователей: «Для боязливых людей с высоким уровнем нейротизма мы представляем оружие как источник безопасности. Вот на левой картинке изображена рука взломщика, который разбивает окно. А на правой картинке мы видим мужчину с сыном, которые идут по полю с винтовками навстречу закату. Очевидно, утиная охота. Эта картинка для богатых консерваторов-экстравертов».

В день третьих дебатов между Трампом и Клинтон команда Трампа отправила в соцсети (преимущественно Facebook) свыше 175 тыс. различных вариаций посланий. Они различались лишь в мельчайших деталях, чтобы максимально точно психологически подстроиться под конкретных получателей информации: заголовки и подзаголовки, фоновые цвета, использование фото или видео в посте. Филигранность исполнения позволяет сообщениям находить отклик у мельчайших групп населения. «Таким способом мы можем дотянуться до нужных деревень, кварталов или домов, даже до конкретных людей», -- резюмирует А. Никс. Так, чтобы разубедить население квартала Маленький Гаити в Майами отдавать свои голоса за Клинтон, жителям, проживающим в этом квартале, в Facebook демонстрировали информацию об отказе Фонда Клинтон участвовать в ликвидации последствий землетрясения в Гаити. Использовались и так называемые темные посты Facebook: платные объявления посреди ленты новостей, которые могли попадаться только определенным группам лиц. Например, афроамериканцам показывали посты с видео, на котором Клинтон сравнивала чернокожих мужчин с хищниками.

В июле 2016 г. волонтеры кампании Трампа получили приложение, которое подсказывало политические предпочтения и личностные типы жителей того или иного дома. Исходя из этих данных, агитаторы модифицировали свой разговор с потенциальными избирателями. Обратную реакцию волонтеры записывали в это же приложение, и собираемые данные стекались в аналитический центр Cambridge Analytica.

Cambridge Analytica выявила 32 психотипа американских граждан, сконцентрировавшись лишь на 17 штатах. Исследования компании, в частности, доказали, например, что приверженцы американского автопрома, скорее всего, являются сторонниками Трампа, а подобные открытия помогли самому Трампу понять, какие послания где и когда лучше всего применять. Так, решение предвыборного штаба сконцентрироваться в последние недели на Мичигане и Висконсине было принято на основе анализа данных Cambridge Analytica [20].

Психиатр А.В. Курпатов назвал свою книгу о жизни человека в эпоху искусственного интеллекта «Четвертая мировая война». Ученый констатирует, что в настоящее время мир находится в состоянии третьей мировой войны -- с исламским фундаментализмом, а четвертая мировая война будет происходить между человечеством и искусственным интеллектом. «Все дело в том, что нейронное или генетическое программирование предполагает цель, ради которой данный интеллект создается. Любая умная система, движимая своей целью, сделает все возможное, чтобы избежать гибели, -- ведь если она «умрет», то ее цель не будет достигнута. То есть искусственный интеллект, вполне возможно, обзаведется скоро не только языком... но и чем-то вроде инстинкта самосохранения. Последующие же итерации его постоянного самосовершенствования сделают совершенно бессмысленными всякие наши попытки его сдержать или выключить. При этом в том, что в какой-то момент нам захочется его сдержать, а потом и выключить, сомневаться не приходится. Дело в том, что инстинкт самосохранения вынудит суперинтеллект создавать новые цели, для достижения которых ему потребуются новые ресурсы, а мы с вами -- поскольку состоим из молекул и атомов -- и есть, в частности и кроме прочего, такой ресурс, проще говоря, кормовая база.

Да, нам, возможно, очень захочется его выключить. Но мы не сможем» [2, с. 201].

Пока человек еще управляет искусственным интеллектом, он, безусловно, будет использовать его возможности не только во благо, но и во вред, а также стремясь к превосходству над себе подобными. Стоит признать, что средства массовой информации в этой битве в большинстве своем не на стороне человеческого интеллекта. «Кликабельность», «читабельность», «смотрибельность», «прослушивательность» являются маркерами продаваемости именно потому, что для восприятия такой информации не требуется сделать над собой дополнительное волевое усилие, напротив -- усилие воли требуется приложить, чтобы удержаться от потребления: «Мозг последовательно совершает выбор в пользу все более простых “раздражителей”, а индустрия, подстраиваясь под этот запрос, предлагает все более примитивный контент» [2, с. 286-287].

Так, в Китае лидером среди программных продуктов, применяющих искусственный интеллект для алгоритмизации и редактирования новостей, является Jinri Toutiao (что означает «Сегодняшние заголовки»). Механизмы искусственного интеллекта Toutiao ищут в Интернете контент, используя инструменты обработки естественного языка и компьютерного зрения для анализа материалов широкой сети партнерских сайтов и утвержденных источников. Затем они, опираясь на прошлое поведение своих пользователей -- их клики, данные о прочтении, мнения, комментарии и т.д., создают персонализированные новости, соответствующие интересам каждого человека. Алгоритмы приложения даже меняют заголовки, чтобы увеличить число кликов. И чем больше этих кликов, с тем большей точностью Toutiao будет предлагать им контент, который они хотели бы увидеть. Эта положительная обратная связь позволила создать одну из самых востребованных платформ контента в Интернете, в приложении которой пользователи проводят в среднем по 74 минуты в день [13, с. 112-113].

Таким образом, непроизвольное внимание пользователя обменивается СМИ на рекламные деньги, а реклама -- с учетом современных достижений в области таргетирования -- попадает точно в цель. Информация стала легкодоступным и практически легальным наркотиком, а ее адресаты расплачиваются тем, что превращаются в идеальных потребителей.

В этом смысле высказывания В.В. Путина о том, что «скорость создания новых продуктов и решений растет в геометрической прогрессии» и «если кто-то сможет обеспечить монополию в искусственном интеллекте, то станет властелином мира» [21], более чем относятся и к сфере массовых коммуникаций. Вот только средствам массовой информации -- совместно с государством и гражданским обществом -- еще предстоит осмыслить, к каким последствиям может привести владение этим новым совершенным инструментом.

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Мамедьяров З. Диктатура платформ / З. Мамедьяров // Эксперт. -- 2019. -- № 28. -- С. 13-17.

...

Подобные документы

  • Понятие и возникновение конвергентной журналистики. Классификация взаимопроникаемых технологий. Принципы координации средств массовой коммуникации. Мультимедийная история. Новые медиа и журналист. Контент средств массовой информации. Виды редакций.

    презентация [2,2 M], добавлен 10.11.2016

  • Развитие современного Интернета. Определение журналистики. Понятие и специфика интернет-журналистики. Интернет как способ общения в журнализме. Проблема свободы средств массовой информации в современной России. Закон о средствах массовой информации.

    курсовая работа [41,6 K], добавлен 18.06.2012

  • Роль средств массовой информации в современном обществе, культуре и политике. Рассмотрение темпов развития технологий в журналистике. Отечественная теория газетного оформления. Теории прессы: авторитарная, либералистская, советская и коммунистическая.

    реферат [36,1 K], добавлен 20.12.2011

  • Понятие, критерии, особенности использования и виды средств массовой информации. Анализ гарантий свободы массовой информации. Специальные правила регистрации и освобождение от них для средств массовой информации. Сущность форм выражения информации.

    контрольная работа [23,1 K], добавлен 05.03.2010

  • Информатизация как одно из важнейших направлений научно-технического прогресса, предмет и методы ее реализации. Критерии отбора документов. Аналитико-синтетическая обработка и переработка информации. Зарождение и этапы развития русской журналистики.

    курсовая работа [81,8 K], добавлен 23.06.2011

  • Религиозные средства массовой информации. Специфика мусульманских СМИ. Характерные черты религиозных СМИ. Проблема влияния средств массовой информации на политическое сознание и поведение людей в период избирательных кампаний. Появление новых технологий.

    курсовая работа [46,3 K], добавлен 01.06.2016

  • Определение понятия спортивной журналистики и её особенности в России. Специфика, достоинства и недостатки красноярских спортивных средств массовой информации. Анализ читательских предпочтений, выявленных методом контент-анализа и опроса аудитории.

    курсовая работа [185,5 K], добавлен 23.02.2015

  • Средства массовой информации как элемент политических коммуникаций в предвыборной кампании. Воздействия через СМИ в период агитационной кампании кандидата. Анализ предвыборной кампании кандидатов на примере материалов телевизионных СМИ г. Рубцовска.

    курсовая работа [41,0 K], добавлен 23.04.2012

  • Из истории развития средств массовой информации (СМИ). Эволюция журналистики. Качество информационных технологий. Виды, функции, влияние на культуру средств массовой информации. Роль СМИ в формировании активности, в политической жизни общества.

    реферат [30,3 K], добавлен 22.11.2008

  • Общие принципы и правила взаимодействия со средствами массовой информации в практике связей с общественностью. Анализ механизмов и технологий построения и поддержания отношений со СМИ. Мероприятия по оптимизации взаимоотношений между пресс-службой и СМИ.

    курсовая работа [32,2 K], добавлен 03.11.2013

  • Принципы деятельности и роль российских средств массовой информации в предвыборной агитации. Характеристика технологий создания имиджа народных избранников и приемов манипулирования сознанием избирателей. Формы и методы ведения избирательных кампаний.

    контрольная работа [36,6 K], добавлен 10.04.2010

  • Средства массовой информации в условиях демократизации и гласности. Возрождение многопартийной печати в 1985-1990 гг., основные темы и политика этих изданий. Аспекты перестройки и основные реформы Горбачева. Рост самостоятельности прессы и ее развитие.

    курсовая работа [59,4 K], добавлен 17.01.2011

  • Средства массовой информации и управление обществом. Участие журналистики в общественно-политической жизни, воздействие ее на мир сознания и направленность поведения массовой аудитории. Социальная позиция СМИ. Основные методы информационной войны.

    презентация [1,2 M], добавлен 10.03.2015

  • Определение понятия "конвергенция". Обзор этапов развития электронных СМИ. Конвергентная журналистика как элемент информационного ресурса. Анализ изданий "Риа-новости" и "Центр журналистских расследований". Специфика сетевых средств массовой информации.

    курсовая работа [74,8 K], добавлен 05.10.2013

  • Причины и цели эвфемизации речи. Условия использования эвфемизмов, темы и сферы их применения. Место эвфемизмов в социальных сферах деятельности человека. Языковые способы и средства эвфемизации. Временной и социальный фактор существования этих средств.

    курсовая работа [60,5 K], добавлен 28.11.2012

  • Теоретические основы манипулятивных технологий в средствах массовой информации. Духовное помыкание на примере манипуляции в годы перестройки: отбор событий реальности для сообщений, создание образа коллективного врага, наклеивание ярлыков, сенсационность.

    курсовая работа [86,0 K], добавлен 22.08.2013

  • Мобильная журналистика как способ социализации молодёжи. Особенности противоречий между средствами массовой информации и молодёжью. Формирование собственной молодежной медиасреды, в которой авторы становятся пользователями мобильной журналистики.

    реферат [64,5 K], добавлен 31.05.2019

  • Основные формы и средства взаимодействия со средствами массовой информации. Общие правила подготовки PR-текстов. Формы материалов, распространяемые PR-специалистами. Новостные PR-мероприятия. Этапы управления информацией. Правила при работе со СМИ.

    реферат [33,9 K], добавлен 03.09.2010

  • Характеристика интернет-журналистики: особенности становления, развитие и специфика в Украине. Интерактивность как эффективный фактор реализации массовой коммуникации. Сущность веб-среды, анализ онлайн-журналистики. Обзор деятельности популярных сайтов.

    дипломная работа [99,4 K], добавлен 01.09.2013

  • Сущность понятия "средства массовой информации". Условия функционирования массовой коммуникации. Виды периодических изданий. Негативное воздействие СМИ на ребенка. Уровень влияния телевидения на школьников. Интернет и средства массовой информации.

    курсовая работа [27,0 K], добавлен 19.02.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.