Реализация классификатора групп в социальных сетях с помощью рекуррентных и сверточных нейронных сетей
Рассмотрение проблемы классификации сообществ в социальной сети. Применение рекуррентных и сверточных нейронных сетей для классификации групп пользователей по степени радикальности. Методы предварительной обработки данных для построения классификаторов.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | статья |
Язык | русский |
Дата добавления | 21.05.2021 |
Размер файла | 1,4 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Размещено на http://www.allbest.ru/
Реализация классификатора групп в социальных сетях с помощью рекуррентных и свёрточных нейронных сетей
Оболенский Д.М., Шевченко В.И.,
Ченгарь О.В., Мащенко Е.Н., Соина А.С.
Аннотация
В данной статье авторы рассматривают проблему классификации сообществ в социальной сети ВКонтакте. Исследовано применение нейронных сетей для классификации групп пользователей по степени радикальности. В работе построена модель нейронной сети с рекуррентной долговременной памятью (LSTM) с использованием современных программных технологий и методологий. Результирующая модель обучается на тестовом наборе данных, а также оценивается с использованием выбранных показателей, таких как F1, точность и потери. Модель свёрточной нейронной сети также строится и оценивается. Впоследствии эти модели сравнивают между собой. Модель, основанная на свёрточных нейронных сетях, имеет более высокое значение метрик, чем модель, основанная на модели LSTM. Предлагаются методы предварительной обработки данных, а также использование фреймворка Keras для Python с бэкэндом Tensorflow для построения классификаторов нейронных сетей. Полученная в результате свёрточная сетевая модель применима к основному набору данных при поиске радикальных сообществ в социальных сетях. Проведены исследования модели и представлен анализ результатов.
Ключевые слова: социальные сети, свёрточные нейронные сети, рекуррентные нейронные сети, Python, Keras.
An implementation of social network group classification model based on recurrent and convolution neural networks
Denis M. Obolensky, Victoria I. Shevchenko, Olga V. Chengar, Elena N. Maschenko, Anastasia S. Soina
Abstract
In this article, the authors consider the problem of classifying communities in the social network VKontakte. The application of neural networks for the classification of user groups according to the degree of radicality is investigated. In the work, a model of a recurrent long short term memory (LSTM) neural network is built using modern software technologies and methodologies. The resulting model is trained on a test dataset and is also evaluated using the selected metrics, such as F1, accuracy and loss. A convolutional neural network model is also built and evaluated. Subsequently, these models are compared with each other. The model which is based on convolutional neural networks had the higher value of metrics, than one based on the LSTM model. Methods for preprocessing data, as well as using the Keras framework for Python with Tensorflow backend for building neural network classifiers are proposed. The resulting convolutional network model is applicable to the core dataset when searching for radical communities on social networks. The research of the model is carried out and the analysis of the results is presented.
Keywords: social networks, convolutional neural networks, recurrent neural networks, Python, Keras.
Введение
Поиск и анализ сообществ пользователей является важным инструментом изучения и анализа социальных сетей, позволяющим исследовать модульную организацию сети и использовать полученную информацию для решения различных задач [Мащенко и др., 2020]. К примеру, знания о структуре сообществ необходимы для предсказания связей и атрибутов пользователей, расчёта близости пользователей в социальном графе, оптимизации потоков данных в социальной сети, внедрения механизмов влияния на сообщества и т. д. [Мошкин, Андреев, 2019].
Автоматический анализ и классификация сообществ и групп в социальной сети позволят выявлять радикальные группы пользователей, источники конфликтов в социальных сетях, а также применять мягкие меры погашения конфликтов. В частности, в работе Мащенко и др. [Мащенко и др., 2020] показано применение поиска «радикального», «нейтрального» и «объединяющего» контента, в том числе при помощи автоматического анализа контента сообществ. Подобные данные могут быть собраны в автоматическом режиме при помощи портала «Открытые данные» [Оболенский и др., 2020]
Современные способы классификации и анализа тональностей текста применяются в основном к сообщениям пользователей [Котельников, Клековкина, 2012], в то время как не учитывается информация о самом сообществе и его тематике.
Ранее был предложен метод классификации сообществ на основе их описания и контента с помощью простых методов машинного обучения [Оболенский и др., 2020], однако данный способ использует лишь наиболее простые методы [Коусари, Хейдирисафа, 2019].
В рамках данной статьи предлагается практический способ построения классификатора групп и сообществ в социальных сетях на основе нейросетевых методов машинного обучения [Коусари, Хейдирисафа, 2019], в частности, с использованием рекуррентной сети Long-Short Term Memory (LSTM) и свёрточной сети (Convolutional Neural Network, CNN) [Смирнова, Шишков, 2016], реализуемый при помощи современных программных фреймворков, в частности Keras и Tensorflow.
Разработка и обучение классификатора на основе рекуррентной нейронной сети
LSTM был разработан для преодоления проблем простой рекуррентной сети (RNN), позволяя сети хранить данные в своего рода памяти, к которой она может получить доступ позже. LSTM - это особый тип рекуррентной нейронной сети (RNN), который может изучать долгосрочные шаблоны [Рамасундарам, 2010]
Структура сети представлена на рис. 1.
Ключевым понятием в сети LSTM является ячейка состояния. Данное состояние обновляется дважды, что в результате стабилизирует градиенты. Также существует скрытое состояние, которое действует как короткосрочная память. Это показано на рис. 2.
В структуре LSTM можно выделить Forget Gate, Input Gate, Output Gate [Zhang, 2015]. Рассмотрим их подробнее. На рис. 3 показана структура Forget Gate.
На первом этапе необходимо определить, какая информация должна быть сброшена из ячейки состояния. Для этого используется скрытый слой с сигмовидной функцией активации, который называется Forget Gate [Zhang, 2015].
На следующем шаге необходимо определить, какую новую информацию мы хотим сохранить в ячейке состояния. Он состоит из двух частей [Zhang, 2015].
Рис. 1. Структура нейронной сети LSTM Fig. 1. LSTM structure
Рис. 2. Структура ячейки сети LSTM Fig. 2. LSTM Cell structure
Рис. 3. Forget Gate Fig. 3. Forget Gate
Первая часть - сигмовидный слой, называемый также Input Gate, он определяет, какие значения будут обновляться (рис. 4). Далее - tanh-слой, необходимый для расчета потенциальных значений, которые могут быть добавлены в состояние. На следующем этапе мы обновляем ячейку состояния новым значением (рис. 5).
Рис. 4. Input Gate Fig. 4. Input Gate
Рис. 5. Процесс обновления ячейки состояния Fig. 5. Cell State update process
Далее определяется, какое значение будет выходным. Это выходное, результирующее значение определяется на основе ячейки состояния, но при этом проходит через ряд фильтров на основе сигмовидного и тангенциального слоев (рис. 6) [Zhang, 2015].
Подобные нейросети могут активно запоминать скрытые зависимости во входных данных и часто используются в задачах генерации и классификации текстовой информации [Джо, 2010].
Для реализации нейросети на практике использовался фреймворк Keras. Keras -- высокоуровневый фреймворк, работающий поверх TensorFlow, позволяющий решать большое количество рутинных задач текстовой классификации, например, преобразование текста в числовые последовательности для анализа и быстрое моделирование нейронных сетей для машинного обучения [Батура, 2017].
Рис. 6. Output Gate Fig. 6. Output Gate
Для применения алгоритма текстовой классификации необходимо произвести предварительную обработку набора данных - как обучающего, так и целевого.
Так как нейросеть не может работать с текстовыми данными напрямую, то нужно составить словарь всех слов, заменить каждое слово на число -- уникальный номер слова в словаре, а также выровнять длину каждого текста до нужного размера, обычно для этого берется максимальная длина одного элемента входных данных. Далее на представленных данных применяется любой алгоритм классификации [Шевелев, 2006].
Для решения поставленной выше задачи преобразования текста в числовые вектора, использовался специальный класс Tokenizer из фреймворка Keras. Применяя полученный словарь на предварительно обработанных данных, были сформированы числовые вектора.
Полученные числовые вектора - разной размерности, поэтому также требуется определить максимальную длину фразы [Багутдинов и др., 2020].
Полученный датасет разбивается при помощи функции train_test_split() из библиотеки sklearn на обучающее и тестовое подмножество. При этом данная функция производит перемешивание данных, таким образом, как в обучающем, так и в тестовом наборах присутствуют данные всех классов.
Так как векторы чисел - разной размерности, необходимо привести их к одному виду. Для этого используют технику padding - выбирается нужная длина вектора, все вектора меньшей длины - дополняются нулевыми значениями, все вектора большей длины - обрезаются. Взяв длину наиболее длинной фразы за основу (для предотвращения потери информации из-за обрезания длины вектора), можно применить данную технику на полученных числовых векторах [Рубцова, 2015; Нгуен, Шираи, 2013].
В свою очередь, метки классов (ранее представленные как числа) необходимо преобразовать в двоичные вектора, причем длина такого вектора - количество классов, на всех позициях стоят 0, на позиции соответствующего класса - единицы. Для преобразования нужно воспользоваться специальной функцией to_categorically().
Так как данные несбалансированные, то в качестве метрики не используется метрика accuracy - процент верного распознавания. Допустимой метрикой в задаче классификации текстов с учётом несбалансированного набора данных является метрика F1 [13]. В библиотеке Keras метрика F1 по умолчанию не представлена, поэтому ее надо реализовать вручную. Класс, реализующий пользовательскую FI-мєтрику, показан на рис. 7.
Рис. 7. Пользовательская реализация метрики F1 для фреймворка Keras Fig. 7. Implementing the custom F1 metric
Используя фреймворк Keras, можно построить нейронную сеть. Для реализации сети в Keras существует ряд API (Sequential и Functional). Использование Sequential позволяет реализовать сеть гораздо более простым образом, при этом Functional API намного более гибкое и мощное. Данные API взаимозаменяемые и могут дополнять друг друга. Код для построения модели показан на рис.
Рис. 8. Определение модели LSTM-сети с помощью Sequential API
Fig. 8. LSTM network code created with Keras Sequential API
На первом этапе создается новая модель путем создания объекта класса Sequential. Далее в модель добавляется новый Embedding-слой, а за ним - LSTM-слой с коэффициентом Dropout = 0.3. Далее - скрытый слой с сигмовидной функцией активации.
Далее модель необходимо скомпилировать с выбранной функцией потерь, оптимизатором и метриками. Нужно указать также реализованную ранее метрику F1.
Также в составе модели был использован оптимизационный алгоритм adam, функция потерь на основе категориальной кросс-энтропии, а также выбраны метрики accuracy и разработанная выше метрика F1. Подобная структура модели наиболее полно отвечает задачам текстовой классификации при помощи нейронных сетей [Абрамов; Эспиндола и др.]. Итоговая архитектура и количество параметров сети представлены на рис. 9.
Рис. 9. Архитектура скомпилированной Keras-модели
Fig. 9. Keras compiled model architecture
классификатор группа нейронная сеть
Очередной этап = обучение полученной модели на обучающем множестве. Для этого был выбран размер batch равным 32 [Котельников, 2012]. Обучение производилось в течении 3-х эпох. Также использовалось 10 % обучающего множества как валидационное множество. Для обучения модели используется метод fit.
Графики изменения метрик accuracy, f1, а также функции потерь в зависимости от эпохи представлены ниже на рис. 10, рис. 11 и рис. 12 соответственно. На вертикальной оси показано значение соответствующей метрики, на горизонтальной - эпоха обучения. Значение каждой метрики представлено в интервале [0,1]. Чем больше значение метрики и меньше значение функции потерь - тем точнее получается итоговая модель.
Рис. 10. Изменение метрики Accuracy в зависимости от эпохи Fig. 10. LSTM Accuracy over time
Видно, что при обучении сети происходит повышение точности модели, а значение функции потерь убывает. При валидации модели на тестовом множестве точность немного снижается в зависимости от эпохи обучения, а значение функции потерь немного повышается.
Рис. 11. Изменение метрики F1 в зависимости от эпохи Fig. 11. LSTM F1 metric value over time
Рис. 12. Изменение значения функции потерь в зависимости от эпохи Fig. 12. LSTM Loss over time
Разработка и обучение классификатора на основе свёрточной нейронной сети
Свёрточные нейронные сети (CNN) успешно зарекомендовали себя в задачах распознавания и классификации изображений, а также используются в других для повышения точности результатов в сравнении с традиционными методами [Кузьмицкий, 2013]. Свёрточная нейронная сеть - это особый тип нейронных сетей прямого распространения. Обычная данная сеть состоит из 1 или нескольких свёрточных слоев, а также 1 или нескольких скрытых слоев. Количество слоев варьируется в зависимости от задачи [Коллури, Разия, Наяк, 2020].
Основная особенность таких сетей - наличие чередующихся слоев типа «свёртка - субдискретизация», таких слоев может быть несколько. Операция свёртки происходит следующим образом: каждый фрагмент входа поэлементно умножается на матрицу весов (ядро), а результат - суммируется. Эта сумма является элементом выхода, он также называется картой признаков. Взвешенная сумма входов пропускается через функцию активации (рис. 13).
Рис. 13. Работа свёрточного слоя CNN-сети Fig. 13. Convolution layer of the CNN network
Модель свёрточной сети также можно реализовать с помощью Keras [Жанг, 2015]. Для этого также используется Sequential модель. Первым слоем выступает Embedding-слой [Маас и др., 2011]. Далее следует слой Dropout. После него - свёрточный слой (Conv1D) с оконной функцией 5x5 и функцией активации ReLU [Сянг Жанг, 2015].
Также используется слой субдискретизации GlobalMaxPooling1D. После него используется скрытый полносвязный слой и выходной слой с функцией активации softmax.
Программная реализация данной модели представлена на рис.14 ниже:
Рис. 14. Реализация CNN-сети с помощью Keras
Fig. 14. CNN network code created with Keras Sequential API
Полученная модель компилируется с помощью метода compile. Используются аналогичные метрики, функция оптимизации и функция потерь, как и в случае с LSTM:
Архитектура реализованной свёрточной сети представлена на рисунке 15. Можно заметить, что число параметров, используемых в сети, больше, чем в сети LSTM, но незначительно.
Для обучения сети также применяется метод fit, но используются 4 эпохи обучения.
Метод evaluate применён для проверки качества модели.
Графики изменения метрик accuracy, f1, а также функции потерь в зависимости от эпохи представлены на рис. 16, рис. 17 и рис. 18 соответственно.
Полученную модель свёрточной нейронной сети можно сохранить при помощи метода save() модели. Также необходимо сохранить и объект tokenizer, так как он используется для обработки слов.
Видно, что динамика изменения значений функций метрик и функции потерь похожа на аналогичные динамики в сети LSTM, однако можно сделать вывод, что итоговые значения функции потерь ниже, чем у LSTM, а значения метрик выше.
Сравнив результаты F1-метрик разных моделей (простая, LSTM и CNN), можно составить следующую сравнительную таблицу (табл. 1.).
Таким образом, наиболее эффективным и точным классификатором является классификатор на основе свёрточной нейронной сети (CNN).
Рис. 15. Компиляция Keras-модели
Fig. 15. CNN model compilation
Рис. 16. Изменение метрики Accuracy в зависимости от эпохи Fig. 16. CNN model accuracy over time
Рис. 17. Изменение метрики F1 в зависимости от эпохи Fig. 17. CNN model F1 metric value over time
Таблица 1
Table 1
Название классификатора |
Значение метрики F1 |
|
На основе алгоритма машинного обучения SGD |
0.5294 |
|
На основе рекуррентной нейронной сети LSTM |
0.7335 |
|
На основе свёрточной нейронной сети CNN |
0.7954 |
Рис. 18. Изменение значения функции потерь в зависимости от эпохи
Fig. 18. CNN model loss over time
Сравнение метрик F1 различных классификаторов Classifiers comparison by F1 metric value
Заключение
В результате применения классификатора на основе свёрточной нейронной сети весь основной набор данных был размечен. Был добавлен новый столбец label со значением равным соответствующей предсказанной метке класса.
Была произведена аналитика полученных в ходе классификации данных, результаты классификации представлены в табл. 2.
Таблица 2 Table 2
Результаты применения классификатора Classification results
Расшифровка показателя |
Обозначение |
Значение показателя |
|
1 |
2 |
3 |
|
Всего записей для разбора |
N |
9635185 |
|
С признаком "event" |
791825 |
||
С признаком "page" |
3311246 |
||
Группы до 10 участников |
1341261 |
||
Группы от 10 до 100 участников |
3506878 |
||
Группы от 100 до 1000 участников |
3291257 |
||
Группы без описания, пришлось просмотреть "вручную" |
3177212 |
||
Не участвуют в рассмотрении (признак 0) |
38480 |
||
Всего не участвуют в рассмотрении (признак 0,4,5) |
N^ct |
8769333 |
|
Всего участвуют в рассмотрении |
№бщ |
865852 |
|
Число нейтральных записей |
№ейтр |
779412 |
|
Число радикальных записей |
^ад |
6181 |
|
Число примеряющих записей |
Nприм |
80259 |
|
Кобщ/N |
0,09 |
||
Кнейтр/Кобщ |
0,900167696 |
||
Крад/Кобщ |
0,007138633 |
||
Кприм/Кобщ |
0,092693671 |
Соотношение рассматриваемых и не подходящих для исследования данных показано на рис. 19. Можно сделать вывод, что всего 9 % данных подходят для анализа. 91 % данных являются непригодными для исследований и не используются.
Рис. 19. Соотношение всех записей
Fig. 19. The ratio of useful data and not suitable data for research
Анализируя соотношение полезных записей, был сделан вывод, что всего 0,7 % групп в среднем классифицированы, как «радикальные», примерно 9 % - как «примиряющие», а остальные 90,1 % - как «нейтральные».
Таким образом, в рамках данной статьи успешно применен алгоритм классификации текстовых данных с помощью нейронных сетей, в частности, рекуррентной и свёрточной, в рамках задачи обработки текстовых данных социальных групп на основе их описания и других параметров для задачи текстовой небинарной классификации.
Для нормализации входных данных была проведена предварительная обработка данных, в частности, изменение регистра текста, удаление спецсимволов и стэмминг.
Были построены модели классификатора на основе рекуррентной и свёрточной нейронных сетей с помощью библиотек TensorFlow и Keras, а также определены метрики данных моделей. Установлено, что свёрточная нейронная сеть выдает лучшие результаты. Для оценки данных моделей и их сравнения использовалась метрика F1.
Выполнена аналитика на основном наборе данных с целью поиска радикальных, нейтральных и объединяющих сообществ.
В дальнейших работах планируется исследование взаимосвязи пользователей в предсказанных с помощью разработанных моделей радикальных сообществах, взаимосвязи пользователей между собой. Также будет произведено построение графа пользователей и его анализ с помощью Gephi.
Рис. 20. Соотношение полезных записей
Fig. 20. Ratio of neutral, positive and radical data
Список литературы
1. Абрамов Р.А. Основные метрики задач классификации в машинном обучении. URL: https://webiomed.ai/blog/osnovnye-metriki-zadach-klassifikatsii-v-mashinnom-obuchenii/ (дата обращения: 12.08.2020).
2. Багутдинов Р.А., Саргсян Н.А., Красноплахтыч М.А. 2020. Аналитика, инструменты и интеллектуальный анализ больших разнородных и разномасштабных данных. Экономика. Информатика. 47 (4): 792-802. DOI 10.18413/2687-0932-2020-47-4- 792-802.
3. Батура Т.В. 2017. Методы автоматической классификации текстов. Программные продукты и системы. 1 (30): 85-99. DOI: 10.15827/0236-235X.030.1.085-099.
4. Котельников Е.В. 2012. Комбинированный метод автоматического определения тональности текста. Программные продукты и системы. 3 (109): 189-195.
5. Котельников Е.В., Клековкина М.В. 2011. Автоматический анализ тональности текстов на основе методов машинного обучения. РОМИП. URL: http://www.dialog-21.ru/media/1380/105.pdf. (дата обращения: 12.08.2020).
6. Кузьмицкий Н.Н. 2013. Создание универсальных классификаторов текстовых образов на основе сверточных нейросетевых технологий. ГрафиКон'2013: 23-я Международная конференция по компьютерной графике и зрению: 234-238.
7. Мащенко Е.Н, Оболенский Д.М., Соина А.С., Ченгарь О.В. 2020. «Разобщающий», «нейтральный» и «объединяющий» контент сообществ сети ВКонтакте на Украине: определение понятий. The Newman in Foreign Policy. 54 (98): 38-43.
8. Мошкин В.С., Андреев И.А. 2019. Сравнение эффективности применения алгоритмов сентимент-анализа неструктурированных ресурсов социальных сетей. Восьмая Междунар. конф. «Системный анализ и информационные технологии». САЙТ-2019: тр. конф. М.: ФИЦ ИУ РАН: 534-540.
9. Метрики в задачах машинного обучения. URL: https://habr.com/ru/company/ods/blog/ 328372/ (дата обращения: 12.08.2020).
10. Оболенский Д.М. и др. 2020. Сбор и предварительная обработка данных пользователей социальных сетей с помощью портала «Открытые Данные». Modern Science. 7 (2): 369-378.
11. Рубцова Ю.В. 2015. Построение корпуса текстов для настройки тонового классификатора. Программные продукты и системы. 1 (109): 72-78. DOI:10.15827/0236-235X.109.072-078.
12. Смирнова О.С., Шишков В.В. 2016. Выбор топологии нейронных сетей и их применение для классификации коротких текстов. International Journal of Open Information Technologies. 4 (8): 50-54.
13. Шевелев О.Г., Петраков А.В. 2006. Классификация текстов с помощью деревьев решений и нейронных сетей прямого распространения. Вестник Томского государственного университета. 290 (1): 300-307.
14. Espindola, Rogerio & Ebecken, Nelson. 2005. On extending f-measure and g-mean metrics to multi-class problems. Sixth international conference on data mining, text mining and their business applications. 35: 25-34. URL: https://www.researchgate.net/publication/286914533_On_extending_
f-measure_and_g-mean_metrics_to_multi-class_problems (дата обращения: 12 августа 2020).
15. Jo T. 2010. NTC (Neural Text Categorizer): Neural Network for Text Categorization. International Journal of Information Studies. 2(2): 83-96.
16. Kolluri J., Razia S., Nayak S.R. 2020. Text Classification Using Machine Learning and Deep Learning Models. URL: https://ssrn.com/abstract=3618895 (дата обращения: 12 августа 2020).
17. Kowsari J. M., Heidarysafa M. 2019. Text Classification Algorithms: A Survey. Information, 10 (4): 150-154.
18. Maas A.L., Daly R.E., Pham P.T., Huang D., Ng A.Y., Potts C. 2011. Learning word vectors for sentiment analysis. The International Language Technologies. 1: 142-150.
19. Nguyen T.H., Shirai K. 2013. Text Classification of Technical Papers Based on Text Segmentation. Natural Language Processing and Information Systems. NLDB 2013. Lecture Notes in Computer Science. Springer, Berlin, Heidelberg, 121.
20. Ramasundaram S., Victor. S. 2010. Text Categorization by Backpropagation Network. International Journal of Computer Applications. 8 (6): 1-5.
21. Zhang, X. 2015. Character-level convolutional networks for text classification. Xiang Zhang, Junbo Zhao, Yann LeCun. In Advances in Neural Information Processing Systems. 2015. Feb. 649-657 p.
22. Understanding LSTM Networks. URL: http://colah.github.io/posts/2015-08-Understanding- LSTMs (дата обращения: 17 July 2020).
23. Nguyen T.H., Shirai K. 2013. Text Classification of Technical Papers Based on Text Segmentation. In: Metais E., Meziane F., Saraee M., Sugumaran V., Vadera S. (eds) Natural Language Processing and Information Systems. NLDB 2013. Lecture Notes in Computer Science, vol. 7934. Springer, Berlin, Heidelberg.
24. Ramasundaram, S., Victor, S. Text Categorization by Backpropagation Network. International Journal of Computer Applications. 2010. 8 (6): 1-5.
25. Zhang, X. Character-level convolutional networks for text classification. Xiang Zhang, Junbo Zhao, Yann LeCun. In Advances in Neural Information Processing Systems. 2015. Feb. 649-657 p.
26. Understanding LSTM Networks. URL: http://colah.github.io/posts/2015-08-Understanding- LSTMs (accessed: 17 July 2020).
References
1. Abramov R. Osnovnye metriki zadach klassifikacii v mashinnom obuchenii. URL: https://webiomed.ai/blog/osnovnye-metriki-zadach-klassifikatsii-v-mashinnom-obuchenii/ (accessed: 12 August 2020) (in Russian).
2. Bagutdinov R.A., Sargsan N.A., Krasnoplakhtych M.A. 2020. Analytics, tools and intellectual analysis of large different and differential data. Economics. Information technologies. 47 (4): 792-802 (in Russian). DOI 10.18413/2687-0932-2020-47-4-792-802.
3. Batura T.V. 2017. Metody avtomaticheskoj klassifikacii tekstov. Programmnye produkty i sistemy. 1 (30): 85-99 (in Russian). DOI: 10.15827/0236-235X.030.1.085-099.
4. Kotel'nikov E.V. 2012. Kombinirovannyj metod avtomaticheskogo opredelenija tonal'nosti teksta. Programmnye produkty i sistemy. 3 (109): 189-195 (in Russian).
5. Kotel'nikov E.V., Klekovkina M.V. 2011. Avtomaticheskij analiz tonal'nosti tekstov na osnove metodov mashinnogo obuchenija. ROMIP. URL: http://www.dialog-21.ru/media/1380/105.pdf. (accessed: 12 August 2020) (in Russian).
6. Kuz'mickij, N.N. 2013. Sozdanie universal'nyh klassifikatorov tekstovyh obrazov na osnove svertochnyh nejrosetevyh tehnologij. GrafiKon'2013: 23-ja Mezhdunarodnaja konferencija po komp'juternoj grafike i zreniju: 234-238 (in Russian).
7. Mashhenko E.N, Obolenskij D.M., Soina A.S., Chengar' O.V. 2020. "Razobshhajushhij", "nejtral'nyj" i "obedinjajushhij" kontent soobshhestv seti VKontakte na Ukraine: opredelenie ponjatij. The Newman in Foreign Policy. 54 (98): 38-43 (in Russian).
8. Moshkin V.S., Andreev I.A. 2019. Sravnenie jeffektivnosti primenenija algoritmov sentiment- analiza nestrukturirovannyh resursov social'nyh setej. Vos'maja Mezhdunar. konf. "Sistemnyj analiz i informacionnye tehnologii". САИТ-2019:тр. конф. М.: ФИЦ ИУ РАН: 534-540 (in Russian).
9. Metriki v zadachah mashinnogo obuchenija. URL: https://habr.com/ru/company/ods/blog/ 328372/ (accessed: 12 August 2020) (in Russian).
10. Obolensky D.M. et el. 2020. Sbor i predvaritel'naja obrabotka dannyh pol'zovatelej social'nyh setej s pomoshh'ju portala "Otkrytye Dannye". Modern Science. 7 (2): 369-378 (in Russian).
11. Rubcova Ju.V. 2015. Postroenie korpusa tekstov dlja nastrojki tonovogo klassifikatora. Programmnye produkty i sistemy. 1 (109): 72-78 (in Russian). DOI:10.15827/0236-235X.109.072-078
12. Smirnova O. S., Shishkov V. V. 2016. Vybor topologii nejronnyh setej i ih primenenie dlja klassifikacii korotkih tekstov. International Journal of Open Information Technologies. 4 (8): 50-54 (in Russian).
13. Shevelev O.G., Petrakov A.V. 2006. Klassifikacija tekstov s pomoshh'ju derev'ev reshenij i nejronnyh setej prjamogo rasprostranenija. Vestnik Tomskogo gosudarstvennogo universiteta. 290 (1): 300307 (in Russian).
14. Espindola, Rogerio & Ebecken, Nelson. 2005. On extending f-measure and g-mean metrics to multi-class problems. Sixth international conference on data mining, text mining and their business applications. 35: 25-34. URL: https://www.researchgate.net/publication/286914533_On_extending_ f-measure_and_g-mean_metrics_to_multi-class_problems (access: 12 August 2020).
15. Jo T. 2010. NTC (Neural Text Categorizer): Neural Network for Text Categorization. International Journal of Information Studies. 2 (2): 83-96.
16. Kolluri J., Razia S., Nayak S.R. 2020. Text Classification Using Machine Learning and Deep Learning Models. URL: https://ssrn.com/abstract=3618895 (дата обращения: 12 августа 2020).
17. Kowsari J. M., Heidarysafa M. 2019. Text Classification Algorithms: A Survey. Information, 10 (4): 150-154.
18. Maas A.L., Daly R.E., Pham P.T., Huang D., Ng A.Y., Potts C. 2011. Learning word vectors for sentiment analysis. The International Language Technologies. 1: 142-150.
19. Nguyen T.H., Shirai K. 2013. Text Classification of Technical Papers Based on Text Segmentation. Natural Language Processing and Information Systems. NLDB 2013. Lecture Notes in Computer Science. Springer, Berlin, Heidelberg, 121.
20. Ramasundaram S., Victor. S. 2010. Text Categorization by Backpropagation Network. International Journal of Computer Applications. 8 (6): 1-5.
21. Zhang, X. 2015. Character-level convolutional networks for text classification. Xiang Zhang, Junbo Zhao, Yann LeCun. In Advances in Neural Information Processing Systems. 2015. Feb. 649-657 p.
22. Understanding LSTM Networks. URL: http://colah.github.io/posts/2015-08-Understanding- LSTMs (accessed: 17 July 2020).
23. Nguyen T.H., Shirai K. 2013. Text Classification of Technical Papers Based on Text Segmentation. In: Metais E., Meziane F., Saraee M., Sugumaran V., Vadera S. (eds) Natural Language Processing and Information Systems. NLDB 2013. Lecture Notes in Computer Science, vol. 7934. Springer, Berlin, Heidelberg.
24. Ramasundaram, S., Victor, S. Text Categorization by Backpropagation Network. International Journal of Computer Applications. 2010. 8 (6): 1-5.
25. Zhang, X. Character-level convolutional networks for text classification. Xiang Zhang, Junbo Zhao, Yann LeCun. In Advances in Neural Information Processing Systems. 2015. Feb. 649-657 p.
26. Understanding LSTM Networks. URL: http://colah.github.io/posts/2015-08-Understanding- LSTMs (accessed: 17 July 2020).
Размещено на Allbest.ru
...Подобные документы
Анализ применения нейронных сетей для прогнозирования ситуации и принятия решений на фондовом рынке с помощью программного пакета моделирования нейронных сетей Trajan 3.0. Преобразование первичных данных, таблиц. Эргономическая оценка программы.
дипломная работа [3,8 M], добавлен 27.06.2011Различные методы решения задачи классификации. Нейросетевые парадигмы, методы обучения нейронных сетей, возникающие при этом проблемы и пути их решения. Описание программной реализации классификатора, его функциональные возможности и результаты обучения.
дипломная работа [1,0 M], добавлен 28.12.2015Применение нейрокомпьютеров на российском финансовом рынке. Прогнозирование временных рядов на основе нейросетевых методов обработки. Определение курсов облигаций и акций предприятий. Применение нейронных сетей к задачам анализа биржевой деятельности.
курсовая работа [527,2 K], добавлен 28.05.2009Программное обеспечение для получения исходных данных для обучения нейронных сетей и классификации товаров с их помощью. Алгоритм метода обратного распространения ошибки. Методика классификации товаров: составление алгоритма, программная реализация.
дипломная работа [2,2 M], добавлен 07.06.2012Теоретические основы сверточных нейронных сетей. Исследование зависимости качества работы сети от изменения различных характеристик. Сравнение результатов работы сетей типа многослойный персептрон в определении пола и возраста человека по фотографии лица.
курсовая работа [2,5 M], добавлен 18.07.2014Способы применения технологий нейронных сетей в системах обнаружения вторжений. Экспертные системы обнаружения сетевых атак. Искусственные сети, генетические алгоритмы. Преимущества и недостатки систем обнаружения вторжений на основе нейронных сетей.
контрольная работа [135,5 K], добавлен 30.11.2015Модели нейронных сетей и их реализации. Последовательный и параллельный методы резолюции как средства логического вывода. Зависимость между логическим следованием и логическим выводом. Применение технологии CUDA и реализация параллельного алгоритма.
дипломная работа [1,5 M], добавлен 22.09.2016Алгоритмы кластеризации данных, отбора факторов, построения множественной линейной регрессии, оценки параметров процесса на скользящем постоянном интервале. Решение задач анализа данных на нейронных сетях и результаты моделирования нелинейных функций.
контрольная работа [1,5 M], добавлен 11.01.2016Описание технологического процесса напуска бумаги. Конструкция бумагоделательной машины. Обоснование применения нейронных сетей в управлении формованием бумажного полотна. Математическая модель нейрона. Моделирование двух структур нейронных сетей.
курсовая работа [1,5 M], добавлен 15.10.2012Возможности программ моделирования нейронных сетей. Виды нейросетей: персептроны, сети Кохонена, сети радиальных базисных функций. Генетический алгоритм, его применение для оптимизации нейросетей. Система моделирования нейронных сетей Trajan 2.0.
дипломная работа [2,3 M], добавлен 13.10.2015Способы применения нейронных сетей для решения различных математических и логических задач. Принципы архитектуры их построения и цели работы программных комплексов. Основные достоинства и недостатки каждой из них. Пример рекуррентной сети Элмана.
курсовая работа [377,4 K], добавлен 26.02.2015Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.
дипломная работа [814,6 K], добавлен 29.09.2014Рост активности в области теории и технической реализации искусственных нейронных сетей. Основные архитектуры нейронных сетей, их общие и функциональные свойства и наиболее распространенные алгоритмы обучения. Решение проблемы мертвых нейронов.
реферат [347,6 K], добавлен 17.12.2011Технологии решения задач с использованием нейронных сетей в пакетах расширения Neural Networks Toolbox и Simulink. Создание этого вида сети, анализ сценария формирования и степени достоверности результатов вычислений на тестовом массиве входных векторов.
лабораторная работа [352,2 K], добавлен 20.05.2013Понятие и свойства искусственных нейронных сетей, их функциональное сходство с человеческим мозгом, принцип их работы, области использования. Экспертная система и надежность нейронных сетей. Модель искусственного нейрона с активационной функцией.
реферат [158,2 K], добавлен 16.03.2011Особенности нейронных сетей как параллельных вычислительных структур, ассоциируемых с работой человеческого мозга. История искусственных нейронных сетей как универсального инструмента для решения широкого класса задач. Программное обеспечение их работы.
презентация [582,1 K], добавлен 25.06.2013Изучение принципа работы интернет-аукциона (на примере сайта molotok.ru). Способ получения информации с веб-ресурсов. Разработка программного обеспечения с целью создания исходных данных для обучения нейронных сетей и классификации товаров с их помощью.
дипломная работа [2,0 M], добавлен 29.06.2012Нейронные сети как средство анализа процесса продаж мобильных телефонов. Автоматизированные решения на основе технологии нейронных сетей. Разработка программы прогнозирования оптово-розничных продаж мобильных телефонов на основе нейронных сетей.
дипломная работа [4,6 M], добавлен 22.09.2011Исследование задачи и перспектив использования нейронных сетей на радиально-базисных функциях для прогнозирования основных экономических показателей: валовый внутренний продукт, национальный доход Украины и индекс потребительских цен. Оценка результатов.
курсовая работа [4,9 M], добавлен 14.12.2014Простейшая сеть, состоящая из группы нейронов, образующих слой. Свойства нейрокомпьютеров (компьютеров на основе нейронных сетей), привлекательных с точки зрения их практического использования. Модели нейронных сетей. Персептрон и сеть Кохонена.
реферат [162,9 K], добавлен 30.09.2013