Обучение модульной нейронной сети для многозадачного искусственного интеллекта
Погружение структурной модели в пространство рецепторных и аксоновых полей - процесс, порождающий топологическую модель нейронной сети, по которой можно реализовать адаптивный алгоритм обработки данных. Сущность регуляризации параметров алгоритма.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | статья |
Язык | русский |
Дата добавления | 10.05.2022 |
Размер файла | 121,7 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru
Размещено на http://www.allbest.ru
Обучение модульной нейронной сети для многозадачного искусственного интеллекта
Петр Васильевич Четырбок, Марина Анатольевна Шостак
Аннотация. Рассматривается формализация алгоритмов для многозадачного искусственного интеллекта с использованием векторного критерия. Показаны проблемы, возникающие при использовании составления алгоритмов обучения для многозадачного искусственного интеллекта. Представлены методы разрешения проблем, включающие построения самообучающихся нейронных модулей, применения специальных типов нейронных сетей, основанных на векторном критерии и формализации алгоритмов для обработки больших данных с использованием векторного критерия.
Ключевые слова: информация, технология, алгоритм, интеллектуальная обработка больших данных, модульная нейронная сеть, векторный критерий, векторное пространство, категория
Modular neural network training for multitasking artificial intelligence. Petr V. Chetyrbok, Marina A. Shostak
Abstract. The paper considers the formalization of algorithms for multitasking artificial intelligence using a vector criterion. The work shows problems that arise when compiling training algorithms for multitasking artificial intelligence. Methods of solving problems are presented, including constructing self-learning neural modules, using special types of neural networks based on a vector criterion and formalizing algorithms for processing large data using a vector criterion.
Keywords: information, technology, algorithm, intelligent big data processing, modular neural network, vector criterion, vector space, category
Постановка проблемы
К области нейротехнологии относится направление, связанное с обработкой информации на основе принципов функционирования естественных нейронных систем. Математическое моделирование таких систем привело к созданию искусственных нейронных сетей. В биологических сетях принципиальное значение имеет структура связей между нервными клетками, называемыми нейронами. Обособленные группы нейронов в нейробиологии называют нейронными модулями. Они взаимодействуют между собой только через внешние рецепторные и аксоновые поля. Через скрытые нейроны модулей идет обработка информации, которая поступает на рецепторы, и формируется реакция в выходном аксоновом поле модуля. Если предположить, что нейронные модули в сети не имеют пересечений рецепторных или аксоновых полей, то получим модель модульной нейронной сети с инъективными связями. Инъективность связей позволяет представить структуру нейронной сети в виде ориентированного графа. Погружение структурной модели в пространство рецепторных и аксоновых полей порождает топологическую модель нейронной сети, по которой можно реализовать адаптивный алгоритм обработки данных [1-3]. Особенно такая обработка актуальна для многозадачного искусственного интеллекта. Она позволяет обучить модули нейронной сети на различных обучающих выборках для решения различных задач, не меняя структуры модульной нейронной сети.
Цель статьи
Рассматриваются возможности модульной нейронной сети, топологическая модель которой построена с использованием не только пространств рецепторных и аксоновых полей, но и пространства ошибок, полученного с помощью векторного критерия, для многозадачного интеллекта.
Основная часть
Векторный критерий позволяет обучить модульную нейронную сеть для решения различных задач, включив в нее модули, обученные на различных обучающих выборках.
В конкретной реализации нейронной сети с каждым нейронным модулем связаны два линейных векторных пространства:
пространство рецепторов;
пространство аксонов.
Добавим к ним еще пространство ошибок. Пространство ошибок содержит векторы ошибок, полученные при распознавании объектов нейронным модулем.
Для нейронного модуля размерность пространства рецепторов равна числу рецепторов, а размерность пространства аксонов равна числу аксонов. То есть нейронный модуль является оператором, который преобразует вектор из пространства рецепторов в пространство аксонов. Оператор можно задать, вводя базисы в векторном пространстве.
Возьмем в качестве базиса - типичные представители классов объектов из обучающей выборки. Типичный представитель класса объектов выбирается из обучающей выборки среди эталонных образцов объектов этого класса по векторному критерию [4]. А именно, выбирается тот эталон, на котором векторный критерий максимален. Векторный критерий позволяет в обучающей выборке среди эталонных образцов выбрать опорные векторы для машины опорных векторов. Также сможем добавить еще один базис, а именно, векторы, полученные на ошибках распознавания опорных векторов в пространстве ошибок. Исходя из этого базиса, сможем вычислить векторный критерий в пространстве ошибок при распознавании нового объекта, и тем самым, используя обучающую выборку для данного модуля, обучить его решать конкретную задачу, поставленную перед этим модулем.
Современные нейронные сети (и другие алгоритмы машинного обучения) обычно решают одну проблему из одного примера - это может быть классификация, регрессия, структурированное прогнозирование, обнаружение аномалий или генерация объекта. Рассмотрим, как можно обучать модели с помощью многозадачного обучения.
Регуляризация L2 для функции потерь (функция потери нормы L2 также известна как ошибка наименьших квадратов (МНК)) [5]:
где V - функция потерь;
xi - входные параметры;
yi - выходные параметры;
w - вес;
1 - гиперпараметр.
Ь2-регуляризация содействует появлению малых весовых коэффициентов модели, но не способствует их точному равенству нулю. С помощью L2 решаем одновременно две задачи оптимизации: минимизация функции потерь и нормирование параметров.
Одним из эффектов регуляризации является решение обратных некорректных задач и добавление регуляризации по норме параметров, которая помогает добиться гладкости и хорошего кондиционирования задачи.
Если такая дополнительная потеря, как регуляризация параметров алгоритма, помогает повысить производительность, тогда алгоритмы будут выглядеть примерно так, как на рисунке 1: один вход, несколько слоев (в случае нейронных сетей) и множество выходов, которые могут играть роль регуляризатора с некоторым гиперпараметром лямбда или независимая цель, которая также должна быть оптимизированной и решенной [6].
Рис. 1. Жесткий обмен параметрами для многозадачного обучения в глубоких нейронных сетях
алгоритм топологический нейронный аксоновый
Все эти «знания», «условия» включаются в алгоритм машинного обучения в качестве дополнительного входа. И если использовать модульную нейронную сеть, то алгоритм многозадачного обучения можно распараллелить. Правило разбиения на признаковые поля: если построенный на признаковом поле модуль нейронной сети на входных данных не изменяет векторный критерий распознавания образов, то это поле можно безболезненно, а также и модуль нейронной сети исключить из структуры модульной нейронной сети, тем самым информацию на данном признаковом поле необходимо отсеять из дальнейшего рассмотрения [7].
Для построения оптимальной модульной нейронной сети применим правило, описанное выше, и получим структуру сети, показанную на авторском рисунке 2.
Рис. 2. Структура модульной нейронной сети
Co=max(COS(Xi)), i=1,.. .,
n - векторный критерий модуля 0;
Cm - векторный критерий модуля m.
А именно модульная нейронная сеть с векторным критерием позволяет обучить модули нейронной сети на различных обучающих выборках для решения различных задач, не меняя структуры модульной нейронной сети.
Обучение нейронной сети для одновременного решения X задач вместо использования X отдельных нейронных сетей влияет на производительность, регуляризацию и обобщение.
Выводы
Модульная нейронная сеть с векторным критерием позволяет обучить модули нейронной сети на различных обучающих выборках для решения различных задач, не меняя структуры модульной нейронной сети. Модульная нейронная сеть сокращает время обучения, так как в традиционном варианте пришлось бы для решения каждой задачи строить архитектуру отдельной нейронной сети и обучать ее самостоятельно на обучающей выборке. После обучения модульной нейронной сети для решения нескольких задач возникает возможность ее самообучения для решения задач кластеризации.
Литература
1. Дорогов А.Ю. Теория и проектирование быстрых перестраиваемых преобразований и слабосвязанных нейронных сетей. Санкт-Петербург: Политехника, 2014. 328 с.
2. Саймон Х. Нейронные сети: полный курс: пер. с англ. 2-е изд. Москва: Вильямс, 2006.1104 с.
3. Четырбок П.В., Шостак М.А. Подготовка специалистов индустрии гостеприимства Южного региона России в условиях пандемии Covid-19 с использованием информационных технологий // Вестник Адыгейского государственного университета. Сер.: Естественноматематические и технические науки. 2020. Вып. 3 (266). С. 87-91. URL: http://vestnik.adygnet.ru
4. Четырбок П.В. Построение решающего правила для классификации образов на основе векторов ошибок // Системні дослідження та інформаційні технології. Киев, 2013. № 2. С. 114-120.
5. Тихонов А.Н. О некорректных задачах линейной алгебры и устойчивом методе их решения // ДАН СССР. 1965. Т. 163, № 3. С. 591-594.
6. Рудер С. Обзор многозадачного обучения в глубоких нейронных сетях // arXiv: 1706.05098v1. 2017. 14 с. URL: https://arxiv.org/pdf/1706.05098.pdf
7. Chetyrbok P.V. Preliminary systemic decomposition of big data for their classification using vector criteria dynamic management model of innovations generations: 2017 20th IEEE International Conference on Soft Computing and Measurements (SCM). 2017. P. 762-764.
References
1. Dorogov A.Yu. Theory and design of fast tunable transformations and weakly connected neural networks. Saint Petersburg: Polytechnic, 2014. 328 p.
2. Simon H. Neural Networks: the complete course: transl. from English. 2nd ed. Moscow: Williams, 2006. 1104 p.
3. Chetyrbok P.V., Shostak M.A. Hospitality industry training in South Region (Russia) in conditions of Covid-19 pandemic using information technology // The Bulletin of the Adyghe State University. Ser.: Natural-Mathematical and Technical Sciences. 2020. Iss. 3 (266). P. 87-91. URL: http://vestnik.adygnet.ru
4. Chetyrbok P.V. Building a decision rule for the classification of patterns based on error vectors // Systematic advances and information technologies. Kiev, 2013. No. 2. P. 114-120.
5. Tikhonov A.N. On ill-posed problems in linear algebra and a stable method for their solution // DAN USSR. 1965. Vol. 163, No. 3. P. 591-594.
6. Ruder S. An Overview of Multi-Task Learning in Deep Neural Networks // ar- Xiv:1706.05098v1. 2017. 14 p. URL: https://arxiv.org/pdf/1706.05098.pdf
7. Chetyrbok P.V. Preliminary systemic decomposition of big data for their classification using vector criteria dynamic management model of innovations generations: 2017 20th IEEE International Conference on Soft Computing and Measurements (SCM). 2017. P. 762-764.
Размещено на Allbest.ru
...Подобные документы
Описание структурной схемы искусственного нейрона. Характеристика искусственной нейронной сети как математической модели и устройств параллельных вычислений на основе микропроцессоров. Применение нейронной сети для распознавания образов и сжатия данных.
презентация [387,5 K], добавлен 11.12.2015Математическая модель нейронной сети. Однослойный и многослойный персептрон, рекуррентные сети. Обучение нейронных сетей с учителем и без него. Алгоритм обратного распространения ошибки. Подготовка данных, схема системы сети с динамическим объектом.
дипломная работа [2,6 M], добавлен 23.09.2013Исследование нечеткой модели управления. Создание нейронной сети, выполняющей различные функции. Исследование генетического алгоритма поиска экстремума целевой функции. Сравнительный анализ нечеткой логики и нейронной сети на примере печи кипящего слоя.
лабораторная работа [2,3 M], добавлен 25.03.2014Математическая модель искусственной нейронной сети. Структура многослойного персептрона. Обучение без учителя, методом соревнования. Правило коррекции по ошибке. Метод Хэбба. Генетический алгоритм. Применение нейронных сетей для синтеза регуляторов.
дипломная работа [1,5 M], добавлен 17.09.2013Разработка алгоритма и программы для распознавания пола по фотографии с использованием искусственной нейронной сети. Создание алгоритмов: математического, работы с приложением, установки весов, реализации функции активации и обучения нейронной сети.
курсовая работа [1,0 M], добавлен 05.01.2013Понятие искусственного нейрона и искусственных нейронных сетей. Сущность процесса обучения нейронной сети и аппроксимации функции. Смысл алгоритма обучения с учителем. Построение и обучение нейронной сети для аппроксимации функции в среде Matlab.
лабораторная работа [1,1 M], добавлен 05.10.2010Преимущества нейронных сетей. Модели нейронов, представляющих собой единицу обработки информации в нейронной сети. Ее представление с помощью направленных графов. Понятие обратной связи (feedback). Основная задача и значение искусственного интеллекта.
реферат [1,2 M], добавлен 24.05.2015Модель и задачи искусственного нейрона. Проектирование двуслойной нейронной сети прямого распространения с обратным распространением ошибки, способной подбирать коэффициенты ПИД-регулятора, для управления движения робота. Комплект “LEGO Mindstorms NXT.
отчет по практике [797,8 K], добавлен 13.04.2015Нейронные сети и оценка возможности их применения к распознаванию подвижных объектов. Обучение нейронной сети распознаванию вращающегося трехмерного объекта. Задача управления огнем самолета по самолету. Оценка экономической эффективности программы.
дипломная работа [2,4 M], добавлен 07.02.2013Этап предварительной обработки данных, классификации, принятия решения. Изображения обучающих рукописных символов, тестового символа. Выход нейронной сети для тестового символа. График тренировки нейронной сети. Последовательность точек. Входные вектора.
статья [245,7 K], добавлен 29.09.2008Обучение простейшей и многослойной искусственной нейронной сети. Метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Реализация в программном продукте NeuroPro 0.25. Использование алгоритма обратного распространения ошибки.
курсовая работа [1019,5 K], добавлен 05.05.2015Выявление закономерностей и свойств, применимых в искусственной нейронной сети. Построение графиков и диаграмм, определяющих степень удаленности между объектами. Моделирование, тестирование и отладка программной модели, использующей клеточный автомат.
дипломная работа [4,1 M], добавлен 25.02.2015Разработка нейронной сети, ее применение в алгоритме выбора оружия ботом в трехмерном шутере от первого лица, тестирование алгоритма и выявление достоинств и недостатков данного подхода. Обучение с подкреплением. Описание проекта в Unreal Engine 4.
контрольная работа [611,0 K], добавлен 30.11.2016Прогнозирование на фондовом рынке с помощью нейронных сетей. Описание типа нейронной сети. Определение входных данных и их обработка. Архитектура нейронной сети. Точность результата. Моделирование торговли. Нейронная сеть прямого распространения сигнала.
дипломная работа [2,7 M], добавлен 18.02.2017Математические модели, построенные по принципу организации и функционирования биологических нейронных сетей, их программные или аппаратные реализации. Разработка нейронной сети типа "многослойный персептрон" для прогнозирования выбора токарного станка.
курсовая работа [549,7 K], добавлен 03.03.2015Сущность, структура, алгоритм функционирования самообучающихся карт. Начальная инициализация и обучение карты. Сущность и задачи кластеризации. Создание нейронной сети со слоем Кохонена при помощи встроенной в среды Matlab. Отличия сети Кохонена от SOM.
лабораторная работа [36,1 K], добавлен 05.10.2010Построение векторной модели нейронной сети. Проектирование и разработка поискового механизма, реализующего поиск в полнотекстовой базе данных средствами нейронных сетей Кохонена с применением модифицированного алгоритма расширяющегося нейронного газа.
курсовая работа [949,0 K], добавлен 18.07.2014Программная реализация статической нейронной сети Хемминга, распознающей символы текста. Описание реализации алгоритма. Реализация и обучение сети, входные символы. Локализация и масштабирование изображения, его искажение. Алгоритм распознавания текста.
контрольная работа [102,3 K], добавлен 29.06.2010Принцип построения и описание прибора. Назначение и область применения спектрометра космических излучений на алмазных детекторах. Аппроксимация степенным многочленом. Математическая модель нейронной сети. Описание интерфейса программного комплекса.
дипломная работа [591,1 K], добавлен 03.09.2017Изучение и реализация системы, использующей возможности Microsoft Azure для распределенного обучения нейронной сети. Рассмотрение функционирования распределенных вычислений. Выбор задачи для исследования; тестирование данного программного ресурса.
дипломная работа [2,0 M], добавлен 20.07.2015