Разработка системы обеспечения безопасности распознавания образов от вредоносного воздействия на основе нейронной сети

Применение искусственного интеллекта в деятельности человека. Разработка алгоритма защиты систем компьютерного зрения. Виды вредоносных атак. Использование гауссовского зашумления в нейронных сетях для обеспечения безопасности распознавания образов.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 09.05.2022
Размер файла 1,0 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://allbest.ru

Кубанский государственный технологический университет

Разработка системы обеспечения безопасности распознавания образов от вредоносного воздействия на основе нейронной сети

Александр Николаевич Черкасов, Евгений Евгеньевич Волнянкин

Аннотация

Представлены результаты исследования вредоносного воздействия на изображения и предложен алгоритм защиты для систем компьютерного зрения. Предложена интеллектуальная система защиты и распознавания образов на основе двух типов нейронных сетей: автоэнкодера и сверточной нейронной сети.

Ключевые слова: сверточная нейронная сеть, автоэнкодер, распознавание образов, гауссовское зашумление, создание устойчивой модели

Abstract

Development of a system for ensuring the safety of image recognition from malicious influences based on a neural network

Aleksandr N. Cherkasov, Evgeniy E. Volnyankin

Kuban State University of Technology

The paper presents the results of a study of the harmful effects on images and proposes a protection algorithm for computer vision systems. An intelligent protection and pattern recognition system, based on two types of neural networks: an autoencoder and a convolutional neural network, is proposed.

Keywords: convolutional neural network, autoencoder, pattern recognition, Gaussian noise, stable model creation

Использование новых технологий, связанных с искусственным интеллектом и машинным обучением, активно применяется во многих областях деятельности человека [1]. Новые алгоритмы помогают распознавать знаки дорожного движения, водить беспилотники, фильтровать спам, распознавать лица и т.д. Однако с развитием таких технологий встает вопрос, а насколько эти технологии безопасны и насколько им можно доверять. По мере роста потребления продуктов и услуг, созданных на основе машинного обучения, необходимо предпринимать специальные меры, чтобы защитить не только пользователей и их данные, но и сам искусственный интеллект и алгоритмы от нарушения работоспособности.

Поэтому в данный момент актуальной становится задача обеспечения безопасности алгоритмов машинного обучения и в частности систем компьютерного распознавания изображений [2]. Существует целая группа атак, которая вводит в заблуждение системы искусственного интеллекта. Самые известные виды атак, использующих вредоносный образ: FGSM, L-BFGS, DeepFool, JSMA, Onepixel [3]. Основная суть таких угроз заключается в возможности раскрытия нарушителем информации о модели машинного обучения, хищения нарушителем обучающих данных, модификации (искажения) модели машинного обучения.

На рисунке 1 приведена структура проведения атаки на систему машинного обучения, в том числе на системы распознавания образов, детекции объектов и т.д. [4]. Тема уязвимостей систем машинного обучения, искусственных нейронных сетей к атакам в настоящее момент недостаточно изучена, а универсальных методов защиты, способных решить вышеуказанные проблемы, пока нет [5]. Однако разработаны некоторые подходы, позволяющие сгладить последствия атак на искусственные нейронные сети (ИНС) [6].

Рис. 1. Схема атаки на модель машинного обучения

Fig. 1. Pattern of attack on machine learning model

В статье приведена модель улучшения по распознаванию атакованного изображения, функционирующая на основе устойчивой искусственной нейронной сети. вредоносный искусственный интеллект нейронный

Авторами разработана модель, позволяющая на основе генерации вредоносных образов, сформированных на основе гауссовского шума, распознавать исходное изображение. Генерация вредоносных образов на набор данных и дальнейшее обучение позволяет увеличить устойчивость модели.

Схема работы алгоритма приведена на рисунке 2.

Рис. 2. Алгоритм улучшения модели устойчивости нейронной сети

Fig. 2. Algorithm for improving neural network resistance model

С целью реализации алгоритма разработана программа, представляющая собой схему двух моделей, построенных на двух типах нейронных сетей: автоэнкодер и сверточная нейронная сеть.

Первая модель - сверточная нейронная сеть, которая в качестве классификатора исполняет роль системы распознавания образов [7]. Второй моделью, которая исполняет роль системы защиты, является автоэнкодер [8]. Он исполняет как и основную защитную роль сжатия и восстановления изображения, так и другие. На рисунке 3 приведена схема слоев сверточной нейронной сети.

Рис. 3. Схема слоев сверточной нейронной сети

Fig. 3. Diagram of convolutional neural network layers

На рисунке 4 приведена схема нейронной сети автоэнкодера, представляющего собой энкодер, скрытое пространство и декодер.

Для проверки функционирования программы использовалась одна из наиболее распространенных атак: метод быстрого градиентного знака, работающий с использованием градиентов нейронной сети для создания состязательного примера.

Рис. 4. Схема слоев автоэнкодера

Fig. 4. Autoencoder layer diagram

Для входного изображения метод использует градиенты потерь по отношению к входному изображению, чтобы создать новое изображение, которое максимизирует потери. Для этого нужно определить, насколько каждый пиксель изображения влияет на величину потерь. Атаку можно описать формулой:

adv_x = x + e - sing (J (и, x, y)),

где adv_x - вредоносное изображение;

x - исходное изображение;

e - множитель для обеспечения зашумления;

J - потеря;

и - параметры модели;

у - метка изображения [9].

Для тестирования разработанного алгоритма и программы была выбрана база данных рукописных цифр MNIST (odified National Institute of Standards and Technology). Данные состоят из заранее подготовленных примеров изображений, на основе которых проводится обучение и тестирование систем. Ее преимуществом является то, что набор данных занимает небольшое количество памяти и изображения малого размера. Набор состоит из 60000 полутоновых изображений размером 28*28. Всего в наборе 10 цифр. Тестовый набор состоит из 10000 изображений. Фрагмент представлен на рисунке 5.

Рис. 5. Фрагмент набора исходных данных изображения

Fig. 5. Snippet of image source data

Сверточная нейронная сеть после прохождения через нее изображения в результате выдает метку класса изображения: изображению присваиваются значения от 0 до 9 (см. рис. 6).

Рис. 6. Тестовые изображение с метками классов

Fig. 6. Test image with class labels

На созданный набор данных на основе тестовых значений и зашумленных данных была проведена атака по методу быстрого градиентного знака (FGSM) с помощью библиотеки ART-IBM.

Пример реализации атаки FGSM при эпсилоне, равном 0.001, приведен на рисунке 7.

Рис. 7. Пример изображения с наложением, основанном на методе градиентного знака

Fig. 7. Example of image with overlay based on gradient sign method

После успешно проведенной атаки заметно изменяются изображения, а с ними и метки классов. Применяя разработанную программу, состоящую из сверточной нейронной сети и автоэнкодера с добавление зашумленных объектов в обучающую выборку, был получен следующий результат, приведенный на рисунке 8.

Рис. 8. Результат работы разработанной программы

Fig. 8. Result of the developed program operation

Функционирование разработанной системы представляет собой наглядный пример того, что при введении в любую систему компьютерного зрения, обладающую своими свойствами, фильтра в виде автоэнкодера, появляется возможность обеспечить дополнительную защиту и снизить вероятность успешной атаки на систему машинного обучения. После нормализации данных, составления модели и обучения точность классификации сверточной нейронной сетью составила 98,03%.

Выводы

1. Предлагаемый алгоритм распознавания изображений на основе функционирования двух видов нейронных сетей обеспечивает достаточную степень защиты от атак и вредоносного обучения. Стоит отметить, что данная схема может с успехом применяться для решения более широкого круга задач.

2. Разработанная интеллектуальная система по улучшению атакованного изображения на основе представленных выше результатов позволяет защититься от аномальных входных данных с большим зашумлением, способных «отравить» модель.

Библиография

1. Черкасов А.Н. Разработка математического и алгоритмического обеспечения адаптивных систем поддержки принятия решений в ситуационных центрах: дис. ... канд. техн. наук. Краснодар: Кубанский государственный технологический университет, 2011. 152 с.

2. Кэти Уорр. Надежность нейронных сетей. Укрепляем устойчивость ИИ к обману. Санкт-Петербург: Питер, 2021. 272 с.

3. Безопасность алгоритмов машинного обучения. Атаки с использованием Python. URL: https://dsec.ru/research-and-analytics/article/bezopasnost-algoritmov-mashinnogo-obucheniya- zashhita-i-testirovanie-modelej-s-ispolzovaniem-python/ (дата обращения: 03.06.2021).

4. Комплексная платформа машинного обучения с открытым исходным кодом. URL: https://www.tensorflow.org/ (дата обращения: 03.06.2021).

5. Черкасов А.Н., Туркин Е.А. Разработка модели обнаружения вредоносных программ на основе анализа последовательностей API-запросов // Вестник Адыгейского гос. универ.. Сер.: Естественно-математические и технические науки. 2021. Вып. 2 (281). С. 90-96. URL: http://vestnik.adygnet.ru

6. Кларенс Чио, Дэвид Фримэн. Машинное обучение и безопасность. Москва: ДМК Пресс, 2020. 388 с.

7. Черкасов А.Н., Сивенко А.В. Разработка модели обеспечения безопасности аккаунта социальной сети на основе нейросетевого алгоритма // Вестник Адыгейского гос. универ.. Сер.: Естественно-математические и технические науки. 2021. Вып. 2 (281). С. 47-55. URL: http://vestnik.adygnet.ru

8. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. Погружение в мир нейронных сетей. Москва, 2018. 477 с.

9. Плас Дж. Вандер. Python для сложных задач: наука о данных и машинное обучение. Санкт-Петербург: Питер, 2018. 576 с.

References

1. Cherkasov A.N. Development of mathemat. and algorithmic support for adaptive decision support systems in situate. centers: Diss. for the Cand. of Techn. Sciences degree. Krasnodar: Kuban State University of Technology, 2011. 152 p.

2. Katy Warr. Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery. St. Petersburg: Piter, 2021. 272 p.

3. Security of machine learning algorithms. Python Attacks. URL: https://dsec.ru/research- and-analytics/article/bezopasnost-algoritmov-mashinnogo-obucheniya-zashhita-i-testirovanie- modelej-s-ispolzovaniem-python/ (access date: 03.06.2021).

4. A comprehensive open source machine learning platform. URL: https://www.tensorflow.org/ (access date: 03.06.2021).

5. Cherkasov A.N., Turkin E.A. Development of the malware detection model based on an analysis of API request sequences // The Bulletin of the Adyghe State University. Ser.: Natural- Mathematical and Technical Sciences. 2021. Iss. 2 (281). P. 90-96. URL: http://vestnik.adygnet.ru

6. Clarence Chio, David Freeman. Machine learning and security. Moscow: DMK Press, 2020. 388 p.

7. Cherkasov A.N., Sivenko A.V. Development of a model for ensuring the security of a social network account based on a neural network algorithm // The Bulletin of the Adyghe State University. Ser.: Natural-Mathematical and Technical Sciences. 2021. Iss. 2 (281). P. 47-55. URL: http://vestnik.adygnet.ru

8. Nikolenko S., Kadurin A., Arkhangelskaya E. Deep Learning. Dive into the world of neural networks. Moscow, 2018. 477 p.

9. Plas J. Wonder. Python for Complex Problems: Data Science and Machine Learning. St. Petersburg: Piter, 2018. 576 p.

Размещено на Allbest.ru

...

Подобные документы

  • Описание структурной схемы искусственного нейрона. Характеристика искусственной нейронной сети как математической модели и устройств параллельных вычислений на основе микропроцессоров. Применение нейронной сети для распознавания образов и сжатия данных.

    презентация [387,5 K], добавлен 11.12.2015

  • Выбор типа и структуры нейронной сети. Подбор метода распознавания, структурная схема сети Хопфилда. Обучение системы распознавания образов. Особенности работы с программой, ее достоинства и недостатки. Описание интерфейса пользователя и экранных форм.

    курсовая работа [3,0 M], добавлен 14.11.2013

  • Основные понятия теории распознавания образов и ее значение. Сущность математической теории распознавания образов. Основные задачи, возникающие при разработке систем распознавания образов. Классификация систем распознавания образов реального времени.

    курсовая работа [462,2 K], добавлен 15.01.2014

  • Теоретические основы распознавания образов. Функциональная схема системы распознавания. Применение байесовских методов при решении задачи распознавания образов. Байесовская сегментация изображений. Модель TAN при решении задачи классификации образов.

    дипломная работа [1019,9 K], добавлен 13.10.2017

  • Создание программного средства, осуществляющего распознавание зрительных образов на базе искусственных нейронных сетей. Методы, использующиеся для распознавания образов. Пандемониум Селфриджа. Персептрон Розенблатта. Правило формирования цепного кода.

    дипломная работа [554,8 K], добавлен 06.04.2014

  • Понятие системы распознавания образов. Классификация систем распознавания. Разработка системы распознавания формы микрообъектов. Алгоритм для создания системы распознавания микрообъектов на кристаллограмме, особенности его реализации в программной среде.

    курсовая работа [16,2 M], добавлен 21.06.2014

  • Методы распознавания образов (классификаторы): байесовский, линейный, метод потенциальных функций. Разработка программы распознавания человека по его фотографиям. Примеры работы классификаторов, экспериментальные результаты о точности работы методов.

    курсовая работа [2,7 M], добавлен 15.08.2011

  • Разработка алгоритма и программы для распознавания пола по фотографии с использованием искусственной нейронной сети. Создание алгоритмов: математического, работы с приложением, установки весов, реализации функции активации и обучения нейронной сети.

    курсовая работа [1,0 M], добавлен 05.01.2013

  • Обзор задач, возникающих при разработке систем распознавания образов. Обучаемые классификаторы образов. Алгоритм персептрона и его модификации. Создание программы, предназначенной для классификации образов методом наименьшей среднеквадратической ошибки.

    курсовая работа [645,2 K], добавлен 05.04.2015

  • Появление технических систем автоматического распознавания. Человек как элемент или звено сложных автоматических систем. Возможности автоматических распознающих устройств. Этапы создания системы распознавания образов. Процессы измерения и кодирования.

    презентация [523,7 K], добавлен 14.08.2013

  • Основные цели и задачи построения систем распознавания. Построение математической модели системы распознавания образов на примере алгоритма идентификации объектов военной техники в автоматизированных телекоммуникационных комплексах систем управления.

    дипломная работа [332,2 K], добавлен 30.11.2012

  • Первое систематическое изучение искусственных нейронных сетей. Описание элементарного перцептрона. Программная реализация модели распознавания графических образов на основе перцептрона. Интерфейс программы, основные окна. Составление алгоритма приложения.

    реферат [100,5 K], добавлен 18.01.2014

  • Принципы и система распознавание образов. Программное средство и пользовательский интерфейс. Теория нейронных сетей. Тривиальный алгоритм распознавания. Нейронные сети высокого порядка. Подготовка и нормализация данных. Самоорганизующиеся сети Кохонена.

    курсовая работа [2,6 M], добавлен 29.04.2009

  • Искусственные нейронные сети как одна из широко известных и используемых моделей машинного обучения. Знакомство с особенностями разработки системы распознавания изображений на основе аппарата искусственных нейронных сетей. Анализ типов машинного обучения.

    дипломная работа [1,8 M], добавлен 08.02.2017

  • Обобщенная модель процесса обнаружения атак. Обоснование и выбор контролируемых параметров и программного обеспечения для разработки системы обнаружения атак. Основные угрозы и уязвимые места. Использование системы обнаружения атак в коммутируемых сетях.

    дипломная работа [7,7 M], добавлен 21.06.2011

  • Распознавание образов - задача идентификации объекта или определения его свойств по его изображению или аудиозаписи. История теоретических и технических изменений в данной области. Методы и принципы, применяемые в вычислительной технике для распознавания.

    реферат [413,6 K], добавлен 10.04.2010

  • Информация, как сырье и как товар: абсолютная, относительная и аналитическая информация. Автоматизированные системы распознавания образов. Система искусственного интеллекта. Признаки и этапы жизненного цикла интеллектуальных информационных систем.

    шпаргалка [60,4 K], добавлен 10.06.2009

  • Оптико-электронная система идентификации объектов подвижного состава железнодорожного транспорта. Автоматический комплекс распознавания автомобильных номеров. Принципы и этапы работы систем оптического распознавания. Особенности реализации алгоритмов.

    дипломная работа [887,3 K], добавлен 26.11.2013

  • Сущность и проблемы определения искусственного интеллекта, его основных задач и функций. Философские проблемы создания искусственного интеллекта и обеспечения безопасности человека при работе с роботом. Выбор пути создания искусственного интеллекта.

    контрольная работа [27,9 K], добавлен 07.12.2009

  • Понятие искусственного интеллекта как свойства автоматических систем брать на себя отдельные функции интеллекта человека. Экспертные системы в области медицины. Различные подходы к построению систем искусственного интеллекта. Создание нейронных сетей.

    презентация [3,0 M], добавлен 28.05.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.