Глубокое обучение и его применение сегодня

Сущность глубокого обучения, его применение в компьютерном зрении, обработке естественного языка, распознавании речи, автономных транспортных средствах. Архитектура ГО: гибкие, сверточные и рекуррентные нейронные сети, стохастический градиентный спуск.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 01.04.2023
Размер файла 780,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.Allbest.Ru/

Глубокое обучение и его применение сегодня

Эдгар Тиаго де Оливейра Шагас

Edgar Thiago de Oliveira Chagas

Резюме

Искусственный интеллект больше не является сюжетом для художественных фильмов. Исследования в этой области увеличивается с каждым днем и дает новые знания в машинное обучение. Глубокие методы обучения, также известный как глубокое обучение, в настоящее время используется на многих фронтах, таких как распознавание лиц в социальных сетях, автоматизированных автомобилей и даже некоторые диагнозы в области медицины. Глубокое обучение позволяет вычислительным моделям, состоящим из бесчисленных обрабатывающих слоев, «изучать» представления данных с различными уровнями абстракции. Эти методы улучшили распознавание речи, визуальные объекты, обнаружение объектов, среди возможностей. Тем не менее, эта технология все еще плохо известна, и цель этого исследования заключается в уточнении, как глубокое обучение работает и продемонстрировать свои текущие приложения. Конечно, с распространением этих знаний, глубокого обучения может, в ближайшем будущем, представить другие приложения, что еще более важно для всего человечества.

Ключевые слова: глубокое обучение, машинное обучение, IA, машинное обучение, интеллект

Введение

Глубокое обучение понимается как ветвь машинного обучения, основанная на группе алгоритмов, которые стремятся формировать абстракций высокого уровня данных с помощью глубокого графа с несколькими слоями обработки, состоит из нескольких линейных и нелинейных изменений.

Глубокое обучение работает как компьютерная система для выполнения таких задач, как распознавание речи, идентификация изображения и проекции. Вместо того, чтобы организовывать информацию, чтобы действовать через заранее оговоренным уравнениям, это обучение определяет основные шаблоны этой информации и учит компьютеры развиваться путем идентификации моделей в обработке слоев.

Этот вид обучения является всеобъемлющей отраслью методов машинного обучения, основанных на изучении представлений информации. В этом смысле глубинное обучение представляет собой набор алгоритмов машинного обучения, которые пытаются интегрировать несколько уровней, которые являются признанными статистическими моделями, соответствующими разным уровням определений. Более низкие уровни помогают определить многие понятия более высокого уровня.

Есть бесчисленное множество текущих исследований в этой области искусственного интеллекта. Совершенствование методов глубокого обучения внедрило улучшения в способности компьютеров понять, что запрашивается. Исследования в этой области направлена на поощрение более совершенных представлений и разработать модели для выявления этих представлений из информации не помечены в больших масштабах, некоторые в качестве основы в выводах неврологии и в интерпретации Обработка данных и коммуникативные паттерны в нервной системе. С 2006 года этот вид обучения возник как новый филиал исследований машинного обучения.

Недавно, новые методы были разработаны из глубокого обучения, которые повлияли несколько исследований по обработке сигнала и идентификации шаблона. Обратите внимание на ряд новых проблемных команд, которые могут быть решены с помощью этих методов, в том числе машинного обучения и искусственного интеллекта ключевых точек.

Существует большое внимание средств массовой информации, в соответствии с Yang et al, о достижениях, достигнутых в этой области. Крупные технологические организации применили много инвестиций в исследования глубокого обучения и их новых приложений.

Глубокое обучение включает в себя обучение на различных уровнях представительства и неосязаемости, которые помогают в процессе понимания информации, образов, звуков и текстов.

Среди выставок, доступных на глубоком обучении, можно выделить два ярких момента. Первый показывает, что они являются моделями, сформированные бесчисленными слоями или ступенями нелинейной обработки данных и также контролируются практикой обучения или нет, о представлении атрибуций в более поздних и неосязаемых слоях.

Понятно, что глубокое обучение находится в суставах между ветвями исследований нейронной сети, AI, графическое моделирование, идентификации и оптимизации шаблонов и обработки сигналов. Внимание уделяется глубокому обучению в связи с улучшением мастерства обработки чипов, значительным увеличением размера информации, используемой для обучения, и последними достижениями в исследованиях в области машинного обучения и обработки сигналов.

Этот прогресс позволил практике глубокого обучения эффективно использовать сложные и нелинейные приложения, определить представления распределенных и иерархических ресурсов, и обеспечить эффективное использование Маркированные и немаркированные сведения.

Глубокое обучение относится к комплексному классу методов и проектов машинного обучения, которые объединяют характеристику использования многих слоев нелинейных обработанных данных иерархического характера. В связи с использованием этих методов и проектов, большая часть исследований в этой области может быть классифицирована в трех основных наборов, в соответствии с Панг et al, которые являются глубокими сетями для неконтролируемого обучения; Контролируется и гибрид.

Глубокие сети для неконтролируемого обучения доступны для задержания высокой последовательности корреляции, анализируемой или идентифицируемой информации для проверки или ассоциации стандартов, когда нет данных о стереотипах классов доступно в базе данных. Изучение атрибуции или неконтролируемого представительства относится к глубоким сетям. Кроме того, вы можете искать назначение сгруппированных статистических дистрибутивов, видимых данных и связанных с ним классов, когда они доступны, и могут быть покрыты как часть видимых данных.

Глубокие нейронные сети для контролируемого обучения должны обеспечивать дискриминацию в отношении классификации, обычно индивидуализации последующего распределения классов, связанных с видимой информацией, которая всегда доступно для этого контролируемого обучения, также упоминается как глубокие дискриминационные сети.

Глубокие гибридные сети подсвечиваются дискриминацией, выявляемой с результатами генеративных или неконтролируемого глубоких сетей, которые могут быть достигнуты за счет совершенствования и/или упорядочение сетей, находящихся под глубоким наблюдением. Его атрибуции также могут быть достигнуты, когда дискриминационные руководящие принципы для контролируемого обучения используются для оценки стандартов в любой генеративной или неконтролируемой глубокой сети.

Глубокие и периодические сети являются моделями, которые представляют высокую производительность в вопросах идентификации сомнительных моделей в Ivain и речи. Несмотря на свою силу представительства, большие трудности в формировании глубоких нейронных сетей с общим использованием сохраняется и по сей день. В связи с рецидивирующими нейронными сетями, исследования Хинтона et al инициировали формование слоями.

Настоящее исследование направлено на разъяснение прогресса глубокого обучения и его применения в соответствии с последними исследованиями. Для этого будет проведено качественное описательное исследование с использованием книг, диссертаций, статей и веб-сайтов, чтобы концептуально достижения в области искусственного интеллекта и особенно в глубоком обучении.

С прошлого десятилетия наблюдается растущий интерес к машинному обучению, учитывая, что существует постоянно увеличивающий взаимодействие между приложениями, будь то мобильные или компьютерные устройства, с физическими лицами, через программы для обнаружения спама, Распознавание фотографий в социальных сетях, смартфонов с распознаванием лица, среди прочих применений. По данным Gartner вс]е корпоративные программы будут иметь некоторые функции, связанные с машинного обучения до 2020 года. Эти элементы направлены на обоснование разработки этого исследования.

Историческое развитие глубокого обучения

Искусственный интеллект не является недавним открытием. Она исходит из десятилетия 1950, но, несмотря на эволюцию своей структуры, некоторые аспекты доверия не хватало. Одним из таких аспектов является объем данных, который возник в широком разнообразии и скорости, что позволяет создавать стандарты с высокой степенью точности. Тем не менее, соответствующий момент был о том, как большие модели машинного обучения были обработаны с большими объемами информации, потому что компьютеры не могут выполнять такие действия.

В этот момент был идентифицирован второй аспект, который упоминается параллельно программированию на графических процессорах. Графические процессорные единицы, которые позволяют параллельно осуществлять математические операции, особенно с матрицами и векторами, которые присутствуют в моделях искусственных сетей, позволили нынешней эволюции, т.е. Суммирование больших объемов данных (большой объем данных); Параллельная обработка и модели машинного обучения представляют собой в результате искусственный интеллект.

Базовая единица искусственной нейронной сети - это математический нейрон, называемый также узлом, основанный на биологическом нейроне. Связи между этими математическими нейронами связаны с биологическими мозгами, и особенно в том, как эти ассоциации развиваются с течением времени, называемых «обучением».

В период между второй половиной десятилетия 80 и началом десятилетия 90, произошло несколько соответствующих достижений в структуре искусственных сетей. Тем не менее, количество времени и информации, необходимой для достижения хороших результатов, откладывал принятие, затрагивающих интерес к искусственному интеллекту.

В начале 2000 годов, мощность вычислений расширилась и рынок испытал "бум" вычислительных технологий, которые не были возможны раньше. Именно тогда, когда глубокое обучение возникло из-за большого вычислительного роста того времени, как необходимый механизм для разработки систем искусственного интеллекта, выиграв несколько конкурсов машинного обучения. Интерес к глубокому обучению продолжает расти до сегодняшнего дня, и несколько коммерческих решений возникают во все времена.

С течением времени, несколько исследований были созданы для того, чтобы имитировать функционирование мозга, особенно в процессе обучения для создания интеллектуальных систем, которые могли бы воссоздать такие задачи, как классификация и распознавание образов, среди других видов деятельности. Выводы этих исследований породили модель искусственного нейрона, размещенный позже в взаимосвязанной сети, называемой нейронной сетью.

В 1943, Уоррен Маккалок, нейрофизиолог и Уолтер Питтс, математик, создал простую нейронную сеть, используя электрические схемы и разработал компьютерную модель для нейронных сетей на основе математических концепций и алгоритмов, называемых пороговых Логика или пороговая логика, которая позволяла исследовать нейронную сеть, разделенную на две нити: фокусируясь на биологическом процессе мозга, а другой фокусируясь на применении этих нейронных сетей, направленных на искусственный интеллект.

Дональд Хебб, в 1949, написал произведение, где он сообщил, что нейронные цепи усилены больше они используются, как сущность обучения. С развитием компьютеров в 1950 десятилетие, идея нейронной сети приобрел силу и Nathanial Рочестер из IBM в лабораториях исследования пытались составить один, но не удалось.

Летний исследовательский проект Дартмута по искусственному интеллекту, в 1956, увеличил нейронные сети, а также искусственный интеллект, поощряя исследования в этой области по отношению к нейронной обработке. В последующие годы Джон фон Нейман имитировал простые функции нейронов с вакуумными трубами или телеграфами, в то время как Фрэнк Розенблатт инициировал проект Перцептрон, анализируя функционирование глаза мухи. Результатом этого исследования стало оборудование, которое является старейшей нейронной сетью, используемой до настоящего времени. Однако Перцептрон очень ограничен, что доказали Марвин и Пейперт

Рисунок 1: Структура нейронной сети. Источник: Карвалью

Несколько лет спустя, в 1959 году, Бернард Уидроу и Марциан Хофф разработали две модели под названием «Адалин» и «Мадалин». Номенклатура вытекает из использования нескольких элементов: адаптивной линейной. Адалин был создан для идентификации бинарных шаблонов, чтобы сделать прогнозы о следующем битом, в то время как "Маделин" была первой нейронной сетью, приложенной к реальной проблеме, используя адаптивный фильтр. Система все еще используется, но только коммерческие.

Достигнутый ранее прогресс привел к убеждению, что потенциал нейронных сетей ограничен электроникой. Он был задан вопрос о воздействии, что "умные машины" будет иметь на человека и общества в целом.

Дебаты о том, как искусственный интеллект повлияет на человека, вызвали критику по поводу исследований в нейронных сетях, что привело к сокращению финансирования и, следовательно, исследования в области, которая оставалась до 1981.

В следующем году, несколько событий ререак интерес в этой области. Джон Хопфилд из Калифорнийского технологического института представил подход к созданию полезных устройств, демонстрируя свои назначения. В 1985 году американский институт физики начал ежегодное совещание под названием нейронные сети для вычислений. В 1986, средства массовой информации начали сообщать о нейронных сетях нескольких слоев, и три исследователя представили похожие идеи, называемые Backpropagation сетей, потому что они распространяют шаблоны идентификации сбоев по всей сети.

Гибридные сети имеют только два слоя, в то время как сети обратного распространения представляют многие, так что эта сеть сохраняет информацию медленнее, потому что им нужно тысячи итераций, чтобы узнать, но и представить больше результатов Точная. Уже в 1987 году была первая Международная конференция по нейросетям института электротехнического и электронного инженера (IEEE).

В 1989 году ученые создали алгоритмы, которые использовали глубокие нейронные сети, но время «обучения» было очень долгим, что помешало его применению к реальности. В 1992, Juyang Weng Diulga метод Кресскиртрон для выполнения распознавания 3D объектов из бурных сцен.

В середине 2000 лет термин «глубокое обучение» или «глубокое обучение» начинают распространяться после статьи Джеффри Хинтона и Руслана Салахатдинова, которые продемонстрировали, как многослойная нейронная сеть, может быть, предварительно обучалась, один слой в то время. В 2009, нейронные сети системы обработки семинар по глубокому обучению для распознавания голоса происходит, и это проверяется, что с обширной группой данных, нейронных сетей не нуждаются в предварительную подготовку и отказов падения ставки значительно.

В 2012 г. в некоторых задачах исследования обеспечили алгоритмы идентификации искусственных узоров с производительностью человека. И алгоритм Google идентифицирует кошек.

В 2015, Facebook использует глубокое обучение, чтобы автоматически пометить и распознать пользователей в фотографиях. Алгоритмы выполняют задачи распознавания лиц с помощью глубоких сетей. В 2017 году было крупномасштабное внедрение глубокого обучения в различных бизнес-приложениях и мобильных устройствах, а также прогресс в исследованиях.

Обязательство глубокого обучения заключается в том, чтобы продемонстрировать, что довольно обширный набор данных, быстрых процессоров и довольно сложный алгоритм позволяет компьютерам выполнять такие задачи, как распознавание образов и голоса, среди прочих Возможности. Исследование нейронных сетей приобрело известность благодаря перспективным атрибутам, представленным моделями нейронной сети, созданными благодаря недавним технологическим нововведениям, которые позволяют разрабатывать дерзкие нейронные структуры. Параллельно с оборудованием, достигая удовлетворительных характеристик этих систем, с превосходной производительностью к обычным системам, включая. Эволюция нейронных сетей - это глубокое обучение.

глубокий обучение компьютерный нейронный сеть

Deep learning

Изначально она должна различать искусственный интеллект, машинное обучение и глубокое обучение.

Рисунок 2: искусственный интеллект, машинное обучение и глубокое обучение

Источник: разработанный автором, базирующийся в Сантане, 2018

Область изучения искусственного интеллекта является исследованием и дизайном интеллектуальных источников, то есть системы, которая может принимать решения, основанные на характерной, считающийся умной. В искусственном интеллекте есть несколько методов, которые моделирует эту характеристику и среди них является сфера машинного обучения, где решения сделаны (интеллект) на основе примеров, а не определяется программирования.

Алгоритмы машинного обучения требуют информации для удаления функций и элементов, которые могут быть использованы для принятия будущих решений. Глубокое обучение является подгруппой методов машинного обучения, которые обычно используют глубокие нейронные сети и нуждаются в большом количестве информации для обучения.

По словам Сантаны есть некоторые различия между методами машинного обучения и методы глубокого обучения, и основными из них являются необходимость и влияние объема данных, вычислительной мощности и гибкости в моделировании проблем.

Рисунок 3: сравнение глубокого обучения с другими алгоритмами относительно объема данных. Источник: разработанный автором, базирующийся в Сантане, 2018

Машинное обучение нуждается в данных для идентификации закономерностей, но есть два вопроса, относящихся к размерности и стагнации производительности путем внедрения большего количества данных за пределы себя. Подтверждено, что при этом происходит снижение значительной производительности. По отношению к размерности то же самое происходит, как есть много информации, чтобы обнаружить, через классические методы измерения проблемы.

Классические методы также представляют точку насыщения по отношению к количеству данных, то есть максимальный предел для извлечения информации, которая не происходит с глубоким обучением, созданный для работы с большим объемом данных.

По отношению к вычислительной мощности для глубокого обучения, ее структуры являются сложными и требуют большого объема данных для ее подготовки, которая демонстрирует свою зависимость от больших вычислительных мощности для реализации этих практик. В то время как другие классические практики нужно много вычислительной мощности в качестве процессора, глубокие методы обучения превосходят.

Поиск, связанный с параллельными вычислениями и использованием графических процессоров с CUDA-вычислительными унифицированными устройством архитектуры или унифицированными вычислениями устройства инициировали глубокое обучение, как это было неосуществимо с использованием простого процессора.

В сравнении с обучением глубокой нейронной сети или глубоким обучением с использованием ЦП получается, что добиться удовлетворительных результатов даже при длительном обучении было бы невозможно.

Глубокое обучение, также известное как глубокое обучение, является частью машинного обучения, и оно применяет алгоритмы для обработки данных и воспроизведения обработки, осуществляемой человеческим мозгом.

Глубокое обучение использует слои математических нейронов для обработки данных, идентификации речи и распознавания объектов. Данные передаются через каждый слой, при этом выход из предыдущего слоя предоставляет ввод следующему слою. Первый слой в сети называется входным слоем, а последний-выходной. Промежуточные слои называются скрытыми слоями, и каждый слой сети формируется простым и равномерным алгоритмом, который включает в себя вид функции активации.

Рисунок 4: Простая нейронная сеть и глубокая нейронная сеть или глубокое обучение. Источник: аналитическая культура

Самые крайние слои желтого цвета являются входными или выходными слоями, а промежуточные или скрытые слои находятся в красном. Глубокое обучение отвечает за последние достижения в области вычислительной техники, распознавания речи, обработки языка и слуховой идентификации, основанные на определении искусственных нейронных сетей или вычислительных систем, которые воспроизводят Путь человеческого мозга действует.

Еще одним аспектом глубокого обучения является извлечение ресурсов, которое использует алгоритм для автоматического создания соответствующих параметров информации для обучения, обучения и понимания, задача инженера искусственного интеллекта.

Глубокое обучение - это эволюция нейронных сетей. Интерес к глубокому обучению постепенно растет в средствах массовой информации и несколько исследований в области были распространены и его применение достигло автомобилей, в диагностике рака и аутизма, среди других приложений

Первые алгоритмы глубокого обучения с несколькими слоями нелинейных заданий представляют свои истоки в Алексее Григорьевиче Ивахненко, который разработал метод групповой манипуляции данными и Валентин Григорьевич Лапа, автор работы Кибернетика и методы прогнозирования в 1965 году.

Оба использовали тонкие и глубокие модели с функциями полиномиальной активации, которые исследовались с использованием статистических методов. С помощью этих методов они отбирали в каждом слое лучшие ресурсы и передавались на следующий слой, без использования обратного распространения, чтобы "обучить" полную сеть, но использовали минимальные квадраты на каждом слое, где предыдущие были установлены в более поздних слоях, вручную.

Рисунок 5: строение первой глубокой сети, известной как Алексей Григоревич Ивахненко. Источник: Dettmers, 2015

В конце десятилетия 1970 зимы искусственного интеллекта произошло, резкое сокращение финансирования исследований по этому вопросу. Воздействие ограничило прогресс в глубоких нейронных сетях и искусственном интеллекте.

Первые конволюционных нейронные сети были использованы Кунихико Фукусима, с несколькими слоями группировки и извилин, в 1979. Он создал искусственную нейронную сеть под названием Неокогнитрон с иерархической и многослойной планировкой, которая позволила компьютеру идентифицировать визуальные паттерны. Сети были аналогичны современным версиям, при этом «тренировка» была сосредоточена на стратегии усиления периодической активации в бесчисленных слоях. Кроме того, конструкция Фукусима сделал возможным для наиболее релевантных ресурсов, которые будут адаптированы вручную за счет повышения значимости некоторых соединений.

Многие руководящие принципы Неокогнитрон все еще используются, так как "сверху вниз" и новые методы обучения способствовали реализации различных нейронных сетей. Когда несколько шаблонов представлены в то же время, модель выборочного ухода может отделить их и идентифицировать отдельные шаблоны, обращая внимание на каждый из них. Более современные Неокогнитрон можно определить шаблоны с отсутствием данных и завершить изображение, вставив недостающее информацию, которая называется вывод.

Обратное распространение используется для глубокого обучения провал обучение прогрессировала от 1970 года, когда Сепо Linnainmaa написал тезис, вставив код Фортрана для обратного распространения, без успеха до 1985. Румельхарт, Уильямс и Хинтон затем продемонстрировали обратное распространение в нейронной сети с представлениями распределения.

Это открытие позволило дебаты по AI достичь когнитивной психологии, которая инициировала вопросы о человеческом понимании и его связь с символической логики, а также соединений. В 1989, Янн Летун выполнил практическую демонстрацию обратного распространения, с сочетанием конволюционных нейронных сетей для идентификации письменных цифр.

В этот период вновь возникла нехватка средств на исследования в этой области, известная как вторая зима IA, которая произошла между 1985 и 1990, также затрагивающих исследования в нейронных сетях и глубокого обучения. Ожидания, представленные некоторыми исследователями, не достигли ожидаемого уровня, который глубоко раздражал инвесторов.

В 1995 году дана Кортес и Владимир Вадник создали поддержку векторной машины или поддерживающей векторной машины, которая была системой картирования и идентификации подобной информации. Длинная Краткосрочная память-LSTM для периодических нейронных сетей была разработана в 1997 году, Зепп Хохрайтер и Юрген Шмидхубер.

Следующий шаг в эволюции глубокого обучения произошел в 1999, когда обработка данных и обработка графических процессоров (GPU) стали быстрее. Использование графических процессоров и ее быстрая обработка представляли собой увеличение скорости работы компьютеров. Нейронные сети конкурировали с векторными машинами. Нейронная сеть была медленнее, чем поддержка векторной машины, но они получили лучшие результаты и продолжали развиваться по мере добавления дополнительной учебной информации.

В 2000 году была выявлена проблема под названием исчезающий градиент. Задания, извлеченные в нижних слоях, не передавались в верхние слои, однако, это произошло только в тех, с градиентом основе методов обучения. Источник проблемы был в некоторых функциях активации, которые уменьшили его ввод, влияющим на диапазон выходных данных, генерируя большие области ввода, сопоставленные в очень малом диапазоне, вызывая падающий градиент. Решения проблемы, были слой за слоем перед тренировкой и развитие долгосрочной и кратковременной памяти.

В 2009 году фей-Фэй ли выпустила на свободу изображения с более чем 14 000 000 изображениями, сфокусирована на «обучении» нейронных сетей, указывая на то, как большие данные повлияют на работу машинного обучения.

Скорость работы графических процессоров, вплоть до 2011 года, продолжала увеличиваться, позволяя составу конволюционных нейронных сетей без необходимости предварительного тренировки слоя за слоем. Таким образом, стало печально, что глубинное обучение выгодно и с точки зрения эффективности и скорости.

В настоящее время обработка больших данных и прогрессирование искусственного интеллекта зависят от глубокого обучения, которые могут разрабатывать Интеллектуальные системы и способствовать созданию полностью автономного искусственного интеллекта, который создаст влияние на Все общество.

Гибкие нейронные сети и их приложения

Несмотря на существование нескольких классических техник, структуры глубокого обучения и ее основной единицы, нейрон является общим и очень гибким. Сделав сравнение с нейронами человека, который обеспечивает синапсы мы можем определить некоторые корреляции между ними.

Рисунок 6: корреляция между нейрона человека и искусственной нейронной сетью. Источник: Сантана, 2018

Отмечается, что нейрона формируется дендриты, которые являются точками входа, ядро, которое представляет в искусственных нейронных сетях обработки ядра и точка выхода, что представлено аксон. В обеих системах информация поступает, обрабатывается и изменяется.

Рассматривая его как математическое уравнение, нейрон отражает сумму входных данных, умноженную на вес, и это значение проходит через функцию активации. Эта сумма была выполнена Маккалок и Питтса в 1943 г.

В связи с пресловутый интерес к глубокому обучению в настоящее время, Сантана считает, что это связано с двумя факторами, которые являются объем имеющейся информации и ограничение старых методов, кроме текущей вычислительной мощности для подготовки сетей Комплекс. Гибкость соединения нескольких нейронов в более сложной сети является дифференциалом глубоких учебных структур. Конволюционная нейронная сеть широко используется для распознавания лиц, обнаружения изображений и извлечения назначения.

Обычная нейронная сеть состоит из нескольких слоёв, называемых слоями. В зависимости от вопроса, который должен быть решен количество слоев может варьироваться, будучи в состоянии иметь до сотни слоев, являясь факторами, которые влияют на количество сложность проблемы, времени и вычислительной мощности

Есть несколько различных структур с бесчисленными целями, и их функционирование также зависит от структуры, и все они основаны на нейронных сетях.

Рисунок 7: Примеры нейронных сетей. Источник: Королев

Эта архитектурная гибкость позволяет глубже научиться решать различные вопросы. Глубокое обучение является общей объективной техникой, но самые передовые области были: компьютерное зрение, распознавание речи, обработка естественного языка, системы рекомендаций.

Вычислительное зрение включает распознавание объектов, семантическую сегментирование, особенно автономные автомобили. Можно утверждать, что вычислительное зрение является частью искусственного интеллекта и определяется как набор знаний, который направлен на искусственное моделирование человеческого видения с целью имитации его функций, посредством разработки программного и аппаратного обеспечения Дополнительные.

Среди применений вычислительного видения - военное использование, рынок сбыта, безопасность, общественные услуги и производственный процесс. Автономные транспортные средства представляют собой будущее безопасного движения, но он все еще находится в стадии тестирования, так как он включает в себя несколько технологий, применяемых к функции. Вычислительное зрение в этих автомобилях, так как позволяет распознавание пути и препятствий, улучшая маршруты.

В контексте безопасности все чаще выделяются системы распознавания лиц, учитывая уровень безопасности в общественных и частных местах, также внедрил в мобильных устройствах. Аналогичным образом они могут служить ключом к доступу к финансовым операциям, в то время как в социальных сетях, он обнаруживает присутствие пользователя или его друзей в фотографиях.

В отношении рынка сбыта, исследования, разработанного Image разведки указал, что 3 000 000 000 изображения распределяются ежедневно социальных сетей и 80% содержат указания, которые относятся к конкретным компаниям, но без текстовых ссылок. Специализированные маркетинговые компании предлагают услуги мониторинга и управления в режиме реального времени. С технологией компьютерного зрения точность идентификации изображений достигает 99%.

В государственных услугах его использование покрывает безопасность сайта, отслеживая камеры, трафик транспортного средства через стереоскопические изображения, которые делают систему видения эффективной.

В производственном процессе компании из разных отраслей используют вычислительное зрение в качестве инструмента контроля качества. В любой отрасли, самое современное программное обеспечение, связанное с постоянно растущей вычислительной мощностью оборудования, увеличивает использование вычислительных возможностей.

Системы мониторинга позволяют признать заранее установленные стандарты и указывать на сбои, которые не могут быть идентифицированы при взгляде на работника на производственной линии. В этом же контексте, применительно к контролю складских запасов, используется проект автоматизации замещения. Инвентаризация и контроль продаж в режиме реального времени позволяют технологии контролировать деятельность данной компании, увеличивая тем самым свою прибыль. Есть и другие приложения в области медицины, образования и электронной коммерции.

Выводы

Настоящее исследование изыскивали уточнить что глубокое учить и указать вне свои применения в настоящем мире. Методы глубокого обучения продолжают прогрессировать, в частности, с использованием нескольких слоев. Тем не менее, есть еще ограничения в использовании глубоких нейронных сетей, учитывая, что они являются лишь одним из способов узнать несколько изменений, которые будут реализованы в входном векторе. Изменения, предоставляемые целым рядом параметров, которые обновляются в период обучения.

Нельзя отрицать, что искусственный интеллект является более близкой реальностью, но ей не хватает долгий путь. Принятие глубокого обучения в различных областях знаний позволяет обществу, в целом, извлекать пользу из чудес современных технологий.

Что касается искусственного интеллекта, то проверяется, что эта технология, способная к обучению, хотя очень важна линейная и нелинная природа человека, которая представляет собой большой дифференциал и имеет важное значение для некоторых областей знаний, Это пока не может быть реализовано в глубоком обучении.

В любом случае, использование глубоких методов обучения позволит машинам для оказания помощи обществу в различных мероприятиях, как показано, расширение когнитивных способностей человека и еще большее развитие в этих областях знаний.

Библиографические ссылки

1. Aliger. Saiba o que й visгo computacional e como ela pode ser usada. 2018.

2. Bittencourt, guilherme. Breve histуria da inteligкncia artificial. 2001

3. Carvalho, andrй ponce de l. Redes neurais artificiais.

4. Chung, j; gulcehe, c; cho, k; bengio, y. Gated feedback recurrent neural networks. In proceedings of the 32nd international conference on international conference on machine learning, volume 37 of icml, pages 2067-2075. 2015

5. Cultura analitica. Entenda o que й deep learning e como funciona.

6. Deng, jia et al. Imagenet: um banco de dados de imagens hierбrquicas em grande escala. In: 2009 conferкncia ieee sobre visгo computacional e reconhecimento de padrхes. Ieee,. P. 248-255. 2009

7. Dettmers, tim. Aprendizagem profunda em poucas palavras: historia e treinamento.

8. Fukushima, kunihiko. Neocognitron: um modelo de rede neural auto-organizada para um mecanismo de reconhecimento de padrхes nгo afetado pela mudanзa de posiзгo. Cibernйtica biolуgica , v. 36, n. 4, p. 193-202, 1980.

9. Gartner. Gartner diz que a ai technologies estarб em quase todos os novos produtos de software atй 2020.

10. Goodfellow, i; bengioo, y; courville, a. Deep learning. Mit press.

11. Graves, a. Sequence transduction with recurrent neural networks. Arxiv preprint arxiv:1211.3711, 2012.

12. Hochreiter, sepp. O problema do gradiente de fuga durante a aprendizagem de redes neurais recorrentes e soluзхes de problemas. Revista internacional de incerteza, fuzziness and knowledge-based systems , v. 6, n. 02, p. 107-116, 1998.

13. Hebb, donald o. The organization of behavior; a neuropsycholocigal theory. A wiley book in clinical psychology., p. 62-78, 1949.

14. Hinton, geoffrey e; salakhutdinov, ruslan r. Reduzindo a dimensionalidade dos dados com redes neurais. Ciкncia, v. 313, n. 5786, p. 504-507, 2006.

15. Hochreiter, sepp; schmidhuber, jьrgen. Longa memуria de curto prazo. Computaзгo neural, v. 9, n. 8, p. 1735-1780, 1997.

16. Introduction to artificial neural networks, proceedings electronic technology directions to the year 2000, adelaide, sa, australia, 1995, pp. 36-62.

17. Korolev, dmitrii. Set of different neural nets. Neuron network. Deep learning. Cognitive technology concept. Vector illustration disponнvel em

18. Liu, c.; cao, y; luo y; chen, g; vokkarane, v, ma, y; chen, s; hou, p. A new deep learning-based food recognition system for dietary assessment on an edge computing service infrastructure. Ieee transactions on services computing, pp(99):1-13. 2017

19. Lorena, ana carolina; de carvalho, andrй cplf. Uma introduзгo аs support vector machines. Revista de informбtica teуrica e aplicada, v. 14, n. 2, p. 43-67, 2007.

20. Marvin, minsky; seymour, papert. Perceptrons. 1969.

21. Mcculloch, warren s; pitts, walter. Um cбlculo lуgico das idйias imanentes na atividade nervosa. O boletim de biofнsica matemбtica, v. 5, n. 4, p. 115-133, 1943.

22. Nielsen, michael. How the backpropagation algorithm works. 2018.

23. Pang, y; sun, m; jiang, x; li, x.. Convolution in convolution for network in network. Ieee transactions on neural networks and learning systems, pp(99):1-11. 2017

24. Santana, marlesson. Deep learning: do conceito аs aplicaзхes. 2018.

25. Udacity. Conheзa 8 aplicaзхes de deep learning no mercado.

26. Yang, s; luo, p; loy, c.c; tang, x. From facial parts responses to face detection: a deep learning approach. In proceedings of 2015 ieee international conference on computer vision (iccv), pages 3676-3684. 2015

27. Liu, c., cao, y., luo, y., chen, g., vokkarane, v., ma, y., chen, s., and hou, p. (2017). A new deep learning-based food recognition system for dietary assessment on an edge computing service infrastructure. Ieee transactions on services computing, pp(99):1-13.

28. Yang, s., luo; p., loy, c.-c; tang, x. From facial parts responses to face detection: a deep learning approach. In proceedings of 2015 ieee international conference on computer vision (iccv), p. 3676

29. Chung, j; gulcehre, c; cho, k; bengio, y. Gated feedback recurrent neural networks. In proceedings of the 32-nd international conference on international conference on machine learning, volume 37 of icml, p. 2069

30. Pang, y; sun, m., jiang, x., and li, x. (2017). Convolution in convolution for network in network. Ieee transactions on neural networks and learning systems, pp(99):5. 2017

31. Goodfellow, i., bengio, y., and courville, a. Deep learning. Mit press.

32. Graves, a. Sequence transduction with recurrent neural networks. Arxiv preprint arxiv:1211.3711, 2012.

33. Gartner. Gartner diz que a ai technologies estarб em quase todos os novos produtos de software atй 2020.

34. Mcculloch, warren s; pitts, walter. Um cбlculo lуgico das idйias imanentes na atividade nervosa. O boletim de biofнsica matemбtica , v. 5, n. 4, p. 115-133, 1943.

35. Hebb, donald o. The organization of behavior; a neuropsycholocigal theory. A wiley book in clinical psychology., p. 62-78, 1949.

36. Bittencourt, guilherme. Breve histуria da inteligкncia artificial. 2001.p. 24

37. Marvin, minsky; seymour, papert. Perceptrons. 1969.

38. Introduction to artificial neural networks," proceedings electronic technology directions to the year 2000, adelaide, sa, australia, 1995, pp. 36-62.

39. Nielsen, michael. How the backpropagation algorithm works. 2018.

40. Hinton, geoffrey e; salakhutdinov, ruslan r. Reduzindo a dimensionalidade dos dados com redes neurais. Ciкncia, v. 313, n. 5786, p. 504-507, 2006.

41. Santana, marlesson. Deep learning: do conceito аs aplicaзхes. 2018.

42. Santana, marlesson. Deep learning: do conceito аs aplicaзхes. 2018.

43. Udacity. Conheзa 8 aplicaзхes de deep learning no mercado.

44. Dettmers, tim. Aprendizagem profunda em poucas palavras: historia e treinamento.

45. Fukushima, kunihiko. Neocognitron: um modelo de rede neural auto-organizada para um mecanismo de reconhecimento de padrхes nгo afetado pela mudanзa de posiзгo. Cibernйtica biolуgica , v. 36, n. 4, p. 193-202, 1980.

46. Lorena, ana carolina; de carvalho, andrй cplf. Uma introduзгo аs support vector machines. Revista de informбtica teуrica e aplicada, v. 14, n. 2, p. 43-67, 2007.

47. Hochreiter, sepp; schmidhuber, jьrgen. Longa memуria de curto prazo. Computaзгo neural, v. 9, n. 8, p. 1735-1780, 1997.

48. Hochreiter, sepp. O problema do gradiente de fuga durante a aprendizagem de redes neurais recorrentes e soluзхes de problemas. Revista internacional de incerteza, fuzziness and knowledge-based systems , v. 6, n. 02, p. 107-116, 1998.

49. Deng, jia et al. Imagenet: um banco de dados de imagens hierбrquicas em grande escala. In: 2009 conferкncia ieee sobre visгo computacional e reconhecimento de padrхes . Ieee, 2009. P. 248-255.

50. Mcculloch, warren s.; pitts, walter. Um cбlculo lуgico das idйias imanentes na atividade nervosa. O boletim de biofнsica matemбtica , v. 5, n. 4, p. 115-133, 1943.

51. Santana, marlesson. Deep learning: do conceito аs aplicaзхes. 2018.f

52. Aliger. Saiba o que й visгo computacional e como ela pode ser usada. 2018

Размещено на allbest.ru

...

Подобные документы

  • Виды машинного обучения, его основные задачи и методы. Подходы к классификации: логистическая регрессия, наивный байесовский классификатор, стохастический градиентный спуск, K-ближайший сосед, дерево решений, случайный лес, метод опорных векторов.

    курсовая работа [436,9 K], добавлен 14.12.2022

  • Характеристика моделей обучения. Общие сведения о нейроне. Искусственные нейронные сети, персептрон. Проблема XOR и пути ее решения. Нейронные сети обратного распространения. Подготовка входных и выходных данных. Нейронные сети Хопфилда и Хэмминга.

    контрольная работа [1,4 M], добавлен 28.01.2011

  • Описание структурной схемы искусственного нейрона. Характеристика искусственной нейронной сети как математической модели и устройств параллельных вычислений на основе микропроцессоров. Применение нейронной сети для распознавания образов и сжатия данных.

    презентация [387,5 K], добавлен 11.12.2015

  • Разработка нейронной сети, ее применение в алгоритме выбора оружия ботом в трехмерном шутере от первого лица, тестирование алгоритма и выявление достоинств и недостатков данного подхода. Обучение с подкреплением. Описание проекта в Unreal Engine 4.

    контрольная работа [611,0 K], добавлен 30.11.2016

  • Рождение искусственного интеллекта. История развития нейронных сетей, эволюционного программирования, нечеткой логики. Генетические алгоритмы, их применение. Искусственный интеллект, нейронные сети, эволюционное программирование и нечеткая логика сейчас.

    реферат [78,9 K], добавлен 22.01.2015

  • Механизм работы нервной системы и мозга человека. Схема биологического нейрона и его математическая модель. Принцип работы искусственной нейронной сети, этапы ее построения и обучения. Применение нейронных сетей в интеллектуальных системах управления.

    презентация [98,6 K], добавлен 16.10.2013

  • Искусственные нейронные сети, строящиеся по принципам организации и функционирования их биологических аналогов. Элементарный преобразователь в сетях. Экспериментальный автопилотируемый гиперзвуковой самолет-разведчик LoFLYTE, использующий нейронные сети.

    презентация [1,3 M], добавлен 23.09.2015

  • Основы нейрокомпьютерных систем. Искусственные нейронные сети, их применение в системах управления. Алгоритм обратного распространения. Нейронные сети Хопфилда, Хэмминга. Современные направления развития нейрокомпьютерных технологий в России и за рубежом.

    дипломная работа [962,4 K], добавлен 23.06.2012

  • Принципы организации и функционирования биологических нейронных сетей. Система соединенных и взаимодействующих между собой простых процессоров. Нейронные сети Маккалока и Питтса. Оценка качества кластеризации. Обучение многослойного персептрона.

    курсовая работа [1,1 M], добавлен 06.12.2010

  • Столовые и места быстрого питания как важный субъект рыночной инфраструктуры. Применение баз данных при обработке информации. Описание предметной области. Применение структурного подхода к проектированию информационной системы, ее архитектура и интерфейс.

    курсовая работа [2,2 M], добавлен 02.06.2015

  • Математическая модель нейронной сети. Однослойный и многослойный персептрон, рекуррентные сети. Обучение нейронных сетей с учителем и без него. Алгоритм обратного распространения ошибки. Подготовка данных, схема системы сети с динамическим объектом.

    дипломная работа [2,6 M], добавлен 23.09.2013

  • Программная реализация приложения для вычисления заданных функций. Процедура поиска минимума функции. Применение методов Хука-Дживса и градиентного спуска для решения задачи. Исследование функции в окрестности базисной точки, определение ее координат.

    контрольная работа [767,1 K], добавлен 02.02.2014

  • Базовые архитектуры компьютеров: последовательная обработка символов по заданной программе и параллельное распознавание образов по обучающим примерам. Искусственные нейронные сети. Прототип для создания нейрона. Поведение искусственной нейронной сети.

    контрольная работа [229,5 K], добавлен 28.05.2010

  • Агентно-ориентированный подход к исследованию искусственного интеллекта. Моделирование рассуждений, обработка естественного языка, машинное обучение, робототехника, распознание речи. Современный искусственный интеллект. Проведение теста Тьюринга.

    контрольная работа [123,6 K], добавлен 10.03.2015

  • Сущность и экономическое обоснование, методы и подходы к прогнозированию валютного курса. Описание технологии интеллектуальных вычислений. Применение генетических алгоритмов для настройки архитектуры нейронных сетей. Основные способы улучшения модели.

    курсовая работа [1,3 M], добавлен 26.03.2016

  • Возможности программ моделирования нейронных сетей. Виды нейросетей: персептроны, сети Кохонена, сети радиальных базисных функций. Генетический алгоритм, его применение для оптимизации нейросетей. Система моделирования нейронных сетей Trajan 2.0.

    дипломная работа [2,3 M], добавлен 13.10.2015

  • Применение современных компьютерных технологий в процессе обучения иностранным языкам. Использование Интернет-ресурсов, скайпа, социальных сетей в обучении и интернет-сайта для поиска дополнительно новой информации. Общение онлайн с носителями языка.

    статья [15,8 K], добавлен 23.06.2015

  • Понятия интеллектуальной информационной системы. Нейронные сети и информационные программные средства для реализации их алгоритмов. Моделирование систем в среде MATLAB. Особенности выполнения демонстрационного примера "Обучение персептрона с Learnpn".

    курсовая работа [572,8 K], добавлен 20.02.2013

  • История развития вычислительных сетей. Понятия рабочих групп и доменов. Подключение к Интернет через прокси-сервер локальной сети. Возможности администрирования операционных систем Windows. Организация локальной вычислительной сети в компьютерном классе.

    курсовая работа [1,3 M], добавлен 23.05.2013

  • Анализ существующих программных решений для обучения студентов и контроля их знаний. Обзор лингвопроцессорных средств и обоснование их выбора. Алгоритмы решения и проверки упражнений на именную часть русского языка. Применение правил преобразования.

    курсовая работа [97,0 K], добавлен 29.01.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.