Моделирование субмикронных МОП-транзисторов с использованием нейронных сетей

Электротехническое моделирование и его основание на точных математических моделях элементов электрической схемы. Доказательство алгоритмического подхода для решения задачи, основанный на обучении нейронной сети. Обеспечение аппроксимации функции.

Рубрика Коммуникации, связь, цифровые приборы и радиоэлектроника
Вид дипломная работа
Язык русский
Дата добавления 01.12.2019
Размер файла 1,5 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Аннотация

Электротехническое моделирование в основном основано на точных математических моделях элементов электрической схемы. Каждый МОП-транзистор имеет набор основных параметров, на которых строятся его математические модели. В числе его основных параметров длина и ширина его проводящего канала; они влияют на основные характеристики транзистора.

При моделировании электрической схемы существует обратная задача: поиск ширины и длины проводящего канала неизвестного транзистора для получения его математической модели. Данные параметры подбираются перебором до сходимости его измеряемых характеристик с характеристиками, рассчитанными какой-либо программой моделирования. Одним из решений, которое позволяет получить ширину и длину проводящего канала транзистора является обучение компьютерной модели, основанной на нейронной сети.

Цель данного исследования - доказать, что обучением нейронной сети можно аппроксимировать функцию, которая в соответствии с измеряемыми характеристикам МОП-транзистора устанавливает ширину и длину его проводящего канала. моделирование нейронный сеть

В результате обучения и проведения статистического анализа результатов было доказано, что алгоритмический подход для решения данной задачи, основанный на обучении нейронной сети, обеспечивает необходимую аппроксимацию функции.

Electrical simulation is mainly based on accurate mathematical models of the electrical circuit's elements. Each MOS transistor contains a set of basic parameters forming its mathematical models. Among the main parameters there are length and width of its conductive channel, which affect the basic characteristics of the transistor.

There is an inverse task in the electrical circuit's modeling, that is namely to find the width and the length of the conductive channel to obtain a mathematical model of an unknown transistor. These measurements are selected by enumeration taking place onto the convergence between its measured characteristics and these ones which are calculated by any modeling program. One of the solutions to obtain the width and length of the transistor's conducting channel is to train a computer model based on a neural network.

The purpose of this study is to valid the approximation of a function setting the width and length of the transistor's conducting channel in accordance with its measurements by means of training of neural network.

As a result of the training and the final statistical analysis, it was proved that the algorithmic task approach, based on the neural network training, provides the necessary funсtion approximation.

Введение

Актуальность работы

Транзистор - полупроводниковый прибор, который в наше время используется во всеми известной цифровой и аналоговой аппаратуре. Задача определения его параметров - основная задача, которую необходимо решить

перед тем, как приступать к моделированию электрических схем. Математические модели, используемые программами схемотехнического моделирования, используют большой набор параметров транзистора.

Одними из основных параметров полупроводникового МОП-транзистора являются ширина и длина его проводящего канала; они определяют его основные характеристики и ограничиваются технологией производства. Существует обратная задача - определение геометрических параметров проводящего канала транзистора по его характеристикам. Данная задача может возникнуть тогда, когда необходимо строить электрическую схему, исходя из имеющегося неизвестного транзистора. В данном случае для работы программы моделирования, кроме параметров, которые можно определить опытным путем, в математическую модель транзистора необходимо заложить ширину и длину его канала. Одним из возможных решений здесь является перебор геометрических параметров при помощи spice-подобных программ моделирования. Подбор происходит так, чтобы характеристики модели были близки к характеристикам, полученным опытным путем.

Целью исследования является определение возможности использования алгоритмов, обучаемых на реальных данных, для определения геометрических параметров канала транзистора. В дальнейшем данная работа может послужить первым шагом к написанию на ее основе вспомогательного программного обеспечения.

Теоретическое введение

МОП-транзистор

МОП-транзистор представляет собой полупроводниковый прибор, в основе производства которого лежат МОП-структуры (прим. - металл-окисел-полупроводник).

Тип канала в структуре МОП-транзистора определяет свойства p-n перехода: различают собственный и индуцируемый канал (канал n-типа). Наличие собственного канала в ситуации низкого потенциала на затворе сигнализирует о том, что транзистор открыт; для закрытия канала необходимо приложить к затвору определенное напряжение. Напротив, транзистор с индуцируемым каналом при низком потенциале на затворе закрыт. Для образования канала проводимости также необходимо приложить напряжение определенной полярности на затвор Москатов Е.А. Электронная техника. Начало. Таганрог, 2010. С. 85. . МОП-структуры таких транзисторов изображены на рис. 1.

а)

б)

Рис. 1. МОП-структуры транзисторов: а) с индуцируемым каналом, б) с встроенным каналом.

С помощью метода легирования можно изменять тип проводимости канала, добиваясь n- или p-электропроводности, ввиду изменения концентрации носителей заряда. Величина напряжения, которое подаётся к затвору транзистора, изменяет режим его работы. Если на затвор транзистора подаётся напряжение, возрастает протекание тока через канал, в пользу неосновных вытесняются основные носители заряда, и наступает режим обогащения. Так работают транзисторы с индуцируемым каналом, и в этом случае увеличивается его проводимость. Транзисторы со встроенным каналом могут также работать в режиме обеднения, наступающего при подаче напряжения противоположного полюса, в результате чего проводимость снижается Там же(1), С. 84..

Для n- и p-канальных транзисторов отпирающим напряжением, приложенным к затвору, является напряжение противоположного знака относительно истока. Здесь отметим, что n-канальный транзистор отпирает положительное напряжение, а p-канальный транзистор - отрицательное напряжение. Важно, чтобы его величина превышала пороговое напряжение Vth МОП-структуры Там же(1), С. 93..

В работе будет рассматриваться n-МОП транзистор с индуцируемым каналом. Упрощенная структура n-МОП транзистора с индуцируемым каналом изображена на рис. 2.

Рис. 2. Структура n-МОП транзистора. 1-диэлектрик, 2-металл, 3-окисел SIO2, 4-контактные площадки, 5-лигированная область стока, 6-подложка, 7-лигированная область истока

В нормальных условиях основным носителем заряда р-области являются положительно заряженные вакантные области или "дырки", в то время как отрицательно заряженные электроны являются основными носителями заряда n-области Ермуратский П.В., Лычкина Г.П., Минкин Ю.Б., Электротехника и электроника. М.: ДМК пресс, 2011..

В спокойном состоянии, то есть в состоянии, когда на затворе транзистора нулевой потенциал (рис. 3), транзистор закрыт, канал между истоком и стоком транзистора отсутствует.

Рис. 3. Состояние носителей в n-МОП структуре при отсутствии напряжения на затворе

При увеличении потенциала на затворе в металл стекаются положительно заряженные частицы, создавая в области металл-окисел электростатическую напряженность. Вследствие этого в полупроводнике оттесняются положительно заряженные носители (рис. 3). Таким образом в n-МОП транзисторе индуцируется канал проводимости n-типа Там же(1), C..

Рис. 4. Состояние носителей в n-МОП структуре при подаче напряжения на затвор

Разность потенциалов, приложенная между истоком и стоком, приводит к ситуации, когда по каналу протекает ток в виде потока носителей n-типа - электронов (Рис. 4).

Рис. 5. Протекание тока через n-МОП транзистор

Назовём два важных параметра МОП-транзистора: пороговое напряжение Vth на затворе, при котором в транзисторе образуется канал проводимости, и паразитный ток утечки I0, протекающий через закрытый МОП-транзистор.

Машинное обучение

Машинным обучением (прим. - с англ. machine learning, ML) именуется совокупность методов искусственного интеллекта находить алгоритмы для решения конкретных задач и создавать статистические модели; поиск реализуется в ходе работы с аналоговыми задачами. Таким образом, вместо программирования для единственного задания создаются уникальные инструкции. В рамках данной дисциплины применяются различные математические подходы: статистика, численные методы, методы оптимизации, теория вероятности, теория графов, техники работы с данными в цифровой форме Матвеев А.С., Гелиг А.Х. Введение в математическую теорию обучаемых распознающих систем и нейронных сетей. Учебное пособие. СПб: ДМК пресс, 2014..

Машинное обучение имеет две разновидности: индуктивное и дедуктивное. Первое подразумевает детекцию закономерностей при анализе прецедентов. Второе основано на анализе экспертных заключений и последующем формировании базы данных на их основе. Итак, дедуктивное обучение принадлежит, скорее, области экспертных систем, в то время как понятия машинного и индуктивного обучения, как принято считать, синонимичны Там же(6), С. .

Термин машинного обучения в используемой нами форме был впервые упомянут в процессе развития статистических методов в 1950-х годах, сепарируясь лишь к началу второго миллениумаMarr B. A Short History of Machine Learning - Every Manager Should Read // Forbes. 19 февраля. 2016. URL: https://www.forbes.com/sites/bernardmarr/2016/02/19/a-short-history-of-machine-learning-every-manager-should-read/#2a1a75f9323f (Дата обращения: 15.04.2019). . Кроме того, многие его методы изначально считались альтернативным подходом внутри классической статистики. Также машинное обучение имеет тесное отношение с такими областями, как: интеллектуальный анализ данных (прим. - англ. data mining), извлечение информации (прим. - information extraction), а также, разумеется, оптимизация и статистика Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning, Massachusetts: Massachusetts Institute of Technology, 2018. С.1..

Среди классических задач машинного обучения выделим классификацию, кластеризацию, регрессию, понижение размерности данных, восстановление плотности распределения вероятности по набору данных, одноклассовую классификацию и выявление новизны, а также построение ранговых зависимостей.

Общая постановка задачи обучения

В начале исследования мы имеем дело с совокупностью ситуаций (объектов) и откликов, вызванных ими, между которыми существует некая неопределенная на текущий момент зависимость. Обучающей выборкой назовём конкретное множество пар "ситуация, отклик", или прецедентов, на основе которых будет строиться обучение. Алгоритм, полученный в результате, должен предоставить релевантный ответ для любой входной ситуации.

Подчеркнём, что зависимость может выражаться в разных формах, и по этой причине крайне полезными оказываются нейросети, реализующие эмпирическое обучение. Теоретические нормы для последнего обеспечивает обобщение, на котором строится вообще создание набора гипотез. Особенно в условиях ограниченной выборки прецедентов обобщение позволяет Построение набора гипотез фундаментально строится на обобщении, которое может предложить теоретические нормы для обучения, а также преодолеть проблему лимитированного числа прецедентов Там же(9), С. 7.. Точность прогнозирования откликов едва достижима, поскольку неизбежно возникновение ошибок оценки и аппроксимации; однако, её можно ранжировать с помощью так называемого функционала качества, показывающего благоприятный компромисс, или лучшую гипотезу. Другими словами, он проверяет эффективность обучающей модели.

Способы машинного обучения

Ряд важных техник в разделе машинного обучения основаны, прежде всего, на сетях нелинейных элементов, или нейросетях, моделях мозга, а также на методах математической статистики. Другими дисциплинами, внесшими большой вклад, являются теория адаптивного управления, психологические и эволюционные модели, и, разумеется, искусственный интеллект Nilsson N. J., Wellsprings of Machine Learning. Introduction to machine learning. Stanford.: Stanford University, 1998..

Пороговыми логическими единицами в терминологии нейросетей являются перцептрон и многослойный перцептрон, или нейрон Там же (11), С. 35.. Процедура их обучения может включать в себя учителя, отвечающего на запросы, агенты само-улучшения, организации и укрепления Там же(9), С.7, С. 379.. Важно заметить, что ряд нейросетей откликаются только на один обучающий способ. Это приводит к необходимости типизировать алгоритмы. (Прим. - winnow algorithm, perceptron algorithm, kernel-based algorithm и т.д.)

В рамках машинного обучения используются следующие сценарии:

· Обучение с учителем (прим. с англ. supervised learning) - обучающаяся система получает набор "ситуация, требуемое решение", а иначе - обучающуюся выборку, и далее, восстановив зависимость, делает прогнозы. Сам учитель осуществляет контроль над системой и внешней средой, представляя собой механизм подкрепления верных откликов.

Обучение с учителем, в свою очередь, включает в себя несколько стратегий. Во-первых, ИНС (прим. - искусственная нейронная сеть), основной алгоритм которой предполагает сравнение предложенной модели (объекта) с имеющейся базой данных и использование результата для обучения. На ИНС основано глубокое обучение. Во-вторых, метод коррекции ошибки, обучающий перцептрон, при котором вес и знак неправильного отклика меняются. В-третьих, метод обратного распространения ошибки, использующий подход градиентного спуска, и, наконец, в-четвертых, метод опорных векторов.

· Обучение без учителя означает, что системе необходимо самостоятельно сгруппировать объекты в кластеры, выявив разнородные сходства между ними, и смоделировать плотность вероятности. Данный вид обучения включает, в свою очередь, следующие три подхода: альфа-систему подкрепления, метод ближайших соседей и гамму-систему подкрепления.

· В случае обучения с подкреплением для каждого прецедента имеется соответствующий случай из вне, другими словами, речь идет о взаимодействии агента и среды, которая является её учителем. Внутри данного метода применяется генетический алгоритм, напоминающий естественный отбор в терминах биологии.

Другими сценариями в машинном обучении являются активное обучение (обучаемый алгоритм назначает ситуацию самостоятельно), обучение с частичным привлечением учителя (полуавтоматическое) и трансдуктивное обучение, многозадачное и многовариантное обучение, бустинг и байесовская сеть (прим. - с англ. belief network), .

Нейронные сети

В контексте данной работы решается задача построения регрессии при помощи обучения с учителем искусственной нейронной сети в целях выявления закономерности между входными и выходными данными, а также определение возможности написания вспомогательного ПО на основе полученной модели.

ИНС представляет собой построенную по образцу биологических нейронных сетей, то есть нервных клеток в мозге животных, вычислительную систему, которая составлена из набора алгоритмов. Такие системы обучаются для решения задач при помощи примеров без предварительного программирования на решение конкретной задачи. Они интерпретируют числовые данные, кластеризуя и классифицируя их, и формируют правила для исполнения конкретных задач. Полученные в ходе разработки таких алгоритмов модели используются в прогнозировании, распознавании образов, в задачах управления и др Матвеев А.С., Гелиг А.Х. Введение в математическую теорию обучаемых распознающих систем и нейронных сетей. Учебное пособие. СПб: ДМК пресс, 2014..

Говоря об истории вопроса, начнем с такого понятия как перцептрон, упомянутый нами выше. Это один из типов искусственного нейрона, алгоритм которого был разработан в 1958 году ученым Фрэнком Розенблаттом; изначально был предназначен для распознавания изображений. Перцептрон обрабатывает некоторое множество двоичных входов и в итоге производит один двоичный выход. Иными словами, перцептрон позволяет принять решение, проанализировав аргументы. Но однослойные перцептроны способны работать только с линейно разделимыми структурами, поскольку он является упрощенной версией биологического нейрона и демонстрирует лишь часть поведения, свойственного им. Ранее, в 1943 году нейронную сеть попытались создать У. Питтс и Уоррен МакКаллох, смоделировав вычислительную систему на основе математики и алгоритмов. Их статья "Логическое исчисление идей, присущих нервной деятельности" (пер. мой) где была предложена первая в мире математическая модель НС, была опубликована в том же году Там же(14), С. .

Поскольку машинное обучение позволяет системе автоматически учиться и прогрессировать из опыта без явного программирования, то есть приспосабливать данные к модели, несложно определить, что нейронные сети являются комплексным подмножеством алгоритмов, используемых ими. Нейронная сеть не программируется, а обучается. Именно возможность обучения выгодно отделяет нейронные сети от других методов машинного обучения. Они представляют собой недетерминированный классификатор для решения задач оптимизации и обычно реализуются как нелинейные функции по линейной комбинации входных признаков.

ИНС - это система связанных искусственных нейронов, взаимодействующих между собой, а иначе - система простых процессоров, каждый из которых может воспринимать и отправлять другим процессорам определенные сигналы. Сложная система нейронов используется для решения сложных задач.

Обучение нейронной сети - это нахождение зависимостей между получаемыми и выходными данными, обобщение результата и его применение к выходящим за пределы обучающей выборки, к искаженным и неполным данным Там же(14), С. .

Здесь необходимо упомянуть об обобщенной аппроксимационной теореме, согласно которой из нелинейного элемента, с предварительно заданной точностью, можно получить вычисляющее любую непрерывную функцию устройство с помощью линейных операций и каскадного соединения. Следуя этой теореме, можно заключить, что произвольной может быть нелинейная природа нейрона, а нейронная сеть с любой нелинейностью в итоге представляет собой универсальный аппроксиматор, способный при определенных условиях аппроксимировать функционирование непрерывного автомата с большой точностью Рашка С. Python и машинное обучение. М.: ДМК пресс, 2017..

Этапы решения задач

При обучении нейронных сетей выделим семь основных этапов: сбор данных для обучения, подготовка данных, выбор топологии сети, экспериментальный подбор её характеристик и параметров обучения, обучение и проверка его адекватности.

Первый этап, выбор и обработка данных, должен проходить с учетом ряда критериев, предъявляемых релевантными данными. Во-первых, это их репрезентативность, то есть способность точно отражать объекты предметной области. Во-вторых, непротиворечивость. Входные данные называются обучающими векторами (или парами), каждый из которых является носителем одного значения для входа и одного значения для выхода. Перед началом обучения данные необходимо преобразовать для лучшего отклика сети. Например, следует произвести нормировку в ситуации данных, обладающих различной размерностью; для определения конечного множества непрерывных величин выполняется их дискретование; искаженные данные фильтруются.

Говоря о топологии сети, её применение необходимо в условии ограниченного числа выходов, при котором сложно различать классовые данные. Тип сети зависит от многих факторов, таких как: исследовательская задача, качество входных данных, стратегия обучения (с учителем или без). Например, при обучении с подкреплением каждой обучающей паре необходима "экспертная" оценка. В работе с большим массивом данных преимущество принадлежит автоматическому обучению.

Итак, четвертым этапом обучения является экспериментальный подбор параметров сети. Здесь нужно обратить внимание на способность сети к обобщению, поскольку она прямо пропорциональна числу нейронных связей. Следующий шаг - подбор параметров обучения, проходит экспериментально (и крайне важен для обучения с подкреплением), чтобы избежать стагнации сети, увеличения времени сходимости, но, прежде всего, обеспечить необходимый итог обучения.

Непосредственное обучение сети представляет собой рассмотрение обучающей выборки, которое в основном дифференцируется в зависимости от наличия учителя. Так, при неавтономном обучении действует принцип разделения данных на получаемые (для обучения) и проверочные (для расчета ошибки); здесь прекращение обобщения можно зарегистрировать на моменте, когда ошибка на тестовых данных в сравнении с исходными примерами возрастает. На данном этапе сеть может, кроме того, приостановить работу или, говоря о поверхности ошибки, достичь локального минимума.

Вышеперечисленные этапы относятся к таким алгоритмам, для которых сложно осуществить прогноз и выстроить автономное обучение нейронной сети. Противоположные им, не итерационные алгоритмы, напротив, устойчивы и пластичны.

Последним этапом является проверка адекватности обучения, поскольку успех обучения не гарантирует реализацию исследовательской задачи, а лишь обрабатывает более простые для обобщения данные. Осуществляется этот этап при использовании примеров вне обучающей выборки, число которых должно соотноситься с числом полученных для обучения примеров.

Элементарный перцептрон

Итак, возвращаясь к понятию перцептрона, назовем три типа элементов, из которых он состоит. S-элементы являются набором сенсоров или рецепторов, находящихся в состоянии покоя или возбуждения, при котором такой элемент способен передавать единичный сигнал ассоциативным элементам. Каждый из последних элементов, A-элементов, располагает множеством ассоциаций в S-слое. В тот момент, когда S-элементы начинают транслировать число сигналов большее определенной величины, ассоциативные элементы включаются в процесс. Далее A-элементы сигнализирует следующему слою, R-элементам, или сумматору. (Сигнал от i-го ассоциативного элемента передаётся с коэффициентом wi. Этот коэффициент называется весом A--R связи).

Два последних слоя суммируют значения входных сигналов, умноженных на веса. R-элемент, а вместе с ним и элементарный перцептрон, выдаёт "1", если линейная форма превышает порог и, иначе на выходе будет "?1". Математически функция, реализуемую R-элементом, описывается в следующем виде Иошуа Б., Гудфеллоу Я. Глубокое обучение / Пер. А.А. Слинкин. М.: ДМК-Пресс, 2018.:

Обучение элементарного перцептрона состоит в изменении весовых коэффициентов wi связей A--R. Веса связей S--A (которые могут принимать значения {?1; 0; +1}) и значения порогов A-элементов выбираются случайным образом в самом начале и затем не изменяются. (Описание алгоритма см. ниже.)

В режиме обобщения, наступающему после обучения, перед перцептроном стоит задача классифицировать неизвестные ранее объекты. При этом активизировавшиеся A-элементы передают сигнал следующему слою, - сигнал, сумма которого равна сумме соответствующих коэффициентов wi. Принадлежность объекта к первому классу определяется положительной суммой, и напротив, отрицательной - ко второму.

Ниже представлена пороговая функция R элемента 8:

Обучение перцептрона

Еще раз упомянем о методе градиентного спуска, также известном, как метод обратного распространения ошибки в теории нейронных сетей. Он представляет собой алгоритм итеративной оптимизации для нахождения минимума функции, или локального экстремума. Для этого нужно осуществить шаги, соответствующие отрицательному значению градиента. Здесь применимы, например, методы одномерной оптимизации.

Градиентный метод применяется к функции Там же(18), C. :

Так в этом случае выглядят последовательные приближения:

Градиентный спуск можно успешно использовать в целях обучения перцептрона. Для этого нужно минимизировать среднюю ошибку на выходе обучаемой сети, изменяя её весовые коэффициенты.

Метод обратного распространения ошибки

Метод обратного распространения ошибки (англ. backpropagation) - метод вычисления градиента, который используется при обновлении весов многослойного перцептрона Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика. М.: Мир, 1992..

Основная идея этого метода состоит в распространении сигналов ошибки от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Для возможности применения метода обратного распространения ошибки передаточная функция нейронов должна быть дифференцируема. Данный метод является модификацией классического метода градиентного спуска.

Наиболее часто в качестве передаточных функций используются следующие виды сигмоидальных функций Там же(6), С. :

Функция Ферми (экспоненциальная сигмоида):

Рациональная сигмоида

Гиперболический тангенс:

где S-- выход сумматора нейрона, б - произвольная константа.

Менее всего процессорного времени, сравнительно с другими сигмоидальными функциями, требует расчёт рациональной сигмоидальной функции. Для вычисления гиперболического тангенса требуется больше всего тактов работы процессора. Если же сравнивать с пороговыми функциями активации, то сигмоиды рассчитываются очень медленно. Если после суммирования в пороговой функции сразу можно начинать сравнение с определённой величиной (порогом), то в случае сигмоидальной функции активации нужно рассчитать сигмоид (затратить время в лучшем случае на три операции: взятие модуля, сложение и деление), и только потом сравнивать с пороговой величиной (например, с нулём). Если считать, что все простейшие операции рассчитываются процессором за приблизительно одинаковое время, то работа сигмоидальной функции активации после произведённого суммирования (которое займёт одинаковое время) будет медленнее пороговой функции активации в 4 раза.

Функция оценки работы сети

В тех случаях, когда удаётся оценить работу сети, обучение нейронных сетей можно представить как задачу оптимизации. Оценить - означает указать количественно, хорошо или плохо сеть решает поставленные ей задачи. Для этого строится функция оценки. Она, как правило, явно зависит от выходных сигналов сети и неявно (через функционирование) - от всех её параметров.

Простейший и самый распространённый пример оценки - сумма квадратов расстояний от выходных сигналов сети до их требуемых значений Там же(6), С. :

где Z*(ф)-- требуемое значение выходного сигнала.

Алгоритм обратного распространения ошибки следующий 6:

· Инициализировать синаптические веса маленькими случайными значениями;

· Выбрать очередную обучающую группу(batch) из обучающего; множества; подать входной вектор на вход сети;

· Вычислить выход сети;

· Вычислить значение выбранной функции ошибки;

· Подкорректировать веса сети для минимизации ошибки;

· Повторять шаги с 2 по 5 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня, устанавливаемого при обучении.

Статистическая гипотеза.

Чтобы проверить и оценить, насколько, например, эффективен новый способ выполнения задачи или оборот новых ресурсов, необходимо произвести проверку статистических гипотез, под которыми имеются в виду предположения о числовом значении параметра или неизвестном характере классификации данных. При расчете гипотезы анализируются числовые выборочные данные и, далее, определяется, содержит ли гипотеза противоречия с эмпирическими данными.

Существует два этапа проверки: после выдвижения самой гипотезы, рассчитывают параметр ив для последующей сверки с икр (критическим), являющимся приближенным. Верная гипотеза (и < икр) означает малую объективную возможность Р (и > икр) = б. В обратном случае гипотеза исключается. Отметим, что проверка гипотезы может привести к разного рода ошибкам. Ошибка 1-рода означает, что верная гипотеза отвергается; при ошибке 2-рода неверная гипотеза, напротив, принимается. Проверяя гипотезу, исследователь выбирает критическую область. Ею может быть и кр (область положительных отклонений), и кр 2 (область отрицательных отклонений) и икр 4 (область больших и малых по абсолютной величине отклонений) Степанова М.Д. Проверка статистических гипотез, Минск: БГУИР, 2000.. (Рис.9)

Рис. 9. Критические области на диаграмме распределения исследуемой величины

Отвержение верной гипотезы можно представить площадью фигуры под функцией на интервале и > икр 1, в то время как вероятность ошибки 2-го рода - это площадь фигуры на интервале и < икр 1. Таким образом, они обратно пропорциональны. Так, с увеличением вероятности ошибки 1-го рода вероятность ошибки 2-го уменьшается. Их идентичное изменение невозможно. Вследствие этого необходимо выбрать такую критическую область, чтобы вероятность не допустить ошибку 2-го рода была максимальной Там же(23), С. .

Конкурирующую гипотезу Н 1 выбирают одну из следующих возможных вариантов:

а < a0 - левосторонняя критическая область

а > a0 - правосторонняя критическая область

а ? a0 - двусторонняя критическая область

Для определения границ критических областей используются следующие соотношения:

Если гипотезы Н 0 принимается, то в действительности не означает, что расчетное значение параметра по выборочной совокупности иn равно истинному значению. Это всего лишь говорит о правдоподобии параметра иn, который рассчитан на основе данных, полученных по выборочной совокупности. При расчете параметра иn предполагается, что закон распределения генеральной совокупности известен. Критерии, которые используются при проверке таких гипотез, называются параметрическими. Если же закон распределения генеральной совокупности не известен, то критерии называются непараметрическими. Исходя из этого, статистическая гипотеза может выдвигаться о числовом значении параметра, о законе распределения генеральной совокупности, о равенстве числовых характеристик генеральной совокупности или о принадлежности выборок к одной и той же генеральной совокупности Там же(23), С. .

Инструментарий

Поставленная задача является по большей части алгоритмической, поэтому основным инструментом реализации алгоритмов и анализа данных был выбран язык программирования Python Там же(17), С. .

Данный язык востребован среди аналитиков данных, в связи с этим существует большое количество библиотек, реализующих популярные методы машинного обучения. В результате анализа данных библиотек, для построения нейронной сети и последующего ее обучения была выбрана библиотека Pybrain.py http://pybrain.org/docs/.

Выбор был сделан в ее пользу по стольку, поскольку данная библиотека была разработана и продолжает разрабатываться под руководством аналитиков данных Schaul T., Bayer J., Wierstra D, Yi S., Felder M., Sehnke F., RьckstieЯ T., Schmidhuber J., PyBrain // Journal of Machine Learning Research. 2010. URL: https://www.researchgate.net/publication/49941366_Pybrain (Дата обращения: 14.03.2019).. Библиотека содержит все необходимые для машинного обучения функции и имеет хорошую документацию.

Приведенные графики, построенные программно в процессе обучения нейронной сети и в процессе статистического анализа результатов, заимствованы из библиотеки matplotlib.pу https://matplotlib.org/contents.html.

Реализация

Постановка задачи обучения

В рамках данной работы необходимо выявить закономерность между снимаемыми характеристиками транзистора и его внутренней геометрией. Закономерность представляется в виде аппроксимирующей функции F(Vg, ) = (W, L), которая описывает взаимно однозначное соответствие между входными и выходными параметрами (Рис.1). Входными параметрами является напряжение на затворе транзистора Vg и вектор , который иллюстрирует величину тока стока транзистора в зависимости от напряжения, приложенного между истоком и стоком транзистора при данном Vg. Выходными параметрами является ширина W и длина L проводящего канала транзистора.

Рис. 1. Зависимость тока стока от напряжения сток-исток при напряжении на затворе Vg = 1.7В для транзистора с W=10мкм L=50мкм

Часть I

Сбор данных для обучения

Для обучения нейронной сети были взяты экспериментально полученные параметры двадцати четырех транзисторов, представленные в виде таблиц в формате *.mdm. Каждая таблица содержит шесть зависимостей тока стока от напряжения сток-исток при шести разных напряжениях на затворе для одного транзистора. Таким образом, для решения поставленной задачи нами был использован вектор из 144 примеров.

Часть II

Подготовка и нормализация данных

Файл с измеренными характеристиками транзистора имеет много избыточной для данной задачи информации. Для того чтобы появилась возможность провести обучение сети, данные необходимо преобразовать в вид, пригодный для обучения. Описание исходной структуры файлов и необходимой структуры файла, необходимого для обучения нейронной сети, приведены ниже.

Структура *.mdm файла

! VERSION = 6.00

BEGIN_HEADER

ICCAP_INPUTS

vd V D GROUND SMU1 0.1 LIN 1 0 2 41 0.05

vg V G GROUND SMU2 0.1 LIN 2 0.5 2 6 0.3

vb V B GROUND SMU4 0.1 LIST 3 1 0

vs V S GROUND SMU3 0.1 CON 0

ve V E GROUND SMU5 0.1 CON 0

ICCAP_OUTPUTS

id I D GROUND SMU1 B

ig I G GROUND SMU2 B

ib I B GROUND SMU4 B

ICCAP_VALUES

MASTER_SETUP_TYPE "~soi_dc_idvd~"

LINVT_VALUE ""

LISTVT_VALUE ""

TYPE "1"

TEMP " 27.0000 "

IS_TNOM " 1.00000 "

// Необходимые геометрические размеры

MAIN.W "10.00u"

MAIN.L "50.00u"

// Необходимые геометрические размеры

MAIN.AD "10.00p"

MAIN.AS "10.00p"

MAIN.PD "21.00u"

MAIN.PS "21.00u"

MAIN.NF "1.000"

MAIN.M "1"

MAIN.NRD "0"

MAIN.NRS "0"

MAIN.LDRIFT1 "1E-006"

MAIN.LDRIFT2 "1E-006"

MAIN.SA "0.000"

MAIN.SB "0.000"

MAIN.SD "0.000"

MAIN.SCA "0"

MAIN.SCB "0"

MAIN.SCC "0"

MAIN.SC "0"

MODULE ""

PIN_D "0"

PIN_G "0"

PIN_S "0"

PIN_B "0"

PIN_E "0"

PIN_6 ""

XY_ID ""

FUNC "Additional"

STI "SA ref"

WPE "WPE ref"

COMMENT ""

DIS_MEAS ""

TypeTCI "11"

END_HEADER

BEGIN_DB

// Напряжение Vg на затворе транзистора

ICCAP_VAR vg 0.5

// Напряжение Vg на затворе транзистора

ICCAP_VAR vb 0

ICCAP_VAR vs 0

ICCAP_VAR ve 0

#vd id ig ib

// Первая необходимая характеристика

0 7.14183e-010 -2.85387e-011 0

0.05 9.91142e-009 -2.90275e-011 0

0.1 1.40681e-008 -3.21865e-013 0

0.15 1.53881e-008 -3.18289e-011 0

0.2 1.56003e-008 -7.86781e-013 0

….

1.9 1.76495e-008 7.70092e-012 0

1.95 1.70138e-008 -2.24113e-012 0

2 1.65843e-008 -4.34279e-011 0

// Первая необходимая характеристика

END_DB

BEGIN_DB

// Напряжение Vg на затворе транзистора

ICCAP_VAR vg 0.8

// Напряжение Vg на затворе транзистора

ICCAP_VAR vb 0

ICCAP_VAR vs 0

ICCAP_VAR ve 0

#vd id ig ib

// Вторая необходимая характеристика

0 -1.82562e-008 3.61562e-011 0

0.05 1.83546e-007 -2.53558e-011 0

0.1 3.00557e-007 1.98841e-011 0

0.15 3.61011e-007 1.45674e-011 0

0.2 3.8831e-007 -6.38962e-012 0

1.75 4.21268e-007 -1.04904e-012 0

1.8 4.19717e-007 -4.89831e-011 0

1.85 4.17008e-007 1.33991e-011 0

1.9 4.15734e-007 -2.02656e-012 0

1.95 4.14346e-007 -6.91414e-013 0

2 4.19059e-007 2.23279e-011 0

// Вторая необходимая характеристика

END_DB

Ниже представлена структура *.json файла, необходимого для обучения сети.

{

// Массив обучающих примеров

"inputsArr": [

[

0.5, // напряжение на затворе транзистрора

// ток стока транзистора

0.0007141830000000001,

0.00991142,

...

0.0170138,

0.0165843

],

[

0.8,

-0.0182562,

0.183546,

...

0.414346,

0.419059

],

[

1.1,

-0.024469499999999998,

0.7697780000000001,

...

2.8263599999999998,

2.82916

],

],

// Массив результатов

"targetArr": [

[

10, // Ширина канала транзистора

49.99999999999999 // Длина канала транзистора

],

[

0.7,

10

],

[

5,

10

],

]

}

Для получения *.json файла необходимой структуры на языке Python была написана программа - парсер, которая имеет следующий псевдокод:

Рис. 2. Псевдокод программы - парсера

Полный листинг программы приведен в приложении 1.

Часть III

Выбор топологии сети

В рамках поставленной задачи была выбрана нейронная сеть прямого распространения без обратных связей. Выбор обусловлен ограничением времени, выделенным на решение поставленной задачи, поэтому опробовать все возможные топологии не представлялось возможным. Гипотетически нейронная сеть более сложной топологии может дать более точные результаты, нежели выбранная топология, в связи с тем, что подобные топологии обладают обратными связями разного рода и могут сгладить поверхность ошибки, в результате уменьшив вероятность попадания в локальный минимум.

Пример нейронной сети прямого распространения изображена на рис. 3

Рис. 3. Нейронная сеть прямого распространения

Часть IV

Экспериментальный подбор характеристик сети

Характеристики нейронной сети подбирались экспериментальным путем. Основным критерием выбора какого-либо набора характеристик являлась скорость уменьшения ошибки обучения, которая влияет на количество необходимых эпох обучения и адекватность результатов тестирования сети на тестовой выборке.

Наилучшими характеристиками с учетом приведенных критериев обладает нейронная сеть с одним входным слоем, двумя скрытыми слоями нейронов и одним выходным слоем.

Входной слой имеет 43 входа, один из которых несет информацию о напряжении на затворе транзистора, и 42 из которых несут информацию о зависимости тока стока от напряжения сток-исток.

Первый скрытый слой нейронов имеет 80 нейронов. Второй скрытый слой имеет 40 нейронов. Выходной слой имеет 2 выхода, один из которых несет информацию о ширине канала транзистора, второй - о длине канала транзистора.

Часть V

Экспериментальный подбор параметров обучения

Обучение нейронной сети, в контексте данной задачи, производится на малых данных. В связи с этим из числа параметров обучения необходимо настраивать лишь величину ошибки; впоследствии процесс обучения будет остановлен. Было принято решение останавливать обучение при уменьшении среднеквадратичной ошибки до 0.01.

Часть VI

Финальное обучение

На языке Python c с использованием библиотеки pyBrain был написан код обучения нейронной сети с описанными выше параметрами. Код имеет следующую структуру (рис. 5):

Рис. 5. Структура алгоритма обучения нейронной сети.

Полный листинг программы приведен в прил. 2.

Процесс обучения иллюстрируется графиком уменьшения ошибки обучения нейронной сети, который изображен на рис. 7.

Рис. 7. Уменьшение ошибки обучения в зависимости от количества эпох обучения

Часть VII

Проверка адекватности обучения

Данный этап заключается в проверке ответа нейронной сети на наличие выбросов в результатах тестирования. При наличии большого числа выбросов происходит корректировка структуры нейронной сети и параметров обучения. Результат данного этапа представлен в виде *.json файла, приведенного в приложении 2.

Результат проверки адекватности обучения

[

{

"netRez": [

-0.25718428388032355,

11.091097793256031

],

"istRez": [

10,

49.99999999999999

]

},

{

"netRez": [

4.705121033531205,

15.283326427834524

],

"istRez": [

10,

49.99999999999999

]

},

{

"netRez": [

-1.2535474712868995,

-2.5862410345915743

],

"istRez": [

0.48000000000000004,

0.18000000000000002

]

},

{

"netRez": [

2.026635380679873,

4.498801236014964

],

"istRez": [

0.48000000000000004,

0.24000000000000002

]

},

...

]

Часть VIII

Статистический анализ результатов

Проверка статистической гипотезы проходит в 3 этапа:

1. Создания генератора случайного числа с нормальным распределением;

2. Поиск среднеквадратичной ошибки между истинным значением и значением, сгенерированным генератором случайного числа;

3. Поиск среднеквадратичной ошибки между истинным значением и значением, сгенерированным нейронной сетью.

Этап 1. Создания генератора случайного числа с нормальным распределением

Для того, чтобы математически оценить результаты работы нейронной сети, необходимо построить генератор случайного числа, который будет генерировать значения W и L, распределенные нормально, относительно среднего значения c нормальным отклонением от среднего, равным половине среднего значения величин W и L соответственно. Пример работы генератора приведен на гистограммах, изображенных на рис. 4.

W, мкм

L, мкм

Рис. 4. Генератор с нормальным распределением для величин W и L

Полный листинг программы генератора приведен в прил.3

Этап 2. Поиск среднеквадратичной ошибки между истинным значением и значением, сгенерированным генератором случайного числа

Следующим этапом статистического анализа является подсчет квартратичных отклонений по каждому тестовому примеру между истинным значением искомых параметров и случайным числом, сгенерированным генератором случайного числа. Гистограммы распределения квадратичной ошибки приведены на рис. 5:

W(rnd)

L(rnd)

Рис. 5. Гистограммы распределения квадратичной ошибки для величин W и L

Этап 3. Поиск среднеквадратичной ошибки между истинным значением и значением, сгенерированным нейронной сетью

Следующим этапом статистического анализа является подсчет квартратичных отклонений по каждому тестовому примеру между истинным значением искомых параметров и значением, сгенерированным нейронной сетью. Гистограммы распределения квадратичной ошибки приведены на рис. 6.

W(net)

L(net)

Рис. 5. Гистограммы распределения квадратичной ошибки для величин W и L

Исходя из полученных данных, более 96% квадратичных ошибок, полученных в результате работы нейронной сети, лежат в пределах первой критической области на диаграмме распределения квадратичной ошибки, полученной в результате работы генератора случайного числа.

Вывод

Таким образом, после проведения статистический анализ результатов работы нейронной сети, обученной на малых данных, нами была отвергнута гипотеза H0, утверждающая, что, данные, полученные нашим алгоритмом не превосходят результаты, полученные генератором случайных чисел.

Факт того, что гипотеза H0 отвергнута, означает, что, собрав кластер больших данных, состоящий из аналогичных примеров, которые были использованы нами при обучении нейронной сети, можно обучить нейронную сеть похожей архитектуры, которая будет генерировать данные с высокой точностью.

Заключение

Нейросетевой подход к решению подобного рода задач отличается от классических аппроксимирующих подходов тем, что после обучения можно получить относительно легкую модель представления аппроксимирующей функции.

Так как нейронная сеть состоит из большого числа простых нейронов, то не составляет труда рассчитать скорость ее работы, функция которой является линейной. Таким образом, мы получаем достаточно предсказуемый алгоритм, который может составить конкуренцию классическому подходу по решению задачи нахождения W и L транзистора с использованием Spice- подобных программ, таких как LTSPice, HSPICE.

Список литературы

Приложение 1.

Листинг программы - парсера

# -*- coding: UTF-8 -*-

import json

pos_postfixes = ['k', 'M', 'G', 'T', 'P', 'E', 'Z', 'Y']

neg_postfixes = ['m', 'u', 'n', 'p', 'f', 'a', 'z', 'y']

inputsArr = []

targetArr = []

i = 0

for k in range(24):

f = open('vd/1 ('+str(k+1)+').mdm', 'r')

W = None

L = None

vg = None

readFlag = False

for line in f:

splitLine = line.split()

if (len(splitLine) > 0):

# print(splitLine)

if splitLine[0] == 'MAIN.W':

Wstr = splitLine[1]

if Wstr.startswith('"') and Wstr.endswith('"'):

Wstr = Wstr[1:-1]

num_postfix = Wstr[-1]

if num_postfix in pos_postfixes:

num = float(Wstr[:-1])

num*=10**((pos_postfixes.index(num_postfix)+1)*3)

W = num

elif num_postfix in neg_postfixes:

num = float(Wstr[:-1])

num*=10**(-(neg_postfixes.index(num_postfix)+1)*3)

W = num

else:

num = float(Wstr)

W = num

if splitLine[0] == 'MAIN.L':

Lstr = splitLine[1]

if Lstr.startswith('"') and Lstr.endswith('"'):

Lstr = Lstr[1:-1]

num_postfix = Lstr[-1]

if num_postfix in pos_postfixes:

num = float(Lstr[:-1])

num*=10**((pos_postfixes.index(num_postfix)+1)*3)

L = num

elif num_postfix in neg_postfixes:

num = float(Lstr[:-1])

num*=10**(-(neg_postfixes.index(num_postfix)+1)*3)

L = num

else:

num = float(Lstr)

L = num

if ((len(splitLine) > 1) and (splitLine[1] == 'vg')):

vg = splitLine[2]

inputsArr.append([])

inputsArr[i].append(float(vg))

if (splitLine[0] == 'END_DB'):

readFlag = False

targetArr.append([W*1000000, L*1000000])

i+=1

if (readFlag):

inputsArr[i].append((float(splitLine[1])*1000)/4)

# inputsArr[i].append(float(splitLine[3])*1000000)

if (splitLine[0] == '#vd'):

readFlag = True

f.close()

data = {

'inputsArr': inputsArr,

'targetArr': targetArr,

}

jsonData = json.dumps(data)

file = open("testfile.json", "w")

file.write(jsonData)

file.close()

print(len(inputsArr[0]))

print(targetArr[0])

Приложение 2.

Листинг программы - обучения нейронной сети

# -*- coding: UTF-8 -*-

from pybrain.structure import FeedForwardNetwork

from pybrain.datasets import SupervisedDataSet

from pybrain.supervised.trainers import RPropMinusTrainer

import matplotlib.pyplot as plt

import json

#тут создаем структуру для обучения и набор данных для обучения

ds = SupervisedDataSet(42, 2)

with open('testfile.json') as f:

data = json.load(f)

inputArr = data['inputsArr']

targetArr = data['targetArr']

# Разбиение массива примеров на обучающую и тестовую выборки

inputArrTech = []

targetArrTech = []

inputArrTest = []

targetArrTest = []

maxes = []

L = []

W = []

for k in range(len(targetArr)):

L.append(targetArr[k][1])

W.append(targetArr[k][0])

Lmax = max(L)

Wmax = max(W)

print('max L: ', Lmax)

print('max W: ', Wmax)

input("Press the <ENTER> key to continue...")

for k in range(len(inputArr)):

if (k % 4) == 0:

inputArrTest.append(inputArr[k])

targetArrTest.append(targetArr[k])

else:

inputArrTech.append(inputArr[k])

targetArrTech.append(targetArr[k])

ds.setField('input', inputArrTech)

ds.setField('target', targetArrTech)

# Создание нейронной сети прямого распространения

net = FeedForwardNetwork()

# инициализация слоев нейронной сети

from pybrain.structure import LinearLayer, SigmoidLayer

inLayer = LinearLayer(42)

hiddenLayer1 = SigmoidLayer(90)

hiddenLayer2 = SigmoidLayer(30)

outLayer = LinearLayer(2)

# Добавление слоев в нейронную суть

net.addInputModule(inLayer)

net.addModule(hiddenLayer1)

net.addModule(hiddenLayer2)

net.addOutputModule(outLayer)

# Связывание Связей слоев нейронной сети друг с другом

from pybrain.structure import FullConnection

in_to_hidden = FullConnection(inLayer, hiddenLayer1)

hidden_to_hidden1 = FullConnection(hiddenLayer1, hiddenLayer2)

hidden_to_out = FullConnection(hiddenLayer2, outLayer)

# Добавление связей слоев в нейронную суть

net.addConnection(in_to_hidden)

net.addConnection(hidden_to_hidden1)

net.addConnection(hidden_to_out)

# инициализациця весов нейронной сети

net.sortModules()

# Создается тренер нейронной сети. В данном случае был создан тренер, обучающий методом обратного расспространения ошибки

trainer = RPropMinusTrainer(net)

trainer.setData(ds)

fig = plt.gcf()

fig.show()

fig.canvas.draw()

maxepochs=3000

results=[]

aux = 20

counter = 0

while aux > 0.1:

aux = trainer.train()

results.append(aux)

counter = counter + 1

if (counter%50 == 0):

plt.plot(range(len(results)),results)

fig.canvas.draw()

if counter > maxepochs:

break

rezult = []

print('aux: ', aux)

# тестируем нейронную сеть

for i in range(len(inputArrTest)):

print('активация сети' + str(i) + ': ', net.activate(inputArrTest[i]))

print('истиный результат' + str(i) + ': ', targetArrTest[i])

print()

rezult.append(

{

'netRez': net.activate(inputArrTest[i]).tolist(),

'istRez': targetArrTest[i]

}

)

jsonRez = json.dumps(rezult)

file = open("stat.json", "w")

file.write(jsonRez)

file.close()

input("Press the <ENTER> key to continue...")

Результат проверки обучения

[

{

"netRez": [

-0.25718428388032355,

11.091097793256031

],

"istRez": [

10,

49.99999999999999

]

},

{

"netRez": [

4.705121033531205,

15.283326427834524

],

"istRez": [

10,

49.99999999999999

]

},

{

"netRez": [

-1.2535474712868995,

-2.5862410345915743

],

"istRez": [

0.48000000000000004,

0.18000000000000002

]

},

{

"netRez": [

2.026635380679873,

4.498801236014964

],

"istRez": [

0.48000000000000004,

0.24000000000000002

]

},

{

"netRez": [

0.5788846000187906,

0.7538816727854413

],

"istRez": [

0.48000000000000004,

0.24000000000000002

]

},

{

"netRez": [

-2.300419483299986,

-3.2966357442997394

],

"istRez": [

0.7000000000000001,

0.18000000000000002

]

},

{

"netRez": [

0.3025327330183056,

6.688378177701271

],

"istRez": [

0.7,

0.24

]

},

{

"netRez": [

1.7260153741612823,

0.7714279845359303

],

"istRez": [

0.7,

0.24

]

},

{

"netRez": [

-1.040195390730151,

6.447103831735966

],

"istRez": [

0.7,

10

]

},

{

"netRez": [

7.4295058767277515,

-0.47686220385616107

],

"istRez": [

0.9,

0.18000000000000002

]

},

{

"netRez": [

1.6534081345939753,

0.025545553283493422

],

"istRez": [

0.9,

0.18000000000000002

]

},

{

"netRez": [

-1.1580045690491279,

2.424607814886471

],

"istRez": [

0.8999999999999999,

10

]

},

{

"netRez": [

1.455735424711507,

10.5804346599

],

"istRez": [

1.2,

10

]

},

{

"netRez": [

1.6922907762940993,

10.518598002229513

],

"istRez": [

1.2,

10

]

},

{

"netRez": [

0.06513297871535073,

9.839286501336211

],

"istRez": [

1.5999999999999999,

10

]

},

{

"netRez": [

4.988727504695948,

9.40240452208857

],

"istRez": [

2.4,

10

]

},

{

"netRez": [

0.6983875881042723,

23.405537021500372

],

"istRez": [

2.4,

10

]

},

{

"netRez": [

4.343600347320579,

7.079071916317645

],

"istRez": [

3.1999999999999997,

10

]

},

{

"netRez": [

5.367990359736338,

9.147533865489747

],

"istRez": [

5,

10

]

},

{

"netRez": [

9.188532335583137,

19.623853790237447

],

"istRez": [

5,

10

]

},

{

"netRez": [

9.949731588611007,

0.17020920239398762

],

"istRez": [

10,

0.16

]

},

{

"netRez": [

12.684654570035475,

8.358301035829358

],

"istRez": [

10,

0.18000000000000002

]

},

{

"netRez": [

9.99085398933626,

0.23528696848064712

],

"istRez": [

10,

0.18000000000000002

]

},

{

"netRez": [

10.287700415826897,

2.412601106536915

],

"istRez": [

10,

0.24

]

},

{

"netRez": [

12.008081647292698,

-0.05763035060686325

],

"istRez": [

10,

0.32

]

},

{

"netRez": [

10.026909211628203,

0.31456884659868756

],

"istRez": [

10,

0.32

]

},

{

"netRez": [

10.340500390682525,

-0.5937375004230567

],

"istRez": [

10,

0.39999999999999997

]

},

{

"netRez": [

6.869851116644167,

-0.4240512237674349

],

"istRez": [

10,

0.6

]

},

{

"netRez": [

10.036092350824793,

0.6673018519785359

],

"istRez": [

10,

0.6

]

},

{

"netRez": [

8.380371291162986,

0.9262979745325437

],

"istRez": [

10,

1

]

},

{

"netRez": [

13.574958948153759,

11.60231685160228

],

"istRez": [

10,

2

]

},

{

"netRez": [

10.203189544739631,

1.4591993058116142

],

"istRez": [

10,

2

]

},

{

"netRez": [

7.286817131976365,

2.3795736772060714

],

"istRez": [

10,

5

]

},

{

"netRez": [

8.343314512148977,

12.627696541050415

],

"istRez": [

10,

...

Подобные документы

  • Понятие и применение нейронных сетей, особенности классификации искусственных нейронных сетей по Терехову. Решение задачи классификации римских цифр на основе нейронной сети. Составление блок-схемы алгоритма обучения нейронной сети и анализ ее качества.

    дипломная работа [603,9 K], добавлен 14.10.2010

  • Определение и виды искусственных нейронных сетей. Функция активации. Биологический нейрон. Персептрон как инструмент для классификации образов. Классификация объектов с помощью нейронной сети. Нормализация входных сигналов. Алгоритм работы в MatlabR2009b.

    курсовая работа [349,7 K], добавлен 17.03.2016

  • Предварительный расчет частотно-территориального планирования однородной сети сухопутной подвижной связи. Моделирование радиопокрытия на электронной географической территории. Обоснование и выбор схемы электрической структурной обработки сигнала передачи.

    курсовая работа [894,4 K], добавлен 13.02.2013

  • Знакомство с задачей отслеживания нестационарного гармонического сигнала на основе нейронной сети. Анализ компьютерной модели нейронной сети на основе математических алгоритмов Мак-Каллока и Питтса. Характеристика способов создания линейной сети.

    контрольная работа [418,2 K], добавлен 17.05.2013

  • Применение мощных полевых транзисторов с изолированным затвором (МДП-транзисторы) в выходных каскадах усилителей мощности. Моделирование схемы усилителя НЧ на МДП-транзисторах в программе Multisim 8. Линейные и фазовые искажения, коэффициент гармоник.

    дипломная работа [3,5 M], добавлен 30.04.2010

  • Понятия теории множеств и теории графов. Переход от электрической схемы к графу. Разбиение электрической схемы с использованием итерационных алгоритмов. Разновидности задач трассировки. Размещение элементов РЭА с использованием конструктивного алгоритма.

    курсовая работа [557,4 K], добавлен 13.02.2012

  • Определение параметров структурно-физических математических моделей диодов и полевых транзисторов, малосигнальных и структурно-физических моделей биполярных транзисторов. Исследование элементов системы моделирования и анализа радиоэлектронных цепей.

    курсовая работа [1,3 M], добавлен 17.03.2011

  • Определение и моделирование оптимального управления объектом, заданным системой уравнений по квадратичному функционалу качества, по точности, по критерию Красовского и по быстродействию. Результаты работы математических пакетов MathCAD и Matlab.

    курсовая работа [388,5 K], добавлен 08.07.2014

  • Возможности применения компьютерного моделирования для изучения характеристик традиционных полупроводниковых приборов. Схемы исследования биполярного транзистора методом характериографа, а также моделирование характеристик однопереходного транзистора.

    дипломная работа [2,3 M], добавлен 28.04.2013

  • Технология Ethernet, построение схемы сети и алгоритм работы. Показатели работы сети до и после ввода дополнительных станций, результатов аналитического и имитационного моделирования. Запуск процесса моделирования и анализ результатов базовой модели.

    курсовая работа [357,5 K], добавлен 17.04.2012

  • Моделирование работы справочной телефонной сети города. Главные составляющие процесса ее функционирования, схема модели, анализ результатов моделирования системы. Проектирование инструментально-программного комплекса для анализа загруженности процессоров.

    курсовая работа [179,7 K], добавлен 22.06.2011

  • Способы аппроксимации кривой разгона апериодическим звеном первого порядка с запаздыванием. Оптимальные настройки регулятора (метод Копеловича). Нахождение передаточной функции замкнутой системы. Моделирование АСР с использованием программы 20-sim.

    контрольная работа [418,7 K], добавлен 11.05.2012

  • Проектирование электрической сети. Выбор числа и мощности силовых трансформаторов. Анализ установившихся режимов электрической сети. Расчёт токов короткого замыкания. Главная схема электрических соединений. Конструктивное выполнение подстанции.

    дипломная работа [372,0 K], добавлен 16.03.2004

  • Эквивалентная схема измерения температуры с использованием термопреобразователя сопротивления. Функциональная схема измерительного преобразователя. Расчет и выбор схемы источника опорного напряжения. Настройка схемы ИП в условиях комнатной температуры.

    курсовая работа [2,3 M], добавлен 29.08.2013

  • Структурная схема логического (комбинационного) блока, реализующего функции F1, F2, F3. Карта Карно, построение схемы электрической функциональной. Реализация функции F1 на мультиплексоре. Компьютерное моделирование, компоненты Electronics Workbench.

    курсовая работа [831,7 K], добавлен 23.09.2013

  • Разработка схемы принципиальной электрической для осуществления мультиплексирования трехцифровых сигналов на основе цифровых микросхем. Выполнение и моделирование работы схемы в программе MicroCap. Программирование схемы на микроконтроллере PIC16.

    контрольная работа [903,2 K], добавлен 22.06.2022

  • Рассмотрение принципов организации Deep Packet Inspection в телекоммуникации. Проведение исследований нейронных сетей. Выбор оптимальной модели для решения задач классификации мультимедийного трафика. Изучение вопросов безопасности жизнедеятельности.

    дипломная работа [1,0 M], добавлен 22.06.2015

  • Моделирование эквивалентной схемы элементов волноводного тракта СВЧ-устройства. Применение СВЧ-переходов для соединения двух волноводов различных поперечных сечений с целью согласования их волновых сопротивлений в заданном рабочем диапазоне частот.

    дипломная работа [1,8 M], добавлен 07.06.2014

  • Широкополосный доступ в Интернет. Технологии мультисервисных сетей. Общие принципы построения домовой сети Ethernet. Моделирование сети в пакете Cisco Packet Tracer. Идентификация пользователя по mac-адресу на уровне доступа, безопасность коммутаторов.

    дипломная работа [4,5 M], добавлен 26.02.2013

  • Разработка структурной и принципиальной схемы устройства. Расчет двухкаскадной схемы усилителя низкой частоты с использованием полевого и биполярного транзисторов. Выбор навесных элементов и определение конфигурации пленочных элементов усилителя частоты.

    курсовая работа [220,7 K], добавлен 22.03.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.