Порівняння методів оптимізації для навчання нейронних мереж

Опис найбільш поширених методів оптимізації, що застосовуються в задачах навчання нейронних мереж. Порівняльний аналіз цих методів на прикладі навчання простої згорткової нейромережі на наборі даних MNIST. Аналіз реалізації методу градієнтного спуску.

Рубрика Коммуникации, связь, цифровые приборы и радиоэлектроника
Вид статья
Язык украинский
Дата добавления 28.10.2020
Размер файла 986,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ПОРІВНЯННЯ МЕТОДІВ ОПТИМІЗАЦІЇ ДЛЯ НАВЧАННЯ НЕЙРОННИХ МЕРЕЖ

М.М. Поліщук, С.В. Гринюк, С.В. Дацюк

Луцький національний технічний університет

М.М. Поліщук, С.В. Гринюк, С.В. Дацюк

Порівняння методів оптимізації для навчання нейронних мереж

Сучасні методи навчання нейронних мереж, полягають в знаходженні мінімуму деякої неперервної функції помилки. За останні роки були запропоновані різні алгоритми оптимізації, які використовують різні підходи для оновлення параметрів ваг моделі. Дана стаття описує найбільш поширені методи оптимізації, що застосовуються в задачах навчання нейронних мереж, також наведений порівняльний аналіз цих методів на прикладі навчання простої згорткової нейромережі на наборі даних MNIST. В процесі аналізу були розглянуті різні реалізації методу градієнтного спуску, імпульсні методи, адаптивні методи, узагальнені проблеми їх використання, а також виявлені основні переваги кожного з методів

Ключові слова: методи оптимізації, нейронні мережі, метод градієнтного спуску, стохастичний градієнт, tensorflow, машинне навчання, згорткові нейронні мережі

мережа нейронний задача навчання

Н.Н. Полищук, С. Гринюк, С.В. Дацюк

Сравнение методов оптимизации для обучения нейронных сетей

Современные методы обучения нейронных сетей, заключаются в нахождении минимума некоторой непрерывной функции ошибки. За последнее года были предложены различные алгоритмы оптимизации, которые используют различные подходы для обновления параметров весов модели. Данная статья описывает наиболее распространенные методы оптимизации, применяемые в задачах обучения нейронных сетей, также приведен сравнительный анализ этих методов на примере обучения простой сверхточной нейросети на наборе данных MNIST. В процессе анализа были рассмотрены различные реализации метода градиентного спуска, импульсные методы, адаптивные методы, обобщенные проблемы их использования, а также выявлены основные преимущества каждого из методов.

Ключевые слова: методы оптимизации, нейронные сети, метод градиентного спуска, стохастический градиент, tensorflow, машинное обучение, сверточные нейронные сети.

M.M. Polishchuk S.V. Hrinyuk, S.V Datsyuk

Comparison of optimization methods for neural networks training

Modern methods of training neural networks consist in finding the minimum of some continuous error function. Over the past years, various optimization algorithms have been proposed that use different approaches to update the parameters of the model weights. This article describes the most common optimization methods used in neural networks training process, also provides a comparative analysis of these methods on the example of learning simple convolutional neural network on the MNIST data set. Analysed various implementations of the gradient descent method, impulse methods, adaptive methods, generalized problems of their use.

Keywords: optimization methods, neural networks, gradient descent method, stochastic gradient, tensorflow, machine learning, convolutional neural networks.

Постановка проблеми. Сучасні нейромережеві методи відносяться до числа найбільш затребуваних алгоритмів машинного навчання, які безперервно розвиваються і застосовуються в різних сферах практичної діяльності. У зв'язку з широкою областю їх застосування формуються різноманітні напрямки, що відрізняються постановкою задачі і типами вхідних даних: розпізнавання зображень, синтаксичний аналіз текстів, діагностика захворювань та ін. Постійним вдосконалення існуючих нейромережевих алгоритмів відрізняються своїми властивостями і особливостями реалізації, часто виникає проблема визначення найбільш ефективного методу мінімізації функції помилки, що гарантує кращі результати при вирішенні конкретної задачі.

Аналіз досліджень. Основи неперервного зворотного поширення було виведено в контексті теорії керування Келл 1960 р. [1] та Брайсоном 1961 р. [2] з використанням принципів динамічного програмування. Дрейфус у 1962 році опублікував простіше виведення, яке основане лише на ланцюговому правилі [3]. Брайсон описав його, як метод багатоетапної оптимізації динамічних систем у 1969 році, але вже в 1970 р. А.Д. Ліннаінмаа остаточно опублікував загальний метод автоматичного диференціювання (АД) дискретних зв'язних мереж вкладених диференційованих функцій [6]. Він відповідає сучасному баченню зворотного поширення, яке є ефективним навіть коли мережі є розрідженими. Вже у 1973 р. Дрейфус застосував зворотне поширення для пристосування параметрів контролерів пропорційно градієнтам похибок [4]. Вербос у 1974 р. зазначив можливість застосування цього принципу до ШНМ та у 1982 р. застосував метод А.Д. Ліннаінмаа до нейронних мереж способом, який широко застосовується і сьогодні [5]. У 1986 році Румельхарг, Хінтон та Вільямс зазначили, що цей метод може породжувати корисні внутрішні представлення вхідних даних в прихованих шарах нейронних мереж, а у 1993 році він став першим переможцем міжнародного змагання з розпізнавання образів за допомогою зворотного поширення.

Метою даного дослідження є аналіз основних особливостей стратегій оптимізації для подальшого обґрунтованого їх вибору, узагальнення експериментальних результатів для вирішення конкретних завдань машинного навчання.

Виклад основного матеріалу та аналіз результатів експерименту. Сучасні пакети для машинного навчання використовують різні варіації класичного методу градієнтного спуску, що володіють більш високою продуктивністю і точністю в реальних практичних завданнях за рахунок реалізованих в них механізмів розв'язання перерахованих вище проблем. Однак найчастіше користувач уже використовує вбудовані оптимізаційні алгоритми не володіючи достатньою інформацією про особливості поведінки доступних для використання методів на даному наборі даних. Наприклад, класифікатор MLPClassifier з популярної бібліотеки Scikit-learn машинного навчання на мові Python надає користувачеві вибір з декількох методів:

• SGD (стохастичний градієнт);

• Adam (метод адаптивної оцінки моментів);

• L-BFGS (квазіньютоновскій алгоритм Бройде - Флетчера - Гольдфарба - Шанно з обмеженим використанням пам'яті).

Найпопулярніший на сьогодні фреймворк для машинного навчання tensorflow, що містить реалізації алгоритмів SGD, RMSprop, Adagrad, Adadelta, Adam, Adamax, Momentum, Nesterov momentum, RMSProp. Причому користувач повинен не тільки вибрати алгоритм оптимізації, а й відрегулювати значення настроювальних параметрів алгоритму, що важко зробити без розуміння особливостей цих методів.

Найбільш використовуваним методом навчання нейронних мереж є алгоритм зворотного поширення помилки (Backpropagation algorithm) в якому мінімізація цільової функції проводиться методом пакетного градієнтного спуску (Batch gradient descent), тобто на кожній ітерації навчання моделі зміна ваг відбувається за формулою:

де E - цільова функція помилки, що залежить від параметрів;

w - ваги коефіцієнтів нейронної мережі;

а - швидкість навчання.

В даному методі ваги нейронної мережі оновлюються в напрямку, протилежному напрямку градієнта цільової функції з кроком, який обумовлений швидкістю навчання. В якості переваг методу пакетного градієнтного спуску можна виділити простоту реалізації і той факт, що метод гарантовано збігається до глобального або локального мінімуму для опуклих і неопуклих функцій відповідно. Однак існує безліч недоліків даного методу, внаслідок чого їх рідко застосовується в реальній практиці:

• метод градієнтного спуску може бути дуже повільним на великих наборах даних, тому що на кожній ітерації обчислюється градієнт для всіх векторів навчального набору;

• не дозволяє оновлювати модель «на льоту » і додавати в процесі навчання нові приклади навчальної вибірки через те, що оновлення ваг цільової функції проводиться відразу для всього вихідного набору даних;

• для неопуклих функцій існує проблема потрапляння в локальні мінімуми, тому що метод гарантує знаходження розв'язку лише для опуклих цільових функцій помилки;

• вибір оптимальної швидкості навчання може виявитися складною проблемою. Занадто маленька швидкість навчання може привести до дуже повільної збіжності і навпаки, велика швидкість навчання може перешкоджати збіжності, і як наслідок функція помилок буде коливатися навколо мінімуму і не досягне його;

• рівномірне оновлення всіх параметрів з однаковою швидкістю навчання призводить до погіршення якості навчання в разі, якщо вихідний набір даних не є збалансованим, якщо в вибірці існують класи, представлені меншим числом об'єктів.

Стохастичний градієнтний спуск (SGD - Stochastic gradient descent) на відміну від попереднього методу виконує оновлення параметрів для кожного навчального прикладу x(i) та мітки y(i):

Пакетний градієнтний спуск виконує надлишкові обчислення для великих наборів даних, оскільки перераховує градієнти для аналогічних прикладів перед кожним оновленням параметрів. БОП припиняє цю надмірність, виконуючи одночасно одне оновлення, що зазвичай набагато швидше та який можна використовувати для навчання в Інтернеті.

БОП виконує часті оновлення з високою дисперсією, що призводить до значних коливань цільової функції, як показано на Рис. 1.

Хоча пакетний градієнтний спуск збігається до мінімуму басейну, в які поміщаються параметри, коливання БОП, з одного боку, дає йому можливість перейти до нових і потенційно кращих локальних мінімумів. З іншого боку, це в кінцевому рахунку ускладнює зближення до точного мінімуму, Проте, якщо коли ми повільно зменшуємо швидкість навчання, БОП демонструє таку ж поведінку збіжності, як пакетний градієнтий спуск, майже напевно зближуючись з локальним або глобальним мінімумом для невипуклої та опуклої функції

Рис. 1. Коливання цільової функції в методі SGD

Міні-пакетний градієнтний спуск наслідує найкраще з двох вищеописаних методів і виконує оновлення для кожного міні-пакету n прикладів навчання:

Таким чином, він зменшує дисперсію оновлень параметрів, що може призвести до більш стабільної конвергенції; він може використовувати високооптимізовані матриці, реалізації яких є майже у всіх сучасних бібліотеках глибокого навчання, які роблять міні-пакетні обчислення градієнта дуже ефективними. Загальні розміри міні-пакетів варіюються від 50 до 256, але можуть бути різними для різних застосувань.

Алгоритми імпульсноїоптимізаціїградієнтного спуску

Momentum. SGD має проблеми з навігацією по ярах, тобто на ділянках, де поверхня кривих набагато крутіша в одному вимірі, ніж в іншому, які є спільними навколо місцевих оптимумів. У цих сценаріях SGD коливається по схилах мінімуму (рис. 2 а).

а)

б)

Рис. 2. SGD (стохастичний градієнт): а - без Momentum; б - із застосуванням Momentum

Momentum - це метод, який допомагає прискорити SGD у відповідному напрямку і гасить коливання (рис. 2 б.) Це досягається за рахунок додаванням дробу у вектора оновлення минулого кроку часу до поточного вектора оновлення (4), в результаті отримуємо вираз для оновлення параметрів ваг (5):

Adagrad -- це алгоритм для оптимізації на основі градієнта, який виконує адаптацію швидкості навчання до параметрів, виконуючи менші оновлення (тобто низькі швидкості навчання) для параметрів, пов'язаних з ознаками, які часто зустрічаються і більші оновлення (тобто високі швидкості навчання) для параметрів, пов'язаних з рідкісними ознаками. З цієї причини цей оптимізатор добре підходить для роботи з розрідженими даними. Dean et al. [10] виявили, що Адаград значно поліпшив надійність SGD і використовував його для навчання великих нейронних мереж в Google, які серед іншого навчилися розпізнавати кішок у відео Youtube. Pennington et al. використовували Адаград для підготовки вбудованих слів GloVe, оскільки рідкісні слова вимагають набагато більших оновлень, ніж часто вживані [6].

Раніше у всіх методах виконувалось оновлення для всіх параметрів 0 відразу після кожної ітерації параметра 0(і) з однаковою швидкістю навчання ц. Однак Adagrad використовує різну швидкість навчання для кожного параметра 0(і) на кожному кроці часу t, ми спочатку оновлюємо параметр Адаграда, який ми потім векторизуємо. Для стислості ми використовуємо g(t) для позначення градієнта на етапі часу t. g(t,i) є частковою похідною цільової функції до параметра 0 на кроці часу t:

Оновлення SGD для кожного параметра 0 на кожному кроці часу t:

У своєму правилі оновлення Adagгad змінює загальну швидкість навчання ц на кожному кроці часу і для кожного параметра 0(і) на основі минулих градієнтів, обчислених для 0(і):

де, Gt_RdЧd - діагональна матриця, де кожен діагональний елемент; і, і - сума квадратів градієнтів 0 до часу ї; є - термін згладжування, що дозволяє уникнути поділу на нуль.

Оскільки О(ї) містить суму квадратів минулих градієнтів до всіх параметрів вздовж своєї діагоналі ми можемо векторизувати нашу реалізацію, виконуючи матрично-векторний добуток ® між ними G(t) _ g(t):

Однією з головних переваг Adagaгd є те, що вона виключає необхідність ручного налаштування швидкості навчання. Більшість реалізацій використовують значення за замовчуванням 0,01 і залишають його на цьому. Основним недоліком Adagaгd є його накопичення у знаменнику квадратичних градієнтів: оскільки кожен доданий термін є позитивним, накопичена сума продовжує зростати під час навчання. Це, в свою чергу, призводить до того, що швидкість навчання скорочується і в кінцевому підсумку стає нескінченно малою, і тоді алгоритм більше не може отримати додаткові знання.

КМБРтор -- модифікований метод АйаОгай, в якому накопичення градієнта замінене на експоненціально зважене ковзне середнє, тобто ігнорує значення після певного числа ітеріцій (10), (11), (12):

АйаБека - розширений метод АйаОгай, який дозволяє усунути проблеми розпаду швидкості навчання. Замість того, щоб накопичувати всі попередні градієнти, АйайеДа обмежує простір накопичених градієнтів деякими фіксованими розмірами ^т.

Замість неефективного зберігання попередніх градієнтів у квадраті, сума градієнтів рекурсивно визначається як середнє затухання всіх минулих квадратних градієнтів. Середній показник Е |^2] (1) на етапі часу 1 потім залежить тільки від поточного та попереднього середнього значення градієнта:

Тоді правило зміни коефіцієнтів має наступний вигляд:

Особливостями даного методу є:

1. не потрібно вказувати початкову швидкість навчання.

2. для кожного параметра обчислюються різні курси навчання.

3.запобігання затримці (розпаду) курсів навчання.

Оскільки ми обчислюємо індивідуальні швидкості навчання для кожного параметра, тому буде доцільно обчислити окремі зміни імпульсу для кожного параметра і зберегти їх окремо. Саме на основі такого твердження було створено новий модифікований метод оптимізації - Adam(Adaptive Moment Estimation).

Adam базується на основі адаптивної оцінку моменту. Адаптивна оцінка моменту (Adam) - новий метод, який обчислює адаптивні швидкості навчання для кожного параметра. На додаток до зберігання експоненціально затухаючого середнього числа минулих квадратних градієнтів, таких як AdaDelta, Adam також зберігає експоненціально затухаюче середнє значення минулих градієнтів M(t), подібне до Momentum. Правило поновлення ваг для Adam визначається на основі використання оцінок двох різних моментів (формули (13) і (14)), у першому з яких використовуються обчислені раніше значення часткових похідних (як в методі Momentum), а в другому їх квадрати. Метод Adam вважається досить стійким до вибору значень гіперпараметров 1 Р, 2 Р, і тому часто пропонується в якості методу оптимізації:

Перерахунок ваг відбувається за формулою (15):

Оцінка продуктивності розглянутих алгоритмів

Оптимальне рішення (набір вагових коефіцієнтів), отримане в ході навчання нейронної мережі, безпосередньо впливає на її здатність до узагальнення, тобто на точність та якість, з яким мережа видає вірні відповіді на наборі прикладів тестової множини, на яких не проводилось навчання. Однак в даний час точні висновки про здатність нейронних мереж до узагальнення знаходяться на стадії розробки та вивчення. Також багато сучасних досліджень доводять, що кількість локальних мінімумів функції помилки навчання зростає з числом незалежних параметрів, що в свою чергу, негативно позначається на здатності мережі до узагальнення. Для багатьох моделей з великим числом параметрів, адаптивні методи можуть сходитися до рішень, які кардинально відрізняються від рішень, отриманих в результаті роботи SGD. В даний час адаптивні алгоритми часто є методами за замовчуванням в багатьох модулях для машинного навчання (наприклад, Scikitlearn, Keras). Однак існують дослідження [8], які підтверджують низьку продуктивність даних методів (Adam, RMSProp, Adagrad) на наборах даних з великим кількістю параметрів , в порівнянні з методом стохастичного градієнтного спуску. Даний недолік пояснюється тим, що алгоритми з адаптивною швидкістю навчання більш схильні до перенавчання, внаслідок чого їх похибка на тестовій вибірці може істотно підвищуватися.

Порівняння практичних результатів оптимізації з використанням різних алгоритмів оптимізації

Розглянемо результати навчання нейромережі для класифікації зображень рукописних цифр з набору даних MNIST з використанням алгоритмів оптимізації Momentum, Adam, Adadelta, Adagrad, SGD, реалізованих в бібліотеці Tensorflow. Набір MNIST включає 60000 навчальних і 10000 тестових прикладів і часто використовується для тестування і налагодження різних нейромережевих алгоритмів.

Для даного експерименту було створено просту згорткову нейронну мережу, яка складається з трьох згорткових блоків з активацією ReLU. В якості функції втрат було використано cross entropy loss (крос ентропія). На рис. 3 показано значення функції помилки для описаної вище мережі.

У табл. 1 наведені значення точності класифікації мережею, навченою з використанням розглянутих методів, на тестовій вибірці датасету МШБТ.

Рис.3. Зміна фунції помилки в залежності від методу оптимізації

Таблиця 1

SGD

Momentum

RMSProp

Adam

90.84%

96.62%

97.93%

98.4%

Висновки

В ході дослідження були розглянуті основні методи оптимізації, що застосовуються в сучасних методах навчання нейронних мереж. У процесі дослідження було проведено аналіз властивостей і особливостей розглянутих методів, а також сформульовані умови і обґрунтування їх найбільш оптимального з точки зору продуктивності і точності на навчальній і тестовій вибірках. Дані аналізу супроводжуються практичними результатами, які підтверджують сформульовані рекомендації по використанню розглянутих методів класичного і стохастичного градієнтного спуску, імпульсних, адаптивних алгоритмів оптимізації в задачах навчання нейронних мереж.

Результати експерименту показали, що метод RMSProp і Adam показали найкращі результати на даному наборі даних. Momentum та SGD є стабільно ефективними, проте поступаються в точності і продуктивності іншим методам. Точність результатів, досягнутих в ході роботи SGD і методу моментів пояснюється тим, що вихідна вибірка є збалансованою та позитивно позначається на продуктивності цих методів. Таким чином, виходячи з даних спостережень, можна зробити висновок , що результати проведених теоретичних досліджень підтверджуються даними емпіричних розрахунків і можуть бути використані в якості рекомендацій до застосування розглянутих оптимізаційних методах в завданнях машинного навчання.

Список використаних джерел

1. Kelley, Henry J. (1960). Gradient theory of optimal flight paths. Ars Journal 30(10): 947-954. doi:10.2514/8.5282. (англ.)

2. Arthur E. Bryson [en] (1961, April). A gradient method for optimizing multi-stage allocation processes. In Proceedings of the Harvard Univ. Symposium on digital computers and their applications. (англ.)

3. Dreyfus, Stuart (1962). The numerical solution of variational problems. Journal of Mathematical Analysis and Applications 5 (1): 30-45. doi:10.1016/0022-247x(62)90004-5. (англ.)

4. Dreyfus, Stuart (1973). The computational solution of optimal control problems with time lag. IEEE Transactions on Automatic Control 18 (4): 383-385. doi:10.1109/tac.1973.1100330. (англ.)

5. Schmidhuber, Jьrgen (2015). Deep Learning. Scholarpedia 10 (11): 32832. Bibcode:2015SchpJ..1032832S. doi: 10.4249/scholarpedia.32832.(aHm.)

6. Ruder, S. An overview of gradient descent optimization algorithms / S. Ruder // Cornell University Library. - 2016. - URL: https://arxiv. org/abs/1609.04747

7. Jordan, J. Intro to optimization in deep learning: Gradient Descent/ J. Jordan // Paperspace. Series: Optimization. - 2018. - URL: https://blog.paperspace.com/intro-to-optimization-in-deep-learning-gradient-descent/

8. Seppo Linnainmaa[en] (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master's Thesis (in Finnish), Univ. Helsinki, 6-7. (англ.)

9. Anish Singh Walia Types of Optimization Algorithms used in Neural Networks and Ways to Optimize Gradient Descent

10. Fletcher, R. Practical methods of optimization / R. Fletcher. - Wiley, 2000. - 450 p.

Размещено на Allbest.ru

...

Подобные документы

  • Методи векторної та скалярної оптимізації широко використовуються при проектуванні систем і мереж зв’язку. Розгляд деяких прикладів, що іллюструють осбливості застосування методів оптимізації при отриманні оптимальної структури і параметрів даних систем.

    реферат [125,2 K], добавлен 13.02.2011

  • Вимоги до транспортної мережі NGN. Порівняльний аналіз технологій транспортних мереж: принцип комутації, встановлення з'єднання, підтримка технології QoS, можливості масштабування мережі. Поняття про Traffic Engineering. Оптимізація характеристик мереж.

    дипломная работа [4,6 M], добавлен 22.09.2011

  • Аналіз організації передачі даних по каналах комп’ютерних мереж. Фізична сутність та порядок організації їх каналів. Сутність існуючих методів доступу до каналів комп’ютерних мереж. Місце процесів авторизації доступу при організації інформаційних систем.

    дипломная работа [2,4 M], добавлен 12.09.2010

  • Порівняльний аналіз можливих варіантів реалізації науково-технічної проблеми. Вітчизняні і зарубіжні аналоги проектованого об'єкту. Мета та призначення розробки. Техніко-економічне обґрунтування проекту. Карта пошуку та усунення несправності пристрою.

    отчет по практике [1018,4 K], добавлен 17.05.2010

  • Аналіз принципів і особливості захисту кабельних мереж агрокомбінату. Розрахунок максимального струму навантаження лінії. Обґрунтування вибору трансформатора напруги. Проведення структурного аналізу захисту кабельних мереж від міжфазних коротких замикань.

    автореферат [3,4 M], добавлен 20.09.2014

  • Аналіз сучасного стану питання та обґрунтування методу розрахунку і оптимізації. Комп’ютерне моделювання та вибір математичної моделі. Основні характеристики моделей дисперсійного аналізу, методика їх розрахунку. Моделі систем масового обслуговування.

    курсовая работа [518,0 K], добавлен 25.08.2013

  • Комп'ютерна мережа - об'єднання деякої кількості комп'ютерів до єдиного каналу передачі даних за допомогою фізичного з'єднання. Опис топологій локальних мереж. Розробка простої комп'ютерної мережі зі стандартом 10Base-2 та перевірка її працездатності.

    курсовая работа [880,9 K], добавлен 14.09.2012

  • Захист інтегральних напівпровідникових та гібридних мікросхем, основні види та призначення процесу герметизації. Суть корпусної та безкорпусної герметизації, особливості та характеристика методів її виконання, їх порівняльний аналіз, переваги і недоліки.

    курсовая работа [5,5 M], добавлен 09.04.2010

  • Характеристика тонометру як медичного апарата, огляд методів вимірювання артеріального тиску. Порівняльний аналіз та класифікація різних типів цих приборів. Розробка конструкції автоматичного тонометра на плече. функціональної схеми приладу у цілому.

    реферат [1,1 M], добавлен 29.01.2014

  • Методи аналітичного, імітаційного і натурного моделювання. Характеристика моделей теорії масового обслуговування. Спеціалізовані системи імітаційного моделювання обчислювальних мереж. Топологічний структурний аналіз властивостей мережі - нові пропозиції.

    реферат [1003,5 K], добавлен 20.11.2010

  • Аспекти формування інструментарію для рішення проблеми з підвищення ефективності сучасних транспортних мереж. Визначення концепції розбудови оптичних транспортних мереж. Формалізація моделі транспортної мережі. Інтеграція ланки в мережеву структуру.

    реферат [4,8 M], добавлен 19.02.2011

  • Характеристика RadioEthernet IEEE 802.11 - першого промислового стандарту для бездротових локальних мереж. Застосування методу FHSS для зміни несучої частоти сигналу при передачі інформації. Схеми з'єднання комп'ютерів у мережі. Захист Wi-Fi покриття.

    курсовая работа [3,5 M], добавлен 06.09.2011

  • Методи побудови мультисервісних локальних територіально розподілених мереж. Обґрунтування вибору технології побудови корпоративних мереж MPLS L2 VPN. Імітаційне моделювання у пакеті "OPNET modeler 14.5" та аналіз характеристики переданого трафіку.

    дипломная работа [1,2 M], добавлен 20.09.2016

  • Характеристика параметричних моделей випадкових процесів. Особливості методів спектрального оцінювання, апроксимація даних з використанням детермінованої експоненціальної моделі по методу Проні. Автокореляційна функція як часова характеристика сигналу.

    реферат [243,3 K], добавлен 04.12.2010

  • Сутність і шляхи оптимізації мережевого аналізу. Загальна характеристика основних шляхів підвищення ефективності роботи будь-якої транспортної інфокомунікаційної мережі. Аналіз критеріїв ефективності роботи та інструментів моніторингу комп'ютерної мережі.

    реферат [41,8 K], добавлен 20.11.2010

  • Поняття, сутність, призначення і класифікація комп’ютерних мереж, особливості передачі даних в них. Загальна характеристика локальних комп’ютерних мереж. Етапи формування та структура мережі Інтернет, а також рекомендації щодо збереження інформації у ній.

    реферат [48,1 K], добавлен 05.12.2010

  • Огляд методів відображення інформації на екрані електронно-променевих трубок (ЕПТ), переваги і недоліки заданого методу. Система відображення зображення на основі методу точкового малоформатного растру. Проектування пристрою відображення інформації.

    курсовая работа [970,7 K], добавлен 20.07.2010

  • Оптимальний спосіб організації доступу до послуг IN міжміського та зонового рівня. IN із розподіленою та централізованою обробкою виклику. Класифікація та ідентифікація інтелектуальних мереж зв'язку. IN із зовнішньою та внутрішньою функцією взаємодії.

    реферат [571,6 K], добавлен 16.01.2011

  • Cтворення та конфігурація мережі. Розрахунок трафіку управління шлюзом доступу. Визначення параметрів інтерфейсу підключення до пакетної мереж. Налаштування QoS, вибір статистики. Модульна організація і масштабованість. Технічні характеристики комутатора.

    курсовая работа [2,9 M], добавлен 22.01.2013

  • Поняття сигналу, їх види - аналогові і цифрові. Фізичні процеси передачі інформації. Смуга пропускання і пропускна здатність. Цифрове та логічне кодування бітових даних. Гальванічна розв’язка електричних кіл ліній передачі даних комп’ютерних мереж.

    презентация [1,3 M], добавлен 18.10.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.