Способи представлення двійкової інформації. Огляд і характеристика інтегральних мікросхем
З'ясування поняття безперервної і дискретної інформації. Імовірнісний і об'ємний підходи до визначення одиниці кількості інформації. Кодування інформації та представлення її у двійковому коді. Класифікація та технологія виготовлення інтегральних схем.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | реферат |
Язык | украинский |
Дата добавления | 21.01.2014 |
Размер файла | 39,8 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
МІНІСТЕРСТВО АГРАРНОЇ ПОЛІТИКИ ТА ПРОДОВОЛЬСТВА
УКРАЇНИ
Рівненський державний аграрний коледж
Реферат
На тему: Способи представлення двійкової інформації. Огляд і характеристика інтегральних мікросхем
Підготував:
Лебедюк Ю. В.
Студент 23-П групи
Перевірив:
Фесенко В. О.
Рівне-2013
Зміст
Вступ
1. Безперервна і дискретна інформація
2. Кодування інформації
3. Представлення інформації у двійковому коді
4. Поняття та особливості відкриття інтегральних схем
5. Рівні проектування
6. Класифікація інтегральних схем, технологія виготовлення
7. Призначення
8. Аналогово-цифрові схеми
Висновок
Список використаної літератури
Вступ
Теоретичною основою інформатики є група фундаментальних наук таких як: теорія інформації, теорія алгоритмів, математична логіка, теорія формальних мов та граматик, комбінаторний аналіз і т.д. Крім них інформатика включає такі розділи, як архітектура ЕОМ, операційні системи, теорія баз даних, технологія програмування та багато інших. Важливим у визначенні інформатики як науки є те, що з одного боку, вона займається вивченням пристроїв і принципів дії засобів обчислювальної техніки, а з іншого - систематизацією прийомів і методів роботи з програмами, які керують цією технікою.
Інформаційна технологія - це сукупність конкретних технічних і програмних засобів, за допомогою яких виконуються різноманітні операції з обробки інформації в усіх сферах нашого життя і діяльності. Іноді інформаційну технологію називають комп'ютерною технологією або прикладної інформатикою.
Інформація аналогова і цифрова. Термін «інформація» походить від латинського informatio, - роз'яснення, виклад, обізнаність.
Інформацію можна класифікувати різними способами, і різні науки це роблять по-різному. Наприклад, у філософії розрізняють інформацію об'єктивну і суб'єктивну.
Об'єктивна інформація відображає явища природи і людського суспільства. Суб'єктивна інформація створюється людьми і відображає їх погляд на об'єктивні явища.
В інформатиці окремо розглядається аналогова інформація і цифрова. Це важливо, оскільки людина завдяки своїм органам почуттів, звик мати справу з аналоговою інформацією, а обчислювальна техніка, навпаки, в основному, працює з цифровою інформацією.
ІНТЕГРАЛЬНА СХЕМА - електронний прилад, який скла-дається з багатьох мініатюрних транзисто-рів та інших елементів схеми, об'єднаних у моноблок (чіп).
Роберт Нойс (1927-1990) і Джек С. Кілбі (1923) однаковою мірою вважаються авторами головного винаходу століття інформаційних технологій. Не знаючи один одного, вони вирішили проблему мінімізації дискретних елементів монтажної плати комп'ютера та перенесення їх на пластину з кремнію (Нойс) і германію (Кілбі). Це значно збільшило продуктивність комп'ютера й одночасно скоротило його вартість. Інтегральна схема, як і раніше, залишається ключовим досягненням ери електроніки.
У 2000 році Нобелівську премію одержали автори робіт з двох основних напрямів електронної напівпровідникової компонентної бази інформаційних технологій.
Джек Кілбі -- за винахід інтегральних схем. Я не говоритиму про це багато, оскільки інтегральні кремнієві схеми, кремнієва мікроелектроніка -- стовпова дорога розвитку сучасної мікроелектроніки. То був визначний крок. Адже створення транзистора означало появу приладу, енергетично вигіднішого, ніж вакуумні лампи, приладу, який зробив можливою мініатюризацію.
Кілбі першим здогадався, що треба принципово інакше розв'язувати цю задачу. Коли ми маємо у кристалі транзисторну структуру на основі р-n-переходів, то можемо їх використати як елементи ємності і робоче тіло напівпровідника, створюючи таким чином інтегральні R-C-ланцюги. І те, що здається сьогодні тривіальним, насправді було нетривіальною і непростою ідеєю, коли Кілбі її запропонував.
Звичайно, за цей час мікроелектроніка здолала гігантський шлях розвитку. Перші інтегральні схеми, зроблені Кілбі на основі германію і лише пізніше реалізовані ним на основі кремнію (колишній співробітник Кілбі Нойс, який помер у 1990 р. і тому не зміг розділити успіх свого колеги, майже відразу запропону вав схеми на основі унікальних властивостей двоокису кремнію), мали два транзистори і два R-C-ланцюги, а їхня площа становила кілька квадратних сантиметрів. Сьогоднішні ж інтегральні схеми -- це 10 млн. транзисторів на такій самій площі. Протягом тривалого часу щороку подвоювалася кількість компонентів інтегральних схем. Сьогодні цей проміжок часу трохи подовжився: кількість компонентів інтегральних схем подвоюється кожні півтора року.
дискретний інформація кодування інтегральний
1. Безперервна і дискретна інформація
Людина сприймає інформацію за допомогою органів почуттів. Світло, звук, тепло - це енергетичні сигнали, а смак і запах - це результат впливу хімічних сполук, в основі якого теж енергетична природа. Людина відчуває енергетичні впливу безперервно і може ніколи не зустрітися з однією і тією ж їх комбінацією двічі. Немає двох однакових зелених листків на одному дереві і двох абсолютно однакових звуків - це інформація аналогова. Якщо ж різним кольорам дати номери, а різним звукам - ноти, то аналогову інформацію можна перетворити у цифрову.
Щоб повідомлення було передано від джерела до одержувача, необхідна деяка матеріальна субстанція - носій інформації. Повідомлення, що передається за допомогою носія, назвемо сигналом. У загальному випадку сигнал - це змінюється в часі фізичний процес. Такий процес може містити різні характеристики (наприклад, при передачі електричних сигналів можуть змінюватися напруга і сила струму). Та з характеристик, яка використовується для подання повідомлень, називається параметром сигналу.
У разі коли параметр сигналу приймає послідовне в часі кінцеве число значень (при цьому всі вони можуть бути пронумеровані), сигнал називається дискретним, а повідомлення, що передається за допомогою таких сигналів-дискретним повідомленням. Інформація, передана джерелом, в цьому випадку також називається дискретною. Якщо ж джерело виробляє безперервне повідомлення (відповідно параметр сигналу - безперервна функція від часу), відповідна інформація називається неперервною. Приклад дискретного повідомлення - процес читання книги, інформація в якій представлена текстом, тобто дискретної послідовністю окремих значків (букв). Прикладом безперервного повідомлення служить людська мова, передана модульованої звуковою хвилею; параметром сигналу в цьому випадку є тиск, що створюється цією хвилею в точці знаходження приймача - людського вуха.
Безперервне повідомлення може бути представлено безперервною функцією, заданої на деякому відрізку [а, Ь] .Безперервне повідомлення можна перетворити в дискретне (така процедура називається дискретизацією). Для цього з нескінченної кількості значень цієї функції (параметра сигналу) вибирається їх певне число, яке приблизно може характеризувати інші значення. Один із способів такого вибору полягає в наступному. Область визначення функції розбивається точками x 1, x 2, ... х n, на відрізки рівної довжини і на кожному з цих відрізків значення функції приймається постійним і рівним, наприклад, середнього значення на цьому відрізку; отримана на цьому етапі функція називається в математиці ступінчастою. Наступний крок - проектування значень "сходинок" на вісь значень функції (вісь ординат). Отримана таким чином послідовність значень функції у 1, у 2, ... у n. є дискретним поданням неперервної функції, точність якого можна необмежено піднімати шляхом зменшення довжин відрізків розбиття області значень аргументу.
Можливість дискретизації безперервного сигналу з будь-якою бажаною точністю (для зростання точності достатньо зменшити крок) принципово важлива з точки зору інформатики. Комп'ютер - цифрова машина, тобто внутрішнє представлення інформації в ньому дискретно. Дискретизація вхідної інформації (якщо вона неперервна) дозволяє зробити її придатною для комп'ютерної обробки. Існують і інші обчислювальні машини - аналогові ЕОМ. Вони використовуються зазвичай для вирішення завдань спеціального характеру й широкій публіці практично не відомі. Ці ЕОМ в принципі не потребують дискретизації вхідної інформації, так як її внутрішнє уявлення в них безперервно. У цьому випадку все навпаки - якщо зовнішня інформація дискретна, то її "перед вживанням" необхідно перетворити на безперервну.
Одиниці кількості інформації: імовірнісний і об'ємний підходи
Визначити поняття "кількість інформації" досить складно. У вирішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. В кінці 40-х років XX століття один з основоположників кібернетики американський математик Клод Шеннон розвинув імовірнісний підхід до вимірювання кількості інформації, а роботи зі створення ЕОМ призвели до "об'ємному" підходу.
Імовірнісний підхід
Розглянемо як приклад досвід, пов'язаний з киданням правильної гральної. Кістки, що має N граней (найбільш поширеним є випадок шестигранною кістки: N = 6). Результати даного досвіду можуть бути наступні: випадання межі з одним з наступних знаків: 1,2, ... N.
Введемо в розгляд чисельну величина, що визначає невизначеність-ентропію (позначимо її Н). Величини N і Н пов'язані між собою деякою функціональною залежністю:
H = f (N), (1.1)
а сама функція f є зростаючою, неотрицательной і певної (у розглянутому нами прикладі) для N = 1, 2, ... 6.
Розглянемо процедуру кидання кістки більш докладно:
1) готуємося кинути кістку; результат досвіду невідомий, тобто є деяка невизначеність; позначимо її H 1;
2) кістка кинута; інформація про результат даного досвіду отримана; позначимо кількість цієї інформації через I;
3) позначимо невизначеність даного досвіду після його здійснення через H 2. За кількість інформації, яке отримано в ході здійснення досвіду, приймемо різниця невизначеностей "до" і "після" досвіду:
I = H 1 - H 2 (1.2)
Очевидно, що у випадку, коли отримано конкретний результат, имевшаяся невизначеність знята (Н 2 = 0), і, таким чином, кількість отриманої інформації співпадає з початковою ентропією. Інакше кажучи, невизначеність, укладена в досвіді, збігається з інформацією про результат цього досвіду. Зауважимо, що значення Н 2 могло бути і не рівним нулю, наприклад, у випадку, коли в ході досвіду наступної випала грань зі значенням, більшим "З".
Наступним важливим моментом є визначення виду функції f у формулі (1.1). Якщо варіювати число граней N і число кидання кістки (позначимо цю величину через М), загальне число фіналів (векторів довжини М, що складаються із знаків 1,2 ,.... N) буде дорівнює N в ступені М:
X = N M. (1.3)
Так, у випадку двох кидання кістки з шістьма гранями маємо: Х = 6 2 = 36. Фактично кожен результат Х є деяка пара (X 1, X 2), де X 1 і X 2 - відповідно результати першого і другого кидання (загальне число таких пар - X).
Ситуацію з киданням М раз кістки можна розглядати як якусь складну систему, що складається з незалежних один від одного підсистем - "одноразових кидання кістки". Ентропія такої системи в М разів більше, ніж ентропія однієї системи (так званий "принцип адитивності ентропії"):
f (6 M) = M • f (6)
Цю формулу можна поширити і на випадок будь-якого N:
F (NM) = M • f (N) (1.4)
Прологаріфміруем ліву і праву частини формули (1.3):
ln X = M • ln N, М = ln X / 1n M.
Підставляємо отримане для M значення у формулу (1.4):
Позначивши через До позитивну константу, отримаємо: f (X) = К • lnХ, або, з урахуванням (1.1), H = K • ln N. Звичайно приймають К = 1 / ln 2. Таким чином
H = log 2 N. (1.5)
Це - формула Хартлі.
Важливим при введення будь-якої величини є питання про те, що приймати за одиницю її виміру. Очевидно, Н буде дорівнює одиниці при N = 2. Інакше кажучи, в якості одиниці приймається кількість інформації, пов'язане з проведенням досвіду, що складається в отриманні одного з двох рівноймовірно результатів (прикладом такого досвіду може служити кидання монети при якому можливі два результати: "орел "," решка "). Така одиниця кількості інформації називається "біт".
Всі N фіналів розглянутого вище досвіду є рівноімовірними і тому можна вважати, що на "частку" кожного результату припадає одна N-а частина загальної невизначеності досвіду: (log 2 N) 1 N. При цьому ймовірність i-го результату Р i дорівнює, очевидно, 1 / N.
Та ж формула (1.6) приймається за міру ентропії в разі, коли можливості різноманітних результатів досвіду нерівно вірогідні (тобто Р i можуть бути різні). Формула (1.6) називається формулою Шеннона.
В якості прикладу визначимо кількість інформації, пов'язане з появою кожного символу в повідомленнях, записаних російською мовою. Будемо вважати, що російський алфавіт складається з 33 літер і знака "пробіл" для поділу слів. За формулою (1.5)
Н = log лютого 1934 ? 5 біт.
Однак, за тими словами російської мови (так само як і в словах інших мов) різні літери зустрічаються неоднаково часто. Нижче наведена табл. 1 ймовірностей частоти вживання різних знаків російського алфавіту, отримана на основі аналізу дуже великих за обсягом текстів.
У двійковій системі числення знаки 0 і 1 будемо називати бітами (від англійського виразу Binary digiTs - двійкові цифри). Зазначимо, що творці комп'ютерів віддають перевагу саме двійковій системі числення тому, що в технічному пристрої найбільш просто реалізувати два протилежних фізичних стану: певний фізичний елемент, що має два різних стани: намагніченість у двох протилежних напрямках; прилад, що пропускає чи ні електричний струм; конденсатор, заряджений або незаряджений і т.п. У комп'ютері біт є найменшій можливій одиницею інформації. Обсяг інформації, записаної двійковими знаками в пам'яті комп'ютера або на зовнішньому носії інформації підраховується просто за кількістю необхідних для такого запису двійкових символів. При цьому, зокрема, неможливо неціле число бітів (на відміну від імовірнісного підходу).
Для зручності використання введені і більші, ніж біт, одиниці кількості інформації. Так, двійкове слово з восьми знаків містить один, байт інформації, 1024 байти утворюють кілобайт (Kб), 1024 кілобайт - мегабайт (Мбайт), а 1024 мегабайта - гігабайт (Гбайт).
Між імовірнісним і об'ємним кількістю інформації співвідношення неоднозначне. Далеко не кожен текст, записаний двійковими символами, допускає вимірювання об'єму інформації в кібернетичному сенсі, але свідомо допускає його в об'ємному. Далі, якщо деяке повідомлення допускає вимірність кількості інформації в обох сенсах, то вони не обов'язково збігаються, при цьому кібернетичне кількість інформації не може бути більше об'ємного.
Надалі практично завжди кількість інформації розуміється в об'ємному сенсі.
4. Інформація: більш широкий погляд
Детальніше>>
5. Властивості інформації
Властивості інформації:
* запам'ятовуваність;
* передання;
* перетворюваної;
* відтворюваність;
* стираемость.
Властивість запоминаемости - одне з найважливіших. Запам'ятовує інформацію будемо називати макроскопічної (маючи на увазі просторові масштаби пам'ятною осередки і час запам'ятовування). Саме з макроскопічної інформацією ми маємо справу в реальній практиці.
Передання інформації за допомогою каналів зв'язку (у тому числі з перешкодами) добре досліджена в рамках теорії інформації К. Шеннона. У даному випадку мається на увазі дещо інший аспект - здатність інформації до копіювання, тобто до того, що вона може бути "запам'ятати" інший макроскопічної системою і при цьому залишиться тотожною самій собі. Очевидно, що кількість інформації не повинно зростати при копіюванні.
Відтворюваність інформації тісно пов'язана з її передаванням і не є її незалежною базовим властивістю. Якщо передання означає, що не слід вважати істотними просторові відносини між частинами системи, між якими передається інформація, то відтворюваність характеризує невичерпність і невичерпного інформації, тобто що при копіюванні інформація залишається тотожною самій собі.
Фундаментальне властивість інформації - перетворюваної. Воно означає, що інформація може міняти спосіб і форму свого існування. Копируемого є різновид перетворення інформації, при якому її кількість не змінюється. У загальному випадку кількість інформації в процесах перетворення змінюється, але зростати не може. Властивість стираемости інформації також не є незалежним. Воно пов'язане з таким перетворенням інформації (передачею), при якому її кількість зменшується і стає рівним нулю.
Підводячи підсумок сказаному, відзначимо, що робляться (але аж ніяк не завершені) спроби учених, які представляють різні галузі знання, побудувати єдину теорію, яка покликана формалізувати поняття інформації та інформаційного процесу, описати перетворення інформації в процесах самої різної природи. Рух інформації є сутність процесів управління, які суть прояв іманентної активності матерії, її здатності до саморуху. З моменту виникнення кібернетики управління розглядається стосовно до всіх форм руху матерії, а не тільки до вищих (біологічної і соціальної). Багато проявів руху в неживих - штучних (технічних) і природних (природних) - системах також володіють загальними ознаками управління, хоча їх досліджують в хімії, фізиці, механіці в енергетичній, а не в інформаційній системі уявлень. Інформаційні аспекти в таких системах становлять предмет нової міждисциплінарної науки - синергетики.
Вищою формою інформації, що виявляється в управлінні у соціальних системах, є знання. Це наддісціплінарное поняття, широко використовується в педагогіці і дослідженнях зі штучного інтелекту, також претендує на роль найважливішої філософської категорії. У філософському плані пізнання слід розглядати як один з функціональних аспектів управління. Такий підхід відкриває шлях до системного розуміння генезису процесів пізнання, його засади і перспективи.
2. Кодування інформації
Подання інформації відбувається у різних формах у процесі сприйняття навколишнього середовища живими організмами і людиною, у процесах обміну інформацією між людиною і людиною, людиною і комп'ютером, комп'ютером і комп'ютером і так далі. Перетворення інформації з однієї форми подання (знакової системи) в іншу називається кодуванням.
Засобом кодування служить таблиця відповідності знакових систем, яка встановлює взаємно однозначну відповідність між знаками або групами знаків двох різних знакових систем.
У процесі обміну інформацією часто доводиться здійснювати операції кодування та декодування інформації. При введенні знака алфавіту в комп'ютер шляхом натискання відповідної клавіші на клавіатурі відбувається кодування знака, тобто перетворення комп'ютерний код. При виведенні знака на екран монітора або принтер відбувається зворотний процес - декодування, коли з комп'ютерного коду знак перетворюється на його графічне зображення.
З появою мови, а потім і знакових систем розширилися можливості спілкування між людьми. Це дозволило зберігати ідеї, отримані знання і будь-які дані, передавати їх різними способами на відстань і в інші часи - не тільки своїм сучасникам, а й майбутнім поколінням. До наших днів дійшли творіння предків, які за допомогою різних символів увічнили себе і свої діяння в пам'ятниках і написах. Наскельна малюнки (петрогліфи) до цих пір служать загадкою для вчених. Можливо, таким способом стародавні люди хотіли вступити в контакт з нами, майбутніми мешканцями планети і повідомити про події їхнього життя.
Кожен народ має свою мову, що складається з набору символів (букв): російська, англійська, японська та багато інших. Ви вже познайомилися з мовою математики, фізики, хімії.
Представлення інформації за допомогою будь-якої мови часто називають кодуванням.
Код - набір символів (умовних позначень) дли подання інформації. Кодування - процес подання інформації у вигляді коду.
Водій передає сигнал за допомогою гудка або миготінням фар. Кодом є наявність або відсутність гудка, а в разі світлової сигналізації - мигання фар або його відсутність.
Ви зустрічаєтеся з кодуванням інформації при переході дороги за сигналами світлофора. Код визначають кольору світлофора - червоний, жовтий, зелений.
В основу природної мови, якою спілкуються люди, теж покладено код. Тільки в цьому випадку він називається алфавітом. При розмові цей код передається звуками, при листі - літерами. Одну й ту ж інформацію можна представити за допомогою різних кодів. Наприклад, запис розмови можна зафіксувати за допомогою російських букв або спеціальних стенографічних значків.
У міру розвитку техніки з'являлися різні способи кодування інформації. У другій половині XIX століття американський винахідник Семюель Морзе винайшов дивний код, який служить людству до сих пір. Інформація кодується трьома «літерами»: довгий сигнал (тире), короткий сигнал (точка) і відсутність сигналу (пауза) для розділення букв. Таким чином, кодування зводиться до використання набору символів, розташованих у суворо визначеному порядку.
3. Представлення інформації у двійковому коді
Люди завжди шукали способи швидкого обміну повідомленнями. Для цього посилали гінців, використовували поштових голубів. У народів існували різні способи оповіщення про небезпеку, що насувається: барабанний бій, дим вогнищ, прапори і т. д. Однак використання такого подання інформації вимагає попередньої домовленості про розуміння прийнятого повідомлення.
Знаменитий німецький учений Готфрід Вільгельм Лейбніц запропонував ще в XVII столітті унікальну і просту систему представлення чисел. «Обчислення за допомогою двійок ... є для науки основним і породжує нові відкриття ... при зведенні чисел до найпростіших початків, які 0 і 1, скрізь з'являється чудовий порядок ».
Сьогодні такий спосіб подання інформації за допомогою мови, що містить всього два символи алфавіту - 0 і 1, широко використовується в технічних пристроях, у тому числі і в комп'ютері. Ці два символи 0 і 1 прийнято називати двійковими цифрами або бітами (від англ. Bit - BinaryDigit - двійковий знак).
Вся інформація, яку обробляє комп'ютер повинна бути представлена ??двійковим кодом за допомогою двох цифр 0 і 1. Ці два символи прийнято називати двійковими цифрами або бітами. За допомогою двох цифр 0 і 1 можна закодувати будь-яке повідомлення. Це стало причиною того, що в комп'ютері обов'язково має бути організовано два важливі процеси: кодування і декодування.
Кодування перетворення вхідної інформації у форму, яка сприймається комп'ютером, тобто двійковий код.
Декодування - перетворення даних із двійкового коду у форму, зрозумілу людині.
З точки зору технічної реалізації використання двійкової системи числення для кодування інформації виявилося набагато простішим, ніж застосування інших способів. Дійсно, зручно кодувати інформацію у вигляді послідовності нулів та одиниць, якщо уявити ці значення як два можливих стійких стану електронного елемента:
-Відсутність електричного сигналу;
- Наявність електричного сигналу.
Ці стани легко розрізняти. Недолік двійкового кодування - довгі коди. Але в техніці легше мати справу з великою кількістю простих елементів, ніж з невеликим числом складних.
Вам доводиться постійно стикатися з пристроєм, який може знаходиться тільки у двох стійких станах: включено / вимкнено. Звичайно ж, це добре знайомий всім вимикач. А ось придумати вимикач, який міг би стійко і швидко переключатися в будь-яке з 10 станів, виявилося неможливим. У результаті після низки невдалих спроб розробники прийшли до висновку про неможливість побудови комп'ютера на основі десяткової системи числення. І в основу подання чисел в комп'ютері була покладена саме двійкова система числення.
Способи кодування і декодування інформації в комп'ютері, в першу чергу, залежить від вигляд;, інформації, а саме, що повинно кодуватися: числа, текст, графічні зображення чи звук.
Представлення (кодування) чисел
Для запису інформації про кількість об'єктів використовуються числа. Числа записуються за допомогою набору спеціальних символів.
Система числення - спосіб запису чисел за допомогою набору спеціальних знаків, званих цифрами.
Системи числення поділяються на позиційні і непозиційної.
У позиційних системах числення величина, що позначається цифрою у записі числа, залежить від її положення у числі (позиції).
Кольорові зображення формуються відповідно до двійковим кодом кольору кожної точки, що зберігається у відеопам'яті. Кольорові зображення можуть мати різну глибину кольору, яка задається кількістю бітів, використовуваних для кодування кольору точки. Найбільш поширеними значеннями глибини кольору є 8,16, 24 або 32 біта.
Кольорове зображення на екрані монітора формується за рахунок змішування трьох базових кольорів: червоного, зеленого і синього. Така колірна модель називається RGB-моделлю за першими літерами англійських назв квітів (Red, Green, Blue).
Кодування інформації. Кодування інформації - це процес формування певного уявлення інформації.
У більш вузькому сенсі під терміном «кодування» часто розуміють перехід від однієї форми подання інформації до іншої, більш зручною для зберігання, передачі або обробки.
Комп'ютер може обробляти тільки інформацію, представлену в числовій формі. Вся інша інформація (звуки, зображення, показання приладів і т. д.) для обробки на комп'ютері повинна бути перетворена в числову форму. Наприклад, щоб перевести в числову форму музичний звук, можна через невеликі проміжки часу вимірювати інтенсивність звуку на певних частотах, представляючи результати кожного вимірювання в числовій формі. За допомогою комп'ютерних програм можна перетворювати отриману інформацію, наприклад «накласти» один на одного звуки від різних джерел.
Аналогічно на комп'ютері можна обробляти текстову інформацію. При введенні в комп'ютер кожна буква кодується певною кількістю, а при виведенні на зовнішні пристрої (екран або друк) для сприйняття людиною за цими числах будуються зображення букв. Відповідність між набором літер і числами називається кодуванням символів.
Як правило, всі числа в комп'ютері представлені за допомогою нулів і одиниць (а не десяти цифр, як це звично для людей). Іншими словами, комп'ютери зазвичай працюють у двійковій системі числення, оскільки при цьому пристрої для їх обробки виходять значно простішими.
4. Поняття та особливості відкриття інтегральних схем
Інтегральна (мікро)схема (ІС, ІМС, МС), чіп, мікрочіп (англ. chip -- тріска, уламок, фішка) -- мікроелектронний пристрій -- електронна схема довільної складності, виготовлена на напівпровідниковому кристалі (чи плівці) і поміщена в нерозбірний корпус. Часто під інтегральною схемою (ІС) розуміють власне кристал або плівку з електронною схемою, а під мікросхемою (МС) -- ІС, вкладену в корпус. У той же час вираження «чіп компоненти» означає «компоненти для поверхневого монтажу» у відмінності від компонентів для традиційної пайки в отвори на платі.
Тому вірніше говорити «чіп мікросхема», маючи на увазі мікросхему для поверхневого монтажу. В даний момент (2006 рік) велика частина мікросхем виготовляється в корпусах для поверхневого монтажу.
У 1958 році двоє вчених, що живуть у зовсім різних місцях, винайшли практично ідентичну модель інтегральної схеми. Один з них, Джек Кілби, працював на Texas Instruments, іншої, Роберт Нойс, був власником компанії по виробництву напівпровідників Fairchild Semiconductor Corporation. Обох об'єднало питання: «Як у мінімум місця вмістити максимум компонентів?». Транзистори, резистори, конденсатори й інші деталі в той час розміщалися на платах окремо, і учені вирішили спробувати їх об'єднати в один монолітний кристал з напівпровідникового матеріалу. Тільки Кілби скористався германієм, а Нойс віддав перевагу кремнію.
У 1959 році вони окремо один від одного одержали патенти на свої винаходи -- почалося протистояння двох компаній, що закінчилося мирним договором і створенням спільної ліцензії на виробництво чіпів. Після того як у 1961 році Fairchild Semiconductor Corporation пустила чіпи у вільний продаж, їхній відразу стали використовувати у виробництві калькуляторів і комп'ютерів замість окремих транзисторів, що дозволило значно зменшити розмір і збільшити продуктивність.
5. Рівні проектування
· Фізичний -- методи реалізації одного транзистора (або невеликої групи) у виді легованих зон на кристалі.
· Електричний -- принципова електрична схема (транзистори, конденсатори, резистори і т.п.).
· Логічний -- логічна схема (логічні інвертори, елементи ИЛИ-НІ, И-НІ і т.п.).
· Схемо- і системотехнічний рівень -- схемо- і системотехнічна схеми (тригери, компаратори, шифратори, дешифратори, АЛУ і т.п.).
· Топологічний -- топологічні фотошаблони для виробництва.
· Програмний рівень (для мікроконтролерів і мікропроцесорів) -- команди ассемблера для програміста.
В даний час велика частина інтегральних схем розробляється за допомогою САПР, що дозволяють автоматизувати і значно прискорити процес одержання топологічних фотошаблонів.
6. Класифікація інтегральних схем, технологія виготовлення
Ступінь інтеграції
У СРСР минулому запропоновані наступні назви мікросхем у залежності від ступеня інтеграції (у дужках кількість елементів для цифрових схем):
· МІС -- мала інтегральна схема (до 100 елементів у кристалі);
· СІС -- середня інтегральна схема (до 1 000);
· ВІС -- велика інтегральна схема (до 10 000);
· ЗВІС -- зверхвелика інтегральна схема (до 1 мільйона);
· УВІС -- ультравелика інтегральна схема (до 1 мільярда);
· ГВІС -- гігавеликі (більш 1 мільярда).
В даний час назва ГВІС практично не використовується (наприклад, останні версії процесорів Pentium 4 містять поки кілька сотень мільйонів транзисторів), і всі схеми з числом елементів, що перевищують 10 000, відносять до класу ЗВІС, вважаючи УВІС його підкласом.
Технологія виготовлення
· Напівпровідникова мікросхема -- всі елементи і межелементние з'єднання виконані на одному напівпровідниковому кристалі (наприклад, кремнію, германія, арсеніду галію).
· Плівкова мікросхема -- всі елементи і межелементние з'єднання виконані у виді плівок:
o товстоплівкова інтегральна схема;
o тонкоплівкова інтегральна схема.
· Гібридна мікросхема -- крім напівпровідникового кристалу містить трохи безкорпусних діодів, транзисторів і(чи) інших електронних компонентів, поміщених в один корпус.
Вид оброблюваного сигналу
· Аналогові
· Цифрові
· Аналого-цифрові
Аналогові мікросхеми -- вхідні і вихідні сигнали змінюються за законом безупинної функції в діапазоні від позитивного до негативної напруги харчування.
Цифрові мікросхеми -- вхідні і вихідні сигнали можуть мати два значення: логічний чи нуль логічна одиниця, кожному з який відповідає визначений діапазон напруги. Наприклад, для мікросхем Ттл-логіки при харчуванні +5 В діапазон напруги 0 .0,8 В відповідає логічному нулю, а діапазон 2,4 .5 У відповідає логічній одиниці. Для мікросхем Есл-логіки при харчуванні ?5,2 В: логічна одиниця -- це ?0,8 .?1,03 В, а логічний нуль -- це ?1,6 .?1,75 В.
Аналого-цифрові мікросхеми сполучають у собі форми цифрової й аналогової обробки сигналів. В міру розвитку технологій одержують усе більше поширення.
Основним елементом аналогових мікросхем є транзистори (біполярні чи польові). Різниця в технології виготовлення транзисторів істотно впливає на характеристики мікросхем. Тому нерідко в описі мікросхеми вказують технологію виготовлення, щоб підкреслити тим самим загальну характеристику властивостей і можливостей мікросхеми. У сучасних технологіях поєднують технології біполярних і польових транзисторів, щоб домогтися поліпшення характеристик мікросхем.
· Мікросхеми на уніполярних (польових) транзисторах -- самі економічні (по споживанню струму):
o МОП-логіка (метал-окисел-напівпровідник логіка) -- мікросхеми формуються з польових транзисторів n-МОП чи p-МОП типу;
o КМОП-логіка (комплементарна МОП-логіка) -- кожен логічний елемент мікросхеми складається з пари взаємодоповнюючих (комплементарних) польових транзисторів (n-МОП і p-МОП).
· Мікросхеми на біполярних транзисторах:
o РТЛ -- резисторно-транзисторна логіка (застаріла, замінена на ТТЛ);
o ДТЛ -- діод-транзисторна логіка (застаріла, замінена на ТТЛ);
o ТТЛ -- транзисторно-транзисторна логіка -- мікросхеми зроблені з біполярних транзисторів із багатоемітерними транзисторами на вході;
o ТТЛШ -- транзисторно-транзисторна логіка з діодами Шотки -- удосконалена ТТЛ, у якій використовуються біполярні транзистори з ефектом Шотки.
o ЕСЛ -- еміттерно-звязана логіка -- на біполярних транзисторах, режим роботи яких підібраний так, щоб вони не входили в режим насичення, -- що істотно підвищує швидкодію.
КМОП і ТТЛ (ТТЛШ) технології є найбільш поширеними логіками мікросхем. Де небходимо заощаджувати споживання струму, застосовують Кмоп-технологию, де важливіше швидкість і не потрібно економія споживаної потужності застосовують Ттл-технологію. Слабким місцем Кмоп-микросхем є уразливість від статичної електрики -- досить торкнутися рукою висновку мікросхеми і її цілісність уже не гарантується. З розвитком технологій ТТЛ і КМОП мікросхеми по параметрах зближаються і як наслідок, наприклад, серія мікросхем 1564 -- зроблена за технологією КМОП, а функціональність і розміщення в корпусі як у ТТЛ технології.
Мікросхеми, виготовлені по Есл-технології є найшвидшими, але найбільше енергоспоживаючими і застосовувалася при виробництві обчислювальної техніки, коли найважливішим параметром була швидкість обчислення. У СРСР самі продуктивні ЕОМ типу ЄС106х виготовлялися на Есл-мікросхемах. Зараз ця технологія використовується рідко.
7. Призначення
Інтегральна мікросхема може володіти закінченим, як завгодно складним, функціоналом -- аж до цілого мікрокомп'ютера (однокристальний мікрокомп'ютер).
Аналогові схеми
· Операційні підсилювачі
· Генератори сигналів
· Фільтри (у тому числі на пьезоеффекте)
· Аналогові умножители
· Стабілізатори джерел харчування
· Мікросхеми керування імпульсних блоків харчування
· Перетворювачі сигналів
Цифрові схеми
· Логічні елементи
· Тригери
· Регістри
· Буферні перетворювачі
· Модулі пам'яті
· Мікроконтролери
· (Мікро)процесори (у тому числі ЦПУ в комп'ютері)
8. Аналогово-цифрові схеми
· ЦАП і АЦП
В електроніці цифро-аналоговий перетворювач (ЦАП) -- пристрій для перетворення цифрового (звичайно двоичного) коду в аналоговий сигнал (струм, чи напруга заряд). Цифро-аналогові перетворювачі є інтерфейсом між абстрактним цифровим світом і реальними аналоговими сигналами.
Аналого-цифровий перетворювач (АЦП) робить зворотну операцію.
Звичайно ЦАП одержує на вхід цифровий сигнал в імпульсно-кодовій модуляції (PCM -- pulse-code modulation). Задача перетворення різних стиснутих форматів у PCM виконується відповідними кодеками.
Аналого-цифровий перетворювач (АЦП) -- пристрій, що перетворить вхідний аналоговий сигнал у дискретний код (цифровий сигнал). Зворотне перетворення здійснюється за допомогою ЦАП (цифро-аналогового перетворювача).
Як правило, АЦП -- електронний пристрій, що перетворить напруга в двоичное цифровий код. Проте, деякі неелектронні пристрої, такі як перетворювач ріг-код, варто також відносити до АЦП.
Серії мікросхем
Аналогові і цифрові мікросхеми випускаються серіями. Серія -- це група мікросхем, що мають єдине конструктивно-технологічне виконання і призначені для спільного застосування. Мікросхеми однієї серії, як правило, мають однакові напруги джерел харчування, погоджені по вхідних і вихідних опорах, рівням сигналів.
Корпуса мікросхем
Мікросхеми випускаються в двох конструктивних варіантах -- корпусному і бескорпусном.
Бескорпускная мікросхема -- це напівпровідниковий кристал, призначений для монтажу в гібридну чи мікросхему мікрозборку.
Корпус -- це частина конструкції мікросхеми, призначена для захисту від зовнішніх впливів і для з'єднання з зовнішніми електричними ланцюгами за допомогою висновків. Корпуси стандартизовані для спрощення технологічного процесу виготовлення виробів з різних мікросхем. Число стандартних корпусів обчислюється сотнями!
У російських корпусах растояние між висновками виміряється в милиметрах і найбільше часто це 2,5 мм чи 1,25 мм. В імпортних мікросхем растояние вимірюють у дюймах, використовуючи величину 1/10 чи 1/20 дюйма, що відповідає 2,54 і 1,28 мм. У корпусах до 16 висновків ця різниця не значна, а при великих розмірах идеинтичние корпуса вже несумісні.
У сучасних імпортних корпусах для поверхневого монтажу застосовують і метричні розміри: 0,8 мм; 0,65 мм і інші.
Специфічні назви мікросхем
З великої кількості цифрових мікросхем виготовлялися процесори. Фірма Intel першої виготовила мікросхему Intel 4004, що виконувала функції процесора. Такі мікросхеми одержали назва мікропроцесор. Мікропроцесори фірми Intel удосконалювалися: Intel 8008, Intel 8080, Intel 8086, Intel 8088 (на основі двох останніх мікропроцесорів, фірмою IBM, були випущені перші персональні комп'ютери).
Мікропроцесор виконує в основному функції АЛУ (арифметико-логічний пристрій), а додаткові функції зв'язку з периферією виконувалися за допомогою спеціально для цього виготовлених наборів мікросхем. Для перших мікропроцесорів число мікросхем у наборах обчислювалося десятками, а зараз це набір із двох-трьох мікросхем, що одержав термін чипсет.
Мікропроцесори з убудованими контролерами пам'яті і введення-висновку, ОЗУ і ПЗУ, а також іншими додатковими функціями називають мікроконтролерами.
Висновок
Інформацію можна класифікувати різними способами, і різні науки це роблять по-різному. Наприклад, у філософії розрізняють інформацію об'єктивну і суб'єктивну. Об'єктивна інформація відображає явища природи і людського суспільства. Суб'єктивна інформація створюється людьми і відображає їх погляд на об'єктивні явища.
В інформатиці окремо розглядається аналогова інформація і цифрова. Це важливо, оскільки людина завдяки своїм органам почуттів, звик мати справу з аналоговою інформацією, а обчислювальна техніка, навпаки, в основному, працює з цифровою інформацією.
Людина сприймає інформацію за допомогою органів почуттів. Світло, звук, тепло - це енергетичні сигнали, а смак і запах - це результат впливу хімічних сполук, в основі якого теж енергетична природа. Людина відчуває енергетичні впливу безперервно і може ніколи не зустрітися з однією і тією ж їх комбінацією двічі. Немає двох однакових зелених листків на одному дереві і двох абсолютно однакових звуків - це інформація аналогова. Якщо ж різним кольорам дати номери, а різним звукам - ноти, то аналогову інформацію можна перетворити у цифрову.
Кодування інформації. Кодування інформації - це процес формування певного уявлення інформації.
У більш вузькому сенсі під терміном «кодування» часто розуміють перехід від однієї форми подання інформації до іншої, більш зручною для зберігання, передачі або обробки.
Комп'ютер може обробляти тільки інформацію, представлену в числовій формі. Вся інша інформація (звуки, зображення, показання приладів і т. д.) для обробки на комп'ютері повинна бути перетворена в числову форму. Наприклад, щоб перевести в числову форму музичний звук, можна через невеликі проміжки.
Список використаної літератури
1. Агальцов В.П., Титов В.М. Інформатика для економістів: Підручник. - М.: ІД «ФОРУМ»: ИНФРА-М, 2006. - 448 с.
2. Інформатика для економістів: Підручник / За заг. ред. В.М. Матюшко. - М.: ИНФРА-М, 2007. - 880с.
3. Інформатика. Загальний курс: Підручник / За ред. В.І. Колесникова. - М.: Видавничо-торгова корпорація «Дашков і К ?»; Ростов н / Д: Наука-Прес, 2008. - 400 с.
4. Інформатика: Практикум з технології роботи на комп'ютері / Под ред. Н.В. Макарової. - М.: Фінанси і статистика, 2005. - 256 с.
5. Інформатика: Підручник / За заг. ред. О.М. Данчула. - М.: Изд-во РАГС, 2004. - 528 с.
6. Соболь Б.В. Інформатика: Підручник / Соболь Б.В., Галин А.Б., Панов Ю.В., Рашидова Є.В., Садовій М.М. - М.: Ростов н / Д: Фенікс, 2005. - 448 с.
7. Абрамов И.И. Лекции по моделированию элементов интегральных схем. - М., 2002.
8. Мазор Ю., Мачуський Є. Радіотехніка. Енциклопедичний навчальний довідник. - К., 2001.
9. Прищепа М.М., Погребняк В.П. Мікроелектроніка: В 3 ч. Ч. 2. Елементи мікросхемотехніки. - К., 2006.
Размещено на Allbest.ru
...Подобные документы
Значимість двійкової системи числення для кодування інформації. Способи кодування і декодування інформації в комп'ютері. Відповідність десятковій, двійковій, вісімковій і шістнадцятковій систем числення. Двійкове кодування інформації, алфавіт цифр.
презентация [1,4 M], добавлен 30.09.2013Практичне застосування систем кодування знакової та графічної інформації в електронних обчислювальних машинах. Позиційні системи числення. Представлення цілих і дійсних чисел. Машинні одиниці інформації. Основні системи кодування текстових даних.
практическая работа [489,5 K], добавлен 21.03.2012Характеристика обчислювальної техніки як сукупності технічних і математичних засобів для обробки інформації. Поняття, одиниці виміру і способи представлення інформації. Арифметична і логічна будова електронних обчислювальних машин, їх еволюція.
презентация [793,1 K], добавлен 05.09.2014Визначення кількості інформації в повідомленні, ентропії повідомлень в каналі зв’язку, ентропії двох джерел повідомлень. Продуктивність джерела повідомлень, швидкість передачі інформації та пропускна здатність каналу зв’язку. Кодування, стиснення даних.
контрольная работа [590,8 K], добавлен 07.06.2012Визначення кількості інформації на символ повідомлення, обчислення диференційної ентропії системи. Розрахунок послаблення сигналу у децибелах, знаходження граничної його міцності. Суть обчислення ймовірності помилкового приймання кодової комбінації.
контрольная работа [165,4 K], добавлен 10.05.2013Основні поняття теорії інформації та їх роль у визначенні фундаментальних меж представлення інформації. Телевізійні стандарти стиснення. Кодер і декодер каналу. Стандарти стиснення двійкових та півтонових нерухомих зображень. Кодування бітових площин.
дипломная работа [8,1 M], добавлен 02.10.2014Порядок та етапи розробки системи загальнодержавної класифікації економічної інформації, її призначення. Діяльність міжнародних статистичних організацій. Завдання Єдиної системи класифікації і кодування інформації. Можливості електронної пошти НБУ.
контрольная работа [39,1 K], добавлен 26.07.2009Імовірнисний підхід у теорії ощадливого кодування. Оцінка інформативності ознак та їх оптимальна градація. Застосування імовірнісних методів для підвищення ефективності ощадливого кодування відеоінформації. Ефективні алгоритми кодування інформації.
реферат [1,6 M], добавлен 29.06.2009Вразливість інформації в автоматизованих комплексах. Концепція захисту інформації. Комплекс основних задач при розробці політики безпеки. Стратегія та архітектура захисту інформації. Політика безпеки інформації. Види забезпечення безпеки інформації.
реферат [243,2 K], добавлен 19.12.2010Можливі канали витоку інформації. Джерела виникнення електромагнітних полів. Основні параметри можливого витоку інформації каналами ПЕМВН. Розроблення системи захисту інформації. Захист інформації блокуванням загроз без використання засобів ТЗІ.
дипломная работа [80,0 K], добавлен 13.03.2012Вартість інформаційних технологій для бізнесових процесів. Вартість інформації з погляду її специфікації. Визначення ціни інформації виходячи з граничної вартості. Визначення вартості інформації, як суми витрат на її придбання. Сучасні пропозиції.
реферат [22,1 K], добавлен 22.12.2008Арифметичні основи, на яких ґрунтується функціонування комп'ютерної техніки. Основні поняття дискретної обробки інформації. Системи числення, форми подання чисел у комп'ютерах. Арифметичні операції, що виконуються над числами, подані у двійковому коді.
учебное пособие [903,6 K], добавлен 18.12.2010Принципи, цілі та завдання, напрямки робіт із захисту інформації. Суб'єкти системи захисту інформації у Російській Федерації. Основні організаційно-технічні заходи, об'єкти та засоби захисту інформації. Види загроз безпеки, матеріальні носії інформації.
реферат [23,6 K], добавлен 27.03.2010Акт категоріювання. Акт обстеження. Наказ на контрольовану зону. Модель загроз. Технічний захист інформації. Комплексна система захисту інформації. Перелік вимог з захисту інформації. Об'єкти, що підлягають категоріюванню.
курсовая работа [17,6 K], добавлен 19.07.2007Побудова комплексної системи захисту інформації на OOO "Віпіком". Забезпечення інженерно-технічними заходами конфіденційності, цілісності та доступності інформації. Своєчасне виявлення і протидія загрозам безпеці інформації з обмеженим доступом.
курсовая работа [343,5 K], добавлен 05.01.2014Функції систем захисту інформації, основні терміни та визначення. Введення в криптологію, нормативно-правова база захисту інформації. Впровадження новітніх інформаційних телекомунікаційних системи. Використання та здійснення електронного документообігу.
реферат [24,0 K], добавлен 03.10.2010Застосування криптографічного захисту інформації від випадкової чи навмисної її модифікації, поняття цілісності інформації та ресурсів. Розповсюдженням електронного документообігу, застосування цифрового підпису, характеристика методів шифрування.
курсовая работа [140,9 K], добавлен 01.03.2012Криптологія - захист інформації шляхом перетворення, основні положення і визначення. Криптографія - передача конфіденційної інформації через канали зв'язку у зашифрованому виді. Системи ідентифікації, характеристика алгоритмів шифрування; криптоаналіз.
реферат [125,8 K], добавлен 19.12.2010В пам'яті машини (на дискові чи в ОЗУ) данні зберігаються в вигляді послідовності нулів та одиниць. Кожна мінімальна комірка файлу зберігає нуль або одиницю. Спосіб представлення інформації на ПК. Ідея кодування з стисненням. Алгоритм Хаффмана.
курсовая работа [55,7 K], добавлен 27.06.2008Структура економічної інформації підприємства, її основні елементи та їх взаємозв’язок. Структуризація економічної інформації. Класифікація та різновиди інформаційних систем. Особливості СУБД Approach, Paradox, Access, перспективи їх подальшого розвитку.
контрольная работа [28,9 K], добавлен 27.07.2009