Контроверза: штучнии інтелект - природний інтелект? (проблема комп'ютерного розуміння)
Характеристика іманентної та комунікативної функцій природної мови. Вивчення ідей універсальної характеристики та раціональної символіки. Проблеми побудови комп'ютерних програм розуміння природних мов. Розробка лінгвістики трансформаційних граматик.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | статья |
Язык | украинский |
Дата добавления | 06.04.2019 |
Размер файла | 26,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
УДК 004.383.8
КОНТРОВЕРЗА: ШТУЧНИИ ІНТЕЛЕКТ - ПРИРОДНИЙ ІНТЕЛЕКТ? (ПРОБЛЕМА КОМП'ЮТЕРНОГО РОЗУМІННЯ)
Мороз О. Я.
Кандидат філософських наук,старший науковий співробітник відділу філософських проблем природознавства та екології Інституту філософії імені Г. С. Сковороди НАН України
У статті аналізуються різні аспекти проблеми комп'ютерного розуміння, розкривається сутність основних підходів до її вирішення. Ключові слова: штучний інтелект, комп'ютер, комп'ютерне розуміння, комп'ютерне знання, комп'ютерні технології.
В статье анализируются различные аспекты проблемы компьютерного понимания, раскрывается сущность основных подходов к ее решенню.
Ключевые слова: искусственный интеллект, компьютер, компьютерное понимание, компьютерное знание, компьютерные технологии.
The article analyzes the various aspects of computer understanding the essence of the main approaches to its solution.
Keywords: artificial intelligence, computer, computer understanding, computer knowledge, computers technolodge.
Природна мова характеризується не тільки іманентною їй комунікативною функцією, тобто її роллю як універсального засобу людського спілкування. Мова водночас--це спосіб виявлення людиною таких унікальних, тільки їй одній іманентних особливостей (які, власне, є вираженням людської сутності), як свідомість, мислення, розум, інтелектуальна діяльность, cвіт емоцій. Тобто для людини мова--це ще й засіб виявлення нею своїх інтелектуальних здібностей, своєї унікальності як Homo sapiens, як людської особистості. Ця обставина й знаходить своє вираження у проблемі дослідження органічного взаємозв`язку мови та мислення, котра традиційно відзначається невпинним зростанням актуальністі, маючи уже чималу історію. Тут передусім доречно згадати геніального Ляйбніца, задум якого полягав у створенні на основі математики (арифметики та алгебри) універсального логічного методу, який давав би можливість замінити змістовні міркування формальним обчисленням, служив би мисленню своєрідною ниткою Аріадни: свою найважливішу мету він вбачав у розробці загальних основ науки, де роль головного методу відводилась комбінаториці- науці оперування формулами й символами. Загалом в основу розробки такого універсального логічного методу--”всезагальної науки” -- були покладені Ляйбніцом дві кардинальні ідеї: ідея універсальної характеристики (characteris- tica universalis), тобто--системи універсальної мови, та раціональної символіки (точніше методу) Саме завдяки введенню в логіку символів для позначення логічних констант можна, вважав він, вирішувати проблему зведення усіх понять до певної сукупності елементарних, які й утворюватимуть своєрідну “азбуку (алфавіт) людських думок”, а звичайні міркування замінити оперуванням із знаками за правилами числення висловлювань. Ці правила мають цілком однозначно визначати не тільки послідовність виконання дій над знаками, а й самі дії.
Тож розробка універсальної і адекватної логічної мови (мови науки) та раціональної символіки відкриває, на переконання Ляйбніца, можливості для застосування обчислень не тільки до суто математичних, а й будь-яких умовиводів загалом (для чого вони мають бути настільки ж наочними, прозорими, як і математичні, тобто такі, щоб їх помилковість ставала очевидною). За його задумом “універсальна характеристика”--струнка універсальна система символів, що позначає прості елементи об'єктів, які становлять предмет досліджень певної дедуктивної науки, -- дає можливість виводити з дослідних даних усі наслідки, які тільки у принципі можуть бути з них виведені, служить ефективним засобом логічного аналізу будь-яких проблем, а також універсальним засобом вираження думок. У такому разі, вважав він, застосування обчислень до процесу умовиводу виявить цілковиту безплідність дискусій між ученими. Навіть філософи, вважав він, замість того, щоб вдаватись до непродуктивних суперечок для визначення, хто правий, візьмут ься за пера й почнуть обчислювати. У цьому контексті цілком зрозуміло, чому у своїй програмі формалізації мови та мислення, Ляйбніц особливого значення надавав розробці логічної мови й раціональної символіки (“characteristica universalis”) та числення умовиводів (“calculus ratюсіnator”). Для нього логіка--це наука, що “вчить інші науки методу відкриття і доведення всіх висновків, що випливають із заданих засновків” [1, c. 15-16], а логічні числення--це передусім логіка відкриття нових істин, а не просто лише логічний засіб доведення уже відомих результатів. Тож, за задумом Ляйбніца, саме “characteris- tica universalis” і “calculus ratiocinator” мали в своїй органічній єдності являти універсальний логічний метод представлення й розвитку будь- якого знання (тобто, власне, всього людського знання, включаючи й філософські істини, естетичні принципи та ін. ) мова універсальний комп'ютерний лінгвістика
Принципово новий рівень дослідження цієї проблеми асоціюється з виникненням інформаційно-комп'ютерної техніки (hardware), розробкою її програмно-математичного забезпечення (software). Особливої актуальності ця складна комплекасна проблема набула в зв'язку з парадигмальними змінами, викликаними дослідженнями в галузі штучного інтелекту (ШІ), пов'язаними зі створенням інтенсивно прогресуючих інтелектуальних інформаційно-комп'ютерних технологій та систем, ефективним застосуванням строгих логіко-математичних засобів (у їх активній взаємодії з засобами лінгвістики--комп'ютерної, когнітивної та ін., когнітивної психології тощо) при розробці мов програмування й аналізі природних мов, трансформувавшись у даному контексті в проблему побудови різноманітних комп`ютерних програм розуміння природних мов. Цілком резонно вважалося, що дослідженння з проблеми конструювання комп`ютерів, здатних розуміти природні мови, сприятимуть поглибленню уявлень про функціювання людського мозку як продуценту мислення, інтелектуальну діяльність, що, своєю чергою, служитиме основою розробок інтелектуальних комп`ютерних програм моделювання цієї діяльності, її механізмів та процесів. Зазначені парадигмальні зміни були спричинені передусім вкрай нераціональними дослідженнями перших програм комп'ютерного перекладу, зініційованими у 1949 р. ідеями У Уївера “вирішення світової проблеми перекладу” (котра вперше експліцитно була сформульована А. Бутом та У Уївером у 1946 р. ), викладеними ним у меморандумі “Translation”, і проведеним у 50-і рр. ХХ ст. Е. Дж. Еттінгером (керівник) у режимі використання одних лише формальних правил граматики, тобто засобів синтаксису (синтаксичних структур та ідентифікації лексичних одиниць, що входять до них) і знання окремих слів. Хоча синтаксичні програми комп`ютерного експериментування з природними мовами у межах (синтаксичного) підходу спиралися на потужний арсенал логіко-математичних засобів, з часом (десь до середини 60-х рр. ХХ ст. ) вони були поступово в основному згорнуті: спеціалісти з ШІ почали все глибше усвідомлювати, що для здійснення функції перекладу комп`ютер (як і людина) має знати, що означають слова чи речення, розуміти мову. Правда, окремі вчені продовжували свої досліджененя, залишаючись у межах синтаксичного підходу, чому особливо сприяли теорії породжуючих і трансформаційних граматик, розроблені в структурній лінгвістиці Н. Хомським з метою обгрунтування гіпотези про нескінченну породжуючу здатність (парадоксальну за своєю суттю) людського інтелекту.
Тож велися інтенсивні пошуки оригінальних та ефективних способів вирішення цієї непростої проблеми. Це був період визрівання та реалізації радикальних парадигмальних змін у ряді тісно пов'язаних між собою наукових галузей--ШІ, психології, лінгвістиці та ін. Різко зріс інтерес до вивчення природних мов через створення комп'ютерних програм їх дослідження, розуміння та інтерпретації. В контексті гострих дискусій, що спонукали до критичного перегляду позицій, поглядів було висунуто чимало блискучих ідей, запропоновано оригінальних концепцій, методів, отримано важливих резу-льтатів. Так, розроблена Дж. Маккарті (автором низки оригінальних ідей та концепцій у галузі ШІ) гнучка процедурна мова програмування Лісп (Lisp--від List Processing) забезпечувала оптимальний розподіл зайнятої даними пам'яті. Організована в такий спосіб програма здатна інтерпретуванти будь-яку іншу програму як дані, що дає можливість створювати гнучкі динамічні програми моделювання мислення. Така мова уможливлює розробку діалогових програм--програм прямої взаємодії з комп'ютером (інтерфейсу). Прийшло усвідомлення того, що різні аспекти цілісного феномена мови нероздільні, що функція синтаксису невіддільна від функції семантики, що умова знання значення окремих слів має бути замінена більш сильною вимогою--необхідністю розуміння речень і висловлювань, усього контексту. Т. Виноград був, певне, чи не першим, хто, усвідомивши необхідність створення принципово нових програм обробки природної мови, її розуміння та інтерпретації, функціонально об'єднав у своїй програмі SHRDLU синтаксис, семантику та здатність до дискурсу. Всі ці три функції виконувались сумісно, а не послідовно, як раніше. Ця програма стала поворотним пунктом у дослідженнях з ШІ щодо розуміння природної мови. На перший план вийшла проблема породження знань, яка сягає ідей Н. Хомського і пов'язана з питаннями репрезентації знань, яким значну увагу приділяли, зокрема, М. Р. Квілліан, М. Мінський, Р. Шенк, запропонувавши, відповідно, концепції--семантичних мереж, фреймів, сценаріїв (скриптів). Це--моделі складних ієрархічних структур пам'яті, котрі репрезентуючи семантичні відношення між концептами, імітують властиве людині розуміння природної мови.
Проблема навчання комп'ютера розумінню природної мови стала однією з основних не тільки в проблематиці машинного перекладу, а й у галузі ШІ. Парадоксально, що тут одним із серйозних каменів спотикання виявилась відсутність строгої експлікації самого поняття ““розуміння”. Гостро постало питання, який з факторів важливіший для розуміння мови--сенс слів чи граматика? У цьому зв'язку різко зростає інтерес до дослідження природних мов, створення програм їх розуміння та інтерпретації. На тлі пристрастних дискусій, у контексті критичного перегляду позицій, переоцінки цінностей було запропоновано чимало оригінальних ідей, отримано важливих результатів, які тією чи іншою мірою стосувались цієї проблематики. Так, Дж. Маккарті в кінці 50-х рр. висунув блискучу ідею розподілу часу--режиму функціювання комп'ютера, що викликало радикальне підвищення можливостей комп'ютерних систем в обслуговуванні користувачів. Завдяки часовому режимові всім програмістам (чи дослідникам з ШІ), які працюють за різними терміналами достатньо потужного комп'ютера, забезпечується практично одночасний доступ до його процесора й пам'яті, що значною мірою мінімізує затрати їхнього часу, звільняючи їх від необхідності чекати, поки буде опрацьова ний весь пакет їхніх програм. Розроблена Дж. Маккарті мова Лісп виявилась гнучкою процедурною мовою програмування, що призначалася для обробки нечислових символів (даних і програм). Лісп забезпечував оптимальний розподіл зайнятої даними пам'яті. Організована у такий спосіб програма здатна інтерпретувати будь-яку іншу програму (й саму себе) як дані, що вможливлює складати гнучкі й динамічні програми, а це особливо важливо для проведення тих чи інших спроб моделювання мислення. Наявність такої мови відкривала можливості для розробки програм безпосередньої взаємодії з комп'ютерами (діалогових програм), яку забезпечував режим розподілу часу. Функція діалогових програм полягала у маніпуляції словами, основуючись на їхньому сенсі. Однією з перших таких програм була створена у середині 60-х рр. ХХ ст. Дж. Вейценбаумом “Еліза” -- універсальна система, призначена для підтримання діалогу на ту чи ту закладену в неї тему (наприклад, “Лікар”) на основі розуміння нею природної (англійської) мови [2]. Проте враження, що “Еліза” розуміє співрозмовника було, швидше всього, ілюзорне. Сам Дж. Вейценбаум був схильний вважати, що “Еліза” радше ефектно імітувала здатність розуміння мови, ніж володіла ним.
Обмежені можливості програм, основаних на синтаксисі, свідчили про явну принципову недостатність одних лише формальних правил граматики та знання значень окремих слів для розуміння мови комп'ютером. Погляди вкотре знову були звернуті на семантику. Прихильники семантичного підходу небезпідставно вважали, що правила логіки надто прості, щоб охопити весь арсенал засобів (не тільки імпліцитних, а й експліцитних), якими для розуміння мови користуються люди. Велись інтенсивні пошуки оригінальних та ефективних шляхів вирішення цієї непростої проблеми. Це був період визрівання та реалізації радикальних парадигмальних змін у ряді тісно пов'язаних між собою наукових галузях--у ШІ, психології, структурній лінгвістиці та ін. Установлення істотних аналогій між головним мозком і комп'ютером, їх функціюванням привело до формуванння комп'ютерної метатеоретичної метафори [ 3 ], що спричинило виникнення когнітивного підходу в психології, ШІ, лінгвістиці тощо (по суті, ініціювало становлення когнітивноїпсихології [5], когнітивної лінгвістики та ін., які утворюють нову комплексну наукову галузь--когнітивну науку чи когнітологію). Цій метафорі належить важлива роль як у дослідженні структури мозку, механізмів його діяльності, так і в конструюванні інтелектуальних систем--систем, здатних здійснювати функції, що традиційно вважались прерогативою людини, її головного мозку. Дослідження когнітивних структур знань, порівняння споособів представлення знань у головному мозку та комп'ютері, форми й можливості їх використання спонукають перегляд поглядів не тільки стосовно способів збереження знань у пам'яті людей та інтелектуальних систем, а й на логіку, якою користуються люди і яка застосовується при створенні цих систем, що привело до необхідності внесення певних корективів. Реалізація потужної системи, заснованої на знаннях, здійснюється з допомогою відповідного представлення знань. Необхідність зафіксувати відмінність між даними та знаннями привела до потреби у побудові певних формалізмів у вигляді моделей (мов) представлення знаннь у комп'ютері, які відображають такі ознаки, що характеризують знання, як внутрішня інтерпретованість, структурованість, зв'язність та активність.
Тож проблема перекладу, яка спочатку здавалась простою, невдовзі постала як комплекс складних проблем. Це спонукало дослідників до пошуку нових способів її вирішення. Радикальних концептуальних змін зазнали самі підходи до неї. Наразі найбільш розробленими є два із них, що грунтуються, відповідно, на ідеях герменевтики та лінгвістичної філософії. При герменевтичному підході у кожному слові вбачається потенційна нескінченність сенсів. Тому слово набуває актуального сенсу в конкретному контексті, що звужує потенційну смислову нескінченність. Тут основною проблемою дослідження сенсу є стркуктура тексту. Визначальна ідея аналітичної філософії полягає в аналізі сенсу слова через його розчленування на семантичні компоненти. Отже, різні парадигми--герменевтики та лінгвістичної філософії--спричинили появу цілком відмінних програм розуміння мови. Водночас абсолютно різними постають стратегії побудови структури комп'ютерних програм для розуміння природномовного тексту, що спираються на ці парадигми. При орієнтації на лінгвістичну філософію, в якій основними засобами створення програм є аналіз і синтез, важливим є вдалий вибір “елементарних сенсів”, з яких з допомогою відповідних логічних числень чи графів можна побудувати сенс будь-якого слова. Герменевтичний підхід сприяє розробці програм з цілком відмінною структурою. Визначальною основою тут є “вписування” слів у певний набір так званих універсальних пояснювальних схем. На противагу герменевтич- ному підходу, який відкриває можливості для розуміння тексту, підхід лінгвістичної філософії, сприяючи плідним досягненням у лінгвістичній семантиці, водночас є безсилим у дослідженні тексту.
На тлі інтенсифікації досліджень з цієї проблематики все більшої актуальності набирає вихідне питання (що історично вперше з усією гостротою постало в “тесті Тьюрінга”): чи може комп'ютер розуміти? Тут сформувались дві альтернативні позиції: 1) належним чином запрограмований комп'ютер здатний до розуміння; 2) ніякий комп'ютер в принципі не може бути наділений властивістю розуміти. Між прихильниками цих точок зору зламано чимало списів. Першої з них дотримуються прихильники концепції, що мислення--це обчислення (З. Пилишин, Дж. Тодор, Г Моравек, Р. Курцвейл та ін. ). Передусім ця концепція не узгоджується з теоремою Геделя про неповноту ( Е. Маккормак, Р. Пенроуз [4] та ін). Показовим контраргументом тут є оригінальні концепції “китайська кімната” та “силіконові мізки” запропоновані Д. Серлем. Переконливою є також точка зору, згідно з якою комп'ютер може лише імітувати здатність розуміння, але не володіти цією здатністю (Дж. Вейценбаум та ін. ). Звісно, ці питання ще далеко не достатньо опрацьовані та висвітлені. Проте саме розуміння виступає тут як водорозділ між головним мозком людини та комп'ютером: мозок оперує як інформацією, так і знаннями, а комп'ютер--лише інформацією (зокрема й у формі моделей знань: семантичних мереж, фреймів, сценаріїв, продукцій тощо).
Теорія ШІ обгрунтовує потребу в універсальних пояснювальних схемах, оскільки без них, по суті, неможливо організувати функцію- вання інтелектуальних програм. Для неї особливо важливо збагнути, як формуються ці пояснювальні схеми. Це одне із тих питань, котрі не тільки надзвичайно актуальні, а й не менш складні. Загалом можна зазначити, що цей процес здійснюється через послідовне застосування базисних операторів онтологізації знання, головними з яких є метафори. Саме метафора, підкріплена численними прикладами, набуваючи поступово пояснювальної сили, перебираючи на себе пояснювальну функцію, трансформується в універсальну пояснювальну схему.
Філософські дослідження з герменевтики, предметом яких є процеси інтерпретації суб'єктом реальної дійсності та текстів, стають основою алгоритмів програм, що розуміють природну мову, а дослідження із семіотики, що вивчає знакові системи,--основою побудови програм інтерфейсу людина--комп'ютер. Розвиток таких абстрактних ідей якраз і становить ту саму суму знань, без яких немислиме конструювання інтелектуальних програм. Актуальність проблеми інтерпретації природномовного тексту пояснюється ще й тим, що вона тісно пов'язана з проблемою породження знань. Процес породження та інтерпретації текстів на природній мові є ключем для генерування знань. Так, розробка Н. Хомським лінгвістики трансформаційних (особливо породжуючих) граматик, була викликана настійною необхідністю обгрунтування гіпотези про нескінченну породжувальну здатність людського інтелекту, яка досягається фінітними засобами, засобами формально-логічного опису і пояснення цього унікального феномена. Йдеться про правомірність приписування людському розуму (яка грунтується, передусім, на деяких аргументах емпіричного характеру) такої парадоксальної за своєю суттю властивості, як, зокрема, здатність до продукування й розуміння необмеженої (потенціально не скінченної) множини речень на основі знання певної скінченної (хоча, можливо й довільно великої) множини слів. Обгрунтовуючи концепцію необмеженої продуктивної здатності мислення, Н. Хомський виходив саме з мовної компетенції. У цілому ним досить переконливо обгрунтована теза про породжуючий характер знання, який лежить в основі мовної компетентності, тобто, що знання мови (фактично скінченне) у принципі спроможне забезпечити породження необмеженої (нескінченної) множини речень. У концептуальному плані необмежена продуктивна здатність мислення, що забезпечується скінченними засобами, певним чином асоціюється з можливостями формально-аксіоматичних систем (теорій) в отриманні максимально можливої кількості висновків (наслідків) за можливо мінімальної кількості незалежних вихідних аксіом (принципів). Концепція продуктивності мислення, крім психології та лінгвістики, набирає чимдалі більшого застосування в стрімко прогресуючій галузі ШІ.
Список використаних джерел
Бурбаки Н. Очерки по истории математики (пер. с франц. ). -- М.: Мир, 1963.--292 с.
Вейценбаум Дж. Возможости вычислительных машин и челове- чесий разум. От сужденй к вычислениям (пер. с англ. ). -- М.: Радио и связь, 1982. -- 348 с.
Маккормак Э. Когнитивная теория метафры (пер. с англ. )// Теория метафоры. -- М., Прогресс, 1990.- С. 358 -386.
Пенроуз Р Тени разума: в поисках науки о сознании (пер. с англ.). -- М. -- Ижевск: Ин-т комп. исслед., 2005. --688 с.
Солсо Р. Когнитивная психология (пер. с англ. ). -- СПб., Питер, 2002. -- 591 с.
Размещено на Allbest.ru
...Подобные документы
Інтуїтивне розуміння поняття "інтелект". Основні проблемні середовища штучного інтелекту. Проблема неточних і неповних знань. Тест Тьюринга і фатичний діалог. Метод комп’ютерної реалізації фатичного діалогу. Принцип віртуальної семантичної сітки.
курсовая работа [560,0 K], добавлен 27.12.2007Загальна характеристика навчально-наукового комп'ютерного центру. Державні норми влаштування і обладнання кабінетів комп'ютерної техніки. Створення довідкової бази про факультет комп’ютерних систем для приймальної комісії у вигляді сайту для абітурієнтів.
отчет по практике [72,0 K], добавлен 07.07.2010Особливості архітектури комп'ютерних мереж. Апаратні та програмні засоби комп'ютерних мереж, їх класифікація та характеристика. Структура та основні складові комунікаційних технологій мереж. Концепції побудови та типи функціонування комп'ютерних мереж.
отчет по практике [1,2 M], добавлен 12.06.2015Підходи до розуміння проблеми штучного інтелекту. Тест Тьюринга і інтуїтивний підхід, символьний та логічний, агентно-орієнтований і гібридній. Машинний інтелект: загальна характеристика та головні сфери застосування на сьогодні, науковий напрямок.
курсовая работа [203,1 K], добавлен 09.04.2013Історія створення комп’ютерних комунікацій та принципи їх побудови. Характеристика устаткування для створення комп’ютерних мереж. Поняття адресації, види протоколів, їх розвиток, комбінування та особливості використання. Стандарти бездротових мереж.
курс лекций [1,3 M], добавлен 04.06.2011Сутність поняття "контроль". Оцінювання результатів навчально-пізнавальної діяльності учнів. Особливості комп’ютерного контролю знань. Підходи до зіставлення комп’ютерних програм контролю. Створення тесту з математики за допомогою програми MyTest.
курсовая работа [278,4 K], добавлен 24.04.2012Передумови та фактори, що зумовлюють необхідність комп’ютеризації у аптеці. Задачі та цілі, що вирішуються при використанні комп’ютерних програм в аптеці. Порівняльний аналіз деяких інформаційних систем для вибору постачальника лікарських засобів.
курсовая работа [318,4 K], добавлен 01.03.2013Способи виявлення й видалення невідомого вірусу. Спроби протидії комп’ютерним вірусам. Способи захисту комп’ютера від зараження вірусами та зберігання інформації на дисках. Класифікація комп'ютерних вірусів та основні типи антивірусних програм.
реферат [17,1 K], добавлен 16.06.2010Поняття штучного інтелекту, його порівняння з природним. Коротка характеристика особливостей використання штучного інтелекту в медицині, військовій справі та комп'ютерних іграх. Проблема взаємодії носіїв універсального штучного інтелекту та суспільства.
контрольная работа [29,6 K], добавлен 07.01.2014Вивчення історії кафедри "Комп’ютерної інженерії". Дослідження процесу складання, монтажу, налагодження, тестування апаратного забезпечення комп’ютерних систем і мереж. Науково-дослідні роботи у лабораторії "Програмного забезпечення комп’ютерних систем".
отчет по практике [23,9 K], добавлен 01.03.2013Обґрунтування варіанту побудови однорангової мережі з використанням витої пари для випадку об'єднання робочих місць. Спільне використання принтера та файлів, що містяться на одному з комп'ютерів. Схема, основні етапи побудови та налагодження мережі.
лабораторная работа [128,9 K], добавлен 30.03.2010Знайомство з основами побудови і функціонування комп'ютерних мереж, виділення їх особливостей і відмінностей. Характеристика основних способів побудови мереж. Розрахунок економічної ефективності впровадження корпоративної локальної обчислювальної мережі.
курсовая работа [275,0 K], добавлен 18.11.2014Використання комп'ютерних навчальних систем. Розуміння основних принципів об’єктно-орієнтованої ідеології програмування. Закріплення теоретичних знань та практичних навичок програмування мовою С/С++. Створення файлу, поповнення його з клавіатури.
курсовая работа [229,4 K], добавлен 09.09.2015Проектування програми керування мікропроцесорним пристроєм світлової індикації на мові С та Assembler. Розробка алгоритму роботи програми, структурної та електричної принципових схем. Здійснення комп’ютерного моделювання для перевірки розроблених програм.
курсовая работа [710,7 K], добавлен 04.12.2014Апаратні та програмні засоби комп'ютерних мереж, необхідність об'єднання ПК у одне ціле - локальну обчислювальну мережу. Вимоги, які висуваються до сучасних технологій обміну даними. Середовище обміну, канали, пристрої передавання та приймання даних.
реферат [549,2 K], добавлен 18.03.2010Визначення поняття і дослідження структури топології комп'ютерних мереж як способу організації фізичних зв'язків персональних комп'ютерів в мережі. Опис схеми топології типів шина, зірка і кільце. Багатозначність структур топології комп'ютерних мереж.
реферат [158,1 K], добавлен 27.09.2012Огляд та конфігурація комп’ютерних мереж - двох або більше комп’ютерів, об’єднаних кабелем таким чином, щоб вони могли обмінюватись інформацією. Характеристика мереживих пристроїв иа середовища передачі даних. Під’єднання до мережі NetWare та Internet.
дипломная работа [1,5 M], добавлен 15.02.2010Описання видів загроз безпеки інформації. Комп’ютерні віруси як особливий клас руйнуючих програмних дій, їх життєвий цикл та стадії виконання. Засоби і методи захисту інформації у комп’ютерних системах, механізм їх дії. Класифікація антивірусних програм.
курсовая работа [48,9 K], добавлен 28.09.2011Класифікація та склад антивірусного програмного забезпечення. Методи знаходження комп'ютерних вірусів. Технології сигнатурного та імовірнісного аналізу. Можливості антивірусних програм Avast, AVG, Лабораторії Касперського, Norton AntiVirus, BitDefender.
реферат [26,6 K], добавлен 06.04.2014Принципи побудови тривимірних зображень у ГІС засобами комп’ютерної графіки. Інформативність та точність моделей, створених на основі растрових і векторних програм. Технологія побудови 3D-карт за допомогою "ArcGIS/3D Analyst" та "MapInfo"/"Поверхность".
дипломная работа [700,6 K], добавлен 10.05.2015