Основні етапи технології аналізу даних

Застосування формальних методів аналізу даних. Роль комп’ютера у процесі розгляду інформації. Розвиток прикладних статистичних методик, направлених на дослідження природи опрацьовуваних показників із позицій визначення їхньої реальності і системності.

Рубрика Программирование, компьютеры и кибернетика
Вид контрольная работа
Язык украинский
Дата добавления 16.11.2016
Размер файла 126,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

МІНІСТЕРСТВО ОСВІТИ І НАУКИ УКРАЇНИ

НАЦІОНАЛЬНИЙ ТРАНСПОРТНИЙ УНІВЕРСИТЕТ

КОНТРОЛЬНА РОБОТА

З предмету «Інформаційні системи і технології»

виконала:

Шульга Ю.Ю.

Керівник:

Сєдая А.В.

Київ 2016

На сьогоднішній день дані, ЕОМ і користувач складають ту тріаду, що лежить в основі аналізу даних. Аналіз даних -- це сукупність методів і засобів отримання з певним чином організованих даних інформації для прийняття рішень. Оптимальні принципи аналізу даних черпаються з математичної статистики (головним чином теорії статистичних рішень, теорії оцінок і теорії ігор).У вітчизняній літературі «аналіз даних» часто синонімічний терміну «прикладна статистика», що підкреслює практичну спрямованість відповідних методів обробки даних.

ЕОМ - це електронна обчислювальна машина, в якій електронні пристрої відіграють роль функціональних елементів. У наш час цю абревіатуру використовують, як правило, в юридичних документах. Прийнято вважати, що першу електронну обчислювальну машину винайшли на початку 1943 року.

У нашому випадку будемо віддавати перевагу терміну «аналіз даних», оскільки основна увага буде надалі зосереджена не на статистичних методах, а на особливостях їх використання. Застосування формальних методів аналізу даних (або прикладної статистики) не дає належного результату, якщо не розібратися з тим, як і які дані можна і потрібно вводити в обробку, для чого потрібен результат і що з ним можна, а чого не можна робити.

Якісний аналіз даних

Роль ЕОМ у процесі аналізу даних характеризується двома аспектами: вона служить інструментом для швидкого рахунку й акумулятором знань, тому що машинні програми дають можливість використовувати знання й уміння інших людей. Тому використання ЕОМ -- це фактично використання накопиченого досвіду фахівців з аналізу даних, помноженого на швидкість виконання рутинної роботи.

Останньою складовою названої тріади є користувачі, під якими мають на увазі усіх тих, хто використовує ЕОМ для вирішення своїх прикладних задач. Клас користувачів дуже неоднорідний. Більшість його складають так звані «наївні» користувачі, що не мають навичок програмування. Але «наївність» в інформатиці, аналізі даних, обчислювальній статистиці (тобто в областях їх некомпетентності) аж ніяк не означає відсутності в такого користувача знань в інших областях, і він, як правило, є професіоналом у своїй предметній області (економіці, фізиці, медицині, соціології і т. п.) і має глибокі знання про природу тих даних, які він хоче опрацьовувати.

До появи ЕОМ дані оброблялися переважно вручну або з застосуванням простих механічних пристроїв. Спеціаліст-статистик був єдиним у трьох особах -- вія був і тим, хто ставить задачу, і методологом її вирішення, і технічним виконавцем. З появою і розвитком ЕОМ функції розділилися: математик-програміст створював програми, а збирав дані і ставив завдання щодо обробки фахівець предметної області. Він же в тісному контакті з математиком інтерпретував результати обробки.

На даний час існує не так багато відмінних один від одного і стійко працюючих на реальних даних математичних методів. Назвемо умовно такі методи базовими, їх описи можна знайти в літературі з математичної статистики. Є також методи, аналогічні базовим, що дають приблизно такі ж результати в більшості практичних ситуацій і відрізняються від них у деталях, та методи для «витончених» і «ідеальних» даних, що звичайно не можуть застосовуватися на практиці через відсутність необхідних умов, але дозволяють фахівцю з аналізу даних оцінювати шляхом зіставлення структуру вихідних даних. На жаль, дві останні групи переважаютьнадвомапершими(рис.3.1).

Якщо глибше вникнути в причини виникнення цієї ситуації, то неважко переконатися, що вона викликана неоднаковим підходом до процесу обробки даних і споконвічного розуміння «даних». Для математики дані -- це, насамперед, деяка математична абстракція -- не величина сили вітру, а дійсне число, не опис знайдених в експедиції зразків гірських порід, а вибірка з якоїсь генеральної сукупності за певним законом розподілу. Але будь-яка абстрактна модель побудована на системі чітких і однозначних понять, принципів, аксіом, що забезпечують завбачення поведінки моделей, однозначність висновків і наслідків, одержання строгих результатів, але лише в рамках цієї формальної системи.

Проте, як тільки мова заходить про реальні дані користувача, а не про абстрактні дані математика, що явно укладаються в прийняту модель, виникає маса питань, найголовніше з яких -- чи відповідають засади, покладені в основу моделі, реальній ситуації.

Математика це питання не хвилює, оскільки воно виходить за рамки його традиційної області діяльності. У користувача, особливо початківця, таке питання не виникає в силу глибокої віри в досконалість машини і надійність розроблених для неї програм. Задають його лише стурбовані фахівці, що постійно стикаються з необхідністю обробки саме реальних, а не ідеальних даних.

Останнім часом підвалини класичної статистики систематично розхитуються через те, що багато дослідників вважають цілий ряд її аксіом і засад неадекватними реальності [3]. З іншого боку, багато існуючих формальних методів, хоча і грунтуються на перевірених моделях, але мають обмежене застосування через те, що реальні дані, які відповідають цим моделям, зустрічаються не досить часто.

Очевидно, сьогодні можна говорити про новий етап розвитку прикладних статистичних методів, направлених на дослідження природи опрацьовуваних даних із позицій визначення їхньої реальності і системності [17]. Реальність передбачає використання передумов і порівняння результатів, завжди орієнтуючись на єдиний критерій істинності. Системність припускає всебічний (і, як правило, багатократний) розгляд не тільки самих реальних даних, але і неформальних знань фахівця предметної області і фахівця з аналізу даних, врахування зовнішніх чинників і зв'язків об'єкта досліджень і т. д. Таким чином, у даний час починаються спроби ліквідувати розрив між даними формальними і даними реальними за допомогою наведення додаткових зв'язків між дійсністю і формалізмом машинної обробки.

Якісний аналіз даних

Зафіксовані дані про досліджуваний об'єкт (явище) являють собою той первинний фактичний матеріал, який потребує відповідної обробки. Обробка починається з упорядкування або систематизації зібраних даних. Процес систематизації результатів масових спостережень, об'єднання їх у відносно однорідні групи за деякою ознакою називається групуванням. Перш ніж детально зупинитись на способах групування даних, розглянемо основні властивості ознак. В загальному розумінні під словом «ознака» мають на увазі властивість, за якою один предмет відрізняється від іншого. Наприклад, якщо в якості об'єкта дослідження вибрано поняття «люди», то ознаками можуть виступати: «зріст», «вага», «вік» та ін.

Характерною властивістю ознак є варіювання, коли їх величини коливаються, утворюючи сукупність числових значень. Ці коливання величини однієї і тієї ж ознаки, що спостерігаються в масі однорідних членів статистичної сукупності, називають варіаціями (від лат. variatio -- зміни, коливання), а окремі числові значення варіюючої ознаки прийнято називати варіантами (від. лат. varians, variatis -- той, що змінюється, відрізняється).

Всі ознаки поділяються на якісні і кількісні. Якісні ознаки не піддаються безпосередньому вимірюванню і враховуються за наявністю їх властивостей у окремих членів досліджуваної групи. Наприклад, серед рослин можна підрахувати кількість екземплярів з різним кольором квітів -- білим, жовтим, рожевим і т. д. Кількісні ознаки піддаються безпосередньому вимірюванню або підрахунку, виражаються цілими або дробними числами. Ці числа показують, наскільки один об'єкт відрізняється від іншого за ступенем інтенсивності ознак (температура в градусах), або у скільки разів відрізняються об'єкти за величиною (маса в грамах, кілограмах, тоннах; час в годинах, хвилинах, секундах, і т. д.).

Кількісні ознаки піддаються арифметичним перетворенням, їх значення можна підсумовувати, множити, ділити (наприклад, знаходячи середню місячну температуру).

Повернемося тепер до питання групування значень ознак. Групування -- це не просто технічний прийом, але й глибоко змістовна дія, направлена на вияв зв'язків між об'єктами (явищами). В основі групування лежить вже раніш розглянута схема «об'єкт» -- «ознака», яка формується наступною матрицею [1J:

де -- значення j-їознаки, що характеризує стан i-то об'єкта (оскільки і-й стовпчик матриці (3.1) характеризує об'єкт Оі тобто представляє результат його дослідження за всіма аналізованими змінними).

Нерідко і, в першу чергу, в ситуаціях, коли вихідні дані отримують за допомогою спеціальних опитувань, анкет, експертних оцінок, можливі випадки, коли елементом первинного спостереження є не просто стан і-го об'єкта, а характеристика pjjпопарної близькості (віддаленості) двох об'єктів (або ознак) відповідно з номерами iта j.

У цьому випадку формується матриця розміром пхп (якщо розглядати характеристики попарної близькості ознак) вигляду:

Матриці даних (3.1) та (3.2) в практичному застосуванні представляються вже згадуваними раніше таблицями експериментальних даних (ТЕД), які можуть бути простими і складними. До простих належать, наприклад, чотирьохпільні таблиці, що використовуються при альтернативному групуванні, коли одна група варіант протиставляється іншій (наприклад, здорові -- хворим, високі -- низьким). До складних відносяться багатопільні таблиці, що використовуються при вивченні кореляційної залежності і при з'ясуванні причинно-наслідкових співвідношень між варіюючими ознаками. Особливий клас таблиць складають таблиці спряженості ознак (рис. 3.3). Часто виникають ситуації, коли дані збираються одночасно для характеристики двох змінних. Прикладом може служити інформація про колір очей та волосся індивіда. Так, у вибірці даних об'єму п1...,пijлюдей мають волосся «класу» іта очі «класу» jТакого роду дані можуть бути представлені у вигляді спряженості ознак.

Особливу форму групування представляють так звані статистичні ряди, під якими розуміють ряди числових значень ознак, розташованих в певному порядку. В залежності від того, які ознаки вивчаються, статистичні ряди ділять на атрибутивні, варіаційні, ряди динаміки та регресії, а також ряди ранжируваних значень ознак і ряди накопичених частот, що є похідними варіаційних рядів [30]. Серед групувань варіаційні ряди займають значне місце, тому на їх описі слід зупинитись більш детально.

Варіаційним рядом, або рядом розподілу, називають подвійний ряд чисел, що показує, яким чином числові значення ознаки пов'язані з їх повторюваністю в даній ситуації.

Наприклад, з врожаю картоплі, зібраної на одній ділянці випадковим способом, було відібрано 25 клубнів, в яких підрахували число вічок. Результати підрахунку виявились наступними: 6, 9, 5, 7, 10, 8, 9, 10, 8, 11, 12, 9, 8, 10, 11, 9, 10, 8, 10,7,9, 11, 9, 10. Щоб розібратись в цих даних, розташуємо їх в ряд (в порядку реєстрації результатів спостереження) з урахуванням повторюваності варіант в цій сукупності:

Варіанти хі, ...6 9 5 10 8 11 12

Число варіант fi...1 7 1 2 6 4 3 1

Це і є варіаційний ряд. Числа, які показують, скільки разів окремі варіанти зустрічаються в даній сукупності, називаються частотами або вагами варіацій і позначаються малою літерою латинського алфавіту f. Загальна сума частот варіаційного ряду дорівнює об'єму даної сукупності, тобтоозначає складання частот варіаційного ряду від першого (i=1) до k-гокласу, an -- загальне число спостережень, або об'єм сукупності.

Частоти (ваги) виражають не тільки абсолютними, але і відносними числами -- в долях одиниці або в процентах від загальної чисельності варіант, що складають дану сукупність. В таких випадках ваги називають відносними частотами або частками. Загальна сума часток дорівнює одиниці, тобтоякщо частота варіанти виражається в процентах від загального числа спостережень п. Розподіл вихідних даних в варіаційний ряд має певні цілі. Одна з них -- прискорення технології обчислення узагальнюючих числових характеристик -- середніх величин і показників варіацій. Інша полягає у з'ясуванні закономірностей варіювання певної ознаки. Наведений вище ряд задовольняє першій цілі, але не задовольняє досягненню другої. Щоб ряд розподілу повністю задовольняв вказаним вимогам, його потрібно будувати за ранжованими значеннями ознак.

Під ранжуванням (від франц. ranger -- ставити в ряд за ранжиром, тобто за зростом) розуміють розташування членів в ряд у порядку зростання (або спадання). Так, в даному випадку результати спостереження мають розподілитись так: комп'ютер даний прикладний статистичний

Варіанти хі ...5 6 8 9 10 11 12

Число варіант fі... 1 1 1 2 3 4 6 7

Цей впорядкований ряд розподілу однаковою мірою задовольняє досягненню і першої, і другої мети. Він добре розглядається і щонайкраще ілюструє закономірності варіювання ознаки.

Висновки

Кінцевою метою аналізу даних є одержання інформації, на основі якої можуть прийматися правильні рішення.

Основні етапи технології аналізу даних показані на рис. 3.2. Дамо стислу характеристику кожного з етапів аналізу даних. Постановка завдання є визначальним етапом, від якого залежить весь хід аналізу.

Починається він зі стадії формулювання цілі всього дослідження, заради досягнення якої і починається збір і обробка даних. Наприклад, ціллю дослідження може бути визначення собівартості продукції, виділення причини захворюваності певною хворобою тощо. Виходячи з цілі, визначається форма представлення даних, які необхідно піддати аналізу.

Одна з типових помилок дослідників полягає в тому, що спочатку збираються дані, а потім починають формулюватися завдання щодо їх обробки.

У цьому випадку ціль дослідження підміняється тією або іншою вузькою ціллю обробки вже зібраних конкретних даних. Основна відмінність полягає в тому, що заздалегідь зібрані дані могуть відбивати зовсім інші характеристики явища, ніж ті, що важливі для поставленої цілі.

Типовою формою представлення даних є таблиця «об'єкт-ознака», у яку заносяться значення ознак (властивостей), що характеризують кожний досліджуваний об'єкт. Прикладами ознак можуть бути «вага», «довжина», «колір», «професія», «ціна», «люди», «вироби», «родовище» та ін. Таблицю такого виду прийнято називати таблицею або матрицею експериментальних даних (ТЕД) [3]. Цю назву варто трактувати більш широко, говорячи не про експериментальні дані, а про дані наукового дослідження. Склад даних -- це, насамперед, склад ознак, що характеризують об'єкти. Кожний реальний об'єкт має нескінченне число різноманітних властивостей, що відображають його різні сторони. Природно, що в кожному конкретному дослідженні істотними є не всі властивості, а лише обмежений їх набір, що визначає найбільш важливі ознаки. Виділити їх -- завдання фахівця предметної області; ніхто інший, включаючи фахівця з аналізу даних, цього зробити не може. Необхідно також вирішити, як подавати в таблиці значення кількісних ознак та ін.

Наступним етапом аналізу даних є етап, на якому поставлене завдання вирішується на якісному рівні. Це насамперед означає процедуру подання даних у візуальній формі, щоб побачити їхню придатність для перевірки візуальних гіпотез або обраних моделей. Саме побачити, оскільки зоровий аналізатор людини -- канал, по якому мозок одержує найбільший об'єм зовнішньої інформації. Найголовніше те, що ця інформація може бути неформалізованою і в той же час майже однаково сприйматися людьми, що мають різний рівень підготовки і працюють у різних областях. На етапі якісного аналізу даних основні гіпотези стосуються структури даних -- саме її необхідно досліджувати. Тому завдання полягає в побудові проекцій даних на різні пари ознак (на які саме -- варто визначити, виходячи з висунутої гіпотези); дослідженні окремих ознак; пошуку дублюючих одна одну або надлишкових ознак і т. д.

Гіпотез, що пояснюють явище, може бути багато, отже, повинен бути апарат, що допомагає здійснювати їхню перевірку. У аналізі даних таким апаратом є обчислювальний експеримент із даними, тобто застосування до даних певного методу машинної обробки. Обчислювальний експеримент є однією з загальних методологій застосування обчислювальної техніки в різноманітних областях -- методологією перевірки гіпотез, висунутих дослідниками, за допомогою машинних методів або моделей [8].

Якщо обчислювальний експеримент можна назвати стратегією аналізу даних, то тактикою його правомірно вважати зіставлення результатів застосування різноманітних алгоритмів обробки. На одиничний результат роботи якоїсь програми рідко можна покластись. Занадто багато чинників може вплинути на нього (причому часто незалежних від самих даних або математичних методів).

Результати роботи декількох програм, як правило, свідчать про багато що, але при цьому потрібно уважно підходити до вибору тих методів, які застосовуються для обробки.

Цих же принципів слід дотримуватися і на інших етапах аналізу, насамперед на етапі кількісного аналізу даних. Якщо при якісному аналізі об'єктом дослідження була структура даних, а результатом, як правило, -- інформація про клас моделей, якими можна описати явище, то на етапі кількісного опису звичайно ведеться пошук параметрів цих моделей.

Обчислювальний експеримент дає можливість випробувати різноманітні варіанти моделей, наприклад, шукати різноманітні засоби інформаційного опису даних, а порівняльний аналіз допомагає відібрати кращі варіанти, що мають право на існування не тільки як формальні результати експериментування, але і як змістовно значима інформація про предметну область.

Відзначимо, що в процесі пошуку кількісного опису даних (наприклад, при побудові правила розпізнавання) дуже часто виникає необхідність повернення до більш ранніх етапів обробки і повторення всього циклу дослідження. Це може бути викликано і знайденими помилками в даних, і усвідомленням необхідності у зборі й обробці додаткового матеріалу.

Останній етап вирішення завдання аналізу даних -- інтерпретація результатів і прийняття рішень.

Всі отримані на ЕОМ результати фахівець з аналізу даних може інтерпретувати, не виходячи за рамки понять аналізу даних, у термінах інформативних ознак, групувань об'єктів і т. д. Користувач же щораз порівнює отриманий результат (або інтерпретацію фахівця з аналізу даних), виданий йому в цифровій або графічній формі, зі своїми власними уявленнями про досліджуване явище.

Таким чином, відбувається подвійне осмислення результатів -- спочатку в рамках аналізу даних, а потім у рамках предметної області, причому друге неможливе без першого. Процедура інтерпретації результатів опрацювання даних здійснюється тим легше, чим більш зручною € форма видачі результатів на екрани монітора або до друку.

Прийняття рішень у рамках предметної області суто індивідуальне і не може бути типізоване.

Досить поширеною тут помилкою є ілюзія, нібито отриманий результат і є вже прийнятим рішенням.

Кожний алгоритм обробки дає один із можливих результатів (МР). При аналізі сукупності МР, одержаних за допомогою ряду алгоритмів, можливі три ситуації [3]:

1) усі МР збігаються (це буває вкрай рідко в практичних задачах). У цьому випадку рішення задачі можна вважати досягнутим в силу одержання єдиного результату.

2) МР частково збігаються. У цьому випадку можна виділити загальну частину як можливий достовірний результат (МДР) і аналізувати його з наступною інтерпретацією в термінах відповідної предметної області;

3) МР суперечать один одному. Цей випадок означає, що задача була сформульована некоректно і потрібно її коригування з можливими змінами як в експериментальному матеріалі (аж до збору нових даних), так і в сукупності алгоритмів, які при цьому використовуються.

Список використаної літератури

1. Информатика. Базовый курс. 2-е издание / Под ред.С. В. Симоновича -- СПб.: Питер, 2005. -- 640 с.: ил.

2. Інформатика. Комп'ютерна техніка. Комп'ютерні технології/ Пушкар О.І. та ін. - К.: Академія, 2001. - 693 с.

3. Інформатика та комп'ютерна техніка. Навчальний посібник./ Рогоза М.Є. та ін. За редакцією М.Є. Рогози - К.: ВЦ «Ака-демія», 2006 - 368 с.Н. Я. Наливайко

4. Макарова М.В., Карнаухова Г.В., Запара С.В. Інформатика та комп'ютерна техніка: Навчальний посібник / За заг. ред. к.е.н., доц. М.В Макарової. - Суми: ВТД «Університетська книга», 2003. - 642 с.

Размещено на Allbest.ru

...

Подобные документы

  • Електронна база даних як послідовність даних заданої структури, записана на магнітний диск комп'ютера, її типи, основні та невід'ємні властивості. Призначення та оцінка можливостей системи управління. Моделі даних та головні принципи їх функціонування.

    презентация [352,2 K], добавлен 04.12.2014

  • Проблема розробки інтелектуального агента. Вибір і обґрунтування аналогу. Реалізація програмної системи збору та аналізу статистичних даних про контакти користувача. Створення файлів, встановлення додатків Android (APK) з файлів скриптів на мові Python.

    дипломная работа [2,7 M], добавлен 05.10.2012

  • Внутрішнє представлення в пам’яті комп’ютера даних базових та похідних типів, масивів. Ідентифікатор, зв'язаний з константним виразом та основи представлення даних. Алгоритм представлення цілих, дійсних, логічних і символьних чисел, структур і об’єднань.

    курсовая работа [279,1 K], добавлен 25.08.2014

  • Дослідження криптографічних методів захисту даних від небажаного доступу. Основи безпеки даних в комп'ютерних системах. Класифікаційні складові загроз безпеки інформації. Характеристика алгоритмів симетричного та асиметричного шифрування інформації.

    курсовая работа [245,8 K], добавлен 01.06.2014

  • Нові інформаційні технології (НІТ) як сукупність нових засобів і методів обробки, зберігання і передачі інформації. Технологічна основа та основні принципи створення НІТ. Класифікатори техніко-економічної інформації в фінансовому контролі й аудиті.

    контрольная работа [21,5 K], добавлен 27.09.2010

  • Пристрої збереження даних (накопичувачі інформації) відносяться до зовнішньої пам'яті ПК - вони дозволяють зберегти інформацію для наступного її використання незалежно від стану (включений або виключений) комп'ютера. Оптичні і магнітні диски. S.M.A.R.T.

    реферат [201,0 K], добавлен 02.04.2008

  • Автоматизований банк даних як специфічна база даних, яка проектується і наповнюється, щоб підтримувати створення рішень в організації. Інструментальні засоби кінцевого користувача для аналізу інформації. Компоненти, що забезпечують виділення даних.

    реферат [93,1 K], добавлен 27.07.2009

  • Проведення аналізу методів фільтрації даних отриманих з інерційного вимірювального пристрою та методів подолання дрейфу нуля гіроскопа. Розробка програми стереоскопічного рендеру для мобільного телефону та безпровідного інерційного маніпулятору.

    статья [26,1 K], добавлен 13.11.2017

  • Види списків, особливості їх створення, застосування та можливості удосконалення роботи користувача персонального комп’ютера. Керування та аналіз груп споріднених даних у середовищі програми MS Excel 2010. Опрацювання спискiв за допомогою форми даних.

    дипломная работа [2,7 M], добавлен 18.06.2014

  • Поняття та переваги реляційної бази, автоматизація аналізу даних. Опис основних компонентів сховища даних AS/400. Процес перетворення оперативних даних в інформаційні. Багатовимірні бази даних (MDD). Опис даних і створення файлів в інтеграційних базах.

    реферат [36,8 K], добавлен 14.01.2012

  • Основні поняття та особливості розробки баз даних в Microsoft Access. Побудова бази даних магазину побутової техніки: створення таблиць та встановлення зв’язків між ними, створення запитів, форм та звітів. Охорона праці і гігієна користувача комп'ютера.

    курсовая работа [2,5 M], добавлен 19.01.2010

  • Використання баз даних та інформаційних систем. Поняття реляційної моделі даних. Ключові особливості мови SQL. Агрегатні функції і угрупування даних. Загальний опис бази даних. Застосування технології систем управління базами даних в мережі Інтернет.

    курсовая работа [633,3 K], добавлен 11.07.2015

  • Функції інформаційної системи. Аналіз функцій системи управління базами даних: управління транзакціями і паралельним доступом, підтримка цілісності даних. Аналіз системи MySQL. Елементи персонального комп’ютера: монітор, клавіатура, материнська плата.

    дипломная работа [1,2 M], добавлен 15.05.2012

  • Схема взаємодії учасників платіжної системи з використанням пластикових карток. Вхідні та вихідні повідомлення для проектування бази даних для автоматизації аналізу користувачів пластикових карток. Проектування та реалізація бази даних у MS Access.

    курсовая работа [3,0 M], добавлен 27.12.2013

  • Інтернет як система об'єднаних комп'ютерних мереж для зберігання і передачі інформації. Літературні джерела щодо сутності баз даних та їх функціонування. Порівняльний аналіз MySQL, Oracle та Microsoft Access. Створення бази даних за допомогою MySQL.

    курсовая работа [1,5 M], добавлен 05.02.2014

  • Основні підходи до проектування баз даних. Опис сайту Інтернет-магазину, характеристика його підсистем для обробки анкет і запитів користувачів. Розробка концептуальної, інфологічної, даталогічної, фізичної моделей даних. Побудова ER-моделі в CASE-засоби.

    курсовая работа [2,3 M], добавлен 01.02.2013

  • Пристрої базової конфігурації персонального комп’ютера. Порядок роботи зі списками даних в текстовому редакторі: створення нумерованого або маркірованого списку, використання багаторівневих списків, перетворення їх в звичайний текст, додавання позицій.

    реферат [1,0 M], добавлен 27.09.2011

  • Розробка бази даних для автоматизації облікової інформації в системі управління базами даних Access з метою полегшення роботи з великими масивами даних, які існують на складах. Обґрунтування вибору системи управління. Алгоритм та лістинг програми.

    курсовая работа [550,9 K], добавлен 04.12.2009

  • Методика та основні етапи розробки та впровадження бази даних медичних препаратів, правила користування. Властивості та характеристики лікарських препаратів, які повинні бути в базі даних. Головні сутності та типи зв'язків між ними, визначення атрибутів.

    курсовая работа [22,3 K], добавлен 22.04.2010

  • Взаємодія комп’ютера з зовнішніми пристроями. Послідовний потік даних як біти синхронізації і власне біти даних. Специфіка формату послідовних даних, які формує UART. Електричний інтерфейс RS-232C. Способи керування портами у WINDOWS95 та WINDOWS XP.

    реферат [660,1 K], добавлен 19.06.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.