Архитектура персонального компьютера

История развития электронно-вычислительной машины, совершенствование её внутренней структуры. Классификация операционных систем и вычислительных устройств. Функционирование микропроцессоров, методы повышения их производительности, конфигурирование.

Рубрика Программирование, компьютеры и кибернетика
Вид учебное пособие
Язык русский
Дата добавления 09.12.2014
Размер файла 2,1 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Потребляемая мощность и напряжение питания. Устанавливаются низковольтные устройства (1,8-3,3В), которые позволяют экономить потребляемую энергию.

Состав внутренних дополнительных устройств. В качестве дополнительных технических средств для процессоров могут использоваться устройства двух видов: общего применения (контролеры прямого доступа к памяти, таймеры) и проблемно-ориентированные (компрессоры данных, кодеки, аналого-цифровые преобразователи).

Средства разработки и поддержки:

· Языки программирования, имеющих компиляторы под данный DSP процессор.

· Использование средств отладки готовых программ и их возможности.

· Наличие и доступность совместимых устройств (аналого-цифровой и цифро-аналоговый преобразователь), а также их возможности

· Обеспечение технической поддержки и доступность документации.

· Наличие библиотек математических функций и стандартных подпрограмм.

Устройство

Гарвардская архитектура. Представляет собой архитектуру, отличительной особенностью которой является раздельная обработка и хранение команд и информации в двух устройствах (в памяти программ и памяти данных). Выборка команды и двух операндов осуществляется за один или два цикла шины, что обеспечивается возможностью обращения одновременно к памяти программ и памяти данных. Обе структуры находятся на кристалле ЦСП, что обусловливает необходимость использования внешних дополнительных запоминающих устройств. Процессор взаимодействует с ними через один набор шин без разделения на данные и команды.

Умножители. Процессор оснащен аппаратными умножителями с целью сокращения времени, требующегося на выполнение умножения (одной из основных операций цифровой обработки сигналов). Данный компонент позволяет осуществлять операцию в течение одного командного цикла. В зависимости от назначения умножители делятся на два вида.

· Простой умножитель. Позволяет выполнять операции умножения данных шириной в слово. Результат имеет ширину двойного слова и сохраняется в двух ячейках памяти (в двух обычных регистрах) или в регистре двойной ширины.

· Умножитель-сумматор. Используется для операции умножения с накоплением.

Сдвигатели. Данный компонент процессора представляет собой устройство, применяемое для выполнения операций сдвига данных. В зависимости от выполняемых функций сдвигатели делятся на две группы.

· Предсдвигатели. Выполняют предварительное масштабирование, арифметические, логические и циклические сдвиги в процессе выполнения операции процессорами или до ее начала.

· Постсдвигатели. Выполняют сдвиг после исполнения операции, а также нормализацию и масштабирование для сохранения в память. Постдвигатели осуществляют выделение одинакового порядка и удаление битов расширения знака.

Аккумулятор. Данный элемент процессоров представляет собой регистр, используемый для сохранения результатов операций. Отдельные аккумуляторы могут состоять из нескольких регистров: EXT (регистр расширения), LSP (регистр младшего слова), MSP (регистр старшего слова).

Языки программирования

Для программирования ЦСП используются языки ассемблер или С. Первый применяется для создания стандартных библиотек. Части кода процессоров, требующие большого объема памяти и определенного времени исполнения, пишутся на С.

Язык программирования Ассемблер. Ассемблер представляет собой язык программирования низкого уровня, в котором большинство мнемонических команд соответствуют инструкциям процессора вычислительной системы (в отдельных случаях одна команда ассемблера соответствует нескольким вариантам команд процессоров). Возможно использование символических меток вместо адресов ячеек памяти, заменяемых на абсолютные или относительные адреса или директивы (команды, выполняемые ассемблером), которые рассчитываются в автоматическом режиме.

Особенности ассемблеров ЦПС:

· Наличие двух форм записи команд.

Ассемблеры ЦСП позволяют осуществлять запись команд в мнемонической и алгебраической формах. Большинство способны воспринимать обе формы записи.

· Наличие средств организации стандартных структур.

Ассемблеры оснащены средствами для организации аппаратных команд повторения отдельной команды или целого блока кода.

Язык программирования С. Представляет собой процедурный стандартизированный язык программирования. Компиляция программ осуществляется с помощью однопроходного компилятора, возврат к уже обработанному тексту не осуществляется. Уровень языка является низким, что обеспечивает простоту разработки компиляторов и возможность использования на большом количестве платформ. Также С позволяет создавать переносимые программы.

Особенности

· Простая языковая база. Отдельные функции (математические и функции управления файлами) вынесены в библиотеки.

· Наличие ориентации на процедурное программирование. Данная ориентация позволяет сделать более удобным структурный стиль программирования.

· Наличие системы типов. Сорт (тип) - независимая, относительно устойчивая система элементов, выделяемая в рассматриваемом множестве. Наличие совокупности типов предотвращает выполнение излишних операций.

· Передача параметров по значению. Передача параметров в функцию осуществляется по значению (передача по ссылке осуществляется с использованием указателей).

· Применение предпроцессоров. Предназначено для включения файлов с исходным кодом и определением макросов.

· Наличие трех способов выделении памяти. Существует статический, автоматический и динамический способ.

3.3 Архитектура CPU и GPU

История развития GPU

В конце 1980-х возникновение графических операционных систем семейства Windows дает толчок для появления процессоров нового типа. В начале 1990-х годов обрели популярность ускорители двумерной графики. Эти ускорители были спроектированы для операций с растровыми изображениями, тем самым, делая работу с графической операционной системой более комфортной. В те былые времена, когда видеоадаптеры, специализировались в основном на ускорении вывода 2D-графики. В то время считалось, что обработка трехмерных данных просто не целесообразна.

Большой скачок в развитии графических ускорителей произошел в середине 90-х годов в ответ на возрастающее потребление вычислительных ресурсов компьютерными играми. Данные видеокарты являлись специализированными процессорами для ускорения операций с трехмерной графикой и предназначались для построения двумерных изображений трехмерных сцен в режиме реального времени. Для ускорения операций использовались аппаратная реализация алгоритмов, в том числе отсечения невидимых поверхностей при помощи буфера глубины, и аппаратное распараллеливание. Ускорители принимали на вход описание трехмерной сцены в виде массивов вершин и треугольников, а также параметры наблюдателя, и строили по ним на экране двумерное изображение сцены для этого наблюдателя. Поддерживалось отсечение невидимых граней, задание цвета вершин и интерполяционная закраска, а также текстуры объектов и вычисление освещенности без учета теней. Тени можно было добавить при помощи алгоритмов расчета теней на ускоритель, таких как теневые карты или теневые объемы. Из-за увеличения спроса на трехмерную графику и взаимной конкуренции такие компании NVIDIA, ATI Technologies, 3dfx Interactive, начали выпускать доступные по цене графические ускорители. Данный факт закрепил за трехмерной графикой ведущее место на рынке перспективных технологий.

Сам термин GPU впервые был использован в августе 1999 года в отношении главного чипа видеокарты модели nVidia GeForce 256, основная функция которого заключалась в ускорении вывода трехмерной графики.

Дальнейший прорыв принадлежит также компании NVIDIA, которая выпустила серия GeForce 3 в 2001 году. В данной серии появилась микросхема, в которой был реализован новый стандарт Microsoft DirectX 8.0. Изначально фиксированный алгоритм вычисления освещенности и преобразования координат вершин был заменен на алгоритм, задаваемый пользователем. Затем появилась возможность писать программы для вычисления цвета пиксела на экране.

Обозначились основные производители дискретных графических процессоров: компании ATI и NVidia. Появились первые приложения, использующие GPU для высокопроизводительных вычислений, начало складываться направление GPGPU-- использование графических процессоров для решения произвольных вычислительных задач. Для программирования GPU предложен подход потокового программирования. Этот подход предполагает разбиение программы на относительно небольшие этапы (ядра), которые обрабатывают элементы потоков данных. Ядра отображаются на шейдеры, а потоки данных -- на текстуры в GPU.

Дальнейшее развитие GPU характеризуются расширенными возможностями программирования. Появляются операции ветвления и циклов, что позволяет создавать более сложные шейдеры. Поддержка 32-битных вычислений с плавающей точкой становится повсеместной, что способствует активному росту направления GPGPU. OpenGL в версии 2.0 добавляет поддержку высокоуровневого шейдерного языка GLSL. Производительность GPU на реальных задачах достигает сотен гигафлопс. В более поздних представителях третьего поколения появляется поддержка целочисленных операций, а также операций с двойной точностью. Появляются специализированные средства, позволяющее взаимодействовать с GPU напрямую, минуя уровень интерфейса программирования трехмерной графики (CUDA NVIDIA, CTM ATI).

Отличия архитектур CPU и GPU

Разработчики CPU стараются добиться выполнения как можно большего числа инструкций параллельно, для увеличения производительности. Для этого, начиная с процессоров Intel Pentium, появилось суперскалярное выполнение, обеспечивающее выполнение двух инструкций за такт, а Pentium Pro отличился внеочередным выполнением инструкций. Но у параллельного выполнения последовательного потока инструкций есть определённые базовые ограничения и увеличением количества исполнительных блоков кратного увеличения скорости не добиться.

Ядра CPU созданы для исполнения одного потока последовательных инструкций с максимальной производительностью, а GPU для быстрого исполнения большого числа параллельно выполняемых потоков инструкций. Универсальные процессоры оптимизированы для достижения высокой производительности единственного потока команд, обрабатывающего и целые числа и числа с плавающей точкой. При этом доступ к памяти случайный.

У видеочипов работа простая и распараллеленная изначально. Видеочип принимает на входе группу полигонов, проводит все необходимые операции, и на выходе выдаёт пиксели. Обработка полигонов и пикселей независима, их можно обрабатывать параллельно, отдельно друг от друга. Поэтому, из-за изначально параллельной организации работы в GPU используется большое количество исполнительных блоков, которые легко загрузить, в отличие от последовательного потока инструкций для CPU. Кроме того, современные GPU также могут исполнять больше одной инструкции за такт (dual issue). GPU отличается от CPU ещё и по принципам доступа к памяти. В GPU он связанный и легко предсказуемый -- если из памяти читается тексель текстуры, то через некоторое время придёт время и для соседних текселей. Да и при записи то же -- пиксель записывается во фреймбуфер, и через несколько тактов будет записываться расположенный рядом с ним. Поэтому организация памяти отличается от той, что используется в CPU. И видеочипу, в отличие от универсальных процессоров, просто не нужна кэш-память большого размера, а для текстур требуются лишь несколько (до 128-256 в нынешних GPU) килобайт.

Работа с памятью у GPU и CPU несколько отличается. Так, не все центральные процессоры имеют встроенные контроллеры памяти, а у всех GPU обычно есть по несколько контроллеров. Кроме того, на видеокартах применяется более быстрая память, и в результате видеочипам доступна в разы большая пропускная способность памяти, что также весьма важно для параллельных расчётов, оперирующих с огромными потоками данных.

В универсальных процессорах большие количества транзисторов и площадь чипа идут на буферы команд, аппаратное предсказание ветвления и огромные объёмы кэш-памяти на чипе. Все эти аппаратные блоки нужны для ускорения исполнения немногочисленных потоков команд. Видеочипы тратят транзисторы на массивы исполнительных блоков, управляющие потоками блоки, разделяемую память небольшого объёма и контроллеры памяти на несколько каналов. Вышеперечисленное не ускоряет выполнение отдельных потоков, оно позволяет чипу обрабатывать нескольких тысяч потоков, одновременно исполняющихся чипом и требующих высокой пропускной способности памяти.

Есть множество различий и в поддержке многопоточности. CPU исполняет 1-2 потока вычислений на одно процессорное ядро, а видеочипы могут поддерживать до 1024 потоков на каждый мультипроцессор, которых в чипе несколько штук. И если переключение с одного потока на другой для CPU стоит сотни тактов, то GPU переключает несколько потоков за один такт.

Кроме того, центральные процессоры используют SIMD (одна инструкция выполняется над многочисленными данными) блоки для векторных вычислений, а видеочипы применяют SIMT (одна инструкция и несколько потоков) для скалярной обработки потоков. SIMT не требует, чтобы

В итоге, основой для эффективного использования мощи GPU в неграфических расчётах является распараллеливание алгоритмов на сотни исполнительных блоков, имеющихся в видеочипах. К примеру, множество приложений по молекулярному моделированию отлично приспособлено для расчётов на видеочипах, они требуют больших вычислительных мощностей и поэтому удобны для параллельных вычислений. А использование нескольких GPU даёт ещё больше вычислительных мощностей для решения подобных задач.

Выполнение расчётов на GPU показывает отличные результаты в алгоритмах, использующих параллельную обработку данных. То есть, когда одну и ту же последовательность математических операций применяют к большому объёму данных. При этом лучшие результаты достигаются, если отношение числа арифметических инструкций к числу обращений к памяти достаточно велико. Это предъявляет меньшие требования к управлению исполнением (flow control), а высокая плотность математики и большой объём данных отменяет необходимость в больших кэшах, как на CPU.

3.4 Матричная SIMD и конвейерная MIMD обработка данных

Конвейерная и векторная обработка.

Основу конвейерной обработки составляет раздельное выполнение некоторой операции в несколько этапов (за несколько ступеней) с передачей данных одного этапа следующему. Производительность при этом возрастает благодаря тому, что одновременно на различных ступенях конвейера выполняются несколько операций. Конвейеризация эффективна только тогда, когда загрузка конвейера близка к полной, а скорость подачи новых операндов соответствует максимальной производительности конвейера. Если происходит задержка, то параллельно будет выполняться меньше операций и суммарная производительность снизится. Векторные операции обеспечивают идеальную возможность полной загрузки вычислительного конвейера.

При выполнении векторной команды одна и та же операция применяется ко всем элементам вектора (или чаще всего к соответствующим элементам пары векторов). Для настройки конвейера на выполнение конкретной операции может потребоваться некоторое установочное время, однако затем операнды могут поступать в конвейер с максимальной скоростью, допускаемой возможностями памяти. При этом не возникает пауз ни в связи с выборкой новой команды, ни в связи с определением ветви вычислений при условном переходе. Таким образом, главный принцип вычислений на векторной машине состоит в выполнении некоторой элементарной операции или комбинации из нескольких элементарных операций, которые должны повторно применяться к некоторому блоку данных. Таким операциям в исходной программе соответствуют небольшие компактные циклы.

Машины типа SIMD.

SIMD компьютер имеет N идентичных процессоров, N потоков данных и один поток команд. Каждый процессор обладает собственной локальной памятью. Процессоры интерпретируют адреса данных либо как локальные адреса собственной памяти, либо как глобальные адреса, возможно, модифицированные добавлением локального базового адреса. Процессоры получают команды от одного центрального контроллера команд и работают синхронно, то есть на каждом шаге все процессоры выполняют одну и ту же команду над данными из собственной локальной памяти.

Машины типа SIMD состоят из большого числа идентичных процессорных элементов, имеющих собственную память. Все процессорные элементы в такой машине выполняют одну и ту же программу. Очевидно, что такая машина, составленная из большого числа процессоров, может обеспечить очень высокую производительность только на тех задачах, при решении которых все процессоры могут делать одну и ту же работу. Модель вычислений для машины SIMD очень похожа на модель вычислений для векторного процессора: одиночная операция выполняется над большим блоком данных.

Такая архитектура с распределенной памятью часто упоминается как архитектура с параллелизмом данных(data-parallel), так как параллельность достигается при наличии одиночного потока команд, действующего одновременно на несколько частей данных. Сеть, соединяющая процессоры, обычно имеет регулярную топологию такую как кольцо SLAP:

В отличие от ограниченного конвейерного функционирования векторного процессора, матричный процессор (синоним для большинства SIMD-машин) может быть значительно более гибким. Обрабатывающие элементы таких процессоров - это универсальные программируемые ЭВМ, так что задача, решаемая параллельно, может быть достаточно сложной и содержать ветвления. Обычное проявление этой вычислительной модели в исходной программе примерно такое же, как и в случае векторных операций: циклы на элементах массива, в которых значения, вырабатываемые на одной итерации цикла, не используются на другой итерации цикла.

Машины типа MIMD.

MIMD компьютер имеет N процессоров, независимо исполняющих N потоков команд и обрабатывающих N потоков данных. Каждый процессор функционирует под управлением собственного потока команд, то есть MIMD компьютер может параллельно выполнять совершенно разные программы.

MIMD архитектуры далее классифицируются в зависимости от физической организации памяти, то есть имеет ли процессор свою собственную локальную память и обращается к другим блокам памяти, используя коммутирующую сеть, или коммутирующая сеть подсоединяет все процессоры к общедоступной памяти. Исходя из организации памяти, различают следующие типы параллельных архитектур:

* Компьютеры с распределенной памятью (Distributed memory)

Процессор может обращаться к локальной памяти, может посылать и получать сообщения, передаваемые по сети, соединяющей процессоры. Сообщения используются для осуществления связи между процессорами или, что эквивалентно, для чтения и записи удаленных блоков памяти. В идеализированной сети стоимость посылки сообщения между двумя узлами сети не зависит как от расположения обоих узлов, так и от трафика сети, но зависит от длины сообщения.

* Компьютеры с общей (разделяемой) памятью (True shared memory)

Все процессоры совместно обращаются к общей памяти, обычно, через шину или иерархию шин. В идеализированной PRAM (Parallel Random Access Machine - параллельная машина с произвольным доступом) модели, часто используемой в теоретических исследованиях параллельных алгоритмов, любой процессор может обращаться к любой ячейке памяти за одно и то же время. На практике масштабируемость этой архитектуры обычно приводит к некоторой форме иерархии памяти. Частота обращений к общей памяти может быть уменьшена за счет сохранения копий часто используемых данных в кэш-памяти, связанной с каждым процессором. Доступ к этому кэш-памяти намного быстрее, чем непосредственно доступ к общей памяти.

* Компьютеры с виртуальной общей (разделяемой) памятью (Virtual shared memory)

Общая память как таковая отсутствует. Каждый процессор имеет собственную локальную память и может обращаться к локальной памяти других процессоров, используя "глобальный адрес". Если "глобальный адрес" указывает не на локальную память, то доступ к памяти реализуется с помощью сообщений, пересылаемых по коммуникационной сети.

MIMD архитектуры с распределенной памятью можно так же классифицировать по пропускной способности коммутирующей сети. Например, в архитектуре, в которой пары из процессора и модуля памяти (процессорный элемент) соединены сетью с топологий решетка, каждый процессор имеет одно и то же число подключений к сети вне зависимости от числа процессоров компьютера. Общая пропускная способность такой сети растет линейно относительно числа процессоров. В топологии клика каждый процессор должен быть соединен со всеми другими процессорами. С другой стороны в архитектуре, имеющей сеть с топологий гиперкуб, число соединений процессора с сетью является логарифмической функцией от числа процессоров, а пропускная способность сети растет быстрее, чем линейно по отношению к числу процессоров.

Термин "мультипроцессор" покрывает большинство машин типа MIMD и часто используется в качестве синонима для машин типа MIMD. В мультипроцессорной системе каждый процессорный элемент (ПЭ) выполняет свою программу достаточно независимо от других процессорных элементов. Процессорные элементы, конечно, должны как-то связываться друг с другом, что делает необходимым более подробную классификацию машин типа MIMD. В мультипроцессорах с общей памятью (сильносвязанных мультипроцессорах) имеется память данных и команд, доступная всем ПЭ. С общей памятью ПЭ связываются с помощью общей шины или сети обмена. В противоположность этому варианту в слабосвязанных многопроцессорных системах (машинах с локальной памятью) вся память делится между процессорными элементами и каждый блок памяти доступен только связанному с ним процессору. Сеть обмена связывает процессорные элементы друг с другом.

Базовой моделью вычислений на MIMD-мультипроцессоре является совокупность независимых процессов, эпизодически обращающихся к разделяемым данным. Существует большое количество вариантов этой модели. На одном конце спектра - модель распределенных вычислений, в которой программа делится на довольно большое число параллельных задач, состоящих из множества подпрограмм. На другом конце спектра - модель потоковых вычислений, в которых каждая операция в программе может рассматриваться как отдельный процесс. Такая операция ждет своих входных данных (операндов), которые должны быть переданы ей другими процессами. По их получении операция выполняется, и полученное значение передается тем процессам, которые в нем нуждаются. В потоковых моделях вычислений с большим и средним уровнем гранулярности, процессы содержат большое число операций и выполняются в потоковой манере.

Многопроцессорные машины с SIMD-процессорами.

Языки программирования и соответствующие компиляторы для машин типа MSIMD обычно обеспечивают языковые конструкции, которые позволяют программисту описывать "крупнозернистый" параллелизм. В пределах каждой задачи компилятор автоматически векторизует подходящие циклы. Машины типа MSIMD, как можно себе представить, дают возможность использовать лучший из этих двух принципов декомпозиции: векторные операции ("мелкозернистый" параллелизм) для тех частей программы, которые подходят для этого, и гибкие возможности MIMD-архитектуры для других частей программы.

Многопроцессорные системы за годы развития вычислительной техники претерпели ряд этапов своего развития. Исторически первой стала осваиваться технология SIMD. Однако в настоящее время наметился устойчивый интерес к архитектурам MIMD. Этот интерес главным образом определяется двумя факторами:

1.Архитектура MIMD дает большую гибкость: при наличии адекватной поддержки со стороны аппаратных средств и программного обеспечения MIMD может работать как однопользовательская система, обеспечивая высокопроизводительную обработку данных для одной прикладной задачи, как многопрограммная машина, выполняющая множество задач параллельно, и как некоторая комбинация этих возможностей.

2.Архитектура MIMD может использовать все преимущества современной микропроцессорной технологии на основе строгого учета соотношения стоимость/производительность. В действительности практически все современные многопроцессорные системы строятся на тех же микропроцессорах, которые можно найти в персональных компьютерах, рабочих станциях и небольших однопроцессорных серверах.

Одной из отличительных особенностей многопроцессорной вычислительной системы является сеть обмена, с помощью которой процессоры соединяются друг с другом или с памятью. Модель обмена настолько важна для многопроцессорной системы, что многие характеристики производительности и другие оценки выражаются отношением времени обработки к времени обмена, соответствующим решаемым задачам. Существуют две основные модели межпроцессорного обмена: одна основана на передаче сообщений, другая - на использовании общей памяти. В многопроцессорной системе с общей памятью один процессор осуществляет запись в конкретную ячейку, а другой процессор производит считывание из этой ячейки памяти. Чтобы обеспечить согласованность данных и синхронизацию процессов, обмен часто реализуется по принципу взаимно исключающего доступа к общей памяти методом "почтового ящика".

С ростом числа процессоров просто невозможно обойти необходимость реализации модели распределенной памяти с высокоскоростной сетью для связи процессоров. С быстрым ростом производительности процессоров и связанным с этим ужесточением требования увеличения полосы пропускания памяти, масштаб систем (т.е. число процессоров в системе), для которых требуется организация распределенной памяти, уменьшается, также как и уменьшается число процессоров, которые удается поддерживать на одной разделяемой шине и общей памяти.

Распределение памяти между отдельными узлами системы имеет два главных преимущества. Во-первых, это эффективный с точки зрения стоимости способ увеличения полосы пропускания памяти, поскольку большинство обращений могут выполняться параллельно к локальной памяти в каждом узле. Во-вторых, это уменьшает задержку обращения (время доступа) к локальной памяти. Эти два преимущества еще больше сокращают количество процессоров, для которых архитектура с распределенной памятью имеет смысл.

Обычно устройства ввода/вывода, также как и память, распределяются по узлам и в действительности узлы могут состоять из небольшого числа (2-8) процессоров, соединенных между собой другим способом. Хотя такая кластеризация нескольких процессоров с памятью и сетевой интерфейс могут быть достаточно полезными с точки зрения эффективности в стоимостном выражении, это не очень существенно для понимания того, как такая машина работает, поэтому мы пока остановимся на системах с одним процессором на узел. Основная разница в архитектуре, которую следует выделить в машинах с распределенной памятью заключается в том, как осуществляется связь и какова логическая модель памяти.

Список литературы

1. П. Ломакин, Д. Шрейн «Энциклопедия компьютерного железа». 2002 г.

2. Аркадий Частиков «Архитекторы компьютерного мира». 2002г.

3. В.Л. Бройдо «Вычислительные системы,сети и телекоммуникации».2-е издание.2004 г.

4. http://arri111.narod2.ru/glava_2_1

5. Лекция для абитуриентов. http://www.youtube.com/watch?v=5cwVyyU74-0

6. История создания и развития ЭВМ http://evm-story.narod.ru/

7. Книга о фон Неймоне http://ega-math.narod.ru/Reid/Neumann.htm

8. Математика и информатика. Лекция. http://sdo.uspi.ru/mathem&inform/lek_10/lek_10.htm

9. Шауцукова Л.З. Информатика 10 - 11. http://book.kbsu.ru/theory/chapter2/1_2_0.html

10. http://edu.dvgups.ru/METDOC/ITS/STRPRO/ASY/METOD/UP/frame/1_4.htm

11. А.В.Григорьев, И.С.Еремеев, М.И.Алексеева «Учебное пособие. Параллельное программирование с использованием технологии CUDA»

Размещено на Allbest.ru

...

Подобные документы

  • История развития вычислительных машин. История развития IBM. Первые электронно-вычислительные машины. IBM-совместимые компьютеры. Как из яблока сделать макинтош. История создания первого персонального компьютера "Макинтош" (Macintosh).

    реферат [25,4 K], добавлен 09.10.2006

  • Архитектуры вычислительных систем сосредоточенной обработки информации. Архитектуры многопроцессорных вычислительных систем. Классификация и разновидности компьютеров по сферам применения. Особенности функциональной организации персонального компьютера.

    контрольная работа [910,2 K], добавлен 11.11.2010

  • История развития вычислительной техники, основные характеристики. Основное отличие вычислительной системы от компьютера, виды архитектур. Классификация уровней программного параллелизма. Главные особенности векторной, матричной обработки регистров.

    курсовая работа [36,0 K], добавлен 21.07.2012

  • Понятие "архитектура ЭВМ". Принципы построения ЭВМ, которые относятся к архитектуре. Архитектура электронной вычислительной машины, построенной на принципах Фон Неймана. Совершенствование и развитие внутренней структуры ЭВМ. Шинная архитектура ЭВМ.

    контрольная работа [133,5 K], добавлен 02.12.2010

  • Состав персонального компьютера, описание системного блока, жесткий и лазерный диски, клавиатура, монитор. Классификация периферийных устройств, память компьютера. Классификация программного обеспечения. Изучение программы управления базами данных Access.

    дипломная работа [11,8 M], добавлен 09.01.2011

  • История появления и развития первых вычислительных машин. Изучение характеристик электронно-вычислительной машины. Архитектура и классификация современных компьютеров. Особенности устройства персональных компьютеров, основные параметры микропроцессора.

    курсовая работа [48,6 K], добавлен 29.11.2016

  • Архитектура современного персонального компьютера. Виды и характеристики центральных и внешних устройств ЭВМ. Структурная и функциональная схемы персонального компьютера. Устройства для ввода информации в системный блок и для отображения информации.

    курсовая работа [592,5 K], добавлен 18.01.2012

  • Конфигурирование персонального компьютера для Вооруженных сил Российской Федерации и обоснование выбора комплектующих для него. Анализ характеристик комплектующих: процессора, материнской платы, видеокарты, жесткого диска и периферийных устройств.

    курсовая работа [1,9 M], добавлен 16.07.2013

  • Состав и обоснование выбора компонентов персонального компьютера (процессора, материнской платы, комплектующих и периферийных устройств), требования к ним и характеристики. Структурная схема компьютера, его программное обеспечение и расчёт стоимости.

    контрольная работа [1,3 M], добавлен 12.02.2015

  • Изучение внутренней и внешней архитектуры персонального компьютера. Логическая организация и структура аппаратных и программных ресурсов вычислительной системы. Описание различных компонентов ПК. Принципы их взаимодействия, функции и характеристики.

    контрольная работа [33,0 K], добавлен 15.06.2014

  • Архитектура ЭВМ как общее описание ее структуры, функций и ресурсов. Схема взаимодействия устройств компьютера согласно архитектуре фон Неймана. Базовый комплекс персонального компьютера. Центральные и периферийные устройства, внутренняя архитектура.

    презентация [335,2 K], добавлен 17.05.2010

  • Ранние приспособления и устройства для счета. Появление перфокарт, первые программируемые машины, настольные калькуляторы. Работы Джона Фон Неймана по теории вычислительных машин. История создания и развития, поколения электронно-вычислительных машин.

    реферат [37,7 K], добавлен 01.04.2014

  • Принципы программного управления компьютером. Модульная и функциональная организация, аппаратная реализация электронно-вычислительной машины. Назначение устройств ввода и вывода информации. Функции процессора; устройства внутренней и внешней памяти.

    презентация [2,2 M], добавлен 27.11.2013

  • Классификация электронно-вычислительных машин по времени создания и назначению. Принципы "фон Неймана". Аппаратная реализация персонального компьютера: процессор, внутренняя и внешняя память, материнская плата. Основные периферийные устройства.

    реферат [1,2 M], добавлен 24.05.2009

  • Структуры вычислительных машин и систем. Фон-неймановская архитектура, перспективные направления исследований. Аналоговые вычислительные машины: наличие и функциональные возможности программного обеспечения. Совокупность свойств систем для пользователя.

    курсовая работа [797,5 K], добавлен 05.11.2011

  • Архитектура персонального компьютера, функциональные и технические характеристики его устройств. Компоненты материнской платы, строение процессора, виды памяти. Принципы работы процессора и обращение к данным. Пути развития персонального компьютера.

    курсовая работа [102,4 K], добавлен 11.02.2011

  • Краткая история развития микропроцессора как важнейшего элемента любого персонального компьютера. Сущность, значение, функциональные возможности процессоров. Особенности микропроцессоров Pentium, Intel i80386 и i80486. Применение и значение сопроцессора.

    курсовая работа [27,5 K], добавлен 09.11.2010

  • Микропроцессор как универсальное устройство для выполнения программной обработки информации. Функциональные возможности и архитектурные решения. Микроконтроллеры в системах управления и обработки информации. Классификация электронно-вычислительных машин.

    курсовая работа [189,6 K], добавлен 12.10.2015

  • Операционная система - программа, которая загружается при включении компьютера. Способы реализации интерфейса и классификация операционных систем. Организация файловой системы, типы файлов и их наименования. Понятие каталога, атрибуты файловой системы.

    реферат [16,6 K], добавлен 25.02.2011

  • Понятие "информация" и ее определения. Общая структура информатики. Классификация задач, решаемых на ЭВМ. Архитектура персонального компьютера. Основные концепции построения вычислительных систем. Подготовка текстовых документов. Текстовый процессор Word.

    курс лекций [1008,0 K], добавлен 16.10.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.