Кластеры и массивно-параллельные системы различных производителей. Примеры кластерных решений IBM

Основные классы современных параллельных компьютеров: MPP, SMP, NUMA, PVP, кластеры. Коммуникационные технологии построения кластеров. Классификация и использование кластерных систем. Ведущие производители кластеров и массивно-параллельных систем.

Рубрика Программирование, компьютеры и кибернетика
Вид курсовая работа
Язык русский
Дата добавления 06.09.2016
Размер файла 441,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

- внешними условиями, включая создание и ликвидацию кластера, добавление, запуск и останов кластерного узла, добавление и удаление приложения (в том числе автоматическую установку приложений класса ClusterProven), инициирование переключения приложения и соответствующих данных на резервный кластерный узел;

- восстановлением данных, включая запуск и останов реплицирования данных для конкретного приложения и координирование переключений между приложениями и данными;

- восстановлением приложения, включая его запуск и останов.

Указанным требованиям удовлетворяет следующее кластерное промежуточное ПО бизнес-партнеров IBM: Vision Suite 7.0 от Vision Solutions, iCluster от DataMirror и MIMIX Cluster Server от Lakeview Technology.

Microsoft и Novell выпускают ПО кластеризации, оптимизированное под их ОС, которое используют другие компании при формировании своих кластерных решений.

Кластеры под Linux.

Примечателен тот факт, что все эти установки работают под различными разновидностями Linux. Вообще, использование ОС Linux при построении мощных кластерных решений, ориентированных на высокую производительность параллельных вычислений, - всеобщая тенденция, а не просто следствие относительно низкой цены такой ОС. Об этом свидетельствует, в частности, тот факт, что в 2001 году IBM установит для Министерства обороны США в Суперкомпьютерном центре Мауи на Гавайях 512-процессорный Linux-кластер вычислительной мощностью 478 млрд. операций в секунду. Система будет состоять из 256 тонких серверов IBM eServer x330, содержащих каждый по два процессора Pentium III. Серверы будут связаны друг с другом при помощи ПО кластеризации Myricom и высокоскоростного сетевого оборудования. Стоимость системы составит около $10 млн. Предполагается, что в течение ближайших нескольких лет Linux-кластеры станут преобладающей суперкомпьютерной технологией в вычислительных центрах Минобороны США.

Сведения о кластерных установках в России, которые были сформированы в интересах повышения производительности можно найти на сайте. В приложении 3 рассмотрены самые крупные кластерные установки России.

Кластерные проекты в России.

В России всегда была высока потребность в высокопроизводительных вычислительных ресурсах, и относительно низкая стоимость кластерных проектов послужила серьезным толчком к широкому распространению подобных решений в нашей стране.

Одним из первых появился кластер «Паритет», собранный в ИВВиБД и состоящий из восьми процессоров Pentium II, связанных сетью Myrinet. В 1999 году вариант кластерного решения на основе сети SCI был апробирован в НИЦЭВТ, который, по сути дела, и был пионером использования технологии SCI для построения параллельных систем в России.

Высокопроизводительный кластер на базе коммуникационной сети SCI, установлен в Научно-исследовательском вычислительном центре Московского государственного университета. Кластер НИВЦ включает 12 двухпроцессорных серверов «Эксимер» на базе Intel Pentium III/500 МГц, в общей сложности 24 процессора с суммарной пиковой производительностью 12 млрд. операций в секунду. Общая стоимость системы - около 40 тыс. долл. или примерно 3,33 тыс. за 1 GFLOPS.

Вычислительные узлы кластера соединены однонаправленными каналами сети SCI в двумерный тор 3x4 и одновременно подключены к центральному серверу через вспомогательную сеть Fast Ethernet и коммутатор 3Com Superstack.

Сеть SCI - это ядро кластера, делающее данную систему уникальной вычислительной установкой суперкомпьютерного класса, ориентированной на широкий класс задач. Максимальная скорость обмена данными по сети SCI в приложениях пользователя составляет более 80 Мбайт/с, а время латентности около 5,6 мкс. При построении данного вычислительного кластера использовалось интегрированное решение Wulfkit, разработанное компаниями Dolphin Interconnect Solutions и Scali Computer (Норвегия).

Основным средством параллельного программирования на кластере является MPI (Message Passing Interface) версии ScaMPI 1.9.1. На тесте LINPACK при решении системы линейных уравнений с матрицей размера 16000х16000 реально полученная производительность составила более 5,7 GFLOPS. На тестах пакета NPB производительность кластера сравнима, а иногда и превосходит производительность суперкомпьютеров семейства Cray T3E с тем же самым числом процессоров. Основная область применения вычислительного кластера НИВЦ МГУ это поддержка фундаментальных научных исследований и учебного процесса.

Из других интересных проектов следует отметить решение, реализованное в Санкт-Петербургском университете на базе технологии Fast Ethernet: собранные кластеры могут использоваться и как полноценные независимые учебные классы, и как единая вычислительная установка, решающая единую задачу. В Самарском научном центре пошли по пути создания неоднородного вычислительного кластера, в составе которого работают компьютеры на базе процессоров Alpha и Pentium III. В Санкт-Петербургском техническом университете собирается установка на основе процессоров Alpha и сети Myrinet без использования локальных дисков на вычислительных узлах.

4. Примеры кластерных решений IBM (кластер 1350, 1600, RS/6000, IBM SP2)

Стратегия корпорации IBM в области кластерных систем высокой готовности строится на достаточно простом, но вместе с тем бесспорном посыле: задача заказчика всегда на первом месте, все остальное --на втором.

Имея одну из самых мощных в отрасли исследовательских команд и хорошо развитое консалтинговое подразделение, способное решать многогранные внедренческие задачи практически любого уровня сложности, да к тому же занимаясь разработкой сложных информационно-вычислительных систем повышенной отказоустойчивости уже не одно десятилетие - IBM вполне может ставить во главу угла именно задачи, благо разнообразных технических средств для разрешения конкретных проблем заказчика у компании более чем достаточно, и их окончательный выбор осуществляется исходя из результатов пред проектного обследования информационной системы.

Отсюда вполне очевидно, что реальной физической базой кластерных систем высокой готовности от IBM может выступать практически любой сервер компании -- простые и недорогие стандартные машины из серии eServer xSeries на базе 32-разрядной архитектуры х86 (в том числе с использованием 64-разрядных расширений EM64T и AMD64) и 64-разрядной архитектуры Itanium, производительные серверы eServer iSeries и eServer pSeries на базе архитектуры POWER5 и мощные мэйнфреймы eServer zSeries.

Никаких специально выделенных моделей не предусмотрено, накладывается лишь одно условие - достаточность конкретной аппаратной реализации для решения задач обработки данных. Исходя из него, специалисты IBM и формируют перечень предпочтительных моделей для тех или иных задач. Естественно, подобные типовые конфигурации со временем претерпевают определенные изменения - устаревшие и снятые с производства модели исключаются из перечня совместимости, на их место приходят новые.

Стоит отметить, что, держа в своих руках все нити жизненного цикла аппаратных платформ, IBM неуклонно проводит политику переноса инновационных технических и технологических решений с систем высшего уровня zSeries (где они в первую очередь появляются) на системы среднего - iSeries и pSeries, а затем и низшего уровня -- xSeries, обеспечивая заказчикам единую архитектуру законченных решений и вместе с тем избавляя их от избыточных вложений в поддержание и развитие ИТ-инфраструктуры.

В области межузловых взаимодействий корпорация предлагает индивидуальную технологию для каждой серверной линейки, в большинстве случаев неразрывным образом связанную с кластеризующим ПО промежуточного уровня, в результате чего образуется сквозное интегрированное решение. Так, в мэйнфреймах zSeries используется технология Parallel Sysplex, обеспечивающая организацию отказоустойчивых кластерных систем с возможностью непосредственного чтения и записи данных в память всех подключенных серверов. При этом пользовательские приложения могут исполняться параллельно. Для объединения серверов серии iSeries используется одна из трех технологий: замкнутого межузлового кольца -- HSL OptiConnect, виртуального интерконнекта между разделами LPAR -- Virtual OptiConnect и высокоскоростного оптического соединения по схеме точка-точка -- SPD OptiConnect. В решениях на базе серверов pSeries применяется технология IBM High Availability Cluster Multi-Processing for AIX 5L (HACMP) или ее разновидность для катастрофоустойчивых кластеров -- HACMP/XD (Extended Distance). И наконец, в случае серверов xSeries интерконнект организуется с использованием стандарта InfiniBand.

Что касается взаимодействия с СХД, картина аналогична ситуации с выбором кластерных узлов. Использование того или иного оборудования определяется исходя из содержания пользовательской задачи и уровня ее масштабируемости. Возможен широкий спектр решений - от простейшего подключения напрямую до "тяжелых" SAN-систем.

В качестве базовых ОС в каждой серверной серии используются как свои системы, так и ОС сторонних производителей -- z/OS и варианты Linux для zSeries; i5/OS, Linux и AIX 5L для iSeries; AIX 5L и Linux для pSeries; Microsoft Windows Server, Novell Netware и Linux для xSeries, оптимизированные для построения кластеров высокой готовности.

Необходимо особо отметить, что IBM как многопрофильная технологическая компания, выпускающая все без исключения виды аппаратных ресурсов, применяемых для построения кластерных систем высокой готовности, ориентируется на собственные изделия, лишь изредка предлагая список совместимого оборудования от сторонних поставщиков.

Система кластеризации Parallel Sysplex для z/OS позволяет объединять в рамках одного решения до 32 узлов, обеспечивая при этом разделение ресурсов и параллельное исполнение задач. Используемые в ней технические решения гарантируют практически линейный рост производительности при добавлении в кластер новых серверов. Кроме того, ее расширение Geographically Dispersed Parallel Sysplex (GDPS) с помощью технологии HyperSwap позволяет строить территориально разнесенные, катастрофоустойчивые системы.

В качестве промежуточного кластеризующего ПО на системах iSeries предлагается использовать продукты, поставляемые технологическими партнерами IBM. Основное рекомендуемое решение - MIMIX High Availability Cluster от фирмы Lakeview Technology. Модульность и широкие возможности мониторинга и автоматизации процессов репликации данных и системных объектов, переключения нагрузки между производственной и резервными системами позволяют создавать решения, оптимальные с точки зрения требований бизнес-пользователей. В отдельных случаях применяются также программные решения других производителей -- Data Mirror, Vision Solutions, iTera, Maximum Availability и т. д.

Система кластеризации High Availability Cluster Multi-Processing версии 5.2, используемая на серверах pSeries с установленной AIX 5L, позволяет организовать на базе ПО Oracle Application Server 10g как системы с разделением ресурсов (для чего используется технология Oracle Real Application Cluster), так и системы активного дублирования без разделения ресурсов -- Cold Failover Cluster, использующие один из узлов в режиме горячего резерва на случай сбоя в основном узле.

В проектах создания кластерных систем высокой готовности на базе серверов стандартной архитектуры из семейства xSeries IBM полагается на бизнес-партнеров и их программные разработки - в системе Windows предлагается использовать сервисы Microsoft Cluster Services, для Netware применяются Novell Cluster Services, а для Linux используется пакет LifeKeeper компании SteelEye и собственный продукт IBM -- Tivoli System Automation, работающий в среде разных версий Linux не только на xSeries, но и на всех аппаратных платформах IBM. Этот продукт позволяет объединять механизмы высокой доступности, уже имеющиеся в программных комплексах более высокого уровня, а также организовывать кластерные системы активного дублирования для тех продуктов, в которых такой поддержки нет.

За администрирование и конфигурирование кластеров высокой готовности в каждом отдельном случае отвечают специализированные компоненты кластеризующего ПО, работающие совместно с фирменными средствами менеджмента, поставляемыми IBM для каждой из линеек серверов.

Организация высокой готовности конкретных пользовательских приложений в рамках кластерных систем выполняется компанией-интегратором (в том числе и IBM Global Services) в ходе проекта внедрения, для чего может потребоваться доработка приложений или кластеризующего ПО, чтобы максимально полно учесть специфику решаемых задач. IBM, тесно сотрудничая со своими технологическими партнерами и поставщиками приложений в области разработки спецификаций кластерных решений, интерфейсов к механизмам операционной среды и прочих аспектов, активно участвует в процессе адаптации к реальным нуждам заказчика, используя весь свой опыт в области построения корпоративных систем обработки данных.

Отражением этого процесса служат программы сертификации приложений, такие, как ClusterProven для iSeries, когда разработчик кластерного промежуточного ПО помогает производителю приложения доработать его и протестировать на соответствие кластерным спецификациям операционной среды.

IBM Cluster 1350.

В начале 2000 года IBM создала Linux-кластер из установленных в стойке серверов IBMxSeries, интегрировав их с соответствующими сетями, системами управления (аппаратное и программное обеспечение) и необходимыми услугами. После выпуска в 2001 году кластера 1300, IBM представила кластер 1350 на процессорах Intel Xeon.

Стандартным вычислительным узлом для кластера 1350 является IBMxSeries 335. Это позволяет одному или двум процессорам Intel Pentium 4 (Xeon) с быстрой динамической памятью и диском размещаться в стандартном корпусе размером «1U». Символ 1U обозначает 1,75 дюймов высоты в стандартном 19-и дюймовом корпусе. Х335 имеет встроенный сервисный процессор и два слота для соединения с другими компонентами системами.

Головные узлы, узлы управления и узлы запоминающих устройств обеспечивают особые функции для управления кластером (как обеспечение загрузки, управление устройствами, внешний ввод/вывод и т.д). Сервер 2U IBM xSeries 345, основанный на процессорах Xeon, в кластере1350 используется, как узел управления и хранения данных и может быть также использован как вычислительный узел. Коммутаторы используются для межпроцессорного соединения в параллельном программировании и для различных функций управления.

Для параллельного программирования в качестве межпроцессорного соединения обычно используется коммутатор Myrinet фирмы Myricom. Пропускная способность канала составляет приблизительно 200 Мбайт/с в каждом направлении со временем задержки 6-8 мкс.

Терминальные серверы обеспечивают удалённый доступ к консолям ОС узлов через последовательную сеть. Дополнительные функциональные возможности добавляются посредством клавиатуры, мыши, монитора.

Пример конфигурации кластера 1350.

Коммерческий программный пакет может включать в себя WebSphere, DB2, MySQL и т.д. HPC пакет может включать MPICH, PVM, Maui Scheduler, математические библиотеки, трансляторы, профилировщики и т.д.

Оперативная система Linux инсталлирована на каждом узле кластера. Кластер 1350 запускается под Red Hat Linux. В дальнейшем планируется ставить ОС SuSE (4Q02).

Большинство сложившихся систем управления, называемых xCAT, были разработаны IBM для сборки кластеров на основе требований заказчика. xCAT поддерживает все требуемые функции, включая функции удаленного контроля. Отметим, что xCAT использует сервисный процессор xSeries и что xCAT не является открытым программным продуктом. Продукт поставляется свободно с кластерным пакетом IBM, включая исходные тексты.

Управление системами кластера для Linux (CSM) - это лицензионный программный продукт IBM. Он обеспечивает функции управления системами, сходными по форме с программами поддержки параллельных систем (Parallel System Support Programs -- PSSP) для AIX-систем уровня поддержки на RS/6000 SP. CSM - это стандартный программный продукт для кластера 1350.

Другие программные продукты, как взятые из открытого доступа, так и лицензионные, могут быть выбраны и адаптированы к нуждам заказчика и инсталлированы в виде части полной системы всего кластерного решения. Образцы этого ПО включают Portable Batch Scheduler (PBS) и Maui Scheduler, взятые из открытого доступа. Другие образцы включают MPICH для параллельного программирования, математические библиотеки, инструментарий для параллельной отладки и повышения производительности и много других приложений от независимых продавцов.

IBM Cluster 1600.

Системы IBM Cluster 1600 строятся из SMP-серверов с процессорами IBM POWER5 и POWER4, работающих под управлением ОС AIX 5L или Linux. Cluster 1600 - это хорошо масштабируемое кластерное решение для крупномасштабного компьютерного моделирования и анализа, работы с большими базами данных и интеллектуальными бизнес-приложениями, для организации экономически эффективных центров обработки данных, консолидации серверов и рабочих нагрузок. Системы Cluster 1600 могут быть развернуты на базе сети Ethernet или коммутатора IBM High-Performance Switch. Для управления обычно используется программное обеспечение Cluster Systems Management (CSM) - комплексный набор инструментов, специально предназначенный для упрощения начального развертывания и текущего управления кластерными системами.

Основные возможности.

Кластерные решения с высокой степенью масштабируемости на базе ОС AIX 5L или Linux для крупномасштабного компьютерного моделирования, работы с большими базами данных, для организации экономически эффективных центров обработки данных, консолидации серверов и рабочих нагрузок.

- ПО Cluster Systems Management (CSM) для всеобъемлющего гибкого развертывания и текущего управления кластерной системой.

- Варианты сетевых соединений в кластере: стандартные каналы Ethernet (AIX 5L или Linux), коммутатор pSeries High Performance Switch (AIX 5L и CSM), SP Switch2 (AIX 5L и PSSP); или Myrinet (Linux).

- Операционные системы: AIX 5L Version 5.2 или 5.3, SuSE Enterprise Linux 8 или 9.

- Полный набор программных средств для создания, настройки и выполнения параллельных приложений: Библиотека подпрограмм для научно-технических расчетов Engineering & Scientific Subroutine Library (ESSL), среды Parallel ESSL, Parallel Environment, XL Fortran, VisualAge C++ .

- Высокопроизводительная масштабируемая кластерная файловая система высокой готовности General Parallel File System (GPFS).

- ПО планирования задач для оптимизации использования ресурсов и пропускной способности: LoadLeveler.

- ПО для обеспечения высокой готовности и непрерывного доступа к данным и приложениям: : High Availability Cluster Multiprocessing (HACMP).

Обзор аппаратной конфигурации.

- Различные серверы на базе процессоров IBM POWER5 (p5-595, 590, 575, 570, 550, 520, 510 и 505, OpenPower 710 и 720) и POWER4 (p690, p670, p655, p650, p630 и p615).

До 128 серверов или логических разделов (LPAR) (образов ОС AIX или Linux) на кластер в зависимости от используемого аппаратного обеспечения; более высокая масштабируемость по специальному заказу

IBM Cluster RS/6000.

Компания IBM предлагает несколько типов слабо связанных систем на базе RS/6000, объединенных в кластеры и работающих под управлением программного продукта High-Availability Clastered Multiprocessor/6000 (HACMP/6000).

Узлы кластера работают параллельно, разделяя доступ к логическим и физическим ресурсам пользуясь возможностями менеджера блокировок, входящего в состав HACMP/6000.

Начиная с объявления в 1991 году продукт HACMP/6000 постоянно развивался. В его состав были включены параллельный менеджер ресурсов, распределенный менеджер блокировок и параллельный менеджер логических томов, причем последний обеспечил возможность балансировки загрузки на уровне всего кластера. Максимальное количество узлов в кластере возросло до восьми. В настоящее время в составе кластера появились узлы с симметричной многопроцессорной обработкой, построенные по технологии Data Crossbar Switch, обеспечивающей линейный рост производительности с увеличением числа процессоров.

Кластеры RS/6000 строятся на базе локальных сетей Ethernet, Token Ring или FDDI и могут быть сконфигурированы различными способами с точки зрения обеспечения повышенной надежности:

Горячий резерв или простое переключение в случае отказа. В этом режиме активный узел выполняет прикладные задачи, а резервный может выполнять некритичные задачи, которые могут быть остановлены в случае необходимости переключения при отказе активного узла.

Симметричный резерв. Аналогичен горячему резерву, но роли главного и резервного узлов не фиксированы.

Взаимный подхват или режим с распределением нагрузки. В этом режиме каждый узел в кластере может "подхватывать" задачи, которые выполняются на любом другом узле кластера.

IBM Cluster SP2

IBM SP2 лидируют в списке крупнейших суперкомпьютеров TOP500 по числу инсталляций (141 установка, а всего в мире работает 8275 таких компьютеров с общим числом узлов свыше 86 тыс. В основу этих суперкомпьютеров заложенный в основу архитектуры кластерный подход с использованием мощного центрального коммутатора. IBM использует этот подход уже много лет. Общая архитектура SP2.

Общее представление об архитектуре SP2 дает рисунок 3. Основная особенность архитектуры -- применение высокоскоростного коммутатора с низкими задержками для соединения узлов между собой. Эта внешне предельно простая схема, как показал опыт, оказалась чрезвычайно гибкой. Сначала узлы SP2 были однопроцессорными, затем появились узлы с SMP-архитектурой.

Рисунок 3

Собственно, все детали скрываются в строении узлов. Мало того, узлы бывают различных типов, причем даже процессоры в соседних узлах могут быть разными. Это обеспечивает большую гибкость выбора конфигураций. Общее число узлов в вычислительной системе может достигать 512. Узлы SP2 фактически являются самостоятельными компьютерами, и их прямые аналоги продаются корпорацией IBM под самостоятельными названиями. Наиболее ярким примером этого является четырехпроцессорный SMP-сервер RS/6000 44P-270 c микропроцессорами Power3-II, который сам по себе можно отнести к классу компьютеров среднего класса или даже к мини-суперкомпьютерам.

Устанавливавшиеся в узлах SP2 микропроцессоры развивались по двум архитектурным линиям: Power -- Power2 -- Power3 -- Power3-II и по линии PowerPC вплоть до модели 604e с тактовой частотой 332 МГц.

Традиционными для SP2 являются «тонкие» (Thin Node) и «широкие» (Wide Node) узлы, обладающие SMP-архитектурой. В них могут устанавливаться как PowerPC 604e (от двух до четырех процессоров), так и Power3-II (до четырех). Емкость оперативной памяти узлов составляет от 256 Мбайт до 3 Гбайт (при использовании Power3-II -- до 8 Гбайт). Основные отличия между тонкими и широкими узлами касаются подсистемы ввода/вывода. Широкие узлы предназначены для задач, требующих более мощных возможностей ввода/вывода: в них имеется по десять слотов PCI (в том числе три 64-разрядных) против двух слотов в тонких узлах.

Соответственно, и число монтажных отсеков для дисковых устройств в широких узлах больше.

Быстродействие коммутатора характеризуется низкими величинами задержек: 1,2 мс (до 2 мс при числе узлов свыше 80). Это на порядок лучше того, что можно получить в современных Linux-кластерах Beowulf. Пиковая пропускная способность каждого порта: она составляет 150 Мбайт/с в одном направлении (то есть 300 Мбайт/с при дуплексной передаче). Той же пропускной способностью обладают и расположенные в узлах SP2 адаптеры коммутатора. IBM приводит также отличные результаты по задержкам и пропускной способности.

Наиболее мощные узлы SP2 -- «высокие» (High Node) рисунок 4. Высокий узел -- это комплекс, состоящий из вычислительного узла с подсоединенными устройствами расширения ввода/вывода в количестве до шести штук. Такой узел также обладает SMP-архитектурой и содержит до 8 процессоров Power3 с тактовой частотой 222 или 375 МГц.

Рисунок 4

Кроме того, узел этого типа содержит плату ввода/вывода, которая также подсоединена к системной плате. Плата ввода/вывода содержит два симметричных логических блока SABER, через которые осуществляется передача данных к внешним устройствам, таким как диски и телекоммуникационное оборудование.

На плате ввода/вывода имеется четыре слота 64-разрядной шины PCI и один 32-разрядный слот (частота 33 МГц), а также интегрированы контроллеры UltraSCSI, Ethernet 10/100 Мбит/с, три последовательных и один параллельный порт.

C появлением высоких узлов и микропроцессоров Power3-II/375 МГц на тестах Linpack parallel системы IBM SP2 достигли производительности 723,4 GFLOPS. Этот результат достигнут при использовании 176 узлов (704 процессора). Учитывая, что узлов можно установить до 512, этот результат показывает, что серийно выпускаемые IBM SP2 потенциально близки к отметке 1 TFLOPS.

Заключение

Ведущие производители кластеров и массивно-параллельных систем: Compaq, Hewlett-Packard, Sun Microsystems, IBM, Microsoft и Novell придерживаются одинаковой точки зрения на будущее отрасли суперкомпьютеров, на смену отдельным, независимым суперкомпьютерам должны прийти группы высокопроизводительных серверов, объединяемых в кластер. Уже сегодня распределенные кластерные системы опережают современные классические суперкомпьютеры по производительности: самый мощный на сегодняшний день компьютер в мире -- IBM ASCI White -- обладает производительностью в 12 ТераФЛОП, производительность сети SETI@Home оценивается примерно в 15 ТераФЛОП. При этом, IBM ASCI White был продан за 110 миллионов долларов, а за всю историю существования SETI@Home было потрачено около 500 тысяч долларов.

Рассмотрев и изучив в данной работе концептуальные подходы и технические решения при построении кластерных и массивно- параллельных систем различных производителей, предназначенных для высокопроизводительных вычислений, можно сделать выводы:

Параллельное программирование - основа высокопроизводительных вычислений.

Кластер - множество отдельных компьютеров, объединенных в сеть.

Ключевые особенности - это отсутствие общей памяти и пересылка данных по сети. Основные особенности - это дешевизна и простая расширяемость.

Кластеры стали фактическим стандартом высокопроизводительных систем. Вычислительные задачи очень требовательны к ресурсам и работают днями и даже неделями.

Кластеры, как правило, используются одновременно большим количеством пользователей.

Необходимы специализированные системы, способные эффективно управлять ресурсами кластера.

Наиболее часто используемые сетевые интерфейсы: Gigabit Ethernet, Myrinet. Наиболее распространенные процессоры Intel. Наиболее распространенное количество ядер - 2.

В данной работе были изучены типичные классы архитектур современных параллельных компьютеров - MPP, SMP, NUMA, PVP, кластеры и их особенности. Изучены теоретические аспекты принципа построения кластерных систем. Подробно рассмотрены архитектуры и применяемые аппаратные средства в отказоустойчивых кластерах VAX/VMS и высокопроизводительных Beowulf.

Проанализировав итоги работ, выполненных в рамках проекта Beowulf, можно прийти к следующему выводу: найденные решения позволяют самостоятельно собрать высокопроизводительный кластер на базе стандартных для ПК компонентов и использовать обычное программное обеспечение. Среди самых крупных экземпляров нельзя не отметить 50-узловой кластер в CESDIS, включающий 40 узлов обработки данных (на базе одно- и двухпроцессорных плат Рentium Рro/200 МГц) и 10 масштабирующих узлов (двухпроцессорная плата Рentium Рro/166 МГц). Соотношение стоимость/пиковая производительность в таком кластере представляется очень удачным. Вопрос в том, насколько эффективно удается распараллелить приложения - иными словами, какова будет реальная, а не пиковая производительность. Над решением этой проблемы сейчас и работают участники проекта.

В работе были рассмотрены самые крупные компании являющиеся производителями кластеров и массивно-параллельных систем, такие как производители Compaq, Hewlett-Packard, Sun Microsystems, IBM, Microsoft и Novell. Расмотрены их подходы к кластерным решениям.

Так же в работе были изучены существующие кластерные решения компании IBM на примере кластерных установок - кластер 1350, 1600, RS/6000, IBM SP2.

В связи, с чем можно сказать, что интегрированные кластерные решения компании IBM обеспечивают существенное улучшение соотношения цены и производительности для многих высокопроизводительных рабочих нагрузок благодаря правильному использованию преимуществ инновационных серверов. Поскольку обширный портфель серверных решений можно оптимизировать в соответствии с требованиями заказчика - и для формирования небольшого кластера отдела, и для создания суперкомпьютера.

В заключении отмечу, что разнообразие подхода к реализации кластерных решений - это идеальное решение для ряда прикладных сред, включая среды, оптимизированные для промышленного проектирования и производства, финансовых услуг, естественных наук, нефтегазовой отрасли, государственных учреждений и сферы образования.

Размещено на Allbest.ur

...

Подобные документы

  • Классификация параллельных вычислительных систем. Существенные понятия и компоненты параллельных компьютеров, их компоненты. Особенности классификаций Хендера, Хокни, Флинна, Шора. Системы с разделяемой и локальной памятью. Способы разделения памяти.

    курсовая работа [331,1 K], добавлен 18.07.2012

  • Описание кластерных систем и характеристика библиотек параллелизма. Аналоги PVM. Организация параллельных вычислений. Описание оборудования и программного обеспечения кластера. Гипотеза Гольдбаха. Процесс компиляции собственной программы для работы с PVM.

    курсовая работа [847,2 K], добавлен 05.12.2014

  • Математическая основа параллельных вычислений. Свойства Parallel Computing Toolbox. Разработка параллельных приложений в Matlab. Примеры программирования параллельных задач. Вычисление определенного интеграла. Последовательное и параллельное перемножение.

    курсовая работа [1,1 M], добавлен 15.12.2010

  • Классификация алгоритмов маршрутизации. Методы передачи данных. Характеристики коммуникационной составляющей длительности выполнения параллельного алгоритма. Преимущества и недостатки CTR. Оценки трудоемкости для различных топологий и кластеров.

    презентация [875,8 K], добавлен 10.02.2014

  • Абстрактные модели и способы параллельной обработки данных, допустимая погрешность вычислений. Понятие параллельного процесса, их синхронизация и гранулы распараллеливания, определение закона Амдаля. Архитектура многопроцессорных вычислительных систем.

    дипломная работа [1,3 M], добавлен 09.09.2010

  • Типы кластеров и анализ кластерных технологий. Принципы работы среды MPICH. Разработка рабочих заданий для лабораторных работ, программного обеспечения для лабораторного комплекса. Подготовка рабочих мест и описание хода выполнения лабораторных работ.

    дипломная работа [3,7 M], добавлен 13.02.2016

  • Понятие вычислительных систем, их классификация по различным признакам. Модели параллельных вычислений PGAS и APGAS. Разработка программного продукта для анализа информационных обменов в параллельных программах на языке IBM X10. Расчёт его себестоимости.

    дипломная работа [1,6 M], добавлен 10.06.2013

  • Знакомство с историей развития многопроцессорных комплексов и параллельных вычислений. Персональные компьютеры как распространенные однопроцессорные системы на платформе Intel или AMD, работающие под управлением однопользовательских операционных систем.

    презентация [1,1 M], добавлен 22.02.2016

  • Параллельные вычислительные системы, их общая характеристика и функциональные особенности, оценка возможностей, внутренняя структура и взаимосвязь элементов, типы: одно- и многопроцессорные. Параллельная форма алгоритма, его представление и реализация.

    контрольная работа [118,1 K], добавлен 02.06.2014

  • Роль распределенных вычислительных систем в решении современных задач. Инструментальная система DVM для разработки параллельных программ. Средства построения формальной модели графического интерфейса. Требования к графическому интерфейсу DVM-системы.

    курсовая работа [2,7 M], добавлен 15.10.2010

  • Понятие и особенности технологий распределенных и параллельных систем управления базами данных, их отличительные черты, схожие признаки. Уникальная роль системы каждого типа и их взаимодополняемость при использовании для решения задач управления данными.

    курсовая работа [839,2 K], добавлен 24.05.2012

  • Общие сведения в области формирования контрольной суммы и проверки кластеров. Основные элементы в файловой системе Windows и их взаимодействие. Разработка программы для подсчета и проверки контрольной суммы кластеров, тестирование и обработка результатов.

    курсовая работа [1,3 M], добавлен 25.04.2011

  • Пути достижения параллелизма вычислений. Понятие и разновидности, а также сферы и особенности использования суперкомпьютеров. Параллельные вычисления как процессы решения задач, в которых могут выполняться одновременно несколько вычислительных операций.

    презентация [8,3 M], добавлен 11.10.2014

  • Основы методологии мониторов и устройства жесткого диска. Планирование работы дисков с использованием мониторов. Теоретические основы параллельного программирования. Микропроцессорная реализация параллельных процессов на основе технологии мониторов.

    дипломная работа [3,5 M], добавлен 08.07.2012

  • Классификация вычислительных систем по способам взаимодействия потоков выполняемых команд и потоков обрабатываемых данных, их разновидности и функциональные особенности. Принципы расширения классификации Флинна. Виды топологии соединительной сети.

    презентация [175,6 K], добавлен 11.10.2014

  • Анализ проблем, возникающих при применении методов и алгоритмов кластеризации. Основные алгоритмы разбиения на кластеры. Программа RapidMiner как среда для машинного обучения и анализа данных. Оценка качества кластеризации с помощью методов Data Mining.

    курсовая работа [3,9 M], добавлен 22.10.2012

  • Особенности построения программ реального времени на основе параллельных процессов. Реализация простой программы, которая выводит на экран текст приветствия и завершается. Создание массива из трехсот параллельных процессов, получающих уникальный индекс.

    статья [19,8 K], добавлен 08.12.2016

  • Понятие информационных систем и принципы их проектирования. Изучение различных методов извлечения знаний, построение оптимальной информационной системы Data Mining, позволяющей разбивать набор данных, представленных реляционными базами данных на кластеры.

    аттестационная работа [4,7 M], добавлен 14.06.2010

  • Классификация автоматизированных информационных систем. Классические примеры систем класса А, B и С. Основные задачи и функции информационных систем (подсистем). Информационные технологии для управления предприятием: понятие, компоненты и их назначение.

    контрольная работа [22,9 K], добавлен 30.11.2010

  • Основные модели вычислений. Оценки эффективности параллельных алгоритмов, их коммуникационная трудоемкость. Последовательный алгоритм, каскадная схема и способы ее улучшения. Модифицированная каскадная схема. Передача данных, классификация операций.

    презентация [1,3 M], добавлен 10.02.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.