Создание центра обработки данных
Проектирование инфраструктуры и системы защиты центра обработки данных. Выбор серверных платформ и связанных комплектующих, систем хранения данных. Программное обеспечение для работы сетевых сервисов, для доступа к внешним сетям, конфигурирование.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 16.02.2016 |
Размер файла | 3,0 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
6.1 Конфигурирование сетевого оборудования
Сетевое оборудование центра обработки данных можно условно поделить на коммутаторы серверного сегмента, узел маршрутизации и коммутаторы пользовательского сегмента.
6.1.1 Настройка коммутаторов серверном сегменте
Коммутаторы в этом сегменте представлены моделью D-Link <DGS-3427>. Два коммутатора объединены в коммутационный стек, логически образуя один единый коммутатор.
Стек создается через порт стекирования CX4, на каждом коммутаторе два подобных порта. Скорость одного порта 20 Гбит/с, при использовании кольцеобразной топологии подключения (по два соединения с каждого коммутатора) скорость сообщения в стеке будет 40 Гбит/с.
Коммутатор может конфигурироваться с помощью нескольких интерфейсов управления, например Web-интерфейс, интерфейс командной строки (CLI), Telnet. Настройку можно выполнять по сети, либо через последовательный порт RS-232.
Устройства к коммутационному стеку подключены в следующей конфигурации:
- 2-а гипервизора (взаимодействие узлов в подсети ОС гипервизоров), каждый через агрегированный канал 2 Гбит/с (2-е линии связи с одного сервера), каждое из соединений этого канала подключено к отдельному физическому коммутатору.
- 2-а гипервизора (взаимодействие гостевых доменов и остальной сети), каждый через агрегированный канал 2 Гбит/с (2-е линии связи с одного сервера), каждое из соединений этого канала подключено к отдельному физическому коммутатору.
- Основное хранилище через канал 5 Гбит/с, всего 5 линий, 3 из которых подключены к первому, 2-е к второму физическому коммутатору.
- Резервное сетевое хранилище через канал 2 Гбит/с (2-е линии связи). Каждая линия канала подключена к отдельному физическому коммутатору.
- Управляющие компьютеры, в любой конфигурации (возможно через один или два порта, от своего коммутатора).
- Узел маршрутизации, через агрегированный канал 4 Гбит/с (4-е линии связи). Каждая пара линий подключена к отдельному физическому коммутатору.
Подобная схема реализует отказоустойчивость при обрыве любого канала связи, при этом избыточные каналы используются для увеличения пропускной способности сети, при условии поддержки технологии 802.3ad и делении на сегменты vlan.
Идентификатор VLAN должны быть присвоены портам в подсети гипервизоров (каналы гипервизоров (для их взаимодействия), сетевые хранилища, управляющее звено) и подсети серверного сегмента (каналы гипервизоров для взаимодействия гостевых доменов и остальной сети). Для этих подсетей будут назначены, например идентификаторы VLAN100 (для гипервизоров) и VLAN200,VLAN300 (для сетевых сервисов).
Канал агрегированных портов, подключенный к стеку маршрутизации а так же к гипервизорам должен быть тегирован (tagged или trunk-порты) в соответствии с сегментами VLAN, расположенными на портах этих коммутаторов. Стандарт, по которому тегируются порты для всего коммутационного оборудования, должен быть одинаковый: IEEE 802.1q. Так же имеет смысл тегировать канал, через который взаимодействуют гостевые домены (на уровне ОС гипервизоров). Это будет важно в случае масштабирования и разделения на подсети (соответственно на vlan-ы) виртуализированного серверного сегмента.
Сегмент подсети гипервизоров на этом этапе становится изолированым от остальной сети соответствующим vlan.
Для того чтобы коммутаторы пропускали UDP-датаграммы, адресованные DHCP-серверу в другой сегмент сети (и в другой vlan) надо настроить DHCP-relay option 82. В данном случае коммутатор настраивается как DHCP-ретранслятор (relay-agent). Он обрабатывает стандартный широковещательный DHCP-запрос и перенаправляет его на DHCP-сервер в виде целенаправленного (unicast) пакета. Коммутатору должен быть задан собственный IP-адрес (выбранный коммутатор имеет уровень L2+ и позволяет работать этим технологиям).
Для работы DHCP-relay необходимо включить саму опцию, указать маршрут "по умолчанию" к следующему узлу relay-agent (IP-адрес маршрутизатора), а так же добавить IP-адрес DHCP-сервера.
Все опции можно сконфигурировать с помощью CLI интерфейса командной строки коммутатора D-Link.
6.1.2 Настройка стека маршрутизации
Маршрутизаторы для центра обработки данных представлены моделью Cisco WS-C3560G-24TS-E. Два подобных маршрутизатора объединены в единый стек маршрутизации через порты стекирования, логически образуя один единый 48-и портовый маршрутизатор.
Маршрутизатор Cisco имеет собственную операционную систему IOS которая может конфигурироваться с помощью интерфейса командной строки (CLI), Telnet или через web-интерфейс. Настройку можно выполнять по сети либо через специальный консольный интерфейс Cisco (подключается к COM-порту компьютера).
Сетевые узлы подключены к стеку маршрутизации в следующей конфигурации:
- Коммутаторы серверного сегмента подключены через агрегированный канал 4 Гбит/с (4-е линии связи). Первая пара линий связи с одного коммутатора соединена с первым и вторым маршрутизатором, вторая пара линий связи с другого коммутатора так же соединена с первым и вторым маршрутизатором. Канал связи тегирован по идентификаторам VLAN серверного сегмента (VLAN200, VLAN300).
- Подсистема доступа к внешним сетям подключена через агрегированный канал 2 Гбит/с (2-е линии связи). Каждая линия подключена к отдельному маршрутизатору. Канал тегирован по идентификатору vlan подсистемы доступа к внешним сетям (VLAN300).
- Коммутаторы пользовательского сегмента подключены через агрегированный канал 2 Гбит/с (2-е линии связи). Каждая линия любого коммутатора подключена к отдельному маршрутизатору. Каналы тегированы по идентификаторам vlan, исходя из сегментов, которые обслуживают коммутаторы (для коммутаторы, обслуживающего два сегмента vlan канал должен быть тегирован двумя идентификаторами этих сегментов vlan). Для отделов 1,2,3,4 каналы будут тегированы VLAN10, VLAN20, VLAN30 и VLAN40 соответственно.
Подобная конфигурация позволяет реализовать отказоустойчивость на уровне обрыва любого канала связи, либо выходу из строя одного из маршрутизаторов, при этом избыточные линии связи будут использованы для увеличения пропускной способности сети.
Маршрутизация должна быть построена исходя из сегментов VLAN. Это означает, что подсети, имеющие соответствующий идентификатор будут маршрутизироваться, отталкиваясь не от номеров портов, а от VLAN ID. Пример фрагмента подобной конфигурации приведен ниже:
hostname "routing_stack"
ip routing
vlan 10
name "group1"
ip address 10.0.1.1 255.255.255.0
ip helper-address 10.0.0.100
tagged 11
exit
vlan 300
name "gate"
ip address 172.16.1.1 255.255.255.0
tagged 2
exit
Таким образом маршрутизация пакетов будет происходить исходя из принадлежности этих хостов к сегменту vlan (в приведенном примере это подсети 172.16.1.0/24 vlan300 и 10.0.1.0/24 vlan10).
В качестве маршрута по умолчанию, маршрутизаторы должны использовать IP-адрес подсистемы доступа к внешним сетям (шлюза в интернет), например 172.16.1.100.
Для того чтобы маршрутизаторы пропускали UDP-датаграммы, адресованные DHCP-серверу в другой сегмент сети (и в другой vlan) надо настроить DHCP-relay option 82. В данном случае стек маршрутизации настраивается как DHCP-ретранслятор (relay-agent).
Для работы DHCP-relay необходимо включить саму опцию, указать маршрут "по умолчанию" к следующему узлу relay-agent (IP-адрес маршрутизатора), а так же добавить IP-адрес DHCP-сервера.
6.1.3 Настройка коммутаторов пользовательского сегмента
Коммутаторы в этом сегменте представлены моделью D-Link <DES-3052>. Для двух отделов (двух подсетей) выделен один коммутатор, для оставшихся двух отделов выделено по одному коммутатору.
Коммутатор может конфигурироваться с помощью нескольких интерфейсов управления, например Web-интерфейс, интерфейс командной строки (CLI), Telnet. Настройку можно выполнять по сети, либо через последовательный порт RS-232.
Каждый коммутатор подключен к стеку маршрутизации через 2-а гигабитных порта, при этом первый порт подключен к первому маршрутизатору, второй ко второму. Для этого подключения надо использовать протокол агрегации каналов 802.3ad (как на коммутаторах, так и на маршрутизаторе). Такой тип подключения обеспечивает отказоустойчивость при отказе одного из маршрутизаторов (либо при обрыве одного канала связи). Оставшиеся два гигабитных порта можно использовать для подключения дополнительных коммутаторов.
Каждому отделу надо задать свой уникальный идентификатор VLAN, VLAN10, VLAN20, VLAN30, VLAN40 для первого, второго, третьего и четвертого отдела соответственно. Идентификаторы VLAN должны быть присвоены соответствующим портам коммутаторов (к которым подключены пользователи, но при этом есть возможность определять членство в VLAN, основываясь на MAC-адресе рабочей станции).
Канал агрегированных портов, подключенный к стеку маршрутизации должен быть тегирован (tagged или trunk-порты) в соответствии с сегментами VLAN, расположенными на портах этих коммутаторов. Стандарт, по которому тегируются порты для всего коммутационного оборудования, должен быть одинаковый: IEEE 802.1q. При этом важно учитывать, что для коммутатора работающего с двумя сегментами vlan агрегированный канал надо тегировать для обоих vlan. Остальные порты, работающие с пользовательскими хостами остаются нетегированными.
Сегменты пользовательской сети на этом этапе становятся изолированы соответствующими vlan, широковещательный трафик (например DHCP-запрос), будет ограничен этим сегментом.
Для того чтобы коммутаторы пропускали UDP-датаграммы, адресованные DHCP-серверу в другой сегмент сети (и в другой vlan) надо настроить DHCP-relay option 82. В данном случае коммутатор настраивается как DHCP-ретранслятор (relay-agent). Он обрабатывает стандартный широковещательный DHCP-запрос и перенаправляет его на DHCP-сервер в виде целенаправленного (unicast) пакета. Коммутатору должен быть задан собственный IP-адрес (выбранный коммутатор имеет уровень L2+ и позволяет работать этим технологиям).
Для работы DHCP-relay необходимо включить саму опцию, указать маршрут "по умолчанию" к следующему узлу relay-agent (IP-адрес маршрутизатора), а так же добавить IP-адрес DHCP-сервера.
Все опции можно сконфигурировать с помощью CLI интерфейса командной строки коммутатора D-Link.
6.2 Настройка сетевых хранилищ
Сетевые хранилища представлены основным хранилищем модели Thecus N12000 и резервным хранилищем модели Thecus N8800PRO.
6.2.1 Настройка основного сетевого хранилища
Основное сетевое хранилище Thecus N12000 должно быть сконфигурировано на два RAID-5 массива. При отказе любого накопителя в массиве вся информация сохранится, работа хранилища не прервется (сообщение об отказе накопителя будет отображено NAS). В первом массиве расположены накопители SATA SSD OCZ Vertex 3 120 Gb, во втором массиве расположены накопители SAS HDD Seagate Cheetah 15K 600Gb.
Хранилище конфигурируется через web-интерфейс управления (по умолчанию установлен следующий IP-адрес: http://192.168.1.100) . Сетевому хранилищу задается IP-адрес, соответствующий диапазону из подсети гипервизоров.
Массивы создаются собственными средствами конфигурирования сетевых хранилищ. Для организации единого хранилища массив можно предоставить в общий доступ гипервизорам тремя способами:
- Доступ на уровне блочных устройств (iSCSI поддерживает до 5-и томов в одном массиве).
- Доступ, на уровне сетевой файловой системы NFS.
- Доступ на уровне подмонтированного iSCSI тома, отформатированного в распределенную файловую систему (GFS).
GFS (Global File System) через iSCSI имеет высокое быстродействие, такую связку выгодно использовать для хранения файлов виртуальных машин. Такую связку выгодно использовать для единого хранилища файлов виртуальных машин.
Прямой доступ к iSCSI, как блочному устройству имеет максимальное быстродействие. Выбор файловой системы в этом случае ложится на ОС, средствами которой подключен том iSCSI. Подобный тип подключения будет использован для хранилища файловых сервисов.
Первый массив RAID-5 (SSD) будет распределен в единый целевой том (target) iSCSI (iSCSI LUN, сам логический номер (LUN) тома присваивается хранилищем автоматически), который в дальнейшем будет подключен к инициаторам - гипервизорам. Раздел должен быть отформатирован в распределенную файловую систему GFS и подмонтирован в одну директорию на всех гипервизорах (в ней должны располагаться файлы виртуальных машин). Использование иной файловой системы приведет к повреждению данных на целевом томе iSCSI.
Второй массив RAID-5 (SAS) будет распределен на три целевых тома (target) iSCSI (или более, до 5 в соответствии с требованиями файловых сервисов FTP, NFS, SMB), которые в дальнейшем будет подключены к гипервизорам как блочные устройства. Эти блочные устройства в свою очередь будут подключены как разделы к гостевым доменам XEN. Операционные системы гостевых доменов могут сами выбрать ФС, которая наилучшим образом подойдет для работы их сервисов.
Сетевое хранилище Thecus N12000 имеет три собственных гигабитных сетевых интерфейса. При выборе аппаратной составляющей была добавлена сетевая плата с двумя гигабитными сетевыми интерфейсами.
Таким образом, сетевое хранилище имеет 5-ть сетевых интерфейсов, которые объединяются в единый 5-и гигабитный канал (5-ть линий). Три линии этого канала подключены к первому коммутатору в стеке коммутации серверного сегмента, две оставшиеся линии ко второму. Таким образом, при обрыве любой (и даже четырех из пяти) линий связи, либо отказе одного из коммутаторов в стеке связь с хранилищем сохранится.
Клиент Acronis, обращающийся к резервному хранилищу для выполнения планов резервного копирования может быть установлен на любой компьютер, расположенный в подсети гипервизоров (например, на компьютер из управляющего звена).
6.2.2 Настройка хранилища резервных копий
Хранилище резервных копий Thecus N8800PRO должно быть сконфигурировано для использования одного RAID-6 массива. При отказе любых двух накопителей в массиве вся информация сохранится, работа хранилища не прервется. В первом массиве RAID-6 расположены надежные накопители SATA HDD Seagate Constellation ES 2-TB (8 штук).
Хранилище конфигурируется через web-интерфейс управления (по умолчанию установлен следующий IP-адрес: http://192.168.1.100) . Сетевому хранилищу задается IP-адрес, соответствующий диапазону из подсети гипервизоров.
Массивы создаются собственными средствами конфигурирования сетевых хранилищ. Для доступа к массиву будет использоваться протокол FTP, который поддерживается системой резервного копирования.
Все файловое пространство будет разделено на разделы (либо раздел, исходя из предпочтений к сегментации хранения) и отформатировано в файловую систему, поддерживаемую хранилищем (например, EXT3).
Доступ к разделам будет предоставлен по протоколу FTP, сервером которого можно сконфигурировать хранилище.
Сетевое хранилище Thecus N8800PRO имеет два гигабитных сетевых интерфейса, которые объединяются в единый 2-х гигабитный канал (2-е линии). Одна этого канала подключены к первому коммутатору в стеке коммутации серверного сегмента, вторая линия ко второму. Таким образом, при обрыве любой линий связи, либо отказе одного из коммутаторов в стеке связь с хранилищем сохранится.
6.3 Настройка ОС гипервизоров и среды виртуализации XEN
До установки операционной системы накопители SSD OCZ Vortex3 120GB объединяются в отказоустойчивый массив RAID-1, средствами BIOS встроенного SATA контроллера.
Для операционных систем гипервизоров был выбран дистрибутив Linux CentOS. Установка 64-х битного дистрибутива происходит с 2-х DVD дисков интерактивном режиме. При установке надо указать роли, которые будет исполнять установленная ОС. Надо учитывать, что для XEN лучше использовать LVM разделы (Logical Volum Manager). Файл подкачки надо расположить на отдельном разделе.
Важно указать, что сервер будет являться гипервизором XEN. В этом случае загрузчик будет модифицирован: ядро, загружаемое по умолчанию будет ядром XEN, ядро Linux будет подгружаться модулем. Установленный Linux загружается как управляющий домен (Dom0) и имеет полный доступ к управлению оборудованием и функционалом гипервизора. Прочие сервисы, которые не используются непосредственно для работы гипервизора XEN должны быть отключены, для увеличения быстродействия гипервизоров. Это можно сделать на этапе установки, либо с помощью утилиты chkconfig (можно и ручной правкой файлов конфигурации).
После установки CentOS надо подготовить ОС для использования в среде виртуализации а так же саму среду XEN.
6.3.1 Настройка операционных систем гипервизоров
При условии, что ОС нашла драйверы для всех устройств на этапе установки можно продолжать настройку, иначе надо установить необходимые для работы оборудования драйверы.
Каждый сервер, выполняющий роль гипервизора имеет 4-е сетевых интерфейса. Интерфейсы должны быть попарно агрегированы в один канал. Интерфейс агрегации настраивается в файле /etc/modprobe.conf, пример настройки этого файла для первого канала:
alias bond0 bonding
options bond0 miimon=100 mode=1
Интерфейс bond0 будет иметь роль "master", интерфейсы, которые объединяются в канал bond0 будут иметь роль "slave". Они настраиваются в файле /etc/sysconfig/network-scripts/ifcfg-ethN ("ethN" - имя интерфейса, например "eth0", "eth1"). Пример файла для настройки для ifcfg-eth0:
DEVICE=eth0
BOOTPROTO=static
HWADDR=00:11:22:33:44:55
ONBOOT=yes
TYPE=Ethernet
SLAVE=yes
MASTER=bond0
Подобную настройку надо выполнить для всех интерфейсов. В результате будут созданы каналы bond0 (eth0 и eth1) и bond1 (eth2 и eth3). IP адрес, маска подсети и прочие параметры канала настраиваются в файле /etc/sysconfig-network-scripts/ifcfg-bond0 (ifcfg-bond1 для второго канала).
Пример конфигурации для bond0 для подсети гипервизоров 192.168.0.1/24:
DEVICE=bond0
BOOTPROTO=none
IPADDR=192.168.0.1
NETMASK=255.255.255.0
GATEWAY= none
ONBOOT=yes
Далее надо настроить VLAN для канала связи виртуализированного серверного сегмента (bond1), канал надо тегировать.
Для этого используется утилита Linux для работы с VLAN "vconfig". Пример тегирования канала bond1 для vlan 200, vlan 300:
ifconfig bond1 0.0.0.0 up
vconfig add bond1 200
vconfig add bond1 300
ifconfig bond1.200 0.0.0.0 up
ifconfig bond1.300 0.0.0.0 up
Мост "xenbr200" создается для сетевого сегмента, его нужно лишь скоммутировать на соответствующий vlan (vlan200).
brctl addbr xenbr200
brctl addif xenbr200 bond1.200
Соответствующие виртуальные машины должны быть настроены на сетевой мост в собственных файлах конфигурации.
Создание моста для изоляции сегмента серверов, доступ к которым возможен из внешних сетей с подсистемой доступа к внешним сетям:
brctl addbr xenbr300
brctl addif xenbr300 bond1.300
Виртуальные машины, на которых расположены сервисы, доступ к которым возможен из внешних сетей, должны быть скоммутированы именно на этот сетевой мост (xenbr300, настройка в файле конфигурации DomU). Так эти сервисы будут изолированы от остальной сети сегментом vlan300.
Далее, надо создать единое хранилище на всех гипервизорах. Для этого надо подключить блочное устройство iSCSI, создать разделы, отформатировать его и подмонтировать в единую директорию.
Для этого надо использовать программное обеспечение iSCSI-инициатора (полная модель работы с iSCSI описана в RFC 3720). Утилита для подключения целевого раздела "iscsiadm", до использования утилиты надо включить демон iSCSI ("chkconfig iscsi on", "service iscsi start").
Пример использования утилиты iscsiadm для обзора хранилища:
iscsiadm -m discovery -t sendtargets -p 192.168.0.100:3260
Данная команда покажет все возможные тома в данном хранилище и отобразит их логические номера (LUN).
Примечание: для работы используется TCP порт "3260".
Пример команды для подключения целевого тома:
iscsiadm -m node -T iqn.2011-05.nas:disk1 -p 192.168.0.100:3260 -l
После аутентификации том будет подключен как блочное устройство. Посмотреть список блочных устройств можно командой:
fdisk -l
Раздел будет иметь название, например "sdb". Далее надо создать основной раздел на подключенном блочном устройстве утилитой fdisk
fdisk /dev/sdb
Так же есть возможность использования системы LVM для создания и управления пространством разделов. Для создания раздела используются утилиты pvcreate, vgcreate, lvcreate.
Созданный раздел (например, sdb1) надо отформатировать в кластерную файловую систему Red Hat GFS (Global File System).
Примечание: перед использованием надо проверить что на всех узлах файлы /etc/hosts и /etc/cluster/cluster.conf одного содержания.
Для форматирования используется утилита "gfs_mkfs", пример:
gfs_mkfs -p lock_dlm -t gfsc:gfs1 -j 2 /dev/sdb1
Далее, на всех гипервизорах надо создать единое хранилище, например, /xenstorage и смонтировать в эту директорию отформатированнный раздел:
mount -t gfs /dev/sdb1 / xenstorage
Далее следует приступить к настройке среды виртуализации XEN.
6.3.2 Настройка среды виртуализации XEN
Среда виртуализации XEN настраивается через конфигурационные файлы, расположенные в каталоге /etc/xen
В файле xend-config.sxp настраиваются основные параметры работы гипервизора. В xend-debug.sxp находится шаблон полного файла конфигурации, со всеми настройками XEN. Управление PCI устройствами происходит в файле xend-pci-quirks.sxp.
Множество скриптов управления XEN расположены в директории /etc/xen/scripts.
В конфигурации файла xend-config.sxp надо задать интерфейс, на который будет ссылаться мост XEN (xenbr0). Это настраивается в строке:
(network-script 'network-bridge netdev=bond1')
C этого момента пакеты всех гостевых доменов, которые будут использовать мост xenbr0, будут транслироваться в канал bond1.
Согласно задачам организации среды виртуализации гипервизоры XEN должны быть объединены в кластер, для этого надо выполнить следующие условия:
Гипервизоры XEN должны иметь имеющих общую систему управления, единое хранилище данных и общие сетевые ресурсы.
Сетевые ресурсы и общее хранилище определены для этих целей при настройке самой операционной системы. Общая система управления настраивается через ssh туннель.
Для этого необходима аутентификация ssh по ключам. Для этого используются утилиты: ssh-keygen, ssh-add, eval `ssh-agent`
Так же необходима настройка файла "/etc/ssh/sshd_config", в котором разрешается аутентификация по ключам. После этого в утилите управления создается туннель (например, в утилите virt-manager).
Далее необходимо разрешить миграцию в файле файла xend-config.sxp, для этого надо отредактировать и привести к нужному виду следующие строки:
#(xend-unix-server yes)
(xend-relocation-server yes)
(xend-relocation-port 8002)
(xend-relocation-address '')
(xend-relocation-hosts-allow '')
После выполнения настроек надо верифицировать состояния гипервизоров, вывод должен быть единообразный (в примере использован рабочий гостевой домен vm2linux26):
brctl show
grep xend-relocation /etc/xen/xend-config.sxp |grep -v '#'
lsof -i :8002
file /xenstorage/vm2linux26
Проверка корректности запуска и работы машины локально (на vmserver1):
xm create vm2linux26
xm list
Проверка сохранения дампа состояния виртуального домена:
time xm save vm2linux26 vm2linux26.sav
Проверка восстановления дампа состояния виртуального домена:
time xm restore vm2linux26.sav
xm li
Для обеспечения возможности живой миграции в файлах конфиграции гостевых доменов нужно указывать следующие настройки:
#vnc=1
#vncunused=1
sdl=1
Пример живой миграции доменов между гипервизорами (синтаксис "xm migrate --live <domain-id> 192.168.0.2", id можно узнать "xm li"):
xm create vm2linux26
xm migrate --live vm2linux26 192.168.0.2
Далее настраиваются скрипты XEN, обеспечивающие автоматический запуск доменов при сбое аппаратной или программной составляющей. Это могут быть скрипты, основанные на ICMP протоколе. Либо специализированная система XEN-DRBD - скрипты, предназначенные для управления совокупностью узлов как единым целом, и упрощающие развёртывание связки, подготовку файловых систем виртуальных машин, создание виртуальной сети и связанное управление виртуальными доменами XEN. Программное обеспечение DRBD должно быть установлено заранее.
Следует учитывать, с точки зрения внешнего хоста, работавшего с виртуальной машиной, которая исполнялась на внезапно выключившемся узле, это выглядит как перезагрузка виртуальной машины. Данные, находящиеся на жёстких дисках виртуальных систем, полностью синхронизированы, поэтому при исчезновении одного из узлов работа виртуальных машин на втором продолжается безболезненно.
Полная отказоустойчивость, системы (то есть, когда домены даже не будут перезагружаться), будет возможна с помощью программного обеспечения "Kemari". Но в этом случае производительность системы значительно падает (из-за необходимости постоянной синхронизации гипервизоров).
6.4 Настройка гостевых доменов XEN
Гостевые домены могут работать в режиме аппаратной виртуализации (HVM), либо в режиме паравиртуализации (PV). Паравиртуальные домены имеют максимальное быстродействие, поэтому все виртуальные машины Linux лучше запускать в режиме паравиртуализации. Windows 2008 server может работать только в режиме аппаратной виртуализации. Файлы виртуальных машин должны быть расположены в едином для всех гипервизоров хранилище "/xenstorage".
Все настройки гостевых доменов конфигурируются в индивидуальном файле конфигурации. Большинство настроек общие, как для HVM так и для PV режимов. Файл конфигурации описывает множество настроек, позволяющих гибко и эффективно управлять ресурсами и поведением виртуальных машин.
Вот основные настройки гостевого домена:
kernel - VMX firmware loader, для HVM-домена обычно hvmloader.
builder - Тип домена. Для HVM-домена обязательно hvm
maxmem, memory - Обычное и максимальное использование памяти.
vcpus - Количество CPU которые мы выделяем виртуальной машине.
acpi - Поддержка ACPI внутри HVM-домена.
apic - Поддержка APIC внутри HVM-домена.
pae - Поддержка PAE внутри HVM-домена.
disk - Определяет дисковые устройства, к которым гостевой домен должен иметь доступ.
Физический носитель в качестве диска: "phy:UNAME,DEV,MODE,".
Если используется образ диска: "file:FILEPATH,DEV,MODE".
Если используется больше одного диска, то они разделяются запятой.
Если какой-то из образов является образом компакт-диска, устройство обозначается "cdrom".
boot - Загрузка с floppy (a), hard disk (c) или CD-ROM (d).
vnc - Задействует библиотеку VNC для отображения графики. Для подключения можно использовать vncviewer: "vncviewer domine_ip:id"
vnclisten - С каких адресов можно подключатся к консоли виртуальной машины.
vncpasswd - Определяется пароль для доступа к vnc виртуальной машины.
vncdisplay - Задает VNC-порт 5900+заданный.
vncunused - Если опция не определена, порт vnc меняется при каждой смене графического режима(исключая vncdisplay).
usb - Включение поддержки USB без указания специфического устройства.
usbdevice - Включение поддержки конкретных USB устройств.
parallel, serial - Поддержка параллельного и последовательного портов.
vif - Описание сетевых интерфейсов. Представляет собой список строк, каждая из которых описывает один интерфейс.
on_poweroff,on_reboot,on_crash - Реакция гипервизора на события виртуальной машины.
extra - специальные аргументы, добавляемые к параметру ядра, например (для паравиртуальной установки):
extra = "text ks=ftp://192.168.0.1/minimal-ks.cfg"
pci - пробрасывает pci устройство в гостевой домен.
Для виртуальных машин существует большое количество настроек, полный перечень настроек можно найти на страницах сайта проекта XEN в разделе официальной документации (http://xen.org/products/xen_support.html).
Сам файл конфигурации создается стандартными средствами, например: "vi /etc/xen/vm1config".
Для запуска, остановки и манипуляции работой виртуальных машин используется утилита "xm". Например, запуск виртуальной машины происходит так:
xm create /etc/xen/vm1config
Примечание: по умолчанию конфиги виртуальных машин лежат в "/etc/xen".
Подключение к текстовой консоли управления Dom0 происходит так:
xm console vm1config
Подключение к графической консоли происходит с помощью VNC клиента (по IP-адресу гипервизора). Порт обычно создается по схеме TCP 5900+ID DomU. Порт так же можно задать статически, добавив в файл конфигурации гостевого домена строки (пример):
vnclisten = "192.168.0.1"
vncdisplay = 88
В этом случае будет применяться следующая схема VNC-порт 5900+заданный, таким образом будет прослушиваться порт TCP 5988. Пример подключения к графической консоли гостевого домена через заданный порт:
vncviewer 192.168.0.1:5988
6.4.1 Установка паравиртуального гостевого домена
Для создания паравиртуального домена должен быть организован сетевой доступ к хранилищу инсталляционных пакетов (репозиторию) CentOS. Доступ можно организовать либо к официальному репозиторию CentOS в интернет (http://mirror.centos.org/centos/5/os/x86_64/), либо создать собственный репозиторий установки (на любом хосте сети, который может быть сконфигурирован как ftp-сервер). Модифицированное паравиртуальное ядро для ОС гостевого домена можно взять из установочного репозитория, например: (http://mirror.centos.org/centos/5/os/x86_64/images/xen/).
Файлы паравиртуального ядра " vmlinuz " и " initrd.img " надо скопировать в какую-либо директорию, например "/boot".
Далее необходимо подготовить файл конфигурации для установки паравиртуальной ОС, пример файла:
kernel = "/boot/vmlinuz-xen-install"
ramdisk = "/boot/initrd-xen-install"
name = "vmtest"
memory = "256"
disk = [ 'tap:aio:/srv/xen/ vm1config.img,xvda,w', ]
vif = [ ' mac=00:16:3e:aa:00:01,bridge=xenbr200', ]
vcpus=1
on_reboot = 'destroy'
on_crash = 'destroy'
Примечание: для автоматической установки можно использовать файл ответов (minimal-ks.cfg), добавив следующий параметр в файл конфигурации:
extra = "text ks=ftp://192.168.0.1/minimal-ks.cfg"
После установки ОС файл конфигурации надо привести к рабочему виду, например:
name = "vmtest"
memory = "256"
disk = [ 'tap:aio:/xenstorage/vm1config.img,xvda,w', ]
vif = [ ' mac=00:16:3e:aa:00:01', 'bridge=xenbr200', ]
bootloader="/usr/bin/pygrub"
vcpus=1
on_reboot = 'restart'
on_crash = 'restart'
Подобным образом должны быть установлены все гостевые паравиртуальные домены (с операционной системой Linux). В директории /xenstorage/ vm1config.img расположен файл виртуальной машины. MAC-адрес для каждого гостевого домена должен быть уникальным и задается d опцие vif (пример: vif = [ ' mac=00:16:3e:aa:00:01','bridge=xenbr200', ]), рекомендованные октеты для машин XEN (первые три байта): "00:16:3e".
При использовании файла ответов и собственного установочного репозитория установка происходит очень быстро (обычно несколько минут).
6.4.2 Установка гостевого домена в режиме HVM
В режиме работы гостевых доменов HVM (режим аппаратной виртуализации) работает большинство современных ОС. Для ОС windows будет использован именно этот режим виртуализации.
Для установки ОС в HVM режиме не требуется подготовки ядра или других компонентов (ОС не подозревает о том, что работает в виртуальной среде). Установка происходит с стандартного носителя (например с помощью привода CDROM), необходимо лишь указать данное устройство в файле конфигурации и определить последовательность загрузки. Пример файла конфигурации приведен ниже:
name = "msvmtest1"
uuid = "427b5955-6c59-1c5e-7427-f786dcc674f1"
maxmem = 512
memory = 256
vcpus = 2
builder = "hvm"
kernel = "/usr/lib/xen/boot/hvmloader"
boot = "dc"
pae = 1
acpi = 0
apic = 0
on_poweroff = "destroy"
on_reboot = "restart"
on_crash = " restart"
device_model = "/usr/lib/xen/bin/qemu-dm"
usb = 1
usbdevice = "tablet"
sdl = 0
vnc = 1
# vncunused = 1
keymap = "ru"
disk = [ " tap:aio:/xenstorage/ msvmtest1.img ", "phy:/dev/cdrom,hdc:cdrom,r" ]
vif = [ "mac=00:16:3e:aa:aa:02,bridge=xenbr200" ]
serial = "pty"
Работа с гостевым доменом осуществляется аналогично паравиртуальным доменам Linux, невозможно лишь использовать текстовую консоль для настройки домена. Подключение осуществляется с помощью графической VNC консоли, например:
vncviewer 192.168.0.1:5901
Таким образом, оба гостевых домена с операционными системами Windows 2008 r2 будут работать в режиме аппаратной виртуализации.
6.5 Настройка подсистемы доступа к внешним сетям
До установки операционной системы накопители SSD OCZ Agility 2 60GB объединяются в отказоустойчивый массив RAID-1, средствами BIOS встроенного SATA контроллера.
В качестве операционной системы подсистемы доступа к внешним сетям был выбран дистрибутив Linux CentOS. Установка 64-х битного дистрибутива происходит с 2-х DVD дисков в интерактивном режиме.
При условии, что ОС нашла драйверы для всех устройств на этапе установки можно продолжать настройку, иначе надо установить необходимые для работы оборудования драйверы.
Сервер для подсистемы доступа к внешним сетям имеет 5 сетевых интерфейсов, 4-е из которых будут использованы. Одна пара интерфейсов (которая "смотрит" в сеть ЦОД) будет агрегирована в единый канал 2 Гбит/с (2-е линии). Каждая линия этого канала будет подключена к отдельному маршрутизатору (например, от интерфейсов eth2,eth3).
Процесс агрегации аналогичен тому, как это происходило на гипервизорах (описано ранее). В результате будет создан канал bond0.
Далее надо настроить VLAN для канала связи (bond0), канал надо тегировать. Для этого используется утилита Linux для работы с VLAN "vconfig". Пример тегирования канала для bond0:
ifconfig bond0 0.0.0.0 up
vconfig add bond0 300
ifconfig bond0.300 0.0.0.0 up
Далее для внутреннего канала bond0 надо задать адрес и подсеть, в которой будет расположен шлюз (например, 172.16.0.100/24):
ifconfig bond0 up
ifconfig bond0 172.16.0.100 netmask 255.255.255.0
Интерфейсы eth0 и eth1 настраиваются для связи с шлюзами провайдера. Метод связи может быть любым: как маршрутизация на собственный роутер, так и доступ через pppoe (в случае связи через pppoe будут созданы интерфейсы ppp0 и ppp1 для eth0 и eth1 соответственно. Далее для работы надо использовать именно их). Пример настройки интерфейса eth0 для прямого доступа к шлюзу:
ifconfig eth0 up
ifconfig eth0 10.10.10.254 netmask 255.255.255.252
Важным моментом будет включение маршрутизации пакетов через шлюз (форвардинг). Для этого надо добавить в загрузку (например в /etc/rc.d/rc.local) строку:
echo 1 > /proc/sys/net/ipv4/ip_forward
В обычном режиме работы будет использовано соединение с основным провайдером, для этого надо настроить маршрут по умолчанию до его шлюза, например:
route add default gw 94.100.90.2
В случае если доступ к внешним сетям через основной канал невозможен, интерфейс eth0 выключается (down), вместо него активируется резервный канал в интернет, через интерфейс eth1. В этом случае таблица маршрутизации переписывается (маршрут по умолчанию и подсеть eth1). Фрагмент скрипта (поясняющий суть функционала) приведен ниже:
ping -c 2 ntp0.zenon.net
if [ $? -ne 0 ]; then
sh /home/init.sh;
. /etc/rc.d/rc.firewall_backup;
. /etc/rc.d/rc.if_backup;
fi
Полный скрипт запускается как задание, и в некотором интервале времени стандартным ICMP пакетом проверяет доступность некого стабильного узла в интернет. Если узел недоступен, скрипт запускает вложенные скрипты перезапуска межсетевого экрана с правилами для резервного канала, активирует сам резервный канал (последовательность работы важна) и уведомляет оператора о входе в аварийный режим работы.
Дальнейший функционал подсистемы доступа к внешним сетям реализуется с помощью межсетевого экрана netfilter/iptables. Принцип работы этого брэндмауэра был описан ранее. Все порты за исключением оговоренных ТЗ будут закрыты, для сокрытия адресов используется механизм SNAT, для "проброса" портов используется механизм DNAT (уже в другой цепочке iptables).
Дополнительно может быть реализована защита от DDOS атак, сканирования портов, некоторых типах сетевых атак, основанных на свойствах TCP пакетов и соответствующих типов эксплоитов и многих других атак.
Средствами netfilter может быть создан мощный распределенный защитный барьер, в составе которого могут быть несколько сетевых экранов с балансировкой нагрузки.
Упрощенный файл конфигурации iptables приведен ниже:
#!/bin/sh
EXT=eth0
INT=bond0
##===== standart rules =====
iptables -P INPUT DROP
iptables -P OUTPUT ACCEPT
iptables -P FORWARD DROP
##bottom line set: accept all packet for ALL INPUT ESTABLISHED connection
iptables -A INPUT -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
##accept all packet for EXTERNAL FORWARD ESTABLISHED connection
iptables -A FORWARD -i $EXT -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
##===== DDOS defence =====
## limit NEW connections 50/sec
iptables -A INPUT -m conntrack --ctstate NEW -m limit --limit 50/sec --limit-burst 50 -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate NEW -m limit --limit 50/sec --limit-burst 50 -j ACCEPT
## limit max connections
iptables -A INPUT -m connlimit --connlimit-above 10 -j DROP
##===== bad tcp packets =====
iptables -I INPUT 1 -p tcp --tcp-flags SYN,ACK SYN,ACK -m state --state NEW -j DROP
iptables -I INPUT 2 -p tcp ! --syn -m state --state NEW -j DROP
iptables -I INPUT 3 -m conntrack --ctstate INVALID -j DROP
iptables -I INPUT 4 -m addrtype --src-type LOCAL ! -i lo -j DROP
##===== self and loopback =====
iptables -A INPUT -i lo -j ACCEPT
iptables -A OUTPUT -o lo -j ACCEPT
##===== internal network forward chain =====
iptables -A FORWARD -i $INT -j ACCEPT
##===== SNAT =====
iptables -t nat -A POSTROUTING -o $EXT -j SNAT --to-source 94.100.87.198
##===== DNAT =====
## FTP services
iptables -t nat -A PREROUTING -d 94.100.87.1 -p tcp --dport 20 -j DNAT --to-destination 172.16.0.5:20
iptables -A FORWARD -m conntrack --ctstate NEW -p tcp -d 172.16.0.5 --dport 20 -j ACCEPT
iptables -t nat -A PREROUTING -d 94.100.87.1 -p tcp --dport 21 -j DNAT --to-destination 172.16.0.5:21
iptables -A FORWARD -m conntrack --ctstate NEW -p tcp -d 172.16.0.5 --dport 21 -j ACCEPT
## VNC terminal services
iptables -t nat -A PREROUTING -d 94.100.87.1 -p tcp --dport 5900 -j DNAT --to-destination 172.16.0.10:5900
iptables -A FORWARD -m conntrack --ctstate NEW -p tcp -d 172.16.0.10 --dport 5900 -j ACCEPT
## SSH terminal services
iptables -t nat -A PREROUTING -d 94.100.87.1 -p tcp --dport 22 -j DNAT --to-destination 172.16.0.10:22
iptables -A FORWARD -m conntrack --ctstate NEW -p tcp -d 172.16.0.10 --dport 22 -j ACCEPT
## HTTP services
iptables -t nat -A PREROUTING -d 94.100.87.1 -p tcp --dport 80 -j DNAT --to-destination 172.16.0.15:80
iptables -A FORWARD -m conntrack --ctstate NEW -p tcp -d 172.16.0.15 --dport 80 -j ACCEPT
В данном примере 94.100.87.1 - внешний IP адрес, 172.16.0.5 - FTP сервер (порты tcp-20,tcp-21) в серверном сегменте ЦОД, 172.16.0.10 - терминальный сервер (SSH tcp-22 порт,VNC порт tcp-5900), 172.16.0.15 - HTTP сервер (apache, порт tcp-80).
Важно учитывать тот факт, что скрипт с цепочками правил iptables индивидуален для основного и резервного канала и должен быть активирован/деактивирован скриптом при использовании соответствующего подключения.
Еще один важный момент при использовании межсетевого экрана - это порядок включения брэндмауэра/сетевых интерфейсов. Межсетевой экран должен быть активирован до включения канала в интернет.
7. Организационно экономическая часть
7.1 Составление организационно-календарного плана
Данный раздел включает в себя организационные вопросы по разработке и внедрению проектируемой информационной системы.
Организационно-календарный план (ОКП) является основным расчетным документом для планирования работ по разработке информационной системы. В ОКП оговариваются стадии разработки по теме с разбиением на этапы, численность и состав коллектива разработчиков, сроки выполнения и трудоемкость соответствующих стадий и этапов.
7.1.1 Определение общей трудоемкости разработки и этапов ОКП
Для определения трудоемкости воспользуемся методом экспертных оценок. В качестве базового варианта для определения трудоемкости была использована трудоемкость одного из разработанных ранее подобных проектов: ТБ=90 чел/дн. Для определения трудоемкости нового варианта необходимо найти коэффициент приведения, для чего была создана экспертная комиссия, в которую вошли:
1) ведущий инженер;
2) инженер I категории;
3) инженер I категории;
Результаты оценки трудоемкости приведены в таблице 9.1.
Таблица 9.1
Должность члена комиссии |
Рекомендуемый коэффициент приведения, Кi |
Значение веса участия, Вi |
|
Ведущий инженер Инженер I категорииИнженер I категории |
1,31,21,2 |
0,350,350,30 |
Результирующий коэффициент приведения
К = Кi*Bi = 1,3*0,35 + 1,2*0,35 + 1,2*0,30 = 1,24
С учетом найденного коэффициента приведения определим трудоемкость новой разработки:
Т = ТБ * К = 90*1,235 =112 чел/дн.
7.1.2 Распределение трудоемкости по стадиям разработки
ОКП разделяется на следующие этапы:
1) Подготовительный этап;
2) Анализ требований;
3) Технический проект;
4) Ознакомление с руководствами и специальной документацией;
5) Установка и монтирование оборудования;
6) Настройка оборудования, установка и настройка программного обеспечения;
7) Тестирование и корректировка системы;
Основные этапы с параметрами трудоемкости отражены в таблице 9.2:
Таблица 9.2
Этапы |
Трудоемкость,чел/дни |
Число рабочих, чел |
Продолжительность, дни |
|
1. Подготовительный этап |
3 |
3 |
1 |
|
2. Анализ требований |
9 |
3 |
3 |
|
3. Технический проект |
15 |
3 |
5 |
|
4. Ознакомление с руководствами и специальной документацией* |
10 |
3 |
10 |
|
5. Установка и монтирование оборудования |
15 |
3 |
5 |
|
6. Настройка оборудования, установка и настройка программного обеспечения |
45 |
3 |
15 |
|
7. Тестирование и корректировка системы |
15 |
3 |
5 |
|
Итого: |
112 |
3 |
44 |
* Ознакомление со специальной документацией необходимо каждому сотруднику.
Должностные оклады сотрудников, участвующих в выполнении работ сведены в таблицу 9.3:
Таблица 9.3
Категория работников |
Кол-во работающих, чел. |
Должностной оклад,руб./мес. |
|
Ведущий инженер |
1 |
30000 |
|
Инженер-программист |
1 |
25000 |
|
Инженер-программист |
1 |
25000 |
|
Итого: |
3 |
80000 |
7.1.3 Длительность проектных работ
Проектирование информационной системы происходит в несколько этапов. Содержание проектных работ, представленных в логической последовательности, приведено в таблице 9.4.
Таблица 9.4
Этап |
Содержание работ, входящих в этап |
Вид отчетности по законченной работе |
Кол-во исполнит., чел. |
Должность |
Продолжит. работы, дни |
|
1. Подготовительный этап |
Ознакомление с заданием на проект |
Пояснительная записка |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
111 |
|
2.Анализ требований |
Написание Технического предложения |
Техническое предложение |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
333 |
|
3.Технический проект |
1.Оценка и подбороборудования и комплектующих2. Написание расчетов по проекту |
Отчет по техническому проекту |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
555 |
|
4.Ознакомление с руководствами и специальной документацией |
Ознакомление с документацией на оборудование и программное обеспечение |
- |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
101010 |
|
5.Установка и монтирование оборудования |
Установка оборудования и подключение кабельных систем |
Отчет о выполненной работе |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
555 |
|
6.Настройка оборудования, установка и настройка программного обеспечения |
Настройка оборудования (серверов, коммутационных узлов, сетевых хранилищ) |
Отчет о выполненной работе |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
151515 |
|
7.Тестирование и корректировка системы |
Проверка системы на работоспособность |
Акт тестирования |
111 |
Ведущий инженерИнженер-программист Инженер-программист |
555 |
|
Итого: |
44 |
График календарного плана для выполнения проектных работ представлен в таблице 9.5:
Таблица 9.5
э1...э7 - этапы проектных работ с 1-о по 7-й этап соответственно.
7.2 Расчет себестоимости проекта
Определение затрат на внедрение информационной системы производится путём составления калькуляции себестоимости. Калькуляция себестоимости составляется по следующим статьям затрат: затраты на оплату труда и сопутствующие расходы, затраты на оборудование, затраты на программное обеспечение и прочие расходы. Затраты по каждой из статей описаны ниже.
7.2.1 Расчет затрат на оплату труда и сопутствующие расходы
В контексте затрат на оплату труда следует рассматривать следующие расходы:
- Основная заработная плата;
- Отчисления в социальные фонды;
- Расходы на служебные командировки ;
1) Основная заработная плата. Расчет фонда заработной платы разработчиков ведется исходя из сложности человеко-дня, количества работников и трудоемкости. В таблице 9.6 приведена длительность работ проводимых каждым исполнителем на соответствующем этапе разработки, а также вычислена суммарная длительность работ (TСУМ).
Таблица 9.6
Номер Этапа |
Длительность работ, дн |
|||
Ведущий инженер |
Инженер-программист |
Инженер-программист |
||
1 |
1 |
1 |
1 |
|
2 |
3 |
3 |
3 |
|
3 |
5 |
5 |
5 |
|
4 |
10 |
10 |
10 |
|
5 |
5 |
5 |
5 |
|
6 |
15 |
15 |
15 |
|
7 |
5 |
5 |
5 |
|
ТСУМ |
44 |
44 |
44 |
Стоимость одного человеко-дня рассчитываем по формуле:
Счел.дн = Q / 22
где Q - должностной оклад работника. Оклады для исполнителей данной работы приведены в таблице 8.3.
Прямой фонд заработной платы разработчиков вычисляется по формуле:
Так как премия для инженерно-технических разработчиков учитывается в их окладах, то ЗОСН = ЗПР.
2) Единый социальный налог. На эту статью относятся отчисления на социальное страхование, отчисления в пенсионный фонд, затраты на медицинское страхование работников и общее страхование от несчастного случая.
Итоговые отчисления составляют 34% от суммы основной и дополнительной заработной платы.
Sсоц = Зосн*0,34 = 160000*0,34 = 54400 руб.
3) Расходы на служебные командировки. На эту статью относятся расходы на все виды служебных командировок. Они составляют 3% от фонда основной заработной платы.
Sком = 0,03*Зосн = 160000*0,03 = 4800 руб.
Таким образом, общие расходы по графе "Оплата труда и сопутствующие расходы" составляют 219 200 руб.
7.2.2 Затраты на оборудование
Оборудование центра обработки данных представлено следующими комплектующими: серверы, коммутационное оборудование, сетевые хранилища, дополнительное оборудование (стойки, ИПБ). Список комплектующих представлен в таблице 9.7:
Таблица 9.7
Наименование комплектующих |
Тип, марка оборудования |
Кол-во |
Стоимость единицы, руб. |
Общая стоимость, руб. |
|
Сервер сегмента виртуализации |
Intel SR2600URBRPR/2x Xeon X5660/48GB ОЗУ/2x SSD 120GB |
2 |
173 391 |
346 682 |
|
Сервер подсистемы доступа к внешним сетям |
Intel SR1630GPRX/Xeon X3470/8 GB ОЗУ/2x SSD 60GB |
1 |
45 924 |
45 924 |
|
Основное сетевое хранилище |
Thecus N12000/4x SSD 120GB/6x SAS HDD 600GB |
1 |
307 472 |
307 472 |
|
Сетевое хранилище резервных копий |
Thecus N8800PRO/8x HDD 2TB |
1 |
123 664 |
123 664 |
|
Сетевой коммутатор для серверного сегмента |
D-Link DGS-3427 |
2 |
43 670 |
87 340 |
|
Сетевой коммутатор для пользовательского сегмента |
D-Link DES-3052 |
4 |
16 415 |
65 560 |
|
Маршрутизатор |
Cisco WS-C3560G-24TS-E |
2 |
93 686 |
187 372 |
|
Источник бесперебойного питания |
APC SURT8000XLI |
1 |
106 757 |
106 757 |
|
Серверная стойка |
NT R4220B 19 |
2 |
6 040 |
12 080 |
|
Прочие комплектующие и расходные материалы |
сетевые кабели, коннекторы, устройства ввода-вывода и.т.п. |
1 |
15 000 |
15 000 |
|
Итого: |
1 297 852 |
||||
Транспортные расходы (3% от общей суммы): |
38 936 |
||||
Всего: |
1 336 788 |
Подробные технические характеристики аппаратной составляющей представлены в разделе "Выбор аппаратной составляющей". Общая стоимость оборудования ЦОД с учетом транспортных расходов 1 336 788руб.
7.2.3 Затраты на программное обеспечение
Программное обеспечение центра обработки данных представлено в большинстве своем ПО с открытым исходным кодом, за исключением ОС предназначенных для службы каталогов. Программное обеспечение с открытым исходным кодом распространяется бесплатно по лицензии GNU GPL (стоимость ПО сводится только к оплате трафика и приобретению носителей для хранения установочных дистрибутивов). Стоимость программного обеспечения представлена в таблице 9.8:
Таблица 9.8
Наименование |
Название продукта |
Кол-во |
Стоимость единицы, руб. |
Общая стоимость, руб. |
|
Операционная система |
Microsoft Windows Server 2008 R2 x64 Standart Edition (RUS) |
2 |
21 468 |
42 936 |
|
Итого: |
42 936 |
Примечание: стоимость лицензий для пользователей/устройств оговаривается отдельной политикой лицензирования. Приобретение пользовательских лицензий не оговаривается ТЗ данного проекта.
Таким образом, стоимость лицензий программного обеспечения для центра обработки данных равна 42 936 руб.
7.2.4 Затраты на электроэнергию, необходимую для разработки системы
Стоимость одного кВт*час для предприятия составляет
Затраты электроэнергии на один вид потребителей можно рассчитать по формуле:
Основные потребители энергии указаны в таблице 9.9
Таблица 9.9