Сервер - статьи

       

Несколько примеров


Наш материал был бы не полным без примеров внедрения катастрофоустойчивых, и в частности, кластерных систем, реализованных в СНГ. (Приведенные проекты носят имена заказчиков, для которых они были выполнены.)

Сегодня многие организации строят катастрофоустойчивые системы, разнося узлы кластера на значительные расстояния. В большинстве случаев такая архитектура предусматривает один основной узел и один (или более) удаленный, который обычно является "зеркалом" основного узла. Однако в общем случае степень зеркалирования зависит от требований бизнеса.

Так, в проекте для Центрального Банка РФ (в Главном управлении банка в Санкт-Петербурге) создана территориально распределенная информационная инфраструктура, основанная на двух идентичных вычислительных комплексах на базе мейнфреймов IBM eServer zSeries 900 и дисковых подсистем хранения информации IBM ESS 800 (кодовое название Shark), разнесенных на расстояние 22 км и соединенных между собой по технологии асинхронного удаленного копирования с использованием оборудования ONS 15540/15530 производства Cisco Systems. В этом решении вычислительный процесс выполняется на одном сервере-мейнфрейме и полностью дублируется на другом, а при каких-либо неполадках на основной машине ее функции автоматически переходят на резервный комплекс. Связь между двумя комплексами в Санкт-Петербурге осуществляется по двум волоконно-оптическим линиям, разнесенным на значительное расстояние и принадлежащим разным операторам (это, кстати, также одно из обязательных требований к катастрофоустойчивым системам). Проект разрабатывался в течение полутора лет и был выполнен в весьма сжатые сроки.

Более продвинутое по архитектуре решение внедрено в прошлом году на Оскольском электрометаллургическом комбинате (ОЭМК). Здесь катастрофоустойчивый аппаратно-программный комплекс на UNIX-платформе IBM eServer p690 для работы с системой SAP R3, помимо технологий кластеризации, включал и систему резервного копирования на основе IBM TotalStorage FAST 700, двух дисковых систем и промышленной ленточной библиотеки, исполняющей роль системы резервирования.
Катастрофоустойчивость комплекса обеспечивается за счет двух узлов кластера - основного и резервного, разнесенных на несколько сотен метров. Не менее интересное решение реализовано совсем недавно для одного из ведущих белорусских предприятий - ОАО "Гродно Азот". Созданная здесь катастрофоустойчивая IТ-инфраструктура представляет собой комплекс, предназначенный для обеспечения бесперебойного действия системы управления производством собственной разработки заказчика на базе СУБД Oracle, информационно-измерительной системы (хозрасчетные параметры, данные систем коммерческого учета и АСУТП), а также службы обмена электронными сообщениями на базе Lotus Domino. Данный проект, по словам его участников, отличается своей экономичностью. Внедренный комплекс состоит из двух равноценных вычислительных центров, разнесенных на расстояние около 1 км и соединенных двумя оптоволоконными каналами, проложенными по топологически разным путям. При этом один центр расположен в специально оборудованном подвальном помещении вне пределов взрывоопасной производственной зоны и не требует физического присутствия обслуживающего персонала. Комплекс построен на базе открытых систем и состоит из шести многопроцессорных RISC-серверов Sun Microsystems, систем хранения от компании EMC, Fibre Channel-коммутаторов Brocade, СУБД Oracle 9i Real Application Cluster, кластерного ПО Veritas, сервера обмена электронными сообщениями Lotus Domino Enterprise (Solaris), коммутаторов ЛВС 3-го уровня Alcatel, системы управления на базе HP OpenView и соответствующих приложений, перенесенных из старой системы. Основой обновленной IТ-инфраструктуры ОАО "Гродно Азот" стала современная сеть хранения данных, включающая две независимые матрицы коммутации (Fibre Channel Fabric). Такой подход обеспечил множественность путей доступа к данным для серверов комплекса и защиту от физического обрыва соединений. Помимо аппаратной RAID-защиты критические данные дублируются программно. Для обеспечения оптимальных режимов работы различных приложений и разумного баланса между уровнем доступности и стоимостью в комплексе используются несколько кластерных технологий: автоматическая балансировка нагрузки с параллельной обработкой транзакций, быстрое переключение на сервер "горячего" резерва и репликация по локальной сети. Пример решения с высоким показателем масштабируемости и высокой вычислительной загрузкой обоих узлов - проект для металлургического комбината "Азовсталь" (Украина).


Здесь украинская компания- интегратор внедрила кластер на основе серверов производства Sun Microsystems и перенесла на него ERP-систему SAP R3. Это решение интересно тем, что представляет собой не просто серверный кластер, элементы которого территориально удалены друг от друга на несколько километров, а его узлы обеспечивают постоянное взаимное резервирование данных. При выходе из строя или повреждении целостности одного из узлов ERP-система автоматически переключается на работу с другим узлом, обеспечивая непрерывность вычислений. Сейчас эта кластерная система состоит из двух узлов, но возможно расширение до восьми узлов, что демонстрирует весьма высокие показатели масштабируемости предложенного решения. В качестве основных аппаратных компонентов системы, внедренной на комбинате, использованы серверы Sun Fire E2900 (сервер для вычислительных центров среднего класса на базе процессоров UltraSPARC IV), Sun Fire V440 (сервер начального уровня для вычислительных центров на базе процессоров UltraSPARC IIIi), а также системы хранения данных Sun StorEdge 3510 FC (12 дисков в "петле" FC-AL объемом 2 Гбайт с возможностью горячей замены).

Содержание раздела