Кластерные решения Compaq

Согласно определению, сформулированному Aberdeen Group, кластер - это многомашинный комплекс, который: • выглядит с точки зрения пользователя как единая система; • обеспечивает высокую надежность (готовность); • имеет общую файловую систему; • обладает свойством роста производительности при добавлении ресурсов (масштабируемостью); • гибко перестраивается; • управляется/администрируется как единая система.

Далеко не все имеющиеся сегодня на рынке решения, называемые кластерами, удовлетворяют всем пунктам этого определения. Иногда кластером называют даже комплекс из двух компьютеров, один из которых делает полезную работу, а другой всего лишь включен и находится в "горячем резерве" (так называемые "hot standby").

Строго говоря, на 100% вышеприведенному определению до недавнего времени соответствовал только кластер на основе операционной системы OpenVMS. На сегодняшний день новейшая версия кластера TruCluster Server для Tru64 UNIX от Compaq первой из UNIX-кластеров вплотную подошла к тому, чтобы полностью удовлетворять этому определению. Но если учесть, что главными качествами, за которые пользователи выбирают кластеры, являются высокая готовность и масштабирумость при относительно невысокой цене, то можно смело сказать, что все высоконадежные решения Compaq вполне заслуженно носят название кластер. В отличие от систем с "горячим резервированием" (hot standby), все компьютеры в кластере выполняют полезную работу - таким образом затраты на дополнительное оборудование являются платой не только за надежность, но и за производительность. По этой же причине кластеры выгодно отличаются от FT систем.

С другой стороны, в отличие от FT, SMP или MPP (массивно-параллельных) систем, каждый компьютер в кластере остается относительно независимым, т.е. его можно остановить и выключить (например, для проведения профилактических работ или установки дополнительного оборудования), не нарушая работоспособности кластера в целом.

Тесное взаимодействие компьютеров, образующих кластер (часто именуемых узлами кластера), гарантирует максимальную производительность и минимальное время простоя приложений за счет того, что:

‰ в случае сбоя программного обеспечения на одном узле приложение продолжает функционировать (либо автоматически перезапускается) на других узлах кластера;

‰ крах узла (или узлов) кластера по любой причине (включая ошибки персонала) не означает краха кластера в целом;

‰ профилактические и ремонтные работы, реконфигурации и смену версий программного обеспечения в большинстве случаев можно осуществлять на узлах кластера поочередно, не прерывая работы приложений на других узлах кластера.

Простои, которые не в состоянии предотвратить обычные системы, в кластере либо выражаются в некотором снижении производительности (если узлы выключаются из работы), либо существенно сокращаются (приложения недоступны только на короткий промежуток времени, необходимый для переключения на другой узел), что позволяет для различных конфигураций и уровней обслуживания обеспечить готовность от 99,9% до 99,999% и даже выше. Отметим, что рекорд непрерывной работы компьютерного комплекса был зафиксирован для компьютеров VAX под управлением операционной системы VMS - к 1999 году время непрерывной работы одного из первых комплексов на базе VAX достигло 18 лет. Следует отметить, что применение широкодоступных средств повышения аппаратной отказоустойчивости (RAID, SMP, UPS и т.д.) вовсе не исключается, а напротив, часто практикуется при построении кластеров, что дополнительно повышает их надежность.

кластер изнутри

С точки зрения оборудования кластер - это несколько компьютеров, соединенных коммуникационным каналом и имеющих доступ к разделяемым (общекластерным) ресурсам (прежде всего это дисковые накопители). Общекластерные дисковые накопители обеспечивают возможность быстрого перезапуска приложений на разных узлах кластера и даже одновременной работы прикладных программ с одними и теми же данными с разных узлов кластера (как если бы эти программы находились в оперативной памяти одного компьютера).

Наличие коммуникационного канала необходимо для:

‰ скоординированного (непротиворечивого) использования общекластерных ресурсов;

‰ взаимного контроля работоспособности;

‰ обмена информацией о конфигурации кластера и другой специфической "кластерной" информацией.

Интенсивность кластерной коммуникации зависит от степени интеграции узлов кластера и характера работающих на нем приложений. В соответствии с этим варьируются и требования к коммуникационному каналу в разных реализациях кластеров и, следовательно, состав и стоимость дополнительного оборудования, необходимого для объединения "обычных" компьютеров в кластер.

Если на разных узлах кластера выполняются разные приложения (или однотипные, но не взаимодействующие друг с другом) и нет необходимости в одновременном доступе к одним и тем же дисковым накопителям, то обмен сообщениями сводится к периодическому "перестукиванию" для проверки работоспособности и обмену информацией об изменении конфигурации (добавлении в кластер новых узлов, перераспределении дисковых томов и т.п.). Поскольку первый тип обмена не требует много ресурсов, а второй происходит достаточно редко, для такого типа кластерной коммуникации вполне подходит обычный (10-мегабитный) Ethernet.

Ситуация существенно изменяется, когда требуется работа приложений на разных узлах кластера с одними и теми же данными. В этом случае необходимо обеспечивать координацию доступа к разделяемым ресурсам с тем, чтобы программы с разных узлов не пытались, например, одновременно модифицировать один и тот же файл или блок на диске. Обеспечивается эта координация специальным механизмом - так называемым менеджером распределенных блокировок (DLM - Distributed Lock Manager). Использование механизма DLM предполагает весьма интенсивный обмен сообщениями между узлами и, соответственно, требует более высокой производительности коммуникационного канала.

В различных кластерах Compaq применяется широкий спектр коммуникационных технологий, как стандартных (Ethernet, FDDI, ATM и др.), так и специализированных (DSSI, СI, Memory Channel), что позволяет выбирать конфигурации, оптимальные по цене и производительности. Гамма высоконадежных кластерных систем от Compaq включает:

‰ проверенные временем эталонные кластеры OpenVMS Cluster

‰ высокопроизводительные TruCluster для Tru64 UNIX

‰ разнообразные кластеры для линейки серверов Proliant

Все кластерные решения от Compaq:

‰ обеспечивают высокую готовность приложений и минимальное время простоя (включая сервисное обслуживание и профилактические работы)

‰ обеспечивают возможность наращивания производительности по мере роста потребностей как за счет добавления узлов, так и за счет установки дополнительных SMP процессоров или путем замены узлов на более мощные модели

‰ включают специализированное программное обеспечение для удобного системного администрирования и оптимального распределения ресурсов

‰ уменьшают затраты на администрирование, так как кластер администрируется во многом как единая система

‰ приложения, как правило, работают на кластерах без каких-либо изменений

Тем не менее эти решения различаются по степени интеграции узлов в кластере, функциональной полноте, возможностям наращивания и, соответственно, стоимости.

OpenVMS кластер - надежность,

проверенная временем

Кластеры OpenVMS имеют более чем десятилетнюю историю и, как уже отмечалось выше, служат неким эталоном для всех других реализаций кластеров. В настоящее время в мире установлено более 50 000 систем OpenVMS Cluster. Программное обеспечение OpenVMS Cluster (включая DLM) глубоко и органично интегрировано в операционную систему на всех уровнях, начиная от функций ввода/вывода и заканчивая файловой системой и системой регистрации пользователей. Это позволяет компьютерам, объединенным в OpenVMS кластер, использовать совместно не только дисковые подсистемы внешней памяти (вплоть до единого системного диска на весь кластер), но и накопители на магнитных лентах, CDROM и др. Такая система с точки зрения как пользователя, так и системного администратора выглядит как единое целое, представляя собой общее поле ресурсов: процессоров, дисковых массивов, магнитных лент, очередей печати и пакетных заданий. Единый системный диск обеспечивает существенное сокращение затрат на администрирование кластера, так как, помимо централизованного учета и регистрации пользователей, установка прикладного программного обеспечения осуществляется один раз для всего кластера в целом.

Наличие механизма DLM позволяет приложениям работать с одними и теми же данными на всех узлах кластера.

В кластеры OpenVMS можно объединять VAX и/или Alpha любых моделей и конфигураций (от настольных рабочих станций до сверхмощных AlphaServer серии GS). В зависимости от типа коммуникационных каналов в OpenVMS кластере может быть до 96 узлов. Первоначально базировавшиеся на специализированных кластерных шинах CI (Computer Interconnect) и DSSI (Digital Storage System Interconnect) OpenVMS Clusters получили возможность использовать стандартные шины SCSI и FiberChannel, что существенно снизило их стоимость, а также дало большую гибкость в наращивании дисковой памяти.

Кроме того, компьютеры могут объединяться в OpenVMS Cluster также с помощью стандартных сетевых технологий, таких как Ethernet, Fast Ethernet, Gigabit Ethernet, FDDI, ATM. Такой способ объединения дает возможность разнести узлы кластера на большое расстояние.

Начиная с версии 7.1 OpenVMS также может использовать в OpenVMS Clusters высокопроизводительный коммуникационный канал Memory Channel. Таким образом, несмотря на солидный возраст, кластеры OpenVMS продолжают интенсивно развиваться, предоставляя лучшую в своей области надежность, устойчивость и гибкость.

системы, способные

противостоять катастрофам

Кластер в состоянии надежно защитить ваши бизнес-приложения и от ряда ошибок персонала, и от различных отказов (процессоров, памяти, блоков питания, отдельных дисков или дисковых массивов, сетевых адаптеров и т.д.). Но в случае серьезного инцидента с компьютерным центром - крупномасштабной аварии энергоснабжения, пожара, террористического акта, наводнения, землетрясения и т.п. - проблем не избежать, если все узлы кластера находятся в одном здании. Даже если вы регулярно сохраняли все важные данные на магнитных лентах, которые впоследствии перевозились для хранения в другое здание, пройдет не один день, прежде чем вам удастся закупить новые компьютеры, восстановить необходимые данные с лент и вновь запустить ваши приложения. Если перерыв в работе компьютерного центра даже в течение нескольких часов чреват многомиллионными убытками, расходы на создание резервного компьютерного центра могут оказаться вполне разумной альтернативой. Digital Equipment, обладая самым большим опытом в создании и сопровождении кластерных систем, уже в течение многих лет поставляла решения, способные противостоять катастрофам. Compaq, унаследовав опыт Digital Equipment и Tandem, продолжает развивать катастрофоустойчивые кластерные технологии.

В прошлом основой для такого решения мог служить только OpenVMS FDDI Cluster, отдельные узлы которого разнесены на десятки километров (до 40 километров максимум). Сегодня OpenVMS Cluster поддерживает также коммуникационные технологии Gigabit Ethernet (до 70 километров) и ATM, позволяющий разносить узлы кластера уже на расстояния в сотни километров.

Благодаря технологии "зеркалирования" дисков между узлами кластера критичные данные дублируются между удаленными центрами. Поэтому в случае выхода из строя одного из центров другой в состоянии немедленно продолжить работу. Кроме того, поскольку эта система по-прежнему остается нормальным OpenVMS кластером и все члены кластера в нормальной ситуации выполняют полезную работу, то удаленный центр не является всего лишь дорогостоящим балластом. Вся система администрируется как единое целое. Более того, существует специально разработанная для данной ситуации управляющая система Operation Management Station (OMS), которая позволяет управлять всеми центрами с одного рабочего места. В нормальной конфигурации таких систем, разумеется, должно быть две - по одной в каждом из центров, хотя по желанию допускается установка и большего количества таких станций. Ничто не мешает также создавать при необходимости не один, а два и более резервных центров, ведь в OpenVMS кластере может быть до 96 узлов.

Многолетний опыт в создании и эксплуатации систем подобного рода был перенесен на платформу Tru64 UNIX. Катастрофоустойчивое решение на UNIX-платформе также основано прежде всего на принципе создания удаленных зеркальных копий дисковых томов. Однако, в отличие от OpenVMS-кластера, это делается не по сетевому интерфейсу, а при помощи современной и бурно развивающейся в последнее время технологии Fibre Channel. Первая версия продукта позволяет разнести дисковые накопители на расстояние до 10 километров без потери производительности (Fibre Channel используется для передачи SCSI протокола, т.е. с точки зрения компьютера эти диски по-прежнему остаются "локальными"). Таким образом становится возможным разнести узлы TruCluster Available Server на достаточное для обеспечения катастрофоустойчивости расстояние.

Однако следует отметить, что создание удаленных зеркальных копий дисковых массивов еще не означает, что вы уже имеете надежное решение, гарантирующее корректное восстановление в случае катастрофы. Приемлемым можно считать только то решение, которое обеспечит корректное (без нарушения целостности данных) восстановление из любых возможных вариантов развития аварийной ситуации.

Предположим, что в здании, где располагается один из центров, пожар возник сначала в той его части, где располагается коммуникационное оборудование. В этом случае первым делом прервется связь между центрами, но основной сервер по-прежнему будет работать и будет продолжать вносить изменения в ваши данные (например, переводить деньги между банковскими счетами). Если огонь через некоторое время доберется до основного сервера, тот успеет выполнить определенное количество работы, результаты которой никогда уже не попадут на резервный центр, т.е. зеркальная копия окажется некорректной. В другом варианте, при обрыве всех коммуникаций между компьютерными центрами, каждый из них может принять ошибочное решение, что партнер вышел из строя, и попытаться продолжить работу самостоятельно, т.е. кластер распадется на независимые части, которые будут работать параллельно, но каждая со своей копией данных.

Богатейший практический опыт, накопленный за годы разработки и эксплуатации кластеров OpenVMS (в которых, кстати, все вышеперечисленные проблемы решены), позволил успешно реализовать и с января 1997 года приступить к поставкам катастрофоустойчивого решения на базе Tru64 UNIX, Fibre Channel, TruCluster Available Server и ряда дополнительных компонент.

Copyright Digital Equipment Corporation, 1997, Compaq Computer, 1999


Сетевые решения. Статья была опубликована в номере 07 за 2000 год в рубрике hardware

©1999-2024 Сетевые решения