Реферат: Кластерные вычислительные системы - текст реферата. Скачать бесплатно.
Банк рефератов, курсовых и дипломных работ. Много и бесплатно. # | Правила оформления работ | Добавить в избранное
 
 
   
Меню Меню Меню Меню Меню
   
Napishem.com Napishem.com Napishem.com

Реферат

Кластерные вычислительные системы

Банк рефератов / Информатика, информационные технологии

Рубрики  Рубрики реферат банка

закрыть
Категория: Реферат
Язык реферата: Русский
Дата добавления:   
 
Скачать
Архив Zip, 249 kb, скачать бесплатно
Заказать
Узнать стоимость написания уникального реферата

Узнайте стоимость написания уникальной работы

Одно из самых современных направлений в области создания вычислительных си с тем — это кластеризация . По производительности и коэффициенту готовности кластеризация пре д ставляет собой альтернативу симметричным мультипроцессорным системам. Понятие «кластер» можно опред е лить как группу взаимно соединенных вычислительных систем (узлов), работающих совместно как единый вычислительный ресурс и создающих иллюзию наличия единственной ВМ. В качестве узла кластера может выст у пать как однопроцессорная ВМ, так и ВС типа SMP или MPP . Важно лишь то, что каждый узел может использоваться самостоятельно и отдельно от кл а стера. В плане архитектуры суть кластерных вычислений сводится к объединению нескольких узлов высокоскоростной с е тью. Для описания такого подхода, помимо термина кластерные вычисления, достаточно часто прим е няют такие термины, как: « кластер рабочих станций » ( workstation cluster ), « гипервычисления » ( hypercomputing ), « параллельные в ы числения на базе сети » ( network - based concurrent computing ), « ультравычисления » ( ultraco m puting ). Изначально перед кластерами ставились две задачи: достичь большой вычислител ь ной мощности и обеспечить повышенную надежность ВС. Пионером в области кл а стерных архитектур считается корп о рация DEC , создавшая первый коммерческий кластер в начале 80-х годов прошлого века. В качестве узлов кластеров могут использоваться как одинаковые ВС (гомогенные кластеры), так и ра з ные (гетерогенные кластеры). По своей архитектуре кластерная ВС является слабосвязанной сист е мой. В работе [ BREW 97] перечисляются четыре преимущества, достигаемые с помощью кластериз а ции: q абсолютная масштабируемость . Возможно создание больших кластеров, превосходящих по вычислительной мощности даже самые производительные одиночные ВМ. Кластер может содержать десятки узлов, каждый из которых представляет собой мульт и процессор; q наращиваемая масштабируемость . Кластер строится так, что его можно нар а щивать, добавляя новые узлы небольшими порциями. Таким образом, пользов а тель может начать с умеренной системы, расширяя ее по мере необх о димости; q высокий коэффициент готовности . Поскольку каждый узел кластера — самостоятельная ВМ или ВС, отказ одного из узлов не приводит к потере работосп о собности кластера. Во многих системах отказоустойчивость автоматически поддерживается программным обеспечен и ем; q Превосходное соотношение цена/производительность . Кластеры любой прои з водительности можно создать, используя стандартные «строительные блоки», при этом стоимость кластера будет ниже, чем у одиночной ВМ с эквивалентной вычисл и тельной мощностью. На уровне аппаратного обеспечения кластер — это просто совокупность независ и мых вычислительных систем, объединенных сетью. При соединении машин в кл а стер почти всегда поддержив а ются прямые межмашинные связи. Решения могут быть простыми, основывающимися на аппаратуре Ethernet , или сложными с высок о скоростными сетями с пропускной способностью в сотни мегабайт в секунду. К п о следней категории относятся RS/6000 SP фирмы IBM, системы фирмы Digital на основе Memory Cha n nel , ServerNet фирмы Compac Computer Corp . Узлы кластера контролируют работоспособность друг друга и обмениваются спец и фической кластерной информацией. Контроль работоспособности осуществляется с помощью специального сигнала, часто называемого heartbeat , что можно перевести как сердцебиение. Этот сигнал передается узлами кластера друг другу чтобы по д твердить их нормальное функционирование. Неотъемлемая часть кластера — специализированное программное (ПО) обеспеч е ние, на которое возл а гается задача поддержания вычислений при отказе одного или нескольких узлов. Такое ПО производит перераспределение вычислительной нагру з ки при отказе одного или нескольких узлов кластера, а также восстановление вычи с лений при сбое в узле. Кроме того, при наличии в кластере совместно использу е мых дисков, кластерное ПО поддерживает единую файловую систему. Классификация архитектур кластерных си с тем В литературе приводятся различные способы классификации кластеров. Так, пр о стейшая классификация ориентируется на то, являются ли диски в кластере совмес т но используемыми всеми узлами. На рис. 1 , а показан кластер из двух узлов, коо р динация работы которых обеспечивается за счет высокоскоростной линии, испол ь зуемой для обмена сообщениями. Такой линией может быть локальная сеть, испол ь зуемая также и не входящими в кластер компьютерами, либо выделенная линия. В последнем случае один или несколько узлов кластера будут иметь выход на локальную или глобальную сеть, благ о даря чему обеспечивается связь между серверным кластером и удаленными клиентскими систем а ми. Рис. 1. Конфигурации кластеров: а — без совместно используемых дисков; б — с совместно используемыми ди с ками Более ясную картину дает классификация кластеров по их функциональным особенностям. Такая кла с сификация приведена в таблице 1 Пассивное резервиров а ние Вторичный сервер при отказе первичного берет управл е ние на себя Резервирование с активным вторичным серв е ром Вторичный сервер, как и первичный используется при решении задач Самостоятельные серв е ры Самостоятельные серверы имеют собственные диски, а данные постоянно копируются с первичного сервера на втори ч ный Серверы с подключен и ем ко всем дискам Серверы подключены к одним и тем же дискам, но каждый сервер владеет своими дисками. Если один из серверов отказывает, то управление его дисками берет на себя другой се р вер Серверы с совместно используемыми диск а ми Множество серверов совместно использ у ют доступ к дискам Таблица 1. Методы кластеризации Кластеризация с резервированием — наиболее старый и универсальный метод. Один из серверов берет на себя всю вычислительную нагрузку, в то время как второй ост а ется неактивным, но готовым пер е нять вычисления при отказе основного сервера. Активный или первичный сервер периодически посылает р е зервному тактирующее сообщение. При отсутствии тактирующих сообщений (это рассматр и вается как отказ первичного сервера) вторичный сервер берет управление на себя. Такой подход повышает коэфф и циент готовности, но не улучшает производительности. Более того, если единственный вид общения м е жду узлами — обмен сообщениями, и если оба сервера кластера не используют диски совместно, то резервный сервер не имеет до с тупа к базам данных, управляемым первичным сервером. Пассивное резервирование для кластеров не характерно. Термин «кластер» относят к множеству взаимосвязанных узлов активно участвующих в вычислительном проце с се и совместно создающих илл ю зию одного мощной вычислительной машины. К такой конфигурации обычно применяют понятие системы « с активным вторичным сервером », и здесь выделяют три метода кластеризации: самостоятельные серв е ры, серверы без совместного использования дисков и серверы с совместным использованием ди с ков. В первом подходе каждый узел кластера рассматривается как самостоятельный се р вер с собственными дисками, причем ни один из дисков в системе не является совм е стно используемым (рис. 1 , а ). Схема обеспечивает высокую производительность и высокий коэффициент готовности, однако требует специального программного обе с печения для планирования распределения запросов клиентов по серверам так, чтобы добиться сбалансированного и эффективного использования всех серверов. Необх о димо также обеспечить, чтобы при отказе одного из узлов в процессе выполнения какого-либо прил о жения, другой узел кластера мог перехватить и завершить данное приложение. Для этого данные в системе должны п о стоянно копироваться, чтобы каждый сервер имел доступ ко всем наиболее свежим данным в сист е ме. Из-за этих издержек высокий коэффициент готовности обеспечивается лишь за счет потери производительн о сти. Для сокращения коммуникационных издержек, большинство кластеров в настоящее время с о стоят из серверов, подключенных к общим дискам, обычно представленным дисковым массивом RAID (рис. 1 , б ). Один из вариантов такого подхода предполагает, что совместно использование ди с ков не пр и меняется. Общие диски разбиваются на разделы, и каждому узлу кластера выделяется свой раздел. Если один из узлов отказывает, кластер может быть реко н фигурирован так, что права доступа к его разделу общего диска передаются др у гому узлу. При втором варианте множество серверов разделяют во времени доступ к общим дискам, так что любой узел имеет доступ ко всем разделам всех общих дисков. Такой подход требует наличия каких-либо средств блокировки, гарантирующих, что в л ю бой момент времени доступ к данным будет иметь только один из серверов. Вычислительные машины (системы) в кластере взаимодействуют в соответствии с одним их двух транспортных протоколов. Первый из них — протокол TCP ( Transmission Control Protocol ) оперир у ет потоками байтов, гарантируя надежность доставки сообщения. Второй — UDP ( User Datagram Protocol ) «пытается» п о сылать пакеты данных без гарантии их доставки. В последнее время применяют специальные прот о колы, которые работают намного лучше. Так, возглавляемый компанией Intel консорциум предложил новый протокол для внутрикластерных коммуникаций, который называется Virtual Interface Architecture и претендует на роль ста н дарта. При обмене информацией используются два программных метода: метод передачи сообщений и метод распределенной совместно используемой памяти . Метод передачи сообщений опирается на явную передачу информационных соо б щений между узлами кластера. При распределенной совместно используемой памяти также прои с ходит передача сообщений, но движение данных между узлами кластера скрыто от пр о граммиста. Кластеры обеспечивают высокий уровень доступности — в них отсутствуют единая операционная система и совместно используемая память, то есть нет проблемы когерентности кэшей. Кроме того, спец и альное программное обеспечение в каждом узле постоянно производит контроль работоспособности всех остальных узлов. Этот ко н троль основан на периодической рассылке каждым узлом сигнала « Я еще бодрс т вую » . Если сигнал от некоторого узла не поступает, то такой узел считается выше д шим из строя; ему не дается возможность выполнять ввод/вывод, его диски и другие ресурсы (включая сетевые адр е са) переназначаются другим узлам, а выполнявшиеся в вышедшем из строя узле программы перезапускаю т ся в других узлах. Производительность кластеров хорошо масштабируется при добавлении узлов. В кластере может выполняться несколько отдельных приложений, но для масштабир о вания отдельного приложения требуется, чтобы его части взаимодействовали путем обмена сообщениями. Нельзя, однако, не учитывать, что взаимодействия между у з лами кластера занимают гораздо больше времени, чем в традиц и онных ВС. Возможность практически неограниченного наращивания числа узлов и отсутствие единой операционной системы делают кластерные архитектуры исключительно х о рошо масштабируемыми. Успешно используются системы с сотнями и тысячами у з лов. Топология кластеров При создании кластеров с большим количеством узлов могут применяться самые разнообразные топологии (см. главу 12). В данном разделе остановимся на тополог и ях, характерных для наиболее распростр а ненных «малых» кластеров, состоящих из 2-4 узлов. Топология кластерных пар Топология кластерных пар используется при организации 2-х или 4-х узловых кл а стеров (рис. 2 ). Рис. 2. Топология кластерных пар Узлы группируются попарно. Дисковые массивы присоединяются к обоим узлам, входящим в состав пары, причем каждый узел пары имеет доступ ко всем дисковым массивам данной пары. Один из узлов пары используется как резервный для другого. 4-х узловая кластерная пара представляет собой простое расширение 2-х узловой топологии. Обе кл а стерные пары с точки зрения администрирования и настройки рассматриваются как единое целое. Данная топология может быть применена для организации кластеров с высокой готовн о стью данных, но отказоустойчивость реализуется только в пределах пары, так как принадлежащие паре устройства хран е ния информации не имеют физического соединения с другой парой. Топология используется при организации параллельной работы СУБД Informix XPS . Топология N +1 Топология N+1 позволяет создавать кластеры из 2-, 3- и 4-х узлов (рис. 3 ). Рис. 3 . Топология N +1 Каждый дисковый массив подключаются только к двум узлам кластера. Дисковые массивы организов а ны по схеме RAID 1 . Один сервер имеет соединение со всеми дисковыми массивами и служит в качес т ве резервного для всех остальных (основных или активных) узлов. Резервный сервер может использоваться для обеспечения в ы сокой степени готовности в паре с любым из а к тивных узлов. Топология рекомендуется для организации кластеров высокой готовности. В тех конфигурациях, где имеется возможность выделить один узел для резервирования, эта топология позволяет уменьшить н а грузку на активные узлы и гарантировать, что нагрузка вышедшего из строя узла будет воспроизведена на резервном узле без пот е ри производительности. Отказоустойчивость обеспечивается между любым из о с новных узлов и резервным узлом. В то же время топология не позволяет реализовать глобальную отк а зоустойчивость, поскольку основные узлы кластера и их системы хранения информации не связаны друг с другом. Топология N N Аналогично топологии N+1 , топология N N (рис. 14.12) позволяет создавать класт е ры из 2-, 3- и 4-х узлов, но в отличие от первой обладает большей гибкостью и ма с штабируемостью. Рис. 4. Топология N N Только в этой топологии все узлы кластера имеют доступ ко всем дисковым масс и вам, которые, в свою очередь, строятся по схеме RAID 1 ( с дублированием). Масштабируемость топологии проявляется в простоте добавления к кластеру дополн и тельных узлов и дисковых массивов без изменения соединений в существующей си с теме. Топология позволяет организовать каскадную систему отказоустойчивости, при к о торой обработка переносится с неисправного узла на резервный, а в случае его вых о да из строя на следующий резервный узел и т.д. Кластеры с топологией N N обесп е чивают поддержку приложения Oracle Parallel Server , тр е бующего соединения всех узлов со всеми системами хранения информации. В целом топология обладает лу ч шей отказоустойчивостью и гибкостью по сравнению с другими топологиями. Топология с полностью раздельным доступом В топологии с полностью раздельным доступом (рис. 5 ) каждый дисковый массив соединяется только с о д ним узлом кластера. Рис. 5. Топология с полностью раздельным доступом Топология рекомендуется только для тех приложений, для которых характерна арх и тектура полностью раздельного доступа, например, для уже упоминавшейся СУБД Informix XPS . VAX / VMS кластеры фирмы DEC Компания DEC в 1983 году первой анонсировала концепцию кластерной сист е мы, определив ее как группу объединенных между собой вычислительных машин, представляющих собой единый узел обр а ботки информации. По существу VAX-кластер (рис. 6 ) представляет собой слабосвязанную мног о машинную систему с общей внешней памятью, обеспечивающую единый механизм управления и администрирования. VAX-кластер обл а дает следующими свойствами. q Разделение ресурсов . Вычислительные машины VAX в кластере могут разделять доступ к общим ленточным и дисковым накопителям. Все машины в кластере могут обращаться к отдельным файлам данных как к локал ь ным. q Высокая готовность . Если происходит отказ в одном из узлов, задания польз о вателей автоматически могут быть перенесены на другой узел кластера. При н а личии в системе нескольких контролл е ров иерархической внешней памяти (HSC, Hierarchical Storage Controller ) и отказе одного из них другие контроллеры HSC автоматически подхватывают его р а боту. q Высокая пропускная способность . Приложения могут пользоваться возможн о стью параллельного выполнения заданий на нескольких машинах кл а стера. q Удобство обслуживания системы . Общие базы данных могут обслуживаться с единственного места. Прикладные программы могут инсталлироваться только однажды на общих дисках кластера и разделяться между всеми узлами класт е ра. q Расширяемость . Увеличение вычислительной мощности кластера достигается подключением к нему дополнительных ВМ типа VAX. Дополнительные накоп и тели на магнитных дисках и магнитных лентах становятся доступными для всех ВМ, входящих в кластер. Рис. 6. . VAX/VMS-кластер Работа VAX-кластера определяется двумя главными компонентами: высокоскорос т ным механизмом связи и системным программным обеспечением, которое обеспечивает клиентам прозрачный доступ к системному сервису. Физ и чески связи внутри кластера реализуются с помощью трех различных шинных технологий с различными характер и стиками производительности. Шина связи компьютеров CI ( Computer Interconnect ) работает со скоростью 100 Мбит/с и используется для соединения комп ь ютеров VAX и контроллеров HSC с помощью коммутатора Star Coupler . Каждая связь CI имеет двойные избыточные линии, две для передачи и две для приема. Л и нии функционируют по технологии CSMA, которая для устранения коллизий испол ь зует специфические для данного узла задержки. Максимальная длина связи CI составляет 45 метров. Звездообразный комм у татор Star Coupler может поддерживать подключение до 32 шин CI, каждая из которых предназначена для подсо е динения компьютера VAX или контроллера HSC. Контроллер HSC представляет собой интеллектуальное устройство, которое управляет работой дисковых и ленточных накоп и телей. В основе системного программного обеспечения рассматриваемой кластерной сист е мы лежит распределенный менеджер блокировок (DLM, Di s tributed Lock Manager ). Он гарантирует правильное взаимодействие процессоров друг с другом при обращениях к общим ресурсам, таким, например, как диски. Очень ва ж ной функцией DLM является обеспечение когерентного состояния дисковых кэшей для операций ввода/вывода операционной системы и прикладных программ. Следует, однако, отм е тить, что работа с DLM связана со значительными накладными расходами. Накла д ные расходы в среде VAX/VMS могут быть большими, требующими передачи до шести сообщений по шине CI для одной операции вв о да/вывода и могут достигать величины 20% для каждого процессора в кластере. Во всем мире насчитывалось более 20000 установок VAX-кластеров. Почти все из них построены с и с пользованием шинного интерфейса CI. UNIX-кластеры компании IBM Альтернативой VAX-кластерам стали так называемые UNIX-кластеры. Одно из на и больших их отличий связано с реализацией восстановления клиентов в случае отказа. В VAX-кластерах такое восстановление осуществляется средствами программного обеспечения самого VAX-кластера. В UNIX-кластерах эти возможности обычно ре а лизуются отдельным уровнем программного обеспечения, называемым монитором транзакций . В UNIX-кластерах мониторы транзакций, кроме того, используются также для целей балансировки нагрузки, в то время как VAX-кластеры имеют встроенную в программное обеспечение утилиту баланс и ровки загрузки. Компания IBM предложила несколько типов UNIX -кластеров на базе RS/6000, работающих под управлением программного продукта High - Availability Clustered Multiprocessor /6000 (HACMP/6000). В этих системах поддерживаются три режима автоматического восстановления системы после отк а за: q режим 1 — в конфигурации с двумя системами, одна из которых является о с новной, а другая находится в горячем резерве, в случае отказа обеспечивает а в томатическое переключение с основной си с темы на резервную; q режим 2 — в той же двухмашинной конфигурации позволяет резервному пр о цессору обрабатывать некритичные приложения, выполнение которых в случае отказа основной системы можно либо прекратить совсем, либо продолжать их обработку в режиме д е градации; q режим 3 — можно действительно назвать кластерным решением, поскольку си с темы в этом режиме работают параллельно, разделяя доступ к логическим и ф и зическим ресурсам пользуясь возможностями менеджера блокировок, вход я щего в состав HACMP/6000. Максимальное количество узлов в кластере равно восьми. В составе кластера есть узлы с симметри ч ной многопроцессорной обработкой, построенные по технологии Data Crossbar Switch , обеспечивающей линейный рост производительности с увел и чением числа процессоров. Кластеры RS/6000 строятся на базе локальных сетей Ethernet , Token Ring или FDDI и могут быть сконфигурированы различными спос о бами с точки зрения обеспечения п о вышенной надежности: q горячий резерв или простое переключение в случае отказа. В этом режиме акти в ный узел выполняет прикладные задачи, а резервный может выполнять некр и тичные задачи, которые могут быть остановлены в случае необходимости переключ е ния при отказе активного узла; q симметричный резерв . Аналогичен горячему резерву, но роли главного и резер в ного узлов не фи к сированы; q взаимный подхват или режим с распределением нагрузки. В этом режиме ка ж дый узел в кластере может «подхватывать» задачи, которые выполняются на любом др у гом узле кластера.
1Архитектура и строительство
2Астрономия, авиация, космонавтика
 
3Безопасность жизнедеятельности
4Биология
 
5Военная кафедра, гражданская оборона
 
6География, экономическая география
7Геология и геодезия
8Государственное регулирование и налоги
 
9Естествознание
 
10Журналистика
 
11Законодательство и право
12Адвокатура
13Административное право
14Арбитражное процессуальное право
15Банковское право
16Государство и право
17Гражданское право и процесс
18Жилищное право
19Законодательство зарубежных стран
20Земельное право
21Конституционное право
22Конституционное право зарубежных стран
23Международное право
24Муниципальное право
25Налоговое право
26Римское право
27Семейное право
28Таможенное право
29Трудовое право
30Уголовное право и процесс
31Финансовое право
32Хозяйственное право
33Экологическое право
34Юриспруденция
 
35Иностранные языки
36Информатика, информационные технологии
37Базы данных
38Компьютерные сети
39Программирование
40Искусство и культура
41Краеведение
42Культурология
43Музыка
44История
45Биографии
46Историческая личность
47Литература
 
48Маркетинг и реклама
49Математика
50Медицина и здоровье
51Менеджмент
52Антикризисное управление
53Делопроизводство и документооборот
54Логистика
 
55Педагогика
56Политология
57Правоохранительные органы
58Криминалистика и криминология
59Прочее
60Психология
61Юридическая психология
 
62Радиоэлектроника
63Религия
 
64Сельское хозяйство и землепользование
65Социология
66Страхование
 
67Технологии
68Материаловедение
69Машиностроение
70Металлургия
71Транспорт
72Туризм
 
73Физика
74Физкультура и спорт
75Философия
 
76Химия
 
77Экология, охрана природы
78Экономика и финансы
79Анализ хозяйственной деятельности
80Банковское дело и кредитование
81Биржевое дело
82Бухгалтерский учет и аудит
83История экономических учений
84Международные отношения
85Предпринимательство, бизнес, микроэкономика
86Финансы
87Ценные бумаги и фондовый рынок
88Экономика предприятия
89Экономико-математическое моделирование
90Экономическая теория

 Анекдоты - это почти как рефераты, только короткие и смешные Следующий
Астронавт звучит гордо, но космонавты удачней взлетают!
Anekdot.ru

Узнайте стоимость курсовой, диплома, реферата на заказ.

Обратите внимание, реферат по информатике и информационным технологиям "Кластерные вычислительные системы", также как и все другие рефераты, курсовые, дипломные и другие работы вы можете скачать бесплатно.

Смотрите также:


Банк рефератов - РефератБанк.ру
© РефератБанк, 2002 - 2016
Рейтинг@Mail.ru