Oracle grid infrastructure что это

Обновлено: 03.07.2024

Концепция Grid Computing (распределенные сети, или "решетки" вычислительных ресурсов) - одно из ведущих направлений развития информационных технологий. Год назад аналитическая компания IDC отметила его в числе самых перспективных, а в течение 2003 года многие ведущие мировые ИТ-поставщики (а следом за ними и специализированные СМИ) активно заговорили о поддержке Grid на уровне стандартов и продуктов. Вместе с тем очевидно, что пока эта технология еще находится в начальной стадии становления. Аналитики сравнивают нынешнюю ситуацию с Grid с состоянием сети WWW десять лет назад, при этом многие из них предсказывают, что Grid произведет такую же революцию в области обработки данных, какую Интернет произвел в сфере инфокоммуникаций.

От RAC 9i к Oracle 10g Grid

Стандартизация. Один из основных способов снижения затрат - использование стандартных устройств для вычислений и хранения данных. Это означает, в частности, ориентацию на применение 64-разрядных процессоров Intel Itanium 2, Sun SPARC и IBM PowerPC, модульных (blade) серверов, сетевых систем хранения данных (NAS и SAN), высокоскоростных сетевых соединений, а также платформы Linux.

Консолидация. Концентрация ИТ-инфраструктуры в одном месте или в рамках небольшого числа вычислительных центров позволяет существенно повысить эффективность обработки за счет применения более крупных кластерных решений.

Автоматизация. В классическом варианте решетка Grid должна обеспечивать динамическое распределение всех ресурсов. Двигаясь в данном направлении, необходимо повышать уровень автоматизации этих процессов.

Оптимизация. Имеется в виду создание программных продуктов, изначально ориентированных на сетевые вычисления.

Еще в версии Oracle9i разработчики применили технологию Real Application Cluster (RAC), которая позволяет выполнять сложные приложения как на одиночных серверах, так и на кластерах с переменных числом узлов. В новых продуктах Oracle 10g, представленных в начале сентября 2003 года на конференции OracleWorld, Grid-архитектура фактически реализована на основе модернизированного и расширенного варианта RAC*.

*На момент написания этой статьи продукты версии 10g на рынке еще не появились; не ясна была и ценовая политика компании, касающаяся новых решений. По заявлению Oracle, коммерческие версии новых продуктов появятся в России одновременно с другими странами мира в конце 2003 - начале 2004 г. Так, 10 декабря было объявлено о начале поставок Oracle Application Server 10g.

Oracle Enterprise Manager 10g

Возможность перевода сервера из одного кластера в другой была реализована еще в Oracle9i. Однако это была достаточно трудоемкая операция, которую могли выполнить только квалифицированные специалисты. В новой версии подобные процедуры управления ИТ-ресурсами автоматизированы (хотя, как и ранее, сами кластеры обязательно должны быть однородными).

Основным инструментом для управления корпоративными сетями распределенных вычислений в десятой версии стал принципиально новый продукт Oracle Enterprise Manager 10g. С его помощью системные администраторы могут изменять информационные политики и уровни сервисного обслуживания, перераспределять существующие вычислительные ресурсы и приложения в зависимости от изменяющихся потребностей бизнеса. Enterprise Manager 10g позволяет проводить мониторинг производительности приложений, их диагностику, инсталляцию ПО, конфигурирование и инициализацию новых серверов приложений и баз данных. При этом система может не только фиксировать проблемы, но и определять их первопричины.

Ключевой компонент Oracle Enterprise Manager 10g - приложение Oracle Grid Control, с помощью которого с единой консоли выполняется полный контроль и мониторинг распределенных вычислительных сред Oracle, от баз данных и приложений до устройств хранения данных. Oracle Grid Control использует "управляющий репозиторий", в котором хранятся данные о производительности, доступности и конфигурации вычислительных ресурсов всего предприятия. Консоль оснащена рядом функций для централизованного управления ресурсами и преобразования данных репозитория в наглядную информацию. В частности, администраторы могут использовать встроенную экспертную оценку оптимального планирования емкости, доступности и производительности распределенных вычислительных сред.

Пакет Enterprise Manager 10g создан на базе открытых стандартов управления, в том числе Common Information Model (CIM) и Web-based Enterprise Management (WBEM), разработанных рабочей группой по управлению распределенными средами (Distributed Management Task Force, DMTF).

Oracle Database 10g

Новая версия СУБД Oracle обладает множеством функциональных расширений, однако наиболее важные ее инновации связаны с применением Grid-архитектуры. В первую очередь речь идет об автоматическом управлении базами данных. Новое решение позволяет клиентам упростить построение крупномасштабных вычислительных систем из недорогих стандартных компонентов, таких, как кластеры модульных серверов и смонтированные в стойку системы хранения данных. Ряд усовершенствованных функций и новая консоль Database Control с Web-интерфейсом обеспечивают в Oracle Database 10g новый уровень автоматизации управления описанной инфраструктурой.

Основанная на продукте Oracle Enterprise Manager 10g консоль Database Control представляет собой диагностический монитор, отображающий в графическом виде текущее состояние базы данных. Администраторы могут проводить профилактический мониторинг БД и быстро получать предупреждения и рекомендации для обеспечения оптимальной производительности и надежности работы систем. Консоль Database Control может даже выявить неудачно написанный фрагмент кода приложения, предложить лучший вариант и автоматически настроить базу данных, чтобы добиться оптимальной производительности.

Применение автоматического управления избавляет от необходимости выполнять сложные повторяющиеся задачи - диагностику производительности, настройку приложений, управление распределением памяти и т. п. Новое ПО включает механизм самодиагностики, который автоматически выявляет любые проблемы, связанные с производительностью или функциональностью системы, и предоставляет рекомендации по устранению неполадок.

Новая версия RAC 10g представляет собой набор общих сервисов для обслуживания кластеров. Эти сервисы в Oracle Database 10g облегчают создание кластеров базы данных и управление ими. В составе RAC 10g используется новое средство управления рабочей нагрузкой кластеров, предназначенное для оперативного перераспределения вычислительных возможностей компонентов кластерной базы данных.

Oracle Database 10g включает также модуль автоматического управления хранилищем данных (Automatic Storage Management, ASM). Это новое ПО упрощает конфигурирование системы хранения данных и управление базами данных. Модуль ASM избавляет от необходимости знать о том, как база данных взаимодействует с файлами данных и подсистемами хранения данных. ASM автоматически распределяет нагрузку на систему хранения данных, повышая производительность системы и устраняя необходимость в постоянном мониторинге систем хранения на предмет поиска "точек повышенной загрузки" и узких мест, которые зачастую снижают скорость обработки данных.

Oracle уже наладила сотрудничество с ведущими разработчиками промышленных систем хранения данных, в частности с EMC, Hitachi, HP, Network Appliance и Xiotech, с целью обеспечить совместную работу модуля ASM с сетевыми устройствами хранения данных (NAS) и сетями хранилищ данных (SAN), которые предлагают эти компании.

Oracle Application Server 10g

Основные нововведения, появившиеся в сервере приложений Oracle Application Server 10g, тоже связаны с повышением эффективности приложений, выполняемых в распределенной вычислительной среде. Кроме того, в этом ПО промежуточного слоя улучшены средства интеграции и поддержка Web-сервисов.

Новые инструменты управления рабочей нагрузкой упрощают оптимизацию вычислительной мощности, перераспределяя по мере необходимости ресурсы аппаратных средств, систем хранения информации и комплектов ПО. Системные администраторы получают возможность управлять вычислительными ресурсами или на основе пороговых показателей (например, коэффициента загрузки сервера либо времени отклика на уровне пользователя), или в соответствии с графиком планируемых заранее мероприятий, таких, как обработка платежных ведомостей в конце месяца или закрытие учетных книг в конце квартала.

Кроме того, Oracle Application Server 10g обладает новыми средствами повышения надежности корпоративных приложений, выполняемых на кластерах и в корпоративной сети распределенных вычислений. По сравнению с предыдущей версией усовершенствованы функции быстрого запуска при устранении отказа (Fast Start Fault Recovery Architecture) и средства оповещения об ошибках (Failure Notification, FaN), которые упрощают обмен информацией между базой данных и серверами приложений для координации процесса восстановления работоспособности после отказов, например, в случае выхода из строя аппаратных средств.

Одна из проблем традиционных корпоративных ИТ-систем - сложность интеграции обособленных вычислительных ресурсов и программных приложений. Например, если требуется объединить данные из систем управления персоналом (HR) и начисления зарплаты в рамках единого портала, может оказаться, что соответствующие приложения и данные находятся на разных серверах и их совместное использование невозможно.

В Oracle Application Server 10g усовершенствованы возможности интеграции, благодаря чему можно использовать один программный продукт для интеграции класса "приложение - приложение" и "компания - компания", а также для интеграции Web-сервисов. Это позволяет создать в общекорпоративном масштабе единую модель данных, выступающую в роли информационного ядра.

  • средства описания и готовые сопрягающие модули для большинства приложений и данных, избавляющие от специализированной настройки и программирования;
  • средства интеграции по схеме "компания - компания", обеспечивающие безопасные транзакции между торговыми партнерами и поставщиками;
  • основанный на политиках механизм управления, оптимизирующий отношения с торговыми партнерами посредством поддержания соглашений, профилей и подробностей сотрудничества;
  • новые инструменты управления, основанные на моделях и событиях, оптимизирующие управление важными бизнес-процессами;
  • поддержка широкого набора основанных на стандартах интеграционных протоколов, таких, как EDI, RosettaNet (создание высокотехнологичной продукции) и HL/7 (здравоохранение), что позволяет обойтись без дорогостоящих специализированных технологий и отдельных решений для каждого интеграционного проекта.

Чтобы сделать создание и развертывание приложений более гибким, клиенты и партнеры Oracle могут использовать как поддержку технологии распределенных вычислений, так и усовершенствованную функциональность Web-сервисов, реализованную в Oracle Application Server 10g. Первый вариант позволяет оптимизировать процесс наращивания и распределения вычислительной мощности, второй облегчает повторное использование и интеграцию приложений.

Grid: история и современность

Концепция Grid появилась еще в конце 60-х годов. Как и в случае многих других ИТ-инноваций, рождение и развитие этой технологии было связано с фундаментальными научными исследованиями. Идея тут лежит на поверхности: для вычислений следует использовать свободные ресурсы компьютеров. Эта проблема была особенно актуальна три десятилетия назад, когда для построения серьезных математических моделей были нужны мощности суперкомпьютерных центров, а их тогда в мире было совсем немного. Технически задача решалась также довольно просто, так как речь шла о разовых вычислительных заданиях без очень жестких требований к их реализации.

До широкого применения в бизнесе технология Grid в те времена не дошла. С одной стороны, сказались чисто технические причины - организовать динамическое перераспределение распределенных ресурсов для огромного числа разнородных задач было весьма непросто. С другой - актуальность самой проблемы отошла на второй план, так как именно в 1970-х начался небывало быстрый рост мощностей автономных компьютеров.

В истории развития вычислительных технологий речь всегда шла о той или иной реализации распределенных систем (даже на уровне одного компьютера!), при этом постоянно противоборствовали две тенденции - централизации и децентрализации вычислительных ресурсов. Конкретный их баланс определяется многими факторами, в первую очередь отношением производительность/цена для собственно вычислителей и пропускная способность/цена для каналов связи, а также соображениями оптимизации использования ресурсов.

Однако главной отличительной чертой подавляющего большинства распределенных систем до сих пор остается статическая схема распределения вычислительной нагрузки по узлам сети. Разработчики платформ научились масштабировать системы путем увеличения числа узлов и повышения производительности отдельных узлов, но вот проблема динамического перераспределения ресурсов (даже между кластерами в одном вычислительном центре) пока не решена. Здесь нужно подчеркнуть принципиальное отличие кластерных решений от Grid: в первом случае речь идет о жестко связанных компьютерах, изначально управляемых из единого центра, во втором в общем случае - о слабосвязанной одноранговой схеме с независимыми узлами.

В активности ИТ-компаний сегодня можно проследить два основных направления. Первое - это участие в глобальных международных научных проектах под руководством независимых исследовательских центров. Из наиболее известных сейчас можно упомянуть TeraGrid (США), ComboGrid (Великобритания), Datagrid (Европейский союз с участием России). Их важность для ИТ-индустрии заключается в том, что именно здесь формируются мировые Grid-cтандарты. Второе направление - формирование собственных коммерческих продуктов и технологий с учетом специфики позиционирования производителя на рынке.

  • применение открытых стандартов;
  • объединение разнородных систем;
  • совместное использование данных;
  • динамическое выделение ресурсов;
  • объединение вычислительных сетей множества предприятий и организаций.

Однако даже беглый анализ предлагаемых ИТ-поставщиками решений показывает, что практически никто не реализует эти принципы в полной мере. Вряд ли нужно ставить это в упрек разработчикам: весьма вероятно, что "идеальная" схема вообще не реализуема на практике (по крайней мере, на нынешнем этапе развития мировой ИТ-индустрии). Поэтому нет ничего удивительного, что каждая компания решает эту задачу с учетом своих "сильных" сторон.

В частности, Sun и Oracle делают акцент на повышение уровня управляемости в Grid-кластерах, IBM реализует идеи Grid в рамках конкретных крупных проектов, HP - в своих программно-аппаратных решениях. Особняком тут стоит Microsoft, которая пока считает, что для начала нужно полностью использовать потенциал технологии Web-сервисов.

Другие статьи из раздела

Демонстрация Chloride Trinergy

Chloride
Демонстрация Chloride Trinergy
Впервые в России компания Chloride Rus провела демонстрацию системы бесперебойного электропитания Chloride Trinergy®, а также ИБП Chloride 80-NET™, NXC и NX для своих партнеров и заказчиков.

Завершена реорганизация двух дочерних предприятий NEC Corporation в России

NEC Нева Коммуникационные Системы
Завершена реорганизация двух дочерних предприятий NEC Corporation в России
С 1 декабря 2010 года Генеральным директором ЗАО «NEC Нева Коммуникационные Системы» назначен Раймонд Армес, занимавший ранее пост Президента Shyam …

С 17 по 19 ноября 2010 в Москве, в КВЦ «Сокольники», состоялась VII Международная выставка InfoSecurity Russia. StorageExpo. Documation’2010.

компания «Гротек»
С 17 по 19 ноября 2010 в Москве, в КВЦ «Сокольники», состоялась VII Международная выставка InfoSecurity Russia. StorageExpo. Documation’2010.
Новейшие решения защиты информации, хранения данных и документооборота и защиты персональных данных представили 104 организации. 4 019 руководителей …

RAID-контроллеры Adaptec Series 5Z с безбатарейной защитой кэша

Adaptec by PMC
RAID-контроллеры Adaptec Series 5Z с безбатарейной защитой кэша
Опытные сетевые администраторы знают, что задействование в работе кэш-памяти RAID-контроллера дает серьезные преимущества в производительности …

Трехфазный ИБП Chloride от 200 до 1200 кВт: Trinergy

Chloride
Трехфазный ИБП Chloride от 200 до 1200 кВт: Trinergy
Trinergy — новое решение на рынке ИБП, впервые с динамическим режимом работы, масштабируемостью до 9.6 МВт и КПД до 99%. Уникальное сочетание …

30 ноября 2021 г. | Он-лайн формат
Dell Technologies Forum 2021

Как известно, кластеры позволяют решать проблемы, связанные с производительностью, балансировкой нагрузки и отказоустойчивостью. Для построения кластеров используются различные решения и технологии, как на программном, так и на аппаратном уровне. В этой статье будут рассмотрены программные решения, предлагаемые компаниями Microsoft и Oracle.

Виды кластеров

Кластер — это группа независимых компьютеров (так называемых узлов или нодов), к которой можно получить доступ как к единой системе. Кластеры могут быть предназначены для решения одной или нескольких задач. Традиционно выделяют три типа кластеров:

  • Кластеры высокой готовности или отказоустойчивые кластеры (high-availability clusters или failover clusters) используют избыточные узлы для обеспечения работы в случае отказа одного из узлов.
  • Кластеры балансировки нагрузки (load-balancing clusters) служат для распределения запросов от клиентов по нескольким серверам, образующим кластер.
  • Вычислительные кластеры (compute clusters), как следует из названия, используются в вычислительных целях, когда задачу можно разделить на несколько подзадач, каждая из которых может выполняться на отдельном узле. Отдельно выделяют высокопроизводительные кластеры (HPC — high performance computing clusters), которые составляют около 82% систем в рейтинге суперкомпьютеров Top500.

Системы распределенных вычислений (gird) иногда относят к отдельному типу кластеров, который может состоять из территориально разнесенных серверов с отличающимися операционными системами и аппаратной конфигурацией. В случае грид-вычислений взаимодействия между узлами происходят значительно реже, чем в вычислительных кластерах. В грид-системах могут быть объединены HPC-кластеры, обычные рабочие станции и другие устройства.


Такую систему можно рассматривать как обобщение понятия «кластер». ластеры могут быть сконфигурированы в режиме работы active/active, в этом случае все узлы обрабатывают запросы пользователей и ни один из них не простаивает в режиме ожидания, как это происходит в варианте active/passive.

Oracle RAC и Network Load Balancing являются примерами active/ active кластера. Failover Cluster в Windows Server служит примером active/passive кластера. Для организации active/active кластера требуются более изощренные механизмы, которые позволяют нескольким узлам обращаться к одному ресурсу и синхронизовать изменения между всеми узлами. Для организации кластера требуется, чтобы узлы были объединены в сеть, для чего наиболее часто используется либо традиционный Ethernet, либо InfiniBand.


Программные решения могут быть довольно чувствительны к задержкам — так, например, для Oracle RAC задержки не должны превышать 15 мс. В качестве технологий хранения могут выступать Fibre Channel, iSCSI или NFS файловые сервера. Однако оставим аппаратные технологии за рамками статьи и перейдем к рассмотрению решений на уровне операционной системы (на примере Windows Server 2008 R2) и технологиям, которые позволяют организовать кластер для конкретной базы данных (OracleDatabase 11g), но на любой поддерживаемой ОС.

Windows Clustering

У Microsoft существуют решения для реализации каждого из трех типов кластеров. В состав Windows Server 2008 R2 входят две технологии: Network Load Balancing (NLB) Cluster и Failover Cluster. Существует отдельная редакция Windows Server 2008 HPC Edition для организации высокопроизводительных вычислительных сред. Эта редакция лицензируется только для запуска HPC-приложений, то есть на таком сервере нельзя запускать базы данных, web- или почтовые сервера.


NLB-кластер используется для фильтрации и распределения TCP/IPтрафика между узлами. Такой тип кластера предназначен для работы с сетевыми приложениями — например, IIS, VPN или межсетевым экраном.

Могут возникать сложности с приложениями, которые полага ются на сессионные данные, при перенаправлении клиента на другой узел, на котором этих данных нет. В NLB-кластер можно включать до тридцати двух узлов на x64-редакциях, и до шестнадцати — на x86.

Failoverclustering — это кластеризации с переходом по отказу, хотя довольно часто термин переводят как «отказоустойчивые кластеры».

Узлы кластера объединены программно и физически с помощью LAN- или WAN-сети, для multi-site кластера в Windows Server 2008 убрано требование к общей задержке 500 мс, и добавлена возможность гибко настраивать heartbeat. В случае сбоя или планового отключения сервера кластеризованные ресурсы переносятся на другой узел. В Enterprise edition в кластер можно объединять до шестнадцати узлов, при этом пятнадцать из них будут простаивать до тех пор, пока не произойдет сбой. Приложения без поддержки кластеров (cluster-unaware) не взаимодействуют со службами кластера и могут быть переключены на другой узел только в случае аппаратного сбоя.

Приложения с поддержкой кластеров (cluster-aware), разработанные с использованием ClusterAPI, могут быть защищены от программных и аппаратных сбоев.

Развертывание failover-кластера

Процедуру установки кластера можно разделить на четыре этапа. На первом этапе необходимо сконфигурировать аппаратную часть, которая должна соответствовать The Microsoft Support Policy for Windows Server 2008 Failover Clusters. Все узлы кластера должны состоять из одинаковых или сходных компонентов. Все узлы кластера должны иметь доступ к хранилищу, созданному с использованием FibreChannel, iSCSI или Serial Attached SCSI. От хранилищ, работающих с Windows Server 2008, требуется поддержка persistent reservations.

На втором этапе на каждый узел требуется добавить компонент Failover Clustering — например, через Server Manager. Эту задачу можно выполнять с использованием учетной записи, обладающей административными правами на каждом узле. Серверы должны принадлежать к одному домену. Желательно, чтобы все узлы кластера были с одинаковой ролью, причем лучше использовать роль member server, так как роль domain controller чревата возможными проблемами с DNS и Exchange.

Третий не обязательный, но желательный этап заключается в проверке конфигурации. Проверка запускается через оснастку Failover Cluster Management. Если для проверки конфигурации указан только один узел, то часть проверок будет пропущена.

На четвертом этапе создается кластер. Для этого из Failover Cluster Management запускается мастер Create Cluster, в котором указываются серверы, включаемые в кластер, имя кластера и дополнительные настройки IP-адреса. Если серверы подключены к сетям, которые не будут использоваться для общения в рамках кластера (например, подключение только для обмена данными с хранилищем), то в свойствах этой сети в Failover Cluster Management необходимо установить параметр «Do not allow the cluster to use this network».

После этого можно приступить к настройке приложения, которое требуется сконфигурировать для обеспечения его высокой доступности.

Для этого необходимо запустить High Availability Wizard, который можно найти в Services and Applications оснастки Failover Cluster Management.

Cluster Shared Volumes

В случае failover-кластера доступ к LUN, хранящему данные, может осуществлять только активный узел, который владеет этим ресурсом. При переключении на другой узел происходит размонтирование LUN и монтирование его для другого узла. В большинстве случаев эта задержка не является критичной, но при виртуализации может требоваться вообще нулевая задержка на переключение виртуальных машин с одного узла на другой.


Еще одна проблема, возникающая из-за того, что LUN является минимальной единицей обхода отказа, заключается в том, что при сбое одного приложения, находящегося на LUN, приходится переключать все приложения, которые хранятся на этом LUN, на другой сервер. Во всех приложениях (включая Hyper-V до второго релиза Server 2008) это удавалось обходить за счет многочисленных LUN, на каждом из которых хранились данные только одного приложения. В Server 2008 R2 появилось решение для этих проблем, но предназначенное для работы только с Hyper-V и CSV (Cluster Shared Volumes).

CSV позволяет размещать на общем хранилище виртуальные машины, запускаемые на разных узлах кластера — тем самым разбивается зависимость между ресурсами приложения (в данном случае виртуальными машинами) и дисковыми ресурсами. В качестве файловой системы CSV использует обычную NTFS. Для включения CSV необходимо в Failover Cluster Manage выполнить команду Enable Cluster Shared Volumes. Отключить поддержку CSV можно только через консоль:

Для использования этой команды должен быть загружен Failover Clusters, модуль PowerShell. Использование CSV совместно с live migration позволяет перемещать виртуальные машины между физическими серверами в считанные миллисекунды, без обрыва сетевых соединений и совершенно прозрачно для пользователей. Стоит отметить, что копировать любые данные (например, готовые виртуальные машины) на общие диски, использующие CSV, следует через узел-координатор.

Несмотря на то, что общий диск доступен со всех узлов кластера, перед записью данных на диск узлы запрашивают разрешение у узлакоординатора. При этом, если запись требует изменений на уровне файловой системы (например, смена атрибутов файла или увеличение его размера), то записью занимается сам узел-координатор.

Oracle RAC

Oracle Real Application Clusters (RAC) — это дополнительная опция Oracle Database, которая впервые появилась в Oracle Database 9i под названием OPS (Oracle Parallel Server). Опция предоставляет возможность нескольким экземплярам совместно обращаться к одной базе данных. Базой данных в Oracle Database называет ся совокупность файлов данных, журнальных файлов, файлов параметров и некоторых других типов файлов. Для того, чтобы пользовательские процессы могли получить доступ к этим данным, должен быть запущен экземпляр. Экземпляр (instance) в свою очередь состоит из структур памяти (SGA) и фоновых процессов. В отсутствии RAC получить доступ к базе данных может строго один экземпляр.


Опция RAC не поставляется с Enterprise Edition и приобретается отдельно. Стоит отметить, что при этом RAC идет в составе Standard Edition, но данная редакция обладает большим количеством ограничений по сравнению с Enterprise Edition, что ставит под сомнение целесообразность ее использования.

Oracle Grid Infrastructure

Для работы Oracle RAC требуется Oracle Clusterware (или стороннее ПО) для объединения серверов в кластер. Для более гибкого управления ресурсами узлы такого кластера могут быть организованы в пулы (с версии 11g R2 поддерживается два варианта управления — на основании политик для пулов или, в случае их отсутствия, администратором).

Во втором релизе 11g Oracle Clusterware был объединен с ASM под общим названием Oracle Grid Infrastructure, хотя оба компонента и продолжают устанавливаться по различным путям.

Automatic Storage Management (ASM) — менеджер томов и файловая система, которые могут работать как в кластере, так и с singleinstance базой данных. ASM разбивает файлы на ASM Allocation Unit.

Размер Allocation Unit определяется параметром AU_SIZE, который задается на уровне дисковой группы и составляет 1, 2, 4, 8, 16, 32 или 64 MB. Далее Allocation Units распределяются по ASM-дискам для балансировки нагрузки или зеркалирования. Избыточность может быть реализована, как средствами ASM, так и аппаратно.

ASM-диски могут быть объединены в Failure Group (то есть группу дисков, которые могут выйти из строя одновременно — например, диски, подсоединенные к одному контролеру), при этом зеркалирование осуществляется на диски, принадлежащие разным Failure Group. При добавлении или удалении дисков ASM автоматически осуществляет разбалансировку, скорость которой задается администратором.


На ASM могут помещаться только файлы, относящиеся к базе данных Oracle, такие как управляющие и журнальные файлы, файлы данных или резервные копии RMAN. Экземпляр базы данных не может взаимодействовать напрямую с файлами, которые размещены на ASM. Для обеспечения доступа к данным дисковая группа должна быть предварительно смонтирована локальным ASM-экземпляром.

Oracle рекомендует использовать ASM в качестве решения для управления хранением данных вместо традиционных менеджеров томов, файловых систем или RAW-устройств.

Развертывание Oracle RAC

Рассмотрим этапы установки различных компонентов, необходимых для функционирования Oracle RAC в режиме active/active кластера с двумя узлами. В качестве дистрибутива будем рассматривать последнюю на момент написания статьи версию Oracle Database 11g Release 2. В качестве операционной системы возьмем Oracle Enterprise Linux 5. Oracle Enterprise Linux — операционная система, базирующаяся на RedHat Enterprise Linux. Ее основные отличия — цена лицензии, техническая поддержка от Oracle и дополнительные пакеты, которые могут использоваться приложениями Oracle.

Подготовка ОС к установке Oracle стандартна и заключается в создании пользователей и групп, задании переменных окружения и параметров ядра. Параметры для конкретной версии ОС и БД можно найти в Installation Guide, который поставляется вместе с дистрибутивом.

На узлах должен быть настроен доступ к внешним общим дискам, на которых будут храниться файлы базы данных и файлы Oracle Clusterware. К последним относятся votingdisk (файл, определяющий участников кластера) и Oracle Cluster Registry (содержит конфигурационную информацию — например, какие экземпляры и сервисы запущены на конкретном узле). Рекомендуется создавать нечетное количество votingdisk. Для создания и настройки ASMдисков желательно использовать ASMLib, которую надо установить на всех узлах:

Кроме интерфейса для взаимодействия с хранилищем на узлах желательно настроить три сети — Interconnect, External и Backup.
Необходимо настроить IP-адресацию (вручную или с использованием Oracl e GNS) и DNS для разрешения всех имен (или только GNS).

Вначале осуществляется установка Grid Infrastructure. Для этого загружаем и распаковываем дистрибутив, затем запускаем установщик. В процессе установки необходимо указать имя кластера; указать узлы, которые будут входить в кластер; указать назначение сетевых интерфейсов; настроить хранилище.

В конце нужно выполнить с правами root скрипты orainstRoot.sh и root.sh. Первым на всех узлах выполняется скрипт orainstRoot.sh, причем запуск на следующем узле осуществляется только после завершения работы скрипта на предыдущем. После выполнения orainstRoot.sh последовательно на каждом узле выполняется root.sh. Проверить успешность установки можно с помощью команды:

/u01/grid/bin/crsctl check cluster –all

Выполнив проверку, можно приступать к установке базы данных. Для этого запускаем Oracle Universal installer, который используется и для обычной установки базы.

Кроме active/active-кластера в версии 11g R2 существуют две возможности для создания active/passive-кластера. Одна из них — Oracle RACOneNode. Другой вариант не требует лицензии для RAC и реализуется средствами Oracle Clusterware. В этом случае вначале создается общее хранилище; затем устанавливается Grid Infrastructure, с использованием ASM_CRS и SCAN; а после этого на узлы устанавливается база данных в варианте Standalone. Далее создаются ресурсы и скрипты, которые позволяют запускать экземпляр на другом узле в случае недоступности первого.

Заключение

Oracle RAC совместно с Oracle Grid Infrastructure позволяют реализовать разнообразные сценарии построения кластеров. Гибкость настройки и широта возможностей компенсируются ценой такого решения.

Решения же Microsoft ограничены не только возможностями самой кластеризации, но и продуктами, которые могут работать в такой среде. Хотя стоит отметить, что набор таких продуктов все равно шире, чем одна база данных.

SNAGHTML557d2a5

3.2) Распаковать его. В результате получиться папка /tmp/grid.

cd /tmp
unzip p10404530_112030_Linux-x86-64_3of7.zip

3.3) Установить переменные окружения для пользователя grid. Для этого нужно открыть файл /home/grid/.bash_profile в текстовом редакторе и внести в него изменения.

ORACLE_HOME=/u01/11.2.0/grid
ORACLE_SID=+ASM
PATH=$ORACLE_HOME/bin:$PATH
export ORACLE_HOME
export ORACLE_SID
export PATH

SNAGHTMLa93cf95

Установка Oracle Grid Infrastructure происходит под пользователем grid!

xhost +
su - grid
cd /tmp/grid
./runInstaller

image

4.2) Графическая установка (см. экраны).

Можно сразу скачать обновления для данной установки (нужно иметь учётную запись MOS). Я отказываюсь от этого.

image

image

image

Избыточность требует дискового места, например, если выбрать Normal, то половина дискового пространства группы уйдет на избыточность и нужно будет как минимум два диска ASM для создания группы.

SNAGHTML151da255

image

image

image

SNAGHTMLa50914c

SNAGHTMLa4fe3a0

image

SNAGHTMLa5330a6

SNAGHTMLa70e45c

image

SNAGHTML1527862e

image

image

4.2) Проверка работоспособности crs (выполнять под grid).

image

Всё установка Oracle Grid Infrastructure завершена.

Запускать нужно под grid.

SNAGHTML15304642

Ввести имя группы, выбрать тип избыточности, выбрать диски ASM и нажать ОК.

Кластерная файловая система Oracle ASM (ACFS) – это кластерная файловая система общего назначения, которая реализована как часть ASM (Automatic Storage Manegement) . Она может использоваться для хранения почти всего, включая исполняемые модули базы данных. Единственно, что не может быть сохранено в ACFS, - это исходная грид-инфраструктура (Grid Infrastructure home), а любые Oracle-файлы могут непосредственно храниться в Oracle ASM.

В этой статье приводятся описывает три способа создать кластерную Файловую систему для RAC-базы данных Oracle 11G Release 2. Предполагается, что RAC-база данных уже существует. Для своих примеров я использовал RAC-установку Vmware, описанную здесь.

Утилита конфигурации ASM Configuration Assistant (ASMCA)

на первом узле RAC войдем в среду ASM как пользователь "oracle", затем стартуем утилиту конфигурации ASM Configuration Assistant (asmca).

После запуска asmca на экране появляется закладка "ASM Instances".


Кликнем по закладке "ASM Cluster File Systems" tab, а затем по кнопке "Create".


Выберем "Create Volume" из списка томов.


Введите Volume Name (имя тома) и Size (объём) and и кликните по кнопке "OK". Подождите, пока этот том не будект создан, и кликните "OK" для продолжения диалога.

ASMCA: Create Volume

Только что созданный том будет теперь отображаться в списке томов (Volume). Выберите опцию "General Purpose File System" (файловая система общего назначения) и укажите точку монтирования предварительно созданной директории (или оставьте предложенную точку монтирования), кликните по кнопке "Yes" для регистрации точки монтирования (Register MountPoint).

ASMCA: Create ASM Cluster File System

ASMCA: Create ASM Cluster File System Message

Только что созданная кластерная файловая система теперь находится в списке "ASM Cluster File Systems".


Или выполните другое действие, или щелкните по кнопке "Exit".

В командной строке на первом узле RAC зайдите в точку монтирования ACFS и создайте тестовый файл.

Проверьте, что этот файл виден со второго узла RAC.

Тем самым показано, что кластерная файловая система ASM работает как ожидалось.

Утилита Oracle Enterprise Manager (OEM)

Oracle Enterprise Manager обеспечивает одинаковый интерфейс взаимодействия с кластерными файловыми системами ASM.

Сначала мы должны создать точки монтирования в файловой системе каждого узла для нового тома.

Подключитесь к OEM, перейдите к домашней странице и кликните по строке одного из экземпляров ASM. На появившемся ASM-экране кликните по закладке "ASM Cluster File System". Должен появиться следующий экран. Кликните по кнопке "Create".

Кликните по кнопке "Create ASM Volume" (создать том ASM).


Введите имя и объём тома и кликните "OK". Подождите, пока создаётся этот том.


Только что созданный том теперь виден в области дисковых устройств (Volume Device). Введите метку тома (Volume Label) и точку монтирования предварительно созданной директории, затем кликните по кнопке "OK".


Только что созданный том показан как "Dismounted" (несмонтированный). Установите на него курсор и кликните по кнопке "Mount" (монтировать).


Чтобы принять выбор узла по умолчанию, надо кликнуть по кнопке "Continue" (продолжить). p>


Войдите в директорию, указанную точкой монтирования и кликните по кнопке "Generate Command" (выполнить команду).


Выполните предложенную команду от лица пользователя "root" на всех узлах, а затем кликните по кнопке "Return" (возврат) на этом и предыдущем экране.


Теперь новая кластерная файловая система ASM готова к использованию.


Командная строка

Сначала мы должны создать точки монтирования для нового тома в файловой системе каждого узла.

Как пользователь "oracle" войдите в среду ASM на первом узле RAC, а затем, используя SQL*Plus, соединитесь с экземпляром ASM.

Введите следующую команду, чтобы создать новый том.

Завершите сессию SQL*Plus, а затем созайте файловую систему на этом томе.

Теперь кластерная файловая система ASM должна быть смонтирована на всех узлах RAC. Если это не так, выполните следующую команду на каждом узле кластера, чтобы её смонтировать.

Общие положения

Вы можете монтировать и демонтировать любую ACFS, выполнив следующие команды от имени пользователя "root" на каждом узле RAC.

Вероятно, самый легкий путь - это использование утилиты ASM Configuration Assistant (ASMCA), но Enterprise Manager позволяет вам увидеть все команды, которые запускаются, чтобы выполнить каждую задачу. Самый легкий способ изучения использования утилиты командной строки - это запустить Enterprise Manager и щелкать кнопкой "Show Command" на каждом шаге пути.

Читайте также: