Настройка nlb кластера windows 2012

Обновлено: 03.07.2024

Предварительные условия.

В данном руководстве подразумевается что у вас уже есть развернутая система Indeed-Id 7.0 с несколькими лог-серверами.

Установка и настройка сервера балансировки сетевой нагрузки для лог-сервера.

Балансировщик сетевой нагрузки (Network Load Balancing, NLB) устанавливается как стандартный компонент Windows и не требует для запуска и работы каких-либо изменений в оборудовании.

Установка компонента.

Компонент “Балансировка сетевой нагрузки” должен быть установлен на всех серверах где установлен indeed-id Log Server.

Настройка компонента.

Создание нового NLB кластера.

Кластер NLB - группа серверов ( узлов ), на каждом узле устанавливается своя копия приложения.

  1. Откройте оснастку NLB на одном из серверов. В диспетчере серверов нажмите “Средства” выберите “Диспетчер балансировки сетевой нагрузки”.
  2. В окне NLB нажмите “Кластер”, выберите в списке “Новый”.
  3. В окне “Подключение” указываем данные сервера с установленной ролью NLB (IP адрес или имя машины) и нажимаем “Подключить”. После успешного подключения узел будет отображаться в окне интерфейсы. Нажмите “Далее”.
  4. В окне “Параметры узла” настройте
    1. Укажите уникальный идентификатор узла. С помощью этого параметра устанавливается приоритет в обработке трафика, узел с наименьшим ID среди членов кластера на данный момент обрабатывает весь сетевой трафик кластера.
    2. В пункте “Выделенные IP-адреса” можно добавить, изменить или удалить адреса по которым сервер доступен в сети.
    3. В пункте “Начальное состояние узла указываем” выбираем состояние по умолчанию для узла.
    1. “Полное Интернет-имя”, соответствующее указанному IP-адресу.
    2. Укажите режим работы кластера, который определяет, будет ли для операций кластера использоваться встроенный MAC-адрес адаптера. Все узлы кластера должны работать в одном режиме — либо в одноадресном, либо в многоадресном. NLB не поддерживает смешанную среду одноадресной и многоадресной рассылки внутри одного кластера.
      • Одноадресный (Unicast) — В этом режиме встроенный MAC-адрес физического сетевого адаптера отключается и заменяется МАС-адресом виртуального адаптера кластера. Оба IP-адреса сервера (выделенный IP-адрес сервера и IP-адрес кластера) разрешаются в один единственный МАС-адрес кластера. При использовании одноадресного режима всем узлам кластера назначается один и тот же IP и MAC-адрес. Поскольку все узлы кластера разделяют один MAC-адрес, а оригинальный MAC-адрес адаптера не используется, использовать адаптер кластера для других целей кроме кластерных (например для управления сервером) становится проблематично. Эту проблему можно обойти, используя несколько сетевых адаптеров: один для кластерного трафика, второй для управления.
      • Многоадресный (Multicast) — В этом режиме NLB преобразует MAC-адрес кластерного адаптера в адрес группы. IP-адрес кластера разрешается в этот адрес групповой рассылки, а выделенный IP-адрес сервера — в оригинальный MAC-адрес адаптера. При этом у адаптера остается оригинальный, встроенный MAC-адрес, что дает возможность использовать оба IP-адреса: кластера для трафика клиент-кластер, а выделенный для остального сетевого трафика, специфичного для компьютера. Обратите внимание, что режим Multicast обязательно должен поддерживаться сетевым оборудованием, кроме того может потребоваться дополнительная настройка на коммутаторе.
      • Многоадресный IGMP (IGMP Multicast) — Многоадресный режим с поддержкой протокола групповой передачи данных (Internet Group Management Protocol, IGMP). Включение поддержки IGMP дает возможность ограничить широковещательный трафик, т.е. обеспечить прохождение трафика к NLB-кластеру только через порты, обслуживающие узлы кластера, а не через все порты коммутатора. Для обеспечения этого режима необходимо включить поддержку IGMP на сетевом оборудовании.



    7. В окне “Правила для портов” выполните:

    Компонент балансировки сетевой нагрузки (Network Load Balancing, NLB) в Windows Server 2012 распределяет сетевой трафик по нескольким серверам с помощью протокола TCP/IP. Группируя два и более сервера в единый виртуальный кластер, NLB повышает доступность и масштабируемость серверных приложений.

    NLB умеет выполнять балансировку нагрузки любых приложений и служб, использующих сетевой протокол TCP/IP и связанных с определенным TCP- или UDP-портом. Использовать балансировку сетевой нагрузки целесообразно для обеспечения работы приложений, выполняемых без учета состояния, например для веб-, FTP- или служб удаленных рабочих столов (Remote Desktop).

    Также NLB может пригодиться и в менее очевидных ситуациях. К примеру, с помощью этого механизма можно обеспечить повышенную избыточность веб-серверов front-end на базе SharePoint 2010, а при использовании Exchange 2010 выравнивание сетевой нагрузки можно применять в целях создания CAS-массивов для роли сервера клиентского доступа (Client Access Server).

    Принцип работы

    Кластер NLB представляет из себя группу серверов, называемых узлами кластера. На каждом узле выполняется собственная копия приложения. Механизм NLB занимается тем, что распределяет входящие запросы между узлами в соответствии с заданными правилами. При этом можно настроить нагрузку для каждого узла, а если нужно обработать дополнительную нагрузку, узлы можно добавлять к кластеру динамически. Кроме того, технология балансировки сетевой нагрузки может направлять весь трафик на один определенный узел, называемый узлом по умолчанию.

    NLB дает возможность обращаться ко всем серверам в кластере по единому IP-адресу, а также поддерживает набор уникальных IP-адресов для каждого узла. При сбое на узле или его отключении нагрузка автоматически перераспределяется между работающими серверами. При внезапном отключении все активные подключения к такому серверу будут потеряны, однако если работа узла завершается намеренно, есть возможность обслужить все активные подключения до отключения компьютера. В любом случае отключенный компьютер, когда он будет готов к работе, может снова присоединиться к кластеру в рабочем режиме и взять на себя часть нагрузки, что позволит снизить объем данных, приходящийся на другие узлы кластера.

    • выявляют узлы, оставшиеся активными членами кластера;
    • назначают узел с наивысшим приоритетом узлом по умолчанию;
    • обеспечивают обработку новых запросов клиентов работающими узлами.

    Схождение обычно длится несколько секунд, поэтому перерыв в работе клиентских служб оказывается незначительным. Во время схождения узлы, оставшиеся активными, продолжают обработку клиентских запросов без изменения в имеющихся подключениях. Схождение завершается, когда все узлы одинаково описывают членство в кластере и схему распределения на протяжении нескольких периодов пульса.

    Установка

    NLB устанавливается как стандартный компонент Windows и не требует для запуска и работы каких-либо изменений в оборудовании. Тем не менее при планировании NLB кластера необходимо учесть некоторый моменты:

    • В кластер может входить до 32 узлов;
    • Все узлы кластера должны располагаться в одной подсети;
    • Количество сетевых адаптеров на каждом узле не ограничено, при этом различные узлы могут иметь разное число адаптеров;
    • Все сетевые адаптеры в одном кластере необходимо использовать либо в одноадресном (Unicast), либо в многоадресном (Multicast) режиме. Балансировка сетевой нагрузки не поддерживает смешанную среду одноадресной и многоадресной рассылки внутри одного кластера;
    • При использовании одноадресного режима сетевой адаптер, задействованный для нужд кластера, должен поддерживать программное изменение MAC-адреса;
    • Сетевой адаптер, на котором включается NLB, может использовать только протокол TCP/IP. Нельзя добавлять для этого адаптера другие протоколы (например IPX);
    • IP-адреса серверов в составе кластера должны назначаться статически. NLB не поддерживает протокол DHCP и отключает его на каждом настраиваемом интерфейсе;
    • NLB не работает совместно со службой Failover Clustering. Если сервер является частью отказоустойчивого кластера, то задействовать на нем балансировку сетевой нагрузки не получится.

    Если все условия соблюдены, то приступаем к развертыванию кластера. Первым делом необходимо установить сам компонент балансировки сетевой нагрузки. Для этого открываем Server Manager и запускаем мастер установки ролей и компонентов. Переходим на вкладку Features и отмечаем компонент Network Load Balancing.

    установка компонента NLB

    Также NLB можно установить с помощью PowerShell, следующей командой:

    Install-WindowsFeature -Name NLB -IncludeManagementTools

    Создание нового NLB кластера

    Установив компонент NLB приступим к созданию кластера, для чего воспользуемся оснасткой Network Load Balancing Manager. Открыть ее можно из Server Manager, кликнув по кнопке Tools и выбрав соответствующий пункт меню. Как вариант, можно нажать Win+R и ввести команду nlbmgr.

    запуск оснастки NLB Manager

    Для создания нового кластера в NLB Manager выбираем пункт Cluster -> New.

    создание нового NLB кластера

    В открывшемся окне указываем имя (или IP-адрес) компьютера, которому предстоит стать первым узлом кластера и жмем «Connect». Выбираем сетевой интерфейс, который будет задействован для нужд кластера.

    выбор сетевого интерфейса

    Примечание. Балансировка сетевой нагрузки может быть привязана к нескольким сетевым адаптерам, что позволяет настроить несколько независимых NLB-кластеров на каждом узле. Поддержка нескольких сетевых адаптеров — это не то же самое, что виртуальные кластеры, в которых можно настраивать несколько кластеров на одном сетевом адаптере.

    Дальше идут настройки узла:

    выбор параметров хоста

    задаем IP адрес кластера

    Задаем имя кластера (Full Internet name) соответствующее указанному IP-адресу. В принципе это имя ни на что не влияет, но правильнее будет вписать сюда FQDN-имя, по которому клиенты будут обращаться к кластеру. Также не забудьте создать в DNS соответствующую запись.

    Указываем режим работы кластера, который определяет, будет ли для операций кластера использоваться встроенный MAC-адрес адаптера:

    При использовании одноадресного режима всем узлам кластера назначается один и тот же IP и MAC-адрес. Поскольку все узлы кластера разделяют один MAC-адрес, а оригинальный MAC-адрес адаптера не используется, использовать адаптер кластера для других целей кроме кластерных (например для управления сервером) становится проблематично. Эту проблему можно обойти, используя несколько сетевых адаптеров: один для кластерного трафика, второй для управления.

    При этом у адаптера остается оригинальный, встроенный MAC-адрес, что дает возможность использовать оба IP-адреса: кластера для трафика клиент-кластер, а выделенный для остального сетевого трафика, специфичного для компьютера. Обратите внимание, что режим Multicast обязательно должен поддерживаться сетевым оборудованием, кроме того может потребоваться дополнительная настройка на коммутаторе.

    задаем режим работы кластера

    Переходим к следующему экрану. Настройку правил портов (Port Rules) сейчас производить не будем, поэтому просто жмем «Finish». Первый этап создания NLB кластера завершен.

    завершаем создание кластера

    Добавление узла в кластер

    Итак, мы имеем NLB кластер, состоящий из одного узла. Добавим остальные. Kликаем на имени кластера правой клавишей и выбираем пункт «Add Host To Cluster».

    добавление нового узла к кластеру

    Процедура добавления практически аналогична предыдущей. Указываем имя сервера, жмем «Connect» и выбираем сетевой интерфейс, который будет использоваться кластером.

    подключение и выбор интерфейса узла кластера

    Задаем host ID и указываем выделенный IP-адрес узла, а также состояние узла по умолчанию.

    настройка параметров нового узла

    И жмем «Finish». Таким же образом добавляем остальные сервера в кластер.

    завершение добавления узла в кластер

    Создать кластер и добавить в него узлы можно и с помощью PowerShell. Команда для создания кластера:

    Для добавления узла в кластер:

    создание кластера с помощью PowerShell

    В результате у нас получился NLB кластер, состоящий из трех узлов.

    готовый NLB кластер

    Настройка параметров кластера

    После добавления всех узлов можно приступать к настройке кластера. Кликаем правой клавишей на имени кластера и переходим на пункт «ClusterProperties».

    настройка параметров кластера

    На вкладке Cluster IP Addresses можно изменить существующий адрес кластера или добавить новый. Балансировки сетевой нагрузки позволяет настроить для одного кластера несколько IP-адресов, для каждого адреса назначить собственное имя и настроить правила обработки трафика. Для этого не требуется выделять отдельный адаптер, так что можно настраивать несколько виртуальных NLB кластеров на одном сетевом адаптере.

    изменение\добавление IP адреса кластера

    На вкладке Cluster Parameters можно настроить соответствие имени и IP-адреса кластера и изменить режим его работы.

    изменение режима работы кластера

    И на вкладке Port Rules настраиваются правила обработки трафика всеми узлами кластера. При создании кластера создается правило по умолчанию, которое надо изменить, поэтому выделяем его и жмем «Edit».

    добавление правил портов

    Правило порта включает в себя следующие настройки:

    Также обратите внимание на чекбокс Timeout minutes. Установка галки включает режим расширенного сходства (Extended Affinity), который обеспечивает привязку в отсутствие активных текущих подключений от клиента к узлу, а также позволяет клиентам сохранять соответствие с узлом при изменении конфигурации кластера. Здесь мы можем указать время, в течение которого клиент будет привязан к определенному узлу при отсутствии активного текущего подключения с его стороны.

    редактирование правила для кластера

    При создании правил порта нужно учесть, что:

    • Правила на всех узлах кластера должны быть идентичны. При попытке присоединить к кластеру узел с иными правилами или с другим числом правил он не будет принят в кластер;
    • Чтобы балансировка сетевой нагрузки корректно обрабатывала IP-фрагменты, не следует использовать значение None для сходства, если выбран протокол UDP или Both;
    • Если NLB используется для балансировки нагрузки трафика VPN (напр. PPTP/GRE или IPSEC/L2TP), то для правил порта используйте режим сходства Single или Network.

    Настройка параметров отдельного узла

    Кроме настройки всего кластера есть возможность настраивать параметры отдельных его узлов. Для этого выбираем узел, кликаем на нем правой клавишей и выбираем «Host Properties».

    настройка параметров хоста

    В окне Host Parameters мы сможем:

    изменение параметров хоста

    Также заглянем в правила портов. Здесь нас интересуют два пункта:

    Обратите внимание, что сумма значений Load Weight для каждого узла параметра не обязательно должна составлять 100 процентов. Реальная часть трафика для каждого узла рассчитывается динамически как частное от деления процента, заданного для узла, на суммарный процент для всего кластера.

    редактирование правила для хоста

    Управление кластером

    И немного об управлении кластером NLB. Управление можно осуществлять как на уровне отдельного узла, так и на уровне всего кластера. Для управления узлом кликаем на нем и выбираем «Control Host». Дальше на выбор, можно:

    Для того, чтобы совсем удалить узел из кластера, надо выбрать пункт «Delete Host».

    управление состоянием отдельного узла кластера

    Выбрав пункт «Control Ports» можно управлять действием правил: включить (Enable), отключить (Disable) или приостановить обработку новых подключений (Drain). Это может потребоваться для того, чтобы временно исключить узел из обработки трафика кластера, например в целях диагностики.

    включение и отключение правил для отдельного хоста

    управление состоянием кластера

    В заключение несколько советов, которые могут пригодиться при настройке NLB кластера.

    1) Не смотря на название, NLB не отслеживает реальную загрузку (потребление процессорного времени, памяти, дисковой подсистемы и т.д.) на каждом узле. Под нагрузкой в NLB подразумевается только количество активных подключений к узлу. Учитывайте этот момент при настройке распределения нагрузки.
    2) NLB не обеспечивает отказоустойчивость клиентских приложений. Механизм NLB отслеживает только наличие сигналов heartbeat между узлами, мониторинг отдельных служб он не осуществляет. Проще говоря, если на одном узле кластера отвалится клиентский сервис, а сетевой интерфейс останется доступен, то NLB этого не заметит и продолжит отправлять клиентов на неработоспособный узел.
    3) Как в режиме Unicast, так и в Multicast (за исключением IGMP) трафик кластера распространяется по всем портам коммутатора. Чтобы изолировать этот широковещательный трафик, все IP адреса кластера желательно вынести в отдельную подсеть.
    4) Вопреки расхожему мнению режим Unicast можно использовать даже при наличии одного сетевого адаптера на узле. При этом узлы вполне нормально могут общаться между собой, так как NLB преобразует ARP-таблицу внутри каждого узла, назначая каждому узлу уникальный MAC-адрес. А вот снаружи подключиться к узлу кластера не получится, для управления узлом к нему необходим физический доступ либо механизм удаленного управления типа iLo от HP.


    После нескольких лет молчания, решил поделиться опытом по развертыванию отказоустойчивого кластера на основе Windows Server 2012.
    Постановка задачи: Развернуть отказоустойчивый кластер для размещения на нем виртуальных машин, с возможностью выделения виртуальных машин в отдельные виртуальные подсети (VLAN), обеспечить высокую надежность, возможность попеременного обслуживания серверов, обеспечить доступность сервисов. Обеспечить спокойный сон отделу ИТ.

    1. Сервер HP ProLiant DL 560 Gen8 4x Xeon 8 core 64 GB RAM 2 шт.
    2. SAS Хранилище HP P2000 на 24 2,5» дисков 1 шт.
    3. Диски для хранилища 300 Gb 24 шт. //С объемом не густо, но к сожалению бюджеты такие бюджеты…
    4. Контроллер для подключения SAS производства HP 2 шт.
    5. Сетевой адаптер на 4 1Gb порта 2 шт. //Можно было взять модуль под 4 SFP, но у нас нет оборудования с поддержкой 10 Gb, гигабитного соединения вполне достаточно.

    Пока качаются обновления на свежеустановленную Windows Server 2012, настроим дисковое хранилище. Мы планируем развернуть сервер баз данных, посему решили 600 Гб использовать под базы данных, остальное под остальные виртуальные машины, такая вот тавтология.

    • Диск raid10 на основе Raid 1+0 из 4 дисков +1 spare
    • Диск raid5 на основе Raid 5 из 16 дисков +1 spare
    • 2 диска — ЗИП
    • raid5_quorum — Так называемый диск-свидетель (witness). Необходим для организации кластера из 2 нод.
    • raid5_store — Здесь мы будем хранить виртуальные машины и их жесткие диски
    • raid10_db — Здесь будет хранится жесткий диск виртуальной машины MS SQL сервера
    1. Подключили 1 сервер к 1 контроллеру хранилища
    2. В хранилище появится 1 подключенный хост — дайте ему имя. Советую называть так: имясервера_номер контроллера (A или B)
    3. И так, пока не подключите оба сервера к обоим контроллерам.
    1. ClusterNetwork — здесь ходит служебная информаци кластера (хэртбит, регулирование записи на хранилище)
    2. LiveMigration — тут думаю все ясно
    3. Management — сеть для управления


    На этом подготовка инфраструктуры закончена. Переходим к настройке серверов и поднятию кластера.

    Заводим сервера в домен. Устанавливаем роль Hyper-V, Failover Cluster.
    В настройках Multipath IO включаем поддержку SAS устройств.
    Обязательно перезагружаем.

    Следующие настройки необходимо выполнить на обоих серверах.

    Переименуйте все 4 сетевых интерфейса в соответствии их физическим портам (у нас это 1,2,3,4).
    Настраиваем NIC Teaming — Добавляем все 4 адаптера в команду, Режим (Teaming-Mode) — Switch Independent, Балансировка нагрузки (Load Balancing) — Hyper-V Port. Даем имя команде, я так и назвал Team.
    Теперь необходимо поднять виртуальный коммутатор.
    Открываем powershell и пишем:

    New-VMSwitch "VSwitch" -MinimumBandwidthMode Weight -NetAdapterName "Team" -AllowManagementOS 0

    Создаем 3 виртуальных сетевых адаптера.
    В том же powershell:
    Add-VMNetworkAdapter –ManagementOS –Name "Management" Add-VMNetworkAdapter –ManagementOS –Name "ClusterNetwork"Add-VMNetworkAdapter –ManagementOS –Name "Live Migration"

    Эти виртуальные коммутаторы появятся в центре управления сетями и общим доступом, именно по ним и будет ходить траффик наших серверов.

    Настройте адресацию в соответствии с вашими планами.

    Переводим наши адапетры в соответствующие VLAN’ы.
    В любимом powershell:

    Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 2 -VMNetworkAdapterName "Management" -Confirm Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 3 -VMNetworkAdapterName "ClusterNetwork" -Confirm Set-VMNetworkAdapterVlan -ManagementOS -Access -VlanId 4 -VMNetworkAdapterName "Live Migration" -Confirm

    Теперь нужно настроить QoS.

    При настройке QoS by weight (по весу), что является best practice, по заявлению Microsoft, советую расставить вес так, чтобы в общей сумме получилось 100, тогда можно считать, что значение указанное в настройке есть гарантированный процент полосы пропускания. В любом случае считается процент по формуле:

    Процент полосы пропускания = установленный вес * 100 / сумма всех установленных значений веса
    Set-VMSwitch “VSwitch” -DefaultFlowMinimumBandwidthWeight 15

    Для служебной информации кластера.

    Set-VMNetworkAdapter -ManagementOS -Name “Cluster” -MinimumBandwidthWeight 30
    Set-VMNetworkAdapter -ManagementOS -Name "Management" -MinimumBandwidthWeight 5
    Set-VMNetworkAdapter -ManagementOS -Name “Live Migration” -MinimumBandwidthWeight 50

    Чтобы трафик ходил по сетям верно, необходимо верно расставить метрики.
    Трафик служебной информации кластера будет ходит по сети с наименьшей метрикой.По следующей по величине метрики сети будет ходить Live Migration.

    Давайте так и сделаем.
    В нашем ненаглядном:

    $n = Get-ClusterNetwork “ClusterNetwork” $n.Metric = 1000 $n = Get-ClusterNetwork “LiveMigration” $n.Metric = 1050$n = Get-ClusterNetwork “Management” $n.Metric = 1100

    Монтируем наш диск-свидетель на ноде, с которой будем собирать кластер, форматируем в ntfs.

    В оснастке Failover Clustering в разделе Networks переименуйте сети в соответствии с нашими адаптерами.

    Все готово к сбору кластера.


    В оснастке Failover Clustering жмем validate. Проходим проверку. После чего создаем кластер (create cluster) и выбираем конфигурацию кворума (quorum configuration) Node and Disk majority, что также считается лучшим выбором для кластеров с четным количеством нод, а учитывая, что у нас их всего две — это единственный выбор.


    В разделе Storage оснастки Failover Clustering, добавьте ваши диски. А затем по очереди добавляйте их как Cluster Shared Volume (правый клик по диску). После добавления в папке C:\ClusterStorage появится символическая ссылка на диск, переименуйте ее в соответствии с названием диска, добавленного как Cluster Shared Volume.


    Теперь можно создавать виртуальные машины и сохранять их на эти разделы. Надеюсь статья была Вам полезна.

    Прошу сообщать об ошибках в ПМ.


    Советую к прочтению: Microsoft Windows Server 2012 Полное руководство. Рэнд Моримото, Майкл Ноэл, Гай Ярдени, Омар Драуби, Эндрю Аббейт, Крис Амарис.

    В данной статье речь пойдет о подготовке и конфигурации отказоустойчивого кластера (Failover Cluster) на базе сервера Netberg Demos R420 M2. Программно-аппаратный комплекс Netberg Demos R420 M2 специально сконструирован для построения решений класса «кластер-в-коробке» (Cluster-in-a-box) на основе Microsoft Windows Server 2012.

    Аналогичную процедуру можно применять и к кластерам с внешними устройствами хранения. Например для дисковых полок Aeon J424 M3 и Aeon J470 M3, используемых совместно со стандартными серверами.

    Настройку разделим на 3 этапа:

    1. Подготовительные работы, которые будут включать подготовку дисковой подсистемы сервера для работы в кластере и настройку сети между узлами.
    2. Установка и настройка компоненты Failover Cluster.
    3. Настройка роли отказоустойчивого файлового сервера в кластере.

    Перед началом настройки на все узлы рекомендуется:

    • установить все доступные обновления операционной системы (обратите особое внимание на то, что на узлах должен быть установлен абсолютно одинаковый набор обновлений);
    • обновить до последней версии драйверы и прошивки устройств, драйверы должны иметь подпись Microsoft;
    • узлы кластера должны быть добавлены в домен Active Directory;
    • иcпользуйте в одном массиве идентичные SAS-диски вплоть до версии прошивки.
    Подготовка к установке кластера

    Подготовка дисковой подсистемы

    Каждый узел сервера имеет доступ к общему дисковому хранилищу, которое позволяет разместить до 12 дисков. Для установки операционной системы используются внутренние посадочные места для 2.5” SATA/SSD дисков.

    Диски в сервере подключены одновреммено к двум узлам системы с использованием дублированной системы ввода/вывода Multipath I/O, таким образом, в диспетчере устройств будет отображаться удвоенное
    количество дисков находящихся в хранилище. В нашем случае, мы установили 12 SAS-дисков, в результате чего в диспетчере устройств отображается 24. Для операционной системы установлен SSD диск.

    Диспетчер устройств без настроенного MPIO

    Для настройки Multipath I/O запустите мастер установки ролей и компонентов и установите компоненту Multipath I/O.

    Добавление компоненты MPIO

    На рабочем столе откройте ярлык MPIO. На вкладке Discover Multi-Paths установите галку Add support for SAS devices и нажмите Add. Перезагрузите сервер.

    Свойства MPIO

    После перезагрузки в диспетчере устройств отображается 12 дисков, принадлежащих дисковому хранилищу.

    Диспетчер устройств с настроенным MPIO

    Данную процедуру необходимо выполнить на двух узлах.

    Инициализация дисков

    Управление дисками в консоли Server Manager

    Подготовка сетевых интерфейсов

    В настройках интерфейса для подключения к локальной сети рекомендуется задать статические IP-адреса. Информация об IP-адресах и именах узлов кластера обязательно должна содержаться в прямой и обратной зоне DNS сервера. Убедитесь в работоспособности прямого и обратного разрешения имен. Для настройки сети между узлами кластера в Netberg Demos R420 M2 используется внутренний сетевой интерфейс Intel® I350 Gigabit Backplane Connection, в настройках которого вы можете выставить свою конфигурацию протокола TCP/IPv4. Неиспользуемые сетевые адаптеры рекомендуется поставить в состояние Disabled.

    Network Connections

    Установка и настройка компоненты Failover Cluster

    После того, как были проделаны все необходимые подготовительные настройки, на узлы кластера установим компоненту Failover Cluster с помощью мастера установки ролей и компонентов.

    Добавление компоненты Failover Cluster

    Проверка конфигурации узлов кластера

    Прежде чем приступить к настройке кластера необходимо выполнить проверку конфигурации узлов кластера. Для этого в Failover Cluster Manager запустим мастер проверки конфигурации (Validate a Configuration Wizard).

    Запуск мастера проверки конфигурации

    Для корректной работы кластера важно успешное прохождение всех тестов.

    На шаге Select Servers or a Cluster укажите имена узлов кластера, которые, как было сказано выше, должны являться членами домена Active Directory.

    Select Servers or a Cluster

    На шаге Testing Options выберем прохождение всех тестов(Run all tests).

    Testing Options

    По завершении работы Validate a Configuration Wizard откроется окно с результатами проверки. Нажав View Report можно ознакомиться с детальной информацией о пройденных тестах.

    Summary

    Установка кластера

    Теперь можно приступить к установке кластера. Для этого в Failover Cluster Manager запустим Create Cluster Wizard.

    На шаге Select Servers укажите имена узлов кластера.

    Select Servers

    На следующем шаге введите имя кластера и его IP- адрес.

    Access Point for Administering the Cluster

    На шаге Confirmation снимем галку Add all eligible storage to the cluster. Диски настроим позже с использованием новой компоненты Storage Spaces, которая стала доступна в Windows 2012.

    Confirmation

    По завершении работы мастера можно ознакомиться с подробным отчетом о результатах.

    Summary

    В результате работы мастера будет создан объект Active Directory с именем CLUSTER1. Объект будет располагаться в том же контейнере, где и узлы кластера, в нашем случае в контейнере Experiment.

    Контейнер Active Directory

    Далее необходимо дать разрешение на создание объектов в контейнере Experiment для компьютера CLUSTER1. Это будет необходимо для успешного добавления роли кластера.

    Свойства контейнера Experiment

    Настройка дисков для кластера

    Приступим к настройке общего дискового ресурса для узлов кластера с использованием компоненты Storage Spaces. Подробно о настройке Storage Spaces.

    Как видно следующем на рисунке, было добавлено 2 виртуальных диска quorum и file-storage.

    Storage Pols в консоли Server Manager

    Диск quorum настроим в качестве диска кворума для кластера, диск file-storage – для хранения данных.

    Добавим вновь созданные диски в кластер. Для этого в Failover Cluster Manager в правой панели правой кнопкой мыши выберите Disks и нажмите Add Disk.

    Добавление диска в кластер

    Для настройки диска кворума в Failover Cluster Manager нажмите правой кнопкой на имени кластера и выберете меню More Actions – Configure Cluster Quorum Settings.

    Установка диска кворума в консоли Failover Cluster Manager

    Рис. 20. Установка диска кворума в консоли Failover Cluster Manager

    Далее запуститься мастер настройки диска кворума.

    На шаге Select Quorum Configuration Option используем рекомендуемые параметры.

    Quorum Configuration Option

    На шаге Confirmation подтверждаем конфигурацию.

    Confirmation

    На последнем шаге можно ознакомиться с детальным отчетом.

    Summary

    Настройка роли отказоустойчивого файлового сервера в кластере

    Добавим роль файлового сервера для кластера. В Failover Cluster Manager нажмите правой кнопкой на имени кластера и выберите пункт Configure Role.

    На шаге Select Role выберем File Server.

    Select Role

    На следующем шаге предлагается выбрать тип файлового сервера. Выберем File Server for general use.

    File Server Type

    На шаге Client Access Point необходимо ввести имя и IP-адрес для доступа клиентов к файловому серверу.

    Client Access Point Type

    Далее выберем диск для данных файлового сервера. В нашем случае доступен Cluster Disk 2.

    Select Storage Point Type

    Confirmation

    На последнем шаге можно ознакомиться с детальным отчетом.

    Summary

    В результате работы мастера будет создан объект Active Directory с именем FILESTORAGE. Объект будет располагаться в том же контейнере, где и узлы кластера, а также созданный ранее объект CLUSTER1. Как было описано выше, объект CLUSTER1 должен иметь права на создание объектов в контейнере, иначе объект FILESTORAGE создан не будет.

    Контейнер Active Directory

    В консоли Failover Cluster Manager можно убедиться, что роль успешно добавлена и функционирует.

    Читайте также: