Лист совместимости vmware vsan

Обновлено: 06.07.2024

При подборе оборудования для организации VMware Virtual SAN следует руководствоваться списком совместимости (HCL). Данный список содержит перечень оборудования, протестированного и поддерживаемого для работы в VSAN. На текущий момент список не слишком обширен, так, например, отсутствуют как класс жесткие диски с интерфейсом SATA (в пользу более дорогих NL-SAS), но, все-таки, есть из чего выбрать.

При выборе модели сервера, типа и количества накопителей, следует помнить, что в одном сервере может быть от 1 до 5-и дисковых групп, каждая из которых может содержать от 1 до 7-и жестких дисков и обязательно 1 SSD накопитель (с интерфейсом SATA, SAS или PCI-E). Согласно рекомендациям VMware, суммарная емкость SSD накопителей должна составлять 10% от полезной дисковой емкости (без учета места, отводимого под копии ВМ). Например, если в кластере VSAN будут размещены ВМ суммарной емкостью 10 ТБ, то необходимый объем SSD накопителей составит 1 ТБ, независимо от того, сколько реплик будут иметь эти ВМ (только одну, две, три или четыре).

В серверы жесткие диски и SSD накопители могут подключаться как через SAS HBA адаптеры, так и через RAID-контроллеры.

Для RAID контроллеров в зависимости от модели может быть доступен один из двух режимов презентации дисков: Pass-Through и RAID 0. Первый режим, который также часто называют JBOD, эквивалентен подключению диска напрямую или через HBA контроллер - гипервизор должен увидеть его без проблем.

В RAID 0 режиме для каждого диска и SSD накопителя требуется создать отдельный логический том средствами RAID контроллера. Недостатком данного режима является то, что контроллер не передает гипервизору информацию SSD дисках, без чего невозможно сделать кластер VSAN.

Исправляется эта проблема также, как и в случае с SSD накопителями для Virtual Flash Read Cache - вручную задать настройки для каждого тома:
esxcli storage nmp satp rule add --satp <SATP_TYPE> --device <DEVICE_ID> --option "enable_ssd enable_local"

Например вот так:
esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba2:C0:T0:L0 --option="enable_ssd"
esxcli storage core claimrule load
esxcli storage core claiming reclaim -d mpx.vmhba2:C0:T0:L0
esxcli storage core claimrule run

После этого SSD накопитель станет доступен для выбора.


Посмотреть DEVICE_ID и SATP плагин можно с помощью команды:
esxli storage nmp device list

Еще одним неочевидным моментом (для тех, кто не читает официальную документацию) является требование по количеству хостов для кластера VSAN. Минимальное количество хостов - 3, позволит обеспечить Fault to Tolerate=1, т.е. хранить две копии одной ВМ на разных хостах и обеспечить ее доступность в случае отказа одного из них. Однако, для Fault to Tolerate=2, способного пережить отказ двух серверов с копиями ВМ, потребуется уже пятиузловой кластер, для FTT=3 - семиузловой. Общая формула: (N*2+1), где N - кол-во хостов, которые могут отказать.

VMware Virtual SAN (или vSAN) — концепция распределенного хранения данных, полностью интегрированная с VMware vSphere на уровне кластера. vSAN — это программная СХД, позволяющаяся абстрагироваться от “железного” хранилища данных и работать с пулами ресурсов, не заботясь о том, где размещены данные виртуальных машин. vSAN собирает из серверов софтварное хранилище, доступное для всех серверов кластера виртуализации, таким образом, позволяя объединить в сервере его вычислительные мощности и функции хранения данных в единый кластер vSphere. Масштабирование Virtual SAN происходит через добавление блока, роль которого выполняет сервер, а управление происходит через единую консоль — vCenter Server.

Концепци я vSAN заключается в том, что на каждом хосте ESXi может быть от 1 до 5 дисковых групп, которые в свою очередь содержат:

  • Гибридная конфигурация: от 1 до 7 магнитных диска и обязательно — минимум один SAS/SATA SSD, или PCIe flash диск. Магнитные диски используются для хранения данных, а SSD, или Flash — в качестве кэша данных.
  • “All-flash” конфигурация (доступна в vSAN 6.0 и выше): все диски группы могут использоваться, как для кэша, так и для хранения данных.

Носитель, отданный для организации vSAN и объединенный в дисковую группу, используется полностью для организации системы хранения, его нельзя совместно использовать для других целей. Дисковые группы объединяются в пул, доступный всему кластеру vSphere, и организуют общее “внешнее” и отказоустойчивое хранилище, для передачи данных которого используется собственный протокол (FC, iSCSI, или NFS для обмена данными не нужны). Данные дисковых групп и блоки “четности” дублируются на одном, или нескольких хостах, в зависимости от выбранных параметров отказоустойчивости vSAN:

  • Number of failures to tolerate — количество допустимых отказов, определяет количество хостов кластера отказ которых сможет пережить ВМ.
  • Failure tolerance method — метод обеспечения отказоустойчивости.

vSAN предоставляет два метода обеспечения отказоустойчивости:

  • RAID1 (Mirroring). По умолчанию Number of failures to tolerate равен одному, то есть данные дублируются на одном хосте: все операции чтения записи моментально синхронизируются на втором хосте (таким образом накладывая серьезные требования на пропускную способность сети, но об этом ниже). В случае отказа одного из хостов все операции чтения/записи будут перенаправлены на “зеркало”. Если Number of failures to tolerate равен двум, то данные реплицируются уже на двух хостах. Данный метод неэффективно использует дисковое пространство, однако обеспечивает максимальную производительность. Минимально необходимое количество хостов — 2–3 (для опеспечения одной отработки на отказ), рекомендуемое — 4 хоста (при отказе одного их хостов дает возможность ребилда).
  • RAID5/6 (Erasure Coding). Поддерживается только “all-flash” конфигурация кластера. Позволяет кластеру отработать 1 (аналог RAID5), или 2 отказа (аналог RAID6). Минимальное количество хостов для отработки 1 отказа равно 4, для отработки 2-х отказов равно 6, рекомендуемые минимумы 5 и 7, соответственно, для возможности ребилда. Данный метод позволяет достичь значительно экономии дискового пространства в ущерб производительности, однако при “all-flash” конфигурации данной производительности может оказаться достаточно.

vSAN позволяет по-разному обеспечивать отказоустойчивость для различных ВМ или их дисков: в рамках одного хранилища можно для критичных к производительности ВМ привязать политику с зеркалированием, а для менее критичных ВМ — настроить Erasure Coding.

vSAN представляет из себя объектное хранилище, данные в котором хранятся в виде объектов, или “гибких контейнеров” (flexible containers), распределенных по всему кластеру. Управление хранением осуществляется с помощью политик Storage Policy Based Management. vSAN допускает изменение политики хранения без остановки ВМ, запуская в фоне процессы перераспределения. При распределении объектов по кластеру vSAN контролирует, чтобы компоненты корректно распределялись по разным узлам, или доменам отказа (fault domain).

Классическая организация vSAN, с использованием хостов ESXi (возможно так же использование vSAN Appliance и Storage Appliance — об этом чуть ниже), не требует дополнительных плагинов к vSphere — для построения vSAN используются хосты ESXi, а управление доступно через vCenter. vSAN не требует нарезки LUN-ов и файловых шар, презентования их хостам и организации внешнего хранилища и выделенной сети хранения.

Для организации Virtual SAN можно использовать:

  • Классическая схема: гипервизор VMware ESXi, установленный на физическом серверном железе, диски которого объединяются в Virtual SAN. Идея заключается в том, что на базе гипервизора VMware ESXi создан OVA-темплейт виртуальной машины, который предназначен для разворачивания компонента vSAN на хосте ESXi. Предоставляет возможности общего хранилища, с помощью которых малые и средние компании могут воспользоваться средствами обеспечения высокой доступности и автоматизации без использования дополнительного сетевого оборудования для хранения данных. Имеет ряд недостатков, таких как, отсутствует возможность масштабирования более 3-х хостов.

Требования:

  • vSAN не использует более 10% ресурсов процессора.
  • Объем памяти хоста определяется количеством и размером дисковых групп: минимально объем оперативной памяти для участия в кластере vSAN составляет 8Гб, тогда как максимальный (5 дисковых групп по 7 дисков) составляет 32Гб.
  • Не смотря на большой список поддерживаемых серверных платформ, все оборудование и контроллеры ввода-вывода должны быть совместимо с VMware Virtual SAN.
  • Отдельное внимание следует уделить дисковому контроллеру: он должен обеспечивать объемный буфер для большой очереди команд, потому как нагрузка на нем будет весьма ощутимая — он будет читать и писать данные не только для этого сервера, но и для всего кластера. В качестве дискового контроллера может использоваться SAS/SATA HBA или RAID-контроллер функционирующий в режиме “проброса” (passthrough). В этом случае диски отдаются системе, как есть, без создания RAID-массивов: RAID1, RAID5 и тд. В крайнем случае, имеет смысл использовать RAID0-массив для увеличения пропускной способности, тогда как “избыточность” других типов массивов не нужна ввиду отказоустойчивости.
  • Для загрузки хостов могут так же использоваться локальные USB, или SD носители, а также SATADOM. Объем таких носителей должен быть не менее 4Гб. При использовании SATADOM необходимо не менее 16 Гб.
  • 10Гб/с сеть, потому как ВМ может работать на одном сервере, а данные храниться — на другом. В случае отказа одного из серверов данным необходимо синхронизироваться за довольно так и короткий промежуток времени. В тестовых условиях для гибридных конфигцраций можно обойтись пропускной способностью 1Гб/с, но для для “all flash” конфигураций требуется сеть от 10Гб/c. 1Гб/c сеть будет поддерживаться для гибрдидных конфигураций поддерживается, как в версии 5.5, так и в 6.0, но для “all-flash” конфигураций 1Гб/c сеть не поддерживается.
  • Для построения кластера потребуется три хоста ESXi 6.0, управляемые с помощью vCenter Server 6.0, сконфигурированные в кластер. ESXi хосты в vSAN-кластере не могут быть членами какого-либо другого кластера.
  • Для кэширования необходимо минимум 1 SAS/SATA SSD, или PCIe flash disk, тогда как для данных виртуальных машин — по крайней мере 1 SAS, NL-SAS или SATA магнитный диск (HDD). Для “All Flash” конфигураций потребуется, как минимум 1 SAS/SATA SSD, или PCIe flash disk на каждый хост.
  • Объем дисков для дисковых групп может быть любым, но лучше всего использовать 1 или 2Гб (в случае выхода из строя одного из дисков большой объем будет дольше синхронизироваться).
  • Объем SSD, или flash-диска по отношению к объему дисковой группы будет напрямую влиять на производительность: чем больше данных в буфере — тем выше производительность. В гибридной конфигурации 30% кэша выделяется на запись и 70% на чтение. Рекомендуемый размер кэша должен быть не менее 10% от реальной ёмкости ВМ до репликации, т.е. учитывается полезное пространство, а не реально занятое (с учетом репликации). В гибридной конфигурации дисковая группа будет утилизировать всю ёмкость SSD-диска, тогда как максимальный его объем не ограничен.
  • Virtual SAN 6.0 так же поддерживает дисковые группы состоящие только из SSD, или “all-flash” конфигурацию, при которой vSAN использует всю ёмкость кэш-носителей на запись, тогда как кэша на чтение не предусмотрено. В all-flash конфигурации дисковая группа не может использовать более 600ГБ ёмкости установленного flash-носителя, поэтому в таких кластерах лучше использовать носители объемом до 800ГБ.
  • При масштабировании добавлении сервера в кластер следует учитывать не только накопители, но и вычислительные мощности. Использовать сервер только для хранения данных не только противоречит концепции vSAN, но и может оказаться экономически невыгодным.
  • Использование vSAN в промышленной среде подразумевает использование лицензии, которая назначается для кластера, лимит которой исчисляется количеством процессоров. Некоторые дополнительные функции (такие как, “all-flash” конфигурация, software checksum, лимитирование IOPS, дедупликация и декомпрессия) могут потребовать назначение отдельной лицензии для vSAN-кластера. За подробной информацией можно обратиться по этой ссылке.

При планировании инфраструктуры vSAN и подборе оборудования можно ознакомиться с примерами конфигураций, изложенными в виде:

Рекомендуется так же ознакомиться с официальной документацией:

Развертывание VMware Virtual SAN Appliance.

В настоящий момент актуальной версией VMware Virtual SAN Witness Appliance является 6.2a. Переходим по этой ссылке и скачиваем OVA-темплейт, подключаемся к Vcenter Server’у через vSphere Client. Можно так же через веб-интерфейс:

или открываем в vSphere Client пункты меню:

и открываем скачанный OVA-темплейт. В открывшемся мастере будет предложен масштаб для деплоймента (до 10, до 500, или более 500 виртуальных машин), для каждого из которых свои требования к ресурсам виртуальной машины (рис. 1).


Рис. 1. Требования для VMware Virtual SAN Appliance в зависимости от выбранного масштаба.

Если вы разворачивали VMware Virtual SAN Appliance на кластере хостов ESXi на момент настройки vSAN режим vSphere HA лучше отключить. Для этого открываем в vSphere Client по правой кнопкой на кластере “Edit Settings -> Cluster Features” и снимаем чек-бокс с “Turn On vSphere HA”, или переходим в веб-консоли vSphere (рис. 2):


Выбираем носитель и формат диска (лучше выбрать “Thin Provision”), используемую сеть (Network Mapping) и задаем пароль. По завершению установки открываем консоль из vSphere Client, логинимся и настраиваем сеть.


Можно создать для Virtual SAN трафика отдельный port group на распределенном свитче (distributed switch) (рис. 3). В принципе, для тестовых условий можно трафик не отделять — достаточно разрешить его на существующей виртуальной Сетевой коммутации (поставить чек-бокс, как показано на рис. 4).

Для того, чтобы настроить сеть vSAN VMkernel на распределенном свитче откройте веб-консоль vSphere и выберите режим просмотра “Networking”, а затем:

  1. Выберите распределенный свитч, который нужно изменить.
  2. Выберите “Manage host networking” и нажмите “Next”.
  3. Кликните на “Attached Hosts”, выберите хосты, которые нужно ассоциировать с распределенным свитчем и нажмите “Next”.
  4. Выберите “Manage VMkernel adapters”, нажмите “Next” и выберите “New adapter”.
  5. На странице выбора выбора устройства выберите существующую группу портов и нажмите “Next”.
  6. На странице “ Port properties” ставим чек-бокс на опции “Virtual SAN traffic” (рис. 4) и переходим к настройке VMkernel-адаптера: указываем Network Label, VLAD ID для разделения vSAN-трафика и IP Settings.

Для того, чтобы настроить сеть vSAN VMkernel на стандартном виртуальном свитче (standart virtual switch) в веб-консоли vSphere выбираем режим “Hosts and Clusters”, а затем:

  1. Выбираем хост, который нужно сконфигурировать для vSAN, открываем вкладку “Manage” и выбираем “Networking”.
  2. Выбираем “VMkernel Adapters”, кликаем на “Add host networking” и кликаем “Next”.
  3. На странице выбора выбираем существующий стандартный свитч (standard switch), или создаем новый и кликаем “Next”. Если вы создаете новый, то убедитесь, что вы приаттачили к нему физический сетевой адаптер.
  4. На странице “Port properties” ставим чек-бокс на опции “Virtual SAN traffic” (рис. 4) и переходим к настройке VMkernel-адаптера (аналогично п. 6 настройки распределенного свитча).


Подробней о настройке VMware SAN 5.5.x-6.5.x можно прочитать здесь (особое внимание стоит уделить ссылкам на vSphere 6.0 / vSphere 5.5 Networking Guide). Завершающим штрихом в настройке Virtual SAN будет назначение дисковых групп.

Дисковая группа — это логический “контейнер” для дисков, используемых vSAN. Каждой дисковой группе нужен минимум один магнитный жесткий диск (HDD), тогда как максимально можно использовать 7. На каждую дисковую группу так же нужен один flash-диск, который является буфером и кэш-слоем для каждой дисковой группы. Очевидно, что любой диск имеет предельную пропускную способность, определенное количество IOPS. Если flash-диск был недоступен, то вся дисковая группа будет недоступна в течении того же промежутка времени. Таким образом, создание дополнительной дисковой группы может служить, как для отказоустойчивости, так и для повышения пропускной способности. Если в цифрах, то наглядный пример иллюстрирован здесь.


Использование хоста ESXi для Virtual SAN.

Присоединение гипервизора ESXi в Virtual SAN кластер аналогично Virtual SAN Appliance. Разница, в основном, в том, что, минуя виртуализацию, можно использовать потенциал “реального железа”. Алгоритм действий для присоединения ESXi в домен Virtual SAN так же идентичен за исключением того, что используемые для vSAN диски на хосте ESXi необходимо размонтировать и удалить, прежде, чем они будут добавлены в кластер vSAN через веб-консоль vCenter Server’а.

“All-flash” конфигурация.

VMware Virtual SAN 6.0 поддерживает так же “all flash” конфигурацию — архитектуру позволяющую использовать устройства, как для кэширования, так и для записи. Для того, чтобы использовать all-flash-архитектуру нужно пометить диски для хранения информации, как flash-устройство.


VMware официально поддерживает конфигурирование хостов и vSAN Appliance по SSH (есть и другие “неофициальные” методы, но он них позже). Включаем доступ по SSH в консоли (рис. 6), логинимся по SSH и для получения списка устройств и установленных флагов вводим:

и для vSAN Appliance получаем вывод:

или, например, для хоста ESXi:

Вывод содержит имя устройства и набор флагов. Для отображения более компактного списка имен дисков (и их объема) можно использовать строку:

где, например, вывод для vSAN Appliance будет выглядеть:

а вывод хоста ESXi:

В первую очередь необходимо проверить флаг “IsSSD”, если накопитель является твердотельным, поскольку при использовании SAS/SATA Host Bus Adapter’ов и RAID-контроллеров, есть вероятность, что хост не распознает носитель, как SSD. Очевидно, что это актуально в первую очередь для хостов ESXi, хотя синтаксис и логика управления дисками аналогична и для vSAN Appliance. Определяем тип дисков командой:

и для каждого диска получим примерно следующий вывод:

Нас интересует то, что в поле “Storage Array Type”. Теперь, чтобы пометить диск, как SSD, нужно создать правило назначения (в терминологии VMware — PSA claim rule). Вводим команду в следующем виде:

необходимо сначала удалить и заново создать правило:

Перезагружаем хост и заново проверяем:

Список устройств и флагов можно так же получить командой с дополнительным ключом “-H”, когда таблица выглядит более читабельно и удобная для парсинга при использовании скриптов:

За дополнительной информацией по конфигурированию SSD можно обратиться к VMware KB201318.

Теперь можно приступить непосредственно к самой all-flash конфигурации. Вообще, все SSD определяются как flash-диски по умолчанию, однако возможны отдельные случаи, когда требуется сменить флаг “IsCapacityFlash” для определенного диска группы:

Здесь аналогично может потребоваться сначала удалить правило, а затем создать его заново (команды “rule remove” и “rule add”).

Использование Virtual SAN All-Flash Configuration Utility.

Подключение по SSH к каждому из хостов ESXi, или vSAN Appliance помогает выявить проблемы с типом накопителей, а так же понять логику работы. Однако управление несколькими хостами удобней осуществлять из VMware Virtual SAN All-Flash Configuration Utility, которую можно скачать по прямой ссылке.


Для работы утилиты требуется:

  • PowerShell 2.0.
  • vSphere PowerCLI 5.5, или выше.
  • Интернет соединение для скачивания plink.exe (вручную создать папку c:\temp).
  • ESX(i)-хосты с одинаковым паролем.

Скачиваем, запускаем, указываем логин/пароль, выбираем хосты, выбираем диски и конфигурируем (рис. 7).

VMware SSD DRS ноды

Коллеги, на этой странице мы собрали частые вопросы по проектам VMware.
Обращайтесь к нам, мы всегда подскажем более правильное решение.
Все наши сотрудники сертифицированные специалисты по VMware.
Подробную информацию по лицензированию VMware vSAN
Вы можете прочить тут VMware vSAN.

VMware vSAN лучшая система хранения данных (СХД Storage) для виртуальных машин.
Управление происходит через vSphere client.
VMware vSAN продолжает оставаться лидером на рынке гиперконвергентной инфраструктуры Hyper-Converged Infrastructure (HCI).
Компания Progress-Media V-GRADE получила компетенцию Hyper-Converged Infrastructure (HCI).

Теперь у нас самые выгодные ценовые условия.

VMware vSAN

Вопрос:

Должны ли дисковые массивы быть равны по объему на каждом из хостов кластера?
Достаточно ли 3 хоста для создания хранилища vSAN?
Требуется ли отдельный накопитель для инсталляции гипервизора?


Ответ:
Нет, не обязательно, но стараются подбирать эквивалентные по размеру массивы.
3 сервера, не очень хороший сценарий и может быть реализован только на гибридном массиве.
Дело в том, что в случае выхода одного сервера из строя, кластер будет находится в не консистентном состоянии и любой следующий отказ, вероятность которого никто не отменял уже приведет к фатальным последствиям.
Настоятельно рекомендую для гибридного массива рассматривать как минимум 4 хоста.
Для All-Flash конфигураций соответственно еще больше.
В настоящее время его обычно располагают на флешке.
Сценарий лицензирования vSAN>>>

vMotion

Вопрос:

Корректно ли будет отрабатывать vMotion в случае с разным железом на хостах (разный BIOS например)?
Требуется ли для vMotion одинаковый размер дисковых массивов на хостах кластера?


Ответ:
vMotion накладывает ограничение только в части физического процессора, да и тот ту возможны режимы совместимости, позволяющие понизить уровень инструкций у современных до уровня поддерживаемых более старыми моделями.
Процессоры разных производителей, естественно, не совместимы.
vMotion не каким образом не затрагивает место на дисковом массиве, это перемещение выполняемой части виртуальной машины, т.е. данных в оперативной памяти.
Сценарий лицензирования vMotion>>>

Вопрос:

Планируется полностью перейти на использование SSD.
Есть ли подводные камни в данном варианте или особые требования?


Ответ:
Требования все те же, полная совместимость с vSAN, как дисков SSD, так и контроллеров для них.
Подробнее о SSD >>>

All-Flash

Вопрос:

Рекомендация по количеству серверов более 4 для конфигурации All-Flash связана исключительно с технологией SSD и конфигурацией RAID хранилища?
Или это как то связано с программным обеспечением VMware?

All-Flash


Ответ:
Это связано с архитектурными особенностями vSAN, например, в случае гибридного массива и минимальной конфигурации из 3 -х серверов, при выходе из строя хотя бы одного узла, кластер уже становится не консистентным и еще один отказ приведет к потере информации хранимой на нем.

Вопрос:

В обоих конфигурациях (Hybrid и All-Flash) мы имеем до 5 дисковых групп на хост, состоящих из 1 диска (обязательно SSD) для кэша и от 1 до 7 дисков (SSD или HDD) для хранения.
Для Hybrid нам необходимо минимум 3 хоста, почему тогда для All-Flash необходимо минимум 4 хоста?
Что принципиально меняется, кроме того что в случае с All-Flash на кэш будет отводится до 100% операций записи в отличие от Hybrid c 70% ?
Требование наличия минимум 4 -х хостов связано с технологиями для All-Flash конфигурации, доступными в vSAN Advanced, такие как Deduplication & Compression и Erasure Coding?
Что если мы будем использовать vSphere Essentials Plus и vSAN Standard и при этом у нас будет 3 хоста, а все диски SSD?


Ответ:
По хорошему, для гибридного массива нужно минимум 4 сервера, а для All-Flash 5 серверов, все дело именно в желании ощутить эффективность от использования данного типа массива, т.е. необходимостью использовать raid 5/6 .
Сравнения редакций >>>

DRS Ноды

Вопрос:

При всех своих плюсах есть один серьезный минус, а именно время поднятия машин при отказе физической ноды.
Я переделал кластер и виртуальный vSAN witness поставил на отдельную физическую машину с бесплатным vSphere hypervisor.
Если оставить на одной ноде только одну виртуалку и нажать ресет-то в vCenter видно, что примерно через 20 сек. он помечает эту ноду как «possible host failure», еще через минуту статус меняется на «Not Responding», но тем не менее проходит в общей сложности минута и 38 секунд, прежде чем виртуальная машина появляется на рабочей ноде.
Те же условия, но я через vCenter отдаю команду shutdown ноде, на которой одна единственная тестовая виртуалка.
Хотя по-идее при такой команде сначала должна была бы мигрировать виртуалка, а уж после этого начинаться процесс выключения сервера.

Скажите, это нормальное поведение High Availability кластера?

HA VMware High Availability

Ответ:
Интервал оценки недоступности хоста по умолчанию в High Availability кластере 15 секунд, это значение можно поменять через расширенные параметры, но есть ли смысл?
В противном случае из-за какого-то кратковременного сбоя запустится отработка отказа.
Миграции не должно быть, она появится при настройке кластера DRS.
Не совсем понял, а что именно-то не устраивает, если нужна отказоустойчивость с более высокими требованиями, то используют FT.
Настройка кластера HA High Availability под ключ

Вопрос:


Ответ:
Подробную информацию по лицензированию Вы можете почитать тут VMware vSAN.

Создать кластер vSAN
In the left pane, right-click SA-Datacenter and select New Cluster. In the New Cluster window, enter vSAN-Cluster in the Name text box. In the New Cluster window, click the DRS and vSAN toggles.

Создать кластер vSAN

Click OK.
The right pane automatically changes to the Cluster Quickstart page for the new cluster.

Использование быстрого запуска кластера для добавления хостов в кластер vSAN

You use the Quickstart wizard to add sa-esxi-01, sa-esxi-02, and sb-esxi-01 to the vSAN cluster.

Under Cluster quickstart, click ADD in the Add hosts panel. The Add hosts page appears. In the Add new and existing hosts window, enter sa-esxi-01.vclass.local as the FQDN for your first host. Enter root and VMware1! in the user name and Password text boxes for sa-esxi-01.vclass.local. Select the Use the same credentials for all hosts check box. Enter sa-esxi-02.vclass.local and sb-esxi-01.vclass.local as the FQDN for the second and third hosts.

Cluster Quickstart

In the security alert screen, select the check boxes for all hosts and click OK. On the Host Summary page, verify that sa-esxi-01.vclass.local, sa-esxi-02.vclass.local, and sbesxi-01.vclass.local are listed and click NEXT. At the bottom of vSphere Client, click Recent Tasks to display the Recent Tasks pane. In the Recent Tasks pane, click the Status column header once to sort the status into ascending order.

Recent Tasks

At the bottom of vSphere Client, click the downward arrows to minimize the Recent Tasks pane. Verify that the selected hosts are moved into the vSAN cluster successfully.

vSAN cluster successfully

Развернутую консультацию по составу и лицензированию продуктов;


Наши цены ниже по целому ряду причин:
V-GRADE - является Официальным Партнером VMware уровня Enterprise;
Работаем без посредников , напрямую с VMware, Veeam.

Наши эксперты:


У нас есть конфигуратор VMware, лучшие цены, актуальные статьи. лучшие эксперты.

В этой статье рассказывается, как проверить оборудование (BIOS / RAID / NIC / HBA) и другую информацию о совместимости с официального веб-сайта VMware, а также заранее подтвердить результаты совместимости программного и аппаратного обеспечения VMware, чтобы избежать откатов ям во время планирования строительства центра обработки данных. Сказать, что это несвязанная идея, вся ИТ-индустрия все быстрее и быстрее переходит от VMware к OpenStack, и VMware будет сталкиваться со все большим и большим количеством конкурентов. Один за другим, такие как Nutanix / OpenStack / Docker, VMware действительно очень зрелая. Это также очень полезно, но после того, как компания продолжит расширяться, она не сможет противостоять ценовому давлению и атакам уменьшения размерности со стороны новых технологий.

История обновлений

22 апреля 2018 г. - Первый вариант

Расширенное чтение

Обзор проверки совместимости VMware

VMware Compatibility Guide

По результатам запроса мы можем сделать такой вывод Самая высокая версия, поддерживаемая HP DL980 Gen7, - это ESXi 6.0 U3, а требование к версии BIOS - P66.

VMware Lifecycle Product Matrix

VMware Product Interoperability Matrices

Возьмите ESXi 6.0 U3 как известное состояние и добавьте компоненты, которые необходимо развернуть, чтобы лучше понять рекомендации по установке для обеспечения совместимости. Например, ниже показано добавление VMware vCenter Server и VMware Horizon. На этой странице мы можем приблизительно подтвердить соответствующую взаимосвязь между установленными версиями компонентов.

VMware ESXi 6.0 U3 VMware vCenter Server 6.5 U1e or 6.0 U3d VMware Horizon 7.4.

Firmware

BIOS / RAID / NIC / HBA и сбор другой информации, пожалуйста, прочтите

Сбор информации о совместимости ESXi

Базовая конфигурация

  1. Завершите установку системы ESXi
  2. Нажмите Настроить систему / Просмотр журналов
  3. Troubleshooting Options
  4. Enable ESXi Shell
  5. Enable SSH

Ярлыки переключения графической и командной строки

IO Devices

Справа вы можете выбрать соответствие информации VID / DID / SVID / Max SSID. Введите информацию о карте HBA DL980 в приведенном выше случае, чтобы получить более точный результат, 1077: 2532 103c: 3263

vm-support

Если вам необходимо оказать экстренную помощь, используйте команду vm-support для сбора, упаковки и доставки инженеру VMware для анализа. Приведенная выше информация о микрокоде оборудования также будет включена.

date

05.02.2020

directory

VMWare

comments

комментариев 17

VMware Virtual SAN (vSAN) это высокопроизводительное решение для хранения данных корпоративного класса для гиперконвергентной инфраструктуры. vSAN позволяет объединять SSD накопители и обычные диски, подключенные к локальным ESXi серверам, в общее высокоустойчивое хранилище данных, к которому могут обращаться все узлы кластера vSphere. Если ранее для обеспечения высокой доступности администраторам VMware нужно было использовать SAN, NAS или DAS, то в случае vSAN потребность в выделенном внешнем общем хранилища исключается, при этом добавляется новый программный уровень, который может использовать локальные диски отдельных локальных серверов для обеспечения такой же отказоустойчивости и набора функций SAN.

Поддержка vSAN встроена в ядро гипервизора, благодаря чему решения по выполнению операций ввода/вывода и перемещению данных принимаются максимально быстро (большинство других решений организации виртуальных сред хранения реализуется в виде отдельного аплайнса, работающего над гипервизором). В этой статье мы расскажем об основных особенностях VMware vSAN и покажем процесс развертывания и настройки vSAN 6.5.

Примечание. Аналогом vSAN у Microsoft является технология Storage Spaces Direct (S2D), появившаяся в Windows Server 2016.

архитектура VMware vSAN 6.5.

Основные возможности VMware vSAN

  • Встроенный функционал защиты и обеспечения высокой доступности данных с отказоустойчивостью, асинхронной репликацией на большие расстояния и растянутыми кластерами между географически разнесенными сайтами.
  • Использование распределенного RAID и зеркалирования кэша для защиты данных от потери отдельного диска, сервера или целой стойки
  • Минимизация задержек хранилищ за счет ускорения операций чтения/записи с дисков за счет встроенного кэша на сервере, хранящиегося на локальных SSD дисках
  • Программная дедупликация и сжатие данных при минимальными затратами ресурсов CPU и памяти
  • Возможность без простоя наращивать емкость и производительность сети хранения за счет добавления новых серверов и дисков
  • Политики хранения виртуальных машин позволяют автоматизировать балансировку и выделение ресурсов хранения и QoS.
  • Полная интеграция со стеком VMware, включая vMotion, DRS, высокую доступность (High Availability), отказоустойчивость (Fault Tolerance), Site Recovery Manager, vRealize Automation и vRealize Operations.
  • Поддержка iSCSI подключений

VMware vSAN: системные требования

  • Требуется VMware vCenter Server 6.5 и хосты с ESXi 6.5
  • Минимум 3 хоста в кластере (максимум 64), однако можно реализовать vSAN и на двух хостах, но потребуется отдельный хост-свидетель
  • Каждый сервера ESXi в кластере vSAN должен иметь как минимум один SSD диск (флешку) для кэша, и как минимум один SSD/HDD для данных
  • Наличие SATA/SAS HBA или RAID-контроллера в режиме pass-through или в режиме RAID 0
  • Минимум 1 ГБ сетевая карта (рекомендуется 10 Гб)
  • Все хосты должны быть подключены к сети vSAN через сеть L2 или L3
  • На физических коммутаторах, которые обрабатывают трафик vSAN должна быть включено многоадресное вещание (мультикаст)
  • Поддерживаются как IPv4 так и IPv6.
  • Информацию о совместимости с конкретным железом нужно смотреть в соответствующем документе на сайте VMware

Лицензирование VMware vSAN

vSAN лицензируется в расчете по CPU, виртуальным машинам или конкурентным пользователю и поставляется в трех редакциях: Standard, Advanced и Enterprise.

  • Enterprise лицензия – требуется для использования QoS и растянутых кластеров
  • Advanced лицензия нужна для поддержки дедубликации, сжатия и RAID 5/6
  • Standard – базовый функционал

Лицензия vSAN можно использовать на любой версии vSphere 6.5.

Есть дополнительные способы сэкономить за счет использовании пакета Virtual SAN для ROBO, или приобретения набора лицензий Standard илиAdvanced в количестве 25 штук для удаленных филиалов. Более подробную информацию о лицензировании vSAN смотрите на сайте VMware.

Настройка сети и портов vSAN

Перед настройкой vSAN нужно убедится, что на каждом хосте кластере настроен порт VMkernel для трафика vSAN. В веб-клиенте vSphere по очереди выберите каждый сервер, на котором вы хотите использовать vSAN. Выберите вкладку Configure-> Networking -> VMKernel Adapters -> нажмите Add Host Networking. Убедитесь, что выбран тип VMkernel Network Adapter и нажмите Далее.

VMkernel Network Adapter

Создайте новый виртуальный коммутатор (New standard switch) и нажмите Next.

New standard switch

С помощью зеленого значка плюса привяжите физические адаптеры к коммутатору. В продуктивных средах желательно обеспечить дополнительное резервирование за счет использования несколько физических NIC.

привязка физических NIC к виртуальному коммутатору

Укажите имя порта VMkernel и, если нужно, его VLAN ID. Обязательно поставьте галку напротив опции Virtual SAN и нажмите Next.

сеть Virtual SAN

Укажите сетевые параметры порта VMkernel.

настройки сети интерфейса VMkernel

Если вы настраиваете сеть vSAN на тестовом стенде с ограниченным количеством физических интерфейсов, выберите сеть управления (Management Network) и в списке поддерживаемых служб поставьте галку у пункта Virtual SAN. При такой конфигурации трафик vSAN будет идти через общую сеть управления, чего в продуктивных развертываниях делать не стоит.

Настройка vSAN

Как мы уже говорили, для настройки vSAN дополнительно доставлять что+то на гипервизор не нужно, весь функционал уже имеется. Вся что требуется от администратора – настроить vSAN через интерфейс веб клиента vSphere (vSAN пока не поддерживает модный HTML5 клиент).

Чтобы включить vSAN найдите нужный кластер в консоли vSphere и перейдите на вкладку Configure. Разверните раздел Virtual SAN и выберите General. В нем должно быть указано, что Virtual SAN не включен. Нажмите на кнопку Configure.

virtual san is turned off

По умолчанию в хранилище vSAN будут добавлены любые подходящие диски. Чтобы вручную выбрать диски, измените параметр назначения дисков на Manual. Здесь же можно включить опцию сжатия данных, отказоустойчивости.

настройка vmware vsan 6.5

На странице валидации сети должны появится подтверждения о том, что каждый хост в кластере подключен к сети vSAN.

валидация кластера vSAN

Проверьте выбранные настройки и нажмите Finish. Дождитесь окончания выполнения задачи, после чего виртуальная сеть SAN объединит все локальные диски серверов выбранного кластера в распределенное хранилище vSAN. Данное хранилище представляет собой один единый VMFS датастор, на который вы сразу же можете поместить виртуальные машины. Настройки vSAN в дальнейшем можно будет изменить в том же разделе (вкладка кластера Configure -> Virtual SAN).

Читайте также: