Vmware добавить port group

Обновлено: 06.07.2024

В данной статье мы рассмотрим пример настройки агрегации для VMware vSAN.

Агрегация каналов позволяет объединять несколько сетевых подключений параллельно для увеличения пропускной способности и обеспечения избыточности. Когда группирование сетевых адаптеров настроено с помощью LACP, происходит распределение нагрузки сети vSAN по нескольким аплинкам. Однако это происходит на сетевом уровне, а не через vSAN.

Ознакомиться с общей информацией об агрегировании каналов можно в одной из моих статей про Агрегирование каналов Cisco

В то время как объединение каналов является очень свободным термином, для целей этой статьи основное внимание будет уделяться протоколу управления объединением каналов или LACP. В то время как IEEE имеет свой собственный стандарт LACP 802.3ad, некоторые производители разработали проприетарные типы LACP. Например, PAgP (протокол агрегации портов) похож на LAG, но является собственностью Cisco. Таким образом, руководство поставщика имеет решающее значение, и следует всегда придерживаться лучших практик поставщиков.

Основным выводом при реализации LACP является то, что он использует отраслевой стандарт и реализован с использованием port-channel. Там может быть много алгоритмов хеширования. Политика группы портов vSwitch и конфигурация канала порта (хэш) должны совпадать и соответствовать.

Добавляем LAG

Переходим в наш распределённый коммутатор и создаём новую группу агрегации. Указываем имя, количество портов агрегации, режим работы, а так же режим балансировки.


Обратите внимание, что если хост и коммутатор находятся в пассивном режиме, LAG не будет инициализирован, так как нет активной части, которая инициировала бы соединение.

Назначаем LAG для PortGroup

Назначаем созданную группу агрегации необходимой порт группе и переводим LAG в режим ожидания (Standby).


При подтверждение изменений появится предупреждающее окно, о том, что использование комбинации активных аплинков и LAG в режиме ожидания поддерживается только для переноса физических адаптеров между LAG и автономными аплинками. Нажимаем ОК.

Проверяем, что LAG добавился.


Настраиваем адаптеры на хостах

Переходим в меню “Добавление и редактирование хостов” нашего распределённого коммутатора, выбираем пункт “Редактирование хостов”, добавляем хосты, которые подключены к данному distributed switch.

Назначаем LAG-порты к соответствующим vmnic. По аналогии назначаем порты для других хостов.


Создаём PortChannel на Cisco

Тема конфигурации PortChannel затронута в одной из моих статей по настройке объединения портов (bonding) Cisco IOS и CentOS LACP

Рассмотрим пример нашего тестового стенда:

Проверьте какой алгоритм балансировки используется на физическом коммутаторе.

Проверяем состояние PortChannel.

Переводим LAG в активный режим

Возвращаемся к настройкам нашего распределённого коммутатора, переходим в настройки порт группы и переводим LAG в режим Active, а автономные аплинки - в раздел неиспользуемых.


Обратите внимание, что когда LAG выбран, как основной аплинк, режим балансировки порт группы наследуется от режима балансировки, указанного в LAG, о чём нас дополнительно информируют.


Ещё раз проверяем топологию сети.


Особое внимание хочу уделить тому факту, что данная настройка не увеличивает пропускную способность, а выполняет роль отказоустойчивости и балансировки нагрузки.

Настройка сети VMware ESXi

Те администраторы, которые в первый раз настраивают сеть в VMware ESXi, могут столкнуться с некоторыми трудностями. Происходит это из-за того, что помимо сети физической, которая начинается от сетевых карт сервера (хоста ESXi) и уходит куда-то в физические свитчи, маршрутизаторы, интернет, есть сеть виртуальная.

Если ничего не настраивать, и установить ESXi на сервер, создать виртуальную машину, то ее сетевой интерфейс будет по умолчанию подключен к первой физической сетевой карте хоста. И все будет работать. Пока не придет пора настраивать подключение к iSCSI системе хранения данных или задействовать технологии высокой доступности: High Availability, Fault tolerance, vMotion.

На схеме показан физический Сервер ESXi с двумя сетевыми интерфейсами vmnic0 и vmnic1.



order

Виртуальный свитч vSwich

Для простоты понимания, виртуальный свитч стоит представлять как физический, со всеми его свойствами и возможностями настройки. vSwitch0 создается по умолчанию в единственном числе, а в процессе настройки администратор может создавать дополнительные виртуальные свитчи, строить внутреннюю сеть хоста ESXi по своему усмотрению. С помощью виртуальных свитчей на ESXi сервере можно смоделировать любую сетевую схему, которую бы вы смогли сделать в реальной инфраструктуре.

Порт управления vmk0

После первоначальной установки гипервизора ESXi, мы видим на экране, что для управления нужно подключиться к IP адресу XXX. Этот IP адрес автоматически (если в сети работает DHCP) присвоен порту vmk0, который подключен к виртуальному свитчу vSwitch0, к нему же подключена физическая сетевая карта vmnic0.

Теперь администратор для управления хостом ESXi запускает vSphere Client у себя на рабочей станции, вводит IP XXX и по цепочке Локальная сеть -> Switch -> vmnic0 -> vSwitch0 -> vmk0 подключается к интерфейсу управления.

Группа портов для виртуальных машин

Virtual machine port group создается автоматически при установке гипервизора ESXi на сервер. Сюда присоединяются сетевые интерфейс(ы) виртуальных машин.

  • Сетевая карта виртуальной машины должна принадлежать какой-нибудь порт группе.
  • Порт группа должна быть присоединена к какому-нибудь виртуальному свитчу
  • Виртуальный свитч может быть присоединен к физическим(ой) сетевым картам или может не иметь выхода в общую сеть

При желании, администратор может создавать дополнительные группы портов для виртуальных машин и присоединять их к любым vSwitch.

Сетевые карты одной ВМ могут быть в разных группах портов, таким образом, можно настраивать полноценные маршрутизаторы или DMZ.

Подключение СХД

Имеет смысл разделять сеть виртуальных машин и сеть передачи данных СХД<->хост ESXi. На схеме для этого используется дополнительный VMkernel порт и vSwitch1, подключенные к vmnic1. При такой архитектуре два потока данных не пересекутся и не будут мешать друг другу. Также повышается безопасность, злоумышленник, имея доступ к локальной сети компании, ни при каких обстоятельствах не сможет попасть в сеть передачи и хранения данных. Под системами хранения данных здесь понимаются iSCSI и NFS хранилища. FC СХД изначально имеет свою сеть передачи данных, оптическую.

Трафик vMotion, FT, management

Отдельную сеть точно также как и для СХД полезно выделять еще для 3-х типов трафика.

Для этого выбираем наш хост, жмем на вкладку Configure, и в разделе Networking выбираем Virtual Switches.

Поскольку у нас на хосте имеется два сетевых адаптера(как установить драйвер на неподдерживаемую сетевую карту мы рассматривали в статье), давайте добавим нашу сетевую карту в виртуальный свич и настроим так называемый тиминг(объединение сетевых интерфейсов).

Виртуальных коммутаторов на хосте может быть несколько. Если вы хотите, чтобы ваши виртуальные машины находились в изолированной сети, можно создать виртуальный коммутатор, не используя сетевые адаптеры.

Ну а мы рассмотрим настройку обычного виртуального свича.

VMware настройка сети. Настройка виртуального коммутатора.

Выбираем наш единственный виртуальный коммутатор и нажимаем на значок сетевой карты

В открывшемся окне видим, что у нас сейчас активен один сетевой адаптер vmnic0. Жмем на зеленый плюс, чтобы добавить второй

Видим нашу вторую сетевуху, выбираем ее и группу адаптеров, в которую нужно ее добавить(в нашем случае Active adapters).

Active adapters — сетевая карта будет использоваться

Standby adapters — сетевая карта будет задействована в случае выхода из строя основной

Unused adapters — сетевая карта не будет использоваться.

На следующем экране видим, что наши адаптеры находятся в группе активных(можно поменять группу адаптера с помощью синих стрелок, а также удалить адаптер или добавить еще).

Еще: VMware ошибка при обновлении VmTools vix error code = 21007

Жмем ОК и видим, что теперь в нашем свиче два сетевых адаптера(у меня подключен только один, поэтому VMware «сигналит», что отказоустойчивость потеряна.

В виртуальных свичах VMware есть сеть для виртуальных машин VM Network(сюда подключаются виртуальные машины) и VMkernel, предназначенный для служебного трафика(Management, VMotion, iscsi и т.п.).

Давайте настроим наш управляющий интерфейс, который используется для управления хостом.

Выделяем окно с заголовком Management Network и нажимаем на карандаш для редактирования.

В настройках Management Network вы можете изменить название сети, VLAN(если используется), настройки безопасности, traffic shaping(в стандартном свиче ограничивается только исходящий трафик) и режим файловера и балансировки нагрузки.

Интерфейсы VMkernel.

Думаю, нужно еще рассмотреть настройки интерфейса VMkernel, используемого для служебных нужд.

Интерфейсов VMkernel может(и должно) быть несколько, чтобы разделить трафик управления от, например, трафика iscsi. Желательно, чтобы это были физически разделенные сети, ну или, хотя бы, на уровне VLANs.

Давайте настроим несколько таких интерфейсов.

Выбираем в секции Networking вкладку VMkernel adapters, выделяем пока единственный vmk0 и жмем карандаш для редактирования

В открывшемся окне на первой вкладке выбираем тип трафика, который разрешен на этом интерфейсе(давайте разрешим здесь еще VMotion — трафик миграции ВМ).

На других вкладках этого мастера можно изменить такие настройки как MTU, настройки IPv4 и IPv6.

После нажатия ОК настройки будут сохранены.

Теперь давайте создадим еще один VMkernel для трафика, например Fault Tolerance. Настройка сети для трафика хранилищ iscsi описана в статье Как подключить iscsi-lun к хосту esxi.

Итак, жмем на глобус с плюсом, чтобы добавить новый адаптер VMkernel

Выбираем тип VMkernel Network Adapter

Выбираем, использовать имеющийся или создать новый виртуальный коммутатор(мы выберем наш единственный). Жмем Next.

На следующем экране задаем имя нашего адаптера, выбираем какой версии протокол IP будет использоваться и какой трафик

Указываем сетевые настройки(статика или DHCP)

На завершающем экране мастера проверяем настройки и жмем Finish.

Видим, что теперь у нас появился второй VMkernel адаптер, который будет использован для передачи трафика Fault Tolerance logging.

Сети виртуальных машин.

Сеть виртуальных машин создается аналогично, только в мастере нужно выбрать Virtual Machine Port Group

Выбрать или создать VSwitch

указать название сети и VLAN

и завершить создание

После этого в нашем виртуальном коммутаторе появится еще одна сеть виртуальных машин и в настройках виртуальных машин станет доступно подключение к этой сети.

Дополнительный виртуальный коммутатор можно создать при создании VMkernel или VM Network. Как я уже говорил, наличие физического сетевого адаптера требуется только, если ВМ должны иметь доступ к внешним ресурсам(находящимся не на данном хосте ESXi).

Ну вот вкратце и всё по настройке сети VMware. Если что-то осталось не рассмотренным или непонятным, пишите в комментариях, — будем дополнять.

date

27.04.2021

directory

VMWare, Виртуализация

comments

Комментариев пока нет

В VMware vSphere вы можете использовать iSCSI диски в качестве общего дискового хранилища для ваших ESXi хостов. ESXi хост получает доступ к таким дискам по вашей локальной сети с помощью протокола TCP. В этой статье мы рассмотрим, как подключить iSCSI LUN с вашей СХД (или сервера) к хосту VMWare ESXi и создать на нам общее VMFS хранилище.

Предполагаем, что вы создали, настроили и опубликовали iSCSI таргет (диск) на вашей СХД (в Windows Server вы можете в качестве iSCSI таргет использовать виртуальный vhdx диск).

На СХД убедитесь, что вы разрешили подключение к вашему iSCSI таргету вашим ESXi хостам (iSCSI инициаторы). Доступ можно получить по IQN (как получить IQN iSCSI адаптера в ESXi показано ниже, по DNS имени, IP или MAC адресу.

В данном примере мы используем отдельно стоящий хост с ESXi 6.7 (можно использовать и бесплатный ESXi Hypervisor). Это может быть физический хост или виртуальная машина (например, вот пример использования ESXi с помощью nested virtualization в Hyper-V). На хосте есть два сетевых интерфейса (один будет использоваться для управления, второй для трафика к iSCSI LUN).

Настройка сети для iSCSI трафика в VMWare ESXi

Сначала нужно создать отдельный VMkernel сетевой интерфейс, который будет испоьзоваться ESXi хостом для доступа к iSCSI хранилищу. Перейдите в раздел Networking -> VMkernel NICs -> Add VMkernel NIC.

добавить vmkernel порт в esxi

Кроме vmk порта нужно сразу создать новая группа портов (New port group). Укажите имя для этой группы – iSCSI и назначьте статический IP адрес для вашего интерфейса vmkernel.

vmk порт для iscsi трафика в esxi

Теперь перейдите в настройки вашего стандартного коммутатора vSwitch0 (Networking -> Virtual Switches). Проверьте, что второй физический интерфейс сервера vmnic1 добавлен в конфигурацию и активен (если нет, нажмите кнопку Add uplink и добавьте его).

добавить uplink в vmware esxi

Проверьте в секции Nic Teaming что оба физических сетевых интерфейса находятся в статусе Active.

активные uplink сетевые адаптеры

отключить management аплинк для iscsi port groups

В результате ваш ESXi хост будет использовать для доступа к вашему iSCSI LUN только один интерфейс сервера.

Настройка программного iSCSI адаптера в VMWare ESXi

По умолчанию в ESXi отключен программный адаптер iSCSI. Чтобы включить его, перейдите в раздел Storage -> Adapters. Нажмите на кнопку Software iSCSi.

включить software iscsi в vmware esxi

Измените iSCSI enable на Enabled.

Обратите внимание, что здесь также указан IQN вашего iSCSI адаптера(инициатора), который можно использовать при настройке доступа к iSCSI LUN на СХД).

Затем в секции Dynamic targets добавьте IP адрес вашего iSCSI хранилища и порт подключения (по-умолчанию для iSCSI трафика используется порт TCP 3260). ESXi просканирует все iSCSI таргеты на этом хосте и выведет их в списке Static Targets.

список доступных iscsi таргетов с esxi хоста

Здесь же можно настроить CHAP аутентификацию, но в тестовой среде это не обязательно.

Сохраните настройки. Обратите внимание, что на вкладке Storage -> Adapters появился новый HBA vmhba65 типа iSCSI Software Adapter.

vmhba65 типа iSCSI Software Adapter

Если ESXi хост подключен к vCenter, чтобы добавить iSCSI LUN, перейдите в раздел Configure -> Storage –> Storage Adapters. Выберите Software iSCSI adapter и укажите на вкладке Dynamic Discovery имя или IP адрес вашего iSCSI хранилища. Выполните Rescan. Список доступных iSCSI таргет должен появится на вкладке Static Discovery.

добавление iscsi хранилиза в esxi

Если вы не видите список iSCSI таргетов на СХД, можно продиагностировать доступность iSCSI диска через консоль ESXi.

Включите на ESXi хосте SSH и подключитесь к нему с помощью любого SSH клиента (я использую встроенный SSH клиент Windows 10)

С помощью следующей команды можно выполнить проверку доступности вашего iSCSI хранилища (192.168.13.10) с указанного vmkernel порта (vmk1) :

vmkping проверка доступности СХД

В этом примере iSCSI хранилище отвечает на ping.

Теперь нужно проверить, что на хранилище доступен iSCSI порт TCP 3260 (в этом примере 192.168.13.60 это IP адреса интерфейса vmk1):

esxi shell проверка доступности iscsi порта 3260

Проверьте, что на хосте включен программный iSCSI:

Если нужно, включите его:

Также можно получить текущие параметры программного HBA адаптера iSCSI:

esxcli iscsi adapter get

Создаем VMFS хранилище на iSCSI LUN в VMWare ESXi

Теперь на доступном iSCSI диске можно создать VMFS (Virtual Machine File System) хранилище для размещения файлов виртуальных машин.

Перейдите в раздел Storage -> Datastores -> New datastore.

создать новое хранилище на iscsi LUN

Задайте имя VMFS хранилища и выберите iSCSI LUN, на котором его создать.

создать vmfs датастору на iscsi диске

Выберите тип файловой системы VMFS 6 и укажите, что для хранилища нужно использовать весь объем iSCSI диска. Через несколько секунд новое VMFS хранилище станет доступно из ESXi.

новое vmfs хранилище для размещеия файлов виртуальных машин esxi

Если на данном LUN уже создано VMFS хранилище, оно сразу появится в списке доступных Storage Devices хоста.

msft iscsi disk в vmware esxi

Итак, вы подключили iSCSI диск к вашему ESXi хосту и создали на нем VMFS хранилище. Это хранилище могут одновременно использовать несколько ESXi серверов. Теперь у вас есть общее хранилище, и если вы настроите VMware vCenter server, вы сможете использовать vMotion для перемещения запущенных ВМ между хостами.

VMware

Идея распределённого коммутатора заключается в следующем - создать один коммутатор, который будет обслуживать сразу несколько гипервизоров. Вы получаете один единственный логический коммутатор, существующий сразу на всех серверах ESX(i). Распределённый - потому что он рулится из одной точки - vCenter, а распределяется на все хосты. Если vCenter выйдет из строя, то коммутатор продолжит работу. Мы просто потеряем возможность настраивать коммутатор.

Распределённый коммутатор имеет несколько больший функционал в отличие от обычного. Ключевые моменты:

  • Private VLAN.
  • Bi-directional Traffic Shaping.
  • Network VMotion.

Ссылки

Создаём Distributed Switch

Будем считать, что вы уже знаете зачем собираетесь устанавливать Distributed Switch. Ставим.

Заходим в vCenter, переходим в раздел Networking. Нажимаем правой кнопкой на выбранный кластер,выбираем Distributed Switch > New Distributed Switch.

vmware

Открывается мастер создания распределённого коммутатора. Мы на вкладке Name and location.

vmware

Указываем название, NEXT. Мы на вкладке Select version.

vmware

Выбираем версию коммутатора. Коммутатор 6.0 не поддерживает хосты версии 6.5. Так что я выбираю последнюю версию. NEXT. Мы на вкладке Configure settings.

vmware

Выбираем количество аплинков. Можно включить Network I/O Control. Можно выбрать галку для создания дефолтной port group и указать её название. Я буду использовать эту группу для управления гипервизорами и vCenter, называю HV. NEXT. Мы на вкладке Ready to complete.

vmware

Проверяем настройки и нажимаем FINISH. Distributed Switch создан. Давайте его настроим. Нажимаем правой кнопкой на коммутатор - Settings > Edit Settings. Переключаемся в раздел Advanced. Находим блок Discovery protocol. Type - ставим в Cisco Discovery Protocol. Operations - Both.

vmware

Настройка LACP

Выбираем Distributed Switch в UI. Открываем Configure > Settings > LACP.

vmware

Нажимаем кнопку +NEW. Открывается мастер создания группы LAG.

vmware

Указываем название, я оставляю по умолчанию - lag1.

В поле Number of ports указываем количество линков. В моей практики встречалось 4 гигабитных линка, 2 десятигигабитных. Всё зависит от вашей конфигурации.

Mode - Passive. Здесь могут быть варианты в разных сетях.

Load balancing mode - я ставлю Source and destination IP address. Если вы используете Cisco, то это оправдано, иначе MAC адрес сетевухи может скакать с одного интерфейса на другой.

vmware

Настройка Default Port Group

Выбираем созданную вместе с коммутатором port group, мы назвали её HV. Нажимаем правой кнопкой - Edit Settings.

vmware

Открывается мастер настройки. Мы в разделе General. Port binding ставим в Static binding. Port allocation - Elastic.

vmware

Переключаемся на раздел VLAN. Эту группу портов мы будем использовать для управления хостами, поэтому настраиваем такой же VLAN, в котором живут ESXi и vCenter.

vmware

Переключаемся на раздел Teaming and failover.

vmware

По умолчанию у Port Group LACP не используется, включим. Перетаскиваем lag1 вверх, а аплинки вниз.

vmware

OK. Сохраняем. Каждый раз потом при создании новой группы портов нужно настраивать LACP для этой группы. Можно это делать прямо в процессе создания.

Добавление хоста в Distributed Switch

Нажимаем правой кнопкой на Distributed Switch - Add and Manage Hosts.

vmware

Открывается мастер. Мы попадаем в раздел Select task.

vmware

Выбираем Add hosts. NEXT. Мы попадаем в раздел Select hosts.

vmware

Нажимаем кнопку + New hosts. Открывается окно со списком доступных хостов. У меня пока один - hv00.

vmware

Выделяем хост галкой, OK.

vmware

NEXT. Мы попадаем в раздел Manage physical adapters.

vmware

vmnic1 цепляем кнопкой Assign upling к lag1-1.

vmware

Наша задача добиться того, чтобы хост одной ногой был в старом коммутаторе, а второй - в новом. NEXT. Мы попадаем в раздел Manage VMkernel adapter.

vmware

Пока ничего не меняем, пусть vmk0 будет на старом локальном коммутаторе. NEXT. Мы попадаем в раздел Migrate VM networking.

vmware

NEXT. Мы попадаем в раздел Ready to complete.

vmware

FINISH. Ждём когда хост добавится.

Снова нажимаем правой кнопкой на Distributed Switch - Add and Manage Hosts.

vmware

Открывается мастер. Мы попадаем в раздел Select task.

vmware

Теперь выбираем пункт Manage host networking. NEXT. Доходим до раздела Manage VMkernel adapter.

vmware

Выбираем vmk0, нажимаем Assign port group.

vmware

Выбираем наш Port Group с названием HV, который находится в управляющем VLAN. OK.

vmware

NEXT. Мы попадаем в раздел Migrate VM networking.

vmware

NEXT. Мы попадаем в раздел Ready to complete.

vmware

FINISH. Управление хостом должно перейти на Distributed Switch.

Снова редактируем сеть хоста.

vmware

vmnik0 привязываем к lag1-0.

vmware

vmware

NEXT. NEXT. NEXT. FINISH.

Теперь можно зайти в хост - Configure > Networking > Virtual switches и удалить локальный vSwitch0.

Потом заходим в хост - Configure > Networking > VMkernel adapters, выбираем vmk0, редактируем, разрешаем галкой vMotion.

vmware

Резюме

Итак, мы создали Distributed Switch, перенесли в него хосты, настроили LACP, разрешили vMotion.

Читайте также: