Установка сетевой карты esxi

Обновлено: 07.07.2024

Для этого выбираем наш хост, жмем на вкладку Configure, и в разделе Networking выбираем Virtual Switches.

Поскольку у нас на хосте имеется два сетевых адаптера(как установить драйвер на неподдерживаемую сетевую карту мы рассматривали в статье), давайте добавим нашу сетевую карту в виртуальный свич и настроим так называемый тиминг(объединение сетевых интерфейсов).

Виртуальных коммутаторов на хосте может быть несколько. Если вы хотите, чтобы ваши виртуальные машины находились в изолированной сети, можно создать виртуальный коммутатор, не используя сетевые адаптеры.

Ну а мы рассмотрим настройку обычного виртуального свича.

VMware настройка сети. Настройка виртуального коммутатора.

Выбираем наш единственный виртуальный коммутатор и нажимаем на значок сетевой карты

В открывшемся окне видим, что у нас сейчас активен один сетевой адаптер vmnic0. Жмем на зеленый плюс, чтобы добавить второй

Видим нашу вторую сетевуху, выбираем ее и группу адаптеров, в которую нужно ее добавить(в нашем случае Active adapters).

Active adapters — сетевая карта будет использоваться

Standby adapters — сетевая карта будет задействована в случае выхода из строя основной

Unused adapters — сетевая карта не будет использоваться.

На следующем экране видим, что наши адаптеры находятся в группе активных(можно поменять группу адаптера с помощью синих стрелок, а также удалить адаптер или добавить еще).

Еще: VMware Vcenter Standalone Converter. Network error. Host key can't be retrieved.

Жмем ОК и видим, что теперь в нашем свиче два сетевых адаптера(у меня подключен только один, поэтому VMware «сигналит», что отказоустойчивость потеряна.

В виртуальных свичах VMware есть сеть для виртуальных машин VM Network(сюда подключаются виртуальные машины) и VMkernel, предназначенный для служебного трафика(Management, VMotion, iscsi и т.п.).

Давайте настроим наш управляющий интерфейс, который используется для управления хостом.

Выделяем окно с заголовком Management Network и нажимаем на карандаш для редактирования.

В настройках Management Network вы можете изменить название сети, VLAN(если используется), настройки безопасности, traffic shaping(в стандартном свиче ограничивается только исходящий трафик) и режим файловера и балансировки нагрузки.

Интерфейсы VMkernel.

Думаю, нужно еще рассмотреть настройки интерфейса VMkernel, используемого для служебных нужд.

Интерфейсов VMkernel может(и должно) быть несколько, чтобы разделить трафик управления от, например, трафика iscsi. Желательно, чтобы это были физически разделенные сети, ну или, хотя бы, на уровне VLANs.

Давайте настроим несколько таких интерфейсов.

Выбираем в секции Networking вкладку VMkernel adapters, выделяем пока единственный vmk0 и жмем карандаш для редактирования

В открывшемся окне на первой вкладке выбираем тип трафика, который разрешен на этом интерфейсе(давайте разрешим здесь еще VMotion — трафик миграции ВМ).

На других вкладках этого мастера можно изменить такие настройки как MTU, настройки IPv4 и IPv6.

После нажатия ОК настройки будут сохранены.

Теперь давайте создадим еще один VMkernel для трафика, например Fault Tolerance. Настройка сети для трафика хранилищ iscsi описана в статье Как подключить iscsi-lun к хосту esxi.

Итак, жмем на глобус с плюсом, чтобы добавить новый адаптер VMkernel

Выбираем тип VMkernel Network Adapter

Выбираем, использовать имеющийся или создать новый виртуальный коммутатор(мы выберем наш единственный). Жмем Next.

На следующем экране задаем имя нашего адаптера, выбираем какой версии протокол IP будет использоваться и какой трафик

Указываем сетевые настройки(статика или DHCP)

На завершающем экране мастера проверяем настройки и жмем Finish.

Видим, что теперь у нас появился второй VMkernel адаптер, который будет использован для передачи трафика Fault Tolerance logging.

Сети виртуальных машин.

Сеть виртуальных машин создается аналогично, только в мастере нужно выбрать Virtual Machine Port Group

Выбрать или создать VSwitch

указать название сети и VLAN

и завершить создание

После этого в нашем виртуальном коммутаторе появится еще одна сеть виртуальных машин и в настройках виртуальных машин станет доступно подключение к этой сети.

Дополнительный виртуальный коммутатор можно создать при создании VMkernel или VM Network. Как я уже говорил, наличие физического сетевого адаптера требуется только, если ВМ должны иметь доступ к внешним ресурсам(находящимся не на данном хосте ESXi).

Ну вот вкратце и всё по настройке сети VMware. Если что-то осталось не рассмотренным или непонятным, пишите в комментариях, — будем дополнять.

Потребовалось по работе установить гипервизор VMware ESXi 6.7 на не серверную машину.

Записав образ на флэшку и начав установку, я увидел вот такую ошибку:


Странно, но в системном блоке целых 2 сетевые карты. Что ж, осталось погуглить.

Как оказалось, в установочном образе ограниченное количество драйверов, да и те для серверного железа. Что бы понять какие драйвера мне нужны, я загрузился с внешнего диска (Ubuntu 18.04) и выполнил команду:

результатом стал вывод оборудования:

00 : 00.0 Host bridge : Intel Corporation Xeon E3 - 1200 v2 / 3rd Gen Core processor DRAM Controller ( rev 09 ) 00 : 01.0 PCI bridge : Intel Corporation Xeon E3 - 1200 v2 / 3rd Gen Core processor PCI Express Root Port ( rev 09 ) 00 : 02.0 VGA compatible controller : Intel Corporation Xeon E3 - 1200 v2 / 3rd Gen Core processor Graphics Controller ( rev 09 ) 00 : 14.0 USB controller : Intel Corporation 7 Series / C210 Series Chipset Family USB xHCI Host Controller ( rev 04 ) 00 : 1b.0 Audio device : Intel Corporation 7 Series / C216 Chipset Family High Definition Audio Controller ( rev 04 ) 00 : 1c.0 PCI bridge : Intel Corporation 7 Series / C216 Chipset Family PCI Express Root Port 1 ( rev c4 ) 00 : 1c.4 PCI bridge : Intel Corporation 7 Series / C210 Series Chipset Family PCI Express Root Port 5 ( rev c4 ) 00 : 1c.5 PCI bridge : Intel Corporation 82801 PCI Bridge ( rev c4 ) 00 : 1f.0 ISA bridge : Intel Corporation H77 Express Chipset LPC Controller ( rev 04 ) 00 : 1f.2 SATA controller : Intel Corporation 7 Series / C210 Series Chipset Family 6 - port SATA Controller [ AHCI mode ] ( rev 04 ) 00 : 1f.3 SMBus : Intel Corporation 7 Series / C216 Chipset Family SMBus Controller ( rev 04 ) 03 : 00.0 Ethernet controller : Realtek Semiconductor Co . , Ltd . RTL8111 / 8168 / 8411 PCI Express Gigabit Ethernet Controller ( rev 09 ) 04 : 00.0 PCI bridge : ASMedia Technology Inc . ASM1083 / 1085 PCIe to PCI Bridge ( rev 03 ) 05 : 02.0 Ethernet controller : VIA Technologies , Inc . VT6105 / VT6106S [ Rhine - III ] ( rev 8b )

Можно, конечно, применить фильтр grep для отображения только сетевых карт, но это как кому надо.

ШАГ 2. Драйвера для сетевой карты.

    : Updated driver for Realtek 8168/8111/8411/8118 based NICs

Переходим и в Direct Download links качаем всё что надо.

ШАГ 3. Добавление драйверов в образ.

Здесь всё просто. Запускаем скачанный из шага 1 ESXi-Customizer-v2.7.2.exe, переходим в созданный им каталог ESXi-Customizer-v2.7.2\ и там запускаем ESXi-Customizer.cmd.

В открывшемся окне программы выбираем:


Все опции предельно ясны, но поясню на всякий случай:

Как только всё это будет указано, смело жмём Run!

После успешного завершения появится вот такое окно


а в папке появится новый образ диска.

! Если требуется добавить несколько драйверов, то шаг 3 надо повторить для каждого отдельно !

Записываем новый образ на флэшку и производим установку.

If you found an error, highlight it and press Shift + Enter or to inform us.

Настройка сети VMware ESXi

Те администраторы, которые в первый раз настраивают сеть в VMware ESXi, могут столкнуться с некоторыми трудностями. Происходит это из-за того, что помимо сети физической, которая начинается от сетевых карт сервера (хоста ESXi) и уходит куда-то в физические свитчи, маршрутизаторы, интернет, есть сеть виртуальная.

Если ничего не настраивать, и установить ESXi на сервер, создать виртуальную машину, то ее сетевой интерфейс будет по умолчанию подключен к первой физической сетевой карте хоста. И все будет работать. Пока не придет пора настраивать подключение к iSCSI системе хранения данных или задействовать технологии высокой доступности: High Availability, Fault tolerance, vMotion.

На схеме показан физический Сервер ESXi с двумя сетевыми интерфейсами vmnic0 и vmnic1.



order

Виртуальный свитч vSwich

Для простоты понимания, виртуальный свитч стоит представлять как физический, со всеми его свойствами и возможностями настройки. vSwitch0 создается по умолчанию в единственном числе, а в процессе настройки администратор может создавать дополнительные виртуальные свитчи, строить внутреннюю сеть хоста ESXi по своему усмотрению. С помощью виртуальных свитчей на ESXi сервере можно смоделировать любую сетевую схему, которую бы вы смогли сделать в реальной инфраструктуре.

Порт управления vmk0

После первоначальной установки гипервизора ESXi, мы видим на экране, что для управления нужно подключиться к IP адресу XXX. Этот IP адрес автоматически (если в сети работает DHCP) присвоен порту vmk0, который подключен к виртуальному свитчу vSwitch0, к нему же подключена физическая сетевая карта vmnic0.

Теперь администратор для управления хостом ESXi запускает vSphere Client у себя на рабочей станции, вводит IP XXX и по цепочке Локальная сеть -> Switch -> vmnic0 -> vSwitch0 -> vmk0 подключается к интерфейсу управления.

Группа портов для виртуальных машин

Virtual machine port group создается автоматически при установке гипервизора ESXi на сервер. Сюда присоединяются сетевые интерфейс(ы) виртуальных машин.

  • Сетевая карта виртуальной машины должна принадлежать какой-нибудь порт группе.
  • Порт группа должна быть присоединена к какому-нибудь виртуальному свитчу
  • Виртуальный свитч может быть присоединен к физическим(ой) сетевым картам или может не иметь выхода в общую сеть

При желании, администратор может создавать дополнительные группы портов для виртуальных машин и присоединять их к любым vSwitch.

Сетевые карты одной ВМ могут быть в разных группах портов, таким образом, можно настраивать полноценные маршрутизаторы или DMZ.

Подключение СХД

Имеет смысл разделять сеть виртуальных машин и сеть передачи данных СХД<->хост ESXi. На схеме для этого используется дополнительный VMkernel порт и vSwitch1, подключенные к vmnic1. При такой архитектуре два потока данных не пересекутся и не будут мешать друг другу. Также повышается безопасность, злоумышленник, имея доступ к локальной сети компании, ни при каких обстоятельствах не сможет попасть в сеть передачи и хранения данных. Под системами хранения данных здесь понимаются iSCSI и NFS хранилища. FC СХД изначально имеет свою сеть передачи данных, оптическую.

Трафик vMotion, FT, management

Отдельную сеть точно также как и для СХД полезно выделять еще для 3-х типов трафика.


Auto-suggest helps you quickly narrow down your search results by suggesting possible matches as you type.
  • VMware Technology Network
  • :
  • Global
  • :
  • Russian
  • :
  • Russian Discussions
  • :
  • Вторая сетевая карта на хосте ESXi 5.5 - нужно про.
shupike
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend
Вторая сетевая карта на хосте ESXi 5.5 - нужно прописать отдельный IP-адрес

День добрый, хочу вот уточнить - можно ли на разные сетевые интерфейсы (ESXi 5.5) навесить разные IP-адреса непосредственно из консоли, ну то есть на желто-черном экране? Ситуация такая - второй сетевой интерфейс закреплен за одной из ВМ на этом хосте, там своя сеть. Возникла задача выгружать прямо с хоста файлы в эту сеть, то есть нужно выдать этому интерфейсу IP-адрес из этой уже используемой сети. Нажал F2, вошел в конфигурирование сети и дальше выбрана только одна карта сетевая, а вторая (которая мне и нужна) - "висит в воздухе". При этом IP можно сменить только для основной карты почему-то (под которой видится сам хост).

Akopylov
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

На физические интерфейсы ESXi вообще нельзя ip адрес повесить, физ. интерфейсы используются просто как аплинки (vmnic), а адреса назначаются vmkernel интерфейсам (они виртуальные, про инициаторы сейчас не говорим). Например, если менеджмент адрес вашего ESXi 10.0.2.2, то это вовсе не значит, что этот адрес назначен физическому интерфейсу. То, что вы после установки ESXi на "желто-черном экране" назначаете адрес, означает лишь то, что вы указываете адрес для vmk интерфейса, созданного по умолчанию. Обратите внимание на вкладку "networking" хоста.

второй сетевой интерфейс закреплен за одной из ВМ на этом хосте, там своя сеть.

Это что значит, вы passthrough сделали?

Возникла задача выгружать прямо с хоста файлы в эту сеть, то есть нужно выдать этому интерфейсу IP-адрес из этой уже используемой сети.

Вовсе не нужно выдавать ESXi адрес из этой сети, маршрутизация решит всю вашу задачу.

RumataRus
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Не подумайте, что в обиду, но у меня создается впечатление, что Вам стоит еще раз прочитать документацию по настройке сетей в VMware.

Также сами без труда найдете массу информации на эту тему, Гугл в помощь.

Либо вы неточно выражаетесь. По крайней мере я теряюсь в догадках, что может означать, например "висит в воздухе".

shupike
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Да нет, ну что вы 🙂 Я тогда конкретнее обрисую:

- первый интерфейс: 192.168.0.70, это management-address, к этому интерфейсу привязаны большинство машин, адреса у них из сети 192.168.0.0/24, здесь все понятно.

- второй интерфейс: 192.168.1.5 - этот адрес выдан отдельной виртуальной машине, через второй физический интерфейс, напрямую подключенному к FTP-серверу (через обычный гигабитный аппаратный свитч), эта машина выгружает данные на упомянутый FTP (его адрес 192.168.1.10).

Так вот нужно, чтобы сам хост мог копировать файлы на тот же самый FTP-сервер, который физически соединен только со вторым интерфейсом. Поэтому и подумал, что нужно выдать второму интерфейсу адрес, скажем, 192.168.1.8 - но вы предлагаете решить при помощи маршрутизации - можете более детально, если не затруднит?

Akopylov
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Так вот нужно, чтобы сам хост мог копировать файлы на тот же самый FTP-сервер, который физически соединен только со вторым интерфейсом. Поэтому и подумал, что нужно выдать второму интерфейсу адрес, скажем, 192.168.1.8 - но вы предлагаете решить при помощи маршрутизации - можете более детально, если не затруднит?

Эм, ну детали зависят от вашего оборудования, в самом простом случае на маршрутизаторе должно быть два интерфейса с адресами из 192.168.0.0/24 и 192.168.1.0/24 (ну и эти интерфейсы естественно должны иметь доступ в соответствующие широковещательные домены), которые будут выполнять роли шлюзов (ну или это будет один физический интерфейс и два субинтерфейса). Пожалуй, вам следует изучить icnd курс.

shupike
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Итак, что получилось:

Зашел через vSphere в Networking->vSwitch2 (сеть с IP из сети 192.168.1.0/24), там добавил VMKernel, указал новый IP 192.168.1.8, маску 255.255.255.0, а шлюз тоже решил сменить на 192.168.1.1 (предлагалось оставить 192.168.0.1, как в первой сети). Применил, отвалился тут же vSphere. Зашел на него уже по новому адресу 192.168.1.8 и вернул значение шлюза - 192.168.0.1 - теперь работает. Вопрос - почему для второй карты приходится указывать значение шлюза первой сети? Я понимаю, конечно, что мне нужно изучить массу курсов, но мне нужно было срочно закрыть вопрос, почему я и обратился за поддержкой.

Akopylov
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Ваша тепершняя схема похожа на горячечный бред. Каким образом по вашему интерфейс с адресом 192.168.1.8 будет использовать шлюз 192.168.0.1 (если сети, конечно, /24)?

shupike
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Послушайте, я вроде бы не экзамен Вам сдаю, я просто зашел попросить помощи - я не просил читать мне нотации. И да, схема работает в режиме "горячечного бреда" - если Вы не можете объяснить, почему - не надо меня поучать, хорошо? Вы, похоже, просто теоретик, а мне нужны советы "бывалого", скажем так.

EyeScuzzy
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Можете схему набросать, что и куда подключено, хоть на бумаге, сфотографировать и приложить ссылку на фото?

Akopylov
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

И да, схема работает в режиме "горячечного бреда" - если Вы не можете объяснить, почему - не надо меня поучать, хорошо?.

Да что тут объяснять, шлюз vmk интерфейсом просто не используется, значит вы подключаетесь vsphere client`ом к esxi из той же сети, что и vmk интерфейс, вот и все объяснения (если сеть действительно /24, а не /23). Вы ведь не удосужились прочитать статью, которую я линканул, правда?

Послушайте, я вроде бы не экзамен Вам сдаю, я просто зашел попросить помощи - я не просил читать мне нотации.

И как вам помочь, если вы не знаете основ сетей, которые преподаются на 2х курсах даже в колледжах, не говоря о вузах?

Вы, похоже, просто теоретик, а мне нужны советы "бывалого", скажем так

До бывалого (в вашем случае читай "телепата") мне действительно далеко, да.

vkost27
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Не знаю насчет "бывалости", ну вот хост под 5.5 работает больше 3 лет в нем больше 1 карты(4 штуки), сделано как на рисунке.

Сетевые карты хоста включены в "транковые порты" в свич, на котором работает роутинг.

Вам правильно говорят, что есть такое волшебное слово "маршрутизация", вы схему нарисуйте, хотя бы для себя, то как у вас включено, и по концу процесса рисования? возможно поймете решение, если понимаете , что такое коммутация, и что такое маршрутизация

RumataRus
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

я просто зашел попросить помощи

Я бы и рад помочь, но также как и другие коллеги, я просто Вам не понимаю.

Мы вроде все на русском языке общаемся, но на самом деле у вас какой-то другой русский язык, не такой как у всех предыдущих участников этой темы.

Как специалисты в этой области мы все понимаем один единый специализированный русский язык, связанный с сетевыми технологиями. Это подразумевает, что мы все одинаково понимаем что описывает модель OSI (второй уровень, третий уровень), что такое ARP, принципы IP-маршрутизации и т.п.

И я полностью согласен с коллегой Akopylov: нужно быть телепатом, чтобы Вас понять.

Уверен, что никто их нас не хочет вас обидеть и читать Вам нотации.

Но мы в правде рассчитывать на общение на одном языке.

И если идея нарисовать схему Вас совсем не вдохновляет, то значит мы действительно друг для друга иностранцы.

shupike
  • Mark as New
  • Bookmark
  • Subscribe
  • Mute
  • Email to a Friend

Ну что же, раскрою карты, буду говорить, как есть - без упрощений. Вот схема сети:

На самом деле для управления (management network) используется не 192.168.0.70, а реальный IP-адрес - я хотел было упростить описание, но раз уж здесь все специалисты собрались - допущения отбросим. Так вот - управляется хост с реального адреса, на этой же сетевой висит программный шлюз, который связывает внешний мир и локалку. Локалка такая: 192.168.10.0/24 - 255 адресов здесь, я не ошибся. Не /23, а /24. Эта машина на схеме обозначена как gateway. У шлюза другой реальный IP, провайдер предоставил 2 реальных IP-адреса. То есть - еще раз - один IP служит для управления хостом, под вторым через NAT работают все представленные на схеме виртуальные машины. Идем дальше.

Машина backup принадлежит как сети 192.168.10.0, так и сети 192.168.1.0/24 - таким образом, она может связываться с FTP-сервером, имеющим адрес 192.168.1.5. Выглядит это так - кабель от второй сетевой карты воткнут в аппаратный свитч и туда же воткнут кабель от FTP-сервера. Больше никаких физических соединений нет по второй сетевой карте.

Вчера я добавил VMKernel и прописал адрес 192.168.1.8 - теперь и хост может соединяться с FTP-сервером. Так вот я хочу понять - в сети 192.168.1.0/24 шлюз ВООБЩЕ НЕ УКАЗАН - он попросту не нужен. Там всего 2 участника (сейчас добавился третий) и пакеты дальше сети 192.168.1.0/24 попросту никогда не уходят. При этом при добавлении VMKernel предлагалось оставить шлюз по умолчанию, и был там прописан шлюз реального IP-адреса, который выдал провайдер. Могу ли я через консоль достоверно узнать, какой шлюз сейчас прописан для каждой сетевой карты? Пытался смотреть так:

Читайте также: