Vmware увеличить размер lun

Обновлено: 07.07.2024

Четвертая часть полностью посвящена моментам работы ESXi с дисковой подсистемой и СХД.

VMware vStorage APIs for Array Integration (VAAI)

Как уже говорилось в первой части, рекомендуется использовать дисковые хранилища с поддержкой VAAI. Данные возможности СХД позволяют перенести нагрузку с гипервизора на хранилище, улучшая в некоторых ситуациях производительность.

Если SAN, либо NAS массив поддерживает VAAI, ESXi автоматически это определит и начнет использовать предоставленные возможности.

LUN Access Methods

Помимо классической файловой системы VMFS поверх луна, ESXi также поддерживает технологию raw device mapping (RDM), позволяющую подключать лун напрямую в виртуальную машину. Зачастую RDM может использоваться в кластерных системах.

RDM – файл на VMFS, который выступает как прокси для нижележащего блочного устройства (луна).

RDM может работать в двух режимах – virtual compatibility, либо physical compatibility:

  1. Virtual Mode – функции взаимодействия с диском виртуализируются по аналогии с любым диском, располагаемым на VMFS. Данный режим, например, позволяет создавать снапшоты дисков RDM;
  2. Physical mode – минимизирует функции виртуализации и взаимодействия с диском, перекладывая данные функции на виртуальную машину. Снапошты создавать нельзя.

Virtual Disk Modes

Для каждого диска виртуальной машины ESXi поддерживает три режима:

Стоит понимать, что использование Independent дисков не отключает возможность создания снапшотов с виртуальной машины, однако с данного типа дисков снимки делаться не будут.

Virtual Disk Types

ESXi поддерживает два основных типа дисков – Thick Provisioned и Thin Provisioned.

Thick Provisioned – тип виртуального диска, который сразу резервирует дисковое пространство на хранилище VMFS. Подразделяется на два типа:

  1. Eagerzeroed – при создании виртуального диска, полностью его «зануляет». Увеличивает производительность при первой записи в каждый предварительной зануленный блок, но увеличивает время создания диска (чем больше диск – тем больше время, соответственно). VAAI может ускорить процесс создания таких дисков.
  2. Lazyzeroed – так же резервирует пространство под виртуальный жесткий диск, но зануление блоков происходит только в момент первой записи в них. Диск создается практически моментально, однако, при первой записи будет немного снижена производительность. При последующих записях обладает такой же производительностью, как и eager zeroed диски;
  3. Thinprovisioned – В отличии от Thick provisioned дисков, которые сразу резервируют требуемое пространство на VMFS, пространство под тонкие диски выделяется при записи. Производительность при первой записи в новый блок будет ниже, однако при последующих записях в ранее записанные блоки производительность аналогична eager-zeroed дискам.

Automatic Space Reclamation (UNMAP)

Хранилища VMFS6 (начиная с версии vSphere 6.5) поддерживают автоматическое высвобождение освободившегося пространства для thin provisioned дисков.

Стоит отметить, что VMFS5 так же поддерживает UNMAP, правда только в ручном режиме с помощью esxcli storage vmfs unmap.

Partition Alignment

Выравнивание файловой системы относительно блочного устройства, на котором она располагается, может влиять на производительность, поскольку при неверно выровненной файловой системе, количество операций чтения и записи может увеличиться.

Как и многие другие файловые системы, VMFS может испытывать проблемы с производительностью в случае неправильного выравнивания (misalignment). Начиная с ESXi 5.0 при создании файловой системы через клиента vSphere, VMFS3/5/6 автоматически выравниваются, начиная от границы в 1MB;

Если файловая система VMFS3 создана на более ранней версии гипервизора, чем ESXi5, выравнивание такой FS начинается от границы в 64KB. В случае если файловая система будет обновлена до VMFS5, выравнивание в 64KB так же сохраняется. Единственным решением является пересоздание файловой системы с гипервизора с версией 5 или выше.

Файловые системы VMFS3 и VMFS5 нельзя обновить до VMFS6. Единственный вариант – создание нового datastore на базе VMFS6 и перенос виртуальных машин на него.

Для того, чтобы выровнять VMFS разделы вручную, рекомендуется ознакомиться с документацией производителя СХД, с которой выделяется LUN (в большинстве случаев на выравнивание влияет тип ОС, указанный при создании луна на СХД), ну и, конечно, на рабочей файловой системе такое не делается.

Если выясняется, что с выравниванием не все в порядке, правильным решение будет создать новое, уже выравненное хранилище VMFS и выполнить Storage vMotion виртуальных машин на него.

SAN Multipathing

Поскольку практически во всех инсталляциях доступ к СХД осуществляется по нескольким путям (через несколько портов HBA и несколько свитчей (в SAN это называется фабрикой)), необходимо использовать специальное ПО, управляющие всеми путями и определяющие использование путей до СХД (Multipathing software). В ESXi за это отвечает PSA – Pluggable Storage Architecture.

Политики мультипасинга могут влиять на производительность дисковой подсистемы. В большинстве случаев, политика, выставленная ESXi по умолчанию для СХД будет лучшим выбором.

Если выбрана иная политика, рекомендуется свериться с документацией производителя системы хранения данных и убедиться, что она поддерживаема.

Round Robin – политика, позволяющая в некоторых ситуациях улучшить производительность за счет балансировки нагрузки между активными путями, ведущими к СХД, отправляя фиксированное количество I/O запросов на каждый из путей. Не все массивы поддерживают политику Round Robin. Использование неподдерживаемой политики может привести к проблемам с доступом к предоставленным дисковым ресурсам. Рекомендуется обратиться к документации производителя СХД, чтобы получить список поддерживаемых политика.

ALUA (Asymmetric Logical Unit Access) – использование данной политики позволяет увеличить производительность при работе с СХД, которая, собественно, поддерживает ALUA. ALUA информирует ESXi об оптимальных путях до луна (Active Optimized), а так же дополнительных, не оптимальных путях (Active Non-Optimized). В сочетании с Round Robin, ESXi балансирует запросы к СХД между оптимальными путями.

ESXi так же поддерживает сторонние плагины (PSPs), которые могут предоставить наилучшую производительность для конкретных типов хранилищ (обычно поставляются производителем СХД).

Storage I/O Resource Allocation

VMware предоставляет механизмы для динамического управления дисковым вводом-выводом, позволяя критически важным приложениям сохранять их производительность даже во время нехватки ресурсов.

Дисковый ввод-вывод доступный ESXi можно разграничить с помощью Shares, либо Limits:

  1. Часть ввода вывода виртуальных дисков можно разграничить с помощью Shares. В таком случае, каждый виртуальный диск будет иметь часть пропускной способности к хранилищу, в зависимости от выставленной величины Shares;
  2. Максимальное количество I/O доступных виртуальному диску можно ограничить с помощью Limits. Limits выставляются в количестве IOPS. По умолчанию количество IOPS не ограничивается.

Limits и Shares выставляются на уровне виртуального диска в настройках машины.

iSCSI and NFS Recommendations

  1. Если возможно, стоит использовать выделенные сетевые подключения для iSCSI и NFS между сервером и СХД (еще лучше отдельные коммутаторы). Если выделенной сети нет и не предвидится, стоит отделить дисковый трафик хотя бы с помощью VLAN.;
  2. Рекомендованная скорость подключения 10Gb/s и выше. В случае с NFS агрегация сетевых интерфейсов может предоставить большую пропускную способность;
  3. Если возможно – стоит использовать Jumbo frames (MTU 9000).

NVMe/NVMe-oF Recommendations

  1. Для максимальной производительность рекомендуется включить high-performance plug-in (HPP) на хосте ESXi;
  2. Увеличить максимальное количество I/O с параметром Disk.SchedNumReqOutstanding;
  3. Максимальная пропускная способность NVMe может быть достигнута с запуском большого количества виртуальных дисков, либо виртуальных машин, поскольку в NVMe хорошо развит параллелизм;
  4. Необходимо выбирать корректны storage adapter в виртуальной машине. Это может быть, как PVSCSI, так и vNMVe.

vSphere Virtual Machine Encryption Recommendations

Начиная с версии 6.5 vSphere может шифровать виртуальные диски .vmdk, файлы снапшотов .vmsn, NVRAM .nvram, swap .vswp и конфигурационные файлы .vmx.

Шифрация и дешифрация выполняется центральным процессором и, соответственно, потребляет его ресурсы.

  1. При достаточном количестве процессорных ресурсов, в большинстве случаев потеря производительности крайне незначительная. Однако, в случае нехватки ресурсов ЦПУ, могут начаться проблемы с производительностью;
  2. Для минимизации потребления CPU, рекомендуется выбирать процессоры, которые поддерживают инструкции AES-NI;
  3. Необходимо убедиться, что AES-NI в состоянии Enabled в BIOS. Иногда, для этого необходимо обновить версию BIOS;
  4. Поскольку шифрование выполняется непосредственно хостом и СХД видит только зашифрованные данные, это может сказаться на таких показателях как дедупликация и компрессия.

General ESXi Storage Recommendations

Running Storage Latency Sensitive Workloads

С самого начала подсистема дискового ввода-вывода в ESXi сконфигурирована для получения максимальной пропускной способности с минимальными затратами процессорных ресурсов.

Для приложений, чувствительных к дисковым задержкам следует рассмотреть и сконфигурировать следующие моменты:

  1. Host Power Management может влиять на значения Latency дискового ввода-вывода, ввиду чего рекомендуется возможно переключить политику в режим «Maximum Performance», либо отключить Power Management в BIOS. Отключить C1E и прочие C-states в BIOS. Включить Turbo Boost в BIOS;
  2. Если в виртуальной машине используется контроллер LSILogic, либо PVSCSI, можно отрегулировать параметр reqCallThreshold. Данный параметр влияет на скорость прохождения дисковых запросов виртуальной машины, однако может увеличить потребление ресурсов CPU.

На этом часть, посвященная работе с дисковой подсистемой, подходит к концу. В следующей части посмотри более внимательно на работу сетевой подсистемы.

На СХД был создан LUN безопасного размера в 1998Гб

image

Как видите, все хорошо. Осталось подмонтировать его в виртуальным хостам, что и было сделано, правда в итоге на vSphere я получил LUN следующего размера:

image

1,82Тб. У меня сначала случился разрыв шаблона. Создал 2Тб а получил 1,82Тб! Но потом мне подсказали про различные системы исчисления, которые я упустил из вида.

Простым пересчетом в калькуляторе я перевел 1997,9 Гб из Гигабайтов (10 9 ) в Гибибайты (2 30 ), что используются при расчетах в операционных системах и получил ожидаемый размер в 1860 Гибибайт.

Осталось только расширить LUN на СХД, но чтобы избежать неожиданностей и предварительно мигрировал с него все VM.

На СХД я увеличил LUN на 0.1 Тб, так как MSA P2000 после порога в 1Тб перестает считать гигабайты и дает считать только терабайты, так что ползунок дает возможность увеличить LUN на 1 и более ТБ :)) В итоге я получил LUN вот такого размера:

image

Названия лунов разные, но тем не менее операции проведённые над ними верные.

И вот тут то и нашелся подводный камень. Все пути до этого LUN для vSphere серверов стали недоступны на

1-2 секунды, то есть на момент расширения.

В итоге я получил VMFS том размером в 1,91ТБ:

image

Что и требовалось.

Из этого маленького приключения я усвоил для себя то, что что системы исчисления на СХД HP MSA и внутри vmware разные: десятичная и двоичная, соответственно.

Системы исчисления: разные размеры LUN в vSphere и на СХД: 1 комментарий

Добавить комментарий Отменить ответ

Перейти с Порше на Жигули - такое себе решение!

Мысли в слух " а может перейти на proxmox " Что-то в последняя время ESXi не стабильно стал по обновлениям.…

Как расширить диск Linux на лету в VMware vSphere

Иногда возникает необходимость расширить диск Linux на лету, когда заканчивается место, а диск нельзя отмонтировать. К счастью, на файловой системе ext4 это возможно.

Например, у нас имеется диск /dev/sdd размером 100Гб. На нем раздел /dev/sdd1 и он примонтирован (это может быть даже корневой раздел).

Как расширить диск Linux на лету в VMware vSphere

Как расширить диск Linux на лету в VMware vSphere

Создадим раздел и отформатируем его

Потом можно нажать n, затем Enter, потом 4 раза Enter (если раздел будет занимать весь диск) и в конце w и Enter.

Как расширить диск Linux на лету в VMware vSphere

Как видим, на диске теперь есть раздел с файловой системой ext4

Как расширить диск Linux на лету в VMware vSphere

Сейчас создадим директорию, которая будет точкой монтирования и примонтируем раздел.

Можем создать там файл MyFile и директорию MyDir

Как расширить диск Linux на лету в VMware vSphere

Расширим диск на лету

Сначала мы перейдем в настройки виртуальной машины и раширим диск, например, на 50Гб.

Как расширить диск Linux на лету в VMware vSphere

Посмотрим, что теперь в нашем Linux

Как расширить диск Linux на лету в VMware vSphere

У нас пересканируется диск 3 (счет начиная с 0), потому что у нас sdd.

Как расширить диск Linux на лету в VMware vSphere

Смотрим что получилось

Как расширить диск Linux на лету в VMware vSphere

Расширяем раздел и файловую систему

Конечно, мы могли бы упростить себе жизнь, имея X сервер и используя gparted с графическим интерфейсом для этого. Но мы сделаем это через коммандную строку.

Для расширения раздела будем использовать parted

Затем пишем команду resizepart 1, жмем Enter. Пишем Yes, жмем Enter. И чтобы расширить до конца диск (то есть использовать все свободное пространство на диске) пишем -0 и жмем Enter. Выходим командой quit.

Как расширить диск Linux на лету в VMware vSphere

После этого нам необходимо расширить файловую систему. У нас ext4, поэтому мы можем это легко сделать с помощью команды resize2fs

Как расширить диск Linux на лету в VMware vSphere

Вот и все! Мы без отмонтирования раздела и перезагрузки хоста расширили раздел на нашем Linux.

В предыдущей заметке я рассмотрел пошагово, как создать «LUN’ку» и привязать его к «ESXi”. Так что опираясь на предыдующую заметку создадим к «LUN’ку» – размером в 500Мб.

Теперь подключаемся клиентом «vSphere 5.0» к развернутому «ESXi” версии «5.0», открываем настройки виртуальной машины на «ESXi”.

«VM” – “Edit Settings” – “Hardware”

“ Add” ( нажимаем кнопку добавить )

Открываем настройки виртуальной машины

“ Hard disk” – ( добавлять будем жесткий диск )

Добавляем еще один жесткий диск в виртуальную машину

Добавляемый жесткий диск будет с типом RDM

Далее у нас будут отображены подключенные к данному «ESXi LUN” с хранилища: выбираем нужное – в моем случае «LUN 6» с размером «500Mb”. – и нажимаем кнопку «Next”.

Выбираем подмапленную LUN с width=

Указываем хранилище где будет располагаться данная LUN

Далее отмечаем тип подключенного диска : Physical

Для справки «RDМ» бывает двух типов:

  • Physical — означает, что гипервизор подавляющее большинство команд SCSI пропускает до LUN без изменения. Дает прямой доступ к LUN. Пригодится для развертывания кластера.
  • Virtual — разрешает перехватывать и изменять команды SCSI

Отмечаем тип подключаемого диска

Далее расширенные опции можно оставить, как есть:

На данном шаге оставляем настройки по дефолту

Сверяемся с отчетом о проделанных действиях:

Теперь настройки виртуальной машины станут такими:

Теперь настройки виртуальной машины станут такими

После этого открыв консоль виртуальной машины и перейдя в оснастку управления дисками:

«Пуск» – «Панель управления» – «Администрирование» – «Диспетчер сервера» – «Хранилище» – «Управление дисками».

можно видеть подключенный диск с хранилища размером в 476Мб.

можно видеть подключенный диск с хранилища размером в 476Мб

Используйте прокси ((заблокировано роскомнадзором, используйте vpn или proxy)) при использовании Telegram клиента:

Поблагодари автора и новые статьи

будут появляться чаще :)

Карта МКБ: 4432-7300-2472-8059

Большое спасибо тем кто благодарит автора за практические заметки небольшими пожертвованиями. С уважением, Олло Александр aka ekzorchik.

Читайте также: