Объединить диски windows server 2019

Обновлено: 06.07.2024

Storage Spaces Direct ( S2D ) – новая технология распределенного хранения данных, представленная в Windows Server 2016. Благодаря использованию Storage Spaces Direct локальные диски нескольких серверов можно организовать в отказоустойчивое, масштабируемое хранилище, защищенное от выхода из строя как отдельных дисков, так и целых серверов. Цена такого «программного» хранилища получается значительно меньше, чем стоимость организации полноценного SAN или NAS, а за счет простого масштабирования (до 16 серверов и 400 дисков) и возможности использовать различных накопителей (в том числе SSD и NVMe) можно обеспечить значительную производительность.

Что такое Storage Spaces Direct (S2D)

S2D является дальнейшим развитием технологии Storage Spaces и позволяет объединить локальные диски узлов (серверов) кластер Hyper-V в пулы хранения (Storage Pool). На данных пулах можно создать виртуальные тома (диски) и использовать их в качестве общего тома кластера Cluster Shared Volume (CSV) для хранения файлов виртуальных машин Hyper-V и файловых шар SOFS-серверов. При необходимости расширить размер хранилища достаточно добавить в S2D новый сервер или накопитель. По сути, технология Storage Spaces Direct является ответом Microsoft на VMware vSAN .

Требования к Storage Spaces Direct

В S2D поддерживаются следующие типы устройств хранения:

  • Обычные HDD диски (SAS)
  • SATA / SAS SSD диски
  • NVMe (Non-Volatile Memory Express) — SSD диски, подключенные не через классический интерфейс SATA/SAS, а через более скоростную шину PCI Express

В дальнейшем разные типы дисков можно комбинировать в различные массивы (по скорости и емкости), например, логично расположить кэш и транзакционные логи приложений на скоростных NVMe SSD, медленные и недорогие диски лучше использовать для хранения больших файлов, доступ к которым не требует повышенной производительности и т.д.

Для работы S2D нужно организовать отказоустойчивый кластер, к узлам которого выдвигаются следующие требования:

Требования к узлам кластера S2D

  • Редакция Windows Server 2016 — DataCenter
  • На серверах нужно установить следующие компоненты: роли Hyper-V, File Services и фичу Failover Clustering Примечание . Не забудьте отключить SMB 1 : Remove-WindowsFeature –Name FS-SMB1 -Verbose -Restart
  • Как минимум два сервера в кластере (в идеале не менее 4 для обеспечения высокой отказоустойчивости)
  • Наличие дисков. Помимо системного должен иметь как минимум один физический диск на каждом узле. Все диски, которые планируется добавить в хранилище Storage Spaces Direct должны быть не размечены (не должны быть разбиты и не содержать таблицы разделов)

Итак, предполагаем, что у нас уже собран отказоустойчивый кластер из двух серверов с Windows Server 2016 (можно собрать такой кластер даже в рабочей группе ).

Примечание . Если в кластере четное число серверов, придется настроить ресурс-свидетель. Если количество узлов нечетное – свидетель не нужен.

Перед тем, как включить Storage Spaces Direct, проверьте, что ваши диски можно объединить в такой пул.

В этой статье рассказывается, как объединить разделы в Windows Server 2019, 2 способа объединения разделов для Server 2019 с Disk Management и partition editor.

Слияние разделов Сервер 2019

Если при установке операционной системы вы создали слишком много дисков, вы можете объединить разделы без переустановки ОС. Когда диск наполняется, вы можете объединить его с другим, который имеет много свободного места, однако, не рекомендуется объединить диск C и D, В этой статье я покажу вам два способа объединения разделов в Windows Server 2019.

Объединение 2 разделов с управлением дисками сервера 2019

In Windows Server 2019Вы можете объединить 2 раздела без программного обеспечения при определенных условиях. Нет никаких Merge Volume функция на родном Управление диском, но другой Расширить том функция может использоваться для merge volumes косвенно.

Примечание: При объединении двух разделов один из них будет удален, поэтому не забудьте перенести или создать резервную копию файлов перед объединением разделов.

Шаги для объединения разделов в Server 2019 Управление дисками:

  1. Щелкните правой кнопкой мыши Windows и X вместе на клавиатуре, а затем нажмите Управление дисками в списке.
  2. Щелкните правой кнопкой мыши правый непрерывный раздел (например, D :) и выберите Удалить громкости .
  3. Щелкните правой кнопкой мыши раздел, который вы хотите расширить (например, C :), и выберите Расширить том .
  4. Нажмите на Следующая к Завершить во всплывающем окне мастера расширения тома.

Нетрудно объединить разделы Server 2019, но есть много шагов. Самое главное, есть некоторые ограничения:

  1. Если вы установили программы на диск D, вы не можете удалить их.
  2. Если нет другого места для передачи файлов, вы не можете удалить этот раздел.
  3. Раздел, который вы хотите расширить, должен быть отформатирован в файловой системе NTFS.
  4. Если этот диск является MBR, 2 раздела, которые вы хотите объединить, должны быть одинаковыми первичным или логическим разделами.
  5. Управление дисками может объединять только нераспределенный раздел в непрерывный левый. Например, после удаления диска E нераспределенный раздел можно объединить только с D, его нельзя объединить с диском C или F.

Комбинировать перегородки с partition editor программного обеспечения.

Как самый популярный Windows раздел программного обеспечения, NIUBI Partition Editor помогает объединить разделы, изменить размер и легко управлять дисками. По сравнению с управлением дисками, он имеет преимущества при объединении двух разделов на Windows Server 2019:

  • Гораздо проще и требуется всего несколько кликов.
  • Все файлы в разделе, который вы хотите удалить, могут быть перемещены в другой автоматически .
  • Раздел может быть объединен в непрерывный том слева или справа.
  • Не имеет значения, являются ли 2 раздела NTFS или FAT32, основным или логическим разделом.

Как объединить перегородки в Windows Server 2019 с NIUBI:

Посмотрите видео, как объединить разделы на Windows Server 2019:

Video Server 2019

  • Вы можете выбрать любой из них в качестве целевого раздела, но вы не можете объединить системный диск C с другими разделами.
  • Это программное обеспечение предназначено для работы в виртуальном режиме, чтобы избежать ошибок, реальные разделы диска не будут изменены до щелчка Apply чтобы подтвердить. Если вы сделали что-то не так, просто нажмите Отменить, чтобы отменить.

Лучшая идея, чем объединение дисков

Неважно, вы используете Windows Управление диском, NIUBI Partition Editor или любые другие инструменты для объединения разделов в Windows Server 2019, Eсть недостаток : один из дисков будет удален. Можно объединить два тома данных, но это не очень хорошая идея объединить диск D в C, Программы и некоторые Windows службы установлены на диске D, поэтому они перестанут работать после удаления этого раздела.

Вместо этого вам лучше сжать D освободить свободное неиспользуемое пространство, затем добавить нераспределенное пространство на диск C, Таким образом, ни один раздел не будет удален, операционная система, программы и связанные с ними настройки, а также все остальное остаются прежними (за исключением размера раздела).

Следуйте инструкциям в видео, чтобы расширить диск C в Server 2019 сжимая другой объем данных:

Video Server 2019

Помимо объединения разделов в Windows Server 2019/ 2016/2012/2008/2003, NIUBI Partition Editor помогает выполнять многие другие операции по управлению разделами диска. Лучше, чем другие инструменты, он обладает расширенным виртуальным режимом, технологиями отмены при скважине, откатом в 1 секунду и уникальным алгоритмом перемещения файлов, которые помогают управлять разделами намного безопаснее и быстрее.


Давным-давно, в далекой-далекой галактике…, стояла передо мной задача организовать подключение нового филиала к центральному офису. В филиале доступно было два сервера, и я думал, как было бы неплохо организовать из двух серверов отказоустойчивый кластер hyper-v. Однако времена были давние, еще до выхода 2012 сервера. Для организации кластера требуется внешнее хранилище и сделать отказоустойчивость из двух серверов было в принципе невозможно.

Однако недавно я наткнулся на статью Romain Serre в которой эта проблема как раз решалась с помощью Windows Server 2016 и новой функции которая присутствует в нем — Storage Spaces Direct (S2D). Картинку я как раз позаимствовал из этой статьи, поскольку она показалась очень уместной.

Технология Storage Spaces Direct уже неоднократно рассматривалась на Хабре. Но как-то прошла мимо меня, и я не думал, что можно её применять в «народном хозяйстве». Однако это именно та технология, которая позволяет собрать кластер из двух нод, создав при этом единое общее хранилище между серверами. Некий единый рейд из дисков, которые находятся на разных серверах. Причем выход одного из дисков или целого сервера не должны привести к потере данных.


Звучит заманчиво и мне было интересно узнать, как это работает. Однако двух серверов для тестов у меня нет, поэтому я решил сделать кластер в виртуальной среде. Благо и вложенная виртуализация в hyper-v недавно появилась.

Для своих экспериментов я создал 3 виртуальные машины. На первой виртуальной машине я установил Server 2016 с GUI, на котором я поднял контроллер AD и установил средства удаленного администрирования сервера RSAT. На виртуальные машины для нод кластера я установил Server 2016 в режиме ядра. В этом месяце загадочный Project Honolulu, превратился в релиз Windows Admin Center и мне также было интересно посмотреть насколько удобно будет администрировать сервера в режиме ядра. Четвертная виртуальная машина должна будет работать внутри кластера hyper-v на втором уровне виртуализации.


Если вы, как и я, никогда не работали со вложенной виртуализацией hyper-v, то в ней есть несколько нюансов. Во-первых, по умолчанию на новых виртуальных машинах она отключена. Если вы захотите в виртуальной машине включить роль hyper-v, то получите ошибку, о том, что оборудование не поддерживает данную роль. Во-вторых, у вложенной виртуальной машины (на втором уровне виртуализации) не будет доступа к сети. Для организации доступа необходимо либо настраивать nat, либо включать спуфинг для сетевого адаптера. Третий нюанс, для создания нод кластера, нельзя использовать динамическую память. Подробнее по ссылке.

Поэтому я создал две виртуальные машины – node1, node2 и сразу отключил динамическую память. Затем необходимо включить поддержку вложенной виртуализации:


Включаем поддержку спуфинга на сетевых адаптерах ВМ:




HDD10 и HDD 20 я использовал как системные разделы на нодах. Остальные диски я добавил для общего хранилища и не размечал их.

Сетевой интерфейс Net1 у меня настроен на работу с внешней сетью и подключению к контроллеру домена. Интерфейс Net2 настроен на работу внутренней сети, только между нодами кластера.

Для сокращения изложения, я опущу действия необходимые для того, чтобы добавить ноды к домену и настройку сетевых интерфейсов. С помощью консольной утилиты sconfig это не составит большого труда. Уточню только, что установил Windows Admin Center с помощью скрипта:


По сети из расшаренной папки установка Admin Center не прошла. Поэтому пришлось включать службу File Server Role и копировать инсталлятор на каждый сервер, как в мс собственно и рекомендуют.

Когда подготовительная часть готова и перед тем, как приступать к созданию кластера, рекомендую обновить ноды, поскольку без апрельских обновлений Windows Admin Center не сможет управлять кластером.

Приступим к созданию кластера. Напомню, что все необходимые консоли у меня установлены на контролере домена. Поэтому я подключаюсь к домену и запускаю Powershell ISE под администратором. Затем устанавливаю на ноды необходимые роли для построения кластера с помощью скрипта:


И перегружаю сервера после установки.

Запускаем тест для проверки готовности нод:


Отчёт в фомате html сформировался в папке C:\Users\Administrator\AppData\Local\Temp. Путь к отчету утилита пишет, только если есть ошибки.

Ну и наконец создаем кластер с именем hpvcl и общим IP адресом 192.168.1.100


После чего получаем ошибку, что в нашем кластере нет общего хранилища для отказоустойчивости. Запустим Failover cluster manager и проверим что у нас получилось.



И получаем оповещение, что не найдены диски для кэша. Поскольку тестовая среда у меня на SSD, а не на HDD, не будем переживать по этому поводу.

Затем подключаемся к одной из нод с помощью консоли powershell и создаем новый том. Нужно обратить внимание, что из 4 дисков по 40GB, для создания зеркального тома доступно порядка 74GB.



На каждой из нод, у нас появился общий том C:\ClusterStorage\Volume1.
Кластер с общим диском готов. Теперь создадим виртуальную машину VM на одной из нод и разместим её на общее хранилище.


Для настроек сети виртуальной машины, необходимо будет подключиться консолью hyper-v manager и создать виртуальную сеть с внешним доступом на каждой из нод с одинаковым именем. Затем мне пришлось перезапустить службу кластера на одной из нод, чтобы избавиться от ошибки с сетевым интерфейсом в консоли failover cluster manager.

Пока на виртуальную машину устанавливается система, попробуем подключиться к Windows Admin Center. Добавляем в ней наш гиперконвергентный кластер и получаем грустный смайлик


Подключимся к одной из нод и выполним скрипт:


Проверяем Admin Center и на этот раз получаем красивые графики


После того, как установил ОС на виртуальную машину VM внутри кластера, первым делом я проверил Live migration, переместив её на вторую ноду. Во время миграции я пинговал машину, чтобы проверить насколько быстро происходит миграция. Связь у меня пропала только на 2 запроса, что можно считать весьма неплохим результатом.

И тут стоит добавить несколько ложек дёгтя в эту гиперконвергентную бочку мёда. В тестовой и виртуальной среде все работает неплохо, но как это будет работать на реальном железе вопрос интересный. Тут стоит вернуться к аппаратным требованиям. Сетевые адаптеры 10GB с RDMA стоят порядка 500$, что в сумме с лицензией на Windows Server Datacenter делает решение не таким уж и дешёвым. Безусловно это дешевле чем выделенное хранилище, но ограничение существенное.

Вторая и основная ложка дёгтя, это новость о том, что функцию (S2D) уберут из следующей сборки server 2016 . Надеюсь, сотрудники Microsoft, читающие Хабр, это прокомментируют.

В заключении хотел бы сказать несколько слов о своих впечатлениях. Знакомство с новыми технологиями это был для меня весьма интересный опыт. Назвать его полезным, пока не могу. Я не уверен, что смогу применить эти навыки на практике. Поэтому у меня вопросы к сообществу: готовы ли вы рассматривать переход на гиперконвергентные решения в будущем? как относитесь к размещению виртуальных контроллеров домена на самих нодах?

Для того, чтобы приступить к созданию общего ресурса вам следует перейти в главном окне диспетчера серверов и выбрать «Файловые службы»-> «Общие ресурсы».


Затем создаем новый общий ресурс

Общий ресурс SMB


Затем, как показано на рисунке ниже, мы видим, что нас просят сначала установить «Диспетчер ресурсов файлового сервера». Поэтому нам нужно будет снова на главной странице диспетчера серверов запустить установку ролей и компонентов и выбрать соответствующий параметр.


Затем снова выбираем создать общий ресурс, и указываем пользовательский путь, а именно место расположения сетевой папки. Я в своем примере создал папку непосредственно на диске С.


Теперь нажимаете «Далее».


При желании можно задать отдельные права на папку общего доступа. Теперь осталось еще несколько пунктов, ставите галочку «Файлы пользователя».


Квоту применять мы не будем, поэтому остается только создать полученную папку.


В результате мы видим, что папка общего доступа почти создана, остается выполнить еще несколько шагов.


Для этого открываете «Управление групповой политики»


и переходим в раздел «Default Domain Policy» -> «Изменить».


Конфигурация пользователя -> Настройка -> Конфигурация Windows -> Сопоставление дисков.


Создать -> Сопоставленный диск.


Дальше указываем адрес расположения сетевой папки, повторное подключение и присваиваем букву раздела.


Не забываем прописать gpupdate /force для обновления групповой политики.


Теперь остается зайти и проверить наличие подключенного сетевого диска.


Читайте также: