Windows server 2016 не видит raid

Обновлено: 03.07.2024

Как настроить RAID 1 массив и установить на него Windows 7, 8.1, 10

После прочтения предыдущих статей о создании программного RAID 1 массива средствами операционной системы вы конечно зададите вопрос: «А как установить саму систему на RAID 1 массив или может существует возможность переноса уже готовой и настроенной Windows с программами на рейд массив. Ведь неожиданно сломаться может и винчестер с установленной операционкой, а не только второстепенный жёсткий диск с файлами?» Потеря операционной системы со всеми установленными приложениями, при отсутствии резервной копии, может вывести из работы на несколько дней любую организацию, поэтому я считаю обязательным создание RAID 1 массива на рабочем месте и установки на него Windows.
  • Примечание : Друзья, кроме RAID 1 массива, ещё существует RAID 0 массив, способный увеличить быстродействие Вашей операционной системы в два раза .
В сегодняшней статье мы соберём RAID 1 массив из двух жёстких дисков на материнской плате ASUS и установим на него Windows 10 Друзья, конечно можно ничего не устанавливать заново, а просто включить в БИОС технологию RAID, а затем перенести на него существующую винду с помощью различных программ, но сделаем мы это в следующих статьях, а сегодня произведём простую установку системы. Во первых, создаём самым простым существующим способом загрузочную флешку Windows 10. Если вы хотите собрать RAID 1 массив и установить на него операционку, то опять же понадобится два жёстких диска или два твердотельных накопителя SSD, и ваша материнская плата должна поддерживать технологию RAID. Для примера возьмём два винчестера объёмом по 250 ГБ каждый.


Чтобы настроить систему с массивом RAID, первым делом нужно включить соответствующую опцию в BIOS и делается это очень просто. Невозможно в одной статье описать соответствующие настройки всех существующих типов БИОС, в этой статье я включу RAID на материнской плате ASUS, а в следующих статьях постараюсь показать подобные настройки на материнских платах GIGABYTE и ASRock. Включаем компьютер и входим в БИОС с помощью нажатия DEL при загрузке. Переходим на вкладку Advanced, опция SATA Configuration


SATA Mode Selection выставляем в положение RAID.

HotPlug — (горячее подключение) выставляем в Enabled для жёстких дисков объединяемых в массив.




Для сохранения внесённых изменений жмём F10 и выбираем Yes. Происходит перезагрузка.


После включения в БИОС технологии RAID, на экране монитора при загрузке на несколько секунд возникнет предложение нажать клавиатурное сочетание ( CTRL-I ), чтобы войти в настройки конфигурации RAID.

Также видно два подключенных к портам 4 и 5 жёстких диска SATA: Maxtor и WD, находящихся пока не в RAID-массиве ( Non-RAID Disk ). Нажимаем CTRL-I.


В начальном окне настроек выбираем с помощью стрелок на клавиатуре Create a RAID Volume (Создать том RAID) и жмём Enter.


В данном окне производим основные настройки RAID-массива.

Name (название RAID-массива). Жмём на клавишу "пробел" и вводим наименование,


например " RAID 1 new" и жмём Enter. Передвигаемся ниже с помощью клавиши Tab.

RAID Level: (Уровень RAID). Мы будем создавать RAID1(Mirror) -"зеркалирование" - при отказе одного из дисков, точная копия данных останется на другом диске и контроллер сразу переключиться на использование дублирующего диска. Выбираем этот уровень с помощью стрелок на клавиатуре.

Capacity (объём) выставляется автоматически. Объём двух наших дисков 500 ГБ превращаются в 250 ГБ, так как мы используем уровень RAID1(Mirror) и два наших винчестера работают как один.

Больше ничего не меняем и передвигаемся к последнему пункту Create Volume и жмём Enter.


WARNING: ALL DATA ON SELECTED DISKS WILL BE LOST.

Are you sure you want to create this volume? (Y/N):

ВНИМАНИЕ: ВСЕ ДАННЫЕ на выбранных дисках будут потеряны.

Вы уверены, что хотите создать этот объем ? (Y / N):

Жмём Y (Да) на клавиатуре.


RAID 1 создан и находится со статусом Normal (нормальный). Для выхода жмём на клавиатуре клавишу Esc


Are you sure you want to exit (Вы уверены что хотите выйти? Нажимаем Y (Да).


Как видим, только что созданный нами RAID 1 массив с названием " RAID 1 new" тоже находится в загрузочном меню.


Загружаемся с флешки в программу установки Windows 10. Далее действуем как при обычной установке операционной системы.



Принимаем лицензионное соглашение


Выборочная: Только установка Windows


Два жёстких диска объединённых в RAID-массив установщик Win 10 видит как один.

Если хотите, можете создать разделы. Далее




Пропустить этот шаг


Использовать стандартные параметры


Создать локальную учётную запись


Вводим имя учётной записи и жмём Готово.



Windows 10 установлена на RAID 1 массив.



RAID 1 массив и флешка с Windows 10.


Друзья, если один жёсткий диск в независимом массиве вышел из строя, то операционная система загрузится со второго исправного винчестера, то есть с вашими данными ничего не случится, а вот как воссоздать RAID - массив, об этом поговорим в следующей статье.

Создали том RAID (виртуальный диск) в утилите предварительной загрузки, но по-прежнему не можете увидеть том RAID во время установки ОС Windows.

Выполните следующие действия для загрузки драйвера контроллера Intel RAID во время установки ОС Windows (в Intel® VROC примере):

  1. Загрузитедрайвер Windows для своего Intel RAID Controller и сохраните его на USB-диске.
  2. НажмитеЗагрузка драйвера на экране Где вы хотите установить ОС Windows?
  3. НажмитеПросмотреть И Перейдите к местоположению драйвера RAID, загруженного в шаге 1, затем НажмитеХорошо.

Другие статьи по этой теме

Вам нужна дополнительная помощь?

Оставьте отзыв

Отказ от ответственности

Содержание данной страницы представляет собой сочетание выполненного человеком и компьютерного перевода оригинального содержания на английском языке. Данная информация предоставляется для вашего удобства и в ознакомительных целях и не должна расцениваться как исключительная, либо безошибочная. При обнаружении каких-либо противоречий между версией данной страницы на английском языке и переводом, версия на английском языке будет иметь приоритет и контроль. Посмотреть английскую версию этой страницы.

Для работы технологий Intel может потребоваться специальное оборудование, ПО или активация услуг. // Ни один продукт или компонент не может обеспечить абсолютную защиту. // Ваши расходы и результаты могут отличаться. // Производительность зависит от вида использования, конфигурации и других факторов. // См. наши юридические уведомления и отказ от ответственности. // Корпорация Intel выступает за соблюдение прав человека и избегает причастности к их нарушению. См. Глобальные принципы защиты прав человека в корпорации Intel. Продукция и программное обеспечение Intel предназначены только для использования в приложениях, которые не приводят или не способствуют нарушению всемирно признанных прав человека.

На днях столкнулся с совсем неочевидной проблемой. Хотя что могло быть сложнее поставить Windows 2019 на новый сервер.

Материнская плата Supermicro X11DPL-i, биос обновлен до последней версии 3.3 на 20.11.2020.

Диски 2х SSDSC2KG48

Режим загрузки Legacy (UEFI глобально ничего бы не изменил).

Задача: собрать softraid на встроенном контроллере в чипсет и установить Windows Server 2019.

Почему не внешний контроллер: единственный доступный в 1U корпусе слот оказался занят сетевой картой, поэтому даже при желании его было не поставить. надо было ставить Linux и вообще ceph и все в шоколаде

Действие первое:

1.1 Подключаем 1 диск для проверки.

1.2 Включаем PCH SATA Configuration - Configure SATA as RAID , перезагружаемся.

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

1.2.1 Обращаю внимание, что на плате есть еще второй sSATA контроллер (Second SATA), который по умолчанию включен.

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

1.3 Ждем, где клацать Ctrl-I и не видим. Не загружается утилита конфигурации виртуального контроллера. После инициализации OpROM сетевых карт начинает грузиться с них же.

1.4 Возвращаемся в биос, проверяем, что все нормально, перезагружаемся - не работает.

1.5 Гуглим решение: оказывается нужно как минимум 2 диска, чтобы загрузилась.

1.6 Подключаем второй диск, все начинает работать.

Вот казалось бы, вроде логично, что массив собирается только из 2 и более дисков, но почему утилита грузится с теми же требованиями?

P.S. забегая наперед, если один из дисков умрет или его отключить и массив развалится, то утилита загрузится и покажет, что массив degraded, поэтому можно спать спокойно.

Действие второе:

2.1 Массив собрали, массив в boot menu появляется, вставляем флешку/грузим по сети/подключаем через IPMI (подчеркните сами нужное) с образом Windows Server 2019 (md5 B2626D444A641604F325B145AB0C86F1), включаем сервер

2.2 Загружается установщик, клацаем далее, встречаем пустое окно при выборе дисков.

В смысле, как так? Нету драйверов под стандартный intel raid? Такого быть не может.

2.3 ОК, лезем на сайт Supermicro к нашей модели материнки, скачиваем "Intel PCH Driver(SATA)", перепаковываем в ISO, подключаем через IPMI, пробуем скармливать . и не кушает.

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

2.4 ОКК, лезем на сайт Intel, ищем драйвер Intel SoftRaid/VROC, получаем пакет VROC_7.0.0.2291_F6.

2.5 Перепаковываем в iso, подключаем . и опять не работает. Да как так то?

2.6 Идем в биос, лазим по нему в поисках слов "raid", "intel vroc", "boot volume". В итоге понимаем, что нигде ничего нет, да и вообще, все должно работать. Лезем в Ctrl+I, у него все круто, проблем никаких, рейд собран, помечен как Bootable.

Бросаем это затею и идем гуглить.

"Supermicro X11 server 2019" "Intel VROC server 2019" "X11 softraid windows server installer"

Единственное похожее упоминание о проблеме есть тут в ветке комментариев:

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

Тут есть упоминание о sSATA, но к нему у нас не подключены диски, так что в итоге он был отключен вообще.

Итак, действие третье:

3.1 Вспоминаем, что у нас есть WinPE на базе Win10 (у меня это StrelecPE), пробуем загрузиться в него.

3.2 Открываем диспетчер устройств, обнаруживаем кучу неопознанных устройств, как обычно, но среди которых нету RAID-контроллера.

3.3 Значит драйвер для него установлен. да, так и есть драйвер "Intel Embedded Server RAID Technology II" установлен, успешно запустился и работает. Но в оснастке управления дисков (он же diskpart) массива так и нет.

3.3.1 ID устройства PCI\VEN_8086&DEV_2826&CC_0104

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

3.4 ОК, подключаем еще раз новые драйвера с сайта Intel, пытаемся скормить драйвер и вуаля, шайтан машина таки жива, диск мгновенно появляется. (Момент скрина был позже событий, поэтому система уже установлена. Изначально диск конечно же был пустой)

Supermicro X11 Intel VROC (RST) + Windows Server 201x Installer Длиннопост, Установка, Intel, Драйвер, Костыли, Windows

3.3.1 На этом моменте все умные уже предполагают, о чем будет следующее действие.

3.5 Монтируем ISO с установщиком ОС, запускаем setup.exe, диск успешно видится, система начала копировать файлы.

3.5.1 Да, можно было распаковать и через другие утилиты установки из-под WinPE, можно было через cmd распаковать сразу на диск, потом доделать загрузчик, но зачем? Если можно просто нажать далее и он сделает все сам.

3.6 setup.exe радостно сообщает, что файлы все скопировал и надо перезагрузиться.

Вроде все? Но нет.

После перезагрузки сразу получаем BSOD Inaccessible Boot Device, который как бы намекает.

Не то чтобы намекает, он напрямую говорит, что загрузчик запустил ядро, но ядро не нашло загрузочного диска. А почему?

Потому что в образе системы предустановлен тот самый драйвер, который загружается без ошибок для данного устройства, но по факту не работает.

Действие четвертое, заключительное:

4.1 Грузим опять WinPE.

4.2 Устанавливаем рабочий драйвер в WinPE.

4.3 Открываем Dism++, открываем сессию на установленную систему на дисках, импортируем туда рабочий драйвер

4.4 Перезагружаемся. Вуаля, система продолжает ставится без каких-либо проблем.

Это можно было бы сделать сразу в действии третьем (3.3.1), но так как setup.exe не предлагает не перезагружаться, в моем случае это было недоступно, да и я сам хотел проверить, заработает оно или нет без этого.

Что произошло:

Как я предполагаю, в Intel что-то поменяли в прошивке виртуального raid-контроллера (версия Sata Option ROM 6.2.0.1034), оставив старый DeviceID. Скорее всего хотели не сломать совместимость с уже интегрированными драйверами в образах Windows Server 2012R2, 2016 и 2019. Установочные образы 2012R2, 2016 ведут себя аналогично 2019. Так и получилось, драйвер ставится, загружается, но где-то что-то идет не так и он не работает.

Я склоняюсь к этой версии, так как точно помню, что в основном Windows без проблем встают на Intel SoftRaid, без дополнительных драйверов.

В любом случае, драйвер был загружен, но диски в систему не передавал, а результатом стала вроде и простая, но неочевидная ситуация, которую разрулить стандартными средствами невозможно. Установщик отказывается ставить драйвер для контроллера дисков, если у него уже есть драйвера, даже если нерабочие.

Так как эта платформа была в единственном экземпляре, то такой порядок действии вполне нормальный, но если таких было бы несколько, то хорошим решением было бы пересобрать дистрибутив с интегрированными рабочими драйверами. Насколько такое решение является "стандартным средством" решать вам.


Лига Сисадминов

658 постов 12.3K подписчика

Правила сообщества

В последнее время ставлю или VMware Esx или proxmox - а винду уже туда

Супермикро, как бы это сказать, не очень)). 6 (!) раз переустанавливали сервер 2012рэ2 (да, давно было), он стабильно бсодил при загрузке с непонятной дженерал еррор, хотя ставился на рэйд только так. Бубен не помогал. Махнули местами процы - поехал сука.

Один вопрос: а чем софтовый рейд не угодил ?

У меня уже 6 лет моторесурса дисков в зеркале, рейд пережил три-четыре раз переустановку винды, при чём начиная с 8.1 на нынешнюю 10.

Зачем тебе рэйд-режим работы контроллера если рэйд нужен софтовый?

Вообще не понятно зачем все это. Собрал этих платформ чертову тучу. Драйвера подбрасываются прямо из инсталятора.

1. Качаешь драйвера с сайта Супермикро - по моему называются Intel SATA или Intel PCH

2. Названия не очевидные какой подкидывать. Перваый раз просто выбирал сверху вниз, заняло около получаса попробовать перебором. И на этом все. проблем нет.

3. Если собрал рейд на sSATA - то в драйверах с сайта Супермикро где-то рядом фалик.

4. Конечно HPE или DELL будут проще настраиваться, да и с гарантией получше "чуток", Но при этом деньги совсем другие, особенно если массив большой.

Нафиг эти все танцы - драйвера в ISO встраивать. Хотя это круто, что автор умеет это делать.

Слил исошку с дровами с оф сайта супермикро, распаковал, и в процеесе установки винды с диска (через usb dvd), просто подкинул дрова и все установилось без проблем на софт рейд 10

1. можешь прислать ссылку на прямо вот точные драйвера которые тебе в итоге подошли

2. с Dism++ не понял, загрузился в режиме PE, запустил DISM, нашлась установленная система 2016, примонтировал, открыл сессию, добавил драйвера, закрыл сессию, перезагрузился - проблема осталась. Как правильно в Dism++ эту операцию делать?

Здравствуйте, подскажите вот такую вещь, подогнали материнку X11SSH-F, как у нее попасть в BIOS?

Чёт я малость запутался - ты в середине пишешь, что интегрировал драйвера в исо, но это не помогло. А в конце пишешь, что надо бы по хорошему интегрировать драйвера в инсталлятор и тогда всё должно быть ништяк. В чём отличие?

И дополнение - на работе есть два сервера с матерями супермикро, год назад решал на одной из них проблему, хоть убей, не помню уже какую, но которая вылезла на ровном месте и какой на любой другой матери не было и быть не должно. Так толком и не решил, обошёл. И с тех пор я к ним ниочинь.

Если уж использовать программный рейд, то какой смысл это делать на intel, а не средствами ОС?

Заморочился нашёл способ поставить ОСЬ:
1. ISO Стрельца с WINPE

5 лет как свалил с on-premise, а костыли там всё те же.

На сервере использовать SSD 3D NAND TLC ? Серьёзно?оо
А raid не зеркало из них случаем? Ну чтобы умирали одновременно.

твоя ошибка в первой же строчке раздела Дано.

не надо брать эту хуергу, супермайкро ебучее.

ни разу не было таких проблем с серверами крупных брендов.


Windows спустя месяц

Windows спустя месяц

Лучше не приходи.

Вроде хорошее предложение, но как-то сомнительно.
Даже если и недалеко, не приходи.
А с другой стороны, этой фотографии как минимум лет 10, и кто знает,может бывший эникейщик сейчас развертывает на предприятиях RedHat и ставит домохозяйкам Gentoo?

Лучше не приходи. Windows, Установка, Эникейщик


Раритет

Сегодня полез смотреть проверять доступность Windows 10 October 2020 Update в параметрах системы. Действительно, появилось в необязательных, но речь уже не об этом, так как заметил, что для обновления доступны ещё два драйвера.

Раритет Intel, Windows 10, Драйвер, Длиннопост

Последний меня заинтересовал и я полез в диспетчер устройств смотреть дату выпуска текущего драйвера со схожими признаками (PCIe, 1901), а там.

Раритет Intel, Windows 10, Драйвер, Длиннопост

Оказалось, что у меня на компе один из первый драйверов, написанных Intel аж в день своего основания.

Раритет Intel, Windows 10, Драйвер, Длиннопост

Такой раритет я, пожалуй, оставлю без обновления. ))

Пожелание сотрудницы

Пожелание сотрудницы Ведьмак, Windows, Установка, Офис, Сотрудники

Видимо очень хорошая сотрудница

Intel «похоронит» базу данных драйверов для старых ПК

Intel «похоронит» базу данных драйверов для старых ПК Bios, Intel, Драйвер, Программное обеспечение

В эту пятницу, 22 ноября, Intel удалит со своих серверов все драйверы и BIOS для чипсетов, процессоров, видеокарт и других устройств, которые были выпущены более десяти лет назад. Сейчас при попытке загрузки такого ПО в верхней части страницы появляется соответствующее предупреждение. Дополнительно компания избавится от подобных файлов, предназначенных для работы под управлением операционных систем Windows 98, ME, XP и Windows Server, которые больше не поддерживаются Microsoft.

Владельцы устаревшего оборудования по-прежнему смогут загружать необходимые драйверы из сторонних источников, но делать это им придётся на свой страх и риск.


Разработчики Linux и Windows работают над закрытием огромной уязвимости в процессорах

Фундаментальная ошибка проектирования всех современных процессоров Intel, выпущенных за последние 10 лет, заставила разработчиков Linux и Windows в срочном порядке переписывать значительные куски кода ядер для того, чтобы закрыть недавно открытую в них уязвимость. Архитектура ARM64 также подвержена уязвимости.

Детали уязвимости находятся под эмбарго до тех пор, пока не будут выпущены исправления, которое намечается на середину января 2018 года, когда выйдет новое ядро Linux и ежемесячное обновление безопасности для Windows. Проблема возможно уже исправлена в ядре 4.14.11, учитывая огромный размер инкрементного патча (229 KiB).

По известным сейчас данным, обход этой аппаратной проблемы может привести к падению производительности приложений на процессорах Intel от 5 до 30% и даже до 63% на некоторых задачах. Более новые чипы от Intel имеют в своём арсенале возможности (PCID / ASID), позволяющие сократить провал в производительности при применении исправления.

Суть уязвимости, скорее всего, заключается в том, что процессоры Intel при спекулятивном выполнении кода не выполняют проверки на безопасность инструкций, которые позволяют читать сегменты памяти, что позволяет любому пользовательскому приложению получить доступ к памяти ядра, тем самым позволяя прочитать закрытые данные, такие как ключи шифрования и пароли. Большую опасность проблема также представляет для систем виртуализации, так как позволяет получить доступ к памяти вне гостевой системы.

Для решения проблемы разработчикам ядер пришлось полностью разделить память ядра и память пользовательских приложений, однако такое решение приводит к серьёзному падению производительности из-за постоянной необходимости замены указателей на память. Разработчики ядра Linux в шутку предлагали следующие аббревиатуры для новой модели разделения памяти ядра и пользовательских процессов: User Address Separation (*_uass) и Forcefully Unmap Complete Kernel With Interrupt Trampolines (fuckwit_*), однако остановились на Kernel Page Table Isolation (kpti_*).

Разработчики из GRSecurity протестировали патчи и увидели огромное падение производительности. Разработчики PostgreSQL отметили падение производительности в тесте pgbench на 23% (при использовании процессоров с PCID - 17%). Из-за сильного влияния на производительность разработчики патча предусмотрели опцию для отключения KPTI, которая активируется через передачу параметра "nopti" при загрузке ядра.

Компания AMD утверждает, что её процессоры уязвимости не подвержены. Работа над исправлением уязвимости в других операционных системах также активно ведётся

date

13.05.2020

directory

Hyper-V, Windows 10, Windows Server 2016

comments

комментария 33

В этой статье мы рассмотрим, как создать программное зеркало (RAID1) из двух GPT дисков в Windows Server 2016/Windows 10, установленных на UEFI системе. Мы рассмотрим полноценную конфигурацию BCD загрузчика, позволяющую обеспечить корректную загрузку Windows и защитить данные от выхода из строя любого диска.

В подавляющем большинстве случаев при выборе между программным или аппаратным RAID стоит выбирать последний. Сейчас материнские платы со встроенным физическим RAID контроллером доступны даже для домашних пользователей.

Запишите установочный образ Windows на DVD/ USB флешку, загрузите компьютер) с этого загрузочного устройства (в режиме UEFI, не Legacy) и запустите установку Windows Server 2016.

После установки, откройте консоли управления дисками (diskmgmt.msc), убедитесь, что на первом диске используется таблица разделов GPT (свойства диска -> вкладка Volumes -> Partition style –> GUID partition table), а второй диск пустой (неразмечен).

Подготовка таблицы разделов для зеркала на 2 диске

подготовка с созданию програмного raid в Windows 10 / Server 2016

Откройте командную строку с правами администратора и выполните команду diskpart. Наберите:

Как вы видите, в системе имеется два диска:

  • Disk 0 – диск с таблицей разделов GPT, на который установлена Windows
  • Disk 1 – пустой неразмеченный диск

List disk

На всякий случай еще раз очистим второй диск и конвертируем его в GPT:

Введите список разделов на втором диске:

Если найдется хотя бы один раздел (в моем примере это Partition 1 – Reserved – Size 128 Mb), удалите его:

Delete partition override

конвертирование диска в gpt

Выведите список разделов на 1 диске (disk 0). Далее вам нужно создать такие же разделы на Disk 1.

Имеется 4 раздела:

  • Recovery – 450 Мб, раздел восстановления со средой WinRE
  • System – 99 Мб, EFI раздел (подробнее про структуру разделов на GPT дисках)
  • Reserved 16 Мб, MSR раздел
  • Primary – 49 Гб, основной раздел с Windows

list part на gpt диске

Создаем такие же разделы на Disk 1:

Create partition primary size=450

create partition efi size=99

create partition msr size=16

создание структуры разделов для загрузочного gpt диска

Преобразования дисков в динамические, создание зеркала

Теперь оба диска нужно преобразовать в динамические:

конвертивровать диски в динамические

Создадим зеркало для системного диска (диск C:). Нужно выбрать раздел на первом диске и создать для него зеркало на 2 диске:

Select volume c
Add disk=1

Откройте консоль управления дисками, и убедитесь, что запустилась синхронизуя раздела C на (Recynching). Дождитесь ее окончания (может занять до нескольких часов в значимости от размера раздела C: ).

синхронизация данных в програмном raid 1 в windows

При загрузке Windows теперь будет появляться меню Windows Boot Manager с предложение выбрать с какого диска загружаться. Если не выбрать диск вручную, система через 30 секунд попытается загрузиться с первого диска:

  • Windows Server 2016
  • Windows Server 2016 – secondary plex

Windows Server 2016 – secondary plex

Однако проблема в том, что сейчас у вас конфигурация загрузчика хранится только на 1 диске, и при его потере, вы не сможете загрузить ОС со второго без дополнительных действий. По сути вы защитили данные ( но не загрузчик Windows) только от сбоя второго диска.

Программный RAID Windows не получится использовать для создания нормального зеркала EFI раздела. Т.к. на EFI разделе хранятся файлы, необходимые для загрузки ОС, то при выходе их строя первого диска, вы не сможете загрузить компьютер со второго диска без ручного восстановления загрузчика EFI на нем в среде восстановления. Эти операции довольно сложно сделать неподготовленному администратору, а также потребует дополнительного времени (которого может не быть, если у вас за спиной стоит толпа разгневанных пользователей).

Далее мы покажем, как скопировать EFI раздел на второй диск и изменить конфигурацию загрузчика BCD, чтобы вы могли загрузить Windows как с первого, так и со второго диска.

Подготовка EFI раздела на втором диске в зеркале

Теперь нужно подготовить EFI раздел на втором диске в зеркале, чтобы компьютер мог использовать этот раздел для загрузки Windows. Назначим EFI разделу на Disk 1 букву S и отформатируем его в файловой системе FAT32:

format fs=FAT32 quick

создать EFI раздел с fat32

Теперь назначим букву диска P: для EFI раздела на Disk 0:

select partition 2

diskpart назначить буквы дискам EFI

Копирование конфигурации EFI и BCD на второй диск

Выведите текущую конфигурацию загрузчика BCD с помощью команды:

При создании зеркала, служба VDS автоматически добавила в конфигурацию BCD запись для второго зеркального диска (с меткой Windows Server 2016 – secondary plex).

bcdedit /enum для gpt диска сbootmgfw.efi

Чтобы EFI в случае потери первого диска могут загружаться со второго диска, нужно изменить конфигурацию BCD.

Для этого нужно скопировать текущую конфигурацию Windows Boot Manager

bcdedit /copy /d "Windows Boot Manager Cloned"

Теперь скопируйте полученный ID конфигурации и используйте его в следующей команде:

Если все правильно, должна появится строка The operation completed successfully.

bcdedit /set <44d1d6bf-xxxxxxxxxxxxxxxx></p>
<p> device partition=s:

Выведите текущую конфигурацию Windows Boot Manager (bcdedit /enum). Обратите внимает, что у загрузчика теперь два варианта загрузки EFI с разных дисков (default и resume object).

две конфигурации Windows Boot Manager для разных gpt дисков с загрузчиками

Теперь нужно сделать копию BCD хранилища на разделе EFI первого диска и скопировать файлы на второй диск:

P:
bcdedit /export P:\EFI\Microsoft\Boot\BCD2
robocopy p:\ s:\ /e /r:0

robocopy EFI раздела в зеркале

Осталось переименовать BCD хранилище на втором диске:

Rename s:\EFI\Microsoft\Boot\BCD2 BCD

И удалить копию на Disk 0:

переименовать bcd

windows програмный raid failed redundance

В этом случае вы должны заменить неисправный диск, удалить конфигурацию зеркала и пересоздать программный RAID с начала.

Гипервизор ESXi 5.5 не видит RAID контроллер

В распакованном каталоге присутствует инструкция, как добавить драйвер в образ посредством которого когда снова установим ESXi на флешку, гипервизор посредством имеющихся драйверов на установленный в систему RAID контроллер сможет работать с дисками:

  • RAID 1 = 2 по 500Gb
  • RAID 1 = 2 по 2Tb

Теперь загружаю виртуальную машину Virtualbox с осью Windows 7 на борту и подготавливаю рабочее окружение для сборки с учетом скачанных драйверов на RAID контроллер:

Для сборки своего образа ESXi потребуется:

Разрешаю запуск PowerShell скриптов:

Пуск — Все программы — Стандартные — Командная строка и через правый клик на ней запускаем «Запуск от имени администратора»

C:\Windows\system32>cd /d C:\Windows\System32\WindowsPowerShell\v1.0

C:\Windows\system32>powershell

PS C:\Windows\System32\WindowsPowerShell\v1.0>set-executionpolicy remotesigned

Устанавливаю в систему пакет: PowerShell 3.0 (Windows6.1-KB2506143-x86), без предыдущего не будет и этого.

Устанавливаю в систему пакет: VMware-PowerCLI-6.0.0-3056836.exe

Устанавливаю в систему пакет: 7zip

На данной рабочей станции потребуется доступ в интернет

  • Через общие папки передаю с основной системы на гостевую скачанный файл драйвера и найденный на просторах интернета скрипт: ESXi-Customizer-PS-v2.4.ps1
  • md5sum ESXi-Customizer-PS-v2.4.ps1 5af8f83ec08faaed500294b69b920d0a ESXi-Customizer-PS-v2.4.ps1

Пуск — Все программы — Vmware — Vmware vSphere PowerCLI и через правый клик «Запуск от имени администратора»

Создаю папку Driver и помещаю в нее vib файл

PowerCLI C:\> mkdir C:\Drivers

В данную папку помещаю файл драйвера для моего RAID контроллера :

vmware-esxi-drivers-scsi-aacraid-550.5.2.1.40301.-1.5.5.1331820.x86_64.vib

PowerCLI C:\> .\ESXi-Customizer-PS-v2.4.ps1 -obDir .\Drivers -sip -v55

Parameter name: value.Width

+ CategoryInfo : NotSpecified: (:) [], SetValueInvocationException

Script to build a customized ESXi installation ISO or Offline bundle using the VMware PowerCLI ImageBuilder snapin

(Call with -help for instructions)

Running with PowerShell version 3.0 and VMware vSphere PowerCLI 6.0 Release 2 build 3056836

Select Base Imageprofile:

Enter selection: 1

(dated 11/18/2015 20:26:01, AcceptanceLevel: PartnerSupported,

После того, как создастся образ (в моем случае он именуется , как: ESXi-5.5.0-20151204001-standard.iso) копирую его также через «Общие папки» в основную систему Ubuntu 12.04.5 Desktop amd64 и по аналогии как делал по заметке делаю загрузочную флешку.

$ sudo parted /dev/sdb

(parted) mklabel gpt

Предупреждение: Существующая метка диска на /dev/sdb будет уничтожена и все

данные на этом диске будут утеряны. Вы хотите продолжить?

Да/Yes/Нет/No? Yes

(parted) unit GB

(parted) mkpart primary 0.00Gb 4.00Gb

(parted) print

Модель: JetFlash Transcend 4GB (scsi)

Диск /dev/sdb: 3911MB

Размер сектора (логич./физич.): 512B/512B

Таблица разделов: gpt

Номер Начало Конец Размер Файловая система Имя Флаги

1 1049kB 3910MB 3909MB fat16 primary

(parted) quit

Информация: Не забудьте обновить /etc/fstab.

$ sudo mkfs.msdos /dev/sdb1

mkfs.msdos 3.0.12 (29 Oct 2011)

$ sudo mkdir /media/cdrom

$ sudo mount /dev/sdb1 /media/cdrom

$ /usr/bin/unetbootin method=diskimage isofile="/home/aollo/ISO/ESXi-5.5.0-20151204001-standard_Adaptec_6805E.iso" installtype=USB targetdrive=/dev/sdb1 autoinstall=yes

$ sudo umount /dev/sdb1

или же просто без какой либо автоматизации:

Записываю кастомизированный образ на USB флешку

Теперь подключаю данную флешку в сервер SuperMicro и произвожу установку гипервизора ESXi на неё же, но вот беда — не идет установка, только появляется надпись:

Mission operation system

Диск /dev/sdb: 3911 МБ, 3911188480 байт

39 головок, 38 секторов/треков, 5154 цилиндров, всего 7639040 секторов

Units = секторы of 1 * 512 = 512 bytes

Размер сектора (логического/физического): 512 байт / 512 байт

I/O size (minimum/optimal): 512 bytes / 512 bytes

Идентификатор диска: 0xf77e43f8

Устр-во Загр Начало Конец Блоки Id Система

/dev/sdb1 1432 7639039 3818804 b W95 FAT32

$ sudo mount /dev/sdb1 /media/cdrom

образ успешно записался и подключив флешку к серверу произвожу установку, но опять результат тот же гипервизор не обнаруживает драйверов на RAID контроллер.

/adaptec/vsphere_esxi_5.5$ mv vmware-esxi-drivers-scsi-aacraid-550.5.2.1.40301.-1.5.5.1331820.x86_64.vib adaptec.vib

/adaptec/vsphere_esxi_5.5$ scp adaptec.vib root@10.7.8.153:/

adaptec.vdi 100% 61KB 60.6KB/s 00:00

Подключаюсь к серверу ESXi с помощью клиента SSH и устанавливаю драйвер, а затем для принятия изменений перезагружаю сервер

$ ssh -l root 10.7.8.153

The time and date of this login have been sent to the system logs.

VMware offers supported, powerful system administration tools. Please

The ESXi Shell can be disabled by an administrative user. See the

vSphere Security documentation for more information.

Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.

Reboot Required: true

VIBs Installed: Adaptec_Inc_bootbank_scsi-aacraid_5.5.5.2.1.40301-1OEM.550.0.0.1331820

VIBs Removed: VMware_bootbank_scsi-aacraid_1.1.5.1-9vmw.550.0.0.1331820

Connection to 10.7.8.153 closed.

После того, как сервер перезагрузится подключаюсь к нему с рабочей станции под управлением Windows 7 посредством клиент vSphere Client, проверяю наличие RAID контроллера и он присутствует:

ESXi (10.7.8.153) — Configure — Storage Adapters

Гипервизор ESXi 5.5 после добавления драйвера RAID контроллер увидел разделы

Отлично гипервизор видит RAID контроллер, но вот теперь моя задача сводится к форматированию устройств, т. е. Я хочу переделать текущее (уже больше не нужно).

Configuration — Storage — выделяю хранилище, в моем случае оно именуется, как Data и нажимаю в правом углу на Delete, затем подтверждаю свое намерение

Удаляю хранилища из ESXi 5.5

Но меня поджидает облом — видители гипервизор использует данные хранилища и удалить не дает:

Удаление хранилища не возможно, оно используется - почему?

*** The fdisk command is deprecated: fdisk does not handle GPT partitions. Please use partedUtil

Disk /dev/disks/mpx.vmhba32:C0:T0:L0: 7639040 sectors, 7460K

Disk /dev/disks/mpx.vmhba2:C0:T1:L0: 3900682240 sectors, 3719M

Disk /dev/disks/mpx.vmhba2:C0:T0:L0: 975155200 sectors, 929M

mpx.vmhba2:C0:T0:L0:1 /vmfs/devices/disks/mpx.vmhba2:C0:T0:L0:1 51fa6d03-0a61ea94-5b19-6805ca0a091f 0 System

Хранилище System я отключил

Хранилище System я отключил

А вот отключить хранилище Data почему-то не могу:

watchdog-storageRM: Terminating watchdog process with PID 34001

ESXi-хост (10.7.8.153) — Configuration — Storage — нажимаю Rescan All

Не помогло, а вот еще проверяя расширенные параметры ESXi хоста наткнулся на вот такой вот параметр и

Обновляю значение параметра ScratchConfig.ConfiguredScratchLocation на ESXi 5.5

По найденному описанию на официальном сайте данное значение нужно изменить на /tmp сохранить внесенные изменения и перезагрузить хост

Connection to 10.7.8.153 closed.

После проверяю значение измененного параметра:

ничего не поменялось.

Пробую поменять через консоль:

Затем перевожу хост в режим обслуживания:

vSphere Client — ESXi-(хост) — через правый клик по хосту нахожу параметр Enter Maintenance Mode, подтверждаю свое намерение нажатием кнопки Yes

Connection to 10.7.8.153 closed.

После уже снова подключаюсь через vSphere Client и что самое главное успешно на всех хранилищах, таких как Data & System делаю umount и удаляю.

И только потом можно будет через vSphere Client удалить хранилища имеющее место быть в ранее созданном и используемое на предыдущей версии гипервизора ESXi текущего сервера.. Почему переделываю, дело в том, что той флешки на которой был установлен гипервизор уже много и много лет, да и сервак стал больше не нужным, а разобрать все в шагах по установке надо на всякий случай будет полезно.

Теперь заново создаю хранилища:

На этом моя заметка завершена. Я разобрал как создать свой образ, если не получилось как импортировать модуль в существующий гипервизор и как пересоздать локальные хранилища в основе которых лежат диски на Raid контроллере. До новых встреч, с уважением автор блога — ekzorchik.

Читайте также: