Установка debian 10 на raid 10

Обновлено: 03.07.2024

Данная статья размещена по просьбе человека не имеющего аккаунта на хабре, но мечтающего влиться в его ряды.
Если у кого-то есть инвайт и желание им поделиться, пишите пожалуйста на e-mail: cibertox (друг человека) bk точка ру

Разворачивая WEB сервер, пришлось задуматься о том, чтобы не потерять весь проект, в случае непредвиденной гибели жестких дисков, как обычно это бывает по закону подлости — неожиданно.
Ответ напрашивается сам собой –использовать RAID, при этом еще и высокой скорости работы хотелось- значит RAID5 (Но этот способ годится и для использования массивов 6го и 10го уровней)
Основной проблемой в развертывании Debian\Ubuntu- невозможность установить систему, в чистом виде, на этот массив из-за того, что части файла копируются на все диски массива, а их сборка передпологает сложные вычисления.
Существуют варианты установки системного загрузчика на флешку, но это тупиковый путь и использование его на полноценной продакшн системе, не считаю правильным, все равно есть жесткие диски, да и бегать в дата центр из-за неожиданно сдохшей флешки с загрузчиком на борту – маразм!
Значит у нас есть готовый сервер с четырьмя хардами, полностью собранный.

Часть первая: Установка системы.

Корневая файловая система ( / ) будет находиться у нас на RAID 5.
Запускаем установку и в службе разметки жесткого диска, создаем на каждом физическом томе 3 раздела, из них, первый будет размером 2Гб, второй отдадим под раздел подкачки, сколько под него отпилить зависит от задач вашего сервера, я отдал по 512Мб. Третий-все оставшееся пространство.
Первый и третий разделы создаем как физический раздел RAID
После создания разделов на всех дисках переходим в раздел настройки программного raid
После всех телодвижений у нас получилось 12 разделов по 3 на каждом диске

/dev/sda1
/dev/sda5
/dev/sda6

/dev/sdb1
/dev/sdb5
/dev/sdb6

/dev/sdc1
/dev/sdc5
/dev/sdc6

Где:
Разделы под номером 1 имеют по 2 Gb.
Разделы под номером 5 отведены под swap.
И разделы под номером 6 – все оставшееся пространство на диске.
(Данная конфигурация не аксиома, разделов можно нарезать столько сколько нужно).

Переходим к созданию массива md 0:
Выбираем тип раздела RAID1 на предложении добавить в него 2 диска заменяем двойку на 4 и 0 под резервные. Выбираем под него все разделы с номером 1 это sda1 sdb1 sdc1 sdd1
В результате мы получим 1 раздел RAID 1, размером в 2 Гб(Это важно!).
Разделы sda5 sdb5 sdc5 sdd5-отставляем нетронутыми, под подкачку.

Далее переходим к созданию массива md1 на который собственно и поселится наш RAID 5
Предложение добавить 3 диска заменяем на 4 и 0 под резерв.
Добавляем в него все диски с порядковым номером 6, это: sda6 sdb6 sdc6 sdd6

Для устройства выбираем тип файловой системы и точку монтирования.
Для RAID 1 выбираем точку монтирования /boot
Для RAID 5 устанавливаем точку монтирования /

Сохраняем изменения на диск и запускаем установку
Ждем ее окончания, на предложение установить системный загрузчик на диск соглашаемся –в 10.04 он будет установлен на все 4 диска. (в 8.04,8.10 он автоматически ставится только на первый диск который установлен в БИОСе- это важный нюанс! ).

Допиливаем системный загрузчик!
Так как у нас все диски промаркированы как загрузочные, особых сложностей с ними не будет, если оставить GRUB2, но лучше его заменить на GRUB1.5, во-первых он достаточно хорошо известен, во-вторых более стабилен, в третьих – его возможностей для нас, хватает с головой.
Обновляем списки пакетов
sudo apt-get update

Удаляем GRUB2
sudo apt-get purge grub2 grub-pc

устанавливаем предыдущую версию
sudo apt-get install grub

создаем меню установки
sudo update-grub
будет предложено создать файл menu.lst отвечаем Y

Удаляем остатки grub2
sudo apt-get autoremove

Устанавливаем grub на все жесткие диски

sudo su
grub-install --no-floppy /dev/sdb
grub-install --no-floppy /dev/sdc
grub-install --no-floppy /dev/sdd

Помечаем все диски, как загрузочные.

grub
device (hd1) /dev/sdb
root (hd1,0)
setup (hd1)
device (hd2) /dev/sdc
root (hd2,0)
setup (hd2)
device (hd3) /dev/sdd
root (hd3,0)
setup (hd3)

quit
(На hd0 ставить не надо он туда прописался при инсталляции автоматически)

Что у нас получилось в результате?!
У нас создано 2 раздела RAID1-создалась копия раздела boot на четырех дисках -он хранится в чистом виде как на обычном диске, по этому любой из четырех дисков является загрузочным, после этого корневой раздел находящийся на RAID 5 монтируется самостоятельно и операционка стартует совершенно спокойно.

Часть вторая: Действия при выходе из стоя жесткого диска.

В случае непредвиденной гибели одного из четырех дисков в массиве, у нас осталось 3 копии раздела /boot и работоспособный раздел / -который перешел в режим degraded.
Перед внедрением системы, необходимо потренироваться на кошках – выдергиваем один диск и смотрим, что произошло, вводя команду:

Выдаст такую таблицу

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdb6[1] sda6[0] sdc6[3]
24087360 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U]

md0 : active raid1 sdc1[3] sdb1[1] sda1[0]
1951680 blocks [4/3] [UU_U]

Где: md1 список разделов которые остались работоспособными ( из примера видно что нас покинул раздел sdd6 который находился третьим по списку [UU_U] -нумерация начинается с 0).
Тоже самое и на разделе md0. только раздел sdd1
Заменяем жесткий диск — если это полноценный сервер поддерживающий горячую замену, новый должен определиться сам, если этого не произошло по каким-либо причинам, то ничего страшного нет –спокойно перезагружаемся с любого из 3х оставшихся дисков и вводим команду.
Предварительно перейдя в режим супер — пользователя:
sudo su
fdisk –l
получаем картину такого содержания:
Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0004b95a

Device Boot Start End Blocks Id System
/dev/sda1 1 244 1951744 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/sda2 244 1306 8530945 5 Extended
/dev/sda5 244 306 500736 82 Linux swap / Solaris
/dev/sda6 306 1306 8029184 fd Linux raid autodetect

Disk /dev/sdb: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0008e1c9

Device Boot Start End Blocks Id System
/dev/sdb1 1 244 1951744 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/sdb2 244 1306 8530945 5 Extended
/dev/sdb5 244 306 500736 82 Linux swap / Solaris
/dev/sdb6 306 1306 8029184 fd Linux raid autodetect

Disk /dev/sdc: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00007915

Device Boot Start End Blocks Id System
/dev/sdc1 * 1 244 1951744 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/sdc2 244 1306 8530945 5 Extended
/dev/sdc5 244 306 500736 82 Linux swap / Solaris
/dev/sdc6 306 1306 8029184 fd Linux raid autodetect

Disk /dev/sdd: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sdd doesn't contain a valid partition table

Disk /dev/md0: 1998 MB, 1998520320 bytes
2 heads, 4 sectors/track, 487920 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Disk /dev/md1: 24.7 GB, 24665456640 bytes
2 heads, 4 sectors/track, 6021840 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000

Из этой портянки видно что, наш новый диск определился, но не содержит раздела

Disk /dev/sdd: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/sdd doesn't contain a valid partition table

Копируем раздел с живого диска например с sda используя ключ –force (без использования ключа в 10.04 система ни в какую не хочет его создавать в ubuntu 8 этот ключ не требуется)
sfdisk -d /dev/sda | sfdisk /dev/sdd --force

проверяем правильность копирования
fdisk –l
Нам покажет что на всех четырех дисках есть разделы, но а вот на устройстве md0 нет

Disk /dev/md0: 1998 MB, 1998520320 bytes
2 heads, 4 sectors/track, 487920 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

Disk /dev/md0 doesn't contain a valid partition table

Исправим это, добавим наш вновь созданный sdd1 в массив.

mdadm --add /dev/md0 /dev/sdd1
должно выдать

mdadm: added /dev/sdd1
После этого сразу же начнется ребилд нашего raid 1

Тоже самое проделываем с нашим raid5
mdadm --add /dev/md1 /dev/sdd6
получаем:
mdadm: added /dev/sdd6

запускается ребилд, если интересно посмотреть на процесс, вводим
cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd6[4] sdb6[1] sda6[0] sdc6[3]
24087360 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U]
[=>. ] recovery = 8.8% (713984/8029120) finish=1.1min speed=101997K/sec

Где указана степень восстановления, когда работа закончится, немного подождав, вводим команду повторно и получаем следующее:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid5 sdd6[2] sdb6[1] sda6[0] sdc6[3]
24087360 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

md0 : active raid1 sdd1[2] sdc1[3] sdb1[1] sda1[0]
1951680 blocks [4/4] [UUUU]

Из этого видно что все разделы восстановлены.
Нам осталось сделать новый диск загрузочным,
grub
device (hd2) /dev/sdd
root (hd2,0)
setup (hd2)
quit

Вот, пожалуй, и все, ваш сервер как новенький, вся информация осталась целой.

Настраиваем программный RAID на UEFI-системах в Debian и Ubuntu

Программный RAID в Linux на основе MD-устройств успел отлично зарекомендовать себя в работе и пользуется заслуженной популярностью у администраторов, сочетая надежность и простоту создания и управления. Но со все более широким распространением UEFI-систем приходится сталкиваться с некоторыми особенностями. Многие, если есть такая возможность, переключают настройки в режим совместимости, но это неправильно, UEFI - это стандарт для современных устройств и поэтому надо учиться работе с ним.

Другой возможной альтернативой программного RAID является использование встроенного в материнскую плату или недорогого внешнего контроллера. Но в этом случае вы получаете проблему совместимости, такой массив будет работать только со своим семейством контроллеров, сегодня их не так и много, но тем не менее. Также вы не сможете производить работы по восстановлению и обслуживанию массива в онлайн, данные на дисках в это время будут недоступны.

Скажем больше, мы не видим никаких преимуществ у встроенных и недорогих контроллеров перед программной реализацией, особенно на простых массивах, не требующих сложных вычислений (RAID 1 и 10). А учитывая всю гибкость mdadm, программный RAID по многим параметрам будет выглядеть гораздо привлекательнее.

Конфигурация разделов Linux с UEFI

Для примера рассмотрим применяемую по умолчанию во многих дистрибутивах схему со всеми файлами в одном разделе. Однако это не означает, что вам следует применять именно ее, данная схема выбрана нами для простоты подачи материала.

mdadm-uefi-debian-ubuntu-002.jpg

EFI - он же ESP (EFI system partition) - специальный раздел с файловой системой FAT который содержит загрузчик, вызываемый микропрограммой UEFI, должен находиться в основной таблице разделов и не может располагаться в программных RAID-массивах, томах LVM или пулах ZFS. Данный раздел должен располагаться на каждом диске, с которого предусматривается загрузка.

Linux RAID - специальные разделы, из которых собирается программный RAID, в нашем случае используется один массив md0, располагающийся на двух дисках. Данные разделы имеют специальные заголовки, что позволяет даже при подключении к другой системе правильно определить их тип и собрать массив заново.

Swap - раздел подкачки, используется как механизм виртуальной памяти, а также для организации режима сна (в настольных системах). Некоторые современные системы не используют раздел подкачки (Ubuntu) используя для этой цели специальный файл в корневом разделе. Swap можно объединить в программный RAID, но смысла в этом немного, более того, при использовании отдельных swap-разделов системе будет доступен вдвое больший объем для подкачки.

Некоторые особенности Ubuntu Server 18.04

Начиная с версии 18.04 Ubuntu Server по умолчанию предлагается с новым инсталлятором Subiquity, который очень просто отличить по обновленному внешнему виду:

mdadm-uefi-debian-ubuntu-001.jpg

При использовании данного инсталлятора вы не сможете установить систему на программный RAID (как на системах с UEFI, так и без), установка закончится ошибкой. Поэтому для создания программного RAID следует использовать сборку с классическим установщиком, которую можно получить в разделе альтернативных загрузок.

mdadm-uefi-debian-ubuntu-003.jpg

Также легко можно отличить дистрибутивы по наименованию, образ с Subiquity содержит в наименовании слово live (ubuntu-18.04.3-live-server-amd64.iso).

Создание программного RAID при установке системы

Все дальнейшие действия мы будем производить на системе Debian 10, однако все сказанное будет справедливо для любой основанной на Debian системе, а с некоторыми поправками и для любого дистрибутива Linux.

Прежде всего создадим в начале каждого диска системный раздел EFI размером в 499 МБ (по умолчанию Debian и Ubuntu используют близкие к этому размеры разделов).

mdadm-uefi-debian-ubuntu-004.jpg

Затем выполним необходимую разметку, основное условие - одинаковые размеры томов на обоих дисках, тип файловой системы и точка монтирования не играют никакого значения, можете принять предлагаемые по умолчанию. В нашем случае будет создано два раздела почти на весь размер диска, оставляя немного места в конце для разделов подкачки. В итоге у вас должно получиться примерно так:

mdadm-uefi-debian-ubuntu-005.jpg

В итоге каждый диск содержит три раздела: ESP, будущие разделы Linux RAID и разделы подкачки. Порядок следования разделов и размер разделов для RAID должны быть одинаковы на обоих дисках. После того, как первоначальная разметка выполнена соберем программный RAID 1 из разделов для данных, в нашем случае sda2 и sdb2:

mdadm-uefi-debian-ubuntu-006.jpg

Теперь разметим созданный массив, создав там корневой раздел. Помните, что один программный массив Linux (md-устройство) может содержать только один раздел, если вам нужно несколько разделов, то потребуется создать несколько массивов.

mdadm-uefi-debian-ubuntu-007.jpg

Далее продолжаем установку в обычном режиме, программный RAID-массив создан, а к загрузчику мы вернемся после завершения этого процесса.

Настройка загрузчика EFI и его копирование на второй раздел

Перед тем как настраивать загрузчик нам потребуется получить некоторые данные, в частности идентификаторы (UUID) разделов, их можно получить командой:

В полученном выводе прежде всего обратим внимание на идентификаторы EFI-разделов.

mdadm-uefi-debian-ubuntu-009.jpg

Как видим, разделы монтируются по идентификаторам и в случае выхода из строя первого диска вы не сможете загрузиться со второго, так как система не сможет смонтировать EFI-раздел. В некоторых источниках советуют изменить строку монтирования, используя вместо UUID явное указание устройства, например, /dev/sda1. Да, если мы отключим первый диск, то второй превратится в sda и система загрузится, но если диск выйдет из строя, физически определяясь в системе или на его месте будет новый диск без разметки, то такой фокус не сработает.

Правильно будет изменить идентификатор одного из разделов, чтобы они были одинаковы. Так как UUID раздела на первом диске уже используется в файлах конфигурации, то изменим его у раздела на втором диске.

Для работы с разделами FAT32 нам потребуется установить дополнительные утилиты:

После чего выполним:

Где 2396BE56 - идентификатор первого EFI-раздела (/dev/sda1), его следует указывать в одну строку без пробелов и тире, а /dev/sdb1 - второй EFI раздел.

Теперь получим список текущих загрузочных записей EFI:

mdadm-uefi-debian-ubuntu-010.jpg

Здесь нас интересует запись под номером 5 - debian, которая отвечает за загрузку системы и указывает на первый жесткий диск. Запомните или запишите путь к EFI-образу для загрузки системы: \EFI\debian\shimx64.efi.

Создадим аналогичную запись для второго диска:

Немного поясним назначение ключей команды:

  • -c (--create) создать новую запись
  • -d (--disk) диск, на котором находится системный раздел EFI
  • -p (--part) номер раздела EFI
  • -L (--label) метка(наименование) для загрузочной записи
  • -l (--loader) путь образа EFI для загрузки

Так как наш EFI-раздел располагается в /dev/sdb1, то в опциях -d и -p указываем /dev/sdb и 1 соответственно, а в качестве пути указываем данные из первой загрузочной записи, которые мы получили на предыдущем шаге. Обратите внимание, что при указании пути к образу EFI используется обратный слеш.

Еще раз убедимся, что запись выполнена правильно:

mdadm-uefi-debian-ubuntu-011.jpg

Обе строки должны отличаться только меткой и GUID раздела (уникальный GPT-идентификатор, который позволяет микропрограмме UEFI найти нужный раздел).

Если обнаружена ошибка, то запись следует удалить и создать заново, для удаления используйте команду:

Ключ -b (--bootnum) указывает на номер записи, а -B ( --delete-bootnum) предписывает удалить ее.

Последним шагом скопируем содержимое загрузочного раздела с первого диска на второй, для этого смонтируем второй EFI-раздел:

И скопируем на него содержимое первого EFI-раздела:

После чего отмонтируем раздел:

На этом настройка завершена, система теперь может быть успешно загружена с любого диска.

В данной статье будет рассмотрена установка ОС Debian 10 на сервер с настройкой программного RAID1. Ставится в примере система будет с ISO-образа DVD (первый диск), поэтому если у вас образ отличается, к примеру netinstall, то некоторые пункты в установщике могут не совпадать, но ко всем пунктам есть описания, поэтому особых сложностей это составить не должно.

Загружаем сервер с ISO-образа, подключенного к серверу, и видим приветственное меню установщика:


Выбираем второй пункт меню Install и жмём Enter .

Теперь нужно выбрать язык, оставляем английский и жмём еще раз Enter :


В следующих двух окнах также ничего не меняем и жмём Enter :



Теперь можем указать настройки сети, для начала выберем сетевой интерфейс, у нас это enp1s0f0 :



Указываем маску сети



ДНС сервер, который хотите использовать:


Теперь указываем имя сервера (hostname):


Сейчас нужно задать пароль для пользователя root:


Повторяем пароль root:


Теперь нужно ввести имя нового пользователя, который будет создан в системе:


Также вводим имя пользователя:


И пароль для нового пользователя:


Повторяем пароль для пользователя:


Указываем временную зону:


Ждём, пока система определит диски, и переходим к их разметке:


Разбивать диск будем вручную с настройкой RAID1, поэтому выбираем пункт Manual :


Видим, что в сервер установлено два диска одинаковых по объему, перемещаемся на первый диск и жмём на нем Enter . Соглашаемся с тем, чтобы создалась пустая таблица разделов на диске:


В списке, рядом с диском, появится пустое пространство на весь объем диска. Перейдём к нему и создадим первый раздел. Всего будет по 3 раздела на каждом диске: первый – efi раздел, второй – /boot и последний – корень / .


Выбираем первый вариант – создания новой партиции:


Указываем размер раздела:


Создаем в начале диска:


Теперь будут показаны параметры создаваемого раздела, так как первый раздел – efi-раздел, то выбираем в пункте Use as – EFI Partition System и внизу меню нажимаем Done setting up the partition :


Теперь созданный раздел также появится в списке, переходим снова к неразмеченному пространству и нажимаем Enter . Здесь шаги будут похожи, поэтому опустим их. Создаем раздел в начале диска, указываем размер. Остановимся на параметрах раздела:


Так как будем создавать RAID из дисков, то в поле Use as выбираем physical volume for RAID и завершаем настройку – Done setting up the partition .


Это был раздел под /boot , поэтому по аналогии создаем последний, третий раздел для корня, тут уже от предыдущего отличий никаких, кроме как указать объём раздела на всю неразмеченную область. В итоге получились следующие разделы на первом диске:


Точно также выбираем второй диск, создаем пустую таблицу разделов и точно такие же три раздела. По итогу получится следующая разметка дисков:


В своей установке вы можете делать разметку как вам нужно, действия по созданию разделов будут подобные.

Теперь настроим RAID1. Переходим к пункту меню Configure software RAID , установщик спросит, записать ли внесенные изменения на диск, соглашаемся:



Выбираем тип рейда, нам нужен RAID1:


Здесь оставляем цифру 2 , так как два диска:


Число spare-девайсов оставляем 0 :


Теперь выбираем партиции, которые будут включены в этот MD-девайс, нам нужны разделы по 500M для зеркалирования /boot :


Жмем Continue , снова откроется первое окно меню создания RAID’а. Нам нужно зазеркалировать ещё корневой раздел, поэтому создаем ещё один MD-девайс, только уже в списке партиций дисков выбираем разделы, которые размечали под корень, остальные действия остаются такими же. После того, как создали все MD-девайсы, жмём в меню Finish и выходим снова на список всех дисков и разделов.

Только теперь видим, что появились созданные MD-девайсы:


Переходим на первый, который размером 499.1MB и будет /boot , и жмём на нём Enter . Откроется меню настройки партиции, которое вы уже видели ранее, теперь уже в пункте Use as выбираем файловую систему ext4 и точку монтирования ( Mount point ): /boot


Точно также настраиваем второй созданный MD-девайс, только точку монтирования выбираем - / . В итоге должно получится следующее:


Листаем меню в самый низ и находим пункт Finish partitioning and write changes to disk , нажимаем.


Система выдаст предупреждение, что нет свап-раздела, нам он не нужен, поэтому выбираем No .

Проверяем ещё раз, всё ли верно, и нажимаем Yes :


Установщик запишет изменения на диск, и запустится установка системы. Ожидаем окончания процесса.


После завершения этого этапа установщик спросит, нужно ли проверить систему на наличие второго ISO-образа. Для установки системы хватает одного диска, поэтому выбираем No .


Дальше можно указать зеркало для пакетного менеджера, в данном случае указывать его не будем, при необходимости указать его можно уже на рабочей ОС.


Здесь установщик спрашивает, отправлять ли статистику об используемых пакетах, выберем No .


Теперь нужно указать, какой набор ПО будет установлен на сервер. Нужна минимальная установка, поэтому оставляем галочки только на SSH сервере и стандартных системных утилитах.


Ждём окончания установки системы.



Система установлена, можно нажать Continue , сервер будет перезагружен. Теперь можно запускаться с установленной ОС.


Для начала нам понадобится два и более идентичных блочных устройств (дисков), в зависимости от массива, который мы хотим создать. Нам нужно всего два, так как мы делаем RAID1.

Шаг 1

Выполняем обычную установку Debian и доходим до разбивки дисков.

Шаг 2

Как установить Debian на Soft RAID

Как установить Debian на Soft RAID

Выбираем manual.

Создаем пустую таблицу разделов на каждом диске.

Как установить Debian на Soft RAID

Как установить Debian на Soft RAID



Шаг 4

Создаем раздел на первом диске



Выбираем physical volume for RAID в качестве типа раздела.


Делаем то же самое со вторым диском.


Шаг 5

Выбираем configure software RAID.


Отвечаем утвердительно, чтобы применить изменения.


Создем новое MD устройство


Выберем RAID1


У нас 2 устроства, оставляем, как есть


Запасных дисков нет, оставляем 0


Выбираем идентичные разделы (например md0 → [sda1, sdb1] и md1 → [sda2,sdb2]).


Шаг 6

Создадим root файловую систему на первом разделе.



Создадим swap пространство на втором разделе.


Выбираем finish partitioning and write changes to disk и подтверждаем создание RAID1.



Шаг 7

Продолжаем процесс установки и устанавливаем grub на жесткий диск.


По-умолчанию grub устанавливается только на один диск поэтому переключитесь на вторую (ALT + F2) или третюю (ALT + F3) консоль и выполните установку grub на второй диск перед перезагрузкой.


Управление программным RAID1 в ОС осуществляется через утилиту mdadm.

Читайте также: