Установка proxmox на raid 1

Обновлено: 04.07.2024

Посмотрим список обнаруженных в системе физических дисков:

Убедимся, что система загружается с первого жесткого диска /dev/sda

Мы должны увидить нечто подобное:

/dev/sda1 504M 34M 445M 8% /boot

Если раздел boot находится не на /dev/sda1, необходимо отключить компьютер и поменять местами sata кабеля подключенные к жестким дискам.

Скопируем структуру разделов с первого диска на второй

Сменим тип разделов на fd (Linux raid autodetect)

Проверим список разделов

Загрузка и установка компонентов [ ]

  • mdadm - менеджер программного RAID для Linix
  • initramfs -временная файловая система, использующаяся ядром при начальной загрузке

Все параметры по умолчанию

Подключение модуля RAID [ ]

Далее необходимо убедится, что на дисках не осталось суперблоков. Эти блоки являются метками, которые проставляются в конец диска если он являлся частью рейд массива ранее. Часто они не удаляются в процессе форматирования жесткого диска при установке PROXMOX и их нужно затереть вручную!

Если все в порядке и суперблоков нет, то увидим нечто подобное:

Если есть, то перед продолжением настройки их необходимо удалить! Удаление суперблоков

Настроем почтовую подсистему и параметры локали Настройка параметров mdadm [ ]

Создадим файл настроек, предварительно сохранив оригинальный

Предварительная настройка RAID в режиме деградации [ ]

Если все впорядке и массивы создались, сохраним параметры массива в конфигурационном файле:

Проверим, что информация о наших массивах записалась в файл параметров

настройка загрузочного меню grub [ ]

Добавим загрузочный образ initramfs

Заменим файл загрузочного меню и создадим свой, предварительно сохранив оригинальный

Перенос данных из LVM на второй диск [ ]

Создаем LVM-раздел на втором диске и добавляем его в группу pve

Переместим данные с LVM-раздела первого диска, на RAID-LVM-раздел второго диска. Процедура может продолжаться очень долго. Время зависит от объема и скорости жестких дисков.

Убираем из LVM первый диск

Перенос загрузочных файлов на RAID [ ]

Подготовим загрузочный RAID-раздел второго диска и скопируем на него все файлы из папки /boot первого диска

Настроим параметры подключения системных дисков с учетом загрузки с raid. Пересоздадим конфигурационный файл fstab предварительно сохранив оригинальный.

Перемонтируем загрузочный раздел

Подключаем первый (исходный) диск в RAID [ ]

Копируем структуру разделов со второго диска на первый

Добавим разделы первого диска в RAID

Осталось обновить загрузчик на обоих дисках. Запускаем

И последовательно вводим:

Проверить в каком состоянии находится массив можно командой:

Смысл резервирования дисковой системы заключается не в факте самого наличия резервирования, а в возможности в случае возникновения неисправности любого из жестких дисков оперативно и без риска для данных его заменить. В этом должны помочь своевременные уведомления на почту и четкая инструкция по замене неисправного диска с восстановлением избыточности.

Определение неисправного диска [ ]

  • Выясняем какой из жестких дисков "вылетел" из массива

видим примерно следующее


[_U] - Означает что в массиве отсутствует диск (рабочий массив выглядит так [UU]) (F) - означает, что диск дал сбой. В примере вылетел из массива и дал сбой диск sda. Всё дальнейшее описание будет описывать ситуацию с заменой диска sda, при этом рабочим остался диск sdb.

  • Необходимо выяснить, какой из дисков нужно физически отключить. В этом поможет информация о серийных номерах. Например смотрим информацию о модели и серийном номере оставшегося рабочего диска sdb:

Смотрим серийники на наклейках жестких дисков. Соответственно диск с серийным номером 9QZCNTNH оставляем в системе, другой отключаем.

Замена неисправного диска [ ]

Выполнять будем горячую замену диска без выключения и перезагрузок сервера.

1. Очистим информацию о диске sda в массивах.

2. Удаляем диск физически отключив sata шлейф.

3. Подключаем новый жесткий диск (SATA) равного до байта или большего размера на "на горячую".

4. Выполняем сканирование порта, в который подключили жесткий диск.

где host0 номер порта.

  • Если нет точной уверенности, в какой именно порт воткнут новый диск, необходимо просканировать все имеющиеся порты. Список портов можно узнать:

5. Смотрим системный журнал, какое имя получил новый жесткий диск в системе:

Ищем последнюю строку, например:

Значит имя нового диска - sda

  • Если новый диск физически при подключении получил другое имя например sdc, надо отключить его программно выполнив:

После чего убедится что имя старого диска /dev/sda отсутствует в описании массива и если это не так выполним очистку как описано выше выше в пунке 1.

Затем выполнить сканирование sata портов.

Активация нового диска [ ]

Чтобы не ошибиться в дальнейших действиях и не испортить данные создадим переменные с именами дисков.

Произведем копирование структуры разделов с рабочего на чистый диск и подключим его к массиву

И последовательно вводим, где 0 это номер диска:

Смотрим процесс синхронизации

Как только процесс завершиться, новый диск станет полноценным участником массива и в случае выхода из строя другого диска, система загрузится с него.

У меня есть немного старая система ProxMox 5.4-13 на одном диске на моем сервере, мне нужно добавить этот диск ProxMox в RAID1, как я могу это сделать?

p.p.s. Я попробовал после создания md0, использовать dd: dd if=/dev/sda of=/dev/md0, но после этого я получил ошибку - несоответствие размера, и мой массив рассыпался…

Что можно сделать, кто что посоветует, заранее ВСЕМ спасибо!


Начнём с простого, как сейчас диски разбиты? Lvm?

В случае lvm я бы закинула диск большего размера, разметила 10M под bios partitions, остальное под md raid. Далее - создаёшь raid1, но с одним диском, делаешь pvmove на него, меняешь на такой же размер существующий диск, копируешь разметку, добавляешь в рейд и ставишь grub на оба диска.

Все это можно поднять в kvm и протестить там

Переезд с одиночного диска на mdadm raid1 - довольно простая задача для админа, но имеет несколько неявных подводных камней. Если ты не знаешь даже с какой стороны за неё браться - лучше обратись к спецу, иначе инфу потеряешь (это я про dd с диска в массив)


Покажи lsblk, pvs, vgs, lvs, zpool status, пожалуйста.


Внемли предостережению этого господина и сделай полный бэкап перед началом работ!

Потренироваться вначале можешь на виртуалке, воссоздав там аналогичную конфигурацию. Не обязательно именно proxmox, можно и просто debian.


Спасибо! Поднял VBox для тестов, по вашему плану:

Подсунул диск sdb, сделать fdisk /dev/sdb n p 1 +10M, прочее под /dev/sdb n p 2 верно?

Далее делаем RAID1 с чем /dev/sdb2?

Далее pvmove на md0p1?… можно чуть подробнее по командам с шагами ПЛЗ? Заранее спасибо!


Для lvm отдельная настройка raid давно не особо нужна. Если есть, то второй диск можно сразу добавить в VG и включить резервирование для каждого LV. Это если используется тонкий lv data для файлов образов. Для тонкого pool тоже, вроде. По идее. Лично не пробовал.

Вообще PVE открещивается от программных вывертов - поддерживать не будут.


ну так там же не все в LVM, смотрите выше выложил боевую машину… черт ногу сломит… ( мне нужен RAID1 чтобы если диск сдох, ProxMox загрузился бы… Если не найду решения, придется рулить через RAID железки, а это совсем другая история…

Кто может на пальцах объяснить, как загнать это чудо в RAID и каое лучшее решение?


Спасибо за ответ. Вот БОЕВАЯ МАШИНА с нее буду делать:

Принцип прост. Вставляется второй диск, на нём делается «однокрылый» mdadm raid1 с missing вторым диском, форматируются разделы, основная система уводится в init 1 для консистентности, переносятся файлы (лично я переношу rsync’ом), потом правятся все fstab и grub.conf, перегенерируется initramfs (чтобы туда добавился модуль mdadm) и пробуешь загрузиться с перенесённой системы. Проверяешь на 100%, что всё ок и тогда сносишь разметку на старом диске, делаешь её такой же как и на новом и добавляешь диск в массив.

Заодно можешь место под виртуалки переделать с ext4 на zfs.

zemidius ★ ( 18.03.21 12:54:38 )
Последнее исправление: zemidius 18.03.21 12:55:29 (всего исправлений: 2)


Спасибо, мне это тоже все четко понятно. Можете просто команды накидать друг за другом ПОЖАЛУЙСТА? Google такой Google, масса вариантов, а толку 0… Очень бы пригодился набор команд?

Можете просто команды накидать друг за другом

Нет, за этим надо в Job, извини. Это всё-таки форум по линуксу, а не по «сделай за меня работу бесплатно». Направление есть, подводные камни в виде правок fstab/grub и перегенерации initramfs рассказал, дальше пробуй сам на виртуалке и спрашивай, что будет непонятно.


Никто не просит сделай за меня, спасибо БОЛЬШОЕ уже за советы, ок вопрос такой я сам накидаю, но есть сразу вопросы, если можно:

Вставил 2й диск raid делать на весь диск или на партицию? Если сделаю на весь, не останется места для /boot и grub скажет что место под запись занято? Команда такая: mdadm –create /dev/md0 –level=1 –raid-devices=2 missing /dev/sdb или делаем начала sdb1 и на нем уже mdadm –create /dev/md0 –level=1 –raid-devices=2 missing /dev/sdb1? Тогда как потом будет нормальный диск ту диск raid на одном только на партиции а на втором полный на весь диск?

Я с Ubuntu в основном работал, по резервированию, монтированию, развертыванию служб типа apache, bind, nginx, ftp, postfix и тд, с загрузкой дел не имел, в общих моментах читал и представляю себе что и как, но raid всегда били на стороне железок HP серверов… Поэтому немного непонятно, зачем - основная система уводится в init 1 для консистентности?

Перегенерируется initramfs (чтобы туда добавился модуль mdadm) и тут прошу подробней и хоть 1 пример, для чего это делать?

Есть вопросы с переносом LVM, тк переносится не просто система, в ProxMox не зря есть типа миграции перенос самой системы ProxMox, там 3 раздела, root, swap и lvm, как первые сделать на созданном raid диске без проблем и потом rsync_ом данные туда, а что делать с LVM?

Еще момент, при переносе боевой машины, там куча примонтированных блочных дисков, я правильно понимаю, нужно сначала систему перетащить root, swap, lvm, как то отредактировать grub и затем уже переносить и монтировать остатки?

СПАСИБО! Это правда не сделай за меня, я сам хочу понять и научиться работать с этой частью linux! Нужны куски опыта который я не имею, от этого просил примерные команды, чтобы понять ход действий…


Еще момент… Может все же есть другой способ обезопасить себя от выхода из строя всего диска в корзине, кроме как oldschool raid1 disk to disk? К примеру тема с LVM резервированием?


Но на мой пост с вопросами ProxMox VE установить новый диск и загнать в RAID1 (комментарий) все же может кто то ответить, для тестов и полного понимания процесса?

Если не можешь с половинкой зеркала, сделай по-другому. Отрежь на твоих сторах партицию достаточного размера, сделай её lvm2 PV и введи в VG pve, перемести с sdb3 всё туда, выведи sdb3 из VG pve.

Далее можешь сделать просто целое обычное зеркало на sda3 + sdb3, и вернуть таким же образом всё на зеркало. Вроде бы где-то RedHat рекомендовал в своих best practices именно что LVM over MD RAID.

Дальше, как обычно, переустановка GRUB2 и initrd.

Вставил 2й диск raid делать на весь диск или на партицию?

Можно диск, но лучше олдскульно - партиции. Минимально /boot, swap и /.

Поэтому немного непонятно, зачем - основная система уводится в init 1 для консистентности?

Ну вот смотри, у тебя прод запущен и работает, а ты в это время его копируешь. Как думаешь консистентен ли будет бэкап?

Правятся все fstab и grub.conf на уже перенесенном raid верно?

Конечно. Текущая система то грузится нормально.

Перегенерируется initramfs (чтобы туда добавился модуль mdadm) и тут прошу подробней и хоть 1 пример, для чего это делать?

Чтобы свежеперененённая система при попытке загрузки грузила поддержку mdadm raid1 (модуль, ЕМНИП, raid1.ko), иначе увидишь unable to mount root при незагрузке.

Тут я особо не подскажу, т.к. очень мало его применял. Искать инфу по pvmove и смотри тред перенос живой centos+lvm на raid1

Боковая колонка

Рубрики

Свежие записи

Свежие комментарии

  • Uriy к записи Ubuntu 20.04 настройка после установки
  • Илья к записи Установка Nextcloud на чистый Centos 8
  • Георгий к записи Как изменить расположение папки data в Nextcloud snap
  • MertviyProrok к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации
  • Антон к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации

Боковая колонка

Метки

Установка Proxmox Zfs RAID1

Немного расскажу о Proxmox. Это система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Использует гипервизор KVM и контейнеризацию LXC.

Содержание

Предисловие

Установим Proxmox с файловой системой Zfs и программным RAID1.

Proxmox поддерживает и другие файловые системы, но есть нюансы.

Например, Proxmox из коробки поддерживает установку программного raid только с файловой системой Zfs. Поэтому если вы хотите raid на mdadm, то тут у вас 2 варианта:

  • Устанавливать Debian и настраивать на нем raid на mdadm, потом сверху накатывать Proxmox (он поддерживает установку на Debian)
  • Или установить Proxmox на один диск и потом делать raid на mdadm.

Но есть еще одна сложность и связана она с Uefi Bios. Дело в том, что Grub не поддерживает синхронизацию загрузочных разделов в Uefi Bios. Поэтому вам или вручную их нужно будет синхронизировать, или писать скрипт. Поэтому при установке Proxmox с Zfs и программным RAID в качестве загрузчика, используется systemd-boot. Он работает с EFI Service Partition (ESP) и, с помощью его готового скрипта, поддерживает разделы в синхронизированном состоянии.

Файловая система zfs очень зависимая от количества оперативной памяти и требует память с коррекцией ошибок (ECC). Примерные требования 4 ГБ + 1 ГБ оперативной памяти для каждого ТБ необработанного дискового пространства.

Другие варианты установки рассмотрим в следующих статьях.

Подключаем загрузочный диск Proxmox

Подключаем загрузочный диск и видим стандартное меню как в других дистрибутивах.

Выбираем Install Proxmox VE.

Лицензия

Читаем лицензию и принимаем. Нажимаем на I agree.

Разметка диска

Теперь нам нужно разметить диск. Нажимаем Options.

В разделе Filesystem выбираем zfs (RAID1).

У меня сейчас в виртуальной машине всего 2 диска, если у вас больше, в таком случае у вас будут Harddisk 2, Harddisk 3 и т.д. их нужно убрать.

Теперь переходим во вкладку Advanced Oprions.

Есть 4 параметра:

Рекомендуется сжатие lz4.

Есть 5 параметров:

Язык и время

Пароль администратора и E-Mail

Экран проверки информации

Проверяем все ли верно указано и нажимаем Install.

Процесс установки

Установка происходит достаточно быстро.

Установка завершена

Видео Установка Proxmox Zfs RAID1

top

Главное меню

Ставим Proxmox на программный RAID
18.01.13 18:05

Proxmox Виртуальная среда является простым в использовании Открытая платформа виртуализации источника для запуска виртуальных устройств и виртуальных машин. Proxmox официально не поддерживает программный RAID, но я нашел программное обеспечение рейда, чтобы быть очень стабильным, а в некоторых случаях повезло больше, чем с аппаратным RAID.
Я не даю никаких гарантий, что это будет работать для Вас!

Обзор
Первая установка Proxmox V2 обычным способом с CD скачать с Proxmox. Далее мы создаем массив RAID 1 на второй жесткий диск и перенести Proxmox установить его.
Затем мы корректируем настройки Grub так он будет загружаться с новой установки.

Кредиты
Эти следующие учебники, что я использовал:

Установка Raid
Примечание:Это руководство предполагает, что Proxmox установлен /dev/sda и запасной диск /dev/sdb. Используйте следующую команду для просмотра текущей разделов:

Вывод должен выглядеть следующим образом:

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x0009f7a7

Device Boot Start End Blocks Id System

/dev/sda1 * 1 66 523264 83 Linux

Partition 1 does not end on cylinder boundary.

/dev/sda2 66 121602 976237568 8e Linux LVM

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00078af8

Device Boot Start End Blocks Id System
Существует еще здесь, но мы только с первых двух дисков, на данный момент. Мы видим, что /dev/sda имеет Proxmox установки и /dev/sdb не имеет разделов.
Сначала установите программное обеспечение рейда ака mdraid:

apt-get install mdadm

В окне настроек выбрать пакет хорошо то все .
Далее мы начинаем модули ядра с Modprobe:

Вывод должен выглядеть следующим образом:

Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

sfdisk -d /dev/sda | sfdisk --force /dev/sdb

Вывод должен быть:

Checking that no-one is using this disk right now .

Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track

Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

/dev/sdb1 0 - 0 0 0 Empty

/dev/sdb2 0 - 0 0 0 Empty

/dev/sdb3 0 - 0 0 0 Empty

/dev/sdb4 0 - 0 0 0 Empty

Units = sectors of 512 bytes, counting from 0

/dev/sdb1 * 2048 1048575 1046528 83 Linux

/dev/sdb2 1048576 1953523711 1952475136 8e Linux LVM

/dev/sdb3 0 - 0 0 Empty

/dev/sdb4 0 - 0 0 Empty

Warning: partition 1 does not end at a cylinder boundary

Successfully wrote the new partition table

Re-reading the partition table .

If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)

to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1

Checking that no-one is using this disk right now .

Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track

Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

/dev/sdb1 * 0+ 65- 66- 523264 83 Linux

/dev/sdb2 65+ 121601- 121536- 976237568 8e Linux LVM

/dev/sdb3 0 - 0 0 0 Empty

/dev/sdb4 0 - 0 0 0 Empty

No partitions found


sfdisk: no partition table present.
Теперь нам нужно изменить типы разделов в Linux RAID автоопределение:


WARNING: DOS-compatible mode is deprecated. It's strongly recommended to

switch off the mode (command 'c') and change display units to

sectors (command 'u').


Command (m for help): t

Partition number (1-4): 1

Hex code (type L to list codes): fd

Changed system type of partition 1 to fd (Linux raid autodetect)


Command (m for help): t

Partition number (1-4): 2

Hex code (type L to list codes): fd

Changed system type of partition 2 to fd (Linux raid autodetect)


Command (m for help): p

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00078af8


Device Boot Start End Blocks Id System

/dev/sdb1 * 1 66 523264 fd Linux raid autodetect

Partition 1 does not end on cylinder boundary.

/dev/sdb2 66 121602 976237568 fd Linux raid autodetect


Command (m for help): w

The partition table has been altered!


Calling ioctl() to re-read partition table.

Как мы видим, мы имеем два Linux автоопределение рейд разделов /dev/sdb.
Чтобы убедиться, что нет никаких остатков предыдущих установок RAID на /dev/sdb, мы запустим следующую команду:

mdadm --zero-superblock /dev/sdb1

mdadm: Unrecognised md component device - /dev/sdb1

mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sdb1

mdadm: Note: this array has metadata at the start and

may not be suitable as a boot device. If you plan to

store '/boot' on this device please ensure that

your boot-loader understands md/v1.x metadata, or use

Continue creating array? y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

md0 : active (auto-read-only) raid1 sdb1[1]

523252 blocks super 1.2 [2/1] [_U]


md1 : active (auto-read-only) raid1 sdb2[1]

976236408 blocks super 1.2 [2/1] [_U]

теперь должна показывать, что у вас есть два деградировавших массивов RAID ([_U] или [U_] означает, что массив деградировали в то время как [UU] означает, что массив в порядке).
Теперь мы должны настроить /etc/mdadm/mdadm.conf (который не содержит никакой информации о наших новых массивов RAID еще нет) в новой ситуации:

cp /etc/mdadm/mdadm.conf /etc/mdadm/mdadm.conf_orig

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Стандартный Proxmox установки использует /dev/sda1 для загрузочного раздела и использует LVM на /dev/sda2 для корневой, подкачки данных и разделов.
Если вы новичок в LVM разделы, я рекомендую вам проверить ссылку по кредитам в верхней части, как это.
Чтобы увидеть LVM разделы используйте команду:

Это должно вывести:

ACTIVE '/dev/pve/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve/root' [96.00 GiB] inherit

ACTIVE '/dev/pve/data' [804.02 GiB] inherit
Теперь мы создадим новую группу томов памед pve1 и соответствия логических томов для подкачки, корневые и данных.
Первый физического объема:

Это выводит
Writing physical volume data to disk "/dev/md1"

Physical volume "/dev/md1" successfully created

показывает наш новый физический объем:

PV /dev/sda2 VG pve lvm2 [931.01 GiB / 16.00 GiB free]

PV /dev/md1 lvm2 [931.01 GiB]

Total: 2 [1.82 TiB] / in use: 1 [931.01 GiB] / in no VG: 1 [931.01 GiB]

Теперь давайте создадим группу томов pve1 и добавить к нему /dev/md1:

vgcreate pve1 /dev/md1

Это должно показать успех:
Volume group "pve1" successfully created
Теперь нам нужно создать наш логических томов. Я буду использовать те же самые размеры и имена томов из lvscan команды выше.

lvcreate --name swap --size 15G pve1

lvcreate --name root --size 96G pve1

lvcreate --name data --size 804G pve1
Если бы это было успешно, то команда:

ACTIVE '/dev/pve/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve/root' [96.00 GiB] inherit

ACTIVE '/dev/pve/data' [804.02 GiB] inherit

ACTIVE '/dev/pve1/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve1/root' [96.00 GiB] inherit

ACTIVE '/dev/pve1/data' [804.00 GiB] inherit
Как вы можете видеть теперь у нас есть два набора тех же логических томов. Один на /dev/sda2 и один /dev/md1.
Теперь нам нужно создать файловые системы:

mkswap /dev/pve1/swap -f

mkfs.ext4 /dev/pve1/data
Если бы это было успешно, то это время для копирования файлов в новый массив RAID.
Сначала установите новые разделы:

mount /dev/md0 /mnt/boot

mount /dev/pve1/root /mnt/root

mount /dev/pve1/data /mnt/data

Настройка системы для использования RAID 1
Теперь мы должны изменить /etc/fstab:

cp /etc/grub.d/40_custom /etc/grub.d/09_swraid1_setup

Убедитесь, что вы используете правильную версию ядра в menuentry строфа (в linux и initrd линии). Вы можете найти его командой:

GRUB_DEFAULT=0
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX=""

писать нашего нового ядра строфа из /etc/grub.d/09_swraid1_setup к/boot/grub/grub.cfg.
Далее настроить наш виртуальный диск к новой ситуации:

Теперь скопируйте файлы:

cp -dpRx / /mnt/root

cp -dpRx /boot/* /mnt/boot

cp -dbRx /var/lib/vz/* /mnt/data
Теперь перезагрузите систему и надеемся, что она загружается нормально с нашей массивы RAID:

Если все пойдет хорошо, вы сможете увидеть наши новые логические тома root и data и /dev/md0 установлены:

/dev/mapper/pve1-root on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

/dev/mapper/pve1-data on /var/lib/vz type ext4 (rw)

/dev/md0 on /boot type ext4 (rw)

fusectl on /sys/fs/fuse/connections type fusectl (rw)

beancounter on /proc/vz/beancounter type cgroup (rw,name=beancounter)

container on /proc/vz/container type cgroup (rw,name=container)

fairsched on /proc/vz/fairsched type cgroup (rw,name=fairsched)
Теперь нам нужно удалить группу томов pve:

Do you really want to remove active logical volume root? [y/n]: y

Logical volume "root" successfully removed

Do you really want to remove active logical volume swap? [y/n]: y

Logical volume "swap" successfully removed

Do you really want to remove active logical volume data? [y/n]: y

Logical volume "data" successfully removed

Volume group "pve" successfully removed

Labels on physical volume "/dev/sda2" successfully wiped
Теперь мы должны изменить типы разделов из наших трех разделов для Linux /dev/sda рейд автоопределение, а также:


WARNING: DOS-compatible mode is deprecated. It's strongly recommended to

switch off the mode (command 'c') and change display units to

sectors (command 'u').


Command (m for help): t

Partition number (1-4): 1

Hex code (type L to list codes): fd

Changed system type of partition 1 to fd (Linux raid autodetect)


Command (m for help): t

Partition number (1-4): 2

Hex code (type L to list codes): fd

Changed system type of partition 2 to fd (Linux raid autodetect)


Command (m for help): p


Disk /dev/sda: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x0009f7a7


Device Boot Start End Blocks Id System

/dev/sda1 * 1 66 523264 fd Linux raid autodetect

Partition 1 does not end on cylinder boundary.

/dev/sda2 66 121602 976237568 fd Linux raid autodetect


Command (m for help): w

The partition table has been altered!


Calling ioctl() to re-read partition table.

Теперь мы можем добавить /dev/sda1 и /dev/sda2 в /dev/md0 и /dev/md1:

mdadm --add /dev/md0 /dev/sda1

mdadm --add /dev/md1 /dev/sda2
Теперь взглянем на:

. и вы увидите, что RAID-массивовповторно быть синхронизированы.
Затем установите /etc/mdadm/mdadm.conf к новой ситуации:

cp /etc/mdadm/mdadm.conf_orig /etc/mdadm/mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

Теперь удалите /etc/grub.d/09_swraid1_setup .

rm -f /etc/grub.d/09_swraid1_setup

. и обновить наш GRUB2 конфигурации загрузчика:

grub-install /dev/sdb
Перезагрузка системы:

Она должна загружаться без проблем.
Вот и все - вы успешно создали программное обеспечение RAID1 на Proxmox системы!
Наслаждайтесь!

Читайте также: