Proxmox не видит raid

Обновлено: 04.07.2024

Proxmox - популярная система виртуализации. Для того чтобы максимально эффективно использовать предоставленные операционной системой возможности, давайте разберемся как расширить хранилище данных на жестком диске. Для хранения данных в Proxmox VE можно использовать внешние хранилища, сетевые ресурсы или подключать к системе дополнительные HDD или SSD, а также использовать контроллеры SCSI или RAID.

Обращу ваше внимание на особенность системы: типы хранилищ, кроме Образ диска и Виртуальная машина можно размещать только на подключенных хранилищах с типом Каталог. В этой статье мы рассмотрим как добавить диск Proxmox на примере Debian.

Добавление диска в Proxmox VE

В рассматриваемом случае, подключен и предварительно настроен в BIOS компьютера SATA HDD емкостью 120 Гб. Он полностью очищен и не размечен ни под какую-либо ОС и определился в системе как устройство /dev/sdb. В Proxmox VE подключения к хранилищу логически разделены по вкладкам Датацентр, где можно подключить сетевые хранилища, и каждой машины в отдельности, в нашем случае локальная машина называется PVE. Ниже представлены варианты, предлагаемые к созданию из вкладки Датацентр:

7fRjjvO6ixwy7xEKskP5A+4lkQkD6dvHAAAAAElFTkSuQmCC

1. Разметка диска

Для операций с диском давайте использовать в режиме XFCE4 от имени суперпользователя root дисковую утилиту GParted:

FhxO1RuNhJZzfp0uL3vfnaxNUrY16uiXAAvcSLIib31AGFHGLnH0sC0NW+VHkBAAAAAElFTkSuQmCC

Выберите меню Устройство, пункт Создать таблицу разделов:

V2UO6IiDR0IAAAAASUVORK5CYII=

В результате утилита предложит создать несколько видов разделов, в том числе: msdos (MBR), GPT, mac и прочие. Для целей подключения дополнительного хранилища Proxmox VE, рассмотрим создание раздела GPT с различным видом файловых систем. Для этого выберите GPT и нажмите Применить.

AT7CGhDla66OAAAAAElFTkSuQmCC

2. Поиск раздела в консоли Proxmox VE

Перейдите в раздел PVE, затем в раздел Диски, там должен появиться размеченный под GPT диск /dev/sdb с типом unknown, не используемый (колонка Использование), в колонке GPT должно быть указано Да, а в колонке Использование можно увидеть тип диска, у /dev/sdb его пока нет:

V1tGQzKz8f1Zrqt4GethqTzmQwEEK8Rr6KwYSV16OU3dx6XlPbEgiEyjU9KEQIof8HNvi7Xy8RK2wAAAAASUVORK5CYII=

3. Форматирование диска средствами Proxmox VE

В панели управления ProxmoxVE можно отформатировать подготовленный диск под файловую систему LVM или ZFS.

  • Файловая подсистема LVM позволяет использовать разные области одного жёсткого диска и/или области с разных жёстких дисков как один логический том. Реализована с помощью подсистемы device mapper. Активно используется ProxmoxVE как основная файловая система.
  • Файловая система ZFS, разработки SUN Microsystems, поддерживает большие объёмы данных, объединяет концепции файловой системы, массивов RAID, менеджера логических дисков, принципы легковесных файловых систем, предоставляет простое управление томами хранения данных.

Так же мы создадим раздел на диске GPT, который отформатируем под EXT4, журналируемой файловой системой, которая используется в операционных системах с ядром Linux.

Для создания LVM раздела перейдите в раздел Диски машины PVE, выберите пункт LVM , Создать: Volume Group, укажите диск /dev/sdb и задайте его имя, например backup.

kHQAAAABJRU5ErkJggg==

Тот же способ подходит и для создания раздела LVM-Thin: LVM Thin Provisioned volume, тонкие (разреженные) тома, которые занимают столько места, сколько требуется системе.

Для создания ZFS раздела снова используем не размеченный диск, ранее размеченный диск можно снова вернуть в состояние не размеченного с помощью GParted.

8F7AZ7Zi7J7jqAAAAAElFTkSuQmCC

Перейдите в панели управления Proxmox VE в меню Диски машины PVE, затем в разделе ZFS выберите кнопку Создать: ZFS. Снова задайте имя хранилища backup, если необходимо включите сжатие, и нажмите кнопку Создать.

HQpx2TBV5SwAAAAASUVORK5CYII=

Зеленый значок возле ONLINE говорит о том, что диск доступен для работы. Также из панели управления Proxmox VE можно управлять состоянием хранилища, добавлять диски.

V7EqylOsbwQAAAABJRU5ErkJggg==

На созданных и подключенных через панель управления Proxmox VE томах LVM можно хранить образы и диски виртуальных машин. Для создания остальных объектов необходимо примонтировать диск к файловой системе хоста PVE. Теперь вы знаете как добавить жесткий диск proxmox.

4. Форматирование диска в Ext4 с помощью терминала

Для разметки диска GPT и форматирования раздела под файловую систему EXT4 воспользуйтесь приложением Терминал. Ниже показано как выглядит структура файловой системы на хосте PVE:

AZsd3r95UXCwAAAAAElFTkSuQmCC

С помощью консольной утилиты fdisk произведите создание системы GPT и создайте новый раздел на диске /dev/sdb:

Q2bl2dtDZ5PWrsSsCAADer7M9vBSugySvXySpntgVAQAAbyRpSjkNWdy9Rg7HhLx+NnZFAADAG3Z2SimlnHNxH3kMCHn9fOyKAACA96Mq2VK25B5jKdxp5A38D1U0cgOPYolFAAAAAElFTkSuQmCC

sudo fdisk /dev/sdb

В результате в системе должен появиться раздел /dev/sdb1 диска /dev/sdb. Создадим файловую систему:

sudo mkfs.ext4 /dev/sdb1

По окончании форматирования, создайте точку монтирования /backup:

Отредактируйте файл /etc/fstab, в котором указываются точки монтирования дисков системы, таким образом, чтобы в конце файла была строка:

sudo vi /etc/fstab

/dev/sdb1 /backup ext4 defaults 0 2

AVizrm1hxL85AAAAAElFTkSuQmCC

Дайте системе команду монтировать все диски, указанные в файле fstab:

clvp4QPw+2wAAAABJRU5ErkJggg==

Таким же путем можно отформатировать диск LVM под EXT4, чтобы примонтировать его к файловой системе.

8BQmBzjJRkZl8AAAAASUVORK5CYII=

Создайте диск LVM, на этот раз из программы Терминал. Для этого необходимо подготовить диск с помощью консольной утилиты fdisk:

sudo fdisk /dev/sdb

sudo pwcreate /dev/sdb1

sudo vgcreate pve-test-bkp /dev/sdb1

sudo lvcreate -L 110G -n backup pve-test-bkp

ls /dev/mapper

H4+D9sLGGV5CAAAAAElFTkSuQmCC

Сознательно создавались длинные имена файлов, чтобы показать, как будет именоваться результат выполнения комманд: LVM-раздел pve—test—bkp-backup, расположенный в /dev/mapper теперь можно отформатировать в файловую систему EXT4 и примонтировать в раздел файловой системы /backup точно также, как ранее монтировался /dev/sdb1:

mkfs.ext4 /dev/mapper/ pve—test—bkp-backup

В файле /etc/fstab уберите вместо /dev/sdb1 укажите новый раздел, чтобы выглядело так:

sudo vi /etc/fstab

/dev/mapper/ pve—test—bkp-backup /backup ext4 defaults 0 2

Дайте команду системе перемонтировать диски согласно данным /etc/fstab:

zEe9xzxgPtc+wAAAABJRU5ErkJggg==

5. Использование диска для хранения архивных копий, образов и шаблонов

После удачного монтирования диска осталось добавить диск proxmox в панели управления. Для этого нажмите кнопку Добавить в разделе Хранилище хоста PVE и укажите тип Каталог. Выберите ID backup, каталог укажите /backup, в содержимом выберите Резервная копия и любые другие пункты с помощью зажатой клавиши на клавиатуре Shift и кликов мышкой.

ACenkue3ciwDAAAAAElFTkSuQmCC

В меню Пулы Датацентра создайте пул backup и добавьте созданное хранилище backup. Это позволит выбирать пул при создании виртуальных машин, создании бекапов и других файловых операций.

MlDZsTLQbKAAAAABJRU5ErkJggg==

Настройте резервную копию, на примере виртуальной машины CentOS. Для этого перейдите в виртуальную машину, затем в пункт Резервная копия, выберите в правом углу Хранилище backup, нажмите кнопку Создать резервную копию сейчас. После заполнения полей и нажатия кнопки Резеврная копия будет запущен фоновый процесс создания резервной копии.

B9Gs1jxasPOJAAAAAElFTkSuQmCC

6. Использование диска для хранения виртуальных машин

При создании хранилища backup были выбраны не только резервные копии, поэтому его можно использовать для создания образов виртуальных машин. Те диски, которые были инициализированы из панели управления Proxmox VE, могут размещать образы виртуальных машин, но не другие объекты.

При создании виртуальной машины можно выбирать любое хранилище, и оно будет поддерживать объекты, которые создаются при создании виртуальной машины. На скриншоте ниже приведены минимальный набор объектов любого хранилища Proxmox VE:

V7EqylOsbwQAAAABJRU5ErkJggg==

Выводы

Сегодня вы узнали как выполняется подключение дисков Proxmox, путями создания файловой системы на чистом не размеченном диске, с различными методами разметки диска, вариантами подключения хранилища к гипервизору.

Нет похожих записей


Статья распространяется под лицензией Creative Commons ShareAlike 4.0 при копировании материала ссылка на источник обязательна.

Боковая колонка

Рубрики

Свежие записи

Свежие комментарии

  • Uriy к записи Ubuntu 20.04 настройка после установки
  • Илья к записи Установка Nextcloud на чистый Centos 8
  • Георгий к записи Как изменить расположение папки data в Nextcloud snap
  • MertviyProrok к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации
  • Антон к записи Как перенести Nextcloud snap на Nextcloud ручной конфигурации

Боковая колонка

Метки

Proxmox восстановление Zfs RAID1 после замены диска (efi bios)

Рассмотрим восстановление Zfs RAID1, если нам требуется замена диска. Напомню, что у нас Proxmox установлен в efi bios и там используется загрузчик systemd-boot.

Содержание

Проверка статуса пула

Предположим у нас полетел диск и мы его заменили. Видим, что наш пул в статусе DEGRADED и не видит наш старый диск.

Просмотреть статус пула можно в веб.

Строчку после was (/dev/disk/by-id/ata-VBOX_HARDDISK_VB06e95e61-403d7e2b-part3) копируем, она нужна нам будет для удаления диска.

Удаляем мертвый диск

Удаляем мертвый диск:

Готовим новый диск к восстановлению загрузчика и raid1

Копируем таблицу разделов с рабочего диска sda на новый диск sdb:

Генерируем уникальные UUID для /dev/sdb:

Восстанавливаем загрузчик systemd-boot

Нужно восстановить загрузчик, для этого отформатируем раздел /dev/sdb2 как ESP:

Настроим раздел /dev/sdb2 для включения в Proxmox VE kernel update synchronization mechanism, чтобы загрузочные разделы синхронизировались:

Обновим конфигурацию всех ESP, чтобы скопировать ядра и засинхронить все ESP на наших дисках:

Восстанавливаем raid1

Создадим raid1 с нашим новым диском (создавать пул лучше по id дисков, чтобы при смене порта диска zfs могла найти диски ):

И подождем когда он восстановит данные на новом диске.

Просмотреть проценты восстановления можно с помощью команды:

На этом все. Zfs RAID1 восстановлен, загрузочная область восстановлена.

Видео Proxmox восстановление Zfs RAID1 после замены диска (efi bios)

Посмотрим список обнаруженных в системе физических дисков:

Убедимся, что система загружается с первого жесткого диска /dev/sda

Мы должны увидить нечто подобное:

/dev/sda1 504M 34M 445M 8% /boot

Если раздел boot находится не на /dev/sda1, необходимо отключить компьютер и поменять местами sata кабеля подключенные к жестким дискам.

Скопируем структуру разделов с первого диска на второй

Сменим тип разделов на fd (Linux raid autodetect)

Проверим список разделов

Загрузка и установка компонентов [ ]

  • mdadm - менеджер программного RAID для Linix
  • initramfs -временная файловая система, использующаяся ядром при начальной загрузке

Все параметры по умолчанию

Подключение модуля RAID [ ]

Далее необходимо убедится, что на дисках не осталось суперблоков. Эти блоки являются метками, которые проставляются в конец диска если он являлся частью рейд массива ранее. Часто они не удаляются в процессе форматирования жесткого диска при установке PROXMOX и их нужно затереть вручную!

Если все в порядке и суперблоков нет, то увидим нечто подобное:

Если есть, то перед продолжением настройки их необходимо удалить! Удаление суперблоков

Настроем почтовую подсистему и параметры локали Настройка параметров mdadm [ ]

Создадим файл настроек, предварительно сохранив оригинальный

Предварительная настройка RAID в режиме деградации [ ]

Если все впорядке и массивы создались, сохраним параметры массива в конфигурационном файле:

Проверим, что информация о наших массивах записалась в файл параметров

настройка загрузочного меню grub [ ]

Добавим загрузочный образ initramfs

Заменим файл загрузочного меню и создадим свой, предварительно сохранив оригинальный

Перенос данных из LVM на второй диск [ ]

Создаем LVM-раздел на втором диске и добавляем его в группу pve

Переместим данные с LVM-раздела первого диска, на RAID-LVM-раздел второго диска. Процедура может продолжаться очень долго. Время зависит от объема и скорости жестких дисков.

Убираем из LVM первый диск

Перенос загрузочных файлов на RAID [ ]

Подготовим загрузочный RAID-раздел второго диска и скопируем на него все файлы из папки /boot первого диска

Настроим параметры подключения системных дисков с учетом загрузки с raid. Пересоздадим конфигурационный файл fstab предварительно сохранив оригинальный.

Перемонтируем загрузочный раздел

Подключаем первый (исходный) диск в RAID [ ]

Копируем структуру разделов со второго диска на первый

Добавим разделы первого диска в RAID

Осталось обновить загрузчик на обоих дисках. Запускаем

И последовательно вводим:

Проверить в каком состоянии находится массив можно командой:

Смысл резервирования дисковой системы заключается не в факте самого наличия резервирования, а в возможности в случае возникновения неисправности любого из жестких дисков оперативно и без риска для данных его заменить. В этом должны помочь своевременные уведомления на почту и четкая инструкция по замене неисправного диска с восстановлением избыточности.

Определение неисправного диска [ ]

  • Выясняем какой из жестких дисков "вылетел" из массива

видим примерно следующее


[_U] - Означает что в массиве отсутствует диск (рабочий массив выглядит так [UU]) (F) - означает, что диск дал сбой. В примере вылетел из массива и дал сбой диск sda. Всё дальнейшее описание будет описывать ситуацию с заменой диска sda, при этом рабочим остался диск sdb.

  • Необходимо выяснить, какой из дисков нужно физически отключить. В этом поможет информация о серийных номерах. Например смотрим информацию о модели и серийном номере оставшегося рабочего диска sdb:

Смотрим серийники на наклейках жестких дисков. Соответственно диск с серийным номером 9QZCNTNH оставляем в системе, другой отключаем.

Замена неисправного диска [ ]

Выполнять будем горячую замену диска без выключения и перезагрузок сервера.

1. Очистим информацию о диске sda в массивах.

2. Удаляем диск физически отключив sata шлейф.

3. Подключаем новый жесткий диск (SATA) равного до байта или большего размера на "на горячую".

4. Выполняем сканирование порта, в который подключили жесткий диск.

где host0 номер порта.

  • Если нет точной уверенности, в какой именно порт воткнут новый диск, необходимо просканировать все имеющиеся порты. Список портов можно узнать:

5. Смотрим системный журнал, какое имя получил новый жесткий диск в системе:

Ищем последнюю строку, например:

Значит имя нового диска - sda

  • Если новый диск физически при подключении получил другое имя например sdc, надо отключить его программно выполнив:

После чего убедится что имя старого диска /dev/sda отсутствует в описании массива и если это не так выполним очистку как описано выше выше в пунке 1.

Затем выполнить сканирование sata портов.

Активация нового диска [ ]

Чтобы не ошибиться в дальнейших действиях и не испортить данные создадим переменные с именами дисков.

Произведем копирование структуры разделов с рабочего на чистый диск и подключим его к массиву

И последовательно вводим, где 0 это номер диска:

Смотрим процесс синхронизации

Как только процесс завершиться, новый диск станет полноценным участником массива и в случае выхода из строя другого диска, система загрузится с него.

Proxmox backup на резервный винт (как зеркало) (интересная задумка)

Proxmox backup на резервный винт (как зеркало)

Т.к Proxmox не поддерживает soft raid из коробки, а использование mdam приводит к жутким тормозам, возникла некоторая идея по поводу создания некого offline raid (я его так назвал). И так имеем сервер hp dl 180 g6 c fake raid контроллером b110i (данный контроллер Proxmox в упор не видит). К серваку подключены два sata диска по 500гб. Задача, система будет стоят на одном из sata дисков, а на 2-ой с помощью dd зальем образ диска, в планировщике по cron, будет каждый час срабатывать rsunc и синхронизить только изменения. Вот такая вот мысль, что скажете? Он основан на дебиане. Дебиан поддерживает софт рейд. "искаропки" - это в смысле не ставится штатным инсталлером? Ну так это ничего страшного, можно ручками сделать.

Значит, что-то неправильно делаете.
Можно этот вопрос разобрать подробнее.

м, возникла некоторая идея по поводу создания некого offline raid (я его так назвал). И так имеем сервер hp dl 180 g6 c fake raid контроллером b110i (данный контроллер Proxmox в упор не видит). К серваку подключены два sata диска по 500гб. Задача, система будет стоят на одном из sata дисков, а на 2-ой с помощью dd зальем образ диска, в планировщике по cron, будет каждый час срабатывать rsunc и синхронизить только изменения. Вот такая вот мысль, что скажете? шляпа. Разберитесь с mdadm. И не забудьте потом настроить нормальные быкапы еще куда-нибудь.

proxmox очень хорошо юзает LVM, и они крайне не рекомендуют использовать софт raid, об этом написано на офф. вики

при обновление debian 6 на debian 7, mdadm не умрет?

proxmox очень хорошо юзает LVM, и они крайне не рекомендуют использовать софт raid, об этом написано на офф. вики

Ссылку в студию.

при обновление debian 6 на debian 7, mdadm не умрет? Не умрет и при более серьезных изменениях. Метадата стандартизирована.

хотите извращений - включите зеркалирование средствами lvm :-)

Солнце садилось в море, а люди с неоконченным высшим образованием выбегали оттуда, думая, что море закипит.

Видимо, спят и видят мир, где у каждого есть по своей полке

хотите извращений - включите зеркалирование средствами lvm :-)

не, ну я ж для человека стараюсь - он хочет сделать какую-то девиацию, я вот подкидываю ещё мыслей, может понравится.

Видимо, спят и видят мир, где у каждого есть по своей полке smile.jpg
я думаю они просто не хотят отвечать ещё и на тупые вопросы по софтрейду. про хардварь всегда можно послать, а тут же нянчится придётся с пользователями :-) Солнце садилось в море, а люди с неоконченным высшим образованием выбегали оттуда, думая, что море закипит. . И так имеем сервер hp dl 180 g6 c fake raid контроллером b110i (данный контроллер Proxmox в упор не видит). К серваку подключены два sata диска по 500гб. Задача, система будет стоят на одном из sata дисков, а на 2-ой с помощью dd зальем образ диска, в планировщике по cron, будет каждый час срабатывать rsunc и синхронизить только изменения. Вот такая вот мысль, что скажете?

Скажите, на каком варианте из предложенных в этой ветке Вы остановились?
Имею схожую ситуацию - сервак dl160 g8 с контроллером b120i и с винтами по 500гб - контроллер в Proxmox тоже не видится (вернее, Proxmox заявляет, что нет у меня рэйда, а просто два винта по 500 и все). Таже ситуация и с XenServer 6.1, и с VMware ESXi 5.1, ну в принципе понятно, версии ядер одного порядка. SLES 11 SP1 сказал, что у меня вообще винтов нет. То же самое сказал офтопик 2008 SP2 и только openSUSE 12.2 с ядром 3.4.хх определил все нормально.

Флюгер был приколочен намертво - и ветер обречённо дул в указанном направлении. Имею схожую ситуацию - сервак dl160 g8 с контроллером b120i и с винтами по 500гб - контроллер в Proxmox тоже не видится (вернее, Proxmox заявляет, что нет у меня рэйда, а просто два винта по 500 и все). Таже ситуация и с XenServer 6.1, и с VMware ESXi 5.1, ну в принципе понятно, версии ядер одного порядка. SLES 11 SP1 сказал, что у меня вообще винтов нет. То же самое сказал офтопик 2008 SP2 и только openSUSE 12.2 с ядром 3.4.хх определил все нормально.

извиняюсь за ап столь давней темы, но очень нужна помощь.

В *nix системах я новичкок, можно сказать -- с ними на "Вы".

Развернул Proxmox "из коробки" на аппаратном рейде от adaptec RAID-1. После собрал RAID-10 и подмонтировал это к Proxmox'у вторым хранилищем. Назрел вопрос : а вдруг откажет железо/сбой какой/кривые руки при экспериментах, и назреет необходимость восстановить саму оболочку (или ядро, не уверен - как правильно это назвать) Proxmox из архивного образа/бэкапа? Вот только - -чем такой образ/бэкап создать? Acronis с liveUSB не помог, даже версия для серверов -- некорректно работает с ext3 файловой системой. Гугление в основном выдавало информацию на английском/немецком по бэкапу самих виртуальных машин в Proxmox, что не совсем то что нужно. Так же между строк на забугорных форумах мелькало неизвестное для меня "use dd". Вкратце просмотрев мануал по ней задаюсь вопросом -- неужели это чуть ли не едиснтвенный вариант создать архивный образ под *nix системами?

Буду благодарен за любую информацию -- в какую сторону копать.

Вкратце просмотрев мануал по ней задаюсь вопросом -- неужели это чуть ли не едиснтвенный вариант создать архивный образ под *nix системами?
если хочешь взять с полки пирожок, нужно протянуть руку, и взять с полки пирожок.
если нужно скопировать диск, нужно взять dd, и скопировать.

Скоро придёт
Осень

если хочешь взять с полки пирожок, нужно протянуть руку, и взять с полки пирожок.
если нужно скопировать диск, нужно взять dd, и скопировать.

в том то и дело, что в мануалах я не нашёл некоторых нюансов.

Создание образа диска:

для меня непонятно -- где именно будет создан образ сдирома?
почему у меня не получается dd if=/dev/sda of=/dev/sdb/image.iso ? Мне надо сделать образ первого sda и положить этот образ на другой винт sdb.

Работа с носителями информации

Очень простое, хоть и не оптимальное решение клонирования жесткого диска:


это клонирование требует, чтоб сорс и дестинейшн были идентичного объёма? Можно ли склонировать на винчестер бОльшего объёма? для меня непонятно -- где именно будет создан образ сдирома?

В текущем каталоге.

почему у меня не получается dd if=/dev/sda of=/dev/sdb/image.iso ?

Потому что /dev/sdb - это не каталог, а файл блочного устройства.

Мне надо сделать образ первого sda и положить этот образ на другой винт sdb.
Вероятно, Вам нужно положить образ в файловую систему на одном из разделов диска sdb. Значит, Вам нужно смонтировать эту файловую систему в некий каталог (к примеру - /mnt). Если нужный раздел на sdb - первый (единственный), делается это так:

Но этого нельзя делать, если какой-то из разделов диска sda смонтирован на чтение и запись (в частности, если Вы работаете в загруженной с него системе). То есть сделать, конечно, получится, но восстановить что-то в рабочем состоянии из такого образа вряд ли удастся.

В *nix системах я новичкок, можно сказать -- с ними на "Вы".
в консоли
вку́пе (с чем-либо)
в общем
вообще
в течение (часа)
новичок
нюанс
по умолчанию
приемлемо
проблема
пробовать
трафик

большое спасибо за ответ!
Если не затруднит, ещё пару уточнений.

почему *.raw, а не *.iso? Или не *.img?

Но этого нельзя делать, если какой-то из разделов диска sda смонтирован на чтение и запись (в частности, если Вы работаете в загруженной с него системе). То есть сделать, конечно, получится, но восстановить что-то в рабочем состоянии из такого образа вряд ли удастся.

Опять же, в мануалах на хабре и вики об этом нюансе ни слова.. Почему не получится? Восстановить не получится из-под загруженной системы, или так же не получится восстановить из образа iso/raw/img даже загрузившись с линуксового live-cd? И клонировать один винт на другой из загруженной системы я так понимаю -- тоже нет смысла по той же причине?


Я понимаю. Но при задаче "сверху" с сроками "на вчера" первая линия атаки -- специализированные форумы. Книги уже идут в порядке очереди при долгосрочном планировании, когда чётко известно что надо знать и где это применять при наличии достаточного объёма свободного времени .

По большому счёту это не имеет никакого значения. Но суффикс .iso используют обычно в тех случаях, когда внутри файловая система ISO9660, а в остальных - .img или .raw.

Опять же, в мануалах на хабре и вики об этом нюансе ни слова.. Почему не получится? Восстановить не получится из-под загруженной системы, или так же не получится восстановить из образа iso/raw/img даже загрузившись с линуксового live-cd? И клонировать один винт на другой из загруженной системы я так понимаю -- тоже нет смысла по той же причине?
Не получится, потому что, пока Вы создаёте образ, в файловую систему вносятся изменения. Часть их попадёт в образ, часть - нет. Получится, извините за выражение, inconsistency. Если в мануалах об этом ни слова - значит или там рассматриваются варианты, когда копируемый диск заведомо не смонтирован (при работе с livecd, например), или это хреновые мануалы.
в консоли
вку́пе (с чем-либо)
в общем
вообще
в течение (часа)
новичок
нюанс
по умолчанию
приемлемо
проблема
пробовать
трафик


для меня непонятно -- где именно будет создан образ сдирома?


dd тупо копирует. В данном случае в текущий каталог, в файл image.iso.

это клонирование требует, чтоб сорс и дестинейшн были идентичного объёма? Можно ли склонировать на винчестер бОльшего объёма?

можно как угодно.

1. sda & sdb идентичного объёма(с точностью до байта!) -- вы получаете точную копию sda
2. sda < sdb. Вы получаете точную копию. Но учтите, что диск размером в 1024Гб будет казаться диском размером 8Гб, если вы так скопируете флешку в 8Гб.
3. sda > sdb. Копирование завершится ошибкой, вы получите битую копию. Тем не менее, первые разделы и файлы будут скопированы успешно. И их можно будет восстановить(man testdisk/photorec).

потому что в современных ОС нет такого понятия "расширение". Оно осталось в MS-DOS. А img просто для удобства добавляют, и по традиции. Можно добавлять три матерных русских буквы, или даже пять (:

Опять же, в мануалах на хабре и вики об этом нюансе ни слова..

не читайте всякое дерьмо. Вика -- уродский источник, если речь про русскую. Англ. вика -- энциклопедический словарь. Можно узнать что такое XYZ.

Про хабру нельзя здесь. Ненормативная лексика запрещена правилами форума.

документация к вашей ОС доступна в самой ОС.

man pages
info pages
/usr/doc/*

только по английски. По-русски лучше спрашивайте. Не нужно читать всякое дерьмо и использовать метод тыка.

Опять же, в мануалах на хабре и вики об этом нюансе ни слова.. Почему не получится? Восстановить не получится из-под загруженной системы, или так же не получится восстановить из образа iso/raw/img даже загрузившись с линуксового live-cd? И клонировать один винт на другой из загруженной системы я так понимаю -- тоже нет смысла по той же причине?

Скоро придёт
Осень

извиняюсь за ап столь давней темы, но очень нужна помощь.

В *nix системах я новичкок, можно сказать -- с ними на "Вы".

Развернул Proxmox "из коробки" на аппаратном рейде от adaptec RAID-1. После собрал RAID-10 и подмонтировал это к Proxmox'у вторым хранилищем. Назрел вопрос : а вдруг откажет железо/сбой какой/кривые руки при экспериментах, и назреет необходимость восстановить саму оболочку (или ядро, не уверен - как правильно это назвать) Proxmox из архивного образа/бэкапа? Вот только - -чем такой образ/бэкап создать? Acronis с liveUSB не помог, даже версия для серверов -- некорректно работает с ext3 файловой системой. Гугление в основном выдавало информацию на английском/немецком по бэкапу самих виртуальных машин в Proxmox, что не совсем то что нужно. Так же между строк на забугорных форумах мелькало неизвестное для меня "use dd". Вкратце просмотрев мануал по ней задаюсь вопросом -- неужели это чуть ли не едиснтвенный вариант создать архивный образ под *nix системами?

Буду благодарен за любую информацию -- в какую сторону копать.

Вы ставите proxmox на железный рейд. Если умрет железо, не факт, что ваш рейд заработает на другом железе. Сам proxmox устанавливается за пять минут! Зачем забивать себе голову проблемой бекапа системы. Надо бекапить гостей. В случае восстановления, ставите заново систему (5 минут времени) а потом восстанавливаете гостей. Если важна бесперебойная система, надо зеркалировать работу гостей на разных физических серверах.

По поводу mdadm, если сервер на работу, какая проблема купить железный рейд. А для малого предприятия вполне хватает mdadm, если нет особых требований. Больше зависит от дисков, ставте SAS. Под базы 1С я поставил SSD без рейда и бекап каждый день.

Proxmox позиционируют себя как дистрибутив для промышленного применения. Основная их позиция- это железный рейд, да ещё обязательно с батарейкой! Так что они принципиально не поддерживают софт-рейд, но это не значит, что mdadm работать не будет или будет работать плохо, будет работать как mdadm/

top

Главное меню

Ставим Proxmox на программный RAID
18.01.13 18:05

Proxmox Виртуальная среда является простым в использовании Открытая платформа виртуализации источника для запуска виртуальных устройств и виртуальных машин. Proxmox официально не поддерживает программный RAID, но я нашел программное обеспечение рейда, чтобы быть очень стабильным, а в некоторых случаях повезло больше, чем с аппаратным RAID.
Я не даю никаких гарантий, что это будет работать для Вас!

Обзор
Первая установка Proxmox V2 обычным способом с CD скачать с Proxmox. Далее мы создаем массив RAID 1 на второй жесткий диск и перенести Proxmox установить его.
Затем мы корректируем настройки Grub так он будет загружаться с новой установки.

Кредиты
Эти следующие учебники, что я использовал:

Установка Raid
Примечание:Это руководство предполагает, что Proxmox установлен /dev/sda и запасной диск /dev/sdb. Используйте следующую команду для просмотра текущей разделов:

Вывод должен выглядеть следующим образом:

Disk /dev/sda: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x0009f7a7

Device Boot Start End Blocks Id System

/dev/sda1 * 1 66 523264 83 Linux

Partition 1 does not end on cylinder boundary.

/dev/sda2 66 121602 976237568 8e Linux LVM

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00078af8

Device Boot Start End Blocks Id System
Существует еще здесь, но мы только с первых двух дисков, на данный момент. Мы видим, что /dev/sda имеет Proxmox установки и /dev/sdb не имеет разделов.
Сначала установите программное обеспечение рейда ака mdraid:

apt-get install mdadm

В окне настроек выбрать пакет хорошо то все .
Далее мы начинаем модули ядра с Modprobe:

Вывод должен выглядеть следующим образом:

Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

sfdisk -d /dev/sda | sfdisk --force /dev/sdb

Вывод должен быть:

Checking that no-one is using this disk right now .

Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track

Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

/dev/sdb1 0 - 0 0 0 Empty

/dev/sdb2 0 - 0 0 0 Empty

/dev/sdb3 0 - 0 0 0 Empty

/dev/sdb4 0 - 0 0 0 Empty

Units = sectors of 512 bytes, counting from 0

/dev/sdb1 * 2048 1048575 1046528 83 Linux

/dev/sdb2 1048576 1953523711 1952475136 8e Linux LVM

/dev/sdb3 0 - 0 0 Empty

/dev/sdb4 0 - 0 0 Empty

Warning: partition 1 does not end at a cylinder boundary

Successfully wrote the new partition table

Re-reading the partition table .

If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)

to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1

Checking that no-one is using this disk right now .

Disk /dev/sdb: 121601 cylinders, 255 heads, 63 sectors/track

Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

/dev/sdb1 * 0+ 65- 66- 523264 83 Linux

/dev/sdb2 65+ 121601- 121536- 976237568 8e Linux LVM

/dev/sdb3 0 - 0 0 0 Empty

/dev/sdb4 0 - 0 0 0 Empty

No partitions found


sfdisk: no partition table present.
Теперь нам нужно изменить типы разделов в Linux RAID автоопределение:


WARNING: DOS-compatible mode is deprecated. It's strongly recommended to

switch off the mode (command 'c') and change display units to

sectors (command 'u').


Command (m for help): t

Partition number (1-4): 1

Hex code (type L to list codes): fd

Changed system type of partition 1 to fd (Linux raid autodetect)


Command (m for help): t

Partition number (1-4): 2

Hex code (type L to list codes): fd

Changed system type of partition 2 to fd (Linux raid autodetect)


Command (m for help): p

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x00078af8


Device Boot Start End Blocks Id System

/dev/sdb1 * 1 66 523264 fd Linux raid autodetect

Partition 1 does not end on cylinder boundary.

/dev/sdb2 66 121602 976237568 fd Linux raid autodetect


Command (m for help): w

The partition table has been altered!


Calling ioctl() to re-read partition table.

Как мы видим, мы имеем два Linux автоопределение рейд разделов /dev/sdb.
Чтобы убедиться, что нет никаких остатков предыдущих установок RAID на /dev/sdb, мы запустим следующую команду:

mdadm --zero-superblock /dev/sdb1

mdadm: Unrecognised md component device - /dev/sdb1

mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sdb1

mdadm: Note: this array has metadata at the start and

may not be suitable as a boot device. If you plan to

store '/boot' on this device please ensure that

your boot-loader understands md/v1.x metadata, or use

Continue creating array? y

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

md0 : active (auto-read-only) raid1 sdb1[1]

523252 blocks super 1.2 [2/1] [_U]


md1 : active (auto-read-only) raid1 sdb2[1]

976236408 blocks super 1.2 [2/1] [_U]

теперь должна показывать, что у вас есть два деградировавших массивов RAID ([_U] или [U_] означает, что массив деградировали в то время как [UU] означает, что массив в порядке).
Теперь мы должны настроить /etc/mdadm/mdadm.conf (который не содержит никакой информации о наших новых массивов RAID еще нет) в новой ситуации:

cp /etc/mdadm/mdadm.conf /etc/mdadm/mdadm.conf_orig

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
Стандартный Proxmox установки использует /dev/sda1 для загрузочного раздела и использует LVM на /dev/sda2 для корневой, подкачки данных и разделов.
Если вы новичок в LVM разделы, я рекомендую вам проверить ссылку по кредитам в верхней части, как это.
Чтобы увидеть LVM разделы используйте команду:

Это должно вывести:

ACTIVE '/dev/pve/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve/root' [96.00 GiB] inherit

ACTIVE '/dev/pve/data' [804.02 GiB] inherit
Теперь мы создадим новую группу томов памед pve1 и соответствия логических томов для подкачки, корневые и данных.
Первый физического объема:

Это выводит
Writing physical volume data to disk "/dev/md1"

Physical volume "/dev/md1" successfully created

показывает наш новый физический объем:

PV /dev/sda2 VG pve lvm2 [931.01 GiB / 16.00 GiB free]

PV /dev/md1 lvm2 [931.01 GiB]

Total: 2 [1.82 TiB] / in use: 1 [931.01 GiB] / in no VG: 1 [931.01 GiB]

Теперь давайте создадим группу томов pve1 и добавить к нему /dev/md1:

vgcreate pve1 /dev/md1

Это должно показать успех:
Volume group "pve1" successfully created
Теперь нам нужно создать наш логических томов. Я буду использовать те же самые размеры и имена томов из lvscan команды выше.

lvcreate --name swap --size 15G pve1

lvcreate --name root --size 96G pve1

lvcreate --name data --size 804G pve1
Если бы это было успешно, то команда:

ACTIVE '/dev/pve/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve/root' [96.00 GiB] inherit

ACTIVE '/dev/pve/data' [804.02 GiB] inherit

ACTIVE '/dev/pve1/swap' [15.00 GiB] inherit

ACTIVE '/dev/pve1/root' [96.00 GiB] inherit

ACTIVE '/dev/pve1/data' [804.00 GiB] inherit
Как вы можете видеть теперь у нас есть два набора тех же логических томов. Один на /dev/sda2 и один /dev/md1.
Теперь нам нужно создать файловые системы:

mkswap /dev/pve1/swap -f

mkfs.ext4 /dev/pve1/data
Если бы это было успешно, то это время для копирования файлов в новый массив RAID.
Сначала установите новые разделы:

mount /dev/md0 /mnt/boot

mount /dev/pve1/root /mnt/root

mount /dev/pve1/data /mnt/data

Настройка системы для использования RAID 1
Теперь мы должны изменить /etc/fstab:

cp /etc/grub.d/40_custom /etc/grub.d/09_swraid1_setup

Убедитесь, что вы используете правильную версию ядра в menuentry строфа (в linux и initrd линии). Вы можете найти его командой:

GRUB_DEFAULT=0
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX=""

писать нашего нового ядра строфа из /etc/grub.d/09_swraid1_setup к/boot/grub/grub.cfg.
Далее настроить наш виртуальный диск к новой ситуации:

Теперь скопируйте файлы:

cp -dpRx / /mnt/root

cp -dpRx /boot/* /mnt/boot

cp -dbRx /var/lib/vz/* /mnt/data
Теперь перезагрузите систему и надеемся, что она загружается нормально с нашей массивы RAID:

Если все пойдет хорошо, вы сможете увидеть наши новые логические тома root и data и /dev/md0 установлены:

/dev/mapper/pve1-root on / type ext4 (rw,errors=remount-ro)

tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)

proc on /proc type proc (rw,noexec,nosuid,nodev)

sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)

udev on /dev type tmpfs (rw,mode=0755)

tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)

devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)

/dev/mapper/pve1-data on /var/lib/vz type ext4 (rw)

/dev/md0 on /boot type ext4 (rw)

fusectl on /sys/fs/fuse/connections type fusectl (rw)

beancounter on /proc/vz/beancounter type cgroup (rw,name=beancounter)

container on /proc/vz/container type cgroup (rw,name=container)

fairsched on /proc/vz/fairsched type cgroup (rw,name=fairsched)
Теперь нам нужно удалить группу томов pve:

Do you really want to remove active logical volume root? [y/n]: y

Logical volume "root" successfully removed

Do you really want to remove active logical volume swap? [y/n]: y

Logical volume "swap" successfully removed

Do you really want to remove active logical volume data? [y/n]: y

Logical volume "data" successfully removed

Volume group "pve" successfully removed

Labels on physical volume "/dev/sda2" successfully wiped
Теперь мы должны изменить типы разделов из наших трех разделов для Linux /dev/sda рейд автоопределение, а также:


WARNING: DOS-compatible mode is deprecated. It's strongly recommended to

switch off the mode (command 'c') and change display units to

sectors (command 'u').


Command (m for help): t

Partition number (1-4): 1

Hex code (type L to list codes): fd

Changed system type of partition 1 to fd (Linux raid autodetect)


Command (m for help): t

Partition number (1-4): 2

Hex code (type L to list codes): fd

Changed system type of partition 2 to fd (Linux raid autodetect)


Command (m for help): p


Disk /dev/sda: 1000.2 GB, 1000204886016 bytes

255 heads, 63 sectors/track, 121601 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x0009f7a7


Device Boot Start End Blocks Id System

/dev/sda1 * 1 66 523264 fd Linux raid autodetect

Partition 1 does not end on cylinder boundary.

/dev/sda2 66 121602 976237568 fd Linux raid autodetect


Command (m for help): w

The partition table has been altered!


Calling ioctl() to re-read partition table.

Теперь мы можем добавить /dev/sda1 и /dev/sda2 в /dev/md0 и /dev/md1:

mdadm --add /dev/md0 /dev/sda1

mdadm --add /dev/md1 /dev/sda2
Теперь взглянем на:

. и вы увидите, что RAID-массивовповторно быть синхронизированы.
Затем установите /etc/mdadm/mdadm.conf к новой ситуации:

cp /etc/mdadm/mdadm.conf_orig /etc/mdadm/mdadm.conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

Теперь удалите /etc/grub.d/09_swraid1_setup .

rm -f /etc/grub.d/09_swraid1_setup

. и обновить наш GRUB2 конфигурации загрузчика:

grub-install /dev/sdb
Перезагрузка системы:

Она должна загружаться без проблем.
Вот и все - вы успешно создали программное обеспечение RAID1 на Proxmox системы!
Наслаждайтесь!

Читайте также: