Статус verify raid что значит

Обновлено: 04.07.2024

Что делаем первым делом, когда на системе настраиваем программный RAID, правильно — обновляем систему до самого актуального состояния текущего релиза:

$ sudo apt-get update && sudo apt-get upgrade -y

$ sudo apt-get install mdadm -y

Присутствующие диски в системе из которых будет создавать программный RAID:

/dev/sdb,/dev/sdc,/dev/sdd — все они по 10Gb

Использовать буду RAID 5 — как раз для него нужно три диска:

$ sudo mdadm --create --verbose /dev/md0 --level 5 --raid-devices=3 /dev/sdb /dev/sdc /dev/sdd

mdadm: layout defaults to left-symmetric

mdadm: layout defaults to left-symmetric

mdadm: chunk size defaults to 512K

mdadm: size set to 10477056K

mdadm: Defaulting to version 1.2 metadata

mdadm: array /dev/md0 started.

$ sudo mdadm --detail --scan

ARRAY /dev/md0 metadata=1.2 spares=1 name=srv-mon:0 UUID=3e2fc6ba:17cabd34:c44ac3db:6ca217c6

Если реальная конфигурация не совпадает с той, которая записана в /etc/mdadm/mdadm.conf, то обязательно приведите этот файл в соответствие с реальной конфигурацией до перезагрузки, иначе в следующий раз массив не запустится.

$ sudo mdadm --detail --scan

ARRAY /dev/md0 metadata=1.2 spares=1 name=srv-mon:0 UUID=3e2fc6ba:17cabd34:c44ac3db:6ca217c6

Personalities : [raid6] [raid5] [raid4]

md0 : active raid5 sdd[3] sdc[1] sdb[0]

20954112 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]

unused devices: <none>

После того, как массив создан чтобы с ним можно было работать в привычном представлении: копировать файлы, создавать файлы — нужно создать на нем (массиве) файловую систему , к примеру ext4:

$ sudo mkfs.ext4 /dev/md0

При создание файловой системы на диске резервируется 5% свободного места. Но мы может его уменьшить используя средства утилиты tune2fs.

$ sudo mkdir /media/shara

$ sudo nano /etc/fstab

/dev/md0 /media/shara ext4 defaults 0 0

$ df -h | grep shara

/dev/md0 20G 44M 19G 1% /media/shara

Но это еще не все, настройка не завершена полностью, т. к. система Ubuntu 12.04.5 не знает какие RAID-массивы ей нужно создавать и какие параметры для этого используется, про что я говорю, а вот — если перезагрузить систему, то система не сможет загрузиться без Вашего внимания:

Система не знает как обрабатывать RAID в системе

The disk drive for /media/shara is not ready yet or not present.

Continue to wait, or Press S to skip mounting or M for manual recovery

Нажимаем пока клавишу S: (загружаемся пропуская этап инициализиации смонтированного массива на каталог /media/shara) и из информации по RAID массиву в файл /etc/mdadm/mdadm.conf добавляем описание для системы, что мы используем программный рейд, без это информации система все так же не сможет загрузится корректно, ведь запись ей, а как читать эту запись нету:

$ sudo mdadm --detail --scan --verbose

ARRAY /dev/md/srv-mon:0 level=raid5 num-devices=3 metadata=1.2 name=srv-mon:0 UUID=3e2fc6ba:17cabd34:c44ac3db:6ca217c6

Из этой информации приводим конфигурационный файл /etc/mdadm/mdadm.conf к виду:

$ sudo nano /etc/mdadm/mdadm.conf

/dev/md0 level=raid5 num-devices=3 metadata=1.2 UUID=3e2fc6ba:17cabd34:c44ac3db:6ca217c6

Не забываем сохранить внесенные изменения.

Проверяем, что перезагрузив систему — система самостоятельно загрузится без нашего участия, как и должно иметь место быть:

хм странно — ситуация не изменилась хотя должна была быть, проверяю информацию по определию массива в системе:

$ sudo mdadm --detail --scan

mdadm: Unknown keyword /dev/md0

ARRAY /dev/md/srv-mon:0 metadata=1.2 name=srv-mon:0 UUID=3e2fc6ba:17cabd34:c44ac3db:6ca217c6

и вот что система поменяла имя массива с /dev/md0 на /dev/md/srv-mon:0 — нужно поменять обратно:

$ sudo mdadm -S /dev/md/srv-mon:0

mdadm: Unknown keyword /dev/md0

mdadm: stopped /dev/md/srv-mon:0

mdadm: Unknown keyword /dev/md0

mdadm: /dev/md/0 has been started with 3 drives.

, но что еще заметил — проделываю команды выше и все становится в нормале, а вот когда перезагрузил систему, но снова сбилось — что же делать: (на лицо не доработаки самой утилиты управления RAID-массивом), а нужно (спасибо за документацию):

$ sudo nano /etc/mdadm/mdadm.conf

и заново проделываем команды:

$ sudo mdadm -S /dev/md/srv-mon:0

mdadm: stopped /dev/md/srv-mon:0

mdadm: /dev/md/0 has been started with 3 drives.

Перезагружаюсь еще раз — и снова ошибка, короче просто пока массив не введен в эксплуатацию удаляю его и создам заново с именем как обозначается система:

$ sudo mdadm -S /dev/md/srv-mon:0

mdadm: stopped /dev/md/srv-mon:0

Затем очищаю суперблоки RAIDа на дисках из которых пытался создать массив:

$ sudo mdadm --zero-superblock /dev/sdb

$ sudo mdadm --zero-superblock /dev/sdc

$ sudo mdadm --zero-superblock /dev/sdd

Теперь создаю рейд но уже по другому:

вот такая вот строка добавилась в /etc/mdadm/mdadm.conf

ARRAY /dev/md/0 metadata=1.2 UUID=310c2489:de03df76:b8a3640f:4a11a75a name=srv-mon:0

update-initramfs: Generating /boot/initrd.img-3.13.0-32-generic

Создаю файловую систему на /dev/md0:

/dev/md0 /media/shara ext4 defaults,rw 0 0

и вот теперь все хорошо, система загрузилась, массив доступен, ошибок нет.

Дальше нужно активировать и проверить работу контроля состояния RAID массива с помощью оповещения по почте, в данную информацию должно включаться:

Информация о состоянии дискового массива (Вышел диск, проблемы с диском)

За оповещение по почте буду использовать уже полюбившийся агент MTA ssmtp, а текий postfix удалю (ставился совместно с mdadm):

$ sudo apt-get remove postfix -y

Устанавливаю MTA агент — ssmtp:

$ sudo apt-get install ssmtp mailutils -y

$ sudo nano /etc/ssmtp/ssmtp.conf

Теперь разрешаем кому можно будет из консоли отправлять почту:

$ sudo nano /etc/ssmtp/revaliases

Теперь в конфигурационном файле MDADM адрес на который следует отправлять уведомления:

$ sudo nano /etc/mdadm/mdadm.conf

Сохраняем внесенные изменения и перезапускаю сервис:

$ sudo /etc/init.d/mdadm restart

Проверяем, что уведомления отсылаются, для это запускаем команду:

$ sudo mdadm --monitor --scan --test --oneshot

если у Вас команда просто висит значит у Вас какие-то проблемы с отправкой почты из консоли, разбирайтесь с ssmtp.conf:

У меня письмо пришло

Отчет о состоянии RAID пришел на почту - все в порядке

Но не запускать же предыдущую команду вручную, пусть это делает планировщик к примеру раз в шесть часов для некритичных сервером, а для критичных каждый сам определяет данное значение.

Вот таким вот образом, имея практическое знакомство со множеcтвом инструментов можно в последствии их комбинировать для расширения текущего функционала друг друга, сейчас данной заметкой я еще раз прошелся по шагам как использовать программный RAID и уведомлять меня по почте на случай каких либо проблем. На этом все, с уважением автор блога — ekzorchik.

Используйте прокси ((заблокировано роскомнадзором, используйте vpn или proxy)) при использовании Telegram клиента:

Поблагодари автора и новые статьи

будут появляться чаще :)

Карта МКБ: 4432-7300-2472-8059

Большое спасибо тем кто благодарит автора за практические заметки небольшими пожертвованиями. С уважением, Олло Александр aka ekzorchik.

1 Тема от samec 02.04.2014 15:49:17 (7 лет 7 месяцев назад)

Тема: как лучше восстановить RAID1

Привет. Ситуация - был Raid 1, на Intel ICH10R, который в Supermicro X8DTL-6F.
Поломался - при загрузке пишет - Status RAID - Failed. Напротив каждого винта - их два всего - Error Occurred (0).

К одному винту доступ есть - данные читать можно. Второй винт - похоже загнулся .

Вопрос - как лучше восстановить Raid ? Могу ли я Acronis True Image слить клон диска (оставшегося в живых), затем взять два НОВЫХ диска - сделать НОВЫЙ Raid 1 - и залить уже на новый Raid сохраненный клон ? Или после этого система не будет работать?
Может есть какой другой способ восстановления - буду рад разным мнениям.

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

2 Ответ от hanz45 02.04.2014 15:52:47 (7 лет 7 месяцев назад)

Привет. Ситуация - был Raid 1, на Intel ICH10R, который в Supermicro X8DTL-6F.
Поломался - при загрузке пишет - Status RAID - Failed. Напротив каждого винта - их два всего - Error Occurred (0).

К одному винту доступ есть - данные читать можно. Второй винт - похоже загнулся .

Вопрос - как лучше восстановить Raid ? Могу ли я Acronis True Image слить клон диска (оставшегося в живых), затем взять два НОВЫХ диска - сделать НОВЫЙ Raid 1 - и залить уже на новый Raid сохраненный клон ? Или после этого система не будет работать?
Может есть какой другой способ восстановления - буду рад разным мнениям.

RAID 1 - это ж зеркало?? его и рейдом-то не назвать даже. описанный способ поможет конечно, только винты щас такие, что берешь два одинаковых и дохнут оба в один день.

3 Ответ от Stranger 02.04.2014 15:57:03 (7 лет 7 месяцев назад)

Привет. Ситуация - был Raid 1, на Intel ICH10R, который в Supermicro X8DTL-6F.
Поломался - при загрузке пишет - Status RAID - Failed. Напротив каждого винта - их два всего - Error Occurred (0).

К одному винту доступ есть - данные читать можно. Второй винт - похоже загнулся .

Вопрос - как лучше восстановить Raid ? Могу ли я Acronis True Image слить клон диска (оставшегося в живых), затем взять два НОВЫХ диска - сделать НОВЫЙ Raid 1 - и залить уже на новый Raid сохраненный клон ? Или после этого система не будет работать?
Может есть какой другой способ восстановления - буду рад разным мнениям.

а что оно автоматом при замене загнувшегося винта не поднимается?

4 Ответ от samec 02.04.2014 16:01:22 (7 лет 7 месяцев назад)

а что оно автоматом при замене загнувшегося винта не поднимается?

Я не пробовал. С RAID раньше дел не имел. Поэтому хотелось бы вариант - чтобы заработало и данные на месте остались 100%.
Предлагаете просто подсунуть новый винт, взамен помершему - и запустить сервер? Или ещё какие то телодвижения нужны будут?

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

5 Ответ от Dimorus 02.04.2014 16:02:38 (7 лет 7 месяцев назад)

а что оно автоматом при замене загнувшегося винта не поднимается?

Я не пробовал. С RAID раньше дел не имел. Поэтому хотелось бы вариант - чтобы заработало и данные на месте остались 100%.
Предлагаете просто подсунуть новый винт, взамен помершему - и запустить сервер? Или ещё какие то телодвижения нужны будут?

лучше конечно слить инфу пока она вообще доступна, и второй винт не сдулся.

6 Ответ от Stranger 02.04.2014 16:03:27 (7 лет 7 месяцев назад)

а что оно автоматом при замене загнувшегося винта не поднимается?

Я не пробовал. С RAID раньше дел не имел. Поэтому хотелось бы вариант - чтобы заработало и данные на месте остались 100%.
Предлагаете просто подсунуть новый винт, взамен помершему - и запустить сервер? Или ещё какие то телодвижения нужны будут?

да подсунь винт и всё, оно поидее должно стать из деградейтед в ребьюилд а потом в своё нормальное как скопирует
как нить так

акронисы всякие врядли помогут

Отредактировано Stranger (02.04.2014 16:04:04, 7 лет 7 месяцев назад)

7 Ответ от samec 02.04.2014 16:06:42 (7 лет 7 месяцев назад)

лучше конечно слить инфу пока она вообще доступна, и второй винт не сдулся.

как слить правильнее ?

да подсунь винт и всё, оно поидее должно стать из деградейтед в ребьюилд а потом в своё нормальное как скопирует
как нить так

акронисы всякие врядли помогут

Дело в том, что при загрузке raid в статусе не degraded, а failed, и винты ОБА raid-у не нравятся - пишет что оба диска Error Occurred (0). Хотя один винт видится и читается. Если я подсуну новый в замен умершему окончательно - а второй будет Error Occurred (0) - то всё равно в raid в ребьюилд состояние перейдёт?

Отредактировано samec (02.04.2014 16:13:41, 7 лет 7 месяцев назад)

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

8 Ответ от bis 02.04.2014 16:16:42 (7 лет 7 месяцев назад)

RAID1 - это тупое зеркало. Сливаешь с живого винта как хочешь - хоть образ сделай, хоть клон, хоть тупо слей то, что тебе надо, разницы особой нет.

при загрузке raid в статусе не degraded, а failed

degraded - это повреждение массива (к примеру, когда в RAID5 выходит из строя один диск, сам массив еще жив, но он поврежден), а у тебя именно failed - разрушение массива. Все он правильно пишет.
Бери второй винт, а лучше сразу два, на один сразу сделай клон уцелевшего, второй к нему просто подоткни.
Винты бери нормальные, типа WD серии Black или Storage Enterprice. Если возьмешь один винт на замену, смотри, чтобы объем нового был не меньше основного диска, и ТТХ (скорость вращения, буферы и прочее) были максимально похожи. В идеале - точно такой же винт той же серии и линейки

Отредактировано bis (02.04.2014 16:22:02, 7 лет 7 месяцев назад)

9 Ответ от samec 02.04.2014 16:24:59 (7 лет 7 месяцев назад)

WD серии Black и стояли. 1,5 года не выключаясь проработали. Как-то не серьёзно, по-моему. Или для них это предел? Простые сегейты тогда через пол года менять придётся?

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

10 Ответ от Stranger 02.04.2014 16:29:55 (7 лет 7 месяцев назад)

лучше конечно слить инфу пока она вообще доступна, и второй винт не сдулся.

как слить правильнее ?

да подсунь винт и всё, оно поидее должно стать из деградейтед в ребьюилд а потом в своё нормальное как скопирует
как нить так

акронисы всякие врядли помогут

Дело в том, что при загрузке raid в статусе не degraded, а failed, и винты ОБА raid-у не нравятся - пишет что оба диска Error Occurred (0). Хотя один винт видится и читается. Если я подсуну новый в замен умершему окончательно - а второй будет Error Occurred (0) - то всё равно в raid в ребьюилд состояние перейдёт?

сделай копию да сунь второй попробуй, чего судить рядить то

а с копированием куда то может не получиться, там инфа служебная рейда и не факт что копировалка её адекватно скопирует

11 Ответ от samec 02.04.2014 16:33:13 (7 лет 7 месяцев назад)

сделай копию да сунь второй попробуй, чего судить рядить то

Уже сливаю копию.

а с копированием куда то может не получиться, там инфа служебная рейда и не факт что копировалка её адекватно скопирует

Вот собственно это и хотел узнать - пишет ли зеркальный рейд какую-то служебную информацию на винты или нет. Если нет - то метод - сделать из двух новых винтов рейд и залить на него клон - должен работать 100%.
А если пишет - то может и не завестись с клона.

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

12 Ответ от bis 02.04.2014 16:35:47 (7 лет 7 месяцев назад)

У них гарантия производителя 5 лет, сдавай и не мучься

А если пишет - то может и не завестись с клона

С клона нормального по-любому заведется, ибо копирование сектор в сектор происходит

Отредактировано (02.04.2014 16:36:46, 7 лет 7 месяцев назад)

13 Ответ от samec 02.04.2014 16:42:09 (7 лет 7 месяцев назад)

С клона нормального по-любому заведется, ибо копирование сектор в сектор происходит

акронис - по-моему нормальные клоны делает? Или нужна другая программа?

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

14 Ответ от bis 02.04.2014 16:44:54 (7 лет 7 месяцев назад)

С клона нормального по-любому заведется, ибо копирование сектор в сектор происходит

акронис - по-моему нормальные клоны делает? Или нужна другая программа?

15 Ответ от samec 30.04.2014 13:13:41 (7 лет 6 месяцев назад)

Отпишу, может кому сгодится. При подсовывании нового рабочего винта к выжившему - raid не воскрес. Поэтому я слил образ acronis-ом с рабочего винта (не посекторный клон, а просто сделал резервную копию). Затем создал raid заново. И уже на чистый raid восстановил эту сохраненную копию. Всё завелось.

Тема закрыта и находится в архиве, не беспокойте автора без особой необходимости!

16 Ответ от Dimorus 30.04.2014 13:16:02 (7 лет 6 месяцев назад)

надо было при подсовывании его пометить как spare и он сам бы его подхватил и сделал ребилд.

17 Ответ от Stranger 30.04.2014 13:17:21 (7 лет 6 месяцев назад)

надо было при подсовывании его пометить как spare и он сам бы его подхватил и сделал ребилд.

не факт, это host based скорее всего там если диск с инфой о рейде сдох то всё

18 Ответ от demmax2004 30.04.2014 13:19:56 (7 лет 6 месяцев назад)

В том то и дело что может как нить скопировать что потом данные не восстановишь, у нас так рэйд 5 умер, когда ему свежий винт подставили.

19 Ответ от Stranger 30.04.2014 13:22:28 (7 лет 6 месяцев назад)

В том то и дело что может как нить скопировать что потом данные не восстановишь, у нас так рэйд 5 умер, когда ему свежий винт подставили.

а вот это надо смотреть почему произошло?

20 Ответ от demmax2004 30.04.2014 13:27:13 (7 лет 6 месяцев назад)

Да потому что умер при ребилде, надо было сначала данные забэкапить

21 Ответ от Stranger 30.04.2014 13:42:00 (7 лет 6 месяцев назад)

Да потому что умер при ребилде, надо было сначала данные забэкапить

а это уже от количества хардов в рейде зависит, такое только на 3 хардах если умирает ещё один в момент ребилда

Supermicro

В моём сервере Supermicro под систему собран RAID1. Пришла задача - увеличить раздел boot на этом зеркале. Зеркало собрано встроенными средствами Intel Rapid Storage. Проблема возникла, когда я попытался загрузиться в Hiren's BootCD и разбить зеркало с помощью gparted. Упс, отдельные диски зеркала увиделись, а само зеркало - нет.

supermicro

Сразу скажу, HBCD у меня старой версии, новую не пробовал.

Попытка воспользоваться Acronis Disk Director 12 Build v12.0.0.96 не принесла желаемых результатов. Софтина не увидела ни зеркала ни системных дисков, очень странно.

Проблему решить смогла хорошая штука — GParted Live. Но с оговорками.

GParted Live увидела и оба системных диска, и зеркало. На зеркало ругнулась - что-то не понравилось в конце диска, или прав не хватило, - жмакнул Ignore. Ещё один момент - в процессе работы зависла! Очень повезло, что это произошло при попытке подвинуть раздел swap. После перезагрузки удалось снести битый swap, создать новый, подвинуть его, а потом увеличить раздел boot.

gparted live

После ребута всё поднялось. Зеркало показывает статус Verify. Насколько я понимаю, это " Data on the mirror drive is compared to data on the source drive". Что же, завтра проверю, сменился ли статус на Normal.

gparted live

Но уже сейчас система нормально загрузилась, сервер работает.

На следующий день статус массива сменился с Verify на Normal. Полёт нормальный.

В современном мире все уже давно поняли какой ценностью обладает информация и какой огромный потенциал заложен в развитии IT технологий. Поскольку сервера и компьютеры могут выходить из строя – автоматически возник вопрос как обеспечить безопасность данных, так как их потеря важной информации может обанкротить целые компании, а убытки могут достигать многих миллионов. В свою очередь это привело в появлению RAID массивов – технологии, которая призвана предотвратить потерю информации путем объединения нескольких накопителей в один массив. Однако, как показала практика – RAID массивы также могут ломаться.

В этой статье мы рассмотрим главные причины выхода из строя RAID массивов.

Причины выхода из строя RAID массивов

Содержание:

История развития RAID

В самом начале развития компьютерных технологий все внимание было направлено на том, как сделать компьютеры максимально удобными для пользователя. В те времена не существовало понятия «персональный компьютер», так как наиболее часто компьютеры использовались в военной промышленности (но там совсем другая история, так как военная индустрия обладает своими наработками по безопасности информации и т.д.) и в больших корпорациях. Но в те времена функционал компьютеров был очень небольшим и с ними по большей части работали программисты.

Даже в 1970х годах, когда Apple и Microsoft начали свою деятельность – вопрос о безопасности данных не был на первом месте. Все изменилось с появлением и развитием интернета, который начал охватывать все больше и больше стран и позволял пользователям обмениваться информацией. Стоит также отметить, что к тому времени все уже привыкли к персональным компьютерам и поняли, что они способны сильно облегчить жизнь обрабатывая огромные массивы информации. С появлением цифровых фотоаппаратов и видеокамер для личного использования всем стало ясно, что персональные компьютеры так или иначе будут практически в каждом доме. После этого начался бум цифровой индустрии, который автоматически поднял вопрос о безопасности данных. Немало этому посодействовали большие компании, которые уже в те времена обладали большими серверами для хранения данных, от которых сильно зависел уровень их эффективности. Поэтому, в 1987 году были придуманы RAID массивы. Их главным заданием было избежание потерь важной информации и поскольку технология была эффективной и предлагала на выбор несколько вариантов защиты данных, в зависимости от потребностей пользователя – она быстро приобрела распространение. Примерно так выглядит блок дисков, объединенных в RAID:

Причины выхода из строя RAID массивов

Несмотря на то, что никакой стандартизации не проводилось – следующие уровни массива RAID были приняты как стандарт:

Все остальные типы RAID массивов (такие как RAID 10, RAID 50 и т.д.) построены на вышеперечисленных типах RAID и так или иначе используют их концепцию.

Использование массивов RAID оказалось настолько эффективным, что на сегодняшний день практически все современные хранилища данных (сервера, NAS и т.д.) используют RAID массивы в том или ином виде.

Однако, несмотря всю надёжность такого решения стоит отметить, что вероятность потери данных все же осталась (хоть и сильно снизилась) так как даже RAID массивы иногда выходят из строя. Это может происходить по многим причинам и для того, чтобы узнать больше информации на эту тему читайте следующий пункт этой статьи.

Что такое деградированный режим RAID?

Также о переходе массива в деградированный режим может свидетельствовать символ «[U_]» при проверке состояния RAID массива в терминале. Обычно он находится возле поврежденного диска и означает, что он рассинхронизирован.

В этом случае следует немедленно заменить поврежденный диск так как в случае выхода из строя еще одного диска все данные массива будут потеряны.

Причины потери данных на RAID массивах

При использовании RAID массивов данные хранятся на таких же накопителях, что и в обычных компьютерах, которые могут ломаться и т.д. Технология RAID позволяет предотвратить потерю данных, но процесс восстановления информации может сильно затянуться, так как нередко при выходе из строя одного накопителя скорость работы всего RAID массива сильно снижается, особенно это актуально, когда речь заходит о терабайтах информации, как например на сервере. Кроме того, в некоторых случаях, чтобы заменить поврежденный носитель на новый – требуется отключение питания, что тоже не очень подходит для серверов. Поэтому лучше всего знать главные причины выхода из строя RAID массивов, чтобы иметь возможность предотвратить неприятности.

Итак, среди основных причин можно выделить следующие:

Выход из строя RAID контроллера

Контроллер RAID массива является одним из наиболее важных элементов, так как именно он отвечает за распределение данных между накопителями и позволяет работать с массивом как с единым накопителем. Если массив прекращает свою работу – наиболее часто это вызвано именно поломкой контроллера. Стоит отметить, что аппаратные контроллеры ломаются немного реже чем программные, но и стоят они на порядок дороже. Кроме того, между аппаратными контроллерами разных производителей нету совместимости. То есть, если вы приобрели контроллер от фирмы Supermicro то для восстановления работоспособности массива вам придется купить такую же модель. В противном случае вам придется создавать массив заново, что приведет к потере данных. Среди причин, из-за которых контроллер выходит и строя можно выделить такие как перепад напряжения или резкое отключение энергии. Это актуально как для аппаратных RAID контроллеров, так и для программных. Поэтому, обязательно позаботьтесь о бесперебойном источнике питания, чтобы обеспечить ваш RAID массив от возможных проблем.

Ошибка пересборки/сборки RAID массива

Во время каждой перезагрузки компьютера RAID массив пересобирается заново и от того, пройдет ли сборка нормально зависит дальнейшая работа массива. Если во время перестройки массива произойдёт перепад напряжения или другое форс-мажорное событие – массив не будет пересобран, и пользователь моет потерять данные.

Выход накопителя из строя

Все мы знаем, что главным предназначением RAID массивов является защита данных на случай выхода из строя одного или двух дисков. Обычно RAID массив без проблем справляется с этой задачей. Но иногда случаются ситуации, когда при выходе одного или нескольких дисков повреждаются данные на соседнем носителе и в такой ситуации RAID массив может оказаться полностью неработоспособным, что в свою очередь приведет к потере информации. Поэтому настоятельно рекомендуется периодически проверять состояние накопителей, из которых построен RAID массив.

Отсутствие разделов массива

Для обеспечения нормальной работы RAID массивов применяется технология чередования, главной задачей которой является распределение информации меду дисками в рамках одного логического тома. Это позволяет обеспечить высокий уровень производительности и защиты данных, однако, если механизм чередования будет повреждён – данные окажутся недоступными, даже если физически они в полной сохранности. Все дело в том, что RAID массив просто не смоет определить диски с данными и соответственно не сможет собрать массив для дальнейшей работы.

Поломка сервера

Хост компьютер, как и любой другой может поломаться или дать сбой. Это в свою очередь отобразится на RAID массиве. В 70% таких случаев данные оказываются недоступными.

Все вышеперечисленные поломки являются наиболее часто встречающимися причинами выхода из строя RAID массивов. Обычно, после таких поломок приходится использовать стороннее ПО для восстановления данных. О том, как восстановить данные на RAID массиве читайте в следующем пункте этой статьи.

Что делать при сбое RAID массива или если RAID массив не собирается после перезагрузки?

Если ваш RAID массив перестал работать после сбоя, либо не собирается после перезагрузки то для восстановления рабочего состояния без потери данных вам следует сначала извлечь данные массива, чтобы не повредить их во время восстановления работоспособности RAID. Для этого следует:

Шаг 1: Выключите питание вашего компьютера/сервера или NAS устройства и отсоедините накопители, из которых состоял RAID массив.

Шаг 2: Подсоедините эти диски в рабочему компьютеру (предварительно отключив его питание).

Шаг 3: Включите рабочий компьютер. Затем скачайте и установите програму RS RAID Retrieve следуя подсказкам мастера установки Windows.

Мы специально выбрали эту программу, так как она обладает широкими возможностями восстановления данных и интуитивно-понятным интерфейсом одновременно, а значит она отлично подходит как для неопытных пользователей, так и для профессионалов.

Шаг 4: Запустите программу RS RAID Retrieve дважды кликнув по иконке на рабочем столе. Перед вами откроется встроенный RAID конструктор.

Шаг 5: Выберите тип добавления RAID массива для сканирования. RS RAID Retrieve предлагает на выбор три варианта:

  • Автоматический режим – позволяет просто указать диски, из которых состоял массив, и программа автоматически определит их порядок, тип массива и остальные параметры;
  • Поиск по производителю – эту опцию следует выбрать, если вам известен производитель вашего RAID контроллера. Эта опция также автоматическая и не требует каких-либо знаний о структуре RAID массива. Наличие данных о производителе позволяют сократить время на построение массива, соответственно она быстрее предыдущей;
  • Создание вручную – эту опцию стоит использовать если вы знаете какой тип RAID массива вы используете. В этом случае вы можете указать все параметры, которые вам известны, а те, которых вы не знаете – программа определит автоматически.

После того, как выберите подходящий вариант – нажмите «Далее»

Шаг 6: Выберите диски, из которых состоял RAID массив и нажмите «Далее». После этого начнется процесс обнаружения конфигураций массива. После его завершения нажмите «Готово»

Шаг 7: В окне программы выберите ваш массив, щелкните по нему правой кнопкой мыши и выберите «Сохранить диск», а затем укажите место для сохранения копии диска и снова нажмите «Сохранить»

После этого начнется копирование файлов в указанное место. Вы также можете сохранить отдельные файлы или восстановить потерянные данные, если нужно. Для этого дважды щелкните на массиве и выберите тип сканирования. RS RAID Retrieve предлагает на выбор два типа сканирования: быстрое сканирование и полное сканирование. Первый вариант стоит выбрать если вы просто хотите скопировать файлы на другой носитель, а второй вариант выберите если хотите восстановить утерянные данные.

Также на этом этапе выберите тип файловой системы вашего массива. RS RAID Retrieve поддерживает ВСЕ современные файловые системы. Теперь, когда все настроено, нажмите «Далее».

Начнётся процесс сканирования массива, по завершении которого вы увидите прежнюю структуру файлов и папок.

Шаг 8: Выберите файл, который хотите восстановить и жажды на нем щелкните. Затем выберите место, куда хотите восстановить утерянный файл. Это может быть жесткий диск, ZIP-архив, или FTP-сервер. Главное, чтобы место записи нового файлов отличалось от дисков массива. Затем нажмите «Восстановить»

Теперь, когда данные находятся в безопасности – можно приступать к восстановлению работоспособности самого массива. В первую очередь нужно найти причину проблемы и устранить ее.

RAID массив мажет не пересобираться после перезагрузки по следующим причинам:

  • Ошибка в файле mdadm.conf (он находится не в том месте, или файл не существует);
  • Ошибка сборки;
  • Вирус или вредоносное ПО;
  • Поврежденные сектора на RAID-дисках;
  • Человеческая ошибка;
  • Другие причины;

Первые две причины являются достаточно распространенными, поэтому на них стоит обратить особое внимание.

Если же причина или сбой были на физическом уровне – замените вышедшие из строя нужные элементы.

Если вы не хотите тратить время на исправление программных ошибок – вы можете просто создать RAID массив заново, а затем скопировать данные обратно из сохраненной копии.

Читайте также: