Hp storageworks msa2000 настройка

Обновлено: 02.07.2024

В феврале 2008 HP заявляет о выпуске MSA 2000 поколения. Работы над этим поколением велись внутри самой компании, но под давлением рынка HP откладывает собственные разработки и заключает OEM соглашение с компанией DotHill:

Mark Gonzalez is leaving his position as vice president of Americas enterprise storage and server sales at Hewlett-Packard.
The executive changes are coming at a time when HP is also reworking its storage line, a line many channel partners said is not a strong one.

HP just this month unveiled a new line of entry-level storage arrays in its MSA line to replace its previous MSA products. The new MSA2000, solution providers said, resulted from an OEM agreement with Dot Hill Systems Corp., Carlsbad, Calif. Dot Hill said last month it expanded its OEM agreement with HP, and that HP acquired a 3.5-percent stake in the company.

One solution provider, who asked to remain anonymous, said that HP seems to have hurried the release of the MSA2000 in response to sales issues with the MSA line, and that the MSA2000 does not use the universal disk carrier that HP has been offering to ensure that the same disk drives can be used in the MSA, EVA arrays, and ProLiant servers. However, a new MSA70 will have the universal disk carrier, the solution provider said.

В результате в марте 2008 года выходит официальный анонс трёх новых моделей:
MSA2012i (DotHill 2330)
MSA2012fc (DotHill 2370)
MSA2212fc (DotHill 2370T)

В июле 2008 HP анонсирует четвёртую модель линейки MSA2012sa

Хоть они и похожи внешне на HP MSA 1000/15xx их начинка была совершенно другая, а самое главное - SFF диски от существующих MSA, EVA и Proliant-ов к ним не подходили. Рассмотрим более пристально эти модели.

Все четыре модели представляли из себя двухюнитовую полку с дисками и контроллерами (продавались с одним или сразу с двумя контроллерами). К ним можно было подключить до трёх дополнительных полок MSA2000. Как контроллерная, так и дополнительные полки поддерживали до двенадцати 3,5'-дюймовых дисков (LFF) с интерфейсом SAS (Serial-Attached-SCSI) или SATA. Диски разных типов можно было мешать на одной полке. На момент появления максимальная ёмкость полки составляла 3.6TB при заполнении более быстрыми SAS-дисками и 9 TB при заполнении медленными, но более ёмкими SATA. В дальнейшем увеличение ёмкости дисков расширило эти пределы до 5.4TB SAS и 12TB SATA. Появился функционал создания снапшотов и клонов (snapshotes and clones). Семейство поддерживало до 256 LUN-ов (128 на контроллер) размером до 16TB.

Принципиальные же отличия были в типе соединения:
MSA 2012i имела два 1GbE iSCSI порта на контроллер (iSCSI SAN)
MSA 2012fc имела два 4Gb Fibre Channel порта на контроллер (DAS or SAN)
MSA 2012sa имела два 3Gb порта на контроллер (DAS only)

И в максимальном количестве подключаемых хостов:
MSA 2012i - up to 16 hosts for iSCSI attach
MSA 2012fc - up to 64 single path hosts for Fibre Channel attach
MSA 2012sa - up to 4 hosts for SAS direct attach or 32 hosts for switch attach in the BladeSystem configuration

MSA 2212fc представляла из себя тоже самое что и 2012fc но имела на борту контроллера более мощный процессор 700MHz Pentium II, в то время как все остальные модели в линейке довольствовались Celeron 566. Например, при уровне RAID 10 производительность моделей была следующая:

WorkloadMSA2212fc EnhancedMSA2012fcMSA2012saMSA2012i
Host Connect4Gb Fibre Channel4Gb Fibre Channel3Gb SAS1GbE Ethernet
MSA2000 RAID 10 Performance Results (rounded)
Random Reads IOPs11,20010,60010,6008200
Random Writes IOPs7,8005,0004,9004,500
Random Mix IOPs 60/40 read/write8,9006,7006,8006,100
Sequential Reads MB1000650700300
Sequential Writes MBs470330350260

Недостатком данных моделей было то, что они работали только с хостами Windows, Linux, ESX и Xen, то есть не было поддержки HP-UX и OpenVMS.

В январе 2009 года HP выпускает следующее поколение MSA 2000 G2. Из основных отличий от G1:
• Семейство получило новые MSA2300 G2 контроллеры с более быстрыми процессорами и 1GB кэша
• Шасси для новых MSA стали выпускаться в двух вариантах : для двенадцати 3,5" (LFF) дисков или для двадцати четырёх 2,5" (SFF) дисков (совместимых с Proliant-ами)
• В качестве дополнительных полок теперь можно подключать четыре LFF полки MSA2000 или три SFF полки MSA70, то есть максимальное количество дисков выросло до 60 LFF или 99 SFF (SAS, SAS MDL или SATA MDL)
• Появилась поддержка платформ P9000/Integrity и операционых систем HP-UX и OpenVMS
• Максимальное количество LUN выросло до 512 (при двух установленных контроллерах)

Модели MSA с LFF дисками: 2312i, 2312fc и 2312sa (вверху)
Модели MSA с SFF дисками: 2324i, 2324fc и 2324sa (внизу)

Проходит чуть более года и в марте 2010 HP выпускает третье поколение MSA, заодно переименовывая линейку согласно новому портфолио. HP StorageWorks P2000 G3 Modular Smart Array Systems стала ещё более модульной:
- Два шасси на выбор : с двенадцатью LFF 3.5" дисками или двадцатью четырьмя SFF 2.5"
- Оба шасси поддерживают одновременную установку дисков разного класса : enterprise-class SAS drives, SAS Midline или archival-class SATA Midline
- Пять типов контроллеров на выбор:
1. P2000 G3 FC/iSCSI Combo MSA controller - два 8Gb FC порта и два 1GbE iSCSI порта на контроллер
2. P2000 G3 FC MSA controller - два 8Gb FC порта и два 1GbE iSCSI порта на контроллер
3. P2000 G3 10GbE iSCSI MSA controller - два 10GbE iSCSI на контроллер
4. P2000 G3 SAS MSA controller - четыре 6Gb SAS порта на контроллер
5. P2000 G3 iSCSI MSA controller - четыре 1Gb iSCSI порта на контроллер
- Дополнительные полки :
До семи HP StorageWorks P2000 Dual I/O LFF Drive Enclosure - на двенадцать 3.5" дисков
До пяти HP StorageWorks D2700 SFF Disk Enclosure - на двадцать пять 2.5" дисков
- Максимальная ёмкость выросла до 57 TB+ SAS или 192 TB SATA
- Более быстрый процессор контроллеров и 2GB кэша
- 6 Gb SAS бэкенд и поддержка HDD
- До 64 снапшотов и клонов стандартно, опционально до 512 снапшотов
• Опциональная репликация Remote Snap (для P2000 G3 FC/iSCSI Combo)
• Поддержка до 512 LUN
• Возможность апгрейда с G1/G2 на G3 upgrade

Продолжаем цикл статей по настройке Stor2rrd для мониторинга SAN-сети.

Данная статья является переводом статьи по настройке мониторинга производительности HP MSA.

В текущей версии Stor2rrd 2.10 поддерживается тьма разных стораджей, в частности, HP MSA P2000 G3.

Первые два поколения HP MSA (Gen1/2) не поддерживаются в силу отсутствия SMI-S и XML API.

У меня, как раз, имеется HP MSA P2000 G3, поэтому опишу его подключение к системе мониторинга.

В случае, если они выключены, включите их следующими командами:

Если требуется, то в гайде есть вариант конфигурации под SSL.

На каждую СХД требуется от 2 ГБ до 30 ГБ места (это зависит от набивки СХД и количества томов).

Подключитесь по ssh под пользователем lpar2rrd.

Подготовьте хэш пароля от пользователя stor2rrd на MSA для его сохранения в файле конфигурации:

Проверьте, что у вас получается подключиться к СХД:

После паузы в 20 минут пересоздайте веб-директории:

msa01

Разбивка операций ввода/вывода по контроллерам:

msa02

Разбивка по пулам:

msa03

В рамках каждого пула создаются тома (LUN, презентуемые хостам). Однако, такого удобного графика (чтение+запись) в одном графике по ним нет.

Время отклика с диска:

msa04

Нагрузка по отдельным портам контроллеров:

msa05

Ложка дегтя

В остальном, впечатления от софтины, скорее положительные. К примеру, на слайдах я углядел, что при доступе к тому (volume) MSA используется политика балансировки VMware MRU, а не рекомендуемая Round Robin. Сразу изменил: понаблюдаю, изменится ли что-то в моей жизни 🙂

Настройка мониторинга производительности HP MSA P2000 G3 с помощью Stor2rrd: 5 комментариев

Тоже недавно открыл для себя эту софтину.

Настроил туда NetApp 8080 и четыре штуки Brocade 6510.

В целом неплохо, но софтина больше для статистики, нежели чем для активного мониторинга. Ну и надо чтобы хотя бы месяц пособирала, чтобы графики были красивые.

Даже с нового-топового FAS9000 нет уведомлений о проблемах (вот у меня сбойный дисочек имеется на нём, а stor2rrd этого не видит:
health status: ok

Печально, что SMI-S чем-то адекватным так и не стало (ну или я не разобрался).

Андрей Шамилевич, вступайте со мной в клуб осваивающих Icinga. Там можно и перфоманс-коллекторы настраивать и трапы с железяк ловить и вообще на ушах стоять при определённой сноровке и упорстве 🙂

Добавить комментарий Отменить ответ

Перейти с Порше на Жигули - такое себе решение!

Мысли в слух " а может перейти на proxmox " Что-то в последняя время ESXi не стабильно стал по обновлениям.…

Перед человеком, который решил начать что-либо делать, должно быть четкое понимание, что стоит проверить перед производимыми работами:
1. Стабильная работа обоих контроллеров (или одного).
2. Полное соответствие прошивок дисков (если требуется).
3. Полное соответствие прошивок контроллера(ов), и порядок их обновления (если требуется постепенное повышение версионности).
4. Резервные копии всего, что можно потерять.
5. Стабильное энергообеспечение.

Обновление прошивки контроллера(ов) Fiber Channel.
1. Скачиваем последний свежий для Вашего сервера HP образ SPP (Service Pack for Proliant).
2. Этот диск можно подключить через iLO и загрузить сервер с виртуального CD-ROM, можно записать на CD-ROM если в сервере есть физический CD/DVD привод, либо записать на флешку. Для записи на флешку, нужна утилита USB HP Key Utility for Windows.
3. Запускаемся с диска и обновляем все прошивки относящиеся к контроллерам Fiber Channel (конечно можно параллельно обновить и все сопутствующие прошивки, если это необходимо).

!ВАЖНО!
Если у Вас только один контроллер, позаботьтесь об отсутствии записи на диски в этот момент, а лучше отключите диск (диски) от системы и выключите адаптеры Fiber Channel.
Если контроллеров два, то ничего катастрофичного случиться в принципе не может, т.к. они будут обновляться поочередно.

  • Убедитесь в доступности контроллера по сети через командную строку.
  • В СХД подготовьтесь к использованию FTP. Убедитесь, что служба SSH, Telnet, FTP системы включена. Убедитесь, что пользовательский интерфейс будет иметь разрешение на использование интерфейса FTP.
  • Откройте командную строку (Windows) или окно терминала (UNIX) и перейдите в каталог содержащий файл прошивки для загрузки.
  • Введите: ftp контроллер-сетевой адрес, например: ftp 10.1.0.9
  • Введите логин/пароль
  • Введите: put прошивка flash, например: put с:\firmware\TS250P003.bin flash

Обновление прошивок дисков на СХД.
Самый простой способ обновления прошивок с помощью поисковика, например Google.
Для этого сначала надо узнать, для какого диска нам необходимо найти прошивку. Для этого заходим в GUI СХД и идем по пути Tools -> Update Firmware, смотрим поле Model, и в поисковике набираем hp p2000 g3 ST2000NM0023 firmware, где ST2000NM0023 искомая нами модель диска.
По первой же ссылке, нам предлагается перейти на сайт HP и скачать файл CPxxxxxxx.exe, с искомой прошивкой (внимательно убедитесь, что прошивка выше той, которая указана в GUI СХД в поле Revision).
Далее необходимо зайти в командную строку, перейти в папку со скачанным CPxxxxxxx.exe файлом, и запустить его с параметрами:

CPxxxxxxx.exe / target < ip_address > / user < username > / passwd < password > / s
cp029243.exe / target 192.168.0.1 / user admin / passwd admin / s
  • Запускаем Power Shell с правами администратора
  • Вводим команду Get-InitiatorPort

По итогу видим все порты, которые нам доступны и активны на нашей FC карте. Нас интересует поле PortAddress.
По красоте, можно еще сделать вывод результатов, если FC карт у нас много.

Get-InitiatorPort | Select-Object -Property PortAddress,ConnectionType | Format-Table -AutoSize

Второй способ универсальный и подойдёт для использования во всех версиях ОС Windows. Чтобы им воспользоваться необходимо установить утилиту управления от производителя HBA:

  • HBAnyware/OneCommand для Emulex
  • SANsurfer для Qlogic
  • HP System Management Console (HP SYM)
  • Dell Server Management Console

Если память изменила, и мы не помним, в какие порты контроллера СХД воткнуты оптические патчкорды, то самый простой вариант отключать руками, и смотреть какой линк пропадает.
В соответствии с линками, мы переобзываем порты, например 500143805485cdc4 -> server_A1, и т.д. Это делается для удобства, чтобы в дальнейшем не путаться при маппинге дисков конкретному серверу.

4. Mapping дисков.
Берем определенный Volume который хотим назначить конкретному серверу (правая клавиша мышки Volume vd01_v001 -> Provisioning -> Explicit Mappings или Default Mappings если у нас всего один получатель для всего СХД хранилища)
Выбираем Host, который создали ранее, держа в уме порт, куда он подключен на нашем СХД, и соответственно выбираем галочку MAP, и на визуальной картинке нашего СХД выбираем порт куда он подключен.
Выбираем LUN (это рандомное число, оно не должно совпадать с другими назначениями Mapping, если у нас назначенные тома принадлежат только одному серверу).
Если у нас маппинг портов будет принадлежать только одному серверу (например к СХД у нас подключено два сервера и у нас два контроллера, то можно указывать при маппинге оба порта обоих контроллеров, ничего страшного не произойдет, контроллер сам поймет как распределить нагрузку между портами).
Нажимаем Apply, и ждем примерно пару минут, пока контроллер СХД примет все изменения.

5. Монтирование дисков в сервере с ОС Windows.
Первым делом необходимо ОС объяснить, что у нас будут использоваться средства многопутевого ввода-вывода (у нас же подключены к серверу два контроллера одновременно).
Для этого идем в диспетчер серверов и через Управление -> Добавить роли и компоненты устанавливаем Multipath I/O (MPIO).
После перезагрузки сервера и применения изменений, нам необходимо зайти Панель управления -> MPIO, убедиться, что на вкладке Устройства Multipath I/O появилась наша СХД (значит ОС правильно определила подключенное устройство по FC)
Переходим на вкладку Обнаружение многопутевых устройств, добавляем при необходимости поддержку SAS устройств, и нажимаем кнопку Добавить.
Заходим в Управление дисками, там должен появиться единственный том, который мы назначили этому серверу.

Так что выбор за Вами.

  • Подключаемся с помощью putty по Telnet к порту управления Р2000
  • Выполняем команду:

7. Как сохранить Log файлы с Р2000
Используя SMU или CLI (FTP), пользователь может сохранить данные журнала в сжатом файле с расширением .zip. В данном файле будет содержаться следующая информация:
• Краткий обзор состояния устройств, в который входит информация о базовом статусе и данные конфигурации системы
• Журналы файловых менеджеров (МС) каждого контроллера
• Журнал событий каждого контроллера
• Журнал отладки каждого контроллера
• Журнал загрузки каждого контроллера, в котором указана последовательность запуска
• Дампы критических ошибок каждого контроллера, если такие ошибки возникали
• Трассировка общего интерфейса прикладного программирования (CAPI) с каждого контроллера

На панели обзора конфигурации щелкните правой клавишей мыши по системе и выберите Tools (Инструменты) -> Save Logs (Сохранить журналы)

Друзья! Имеется хранилище hp storageworks msa2000, на нем RAID 50: 10 SAS винтов по 300Gb. Вчера два винта ушли в аут (еще не успели посмотреть что именно с ними), соответственно хранилище в дауне.
У меня вопрос в целесообразности восстановления через raid reconstructor на отдельном сервере (8 слотов сасовских, один под систему отдадим, 6 воткнем дисков, с четырех если получится снимим образы, для того, чтобы в reconstructor отдать) или нет смысла? как крайнюю меру я так понимаю вставить два новых диска и посмотреть сможет ли ребилднуться рейд.
основная задача - прежде всего, на нее и уходит большая часть всех ресурсов »
Если у вас такой парк техники, должен быть человек, отвечающий за неё, это позволит спокойно работать и не отвлекаться специалистам по вашей задаче на решение подобных проблем.
Решения для мониторинга разных систем есть

-------
ВНИМАНИЕ ознакомьтесь, прежде чем создать тему! Процессор - мозг компьютера, блок питания - сердце и печень.

Для отключения данного рекламного блока вам необходимо зарегистрироваться или войти с учетной записью социальной сети.

1. В спан 50 из строя могут выйти 2 диска без потери данных, однако в разных raid 5. В вашем случае, очевидно, это были диски одной группы, и действительно, вероятнее всего диски из строя выходили поочередно. Одновременного выхода из строя 2х дисков никогда не наблюдал, сталкивался только с ситуацией нарушения логики в scsi-кольце на VNX5100, когда SP посчитали что диск 18 оказался в слоте 17, а диск 17 - в слоте 18, но это, видимо, не ваш случай. Лирическое отступление: при таком количестве дисков нет особого смысла использовать спан типы (особенно если не нюансы работы не знакомы), используйте классические рэйды.
2. Задачами восстановления данных на вендроных СХД мид рэйнджа и выше (может и для low-end тоже) занимается recovery team того вендора, который эту СХД произвел (точно верно для EMC, но, полагаю, подход у других производителей такой же). У сервис инженеров recovery team есть доступ к инструментам (если не для конкретного массива, то для конкретной линейки) и менеджмент серверам СХД, которого нет даже у авторизованных инженеров компаний-интеграторов. Такие процедуры не покрываются стандартной тех. поддержкой и обычно стоят нормальное количество тугриков (одной организации с тем самым VNX5100 предлагали за 3к вечнозеленых). Если такой процедурой занимается кто-то кроме инженера recovery team и об этом становится известно, обычно гарантия на данную СХД отзывается, и вендор, возможно, откажется в будущем обслуживать данную СХД даже за деньги. Последнее предложение верно, если этот кто-то сторонний имел доступ к менеджмент-серверу массива.

Имел скромный опыт работы с менеджмент сервером CLARiiON CX4 (это кстати windows server 2003r2 sic!, кстати на VNX`ах это тоже винда), до которого добирался с песнями и плясками с помощью секретных подпольных знаний, которыми поделились со мной ниндзи. Делал я это только потому, что CLARiiON`ы сняты с поддержки (EOL был объявлен давно) и сотрудники EMC заявили что им просто запрещено обслуживать данный массив даже за деньги. Стоит ли говорить, что успеха в своем предприятии я не добился, т.к. низкоуровневые инструменты требуют тучи паролей, которых нет ни у кого кроме recovery team и совершенно не документированы, а точнее, документация доступна только все тем же инженерам команды восстановления. На сколько мне известно, recovery team это последний уровень саппорта для СХД, т.е. дальше кейсы эскалировать некуда.

Я искренне не верю, что вам удастся восстановить данные с вашего LUN`а, но если и удастся, то на это может быть только пара причин: либо вам поможет инженер из этой самой recovery team, либо у HP для СХД данного сегмента не такой нацистский подход как у EMC и вы найдете документацию и низкоуровневые инструменты для такой процедуры (вот в это я как раз не верю).

Адекватным ответом на такие проблемы является мониторинг и резервное копирование.

Читайте также: