Hp storageworks 8 24 san switch настройка

Обновлено: 07.07.2024

1) Start system.
2) Recover password.
3) Enter command shell.

Вот тут описано точнее:

Fabric OS Password Recovery Notes
Publication Number: 53-1000114-01
Publication Date: 3/13/2006
Supporting Fabric OS v2.6.x, v3.1.x, v4.x, v5.x


The exact procedure is the following

On 8Gb Brocade switches, if the Boot PROM password is not set(or it is set and known) and need to recover root password (in case it was set previously and forgotten), then follow the below procedure to set all the passwords to factory default (Factory defined user IDs: root, factory, admin and user, Default password: password):

2. Reboot the switch

2) Recover password.

3) Enter command shell.

2) Recover password.

3) Enter command shell.

Boot PROM password has not been set.

AutoLoad=yes
BootromVerbose=no
InitTest=MEM()
LoadIdentifiers=Fabric Operating System;Fabric Operating System
OSLoadOptions=quiet
OSLoader=ATA()0x8c047;ATA()0x14e978
OSRootPartition=hda1;hda2
SkipWatchdog=yes
baudrate=9600
bootcmd=setenv bootargs mem=$ $;ataboot;bootm 0x400000
bootdelay=20
ethact=ppc_4xx_eth0
ethaddr=00:05:1E:5B:4D:C3
hostname=sequoia
initrd_high=0x20000000
mem=520192k
preboot=echo;echo Type "run flash_nfs" to mount root filesystem over NFS;echo
netdev=eth0
consoledev=ttyS1
ramdiskaddr=400000
ramdiskfile=your.ramdisk.u-boot
stderr=serial
stdin=serial
stdout=serial
ver=U-Boot 1.1.3 (Apr 15 2008 - 19:19:34)

Environment size: 631/4080 bytes


AutoLoad=yes
ENET_MAC=00051E0343E3
InitTest=MEM()
LoadIdentifiers=Fabric Operating System;Fabric Operating System
OSLoadOptions=quiet;quiet
OSLoader=ATA()0x3c020;ATA()0x6b348
OSRootPartition=hda1;hda2
SkipWatchdog=yes

=> setenv OSLoadOptions single


AutoLoad=yes
BootromVerbose=no
InitTest=MEM()
LoadIdentifiers=Fabric Operating System;Fabric Operating System
OSLoadOptions=single
OSLoader=ATA()0x8c047;ATA()0x14e978
OSRootPartition=hda1;hda2
SkipWatchdog=yes
baudrate=9600
bootcmd=setenv bootargs mem=$ $;ataboot;bootm 0x400000
bootdelay=20
ethact=ppc_4xx_eth0
ethaddr=00:05:1E:5B:4D:C3
hostname=sequoia
initrd_high=0x20000000
mem=520192k
preboot=echo;echo Type "run flash_nfs" to mount root filesystem over NFS;echo
netdev=eth0
consoledev=ttyS1
ramdiskaddr=400000
ramdiskfile=your.ramdisk.u-boot
stderr=serial
stdin=serial
stdout=serial
ver=U-Boot 1.1.3 (Apr 15 2008 - 19:19:34)

Environment size: 652/4080 bytes

Note: The rest of the steps are same for all switches with Linux based FOS (ver 4.1 and above).

9. After the switch boot in single user mode, remount the / partition as read/write:

/dev/root on / type unknown (rw,noatime)


none on /proc type proc (rw)
none on /dev/pts type devpts (rw,mode=620)
none on /tmp type ramfs (rw)

/dev/hda2 on /mnt type ext3 (rw)

13. Reboot the switch.

Немного забегу вперёд и скажу, что таким же образом присваиваются адреса и логическим коммутаторам, и для лезвий, если у вас большая корзина серии DCX. Что всё это такое, мы подробнее рассмотрим в будущих статьях.

сбросим так же пароль от админской учётной записи к дефолтному
switch:admin> passwddefault

активируем зону по-умолчанию
switch:admin> defzone —allaccess

очистим конфигурации зон
switch:admin> cfgclear;cfgsave

switch:admin> fanshow
Fan 1 is Ok, speed is 7584 RPM
Fan 2 is Absent

switch:admin> tempshow
Sensor Sensor State Centigrade Fahrenheit
ID Index
==========================================================
1 0 Ok 40 104

switch:admin> sensorshow
sensor 1: (Temperature) is Ok, value is 40 C
sensor 2: (Fan ) is Ok,speed is 7584 RPM
sensor 3: (Fan ) is Absent
sensor 4: (Power Supply) is Ok
sensor 5: (Power Supply) is Absent


А теперь обратим своё внимание на то, в каком состоянии находятся порты коммутатора. Так же можем сделать это через GUI


На мой взгляд, в данном случае, консолью пользоваться всё-таки удобнее, т.к. мы видим не только какой порт в каком состоянии, но и что в него подключено. В моём примере первые 2 порта это Trunk (что такое Trunk мы поговорим в 3-й части) до одного коммутатора, и в 4 и 5 портах, такой же транк до ещё одного коммутатора. 2 и 3 выключены, а к 6-9 подключены какие-то устройства. То, что мы видим как 20:18:00:22:a1:0b:56:10 это и есть WWN устройства, о которых я рассказывал в первой части. А для того что бы увидеть информацию о порте через GUI, необходимо уже лезть в сведения о порте.


Что касается скорости. В большинстве случаев автоматической настройки скорости порта вполне достаточно. Но бывают ситуации, когда вам эту настройку всё-таки нужно изменить. Допустим, устройство не хочет корректно работать на 16Gb/s, при этом в автоматическом режиме выставляется именно эта скорость и устройство постоянно отваливается. Как вариант, или как временно решение, мы можем принудительно изменить скорость порта на 8Gb/s. Так же это можно сделать в GUI выбрав Edit для порта

а через консоль это делается командой
switch:admin> portcfgspeed ,

Скорость указывается просто цифрой от 1 до 16 или 0, в случае если вы хотите вернуть автоматический режим. Так же мы можем ограничить максимальную скорость порта при помощи опции -m и указав цифру от 2 до 16.

Из консоли это делается командами:
switch:admin> switchname


Последним этапом преднастройки будет установка приобретённых вами дополнительных лицензий (если вы их приобретали) на доп.порты и/или функционал. Сделать это можно через всё тот же Switch admin на закладке licenses, нажав кнопочку Add.

Либо через консоль
switch:admin> licenseadd


Если вы хотите использовать syslog, то настроем и его. Так же в Switch admin на вкладке Network

Эти параметры подробно описаны в документации. Вы можете сконфигурировать её соответственно требования парольной политики безопасности вашей компании.
В качестве внешних серверов для авторизации могут использоваться: RADIUS, LDAP, TACACS+.


На массиве ты презентуешь LUN для определённых клиентов ( обычно по WWN ). Реализация зависит от массива. В частности, на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping

Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит область видимости. Насколько я знаю, на большинстве корзин есть встроенные FC свичи, даже если не используются отдельные.

2)На хранилке можно создать виртуальный диск(raid), а в нем уже Volume определенного размера, это и есть Lun? Или Lun создаётся как-то по другому?

Именно так и делают. По-другому у тебя не получится. Сначала ты физические диски объединяешь в Vdisk, затем уже на них нарезаешь Volume'ы

3)На хранилке есть объекты Host, там как я понимаю, указаны все мои лезвия и те луны которые к ним замаплены, я ради эксперимента размапил у одного лезвия все луны, но почему-то они продолжают быть доступны системе на этом лезвие..

Посмотри multipath -ll

Наверняка у тебя на лезвии больше одного fc порта. В p2000 host - это WWN ( грубо говоря - один fc порт ), а не физический сервер как ты возможно подумал.

4)Не совсем ясно назначение объекта Host на хранилище, зачем нам прописывать все наши лезвия на хранилище по Host ID (WWN/IQN):* ?

Чтобы выдавать им диски с массива. Ты же не открываешь к диску доступ с любых WWN ?


З.Ы. найди того, кто отвечал за SAN до тебя ;)


Мне для проекта необходимо на одно лезвие залить ОС, чтобы загрузка шла с LUN на хранилище.

Вот тут кстати будет геморрой. Загрузку будет выполнять прошивка FC адаптера, а настройка multipath на них нетривиальна. Нужно искать официальную документацию, иначе всё это будет шаманством.


На массиве ты презентуешь LUN для определённых клиентов >( обычно по WWN ). Реализация зависит от массива. В частности, >на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping
Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит >область видимости. Насколько я знаю, на большинстве корзин есть >встроенные FC свичи, даже если не используются отдельные.

Спасибо Вам за ответ, кое-что начинаю понимать.. Я создал LUN, замапил его на два порта, действительно, у нас на каждое лезвие по два FC порта. Есть и встроенный FC switch. Сейчас пытаюсь настроить Zoning на свиче.В процессе я создаю Alias, куда добавляю два FC порта(WWN-ы лезвия) моего лезвия, создаю Zone в которую включаю Alias с моими двумя портами , далее создаю конфиг зоны В которую включаю Zone. После того, как применил правило, все ноды потеряли все хранилища.. Никак не уловлю логики зонирования, почему все ноды отвалились разом..


Кроме портов хоста в зоны нужно добавлять порты массива. С точки зрения свича массив - такое же san девайс как и хост.

После того, как применил правило, все ноды потеряли все хранилища..

Изменения обычно тестируются на одном свиче из двух. А потом смотрят на хостах, не отвалилась ли половина путей.



SAN админа нет, ну и среда пока не продакшн, можно экспериментировать. С загрузкой не учел, буду думать.. Наверное вероятнее всего стоит ожидать проблем с определением LUN уже на стадии инсталляции ОС?


rhel и её клоны почти наверняка увидит диски. Проблемы могут быть именно на этапе загрузки, ещё до того как grub будет запущен.

В общем случае, сначала в bios'е выставляется загрузка через fc адаптер, затем через интерфейс самого адаптера ( тоже что-то похожее на биос, тоже при загрузке ) выставляются параметры в строгом соответствии с официальной документацией производителя этого адаптера.


зменения обычно тестируются на одном свиче из двух. А потом >смотрят на хостах, не отвалилась ли половина путей.

У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и. Т.е Логичнее всего зонинг настраивать на корневом san свитче ? Я до этого настраивал san switch, который на блейде.


У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и.

Ты же понимаешь что это единая точка отказа? Попробуй убедить начальство одобрить покупку второго, если отказоустойчивость важна.

Т.е Логичнее всего зонинг настраивать на корневом san свитче ?

Основная задача зонинга - не допустить, чтобы одни хосты мешали другим. Например, один сервер сканирует scsi шину по FC, а у другого от пришедших пакетов срывает крышу. Особенно это актуально, если на разных серверах используется железо разных производителей или разные ОСи. Самые большие проблемы - если без зонинга один массив используют хосты с разными архитектурами ( x86_64 и power system, например ).

Наверное можно и на свичах корзины.

router ★★★★★ ( 12.07.13 11:58:22 )
Последнее исправление: router 12.07.13 12:02:18 (всего исправлений: 2)


*создаю конфиг зоны В* которую включаю Zone.

Создаешь? Тебе по хорошему не создавать новый нужно, а добавлять в уже существующий созданную зону (cfgadd && cfgenable)

Плюс в одной фабрике только один конфиг, если железки одинаковые он разольется на все (я так как-то поправиви конфиг на маленьком свитче в корзине потер все и на большом DCX). Выбивай еще один свитч, что бы не заламывать единственную фабрику.


Создаешь? Тебе по хорошему не создавать новый нужно, а >добавлять в уже существующий созданную зону (cfgadd && cfgenable)

Зоны нету вообще ни одной, да и конфига.


По дефолту скорей всего стояло allaccess, если ты создал зону только для одного инициатора - у него доступ и остался, а остальных в зонинге теперь нет


Да действительно, allaccess У меня один центральный SAN свитч, к нему подключены модульные SAN-свичи от двух разных блейдов. Я создаю новую зону в которую добавляю два номера WWN портов самого лезвия, и WWN модульного SAN.. Далее я создаю еще одну зону в которую добавляю все что осталось за бортом. Тогда не ясно, как мне создать новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. .


новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. .

Эмм, что-то я не понимаю, зачем тебе зонинг между свитчами? У тебя все свитчи (и в корзине, отдельный) в одной фабрике? Тогда спокойно делаешь зоны вида

тут srv(1|2)_fc0 - alias на первый порт в лезвии, VSP_* - порты на массиве. На массиве соответственно хостгруппы должны маппиться на порты 0A,1A Делать все можешь с любого свитча, конфиг автоматически переползет на остальные

У одного из наших клиентов, который приобретал сервера и лезвия HP, а сейчас прикупил HP MSA 2040, недавно возник вопрос:

Почему сервер видит презентованный ему лун, как 4 отдельных диска одинакового объема (ОС Linux)?




Ответ прост:

Подключение к серверу в данном случае происходит по 4 независимым каналам и каждый из этих дисков представляет собой отдельный канал.

Чтобы в итоге получить один диск, для работы нужно использовать службу multipath IO.

Multipath LUN СХД к VMware ESXi










Multipath LUN СХД к Debian GNU/Linux

Немного сложнее:

На начальном этапе установки Debian GNU/Linux, мы можем столкнуться с проблемой невозможности обнаружить системой firmware ql2400_fw.bin. Решается это просто:
На рабочей Linux системе скачиваем пакет firmware-qlogic, распаковываем, записываем в образ и монтируем через ILO (действия производятся на сервере HP Proliant). Выглядит это примерно так:


Подключаем qlfw.raw через меню Virtual Device->Image File Removable Media. Если инсталятор по-прежнему не может найти firmware, это можно сделать вручную, смонтировав образ в каталог /lib/firmware и перезагрузив модуль qla2xxx. Переключаемся на текстовую консоль ( нижеследующие действия производятся в ILO. Меню Keyboard->CTRL-ALT-Fn->CTRL-ALT-F2):


После чего, возвращаемся к инсталятору (меню Keyboard->CTRL-ALT-Fn->CTRL-ALT-F5), и доустанавливаем систему в штатном режиме.

На рабочей системе, нам потребуется установить пакет multipath-tools со всеми зависимостями:


Определяем автозапуск сервиса:


Посмотрим, как сгруппировались устройства:


Создадим файловую систему на нужном нам LUN'e:


Смонтируем, и посмотрим, что получилось:


LUN смонтирован и готов к использованию. Осталось дописать строчку в fstab:


В данном случае мы рассмотрели пример подключения к VMware ESXi и Debian GNU/Linux.

Систему выделения LUNов к серверам мы также используем у себя на хостинге
В данном случае мы используем:

1. Блейд шасси HP C7000 в максимальной комплектации, с двумя административными модулями.

2. FC коммутаторы в шасси С7000 для подключения внешних СХД — HP Brocade 8Gb 8/24c SAN Switch. Внешние FC коммутаторы — HP StorageWorks 8/40 Base 24, (24) порта Full Fabric SAN Switch.

3. СХД HPE 3PAR StorServ 7400 (4-node), HPE 3PAR StorServ 7450c (4-node), HPE 3PAR StorServ 7400c (2-node) и СХД HPE EVA P6550.

Где мы выделяем луны:
ALLFlash — only SSD
AO — смешанный SSD+SAS
NL — only SAS

В следующей статье мы рассмотрим Подключение Multipath LUN СХД к Windows Server 2008 и Windows Server 2012.

Настройка зонирования на коммутаторе HP StorageWorks SN6000C FC Switch (Cisco MDS 9148) с NX-OS 5.2


В этой статье мы пошагово рассмотрим простейший пример настройки зонирования на оптических коммутаторах серии Cisco MDS 9000. В нашем случае будет использоваться коммутатор HP StorageWorks SN6000C FC Switch AW585A (Cisco MDS 9148 Multilayer Fabric Switch) с прошивкой NX-OS 5.

Последовательность действий будет следующей:

Создание наборов зон (zoneset) и включение зон в наборы

Создание нового VSAN

Посмотреть текущий имеющийся список VSAN можно командой:


В конфигурации по умолчанию Cisco DMS уже имеет VSAN 1, которому назначены все порты коммутатора. Согласно документа Cisco MDS 9000 Family CLI Quick Configuration Guide не рекомендуется использовать стандартный VSAN 1 для продуктивных задач. Вместо этого сразу стоит создать свой VSAN.

Создаём свой VSAN, например, с номером 2 и именем «Production»:


Созданный VSAN может находиться в неактивном состоянии (down) пока в него не включены порты, или если к включенным в него портам ничего не подключено.

Включение портов в VSAN

Все активные интерфейсы коммутатора (с 1 по 16), используемые в нашем примере, назначаются в новый созданный VSAN 2


После этого можем включить интерфейсы, так как по умолчанию они могут быть отключены:


Выполняем проверку состояния интерфейсов, выводя в консоль информацию обо всех интерфейсах за исключением выключенных:


Как видим, порты с 1 по 16 включены в VSAN 2, но к ним пока ничего не подключено.

Ещё один способ посмотреть членство интерфейсов коммутатора в разных VSAN


Создание псевдонимов

В Cisco MDS существуют псевдонимы двух типов FC Alias и Device Alias. Возможности у Device Alias шире, чем FC Alias, но этот вид алиасов работает только на коммутаторах Cisco, а алиасы FC Alias совместимы с коммутаторами других производителей и могут быть полезны в смешанных мультивендорных фабриках.

Алиасы FC Alias могут содержать несколько WWPN, в то время, как Device Alias используется для описания одного WWPN.

Алиасы FC Alias используются только для зонирования и работают только в рамках одного VSAN, в то время, как Device Alias могут быть использованы для зонирования, port security, Inter-VSAN Routing (IVR) и доступны сразу во всех VSAN.

Алиасы FC Alias распространяются по коммутаторам вместе с набором зон (zoneset), а алиасы Device Alias не имеют такой привязки и распространяются через службу CFS (Cisco Fabric Service).

Есть мнение, что в фабрике с коммутаторами только от Cisco лучше использовать Device Alias.

При создании алиасов рекомендуемой Cisco практикой считается использование WWN конечного порта - WWPN.

Подсмотреть WWPN устройств, подключенных на тот или иной интерфейс коммутатора можно в базе данных FLOGI. Например, подключим к 3 порту коммутатора (интерфейс fcl/3) один из контроллеров СХД, а затем посмотрим информацию о подключенном к этому порту устройстве:


Здесь мы увидим и опорный WWN контроллера СХД и WWPN порта контроллера СХД, который нам потребуется для создания алиаса.

Рассмотрим пример создания FC Alias:


Рассмотрим пример создания Device Alias:


В нашем случае к 16 порту коммутатора подключен HBA контроллер с хоста, на который нужно транслировать СХД из порта 3. По аналогии с выше приведённым примером, создадим для хоста ещё один алис Device Alias, после чего посмотрим всю информацию из базы данных FLOGI, где уже будут дополнительно отображаться наши алиасы, облегчая восприятие информации.


Создание зон

Следующим шагом будет создание зон и добавление в эти зоны участников. Для начала создадим зону с говорящим названием.

Посмотрим какие способы добавления участников в зону мы имеем:


Как видим, при добавлении членов зоны можно использовать разные методы, но одним из самых наглядных будет использование в качестве членов зоны ранее созданных алиасов Device Alias.

Добавим в зону ранее созданные псевдонимы WWPN и посмотрим общую информацию о зонах и их членах:


Создание наборов зон

Набор зон zoneset может включать в себя одну и более зон, при этом одна и та же зона может быть включена в разные наборы зон. Но только один zoneset может быть активным в рамках отдельно взятого VSAN. Для примера создадим один единственный набор зон с именем «ActiveZoneSet» и включим в него ранее созданную зону:


Активация набора зон

Активируем набор зон и сохраняем конфигурацию текущую рабочую конфигурацию в стартовую.


С этого момента зонирование на нашем коммутаторе начинает работать.

Проверим активный набор зон для всех VSAN


Проверяем результат работы зонирования - проверяем доступность стораджа на хосте.

Дополнительные источники информации:

Twistedminds - Cisco MDS для самых маленьких.
Годная сжатая статья, от которой я оттолкнулся. Рекомендуется к прочтению

Проверено на следующих конфигурациях:


Автор текущей редакции:
Алексей Максимов
Время публикации: 11.04.2019 21:41

Читайте также: