Scsi and raid controllers что это

Обновлено: 05.07.2024

Когда встает потребность в значительном увеличении дисковой системы сверх того, что предусмотрено материнской платой, или в значительном повышении уровня быстродействия и отказоустойчивости дисковой подсистемы, пользователь сталкивается с выбором дискового контроллера.

Сложность выбора заключается в том, что кроме того, что контроллеры бывают с интерфейсами SATA и SAS, так они еще выпускаются в трех вариантах функционала: RAID-контроллер, HBA и Expander. Давайте разбираться.

Рассмотрим тиры интерфейсов

SATA – наследник или следующая ступень развития IDE интерфейса и расшифровываемый как Serial Advanced Technology Attachment (последовательная технология подключения). К слову, IDE после появления SATA, сначала переименовали в ATA, а затем в PATA - Parallel Advanced Technology Attachment (параллельная технология подключения). Так же SATA и унаследовал свой сегмент применения - домашние-офисный сегмент. Не полностью, конечно, есть и энтерпрайз sata диски, но общее позиционирование интерфейса – все-таки ближе к рядовому потребителю, чем к корпоративному.

SAS – тоже наследник прошедшего поколения, но полностью корпоративного сектора. При этом своим появлением он не заставил никого переименовываться, а уже в своем имени несет наследственность «родителя» и расшифровывается как Serial Attached SCSI.

Остановимся немного на втором типе интерфейса, поскольку он для нас более профильный и в отличии от домашнего сегмента обладает рядом интересных особенностей.

Обратная совместимость с SATA: к любому SAS устройству можно подключить SATA диск, так что не стоит волноваться о доступности информации на SATA дисках, если в систему планируется добавить SAS контроллер. Главное не подключайте к контроллеру мобильные и домашние диски из-за их особенности определения времени наработки.

Дело в том, что по умолчанию SAS-контроллер все время будет держать диск в активном состоянии - посылать нулевые и контрольные пакеты и в случае превышения времени ответа помечать диск, как неисправный.

Работа по MAC-адресу: в отличии от SATA диска, SAS диски имеют каждый свой персональный mac-адрес, как любая сетевая карта. Связанно это с объемом дисков в одной связанной системе: SAS контроллер способен оперировать 16384 устройствами.

Если вы собрали два массива из четырех SATA дисков силами домашней материнской платы или простого SATA контроллера, а затем поменяли местами диски из разных массивов – система закономерно отрапортует вам о разрушении обоих массивов.

В случае с SATA система оперирует только адресным портами нахождением диска относительно контроллера, т.е. диски 00 и 01 это первый массив, а 02 и 03 это второй. Касаемо же SAS структуры - контроллер всегда оперирует адресом самого диска, а не его расположением относительно порта контроллера.

Так что, даже если вы переставите диск не только в соседний разъем, а вообще в соседнюю дисковую полку, подключенную к этому же контроллеру, с точки зрения системы вообще не произойдет ничего внештатного. Все диски доступны, все работает штатно.

Что же касается типов контроллеров по функционалу:

Начнем с самого простого по функциональности – SAS Expander (экспандер)

Это не совсем контроллер в типичном понимании этого слова. Задача экспандера – расширение дисковой подсистемы. Действует он аналогично обычному разветвителю, позволяет подключить к контроллеру дополнительные диски.

При этом хоть и занимая 1 единицу адресного пространства в топологии, но обеспечивая прозрачность подключения. Другими словами, экспандеру не нужны драйвера, только питание. Ни каких настроек у экспандера нет и никакого управления дисками не предусматривается.

Еще одна тонкость, у экспандера нет входящих, исходящих и приоритетных портов. А из-за того, что SAS-контроллеры работают адресно, можно не бояться петель и параллельных подключений, на топологии, функционале и скорости это никак не скажется.

Вторая важная особенность, через экспандер можно подключать SATA диски к SAS контроллеру, а вот к SATA контроллеру не получится, т.к. сам экспандер является SAS-устройством.

SAS HBA – он же Host Bus Adapter (Адаптер главной шины)

Как и экспандер выполняет задачу по расширению дисковой подсистемы, но в отличие от него осуществляет подключение к системе SAS устройств, если изначально система не располагает этим интерфейсом. Как и в случае со SCSI, SAS интерфейс используется не только дисками, но и внешними устройствами, например, ленточными библиотеками, стримерами или дисковыми полками.

В отличие от экспандера HBA работает через драйвер и может предлагать простейший функционал по настройке подключенного массива дисков, как правило это объединение дисков в 0, 1, 10 уровень или организацию JBOD, когда данные пишутся последовательно на все доступные диски. С точки зрения системы JBOD - это просто один диск, размер которого увеличивается, когда к HBA подключается новый диск и назначается входящим в данную группу.

SAS RAID – самый «продвинутый» вариант контроллера. Он обладает возможностями всех вышеперечисленных типов, но имеет высокопроизводительный процессор для выполнения более сложных операций. Рейд контроллер конечно же, как и HBA, требует установку драйвера.

Так же, как и HBA, может объединять диски в 0, 1, 10, JBOD массивы, но в отличии от HBA способен работать с массивами 5, 6, 50 и 60 уровней и обеспечивать на порядок большую производительность на операциях ввода/вывода.

К сожалению, в отличии от предыдущих «собратьев», хоть рейд контроллер и несет на себе только пассивный радиатор, но он строго нуждается в обдуве. Как и говорилось в статье о режимах эксплуатации, если устройство не имеет активного охлаждения, это не значит, что ему не нужен обдув.

RAID (англ. redundant array of independent/inexpensive disks) — дисковый массив независимых дисков. Служат для повышения надёжности хранения данных и/или для повышения скорости чтения/записи информации (RAID 0).

Пример простейшего PCI IDE RAID контроллера. В этом устройстве все функции RAID выполняет программный драйвер ОС. Поддерживаются только режимы RAID 0 и RAID 1Аббревиатура RAID изначально расшифровывалась как «Redundant Arrays of Inexpensive Disks» («избыточный (резервный) массив недорогих дисков» , так как они были гораздо дешевле RAM). Именно так был представлен RAID своими исследователями: Петтерсоном (David A. Patterson), Гибсоном (Garth A. Gibson) и Катцом (Randy H. Katz) в 1987 году. Со временем RAID стали расшифровывать как «Redundant Array of Independent Disks» («избыточный (резервный) массив независимых дисков») , потому как для массивов приходилось использовать и дорогое оборудование (под недорогими дисками подразумевались диски для ПЭВМ) .

Калифорнийский университет в Беркли представил следующие уровни RAID, которые были приняты как стандарт де-факто:

RAID 0 представлен как не отказоустойчивый дисковый массив.
RAID 1 определён как зеркальный дисковый массив.
RAID 2 зарезервирован для массивов, которые применяют код Хемминга.
RAID 3, 4, 5 используют чётность для защиты данных от одиночных неисправностей.
RAID 6 используют чётность для защиты данных от двойных неисправностей . SCSI (англ. Small Computer Systems Interface, произносится как скази) — интерфейс, разработанный для объединения на одной шине различных по своему назначению устройств, таких как жёсткие диски, накопители на магнитооптических дисках, приводы CD, DVD, стриммеры, сканеры, принтеры и т. д. Раньше имел неофициальное название Shugart Computer Systems Interface в честь создателя Алана Ф. Шугарта

Теоретически возможен выпуск устройства любого типа на шине SCSI.

После стандартизации в 1986 году, SCSI начал широко применяться в компьютерах Apple Macintosh, Sun Microsystems. В компьютерах, совместимых с IBM PC, SCSI не пользуется такой популярностью в связи со своей сложностью и сравнительно высокой стоимостью, и применяется преимущественно в серверах.

В настоящее время SCSI широко применяется на серверах, высокопроизводительных рабочих станциях; RAID-массивы на серверах часто строятся на жёстких дисках со SCSI-интерфейсом (хотя в настоящее время на серверах нижнего ценового диапазона всё чаще применяются RAID-массивы на основе SATA).

Для чего нужен интерфейс SCSI

Что такое Fibre Channel

Fibre Channel - стандарт интерфейса передачи данных последовательным способом в режиме полного дуплекса. Помимо высокой скорости передачи данных - до 200 Мбайт/с - расстояние, на которое они могут передаваться в случае использования оптиковолоконной связи, может составлять 10 км. При этом поддерживаются такие популярные протоколы передачи данных, как SCSI, IP, Token Ring, Ethernet и т. д. Fibre Channel может быть использован в сетях различной топологии.

SCSI-контроллер

Для того чтобы реализовать интерфейс SCSI, вам понадобится его контроллер. Он существует в двух ипостасях: либо он уже интегрирован на системной плате, либо вы приобретаете его отдельно, как и произошло в нашем случае. Мы использовали PCI SCSI-контроллер Tekram DC-390U2W - наиболее совершенную модель этой линии.

Условия тестирования

Тестирование жесткого диска Quantum Atlas 10K объемом 9,1 Гбайт происходило в следующей конфигурации:

  • системная плата ASUS P2B BIOS ver. 1008;
  • процессор Pentium III 450 МГц
  • графический адаптер ATI Xpert98 8 Мбайт;
  • системный диск Quantum Fireball EL 7,6 Мбайт, UltraDMA 33;
  • SCSI-контроллер Tekram DC-390U2W.

Сам тестируемый диск размечен одним разделом FAT32.

В качестве операционной системы использовалась Windows 98. Тестирование проводилось тестовым пакетом Ziff Davis WinBench 99 ver. 1.1.

Результаты тестирования

Полученные результаты по тесту WinBench 99:

  • Business Disk WinMark - 4750 тыс. байт/с;
  • High-End Disk WinMark - 16 600 тыс. байт/с;
  • Disk Transfer Rate (Begining) - 25 900 тыс. байт/с;
  • Disk Transfer Rate (End) - 16 600 тыс. байт/с;
  • Disk Access - 8,94 мс;
  • Disk CPU Utilization - 5,17%.

Глядя на итоговые цифры, можно сказать, что они по большинству показателей раза в полтора превышают стандартные диски IDE и, естественно, выше, чем у SCSI-дисков со скоростью вращения 7200 об/мин. Освоен очередной 10 000-й рубеж скорости, а все лучшее тут же становится ориентиром для других производителей, не желающих уступать в конкурентной борьбе. Все это в конечном итоге благотворно сказывается на нас - пользователях и на общем прогрессе в сфере дисковых накопителей.

В технологических процессах допечатной обработки изображений производительность компьютера играет важную роль. Во-первых, существуют определенные минимальные системные требования для профессиональной работы с графикой. Так, например, подготовить качественный полноцветный макет печатного издания, используя 14-дюймовый монитор и видеокарту, неспособную отображать 24-разрядный цвет, практически невозможно. Во-вторых, соответствие вашей рабочей платформы этим минимальным требованиям еще не означает, что работа с графическими файлами большого объема будет комфортной. Для повышения эффективности работы с компьютером, он должен обладать запасом производительности. Это позволяет выполнять даже ресурсоемкие операции (масштабирование, наложение фильтров на изображение и т. п.) достаточно быстро, а в идеале - в режиме реального времени. Немалый вклад в общую производительность графической станции вносит ее дисковая подсистема. Она становится "узким местом" системы при обработке файлов, объем которых сравним с объемом оперативной памяти компьютера.

Ситуация с жесткими дисками для платформы Wintel всегда выглядела следующим образом: существовали SCSI-винчестеры, ориентированные на Hi-End-сектор рынка, и параллельно предлагались менее дорогие IDE-варианты, предназначенные для установки в остальные системы. За последние пару лет произошел самый настоящий технологический прорыв в области накопителей с интерфейсом IDE - достаточно сказать, что если в конце 1998 года средним по всем показателям считался жесткий диск емкостью 4,3 Гбайт, с частотой вращения шпинделя 5400 об./мин и плотностью записи 2 Гбайт на пластину, то в конце 2000 года в среднюю категорию попадают диски объемом 40-45 Гбайт / 7200 об./мин / 15-20 Гбайт на пластину. При этом нормой становится использование стандарта ATA-100 и уменьшение шума работающего диска до величин порядка 30 дБ.

В области жестких дисков SCSI такого скачкообразного роста характеристик не наблюдалось - до сих пор средняя емкость для дисков этого стандарта находится на уровне 18 Гбайт при плотности записи порядка 6 Гбайт на пластину. Превосходство в производительности над IDE-дисками сохраняется благодаря другим важным параметрам - высокой частоте вращения шпинделя (10 000 об./мин являются нормой), большому объему встроенного буфера (от 4 до 8 Мбайт против 0,5-2 Мбайт у IDE-моделей), а также во многом благодаря особенностям SCSI-технологий вообще.

Тем не менее, современные жесткие диски стандарта IDE буквально наступают на пятки своим дорогим SCSI-собратьям. Самые весомые аргументы в пользу IDE-варианта дисковой подсистемы вашего компьютера - чрезвычайно низкая цена (в 2-4 раза меньше, чем у SCSI) при большой емкости, низком тепловыделении и уровне шума.

Ситуация подогревается еще и тем, что в последнее время популярными стали RAID-массивы дисковых накопителей стандарта IDE. До этого RAID-технологии применялись в основном для дисковых подсистем SCSI. Появление на рынке относительно недорогих IDE RAID-контроллеров позволило IDE-винчестерам еще больше расширить их рыночную нишу. Стандарт RAID 1 (Mirror) позволяет увеличить надежность дисковой подсистемы пропорционально количеству избыточных жестких дисков. Так, построив RAID-массив в режиме Mirror из двух одинаковых винчестеров, мы в два раза увеличиваем надежность хранения нашей информации (она дублируется) и заодно получаем приятный бонус в виде несколько увеличившейся скорости чтения с дискового массива (это возможно благодаря поочередному считыванию блоков информации с двух винчестеров и организации ее в единый поток; этим занимается на аппаратном уровне RAID-контроллер). В случае использования RAID 0 (режим STRIPE) мы получаем увеличение скорости нашей дисковой подсистемы пропорционально количеству дисков, составляющих массив - информация разбивается на небольшие блоки и "раскидывается" по дискам. Таким образом, чисто теоретически, можно было бы увеличить быстродействие дисковой подсистемы в количество раз, равное количеству винчестеров в массиве. К сожалению, на практике скорость увеличивается не так значительно, но об этом вы сможете прочитать ниже, оценив результаты тестов. Нельзя не отметить главный недостаток режима RAID 0 (Stripe) - надежность хранения информации уменьшается ровно в то количество раз, которое равно числу используемых винчестеров. Специально для устранения этого неприятного эффекта предназначен режим RAID 0+1 - своеобразная "смесь" режимов Mirror и Stripe. Для организации массива RAID 0+1 необходимы как минимум 4 жестких диска. Результат - надежность одиночного диска плюс двойной объем и увеличившееся быстродействие.

Представления о производительности различных типов жестких дисков у многих пользователей зачастую сумбурны. Большинство людей знают только то, что "SCSI - это ужасно круто, намного быстрее, чем IDE", некоторые, из числа "продвинутых", искренне считают, что RAID-массив из двух дисков в режиме Stripe ровно в два раза быстрее одиночного винчестера. На самом деле в этой области сложилось много мифов, зачастую совсем неверных. Эта статья - попытка прояснить ситуацию, точно измерив быстродействие разных типов дисковых подсистем. Хотелось бы обратить особое внимание на то, что для оценки производительности использовались не синтетические наборы тестов (от которых, как правило, мало толку), а самые что ни на есть практические задачи из арсенала людей, профессионально занимающихся графикой на PC.

Итак, тестировались следующие варианты дисковых подсистем:

IDE-винчестер устаревшей серии (5400 об./мин, 512 кбайт кэш, 4 Гбайт на пластину) с интерфейсом АТА-33 - Fujitsu MPD3130AT; системная плата - i440BX с встроенным контроллером ATA-33.
IDE-винчестер новой серии (7200 об./мин, 2048 Кбайт кэш, 20 Гбайт на пластину) с интерфейсом АТА-33 - Western Digital WD200; i440BX, ATA-33 (встроенный).
IDE-винчестер новой серии (7200 об./мин, 2048 Кбайт кэш, 20 Гбайт на пластину) с интерфейсом АТА-100 - Western Digital WD200; RAID-контроллер Promise FastTrak100 (SPAN).
RAID-массив из двух современных IDE-дисков в режиме Stripe - 2xWestern Digital WD200; Highpoint Technologies HPT370 UDMA/ATA 100 Raid Controller (STRIPE).
SCSI-винчестер высокого класса (10 000 об./мин, 4096 Кбайт кэш, 6 Гбайт на пластину) с интерфейсом SCSI Ultra160 - Fujitsu MAJ 3182 MP; контроллер SCSI - Adaptec 29160N.

Для чистоты эксперимента, каждый вариант дисковой подсистемы устанавливался в систему абсолютно "с нуля". Диск (или дисковый массив) разбивался программой FDISK на три логических. При этом объем загрузочного раздела (логический диск С:\) всегда устанавливался равным 3 Гбайт. Остальное пространство делилось поровну между дисками D:\ и E:\. Операционная система устанавливалась на диск С:\, файл подкачки Photoshop располагался на диске D:\; там же находились тестовые файлы. Файловая система - FAT32.

Для того, чтобы дать хорошую нагрузку на дисковую подсистему и таким образом оценить ее производительность, объем оперативной памяти был ограничен до 128 Мбайт (притом, что в системах такого класса, предназначенных для работы с растровой графикой, 256 Мбайт являются начальным уровнем). Объем памяти, доступной программе Photoshop 5.5, устанавливался в 50% от общей свободной. Этот объем составлял примерно 57 Мбайт. Все тесты прогонялись с двумя файлами различного объема - размер первого составлял 1/5 от объема памяти, доступного Photoshop, размер второго - в 1.5 раза больше (см. таблицу 1). Это позволило получить данные о скорости выполнения той или иной операции в двух случаях: когда обрабатываемый файл с запасом помещается в оперативной памяти, и когда он там гарантированно не помещается целиком. Надо сказать, что для файла меньшего объема результаты, полученные на разных дисковых подсистемах, практически идентичны, что совсем неудивительно - основная обработка происходила в оперативной памяти. Различия в этом случае заметны только в операциях чтения/записи - при открытии и сохранении файла. Совсем другая картина наблюдалась при обработке файла большого объема. Поскольку файл не помещался целиком в оперативной памяти, Photoshop активно задействовал дисковую подсистему компьютера. Результаты этих тестов, как наиболее показательные, оформлены в виде диаграмм. Полные результаты, включающие в себя тесты с файлом меньшего объема, а также с более мощным процессором, можно увидеть в сводной таблице № 2.

Интересующиеся могут повторить все приведенные в этой статье тесты на других системах, поскольку все используемые настройки приведены в таблице. Тестовые файлы были созданы следующим образом: из каталога . \Adobe\Photoshop5.5\Goodies\ Samples\ был взят файл CMYK balloons.tif. После перевода в формат RGB он был увеличен до размеров 2240x1680 и 6400x4800 пикселов, результатом чего стали два файла формата TIFF RGB объемом 10,7 и 89,7 Мбайт соответственно. Над полученными файлами и проводились все операции. После каждой операции результат отменялся командой Undo. Последняя операция (Save) производилась в формате CMYK. Каждый тест прогонялся три раза, результаты усреднялись. После каждого теста система перезагружалась.

Система № 1: Fujitsu MPD3130AT; i440BX, ATA-33

Жесткий диск Fujitsu серии MPD - вполне заслуженный ветеран. Полтора года тому назад винчестеры такого класса, как Fujitsu MPD, Quantum CR и прочие их аналоги являлись самыми быстрыми в секторе жестких дисков стандарта IDE. Этот винчестер имеет три пластины емкостью по 4,32 Гбайт, 6 головок чтения/записи и встроенный буфер объемом 512 Кбайт. Среднее время поиска - 9,5/10,5 мс (чтение/запись), частота вращения шпинделя - 5400 об./мин, уровень шума - 36 дБ. Поддерживается стандарт АТА-66, однако это не более, чем маркетинговый ход, поскольку скорость передачи данных находится в пределах 14,5-26,1 Мбайт/с, что полностью вписывается в возможности стандарта АТА-33 (33,3 Мбайт/с).

Fujitsu MPD3130AT показал себя как надежный, тихий винчестер. При работе шума вращающегося шпинделя почти не слышно, но звук позиционируемых головок явственно различим. Греется диск очень мало - даже при длительной работе корпус остается прохладным или едва теплым.

В тестах MPD3130AT существенно проигрывает всем остальным участникам, что совсем неудивительно, учитывая разницу характеристик с ближайшим конкурентом WD200 (частота вращения - 5400 и 7200 об./мин соответственно, плотность записи - 4,3 Гбайт на пластину против 20 Гбайт).

Тестирование на двух различных операционных системах дало несколько противоречивые результаты: в Windows 98 заметно быстрее выполняются операции открытия и сохранения файла, а в Windows 2000 - все остальные. В остальном - никаких сюрпризов.

Система № 2: Western Digital WD200; i440BX, ATA-33.

WD200 - представитель нового поколения жестких дисков. Основные параметры - 7200 об./мин, увеличенный до 2048 Кбайт внутренний кэш, плотность записи - 20 Гбайт на пластину. Диск имеет одну пластину и две головки. Среднее время поиска заявлено производителем как 8,9/10,9 мс, что не очень отличается от характеристик Fujitsu MPD3130AT. Тем не менее, WD200 заметно быстрее. Во-первых, сказывается больший объем встроенного буфера. Во-вторых, скорость обмена на участке "буфер-поверхность" достигает впечатляющих 30,5-50 Мбайт/с - все-таки 20 Гбайт на пластину - нешуточная плотность записи.

В работе диск показал себя с самой положительной стороны - несмотря на повышенную скорость вращения шпинделя, он оказался тише Fujitsu MPD (заявленный уровень шума - 30 дБ). Перемещения головок практически не слышны.

С тепловыделением дела обстоят похуже, но вполне приемлемо. После часа интенсивной работы винчестер нагрелся градусов до 45, т.е. на ощупь был довольно теплым, но не горячим.

В целом данная конфигурация оставила очень благоприятное впечатление и является несомненным чемпионом по соотношению "цена-производительность". Судите сами - при цене порядка 130 долл. этот винчестер образует вполне законченное решение с встроенным контроллером АТА-33 чипсета 440ВХ. И никаких проблем с Windows 98, как это наблюдается в случае использования АТА-100.

Система № 3: Western Digital WD200; ATA-100 Promise FastTrak100 (SPAN).

Тесты выявили очень интересный момент - при использовании интерфейса АТА-100 в Windows 98 производительность дисковой подсистемы оказалась в большинстве случаях ниже, чем при использовании АТА-33. А в отдельных случаях наблюдалось просто катастрофическое (в 5-10 раз) падение производительности! Поскольку в Windows 2000 результаты были абсолютно предсказуемыми (то есть АТА-100 оказался, как и положено, быстрее АТА-33), это дает основания подозревать в некорректной работе связку Windows 98 + ATA-100. Возможно причина кроется в конкретной модели контроллера - Promise FastTrak100. К тому же, большинство тестов выполнялось быстрее в Windows 2000.

Из всего этого можно сделать логичный вывод - для серьезной работы с графикой Windows 98 не подходит. Если вы хотите использовать последние достижения в области IDE, а именно интерфейс АТА-100 или RAID-массив в режиме STRIPE - лучше работать с ОС семейства NT (Windows NT 4.0 или Windows 2000), которые в таких режимах ведут себя более корректно.

При использовании ОС Windows 2000 выигрыш от перехода с АТА-33 на АТА-100 есть, но он невелик.

Система № 4: два диска Western Digital WD200 + HPT370 UDMA/ATA 100 Raid Controller(STRIPE).

И, наконец, в деле был испытан RAID-массив из двух одинаковых жестких дисков в режиме чередования блоков данных (STRIPE). Использовался размер блока 64 Кбайт, как наиболее оптимальный (по данным других независимых испытаний). Теоретически быстродействие такой дисковой подсистемы может быть в 2 раза больше, чем у диска-одиночки. Но результаты тестов не оставляют поводов для оптимизма. В подавляющем большинстве задач выигрыш в производительности составляет 5-15% относительно одиночного диска с интерфейсом АТА-100.

Одним словом, результаты неутешительные. Рекомендовать построение массива RAID 0 можно лишь тому, кто хочет вытянуть максимальную производительность из технологии IDE, невзирая на все вышеописанные недостатки. Но это может понадобиться разве что тем, кто занимается вводом несжатого видео на PC.

Система № 5: Fujitsu MAJ 3182 MP + SCSI-контроллер Adaptec 29160N.

Последний участник "соревнований" - SCSI-винчестер весьма высокого класса. Надо сказать, что MAJ 3182 был выбран в качестве "верхней планки" данного теста. Что ж, свое превосходство этому жесткому диску удалось показать наглядно - практически во всех тестах он идет "ноздря в ноздрю" со своим главным соперником - RAID-массивом в режиме STRIPE.

Представление о потенциальных возможностях Fujitsu MAJ 3182 MP могут дать и его характеристики. Частота вращения шпинделя - 10 025 об./мин, количество дисков - 3, головок - 5, среднее время поиска - 4,7/5,2 мс, объем встроенного буфера - 4096 Кбайт. Используется интерфейс SCSI Ultra160, обеспечивающий синхронную скорость передачи данных на участке "буфер-контроллер" в 160 Мбайт/с.

Все эти впечатляющие параметры сказались на энергопотреблении и шумности винчестера. Греется Fujitsu MAJ 3182 MP просто ужасно - температура корпуса после продолжительной работы поднимается, наверное, до 60°С, если не больше - корпус явственно обжигает пальцы. Уровень шума при работе тоже не маленький - 40 дБ. И самый главный недостаток - цена. На момент написания этих строк комплект из жесткого диска и контроллера SCSI-160 стоил в Москве около 500 долл.

Итоги

Итак, по результатам тестов хотелось бы сделать несколько выводов, которые будут полезны тем, кто собирается модернизировать дисковую подсистему своей графической станции.

  1. Диски предыдущих поколений с небольшой плотностью записи и малым объемом встроенного буфера значительно проигрывают современным моделям по всем основным параметрам - скорости, емкости и бесшумности. Смело меняйте старенький винчестер класса Fujitsu MPD на новый высокооборотистый жесткий диск с повышенной плотностью записи (15-20 Гбайт на пластину) и большим объемом кэша (2 Мбайт). Выигрыш в производительности может составлять 100 и более процентов. Причем все сказанное остается в силе даже при использовании интерфейса АТА-33.
  2. Переход с АТА-33 на АТА-100 не дает большого прироста производительности. Покупать отдельный контроллер АТА-100, пусть и недорогой (порядка 30 долл.), на мой взгляд не стоит. Подходящий вариант - наличие на системной плате "бесплатного" встроенного контроллера этого стандарта.
  3. RAID-массив в режиме STRIPE показал очень хорошую производительность - на уровне "десятитысячника" SCSI, а зачастую и выше. При этом нужно учитывать очень привлекательную стоимость такой конфигурации, ведь два винчестера, составляющих массив, вместе с недорогим RAID-контроллером от Highpoint стоят меньше, чем один SCSI винчестер без контроллера! (130+130+30 = 290 долл.). И плюс ко всему, мы получаем огромную, по сравнению со SCSI-вариантом, емкость - 40 Гбайт. Единственный, но очень большой минус - уменьшение надежности хранения данных в 2 раза. Впрочем, если дисковый массив такого типа будет использоваться в качестве средства для оперативной работы, а не как долговременного хранилища ценной информации, его приобретение более чем оправдано.
  4. SCSI-винчестеры верхнего уровня, как и следовало ожидать, обладают высочайшей производительностью.

Однако, учитывая высокую цену, большое тепловыделение и уровень шума таких устройств, приобретение их оправдано только в том случае, когда нужна бескомпромиссно высокая производительность (и надежность дисковой подсистемы, ведь SCSI-винчестеры всегда славились своей надежностью и большой наработкой на отказ).

В заключение хотелось бы обратить внимание читателей на две строки в последней таблице - результаты измерений при замене процессора Pentium-III-650E (частота системной шины 100 МГц) на Pentium-III-866EB (FSB 133 МГц). Как видно, замена процессора на ощутимо более мощный не дает большого разброса результатов. Это показывает, что выбранная методика тестирования была правильной (низкая "процессорозависимость", основная нагрузка ложится на дисковую подсистему).

Редакция благодарит за помощь компании Elko Moscow, SMS, "Пирит" и "Русский Стиль", предоставившие оборудование для тестирования.

Что такое RAID-массив и зачем он нужен

В системах хранения данных критически важны сохранность и время восстановления в случае сбоя. Свою ценность, а в некоторых задачах и более высокую, имеет скорость работы накопителей. Использование RAID-массивов в различных конфигурациях — это поиск компромисса между перечисленными параметрами.

RAID — это технология объединения двух и более накопителей в единый логический элемент с целью повышения производительности и (или) отказоустойчивости отдельно взятого элемента массива.

RAID-массивы классифицируются по следующим параметрам:

  • по исполнению RAID контроллера;
  • по типам поддерживаемых интерфейсов накопителей;
  • по поддерживаемым уровням RAID.

RAID-контроллеры: аппаратные и не очень

По исполнению контроллеры делятся на программные и аппаратные. Программные реализуются непосредственно средствами операционной системы или на уровне материнской платы. Последние также известны как интегрированные, а также Fake-RAID. Они работают быстрее чисто софтверных решений за счет специального чипа для управления массивом. Недавно публиковался текст о развертывании таких технологий. Дополнительной железки при этом никакой нет и в любом случае будут использоваться ресурсы вычислительной машины.

Аппаратные RAID-контроллеры выполняются в форм-факторе платы PCIe либо в составе внешнего автономного устройства — дискового массива.

Они имеют на борту собственные процессор, память, BIOS и специальный интерфейс для конфигурации. Платы PCIe также комплектуются дополнительными модулями, сохраняющими данные, если произойдет сбой в электропитании: BBU с Li-Ion аккумулятором и ZMCP на базе суперконденсатора.


Оба модуля позволяют сделать сэйв содержимого кэша. После восстановления работы эти данные будут немедленно записаны на диск. Дисковый массив, будучи автономным, располагает собственными блоком питания и системой охлаждения.


Накопители подключаются к плате либо кабелями напрямую, либо через платы расширения. Автономные дисковые массивы содержат все накопители внутри себя, а наружу смотрит все тот же интерфейс PCIe (есть и другие варианты, например, USB 3.2 и Thunderbolt 3). Кстати, известный вид дисковых массивов — сетевое хранилище данных (NAS).

Что можно подключать к RAID-контроллеру

Следующий важный параметр, по которому различаются RAID-массивы, это поддержка интерфейсов накопителей. Не будем тревожить склеп с IDE-дисками, а констатируем, что по большому счету применяются три типа: SATA, SAS и NVMe. SAS — удел серверов, а вот остальные применяются повсеместно.

Есть программные и аппаратные RAID-контроллеры, которые умеют управлять массивом дисков с одним из интерфейсов. В формате PCIe есть и такие платы, которые реализуют режим Tri-Mode, позволяющий работать со смешанным составом накопителей.


Уровни RAID

Разобравшись с основными конструктивными особенностями RAID-контроллеров, перейдем к главной характеристике — поддержке уровней RAID. В подавляющим большинстве контроллеры работают с уровнями 0, 1, 1E, 10, 5, 5EE, 50, 6, 60. Другие занесены в красную книгу и на практике встречаются редко. Простейшие программные контроллеры позволяют создать RAID 0 и 1. Более продвинутые добавляют RAID 10 и 5. В аппаратных, как правило, такой перечень минимален, и многие платы поддерживают весь спектр уровней. Рассмотрим подробнее каждый из них.

Несколько важных нюансов для понимания эффективных объема и быстродействия, получаемых в результате объединения в массив:

  • при использовании накопителей разного объема контроллер «обрезает» объем каждого из них до наименьшего из используемых. Если у вас есть много дисков 4 ТБ и один 2 ТБ, то в массиве все диски будут восприниматься как 2 ТБ;
  • при использовании накопителей с разными скоростями ввода/вывода и задержками, то операции доступа будут осуществляться с наихудшими из всех параметров. Другими словами, самым быстрым дискам придется ждать, пока отработает самый медленный.

RAID 0


Единственный массив, который не совсем оправдывает название, поскольку не обладает избыточностью. При этом скорость и эффективный объем максимальны. Данные разбиваются на одинаковые блоки, равномерно записываемые на все диски по очереди. Эти блоки называются страйпами, отсюда и сам RAID 0 часто именуют страйпом. Считывание данных также происходит параллельно. Здесь конечно же есть свое но.

Дело в том, что прирост производительности не прямо пропорционален количеству дисков (как хотелось бы). В силу специфики накопителей, особенно механических, выигрыш в конфигурации RAID 0 хорошо заметен только на операциях последовательного чтения. Другими словами, при работе с большими файлами. Типичная область применения — игры, видеомонтаж и рендеринг. При условии, что регулярно производится резервирование на сторонние накопители. Наряду с этим при случайном доступе к файлам разница с отдельно взятым диском уже не так ощутима. Более позитивная картина наблюдается в случае твердотельных накопителей, но они и так удовлетворяют большинству запросов по быстродействию.

В общем, в современных реалиях RAID 0 далеко не всегда оправдает свое применение, а основная задача RAID-массива все же в повышении надежности хранения данных.

Обратная сторона медали за скорость как раз в отсутствии избыточности, что означает нулевую отказоустойчивость. В случае сбоя хотя бы одного из элементов массива, восстановление всего содержимого практически невозможно.

RAID 1


RAID 1, известный как «зеркало», представляет собой другую крайность. Он максимально избыточен — в нем производится 100 % дублирование данных. Этот процесс «съедает» ровно половину объема массива. Число дисков в нем, соответственно, четное. Позволяет увеличить скорость чтения, но синхронная скорость записи в некоторых случаях падает. При отказе одного из дисков работа автоматически продолжается с дублером. Если доступна функция горячей замены дисков, то восстановление штатного режима происходит без остановки. RAID 1 идеален для чувствительных данных.

RAID 5


Состоит минимум из трех накопителей, при этом доступный объем уменьшается на один. Данные записываются в страйпы на все диски кроме одного, на котором размещается контрольная сумма этой части данных. Запись этого блока также чередуется между всеми накопителями, распределяя равномерную нагрузку. Если их больше четырех, то скорость чтения будет выше чем в RAID 1, но запись будет осуществляться медленнее. Контрольные суммы позволяют достать информацию в случае выхода из строя одного из элементов. Сама операция восстановления вызывает повышенную нагрузку на оставшиеся диски. Значительно падает производительность и риск утери всех данных в случае отказа еще одного диска. Желательно иметь опцию горячей замены для оперативного возвращения в нормальный режим работы.

Со всеми плюсами и минусами эти три уровня наиболее распространены и просты в развертывании.

RAID 6


Развитие RAID 5 по части надежности, позволяющее пережить потерю двух дисков. В данной конфигурации в каждом проходе пишется две независимые контрольные суммы на два накопителя. Требуется минимум четыре диска, из которых два уйдет на описанный алгоритм повышения отказоустойчивости. При этом скорость записи будет еще ниже, чем у RAID 5.

Следующие уровни — производные и комбинации перечисленных.

RAID 10


Неплохо было бы объединить достоинства RAID 0 (производительность) и RAID 1 (отказоустойчивость)? Встречайте RAID 10: страйп и зеркало, два в одном. Но и недостатки не забудьте — по-прежнему половина объема уходит на резерв. А что делать, за надежность приходится платить. В этом плане менее экономичен, чем RAID 5 И RAID 6, но более прост в восстановлении после сбоя.

RAID 50


По похожей схеме получаем RAID 50. Здесь уже страйпы не зеркалируются, а распределяются по двум и более массивам RAID 5. Требуется от шести дисков, скорость чтения значительно увеличивается. Кроме того, нивелируется и слабое место RAID 5 и RAID 6 — низкая скорость записи. Отрицательная сторона опять лежит в плоскости экономики. Из эффективного объема выпадают два диска, как и RAID 6, при этом массив выдержит потерю только одного.

RAID 60


Данный гибрид RAID 0 и RAID 6 призван решить проблему производительности последнего. Отказоустойчивость остается на том же уровне, как и часть объема накопителей, отводимая на реализацию алгоритмов контроля целостности данных. Дисков для такого удовольствия понадобится как минимум восемь.

RAID 1E


Еще одна вариация совмещения алгоритмов зеркалирования и чередования данных. Записанные на одной итерации страйпы повторно записываются на следующей, но в обратном порядке. Таким образом в RAID 1E можно использовать три диска. Массив останется тем же зеркалом с эффективным объемом, равным половине от исходного.

RAID 5EE


Один из вариантов использования RAID 5 с резервным диском. Отличается тем, что этот диск не простаивает до выхода из строя одного из элементов массива, а используется наряду с другими. На каждой итерации помимо страйпов данными и контрольной суммой записывается резервный блок. Сделано это для ускорения процесса сборки массива в случае нештатной ситуации. Платой за такую опцию становится второй диск, исключаемый из эффективного объема RAID 5EE.

В таблице ниже приведены сравнительные характеристики рассмотренных уровней RAID.


Не забудем и про массив с незатейливым названием JBOD (дословно переводится как «просто связка дисков»). Строго говоря, он не является RAID-массивом. Это объединенные в один несколько дисков без дополнительной функциональности. Позволяет развернуть логический диск с объемом, который недоступен в рамках одного накопителя. Такой диск полезен для перемещения файлов больших размеров в несколько терабайт.

Вместо заключения напомним самое главное правило для всех, кто хранит данные в RAID-массиве: RAID-массив ≠ бэкап! Регулярно делайте резервные копии данных на независимые носители и да пребудет с вами сила.

Читайте также: