Плата удаленного управления pci express

Обновлено: 07.07.2024

Знакомая ситуация: когда сис­тем­ный ад­ми­ни­ст­ра­тор в уда­лен­ном до­сту­пе ра­бо­та­ет с плат­фор­мой, поль­зо­ва­те­лю при­хо­ди­тся брать про­из­вод­ствен­ный тайм-аут. Та­кое по­ло­же­ние дел су­щест­во­ва­ло до не­дав­него вре­ме­ни не­за­ви­си­мо от ис­поль­зу­е­мой тех­но­ло­гии — будь-то ре­ализованный си­ла­ми опе­ра­ци­он­ной сис­те­мы Re­mote Desk­top или ин­тел­лектуальный ин­тер­фейс уп­рав­ле­ния плат­фор­мой IPMI. Ка­за­лось бы, чего про­ще — стро­им мульти­дисплейную сис­те­му и за­кры­ва­ем во­прос. Ос­та­лось толь­ко ука­зать, ка­кой дис­плей (в ре­аль­но­с­ти — гра­фи­че­ский адап­тер) форвардится на IPMI, а ка­кой визуализирует ра­бо­чий стол поль­зо­ва­те­ля. Не факт, что все сер­вер­ные плат­формы по­зво­лят это сде­лать.

Решение предлагает ASUS

Рассмотрим реализацию уда­лен­но­го доступа через IPMI к гра­фи­че­ской кон­со­ли сер­ве­ра «Entry A Cubic», собран­ного на плат­фор­ме ASUS P10S-I c ин­тел­лек­ту­аль­ным кон­т­рол­ле­ром ASMB8. Луч­шей ил­лю­ст­ра­ци­ей это­го ре­ше­ния бу­дет сни­мок эк­ра­на.

Скриншот графической консоли сервера ASUS P10S-I

Давно уже не новость, что скриншот мультидисплейной платформы агрегирует все доступные экраны. В на­шем слу­чае ле­вое по­ле — рабочий стол пользователя, сформированный графическим адаптером NVIDIA Ge­For­ce GT730, пра­вое — сис­тем­ный экран, доступный администратору по IPMI. За него отвечает BMC-кон­т­рол­лер со встро­ен­ным гра­фи­че­ским ядром некогда популярного адаптера Matrox G200. Для на­гляд­но­с­ти при­ве­дем блок-схему Aspeed AST2400:

Блок-схема платформы, использующей BMC-контроллер Aspeed AST2400

IPMI-порт обозначен на шильде сервера ASUS P10S-I литерами DM — Dedicated Management

В итоге, благодаря аппаратным и программным возможностям платформы, удаленная графическая консоль, по­лу­чен­ная по сети с помощью бортового iKVM, выглядит так:

Скриншот графической консоли сервера, полученный по iKVM; системный администратор имеет доступ только к дисплею, подключенному к Aspeed AST2400

Нюансы настройки мультидисплейной конфигурации

Первый шаг в настройке доступа к графической консоли по IPMI состоит в выборе приоритетов ини­ци­а­ли­за­ции гра­фи­че­ских адап­те­ров серверной платформы. Это несложно, хотя меню управления гра­фи­че­ски­ми Onboard и Offboard-устройствами лежит не на поверхности:

Меню выбора приоритетов инициализации графических адаптеров

Заходим в настройки Advanced, выбираем там Chipset Configuration, затем проваливаемся в PCI/PCIe Subsystem Settings, что в итоге дает нам возможность управлять параметром VGA Priority. Квест разгадан, задание вы­пол­не­но. Приоритет, естественно. должен быть отдан бортовому видео.

На тонкостях сетевой конфигурации BMC-контроллера останавливаться не будем. Эту наладку требуется вы­пол­нить не­за­ви­си­мо от конфигурации доступа к графической консоли. В качестве памятки оставим здесь два скрин­шо­та, где глав­ный па­ра­метр — статический IP-адрес входа в MegaRAC SP:

BMC network configuration: config address source

Стартовый экран сервера ASUS P10S-I с указанием локального адреса для доступа по IPMI

О недостатках (вместо резюме)

Установив в операционной системе Windows драй­ве­ры гра­фи­че­ских адаптеров, мы можем в полной мере оце­нить пре­и­му­ще­с­т­ва уда­лен­но­го управления сервером Entry A Cubic на базе платформы ASUS P10S-I: по­ка поль­зо­ва­тель за экраном своего мо­ни­то­ра вы­пол­ня­ет по­став­лен­ные задачи — кон­ст­рук­тор­ские раз­ра­бот­ки (для рабочих стан­ций) или на­блю­де­ние (для видеосерверов), системный ад­ми­ни­ст­ра­тор делает свою ра­бо­ту не прерывая произ­вод­ствен­ный про­цесс. В этой ре­а­ли­за­ции IPMI-ре­ше­ние при­бли­жа­ет­ся, если не кон­ку­ри­ру­ет с Intel AMT/vPro.

Тем не менее, существует ряд неудобств, которые не­воз­мож­но обой­ти мол­ча­ни­ем, хотя они напрямую и не свя­за­ны с фун­к­ци­о­наль­но­стью рассматриваемой платформы.

Модули удаленного управления, среди которых наибольшую известность получили KVM-переключатели, как правило, выполнены в виде внешних конструктивов. Но есть и другой класс устройств, также предназначенный для осуществления дистанционных манипуляций с серверным оборудованием, встраиваемый непосредственно в контролируемый объект. О таких изделиях и пойдет речь в этой статье.

Каждый системный администратор не представляет своей деятельности без использования удаленного доступа к подопечным серверам, причем в двух вариантах: удаленного контроля состояния оборудования и дистанционного выполнения административных функций. Обычно эти задачи решаются посредством доступа к текстовой консоли или рабочему столу графической оболочки.

Организовать удаленное управление возможно разными способами, самыми распространенными из которых являются программные средства. Практически каждый производитель серверов и систем хранения данных поставляет в комплекте ПО для удаленного мониторинга состояния, оповещения о критических ситуациях и администрирования оборудования. Не последнее место занимают встроенные средства дистанционного доступа, предоставляемые ОС, не считая отдельных продуктов третьих фирм.

В таких случаях на помощь приходит специализированное аппаратно-программное решение, представляющее собой специальный контроллер, устанавливаемый на материнскую плату. Его питание обеспечивается от дежурного источника или вообще автономно. К нему есть доступ через сетевой интерфейс, кроме того, может быть еще один канал – через автономный СOM-порт или модем.

Такой контроллер имеет доступ к сенсорам на материнской плате, а также может осуществлять аппаратный сброс и включение/выключение питания. Управление этими функциями выполняется с рабочей станции администратора, на которой устанавливается клиент, взаимодействующий с контроллерами и допускающий мониторинг/управление группой серверов, оборудованных такими модулями.

Altusen IP9001

Контроллер IP9001 – по сути, «компьютер в компьютере». Такое решение обеспечивает полную аппаратную независимость от управляемого сервера
Доступ к дистанционному узлу осуществляется посредством Web-интерфейса и позволяет производить любые операции с обслуживаемым компьютером вплоть до включения/выключения и аппаратного сброса

Устройство представляет собой PCI-контроллер для дистанционного управления по протоколу TCP/IP, рассчитанный на установку в любой компьютер, оснащенный соответствующим интерфейсом. По сути, IP9001 – самостоятельная ЭВМ с собственным процессором IBM PowerPC 405GPr – 400-мегагерцевой версией уже известного 405GP, выпускающегося с тактовыми частотами 266 и 300 MHz. Этот процессор включает в себя интегрированный PCI-интерфейс, контроллеры SDRAM и Ethernet.

Помимо обязательных ОЗУ и ПЗУ на плате присутствует собственный графический контроллер ATI Rage XL, а для подключения к сети на ней предусмотрен Ethernet-порт RJ-45. Заслуживает внимания и возможность работы через телефонную сеть при помощи дополнительного модемного модуля (разъем RJ-11) – она выручит при отсутствии доступа к управляемому узлу посредством локальной сети.

Кроме перечисленного выше, модуль дистанционного управления оснащен приличным набором периферийных интерфейсов, среди которых – RS-232 и хаб USB 2.0. Питание устройства осуществляется двумя путя-ми – через шину PCI и внешний источник, предназначенный для обеспечения независимости от управляемого компьютера.

Управление с удаленной консоли предоставляет оператору весь спектр возможностей, доступных непосредственно с самого сервера, в том числе работу в режиме Remote Console, мониторинг напряжения и температуры системы, включение/выключение, перезагрузку. Поддержка виртуального диска, CD и флоппи-дисковода позволяет устанавливать обновления, ПО и загружать ОС с носителя, физически находящегося на удаленной рабочей станции.

Программное обеспечение допускает поддержку 64 учетных записей с разграничением прав доступа к управлению для каждого оператора. Работа устройства рассчитана на использование операционных систем Windows 2000/2003/XP, Red Hat версий 8.0 и выше.

IPMI (Intelligent Platform Management Interface)

Еще одна разновидность встраиваемых устройств, предназначенных исключительно для серверных платформ, базируется на наборе спецификаций IPMI, разработанных группой компаний-производителей серверного оборудования Intel, HP, NEC и Dell для средств удаленного мониторинга/управления. В него вошли три спецификации: Intelligent Platform Management Interface; Intelligent Platform Management Bus (IPMB) и Intelligent Chassis Management Bus (ICMB).

IPMB – спецификация внутреннего интерфейса расширенного мониторинга/управления в пределах одной системы, ICMB определяет спецификации внешнего интерфейса между IPMI-совместимыми системами.

Расширители IPMI, несмотря на небольшие габариты, обеспечивают полный контроль над сервером

После выхода в 1998 г. версии 1.0 была выпущена 1.5, а в настоящее время актуальна спецификация 2.0. Этот стандарт поддержал уже 171 производитель оборудования, и список продолжает расти. Версия 1.5 была утверждена в I квартале 2001 г. Она уже включала следующие возможности: средства мониторинга температур, напряжений, скорости вращения вентиляторов, датчики вскрытия корпуса; управление сбросом и питанием; ведение журнала событий; сторожевую схему (WatchDog Timer); доступ и оповещение через COM-порт и локальную сеть; специализированные шины для мониторинга.

Версия 2.0 была принята в феврале 2004 г. В ней предусмотрен ряд дополнительных возможностей, таких как Serial Over LAN, шифрование пакетов, внутренние и внешние протоколы, усовершенствованы средства защиты от несанкционированного доступа, добавлены расширения для мониторинга модульных структур (blade-серверов) и средства для создания виртуальных (management only) сетей.

Средствами IPMI оснащались серверные материнские платы на платформе Intel 7500 для Xeon Prestonia с шиной 400 MHz. Это был модуль SMC-0001, совместимый с IPMI-1.5, выполненный как небольшая платка со специализированным процессором и своим COM-портом в конструктиве, аналогичном модулям памяти SO-DIMM.

Практически на все платы на платформе Intel 7520/7525/7320, а также Intel 7221 для Pentium 4 устанавливается модуль AOC-IPMI20-E, уже совместимый с IPMI 2.0.

Архитектура IPMI версии 2.0. На сегодняшний день это основной стандарт, принятый разработчиками серверных систем

На серверных платформах 7230 для Pentium D и 1U-платформах серии 6014P для Xeon появился новый конструктив для IPMI-карт. Он имеет разъем, похожий на PCI-Х х16, только с «перевернутым» ключом. Эти платы (AOC-1UIPMI-B и AOC-LPIPMI-LANG) функционально аналогичны AOC-IPMI20-E, но оснащены дополнительной гигабитовой сетевой картой Intel 82541PI. Модуль AOC-LPIPMI-LANG предназначен для установки в обычный или 2U-корпус, а AOC-1UIPMI-B – в 1U-корпус и не оборудован сетевой картой (она опционально доступна в виде отдельного модуля AOC-1UIPMI-LANG). По умолчанию AOC-IPMI20-E использует первый сетевой контроллер, имеющийся на материнской плате, а AOC-1UIPMI-B и AOC-LPIPMI-LANG – свой дополнительный, если он установлен.

При инсталляции в модуле IPMI сначала программируется Firmware, соответствующее материнской плате, а затем устанавливается IP-адрес. В операционной системе эта же сетевая карта может параллельно использоваться для других нужд с IP-адресом, отличным от установленного для IPMI. Как правило, последнему из соображений безопасности рекомендуется выделять отдельную сеть.

Для мониторинга/управления систем с IPMI-адаптерами применяется специальная утилита IPMIView20, которая распознает адаптеры всех версий. Она позволяет находить IPMI-адаптеры в заданном диапазоне адресов, и группировать обнаруженные системы по определенному признаку. Для получения доступа к конкретному серверу необходимо пройти парольную аутентификацию, причем в IPMI 2.0 используется контроль по паролю и шифрование, а также многоуровневое разграничение прав доступа.

ПО для управления серверами через IPMI предоставляет оператору не только набор базовых функций, но и данные мониторинга в удобной графической форме

Основные возможности мониторинга/управления, предоставляемые адаптерами IPMI, стандартые: ведение журнала системных событий, слежение за температурой, напряжениями, скоростями вращения вентиляторов, другими датчиками. Имеется возможность перезагрузки, включения/выключения и Cycle – последовательного выключения, а затем включения питания. Все эти функции доступны в двух режимах: Graceful Power Control – корректное выполнение shutdown операционной системы через установленный на ней агент (GPC-агент имеется только для Windows и Linux), и Chassis Power Control – аппаратный сброс/выключение питания.

Доступ к текстовой консоли осуществляется посредством ее переназначения на COM-порт и реализации SOL-redirection (Serial Over LAN). Последняя позволяет получить доступ к текстовой консоли удаленного сервера, и поменять удаленно, например, настройки BIOS. Таким же образом можно получить доступ к загрузочному меню Windows или к текстовой консоли Linux/UNIX.

Послесловие

Устройства, описанные в обзоре, созданы для выполнения одной и той же задачи – максимально упростить обслуживание удаленных систем. Главное различие между ними – сфера применения. Если Altusen IP9001 подходит для любой системы, то установка модулей IPMI ограничена исключительно серверными платформами.

Сегодня многие компании-разработчики стремятся включать подобные модули в состав своих систем. Так, 15 июня ATEN International Co. Ltd. объявила, что ее новое микропрограммное решение IPMI официально выбрано Micro-Star International Co. Ltd. (MSI) для своей серверной линейки продукции. MSI внедрит микропрограммное решение ATEN в линейку AMD-серверов, чтобы предоставить клиентам необходимые функции управления серверами.

Отдельно стоит отметить, что Supermicro готовит для платформы Bensley новые средства мониторинга/управления AOC-SIMLP IPMI 2.0, которые будут иметь встроенные возможности KVM Over LAN средствами IPMI.

Каждый уважающий себя бизнесмен стремится к тому, чтобы его техника работала в формате «24/7/365». Слишком много очень важных задач решают современные компьютерные системы и сети, чтобы отнестись к их простоям и поломкам с усмешкой. Все очень серьезно – на кону автоматизация документооборота, хранение и обработка данных, передача информации, согласованная коллективная работа. Да много чего еще можно вспомнить – и все это может оказаться под угрозой при банальном падении напряжения в сети или наступлении депрессии у секретарши.

Чтобы сократить потери от подобного рода факторов, умные люди придумали то, что называется «удаленное администрирование». При помощи этого инструмента можно исключить простои сети или сократить их до минимума. Первыми на дорожку изобретательства в этой области ступила Compaq Computers, еще в 1990 году явив миру серверную плату управления удаленным компьютером, которая позволяла получить к нему доступ из командной строки (даже несмотря на пароль!). В 1992 г. впервые было объявлено о создании
Insight Manager, первого пакета программ управления серверами. В дальнейшем инженеры и программисты компании (уже после поглощения корпорацией Hewlett-Packard) значительно расширили его возможности.
Insight Manager был интегрирован с продуктами Microsoft SMS, Novell ManageWise и рядом других, дополнен программами асинхронного управления и контроля источников бесперебойного питания.

Таким образом, уже 15 лет назад стало ясно, что формируется промышленный подход к управлению удаленными девайсами, что позволяло наблюдать и вовремя производить необходимые воздействия в территориально разнесенной сети. Правда, все производители понимали, что любая надежная система, основанная на человеческом факторе, по определению ненадежна, поэтому старались максимально исключить вмешательство человека, в том числе и администратора. Конечно, никто не может гарантировать 100%-ой устойчивости от отказов, и в этом случае все программные решения (вроде Insight
Manager) прекратят свою работу.



Серверное решение из ХХ века от Compaq

Первый интегрированный админ

Решение нашлось уже в 1996 году. Все та же Compaq создала встроенную консоль удаленного управления (IRC – но не путать с чатами в сети, все гораздо сложнее, это
Integrated Remote Console). Все, что было необходимо для нормального функционирования сервера, встраивалось в системную плату (как аппаратные, так и микропрограммные средства). Администратор мог не только управлять сервером, но и выполнить его перезагрузку средствами IRC. Для своего времени эта консоль была довольно прогрессивным решением, однако запросы администраторов росли вместе с отраслью.

Так появилась Remote Insight Board/PCI – плата, не зависимая ни от работоспособности сервера, ни от питания. На этом контроллере была запущена программа
Remote Insight Console, при помощи которой администратор мог исполнять различные программы, изменять параметры безопасности и много чего другого. Это аппаратное решение имело успех в тех случаях, когда администратор не имел физического доступа к серверам.

Дальнейшее развитие этих технологий нашло свое отражение в продукте
Remote Insight Lights-Out Edition. Данная плата работала только в локальной сети и имела ряд привлекательных новшеств: администратор мог управлять компьютерами даже в том случае, если за удаленными машинами никого не было и в месте их расположения не было электричества (что и было отражено в названии – «Lights Out» означает «выключен свет»). Одна из функций платы
RILOE, отличающих ее от Remote Insight Board/PCI, – возможность осуществления дистанционного доступа к серверу в графическом режиме без установки дополнительного ПО на администрируемой машине или используемом для администрирования клиентском компьютере. Эта функция реализована во встроенном ПО, записанном в ПЗУ платы.



Сервер HP Proliant ML350 G4 с технологией RILOE

Развитие RILOE

К 2002 году компания Hewlett-Packard (к тому времени уже поглотившая Compaq) создала целое семейство продуктов под торговой маркой RILOE, дополнив его вариантами Standart, Advanced и Blades (в последнем случае – с учетом особенностей тонких и сверхтонких серверов, устанавливаемых в специальные стойки в тесном пространстве коммуникационных блоков). Еще через год эта технология приобрела числовой индекс и стала называться RILOE II. В этой плате использовался более мощный процессор PowerPC 405GP 200 МГц, что почти в пять раз повысило скорость обслуживания по сети Ethernet, а администратор мог удаленно использовать как флоппи, так и CD-диски. Плата RILOE II была полностью интегрирована с комплектом HP Insight Management Suite, включая доступ к RILOE II из Insight Manager и возможность развертывания и настройки конфигурации ПО сервера с помощью ProLiant Essentials Rapid Deployment Pack. Кроме того, эта плата тесно интегрирована с комплектом HP OpenView – программным комплексом для управления инфраструктурой (системами и сетями связи, серверными платформами – HP-UX, Solaris, AIX, Novell, Linux, весь спектр Windows платформ).

Создавая свой продукт, инженеры-программисты из HP реализовали его на аппаратном уровне в двух версиях: в виде PCI-платы
Remote Insight Lights-Out Edition и продукта Integrated Lights-Out
(iLO), встроенного в системную плату сервера. Принципиальные различия велики, но на первый взгляд увидеть их достаточно сложно. Суть дела в том, что iLO – это очень специфический вариант расширения материнской платы, в нем сведены воедино функции удаленного администрирования и локального мониторинга: плата может наблюдать за температурным режимом «железа», скоростью вращения вентиляторов и умеет перезагружать раздельно друг от друга процессорную подсистему и серверную часть комплекса. Возможности платы удаленного управления iLO настолько неординарны, что позволяют применять в качестве удаленного сервера не только устройство без дисковода гибких дисков и привода CD-ROM, но и без монитора, клавиатуры и манипулятора.

Для того чтобы управлять этой достаточно сложной техникой, в Hewlett-Packard создали свою собственную систему быстрого развертывания ИТ-инфраструктуры (правда, не все оказалось им по силам – пришлось попросить помощи у компании Altiris). При помощи этой системы можно быстро развернуть несколько серверов ProLiant, выполнять их удаленное администрирование с реализацией функции Drag'n'Drop и вносить самые свежие изменения в операционные системы. Реализовано все это на 'nixовой платформе (что говорит о большой отказоустойчивости) и предоставляет пользователям несколько важных функций: обеспечивает быстрое развертывание серверов, значительно снижает требования к ИТ-персоналу, создает эффект виртуального присутствия в центрах обработки данных. Ключевой частью управления является Rapid Deployment Pack, который интегрируется с
Integrated Lights Out и Remote Insight Lights Out Edition и упрощает администрирование.

Многообразие надежности

Но не одна Hewlett-Packard занималась проектированием решений для отказоустойчивых и легко администрируемых систем. Интересные решения предлагают такие монстры, как Microsoft, IBM, Fujitsu-Siemens, Network Appliance, Brocade и многие другие. Взаимодействуя между собой, эти гиганты харда и софта создают интересные и надежные решения для создания ИТ-инфраструктуры.

Например, компания Microsoft, используя свою серверную ОС Windows Server 2003 Enterprise Edition, в соавторстве с Fujitsu-Siemens реализовала решение, которое гарантирует работоспособность инфраструктуры (в основном дело касается кластерных хранилищ предприятий среднего масштаба) даже в случае физического уничтожения помещений с аппаратурой за счет создания множества резервных хранилищ (инфраструктура данного решения подразумевает полное дублирование компонентов всех уровней для создания избыточности). Серверы Fujitsu-Siemens, IBM и вышеупомянутые HP ProLiant монтируются в стойки и при помощи
Network Appliance (сетевой системы хранения, состоящей из двух модулей, позволяющих создать территориально разнесенную установку) объединяются в сетевую систему хранения, которая соединяется с кластерами при помощи
Fibre Channel (а это – особенное соединение между серверами кластера и системой хранения, высокоскоростной интерфейс, в котором поддерживается как оптическая, так и электрическая среда со скоростью передачи данных от 133 мегабит/с до 8 гигабит/с на расстояния до 10 километров). Подобным образом формируются СУБД, файловые архивы, большие почтовые архивы. Обслуживается все это при помощи Microsoft Cluster Service – данное программное решение является частью самой операционной системы, поэтому на дополнительном обучении администраторов можно сэкономить. В целом, решение достаточно неплохое, если учесть, что Windows Server 2003 является стандартной системой для малого и среднего бизнеса.

Не менее надежные системы для ИТ-инфраструктур представляет на рынке и компания Oracle. Ее RAC (Oracle Real Application Clusters) используются в корпоративных сетях на платформах х86 и Alpha (программно все это хозяйство адаптировано как под Windows, так и под остальные системы – Solaris, Linux, HP-UX, OpenVMS). Интересно это решение тем, что может быть создано из большого числа принципиально недорогих компонентов, то есть для того сегмента рынка, где требуются минимальные финансовые вливания с максимальной отдачей. Затраты на эксплуатацию подобной инфраструктуры действительно оказываются ниже, чем аналогичные решения у других фирм, в силу эффективности организации (на основе grid-технологии создания сетей – каждый компьютер в сети всегда доступен, полностью контролируется, и его ресурсы предоставляются в
необходимом для работы объеме).



Кластерная «башня» от Oracle

Не отстает от своих конкурентов и IBM, реализующая решения по мониторингу и администрированию серверов на базе процессоров Intel – от blade-серверов до широко масштабируемых систем IBM eServer xseries, на некоторых серверах pSeries и iSeries. Назвали они свою систему контроля IBM Director. Она заранее определяет, имеются ли на сервере элементы, способные снизить их производительность, и предлагает автоматизированные решения для своевременной коррекции. Как и в вышеописанных примерах, данная технология позволяет значительно снизить затраты на дополнительное обучение персонала (и даже можно ослабить требования к его квалификации!) и повысить производительность системных администраторов.



Сервер IBM x366

Стирая различия

Казалось бы, рынок насыщен, распределен между несколькими крупными производителями. Каждый отвечает за свой сегмент. Но мир хай-тека не может жить без революций. И 24 апреля 2006 года был анонсирован продукт от еще одного кремниевого гиганта. Корпорация Intel официально представила новый брэнд
Intel vPro для корпоративных клиентов. Данная технология сумела объединить настольные и мобильные сегменты сетей (так называемые смешанные системы, которые являются сейчас стандартом де-факто в ИТ-инфраструктурах). Официальная премьера этой платформы состоялась в сентябре 2006 года, когда были представлены ее аппаратные компоненты: процессор
Intel Core 2 Duo, чипсет Q965 Express и гигабитный ethernet-адаптер
82566DM.



Компоненты платформы Intel vPro

Как отметил в своем выступлении Патрик Гелсингер, старший вице-президент Intel и глава подразделения Digital Enterprise Group, на создание заплат для ОС или выпуск модификаций для антивирусного ПО требуется не менее двух-трех суток. А в случае сложного корпоративного приложения этот срок увеличивается в среднем до 42 дней. Поэтому такая особенность новой платформы, как технология упреждающей безопасности (proactive security), является весьма важной.

Используя Intel AMT, администраторы могут удаленно получать доступ к BIOS и ставить диагноз, даже не требуя загрузки операционной системы, определять неисправности и вовремя принимать меры к их устранению.

Еще одно новшество – технология виртуализации. Для непосвященного пользователя это может быть достаточно сложным – организация в одном компьютере нескольких независимых аппаратных сред. Благодаря этой технологии системные администраторы могут изолировать друг от друга выполнение разного рода задач. Напоминает устройство виртуальной машины VMWare – для пользователей и их процессов выделяются защищенные и стабильные виртуальные пространства, способные повысить безопасность корпоративных сетей в целом. Все ресурсы ПК отделяются виртуальным менеджером (hypervisor) от виртуальных машин ОС, которых может быть несколько. Тогда и корпоративные, и пользовательские приложения будут полностью изолированы от «железа», и не возникнет проблем с отказами из-за недостаточно отлаженных драйверов или брешей в прикладных программах.

Соединенные вместе, Intel AMT и Intel VT могут защитить компьютер, на котором отсутствуют файерволл и антивирусная программа.

Смазка для прогресса

Для того чтобы внедрение технологии Intel vPro не нанесло компаниям дополнительных расходов (а ведь это именно то, против чего принципиально выступают все корпорации, занимающиеся оптимизацией и мониторингом ИТ-инфраструктур), в Intel приняли решение распространить на технологию
vPro условия программы Intel Stable Image Platform, помогающей осуществлять плановый переход на новые технологии. Данная программа гарантирует, что набор приложений и драйверов Intel для конкретной платформы будет оставаться доступным и неизменным в течение пяти кварталов со дня ее выпуска.

О поддержке технологии Intel vPro сразу же объявили ведущие разработчики программного обеспечения. Обновленные, оптимизированные под vPro
программные пакеты намерены выпустить такие компании, как Adobe, Altiris, Avocent, Check Point, Cisco, Computer Associates, Hitachi JP1, HP OpenView, LANDesk, Lenovo, Lockdown Networks, Microsoft, Novell, Panorama SW, SAP, Skype, StarSoftComm, SyAM Software, Symantec и
Zenith.

В течение последнего года Intel активно занималась новыми разработками и внесла некоторые существенные модернизации в имеющийся стандарт. Произошло обновление технологии удаленного управления компьютерами
Intel vPro и ее дополнение недавно выпущенными версиями решений из комплекта Microsoft System Center. В новое поколение технологии
Intel vPro (кодовое название Weybridge) будет добавлена поддержка стандарта Web Services Management (WS-MAN) и функции Intel Active Management Technology, направленных на противодействие распространению вредоносных программ. Кроме того, обновление будет включать поддержку спецификаций Digital Management Work Group (DMWG), охватывающих вопросы взаимодействия между аппаратными и программными составляющими ПК.

Задача технологии Intel vPro — уменьшить стоимость технического сопровождения вычислительной техники за счет внедрения более эффективных средств управления и защиты ПК. В решении этой задачи
Weybridge тесно связана с новым поколением мобильных платформ Intel Centrino Mobile Technology (кодовое имя — Santa Rosa), которое будет поддерживать решения из комплекта Microsoft System Center. В частности, речь идет о мониторе System Center Operations Manager 2007, позволяющем отслеживать состояние систем, и программе управления System Center Essentials 2007, ориентированной на IT-инфраструктуры малого и среднего бизнеса.

Судя по всему, компания Intel в настоящий момент разрабатывает новую концепцию локальных компьютерных систем и сетей. В 2007-2008 годах появятся новые аппаратные средства, позволяющие организовать совместную работу специализированных сред, и большим шагом в этом направлении является технология
Intel vPro и ее следующее поколение Weybridge.



Полную версию статьи
читай в июньском номере
Железа!

– платформа M50CYP2UR208, которая может иметь 8, 16 или 24 накопителя 2.5":

  • Конфигурация с 8 отсеками для накопителей 2.5":




– платформа M50CYP2UR312 с 12 отсеками 3.5":


Различия между этими платформами касаются, главным образом, дисковой подсистемы, а также возможности установки GPU и описаны ниже в соответствующих разделах.

Компоновка сервера R2000CY


Основные компоненты системы:

  • Для M50CYP2UR208 одна, две или три передние корзины на 8 накопителей 2.5" SATA3/SAS3/NVMe Gen4 с горячей заменой (максимально 24 накопителя на передней панели)
  • Для M50CYP2UR312 передняя корзина на 12 накопителей 3.5" SATA3/SAS3 HDD или 2.5" SATA3/SAS3 SSD (в том числе до 4-х накопителей NVMe PCIe 4.0) с горячей заменой
  • 6 однороторных системных вентиляторов 60 мм с переменной скоростью вращения, горячей заменой и резервированием, пластиковый воздуховод
  • Двухпроцессорная серверная материнская плата M50CYP2SBSTD
  • Один или два процессора семейства Intel Xeon Scalable 3-го поколения (Ice Lake)
  • До 32 модулей оперативной памяти DDR4-3200
  • 3 отсека для установки 8 плат расширения PCIe 4.0, отсек для сетевого модуля
  • Один или два блока питания мощностью 1300Вт, 1600Вт или 2100Вт с горячей заменой и резервированием

Процессорная подсистема

Один или два процессора Intel Xeon Scalable 3-го поколения (Ice Lake).

Основные отличия от процессоров Intel Xeon Scalable 2-го поколения (Cascade Lake):

  • Техпроцесс 10 нм (разрешающая способность фотолитографического оборудования, используемого при изготовлении процессоров) против 14 нм у процессоров предыдущего поколения. Уменьшение этого параметра позволяет пропорционально снизить размеры и энергопотребление полупроводниковых элементов процессора.
  • Количество физических ядер процессора от 8 до 40 против 6 - 28 у Xeon Gen2.
  • 8 каналов памяти DDR4-3200 (суммарная скорость обмена 205 GB/s) против 6 каналов DDR4-2933 (141 GB/s).
  • 64 линии PCIe 4.0 (2 GB/s на линию) против 48 линий PCIe 3.0 (1 GB/s на линию).
  • До 6 TB оперативной памяти на CPU для всех моделей процессоров против 1 TB.
  • Поддержка второго поколения энергонезависимой памяти Intel Optane Persistent Memory Series 200 (эта память на 30% быстрее первого релиза).

Прирост производительности по сравнению с Xeon Scalable Gen2 (по данным Intel) зависит от типа нагрузки и составляет:

  • 46% – интегральная оценка
  • 74% – машинное обучение и ИИ
  • 58% – облачные сервисы
  • 72% – виртуализация
  • 64% – СУБД
  • 53% – высокопроизводительные вычисления (HPC)

Буквенные индексы в обозначении новых процессоров означают:

  • T – рассчитан на эксплуатацию в течение 10 лет в расширенном температурном диапазоне;
  • S – поддержка защищенных областей памяти (SGX-анклавов) объемом до 512 GB;
  • Y – поддержка Performance Profile 2.0, что позволяет задавать базовую и Turbo-частоту для групп ядер и соответствующих нагрузок;
  • M – оптимизирован для задач ИИ и работы с медиаконтентом;
  • N – оптимизирован для работы с сетевыми приложениями;
  • V – оптимизирован для виртуальных сред и облачных систем, работающих по схеме SaaS (ПО как услуга);
  • P - оптимизирован для виртуальных сред и облачных систем, работающих по схеме IaaS (инфраструктура как услуга).

TDP (Thermal Design Power – тепловая мощность, выделяемая процессором) моделей 3rd Generation Intel Xeon Scalable находится в диапазоне 105 – 270 Вт.

Система охлаждения платформы M50CYP2UR208 обеспечивает теплоотвод 270 Вт на CPU в конфигурациях на 8, 16 и 24 накопителя и, таким образом, поддерживает все процессоры семейства (кроме Xeon Platinum 8368Q, который нуждается в жидкостной системе охлаждения). Эта платформа может использоваться для задач, которые требуют максимальной процессорной мощности: высокопроизводительные вычисления, платформы виртуальных машин, многопользовательские базы данных и так далее. Также в данную платформу можно установить до двух вычислительных модулей GPU с пассивным охлаждением (кроме варианта платформы на 24 накопителя). Однако в этом случае TDP процессора ограничен величиной 205 Вт.

Для платформы M50CYP2UR312 поддержка процессоров с TDP 270 Вт гарантирована только при температуре окружающей среды не выше 27°C. Без температурных ограничений (до 45°C) можно использовать процессоры с TDP до 185 Вт. Платформа может использоваться в серверах универсального назначения, которым необходима дисковая подсистема большой емкости: для приложений обработки данных, веб-сервисов, облачных вычислений, СУБД высокой плотности, виртуальных машин. Эта платформа не поддерживает установку GPU.

Семейство процессоров 3 rd Generation Intel Xeon Scalable Processors включает 36 моделей. Важно выбрать процессор достаточной мощности, но не переплачивать при этом за «лишнюю» производительность, тем более что соотношение стоимости процессора и его производительности для старшей модели в линейке в четыре раза больше, чем для младшей.

Для утилитарных задач (контроллер домена, файловый сервер, шлюз, сервер обновлений, сервер терминального доступа, сервер резервных копий, терминальный сервер для небольшого числа пользователей) почти всегда будет достаточно одного процессора любой из младших моделей, даже если физический сервер обслуживает несколько виртуальных машин из этого списка.

Для высокоинтенсивных нагрузок необходимо возможно более точно оценить требуемую процессорную мощность, исходя из специфики приложений и принимая в расчет возможное увеличение нагрузки в будущем. Поскольку возможных сценариев очень много, здесь мы воздержимся от рекомендаций, но готовы их предоставить в рамках конкретной задачи.

Подсистема памяти

Подсистема памяти сервера также получила ряд усовершенствований по сравнению с серверами на процессорах intel Xeon Scalable 2-го поколения.

Во-первых, значительно (с 1TB до 6TB) увеличен максимальный объем оперативной памяти, поддерживаемый процессором.

Во-вторых, увеличена максимальная рабочая частота памяти с 2933 MT/s до 3200 MT/s. Однако она по-прежнему зависит от модели процессора:

  • Xeon Silver 4300 – 2667 MT/s
  • Xeon Gold 5300 – 2933 MT/s
  • Xeon Gold 6300 – 3200 MT/s
  • Xeon Platinum 8300 – 3200 MT/s

В-третьих, с двух до четырех увеличено число интегрированных в процессор контроллеров памяти (что улучшает конкурентный доступ ядер к памяти в сетевой mesh-архитектуре процессора), а также возросло общее число каналов памяти с шести до восьми, что на треть увеличивает скорость работы памяти при той же рабочей частоте.

В-четвертых, поддерживается энергонезависимая память Intel Optane Persistent Memory (PMem) второго поколения, которая работает на 30% быстрее памяти Optane первого поколения.

Intel Optane Persistent Memory (PMem) – это новый вид энергонезависимой памяти, которая по быстродействию сравнима с обычной оперативной памятью. Ее использование может либо снизить общую стоимость системы, либо получить объем ОЗУ, недоступный при использовании «обычной» памяти DRAM. PMem может использоваться в одном из двух режимов.

Memory Mode (MM) – здесь PMem выступает в роли оперативной памяти, а память DRAM – в качестве кэша для нее. Система «видит» только объем установленной памяти PMem. Число модулей обоих типов (DRAM и PMem) должно быть одинаковым, но объем модулей DRAM должен быть в 4 - 16 раз меньше объема модулей PMem. В этом сценарии может быть достигнута экономия в конфигурациях с большим объемом памяти. Например, максимальный объем памяти 8TB можно получить двумя способами:

  • 16 x PMem 512GB + 16 x DRAM 32GB = 8TB (DRAM «не видна»)
  • 32 x DRAM 256GB = 8TB

Первый вариант даст заметную экономию бюджета, лишь немного уступая второму варианту в быстродействии.

APP Direct Mode (AD) – в этом режиме PMem используется совместимыми приложениями как энергонезависимая память с побайтовой адресацией. Здесь объем «быстрой» памяти в сервере можно довести до 12TB (16 x DRAM 256GB + 16 x PMem 512GB).

В данной модели сервера каждый процессор имеет 16 слотов для оперативной памяти (по два слота на канал), всего в сервере 32 слота DIMM.


Поддерживаются следующие типы памяти:

  • Registered DDR4 (RDIMM), 3DS-RDIMM
  • Load Reduced DDR4 (LRDIMM), 3DS-LRDIMM
  • Intel Optane Persistent Memory 200 Series (PMem)

Вот несколько основных рекомендаций для подсистемы памяти:

  • число модулей памяти и их тип для обоих процессоров должны быть одинаковыми, чтобы обеспечить сбалансированную конфигурацию сервера (процессоры в основном используют только «свою» память, доступ к памяти другого процессора возможен, но он гораздо более медленный)
  • тип модулей памяти для всех используемых каналов должен быть одинаковым, чтобы обеспечить параллельную работу каналов для максимальной производительности
  • наилучший вариант – задействовать все восемь каналов памяти процессора

Последняя рекомендация очень важна. Мы довольно часто получаем запросы с вариантами конфигураций, в которых установлено по одному или два модуля памяти большой емкости на процессор (используется один или два канала памяти). Объясняется это желанием сохранить возможность увеличения объема памяти сервера в будущем до максимального значения. Желание вполне понятное, но при таком подходе производительность подсистемы памяти будет далеко не оптимальной. На следующем графике показана зависимость скорости подсистемы памяти от числа задействованных каналов. Хотя тестирование проводилось нами на шестиканальном Xeon Scalable 2-го поколения (Cascade Lake) с памятью DDR4-2933, для восьмиканальных Xeon Scalable Gen3 (Ice Lake) картина будет такой же.


Каким образом одновременно обеспечить максимальную производительность подсистемы памяти и в то же время сохранить возможность значительного увеличения ее объема в будущем?

Выбирайте объем модулей так, чтобы при установке одного модуля в каждый канал вы получили необходимый вам объем памяти. Если в дальнейшем объем ОЗУ нужно будет увеличить, вы всегда сможете установить в каждый канал еще по одному модулю такого же или большего объема. Для такого подхода данная платформа Intel подходит идеально, поскольку имеет по два слота памяти в каждом канале и не снижает рабочую частоту памяти при установке двух модулей на канал.

Часто наши клиенты задают вопрос, какую память лучше выбрать – одно- или двухранговую (Single Rank или Dual Rank). Заметной разницы в производительности между ними нет. Одноранговая чуть быстрее на чтении, двухранговая – на операциях копирования. По цене они, как правило, одинаковы.

В плане подсистемы памяти обе платформы сервера R2000CY совершенно идентичны.

Сетевые порты

В базовой конфигурации обеих платформ присутствует только выделенный гигабитный порт управления. Добавить сетевые порты можно посредством установки в слот OCP материнской платы сетевого модуля. Возможные варианты:

  • Intel Ethernet Network Adapter X710-T2L OCP 3.0, Dual port, RJ45, 10 GbE
  • Intel Ethernet Network Adapter X710 OCP 3.0, Quad port DA SFP+, 10 GbE
  • Intel Ethernet Network Adapter E810-XXVDA2 OCP 3.0, Dual port, SFP28, 10/25 GbE
  • Intel Ethernet Network Adapter E810-CQDA2 OCP 3.0, Dual port, QSFP28, 10/25/50/100 GbE

Дополнительные сетевые порты можно добавить в сервер посредством установки сетевых адаптеров в стандартные слоты расширения (всего в сервер можно установить до восьми плат расширения).

Слоты расширения

В сервер R2000CY можно установить до восьми плат расширения.


Дисковая подсистема и варианты подключения накопителей

Накопители SATA можно подключить к интегрированному SATA-контроллеру материнской платы. Таким способом можно подключить максимально 8 накопителей (по числу портов контроллера). Поддерживаются загрузочные массивы RAID 0/1/10/5.

Для накопителей SAS и SATA имеются следующие варианты подключения:

  • к RAID-контроллеру или HBA-адаптеру, которые устанавливаются в один из слотов для плат расширения (до 8, 16 или 24 накопителей в зависимости от числа внутренних портов контроллера или HBA-адаптера);
  • к RAID-модулю Intel (возможен выбор из нескольких моделей), который устанавливается на специальную плату-переходник (Interposer Card), размещаемую между передней корзиной сервера и блоком вентиляторов. Этот вариант не занимает слот расширения, но позволяет подключить не более 16-ти накопителей – максимальное число портов RAID-модуля);
  • к плате расширителя портов Expander Card, которая подключается восемью входными портами к RAID-контроллеру, HBA-адаптеру или RAID-модулю. Данным способом можно подключить до 24 накопителей SAS/SATA – по числу выходных портов (24) расширителя.

Накопители NVMe подключаются следующим образом:

Во всех вышеперечисленных вариантах подключения накопителей NVMe для поддержки загрузочных массивов RAID 0/1/10/5 с технологией VROC требуется лицензионный ключ Intel.

Накопители NVMe могут также подключаться к Tri-Mode RAID-контроллерам Intel или LSI (BROADCOM), но не более 4-х накопителей к одному контроллеру.

В платформу M50CYP2UR312 можно установить до 12-ти жестких дисков 3.5" или SSD-накопителей 2.5" с интерфейсами SAS3/SATA3, в том числе до четырех накопителей NVMe PCIe 4.0/3.0 x4. Накопители NVMe устанавливаются группой от одного до четырех накопителей. В эту группу нельзя устанавливать накопители SAS или SATA. Для всех типов накопителей поддерживается горячая замена.

Накопители SATA можно подключить к интегрированному SATA-контроллеру материнской платы. Таким способом можно подключить максимально 8 накопителей (по числу портов контроллера). Поддерживаются загрузочные массивы RAID 0/1/10/5.

Накопители SAS и SATA подключаются к RAID-контроллеру или HBA-адаптеру, которые устанавливаются в один из слотов для плат расширения (до 8 или 12 накопителей в зависимости от числа внутренних портов контроллера или HBA-адаптера).

Накопители NVMe подключаются к 4 портам SLIMLINE x4 PCIe 4.0 материнской платы. Для поддержки загрузочных массивов RAID 0/1/10/5 с технологией VROC требуется лицензионный ключ Intel. Накопители NVMe могут также подключаться к Tri-Mode RAID-контроллеру Intel или LSI (BROADCOM).

Дополнительно в обеих серверных платформах M50CYP2UR208 и M50CYP2UR312 можно установить один или два загрузочных накопителя M.2 PCIe 3.0 x4 либо SATA форм-фактора 2280/22110, которые подключаются к чипсету. Для обоих типов интерфейса (PCIe 3.0 x4 и SATA) есть поддержка загрузочных массивов RAID 0/1 (для накопителей M.2 PCIe 3.0 x4 требуется лицензионный ключ VROC).

Кроме того, в обе платформы можно установить два внутренних накопителя SATA 2.5" с подключением к SATA-контроллеру материнской платы (поддержка загрузочных RAID 0/1) или RAID-контроллеру.

Подсистемы питания и охлаждения

Сервер может иметь один или два блока питания с горячей заменой мощностью 1300 Вт, 1600 Вт или 2100 Вт. В зависимости от потребляемой сервером мощности и числа установленных блоков питания подсистема питания может работать в одном из следующих режимов:

  • 1 + 0 – установлен один блок питания, резервирования по питанию нет;
  • 1 + 1 – установлено два блока питания, резервирование по питанию есть. Потребляемая сервером мощность не превышает мощности одного блока питания, второй блок питания пребывает в «спящем» режиме и включается только при отказе первого;
  • 2 + 0 – установлено два блока питания, резервирования по питанию нет. Потребляемая сервером мощность превышает мощность одного блока питания, поэтому работают оба блока. На практике такой режим маловероятен, поскольку мощности одного блока питания обычно будет достаточно для любой конфигурации сервера.

Ниже приводятся данные максимальной потребляемой мощности для различных компонентов сервера (в сумме максимально возможная конфигурация по потребляемой мощности):

С учетом эффективности блоков питания уровня Titanium (95%) мощности одного блока 2300 Вт достаточно, чтобы обеспечить режим резервирования 1 + 1 для самой «тяжелой» гипотетической конфигурации.

Подсистема охлаждения сервера включает шесть однороторных вентиляторов с горячей заменой и один вентилятор в каждом блоке питания. Обеспечивается штатная работа сервера при отказе любого из вентиляторов системы охлаждения.

Прочие подсистемы и компоненты сервера

Платформа M50CYP2UR208 в вариантах на 8 и 16 накопителей поддерживает установку до двух графических ускорителей NVIDIA Tesla с потребляемой мощностью 250W и пассивным охлаждением. При этом используются низкопрофильные процессорные радиаторы высотой 1U, а также требуется установка воздуховода и крепления для карт GPU.

Система мониторинга включает 63 различных сенсора (датчики температуры, напряжений, скорости вращения вентиляторов). Поддерживается полнофункциональное удаленное управление (требуется лицензионный ключ).

Для установки сервера в стойку используются рельсы (два варианта) и кабельный органайзер. Предусмотрена накладка на лицевую панель для предотвращения несанкционированного доступа.

Читайте также: