Rdma сетевая карта что это

Обновлено: 06.07.2024

Можно ли обеспечить рост мощностей сер­вер­ной ин­фра­ст­рук­ту­ры (вы­чи­с­ле­ний и хра­не­ния) без при­вле­че­ния се­те­вых архитектур SAN, спе­ци­а­ли­зи­ро­ван­ных уст­ройств хра­не­ния и про­то­ко­лов пе­ре­да­чи дан­ных, ви­ся­щих тя­же­лыми ги­ря­ми на поль­зо­ва­те­ле, его ко­шель­ке и сте­пе­нях его сво­бо­ды? Бе­рем при­выч­ную сре­ду свя­зи сер­ве­ров и сис­тем хра­не­ния на клас­си­че­ских се­те­вых про­то­ко­лах TCP. Она не иде­аль­на, но до­ступ­на, уни­вер­саль­на и пер­спективна. Ока­зы­ва­ет­ся, дав­но и хо­ро­шо зна­ко­мое по­ня­тие DMA (Direct Memory Access) мож­но рас­про­ст­ра­нить на со­во­куп­ность кон­т­рол­ле­ров NIC (Net­work In­ter­face Con­trol­ler) не­сколь­ких ком­пью­те­ров, со­е­ди­нен­ных в ло­каль­ную сеть.

Интеллектуальный транс-платформенный контроллер DMA при соответствующей программной поддержке об­об­щает и унифицирует понятие прямого доступа к памяти. Единый подход для доступа в адресное пространство как локального, так и удаленного компьютера обозначили термином RDMA (Remote Direct Memory Access).

В прикладном смысле RDMA — это механизм передачи данных между локальной сетью и оперативной памятью вычислительной платформы. Унифицируется вся адресация — и привилегированной памяти операционной сис­те­мы, и виртуальной памяти, принадлежащей приложениям. Таким образом, два приложения, запущенные на раз­лич­ных платформах, могут взаимодействовать посредством почти общей памяти. Вообще же, термину RDMA — как спутнику передачи данных без участия центрального процессора — несколько десятков лет. Теперь вос­хо­дя­щая спираль технологий достала его из шкафа и вдохнула в него новую жизнь. Оказывается, для оптимизации вы­со­ко­на­гру­жен­ных виртуализованных платформ в контексте Zero-Copy, только RDMA и не хватало.

Виртуализация устраняет посредников

Для современных вычислений характерна многоуровневая организация. Приложение, запущенное в среде ОС, ра­бо­тает в собственном виртуальном адресном пространстве. ОС, в свою очередь, может иметь статус гостевой сис­те­мы, запущенной на виртуальной машине. И так далее. Минимизация потерь производительности, связанных с вза­и­мо­дей­ствием между различными уровнями абстракции, находится сегодня в центре внимания раз­ра­бот­чи­ков программного и аппаратного обеспечения. Один из путей — устранение транзитных буферов, часто при­ме­ня­е­мых в многоуровневых системах, ведь для опытного программиста не секрет, что дополнительная операция ко­пи­ро­ва­ния память-память занимает довольно много тактов дорогостоящего процессорного времени (и существенно вли­я­ет на эффективность кэш-памяти).

Модель передачи данных, использующая транзитные буферы при взаимодействии между архитектурными уровнями


Рис 1. Модель передачи данных, использующая транзитные буферы при взаимодействии между архитектурными уровнями: разделяемые ресурсы (контроллеры NIC и транзитные буферы) находятся в собственности операционной системы, как следствие — необходимость дополнительных пересылок в памяти и низкая производительность

Оптимизированная модель передачи данных, без транзитных буферов


Рис 2. Оптимизированная модель передачи данных, без транзитных буферов: виртуализация устраняет посредников: здесь память пользовательских приложений является непосредственным объектом для RDMA операций контроллера NIC

Физический смысл оптимизации RDMA

Рассмотрим с некоторыми упрощениями процесс передачи блока данных между двумя компьютерами (источником и получателем) по сети. В исходном состоянии, блок данных размещен в буфере, находящемся в оперативной памяти компьютера-источника. Результатом операции будет запись блока данных в буфер, находящийся в оперативной памяти компьютера-получателя. Производительность будем оценивать двумя критериями:

  • минимизация времени выполнения операции;
  • минимальная утилизация центрального процессора (CPU Utilization).

Напомним, что типовой современный контроллер локальной сети или NIC, поддерживает технологию Bus Master и способен обмениваться информацией с оперативной памятью самостоятельно, без участия центрального процессора.

Очевидно, с точки зрения обоих критериев, система будет функционировать оптимально при отсутствии промежуточных этапов, связанных с пересылкой информации между памятью приложения и буфером, непосредственно используемым контроллером NIC. Вместе с тем, в силу особенностей использования стека сетевых протоколов в многозадачной, а особенно, виртуализованной среде, такой вариант в ряде случаев оказывается недостижимым и необходимы вспомогательные операции перемещения данных, изображенные на диаграмме:

Методы выполнения пересылки данных память-память

Рис 3. Методы выполнения пересылки данных память-память

Такое перемещение может быть выполнено одним из двух методов:

  1. Buffer Copy. Центральный процессор перемещает данные между буфером приложения и буфером, используемым контроллером NIC. Этот этап увеличивает время выполнения операции, увеличивает утилизацию процессора а также приводит к «засорению» кэш-памяти процессора данными, кэширование которых не актуально в данном контексте.
  2. Buffer Copy with DMA engine. Пересылка как Zero-Copy выполняется с помощью контроллера прямого доступа к памяти (DMA или Direct Memory Access). При этом, по сравнению с первым вариантом, снижается утилизация центрального процессора, тем не менее, вспомогательный этап, увеличивающий время выполнения операции, присутствует.

Интеллектуализация протокола передачи данных, и соответственное расширение функциональности контроллера NIC, позволяют исключить промежуточное копирование данных, существенно сократив время выполнения операции и минимизировав участие в ней центрального процессора. Последовательность изображена на следующей диаграмме:

Оптимизация передачи данных в режиме Remote DMA

Рис 4. Оптимизация передачи данных в режиме Remote DMA

Контроллер NIC, входящий в состав компьютера-источника, читает данные из буфера (Buffer 1) и передает их в линию связи (network). Контроллер NIC в компьютере-получателе принимает данные из линии и передает в оперативную память (Buffer 2). При этом существенным моментом является отсутствие транзитных буферов и промежуточных этапов копирования данных. Области памяти Buffer 1 и Buffer 2 являются частью памяти приложений. Участие центрального процессора в такой процедуре минимизировано и сводится к инициализации контроллеров перед выполнением пересылки (CPUs program NICs). Такая схема взаимодействия, обеспечивающая реализацию Zero-Copy, подразумевает, что целевые адреса буферов источника и получателя (Src Address, Dst Address) известны к моменту начала пересылки данных.

Реализация описанной модели взаимодействия в виртуализованной среде требует эффективной аппаратной поддержки, в частности диспетчеризации адресных пространств параллельно запущенных виртуальных машин и их эффективного размещения внутри физического адресного пространства хост-платформы. Как известно, такую функциональность обеспечивает технология Intel VT-d, предоставляя отдельное виртуальное адресное пространство каждому периферийному устройству.

Реализации

В зависимости от физической среды передачи данных, различают реализации оптимизированной модели RDMA для технологий Ethernet и InfiniBand. Отметим, что унификация элементов проекта на высоте: оба семейства протоколов используют единую модель программного интерфейса (API), несмотря на существенно различную внутреннюю реализацию программных и аппаратных компонентов.

Удаленный прямой доступ к памяти или RDMA позволяет компьютеру получить доступ к памяти другого компьютера без взаимодействия с буферами данных операционной системы компьютера. Поэтому повышается скорость и пропускная способность сети.

iWARP — это протокол для реализации RDMA через сети Интернет-протоколов (IP).

RoCEv2 — это протокол для неустранимых функций RDMA в сети Ethernet.

В разделе «Удаленный прямой доступ к памяти» (RDMA) руководства пользователя адаптера для адаптеров Intel® Ethernet содержится последнее руководство по установке и конфигурации для Linux*, Windows* и FreeBSD*.

Другие темы
Центр удаленного прямого доступа к памяти (RDMA)
Какие Intel® Ethernet сетевые адаптеры поддерживают iWARP и RoCEv2?
Использование технологий RDMA для ускорения систем хранения Ceph*
iWarp: фильм

Другие продукты

Эта статья относится к 2 продукция.

Вам нужна дополнительная помощь?

Оставьте отзыв

Содержание данной страницы представляет собой сочетание выполненного человеком и компьютерного перевода оригинального содержания на английском языке. Данная информация предоставляется для вашего удобства и в ознакомительных целях и не должна расцениваться как исключительная, либо безошибочная. При обнаружении каких-либо противоречий между версией данной страницы на английском языке и переводом, версия на английском языке будет иметь приоритет и контроль. Посмотреть английскую версию этой страницы.

Для работы технологий Intel может потребоваться специальное оборудование, ПО или активация услуг. // Ни один продукт или компонент не может обеспечить абсолютную защиту. // Ваши расходы и результаты могут отличаться. // Производительность зависит от вида использования, конфигурации и других факторов. // См. наши юридические уведомления и отказ от ответственности. // Корпорация Intel выступает за соблюдение прав человека и избегает причастности к их нарушению. См. Глобальные принципы защиты прав человека в корпорации Intel. Продукция и программное обеспечение Intel предназначены только для использования в приложениях, которые не приводят или не способствуют нарушению всемирно признанных прав человека.

В программировании 'удаленный прямой доступ к памяти' ( RDMA ) является прямой доступ к памяти из памяти одного компьютера в другой без участия операционной системы. Это позволяет создавать сети с высокой пропускной способностью и низкой latency, что особенно полезно в массово параллельных компьютерных кластерах. RDMA реализован в различных протоколах, например, в Virtual Interface Architecture, InfiniBand, iWARP, RoCE, Intel Omni-Path.

Содержание

Описание

Принятие

По состоянию на 2018 год RDMA получила более широкое признание в результате улучшений реализации, которые обеспечивают хорошую производительность по сравнению с обычной сетевой инфраструктурой [1] , Например, RoCE (RDMA over Converged Ethernet) теперь может работать с инфраструктурой с потерями или без потерь. Кроме того, iWARP позволяет реализовать Ethernet RDMA на физическом уровне, используя TCP / IP в качестве транспорта, объединяя преимущества производительности и задержки в RDMA с недорогим, основанным на стандартах решением. [2] Консорциум RDMA и DAT Collaborative [3] сыграли ключевую роль в разработке протоколов RDMA и APIs для рассмотрения группами по стандартизации, такими как Internet Engineering Task Force и Interconnect Software Consortium. [4] Поставщики оборудования начали работать над сетевыми адаптерами с более высокой пропускной способностью на основе RDMA со скоростями 100 Гбит / с. [5] [6] Поставщики программного обеспечения, такие как Red Hat и Oracle Corporation, поддерживают эти API в своих последних продуктах, [7] и по состояню на 2013 инженеры начали разработку сетевых адаптеров, которые реализуют RDMA через Ethernet. [8] И в Red Hat Enterprise Linux, и в Red Hat Enterprise MRG [9] есть поддержка RDMA. Microsoft поддерживает RDMA в Windows Server 2012 через SMB Direct. Продукт VMware ESXi также поддерживает RDMA с 2015 года.

Преимущества

Аппаратная реализация RDMA позволяет реализовать метод zero-copy для сетей. При передаче данных с помощью RDMA исключаются лишние копирования между приложением и буферами операционной системы. Соответственно снижается объём работы центрального процессора, нагрузка на кэш-память, уменьшается количество переключений контекста, а сами передачи могут производиться одновременно с другой полезной работой. Когда приложение исполняет запрос на чтение или запись в удалённую оперативную память, данные могут доставляться напрямую в сетевой адаптер, уменьшая задержки при передаче данных.

Недостатки

При использовании простых односторонних примитивов RDMA отправитель не информируется о завершении передачи. Часто по завершении пересылки адаптер выставляет некоторые значения в памяти, но для обнаружения такого изменения отправитель должен считывать этот флаг в цикле. Циклический опрос потребляет процессорное время, кроме того возрастают накладные расходы памяти и задержки для систем с очень большим количеством узлов.

Worton

Проводные компьютерные сети все еще создают плацдарм в сетевых областях, обеспечивая надежный выбор. Сетевая карта считается одним из наиболее важных периферийных устройств в проводных сетях. На рынке доступны различные NIC (сетевые интерфейсные карты), некоторые похожи по внешнему виду, но различаются по свойствам и ценам. Их сходства и различия будут найдены путем тщательного сравнения. В этой статье будет дано сравнение и анализ среди нескольких сетевых карт аналогичных типов от FS, Intel и Mellanox с определенной скоростью (10G, 25G и 40G).

Предпосылка: oсновные aспекты

В этой статье будут сравниваться и анализироваться некоторые из трех марок сетевых карт в двух основных областях: производительность (конфигурация порта, скорость передачи данных на порт, скорость и ширина слота, контроллер и т. д.) и возможности (QoS и трафик на кристалле.) Управление, iSCSI, NFS, FCoE, RoCE, операционная система и т. д.), все они будут показаны в каждой таблице.

Функции NIC описаны ниже:

QoS и Управление Трафиком на Кристалле: используется для определения того, как определенные операции ввода-вывода могут обрабатываться в сетевом адаптере путем определения приложения, чувствительного к задержке, и позволяющего ему обходить трафик приложения, который не чувствителен к задержке, что позволяет пользователям управлять сквозным QoS для различных хост-приложений, используя общий сетевой ресурс Ethernet.

iSCSI: получен из интерфейса малых компьютерных систем Интернета, сетевого стандарта хранения данных на основе Интернет-протокола (IP) для связи средств хранения данных, который используется для облегчения передачи данных по интрасетям и управления хранением на больших расстояниях.

NFS: NFS означает «Сетевая файловая система» - это протокол распределенной файловой системы, который позволяет пользователям клиентских компьютеров получать доступ к файлам через компьютерную сеть, так же как и к локальному хранилищу.

FCoE: инкапсулирует кадры Fibre Channel в стандартный Ethernet, что позволяет Fibre Channel использовать сети 10/25/40GbE, сохраняя при этом его собственный протокол.

Интеллектуальная разгрузка: SR-IOV (виртуализация с одним корневым вводом/выводом) используется для сетевого взаимодействия для каждой виртуальной машины (ВМ), а количество операций ввода/вывода уменьшается за счет интеллектуальной разгрузки, такой как VMDq (очередь устройств виртуальной машины) и гибкого разделения портов. узкие места. Практическая производительность и масштабируемость виртуальных машин.

VMDq: создание очередей для совместного использования NIC на основе программного обеспечения, технологии на уровне кремния, которая облегчает некоторые проблемы управления сетевым вводом-выводом монитора виртуальной машины (VMM).

SR-IOV: позволяет сетевому адаптеру разделять доступ к его ресурсам среди различных аппаратных функций сетевой карты и позволяет сетевому трафику обходить уровень программных коммутаторов стека виртуализации Hyper-V.

iWARP: не аббревиатура, это сетевой компьютерный протокол, который реализует RDMA для эффективной передачи данных по сетям Интернет-протокола. RDMA (удаленный прямой доступ к памяти) - это прямой доступ к памяти из памяти одного компьютера в память другого без использования какой-либо операционной системы.

RoCE: сетевой протокол, который позволяет RDMA по сети Ethernet путем инкапсуляции транспортного пакета IB (InfiniBand) по Ethernet.

Сравнение cетевых карт cетевых aдаптеров 10GbE

ELX540BT2-T2 и X540-T2 являются двухпортовыми сетевыми адаптерами 10GBase-T, более подробные спецификации приведены в таблице ниже:


ELX540BT2-T2 X540-T2
Конфигурация Порта Dual 10GBase-T Ports Dual 10GBase-T Ports
Скорость Передачи Данных на Порт 10GbE 10GbE
Скорость и Ширина Слота 5.0 GT/s, x8 Lanes 5.0 GT/s, x8 Lanes
Контроллер Intel X540-BT2 Intel X540-BT2
Тип Интерфейса PCIe 2.1 PCIe 2.1
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE
Функциональность
(Не Поддерживается)
iWARP/RDMA iWARP/RDMA
OS Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX Windows, Linux, FreeBSD, EFI, VMware ESX, ESXi

FTXL710BM1-F4 и X722-DA4 являются сетевыми адаптерами 10GbE SFP + с четырьмя портами, более подробные спецификации приведены в таблице ниже:


FTXL710BM1-F4 X722-DA4
Конфигурация Порта Quad SFP+ Ports Quad SFP+ Ports
Скорость Передачи Данных на Порт 10GbE 10GbE
Скорость и Ширина Слота 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes
Контроллер Intel XL710-BM1 Intel C628
Тип Интерфейса PCIe 3.0 PCIe 3.0
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS
Функциональность
(Не Поддерживается)
FCoE, iWARP, RoCE FCoE, iWARP, RoCE
OS Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESXi Windows, Linux, FreeBSD

JL82599EN-F1, X520-SR1 и MCX4111A-XCAT являются однопортовыми сетевыми адаптерами 10GbE SFP +, более подробные спецификации приведены в таблице ниже:


JL82599EN-F1 X520-SR1 MCX4111A-XCAT
Конфигурация Порта Single SFP+ Port Single SFP+ Port Single SFP+ Port
Скорость Передачи Данных на Порт 10GbE 10GbE 10GbE
Скорость и Ширина Слота 5.0 GT/s, x8 Lanes 5.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes
Контроллер Intel 82599EN Intel 82599 ConnectX-4 Lx
Тип Интерфейса PCIe 2.0 PCIe 2.0 PCIe 3.0
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE
Функциональность
(Не Поддерживается)
iWARP, RoCE iWARP, RoCE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP
OS Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX Windows, Linux, FreeBSD, EFI, UEFI Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2

X710BM2-F2, X722-DA2 и MCX4121A-XC - это двухпортовые сетевые адаптеры 10GbE SFP +, более подробные технические характеристики приведены в таблице ниже:


X710BM2-F2 X722-DA2 MCX4121A-XC
Конфигурация Порта Dual SFP+ Ports Dual SFP+ Ports Dual SFP+ Ports
Скорость Передачи Данных на Порт 10GbE 10GbE 10GbE
Скорость и Ширина Слота 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes
Контроллер Intel X710-BM2 Intel C628 ConnectX-4 Lx
Тип Интерфейса PCIe 3.0 PCIe 3.0 PCIe 3.0
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE
Функциональность
(Не Поддерживается)
FCoE, iWARP, RoCE FCoE, iWARP, RoCE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP
OS Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX Windows, Linux, FreeBSD Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2

Сравнение сетевых карт сетевых адаптеров 25GbE

XXV710AM2-F2, XXV710-DA2 и MCX4121A-ACAT - это двухпортовые сетевые карты 25GbE SFP28, более подробные технические характеристики приведены в таблице ниже:


XXV710AM2-F2 XXV710-DA2 MCX4121A-ACAT
Конфигурация Порта Dual SFP28 Ports Dual SFP28 Ports Dual SFP28 Ports
Скорость Передачи Данных на Порт 25GbE 25GbE 25GbE
Скорость и Ширина Слота 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes
Тип Интерфейса PCIe 3.0 PCIe 3.0 PCIe 3.0
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE
Функциональность
(Не Поддерживается)
FCoE, iWARP, RoCE FCoE, iWARP, RoCE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP
OS Windows, Linux, FreeBSD, CentOS, VMvare, ESX/ESXi Windows, Linux, FreeBSD Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2

Сравнение сетевых карт сетевых адаптеров 40GbE

FTXL710BM2-QF2, XL710-QDA2 и MCX4131A-BCAT. Первые две являются двухпортовыми сетевыми картами 40GbE QSFP+, а последний - однопортовый 40GbE QSFP+, более подробные спецификации приведены в таблице ниже:


FTXL710BM2-QF2 XL710-QDA2 MCX4131A-BCAT
Конфигурация Порта Dual QSFP+ Ports Dual QSFP+ Ports Single QSFP+ Ports
Скорость Передачи Данных на Порт 40GbE 40GbE 40GbE
Скорость и Ширина Слота 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes 8.0 GT/s, x8 Lanes
Контроллер Intel XL710-BM2 Intel XL710-BM2 ConnectX-4 Lx
Тип Интерфейса PCIe 3.0 PCIe 3.0 PCIe 3.0
Высота Кронштейна Low Profile and Full Height Low Profile and Full Height Low Profile and Full Height
Функциональность
(Поддержка)
On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE
Функциональность
(Не Поддерживается)
FCoE, iWARP, RoCE FCoE, iWARP, RoCE On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP
OS Windows, Linux, FreeBSD, CentOS, UEFI, VMware, ESXi Windows, Linux, FreeBSD Windows , FreeBSD, RHEL/CentOS, Vmware, WinOF-2

Вывод

После сравнения с двумя основными брендами на рынке, мы пришли к выводу, что самостоятельно разработанные сетевые адаптеры FS в основном одинаковы по производительности и даже лучше поддерживают больше операционных систем. Сетевые адаптеры FS имеют интерфейс PCIe и компактный и гибкий дизайн, который может обеспечить надежную работу сервера. Более того, они имеют масштабную совместимость. С одной стороны, все сетевые карты протестированы на поддержку всех серверов FS и нескольких основных брендов, таких как серверы Dell, HPE, IBM, Intel, Supermicro и т. д. С другой стороны, FS также предлагает различные модули, совместимые с нашими сетевыми адаптерами. Для получения более подробной информации посетите: Руководство по модулю сетевого адаптера.

Читайте также: