Rdma сетевая карта что это
Обновлено: 06.07.2024
Можно ли обеспечить рост мощностей серверной инфраструктуры (вычислений и хранения) без привлечения сетевых архитектур SAN, специализированных устройств хранения и протоколов передачи данных, висящих тяжелыми гирями на пользователе, его кошельке и степенях его свободы? Берем привычную среду связи серверов и систем хранения на классических сетевых протоколах TCP. Она не идеальна, но доступна, универсальна и перспективна. Оказывается, давно и хорошо знакомое понятие DMA (Direct Memory Access) можно распространить на совокупность контроллеров NIC (Network Interface Controller) нескольких компьютеров, соединенных в локальную сеть.
Интеллектуальный транс-платформенный контроллер DMA при соответствующей программной поддержке обобщает и унифицирует понятие прямого доступа к памяти. Единый подход для доступа в адресное пространство как локального, так и удаленного компьютера обозначили термином RDMA (Remote Direct Memory Access).
В прикладном смысле RDMA — это механизм передачи данных между локальной сетью и оперативной памятью вычислительной платформы. Унифицируется вся адресация — и привилегированной памяти операционной системы, и виртуальной памяти, принадлежащей приложениям. Таким образом, два приложения, запущенные на различных платформах, могут взаимодействовать посредством почти общей памяти. Вообще же, термину RDMA — как спутнику передачи данных без участия центрального процессора — несколько десятков лет. Теперь восходящая спираль технологий достала его из шкафа и вдохнула в него новую жизнь. Оказывается, для оптимизации высоконагруженных виртуализованных платформ в контексте Zero-Copy, только RDMA и не хватало.
Виртуализация устраняет посредников
Для современных вычислений характерна многоуровневая организация. Приложение, запущенное в среде ОС, работает в собственном виртуальном адресном пространстве. ОС, в свою очередь, может иметь статус гостевой системы, запущенной на виртуальной машине. И так далее. Минимизация потерь производительности, связанных с взаимодействием между различными уровнями абстракции, находится сегодня в центре внимания разработчиков программного и аппаратного обеспечения. Один из путей — устранение транзитных буферов, часто применяемых в многоуровневых системах, ведь для опытного программиста не секрет, что дополнительная операция копирования память-память занимает довольно много тактов дорогостоящего процессорного времени (и существенно влияет на эффективность кэш-памяти).
Рис 1. Модель передачи данных, использующая транзитные буферы при взаимодействии между архитектурными уровнями: разделяемые ресурсы (контроллеры NIC и транзитные буферы) находятся в собственности операционной системы, как следствие — необходимость дополнительных пересылок в памяти и низкая производительность
Рис 2. Оптимизированная модель передачи данных, без транзитных буферов: виртуализация устраняет посредников: здесь память пользовательских приложений является непосредственным объектом для RDMA операций контроллера NIC
Физический смысл оптимизации RDMA
Рассмотрим с некоторыми упрощениями процесс передачи блока данных между двумя компьютерами (источником и получателем) по сети. В исходном состоянии, блок данных размещен в буфере, находящемся в оперативной памяти компьютера-источника. Результатом операции будет запись блока данных в буфер, находящийся в оперативной памяти компьютера-получателя. Производительность будем оценивать двумя критериями:
- минимизация времени выполнения операции;
- минимальная утилизация центрального процессора (CPU Utilization).
Напомним, что типовой современный контроллер локальной сети или NIC, поддерживает технологию Bus Master и способен обмениваться информацией с оперативной памятью самостоятельно, без участия центрального процессора.
Очевидно, с точки зрения обоих критериев, система будет функционировать оптимально при отсутствии промежуточных этапов, связанных с пересылкой информации между памятью приложения и буфером, непосредственно используемым контроллером NIC. Вместе с тем, в силу особенностей использования стека сетевых протоколов в многозадачной, а особенно, виртуализованной среде, такой вариант в ряде случаев оказывается недостижимым и необходимы вспомогательные операции перемещения данных, изображенные на диаграмме:
Рис 3. Методы выполнения пересылки данных память-память
Такое перемещение может быть выполнено одним из двух методов:
- Buffer Copy. Центральный процессор перемещает данные между буфером приложения и буфером, используемым контроллером NIC. Этот этап увеличивает время выполнения операции, увеличивает утилизацию процессора а также приводит к «засорению» кэш-памяти процессора данными, кэширование которых не актуально в данном контексте.
- Buffer Copy with DMA engine. Пересылка как Zero-Copy выполняется с помощью контроллера прямого доступа к памяти (DMA или Direct Memory Access). При этом, по сравнению с первым вариантом, снижается утилизация центрального процессора, тем не менее, вспомогательный этап, увеличивающий время выполнения операции, присутствует.
Интеллектуализация протокола передачи данных, и соответственное расширение функциональности контроллера NIC, позволяют исключить промежуточное копирование данных, существенно сократив время выполнения операции и минимизировав участие в ней центрального процессора. Последовательность изображена на следующей диаграмме:
Рис 4. Оптимизация передачи данных в режиме Remote DMA
Контроллер NIC, входящий в состав компьютера-источника, читает данные из буфера (Buffer 1) и передает их в линию связи (network). Контроллер NIC в компьютере-получателе принимает данные из линии и передает в оперативную память (Buffer 2). При этом существенным моментом является отсутствие транзитных буферов и промежуточных этапов копирования данных. Области памяти Buffer 1 и Buffer 2 являются частью памяти приложений. Участие центрального процессора в такой процедуре минимизировано и сводится к инициализации контроллеров перед выполнением пересылки (CPUs program NICs). Такая схема взаимодействия, обеспечивающая реализацию Zero-Copy, подразумевает, что целевые адреса буферов источника и получателя (Src Address, Dst Address) известны к моменту начала пересылки данных.
Реализация описанной модели взаимодействия в виртуализованной среде требует эффективной аппаратной поддержки, в частности диспетчеризации адресных пространств параллельно запущенных виртуальных машин и их эффективного размещения внутри физического адресного пространства хост-платформы. Как известно, такую функциональность обеспечивает технология Intel VT-d, предоставляя отдельное виртуальное адресное пространство каждому периферийному устройству.
Реализации
В зависимости от физической среды передачи данных, различают реализации оптимизированной модели RDMA для технологий Ethernet и InfiniBand. Отметим, что унификация элементов проекта на высоте: оба семейства протоколов используют единую модель программного интерфейса (API), несмотря на существенно различную внутреннюю реализацию программных и аппаратных компонентов.
Удаленный прямой доступ к памяти или RDMA позволяет компьютеру получить доступ к памяти другого компьютера без взаимодействия с буферами данных операционной системы компьютера. Поэтому повышается скорость и пропускная способность сети.
iWARP — это протокол для реализации RDMA через сети Интернет-протоколов (IP).
RoCEv2 — это протокол для неустранимых функций RDMA в сети Ethernet.
В разделе «Удаленный прямой доступ к памяти» (RDMA) руководства пользователя адаптера для адаптеров Intel® Ethernet содержится последнее руководство по установке и конфигурации для Linux*, Windows* и FreeBSD*.
Другие темы |
Центр удаленного прямого доступа к памяти (RDMA) |
Какие Intel® Ethernet сетевые адаптеры поддерживают iWARP и RoCEv2? |
Использование технологий RDMA для ускорения систем хранения Ceph* |
iWarp: фильм |
Другие продукты
Эта статья относится к 2 продукция.
Вам нужна дополнительная помощь?
Оставьте отзыв
Содержание данной страницы представляет собой сочетание выполненного человеком и компьютерного перевода оригинального содержания на английском языке. Данная информация предоставляется для вашего удобства и в ознакомительных целях и не должна расцениваться как исключительная, либо безошибочная. При обнаружении каких-либо противоречий между версией данной страницы на английском языке и переводом, версия на английском языке будет иметь приоритет и контроль. Посмотреть английскую версию этой страницы.
Для работы технологий Intel может потребоваться специальное оборудование, ПО или активация услуг. // Ни один продукт или компонент не может обеспечить абсолютную защиту. // Ваши расходы и результаты могут отличаться. // Производительность зависит от вида использования, конфигурации и других факторов. // См. наши юридические уведомления и отказ от ответственности. // Корпорация Intel выступает за соблюдение прав человека и избегает причастности к их нарушению. См. Глобальные принципы защиты прав человека в корпорации Intel. Продукция и программное обеспечение Intel предназначены только для использования в приложениях, которые не приводят или не способствуют нарушению всемирно признанных прав человека.
В программировании 'удаленный прямой доступ к памяти' ( RDMA ) является прямой доступ к памяти из памяти одного компьютера в другой без участия операционной системы. Это позволяет создавать сети с высокой пропускной способностью и низкой latency, что особенно полезно в массово параллельных компьютерных кластерах. RDMA реализован в различных протоколах, например, в Virtual Interface Architecture, InfiniBand, iWARP, RoCE, Intel Omni-Path.
Содержание
Описание
Принятие
По состоянию на 2018 год RDMA получила более широкое признание в результате улучшений реализации, которые обеспечивают хорошую производительность по сравнению с обычной сетевой инфраструктурой [1] , Например, RoCE (RDMA over Converged Ethernet) теперь может работать с инфраструктурой с потерями или без потерь. Кроме того, iWARP позволяет реализовать Ethernet RDMA на физическом уровне, используя TCP / IP в качестве транспорта, объединяя преимущества производительности и задержки в RDMA с недорогим, основанным на стандартах решением. [2] Консорциум RDMA и DAT Collaborative [3] сыграли ключевую роль в разработке протоколов RDMA и APIs для рассмотрения группами по стандартизации, такими как Internet Engineering Task Force и Interconnect Software Consortium. [4] Поставщики оборудования начали работать над сетевыми адаптерами с более высокой пропускной способностью на основе RDMA со скоростями 100 Гбит / с. [5] [6] Поставщики программного обеспечения, такие как Red Hat и Oracle Corporation, поддерживают эти API в своих последних продуктах, [7] и по состояню на 2013 инженеры начали разработку сетевых адаптеров, которые реализуют RDMA через Ethernet. [8] И в Red Hat Enterprise Linux, и в Red Hat Enterprise MRG [9] есть поддержка RDMA. Microsoft поддерживает RDMA в Windows Server 2012 через SMB Direct. Продукт VMware ESXi также поддерживает RDMA с 2015 года.
Преимущества
Аппаратная реализация RDMA позволяет реализовать метод zero-copy для сетей. При передаче данных с помощью RDMA исключаются лишние копирования между приложением и буферами операционной системы. Соответственно снижается объём работы центрального процессора, нагрузка на кэш-память, уменьшается количество переключений контекста, а сами передачи могут производиться одновременно с другой полезной работой. Когда приложение исполняет запрос на чтение или запись в удалённую оперативную память, данные могут доставляться напрямую в сетевой адаптер, уменьшая задержки при передаче данных.
Недостатки
При использовании простых односторонних примитивов RDMA отправитель не информируется о завершении передачи. Часто по завершении пересылки адаптер выставляет некоторые значения в памяти, но для обнаружения такого изменения отправитель должен считывать этот флаг в цикле. Циклический опрос потребляет процессорное время, кроме того возрастают накладные расходы памяти и задержки для систем с очень большим количеством узлов.
Проводные компьютерные сети все еще создают плацдарм в сетевых областях, обеспечивая надежный выбор. Сетевая карта считается одним из наиболее важных периферийных устройств в проводных сетях. На рынке доступны различные NIC (сетевые интерфейсные карты), некоторые похожи по внешнему виду, но различаются по свойствам и ценам. Их сходства и различия будут найдены путем тщательного сравнения. В этой статье будет дано сравнение и анализ среди нескольких сетевых карт аналогичных типов от FS, Intel и Mellanox с определенной скоростью (10G, 25G и 40G).
Предпосылка: oсновные aспекты
В этой статье будут сравниваться и анализироваться некоторые из трех марок сетевых карт в двух основных областях: производительность (конфигурация порта, скорость передачи данных на порт, скорость и ширина слота, контроллер и т. д.) и возможности (QoS и трафик на кристалле.) Управление, iSCSI, NFS, FCoE, RoCE, операционная система и т. д.), все они будут показаны в каждой таблице.
Функции NIC описаны ниже:
QoS и Управление Трафиком на Кристалле: используется для определения того, как определенные операции ввода-вывода могут обрабатываться в сетевом адаптере путем определения приложения, чувствительного к задержке, и позволяющего ему обходить трафик приложения, который не чувствителен к задержке, что позволяет пользователям управлять сквозным QoS для различных хост-приложений, используя общий сетевой ресурс Ethernet.
iSCSI: получен из интерфейса малых компьютерных систем Интернета, сетевого стандарта хранения данных на основе Интернет-протокола (IP) для связи средств хранения данных, который используется для облегчения передачи данных по интрасетям и управления хранением на больших расстояниях.
NFS: NFS означает «Сетевая файловая система» - это протокол распределенной файловой системы, который позволяет пользователям клиентских компьютеров получать доступ к файлам через компьютерную сеть, так же как и к локальному хранилищу.
FCoE: инкапсулирует кадры Fibre Channel в стандартный Ethernet, что позволяет Fibre Channel использовать сети 10/25/40GbE, сохраняя при этом его собственный протокол.
Интеллектуальная разгрузка: SR-IOV (виртуализация с одним корневым вводом/выводом) используется для сетевого взаимодействия для каждой виртуальной машины (ВМ), а количество операций ввода/вывода уменьшается за счет интеллектуальной разгрузки, такой как VMDq (очередь устройств виртуальной машины) и гибкого разделения портов. узкие места. Практическая производительность и масштабируемость виртуальных машин.
VMDq: создание очередей для совместного использования NIC на основе программного обеспечения, технологии на уровне кремния, которая облегчает некоторые проблемы управления сетевым вводом-выводом монитора виртуальной машины (VMM).
SR-IOV: позволяет сетевому адаптеру разделять доступ к его ресурсам среди различных аппаратных функций сетевой карты и позволяет сетевому трафику обходить уровень программных коммутаторов стека виртуализации Hyper-V.
iWARP: не аббревиатура, это сетевой компьютерный протокол, который реализует RDMA для эффективной передачи данных по сетям Интернет-протокола. RDMA (удаленный прямой доступ к памяти) - это прямой доступ к памяти из памяти одного компьютера в память другого без использования какой-либо операционной системы.
RoCE: сетевой протокол, который позволяет RDMA по сети Ethernet путем инкапсуляции транспортного пакета IB (InfiniBand) по Ethernet.
Сравнение cетевых карт cетевых aдаптеров 10GbE
ELX540BT2-T2 и X540-T2 являются двухпортовыми сетевыми адаптерами 10GBase-T, более подробные спецификации приведены в таблице ниже:
ELX540BT2-T2 | X540-T2 | |
---|---|---|
Конфигурация Порта | Dual 10GBase-T Ports | Dual 10GBase-T Ports |
Скорость Передачи Данных на Порт | 10GbE | 10GbE |
Скорость и Ширина Слота | 5.0 GT/s, x8 Lanes | 5.0 GT/s, x8 Lanes |
Контроллер | Intel X540-BT2 | Intel X540-BT2 |
Тип Интерфейса | PCIe 2.1 | PCIe 2.1 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE |
Функциональность (Не Поддерживается) | iWARP/RDMA | iWARP/RDMA |
OS | Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX | Windows, Linux, FreeBSD, EFI, VMware ESX, ESXi |
FTXL710BM1-F4 и X722-DA4 являются сетевыми адаптерами 10GbE SFP + с четырьмя портами, более подробные спецификации приведены в таблице ниже:
FTXL710BM1-F4 | X722-DA4 | |
---|---|---|
Конфигурация Порта | Quad SFP+ Ports | Quad SFP+ Ports |
Скорость Передачи Данных на Порт | 10GbE | 10GbE |
Скорость и Ширина Слота | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes |
Контроллер | Intel XL710-BM1 | Intel C628 |
Тип Интерфейса | PCIe 3.0 | PCIe 3.0 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS |
Функциональность (Не Поддерживается) | FCoE, iWARP, RoCE | FCoE, iWARP, RoCE |
OS | Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESXi | Windows, Linux, FreeBSD |
JL82599EN-F1, X520-SR1 и MCX4111A-XCAT являются однопортовыми сетевыми адаптерами 10GbE SFP +, более подробные спецификации приведены в таблице ниже:
JL82599EN-F1 | X520-SR1 | MCX4111A-XCAT | |
---|---|---|---|
Конфигурация Порта | Single SFP+ Port | Single SFP+ Port | Single SFP+ Port |
Скорость Передачи Данных на Порт | 10GbE | 10GbE | 10GbE |
Скорость и Ширина Слота | 5.0 GT/s, x8 Lanes | 5.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes |
Контроллер | Intel 82599EN | Intel 82599 | ConnectX-4 Lx |
Тип Интерфейса | PCIe 2.0 | PCIe 2.0 | PCIe 3.0 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS, FCoE | SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE |
Функциональность (Не Поддерживается) | iWARP, RoCE | iWARP, RoCE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP |
OS | Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX | Windows, Linux, FreeBSD, EFI, UEFI | Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2 |
X710BM2-F2, X722-DA2 и MCX4121A-XC - это двухпортовые сетевые адаптеры 10GbE SFP +, более подробные технические характеристики приведены в таблице ниже:
X710BM2-F2 | X722-DA2 | MCX4121A-XC | |
---|---|---|---|
Конфигурация Порта | Dual SFP+ Ports | Dual SFP+ Ports | Dual SFP+ Ports |
Скорость Передачи Данных на Порт | 10GbE | 10GbE | 10GbE |
Скорость и Ширина Слота | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes |
Контроллер | Intel X710-BM2 | Intel C628 | ConnectX-4 Lx |
Тип Интерфейса | PCIe 3.0 | PCIe 3.0 | PCIe 3.0 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE |
Функциональность (Не Поддерживается) | FCoE, iWARP, RoCE | FCoE, iWARP, RoCE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP |
OS | Windows, Linux, FreeBSD, CentOS, UEFI, VMware ESX | Windows, Linux, FreeBSD | Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2 |
Сравнение сетевых карт сетевых адаптеров 25GbE
XXV710AM2-F2, XXV710-DA2 и MCX4121A-ACAT - это двухпортовые сетевые карты 25GbE SFP28, более подробные технические характеристики приведены в таблице ниже:
XXV710AM2-F2 | XXV710-DA2 | MCX4121A-ACAT | |
---|---|---|---|
Конфигурация Порта | Dual SFP28 Ports | Dual SFP28 Ports | Dual SFP28 Ports |
Скорость Передачи Данных на Порт | 25GbE | 25GbE | 25GbE |
Скорость и Ширина Слота | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes |
Тип Интерфейса | PCIe 3.0 | PCIe 3.0 | PCIe 3.0 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE |
Функциональность (Не Поддерживается) | FCoE, iWARP, RoCE | FCoE, iWARP, RoCE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP |
OS | Windows, Linux, FreeBSD, CentOS, VMvare, ESX/ESXi | Windows, Linux, FreeBSD | Windows, FreeBSD, RHEL/CentOS, Vmware, WinOF-2 |
Сравнение сетевых карт сетевых адаптеров 40GbE
FTXL710BM2-QF2, XL710-QDA2 и MCX4131A-BCAT. Первые две являются двухпортовыми сетевыми картами 40GbE QSFP+, а последний - однопортовый 40GbE QSFP+, более подробные спецификации приведены в таблице ниже:
FTXL710BM2-QF2 | XL710-QDA2 | MCX4131A-BCAT | |
---|---|---|---|
Конфигурация Порта | Dual QSFP+ Ports | Dual QSFP+ Ports | Single QSFP+ Ports |
Скорость Передачи Данных на Порт | 40GbE | 40GbE | 40GbE |
Скорость и Ширина Слота | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes | 8.0 GT/s, x8 Lanes |
Контроллер | Intel XL710-BM2 | Intel XL710-BM2 | ConnectX-4 Lx |
Тип Интерфейса | PCIe 3.0 | PCIe 3.0 | PCIe 3.0 |
Высота Кронштейна | Low Profile and Full Height | Low Profile and Full Height | Low Profile and Full Height |
Функциональность (Поддержка) | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, SR-IOV, Intelligent Offloads, iSCSI, NFS | SR-IOV, Intelligent Offloads, iSCSI, NFS, RoCE |
Функциональность (Не Поддерживается) | FCoE, iWARP, RoCE | FCoE, iWARP, RoCE | On-chip QoS and Traffic Management, Flexible Port Partitioning, VMDq, FCoE, iWARP |
OS | Windows, Linux, FreeBSD, CentOS, UEFI, VMware, ESXi | Windows, Linux, FreeBSD | Windows , FreeBSD, RHEL/CentOS, Vmware, WinOF-2 |
Вывод
После сравнения с двумя основными брендами на рынке, мы пришли к выводу, что самостоятельно разработанные сетевые адаптеры FS в основном одинаковы по производительности и даже лучше поддерживают больше операционных систем. Сетевые адаптеры FS имеют интерфейс PCIe и компактный и гибкий дизайн, который может обеспечить надежную работу сервера. Более того, они имеют масштабную совместимость. С одной стороны, все сетевые карты протестированы на поддержку всех серверов FS и нескольких основных брендов, таких как серверы Dell, HPE, IBM, Intel, Supermicro и т. д. С другой стороны, FS также предлагает различные модули, совместимые с нашими сетевыми адаптерами. Для получения более подробной информации посетите: Руководство по модулю сетевого адаптера.
Читайте также: