Gtx titan подключение по sli

Обновлено: 07.07.2024

Если кто-то пропустил релиз GeForce GTX TITAN X, то предлагаю для начала познакомиться с этим устройством в нашем подробном обзоре. Молниеносный итог: данная видеокарта официально стала самым быстрым одночиповым игровым решением, а графический процессор GM200 — самым мощным GPU современности. Высочайший уровень быстродействия «камня», а также наличие сразу 12 Гбайт видеопамяти позволили этому графическому адаптеру вполне комфортно чувствовать себя даже в Ultra HD разрешении. Да, согласно нашей методике, мы выставляем максимальные настройки качества графики в играх, включая многократные режимы сглаживания. Поэтому в ряде случаев GeForce GTX TITAN X не смогла продемонстрировать комфортные 30 FPS, но была очень близка к этому результату. Без антиалиазинга во всех этих играх с большой вероятностью будет продемонстрирован комфортный уровень FPS. К тому же, как я уже выяснил ранее, связки и двух и даже трех GeForce GTX 980 буквально «захлебываются» в 4K, ибо эти 3D-ускорители имеют всего 4 Гбайт набортной памяти. Есть причины полагать, что два графических процессора GM200, поддерживаемые сносной оптимизацией игровых приложений и драйверов, должны сдюжить.

NVIDIA GeForce GTX TITAN X

Предлагаю изучить таблицу с полным описанием основных характеристик GeForce GTX TITAN X и перейти непосредственно изучению производительности связки из пары таких видеокарт.

NVIDIA GeForce GTX TITAN X
Название чипа
Техпроцесс
Количество транзисторов
Количество GPC
Количество SMM
Количество CUDA-ядер
Количество текстурных блоков
Количество ROP
Кэш второго уровня
Частота ядра
Память
Объем памяти
Интерфейс памяти
Частота памяти
Пропускная способность памяти
Уровень TDP
Питание
Интерфейсы
Цена

Тестирование

Тестирование видеокарты производилось по стандартной схеме. Методика более-менее обкатана, поэтому у нас есть возможность сравнить сразу несколько адаптеров друг с другом.

Тестовый стенд

  • Процессор: Intel Core i5-4670K @4,5 ГГц
  • Процессорный кулер: Corsair H75
  • Материнская плата: ASUS Z97-DELUXE
  • Накопитель: OCZ Vertex 3, 360 Гбайт
  • Блок питания: LEPA G1600, 1600 Вт
  • Периферия: Samsung U28D590D, ROCCAT ARVO, ROCCAT SAVU
  • Операционная система: Windows 8.1 х64

Анализ игровой производительности

Итак, для начала предлагаю проанализировать игровую производительность GeForce GTX TITAN X. Для этого мы взяли десять популярных, современных игр, которые имеют достаточно высокую ресурсоемкость. Были выбраны наиболее тяжелые сцены, тестирование производилось в трех разрешениях: мейнстримовом 1920х1080 (Full HD), расширенном 2560х1440 (WQHD) и сверхтяжелом 3840х2160 (Ultra HD). На графиках ниже на протяжении определенного отрезка времени показан ежесекундный уровень FPS. Минимальное и максимальное значения выделены отдельно. По среднему FPS будет проводиться сравнение с остальными видеокартами. Допустимым уровнем комфортного времяпрепровождения будем считать показатель 30 FPS.

В этом параметре для каждой игры приведено два графика (в Assassin’s Creed Unity — три). Левый график отображает уровень быстродействия одной GeForce GTX TITAN X, правый — сразу двух графических адаптеров. На мой взгляд, так будет нагляднее.

Ни для кого не будет секретом, если сказать, что GeForce GTX Titan самый производительный однопроцессорный графический ускоритель. А вопрос роста производительности в зависимости от количества видеокарт Titan нами до сих пор не был изучен. Но до момента публикации результатов тестирования, которое было проведено при содействии нашего партнера – компании Регард, я бы хотел остановиться подробнее на системе GPU Boost и энергопотреблении.

реклама

Компания NVIDIA утверждает о 250 Вт, но в каких условиях? Штатная частота GeForce GTX Titan составляет округленно 840 МГц, в режиме GPU Boost до 880 МГц. В реальности можно видеть немного другие цифры. В большинстве приложений видеокарта работает в частотном диапазоне 915-980 МГц, а что творится с энергопотреблением? Где правда, или вернее сказать, что означают 250 Вт, для каких значений? Допустим, что в эти рамки входит диапазон 840-880 МГц, но как же GPU Boost, разгоняющий карту до больших частот? Тем не менее, результат один – дополнительная производительность и увеличение энергопотребления. А работа GPU Boost в свою очередь зависит от температурного режима и максимального энергопотребления.

Усложняем условия тестирования, поместив видеокарту в теплый корпус. Естественно, частоты GPU Boost понизятся до штатных значений 840-880 МГц, а энергопотребление станет равно заявленному производителем числу. Возникают вопросы: «Как оценить производительность, в каких условиях тестировать видеокарту?» Вариантов немного – либо заставлять ее работать в диапазоне 840-880 МГц, либо позволить авторазгон. Так что не приходится удивляться, что на разных сайтах не встретишь идентичных результатов с одинаковыми приложениями и настройками. Здесь не поможет ни выработка новой методики, ни индивидуальное рассмотрение каждого конкретного случая. Все это затратно и лишено особого смысла.

А теперь еще один не менее важный вопрос. Если в тестировании участвует не одна, а две или три видеокарты Titan, то возникает тройная погрешность? Как бы не так, еще надо учесть адаптацию драйверов к приложениям. В одном ресурсы GPU используются на все 100%, а в другом лишь на 60%. Для GeForce GTX Titan существуют как выгодные с точки зрения масштабируемости игры, так и не очень, но SLI работает везде, пусть и не всегда эффективно.

Что делают драйвера, когда игра совсем плохо масштабируется? Вся нагрузка равномерно распределяется на две-три карты, загружая каждую соответственно на

30%? Нет, не угадали! Как только достигается максимальный уровень энергопотребления, частоты понижаются. до 7хх МГц, а загрузка растет, до типичных 45-50%. Таким хитрым способом NVIDIA дополнительно снижает энергопотребление всех ускорителей в SLI конфигурации.

подключение двух видеокарт sli

После руководства по подключению в Crossfire двух видеокарт AMD Radeon пришел черед и компании Nvidia. Ее графические процессоры GeForce пользуются не меньшей популярностью среди игроков, чем продукция конкурента. Обе компании нога в ногу шагают на рынке, предлагая клиентам решения, схожие по уровню производительности и цене. Поэтому было бы несправедливо посвятить материал построению конфигурации CrossFire, но обойти стороной аналогичные возможности продуктов Nvidia.

Немного истории

Началом эры SLI можно считать 1998 год. Тогда компания 3dfx впервые сумела реализовать возможность объединения нескольких видеокарт для решения одной задачи. Однако развитие интерфейса AGP затормозило разработки в этом направлении, так как все материнские платы того времени оснащались только одним слотом для видеоплаты.

подключение двух видеокарт 3dfx sli

После того, как в 2001 году 3dfx были куплены компанией Nvidia, все разработки в этом направлении ожидали своего часа, который наступил только в 2004 году. Именно тогда, в 6000-й серии GeForce (первые видеокарты, разработанные специально под новейший на то время интерфейс PCI-Express) имеющиеся разработки были усовершенствованы и внедрены в продукты массового потребления.

sli подключение видеокарт 6600GT

SLI из двух GeForce 6600GT

Сперва объединить можно было две видеокарты GeForce 6600 или 6800, с выходом 7000-й серии (в которой была представлена первая полноценная двухпроцессорная плата от Nvidia, 7900GX2) появилась возможность построения четырехпроцессорной конфигурации (из 2 карт), а позже стало возможным и сочетание 3 или 4 раздельных ГП.

Как объединить видеокарты в SLI: требования

Как и для CrossFire, недостаточно купить две видеокарты Nvidia, чтобы сконфигурировать их в SLI. Существует ряд требований к компьютеру, которые следует соблюдать для обеспечения нормального функционирования связки.

  • Совместимые видеокарты . Как и для CrossFire, платы не обязательно должны быть идентичными, но построенными на одном процессоре. То есть, можно объединить видеокарты GeForce GTX960 от Asus и Gigabyte, но нельзя построить SLI из GTX750Ti и GTX960 от Palit. Рекомендуется использовать GPU с идентичными объемами памяти. Конфигурация из карт на 1 и 2 Гб если и заработает – использоваться будет меньший объем, а при различиях в скорости памяти (например, 2 Гб DDR3 и 1 Гб GDDR5) существует риск возникновения программных ошибок, приводящих к некорректному формированию изображения. Для обеспечения функционирования SLI требуются карты, оснащенные интерфейсом SLI и соединенные с помощью мостика. Возможно и объединение их программным путем, но в таком случае быстродействие системы будет ниже.
  • Подходящая системная плата . В плане поддержки чипсетами ситуация со SLI обстоит лучше, чем с CrossFire. Advanced Micro Devices решили обойтись без «палок в колесах» геймерам, использующим платы на наборах логики конкурентов, поэтому на чипсетах AMD 900-й серии присутствует поддержка обеих технологий объединения видеокарт. Чипы Intel тоже совместимы со SLI, что немаловажно. Само собой, в Nvidia не могли обойти стороной «родные» наборы микросхем серии NForce, топовые версии которых делают изначально SLI-совместимыми. Конечно, наличия подходящего чипсета недостаточно: на самой плате должно быть соответствующее количество гнезд PCI-Express. Рекомендуется использовать продукты, созданные для геймеров, где к каждому слоту подведено 16 или 8 линий PCI-E. В случае с бюджетными системными платами следует быть особо внимательным: подавляющее большинство геймеров, покупающих такие гаджеты, функций SLI никогда не использует, а «материнки» с двумя слотами PCI-E приобретаются ими «на всякий случай». Производители знают это и потому часто делают второй разъем неполноценным: подводят к нему 4, 2 или даже 1 линию, вместо 16 или 8. SLI на таких платах если и будет функционировать (не факт: нужно смотреть на коробке платы логотип SLI), то возможности видеокарт не будут раскрыты до конца.

Системная плата с поддержкой CrossFire

Таким логотипом маркируются SLI-совместимые комплектующие

Какие видеокарты можно объединить в SLI

Подключение двух видеокарт SLI -мостиком возможно, только если для этого мостика предусмотрен интерфейс на плате. Программными средствами объединить их тоже можно попытаться, но без «плясок с бубном» в таком случае не обойтись. Да и не имеет смысла строить тандем из двух GT610 или GT720. Одна карточка, быстродействие которой окажется выше, чем у подобной связки, в 2 или 3 раза, обойдется дешевле, чем комплект из пары офисных карт и совместимой материнской платы. То есть, отсутствие на младших представителях графических ускорителей SLI-интерфейса вызвано вовсе не жадностью производителя. Мостики никто не ставит, потому что это сделает карту дороже, но смысла от них никакого не будет. Таким образом, подключение двух видеокарт SL I возможно для моделей среднего и топового класса. К таковым относятся ГП, вторая цифра названия которых – 5 и выше (GTX5 5 0Ti, GTX9 6 0, GTX6 7 0, GTX7 8 0 и т.д.).

можно объединить в sli только видеокарты с мостиком

У GeForce GT 720 нет мостика для SLI

Перед тем , как подключить SLI две видеокарты , стоит убедиться в том, что они построены на одной версии графического процессора. К примеру, GeForce GTX650 и GTX650Ti, несмотря на схожесть названий, функционируют на базе совершенно разных ГП и потому в тандеме работать не смогут.

Есть ли практическая польза от SLI?

Перед тем, как объединить видеокарты в SLI, желательно ознакомиться с опытом использования таких конфигураций другими геймерами и изучить спецификации своих карт, а также характеристики более производительных решений в линейке. Нередко ни в плане экономии, ни по производительности, выигрыша двухкарточная конфигурация не дает. К примеру, две GTX950 в SLI демонстрируют результаты, сравнимые с одной GTX970. Разница в цене (около 200 и 400 долларов, соответственно) самих карт оправдана, но если учесть дополнительные затраты на мощный БП, двухслотовую материнскую плату, качественный и хорошо вентилируемый корпус – выглядит она сомнительно.

Совсем иная ситуация, если подключение двух видеокарт SLI – составляющая часть процедуры апгрейда имеющегося ПК, купленного пару лет назад. Карточки уровня GTX650Ti или GTX750 все еще можно встретить в продаже по разумной цене (разница с новыми моделями примерно эквивалентна различиям по быстродействию), а технический прогресс за 3 года не преподнес ничего революционного для видеокарт (разве что память HBM, представленную AMD, но Nvidia это пока не касается). Поэтому добавление еще одного графического процессора – вполне рациональный шаг для таких игроков.

SLI: подключение видеокарт

Если компьютер соответствует требованиям для создания SLI-конфигурации, подходящая вторая видеокарта куплена – можно переходить к сборке. После выключения ПК следует снять крышку системного блока, установить вторую плату в соответствующий слот, подключить к ней дополнительный кабель питания (если таковой требуется) и соединить две карты мостиком, идущим в комплекте. Аппаратное подключение двух видеокарт в SLI на этом завершено и можно переходить к программной настройке.

Перед тем, как подключить sli две видеокарты, удостоверьтесь в наличии достаточного количества кабелей

Кабели питания, подключенные к связке SLI

Подключение двух видеокарт SLI в Windows

Для того, чтобы связка из двух ГП могла нормально функционировать – нужно установить на ПК Windows версии Vista или новее (7, 8, 8.1 или 10). Рекомендуется также скачать с сайта Nvidia самую свежую версию драйвера для видеокарты. После этого можно переходить к настройке.

  • Нужно кликнуть по рабочему столу правой клавишей мыши и в появившемся окне выбрать пункт «Панель управления Nvidia».
  • В подменю «Настройки 3D» следует выбрать пункт «Настроить SLI, PhysX».
  • В открывшейся вкладке необходимо установить галочку «Максимальная производительность 3D».

как соединить видеокарты sli в ОС Windows

Включение SLI в Windows

После применения установок связка готова к работе. Возможно, для корректной настройки работы SLI в некоторых играх придется задать им особые параметры в подменю «Программные настройки». Но, как правило, большинство современного ПО в этом не нуждается.

Большой поклонник качественной китайской техники, любитель четких экранов. Сторонник здоровой конкуренции между производителями. Чутко следит за новостями в мире смартфонов, процессоров, видеокарт и другого железа.

В начале марта 2013 года в нашей тестовой лаборатории побывал новый одночиповый флагман компании NVIDIA – GeForce GTX TITAN, а именно его версия выпущенная под брендом ZOTAC. По итогам тестирования ZOTAC GeForce GTX TITAN заслужено получила награду за наивысшую производительность среди всех одночиповых видеокарт. И действительно, если у вас возникло желание собрать на самом деле высококлассный игровой ПК с одной видеокартой, то альтернатив среди графических ускорителей с одним GPU просто нет. На сей раз, уже при помощи двух видеокарт ZOTAC GeForce GTX TITAN, мы протестируем производительность новинки от NVIDIA в режиме 2-Way SLI x16+x16, а также сравним ее с таковой у NVIDIA GeForce GTX 690, связки из двух и трех NVIDIA GeForce GTX 680, а также с конкурентом от компании AMD – связкой из двух AMD Radeon HD 7970 GHz Edition. Так что же выбрать для сборки ультимативной игровой станции?

ZOTAC GeForce GTX TITAN

Для начала сравним производительность одной ZOTAC GeForce GTX TITAN и связки из двух видеокарт в режиме х16+х16:

ZOTAC GeForce GTX TITAN

ZOTAC GeForce GTX TITAN

GeForce GTX TITAN 6GB GDDR5 ZOTAC

GeForce GTX TITAN 6GB GDDR5 ZOTAC SLI x16+x16

Futuremark 3DMark Vantage

Futuremark 3DMark 11

Aliens vs. Predator DX11 Benchmark, Maximum Quality, AA4x/AF16x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x/AF16x, fps

Lost Planet 2 Benchmark, DierectX 11 High Quality, fps

Futuremark 3DMark 2013 1.00 Basic, test FIRE STRIKE

Unigine Heaven Benchmark 4.0, DirectX 11, Ultra Quality, AA4x, Fps

1920x1080, 3D Anagliphe

1920x1080, 3D Vision

5760x1080, Multi monitor

Far Cry 3, DirectX 11, Ultra Quality, fps

1920x1080, AA8x/HDAO,Maximum Quality

5760x1080, NoAA/SSAO,Very High Quality, Multi monitor

The Elder Scrolls V: Skyrim, DirectX 11, AA8x/AF16x,Ultra Quality, fps

5760x1080, Multi monitor

Borderlands 2 Benchmark, DirectX 11,Maximum Quality, AF16x, Fps

1920x1080, 3D Anagliphe

1920x1080, 3D Vision

Crysis 2 v1.9 Benchmark, DirectX 11,AA4x, Extreme Quality, fps

1920x1080, 3D Anagliphe

1920x1080, 3D Vision

5760x1080, Multi monitor

Batman Arkham City Benchmark, DirectX 11,FXAA-Hi,Tesselation-Hi, Extreme Quality, fps

1920x1080, 3D Anagliphe

1920x1080, 3D Vision

5760x1080, Multi monitor

Colin McRae: DiRT 3, DirectX 11, Very High Quality, MSAA8x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x / AF4x, fps

5760x1080, Multi monitor

Assassin's Creed 3, DirectX 11, Maximum Quality, fps

Battlefield 3, DirectX 11, Ultra Quality, fps

5760x1080, 60Hz, Multi monitor

В среднем, производительность в синтетических тестах и частота смены кадров в игровых приложениях возросла на 55%, что, согласитесь не так уж и много, учитывая итоговую стоимость из двух видеокарт, которая превышает отметку в 2000 долларов США. Действительно значимый прирост от установки второй видеокарты вы получите при игре на многомониторных конфигурациях с общим разрешением в 5760x1080 пикселей, в данном случае связка из двух NVIDIA GeForce GTX TITAN раскрывается на полную, и общая производительность возрастает практически в два раза.

Futuremark 3DMark Vantage

Futuremark 3DMark 11

Unigine Heaven Benchmark 4.0, DirectX 11, Ultra Quality, AA4x, Fps

Borderlands 2 Benchmark, DirectX 11,Maximum Quality, AF16x, Fps

Crysis 2 v1.9 Benchmark, DirectX 11,AA4x, Extreme Quality, fps

5760x1080, Multi monitor

Batman Arkham City Benchmark, DirectX 11,FXAA-Hi,Tesselation-Hi, Extreme Quality, fps

5760x1080, Multi monitor

Colin McRae: DiRT 3, DirectX 11, Very High Quality, MSAA8x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x / AF4x, fps

5760x1080, Multi monitor

При тестировании использовался Стенд для тестирования Видеокарт №4

Процессор AMD Ryzen 9 5900X (Socket AM4, 12/24 x 3,7 – 4,8 ГГц, 105 Вт TDP) / Intel Core i7-8700K (Socket LGA1151, 3,7 ГГц, L3 12 МБ) @4,7 ГГц/ Intel Core i7-980X Extreme Edition (Socket LGA1366, 3,33 ГГц, L3 12 МБ) @ 4,1 ГГц
Материнская плата MSI MEG X570 GODLIKE (AMD X570, Socket AM4, DDR4, ATX) / ASUS TUF Z370-PRO GAMING (Socket LGA1151, Intel Z370, DDR4, ATX)/ MSI Big Bang-XPower (Socket LGA1366, Intel X58 Express, DDR3, ATX)
Кулер be quite! SILENT LOOP 2 240mm / Scythe Mugen 3 Rev. B PCGH Edition (Socket LGA1155, 40,17 CFM, 6 мм, 10,7 дБ) / Deepcool NEPTWIN V2
Оперативная память 2 x16 ГБ DDR4-4000 G.SKILL TridentZ Neo F4-4000C18D-32GTZN / 2 x 8 ГБ DDR4-3200 Patriot Viper Elite PVE416G280C6KBL/ 3 x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX)
Накопители GOODRAM Iridium Pro 240 ГБ; Patriot Burst Elite 2 ТБ / HyperX Savage SSD 480 GB / HDD WD Caviar Green 3 ТБ (WD30EZRX), HDD WD VelociRaptor 1 ТБ (WD1000DHTZ) / SSD Transcend SSD370 256 GB, HDD Samsung HD154UI
Блоки питания be quite! DARK POWER 12 1200 Вт / Seasonic X-1050 Gold (SS-1050XM Active PFC) / Seasonic SS-1200XP Active PFC F3, 1200 Вт
Корпус be quiet! DARK BASE PRO 900 Orange rev.2 / CHIEFTEC LF-01B (Middle Tower) / Cooler Master COSMOS SE
Монитор ASUS PB287Q, 4K Ultra HD / 3 x Dell UltraSharp U2212HM Black (E-IPS, Full HD)
Операционная система Microsoft Windows 10 64-bit / Microsoft Windows 7 64-bit SP1
Мышь + коврик и клавиатура Razer Imperator 2012 + Razer Goliathus Speed Edition, Razer BlackWidow
Сравнить GeForce GTX TITAN 6GB GDDR5 ZOTAC SLI x16+x16 с

Однозначным лидером из нашего сравнения выходит связка из двух NVIDIA GeForce GTX TITAN, которая превосходит всех представленных конкурентов. В среднем преимущество по частоте смены кадров над двумя NVIDIA GeForce GTX 680 составило 32%, над тремя NVIDIA GeForce GTX 680 – 17%, над NVIDIA GeForce GTX 690 – 36%, а над связкой из двух AMD Radeon HD 7970 GHz Edition 43%.

Казалось бы выбор в пользу NVIDIA GTX TITAN сделан, однако не стоит забывать о стоимости подобной конфигурации, энергопотреблении, а также эффективности потраченных средств и потребляемого электричества.

ZOTAC GeForce GTX TITAN

Более наглядное соотношение средней частоты смены кадров у двух NVIDIA GeForce GTX TITAN по сравнению с конкурентами показывает, что отрыв в быстродействии существенен, но и на остальных системах можно вполне комфортно играть.

ZOTAC GeForce GTX TITAN

Как видим, две NVIDIA GeForce GTX TITAN не только самые производительные, но и, к сожалению, самые дорогие. К примеру, связка из двух AMD Radeon HD 7970 GHz Edition обойдется вам дешевле, чем одна NVIDIA GeForce GTX TITAN.

ZOTAC GeForce GTX TITAN

Да и по соотношению стоимости каждого кадра в секунду наиболее выгодной выглядит покупка именно двух AMD Radeon HD 7970 GHz Edition, в то время как явным аутсайдером является именно NVIDIA GeForce GTX TITAN благодаря своей слишком высокой стоимости.

ZOTAC GeForce GTX TITAN

А вот с точки зрения энергоэффективности конфигурация с парой карт на NVIDIA GeForce GTX TITAN выглядит достаточно перспективно, особенно на фоне связок из нескольких NVIDIA GeForce GTX 680.

Подводя итоги тестирования связки из двух видеокарт ZOTAC GeForce GTX TITAN в режиме 2-Way SLI x16+x16 сложно сделать однозначные выводы. С одной стороны покупка двух видеокарт подобного класса будет оправданна исключительно в виде задела на будущее, либо в случае, если вы планируете играть во все современные игры на трех мониторах с общим разрешением в 5760x1080 пикселей (или с еще большим разрешением), ведь тогда вы получите практически 100% прирост производительности от второй карты. Во всех же остальных случаях трата дополнительной 1000 долларов США, не будет оправданна, учитывая что в большинстве игр средний прирост составит всего 50%, при том что для комфортной игры предостаточно и одной такой видеокарты.

Если рассуждать о выборе между всеми представленными в тестировании конкурентами, то исходя из общей стоимости решения, и цены каждого кадра в секунду однозначным лидером является AMD Radeon HD 7970 GHz Edition. Связка из двух видеокарт обойдется вам дешевле одной NVIDIA GeForce GTX TITAN и в современных реалиях уступит двум картам на 43%, что не так уж и много учитывая более чем двукратную разницу в стоимости.

Если говорить о энергоэффективности, в особенности учитывая постояно увеличивающуюся стоимость электроэнергии, то явным аутсайдером является набор из трех NVIDIA GeForce GTX 680, энергопотребление которого составляет 815 Вт под нагрузкой. Лидером же, вполне логично, является двухчиповый флагман NVIDIA GeForce GTX 690, который демонстрирует наименьшее соотношение затраченной электроэнергии на каждый кадр в секунду. Также отметим отличную оптимизацию уровня энергопотребления NVIDIA GeForce GTX TITAN. Благодаря работе технологии GPU Boost 2.0, которая эффективно управляет энергопотреблением в зависимости от уровня нагрузки на GPU, связка из двух NVIDIA GeForce GTX TITAN является наименее «прожорливой» конфигурацией среди конкурентов.

В итоге, как и в случае тестирования одной NVIDIA GeForce GTX TITAN, касаемо SLI-конфигурации можно сказать, что у NVIDIA получилась отличная видеокарта, и единственным ее минусом является стоимость, которая устроит исключительно покупателей с неограниченным бюджетом, либо настоящих энтузастов, которые готовы платить за наивысшую производительность. Наиболее же оправданной покупкой для не столь расточительных геймеров, все же, будет выбор двух AMD Radeon HD 7970 GHz Edition, либо, если вы предпочитаете продукты компании NVIDIA, то NVIDIA GeForce GTX 680 в режиме 2-Way SLI x16+x16.

Читайте также: