Gtx 680 gigabyte разгон

Обновлено: 06.07.2024

Перейдём к тестам разгона. Мы попытались выжать из всех трёх видеокарт максимальную частоту кадров, обойдя штатные уровни, выбранные производителями. Как обычно, мы выставили ограничение Power Limit на максимум, а максимальное допустимое напряжение - на 1,175 В.

EVGA GeForce GTX 680 SC Signature 2:

Мы начали со штатной частоты GPU 1098 МГц, достигнув разгона до 1144 МГц. Это соответствует разгону примерно на четыре процента. Частоту памяти 1552 МГц мы смогли увеличить до 1706 МГц. С учётом эталонного дизайна печатной платы EVGA и выбранной системы охлаждения, результат можно назвать вполне приемлемым.

Gigabyte GeForce GTX 680 Super Overclock:

Из-за сложной мощной охлаждения и усиленной подсистемы питания мы ожидали получить от Gigabyte GeForce GTX 680 Super Overclock высокие результаты. Мы увеличили частоту GPU с 1137 до 1262 МГц. Это соответствует разгону примерно на 11 процентов. Память мы смогли разогнать с 1552 МГц до 1728 МГц. Конечно, мы не смогли достичь результатов видеокарты для оверклокеров EVGA GeForce GTX 680 Classified (тест и обзор), но, в целом, мы остались довольны.

Point of View TGT GeForce GTX 680 Beast:

POV / TGT установила у видеокарты Beast уже весьма высокие тактовые частоты. В любом случае, мы попытались их поднять. Мы смогли разогнать GPU с частоты 1163 МГц до 1212 МГц, что соответствует разгону более чем в четыре процента. Частоту памяти мы смогли увеличить с 1502 МГц до 1754 МГц.

Разгон привел к следующим результатам по производительности:

oc1

oc1

oc1

oc1

По энергопотреблению, температуре и уровню шума мы получили следующие результаты:

По странному стечению обстоятельств видеокарты Gigabyte - нечастые гости в лаборатории, особенно решения, относящиеся к верхнему ценовому сегменту. В данном материале будет рассмотрена версия Gigabyte GV-N680OC-2GD с оригинальной СО WindForce 3X.

Среди альтернативных систем охлаждения конструкция WindForce по праву считается очень удачной разработкой, сочетая в себе хороший функционал, красоту и условную (относительно других моделей СО) тишину. Создав единый дизайн, компания Gigabyte стремится придерживаться его, чтобы выделить свои продукты среди графических ускорителей остальных производителей. Но под кожухом часто встречается большое разнообразие конструкций, поскольку, к примеру, для охлаждения GeForce GTX 680 и GeForce GTX 650 требуется разная, скажем так, производительность. Мне остается только снять вентиляторы и разобраться, так ли хороша система охлаждения WindForce, как о ней высказываются участники нашей конференции.

Упаковка и комплект поставки

реклама

Увы, но на тестирование видеокарта приехала в обезличенной белой коробке. Никаких инструкций, переходников и прочего в ней не нашлось. Тем лучше для нас, настало время проверить официальный сайт компании Gigabyte, есть ли там полный перечень аксессуаров? Но, несмотря на все мои старания, обнаружить описание или хотя бы простой список комплекта поставки так и не удалось.

Внешний вид и размеры

450x156 13 KB. Big one: 1500x727 329 KB

А1 - длина печатной платы, с учетом системы охлаждения (если выходит за пределы печатной платы) до планки портов видеовыходов.
В1 - ширина печатной платы, без учета контактов PCI-E, но с замером системы охлаждения (если выходит за пределы печатной платы).
С1 - высота, с учетом задней пластины (если есть)/винтов крепления радиатора до уровня верхней поверхности системы охлаждения. Если она ниже высоты задней планки портов видеовыходов, то измеряется высота до верхней точки планки.

MSI RTX 3070 сливают дешевле любой другой, это за копейки Дешевая 3070 Gigabyte Gaming - успей пока не началось

400x278 27 KB. Big one: 2500x1740 701 KB

На первый взгляд - обыкновенная плата производства Gigabyte с фамильными узнаваемыми очертаниями. На задней панели расположены стандартные видеовыходы: пара DVI, HDMI и DP. В отличие от модели референсного дизайна используется горизонтальное расположение разъемов питания, на этом все различия и заканчиваются.

Ниже печатная плата будет рассмотрена более подробно, но пока я не вижу значимых изменений по сравнению с оригинальной видеокартой NVIDIA GeForce GTX 680. Хотя нет, мне удалось найти еще одно малозаметное отличие - на задней панели нет отверстий между HDMI и DVI, которые обычно встречаются на референсной карте.

Печатная плата

250x119 14 KB. Big one: 1500x711 260 KB
250x119 16 KB. Big one: 1500x711 337 KB

реклама

Сверху пока незаметно, но в данном случае применен штатный дизайн GTX 680, который рекомендует использовать сама NVIDIA. Причин здесь несколько. Во-первых, большая экономия времени и денег. Нет надобности загружать инженеров созданием эксклюзивной печатной платы. Нет необходимости проводить специфические тесты на совместимость, электромагнитные излучения и многие другие замеры. Не надо тратить драгоценное время, упуская выгоду вступить первыми в конкурентный бой.

К сожалению, не обошлось и без минусов. Если вы помните, в NVIDIA, руководствуясь собственными размышлениями и общим ограничением максимального TDP, создали плату лишь с четырьмя фазами питания GPU. На взгляд профессионального оверклокера этого явно мало, но я уверен, что для среднего разгона хватит и их. К тому же на рынке присутствует масса оригинальных моделей и, в конце концов, если вы противник референсных карт, то можете сами подобрать себе версию под свои запросы. Я не вижу большой проблемы в сокращении количества фаз, поскольку от ограничения по энергопотреблению никуда не деться, да и референсный вариант всегда будет совместим с массой программ для разгона. Как итог, плюсы немного, но перевешивают минусы.

250x121 16 KB
250x121 17 KB. Big one: 1500x727 365 KB

После снятия системы охлаждения перед нами открывается истинный формат карты. На Gigabyte GV-N680OC-2GD две фазы питания памяти расположены сверху печатной платы. Вопреки привычному ранее разделению питания на MEM и PLL, инженеры NVIDIA не выделяют отдельный ШИМ-контроллер, используя комбинированное питание. Совсем необычно размещены фазы питания GPU. Если раньше фазы вытягивались вертикально в ряд, то теперь они расположены горизонтально. Чем обусловлено такое изменение, сказать сложно, но разработчикам и инженерам должно быть виднее. Помимо этого можно отметить тот факт, что в версии Gigabyte распаяно все пять доступных фаз.

250x251 14 KB

ШИМ-контроллер питания памяти покрыт тайной под семью печатями. Причем по невразумительной маркировке истинного производителя не выяснить.

250x249 18 KB

ШИМ-контроллер питания видеоядра – Richtek RT8802A, он поддерживает управление до пяти фаз. В списке совместимости значится протокол связи между программой и VID-значениями напряжений, что открывает пользователю доступ к изменениям напряжений как памяти, так и графического процессора.

400x399 29 KB

Графический процессор GK104 площадью

294 мм 2 размещен на текстолитовой подложке на 6 неделе 2012 года. Вместо привычной цельной пластины кремниевый кристалл по периметру защищен металлической рамкой. Финальная формулировка фаз питания звучит так: 5+2+1 (GPU/MEM/PLL).

На плате распаяно восемь микросхем памяти с шиной обмена данными в 256 бит и плотностью 2 Гбита производства Hynix. Они маркированы как H5GQ2H24MFR-R0C и рассчитаны на частоту до 1500 МГц (эффективная частота 6000 МГц).

Штатные частоты Gigabyte GV-N680OC-2GD составляют соответственно 1071 МГц (Turbo Boost до 1137 МГц) и 1502 МГц для графического процессора и памяти.

Заявленная производителем частота совпадает с реальной. Вопрос только в том, удержится ли она на этой планке в стресс-тесте Furmark. В играх все просто, зачастую Boost частота вовсе не означает максимальную, чаще диапазон составляет от 1137 МГц до 1150 МГц.

Система охлаждения

реклама

Система охлаждения Gigabyte GV-N680OC-2GD состоит из нескольких частей. До момента разборки нельзя однозначно сказать, насколько она будет эффективна.

Одновременно с этим я поражен сложностью конструкции, что является редкостью. Объяснение простое. Чем больше составных частей содержится в устройстве, тем сложнее собирать систему в единое целое и тем больше требуется рук или манипуляторов. Большое количество операций влечет за собой увеличение как стоимости, так и сборки, и самой конструкции. Но Gigabyte все же решилась и пошла на усложнение ради одной-единственной цели – максимально улучшить эффективность системы охлаждения.

250x119 14 KB. Big one: 1500x711 260 KB

Сверху установлен крупный кожух с тремя вентиляторами, состоящий из одной монолитной части. Три модели 75 мм в диаметре закреплены на пластиковых обоймах, вмонтированных в кожух. Наплывы по его поверхности создают ламинарные потоки, проходящие точно на ребра радиатора. Такая конструкция, по мнению инженеров, полностью избавила систему охлаждения от турбулентных потоков.

250x197 27 KB. Big one: 1500x1179 361 KB

реклама

Из-за широкого расстояния между ребрами радиатора Gigabyte вправе была отказаться от высоких вентиляторов, ведь нет смысла наращивать высоту, если эффективность от этого не улучшится. К сожалению, узнать их производителя невозможно. В мире IT часто встречается ситуация, когда производитель полностью удаляет маркировку OEM поставщика. Осталось отметить, что установленные вертушки характеризуются широким диапазоном работы, но начальная установка в BIOS заставляет их крутиться со скоростью

1800-1900 об/мин. Между кожухом и платой разместился основной радиатор, но о нем чуть позже.

250x234 17 KB. Big one: 1500x1406 303 KB

Дополнительный радиатор, установленный на VRM, ничтожно мал, поскольку высоту ребер нельзя нарастить из-за отсутствия места. Но так как большая часть воздушного потока при высоких оборотах вентиляторов полностью достигает его поверхности, то и беспокоиться за его эффективность не стоит.

250x114 9 KB. Big one: 2500x1139 469 KB

Под кожухом находится крупный радиатор, вытянутый на всю длину карты. В основании радиатора размещена медная вставка, спаянная с тепловыми трубками.

Казалось бы, Geforce GTX 680 уже предстал во всей красе; изучили самые разнообразные карты на его основе: и частотами манипулировали, как могли, и системы охлаждения ставили всевозможных калибров и видов, и PCB какие только ни попадались. Вот только лишь никто пока не ставил ядро на оборотную сторону: вероятно смущало, что СО упрется в кулер системного чипсета или даже в кулер CPU. Что еще осталось?

А осталось лишь увеличивать объем памяти на карте. Было 2 гигабайта, теперь будет 4. Зачем? Ну чтобы было, ведь еще много пользователей, уверенных, что чем больше памяти на ускорителе, тем он производительнее. :) Поэтому мы можем видеть сейчас объем памяти в 2 гигабайта даже на картах уровня GT 640, где не востребуется даже 1 гигабайт, так как производительность такова, что карта может демонстрировать сносную играбельность только в очень низких разрешениях, да и то при настройках качества в играх среднего или низкого уровней. А вот на GTX 680 маловат ли объем памяти в 2 гигабайта? Может быть всем пора переходить на 4?

Исследования показали, что разница в производительности минимальна. Да, пока всем играм вполне хватает 2 гигабайт памяти даже если настройки выставлены на максимальное качество. Лишь иногда мы можем видеть, что желателен объем памяти чуть выше 2 гигабайт. Так что вполне резонно думать, что новый продукт Gigabyte — это маркетинговое решение, продиктованное расширением ассортимента и привлечением потребителя оригинальным дизайном ускорителя. Однако давайте рассмотрим всё по порядку.

Плата

Карта имеет 4096 МБ памяти GDDR5 SDRAM, размещенной в 16 микросхемах (по 8 на каждой сторонe PCB).

Микросхемы памяти Samsung (GDDR5). Микросхемы рассчитаны на максимальную частоту работы в 1500 (6000) МГц.

Видеокарта в качестве основы имеет фирменную печатную плату Durable с большим количеством медных слоев, поэтому PCB нагревается не так сильно, как обычный референс.

Ускоритель имеет стандартный для GTX 670/680 набор гнезд вывода: 2 DVI (один из которых Single-Link и совместим с выводом на VGA) и по одному DisplayPort и HDMI (второе гнездо DVI обладает возможностью через адаптер передавать сигнал на HDMI, поэтому суммарно можно подключить 2 приемника с HDMI). Напомним, что ускорители Nvidia достаточно давно обладают собственными звуковыми кодеками, поэтому передача на HDMI-монитор будет полноценной, со звуком.

Из-за улучшенной организации схемы питания, а также переделанной PCB ускоритель может работать на весьма высоких частотах (во всяком случае, 1300 МГц по ядру данная карта выдержала на отлично, не потеряв стабильности в работе).

Что касается возможностей по ускорению декодирования видео — в 2007 году мы проводили такое исследование, с ним можно ознакомиться здесь.

Данное устройство охлаждения представляет собой развитие серии особых кулеров Gigabyte (мы не знаем, разработка ли это конструкторов самой компании или же Gigabyte где-то заказывает такие устройства, но факт остается фактом, что всякий раз, когда мы сталкиваемся с их СО, то получаем только положительные ощущения).

СО состоит из двух толстых радиаторов, соединенных меж собой тремя тепловыми трубками, проходящими прямо через подошву и соприкасающимися непосредственно с ядром GPU. Тепловые трубки разносят тепло по периферийным пластинам. Микросхемы памяти на лицевой стороне также охлаждаются. К сожалению, странно выглядят микросхемы на оборотной стороне без какого-либо охлаждения (какой смысл тогда вообще охлаждать? Уж или охлаждать все микросхемы, или ни одной). Силовые транзисторы БП имеют свой собственный маленький радиатор охлаждения.

Сверху все это накрыто кожухом с тремя вентиляторами. Максимальные обороты вращения вентиляторов, обдувающих эти радиаторы, составляют 2400 оборотов в минуту. Это уже несколько заметно в плане шума, однако все же уровень шума не критичный — из-за особой конструкции лопастей вентиляторов. В режиме работы в 2D частота вращения не превышает 1500 оборотов в минуту (кулер при этом практически бесшумен).

Мы провели исследование температурного режима с помощью утилиты EVGA PrecisionX (автор А. Николайчук AKA Unwinder) и получили следующие результаты:

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)

После 6-часового тестирования под нагрузкой нагрев не поднялся выше 70 градусов — и это великолепный результат для GPU такого класса, особенно если учитывать повышенные частоты работы.

Теперь о комплектации.

Базовый комплект плюс 2 разветвителя питания на разъемы с 8 и 6 контактами.

Gigabyte Geforce GTX 680 OC 4096 МБ 256-битной GDDR5 PCI-E (GV-N680OC-4GD)


Установка и драйверы

Результаты тестов: сравнение производительности

    Hard Reset (Flying Wild Hog) — DirectX 11.0, для тестирования использовался встроенный в игру бенчмарк, все настройки выставлены на максимальное качество.
    Благодарим компанию Nvidia за предоставление лицензионного продукта.

Все наши пояснения направлены, как правило, на новичков или неопытных пользователей, желающих, однако, произвести апгрейд своего компьютера или просто собрать новый.

А теперь посмотрим на тесты.

Выводы

Рассматриваемый сегодня ускоритель находится на втором месте наших рейтингов, отстав лишь от абсолютного лидера однопроцессорных ускорителей — Radeon HD 7970X компании HIS, который мы не так давно изучали.

Теперь посмотрим Рейтинг полезности тех же карт (показатели предыдущего рейтинга делятся на цены соответствующих ускорителей):

Рейтинг полезности (возможности/цена)

А вот тут картина не очень приятная. Да, пока цены на GTX 680 в целом (и на этот вариант в исполнении Gigabyte в частности) чрезмерно велики, что явно не идет на пользу таким продуктам. Однако цены имеют свойство постоянно меняться, так что надо следить за ними, а также за нашими выпусками i3D Speed, где ежемесячно можно увидеть обновления рейтингов.

Теперь по самой карте.

Окончательное решение традиционно остается за нашими читателями. Мы лишь даем информацию о рассмотренных продуктах, но не делаем прямых указаний по выбору того или иного изделия.

В номинации «Оригинальный дизайн» (за декабрь 2012 года) получила награду карта:

Обзор и тестирование видеокарты Gigabyte GeForce GTX 680 OC Edition (GV-N680OC-2GD)

Результаты разгона видеокарты Gigabyte GeForce GTX 680 OC Edition

Интересно, сможет ли, благодаря изменённой подсистеме питания, продукт Gigabyte выступить лучше эталонного GTX 680 в разгоне (его результат был равен 1264\6634МГц) или нет?

Частоты референсной карты GeForce GTX 680 (в МГц) Частоты Gigabyte GeForce GTX 680 OC Edition в номинале (в МГц) Частоты Gigabyte GeForce GTX 680 OC Edition в разгоне (в МГц)
Ядро: 1006 1071 1171
Boost: 1058 1123 1250
Видеопамять: 6000 6000 6612

Разгоняли видеокарту с помощью утилиты MSI Afterburner, автор оригинального материала советует последнюю (Beta 15) версию:


С небольшим (100мВ) поднятием напряжения на ядре, карточка смогла стабильно функционировать на частоте, указанной в табличке выше. Память также удалось погнать - на 250МГц. Кулер для разгона пришлось зафиксировать на 60% скорости, так что шумел он значительно громче, чем при тестировании в номинальном режиме работы видеокарты.

Разумеется, раз карточку погнали, то неплохо бы посмотреть на то, как она в таком состоянии выступит. Традиционно, тест проводится в следующих приложениях: Crysis 2, 3DMark 11 и Aliens vs Predator. Смотрим результаты:

В качестве соперников GeForce GTX 680 в тестировании приняли участие следующие видеокарты:

  • AMD Radeon HD 7970 (1160/7200 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500, 3 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)
  • NVIDIA GeForce GTX 580 (772/4004 МГц, 1,5 Гбайт)
  • AMD Radeon HD 6970 (880/5500 МГц, 2 Гбайт)

Разгон, температура, энергопотребление

GeForce GTX 680 мы разгоняли с помощью единственной утилиты, которая сейчас поддерживает Kepler, — EVGA Precision X 3.0 Beta 20, да и то не без проблем. Вручную выставить напряжение GPU она как бы позволяет, но на самом деле это ни на что не влияет.

В целом GPU Boost сильно осложняет жизнь оверклокеру, меняя частоту и напряжение непредсказуемым образом. Кроме того, есть ограничение на потребляемую мощность, которую пока можно увеличить только на 32%. Поэтому если одновременно с процессором разогнать и память, то GPU Boost уже не будет так сильно поднимать частоту. Наконец, при перегреве Boost Clock тоже падает.

Мы проверили два разных варианта разгона, увеличив лимит энергопотребления и обороты кулера до максимума. Предельная базовая частота GPU, на которой карта была стабильна, составила 1086 МГц. При этом в бенчмарке Unigine Heaven Boost Clock достигал 1152 МГц, а напряжение на ядре — 1,175 В (базовое для режима 3D — 1,062 В). Второй вариант разгона: дополнительно увеличить частоту памяти на 460 Мгц — 6928 МГц эффективной частоты. В таком случае Boost Clock поднимается только до 1139 МГц.

Судя по графикам, в большинстве игр больший прирост производительности обеспечивает разгон GPU совместно с памятью. В целом большого эффекта от разгона нет: повышение частоты малозаметное, а в штатном режиме работы все равно трудится GPU Boost, отнимая хлеб у оверклокера.



По температурному режиму GTX 680 ничем не лучше своих соперников. Radeon HD 7970 под нагрузкой греется меньше, GTX 580 — немного сильнее. Все дело в новой системе охлаждения, малошумной, но не столь эффективной


Пиковое энергопотребление системы с GTX 680 на борту немного выше, чем у HD 7970, и приближается к оному у HD 6970. По сравнению с GTX 580 прогресс налицо, но разница не критическая. В разгоне GTX 680 развивает мощность лишь на 10 Вт больше, чем в штатном режиме. Что и не удивительно, так как разгон невелик.


3DMark 2011, Performance

  • GTX 680 с большим отрывом опережает Radeon HD 7970 и сравнялся с разогнанным HD 7970.
  • По показателю Graphics Score GTX 680 приближается к GTX 590 (по 3DMark Score у последнего аномально низкий результат, но ничего, к глюкам 3DMark мы уже привыкли).
  • GTX 680 с разгоном выходит на уровень Radeon HD 6990.
  • Преимущество GTX 680 перед GTX 580 огромно.


3DMark 2011, Extreme

  • Здесь между GTX 680 и HD 7970 на штатных частотах нет большой разницы.
  • Двухпроцессорные карты все-таки быстрее, чем GTX 680 (с GTX 590 у 3DMark 2011 опять сложные отношения).
  • Разогнанный GTX 680 не только превосходит разогнанный HD 7970, но даже сравнялся с HD 6990 — постоянным рекордсменом в этом бенчмарке.
  • Прирост скорости по отношению к GTX 580 весьма велик.


Unigine Heaven 2

  • GTX 680 превзошел HD 7970. Разница особенно велика при разрешении 1920х1080.
  • GTX 680 находится на одном уровне с HD 6990, но до GTX 590 немного не достает.
  • Разогнанный GTX 680 сравним с разогнанным HD 7970 и GTX 590.
  • Опять-таки есть большой прогресс по сравнению с GTX 580.


Crysis Warhead (DirectX 10)

  • А вот здесь GTX 680 проиграл своему основному конкуренту. Разгон помогает сравниться с HD 7970, работающим в штатном режиме, но разогнанный HD 7970 уже совершенно недосягаем.
  • Двухпроцессорные карты GTX 680 не может догнать даже с разгоном.
  • GTX 680 значительно быстрее, чем предыдущий флагман NVIDIA, GTX 580.


Metro 2033 (DirectX 11)

  • GTX 680 уступает HD 7970 и только благодаря разгону может с ним сравниться.
  • Разогнанный HD 7970 на голову превосходит разогнанный GTX 680.
  • Двухпроцессорные карты GTX 680 не по зубам.
  • Прирост производительности по сравнению с GTX 580 в абсолютных значениях невелик, что объясняется невероятной тяжестью этой игры с максимальными настройками.


DiRT 3 (DirectX 11)

  • GTX 680 берет реванш, демонстрируя огромное преимущество перед HD 7970.
  • HD 7970 с разгоном сравнивается с GTX 680 в штатном режиме, но разогнанный GTX 680 с большим отрывом вновь выходит вперед.
  • GTX 680 работает почти так же быстро, как GTX 590 и Radeon HD 6990, а при разгоне опережает их.
  • Про GTX 580 нечего и говорить. Преимущество нового флагмана колоссальное.


Crysis 2 (DirectX 11)

  • GTX 680 чуть-чуть быстрее, чем HD 7970.
  • Разгон почти не прибавил FPS при разрешении 1920х1080, но в 2560х1440 у GTX 680 теперь есть ощутимое преимущество над HD 7970. Разогнанный HD 7970 также упирается в невидимое ограничение в режиме 1920x1080, а в 2560x1440 берет реванш.
  • GTX 680 мало отличается от GTX 590 и сопоставим с Radeon HD 6990 в разрешении 1920x1080.
  • Превосходство GTX 680 над GTX 580 огромно.


Battlefield 3 (DirectX 11)

  • GTX 680 быстрее, чем HD 7970, но разница заметна только в режиме 1920х1080.
  • Разгон не прибавил GTX 680 ни единого FPS! В то же время разогнанный HD 7970 оставил своего соперника далеко позади.
  • Двухпроцессорные карты GTX 680 догнать не удалось.
  • Несмотря ни на что, по сравнению с GTX 580 новая карта работает чрезвычайно быстро.


Batman: Arkham City (DirectX 11)

  • GTX 680 с огромным отрывом опередил HD 7970 в режиме 1920х1080. В режиме 2560х1440 разница уже не столь велика.
  • Разгон существенно прибавил GTX 680 FPS в разрешении 2560х1440, а вот в 1920х1080 эффекта нет. Поэтому в первом режиме разогнанная карта немного быстрее, чем разогнанный HD 7970, а во втором уступает.
  • GTX 680 гораздо быстрее, чем GTX 590 и HD 6990. Многопроцессорные конфигурации в этой игре работают из рук вон плохо.
  • Налицо большой прогресс по сравнению с GTX 580.


The Elder Scrolls 5: Skyrim (DirectX 9)

  • GTX 680 заметно быстрее, чем HD 7970, в режиме 1920x1080, а вот в 2560х1440 значимой разницы уже нет.
  • От разгона GTX 680 в этой игре нет никакого толку. HD 7970 подтянулся в режиме 1920x1080, но GTX 680 все равно чуть-чуть быстрее.
  • По результатам GTX 680 немного превосходит даже GTX 590.
  • GeForce GTX 580 не сильно отстает от GTX 680 в режиме 1920x1080, хотя в 2560х1440 разница уже весьма велика.
  • В целом с сугубо практической точки зрения в этой игре нет разницы между топовыми картами GTX 680, GTX 590, HD 6990 и HD 7970. Движок слишком простой по современным меркам.


Call of Duty: Modern Warfare 3 (DirectX 9)

  • GTX 680 самую малость быстрее, чем HD 7970.
  • Разгон на производительность GTX 680 практически не повлиял. А вот HD 7970 разогнался отлично и ушел далеко вперед.
  • Двухпроцессорные карты недосягаемы для GTX 680.
  • GTX 680 снова гораздо быстрее своего предшественника.


Все игры

  • Первое, что хорошо заметно на графиках: разгон дает GTX 680 до смешного малый прирост производительности. Очевидно, что GPU Boost уже в штатном режиме выбирает запас частоты. Лишь в некоторых играх от разгона есть какая-то польза.
  • В большинстве игр GTX 680 быстрее, чем Radeon HD 7970, но разница не критическая. Кроме того, есть примеры превосходства адаптера AMD: Crysis Warhead и Metro 2033.
  • Radeon HD 7970 отлично разгоняется и часто берет у GTX 680 реванш.



Ну что ж, ожидание релиза сопровождалось такими невероятными слухами, что все уже успели вообразить себе видеокарту с неслыханными спецификациями и чудовищной вычислительной мощью. 512-битная шина памяти, 6,4 млрд транзисторов и тому подобное. А в результате гордое имя GeForce GTX 680 получил куда менее амбициозный продукт. Такое впечатление, что за флагмана линейки отдувается адаптер среднего уровня. Неспроста же GPU новинки называется GK104, а не GK110, что соответствовало бы предшествующей номенклатуре ( интрига вокруг GK110 сохраняется: выйдет ли он вообще в серии GeForce 600?) . Видно, что для успешной конкуренции с Radeon HD 7970 из карты выжали все что можно. Частоту GPU подняли до 1 ГГц, оставив лишь небольшой запас для разгона. Да и разгонять ее вручную почти что бессмысленно. В штатном режиме это уже делает технология GPU Boost, которую, похоже, прилепили к карте в последний момент, чтобы использовать малейшую лазейку для прироста производительности. Оверклокеры еще не раз помянут ее добрым словом.

Но если отрешиться от высоких ожиданий, то с практической точки зрения Kepler оказался вполне конкурентоспособным. Пусть победа достигнута неизящными методами, но GTX 680 все-таки быстрее, чем Radeon HD 7970, при этом дешевле (по официальным ценам — да. На деле Radeon HD 7970 уже стоит менее 17 000 рублей. — прим. ред.) и потребляет меньше электроэнергии. А конкуренция всегда работает в пользу покупателя.

Читайте также: