Самая слабая видеокарта амд

Обновлено: 07.07.2024

Всем привет и сегодня я расскажу о 5 худший в истории видеокартах, которые я бы точно не посоветовал к покупке. Если вы конечно не техно-извращенец.

1. И так приступим. Первой видеокартой в нашем топе худших видеокарт будет GTX 280.

Данная видеокарта являлась практически полным аналогом GTX 260 с завышенными частотами и добавкой нескольких CUDA ядер, а продавалась она тогда за баснословные 649$. При этом всем возникает вопрос, зачем её вообще было покупать? Ведь по факту это просто GTX 260 только в разогнанном варианте и отдавать за неё такие бешеные деньги на тот момент было мягко говоря нерационально. Поэтому продажи в розничном рынке не превысили сумму 3000 карт в месяц. Даже по заявлению вендеров, данная видеокарта- худший продукт в истории NVIDIA, потому что покупая GTX 260 за 449$, вы получали практически ту же самую производительность. Позже NVIDIA начали снижать цены на данную линейку, но это никак не исправило ситуацию.

2. Следующая видеокарта которая заслуживает именоваться худшей это GT 1030, с памятью DDR4.

Данную видеокарту NVIDIA позиционировала как офисное решение за 80$. Но некоторое пользователи не обращавшие внимание на характеристики покупали её для игр, думая что новая линейка 10 поколения это что-то мощное. В карте были установлены 2Gb памяти DDR4 на частоте 2.1Ghz и вместе с 64 битным интерфейсом это создавало пропускную способность аж целых 16,8 Gb/s. Ну и как оказалось, данная видеокарта никуда не годна, она является обычной затычкой и ни чем более. Кстати цена на неё сейчас, в среднем составляет 5 тысяч рублей, что очень не оправданно, учитывая её низкую производительность. За данную цену уж лучше приобрести RX 550, она хоть сможет вытянуть игры в 30 кадров, хоть и тоже на низких настройках графики.

3. Третья видеокарта в списке будет NVIDIA Geforce GT 730 4Gb.

Данная видеокарта вошла в этот топ, потому что многие неопытные пользователи расценивали её как и прошлую видеокарту в качестве игровой, видя её объем памяти в 4Gb. А ведь на момент 2014 года это было действительно много. Но это лишь маркетинговый ход, ведь данной видеокарты ОЧЕНЬ СЛАБЫЙ видеочип, GDDR3 память и аж целых 4Gb памяти, хотя такое большое количество совсем неуместно, ведь задействовано будет ну максимум 1-1.5.

4. Ну а предпоследняя видеокарта в нашем списке будет Red Rocket X. ЧТО? Спросите вы, когда прочитаете название,что же эта за видеокарта такая, я тоже не знал о ней до недавнего времени, но то, что я узнал, меня просто шокировало.

И так Rad Rocket X это видеокарта для монтажа, но у неё есть несколько подводных камней, о которых я вам сейчас расскажу. Но для начала давайте немного сухих цифр. У данной видеокарты потребляемая мощность 150Вт, 6-pin разъем питания, мало памяти, а именно всего 4Gb и что самое главное, то, из за чего данная карта вообще есть в этом списке, это её ЦЕНА- 7000$,что очень солидная сумма. Так для чего же она? По заявлению производителя, она служит для ускорения декодирования 3D файлов. Оправданно ли это? НЕТ! Ведь Rad Rocket X это видеокарт для монтажа, которая дает мизерный прирост в профессиональных задачах. Конечно она от части выполняет возложенные на неё задачи, если конечно отключить функцию "Rocket" из за которой эта видеокарта в принципе и покупается. Но цену в 7000$ она никак не оправдывает.

5. Последняя видеокарта в списке будет 3D FX VOODOO 5 6000. А заслуживает она участия в этом списке за тираж выпущенных карт. Их было продано ВНИМАНИЕ, 200 карт на весь мир! Но это не самое интересное, ведь рабочими оказалось всего 100 карт!

Ну а теперь подробнее. Данная видеокарта была выпущена в далеком 1999 году, данный 3D ускорить был основан на 4 графических процессорах VSA100, что даже в наше время является чем то абсолютно фантастичным, а суммарный объем SDR памяти составлял 128Мб, что по тем временам считалось абсолютным рекордом. Ну и естественно потенциал данной карты не оправдал себя, 4 графических процессора невозможно полностью использовать и по сей день. Вскоре проблемы с производством подкосили и без этого шаткое положение 3D FX и они обанкротились и позже её купила компания NVIDIA. Сейчас данную видеокарту можно приобрети на Ebay но цена переваливает далеко за 2000$. Я думаю 3D FX VOODOO 5 6000 это лучше, что может быть в коллекции энтузиаста извращенца.

После выхода блогов про самые удачные процессоры от Intel и AMD в комментариях зазвучали обвинения в моем "фанатстве" и преданности продукции одного производителя. Причем обвинялся я как в фанатстве в отношении продукции AMD, так и Intel.

реклама


MSI RTX 3070 сливают дешевле любой другой, это за копейки Дешевая 3070 Gigabyte Gaming - успей пока не началось

Я много раз писал о том, что я беспристрастен в выборе комплектующих и покупаю то, что выгоднее и перспективнее на данный момент, поэтому не надо искать в моих блогах того, чего там нет. Поскольку обвинения в моей преданности корпорации AMD все же звучали чаще, новый цикл блогов, про самые неудачные видеокарты всех времен, я начну с продукции AMD.

реклама

var firedYa28 = false; window.addEventListener('load', () => < if(navigator.userAgent.indexOf("Chrome-Lighthouse") < window.yaContextCb.push(()=>< Ya.Context.AdvManager.render(< renderTo: 'yandex_rtb_R-A-630193-28', blockId: 'R-A-630193-28' >) >) >, 3000); > > >);

Почему я не пишу ATI/AMD в названии блога? Напомню читателям, что компания AMD в 2006 году купила компанию ATI. Первое время это вызвало даже некоторую неразбериху среди пользователей и обзорщиков. Например, AMD Radeon HD 2900 XT иногда в обзорах называли ATI Radeon HD 2900 XT.

Но я считаю, что не стоит объединять продукцию ATI и AMD в критических блогах, поэтому возьму видеокарты 2006 года выпуска и позже. Хотя была мысль включить в этот список и ранние видеокарты, например ATI Radeon X600 XT.

AMD Radeon HD 2900 XT

реклама


AMD Radeon HD 2900 XT был выпущен в 2007 году и, как многим тогда казалось, должен был разгромить GeForce 8800 Ultra. Все косвенные признаки указывали на это, взять хотя бы шину памяти шириной в 512(!) бит. Но в реальности флагман AMD мог бороться только с GeForce 8800 GTS, да и то не во всех играх. Ситуацию усугубляло чудовищное для того времени энергопотребление в 215 ватт, неудачная и шумная система охлаждения и софтовые проблемы. В результате Radeon HD 2900 XT остался продуктом исключительно для энтузиастов, а основная масса игроков быстро забыла про него и продолжала пользоваться удачной линейкой видеокарт GeForce 8800.

AMD Radeon HD 5830


AMD Radeon HD 5830 был выпущен в 2010 году и позиционировался между очень удачной и популярной Radeon HD 5850 и не менее удачной и популярной Radeon HD 5770.

реклама

И вроде бы все было хорошо, но видеокарта получилась довольно странной: производительность на уровне старых Radeon HD 4890 или разогнанных Radeon HD 4870, но при этом большое по тем временам энергопотребление в 175 ватт. Напомню, что более быстрая Radeon HD 5850 потребляла всего 151 ватт.

В результате Radeon HD 5830 стал ненужен многим игрокам. Как замена Radeon HD 4870 и Radeon HD 4890 он не давал ни производительности, ни выигрыша по энергопотреблению. При этом был довольно дорог и получилась ситуация, что в массовые игровые компьютеры бралась Radeon HD 5770, а в более производительные - Radeon HD 5850.

AMD Radeon R9 290X


Radeon R9 290X появился в конце 2013 года и должен был бороться с GeForce GTX 780 Ti. Первые обзоры новинки пестрели подозрительной графой "н/д" в разделе "энергопотребление".

Потом выяснилось, что заявленное энергопотребление составляло 290 ватт! Конечно, в этом плане GeForce GTX 780 Ti тоже отличался приличным аппетитом в 250 ватт, но он был быстрее и работал в нормальном температурном режиме.
Референсное же охлаждение Radeon R9 290X попросту не справлялось с охлаждением этого монстра, температуры доходили до 95 градусов даже при 3000 оборотов турбины.

Потом, когда партнеры AMD выпустили нереференсные карты, а пользователи стали осваивать андервольт, Radeon R9 290X стал более интересной и перспективной покупкой. Но первый бой был проигран Nvidia, массовый пользователь испугался чудовищных температур и энергопотребления.

AMD Radeon R9 390X


Radeon R9 390X был выпущен спустя почти два года после Radeon R9 290X и по сути, являлся работой над ошибками предыдущей модели.

Практически, мы имели то же самое ядро, с тем же набором потоковых процессоров и текстурных блоков, но на чуть более высокой частоте, с более быстрой памятью объемом в восемь гигабайт и чуть сниженным, до 275 ватт, энергопотреблением.

Но эта работа над ошибками длилась почти два года и Radeon R9 390X банально опоздал, став, как и Radeon R9 290X, видеокартой для энтузиастов. На рынке уже вовсю царствовали GeForce GTX 970 и GeForce GTX 980 и игрокам попросту не нужен был Radeon R9 290X в новой обертке.

AMD Radeon R9 380X


AMD Radeon R9 380X вышел в 2015 году, в тяжелое для AMD время как на процессорном рынке, так и на рынке видеокарт. Radeon R9 380X являлся наследником удачной Radeon HD 7970, но четыре года - это очень долгий срок для графической архитектуры, даже для такой удачной, как Graphics Core Next (GCN).

По сути, его ядро Antigua был полной копией ядра Tahiti по конфигурации основных вычислительных блоков. Но частота ядра была ниже, шина памяти уменьшилась с 384 до 256 бит. И пользователи прекрасно понимали, что им преподнесли уже третью, после Radeon R9 280X, реинкарнацию одной и той же видеокарты.

Некоторую популярность она обрела, но бороться с GeForce GTX 960 и GeForce GTX 970 за кошельки игроков ей было очень тяжело.

Заканчивая этот блог, испытываешь двоякое чувство. Особенно глядя на видеокарты после 2013 года.

С одной стороны, описанные видеокарты проиграли в свое время аналогам от Nvidia.

Но с другой стороны, спустя несколько лет, можно взглянуть на ситуацию совсем по другому. Ведь они имели больший объем памяти, большую вычислительную мощь, которая позволила им стать выгодными "числодробилками" в майнинге.


А самое главное - все они имели более длительную поддержку драйверами, и если сейчас сравнить Radeon R9 290X и GeForce GTX 780 Ti и даже более новые видеокарты в играх, картина будет совершенно иной.


Но никто не покупает видеокарты на будущее, пользователям нужно здесь и сейчас получить оптимальное сочетание производительности, энергопотребления и цены. Поэтому я записал эти видеокарты в "неудачные", как и большинство игроков тех лет, которые не стали их покупать.

В следующем блоге вспомним самые неудачные видеокарты от Nvidia. А пока пишите в комментарии, какие видеокарты и от AMD и от Nvidia вы считаете самыми неудачными?

Немецкий ретейлер компьютерных компонентов, компания Mindfactory, опубликовал свежую статистику по возвратам видеокарт, работающих на базе графических чипов AMD и NVIDIA. Как выяснилось, «красные» выходят из строя чаще «зелёных».


В свежих данных содержится информация об оформлении RMA (претензий, связанных с возвратом некачественных или неисправных изделий производителю для ремонта, обмена или зачёта в баланс) для графических решений на базе архитектуры NVIDIA Turing (начиная от моделей GeForce GTX 1660 Ti и выше), а также видеокарт AMD серии 5000 (начиная с моделей Radeon RX 5500 XT и выше).

Статистика показывает, что немецкие покупатели, на которых в основном и ориентируется Mindfactory, чаще всего выбирают карты «зелёных». За отчётный период магазин смог реализовать 44 100 видеокарт на базе чипов AMD и 76 280 видеокарт на основе графических процессоров NVIDIA. Из них под RMA попали 1607 видеокарт NVIDIA и 1452 видеокарты AMD. В процентном соотношении — это 2,1 % для первой и 3,3 % для второй. Другими словами, показатель выхода из строя карт AMD, по крайней мере проданных именно в этом магазине, примерно на 50 % выше.


Что касается показателя RMA конкретно по моделям, то чаще всего по гарантии обращаются владельцы видеокарт NVIDIA GeForce RTX 2080 Ti — 5,3 % от общего количества проданных видеокарт данной модели. Это самый высокий показатель среди всех учитываемых моделей двухтысячной серии. Остальные решения GeForce RTX ломаются не так часто. По гарантии их возвращают примерно в 1–2 процентах случаев.

Что касается 5000-серии карт от AMD, то меньше всего по гарантии в магазин обращаются владельцы моделей Radeon RX 5500 XT. Среднее значение RMA-заявок составляет 1 %. Модели Radeon RX 5700 и Radeon RX 5700 XT ломаются чаще — в среднем 3,6 % от общего количества проданных видеокарт. Это весьма высокий показатель, особенно на фоне конкурентного аналога NVIDIA GeForce RTX 2070 Super, который ломается лишь в 1 % случаев от общего количества проданных карт. Пользователи форума Reddit обратили на это внимание. И одним объяснений разницы между процентом поломок моделей Radeon RX 5500 XT и Radeon RX 5700/5700 XT они называют то, старшие модели карт AMD появились в продаже раньше, и компания некоторое время не могла решить критические проблемы с драйверами.

С полной статисткой RMA немецкого магазина Mindfactory можно ознакомиться по этой ссылке.

Обычно люди спорят о том какая видеокарта самая быстрая или самая мощная. И как правило оказывается, что самой мощной является самая дорогая.


Что будем считать самой слабой видеокартой?

И тут возникают некоторые сложности с определениями.


Карта видеовывода Intel SBX275

И такое когда-то было нормой, но сейчас под видеокартами мы понимаем устройство которое ускоряет графику.


3D ускоритель подключенный к видеокарте



Последние официально поддерживаемые драйвера на HD 5450 относятся к 2016 году. Ну и вдобавок имеется и официальная поддержка Windows 10 так что с запуском карты никаких сложностей нет.


Условия тестирования в играх

Теперь по играм. Тут тоже есть свои условия. Во первых игры запускаются как есть. Для некоторых игр есть модерские конфигурационные файлы, которые снижают графику ниже минимальной. Этими инструментами пользоваться мы не будем, то есть менять можно только те настройки, которые есть в игре.

Так же отмечу, что запустились не все игры, которые я хотел попробовать. Например RDR2 честно сказала, что со старыми драйверами работать не будет.

Некоторые игры жаловались на объём памяти и малую производительность, но всё же позволяли себя запускать, правда запускались не все.

Far Cry 5 тоже зависал в процессе загрузки.

В бенчмарке GTA 5 игра стабильно зависала, но при этом сама игра работала нормально.

Так же во время загрузки зависала NFS 15 и Metro Exodus. В метро, кстати, меню тоже на движке игры и меню работало, пусть и с не очень хорошей производительностью. Несколько иная ситуация в The Division 2. Меню там так же на движке игры, но пункты меню не прогружались, так что я просто не мог запустить бенчмарк игры. Или хотя бы снизить настройки графики, чтобы добиться лучшей работы меню.

Воспроизведения видео и аппаратное декодирование видео

Но перед играми ещё я бы хотел сказать про просмотр видео. Это тоже важный аспект работы.

Для начала стоить отметить, что видеокарта не имеет декодера для VP9. Так что при просмотре самых качественных видео на YouTube декодирование будет софтверное процессором.

Если говорить про аппаратное декодирование, то обычные 1080р 60 FPS h.264 видео с YouTube воспроизводятся нормально. А вот 4к h.264 видеокарта уже нормально проигрывать не может. Происходит много потерь кадров.


Но с имеющимся охлаждением даже в стоке температуры радиатора поднимаются почти до 90 градусов, так что ни про какой разгон и речи быть не может.


Тесты в играх

С минимальными настройками на разрешении 1152х648 можно получить уже почти стабильные 30 FPS.


Sims 3

На удивление на почти минимальных настройках удалось запустить игру даже в FullHD.



GTA V

Разрешение 800 на 600 с половинным рендерингом, то есть фактическое разрешение 400 на 300 пикселей. Настройки минимальные.



PC Building Simulator

Разрешение 1024х768, настройки минимальные. В игре мы видим от 7 до 10 FPS.


Очень большие проблемы с нажатием кнопок, то есть надо как-то нажатиями попадать в активное время работы игры между кадрами, иначе нажатия не регистрируются игрой. Я попытался в игре купить видеокарту помощнее, и купил…


Но FPS или качество картинки от этого, к сожалению, не улучшились.

Watch_Dogs 2

Разрешение 1024х768 масштаб рендеринга 0,5. То есть разрешение рендеринга 512 на 384 пикселя. Но интерфейс рендериться в 1024х768, поэтому все шрифты и элементы читаются нормально, но, к сожалению, FPS около 10 и очень высокие задержки управления, поэтому играть невозможно.


Project CARS

На минимальных настройках в разрешении 640 на 480 хоть и получается выше 30 FPS, но задержки управления слишком высокие чтобы результативно играть, из-за замедленного парироования увода машины она уходит в разнос и даже в 480р играть не выходит.


Mass Effect: Andromeda

Игра позволяет выставить разрешение 1024х768, правда вместо растягивания изображения она отрезает верх и низ, что делает игру несколько менее комфортной. Но кроме снижения разрешения игра позволяет уменьшить разрешение рендеринга в 4 раза. То есть разрешение игры 256 на 192 пикселя (обрезанное изображение 256х170). Тем не менее значительных задержек управления нет, и FPS редко снижается ниже 30, а порой доходит и до 50, при том что я записывал игру на планете в которой требования к видеокарте довольно высокие.


(чтобы понять где именно противник откройте фото в полном размере)

Однако на данном разрешении сложно распознать противников, так что результативность игры под вопросом.

Control


Выводы

Как показала практика разработчики игр, несмотря на то, что задают относительно высокие рекомендуемые требования, всё же дают возможности по запуску своих игр на видеокартах которые в несколько раз менее производительны чем современные встройки в процессоры.

У меня есть, например, тесты Vega 11.

И для сравнения в Mass Effect: Andromeda radeon HD5450 работала на разрешении около 50 Килопикселей, тогда как Vega 11 с большим FPS на тех же настройках отрисовывала 2 Мегапикселя, то есть работала в разрешении в 42 раза большем чем у этой видеокарты.


(нажмите для увеличения)

В 42 раза, и это в сравнении со встройкой в процессор.

Настолько эта видеокарта слабая.

Видео на YouTube канале "Этот компьютер"

Привет Пикабу! Месяц назад мы рассказали о самых популярных мифах, связанных с процессорами AMD Ryzen и Intel Coffee Lake. И теперь мы переходим к современным видеокартам, мифов про которые ничуть не меньше.

Как всегда, текстовая версия - под видео.

Миф №1. Драйверы для видеокарт AMD кривые, у Nvidia все идеально

Пожалуй, один из самых популярных мифов, который тянется еще с бородатых нулевых, когда зачастую различные игры хорошо работали на абсолютно разных версиях драйверов. Разумеется, в 2020 году что AMD, что Nvidia активно тестируют драйвера перед релизом, однако, как это обычно бывает, ошибки встречаются у всех.

Например, Nvidia очень любит выпускать Hotfix-ы — так называемые быстрые заплатки, причем выходят они чуть ли не по десятку в год.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

В случае же с Nvidia в основном обновления драйверов никак не влияют на производительность.

Так что, в общем и целом, можно сказать, что с драйверами у производителей видеокарт паритет: ошибки и баги встречаются у всех, к сожалению — это скорее норма современного софтописания, чем исключение.

Миф №2. Трассировка лучей — баловство, о котором забудут через пару лет

Именно так говорили и продолжают говорить пользователи после выхода в продажу видеокарт Nvidia RTX 2000 с аппаратной поддержкой трассировки лучей, приводя в пример другую технологию — PhysX, которая около десяти лет назад казалось перспективной для обсчета физики различных объектов в играх, однако на данный момент почти нигде не используется.

И все же пора уже признать, что трассировка — это надолго, если не навсегда. Во-первых, эту идею поддержала AMD: их видеокарты на архитектуре RDNA2 с поддержкой DXR выйдут к концу этого года.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Во-вторых, эту идею поддержали производители консолей — и в PS 5, и в новом Xbox будут видеочипы на все той же архитектуре RDNA2. В-третьих, эту идею поддерживает Microsoft — буквально несколько дней назад они представили новый API DirectX 12 Ultimate. Ну и в-четвертых, игр с поддержкой DXR уже больше десятка, причем этой технологией заинтересовались крупные студии с ожидаемыми релизами — например, трассировка точно будет в Cyberpunk 2077.

Так что медленно, но верно RT вытеснит текущие методы обработки теней и освещения, и вполне может быть, что лет через 5 выйдет первая игра, которая просто не запустится на видеокарте без поддержки трассировки.

Миф №3. Видеокарты после майнинга брать себе дороже

Почему-то в умах большинства людей майнинг-фермы — это такие огромные ржавые протекающие ангары, где под жесточайшим разгоном молотят видеокарты, а рядом сидит бородатый админ и чинит вышедшие из строя советским паяльником.

На деле же большая часть видеокарт, которые сегодня можно найти на различных барахолках, идут из больших ферм (и зачастую имеют номера). С учетом того, что разгон GPU существенно увеличивает жор видеокарты и очень несущественно увеличивает производительность, его в майнинга почти не используют. Более того, хватает алгоритмов, где важна видеопамять, то есть GPU и вовсе прохлаждается.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

В итоге такие видеокарты зачастую работают даже в лучших условиях, чем у обычных геймеров, и самая серьезная проблема, с которой вы скорее всего встретитесь — это разболтанные вентиляторы и высохшие термопрокладки. Очевидно, что фиксится это за достаточно небольшие деньги, так что не стоит отказываться от видеокарт после майнинга — зачастую это хороший способ получить отличную видеокарту за копейки.

Миф №4. PCI Express 4.0 — прорывной стандарт, видеокартам с PCIe 3.0 пора на свалку

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Что ж, интерфейс PCIe 4.0 действительно быстрее 3.0 аж вдвое на каждую линию, но действительно ли это так важно? Если у видеокарты не хватает видеопамяти, как в случае с AMD RX 5500 XT на 4 ГБ, то разница с 8 ГБ версией составляет в среднем 15-20% fps, что достаточно существенно и легко объяснимо: недостаток собственной памяти видеокарта компенсирует из ОЗУ, и чем быстрее шина, по которой она общается с процессором, тем быстрее она получает доступ к памяти.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Однако, если мы возьмем уже достаточно массовые видеокарты с 6 и более ГБ памяти, то тут разницы между PCIe 4.0 и 3.0 практически нет, и даже разница между 4.0 и 2.0 составляет от силы несколько процентов. Более того, единственный чипсет на данный момент, поддерживающий PCIe 4.0, это топовый и дорогой X570.

Так что пока нет смысла гнаться за PCIe 4.0, а с учетом того, что PCIe 5.0 почти готов и скорее всего появится через пару лет, 4-ая версия шина рискует остаться нишевой и непопулярной.

Миф №5. Разгон видеокарты даст существенный прирост производительности

К сожалению, прошли те славные времена, когда видеокарты гнались так, что зачастую достигали уровня производительности более старшей модели в линейке. Теперь же прирост в 10% fps уже считается хорошим уровнем — и это при том, что в реальной игре вы едва ли его ощутите.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Конечно, можно вспомнить про перешивание BIOS у видеокарт AMD, позволяющий превратить RX 470 в RX 570, а RX 5700 — в почти RX 5700 XT. Но, увы, это скорее редкость, чем практика: например, на большинстве видеокарт Nvidia RTX прирост производительности от разгона оказывается на уровне 5-7%.

Так что можно смело говорить, что разгон видеокарт умер. За приростом в пару процентов просто нет смысла гнаться, и единственное, что даст вам монструозное водяное охлаждение GPU, так это низкие температуры и не более того. Что Nvidia, что AMD наловчились выбирать почти весь частотный потенциал на заводе: с одной стороны, это на руку обычным пользователям, но с другой слегка грустно, что эра оверклокеров клонится к закату.

Миф №6. Производительность мобильных и десктопных видеокарт с одинаковым названием сравнима

Начиная с видеокарт Pascal, они же GTX 1000, Nvidia использует одинаковые названия для мобильных и десктопных GPU. Поэтому кажется, что RTX 2080 в тонком ноутбуке и в громоздком ПК — это одно и тоже, и невольно удивляешься тому, насколько продвинулся прогресс.

Однако на деле физику не обманешь: видеокарта, для охлаждения которой в ПК используется пара вентиляторов и пяток тепловых трубок, уж точно не сможет работать на тех же частотах в ноутбуке с толщиной меньше 2 см. Насколько же будет ниже производительность? Ответ может шокировать — до 2 раз.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Частота RTX 2080 Max-Q может составлять всего 735 МГц при теплопакете в 75 Вт. Как итог, реальный ее уровень производительности в играх может быть лишь около десктопной GTX 1660 Ti. А с учетом того, что никто не заставляет производителей ноутбуков писать, что в их решении стоит урезанная Max-Q версия, без тестов абсолютно непонятно, на что реально способен каждый из игровых лэптопов.

Поэтому увы, но зачастую название топовой десктопной видеокарты в ноутбуке — это просто маркетинг, и как бы Nvidia не старалась, очень немногие лэптопы реально могут выдавать в играх производительность ПК с аналогичной графикой. При этом обычно такие ноутбуки по мобильности реально ближе к компьютерам, чем к своим собратьям.

Миф №7. SLI умер, игры не заточены под пару видеокарт

Технология объединения видеокарт появилась полтора десятка лет назад, и ее пик пришелся на конец нулевых и начало десятых: была видеокарта Nvidia GTX 295, которая имела два чипа от GTX 280. Была Asus Mars с двумя чипами от GTX 760. Но в дальнейшем цены на видеокарты только повышались, и в итоге если 10 лет назад за 700-800 долларов можно было взять пару топовых видеокарт, то сейчас — лишь одну.

В результате 3-4 года назад количество систем со SLI или CrossFire стало настолько мало, что создатели игр прекратили оптимизировать под эти технологии свои проекты. Поэтому в народе закоренилось мнение, что объединение видеокарт больше не работает, однако это не так.

Так, например, пара RTX 2080 Ti, объединенных по NVLink, быстрее одной RTX 2080 Ti в разрешении 8К зачастую на 60-80%, что можно назвать отличным приростом. Конечно, это далеко не самое популярное разрешение, однако оно отлично показывает, что в большинстве современных игр, таких как Rise of the Tomb Raider, Rainbow Six Siege, Far Cry 5 и других ААА-проектах, прирост от SLI есть, и он огромен.

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Так что объединение видеокарт снова дает хороший буст производительности — конечно, если у вас есть пара тысяч долларов на две RTX 2080 Ti.

Миф №8. Профессиональные драйвера видеокарт не подходят для игр

8 мифов о современных видеокартах Nvidia и AMD Видеокарта, Видео, YouTube, Длиннопост

Однако на деле это абсолютно не так: тесты показывают, что в играх разница между ними в пределах погрешности, так что можете смело ставить DOOM на рабочий ПК с RTX 2080 Ti — fps низким точно не будет.

Как видите, мифов о современных видеокартах хватает. Знаете какие-нибудь еще? Пишите об этом в комментариях.

Читайте также: