Как влияет видеокарта на монитор

Обновлено: 07.07.2024

Здравствуйте! Сегодня разберемся — может ли монитор не поддерживать видеокарту, по каким причинам такое происходит, как узнать и что делать, если подобное наблюдается.

Для понимания темы также советую ознакомиться: «Все виды разъемов у компьютерных мониторов».

Совместимость старых мониторов с новыми видеокартами и наоборот

Оргтехника — такая сфера, где без строгой стандартизации и унификации далеко не уедешь. Брендов, выпускающих различные комплектующие и периферические устройства, как и самих таких девайсов, огромное количество.

Если не внедрить единые протоколы обмена данными между ними, крупные компании потеряют часть клиентов и начнут терпеть убытки, а этого никто не допустит.

Исключением является, пожалуй, только компания Apple с собственной экосистемой, но и там все девайсы можно связать по «родным» протоколам.

В итоге мы имеем следующее: независимо от характеристик монитора — будь то навороченный ЖК экран, работающий на частоте 144 Гц и выдающий изображение разрешением 4К, и не самая новая видеоплата, или, наоборот, высокопроизводительный современный видеоадаптер и древний пузатый монитор. Они должны корректно коннектиться и выдавать изображение.

Конечно, не факт, что при такой конфигурации будут запускаться видеоигры, но уж просмотр фильмов вам гарантирован.

Проблема, с которой может столкнуться пользователь — несовместимость портов. К примеру, старые мониторы были оборудованы гнездом VGA — трапециевидным штекером, маркированным синим цветом. На современных видеоадаптерах, даже в бюджетном сегменте, такой слот сегодня большая редкость.

Но и эта проблема имеет решение. Существуют переходники и конверторы сигнала, чтобы связать любые порты разного вида, в том числе аналоговые с цифровыми. При удачном подборе адаптера все будет корректно работать, даже если порты разные.

Почему нет изображения, если все совместимо

Но не исключено, что при попытке «подружить», казалось бы, вполне совместимые девайсы, может отсутствовать картинка на экране. Из-за чего такое происходит?

Одна из возможных причин — неподходящий переходник. В некоторых случаях требуется не просто переходник, то есть вилка, связывающая разные штекеры в единую электрическую цепь, а именно адаптер, который получает дополнительное питание на преобразующую плату.

Второе, что может вызывать неполадки — разные типы портов DVI. В этом формате есть несколько видов слотов — аналоговый, цифровой и аналогово-цифровой.

Они почти совместимы, но аналоговый порт не будет подавать сигнал на цифровой, и соответственно, наоборот. И даже если в аналогово-цифровой связке все нормально работало, а потом вдруг перестало, не исключено, что на штекере перегорела одна из цепей.

Прочие неполадки в этой области мне не известны. Если вам встречались еще какие-то не стыковки и несоответствия, давайте обсудим в комментариях. О том, что такое разрешение экрана монитора, можно почитать тут. До скорой встречи!

Выбор монитора и видеокарты для настольного компьютера это неразрывно связанные вещи. Нельзя подобрать оптимальную по характеристикам видеокарту для вашего ПК, не зная технических параметров монитора. Так же сложно выбрать подходящий вам монитор, не зная возможностей установленного видеоускорителя.

Если вы играете в тяжелые игры или используете мощные графические программы, то на характеристики монитора и видеокарты нужно обращать пристальное внимание. От того, какой выбор вы сделаете, будет зависеть производительность как в играх, так и при работе с графикой.

Чтобы сделать правильный выбор видеоподсистемы компьютера, необходимо понять, что связка монитор+видеокарта должны дополнять друг друга.

Основные моменты

Если у вас старый монитор, например 19 дюймовый с разрешением 1280×1024 точек, то покупать современную видеокарту ценой 30-40 тысяч рублей или дороже, будет верхом неразумности. На таком мониторе вы не сможете раскрыть и половины ее потенциала.

Так же не имеет смысла приобретение дорого монитора с разрешением Ultra HD 4K (3840×2160) тысяч за 70, а видеокарту оставлять за 15-20 тысяч. Она будет просто не способна обработать с нормальной скоростью поток графических данных для данного монитора, и вы вместо игры увидите ужасные тормоза и слайд шоу. Для приемлемой работы в таких разрешениях будьте готовы раскошелиться на видеокарту в тех же пределах, что и на монитор, а лучше еще больше.

Лучше быстрая и плавная работа на маленьком мониторе с низким разрешением, чем постоянно наблюдать тормоза на большом мониторе с высоким разрешением.

Я думаю вы поняли, что необходим баланс. При замене монитора и видеокарты, у вас может быть три варианта развития событий ⇒

  1. Вы меняете монитор
  2. Вы меняете видеокарту
  3. Вы меняете сразу и то и другое.

Дальше я рассмотрю третий вариант, так как у меня назрела необходимость одновременной замены монитора и видеокарты. Я подробно объясню, почему я делаю выбор в пользу того или иного устройства и почему меня устраивают именно эти характеристики, а не другие.

У меня на данный момент настольный компьютер в плане производительности не сбалансирован. Как всегда не хватает денюшек. Летом 2018 года я смог обновить процессор, материнскую плату, оперативную память и дисковую подсистему (у меня установлен NVME SSD M.2 250Gb и гибридный HDD). На все это я потратил около 60 тысяч рублей. Блок питания стоит мощный на 750Вт. Пока хватает. А вот монитор и видеокарта у меня очень старые.


Монитор 19 дюймов NEC 1970NX куплен в 2005 году. Полупрофессиональная модель на то время, но уже очень старая и подсветка подсела, хотя изображение очень неплохое.


Видеокарта NVIDIA 770GTX . Кто разбирается, то понимает, что она тоже очень старенькая. Ниже я привел более подробные характеристики моего компьютера.

Замена уже напрашивалась давно, но я в игрушки сильно не играю, а для остального мне было вполне достаточно и этого. Сейчас сын подрос и стал играть в более мощные игры, так что потихоньку надо компьютер обновить. В 2018 году было принято решение заменить центральный процессор, увеличить и обновить оперативную память, улучшить быстродействие дисковой подсистемы, а в 2019 году приобрести хороший монитор и видеокарту.

Почему не наоборот? Потому что видеокарта, это самый часто обновляемый компонент настольного компьютера и самый дорогой, а покупать тот монитор, который я хочу без видеокарты не имеет смысла. Если процессор я меняю в среднем 1 раз за 4-5 лет, то видеокарту желательно менять 1 раз в 2 года, у кого есть на это средства.

Чтобы купить нужные мне монитор и видеокарту, необходимо около 100 тысяч рублей, что равноценно стоимости всех остальных компонентов компьютера вместе взятых.

Как вы поняли, вся проблема кроется в разрешении вашего устройства отображения. Неважно, к чему у вас подключен компьютер, к монитору или телевизору. Чем выше разрешение, тем сильнее идет нагрузка на видеокарту. А если еще выставлять в настройках игр максимальное качество, то видеокарте вообще туго приходиться.

Сейчас все мониторы и телевизоры жидкокристаллические (liquid crystal display, LCD). Эра плазмы ушла. Матрицы для них изготавливаются по различным технологиям, но общий принцип работы у них один. Каждое устройство, будь-то ЖК-телевизор или ЖК-монитор имеет строго определенное количество отображающих элементов (пикселей) как по горизонтали, так и по вертикали. Если в технических характеристиках вы видите 1920×1080, это означает, что данное устройство имеет разрешение по вертикали 1920 пикселей, а по горизонтали 1080.

Так же еще есть один важный параметр, это размер самого пикселя. Я думаю все согласятся, что разница в изображении между 15 дюймовым ноутбуком, 27 дюймовым монитором и 55 дюймовым телевизором при одинаковом разрешении 1920×1080 пикселей будет весьма существенна.

Я пробовал поиграть в танчики на 50 дюймовом телевизоре с таким разрешением. Это просто куча пикселей. И даже технологии сглаживания изображения, мало улучшают ситуацию.

Вы должны понять, что у всех ЖК устройств отображения информации одно и только одно рабочее разрешение, которое указано в его характеристиках. Играть, набирать документ в ворде, работать в фотошопе необходимо только в нем, так как только оно обеспечит максимальное качество картинки.

Конечно, разрешение можно выставить другое (меньше рабочего, но не больше), но тогда в силу технических особенностей, происходит так называемая интерполяция. Если грубо объяснить, то происходит наложение пикселей друг на друга, что приводит к очень заметному ухудшению (замутнению) изображения.

Работать за ЖК монитором с выставленным разрешением экрана, отличным от стандартного не советую. Очень быстро посадите себе зрение.

Что мне нужно от монитора и что я хочу приобрести?

Так как я долго пользуюсь продукцией компании NEC и она мне очень нравиться, то выбор я делал среди модельного ряда этого производителя мониторов.

Еще год назад я бы посоветовал взять 27 дюймовый монитор с разрешением 1920×1080 (Full HD) пикселей, а сейчас с появлением мощных видеокарт с ценой до 40 тысяч рублей уже можно смотреть в сторону 27 дюймового монитора, но с разрешением 2560×1440 (Quad HD).

Плотность пикселей для стольких дюймов оптимальна. За большими диагоналями мне работать не привычно. Обязательно должна стоять хорошая IPS-матрица или ее модификация. Мне больше важно качество передаваемого изображения, чем скорость работы матрицы монитора.

Для себя я подобрал три модели, в различных ценовых диапазонах ⇒

Для заядлых игроков, лучшим выбором остается разрешение монитора в 1920×1080. Если есть возможность, то берите монитор с частотой в 144Гц и более. Только обязательно смотрите, чтобы ваша видеокарта выдавала в играх с оптимальными для вас настройками, те же самые 144fps и более. Только при таких условиях вы полностью раскроете потенциал, как монитора, так и видеокарты, и уж точно не пожалеете о потраченных деньгах.

Подключайте монитор к современным разъемам DisplayPort, HDMI или если их нет, то к DVI. Не надо использовать допотопный VGA (D-Sub) (на многих современных видеокартах его уже нет), так как он аналоговый, а не цифровой. На больших разрешениях и диагоналях мониторов такое подключение сказывается на качестве выводимого изображения, особенно на шрифтах текстов.

Что по видеокартам?

Любителям продукции NVIDIA могу посоветовать такие видеокарты, как GeForce RTX2060 Super и GeForce RTX2070 Super . Обратите внимание на приставку Super. Это обновленные и улучшенные версии обычных видеокарт.


Так же любителям видеокарт ATI Radeon от AMD производитель только-только выпустил великолепные 2 модели. Это Radeon RX 5700 и Radeon RX 5700 XT . Очень достойные конкуренты вышеупомянутым моделям от NVIDIA.

С более слабыми моделями, вам придется идти на компромисс между скоростью и качеством, что всегда очень напрягает.

реклама

В качестве тестового стенда выступил компьютер на базе процессора AMD Ryzen 7 3700X, материнской платы MSI MEG X570 GODLIKE и 16 Gb оперативной памяти CORSAIR VENGEANCE RGB PRO на частоте в 3600 MHz.

Начнём с 2080 Ti. Её тестировали на минимальных и максимальных настройках графики в разрешениях 720р, 900р, 1080р, 1440р и 4K в 7 различных играх. На минималках в Assassin`s Creed: Odyssey почти не было разницы между тремя начальными разрешениями и реальное снижение производительности можно наблюдать лишь в 1440р и 4К. Похожий результат наблюдается и в Borderlands 3. А в Gears 5 и Metro: Exodus схожую производительность показали уже 4 разрешения из 5.









По результатам тестов в 7 играх реальное снижение производительности можно обнаружить лишь в самом высоком разрешении. Хотя от себя я пожалуй добавлю, что Ryzen 3700X далеко не самый подходящий процессор для подобного теста, а данные результаты могли быть вызваны банальным ботлнеком с его стороны. В максимальных настройках разница уже более различима и судя по результатам 7 игр снижение разрешения с 1080p до 720p может дать 17% прибавку к производительности. Повышение же с 1080р до 4k понижает FPS на 48%.









Ну а напоследок были протестированы более слабые карты RX 5600XT и RX 5500XT. Они продемонстрировали наиболее чётко выраженную зависимость FPS от разрешения экрана







Из всего этого теста можно сделать лишь один вывод: далеко не на каждой системе снижение разрешения экрана обязательно приведёт к росту производительности. Перформанс будет зависить от множества факторов и будет разниться от системы к системе, да и особенности оптимизации самих игр сбрасывать со счетов тоже не стоит.

Миф №1. Мониторы с частотой 100-240 Гц не нужны, так как человеческий глаз не видит больше 24 кадров в секунду.

Миф стар как мир, и идет он от того, что для плавности видео хватает 24 кадров в секунду. Но не стоит забывать, что в видео каждый кадр немного смазан, то есть содержит часть предыдущего, поэтому переход между кадрами заметен меньше. В играх же каждый кадр четкий — это легко понять, делая скриншоты, поэтому тут 24 кадров не хватит, картинка будет казаться дерганной. А вот какая нужна частота обновления монитора (и соответственно FPS), чтобы ощутить плавность, индивидуально для каждого человека, но в общем и целом большинство людей без проблем заметят на глаз разницу между 60 и 144 Гц.
Миф №2. IPS-мониторы лучше, чем MVA/TN.

11 мифов о мониторах Мифы, Видео, Монитор, Разрушители мифов, Компьютер, IT, Длиннопост

Миф №3. Мониторы портят глаза.

11 мифов о мониторах Мифы, Видео, Монитор, Разрушители мифов, Компьютер, IT, Длиннопост

Поэтому наилучшим выходом будет поиск в интернете цветового профиля для своей матрицы: да, матрицы с одинаковой маркировкой все же будут немного различаться по цветам, но в любом случае такой цветовой профиль приблизит картинку к идеальной. Но а если вы готовы раскошелиться — всегда можно заказать калибровку у профессионалов: в таком случае вы получите самую лучшую возможную картинку именно для вашей матрицы.

11 мифов о мониторах Мифы, Видео, Монитор, Разрушители мифов, Компьютер, IT, Длиннопост

11 мифов о мониторах Мифы, Видео, Монитор, Разрушители мифов, Компьютер, IT, Длиннопост

Пожалуй, это один из самых вредных для глаз мифов — на деле яркость монитора должна быть сравнимой с яркостью окружения, в офисе это обычно около 150-200 кандел на квадратный метр. Очень высокая яркость приведет к дополнительному напряжению мышц глазного яблока, что приведет к более быстрому их утомлению, а это, в свою очередь, негативно скажется на остроте зрения. Пожалуй, единственное исключение — это игры: тут большая яркость поможет лучше различать врагов в темноте, но при обычных задачах ее лучше снижать до указанного выше уровня.
Миф №9. Разные цифровые выходы дают картинку разного качества.
Миф тянется с 90ых годов, когда банально от замены VGA-кабеля качество картинки могло измениться. Разумеется, с цифровым подключением таких проблем нет — разница между HDMI, DVI и DisplayPort заключается только в различных максимальных разрешениях и возможности выводить звук. Поэтому если указанные выше кабели и коннекторы не повреждены, то картинка будет абсолютно идентичной.
Миф №10. Чем шире цветовой охват монитора, тем лучше.
Это не совсем миф, это скорее просто лишняя трата денег. В последнее время стало появляться все больше мониторов с широкими цветовыми охватами: Apple использует DCI-P3, еще одним известным можно считать AdobeRGB. Стоят обычно решения со 100% покрытием этих цветовых пространств дорого, а толку от них для рядового пользователя нет совсем: подавляющее большинство изображений, видео и игр заточены под стандарт sRGB, поэтому можно сэкономить и брать мониторы с максимальным покрытием этого стандарта, разницы в большинстве задач вы не заметите.
Миф №11. Рядом с монитором должен стоять кактус. А желательно парочка. И обязательно защитную пленку на экран наклеить нужно.
О, эти кактусы, которые в 90ых и нулевых встречались чуть ли не в каждом офисе — миф о том, что они нейтрализуют вредное излучение ЭЛТ-мониторов, был невероятно популярен. А в самых запущенных случаях на монитор наклеивали еще и специальную защитную пленку, которая опять же должна была спасти от страшного и опасного излучения кинескопа.

11 мифов о мониторах Мифы, Видео, Монитор, Разрушители мифов, Компьютер, IT, Длиннопост

Читайте также: