В чем измеряется объем видеопамяти

Обновлено: 05.07.2024

Вопрос: Что такое видеокарта (видеоадаптер и т.д.)?
Ответ: Видеокарта является основным элементом видеоподсистемы любого более или менее производительного компьютера (за исключением самых дешевых офисных систем с интегрированным в чипсет видео).

К основным компонентам видеокарты относятся: графический процессор (с легкой руки NVIDIA, именуемый GPU - Graphic Processing Unit), от возможностей которого во многом зависит производительность всей видеоподсистемы, и видеопамять (служащая для хранения различных элементов выводимого изображения, включая графические примитивы, текстуры и прочее).

Вопрос: Что понимается под производительностью видеоподсистемы?
Ответ: Производительность видеоподсистемы определяет скорость обработки графической информации, выводимой на дисплей компьютера. По-настоящему объективных критериев оценки производительности видеокарт сегодня, к сожалению, не существует: и тесты, и многие игры, используемые для тестирования видеокарт, оптимизированы под видеочипы того или иного производителя и, тем самым, грешат некоторой тенденциозностью. Вопрос: Видеокарты от какого производителя самые лучшие?
Ответ: В последние годы на рынке дискретных видеоадаптеров наблюдается двоевластие: конкурирующие друг с другом американская NVIDIA с модельным рядом видеокарт GeForce и ATI - канадское подразделение компании AMD (модельный ряд Radeon) не оставили остальным производителям места "под компьютерным солнцем". Кто лучший из первых двух? Сразу не Ответить. Ведь выходят все новые и новые поколения видеокарт NVIDIA и ATI, и ситуация на рынке меняется с калейдоскопической быстротой. Сегодня, например, в нише высокопроизводительных решений высшего уровня (пользующиеся популярностью в основном у различных компьютерных изданий), безусловно, лидирует NVIDIA с линейкой GeForce 8800, однако недавно пальма первенства принадлежала ATI Radeon 1950 и т.д. Что касается массовых продуктов, то видеокарты одного поколения от разных производителей примерно равны по возможностям, так что выбор решения от того или иного производителя определяется лишь предпочтениями пользователя. Вопрос: Какой минимальный объем видеопамяти достаточен для работы с офисными приложениями?
Ответ: Как правило, в настоящее время видеокарты имеют память 128 Мб и более, чего вполне достаточно для комфортной работы с любыми офисными приложениями, а также для просмотра видео. Больший объем видеопамяти требуется лишь в 3D-играх, а также при работе с профессиональными графическими пакетами. Вопрос: Какая видеокарта необходима для нормальной работы с Windows Vista?
Ответ: Для работы с Windows Vista достаточно иметь графическую карту или интегрированный чипсет с аппаратной поддержкой DirectX 9.0. В минимальной конфигурации объем видеопамяти должен составлять 64 Мб (минимум), а более продвинутый уровень, позволяющий насладиться всеми прелестями трехмерного интерфейса (Aero Glass) подразумевает использование видеокарты с поддержкой Pixel Shader 2.0, а также от 128 Мб памяти и выше.

Дальнейшие перспективы работы под Windows Vista будут всё больше и больше связаны с DirectX 10.

Вопрос: Физические ускорители - что это?
Ответ: Физические ускорители (PPU - Physics Processing Unit) являются узкоспециализированными устройствами, дополняющими традиционную связку CPU-GPU и освобождающие их от обязанности обсчитывать физические эффекты в современных трехмерных компьютерных играх. "Первой ласточкой" процессоров нового типа стал PPU PhysX, разработанный компанией Ageia в 2005 году.

К настоящему времени физические ускорители не получили сколько-нибудь серьезного распространения. В первую очередь, потому, что появились не вовремя - в пору экспансии двухъядерных процессоров, одно из ядер которых в игровых приложениях может достаточно эффективно обсчитывать всю физику. Таким образом, использование PPU сегодня не имеет особого смысла.

  • его тактовая частота - определяет максимальный объем работы, который процессор может выполнить в единицу времени. Чем больше тактовая частота GPU, тем выше производительность видеокарты;
  • количество блоков шейдеров (пиксельных или вершинных процессоров, выполняющих специальные программы) определяет возможности современных видеокарт по обработке графических примитивов и, тем самым, производительность видеокарты. Пиксельные шейдеры более актуальны, чем вершинные, поэтому зачастую количество первых в GPU превышает количество последних. Впрочем, разделение на пиксельные и вершинные шейдеры в последнее время, в связи с выходом DirectX 10, теряет актуальность. Все они заменяются едиными унифицированными шейдерными блоками, способными, в зависимости от конкретной ситуации, исполнять роль как пиксельных, так и вершинных шейдеров (а также и геометрических, которые появились в DirectX 10);
  • количество блоков текстурирования (TMU), определяющих текстурную производительность (скорость выборки и наложения текстур), особенно при использовании трилинейной и анизотропной фильтрации. Наибольшее значение блоки TMU имеют в относительно старых играх дошейдерной эпохи, хотя и сейчас они не потеряли актуальности;
  • количество блоков растеризации (ROP), осуществляющих операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как и в случае с блоками TMU, актуальность блоков ROP в период господства шейдерной архитектуры несколько снизилась.
  • для бюджетных видеокарт - 64 или 128 бит;
  • для карт среднего уровня - 128 или 256 бит;
  • для самых дорогих High-End видеокарт - от 256 до 512 бит.

В последнее время в дешевых бюджетных видеокартах обрел популярность третий тип организации видеопамяти - гибридный, использующий возможности быстрого двунаправленного обмена по шине PCI Express. В таких видеокартах есть небольшой объем собственной видеопамяти, используемый для традиционных 2D-операций, а также для организации буфера RAMDAC. Когда этого объема недостаточно (в основном при запуске 3D-приложений), видеосистема добавляет к нему некоторый объем оперативной памяти. Когда отпадает потребность в дополнительной памяти, она высвобождается для общесистемных нужд. В видеокартах ATI такая память обозначается как HyperMemory, а в видеокартах NVIDIA - TurboCache. Скорость работы таких видеокарт, конечно, гораздо ниже, чем у классических систем с выделенной видеопамятью, однако гораздо выше, чем у тормозных решений с выделяемой памятью. Вопрос: Что представляют собой системы аппаратного ускорения видео?
Ответ: Системы аппаратного ускорения видео AMD Avivo и NVIDIA PureVideo HD осуществляют аппаратную декомпрессию HD-видеофайлов (30 кадров в секунду с разрешением 1920 x 1080), закодированных в H.264/AVC. Это позволяет существенно снизить требования к производительности центрального процессора и, тем самым, обеспечить плавное воспроизведение HD. Кроме того, обе технологии позволяют несколько улучшить качество картинки HD (впрочем, как и DVD) за счет подавления шума, сглаживания границ объектов и наложения различных фильтров.

Вопрос: Что такое HDCP?
Ответ: HDCP (High-bandwidth Digital Content Protection - протокол защиты широкополосных цифровых данных) является одним из вариантов системы управления правами доступа к цифровым данным (DRM). HDCP разработан совместными усилиями компаний Intel и Silicon Image для управления доступом к аудио- и видеоданным высокой четкости (в основном, фильмов, распространяемых на носителях HD DVD и Blu-Ray DVD), и передаваемым по интерфейсам DVI и HDMI и призван не допустить их передачу в незашифрованном виде. Поддержка HDCP сегодня является обязательным условием соОтветствия любого устройства (в том числе видеокарт и мониторов) марке "HD Ready".

Интерфейсы видеокарт

Вопрос: Какие типы интерфейсов существуют для видеокарт?
Ответ: Стандартным интерфейсом для подключения видеокарт в настоящее время является шина PCI-Express 1.1 (PCIe или PCI-E). Последовательная передача данных в режиме "точка-точка", примененная в PCI-E, обеспечивает возможность ее масштабирования (в спецификациях описываются реализации PCI-Express 1x, 2x, 4x, 8x, 16x и 32x). Как правило, в качестве видеоинтерфейса используется вариант PCI-E 16x, обеспечивающий пропускную способность 4 Гб/с в каждом направлении, хотя изредка встречаются реализации PCI-E 8x (в основном в усеченных SLI- или CrossFire-решениях) и даже PCI-E 4x (в частности, так называемый PCI-Express Lite, реализованный на некоторых материнских платах ECS). При этом следует отметить, что во всех случаях, для установки видеокарт используется единый слот PCI-E 16x, а в усеченных версиях к нему подводится меньшее количество линий PCI-E.

В ближайшей перспективе ожидается массовое внедрение новой спецификации PCI-Express 2.0 с увеличенной вдвое пропускной способностью (что в случае PCI-E 16x дает 8 Гб/с в каждом направлении). При этом PCIe 2.0 совместим с PCIe 1.1, то есть старые видеокарты будут нормально работать в новых системных платах, появление которых ожидается уже в 2007 году. Кроме того, спецификация PCI-Express 2.0 расширяет возможности энергоснабжения до 300 Вт на видеокарту, для чего на видеокартах вводится новый 2 x 4-штырьковый разъем питания. Устаревший, но еще широко используемый видеоинтерфейс AGP (Accelerated Graphics Port - видео порт с повышенной скоростью передачи данных), основан на параллельной 32-битной шине PCI. В отличие от прототипа, она предоставляет прямую связь между центральным процессором и видеочипом, а также более высокую тактовую частоту (66 МГц вместо 32 МГц), упрощенные протоколы передачи данных и другие.

  • AGP 1х - 266 Мб/с;
  • AGP 2х - 533 Мб/с;
  • AGP 4х -1,07 Гб/с;
  • AGP 8х - 2,1 Гб/с.

Для нормальной работы видеокарт в SLI-режиме, необходима материнская плата (пока только на чипсетах NVIDIA) с двумя графическими слотами, допускающими установку видеокарт с интерфейсом PCI-Express (NVIDIA GeForce 6x00 и более новых, причем обе видеокарты должны быть построены на одинаковых GPU). Для обмена информацией между ними, чаще всего используется специальный SLI- коннектор, хотя в отдельных случаях возможна связь через интерфейс PCI-E.

Во многих случаях использование SLI дает увеличение производительности 3D-приложений, хотя радикальное увеличение наблюдается в основном в играх, специально оптимизированных под эту технологию. Вопрос: Что такое CrossFire?
Ответ: CrossFire является ответом компании ATI на инновацию NVIDIA SLI и также позволяет использовать две видеокарты для увеличения производительности видеосистемы.

Вопрос: Какие внешние разъемы бывают на видеокартах?
Ответ: Для подключения внешних видеоустройств на видеокартах, могут использоваться аналоговые интерфейсы VGA, RCA, S-Video и цифровые - DVI и HDMI:

  • до последнего времени основным интерфейсом для вывода изображения на ЭЛТ и ЖК-мониторы являлся аналоговый VGA-выход (15-контактный разъем D-Sub);
  • аналоговый разъем S-Video (или S-VHS) применяется в основном для вывода компьютерного изображения на бытовые телевизоры и другую домашнюю видеотехнику. Существенным недостатком этого интерфейса является то, что в современных видеокартах могут использоваться несколько вариантов разъема S-Video, с разным количеством контактов и не всегда совместимых друг с другом;
  • современные ЖК-мониторы, проекторы, телевизоры и плазменные панели могут подключаться к видеокартам по цифровому видеоинтерфейсу DVI (Digital Visual Interface). За счет того, что видеосигнал передается напрямую с видеокарты без двойного цифро/аналогового преобразования, DVI обеспечивает неискаженную передачу изображения, особенно заметную в высоких разрешениях. Интерфейс DVI может быть как исключительно цифровой DVI-D, так и комбинированный DVI-I, в котором наряду с цифровыми линиями имеются и аналоговые (VGA). Монитор с аналоговым VGA-разъемом подключается к DVI-I через специальный переходник;
  • разновидностью DVI является интерфейс Dual-Link DVI, обеспечивающий поддержку высокого разрешения (выше 1920 х 1200) по цифровому выходу DVI. Физически Dual-Link DVI является объединением двух отдельных каналов DVI в одном кабеле, что удваивает его пропускную способность;
  • мультимедийный интерфейс HDMI (High Definition Multimedia Interface) присутствует в некоторых новых видеокартах, телевизорах и других домашних мультимедийных устройствах. Главная особенность HDMI - возможность передавать по одному кабелю на расстояние до 10 м наряду с цифровым видеосигналом еще и аудио без потери качества. Благодаря этому количество соединительных проводов (настоящий бич современных мультимедийных систем) существенно уменьшается.

Драйверы видеокарт

Вопрос: Какой драйвер для видеокарты лучше использовать?
Ответ: Все видеокарты, включая даже самые скудные OEM-комплектации, имеют компакт-диск с драйверами. Однако пользоваться этими драйверами не рекомендуется - практически все они устаревших (порой, сильно устаревших) версий. Такая картина и с драйверами, которые можно найти на сайте производителя видеокарты - за редким исключением там имеются устаревшие версии референсных драйверов от производителя видеочипа (это не касается видеокарт в ноутбуках, которые обычно поддерживают только собственные драйвера от производителя ноутбука). Таким образом, остается один путь получения последних версий драйвера для вашей видеокарты - скачать референсный драйвер непосредственно от производителя GPU - AMD Catalyst или NVIDIA Detonator/ForceWare. В большинстве случаев, это будет лучшим выбором, особенно, если достаточно новая видеокарта. Если важна стабильность системы, а не пара лишних "попугаев" в бенчмарках, желательно использовать драйвер последней финальной версии, а не бета. Кроме того, он должен иметь сертификат WHQL (Windows Hardware Quality Lab), который получают программные продукты, протестированные в специальной лаборатории Microsoft на предмет их совместимости с операционными системами Windows. Если возраст видеокарты достаточно солидный, и вы не игрок, то есть не особо нужен весь спектр ее 3D-функций, тогда вполне достаточно драйвера, установленного операционной системой. Вопрос: Что такое альтернативные драйверы?
Ответ: Альтернативные (или оптимизированные) драйверы для видеокарт на чипах AMD и NVIDIA (Omega, DNA, NGO), созданы независимыми разработчиками на базе референсных драйверов и, по их мнению, обеспечивают большую производительность, чем оригинальные. Но в большинстве случаев, выгоды от использования альтернативных драйверов нет - прирост производительности если и есть, то незначительный, зато проблем может появиться предостаточно. Широкое использование не до конца отлаженных бета-версий референсных драйверов, а также некоторых недокументированных настроек видеокарты зачастую приводит к появлению артефактов изображения, а также к общей нестабильности системы. Так что пользоваться альтернативными драйверами рекомендуется исключительно любителям приключений определенного рода. Вопрос: Как правильно установить драйвер?
Ответ: Перед установкой драйвера видеокарты, прежде всего, следует убедиться, что, во-первых, предыдущие версии драйвера удалены из системы и, во-вторых, установлены свежие версии различных сервисных пакетов (Service Pack 2 для Windows XP, DirectX, пакеты драйверов Intel Chipset Software Installation Utility, NVIDIA Drivers или VIA Hyperion Pro для материнских плат на чипсетах Intel, NVIDIA или VIA, соответственно). После этого следует обновить (через систему Windows Update) все апдейты системы безопасности и совместимости, и лишь затем можно приступать к установке драйвера видеокарты. Практически все современные драйверы являются самоустанавливающимися, поэтому проблем с их установкой не возникает даже у начинающих - следует лишь правильно отвечать на задаваемые вопросы. После установки драйверов следует перезагрузить компьютер, после чего процедуру установки драйверов можно считать законченной. Вопрос: Как корректно удалить старый драйвер?
Ответ: Корректное удаление драйвера видеокарты подразумевает полную очистку системы от любых его следов, что стандартному апплету Windows "Установка и удаление программ" не под силу. Ручная чистка реестра Windows очень трудоемкая и чревата опасностью безвозвратной гибели системы. Поэтому наилучшим выходом для начинающих будет использование специализированных утилит, специально разработанных для максимально корректного удаления драйверов из системы. Например, бесплатной программой Driver Cleaner Professional Edition.

Разгон видеокарт

  1. у вас noname-карта. Чаще всего такие карты комплектуются самыми дешевыми, подчас, низкокачественными элементами и чрезвычайно медленной памятью. Такие поделки и на штатных частотах работают с проблемами, что уж говорить о разгоне;
  2. у вас флагманская модель линейки, пусть даже и весьма уважаемого производителя. В этом случае, мы имеем другую крайность - все компоненты карты, без сомнения, самого высокого качества, однако они изначально работают на режимах, близких к предельным;
  3. Ваша видеокарта представляет собой урезанный вариант нормальной видеокарты (например, с уменьшенной со 128 бит до 64 бит шириной шины памяти). Хотя такие предельно упрощенные и относительно дешевые решения встречаются у многих, даже весьма приличных, производителей, помните, что издеваться над инвалидами - грешно.

Глоссарий 3D-терминов

Подробно растолковать смысл основных 3D-терминов, без знания которых невозможно серьезное знакомство с предметом обсуждения, поможет статья "Глоссарий современной 3D-терминологии".

Думаю, для большинства пользователей это уже не секрет, но все-таки мы рассмотрим, и вникнемся за что отвечают те или иные блоки и сами гигабайты.

Начнем с основных характеристик всех видеоадаптеров.
  • Ширина шины памяти , измеряется в битах — количество бит информации, передаваемой за такт. Важный параметр в производительности карты.
  • объём видеопамяти , измеряется в мегабайтах — объём собственной оперативной памяти видеокарты. Больший объём далеко не всегда означает большую производительность.
  • частоты ядра и памяти — измеряются в мегагерцах, чем больше, тем быстрее видеокарта будет обрабатывать информацию.
  • текстурнаяипиксельнаяскорость заполнения , измеряется в млн. пикселей в секунду, показывает количество выводимой информации в единицу времени.
И перейдем к самым важным, особенно для игровых видеокарт
  • Количество вычислительных (шейдерных) блоков или процессоров
  • Блоки текстурирования (TMU)
  • Блоки операций растеризации (ROP)
  • И пожалуй тип памяти (GDDR-X или HBM-X)
Теперь немного разжуем, что это и какие задачи выполняет.
  • Количество вычислительных (шейдерных) блоков или процессоров

Пожалуй, сейчас эти блоки — главные части видеочипа. Они выполняют специальные программы, известные как шейдеры. Причём, если раньше пиксельные шейдеры выполняли блоки пиксельных шейдеров, а вершинные — вершинные блоки, то с некоторого времени графические архитектуры были унифицированы, и эти универсальные вычислительные блоки стали заниматься различными расчётами: вершинными, пиксельными, геометрическими и даже универсальными вычислениями.

Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360 , этот графический процессор был разработан компанией ATI (впоследствии купленной AMD ). А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились ещё в плате NVIDIA GeForce 8800 . И с тех пор все новые видеочипы основаны на унифицированной архитектуре, которая имеет универсальный код для разных шейдерных программ (вершинных, пиксельных, геометрических и пр.), и соответствующие унифицированные процессоры могут выполнить любые программы.

По числу вычислительных блоков и их частоте можно сравнивать математическую производительность разных видеокарт. Большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров, поэтому количество этих блоков весьма важно. К примеру, если одна модель видеокарты основана на GPU с 384 вычислительными процессорами в его составе, а другая из той же линейки имеет GPU с 192 вычислительными блоками, то при равной частоте вторая будет вдвое медленнее обрабатывать любой тип шейдеров, и в целом будет настолько же производительнее.

Эти блоки GPU работают совместно с вычислительными процессорами, ими осуществляется выборка и фильтрация текстурных и прочих данных, необходимых для построения сцены и универсальных вычислений. Число текстурных блоков в видеочипе определяет текстурную производительность — то есть скорость выборки текселей из текстур.

Хотя в последнее время больший упор делается на математические расчеты, а часть текстур заменяется процедурными, нагрузка на блоки TMU и сейчас довольно велика, так как кроме основных текстур, выборки необходимо делать и из карт нормалей и смещений, а также внеэкранных буферов рендеринга render target.

С учётом упора многих игр в том числе и в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность также являются одними из важнейших параметров для видеочипов. Особенное влияние этот параметр оказывает на скорость рендеринга картинки при использовании анизотропной фильтрации, требующие дополнительных текстурных выборок, а также при сложных алгоритмах мягких теней и новомодных алгоритмах вроде Screen Space Ambient Occlusion.

Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времён. И хотя в последнее время её значение также несколько снизилось, всё ещё попадаются случаи, когда производительность приложений зависит от скорости и количества блоков ROP. Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.

В бюджетных видеокартах в основном стоит GDDR3 , но и бывает GDDR5 , соответственно лучше GDDR5 , но в наше время, лучший тип памяти это - GDDR6 или HBM2 (пока слишком дорогая).

Это пусть и не самый главный, но далеко не маловажный аспект в видеопамяти, благодаря охлаждению, будут более приемлемые температуры и более низкий уровень шума. Что сделает видеокарту, более приятной и не сбрасывающей вольтаж/частоты, соответственно подарит ей более стабильную и долгую работу.

Ну и не забываем про тип подключения основной - PCI-Express х16 3.0 пока что, но уже у AMD есть PCI-Express х16 4.0 и к примеру для RX 5500 XT этот параметр важен, видеокарта становится производительнее до 40% , но это особенность видеокарты, ведь дорожек у нее не ( х16 ), а всего ( х8 ).

Вывод таков, всегда выбирайте те или иные видеокарты с умом, и желательно предварительно просматривать тесты в играх, которые необходимы, или можете захватить сразу все, чтобы было видно результат "на лицо".

Чем отличаются поколения видеопамяти

Память, будь то оперативная память или видеопамять, является неотъемлемой частью современного компьютера. Сегодня вкратце узнаем, как все начиналось, как работает, почему диагностические программы показывают неверные частоты, в чем измеряется производительность памяти, как рассчитывается пропускная способность памяти и почему «МГц» для памяти — некорректное выражение.

До 2000-ых годов использовалась оперативная память стандарта SDR.

Потом ей на смену пришел новый стандарт памяти — DDR, который имел удвоенную пропускную способность памяти за счет передачи данных как по восходящим, так и по нисходящим фронтам тактового сигнала. Первоначально память такого типа, как и SDR, применялась в видеоплатах, но позднее появилась поддержка со стороны чипсетов.

DDR (Double Data Rate) расшифровывается как «удвоенная скорость передачи данных».

Таким образом, за один такт передается вдвое больше информации. Увеличилось количество передаваемой информации, реальная частота памяти осталась неизменной. Вместе с этим появилось такие понятия как эффективная частота, которая стала в два раза больше реальной.


Именно с приходом стандарта DDR появилась путаница с реальной и эффективной частотой работы памяти.

Реальная частота — частота шины модуля памяти. Эффективная частота — удвоенная частота шины модуля.


Как можно видеть, реальная частота памяти составляет 1900 МГц, в то время как эффективная в 2 раза больше — 3800 МГц, потому что за один такт теперь поступает вдвое больше данных.

Для того чтобы информация передавалась с удвоенной скоростью, она должна поступать из массива памяти вдвое быстрее. Реализовали это с помощью удвоения внутренней ширины модуля памяти. Благодаря чему за одну команду чтения мы стали получать сразу 2n единицы данных. Для стандарта DDR n = 1. Такая архитектура была названа n-prefetch (предвыборка). У памяти стандарта DDR, одной командой, при чтении, передается от ядра к буферу ввода-вывода две единицы данных.

Вместе с ростом производительности уменьшилось рабочее напряжение с 3.3V у SDR до 2.5V у DDR. Это позволило снизить энергопотребление и температуру, что дало возможность повысить рабочие частоты. На самом деле, потребление и, как следствие, нагрев, — это одна из самых больших проблем оперативной памяти того времени. При полном чтении всего модуля объемом 2 Гбайта память потребляет до 25 Ватт.

Оперативная память стандарта DDR2 пришла на смену стандарту DDR в 2003 году, правда, поддерживающие ее чипсеты появились годом позже. Основное отличие DDR2 от DDR заключается в увеличенной вдвое частоте работы внутренней шины, по которой данные поступают в буфер «ввод-вывод». Передача на внутреннюю шину теперь осуществляется по технологии (4n-Prefetch), одной командой из массива памяти к буферу поступает 4 единицы данных.

Таким способом удалось поднять пропускную способность в два раза, не увеличивая частоту работы чипов памяти. Это выгодно с точки зрения энергоэффективности, да и количество годных чипов, способных работать на меньшей частоте, всегда больше. Однако у данного способа увеличения производительности есть и минусы: при одинаковой частоте работы DDR2 и DDR временные задержки у DDR2 будут значительно выше, компенсировать которые можно только на более высоких частотах работы.

Рабочее напряжение понизилось почти на 30% до 1.8V.

На основе стандарта DDR для видеокарт в 2000 году был разработан новый стандарт памяти GDDR.

Технически GDDR и DDR похожи, только GDDR разработан для видеокарт и предназначен для передачи очень больших объемов данных.

GDDR (Graphics Double Data Rate) расшифровывается как двойная скорость передачи графических данных.

Несмотря на то, что они используются в разных устройствах, принципы работы и технологии для них очень похожи.

Главным отличием GDDR от DDR является более высокая пропускная способность, а также другие требования к рабочему напряжению.

Разработкой стандарта видеопамяти GDDR2 занималась компания NVIDIA. Впервые она была опробована на видеокарте GeForce FX 5800 Ultra.


GDDR2 это что-то среднее между DDR и DDR2. Память GDDR2 работает при напряжении 2.5V, как и DDR, однако обладает более высокими частотами, что вызывает достаточно сильный нагрев. Это и стало настоящей проблемой GDDR2. Долго данный стандарт на рынке не задержался.

Буквально чуть позже компания ATI представила GDDR3, в которой использовались все наработки DDR2. В GDDR3, как и DDR2, реализована технология 4n-Prefetch при операции записи данных. Память работала при напряжении 2V, что позволило решить проблему перегрева, и обладала примерно на 50% большей пропускной способностью, чем GDDR2. Несмотря на то, что разработкой стандарта занималась ATI, впервые его применила NVIDIA на обновленной видеокарте GeForce FX 5700 Ultra. Это дало возможность уменьшить общее энергопотребление видеокарты примерно на 15% по сравнению с GeForce FX 5700 Ultra с использованием памяти GDDR2.

Современные типы видеопамяти

На сегодняшний день наиболее распространенными типами видеопамяти являются GDDR5 и GDDR6, однако до сих пор в бюджетных решениях можно встретить память типа GDDR3-GDDR4 и даже DDR3.

GDDR3

GDDR4

Стандарт GDDR5 появился в 2008 году и пришел на смену стандарту GDDR4, который просуществовал совсем недолго, так и не получив широкое распространение вследствие не лучшего соотношения цена/производительность.

GDDR5X — улучшенная версия GDDR5, которая обеспечивает на 50% большую скорость передачи данных. Это было достигнуто за счет использования более высокой предварительной выборки. В отличие от GDDR5, GDDR5X использует архитектуру 16n Prefetch.

GDDR5X способна функционировать на эффективной частоте до 11 ГГц. Данная память использовалась только для топовых решений NVIDIA 10 серии GTX1080 и GTX1080Ti.


Память стандарт GDDR6 появился в 2018 году. GDDR6, как и GDDR5X, имеет архитектуру 16n Prefetch, но она разделена на два канала. Хотя это не улучшает скорость передачи данных по сравнению GDDR5X, оно позволяет обеспечить большую универсальность.

Сейчас данная память активно используется обоими производителями видеокарт в новой линейке NVIDIA серий GeForce 20 и 16 (кроме некоторых решений: GTX 1660 и GTX 1650, так как в них используется память GDDR5). При покупке нужно внимательно изучить характеристики видеокарты, потому как разница в производительности от типа памяти в данном случаи достигает от 5 до 15%. В то время как разница в цене совершенно несущественна.

GDDR5

GDDR6

Также тип памяти GDDR6 активно используется компанией AMD в видеокартах RX 5000 серии.

На начальном этапе GDDR6 способна функционировать с эффективной частотой 14 ГГц. Это позволяет удвоить пропускную способность относительно GDDR5. В дальнейшем эффективная частота будет увеличена, как это происходило с другими типами памяти.


Память видеокарты является одним из ключевых её параметров. Не менее важным аспектом определяется ещё и её частота. Если вы выбираете себе модуль для компьютера, очень важно внимательно проследить за тем, чтобы приобретаемые комплектующие имели достойные характеристики и были совместимы друг с другом. Ниже я расскажу, на что влияет частота памяти видеокарты

Влияние частоты видеопамяти

Как вы понимаете, каждая модель видеокарты имеет встроенную оперативную память. Другими словами это видеопамять. При этом она имеет аббревиатуру GDDR, что расшифровывается как «графическая удвоенная передача данных».

Такой принцип обозначения обеспечивает понимание того, что вы работаете не с оперативной, а с видеопамятью. Она имеет более высокую частоту. Как следствие, за счёт этого гарантируется быстродействие графического чипа, а также работа с большим объёмом данных. Мощная видеокарта легко обрабатывает всю информацию и выводит её на экран.

На что влияет частота памяти видеокарты

Пропускная способность памяти

Первый важный момент касательно аспекта влияния затрагивает тактовую частоту видеопамяти. Именно она определяет то, какой будет пропускная способность (ПСП).

На что влияет частота памяти видеокарты

Между тем, высокое значение ПСП – это, в большинстве случаев, возможность получения достойных результатов в плане производительности, если идёт взаимодействие с графикой формата 3D.

Дополнительная информация! Это действительно актуальный пункт, так как на данный момент существует огромное количество игр в формате 3D, а также программ, которые с ним работают.

Ширина шины памяти

Ширина шины памяти, а также её частота – это те параметры, которые имеют ещё большее значение. Так как именно они определяют то, насколько окажется эффективной та или иная тактовая частота видеопамяти.

Идея мысли, описанной выше, заключается в том, чтобы при выборе подходящей модели для своего ПК нужно обращать внимание на все параметры, включая ширину шины памяти. От этого будут зависеть дальнейшие результаты работы с требовательными программами и играми.

Пример выглядит следующим образом. Если вы купите видеокарту, которая имеет 4 ГБ видеопамяти, вы можете подумать, что сделали выбор в пользу мощного модуля. Но это будет далеко не так в том случае, если при этом окажется, что у неё 64-битная шина.

Обратите внимание! Данное явление распространено, поэтому вы должны быть внимательны. Маркетологи будут убеждать вас в том, что именно 4 ГБ видеопамяти делают продукт предельно мощным. Однако, установленная шина не сможет пропускать такой большой поток видеоданных, из-за чего производительность окажется минимальной.

Чтобы не столкнуться с неприятностями, нужно всего лишь тщательно подойти к вопросу выбора модели. Очень важно, чтобы ширины шины и частота видеопамяти были в балансе между собой.

В современном стандарте GDDR5 имеется возможность сделать эффективную частоту памяти больше её реальной в 4 раза. Но вам не стоит думать о том, что лично вы будете постоянно выполнять все подсчёты и держать формулу у себя в голове.

На данный момент времени производители изначально указывают уже умноженную частоту памяти видеокарты. То есть, другими словами они пишут настоящий показатель.

Параметры битности шины

Если рассматривать возможные параметры, то это:

  • Ширина шины от 64 до 256 бит. Это стандартный вариант, который подойдёт обычным пользователям, не выполняющим глобальные вычисления в научной сфере.
  • Ширина в размере 352 бит. Такой вариант будет актуален в случае с самыми требовательными играми, которые существуют на данный момент.

Важно! Если говорить о стоимости, то продукт с шириной шины 352 бита будет стоить крайне дорого, поэтому целесообразность его покупки часто не подтверждается.

На что влияет частота памяти видеокарты

Более детально озвучивая нужные параметры под те или иные потребности, можно выделить ряд ситуаций:

  • Работа в офисе, взаимодействие исключительно с документами и браузером. При таком формате нагрузка является минимальной. Как итог, модель с 64-битной шиной будет наиболее уместной.

На что влияет частота памяти видеокарты

  • Если вы хотите изредка играть в какие-то игры не самого нового образца, подойдут модели, где 128 или же 192-битная шина.

На что влияет частота памяти видеокарты

  • Имея цель осваивать самые свежие продукты на рынке, выбирайте видеокарту с шириной шины, величина которой составляет 256 бит.

На что влияет частота памяти видеокарты

Обратите внимание! Если вы покупаете видеокарту для последнего из описанных случаев, следите за тем, чтобы объём памяти был достойным. 1 ГБ на данный момент времени уже не даст нужной производительности. Нормальный вариант – это от 2 ГБ и выше. Тогда работа с требовательным софтом и играми будет комфортной.

Расчёт ПСП

Можно смоделировать ситуацию, при которой у вас есть две модели видеокарты. Первая имеет в комплекте память стандарта GDDR5. Эффективная тактовая частота составляет 1333 МГц (реальная частота – это результат её деления на 4), а ширина шины составляет 256 бит. Вторая модель включает в себя шину шириной 128 бит и эффективную частоту памяти 1600 МГц.

Если вы усвоили предыдущий материал, то понимаете, что более эффективным решением станет именно первая видеокарта.

В целом, для расчёта пропускной способности памяти и производительности видеочипа следует воспользоваться специальной методикой. Она заключается в том, чтобы ширину шины умножить на частоту памяти. После этого полученное значение делится на 8 (обусловлено тем, что именно столько бит содержится в 1 байте). Результат расчётов и окажется нужным показателем.

Для наглядности стоит выполнить вычисления для двух моделей, сравниваемых выше. Пропускная способность первой составляет 42,7 ГБ в 1 секунду. Для второй этот показатель составляет намного меньше – 25,6 ГБ.

Обратите внимание! Если у вас уже есть видеокарта и вы хотите узнать все её параметры, целесообразно установить программу GPU-Z, которая предоставляет все самые подробные данные, в том числе и пропускную способность.

На что влияет частота памяти видеокарты

Заключение

Подводя итог всему, что было описано выше, стоит отметить, что частота видеопамяти вместе с её влиянием на работоспособность находятся в зависимости от другого не менее важного показателя – ширины шины.

Оба параметра в сочетании формируют ту или иную пропускную способность памяти. Именно она определяет то, с какой скоростью и в каком количестве видеокарта сможет обрабатывать и передавать данные. В конечном счёте, определяется уровень комфорта работы с ПК при тех или иных нагрузках. Надеюсь, что данная статья была вам полезна и теперь вы знаете на что влияет частота памяти видеокарты

Читайте также: