Ati radeon 3000 graphics сколько памяти

Обновлено: 06.07.2024

Начнём, пожалуй, с того, что полное название рассматриваемой нами технологии – AMD CrossFire X. Приставку «X» на конце она получила сравнительно недавно, когда новоиспечённый производитель видеокарт решил, что двух видеокарт в связке может быть недостаточно, и их должно быть больше. Так и получилась CrossFire X, технология, позволяющая объединять между собой не только две, но и три или четыре видеокарты. Однако рассматривать мы сегодня будем связку из двух карт, наиболее доступный и простой вариант. Рассказ о технологии CrossFire мы начнем с небольшого экскурса в историю. Итак, давным-давно, в далёком 2004 году, компания NVIDIA анонсировала технологию SLI, которая позволяла двум (а ныне и более) видеокартам с интерфейсом PCI-Express и разъёмом MIO работать в связке друг с другом, что могло значительно повысить быстродействие в 3D-графике. Тогдашняя ATI, входящая ныне в состав компании AMD, не осталась равнодушной к технологии конкурента и, дабы не остаться за бортом, анонсировала собственную технологию объединения видеокарт под рабочим названием ATI Multi-Rendering (AMR). После этого по сети стало ходило много слухов, появлялись фотографии видеокарт и материнских плат, спроектированных под новую технологию. Конечно, не все новинки увидели свет, как, например, материнская плата на чипсете VIA с двумя слотами PCI-Express x16, фотографии которой два раза появлялись в сети. Наконец, в первой половине 2005 года со слухами было покончено, ATI Multi-Rendering переименовали в ATI CrossFire, произнесли много хвалебных речей, например, что она лучше, чем технология конкурента и т.д. Эх, есть, точнее, было у компаний ATI и AMD что-то общее, поскольку обе, порой, обещали революцию, а в результате выходила лишь демонстрация с выкрикиванием красивых лозунгов. Так технология CrossFire и не стала массовой, вернее, не обрела такой же популярности, как NVIDIA SLI. А всё потому, что новинка от ATI требовала двух разных видеокарт, ведущей, со специальным разъёмом и дополнительной начинкой для согласования получаемого изображения, и ведомой, более простой. Как вы, наверное, уже догадались, ведущие видеокарты были более дорогими и в продаже встречались реже, чем ведомые. В отличие от карт NVIDIA, для создания связки из которых требовалось просто две одинаковые видеокарты. В придачу к этому, у технологии CrossFire были серьёзные проблемы из-за драйверов, причем решались они гораздо медленнее, чем схожие проблемы у конкурента. Как это было, вы можете узнать из нашей статьи тех времён, а мы продолжим. Появление в 2006 году видеокарт ATI Radeon 1950Pro и ATI Radeon 1650XT сделало технологию CrossFire «ближе к народу», поскольку новые видеокарты более не делились на ведущих и ведомых, а стали совершенно одинаковыми и для объединения требовали два соединительных мостика, наподобие NVIDIA SLI. Единственное «но» в этом то, что для работы CrossFire требуется материнская плата с сертифицированным чипсетом. Впрочем, у NVIDIA - такая же история, так что ATI не стала белой вороной в этом плане. Список ограничился чипсетами ATI и Intel, что не изменилось и по сей день. Затем свершилась громкая сделка по поглощению компании ATI компанией AMD, что, по всей видимости, вызвало некоторые трудности (а куда без них?) у нового графического подразделения компании AMD, т.е. бывшей ATI. Время шло, а максимум, что мы видели и слышали от компании AMD, это фотографии инженерных образцов видеокарты на базе «революционного» графического процессора R600 (с первым чипом от AMD с поддержкой DirectX 10) и очередные переносы его анонса. И вот, компания NVIDIA анонсировала GeForce 8800GTX, видеокарту на базе графического процессора G80, первого в мире с поддержкой DirectX 10 и по-настоящему высочайшей производительностью. Собственно, GeForce 8800GTX и по сей день занимает первые места, поэтому нет ничего удивительного в том, что она поставила крест на всех Hi-End видеокартах от AMD. Даже вышедшая через полгода AMD Radeon HD2900XT, долгожданный флагман компании на базе чипа R600 с поддержкой DirectX 10, так и не изменила положения вещей, оказавшись значительно слабее конкурента от NVIDIA. Однако AMD решила брать количеством, противопоставив конкуренту связку CrossFire. Видеокарта Radeon HD2900XT так и не снискала популярности; не только по причине своей «прожорливости» и чрезмерного тепловыделения, но и из-за немалой цены. Прорывом для AMD стало новое семейство Radeon HD3000, включающее в себя (на данный момент) видеокарты Radeon HD3850 и Radeon HD3870, которые имеют умеренное энергопотребление и тепловыделение, и при этом ничуть не уступают предшественнику в производительности. Цена, само собой, тоже понизилась, что позволило AMD отвоевать некоторую долю рынка у конкурента. Конечно же, недорогие видеокарты как нельзя кстати подошли под концепцию CrossFire как конкурента NVIDIA, ведь, к примеру, пара Radeon HD3850 стоит дешевле GeForce 8800GTX, а по производительности, теоретически, может её даже обойти. Но подобные технологии очень сильно зависят от драйверов, поэтому на практике всё может оказаться не столь хорошо, как задумывалось, что мы и проверим. Итак, в нашем сегодняшнем тестировании будут принимать участие следующие видеокарты: AMD Radeon HD3870, представленные картами от Sapphire, уже изученной нами ранее, и Gigabyte, о которой мы скажем пару слов ниже. Видеокарта Gigabyte HD3870 поступила к нам в обычном антистатическом пакете, поэтому познакомить вас с её розничной упаковкой и комплектацией мы не можем. Однако, несмотря на это, видеокарта заслуживает внимания.

Перед нами - эталонная видеокарта Radeon HD3870 с той лишь разницей, что на ней имеется несколько наклеек от Gigabyte. Кстати, судя по наклейке на системе охлаждения, в комплекте с картой должна быть игра Neverwinter Nights 2.

Обратная сторона видеокарты вообще не имеет отличий от эталонного образчика. Зеленая наклейка содержит название и характеристики видеокарты, т.е. что это Radeon HD3870 с 512 Мб DDR4 видеопамяти. Продолжим разговор об участниках тестирования. Помимо двух топовых видеокарт Radeon HD3870, цены на которые, увы, порой не соответствуют рекомендованным, в нашем тестировании участвует пара более дешевых видеокарт Radeon HD3850, а в качестве эксперимента мы попробуем объединить одну из новых карт с Radeon HD2900XT 512 Мб. Говорят, что должно работать; вот мы это и проверим.

ATI начала продажи Radeon 3000 IGP в 2009. Это десктопная видеокарта на архитектуре TeraScale и техпроцессе 65 нм, в первую очередь рассчитанная на геймеров.

С точки зрения совместимости это встроенная видеокарта.

У нас нет данных о результатах тестирования Radeon 3000 IGP.

Общая информация

Сведения о типе (для десктопов или ноутбуков) и архитектуре Radeon 3000 IGP, а также о времени начала продаж и стоимости на тот момент.

Место в рейтинге производительности не участвует
АрхитектураTeraScale
Графический процессорRS780
ТипДесктопная
Дата выхода2009 (12 лет назад)

Характеристики

Общие параметры Radeon 3000 IGP: количество шейдеров, частота видеоядра, техпроцесс, скорость текстурирования и вычислений. Они косвенным образом говорят о производительности Radeon 3000 IGP, но для точной оценки необходимо рассматривать результаты бенчмарков и игровых тестов.

Количество потоковых процессоров40из 15360 (Radeon RX 7900 XT)
Частота ядра350 МГциз 2233 (Playstation 5 GPU)
Количество транзисторов180 млниз 14400 (GeForce GTX 1080 SLI (мобильная))
Технологический процесс65 нмиз 5 (Apple M1 GPU)
Скорость текстурирования1.400из 779.2 (Radeon RX 6900 XTX)

Совместимость и размеры

Параметры, отвечающие за совместимость Radeon 3000 IGP с остальными компонентами компьютера. Пригодятся например при выборе конфигурации будущего компьютера или для апгрейда существующего. Для десктопных видеокарт это интерфейс и шина подключения (совместимость с материнской платой), физические размеры видеокарты (совместимость с материнской платой и корпусом), дополнительные разъемы питания (совместимость с блоком питания).

ИнтерфейсPCIe 1.0 x16

Оперативная память

Параметры установленной на Radeon 3000 IGP памяти - тип, объем, шина, частота и пропускная способность. Для встроенных в процессор видеокарт, не имеющих собственной памяти, используется разделяемая - часть оперативной памяти.

Тип памятиИспользуется системная

Видеовыходы

Перечисляются имеющиеся на Radeon 3000 IGP видеоразъемы. Как правило, этот раздел актуален только для десктопных референсных видеокарт, так как для ноутбучных наличие тех или иных видеовыходов зависит от модели ноутбука.

ВидеоразъемыNo outputs

Поддержка API

Перечислены поддерживаемые Radeon 3000 IGP API, включая их версии.

DirectX10.0 (10_0)
Шейдерная модель4.1
OpenGL3.3из 4.6 (GeForce GTX 1080 (мобильная))
OpenCL1.0
VulkanN/A

Конкурент от NVIDIA

Мы полагаем, что ближайшим конкурентом Radeon 3000 IGP от компании NVIDIA является GeForce 8400 GS.

Другие видеокарты

Здесь мы рекомендуем несколько видеокарт, более или менее близких по производительности к рассмотренной.

Оценка пользователями

Здесь Вы можете посмотреть оценку видеокарты пользователями, а также поставить свою оценку.

Как вы оцениваете видеокарту ATI Radeon 3000 IGP

Советы и комментарии

Здесь можно задать вопрос о Radeon 3000 IGP, согласиться или не согласиться с нашими оценками, или сообщить об ошибках и неточностях на сайте.

Intel HD Graphics 200

Intel HD Graphics 3000 (или Intel Graphics Media Accelerator HD 3000, GMA HD 3000) - встроенная графическая карта, которая только готовится к выходу, предназначенная для процессоров под кодовым названием Sandy Bridge. Она должна быть представлена в начале 2011 и использоваться вместе с мобильными процессорами Core i7-2920XM, 2820QM, 2720QM и Core i5-2540M, 2520M. HD Graphics 3000 не имеет дискретной графической памяти, но использует кэш-память третьего уровня совместно с ядром центрального процессора, а также часть оперативной памяти. Благодаря технологии TurboBoost, видеоадаптер может быть разогнан в зависимости от текущей нагрузки на процессор и уровня потребления электроэнергии. GMA HD 3000 имеет 12 вычислительных блоков (EU), также как и более старая карта Intel GMA HD, но по слухам произошли довольно существенные изменения в архитектуре.

Первое тестирование видеокарты (с версией для настольного ПК без TurboBoost), показало, что игровая производительность находится на уровне с картой ATI Radeon HD 5450 для настольных компьютеров (сравнимой с Mobility Radeon HD 5450). При низкой детализации 1024x768 видеоадаптер HD Graphics 200 был быстрее, чем 5450 в играх Batham, Dragon Origins, Call Duty MW2 и Bioshock 2. В Dawn War 2 и Hawx видеокарта Intel Graphics проявила себя немного хуже. Компания Intel также проводила некоторые тесты на выставке IDF 2010, и показывала работоспособность карты в игре Starcraft 2 на средних настройках. Это значит, что GMA HD 3000 должна быть способна поддерживать современные игры на низких/средних настройках без каких либо проблем (аналогично поддержке игр картой 5450).

В дополнение к графическому процессору, чип также имеет некоторые дискретные единицы для декодирования и кодирования HD видео. На IDF Intel продемонстрировала кодирование 3 минутного ролика 1080p в формат совместимый с iPhone с разрешением 640x360 всего за 14 секунд. Другая инновация графического процессора Sandy Bridge - встроенный DisplayPort eDP, для подсоединения внутреннего дисплея.

Благодаря интеграции в 32 нм процессор, потребление электроэнергии видеоадаптером должно быть совсем низким. Процессоры серий LV и ULV пока что оснащаются только 6 ядерной версией графической карты Intel HD Graphics 2000.


Intel HD Graphics 3000 – интегрированное графическое ядро, встраиваемое в центральные процессоры. В основном данный графический чип встраивается в старшие модели Intel Core i3, Core i5 и Core i7 поколения Sandy Bridge (второе поколение intel core i).

Технические характеристики

Характеристики HD Graphics 3000 несколько выше, нежели у его более младшего собрата (HD Graphics 2000), хотя и не на много. Но в целом чип по прежнему не выделяется ничем особенным.

Максимальная рабочая частота видеоадаптера достигает отметки в 1350MHz (реальное значение зависит от процессора, в паре с которым будет работать графический чип). HD Graphics 3000 оснащён неплохим количеством универсальных процессоров (12).

Память

Объём памяти зависит от выделенной для графического ядра ОЗУ, ведь интегрированные видеокарты не обладают собственной видеопамятью. То, сколько именно будет отдано оперативной памяти под нужды графического адаптера, зависит от настроек BIOS, но слишком большой объём выделить не получится, как бы вы этого не хотели.

Скорость работы видеокарты зависит от частоты и таймингов планок ОЗУ, используемых на компьютере. Это является слабым местом всех интегрированных решений, Intel HD Graphics 3000 не стал исключением. Разрядность шины составляет 64 бита, что невероятно мало.

По поддерживаемым API всё достаточно печально, вы сможете использовать DirectX 10.1 и OpenGL 3.3 (в Windows поддерживается лишь OpenGL 3.1). На текущий момент данные API безнадёжно устарели. В плане возможностей по монтажу и работе с графикой тоже всё плохо, поддержки Cuda или OpenCL тут нет, остаётся довольствоваться лишь наличием Quick Sync, а данный декодер поддерживается далеко не всеми программами. Хотя возможностей интегрированной графики недостаточно для полноценного монтажа видео.

С какими задачами справится такая видеокарта?

Работа с офисными приложениями, использование компьютера для выхода в интернет, просмотр HD/FullHD видео, фильмов или мультфильмов, базовая работа с графикой или монтажными приложениями, запуск старых игр — приблизительно весь список того, что может Intel HD Graphics 3000.

На большее можете даже не рассчитывать, такие фишки дискретных видеокарт, как разгон, тут полностью отсутствуют. Частично заменить разгон может технология Turbo Boost, хотя не стоит на неё возлагать большие надежды, внушительной прибавки к производительности она не даст.

Игровые возможности видеоадаптера

Если речь идёт исключительно о новинках игровой индустрии, то об этом можно полностью забыть. Очень мало какие игры пойдут на Intel HD Graphics 3000 по причине отсутствия поддержки современных API и слабой производительности.

Со старыми играми ситуация значительно лучше, большинство из них запустится и будут работать без проблем. Но тут имеются некоторые исключения, которые отлично работают на более слабых и старых дискретных решениях, но отказываются нормально запускаться на Intel HD Graphics.

Что с драйверами?

Хотя устанавливается драйвер очень просто, для этого достаточно перейти на сайт intel и загрузить необходимое ПО. Обновление драйверов также проблем не вызовет, всё интуитивно понятно. Для установки новой версии драйвера можно воспользоваться настройками Intel или вручную скачать обновлённый установочный пакет с официального сайта.

Для Linux отсутствует драйвер от производителя, вместо него используется свободное решение, идущее вместе с библиотеками Mesa3D. Обновление происходит автоматически, но если вы захотите обновиться вручную, придётся устанавливать последнюю версию Mesa3D и ядра Linux.

Сравнение с дискретными аналогами

Если проводить сравнение с видеокартами, то приблизительно равными по производительности являются бюджетные модели 4 или 5 поколения Nvidia, а также бюджетные модели Radeon HD 5 или 6 поколения. С данными видеоадаптерами Intel HD Graphics 3000 находится в паритете, более быстрые и мощные решения не оставят даже малейшего шанса интегрированному чипу, но и стоить такие видеокарты будут достаточно ощутимо.

Вывод

Intel HD Graphics 3000 – отличный выбор, если вам нужна офисная рабочая лошадка, а на покупку отдельной видеокарты нет никакого желания. Если вы не хотите играть в новинки или другие требовательные проекты, компьютер с интегрированным графическим чипом будет радовать вас долгое время.

Хардкорным геймерам и другим любителям играть в новинки не стоит даже смотреть в сторону HD Graphics 3000, видеокарта не сможет удовлетворить ваши потребности.

Читайте также: