Графическое ядро в процессоре что это такое

Обновлено: 07.07.2024

Объяснение интегрированных графических систем и дискретных графических систем.

В чем разница между интегрированной и дискретной графикой?

Графический процессор (ГП) — это процессор, предназначенный исключительно для операций обработки графических систем. Одна из основных функций графического процессора — это укушение нагрузки на центральный процессор, особенно при интенсивной игре или приложении графической системы.
ГП может быть интегрирован или дискретным. Более подробную информацию см. ниже.

Интегрированная графическая система
Интегрированная графическая система — это графический процессор, встроенный в процессор. Интегрированное графическое аппаратное обеспечение не использует отдельный банк памяти для графики/видео. Вместо этого ГП использует системную память, доступную для процессора. Поскольку интегрированная графическая система встроена в процессор, она обычно потребляет меньше энергии и в результате приводит к меньшему нагреву, что может привести к более длительному времени автономной работы. Процессоры со встроенной графической системой наиболее часто находятся в системах меньшего форм-фактора, таких как ноутбуки и ноутбуки® NUC.

Дискретная графика
Дискретная графическая система — это графический процессор, который является отдельной от процессора. Дискретная графика имеет свою выделенную память, которая не передается процессору. Поскольку дискретная графическая система отделена от микросхемы процессора, она потребляет больше энергии и генерирует значительный объем тепла. Однако, поскольку дискретная графическая система имеет собственный источник памяти и источник питания, она обеспечивает более высокую производительность, чем интегрированная графическая система. Дискретные графические карты наиболее часто находятся в настольных ПК. Ноутбуки и ПК малого форм-фактора также могут содержать дискретные графические карты.

Как идентифицировать, содержит ли мой компьютер интегрированную® Intel или дискретную графическую систему Intel® дискретную?
Узнайте, как идентифицировать графический контроллер Intel® Intel®.


Графические процессоры (graphics processing unit, GPU) — яркий пример того, как технология, спроектированная для задач графической обработки, распространилась на несвязанную область высокопроизводительных вычислений. Современные GPU являются сердцем множества сложнейших проектов в сфере машинного обучения и анализа данных. В нашей обзорной статье мы расскажем, как клиенты Selectel используют оборудование с GPU, и подумаем о будущем науки о данных и вычислительных устройств вместе с преподавателями Школы анализа данных Яндекс.

Графические процессоры за последние десять лет сильно изменились. Помимо колоссального прироста производительности, произошло разделение устройств по типу использования. Так, в отдельное направление выделяются видеокарты для домашних игровых систем и установок виртуальной реальности. Появляются мощные узкоспециализированные устройства: для серверных систем одним из ведущих ускорителей является NVIDIA Tesla P100, разработанный именно для промышленного использования в дата-центрах. Помимо GPU активно ведутся исследования в сфере создания нового типа процессоров, имитирующих работу головного мозга. Примером может служить однокристальная платформа Kirin 970 с собственным нейроморфным процессором для задач, связанных с нейронными сетями и распознаванием образов.

Подобная ситуация заставляет задуматься над следующими вопросами:

  • Почему сфера анализа данных и машинного обучения стала такой популярной?
  • Как графические процессоры стали доминировать на рынке оборудования для интенсивной работы с данными?
  • Какие исследования в области анализа данных будут наиболее перспективными в ближайшем будущем?

Эпоха GPU

Для начала вспомним, что же такое GPU. Graphics Processing Unit — это графический процессор широко используемый в настольных и серверных системах. Отличительной особенностью этого устройства является ориентированность на массовые параллельные вычисления. В отличие от графических процессоров архитектура другого вычислительного модуля CPU (Central Processor Unit) предназначена для последовательной обработки данных. Если количество ядер в обычном CPU измеряется десятками, то в GPU их счет идет на тысячи, что накладывает ограничения на типы выполняемых команд, однако обеспечивает высокую вычислительную производительность в задачах, включающих параллелизм.

Первые шаги

Развитие видеопроцессоров на ранних этапах было тесно связано с нарастающей потребностью в отдельном вычислительном устройстве для обработки двух и трехмерной графики. До появления отдельных схем видеоконтроллеров в 70-х годах вывод изображения осуществлялся через использование дискретной логики, что сказывалось на увеличенном энергопотреблении и больших размерах печатных плат. Специализированные микросхемы позволили выделить разработку устройств, предназначенных для работы с графикой, в отдельное направление.

Следующим революционным событием стало появление нового класса более сложных и многофункциональных устройств — видеопроцессоров. В 1996 году компания 3dfx Interactive выпустила чипсет Voodoo Graphics, который быстро занял 85% рынка специализированных видеоустройств и стал лидером в области 3D графики того времени. После серии неудачных решений менеджмента компании, среди которых была покупка производителя видеокарт STB, 3dfx уступила первенство NVIDIA и ATI (позднее AMD), а в 2002 объявила о своем банкротстве.

Общие вычисления на GPU

В 2006 году NVIDIA объявила о выпуске линейки продуктов GeForce 8 series, которая положила начало новому классу устройств, предназначенных для общих вычислений на графических процессорах (GPGPU). В ходе разработки NVIDIA пришла к пониманию, что большее число ядер, работающих на меньшей частоте, более эффективны для параллельных нагрузок, чем малое число более производительных ядер. Видеопроцессоры нового поколения обеспечили поддержку параллельных вычислений не только для обработки видеопотоков, но также для проблем, связанных с машинным обучением, линейной алгеброй, статистикой и другими научными или коммерческими задачами.


Признанный лидер

Различия в изначальной постановке задач перед CPU и GPU привели к значительным расхождениям в архитектуре устройств — высокая частота против многоядерности. Для графических процессоров это заложило вычислительный потенциал, который в полной мере реализуется в настоящее время. Видеопроцессоры с внушительным количеством более слабых вычислительных ядер отлично справляются с параллельными вычислениями. Центральный же процессор, исторически спроектированный для работы с последовательными задачами, остается лучшим в своей области.

Для примера сравним значения в производительности центрального и графического процессора на выполнении распространенной задачи в нейронных сетях — перемножении матриц высокого порядка. Выберем следующие устройства для тестирования:

  • CPU. Intel Xeon E5-2680 v4 — 28 потоков с HyperThreading, 2.4 GHZ;
  • GPU. NVIDIA GTX 1080 — 2560 CUDA Cores, 1607 Mhz, 8GB GDDR5X.


В коде выше мы измеряем время, которое потребовалось на вычисление матриц одинакового порядка на центральном или графическом процессоре («Время выполнения»). Данные можно представить в виде графика, на котором горизонтальная ось отображает порядок перемножаемых матриц, а вертикальная — Время выполнения в секундах:


Линия графика, выделенная оранжевым, показывает время, которое требуется для создания данных в обычном ОЗУ, передачу их в память GPU и последующие вычисления. Зеленая линия показывает время, которое требуется на вычисление данных, которые были сгенерированы уже в памяти видеокарты (без передачи из ОЗУ). Синяя отображает время подсчета на центральном процессоре. Матрицы порядка менее 1000 элементов перемножаются на GPU и CPU почти за одинаковое время. Разница в производительности хорошо проявляется с матрицами размерами более 2000 на 2000, когда время вычислений на CPU подскакивает до 1 секунды, а GPU остается близким к нулю.

Более сложные и практические задачи эффективнее решаются на устройстве с графическими процессорами, чем без них. Поскольку проблемы, которые решают наши клиенты на оборудовании с GPU, очень разнообразны, мы решили выяснить, какие самые популярные сценарии использования существуют.

Кому в Selectel жить хорошо с GPU?

Первый вариант, который сразу приходит на ум и оказывается правильной догадкой — это майнинг, однако любопытно отметить, что некоторые применяют его как вспомогательный способ загрузить оборудование на «максимум». В случае аренды выделенного сервера с видеокартами, время свободное от рабочих нагрузок используется для добычи криптовалют, не требующих специализированных установок (ферм) для своего получения.

Ставшие уже в какой-то степени классическими, задачи, связанные с графической обработкой и рендерингом, неизменно находят свое место на серверах Selectel с графическими ускорителями. Использование высокопроизводительного оборудования для таких задач позволяет получить более эффективное решение, чем организация выделенных рабочих мест с видеокартами.

В ходе разговора с нашими клиентами мы также познакомились с представителями Школы анализа данных Яндекс, которая использует мощности Selectel для организации тестовых учебных сред. Мы решили узнать побольше о том, чем занимаются студенты и преподаватели, какие направления машинного обучения сейчас популярны и какое будущее ожидает индустрию, после того как молодые специалисты пополнят ряды сотрудников ведущих организаций или запустят свои стартапы.

Наука о данных

Пожалуй, среди наших читателей не найдется тех, кто не слышал бы словосочетания «нейронные сети» или «машинное обучение». Отбросив маркетинговые вариации на тему этих слов, получается сухой остаток в виде зарождающейся и перспективной науки о данных.

Современный подход к работе с данными включает в себя несколько основных направлений:

  • Большие данные (Big Data). Основная проблема в данной сфере — колоссальный объем информации, который не может быть обработан на единственном сервере. С точки зрения инфраструктурного обеспечения, требуется решать задачи создания кластерных систем, масштабируемости, отказоустойчивости, и распределенного хранения данных;
  • Ресурсоемкие задачи (Машинное обучение, глубокое обучение и другие). В этом случае поднимается вопрос использования высокопроизводительных вычислений, требующих большого количества ОЗУ и процессорных ресурсов. В таких задачах активно используются системы с графическими ускорителями.

Граница между данными направления постепенно стирается: основные инструменты для работы с большими данным (Hadoop, Spark) внедряют поддержку вычислений на GPU, а задачи машинного обучения охватывают новые сферы и требуют бо́льших объемов данных. Разобраться подробнее нам помогут преподаватели и студенты Школы анализа данных.


Трудно переоценить важность грамотной работы с данными и уместного внедрения продвинутых аналитических инструментов. Речь идёт даже не о больших данных, их «озерах» или «реках», а именно об интеллектуальном взаимодействии с информацией. Происходящее сейчас представляет собой уникальную ситуацию: мы можем собирать самую разнообразную информацию и использовать продвинутые инструменты и сервисы для глубокого анализа. Бизнес внедряет подобные технологии не только для получения продвинутой аналитики, но и для создания уникального продукта в любой отрасли. Именно последний пункт во многом формирует и стимулирует рост индустрии анализа данных.

Новое направление

Повсюду нас окружает информация: от логов интернет-компаний и банковских операций до показаний в экспериментах на Большом адронном коллайдере. Умение работать с этими данными может принести миллионные прибыли и дать ответы на фундаментальные вопросы о строении Вселенной. Поэтому анализ данных стал отдельным направлением исследований среди бизнес и научного сообщества.

Школа анализа данных готовит лучших профильных специалистов и ученых, которые в будущем станут основным источником научных и индустриальных разработок в данной сфере. Развитие отрасли сказывается и на нас как на инфраструктурном провайдере — все больше клиентов запрашивают конфигурации серверов для задач анализа данных.

От специфики задач, стоящих перед нашими клиентами, зависит то, какое оборудование мы должны предлагать заказчикам и в каком направлении следует развивать нашу продуктовую линейку. Совместно со Станиславом Федотовым и Олегом Ивченко мы опросили студентов и преподавателей Школы анализа данных и выяснили, какие технологии они используют для решения практических задач.


Технологии анализа данных

За время обучения слушатели от основ (базовой высшей математики, алгоритмов и программирования) доходят до самых передовых областей машинного обучения. Мы собирали информацию по тем, в которых используются серверы с GPU:

  • Глубинное обучение;
  • Обучение с подкреплением;
  • Компьютерное зрение;
  • Автоматическая обработка текстов.


Представленные инструменты обладают разной поддержкой от создателей, но тем не менее, продолжают активно использоваться в учебных и рабочих целях. Многие из них требуют производительного оборудования для обработки задач в адекватные сроки.

Дальнейшее развитие и проекты

Как и любая наука, направление анализа данных будет изменяться. Опыт, который получают студенты сегодня, несомненно войдет в основу будущих разработок. Поэтому отдельно стоит отметить высокую практическую направленность программы — некоторые студенты во время учебы или после начинают стажироваться в Яндексе и применять свои знания уже на реальных сервисах и службах (поиск, компьютерное зрение, распознавание речи и другие).

О будущем анализа данных мы поговорили с преподавателями Школы анализа данных, которые поделились с нами своим видением развития науки о данных.

По мнению Влада Шахуро, преподавателя курса «Анализ изображений и видео», самые интересные задачи в компьютерном зрении — обеспечение безопасности в местах массового скопления людей, управление беспилотным автомобилем и создание приложение с использованием дополненной реальности. Для решения этих задач необходимо уметь качественно анализировать видеоданные и развивать в первую очередь алгоритмы детектирования и слежения за объектами, распознавания человека по лицу и трехмерной реконструкции наблюдаемой сцены. Преподаватель Виктор Лемпицкий, ведущий курс «Глубинное обучение», отдельно выделяет в своем направлении автокодировщики, а также генеративные и состязательные сети.

Один из наставников Школы анализа данных делится своим мнением касательно распространения и начала массового использования машинного обучения:

«Машинное обучение из удела немногих одержимых исследователей превращается в ещё один инструмент рядового разработчика. Раньше (например в 2012) люди писали низкоуровневый код для обучения сверточных сетей на паре видеокарт. Сейчас, кто угодно может за считанные часы:

  • скачать веса уже обученной нейросети (например, в keras);
  • сделать с ее помощью решение для своей задачи (fine-tuning, zero-shot learning);
  • встроить её в свой веб-сайт или мобильное приложение (tensorflow / caffe 2).

По мнению Ивченко Олега, администратора серверной инфраструктуры ШАД, для стандартных задач глубокого обучения на стандартных наборах данных (например, CIFAR, MNIST) требуются такие ресурсы:

  • 6 ядер CPU;
  • 16 Gb оперативной памяти;
  • 1 GPU-карточка с 6-8 Gb видеопамяти. Это соответствует таким видеокартам, как PNY NVIDIA GeForce GTX 1060 или MSI GeForce GTX 1070.

Возможности для новичков

Изучение анализа данных ограничивается высокими требованиями к обучающимся: обширные познания в области математики и алгоритмики, умение программировать. По-настоящему серьезные задачи машинного обучения требуют уже наличия специализированного оборудования. А для желающих побольше узнать о теоретической составляющей науки о данных Школой анализа данных совместно с Высшей Школой Экономики был запущен онлайн курс «Введение в машинное обучение».

Вместо заключения

Рост рынка графических процессоров обеспечивается возрастающим интересом к возможностям таких устройств. GPU применяется в домашних игровых системах, задачах рендеринга и видеообработки, а также там, где требуются общие высокопроизводительные вычисления. Практическое применение задач интеллектуального анализа данных будет проникать все глубже в нашу повседневную жизнь. И выполнение подобных программ наиболее эффективно осуществляется именно с помощью GPU.

Мы благодарим наших клиентов, а также преподавателей и студентов Школы анализа данных за совместную подготовку материала, и приглашаем наших читателей познакомиться с ними поближе.

А опытным и искушенным в сфере машинного обучения, анализа данных и не только мы предлагаем посмотреть предложения от Selectel по аренде серверного оборудования с графическми ускорителями: от простых GTX 1080 до Tesla P100 и K80 для самых требовательных задач.


Если рассуждать с точки зрения инженерного замысла, то встроенное графическое ядро, повсеместно используемое в своих продуктах компаниями Intel и AMD, не является видеокартой как таковой. Это видеочип, который интегрировали в архитектуру ЦП для исполнения базовых обязанностей дискретного ускорителя. Но давайте разбираться со всем более подробно.

История появления

Впервые компании начали внедрять графику в собственные чипы в середине 2000-х. Интел начали разработку еще с Intel GMA, однако данная технология довольно слабо себя показывала, а потому для видеоигр была непригодной. В результате на свет появляется знаменитая технология HD Graphics (на данный момент самый свежий представитель линейки – HD graphics 630 в восьмом поколении чипов Coffee Lake). Дебютировало видеоядро на архитектуре Westmere, в составе мобильных чипов Arrandale и десктопных – Clarkdale (2010 год).

AMD пошла иным путем. Сначала компания выкупила ATI Electronics, некогда крутого производителя видеокарт. Затем начала корпеть над собственной технологией AMD Fusion, создавая собственные APU – центральный процессор со встроенным видеоядром (Accelerated Processing Unit). Дебютировали чипы первого поколения в составе архитектуры Liano, а затем и Trinity. Ну а графика Radeon r7 series на долгое время прописалась в составе ноутбуков и нетбуков среднего класса.

Преимущества встроенных решений в играх

Итак. Для чего же нужна интегрированная карта и в чем заключаются ее отличия от дискретной.


Постараемся сделать сравнение с пояснением каждой позиции, сделав все максимально аргументировано. Начнем, пожалуй, с такой характеристики как производительность. Рассматривать и сравнивать будем наиболее актуальные на данный момент решения от Intel (HD 630 c частотой графического ускорителя от 350 до 1200 МГц) и AMD (Vega 11 с частотой 300-1300 Мгц), а также преимущества, которые дают эти решения.Начнем со стоимости системы. Встроенная графика позволяет неплохо сэкономить на покупке дискретного решения, вплоть до 150$, что критически важно при создании максимально экономного ПК для офисного и домашнего использования.

Частота графического ускорителя AMD заметно выше, да и производительность адаптера от красных существенно выше, что говорит о следующих показателях в тех же играх:

Как видите, Vega 11 – лучший выбор для недорогих «игровых» систем, поскольку показатели адаптера в некоторых случаях доходят до уровня полноценной GeForce GT 1050. Да и в большинстве сетевых баталий она показывает себя прекрасно.

На данный момент с этой графикой поставляется только процессор AMD Ryzen 2400G, но он определенно стоит внимания.

Вариант для офисных задач и домашнего использования

Какие требования чаще всего вы выдвигаете к своему ПК? Если исключить игры, то получится следующий набор параметров:

  • просмотр фильмов в HD-качестве и роликов на Youtube (FullHD и в редких случаях 4К);
  • работа с браузером;
  • прослушивание музыки;
  • общение с друзьями или коллегами с помощью мессенджеров;
  • разработка приложений;
  • офисные задачи (Microsoft Office и похожие программы).


Все эти пункты прекрасно работают со встроенным графическим ядром на разрешениях вплоть до FullHD. Единственный нюанс, который необходимо учитывать в обязательном порядке – поддержка видеовыходов той материнской платой, на которую вы собираетесь ставить процессор. Заранее уточните этот момент, чтобы не возникло проблем в дальнейшем.

Недостатки встроенной графики

Поскольку разобрались с плюсами, нужно проработать и недостатки решения.

  • Главный минус подобной затеи – производительность. Да, вы можете с чистой совестью играть в более-менее современные игрушки на низких и высоких настройках, однако любителям графики, такая затея точно не придется по вкусу. Ну а если вы работаете с графикой профессионально (обработка, рендеринг, монтаж видеороликов, постпродакшн), да еще и на 2-3 мониторах, то интегрированный тип видео вам точно не подойдет.


  • Момент номер 2: отсутствие собственной скоростной памяти (в современных картах это GDDR5, GDDR5X и HBM). Формально видеочип может использовать хоть до 64 ГБ памяти, однако вся она будет браться откуда? Правильно, из оперативной. А значит необходимо заранее построить систему таким образом, чтобы ОЗУ хватило и для работы, и для графических задач. Учитывайте, что скорость современных DDR4-модулей значительно ниже, нежели GDDR5, а потому времени на обработку данных будет тратиться больше.
  • Следующий недостаток – тепловыделение. Помимо собственных ядер на процессе появляется еще одно, которое, в теории, прогревается ничуть не меньше. Охлаждать все это великолепие боксовой (комплектной) вертушкой можно, но готовьтесь к периодическим занижениям частот в особо сложных расчетах. Покупка более мощного кулера решает проблему.
  • Ну и последний нюанс – невозможность апгрейда видео без замены процессора. Иными словами, чтобы улучшить встроенное видеоядро, вам придется в буквальном смысле покупать новый процессор. Сомнительная выгода, не так ли? В таком случае проще через некоторое время приобрести дискретный ускоритель. Производители вроде AMD и nVidia предлагают отличные решения на любой вкус.

Итоги

Встроенная графика – отличный вариант в 3 случаях:

  • вам необходима временная видеокарта, поскольку денег на внешнюю не хватило;
  • система изначально задумывалась как сверхбюджетная;
  • вы создаете домашнюю мультимедийную станцию (HTPC), в которой основной акцент делается именно на встроенное ядро.

Надеемся одной проблемой в вашей голове стало меньше, и теперь вы знаете, для чего производители создают свои APU.

В следующих статьях поговорим о таких терминах как виртуализация и не только. Следите за обновлениями блога, чтобы быть в курсе всех актуальных тем, связанных с железом.

Комментируйте, не стесняйтесь, делитесь в соц.сетях. Жду вас завтра на моем блоге.

Что такое графический процессор (GPU)?

При покупке нового ПК/ноутбука очень полезно разбираться во всех важных внутренних компонентах, благодаря которым компьютеры, собственно, и работают.

Зная о принципах их работы, вы сможете легко понять, имеет ли рассматриваемый компьютер подходящие характеристики, еще до совершения покупки!

Сегодня мы рассмотрим очень важный внутренний компонент любого ПК: GPU, или графический процессор. Мы расскажем, что это такое, чем он отличается от видеокарты, а также несколько других деталей, о которых важно знать. Поехали!

Что такое GPU?

GPU in neon lights.

GPU расшифровывается как Graphics Processing Unit, то есть графический процессор. Это тип процессора, который отвечает за рендеринг графики (создание изображений, которые вы видите на экране).

Графический процессор очень важен для любых вычислительных задач, в частности таких, как 3D-рендеринг и игры.

Поэтому, при покупке ПК или ноутбука для игр или создания различного контента, важно обратить внимание на тип графического процессора, поскольку это оказывает прямое влияние на качество картинки и на быстроту выполнения задач.

Графический процессор и видеокарта – одно и то же?

В чем разница между графическим процессором и видеокартой

В разговорной речи графический процессор часто используется в качестве синонима к видеокарте. Но технически это не совсем правильно.

Графический процессор на самом деле является частью видеокарты. Он отвечает за рендеринг графики, а видеокарта обеспечивает необходимую мощность и доступ к высокоскоростной памяти.

Кроме того, видеокарта подключает сам графический процессор к другим частям компьютера, которые требуют к нему доступ (центральный процессор, системная память и накопитель) для выполнения нужных задач.

А что такое интегрированный графический процессор?

Zen2/Zen3+, iGPU Vega и Navi2. Планы AMD по выпуску мобильных процессоров на 2021–2022 годы - ITC.ua

iGPU – это интегрированный графический процессор. Иными словами, это GPU, встроенный в центральный процессор.

  • Практически все процессоры Intel (за исключением серии F) оснащены встроенной графикой, поэтому у них, соответственно, есть iGPU.
  • AMD же оснащает iGPU только свою линейку гибридных процессоров (APU).

При наличии интегрированной графики основной процессор использует память совместно с графическим, благодаря чему снижается энергопотребление и общая нагрузка на ПК.

Интегрированный графический процессор отлично подходит для обычных повседневных задач (например, просмотр веб-страниц и работа с текстом). Но если вам нужен мощный компьютер для игр или редактирования видео, то нужно рассмотреть покупку устройства с дискретным графическим процессором, или же dGPU.

Что такое дискретный графический процессор?

RTX 3090 может «уйти на покой» уже в самое ближайшее время. GeForce RTX 3080

dGPU – дискретный графический процессор. Он ставится отдельно от основного процессора и имеет свою выделенную память, которая не передается ЦП.

Обычно дискретные графические системы обеспечивают лучшую производительность и способны справляться с более интенсивными задачами. Но они также потребляют больше энергии и выделяют больше тепла.

Некоторые ноутбуки оснащаются дискретной графикой, но чаще всего такие процессоры встречаются на настольных компьютерах.

Как узнать, какой графический процессор установлен в моем компьютере?

Why Is It So Hard to Buy a Graphics Card in 2021?

Получить информацию о графическом процессоре на своем компьютере можно в настройках устройства.

Если у вас Windows 10, нужно перейти в «Диспетчер устройств», затем выбрать пункт «Видеоадаптеры», где вы и увидите полный список графических процессоров, установленных на компьютере.

Затем нужно погуглить название, чтобы узнать, является ли процессор встроенным или дискретным.

Вы можете получить более подробную информацию о графическом процессоре вашего ПК и других характеристиках другими способами, включая использование сторонних программ.

Итоги

Теперь вы знаете немного больше о графических процессорах. Главный плюс в том, что вы можете использовать эти знания при покупке нового ПК/ноутбука.

Читайте также: