Установка второй видеокарты для физики

Обновлено: 01.07.2024

скоро у меня будет совершенно новый Geforce GTX 285, чтобы заменить мой текущий 8800GT.

будет ли возможно переместить мой 8800GT в другой слот PCIX, поместить GTX 285 в основной слот и использовать программное обеспечение nVidia, чтобы сделать 8800GT физикой?

на моей материнской плате достаточно слотов PCIX (4). GTX 285 займет 2, поэтому 8800GT должен поместиться в 3rd.

Если кто-нибудь знает, если это возможно, я был бы признателен, чтобы быть образованным!

+ = поддерживается!

когда два, три или четыре подобранных видеокарты работают в SLI, что PhysX работает на одном GPU, а графического рендеринга работает на всех графических процессорах. Драйверы NVIDIA оптимизировать имеющиеся ресурсы на всех GPU для баланса и PhysX вычислений и рендеринга графики. Поэтому потребители могут надеяться гораздо высокее частоты кадров и лучшее общий опыт работы с SLI.

новая конфигурация, которая теперь возможна с PhysX 2 несогласованных (гетерогенных) GPU. В этой конфигурации один графический процессор отображает графику (обычно более мощный), а второй полностью посвящен PhysX. Выгрузив PhysX на выделенный графический процессор, пользователи получат более плавную игру.

наконец, мы можем поставить выше двух вариантах на 1 ПК! Это было бы сли плюс выделенный PhysX на ГПУ. Как и в 2 случае гетерогенного процессора, графического рендеринга происходит в видеокарты подключены в режиме SLI пока не подобраны ГПУ посвящен и PhysX вычислений.

в режиме с несколькими GPU, один GPU обрабатывает все графические обязанности, в то время как вторая карта несет полную ответственность за решение всех команд физики. В этом режиме пользователи могут смешивать и сочетать различные карты. Например, кто-то, кто купил GeForce 8800 GT в прошлом году может запустить эту карту для физики, а затем забрать совершенно новый GeForce GTX 280 для запуска в качестве основной видеокарты для игр. Материнская плата SLI также не требуется для этого режима, поддерживаются как материнские платы SLI, так и не SLI.

видеокарта NVIDIA драйвера ForceWare® унифицированная архитектура драйвера (uda с) поддержка технологии SLI. Просто скачайте последнюю версию GeForce или Quadro графический драйвер со страницы загрузки драйвера, расположенной здесь.

NVIDIA постоянно добавляет новые профили SLI приложений для предстоящих драйверов. Для наиболее актуальной поддержки приложений SLI всегда используйте последние версии драйверов.

Я могу смешивать и сочетать видеокарты разных производителей?

используя 180 или более поздние графические драйверы, видеокарты NVIDIA разных производителей можно использовать вместе в конфигурации SLI. Для например, GeForce XXXGT от производителя ABC может быть сопоставлен с GeForce XXXGT от производителя XYZ.

Я могу смешивать и сочетать видеокарты с разными размерами памяти?

при покупке второй видеокарты, вы должны попытаться соответствовать размеру памяти, так что вы обеспечили полную стоимость и производительность от покупки. Тем не менее, хотя это не рекомендуется, NVIDIA предлагает гибкость для запуска видеокарт с памятью разного размера с помощью CoolBits. Используя CoolBits (значение 18), вы можете заставить обе карты использовать меньший из двух размеров памяти и управлять ими вместе в режиме SLI. Когда различные размеры памяти позволяют работать вместе с помощью CoolBits, эффективный размер памяти для каждой карты становится меньше размеров памяти. Инструкции по включению этой функции можно найти здесь.

из Википедии на SLI (не уверен, что это правильно. )

в конфигурация SLI, карточки может быть смешанных изготовлений, имен карточки модельных, изменений BIOS или тактовых частот. Однако они должны быть та же серия GPU (например, 8600, 8800) и имя модели GPU (например, GT, GTS, GTX).[15] существуют редкие исключения для конфигураций "mixed SLI" на некоторых картах, которые имеют только совпадающее кодовое имя ядра (например, G70, G73, G80 и т. д.), Но в противном случае это невозможно, и происходит только тогда, когда две сопоставленные карты отличаются очень незначительно. например, различное количество видеопамяти, потоковых процессоров или тактовой частоты. В этом случае более медленная/меньшая карта становится доминирующей, а другая карта совпадает.

в случаях, когда две карты не идентичны, самая быстрая карта-или карта с большим количеством памяти -будет работать на скорости медленнее карты или отключить его дополнительную память. (Обратите внимание, что, хотя FAQ по-прежнему утверждает, что поддержка другого размера памяти, поддержка была удалена с версии 100.xx Набор драйверов Nvidia для Forceware.[16])

Хочу рассказать сообществу о проведённом мной эксперименте.

Мне всегда нравились игры, в которых есть физика. То есть, некоторые процессы не управляются скриптами, а эволюционируют во времени, следуя физическим законам. Из этого проистекают сложность и непредсказуемость игрового процесса.

Примеров много, физические элементы тонко пронизывают многообразие компьютерных игр. Взять хоть любой платформер: совсем другие ощущения от игры, когда есть инерция персонажа, скольжение, гравитация, урон от падения с большой высоты и отдача от оружия.

Или те же гоночки: до чего приятней на полной скорости сшибать людей, рекламные щиты и помойки, чтобы разлетались во все стороны, вместо того, чтобы мгновенно останавливаться, врезаясь в мёртво врощенный в землю столб.

Или ещё замечательный пример — Kerbal Space Program. Там физика уже является непосредственым источником геймплея.

Или, например, жанр 2д артиллерии. Часть его очарования базируется на уничтожаемой, динамичной земле. Но до чего он был бы лучше, если б земля не просто линейно осыпалась, а вела себя реалистично, разлетаясь от взрывов кусками.

Я давно мечтал сделать именно такой, до предела физически реалистичный римейк Scorched Earth. Но все мои эксперименты с моделированием физических систем упирались в неумолимо медленные процессоры. Тысяча-две частиц были пределом для real-time симуляции.

Но недавнее моё «открытие» изменило ситуацию. Мы живём во времена быстрого развития геймерского железа. Развивались главным образом видеокарточки, потому что производители игр с наибольшим энтузиазмом наращивали именно графическую составляющую игр, а производители железа поддерживали высокий fps. И не удивительно решение компании Nvidia добавить возможность для разработчиков писать код для графической системы, то есть осуществлять вычисления в графичесокм ядре.

По-моему, это решение было тихой революцией. Я конечно знал, что видеокарточка мощней процессора, но я не знал, до какой степени. В среднем геймерском компьютере производительность видокарты в 50-100 раз выше производительности центрального процессора.

Конечно, задача должна быть хорошо распараллеливаема, этот бонус актуален не для любого алгоритма. Но моделирование тысяч частиц идеально распараллеливается.

Осознав это, я понял, что наконец-то смогу создать полностью физическую игру, в которой не будет заскриптовано ничего, кроме физики. Игра станет эквивалентна физической симуляции.

Я давно делаю игры на Юнити, и был рад, узнав, что в этом движке реализован класс ComputeShader, который позволяет использовать в проекте шейдеры на языке HLSL. Просто пишем шейдер, линкуем его к экземпляру ComputeShader, и диспатчим в Update.

Вникнуть в параллельные вычисления на GPU было не слишком просто. Туториалов маловато, а те, что есть, довольно ограничены в объёме поясняемых тонкостей. Но ключевых трудностей было не так уж много, довольно богата справочная информация по HLSL была на msdn, так что кое-как путём проб и ошибок я овладел спецификой и начал делать игру.

Задача была проста: нужно смоделировать в реальном времени несколько десятков тысяч взаимодействующих частиц, и из них построить мир, который жил бы уже по своим законам.

Параллельные вычисления — коварная штука. Нужно было свести все вычисления к простым блокам одинакового размера, чтоб на каждую частицу приходился один поток. Я решил упростить до предела математику взаимодействия частиц. К примеру, обойтись без интегратора, просто мерять величину поля (описывающего взаимодействие частиц) в текущей точке, и на его основе менять скорость частицы. Простота гарантировала, что все потоки будут выполняться одинаково быстро, и не возникнет тяжёлых потоков, которых остальными придётся дожидаться.

Кроме того, при взаимодействии частиц нужно было работать с данными в защищённом режиме, чтобы паралельные потоки были осведомлены об одновременной записи-чтении и не путались. Ведь если частица может одновременно взаимодействовать с десятком других частиц, все они могут параллельно изменять её скорость, а значит, необходимо делать это в защищённом режиме. Средства для этого в HLSL нашлись. Правда, операторы вроде InterlockedAdd() работают только с int-величинами, так что приходилось пожертвовать точностью, и хранить скорость в видеопамяти в виде int-величин.

Огромные массивы взаимодействующих частиц — тоже коварная штука. Нужно было упростить сложность вычилений с

до чего-то вроде


Этого я добился, создав двумерную сетку 256x256, и в каждом её элементе на каждом шагу сохранял ссылки на все ближайшие частицы, так что при обсчёте взаимодействия частиц, каждая частица взаимодействует лишь с теми частицами, что находятся в пределах нескольких 3x3 элементов сетки.

Кстати, почему вместо уже реализованного в Юнити физического движка я создал свой? Потому что универсальный физический движок, подходящий для широкого спектра задач, связанных с моделированием системы твёрдых тел, плохо подходит для моделирования системы взаимодействующих материальных точек. Я предпочёл оптимизированный под специфику оригинальный движок. Если создать в юнити тысячу объектов с rigidbody, можно убедиться, что fps падает довольно сильно. В моём случае нужны десятки тысяч частиц, и написанный с нуля движок позволяет их вычислять с хорошим fps.

Дискретная симуляция физического взаимодействия — опять же, коварная штука. Чем больше шаг, тем больше погрешность. Взаимодействия между частицами реализовано через силу Леннарда-Джонса, то есть, при сближении частиц сила отталкивания растёт в двенадцатой степени. Это неимоверно усиливает ошибку, связанную с большим шагом. Попросту, материя взрывается, нарушается закон сохранения энергии.

Возникает противоречие: нам нужна быстрая real-time симуляция. Но шаг должен быть очень маленький. Это противоречие я разрешил уменьшив шаг в десять раз по сравнению с первыми экспериментами, и производя десять циклов симуляции в каждом Update(). Цена этого решения — производительность. Так что пришлось сильно уменьшить количество частиц. Но всё же их осталось достаточно для сложного поведения всей системы.

Ну, и ещё пара десятков хитростей были мной реализованы, чтоб получить удовлетворительное поведение материи. Например, я ввёл аналог валентных связей между частицами, которые распределяют импульсы и скорости частицы между соседями. Или, к примеру, гравитация не действует по всему объёму земли, а затрагивает только верхний слой частиц. Но если большие куски материи взлетят в воздух, гравитация будет на них влиять в полной мере. Это реализовано с помощью построения на каждом шагу гравитационной маски, и учёта её при расчётах.

И таких тонкостей ещё много, не хочу слишком углубляться в эту специфику. Месяца четыре в хобби-режиме ушло на решение всех проблем с параллельным вычислением и физикой, и в какой-то момент можно было переходить на уровень геймплея.

Что в итоге получилось? Получилась игра в жанре «2д артиллерия», вроде Pocket Tanks, Scorched Earth или Worms.

Вот длинное, в десять минут, видео, в котором тоже показан игровой процесс, но более подробно:

Можно заметить, что земля и строения выглядят как желе. Это исправляется за счёт производительности. Можно уменьшить шаг и усилить коэффициент влияния полей на скорость частиц. Но пока я стараюсь удержать игру на уровне не слишком обременительном для большинства не слишком старых видеокарт. Скажем, на моей карте GTX 750m, в которой 384 ядра, игра с 20 тысячами частиц работает с частотой 25 fps, что делает её вполне играбельной.

Вывода здесь два, объективный и субъективный:

1. Видеокарта обладает огромной мощностью, и сейчас уже не существует непреодолимых технических преград, мешающих разработчикам использовать её для вычислений. Это может открыть для практического использования прежде недоступные (из-за вычислительной тяжеловесности) подходы к игровому процессу.

2. Очень необычные ощущения возникают от игры в физически реалистичной песочнице. И по-моему, тут зарыто много неожиданных идей в области геймплей-дизайна. И хотелось бы, чтобы разработчики побольше экспериментировали с внедрением физики в геймплей, ибо на графике свет клином не сошёлся.

Как подключить две видеокарты к одному компьютеру

Несколько лет назад компании AMD и NVIDIA представили пользователям новые технологии. У первой компании она называется Crossfire, а у второй – SLI. Данная возможность позволяет связать две видеокарты для максимальной производительности, то есть, они будут вместе обрабатывать одно изображение, и в теории, работать в два раза быстрее, чем одна карта. В этой статье мы рассмотрим, как же подключить два графических адаптера к одному компьютеру с использованием данных возможностей.

Как подключить две видеокарты к одному ПК

Если вы собрали очень мощную игровую или рабочую систему и хотите сделать ее еще мощнее, то в этом поможет приобретение второй видеокарты. Кроме этого две модели из среднего ценового сегмента могут работать лучше и быстрее, чем одна топовая, при этом стоить в разы меньше. Но для того, чтобы сделать это, необходимо обратить внимание на несколько моментов. Давайте подробнее разберем их.

Что нужно знать перед подключением двух GPU к одному ПК

Если вы только собираетесь приобретать второй графический адаптер и еще не знаете всех нюансов, которые требуется соблюдать, то мы их детально опишем.Таким образом, при сборе у вас не возникнет различных проблем и поломок комплектующих.

  1. Убедитесь в том, что ваш блок питания имеет достаточную мощность. Если на сайте производителя видеокарты написано, что она требует 150 Ватт, то для двух моделей потребуется уже 300 Ватт. Мы же рекомендуем брать БП с запасом мощности. Например, если сейчас имеете блок в 600 Ватт, а для функционирования карт необходим на 750, то не экономьте на этой покупке и купите блок на 1 киловатт, так вы будете уверены, что все будет работать корректно даже при максимальных нагрузках.

Вентилятор блока питания

Подключение двух видеокарт к одному компьютеру

Подключение двух видеокарт к одному компьютеру

Мы рассмотрели все нюансы и критерии, связанные с установкой двух графических адаптеров в один компьютер, теперь давайте перейдем к самому процессу установки.

Подключение двух видеокарт к одному компьютеру

В подключении нет ничего сложного, от пользователя требуется только следовать инструкции и соблюдать осторожность, чтобы случайно не повредить комплектующие компьютера. Чтобы установить две видеокарты вам потребуется:

    Откройте боковую панель корпуса или положите материнскую плату на стол. Вставьте две карты в соответствующие разъемы PCI-e x16 и PCI-e x8. Проверьте надежность крепления и прикрутите их с помощью соответствующих винтов к корпусу.

Подключение двух видеокарт к одному компьютеру

Подключение питания видеокарты

Подключения моста для видеокарт

Настройка SLI в панели управления NVIDIA

Перед тем, как покупать две видеокарты, хорошо подумайте над тем, какие это будут модели, ведь даже топовая система не всегда способна вытянуть работу двух карт одновременно. Поэтому рекомендуем внимательно изучить характеристики процессора и оперативной памяти перед сборкой такой системы.

Закрыть

Мы рады, что смогли помочь Вам в решении проблемы.

Отблагодарите автора, поделитесь статьей в социальных сетях.

Закрыть

Опишите, что у вас не получилось. Наши специалисты постараются ответить максимально быстро.

Центральный процессор всегда считался сердцем компьютера. Эта небольшая микросхема отвечает за выполнение всех важных операций, заданных программами операционной системы, и координирует работу компонентов ПК. Однако современные графические чипы по своей мощности (да и по количеству транзисторов) давно обогнали ЦП, и попытки переложить часть работы центрального процессора на плечи видеокарты в последнее время предпринимаются все чаще и чаще. Активнее всего на этом поприще проявляет себя компания NVIDIA, видеокарты которой с недавних пор перестали быть просто ускорителями игровой графики. Они рассчитывают физические процессы, кодируют видео и даже участвуют в глобальных программах, связанных с распределенными вычислениями.

Наш сегодняшний рассказ о том, что могут предложить своим владельцам современные графические платы, а также о том, насколько это важно, да и важно ли вообще.

Эффекты, завязанные на законах физики, есть сегодня в любой уважающей себя трехмерной игре.

Все началось пару лет назад, когда NVIDIA прямо заявила, что графические платы нового поколения должны уметь нечто большее, чем просто выводить на экран красивую картинку. А через некоторое время компания представила набор компонентов для разработчиков под названием CUDA (Compute Unified Device Architecture). Новая платформа открывала перед видеокартами широкое поле для маневров. Теперь графические чипы могли попробовать себя в следующих задачах: декодирование видео, научные и инженерные расчеты, медицинские исследования, финансовые вычисления.

Чтобы повысить ценность платформы в глазах обывателей, NVIDIA возложила на видеокарты ускорение физики. Почти во всех современных играх есть подсистема, которая симулирует физические законы реального мира, что, в свою очередь, повышает реалистичность игрового процесса. Возьмем, к примеру, The Elder Scrolls 4: Oblivion. Физический движок этой игры учитывает массу и плотность объектов, силу трения, гравитационное воздействие и другие параметры. Что это дает? Вода ведет себя почти как настоящая, тела убитых врагов плавают на ее поверхности, деревья гнутся на ветру, одежда повторяет движения тела.

В автомобильных симуляторах речь идет о тех параметрах, от которых напрямую зависит скорость, управляемость и тормозной путь машины. Именно поэтому игрок чувствует разницу между Lamborghini Murcielago и Ford Mustang GT.

Физические вычисления — это головная боль для процессора. Ведь ему и так приходится нелегко, а тут еще заставляют просчитывать множество параметров, связанных с взаимодействием объектов. Современный графический чип с большим числом потоков куда лучше подходит для этих целей.

Осознав это, NVIDIA твердо вознамерилась, используя CUDA и свои видеокарты, поднять игровую физику на новый уровень. Поначалу компания использовала движок Havok FX. Но после того, как Intel купила Havok, NVIDIA оказалась в затруднительном положении.

А потом под руку NVIDIA подвернулась фирма Ageia, которая потерпела крах со своим физическим ускорителем PhysX и медленно, но верно шла ко дну. NVIDIA подсуетилась и в феврале 2008 года выкупила бедствующую компанию. Графического гиганта заинтересовали не столько железные разработки Ageia, сколько программный набор PhysX SDK, который использовал аппаратные возможности чипа PhysX, но мог прекрасно обходиться и без него (в этом случае расчет физических эффектов ложился на процессор). Не прошло и полугода, как технология PhysX задышала с новой силой. Первым делом NVIDIA прикрутила ее поддержку к своим топовым решениям. С каждой новой версией драйверов совместимость с PhysX обретали и другие модели видеокарт.

В Power Pack входят: драйвера, бесплатная игра Warmonger — Operation: Downtown Destruction, демоверсия игры Metal Knight Zero, дополнительные уровни для Unreal Tournament 3, клиент проекта распределенных вычислений Folding@home, пробная версия видеокодера Elemental Technologies Badaboom, а также несколько демоприложений, показывающих возможности технологии PhysX. С нашими впечатлениями от игр и демок, входящих в состав Power Pack, вы можете ознакомиться в разделе, посвященном тестированию.

Пара слов о Badaboom. Просматривать видео любых форматов умеет только персональный компьютер. Остальным устройствам (консолям, плеерам, КПК и прочим) требуется перекодирование ролика в понятный им вид. Существует множество программ-кодировщиков, но все они используют ресурсы центрального процессора. Поэтому на преобразование стандартного полуторачасового фильма уходит порядочно времени. Badaboom — тоже кодировщик, но он задействует шейдерные процессоры видеокарт, благодаря чему процесс перегона форматов протекает как минимум вдвое быстрее (в зависимости от используемой видеокарты). Что самое приятное, при этом ЦП свободен для выполнения любых других задач. К примеру, при кодировании клипа из H.264 в MP4 процессор загружен всего на 6%.

На преобразование обычного фильма в формат, понятный плееру Apple iPod, программа Badaboom в компании с GeForce GTX 280 потратит в два раза меньше времени, чем процессор Core i7.

У программы предельно простой интерфейс, в наличии много предустановок (для самых популярных устройств). Без минусов, правда, не обошлось: текущая версия Badaboom поддерживает ограниченное количество входных форматов. И, разумеется, владельцы видеокарт от AMD, а также интегрированных решений Intel использовать программу не смогут — Badaboom работает только с платами NVIDIA.

Намерения NVIDIA тверды как никогда. Компания хочет, чтобы ее физическая платформа использовалась в как можно большем числе игр. Intel, в свою очередь, заявляет, что с ускорением физических эффектов прекрасно справятся многоядерные процессоры. На ее стороне — армия опытных программистов, которую компания получила после покупки компании Havok.

Сейчас Intel работает над архитектурой Larrabee. У первых графических чипов нового семейства будет свыше десяти ядер на одном кристалле. Разумеется, сфера применения таких процессоров не ограничивается одной лишь обработкой графики. Они будут использоваться для научных расчетов, моделирования природных процессов и, конечно же, ускорения физики в играх. Что немаловажно, программируется Larrabee теми же самыми командами, что и обычные процессоры архитектуры x86. Это сильно упростит написание приложений, совместимых с новыми графическими чипами Intel.

В первой половине 2009 года должно выйти около 40 игр с поддержкой PhysX, в числе которых столь ожидаемая нами Mirror's Edge

Компания AMD также не намерена сидеть в стороне. Уже сейчас ее процессоры и видеочипы оптимизируются под физический движок Havok. Как показывает практика, Havok очень хорошо дружит с процессорами AMD, особенно с четырехъядерными Phenom X4. К началу 2009 года компания планирует выпустить видеокарту, которая для ускорения вычислений будет использовать стандартные средства DirectX 11.

Эта видеокарта справится с любыми задачами, будь то отображение реалистичной графики или симуляция физических законов реального мира.

Постановка задачи проста: доказать, что современные видеокарты NVIDIA справляются с обработкой физики лучше, чем последнее поколение процессоров, или опровергнуть это утверждение. Поэтому набор основных компонентов для тестового стенда был очевиден: взятый с пылу с жару ЦП Intel Core i7-920, пара мощных видеокарт ZOTAC GeForce GTX 280 AMP! Edition и другая парочка графических плат, но уже послабее — две ZOTAC GeForce 9800 GTX+. В остатке: материнская плата ASUS P6T Deluxe и 6 Гб оперативной памяти от OCZ. Испытания проводились в 64-битной версии Windows Vista Ultimate.

Набор тестовых приложений был следующим:

— Unreal Tournament 3 с установленным PhysX-дополнением;

— сетевой экшен с полностью разрушаемым окружением Warmonger — Operation: Downtown Destruction;

— пре-альфа-версия игры Metal Knight Zero — многопользовательского сетевого шутера, в котором все окружение можно разрушить;

— бенчмарк Nurien, основанный на технологиях одноименной социальной сетевой игры (разрабатывается).

Все они входят в состав GeForce Power Pack (в случае с Unreal Tournament 3 речь идет только о дополнении PhysX) и могут быть свободно скачаны с сайта компании.

Для начала следует обзавестись самыми свежими драйверами для видеокарты. На момент написания статьи была доступна версия GeForce 180.48, которая включала в себя драйвера PhysX 8.10.13. То есть нужно скачать всего один инсталляционный файл.

После установки драйверов надо открыть Панель управления NVIDIA (кликнуть правой кнопкой на рабочем столе и выбрать соответствующий пункт) и перейти на закладку с настройками PhysX. Здесь можно включить или выключить аппаратную обработку физики, а также, когда в системе установлено две (и более) видеокарты, выбрать режим их совместной работы. Если платы одинаковые, то доступно два режима: SLI, при котором обе видеокарты делят между собой как графическую, так и физическую нагрузку, и мульти-GPU, когда одна плата берет на себя всю графику, а вторая — всю физику. Если в системе установлены разные видеокарты (например, в первом разъеме PCIe x16 — GeForce 9800 GTX, во втором — GeForce 9600 GT), то разумно будет повесить обработку физики на слабейшую из них.

Все тестовые забеги мы проводили в разрешении 1280x1024 при включенной 16-кратной анизотропной фильтрации, но без сглаживания. Столь низкое разрешение было выбрано не потому, что в нашем распоряжении не оказалось мониторов с большей диагональю. Дело в том, что в таком режиме объективнее всего отслеживается влияние центрального процессора на уровень fps в играх.

Давайте пройдемся по результатам наших испытаний.

Unreal Tournament 3

Оригинальный UT3 очень хорошо оптимизирован и не содержит каких-либо экстраординарных физических спецэффектов. Поэтому мы использовали PhysX-дополнение, которое включает в себя три новых уровня: Tornado, Lighthouse PhysX и Heat Ray PhysX. На первой карте хозяйничает гигантский смерч. Он свободно перемещается по уровню, снося все на своем пути и норовя догнать игроков. Вторая карта представляет собой один большой маяк, в котором можно раскурочить буквально каждую стену, лестницу и перекрытие. Ну а третий уровень — классическая карта Heat Ray c возможностью частичного разрушения и поддержкой еще нескольких физических эффектов.

Что же мы видим: тестирование только началось, а Core i7-920 уже посрамлен. Обе платы демонстрируют троекратное преимущество над процессором. Добавление второй видеокарты, которая занимается исключительно обработкой физики, приводит к увеличению производительности на 20-50% в зависимости от модели платы.

Warmonger — Operation: Downtown Destruction

Эта игра также базируется на движке Unreal Engine 3, но по числу физических «присадок» заметно опережает UT3. Разрушается здесь абсолютно все, а надежных укрытий не существует в принципе, так как любой камень, за которым вы решили спрятаться, может быть превращен в пыль после нескольких удачных залпов противника. Дым от оружия стелется по направлению ветра, а туман рассеивается от череды взрывов.

На этом этапе видеокарты NVIDIA лишь укрепили свои позиции — все то же троекратное преимущество. Процессор Intel начинает потихоньку сгорать от стыда. Интересно, что система с GeForce 9800 GTX+ после установки еще одной платы получает чуть ли не 100-процентный прирост, тогда как добавочная GeForce GTX 280 увеличивает fps лишь на 30%.

Metal Knight Zero

Рассказывать о Metal Knight Zero особо нечего. Бегаем, стреляем, наблюдаем, как объекты разлетаются на мелкие кусочки в соответствии с законами физики. Плюс к тому, здесь в полной мере реализована симуляция ткани: флаги и прочие тряпки развеваются на ветру и рвутся точно так же, как и в реальной жизни.

Комментарии к результатам излишни: разница между видеокартами и ЦП просто феноменальная. А вот добавление второй платы практически не влияет на показатели fps.

Nurien

Бенчмарк Nurien предлагает нам насладиться пятиминутным показом мод. Здесь есть подиум с бодро вышагивающими по нему моделями и толпа зрителей. Волосы и юбки девушек развеваются при ходьбе, продвинутая лицевая мимика передает их веселое настроение, подиум непрерывно озаряется вспышками фотоаппаратов. Действо происходит под зажигательную музыку.

Nurien — единственное приложение, в котором Core i7 смог хоть как-то реабилитироваться. Отставание ЦП всего лишь двукратное, а fps наконец-то превысил отметку в 25 кадров в секунду. Установка еще одной GeForce 9800 GTX+ дает прирост в 10%, а дополнительная GeForce GTX 280 практически никак не влияет на результат.

Каким NVIDIA видит будущее компьютеров? Компания делает ставку на симбиоз недорогого процессора и мощного графического чипа. Наши тесты наглядно показали, что у этой идеи есть все права на существование. Видеокарты NVIDIA отменно справляются с обработкой сложных физических эффектов в играх с поддержкой PhysX. А ведь это — лишь одно из немногих применений CUDA в повседневной жизни.

В будущем графический чип может легко стать центральным компонентом компьютера. Апгрейд видеокарты обеспечит заметный прирост быстродействия, а на откуп процессору останется ряд базовых задач, в которых не требуется сложных многопоточных вычислений. Правда, компании-производители ЦП вряд ли смирятся с таким положением вещей. Так что нас с вами ждет очередной виток борьбы за выживание. Может быть, недалек тот день, когда процессор перестанет быть центральным?

Читайте также: