R9 290 увеличение памяти

Обновлено: 03.07.2024

Три дня назад моя старушка Radeon R9 290X возрастом 6 лет скоропостижно отмучалась со страшным звуком ДРРРРРР Долгие годы пыток в закрытом с 3 сторон коробе стола кошачьей шерстью, набивавшейся в никогда не вычищавшийся системник - о да, я знаю, как обращаться со своими железками, чтобы они служили своему хозяину верой и правдой

Собственно, в сервисе, куда я оттащил крякнувший системник, мне и объявили причину смерти по результатам вскрытия - сгорел ГПУ. Дальше мне объявили, что чинить это старьё нет смысла и втюхали другое старьё - новую R390, вытянув за неё 7к дерева. Я спорить не стал, потому как ближе к лету-осени собираюсь заказать у этих же ребят сборку совершенно нового сто ка пека, а старый отдать родителям сидеть в одноклассниках. Так что как временный вариант меня эта карта устраивает.

Однако, уже дома, во время подключения проводов к выздоровевшему пациенту, я задумчиво почесал голову о столешницу и у меня внезапно встал вопрос:

1) В сервисе мне заявили, что новая карта по производительности равна старой, а по энергопотреблению, якобы, даже лучше. Это правда или брехня?

2) И не надули ли меня с ценой?

Мб это и нубские вопросы, но в железе я почти ноль.

img

img

И не надули ли меня с ценой?

Такие дела, да

1) менее производительная, менее прожорливая.

2) нормас надули. За такую цену и ниже можно рх570 купить, которая будет быстрее.

3) лучше не заказывай сборку у этих ребят.

4) лучше сам собери = дешевле.

На фоне дешёвых рх470/570 - прилично. На 2-3к так точно.

img

r9 290x на порядок мощнее 380. Она находится где-то между 570 и 580 по производительности.

Три дня назад моя старушка Radeon R290X возрастом 6 лет скоропостижно отмучалась со страшным звуком ДРРРРРР Долгие годы пыток в закрытом с 3 сторон коробе стола кошачьей шерстью, набивавшейся в никогда не вычищавшийся системник - о да, я знаю, как обращаться со своими железками, чтобы они служили своему хозяину верой и правдой

Собственно, в сервисе, куда я оттащил крякнувший системник, мне и объявили причину смерти по результатам вскрытия - сгорел ГПУ. Дальше мне объявили, что чинить это старьё нет смысла и втюхали другое старьё - новую R380, вытянув за неё 7к дерева. Я спорить не стал, потому как ближе к лету-осени собираюсь заказать у этих же ребят сборку совершенно нового сто ка пека, а старый отдать родителям сидеть в одноклассниках. Так что как временный вариант меня эта карта устраивает.

Однако, уже дома, во время подключения проводов к выздоровевшему пациенту, я задумчиво почесал голову о столешницу и у меня внезапно встал вопрос:

1) В сервисе мне заявили, что новая карта по производительности равна старой, а по энергопотреблению, якобы, даже лучше. Это правда или брехня?

2) И не надули ли меня с ценой?

Мб это и нубские вопросы, но в железе я почти ноль.

Добрый день коллеги. В общем объясняю ситуацию, работает у меня старенькая ферма из 3х R9 290, с каждой эпохой на винде падал хешрейт, после поисков инфы в интернете понял что так и должно быть, типа старые карты, сложность растет, даг файл растет и все такое, я как бы смерился, перепробывал разные драйвера, разные версии клеймора, хешрейт выростал только на ранних хашимото, когда хешрейт упал до 19 Mh с карты, при том что на старте было 29 Mh стало совсем грустно. Решил попробовать Hive OS, поддержка этих карт на хайве не оч, а точнее разгон и куллера хрен настроишь нифига не подтягивается, запарился прошил карты, зашил скорость куллеров и разгон в биос, все настроил и запустил, и чудо хешрейт 28 - 30 Mh с карты. Теперь у меня вопрос, или я что то не понял, или нас кто то разводит с падением хешрейта, всем спасибо за внимание, скрин ща скину)

ValeraTV

Модератор

Добрый день коллеги. В общем объясняю ситуацию, работает у меня старенькая ферма из 3х R9 290, с каждой эпохой на винде падал хешрейт, после поисков инфы в интернете понял что так и должно быть, типа старые карты, сложность растет, даг файл растет и все такое, я как бы смерился, перепробывал разные драйвера, разные версии клеймора, хешрейт выростал только на ранних хашимото, когда хешрейт упал до 19 Mh с карты, при том что на старте было 29 Mh стало совсем грустно. Решил попробовать Hive OS, поддержка этих карт на хайве не оч, а точнее разгон и куллера хрен настроишь нифига не подтягивается, запарился прошил карты, зашил скорость куллеров и разгон в биос, все настроил и запустил, и чудо хешрейт 28 - 30 Mh с карты. Теперь у меня вопрос, или я что то не понял, или нас кто то разводит с падением хешрейта, всем спасибо за внимание, скрин ща скину)

Radeon Software Crimson ReLive Edition Beta for Blockchain Compute Release Notes | AMD

Radeon Software Crimson ReLive Edition Beta for Blockchain Compute Highlights Important Notes This driver is provided as a beta level support driver which should be considered "as is" and will not be supported with further updates, upgrades or bug fixes. This driver is not intended for.


если не помогает то. все
нужен фикс от AMD в дровах но никто этого делать не будет. сегодня не 2017

Мониторю MSI Afterburner. Программы мониторинга саму память показывает верно - 4096 или 4ГБ, но я полагаю это так и останется т.к. прописано в биосе карты или еще где-то.
Карту толком никогда не прогревал выше 78 градусов. Последнее время играл в игру, карта грелась до 81 градуса (играл примерно по 2ч с такими температурами) и то это было раза 3-4. Не знаю. могла ли часть памяти сгореть.. Сама карта работает без сбоев.
Вот допустим проверял МСИ Камбустером в оконном режиме, тест на память - потребляло 3620мб-3709мб, в оконном режиме вторая видеокарта отключена всегда - т.е. по сути с неё память не могло брать. Я так думаю. но я не разбираюсь в памяти которая берется из системы, возможно 2гб указывалось с видеокарты, остальное системная..

Далее проверял игру Batman AK (Игра не поддерживает CF, поэтому соотвественно вторая карта не включается в ней)- игра на максималках требует карту с 4гб минимум, в настройках висит предупреждение мол игре нужно 3400мб, а карта якобы 2038мб. при тестировании MSI Afterburner показывал 3600м-3700мб. Опять же мне не понятно вся ли память указывается именно с видеокарты (а не с учетом системной).

Также подчеркну, что тест бенча в Бэтман проводил на тех же настройках, на которых и проводил тест ранее, а это примерно год назад. И результат стал даже на 10-15 фпс выше по показателям низк, средн и высок фпс. Но тогда точно помню отображалось в настрйоках 4096мб. а не 2038мб

Хотел бы разобраться с этой проблемой, и как еще можно проверить рабочий объем памяти карты (без учета той памяти, что берется из системы при нехватке!) Нафига вообще придумали при нехватки брать память системную. теперь хрен поймешь, что за память целиком мониторится..

Последний раз редактировалось Night1K, 06.06.2017 в 10:08 . не могла, сидел бы сейчас с 1 картой в таком случаи .
обновите(переустановите ) мси аф
промониторте в GPU-z , дрова обновите .
и проверьте в других играх типа гта 5 и WD2 . обновите(переустановите ) мси аф
промониторте в GPU-z , дрова обновите .
и проверьте в других играх типа гта 5 и WD2 .

GPU-Z мониторил - показывает как и MSI Af - 3700мб примерно. Что интересно, когда прогонял тест через КОмбустор на 2Гб (там есть такой тест который использует не более 2гб), карта использовала по данным GPU-Z 1480Мб и при этом показатель % загрузки памяти "глючил" то показывал 36% то 78%, при этом спользуемая память была на уровне 1300-1480мб.

ГТА5 сегодня проверю.. она у меня показывает всю память, даже если 2 карта отключена, то бишь 8гб.. гляну как теперь показывает.

Подскажите. В GPU-Z и в MSI AF - может ли показатель используемой памяти быть указан с учетом системной памяти (той памяти, что использует компьютер когда на видеокарте не хватает собственной памяти) ? Вот допустим показатель равен 3700мб в GPU-Z (вкладка мониторинг), может быть так, что тут 2Гб видеокарты и 1.7гб это память из системы?

Последний раз редактировалось Night1K, 06.06.2017 в 13:46 .

В общем. Отключил Кросс через настройки драйвера. Память стала отображаться номрально - 4Гб в играх. О проблемах с основной картой мысли отпали. Далее проверил ГТА5 в режиме кросс- показывает 8гб. Выставил настройки выше 4Гб - при перезапуске настройки скидывались, сохранил галочку "снять ограничения" сохранились. поставил все на максимум вышло 6500Мб - по игре. в Итоге теста больше 3,5гб игра не кушала. То даже и 4гб не брала. эм, как так?

ладно, проверил Тени мордора - прожорливая игра на видеопамять. в режиме кросс ест так же как и в одиночном - 4гб. Должно быть 6-7гб.

Тут уже стал грешить на вторую карту - пришлось разбирать ПК.
Проверил каждую карту отдельно. даже проверил отдельно второй слот PCIe в котором стояла 2 карта - всё работает без проблем, каждая карта выдает свои 4гб. а вот при работе вмести беда.

Какие тут мысли?

Подскажите. В GPU-Z и в MSI AF - может ли показатель используемой памяти быть указан с учетом системной памяти (той памяти, что использует компьютер когда на видеокарте не хватает собственной памяти) на сколько знаю не умеет .(забудьте про системную память на своих картах. )
ни каких ,в кроссе память не суммируется , у вас только 4гб макс на две карты .(у каждой 4 )
а вот прога мси не умеет правильно мониторить , и думает ,что у вас 8гб . в итоге показания мси делим на 2. и узнаём потребление видео памяти в кроссе .
4гб потолок. Последний раз редактировалось mision, 06.06.2017 в 23:49 . в кроссе память не суммируется , у вас только 4гб макс на две карты .(у каждой 4 )
а вот прога мси не умеет правильно мониторить , и думает ,что у вас 8гб . в итоге показания мси делим на 2. и узнаём потребление видео памяти в кроссе .
4гб потолок.

Хм. не правда. Алгоритм работы Crossfire немного другой) да по сути в системе не суммируется память по факту имеем не 8гб, а 4гб х 2. Но) суть кросса - при обработке ресурса (игры) каждая видеокарта обрабатывает свою половину и использует КАЖДАЯ карта СВОЮ память, а не обе карты используют память одной карты. За счет этого производительность и возрастает, то что каждая карта обрабатывает свои 50% нагрузки от всего ресурса (игры). Но не суть.

HWinfo64 - тоже по Вашему мнение не верно мониторит? ибо он показывает так же - сумму общую при кроссе. (Сейчас и эта прога не показывает выше 4гб, даже 5гб используемой памяти не наблюдал, а должно быть в том же "Тени Мордора"!!)

До этого всё работало и показывало. а теперь в играх каких-то видит лишь 2гб. Допустим GTA5 в режиме кросс на автомате выставляет мне настройки под 2гб видеокарту, даже автоматом разрешение 800х600 ставится - это нормально? нет. Раньше те игры о которых писал выше - даже со второй картой показывали нормально 4гб. Фантастика просто. Если честно. Отдельно карты работают как нужно. Проверил отдельно PCIe в которой стояла 2ая карта (на всякий случай) - нет нариканий. А вот когда кросс - система не правильно видит память, то 2гб, то 4гб. ГТА хоть и видит 8гб, определяет только 2гб - настройки выше 2гб не дает выставлять. Только если убрать ограничения.

Я уже практически все варианты исключил.. ставил даже старый драйвер, который использовал год назад! тогда точно такой проблемы не было. Но без изменений.. дело не в драйвере, дело не в железе..

остается грешить на Windows, попробовать обновиться. Ну и все. у меня больше вариантов нет. что-то сломалось? в материнке? будь в ней проблемы - это проявлялось бы уж точно не правильным определением VRAM.

Кто-то где-то схалтурил. Либо АМД, после обновы драйверов такое бзиганулось, либо Майкрософт - криворукие специалисты.

HawaiiPowerPlay

При использовании графических процессоров Hawaii, таких как R9 290 в Linux, aticonfig не предоставляет возможность изменять напряжения. Даже под Windows такие утилиты, как MSI Afterburner, обычно имеют ограничения на то, насколько можно увеличить или уменьшить напряжение графического процессора. Чтобы снизить энергопотребление, я решил создать собственный BIOS с более низким напряжением для своего MSI R9 290X.

По причинам, которые я еще не выяснил, напряжение DPM0 в каждой из таблиц пределов должно соответствовать таблице PowerPlay. После изменения четырех таблиц пределов BIOS можно сохранить и записать на карту.

Я создал модифицированные файлы BIOS для карты MSI R9 290X 4 ГБ с напряжениями DM0 868, 825 и 775. С помощью BIOS 775 мВ мне удалось снизить энергопотребление более чем на 20% по сравнению с 968 мВ.

Примечание. Любое модифицированное ПЗУ, даже с модулем UEFI/GOP в нем, технически не является UEFI. В унаследованном разделе ПЗУесть подпись BIOS, которая представляет собой хеш хэшей защищенных таблиц в ПЗУ. Поскольку моды, которые мы делаем, находятся в защищенных таблицах, и мы не можем обновить подпись в устаревшем ПЗУ, чтобы отразить изменения, которые не пройдут проверки UEFI, поэтому вам нужна поддержка CSM в BIOS материнской платы, чтобы использовать модифицированное ПЗУ.

Я использовал все программы, связанные с немецкой веткой sTOrM41, и успешно отредактировал свою биографию Vapor X 290X STD edition так, как я хотел.

Перепрошивка проводилась с использованием метода и файлов в ветке OCN 290 -> 290X Unlock, просмотрите под заголовком R9 290 Руководство по разблокировке в посте 1 и используйте шаги 1-7, пропуская шаг 3.

Прежде чем нажимать на спойлеры ниже, прочтите приведенные ниже правила и следуйте им.

  • Сделайте резервную копию оригинального BIOS на видеокарте для каждого положения переключателя.
  • Отредактируйте копии своей исходной биографии, чтобы у вас всегда была оригинальная неотредактированная биография на случай, если что-то пойдет не так.
  • Не прошивайте обе позиции BIOS, по крайней мере, у вас будет возможность загрузиться с другого, если что-то пойдет не так.
  • Когда вы изменили BIOS, сделайте его копию, и как только контрольная сумма будет зафиксирована на одном из них, используя HawaiReader или HD7xxx Series UEFI Patch Tool BETA. Сравните 2 копии, используя функцию сравнения в шестнадцатеричном редакторе, чтобы узнать только контрольную сумму, измененную перед прошивкой.

Предупреждение: использование этого руководства для редактирования вашей биографии приведет к аннулированию гарантии (если она есть на карте). Это руководство предоставляется при условии, что пользователь знает о последствиях того, что он делает. Я не несу ответственности за ущерб от использования этой информации. Прилагаются все усилия для двойной проверки информации, но возможны ошибки.

Чего я добился повышения производительности с помощью модов BIOS

Чего я добился, вручную установив VID для каждого состояния DPM и EVV

Что нужно объяснить:

Следующее, что следует отметить в моем конкретном сравнении: в моем ПЗУ нет глобального смещения напряжения графического процессора, но есть микросхема напряжения на печатной плате (IR3567B).

Теперь 1 против 2, DPM 2-6 оказывается ниже при EVV, поэтому вероятность того, что карта, возможно, будет артефактом, скажем, при достижении этих частот DPM графического процессора (диапазона). Снижение происходит из-за увеличения частоты GPU во всем диапазоне DPM.

Сравнивая 2 и 3, мы видим, что DPM 5 и 6 нуждаются в более высоком VID, чем тот, который был установлен EVV, для отсутствия артефактов на тех частотах (диапазоне) DPM графического процессора при тестировании. DPM 4 и 2 оказались ниже, а DPM 3 без изменений, я установил DPM 1 ниже, и пока никаких побочных эффектов.

Сравнивая 3 и 4, мы видим рост по всем направлениям, но частота DPM графического процессора увеличилась, как и объем оперативной памяти.

Как я вижу, это стандартный ROM (1) по сравнению с 1090/1475 (3). В итоге я получил более высокие тактовые частоты на DPM для почти того же / более низкого напряжения, что и стандартный ROM под EVV. Даже 1 против 4 кажется лучше, поскольку каждый DPM выше стандартного для действительно небольшого отклонения напряжения.

Мои файлы журнала HML, файл HMLGPU-Z.zip 33k .zip

Примечание. При выполнении теста выше я использовал тест рендеринга GPU-Z в качестве графической нагрузки для регистрации зависшего VDDC от VID, это дает более линейное контролируемое значение VDDC по сравнению с другими приложениями. Я использовал MSI AB для мониторинга, как и файл журнала HML, плюс установил частоту DPM для тестирования с его помощью. Моя карта чувствительна к тесту 1 графики 3DMark FS, поэтому тестирование артефактов проводилось с помощью этой петли плюс прогон Heaven, а затем Valley.

Читайте также: