Прыгает частота ядра видеокарты

Обновлено: 04.07.2024

Рассмотрим, что можно сделать, если температура и частота ядра видеокарты колеблются при нагрузке на примере Sapphire Nitro RX-470 на 4Gb, проработавшей достаточно продолжительное время в майнинге.

В моем случае характерные колебания наблюдаются в процессе работы программы Furmark. На начальном можо видеть, что существенное скачкообразное поведение температуры отсутствует, по всей видимости, в силу одновременной записи видео с экрана, а вот колебание частоты четко наблюдается (подробнее -в видео ).

При выключении записи видео на несколько минут на графике температуры от времени наблюдается характерное колебание. При продолжительной работе карты под нагрузкой в тесте более 8 минут у меня она порой переставала выдавать изображение, а компьютер перезагружался.

Перед тем, как разобрать данную карту с помощью программы Afterburner, я решил уменьшить power limit для начала до -25, после чего в программе Furmark можно видеть, небольшие колебания.

Уменьшив значение power limit до -26 и отключив захват изображения значение температуры находится в более стабильном состоянии по сравнению с тем, когда энергопотребление карты было не занижено,

но при этом значение FPS падает со 100 до

70. Конечно, данная мера не является решением проблемы, поэтому разобрав карту, как и ожидалось, она достаточно грязная,

а теромпаста высохла и отвердела. Причем, вытекшее «силиконовые масло» от термопрокладок при взаимодействии с частицами пыли на ряде элементов образовало плотные слои грязи,

что в какой-то степени может оказывать влияние на стабильную работу. Почистив все элементы видюшки от грязи и пыли,

и собрав ее обратно в тесте Furmark, работа карты стала более-менее стабильной как по частоте, так и температуре, при этом большие колебания не наблюдались в процессе захвата видео и когда производился только стресс-тест. (Максимуму на графике соответствует момент времени без дополнительной нагрузки в виде захвата видео.)

Возможным решением может быть прошивка видеокарты. Для этого у производителя карты можно запросить оригинальную версию BIOS, что, собственно, я и сделал.

Затем с помощью программы ATI Flash, которую необходимо запустить с правами администратора прежде всего рекомендую сохранить текущую версию прошивки.

Для этого следует нажать клавишу Save и указать расположение, куда сохранить файл. Затем кликнув по клавише Load Image в открывшемся окне указывается путь к файлу с прошивкой в моем случае заводской. Во избежание каких-либо ошибок в процессе перепрошивки рекомендую перенести файл с БИОСом в корень папки, где располагается сама программа. Нажатием на клавишу Program выполняется прошивка видеокарты после чего предлагается перезапустить операционную. Результат теста карты после перепрошивки можем здесь видеть, как при захвате изображения так и без него.

Конечно, в моем случае он не является особо показательным, т.к. в данной ситуации проблема решилась путем обслуживания карты в результате чистки и замены термопасты. Также можно воспользоваться версией BIOSа, скачав ее с сайта techpowerup для своей видюшки.

В завершении очищенную и прошитую оригинальной версией BIOSа карту я протестировал в игре Need for Speed. Каких-либо фризов и вылетов не было.

В чем проблема: при заходе в любую игру частота ядра и памяти резко подскакивают (ядра до 2000, памяти - до 5000-7000)
Меня смущает именно то, что частота подскакивает ровно до 5001 и 7001.

Делал бенчмарк в игре rainbow 6 siege, видеокарта очень сильно пищала и потрескивали. Скачки (на скриншоте) были сделаны во время 10 секунд бенчмарка (ну просто не очень хочется слушать трещащую видеокарту).

В обычном состоянии также скачет частота (браузер, проводник, спотифай)

Пробовал менять режим электропитания, переустановил полностью драйвер, пробовал закрывать все, отключать аппаратное ускорение, включал v-sync, понижал герцовку монитора в самой игре, менял с фуллскрина на оконный, ничего не помогло

Ещё пересмотрел кучу форумов, решения толково так и нет

Я скорее всего много чего пропустил, задавайте вопросы, на все отвечу

P.S. карту заказывал из Германии, ей 1 месяц

__________________
Помощь в написании контрольных, курсовых и дипломных работ здесь

Скачет частота ядра видеокарты
Купил летом ноутбук Asus FX504gd. Характеристики такие: CPU Intel core i5-8300H, ОЗУ 12gb, GPU.

Скачет частота
Приветствую. Стоит FX 4330 и с недавнего времени начала скакать частота начиная с 200мгц до 27000.

Скачет вольтаж ядра на 780ti
Всем добрейший вечерок. У меня сложилась проблема, надеюсь на вашу помощь. Была карта gtx.


Скачет частота видеокарты
После переустановки виндовс в играх начались просадки фпс. MSI Afterburner показывает, что в момент.

Какая именно ? И если в таких пределах - то норм .
Дрова ставил на всё вручную с сайта производителя материнки ? Или может оно само или драйверпаками .
Просадок нет ? Возможно скачки из-за того , что БП не вывозит .
Ничего не гнал ? Обычно когда по шине гонят - чего только не происходит .
В простое никаких скачков или нагрузок нет ? А то может вирусы даже .

аномалия какая-то : попробовал бы по гарантии проверить у дилера .

1. 3060 Ti TWIN X2
2. Дрова ставил через geforce experience
3.просадок нет, все игры стабильно
4. Не гнал, наоборот, power limit на 95%.
5. Такие скачки только когда либо в полном экране, либо в браузере или проводнике

Проблема немного пофиксилась, когда зашёл в матчмейкинг, через минут 5 треск прекратился,
но все ещё скачет частота

Drive320
Переставить дрова вручную - на видео и чипсет , старые удалить в безопасном режиме .
Настройки в панели графики НВидеа менял или на автомате стоит ?
Процессор по шине гониться - не гнал ?
ОЗУ проверял расширенным мемтестом ?
СМАРТ какой у накопителей ?

чип бракованный как будто или что-то врёт : загрузитесь с Win PE Strelec и проверьте . Буст там помешьне заявлен - вон по кинутым ссылкам посмотреть можно . Взглянуть бы ещё на картинку из GPU-Z .

Переустановил везде дрова, ничего не поменялось
Настройки nvidia стояли в режими макс. Производительности, поменял на "качество", ничего не поменялось
Процессор не гнал вообще никак

Вот смарт (надеюсь то)

Скачал Win10 PE Strelec, только что тут надо конкретно открывать? Gpu-z не работает, msi afterburner тоже
Мемтест ошибок не показывает Скачал Win10 PE Strelec, только что тут надо конкретно открывать?

смотреть поведение видеокарты разумеется .

Картинки были сделаны в простое ? Почему такая нагрузка на память в последнем скрине ?

Картинки были сделаны когда я просто сидел в браузере или в проводнике.
Какие посоветуете утилиты для видеокарты в win10pe strelec? Картинки были сделаны когда я просто сидел в браузере или в проводнике.

смотря видео или так ?

Какие посоветуете утилиты для видеокарты в win10pe strelec? не знаю - не пользовался : но если работает GPU-Z , AIDA64 , FurMark это просто замечательно .

aida64 работает, сейчас проверю, а еще я сейчас смотрю видео в 4к, и частота не подскакивает вообще. Я заметил, что такое происходит только тогда, когда я открываю вкладку, переключаюсь между папками в проводнике или играю в игру.

Еще когда игра свернута, частота плавная, спокойная и вообще никак не меняется. стоит нажать на окно с игрой - моментально подскакивает частота

Кстати проверься на руткиты-майнеры на всякий случай . Дрова то стояли оригнал уже ? Версия БИОС рекомендованная для этого процессора ? А вообще в простое сколько видеопамяти занято ?

Дрова оригинал, с биосом тоже все ок, только не могу найти, где посмотреть в аиде частоты видеокарты

Добавлено через 1 час 52 минуты
Все уже перепробовал, результатов 0 к сожалению. Буду думать

я заказывал напрямую с computeruniverse

Добавлено через 3 часа 2 минуты
Я уже почти на финишной прямой.

Я заметил, что карта стала уходить в так называемый "режим буста", стоило мне нажать кнопку windows

Но есть 2 огромных НО:
1. Теперь у моей карты есть 2 режима работы: на 840мгц и на 7000мгц.
2. Когда я запускаю не особо требовательную игру (например, Assassin's creed 2), стабильно без пролагов, все шикарно.
Но стоит зайти в rainbow 6 siege, ФПС дропается до 50. Если я отключу "multi display power saver" во время игры в r6s, то начинается ахинея с 7000 МГц, треск и шум

И я вот голову ломаю, как ограничить mem clock, когда видеокарта в режиме "Макс. Производительности (7000 МГц)", и можно ли поменять сами настройки этого режима максимальной производительности?

Сейчас вся голова забита только тем, что легче будет просто переустановить виндовс. Думаю, это самый логичный вариант, потому что я не знаю, откуда появилась проблема с 7000мгц.

GPU: MSI GeForce RTX 3070 VENTUS 2X OC 8GB
CPU: AMD R7 2700X
МатПлата: Gigabyte Aorus b550m Elite
На днях обновил свой ПК. Скачал Battlefield V, хотел поиграть. Игра работает 2-3 минуты, после чего без ошибки попросту крашится\вылетает. В диспетчере задач отображается вот такой значок как на скрине выше.

Это распространенная проблема 3070-3090 карт - они могут работать нормально, а потом скакнуть так по мощности, что у блоков питания включается защита от перегруза. Для этих карт рекомендуют блоки с большим запасом по мощности. Либо очень качественный, который нормально справится с таким резким перегрузом.

Эту распространенную проблему пофиксили в драйвере через пару недель после выхода карточек

Блок питания 600W. Действительно не тянет?

Это могут быть платиновые 600Вт от сисоника, а может быть дохлый vx plus, где честных дай бог 400, и то вряд ли. Так что нужна более конкретная модель блока. Но на бп мало похоже, если дело в нем то игра бы не вылетала скорее всего, а комп бы вырубался.

Be quiet power 9 600W 80+ bronze

Норм, дело 99% не в нем, разве что он с браком. Но даже если так, бп обычно даёт другие симптомы. Так что надо копать в другую сторону. Лучше всего установить какой-нибудь детальный мониторинг и погонять разных стресс тестов, а там уже думать исходя из симптомов.

дело 99% не в нем

Панч просто. Настоящий эксперт дтф.

Дело 99% в нем, типичный бракоквает, на гарантию его

попробуй поставить другую видюху, и посмотри что будет дальше

У блочка два выхода на +12V? По спекам с сайта один из них до 28ампер отдаёт, а второй 22. Попробуйте переподключить провод на 12V1. Или запитать по одному 8пиновому коннектору от разных выходов. ред.

Еще будет хуйню почитать?

ну вроде как минимальное требование к бп это 650w к 3070, а рекомендованные 750

Это если блок гавно, они перестраховываются там и 500 хорошего хватит

чувак ну если в спецификации написано 650 смысл брать 500

Я и не предлагаю покупать 500вт, я говорю что если он хороший то и 500 хватит. А цифры от производителя с перестраховкой дают мало ли что за блок ты поставишь

ну только сама 3070 жрет 220 так что 500хз

Есть на 500 которые выдают все 500 по линии 12в, а есть 500 которые выдают 300 по 12в, остальное по 3.3 и 5 как бы, на самом деле нет таких систем которым надо больше 50-80 по этим линиям и то это фантастический конфиг. 500 честных хватит даже на 3090 если проц обычный без разгона.

Понятное дело, что там с запасом. Производитель же не в курсе, сколько еще потребляет твой процессор и есть ли прочие устройства.

Все может быть, у нас же больше инфы нет.

у самого 600w, подключена 3070 и 2070, дело не в бп :)

Похоже на блок питания

по идее, если бы не хватало ватт, то комп пошел бы в ребут для защиты

Ватты есть но там такие пульсации при большой нагрузки что ппц.

Либо не тянет либо у тебя сисоник какой-нибудь

Почти месяц 3070 юзаю с сисоником, полет отличный. Там вроде действительно на старте были большие скачки по току, которые уводили эти блоки в защиту, но позже всё поправили.

Video Encode — там тоже скачок. Попробуй на время отрубить оверлей нвидии и любой другой софт который может записывать видео и проверить останется ли проблема.

мне на 3070 rog помогло ограничение турбобуста через afterburner

А как это делается? Можно подробно написать?

Да, но причём тут black screen?

потому что америкосы все проблемы с крешами драйвера называют блек скрин

Ок, спасибо, буду копать в эту сторону

еще кому-то помогал переход на некий studio driver но лично не проверял

Studio Driver во многих играх отключит поддержку RTX и DLSS.

В одной игре? Стресс тест запусти фурмарк. 600 ватт 3070 за глаза

ну лучше брать поидее брать с резервом, я смотрел тест, там жрало 500-550 ватт, были еще и скачки выше

Запустил. Сразу зависает тест.

Хреного, какая-то нестабильность в системе питания видяхи. Неси в гарантию.
Если есть дружок с бп помощней, попробуй потестить с ним.

не ври, для него минимум 650, но для игр жрущих чуть больше чем герои 3 и этого мало будет

Посчитай потребление карты + проц.

посчитал, только не онлайн калькуляторами, а по факту, был у меня на 670 платиновый бп, 5 минут в играх держал, даже не жирных, а потом материнка говорит иди нахер с таким бп, поставил на 750, все ок

Брат может дело и не в бп но все же. Есть у тебя знакомы или лишний бп на чуть больше ват чтоб потестит.

У меня 3070 от асус, модель таф. Так у меня во всех стресстестах, играх и видео без проблем. Но вот в яндексбраузере периодически гаснет экран, как будто провод выдернул, потом через пару сек восстанавливается. В диспетчере виден скачок на ГПУ до 100%. Отключил аппаратное ускорение в браузере и забыл о проблеме. Блок фрактал дезайн 650 голд sfxl. Андервольт не помогал от слова никак.

Если решения долго нет, то стоит написать в тех.поддержку nvidia и поискать причины вместе с ними. Конечно покопаться на форумах может быть полезно, но вряд ли решение найдется сразу.

Играю в Ancestors, никаких скачков нет. Может только в бф5 такое говно?

Мне кажется дело в оператве. Я на неделе свою гнал , запустил в стресс тесте все ок. Запускаю игры ,5-10 минут вылет. Без ошибок и тд просто сброс на экран.
Вернул на дефолт все ок

Хм, кстати. У меня одна плашка 16гб, на ней включён xmp. Имеет место его выключить?

Пробуй выключать. Включал xmp, киберпан и рдр2 крашились каждые

5 минут, хотя ведьмак третий и прей работали хорошо. Выключил - все игры заработали хорошо.

У меня подобная проблема была, только не с xmp, а с разгоном видюхи. Добавлял через msi afterburner +120 мгц - во всех играх норм, но в одной-двух постоянные вылеты рандомные. Снизил до +100 мгц - всё норм, всё стабильно. Так что если есть какой-то минимальный разгон видюхи, имеет смысл проверить)

Да, скорее всего дело в ней

Ну тут по идее либо оператива, либо нестабильный разгон процессора. Я бы глянул в журнале на наличие WHEA-Logger ошибок.

Мб, просто баг самой игры, попробуй переустановить или файлы проверить

В утилите душил питание на 80 процентов?

Имеешь в виду msi afterburner? По совету выше понизил power limit до 80, но ещё не проверял

Джентльмены, а имеет значение, подключено провода питание от одного или двух гнезд питания?

Лучше на 1 карту 1 гнездо обычно.

Power consumption. 220W

Это из-за того, что ты купил младшую 3070 и лоханулся. Также было с 2070 (особенно у MSI). Чипы ждут, что смогут потребить больше, а BIOS не даёт.

Получается, нужен БП на 800Вт к примеру?

Нет, БП никак тебе не поможет. Это неисправимая проблема выбранной версии 3070 (это типа одна из бюджетных). Ты выбрал самую слабую 3070, там лимит 220W. Карта разгоняется, ударяется в Power Limit, откатывается и снова бежит в разгон. Даже тут на DTF были горы постов про аналогичную беду на 2070.

Я поэтому изучил обзоры и купил 3060 Ti на 240W вместо 200/220 (т.е. топовую 3060 Ti). И она в реальности работает стабильнее, чем младшие 3070 на 220W. ред.

Тогда. что остаётся делать? Можно её как-то сдать по гарантии и в этом духе?

Чем кончилось у людей других – без понятия. Сдать – сомневаюсь.

У меня 3070 Palit GameRock c паверлимитом 330W!Прекрасно держит 2150 по ядру в нагрузках. Но при этом в браузере при подключенном втором монике, бывает пропадает сигнал по HDMI надо переподключать кабель,а по DP сигнал на пару секунд пропадает и моник сам загорается снова. Это все счастье я словил на последних драйверах.Щас откатился на 457.30 и вроде пока все ОК. ред.

Ну так, если там 330W, то всё норм?)) Думаю, это опечатка и 220W просто нормально отработаны в BIOS, карта не летит наверх, а нормально балансирует частоты и нагрузки.

Большая часть жалоб была на MSI с этим лимитом в 2070 и 3070 (из тех, что я видел).

Я прошил BIOS GameRock OC c паверлимитом 330W,на другом BIOS оставил обычный.

Ааа, тогда бодренько, поздравляю!
Если сработало, то прям кайф)

Статью сюда запилишь?

Вот думаю стоит мне мой CORSAIR RMx850W на более мощный поменять?Думаю в течении полугода ее продать и перейти на 3080. ред.

Ну, я бы действовал по методу: сначала карту, погонять, потом уже БП, если реально вылезаешь за 70-80% мощности БП. А так, 850W должно хватать для современной сборки даже в разгоне.

Какой значок то?
И ошибки могут записываться в журнал Windows.
А так, обнови дрова, проверь вытягивает ли бп.

Что за блок питания?

Больше похоже на перегрев карты, тротлит она резко.

msi ab и двигать ползунки поверлимит и/или частоту ядра. для начала частоту ядра скинуть на 50-100 мгц, если помогло - поздравляю, карту нужно сдавать по гарантии. в стресс тестах типа древнего фурмарка смысла гонять вообще нет, может сутками крутиться и все будет ок. вылеты связанные с чипом карты обычно проявляются при скачкообразной нагрузке и при жестком упоре в поверлимит, как вариант гоняешь ведьмака/метро/контрол в 4к без v-синка и смотришь на результат. если манипуляции с ползунками мощности и частоты не помогли - дело не в карте, тут уже дело в озу вероятнее всего

Снизь частоту ядра, если помогло — значит блок питания не выдерживает скачки напряжения, присущие 30-ой серии

Или сама карта на пониженных частотах стабильна.

Так эту проблему для всех карт этой серии уже софтверно поправили давно

В этих тестах вообще всё нормально происходит. Запустил сегодня киберпанк - на загрузке крашится(

А ты тесты паралельно запусти, там где греет проц и там где видюху. Если там норм то точно не бп. И следом тести память, такие краши больше всего на нее похожи. А скачки нагрузки на видеокарту просто совпадение.

Ничего в системе не разгонялось? Обновлена была только видеокарта?

Процессор, матплата, видеокарта, винда

Кстати, плату B550m зачем взял, почему не полноразмерную ATX? Питание же у таких плат сильно хуже, ну и проблем обычно больше. ред.

Дешевле же на 2к, и без разгона вполне нормально.

Если кому будет полезно, поменял все в компе кроме видеокарты, проц i9 11900k, мать gigabyte aorus z590 elite ax, блок на 850в от гиги тоже, оперативки на 64гб туда, карту оставил 1050ti, во время сборки смотрел видосы, где говорилось о том, что для полноценной работы 11 проца на этой плате, следует обновить биос, ну я попробовал это сделать через фирменную систему от гиги через кнопку на мет плате, не обновилось нечего, решил не парится, включил работает. Ни каких нареканий как говорится нет. А диск под винду я купил м2 на сате. В общем купил карту ртх 3060 аорус от гиги тоже, из каждой игры вылеты, что только не перепробовал, во всех бейнчмарках все четко без скачков и перегрева, протестил все железо, ни каких намеков на то что бы могло быть не так, в общем перепробовал все что можно было от диванных экспертов по винде и т.д, решил переустановить винду, не чего не помогло. Потом вспомнил что мол советовали прошить биос мат платы, и что вы думаете? Проблема решилась, видно это нужно было для корректной работы с процессора с портом pci-e 4.0

Для идиотов которые все пишут про БП типа рекомендуемые -Вы сперва на сайт зайдите и гляньте с каким процам у них идет рекомендуемый БП там i9 указан разогнанный - к примеру если пишут 600ват для 3060 ti рекомендуемый -то учет идет топ процесор но не как не ваш к примеру райзан 2600-Кстати у меня таже проблема Точ такой Блок питания 3060 ti стоит пи здец 10 день ебу мозг выкидует Хоть тресни

Оптимизация потребления видеокарт Nvidia при майнинге

Видеокарты Nvidia GTX 1050, 1060, 1070 и 1080, а также новые модели серии RTX отличаются простотой настройки майнинга, стабильностью работы и хорошим хешрейтом.

Для достижения более высокой рентабельности майнинга криптовалют за счет уменьшения потребления электричества, а также снижения износа видеокарт от перегрева и работы кулеров на повышенных оборотах, желательно осуществлять даунвольтинг (снижение вольтажа) ядра GPU.

Это особенно важно при майнинге на алгоритме Ethash (используется у эфира, эфира классик, UBIQ, Metaverse, Expanse и многих других монет).

Как уменьшить энергопотребление видеокарт Nvidia при майнинге

При настройке видеокарт нужно понимать, что каждые сто мегагерц частоты на ядре видеокарты при майнинге на алгоритме Ethash дают прирост/снижение хешрейта на уровне около 0,5 Mh/s. Для хорошей скорости майнинга эфира достаточно иметь частоту ядра GPU на уровне 1100-1200 мегагерц.

Каждая видеокарта имеет индивидуальные возможности по разгону и даунвольтингу. Это зависит от качества кристаллов в ядре GPU и памяти. Для уменьшения потребления на ядре GPU Нвидиа программным способом можно использовать две популярных утилиты:

Наилучшие результаты по снижению энергопотребления дает программа NvidiaInspector, которая позволяет понизить вольтаж ядра ниже 800 милливольт, в то время как MSI Afterburner без дополнительных ухищрений позволяет его снизить только до 800 милливольт. Снижение вольтажа ядра до 0,8 В уменьшает потребление на примерно 20%, а температуру видеокарты на 4-5 градусов при одном и той же скорости кулеров.

Тем не менее иногда нужно применять MSI Afterburner либо одновременно обе программы (для разных видеокарт своя программа), так как некоторые видеокарты (например, P106-100 майнинг эдишн от MSI) не управляются NvidiaInspector.

Некоторые программы майнеры позволяют менять напряжение на ядре непосредственно в командной строке для их запуска. Для использования этих возможностей нужно изучать особенности каждой программы, а вышеуказанные утилиты являются универсальными и могут работать без сбоев и дополнительных настроек с любыми майнерами.

Как оптимизировать энергопотребление с помощью MSI Afterburner

Понизить энергопотребление на видеокартах Nvidia с помощью MSI Afterburner можно двумя способами:

  1. С помощью снижения TDP — лимита энергопотребления (power limit);
  2. С помощью ручного выставления постоянного напряжения и частоты на ядре GPU на кривой (curve) зависимости напряжения и частоты. В просторечии этот способ называют «курвой» от созвучного английского названия графика – curve.

Снижение лимита энергопотребления (Power Limit) видеокарт Nvidia в MSI Afterburner

Это самый простой способ управления энергопотреблением видеокарт Нвидиа, который позволяет достичь неплохих результатов и оптимизировать потребление.

Для снижения потребления нужно уменьшать напряжение на ядре GPU до такого значения, когда еще обеспечивается стабильная работа майнера. Для алгоритмов, не требовательных к частоте ядра (Ethash, который раньше назывался Dagger Hashimoto), для снижения потребления можно сильнее уменьшать частоту ядра (до примерно 1100 МГц), что позволит еще больше снизить энергопотребление.

Для других алгоритмов может потребоваться повышенная частота ядра. Как правило, большинство видеокарт Nvidia могут выдержать увеличение частоты ядра на примерно 150 мегагерц (+150 Mhz), а памяти – до +500 мегагерц и выше (если повезет с чипами памяти).

Скриншот программы MSI Afterburner при downvolting видеокарты P106-100 (MSI GTX1060 6 Gb mining edition) с помощью понижения до 65% лимита по энергопотреблению (достигнуто напряжение на ядре 800 мВ):

Оптимизация потребления видеокарт Nvidia при майнинге

После установки параметров разгона ядра и памяти с помощью ползунков частот, для снижения потребления видеокарт при майнинге нужно понизить TDP видеокарт.

Значение 100% Power Limit дает самый большой хешрейт при высоком потреблении, выделении тепла и шума от кулеров. Выставление этого значения в промежутке от 50 до 75% позволяет установить оптимальное напряжение на ядре при незначительном снижении хешрейта. Напряжение на ядре и его частота при этом будет автоматически колебаться для сохранения выставленного значения лимита, что будет отражаться и на хешрейте.

Скриншот Phoenix Miner при майнинге эфира в соло при 65% TDP:

Оптимизация потребления видеокарт Nvidia при майнинге

Чтобы обеспечить стабильное напряжение на ядре, используют способ выставления постоянного напряжения и частоты на ядре на кривой (curve) зависимости напряжения и частоты ядра GPU.

Даунвольтинг видеокарт Nvidia с помощью «курвы»

При этом способе выставляют желаемый разгон видеопамяти ползунком в основном окне MSI Afterburner, оставляют 100% Power Limit, перемещают до упора влево частоту ядра (-400Mhz) и нажимают на график в виде трех столбцов в строке частоты ядра (Core Clock):

Оптимизация потребления видеокарт Nvidia при майнинге

Появится окно, позволяющее регулировать зависимость частоты и напряжения на ядре видеокарты:

Оптимизация потребления видеокарт Nvidia при майнинге

В появившемся окне перетягивают начало графика вольтажа ядра и частоты от значения 800 мВ до значения частоты на пару мегагерц выше максимальных значений графика:

Оптимизация потребления видеокарт Nvidia при майнинге

Затем нажимают кнопку применить (Apply) в окне MSI Afterburner:

Оптимизация потребления видеокарт Nvidia при майнинге

Стабильно выставленный график зависимости частоты и напряжения на ядре видеокарты Nvidia в программе MSI Afterburner (напряжение на ядре – 800 мВ при частоте ядра 1550 МГц) выглядит следующим образом:

Оптимизация потребления видеокарт Nvidia при майнинге

Аналогичным образом можно выставить стабильное значение для любой частоты и напряжения, на которой видеокарта может работать.

Скриншот MSI Afterburner для видеокарты P106-100 со значением курвы 800 мВ при частоте ядра 1544 МГц:

Оптимизация потребления видеокарт Nvidia при майнинге

Скриншот MSI Afterburner для видеокарты P106-100

Настройка скорости кулеров в MSI Afterburner

В MSI Afterburner также можно выставить график зависимости скорости кулера от температуры. Для этого нажимают на кнопку шестеренки в MSI Afterburner, выставляют нужную форму графика вращения кулеров в зависимости от температуры, и не забывают активировать кнопку автоматического применения этих значений (кнопка Auto должна стать зеленой).

Скриншот MSI Afterburner при настройке скорости вращения кулеров:

Оптимизация потребления видеокарт Nvidia при майнинге

Значения разгона, даунвольтинга и скорости кулеров можно записать в профили разгона, которые будут автоматически загружаться при включении рига (при активации соответствующих пунктов в окне настроек программы):

Оптимизация потребления видеокарт Nvidia при майнинге

Управление потреблением видеокарт Nvidia программами Nvidia Inspector и NVIDIA Profile Inspector

Главным преимуществом NvidiaInspector является возможность установки вольтажа GPU Core менее 800 мВ, что значительно уменьшает прожорливость видеокарт.

Обе эти программы требует наличия в операционной системе установленного NET Framework 2 и выше.

Для того, чтобы управлять напряжением ядра видеокарт компании Нвидиа с помощью утилит Нвидиа Инспектор и Нвидиа Профайл инспектор, на нужных GPU желательно отключить другие утилиты управления видеокартами, в том числе MSI Afterburner.

Если на видеокартах включен режим CUDA — Force P2 State (максимальной производительности), его выключают с помощью программы NVIDIA Profile Inspector . При постоянно включенном режиме P2 нужно использовать в два раза большие значения разгона ядра и видеопамяти. Если этот режим вручную не выключался, то обычно по умолчанию он включен.

Скриншот NVIDIA Profile Inspector в разделе управления режимом CUDA — P2 State:

Оптимизация потребления видеокарт Nvidia при майнинге

Кроме того, для увеличения хешрейта в программе NVIDIA Profile Inspector можно подкорректировать значение power management mode, выставив его в Prefer Maximum Performance. Для экономии электроэнергии это значение можно поставить в optimal или adaptive.

Скриншот NVIDIA Profile Inspector в разделе управления режимом Performance:

Оптимизация потребления видеокарт Nvidia при майнинге

Программа Nvidia Inspector позволяет осуществить следующие действия:

  1. Понизить напряжение на ядре для экономии электричества.
  2. Разогнать ядро видеокарты для повышения хешрейта.
  3. Установить нужное значение скорости вращения кулеров видеокарт для поддержания нужной температуры (желательно до 60 градусов, что минимально изнашивает электронные компоненты видеокарты).

Чтобы использовать NvidiaInspector, нужно создать пустой текстовый файл в той же папке, где она установлена. В его текстовой части нужно вставить следующие строки (для рига из 5 видеокарт, считаются от 0 до 4):

SET GPU0=-setMemoryClockOffset:0,0,380 -setBaseClockOffset:0,0,190 -setFanSpeed:0,%FAN% -lockVoltagePoint:0,%VOLT% -setTempTarget:0,0,%TEMP%

SET GPU1=-setMemoryClockOffset:1,0,380 -setBaseClockOffset:1,0,130 -setFanSpeed:1,%FAN% -lockVoltagePoint:1,%VOLT% -setTempTarget:1,0,%TEMP%

SET GPU2=-setMemoryClockOffset:2,0,510 -setBaseClockOffset:2,0,100 -setFanSpeed:2,%FAN% -lockVoltagePoint:2,%VOLT% -setTempTarget:2,0,%TEMP%

SET GPU3=-setMemoryClockOffset:3,0,490 -setBaseClockOffset:3,0,-50 -setFanSpeed:3,%FAN% -lockVoltagePoint:3,800000 -setTempTarget:3,0,%TEMP%

SET GPU4=-setMemoryClockOffset:4,0,380 -setBaseClockOffset:4,0,100 -setFanSpeed:4,50 -lockVoltagePoint:4,650000 -setTempTarget:4,0,%TEMP%

«nvidiaInspector.exe» %GPU0% %GPU1% %GPU2% %GPU3% %GPU4%

Затем меняют расширение этого файла в BAT, создают ярлык этого файла и помещают его в папку автозагрузки рига. Обычно это C:\Users\имя пользователя\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup.

Для настройки пакетного файла для конкретного майнинг рига в нем устанавливают следующие параметры:

  • TIMEOUT /T 25 – время в секундах для задержки запуска NvidiaInspector (в данном случае 25 секунд);
  • SET FAN=44 – скорость вращения вентиляторов видеокарты, в процентах (здесь – 44%);
  • SET VOLT=660000 – напряжение на ядре видеокарты, в милливольтах (в данном случае 660 мВ);
  • SET TEMP=60 – целевая температура видеокарты (60 градусов);
  • SET GPU0 – параметры для первой видеокарты (нумерация начинается с нуля);
  • -setMemoryClockOffset:0,0,380 – разгон по памяти GPU (в данном случае +380 МГц). Обычно память Hynix может разгоняться до 400-550 Mhz, Micron – до 500-700 мегагерц, а Samsung – до 650-850 Mhz;
  • -setBaseClockOffset:0,0,190 – разгон по частоте ядра (здесь +190 МГц). Для обеспечения высокого и стабильного хешрейта частоту видеокарт лучше выставлять не менее 1100 МГц (для некоторых видеокарт, в том числе серии 1080 это значение может быть большим). Напряжение можно контролировать в окне Nvidia Inspector (или в программах HWinfo, Aida64), которую для этого запускают путем двойного клика на ее файл.

Скриншот окна утилиты Nvidia Inspector, которая управляет напряжением на ядре (Voltage = 650 мВ), частотой памяти и скоростью вентиляторов (для установки нужных значений используется запуск BAT-файла с нужными параметрами):

  • -setFanSpeed:0,%FAN% — частота вращения вентиляторов (в данном случае для нулевой по счету видеокарты равна значению, выставленному в SET FAN=);
  • -lockVoltagePoint:0,%VOLT% — вольтаж на ядре (в данном случае для нулевой видеокарты равна значению, выставленному в SET VOLT=);
  • -setTempTarget:0,0,%TEMP% — целевая температура (в данном случае для этой видеокарты равна значению, выставленному в SET TEMP=).

Скриншот BAT-файла для использования NvidiaInspector для рига с 6-ю видеокартами:

Оптимизация потребления видеокарт Nvidia при майнинге

При правильном снижении напряжения на ядре можно значительно снизить потребление видеокарт, сохранив приемлемый хешрейт. Это особенно актуально сейчас, при низком биржевом курсе большинства криптовалют и общем снижении рентабельности майнинга.

При нестабильной работе рига нужно просматривать логи майнера, находить проблемную видеокарту и либо повышать напряжение на ее ядре, либо снижать разгон ядра и видеопамяти. Обычно при сильном разгоне по ядру зависает весь риг, а при переразгоне по памяти – только майнер.

Читайте также: