Pwr_src power draw
The 3090 carries a 350W TDP, or higher with custom models. So we can expect the base 3090 Ti to push over the 400W barrier, with custom cards like the Kingpin probably pushing the 500W mark. And that’s before taking any overclocking into consideration which is what these cards are built for.
How much power does 3080 draw?
By comparison, the Nvidia GeForce RTX 3080 is rated for 320 watts, while the GeForce RTX 3080 Ti is rated for up to 350 watts. AMD’s equivalent models may be a lot more power-hungry too.
What should my board power draw be?
Regular PCI cards consume between five and 10 watts. A CD or DVD drive will take about 20 to 30 watts and a hard drive consumes between 15 and 30 watts. Your motherboard probably uses 50 to 150 watts, and each stick of memory requires about 15 watts. The processor needs between 80 and 140 watts of power.
What is the power draw of 3070?
The RTX 3070 at its peak consumes around
200 Watts. That’s why your power supply needs to have a minimum of 550 Watts, which is more than double the peak. The RTX 3070 Ti pulls up to 290 watts by itself, a more than 30 percent jump over the RTX 3070.
Is 1000W PSU enough for 3090?
It should be adequate, but the recommended PSU is 800w at least, to handle any overhead that a high end CPU or additional parts like storage and fans might draw. I would recommend going for 800w or higher if you’re getting a 3090, they consume a lot of power and run hot.
Can a 750w PSU handle a 3090?
Most 3090 cards will need two 8 pin aux power connectors. A quality 750w psu can likely do the job. If you buy a factory overclocked card with 3 8 pin connectors, that could add up to 150w to your needs.
Can a 650 watt PSU run a 3080?
The RTX 3080 is a power hungry GPU, it consumes about 320W and even up to 400W if it’s overclocked. A 650W will do the job, but a 750W PSU is recommended.
Is an 850W power supply enough for a 3080?
Yes, it’s enough, but it might not be ideal. An RTX 3080 uses up to around 370W under peak load, and a Ryzen 9 5900X uses up to around 150W under peak load.
Is 750W PSU enough for 3080?
NVIDIA’s next-gen graphics cards (GPU) are here, and upgrading your PC with one of our picks for the best PSU for the NVIDIA RTX 3080 ensures it will have enough power to reach its full potential. . NVIDIA recommends the best PSUs to be at least 750W for the RTX 3080, which is where we will focus here.
Is 300 watts good for gaming?
300 watts is enough if it’s a single rail PSU and the system has an overall low power design aside from the components mentioned. Most people never upgrade their computer in a way that significantly increases the power requirements, so the system you linked to may do perfectly well for you.
How much voltage is too much for GPU?
In short: Yes, you can increase your voltage if you want, but don’t go past 1.2v, really you should consider 1.187v the max for regular gaming use.
Is GPU-Z accurate?
Distinguished. Yes run GPU-Z in the background to get a proper reading because the GPU temp rapidly goes down after the game is stopped or even ALT-Tab out. Once you run GPU-Z and the game at the same time you will read Higher temps.
Can a 650 watt PSU run a 3070?
NVIDIA recommends a 650W PSU for the RTX 3070, but if you’re currently working with, say, a 600W PSU, you might get along just fine depending on other hardware in your system. . It sits somewhere between the high-end and budget options in terms of price, and it has the 650W recommended to power the RTX 3070.
Can a 600W PSU handle a 3070?
Yes, assuming your PSU isn’t incredibly cheap and providing way less power than advertised you should have absolutely no problem running those. Nvidia technically recommends a 650-watt power supply along with the 3070 but that is to cater to massive overclockers and people with power supplies much worse than claimed.
Is a 750w PSU enough for a 3070?
Yes. According to Nvidia you should be fine with a 750w psu. They did the test with an i9–10900k and RTX 3070 and said you should be able to scrape by with a 650w psu but I would recommend going with a 750 gold psu to be safe.
Bitcoin
Board power draw что это
Полезная функция , а на динозаврах типа g92 заработает?
- Профіль
- Цитата
- Профіль
- Цитата
- Профіль
- Цитата
Polaris
Потребление считало и так. Через какие слоты оно опдается — не так важно.
- Профіль
- Цитата
- Профіль
- Цитата
- Профіль
- Цитата
- Профіль
- Цитата
- Профіль
- Цитата
- Профіль
- Цитата
Кто в здравом уме подобного динозавра с 20пин колодкой поставит в паре с 10хх и выше зелёными?
О тонких проводах — улыбнуло от уха и до уха: скорее из за хреновых контактных групп неизвестного китай-металла +обжимка некачественная пойдёт перегрев в разьёмах и их оплавление, чем поплавятся а тем паче выгорят именно шнурки
Все подобные варианты — ерунда, ну а по проплавленные слоты — это к амд первых ревизий 480
И да: самый лучший мониторинг — аппаратный, всё программное — с оговорками
По сути нововведений: есть такое — да пусть себе будет, всё равно пару дней любопытный пользователь помониторит периодически эти параметры и успокоится, ибо конкретной полезности минимум, вряд ли кто то в страхе побежит за новым БП с увеличенным сечением шнурка на мамку, и менять мамку на +2 слоя 12в под слот ПСИХ-Е, или продавать видяшку ибо она жрёт по 12в линии от ПСИХ-Е больше чем ему хотелось бы
- Профіль
- Цитата
Кто в здравом уме подобного динозавра с 20пин колодкой поставит в паре с 10хх и выше зелёными?
О тонких проводах — улыбнуло от уха и до уха: скорее из за хреновых контактных групп неизвестного китай-металла пойдёт перегрев в разьёмах и их оплавление, чем поплавятся а тем паче выгорят именно шнурки
Все подобные варианты — ерунда, ну а по проплавленные слоты — это к амд первых ревизий 480
И да: самый лучший мониторинг — аппаратный, всё программное — с оговорками
По сути нововведений: есть такое — да пусть себе будет, всё равно пару дней любопытный пользователь помониторит периодически эти параметры и успокоится, ибо конкретной полезности минимум, вряд ли кто то в страхе побежит за новым БП с увеличенным сечением шнурка на мамку, и менять мамку на +2 слоя 12в под слот ПСИХ-Е, или продавать видяшку ибо она жрёт по 12в линии от ПСИХ-Е больше чем ему хотелось бы
- Профіль
- Цитата
Polaris
И шо? Шо ты на этих ВК хочешь мониторить, если там аппаратно нет такой возможности? Ты читал под какое поколение это возможно данной утилитой?
Инфа прийдёт на gpu от шимок с реализованными датчиками потребления, а gpu-ха их скинет дальше через ПСИХ-Е, и токо потом эти данные сможет вывести на мон тулза
На «старых» поколениях не всегда шим сообщает gpu-хе эти данные, самостоятельно регулирует потребление по тем или иным критериям, заданным аппаратно или получая инфу от того же gpu, который в свою очередь регулируется из бивиса видяшко, иногда извне (тот же бёрнер, увеличение паверлимитов/прочее)
Повторюсь: практической пользы немного от такого мониторинга, только для ознакомиться и увидеть разницу между разными вендорами/моделями/ревизиями ВК, ибо реализация питаний тоже различна, вешают на слот ПСИХ-Е и пару фаз питания самого gpu, и памяти, и обвязки различной и тд
Palit GeForce RTX 3080 Ti GamingPro — мало fps (Проблема решена)
Конфигурация моего пк: i7-8700, 16gb 3200, ssd Samsung EVO 860 2tb, блок питания 700w, монитор 2к 144Гц. На днях получил видеокарту, но возникли проблемы. В Warzone 90-100 fps на максимальных настройках без лучей и dlss. Что странно в лобби скачет fps, может до 60 опуститься и до 150 подняться. Моя rx 5700xt выдавала 100-110 fps. Подумав, что пожалуй в Warzone могут быть проблемы, особенно с вышедшем новым сезоном, пошел тестить другие игры, но и они не выдают желаемого результата. Вот примеры для наглядности, все настройки максимально возможные: GTA 5 90-110 fps; Cyberpunk 2077 без dlss и лучей 60 fps/ с лучами 40 fps; Метро, ультра лучи без dlss 80 fps ( хотя это начало игры, в закрытом пространстве плюс удивило, что после загрузочного ролика перед появлением меню игры, fps просел до 8); RDR 2 бенчмарк без dlss- минимально 29 fps, максимум 96 fps, средний показатель 76 fps/ в самой игре с dlss качество 95-100 fps с падением до 60-70 fps. Бенчмарк 3dMark в тесте Time Spy Score набрал 15197 баллов. Нагрев видеокарты без всяких вмешательств 75-76 градусов. Теперь какие предпринял шаги, для исправления данной проблемы, но в итоге это не помогло:
1. Стояла Windows 11. Вообщем это еще бетта версия, плюс в системе остались старые драйвера, снес и поставил чистую 10-ку. Накатил warzone, переустановил шейдеры и ничего не поменялось. Собственно после этого пошел тестить другие игры.
2. Подумал, что все тесты на ютубе делались с более старыми версиями драйвера, может самая новая косячная — перебрал все драйвера и не помогло. Ставил и studio драйвера и без GeForce Experiens.
3. Логично возник вопрос- наверное все упирается в процессор. Но как ни странно, во всех протестированных играх в среднем процессор нагружен на 60 в моментах 70 %, при этом видеокарта нагружена на 99 %, редко проседав до 95 %. При чем блок питания 700 w, но сама видеокарта стабильно потребляет 348-350w.
4. Ставил видеокарту в другую систему с i7-10700k, 16 gb, ssd и блок питания на 750 w, с чистой windows. Там fps в Warzone и Cyberpunk такой же как на моем i7-8700.
В следствии вышесказанного, что можете посоветовать ? Может все таки процессор слабоват, однако по идее он должен грузится под 90 %, а видеокарта простаивать. Информации нигде толком не нашел, только на зарубежном форуме nvidia многие жалуются на fps именно в warzone, при чем на всю 3000-ю линейку видеокарт. Ждать нового драйвера или сдать видеокарту? Купил ее на 5-ой расспродаже, это мелочь, но при распаковке удивило, что не было заглушек на разъеме и не доложили календарик, хотя коробка не вскрывалась)))
Решение проблемы:
Делюсь своим небольшим опытом- возможно кому нибудь будет полезна эта информация. Для начала, я обратился с запросом в компанию Palit. В ответном письме они написали, что мой процессор i7-8700 полностью подходит для 3080ti и проблем с производительностью быть не должно. Так же написали кучу рекоммендаций — замена блока питания на более мощный, смена драйверов видеокарты на старую версию, использовать только лицензионные игры и много всего, вплоть до переустановки windows. Вообщем попробовал все, плюс обновил биос материнской платы — ничего не помогло. В биосе менял режимы разгона- тоже мимо. Кстати, по этой проблеме много постов на зарубежных форумах и при чем на видеокартах различных вендоров. И решения проблемы люди там тоже не находили- некоторые апгрейдили пк на более мощные процессоры, но это им не помогало. И поскольку о проблемах стали писать еще в 2020 году, я уже отчаился и начал думать, что зря я свою 5700xt поменял, ибо она плюс-минус такую же производительность выдавала как 3080ti, только без поддержки dlss и трассировки лучей.
Протестировал свою видеокарту на двух разных системниках с блоками питания 750w (как раз рекомендуемая мощность для 3080ti именно этой версии) и процессорами I7-9700 и I7-10700k — проблема осталась. При чем рендеринг в блендере, различные тесты в бенчмарках проходили как надо. Да и сама видеокарта держала свои заявленные частоты.
Материнская плата у меня на чипсете lga-1151 v2, принял решение рискнуть поменять свой 8700 на i9-9900k. Именно рискнуть, ибо встречались люди у которых даже на 11900к оставалась эта проблема с низким фпс. И о чудо- все заработало как надо, но с некоторой оговоркой. Я поменял процессор на 9900к, зашел в warzone и fps вырос с 110 до 130, что уже имело положительную динамику, но не до конца. И только когда в биосе материнки вставил режим "Экстрим" ( как я понимаю это разгон и процессора и оперативной памяти), фпс в warzone вырос до эталонных 150-180 в зависимости от локации, в гулаге 200. Так же вырос фпс и в других играх, к примеру в Киберпанке с 60 до 90 при тех же настройках. При чем все в разгоне держал старый блок питания на 700w 3-x летней давности от Zalman. Блок питания конечно поменял на более мощный, все теперь работает как надо и с самыми новыми драйверами от nvidia и когда обновился windows 11 — никаких проблем не обнаружил. Видеокарта держит температуру в нагрузке до 75-76 градусов и это в довольно таки закрытом корпусе nzxt h500i
Вообщем могу сделать вывод — мне помогла замена процессора. Однако будьте внимательней, особенно если у вас процессор amd. Я в линейке amd не разбираюсь, но судя по зарубежным форумам, люди апгредили свои процессоры этой компании на более мощные, мощнее чем i9-9900k и это им не помогло. Так же странно, что 10700к и 9900к в принципе одинаковые, даже первый бцдет получше, но тестировал с 10700к и проблема сохранялась плюс на форумах у людей с 10700к был также low fps.
Board power draw что это
I have a gaming laptop and I’m curious as to what is the total power draw of the GPU. Knowing that might help explain performance on something.
But, I see no clear way of finding GPU TGP? Any help would be appreciated.
That will give you the total system draw, yes, but you won’t be able to get the draw of the GPU specifically.
It also shows total power being pulled at the wall, but due to less than perfect efficiency, it’s not a very helpful number if you’re looking for power needs of a given individual part.
Many parts also publish TDP numbers, but these, too, can be pretty off the mark some of the time.
It depends on what reason(s) OP is wanting to know the power draw on what methods may work best.