Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[
16]
17
DrFreaK666
2023-11-07, 10:18:07
Außerdem kann man so mehr für die 4080S verlangen
Prinzenrolle
2023-11-07, 23:45:19
https://www.igorslab.de/langzeituntersuchung-schmorender-kontakte-an-nvidias-geforce-rtx-4090-neue-erkenntnisse-messungen-und-bekannte-ursachen/
Neuer Anlauf zur Eruierung der Steckerproblematik. Sinnvoll?
Kriegsgeier
2023-11-10, 11:45:14
Also, die Preise der 4090 sind extremst gestiegen! Lieferbare Karten sind erst ab 2500€ zu haben! WOW!
https://www.youtube.com/watch?v=vB_McXkYGGU
Linmoum
2023-11-10, 11:49:02
Ich sehe bei Geizhals lieferbare Karten für unter 2000€.
Exxtreme
2023-11-10, 11:52:23
Richtig Glück gehabt die Karte für unter 1600 EUR bekommen zu haben. X-D Gut, ist halt kein OC-Modell. Aber das juckt mich nicht.
gnomi
2023-11-10, 12:15:21
Seit RT ist die größte Karte besonders beliebt und teuer.
Bei Titan hat das für nvidia noch nicht so funktioniert.
Egal. Wenn sie ab der zweitbesten Karte abverkaufen und nachlegen müssen, ist es auch schon ein Fortschritt. :D
Triniter
2023-11-10, 12:46:34
Richtig Glück gehabt die Karte für unter 1600 EUR bekommen zu haben. X-D Gut, ist halt kein OC-Modell. Aber das juckt mich nicht.
Ja, geht mir auch so. Unglaublich wie die Karten wieder gestiegen sind. Hab echt lange mit mir gerungen weil davor ja auch schon ne 3090 im PC war aber kaum war die 4090 drin hab ich nicht einen Gedanken mehr an die Investition und die 3090 verschwendet. Mit Verkauf der 3090 war ich dann sogar im Bereich von 800€ Aber klar das ist schon ein wenig Milchmädchenrechnung weil die 3090 auch mal Geld gekostet hat.
Exxtreme
2023-11-10, 13:17:20
Vor allem, die Dinger sind sauknapp. Selbst MF hat nur noch 7 Modelle. Und Nvidia hat die Produktion der GPUs schon lange eingestellt. Da könnte schon was dran sein, dass man eine ähnliche Situation bekommt wie beim Mining-Boom. Nur dass die Dinger jetzt in Massen nach China verkauft werden.
Coroner
2023-11-10, 22:18:28
Ein blöder Zeitpunkt eine 4090 kaufen zu wollen, aber so ist es nunmal und heute kam die Suprim X Liquid bei mir an :love4:. Habe eine aus dem Mindfactory-Angebot für 2024,84 Euro bekommen, seit heute ist die "billigste" Suprim X Liquid direkt über 90 Euro teurer und bei Mindfactory ist sie vergriffen, krass wie stark diese Karten trotz der Preise noch nachgefragt sind :freak:.
Und Nvidia hat die Produktion der GPUs schon lange eingestellt.
Ada ist gerade mal knapp über 1 Jahr alt, die Produktion des AD102 wurde ganz gewiss nicht eingestellt.
Exxtreme
2023-11-10, 22:45:21
Ada ist gerade mal knapp über 1 Jahr alt, die Produktion des AD102 wurde ganz gewiss nicht eingestellt.
https://www.extremetech.com/gaming/report-nvidia-has-practically-stopped-production-of-its-40-series-gpus
Scheint leider zu stimmen, sorry. :)
Radeonfreak
2023-11-10, 22:54:00
Gestoppt ist nicht gleich eingestellt. Trotzdem Blöd.
ImmortalMonk
2023-11-10, 23:06:24
Ada ist gerade mal knapp über 1 Jahr alt, die Produktion des AD102 wurde ganz gewiss nicht eingestellt.
Kann schon sein, da man sämtliche Produktionskapazitäten für deutlich lukrativere AI Chips freigeschaufelt hat. Meldungen dazu gab es bereits im Sommer. Auf das Thema bin ich in meinem Post ja auch eingegangen. Aber eben diese KI Chips gehen ja zukünftig auch nicht mehr nach China. Bleibt abzuwarten, wie sich das einpendelt.
https://www.extremetech.com/gaming/report-nvidia-has-practically-stopped-production-of-its-40-series-gpus
Scheint leider zu stimmen, sorry. :)
Ups sorry, hatte dein Post auf der neuen Seite erst nach dem Absenden meines eigenen Posts gesehen:)
Lehdro
2023-11-11, 21:29:46
Das ist ja mal echt der Hammer:
Tomshardware: Hundreds of RTX 4090s With Melted Power Connectors Repaired Every Month, Says Technician (https://www.tomshardware.com/news/technician-repairs-hundreds-rtx-4090-melted-connectors-every-month)
"We get about 20 to 25 [GeForce RTX] 4090 [graphics cards] a week," the repairman said in a NorthbridgeFix YouTube video."
This volume highlights just how common the issue is with this model. To illustrate how many GeForce RTX 4090 graphics boards come to repairs, the repairman said he had to get a half-mask respirator and an air purifier to not harm his health when he fixes the melted connectors.
Und:
"So now it is safe to say the [GeForce RTX] 4090 melted connector is not a user problem," the repairman said. "We discussed this many times in the past, but I want to mention one last time that this is not a user error."
Passt halt 1:1 zu dem was Igor gesagt hat: Das Ding ist technischer Sondermüll als Connector.
Ex3cut3r
2023-11-11, 21:51:28
Ich weiß nicht, müssten dann nicht mehr User aus dem 3DCenter und HWLuxx z.B. sich ständig beschweren? Sehe ich nix von.
Lehdro
2023-11-11, 21:55:13
Ich weiß nicht, müssten dann nicht mehr User aus dem 3DCenter und HWLuxx z.B. sich ständig beschweren? Sehe ich nix von.
Tinfoilhat-Theorie: Da das ganze erfolgreich als "stupid User error" geframed wurde, will keiner sagen zugeben dass er ein dummer User ist ;)
Ich gucke lieber gleich noch mal bei mir nach. Das letzte mal hatte ich geguckt als ich den absurden Oberleitungsabnehmer gegen ein natives 12VHPWR Kabel von Corsair getauscht hatte.
Langlay
2023-11-11, 22:02:05
Passt halt 1:1 zu dem was Igor gesagt hat: Das Ding ist technischer Sondermüll als Connector.
So krass würde ich das nicht bezeichnen. Der ursprüngliche Connector hat definitiv Schwachstellen und Kinderkrankheiten. Aber dadurch das quasi nur 4090 betroffen sind und die 4080 und kleiner nur sehr vereinzelt betroffen ist, kann man da als besorgter 4090 User schon entgegenwirken (Undervolting).
Grundsätzlich von den Problemen abgesehen find ich den Stecker eigentlich ziemlich gut und ist ein Segen für mein Mini-ITX Gehäuse.
Megamember
2023-11-11, 22:03:19
Wäre interessant zu wissen ob das hauptsächlich bei der vierschwänzigen Peitsche oder auch mit den Monokabeln der Nt Hersteller passiert?
Lehdro
2023-11-11, 22:10:40
So krass würde ich das nicht bezeichnen. Der ursprüngliche Connector hat definitiv Schwachstellen und Kinderkrankheiten. Aber dadurch das quasi nur 4090 betroffen sind und die 4080 und kleiner nur sehr vereinzelt betroffen ist, kann man da als besorgter 4090 User schon entgegenwirken (Undervolting).
Ja toll, ein 600W Stecker ist dann safe, wenn man die Nutzlast auf 50% droppt. Ganz großes Kino.
Grundsätzlich von den Problemen abgesehen find ich den Stecker eigentlich ziemlich gut und ist ein Segen für mein Mini-ITX Gehäuse.
Ich behaupte einfach mal frech dass für 99% der 4090 Besitzer ein technisch einwandfreier Stecker wichtiger wäre als die Größe des besagten Steckers.
Langlay
2023-11-11, 23:02:00
Ja toll, ein 600W Stecker ist dann safe, wenn man die Nutzlast auf 50% droppt. Ganz großes Kino.
Naja das der Stecker in der Revision nicht hätte auf den Markt kommen sollen da bei ich sicherlich bei dir, aber das ist ja jetzt ein quasi gelöstes Problem und es gibt einen überarbeiteten Stecker, ist halt blöd für User der Altversion(wie mich z.b.) aber in Zukunft sollte das ja funktionieren.
Ich behaupte einfach mal frech dass für 99% der 4090 Besitzer ein technisch einwandfreier Stecker wichtiger wäre als die Größe des besagten Steckers.
Ich hab ja auch nicht behauptet das ich für alle 4090 User spreche sondern nur für mich und meine Anforderungen.
https://www.extremetech.com/gaming/report-nvidia-has-practically-stopped-production-of-its-40-series-gpus
Basierend auf einer Meldung von MLID. Joa, da kann ich gleich die Bild Zeitung auspacken :rolleyes:
dildo4u
2023-11-12, 03:34:51
Der China Bann ist offiziell die Board Partner müssen jetzt erstmal neue Produktionsstätten finden weil sie keine 102 Chips importieren dürfen.
Of course, restricting exports of RTX 4090 cards to China also means that manufacturing of RTX 4090 cards in China also gets blocked. Third-party AIB (add-in board) partners, including Asus, Gigabyte, MSI, PNY, and more, would have to potentially shift all assembly of RTX 4090 products to other regions, like Taiwan. There's a cost to doing the work elsewhere, and, conceivably, that would thus impact pricing.
https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-4090-subject-to-china-export-restrictions-starting-november-17
Taigatrommel
2023-11-12, 08:54:36
Wenn man es jetzt aber mal nüchtern betrachtet sind die Preise der 4090 grob auf dem Niveau von vor einem Jahr, sprich die ersten Wochen nach Release und das bei gleichzeitig ähnlicher bis, meinem Gedächtnis nach, sogar leicht besserer Verfügbarkeit der Karten.
The_Invisible
2023-11-12, 08:59:16
Sollte dann Refresh Chips die auf ad102 basieren auch nicht günstiger machen, wenn überhaupt was kommt...
dildo4u
2023-11-12, 09:06:22
Gibt wenig Grund die wieder zu bringen wenn es stimmt das AMD keine neuen High-End Modelle für 2024 hat.
NV hatte einige Generationen wo der Midrange Chip als High-End Gameing verkauft wurde und der Fette Chip als Titan.
Ex3cut3r
2023-11-12, 13:58:06
Platz für eine 4080 Ti (Super) müsste eigentlich drin sein, mit AD102 Chip, 320-Bit Interface und eben 20GB VRAM, sowie ein paar weniger Shader als bei der 4090. Viele Chips schaffen es vermutlich nicht zur 4090....was also mit denen machen? Richtig, eine 4090 LE aka RTX 4080 Ti (Super) ich verstehe nicht, wieso man von solch einem Modell aktuell nichts hört. Für 999€ wär es ein Kassenschlager...für 1199€ eher nicht.
basix
2023-11-12, 15:02:40
Wieso sollten sich nicht viele Chips für eine 4090 eignen? Da werden 1x GPC + 4x SM sowie 25% des L2$ deaktiviert. Das GDDR-Speicherinterface wird nicht oft den Yield begrenzen. AMD hat bei den wenigsten Chips das SI beschnitten und alle Konsolenchips laufen immer mit dem vollen SI. Nvidia nutzt SI-Beschneidung mMn primär zur Produktsegmentierung.
Aber ja, eine 4080 Ti Super wäre denkbar. Ich würde dann aber auch eine 4090 Super bringen und die 4090 EoL setzen. Zwischen 4080S und 4080 TiS sowie 4090 wäre nicht so viel Platz. Den AD102 Salvage bringt man mit der 4080 TiS ja immer noch weg (da stärker beschnitten als die 4090) und obenrum bringt man noch ein paar Enthusiasten um ihr Geld, weil eine noch etwas schnellere Karte rauskommt.
Da die 4090 jetzt im Preis steigt und eine 4080S für 999$ MSRP rauskommen soll, hätte es auch entsprechend Platz vorhanden. 4080 Ti Super für 1299$ und die 4090 Super für 1599$.
dildo4u
2023-11-13, 11:04:57
Platz für eine 4080 Ti (Super) müsste eigentlich drin sein, mit AD102 Chip, 320-Bit Interface und eben 20GB VRAM, sowie ein paar weniger Shader als bei der 4090. Viele Chips schaffen es vermutlich nicht zur 4090....was also mit denen machen? Richtig, eine 4090 LE aka RTX 4080 Ti (Super) ich verstehe nicht, wieso man von solch einem Modell aktuell nichts hört. Für 999€ wär es ein Kassenschlager...für 1199€ eher nicht.
Es gibt eine Feste Zahl(4800 Tops) was noch in China produziert/verkauft werden darf kann sein das 4080 Super (AD103) schon nah am Limit ist.
AD102 muss auf 60 Tflops FP 32 reduziert werden.
https://videocardz.com/newz/nvidia-to-launch-hgx-h20-l20-and-l2-gpus-for-china
4080 Super wird vermutlich in dem Bereich sein.
RTX 6000 kann 91Tflops.
https://www.techpowerup.com/gpu-specs/rtx-6000-ada-generation.c3933
dargo
2023-11-13, 12:21:58
Platz für eine 4080 Ti (Super) müsste eigentlich drin sein, mit AD102 Chip, 320-Bit Interface und eben 20GB VRAM, sowie ein paar weniger Shader als bei der 4090. Viele Chips schaffen es vermutlich nicht zur 4090....was also mit denen machen? Richtig, eine 4090 LE aka RTX 4080 Ti (Super) ich verstehe nicht, wieso man von solch einem Modell aktuell nichts hört. Für 999€ wär es ein Kassenschlager...für 1199€ eher nicht.
Weil eine fette SKU von 609mm² für NV zu diesem Preis viel zu unwirtschaftlich ist. Insbesondere jetzt wo man in anderen Segmenten um Welten höhere Preise verlangen kann.
The_Invisible
2023-11-13, 13:01:13
Platz für eine 4080 Ti (Super) müsste eigentlich drin sein, mit AD102 Chip, 320-Bit Interface und eben 20GB VRAM, sowie ein paar weniger Shader als bei der 4090. Viele Chips schaffen es vermutlich nicht zur 4090....was also mit denen machen? Richtig, eine 4090 LE aka RTX 4080 Ti (Super) ich verstehe nicht, wieso man von solch einem Modell aktuell nichts hört. Für 999€ wär es ein Kassenschlager...für 1199€ eher nicht.
Die 4090 ist ja schon nur der "Abfall" der RTX6000 Ada. Da schneidet man schon recht viel Shader/Cache weg, glaub kaum das da die Ausbeute schlecht ist. Und an AD102 unter 1k glaub ich sowieso nicht. :D
Taigatrommel
2023-11-13, 13:26:49
Richtig, eine 4090 LE aka RTX 4080 Ti (Super) ich verstehe nicht, wieso man von solch einem Modell aktuell nichts hört. Für 999€ wär es ein Kassenschlager...für 1199€ eher nicht.
Eine 4080 Super für 999€ wäre natürlich ein Kassenschlager, wenn die reguläre 4080 bei rund 1200€ Straßenpreis liegt. Gerade aufgrund der hohen Preise und tendenziell eher bescheidenen Verfügbarkeit, ist die 4080 ganz gut positioniert. Solange nVidia den Preis der Super also nicht deutlich anhebt bzw. die Preise der 4090 wieder auf 1500-1600€ fallen, sehe ich da eher weniger Probleme, ein durchaus irgendwo attraktives Produkt zu haben. Es ist jetzt schon ein deutlicher Unterschied, ob ich einen Aufpreis von etwa 300 bis 400 Euro zur 4090 berappen müsste oder gleich mal das doppelte.
Sicherlich könnte nVidia das auch günstiger anbieten, nur warum sollten sie?
VooDoo7mx
2023-11-13, 15:45:59
Wegen der Kabelproblematik:
Wenn das angeblich so häufig ist, müsste es doch hier im Forum schon längst Fälle geben, oder? Schließlich haben ja 4080 und 4070Ti den selben Anschluss.
Ich hab hier nichts gehört?! Kennt ihr von (vielen) Fällen aus anderen Foren?
Ich selber verwende auch das Be Quiet Kabel das macht insgesamt einen besseren Eindruck als dieser 4fach Adapter. Des weiteren zieht meine 4090 nur selten mehr als 300W über den Stecker.
Also wo sind die ganzen geschmolzenen Stecker?
Rancor
2023-11-13, 16:07:34
Ich glaube wenn man das Kabel richtig reinsteckt, kommt es auch zu weniger Problemen.
Lehdro
2023-11-13, 16:39:45
Wenn wir jetzt noch den Logikbogen hinbekommen um zu erklären warum das bei den alten PCIe Steckern (oder EPS 12V...) nie ein Problem dieses Ausmaßes war, hätten wir alle etwas mitgenommen, ohne hier das Blame-Game zu spielen.
Der Stecker ist scheiße designed.
MiamiNice
2023-11-13, 16:44:48
Die 4090 ist ja schon nur der "Abfall" der RTX6000 Ada. Da schneidet man schon recht viel Shader/Cache weg, glaub kaum das da die Ausbeute schlecht ist. Und an AD102 unter 1k glaub ich sowieso nicht. :D
Warum Abfall in ""? Die 4090 ist ein absolutes Salvage Produkt. Die guten Chips gehen auf die RTX6000, die miesen auf die 4090. Nicht umsonst hat die 4090 satte 11% vom Chip deaktiviert.
Die 4090 ist, objetiv gesehen, Abfall.
Linmoum
2023-11-13, 17:25:54
Und stampft trotzdem mit riesigem Abstand alles andere in den Boden. Scheint aber für viele kurioserweise nicht die tatsächliche Performance relevant zu sein, warum auch immer.
vinacis_vivids
2023-11-13, 17:29:07
In ausgewählten von Nvidia gesponserten Titlen ist die 4090 vorn (CP2077 + Alan Wake 2). In anderen Titeln/Engines ist praktisch Gleichstand.
Radeonfreak
2023-11-13, 17:47:42
Du musst andere Balken angucken als ich. :freak:
Taigatrommel
2023-11-13, 17:55:33
Du musst andere Balken angucken als ich. :freak:
Gleich kommen wieder handverlesene Ergebnisse :biggrin:
Radeonfreak
2023-11-13, 17:57:22
In 1080p.
Blase
2023-11-13, 18:20:12
In der Quake 3 Engine.
Call of Duty Modern Warfare 3 im Test: Radeon-Dominanz trifft auf Nvidias Frame Generation (https://www.pcgameshardware.de/Call-of-Duty-Modern-Warfare-3-Spiel-44147/Tests/CoD-MW3-PC-Settings-Benchmarks-1433406/)
Auch mit aktuellen Treibern noch ein klarer Radeon-Showcase, aber zumindest die RTX 4090 kann sich halbwegs in Szene setzen. Direktvergleich mit MW2 möglich, denn die Benchmarks davon sind direkt darunter.
MfG
Raff
Blase
2023-11-16, 11:16:48
Hey Raff,
warum lasst ihr eigentlich, zumindest gelegentlich, die "großen Schiffe" bei der näheren Betrachtung außen vor? Da wird manchmal die 4090 gar nicht mit gebencht - und hier wird FG "nur" bis zur 4070 hoch getestet. Warum?
Ich verstehe natürlich, dass weitere Messungen einen (noch) höheren Mehraufwand bedeuten. Aber WENN 4080 und 4090 im Testparcour enthalten sind und WENN FG getestet wird - ja warum dann die 4080 und 4090 hier nicht auch mit FG betrachten? Unter der gänzlich fehlenden 4K Auflösung?
Zu sagen, es wissen doch eh alle, dass sie den längsten Balken haben ist grundsätzlich ja richtig - aber wo dieser Balken genau landet, ist doch der eigentliche Mehrwert für eben die 4080 und 4090 Besitzer...
MfG Blase
dildo4u
2023-11-16, 12:19:28
Die 4090 verschwindet doch ich bezweifle das man die günstig gebraucht bekommt.
Die neue Spitze wird 4080 Super sein.
Alles über 60 Tflops darf in China nicht zusammengebaut werden und nur dort kannst du billig genug produzieren damit die 4090 Sinn macht.
https://videocardz.com/newz/nvidia-to-launch-hgx-h20-l20-and-l2-gpus-for-china
Achill
2023-11-16, 13:22:47
Hey Raff,
warum lasst ihr eigentlich, zumindest gelegentlich, die "großen Schiffe" bei der näheren Betrachtung außen vor? Da wird manchmal die 4090 gar nicht mit gebencht - und hier wird FG "nur" bis zur 4070 hoch getestet. Warum?
Ich verstehe natürlich, dass weitere Messungen einen (noch) höheren Mehraufwand bedeuten. Aber WENN 4080 und 4090 im Testparcour enthalten sind und WENN FG getestet wird - ja warum dann die 4080 und 4090 hier nicht auch mit FG betrachten? Unter der gänzlich fehlenden 4K Auflösung?
Zu sagen, es wissen doch eh alle, dass sie den längsten Balken haben ist grundsätzlich ja richtig - aber wo dieser Balken genau landet, ist doch der eigentliche Mehrwert für eben die 4080 und 4090 Besitzer...
MfG Blase
Meine Annahme ist, dass der Aufwand im Vergleich zur erzeugten Erkenntnis und damit der möglichen Erzeugung von Leserinteresse nicht passt. Es ist ja mit Einsatz von Arbeitszeit und damit Kosten verbunden sowie wie viele HighEnd GPUs die PCGH hat um parallel für verschiedene Artikel zu testen. Hinzu kommt ggf. der Schutz bei einigen Plattformen nicht zu viele HW-Wechsel in einen bestimmten Zeitraum zu ermöglichen. In diesen Fällen würde ich als Redaktion die Karten wählen, wo ich meine größe Zielgruppe (Payed via Abo oder via ADs) erreiche.
Ich denke Test mit den großen GPUs sind in den Fällen interessant, wo andere GPUs unter gehen, für alle anderen Fälle ist es imho nur streicheln des eigenen Egos auf die eine oder andere Weise.
Pumpi74
2023-11-16, 13:32:07
vielleicht soll sich die Zahlungskräftige Kundschaft das Heft kaufen ?
redpanther
2023-11-16, 13:52:41
Die 4090 verschwindet doch ich bezweifle das man die günstig gebraucht bekommt.
Die neue Spitze wird 4080 Super sein.
Alles über 60 Tflops darf in China nicht zusammengebaut werden und nur dort kannst du billig genug produzieren damit die 4090 Sinn macht.
https://videocardz.com/newz/nvidia-to-launch-hgx-h20-l20-and-l2-gpus-for-china
Dafür das sie Verschwindet ist sie aber noch echt gut verfügbar.
Und das man auch in anderen Ländern "billig" produzieren kann, ist nicht nur zB Apple in Indien aufgefallen...
Exxtreme
2023-11-16, 13:55:01
Dafür das sie Verschwindet ist sie aber noch echt gut verfügbar.
Und das man auch in anderen Ländern "billig" produzieren kann, ist nicht nur zB Apple in Indien aufgefallen...
Gut verfügbar ist was anderes. Selbst MF hat nur noch 8 Modelle ATM. Und die hatten schon viel weniger. Und alle so um 2K EUR rum.
dildo4u
2023-11-16, 14:04:39
Dafür das sie Verschwindet ist sie aber noch echt gut verfügbar.
Und das man auch in anderen Ländern "billig" produzieren kann, ist nicht nur zB Apple in Indien aufgefallen...
Apple ist eine ganz andere Hausnummer was Kapital angeht und die haben damit schon in 2017 angefangen bis NV die Produktion umstellen kann ist die 4090 nicht mehr aktuell.
redpanther
2023-11-16, 14:09:12
Ich habe nicht geschrieben das sie billig sind.
Wenn ich bei GH.de nach 4090 Suche habe ich auf der ersten Seite >25 Modelle die alle Lagernd angezeigt werden.
Aber ja, ~2000€ wird man aktuell hinlegen müssen...
redpanther
2023-11-16, 14:11:23
Apple ist eine ganz andere Hausnummer was Kapital angeht und die haben damit schon in 2017 angefangen bis NV die Produktion umstellen kann ist die 4090 nicht mehr aktuell.
Und wo widersprichst du meiner Aussage, das es auch andere Länder gibt, wo man billig(er) produzieren kann?
China ist generell garnicht mehr soooo billig. Wenn man da keine Subventionen abgreifen kann.
dildo4u
2023-11-16, 14:17:56
Hab grad mal geguckt selbst mit Maximalen RT ist Alan Wake nur 40% schneller, die 4080 Super wird daraus vermutlich 30% machen.
So lange die neuen Gaming Karten zumindest 16GB haben ist der Aufpreis nicht mehr gerechtfertigt.
Es sei den ich hab mich verrechnet aber selbst 1200€ zu 2000€ wären über 60% Aufpreis.
Ex3cut3r
2023-11-16, 18:32:49
Tatsächlich wären es 66,67% :tongue:
Klugscheißen. ^^
2000/1200 - 1 *100 = 66,666 ~ 66,67% aufgerundet.
Cubitus
2023-11-16, 19:05:26
gainward-rtx-4090-phantom-gs-24-gb-grafikkarte (https://www.galaxus.de/de/s1/product/gainward-rtx-4090-phantom-gs-24-gb-grafikkarte-22671040?shid=1219133)
Rückläufer für 1852 Euro mit voller Garantie, finde ich aktuell ok.
ChaosTM
2023-11-16, 19:52:19
gainward-rtx-4090-phantom-gs-24-gb-grafikkarte (https://www.galaxus.de/de/s1/product/gainward-rtx-4090-phantom-gs-24-gb-grafikkarte-22671040?shid=1219133)
Rückläufer für 1852 Euro mit voller Garantie, finde ich aktuell ok.
Kann ich empfehlen wenn es um Overclockability und vor allem die Lautstärke geht.
Ging nur zurück, weil ich damals eine 3Slot Max Karte brauchte.
add.: mit der Karte kam ich locker über 3ghz @ Port Royale
Hatstick
2023-11-17, 08:59:18
Wird aktuell eventl. versucht eine Krise herbei zu rufen, zu wünschen, zu schreiben wie auch immer oder warum lese ich die letzte Zeit täglich in auf den Hardware Seiten, wie schlimm es um die 4090 bestellt ist? War der ursprüngliche UVP nicht 1949€?
Ich sehe aktuell keine deutlich teurere 4090 oder bekommt man aktuell wirklich nichts mehr unter 2500€? :rolleyes:
dildo4u
2023-11-17, 09:10:09
1600€ waren möglich, die FE wurde im Mai auch billiger Sommer war logischerweise der Beste Zeitpunkt zu kaufen.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-drops-to-e1599-in-germany-18-below-original-msrp#:~:text=Palit%20RTX%204090%20now%20available,from%202022%20(%E2%82%AC1949).
Hatstick
2023-11-17, 09:14:06
1600€ war vor einiger Zeit, es steht aktuell Weihnachten vor der Tür und gerade eben habe ich bei Mindfactory lieferbare Palit Karten für den UVP gesehen. Verstehe nicht, warum da jetzt täglich Wind drum gemacht wird.
Ist mir einfach aufgefallen und nervt mich bissl beim lesen der Hardware Seiten, als wenn nichts anderes mehr zu schreiben ist.
Das es bessere Zeiten für die 4090 zum kaufen gab ist ja kein Geheimnis aber jetzt von einer Krise zu schreiben, halte ich schon sehr an den Haaren herbei gezogen.
Bin ich von der PCGH gar nicht gewohnt aber jetzt scheint die KI Krise zu kommen. :freak:
dildo4u
2023-11-17, 09:19:52
Nvidia hat grad erst bei der AI Performance zugelegt möglich das sich die Karte jetzt mehr fürs Arbeiten lohnt als vor ein paar Monaten bin aber kein Experte.
Es gibt also zusätzliche Anreize es den Gamern weg zu kaufen.
https://wccftech.com/nvidia-brings-up-to-5x-ai-acceleration-windows-11-pcs-rtx-40-rtx-30-gpus/
Hatstick
2023-11-17, 09:24:45
Das ist kein Geheminis und sollte man auf jeden Fall auf den Zettel haben aber es gibt momentan überhaupt keine Indikatoren, das dies passiert.
Der Preis der 4090 von 1600€ Tiefststand auf wieder aktuell UVP lieferbar zum Weihnachtsgeschäft sehe ich eher als sehr positiv an und da kann nicht ansatzweise von irgendeiner Krise sprechen.
Den PCGH Artikel kann man bringen, wenn sie erst ab 2500€ lieferbar ist. Aber nur meine 2 Cents.
00-Schneider
2023-11-17, 09:35:55
Wahrscheinlich haben viele auf Black Friday Deals gehofft.
Da die Karte aber keine Konkurrenz(bei RT) hat und der Nachfolger erst ~2025 kommt, gibt es für eine Preissenkung aktuell eigentlich auch keinen Grund.
Better luck next year.
The_Invisible
2023-11-17, 09:50:45
Nvidia hat grad erst bei der AI Performance zugelegt möglich das sich die Karte jetzt mehr fürs Arbeiten lohnt als vor ein paar Monaten bin aber kein Experte.
Es gibt also zusätzliche Anreize es den Gamern weg zu kaufen.
https://wccftech.com/nvidia-brings-up-to-5x-ai-acceleration-windows-11-pcs-rtx-40-rtx-30-gpus/
Da gehts ja eher darum das AI besser in Windows integriert wird und auch lokale Hardware für Berechnungen genutzt wird. Da braucht man aber sicher keine 4090 dafür sondern sind eher kleinere Workloads gemeint.
anorakker
2023-11-17, 10:07:20
Wahrscheinlich haben viele auf Black Friday Deals gehofft.
Da die Karte aber keine Konkurrenz(bei RT) hat und der Nachfolger erst ~2025 kommt, gibt es für eine Preissenkung aktuell eigentlich auch keinen Grund.
Better luck next year.
Es gab schon die letzten 3 Jahre keine nvidia gfx deals zum black friday, wer sollte sich da Hoffnung gemacht haben?
Coroner
2023-12-06, 13:51:50
Ist es bei der Suprim X Liquid normal dass die beiden fans auf dem Radiator nicht synchron laufen? :confused:
Im Leerlauf läuft einer der fans mit etwas über 1200 rpm und der andere mit etwas über 1500 rpm, wie es sich unter Last verhält muss ich noch ausprobieren. Ich habe mal testweise mit MSI Afterburner "sync fans" eingestellt und der langsamere fan wird dann auf etwas unter 1400 rpm hochgeregelt während der andere fan weiterhin mit etwas über 1500 rpm läuft.
Das kommt mir irgendwie strange vor, habe aber im Netz dazu nichts gefunden.
Edit:
habe eben bei Tom's Hardware gelesen dass sie im Test nicht wussten welche fan speeds den Programmen gemeldet werden, ergo könnten die ~1500 rpm von BEIDEN fans auf dem Radiator stammen da sie ja eigentlich synchron geregelt werden und die ~1200 rpm könnten zum kleinen fan passen der direkt auf der Karte sitzt (den hatte ich fast vergessen), das würde Sinn ergeben. Gefühlt laufen die beiden Radiator-fans synchron, ich denke der langsamere fan speed ist der des 95er auf der Karte selbst.
Edit2: habe ein wenig mit Afterburner herumgespielt: die ~1200 rpm gehören zu den beiden Radiator-fans und die ~1500 rpm gehören zum 95er auf der Karte ^^.
mironicus
2023-12-16, 11:10:14
LOL
6H9XeH8G_mM
Exxtreme
2023-12-16, 11:26:07
Naja, 19 von wievielen Hunderttausend? Kann sein, dass da eine Serie einen Produktionsfehler hat. Oder einige Leute die Stütze nicht benutzt haben und dann reisst mit der Zeit was etc.
Langlay
2023-12-16, 12:21:58
Naja, 19 von wievielen Hunderttausend? Kann sein, dass da eine Serie einen Produktionsfehler hat. Oder einige Leute die Stütze nicht benutzt haben und dann reisst mit der Zeit was etc.
Imo Transportschäden. Die Karten waren normal horizontal im einem PC eingebaut und der PC ist dann verschickt worden oder sonst wie transportiert und schlecht gehändelt worden und dann haste solche Risse bei den Riesenkarten. Ist ja jetzt kein neues Phänomen.
OgrEGT
2023-12-22, 18:45:01
https://videocardz.com/newz/cablemod-recalls-12vhpwr-1-0-1-1-angled-adapters-users-advised-to-stop-using-them-immediately
Gynoug MD
2023-12-22, 19:12:26
https://videocardz.com/newz/cablemod-recalls-12vhpwr-1-0-1-1-angled-adapters-users-advised-to-stop-using-them-immediately
Hab es Gott sei Dank schon lange rausgeschmissen und nutze nur noch das original Bequiet-Kabel.
OgrEGT
2023-12-24, 15:38:15
https://www.computerbase.de/2023-12/12vhpwr-stecker-seasonic-empfiehlt-kabel-vorm-biegen-per-foehn-zu-erhitzen/
dargo
2023-12-24, 15:47:51
LOL
https://youtu.be/6H9XeH8G_mM
Hauptsache die Grakas saufen in Zukunft noch mehr wodurch die Kühler noch größer und schwerer ausfallen dürften. :uclap:
Imo Transportschäden. Die Karten waren normal horizontal im einem PC eingebaut und der PC ist dann verschickt worden oder sonst wie transportiert und schlecht gehändelt worden und dann haste solche Risse bei den Riesenkarten.
Mich wundert eigentlich, dass solche Ziegelsteine verbaut im Rechner verschickt werden. :freak: Dann ist es natürlich kein Wunder, dass solche Schäden aufkommen.
Hauptsache die Grakas saufen in Zukunft noch mehr wodurch die Kühler noch größer und schwerer ausfallen dürften. :uclap:
Ist alles kein Problem, wenn die Karten in verbautem Zustand entsprechend gesichert werden. Im Idealfall werden die Karten vor dem Transport aus dem Fertig-PC ausgebaut.
In der Logistik ist keine Zeit um für jedes 3. Paket die Samthandschuhe auszupacken, Schlaglöcher in den Straßen tun dann noch ihr übriges. Das sollte so langsam jedem bekannt sein.
Linmoum
2023-12-24, 15:57:14
Transportschäden sind auch mit irgendwelchen kleinen Single-Slot-GPUs möglich, wenn die Karten nicht entsprechend gesichert werden. Aber damit kann man keine großen Schlagzeilen generieren, stattdessen sind fette Kühler Schuld.
Lehdro
2023-12-24, 22:01:35
Transportschäden sind auch mit irgendwelchen kleinen Single-Slot-GPUs möglich, wenn die Karten nicht entsprechend gesichert werden. Aber damit kann man keine großen Schlagzeilen generieren, stattdessen sind fette Kühler Schuld.
Hebelwirkung existiert halt tatsächlich, somit ist es gerade bei unsachgemäßem Transport/Handhabung deutlich wahrscheinlicher das eine dicke 4090 Scherkräfte abkriegt, die das Board überstrapazieren, als eine GT 1030.
Linmoum
2023-12-24, 22:50:19
Mangelnde Transportsicherung ist aber kein zu kritisierendes Problem an fetten Kühlern. Das ist eine Selbstverständlichlichkeit, die immer sachgemäß zu erfolgen hat. Eine höhere Wahrscheinlichkeit ändert halt trotzdem auch nichts daran, dass dadurch ebenso genauso kompaktere Karten Schaden nehmen.
vinacis_vivids
2024-01-22, 14:55:09
https://www.techpowerup.com/318128/chinese-vendors-are-offering-nvidia-geforce-rtx-4080m-and-rtx-4090m-as-desktop-gpus
Chinesen labeln "M" Chips fürs Desktop um. Sie dursten nach Chips nach Biden`s Embargo. Wahrscheinlich fallen viele auch auf das Label rein, weil nur AD102 der 4090er entspricht.
4080m = AD104 - 7424 CUDA / 12GB / 294mm² 5nm ~ 4070S / 4070Ti
4090m = AD103 - 9728 CUDA / 16GB / 379mm² 5nm ~ 4080 Desktop
r3ptil3
2024-01-27, 12:07:54
https://i.ibb.co/G9Lb4FW/Strix-4090.png
Test: AIDA64 "Stress GPU"
GPU-Verbrauch: ca. 400W
Modell: ASUS Strix RTX 4090 OC
Ich habe sicher seit Wochen oder Monaten nicht mehr richtig gezockt, hatte jedoch in Erinnerung, dass die Hotspot-Temperatur noch nie in solchen Bereichen war. Ist aber jetzt störend.
Können hier andere RTX 4090 Besitzer was dazu sagen?
Überlege mir nämlich auch den Kühler zum ersten Mal zu öffnen und neue WLP aufzutragen. Gibt da schon einige Berichte im Netz, dass einige das selbe Problem hatten aufgrund unsauberer Verteilung der Original-WLP.
RoughNeck
2024-01-27, 12:36:18
Bei meiner Gainward Karte liegt der Hotspot 9° über der GPU Temp.
Beim Freund von seiner MSI Karte liegt der Hotspot 8° über der GPU Temp.
Solch große Unterschiede sind bei AMD Karten "normal", hier würde ich sagen dass da was nicht passt.
Cubitus
2024-01-27, 12:51:26
https://i.ibb.co/G9Lb4FW/Strix-4090.png
Test: AIDA64 "Stress GPU"
GPU-Verbrauch: ca. 400W
Modell: ASUS Strix RTX 4090 OC
Ich habe sicher seit Wochen oder Monaten nicht mehr richtig gezockt, hatte jedoch in Erinnerung, dass die Hotspot-Temperatur noch nie in solchen Bereichen war. Ist aber jetzt störend.
Können hier andere RTX 4090 Besitzer was dazu sagen?
Überlege mir nämlich auch den Kühler zum ersten Mal zu öffnen und neue WLP aufzutragen. Gibt da schon einige Berichte im Netz, dass einige das selbe Problem hatten aufgrund unsauberer Verteilung der Original-WLP.
Ja der Hotspot ist zu hoch, dieser sollte die 10 Grad nicht überschreiten.
Eventuell mal den Kühler abschrauben und die WLP tauschen.
Megamember
2024-01-27, 12:58:27
Ja der Hotspot ist zu hoch, dieser sollte die 10 Grad nicht überschreiten.
.
10 Grad sind optimal, 20 sollten nicht überschritten werden.
Lurtz
2024-01-27, 13:59:31
10 Grad? Sprecht ihr von der Differenz?
The_Invisible
2024-01-27, 14:00:13
Die WLP kann ja schon nicht nach knapp 1 Jahr fertig sein, aber ja hab auch nur 10 Grad Unterschied. Wobei GPU und speichertemp ja passen, Strange...
r3ptil3
2024-01-27, 21:14:39
https://i.ibb.co/G9Lb4FW/Strix-4090.png
Test: AIDA64 "Stress GPU"
GPU-Verbrauch: ca. 400W
Modell: ASUS Strix RTX 4090 OC
Nachtrag:
https://i.ibb.co/jHZvWRC/Strix-4090-open.jpg
Anscheinend hatte meine Grafikkarte in der Produktion den letzten Rest der Wärmeleitpaste gekriegt, welche minderwertig war. Der innere Bereich auf dem DIE war vertrocknet und bröselig. An den Ecken hatte es nicht mal welche.
Nach dem Auftragen frischer WLP:
https://i.ibb.co/QjG6DMp/Strix-4090-v2.png
Hinweis (Zimmertemperatur war jetzt 3-4K höher).
The_Invisible
2024-01-27, 21:54:50
Schon etwas frech vor allem da die Strix ja zu den teuersten Customs gehört
Sardaukar.nsn
2024-01-27, 21:57:27
Wow, ich habe ja inzwischen schon einige GPUs zerlegt aber das hab ich noch nicht gesehen.
Freut mich für dich das du eine Lösung gefunden hast. Sowas sollte natürlich nicht vorkommen.
Cubitus
2024-01-28, 12:29:11
10 Grad sind optimal, 20 sollten nicht überschritten werden.
Stimmt, wobei bei mir die Differenz sogar nur 8 Grad beträgt.
Aber das ist schon richtig frech, gut das die Lösung geklappt hatte, die Werte sind jetzt in Ordnung :)
Holy Cannelloni! Ich habe gerade die Demo von Voxlands (https://store.steampowered.com/app/2283580/Voxlands/) gespielt und da ging der Verbrauch meiner ULV-4090 durch die Decke. 340 Watt, das sind fast 50 Watt mehr als bei Mexodus EE & Co. Ladet dieses knuffige Spiel einfach mal, startet es und geht in den ersten Dialog. Dort setzt ein DoF-Effekt ein, der es richtig knallen lässt. Ausprobieren auf eigene Gefahr. :biggrin:
MfG
Raff
Slipknot79
2024-02-01, 01:04:48
Holy Cannelloni! Ich habe gerade die Demo von Voxlands (https://store.steampowered.com/app/2283580/Voxlands/) gespielt und da ging der Verbrauch meiner ULV-4090 durch die Decke. 340 Watt, das sind fast 50 Watt mehr als bei Mexodus EE & Co. Ladet dieses knuffige Spiel einfach mal, startet es und geht in den ersten Dialog. Dort setzt ein DoF-Effekt ein, der es richtig knallen lässt. Ausprobieren auf eigene Gefahr. :biggrin:
MfG
Raff
Ich teste das gerade mit der aktuell eingebauten 980Ti. Immerhin funzt schon mal FSR2. Mit Ultra performance von 28 auf 64fps (y) im Menü.
Und an deiner Stelle sind es 310-315W, FSR2off. (y)
Langlay
2024-02-01, 01:24:53
Holy Cannelloni! Ich habe gerade die Demo von Voxlands (https://store.steampowered.com/app/2283580/Voxlands/) gespielt und da ging der Verbrauch meiner ULV-4090 durch die Decke. 340 Watt, das sind fast 50 Watt mehr als bei Mexodus EE & Co. Ladet dieses knuffige Spiel einfach mal, startet es und geht in den ersten Dialog. Dort setzt ein DoF-Effekt ein, der es richtig knallen lässt. Ausprobieren auf eigene Gefahr. :biggrin:
MfG
Raff
Auf meiner 4090 Eco (2520MHz@875mV) ist der Verbrauch zwar hoch, aber noch nicht außergewöhnlich hoch.
https://i.imgur.com/X36kYyc.jpg
Spitzenreiter was Verbrauch angeht ist immernoch Q2 RTX was nochmal ~30W mehr frisst.
https://i.imgur.com/jbnxBP5.jpg
Triskaine
2024-02-01, 10:45:38
Als relativ frisch gebackener 4090 Besitzer, gibt es inzwischen einen Konsens ob das bloße Powerlimit absenken oder V/F Curve Undervolting die "bessere" Lösung für die Ökofizierung einer 4090 ist? Habe da immer wieder etwas gemischte bzw. widersprüchliche Ergebnisse und Berichte dazu gesehen. Einfach das PL runter drehen würde natürlich meiner Faulheit eher entgegenkommen...
ChaosTM
2024-02-01, 10:54:43
Die 2 Lösungen nehmen sich wenig Punkto Ergebnis.
Ich bevorzuge die faule Lösung. :)
Auf meiner 4090 Eco (2520MHz@875mV) ist der Verbrauch zwar hoch, aber noch nicht außergewöhnlich hoch.
Okay, das ist interessant. Du spielst in UWQHD, sehe ich. Kannst du bitte mal schauen, wie es sich mit DLDSR entwickelt? Eventuell war das gestern bei mir noch an, das hat beim Umschalten des Fenstermodus ziemlich lange gehangen. In 5.760 × 3.240 wurde es dann richtig pervers. Q2 RTX ist natürlich trotzdem ein geiler Anheizer, vor allem dauerhaft, aber diese Peaks habe ich da nicht.
Als relativ frisch gebackener 4090 Besitzer, gibt es inzwischen einen Konsens ob das bloße Powerlimit absenken oder V/F Curve Undervolting die "bessere" Lösung für die Ökofizierung einer 4090 ist? Habe da immer wieder etwas gemischte bzw. widersprüchliche Ergebnisse und Berichte dazu gesehen. Einfach das PL runter drehen würde natürlich meiner Faulheit eher entgegenkommen...
Auf keinen Fall nur das PL senken, damit verschenkst du Potenzial. Wenn du zu faul für die ganze Kurve bist, schnapp dir eine Zielspannung, zieh dort mit Halten von Shift (!) die Kurve auf den gewünschten Takt und drücke "L" (für "lock" - also festsetzen). :) Einen Anhaltspunkt, was möglich ist, liefert dir deine Karte selbst. Wenn du beispielsweise weißt, dass deine GPU in den fiesesten Spielen auf 2.610 MHz bei 990 mV droppt, nimmst du für den Anfang 975 mV, ziehst den Punkt in Richtung 2.620 MHz, drückst L und spielst eine Weile. Läuft das, machst du das mit dem nächsttieferen Voltage Point etc. Oder du machst das direkt bei einer höheren Taktstufe, um nie Leistung zu verlieren, dann ist das UV-Potenzial aber geringer.
MfG
Raff
Tesseract
2024-02-01, 11:23:15
als grobe richtwerte: meine macht ~2715MHz bei 950mV (mein alltagssetting) oder ganz aggressiv ~2490 bei 865mV was die minimalspannung der firmware ist.
ChaosTM
2024-02-01, 13:19:40
Ich hab eine Kurve mit 2800/975 und eine mit 2600/875. Der Speicher steht immer auf +1300, mehr geht nicht.
Nebenbei noch 2 "simple" Speicherpunkte @ (momentan) 50 und 75% PT für genügsamere Spiele wo ich tw. bessere Verbrauchswerte erziele als mit den kurvigen.
Der Unterschied ist aber niemals höher als 3-5 Watt.
Dann noch eine kompromisslose "Heizeinstellung" mit 111% PT und Core Voltage +100.
Das ist natürlich die "dümmste" Einstellung, aber auch die (mit kleinem Abstand) schnellste. Core Clock geht leider nicht höher als +120 und Speicher in dem Fall auch wieder @ +1300.
Ist also ein Mix.
Langlay
2024-02-01, 13:23:52
Okay, das ist interessant. Du spielst in UWQHD, sehe ich. Kannst du bitte mal schauen, wie es sich mit DLDSR entwickelt? Eventuell war das gestern bei mir noch an, das hat beim Umschalten des Fenstermodus ziemlich lange gehangen. In 5.760 × 3.240 wurde es dann richtig pervers. Q2 RTX ist natürlich trotzdem ein geiler Anheizer, vor allem dauerhaft, aber diese Peaks habe ich da nicht.
https://s20.directupload.net/images/240201/6d9sc8nq.png
In 5120x2160 heizt es jetzt bei mir auch ganz ordentlich mit 320-330W.
Als relativ frisch gebackener 4090 Besitzer, gibt es inzwischen einen Konsens ob das bloße Powerlimit absenken oder V/F Curve Undervolting die "bessere" Lösung für die Ökofizierung einer 4090 ist? Habe da immer wieder etwas gemischte bzw. widersprüchliche Ergebnisse und Berichte dazu gesehen. Einfach das PL runter drehen würde natürlich meiner Faulheit eher entgegenkommen...
Ich benutzte auch den Curve Optimizer mit fester Spannung, ich hab mir 2 Spannungen ausgesucht 1x 875mV und 1x 950mV und dann jeweils mit 3DMark Port Royal Stresstest ausgetestet wie weit ich mit 870mV bzw. 945mV stabil komme mit den Takt, hab dann 30 MHz abgezogen (2 Clocksteps) und 5mV Spannung dazu geben für die finalen Profile. Bei mir waren das dann 2520MHz@875mV und 2730MHz@950mV. Allerdings muss ich sagen ich benutze eigentlich nur das 2520MHz@875mV Setting. Das ist im Schnitt so ~8% langsamer als Stock und der Verbrauch der 4090 liegt damit (bis auf Ausnahmen wie z.b. Q2 RTX) immer mehr oder weniger deutlich unter 300W.
Mit der Quick&Dirty Methode PT auf 70% verliert man etwas weniger Leistung hat dann allerdings auch quasi fast immer einen Verbrauch von grob 300W, wohin gegen mit dem Curveoptimizer auch öfters mal Spiele dabei sind die dann nur 220-250W brauchen.
K, danke fürs Nachprüfen. :up: Dann ist meine GPU deutlich versoffener, den 340-Watt-Peak habe ich nämlich mit der ULV-Einstellung von angezeigten 855 mV (nach dem Durchwärmen) @ 2.340 MHz. In den allermeisten Spielen sehe ich da nicht mal ansatzweise die 300.
MfG
Raff
Sardaukar.nsn
2024-02-01, 14:03:06
Als relativ frisch gebackener 4090 Besitzer, gibt es inzwischen einen Konsens ob das bloße Powerlimit absenken oder V/F Curve Undervolting die "bessere" Lösung für die Ökofizierung einer 4090 ist? Habe da immer wieder etwas gemischte bzw. widersprüchliche Ergebnisse und Berichte dazu gesehen. Einfach das PL runter drehen würde natürlich meiner Faulheit eher entgegenkommen...
Ich habe den maximalen overclock ausgelotet und dann das PL bei 360 Watt begrenzt. Boost geht regelmäßig über 3 GHz und der Speicher verträgt auch +1500. Läuft so bereits Monate bei mir stabil und schnell.
Aber wie bereits geschrieben wurde, gibt es mehrere Wege.
basix
2024-02-02, 09:11:34
Auf keinen Fall nur das PL senken, damit verschenkst du Potenzial. Wenn du zu faul für die ganze Kurve bist, schnapp dir eine Zielspannung, zieh dort mit Halten von Shift (!) die Kurve auf den gewünschten Takt und drücke "L" (für "lock" - also festsetzen). :) Einen Anhaltspunkt, was möglich ist, liefert dir deine Karte selbst. Wenn du beispielsweise weißt, dass deine GPU in den fiesesten Spielen auf 2.610 MHz bei 990 mV droppt, nimmst du für den Anfang 975 mV, ziehst den Punkt in Richtung 2.620 MHz, drückst L und spielst eine Weile. Läuft das, machst du das mit dem nächsttieferen Voltage Point etc. Oder du machst das direkt bei einer höheren Taktstufe, um nie Leistung zu verlieren, dann ist das UV-Potenzial aber geringer.
Minimalaufwand:
- PL runter
- GPU +200MHz
- Mem +500MHz
Den Mehrtakt schafft eigentlich jede 4090. Wird nicht das Optimum sein, aber nicht sehr weit weg.
Minimal mehr Aufwand (meine Methode, dauert keine 5min):
- PL runter
- GPU +270...350MHz
- Mem +700...1500 MHz (was die GPU halt schafft, 700-800 MHz schaffen eigentlich alle. Darüber muss man Stabilität testen)
- In den Curve Editor wechseln: Maximaltakt im Curve Editor begrenzen (z.B. 2.6 GHz bei 0.9V) -> Bei max. 2.6 GHz schaffen die GPUs mehr Takt-Anhebung
-> Das ist ähnlich wie Raffs fixer Takt (bei 3D +/- identisch), hier kann der Chip bei Bedarf aber noch nach unten arbeiten und den Takt reduzieren, z.B. in Menüs oder 2D, da der Takt nicht gelockt ist
Ich habe bei mir +330MHz eingestellt sowie max. 2.55 GHz @ 0.89V. PL liegt bei glaube ich bei 310W, der typische Verbrauch in 4K ist aber eher so 260...280W. Gibt fast keine Spiele, die die 310W reissen. Mein Speicher ist eher meh, glaube +700 MHz haben sich als langfristig stabil erwiesen.
Ich war auch wie Raff unterwegs, alles austüfteln und rumfrickeln, jeden einzelnen Punkt um Curve Editor optimieren usw. Bei Ada kann man den Prozess aber deutlich abkürzen. Im Endeffekt ist obige Methode wirklich nur minimalst vom Optimum entfernt und dauert einen Bruchteil der Zeit. Kurze Stabilitätschecks in ein paar Spielen und wenn es irgendwo hakt, -50 MHz bei der GPU runter und gut ist.
Die Limitierung des Maximaltakts bringt ausserdem eines der der mMn besten Features von Ada zu Vorschein: Der Chip drosselt sich selbst (=seine Energieaufnahme), wenn er nicht mehr FPS liefern kann. Deswegen ist man mit fixiertem Maximaltakt typ. am energieeffizientesten unterwegs. Der Chip läuft einfach in das gesetzte Taktlimit und drosselt die Energieaufnahme autonom, je nach Last und Spiel. Man könnte prinzipiell sogar so weit gehen, das PL gar nicht mehr zu begrenzen. Unter dem Strich macht das bei Ada mit fixem Maximaltakt und sehr tiefen Settings (nahe der Minimalspannung von 0.87V) keinen grossen Unterschied. Ich begrenze das PL dennoch auf 310W, einfach um die Maximalhitze im Griff zu haben.
redpanther
2024-02-02, 10:18:45
Okay, das ist interessant. Du spielst in UWQHD, sehe ich. Kannst du bitte mal schauen, wie es sich mit DLDSR entwickelt? Eventuell war das gestern bei mir noch an, das hat beim Umschalten des Fenstermodus ziemlich lange gehangen. In 5.760 × 3.240 wurde es dann richtig pervers. Q2 RTX ist natürlich trotzdem ein geiler Anheizer, vor allem dauerhaft, aber diese Peaks habe ich da nicht.
Lasse ich meine GB Gaming OC auf default, genehmigt er sich knapp über 400W, bei dann ~95% GPU Auslastung in meinem Framelimit von 223fps.
Das schaffe ich aber zB genauso auch in Assetto Corsa, der Ur-Alten Sim. Von daher sehe ich jetzt auch nichts besonderes.
Nehme ich dann mein Stromsparsetting, bin ich bei ~250W, allerdings schafft er dann nur noch ~180fps. Mit FSR2 auf Quality bin ich dann aber wieder knapp unter meinem Framelimit, ohne das ich einen Unterschied sehe.
Ist auch in UWQHD, leider geht DLDSR nicht, wegen DSC...
Das einzige was mich am Monitor stört.
Aber echt recht nettes Game wie es scheint. Sieht lustig aus. Schade das es so keinerlei Grafik settings gibt.
Cubitus
2024-02-02, 11:04:49
Minimalaufwand:
- PL runter
- GPU +200MHz
- Mem +500MHz
Den Mehrtakt schafft eigentlich jede 4090. Wird nicht das Optimum sein, aber nicht sehr weit weg.
Grundsätzlich würde ich kein UV über das PL machen, da der Takt unnötig zittert und das sicher nicht gut für die VRMS ist.
@Thread
UV schnell und nicht schmutzig:
In GPUZ die Max Clock und die anliegende Max Clock mit z.B. Furmark auslesen.
Gehe in den Afterburner Curve Editor, suche die Position des Max Clock und die Voltage Zuordnung. Im Hauptfenster des Afterburners den GPU-Takt aufs Minimum setzen, die Kurve geht nach unten und dann einfach die gewünschte Voltage auf den ursprünglichen Max-Takt ziehen. Am besten tastet man sich vorsichtig von der Max Voltage nach links und bestätigt. Bei einem neuen Versuch im Hauptfenster wieder Default einstellen und das gleiche von vorne, bis die gewünschte Spannung erreicht ist. Am besten langsam nach links tasten. Und immer wieder testen.
Zum Testen eignet sich ein Custom Run 40-Loops PortRoyal (ohne Demo) mit allen Settings+native Auflösung auf max. Was auch ganz fieß ist, Portal RTX mit Max Settings starten und dann nur den Start Screen laufen lassen.
Erst mal testen ob man überhaupt in den Startbildschirm kommt und wenn man dort ist einfach mal so 10-20 Minuten warten ob es hängt. Genauso eignen sich Sessions mit Quake2 RTX
Erst wenn diese Tests laufen kann man sagen das so ne Karte stabil ist.
Ich schaffe mit meiner "neuen" PNY (die alte SuprimX hatte nen Steckerbrand) 2760 Mhz@0,95 mV. Was echt ok ist unter 400 Watt bei 4k komme ich damit eigentlich immer
Um so viel will ich den Takt bzw. die Spannung auch nicht senken, da bei niedrigerer Spannung auch der Corssbartakt sinkt, das wissen viele nicht, aber eine zu große Differenz zum Crossbartakt bei UV kann auch noch 1-3 FPS kosten.
Das heißt, man hat einfach weniger FPS bei gleichem Takt.
Und da jedes FPS hart erkauft werden muss... sollte man das schon im Auge behalten. Bei mir ist es bei 2255 Mhz effektivem Crossbartakt im Gegensatz zu 2340 Mhz nativ 1 FPS Verlust.
Von VRam OC würde ich prinzipiell Abstand halten, das tut auch nicht gut, egal was im Netz so propagiert wird.
Es häufen sich auch immer mehr Berichte über klassische Fehlerbilder wie bunte Pixel auf dem Bildschirm und dann ließt man in der Sig joa hab den Ram auf +1000-1700 Mhz laufen, läuft voll geil rockstable undzo, ja ja.
Ist doch auch irgenwie Banane, zuerst undervoltet man ne Komponente und danach quält man den Ram Tod, why.. dann lieber das UV nicht allzu niedrig ansetzen und etwas mehr Strom geben, hat man imo mehr davon.
Langlay
2024-02-02, 12:24:53
Man könnte prinzipiell sogar so weit gehen, das PL gar nicht mehr zu begrenzen. Unter dem Strich macht das bei Ada mit fixem Maximaltakt und sehr tiefen Settings (nahe der Minimalspannung von 0.87V) keinen grossen Unterschied. Ich begrenze das PL dennoch auf 310W, einfach um die Maximalhitze im Griff zu haben.
Mach ich z.b. nicht Powertarget steht bei mit trotz UV auf 2520@875mV weiterhin auf 450W aka 100%. Die Karte darf halt saufen was sie säuft und fertig.
Von VRam OC würde ich prinzipiell Abstand halten, das tut auch nicht gut, egal was im Netz so propagiert wird.
Es häufen sich auch immer mehr Berichte über klassische Fehlerbilder wie bunte Pixel auf dem Bildschirm und dann ließt man in der Sig joa hab den Ram auf +1000-1700 Mhz laufen, läuft voll geil rockstable undzo, ja ja.
Ist doch auch irgenwie Banane, zuerst undervoltet man ne Komponente und danach quält man den Ram Tod, why.. dann lieber das UV nicht allzu niedrig ansetzen und etwas mehr Strom geben, hat man imo mehr davon.
Nur durch OC ohne das man mehr Spannung auf die Chips gibt sollten diese nicht kaputt gehen. Ich denke eher das sind dann Fälle wo es durch mechanische/thermische Ereignisse zum lösen einiger Pads vom VRAM in der nähe vom PCI-E Slot und das erzeugt dann die bunten Bilder. Es ist jedenfalls auffällig das bei defekten Karten mit Memoryfehlern fast immer die Memorychips betroffen sind die am dichtesten am PCI-E Slot sind betroffen sind.
basix
2024-02-02, 12:27:11
Grundsätzlich würde ich kein UV über das PL machen, da der Takt unnötig zittert und das sicher nicht gut für die VRMS ist
Du hast auch bei fixem Takt hohe Transienten auf den VRMS. Es ist eher so, dass mit reduziertem PL die Stromspitzen sinken, weil eben die Gesamtleistungsaufnahme sinkt. Ich glaube es gibt sogar schöne Messungen von Igor zu dem Thema. Den abnehmenden Strom hört man bei meiner 4090 sehr schön am stark abnehmenden Coil Whine ;) Zudem sinken die Temperaturen auf der Grafikkarte enorm, was die Bauteile zusätzlich schont. Ob diese Effekte jetzt mit fix reduziertem Takt und Spannung passieren oder rein via PL Slider ist weniger relevant. Das bisschen mehr Varianz beim Takt hat einen viel geringeren Effekt als stark reduzierte Leistungsaufnahme.
Der Takt "zittert" mit reduziertem PL mehr, ja. Auf die Framerate und die FPS-Low hat das aber keinen nennenswerten Einfluss, solange man es nicht übertreibt. Hatte das von Maxwell über Turing und jetzt Ada jeweils getestet. Wenn man den Chip via weit runter gedrehtem PL allerdings "choked", dann sind die Taktvariationen so hoch dass man es definitiv bemerkt. Das ist dann aber eher ein hin und her springen über etliche hundert MHz und nicht etwas mehr "zittern". FPS "zittern" auch mit 100% gelocktem Takt, da von Frame zu Frame andere Rechenanforderungen bestehen. Da sind +/- 50MHz oder +/-2% nicht relevant. Solange man bei 70% PL oder höher bleibt, hat eigentlich kein Chip Mühe damit. 60% geht je nach Chip und eingestelltem Arbeitspunkt/UV auch noch, weiter runter würde ich nicht gehen.
Die 4090 ist ein wenig ein Spezialfall, weil je nach Spiel die 450W eh nicht erreicht werden. Deswegen kann es Situationen geben, wo sich die Karte mit 50% PL super wohl fühlt (220-250W). Wenn man die Spannung weiter als 0.87V senken könnte, würde man noch weiter runter kommen.
=Floi=
2024-02-05, 02:38:57
könnte in 1440p mal jemand quake 2 remastered messen?
The_Invisible
2024-02-05, 07:41:52
Unter Q2 RTX 4k habt ihr sicher keine <300w, meine UV 925mv geht auf 380w hoch ;-)
00-Schneider
2024-02-05, 08:28:15
könnte in 1440p mal jemand quake 2 remastered messen?
Remastered oder RTX?
Das sind verschiedene Dinge.
OgrEGT
2024-02-05, 08:47:37
Du hast auch bei fixem Takt hohe Transienten auf den VRMS. Es ist eher so, dass mit reduziertem PL die Stromspitzen sinken, weil eben die Gesamtleistungsaufnahme sinkt. Ich glaube es gibt sogar schöne Messungen von Igor zu dem Thema. Den abnehmenden Strom hört man bei meiner 4090 sehr schön am stark abnehmenden Coil Whine ;) Zudem sinken die Temperaturen auf der Grafikkarte enorm, was die Bauteile zusätzlich schont. Ob diese Effekte jetzt mit fix reduziertem Takt und Spannung passieren oder rein via PL Slider ist weniger relevant. Das bisschen mehr Varianz beim Takt hat einen viel geringeren Effekt als stark reduzierte Leistungsaufnahme.
Der Takt "zittert" mit reduziertem PL mehr, ja. Auf die Framerate und die FPS-Low hat das aber keinen nennenswerten Einfluss, solange man es nicht übertreibt. Hatte das von Maxwell über Turing und jetzt Ada jeweils getestet. Wenn man den Chip via weit runter gedrehtem PL allerdings "choked", dann sind die Taktvariationen so hoch dass man es definitiv bemerkt. Das ist dann aber eher ein hin und her springen über etliche hundert MHz und nicht etwas mehr "zittern". FPS "zittern" auch mit 100% gelocktem Takt, da von Frame zu Frame andere Rechenanforderungen bestehen. Da sind +/- 50MHz oder +/-2% nicht relevant. Solange man bei 70% PL oder höher bleibt, hat eigentlich kein Chip Mühe damit. 60% geht je nach Chip und eingestelltem Arbeitspunkt/UV auch noch, weiter runter würde ich nicht gehen.
Die 4090 ist ein wenig ein Spezialfall, weil je nach Spiel die 450W eh nicht erreicht werden. Deswegen kann es Situationen geben, wo sich die Karte mit 50% PL super wohl fühlt (220-250W). Wenn man die Spannung weiter als 0.87V senken könnte, würde man noch weiter runter kommen.
Ich hab zwar keine 4090 aber vom grundsätzlichen Vorgehen her begrenze ich das PL aus thermischer Sicht und daher auch die Lautstärke des Kühlers. Innerhalb dieses PL Budgets begrenze ich die Max fps um innerhalb der Freesync Range zu bleiben. Das führt dazu dass die fps weitestgehend innerhalb des PL Budget konstant bleiben... mMn ist das sinnvoller als den Takt zu begrenzen...
basix
2024-02-05, 17:45:25
Ob 4090 oder nicht, die herangehensweise ist doch überall die selbe. Egal welcher Chip und wohl auch egal ob Nvidia oder AMD ;)
Ich habe auch einen Framelimiter bei 141fps. Nur nützt mir das nichts, wenn ich diese Framerate nicht erreiche (dennoch würde ich die Framerate gerne so hoch wie möglich haben). Dann greift die Taktbegrenzung. Wenn genug Performance übrig ist und ich das Framrate-Limit erreiche, drosselt der Chip entsprechend noch weiter runter. Alles OK in jedem Betriebsbereich. Minimierte Energieaufnahme bei "frei laufenden FPS", minimierte Energieufnahme bei limitierten FPS. Zusätzliches "Notfall" PL Limit, um den Maximalverbauch im Worst Case zu beschränken (thermisches Limit).
Konstate FPS sind für mich aufgrund VRR nicht entscheidend. Wenn die 141fps Begrenzung erreicht werden ist das zwar schon ideal (gleichzeitig konstante sowie maximale Framerate, geringste Latenz). Doch wenn das Spiel fordernd ist, läuft man halt im VRR Bereich mit limitiertem GPU-Takt.
OgrEGT
2024-02-05, 18:46:58
Ob 4090 oder nicht, die herangehensweise ist doch überall die selbe. Egal welcher Chip und wohl auch egal ob Nvidia oder AMD ;)
Ich habe auch einen Framelimiter bei 141fps. Nur nützt mir das nichts, wenn ich diese Framerate nicht erreiche (dennoch würde ich die Framerate gerne so hoch wie möglich haben). Dann greift die Taktbegrenzung. Wenn genug Performance übrig ist und ich das Framrate-Limit erreiche, drosselt der Chip entsprechend noch weiter runter. Alles OK in jedem Betriebsbereich. Minimierte Energieaufnahme bei "frei laufenden FPS", minimierte Energieufnahme bei limitierten FPS. Zusätzliches "Notfall" PL Limit, um den Maximalverbauch im Worst Case zu beschränken (thermisches Limit).
Konstate FPS sind für mich aufgrund VRR nicht entscheidend. Wenn die 141fps Begrenzung erreicht werden ist das zwar schon ideal (gleichzeitig konstante sowie maximale Framerate, geringste Latenz). Doch wenn das Spiel fordernd ist, läuft man halt im VRR Bereich mit limitiertem GPU-Takt.
In deinem Fall würde das fps limit reichen?
Langlay
2024-02-05, 19:20:53
In deinem Fall würde das fps limit reichen?
Wenn es um maximale Effektivität geht, ist fester Takt mit niedrigstmöglicher Spannung der beste Weg.
Beispiel an meiner 4090. In A Plague Tale Reguiem Stock ( ~2715 MHz) zieht die Karte so ~400-420W.
Wenn du die Karte auf 70% Powertarget reduzierst haste ~26xx MHz bei 320W.
Wenn du mit festen Takt bei Minimalspannung fährst biste bei 2520MHz@875mV und so ~280W Stromverbrauch.
Und Performancemässig liegt zwischen Stock und festen Takt so ~6-8%.
Sardaukar.nsn
2024-02-05, 19:59:37
Ich hab zwar keine 4090 aber vom grundsätzlichen Vorgehen her begrenze ich das PL aus thermischer Sicht und daher auch die Lautstärke des Kühlers. Innerhalb dieses PL Budgets begrenze ich die Max fps um innerhalb der Freesync Range zu bleiben. Das führt dazu dass die fps weitestgehend innerhalb des PL Budget konstant bleiben... mMn ist das sinnvoller als den Takt zu begrenzen...
In einem der ersten Tests der 4090 vom Bauer ging er direkt auf das aus seiner Sicht falsche Powerlimit ein. Im damaligen Video hatte er ein Diagramm das die Sweetspot bzw.
Bereich der Karte darstellt. Mit meinem Weg liege ich jetzt schon seit Monaten bei dem grünen Punkt. Aber wie schon mehrfach hier berichtet, nutze ich einen Framelimiter bei 117fps (4k Display hat max 120hz) und nutze die 360 Watt selten aus.
https://i.imgur.com/xLKVZRx.jpeg
TSE Run von gerade eben: https://www.3dmark.com/3dm/106878388?
OgrEGT
2024-02-05, 20:22:47
Wenn es um maximale Effektivität geht, ist fester Takt mit niedrigstmöglicher Spannung der beste Weg.
Beispiel an meiner 4090. In A Plague Tale Reguiem Stock ( ~2715 MHz) zieht die Karte so ~400-420W.
Wenn du die Karte auf 70% Powertarget reduzierst haste ~26xx MHz bei 320W.
Wenn du mit festen Takt bei Minimalspannung fährst biste bei 2520MHz@875mV und so ~280W Stromverbrauch.
Und Performancemässig liegt zwischen Stock und festen Takt so ~6-8%.
Wenn ich das PL limitiere heißt das ja nicht dass ich nicht auch zusätzlich undervolte...
Wenn Du mit festem Takt arbeitest um die Karte indirekt PL zu limitieren dann müsstest du das für jedes Spiel ausloten da jedes Spiel eine andere Last bei gleichem Takt erzeugt... d.h. bei Dir schwankt je nach Spiel die Leistungsaufnahme...
Genau das möchte ich unterbinden da ich ein sehr kleines Gehäuse habe um die Temperatur und damit die Lüfterlautstärke zu begrenzen...
Beides kann aber sinnvoll sein...
Langlay
2024-02-05, 20:33:28
Wenn Du mit festem Takt arbeitest um die Karte indirekt PL zu limitieren dann müsstest du das für jedes Spiel ausloten da jedes Spiel eine andere Last bei gleichem Takt erzeugt... d.h. bei Dir schwankt je nach Spiel die Leistungsaufnahme...
Genau das möchte ich unterbinden da ich ein sehr kleines Gehäuse habe um die Temperatur und damit die Lüfterlautstärke zu begrenzen...
Beides kann aber sinnvoll sein...
Ich habe auch ein kleines ITX Gehäuse (18l Case).
Ich lote die Lüftersteuerung einfach im Worstcase aus, im Falle der 4090 ist das Q2 RTX da zieht die Karte so 310-320W.
In allen anderen Spielen liegt der Verbrauch so bei 220-280W ohne FPS Begrenzung, mit FPS Begrenzung auf 144FPS teilweise auch deutlich drunter.
Daher ist feste Takt bei minimaler Spannung halt so gut, sparsamer wird es nicht. Wie gesagt ich fass den PT Regler garnicht an der steht bei mir auf 100% und wird halt nie erreicht. Selbst in Furmark zieht meine Karte nur ~350W.
https://cdn.discordapp.com/attachments/361921419820662785/1109507933718446100/IMG_20230520_174701.jpg
In dem Rechner steckt ein 7950X3D und ne 4090 und der Rechner ist quasi lautlos. (Das Foto ist auch schon was älter, mittlerweile gibt only Noctua Lüfter und der riesen 12VHPWR Adapter ist auch einem Customkabel gewichen)
ChaosTM
2024-02-05, 20:35:13
Ich hab Wochen damit verbracht, zwischen UV und simpler Reduzierung der Stromzufuhr zu unterscheiden und die Ergebnisse waren zwiespältig.
Beim gleichen Stromverbrauch/FPS Verhältnis gab es nie einen Sieger in der einen oder anderen Art. Zumindest nicht größer 5%.
Alles unter 280 Watt ging immer zu Gunsten der "simplen" Methode aus, weil man die Spannung nicht weit genug senken kann..
also: stell einfach den Stromverbrauch runter ;)
basix
2024-02-05, 22:21:10
In deinem Fall würde das fps limit reichen?
Nein. In 4K erreicht man eher selten das 141fps Limit ;) Und die maximale Leistungsaufnahme möchte ich schon via PL hart abriegeln.
Der fixe Takt bei minimaler Spannung resultiert bereits in der faktisch besten Energieffizienz, unabhängig vom Spiel und der Framerate. Ziehe ich die Spannung & Takt hoch oder reduziere ich den Takt noch weiter, sinkt die Energieffizienz. Typischer verbrauch ist wie bei Langlay 220-280W und max. 310...320W (primär Pathtraced Titel). Irgendwo über 300W habe ich das PL gesetzt, damit ich noch thermisch gesehen eine abgesicherte Obergrenze habe.
Teoretisch könnte man pro Spiel noch die letzten 50MHz Takt optimieren. Den Aufwand ist es aber definitiv nicht wert. Lieber Takt vs. Spannung auf den Worst Case optimieren und gut ist.
Wenn Du mit festem Takt arbeitest um die Karte indirekt PL zu limitieren dann müsstest du das für jedes Spiel ausloten da jedes Spiel eine andere Last bei gleichem Takt erzeugt... d.h. bei Dir schwankt je nach Spiel die Leistungsaufnahme...
Genau das möchte ich unterbinden da ich ein sehr kleines Gehäuse habe um die Temperatur und damit die Lüfterlautstärke zu begrenzen...
Wie vorhin schon geschrieben: Minimale Spannung = Minimaler Verbrauch. Egal was das Spiel draus macht. Mit einem Framelimiter & PL kann man das zusätzlich eingrenzen. Genau das was ich mache, Spannung bei 0.89V und Takt bei 2.55 GHz. Bei mir ist es einfach so, das Framelimiter und PL eher selten erreicht werden. Und deswegen ist die Takt- & Spannungsobergrenze sehr effektiv, weil es ein aufdrehen des Chips in ineffizientere Taktregionen unterbindet. Das einzige was man hierbei spendiert, sind die letzten 5-10% Performance, die bleiben liegen da der Takt <default liegt.
OgrEGT
2024-02-06, 06:28:04
Nein. In 4K erreicht man eher selten das 141fps Limit ;) Und die maximale Leistungsaufnahme möchte ich schon via PL hart abriegeln.
Der fixe Takt bei minimaler Spannung resultiert bereits in der faktisch besten Energieffizienz, unabhängig vom Spiel und der Framerate. Ziehe ich die Spannung & Takt hoch oder reduziere ich den Takt noch weiter, sinkt die Energieffizienz. Typischer verbrauch ist wie bei Langlay 220-280W und max. 310...320W (primär Pathtraced Titel). Irgendwo über 300W habe ich das PL gesetzt, damit ich noch thermisch gesehen eine abgesicherte Obergrenze habe.
Teoretisch könnte man pro Spiel noch die letzten 50MHz Takt optimieren. Den Aufwand ist es aber definitiv nicht wert. Lieber Takt vs. Spannung auf den Worst Case optimieren und gut ist.
Wie vorhin schon geschrieben: Minimale Spannung = Minimaler Verbrauch. Egal was das Spiel draus macht. Mit einem Framelimiter & PL kann man das zusätzlich eingrenzen. Genau das was ich mache, Spannung bei 0.89V und Takt bei 2.55 GHz. Bei mir ist es einfach so, das Framelimiter und PL eher selten erreicht werden. Und deswegen ist die Takt- & Spannungsobergrenze sehr effektiv, weil es ein aufdrehen des Chips in ineffizientere Taktregionen unterbindet. Das einzige was man hierbei spendiert, sind die letzten 5-10% Performance, die bleiben liegen da der Takt <default liegt.
Ok alles klar Danke :up:
Bei Dir macht das so Sinn...
Ich habe 3440x1440 und erreiche das PL von 300W in neueren Spielen eigentlich immer... ich denke der Unterschied ist dass Deine 4090 am unteren Verbrauchsniveau in einem Bereich der V/F Kurve arbeitet wo die Leistungsaufnahme relativ konstant ist... ich müsste das mit meiner 7900XT mal testen wie das bei 300W ausschaut. Ich vermute aber wenn ich mich an Dargos Messungen mit seiner 7900XTX in APTR erinnere als seine Taktrate bei 2560x1440 und 300W sehr weit runterging (2.2GHz) dass RDNA3 in dem Bereich der Leistungsaufnahme je nach Spiel stärker schwankt...
Hinzu kommt dass UV bei NV und AMD unterschiedlich funktioniert...
Langlay
2024-02-06, 11:37:36
Ich vermute aber wenn ich mich an Dargos Messungen mit seiner 7900XTX in APTR erinnere als seine Taktrate bei 2560x1440 und 300W sehr weit runterging (2.2GHz) dass RDNA3 in dem Bereich der Leistungsaufnahme je nach Spiel stärker schwankt...
RDNA3 säuft halt auch mit geringen Spannungen und hoher Shaderlast richtig Strom, ähnlich die damals Ampere bei Nvidia. Die Ada Karten von Nvidia sind bei niedrigenen Spannungen relativ sparsam.
Gefühlt ist RDNA3 das Ampere von AMD und Ada verhält sich mehr wie RDNA2 von AMD was Spannung/Verbrauch angeht.
OgrEGT
2024-02-07, 09:09:30
RDNA3 säuft halt auch mit geringen Spannungen und hoher Shaderlast richtig Strom, ähnlich die damals Ampere bei Nvidia. Die Ada Karten von Nvidia sind bei niedrigenen Spannungen relativ sparsam.
Gefühlt ist RDNA3 das Ampere von AMD und Ada verhält sich mehr wie RDNA2 von AMD was Spannung/Verbrauch angeht.
Hoffe dass AMD mit RDNA4 diesbzgl wieder auf den Pfad der Tugend zurückkehrt...
The_Invisible
2024-02-07, 09:54:34
Auch die 4090 müsste nicht so viel saufen, 300W für 4080 und 350W für 4090 hätte auch genügt
Cubitus
2024-02-07, 10:41:01
Kommt drauf an, wenn RT+4K verwendet wird. Aber UV regelt schon gut, ich bekomme bei leistungshungrigen Spielen mit UV 60 Watt weniger, also 380 Watt im Max.
Wenn Spiele nicht so viel Leistung benötigen, dann sind es mit UV schon mal ~300 Watt. Was ich aber für unnötig halte sind die Karten mit dem dicken Power Design. SuprimX, Strix und wie sie alle heißen...
Klar, ein 600 Watt Bios ist nett um das letzte bisschen rauszuholen.
Aber ab 2700 Mhz wird die Luft dünn, ich finde jetzt bei meiner PNY die 2760 Mhz als guten Sweetspot. Prinzipiell ist das out of the box Powerlimit, mit 450 Watt +2% eh ziemlich dünn gewählt.
Die Benifts liegen aber auf der Hand, kein Spulenfiepen und die Karte bleibt mit 60 Grad im kleinen Gehäuse durchaus kühl.
Wer wirklich Strom sparen möchte, und nur 1080p bis max WQHD einsetzt, dem kann ich die 4070S empfehlen. Effzienter geht es kaum..
Exxtreme
2024-02-08, 22:14:10
Zur Info: Cablemod ruft wieder was zurück.
https://cablemod.com/adapterrecall/
Dieser Stecker wird zu einer neverending story wie es scheint.
[MK2]Mythos
2024-02-08, 23:02:45
Eine absolute Erfolgsgeschichte, dieser 12VHPWR Adapter. ;D
Linmoum
2024-02-08, 23:53:40
Man könnte auch einfach Produkte auf den Markt bringen, die entsprechend verarbeitet sind. Das hier ist nichts weiter als mangelhafte Qualitätssicherung und einzig die Schuld von CableMod.
arcanum
2024-02-09, 00:02:32
Der Rückruf wurde schon vor Monaten gestartet und zwar für alle Winkel-Adapter, also 1.0 und 1.1. Jetzt hat cablemod lediglich die Anleitung zur Erstattung veröffentlicht.
Gynoug MD
2024-02-09, 01:22:25
Der Rückruf wurde schon vor Monaten gestartet und zwar für alle Winkel-Adapter, also 1.0 und 1.1. Jetzt hat cablemod lediglich die Anleitung zur Erstattung veröffentlicht.
Na ja, war eher stufenweise, erst "softer" Rückruf bei 1.0 aka "ihr könnt, wenn ihr wollt", verpackt als Gutschein/Gutschrift für die 1.1 Version, euphemistisch "Early Adopter-Programm" o.ä. genannt, danach Gutschrift für alle Versionen, dann "freiwilliger", offizieller Rückruf, nun behördlich angeordneter Rückruf, also Rückruf 3.0.
:biggrin:
Ich bestelle mir bald das neue 90 Grad-Kabel von bequiet, was bei einer Asus dann eben etwas scheiße nach oben abgeht, besser als gegen die Seitenwand gequetscht.
Lurtz
2024-02-09, 10:12:39
Mythos;13487637']Eine absolute Erfolgsgeschichte, dieser 12VHPWR Adapter. ;D
Liegt alles am Anwender, man muss ihn nur richtig verwenden! ;D
redpanther
2024-02-09, 10:20:09
Warum wird das eigentlich hier diskutiert? Ich glaube nicht nur die 4090 hat den Stecker?
Langlay
2024-02-09, 10:30:38
Warum wird das eigentlich hier diskutiert? Ich glaube nicht nur die 4090 hat den Stecker?
Sind aber hauptsächlich 4090er die Probleme mit den verkohlten Steckern hat.
Exxtreme
2024-02-09, 10:37:46
Warum wird das eigentlich hier diskutiert? Ich glaube nicht nur die 4090 hat den Stecker?
Mir ist halt kein Fall bekannt wo es bei den anderen Modellen verschmolzene Stecker gegeben hätte. Ist offenbar so ein RTX 4090-exklusives Ding weil diese viel Strom ziehen kann.
Langlay
2024-02-09, 10:59:41
Mir ist halt kein Fall bekannt wo es bei den anderen Modellen verschmolzene Stecker gegeben hätte. Ist offenbar so ein RTX 4090-exklusives Ding weil diese viel Strom ziehen kann.
Auf Reddit hab ich vereinzelt von 4080 gehört wo das schon passiert ist, aber das Verhältnis ist mindestens 1:10 im Vergleich zu 4090er wo das passiert.
Dass die Anbindung nicht schon längst gecancelt haben, verwundert hier. Es sollen doch noch eine Ti und Titan kommen... Ich meine ja nur ...
lilgefo~
2024-02-09, 18:20:52
Ist nen Anwenderproblem das wurde ja ausreichend erörtert z.b. bei GN. Abgesehen davon wurde die Spec für die Stecker auch offiziell geändert damit er nur noch bei vollem Kontakt funktioniert. Gute Nachrichten für alle die es nicht schaffen einen Stecker einzustecken. Alle anderen wird das eher weniger betreffen.
Prinzenrolle
2024-02-10, 19:09:34
Mythos;13487637']Eine absolute Erfolgsgeschichte, dieser 12VHPWR Adapter. ;D
Liegt an CableMod, nicht am Adapter du Blitzmerker.:wink:
ChaosTM
2024-02-10, 19:39:33
Lag oft an zu engen Gehäusen und dadurch zu stark gebogenen Kabeln und natürlich gabs auch einen großen PEBKAC Faktor. ^^
DrFreaK666
2024-02-10, 20:43:42
Mit besserer Optimierung hätte es weniger PEBKAC gegeben.
Es sind nicht immer nur die anderen schuld
ChaosTM
2024-02-10, 21:37:29
Mit besserer Optimierung hätte es weniger PEBKAC gegeben.
Es sind nicht immer nur die anderen schuld
War auch nicht ganz ernst gemeint, aber ein paar Userfehler waren sicher dabei
Radeonfreak
2024-02-10, 21:45:49
Kabel gecheckt...sieht immer noch frisch aus nach 1 Jahr und 3 Monaten.
FunkyChris
2024-02-10, 21:48:38
Ich baue jetzt den gewinkelten Stecker von bequiet ein :biggrin:
Radeonfreak
2024-02-10, 21:54:15
Ihr mit euren komischen Winkeln. Natives Kabel ran gepappt und gut ist. :freak:
Der Stecker ist Schrott. Meine Vermutung ist simpel: Stecker sitzt korrekt, aber aufgrund Rotoren löst sich der Masse-Strang im 1/1000s-Bereich und Grafikkarte ist gekillt.
DrFreaK666
2024-02-10, 22:04:04
War auch nicht ganz ernst gemeint, aber ein paar Userfehler waren sicher dabei
Sicher. Aber das muss man bestmöglichst ausschließen
Radeonfreak
2024-02-10, 22:17:14
aber aufgrund Rotoren löst sich der Masse-Strang
Also bei mir im Rechner fliegen keine Hubschrauber rum. Hab ich untersagt.
ChaosTM
2024-02-10, 22:28:13
Sicher. Aber das muss man bestmöglichst ausschließen
Die Qualität der Stecker ist tw. Schrott und die Position der Steckverbindung ist auch ned perfekt
Hinten ging nicht, weil die Karten eh schon am äußersten Limit der Länge sind also blieb nur dieser Platz, der in engen Gehäusen natürlich nicht so gut ist.
Und Helikopter sollte man im Rechner auch nicht verbauen.
So schnell drehen die Lüfter nun wirklich nicht. Geht bei mir nur sehr selten über 1300upm.
dreas
2024-02-11, 13:03:58
Ich denke der 12VHPWR Stecker ist einfach zu klein ausgelegt. Bei der Baugröße und den Strömen inkl. mechanischer Belastung ist das schon grenzwertig. Dazu kommen noch Adapter und Zwischenkabel, welche bei diesen Strömen hohe innere Wiederstände und damit Hitze entwickeln.
Hab mir jetzt auch eine 4090 gegönnt und bin sehr zufrieden. Hab das PT auf 75% gesetzt, damit kommen etwa 320W zum tragen, so ist selbst mein 650W Netzteil völlig ausreichend.
Rohpower ist genügend da und die Effizienz ist schon beeindruckend.
Aus meiner Sicht ist das DIE GRAFIKKARTE schlechthin.
Dazu kommen noch die vielen tollen Features wie FG, DLAA, DLSS, Rayspeed und Tools wie NvTrueHDR.
Trotz des Preises ein stimmiges Paket.
Hab jetzt zugeschlagen weils ein super Preis war und wir die nächste Gen frühestens in einem Jahr sehen, mit dann sicher noch viel höheren Preisen bei geringem Speedzugewinn.
Betreibe meine 4090 übrigens mit diesem Corsair Adapterset:
https://gzhls.at/i/78/49/2857849-l0.jpg
Da brauch ich dieses beiliegende 4-fach Adapterset nicht und spare mir den zusätzlichen Wiederstand und Spannungsabfall.
Dieser 4-fach Adapter ist wirklich keine gute Idee.
ChaosTM
2024-02-11, 13:17:45
Ich fahr momentan meist mit ~80% über ein (sehr gutes) 600 Watt Netzteil.
Hab auch diverse UV Profile gespeichert, aber die Ergebnisse sind sehr ähnlich.
~350 Watt scheint der Sweetspot zu sein.
Selbst 100% lässt den Rechner nicht abstürzen, aber der Zugewinn ist vernachlässigbar gering.
Und was besonders angenehm ist, man hört das Ding einfach nicht
Prinzenrolle
2024-02-11, 13:18:12
Ich denke der 12VHPWR Stecker ist einfach zu klein ausgelegt. Bei der Baugröße und den Strömen inkl. mechanischer Belastung ist das schon grenzwertig. Dazu kommen noch Adapter und Zwischenkabel, welche bei diesen Strömen hohe innere Wiederstände und damit Hitze entwickeln.
Das kann man sich ausrechnen, dass das passt.
Hohe innere ohmsche Widerstände, bzw. Erwärmung der Pins, des Steckers oder der Kabel hat noch nie jemand gemessen.
Es waren Qualitätsmängel bzw. Userfehlern, heute passiert mit nativen Kabeln nichts mehr.
Slipknot79
2024-02-11, 14:09:34
Im Modellbau ist manch Stecker kleiner und da gehen aber 2kW durch. (y)
Hat jemand von euch die inno3d Frostbite Ultra? Habe die mir gerade geschossen, daher wären Erfahrungswerte nett.
Emil_i_Lönneberga
2024-02-22, 19:27:44
CDOPBKCSb2w
https://youtu.be/CDOPBKCSb2w
Vielen Dank!
BeetleatWar1977
2024-02-22, 20:10:58
Hat jemand von euch die inno3d Frostbite Ultra? Habe die mir gerade geschossen, daher wären Erfahrungswerte nett.
;D;D;D;D;D
Hab heute nacht auch bestellt^^
Viel falsch gemacht habe ich wohl nicht, da trotz Wakü kein Coil-Wine. Die Platine scheint top bestückt.
Aber brauche ich das Mehr an Performance? Sicher nicht. Außer geschäftlich, da selbst eine Simulation unter gewissen Anwendungen unter Cuda natürlich sehr viel schneller berechnet werden kann. Eigentlich ist es lediglich pures Interesse an der schnellsten Karte!
Karte ist nun angekommen, einbauen werde ich sie morgen und berichte dann. Eine Frage noch: Was ist von dem Beta-Dingens zu halten, welches für den Moment, das GFE ersetzt?
Exxtreme
2024-02-24, 17:06:21
Das Beta-Dingens ist GFE um einige Funktionen erweitert. Bei mir funktioniert das sehr gut.
Das Beta-Dingens ist GFE um einige Funktionen erweitert. Bei mir funktioniert das sehr gut.
Danke der Info. Ich war zum Einen nie ein Freund vom GFE und in Zukunft soll es gar das normale CP ersetzen. Spannend finde ich, ob NV auch Möglichkeiten setzt, die GPU zu übertakten, oder Undervolten usw. Sprich eine Option, welche den AB ad absurdum macht. Ähnlich wie AMD, dies wäre wirklich nEis!
Karte ist eingebaut und fiept nicht! Der Kühler scheint auch sehr gut zu funktionieren. Bei max. 500w höchstens 50°C. Bin bis dato zufrieden.
The_Invisible
2024-02-26, 19:56:15
Danke der Info. Ich war zum Einen nie ein Freund vom GFE und in Zukunft soll es gar das normale CP ersetzen. Spannend finde ich, ob NV auch Möglichkeiten setzt, die GPU zu übertakten, oder Undervolten usw. Sprich eine Option, welche den AB ad absurdum macht. Ähnlich wie AMD, dies wäre wirklich nEis!
OC soll kommen laut NV Roadmap, in welchem Detail kann man derzeit nur raten. Ansonsten viel Spaß mit der Karte, kannst dir ja ein bissl RT Madness geben ;)
Sardaukar.nsn
2024-02-27, 19:17:41
Gerade mal den neuen FurMark 2.1 getestet. Erzeugt im Benchmark auf jeden Fall mehr Last als Quake 2 RTX.
FurMark 2.1 Public Release
https://www.techpowerup.com/319672/furmark-2-1-gets-public-release
PL 360 Watt :cool: https://www.gpumagick.com/scores/show.php?id=13471 179 FPS = 100% (mein 24/7 Setting)
PL 550 Watt :smile: https://www.gpumagick.com/scores/show.php?id=13465 219 FPS = 122%
PL 666 Watt :devil: https://www.gpumagick.com/scores/show.php?id=13456 227 FPS = 127%
FurMark Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13228103&highlight=Furmark#post13228103
ChaosTM
2024-02-27, 19:44:47
Mit dem Furmark hab ich schon einmal eine 700€ NV Karte vernichted, aber Amazon gab mir damals anstandslos das Geld zurück..
Das mach ich diesmal trotzdem nicht. Will weiter spielen :D
Exxtreme
2024-02-27, 19:46:51
Furmark wird ja eh treiberseitig gedrosselt. Von daher ist das auch keine Gefahr mehr. Durch die Drosselung ist er aber nicht mehr aussagefähig.
ChaosTM
2024-02-27, 19:49:29
Dann kann man sich das eh sparen.
Eigentlich schade.. ;)
Mein vorläufiges Resümee:
Die 4090 mit DLSS ohne FG ist ziemlich exakt so schnell, wie eine optimierte 7900xtx mit AFMF. F1 23 118FPS zu 122FPS z.B.! Hab jetzt die einzelnen Werte nicht mehr im Kopf, aber es war immer maxed out incl. RT in jedem Spiel. Bei Cyberpunk wurde allerdings PT deaktiviert und die GeForce durfte kein FG benutzen. Auch hier Gleichstand.
Zur Inno3d selbst: Absolut astrein verarbeitete Karte ohne Fieping! Klar gehen die Temperaturen mit RT hoch (54°C GPU und Hotspot 68°C, dafür bleibt der Vram bei 45°C.
Darf gerne bleiben!
PS: Getestet wurde alles in 4k mit HDR!
Etwas entscheides ist mir zwischen N3x und Ada aufgefallen: Selbst wenn die Power nicht gebraucht wird, liegt trotzdem der volle Takt an. Selbst in einem nicht gemoddeten HL2 liegen immer 3.03g an, bei 160w in 4k! Aufgefallen ist es mir zuerst in Time-Spy, welches trotz lediglich 60% Auslastung, am Limit arbeitet.
Sardaukar.nsn
2024-02-29, 22:38:38
Furmark wird ja eh treiberseitig gedrosselt. Von daher ist das auch keine Gefahr mehr. Durch die Drosselung ist er aber nicht mehr aussagefähig.
Eine Drosselung ist mir bisher nicht bekannt, kann ich hier auch nicht messen. Hast du da mehr Infos?
Mit dem FurMark 2.1 lassen sich hier mehrere Szenarien gut und nachvollziehbar abbilden. Entscheidend ist hier das man das Powerlimit komplett ausreizen kann und sich dadurch der maximale Takt unter Volllast ergibt.
Exxtreme
2024-02-29, 22:55:41
Eine Drosselung ist mir bisher nicht bekannt, kann ich hier auch nicht messen. Hast du da mehr Infos?
https://forum-en.msi.com/index.php?threads/is-it-true-kombustor-is-throttled-by-nvidia-drivers.171865/
Das haben sie sogar zugegeben, dass sie die GPUs bei bestimmten Anwendungen treiberseitig ausbremsen. Weil da öfter was durchgeschmorrt ist.
Sardaukar.nsn
2024-02-29, 23:36:50
Aug 20, 2013
#1
I was doing some some test with my gtx 560 ti hawk with kombustor
@Exxtreme: Hä? Was ist das denn für ein Link.
Der FurMark 2.1 Zug hat keine Bremsen. Ich vertraue mal meiner Hardware und mache den ultimativen Test. Quake 2 RTX kam bisher in die Nähe der Limits, aber FurMark 2.1 reizt diese voll aus. Was könnte bei diesem Stecker und über 600W schon schief gehen...?
EDIT:
https://i.imgur.com/ZkcdlBb.gif
Eine Frage: Welches Vbios stellt mehr als 1.07v Vcore bereit? Dies der Matrix?
Langlay
2024-03-04, 19:50:16
Eine Frage: Welches Vbios stellt mehr als 1.07v Vcore bereit? Dies der Matrix?
BIOS wird die imo nicht helfen, du hast wahrscheinlich ne 4090 mit AD102-301 die gehen nur bis 1.07V. Nur die AD102-300 gehen bis 1.1V und die BIOSe sollten nicht kompatibel sein.
Meine Karte und diverse andere erlauben übrigens maxmal 1,05 Volt. Weiß man mittlerweile. was das für ein Quatsch ist?
MfG
Raff
00-Schneider
2024-03-04, 20:49:28
Ja, war/ist afair eine neue Revision, weil zu viele Kabel durchgeschmort sind.
Hatten wir das Thema nicht schon?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13291663&postcount=3401
Megamember
2024-03-04, 21:09:39
Nur 1,05V wäre mir neu. Normal wären 1,07V bei der neuen Revision, wie bei meiner Suprim X. Interessiert aber eh nur die wenigsten.
mczak
2024-03-05, 05:15:53
https://forum-en.msi.com/index.php?threads/is-it-true-kombustor-is-throttled-by-nvidia-drivers.171865/
Das haben sie sogar zugegeben, dass sie die GPUs bei bestimmten Anwendungen treiberseitig ausbremsen. Weil da öfter was durchgeschmorrt ist.
Das ist aber ewig her. Der treiberseitige Eingriff war notwendig weil die HW nicht in der Lage war die Taktraten so anzupassen dass auch in Extremfällen die TDP eingehalten wird (da wurde wohl eher geschätzt wieviel der Chip gerade verbraucht als wirklich gemessen).
Das ist aber heutzutage kein Thema mehr, da sind alle Chips in der Lage am TDP-Limit zu kleben ohne dass der Treiber da künstlich eingreifen muss.
basix
2024-03-08, 11:57:25
Wie war das zu Beginn noch mit der 3080/3090? Da waren GPUs zum Teil instabil und es hat reihenweise Netzteile gegrillt ;) Das wurde auch via Treiber gefixt.
Neue Treiber, neue Werte, maximale Skalierung:
Geforce RTX 4090 vs. Radeon RX 7900 XTX: Duell der Topmodelle - Nachtest 2024 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/)
"Erstmals erreicht die Geforce RTX 4090 einen Abstand von 40 Prozent gegenüber der RTX 4080 - in Ultra HD."
MfG
Raff
Lurtz
2024-03-09, 10:41:25
Fine Wine.
Troyan
2024-03-09, 10:55:12
Mehr als doppelt so schnell. Erinnert dermaßen an CineFX und R300.
Mehr als doppelt so schnell. Erinnert dermaßen an CineFX und R300.
Das R300 und NV30 waren im Gegensatz zu Navi 31 und AD102 aber "echte" Kontrahenten mit ansatzweise gleicher Transistormenge und Kerngröße.
Die Nvidia-Dominanz beschränkt sich auf komplexes Raytracing. Dort sieht man bis zu +131 Prozent - beim (nicht abgebildeten) Pathtracing wär's noch mehr. Beim Rasterizing ist Nvidia noch vergleichsweise einholbar, ein knappes Drittel kann AMD mit Navi 31 aber nicht mehr herauholen.
MfG
Raff
ChaosTM
2024-03-09, 11:52:25
Das waren noch Zeiten. Als die 1800er (XT/X) von AMD und die 7900er von NV raus kamen, waren sie noch ca. gleich schnell.
Ein Jahr später lagen Welten zwischen den 2 Karten.
Das waren noch Zeiten. Als die 1800er (XT/X) von AMD und die 7900er von NV raus kamen, waren sie noch ca. gleich schnell.
Ein Jahr später lagen Welten zwischen den 2 Karten.
Vor allem zwischen der dann aktuellen X1900er-Generation mit verdreifachter APU-Power. So ähnlich würde es aussehen (nur anders herum), wenn heute plötzlich alle Spiele mit Pathtracing liefen ...
MfG
Raff
lilgefo~
2024-03-09, 22:10:52
Jo und kurz danach um den Release der HD2900 hat AMD ATI gekauft. Schlechter hättens nicht treffen können..
Chrisch
2024-03-09, 23:21:20
Eine Frage: Welches Vbios stellt mehr als 1.07v Vcore bereit? Dies der Matrix?
Galax HOF 666W BIOS stellt bis 1.10v zur Verfügung, muss aber mit einer gemoddeten nvflash Version geflasht werden weil sonst Board ID Mismatch (auch mit div. Parametern die das überschreiben sollen).
Sardaukar.nsn
2024-03-09, 23:41:19
Galax HOF 666W. Wie Tolkien damals schon schreib...
Ein BIOS, sie zu knechten, sie alle (FPS) zu finden,
Ins Powerlimit zu treiben und ewig zu binden.
Troyan
2024-03-10, 14:48:47
Das R300 und NV30 waren im Gegensatz zu Navi 31 und AD102 aber "echte" Kontrahenten mit ansatzweise gleicher Transistormenge und Kerngröße.
Die Nvidia-Dominanz beschränkt sich auf komplexes Raytracing. Dort sieht man bis zu +131 Prozent - beim (nicht abgebildeten) Pathtracing wär's noch mehr. Beim Rasterizing ist Nvidia noch vergleichsweise einholbar, ein knappes Drittel kann AMD mit Navi 31 aber nicht mehr herauholen.
MfG
Raff
AMD würde gerne ihre Produkte zum selben Preis verkaufen. 300mm^2 5nm + 220mm^2 6nm + aufwendigeres Zusammenbauen. Da kommen fast die selben Kosten wie bei AD102 zustande.
CineFX war auch toll mit DX8 oder (wenig) FP16. Je komplexer die Shader wurden, umso größer die Abstände.
Tesseract
2024-03-10, 16:02:09
CineFX war nie "toll", auch in DX8 nicht. dafür war der praxisrelevante featurerückstand einfach zu gravierend.
The_Invisible
2024-03-10, 16:27:53
Die geforces waren damals einfach lahm bei shadern, weiß noch wie die in Halo und Angel of darkness von ATI vermöbelt wurden :D
Troyan
2024-03-15, 13:22:51
CineFX war nie "toll", auch in DX8 nicht. dafür war der praxisrelevante featurerückstand einfach zu gravierend.
Schaue ich mir alte Benchmarks an, gibg es viele DX8 Spiele, wo CineFX mithalten kann. Ab und zu auch mal schneller.
RDNA3 ist genauso. Alleine in Alan Wake 2 ist die 7900XTX auf dem Niveau einer 4070 Super und damit langsamer als ein voller AD104 Chip mit 298mm^2: https://www.computerbase.de/2024-03/grafikkarten-benchmark-alan-wake-2/
... beim Raytracing (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/3/).
Beim Rasterizing (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-vs-7900-XTX-Benchmark-Test-2024-1442362/2/#a2) läuft RDNA 3 prima, sogar die "Nvidia-Spiele" Alan Wake 2 und Cyberpunk 2077.
MfG
Raff
Troyan
2024-03-15, 13:49:06
Richtig, mit "DX8" ist RDNA3 kein Reinfall. Aber "DX8" ist eben auch nur "DX8" und veraltet.
DrFreaK666
2024-03-15, 13:58:27
Wieso wird eigentlich immer bemerkt, dass RDNA3 mit RT im Vergleich langsamer ist? Wissen wir das nicht schon seit Release?
The_Invisible
2024-03-15, 14:03:53
Kann immer sein das wer zum ersten mal sowas liest, eigentlich ganz normal...
Exxtreme
2024-03-15, 14:07:55
Wieso wird eigentlich immer bemerkt, dass RDNA3 mit RT im Vergleich langsamer ist? Wissen wir das nicht schon seit Release?
Wenn man viel Geld für etwas ausgegeben hat dann muss dieses Produkt auch gut sein. Ansonsten müsste man sich eingestehen eine Fehlinvestition getätigt zu haben.
Rancor
2024-03-20, 15:28:27
Wenn man viel Geld für etwas ausgegeben hat dann muss dieses Produkt auch gut sein. Ansonsten müsste man sich eingestehen eine Fehlinvestition getätigt zu haben.
Und was genau sollte daran schlimm sein? Jeder wird in seinem Leben sicherlich mehr als eine Fehlinvestition getätigt haben ^^
aceCrasher
2024-03-20, 15:52:45
Galax HOF 666W BIOS stellt bis 1.10v zur Verfügung, muss aber mit einer gemoddeten nvflash Version geflasht werden weil sonst Board ID Mismatch (auch mit div. Parametern die das überschreiben sollen).
Jedes Release 4090 Bios stellt 1.1V zur verfügung. Meine Release-Monat Inno3D 4090 ging auch bis 1.1V. Auf meine neue Gigabyte 4090 gaming hab ich ein altes 4090 Gaming Bios geflasht mit nvflashk, jetzt gehen hier auch 1.1V.
Hikaru
2024-03-25, 15:27:10
Ich glaub ich hab mich für die GigaByte GeForce RTX 4090 GAMING OC entschieden. Soll wohl "kein" coil whine haben und leise Lüfter hat sie wohl auch.
Da ich von einer 1070 komme und noch immer 1080p/120 fahre würde ich sie gleich mal zähmen wollen, so -20% fps. Am besten wäre ein "die Lüfter bleiben gleich ganz aus" underclocking/volting. Da ich sowas noch nie gemacht habe brauche ich dann eure Hilfe wenn's soweit ist.:biggrin:
Gehäuse hab ich, nur NT ist sone Sache. Was meint ihr welches (1000W) NT wäre zu empfehlen?
Troyan
2024-03-25, 15:37:27
Naja, die Gaming OC is nicht leise. Einer meiner Lüfter "leiert". Dafür hat die eben 600W Bios. Gibt bessere Custom-Karten bzgl. Kühlleistung und Lautstärke, aber die könnten dann mehr Coilwhine haben (z.B. Palit).
/edit: Habe mir das 1000W Asus Thor zur 4090 besorgt. Finde das OLED Display cool. Und hat eben den 12 Pin Anschluss. Der sollte vorhanden sein.
The_Invisible
2024-03-25, 15:52:56
Ich glaub ich hab mich für die GigaByte GeForce RTX 4090 GAMING OC entschieden. Soll wohl "kein" coil whine haben und leise Lüfter hat sie wohl auch.
Da ich von einer 1070 komme und noch immer 1080p/120 fahre würde ich sie gleich mal zähmen wollen, so -20% fps. Am besten wäre ein "die Lüfter bleiben gleich ganz aus" underclocking/volting. Da ich sowas noch nie gemacht habe brauche ich dann eure Hilfe wenn's soweit ist.:biggrin:
Gehäuse hab ich, nur NT ist sone Sache. Was meint ihr welches (1000W) NT wäre zu empfehlen?
Ganz aus geht sich nicht aus, wennst es aber bis 300-350W hälst laufen die Lüfter sowieso nur auf der niedrigsten Stufe. Glaub die Gigabyte ist aber auch defaultmäßig zu "laut" eingestellt, da kannst auch gleich die Lüftersteuerung runtersetzen.
Hikaru
2024-03-25, 16:13:42
Naja, die Gaming OC is nicht leise. Einer meiner Lüfter "leiert". Dafür hat die eben 600W Bios. Gibt bessere Custom-Karten bzgl. Kühlleistung und Lautstärke, aber die könnten dann mehr Coilwhine haben (z.B. Palit).
/edit: Habe mir das 1000W Asus Thor zur 4090 besorgt. Finde das OLED Display cool. Und hat eben den 12 Pin Anschluss. Der sollte vorhanden sein.
Danke, ich denke da ich sie auf 300-350W runterschrauben werde sollten die Lüfter ne Weile halten. 600W ist schon ne Ansage für die Propellerchen. Hauptsache die Karte whined nicht (allzu arg).
Ganz aus geht sich nicht aus, wennst es aber bis 300-350W hälst laufen die Lüfter sowieso nur auf der niedrigsten Stufe. Glaub die Gigabyte ist aber auch defaultmäßig zu "laut" eingestellt, da kannst auch gleich die Lüftersteuerung runtersetzen.
Sagen wir mal die Gigabyte hat 30% minimal Lüfterleistung, kann ich frei wählen was min speed ist?
Exxtreme
2024-03-25, 16:18:04
Ob man Spulenfiepen bekommt oder nicht, das ist leider eine ziemliche Lotterie. Meine RTX 4090 von Gainward hat es nur in ganz bestimmten Situationen wenn die FPS extrem nach oben gehen: also 150 fps und mehr. Es ist aber auch nicht laut sondern nur wahrnehmbar. Von daher habe ich nochmal Glück gehabt. ;)
Langlay
2024-03-25, 16:22:53
Danke, ich denke da ich sie auf 300-350W runterschrauben werde sollten die Lüfter ne Weile halten. 600W ist schon ne Ansage für die Propellerchen. Hauptsache die Karte whined nicht (allzu arg).
Meine 4090 läuft mit festen 875mV@2520 MHz. Das ist im Schnitt ~8% langsamer als Stock und der Verbrauch liegt meist bei 240-300W.
Aber selbst damit wirst du in 1080p nur im CPU Limit hängen und der Verbrauch wahrscheinlich nochmals deutlich geringer ausfallen.
Ab so 150-200 FPS whined meine 4090 FE auch etwas.
Lehdro
2024-03-25, 16:27:26
Die Gigabyte Lüftersteuerung der 4090er (sowohl Gaming OC/Windforce als auch Aorus Master) ist komplett Gagabyte. Der dreht direkt mit ~1400rpm los bei um die 50°C. "Silent" bleibt die Karte da nur wenn du dauerhaft unter 80W bleibst (dann reichen dann auch 0 rpm :D), ansonsten an-aus-an-aus in gewissen Abständen, bis du irgendwann eine Abwärme erreichst, bei der du eh dauerhaft 1400rpm "brauchst" - wird so bei >120W liegen. Wenn du also Gigabyte kaufst, ist eine eigene Lüfterkurve ein Muss, wobei das auch kein Hexenwerk ist. Technisch sind die Kärtchen sonst schon ok, erlauben halt ohne Probleme 600W, was einer der größten Pluspunkte ist. Wenn ich nur eine leise 4090 haben wollen würde und dazu eh UV in Betracht ziehe, hätte ich zu einer anderen Karte gegriffen.
Es ärgert mich einfach wie unfähig Gigabreit da ist, bei der 4070 Super gab es neulich von PCGH Lob, wegen der perfekt eingestellten Lüfterkurve, die eben genau diese Schwächen nicht hat und damit in ALLEN Lebenslagen von dem enormen Kühler profitiert - so ganz ohne Nutzereingriffe. Es geht also!
Hikaru
2024-03-25, 16:31:11
Ob man Spulenfiepen bekommt oder nicht, das ist leider eine ziemliche Lotterie. Meine RTX 4090 von Gainward hat es nur in ganz bestimmten Situationen wenn die FPS extrem nach oben gehen: also 150 fps und mehr. Es ist aber auch nicht laut sondern nur wahrnehmbar. Von daher habe ich nochmal Glück gehabt. ;)
Ich hab heut aufgeschnappt das die 70A inductors sehr arg whinen. Deshalb kommt dies bei den höherwertigen wie Asus vermehrt/immer vor(?) Die 50A Spulen sollen leiser sein. Deshalb sind wohl die billigeren Karten auch eher leise. Kann mir das nur so erklären das je wärmer die Dinger sind desto leiser.
@Lehdro
Haha! Voll auf die Tasta gesabbelt. 50°C und dann gleich mal von 0 auf 1400rpm losballern, sauber. Na Haupsache ich hab volle Kontrolle darüber was die Lüfter so machen.
Meine 4090 läuft mit festen 875mV@2520 MHz. Das ist im Schnitt ~8% langsamer als Stock und der Verbrauch liegt meist bei 240-300W.
Aber selbst damit wirst du in 1080p nur im CPU Limit hängen und der Verbrauch wahrscheinlich nochmals deutlich geringer ausfallen.
Ab so 150-200 FPS whined meine 4090 FE auch etwas.
8% weniger und dann gleich soviel Ersparnis? Bin beindruckt. CPU ist bei mir 7700X. Ich brauch vorerst konstante 120fps mit allen Reglern ganz nach rechts und "path-tracing" wenn's sein muss. Oder downsampling wenn genügend Luft da sein sollte, für schönstes 1080p:)
1440p/240 soll's dann in Zukunft werden.
Ob man Spulenfiepen bekommt oder nicht, das ist leider eine ziemliche Lotterie. Meine RTX 4090 von Gainward hat es nur in ganz bestimmten Situationen wenn die FPS extrem nach oben gehen: also 150 fps und mehr. Es ist aber auch nicht laut sondern nur wahrnehmbar. Von daher habe ich nochmal Glück gehabt. ;)
Meine Inno3d gibt keinen Muchser von sich, egal wie viel FPS anliegen. Lüfter sind eh alle heruntergeregelt auf max. 30% und da die GPU werkseitig eh unter Wasser rennen muss, würde ich Rasseln oder Fiepen sofort hören. Eine echt gute Grafikkarte, leider tue ich mich mit dem Treiber noch etwas schwer. Die neue Oberfläche vom GFE-Ersatz finde ich schrecklich und im Endeffekt ist es nichts Anderes als das GFE, welches hier früher noch nie zum Einsatz kam. Die sollten es imo im normalen Treiber/Oberfläche verankern, mit Experience-Modus, welchen man je nach Spiel deaktivieren kann.
VooDoo7mx
2024-03-25, 18:42:33
Ich glaub ich hab mich für die GigaByte GeForce RTX 4090 GAMING OC entschieden. Soll wohl "kein" coil whine haben und leise Lüfter hat sie wohl auch.
Da ich von einer 1070 komme und noch immer 1080p/120 fahre würde ich sie gleich mal zähmen wollen, so -20% fps. Am besten wäre ein "die Lüfter bleiben gleich ganz aus" underclocking/volting. Da ich sowas noch nie gemacht habe brauche ich dann eure Hilfe wenn's soweit ist.:biggrin:
Gehäuse hab ich, nur NT ist sone Sache. Was meint ihr welches (1000W) NT wäre zu empfehlen?
Bzgl der Gigabyte 4090 zitiere ich mcih mal selbst:
Ich hab jetzt über das Wochenende die Gigabyte 4090 Gaming OC ausgiebig über das Wochenende getestet.
Die Karte ist ausgezeichnet, keine Frage, doch die Personen welche für die Lüfterkurve verantwortlich sind, sollten jeden Tag mindestens 3 mal verprügelt werden.
Wie schon gesagt, selbst im silent BIOS drehen die Lüfter ab 60°C direkt ab 1300rpm auf. Selbst bei 320W verbrauch ist das genug Drehzahl um die Karte nach kurzer Zeit wieder unter die Schwelle zu schieben und das Spiel wiederholt sich dauernd, was einfach nur meganervig ist. Lüfter gut hörbar an, Lüfter aus, Lüfter gut hörbar an, Lüfter aus usw.
Auch mit der Gigabyte Software lassen sich nicht weniger als 1300rpm einstellen.
Mit dem MSI Afterburner lässt sich die Lüfterdrehzahl bis in etwa 890rpm reduzieren. Dazu noch die Schwelle für Lüfter an auf 50°C reduziert und dann ist auch Ruhe im Karton und kein permanentes an/aus der Lüfter.
Für 2505MHz bei 0,875V reicht auch 890rpm aus um die Karte selbst bei 320W unter 70°C zu halten. Das ist dann auch mein 24/7 Setting.
Also leise bekommst du die Karte nur mit Extra Tools.
Ich hab heut aufgeschnappt das die 70A inductors sehr arg whinen. Deshalb kommt dies bei den höherwertigen wie Asus vermehrt/immer vor(?) Die 50A Spulen sollen leiser sein. Deshalb sind wohl die billigeren Karten auch eher leise. Kann mir das nur so erklären das je wärmer die Dinger sind desto leiser.
@Lehdro
Haha! Voll auf die Tasta gesabbelt. 50°C und dann gleich mal von 0 auf 1400rpm losballern, sauber. Na Haupsache ich hab volle Kontrolle darüber was die Lüfter so machen.
8% weniger und dann gleich soviel Ersparnis? Bin beindruckt. CPU ist bei mir 7700X. Ich brauch vorerst konstante 120fps mit allen Reglern ganz nach rechts und "path-tracing" wenn's sein muss. Oder downsampling wenn genügend Luft da sein sollte, für schönstes 1080p:)
1440p/240 soll's dann in Zukunft werden.
Ein Asus Thor, welches auf Seasonic aufbaut! Geniale Netzteile, ebenso die Seasonic selbst.
Chrisch
2024-03-25, 18:57:30
Jedes Release 4090 Bios stellt 1.1V zur verfügung. Meine Release-Monat Inno3D 4090 ging auch bis 1.1V. Auf meine neue Gigabyte 4090 gaming hab ich ein altes 4090 Gaming Bios geflasht mit nvflashk, jetzt gehen hier auch 1.1V.
Das ist korrekt, die max 1.07v kamen erst mit dem AD102-301.
Aber nicht jedes BIOS bietet halt die 600W+ :)
Hikaru
2024-03-27, 19:45:41
Ein Asus Thor, welches auf Seasonic aufbaut! Geniale Netzteile, ebenso die Seasonic selbst.
Hab mich kurzfristig (dank Igor's Homepage) für das Dark Power 13 1000W entschieden, aber danke:)
Und danke an alle für eure Meinungen!
Bzgl der Gigabyte 4090 zitiere ich mcih mal selbst:
Also leise bekommst du die Karte nur mit Extra Tools.
Sehr hilfreich dein 24/7 setting. Das passt auch prima in mein 350W Limit.
Hikaru
2024-03-31, 09:27:10
Sodala, Gigabyte 4090 endlich in Betrieb! Schnell ist sie, haha! Endlich 90s Sega Arcade Racing Niveau, will meinen nix ruckelt mehr. Alles wird auf 120fps gnadenlos glattgebügelt. Kurze Zwischenfrage bevor ich weiterlob: Wie nah bin ich an nativ 4K dranne performance wise wenn ich von 4K downsample auf 1080p?
In Dirt5 ist das zumindest ein Unterschied zwischen 220W (kompletter PC) @1080 nativ und 335W downgesampled. Auch lustig in Forza Horizon 5 ist es egal ob nativ oder downsampling, ich kleb bei max 270fps (7700X).
Weiter des Lobes, ohne Afterburner verhält sie sich eigentlich wie man es erwartet: Sie ist aus wenn sie kühl ist und fährt langsam hoch wenn nötig. Manchmal bleibt sie dauerhaft bei sehr niedriger Lüfterdrehzahl. Ist dank RGB Gedöhns sehr gut sichtbar. RGB schaltet sogar ab wenn alles still steht. Im idle (86W gesamt PC) ist sie ziemlich exakt genauso genügsam wie meine Zotac 1070. Sehr gut!
Wenn sie hochdreht hört man sie natürlich, ist aber garnicht nervend. Der Dark Rock Pro ist da manchmal eher wahrnehmbar. Achso, die 12VHPWR Kabel/Buchsenanordung gehört dem Lederkoksnasenjäckchen QUER in den Arsch geschoben;D Und wieso legt BeQuiet nicht gleich ein Winkelkabel bei einem 270 Euro NT dazu?? Wieso hat all jenen verwirrten Autopiloten irgendeiner soviel ins Hirn geschi**en???
Fragen über Fragen... Wie dem auch sei, die 4090 taugt wirklich was. Ist wie ein gutes Downhill Bike, bügelt alles glatt, egal wie ruppig es wird:)
Slipknot79
2024-03-31, 13:08:40
Viel Spaß mit dem Prügel, gute Entscheidung getroffen.
Ich habe mich auch noch heute nicht an die dicke Geschwindigkeit der Karte gewöhnt und staune immer wieder, so muss das sein. (y)
aufkrawall
2024-03-31, 17:09:12
Die Gigabyte Lüftersteuerung der 4090er (sowohl Gaming OC/Windforce als auch Aorus Master) ist komplett Gagabyte.
Ist bei der MSI Suprim nicht anders. Säuft die ganze Zeit 40W in Idle und die Schrott-Lüfter, die ähnlich nervig klingen wie Lautsprecher von E-Autos, gehen ständig an.
Jetzt sitzt ein Frame aus Kanada mit Noctua-Lüftern drauf und es ist Ruhe, auch bei 500W. Wobei die MSI-Lüfter da auch besser klangen als bei Minimaldrehzahl...
So ist das jetzt eine tolle Karte. :freak:
ChaosTM
2024-03-31, 17:12:18
Das kann die 4080er deutlich besser.
Die brauchte nur 22 Watt im dual Monitor betrieb mit einem UHD Stream im Hintergrund.
Warum ?
bezüglich Lautstärke gibt es nix zu meckern - höre die karte(n) so gut wie nie
Chrisch
2024-03-31, 17:36:27
Da kann ich bzgl. der 4090 auch nicht meckern....
dual Monitor (144Hz) inkl. Twitch Stream am laufen
aufkrawall
2024-03-31, 17:39:10
Ja, ist ne Katastrophe. Die Asus TUF war in der Hinsicht auch viel besser. Hatte allerdings deutlich mehr Spulenfiepen. Da ist die MSI für 500W schon richtig super.
Lehdro
2024-03-31, 19:42:27
Habe mit meiner 4090 auch keine Sauferei im idle. Muss aber sagen das ich das OLED und den RGB Krams komplett ausgeschaltet habe. 22W mit 1440p/240 Hz + 1440p/75 Hz + YT. Ganz passabel finde ich. Sind natürlich nur Software Werte, aber bei knapp unter 100W idle vom gesamten PC wird das schon passen.
The_Invisible
2024-03-31, 22:10:26
Das kann die 4080er deutlich besser.
Die brauchte nur 22 Watt im dual Monitor betrieb mit einem UHD Stream im Hintergrund.
Warum ?
bezüglich Lautstärke gibt es nix zu meckern - höre die karte(n) so gut wie nie
Ist eher ein Custom Design Problem, da saufen entsprechende Karten schon mal >30-40W, auch die 4080 siehe: https://www.techpowerup.com/review/msi-geforce-rtx-4080-gaming-x-trio/39.html
Hat meine PNY gsd nicht...
Ja, ist ne Katastrophe. Die Asus TUF war in der Hinsicht auch viel besser. Hatte allerdings deutlich mehr Spulenfiepen. Da ist die MSI für 500W schon richtig super.
Gibt es eigentlich eine Asus, welche nicht vor sich hin fiept? Das betrifft sowohl das AMD- als auch das NV-Lager. Da geben sie sich so viel Mühe mit der WLP und trotzdem scheint beim Design der Karten, immer etwas daneben zu laufen.
aufkrawall
2024-04-01, 18:48:12
Gibts denn irgendwelche Hinweise, dass sie neuerdings etwas dagegen tun?
Laut Igor pappt Powercolor bei zumindest den neueren Karten etwa Pads auf die Spulen zur Dämmung. 7800 XT surrt hier bei doppeltem Verbrauch auch entsprechend weniger als die vorige 6700 XT Asus Dual.
Sardaukar.nsn
2024-04-01, 20:07:22
Gibt es eigentlich eine Asus, welche nicht vor sich hin fiept? Das betrifft sowohl das AMD- als auch das NV-Lager. Da geben sie sich so viel Mühe mit der WLP und trotzdem scheint beim Design der Karten, immer etwas daneben zu laufen.
Bei meiner TUF kann ich praxisfremd ohne V-Sync und 1000+fps in Menüs Geräusche provozieren. Im normalen Betrieb, auch bei Volllast bis max. 120pfs ist sie still.
Aber damals unter Luft bei 3Ghz, 450W immer noch super leise: https://i.imgur.com/gONoJjt.mp4
aufkrawall
2024-04-01, 21:27:37
Furmark surrt hier auch bei 300fps weniger als manche Spiele mit 150, wenig aussagekräftiger Test.
Sardaukar.nsn
2024-04-01, 21:48:38
Dann musst du dich wohl auf mein Wort oder die Signatur verlassen, dass mir das Thema lautloser PC am Herzen liegt ;)
Gibts denn irgendwelche Hinweise, dass sie neuerdings etwas dagegen tun?
Laut Igor pappt Powercolor bei zumindest den neueren Karten etwa Pads auf die Spulen zur Dämmung. 7800 XT surrt hier bei doppeltem Verbrauch auch entsprechend weniger als die vorige 6700 XT Asus Dual.
Die Sapphire 7900XTX hat bis 1200 FPS keinen Muchser von sich gegeben, die Inno3d 4090 Ultra gibt gar nichts von sich wieder. Da hört man nichts! Da meine CPU bei lediglich 105w rennt, sind alle 12 Lüfter auf min. Drehzahl eingestellt. Die rödeln alle bis max. 800 RPM. Niemand würde vermuten, dass da ein recht schneller Rechner steht.
RoughNeck
2024-04-02, 20:06:31
Asus sticht da schon lange negativ heraus, auch bei den Gaming Laptops.
Arbeitskollege hat sich einen zugelegt da er oft auf Reisen geht, das Teil (Strix Scar 18 irgendwas, irgendwas) fiept wie Hölle. Selbst im Windows Mode hört man ab und an ein fiepen.
Hätte ich so wieder zurück geschickt, ihm ist es egal.
DrFreaK666
2024-04-14, 12:56:14
Hundreds of GeForce RTX 4090 GPUs With Burnt Connectors Are Still Being Sent To Repair Shop For Fix
https://wccftech.com/hundreds-geforce-rtx-4090-gpus-burnt-connectors-still-sent-to-repair-shop-for-fix/
Scheint viele DAUs zu geben
Ex3cut3r
2024-04-14, 13:06:05
Das Problem ist IMHO das viele das Ding nicht bis zum Anschlag reinstecken, und denken das passt so. Ist natürlich auf der anderen Seite eine dämliche Konzeption. Dann knicken auch noch viele das Kabel, und zwar an der Stelle, wo es eben nicht knicken sollte (nah am Stecker)
dildo4u
2024-04-14, 13:11:35
Der8auer hatte doch ein Video dazu der neue Stecker hat weniger Toleranz als der alte 8 Pin.
qxF2O4Gypso
Prinzenrolle
2024-04-15, 00:41:33
Ein Haufen voller Unsinn den er da redet. Hab ihn nach dem Video deabonniert.
Scheint viele DAUs zu geben
Wie das momentan so an der Front aussieht gibt es eindeutig zu viele DAUs, die entweder immer noch den alten CM Winkel-Schrott mit ASUS Karten kombiniert haben oder einfach unfähig sind.
Exxtreme
2024-04-15, 08:19:39
https://wccftech.com/hundreds-geforce-rtx-4090-gpus-burnt-connectors-still-sent-to-repair-shop-for-fix/
Scheint viele DAUs zu geben
Tja, deshalb wenn man von solchen Dingen keine Ahnung hat dann lieber die Finger davon lassen. Aber ja, der Stecker hat weiterhin eine recht suboptimale Haptik. Denn ein Stecker, der eine Gebrauchsanleitung braucht ist schon arg "expertenfreundlich".
Angiesan
2024-04-15, 08:34:15
Die Gigabyte Lüftersteuerung der 4090er (sowohl Gaming OC/Windforce als auch Aorus Master) ist komplett Gagabyte. Der dreht direkt mit ~1400rpm los bei um die 50°C. "Silent" bleibt die Karte da nur wenn du dauerhaft unter 80W bleibst (dann reichen dann auch 0 rpm :D), ansonsten an-aus-an-aus in gewissen Abständen, bis du irgendwann
Das kann ich nicht bestätigen. Es scheint auch Karten von Gigabyte zu geben die nicht mit 1400 RPM starten. Ich habe so eine und an aus ist da auch nix obwohl meine Gehäuselüfter nur mit 650 RPM arbeiten, gut das sind 10 Stück :-).
Ich habe eine AERO die faktisch eine AORUS in weiß ohne Display ist und nicht das Verhalten wie von Dir beschrieben zeigt. Die Karte ist leise und recht Kühl je nach Spiel zwischen 60 und 74°C. Ich würde die immer wieder kaufen.
Das Standard Bios das hier aktiv ist, ist die Version 95.02.3C.80.2C. Mit dem OC Bios was die gleichen Taktraten anlegt drehen die Lüfter aber deutlich schneller und damit lauter.
Die Karte kommt dann aber auch bei 450 Watt+ nicht mehr über 65°C. das braucht keiner. Der einzige Nachteil den die Karte hat ist die unfassbare Größe und vor allem die Höhe die passt nicht in der horizontaler Einbauweise in mein Gehäuse, da musste ich mir den vertikalen Einbausatz leisten.
Als Zusatzinfo die Gigabyte habe ich im Dezember 23 gekauft nachdem bei meiner KFA der 12VHPWR mitsamt 850 Watt Seasonic NT abgeraucht ist.
Thunder99
2024-04-15, 09:02:11
Jemand der >1500 Euro ausgibt und nicht weiss wie man einen Stecker steckt ist schon hart als Dau zu bezeichnen :freak: . Ggf. gibt es schon paar aber die Masse sollte es doch hinbekommen...
Oder bin ich zu weit weg wie die heutigen Leute so drauf sind und Erfahrung haben im PC-Eigenbau? :D
rentex
2024-04-15, 09:34:44
Jemand der >1500 Euro ausgibt und nicht weiss wie man einen Stecker steckt ist schon hart als Dau zu bezeichnen :freak: . Ggf. gibt es schon paar aber die Masse sollte es doch hinbekommen...
Oder bin ich zu weit weg wie die heutigen Leute so drauf sind und Erfahrung haben im PC-Eigenbau? :D
Dir ist schon klar, das nicht nur der Stecker ein Problem hatte, sondern die Wärmeableitung am PCB neben dem Stecker?
Exxtreme
2024-04-15, 10:29:54
Dir ist schon klar, das nicht nur der Stecker ein Problem hatte, sondern die Wärmeableitung am PCB neben dem Stecker?
Ja, aber der Stecker verträgt bis zu 200° C. Wenn der trotzdem abschmilzt dann lag das Problem ganz woanders. Wie gesagt, die Haptik ist arg blöd vom Stecker und die Fertigungstoleranzen des Steckers und der Buchse sind relativ klein.
Man muss den so weit reinstecken bis es klickt. Wenn es nicht klickt dann hat man ein Problem. Weil dann ist entweder der Stecker nicht richtig drin oder er oder die Buchse sind defekt.
Sardaukar.nsn
2024-04-15, 10:47:04
Die meisten Kunden mussten sich ja eh mehr Gedanken um den Stecker machen, da es zu Beginn ja quasi noch keine ATX 3.0 Netzteile gab und diese 2-in-4-in-1 Dongel Konstrustion unerträglich hässlich ist. Erstmalig zusammengesteckt hat das sicher nicht nur bei mir einen WTF Moment ausgelöst.
Lehdro
2024-04-15, 16:50:11
Das kann ich nicht bestätigen. Es scheint auch Karten von Gigabyte zu geben die nicht mit 1400 RPM starten.
Ich habe eine AERO die faktisch eine AORUS in weiß ohne Display ist und nicht das Verhalten wie von Dir beschrieben zeigt. Die Karte ist leise und recht Kühl je nach Spiel zwischen 60 und 74°C. Ich würde die immer wieder kaufen.
Das Standard Bios das hier aktiv ist, ist die Version 95.02.3C.80.2C. Mit dem OC Bios was die gleichen Taktraten anlegt drehen die Lüfter aber deutlich schneller und damit lauter.
Zeig mal deine Standard Lüfterkurve via Tools (kann man auslesen). Bei meiner Gagabyte fängt die im Default Zustand erst bei 1400rpm an und darf sich erst danach "Kurve" schimpfen.
Angiesan
2024-04-15, 18:20:57
Jemand der >1500 Euro ausgibt und nicht weiss wie man einen Stecker steckt ist schon hart als Dau zu bezeichnen :freak: . Ggf. gibt es schon paar aber die Masse sollte es doch hinbekommen...
Oder bin ich zu weit weg wie die heutigen Leute so drauf sind und Erfahrung haben im PC-Eigenbau? :D
Du darfst mir glauben, dass ich die notwendige Erfahrung habe um auch den neuen Stecker richtig zu händeln und das ganze ist mit dem Standard Adapter der der KFA beilag mit 4 * 8 poligen Stecker an 3 Strängen auch über mehrere Monate gut gelaufen, sah aber nicht toll aus. Danach kam zuerst das vollkommen überteuerte Kabel von Cabelmod, dass dann so aussah nach ein paar längeren Gaming Wochenenden.
87820
und dann das original Kabel von Seasonic, nicht wundern, das C850 Gold von NZXT ist ein umgelabeltes Seasonic GX 850 und hat die volle Kompatibilität mit den Seasonic-Kabel. Seasonic ist der Meinung dass ihre NT an den Buchsen zum NT mit diesem Kabel 600 Watt liefern können, was faktisch aber mit der KFA nicht machbar war da war das PL bei 515 Watt begrenzt. Nach mehreren Stunden Avatar, dass die 4090 richtig knechtet, kommt dann so etwas bei raus und damit waren Graka, Kabel und NT nicht mehr zu retten.
87819
Das neue NT ein Seasonic Vertex 1000 hat schon den neuen PCIe 3.0 Standard und seit Dezember 23 läuft neues NT und die Gigabyte unauffällig. Aber fast ein Jahr ist die KFA ja auch ohne Probleme gelaufen und dann ging es los. Vielleicht hat die Graka aber auch schon bei dem ersten Kabelschaden mit dem Kabelmodkabel einen weg bekommen und hat dann einfach nur noch knapp 2 Monate durchgehalten?! Auffällig war halt, dass beide Kabelschäden in der Zeit aufgetreten sind in der ich Spiele gespielt habe die der Graka alles abverlangen, sprich die Graka klebt bei Jedi Survivor und bei Avatar eigentlich immer an der 450 Wattgrenze.
Angiesan
2024-04-15, 18:31:21
Zeig mal deine Standard Lüfterkurve via Tools (kann man auslesen). Bei meiner Gagabyte fängt die im Default Zustand erst bei 1400rpm an und darf sich erst danach "Kurve" schimpfen.
Ich kann das nur mit dem Gigabyte Tool auslesen und nur dann wenn ich auf Customized stelle, Du darfst mir aber vertrauen, dass ich keine eigene Kurve angelegt habe. Die Lüfter fangen mit ca. 1050 RPM an und bei dem Standard-Bios werden i.d.R. max. 1400-1450 RPM erreicht wenn die Graka richtig gefordert wird. Normalerweise pendelt sich das so bei 1100-1200 RPM ein.
87822
Neuer Anhang
Hier mal GPU-Z nach einer Runde Helldivers, ich habe extra mal nur die Max-Werte bei den Lüftern in der Anzeige aktiviert da kannst Du gut sehen das die die 1400 RPM selbst beim Spielen nicht erreichen.
87823
RoughNeck
2024-04-15, 21:11:34
Das 1. Bild sieht nach Pfusch seitens Cablemod aus, Igorslab hat da auch schon einen Artikel drüber geschrieben und in vielen anderen Foren ließt man auch das Cablemod da scheinbar massive Probleme hat.
Angiesan
2024-04-15, 21:21:11
Wie auch immer knapp 50,- EUR mal in die Tonne getreten und vielleicht auch den Nachfolgefehler vorbereitet. Was man auf dem 2 Bild nicht sehen kann, die Stecker an dem NT waren nicht mehr herausziehbar, die waren verbacken. Das NT und die Graka wurde aber beides auf Kulanz ersetzt, bzw. bei der KFA das Geld zurückerstattet da zu dem Zeitpunkt bei dem Händler kein Ersatz lieferbar war. Da bin ich gut weg gekommen auch wenn im Dezember die Preise der 4090er gerade mal wieder hoch waren :mad:
Exxtreme
2024-04-17, 11:48:29
Cablemod hatte hier und da größere Rückrufaktionen wegen der Stecker und 90° Winkelstecker etc. Von daher ja, die scheinen entweder gepfuscht oder einige Sachen unterschätzt zu haben.
arcanum
2024-04-17, 12:52:30
Wie auch immer knapp 50,- EUR mal in die Tonne getreten und vielleicht auch den Nachfolgefehler vorbereitet. Was man auf dem 2 Bild nicht sehen kann, die Stecker an dem NT waren nicht mehr herausziehbar, die waren verbacken. Das NT und die Graka wurde aber beides auf Kulanz ersetzt, bzw. bei der KFA das Geld zurückerstattet da zu dem Zeitpunkt bei dem Händler kein Ersatz lieferbar war. Da bin ich gut weg gekommen auch wenn im Dezember die Preise der 4090er gerade mal wieder hoch waren :mad:
Du kannst dir bei CableMod das Geld für deren Winkelstecker erstatten lassen. Man kriegt den ganzen Betrag inkl. Versand zurück.
Lehdro
2024-04-17, 14:11:29
Ich kann das nur mit dem Gigabyte Tool auslesen und nur dann wenn ich auf Customized stelle, Du darfst mir aber vertrauen, dass ich keine eigene Kurve angelegt habe. Die Lüfter fangen mit ca. 1050 RPM an und bei dem Standard-Bios werden i.d.R. max. 1400-1450 RPM erreicht wenn die Graka richtig gefordert wird. Normalerweise pendelt sich das so bei 1100-1200 RPM ein.
Du scheinst da definitiv eine andere Lüfterkurve zu haben, als meine Aorus Master. Die meistert ihre Drehzahlen erst ab 1400 rpm, was natürlich bei wenig Last "leicht" übertrieben ist und zu besagten Verhalten führt.
Hier mal GPU-Z nach einer Runde Helldivers, ich habe extra mal nur die Max-Werte bei den Lüftern in der Anzeige aktiviert da kannst Du gut sehen das die die 1400 RPM selbst beim Spielen nicht erreichen.
Was drehen denn die Lüfter auf 100%, wenn 79% schon ~ 1350 rpm sind? Meine gehen bei 100% auf 2600 rpm, was wohl realistisch nie erreicht wird. Selbst bei 550W+ regelt die mit dem OC BIOS irgendwo bei 2100 rpm panisch rum.
Selbst konfigurierbare Lüfterkurven sind echt ein Segen.
BlacKi
2024-04-17, 14:33:45
und dann das original Kabel von Seasonic, nicht wundern, das C850 Gold von NZXT ist ein umgelabeltes Seasonic GX 850 und hat die volle Kompatibilität mit den Seasonic-Kabel. Seasonic ist der Meinung dass ihre NT an den Buchsen zum NT mit diesem Kabel 600 Watt liefern können, was faktisch aber mit der KFA nicht machbar war da war das PL bei 515 Watt begrenzt. Nach mehreren Stunden Avatar, dass die 4090 richtig knechtet, kommt dann so etwas bei raus und damit waren Graka, Kabel und NT nicht mehr zu retten.
87819
das 2. bild: sieht so aus, als müsste ein kabel strang mehr ampere leisten als die anderen.
allgemein gefragt:
kann man eigentlich mit nem multimeter den widerstand messen und so schlechte kabelverbindungen testen?
The_Invisible
2024-04-17, 14:37:12
Frag mich eher warum Lüfter/Lüfterkurven heute noch immer so ein Mysterium für die Hersteller zu sein scheinen, das ist doch schon 1000x durchgekaut. Meine erste Zotac 4090 war von demher unausstehlich, hat sich blechern angehört und Anlaufgeschwindigkeit bei >1300rpm, musste ich zurücksenden.
Meine aktuelle PNY ist quasi fast perfekt, nur minimalstes Spulenfiepen bei >800fps und Lüfter gehen quasi fast unter von den Gehäuselüftern, einfach geil so einen Wolf im Schafspelz zu haben :D
Lehdro
2024-04-17, 14:47:11
Frag mich eher warum Lüfter/Lüfterkurven heute noch immer so ein Mysterium für die Hersteller zu sein scheinen, das ist doch schon 1000x durchgekaut.
Das witzigste (oder eher traurigste, je nachdem) ist doch, dass du innerhalb desselben Herstellers(!), in derselben Modelllinie(!) durchaus beide Extreme finden kannst. Da fragt man sich echt woran es gelegen hat.
Gynoug MD
2024-04-17, 14:58:54
...nach einer Runde Helldivers
87823
Helldivers ist auch so ein Ding, kein anderes Spiel heizt meine 4090 (~80 Grad, Hotspot >100 Grad, Lüfter 100%)+CPU so auf, trotz 6/10 Grafik ohne RT-Tralala, ein echter Nerv-Faktor.
Angiesan
2024-04-17, 17:51:51
Du scheinst da definitiv eine andere Lüfterkurve zu haben, als meine Aorus Master. Die meistert ihre Drehzahlen erst ab 1400 rpm, was natürlich bei wenig Last "leicht" übertrieben ist und zu besagten Verhalten führt.
Was drehen denn die Lüfter auf 100%, wenn 79% schon ~ 1350 rpm sind? Meine gehen bei 100% auf 2600 rpm, was wohl realistisch nie erreicht wird. Selbst bei 550W+ regelt die mit dem OC BIOS irgendwo bei 2100 rpm panisch rum.
Selbst konfigurierbare Lüfterkurven sind echt ein Segen.
Die Maximaldrehzahl ist 1750 RPM habe ich noch nie erreicht und musste ich jetzt nachgucken. Mit dem 2. Bios ist sie aber definitiv höher.
Wenn Du willst, kann ich Dir mein Standard Bios zukommen lassen, dann brauchst Du nichts mehr einstellen, das ist schon recht leise beim Spielen und geht vielleicht als silent durch ;-) Das PCB und die Taktraten sollten ja die gleichen sein, meine geht bis 2805 otb, Wenn sie warm ist fallen die dann auf 2760 - 2775 MHz, mir reicht das. Das kleine Display was deine hat wird ja über die Firmware gesteuert die wird normalerweise bei einem Biosflash nicht angefasst.
Angiesan
2024-04-17, 18:05:09
Frag mich eher warum Lüfter/Lüfterkurven heute noch immer so ein Mysterium für die Hersteller zu sein scheinen, das ist doch schon 1000x durchgekaut. Meine erste Zotac 4090 war von demher unausstehlich, hat sich blechern angehört und Anlaufgeschwindigkeit bei >1300rpm, musste ich zurücksenden.
Meine aktuelle PNY ist quasi fast perfekt, nur minimalstes Spulenfiepen bei >800fps und Lüfter gehen quasi fast unter von den Gehäuselüftern, einfach geil so einen Wolf im Schafspelz zu haben :D
Ich hatte deine Karte auch hier da ich mir eine kleine Auswahl bestellt hatte nach dem Defekt.
Die PNY wäre auch hier geblieben, aber die hatte genau das Verhalten was Lehdro mit seine Aorus Master hat. Die Karte startete hier mit 1400RPM und ging dann aber auch nicht viel weiter hoch bis ca 1450 - 1500 RPM dabei war das Ding unfassbar kühl und immer noch sehr leise, der Kühler kann was, zumal er deutlich kleiner ist wie der der AERO!
Die Karte hat mir aber mit dem beleuchteten X in der Mitte optisch nicht so zugesagt und da mein Lian Li nun mal von 2 Seiten aus Glas besteht spielte das für mich schon eine Rolle.
Die Karte ist aber noch im 3DC vertreten Cubi hat mir die abgekauft nachdem seine MSI Suprim X den Geist aufgegeben hat. Selbst nachdem die MSI getauscht wurde und originalverpackt zu ihm nach Hause gekommen ist hat er nicht zurückgetauscht sondern die MSI verkauft. Ist wohl zufrieden mit der PNY und hat jetzt auch keine 35-40 Watt mehr beim ideln:-) und kein Spulenfiepen aus der Hölle
Annator
2024-04-18, 11:45:27
Du darfst mir glauben, dass ich die notwendige Erfahrung habe um auch den neuen Stecker richtig zu händeln und das ganze ist mit dem Standard Adapter der der KFA beilag mit 4 * 8 poligen Stecker an 3 Strängen auch über mehrere Monate gut gelaufen, sah aber nicht toll aus. Danach kam zuerst das vollkommen überteuerte Kabel von Cabelmod, dass dann so aussah nach ein paar längeren Gaming Wochenenden.
87820
und dann das original Kabel von Seasonic, nicht wundern, das C850 Gold von NZXT ist ein umgelabeltes Seasonic GX 850 und hat die volle Kompatibilität mit den Seasonic-Kabel. Seasonic ist der Meinung dass ihre NT an den Buchsen zum NT mit diesem Kabel 600 Watt liefern können, was faktisch aber mit der KFA nicht machbar war da war das PL bei 515 Watt begrenzt. Nach mehreren Stunden Avatar, dass die 4090 richtig knechtet, kommt dann so etwas bei raus und damit waren Graka, Kabel und NT nicht mehr zu retten.
87819
Das neue NT ein Seasonic Vertex 1000 hat schon den neuen PCIe 3.0 Standard und seit Dezember 23 läuft neues NT und die Gigabyte unauffällig. Aber fast ein Jahr ist die KFA ja auch ohne Probleme gelaufen und dann ging es los. Vielleicht hat die Graka aber auch schon bei dem ersten Kabelschaden mit dem Kabelmodkabel einen weg bekommen und hat dann einfach nur noch knapp 2 Monate durchgehalten?! Auffällig war halt, dass beide Kabelschäden in der Zeit aufgetreten sind in der ich Spiele gespielt habe die der Graka alles abverlangen, sprich die Graka klebt bei Jedi Survivor und bei Avatar eigentlich immer an der 450 Wattgrenze.
Undervoltet ihr alle nicht? Meine 4090 zieht keine 300W bei -8% Leistung.
Radeonfreak
2024-04-18, 11:48:02
Wenn Sie 500W will soll sie 500W haben. :cool:
Annator
2024-04-18, 11:49:09
Wenn Sie 500W will soll sie 500W haben. :cool:
Nagut. :biggrin:
Exxtreme
2024-04-18, 11:57:00
Ich undervolte nicht. Aber ich benutze Framelimiter für Spiele, die keine 250 fps brauchen.
Lehdro
2024-04-18, 13:52:57
Die Maximaldrehzahl ist 1750 RPM habe ich noch nie erreicht und musste ich jetzt nachgucken. Mit dem 2. Bios ist sie aber definitiv höher.
Ist also definitiv eine komplett andere Ansteuerung + Lüfter. Vielleicht hat Gigabyte tatsächlich die richtigen Schlüsse gezogen. Bleibt nur zu hoffen dass sie das Wissen bei der nächsten Generation nicht wieder vergessen :cool:
Wenn Du willst, kann ich Dir mein Standard Bios zukommen lassen, dann brauchst Du nichts mehr einstellen, das ist schon recht leise beim Spielen und geht vielleicht als silent durch ;-)
Danke für das Angebot, aber ich kann gut mit meiner eigenen, selbst erstellten Lüfterkurve leben, ist kein Beinbruch. Immerhin wusste ich das auch vor dem Kauf schon und habe mich trotzdem für das Kärtchen, oder besser: den Ziegelstein, entschieden.
Undervoltet ihr alle nicht? Meine 4090 zieht keine 300W bei -8% Leistung.
Und das rechtfertigt jetzt genau was? Muss man seit neustem sein erworbenes Produkt absichtlich verändern, damit es NICHT kaputt geht? :confused:
Der Stecker soll 600W abkönnen und nicht schon bei 450W wegschmelzen.
Annator
2024-04-18, 14:48:43
Und das rechtfertigt jetzt genau was? Muss man seit neustem sein erworbenes Produkt absichtlich verändern, damit es NICHT kaputt geht? :confused:
Der Stecker soll 600W abkönnen und nicht schon bei 450W wegschmelzen.
Ja ist ja richtig. Trotzdem will ich nicht das der Stecker abfackelt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.