Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
Achill
2025-01-08, 08:20:05
Wie kommst du auf so niedrige Zahlen?
Steam hat über eine Mrd. Nutzer und laut steam hardware survey haben 1,16% davon also über 10 Millionen eine 4090. Glaub zwar das die Zahlen nicht sonderlich genau sind aber Millionenfach wird sich sowas wie die 4090 schon verkauft haben.
Nutzer |= Aktive Nutzer |= an Umfrage Teilgenommen
dargo
2025-01-08, 08:22:12
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
Wow... endlich mal eine sehr nüchterne Sichtweise, mal außerhalb der sonstigen hyperventilierenden Overhypern. :up: Das Wort "langweilig" hätte ich von einem Raff wirklich bei neuer PC-Hardware nicht erwartet. :wink:
fizzo
2025-01-08, 08:24:01
1 Mio Stück wäre für NV ganz grob 1,5Mrd Umsatz mit der Karte. Insgesamt haben sie seit Release mit Gaming über 15 Mrd Umgesetzt.
Halte ich für wesentlich realistischer als 30k Karten was in Summe 45 Mio Umsatz für NV bedeuten würde sprich pro Quartal 5 Mio Umsatz....
Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)
Hatten wir hier schon. Aber 10% vom Gamingumsatz finde ich jetzt zu hoch gegriffen.
mironicus
2025-01-08, 08:25:31
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:
Neurosphere
2025-01-08, 08:31:08
https://pbs.twimg.com/media/Ggv9A-SbgAAjSfq?format=png&name=medium
https://pbs.twimg.com/media/Ggv9BhVbcAALQqd?format=png&name=medium
Irgendwie passt das nicht.
Auch basierend auf Raffs / PCGH Video zu den Werten (Es wäre schön wenn ihr im Vergleich auch die Daten der 4080 non Super angezogen hättet wie NV in den Benches):
5090 zu 4090: +27,5% TFlops, + 78% Speicherbandbreite.
FC6: +27,5%
5080 zu 4080: ~+15% TFlops + 33% Speicherbandbreite
FC6: +33,2%
Das will irgendwie nicht zusammen passen.
Linmoum
2025-01-08, 08:33:53
FC6 hängt stark im CPU-Limit, das wird bei der 5090 häufig zu sehen sein.
Lurtz
2025-01-08, 08:36:50
Wow... endlich mal eine sehr nüchterne Sichtweise, mal außerhalb der sonstigen hyperventilierenden Overhypern. :up: Das Wort "langweilig" hätte ich von einem Raff wirklich bei neuer PC-Hardware nicht erwartet. :wink:
Die Hardware ist ja auch langweilig. It's the software, stupid (https://en.wikipedia.org/wiki/It's_the_economy%2C_stupid) :ugly:
dargo
2025-01-08, 08:37:31
Gerade im PCGH Forum einen interessantes Ansatz gelesen, das für AMD und Intel nichts besseres als MFG passieren konnte. Da Nvidia jetzt Fake Frames eingeführt hat und nicht der Unterlegene Mitbewerber.
Da die nun diese sehr wahrscheinlich ebenfalls eine Art MFG entwickeln werden, sobald AMD und Intel ihre eigenen Technologien für 4x Frame-Generation einführen, das ist nur eine Frage der Zeit, da es primär softwarebasiert und die haben ebenfalls extrem talentierte Entwickler.
Wenn in Cyberpunk der Framecounter bei AMD 180 FPS und bei Nvidia 240 FPS zeigt. Ab >120 FPS merkt sowieso niemand mehr einen Unterschied, weil es absolut flüssig ist.
Die Unterschiede sind dann nur noch theoretische Werte auf dem Papier.
Die FPS-Zahlen werden mit diesen Technologien sowieso immer absurder. Aus echten 30 FPS werden plötzlich >100, aus echten 40 schon >130. Gerade für AMD und Intel könnte diese Entwicklung richtig gut sein.
Was meint ihr?
Auch AMD und Intel sind den physikalischen Gesetzen bei der Fertigung ausgesetzt. Auch dort geht nur mehr Raw Power mit wesentlich größeren Dies und wesentlich mehr Powerbudget. Spätestens nach Blackwell Release sehe ich eine riesen Stagnation bei PC-Hardware (hier GPUs) auf uns zukommen.
https://youtu.be/Far7GJch2KA
https://i.kym-cdn.com/photos/images/newsfeed/000/353/279/e31.jpg
https://www.kleinanzeigen.de/s-anzeige/rtx-4090-24-gb/2969725866-225-6315
https://www.kleinanzeigen.de/s-anzeige/suche-rtx-4090-oder-rtx-4080/2969648643-225-1905
https://www.kleinanzeigen.de/s-anzeige/suche-nvidia-rtx-4090/2969724837-225-1162
;D ;D ;D
Die suchenden sind ja sogar richtig spendabel. :D
Tomahawk
2025-01-08, 08:43:04
Ein Pixelzähler auf Reddit hat die Pixel der Balken gezählt https://www.reddit.com/r/nvidia/comments/1hvvrqj/50_vs_40_series_nvidia_benchmark_exact_numbers/
und wenn ich nur FC6 + Requiem nehme sind es:
5090 vs. 4090: +27,5% und +43,2%
5080 vs. 4080: +33,2% und +35,1%
5070 Ti vs. 4070 Ti: +33,2% und +41,3%
5070 vs. 4070: +31,3% und +40,7%
Raster wird wohl etwas langsamer sein, aber wenn es alleine in RT+ DLSS grob +35% durch die Bank sind, kann von "unterwältigend" nicht die Rede sein.
Ist es nicht verwunderlich, dass alle Karten ggü. den jeweiligen Vorgänger rund 30% (40% mit RT) zulegen? Das deckt sich nicht wirklich mit den Unterschieden bei der Rohpower. Wenn das so stimmt, dann wäre die 5080 auf 4090-Niveau und die 5070 Ti auf 4080-Niveau
dildo4u
2025-01-08, 08:48:38
Ist es nicht verwunderlich, dass alle Karten ggü. den jeweiligen Vorgänger rund 30% zulegen? Das deckt sich nicht wirklich mit den Unterschieden bei der Rohpower.
Die Bandbreite steigt durch GDDR7 4070 hatte z.b nur 500 GB/Sec, 5070 670 GB/Sec.
dargo
2025-01-08, 08:49:19
https://pbs.twimg.com/media/Ggv9A-SbgAAjSfq?format=png&name=medium
https://pbs.twimg.com/media/Ggv9BhVbcAALQqd?format=png&name=medium
Irgendwie passt das nicht.
Auch basierend auf Raffs / PCGH Video zu den Werten (Es wäre schön wenn ihr im Vergleich auch die Daten der 4080 non Super angezogen hättet wie NV in den Benches):
5090 zu 4090: +27,5% TFlops, + 78% Speicherbandbreite.
FC6: +27,5%
5080 zu 4080: ~+15% TFlops + 33% Speicherbandbreite
FC6: +33,2%
Das will irgendwie nicht zusammen passen.
Lest ihr eigentlich auch den Text dazu oder schaut ihr nur wieder auf schnöde Balkenlänge? Da steht doch ganz klar, dass Ada mit FG gemessen wurde und Blackwell mit MFG. ;) Also mal wieder Äpfel/Birnen Vergleiche.
dildo4u
2025-01-08, 08:50:20
Far Cry hat kein FG.
Neurosphere
2025-01-08, 08:53:42
Lest ihr eigentlich auch den Text dazu oder schaut ihr nur wieder auf schnöde Balkenlänge? Da steht doch ganz klar, dass Ada mit FG gemessen wurde und Blackwell mit MFG. ;) Also mal wieder Äpfel/Birnen Vergleiche.
Ja, wer lesen kann ist klar im Vorteil.
dargo
2025-01-08, 08:54:15
Wer redet denn von Farcry? Ich beziehe mich natürlich auf die Werte mit über 100% Performancezuwachs. Und warum zum Teufel Nvidia bei einem Schwergewicht wie der RTX 5090 DLSS Performance in 4k nimmt wissen die wohl nur selbst. ;D Skaliert MFG im stärkeren GPU-Limit eventuell schlechter?
dildo4u
2025-01-08, 08:55:54
Das was du zitiert hast handelt von +30% also ohne FG.
Neurosphere
2025-01-08, 08:56:34
FC6 hängt stark im CPU-Limit, das wird bei der 5090 häufig zu sehen sein.
Habs nie selbst gespielt oder Verfolgt, aber so scheint es zu sein. Vielleicht sollte man sich dann eher am A Plagues Tale orientieren statt FC6. Hier sind die verwendeten Techniken von 4090 und 5090 ja auch gleich, könnte höchstens sein das die Speicherbandbreite hier deutlicher wegen höherer RT Last. Das sollte dann bei zB CP2077 aber ähnlich sein auch ohne MFG oder FG.
Neurosphere
2025-01-08, 08:58:08
Wer redet denn von Farcry? Ich beziehe mich natürlich auf die Werte mit über 100% Performancezuwachs. Und warum zum Teufel Nvidia bei einem Schwergewicht wie der RTX 5090 DLSS Performance in 4k nimmt wissen die wohl nur selbst. ;D
Du bist mein Held. Beschwerst dich das keiner den Text liest und... liest den Text nicht:freak:
dildo4u
2025-01-08, 08:58:50
Die Karten unter der 5090 kann man vermutlich mit FC bewerten da Nvidia ein 9800x3d nutzt der sollte 200fps schaffen.
Sardaukar.nsn
2025-01-08, 08:59:47
;D ;D ;D
Die suchenden sind ja sogar richtig spendabel. :D
Der Letzte triggert aber scheinbar… :freak:
Beleidigende Nachrichten von gekränkten Seelen, welche damals Wucherpreise für ihre 4090 bezahlt haben, werden zu Unterhaltungszwecken hier veröffentlicht. Ich weiß die Realität tut manchmal weh.
Ich suche eine NVIDIA RTX 4090 für maximal 600€. Meine Preisvorstellung basiert auf den heute veröffentlichten Infos und Preis-/Leistungsdaten der neuen 50er-Karten.
Ich bin nur an Vor Ort Besichtigung interessiert.
Der erste Test mit 3Dmark Steel Nomad (ohne CPU Limit) wird Klarheit über die Rasterleistung der 5090 bringen. Ich tippe mal auf +50% wenn der Takt passt. Substanz ist ja da.
dargo
2025-01-08, 09:01:47
Du bist mein Held. Beschwerst dich das keiner den Text liest und... liest den Text nicht:freak:
Sorry... ich hätte dich nicht zitieren sollen. Ich hatte mich halt köstlich über den Vergleich von NV mit FG vs. MFG amüsiert und habe deine Diagramme dafür genommen.
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:
Gibt es sicher. Es gibt sogar Interessensgemeinschaften, die sich gegen TAA wehren und lieber dem knackscharfen Flimmern frönen. Kampf gegen Fortschritt und Windmühlen, Club der Ewiggestrigen, es gibt viele mögliche Bezeichnungen dafür. :biggrin:
MfG
Raff
Dural
2025-01-08, 09:30:35
lol NV holt mal eben im selben Herstellung Prozess 30% mehr Leistung raus und die Kindergarten Abteilung die sich eine 5090 sowie so nicht Leistung können beschweren sich von zu wenig Leistungs-Zuwachs... ;D
Dank den 4nm sind die Karten übrigens auch bezahlbar geblieben!
dargo
2025-01-08, 09:35:40
lol NV holt mal eben im selben Herstellung Prozess 30% mehr Leistung raus...
Was für ein Meisterwerk bei deutlich mehr Die Size mit weniger Takt und nochmals höheren Powerbudget bei eh schon viel zu großen Heizöfen. :uup:
nordic_pegasus
2025-01-08, 09:40:54
da in der Explosionszeichnung aus der Keynote nur ein kleines PCB in der Mitte erkennbar war (links und rechts dürfte eigentlich kein PCB sein wegen den Lüftern), frage ich mich, wie die Video-Ausgänge und der PCIe Slot angebunden werden.
Bei der Pressemitteilung von Alphacool fällt auf, dass für viele Custom-Designs bereits Wakü-Blöcke angekündigt wurden aber nicht für die FE-Karten.
-> Sind die FE-Karten mehrteilig und vielleicht etwas komplexer für den Umbau auf einen Wakü-Block? Ich hoffe auf Zotac und inno3D, dass hier wieder gute Layouts bezogen auf Spulenfiepen kommen. Beide Designs waren sehr nahe am Referenz-Design der 40er Karten, welcher ansonsten wohl kein AiB verwendet hatte.
kleines Update aus dem HardwareLuxx Forum. Ein User hat bei Alphacool nachgefragt und folgende Antwort erhalten:
UPDATE:
Ich habe bei Alphacool direkt angefragt. Es IST ein Fehler. FE wird aktuell nicht unterstützt.
Auf die Frage ob es einen FE Wasserblock geben wird kam diese Antwort von Alphacool:
"Aktuell noch nicht geklärt. Da die FE ein extrem seltsames PCB Layout hat, haben wir das noch nicht entschieden."
Die FE-Karten könnten vielleicht diesmal nicht die Must-Have Karte für WaKü-Freunde sein.
The_Invisible
2025-01-08, 09:41:52
Der erste Test mit 3Dmark Steel Nomad (ohne CPU Limit) wird Klarheit über die Rasterleistung der 5090 bringen. Ich tippe mal auf +50% wenn der Takt passt. Substanz ist ja da.
Interessant zur Leistungseinschätzung ist eigentlich nur irgendein PT Titel nativ in 4k. Wenn es da gute Zuwächse gibt ist schon halb gewonnen.
00-Schneider
2025-01-08, 09:49:38
Es gibt sogar Interessensgemeinschaften, die sich gegen TAA wehren und lieber dem knackscharfen Flimmern frönen. Kampf gegen Fortschritt und Windmühlen, Club der Ewiggestrigen, es gibt viele mögliche Bezeichnungen dafür. :biggrin:
Wobei man sagen muss, dass TAA nur mit 4K als Basisauflösung gut aussieht. Die meisten zocken in 1080p-1440p und da sieht TAA tatsächlich arg unscharf aus.
Interessant zur Leistungseinschätzung ist eigentlich nur irgendein PT Titel nativ in 4k. Wenn es da gute Zuwächse gibt ist schon halb gewonnen.
This.
CP, Wukong oder Portal RTX in 4K native zeigen die echte Leistung der 5090.
Für Raster würde sich der interne Benchmark von Black Ops 6 gut eignen.
MiamiNice
2025-01-08, 09:55:20
Die FE-Karten könnten vielleicht diesmal nicht die Must-Have Karte für WaKü-Freunde sein.
Das sind die FE Karten schon seit gut 2 Generationen nicht mehr.
nordic_pegasus
2025-01-08, 10:04:27
Das sind die FE Karten schon seit gut 2 Generationen nicht mehr.
kennst Du einen Wakü-Hersteller mit RTX 40er Blöcken im Sortiment, der nicht die 4090 FE Karte anbietet? Das ist die Karte mit der größten Auswahl an Blöcken. Wenn man z.B. ein Freund von Watercool-Produkten ist, dann musste man quasi eine FE Karte nehmen (oder eine Asus).
Ferner war die Demontage des Luftkühlers bei der 4090 extrem simpel. Nvidia hatte sogar ein Video als Anleitung hochgeladen:
https://www.youtube.com/watch?v=5tz4bYa3vkE
Sofern man die 4090FE im Nvidia-Shop zur UVP ergattern konnte, war es m.E. das beste Angebot, wenn man Lovelace auf Wasserkühlung umbauen wollte.
Der Letzte triggert aber scheinbar… :freak:
Zudem vergessen die Leute da alle, daß eine 4090 24 GB VRAM hat, und eine 5070 nur 12 GB. VRAM macht eben den preislichen Unterschied. Jeder, der privat oder beruflich mit einer 4090 ML/DL machen will, schaut mit einer 5070 hier auch blöd in die Röhre, wenn das LLM mehr braucht als da ist.
Lawmachine79
2025-01-08, 10:09:05
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:
Ja. Nennen sich "VR-Gamer".
Was für ein Meisterwerk bei deutlich mehr Die Size mit weniger Takt und nochmals höheren Powerbudget bei eh schon viel zu großen Heizöfen. :uup:
"Mimimi die mogeln aber". Meinentwegen sollen sie 1000W Powerbudget einplanen. Meine Steckdose schafft 3680 Watt.
Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)
Dann sollten sie in den 27 Monaten locker auf über eine Mio kommen.
Ja. Nennen sich "VR-Gamer".
Du kannst doch in VR auch DLSS verwenden?
Dovregubben
2025-01-08, 10:16:01
Raster wird wohl etwas langsamer sein, aber wenn es alleine in RT+ DLSS grob +35% durch die Bank sind, kann von "unterwältigend" nicht die Rede sein.
Plague Tale hat so wenig Raytracing, dass es für die neuen Karten schon fast als reines Raster durchgeht.
Exxtreme
2025-01-08, 10:17:34
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:
https://www.reddit.com/r/FuckTAA/
:D
Und die bringen gute Beispiele warum Upscaling absoluter Schrott ist.
Lawmachine79
2025-01-08, 10:18:46
Dann sollten sie in den 27 Monaten locker auf über eine Mio kommen.
Du kannst doch in VR auch DLSS verwenden?
Jau, aber nicht Frame Generation. Keine Ahnung warum nicht, ich kenne kein VR-Spiel dass Frame Generation nutzt. Die anderen DLSS-Features gehen.
dargo
2025-01-08, 10:20:36
Meinentwegen sollen sie 1000W Powerbudget einplanen. Meine Steckdose schafft 3680 Watt.
Fragt sich nur wie lange bis es qualmt. :D
Jau, aber nicht Frame Generation. Keine Ahnung warum nicht, ich kenne kein VR-Spiel dass Frame Generation nutzt. Die anderen DLSS-Features gehen.
Weil du dann womöglich die Mogelframes besser erkennst. Oder es gibt Probleme bei FG mit Framepacing @VR. Keine Ahnung um ehrlich zu sein.
00-Schneider
2025-01-08, 10:25:07
Plague Tale hat so wenig Raytracing, dass es für die neuen Karten schon fast als reines Raster durchgeht.
Das Game ist durchaus heavy auf einer 4090@4K.
Jau, aber nicht Frame Generation. Keine Ahnung warum nicht, ich kenne kein VR-Spiel dass Frame Generation nutzt. Die anderen DLSS-Features gehen.
Ggf. weil die Latenz dann zu beschissen wäre? Für VR braucht es "echte" fps um eine möglichst geringe Latenz zu haben.
Sardaukar.nsn
2025-01-08, 10:32:30
Laut Alphacool plant man erstmal keinen Wasserkühler für die FE, das das mehrteilige PCB dafür nicht gut geeignet ist.
Wenn ihr mich fragt für 575W Luftkühlung aber auch ebenfalls nicht. Wird schon seine Gründe haben warum Asus und MSI mit 4 und 5! Lüftern antreten.
why_me
2025-01-08, 10:36:00
durch die getrennten PCBs wird das schon gut funktionieren mit luft. Hat man ja schon bei den alten gesehen. Wenn die Luft durch den Kühler einfach durchgeblasen werden kann und nicht nur "zirkuliert", kühlt es deutlich besser.
Jetzt wird auf beiden Seiten durchgeblasen, die CPU und VRMs wird das sicher nicht so sehr freuen, aber die GPU könnte dadurch schon kühl bleiben und das sogar relativ leise.
aufkrawall
2025-01-08, 10:39:57
Und die bringen gute Beispiele warum Upscaling absoluter Schrott ist.
Ne, tun sie nicht. TAA kann, anders als ML-Kram, nicht educated raten, sondern Abtastungslücken nur so gut es geht mit Blur kaschieren ("bestes" Beispiel: FSR 3.1).
Einfach Steinzeit, genau wie absurd teures Flimmer-MSAA.
Dovregubben
2025-01-08, 10:40:50
Weil du dann womöglich die Mogelframes besser erkennst.
Weil man die vermutlich auch nochmal (space) warpen müsste. In VR wird schon seit 10 Jahren mehr an dem Bild rumgebogen als aktuell auf dem normalen Bildschirm.
Ggf. weil die Latenz dann zu beschissen wäre? Für VR braucht es "echte" fps um eine möglichst geringe Latenz zu haben.
In VR wird, sobald ein Frame zu lange dauert, auch jetzt schon ein Bild einfach doppelt genutzt und auf den neuen Input gewarpt. Bei PSVR2 nutzen das manche Spiele sogar als Default, um einfach die doppelte Zeit pro Frame zu haben.
Der Impact auf die Bewegtbildqualität ist für die meisten Genres sehr überschaubar.
TheCounter
2025-01-08, 10:42:30
Für mich wäre nur eine iChill Pro mit vorinstalliertem Wasserkühler interessant. Mal sehen was die so kostet.
Und auch erst überhaupt mal Benchmarks abwarten. DLSS 4 kommt ja bis auf FG3/4 auch auf die 40X0er Karten, mehr FPS brauch ich im Prinzip gar nicht, da mein Monitor eh nur bis 144Hz geht.
Badesalz
2025-01-08, 10:44:20
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:Das schon, aber noch werden sie durch die spitzzüngigen PR-Werkzeuge und sonstige Promoter mit dem Stilmittel "Sarkasmus" kleingehalten. Wird sich bald ändern ;)
MiamiNice
2025-01-08, 10:45:32
Die Karte habe ich mir auch ausgesucht. Irgendwie keinen Bock mehr um einen Wasserkühler kämpfen zu müssen. Aber wie sieht es mit Verkaufswert für Karten mit Wakü Block aus? Es gibt kaum noch Menschen mit einer Wasserkühlung und diese kaufen eh neu. Die Karte wird man sicher nicht mehr los ohne ordinären Luftkühler.
ChaosTM
2025-01-08, 10:48:29
Für VR braucht es "echte" fps um eine möglichst geringe Latenz zu haben.
Es "schmiert" auch etwas verglichen mit 2D, wo mir das nicht aufgefallen wäre.
Zumindest im FS2024. Lieber etwas Leistung mit DLSS rauskitzeln als FG.
Die 4090er langweilt sich aber auch @ Nativ die meiste Zeit.
Auch wenn die neue Engine die CPU deutlich besser auslastet, limitiert sie immer noch. (7800X3D)
Werde das in naher Zukunft mit dem 9950x3D nochmals testen.
dargo
2025-01-08, 10:52:02
Wenn ihr mich fragt für 575W Luftkühlung aber auch ebenfalls nicht. Wird schon seine Gründe haben warum Asus und MSI mit 4 und 5! Lüftern antreten.
4-5 Lüfter? :freak: Wie klein sollen die denn ausfallen oder wie groß soll die Karte werden damit die normale Größe noch verwendet werden kann?
nordic_pegasus
2025-01-08, 10:55:01
Es gibt kaum noch Menschen mit einer Wasserkühlung und diese kaufen eh neu. Die Karte wird man sicher nicht mehr los ohne ordinären Luftkühler.
das kann ich nach Verkauf einer LiquidDevil 6900XT und einer Nitro+ 7900XTX (ohne Luftkühler) bestätigen. Kaum Nachfrage, miese Verkaufspreise.
Die inno3D iChill 5090 und die Gigabyte 5090 (mit Bitspower Block) wären schon praktisch. Ich schiele aber auf die Alphacool Enterprise Blöcke ohne Acryl/RGB und Schlauchanschlüssen hinten. Darum werde ich wohl selbst umbauen müssen... habe dann aber wenigstens einen Luftkühler für den Wiederverkauf.
Ggf. weil die Latenz dann zu beschissen wäre? Für VR braucht es "echte" fps um eine möglichst geringe Latenz zu haben.
Latenz ist wohl das Hauptargument gegen DLSS und alle anderen Aufhübschverfahren. Für ein Singleplayer Spiel mag höhere Latenz in Ordnung sein, für Onlinespiele geht das gar nicht. Aber Reflex soll das angeblich alles ja richten:
9UcLnYyB6bY
dargo
2025-01-08, 10:56:54
Ne, tun sie nicht. TAA kann, anders als ML-Kram, nicht educated raten, sondern Abtastungslücken nur so gut es geht mit Blur kaschieren ("bestes" Beispiel: FSR 3.1).
Einfach Steinzeit, genau wie absurd teures Flimmer-MSAA.
Beides völlig übertrieben! Mit 160ppi überzeugt sowohl TAA (in FH5 getestet) als auch FSR 3.1 bis zum Performance Upscaling (bei guter Implementierung). Die Steinzeit PPIs der üblichen Bildschirme sind das Hauptproblem. Aber 2025 kommt endlich Hoffnung bei den Bildschirmen.
Latenz ist wohl das Hauptargument gegen DLSS und alle anderen Aufhübschverfahren. Für ein Singleplayer Spiel mag höhere Latenz in Ordnung sein, für Onlinespiele geht das gar nicht.
Nicht DLSS (Upscaling) sondern FG/MFG. :)
aufkrawall
2025-01-08, 11:01:14
Das Brösel-Wasser in HFW sieht mit FSR immer beschissen aus, da kann man noch so sehr mit der Pixel-Leistungskeule draufschlagen. Sieht dabei schon kein Land gegen DLSS Preset C, das Nvidia April 2021 trainiert hat...
Badesalz
2025-01-08, 11:01:30
Aber Reflex soll das angeblich alles ja richten:
https://youtu.be/9UcLnYyB6bYGuck dir mal die vermatschte Waffe an :usweet:
dargo
2025-01-08, 11:03:54
Das Brösel-Wasser in HFW sieht mit FSR immer beschissen aus, da kann man noch so sehr mit der Pixel-Leistungskeule draufschlagen. Sieht dabei schon kein Land gegen DLSS Preset C, das Nvidia April 2021 trainiert hat...
Jetzt kommen die Einzelfälle wieder. :rolleyes: Ist längst bekannt, auch das Ghosting bei den Schneeflocken. In GoT passt alles mit FSR 3.1 solange man keine Steinzeit PPIs verwendet.
Argo Zero
2025-01-08, 11:03:58
Nicht DLSS (Upscaling) sondern FG/MFG. :)
DLSS bringt afaik auch +2-3ms Latenz mit sich.
Für competitive FPS wäre also Frame Target erreichen ohne DLSS mit Reflex AN die beste Kombination.
Für SP gibt es aber keinen Grund auf DLSS zu verzichten. Bild ist besser und spart Strom.
Bin schon etwas hyped auf Version 4 :D
aufkrawall
2025-01-08, 11:05:11
DLSS bringt afaik auch +2-3ms Latenz mit sich.
Du schmeißt Render-Latenz mit Input Lag durcheinander. DLSS Upsampling/DLAA hat eine "Latenz" wie jeder andere Grafikeffekt oder AA. Nicht mehr und nicht weniger.
aufkrawall
2025-01-08, 11:06:35
Jetzt kommen die Einzelfälle wieder. :rolleyes: Ist längst bekannt, auch das Ghosting bei den Schneeflocken.
Jop, genau wie das Abart-Blurring mit steigendem Upsampling-Faktor. Weil der Algorithmus halt beschränkt und grottig ist.
TSR in Schrott.
dargo
2025-01-08, 11:06:47
DLSS bringt afaik auch +2-3ms Latenz mit sich.
Das ist Rendertime und kein Input. Deine Systemlatenz verringert sich mit Upscaling da höhere Frames.
Argo Zero
2025-01-08, 11:09:38
Das ist Rendertime und kein Input. Deine Systemlatenz verringert sich mit Upscaling da höhere Frames.
Bitte auch den rest meines Beitrags lesen. Dann erübrigt sich deiner :D
aufkrawall
2025-01-08, 11:11:20
Bitte auch den rest meines Beitrags lesen. Dann erübrigt sich deiner :D
Ne, er hat in dem Fall Recht. Der Input Lag steigt mit DLSS Upsampling/DLAA bei gleichen fps nicht gegenüber TAA, kannst du dir auch einen HWUB-Test zu anschauen.
Dovregubben
2025-01-08, 11:19:20
Bitte auch den rest meines Beitrags lesen. Dann erübrigt sich deiner :D
DLSS Upsampling senkt die Latenz deutlich. Für Multiplayer ist also Upscaling + Reflex 1+2 die beste Lösung. Zumindest wenn man annimmt, dass normale Spieler die letzten paar Millisekunden überhaupt wirklich wahrnehmen können. Das würde ich noch stark anzweifeln.
Die 1-2 Linien, die man bei höheren Frameraten manchmal inpainten muss, wird kein Mensch in nem Blindtest wahrnehmen.
str1ker
2025-01-08, 11:20:53
Gibt es überhaupt interessante, neue Features für VR-Nutzer mit der 5k-Serie ?
Mit 4k kam ja AV1 Encoding in Hardware, was mit der Quest3 unterstützt wird (zumindest über VD). Hab mich bisher gedrückt (bisher 3060TI, aktuell ne 6900XT als Zwischenlösung, da Tausch dank Preisdifferenz nur ~100€). Wollte deshalb zuschlagen (sofern 5070Ti Customs unter 900 aufschlagen .. fürchte aber das wird so schnell nix, sofern die FEs instant weggehen .. wovon ich ausgehe).
Argo Zero
2025-01-08, 11:22:17
Ne, er hat in dem Fall Recht. Der Input Lag steigt mit DLSS Upsampling/DLAA bei gleichen fps nicht gegenüber TAA, kannst du dir auch einen HWUB-Test zu anschauen.
Dargo schrieb " Deine Systemlatenz verringert sich mit Upscaling da höhere Frames.". Welche höheren Frames, wenn es gelockt ist an die Refreshrate von Monitor, z.B. 144 FPS in meinem Fall.
Overwatch 2 fühlt sich am direktesten mit 144 FPS lock an ohne DLSS, AA, Triple Buffer aus und Nivida Reflex auf Ultra mit Details auf Low.
Quasi alles aus, was geht.
Ich lasse mich aber gerne von was anderem überzeugen (Messung ahoi). Mein subjektives Gefühl sagt aber, dass es sich am besten anfühlt mit allem aus.
Sardaukar.nsn
2025-01-08, 11:23:28
Die Karte habe ich mir auch ausgesucht. Irgendwie keinen Bock mehr um einen Wasserkühler kämpfen zu müssen. Aber wie sieht es mit Verkaufswert für Karten mit Wakü Block aus? Es gibt kaum noch Menschen mit einer Wasserkühlung und diese kaufen eh neu. Die Karte wird man sicher nicht mehr los ohne ordinären Luftkühler.
Ich bin meine Asus TUF mit Alphacool Block im Dezember super los geworden. Ob das jetzt am beigelegten Luftkühler oder an anderen Faktorengelegen hatte kann ich nicht sagen.
MiamiNice
2025-01-08, 11:28:00
Gibt es überhaupt interessante, neue Features für VR-Nutzer mit der 5k-Serie ?
Brauchen VR NUtzer neue Features? VR Nutzer brauchen wohl in erster Linie Rasterpower und diese wird um ca. 30 Prozent erhöht 4090 zu 5090. Von einer 3090 sind es fast 100 Prozent. Dann kommt es natürlich auf das Guchloch an, welches man nutzt. Eine Reverb hat nur 2160 x 2160 Pixeln pro Auge, eine Quest 3 hat 1832 x 1920 Pixeln pro Auge. Das ist nichts ^^ Die neuen PC HMDs werden allerdings 4k pro Auge haben. Jedes letzte Prozent Rasterpower werden wir brauchen. Also aus VR Gamer Sicht, gibt es entweder 30 oder 100 Prozent mehr Power. Ganz ohne Ai :eek:
Fragman
2025-01-08, 11:28:53
https://www.reddit.com/r/FuckTAA/
:D
Und die bringen gute Beispiele warum Upscaling absoluter Schrott ist.
Ne, tun sie nicht. TAA kann, anders als ML-Kram, nicht educated raten, sondern Abtastungslücken nur so gut es geht mit Blur kaschieren ("bestes" Beispiel: FSR 3.1).
Einfach Steinzeit, genau wie absurd teures Flimmer-MSAA.
Dieser Kanal hier nimmt sich auch des Themas an.
Die Alternative ist dann in seinen Beispielen oft Flimmer AA und Noise... :(
https://www.youtube.com/@ThreatInteractive
robbitop
2025-01-08, 11:32:22
Ne, tun sie nicht. TAA kann, anders als ML-Kram, nicht educated raten, sondern Abtastungslücken nur so gut es geht mit Blur kaschieren ("bestes" Beispiel: FSR 3.1).
Einfach Steinzeit, genau wie absurd teures Flimmer-MSAA.
Wobei TSR so schlecht nicht ist. Ganz ohne ML. Und potenziell auch das neue Upsampling von Guerilla Games in der PS5PRO Fassung von Horizon. (laut DF kaum von DLSS zu unterscheiden)
Wobei man sagen muss, dass TAA nur mit 4K als Basisauflösung gut aussieht. Die meisten zocken in 1080p-1440p und da sieht TAA tatsächlich arg unscharf aus.
Eine Mindestmenge an Input-Pixeln braucht’s zweifellos, spätestens bei vollem WQHD hängt’s aber primär an der Bildschirmgröße = Pixeldichte und evtl. auch dem Sitzabstand (TV/Konsole statt Bildschirm).
MfG
Raff
robbitop
2025-01-08, 11:34:27
Latenz ist wohl das Hauptargument gegen DLSS und alle anderen Aufhübschverfahren. Für ein Singleplayer Spiel mag höhere Latenz in Ordnung sein, für Onlinespiele geht das gar nicht. Aber Reflex soll das angeblich alles ja richten:
https://youtu.be/9UcLnYyB6bY
Wobei Reflex 2 mit dem Framewarp (das ist aus VR Spielen bekannt) wahrscheinlich sehr hohe Frameraten braucht um sehr gut auszusehen (Spekulation). Es war sehr auffällig dass das vor allem mit den Online-Kartoffel-Shootern (die ohnehin auf jeder Kartoffel mit drölftausend fps laufen) vermarktet wurde.
Lawmachine79
2025-01-08, 11:37:29
Brauchen VR NUtzer neue Features? VR Nutzer brauchen wohl in erster Linie Rasterpower und diese wird um ca. 30 Prozent erhöht 4090 zu 5090. Von einer 3090 sind es fast 100 Prozent. Dann kommt es natürlich auf das Guchloch an, welches man nutzt. Eine Reverb hat nur 2160 x 2160 Pixeln pro Auge, eine Quest 3 hat 1832 x 1920 Pixeln pro Auge.
Das sind Legacyheadsets für Frugalisten; in meiner Erinnerung habe ich die Reverb G2 am Com-Port betrieben und die Controller per PS/2-Anschluss. Wobei, ich habe auch eine Quest 3. Aber man muss ja auch mal auf die Toilette und da reicht das Pimaxkabel nicht.
Das ist nichts ^^ Die neuen PC HMDs werden allerdings 4k pro Auge haben. Jedes letzte Prozent Rasterpower werden wir brauchen. Also aus VR Gamer Sicht, gibt es entweder 30 oder 100 Prozent mehr Power. Ganz ohne Ai :eek:
This! Habe die Crystal Super preordered. Die hat 3840x3840. Pro Auge. Und dafür brauche ich Rasterpower. Volle Möhre. Ich habe jetzt die Crystal Light, die hat 2880x2880 pro Auge und die bringt die 4090 an die Grenze. Allerdings hat die Crystal Super Dynamic Foveated Rendering, also wird man die auch mit einer 4090 gut betreiben können; die Crystal Light hat nur Static Foveated Rendering, da sehe ich den Matsch, wenn ich nur mit den Augen irgendwo hingucke. Tendiere dazu, mir die 5090 zuzulegen, bin aber gespannt auf die Tests. Vor diesem Hintergrund werden jetzt auch Headsethersteller aufmerken und registrieren, dass die Entwicklung bei Rasterleistung sich verlangsamt und dass sie sich Gedanken müssen, wie sie Frame Generation für ihre Headsets nutzbar machen können; denn ansonsten ist die Bildqualität bei Headsets an einer "Glasdecke" angelangt. Wahrscheinlich müsste die Konsequenz sein, dass sie ihre proprietäten "Interpolationstechniken" wie Space Warp und wie es alles heisst in die Tonne treten können. Was Latenzen angeht, wüsste ich nicht, wieso die bei VR wichtiger sein sollten als auf dem Monitor.
Die RTX 5090 wird natürlich gerade in Ultra-High-Res punkten und von den teilweise CPU-limitierten Vorschauwerten um 25 Prozent wegkommen. Das Teil hat alles, um ein "8K-Biest" zu sein: tonnenweise Transferrate und ein quasi-offenes Powerlimit.
MfG
Raff
dargo
2025-01-08, 11:39:44
Lol... Daniel geht davon aus, dass Nvidia bei non FG Reflex deaktiviert hat. :ulol: Marketing on the best. ;D
TQotCxIA7Yk
Lawmachine79
2025-01-08, 11:45:19
Die RTX 5090 wird natürlich gerade in Ultra-High-Res punkten und von den teilweise CPU-limitierten Vorschauwerten um 25 Prozent wegkommen. Das Teil hat alles, um ein "8K-Biest" zu sein: tonnenweise Transferrate und ein quasi-offenes Powerlimit.
MfG
Raff
Die Unterschiede bei Far Cry 6 unterstützen diesen Claim nur teilweise und ich finde der FC6-Vergleich ist der beste Prädiktor für die VR-Leistung. Natürlich hat das Ding eine Riesenbandbreite, aber die Rasterpower ist nicht im selben Maße mitgewachsen, es sei denn, die "IPC" (oder "Pro-Alu-Power") ist gewachsen, was man an den technischen Daten nicht ablesen kann (wo FC 6-Vergleich aus der Präsi aber gegen spricht).
DrFreaK666
2025-01-08, 11:46:47
Lol... Daniel geht davon aus, dass Nvidia bei non FG Reflex deaktiviert hat. :ulol: Marketing on the best. ;D
https://youtu.be/TQotCxIA7Yk
Ist genauso wie dieser Vergleich
DLSS OFF vs DLSS Performance mit 4xFG
https://i.postimg.cc/LXhhWXJz/grafik.png (https://postimg.cc/mzfbzTND)
robbitop
2025-01-08, 11:48:06
Lol... Daniel geht davon aus, dass Nvidia bei non FG Reflex deaktiviert hat. :ulol: Marketing on the best. ;D
https://youtu.be/TQotCxIA7Yk
Na klar - diese shinanigons gab es doch mit Ada und der DLSS3 FG Einführung schon. Bist du da überrascht? ^^
dildo4u
2025-01-08, 11:48:46
Das ist nicht nur FG Nvidia hat in den eigenen Benchmarks Performance DLSS genutzt die Basis FPS sind also vermutlich weit über 60.
dargo
2025-01-08, 11:49:17
Ist genauso wie dieser Vergleich
DLSS OFF vs DLSS Performance mit 4xFG
https://i.postimg.cc/LXhhWXJz/grafik.png (https://postimg.cc/mzfbzTND)
In deinem Beispiel sehe ich nichts mit Latenz sondern nur echte Frames vs. 4x FG Frames inkl. DLSS (wahrscheinlich Performance).
Lawmachine79
2025-01-08, 11:49:43
Na klar - diese shinanigons gab es doch mit Ada und der DLSS3 FG Einführung schon. Bist du da überrascht? ^^
Naja, aber Ada hat tatsächlich krass zugelegt. Bei Ada waren 75% des Extrabalkens harte, rohe Leistung und 25% AI; jetzt ist es 25% harte, rohe Leistung und 75% AI. Unklar ist, welcher Teil von AI nur auf MFG zurückgeht und welcher Teil Rest-DLSS 4.0 zuzuschreiben ist, denn davon profitieren alle (NVidia)Karten.
Die RTX 5090 wird natürlich gerade in Ultra-High-Res punkten und von den teilweise CPU-limitierten Vorschauwerten um 25 Prozent wegkommen. Das Teil hat alles, um ein "8K-Biest" zu sein: tonnenweise Transferrate und ein quasi-offenes Powerlimit.
Dann gib doch zu, daß Ihr die Dinger schon alle lange bei Euch liegen habt und Ihr schon fleißig am Benchen seid? :naughty:
BTW will ich endlich wissen, wie nun der Verkauf der FE-Editions bei Nvidia nun laufen wird und wer das macht. Da ist aktuell absolute Funkstille, überhaupt keine Infos nirgends dazu.
robbitop
2025-01-08, 11:51:50
Framerate ist so viel mehr als Flüssigkeit und Bewegtschärfe (aber ja das sind valide und gute Aspekte an Framegeneration) - es ist auch die Erwartung der Zunehmenden Snappiness - also Latenz. Wenn es bei einer Vermehrfachung der Frames zu keiner entsprechenden Latenzreduktion kommt (wie man es bei dann sehr hohen FPS erwartet) fühlt sich das komisch an weil das Gehirn zu jeder Flüssigkeit aus Erfahrung auch eine entsprechende Snappiness erwartet. Wenn die dann nicht da ist -> komisch.
Aber der Effekt nimmt natürlich asymptotisch mit der Gesamtlatenz ab. Und es ist ein tolles Werkzeug (was man je nach Situation einsetzen kann oder nicht) wenn man die neuen high refreshrate Monitore ausfahren will und ein neues Level an Bewegtschärfe haben will.
Ich vermute, dass ein 3 und 4x Multiplikator gar nicht so schwer umzusetzen ist, wenn man die FG Technologie erstmal hat. Siehe lossless scaling. Das heisst nicht dass die in lossless scaling gut funktioniert aber dass man das skalieren konnte. Ggf geht das mit Intel XeSS FG und AMD FSR FG auch bald.
Die Unterschiede bei Far Cry 6 unterstützen diesen Claim nur teilweise und ich finde der FC6-Vergleich ist der beste Prädiktor für die VR-Leistung. Natürlich hat das Ding eine Riesenbandbreite, aber die Rasterpower ist nicht im selben Maße mitgewachsen, es sei denn, die "IPC" (oder "Pro-Alu-Power") ist gewachsen, was man an den technischen Daten nicht ablesen kann (wo FC 6-Vergleich aus der Präsi aber gegen spricht).
Ich denke nicht, dass Nvidia von der Quad-TMU pro SM und der ROP-Konfiguration abweichen wird. Außerdem hörte ich Jensen etwas von Integer-Einheiten sagen. Insofern ist die "Rasterizing-Leistung" sogar mehr gestiegen, als man derzeit sieht. Ich tippe schlicht auf eine suboptimale Benchmark-Auswahl. Manchmal säße ich schon gerne in den Labs der Hersteller, um das besser zu machen. :biggrin:
MfG
Raff
00-Schneider
2025-01-08, 11:52:50
ein quasi-offenes Powerlimit.
Hmm?
600W ist das Limit durch den Stecker, was arg wenig ist, wenn die Karte mit 575W spezifiziert ist.
Das war bei der 4090 bei 450W noch deutlich mehr Luft nach oben. Da konnte man mit Übertaktung locker ~550W in Extremfällen erreichen.
DrFreaK666
2025-01-08, 11:53:20
Ich finds in Ordnung wenn man nicht nur Rosinen pickt
Hmm?
600W ist das Limit durch den Stecker, was arg wenig ist, wenn die Karte mit 575W spezifiziert ist.
Das war bei der 4090 bei 450W noch deutlich mehr Luft nach oben. Da konnte man mit Übertaktung locker ~550W in Extremfällen erreichen.
Die Karte hat noch einen PCIe-Konnektor/Slot – hier steckt die Toleranz. :) RTX-4000-Karten saugen primär am Stecker, es gibt also noch knapp 100 Watt zu holen. Ich meinte mit "quasi-offen" aber Folgendes: Das Powerlimit erlaubt es dem fetten Chip voraussichtlich, sich zu jeder Zeit zu entfalten - absolute Härtefälle wie Mexodus EE, Quake 2 RTX und Konsorten ausgenommen.
MfG
Raff
MiamiNice
2025-01-08, 12:03:40
Insofern ist die "Rasterizing-Leistung" sogar mehr gestiegen, als man derzeit sieht.
MfG
Raff
Das hoffen wir alle.
Es sind btw. imo 75 Watt über den PCI Slot.
Daher werden die dicken Modelle sicher 2 Stecker tragen, weil die 25 W (575 zu 600 Watt, die 75 W über dem Slot nimmt man imo nicht gerne weil nicht jedes Board einen eignen Stromstecker dafür hat.) nicht ausreichen für OC Modelle.
Aber ich kann sagen, dass meine 3090 mit PT freiem Bios auch bei um 600 Watt dicht macht. Mehr geht nicht, ohne Volt Mod.
Lawmachine79
2025-01-08, 12:05:27
Ich denke nicht, dass Nvidia von der Quad-TMU pro SM und der ROP-Konfiguration abweichen wird. Außerdem hörte ich Jensen etwas von Integer-Einheiten sagen. Insofern ist die "Rasterizing-Leistung" sogar mehr gestiegen, als man derzeit sieht. Ich tippe schlicht auf eine suboptimale Benchmark-Auswahl. Manchmal säße ich schon gerne in den Labs der Hersteller, um das besser zu machen. :biggrin:
MfG
Raff
Habt Ihr einen Benchmark im Parcour, der die Rasterleistung möglichst unverfälscht abbildet, also wo auch Raytracing kein Bottleneck ist? Eigentlich müsste man dafür ja das fieseste Non-Raytracingspiel nehmen und das auf 8k testen.
Habt Ihr einen Benchmark im Parcour, der die Rasterleistung möglichst unverfälscht abbildet, also wo auch Raytracing kein Bottleneck ist? Eigentlich müsste man dafür ja das fieseste Non-Raytracingspiel nehmen und das auf 8k testen.
Der ganze Leistungsindex 2025 ist ein einziger Rasterizing-Worstcase in Ultra HD. Klick dich gerne mal hier durch: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/2/ =)
MfG
Raff
Sardaukar.nsn
2025-01-08, 12:07:35
Die Galax HOF 4090 mit dem bösen 666 Watt bios hatte auch nur einen Stecker meine ich. Das Bios lief aber auch auf meiner TUF prima. Asus hat auch in ihrem Video zur Astral OC von 3150mhz gezeigt. Auch beim DDR7 gibt es sicher noch Potential. Bin da optimistisch auf +50% z.B. im Steel Nomad zur 4090 zu kommen.
monstar-x
2025-01-08, 12:11:01
https://pbs.twimg.com/media/Ggv9A-SbgAAjSfq?format=png&name=medium
Irgendwie passt das nicht.
Wieso sind die gezeigten Benchmarks der 4090/5090 im DLSS Performance Mode das sind 1080p und damit im CPU Limit, bei den kleineren Karten verstehe ich es ja, aber bei der 90er? Welchen Sinn verfolgen die damit?
Troyan
2025-01-08, 12:11:31
nVidia nutzt immer nur DLSS Performance in 4K.
MiamiNice
2025-01-08, 12:15:30
Welchen Sinn verfolgen die damit?
Imo längere Balken die mehr Fortschritt suggerieren sollen um die Brieftaschen (weiter) zu öffnen.
Exxtreme
2025-01-08, 12:15:32
Mit einem 12V-2x6-Stecker darf die Grafikkarte maximal 675 W an Strom ziehen. Die zusätzlichen 75 W kommen durch den PCIe-Slot, der dafür spezifiziert ist. Deshalb sehe ich die 575 W jetzt nicht als allzu kritisch. :)
Eigentlich sind es ziemlich genau 666 Watt (siehe Galaxy HOF). :) Die "75 aus dem Slot" sind nur mit fälschlicherweise eingerechneten, so nicht vorgesehenen Toleranzen (Spec: 5,5 Ampere bei 12 Volt).
MfG
Raff
Lawmachine79
2025-01-08, 12:18:07
Mit einem 12V-2x6-Stecker darf die Grafikkarte maximal 675 W an Strom ziehen. Die zusätzlichen 75 W kommen durch den PCIe-Slot, der dafür spezifiziert ist. Deshalb sehe ich die 575 W jetzt nicht als allzu kritisch. :)
Gibt es den 12 VHPWR nicht mehr? 12V 2x6 war doch noch 3090 oder?
Exxtreme
2025-01-08, 12:21:10
Eigentlich sind es ziemlich genau 666 Watt (siehe Galaxy HOF). :) Die "75 aus dem Slot" sind nur mit fälschlicherweise eingerechneten, so nicht vorgesehenen Toleranzen (Spec: 5,5 Ampere bei 12 Volt).
MfG
Raff
Nein, es sind schon maximal 75 W.
https://de.wikipedia.org/wiki/PCI_Express
Nur wenn man sich auf die 12 V-Versorgung beschränkt dann wären nur 66 W möglich.
Gibt es den 12 VHPWR nicht mehr? 12V 2x6 war doch noch 3090 oder?
12V-2x6 ist der Nachfolger des 12VHPWR-Steckers. Beide sind aber sehr ähnlich.
Gibt es den 12 VHPWR nicht mehr? 12V 2x6 war doch noch 3090 oder?
Was ist 12V-2×6? (https://www.pcgameshardware.de/Netzteil-Hardware-219902/Tests/Kaufberatung-Vergleiche-Test-FAQ-Ripple-1402456/#a3)
Nein, es sind schon maximal 75 W.
https://de.wikipedia.org/wiki/PCI_Express
Nur wenn man sich auf die 12 V-Versorgung beschränkt dann wären nur 66 W möglich.
Hmm. Wird Zeit, die Spec nochmal anzusehen.
MfG
Raff
ChaosTM
2025-01-08, 12:25:47
Die Galax HOF 4090 mit dem bösen 666 Watt bios hatte auch nur einen Stecker meine ich. Das Bios lief aber auch auf meiner TUF prima. Asus hat auch in ihrem Video zur Astral OC von 3150mhz gezeigt. Auch beim DDR7 gibt es sicher noch Potential. Bin da optimistisch auf +50% z.B. im Steel Nomad zur 4090 zu kommen.
Die HOF hat 2 Stecker. Das wollten die dann doch nicht riskieren.
"Nächste Galax Hof abgefackelt" Schlagzeilen sind suboptimal fürs Marketing, auch wenn es sich theoretisch vielleicht ausgegangen wäre.
+50% bei 800 Watt werden schon drin sein.. :)
Und niemand mit einer 4090er verwendet DLSS Performance im RL. Das macht nur NV zwecks Balkenlänge.
Lawmachine79
2025-01-08, 12:30:59
Nein, es sind schon maximal 75 W.
https://de.wikipedia.org/wiki/PCI_Express
Nur wenn man sich auf die 12 V-Versorgung beschränkt dann wären nur 66 W möglich.
12V-2x6 ist der Nachfolger des 12VHPWR-Steckers. Beide sind aber sehr ähnlich.
Mein Corsair RM1000e ist PCIE 5.0-kompatibel. Also sollte es 12V-2x6 unterstützen, richtig?
aufkrawall
2025-01-08, 12:31:12
Ich lasse mich aber gerne von was anderem überzeugen (Messung ahoi)
Findest du auf YT.
Wobei TSR so schlecht nicht ist. Ganz ohne ML. Und potenziell auch das neue Upsampling von Guerilla Games in der PS5PRO Fassung von Horizon. (laut DL kaum von DLSS zu unterscheiden)
Hab ich dir schon mehrfach ausgeführt: TSR ist sehr gut, wenn gut oder halbwegs ausreichend temporale Informationen vorhanden. Das Ergebnis ist bei vielen unverdeckten Bereichen dann oft erstaunlich gut, ja.
Bei Dingen wie animierten Texturen, Partikeln, RT-Noise von VSM oder viel Disocclusion/komplexer Vegetation geht es bei 4k 50% aber ebenfalls komplett unter gegen DLSS Preset E. Folglich spielt es bei komplexem Content mit 4k-Target 50% auch 1-2 Ligen unter DLSS Preset E. Mit 1440p-Monitor kann die Schärfe von TSR Epic im Vergleich zum DLSS-Smearing sehr angenehm sein, gibts aber auch nicht gratis. Es ist FSR in gut, aber mehr auch nicht.
Diese ständige Behauptung von dir "es ist eigentlich ähnlich gut wie DLSS" ist schlicht falsch bzw. unterkomplex. Mit 4k-Monitor ist es ganz sicher weit von Äquivalent entfernt.
MiamiNice
2025-01-08, 12:33:14
Mein Corsair RM1000e ist PCIE 5.0-kompatibel. Also sollte es 12V-2x6 unterstützen, richtig?
Nein, habe das selbe NT. Ist nicht, keine 2 davon.
Wenn Du nur eine "kleine" 5090 kaufst, FE oder so, kannst bei Corsair ein Kabel nachbestellen.
Ich werde hier zuschlagen, weil ich 2x 12V-2x6 brauchen werde.
https://seasonic.com/vertex-gx/
Du brauchst genrell ein ATX 3.1 Netzteil, PCI 5 kompatibel ist nichts (mehr) wert. Wir sind btw. bei PCI 5.1. Die günstigen können nur 1x 12V-2x6 , die teuren 2x
Wahrschienlich wird es, bei mir, das mit 1,2 kW (innerhallb der nächsten 10 jahre kommt ganz sicher wieder ein Intel rein ^^)
The_Invisible
2025-01-08, 12:38:41
Und niemand mit einer 4090er verwendet DLSS Performance im RL. Das macht nur NV zwecks Balkenlänge.
Doch, sh2 mit dlss-rr Mod so durchgespielt, warum auch nicht wenn's eh trotzdem noch gut aussieht (4k)
Exxtreme
2025-01-08, 12:38:59
Mein Corsair RM1000e ist PCIE 5.0-kompatibel. Also sollte es 12V-2x6 unterstützen, richtig?
So wie es ausschaut, ja.
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920352/corsair-psu-90-12v-2x6-style-b-cable-cp-8920352
Das Netzteil ist aber anscheinend ein "Type 4"-Netzteil, laut Beschriftung. Wirst also auch die "Type 4"-Variante des Kabels brauchen.
aufkrawall
2025-01-08, 12:40:20
Doch, sh2 mit dlss-rr Mod so durchgespielt, warum auch nicht wenn's eh trotzdem noch gut aussieht (4k)
Weil Upsampling sehr böse ist. Aus Prinzip.
Auch basierend auf Raffs / PCGH Video zu den Werten (Es wäre schön wenn ihr im Vergleich auch die Daten der 4080 non Super angezogen hättet wie NV in den Benches):
5090 zu 4090: +27,5% TFlops, + 78% Speicherbandbreite.
FC6: +27,5%
5080 zu 4080: ~+15% TFlops + 33% Speicherbandbreite
FC6: +33,2%
Das will irgendwie nicht zusammen passen.
Dachte ich mir auch schon. Aber wenn man sich den Transistorcount AD102 vs. GB202 anschaut, dann muss NV irgendwo heftig gespart haben um mehr SM unter zu bringen. Ich tippe auf Cache. Denke der GB202 hat nur 64 MB oder evtl. weniger L2, da man jetzt genug Bandbreite hat. Heißt natürlich auch, der Bandbreitenvorteil 5090 vs. 4090 ist praktisch kleiner als er im Datenblatt erscheint.
Lawmachine79
2025-01-08, 12:44:37
Nein, habe das selbe NT. Ist nicht, keine 2 davon.
Wenn Du nur eine "kleine" 5090 kaufst, FE oder so, kannst bei Corsair ein Kabel nachbestellen.
Ich werde hier zuschlagen, weil ich 2x 12V-2x6 brauchen werde.
https://seasonic.com/vertex-gx/
Du brauchst genrell ein ATX 3.1 Netzteil, PCI 5 kompatibel ist nichts (mehr) wert. Wir sind btw. bei PCI 5.1. Die günstigen können nur 1x 12V-2x6 , die teuren 2x
Wahrschienlich wird es, bei mir, das mit 1,2 kW (innerhallb der nächsten 10 jahre kommt ganz sicher wieder ein Intel rein ^^)
Hat die 5090 zwei von diesen Kabeln? Ich meinte, etwas von einem gelesen zu haben.
Auf der wassergekühlten Gigabyte ist ein Anschluss abgebildet:
https://www.gigabyte.com/de/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf
Für die Frostbite wird auch nur ein Connector angegeben:
https://www.techpowerup.com/gpu-specs/inno3d-rtx-5090-ichill-frostbite.b12046
So wie es ausschaut, ja.
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920352/corsair-psu-90-12v-2x6-style-b-cable-cp-8920352
Das Netzteil ist aber anscheinend ein "Type 4"-Netzteil, laut Beschriftung. Wirst also auch die "Type 4"-Variante des Kabels brauchen.
Das verwirrt mich jetzt. Da werden zwei Kabel angeboten, Style A und Style B gibt es beide für "Type 4", wobei Style B nicht lieferbar ist, aber egal, weil beide gehen.
Lurtz
2025-01-08, 12:44:42
Gibt es eigentlich keine Bewegung unter GPU-Besitzern, die sich für "echte Pixel" und "echte Frames" einsetzt? :smile:
Klar. /r/FuckTAA und Co. Auch Youtube ist voll von Kanälen, die Leuten erzählen wie mies Grafik geworden ist, please donate hier und wir machen es besser...
Exxtreme
2025-01-08, 12:50:58
Hat die 5090 zwei von diesen Kabeln? Ich meinte, etwas von einem gelesen zu haben.
Es gibt eine OC-Variante der 5090 mit zwei solchen Steckern. Die meisten werden aber nur einen benötigen.
Das verwirrt mich jetzt. Da werden zwei Kabel angeboten, Style A und Style B gibt es beide für "Type 4", wobei Style B nicht lieferbar ist, aber egal, weil beide gehen.
Wahrscheinlich "Style B" weil dieser die Kontakt-PINs oben hat. Frag aber lieber direkt bei Corsair nach.
MiamiNice
2025-01-08, 12:56:33
Hat die 5090 zwei von diesen Kabeln? Ich meinte, etwas von einem gelesen zu haben.
Auf der wassergekühlten Gigabyte ist ein Anschluss abgebildet:
https://www.gigabyte.com/de/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf
Für die Frostbite wird auch nur ein Connector angegeben:
https://www.techpowerup.com/gpu-specs/inno3d-rtx-5090-ichill-frostbite.b12046
Das verwirrt mich jetzt. Da werden zwei Kabel angeboten, Style A und Style B gibt es beide für "Type 4", wobei Style B nicht lieferbar ist, aber egal, weil beide gehen.
Eine 5090 FE wird nur einen Stecker haben, eine Asus Strix OC sicher 2, weil der max. Verbrauch wahrscheinlich über 660 Watt liegen wird.
An Deinem NT findest Du nur PCI Buchsen mit 8 Adern. Das Kabel auf dem Bild von Exxtreme Link hat 12 Adern, es wird aber nur Version A angezeigt. Das B Kabel, welches gerade nicht lieferbar ist, hat wahrscheinlich 8er Stecker NT seitig, damit es passt.
Aber:
700 Watt GPU, 200 Watt AMD CPU, 50 Watt Board, 5 Watt pro M2, die Pumpe der Wasserkühlung 30 Watt, LEDs, Lüfter aufm Mora. 1000 Watt NT?!? Merkst Du sicher selbst ;)
robbitop
2025-01-08, 12:58:27
Hab ich dir schon mehrfach ausgeführt: TSR ist sehr gut, wenn gut oder halbwegs ausreichend temporale Informationen vorhanden. Das Ergebnis ist bei vielen unverdeckten Bereichen dann oft erstaunlich gut, ja.
Bei Dingen wie animierten Texturen, Partikeln, RT-Noise von VSM oder viel Disocclusion/komplexer Vegetation geht es bei 4k 50% aber ebenfalls komplett unter gegen DLSS Preset E. Folglich spielt es bei komplexem Content mit 4k-Target 50% auch 1-2 Ligen unter DLSS Preset E. Mit 1440p-Monitor kann die Schärfe von TSR Epic im Vergleich zum DLSS-Smearing sehr angenehm sein, gibts aber auch nicht gratis. Es ist FSR in gut, aber mehr auch nicht.
Was TSR angeht war mein Posting darauf bezogen, dass es gut ist. Dass DLSS besser ist, ist doch bereits klar. Aber IMO hast du (1) auch fast schon übertrieben hohe Ansprüche. Man kann doch auch mal stehen lassen, dass es nicht schlecht ist. Warum ist alles was nicht DLSS ist auf einmal sofort abwertungswürdig?
Schalte mal jegliche Form von TAA aus und skaliere die Achsen. Das sieht kacke aus. Und dann aktiviere TSR, FSR3.1 oder XeSS. Das sind Welten. Klar ist DLSS nochmal ordentlich besser (besonders als 3.1) aber man muss auch mal anerkennen können, dass andere Verfahren auch grundsätzlich einen ganz guten Job machen. Aber ja: nicht so gut wie DLSS (was ja jetzt nochmal mit Version 4 besser wird)
BTW: ich persönlich mag TSR bis dato. Und auf dem Steam Deck in Witcher 3 (DX12) sieht FSR (für meinen Geschmack) besser aus als XeSS in dem Spiel. Darfst mich gern steinigen. X-D
Diese ständige Behauptung von dir "es ist eigentlich ähnlich gut wie DLSS" ist schlicht falsch bzw. unterkomplex. Mit 4k-Monitor ist es ganz sicher weit von Äquivalent entfernt.
Leseverständnis?
Und potenziell auch das neue Upsampling von Guerilla Games in der PS5PRO Fassung von Horizon. (laut DF kaum von DLSS zu unterscheiden)
(1) Ging es beim Vergleich mit DLSS um das neue Upsampling von Guerilla Games - nicht um TSR.
(2) ist die Behauptung nicht von "mir" sondern ich habe auf DF (Digital Foundry) verwiesen die das in einem ihrer Videos zuletzt gesagt haben.
Wie kann man es so verdrehen, dass ich gesagt habe dass TSR genauso gut wie DLSS ist? :freak:
dargo
2025-01-08, 12:58:53
Wieso sind die gezeigten Benchmarks der 4090/5090 im DLSS Performance Mode das sind 1080p und damit im CPU Limit, bei den kleineren Karten verstehe ich es ja, aber bei der 90er? Welchen Sinn verfolgen die damit?
Vermutlich damit MFG noch mehr fps ausspuckt um die erhöhte Latenz zu kaschieren. Sozusagen best case damit Reflex Off mit non FG ähnliche Latenzen hat wie 4x FG mit Reflex On.
Lawmachine79
2025-01-08, 13:01:08
Eine 5090 FE wird nur einen Stecker haben, eine Asus Strix OC sicher 2, weil der max. Verbrauch wahrscheinlich über 660 Watt liegen wird.
An Deinem NT findest Du nur PCI Buchsen mit 8 Adern. Das Kabel auf dem Bild von Exxtreme Link hat 12 Adern, es wird aber nur Version A angezeigt. Das B Kabel, welches gerade nicht lieferbar ist, hat wahrscheinlich 8er Stecker NT seitig, damit es passt.
Aber:
700 Watt GPU, 200 Watt AMD CPU, 50 Watt Board, 5 Watt pro M2, die Pumpe der Wasserkühlung 30 Watt, LEDs, Lüfter aufm Mora. 1000 Watt NT?!? Merkst Du sicher selbst ;)
Ok, aber wenn ich eine 5090 mit nur einem Stecker finde, würde es mit dem Style B Kabel doch passen oder?
Edit: kann es sein, dass ich dieses Kabel brauche?
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284
Hat 2x8 Pin wie auf der Netzteilrückseite verfügbar und ist kein 12VHPWR sondern 12V-2x6 und ist Type 4.
Kriegsgeier
2025-01-08, 13:05:24
Ohje, mein Netzteil DARK POWER PRO 12 1000 Watt wird wohl eher nicht passen?
Also native Unterstützung gibt es wahrscheinlich nicht...
Tesseract
2025-01-08, 13:06:25
Außerdem hörte ich Jensen etwas von Integer-Einheiten sagen.
die datapaths sind jetzt beide FP/INT und nicht 1x FP + 1x FP/INT.
Troyan
2025-01-08, 13:08:52
die datapaths sind jetzt beide FP/INT und nicht 1x FP + 1x FP/INT.
Und ist die einzige wohl relevante Änderung für mehr Rasterizing-Leistung pro Takt.
Neben der 30%+ besseren Bandbreite kommt man so auf die 30%-40% Leistungssteigerung.
MiamiNice
2025-01-08, 13:09:07
Ok, aber wenn ich eine 5090 mit nur einem Stecker finde, würde es mit dem Style B Kabel doch passen oder?
Edit: kann es sein, dass ich dieses Kabel brauche?
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284
Hat 2x8 Pin wie auf der Netzteilrückseite verfügbar und ist kein 12VHPWR sondern 12V-2x6 und ist Type 4.
Das würde zumindest bei mir passen, habe das RM1000i.
Lawmachine79
2025-01-08, 13:11:50
Das würde zumindest bei mir passen, habe das RM1000i.
Und wo ist der Unterschied? Beide Netzteile haben 6x8 PCIE/GPU. Das "i" hat noch den DSP. Und es hat einen 10-poligen Mainboardstecker statt 8-polig.
basix
2025-01-08, 13:12:00
Falls jemand meint "Neural Rendering" sei Nvidia exklusiv: Microsoft kommt ebenfalls damit
https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/
Cross Platform ergo (NextGen?) Konsolen sind da wohl auch stark im Fokus.
aufkrawall
2025-01-08, 13:13:36
Was TSR angeht war mein Posting darauf bezogen, dass es gut ist. Dass DLSS besser ist, ist doch bereits klar. Aber IMO hast du (1) auch fast schon übertrieben hohe Ansprüche.
Nein, mir ist nur klar, dass DLSS so viel konstanter performt und verschiedene Content/Rendering-Aspekte über die Breite viel besser frisst.
Das stirbt in Szene x, anders als die Nicht-ML-Verfahren, nicht auf einmal weg (vom Worst Case für den Bloom-Bug oder ggf. manchmal noch DoF mal abgesehen...). Diesen Unterschied sollte man verstehen.
BTW: ich persönlich mag TSR bis dato. Und auf dem Steam Deck in Witcher 3 (DX12) sieht FSR (für meinen Geschmack) besser aus als XeSS in dem Spiel. Darfst mich gern steinigen. X-D
Muss ich nicht. Das FSR 2.1 sieht mit dem Content vom Spiel definitiv besser aus als XeSS 1.3. XeSS rekonstruiert Aspekte des Renderings gleichwertiger, aber mit Upsampling, anders als DLSS, auf einem nicht gerade besonders hohen Niveau. Die grobe größere Vegetation kommt FSR auch sehr entgegen.
dargo
2025-01-08, 13:14:26
Falls jemand meint "Neural Rendering" sei Nvidia exklusiv: Microsoft kommt ebenfalls damit
https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/
Cross Platform ergo (NextGen?) Konsolen sind da wohl auch stark im Fokus.
Lol... wie üblich prescht Nvidia wieder vor. ;D
basix
2025-01-08, 13:20:54
Hey es ist gut, wenn einer vorprescht. Einer muss es ja machen, als Pipecleaner für die anderen ;)
Aber Neural Rendering ist halt auch kein Alleinstellungsmerkmal für Nvidia ;)
Nvidia hat nun aber Neural Rendering marketingtechnisch für sich (vor-)beansprucht. Wie schon RT und RTX. Mindshare sowie Marken-Assoziation und so
Edit:
Ach ja, der Microsoft Blogpost war am 6. Januar und somit vor der CES Keynote mit der Blackwell Vorstellung ;)
Exxtreme
2025-01-08, 13:22:41
"Neural Rendering" ist so wischiwaschi, dass das wahrscheinlich jeder Hersteller irgendwie kann.
robbitop
2025-01-08, 13:22:42
die datapaths sind jetzt beide FP/INT und nicht 1x FP + 1x FP/INT.
Ui gibt es dazu eine Quelle? Das wäre dann ja wieder so wie bei Pascal. Dann sollte pro SM auch mehr Throughput auf der Straße ankommen.
Ob es auch wieder wie bei Pascal (auf 128 Kanäle pro SM betrachtet) wieder die doppelten Scheduler resources gibt?
Tesseract
2025-01-08, 13:24:06
die quelle ist jensen bei der präsentation. :D
basix
2025-01-08, 13:25:36
"Neural Rendering" ist so wischiwaschi, dass das wahrscheinlich jeder Hersteller irgendwie kann.
Neural Rendering ist schlicht der Einsatz von kleinen DNN via Matrix-Operationen, um die Grafik zu verbessern. Das ist aber so allgemein, dass es faktisch alles umfassen kann was mit Rendering zu tun hat. Einer der Hersteller wird es dann einfach ein bisschen schneller können als die anderen, wie schon beim traditionellen Rendering.
aufkrawall
2025-01-08, 13:27:58
Ggf. mit Hardware von MS selbst. Wahrscheinlicher, als dass AMD es auf die Kette bekommt. ;D
Mayk-Freak
2025-01-08, 13:30:57
BTW will ich endlich wissen, wie nun der Verkauf der FE-Editions bei Nvidia nun laufen wird und wer das macht. Da ist aktuell absolute Funkstille, überhaupt keine Infos nirgends dazu.
Über Nvidia zu PROSHOP
basix
2025-01-08, 13:35:29
Ggf. mit Hardware von MS selbst. Wahrscheinlicher, als dass AMD es auf die Kette bekommt. ;D
Wieso sollte man das? AMD wird Matrix Cores hinzufügen. Entweder bereits mit RDNA4 oder spätestens mit RDNA5. Ist ja nicht so, dass man bei CDNA oder XDNA keine Matrix-Acceleration IP hätte ;)
why_me
2025-01-08, 13:36:52
die datapaths sind jetzt beide FP/INT und nicht 1x FP + 1x FP/INT.
Komisch, dabei war das doch laut manchen hier so genial bei den 4000ern und mehr Int Leistung überhaupt nicht notwendig. Weil hat doch Nvidia gesagt.... Jetzt auf einmal sind volle FP/Int datapathes wieder logisch und bringt mehr Leistung. Da wird sich auch gewendet wie es am besten passt :eek:
aufkrawall
2025-01-08, 13:40:04
Wieso sollte man das? AMD wird Matrix Cores hinzufügen. Entweder bereits mit RDNA4 oder spätestens mit RDNA5. Ist ja nicht so, dass man bei CDNA oder XDNA keine Matrix-Acceleration IP hätte ;)
Du hattest auch schon bei RDNA3 gesagt, es sollte schnell genug für ML-TAAU sein, und da scheint ja, wenn das AMD-Marketing nicht wieder alle, inkls. eigener Kunden und Aktionäre, trollt, eher nichts draus geworden zu sein...
Vielleicht wär die Hardware sogar schnell genug, aber es ist halt AMD.
Kriegsgeier
2025-01-08, 13:41:53
wäre meine bevorzugte Auflösung von 3440x1440 völlige Verschwendung für eine RTX 5090?
Oder eher nicht? Habe WOLED 240Hz Panel.
aufkrawall
2025-01-08, 13:43:13
Wenn die neuen DLSS-Modelle kein Reinfall werden, sollte eine 5080 eigentlich dicke reichen für UWQHD.
Tesseract
2025-01-08, 13:45:28
Komisch, dabei war das doch laut manchen hier so genial bei den 4000ern und mehr Int Leistung überhaupt nicht notwendig. Weil hat doch Nvidia gesagt.... Jetzt auf einmal sind volle FP/Int datapathes wieder logisch und bringt mehr Leistung. Da wird sich auch gewendet wie es am besten passt :eek:
die shader können jetzt auch ML-formate soweit ich mich erinnern kann, was INT inkludiert. rein für raster ist die ampere/ada-variante sicher flächeneffizienter.
robbitop
2025-01-08, 13:46:21
die quelle ist jensen bei der präsentation. :D
Hat der das so gesagt? ^^ Muss mir entfallen sein.
Komisch, dabei war das doch laut manchen hier so genial bei den 4000ern und mehr Int Leistung überhaupt nicht notwendig. Weil hat doch Nvidia gesagt.... Jetzt auf einmal sind volle FP/Int datapathes wieder logisch und bringt mehr Leistung. Da wird sich auch gewendet wie es am besten passt :eek:
Es ist nicht die INT Leistung die Ampere ein limit sondern die Constraints die volle FP Leistung zu nutzen. mksn7 hat da mal Messungen gemacht und man muss Shadercode um diese Restriktion herum bauen damit es genutzt wird. Und weiterhin gab es bei der Verdopplung der FPs in Ampere (und Ada) nicht den doppelten Sheduler von Pascal.
basix
2025-01-08, 13:46:54
Komisch, dabei war das doch laut manchen hier so genial bei den 4000ern und mehr Int Leistung überhaupt nicht notwendig. Weil hat doch Nvidia gesagt.... Jetzt auf einmal sind volle FP/Int datapathes wieder logisch und bringt mehr Leistung. Da wird sich auch gewendet wie es am besten passt :eek:
Ich hatte schon vor langem mal spekuliert (war es vor Lovelace Release?) das folgende Konfiguration die theoretisch höchste IPC hätte, ohne dass man mehr FP32-Units verbaut (was man bei Blackwell anhand der veröffentlichten Daten ja nicht macht):
- 2x FP32
- 1x INT32
Nvidia hat bei Turing aufgezeigt, dass das Ratio von INT32 / FP32 <0.5x beträgt. Bei Ampere und Lovelace wird durch die kombinierte FP32/ INT32 Pipe allerdings der FP32 Durchsatz limitiert, da man zwischendurch INT32 auf dieser Pipe ausführen muss. Macht man eine separate INT32 Pipe neben zwei FP32 Pipes, kann man in den allermeisten Fällen die volle FP32 Durchsatz fahren und parallel hat man genug INT32 Performance. Vielleicht belässt man eine der FP32 Pipes auf kombiniert FP32/INT32 oder es kommen 2x separate INT32 Pipes dazu. Letzteres wäre prinzipiell Turing mit doppeltem Durchsatz. Eine separate alleinstehende INT32 Pipe würde hinsichtlich IPC sicher Sinn machen, wenn man das entsprechend parallel schedulen kann.
https://developer.nvidia.com/blog/wp-content/uploads/2018/09/image5.jpg
Tesseract
2025-01-08, 13:47:16
don't quote me aber ich bin mir relativ sicher dass er das so gesagt hat.
Kriegsgeier
2025-01-08, 13:48:42
Die Shader sind jetzt quasi REINE AI-Maschinen. Die ganze Struktur ist vollständig auf AI-Berechnungen getrimmt.
AI bestimmt jetzt GeForce - so hat der Jensen auch gesagt!
Troyan
2025-01-08, 13:51:56
don't quote me aber ich bin mir relativ sicher dass er das so gesagt hat.
Jap, ab hier: https://youtu.be/k82RwXqZHY8?t=931
Exxtreme
2025-01-08, 13:53:34
Die Shader sind jetzt quasi REINE AI-Maschinen. Die ganze Struktur ist vollständig auf AI-Berechnungen getrimmt.
AI bestimmt jetzt GeForce - so hat der Jensen auch gesagt!
Jensen labert sehr viel wenn der Tag lang ist. Viel interessanter sind meist Dinge, die er unterschlägt. Und dass man bestehende Schaltkreise auch für andere Dinge benutzt, das ist seit Jahrzehnten normal. Und ob die Shaderschaltkreise jetzt "reine" AI-Maschinen sind, das steht in den Sternen. ;)
basix
2025-01-08, 13:57:45
don't quote me aber ich bin mir relativ sicher dass er das so gesagt hat.
Hat er auch gesagt ;)
https://youtu.be/k82RwXqZHY8?t=957
Er sagt "two dual shaders, one is for floating point and one for integer", was prinzipiell auf folgendes hinausläuft.
[..] Vielleicht belässt man eine der FP32 Pipes auf kombiniert FP32/INT32 oder es kommen 2x separate INT32 Pipes dazu. Letzteres wäre prinzipiell Turing mit doppeltem Durchsatz.
-------------------------------------------------------
Die Shader sind jetzt quasi REINE AI-Maschinen.
Das was Nvidia da macht ist das was Microsoft mit Neural Rendering in DX12 macht:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13679878#post13679878
Troyan
2025-01-08, 14:01:54
Es müssten zwei sein. Also doppelter Turing, wenn man so will.
basix
2025-01-08, 14:02:28
Genau.
Wenn man dadurch Turing IPC pro FLOP erhalten würde, wäre das enorm ;) Die Vorabbenches zeigen das aber nicht.
monstar-x
2025-01-08, 14:04:59
wäre meine bevorzugte Auflösung von 3440x1440 völlige Verschwendung für eine RTX 5090?
Oder eher nicht? Habe WOLED 240Hz Panel.
Ich kann dir nur ein Beispiel aus meine Praxis nennen.
Für 3840x2160 mit DLSS-Q @ Max Settings reicht die 4090 dicke aus, so dass ich limits setzte auf, dabei nutzte ich kein FG.
- Singleplayer 90FPS
- Multiplayer 144 FPS
Bis auf Alan Wake und WukOng war die Karte nie am Anschlag.
Troyan
2025-01-08, 14:05:16
Weil die Rechenleistung, vorallem Integer, nicht 100% limitiert. Deswegen hat nVidia bei Ampere auch die dedizierte INT-Pipeline um FP32 erweitert, um bei FP32 Berechnungen die IPC zu verdoppeln.
Tesseract
2025-01-08, 14:07:07
Er sagt "two dual shaders, one is for floating point and one for integer", was prinzipiell auf folgendes hinausläuft.
so wie ich das im kontext interpretiere ist jetzt jeder shader FP32+INT32/8/4 - den vollen INT32-durchsatz nimmt man indirekt mit damit die komplette GPU für AI verwendet werden kann.
basix
2025-01-08, 14:07:54
Weil die Rechenleistung, vorallem Integer, nicht 100% limitiert. Deswegen hat nVidia bei Ampere auch die dedizierte INT-Pipeline um FP32 erweitert, um bei FP32 Berechnungen die IPC zu verdoppeln.
Dennoch wird die FP/INT Pipe von Ampere/Lovelace Zeitweise von INT blockiert. Der maximale FP-Durchsatz ist also nicht zu erreichen. Bei Blackwell theoretisch schon, genau wie bei Turing.
so wie ich das im kontext interpretiere ist jetzt jeder shader FP32+INT32/8/4 - den vollen INT32-durchsatz nimmt man indirekt mit damit die komplette GPU für AI verwendet werden kann.
Klar, könnten auch 2x FP/INT Pipes sein. Wäre aber schade.
Kriegsgeier
2025-01-08, 14:09:27
Der "Gaming" Chip BackWell 20X ist doch der gleiche, der auch in den KI-Farmen eingesetzt wird, oder?
RTX 5090 bekommt ja bekanntlich nur 170 der 192 Shader ab - weil die vollständige in die KI-Farmen verbaut werden, oder verwechsele ich da was gewaltig?
Troyan
2025-01-08, 14:12:31
Dennoch wird die FP/INT Pipe von Ampere/Lovelace Zeitweise von INT blockiert. Der maximale FP-Durchsatz ist also nicht zu erreichen. Bei Blackwell theoretisch schon, genau wie bei Turing.
Sie wird nicht blockiert. Wenn meine dedizierte INT-Pipeline bei 70% der Zeit nicht genutzt wird, limiert diese also den FP32 Durchsatz. Denn in dieser Zeit kann man auch FP32 Berechnungen laufen lassen.
Wenn man nun wieder eine dedizierte zweite INT-Pipeline einbaut, dann wird der INT-Workload in der doppelten Zeit abgearbeitet. Das wären dann 10% bis 15% Leistungssteigerung.
nordic_pegasus
2025-01-08, 14:24:37
Der "Gaming" Chip BackWell 20X ist doch der gleiche, der auch in den KI-Farmen eingesetzt wird, oder?
da wird GB200 verbaut. Das ist ein reiner KI-Beschleuniger. GB202 und Konsorten sind nur Verwandte davon.
Die vollständigen GB202 werden wohl künftig in einer "Quadro" oder wie auch immer die aktuell genannt verbaut werden. Wobei Nvidia bei so großen Chips wegen dem Yield / Marge und wegen der hohen Nachfrage vielleicht nirgendwo die vollen 172SM aktiviert. Volta gab es auch nie im Vollausbau, genauso wurde AD102 nirgendwo mit vollen 144SM verbaut sondern maximal 142SM.
Was auch immer als Quadro-Variante von GB202 kommen wird, das war früher immer die Vorlage für eine xx90Ti bzw. Titan. Sofern es wieder eine geben sollte.
Palpatin
2025-01-08, 14:42:12
Raster wird wohl etwas langsamer sein, aber wenn es alleine in RT+ DLSS grob +35% durch die Bank sind, kann von "unterwältigend" nicht die Rede sein.
Da sich NV hier vermutlich best und nicht worst case rausgesucht hat und die TDP auch um 20-35% je nach Karte hochgeht ist es das in meinen Augen schon. Perf Watt im Raster evtl sogar schlecht als der Vorgänger wäre schon ein Fail. Preis ist natürlich eine andere Sache den sehe ich positiv.
Tesseract
2025-01-08, 14:46:10
Dennoch wird die FP/INT Pipe von Ampere/Lovelace Zeitweise von INT blockiert. Der maximale FP-Durchsatz ist also nicht zu erreichen. Bei Blackwell theoretisch schon, genau wie bei Turing.
das ziel ist aber nicht immer maximalen durchsatz zu haben sondern in möglichst vielen fällen möglichst viel vom chip nutzen zu können. data paths sind teurer als die eigentlichen schaltwerke. wenn ein datapath bei turing im schnitt 70% idle ist ist das verschwendung. deswegen das ratio von ampere/ada und statt vollem FP32 in jeder situation lieber gleich mehr units pro fläche bzw. nahezu 100% auslastungsgrad, auch wenn das nicht alles FP ist.
diese wahrscheinliche änderung in blackwell weitet das konzept auf AI aus. wenn nur AI und keine klassischen shader laufen sind die shader zu 0% ausgelastet, mit dieser änderung können die dann neben den tensorcores ebenfalls zu 100% mitlaufen.
w0mbat
2025-01-08, 14:46:37
Der "Gaming" Chip BackWell 20X ist doch der gleiche, der auch in den KI-Farmen eingesetzt wird, oder?
RTX 5090 bekommt ja bekanntlich nur 170 der 192 Shader ab - weil die vollständige in die KI-Farmen verbaut werden, oder verwechsele ich da was gewaltig?
Nein, KI-Blackwell kann gar keine Spiele spielen da keine ROPs, TMUs, etc. und ist ein chiplet design mit HBM.
MiamiNice
2025-01-08, 14:47:43
wäre meine bevorzugte Auflösung von 3440x1440 völlige Verschwendung für eine RTX 5090?
Oder eher nicht? Habe WOLED 240Hz Panel.
Erwerbe eine 5070, sollte für Dich reichen ;)
Und wo ist der Unterschied? Beide Netzteile haben 6x8 PCIE/GPU. Das "i" hat noch den DSP. Und es hat einen 10-poligen Mainboardstecker statt 8-polig.
Weiß ich nicht. Ich denke da gibt es keinen außer das ich mein NT an USB habe und Verbrauchswerte auslesen kann für jede Rail.
Ansonsten sind die IMO identisch.
dargo
2025-01-08, 14:48:47
Erwerbe eine 5070, sollte für Dich reichen ;)
Du empfiehlt 2025 eine 12GB Karte? xD
RoughNeck
2025-01-08, 14:51:41
Die einzig interessante Karte ist 5090, eine 5070 mit 12GB und eine 5080 mit 16 im Jahr 2025 sind lächerlich
MiamiNice
2025-01-08, 14:53:48
Empfehlen ist ein hartes Wort, würde eher „reicht“ benutzen. 12 Gb und 4090 Leistung für einen UWQHD Monitor, sollte imo schon reichen. Ob das ihn auch glücklich macht, kann ich nicht entscheiden. Mich sicher nicht :)
RoughNeck
2025-01-08, 14:54:55
4090 Leistung im Best Case, wenn man DLSS und alles anmacht steigt auch der VRAM verbrauch.
basix
2025-01-08, 14:55:36
das ziel ist aber nicht immer maximalen durchsatz zu haben sondern in möglichst vielen fällen möglichst viel vom chip nutzen zu können. data paths sind teurer als die eigentlichen schaltwerke. wenn ein datapath bei turing im schnitt 70% idle ist ist das verschwendung. deswegen das ratio von ampere/ada und statt vollem FP32 in jeder situation lieber gleich mehr units pro fläche bzw. nahezu 100% auslastungsgrad, auch wenn das nicht alles FP ist.
diese wahrscheinliche änderung in blackwell weitet das konzept auf AI aus. wenn nur AI und keine klassischen shader laufen sind die shader zu 0% ausgelastet, mit dieser änderung können die dann neben den tensorcores ebenfalls zu 100% mitlaufen.
Da hast du sicher recht. Rein von HW-Effizienz her spricht alles für zwei kombinierte FP/INT Pipes. Das wird allerdings bei Games kaum zu höherer IPC führen. Dann schon eher der neue "AI-Command-Processor", welcher die Auslastung des Chips verbessern könnte.
Hinsichtlich AI:
Shader sind aber viel ineffizienter und bieten weniger Throughput. Ich denke eher, dass die Shader bei Neural Rendering mitrechnen können. Beim herkömmlichen Execution Model wird das DNN auf dem gesamten Chip ausgeführt und sonst nichts. Beim Neural Rendering DX12 Update kann nun der Pixel Shader ein DNN ausführen, irgendein Compute Shader oder Rasterizing parallel laufen und noch ein weiterer Task. Ich glaube nicht, dass dies eine HW-Limitation ist/war sondern die von APIs und Execution Models auf SW-Seite.
Bei sehr, sehr kleinen DNN macht man das evtl. mit den Shadern, da allenfalls geringere Latenz als mit Tensor Cores oder das DNN ist in andere Shader-Operation eingeflechtet. Keine Ahnung. Das ging bisher so nicht. Die HW hätte es wohl schon gekonnt, seit Turing.
why_me
2025-01-08, 14:55:36
Und auch nur mit 4x FG, weil das die 4090 nicht kann.
Sardaukar.nsn
2025-01-08, 14:57:49
Eine 5090 FE wird nur einen Stecker haben, eine Asus Strix OC sicher 2, weil der max. Verbrauch wahrscheinlich über 660 Watt liegen wird.
Die neue ASUS Astral welche überhalb der Strix liegt, hat nur einen Stecker. Also wird da wohl auch bei 600-666 Watt Schluss sein. Minimum ist ja 575, also liegen die Karten wohl alle recht dicht zusammen.
MiamiNice
2025-01-08, 15:00:42
Ist das sicher, hast Du ein Bild davon gesehen?
Daredevil
2025-01-08, 15:01:36
Empfehlen ist ein hartes Wort, würde eher „reicht“ benutzen. 12 Gb und 4090 Leistung für einen UWQHD Monitor, sollte imo schon reichen. Ob das ihn auch glücklich macht, kann ich nicht entscheiden. Mich sicher nicht :)
Das kannste doch knicken, das geht nicht ohne Kompromisse.
FHD > 12GB
WQHD > 16GB
UHD > 24G
Heutzutage würde ich mich nicht von Leistung locken lassen, wenn mir RAM später in den Rücken sticht in Szenarien, die heute schon sehr auffällig sind und die in Zukunft nicht besser werden. Es braucht nur einmal ein "LLM" Feature in Windows oder Gaming und die Kisten fallen um. Zudem benötigen Features aus der RTX Streaming Suite ja auch ein wenig Speicher, da fällt einem das dann auch auf den Kopf. Insofern würde ich erst nach Speicher sortieren und dann das Modell wählen, einfach aus Prinzip.
Als ich einmal mit der B580 Diablo4 non-RT zocken wollte auf meinem 4K Moni, was zweifellos okayish funktioniert, hat sich direkt der Speicher gemeldet und mir Stutter gegeben. VRAM Mangel wird einem erst bewusst, wenn man ihn erfährt, nur dann ist es zu spät. :D
Lawmachine79
2025-01-08, 15:03:02
Miami: hier ist eine Übersicht von Corsair:
https://www.corsair.com/de/de/explorer/gamer/gaming-pcs/rtx-5090-vs-rtx-4080/
Wenn ich das richtig verstehe (es steht da sogar ausdrücklich), kann man sogar das 12VHPWR-Kabel von Corsair von der 4090 nehmen.
aufkrawall
2025-01-08, 15:03:31
Da sich NV hier vermutlich best und nicht worst case rausgesucht
Far Cry wird sicher nicht einer der Raster Best-Cases sein. Erscheint mir nicht sonderlich sinnvoll, das auf Folien zu packen.
basix
2025-01-08, 15:05:23
Die neue ASUS Astral welche überhalb der Strix liegt, hat nur einen Stecker. Also wird da wohl auch bei 600-666 Watt Schluss sein. Minimum ist ja 575, also liegen die Karten wohl alle recht dicht zusammen.
Ich vermute, dass der Durchschnittsverbrauch der 5090 deutlich unterhalb von 575W liegen wird. Ich kann mir nicht vorstellen, dass der 2-Slot Kühler der FE so viel Wärme abführen kann, ohne sehr laut zu werden.
Wie es Raff gesagt hat:
Die Karte gönnt sich das, was sie braucht und wird im Extremfall aber auch nicht durch die TDP eingebremst. Durchschnitt wird vermutlich aber oft deutlich geringer als die TDP sein. Das war bei der 4090 bereits so.
Und auch bei der 4090 lagen alle Karten sehr nahe beieinander. Die FE könnte leicht abfallen, da thermisch limitiert aber Partnerkarten werden alle in etwa gleich auf liegen. Egal ob Astral oder Basismodell. Alle Varianten haben dicke Kühler (ausser eben die FE).
Ist das sicher, hast Du ein Bild davon gesehen?
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-5080-5070-ti-custom-designs-von-asus-ueber-msi-bis-zotac-im-ueberblick.90915/
basix
2025-01-08, 15:07:48
Man kann auch auf die Hersteller Homepages gehen ;)
https://rog.asus.com/de/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5090-32g-gaming/gallery/
1 x 16-pin
MiamiNice
2025-01-08, 15:07:51
Die neue ASUS Astral welche überhalb der Strix liegt, hat nur einen Stecker. Also wird da wohl auch bei 600-666 Watt Schluss sein. Minimum ist ja 575, also liegen die Karten wohl alle recht dicht zusammen.
Du hast recht, habe mir gerade eine 3D Ansicht der Karte besorgt. Danke.
Das kannste doch knicken, das geht nicht ohne Kompromisse.
FHD > 12GB
WQHD > 16GB
UHD > 24G
Heutzutage würde ich mich nicht von Leistung locken lassen, wenn mir RAM später in den Rücken sticht in Szenarien, die heute schon sehr auffällig sind und die in Zukunft nicht besser werden. Es braucht nur einmal ein "LLM" Feature in Windows oder Gaming und die Kisten fallen um. Zudem benötigen Features aus der RTX Streaming Suite ja auch ein wenig Speicher, da fällt einem das dann auch auf den Kopf. Insofern würde ich erst nach Speicher sortieren und dann das Modell wählen, einfach aus Prinzip.
Als ich einmal mit der B580 Diablo4 non-RT zocken wollte auf meinem 4K Moni, was zweifellos okayish funktioniert, hat sich direkt der Speicher gemeldet und mir Stutter gegeben. VRAM Mangel wird einem erst bewusst, wenn man ihn erfährt, nur dann ist es zu spät. :D
Auch Du hast recht. Ist nicht optimal aber "reicht" halt irgendwie schon.
Miami: hier ist eine Übersicht von Corsair:
https://www.corsair.com/de/de/explorer/gamer/gaming-pcs/rtx-5090-vs-rtx-4080/
Wenn ich das richtig verstehe (es steht da sogar ausdrücklich), kann man sogar das 12VHPWR-Kabel von Corsair von der 4090 nehmen.
Du kannst das alles vergessen, die großen Karten haben auch nur einen Stecker. Du kommst mit einem Kabel aus.
Kriegsgeier
2025-01-08, 15:22:05
Das mit der 5070 Empfehlung von dem Herren wahr sehr wahrscheinlich reine Ironie.
Warum soll ich mit meiner 3090 auf 5070 umsteigen - macht Null Sinn.
Ne, seit dem ich endlich verstanden habe, dass die Karte mit DLSS-ON MEHR und nicht weniger Speicher benötigt habe ich mich vollkommen entschieden auf die 5090 mit 32GB zu gehen.
Viel Geld aber man hat was vernünftiges für min. 3 Jahre im Rechner.
PS: das mit dem reinen Gaming Chip war mir so nicht bewusst.
Also, hat das GeForce-Team bei NVIDIA NUR die GB20X Chips entwickelt und ein anderes Designteam den GB200 für die Serverfarmen. Ok, verstanden.
Fliwatut
2025-01-08, 15:31:10
wäre meine bevorzugte Auflösung von 3440x1440 völlige Verschwendung für eine RTX 5090?
Oder eher nicht? Habe WOLED 240Hz Panel.
Nein, keine Verschwendung, zumindest nicht, wenn du in hoher Qualität und mit möglichst vielen fps zocken willst.
Neurosphere
2025-01-08, 15:35:03
3-s4KrPlIx4
Hier sieht man die meisten Karten.
Kriegsgeier
2025-01-08, 15:36:28
Geil, danke für das Video! Perfekt!
Also, ich glaube wir werden kein Kartenmangel zum Start haben. Alle Hersteller haben mehr als genug produziert! Perfekt!
Daredevil
2025-01-08, 15:40:43
Ich wusste doch, das sich irgendwann mein Seasonic Prime Gold 1300w Mining Netzteil von 2018 bezahlt macht im Gaming Rechner. :D
Wer btw. noch nen älteres Seasonic Netzteil hat, man kann das SS-2X8P-12VHPWR-600 nachkaufen, dann funktioniert es auch an älteren Netzteilen ab 850w laut Verpackung.
Ich habe das beim Release der 4090 noch kostenlos bekommen über den Support, Top Service bei so einem alten Schinken.
https://seasonic.com/de/12vhpwr-cable/
Sofern ich verstanden habe, ist der Spaß kompatibel mit 12V-2x6, nech?
monstar-x
2025-01-08, 15:42:17
https://youtu.be/3-s4KrPlIx4
Hier sieht man die meisten Karten.
Super Video und wie er alle Grafikkarten betatscht :-)
Ich freue mich schon auf den Test von Hardwareunboxed und PCGH
Zwei quellen, die objektive testen und nicht viel auf Marketing BlaBla geben.
w0mbat
2025-01-08, 15:42:41
Ein 7 Jahre altes NT würde ich nicht mehr nutzen wollen.
Kriegsgeier
2025-01-08, 15:46:03
Hoffentlich testet Raff die von GIGABYTE @ Custom WaKü, bitte...
Lawmachine79
2025-01-08, 15:51:58
Hoffentlich testet Raff die von GIGABYTE @ Custom WaKü, bitte...
Oder Inno3D! Gigabyte ist ein Scheißladen, da kaufe ich nur, wenn es die einzig lieferbare Wakükarte ist.
robbitop
2025-01-08, 15:52:07
Hat er auch gesagt ;)
https://youtu.be/k82RwXqZHY8?t=957
Er sagt "two dual shaders, one is for floating point and one for integer", was prinzipiell auf folgendes hinausläuft.
-------------------------------------------------------
Das was Nvidia da macht ist das was Microsoft mit Neural Rendering in DX12 macht:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13679878#post13679878
Ui naja dann sollten (hoffentlich) auch die Scheduler resources verdoppelt werden. Und mehr Register.
Da hast du sicher recht. Rein von HW-Effizienz her spricht alles für zwei kombinierte FP/INT Pipes. Das wird allerdings bei Games kaum zu höherer IPC führen. Dann schon eher der neue "AI-Command-Processor", welcher die Auslastung des Chips verbessern könnte.
Das nicht aber wenn man den Rest der SMs aufgebohrt hat so wie Pascal kann es deutlich mehr bringen. Siehe mksn7s Messungen. Ampere bringt auch bei reinem FP32 Input den doppelten Throughput nicht immer auf die Beine. Mksn7 hat damals shadercode geschrieben der bei Pascal immer den vollen Throughput brachte pro SM und bei Ampere nicht auf diesen kam. Er musste dann Abhängigkeiten umbauen damit das dann ging. Und er hat damals auch den sheduler als Flaschenhals bezeichnet IIRC. Es wäre also wichtig, dass diese Bottlenecks (Ampere relativ zu Pascal wenn man beide SMs mit 128 Kanälen vergleicht) beseitigt werden. Dann kommt auch mehr raus.
Sicherlich hat der shadercompiler von Nvidia da sicher in Zwischenzeit auch einiges rausgeholt - aber da dürfte noch Potenzial sein was man damit holen könnte.
Armaq
2025-01-08, 15:52:37
Ich will die Gigabyte 5090 für custom loops direkt kaufen. Hoffe man bekommt was.
Oder Inno3D! Gigabyte ist ein Scheißladen, da kaufe ich nur, wenn es die einzig lieferbare Wakükarte ist.
Ich bin bei dir, aber bisher ist es die einzige Custom Loop Karte ...
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-5080-5070-ti-custom-designs-von-asus-ueber-msi-bis-zotac-im-ueberblick.90915/
Kriegsgeier
2025-01-08, 15:55:50
Oder Inno3D! Gigabyte ist ein Scheißladen, da kaufe ich nur, wenn es die einzig lieferbare Wakükarte ist.
Ja, das stimmt wohl: habe aber noch nie was von Gigabyte.
Am besten wäre für mich eine ASUS oder MSI @ Custom Wasserkühler.
Lawmachine79
2025-01-08, 15:57:59
Ich will die Gigabyte 5090 für custom loops direkt kaufen. Hoffe man bekommt was.
Ich bin bei dir, aber bisher ist es die einzige Custom Loop Karte ...
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-5080-5070-ti-custom-designs-von-asus-ueber-msi-bis-zotac-im-ueberblick.90915/
Ich meine, die Liste ist unvollständig:
https://www.inno3d.com/news/inno3d-delivers-next-gen-ai-next-level-gaming-and-content-creation-nvidia-geforce-rtx-50
Neurosphere
2025-01-08, 16:00:40
Was mich etwas wundert nach der Ankündigung durch Alphacool, scheinbar haben wirklich alle Karten bis auf die FE und die MSI Special Edition (falls) das gleiche PCB. Oder Alphacool hat schon alle Daten bekommen.
Aber das erinnert ein bisschen an die Titan von damals, da durften die Hersteller auch keine Customs bringen.
Kriegsgeier
2025-01-08, 16:03:09
Die FE wird mit 3 PCBs, die mit Flex-Kabel verbunden werden aufgebaut.
Diese Generation gehe ich nicht mit FE - diese mehrere PCBs auf der Karte ist nicht so meins.
Armaq
2025-01-08, 16:08:10
Ich meine, die Liste ist unvollständig:
https://www.inno3d.com/news/inno3d-delivers-next-gen-ai-next-level-gaming-and-content-creation-nvidia-geforce-rtx-50
Das wäre klasse. Mal sehen wer zum 30.01 was hat, die custom loops sind hoffentlich nicht alle direkt ausverkauft. :D
MiamiNice
2025-01-08, 16:10:55
Vermutlich sollte man sich eher um den Wiederverkauf einer Custom Loop Karte Sorgen machen ...
Auf eine umgebaute LuKü Karte, kann man den unbenutzen Kühler wieder montieren und als "wie neu" verkaufen.
Eine Custom Loop Karte ist nur für Leute mit Custom Loop interessant und den haben heute nur noch Nerds.
Nerds kaufen keine alte HW.
Und auch im 2. Rechner hat der Gaming Nerd idR. keine WaKü.
The_Invisible
2025-01-08, 16:16:55
Geil, danke für das Video! Perfekt!
Also, ich glaube wir werden kein Kartenmangel zum Start haben. Alle Hersteller haben mehr als genug produziert! Perfekt!
Hat ja auch Lederjacke bei der Präsi gesagt, hoffentlich stimmts
MiamiNice
2025-01-08, 16:19:10
Miami: hier ist eine Übersicht von Corsair:
https://www.corsair.com/de/de/explorer/gamer/gaming-pcs/rtx-5090-vs-rtx-4080/
Wenn ich das richtig verstehe (es steht da sogar ausdrücklich), kann man sogar das 12VHPWR-Kabel von Corsair von der 4090 nehmen.
https://www.computerbase.de/news/netzteile/corsair-rme-und-hxi-netzteile-leistung-satt-fuer-nvidia-geforce-rtx-5000-via-nativem-12v-2x6.90898/
Schaue mal da ;)
Lawmachine79
2025-01-08, 16:22:12
https://www.computerbase.de/news/netzteile/corsair-rme-und-hxi-netzteile-leistung-satt-fuer-nvidia-geforce-rtx-5000-via-nativem-12v-2x6.90898/
Schaue mal da ;)
Jau aber das steht doch jetzt im Widerspruch dazu, dass das "alte Kabel" reicht, oder? Die 1000W für die 5090 sollten auch reichen, auch wenn man mit dem 9950X3D wschl ans Limit des Powerbudgets kommt.
MiamiNice
2025-01-08, 16:27:01
Das 12VHPWR Kabel kann imo gar nicht passen.
https://www.corsair.com/us/en/explorer/diy-builder/power-supply-units/evolving-standards-12vhpwr-and-12v-2x6/?srsltid=AfmBOorxn4VPN3u-eCOhDSW9-ik77FphFJnfzdeaicJzQpvOZVOkvVsK
Du brauchst ein Kabel mit 12v-2x6 auf der einen und 2x8 Pin auf der anderen Seite von Corsair.
Passt scheinbar doch.
https://i.ibb.co/hWzhTZv/Screenshot-2025-01-08-162936.png (https://imgbb.com/)
Hätte ich nicht erwartet, weil der Stecker von 12vhpwr ein Problem war. Aber scheinbar nur die Buchse, nicht der Stecker.
Let's cut to the chase. There is no difference between a 12VHPWR and a 12V-2x6 cable. The changes in revising the 12VHPWR connector and renaming it to 12V-2x6 were only made to the connectors on the graphics card side. Power supplies should also use the 12V-2x6 connector if available directly on a modular power supply. This is the case with the CORSAIR RMx series, for example.
According to the Legacy PSU Cable chart, the RM1000i supports Type 4 cables for 24-pin ATX and the 8-pin EPS12V (CPU) and PCI-E ports. The 6-pin "Peripheral/SATA" ports are the same in both Type 3 and Type 4.
Das Kabel für uns beide:
https://www.corsair.com/uk/en/p/pc-components-accessories/cp-8920347/corsair-type-4-psu-90-12v-2x6-style-a-cable-cp-8920347
Knapp 30€ und morgen da über Amazon:
-> https://www.amazon.de/Corsair-Premium-12VHPWR-Netzteilkabel-8-Pin-PCIe-Anschl%C3%BCsse-Mesh-Paracord-Ummantelung/dp/B0BLY1B362/ref=sr_1_2?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3G7T4TKWKBULH&dib=eyJ2IjoiMSJ9.FSpxPlv0o226nq8MyPmXaZFrTwqjqBWwegWkmHwdMBIuBk7Sr07W8gFiesyq2Dc rySleoisIKpkc5AtHtyraUunIu36wXtUjvHS0JmfTKbWrOvfENnc-PU9P-z65N6VWLLNFYKaiF3MQ9fP41oY74K7qWKTEy00Dm7axeKyAzGqra7jY4CT_X1BG2p3fqnl5-meSkqohLLNmrev_Kps8z5k74p6-7_0C66PE3YMrLFAmcHWzgnFgl2uZTglnvjy6Q5s4zMMViDfDiYutlw6S-tWZydS1X3kZ77h0I0z-LvD0ElKTKJQfjblZc4oMs4WyDFN1jcfre6snCvXiR96Xx2ufUqMrHFv-3mTGU4S6EGc.LhIiaqmWSHhCx9v9aoopBPC0-IvUOHolEPozv-6hcxQ&dib_tag=se&keywords=corsair+type+4+cable&nsdOptOutParam=true&qid=1736350668&s=computers&sprefix=corsair+type+4+canle%2Ccomputers%2C94&sr=1-2
In White:
https://www.amazon.de/Corsair-Premium-12VHPWR-Netzteilkabel-8-Pin-PCIe-Anschl%C3%BCsse-Mesh-Paracord-Ummantelung/dp/B0BLXYJ8VR/ref=pd_sbs_d_sccl_3_1/261-3385046-0226556?pd_rd_w=bLnlc&content-id=amzn1.sym.49f459c6-2c34-4c10-b7c3-10d8e862ad07&pf_rd_p=49f459c6-2c34-4c10-b7c3-10d8e862ad07&pf_rd_r=WYB2XS98NTNEMZ5J8Q3F&pd_rd_wg=qVhPU&pd_rd_r=6c0be336-6b52-43b7-830c-0e26e68096b9&pd_rd_i=B0BLXYJ8VR&psc=1
Lawmachine79
2025-01-08, 16:53:52
Das 12VHPWR Kabel kann imo gar nicht passen.
https://www.corsair.com/us/en/explorer/diy-builder/power-supply-units/evolving-standards-12vhpwr-and-12v-2x6/?srsltid=AfmBOorxn4VPN3u-eCOhDSW9-ik77FphFJnfzdeaicJzQpvOZVOkvVsK
Du brauchst ein Kabel mit 12v-2x6 auf der einen und 2x8 Pin auf der anderen Seite von Corsair.
Passt scheinbar doch.
https://i.ibb.co/hWzhTZv/Screenshot-2025-01-08-162936.png (https://imgbb.com/)
Hätte ich nicht erwartet, weil der Stecker von 12vhpwr ein Problem war. Aber scheinbar nur die Buchse, nicht der Stecker.
Das Kabel für uns beide:
https://www.corsair.com/uk/en/p/pc-components-accessories/cp-8920347/corsair-type-4-psu-90-12v-2x6-style-a-cable-cp-8920347
Knapp 30€ und morgen da über Amazon:
-> https://www.amazon.de/Corsair-Premium-12VHPWR-Netzteilkabel-8-Pin-PCIe-Anschl%C3%BCsse-Mesh-Paracord-Ummantelung/dp/B0BLY1B362/ref=sr_1_2?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3G7T4TKWKBULH&dib=eyJ2IjoiMSJ9.FSpxPlv0o226nq8MyPmXaZFrTwqjqBWwegWkmHwdMBIuBk7Sr07W8gFiesyq2Dc rySleoisIKpkc5AtHtyraUunIu36wXtUjvHS0JmfTKbWrOvfENnc-PU9P-z65N6VWLLNFYKaiF3MQ9fP41oY74K7qWKTEy00Dm7axeKyAzGqra7jY4CT_X1BG2p3fqnl5-meSkqohLLNmrev_Kps8z5k74p6-7_0C66PE3YMrLFAmcHWzgnFgl2uZTglnvjy6Q5s4zMMViDfDiYutlw6S-tWZydS1X3kZ77h0I0z-LvD0ElKTKJQfjblZc4oMs4WyDFN1jcfre6snCvXiR96Xx2ufUqMrHFv-3mTGU4S6EGc.LhIiaqmWSHhCx9v9aoopBPC0-IvUOHolEPozv-6hcxQ&dib_tag=se&keywords=corsair+type+4+cable&nsdOptOutParam=true&qid=1736350668&s=computers&sprefix=corsair+type+4+canle%2Ccomputers%2C94&sr=1-2
In White:
https://www.amazon.de/Corsair-Premium-12VHPWR-Netzteilkabel-8-Pin-PCIe-Anschl%C3%BCsse-Mesh-Paracord-Ummantelung/dp/B0BLXYJ8VR/ref=pd_sbs_d_sccl_3_1/261-3385046-0226556?pd_rd_w=bLnlc&content-id=amzn1.sym.49f459c6-2c34-4c10-b7c3-10d8e862ad07&pf_rd_p=49f459c6-2c34-4c10-b7c3-10d8e862ad07&pf_rd_r=WYB2XS98NTNEMZ5J8Q3F&pd_rd_wg=qVhPU&pd_rd_r=6c0be336-6b52-43b7-830c-0e26e68096b9&pd_rd_i=B0BLXYJ8VR&psc=1
Jo, habe sicherheitshalber auch eins bestellt. Bei Ebay sind die im Alternateshop auch noch lieferbar, am besten mit der SKU suchen. Werde aber wahrscheinlich einfach das Kabel von der 4090 nehmen. Übrigens sollte doch Style B das richtige sein, nicht Style A, oder? Bei der Abbildung von Style A ist der Grakastecker falsch, der von Style B ist richtig.
Komisch, das ist das von Alternate:
https://www.alternate.de/html/product/100102810
Hat eine andere SKU.
Und hier ist noch ein anderes:
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284
Kriegsgeier
2025-01-08, 16:57:48
https://x.com/Geeky_Vaidy/status/1877003601685430695
NOWAY!!! Ist die Stromversorgung auch auf eine separate PCB gewandert?! NOWAY!
Oder das was man da sieht um den Chip und Speicher ist die Stromversorgung für 600 Watt?! NEVER!!!
Über Nvidia zu PROSHOP
Danke für die Info. Oh je, ob die das besser machen als NBB?
The_Invisible
2025-01-08, 17:01:26
https://x.com/Geeky_Vaidy/status/1877003601685430695
NOWAY!!! Ist die Stromversorgung auch auf eine separate PCB gewandert?! NOWAY!
Oder das was man da sieht um den Chip und Speicher ist die Stromversorgung für 600 Watt?! NEVER!!!
Wenn die schon seit September in Produktion sind muss die Verfügbarkeit ja sehr gut sein.
Kriegsgeier
2025-01-08, 17:03:18
Vermutlich sollte man sich eher um den Wiederverkauf einer Custom Loop Karte Sorgen machen ...
Auf eine umgebaute LuKü Karte, kann man den unbenutzen Kühler wieder montieren und als "wie neu" verkaufen.
Eine Custom Loop Karte ist nur für Leute mit Custom Loop interessant und den haben heute nur noch Nerds.
Nerds kaufen keine alte HW.
Und auch im 2. Rechner hat der Gaming Nerd idR. keine WaKü.
Da stimme ich dir zu!
Kann gerade meine RTX 3090Fe umgebaut auf WaKü nicht verkaufen ;)
PS: welches Kabel müsste ich dann für mein DARK POWER Pro 12 1000W für RTX 5090 kaufen?
PCI Express 12+4 pin
12V-2x6 / 12VHPWR 90° Reversed Cable PCI-E 12V-2x6 / 12VHPWR 90° Cable PCI-E 12VHPWR PCIe Adapter Cable
https://www.bequiet.com/de/accessories
Tomahawk
2025-01-08, 17:08:29
@Raff
Zur Aussagen, die 5070 und 4090 seien gleich schnell und das sei die schönstgerechnete Aussage" -> Da möchte ich an Turing erinnern.
https://blogs.nvidia.com/wp-content/uploads/2018/08/huge-leap-slide-960x540.png
Kriegsgeier
2025-01-08, 17:13:37
Hier sieht man wie die Verbindungen zwischen den PCBs bei FE wahrscheinlich ausgeführt werden:
An Hand von NVIDIA's Unreleased TITAN/Ti Prototype Cooler & PCB | Thermals, Acoustics, Tear-Down
https://www.youtube.com/watch?v=lyliMCnrANI
nordic_pegasus
2025-01-08, 17:15:53
Oder das was man da sieht um den Chip und Speicher ist die Stromversorgung für 600 Watt?! NEVER!!!
doch das sind 29 Phasen, die man um die Speicherchips drappiert sieht. Das sind halt sehr kleine Spulen. Jetzt ist die Preisfrage, ob diese Spulen in Bezug auf Fiepen besonders gut sind oder schlecht.
Kriegsgeier
2025-01-08, 17:18:28
das wäre der Knaller, WENN NUR DIE FEs GAR KEIN SPULENPFEIFEN aufweisen würden!
Das wäre für mich der Grund dann doch bei der FE und Luft zu bleiben!
nordic_pegasus
2025-01-08, 17:18:46
Was mich etwas wundert nach der Ankündigung durch Alphacool, scheinbar haben wirklich alle Karten bis auf die FE und die MSI Special Edition (falls) das gleiche PCB. Oder Alphacool hat schon alle Daten bekommen.
früher hatte fast immer nur EKWB fast direkt zum Launch Blöcke lieferbar. Die haben im Vorfeld von den Boardpartner wohl 3D-Scans erhalten um die Blöcke zu planen. Dazu noch Angaben zu den TDPs und Energiedichten.
Anscheinend bekommt jetzt Alphacool diese Informationen vorab. Die steigen langsam in die Oberliga der Hersteller auf. Man könnte mal den User Stechpalme im Hardwareluxx befragen, der arbeitet bei Alphacool in Braunschweig.
Edit: Die Custom-Designs werden sich darum unterschieden. Was ich tendentiell negativ sehe, weil bei der 40er Reihe alle Karten, die nahe am Referenz-Design waren (inno3D und Zotac) bezogen auf Spulenfiepen die besten Optionen waren... sofern man die Varianten mit voller Phasen-Bestückung hatte. Leider wurde hier auch extrem gespart. Was ich bei den Preisen einfach nur unverschämt finde, an 8 Spulen, Kondensatoren und Powerstages zu sparen.
MiamiNice
2025-01-08, 17:19:45
...
Das von mir gepostete hat ein Sleeve, das auf der Corsair Seite nicht. Das von Alternate hat einen 90° gewinkelten Stecker. Da scheinen mir 3 SKUs sinnvoll.
Das ist 3x das selbe Kabel in unterschiedlichen Ausführungen. Meins ist mit Gewebesleeve und ohne Winkel. Passt für mich am besten, bissel Optik muss sein. Das O11 steht hier aufm Tisch.
Kriegsgeier
2025-01-08, 17:19:49
@Raff
Zur Aussagen, die 5070 und 4090 seien gleich schnell und das sei die schönstgerechnete Aussage" -> Da möchte ich an Turing erinnern.
https://blogs.nvidia.com/wp-content/uploads/2018/08/huge-leap-slide-960x540.png
Krass! Den Vergleich habe ich voll verdrängt. Wahnsinn wie krass es damals war. Ok, auch dank DLSS, oder?
Lawmachine79
2025-01-08, 17:26:59
Das von mir gepostete hat ein Sleeve, das auf der Corsair Seite nicht. Das von Alternate hat einen 90° gewinkelten Stecker. Da scheinen mir 3 SKUs sinnvoll.
Das ist 3x das selbe Kabel in unterschiedlichen Ausführungen. Meins ist mit Gewebesleeve und ohne Winkel. Passt für mich am besten, bissel Optik muss sein. Das O11 steht hier aufm Tisch.
Korrekt, ich sehe es auch so, dass alle drei Kabel passen müssten.
Das einzige was anders ist ist die Pinposition der 4 zusätzlichen Pins in der Buchse auf der Karte, alles andere ist gleich. Die sind bei 12V-2x6 einen Tacken weiter hinten, damit der Stecker nicht mehr funktioniert, wenn er nicht richtig eingesteckt ist.
Das ist der ganze Witz, der dazu führt, dass da nix mehr kokelt.
00-Schneider
2025-01-08, 17:37:29
Wukong auf der 5090 in der Szene bei 29fps 4k native max settings. Hat jemand das Game und kennt diese Szene und kann mal schauen was bei einer 4090 da rauskommt?
Ab 13:37:
PcsWixtFLw0
Tomahawk
2025-01-08, 18:11:15
Krass! Den Vergleich habe ich voll verdrängt. Wahnsinn wie krass es damals war. Ok, auch dank DLSS, oder?
Turing hat explizit RT- und Tensor-Einheiten. Dadurch war die 2070 bei RT-Inhalten viel schneller als die 1080 Ti. Und das hat Huang auch deutlich bei der Präsentation so vorgetragen. Ähnlich wie jetzt die Rosinen ausgepickt.
wolik
2025-01-08, 18:14:56
Wukong auf der 5090 in der Szene bei 29fps 4k native max settings. Hat jemand das Game und kennt diese Szene und kann mal schauen was bei einer 4090 da rauskommt?
Ab 13:37:
https://youtu.be/PcsWixtFLw0
8:40 DLSS3 vs DLSS 4. 4090 vs 5070.
1.Sollte das nicht auch auf einer 4090 mit DLSS 4 laufen?
2.Ist das nicht Frame Generation (FG) versus Multi-Frame Generation (MFG)?
3.Verarschen kann ich mich auch selbst.
dargo
2025-01-08, 18:20:11
@wolik
Das ist genau das was Lederjacke meinte... 5070 "schneller" als 4090. ;)
teezaken
2025-01-08, 18:27:24
Und wo ist der Unterschied? Beide Netzteile haben 6x8 PCIE/GPU. Das "i" hat noch den DSP. Und es hat einen 10-poligen Mainboardstecker statt 8-polig.
Du hast doch eine 4090? Die Kabel sind doch identisch? Habe selbst das Kabel unten als es noch 12VHPWR hieß. Habe jetzt aber nicht alle Antworten und den ganzen Verlauf gelesen.
https://www.corsair.com/us/en/explorer/diy-builder/power-supply-units/will-my-12vhpwr-cable-work-with-12v-2x6/#:~:text=There%20is%20no%20difference%20between%20a%2012VHPWR%20and,if%20availab le%20directly%20on%20a%20modular%20power%20supply.
Exxtreme
2025-01-08, 18:45:18
Du hast doch eine 4090? Die Kabel sind doch identisch? Habe selbst das Kabel unten als es noch 12VHPWR hieß. Habe jetzt aber nicht alle Antworten und den ganzen Verlauf gelesen.
https://www.corsair.com/us/en/explorer/diy-builder/power-supply-units/will-my-12vhpwr-cable-work-with-12v-2x6/#:~:text=There%20is%20no%20difference%20between%20a%2012VHPWR%20and,if%20availab le%20directly%20on%20a%20modular%20power%20supply.
Nicht alle 12VHPWR-Kabel sind 600 W-fähig. Ich habe so ein Adapter-Kabel, welches 3x 150 W auf 1x 450 W bündelt. Nur ist das nicht genug für eine 575 W-Grafikkarte.
nordic_pegasus
2025-01-08, 18:51:16
Nicht alle 12VHPWR-Kabel sind 600 W-fähig.
das Kabel kann sicherlich 600Watt. Aber nicht jedes Netzteil kann auch 600Watt an die GPU abgeben. Darum die Kodierung mittels der 4 Pins, womit der GPU signalisiert wird, wieviel Leistung über das Kabel gezogen werden darf.
Man kann auch einfach die beiden Pins direkt im Stecker kurzschließen, dann sind 600Watt freigeschaltet. Und man spart sich die dünnen Kabel zum Netzteil. Das ist der Trick, welche Cablemod bei den "hidden Wires" nutzt.
wolik
2025-01-08, 18:51:17
Der einzige Grund, von einer 4090 auf eine 5090 zu wechseln, ist der Besitz eines 8K-Monitors.
Von einer "2080" auf eine 5090 umzusteigen, sehe ich auch nicht als notwendig. Lieber eine gebrauchte 4090 mit einem 9800X3D, Mainboard, RAM und weiterer passender Hardware für das gleiches Geld kaufen.
OgrEGT
2025-01-08, 19:06:20
das Kabel kann sicherlich 600Watt. Aber nicht jedes Netzteil kann auch 600Watt an die GPU abgeben. Darum die Kodierung mittels der 4 Pins, womit der GPU signalisiert wird, wieviel Leistung über das Kabel gezogen werden darf.
Man kann auch einfach die beiden Pins direkt im Stecker kurzschließen, dann sind 600Watt freigeschaltet. Und man spart sich die dünnen Kabel zum Netzteil. Das ist der Trick, welche Cablemod bei den "hidden Wires" nutzt.
Bei einer derart teuren Grafikkarte sollte man die paar Kröten für ordentliche Kabel übrig haben...
Sardaukar.nsn
2025-01-08, 19:36:04
Der einzige Grund, von einer 4090 auf eine 5090 zu wechseln, ist der Besitz eines 8K-Monitors.
Ich gehe immer noch davon aus das +50% Rohleistung zur 4090 drin sind. Bisher sind die Taktraten ja sehr konservativ. Immerhin Asus hat schon etwas geteasert... https://i.imgur.com/hT4xpBb.png
Was der DDR7 kann, weis auch noch niemand. Das werden aber die ersten Benchmarks zeigen.
Eben im Video die weiße Aorus Waterforce gesehen. Gefällt mir...
https://i.imgur.com/PpAZYIB.jpeg
The_Invisible
2025-01-08, 19:42:09
Ich gehe immer noch davon aus das +50% Rohleistung zur 4090 drin sind. Bisher sind die Taktraten ja sehr konservativ. Immerhin Asus hat schon etwas geteasert... https://i.imgur.com/hT4xpBb.png
Was der DDR7 kann, weis auch noch niemand. Das werden aber die ersten Benchmarks zeigen.
Eben im Video die weiße Aorus Waterforce gesehen. Gefällt mir...
https://i.imgur.com/pdHyOjn.jpeg
Alter wenn man das Ding auf >3ghz core und 2tb/s Speicher bekommt geht die Post ab :D
Sardaukar.nsn
2025-01-08, 19:49:57
Alter wenn man das Ding auf >3ghz core und 2tb/s Speicher bekommt geht die Post ab :D
Für irgendwas wird das 512bit Interface ja gut sein. Ich würde so voreilig die 5090 nicht mit "nur" +30% abschreiben. Die bulligen Custom Designs von ASUS und MSI sprechen da meiner Meinung nach Bände. Nur die kleine FE will nicht so richtig ins Bild passen.
BlacKi
2025-01-08, 20:01:31
Für irgendwas mit das 512bit Interface ja gut sein. Ich würde so voreilig die 5090 nicht mit "nur" +30% abschreiben. Die Custom Design von ASUS und MSI sprechen da meiner Meinung nach Bände. Nur die kleine FE will nicht so richtig ins Bild passen.
ja, ich geh auch so von avg +45% mindestens aus. die 5080 vs 4080 zeigt solide werte, obwohl sich kaum was bei den rechenleistung auf dem papiert tut.
Der einzige Grund, von einer 4090 auf eine 5090 zu wechseln, ist der Besitz eines 8K-Monitors.
Oder high end VR.
Sardaukar.nsn
2025-01-08, 20:23:27
Oder weil man, ganz banal, alle zwei Jahre Lust auf eine neue Grafikkarten Generation hat.
Daredevil
2025-01-08, 21:10:25
Gamersnexus hat die "4090ti" Prototype Karte getestet und diese 4 Slot Kühlung, dieses brachiale und absurde Ding looped im 3DMark bei 600w bei ca. 62 Grad Hotspot Temp. Eine 4090 Founders Edition bei 426w kommt hier auf um die 77 Grad.
Ich bleibe immer noch dabei. Die Founders Edition mit 2 Slot bei 575w ist einfach nur ein Prestige Objekt. Entweder wird es die einfach kaum bis gar nicht zu kaufen geben und man will damit nur den UVP niedrig halten, die Karte wird Fermi 2.0 oder man geht einfach völlig bewusst in manchen Szenarien wo die Karte wirklich ausgelastet wird einfach wehement ins Temp Limit. Nvidia und Jensen können vieles, die Physik aber nicht überwinden. Wenn dieses dicke PCB so fett ist, dass der Kühler Sandwich mäßig oben UND unten drunter liegt und man damit die Hitze extrem gut verbreiten kann, ist das natürlich positiv. Aber Hell no, ich traue dem Braten nicht. Schon gar nicht, wenn die anderen Hersteller Karten verkaufen mit 3-4-5 Lüftern bei der Größe einer Playstation. :D
Oder aber sie kühlen die Kiste in der Founders Edition ganz bewusst "stiefmütterlich", damit sie eine Blackwell Titan bringen können mit eben dieser Kühlung und obwohl der gleiche Chip drauf ist, kann man dann wirklich die 600w ausfahren als bei diesem 2-Slot Spielzeug.
Link zu GN: https://youtu.be/lyliMCnrANI?si=0Tyw96zlGjBvAKIh&t=1998
PS: Ich vermisse EVGA :(
MiamiNice
2025-01-08, 21:14:26
Selbst wenn man eine Waterforce kauft und auf den Wiederverkaufswert keinen Wert legt weil z.b. Vitrine, der Kühler muss eh runter um die Paste gegen was hochwertiges zu tauschen und ggf. die Platine zu lacken wenn es Flüssigmetall sein soll (und das soll es ;D). Garantie technisch macht das imo wenig Unterschied.
Sardaukar.nsn
2025-01-08, 21:18:01
@Daredevil: Mit dem Ding stimmt was nicht. Alphacool will auch auf Nachfragen im Deutschen Forum sich nicht zu einem Wasserkühler für die FE äußern. Das war die letzten Generationen eigentlich immer gesetzt.
Die 5090 FE hat meiner Meinung nach zu wenig Masse/Substanz für die die 575-600W TDP.
@MiamiNice: Die rüsten inzwischen auch auf. Nvidia setzte auf Liquid Metal, Asus auf Phasenwechsel Pads und Gigabyte spricht bei der Waterforce von eine Art Thermal Putty (Server-grade thermal conductive gel for GDDR7) für den RAM. So ganz auf den Kopf gefallen sind die auch nicht und kennen die Trends ;)
why_me
2025-01-08, 21:35:49
@Daredevil: Mit dem Ding stimmt was nicht. Alphacool will auch auf Nachfragen im Deutschen Forum sich nicht zu einem Wasserkühler für die FE äußern. Das war die letzten Generationen eigentlich immer gesetzt.
Die 5090 FE hat meiner Meinung nach zu wenig Masse/Substanz für die die 575-600W TDP.
Wie viele PCBs soll die 5090 FE haben? Drei? Der PCIe slot mit empfindlichem Flachbandkabel zur GPU PCB und die HDMI/DP slots auch mit empfindlichem Flachbandkabel zur GPU PCB.
Beides kann ziemlich schnell kaputt gehen. Könnte ein Grund sein, warum sie da nix anbieten wollen.
wolik
2025-01-08, 21:40:15
Oder high end VR.
Ja.
Oder weil man, ganz banal, alle zwei Jahre Lust auf eine neue Grafikkarten Generation hat.
Freaks (wie ich auch) natürlich sind immer dabei. :)
crux2005
2025-01-08, 21:49:36
Das kannste doch knicken, das geht nicht ohne Kompromisse.
FHD > 12GB
WQHD > 16GB
UHD > 24G
Es sind immer mehr Spiele UE5 basierend und die braucht keine 12GB für FHD. Nicht mal für UHD.
@Raff
Zur Aussagen, die 5070 und 4090 seien gleich schnell und das sei die schönstgerechnete Aussage" -> Da möchte ich an Turing erinnern.
https://blogs.nvidia.com/wp-content/uploads/2018/08/huge-leap-slide-960x540.png
Die Fantasie-Einheit "RTX Ops" mag Quatsch sein, aber der damals genannte Faktor 10 beim Raytracing ist zwischen 1080 Ti und 2080 Ti drin. ;)
MfG
Raff
ENKORE
2025-01-08, 22:05:40
Oder weil man, ganz banal, alle zwei Jahre Lust auf eine neue Grafikkarten Generation hat.
Also hat man Lust auf jede Generation?
Wie viele PCBs soll die 5090 FE haben? Drei? Der PCIe slot mit empfindlichem Flachbandkabel zur GPU PCB und die HDMI/DP slots auch mit empfindlichem Flachbandkabel zur GPU PCB.
Beides kann ziemlich schnell kaputt gehen. Könnte ein Grund sein, warum sie da nix anbieten wollen.
Die Konstruktion bei dem GN 4090 Thai Prototypen sieht da sehr interessant aus, da ist der PCIe-Slot aus Alu und der Flexprint, der die PCIe-Kontaktflächen stellt, wird da draufgeklebt (wie z.B. auch Platinen für LEDs). Am anderen Ende vom Flexprint ist dann ein SXM-artiger Verbinder aufgepresst. Sieht sehr fragil aus.
Sardaukar.nsn
2025-01-08, 22:16:07
Also hat man Lust auf jede Generation?
Lust auf jeden Fall.
Mal etwas blumiger gesprochen: Bis zur Rente und wenn ich endlich mal wieder richtig Zeit zum zocken habe sind es für mich noch 25 Jahre. Also ich möchte nicht derjenige sein, der auf der Bremse stand und gesagt hat, jetzt ist die Grafik doch mal gut genug.
Si|encer
2025-01-08, 23:00:46
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90880&stc=1&d=1736373629
;D
monstar-x
2025-01-08, 23:37:21
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90880&stc=1&d=1736373629
;D
+1 ;D
davidzo
2025-01-08, 23:58:31
Die Fantasie-Einheit "RTX Ops" mag Quatsch sein, aber der damals genannte Faktor 10 beim Raytracing ist zwischen 1080 Ti und 2080 Ti drin. ;)
MfG
Raff
Ich finde das auch cringe wie Jensen da auf der Bühne absurde Vergleiche auf Basis von unechten FPS macht und bei seine Superlativen in der Rechenleistung mehrfach die Einheiten verwechselt. Das muss doch für die versammelten nvidia Ingenieure und die Fachpresse mega cringe sein weil die wissen was für eine Farce das ist.
Einerseits erzählt er das Blackwell nun für AI das FP4 Format verwendet und daher die AI Leistung stark ansteigt. Und dann redet er aber von 3400 AI TOPS für die 5090. TOPS ist aber eine Einheit für Ganzzahlen, also int8 wie bei der 4090. FP4 ist ein Float und daher müsste es TFLOPs heißen. Was denn nu? :confused:
Wenn man sich die Zahlen anguckt beziehen sich die auch ziemlich wahrscheinlich auf 4bit Genauigkeit, nicht 8bit wie bei die TOPs bei Lovelace und Ampere.
Bei GB10 ist wenig später wieder die Rede von 1Petaflop, hier wird also wieder die korrekte Einheit verwendet.(btw, GB100 hat 7/14Pflops,l GB10 ist also ca. 7% GB100 und 5% GB200).
ChaosTM
2025-01-09, 00:11:13
Wukong auf der 5090 in der Szene bei 29fps 4k native max settings. Hat jemand das Game und kennt diese Szene und kann mal schauen was bei einer 4090 da rauskommt?
Ab 13:37:
https://youtu.be/PcsWixtFLw0
Nativ dümpelt man mit der 4090er immer so um die 20-23fps herum.
Tut man sich natürlich nicht an.
Das neue DLSS Modell ist ein klarer Fortschritt und den kriegen auch die älteren Karten spendiert.
Multi FG ist vielversprechend, speziell für 4k 240er oder ähnliche Monitore. Die Latenz steigt kaum, wie man im DF Video gesehen hat - zumindest in 77.
crux2005
2025-01-09, 00:34:10
Nativ dümpelt man mit der 4090er immer so um die 20-23fps herum.
Tut man sich natürlich nicht an.
Es muss schon die gleiche Szene sein sonst bringt das alles nichts.
Bei 23 FPS ggü 29 FPS nur +26% für 5090. +45% wenn ich mit 2900/20 FPS rechne. Das würde eher zur Rechenleistung passen.
dildo4u
2025-01-09, 05:23:07
5080 Mobile hat ca 4070S Performance in Geekbench
https://videocardz.com/pixel/geforce-rtx-5080-laptop-gpu-tested-in-opencl-first-ever-performance-leak-of-rtx-blackwell
dargo
2025-01-09, 05:36:18
Multi FG ist vielversprechend, speziell für 4k 240er oder ähnliche Monitore. Die Latenz steigt kaum, wie man im DF Video gesehen hat - zumindest in 77.
Indem man Äpfel mit Birnen vergleicht? Oder wo steigt die Latenz kaum mit non FG + Reflex On vs. MFG + Reflex On?
crux2005
2025-01-09, 06:38:59
Hier paar detaillierte Aufnahmen vom PCB (Front und Rückseite ab 3m10s):
4WMwRlTdaZw
Eindeutig eine Weiterentwicklung von der "config 2" 4090.
Auch "interessant", die 5070 FE benutzt ein "anderes, mehr traditionelles Design". Da wird wohl mehr gespart damit die Karte auch für 550 USD profitabel ist.
dargo
2025-01-09, 07:12:33
Auch "interessant", die 5070 FE benutzt ein "anderes, mehr traditionelles Design". Da wird wohl mehr gespart damit die Karte auch für 550 USD profitabel ist.
Warum sollte man auch bei der 5700FE diesen Aufwand betreiben bei einem Bruchteil des Powerbudgets einer 5900FE? Der Typ sagt doch selbst, dass diese Bauweise nötig ist um die hohe Abwärme abzuführen. Das ist dann zwar nett für die Grafikkarte, die CPU da drüber kotzt sich aber einen ab sofern Luftkühlung.
mironicus
2025-01-09, 07:15:50
Die warme Abluft der RTX 5090 bläst dann natürlich direkt auf einen möglichen CPU-Towerkühler. :freak:
Badesalz
2025-01-09, 07:19:26
Meinentwegen sollen sie 1000W Powerbudget einplanen. Meine Steckdose schafft 3680 Watt.Das ist bedingt richtig ;) Das gilt dem einen ganzen Stromkreis. Musst dafür also ggf. Licht im Flur ausmachen :usweet:
Und denk doch einmal an die ganzen armen Säcke die in neureren Bauten hausen wo schon nicht mit 16A, sondern 10A abgesichert wurde ;)
Kriegsgeier
2025-01-09, 07:24:00
Also nach dem Video habe ich noch mehr Respekt vor NVIDIA- Ingenieuren!
Was die da gemacht haben ist echt Krass!
Nur mag ich immer noch nicht diese 3x PCB-Design :)
Es sei denn, die RTX 5090FE produziert gar kein Spulen "singen" wegen den minimalistischausgeführten Chokes ;)
PS: Leute, habt keine Angst, dass ihr keine Karte abbekommt. Wenn alleine Gigabyte 27 Custom Modelle rausbringt - das spricht doch für sich, dass es SEHR, SEHR viele Chips ausgeliefert worden sind!
Kriegsgeier
2025-01-09, 07:36:44
Lust auf jeden Fall.
Mal etwas blumiger gesprochen: Bis zur Rente und wenn ich endlich mal wieder richtig Zeit zum zocken habe sind es für mich noch 25 Jahre. Also ich möchte nicht derjenige sein, der auf der Bremse stand und gesagt hat, jetzt ist die Grafik doch mal gut genug.
So sehe ich das auch!
Wir haben die NVIDIA zu dem gemacht was NVIDIA heute ist.
Wie viele Tausend Euro haben wir schon in die Grakas von Nvidia "investiert"?
Ich habe locker 10 Generationen mitgemacht: angefangen mit GeForce 2 GTS!
dargo
2025-01-09, 07:38:36
Und denk doch einmal an die ganzen armen Säcke die in neureren Bauten hausen wo schon nicht mit 16A, sondern 10A abgesichert wurde :usweet:
Die 10A kannst du bei einer Schuko-Steckdose auch in älteren Bauten mit einer 16A Sicherung anwenden sofern dir Sicherheit am Herzen liegt denn keine Schuko-Steckdose ist für dauerhafte 16A ausgelegt. Und ja... natürlich gilt das für den ganzen Stromkreis und nicht für eine einzelne Steckdose. Aber was sollts... bald werden Grafikkarten bzw. Gaming-PCs an 400V angeschlossen. :D
btw.
Wo wir schon beim Hausstrom sind... dauerhaft 16A über die 1,5mm² Kupferleitungen durchjagen dürfte auch ziemlich warm an den Leitungen selbst werden früher oder später. Letztens hatte ich hier noch alte Stegleitungen rausgerissen, die hatten nicht mal die Dicke vom Kupfer bei NYM-J.
Altehardware
2025-01-09, 08:04:28
Die automatische Übersetzung nimmt es Wörtlich dennoch ich meine ich hatte das video schonmal gesehen beachtlich ist aber die Kompaktheit der rtx5090 und die internen Stecker sind auch relativ klein. Ist also kein Wunder warum es dazu keine waterblocks kommen
ich nehme eher an das die aib wenn diese den chip bekommen ein normales design haben und dann fertige waterblock mit gpu verkaufen wenn das sich überhaupt lohnt
Kriegsgeier
2025-01-09, 08:12:38
Das mit Signalqualität bzw. Geschwindigkeiten, die er im Video anspricht: verstehe ich nicht, NVIDIA musste auf diese Größe gehen um nicht nur den Kühler so zu dimensionieren sondern auch die Signalqualität zu erreichen?
Was ist dann mit der Signalqualität bei den Customs?
Oder wird es z.B. von Micron vorgeschrieben wie die Hersteller die GDDR7 RAM-Bausteine zu positionieren und verdrahten haben?
Der_Korken
2025-01-09, 08:16:40
Das ist dann zwar nett für die Grafikkarte, die CPU da drüber kotzt sich aber einen ab sofern Luftkühlung.
Das tut die CPU bei einer 500W+ Graka sowieso, sofern du auf dieser keinen Blower verbaust. Der Unterschied ist nur, dass die Luft bei der FE weniger lange im Gehäuse zirkuliert, weil sie nicht am PCB festhängt. Würde sogar sagen, CPUs werden bei der FE nicht heißer als bei den üblichen Backsteinen.
Loeschzwerg
2025-01-09, 08:27:52
Exakt. Und für viele Gehäuse ergibt sich sogar ein besser Luftstrom, weil eben weniger von unten nach oben blockiert wird.
Kriegsgeier
2025-01-09, 08:33:22
und plus dazu, sind die Lüfter der FE im Durchmesser gewachsen und das nicht wenig!
Verstehe überhaupt nicht wieso das nicht thematisiert wird! Viele wundern sich über den 2-Slot-Design aber sprechen die Tiefe der Karte und somit die Lüfterdurchmesser nicht an!
Badesalz
2025-01-09, 08:34:25
Also nach dem Video habe ich noch mehr Respekt vor NVIDIA- Ingenieuren!
Was die da gemacht haben ist echt Krass!WOW. Niemals hätte das hier im Forum jemand angenommen, daß DU soetwas auch noch zum 5ten mal schreibst...
und plus dazu, sind die Lüfter der FE im Durchmesser gewachsen und das nicht wenig!Das ist halt der Fortschritt. Davor wurde die Belastung auf dem Slot nach unten durch das Gewicht verursacht. Jetzt verteilt man das zwischen off/idle nach unten, und bei Last nach oben, durch den Auftrieb...
Bei der 6k wird man wahrscheinlich von einer "selbstragenden Konstruktion" sprechen :up:
dildo4u
2025-01-09, 08:44:55
Blackwell GPU angeblich seit September in Produktion.
https://www.computerbase.de/news/grafikkarten/grafikspeicher-fuer-nvidia-samsung-ist-bei-gddr7-top-hbm3e-macht-weiter-probleme.90956
Badesalz
2025-01-09, 08:48:49
Warum nochmal hat AMD keine Probleme mit HBM3e? Oder haben sie es?
dargo
2025-01-09, 08:51:43
und plus dazu, sind die Lüfter der FE im Durchmesser gewachsen und das nicht wenig!
Verstehe überhaupt nicht wieso das nicht thematisiert wird! Viele wundern sich über den 2-Slot-Design aber sprechen die Tiefe der Karte und somit die Lüfterdurchmesser nicht an!
Kühl dich mal draußen ab. :wink: Erstmal abwarten welche Qualität die Lüfter überhaupt aufweisen. Schon die Lüfter von Ada FE hatten unschöne Geräusche ab bestimmten Drehzahlen produziert.
Blackwell GPU angeblich seit September in Produktion.
https://www.computerbase.de/news/grafikkarten/grafikspeicher-fuer-nvidia-samsung-ist-bei-gddr7-top-hbm3e-macht-weiter-probleme.90956
Du meinst für Gaming? Die großen B200 waren doch schon früher dran:
https://www.golem.de/news/blackwell-b200-nvidias-stellt-riesige-doppel-gpu-vor-2403-183321.html
Und einige B200-Systeme wurden ja bereits ausgeliefert.
Sardaukar.nsn
2025-01-09, 08:57:09
Blackwell GPU angeblich seit September in Produktion.
https://www.computerbase.de/news/grafikkarten/grafikspeicher-fuer-nvidia-samsung-ist-bei-gddr7-top-hbm3e-macht-weiter-probleme.90956
Das spricht aber für eine gute Verfügbarkeit. Allein Gigabyte hat 20! verschiedene Blackwell Karte auf der CES vorgestellt.
Das Design ist ja ähnlich wie Lovelace, sollte also inzwischen sehr ausgereift sein. Auch vom Rest wie den Steckern ect erwarte ich keine Kinderkrankheiten mehr wie noch bei Lovelace.
E39Driver
2025-01-09, 09:01:18
Die warme Abluft der RTX 5090 bläst dann natürlich direkt auf einen möglichen CPU-Towerkühler. :freak:
Naja eher nebensächlich. Wer sich eine 5090 gönnt, wird vermutlich keinen runzligen Tower-Kühler von 2010 mehr im Rechner haben
MiamiNice
2025-01-09, 09:07:45
Naja eher nebensächlich. Wer sich eine 5090 gönnt, wird vermutlich keinen runzligen Tower-Kühler von 2010 mehr im Rechner haben
Wenn er keinen Tower Kühler hat, hat er eine AIO. In 99 Prozent aller Fälle ist die "top" monitiert. Da ziehen die 120iger dann die knapp "600 Watt wärme Luft" durch den Radi. Gibt es schönes Delta Luft / Radi und das optimiert die Kühlung ungemein!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.