Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
why_me
2025-01-23, 15:14:49
Weniger FPS/Watt als die Vorgänger generation sieht man auch selten.
Kriegsgeier
2025-01-23, 15:15:56
Ohje. Die 5090 ist im Allgemeinen ein Reinfall wie man sieht - leider :(
MiamiNice
2025-01-23, 15:20:36
War doch klar beim Fokus auf Dingen die kaum ein Mensch braucht. Wenn man HW baut für ein Spiel, welches auch schon die letzten beiden Gens herhalten musste, was soll da kommen? Hoffentlich rockt das Teil zumindest in VR. Aber vermutlich auch nicht.
Kriegsgeier
2025-01-23, 15:28:22
jetzt ist doch nur auf 5080 Hoffnung, dass diese überrascht... Und kann irgendwie mit 4090 konkurrieren
Exxtreme
2025-01-23, 15:29:53
jetzt ist doch nur auf 5080 Hoffnung, dass diese überrascht... Und kann irgendwie mit 4090 konkurrieren
Nein, dazu hat sie viel zu wenig Hardware.
Ravenhearth
2025-01-23, 15:31:23
Ja, die 5080 ist im Bestfall 15% über der 4080.
Also, 600W bei der FE möglich, gutes OC Potenzial. CB hat wohl > 3 Ghz erreicht.
@Raff: Welche Spannung bekommt der Chip @ Stock (Edit: 1.07, gerade entdeckt) und wie hoch kann man das Spannungslimit maximal treiben?
Wieso sind eigentlich alle Reviews inhaltlich gleich aufgebaut? Ein OC Deep Dive würde mich gerade mehr interessieren als überall die Vergleiche @ Stock ;)
DavChrFen
2025-01-23, 15:38:01
Also, 600W bei der FE möglich, gutes OC Potenzial. CB hat wohl > 3 Ghz erreicht.
Schreit nach einer Karte mit 2 Stromanschlüssen.
3 GHz? Tolle Zahl. Kriegt man aber nur in Leichtwassermatrosen-Szenen gehalten. Unter Volllast wird die Power massiv gesprengt, da geht die Karte im Auto Mode auf weniger als 2,4 GHz. Hier, Undervolting und Undervolting plus Overclocking mit massiven Gewinnen: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a4 (runterscrollen) :up:
MfG
Raff
Okay.. also doch Powerlimited... Bzw... ich sehe aktuell 420-450W mit der 4090 @ 1.1 und offenem PL in meinem Usecase. Da wird die 5090 doch sicher auch mit 600W voll takten... hoffe ich.
Deine Screens hab ich schon gesehen... die sind alle hart power-limitiert. Mich würde mal noch ein Game interessieren, dass ehr so im 450-500W Bereich liegt, wo der Chip nicht im Limit hängt.
Welche Spannung kann man max. geben? :)
Rsioux
2025-01-23, 15:42:36
Ok, Begeisterung ist anders. Nach den letzten Gerüchten hatte ich aber auch nicht mehr erwartet.
Dann einmal den Test der 5080 abwarten. Wenn danach irgendwann auch noch eine Gigabyte oder Inno mit WB lieferbar ist und zu einem "normalen" Preis, könnte es nach langer Zeit tatsächlich trotzdem wieder eine NV-Karte in meinen Rechner schaffen...
Exxtreme
2025-01-23, 15:45:36
Wieso sind eigentlich alle Reviews inhaltlich gleich aufgebaut? Ein OC Deep Dive würde mich gerade mehr interessieren als überall die Vergleiche @ Stock ;)
OC auszuloten dauert wahrscheinlich ziemlich lange. Und man möchte auch nicht die Review-Karten schrotten. Aber ich würde an deiner Stelle mal den YT-Kanal von der8auer (https://www.youtube.com/c/der8auer) abonnieren. Kann sein, dass er demnächst was in der Richtung hat.
Kriegsgeier
2025-01-23, 15:47:50
Die Effizienz durch das Undervolting nimmt enorm zu - RTX-4090-Nutzer kennen dieses lohnenswerte Spiel. Auch die Kombination aus gesenkter Spannung und einem erhöhten Takt bringt ein deutliches Effizienzplus. Bedauerlicherweise lassen sich aber nicht mehr alle Takt- und Spannungskombinationen setzen, es gibt recht grobe Stufen - zumindest mit den aktuellen Tools (wir nutzen die aktuelle Beta des MSI Afterburner).
Das ist die letzte Hoffnung für das Koloss!
Wieso sind eigentlich alle Reviews inhaltlich gleich aufgebaut? Ein OC Deep Dive würde mich gerade mehr interessieren als überall die Vergleiche @ Stock ;)
Man muss halt erst mal Teig und Soße machen, bevor man die Pizza produzieren kann. ;) Alles zu seiner Zeit. Die meisten Tester haben die Karte knapp vor dem Wochenende bekommen und crunchen seitdem durch. Was in der Zeit ging, hat jeder anders priorisiert.
MfG
Raff
Kriegsgeier
2025-01-23, 15:50:07
Raff, hoffentlich machst du eine Anleitung was man da erreichen kann.
dargo
2025-01-23, 15:50:39
jetzt ist doch nur auf 5080 Hoffnung, dass diese überrascht... Und kann irgendwie mit 4090 konkurrieren
Wovon träumst du denn da wieder? :freak: Die Fakten der 5090 sind da, übertrage das doch einfach von 4080 auf 5080, ist nicht so schwer. :)
Kriegsgeier
2025-01-23, 15:53:55
Deswegen ist die Untervoltig die letzte Chance. Hoffentlich da geht es der 5090 mehr als noch 4090 an den Kragen.
Genau das wir meine Kaufentscheidung beeinflussen.
Plus: das Beast MUSS eine WaKü sehen - schon ein MoRa3-360 Pro - nur für das Beast ;)
Neurosphere
2025-01-23, 16:02:46
Also, 600W bei der FE möglich, gutes OC Potenzial. CB hat wohl > 3 Ghz erreicht.
@Raff: Welche Spannung bekommt der Chip @ Stock (Edit: 1.07, gerade entdeckt) und wie hoch kann man das Spannungslimit maximal treiben?
Wieso sind eigentlich alle Reviews inhaltlich gleich aufgebaut? Ein OC Deep Dive würde mich gerade mehr interessieren als überall die Vergleiche @ Stock ;)
Du scheinst den Test nicht gelesen zu haben....
Kriegsgeier
2025-01-23, 16:08:55
CB-Test hat endlich auch die 3440x1440 Auflösung!
PCGH war hier Jahre voraus!
dargo
2025-01-23, 16:09:55
Deswegen ist die Untervoltig die letzte Chance.
Du weißt aber schon, dass UV auch viel mit Silizium-Lotterie zu tun hat? Oder willst du dir jetzt 10 Stück 5090 aus verschiedenen Chargen bestellen und testen? :D
monstar-x
2025-01-23, 16:14:03
@Raff, danke für den tollen PCGH Test.
prinz_valium_2
2025-01-23, 16:14:38
Ohje. Die 5090 ist im Allgemeinen ein Reinfall wie man sieht - leider :(
Haha. Von "OMG OMG SO GEIL, Ich kaufe mir mindestens zwei" zu Reinfall...
Die Karte ich was Größe, Lautstärke, Temperatur und sonstiges Design angeht, wirklich toll. Aber der Chip ist einfach nichts tolles.
Allerdings gibt es insgesamt bei Blackwell einfach nicht mehr Leistung pro Rohleistung auf dem Papier. Nicht mehr Leistung pro Watt und auch nicht mehr Leistung fürs Geld.
Und nein, die 5080 wird nicht mit der 4090 konkurrieren. Die 5080 wird so schnell wie eine 4080 Super
Palpatin
2025-01-23, 16:16:23
Wovon träumst du denn da wieder? :freak: Die Fakten der 5090 sind da, übertrage das doch einfach von 4080 auf 5080, ist nicht so schwer. :)
Ja ca 25% mehr Tflops = ca 25% mehr Leistung.
Sehr spannend wird 4070ti super vs 5070ti, da die 4070ti super etwas mehr Tflops hat. Könnte sogar soweit kommen das in einigen Benches knapp die Leistung der 4070ti super verfehlt wird. :freak:
Edit:
Bei der 5070 ist das noch stärker ausgeprägt. Die könnte klar hinter der 4070 super landen. :eek:
Kriegsgeier
2025-01-23, 16:17:48
Wieviel L2$ hat jetzt das Ding abbekommen?
Dural
2025-01-23, 16:21:13
Es gab noch nie eine Effiziente 512Bit Karte, der Sprung von 384Bit auf 512Bit war nie schlau.
Hätte NV besser wissen müssen, und besonders bei der Leistung auch überhaupt nicht nötig. Das ist wohl alleine den 32GB geschuldet, damit der Kindergarten bei 24GB nicht anfängt zu schreien?
Lehdro
2025-01-23, 16:21:46
Wieviel L2$ hat jetzt das Ding abbekommen?
96 MiB von 128 MiB. Die 4090 hatte 72 MiB von 96 MiB.
Es gab noch nie eine Effiziente 512Bit Karte, der Sprung von 384Bit auf 512Bit war nie schlau.
Hätte NV besser wissen müssen, und besonders bei der Leistung auch überhaupt nicht nötig. Das ist wohl alleine den 32GB geschuldet, damit der Kindergarten bei 24GB nicht anfängt zu schreien?
Dabei ist NV doch immer so schlau was Speicher angeht. :freak:
Einfach 384 Bit mit 3 GiB Modulen koppeln, die Verbrauchsreduktion mitnehmen UND noch mehr VRAM mit den dann 36 GiB verfügbaren haben. Win-Win.
Kriegsgeier
2025-01-23, 16:23:19
was soll man eigentlich mit dieser Speicherbandbreite anstellen? Wenn der Chip selbst mit dieser NICHTS anstellen kann?
Oder bracht genau diese MFG die Bandbreite?
Sagte ich doch: die 5090Fe wird SEHR, SEHR lange direkt bei NVIDIA zu kaufen geben ;)
Leider kann ich dabei kaum lachen
Exxtreme
2025-01-23, 16:26:12
Hätte NV besser wissen müssen, und besonders bei der Leistung auch überhaupt nicht nötig. Das ist wohl alleine den 32GB geschuldet, damit der Kindergarten bei 24GB nicht anfängt zu schreien?
Es kann auch sein, dass sie die vielen Shadereinheiten nicht effizient mit 384 Bit anbinden können. Und 384 Bit sind für die RTX4090 zuwenig. Die Karte verhungert an Bandbreite. Und es kann auch sein, dass man die Bandbreite mit MFG doch abrufen kann.
prinz_valium_2
2025-01-23, 16:32:54
Es gab noch nie eine Effiziente 512Bit Karte, der Sprung von 384Bit auf 512Bit war nie schlau.
Hätte NV besser wissen müssen, und besonders bei der Leistung auch überhaupt nicht nötig. Das ist wohl alleine den 32GB geschuldet, damit der Kindergarten bei 24GB nicht anfängt zu schreien?
Das könnte gut sein. Zumindest in der Hinsicht könnte es das untere Lineup etwas besser haben. Also eine kleine Performance / watt Verbesserung anstatt Verschlechterung
Wieviel L2$ hat jetzt das Ding abbekommen?
Schau dir mal die Details hier an: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/2/ :)
MfG
Raff
nordic_pegasus
2025-01-23, 16:43:04
Ich finde Roman bringt mit dem Titel seines Videos die Eigenschaften der 4090 auf den Punkt... es ist quasi eine viel zu späte 4090Ti.
Mir wurde jetzt klar, warum es nie eine echte 4090Ti oder Titan Ada gegeben hat. Dann wäre der Vorsprung der 5090 nochmals kleiner gewesen. Nvidia hat wohl recht früh erkannt, dass man in 4N Fertigung einfach keinen großen Sprung liefern kann und die 4090Ti eingestampft. Stattdessen hat man in die AI Kiste gegriffen. Für mich ein Griff ins Klo.
dargo
2025-01-23, 16:44:11
Ja ca 25% mehr Tflops = ca 25% mehr Leistung.
Da erwarte ich weniger, du musst halt 5080 vs. 4080S stellen. Und wenn die 5080 etwas niedriger taktet schmälert der Vorsprung noch etwas stärker.
Ich finde Roman bringt mit dem Titel seines Videos die Eigenschaften der 4090 auf den Punkt... es ist quasi eine viel zu späte 4090Ti.
Ich halte das übrigens für Quatsch. Tun die Kollegen sicher auch, wenn sie genauer darüber nachdenken. =) Mit den paar Restchen, die AD102 im Inneren schlummern hat (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1), bekäme man bestenfalls +10 Prozent. Die RTX 5090 liefert da schon ein ganzes Eck mehr. Falls nein: außerhalb des CPU-Limits testen. Wir bringen ja auch gerne mal polarisierende Überschriften, weil man nur damit Aufmerksamkeit kriegt, fachlich habe ich dabei aber immer Schmerzen.
MfG
Raff
Dural
2025-01-23, 16:51:12
Es kann auch sein, dass sie die vielen Shadereinheiten nicht effizient mit 384 Bit anbinden können. Und 384 Bit sind für die RTX4090 zuwenig. Die Karte verhungert an Bandbreite. Und es kann auch sein, dass man die Bandbreite mit MFG doch abrufen kann.
Ja natürlich, aber die Leistung ist ja trotzdem 512Bit Si nicht da! Der Chip hängt voll an der Leistungsaufnahme, selbst mit 13% weniger Alu gegenüber einem vollen Chip bringen 100-200W mehr Aufnahme kaum mehr FPS, wie so baut man den überhaupt ein 512Bit Si ein? Nur für die Quattro Karten? Man weiss doch genau was für eine Leistung am Ende rauskommen wird, NV weis das zu 100%.
Ich verstehe die Strategie von NV überhaupt nicht mehr, man baut richtige dicke Chips um die dann zu kastrieren und setzt trotzdem ein 512Bit Si ein, aber die Leistung ist nicht da, wie so macht man sowas? Die +25% sind doch zu 100% mit einem 384Bit und GDDR7 möglich, sonst würde die 4080/4090/5080 ja auch nicht funktionieren. Und die "Holzklasse" aka 5080 hat über die Hälfte weniger Einheiten.
Man könnte das "gleiche" für deutlich weniger kosten haben. Man baut mittlerweile Gxx3 Chips aber die Unterschiede von Mainstream zu High End werden immer wie grösser.
Sieht NV die Zukunft nur noch bei 2000.- + Gaming Karten? Ich bin mir da nicht so sicher ob diese Strategie längerfristig aufgehen wird.
Fazit: Die Entscheidung für die Auslegung dieses Chips trägt kaum noch Gaming Aspekte! Das ist eine Auslegung für den Professionalen Markt: Quattro, Tesla, AI (.....)
Kriegsgeier
2025-01-23, 17:14:11
https://www.youtube.com/watch?v=GkO4a8gJaPg
Laut Igors Messungen ist die 5090 ab 1440p und vor Allem bei 2160p effizienter als 4090!
Bei reinem Raster wohlbemerkt!
4,81Watt/FPS VS. 4,94Watt/FPS
Badesalz
2025-01-23, 17:19:55
Mit den paar Restchen, die AD102 im Inneren schlummern hat (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1), bekäme man bestenfalls +10 Prozent. Die RTX 5090 liefert da schon ein ganzes Eck mehr.Grob +12% mehr? Also doch richtig, da das schon was anderes ist, die +22%, als wenn +12% rasugekommen wären. Oder wie jetzt? =)
@Kriegsgeier
Kannst du das bitte in Prozent angeben?
@Dural
Exzellent.
Schau dir mal die Details hier an: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/2/ :)
MfG
Raff
... und wie viele ROPs sind aktiv? :)
MiamiNice
2025-01-23, 17:35:11
Ich finde Roman bringt mit dem Titel seines Videos die Eigenschaften der 4090 auf den Punkt... es ist quasi eine viel zu späte 4090Ti.
Mir wurde jetzt klar, warum es nie eine echte 4090Ti oder Titan Ada gegeben hat. Dann wäre der Vorsprung der 5090 nochmals kleiner gewesen. Nvidia hat wohl recht früh erkannt, dass man in 4N Fertigung einfach keinen großen Sprung liefern kann und die 4090Ti eingestampft. Stattdessen hat man in die AI Kiste gegriffen. Für mich ein Griff ins Klo.
Imo ist es sogar noch schlimmer, wenn man an die 600 Watt Kühler der Ada Generation denkt. Das was Blackwell jetzt leistet, war schon mit Ada geplant und gebaut. Nur kurz vor dem Release kastriert.
Sardaukar.nsn
2025-01-23, 17:40:10
Ich halte das übrigens für Quatsch. Tun die Kollegen sicher auch, wenn sie genauer darüber nachdenken. =) Mit den paar Restchen, die AD102 im Inneren schlummern hat (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1), bekäme man bestenfalls +10 Prozent. Die RTX 5090 liefert da schon ein ganzes Eck mehr. Falls nein: außerhalb des CPU-Limits testen. Wir bringen ja auch gerne mal polarisierende Überschriften, weil man nur damit Aufmerksamkeit kriegt, fachlich habe ich dabei aber immer Schmerzen.
MfG
Raff
Danke fürs klarstellen :up:
Darfst du schon sagen welche Partnerkarten ihr testet?
@Badesalz: Ich denke er meint diese Folie: https://www.igorslab.de/nvidia-geforce-rtx-5090-founders-edition-im-test-das-600-watt-kraftpaket-im-gaming-und-labortest/8/
Wie Raff ja schon angedeutet hat, wird mit Undervolting/Powerlimit/ect. noch mehr in Sachen Effizienz drin sein.
https://www.igorslab.de/wp-content/uploads/2025/01/26-UHD-Efficiency.png
Badesalz
2025-01-23, 17:41:09
Boah ist das alles ekelhaft :usad:
... und wie viele ROPs sind aktiv? :)
176. Wird im furchtbar langen Artikel und hoffentlich bald live gehenden Video auch mehrfach thematisiert. :)
Darfst du schon sagen welche Partnerkarten ihr testet?
Klaro. =) Derzeit ist es tatsächlich nur die MSI Suprim SOC, der Rest ist im Zoll versackt. :|
MfG
Raff
nordic_pegasus
2025-01-23, 17:51:27
Restchen, die AD102 im Inneren schlummern hat[/URL], bekäme man bestenfalls +10 Prozent.
ob eine theoretische 4090Ti mit AD102 Vollausbau (12,5% mehr Shader, 33% mehr L2-Cache) wirklich nur 10% Mehrleistung auf die Straße gebracht hätte, sei mal dahingestellt. Ich denke speziell mehr an L2$ hätte die Bandbreiten-Limitierung von AD102 deutlich entschärft.
Wir sind jetzt an einem Punkt angekommen, bei dem Nvidia für (grob gerundet) für 25% Mehrleistung und 25% mehr VRAM ca. 25% Mehrverbrauch benötigt und dafür 25% mehr Geld verlangt. Wir sind also bei einem linearen Anstieg mit einer Steigung von Faktor 1 angekommen.
Gedankenspiel: Was soll denn eine 8090 in 6 Jahren kosten, falls diese 100% Mehrleistung bringt im Vergleich zur 5090? Sind dann 4600€ plus Inflation normal?
Und die Schere von HighEnd zur Mittelklasse/Einstiegskarten wird immer größer. Quasi ein Sinnbild der aktuellen Gesellschaftsentwicklung ;-)
Badesalz
2025-01-23, 18:02:41
@nordic_pegasus
Du hast jetzt ganz schmarrnant unterschlagen, daß die 4090 4nm ist und die 5090 4nm ist. Verstehste.
Die ganzen Steigerungen wären ohne TSMC sonst so verlaufen wie bei Intel 14+ vs. 14++ vs. 14+++ vs. 14++++ usw. Ohne TSMC läuft da garnichts an Ingenieurkunst... Bei AMD nicht, bei Apple nicht und eben auch bei NV nicht.
OgrEGT
2025-01-23, 18:03:56
Blöd wer da schon seine 4090 verhökert hat...
Sardaukar.nsn
2025-01-23, 18:09:53
Blos weg mit dem Alteisen. Der König ist tot, es lebe der König.
Die Topmodelle waren aber nie für besonders gutes P/L bekannt. Dafür gibt es ja ganz andere Karten. https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/36.html
https://tpucdn.com/review/nvidia-geforce-rtx-5090-founders-edition/images/performance-per-dollar-3840-2160.png
dildo4u
2025-01-23, 18:12:32
Blos weg mit dem Alteisen. Der König ist tot, es lebe der König.
Die Topmodelle waren aber nie für besonders gutes P/L bekannt. Dafür gibt es ja ganz andere Karten. https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/36.html
https://tpucdn.com/review/nvidia-geforce-rtx-5090-founders-edition/images/performance-per-dollar-3840-2160.png
Weil sie die Preise anpassen die 4090 steht mit 2400$ drinn.
Die 5090 ist dort massiv schlechter.
nordic_pegasus
2025-01-23, 18:12:55
@nordic_pegasus
Du hast jetzt ganz schmarrnant unterschlagen, daß die 4090 4nm ist und die 5090 4nm ist. Verstehste.
der Prozess war vor 2,5 Jahren bei Produktionsbeginn von AD102 sicherlich noch etwas teurer als heute. GB202 ist jetzt nicht so viel größer geworden, die Ausbeute dürfte erheblich besser sein.
Dagegen ist die Rohleistung nur moderat gestiegen. Dafür nimmt die 5090 einen Schluck mehr aus der 12Vx6 Nabelschnur.
Darum wäre ein identischer Preis zur 4090 logisch gewesen. Bei der 6090 in "cutting edge" 2nm hätte ich dann den Sprung auf $2000 bei aber vielleicht 60% Mehrleistung für angemessen bewertet.
dargo
2025-01-23, 18:37:48
@Kriegsgeier
Kannst du das bitte in Prozent angeben?
Ich helfe gerne (;)), 2,63% effizienter.
Darum wäre ein identischer Preis zur 4090 logisch gewesen. Bei der 6090 in "cutting edge" 2nm hätte ich dann den Sprung auf $2000 bei aber vielleicht 60% Mehrleistung für angemessen bewertet.
Hey... NV spendiert dir mit der 5090 ganze 8GB mehr Vram, ergo muss der Preis auch nach oben gehen. ;)
Sardaukar.nsn
2025-01-23, 18:48:19
Weil sie die Preise anpassen die 4090 steht mit 2400$ drinn.
Die 5090 ist dort massiv schlechter.
Sehe ich nicht. Die 5090 ist 20% teurer als die 4090. Leistet aber teils deutlich mehr als +20%, also besseres P/L Verhältnis. Aber wie gesagt, besonderes P/L war sicher nicht Zielsetzung bei diesem Flaggschiff.
Ravenhearth
2025-01-23, 19:19:16
Darum wäre ein identischer Preis zur 4090 logisch gewesen. Bei der 6090 in "cutting edge" 2nm hätte ich dann den Sprung auf $2000 bei aber vielleicht 60% Mehrleistung für angemessen bewertet.
Ja, man hätte die Mehrleistung durchaus zum gleichen Preis liefern können. Etwas ähnliches gilt auch für die anderen Blackwell-Modelle. Die 5080 hätte ein weiter beschnittener GB202 mit 384 Bit und 24GB sein können (von mir aus für $1199), die 5070 Ti der volle GB203 ($799), die 5070 was die 5070 Ti heute ist ($599), die 5060 Ti die heutige 5070 ($449), usw. Einfach alles um eine Stufe anheben. Dann würde man gegenüber dem originalen Ada-Lineup wenigstens ~40% mehr Perf/$ liefern und die VRAM-Größen wären auch kein Problem mehr. Aber warum sollte man das denn, wenn man absolut keinen Konkurrenzdruck verspürt?
nordic_pegasus
2025-01-23, 19:35:40
Aber warum sollte man das denn, wenn man absolut keinen Konkurrenzdruck verspürt?
Ein gutes Pferd springt nur so hoch wie es muss.
Mich wundert nur die gigantische Lücke zwischen GB202 und GB203. Früher war der 02er Chip das 1,5-fache vom 04er Chip. Jetzt ist ein 03er dazwischen. Aber anstatt einer feinere Abstufung sind die Treppenstufen riesig geworden mit Faktor 2.
Ich hatte es schon vor ein paar Tagen geschrieben, für mich fehlt zwischen GB202 und GB203 ein GB202,5 mit 128SM und 384bit. Bei den Yields und der Nachfrage macht ein so extremer Cutdown von GB202 wohl wirtschaftlich keinen Sinn. Und GB203 bekommen wir bereits als vollen Chip.
AffenJack
2025-01-23, 20:02:43
der Prozess war vor 2,5 Jahren bei Produktionsbeginn von AD102 sicherlich noch etwas teurer als heute. GB202 ist jetzt nicht so viel größer geworden, die Ausbeute dürfte erheblich besser sein.
Schön wärs. TSMC hat die Waferpreise die letzten 2 Jahre jedes Jahr angehoben. Da dürfte nix billiger geworden sein.
Darum wäre ein identischer Preis zur 4090 logisch gewesen. Bei der 6090 in "cutting edge" 2nm hätte ich dann den Sprung auf $2000 bei aber vielleicht 60% Mehrleistung für angemessen bewertet.
Die Produktionskosten RAM, Wafer, Kühler sind sicherlich höher und Nvidia wird ihre Marge halten wollen und nicht senken. Als Kunde ist der Sprung aber lächerlich und lohnt einfach Null. Es ist der logische Preis für mich, ändert aber nix daran, dass er Mist ist.
sulak
2025-01-23, 20:03:16
GB204 wurde ja gecancelt, sonst wäre der Ada—Aufguss Blackwell doch noch für was gut gewesen, aber so… Ja die Abstufungen sind erstmal sinnlos, warten auf den SuperRefresh bringt hier wohl auch nichts da mit mehr TDP die Perfomance per Watt noch weiter abschmiert.
Für den 500€ Bereich gibts jetzt 2 Jahre lang nix sinnvolles, da die 5070 wohl zu schwach für MFG in WQHD sein wird inkl Raytracing
Zossel
2025-01-23, 20:14:54
Wurde das Ding schon mit PCIe5*8 im Vergleich zu PCIe5*16 getestet?
mocad_tom
2025-01-23, 20:35:01
@raff
o5FT3IGXtAk
das ist ganz großes Tennis
Palpatin
2025-01-23, 21:20:51
Sehe ich nicht. Die 5090 ist 20% teurer als die 4090. Leistet aber teils deutlich mehr als +20%, also besseres P/L Verhältnis. Aber wie gesagt, besonderes P/L war sicher nicht Zielsetzung bei diesem Flaggschiff.
In Dollar ist die 25% teurer (Release Preis FE) und die ~20% sind der Schnitt -> ja teils mehr (deutlich wo? 3dmark? Fake Frames?) und natürlich auch teils weniger. Für eine neue Gen sehr sehr wenig. Noch die 5080 abwarten, aber tendenziell schwächste Neuvorstellung seit NV30.....
Sardaukar.nsn
2025-01-23, 21:28:03
@Palpatin: Raster-Rohleistung ohne CPU-Bottleneck sind +55%. In machen Spielen sieht man das schon, in anderen weniger. Müssen wohl noch neue CPUs her.
Es gibt ja auch Games die gut auf DDR7 und Bandbreite reagieren. Laut PCGH:
Cities Skylines 2: +50%
CP2077 +48%
Warhammer 40k SM2: +36%
Witcher 3 Next-Gen: +35%
dargo
2025-01-23, 21:40:41
@Palpatin: Raster-Rohleistung ohne CPU-Bottleneck sind +55%. In machen Spielen sieht man das schon, in anderen weniger. Müssen wohl noch neue CPUs her.
:freak:
Interessant wie sich der Wind dreht, plötzlich ist reine Rasterperformance bei Geforce wieder wichtig. ;D
rentex
2025-01-23, 22:14:09
Wurde das Ding schon mit PCIe5*8 im Vergleich zu PCIe5*16 getestet?
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/
rentex
2025-01-23, 22:16:14
@raff
https://youtu.be/o5FT3IGXtAk
das ist ganz großes Tennis
Raff ist ein Rockstar? ;-D
mczak
2025-01-23, 22:40:15
der Prozess war vor 2,5 Jahren bei Produktionsbeginn von AD102 sicherlich noch etwas teurer als heute. GB202 ist jetzt nicht so viel größer geworden, die Ausbeute dürfte erheblich besser sein.
Ausbeute für ganze Chips ist vielleicht etwas besser. Aber für die Chips die nvidia für RTX 4090 und 5090 verwendet bezweifle ich das - da ist genug deaktiviert dass die Ausbeute sowieso eh sehr hoch sein sollte.
So wie ich das sehe ist Blackwell halt einfach (was die Kern-Architektur betrifft) quasi Ada mit minimalen Updates - so wenig hat bei nvidia schon lange nicht mehr geändert von einer Architektur zur nächsten (man denke da z.B. an Fermi->Kepler->Maxwell die alle tiefgreifende Architektur-Aenderungen hatten während AMD in derselben Zeit bloss ein paar GCN-Revisionen rausgebracht hat die alle praktisch identisch waren).
Das ist nicht zwingend schlecht, weil Ada war schon ziemlich gut ohne offensichtliche Mängel, aber führt nun wenig überraschend eben dazu dass im selben Fertigungsprozess auch quasi dasselbe am Ende rausschaut, die Performance-Unterschiede beschränken sich weitgehend einfach auf die Unterschiede bei den "Rohdaten" (Anzahl SMs, Speicherbandbreite etc.).
Klar preislich könnte trotzdem was gehen, aber wenn die Kosten auch nicht billiger wurden hält nvidia wohl nichts davon ohne Not die Margen zu verkleinern...
Sardaukar.nsn
2025-01-23, 22:40:52
:freak:
Interessant wie sich der Wind dreht, plötzlich ist reine Rasterperformance bei Geforce wieder wichtig. ;D
Stimmt, bei 4K Raytracing ist wohl nur +45% zur 4090 möglich.
Palpatin
2025-01-24, 08:33:30
- so wenig hat bei nvidia schon lange nicht mehr geändert von einer Architektur zur nächsten (man denke da z.B. an Fermi->Kepler->Maxwell die alle tiefgreifende Architektur-Aenderungen hatten während AMD in derselben Zeit bloss ein paar GCN-Revisionen rausgebracht hat die alle praktisch identisch waren).
Genau dieser Zeit gab es bei AMD den Wechsel von Terasscale auf GCN das war sehr tiefgreifend.
basix
2025-01-24, 09:53:15
Interessant ist, das CP2077 mit Abstand am besten skaliert. 1.5x in 4K Raster und glaube 1.4x mit RT. Sind da Optimierungen im Spiel?
The_Invisible
2025-01-24, 09:55:58
CP2077 hat jedenfalls SER aktiviert, da gabs ja auch Verbesserungen. AW2 wird dann auch interessant mit MegaGeometry.
dargo
2025-01-24, 09:58:03
Interessant ist, das CP2077 mit Abstand am besten skaliert. 1.5x in 4K Raster und glaube 1.4x mit RT. Sind da Optimierungen im Spiel?
Was glaubst du wohl wenn Lederjacke ständig im Marketing mit CP77 um die Ecke kommt. ;)
ChaosTM
2025-01-24, 10:19:50
Natürlich ist das bestmöglich optimiert.
Ist ja schließlich DAS NV RT/PT Vorzeigespiel. Jeez
dildo4u
2025-01-24, 10:22:14
Interessant ist, das CP2077 mit Abstand am besten skaliert. 1.5x in 4K Raster und glaube 1.4x mit RT. Sind da Optimierungen im Spiel?
RT/PT fällt nich sonderlich aus den Rahmen +25%
https://i.ibb.co/wB7kDhC/Screenshot-2025-01-24-101703.png (https://ibb.co/jbzN7kG)
https://i.ibb.co/19F07gb/Screenshot-2025-01-24-101829.png (https://ibb.co/vJ0cVFD)
изображение (https://de.imgbb.com/)
Was auffällt das Game will Bandbreite in Raster daher 7900XTX vor 4080.
4080 736GB/Sec
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080-super.c4182
XTX 960 GB/Sec
https://www.techpowerup.com/gpu-specs/radeon-rx-7900-xtx.c3941
https://i.ibb.co/y5Bzkpw/Screenshot-2025-01-24-102228.png (https://ibb.co/TRqQ01V)
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/3/
aufkrawall
2025-01-24, 10:30:41
Was auffällt das Game will Bandbreite in Raster daher 7900XTX vor 4080.
Das würde ich mal bezweifeln. Das Spiel hat einfach völlig gaga teure SSR, wo RDNA3 ggf. seine Rohleistung besser ausspielen kann.
dildo4u
2025-01-24, 10:35:06
Die 5090 zerstört dort die 4090 was nicht zum Compute Zuwachs passt über 40% + In Raster.
Bei 90 vs 118Tflops. + 31%
fondness
2025-01-24, 10:35:40
Was glaubst du wohl wenn Lederjacke ständig im Marketing mit CP77 um die Ecke kommt. ;)
Die Frage ist wie viele Launches will uns Jensen noch mit CP77 Benchmarks ködern? Das ist nach gefühlt 100 Jahren irgendwann auch mal langweilig. :ugly:
Der_Korken
2025-01-24, 10:49:44
Das würde ich mal bezweifeln. Das Spiel hat einfach völlig gaga teure SSR, wo RDNA3 ggf. seine Rohleistung besser ausspielen kann.
Welche Rohleistung? Die 4080 hat 9728 zu 6144 Shader verglichen mit der 7900XTX, noch dazu 10% mehr Takt. Da müsstest du schon die Dual-Issue-Pfade der 7900 als vollwertige Recheneinheiten zählen, um an die 4080 ranzukommen. Das Argument mit der Rohleistung ist ein Relikt aus GCN-Zeiten.
robbitop
2025-01-24, 10:51:22
Die Frage ist wie viele Launches will uns Jensen noch mit CP77 Benchmarks ködern? Das ist nach gefühlt 100 Jahren irgendwann auch mal langweilig. :ugly:
Du hast Alan Wake 2 vergessen X-D
Und so tolle Sachen wie "Minecraft RTX" oder Quake 1 in RTX :freak:
Exxtreme
2025-01-24, 10:58:42
Die Frage ist wie viele Launches will uns Jensen noch mit CP77 Benchmarks ködern? Das ist nach gefühlt 100 Jahren irgendwann auch mal langweilig. :ugly:
Nvidia hat wohl die komplette Kontrolle über CP77. Deshalb bringen sie das.
fondness
2025-01-24, 11:03:31
Welche Rohleistung? Die 4080 hat 9728 zu 6144 Shader verglichen mit der 7900XTX, noch dazu 10% mehr Takt. Da müsstest du schon die Dual-Issue-Pfade der 7900 als vollwertige Recheneinheiten zählen, um an die 4080 ranzukommen. Das Argument mit der Rohleistung ist ein Relikt aus GCN-Zeiten.
Bei Nvidia zählst du ja auch die Dual-Issue Dinger mit?!
robbitop
2025-01-24, 11:07:50
So ist es. Das ist seit Ampere das gleiche Argument. Die FPUs wurden verdoppelt aber sie können nicht unter allen Umständen den vollen Durchsatz schaffen. In der Hinsicht sind die 128er SMs von Pascal mächtiger.
Allerdings scheint das VOPD bei RDNA3 etwas mehr limitiert zu sein als die Verdopplung bei Ampere/Ada (und Blackwell).
Ich kann mir aber gut vorstellen, dass da bei RDNA4 nachgearbeitet wurde und AMD dann die CUs auch mit 128 FPUs angibt (bis dato ja nur mit 64 die dual issue können).
fondness
2025-01-24, 11:10:46
AMD ist hier ganz einfach ehrlicher. Es sind Dual-Issue-Pfade, sowohl bei AMD als auch bei Nvidia. Was da angeblich mehr limitiert sein soll, dazu fehlen die technischen Details, das ist bestenfalls Speku. Nvidias Marketing ist halt wie üblich sehr kreativ, AMD ist da wohl nach der Klage bei Bulldozer, wo man zahlen musste weil man die CMT-Dinger als vollwertige Kerne verkauft hat vorsichtiger.
basix
2025-01-24, 11:24:27
Bei Nvidia ist es einfacher möglich, den vollen FP32 Durchsatz zu erreichen. AMD benötigt dafür VOPD oder Wave64.
Am Ende ist es aber egal. Kann man eh nicht direkt miteinander vergleichen. Die Performance ist entscheidend.
fondness
2025-01-24, 11:30:09
Und du glaubst bei Nvidia gibt es da keine eigenen Instructions? Wie stellst du dir dann vor, dass der Shader-Compiler die Zuteilung regelt?
basix
2025-01-24, 11:56:23
Bei Nvidia ist es Wave/Warp32 mit Int32 oder FP32. Kommt alles mit FP32 daher erhält man den vollen FP32 Durchsatz. In Games nicht realistisch aufgrund FP/INT-Instruction-Mix, aber die ca. 1.3...1.4x mehr IPC erhält man dadurch automatisch (siehe Ampere vs. Turing). Das sieht bei RDNA3 anders aus. Etwas ähnliches gilt in Anwendungen. Bei Nvidia kann man den vollen FP32 Durchsatz ohne Anpassung nutzen (wenn gerade kein INT parallel laufen muss). Bei AMD nicht (eben VOPD oder Wave64), aber in Anwendungen ist das wohl leichter zu skalieren als in Games (da VOPD weniger benötigt wird und Wave64 weniger Performance-Nachteile mit sich bringt, kann der Compiler öfters Wave64 verwenden).
Hauptunterschied ist hier der Instruction-Durchsatz:
- Nvidia = 2x FP32 oder 1x FP32 / 1x INT32 mit Warp32
- AMD = 1x Wave32 oder 1x Wave32 mit VOPD oder 1x Wave64
Den vollen FP-Durchsatz erreicht AMD nur mit den letzten zwei, was abhängig von Anwendung und Compiler ist. Bei Nvidia spielt das weniger eine Rolle.
basix
2025-01-24, 12:20:38
@Raff:
Du hast bei der 5090 in deinem Review gesagt, dass es da Taktsprünge gibt hinsichtlich UV. Die Idle-Spannung beträgt bei der 5090 anscheinend 0.80V und bei der 4090 0.88V. Kann man bei der 5090 die 0.80V im 3D-Modus nutzen oder ist es >0.85V? Oder hättest du da im besten Fall sogar ein Diagramm, wie das mit den Spannungs- vs. Taktstufen aussieht :)
Und kann man das PT <70% anpassen? Bei der 4090 könnte man theoretisch auf 2% runter :D
dargo
2025-01-24, 12:22:39
Die Frage ist wie viele Launches will uns Jensen noch mit CP77 Benchmarks ködern? Das ist nach gefühlt 100 Jahren irgendwann auch mal langweilig. :ugly:
Offenbar nicht für die grünen Boys. :ulol:
Du hast Alan Wake 2 vergessen X-D
Und so tolle Sachen wie "Minecraft RTX" oder Quake 1 in RTX :freak:
Ja... stimmt AW2 müsste man auch eigentlich mitnehmen. :tongue: Alan Wake 2 ist immerhin aber wesentlich jünger. Die anderen beiden Sachen sind imo wayne.
basix
2025-01-24, 12:32:19
Das gute an CP2077 ist, dass man es als Referenz verwenden kann. Kein Spiel hat niedrigere FPS :D (CP2077 mit PT). Wenn es dort läuft, läuft es auch in allen anderen Spielen und Settings ;)
Edit:
Habe jetzt in Raffs PT-Index gesehen, dass andere Spiele noch etwas langsamer laufen :D
mczak
2025-01-24, 12:42:46
Genau dieser Zeit gab es bei AMD den Wechsel von Terasscale auf GCN das war sehr tiefgreifend.
Ach ja stimmt Fermi Release war vor Southern Islands (GCN1). Aendert aber nichts daran dass AMD eben selten wirklich viel verändert hat - nach Terascale (na gut da gab es durchaus noch Aenderungen) ein paar Iterationen GCN (bloss die letzte (Vega) hatte wirklich mehr als homöopathische Aenderungen), und auch RDNA1/2/3 (und wohl auch 4) sind jetzt architekturmässig nicht wirklich weit auseinander, wogegen Nvidia eigentlich mit jeder Generation deutliche Aenderungen hatte (mit Ausnahme von Pascal, ist im Wesentlichen ein auf den neuen Fertigungsprozess taktoptimierter Maxwell). Wobei da IMHO schon auch ein Trend sichtbar ist dass tendenziell die Aenderungen kleiner werden, aber diesmal scheint es eben wirklich fast nichts zu sein.
ChaosTM
2025-01-24, 12:46:17
Das gute an CP2077 ist, dass man es als Referenz verwenden kann. Kein Spiel hat niedrigere FPS :D (CP2077 mit PT). Wenn es dort läuft, läuft es auch in allen anderen Spielen und Settings ;)
Edit:
Habe jetzt in Raffs PT-Index gesehen, dass andere Spiele noch etwas langsamer laufen :D
Wukong ist noch eine Spur schlimmer..
x-force
2025-01-24, 12:54:50
Wukong ist noch eine Spur schlimmer..
imo ist diablo 4 nicht zu toppen :freak:
ernsthaft!
robbitop
2025-01-24, 13:33:54
AMD ist hier ganz einfach ehrlicher. Es sind Dual-Issue-Pfade, sowohl bei AMD als auch bei Nvidia. Was da angeblich mehr limitiert sein soll, dazu fehlen die technischen Details, das ist bestenfalls Speku. Nvidias Marketing ist halt wie üblich sehr kreativ, AMD ist da wohl nach der Klage bei Bulldozer, wo man zahlen musste weil man die CMT-Dinger als vollwertige Kerne verkauft hat vorsichtiger.
mksn7 hat das mal durch selbst programmierte Dinge vermessen und kommentiert. Ist schon eine Weile her. IIRC sind es schon echte 128 FPUs im Ampere SM aber nicht genug Schedulerports. Bei RDNA3 ging der volle Durchsatz nur in wave64 ohne Restriktionen.
Ggf kann mksn7 das nochmal kommentieren.
mocad_tom
2025-01-24, 13:52:13
Von der 4080 auf die 5080 ändert sich ja nicht mal das Speicher-IF (ausser GDDR7)?
Wo soll denn der großartige Aufschlag herkommen?
Die haben nur FP4 reingezimmert.
Von der 4080 auf die 5080 ändert sich ja nicht mal das Speicher-IF (ausser GDDR7)?
Wo soll denn der großartige Aufschlag herkommen?
Die haben nur FP4 reingezimmert.
Leichter Umbau des Shader-Core (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/2/), aber das war's tatsächlich. Wird sich wohl nur um 10-15 Prozent von der 4080S distanzieren können – ohne Fanta 4, versteht sich.
MfG
Raff
Tegenarian
2025-01-24, 14:11:39
Blender-Ergebnis der 5080. Blender Open Data (https://opendata.blender.org/benchmarks/query/?compute_type=OPTIX&compute_type=CUDA&compute_type=HIP&compute_type=METAL&compute_type=ONEAPI&group_by=device_name&blender_version=4.3.0)
Hmm... Ich muss endlich wissen, wie sich dort die 5070 Ti schlagen wird. :biggrin:
dargo
2025-01-24, 14:31:59
Leichter Umbau des Shader-Core (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/2/), aber das war's tatsächlich. Wird sich wohl nur um 10-15 Prozent von der 4080S distanzieren können – ohne Fanta 4, versteht sich.
Kann man von dem SM-Umbau direkt eine bessere Auslastung bei Blackwell vs. Ada ableiten?
Kriegsgeier
2025-01-24, 14:42:58
es gibt noch eine Unbekannte: sollte die RTX 5080 noch krasser enttäuschen als die 5090, dann werden sich noch mehr Leute um die 5090ger schlagen: dann gibt es Blut auf der Straße ;)
PS: so, in 20 min will keiner mehr eine 5090Fe!
dildo4u
2025-01-24, 14:45:12
es gibt noch eine Unbekannte: sollte die RTX 5080 noch krasser enttäuschen als die 5090, dann werden sich noch mehr Leute um die 5090ger schlagen: dann gibt es Blut auf der Straße
PS: so, in 20 min will keiner mehr eine 5090Fe!
5080 bringt mehr als die Hälfte der Performance daher stimmt diesmal Preis/Performance.
basix
2025-01-24, 14:47:58
es gibt noch eine Unbekannte: sollte die RTX 5080 noch krasser enttäuschen als die 5090 [...]
Momentan geht es in Richtung +15% Performance für 5080 vs. 4080.
Und bei der 5070 wird es noch schlimmer sein ;)
Kriegsgeier
2025-01-24, 14:48:25
Das Problem bei der Performance ist, dass diese schon seit über 2 Jahren auf dem Markt kaufbar ist!
aufkrawall
2025-01-24, 14:48:34
Und bei der 5070 wird es noch schlimmer sein ;)
Ist ggf. noch stärker hochgeprügelt?
mksn7
2025-01-24, 14:49:18
mksn7 hat das mal durch selbst programmierte Dinge vermessen und kommentiert. Ist schon eine Weile her. IIRC sind es schon echte 128 FPUs im Ampere SM aber nicht genug Schedulerports. Bei RDNA3 ging der volle Durchsatz nur in wave64 ohne Restriktionen.
Ggf kann mksn7 das nochmal kommentieren.
Der Scheduler Durchsatz langt aus. Die NVIDIA SMs haben seit Volta genug Durchsatz (0.5 instr/cycle pro Port) um zwei ports auszulasten.
Was die beiden ports können hat sich nur immer weiter erweitert, von einem port jeweils für FP32 oder Int zu zwei ports die beides können.
Die Registerbandbreite ist allerdings limitiert. Die nützlichste FP32 instruction ist halt ein FFMA (a = b*c + d), die hat drei Operanden als input und einen output. Um auf beiden ports ein FFMA zu rechnen bräuchte es sechs inputs und zwei outputs, und soviel gibt das register file nicht her. Wenn jetzt beide FFMA's ein gleiches Register verwenden, dann kann das beim zweiten mal aus dem register cache (ein oder zwei Werte pro Operand) kommen, dann gehen auch zwei FFMAs. Zwei FADD oder zwei FMUL müssten auch gehen. Ob jetzt ein FFMA und ein FADD zusammen gehen weiß ich nicht mehr.
robbitop
2025-01-24, 14:53:08
Also fehlt zu einer Pascal-artigen Auslastung des 128er SMs nur mehr Registerbandbreite?
Also kann man schon sagen, dass AMDs VOPD / dual issue etwas restriktierter ist verglichen mit einem Ampere SM?
basix
2025-01-24, 14:54:28
Ist ggf. noch stärker hochgeprügelt?
Naja, auch wenn du +10% verglichen zu einer 5080 hochprügelst sind es immer noch 48 SM vs. 48 SM.
- 5090 = 1.33x SM + 1.33x SI-Breite & L2$
- 5080 = 1.11x SM + 1.00x SI-Breite & L2$
- 5070 Ti = 1.17x SM + 1.33x SI-Breite + vermutlich 1.00x L2$
- 5070 = 1.00x SM + 1.00x SI-Breite + vermutlich 1.33x L2$
Zumindest ist es nach aktuellem Stand sehr unwahrscheinlich, das Blackwell so ein Taktwunder ist. Eine 4070S zu erreichen könnte klappen aber darüber hinaus sehe ich als schwierig an.
Kriegsgeier
2025-01-24, 14:57:42
So, noch 2 minuten!!!!!
dargo
2025-01-24, 15:01:20
Momentan geht es in Richtung +15% Performance für 5080 vs. 4080.
Bitte mit 4080S vergleichen, auch wenn 4080 vs. 4080S mickrig ist. Alles andere macht keinen Sinn, insbesondere dann auch wenn man sich die aktuellen Straßenpreise ansieht.
mksn7
2025-01-24, 15:06:45
Also fehlt zu einer Pascal-artigen Auslastung des 128er SMs nur mehr Registerbandbreite?
Also kann man schon sagen, dass AMDs VOPD / dual issue etwas restriktierter ist verglichen mit einem Ampere SM?
Maxwell hatte, wenn ich mich richtig erinnere:
4x Scheduler mit je zwei ports, und dual issue scheduler. Ein port für FP32 und einen für den Rest. Die execution units hinter dem port waren aber 32x breit, statt wie heute 16x. Jeder der vier scheduler konnte also jeden Takt eine 32x breite FP32 instruction absetzen.
Das ist heute auch so, auch wenn es statt einem FP32 port mit 32x jetzt zwei ports mit 16x gibt.
Der große Unterschied: Zusätzlich konnte auf dem zweiten Port noch irgendwas anderes passieren, wie int, load/store, branch...
Das geht heute nicht, eine load/store instruction ist eine verpasste FP32 instruction.
Pascal hat die SMs glaub ich effektiv halbiert (und dafür doppelt soviele verbaut). Deswegen sind die Maxwell SMs eher nicht der gute Vergleichspunkt, da hat NVIDIA einfach die Granularität geändert. Also zwei dual-issue scheduler mit 2x32 breite FP32 pro Takt + irgendwas anderes. Volta hatte dann vier single-issue scheduler für 4x16 pro Takt plus irgendwas anderes.
Pascal konnte seine 64 FP32 also sehr gut auslasten (es gibt ja noch einen zweiten issue port für alles andere) aber hat nur den halben maximalen Durchsatz ggb. Hopper/Ada/Blackwell.
Also die Vergangenheit sieht nur dann rosiger aus, wenn man bedenkt dass eine SM damals relativ gesehen größer war.
Aber: VOPD ist definitiv wesentlich restriktiver als das was NVIDIA macht. Die VOPD Befehle sind flexibler als SIMD2/packed math, aber kein dual-issue. Und NVIDIA's register cache funktioniert schon in vielen Fällen sehr gut, und ist nicht das primäre Hindernis warum kein Faktor 2x rumkommt.
horn 12
2025-01-24, 15:10:34
MSI ca. 2 bis 3% schneller, dafür 2800 Euro
und doch Voll Leise @Silent ,- oder angenehm Leise bei Last und ca. 37 dba
Laut igor´s lab
mksn7
2025-01-24, 15:12:10
Im Übrigen finde ich auch dass NVIDIA seit Volta quasi nichts* mehr geändert hat an ihren SMs. Da waren sie vorher experimentierfreudiger.
Das Konstrukt mit 4x single issue scheduler plus zwei 16x ports ist gleich geblieben, und der L1 cache/shared memory ist auch identisch (mit Variationen in der Kapazität)
* hier ignoriere ich großzügig alles was mit tensor cores, raytracing, uniform instructions, und den genauen execution units hinter den cores zu tun hat
robbitop
2025-01-24, 15:18:53
Maxwell hatte, wenn ich mich richtig erinnere:
4x Scheduler mit je zwei ports, und dual issue scheduler. Ein port für FP32 und einen für den Rest. Die execution units hinter dem port waren aber 32x breit, statt wie heute 16x. Jeder der vier scheduler konnte also jeden Takt eine 32x breite FP32 instruction absetzen.
Das ist heute auch so, auch wenn es statt einem FP32 port mit 32x jetzt zwei ports mit 16x gibt.
Der große Unterschied: Zusätzlich konnte auf dem zweiten Port noch irgendwas anderes passieren, wie int, load/store, branch...
Das geht heute nicht, eine load/store instruction ist eine verpasste FP32 instruction.
Pascal hat die SMs glaub ich effektiv halbiert (und dafür doppelt soviele verbaut). Deswegen sind die Maxwell SMs eher nicht der gute Vergleichspunkt, da hat NVIDIA einfach die Granularität geändert. Also zwei dual-issue scheduler mit 2x32 breite FP32 pro Takt + irgendwas anderes. Volta hatte dann vier single-issue scheduler für 4x16 pro Takt plus irgendwas anderes.
Pascal konnte seine 64 FP32 also sehr gut auslasten (es gibt ja noch einen zweiten issue port für alles andere) aber hat nur den halben maximalen Durchsatz ggb. Hopper/Ada/Blackwell.
Also die Vergangenheit sieht nur dann rosiger aus, wenn man bedenkt dass eine SM damals relativ gesehen größer war.
Aber: VOPD ist definitiv wesentlich restriktiver als das was NVIDIA macht. Die VOPD Befehle sind flexibler als SIMD2/packed math, aber kein dual-issue. Und NVIDIA's register cache funktioniert schon in vielen Fällen sehr gut, und ist nicht das primäre Hindernis warum kein Faktor 2x rumkommt.
Bringst du da nicht ein paar Architekturnamen durcheinander? :)
Kepler SM hatte 192 FPUs
Maxwell/Pascal SM hatten 128 FPUs die auch INT konnten.
Volta und Turing hatten 64 FPUs und 64 INT - dafür aber mehr SMs dann in den jeweiligen SKUs
Ampere/Ada hatten wieder 128 FPUs wobei die Hälfte von denen auch INT konnten*
Blackwell hat wieder 128 FPUs die auch INT können
*(man brachte hier die 128 FPs von Pascal wieder zurück - hier meine Erinnerung: damals hattest du Ampere vs Pascal meine ich vermessen und hast bei Pascal in jedem Fall den vollen Durchsatz hinbekommen und bei Ampere nur den Halben und musstest rumdoktern mit Abhängigkeiten um den zu erreichen)
also limitiert Registerbandbreite und Schedulerports (für die L/S Operationen) Ampere ggü Pascal's 128er SM (und auch Maxwell)? :)
robbitop
2025-01-24, 15:24:13
AMD ist hier ganz einfach ehrlicher. Es sind Dual-Issue-Pfade, sowohl bei AMD als auch bei Nvidia. Was da angeblich mehr limitiert sein soll, dazu fehlen die technischen Details, das ist bestenfalls Speku.
There you go:
Aber: VOPD ist definitiv wesentlich restriktiver als das was NVIDIA macht. Die VOPD Befehle sind flexibler als SIMD2/packed math, aber kein dual-issue. Und NVIDIA's register cache funktioniert schon in vielen Fällen sehr gut, und ist nicht das primäre Hindernis warum kein Faktor 2x rumkommt.
mksn7
2025-01-24, 15:49:13
Bringst du da nicht ein paar Architekturnamen durcheinander? :)
Ja vermutlich schon... Ist alles schon lange her...
Kepler SM hatte 192 FPUs
Maxwell/Pascal SM hatten 128 FPUs die auch INT konnten.
genau, weil Keplers seltsame extra 64 FP32 units gestrichen wurde. Also 4 dual issue scheduler mit je einer 32x FP/Int units. Stimmt, Load/store und SFU usw gingen auf den zweiten Port, und haben keine FP32 issues verbraucht, aber nicht Int, das hat die gleichen units belegt. Der zweite Issue port war vermutlich nicht so arg belegt.
Volta und Turing hatten 4 single issue scheduler mit je einer 16x FP32 und einer 16x Int unit. Das war effektiv eine Halbierung der SMs, aber weil Int jetzt auf dem anderen port ist, konnte jetzt Int und FP32 units gleichzeitig benutzt werden.
Blackwell mit 128 FP32 ist nicht gleich Pascal mit 128 FP32, weil bei Pascal waren die scheduler dual issue. Ah ok, dann ist deine Aussage vom Anfang, es fehlt an scheduler ressourcen, eigentlich schon richtig.
Wenn bei Pascal separate Int units auf dem zweiten Port gehabt hätte, dann wäre es die Architektur mit der besten und flexibelsten Auslastung. Der Preis geht an Volta/Turing, aber da sinds halt auch nur halb soviele Einheiten.
Ampere vs Pascal
Ich glaube ich hatte damals HPC Ampere (A100) mit consumer Ampere (A40) verglichen. HPC Ampere war eine halbe Architekturstufe hinterher, der hatte noch keine INT/FP32 combo units. Die A40 hatte nur für manche Registerkombinationen einen höheren Durchsatz /cycle/SM
also limitiert Registerbandbreite und Schedulerports (für die L/S Operationen) Ampere ggü Pascal's 128er SM (und auch Maxwell)? :)
Nach viel Verwirrung und Rumgerede: Ja, kann man so sagen.
Sardaukar.nsn
2025-01-24, 16:00:03
MSI ca. 2 bis 3% schneller, dafür 2800 Euro
und doch Voll Leise @Silent ,- oder angenehm Leise bei Last und ca. 37 dba
Laut igor´s lab
HWLuxx mit der MSI Inkl. AIO Wasserkühlung. 5-8% über der FE. Auch jetzt sehr sparsam im idle, kein Spulenfiepen. Alles top, halt nur teuer. https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65383-k%C3%BChler,-leiser-und-auch-schneller-die-msi-geforce-rtx-5090-32g-suprim-liquid-soc-im-test.html?start=7
Ravenhearth
2025-01-24, 16:06:52
Erster Blender Benchmark: GeForce RTX 5080 schlägt Vorgänger nur um 9 Prozent (https://www.computerbase.de/news/grafikkarten/erster-blender-benchmark-geforce-rtx-5080-schlaegt-vorgaenger-nur-um-9-prozent.91151/)
prinz_valium_2
2025-01-24, 16:48:56
Erster Blender Benchmark: GeForce RTX 5080 schlägt Vorgänger nur um 9 Prozent (https://www.computerbase.de/news/grafikkarten/erster-blender-benchmark-geforce-rtx-5080-schlaegt-vorgaenger-nur-um-9-prozent.91151/)
RTX5090 schlägt den Vorgänger um 36% in dem Benchmark und kommt im Schnitt bei Games auf ein Performance Rating von 15 bis 25% laut CB. Was ich von anderen Test gesehen habe, läuft es bei denen ähnlich. Habe aber noch keinen Aggregator gefunden.
Damit wird die 5080 wohl 3 bis 5% schneller als eine RTX 4080 Super über einen breiten Games Parcours
Badesalz
2025-01-24, 16:57:55
Damit wird die 5080 wohl 3 bis 5% schneller als eine RTX 4080 Super über einen breiten Games ParcoursMit DLSS4 dafür um bis zu 300% :usweet:
monstar-x
2025-01-24, 17:46:37
Momentan geht es in Richtung +15% Performance für 5080 vs. 4080.
Und bei der 5070 wird es noch schlimmer sein ;)
Nicht im ersten geleakten Benchmark mit Blender, da sind es gerade mal 9 und das wohlgemerkt zur alten 4080, nicht der Super.
Eigentlich müsste die Karte dank GDDR7 gut abgehen, doch ihr fehlt die Power.
15% sehe ich da nicht. Eher 7-8% im Durchschnitt.
Nvidia weis schon wieso sie 4x Fake-Frames per Software freigegeben haben, und die Benchmark-Balken mit MFG sind;D
Blackwell ist naja ... :freak:
monstar-x
2025-01-24, 18:01:41
Mit DLSS4 dafür um bis zu 300% :usweet:
Mit 20x LossLess-Scaling sogar jetzt schon 1500%, halt Moment mal
das bedeutet doch, GTX 970* / 4090 Performance
Ah, da ist ja der passende Nvidia Slide :-)
https://i.postimg.cc/R0cmHgMZ/GTX970.jpg
DrFreaK666
2025-01-24, 18:05:20
NVIDIA’s GeForce RTX 5090 Starts To See “Scalper Listings” Surface Up; Prices Going As High As $7,000
https://wccftech.com/nvidia-geforce-rtx-5090-starts-to-see-scalper-listings-surface-up/
HWLuxx mit der MSI Inkl. AIO Wasserkühlung. 5-8% über der FE. Auch jetzt sehr sparsam im idle, kein Spulenfiepen. Alles top, halt nur teuer. https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65383-k%C3%BChler,-leiser-und-auch-schneller-die-msi-geforce-rtx-5090-32g-suprim-liquid-soc-im-test.html?start=7
Es gibt keine High-End-Grafikkarte ohne Spulenfiepen.
MfG
Raff
Linmoum
2025-01-24, 22:38:28
Kommt auf deine Ohren an. :biggrin:
Relex
2025-01-24, 22:43:15
Bei meiner 4080 hat das Spulenfiepen mit der Zeit extrem (!) abgenommen.
Am Anfang war es gerade so akzeptabel und ich hab es sogar im Firefox gehört, wenn YouTube offen war. Nach einigen Wochen war das kaum noch zu hören und in Firefox war dann auch Ruhe.
Bisschen Glück spielt also auf jeden Fall mit.
Wenn man mit dem Ohr ran geht hört man es natürlich weiterhin. Aber die Lautstärke ist ja das entscheidende.
monstar-x
2025-01-24, 23:30:59
Bei meiner 4080 hat das Spulenfiepen mit der Zeit extrem (!) abgenommen.
Am Anfang war es gerade so akzeptabel und ich hab es sogar im Firefox gehört, wenn YouTube offen war. Nach einigen Wochen war das kaum noch zu hören und in Firefox war dann auch Ruhe.
Bisschen Glück spielt also auf jeden Fall mit.
Wenn man mit dem Ohr ran geht hört man es natürlich weiterhin. Aber die Lautstärke ist ja das entscheidende.
Oder du bist 2 Jahre älter und hörst nicht mehr so gut :biggrin:
Werden wir nie heraus finden :rolleyes:
Relex
2025-01-24, 23:55:27
Es hat nur ein paar Wochen gedauert und der Ton war nicht hoch. War mehr Spulenrasseln statt fiepen.
dargo
2025-01-25, 07:10:16
Es gibt keine High-End-Grafikkarte ohne Spulenfiepen.
Also ist ne RTX 5090 doch nur wieder ein Trabant? Den hatte man auch immer gehört. :D
@Raff
Du hast ja schon viele Tests hinter dir... wird das Spulenfiepen/rasseln jetzt schlimmer mit MFG oder nicht wenn die Frames deutlich nach oben gehen im Vergleich zur Baseline unter 100fps und über 60fps?
Sardaukar.nsn
2025-01-25, 08:17:58
@Raff: Hast natürlich recht, aber im Alltag mit max. 120hz/fps war das bei meiner Asus TUF überhaupt kein Thema. Obwohl das Modell ja bekannt ist für Geräusche. Also mal sehen was Blackwell da so bringt.
Undervolting bzw. reduziertes Powerlimit scheint auch wieder ein Thema zu werden.
https://i.imgur.com/CGb9rkv.jpeg
ChaosTM
2025-01-25, 08:34:13
Da es ja angeblich eine 4090ti sein soll verwundert das nicht. Nicht meine Worte...
der8auer hat sich dem auch schon angenommen*. Sweetspot dürfte irgendwo um die 400 450 Watt liegen.
*Holzhammer via PT
woodsdog
2025-01-25, 08:57:46
Oder du bist 2 Jahre älter und hörst nicht mehr so gut :biggrin:
Werden wir nie heraus finden :rolleyes:
Bei meiner MSI 3090 hab ich das reproduzierbar. Wenn die mal 3-4 Wochen nicht im Einsatz war wegen Job/Wetter gut oder als Ersatzkarte im Schrank hat sie JEDES Mal für ein paar Stunden laut gesungen. Nach 4-5 Stunden ists dann wieder auf ein gutes Maß abgesunken, nach 2-3 Tagen Abends was spielen ists praktisch weg und aus 2m vom Gehäuse entfernt nicht mehr neben dem allgemeinen Lüfterrauschen zu hören.
Die Zotac 4090 im selben PC/Gehäuse hat dauerhaft gesungen, da ists nicht weg gegangen.
Badesalz
2025-01-25, 09:14:33
Die "After-Boomer, before GenZ" haben die Spulen immer mit nach der Aushärtung noch gummiartigen Heißkleber zugegossen.
Sind Temperaturen bei diese Spulen mittlerweile auch ein Thema und daher spricht keiner mehr davon? Oder ist das so eine Art verloren gegangenes Wissen?
Kriegsgeier
2025-01-25, 09:32:02
GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark
5090Fe @ 450Watt ist DIE LÖSUNG! WAHNSINN!
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/
Adam D.
2025-01-25, 09:57:12
GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark
5090Fe @ 450Watt ist DIE LÖSUNG! WAHNSINN!
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/
"So klar auf der Hand wie bei der RTX 4090 liegt die Entscheidung zum Absenken der TDP bei der RTX 5090 also nicht."
WAHNSINN!
Monsta
2025-01-25, 10:06:51
GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark
5090Fe @ 450Watt ist DIE LÖSUNG! WAHNSINN!
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/
Ja absoluter Wahnsinn, dann noch gigantische 17% mehr Leistung bei gleicher TDP wie die 4090.
Da ist doch irgendwas schief gelaufen, das ist der selbe Fail wie von RDNA2 auf 3. Irgendwas klemmt da, so viel mehr Transistoren und Bandbreite.
Für Leute die keinen 240Hz Monitor haben ist die Gen total sinnfrei. Sofern man eine 40er Gpu hat.
dildo4u
2025-01-25, 10:09:01
Der Fertigungs Sprung von 7 auf 5nm bei RDNA3 ist deutlich größer als Lovelace zu Blackwell.
AMD 9700XT soll angeblich auch 300 Watt nehmen und wie eine 4080 performen das sind die derzeitigen Limits mit TSMC N4P.
Skaliert hier Ziemlich Linear das ist Lumen kein Full RT.
4080 320 5090 575
https://i.ibb.co/chZt8rM/Screenshot-2025-01-25-101953.png (https://imgbb.com/)
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/11.html
MiamiNice
2025-01-25, 10:17:36
GeForce RTX 5090 mit weniger TDP: Leistung mit 575, 450 & 400 W vs. RTX 4090 im Benchmark
5090Fe @ 450Watt ist DIE LÖSUNG! WAHNSINN!
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/
Für 17% würde ich keine 3k auf den Tisch legen. Falsche Richtung für diese Karte. Interessant wäre eher; was die Karte mit einem 2. Stecker und zwischen 800 und 1000 Watt leisten würde.
Zossel
2025-01-25, 10:22:02
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-leistung-weniger-tdp.91156/
Eigentlich wird in dem Setup der Mief unten rechts nur sinnlos verwirbelt, ein Luftleitblech wie im Anhang angedeutet sollte da einiges verbessern.
Die Abwärme von der GPU direkt aus dem Gehäuse blasen wäre besser, aber auch aufwendiger. Schere, Pappe, Tesa, Draht und zwei linke Hände sollten in jedem Haushalt vorhanden sein.
basix
2025-01-25, 10:29:56
Die Abwärme von der GPU direkt aus dem Gehäuse blasen wäre besser, aber auch aufwendiger. Schere, Pappe, Tesa und Draht sollte in jedem Haushalt vorhanden sein.
Karte aufgestellt an einer perforierten Seitenwand wäre da ideal.
Relex
2025-01-25, 10:31:23
Ja absoluter Wahnsinn, dann noch gigantische 17% mehr Leistung bei gleicher TDP wie die 4090.
Da ist doch irgendwas schief gelaufen, das ist der selbe Fail wie von RDNA2 auf 3. Irgendwas klemmt da, so viel mehr Transistoren und Bandbreite.
Für Leute die keinen 240Hz Monitor haben ist die Gen total sinnfrei. Sofern man eine 40er Gpu hat.
Ja warte mal. Hab ich nen Denkfehler? Die 4090 hat eine TDP von 450W. Das ist praktisch das Maximum bzw. der Standardwert (100% PT), den sie aber nur extrem selten braucht.
Die meisten haben die Karte doch auf 350-400W eingedrosselt, weil durch die generell schlechte Auslastung dadurch kein Performanceverlust entsteht. Aber selbst ohne Limit war der durchschnittliche Verbrauch ja viel geringer.
Die 5090 auf 450W einzudrosseln sorgt bereits für einen größeren Leistungsverlust, als wenn man die 4090 entsprechend eindrosselt. Aber eigentlich müsste man das PT ja noch viel weiter drosseln, um überhaupt in den bereich der Vergleichbarkeit zu kommen.
Der Vergleich ist also kompletter Unsinn. Man kann doch nicht sagen, man setzt 450W für die 5090 und behauptet dann, das wäre mit der 4090 vergleichbar. Ist es überhaupt nicht. 350-400W wären es.
Ich rieche hier bisschen copium, riecht ihr das auch? :D
Zossel
2025-01-25, 10:31:39
Karte aufgestellt an einer perforierten Seitenwand wäre da ideal.
Kannste wahrscheinlich bei PCIe5 komplett knicken.
ChaosTM
2025-01-25, 10:38:54
Für 17% würde ich keine 3k auf den Tisch legen. Falsche Richtung für diese Karte. Interessant wäre eher; was die Karte mit einem 2. Stecker und zwischen 800 und 1000 Watt leisten würde.
Eine Titan/Ti ist diesmal wahrscheinlicher als bei ADA.
Basierend auf Sowas (https://www.computerbase.de/news/grafikkarten/rtx-6000-blackwell-nvidia-verschickt-grafikkarten-mit-96-gb-gddr7-speicher.91131/). Aber nicht mit 96GB und vor allem mit einer vernünftigen Kühlung.
#Einen Laubbläser will niemand im System haben
Kommt drauf an, wie viele Chips für potentielle Titanen übrig bleiben.
@ undervolting - muss man ja nicht machen aber bei manchen Spielen verliert man recht wenig und das kann im Sommer durchaus hilfreich sein.
So verlustarm wie bei Ada ist es diesmal leider nicht..
basix
2025-01-25, 10:41:55
Kannste wahrscheinlich bei PCIe5 komplett knicken.
Dann halt normal montieren und die Luft umleiten ;)
Zossel
2025-01-25, 11:07:13
Dann halt normal montieren und die Luft umleiten ;)
Du hast vergessen den CPU-Kühler einzuzeichnen.
basix
2025-01-25, 11:07:50
Kennst du WaKü oder AiO? :)
MiamiNice
2025-01-25, 11:17:14
Wer eine WaKü betreibt, baut keine luftgekühlte GPU ein. Und wer eine CPU Aio hat, kauft keine 5090 FE. :)
robbitop
2025-01-25, 11:36:15
Die AIO Wakü sind aus meiner Sicht ein Witz bzw Sinnlosmodeerscheinung. Die Komponente die die kleinere Leistungsaufnahme hat (100W vs 575W!) wird mit einem 360er Radi gekühlt (und wird dabei nicht mal kühler als mit einem Top Luftkühler von Noctua).
Wenn man etwas wasserkühlen muss, dann doch die GPU. Viel mehr TDP und dabei geringere thermische Leistungsdichte, so dass der thermische Übergangswiderstand zwischen Chip und Kühler kein Flaschenhals ist.
why_me
2025-01-25, 11:44:07
Bei einer 5090 im Rechner kann eine AIO für die CPU schon sinnvoll sein. Aber dann muss sie in die Front und Frischluft saugen.
Die AIO nach oben und mit der aufgeheizten Luft der 5090 kühlen zu wollen, kann man gleich bleiben lassen. Das hat das gleiche Problem wie ein Luftkühler über einer 5090.
Zossel
2025-01-25, 11:45:35
Die AIO Wakü sind aus meiner Sicht ein Witz bzw Sinnlosmodeerscheinung. Die Komponente die die kleinere Leistungsaufnahme hat (100W vs 575W!) wird mit einem 360er Radi gekühlt (und wird dabei nicht mal kühler als mit einem Top Luftkühler von Noctua).
Wenn man etwas wasserkühlung muss, dann doch die GPU. Viel mehr TDP und dabei geringere thermische Leistungsdichte, so dass der thermische Übergangswiderstand zwischen Chip und Kühler kein Flaschenhals ist.
Viel Aufwand kann man immer treiben, mir geht es eher um "Instantly boost your gaming experience with zero money and in 5 minutes!", um das mal youtube-mässig zu formulieren.
ChaosTM
2025-01-25, 11:51:00
Stimmt alles, aber das System ist doch deutlich aufgeräumter als mit einem Noctua. (ich liebe mein Schwarzes Monster im alten System)
Wenn man schon eine AIO drinnen hat, dann hilft das bei der FE sicher.
Einer Version mit Wasserblock/AIO biete sich trotzdem an. Die Speichertemperatur gefällt mir so gar nicht bei der Karte.
robbitop
2025-01-25, 11:51:26
Bei einer 5090 im Rechner kann eine AIO für die CPU schon sinnvoll sein. Aber dann muss sie in die Front und Frischluft saugen.
Die AIO nach oben und mit der aufgeheizten Luft der 5090 kühlen zu wollen, kann man gleich bleiben lassen. Das hat das gleiche Problem wie ein Luftkühler über einer 5090.
Und noch viel mehr Sinn würde es machen die 5090 mit Wasser zu kühlen. Und dann kann man die CPU gleich mit in den loop nehmen.
why_me
2025-01-25, 11:59:56
Keine Frage, und wenn man 3k€ für eine 5090 ausgeben kann, dann sind 500€ extra für eine custom loop auch nicht mehr so viel mehr (relativ gesehen, ist immer noch ein Haufen geld).
Aber es will halt auch nicht jeder eine Custom loop und sich dann darum kümmern müssen.
basix
2025-01-25, 12:20:15
Und wer eine CPU Aio hat, kauft keine 5090 FE. :)
Die AIO Wakü sind aus meiner Sicht ein Witz bzw Sinnlosmodeerscheinung.
Aua! :hammer: :wave2:
Aber es will halt auch nicht jeder eine Custom loop und sich dann darum kümmern müssen.
Danke! :comfort2: :)
Der Vorteil einer AIO liegt bei dicken GPUs auf der Hand: Man hat mehr Platz für Air Flow und kann den Radiator so positionieren, dass die CPU nicht von der GPU mitgeheizt wird. Und wie ChaosTM erwähnt, ist das System aufgeräumter und es ist z.B. einfacher, mal die RAM-Sticks zu ersetzen (da nicht vom Kühler blockiert).
Klar ist ein Custom Loop besser, aber den Aufwand spare ich mir ;)
Bei einer 5090 im Rechner kann eine AIO für die CPU schon sinnvoll sein. Aber dann muss sie in die Front und Frischluft saugen.
Die AIO nach oben und mit der aufgeheizten Luft der 5090 kühlen zu wollen, kann man gleich bleiben lassen. Das hat das gleiche Problem wie ein Luftkühler über einer 5090.
Korrekt ;)
Relex
2025-01-25, 12:39:11
Und ne sparsamere GPU zu kaufen bleibt am Ende immernoch die sinnvollste Lösung :tongue:
Quasi das Problem an der Wurzel gepackt :biggrin:
... ok bin ja schon still.
aufkrawall
2025-01-25, 12:43:13
Oder man ist nicht so eine Pussy und lässt das Ding eben offen. Dass Schließen irgendetwas so wegdämmen könnte, dass es akustisch nicht mehr nervt, ist ein Mythos.
Und jetzt bitte nicht mit Staub kommen. Ehe der ernsthaft Probleme macht, ist die Hardware schon wieder veraltet. Mal abgesehen davon, dass kurz Handstaubsauger drüber nur ein paar Sekunden dauert.
Sardaukar.nsn
2025-01-25, 12:50:08
Keine Frage, und wenn man 3k€ für eine 5090 ausgeben kann, dann sind 500€ extra für eine custom loop auch nicht mehr so viel mehr (relativ gesehen, ist immer noch ein Haufen geld).
Aber es will halt auch nicht jeder eine Custom loop und sich dann darum kümmern müssen.
Wobei ich finde das es durch die Verbreitung von den Distro Plates recht einfach und selbsterklärend geworden ist. Die meisten Teile in der Wasserkühlung sind auch sehr langlebig und können für viele Generationen CPUs und GPUs genutzt werden.
basix
2025-01-25, 12:54:00
Sieht gut aus :up:
Und ne sparsamere GPU zu kaufen bleibt am Ende immernoch die sinnvollste Lösung :tongue:
Quasi das Problem an der Wurzel gepackt :biggrin:
Hey, würde ich ja gerne machen. Nur säuft die 5090 wie sau und keine Effizienzsteigerung zur 4090 in Sicht ;D
Ob ich die 5090 kaufe steht noch in den Sternen. Mehr wie die 4090 sollte meine GPU nämlich nicht verbrauchen, da mein System mit den UV 300W am Limit ist (400W GPUs gibt es erst seit kurzem und Systemupgrade geschieht erst mit Zen 6).
Die 5090 macht es mir momentan relativ einfach Nein zu sagen, da verglichen zur 4090 einfach kein grosser Sprung und eben extrem hoher Verbrauch. Vorher waren es mit 980 Ti -> 2080 Ti -> 4090 sehr grosse Sprünge. Allenfalls wird halt wieder eine Generation ausgelassen, in meinem Alter kann man auch mal vernünftig sein ;)
Aber mal schauen. Wenn man die 5090 auf 0.80V inkl. 3D Betrieb undervolten kann, kommt man verbrauchsmässig evtl. nahe an die 4090 ran (min. 0.88V). Dann wäre da noch das Thema 4K/240Hz mit 8K DSR und DSC. Könnte bei Blackwell aufgrund DP 2.1 funktionieren. Sind aber alles mimimi Problemchen, nichts was bei der 4090 so wirklich weh tut.
mironicus
2025-01-25, 12:55:45
Welcher CPU-Kühler für 9800X3D eignet sich am besten, damit die 5090FE sie nicht so aufheizt? Vielleicht kein Towerkühler, der direkt die heiße Luft der 5090 FE aufnimmt, sondern ein niedriger Topblower-Kühler? Der dürfte die heiße Luft der 5090 verwirbeln.
basix
2025-01-25, 12:56:38
Am besten? Externer MoRa ;):D
monstar-x
2025-01-25, 13:06:19
Wer eine WaKü betreibt, baut keine luftgekühlte GPU ein. Und wer eine CPU Aio hat, kauft keine 5090 FE. :)
Häää, Was, Wie?
Ich habe eine 280er AIO und eine 4090 in meinem SFF.
Für Custom ist kein Platz und Luftgekühlte CPU kommt nicht in Frage.
5090 kaufe ich nur nicht weil mir die 30% zu wenig sind, 6090 incomming.
Wäre die 5090 >50% schneller hätte ich es mir gekauft.
Also stimmt deine Aussage schon mal nicht ;D
Sardaukar.nsn
2025-01-25, 13:07:43
Die 5090 macht es mir momentan relativ einfach Nein zu sagen, da verglichen zur 4090 einfach kein grosser Sprung und eben extrem hoher Verbrauch. Vorher waren es mit 980 Ti -> 2080 Ti -> 4090 sehr grosse Sprünge. Allenfalls wird halt wieder eine Generation ausgelassen, in meinem Alter kann man auch mal vernünftig sein ;)
Kann ich gut verstehen. Ich hatte seinerzeit die 2080 Ti ausgelassen weil mir der Sprung von der 1080 Ti zu klein war und ich auch nicht so richtig an dieses RTX geglaubt habe. Im Nachhinein ist die 2080 Ti dann auch dank DLSS Weiterentwicklung doch ganz gut gealtert.
CB hat in Ihrer Datenbank jetzt auch die 5090 drin. 4K Raster Leistung im Vergleich sieht man die Sprünge. Auf Blackwell schon am geringsten.
Grob +50-70% auf das Topmodell der Vorgänger Generation.
980ti +66% = 1080ti
1080ti +56% = 2080ti
2080ti +73% = 3090ti
3090ti +64% = 4090
4090 +50% = 5090
Source: https://www.computerbase.de/artikel/grafikkarten/3dmark-steel-nomad-benchmark.88643/
Was aktuell in den Spielen ankommt... wobei die +50% auch so theoretisch das Maximum sind.
Tegenarian
2025-01-25, 13:09:58
Blender-Ergebnis der 5080. Blender Open Data (https://opendata.blender.org/benchmarks/query/?compute_type=OPTIX&compute_type=CUDA&compute_type=HIP&compute_type=METAL&compute_type=ONEAPI&group_by=device_name&blender_version=4.3.0)
Zweiter Test liegt vor; ändert nichts an der schwachen Leistungssteigerung.
basix
2025-01-25, 13:10:31
@Sardaukar.nsn
Steel Nomad ist sogar Best Case für Blackwell. In Games sind es eher ~30...35% in nativ 4K. Mit DLSS-Q/P (was für viele Spiele nötig ist) nimmt es noch mehr ab.
Ich hatte die 1080 Ti damals nicht gekauft weil, jetzt kommts, ich das für zu teuer empfunden habe :D Ist immer eine Frage, ob man die Performance benötigt und wie lange es bis zum nächsten GPU Release dauert.
Mit der 2080 Ti hatte ich alles richtig gemacht. Hätte sie aber auch nicht gekauft, hätte ich eine 1080 Ti gehabt. Ampere war mir zu teuer, Speicherregression (10GB 3080) und keine erhöhte Energieeffizienz.
Blackwell fühlt sich irgendwie wie Ampere an. Einfach nochmals etwas schlechter :D
Mit der 4090 hatte ich sogar mehr Spass als mit der 2080 Ti. Von 1440p auf 4K gewechselt, nirgends Speicherlimitationen, lokal DNN (z.B. Stable Diffusion) ausgeführt, RT und PT in immer mehr Games und ebenso DLSS2/3 mit weiter Verbreitung.
whetstone
2025-01-25, 13:15:53
CB hat in Ihrer Datenbank jetzt auch die 5090 drin. 4K Raster Leistung im Vergleich sieht man die Sprünge. Auf Blackwell schon am geringsten.
Wenn man in 1080p die 780TI noch reinnehmen würde, wäre die am schlechtesten vom Zuwachs her. Gabs also irgendwie schonmal.
rentex
2025-01-25, 13:16:59
@Sardaukar.nsn
Steel Nomad ist sogar Best Case für Blackwell. In Games sind es eher ~30...35% in nativ 4K. Mit DLSS-Q/P (was für viele Spiele nötig ist) nimmt es noch mehr ab.
Ich hatte die 1080 Ti damals nicht gekauft weil, jetzt kommts, ich das für zu teuer empfunden habe :D Ist immer eine Frage, ob man die Performance benötigt und wie lange es bis zum nächsten GPU Release dauert.
Mit der 2080 Ti hatte ich alles richtig gemacht. Hätte sie aber auch nicht gekauft, hätte ich eine 1080 Ti gehabt. Ampere war mir zu teuer, Speicherregression (10GB 3080) und keine erhöhte Energieeffizienz.
Blackwell fühlt sich irgendwie wie Ampere an. Einfach nochmals etwas schlechter :D
Was habe ich gesagt? Ampere 2.0! Im Grunde noch schlechter.
basix
2025-01-25, 13:19:31
Die 3090 war 1.45x schneller bei 1.1x Effizienz, deutlich erhöhte Anwendungsleistung aufgrund doppelten FP32-Units (Blender etc.), 24GB vs. 11GB
Die 5090 ist ~1.3x schneller bei 1.0x Effizienz, marginal bessere Anwendungsleistung ausserhalb von FP4, 32GB vs. 24GB
Klarer Fall ;)
ChaosTM
2025-01-25, 13:31:20
Mv_1idWO5hk
Endlich!!
Sardaukar.nsn
2025-01-25, 13:34:31
Was habe ich gesagt? Ampere 2.0! Im Grunde noch schlechter.
Die Frage ist halt ob in Zukunft wieder so große Sprünge in der Raster-Leistung möglich sind, oder die Leistungssteigerung eher in der KI zu finden sind.
Immerhin bei den Chinesen lag noch etwa 10% im OC mit 3,1Ghz und +2000mhz auf den DDR7. Das Video hat auch Untertitel...
xn5ftuqbA2g
basix
2025-01-25, 13:52:02
GB202 Die Shots:
https://wccftech.com/nvidia-blackwell-gb202-gpu-gddr7-die-shots-asus-geforce-rtx-5090-astral-overclock-3-4-ghz-ln2-consumes-1000w/
Vergleich GB202 vs. AD102:
https://youtu.be/wAHLXC8-vcM?t=180
Geekerwan mit den selben Bildern, ein paar Erklärungen und englischen Untertiteln ;)
https://youtu.be/xn5ftuqbA2g?t=185
monstar-x
2025-01-25, 14:44:59
Sehr gutes Video und das Fazit, erklärt MFG in 5 Minuten, wo macht es Sinn und wer braucht es.
B_fGlVqKs1k
Troyan
2025-01-25, 15:03:12
Ja, vertrauen wir einen nVidia hassenden Channel. Das hat ja so super in der Vergangenheit funktioniert. Ich meine, die AMD Leute mit einer 5700 leben gerade im Paradies, RDNA2 Kunden dürfen in 720p zocken und RDNA3 Leute müssen bangen FSR 4 zu bekommen.
Lmao. Ich würde mal sagen: Wenn AMDunboxed etwas schlecht findet, ist es gut. Immer das Gegenteil vom Gesicht auf dem Thumbnail machen.
dildo4u
2025-01-25, 15:05:12
Ist doch egal was seine Meinung ist er hat die Artefakte festgehalten.
Eins der besten Video zum Thema bisher wird Interessant ob Digital Foundry die auch aufzeigt.
dargo
2025-01-25, 15:08:59
Sehr gutes Video und das Fazit, erklärt MFG in 5 Minuten, wo macht es Sinn und wer braucht es.
https://youtu.be/B_fGlVqKs1k
Danke... endlich ein Reviewer ohne rosarote Brille. :up: "Lustig" finde ich vor allem wenn man dann Ingame diverse Fuckups entdeckt und sich denkt was die DEVs da wieder verkackt haben und am Ende es doch an FG lag. :freak:
Edit:
Bin gespannt ob die Latenzen bei den kleineren GPUs prozentual noch stärker mit FG ansteigen. Normalerweise müsste das der Fall bei weniger vorhandenen Hardware sein.
Troyan
2025-01-25, 15:10:25
Er fakt es, so wie er es auch beim Raytracing Video gemacht hat. Real ist die Wahrnehmung komplett anders. Mal davon abgesehen, dass es unlogisch ist 120 FPS und 30 FPS -> 120 FPS zu vergleichen, weil man ja zweites dann nicht verwendet.
Du musst also entweder 15 FPS gegen 60 FPS oder 30 FPS gegen 120 FPS in einem entsprechenden 60/120 FPS Video vergleichen.
dildo4u
2025-01-25, 15:15:41
Das Video zeigt warum es klug ist Cyberpunk zu erst zu patchen das hat wenig Vegetation daher ist der Eindruck von Framegen hier am besten.
Troyan
2025-01-25, 15:19:37
Das Video zeigt warum es klug ist Cyberpunk zu erst zu patchen das hat wenig Vegetation daher ist der Eindruck von Framegen hier am besten.
Hä? Was hat Vegetation mit FG zu tun? Cyberpunk hat haufenweise transparente Effekte. Auch dort wird FG und MFG Federn lassen.
dildo4u
2025-01-25, 15:23:38
Die meisten Artefakte fallen in Hogwarts im Wald auf in dem es hohes Grass gibt.
Cyberpunk spielt in einer Wüste mit entsprechend dünneren Vegetation.
Zossel
2025-01-25, 15:27:37
Der Vorteil einer AIO liegt bei dicken GPUs auf der Hand: Man hat mehr Platz für Air Flow und kann den Radiator so positionieren, dass die CPU nicht von der GPU mitgeheizt wird.
Jedenfalls so lange man die die Abwärme der GPU durch den Radiator pustet.
Aber wer macht das schon anders?
monstar-x
2025-01-25, 15:40:30
Er fakt es, so wie er es auch beim Raytracing Video gemacht hat. Real ist die Wahrnehmung komplett anders. Mal davon abgesehen, dass es unlogisch ist 120 FPS und 30 FPS -> 120 FPS zu vergleichen, weil man ja zweites dann nicht verwendet.
Du musst also entweder 15 FPS gegen 60 FPS oder 30 FPS gegen 120 FPS in einem entsprechenden 60/120 FPS Video vergleichen.
Das sind die MFG-Vorgaben von Nvidia, sagt er doch ganz am Anfang des Videos!
Wenn Nvidia das so vorgibt, dann hat sich Nvidia dabei schon etwas gedacht, aber wie immer gilt in Foren: Wenn du es besser weißt, kannst du dich gerne bei Nvidia bewerben oder ein besseres, fachkundigeres Video auf YouTube hochstellen.
Immer wieder erhellend, wie viele Experten mit abgeschlossenem Master in Ingenieurwissenschaften in Foren unterwegs sind, die alles besser wissen als der Hersteller oder anerkannte "Youtuber", die das seit 10 Jahren machen.
Frage mich wieso wir Fachkräfte Mangel haben bei so vielen Experten
basix
2025-01-25, 15:44:57
GB202 Die Shot in höherer Auflösung:
https://x.com/Kurnalsalts/status/1883153126011892140
Joies
2025-01-25, 16:07:28
Sehr gutes Video und das Fazit, erklärt MFG in 5 Minuten, wo macht es Sinn und wer braucht es.
https://youtu.be/B_fGlVqKs1k
Sehr gutes Video, danke fürs sharen:smile:
Troyan
2025-01-25, 16:12:47
Das sind die MFG-Vorgaben von Nvidia, sagt er doch ganz am Anfang des Videos!
Wenn Nvidia das so vorgibt, dann hat sich Nvidia dabei schon etwas gedacht, aber wie immer gilt in Foren: Wenn du es besser weißt, kannst du dich gerne bei Nvidia bewerben oder ein besseres, fachkundigeres Video auf YouTube hochstellen.
Immer wieder erhellend, wie viele Experten mit abgeschlossenem Master in Ingenieurwissenschaften in Foren unterwegs sind, die alles besser wissen als der Hersteller oder anerkannte "Youtuber", die das seit 10 Jahren machen.
Frage mich wieso wir Fachkräfte Mangel haben bei so vielen Experten
Youtuber, die keinen Abschluss haben? Ja, erstaunlich. Lmao. Alter Schwede. Wenn der Typ dir erzählt, die Erde wäre eine Scheibe, dann glaubst du das auch, gell?
Kann mich hier noch an Spider-Man erinnern, wo man jeden Furz als Problem dargestellt hat. Wenn man als normaler Mensch dann spielt, fällt es kaum mehr relevant auf, weil so ein Monitor noch zwischen mir und der GPU ist... :eek:
hatten wir das schon:
When taking the geo mean across 60+ benchmarks of CUDA / OptiX / OpenCL / Vulkan Compute, the GeForce RTX 5090 was delivering 1.42x the performance of the GeForce RTX 4090. A very nice generational improvement considering many of the Windows reviews yesterday were talking up around ~1.3x the performance when not dealing with DLSS4 or similar tech. The GeForce RTX 5090 was delivering great GPU compute performance whether you are into CUDA, OpenCL, or Vulkan.
https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux/8
Prinzenrolle
2025-01-25, 16:27:42
Er fakt es, so wie er es auch beim Raytracing Video gemacht hat. Real ist die Wahrnehmung komplett anders.
Was ist das Problem? Das Video ist doch gut. FG ist es auch, aber hat halt seine Artefakte, die bei 30 FPS mit 6% Geschwindigkeit natürlich auch deutlich sichtbar auftreten. Der Sinn war es das zu zeigen. Es ist eine realistische Einordnung. Er sagt nirgends, dass es schlecht ist.
Real ist die Wahrnehmung komplett anders.
Sagt er doch auch.:confused: Er sag direkt, dass das Spielgefühl meistens gut ist und auch die Optik.
Nur gilt es eben auch die Schwächen aufzuzeigen. Dass dir das nicht passt wundert mich nicht.
Auch wundert mich nicht, dass die üblichen Verdächtigen sich auf eine Teilbetrachtung stürzen und alles schlechtreden.
monstar-x
2025-01-25, 16:32:23
Youtuber, die keinen Abschluss haben? Ja, erstaunlich. Lmao. Alter Schwede. Wenn der Typ dir erzählt, die Erde wäre eine Scheibe, dann glaubst du das auch, gell?
Ich enttäusche dich nur ungern, aber Tim von Hardware Unboxed hat ein Studium in Electrical Engineering. Doch was sagt das schon aus, nicht wahr...
Nur weil jemand keinen Abschluss hat, bedeutet das längst nicht, dass er keine Expertise besitzt. Bevor ich mein Informatik Abschluss hatte, hatte ich bereits mit meinen jungen 20 Jahren, viel Erfahrung in der Netzwerktechnik gesammelt. Das lag daran, dass mich das Thema interessierte und ich gerne Bücher wie die von Andrew Tanenbaum las.
In einem leinen Computerladen war ich bereits nach zwei Monaten im Außendienst tätig war, gemeinsam dem Geschäftsführer, der Sachverständiger war, haben wir Probleme analysiert und gelöst und das alles ohne einen formellen Abschluss zu diesem Zeitpunkt. Die Probleme wurden gelöst und Kunden waren zufrieden.
Troyan
2025-01-25, 16:38:53
Was ist das Problem? Das Video ist doch gut. FG ist es auch, aber hat halt seine Artefakte, die bei 30 FPS mit 6% Geschwindigkeit natürlich auch deutlich sichtbar auftreten. Der Sinn war es das zu zeigen. Es ist eine realistische Einordnung. Er sagt nirgends, dass es schlecht ist.
Problem ist, dass 30 FPS am PC mit Maus mit Sample & Hold wohl kaum relevant ist für die Mehrheit der Leute. Wer 30 FPS akzeptiert, wird mit (M)FG im siebten Himmel sein.
Die Artefakte sind auch uninteressant, weil das verschmierte oder stockende 30 FPS deutlich schlechter ist.
Sagt er doch auch.:confused: Er sag direkt, dass das Spielgefühl meistens gut ist und auch die Optik.
Nur gilt es eben auch die Schwächen aufzuzeigen. Dass dir das nicht passt wundert mich nicht.
Auch wundert mich nicht, dass die üblichen Verdächtigen sich auf eine Teilbetrachtung stürzen und alles schlechtreden.
"Er will die Schwächen aufzeigen" sagt doch alles. Who cares? Hat er die Schwächen von 30 FPS auf einem VRR-Monitor ohne LFC ebenfalls aufgezeigt? Was ist die Alternative? Mit V-Sync und double Buffering spielen? Tearing akzeptieren?
Schau mir die Fake-Videos nicht an. Bringt Videos von anderen Kanälen, wo man ggfs. noch neutrale Berichterstattung erwarten kann.
Joies
2025-01-25, 16:46:09
Schau mir die Fake-Videos nicht an.
Wer Fake-FPS bei jeder gelegenheit verteidigen muss, der schaut natürlich keine Fake-Videos.
Kann ich verstehen;D
basix
2025-01-25, 16:52:54
Tim von HWUB zeigt und sagt ziemlich gut, für was FG/MFG nützlich ist und wann es das eben nicht ist. Er sagt ja selbst, dass er FG einsetzt. Nur halt mit gewissen Rahmenbedingungen wie minimale FPS etc. was auch völlig richtig ist. Und er sagt im Video klar und deutlich, dass das reale Erlebnis besser ist als das im YT Video gezeigt, da auf 4K60 limitiert.
Dass der Troyan da wieder stänkert war ja wohl klar. Vielleicht sollte er sich das Video halt doch mal anschauen und zuhören, was der Tim sagt ;) Sonst faked er sich da noch zusammen, was er im Video erzählt...
ChaosTM
2025-01-25, 16:53:40
FG und MFG mit 30fps Basis Bildrate einzusetzen und dann auch noch zu vergleichen ist grundsätzlich hirnrissig. Das kann nur desaströs ausgehen.
(Bis DLSS7 kommt ;) )
basix
2025-01-25, 16:55:27
FG und MFG mit 30fps Basis Bildrate einzusetzen und dann auch noch zu vergleichen ist grundsätzlich hirnrissig. Das kann nur desaströs ausgehen.
Dafür gab es gute Gründe (auch wenn nicht optimal, klar) und selbst Nvidia hat das so empfohlen. Sagt Tim im Video ebenfalls ;)
Und als Klugscheisser: FG x2 wurde mit 60fps Basis genommen. Es wurde jeweils auf 120fps Output "normiert".
ChaosTM
2025-01-25, 16:57:18
Die mit 60 waren voll ok.
basix
2025-01-25, 17:02:05
hatten wir das schon:
https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux/8
Danke.
Es ist auffällig, wie stark das variiert. Von gleichschnell oder bisschen langsamer zu sowas hier: +75%
Troyan
2025-01-25, 17:10:01
FG und MFG mit 30fps Basis Bildrate einzusetzen und dann auch noch zu vergleichen ist grundsätzlich hirnrissig. Das kann nur desaströs ausgehen.
(Bis DLSS7 kommt ;) )
Ist es nicht. 30 FPS mit (M)FG ist natürlich Lichtjahre besser. Nur es spielt ja niemand mit Base-FPS und Maus.
Man muss also schon klar und deutlich kommunizieren, was überhaupt die Nachteile von 30 FPS am PC mit Sample und Hold Display sind, um zu verstehen, wieso (M)FG auch bei 30 FPS Sinn ergeben.
Danke.
Es ist auffällig, wie stark das variiert. Von gleichschnell oder bisschen langsamer zu sowas hier: +75%
Das ist wirklich spannend. Weiß man, welche Ingredienzien darin stecken? Also welcher Workload, Codemix?
MfG
Raff
basix
2025-01-25, 17:12:26
@Troyan:
Das Problem bei 30fps mit MFG ist die Latenz. Die ist mit 30fps schon schrecklich und wird inkl. MFG nochmals viel schlechter. Das die Darstellungs-Smoothness verbessert wird bestreitet ja absolut niemand (abzüglich FG Artefakte). Für Filme ist das nicht so tragisch aber für interaktive Medien wie Spiele eben schon.
w0mbat
2025-01-25, 17:14:46
DLSS ist eigentlich total dumm für die 5090, da man so ihre große Stärke (viel Speicherbandbreite) komplett aushebelt. Man müsste hier mehr nativ testen, also 4K mit ray tracing/path tracing.
ChaosTM
2025-01-25, 17:21:28
DLSS ist eigentlich total dumm für die 5090, da man so ihre große Stärke (viel Speicherbandbreite) komplett aushebelt. Man müsste hier mehr nativ testen, also 4K mit ray tracing/path tracing.
Spiel mal Wukong, AW2 oder 77 in 4k mit RT/PT ohne DLSS. Das macht wenig Spass.
(M)FG hilft da auch nicht.
Danke.
Es ist auffällig, wie stark das variiert. Von gleichschnell oder bisschen langsamer zu sowas hier: +75%
höchstwahrscheinlich Berechnungen die nicht Compute- sondern MemoryBandwidth-bound (gegrenzt) sind.
Und jetzt wo es mehr Bandbreite gibt kann Compute besser ausgelastet werden....
Troyan
2025-01-25, 17:23:23
@Troyan:
Das Problem bei 30fps mit MFG ist die Latenz. Die ist mit 30fps schon schrecklich und wird inkl. MFG nochmals viel schlechter. Das die Darstellungs-Smoothness verbessert wird bestreitet ja absolut niemand (abzüglich FG Artefakte). Für Filme ist das nicht so tragisch aber für interaktive Medien wie Spiele eben schon.
Na, Latenz ist irrelevant. Wir Menschen können uns an sowas anpassen. Davon abgesehen, ist die Latenz mit V-Sync erheblich höher als mit (M)FG und Reflex bei Base 30 FPS. Das ist hier ja das Problem, wenn man nur auf den Artefakten rumreitet. 30 FPS wird bei jedem Monitor ohne LFC wohl außerhalb vom VRR-Bereich sein. Und mit LFC sendet meine GPU fleißig das selbe Bild erneut zum Monitor, um im VRR-Bereich zu bleiben.
Cyberpunk spielt sich trotz höherer Latenz erheblich besser mit FG in nativem 4K als wenn ich ohne FG, aber mit Reflex mit ca. 25 FPS rumlaufe.
monstar-x
2025-01-25, 17:39:12
Na, Latenz ist irrelevant. Wir Menschen können uns an sowas anpassen.
Ja, ist das so?
Dann schau doch mal einen Film mit asynchroner Audiospur (Ton), sagen wir mal mit einer kleinen Latenz von 75 - 100 ms.
Jede Wette, dass du dich selbst nach 30 Minuten nicht angepasst hast und es dich mit jeder Minute mehr und mehr stört und dich nicht anpassen wirst, aber du wirst natürlich das Gegenteil behauten.
--
Ich weiß nicht so recht. Irgendwie habe ich bei dir das Gefühl, dass du dir die Situation schönredest, selbst daran glaubst und nun versuchst, uns 99 anderen Usern zu erklären, dass wir alle falsch liegen.
Sardaukar.nsn
2025-01-25, 17:49:03
Im TPU Testparcour waren u.a. vier Spiele die ich im letzten Jahr teils sehr ausführlich gespielt habe und wo die 4090 gestruggelt hat die 4K/120 vom LG C2 Oled zur erreichen. Genau an dem Punkt setzt die 5090 an und liefert auch dort die höchsten Zuwächse mit bis zu +46%.
Troyan
2025-01-25, 18:15:29
Ja, ist das so?
Dann schau doch mal einen Film mit asynchroner Audiospur (Ton), sagen wir mal mit einer kleinen Latenz von 75 - 100 ms.
Jede Wette, dass du dich selbst nach 30 Minuten nicht angepasst hast und es dich mit jeder Minute mehr und mehr stört und dich nicht anpassen wirst, aber du wirst natürlich das Gegenteil behauten.
--
Ich weiß nicht so recht. Irgendwie habe ich bei dir das Gefühl, dass du dir die Situation schönredest, selbst daran glaubst und nun versuchst, uns 99 anderen Usern zu erklären, dass wir alle falsch liegen.
Wir reden von maximal einem Frame Verzögerung bei einer Gesamtlatenz, die sowieso schon >100ms oder so ist. PCGH hat doch für Cyberpunk gemessen: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-vs-DLSS-3-Test-RTX-5090-Performance-1464233/3/
Egal ob nativ 4K mit Reflex oder DLSS Upscaling. Die Latenz ist irrelevant.
ChaosTM
2025-01-25, 18:42:08
Ja, ist das so?
Dann schau doch mal einen Film mit asynchroner Audiospur (Ton), sagen wir mal mit einer kleinen Latenz von 75 - 100 ms.
Jede Wette, dass du dich selbst nach 30 Minuten nicht angepasst hast und es dich mit jeder Minute mehr und mehr stört und dich nicht anpassen wirst, aber du wirst natürlich das Gegenteil behauten.
--
Ich weiß nicht so recht. Irgendwie habe ich bei dir das Gefühl, dass du dir die Situation schönredest, selbst daran glaubst und nun versuchst, uns 99 anderen Usern zu erklären, dass wir alle falsch liegen.
An Latenzen bei Spielen kann man sich viel leichter anpassen als an Verzögerungen oder Vorläufen bei einer Tonspur. Das geht gar nicht, weil das Gehirn das einfach nicht ausgleichen kann.
Latenzen sind aber auch nicht völlig irrelevant. Speziell bei schnellen Spielen..
wolik
2025-01-25, 18:47:46
Geekerwan mit den selben Bildern, ein paar Erklärungen und englischen Untertiteln ;)
https://youtu.be/xn5ftuqbA2g?t=185
Ich kriege ein steifen...
wolik
2025-01-25, 18:57:49
Sehr gutes Video und das Fazit, erklärt MFG in 5 Minuten, wo macht es Sinn und wer braucht es.
https://youtu.be/B_fGlVqKs1k
Dieses Bild allein ist eine „Fälschung“. Man kann nur zusätzliche Bilder zwischen zwei echten Bildern erstellen.
YTber sagt das Gleiche...
https://i.postimg.cc/1RpcttrN/Bildschirmfoto-2025-01-25-um-18-56-36.png
dildo4u
2025-01-25, 18:58:46
5080 3DMark Leak
https://videocardz.com/newz/alleged-geforce-rtx-5080-3dmark-leak-15-faster-than-rtx-4080-super
Ravenhearth
2025-01-25, 19:41:18
5080 3DMark Leak
https://videocardz.com/newz/alleged-geforce-rtx-5080-3dmark-leak-15-faster-than-rtx-4080-super
Also in Spielen eher +10%. Aber das ist ja eigentlich nichts neues.
00-Schneider
2025-01-25, 19:43:22
Da kann man auch zur billigeren 4080 greifen.
Dimon
2025-01-25, 19:48:41
Was ist der unterschied zwischen RTX5090 und RTX5090D ?
ChaosTM
2025-01-25, 19:53:43
Die "AI Einheiten" werden per Laser zerstört, damit die Chinesen nix damit anfangen können.
Linmoum
2025-01-25, 20:00:51
Da kann man auch zur billigeren 4080 greifen.Die billigste liegt aktuell immerhin bei 1081€ laut Geizhals. Da kann man auch gleich eine 5080 nehmen und bekommt auch noch MFG dazu.
Dimon
2025-01-25, 20:02:32
Die "AI Einheiten" werden per Laser zerstört, damit die Chinesen nix damit anfangen können.
Tensor einheiten? Ansonsten bleibt die GPU gleich?
ChaosTM
2025-01-25, 20:04:43
Tensor einheiten? Ansonsten bleibt die GPU gleich?
Nein, das war nur ein dummer Scherz.
Ich hab keine Ahnung wo die Unterschiede genau liegen.
crux2005
2025-01-25, 20:10:55
Die billigste liegt aktuell immerhin bei 1081€ laut Geizhals. Da kann man auch gleich eine 5080 nehmen und bekommt auch noch MFG dazu.
Ich befürchte die 5080 werden erst mal teurer sein.
dargo
2025-01-25, 20:15:19
Also in Spielen eher +10%. Aber das ist ja eigentlich nichts neues.
Ich kanns immer noch nicht fassen wie NV sowas nach über zwei Jahren releasen kann? :freak: Da sind ja CPUs teilweise schneller in dieser Zeit. :ulol3:
Zossel
2025-01-25, 20:31:12
Das ist wirklich spannend. Weiß man, welche Ingredienzien darin stecken? Also welcher Workload, Codemix?
Ja, das ist alles frei im Source verfügbar. (Bis auf die blöden Blobs von Nvidia)
monstar-x
2025-01-25, 20:32:43
Die billigste liegt aktuell immerhin bei 1081€ laut Geizhals. Da kann man auch gleich eine 5080 nehmen und bekommt auch noch MFG dazu.
Glaube nicht dass eine 5080 AIB in den nächsten Monaten unter 1300€ zu kaufen sein wird.
Exxtreme
2025-01-25, 20:35:35
Ich kanns immer noch nicht fassen wie NV sowas nach über zwei Jahren releasen kann? :freak: Da sind ja CPUs teilweise schneller in dieser Zeit. :ulol3:
Nvidia liefert das, was die Kunden haben wollen. So funktioniert Marktwirtschaft.
Linmoum
2025-01-25, 20:38:35
AMD liefert womöglich nicht mal mehr Performance, als mit der noch aktuellen Gen. Insofern bekommt man mit Blackwell sogar wahnsinnig viel geboten. ;)
ChaosTM
2025-01-25, 20:43:55
Ich kanns immer noch nicht fassen wie NV sowas nach über zwei Jahren releasen kann? :freak: Da sind ja CPUs teilweise schneller in dieser Zeit. :ulol3:
GCPUs sind immer noch nicht schneller wenn es um das Rendering von Grafik geht. ;) (aber ich weiß was du meintest)
Pack den Hammer weg, weil die 5080er keine ''richtige" 80er ist, sondern höchsten eine 5070(Ti).
-50% bei allem ist 70er Level
Sardaukar.nsn
2025-01-25, 20:58:03
5080 3DMark Leak
https://videocardz.com/newz/alleged-geforce-rtx-5080-3dmark-leak-15-faster-than-rtx-4080-super
Wenn der Leak stimmt hat die 5080 bis zu 96% der Raster-Rohleistung einer 4090.
Für Leute die jetzt noch auf einer 3000er Generation unterwegs sind, wäre die 5080 ein großes Upgrade.
Nutzt die FE eigentlich den gleichen 2-Slot Kühler wie die 5090? Der müsste dort ja nochmal deutlich besser funktionieren.
why_me
2025-01-25, 21:08:40
Was ist der unterschied zwischen RTX5090 und RTX5090D ?
Die D ist für den Chinesischen Markt. Afaik wird die Tensor Leistung per Treiber beschnitten, wegen dem US Export embargo auf AI Beschleuniger. Da gibt es ein Limit wie schnell die sein dürfen.
Sonst müssten das die gleichen Karten sein, bis auf die Anime Kühler.
ENKORE
2025-01-25, 21:27:06
Danke.
Es ist auffällig, wie stark das variiert. Von gleichschnell oder bisschen langsamer zu sowas hier: +75%
Wenn du dir den Code davon anschaust, dann ist das quasi STREAM, aber in OpenCL.
https://github.com/vetter/shoc/blob/master/src/opencl/level0/MaxFlops.cpp#L35
Der CFD-Solver hier rechnet auch quasi nix, das ist ebenfalls ein Speicherbenchmark:
https://phoronix.com/benchmark/result/nvidia-geforce-rtx-5090-compute-linux-benchmarks/fluidx3d-fp32-fp16s.svgz
VkFFT hat auch eine niedrige Intensität und hängt offensichtlich nur am Speicher.
vkpeak ist ein Benchmark dessen Code ernsthaft so aussieht: https://github.com/nihui/vkpeak/blob/master/vkpeak.cpp#L32
etc.
Michael hat da echt zich mal den im Wesentlichen gleichen Test in der Benchmarksuite und die meisten von diesen synthetischen Benchmarks sind offensichtlich qualitativ nicht gut.
Sardaukar.nsn
2025-01-25, 21:35:03
Was ist der unterschied zwischen RTX5090 und RTX5090D ?
Natürlich Geschmackssache, aber ich finde die D Videos sehr gut produziert und vermisse auch keine prominenten Reviewer Gesichter.
MSiXanc4Stk
Ich verstehe kein Wort, hab aber irgendwie trotzdem alle Infos die mich interessieren.
8DBDCtN0-s4
mksn7
2025-01-25, 23:19:34
vkpeak ist ein Benchmark dessen Code ernsthaft so aussieht: https://github.com/nihui/vkpeak/blob/master/vkpeak.cpp#L32
Hey, das ginge noch weltfremder besser!
Die RTX5090 holt hier ja nur 62.5 TFlop/s. Das sind ja magere 62.5 / 170 / 3 GHz(?) = 121 Flop/SM/cycle.
NVIDIA's SM können ja seit Ampere 4x2x16 = 128 FMA/cycle/SM, und da ein FMA = zwei Flops, erreicht dieser code also nur die Hälfte des Durchsatzes.
Der ist halt als lange Abhängigkeitskette geschrieben, da müssen erst die uh, 5? cycles latenz des FMA gewartet werden bevor das nächste FMA aus dem gleichen thread geissued werden kann.
Prinzipiell müsste der scheduler in jedem Takt aus einem anderen thread schedulen können, wenn also irgendwas in die Richtung 5+ warps pro scheduler (das ist ~40% occupancy) da sind passt das.
Allerdings, gibts kein register cache reuse wenn back-to-back aus unterschiedlichen threads gescheduled wird, und dann reicht die Registerbandbreite nicht um jeden Takt ein FMA auszuführen. Also ein klassischer Fall wo die verdoppelten cuda cores nicht helfen.
Deswegen, zwei separate dependency chains, mit geteilten Operanden! Das hier könnte den doppelten Durchsatz erreichen:
for(int i = 0; i < N; n++)
v = v * a - b;
v2 = v2 * a - b;
}
Das manuelle unrollen ist völlig überflüssig, GPU compiler unrollen immer gern als gäbe es kein Morgen.
OCmylife
2025-01-26, 08:49:25
Da kann man auch zur billigeren 4080 greifen.
Ich habe vorgestern genau das gemacht, nachdem ich eine Woche lang vergeblich versucht habe, eine 4090 zu einem akzeptablen Preis auf Kleinanzeigen zu ergattern.
Die 10% Mehrperformance, die in Spielen gemunkelt werden, erreicht sie ja durch etwas mehr Shadereinheiten und das höhere Powerlimit. Wenn ich in der Chiplotterie Glück habe, läuft die Karte mit Wasserkühlung knappe 3GHz(ich hoffe, dass dafür 350 Watt reichen, sonst experimentiere ich mit dem Strix BIOS). Dann bin ich da schon sehr nah dran. Ich schätze mal, es fehlen mir dann vielleicht noch 2-3% zur 5080 in Spielen. Das ist kein spürbarer Unterschied.
Das HW Unboxed Video war für mich gestern nur wieder eine Bestätigung, dass (M)FG für mich keine Option ist.
https://www.youtube.com/watch?v=B_fGlVqKs1k&t
Ich habe vorgestern beim Kollegen sicher eine Stunde mit FG und VRR Cyberpunk gespielt, da die Leistung seiner 480 Watt 7900 XTX für moderates Upsampling und RT nicht reichte. Unter 70 FPS wurde es äußerst zäh, bei 80-90 war es (gut) spielbar, ich würde da aber auch echte FPS bevorzugen. Da ich am TV spiele, reichen mir 4K60 und evtl gibt es da in naher Zukunft mal ein Upgrade auf 4K120.
Es kann sein, dass die 5080 in ausreichender Stückzahl vorhanden ist und man nicht vor dem Rechner sitzen und alle Shops abgrasen muss. Aber ich rechne eher mit einem Paperlaunch und deutlich höheren Preisen.
Gekauft habe ich die TUF 4080S OC neu für 1130 dank 160€ Rabatt auf Amazon. Der Heatkiller war auch nicht günstig, aber den wollte ich schon lange haben.
robbitop
2025-01-26, 09:05:06
Fühlt sich aber irgendwie auch doof an eine GPU zu (fast) dem Preis zu kaufen, die man schon seit über 2 Jahren hätte haben können.
Und dann gibt es praktisch keinen discount bei last gen. Ich würde jetzt erwarten die last gen gebraucht praktisch zum halben Preis zu kriegen. Aber man zahlt praktisch noch den alten…
Learning für mich: zum launch kaufen und keine Zeit (die keine Preisreduktion zu bringen scheint) verdallern in der man schon hätte zocken können.
dildo4u
2025-01-26, 09:10:08
Es macht Sinn das 3080 massiv an Wert verlieren da sich Entwickler auf 12 GB eingeschossen haben, die 4080 wird sich nicht sonderlich bewegen.
Gerade weil die 5080 nicht nennenswert zulegt.
Cyberberpunk mit Pathracing auf der 4070 S
https://i.ibb.co/Fhq14hm/Screenshot-2025-01-26-091152.png (https://ibb.co/yNBCFNd)
dargo
2025-01-26, 09:13:13
Fühlt sich aber irgendwie auch doof an eine GPU zu (fast) dem Preis zu kaufen, die man schon seit über 2 Jahren hätte haben können.
Und dann gibt es praktisch keinen discount bei last gen. Ich würde jetzt erwarten die last gen gebraucht praktisch zum halben Preis zu kriegen. Aber man zahlt praktisch noch den alten…
Learning für mich: zum launch kaufen und keine Zeit (die keine Preisreduktion zu bringen scheint) verdallern in der man schon hätte zocken können.
Tja... das kommt davon wenn man immer nur ein Auge auf teures Nvidia Lager wirft. ;) Wenn ich meine custom RX 6800XT bald verkaufe dann wird die wahrscheinlich um die 300€ den Besitzer wechseln. Sollte ich mehr bekommen, gerne... aber ca. 250-300€ finde ich fair. Nvidia macht schon länger das was Intel früher gemacht hat als Intel noch den CPU-Markt dominiert hatte. Es gab keinen Abverkauf im wortwörtlichen Sinne der alten Gen.
aufkrawall
2025-01-26, 09:20:40
So geil war das bei AMD auch nicht mit 6900 XT immer noch >500€, nachdem es die 7800 XT schon gab.
dargo
2025-01-26, 09:23:33
So geil war das bei AMD auch nicht mit 6900 XT immer noch >500€, nachdem es die 7800 XT schon gab.
Und trotzdem war der Preis fast halbiert. Wo gab es das bei Nvidia in diesem Segment? 3090 für ~750€? 3080 10GB für ~350€?
robbitop
2025-01-26, 09:26:32
Tja... das kommt davon wenn man immer nur ein Auge auf teures Nvidia Lager wirft. ;) Wenn ich meine custom RX 6800XT bald verkaufe dann wird die wahrscheinlich um die 300€ den Besitzer wechseln. Sollte ich mehr bekommen, gerne... aber ca. 250-300€ finde ich fair. Nvidia macht schon länger das was Intel früher gemacht hat als Intel noch den CPU-Markt dominiert hatte. Es gab keinen Abverkauf im wortwörtlichen Sinne der alten Gen.
Als IHV Agnostiker (zumindest kein bias) kann ich dir sagen, dass das an Features liegt (zumindest bei mir) die man haben will. Früher waren es die Compatibility bits für SGSSAA, später MFAA was MSAA aufgewertet hat und dann DLSS. Ich hab mit der 1080ti vor 2 Jahren auf FSR2 genutzt aber dieses disocclusion fizzle hat mich irre gemacht. DLSS dann einfach massiv besser. Jetzt das Transformer modell - ich hab gestern Mechwarrior 5 Clans in 1440 im Performance preset gespielt. Und es sah immernoch gut aus. FSR3.1 ist auch im Spiel und das ist ein Unterschied. (auch zum default DLSS 3.1 mit CNN)
Aber ich mache diese sinnlos Preise trotzdem nicht mit. Wenns zu teuer ist kaufe ich halt gar nix. Oder gebraucht.
Ggf ändert sich das mit RDNA4. Hoffentlich. Aber sie haben viel aufzuholen mit RR und MFG (ja nur für high refreshrate Monitore sinnvoll aber irgendwann hat man so einen halt auch und will die bessere Bewegtschärfe ausfahren).
Relex
2025-01-26, 09:41:48
Damit bist du genauso IHV agnostisch, wie 90% der Nvidia käufer und praktisch ein Fanboy ;)
Aber mal ernsthaft, als würde es irgend jemanden bis auf ein paar Hardcore Jüngern interessieren, von welchem Hersteller die GPU ist.
Die Features und Produkte sind es nunmal die Kunden überzeugen. Das was Nvidia mit DLSS und RT macht, führt bei mir dazu, dass ich AMD praktisch gar nicht mehr in betracht ziehen würde.
Aber das hat nichts mit AMD oder Nvidia zu tun und ob ich diese Firmen mag oder nicht. Wenn AMD morgen bei den mir wichtigen Punkten stärker überzeugt, dann steckt das nächste mal ne AMD Karte im rechner. Warum sollte ich was anderes kaufen, als das was mir technisch am meisten zusagt?
Gouvernator
2025-01-26, 09:45:47
Was wir endlich brauchen ist eine billige Stromspar-GPU mit 24Gb. Die RTX3090 ist heute für 750€ immer noch die beste Option. ;d
Sardaukar.nsn
2025-01-26, 09:47:02
Aber das hat nichts mit AMD oder Nvidia zu tun und ob ich diese Firmen mag oder nicht. Wenn AMD morgen bei den mir wichtigen Punkten stärker überzeugt, dann steckt das nächste mal ne AMD Karte im rechner. Warum sollte ich was anderes kaufen, als das was mir technisch am meisten zusagt?
Ich sehe dieses Lager Denken auch völlig überholt. Die meisten hier sind aufgeschlossen und haben zu Recht eine AMD x3D CPU im PC. Es geht einfach um das bessere Produkt. Egal welcher Name da jetzt drauf steht.
basix
2025-01-26, 09:47:38
Was wir endlich brauchen ist eine billige Stromspar-GPU mit 24Gb. Die RTX3090 ist heute für 750€ immer noch die beste Option. ;d
Aber definitiv nicht fürs stromsparen gedacht ;)
Ich denke die 5080S wird mit 24GByte kommen und UV klappt auf Ada und vermutlich auch Blackwell ziemlich gut. Das wird aber nicht billig ;)
dildo4u
2025-01-26, 09:47:58
Der größte Punkt ist Software RDNA2 sah so gut aus da DLSS und RT am Anfang waren damals konnte man Leute als Nvidia Fanboys bezeichnen.
Das Bild sieht in 2025 komplett anders aus das weiß auch AMD daher kannst du keine 9700XT kaufen obwohl die Hardware gebacken ist.
robbitop
2025-01-26, 09:49:51
Damit bist du genauso IHV agnostisch, wie 90% der Nvidia käufer und praktisch ein Fanboy ;)
Aber mal ernsthaft, als würde es irgend jemanden bis auf ein paar Hardcore Jüngern interessieren, von welchem Hersteller die GPU ist.
Die Features und Produkte sind es nunmal die Kunden überzeugen. Das was Nvidia mit DLSS und RT macht, führt bei mir dazu, dass ich AMD praktisch gar nicht mehr in betracht ziehen würde.
Aber das hat nichts mit AMD oder Nvidia zu tun und ob ich diese Firmen mag oder nicht. Wenn AMD morgen bei den mir wichtigen Punkten stärker überzeugt, dann steckt das nächste mal ne AMD Karte im rechner. Warum sollte ich was anderes kaufen, als das was mir technisch am meisten zusagt?
Naja es gibt schon auch fanboys. Gerade im Internet. Die IHVs aufs Blut verteidigen usw. Und dann gibt es auch die Lemminge die nach Mindshare kaufen. Wo gar nicht recherchiert wird vor jedem Neukauf. Marke XYZ hat einen guten Ruf -> die kaufen.
Ich will einfach nur das mit den (für mich relevanten) besten features haben. Sehe es wie du: würde Intel oder AMD oder QCom morgen eine GPU rausbringenden die dominiert (features, performance, zuverlässigkeit) und zu einem Preispunkt der für mich okay wäre - wäre es die nächste GPU für mich.
dargo
2025-01-26, 09:49:58
Ggf ändert sich das mit RDNA4. Hoffentlich. Aber sie haben viel aufzuholen mit RR und MFG (ja nur für high refreshrate Monitore sinnvoll aber irgendwann hat man so einen halt auch und will die bessere Bewegtschärfe ausfahren).
Dieses MFG wird imo völlig überbewertet. Zumindest wenn man 4k Bildschirme anpeilt. Bei 4k ist aktuell mit 240Hz Schluss. Und dafür reicht selbst noch 2x FG vollkommen aus. ;) Zumindest bei mir da ich hohe Baseline Frames brauche. Klar... wem wenige Baseline Frames reichen dem bringt MFG etwas. Aber wie gesagt... imo wird dieses MFG (also >2x FG) völlig überbewertet. Mal wieder der nächste Marketingsstunt von NV, wie üblich. Nichts weiter als Balkenverlängerung.
Ich sehe dieses Lager Denken auch völlig überholt. Die meisten hier sind aufgeschlossen und haben zu Recht eine AMD x3D CPU im PC. Es geht einfach um das bessere Produkt. Egal welcher Name da jetzt drauf steht.
Falscher Vergleich... bei CPUs bekommst du keinen proprietären shice aufs Auge gedrückt, was Nvidia immer wieder praktiziert.
basix
2025-01-26, 09:50:03
Ich sehe dieses Lager Denken auch völlig überholt. Die meisten hier sind aufgeschlossen und haben zu Recht eine AMD x3D CPU im PC. Es geht einfach um das bessere Produkt. Egal welcher Name da jetzt drauf steht.
Bei CPUs hast du allerdings keinen Feature-SW-Blob rund um die HW. Alles was auf Intel läuft, läuft auch auf AMD CPUs. Intel CPUs haben eine mächtigere MediaEngine und Ausnahmen wie QuickSync etc. mal aussen vor. Aber von der reinen CPU Leistung her: Läuft alles, ist x86.
Dieses MFG wird imo völlig überbewertet. Zumindest wenn man 4k Bildschirme anpeilt. Bei 4k ist aktuell mit 240Hz Schluss. Und dafür reicht selbst noch 2x FG vollkommen aus. ;) Zumindest bei mir da ich hohe Baseline Frames brauche. Klar... wem wenige Baseline Frames reichen dem bringt MFG etwas. Aber wie gesagt... imo wird dieses MFG (also >2xFG) völlig überbewertet. Mal wieder der nächste Marketingsstunt von NV, wie üblich. Nichts weiter als Balkenverlängerung.
MFG ist der nächste logische Schritt. Und 4x MFG wären bei 240Hz schon nutzbar, da 60fps Input. Aber ich stimme dir bei, dass der Nutzen mit MFG im heutigen Zustand ziemlich stark Nische ist.
MFG könnte allerdings ein Game Changer sein, wenn man auf FG Extrapolation umschwenkt und Framewarp auf alle Bilder anwendet. Dann kann man z.B. 30fps -> 120fps anwenden und es fühlt sich auch so an.
robbitop
2025-01-26, 09:53:51
Der größte Punkt ist Software RDNA2 sah so gut aus da DLSS und RT am Anfang waren damals konnte man Leute als Nvidia Fanboys bezeichnen.
Das Bild sieht in 2025 komplett anders aus das weiß auch AMD daher kannst du keine 9700XT kaufen obwohl die Hardware gebacken ist.
Naja RT war zum Ampere Launch zwar noch nicht extrem verbreitet aber es war schon sichtbar. Viele neuen AAA Spiele kamen damit auf den Markt und die RT HW Pipeline war schon relativ gut. Und es gab zu dem Zeitpunkt schon DLSS 2, was ggü allem was es bis dahin gab deutlich besser war.
IMO passt deine Aussage eher auf Turing (vs Radeon 7 und später RDNA1) als auf Ampere. :)
dargo
2025-01-26, 09:55:39
MFG ist der nächste logische Schritt. Und 4x MFG wären bei 240Hz schon nutzbar, da 60fps Input.
Wie oft muss ich euch noch sagen, dass 60fps mir zu wenig sind? :freak: Mal ein konkretes Praxisbeispiel... ich habe 100fps Baseline und mit 2x FG 170fps. Der visuelle Zugewinn mit 240fps ist praktisch kaum noch vorhanden bzw. verschwindend gering. Zumal ich 240fps eh nicht komplett ausfahren würde, aus bekannten Gründen. Also eher bei ca. 235fps limitieren.
MFG könnte allerdings ein Game Changer sein, wenn man auf FG Extrapolation umschwenkt und Framewarp auf alle Bilder anwendet. Dann kann man z.B. 30fps -> 120fps anwenden und es fühlt sich auch so an.
Lass uns heute nicht über ungelegte Eier philosophieren ;)
dildo4u
2025-01-26, 09:58:16
Es gab die Technik die Verbreitung ist eine andere Sache Indiana Jones und Doom DARK Age setzen RT vorraus das war kein Ding in 2020.
ChaosTM
2025-01-26, 09:58:40
Zu Turings Zeiten konnte man brauchbare RT/DLSS Spiele an einem Finger abzählen, aber die Karte ist trotzdem recht gut gealtert.
robbitop
2025-01-26, 09:59:23
Dieses MFG wird imo völlig überbewertet. Zumindest wenn man 4k Bildschirme anpeilt. Bei 4k ist aktuell mit 240Hz Schluss. Und dafür reicht selbst noch 2x FG vollkommen aus. ;) Zumindest bei mir da ich hohe Baseline Frames brauche. Klar... wem wenige Baseline Frames reichen dem bringt MFG etwas. Aber wie gesagt... imo wird dieses MFG (also >2x FG) völlig überbewertet. Mal wieder der nächste Marketingsstunt von NV, wie üblich. Nichts weiter als Balkenverlängerung.
Man muss es schon gezielt einsetzen. Das sehe ich auch so. Der Nutzen ist beschränkter als die meisten Review-Leser denken.
IMO macht es nur Sinn, wenn man gute Grund FPS hat (niedriger Inputlag und wenig Artefakte) und einen Monitor mit hoher Refreshrate und schnellem Panel. Bei einem 4K240 OLED würde ich vermuten dass 3x80 ganz gut passen könnte. Niedrig genuger Inputlag, erreichbare Grund FPS (insbesondere wenn man detail slider bedienen kann).
Und dann kann man schön die Bewegtschärfenvorteile ausfahren.
Für die meisten reicht aber 2x. Hab gestern ME5 Clans mit Optiscaler Mod gespielt und DLSS-G auf FSR3 FMF umgeleitet und das hat wunderbar funktioniert. Der FG Teil von FSR ist in Ordnung. Insbesondere wenn man genug Leistung hat um gegen einen Framelimiter zu fahren. Bei mir 142 Hz auf dem 144 Hz 1440p display.
RoNsOn Xs
2025-01-26, 10:01:13
Wie man schon hier und dort zu lesen bekam, dass Performance-Steigerungen ungleich teurer werden heutzutage mit herkömmlicher Berechnung - das kann ich absolut nachvollziehen, daher denke auch ich, dass MFG keineswegs übertrieben ist und NV hier schon mit Einführung der FG-Technologie seit Ada großes geleistet hat - mit Weitblick. Multi frames werden in Zukunft kaum noch weg zu denken sein in 5 Jahren und der Standard werden.
Natürlich lässt NV sich das gut bezahlen. Ich wünsche es wäre anders. So wie robbitop sagt (war er doch?) leisten können wir uns wahrscheinlich alle mehr oder minder eine rtx5090. Ob es einen das wert ist, steht auf einem anderen Blatt. Dort zieh ich halt auch die Reißleine und gebe mich mit etwas weniger zufrieden. Das kann ich ganz unverblümt eingestehen.
Sardaukar.nsn
2025-01-26, 10:03:27
Falscher Vergleich... bei CPUs bekommst du keinen proprietären shice aufs Auge gedrückt, was Nvidia immer wieder praktiziert.
Ich fürchte dafür bin ich zu simpel gestrickt. Kaufe nur nach Rohleistung Balkenlänge.
dargo
2025-01-26, 10:05:09
Wie man schon zu hier und dort zu lesen bekam, dass Performance-Steigerungen ungleich teurer werden heutzutage mit herkömmlicher Berechnung - das kann ich absolut nachvollziehen, daher denke auch ich, dass MFG keineswegs übertrieben ist und NV hier schon mit Einführung der FG-Technologie seit Ada großes geleistet hat - mit Weitblick. .
Lol... vergleich mal NVs FG mit AMDs FG, insbesondere auch was da an +Performance rauskommt. Wie kann man da bei NV von Weitblick sprechen? :freak: Auch diese FG-Einschränkung @Ada aufwärts ist nichts weiter als gezielte Produktpolitik um die Leute weiter zu melken.
Platos
2025-01-26, 10:05:51
Naja RT war zum Ampere Launch zwar noch nicht extrem verbreitet aber es war schon sichtbar. Viele neuen AAA Spiele kamen damit auf den Markt und die RT HW Pipeline war schon relativ gut. Und es gab zu dem Zeitpunkt schon DLSS 2, was ggü allem was es bis dahin gab deutlich besser war.
IMO passt deine Aussage eher auf Turing (vs Radeon 7 und später RDNA1) als auf Ampere. :)
Ich denke, er meinte am Anfang von Ampere, also zu Launchzeiten. Da war DLSS 2.0 frisch und bis es dann genug Spiele gibt, vergeht natürlich eine Zeit. Und RT war damals auch noch nicht soooo extrem präsent. Also zur Launchzeit hatte AMD wesentlich bessere Chancen, da man da noch sagen konnte, DLSS 2.0 ist noch von einigen Fehlern geplagt und noch nicht so verbreitet und RT noch nicht so wichtig. ebenfalls war RDNA2 auch Konkurrenzfähig (bis hoch zur 3090) und in Sachen Effizienz ebenfalls (teils ja sogar besser). Mit RDNA3 fiel alles weg, was gerade aufgezählt wurde. Die "Features" waren da nicht mehr wegzureden, Perfomance gabs nicht mehr bis zur Krone (Preise trotzdem hoch) und Effizienz war wieder mies.
AMD muss dieses Mal vor allem FSR endlich mal ansehlich machen und ein MultiFramegen-Konter brauchts eig. auch. Effizienz und RT-Perfomance muss auch stimmen. Aber vermutlich kommts wieder so, dass FSR und co. wieder für in weiter Ferne angekündigt wird, anstatt dass es am Launchtag zur Verfügung steht. Und einen brauchbaren Reflex-Konter brauchts auch.
Aber klar, Fanboys-Beschimpfung aufgrund DLSS 2.0 gehört sicher nicht in die objektive Betrachtungsweise.
basix
2025-01-26, 10:06:06
Wie oft muss ich euch noch sagen, dass 60fps mir zu wenig sind? :freak:
Gut gesagt: "Dir" ist es zu wenig ;)
Lass uns heute nicht über ungelegte Eier philosophieren ;)
Ist ungelegt, ja. Aber wohl irgendwo in der Pipeline ;)
Wer weiss, vielleicht überrascht uns ja AMD bei FSR4 :D
dargo
2025-01-26, 10:08:03
Gut gesagt: "Dir" ist es zu wenig ;)
Richtig... und ich hatte auch geschrieben, dass mir bewusst ist es gibt Spieler denen weniger reicht. ;) Ist doch die gleiche Debatte wie früher mit 30 vs. 60fps (durch x-beliebige Zahlen erweiterbar). Spieler sind viel zu individuell.
basix
2025-01-26, 10:10:19
Auch diese FG-Einschränkung @Ada aufwärts ist nichts weiter als gezielte Produktpolitik um die Leute weiter zu melken.
Die technischen Limitationen bei FG @ CNN + OFA waren deutlich stärker ausgeprägt als neu bei FG @ Transformer (Tensor). Damals konnte ich es noch halbwegs verstehen. Beim Transformer Modell ist es wirklich nur noch Produktpolitk
Transformer FG:
- Blackwell hat kaum mehr Tensor-FLOPS als Ada (Ausnahme FP4, was aber wohl nicht für FG genutzt wird) -> MFG nur für Blackwell, damit die Balken verglichen mit Lovelace nicht so mickrig aussehen
- Ampere und Turing könnten FG mit Transormer @ Tensor wohl ebenfals ausführen, halt einfach langsamer (keine Transformer Engine/Accelerator, kein FP8)
ChaosTM
2025-01-26, 10:11:45
Lol... vergleich mal NVs FG mit AMDs FG, insbesondere auch was da an +Performance rauskommt. Wie kann man da bei NV von Weitblick sprechen? :freak: Auch diese FG-Einschränkung @Ada aufwärts ist nichts weiter als gezielte Produktpolitik um die Leute weiter zu melken.
Jensen ist ein Marketing Genie und weiß wie er uns am besten abmelkt.
Das muss man neidlos anerkennen..
dildo4u
2025-01-26, 10:12:36
Lol... vergleich mal NVs FG mit AMDs FG, insbesondere auch was da an +Performance rauskommt. Wie kann man da bei NV von Weitblick sprechen? :freak: Auch diese FG-Einschränkung @Ada aufwärts ist nichts weiter als gezielte Produktpolitik um die Leute weiter zu melken.
Das FG wurde erst jetzt umgebaut damit es auf Tensor Kernen läuft das wird hier besprochen wird man sehen ob was kommt.
https://hothardware.com/news/dlss-framegen-to-ampere
The_Invisible
2025-01-26, 10:13:39
Naja es gibt schon auch fanboys. Gerade im Internet.
Ja zb dargo der niemals nie eine GeForce kaufen würde. Daher umso lustiger wenn er irgendwas von "Green fanboys" und wo schreibt. :freak:
dargo
2025-01-26, 10:20:05
Jensen ist ein Marketing Genie und weiß wie er uns am besten abmelkt.
Das muss man neidlos anerkennen..
:D
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcTNwl8c39xtNr97FGqa2n2u_8Mn4RfapyBxf1bZJUsAZv0xRtPMbXuZhF9E9Tr j3Y-ayGc&usqp=CAU
Davon gibt es leider viel zu viele. Wobei die ganzen Influencer auch nicht ganz unschuldig sind jeden scheiße zu hypen.
aufkrawall
2025-01-26, 10:23:27
AMD bietet einfach nicht mehr Wert/€ und ramponiert sich (bei Grafikkarten) mit unseriösem Verhalten ständig den Ruf. Da checken einfach immer mehr Leute, dass sie nicht mal mehr Underdog-Sympathien verdienen. Völlig zurecht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.