Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
Troyan
2025-01-26, 10:26:24
Die technischen Limitationen bei FG @ CNN + OFA waren deutlich stärker ausgeprägt als neu bei FG @ Transformer (Tensor). Damals konnte ich es noch halbwegs verstehen. Beim Transformer Modell ist es wirklich nur noch Produktpolitk
Transformer FG:
- Blackwell hat kaum mehr Tensor-FLOPS als Ada (Ausnahme FP4, was aber wohl nicht für FG genutzt wird) -> MFG nur für Blackwell, damit die Balken verglichen mit Lovelace nicht so mickrig aussehen
- Ampere und Turing könnten FG mit Transormer @ Tensor wohl ebenfals ausführen, halt einfach langsamer (keine Transformer Engine/Accelerator, kein FP8)
Was bringt langsamer denn? Wenn die mit FP16 langsamer sind als Lovelace mit der OFA, dann bekommt man minimal mehr Frames, aber verliert deutlich an Latenz. Beim Transformer-Modell sieht man schon deutliche Einschnitte.
basix
2025-01-26, 10:28:48
Was? Das Transformer Modell läuft auf Ada und Blackwell deutlich schneller und konsistenter als das alte FG Modell.
Selbst wenn es dann aufgrund FP16 nur halb so schnell läuft (und nicht alles von FG ist Tensor-Processing) dürfte es immer noch sehr gut funktionieren. Mindestens auf Niveau des alten FG Modells auf Ada.
Das SR Transformer Modell läuft auf Ampere und Turing nur marginal langsamer. Und verwendet vermutlich FP8 auf Ada/Blackwell und FP16 auf Turing/Ampere.
RR läuft deutlich schlechter auf Turing/Ampere, aber ich vermute das ist noch der fehlenden Optimierung geschuldet.
why_me
2025-01-26, 10:29:37
Gestern war die Latenz noch irrelevant, heute ist eine höhere Latenz aber schlecht. ;D
basix
2025-01-26, 10:30:41
Troyan Logik (oder eben das Fehlen davon ;))
why_me
2025-01-26, 10:33:35
Ja so ist er halt, es wird sich ständig gewunden und Argumente immer irgendwie zurechtgebogen so wie es gerade am besten passt.
fizzo
2025-01-26, 10:49:27
AMD bietet einfach nicht mehr Wert/€
Da muss ich einhaken. Reden wir hier vom kompletten Produktsortiment? Ich möchte zeitnah eine neue Grafikkarte im Preissegment von max. 600-700€ (eigentlich eh schon zu viel). Da diese wieder ein paar Jahre genutzt wird, sind 16GB Speicher gesetzt. Sehe da bei NV leider keine adäquate Konkurrenz zur kommenden 9000er Serie von AMD.
robbitop
2025-01-26, 10:55:40
P/L hat RDNA4 tatsächlich die Chance da wieder attraktiv zu werden. Wenn der Preis stimmt und FSR4 den initialen Berichten gerecht wird und RT auch abliefert. Nvidia minus 50€ reicht einfach nicht. IMO. Mal schauen ob sie beim Preis auch abliefern werden.
Relex
2025-01-26, 10:58:16
Troyan Logik (oder eben das Fehlen davon ;))
Na ja, aber er hat doch recht. Wenn FG mit dem Transformer model so viel leistung auf Ampere kosten würde, dass man aus 60 FPS vielleicht nur 70-80 FPS machen kann, dann hat man seine basis Framerate von der aus verdoppelt wird, auf 35-40 FPS kastriert.
Das wäre komplett sinnfrei. Die latenzen würden dann eben nicht mehr 60 FPS entsprechen sondern 35-40 + 1 Frame Verzögerung.
Genauso wie DLSS FG mit OFA jenseits der 150 FPS sinnfrei war. Da kommt man dann eben auf 160-170 FPS, während die Basis Framerate fast halbiert wird.
(hab ich auch öfter kritisiert)
Jetzt mit dem Transformer Model skaliert es auch bei hohen FPS in 4K ordentlich und vergleichbar mit FSR FG bei weiter verbesserter Qualität der Zwischenbilder sowie besserem Framepacing.
Aber wie gesagt, sollte es auf Ampere deutlich schlechter skalieren als die OFA Variante auf Ada, dann ist der Nutzen natürlich nicht gegeben. Die Frage ist eben, ob das wirklich der Fall ist. Und da hab ich auch meine zweifel.
Mit Sicherheit ist es nur noch Produktpolitik.
Ich vermute aber, dass das Upscaler Update auf Transformer hier völlig für nvidia ausreichen wird, um die Kundschaft entsprechend zu halten und zufrieden zu stellen, auch wenn man kein FG liefert. Denn den Kunden wird jetzt eben wieder vor Augen gehalten, wie viel besser die Bildqualität ist während sie selber im gegenzug FSR ausprobieren können und sehen, was sie bei AMD bekommen würden.
Nvidia kann es sich also erlauben, kein FG für Ampere zu liefern, weil die Argumente für die allermeisten Spieler auch so überzeugend genug sein werden und sie wieder zu Nvidia greifen werden.
AMD übt einfach zu wenig Druck aus und das nutzt Nvidia aus.
Die werden sich da sicher auch länger als 5 Minuten darüber Gedanken gemacht haben...
basix
2025-01-26, 11:24:03
Na ja, aber er hat doch recht. Wenn FG mit dem Transformer model so viel leistung auf Ampere kosten würde, dass man aus 60 FPS vielleicht nur 70-80 FPS machen kann, dann hat man seine basis Framerate von der aus verdoppelt wird, auf 35-40 FPS kastriert.
Das wäre komplett sinnfrei. Die latenzen würden dann eben nicht mehr 60 FPS entsprechen sondern 35-40 + 1 Frame Verzögerung.
Genauso wie DLSS FG mit OFA jenseits der 150 FPS sinnfrei war. Da kommt man dann eben auf 160-170 FPS, während die Basis Framerate fast halbiert wird.
(hab ich auch öfter kritisiert)
Jetzt mit dem Transformer Model skaliert es auch bei hohen FPS in 4K ordentlich und vergleichbar mit FSR FG bei weiter verbesserter Qualität der Zwischenbilder sowie besserem Framepacing.
Aber wie gesagt, sollte es auf Ampere deutlich schlechter skalieren als die OFA Variante auf Ada, dann ist der Nutzen natürlich nicht gegeben. Die Frage ist eben, ob das wirklich der Fall ist. Und da hab ich auch meine zweifel.
Wenn die Framerate nicht oder nur schwach steigt, hat er recht. Nur gibt es momentan keine Indizien, dass dem so ist. Und wenn selbst der Catanzaro Nvidia AI-Guru sagt, dass es primär ein Engineering Thema ist, sehe ich keine Showstopper.
Es wird schlechter laufen auf Ampere und Turing, das ist klar. Aber FG v1 hat bei Ada oft auch nicht so toll skaliert und trotzdem war es da ;)
Ich wollte gerade den Beweis liefern, indem ich mit Nsight einen Trace mache, wo man die Tensor Core Load sieht (CP2077 mit neuen Transformer Modellen). Leider will das momentan nicht funktionieren (stürzt immer ab).
fondness
2025-01-26, 11:25:09
P/L hat RDNA4 tatsächlich die Chance da wieder attraktiv zu werden. Wenn der Preis stimmt und FSR4 den initialen Berichten gerecht wird und RT auch abliefert. Nvidia minus 50€ reicht einfach nicht. IMO. Mal schauen ob sie beim Preis auch abliefern werden.
Nvidia minus zB 200 EUR ist kein Geschäftsmodell. Wenn man AMD nur kauft weil sie billiger sind kann man auch gleich zusperren. Entweder man schafft es Leute davon zu überzeugen etwas anderes als Nvidia zu kaufen oder es geht ab ins Monopol.
aufkrawall
2025-01-26, 11:28:16
Die Entwickler-Ressourcen waren bislang offenbar gut in die Transformer-Modelle anstatt in FG für Ampere investiert. Sehr komisch, Nvidia dafür zu kritisieren.
AMD hat jetzt intern offenbar auch ~alles nach ML abgezogen (siehe ausbleibende FSR-Verbesserungen ohne ML), an dem Punkt ist Nvidia halt schon länger.
fondness
2025-01-26, 11:30:19
Die Entwickler-Ressourcen waren bislang offenbar gut in die Transformer-Modelle anstatt in FG für Ampere investiert. Sehr komisch, Nvidia dafür zu kritisieren.
AMD hat jetzt intern offenbar auch ~alles nach ML abgezogen (siehe ausbleibende FSR-Verbesserungen ohne ML), an dem Punkt ist Nvidia halt schon länger.
AMD hat halt vorher auch was geliefert, dass HW-unabhängig läuft, Nvidia nicht. Wobei ich da auch eher der Meinung bin auf HW-kompatiblität zu achten.
robbitop
2025-01-26, 11:30:26
Nvidia minus zB 200 EUR ist kein Geschäftsmodell. Wenn man AMD nur kauft weil sie billiger sind kann man auch gleich zusperren. Entweder man schafft es Leute davon zu überzeugen etwas anderes als Nvidia zu kaufen oder es geht ab ins Monopol.
Da sollte genug Speck sein. Nvidia hat Margen von 50-60%. Es muss ja nicht gleich 0 sein. Aber ggf reichen auch erstmal 10-20%. Und dann baut man sich das ganze Stück für Stück auf. So wie bei Ryzen damals der zu Anfang auch günstig sein musste.
Die Entwickler-Ressourcen waren bislang offenbar gut in die Transformer-Modelle anstatt in FG für Ampere investiert. Sehr komisch, Nvidia dafür zu kritisieren.
AMD hat jetzt intern offenbar auch ~alles nach ML abgezogen (siehe ausbleibende FSR-Verbesserungen ohne ML), an dem Punkt ist Nvidia halt schon länger.
Ja aber jetzt wo FG ohne OFA läuft wäre es auch gut es für Ampere zu bringen. Der User kann ja selbst entscheiden ob es ihm mangels FP8 schnell genug läuft.
Platos
2025-01-26, 11:42:22
P/L hat RDNA4 tatsächlich die Chance da wieder attraktiv zu werden. Wenn der Preis stimmt und FSR4 den initialen Berichten gerecht wird und RT auch abliefert. Nvidia minus 50€ reicht einfach nicht. IMO. Mal schauen ob sie beim Preis auch abliefern werden.
Allein durchs P/L lässt es sich aber nicht richten. Was nützt es mir (also gesprochen aus Sicht eines beliebigen Nutzer), wenn ich in Raster als Gamer 15-20% mehr P/L habe, bei RT aber gerade so knapp gleichauf (oder weniger) und ich aber real mit DLSS Perfomance konkurriere und daher mit FSR Quality in ganz andere Perfomancebereiche rutsche.
Ich bin da ja nicht so (brauche für Encoding und AI-Zeugs auch Rohleistung und Tensor-Leistung). Aber der normale Gamer sagt sich doch, warum sollte ich AMD kaufen, wenn ich bei nvidia mit DLSS Perfomance gleich gute Optik habe (oder besser), als mit FSR ?
Also m.M.n: Ja, P/L ist wichtig, aber AMD muss vor allem bei den Features endlich gleichziehen. Aus Sicht eines Duechschnittsgamer würde ich auch keine RDNA3 Karte kaufen, wenn sie ein 20% besseres P/L hat. Das wird ja schliesslich mehr als locker aufgefressen, wenn ich DLSS Perfomance und RT zuschalte. AMD kann diesen Rückstand gar nicht wirtschaftlich mittels P/L (Raster/RT) lösen. Es braucht die Features in ~gleicher Qualitat (Framgen+Reflex und DLSS).
basix
2025-01-26, 11:43:49
Ja aber jetzt wo FG ohne OFA läuft wäre es auch gut es für Ampere zu bringen. Der User kann ja selbst entscheiden ob es ihm mangels FP8 schnell genug läuft.
+1
Bei Ampere ist 3060 Ti 8GB, 3070 8GB, 3080 10GB und wohl auch 3080 (Ti) 12GB langsam der Speicher knapp. Ein Upgrade auf eine 5070 (Ti) würde sich bei diesen Usern lohnen, sofern noch nicht auf Ada umgestiegen. FG auf Ampere ist also kein "Neukaufverhinderungsgrund"
robbitop
2025-01-26, 11:46:31
Allein durchs P/L lässt es sich aber nicht richten. Was nützt es mir (also gesprochen aus Sicht eines beliebigen Nutzer), wenn ich in Raster als Gamer 15-20% mehr P/L habe, bei RT aber gerade so knapp gleichauf (oder weniger) und ich aber real mit DLSS Perfomance konkurriere und daher mit FSR Quality in ganz andere Perfomancebereiche rutsche.
Ich bin da ja nicht so (brauche für Encoding und AI-Zeugs auch Rohleistung und Tensor-Leistung). Aber der normale Gamer sagt sich doch, warum sollte ich AMD kaufen, wenn ich bei nvidia mit DLSS Perfomance gleich gute Optik habe (oder besser), als mit FSR ?
Also m.M.n: Ja, P/L ist wichtig, aber AMD muss vor allem bei den Features endlich gleichziehen. Aus Sicht eines Duechschnittsgamer würde ich auch keine RDNA3 Karte kaufen, wenn sie ein 20% besseres P/L hat. Das wird ja schliesslich mehr als locker aufgefressen, wenn ich DLSS Perfomance und RT zuschalte. AMD kann diesen Rückstand gar nicht wirtschaftlich mittels P/L (Raster/RT) lösen. Es braucht die Features in ~gleicher Qualitat (Framgen+Reflex und DLSS).
Ich denke auch dass die RT Leistung auch passen muss und FSR4 abliefern muss (wofür es ja bereits Indizien gibt).
Hoffentlich teilt AMD den sourcecode wieder - dann wird man mit Tools wie Optiscaler FSR4 in praktisch jedem Spiel nutzen können (was DLSS2 oder FSR2 oder XeSS beherrscht).
The_Invisible
2025-01-26, 11:47:05
Naja CPU hat man ein Standard x86 instruktionsset, GPU hat NV ein ganzes Software Universum gewoben. Es reicht hier nicht nur gleich gut zu sein sondern an mehreren Punkten vorbeiziehen. Außerdem macht NV viel mehr mit Spieleentwickler zusammen
Relex
2025-01-26, 11:47:18
Ich wollte gerade den Beweis liefern, indem ich mit Nsight einen Trace mache, wo man die Tensor Core Load sieht (CP2077 mit neuen Transformer Modellen). Leider will das momentan nicht funktionieren (stürzt immer ab).
Die Load wird aber immer gering sein bzw. die Ausführungszeit muss ja gering sein.
Auf ner 4090 kostet das alte CNN Upscaling Model in 4K ca 0,5 ms.
Das alte OFA FG ist bei ca 4 ms im Schnitt.
Das neue FG Model dürfte dann eher so bei 3 ms sein.
Und bereits das wirkt sich mehr oder weniger deutlich auf die Frameraten aus.
robbitop
2025-01-26, 11:47:59
+1
Bei Ampere ist 3060 Ti 8GB, 3070 8GB, 3080 10GB und wohl auch 3080 (Ti) 12GB langsam der Speicher knapp. Ein Upgrade auf eine 5070 (Ti) würde sich bei diesen Usern lohnen, sofern noch nicht auf Ada umgestiegen. FG auf Ampere ist also kein "Neukaufverhinderungsgrund"
Naja wenn man detail slider bedienen kann, sind auch 10 GB VRAM oft noch unproblematisch. ^^
Muss ich als 3080 Besitzer auch machen - halb so schlimm. ^^
basix
2025-01-26, 11:50:06
Die Load wird aber immer gering sein bzw. die Ausführungszeit muss ja gering sein.
Auf ner 4090 kostet das alte CNN Upscaling Model in 4K ca 0,5 ms.
Das alte OFA FG ist bei ca 4 ms im Schnitt.
Das neue FG Model dürfte dann eher so bei 3 ms sein.
Und bereits das wirkt sich mehr oder weniger deutlich auf die Frameraten aus.
Ich vermute, das FG Transformer Modell ist deutlich schlanker. Hier Messungen aus CP2077 mit dem CNN Modell:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13285616#post13285616
Hohe Tensor Pipe Utilization sehr kurz, nur etwa ~0.15ms und inkl. FG ~0.25ms pro Frame
Relex
2025-01-26, 11:53:33
Hmm, dann ist es aber trotzdem seltsam, dass das neue Transformer Model auf neuen und alten Karten FPS kostet, wenn die Tensor cores nur so kurz belastet werden, aber genau das dann irgendwie doch das Bottleneck ist, vor allem beim Ampere.
Irgendwie will das nicht so recht zusammen passen.
fizzo
2025-01-26, 11:55:57
Also m.M.n: Ja, P/L ist wichtig, aber AMD muss vor allem bei den Features endlich gleichziehen. Aus Sicht eines Duechschnittsgamer würde ich auch keine RDNA3 Karte kaufen, wenn sie ein 20% besseres P/L hat. Das wird ja schliesslich mehr als locker aufgefressen, wenn ich DLSS Perfomance und RT zuschalte. AMD kann diesen Rückstand gar nicht wirtschaftlich mittels P/L (Raster/RT) lösen. Es braucht die Features in ~gleicher Qualitat (Framgen+Reflex und DLSS).
Alles gut und recht. Ich als Otto-Durschnitts-Gamer bin da einwenig altmodisch. Bin eventuell auch noch einwenig traumatisiert von zu wenig Grafikkartenspeicher aus meiner Vergangenheit. Hier hat mich NV leider schon mehrfach enttäuscht. Für mich ist Speicher > Featuers, vorausgesetzt Raster/RT sind auf einen ähnlichen Niveau. Das alles bis max. 300Watt. Damit kann mich momentan Blackwell mit seinen Derivaten nicht überzeugen.
basix
2025-01-26, 12:31:32
Hmm, dann ist es aber trotzdem seltsam, dass das neue Transformer Model auf neuen und alten Karten FPS kostet, wenn die Tensor cores nur so kurz belastet werden, aber genau das dann irgendwie doch das Bottleneck ist, vor allem beim Ampere.
Irgendwie will das nicht so recht zusammen passen.
Das ist momentan nur bei RR so. SR läuft ja nur marginal langsamer auf Ampere. Ich nehme an, das ist einfach noch nicht fertig optimiert.
aufkrawall
2025-01-26, 12:32:38
Ja aber jetzt wo FG ohne OFA läuft wäre es auch gut es für Ampere zu bringen. Der User kann ja selbst entscheiden ob es ihm mangels FP8 schnell genug läuft.
Als Blackwell-Käufer fände ich es aber doof, wenn dafür wesentlich interessantere Dinge länger liegen bleiben. Nvidia ist ja nicht die Arche.
basix
2025-01-26, 12:33:35
Ich glaube nicht, dass FG auf Ampere eine sehr grosse Priorität hat. Wenn das kommt, dauert das sicher noch 6 Monate oder so.
Altehardware
2025-01-26, 12:36:25
man plant eine gpu um einen preispunkt herum dabei sind Fertigungskosten und F/E entscheidend.
Da man auf n4 geht und nicht n3 und monolithisch bleibt sind die entwicklungskosten geringer.
Zumal mit dem design bei apu übernehmen kann
Dadurch deckt man 80% des laptop marktes ab zumal ryzen mittlerweile einen Namen hat
Also plant man sku um die 250€ (220$) und 500€ (450$) alles andere wäre Dumm.
Amd muss über die Masse gehen und das geht am besten mit konkurrenzfähige sku die günstiger sind am besten
rx9070 Vermutlich zwischen rtx4070 super und rtx4070ti 230w 559€
rx9070xt vermutlich zwischen rtx4070ti super rtx4080 die abstände sind klein 270w 669€
Vermutung da Sinnig
rx9060xt (40cu 12gb) vermutlich zwischen rtx4060ti und rtx4070 200w 349€
rx9060 vermutlich zwischen rtx4060 und rtx4060ti 249€
rx9050 vermutlich rtx3060 perf. 75w 180€
Prinzenrolle
2025-01-26, 13:16:10
Nichts weiter als Balkenverlängerung.
Man kann die Frametimes im übrigen messen und die haben sich allgemein mit dem neuen FG verbessert. Wenn FG2x gut in einem Spiel funktioniert, funktioniert FG4/3x auch gut. Funktioniert FG2x nicht gut, ändert das FG4x nur geringfügig oder sieht schlechter aus.Es ist eine Erweiterung des Featuresets. Die Bewertungen der Fachpresse sind im übrigen weder besonders negativ noch überschwänglich positiv. "Reine Balkenverlängerung" ist es natürlich nicht. Aber das musst du du so sagen, sonst bricht dein Weltbild in sich zusammen.
Falscher Vergleich... bei CPUs bekommst du keinen proprietären shice aufs Auge gedrückt, was Nvidia immer wieder praktiziert.
Lieber "proprietärer shice" als ne wesentlich schlechtere Bildqualität, die man als AMD Nutzer mit FSR und FSR Native mitschleppen hat müssen.:redface:
Ja zb dargo der niemals nie eine GeForce kaufen würde. Daher umso lustiger wenn er irgendwas von "Green fanboys" und wo schreibt. :freak:
Das ist der Unterschied zu denen die rein nach Sachlage kaufen.
Würde AMD morgen die schnelleren GPUs mit besseren Features herausbringen, würde ich sofort zuschlagen, so ist es halt seit gefühlter Ewigkeit immer nVidia gewesen.
Lol... vergleich mal NVs FG mit AMDs FG, insbesondere auch was da an +Performance rauskommt.
Wann kam das in brauchbarer Qualität? Ca 1,5 Jahre nach dem Nvidia es vorgestellt hat. Wann kam FSR in brauchbarer Qualität, ca 2 Jahre danach und baute dann wieder ab. Na super.
Das Framepacing ist bei AMD meistens schlechter. Overlays im Spiel fizzeln. Meh.
Hakim
2025-01-26, 13:44:10
Ich will ja seit einigen Jahren AMD eine Chance geben, das fing schon bei Polaris an, aber irgendwas hat mich immer sehr gestört. Als ich die 3080 FE nicht bekommen konnte hatte ich mich eigentlich für die 6800XT entschieden. Hat aber auch nicht geklappt (verrückte Zeiten). Jetzt will ich der 9070xt wieder eine Chance geben. AMD macht es einem aber schon jetzt etwas schwer mit der Verzögerung zu Ende März. Werde dennoch versuchen zu warten, da 5070 nur 12GB und 5070ti schon über dem ist was ich ausgeben wollte.
dargo
2025-01-26, 13:49:25
Das Framepacing ist bei AMD meistens schlechter. Overlays im Spiel fizzeln. Meh.
Eine weitere, glatte Lüge. Es ist nicht Aufgabe von AMD Framepacing für Nvidia Hardware zu optimieren!
Man kann die Frametimes im übrigen messen und die haben sich allgemein mit dem neuen FG verbessert. Wenn FG2x gut in einem Spiel funktioniert, funktioniert FG4/3x auch gut. Funktioniert FG2x nicht gut, ändert das FG4x nur geringfügig oder sieht schlechter aus.Es ist eine Erweiterung des Featuresets. Die Bewertungen der Fachpresse sind im übrigen weder besonders negativ noch überschwänglich positiv. "Reine Balkenverlängerung" ist es natürlich nicht. Aber das musst du du so sagen, sonst bricht dein Weltbild in sich zusammen.
Schon klar. :comfort:
Bei HWU kann jeder selbst sehen, dass jede weitere FG-Stufe die Latenzen anhebt weil die Baseline Frames sinken. Aber ein grüner Fanboy weiß es natürlich besser. :uup: Zu den Bullshit Vergleichen von NV sage ich lieber nichts wo Baseline Frames ohne Reflex mit MFG + Reflex verglichen werden. Sowas kannst du eine Klobürste erzählen.
Relex
2025-01-26, 13:54:19
Eine weitere, glatte Lüge. Es ist nicht Aufgabe von AMD Framepacing für Nvidia Hardware zu optimieren!
Wenn es nicht richtig funktioniert, einfach nicht anbieten.
Wenn AMD was anbietet, sollen sie auch Sorge dafür tragen. Erstrecht, wenn man immer mit dem Argument kommt, dass FSR ja eine gute Lösung sei, um alle Hersteller und alle GPUs zu adressieren.
dargo
2025-01-26, 13:58:30
Wenn es nicht richtig funktioniert, einfach nicht anbieten.
Wenn AMD was anbietet, sollen sie auch Sorge dafür tragen. Erstrecht, wenn man immer mit dem Argument kommt, dass FSR ja eine gute Lösung sei, um alle Hersteller und alle GPUs zu adressieren.
Du musst es ja nicht nutzen. Wie will man überhaupt Framepacing herstellerübergreifend optimieren? Denkt doch bitte etwas nach. Framepacing ist eine Treibergeschichte.
Relex
2025-01-26, 14:02:36
Bei Lossless Scaling scheint es ja auch zu funktionieren...
Und ja, ich muss es nicht nutzen. Aber trotzdem schießt sich AMD damit doch unweigerlich selbst ins Bein. Was meinst du denn zu was das führt, wenn jemand FSR FG testet und mit DLSS FG vergleicht und sieht, dass FSR FG schlechter läuft. Ob das jetzt auf AMD besser laufen würde wissen doch die meisten eh nicht.
AMD stellt sich bei Nvidia besitzern nur selbst in ein schlechtes Licht.
Zumindest könnte AMD ja nen Hinweis einbauen, dass es auf nicht-AMD GPUs nicht so gut läuft oder dass man die "beste FSR experience" nur auf AMD karten bekommt.
Aber nein, es wird einfach unkommentiert auf alle losgelassen und dann wundert man sich, warum Leute bei nvidia bleiben.
Man kann den leuten nicht halbgare Arbeit vorsetzen und erwarten, dass man Lob bekommt.
fondness
2025-01-26, 14:04:20
Bei Lossless Scaling scheint es ja auch zu funktionieren...
Und ja, ich muss es nicht nutzen. Aber trotzdem schießt sich AMD damit doch unweigerlich selbst ins Bein. Was meinst du denn zu was das führt, wenn jemand FSR FG testet und mit DLSS FG vergleicht und sieht, dass FSR FG schlechter läuft. Ob das jetzt auf AMD besser laufen würde wissen doch die meisten eh nicht.
AMD stellt sich bei Nvidia besitzern nur selbst in ein schlechtes Licht.
Zumindest könnte AMD ja nen Hinweis einbauen, dass es auf nicht-AMD GPUs nicht so gut läuft oder dass man die "beste FSR experience" nur auf AMD karten bekommt.
Aber nein, es wird einfach unkommentiert auf alle losgelassen und dann wundert man sich, warum Leute bei nvidia bleiben.
Ach bitte, würde es AMD auf Nvidia-HW durch eine Herstellerabfrage sperren, was man dank Open-Source natürlich schön sehen (und umgehen) kann, dann würde die gleichen Leute genauso heulen. NV ist es mindestens egal, wie AMD-SW auf ihren Karten läuft, mehr gibt es dazu nicht zu sagen.
The_Invisible
2025-01-26, 14:05:02
Eine weitere, glatte Lüge. Es ist nicht Aufgabe von AMD Framepacing für Nvidia Hardware zu optimieren!
Bei der installbase von NV Grafikkarten wäre das eigentlich erste priorität :D außer man strebt nur die opensource checkbox an
dargo
2025-01-26, 14:08:07
Bei Lossless Scaling scheint es ja auch zu funktionieren...
Und ja, ich muss es nicht nutzen. Aber trotzdem schießt sich AMD damit doch unweigerlich selbst ins Bein.
Bitte verlasse endlich mal deine 3DC-Nerd Blase. :rolleyes: Was dich stört muss nicht die anderen "08/15" Hanses (was ist eigentlich Prural von Hans? :D) stören. Wenn ich schon deine Pixelzählerei im Zoom hier beim Upscaling sehe dann muss ich ein wenig schmunzeln. Und ich dachte ich wäre schon verrückt. ;D
Bei der installbase von NV Grafikkarten wäre das eigentlich erste priorität :D außer man strebt nur die opensource checkbox an
Man merkt direkt, dass du keinen blassen Schimmer von Grafiktreibern hast. Selbst wenn es ginge wäre AMD ganz schön dämlich dafür Resourcen zu opfern. Was kommt als nächstes? AMD entwickelt die Treiber für Intel und Nvidia? :freak:
Relex
2025-01-26, 14:11:47
Hey, meine letzten Screenshots zu DLSS4 waren nicht gezoomt, ja! :D
Als IHV Agnostiker (zumindest kein bias)
Was ist das? :confused:
Aber mal ernsthaft, als würde es irgend jemanden bis auf ein paar Hardcore Jüngern interessieren, von welchem Hersteller die GPU ist.
Die Features und Produkte sind es nunmal die Kunden überzeugen. Das was Nvidia mit DLSS und RT macht, führt bei mir dazu, dass ich AMD praktisch gar nicht mehr in betracht ziehen würde.
Aber das hat nichts mit AMD oder Nvidia zu tun und ob ich diese Firmen mag oder nicht. Wenn AMD morgen bei den mir wichtigen Punkten stärker überzeugt, dann steckt das nächste mal ne AMD Karte im rechner. Warum sollte ich was anderes kaufen, als das was mir technisch am meisten zusagt?
Richtig. Die Leute kaufen meistens das, was aktuell gut ist, und wenige, deren "Überzeugung" wiederspiegelt. Was bringt Überzeugung, wenn die Leistung nicht stimmt?
Lol... vergleich mal NVs FG mit AMDs FG, insbesondere auch was da an +Performance rauskommt. Wie kann man da bei NV von Weitblick sprechen? :freak:
Du haust so ein Statement raus, und behauptest von anderen, daß sie die rosa Brille aufhaben? :rolleyes: Schau mal in den Spiegel.
Warum ist nochmal aktuell Nvidia eines der höchst bewertesten Firmen weltweit? Warum hat Nvidia einen Marktanteil bei den externen GPUs von ca. 88%? Warum sind nochmal aktuell GPUs für AI aktuell so gefragt?
Sorry, neh :facepalm:
Du schaust aus einer tiefen Froschperspektive tief unten im Tümpel, und meinst die Welt zu sehen.
Warum diskutierst Du hier überhaupt mit? Du bringst nichts vernünftiges hier rein, überziehst alles nur mit übermäßiger Nividahass und -häme und bringst permanent Deine Aversion zu Nvidia rüber! Dann bleibt hier doch einfach fern, laß die Erwachsenen sich hier sinnvoll über die neue Technologie unterhalten, und fertig. Leb doch bitte Deine Komplexe, weil Du Dir diese Karte nicht leisten kannst oder willst, woanders aus.
Sardaukar.nsn
2025-01-26, 14:27:56
Jetzt will ich der 9070xt wieder eine Chance geben. AMD macht es einem aber schon jetzt etwas schwer mit der Verzögerung zu Ende März.
Yesterdays technology, tomorrow.
Oder wie der claim nochmal?
Ich will ja seit einigen Jahren AMD eine Chance geben, das fing schon bei Polaris an, aber irgendwas hat mich immer sehr gestört. Als ich die 3080 FE nicht bekommen konnte hatte ich mich eigentlich für die 6800XT entschieden. Hat aber auch nicht geklappt (verrückte Zeiten). Jetzt will ich der 9070xt wieder eine Chance geben.
Sorry, was hat das jetzt hier verloren? Falsch abgebogen? :wink: Da gehts lang für Dich und AMD ->
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613470
dargo
2025-01-26, 14:51:02
Warum hat Nvidia einen Marktanteil bei den externen GPUs von ca. 88%?
Ist die Mühe nicht wert da mein Post gleich wieder gelöscht oder im schlimmsten Fall mein Account gesperrt wird. :)
Hakim
2025-01-26, 15:19:49
Sorry, was hat das jetzt hier verloren? Falsch abgebogen? :wink: Da gehts lang für Dich und AMD ->
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613470
Na bin auf beiden Threads unterwegs, weil noch nicht entschieden :).
Das Ding ist, ich bin mir fast sicher das NV nach Monaten eine 5070 mit 18GB bringen wird, was meine Entscheidung wesentlich einfacher machen würde. Aber ka ob ich solange warten will. Ich könnte auch einfach die 5070ti holen und gut ist. Mal sehen
monstar-x
2025-01-26, 16:20:50
Du haust so ein Statement raus, und behauptest von anderen, daß sie die rosa Brille aufhaben? :rolleyes: Schau mal in den Spiegel.
Warum ist nochmal aktuell Nvidia eines der höchst bewertesten Firmen weltweit? Warum hat Nvidia einen Marktanteil bei den externen GPUs von ca. 88%? Warum sind nochmal aktuell GPUs für AI aktuell so gefragt?
Sicherlich nicht wegen Gaming. :rolleyes:
Nur wegen den AI Hypetrain, wenn der im Bahnhof angekommen ist, wird es wie 2000 und 2008 eine Marktbereinigung geben und Nvidia kann froh sein, wenn die noch in den Top 10 sind. So lange schön die Aktien halten :-)
Der Marktanteil ist andere Geschichte, da ist Nvidia einfach besser als AMD und Intel, Fakt.
Das Ding ist, ich bin mir fast sicher das NV nach Monaten eine 5070 mit 18GB bringen wird, was meine Entscheidung wesentlich einfacher machen würde.
Ich bin gespannt, ob Deine Prognose eintrifft. Woher nimmst Du diese Gewissheit?
Sicherlich nicht wegen Gaming. :rolleyes:
Das ist doch egal, oder nicht? Mit Gaming alleine kannt man doch heute nicht mehr das Geld verdienen wie früher.
Der Marktanteil ist andere Geschichte, da ist Nvidia einfach besser als AMD und Intel, Fakt.
Dann ja Nvidia doch nicht so viel falsch gemacht haben? Aber die Konkurrenz, die (auch leider) immer mehr in die Bedeutungslosigkeit abrutscht.
dargo
2025-01-26, 16:31:37
Ich bin gespannt, ob Deine Prognose eintrifft. Woher nimmst Du diese Gewissheit?
Weil es 3GB GDDR7 geben wird. ;) Also was genau würde gegen eine spätere 5070 Super mit 18GB sprechen? Das wäre für NV doch der ideale Konter gegen eine 9070(XT).
Exxtreme
2025-01-26, 16:32:41
Wenn die 12 GB-Variante gut weggeht dann wird es keine 18 GB-Variante geben. Wozu auch?
dargo
2025-01-26, 16:33:46
Wenn die 12 GB-Variante gut weggeht dann wird es keine 18 GB-Variante geben. Wozu auch?
RTX 5070 = 549$
RTX 5070TI = 749$
Noch Fragen? Da gibt es genug Luft um eine 5070 Super mit 18GB für 649$ zu positionieren. Und du glaubst wohl nicht ernsthaft, dass NV bis 2027 untätig bleibt? Spätestens für 2026 braucht NV neue Produkte um Aufmerksamkeit zu erhalten.
Hakim
2025-01-26, 16:36:44
Ich bin gespannt, ob Deine Prognose eintrifft. Woher nimmst Du diese Gewissheit?
Ja, ich dachte mir das ähnlich wie bei der 4060Ti, wo sehr viele die 8GB kritisiert haben oder bei der 4070Ti mit 12GB, Nvidia darauf hin, später die 16GB Versionen Nachgeschoben haben. Wenn wieder viele die 12GB der 5070 Kritisieren sollten, was auch seien wir ehrlich zu recht zu Kritisieren ist, könnte man später wenn genug 3GB Module vorhanden sind eine 18GB Super Version nachschieben. Muss nicht so kommen, aber läge auf der Hand
Exxtreme
2025-01-26, 16:38:05
RTX 5070 = 549$
RTX 5070TI = 749$
Noch Fragen? Da gibt es genug Luft um eine 5070 Super mit 18GB für 649$ zu positionieren.
Ich halte es für unwahrscheinlich, dass sie mit sowas die 5070Ti entwerten werden. Denn die kommt lediglich auf 16 GB.
dargo
2025-01-26, 16:39:37
Ich halte es für unwahrscheinlich, dass sie mit sowas die 5070Ti entwerten werden. Denn die kommt lediglich auf 16 GB.
Pfff... gleiches hat doch NV mit der 4060TI @16GB und 4070 gemacht.
Hakim
2025-01-26, 16:44:34
Ich halte es für unwahrscheinlich, dass sie mit sowas die 5070Ti entwerten werden. Denn die kommt lediglich auf 16 GB.
Die könnten aber auch türlich die 5070Ti und 5080 in den Super Variationen mit 24GB Nachschieben, das würde es nicht entwerten. Wobei bei diesen beiden es nicht unbedingt nötig wäre
Weil es 3GB GDDR7 geben wird. ;)
Aber nur weil es das geben wird, heißt es doch noch lange nicht, daß man dann 5070er damit ausstatten wird, oder? ;) Solange kein Druck da ist, und diese Situation haben wir nun leider, wird Nvidia das eben nicht tun, Wirtschaftlichkeit und so.
Also was genau würde gegen eine spätere 5070 Super mit 18GB sprechen? Das wäre für NV doch der ideale Konter gegen eine 9070(XT).
Nichts, wenn sich das für Nvidia rechnen würde. Aber das glaube ich eben nicht.
dargo
2025-01-26, 18:48:24
Aber nur weil es das geben wird, heißt es doch noch lange nicht, daß man dann 5070er damit ausstatten wird, oder? ;) Solange kein Druck da ist, und diese Situation haben wir nun leider, wird Nvidia das eben nicht tun, Wirtschaftlichkeit und so.
Der Druck kommt Ende März. Für eine 18GB 5070S hat NV noch jede Menge Zeit, erstmal müssen die Sparvarianten raus. Und ja... auch eine 5080/5070TI wird mit 24GB machbar sein. Ob diese kommt dürfte in dieser Gen weniger wahrscheinlich sein da über N48 nichts mehr kommt.
Der_Korken
2025-01-26, 19:21:26
Man könnte auch überlegen für eine eventuelle 5070S auf 160bit SI zu gehen mit nur 15GB. Die Bandbreite wäre trotzdem noch höher als bei der 4070S. Genauso könnte man eine 5070TiS mit 21GB bringen statt 24GB.
dargo
2025-01-26, 19:28:38
Das stimmt. Zumal das kleinere SI nicht mal ein Problem wäre wenn die 3GB Chips mehr Durchsatz haben sollten. Aktuell ist man glaube ich bei nur 28Gbps, Samsung orakelt schon von bis zu 42,5Gbps. Wobei es wahrscheinlich dann max. 40Gbps werden in Zukunft. Oft wird mehr versprochen als dann tatsächlich marktreif geliefert.
horn 12
2025-01-26, 19:30:10
@Dargo
Rechne dass weitere Karte über 9070 XT noch kommen wird
eine 24 GB 9080XT wäre durchaus denkbar und wohl machbar.
Zudem hat es Nvidia diesesmal AMD recht leicht gemacht,- wohl auch ein Grund der Verschiebung.
dargo
2025-01-26, 19:33:09
Du bist im falschen Thread dafür. ;)
Prinzenrolle
2025-01-26, 19:38:14
Der Druck kommt Ende März.
Nachdem Nvidia die letzten Jahre kaum noch Druck gehabt hat, ist es schon vermessen nun mit Druck zu rechnen. Mach halt ne AMD Church auf.:redface:
TheGood
2025-01-26, 22:56:53
Nachdem Nvidia die letzten Jahre kaum noch Druck gehabt hat, ist es schon vermessen nun mit Druck zu rechnen. Mach halt ne AMD Church auf.:redface:
Vielleicht treten dann eine paar von der NVidia Church über ? und wie bringt uns das in der diskussion nun weiter?
monstar-x
2025-01-26, 23:00:27
Der Druck kommt Ende März. Für eine 18GB 5070S hat NV noch jede Menge Zeit, erstmal müssen die Sparvarianten raus. Und ja... auch eine 5080/5070TI wird mit 24GB machbar sein. Ob diese kommt dürfte in dieser Gen weniger wahrscheinlich sein da über N48 nichts mehr kommt.
Da ist kein Druck und an eine günstige Versionen oder Preisfall glaube ich nach dieser News auch nicht (hatte ich vorher auch schon nicht ;D )
NVIDIA makes it impossible to sell RTX 50 cards at MSRP
https://videocardz.com/newz/nvidias-tight-geforce-rtx-50-margins-put-pressure-on-board-partners-msrp-feels-like-charity
TheGood
2025-01-26, 23:07:28
Du haust so ein Statement raus, und behauptest von anderen, daß sie die rosa Brille aufhaben? :rolleyes: Schau mal in den Spiegel.
Warum ist nochmal aktuell Nvidia eines der höchst bewertesten Firmen weltweit? Warum hat Nvidia einen Marktanteil bei den externen GPUs von ca. 88%? Warum sind nochmal aktuell GPUs für AI aktuell so gefragt?
Sorry, neh :facepalm:
Du schaust aus einer tiefen Froschperspektive tief unten im Tümpel, und meinst die Welt zu sehen.
Warum diskutierst Du hier überhaupt mit? Du bringst nichts vernünftiges hier rein, überziehst alles nur mit übermäßiger Nividahass und -häme und bringst permanent Deine Aversion zu Nvidia rüber! Dann bleibt hier doch einfach fern, laß die Erwachsenen sich hier sinnvoll über die neue Technologie unterhalten, und fertig. Leb doch bitte Deine Komplexe, weil Du Dir diese Karte nicht leisten kannst oder willst, woanders aus.
Dir als Kunden bringt es nur horrende Preise, bei margen von 70% Da würde ich auch gerne Nvidia weiter hinterherlaufen, nicht. Andere suchen den Fehler....
Exxtreme
2025-01-26, 23:11:20
Bitte zurück zum Thema.
dargo
2025-01-27, 06:22:29
Da ist kein Druck und an eine günstige Versionen oder Preisfall glaube ich nach dieser News auch nicht (hatte ich vorher auch schon nicht ;D )
Was für Preisfall? Ich sprach von einer Produkterweiterung.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13693558&postcount=5297
RTX 5070 Super mit 15 oder 18GB Ende 2025 bis Anfang 2026 halte ich für sehr wahrscheinlich. Hängt natürlich auch davon ab wie weit die 3GB GDDR7 Chips für Massenproduktion vorangeschritten sind.
robbitop
2025-01-27, 07:06:30
Da ist kein Druck und an eine günstige Versionen oder Preisfall glaube ich nach dieser News auch nicht (hatte ich vorher auch schon nicht ;D )
NVIDIA makes it impossible to sell RTX 50 cards at MSRP
https://videocardz.com/newz/nvidias-tight-geforce-rtx-50-margins-put-pressure-on-board-partners-msrp-feels-like-charity
Klingt wieder nach der Fake MSRP wie damals bei Ampere (ja ja durch Corona gabs dann sowieso keine Karten mehr aber ich erinnere mich noch an die Story die MLID gepostet hat).
basix
2025-01-27, 07:45:59
RTX 5070 Super mit 15 oder 18GB Ende 2025 bis Anfang 2026 halte ich für sehr wahrscheinlich. Hängt natürlich auch davon ab wie weit die 3GB GDDR7 Chips für Massenproduktion vorangeschritten sind.
Das wird garantiert kommen. 3GByte Chips kommen auf die 5090 Mobile und alle Quadro Karten, bereits jetzt. Und von Seiten Markt (=Gaming-Blackwell) ist ebenfalls Bedarf da.
Edit:
Noch eine Speku meinersets zum RT Scaling der 5090. Der Performanceanstieg verglichen zur 4090 ist dort oftmals sogar niedriger als bei Raster. Könnte das schlichtweg ein CPU-Limit sein? RT benötigt für den BVH-Build viel CPU-Performance.
Gouvernator
2025-01-27, 08:11:10
Da ist kein Druck und an eine günstige Versionen oder Preisfall glaube ich nach dieser News auch nicht (hatte ich vorher auch schon nicht ;D )
NVIDIA makes it impossible to sell RTX 50 cards at MSRP
https://videocardz.com/newz/nvidias-tight-geforce-rtx-50-margins-put-pressure-on-board-partners-msrp-feels-like-charity
Aha, da haben wir den Übeltäter - GDDR7.
Solange sie von diesem exclusiven Speicher kein Vorrat aufbauen, wird es weder günstigere GPUs geben noch mehr VRAM. Warten bis mehrere Hersteller drauf einspringen. Und dann dann kommt erst eine bezahlbare 48GB Ti.
dargo
2025-01-27, 09:21:36
Das wird garantiert kommen. 3GByte Chips kommen auf die 5090 Mobile und alle Quadro Karten, bereits jetzt. Und von Seiten Markt (=Gaming-Blackwell) ist ebenfalls Bedarf da.
Ja... aber bei Mobile und Pro rufst du ganz andere Preise ab. Deshalb bin ich mir nicht ganz sicher ob das in ein 600+$ dGPU Segment passt. Ich denke aber schon, zeitverzögert versteht sich von selbst.
Aha, da haben wir den Übeltäter - GDDR7.
Solange sie von diesem exclusiven Speicher kein Vorrat aufbauen, wird es weder günstigere GPUs geben noch mehr VRAM. Warten bis mehrere Hersteller drauf einspringen. Und dann dann kommt erst eine bezahlbare 48GB Ti.
Das wird vor 2027 nicht passieren.
basix
2025-01-27, 09:57:12
Ja... aber bei Mobile und Pro rufst du ganz andere Preise ab. Deshalb bin ich mir nicht ganz sicher ob das in ein 600+$ dGPU Segment passt. Ich denke aber schon, zeitverzögert versteht sich von selbst
Du bringst mit 15 GByte ja selbst die perfekte Alternative inkl. Kostenoptimierung ;) Optional noch 32Gbps anstatt 28Gbps zur Kompensation. 3GByte Chips könnten hinsichtlich $/GByte auch etwas günstiger sein (ist sehr wahrscheinlich so) und man spart sich Komponenten auf dem PCB und kann gleichzeitig GPU-Chip Salvaging machen. Das alles in Kombination dürfte kostenmässig die +3GByte kompensieren können (oder sogar etwas darüber hinaus). Und in +1 Jahr sind auch die Chipentwicklungskosten abgeschrieben ;)
GB205 wird nicht bandbreitenlimitiert sein, deswegen dürfte ein salvaged SI nicht weh tun. Der hat auch mit 160bit deutlich mehr Bandbreite als eine 4070 Ti und wird vermutlich langsamer sein, in etwa 4070S Niveau.
Refresh:
- 5070S, 50SM, 15 GByte
- 5060 TiS, 40SM, 12 GByte
- 5060S, 34SM, 12 GByte
Refresh Alternative:
- 5070S, 50SM, 18 GByte
- 5060 TiS, 40SM, 15 GByte (Ersatz für 5060 Ti 16 GByte)
- 5060S, 34SM, 12 GByte
AffenJack
2025-01-27, 10:40:16
3GByte Chips könnten hinsichtlich $/GByte auch etwas günstiger sein (ist sehr wahrscheinlich so)
Eher unwahrscheinlich. 3 GB Chips werden aufgrund der größeren Die-Size und Yield eher teurer sein am Anfang pro GB.
Das wichtigste ist da, dass es mehr als einen Lieferanten gibt. Wenn alle drei GDDR7 mit 3Gb liefern könnte der Preis fallen, solange es nur 1 Lieferanten gibt dürfte es deutliche Preisaufschläge geben.
basix
2025-01-27, 11:06:28
Eher unwahrscheinlich. 3 GB Chips werden aufgrund der größeren Die-Size und Yield eher teurer sein am Anfang pro GB.
Das wichtigste ist da, dass es mehr als einen Lieferanten gibt. Wenn alle drei GDDR7 mit 3Gb liefern könnte der Preis fallen, solange es nur 1 Lieferanten gibt dürfte es deutliche Preisaufschläge geben.
Der Punkt ist:
- 24Gbit Chips werden den neuesten Node nutzen (gut, 16Gbit vermutlich auch, die sind ja auch neu)
- Packaging & Testing Aufwand pro Gigabyte wird reduziert
- Yield-Unterschiede sind vermutlich relativ egal, DRAM wird genau wie SRAM und NAND Redundanz eingebaut haben
Mittel- bis langfristig werden die dickeren Chips also sicher günstiger sein.
Aber ja, der Preis wird erst bei mehreren Lieferanten wirklich attraktiv werden und da einer immer der erste ist, ist es momentan wohl noch Single Source. Das wird sich gegen Ende Jahr aber schon noch ändern.
Argo Zero
2025-01-27, 11:24:55
Bitte zurück zum Thema.
Die ersten roten Karten sind verteilt. Ihr wurdet freundlich gewarnt...
Kriegsgeier
2025-01-27, 11:50:03
https://www.youtube.com/watch?v=ig0hHmk_yFE
Ab Min. 2:20 ist der Beweis, was ich auch vermutet habe: Transformer Model für DLSS frisst bei 3090 wesentlich mehr Performace als bei 5090!
Somit war meine Vermutung richtig. Und viele haben es hier belächelt.
dildo4u
2025-01-27, 11:52:03
Hast du nicht behauptet die 5090 wäre besonders gut sie verliert aber mehr als 4090.
basix
2025-01-27, 11:57:01
https://www.youtube.com/watch?v=ig0hHmk_yFE
Ab Min. 2:20 ist der Beweis, was ich auch vermutet habe: Transformer Model für DLSS frisst bei 3090 wesentlich mehr Performace als bei 5090!
Somit war meine Vermutung richtig. Und viele haben es hier belächelt.
Lustigerweise in 4K nicht, sondern nur in 1440p ;) Und wie gesagt, Alex von DF hat das nur bei RR zeigen können, bei SR nicht.
Ergo:
Ist noch Beta und Optimierungen sind ausstehend. Warten wir also noch ein bisschen, bevor wir ein Fazit bilden.
Zossel
2025-01-27, 13:44:22
Da macht es gerade Pfffffff:
https://www.n-tv.de/wirtschaft/Siemens-Energy-Suss-Microtec-Aixtron-Infineon-ASML-und-Nvidia-China-KI-sorgt-fuer-Kursrutsche-bei-Tech-Aktien-article25517894.html
https://blog.fefe.de/?ts=9969b476
https://www.golem.de/news/chinesische-ki-deepseek-schockt-meta-openai-und-co-2501-192766.html
robbitop
2025-01-27, 13:49:00
Wäre gut um die GPU Preise mal wieder auf den Boden der Tatsachen zu bekommen. Ein nachfragedominierter Markt ist gut für keinen Endkunden und auch nicht gut für langfristigen Fortschritt. :up:
w0mbat
2025-01-27, 13:49:05
Diese DeepSeek Geschichte ist kompletter BS. DeepSeek hat Nvidia GPUs im Wert von Milliarden. Die haben alleine >50.000 H100 GPUs. Und darauf haben sie trainiert. Das ist bullish für Nvidia.
rentex
2025-01-27, 13:58:41
Diese DeepSeek Geschichte ist kompletter BS. DeepSeek hat Nvidia GPUs im Wert von Milliarden. Die haben alleine >50.000 H100 GPUs. Und darauf haben sie trainiert. Das ist bullish für Nvidia.
Details...
Tegenarian
2025-01-27, 13:59:24
Ist nicht eher die Frage, welcher Faktor an GPUs benötigt wird?
basix
2025-01-27, 14:11:19
DeepSeek R1 haut meiner Meinung nach in zwei Bereichen rein:
- Modell ist Open Source inkl. offener MIT Lizenz und SotA -> viele Entwickler werden es verwenden, siehe Metas Llama Modelle
- Preis ist sehr niedrig angesetzt
Beides ist mMn nur deswegen der Fall, weil China damit eine Bresche schlagen will. Positive Resonanz unter Entwicklern und Forschungsinstituten ist ein Aspekt davon. Günstige Preise für die Nutzung ebenfalls.
Das Modell an sich ist aber keine Hexerei. Vergleicht man es mit ChatGPT o1 ist es ähnlich komplex und teuer (Time to first Token, Token/s). Bei ähnlicher Performance/Qualität. Das bedeutet, DeepSeek R1 wird verglichen mit ChatGPT o1 massiv unter Preis angeboten, obwohl es wohl ähnlich teuer beim Inferencing ist (HW und Stromkosten). Und das wurde garantiert nicht nur auf 2k GPUs und für 5.5M$ trainiert. Das halte ich für vorsätzliche Fehlinformation. 5.5M$ waren vermutlich die reinen Stromkosten (in China-Preisen);)
robbitop
2025-01-27, 14:15:51
Diese DeepSeek Geschichte ist kompletter BS. DeepSeek hat Nvidia GPUs im Wert von Milliarden. Die haben alleine >50.000 H100 GPUs. Und darauf haben sie trainiert. Das ist bullish für Nvidia.
Ich habe es so verstanden, dass es nicht um die HW geht sondern um die Effizienz beim Training was um Größenordnungen kleiner zu sein scheint als bisher. Bedeutet man braucht weniger GPUs zum Training. Nicht dass man andere HW braucht.
basix
2025-01-27, 14:17:46
Das halte ich für ziemlich unwahrscheinlich. Aber falls dem so ist: Sehr schön. In 3 Monaten werden das alle anderen kopiert haben ;) Das wäre ja nicht eine schlechte, sondern gute Nachricht. Das dämpft den AI Investitionszwang ein wenig (aber das ist nur die Trainingsseite, Inferencing bleibt bei voller Kanne vorwärts da auch DeepSeek R1 dafür viele Ressourcen braucht)
Einer Key-Punkte im Paper ist, dass sie andere und kleinere Basismodelle mit DeepSeek R1 distillieren. Also Qwen2-14B, Llama3-70B etc. und damit deren Performance deutlich steigern.
Das ist wirklich eine Art Neuheit (hat man in ähnlicher Form zwar auch schon gemacht), aber damit wird primär der Post-Traing & Finetuning Teil deutlich abgekürzt und verbessert. Foundation Modelle sind davon nicht betroffen, die braucht es für diesen Prozess ja genau deswegen, weil sie viel grösser und besser sind als die kleineren Modell (hier in Form von DeepSeek R1)
Edit:
Hier die DeepSeek R1 Modelle zum Download. Das Qwen2-14B Modell kann man auch mit FP8-Weights runterladen (von anderen Personen gemacht), womit das lokal auf einer 24GB Karte wie einer 4090 läuft ;)
https://huggingface.co/collections/deepseek-ai/deepseek-r1-678e1e131c0169c0bc89728d
Hier zum Beispiel Qwen2-14B in FP8:
https://huggingface.co/qeternity/DeepSeek-R1-Distill-Qwen-14B-FP8
w0mbat
2025-01-27, 14:21:29
Ich habe es so verstanden, dass es nicht um die HW geht sondern um die Effizienz beim Training was um Größenordnungen kleiner zu sein scheint als bisher. Bedeutet man braucht weniger GPUs zum Training. Nicht dass man andere HW braucht.
Das ergibt noch weniger Sinn. Das Ziel ist ja nicht DeepSeek R1 oder OpenAI o1, sondern AGI. Wenn man jetzt effizienter trainieren kann, stehen die Chancen AGI wirklich zu erreichen noch besser. Das wird den KI-Hype noch beschleunigen.
Dazu ist DeepSeek nicht multimodal, also nur Text, und kann auch hier nur Englisch und Chinesisch. Klar ist das einfacher zu trainieren.
ashantus
2025-01-27, 15:06:35
Transformer Betrachtung.
https://www.techpowerup.com/review/nvidia-dlss-4-transformers-image-quality/
DrFreaK666
2025-01-27, 15:10:34
Wieso gibt es beim Transformer-Modell manchmal kein Gras (in CP2077)?
monstar-x
2025-01-27, 16:01:38
Diese DeepSeek Geschichte ist kompletter BS. DeepSeek hat Nvidia GPUs im Wert von Milliarden. Die haben alleine >50.000 H100 GPUs. Und darauf haben sie trainiert. Das ist bullish für Nvidia.
Der Nvidia Aktienkurs sagt aber mit -14% (seit heute morgen) aber was anders ...
Vielleicht wird Nvidia wieder in Zukunft ein Grafikkarten Hersteller für uns Gamer und nicht den AI Bros, wäre schön.
6090 mit wieder mehr Rasterpower statt AI Bullshit, ach ... :biggrin:
basix
2025-01-27, 16:10:33
Der Nvidia Aktienkurs sagt aber mit -14% (seit heute morgen) aber was anders ...
Naja, Aktienkurs und hypende Medien und so ;) Nvidias Marktkapitalisierung beträgt immer noch >3 Billionen USD.
Fakt ist, dass DeepSeek R1 ähnlich viel Inferencing Leistung wie ChatGPT o1 benötigt. Und Inferencing ist der viel grössere Markt verglichen mit Training. Und für Inferencing benötigt es genau die gleiche HW.
Zossel
2025-01-27, 18:11:38
Naja, Aktienkurs und hypende Medien und so ;) Nvidias Marktkapitalisierung beträgt immer noch >3 Billionen USD.
Fakt ist, dass DeepSeek R1 ähnlich viel Inferencing Leistung wie ChatGPT o1 benötigt. Und Inferencing ist der viel grössere Markt verglichen mit Training. Und für Inferencing benötigt es genau die gleiche HW.
War es nicht so das NV nur beim Training führend ist?
w0mbat
2025-01-27, 18:18:48
Der Nvidia Aktienkurs sagt aber mit -14% (seit heute morgen) aber was anders ...
Nein, der sagt nichts anderes, sondern der zeigt Unwissenheit und Ungewissheit.
basix
2025-01-27, 19:59:08
War es nicht so das NV nur beim Training führend ist?
Und? Wenn Inferencing der grössere Markt ist, wird dort auch mehr verkauft ;)
Kriegsgeier
2025-01-27, 20:47:44
Interessant, der gute Jensen war am 20. Januar nicht im Kapitol sondern in China - höchst interessant…
Sardaukar.nsn
2025-01-27, 21:17:28
Der Nvidia Aktienkurs sagt aber mit -14% (seit heute morgen) aber was anders ...
Vielleicht wird Nvidia wieder in Zukunft ein Grafikkarten Hersteller für uns Gamer und nicht den AI Bros, wäre schön...
https://i.imgflip.com/9i4u2t.jpg
Exxtreme
2025-01-27, 22:30:18
https://i.imgflip.com/9i4u2t.jpg
Da dürften die Preise eher nach oben gehen. Denn die Kohle, die man mit AI Zeugs nicht mehr verdient, die holt man sich jetzt von den Spielern.
dildo4u
2025-01-27, 22:33:26
Die Karten mit viel Vram verlieren an Wert da es für Gameing nicht nötig ist.
Eine aktuelle Zusammenfassung der ganzen neuen RTX-Features - direkt nutzbare und zukünftige:
9W2Iqlm31_k
MfG
Raff
Jupiter
2025-01-27, 22:49:14
Ich habe es vorhin gesehen. Es ist ein sehr gutes Video, welches auch die neuen Technologien wie Neural Shader, RTX Mega Geometry und RTX Materials, Neural Radiance Cache etc. in kurzer Zeit präzise zusammenfasst.
Glücklicherweise hat es Nvidia frühzeitig verstanden, dass konventionelle Hard- und Software an ihre Grenzen kommt. Mit intelligenten KI-Lösungen kann die Grafikqualität weiter gesteigert werden.
monstar-x
2025-01-27, 23:20:59
Eine aktuelle Zusammenfassung der ganzen neuen RTX-Features - direkt nutzbare und zukünftige:
https://youtu.be/9W2Iqlm31_k
MfG
Raff
Danke RAFF.
Wann kommt der neue Treiber wo DLSS Override möglich ist, weist du da etwas konkretes?
Gerne. :)
Laut Manuel Guzman von Nvidia kommen die Updates am 30. Januar zusammen mit (dem Marktstart) der RTX 5090 und RTX 5080: https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/554741/announcing-geforce-hotfix-driver-56645-released-12/3492765/
Das wird ein Geforce 572.xx.
MfG
Raff
Sardaukar.nsn
2025-01-28, 00:08:20
Hier legt der 572.xx Treiber noch einiges drauf: https://youtu.be/XEWziLWGDzE?si=IFSdeqdvR8k0LaTQ
In Österreich waren gerade schon Karten zu kaufen: https://www.mylemon.at/artikel/msi/4711377292177/grafikkarte-geforce-rtx-5080-gaming.html
Prinzenrolle
2025-01-28, 01:41:55
Da geht scheinbar noch ein bisschen was.
BlacKi
2025-01-28, 09:50:08
Da geht scheinbar noch ein bisschen was.
und auf vcdz hab ich gelesen, msrp preise wären geschenke an die käufer."charity". klingt so, als wollte man die performance per euro erstmal nicht senken. zumindest für die AIBs, damit ist nicht NV gemeint.
dildo4u
2025-01-28, 09:58:33
Zumindest in der EU gibt es noch 4080S für 1100€ auf Lager logischerweise stellen sich die Kartenhersteller nicht selber ein Bein.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&sort=p&bl1_id=30&xf=132_16384%7E9816_03+05+17+-+RTX+4080+SUPER
Gipsel
2025-01-28, 10:43:57
Ich habe es so verstanden, dass es nicht um die HW geht sondern um die Effizienz beim Training was um Größenordnungen kleiner zu sein scheint als bisher. Bedeutet man braucht weniger GPUs zum Training. Nicht dass man andere HW braucht.Aber:
DeepSeek ist China => Sanktionen = dürfen keine nV-GPUs mehr kaufen (oder nur noch abgespeckte) => kaufen danach chinesische KI-Beschleuniger => Marktverlust für nV :freak:
Mangel76
2025-01-28, 12:57:13
Aber:
DeepSeek ist China => Sanktionen = dürfen keine nV-GPUs mehr kaufen (oder nur noch abgespeckte) => kaufen danach chinesische KI-Beschleuniger => Marktverlust für nV :freak:
So wird das nicht funktionieren. Die effizienteren Verfahren sind ja bekannt. Es wird also so kommen, dass man im Westen die Modelle wieder soweit vergrößert/verbessert, dass man damit wieder an die technischen Grenzen gehen wird. Die Effizienzsteigerung wird zum Ausbau der Leistung und nicht zur Senkung der technischen Anforderungen genutzt. GPUs werden auch immer größer trotz höherer Effizienz bei sogar weiter steigendem Verbrauch. Keiner bleibt bei der gleichen Leistung und senkt "nur" den Verbrauch.
Kriegsgeier
2025-01-28, 13:04:17
denn, Jensen Huang war auch am 20. Januar nicht im Kapitol bei der Inauguration von Trump. Er war an diesem Tag in China
PS: ich könnte mir auch vorstellen, dass Jensen Huang gewisse Technologien an China direkt liefern könnte. Quasi eine Art Schulung für die chinesische GPU-Hersteller.
Denn, Jensen ist wahrscheinlich mehr "chinesisch" als wir alle denken.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-5060-und-5060-Ti-Hinweise-auf-Speicher-1464655/
Ich wette, die 5060 gibts wieder nur mit 8GB, wenn man sich bei der Ti wieder zwischen 16 und 8GB entscheiden kann.
mocad_tom
2025-01-28, 13:34:19
Kauft man jetzt eher eine Raster-GPU oder eher einen KI-Beschleuniger :weg:
https://x.com/highyieldYT/status/1884211526149509554
Matrix316
2025-01-28, 13:41:11
Kauft man jetzt eher eine Raster-GPU oder eher einen KI-Beschleuniger :weg:
https://x.com/highyieldYT/status/1884211526149509554
Man könnte ja die ganze KI Power dazu nutzen die Raster Grafik zu beschleunigen. :uponder:
Wenn man sich das Ding so anschaut ist die Analgie zu 2x GB203 gar nicht falsch...
mboeller
2025-01-28, 14:05:28
Aber:
DeepSeek ist China => Sanktionen = dürfen keine nV-GPUs mehr kaufen (oder nur noch abgespeckte) => kaufen danach chinesische KI-Beschleuniger => Marktverlust für nV :freak:
yein. Es geht mehr um Mainframe <-> PC
AI bisher war eine Mainframe-Architektur.
DeepSeek ist mehr oder weniger "PC"
erklärt dieser exM$ Mitarbeiter imho sehr schön:
https://www.youtube.com/watch?v=r3TpcHebtxM
Es geht also um die grundsätzliche zukünftige Ausrichtung. Das bisherige Business-Modell "AI" ist also nicht mehr /edit/ uneingeschränkt gegeben.
Chris Lux
2025-01-28, 14:08:02
Man könnte ja die ganze KI Power dazu nutzen die Raster Grafik zu beschleunigen. :uponder:
Nicht falsch verstehen. Die Raster-Engines sind wesentlich der fixed-function rasterizer. Die Compute-Units sind dann unsere Shader (klassich Vertex, Fragment...).
Gipsel
2025-01-28, 16:46:42
yein. Es geht mehr um Mainframe <-> PC
AI bisher war eine Mainframe-Architektur.
DeepSeek ist mehr oder weniger "PC"
erklärt dieser exM$ Mitarbeiter imho sehr schön:
https://www.youtube.com/watch?v=r3TpcHebtxM
Es geht also um die grundsätzliche zukünftige Ausrichtung. Das bisherige Business-Modell "AI" ist also nicht mehr /edit/ uneingeschränkt gegeben.Du kannst auch auf die effizienteren Modelle von DeepSeek deutlich mehr Rechenleistung schmeißen. Ist ja nicht so, als wenn die Qualität der momentanen Modelle (egal ob Rechenzentrum bei OpenAI oder PC bei DeepSeek) schon der Weisheit letzter Schluß wären.
Mein Einwurf ging aber eher in die Richtung, daß sich DeepSeek eventuell als großer Player auf dem Markt etablieren könnte (und wer sagt, daß zukünftige Versionen auch Open Source sind?) und bei der momentanen Lage daran gehindert werden könnten, nV-Hardware zu kaufen (im Versuch, sie klein zu halten). Einschränkungen gibt es jetzt ja schon. Aber die Diskussion sollte wohl eher im PoWi-Unterforum geführt werden.
Sumpfmolch
2025-01-28, 19:47:09
Warten auf die 5080 Benchmarks. Pure Langeweile.
Anschließend pure Langeweile beim Lesen der langweiligen RTX4080 Ti Super RTX5080 Benchmarks. :sneak:
Heimscheißer
2025-01-28, 20:07:59
Warten auf die 5080 Benchmarks. Pure Langeweile.
Anschließend pure Langeweile beim Lesen der langweiligen RTX4080 Ti Super RTX5080 Benchmarks. :sneak:
Och wieso denn? Auf den neuen Treiber und die Dlss Sachen freu ich mich🤷🏼*♂️😂 und da ich kein (M)FG nutzen möchte behalte ich meine 4080S OC, hab alle neuen Features und fast 5080 Stock Performance und spar mir den Kleinanzeigen Shit mit Verkaufen und das Umbauen vom Pc etc... Tolle Karte die 5080😆👍
Ps: Außer natürlich die 5080 rockt doch noch brutal🤷🏼*♂️😂
Zossel
2025-01-28, 20:18:47
Kauft man jetzt eher eine Raster-GPU oder eher einen KI-Beschleuniger
Weder noch, du kaufst einen Vektorrechner.
Zossel
2025-01-28, 20:23:43
Du kannst auch auf die effizienteren Modelle von DeepSeek deutlich mehr Rechenleistung schmeißen. Ist ja nicht so, als wenn die Qualität der momentanen Modelle (egal ob Rechenzentrum bei OpenAI oder PC bei DeepSeek) schon der Weisheit letzter Schluß wären.
Wie viel weniger halluziniert ein LLM wenn man doppelt so viel Rechenleistung drauf wirft?
Z.B. ändern biologische NNs ihre Topologie beim lernen.
Zossel
2025-01-28, 22:07:52
Kann jemand diese Frage (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13694963&postcount=6095) hier beantworten?
monstar-x
2025-01-29, 00:37:51
Oh je... Wenn Nvidia schon selbst sagst, dass es ein Problem mit den 50er Lagebestands gibt ... Dann gute Nacht!
EDIT: MSI Sagt, Die 5090 von MSI gibt es erst dem 07.02.2025.
Der Launch scheint noch schlechter wie der letzte zu sein.
https://i.postimg.cc/SKDKm1nH/GEFORCE-RTX-50-STOCK-OFFICIAL-2000x596.webp
Sardaukar.nsn
2025-01-29, 06:22:33
Jetzt kommt noch Trump und knallt den Amis in Zukunft 100% Strafzoll auf die China/Taiwan GPUs.
2fBwTsw6qyU
Sumpfmolch
2025-01-29, 06:29:35
Keine Ahnung was Trump will aber es ist beispielsweise in China völlig normal, dass westliche Firmen dort mindestens einen Teil der Produkte produzieren müssen, die sie dort verkaufen. Niemand(tm) wäre so blöde und lässt sich Waren einfach nur ran liefern und baut damit ein großes Handelsdefizit auf.
Wo kann man eigentlich einen Besuch in den Xiaomi und Oppo Werken in Deutschland buchen?
AtTheDriveIn
2025-01-29, 07:06:33
WTO Regeln zu local content mal lesen bevor du "niemand" schreibst.
The_Invisible
2025-01-29, 07:19:15
Oh je... Wenn Nvidia schon selbst sagst, dass es ein Problem mit den 50er Lagebestands gibt ... Dann gute Nacht!
EDIT: MSI Sagt, Die 5090 von MSI gibt es erst dem 07.02.2025.
Der Launch scheint noch schlechter wie der letzte zu sein.
https://i.postimg.cc/SKDKm1nH/GEFORCE-RTX-50-STOCK-OFFICIAL-2000x596.webp
Na dann viel Glück an alle die ihre 4090 schon verkauft haben :freak:
dargo
2025-01-29, 07:21:20
Oh je... Wenn Nvidia schon selbst sagst, dass es ein Problem mit den 50er Lagebestands gibt ... Dann gute Nacht!
EDIT: MSI Sagt, Die 5090 von MSI gibt es erst dem 07.02.2025.
Der Launch scheint noch schlechter wie der letzte zu sein.
https://i.postimg.cc/SKDKm1nH/GEFORCE-RTX-50-STOCK-OFFICIAL-2000x596.webp
Paperlaunch? :popcorn: Nee... wenn ~1.000 Karten DE Scalper erreichen ist es kein Paperlaunch mehr. :D
00-Schneider
2025-01-29, 07:41:17
Wie war damals der Launch bei der 4090? Hat man da außer bei der FE seine Karte bekommen, wenn man rechtzeitig auf der Matte stand?
Tarkin
2025-01-29, 07:44:53
5080 Review Leak: https://www.reddit.com/r/pcmasterrace/comments/1icndtg/rtx_5080_1440p_benchmarks_no_upscaling_no_rt/
5080 1440p vs. 4080S - nur ca. 7% schneller
ouch!
dargo
2025-01-29, 07:46:52
Lol... trollt da jemand den Igor? :D
Kriegsgeier
2025-01-29, 07:59:38
krass, ist ja von Igor :)
Diesmal hat Igor genug: er leakt nun selbst!
The_Invisible
2025-01-29, 08:08:24
Hätte gedacht die 5080 kommt da doch öfter näher an die 4090, so bleibt aber die 4090 klar die 2. schnellste Grafikkarte und das vermutlich für 2 weitere Jahre. Aber mal RT/PT Benches abwarten.
fizzo
2025-01-29, 08:16:07
Wie war damals der Launch bei der 4090? Hat man da außer bei der FE seine Karte bekommen, wenn man rechtzeitig auf der Matte stand?
Nvidias neue Highend-Grafik steht vor Startproblemen (https://www.derstandard.at/story/3000000254910/nvidias-neue-highend-grafik-steht-vor-startproblemen)
Sowohl Großhändler als auch Einzelhändler rechnen mit extrem begrenzten Stückzahlen für die beiden Modelle, die den Anfang machen werden. Frühere Berichte ließen bereits vermuten, dass die RTX 5090 zu einem sehr teuren Exoten verkommen dürfte. Und auch die RTX 5080 soll laut Insidern nur in kleinen Mengen ausgeliefert werden können. Ein US-Distributor bestätigte, dass er zum Marktstart lediglich 20 Exemplare von der RTX 5080 erwartet – von der RTX 5090 gar keine. Zum Vergleich: Beim Launch der RTX 4080 vor zwei Jahren sollen es noch hunderte gewesen sein
edit:
Der einzige Grund, warum es für derlei Grafikkarten heutzutage überhaupt einen Markt gibt ist, dass das Segment der Gamer durchs Älterwerden inzwischen auch haufenweise finanzstarke Konsumenten beinhaltet, die es sich problemlos leisten können unvernünftig viel Geld für eine Grafikkarte auszugeben. Früher hat man die neuesten Grafikkarten gebraucht, um neue Spiele überhaupt spielen zu können. Heute braucht man die neuesten Grafikkarten nur, um Spiele im höchsten Detailgrad oder der höchsten Auflösung spielen zu können, wobei das Spieleerlebnis in niedrigeren nicht signifikant schlechter ist. Letztendlich ein absolutes Luxusproblem. Das ist ungefähr so relevant wie die Verfügbarkeit der neuesten Hermès Tasche.
Aus den Komentaren. Da hat einer den Nagel auf den Kopf getroffen :up:
dargo
2025-01-29, 08:35:42
Nvidias neue Highend-Grafik steht vor Startproblemen (https://www.derstandard.at/story/3000000254910/nvidias-neue-highend-grafik-steht-vor-startproblemen)
Sehr gute Zusammenfassung. (y)
Exxtreme
2025-01-29, 08:41:48
krass, ist ja von Igor :)
Diesmal hat Igor genug: er leakt nun selbst!
Kann sein, dass Igor die Bilder bereits auf den Webserver hochgeladen hat und jemand hat die abgegriffen.
Kriegsgeier
2025-01-29, 08:58:18
Igor wollte einfach diesen Amisvorzügen einen abwischen! Jays2Cens usw.
https://videocardz.com/pixel/nvidia-rtx-5080-is-on-average-8-3-faster-than-rtx-4080-super-according-to-first-review
nun auf Videcardz gelandet!
Wobei Igor hat jetzt für seine Seite extremes PR generiert - alles richtig gemacht!
dildo4u
2025-01-29, 08:59:39
Hätte gedacht die 5080 kommt da doch öfter näher an die 4090, so bleibt aber die 4090 klar die 2. schnellste Grafikkarte und das vermutlich für 2 weitere Jahre. Aber mal RT/PT Benches abwarten.
Die Specs haben das nie hergegeben das ist die Realität wenn man keine Konkurrenz mher hat.
Nvidia hat Intel Marktposition ca 2015.
dargo
2025-01-29, 09:04:00
Ich lache mich schlapp wenn die 9070XT die 5080 in einzelnen Games mit FSR 4 Performance @4k erreicht (NV natürlich mit DLSS 4 Performance @4k). ;D Im Schnitt wird es sicherlich nicht reichen. Aber wenn dieser Leak tatsächlich real ist und ich sehe wo die 5080 vs. 7900XTX in 1440p nativ rauskommt würde mich das nicht überraschen. :D
Die Specs haben das nie hergegeben das ist die Realität wenn man keine Konkurrenz mher hat.
Konkurrenz hat man nur nicht in dem bescheuerten 2.000$ Segment. ;) Die 5080 wird nicht viel schneller sein als die 9070XT.
basix
2025-01-29, 09:04:41
Na dann viel Glück an alle die ihre 4090 schon verkauft haben :freak:
War im Nachhinein nicht der gschickteste Schachzug. Die 5090 sowie 5080 sind nicht so gut (4090 hätte evtl. teurer verkauft werden können) und dass die 5090 relativ schwer erhältlich sein wird, war schon länger ziemlich wahrscheinlich. Das beste ist hier, dass die 5090 eben nicht so gut ist und die Nachfrage entsprechend geringer sein wird als damals bei der 4090 ;)
dildo4u
2025-01-29, 09:13:51
Ich lache mich schlapp wenn die 9070XT die 5080 in einzelnen Games mit FSR 4 Performance @4k erreicht (NV natürlich mit DLSS 4 Performance @4k). ;D Im Schnitt wird es sicherlich nicht reichen. Aber wenn dieser Leak tatsächlich real ist und ich sehe wo die 5080 vs. 7900XTX in 1440p nativ rauskommt würde mich das nicht überraschen. :D
Konkurrenz hat man nur nicht in dem bescheuerten 2.000$ Segment. ;) Die 5080 wird nicht viel schneller sein als die 9070XT.
AMD selber ordnet die Karten bei der 7900xt ein was Sinn macht wenn man die Karte für den Massen Markt verkaufen will.
https://www.chip.de/news/AMD-Radeon-9000-Serie-Grafikkarten-Ankuendigung-laesst-vieles-offen_185710937.html
Mortalvision
2025-01-29, 09:18:37
Was haltet Ihr von der 5070Ti? Habe gehört, dass die Karte nicht viel fixer als eine 7900XT sein soll.
The_Invisible
2025-01-29, 09:21:38
Ich lache mich schlapp wenn die 9070XT die 5080 in einzelnen Games mit FSR 4 Performance @4k erreicht (NV natürlich mit DLSS 4 Performance @4k). ;D Im Schnitt wird es sicherlich nicht reichen. Aber wenn dieser Leak tatsächlich real ist und ich sehe wo die 5080 vs. 7900XTX in 1440p nativ rauskommt würde mich das nicht überraschen. :D
Konkurrenz hat man nur nicht in dem bescheuerten 2.000$ Segment. ;) Die 5080 wird nicht viel schneller sein als die 9070XT.
Ist doch noch alles Speku bei RDNA4, außerdem ist der Rückstand bei RT/PT noch enorm. Und selbst wenn kostet die 9070XT dann mindestens 799USD
dargo
2025-01-29, 09:24:00
Was haltet Ihr von der 5070Ti? Habe gehört, dass die Karte nicht viel fixer als eine 7900XT sein soll.
Was soll man von der halten? Ist halt ein Salvage GB203. P/L eh besser als die 5080. Zumindest was UVP angeht, Straßenpreise muss man abwarten.
Ist doch noch alles Speku bei RDNA4, außerdem ist der Rückstand bei RT/PT noch enorm.
Das stört eh nur die grüne Fraktion aus Nerdforen.
dildo4u
2025-01-29, 09:25:40
Was haltet Ihr von der 5070Ti? Habe gehört, dass die Karte nicht viel fixer als eine 7900XT sein soll.
Das kommt drauf an was man testet Raster Games sind sie vergleichbar mit RT wird die 5070TI 30% schneller sein.
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/
Was haltet Ihr von der 5070Ti? Habe gehört, dass die Karte nicht viel fixer als eine 7900XT sein soll.
Aufgemotzte RTX 4070 TiS -> wird gut. Aber nicht billig. Die RTX 5070 kann man unterdessen direkt abhaken.
MfG
Raff
dargo
2025-01-29, 09:28:34
Aufgemotzte RTX 4070 TiS -> wird gut. Aber nicht billig.
Hehe... das war schon die 4070TI Super nicht. ;)
https://geizhals.de/?cat=gra16_512&xf=9810_06+17+-+RTX+4070+Ti+SUPER
Und wenn man den Gerüchten zu Blackwell glauben schenken darf haben die AIBs bei NV noch weniger Luft zum atmen. Bin schon gespannt wann der nächste AIB das Handtuch nach EVGA wirft.
dildo4u
2025-01-29, 09:37:36
Der Preis passt das Ding performt wie eine XTX mit leichtem RT ala Avatar und Star Wars Outlaws.
Raster Performance haben beide genug.
https://i.ibb.co/bMt3Xncw/SWO.png (https://ibb.co/KpnGWHT4)
https://www.techspot.com/review/2944-nvidia-geforce-rtx-5090/#SWO-png
dargo
2025-01-29, 09:40:17
Da passt gar nichts, checkst du das immer noch nicht? Nach zwei Jahren bekommt man kaum mehr Performance fürs gleiche Geld.
Exxtreme
2025-01-29, 09:41:28
Da passt gar nichts, checkst du das immer noch nicht? Nach zwei Jahren bekommt man kaum mehr Performance fürs gleiche Geld.
Das wird der Markt entscheiden ob das passt oder nicht.
dildo4u
2025-01-29, 09:43:02
Ebend das ist der aktuelle Markt XTX sind immer noch 850€+.
dargo
2025-01-29, 09:43:40
Der Markt ist doch schon längt kaputt. Oder meinst du die ganzen Influencer spiegeln den Gamingmarkt ab? :freak:
Ebend das ist der aktuelle Markt XTX sind immer noch 850€+.
Ich habe nirgendwo gesagt eine 7900XTX wäre 2025 preiswert.
dildo4u
2025-01-29, 09:47:22
Der High End Markt ist nicht rational ein 9800x3D bringt keine 2x Performance von einem 7700x kostet aber 2x.
dargo
2025-01-29, 09:51:02
Der High End Markt ist nicht rational ein 9800x3D bringt keine 2x Performance von einem 7700x kostet aber 2x.
Was ist das denn wieder für ein kruder Vergleich? :freak: Hast du nicht verstanden worum es geht? Der Preis der alten Hardware im GPU-Sektor fällt kaum bis gar nicht, je nach IHV. Bei RDNA2 gab es noch einen guten Abverkauf. Bei RDNA3 sehe ich davon noch nichts, kann ja noch kommen. RDNA4 ist noch nicht da. Bei NV gibt es schon lange keinen Abverkauf mehr, wie früher bei Intel-CPUs.
basix
2025-01-29, 09:58:07
Aus den Komentaren. Da hat einer den Nagel auf den Kopf getroffen :up:
Kann dem nur zustimmen. Vor 10 Jahren hätte ich mir nie etwas wie eine 4090 gekauft. Die Ur-Titan gab es da schon aber eine 780 hat auch gereicht.
Das Problem ist aber eher, dass der gesamte Midrange Markt nach oben gezogen wurde. 500$ waren früher Highend und man bekam für 250$ noch was gut brauchbares. Das kann man heute vergessen.
aufkrawall
2025-01-29, 10:02:42
Das stört eh nur die grüne Fraktion aus Nerdforen.
Wird wohl auch den ein oder anderen Radeon-Nutzer stören, wenn man etas wie AW2 weiter nur mit Ekel-Raster spielen kann.
Aber es passt insofern, dass man Heavy-RT ohne etwas wie RR sowieso vergessen kann. Hardware allein reicht nicht.
Palpatin
2025-01-29, 10:09:27
Was haltet Ihr von der 5070Ti? Habe gehört, dass die Karte nicht viel fixer als eine 7900XT sein soll.
Wenn der leak stimmt müsste sie in etwa die 4070ti super treffen. Vermutlich ~5% schneller und klar schwächer als die 4080S. Also im Raster in etwa 7900XT ja mit RT deutlich fixer und DLSS usw dabei.
Die 5070 hingegen puh die wird es sehr schwer mit der 4070 super zu kämpfen haben, sehe ich max auf Augenhöhe.
Relex
2025-01-29, 10:11:07
Kann sein, dass Igor die Bilder bereits auf den Webserver hochgeladen hat und jemand hat die abgegriffen.
Man findet das Review auch in der Google Suche, auch mit etwas Text aus dem Review. Der Link führt natürlich dann zu ner Fehlerseite.
Aber das Review war mit Sicherheit ein paar Minuten online.
Fühle mich mit dem Kauf der 4080 weiterhin bestätigt. Hab schon 2022 damit gerechnet, dass in Sachen Fertigung und damit Kosteneffizenz erstmal schluss ist, nachdem es Digital Foundry nach dem Besuch bei Microsoft auch immer gepredigt hat. Hat sich zu 100% bewahrheitet. Ada wird damit ca 5 Jahre quasi aktuell bleiben. Ich glaube das gabs noch nie. Hat natürlich positive wie negative Seiten.
Negativ vor allem, weil ich auch mit RTX6000 zwar einen mittelgrößeren Sprung bei der performance/€ erwarte, aber ich beim Kauf der nächsten Karte gerne zwei Gens übersprungen haben will und nicht nur 1,2 oder so. Blackwell zählt ja praktisch nicht mit den mickrigen zuwächsen… Ne 300W Karte mit mindestens doppelter 4080 performance und 32 GB VRAM wäre eben so mein nächstes Ziel… Bis es das gibt haben wir wahrscheinlich 2030…
Als „trost“ ist mir zumindest der Preis dann relativ egal. Wenn Hardware so lange aktuell bleibt, dann egalisiert sich das wieder ein Stückweit. Nur Leistungsaufnahme wäre mir nicht egal.
dargo
2025-01-29, 10:12:58
Ok, also kein Fake schon mal. :) Wäre interessant ob Igor seinen Frust einfach nur loswerden wollte. :tongue:
Das Problem ist aber eher, dass der gesamte Midrange Markt nach oben gezogen wurde. 500$ waren früher Highend und man bekam für 250$ noch was gut brauchbares. Das kann man heute vergessen.
Da trügt Dich meiner Meinung nach Dein Gedächtnis. Wo gab es HighEnd GPUs für 500 €? Wenn Du direkt zum Launch gekauft hattest, gabs kaum eine GPU unter 600-700€ oder mehr. Die letzte "günstige" Karte war eine GTX 580 für 549 € (die dritte, die anderen beiden waren teurer), an die ich mich noch erinnere, und die hatte sich dann später so bei 400 € eingependelt. Die HighEnd Karte war dann eine GTX 590 für ca 700 €. Die GTX 980 gab dann auch für ca. 700 €, wenn Du das am Releasetag gekauft hattest, und ab da gings gefühlt nur noch mit dem Preis bergauf. Davor kann ich mich noch erinnern, für 2 legendäre 8800 GTX 699 € pro Stück bezahlt zu haben, lieferbar am Releasetag.
Daher, HighEnd zum Releasetag war schon immer teuer.
Update:
Ich hab sogar hier noch einen Preis gefunden: 589 € für eine GTX 480.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=7992281&postcount=794
Und wer in Nostalgie frönen möchte, ich hatte damals 2006 schon das Problem Scalper bei GPUs angesprochen, und wurde damals nur blöde angemacht (fürs Protokoll, ich lag damals schon richtig :cool:):
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=283509
Wenn der leak stimmt müsste sie in etwa die 4070ti super treffen. Vermutlich ~5% schneller und klar schwächer als die 4080S.und das quasi etwas teurer, wenn es denn so kommt.
dargo
2025-01-29, 10:20:15
Da trügt Dich meiner Meinung nach Dein Gedächtnis. Wo gab es HighEnd GPUs für 500 €?
Du musst halt etwas über den Tellerrand schauen. :)
https://www.golem.de/news/radeon-r9-290x-im-test-teilzeit-boost-macht-hawaii-fast-zum-titan-killer-1310-102331.html
Palpatin
2025-01-29, 10:24:43
Daher, HighEnd zum Releasetag war schon immer teuer.
Nein zwischen der Geforce 6800 Ultra (ca 300€) und der GTX 480 (ca 500€) ging es auf und ab. 8800 GTX z.B. 600€, 285 GTX z.B. ~300€, zwischenzeitlich war auch mal AMD ganz vorne mit 5870 für ~350€ usw.
Seit der GTX480 geht es allerdings nur eine Richtung. Den ganzen DualGPU Mikroruckelschrott mal ausgeblendet.
dildo4u
2025-01-29, 10:25:20
Zu AMD es macht null Sinn die 9700 zu verscherbeln wenn die Kapazität für winzige 500€ CPU genutzt werden könnte daher verstehe ich den Optissmuss nicht.
Gameing ist kein Wachstums Markt.
Auch die Geforce 680 hat 499$ gekostet. Die Preise sind ewig stagniert. Ich erinnere mich, dass ich 2006 oder so ne 1900XTX für knapp 500€ gekauft hab.
Die 980Ti startete dann für 650$, 1080Ti 700$ und ab da gings steil aufwärts mit den Preisen, 2080Ti 1000$, 3090 1500$, 4090 1600$, 5090 2000$.
whetstone
2025-01-29, 10:28:49
puh, dachte 15-20% werdens schon bei der 5080. Hab ich zumindest nicht so viel konkurenz morgen, ich brauch halt ne karte und hab 3 monate gewartet für den mist und 5 gute deals ausgeschlagen.... vllt wirds ja an die 15% in 4k werden, trozdem mager. DLSS 4 upscaling ist aber ein schönes geschenk für alle NV Besitzer .. und ja vllt zieht blackbwell nochmal etwas an wenn dieses ganze neural AI gedöns in spielen genutzt wird.
ChaosTM
2025-01-29, 10:29:29
naja, die 1080ti hab ich noch um 780 Euronen gekauft.
Danach gings aber steil aufwärts.
Palpatin
2025-01-29, 10:34:21
Auch die Geforce 680 hat 499$ gekostet. Die Preise sind ewig stagniert. Ich erinnere mich, dass ich 2006 oder so ne 1900XTX für knapp 500€ gekauft hab.
Die 980Ti startete dann für 650$, 1080Ti 700$ und ab da gings steil aufwärts .
Dazwischen gab es ja schon die Titan (~900€) als Preisbrecher nach oben ;).
Du musst halt etwas über den Tellerrand schauen. :)
https://www.golem.de/news/radeon-r9-290x-im-test-teilzeit-boost-macht-hawaii-fast-zum-titan-killer-1310-102331.html
Ja, aber dort steht auch was von 529 und 549 € (was mehr ist als 500 € :wink:), und diese Preise hast Du garantiert zum Releasetag nicht bekommen, bzw. stand meistens dort "nicht lieferbar".
basix
2025-01-29, 10:36:42
Da trügt Dich meiner Meinung nach Dein Gedächtnis. Wo gab es HighEnd GPUs für 500 €?
Ich habe bewusst Dollar genommen, da das die Währung des MSRP ist ;)
Sonst hast du immer sich verändernde Wechselkurse sowie unterschiedliche Mehrwertsteuern dazwischen.
Und der MSRP lag bei einer GTX 980 bei 549$.
whetstone
2025-01-29, 10:38:02
Die 1080 gabs damals für 580 tieftspreis in Frankreich irgendwo.
Ich habe bewusst Dollar genommen, da das der MSRP ist ;)
Jetzt wo Du es ausschreibst, sehe ich es auch. :redface:
Wie gesagt, solange ich mich erinnern kann, hatte ich schon immer beim Releasetag mehr bezahlen müssen, als die UVPs und MRSPs es angegeben hatte, u.a. wegen Deine ansprochenen Wechselkurse. Und die lagen bei mir gefühlt ab der 7800 GTX immer so bei 600-700€, wenn lieferbar.
https://www.computerbase.de/news/grafikkarten/geforce-7800-gtx-512-test-rueckblick.74383/
Wer im November 2005 die schnellste Grafikkarte auf dem Markt wollte, kam an der GeForce 7800 GTX 512 nicht vorbei. Mit einer unverbindlichen Preisempfehlung von 649 US-Dollar war sie aber auch mit Abstand die teuerste.
Dadurch, daß ich dann aber immer zügig durchwechselte, konnte ich die alten GPUs immer entsprechend gut verkaufen, und hatte dann immer nur rechnerisch 50% Aufschlag auf die neue Generation. Nur die 3 GTX 580er waren deutlich ein größer Verlust, weil zu lange gewartet mit dem Wechsel auf eine GTX 980. Ab da war es eh aus mit SLI.
Für mich als Fazit, hat sich in den 19 Jahre alles kaum geändert, nur die Preise sind deutlich höher.
Palpatin
2025-01-29, 10:38:03
und das quasi etwas teurer, wenn es denn so kommt.
Naja 4070ti = 889€ und 5070ti = 879€ UVP also quasi eine Preissenkung :rolleyes:.
why_me
2025-01-29, 10:42:17
Das ist ja nicht einmal ein Kasten Bier. Zählt sowas wirklich als Preissenkung?
basix
2025-01-29, 10:43:37
Genau, +1
Wir sollten GraKa Preise in Anzahl Bierkästen angeben. Dann bekommt man ein besseres Bauchgefühl, wie viel das effektiv ist :D
Naja 4070ti = 889€ und 5070ti = 879€ UVP also quasi eine Preissenkung :rolleyes:.
Die 5070 Ti wird die mMn attraktivste Karte des Blackwell Portfolios sein (wenn man das Geld dafür hat): 16GB anstatt 12GB, einiges schneller als die 5070, so viel zur 5080 wird nicht fehlen (15%?)
Für mich als Fazit, hat sich in den 19 Jahre alles kaum geändert, nur die Preise sind deutlich höher.
Das ist so ja. Sind halt 2-3x höhere Preise wie früher, was schon sehr viel ist.
Hakim
2025-01-29, 10:45:10
Ich hätte ja zumindest ~10-13% in avg erwartet. Ich meine ja von Leuten die von Pascal oder niedriger Ampere kommen ist die Gen immer noch gut plus, aber für Ada Besitzer halt extrem langweilig. Wobei es für einige bestimmt auch gut ist das man mit ihren Ada Karten kaum hinterher hinkt.
Die 4090 Käufer haben damals vieles richtig gemacht. Vielleicht will NV auch nur das absolute nötigste machen und nicht noch mehr als 90% Marktanteil haben weil dann die Behörden aufmerksam werden :). Bin mal auf die nächste Gen mit der besseren Fertigung gespannt.
Kriegsgeier
2025-01-29, 10:45:21
Als die HighEnd-GraKas 700-800€ gekostet haben hat der Burger in McDonalds auch keine 8,60€ gekostet, oder?
Dazwischen gab es ja schon die Titan (~900€) als Preisbrecher nach oben ;).
Titan ist nicht relevant. Trotzdem ganz guter Punkt, die 780Ti startet schon für 700$ und das war ja die Titan für Gamer. Titan als Marke ist für Gamer aber irrelevant. Die Ur-Titan war langsamer als die 780Ti, die Black war kaum schneller, die X war kaum schneller als die 980Ti, die V war preislich jenseits von Gut und Böse und trotzdem kaum schneller, also Titan bleibt bei der Betrachtung außen vor.
Also:
580Ti -> 550$
680 -> 500$
780Ti -> 700$
980Ti -> 650$
1080Ti -> 700$
2080Ti -> 1000$ -> Mining-Boom
3090 -> 1500$ -> Mining-Boom2
4090 -> 1600$
5090 -> 2000$ -> KI-Boom
dildo4u
2025-01-29, 10:47:22
Preissenkungen machen kein Sinn da erst jetzt mehrere Games kommen die RT verlangen entweder du wirst Konsolen Spieler oder du zahlst Nvidia Steuer.
Zossel
2025-01-29, 10:52:18
Preissenkungen machen kein Sinn da erst jetzt mehrere Games kommen die RT verlangen entweder du wirst Konsolen Spieler oder du zahlst Nvidia Steuer.
Warum sollten Spielehersteller ihre Produkte nur einer Minderheit des Marktes zur Verfügung stellen?
Haben die Shareholder bei diesen Spieleherstellern nix zu melden?
basix
2025-01-29, 10:52:42
Lustigerweise müsste Nvidia nur zwei Karten bringen, damit Blackwell doch noch eine gute Generation wird:
- 5060 Ti mit 12GB, 379...399$
- 5060 mit 12GB, 329...349$
Das wäre tip top. Die 5070 wäre schöner mit 15GB gewesen, aber der Zug ist abgefahren.
The_Invisible
2025-01-29, 10:56:40
Titan ist nicht relevant. Trotzdem ganz guter Punkt, die 780Ti startet schon für 700$ und das war ja die Titan für Gamer. Titan als Marke ist für Gamer aber irrelevant. Die Ur-Titan war langsamer als die 780Ti, die Black war kaum schneller, die X war kaum schneller als die 980Ti, die V war preislich jenseits von Gut und Böse und trotzdem kaum schneller, also Titan bleibt bei der Betrachtung außen vor.
Also:
580Ti -> 550$
680 -> 500$
780Ti -> 700$
980Ti -> 650$
1080Ti -> 700$
2080Ti -> 1000$ -> Mining-Boom
3090 -> 1500$ -> Mining-Boom2
4090 -> 1600$
5090 -> 2000$ -> KI-Boom
Naja die 90er sind eigentlich Titan Ersatz. Wennst die wegnimmst und die 80er hernimmst ist man heute wieder bei 999$ UVP
basix
Wirds ja beide nicht geben, ist ja durchgesickert. Die 5060Ti gibts wieder als 8 und 16GB-Variante, das heißt für die 5060 wieder nur 8GB und fertig.
Ich denke, NV wird die eh knappen GDDR7 24Gb wohl kaum für Gaming verschwenden.
Naja die 90er sind eigentlich Titan Ersatz. Wennst die wegnimmst und die 80er hernimmst ist man heute wieder bei 999$ UVP
Blödsinn, das ist der 80Ti-Ersatz. Dass die 3090er dann noch mal als 80Ti kam war, weil sie die Preise der 90er nach dem Mining-Boom nicht senken wollten, aber geplant war die Karte nicht. Eine Ampere-Titan hätte mehr als die V gekostet. Was steht für die Titan B im Raum? 8000$? DAS ist Titan.
prinz_valium_2
2025-01-29, 11:00:32
Damit ist die 5080 ja doch schneller als der Vorgänger. 8%
Bin von nur 5% ausgegangen.
Hakim
2025-01-29, 11:05:29
Irgendwie schon komisch das man teils bei einer CPU gen bis 20% bekommen kann (7800x3d zu 9800x3d), aber hier teils weniger als 10%. War ja schon bei der 3060ti zu 4060ti so ähnlich.
Exxtreme
2025-01-29, 11:11:50
Irgendwie schon komisch das man teils bei einer CPU gen bis 20% bekommen kann (7800x3d zu 9800x3d), aber hier teils weniger als 10%. War ja schon bei der 3060ti zu 4060ti so ähnlich.
Nvidia liefert das, was die Kunden haben wollen und dafür bereit sind Geld auszugeben. So funktioniert die Marktwirtschaft. Die beste Möglichkeit, die man hat, ist mit dem Geldbeutel abzustimmen. Nutzt die Kundschaft diese Möglichkeit nicht dann wird sich auch nichts ändern.
dildo4u
2025-01-29, 11:12:15
Irgendwie schon komisch das man teils bei einer CPU gen bis 20% bekommen kann (7800x3d zu 9800x3d), aber hier teils weniger als 10%. War ja schon bei der 3060ti zu 4060ti so ähnlich.
Der 9800X3D sieht besser aus da AMD das Kühlungsproblem gelöst hatte.
Dort wurde nicht zwangsweise mehr Hardware verbaut.
rentex
2025-01-29, 11:13:33
10%?!... 100% zu wenig!
Naja die 90er sind eigentlich Titan Ersatz. Wennst die wegnimmst und die 80er hernimmst ist man heute wieder bei 999$ UVP
Sehe ich auch so. Deshalb wird es auch keine Titans mehr geben, weil dafür Jensen 90 eingeführt hatte.
Blödsinn, das ist der 80Ti-Ersatz. Dass die 3090er dann noch mal als 80Ti kam war, weil sie die Preise der 90er nach dem Mining-Boom nicht senken wollten, aber geplant war die Karte nicht.
Das ist doch jetzt rein subjektiv. Gut, man könnte argumentieren, daß eine Titan eigentlich immer ein Vollausbau des jeweiligen Chips war (war dem auch immer so? :uponder:). Aber der Vollausbau des GB203 wird vermutlich eher gewinnbringend in die Profi-Reihe verbaut:
https://www.computerbase.de/news/grafikkarten/rtx-6000-blackwell-nvidia-verschickt-grafikkarten-mit-96-gb-gddr7-speicher.91131/
Relex
2025-01-29, 11:27:37
Ich finde die aktuelle Situation extrem bitter für Leute, die mit ner älteren Karte extra auf Blackwell gewartet haben und z.B. ne 5080 kaufen wollten und AdaLovelace damals bewusst übersprungen haben.
Effektiv haben sie jetzt über zwei Jahre Nutzungszeit verschenkt in der sie bereits seit Ende 2022 eine 4080 hätten nutzen können für nur wenig Mehrkosten und geringfügig weniger performance.
Und so wird es mehr oder weniger für alle Karten aussehen, wenn sich an Perf/€ nicht viel tut.
Und selbst wenn sich was tut, hat man es sich mit Zeit und potenziell geringerer Langlebigkeit erkauft.
Denn in der Perf/€ Betrachtung müsste man eigentlich auch immer die Zeit mit Einberechnen.
2 Jahre auf 10% mehr Performance zu warten und in der zeit ne ältere Karte zu nutzen ist ein verdammt schlechter Deal, solange der Preis nicht deutlich (!) nach unten geht.
Und da das nicht der Fall ist, geht die Rechnung auch nicht auf. Das warten hat sich null gelohnt und man hat praktisch nur Nutzungszeit verschenkt.
basix
2025-01-29, 11:28:18
Kleine Ergänzung ;)
580Ti -> 550$
680 -> 500$
780Ti -> 700$
980Ti -> 650$
1080Ti -> 700$ -> Start Mining Boom 2017
2080Ti -> 1000$ -> Mining-Boom und dann Crash
3090 -> 1500$ -> Mining-Boom #2 + Covid
4090 -> 1600$ -> Covid Ausläufer + geweckte Gier der Firmen (aufgrund Mining und Covid hohe Margen)
5090 -> 2000$ -> KI-Boom
Disconnected
2025-01-29, 11:34:25
Yep, jetzt ist *die* Gelegenheit, mal den Pile of Shame etwas abzubauen.
Sardaukar.nsn
2025-01-29, 11:41:52
Irgendwie schon komisch das man teils bei einer CPU gen bis 20% bekommen kann (7800x3d zu 9800x3d)…
Das muss aber schon eine besondere Kirsche in 720p sein. Aber gut, gibt ja Spiele die in 4K auf der 5090 +50% auf den Vorgänger legen.
Matrix316
2025-01-29, 11:42:09
naja, die 1080ti hab ich noch um 780 Euronen gekauft.
Danach gings aber steil aufwärts.
Wobei das nix mit Inflation zu tun gehabt hatte, weil Bitcoin die 1080TI von 7xx auf ~1100 und mehr hochgetrieben hat. Und bei der 2080TI hat Nvidia einfach diesen höheren Preis dann übernommen. :ugly: Und die 3080 war ja auch UVP 700 aber dann eher 1200 im Handel und Nvidia hat das bei der 4080 wieder eiskalt weitergeführt. Die hätte man auch ohne Probleme für 700 Euro UVP rausbringen können. Genauso die 5080. Die Preise sind nur so hoch, weil irgendwelche Bitcoin Deppen und Scalper in der Vergangenheit die hochgetrieben haben. Und sonst wegen nix anderem. Zumal die Platinen immer kleiner werden. Schaut euch mal die alten 980TI und 1080TI und so an. Das waren noch große Karten. Die 3080 waren nur noch halb so groß. Und die 5000er sind ja winzig.
Wie war damals der Launch bei der 4090? Hat man da außer bei der FE seine Karte bekommen, wenn man rechtzeitig auf der Matte stand?
Es gab bei Caseking genau 13 GPUs von Asus TUF, und genau so viele Leute hatten vor dem Shop gewartet.
Die Asus ROG konnte am nächsten Tag online in deren Shop bestellen, und sie war am nächsten Tag auch da. Als diese dann auch nicht in mein Gehäuse paßte, hatte ich an dem Tag gleich die GPU bei Mindfactory von Palit GameRock OC bestellt, die auch noch lieferbar war. Sprich, innerhalb einer 3 Woche konnte ich problemlos und ohne Stress drei 4090er kaufen.
Zossel
2025-01-29, 12:38:08
Ich finde die aktuelle Situation extrem bitter für Leute, die mit ner älteren Karte extra auf Blackwell gewartet haben und z.B. ne 5080 kaufen wollten und AdaLovelace damals bewusst übersprungen haben.
Effektiv haben sie jetzt über zwei Jahre Nutzungszeit verschenkt in der sie bereits seit Ende 2022 eine 4080 hätten nutzen können für nur wenig Mehrkosten und geringfügig weniger performance.
S. Anhang.
dildo4u
2025-01-29, 12:56:16
Was ist das denn wieder für ein kruder Vergleich? :freak: Hast du nicht verstanden worum es geht? Der Preis der alten Hardware im GPU-Sektor fällt kaum bis gar nicht, je nach IHV. Bei RDNA2 gab es noch einen guten Abverkauf. Bei RDNA3 sehe ich davon noch nichts, kann ja noch kommen. RDNA4 ist noch nicht da. Bei NV gibt es schon lange keinen Abverkauf mehr, wie früher bei Intel-CPUs.
Ebend wie dir aufgefallen ist es wurde deutlich weniger Produziert egal ob NV oder AMD
Keiner wird von Nvidia abspringen da die 5080 eine Gurke ist somit verliert die 4080S keinen Wert das ist genau das was OEM wollen.
Sardaukar.nsn
2025-01-29, 12:56:58
Ich finde die aktuelle Situation extrem bitter für Leute, die mit ner älteren Karte extra auf Blackwell gewartet haben und z.B. ne 5080 kaufen wollten und AdaLovelace damals bewusst übersprungen haben.
Ab Herbst/Winter 2024 hätte ich aber keine alte Generation mehr gekauft. Es sei denn krasse Abverkaufspreise, aber gab es ja nicht.
Prinzenrolle
2025-01-29, 13:27:01
Aber nicht billig. Die RTX 5070 kann man unterdessen direkt abhaken.
Stimmt, denn mit 12 GB V-ram läuft heute ja überhaupt kein Spiel mehr.:redface:
Schon gar nicht auf 1080p und 1440p Monitoren. Und Regler natürlich maxed out.
Der Markt ist doch schon längt kaputt.
Ich bekomme meine GPU nicht zum Wunschpreis. Markt kaputt!:ucrazy:
Dieses Geflenne und Gejammere ist so typisch deutsch.
Sardaukar.nsn
2025-01-29, 13:32:05
der8auer wohl erstmalig mit eigener GPU Wasserkühlung. Auch für die FE.
https://www.overclock.net/threads/official-nvidia-rtx-5090-owners-club.1814246/page-93?post_id=29420737#post-29420737
MiamiNice
2025-01-29, 13:42:50
Ach Mist, also wohl doch die Astral :freak:
x-force
2025-01-29, 13:58:53
Ich bekomme meine GPU nicht zum Wunschpreis. Markt kaputt!:ucrazy:
Dieses Geflenne und Gejammere ist so typisch deutsch.
mit den wirtschaftlichen grundkenntnissen eines gymnasiasten hättest du dich nicht zu so lächerlichen aussagen hinreißen lassen.
Der Markt ist doch schon längt kaputt.
Kaputt in welchem Sinne? Die Leute kaufen doch immer wieder, da ist mitnichten was kaputt.
Sehe ich auch so. Deshalb wird es auch keine Titans mehr geben, weil dafür Jensen 90 eingeführt hatte.
Das ist doch jetzt rein subjektiv. Gut, man könnte argumentieren, daß eine Titan eigentlich immer ein Vollausbau des jeweiligen Chips war (war dem auch immer so? :uponder:). Aber der Vollausbau des GB203 wird vermutlich eher gewinnbringend in die Profi-Reihe verbaut:
https://www.computerbase.de/news/grafikkarten/rtx-6000-blackwell-nvidia-verschickt-grafikkarten-mit-96-gb-gddr7-speicher.91131/
Die Titan war immer wild überteuert, die kannst du in keine Preisbetrachtung einbauen. Wie gesagt, wenn NV jetzt ne Titan nachschieben würde wäre die sicherlich irgendwo zwischen 5 und 8k$.
Nicht der Markt ist kaputt, die Preise sind kaputt. Aber da sind die Konsumenten ja auch selbst schuld. Ich denke aber, man wird so ziemlich das Maximum erreicht haben jetzt, was man für Grafikchips ansetzen kann. Ich denke, dass die 5090 schon hart floppen wird bei der geringen Mehrleistung und dem übertriebenen Preis.
Stimmt, denn mit 12 GB V-ram läuft heute ja überhaupt kein Spiel mehr.:redface:
Schon gar nicht auf 1080p und 1440p Monitoren. Und Regler natürlich maxed out.
Viel Geld für pralle Nähte, die stets zu bersten drohen. Kann man kaufen, aber mit vertraglich untersagter Weinerei, weil sich das seit nunmehr zwei Jahren abzeichnet. ;)
MfG
Raff
Nicht der Markt ist kaputt, die Preise sind kaputt.
Das paßt schon besser.
Aber da sind die Konsumenten ja auch selbst schuld.
Warum? Glaubst Du etwa auch an die grenzenlos weltweite Solidarität für billige GPUs? Niemand wird doch gezwungen, sich eine HighEnd GPU zu kaufen? :confused:
Ich denke aber, man wird so ziemlich das Maximum erreicht haben jetzt, was man für Grafikchips ansetzen kann. Ich denke, dass die 5090 schon hart floppen wird bei der geringen Mehrleistung und dem übertriebenen Preis.
Das dachten doch schon viele auch bei der 3090 wie 4090. Und dann stehe ich da in dem Laden, und sehe, wie 13 4090er für über 2500 € innerhalb 15 min weggehen wie warme Semmel. Sorry, bei bald 40 Jahre PC und Computertechnik war das für mich gefühlt nicht anders, damals wie heute.
Das war gar nicht wertend gemeint aber wenn man hohe Preise dafür abrufen kann und das auch dafür bezahlt wird, dann ist das eben so.
Und ja, man dachte das bei den bisherigen 90ern auch, aber ich denke, da wirds trotzdem irgendwo einen Deckel geben und 2k ist einfach verdammt viel für die normal arbeitende Bevölkerung.
DrFreaK666
2025-01-29, 14:31:52
...Und dann stehe ich da in dem Laden, und sehe, wie 13 4090er für über 2500 € innerhalb 15 min weggehen wie warme Semmel...
Was haben die 13 Personen denn schon zu sagen?
Wie viel % machen 4090er aus, wenn man sich die Verkaufszahlen der Generation ansieht?
Und ja, man dachte das bei den bisherigen 90ern auch, aber ich denke, da wirds trotzdem irgendwo einen Deckel geben und 2k ist einfach verdammt viel für die normal arbeitende Bevölkerung.
Genauso wie 4 neue Reifen fürs Auto, neues großes Fenster für Eigenheim, neuer Fernseher...
Hast Du noch die ganzen Vobis/Escom etc. Prospekte im Kopf, wo die "besseren" PC alle so ab 5000-8000 DM lagen?
Das Interessante finde ich ja, daß dieser Enthusiasmus nicht beschränkt ist auf ein paar IT-Nerds, sondern mittlerweile in allen Bevölkerungsschichten zu finden sind. Der mir die 4090 abkaufte, war ein "einfacher" Fahrer für Möbel.
Was haben die 13 Personen denn schon zu sagen?
Wie viel % machen 4090er aus, wenn man sich die Verkaufszahlen der Generation ansieht?
Natürlich nichts, aber trotzdem erstaunlich, wie viele die Preise so nicht schrecken und kaufen. Zudem hast Du ja nicht all die Onlinekäufer im Kopf. Und wenn Du dann mal die Umfragewerte bei PCGH oder Computerbase und Co. betrachtest, wo über 18-23% eine 4090 haben, ist das nicht wenig. Und ich erinnnere, daß Gejammere bei der 4090 war schon hoch, und sie wurde trotzdem sehr oft gekauft.
Exxtreme
2025-01-29, 14:41:24
Das war gar nicht wertend gemeint aber wenn man hohe Preise dafür abrufen kann und das auch dafür bezahlt wird, dann ist das eben so.
Und ja, man dachte das bei den bisherigen 90ern auch, aber ich denke, da wirds trotzdem irgendwo einen Deckel geben und 2k ist einfach verdammt viel für die normal arbeitende Bevölkerung.
Nö, ist es nicht. Das Einzige, was da abschreckt ist die sehr große Zahl, die man da auf einmal abdrückt. Das Hobby Rauchen ist viel teurer und da haben die Leute viel weniger Probleme damit da massiv Kohle zu versenken.
Matrix316
2025-01-29, 14:41:54
Genauso wie 4 neue Reifen fürs Auto, neues großes Fenster für Eigenheim, neuer Fernseher...
Hast Du noch die ganzen Vobis/Escom etc. Prospekte im Kopf, wo die "besseren" PC alle so ab 5000-8000 DM lagen?
Das Interessante finde ich ja, daß dieser Enthusiasmus nicht beschränkt ist auf ein paar IT-Nerds, sondern mittlerweile in allen Bevölkerungsschichten zu finden sind. Der mir die 4090 abkaufte, war ein "einfacher" Fahrer für Möbel.
Mit dem Preis der 5090 Karten hättest du damals den 5000 Euro Mark PC bekommen. Und so viel hätte damals keiner für eine Grafikkarte bezahlt. Auch wenn die Geforce 2 Ultras und Geforce 3 Karten auch so richtig teuer waren.
Man muss das ganze auch in Relation sehen. Wenn ein Auto 2000 Euro kostet ist das billig. Für eine Grafikkarte ist das zu viel. Wenn dein Auto aber 100000 Euro kosten soll ist das in etwas so wie wenn Grafikkarten 2000 Euro kosten.
basix
2025-01-29, 14:43:56
Stimmt, denn mit 12 GB V-ram läuft heute ja überhaupt kein Spiel mehr.:redface:
Schon gar nicht auf 1080p und 1440p Monitoren. Und Regler natürlich maxed out.
Das nicht. Aber RT und DLSS (SR, RR, FG) und somit die schönen neuen Features benötigen Speicher. OK, DLSS4 mit gesteigerter Qualität und somit DLSS-P anstatt DLSS-Q oder DLSS-Q anstatt DLAA reisst noch was raus, reduziert VRAM Bedarf ein wenig. Doch für recht viel Geld nicht so schön, wenn man die GPU mehr als nur 2 Jahre verwenden will. Die 5060er 8GB und 5070 Mobile 8GB sind DoA. Bei einer 400$ 5060 Ti wären 12GB deutlich vertretbarer als bei einer 550$ 5070.
Viel Geld für pralle Nähte, die stets zu bersten drohen. Kann man kaufen, aber mit vertraglich untersagter Weinerei, weil sich das seit nunmehr zwei Jahren abzeichnet. ;)
Genau das. Und was man mit einer 5070 bekommt, hätte man seit zwei Jahren mit einer 4070 auch bekommen. Wer also nicht auf eine 4070 upgraden wollte, wird an der 5070 nicht viel mehr Freude haben.
Und so viel hätte damals keiner für eine Grafikkarte bezahlt. Auch wenn die Geforce 2 Ultras und Geforce 3 Karten auch so richtig teuer waren.
Jaha, und über die Geforce 3 hab ich mich damals so richtig geärgert, und damals sogar 1000 DM oder mehr gelatzt, ich erinnere mich nicht mehr richtig. Und ein paar Monate später kam dann die Geforce 4 wesentlich besser und günstiger. :mad::freak:
Und hier haben wir jetzt 27 Monate für die nächste Generation gewartet, und wer weiß, wie lange wir auf Rubin warten werden. Und sich das dickste Ding jetzt kaufen heißt auch, sich die nächsten 2 Jahre oder mehr keine Gedanken mehr über vermeidliche Performanceengpässe bei hohen Einstellungen machen zu müssen.
reaperrr
2025-01-29, 14:54:38
Und ja, man dachte das bei den bisherigen 90ern auch, aber ich denke, da wirds trotzdem irgendwo einen Deckel geben und 2k ist einfach verdammt viel für die normal arbeitende Bevölkerung.
Ich fürchte, das täuscht.
Wer sich alle 1-2 Jahre ein neues Samsung Sxx oder iPhone leisten kann, für 100-200€ im Monat neue Klamotten kaufen kann, sich ein Auto für über 30k € leisten kann usw., für den sind ~2000-2500 € für ne neue Graka alle 2 Jahre auch nicht mehr sooo viel.
Für jemanden, der für all die anderen Dinge nicht so viel ausgibt und außer Gaming wenig Hobbies hat, erst recht nicht.
Ich bin selber viel zu geizig, um wesentlich mehr als 500€ für ne Graka oder mehr als 300€ für ne CPU auszugeben, aber objektiv könnte ich das aus der Portokasse, wenn mir mein Geiz nicht im Weg wäre.
Und ich kriege* Brutto weniger als die meisten Durchschnittsangestellten heutzutage (*wollte nicht "verdiene" schreiben, weil verdienen würde ich wesentlich mehr :P). Gut, ich zahl auch weniger Miete als die meisten.
Will nur sagen: Kommt stark auf die Lebensumstände an. Gibt genug Leute da draußen, die sich die 5090 auch leisten könnten (und holen würden), wenn sie 5000 kosten würde.
Die Leute jammern gern viel, und ohne Frage gibt's genug, denen es finanziell wirklich nicht so gut geht.
Aber es gibt auch mehr als genug, die zwar gern rumjammern, aber eigentlich nur völlig verwöhnt sind und halt gern noch mehr vom Statussymbol Geld rumliegen hätten, oder schlicht zu viel Geld für unnützes Zeug verprassen und eigentlich nur deshalb finanziell am rumkrepeln sind.
Mit dem Preis der 5090 Karten hättest du damals den 5000 Euro PC bekommen. Und so viel hätte damals keiner für eine Grafikkarte bezahlt. Auch wenn die Geforce 2 Ultras und Geforce 3 Karten auch so richtig teuer waren.
Dafür sind die schnellsten CPUs viel billiger als früher.
Sowas wie die Ahtlon FX und Core 2 Extreme X6800 hat damals an die 1000€ gekostet, und wir hatten seitdem was für einen Faktor an Inflation?
Gemessen daran ist selbst der 9800X3D mit seinem jetzt erhöhten Preis immer noch spottbillig.
Ich will die Graka-Preise nicht verteidigen, aber die prozentuale Marge von so einer 5090 ist wahrscheinlich immer noch unter der eines X6800 damals, und ne 7800XT hat wahrscheinlich weniger Marge als ein Ryzen 7600.
Die Leute jammern gern viel, und ohne Frage gibt's genug, denen es finanziell wirklich nicht so gut geht.
Die brauchen dann auch alle ein Luxusgut wie eine HighEnd GPU?
Aber es gibt auch mehr als genug, die zwar gern rumjammern, aber eigentlich nur völlig verwöhnt sind und halt gern noch mehr vom Statussymbol Geld rumliegen hätten, oder schlicht zu viel Geld für unnützes Zeug verprassen und eigentlich nur deshalb finanziell am rumkrepeln sind.
Eben. Und nochmals, brauchen die alle dann eine dicke und teure GPU zum Spielen am PC?
Nur mal so, als ich im Reisebüro meine USA Reise buchte, fragte ich mal, was die teuerste Reisen wären, was sie dieses Jahr verkauften. Mehrere Kreuzfahren, die einen für 67k und die andere für 2 Personen mit 77k. :eek:
Daher, in der Kategorie lachen dann viele über die 2-3K für die Grafikkarte.
Topic: Ich bin mal gespannt, ob die ganzen "Knappheitsmeldungen" doch nur ein Hype und Fake sind oder nicht. Immerhin haben wir ja nun ein Statement von einem Insider aus dem Handel, daß es tatsächlich schlecht steht.
Dural
2025-01-29, 15:00:09
GeForce 2 Ultra war doch was um die 1000.- ? damals noch in DMark? Ich habe eine Zuhause, auch die Geforce 3 war doch sehr teuer. Und die ganze Athlon FX CPUs erst, auch über 1000.-
Der Markt ist nicht kaputt, viel mehr ist der Software Markt kaputt! Alles nur noch Einheitsbrei mit ein bisschen Optionen für den PC, heute gibt es kaum noch mehr. Die guten alten Zeiten wo es auf dem PC Spiele gab die eigentlich TechDemos waren sind lange vorbei, sehr lange leider.
SLI, CF, übertaktet das sich auch lohnt mit 30-40% mehr Leistung, Sound Karten, Physik Karten... Keine Emotionen mehr! heute alle irrelevant wegen der Software.
Sumpfmolch
2025-01-29, 15:04:33
Aber aber...hat NVIDIA nicht in CES Präsentation konkrete Performancebeispiele gezeigt, die klipp und klar 20-35% Mehrperformance gegenüber 4080 versprechen? :uponder:
Aber aber...hat NVIDIA nicht in CES Präsentation konkrete Performancebeispiele gezeigt, die klipp und klar 20-35% Mehrperformance gegenüber 4080 versprechen? :uponder:
Gegenüber der 4080 ist es etwas leichter, die 4080S ist ja 2-3 Prozent schneller. :ugly:
+29 Prozent gegenüber der RTX 4080S gibt's in Cyberpunk 2077 und sogar +41 Prozent in Cities Skylines 2: https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/3/
MfG
Raff
Relex
2025-01-29, 15:18:13
Aber nur in Raster. Mit RT/PT deutlich weniger.
Wobei auch mit PT z.B. in 4K mit DLSS Quality der Vorsprung mit 10% noch am größten ist.
DLSS Quality in 4K ist aber in Cyberpunk zu viel des Guten. (Eigentlich in jedem PT Game) Die Performance ist dann trotz FG zu niedrig. Es braucht also den Performance modus oder mindestens balanced (+FG) und da würde der Abstand noch weiter schrumpfen.
Im Endeffekt ist es ne 4080, die ein paar prozent mehr leistung hat, um die zusätzlichen Rechenkosten von 3x und 4x MFG zu kompensieren.
Immerhin sinkt dadurch die basis Framerate mit MFG nicht gegenüber der 4080, denn das wäre extrem peinlich geworden.
Guter Punkt. Da es wohl wieder in der Werte-Welle untergeht, möchte ich hier mal expizit auf die Detail-Auswertung RTX 5080 vs. 4080 Super hinweisen (ganz runterscrollen):
https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/5/#a1
Pathtracing legt mit Abstand am wenigsten zu. Allerdings sind hier beide 80er viel schlechter als die 90er. Schwach ist nur Blackwell gegenüber Lovelace.
MfG
Raff
dildo4u
2025-01-29, 15:22:11
Aber nur in Raster. Mit RT/PT deutlich weniger.
Jup wie passiert sowas?
https://i.ibb.co/JWG37pLw/Screenshot-2025-01-29-15-21-18-214-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/20CZtM21)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-6#abschnitt_4_spielebenchmarks_mit_full_raytracing
robbitop
2025-01-29, 15:29:04
Gegenüber der 4080 ist es etwas leichter, die 4080S ist ja 2-3 Prozent schneller. :ugly:
+29 Prozent gegenüber der RTX 4080S gibt's in Cyberpunk 2077 und sogar +41 Prozent in Cities Skylines 2: https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/3/
MfG
Raff
Schon merkwürdig diese Ausreißer. Als ob da was mit den anderen Karten kaputt ist? Gerade Skylines 2 ist ja der Jank pur.
Andere Frage: Warum nur die Blackwellkarten mit Frame Generation benchen und nicht auch Ada und in Spielen wo es FSR Frame Generation gibt diese?
Kriegsgeier
2025-01-29, 15:40:07
habe gehofft, dass die 5080 zumindest eine übertaktungsfreudige Karte wird - naja
Lawmachine79
2025-01-29, 15:41:54
habe gehofft, dass die 5080 zumindest eine übertaktungsfreudige Karte wird - naja
Ich habe gehofft, dass sie genau so scheiße wird, wie sie ist.
Kriegsgeier
2025-01-29, 15:49:58
dann hast du richtig gehofft ;)
Relex
2025-01-29, 15:52:10
Warum hofft man, dass ein Produkt enttäuscht?
Wissen/glauben/vermuten/spekulieren ja, aber hoffen? Das ist doch nur schlecht für alle Kunden...
Kriegsgeier
2025-01-29, 15:53:16
Grafikfehler bei der 5080Fe? Laut PCGH! Z.B: STARFIELD: KRASS
basix
2025-01-29, 16:00:14
Zu hoher Speichertakt?
Exxtreme
2025-01-29, 16:02:02
Solche Block-Artefakte sind ziemlich sicher RAM-Fehler, ja. Andererseits produziert DLSS4 derzeit auch solche Block-Artefakte. Kann also sein, dass das der Grund ist.
Relex
2025-01-29, 16:05:44
Lol, wie kommst du denn darauf? Hab solche Artefakte mit DLSS4 noch nirgends gesehen. Ganz abgesehen davon, dass DLSS in den Menüs überhaupt nicht aktiv ist.
Berichte über Grafikfehler gabs auch schon mit der 5090.
Scheint ein Blackwell Problem zu sein. Das werden die nächsten Treiberupdates sicher fixen.
Trotzdem peinlich, dass sowas passiert.
ENKORE
2025-01-29, 16:11:12
GeForce 2 Ultra war doch was um die 1000.- ? damals noch in DMark? Ich habe eine Zuhause, auch die Geforce 3 war doch sehr teuer. Und die ganze Athlon FX CPUs erst, auch über 1000.-
499 $
Kriegsgeier
2025-01-29, 16:14:35
Sind die Speicherchips von einem Fehler betroffen?
Hat NVIDIA nicht gerade mit SAMSUNG ein Zoff genau wegen dem Speicher?
Und sind nicht genau die SAMSUNG Chips hier verbaut?
https://www.computerbase.de/news/wirtschaft/streitigkeiten-hinter-den-kulissen-nvidia-laesst-kein-gutes-haar-an-samsung.91207/
Matrix316
2025-01-29, 16:19:24
499 $
Ja damals waren das noch 1000 Mark ungefähr. ;)
Das war mir zu teuer und ich hab dann für ~ 600 Mark oder so die Geforce 2 Pro gekauft meine ich.
Zossel
2025-01-29, 16:19:32
Trotzdem peinlich, dass sowas passiert.
Wie viele Zeilen Code hast du bisher in deinem Leben geschrieben?
ChaosTM
2025-01-29, 16:24:41
Lol, wie kommst du denn darauf? Hab solche Artefakte mit DLSS4 noch nirgends gesehen. Ganz abgesehen davon, dass DLSS in den Menüs überhaupt nicht aktiv ist.
Berichte über Grafikfehler gabs auch schon mit der 5090.
Scheint ein Blackwell Problem zu sein. Das werden die nächsten Treiberupdates sicher fixen.
Trotzdem peinlich, dass sowas passiert.
Haben die Tester keine "Cardready" Treiber für die Dinger bekommen?
Auf die Schnelle find ich da bei PCGH oder Igor nix zu den verwendeten Treibern. (Oder ich bin blind..)
Grafikfehler bei der 5080Fe? Laut PCGH! Z.B: STARFIELD: KRASS
Zu hoher Speichertakt?
Solche Block-Artefakte sind ziemlich sicher RAM-Fehler, ja. Andererseits produziert DLSS4 derzeit auch solche Block-Artefakte. Kann also sein, dass das der Grund ist.
Hier der Kontext. Teil des 46.000-Zeichen-Kloppers: https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/2/#a6
-> Das gehört zu den Blackwell-exklusiven Features und betrifft sowohl 5090 als auch 5080. :ugly:
MfG
Raff
Kriegsgeier
2025-01-29, 16:38:48
Also? Könnte der Speicher sein? 32GBit vs. 28GBit bei 5090?
Exxtreme
2025-01-29, 16:40:07
-> Das gehört zu den Blackwell-exklusiven Features und betrifft sowohl 5090 als auch 5080. :ugly:
MfG
Raff
Ohh, danke. Da es bei beiden Grafikkarten auftritt, ist es womöglich ein Treiberfehler bzw. ein Sekundäreffekt der Treiber. Ich habe sowas Ähnliches im Final Fantasy 14-Benchmark gesehen in der Charakter-Auswahl mit Preset J.
dildo4u
2025-01-29, 17:18:24
Offizielle Specs 5070/5070TI
https://videocardz.com/newz/nvidia-confirms-full-geforce-rtx-5070-ti-specifications-featuring-gb203-and-gb205-gpus
Kriegsgeier
2025-01-29, 17:19:59
jetzt wird jeder hoffentlich verstehen, dass diese Knappheitshysterie künstlich herbeigeredet wurde! Quasi eine Absprache! Damit sich die Leute auf die angeblich wenige Karten stürzen.
Aber es gibt genug Karten!
The_Invisible
2025-01-29, 17:20:34
Hier der Kontext. Teil des 46.000-Zeichen-Kloppers: https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/2/#a6
-> Das gehört zu den Blackwell-exklusiven Features und betrifft sowohl 5090 als auch 5080. :ugly:
MfG
Raff
Interessant, hätte ich sonst noch nirgends gelesen. Der8Auer hat aber massive Probleme mit PCIe, sicher das eure auch immer mit Vollspeed gelaufen ist? :freak:
Offizielle Specs 5070/5070TI
https://videocardz.com/newz/nvidia-confirms-full-geforce-rtx-5070-ti-specifications-featuring-gb203-and-gb205-gpus
48MB L2$ bei der 70Ti, wie bei der 4070TiS. Das bremst. Bin mir nicht mal sicher, ob das Ding überhaupt schneller ist als die 4070TiS, zwar gibts geringfügig mehr SMs, aber eben auch weniger Takt und die 15W dürfte einfach gar nichts ausmachen.
dildo4u
2025-01-29, 17:39:05
Das Ding kann nicht schneller werden wenn sie 5080 verkaufen wollen.
Die 70TI verkauft sich über 16GB Vram welchen man für RT braucht.
Ich war kurz verwirrt – die Specs waren eigentlich längst bekannt, ist jetzt nur durch das Whitepaper öffentlich.
Die 48 MiB L2$ sehe ich als nicht so kritisch, denn die RTX 5070 Ti kann ja auch auf 28-GT/s-GDDR7 zurückgreifen (4070 TiS: 21 GT/s). Wenn man sich die RTX 5080 anguckt, ist die Speichertransferrate in modernen Spielen sowieso kein Limitfaktor, da springt bei +30 % quasi nichts raus. In 3 Wochen wissen wir mehr.
MfG
Raff
monstar-x
2025-01-29, 17:50:35
jetzt wird jeder hoffentlich verstehen, dass diese Knappheitshysterie künstlich herbeigeredet wurde! Quasi eine Absprache! Damit sich die Leute auf die angeblich wenige Karten stürzen.
Aber es gibt genug Karten!
Ja genau, Nvidia begrenzt die Verfügbarkeit künstlich, damit Sie weniger Geld verdienen und noch mehr Menschen eine 5090 haben wollen, also so schon, glaubst du dass selbst?
Die haben schlicht keine Chips weil die alle in den AI Beschleunigern stecken.
GerryB
2025-01-29, 17:55:44
Die 48 MiB L2$ sehe ich als nicht so kritisch, denn ...
man kann ja die Fehlerkorrektur vom Vram abschalten, um das auszugleichen
(man darf sich dann nur nicht über Artefakte wundern)
dargo
2025-01-29, 18:02:16
Ebend wie dir aufgefallen ist es wurde deutlich weniger Produziert egal ob NV oder AMD
Keiner wird von Nvidia abspringen da die 5080 eine Gurke ist somit verliert die 4080S keinen Wert das ist genau das was OEM wollen.
Hör doch bitte auf endlich Nonsens zu schreiben. Schon bei Ampere gab es keinen Abverkauf.
jetzt wird jeder hoffentlich verstehen, dass diese Knappheitshysterie künstlich herbeigeredet wurde! Quasi eine Absprache! Damit sich die Leute auf die angeblich wenige Karten stürzen.
Aber es gibt genug Karten!
Woher hast Du die Infos?
Ich bin mal auf die Reviews der 5070 (TI) gespannt. Wenn sie preislich einigermaßen attraktiv sind, gibts das als 2.Karte für den Videoschnitt.
Zossel
2025-01-29, 18:08:07
man kann ja die Fehlerkorrektur vom Vram abschalten, um das auszugleichen
(man darf sich dann nur nicht über Artefakte wundern)
ECC auf Consumer-GPUs?
Erzähl mehr darüber!
Relex
2025-01-29, 18:39:05
Wie viele Zeilen Code hast du bisher in deinem Leben geschrieben?
Schon ein paar, warum? :rolleyes:
GerryB
2025-01-29, 18:43:02
ECC auf Consumer-GPUs?
Erzähl mehr darüber!
https://www.reddit.com/r/overclocking/comments/nfk5pf/does_gddr6_memory_have_error_correction_abilities/
war mit GDDR6 noch Standard
btw.
Ausnahmen bestätigen die Regel, ... k.A. was RTX 4000er mit Ihrem Vram bei 3dMurks gemacht haben, da solls in der HoF tüchtigen Ärger wg. Schummeleien beim OCen gegeben haben. (benchmark läuft mit massig Artefakten uncorrect durch)
The_Invisible
2025-01-29, 18:45:29
ECC auf Consumer-GPUs?
Erzähl mehr darüber!
Kannst bei den großen Nvidia GPUs im Treiber aktivieren: https://support.chaos.com/hc/en-us/articles/24886637113617-ECC-State-for-Nvidia-GPUs-Error-Correcting-Code
Slipknot79
2025-01-30, 02:05:51
Woher hast Du die Infos?
Nimm den Shice nicht ernst.
Du, und wir alle, werden von allen Seiten damit beballert, dass die Verfügbarkeit morgen äußerst knapp sein wird.
Was meinst du also, was morgen sein wird? :wink:
Zossel
2025-01-30, 06:50:49
Kannst bei den großen Nvidia GPUs im Treiber aktivieren: https://support.chaos.com/hc/en-us/articles/24886637113617-ECC-State-for-Nvidia-GPUs-Error-Correcting-Code
Das ist lediglich eine CRC (noch nicht mal FEC) des Übertragungskanals über einen RAM-Burst, ansonsten müssten ja die zusätzlichen redundanten Bits auch irgendwo gespeichert sein.
GDDR6 also provides link protection for the data bus (DQ, DBI_n, EDC) as per GDDR5
and GDDR5X. The memory controller can select between two options:
• Full data rate: This option creates a 16-bit checksum per write or read burst, which is
the concatenation of two 8-bit checksums calculated over the first 8 UI (0 to 7) and
second 8 UI (8 to 15) of the burst (see the figure below). This option uses the same
0x83 8-bit CRC polynomial as GDDR5.
• Half data rate: This option creates an 8-bit checksum per write or read burst. The
checksum uses a similar polynomial as the full data rate option to calculate two inter-
mediate 8-bit checksums, but then compresses these two into a final 8-bit checksum.
Both options provide excellent error detection rates (for example, 100% fault detection
for random single, double and triple bit errors, and >99% fault detection for other ran-
dom errors).
https://www.mouser.lt/pdfDocs/tned03_gddr6-4.pdf
Zossel
2025-01-30, 06:53:36
Schon ein paar, warum? :rolleyes:
Und die waren auf Anhieb ohne Bugs?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.