PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24

ChaosTM
2025-01-18, 12:12:06
https://img-9gag-fun.9cache.com/photo/a4PoW6d_460svav1.mp4


ok, ich sollte meine Laptop Webcam ausschalten

y33H@
2025-01-18, 13:03:21
Ich verstehe den Sinn solcher Videos nicht ... er hat nen PC gebaut, wow ^^

Troyan
2025-01-18, 13:03:56
Naja, man sieht die 5090 FE. Bringt also schon einen Mehrwert.

DrFreaK666
2025-01-18, 13:09:32
Ja, wenn man von 30fps kommt ist es tatsächlich Blendwerk. Das ist aber auch nicht der Sinn.

Schreib das wenn NV die 5060 mit MFG bewirbt ^^

The_Invisible
2025-01-18, 13:09:35
Ich verstehe den Sinn solcher Videos nicht ... er hat nen PC gebaut, wow ^^

Sinn sind die 400k Views and counting ;-)

@mfg
Macht erst ab 240hz wirklich sinn und für das neural Render Zeug ist nicht Mal ein showcase angekündigt. Der "need" hält sich stark in Grenzen, aber Mal abwarten was die reviewer ausspucken...

Linmoum
2025-01-18, 13:10:52
Schreib das wenn NV die 5060 mit MFG bewirbt ^^Ich wüsste nicht, warum eine 5060 nur 30fps schaffen sollte.

DrFreaK666
2025-01-18, 13:13:06
Je nach Game...

Blase
2025-01-18, 13:14:28
Also wenn ich mal raten sollte, hat ein Großteil der 4090 Besitzer z.B. ein CP2077 mit aktiven FG gespielt - und die meisten werden es gefeiert haben, mir inkl. Und ich brauch wohl nicht erwähnen, wie niedrig die Baseline FPS dann wahrscheinlich gewesen sind...

@mfg
Macht erst ab 240hz wirklich sinn

Das ist erst einmal eine ziemlich gewagte Aussage, imho natürlich...

MfG Blase

dargo
2025-01-18, 13:15:50
Ich verstehe den Sinn solcher Videos nicht ... er hat nen PC gebaut, wow ^^
Das sind Influencer der IHVs, Marketing halt. ;) Die Meute schon mal heiß machen, egal wie sinnlos ein Video ist. :D

dildo4u
2025-01-18, 13:16:51
5060 sollte Stalker 2 in 60fps schaffen NV über performt in UE5.
Es gibt nicht viele schlechter Laufende Games abseits von Path Tracing.

https://www.techpowerup.com/review/asrock-arc-b570-challenger/26.html

Linmoum
2025-01-18, 13:17:50
Je nach Game...Selbst mit PT in Cyberpunk inkl. DLSS ist eine 4060 bei deutlich über 30fps. Davon ab sehe ich weiterhin den Sinn deines "Einwands" weiterhin nicht, da Nvidia dann von der ursprünglichen FG-Empfehlung deutlich abweichen würde. Denn da empfiehlt Nvidia als Baseline 60fps.

Relex
2025-01-18, 13:21:57
Na ja, das Problem ist doch, dass Nvidia die 5070 auf 4090 niveau bewirbt, wenn man MFG nutzt.

Wenn die 5070 60 FPS ohne MFG schafft und 200 FPS mit MFG und die 4090 120 FPS ohne FG und ebenfalls 200 FPS mit FG, dann kann man das ja noch halbwegs durchgehen lassen.


Wenn wir aber dann zu pathtraced Spielen wechseln, wo die 4090 in 4K mit Upscaling vielleicht nur 50 FPS schafft und mit aktiver FG dann vielleicht 90 FPS (womit die base FPS auf 45 runter gehen) und dann sagt, die 5070 würde ebenfalls 90 FPS mit MFG schaffen, dann würde das halt bedeuten, dass die 5070 mit 4x FG nur eine Base framerate von 90/4 = ~23 FPS hätte.

Und da sind wir dann eben direkt im Bereich der Unspielbarkeit.


MFG ändert nichts daran, dass man trotzdem eine gewisse basis Framerate braucht, damit das Spiel vernünftig spielbar ist. Und da zählt nur Rohleistung ohne FG.

In allen Fällen wo also ne 4090 langsam an ihre Limits kommt, wäre es auf einer 5070 schon längst unspielbar, trotz gleicher Framerate.


Eigentlich selbsterklärend und offensichtlich, aber ich hab das gefühl, das wird gerne mal übersehen, weil halt die Frameraten mit einer 5070 zumindest auf den ersten Blick sehr hoch sind. Man muss sich gedanklich erstmal drauf einstellen, dass man bei MFG dann eben immer durch 4 teilen muss, um die Basis Framerate und damit die zu erwartende latenz zu kennen...

So als Daumenregel kann man wahrscheinlich sagen, mit 2x FG sollte die Zielframerate mindestens irgendwo im bereich der 80 FPS sein (40 FPS base), und bei MFG dann eben mindestens 160 FPS.
Wenn man also ne 5070 oder eben jede beliebige Blackwell Karte bei irgend einem MFG benchmark bei unter 160 FPS sieht, muss also direkt der Gedanke kommen, dass das fast schon grenzwertig ist. Sich daran zu gewöhnen wird wohl etwas dauern.

MFG wird letzten Endes absolut gar nichts daran ändern, ab welcher Framerate ein Spiel spielbar ist.
Mit 2x FG hat sich zumindest bei mir die Toleranzschwelle etwas verschoben. Wo ich früher gesagt hätte 60 FPS ist absolutes minimum weil mich das Geruckel/Unschärfe bei 60 FPS sonst stört, sagt ich heute, dass auch 40 FPS bzw. 80 FPS nach FG in Ordnung gehen, weil mich die Latenz weniger stört, als das ruckeln. Das Problem bei noch niedrigeren Frameraten wird dann mit FG aber nicht das ruckeln, sondern eben die Eingabelatenz. Bei mir ist da eben bei ca 40 FPS die schwelle erreicht. Die schwelle liegt eben niedriger als die Schwelle für das Ruckeln. Das heißt niedriger kannste halt nicht gehen, irgendwann ist der Punkt erreicht, wo die Latenzen zu hoch werden, egal ob man 1 Frame oder 10 Frames generiert.

DLSS Upscaling hat Performance und Frametime Budget für Spiele massiv erhöht.
2x FG ein wenig, wenn man Ruckler nicht mag
Und 4x MFG überhaupt nicht.


Der GPU markt läuft also nicht nur bei der Rohleistung in eine Sackgasse sondern auch bei den AI Features.
Die Fortschritte beim Upscaling mit dem neuen Transformer Model sind daher auf lange Sicht wahrscheinlich deutlich mehr wert, als MFG, da sich mit effizienterem Upscaling mehr tatsächliche Performance bei gleicher Bildqualität ergeben kann.

Lehdro
2025-01-18, 13:22:54
Also wenn ich mal raten sollte, hat ein Großteil der 4090 Besitzer z.B. ein CP2077 mit aktiven FG gespielt - und die meisten werden es gefeiert haben, mir inkl. Und ich brauch wohl nicht erwähnen, wie niedrig die Baseline FPS dann wahrscheinlich gewesen sind...

#agree

Den ganze DLSS 4 Diskussion ist so verdreht. Da wird von den 2Xer FPS aus den Videos als "Baseline" ausgegangen, anstatt von den FPS die nach Einsatz von DLSS ohne FG herauskommen. Das verschiebt die Basis schon einmal enorm. Würde ich so spielen wollen? Wahrscheinlich nicht, aber das ist nicht der Punkt, denn es geht um harte Fakten. FG kommt nach DLSS Einsatz oben drauf, von den vanilla native FPS auszugehen ist also schlichtweg Schwachsinn bei einer Eingabelatenzbetrachtung. Hier hat NV sich mit seinem stumpfen "moar FPS" Marketing selber einen Bock geschossen...

Ich mag in Darktide FG mit meiner 4090, allerdings fange ich da auch weit oberhalb der 100 FPS mit FG an - anders sind >200 FPS nicht zu erreichen in dem Game. Und die 240 Hz von meinem Display würde ich schon gern nutzen wollen, wenn das was ich aufgebe, also einige wenige ms in Szenarien wo ich das wahrscheinlich eh nicht mehr wahrnehme, kaum Relevanz hat. In noch langsameren Spielen ist das ebenso wahr, nur halt mit einer niedrigeren Baseline.

dargo
2025-01-18, 13:30:22
Den ganze DLSS 4 Diskussion ist so verdreht. Da wird von den 2Xer FPS aus den Videos als "Baseline" ausgegangen, anstatt von den FPS die nach Einsatz von DLSS ohne FG herauskommen. Das verschiebt die Basis schon einmal enorm. Würde ich so spielen wollen? Wahrscheinlich nicht, aber das ist nicht der Punkt, denn es geht um harte Fakten. FG kommt nach DLSS Einsatz oben drauf, von den vanilla native FPS auszugehen ist also schlichtweg Schwachsinn bei einer Eingabelatenzbetrachtung. Hier hat NV sich mit seinem stumpfen "moar FPS" Marketing selber einen Bock geschossen...

Korrekt... NV trennt nicht mehr Upscaling von Frame Generation in ihrem Marketing. Es werden trotzdem genug Lemminge drauf reinfallen, da bin ich mir sicher.

ChaosTM
2025-01-18, 13:39:05
Na ja, das Problem ist doch, dass Nvidia die 5070 auf 4090 niveau bewirbt, wenn man MFG nutzt.

Wenn die 5070 60 FPS ohne MFG schafft und 200 FPS mit MFG und die 4090 120 FPS ohne FG und ebenfalls 200 FPS mit FG, dann kann man das ja noch halbwegs durchgehen lassen.


Wenn wir aber dann zu pathtraced Spielen wechseln, wo die 4090 in 4K mit Upscaling vielleicht nur 50 FPS schafft und mit aktiver FG dann vielleicht 90 FPS (womit die base FPS auf 45 runter gehen) und dann sagt, die 5070 würde ebenfalls 90 FPS mit MFG schaffen, dann würde das halt bedeuten, dass die 5070 mit 4x FG nur eine Base framerate von 90/4 = ~23 FPS hätte.

Und da sind wir dann eben direkt im Bereich der Unspielbarkeit.


MFG ändert nichts daran, dass man trotzdem eine gewisse basis Framerate braucht, damit das Spiel vernünftig spielbar ist. Und da zählt nur Rohleistung ohne FG.

In allen Fällen wo also ne 4090 langsam an ihre Limits kommt, wäre es auf einer 5070 schon längst unspielbar, trotz gleicher Framerate.


Eigentlich selbsterklärend und offensichtlich, aber ich hab das gefühl, das wird gerne mal übersehen, weil halt die Frameraten mit einer 5070 zumindest auf den ersten Blick sehr hoch sind. Man muss sich gedanklich erstmal drauf einstellen, dass man bei MFG dann eben immer durch 4 teilen muss, um die Basis Framerate und damit die zu erwartende latenz zu kennen...

So als Daumenregel kann man wahrscheinlich sagen, mit 2x FG sollte die Zielframerate mindestens irgendwo im bereich der 80 FPS sein (40 FPS base), und bei MFG dann eben mindestens 160 FPS.
Wenn man also ne 5070 oder eben jede beliebige Blackwell Karte bei irgend einem MFG benchmark bei unter 160 FPS sieht, muss also direkt der Gedanke kommen, dass das fast schon grenzwertig ist. Sich daran zu gewöhnen wird wohl etwas dauern.


Die Base Framerate ist der Schlüssel. Kann man das mit der 5090er und DLSS4 nicht deutlich verbessern, ist MFG ziemlich sinnarm.

Kriegsgeier
2025-01-18, 13:43:13
aber wird diese Multiframe Generation nicht erst mit Leistung einer 5090 erst so richtig zur Geltung kommen?
Anders ausgedrückt: würde die 4090 auch diese MFG unterstützen hätte man hier wesentlich mehr Verzögerung zu spüren bekommen?

Relex
2025-01-18, 13:46:29
Kommt auf die Leistung und Auflösung an.

Für 4K wirste weiterhin eine 5070ti, 5080 oder 5090 brauchen.
Für 1440p eben ne 5070.

Sonst wird die basis Framerate einfach zu gering. MFG ändert also praktisch auch nichts daran, welche GPU Performance oder Preisklasse man üblicherweise für bestimmte Auflösungen in betracht zieht. Das wird sich exakt identisch zum AdaLovelace Lineup verhalten.

Kriegsgeier
2025-01-18, 13:49:33
Also sag nicht gegen eine 3440x1440p Auflösung ;)
Genau dafür brauche ich auch eine RTX 5090! RTX 5090 ist für mich immer noch keine reinrassige 4K Karte. Erst 7090 Wird es wahrscheinlich werden mit der TSMCs 18A Fertigung.

Habe mir nicht umsonst vor kurzem erst ASUS ROG Swift PG34WCDM 240Hz WOLED geholt ;)

ChaosTM
2025-01-18, 13:51:50
Kommt auf die Leistung und Auflösung an.

Für 4K wirste weiterhin eine 5070ti, 5080 oder 5090 brauchen.
Für 1440p eben ne 5070.

Sonst wird die basis Framerate einfach zu gering. MFG ändert also praktisch auch nichts daran, welche GPU Performance oder Preisklasse man üblicherweise für bestimmte Auflösungen in betracht zieht. Das wird sich exakt identisch zum AdaLovelace Lineup verhalten.


Daher spare ich mir diesmal viel Geld. Blackwell ist nett, aber wird für mich keinen wirklich spürbaren Mehrwert bringen.

The_Invisible
2025-01-18, 13:53:52
Das ist erst einmal eine ziemlich gewagte Aussage, imho natürlich...

MfG Blase

Ja gut, bei heavy Strategie Games würde ich es mir wünschen auch mit 144hz, aber die haben eigentlich sowieso nie DLSS/FG unterstützung. 165hz machen jetzt den kraut eh nicht fett und dann kommt eh schon 240hz. Eventuell noch im 3x Modus.

@kriegsgeier
Naja das Hardware Flip metering macht mfg schon interessant und hebt es von Ada ab

Relex
2025-01-18, 13:57:02
Also sag nicht gegen eine 3440x1440p Auflösung ;)
Genau dafür brauche ich auch eine RTX 5090! RTX 5090 ist für mich immer noch keine reinrassige 4K Karte. Erst 7090 Wird es wahrscheinlich werden mit der TSMCs 18A Fertigung.

Habe mir nicht umsonst vor kurzem erst ASUS ROG Swift PG34WCDM 240Hz WOLED geholt ;)



3440x1440 ist ja auch (minimal) fordernder als 4K!

Du wirst mir nicht glauben, aber der Punkt ist, dass mit 3440x1440p die niedrigste Upscaling stufe, die noch gut aussieht DLSS Quality ist, was 960p als input bekommt.

In 4K ist es DLSS Performance mit 1080p als input. Das sieht auch besser aus. (Ist ja auch logisch, weil vertikal mehr pixel als input)



Das Kuriose ist jetzt aber, dass vor allem in pathtraced Spielen, wo die Performance extrem von der Anzahl der Pixel abhängt die Performance auf 3440x1440 mit DLSS Quality geringer ist, als in 4K mit DLSS Performance.


3440x1440 mit DLSS Q ergibt eine interne Renderauflösung von 2293x960.
Das macht 2,20 Mio Pixel

3840x2160 mit DLSS P ergibt eine interne Renderauflösung von 1920x1080.
Das macht 2,07 Mio Pixel


Die 1440er Auflösung ist also tatsächlich fordernder. Schuld daran ist einzig und alleine die Tatsache, dass das Format in der breite verhältnissmäßig viele Pixel hat.



Also ja, ne 5090 ist dafür sicher nicht überdimensioniert, wenn man pathtracing nutzen will.
Der Leistungsbedarf von 3440x1440 wird häufig unterschätzt.

Gesetzt dem Fall, dass man auf Upscaling verzichten möchte ist 3440x1440 natürlich sogar deutlich fordernder als 4K mit DLSS Quality.

DrFreaK666
2025-01-18, 14:01:23
Selbst mit PT in Cyberpunk inkl. DLSS ist eine 4060 bei deutlich über 30fps. Davon ab sehe ich weiterhin den Sinn deines "Einwands" weiterhin nicht, da Nvidia dann von der ursprünglichen FG-Empfehlung deutlich abweichen würde. Denn da empfiehlt Nvidia als Baseline 60fps.

Nvidia hat damals auch mit <60FPS geworben, da FG ja alles schön flüssig macht.
ca. 60FPS mit FG bei TW3. Wie hoch waren dann die FPS "nativ"?
https://i.ibb.co/prTb1d6/2-1280-b3af46d6.png (https://ibb.co/prTb1d6)

ChaosTM
2025-01-18, 14:03:51
3440x1440 ist ja auch (minimal) fordernder als 4K!




nicht böse sein, aber das stimmt so nicht.


3840x2160 sind doch etwas mehr Pixels

Kriegsgeier
2025-01-18, 14:04:01
Krass, das mit
3440x1440 mit DLSS Q ergibt eine interne Renderauflösung von 2293x960.
Das macht 2,20 Mio Pixel

3840x2160 mit DLSS P ergibt eine interne Renderauflösung von 1920x1080.
Das macht 2,07 Mio Pixel
war mir in keinster Weise bewusst! Danke für die Info - Wahnsinn!

Relex
2025-01-18, 14:05:05
nicht böse sein, aber das stimmt so nicht.


3840x2160 sind doch etwas mehr Pixels


Du könntest gerne auch mehr als den ersten Satz lesen, dann verstehste auch, worauf ich hinaus wollte. :wink:
Ich spreche vom "praxiseinsatz" in Verbindung mit Upscaling.

ChaosTM
2025-01-18, 14:15:32
Du könntest gerne auch mehr als den ersten Satz lesen, dann verstehste auch, worauf ich hinaus wollte. :wink:
Ich spreche vom "praxiseinsatz" in Verbindung mit Upscaling.


Hab ich vielleicht missverstanden, aber ich versuche immer noch Sinn aus dem Formfaktor zu machen und dem Äpfel mit Birnen Vergleich.
Überspitz ausgedrückt

Kriegsgeier
2025-01-18, 14:19:07
Upscaler nutzt halt seine VORDIFINIERTE Auflösungen zur Berechnung abhängig davon welche FINALE Auflösung ausgegeben werden soll.

Und bei 4K ist diese Berechnungsauflösung minimal geringer als bei 3440x1440...

So habe ich es verstanden.

The_Invisible
2025-01-18, 14:26:27
Ja das ist aber 4k dlss-p vs 1440pwide dlss-q. Verstehe den Vergleich auch net :D

Relex
2025-01-18, 14:37:11
Ja das ist aber 4k dlss-p vs 1440pwide dlss-q. Verstehe den Vergleich auch net :D


Okay :D

Ist das echt so abwegig, wenn ich mir die Frage stelle, welche Upscaling Stufen noch sinnvoll nutzbar sind?


Auf 3440x1440 ist eben DLSS Quality das minimum. Meiner meinung nach. oder eben direkt nativ. Viel mehr spielraum haste nicht. Blanced und performance finde ich nicht gut genug.


Bei 4K siehts aber anders aus. Da kann man bis zum performance Mode runter gehen und hat immernoch in der vertikalen mehr pixel und damit ein schärferes Bild. Und TROTZDEM ist die performance dann höher.


Heißt mit einem 4K Display bekomme ich in Punkto Bildqualität mehr "bang for the buck". Ich muss weniger Leistung investieren, um gute Bildqualität zu erhalten.

Bei 3440x1440 hingegen muss ich mehr Leistung investieren, um gute Bildqualität zu erhalten. Bereits DLSS Quality ist fordernder als 4K DLSS P und nativ nochmal viel viel fordernder. Vorteil vom 1440p UW Display ist dann eben das breitere Sichtfeld.



Ich erwähne es deswegen, weil 3440x1440 häufig im Vergleich zu 16:9 1440p und 16:9 4K als "perfect middleground" in Punkto Performance dargestellt wird.
Sobald aber Upscaling ins Spiel kommt dreht sich das ganze zu gunsten des 4K Displays.



Ich meine, ihr müsst mir nicht zustimmen. Es hängt halt davon ab, was man vergleichen will. Viele finden ja DLSS Performance auf 4K schrecklich, weil es nicht wie nativ 4K aussieht. Aber ich betrachte es eben von 1440p aus kommend. Quasi nach dem motto "ab wann lohnt sich 4K".


Will damit auch keinesfalls 1440p Ultra Wide schlecht reden. Man muss sich halt nur bewusst sein, dass das breitere Sichtfeld gegenüber 16:9 mit einem ziemlich hohem Preis daher kommt. Ein Preis der so hoch ist, dass man mit der gleichen GPU eben genauso gut auf ein 16:9 4K Display wechseln könnte und dabei sogar leicht bessere Performance bei besserer Bildqualität erreicht.




Aber ich würde sagen genug OT. Zurück zum eigentlichen Thema.

Dimon
2025-01-18, 14:39:15
Hier mal was vom Raff,

ich schätze das man die tendenz sichtlich richtung 4K schieben sollte was anforderungen angeht...

https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Ist-meine-Grafikkarte-schnell-genug-fuer-32-zu-9-1458006/

@relex: +1

Grüsse

Kriegsgeier
2025-01-18, 14:46:05
Relex - hast sehr gut erklärt. Habe ich auch ca. so verstanden. Danke für die Anregungen!

Palpatin
2025-01-18, 16:01:30
Okay :D


Auf 3440x1440 ist eben DLSS Quality das minimum. Meiner meinung nach. oder eben direkt nativ. Viel mehr spielraum haste nicht. Blanced und performance finde ich nicht gut genug.


Ist meiner Meinung auch das absolute Minimum an Auflösung das man mit einer 5090 befeuern sollte. 3000€ für die Graka ausgeben da kann man auch einen Monitor mit Vernünftiger Auflösung kaufen.

OgrEGT
2025-01-18, 16:31:56
5090 ca 30% schneller als 4090 in Blender...

y33H@
2025-01-18, 17:12:06
Ist meiner Meinung auch das absolute Minimum an Auflösung das man mit einer 5090 befeuern sollte. 3000€ für die Graka ausgeben da kann man auch einen Monitor mit Vernünftiger Auflösung kaufen.1440p mit DLAA und 120+ fps ist mir lieber als 4K60 und Q-DLSS.

Lawmachine79
2025-01-18, 17:19:34
3440x1440 ist ja auch (minimal) fordernder als 4K!


Adam Ries hat Dir auf die Mailbox gesprochen, er bittet um Rückruf.

Du könntest gerne auch mehr als den ersten Satz lesen, dann verstehste auch, worauf ich hinaus wollte. :wink:
Ich spreche vom "praxiseinsatz" in Verbindung mit Upscaling.
Ah, ok.

MiamiNice
2025-01-18, 17:36:57
Wollte auch schon, aber er kann rechnen. Ausrutscher.
Man merkt schon wie unser Relex voll bei der Sache ist, wenn es um Upscaling, Fake Frames und Latenz stacking geht :D

gnomi
2025-01-18, 17:44:28
Native Auflösung verschwindet mit der Zeit denke ich ähnlich wie MSAA.
Fand auf 34 Zoll UWQHD auch DLSS Balanced noch gerade so erträglich.
4K DLSS Performance finde ich allerdings klar besser am 28 Zoll Monitor.
Hätte vorher nicht gedacht, dass das dermaßen gut funktioniert.
Und per FG reicht dann auch eine eher schwache CPU und 40-60 fps Target mit GSync für Singleplayer Games.
Blackwell MFG und 5090 finde ich spannend, allerdings kann ich die Karte mit meinem 9900KF und nur 144 Herz Monitor nicht auslasten.
Na ja. Vielleicht kommt doch noch eine 5080TI basierend auf dem großen Chip mit etwas weniger Verbrauch. :freak:

Sardaukar.nsn
2025-01-18, 17:58:30
5090 ca 30% schneller als 4090 in Blender... Gab ein Update des Artikel: https://www.computerbase.de/news/grafikkarten/blender-benchmark-leak-geforce-rtx-5090-schlaegt-mittelwert-aller-4090-um-36-prozent.91072/#update-2025-01-18T16:58

Inzwischen findet sich auch ein Ergebnis der für den chinesischen Markt in der Leistung kastrierten GeForce RTX 5090D in der Blender-Benchmark-Datenbank wieder – dieses Mal getestet in der Version 4.3.0, die niedrigere Ergebnisse aufweist als die Version 3.6.0. Die GeForce RTX 4090D weist in dieser Version ca. 10.500 Punkte auf, mit 14.706 Punkten legt die RTX 5090D also 40 Prozent zu.

ChaosTM
2025-01-18, 18:08:23
Weck mich auf, wenn jemand 40+ prognostiziert und beweist.
Vorher bleibt meine Kreditkarte* in der Hose.

*bitte (Blackwell) sei "langsam" sonst muss ich wieder ausrücken und dumme Dinge tun

x-force
2025-01-18, 18:40:17
Will damit auch keinesfalls 1440p Ultra Wide schlecht reden. Man muss sich halt nur bewusst sein, dass das breitere Sichtfeld gegenüber 16:9 mit einem ziemlich hohem Preis daher kommt. Ein Preis der so hoch ist, dass man mit der gleichen GPU eben genauso gut auf ein 16:9 4K Display wechseln könnte und dabei sogar leicht bessere Performance bei besserer Bildqualität erreicht.

immserion schlägt simple schärfe, außerdem bin ich ein fan von korrektem fov. mit 16:9 fehlt dann schnell der überblick.
21:9 ist für mein blickfeld mit brille perfekt. asiaten brauchen villeicht 32:9. ;)

SamLombardo
2025-01-18, 18:41:33
Ich habe es ja schon mal geschrieben aber meiner Meinung nach ist das größte Problem von Blackwell, dass es (vermutlich auch auf absehbare Zeit) keine Titel gibt die BW für 4080/90 User notwendig machen. Außer für eine ganz kleine Nische. Für mich selbst als Highend Gamer (so würde ich mich bezeichnen:biggrin:) ist es völlig irrelevant ob ich Cyberpunk oder Wukong mit 100 oder 200fps spiele. Das war beim Schritt 3090 zu 4090 noch völlig anders.

ChaosTM
2025-01-18, 18:52:03
Blackwell ist ..ein TOC von dem üblichen TIK/TOC cycle.

kann man kaufen, aber es bringt kaum was..

Linmoum
2025-01-18, 19:32:26
Ich habe es ja schon mal geschrieben aber meiner Meinung nach ist das größte Problem von Blackwell, dass es (vermutlich auch auf absehbare Zeit) keine Titel gibt die BW für 4080/90 User notwendig machen. Außer für eine ganz kleine Nische. Für mich selbst als Highend Gamer (so würde ich mich bezeichnen:biggrin:) ist es völlig irrelevant ob ich Cyberpunk oder Wukong mit 100 oder 200fps spiele. Das war beim Schritt 3090 zu 4090 noch völlig anders.~30% mehr fps sind in UHD schon nicht zu verachten. Ich hab zudem seit mittlerweile ca. 5 Monaten einen UHD/240Hz Monitor im täglichen Gebrauch. Wenn ich im Vergleich dazu mal wieder vor meinem LG mit 120Hz sitze muss ich ganz objektiv einfach feststellen, dass sich das ein gutes Stück... unrunder anfühlt. Man merkt den Unterschied dann doch ziemlich deutlich, wenngleich er nicht mehr ganz so eklatant ist, wie bei 60Hz vs. 120Hz.

Ganz zu schweigen davon, dass ich mit Blackwell dann auch endlich (wieder) DLDSR dank DP 2.1 an meinem Monitor nutzen könnte, was wegen 1.4 und DSC leider nicht geht. Fast schon genug Grund für mich persönlich.

aufkrawall
2025-01-18, 19:36:55
Ich hatte kurzzeitig an der Polaris den Monitor auf 4k 120Hz laufen, Fortnite fühlt sich für mich unspielbar an bei 117fps mit nicht gerade perfekten Frame Times. Um Welten besser mit 1440p Monitor-Upscaling 138fps.
Liegt aber auch nicht nur an den Frame Times. Mit ungelockten fps + Anti-Lag gibts quasi eine Glatte Linie, und das sieht einfach nur ruckelig auf dem OLED mit 100fps aus. Mir schleierhaft, wie man das nicht sehen kann.

The_Invisible
2025-01-18, 20:14:16
Ich habe es ja schon mal geschrieben aber meiner Meinung nach ist das größte Problem von Blackwell, dass es (vermutlich auch auf absehbare Zeit) keine Titel gibt die BW für 4080/90 User notwendig machen. Außer für eine ganz kleine Nische. Für mich selbst als Highend Gamer (so würde ich mich bezeichnen:biggrin:) ist es völlig irrelevant ob ich Cyberpunk oder Wukong mit 100 oder 200fps spiele. Das war beim Schritt 3090 zu 4090 noch völlig anders.

Ja die 4090 war ziemlich heftig, da gab's in ausgewählten Games, vornehmlich mit RT/PT schon mal eine Verdoppelung gegenüber 3090ti.

Bei der 5090 müssen mich Raffs Benchmarks überzeugen, lehn mich aber entspannt zurück. Wie du schon sagst müssten da ein paar Games rauskommen die dafür triggern :D

lilgefo~
2025-01-18, 20:43:34
Genau, deswegen haben sich die nVidia Grafikkarten unterhalb der xx90 in den letzten Jahren ja auch so schlecht verkauft. :freak:


Ja Halo Effekt halt. Kollege der sich nen neuen PC gebaut hat wollte auch erst ne 4060ti 8gib kaufen. Hat sich auf mein Anraten dann aber für eine 7900xt entschieden die teils das 3fache an performance und sogar mit RT (wenn auch genauso sinnlos wie auf der 4060) on par liefert und mit 20gib auch noch ne Weile reicht.
Bei den Leuten wo keiner interveniert wandert das Geld halt zu NV mit den Lowbobkarten.

Sardaukar.nsn
2025-01-18, 20:57:48
@lilcat: Puh, diese AMD Missionierungs-Aktionen mit Interventionen und Geld zu NV Sprech finde ich echt schwierig.

Aber wir haben hier ja auch Leute die vor über 6 Jahren behauptet haben, dass Raytracing eine Totgeburt ist und dass DLSS auch scheitern wird.

Witzig, dass genau das u.a. nun selling points sind für Nvidia GPUs.
Und dass AMD, Intel und Sony auch solche Technologien kopiert haben

Und irgendwie freuen sich alle, die DLSS verteufelt haben dann doch darüber, dass AMD das nachgemacht hat. Wettbewerb und so ^^

lilgefo~
2025-01-18, 21:11:14
Was?

Mangel76
2025-01-18, 21:20:53
Was?

Nicht wundern. Du hast in einem Nvidia-Threat AMD gelobt. Also quasi Gotteslästerung begangen 🤪

lilgefo~
2025-01-18, 21:23:55
Nicht wundern. Du hast in einem Nvidia-Threat AMD gelobt. Also quasi Gotteslästerung begangen ��

Ah ok. Ergibt Sinn. Danke für die Erklärung :D

Wobei sarduckar afaik ja eh mit igpu unterwegs ist. KP warum er dann so passioniert über High-End Grakas diskutiert.

Palpatin
2025-01-18, 22:43:46
Blackwell ist ..ein TOC von dem üblichen TIK/TOC cycle.

kann man kaufen, aber es bringt kaum was..

So ganz rund läuft der cycle bei NV aber nicht. Meine Einschätzung:

Geforce 1 = TIK
Geforce 2 = TIK
Geforce 3 = TIK
Geforce 4 = TIK
Geforce 5 = TOC
Geforce 6 = TIC
Geforce 7 = TOC
Geforce 8 = TIK
Geforce 9 = TOC
200er Serie TIK
400er Serie TIK
500er Serie TOC
600er Serie TIK
700er Serie TOC
900er Serie TIK
1000er Serie TIK
2000er Serie TOC
3000er Serie TIK
4000er Serie TIK
5000er Serie TOC

crux2005
2025-01-18, 23:03:11
Ich hatte kurzzeitig an der Polaris den Monitor auf 4k 120Hz laufen, Fortnite fühlt sich für mich unspielbar an bei 117fps mit nicht gerade perfekten Frame Times. Um Welten besser mit 1440p Monitor-Upscaling 138fps.
Liegt aber auch nicht nur an den Frame Times. Mit ungelockten fps + Anti-Lag gibts quasi eine Glatte Linie, und das sieht einfach nur ruckelig auf dem OLED mit 100fps aus. Mir schleierhaft, wie man das nicht sehen kann.

Liegt nur an den "niedrigeren" FPS oder weil kein ULL/Reflex?

Neurosphere
2025-01-18, 23:18:37
Bis auf Intel hat nie jemand von Tic/Toc gesprochen. NV jetzt das gleiche nachzusagen stimmt einfach nicht. Der Gen fehlt halt der neue Prozess.

reaperrr
2025-01-18, 23:58:01
Bis auf Intel hat nie jemand von Tic/Toc gesprochen. NV jetzt das gleiche nachzusagen stimmt einfach nicht. Der Gen fehlt halt der neue Prozess.
Jup, und übrigens waren die Ticks die Shrinks mit marginalen uArch-Verbesserungen und die Tocks die neuen Architekturen im ausgereifteren, aber sonst weitgehend gleichen Prozess.

ENKORE
2025-01-19, 00:30:43
Bis auf Intel hat nie jemand von Tic/Toc gesprochen. NV jetzt das gleiche nachzusagen stimmt einfach nicht. Der Gen fehlt halt der neue Prozess.

Naja, war RTX 30 -> RTX 40 bei den unteren SKUs nicht auch im Bereich +10-15% Performance? Und das trotzdem doppeltem Nodesprung. Aber halt mit weniger Stromverbrauch (und viel kleineren Dies). Jetzt haste halt wieder +10-15% Performance, nur eben mit 15-20% oder was Mehrverbrauch. Vielleicht ist das einfach die normale Verbesserung jetzt für nVidia, abseits von xx80 und xx90 ;)

aufkrawall
2025-01-19, 01:11:31
Liegt nur an den "niedrigeren" FPS oder weil kein ULL/Reflex?
Der Input Lag ist mit in-game Limiter nicht das Problem. Der reduziert die wahrgenommene Flüssigkeit wegen schlechterer Frame Times aber weiter.
Man braucht mit in-game Limiter/Reflex oft mehr fps für eine ähnliche Flüssigkeit. ~115fps damit sind imho schon unergonomisch für längere Sessions schneller Spiele. 30fps/Hz on top sind da absolut Gold wert.

Wobei es aber auch mit perfekten Frame Times bei 115fps ruckelig aussieht, wenn man vorher 240Hz/fps gesehen hat. Man kennt es halt nicht besser oder ist irgendwann wieder an weniger fps gewohnt.

Lawmachine79
2025-01-19, 01:54:51
Nicht wundern. Du hast in einem Nvidia-Threat AMD gelobt.
Mit den vollgerotzten Drecksgrafikkarten seit der 5970 darf man AMD-Grafikkarten nicht mal in AMD-Threads loben. Wie kann man seit 15 Jahren denn keinen Perfomanceking hervorbringen?! In CPU-Threads hingegen darf man AMD so loben, wie man hier NVidia lobt. Ich würde mir im Leben keine AMD-Graka kaufen, aber bei den CPUs bin ich ein AMD-Groupie. Intel schafft es, in allem was sie gegenwärtig anpacken einfach Müll zu sein. Eigentlich müsste der Laden ums nackte Überleben kämpfen.

Langlay
2025-01-19, 02:10:58
Mit den vollgerotzten Drecksgrafikkarten seit der 5970 darf man AMD-Grafikkarten nicht mal in AMD-Threads loben. Wie kann man seit 15 Jahren denn keinen Perfomanceking hervorbringen?! In CPU-Threads hingegen darf man AMD so loben, wie man hier NVidia lobt. Ich würde mir im Leben keine AMD-Graka kaufen, aber bei den CPUs bin ich ein AMD-Groupie. Intel schafft es, in allem was sie gegenwärtig anpacken einfach Müll zu sein. Eigentlich müsste der Laden ums nackte Überleben kämpfen.


Sorry für OT.

Abseits von RT, war die 6900XT ggü. der 3090 schon ganz gut aufgestellt. Allerdings wird es davor dann ziemlich duster bis man bei Hawaii ankommt.

PHuV
2025-01-19, 02:57:19
Blackwell ist ..ein TOC von dem üblichen TIK/TOC cycle.

kann man kaufen, aber es bringt kaum was..
Warum legt Ihr das schon so fest, obwohl das Ding noch nicht mal draußen ist? :confused::rolleyes:

Man ist doch fertigungstechnisch physikalisch jetzt sehr am Limit. Ist die Frage, ob nach Blackwell mit 4nm noch große Steigerungen über 2nm bis 1.4nm in 2027 so zu erwarten sind. 30-40% mehr Leistung finde ich hier schon beachtlich. Ich vermute, daß hier jetzt die Stagnation einsetzen wird, so wie seit vielen Jahren bei CPUs zu beobachten sind, die Leistung steigt nur noch langsam, oder man skaliert massiv parallel. Wir haben ja jetzt schon eine Leistungsaufnahme von 600W, und ewig kann das hier auch nicht so weitergehen. Daher rechne ich mit den nächsten Generationen, daß wir hier mit eher weniger Steigerungen als jetzt rechnen müssen. Eine 4090 mit nahezu doppelter Leistung zum Vorgänger werden wir die nächsten Jahre so vermutlich nicht mehr erleben, außer in sehr speziellen Bereichen wie MFS und Co.

x-force
2025-01-19, 03:03:31
Ich vermute, daß hier jetzt die Stagnation so wie seit vielen Jahren bei CPUs zu beobachten sind, die Leistung steigt nur noch langsam, oder man skaliert massiv parallel. Wir haben ja jetzt schon eine Leistungsaufnahme von 600W, und ewig kann das hier auch nicht so weitergehen.

gpus skaliert man schon seit ewigkeiten in die breite. das geht sogar wesentlich besser als bei cpus.

wenn die die-size ausgeschöpft ist und es sich rechnet, kommen multi-die gpus.

wenn das dann nicht mehr kühlbar ist, kommen mehr dedizierte einheiten, die wenig können, aber das schnell und dabei wenig verbrauchen.

Langlay
2025-01-19, 03:05:14
Naja 30-40% mehr Leistung bei 27% mehr Leistungsaufnahme. Ist schon etwas mäh für mich. Aber ja ich glaub auch das wir uns daran wohl gewönnen müssen das es jetzt langsamer weiter geht.

Hübie
2025-01-19, 03:13:38
Wir sollten uns auch daran gewöhnen, dass es mehr Performance Zuwachs geben wird, als bisher kolportiert. Damit geht auch mehr Perf/W einher als bisher angenommen. Wartet einfach mal auf die Benchmarks. Raff wird wahrscheinlich sich eine 5090 einverleiben. ;-)
Edit: Apples to apples kommen wir eher bei 60-65% mehr Performance heraus.

PHuV
2025-01-19, 03:40:40
Ich hab heute meine 4090 verkauft, und mußte mir die 3060 TI FE von meinem Sohnemann schnappen (die ursprünglich in meinen Anwendungsrechner war), damit ich überhaupt spielen kann. Und siehe da, für Pubg und Manor Lords in 4K UHD reicht sie vollkommen aus. Hm :uponder:

Ich hab die Karte jetzt 27 Monate genutzt, und quasi in dieser Zeit 630 € Verlust gehabt, daß heißt ca. 23 € pro Monat für die Nutzung. Bisher mein bester Verkauf. Gut, hätte ich - wie manche hier - es vor der Keynote und früher verkauft, wäre ich vielleicht auch +-0 rausgekommen. So ist es schon ok, und ich muß jetzt nur etwa 1000 € drauflegen für die 5090.

Kriegsgeier
2025-01-19, 06:11:08
Nicht schlecht, für 1600€ +33% einzukaufen!
Hut ab!

Sardaukar.nsn
2025-01-19, 07:22:54
@PHuV: Alles richtig gemacht. Ich nutze bei Bedarf die 4070S von meinem Sohn, aber bald gibt es ja neues Spielzeug.

Wenn die Blackwell Grafikkarten in zwei Wochen zu hunderten und tausenden in den Markt kommen, werden die Vorgänger Karten meistens verkauft. Preise werden sinken. Für den Kunden eigentlich eine Win-Win Situation.

Blackwell könnte sogar noch wertstabiler sein. Je nach dem wie man dieses KI-Thema und die damit verbundenen Leistungssteigerungen bewertet. Sind diese aus der KI generierten Pixel nur Hype und modischer Schnick-Schnack der bald wieder vorüber geht, oder wird sich das zum neuen Standard entwickeln? Dann reden wir hier nicht über +30-40% sondern eine Multiplikation der Leistung.

The_Invisible
2025-01-19, 08:06:17
Wir sollten uns auch daran gewöhnen, dass es mehr Performance Zuwachs geben wird, als bisher kolportiert. Damit geht auch mehr Perf/W einher als bisher angenommen. Wartet einfach mal auf die Benchmarks. Raff wird wahrscheinlich sich eine 5090 einverleiben. ;-)
Edit: Apples to apples kommen wir eher bei 60-65% mehr Performance heraus.

Klar, Raff schon viel zu ruhig hier, der wird seine Nächte wieder schieben ;-)

Wie kommst aber auf 60%? Würde es mir wünschen aber bisher sah nichts nach dem aus

Kriegsgeier
2025-01-19, 08:09:53
nur durch den realen Verbrauch kann es noch überraschen. Dass die Karte "plötzlich" nich mal 500 Watt unter Volllast zieht und somit der realer Takt plötzlich um gute 200 MHz gesteigert werden kann...

Das wäre 1A NEWS und könnte die 2-Slot-Design der Fe Karten erklären?

rentex
2025-01-19, 08:10:39
Wir sollten uns auch daran gewöhnen, dass es mehr Performance Zuwachs geben wird, als bisher kolportiert. Damit geht auch mehr Perf/W einher als bisher angenommen. Wartet einfach mal auf die Benchmarks. Raff wird wahrscheinlich sich eine 5090 einverleiben. ;-)
Edit: Apples to apples kommen wir eher bei 60-65% mehr Performance heraus.

Dafür spricht rein gar nichts!

Edgecrusher86
2025-01-19, 08:18:08
Bis 37% wird's wohl sein best in best cases mit viel compute. Ich bin halt einmal auf die highres Skalierung, sprich den Leistungsverlust gegenüber der RTX 4090 in 5K, 6K, 8K und darüber hinaus gespannt - auch wenn es natürlich wieder so gut wie untergehen wird - gerade bei der Presse und vor allem, wenn man noch 21:9 priorisiert. Eventuell kann dann die Bandbreite und das Mehr an Cache auftrumpfen und wir sehen gar mehr als oben genannter Wert.

Schade, dass sich ein Kauf der RTX 5090 für mich 0,0 lohnt von der 4090 kommend - die hier immer nur in Teillast läuft.

Der Nerd in mir hatte gerne Extremtests durchgeführt. ^^

Immerhin werde ich dann vom Bekannten einige 5K/6K Ergebnisse zu hören bekommen.

Dabei ist es sogar auch spielbar.

Indy 5K DL-DSR plus FG und DLSS P schafft eine RTX 4090 derzeit samt PT ordentlich, das wird dann DLSS Q bei der RTX 5090 sein.

Kriegsgeier
2025-01-19, 08:26:03
Und genau DLSS Qualität ist quasi nativ für mich. Und ich brauche mit der Einstellung kein AA - passt alles soweit!

OgrEGT
2025-01-19, 09:18:57
Mit den vollgerotzten Drecksgrafikkarten seit der 5970 darf man AMD-Grafikkarten nicht mal in AMD-Threads loben. Wie kann man seit 15 Jahren denn keinen Perfomanceking hervorbringen?! In CPU-Threads hingegen darf man AMD so loben, wie man hier NVidia lobt. Ich würde mir im Leben keine AMD-Graka kaufen, aber bei den CPUs bin ich ein AMD-Groupie. Intel schafft es, in allem was sie gegenwärtig anpacken einfach Müll zu sein. Eigentlich müsste der Laden ums nackte Überleben kämpfen.
Kannst du dich wenigstens halbwegs um eine anständige Ausdrucksweise bemühen?

Edgecrusher86
2025-01-19, 09:32:15
Bei Bedarf kann man ja auch noch DLSS UQ erzwingen - per DLSS Tool den Faktor von Q händisch hoch schrauben. Einige wenige Titel bieten es halt von Haus aus schon an mit 75% statt 67%.

Aber ich bin hier mit 960p upscaled auch sehr zufrieden.

In DIV etwa erachte ich den Unterschied zu DLAA als relativ gering, sodass ich wieder auf Q zurück bin - cool & quiet mitsamt FG und 60 fps (RT off - zu gering ist mir der Unterschied).

Ja, DLSS ist schon seit Version 2 etwas Gute Glättung trifft auf ordentliche Bildruhe (nicht überall perfekt, aber auch nicht weit entfernt - in EVO etwa Speichen am Riesenrad in Bewegung...im Stand sauber).

The_Invisible
2025-01-19, 09:46:46
Und genau DLSS Qualität ist quasi nativ für mich. Und ich brauche mit der Einstellung kein AA - passt alles soweit!

Das Transformer Modell steigert die Qualität nochmals, in 4k kannst jetzt schon DLSS-P gut nutzen, das wird dann sicher nicht schlechter.

00-Schneider
2025-01-19, 09:50:28
Das Transformer Modell steigert die Qualität nochmals, in 4k kannst jetzt schon DLSS-P gut nutzen, das wird dann sicher nicht schlechter.


Wann kommt das jetzt eigentlich? Google spuckt nichts aus.

Radeonfreak
2025-01-19, 09:57:50
30. Januar angeblich mit dem neuen Treiber.

Troyan
2025-01-19, 10:23:29
Laut nVidia sollen 75 Spiele offiziell DLSS 4 zum Launch von Blackwell unterstützten. So, 30. Januar muss es sein.

rentex
2025-01-19, 10:31:45
Das Transformer Modell steigert die Qualität nochmals, in 4k kannst jetzt schon DLSS-P gut nutzen, das wird dann sicher nicht schlechter.

Soll das nicht 5% Leistung kosten?

rumpeLson
2025-01-19, 10:45:07
Soll das nicht 5% Leistung kosten?
Sofern die Bildqualität um mehr als 5% steigt, ist doch alles super.
Meine "Sorge" wäre noch am ehesten, dass für hohe Auflösungen ein Bedarf von weiteren Scaling-Faktoren zwischen Performance und Ultra Performance entsteht. Am besten wäre es eigentlich, wenn man den Faktor per Slider festlegen könnte.

Edgecrusher86
2025-01-19, 11:05:38
Wie gesagt - das lässt sich ja auch alles über Umwege anpassen bezüglich DLSS-Faktoren. Gegen einen Slider hätte ich allerdings auch nichts einzuwenden.

Jupiter
2025-01-19, 13:02:03
Leider ist die RTX 5080 langsamer als die RTX 4090. Die RTX 5090 hätte von mir aus auch langsamer als die +30-40 % zur RTX 4090 sein können, wenn sie dafür um die 1700 Euro kosten würde.

nordic_pegasus
2025-01-19, 13:19:10
Die RTX 5090 hätte von mir aus auch langsamer als die +30-40 % zur RTX 4090 sein können, wenn sie dafür um die 1700 Euro kosten würde.

also minimal gestiegene Rohleistung zum (inflationsbereinigt) quasi gleichen Preis? Dafür aber Bandbreiten und VRAM overkill.

Das wäre m.E. noch bescheidener als die Ergebnisse, die ich Donnerstag erwarte. Dann kommt noch anfängliche(?) Knappheit, Scalper-Aufschläge und sowieso höhere Preise der Partner-Karten im Vergleich zu den FE Preisen dazu. Gekrönt von der Prämisse, dass (meine) aktuellen und künftigen Lieblings-Games auch mit DLSS4 plus MFG kompatibel sind, damit die halluzinierten Frames überhaupt erscheinen.

dargo
2025-01-19, 13:46:33
Eine kleine Analyse.

dSuYONFwfWo

Daredevil
2025-01-19, 14:27:35
Naja 30-40% mehr Leistung bei 27% mehr Leistungsaufnahme. Ist schon etwas mäh für mich. Aber ja ich glaub auch das wir uns daran wohl gewönnen müssen das es jetzt langsamer weiter geht.
Wilde Theorie meinerseits: Dauerhaft kann Nvidia das nicht fahren, wenn der "Mitbewerber" mit dem weißen Apfel nicht vorbei ziehen soll.
In der CPU Sparte werden Intel und AMD dieses Jahr außerhalb ihrer HEDT/Server Schiene den CPU Thron verlieren, sofern wirklich so etwas wie einen doppelter M4 Pro/Max rauskommt, von noch mehr wollen wir ja nicht mal träumen. Spekulatius würde also sagen ca.:
SC 6-10% über dem 9950X
MC 30-50% über dem 9950X
Idleverbrauch 80% unter dem 9950X
Lastverbrauch 40% unter dem 9950X
( Datenbasis M4 Pro vs. Ryzen Vergleich https://www.computerbase.de/artikel/prozessoren/m4-pro-vs-ryzen-core-ultra-test.90415/ )
Die CPU Sparte ist aktuell also schon dort, wo Apple es haben möchte.

Was sie noch nicht erreicht haben ist die gleiche Qualität und Perf/Watt und gleichzeitig halt auch hoher Performance zu erreichen in der GPU Sparte und dies ist 2025 so wichtig wie noch nie. AI wird durch GPUs beschleunigt, ihre Vision Pro lechzt nach P/W und durch Unified Memory sind sie bereits in einer Vorreiter Position, das sie ziemlich viel VRAM anbieten können. Jedes Prozent mehr Perf/Watt kann zudem die Geräte kleiner machen. ( MacMini )
Was fehlt ist die GPU Perf/W zu halten und noch mehr Leistung draufzuschütten durch Entwicklung/Fertigung.
Im mobile Sektor erreicht ein FullFat in Blender M4 Max 5200pts, vergleichen dazu 4080 mobile 5316pts und 4090 mobile 6863pts. Das passiert bereits jetzt mit einer deutlich geringeren Leistungsaufnahme, aber selbst ein "doppelter Max" würde nicht an die 10880pts einer 4090 Desktop rankommen, welcher vielleicht in nem MacStudio sitzen würde. ( Q: https://wccftech.com/apple-m4-max-chip-belender-benchmarks-against-rtx-4090/ )

Eine 5090 wäre also bei ca. 14688pts auf Basis der WCCFT Daten +36%, ein "doppelter M4 Max" bei 10400. Die Spanne ist hier noch viel zu groß, auch wenn Apples Kisten weniger saufen. Wenn Apple sich wieder dazu entscheidet, irgendwelche Chips zusammen zu kleben, dann haben sie Nvidia an den Eiern. Wenn das passiert, haben wir auch über 256GB VRAM. Wenn. :D
Es kann ja auch keine Lösung sein, das man einen 180w Chip in einen MacPro reinknallt. Die Kiste könnte ja locker 4-5 mal soviel abführen, hat sie ja früher auch schon mal mit 28c Intel und 4x VegaII. Das war ja mal eine 1300w Maschine.

Was Apple aber wiederum nicht leisten kann ist der Software Stack und gerade für Gamer auch überhaupt irgendeine merkbare Anstrengung, hier mal mehr Gas zu geben. Cyberpunk wird in Q1 zwar ein Leuchtturmprojekt für Apple Silicon, dort sehen wir zu ersten mal "richtiges" Raytracing und FrameGen, aber da gibt man sich einfach nicht viel mühe. Für Pro Workloads, wo man mehrere tausend Euro investiert ist das natürlich eine andere Sache.
Nvidia muss jetzt deswegen nicht in Panik verfallen, aber zurücklehnen wäre vermutlich auch nicht das richtige. AI ist die Zukunft und AI wird ziemlich viel ersetzen, da bin ich mir sicher und das spielt Nvidia auch ziemlich gut aus, weil sie in einer priviligierten Situation sind. Aber alle holt man damit nicht ab, das sieht man ja an Leistungsdaten für Pro Workloads und der FakeFrame Diskussion.

ENKORE
2025-01-19, 14:29:31
Warum legt Ihr das schon so fest, obwohl das Ding noch nicht mal draußen ist? :confused::rolleyes:

Man ist doch fertigungstechnisch physikalisch jetzt sehr am Limit. Ist die Frage, ob nach Blackwell mit 4nm noch große Steigerungen über 2nm bis 1.4nm in 2027 so zu erwarten sind. 30-40% mehr Leistung finde ich hier schon beachtlich. Ich vermute, daß hier jetzt die Stagnation einsetzen wird, so wie seit vielen Jahren bei CPUs zu beobachten sind, die Leistung steigt nur noch langsam, oder man skaliert massiv parallel. Wir haben ja jetzt schon eine Leistungsaufnahme von 600W, und ewig kann das hier auch nicht so weitergehen. Daher rechne ich mit den nächsten Generationen, daß wir hier mit eher weniger Steigerungen als jetzt rechnen müssen. Eine 4090 mit nahezu doppelter Leistung zum Vorgänger werden wir die nächsten Jahre so vermutlich nicht mehr erleben, außer in sehr speziellen Bereichen wie MFS und Co.

Die Stagnation ist doch schon längst da.

Schau dir mal die Entwicklung der letzten Generationen im historischen Vergleich an. In 7-8 Jahren reden wir hier nichtmal von Faktor 10 Steigerung der Computeleistung (FP32), im gleichen Zeitraum 2010er oder gar 2000er hätten wir von Faktor 100-1000+ geredet.

Klar, die Performance aufm Boden hat sich mehr gesteigert als die FP32-Leistung, aber das hat primär etwas mit Änderungen bei der Software zu tun (klar, die muss durch entsprechende Features in der HW enabled werden, aber das hat die Rechenleistung nicht gesteigert):

- gezieltem Einsatz von niedrigeren Genauigkeiten (FP16, FP8/INT8)
- Upscaling
- Frame generation
- ... und oft auch neue Renderingtechniken, die einfach geschickter sind

Relex
2025-01-19, 15:04:57
Die Stagnation begann mMn bereits 2019.

2019 RTX 2070S: 529€ UVP
2020 PS5 mit ~2070S raster performance: 499€ UVP (399 ohne Laufwerk)
2020 RTX 3070: 499€ UVP (Marktpreis 700+€) +35% vs 2070S
2022 RTX 4060ti: 439€ UVP (Marktpreis 550€) +28% vs 2070S

Aktuell anfang 2025 gibt es die 4060ti für ca 400€ und die 4070 für ca 550€.
Die 4070 ist dabei 65% schneller.

Das heißt, zwischen Juli 2019 und Januar 2025 ist die Leistung in der Mittelklasse gerade mal um 65% gestiegen und der VRAM um 50% gewachsen. Aber das auch nur nach dem Preisrutsch der 4060ti und 4070. Anfang 2024 war der performancevorsprung nach 5 Jahren gerade mal bei ca 30%.


Die leistungssteigerungen gibt es eigentlich nur noch im High end zu höheren Preisen und teilweise auch nur mit höherer Leistungsaufnahme.

Und selbst die Fortschritte im High End Segment sind ein witz zu dem was es 2010 bis 2019 in der Mittelklasse an Fortschritt gab.

Natürlich ist es trotzdem extrem beeindruckend, wie extrem man trotz dieser Stagnation mit Upscaling, FG und Pathtracing sowohl optik als auch FPS der Spiele aufwerten kann. Bei der Grafik tut sich aktuell trotz dieser geringen Fortschritte aktuell mehr als früher. Das dann doch ziemlich respektabel.

Das zeigt dann wieder, dass Archtektur/Hardwarefeatures und Software deutlich wichtiger sind als Rohleistung.

Argo Zero
2025-01-19, 15:08:39
Rohleistung wird immer unwichtiger.
Wenn man sich die ganzen Videos auf DF anschaut zu dem, was nVidia alles vor hat, kommt es vor allem auf die verfügbare AI Leistung der Grafikkarte an.
Natürlich ist das aktuell noch Zukunftsmusik aber "roh" gerendert wird in 5 Jahren wahrscheinlich viel weniger in Spielen als noch aktuell.

dargo
2025-01-19, 15:12:46
Rohleistung wird immer unwichtiger.

Blödsinn... Baseline und damit Rohleistung bleibt weiterhin wichtig.

Argo Zero
2025-01-19, 15:17:00
Blödsinn... Baseline und damit Rohleistung bleibt weiterhin wichtig.

Verlesen? Ich schrieb undwichtiger und nicht unwichtig :freak:

Relex
2025-01-19, 15:19:13
Wenn du an FG/MFG denkst schon.

Aber vor allem intelligente Hardwarefeatures in verbindung mit innovativen Software features (siehe neural Rendering) wird in zukunft dafür sorgen, dass schönere Grafik effizienter berechnet werden kann.

Bisher hat es hauptsächlich höhere Rohleistung gebraucht, um die Grafik zu verbessern.
In Zukunft wenn solche Rohleistungssteigerungen nicht mehr möglich sind, wird bessere Grafik primär über Software und neue Hardwarefeatures kommen (so wie auch in den letzten 5 Jahren schon), die das Rendering von immer aufwändigerer Grafik effizienter machen.

Machine Learning soll hier eben der Schlussel sein.
Bisher geht die Rechnung auf. Wie weit man das treiben kann, who knows?

dargo
2025-01-19, 15:25:39
Bisher hat es hauptsächlich höhere Rohleistung gebraucht, um die Grafik zu verbessern.

Quatsch... neuere APIs wurden immer effizienter. Gleiches gilt für Spieleengines.

The_Invisible
2025-01-19, 15:26:53
Blödsinn... Baseline und damit Rohleistung bleibt weiterhin wichtig.

Erinnert mich an 2018 als Turing mit RT/DLSS/AI vorgestellt wurde :freak:

Aber gut, manche denken ja selbst in 2025 noch das RT unwichtig sei obwohl die ganze Industrie darauf setzt. Blackwell mit Neural Texturen & Co mit massiver AI Leistung ist da wohl wieder so ein kleinerer Turing.

Platos
2025-01-19, 15:26:59
Verlesen? Ich schrieb undwichtiger und nicht unwichtig :freak:

Stimmt trotzdem nicht. Alle "Verbesserer" rechnen sich ja auf die Rohleistung drauf. Ist wie ein Anfangsmultiplikator. Ist dieser Niedrig, ist auch alles andere niedrig.

Abgesehen davon ist mit einer niedrigen Rohperfomance auch eine Zweitverwendung für Anwendungen dann zunichte.

aufkrawall
2025-01-19, 15:30:14
Gibt ja schon RTX Neural Radiance Cache als ggf. großen Schritt in die Richtung. Vorher musste man anderweitig weitere Bounces faken, damit es nicht zu dunkel wurde. Klappt per ML den Vorschauen für HL2 RTX nach aber mal wieder wesentlich besser. Lässt sich ggf. noch auf andere Rendering-Aspekte ausdehnen?

Argo Zero
2025-01-19, 15:30:47
Wenn du an FG/MFG denkst schon.


Meine primär das, was im DF Video diskutiert wird:

https://www.youtube.com/watch?v=tuf4rvQld6c

Das ist halt noch Zukunftsmusik aber damit würden Tensor Cores eine sehr wichtige Rolle spielen.

Stimmt trotzdem nicht. Alle "Verbesserer" rechnen sich ja auf die Rohleistung drauf. Ist wie ein Anfangsmultiplikator. Ist dieser Niedrig, ist auch alles andere niedrig.

Abgesehen davon ist mit einer niedrigen Rohperfomance auch eine Zweitverwendung für Anwendungen dann zunichte.

Wenn Objekte erst gar nicht gerendert werden müssen, brauchst du auch keine Rohleistung dafür.
Physikalisch können wir halt auch keine großen Sprünge mehr erwarten pro Geneneration. Allerdings stehen wir im Bereich AI noch quasi in den Kinderschuhen, speziell beim Gaming.

PHuV
2025-01-19, 18:15:56
Rohleistung wird immer unwichtiger.

Sehe ich auch so. So wie aktuell künstlich Bilder und Videos schon fast problemlos per AI erstellt werden, so wird es genauso mit Spielen sein. Die erste Kostprobe gibts ja schon:
https://www.computerbase.de/news/gaming/ai-doom-und-spieleentwicklung-ki-erzeugt-spielbares-doom-in-echtzeit.89534/
Stimmt trotzdem nicht. Alle "Verbesserer" rechnen sich ja auf die Rohleistung drauf. Ist wie ein Anfangsmultiplikator. Ist dieser Niedrig, ist auch alles andere niedrig.
Weil wir uns gerade in der Migrationsphase befinden, und die komplette Rohleistung der AI dafür noch nicht ausreicht. Das wird in 5-10 Jahren anders aussehen.

Abgesehen davon ist mit einer niedrigen Rohperfomance auch eine Zweitverwendung für Anwendungen dann zunichte.
Wenn Du eine AI hast, welche zur Laufzeit Rechenwerke selbst definieren und Entwickeln bzw. für den einen Zweck optimieren kann, wird das auch kein Thema sein. So wie Du damals ein Entwicklung vom nativen Maschinencode wie Assembler und Co. dann die höhere Programmiersprachen aufkamen, wo die eigentlich CPU dann in den Hintergrund trat, wird das genauso mit nativer Berechnung von Grafik hin zu AI werden. Wenn die Rechenleistung dafür zur Verfügung steht, wird mal es für die meisten Dinge gar nicht mehr bemerken und wissen, ob es direkt nativ oder indirekt per AI erzeugt wird. Ganz im Gegenteil, es wird somit eine vollkommen neue Flexibilität und ganz andere Möglichkeiten geben.

Relex
2025-01-19, 19:51:36
Also baut man quasi einen reinen AI Beschleuniger und virtualisiert die Grafikhardware mit AI - sofern diese überhaupt noch benötigt wird oder eben direkt die Bilder.

Wenn die AI Beschleunigung in Hardware besser skaliert, als Grafikbeschleunigung kann das ja durchaus funktionieren.

Ist halt einfach ausgedrückt "nichs weiter" als ein anderer Ansatz.

PHuV
2025-01-19, 19:58:35
Natürlich, aber letztlich zählt nur das Resultat. Wie es erzielt wurde, ob klassisch durch Berechnungen und Rendern, oder nun durch AI, ist dann ja irrelevant, wenn es überzeugt. Man bekommt ja heute auch nicht mehr mit, ob ein Mensch oder eine Maschine eine Geschichte erdacht oder ein Musikstück erstellt. Gut, wenn man gezielt auf gewisse Punkte achtet, merkt man das jetzt noch. Aber das wird bald auch vorbei sein, wenn die Verfahren verbessert und die AI weiter gut trainiert werden.

Slipknot79
2025-01-19, 21:14:17
Mir wäre es lieber, wenn man mehr AI in das Gegnerkampfverhalten ballert, damit mal eine Herausforderung am Start ist. (y)
-----------------
Wenn das so weiter geht, spielt eine AI statt mir am PC. :mad:
-----------------
https://videocardz.com/newz/custom-geforce-rtx-5080-and-rtx-5090-pricing-emerges-made-for-gamers-with-deep-pockets
Angebliche Händlerprice. (y)

RTX 5080

Asus PRIME GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,419.90 €
Asus TUF Gaming GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,559.90 €
Asus ROG Astral GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,679.90 €
Asus PRIME GeForce RTX 5080 16GB GDDR7 ➡️ 1,399.90 €
Asus ROG Astral GeForce RTX 5080 16GB GDDR7 ➡️ 1,659.90 €
Asus TUF Gaming GeForce RTX 5080 16GB GDDR7 ➡️ 1,539.90 €

RTX 5090

Asus ROG Astral GeForce RTX 5090 32GB GDDR7 ➡️ 3,059.90 €
Asus ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition ➡️ 3,079.90 €
ASUS TUF Gaming GeForce RTX 5090 OC Edition➡️ 2,879.90 €
ASUS TUF Gaming GeForce RTX 5090 OC Edition ➡️ 2 859,90 €
PNY GeForce RTX 5090 Epic-X ARGB OC 32GB ➡️ €2,649.00
PNY GeForce RTX 5090 OC 32GB GDDR7 DLSS4 ➡️ €2,599.00
Zotac Gaming GeForce RTX 5090 AMP Extreme ➡️ €2,889.00
Zotac Gaming GeForce RTX 5090 OC Solid ➡️ €2,789.00
Zotac Gaming GeForce RTX 5090 Solid 32GB ➡️ €2,769.00
Gigabyte AORUS GeForce RTX 5090 Master➡️ €2,759.00
Gigabyte GeForce RTX 5090 Gaming OC 32GB ➡️ €2,649.00
Gigabyte GeForce RTX 5090 Windforce OC ➡️ €2,599.00

RTX 5080

PNY GeForce RTX 5080 Epic-X ARGB OC 16GB ➡️ €1,529.00
PNY GeForce RTX 5080 OC 16GB GDDR7 DLSS4 ➡️ €1,499.00
Asus Prime GeForce RTX 5080 OC 16GB GDDR7 ➡️ €1,836.00
Asus Prime GeForce RTX 5080 16GB GDDR7 DLSS4 ➡️ €1,821.00
Asus TUF Gaming GeForce RTX 5080 OC 16GB ➡️ €1,922.00
Asus TUF Gaming GeForce RTX 5080 16GB ➡️ €1,907.00
Asus ROG Astral GeForce RTX 5080 OC 16GB ➡️- €2,022.00
Asus ROG Astral GeForce RTX 5080 16GB ➡️ €2,008.00
Zotac Gaming GeForce RTX 5080 AMP Extreme ➡️ €1,899.00
Zotac Gaming GeForce RTX 5080 OC Solid ➡️€1,829.00
Gigabyte AORUS GeForce RTX 5080 Xtreme ➡️ €2,199.00
Gigabyte AORUS GeForce RTX 5080 Xtreme Waterforce ➡️ €2,269.00

rentex
2025-01-19, 21:24:40
Die Preise...einfach zum Kopfschütteln.

[MK2]Mythos
2025-01-19, 22:41:22
Einfach mal zum Teil über 1000 Euro mehr als das Referenzdesign ist nur noch irre.
Hiffen wir mal dass das Fakes sind.

MSABK
2025-01-19, 22:52:22
Sind relativ normale Preise wenn man konkurrenzlos mit den zwei Produkten ist.

Ex3cut3r
2025-01-19, 22:52:42
Quatsch... neuere APIs wurden immer effizienter. Gleiches gilt für Spieleengines.

Komm endlich mal im Jahre 2025 an. Und verabschiede dich von alten Denkmustern. Schon in 5 Jahren wird keiner mehr in nativer Auflösung spielen. Dadurch werden High PPi 5K-8K Monitore immer mehr der Standard beim Gamer sein. Dazu geht es dank FG x4,x6,x8,x10 immer mehr Richtung 1000HZ Display.

RT wird spätestens mit der PS6 (2028-2030?), der normale Standard sein. Wenn AMD jetzt nicht endlich die Kurve kriegt und endlich mal in AI investiert, wird das einigen Jahren ganz dunkel bei denen sein. Warum man sich so lange dagegen gewährt mir ein Rätsel. Und jetzt mit FSR 4 springen Sie endlich doch auf den AI Zug auf. Und RDNA 3 wird nicht mal unterstützt werden. Richtig so, die alten Zöpfe endlich mal loswerden.

crux2005
2025-01-19, 23:22:32
Mythos;13688325']Einfach mal zum Teil über 1000 Euro mehr als das Referenzdesign ist nur noch irre.
Hiffen wir mal dass das Fakes sind.

Sind leider keine "Fakes". Nur wird es zum Release wohl wenig Bestand geben und manche Händler machen dann auf Scammer.

https://datacomp.sk/default.asp?cls=stoitems&fulltext=RTX+5090
https://datacomp.sk/default.asp?cls=stoitems&fulltext=RTX+5080

Ist in der Slowakei leider nichts neues. Dazu die seit 2025 gestiegene MwSt (23%) + höheren Transportkosten (Benzin ist hier auch teurer).

Edit: Ich sehe gerade das steht "dieser Preis ist nur geschätzt". :D

Daredevil
2025-01-19, 23:30:47
NVIDIA der wahre Messias wird die OVP zum Ehrenpreis anbieten, Mashallah.
Screw these Custom Händler shit. ;(

crux2005
2025-01-19, 23:31:33
NVIDIA der wahre Messias wird die OVP zum Ehrenpreis anbieten, Mashallah.
Screw these Custom Händler shit. ;(

Wird nur wenige Stück geben und die FE kannst du auch nur über NBB oder wie die sich nennen bestellen. ;(

Exxtreme
2025-01-19, 23:39:28
Komm endlich mal im Jahre 2025 an. Und verabschiede dich von alten Denkmustern. Schon in 5 Jahren wird keiner mehr in nativer Auflösung spielen. Dadurch werden High PPi 5K-8K Monitore immer mehr der Standard beim Gamer sein. Dazu geht es dank FG x4,x6,x8,x10 immer mehr Richtung 1000HZ Display.


Halte ich für extrem unwahrscheinlich. UHD gibt es seit ~12 Jahren. Und auf Steam kommt UHD nicht über 5% Marktanteil und ist somit absolute Nische. Wir sind schon bei WQHD in einem Bereich, der für die meisten Leute gut genug ist. Auch DP2.1b ist sehr neu und braucht schon aktive Kabel um über 1,5 m Kabellänge zu kommen. Die ganze Infrastruktur wird schicht zu teuer für >4K und ich das dürfte sich nicht ändern.

monstar-x
2025-01-19, 23:42:27
Mythos;13688325']Einfach mal zum Teil über 1000 Euro mehr als das Referenzdesign ist nur noch irre.
Hiffen wir mal dass das Fakes sind.

Wir alle wissen doch dass das "Referenzdesign" nur in geringen Homöopathischen Stückzahlen verfügbar sein wird.

Was bringt dir eine UVP von 1149/2349€ wenn du es nicht kaufen kannst.
MSI, ASUS, etc. haben es dann für 1500/2600€

Damit ist der reale Straßenpreis 1500/2600€, egal was die UVP ist.

Relex
2025-01-19, 23:46:11
Bei der FE spart Nvidia bei den Dimensionen des Kühlers und der PCB Fläche. Außerdem hat sie nur zwei statt drei Lüfter.

Völlig logisch, dass die dann günstiger ist, oder? ;D:weg:

Exxtreme
2025-01-19, 23:47:44
Was bringt dir eine UVP von 1149/2349€ wenn du es nicht kaufen kannst.
MSI, ASUS, etc. haben es dann für 1500/2600€


Anbieter wie Gainward könnten sogar billiger sein als die FE. Ich habe meine Gainward 4090 für 1655 EUR bekommen. :X

monstar-x
2025-01-19, 23:49:06
Komm endlich mal im Jahre 2025 an. Und verabschiede dich von alten Denkmustern. Schon in 5 Jahren wird keiner mehr in nativer Auflösung spielen. Dadurch werden High PPi 5K-8K Monitore immer mehr der Standard beim Gamer sein. Dazu geht es dank FG x4,x6,x8,x10 immer mehr Richtung 1000HZ Display.

Unsinn, die meisten Spiele, prozentual gesehen, haben kein DLSS/FSR.
Die meisten spiele sind nämlich Indie-Games und A/AA Title und keine AAA Games.

8K Monitore, dass ich nicht lache, wer soll das kaufen (Preis), die meisten geben 100-150€ für eine Monitor aus und nicht wie wir 1000-1500€.

monstar-x
2025-01-19, 23:56:41
Anbieter wie Gainward könnten sogar billiger sein als die FE. Ich habe meine Gainward 4090 für 1655 EUR bekommen. :X

Du weist doch selbst dass es die Ausnahme ist.
Aber du kannst ja gerne auf einen 1999€ von Gainward warten ;D

Ich habe damals für meine ASUS 2080 TI Strix OC auch nur Effektive 900€ gezahlt, durch Cashback Kombinationen, auf der Rechnung Stand 1249€

- 100€ Cashback von Asus,
- 100 Cashback von Cyberport.
- 50€ Cachback von Cyberport lokale Abholung oder sowas...
+ 8% Cashback von Shoop.

Thomas Gräf
2025-01-20, 00:03:15
ASUS liefert sogar das Astral Erlebnis mit, für schlumpe 3k.
Also dafür kann mans nicht selber machen. :biggrin:

CompuJoe
2025-01-20, 00:16:15
Bin mal gespannt wie die Karten von Palit werden, der Kühler der 4080/4090 war einer der besten fand ich, schön kühl und leise, aber halt ein ziemlicher Ziegel und das Design war Geschmackssache.

monstar-x
2025-01-20, 00:24:03
ASUS liefert sogar das Astral Erlebnis mit, für schlumpe 3k.
Also dafür kann mans nicht selber machen. :biggrin:

Die Preise für die Astral sind nach einem Meeting mit AstroTV entstanden ;D
Anders kann ich mir diesen Wahnsinn nicht erklären.

PHuV
2025-01-20, 00:26:29
Anbieter wie Gainward könnten sogar billiger sein als die FE. Ich habe meine Gainward 4090 für 1655 EUR bekommen. :X
:eek: Und für weniger hatte ich gestern eine Palit 4090 gestern verkauft, gebraucht über 2 Jahre.

CompuJoe
2025-01-20, 00:59:22
Habe meine Palit Gamerock 4080 damals für 1069€ gekauft

Thomas Gräf
2025-01-20, 01:22:16
Die Preise für die Astral sind nach einem Meeting mit AstroTV entstanden ;D
Anders kann ich mir diesen Wahnsinn nicht erklären.

Njaa, der Glaube ist für diese Frame Generation schon von Bedeutung. ;D

Slipknot79
2025-01-20, 01:51:00
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reviews-go-live-january-24-rtx-5080-on-january-30
Angebliche reviews in 3d.

* January 23 = RTX 5090 MSRP review (including FE)
* January 24 = RTX 5090 Non MSRP review
* January 29 = RTX 5080 MSRP review (including FE)
* January 30 = RTX 5080 Non MSRP review
* January 30 = RTX 5090 & 5080 Sale

Sardaukar.nsn
2025-01-20, 02:25:53
Oh, jetzt schon am Donnerstag? Soll mir recht sein.

][immy
2025-01-20, 07:00:32
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reviews-go-live-january-24-rtx-5080-on-january-30
Angebliche reviews in 3d.

* January 23 = RTX 5090 MSRP review (including FE)
* January 24 = RTX 5090 Non MSRP review
* January 29 = RTX 5080 MSRP review (including FE)
* January 30 = RTX 5080 Non MSRP review
* January 30 = RTX 5090 & 5080 Sale
Also die 5070 Modelle müssen scheinbar echt schlecht im Verhältnis sein, wenn die vorm verkauf nicht getestet werden dürfen ....

Halte ich für extrem unwahrscheinlich. UHD gibt es seit ~12 Jahren. Und auf Steam kommt UHD nicht über 5% Marktanteil und ist somit absolute Nische. Wir sind schon bei WQHD in einem Bereich, der für die meisten Leute gut genug ist. Auch DP2.1b ist sehr neu und braucht schon aktive Kabel um über 1,5 m Kabellänge zu kommen. Die ganze Infrastruktur wird schicht zu teuer für >4K und ich das dürfte sich nicht ändern.
Verstehe den Hype um UHD auch nicht, auch wenn ich ein entsprechendes Display habe. Habe auch nie verstanden warum z.B. Age of Empires Remaster "4k Texturen" auf UHD Monitore beschränkt hat. Als gäbe es nicht seit Jahrzehnten so etwas mit Downscaling/Supersampling AA.

dargo
2025-01-20, 07:35:34
Halte ich für extrem unwahrscheinlich. UHD gibt es seit ~12 Jahren. Und auf Steam kommt UHD nicht über 5% Marktanteil und ist somit absolute Nische. Wir sind schon bei WQHD in einem Bereich, der für die meisten Leute gut genug ist. Auch DP2.1b ist sehr neu und braucht schon aktive Kabel um über 1,5 m Kabellänge zu kommen. Die ganze Infrastruktur wird schicht zu teuer für >4K und ich das dürfte sich nicht ändern.
Korrekt... DP 2.1 verteuert auch aktuell stark die entsprechenden Monitore vs. DP 1.4. Könnte sich sicherlich in Zukunft ändern, wird aber dauern. Und aktuell wird eher 1440p langsam zum neuen Standard bei den Gamern. Bis 4k diesen Punkt erreicht werden noch viele Jahre vergehen.


https://videocardz.com/newz/custom-geforce-rtx-5080-and-rtx-5090-pricing-emerges-made-for-gamers-with-deep-pockets
Angebliche Händlerprice. (y)

RTX 5080

Asus PRIME GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,419.90 €
Asus TUF Gaming GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,559.90 €
Asus ROG Astral GeForce RTX 5080 16GB GDDR7 OC Edition ➡️ 1,679.90 €
Asus PRIME GeForce RTX 5080 16GB GDDR7 ➡️ 1,399.90 €
Asus ROG Astral GeForce RTX 5080 16GB GDDR7 ➡️ 1,659.90 €
Asus TUF Gaming GeForce RTX 5080 16GB GDDR7 ➡️ 1,539.90 €

RTX 5090

Asus ROG Astral GeForce RTX 5090 32GB GDDR7 ➡️ 3,059.90 €
Asus ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition ➡️ 3,079.90 €
ASUS TUF Gaming GeForce RTX 5090 OC Edition➡️ 2,879.90 €
ASUS TUF Gaming GeForce RTX 5090 OC Edition ➡️ 2 859,90 €
PNY GeForce RTX 5090 Epic-X ARGB OC 32GB ➡️ €2,649.00
PNY GeForce RTX 5090 OC 32GB GDDR7 DLSS4 ➡️ €2,599.00
Zotac Gaming GeForce RTX 5090 AMP Extreme ➡️ €2,889.00
Zotac Gaming GeForce RTX 5090 OC Solid ➡️ €2,789.00
Zotac Gaming GeForce RTX 5090 Solid 32GB ➡️ €2,769.00
Gigabyte AORUS GeForce RTX 5090 Master➡️ €2,759.00
Gigabyte GeForce RTX 5090 Gaming OC 32GB ➡️ €2,649.00
Gigabyte GeForce RTX 5090 Windforce OC ➡️ €2,599.00

RTX 5080

PNY GeForce RTX 5080 Epic-X ARGB OC 16GB ➡️ €1,529.00
PNY GeForce RTX 5080 OC 16GB GDDR7 DLSS4 ➡️ €1,499.00
Asus Prime GeForce RTX 5080 OC 16GB GDDR7 ➡️ €1,836.00
Asus Prime GeForce RTX 5080 16GB GDDR7 DLSS4 ➡️ €1,821.00
Asus TUF Gaming GeForce RTX 5080 OC 16GB ➡️ €1,922.00
Asus TUF Gaming GeForce RTX 5080 16GB ➡️ €1,907.00
Asus ROG Astral GeForce RTX 5080 OC 16GB ➡️- €2,022.00
Asus ROG Astral GeForce RTX 5080 16GB ➡️ €2,008.00
Zotac Gaming GeForce RTX 5080 AMP Extreme ➡️ €1,899.00
Zotac Gaming GeForce RTX 5080 OC Solid ➡️€1,829.00
Gigabyte AORUS GeForce RTX 5080 Xtreme ➡️ €2,199.00
Gigabyte AORUS GeForce RTX 5080 Xtreme Waterforce ➡️ €2,269.00
:popcorn:

Anbieter wie Gainward könnten sogar billiger sein als die FE. Ich habe meine Gainward 4090 für 1655 EUR bekommen. :X
Wann? Direkt zum Release oder viel später? Wenn die Stückzahlen am Anfang tatsächlich (wird sich bald zeigen) extrem gering sind wird automatisch teurer verkauft. Angebot/Nachfrage und so.

Die Preise für die Astral sind nach einem Meeting mit AstroTV entstanden ;D
Anders kann ich mir diesen Wahnsinn nicht erklären.
Warum nicht? "Extreme" PCBs inkl. extremen Kühlern erfordern halt höhere Preise, völlig logische Konsequenz. Oder hat hier tatsächlich jemand geglaubt, dass die Kühlung einer bis zu 575W (OC-Modelle wahrscheinlich noch etwas mehr) vergleichbar kostet wie eine Kühlung einer 200W Karte? Materialaufwand und so. ;) Natürlich machen sich auch die AIBs die Taschen mit ihren super duper Customs voll. Die höheren Materialkosten werden garantiert nicht 1:1 an die Kunden weiter gegeben sondern eher 1:4 oder so ähnlich.

The_Invisible
2025-01-20, 08:18:00
Was kann NV dafür wenn sich die händler ein scalper Zubrot verdienen wollen. Könnte man AMD auch für den 9800x3d beschuldigen, macht aber keinen Sinn. Hängt alles von gelieferten stückzahlen ab.

Linmoum
2025-01-20, 08:33:00
[immy;13688420']Also die 5070 Modelle müssen scheinbar echt schlecht im Verhältnis sein, wenn die vorm verkauf nicht getestet werden dürfen ....Die 5070 kommt nicht auch schon am 30.01., sondern erst später im Februar.

Kriegsgeier
2025-01-20, 08:35:58
https://www.youtube.com/watch?v=uyxXRXDtcPA



Hier erklärt der Meister selbst warum DLSS4.0 auf Backwell besseres Bild liefern wird als auf ADA! Also NIX DLSS4.0 ist gleichwertig auf beiden Generationen.

Unbedingt anschauen!

Relex
2025-01-20, 09:08:51
Exakter Timestamp bitte. Hab ich mir gestern angesehen und konnte nichts dergleichen vernehmen...
Aber vielleicht bin ich taub und unaufmerksam.

basix
2025-01-20, 09:10:50
Hä? Der Nvidia Typ sagt es wird schneller und besser auf Blackwell laufen. Logisch. Die Qualität sollte bei beiden aber gleich sein. Oder an welcher Stelle im Video hat er die Aussage gemacht, dass es auf Ada anders aussehen wird? Und wenn es auf Ada anders aussieht, würde es auf Turing auch anders aussehen. Ziemlich unwahrscheinlich. Es wird langsamer laufen, völlig klar. Aber hinsichtlich Qualitätsunterschide habe ich nichts herausgehört. Bei SR, RR wie auch FG nicht.

Er sagt zudem, dass man evtl. FG auf RTX 30 GPUs bringen wird, sie sehen sich das momentan an.

wolik
2025-01-20, 09:16:36
https://www.youtube.com/watch?v=uyxXRXDtcPA



Hier erklärt der Meister selbst warum DLSS4.0 auf Backwell besseres Bild liefern wird als auf ADA! Also NIX DLSS4.0 ist gleichwertig auf beiden Generationen.

Unbedingt anschauen!

Warte doch, noch ein paar Tage.

DrFreaK666
2025-01-20, 10:06:41
...
Er sagt zudem, dass man evtl. FG auf RTX 30 GPUs bringen wird, sie sehen sich das momentan an.
So hat er es nicht gesagt. Er spricht von Older Hardware.
Wäre schon eine Verarsche wenn RTX3000 nun doch FG-Support bekommen würde.
Ich glaube eher, dass MFG auf die RTX4000 kommen könnte, aber nur 3x FG

Kriegsgeier
2025-01-20, 10:09:13
Ihr müsst das mit der Umstellung auf den Transformer verstehen. Und das wird vernünftig erst mit der neuen Blackwell Generation laufen.

Das ist die wichtigste Massage aus dem Interview, meiner Meinung nach.

Relex
2025-01-20, 10:12:52
Wenn sie das Transformer Model für RTX2000 bringen, wird es schon nicht so schlimm sein.

Und logisch, dass er sagt, dass es auf Blackwell am besten läuft. Das ist doch Standard marketing sprech. Er hat nichts über Unterschiede bei der Bildqualität gesagt. Würde auch wenig Sinn ergeben, da man sonst ein weiteres Model hätte trainieren müssen (mit anderen trade-offs).

Cubitus
2025-01-20, 10:45:32
Zu den Preisen angepasst auf unsere Mwst.

Spanien/Deutschland

1. PNY GeForce RTX 5090 Epic-X ARGB OC 32GB
Netto: €2189.26
Brutto (19 % MwSt.): €2605.22

2. PNY GeForce RTX 5090 OC 32GB GDDR7 DLSS4
Netto: €2147.93
Brutto (19 % MwSt.): €2556.04

3. Zotac Gaming GeForce RTX 5090 AMP Extreme
Netto: €2387.60
Brutto (19 % MwSt.): €2841.24

4. Zotac Gaming GeForce RTX 5090 OC Solid
Netto: €2304.96
Brutto (19 % MwSt.): €2742.90

5. Zotac Gaming GeForce RTX 5090 Solid 32GB
Netto: €2288.43
Brutto (19 % MwSt.): €2723.23

Slowakei/Deutschland

1. Asus ROG Astral GeForce RTX 5090 32GB GDDR7
Originalpreis: €3059.90
Netto (23 % entfernt): €2487.72
Brutto (19 % hinzugefügt): €2960.39

2. Asus ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition
Originalpreis: €3079.90
Netto (23 % entfernt): €2503.98
Brutto (19 % hinzugefügt): €2979.74

3. ASUS TUF Gaming GeForce RTX 5090 OC Edition
Originalpreis: €2879.90
Netto (23 % entfernt): €2341.38
Brutto (19 % hinzugefügt): €2786.24

4. ASUS TUF Gaming GeForce RTX 5090 OC Edition
Originalpreis: €2859.90
Netto (23 % entfernt): €2325.12
Brutto (19 % hinzugefügt): €2766.90

DrFreaK666
2025-01-20, 10:47:28
Ich glaube so einfach kann man das nicht rechnen

Cubitus
2025-01-20, 10:51:50
Ich glaube so einfach kann man das nicht rechnen

Wieso nicht?
Am Ende des Tages hängt es vielleicht auch vom Lohnniveau ab.
Dann wirds hier noch teurer..

E39Driver
2025-01-20, 10:59:56
Die Stagnation begann mMn bereits 2019.

2019 RTX 2070S: 529€ UVP
2020 PS5 mit ~2070S raster performance: 499€ UVP (399 ohne Laufwerk)
2020 RTX 3070: 499€ UVP (Marktpreis 700+€) +35% vs 2070S
2022 RTX 4060ti: 439€ UVP (Marktpreis 550€) +28% vs 2070S

Aktuell anfang 2025 gibt es die 4060ti für ca 400€ und die 4070 für ca 550€.
Die 4070 ist dabei 65% schneller.

Das heißt, zwischen Juli 2019 und Januar 2025 ist die Leistung in der Mittelklasse gerade mal um 65% gestiegen und der VRAM um 50% gewachsen. Aber das auch nur nach dem Preisrutsch der 4060ti und 4070. Anfang 2024 war der performancevorsprung nach 5 Jahren gerade mal bei ca 30%.


Die leistungssteigerungen gibt es eigentlich nur noch im High end zu höheren Preisen und teilweise auch nur mit höherer Leistungsaufnahme.

Und selbst die Fortschritte im High End Segment sind ein witz zu dem was es 2010 bis 2019 in der Mittelklasse an Fortschritt gab.

Sehr gut zusammen gefasst. Das zeigt die ganze Stagnation von Leistung pro Euro über die letzten Jahre.

Als Ergänzung kann man noch hinzufügen, dass es die Einsteigerklasse noch härter getroffen hat. Noch immer lässt sich mit gebrauchten 8-GB 2016er Karten der GTX1080/Vega64 Leistungsklasse jedes aktuelle Spiel in 1080p und mittleren bis hohen Einstellungen spielen. Eine RTX3050-8GB die neu etwa die selbe Leistung wie diese 9 Jahre alten Karten bringt, kostet neu mindestens 210€.

Argo Zero
2025-01-20, 11:16:16
Was ist mittlerweile denn "High" Detail in einem Spiel?
Wenn ich Indiana Jones mit RT Path Tracing spielen will reicht eine GTX1080 sicherlich nicht. Das Spiel startet vermutlich nicht mal.

Das ist halt so wie früher, wenn man bei Quake 3 T&L abschaltet. Dann hast du zwar "High" Detail aber Technologie von früher.

aceCrasher
2025-01-20, 11:17:16
Ich glaube eher, dass MFG auf die RTX4000 kommen könnte, aber nur 3x FG
So wie ich das verstanden habe benötigt MFG das hardware-frame-pacing von Blackwell.

Zitat von folgender Nvidia Seite (https://www.nvidia.com/en-us/geforce/news/rtx-50-series-graphics-cards-gpu-laptop-announcements/):

"To help support the frame pacing requirements of next generation DLSS Multi Frame Generation, the Blackwell architecture was built with enhanced hardware flip metering capabilities to provide the speed and accuracy required for a smooth, high-quality experience."

Relex
2025-01-20, 11:22:47
Ja, aber er hat im interview auch gesagt, dass das Framepacing mit DLSS4 auch auf RTX4000 besser sein wird.

Und er sagte, dass sie prüfen, was sich aus "alter hardware" noch herauskitzeln lässt. Und das war eben im Bezug auf FG.


Das könnte FG für RTX3000 bedeuten. Es könnte aber auch 3x FG für RTX4000 bedeuten.
Es kann letzten Endes sehr vieles bedeuten. Dennoch ist die Aussage höchst interessant. Irgend ne kleine Überraschung könnte es da in Zukunft noch geben. Was genau lässt sich daraus aber nicht ableiten.


Letzten Endes eröffnet das neue FG Model, das keinen OFA mehr braucht und trotzdem 40% schneller sein soll bei zugleich geringerem Speicherverbrauch eben auch neue Möglichkeiten.

Tib
2025-01-20, 12:13:07
... zwischen Juli 2019 und Januar 2025 ist die Leistung in der Mittelklasse gerade mal um 65% gestiegen und der VRAM um 50% gewachsen. Aber das auch nur nach dem Preisrutsch der 4060ti und 4070. Anfang 2024 war der performancevorsprung nach 5 Jahren gerade mal bei ca 30%.


Da schwingt so ein wenig mit, dass Performance-Steigerung über die Zeit linear verlaufen sollte?


Wie issn das bei CPUs? ... ich hab das da nicht mitverfolgt, aber sieht eine Performance-Steigerung nicht im ähnlichen Maße über die Zeit abschwächelnd aus? (So ganz ganz allgemein, ohne da irgendwelche Monopol-Preisabzocken bei zu diskutieren)

][immy
2025-01-20, 12:26:39
Die 5070 kommt nicht auch schon am 30.01., sondern erst später im Februar.

Kann auch sein das ich mich einfach verlesen habe. Als ich vorhin auf der Seite war, hätte ich schwören können das bei den 30.jan launches auch die 5070er stand. Steht da jedenfalls nicht mehr (oder hab mich halt verlesen). Das gibt mir ja doch etwas Hoffnung. Aber preislich ist Nvidia so was von drüber. Mit ~650€ Startpreis und dann vermutlich wieder nur 8gb für Varianten darunter... So setzen sich Features jedenfalls nicht durch. Nicht zu vergessen das darunter es die letzten Jahre quasi gar keinen Performance Zuwachs mehr gab.

Ist inzwischen echt ein hoher Einstiegspreis ins PC gaming mit Hardware die man ohne Zähne Knirschen empfehlen könnte. Daran scheint Nvidia auch nichts ändern zu wollen.

Relex
2025-01-20, 12:55:03
Da schwingt so ein wenig mit, dass Performance-Steigerung über die Zeit linear verlaufen sollte?


Wie issn das bei CPUs? ... ich hab das da nicht mitverfolgt, aber sieht eine Performance-Steigerung nicht im ähnlichen Maße über die Zeit abschwächelnd aus? (So ganz ganz allgemein, ohne da irgendwelche Monopol-Preisabzocken bei zu diskutieren)

Nicht linear. Exponentiell. Rechenleistung steigt immer exponentiell. Das liegt eigentlich auch in der Natur der Sache.
Also doppelte Leistung alle 2 oder 4 Jahre oder x Jahre zum gleichen Preis. Dann in weiteren x Jahren wieder das doppelte davon usw.
Der Fortschritt bei CPUs ist zwar solange ich es verfolge schon immer viel langsamer als bei GPUs, aber eben trotzdem immer exponentiell.


Ich denke langfristig werden auch im GPU markt die Leistungssteigerungen exponentiell weiter laufen. Nur die Zeiträume in denen eine verdoppelung passiert müssen eben geweitet werden.


Denn falls tatsächlich nur noch eine lineare Steigerung möglich wäre, wäre das tatsächlich der Supergau. Bei linearem Anstieg könnte man es auch ganz sein lassen. Dann lohnt sich das R&D auch nicht mehr, weil man ohne Vervielfachung der performance auch gar keine neuen Anwendungsgebiete mehr erschließen könnte. Das wäre die totale Sackgasse. Ich denke davon sind wir auch noch ein gutes Stück weit entfernt.

ChaosTM
2025-01-20, 13:19:50
Mal abwarten und hoffen. Bei 2nm sind wir schon verdammt knapp an die physikalische Wand herangerückt.
Zumindest mit der derzeitigen Architektur.
Optische Chips könnten massiv schneller rechnen, aber da sind noch jede Menge Probleme zu lösen wie Packdichte, Kosten uvm.

Kriegsgeier
2025-01-20, 13:22:33
2nm werden wir bei NVIDIA erst in 2-3 Jahren haben. Dann aber noch wesentlich teurerer als diese 4nm jetzt bei BLACKWELL...

Relex
2025-01-20, 13:23:26
@ChaosTM

Ist das so?

Die Namen sind doch mittlerweile nur grobe Indikation des Skalierungseffekts und haben meines wissens nichts mehr mit den realen Strukturgrößen zu tun.

Kriegsgeier
2025-01-20, 13:26:12
Bei der Bezeichnung der Fertigung spielt die Gate-Größe eine Rolle. Alles andere muss nicht in z.B. 4nm ausgeführt werden.
Es war schon immer so, auch bei älteren Fertigungen.
Das ist auch u.A. der Grund warum Cash-Bereiche anders skalieren als z.B. andere Logikbereiche.
Denn, es müssen ja nicht nur Transistoren selbst gemacht werden sondern auch dazugehörige Kondensatoren, Widerstände. Und gewisse Logiken brauchen zur Beschaltung halt weniger oder mehr dieser passiven Bauelemente in der unmittelbaren Nachbarschaft.

Dural
2025-01-20, 13:34:08
Grössere Schritte als 30-40% werden wir so wie so nicht mehr sehen. Die nächste Generation wird doch mit hoher Wahrscheinlichkeit Die Grössen haben die "übersichtlich" bleiben.

Ich verstehe das Geschrei echt nicht mehr, kauft oder lasst es sein! Eine neue Generation ist ja auch die Möglichkeit die alte günstig als Occ. zu bekommen :rolleyes:

Ich bin zwar nach wie vor sehr Grafikkarten interessiert, aber wenn ich die heutigen Spiele anschaue habe ich irgendwie auch keinen Bedarf. Mich interessiert somit mehr die Hardware Technik als die Anwendung.

MiamiNice
2025-01-20, 13:39:26
Ich bin zwar nach wie vor sehr Grafikkarten interessiert, aber wenn ich die heutigen Spiele anschaue habe ich irgendwie auch keinen Bedarf. Mich interessiert somit mehr die Hardware Technik als die Anwendung.

Schau Dir vielleicht mal VR Headsets an. Da kann man noch richtig rum nerden, neues entdecken und man braucht die teuren GPUs um dort Spaß zu haben. Gaming am Monitor abseits Indie Games ist vollkommen tot und brain dead.
Für den BS kauft man keine neue GPU, da gehe ich total mit,

ChaosTM
2025-01-20, 13:40:04
@ChaosTM

Ist das so?

Die Namen sind doch mittlerweile nur grobe Indikation des Skalierungseffekts und haben meines wissens nichts mehr mit den realen Strukturgrößen zu tun.


Ein paar kleine Schritte sind noch möglich, aber die werden jeweils massiv teurer und irgendwann in naher Zukunft zahlt sich das einfach nicht mehr aus.


Silizium hat zb. eine Van-der-Waals-Radius von 0,21nm - nur zur Veranschaulichung.
Viel Raum bleibt da nicht mehr für Verkleinerungen.

MiamiNice
2025-01-20, 15:05:42
Deswegen bekommen wir bald CPUs aus Graphen. Das letzte was ich davon lass, war irgendwas über Graphen Trasistoren die nur ein Atom breit sein sollen. Also nochmal ein wenig kleiner, als wir heute unterwegs sind (wir sind laut Artikel irgendwo bei 30 Atomen für einen Transistor aktuell).
Da bekommen wir scheinbar noch etwas Luft und die Party kann weiter rollen. Es wird allerdings schwer kleiner zu bauen, als ein Atom groß ist. Aber bis dahin vergehen noch ein paar Jahre, imo.

Sardaukar.nsn
2025-01-20, 15:19:06
Bei Blackwell werden heute bereits 15 von 16 Pixeln (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-15-of-16-pixels-generated-by-ai.jpg) "generiert". Die Frage ist ob man diese Leistungssteigerungen durch die KI auch real nutzen kann und ob Kunden bereit sind dafür Geld auszugeben. Falls dies so Eintritt, stehen uns die großen Leistungssteigerungen erst noch bevor.

MiamiNice
2025-01-20, 15:28:08
Ich denke ehrlichweise, dass das wieder kippen wird. Schon heute greifen immer mehr Menschen zu Indie Titeln und die übliche (A)AAA Kacke verkauft sich immer schlechter. Auch die Masse ist es langsam leid, immer das selbe Spiel, mit denselben 5 Tastenanschlägen pro Minute, anzuschauen. Ich denke FG wird keinerlei Zukunft haben, DLSS allerdings schon. Wenn man ehrlich ist, verkauft NV auch nur den Kram aus dem Compute Bereich und verlang immer abstruse Preise für Features, die immer weniger Leute kaufen wollen. Das wird nicht ewig so weiter gehen (können). Es wird IMO eine Besinnung zu den Basics stattfinden und FG wird unnötig werden, weil die Grafik nicht mehr weiter gesteigert wird.

Exxtreme
2025-01-20, 15:32:23
Bei Blackwell werden heute bereits 15 von 16 Pixeln (https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-15-of-16-pixels-generated-by-ai.jpg) "generiert". Die Frage ist ob man diese Leistungssteigerungen durch die KI auch real nutzen kann und ob Kunden bereit sind dafür Geld auszugeben. Falls dies so Eintritt, stehen uns die großen Leistungssteigerungen erst noch bevor.

Die Frage ist dann wie toll das Spielerlebnis so ist bei 15 generierten Pixeln aus 16. Man wird höhere Eingabelatenzen haben und auch extrem viel Matsch auf dem Bildschirm.

Sardaukar.nsn
2025-01-20, 15:37:55
Werden wir ja bald herausfinden bzw. drüber lesen können. Bei HWluxx und anderen ist der Adler wohl inzwischen gelandet: https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/65352-in-der-redaktion-eingetroffen-die-geforce-rtx-5090-founders-edition.html

FSElza2KVWg

why_me
2025-01-20, 15:42:19
Die ist mit Sicherheit schon länger bei denen.
Nur heute dürfen sie das unboxing veröffentlichen. Weil das braucht man heute doch alles. Ist wieder 1 Tag mehr, an dem die Produkte ganz oben auf der Webseite etc. Platziert werden.
Und natürlich auch nur die 5090, damit man das selbe für die 5080 und die 5070 noch einmal machen kann.

MiamiNice
2025-01-20, 15:46:25
Waren das noch schöne Zeiten als die Karten irgendwann einfach kaufbar waren, ohne den ganzen Rummel. Mittlerweile versucht man schon nur mit Auspack Videos Geld zu generieren. Finde ich ziemlich befremdlich.

Argo Zero
2025-01-20, 15:49:02
Waren das noch schöne Zeiten als die Karten irgendwann einfach kaufbar waren, ohne den ganzen Rummel. Mittlerweile versucht man schon nur mit Auspack Videos Geld zu generieren. Finde ich ziemlich befremdlich.

Früher haste halt Hefte gekauft und es war Geld da für die Redaktion.
Heute musst es ausschlachten bis zum geht nicht mehr, weil Online einen shice bezahlt, leider.
Was meinste, warum bei Computec z.B. (andere Verlage genau so) jeden Tag x News Artikel raus gehauen werden MÜSSEN? Damit die Redakteure über die VGWort auf ein lebensfähiges Gehalt kommen.

The_Invisible
2025-01-20, 16:10:59
Unboxing mit Raff :D

SBXtlyAfD30

Sardaukar.nsn
2025-01-20, 16:58:24
Raff hat im Video ja gesagt das es schon am Freitag gedreht wurde und er das ganze Wochenende gründlich testen wird. Da das Design der FE ja schon sehr ungewöhnlich ist, kann man das meiner Meinung nach schon in einem kurzen Video präsentieren und die Besonderheiten klären. Auch hier, wenn es nicht interessiert muss man ja auch nicht klicken.

aufkrawall
2025-01-20, 17:00:32
Luft nach oben ist auch das einzig Sinnvolle. Gibt genug Airflow-Tests, und die afaik alle zeigen, dass Unterdruck mit Abzug nach oben raus mit Abstand am effektivsten ist (nach offener Wand).
Es würde mich aber sehr wundern, wenn diese großen Lüfter wirklich Noctua-Qualität hätten. Wird leider fast nie in Tests gut drauf eingegangen, wie die Geräusch-Charakteristika bei verschiedenen Drehzahlen sind, inkls. einstellbarer Minimaldrehzahl.

Dovregubben
2025-01-20, 17:09:14
Die Frage ist dann wie toll das Spielerlebnis so ist bei 15 generierten Pixeln aus 16. Man wird höhere Eingabelatenzen haben und auch extrem viel Matsch auf dem Bildschirm.
Eingabelatenzen sind nur ein Argument, wenn man FG nutzt, um immer niedrigere Frameraten auszugleichen. Da sagt sogar Nvidia im DF Interview, dass es dafür nicht ist.
Nutzt man sie stattdessen um HFR Monitore mit 200+ Hz anzusteuern, wird FG auf einmal super sinnvoll.

Kriegsgeier
2025-01-20, 17:09:55
https://www.igorslab.de/nvidias-scheiblierte-ndas-und-warum-manche-medien-scheinbar-gleicher-sind-als-gleich/

Interessanter Artikel von Igor. Aus dem Artikel (20. Januar 2025 06:00 Igor Wallossek):

Und genau deshalb kommt heute Nachmittag um 15.00 auch mein Unboxing – schön den Regeln folgend. Die einzige Frechheit, die ich mir aufgrund meiner aktuell etwas angefressenen Stimmung leiste, ist der eher unbedeutende NDA-Bruch, das Unboxing-NDA heute Nachmittag erwähnt zu haben, denn bereits die Information darüber, dass es ein solches gibt, steht ja auch schon unter NDA. Aber damit kann ich bequem leben.

Relex
2025-01-20, 17:28:50
Na ja, ist halt auch ein undankbarer Job.

Man ist zu 100% auf den Hersteller angewiesen, der einem alles vorgeben oder dich schlicht ausschließen kann.
Man macht unter hohem Zeitdruck und Überstunden content, der in sehr ähnlicher Form von hunderten, wenn nicht tausenden Reviewern ebenfalls produziert wird. (Also quasi extrem viel „blindleistung“, aber das ist ja bei redaktioneller Arbeit leider fast schon die Natur der Sache)
Und am Ende darf man sich dann Kritik anhören, warum dieses und jenes nicht getestet wurde.

Kriegsgeier
2025-01-20, 17:37:51
Ja, das ist leider wahr. Aber dennoch sieht man wer Qualität abliefert.

Und es gibt ein Tester, der am genausten an der Wahrheit liegt:

Das ist immer die 3DCenter-Testübersicht - quasi die Mittelwertbildung! Feiere ich immer - bringt mir den meisten Nutzen.

dargo
2025-01-20, 17:38:21
https://www.igorslab.de/nvidias-scheiblierte-ndas-und-warum-manche-medien-scheinbar-gleicher-sind-als-gleich/

Interessanter Artikel von Igor. Aus dem Artikel (20. Januar 2025 06:00 Igor Wallossek):
Haha... wie überraschend. :tongue: "Influencer" mit großer Reichweite werden schon längst von IHVs bevorzugt. ;)

Badesalz
2025-01-20, 19:33:02
8auer mit dem ersten Test auf YT :tongue:

dargo
2025-01-20, 19:36:28
Welchen Test? Bisher packen alle nur die Grafikkarten aus. Wie spannend. :rolleyes:

Trap
2025-01-20, 19:41:50
Wäre noch Zeit für eine Kooperation mit https://www.youtube.com/@HydraulicPressChannel, wenn man viele Klicks bekommen möchte.

Die NDA dürfte diesen Test nicht verbieten.

Badesalz
2025-01-20, 20:13:03
Welchen Test? Bisher packen alle nur die Grafikkarten aus. Wie spannend. :rolleyes:Ahh... Den Joke verstanden :up:

Er konnte sich aber wieder nicht verkneifen was er von der Peitsche hält und wofür sie am besten taugt :biggrin:

Tib
2025-01-20, 20:38:51
Werden wir ja bald herausfinden bzw. drüber lesen können...


jetzt weiß ich endlich, woran mich der Poweradapter (https://youtu.be/FSElza2KVWg?t=528) so frappierend erinnert:


https://peitschenhandel.de/thumbnail/75/3d/71/1685440139/05405010000_nor_c_1280x1280.jpg


Ich brauche wohl doch DRINGEND eine 5090!!!!111einself


...und zusammen mit meiner Jensen Huang Edition Lederjacke wird dann auch ein Schuh draus: Schmerzen nicht nur auf dem Bankkonto, nein, auch echte Schmerzen. Meine Domina wird Freude daran haben mich für diesen Blödsinns-Kauf auszupeitschen.
Als Sklave endlich die komplette Unterwerfung mit Nvidias Hilfe: Über die Tür im SM-Keller kommt erst mal ein fettes Nvidia Blackwell Logo. Statt mit Teletubbies wird nun mit Huangs CES Note vorgebrannt. Meine GPU-Reinigungs-Isoproanol-Vorräte verwenden wir statt Massageöl, natürlich nur in Verbindung mit Feuerspielchen. Danach ist meine Tiernahrungs-Allergie nach erzwungener Futteraufnahme in der viel zu engen Lederjacke fast schon ein Kinderspiel.



Nvidia, mein Wunsch sei dir Befehl...

crux2005
2025-01-20, 21:09:57
Unboxing Videos? Echt jetzt? ZZZZZZZZzzzzzzzzz

Raff
2025-01-20, 21:17:21
https://www.igorslab.de/nvidias-scheiblierte-ndas-und-warum-manche-medien-scheinbar-gleicher-sind-als-gleich/

:up:

MfG
Raff

crux2005
2025-01-20, 21:30:10
Zu den Preisen angepasst auf unsere Mwst.

Spanien/Deutschland

1. PNY GeForce RTX 5090 Epic-X ARGB OC 32GB
Netto: €2189.26
Brutto (19 % MwSt.): €2605.22

2. PNY GeForce RTX 5090 OC 32GB GDDR7 DLSS4
Netto: €2147.93
Brutto (19 % MwSt.): €2556.04

3. Zotac Gaming GeForce RTX 5090 AMP Extreme
Netto: €2387.60
Brutto (19 % MwSt.): €2841.24

4. Zotac Gaming GeForce RTX 5090 OC Solid
Netto: €2304.96
Brutto (19 % MwSt.): €2742.90

5. Zotac Gaming GeForce RTX 5090 Solid 32GB
Netto: €2288.43
Brutto (19 % MwSt.): €2723.23

Slowakei/Deutschland

1. Asus ROG Astral GeForce RTX 5090 32GB GDDR7
Originalpreis: €3059.90
Netto (23 % entfernt): €2487.72
Brutto (19 % hinzugefügt): €2960.39

2. Asus ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition
Originalpreis: €3079.90
Netto (23 % entfernt): €2503.98
Brutto (19 % hinzugefügt): €2979.74

3. ASUS TUF Gaming GeForce RTX 5090 OC Edition
Originalpreis: €2879.90
Netto (23 % entfernt): €2341.38
Brutto (19 % hinzugefügt): €2786.24

4. ASUS TUF Gaming GeForce RTX 5090 OC Edition
Originalpreis: €2859.90
Netto (23 % entfernt): €2325.12
Brutto (19 % hinzugefügt): €2766.90

Der Datacomp Mitbarteiter der die Preise eingegeben hat, hat sich zu Wort gemeldet: https://pretaktovanie.sk/viewtopic.php?p=1633481#p1633481

Kurz, sehr wenige 5090 bei Release und aktuell sieht es nach Nvidia MSRP +50% = Endpreise in € aus (zumindest in der Slowakei mit 23% MwSt.).

rentex
2025-01-20, 21:36:09
Tja, wenn die 2300€ Graka in "PAPPE" verpackt kommt, weißt du, das Nvidia eine schlechte Kopie von Apple ist und "Lederjacke", ein heimlicher Fan von Steve Jobs ist.

Linmoum
2025-01-20, 21:55:23
Hat ja jeder eine Woche Zeit, sich selbst ein Bild davon zu machen. Für das reine Performanceplus an Rohleistung werde ich auch nicht aufrüsten. Das wird am Ende in erster Linie auch davon abhängen, welchen Eindruck MFG hinterlässt und vor allem auch, wie gut (oder ggf. schlecht) das dann über die Nvidia-App funktioniert bei älteren Spielen, die FG unterstützen.

Bei FG war mein Ersteindruck damals auch weniger berauschend, mittlerweile will ich aber nicht mehr darauf verzichten, solange die fps-Basis entsprechend hoch genug ist.

monstar-x
2025-01-20, 23:20:37
Hat ja jeder eine Woche Zeit, sich selbst ein Bild davon zu machen. Für das reine Performanceplus an Rohleistung werde ich auch nicht aufrüsten. Das wird am Ende in erster Linie auch davon abhängen, welchen Eindruck MFG hinterlässt und vor allem auch, wie gut (oder ggf. schlecht) das dann über die Nvidia-App funktioniert bei älteren Spielen, die FG unterstützen.

Bei FG war mein Ersteindruck damals auch weniger berauschend, mittlerweile will ich aber nicht mehr darauf verzichten, solange die fps-Basis entsprechend hoch genug ist.

Wenn MFG für dich das Ausschlaggebende Argument ist, kannst du dir doch gleich nur die 5080 kaufen und viel Geld sparen oder denkst du es macht einen Unterschied ob 180 Fake Frames oder 240 Fake Frames sind?
Ich denke (schätze) nicht.

Basis FPS ist nach DLSS und da wird die 5080 ausreichend schnell sein.

Linmoum
2025-01-20, 23:28:10
Der Unterschied liegt erstmal darin, dass eine 5090 für sich vermutlich bereits 40-50% mehr fps liefern wird, als eine 5080. Das ist das eine, das andere ist die Tatsache, dass ich mit der 5080 von 24GiB ein Downgrade auf nur noch 16GiB machen würde. Und das scheidet sowieso schon aus.

Thomas Gräf
2025-01-20, 23:32:36
Tja, wenn die 2300€ Graka in "PAPPE" verpackt kommt, weißt du, das Nvidia eine schlechte Kopie von Apple ist und "Lederjacke", ein heimlicher Fan von Steve Jobs ist.

Habs ja schon geschrieben, die hätten ne dicke Havanna mit dreinpacken sollen.
So'ne richtige "Big Mama" , das hätt Lederjacke gehimmelt. ;)

Raff
2025-01-20, 23:38:53
Wenn MFG für dich das Ausschlaggebende Argument ist, kannst du dir doch gleich nur die 5080 kaufen und viel Geld sparen oder denkst du es macht einen Unterschied ob 180 Fake Frames oder 240 Fake Frames sind?
Ich denke (schätze) nicht.

Basis FPS ist nach DLSS und da wird die 5080 ausreichend schnell sein.

Das Problem ist, dass MFG kein Feature à la AFMF ist. Könnte man das einfach auf jedes Spiel "draufklatschen" und würde es dann genauso gut funktionieren, wäre es ein Game Changer. In der aktuellen Form jedoch: Wegen (Stand heute) 75 prinzipiell kompatiblen Spielen (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-mit-Multi-Frame-Generation-1463174/) von einer 4090 auf eine 5080 abzurüsten ... naah.

MfG
Raff

PHuV
2025-01-20, 23:43:37
Unboxing mit Raff :D

https://youtu.be/SBXtlyAfD30
Verdammt, dann hätte ich mir den Umbau in das neue Gehäuse sparen können, wenn die FE so kompakt gebaut ist. :mad::freak:

Gouvernator
2025-01-20, 23:48:13
Der Unterschied liegt erstmal darin, dass eine 5090 für sich vermutlich bereits 40-50% mehr fps liefern wird, als eine 5080. Das ist das eine, das andere ist die Tatsache, dass ich mit der 5080 von 24GiB ein Downgrade auf nur noch 16GiB machen würde. Und das scheidet sowieso schon aus.
Performance technisch wurde die alte RTX3090 schon längst überrundet, aber deren 24GB werden um jeden Preis immer noch verhindert... Das ist doch klar ein KI-Politikum.

Thomas Gräf
2025-01-20, 23:48:43
Das Problem ist, dass MFG kein Feature à la AFMF ist. Könnte man das einfach auf jedes Spiel "draufklatschen" und würde es dann genauso gut funktionieren, wäre es ein Game Changer. In der aktuellen Form jedoch: Wegen (Stand heute) 75 prinzipiell kompatiblen Spielen (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-mit-Multi-Frame-Generation-1463174/) von einer 4090 auf eine 5080 abzurüsten ... naah.

MfG
Raff

Ach du Scheibenkleister...von den 75 Spielen hab ich nich ein einziges auf der Pladde.

Radeonfreak
2025-01-20, 23:50:58
Ach du Scheibenkleister...von den 75 Spielen hab ich nich ein einziges auf der Pladde.

Das enttäuscht mich jetzt aber.

Thomas Gräf
2025-01-20, 23:51:15
Verdammt, dann hätte ich mir den Umbau in das neue Gehäuse sparen können, wenn die FE so kompakt gebaut ist. :mad::freak:

Hauptsache das neue Case hat nach obenraus Luft.
Sonst sechs stetzen . :biggrin:

Thomas Gräf
2025-01-20, 23:52:04
Das enttäuscht mich jetzt aber.

N'ach war schon immer ein Sim Freak, von daher... :smile:

Raff
2025-01-21, 00:51:23
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasing

MfG
Raff

Sardaukar.nsn
2025-01-21, 01:07:16
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasing

MfG
Raff

Mit PT und DLSS.

4090 +50% in 4K ?

MiamiNice
2025-01-21, 01:25:03
Bei ca. 640%, wäre mein Tip im orangen Balken ;)
Und bei ca. 150% im türkisen Balken.

Sag mal Raff, wie uncool ist das eigentlich die Karte nicht mit nach Hause nehmen zu können :D
In der Redaktion kannst wahrscheinlich nur testen oder geht auch mal 1-2 Stunden frei gamen?

Sardaukar.nsn
2025-01-21, 02:00:27
N'ach war schon immer ein Sim Freak, von daher... :smile:

Aus der Liste der 75 Day-1 Multi Frame Generation Games:


Microsoft Flight Simulator
Microsoft Flight Simulator 2024


Wobei bei das ja auch im Treiber überschrieben werden kann und damit jedes Spiel mit FG = MFG.

Badesalz
2025-01-21, 06:36:39
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasingIdealfälle? tss tss :rolleyes:

Sag mal Raff, wie uncool ist das eigentlich die Karte nicht mit nach Hause nehmen zu können :D
In der Redaktion kannst wahrscheinlich nur testen oder geht auch mal 1-2 Stunden frei gamen?Na wenn er kein Portal RTX spielt, dann ist es wohl nicht so schlimm ;)

Kriegsgeier
2025-01-21, 06:56:05
3) New - Rail Gating

Blackwell has implemented a second voltage rail, which decouples the memory and core system voltages. This allows for increased granularity on a per workload basis where voltages of each system to be optimized to facilitate better performance under the same power envelope. It also allows for 15x faster rail gating of the core which shuts it down and reduces leakage.

Ich glaube, das ist DAS FUTURE von neuen Generation! Man schöpft quasi wesentlich effizienter aus der max. Power als früher noch. Nicht alle Bereiche bekommen mit der Brechstange höhere Spannungen was zu höherem Takt führen soll sondern NACH DER AUSLASTUNG der Bereiche.

Quelle: https://old.reddit.com/r/hardware/comments/1i4m66w/analyzing_blackwells_power_efficiency_tech/

Kriegsgeier
2025-01-21, 07:06:30
Bei ca. 640%, wäre mein Tip im orangen Balken ;)
Und bei ca. 150% im türkisen Balken.

Sag mal Raff, wie uncool ist das eigentlich die Karte nicht mit nach Hause nehmen zu können :D
In der Redaktion kannst wahrscheinlich nur testen oder geht auch mal 1-2 Stunden frei gamen?


Ganz einfach: für Raff gibt es im Moment kein Zuhause. Sein Zuhaue ist das Test-Büro. Ich kann mir auch vorstellen, dass er die RTX 5090 Fe nicht mehr sehen will.

crux2005
2025-01-21, 07:20:58
Wundere mich das ich darüber noch keine News gelesen habe. CUDA 32bit inkl. GPU PhysX wird nicht mehr mit RTX 50 unterstützt werden: https://nvidia.custhelp.com/app/answers/detail/a_id/5615/kw/

Kriegsgeier
2025-01-21, 07:27:08
was mich noch interessieren würde: diese NEUE 3D-WaporChamber-Lösung bei der FE - wie nachhaltig ist diese und vor Allem: hat es wirklich keine Alterungserscheinungen bezüglich Kühlleistung? Nicht, dass dieser Bereich direkt am Chip irgendwie altert oder diese Sinterwände sich über Zeit verstopfen und das System ineffizienter wird?
Es gibt ja keine Langzeittests, oder? Ist ja völlig neu, dass die Röhrchen direkt zur Kammer in der Mitte gehören.

Was sagt ihr dazu?

Kriegsgeier
2025-01-21, 07:29:20
Wundere mich das ich darüber noch keine News gelesen habe. CUDA 32bit inkl. GPU PhysX wird nicht mehr mit RTX 50 unterstützt werden: https://nvidia.custhelp.com/app/answers/detail/a_id/5615/kw/

Wo genau spürt man es als Gamer? Diese CUDA 32Bit inkl. PhysX?

Altehardware
2025-01-21, 07:32:27
Upps das sagt klar aus das nvidia bei Blackwell ein hybrid arch gebaut hat 64bit nativ mit 32bit+ kombiniert damit die Treiber kompatibel bleiben
Folglich maxed 96fp32 per sm die Differenzen blieben so gb202 +28% im maximum gb203 +20% und +11% gb205 +9% und das bei dx12_2 mit älteren api bricht das weg auf 64fp32 das wird ein Desaster

Kriegsgeier
2025-01-21, 07:34:47
und jetzt bitte das Gleiche nur, dass es jeder versteht - bitte ;)

The_Invisible
2025-01-21, 07:53:38
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasing

MfG
Raff

Genau auf diese ganzen Benchmarks bin ich gespannt :D

Wird aber mal ungewohnt sein die 4090 nicht vorne zu sehen nach über 2 Jahren...

Kriegsgeier
2025-01-21, 07:59:27
Its Progress baby ;)

Tomahawk
2025-01-21, 08:06:38
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasing

MfG
Raff
Der Maßstab sind also +44%, so dass der Sprung von 4090 auf 5090 größer wäre als von 4080 Super auf 4090. Das wird knapp - meine Schätzung sind +40%.

basix
2025-01-21, 08:19:59
Wo sich wohl die RTX 5090 in diesem Skalierungs-Bestfall einordnet? :naughty: #teasing

1.8x 4090 Bandbreite = 1.8x 4090 Performance? :D

Würde auch zum relativen Bandbreitenunterschied zur 4090 vs 4080 sowie 5090 vs. 4080 passen ;)

Geht ja nur noch bis Donnerstag, dann wissen wir es ;)

Exxtreme
2025-01-21, 08:35:02
3) New - Rail Gating



Ich glaube, das ist DAS FUTURE von neuen Generation! Man schöpft quasi wesentlich effizienter aus der max. Power als früher noch. Nicht alle Bereiche bekommen mit der Brechstange höhere Spannungen was zu höherem Takt führen soll sondern NACH DER AUSLASTUNG der Bereiche.

Quelle: https://old.reddit.com/r/hardware/comments/1i4m66w/analyzing_blackwells_power_efficiency_tech/

Für mich liest sich das so als ob sie im Desktop-Betrieb noch effizienter sein könnten. Und so "neu" ist das auch nicht. Man hat es früher wohl aus Kostengründen nicht gemacht.

basix
2025-01-21, 08:43:28
Für mich liest sich das so als ob sie im Desktop-Betrieb noch effizienter sein könnten. Und so "neu" ist das auch nicht. Man hat es früher wohl aus Kostengründen nicht gemacht.

Ich hatte bei all dem und "2x MaxQ Efficiency" auch am ehesten an Dekstop, Idle und Teillast Betrieb gedacht. Bei voller Last wohl eher nicht riesig.

Wäre schon cool, wenn man bei YT, Fenster-Bewegungen usw. nochmals einen guten Effizienzsprung hinlegen würde. Für Mobile ist das natürlich super wichtig, für Desktop aber auch schön zu haben.

Interessant wird mMn das Verbrauchsverhalten unter Last. Die 4090 braucht nur sehr selten die maximalen Wattagen und insbesondere in der UE5 meistens deutlich weniger (ausser in nativ 4K und Cinematic Settings). Die 575W der 5090 sehe ich momentan als Worst Case an, der vermutlich fast nie gerissen wird und mit UV könnte man die Karte in ~300W zwängen. Hoffe ich zumindest. Nicht für alle Szenarien aber für die meisten.

Auf Raff wird da Verlass sein, der testet UV etc. sicher :)

Badesalz
2025-01-21, 08:47:11
Der Maßstab sind also +44%, so dass der Sprung von 4090 auf 5090 größer wäre als von 4080 Super auf 4090. Das wird knapp - meine Schätzung sind +40%.22% ohne FFG.

Sardaukar.nsn
2025-01-21, 09:21:03
3) New - Rail Gating
Quelle: https://old.reddit.com/r/hardware/comments/1i4m66w/analyzing_blackwells_power_efficiency_tech/

Schaut schon interessant aus, aber wohl erst richtig für mobile.

https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/3.html#2-16 und die Folie danach.

PHuV
2025-01-21, 11:53:52
Hauptsache das neue Case hat nach obenraus Luft.

2x200mm oben und 2x200mm vorne in einem HAF 700. :cool:

Argo Zero
2025-01-21, 11:55:25
Das Kühlungskonzept der FE RTX 5090 finde ich jetzt nicht so berauschend.
Lieber belegt die Karte 3-4 Slots und bläst alles nach hinten raus vs. die CPU mit heißer Luft zu belästigen :o

PHuV
2025-01-21, 12:26:48
Aber sie ist so klein, und so glatt, und fühlt sich so gut an (laut Raffs Ausstahlung :love2: im Video). Da legt man sie sich lieber ins Bett als in den PC zu verbauen. :biggrin:

Die Tests werden es zeigen, ob das Kühlkonzept funktioniert.

Neurosphere
2025-01-21, 12:26:51
Alles hinten raus macht ja quasi keine Karte derzeit.

Radeonfreak
2025-01-21, 12:30:44
Alles hinten raus macht ja quasi keine Karte derzeit.

But why?

Hakim
2025-01-21, 12:36:43
Ich Frage mich immer wenn die schon auf 3 Slots gehen, kann man nicht irgendwie eine bessere Lösung mit über die heiße Luft vorne über die Blenden Bereich befördern als diese lauten radial Lösungen bei den alten Karten oder noch immer verwendten Pro Karten

Neurosphere
2025-01-21, 13:08:33
Blackwell Titan anyone:

https://videocardz.com/newz/alleged-geforce-rtx-5090-prototype-with-24576-cores-800w-power-and-32gb-32gbps-memory-has-been-pictured

Hübie
2025-01-21, 13:22:27
X-D Und er hat keinen Treiber dafür. Das schnellste Spielzeug und er kann damit nix anfangen. Haha. :D

Hakim
2025-01-21, 13:27:17
I hope also come with eco friendly box.... xD

PHuV
2025-01-21, 13:27:23
Blackwell Titan anyone:

https://videocardz.com/newz/alleged-geforce-rtx-5090-prototype-with-24576-cores-800w-power-and-32gb-32gbps-memory-has-been-pictured
Ja klar :rolleyes: (nicht Du jetzt persönlich gemeint, sondern allgemein). Wir hatten die letzten 2 Generationen keine Titan, sondern nur Gerüchte, und das wird dieses Mal vermutlich auch nicht anders sein (bzw. würde mich überraschen). Der Vollausbau wandern in die Server für AI Zeugs und nicht eine kleine Teilmenge von Consumerkarten. Ich glaubs erst, wenn ich es sehe.

dargo
2025-01-21, 13:28:37
Blackwell Titan anyone:

https://videocardz.com/newz/alleged-geforce-rtx-5090-prototype-with-24576-cores-800w-power-and-32gb-32gbps-memory-has-been-pictured
Die 1.000W sind nicht mehr weit. :ulol:

y33H@
2025-01-21, 13:31:08
Kannste ja auch mit 300W betreiben ;)

Raff
2025-01-21, 13:31:10
Wie soll eine GPU mit der Kennnummer "-200" bitte eine Titan sein? Das müsste eher eine 400 sein, evtl. gar 450. Leider unglaubwürdig.

MfG
Raff

Kriegsgeier
2025-01-21, 13:32:57
Der Raff hat noch Kraft zu schreiben - der arme Raff, der TesterRaff...
Halte durch Junge, wir sind mit dir!

Hakim
2025-01-21, 13:34:14
Bei den Preisen und 800w können die auch ein externes Netzteil mitliefern, so eine Lösung hatten wir doch schon mal bei einer Duo Karte gehabt.

Kriegsgeier
2025-01-21, 13:38:06
ne, NVIDIA soll sich einfach an diese 600 Watt max. halten.
Mehrperformance bitte nur über Fertigung und Treiberoptimierung. Am besten wären mir sogar 450 Watt und nicht mehr. Da wir aber schon eine 600W-Büchse auferlegt bekommen, dann bitte bei 600W max. bleiben - danke!

Exxtreme
2025-01-21, 13:41:50
Bei den Preisen und 800w können die auch ein externes Netzteil mitliefern, so eine Lösung hatten wir doch schon mal bei einer Duo Karte gehabt.

Voodoo Volts 5090Ti. X-D

Und ja, 800 W wären eine Hausnummer.

PHuV
2025-01-21, 13:42:41
Der Raff hat noch Kraft zu schreiben - der arme Raff, der TesterRaff...
Halte durch Junge, wir sind mit dir!
Er startet nen Benchmark nach dem anderen, und muß dann eh zwischendrin warten.

PHuV
2025-01-21, 13:45:02
Und ja, 800 W wären eine Hausnummer.
Und die Kühlung wäre hier auch eine Herausforderung.

Lawmachine79
2025-01-21, 13:47:55
Und die Kühlung wäre hier auch eine Herausforderung.
Einfach eine 2x480er AIO mitliefern.

Kriegsgeier
2025-01-21, 13:49:25
Er startet nen Benchmark nach dem anderen, und muß dann eh zwischendrin warten.

Nein! Er muss auch an jedem 5090-Balken ziehen, mit Muskelkraft! Die Balken werden ja nicht von selbst länger!

Raff
2025-01-21, 13:52:33
Er startet nen Benchmark nach dem anderen, und muß dann eh zwischendrin warten.

Hehe, schön wär’s. Automatisierte Langeweilertests habe ich keine, alles Handarbeit inkl. Live-BQ- und Plausibilitäts-Check. Natürliches Können statt Künstlicher Supplemente, oder so. :wink:

MfG
Raff

Lehdro
2025-01-21, 14:04:36
Eingabelatenzen sind nur ein Argument, wenn man FG nutzt, um immer niedrigere Frameraten auszugleichen. Da sagt sogar Nvidia im DF Interview, dass es dafür nicht ist.
Nutzt man sie stattdessen um HFR Monitore mit 200+ Hz anzusteuern, wird FG auf einmal super sinnvoll.
Um das mal wieder aufzugreifen: Die Demonstration genau dieser Vorgehensweise kam doch von NV höchstselbst mit ihren komischen Graphen und Vergleichen. Und da ist der Haken: NV will das marketingtechnisch so darstellen (mach aus 20 FPS 240+ FPS, RTX 5070 = RTX 4090), gleichzeitig will man aber in Fachinterviews durchaus realistische Szenarien propagieren. Das ist eine ganz dünne Gratwanderung und NV hat sich hier schön auf den Popo gesetzt dabei. Aber das geht ja schon seit Turing so, mittlerweile setzt der Gewohnheitseffekt ein...

rentex
2025-01-21, 14:14:11
Hehe, schön wär’s. Automatisierte Langeweilertests habe ich keine, alles Handarbeit inkl. Live-BQ- und Plausibilitäts-Check. Natürliches Können statt Künstlicher Supplemente, oder so. :wink:

MfG
Raff

Machst du dir es wenigstens gemütlich während den Benchmarkruns? Was gibts zum Futtern? Popcorn, Nachos...?

w0mbat
2025-01-21, 14:23:20
Das Kühlungskonzept der FE RTX 5090 finde ich jetzt nicht so berauschend.
Lieber belegt die Karte 3-4 Slots und bläst alles nach hinten raus vs. die CPU mit heißer Luft zu belästigen :o
Mein Kühlkonzept ist von unten nach oben. Unten ziehen 3x NF-A12x25 die Luft rein und oben pusten sie ebenfalls 3x NF-A12x25 wieder raus. Die AIO zieht an der Seite kalte Luft, die dann auch oben aus dem Gehäuse gepustet. Dieses Konzept wird aktuell immer beliebter. Und es passt perfekt zur 5090 FE.

Daredevil
2025-01-21, 14:37:20
Es gibt übrigens Produkte mit 500w+ Verbrauch und leisem DHE, dann sieht der Rechner aber so aus:
https://cdsassets.apple.com/live/7WUAS350/images/mac-pro/2019-mac-pro-infinity-fabric-callout.jpg

Und die GPU exkl. Lüfter so:
https://s20.directupload.net/images/250121/fdxdff8k.png

https://s20.directupload.net/images/250121/ef4eygvq.png

No need für ein Kabel, weil der ganze Strom über das Mainboard bereit gestellt wird.
Apple hat im MacPro 2019 quasi einen "Luftkanal" für jede (Dual)GPU gebaut, die vorne frische Luft reinpumpt und hinten direkt wieder ausbläst. Die CPU bekommt von der Wärme nichts mit.

Drei dicke Frontlüfter für maximal 1.3kw Abwärme, erkauft mit ziemlich viel Metall. :D
https://images.macrumors.com/t/oTeoEjK2x07jRw8CEzookeFQWsQ=/1200x1200/smart/article-new/2019/12/mac-pro-xdr-kelsey-mcclellan-2-popular-mechanics.jpg

dargo
2025-01-21, 14:59:07
Kannste ja auch mit 300W betreiben ;)
Klar... man gibt über 2.000€ (@Titan eher >3.000€) für eine 1.000W Graka aus um sie dann auf 300W zu drücken und dadurch 2-3 Segmente weniger Performance zu bekommen. 3DC on the best. :ucrazy4:

ne, NVIDIA soll sich einfach an diese 600 Watt max. halten.

Nix da.... 600W sind was für Weicheier. :wink: Habe mir sagen lassen, dass bei manchen die Steckdose 3680W hergibt (X-D), erst damit fangen richtige Männerkarten an! Diese Grafikkarten dann am besten gleich mit nem Feuerlöscher ausliefern. :ulol:

y33H@
2025-01-21, 15:12:55
Klar... man gibt über 2.000€ (@Titan eher >3.000€) für eine 1.000W Graka aus um sie dann auf 300W zu drücken und dadurch 2-3 Segmente weniger Performance zu bekommen. 3DC on the best.Du weißt doch gar nicht wie die GPUs mit welchen Power Limits skaliert - die Geforce RTX 5090 etwa kann ihre 575W durchaus erreichen, aber eben längst nicht immer.

Relex
2025-01-21, 15:36:51
Na ja, gerade diese "best case" benchmarks von wegen 4080 vs 4090 +45% in 4K pathtracing oder ähnliches auf der 5090 wird halt idr. nur möglich, wenn die Karte auch saufen darf.

Und die meisten hier unterstellten der 4090 ja ein Auslastungsproblem aufgrund Bandbreitenlimitationen. Wenn dieser vermeintliche Flaschenhals jetzt gelöst ist, sollte die Karte auch entsprechend mehr Strom schlucken bzw. umgekehrt eben entsprechend viel Leistung verlieren, wenn man sie limitiert.

x-force
2025-01-21, 15:37:22
Klar... man gibt über 2.000€ (@Titan eher >3.000€) für eine 1.000W Graka aus um sie dann auf 300W zu drücken und dadurch 2-3 Segmente weniger Performance zu bekommen.

vom prinzip her ist das doch genau dein stil ;D

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818

MiamiNice
2025-01-21, 16:18:01
Nix da.... 600W sind was für Weicheier. :wink: Habe mir sagen lassen, dass bei manchen die Steckdose 3680W hergibt (X-D), erst damit fangen richtige Männerkarten an! Diese Grafikkarten dann am besten gleich mit nem Feuerlöscher ausliefern. :ulol:

Endlich kommen anständige Posts von Dir :wink::D

PHuV
2025-01-21, 16:27:28
Machst du dir es wenigstens gemütlich während den Benchmarkruns? Was gibts zum Futtern? Popcorn, Nachos...?
Wenn er das so machen würde, würde er fett sein und nicht so schön schlank wie jetzt. :tongue:
Hehe, schön wär’s. Automatisierte Langeweilertests habe ich keine, alles Handarbeit inkl. Live-BQ- und Plausibilitäts-Check. Natürliches Können statt Künstlicher Supplemente, oder so. :wink:
Ich bin enttäuscht, da sind wir im Business schon weiter. :cool:

Wenn ich jetzt Trump wäre, wäre eines meiner Dekrete gewesen, eine gescheite Standardschnittstelle für alle Spiele einzuführen, damit genau so Zeugs automatisiert werden kann. :cool: Und das Serien zu Ende gedreht werden müssen!

dargo
2025-01-21, 16:56:11
vom prinzip her ist das doch genau dein stil ;D

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585818
Ich hatte damals das Powerlimit um 70% reduziert und diese Karte kostete >2.000€? Steile These. ^^

Badesalz
2025-01-21, 17:30:31
Einfach eine 2x480er AIO mitliefern.Sich verstärkende Gerüchte:
Hat Flüssigmetall drauf. Da müssen wohl erst paar FAQs entstehen wie man den Kühler zerstörungsfrei abbekommt...

Nein! Er muss auch an jedem 5090-Balken ziehen, mit Muskelkraft! Die Balken werden ja nicht von selbst länger!Ich glaub nicht, daß er betrügt.

Sardaukar.nsn
2025-01-21, 17:37:09
FE vs. Gamerock

Lrg6tVOLkZM

Badesalz
2025-01-21, 17:44:01
:ucrazy2: Man baut jetzt den PC um eine Grafikkarte rum.

Was ein Joke :ulol:

ChaosTM
2025-01-21, 18:04:49
Sich verstärkende Gerüchte:
Hat Flüssigmetall drauf. Da müssen wohl erst paar FAQs entstehen wie man den Kühler zerstörungsfrei abbekommt...

Ich glaub nicht, daß er betrügt.


Flüssigmetall ist ziemlich bestätigt und ich denke nicht, dass Raff die Balken biegen oder verlängern wird. :)


Wie die FE punkto (Gehäuse/CPU) Temperaturen in einem Gehäuse mit riesigem Tower Kühler abschneiden wird, ist auf jeden Fall interessant.

Zossel
2025-01-21, 18:22:38
Apple hat im MacPro 2019 quasi einen "Luftkanal" für jede (Dual)GPU gebaut, die vorne frische Luft reinpumpt und hinten direkt wieder ausbläst.


Das Konzept Tunnelkühlkörper gibt es schon seit Anno Schnuck:

https://de.aliexpress.com/item/1005006924188980.html?spm=a2g0o.detail.1000023.9.244f7Z3Q7Z3QMg&gatewayAdapt=glo2deu

Zossel
2025-01-21, 18:26:55
:ucrazy2: Man baut jetzt den PC um eine Grafikkarte rum.

Was ein Joke :ulol:

Ich plädiere immer noch für externe GPUs oder ein Gehäusekonzept wo der PCIe-Slot auf der Rückseite vom Mainboard liegt und die GPU einen Tunnelkühlkörper hat so das die Abluft von der GPU nicht mehr durch das Gehäuse schwabbelt.

Sardaukar.nsn
2025-01-21, 18:30:28
:ucrazy2: Man baut jetzt den PC um eine Grafikkarte rum.

Was ein Joke :ulol:

War eigentlich in der engeren Auswahl, aber passt mit der 3er-Slot Blende hier nicht in mein Fractal Meshify 2.

The_Invisible
2025-01-21, 18:31:26
Hoffentlich versauen sie es nicht wieder beim lüfter oder zirpen... Bitte, bitte nicht...

Ex3cut3r
2025-01-21, 18:59:50
Wann gibt es Benchmarks? Muss schließlich AMDs Vernichtung mal wieder feiern. ;D

Badesalz
2025-01-21, 19:02:56
Wann gibt es Benchmarks? Muss schließlich AMDs Vernichtung mal wieder feiern. ;DIch hoffe mit einem 285k :ulol: Eine 5090 kommt ohne AMD nicht wirklich in Wallung :uup:

Ich plädiere immer noch für externe GPUs oder ein Gehäusekonzept wo der PCIe-Slot auf der Rückseite vom Mainboard liegt PCIe 7, wird auch für LWL spezifiziert/gemacht.
Da kommt man schon mit 0,6m mehrfach Glasfaser gut hin. Bis dahin kriegen sie auch 400G/Lane noch hin auf die 0,6m. Wären 6 "Leiter" an so einem Stecker. Gemach.

Das System steckt in einem Define 7 Mini und die 7090 steckt in einem Terra Mini ITX daneben. Da kommt man auch bestens mit nur einem 550W Netzteil aus. Und einem 850W im ITX. 80W für den PHY, Rest für die Graka.

Alles wird gut... Stellarator steht vor der Tür und so... Elon macht das schon.

basix
2025-01-21, 19:13:02
Externe GPU via Fiber angebunden? Hört sich eigentlich interessant an. Dann kann man das Ding im Winter an die kühle Luft hängen. Und da wir bald 1kW und 1 Kubikmeter fette GPUs haben, kann man das schon separat irgendwo verstauen ;D

Sardaukar.nsn
2025-01-21, 19:19:01
1-Slot für 5090 sehr kompakte 5080.

ENKORE
2025-01-21, 21:23:13
3) New - Rail Gating



Ich glaube, das ist DAS FUTURE von neuen Generation! Man schöpft quasi wesentlich effizienter aus der max. Power als früher noch. Nicht alle Bereiche bekommen mit der Brechstange höhere Spannungen was zu höherem Takt führen soll sondern NACH DER AUSLASTUNG der Bereiche.

Quelle: https://old.reddit.com/r/hardware/comments/1i4m66w/analyzing_blackwells_power_efficiency_tech/

Verstehe ich an einigen Stellen nicht so ganz, schon Pascal hatte mehr als vier verschiedene Speichertakte ("Tri-speed memory control") und P-States haben die Karten doch auch schon ewig ~9 ("multi-tiered strategy of Active -> Low power 1 -> Low Power 2 -> Deep sleep. The GPU can now enter progressively deeper states even when being used, which saves power without compromising performance.") von denen mindestens 4 benutzt werden (P8, P5, P2, P0 sehe ich oft).

ianm
2025-01-21, 22:42:20
Wahrscheinlich ein wenig spät, hatten wir das schon?

lA8DphutMsY

EDIT - After publish, Nvidia asked for me to remove the "Exclusive" and "Benchmark" aspect of the title, which I have obliged by
FAQ - This was filmed at CES in an Nvidia briefing, embargoed until today. Full Review embargo is separate.
Does it use reflex 2? No, that's going to be a future release for esports titles only. FG does require Reflex 1 though
Does Frame Gen look better than last gen - hard to say without a side by side, but for normal gameplay it works great, but will struggle with fast non linear movement and hair