PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24

MiamiNice
2025-01-06, 13:30:49
Die Infos sollten morgen früh da sein, oder irre ich mich? Vorstellung heute nacht um 3:30, wenn ich richtig gelesen habe.

Der_Korken
2025-01-06, 13:58:23
@Der_Korken: 1300€ für ca. 4090 Leistung + neue Features wäre kein Schnäppchen, aber ginge auch noch klar.

Ich sehe immer noch nicht, wie die 5080 an die 4090 rankommen soll. Da müsste Blackwell schon massiv mehr Leistung pro SM haben, aber das geben die bisher spekulierten Die-Größen in 4nm nicht her. Mit 96SMs hätte ich das gesehen, aber mit 84 nicht. Zudem 16 vs 24GB.

Die Infos sollten morgen früh da sein, oder irre ich mich? Vorstellung heute nacht um 3:30, wenn ich richtig gelesen habe.

Das ist der Plan.

Cubitus
2025-01-06, 14:03:08
Ich sehe immer noch nicht, wie die 5080 an die 4090 rankommen soll. Da müsste Blackwell schon massiv mehr Leistung pro SM haben, aber das geben die bisher spekulierten Die-Größen in 4nm nicht her. Mit 96SMs hätte ich das gesehen, aber mit 84 nicht. Zudem 16 vs 24GB.



Das ist der Plan.

DLSS4 wirds schon regeln ;)
Die 4080 wird aber nicht die 4K Karte sein, wenn man auf den "besten" Qualitätssettings spielen möchte.. Dafür brauchts dann die 5090.
lassen wir uns überraschen..

monstar-x
2025-01-06, 14:06:38
Ich sehe immer noch nicht, wie die 5080 an die 4090 rankommen soll. Da müsste Blackwell schon massiv mehr Leistung pro SM haben, aber das geben die bisher spekulierten Die-Größen in 4nm nicht her. Mit 96SMs hätte ich das gesehen, aber mit 84 nicht. Zudem 16 vs 24GB.



Das ist der Plan.

Im Raster kommt die 5080 nicht an die 4090 ran, davon bin ich Überzeugt.

In Raytracing und DLSS AI gedönse wird die 5080 meiner Meinung nach mit der 4090 je nach Spiel +-5% mitziehen.

y33H@
2025-01-06, 14:10:56
Die RTX 4090 ist "nur" rund 30% vor der RTX 4080, das lässt sich mit besseren SMs und etwas zusätzlichem Takt durchaus erreichen.

Kriegsgeier
2025-01-06, 14:13:17
Jensen will wie es aussieht den Bereich früherer 4090 mit einer 5080 zu besetzen. Somit wird die 5080 durchgehend überall besser performen als die 4090. 24Gb hin oder her.

Sardaukar.nsn
2025-01-06, 14:14:52
Jensen wird heute Nacht sicher eine Folie haben wo die 5080 vor der 4090 liegt. Witcher 4 mit RT oder so. Das Marketing wird da schon seinen Job gemacht haben.

basix
2025-01-06, 14:17:55
Jensen wird heute Nacht sicher eine Folie haben wo die 5080 vor der 4090 liegt. Witcher 4 mit RT oder so. Das Marketing wird da schon seinen Job gemacht haben.

Quadruple FG for the win, Blackwell FP4 and SuperFlow Accelerator only ;)

Relex
2025-01-06, 14:22:20
Die RTX 4090 ist "nur" rund 30% vor der RTX 4080, das lässt sich mit besseren SMs und etwas zusätzlichem Takt durchaus erreichen.

Wie schon gesagt, mit verbesserter FG Skalierung wird es super einfach für die 5080 sein, die 4090 zu überbieten.

In 4K liegt der FPS Gewinn mit FG auf einer 4080 oder 4090 aktuell bei schlechter Skalierung irgendwo zwischen 50 und 60%. Massig Spielraum, den man mit Blackwell durch Architekturoptimierungen Richtung 100% pushen kann ohne tatsächlich mehr Grafikleistung bieten zu müssen.

Dass auf den NV Folien also eine 5080 vor einer 4090 liegen wird, darauf würd ich dir Brief und Siegel geben.

basix
2025-01-06, 14:26:16
Weiss man eigentlich, woran das bei FG liegt? Ist es wirklich der Flow-Accelerator Durchsatz oder doch noch was anderes?

The_Invisible
2025-01-06, 14:28:07
Die RTX 4090 ist "nur" rund 30% vor der RTX 4080, das lässt sich mit besseren SMs und etwas zusätzlichem Takt durchaus erreichen.

Naja worst case aber eher auf die 50% zu, das ist dann nicht ohne

Relex
2025-01-06, 14:31:13
Weiss man eigentlich, woran das bei FG liegt? Ist es wirklich der Flow-Accelerator Durchsatz oder doch noch was anderes?

Vermute mal Flow Accelerator, da die Skalierung von RTX4070 bis 4090 zumindest soweit ich das bisher sehen konnte ziemlich identisch ist, obwohl die Rechenkosten (die ja fix sind) auf einer schwächeren GPU eigentlich mehr Frametime kosten sollten.

Wenn es nur an der Rohleistung liegt, sollte sich die 4090 hier ja irgendwie deutlich absetzen können. Tut sie aber nicht.
Und wenn es irgend einen Kniff gäbe (Taktschraube, Powerbudget, Settings) die der FG performance irgendwie auf die Sprünge helfen würden, dann wäre das sicher längst bekannt.


Ich denke hauptproblem ist auch, dass es so wenige Infos zur Technik gibt. Also wie FG genau auf der GPU arbeitet. Was macht der Flow Accelerator, was die Tensor cores, was die CUDA Cores? Man weiß praktisch nichts darüber.
Ich hatte auch schon die Überlegung, dass die schlechte Skalierung evtl. auch an Reflex liegen könnte, um die Latenzen unten zu halten. In Indiana Jones hatte ich mal irgendwie nen Bug wo ich mit aktivem Treiber Ultra Low latency Modus durch das Hinzuschalten von FG exakt 100% mehr FPS erreicht habe. Allerdings sorgt das Treiber ULLM bereits für deutlich verringerte Frameraten in diesem Spiel, Reflex ist in dem Spiel jedoch (scheinbar) ohne Funktion...
Daher keine Ahnung, was man daraus schlussfolgern kann. Ich fands nur sehr interessant.

y33H@
2025-01-06, 14:36:44
Ich nutze kein FG aufgrund der höheren Latenz, mich interessiert rein die "native" Performance (mit DLAA/TAA etc) und sporadisch Q-DLSS.

Lawmachine79
2025-01-06, 14:56:00
Einmal werden wir noch wach, dann ist endlich Blackwell-tach ;D. Mal sehen ob ich morgen auch noch lache...

monstar-x
2025-01-06, 15:04:25
Einmal werden wir noch wach, dann ist endlich Blackwell-tach ;D. Mal sehen ob ich morgen auch noch lache...

Nur einer wird lachen und das ist Lederjacke :-)

Lawmachine79
2025-01-06, 15:22:47
Nur einer wird lachen und das ist Lederjacke :-)
Ich habe zwei Lederjacken.

Palpatin
2025-01-06, 15:39:55
Ich sehe immer noch nicht, wie die 5080 an die 4090 rankommen soll. Da müsste Blackwell schon massiv mehr Leistung pro SM haben, aber das geben die bisher spekulierten Die-Größen in 4nm nicht her. Mit 96SMs hätte ich das gesehen, aber mit 84 nicht. Zudem 16 vs 24GB.

Der Takt ist ja bisher auch noch nicht bekannt. Bei den bekannten 360 Watt müsst die 5080 nur etwa 25% an Effizienz dazu gewinnen um mit der 4090 gleich zu ziehen. Halte ich nicht für unmöglich.

HPVD
2025-01-06, 16:09:03
wahrscheinlich gibts support für Displayport 2.1b für 3m lange Kabel nach DP80LL (low loss) Standard mit vollen 4x UHBR = 80Gbps
(vorher ging 80Gbps wohl nur bis 1m Länge)

https://videocardz.com/press-release/vesa-introduces-displayport-2-1b-and-dp80ll-low-loss-specifications-in-collaboration-with-nvidia

Der_Korken
2025-01-06, 16:18:19
wahrscheinlich gibts support für Displayport 2.1b für 3m lange Kabel nach DP80LL (low loss) Standard mit vollen 4x UHBR = 80Gbps
(vorher ging 80Gbps wohl nur bis 1m Länge)

https://videocardz.com/press-release/vesa-introduces-displayport-2-1b-and-dp80ll-low-loss-specifications-in-collaboration-with-nvidia

Läuft das dann auch rückwirkend bei bereits existierenden DP2.1-Monitoren oder müssen die explizit 2.1b können?

HPVD
2025-01-06, 16:33:04
Läuft das dann auch rückwirkend bei bereits existierenden DP2.1-Monitoren oder müssen die explizit 2.1b können?

wird man wohl morgen von der VESA erfahren..

Lawmachine79
2025-01-06, 17:05:38
Der Takt ist ja bisher auch noch nicht bekannt. Bei den bekannten 360 Watt müsst die 5080 nur etwa 25% an Effizienz dazu gewinnen um mit der 4090 gleich zu ziehen. Halte ich nicht für unmöglich.
Die Vermutung, dass NVidia bei der Vorstellung 4090 DLSS 3 vs. 5080 DLSS 4 vergleichen wird, halte ich nicht nur für nicht fernliegend, sondern für äußerst wahrscheinlich ;). Und dann werden die 25% Effizienzgewinn easy. Für ausgeschlossen halte ich wiederum, dass es DLSS 4 für Ada Lovelace geben wird. War bei Ampere und Ada Lovelace ja auch so, ich glaube mit DLSS 3.5? Kann mich noch erinnern, dass da "Frame Generation" das Unterscheidungsfeature war. Bin gespannt, was sie diesmal in petto haben. Da ist ja gar nix bekannt.

monstar-x
2025-01-06, 17:09:09
Die Vermutung, dass NVidia bei der Vorstellung 4090 DLSS 3 vs. 5080 DLSS 4 vergleichen wird, halte ich aber nicht nur für nicht fernliegend, sondern für äußerst wahrscheinlich ;). Für ausgeschlossen halte ich wiederum, dass es DLSS 4 für Ada Lovelace geben wird.

Denke ich auch
4090 = DLSS 3.x Quality
vs
5080 = DLSS 4.x Adaptive AI

Mit minimalen Detail Verlust gegenüber DLSS 3.5 aber 30% schneller.

Kann die 4090 natürlich nicht bekommen da DLSS 4 50er Exklusive ist, weil ... naja Jensen wird schon einen Grund finden :-)

Sardaukar.nsn
2025-01-06, 17:52:07
HDMI 2.2 wurde auch vorgestellt, aber noch keine Idee ob das schon mit Blackwell kommt: https://videocardz.com/newz/hdmi-2-2-to-offer-up-to-96gbps-bandwidth

https://i.imgur.com/yzkOuVp.jpeg

Lehdro
2025-01-06, 17:54:00
Was bringt es den Standard vorzustellen, wenn der von nichts unterstützt wird?

00-Schneider
2025-01-06, 17:57:58
Was bringt es den Standard vorzustellen, wenn der von nichts unterstützt wird?


Gute Frage. Ggf. um die Partner(GPUs, AV-Receiver, TVs) zu informieren?

Troyan
2025-01-06, 18:07:31
Bisschen Marketing-Zeug von MSI zu neuen Notebooks:
https://videocardz.com/press-release/msi-announces-geforce-rtx-50-gaming-laptops-confirms-geforce-rtx-5090-24gb-gddr7-and-dlss4

Die 24GB der 5090 mobile sind bestätigt.

nordic_pegasus
2025-01-06, 18:08:36
HDMI 2.2 wurde auch vorgestellt, aber noch keine Idee ob das schon mit Blackwell kommt

sehr wahrscheinlich nicht. Erst kommt die HDMI/DP Spezifikation, Grafikkarten dauern in der Regel eine Generation bis zur Implementierung.

Ich denke Blackwell wird HDMI 2.1 + DisplayPort 2.1b unterstützen.

Lawmachine79
2025-01-06, 18:09:49
Bisschen Marketing-Zeug von MSI zu neuen Notebooks:
https://videocardz.com/press-release/msi-announces-geforce-rtx-50-gaming-laptops-confirms-geforce-rtx-5090-24gb-gddr7-and-dlss4

Die 24GB der 5090 mobile sind bestätigt.
Toll, da wird die Highendgraka von NVidia mit den LowEnd-CPUs von Intel kombiniert. HighEnd-CPUs von AMD gibt es nur mit 5080. Aber immerhin 370 HX mit 5090. Nette Beobachtung: 16" und 5090 gibt es nur mit AMD.

robbitop
2025-01-06, 18:09:57
Was bringt es den Standard vorzustellen, wenn der von nichts unterstützt wird?

Henne-ei. Ist doch immer so (ob displayport oder hdmi und auch bei wlan Standards oder Bluetooth Standards), dass erst der Standard vorgestellt wird und dann die Geräte kommen. Also nichts neues.

Sardaukar.nsn
2025-01-06, 18:11:21
Bisschen Marketing-Zeug von MSI zu neuen Notebooks:
https://videocardz.com/press-release/msi-announces-geforce-rtx-50-gaming-laptops-confirms-geforce-rtx-5090-24gb-gddr7-and-dlss4

Die 24GB der 5090 mobile sind bestätigt.

Das war zu erwarten:

https://i.imgur.com/vbRm0gL.png

Lehdro
2025-01-06, 20:14:51
Henne-ei. Ist doch immer so (ob displayport oder hdmi und auch bei wlan Standards oder Bluetooth Standards), dass erst der Standard vorgestellt wird und dann die Geräte kommen. Also nichts neues.
Bei DP 1.4 ging das damals extrem schnell, da lagen afaik nur wenige Wochen zwischen Schnittstellenvorstellung und verfügbaren GPUs. Hoffentlich wird es nicht so wie bei DP 2.0...

Troyan
2025-01-06, 21:16:51
In sechs Stunden gehts los. Muss sagen, irgendwie cool, dass man eigentlich kaum was weiß.

Kriegsgeier
2025-01-06, 21:44:10
Hoffentlich wird man nicht schon in 6 Stunden vorbestellen können.
Ich schlafe da :-)

Radeonfreak
2025-01-06, 21:45:29
Erst mal schauen. Und mit ner 4090 unterm Hintern, ja mei, da wartet man halt nen Monat länger. Auch nicht tragisch.

BlacKi
2025-01-06, 22:05:47
Hoffentlich wird man nicht schon in 6 Stunden vorbestellen können.
Ich schlafe da :-)man muss eben prioritäten setzen:biggrin:

Sunrise
2025-01-07, 01:13:08
$1999
$1399

oder was?

Sardaukar.nsn
2025-01-07, 03:43:48
Auf gehts! Stream ist mit 4k/60 schon mal top.

[MK2]Mythos
2025-01-07, 03:49:00
Oh oh, die neue Lederjacke sieht teuer aus...

=Floi=
2025-01-07, 03:53:07
Aber auch nicht gut.

Spring
2025-01-07, 03:55:37
Es ist wie ich im RDNA4 Thread gepostet habe - AI rendering als Hybrid modell (DLSS 4)

Sardaukar.nsn
2025-01-07, 03:57:48
DLSS4 +3 Frames im Voraus

Linmoum
2025-01-07, 04:00:26
https://i.gyazo.com/f7eccf7d18605789561c1004e68075aa.jpg

https://i.gyazo.com/6916a690342e711049f341daec5b52ef.jpg

Sunrise
2025-01-07, 04:02:42
LUL

crux2005
2025-01-07, 04:03:19
https://i.gyazo.com/6916a690342e711049f341daec5b52ef.jpg

Und manche haben darüber gelacht als das Exe geschrieben hat. ;D

Habe 2000, 1200, 800 und 600 USD MSRP getippt.

Linmoum
2025-01-07, 04:03:24
https://i.gyazo.com/1ecb37e6ef9abb57fb9237a933268060.jpg

Well... not bad.

Kriegsgeier
2025-01-07, 04:03:31
Krass!!!
Ich glaube meinen Augen nicht!!!

[MK2]Mythos
2025-01-07, 04:04:17
2k für die 5090. War genau mein Tipp. ;D

Kriegsgeier
2025-01-07, 04:04:30
Ist noch krasser als damals RTX 3080 für 800$

Ich befürchte schlimmeres!

Sunrise
2025-01-07, 04:04:35
AMD just died

Hakim
2025-01-07, 04:04:40
jaja 5070 hat 4090 Performance, sicher :), in irgendeinem Szenario wo es DLSS4 nutzt und die 4090 es nicht kann. Alles andere würde mich überraschen

Kriegsgeier
2025-01-07, 04:05:13
Ich muss 2 kaufen :-)

horn 12
2025-01-07, 04:05:50
Dies ist echt Hammer, 5070 zu 549 Dollar aber wie erreicht ist die Frage
Vor Allem die 5080 zu 999 Dollar überrascht!

crux2005
2025-01-07, 04:05:59
jaja 5070 hat 4090 Performance, sicher :), in irgendeinem Szenario wo es DLSS4 nutzt und die 4090 es nicht kann. Alles andere würde mich überraschen

Ist doch klar das es mit RT + DLSS4 + die KI Texturen/Shader sein wird.

Kriegsgeier
2025-01-07, 04:07:06
AMDs Grafik Abteilung schweßgebadet! Oha!

AffenJack
2025-01-07, 04:07:10
https://i.gyazo.com/1ecb37e6ef9abb57fb9237a933268060.jpg

Well... not bad.

Die Preise deuten darauf hin, daß man pro shader nicht wirklich schneller geworden ist. Rasterisierung würde ich gar nix erwarten. Es wird alles nur schneller sein, wenn die Features genutzt werden.

Kriegsgeier
2025-01-07, 04:08:10
Lisa zurückgetreten

Sunrise
2025-01-07, 04:10:11
“Supply chain signals indicate Blackwell sales will likely far exceed Nvidia's $NVDA GPU sales from 2023 and 2024 combined.”

Sardaukar.nsn
2025-01-07, 04:10:43
Raster Leistung (Shader TFLOPS) x1,5 Ada.

PCB der 5090 auch heftig klein. Das wird ne feine, kompakte Wakü-Karte geben.

https://i.imgur.com/Nn9stZx.jpeg

Kriegsgeier
2025-01-07, 04:11:42
5090 ist wesentlich schmaler als 4090! Krass!

crux2005
2025-01-07, 04:20:42
Leistungsdaten von NV:
https://www.nvidia.com/en-eu/geforce/graphics-cards/50-series/

https://i.imgur.com/TGEk7CN.png

5090 vs 4090

Kriegsgeier
2025-01-07, 04:21:03
Auf NVIDIA kann ich noch nichts bestellen :-(

PS: kommt die 5090 vor der 5080?
Oder kommen alle Karten nun zusammen raus?!

Linmoum
2025-01-07, 04:22:48
TUatm-rY6wo

crux2005
2025-01-07, 04:27:13
https://youtu.be/TUatm-rY6wo

DLSS3 FG = 1 feature frame, DLSS4 FG bis zu 3 feature frames in der Techdemo laut Jensen. Am ende sind es evtl. nur 2 ggü. 1. Trotzdem wäre das eine verdoppelung.

Kriegsgeier
2025-01-07, 04:27:16
Ohje. Aber das Ergebnis ist das was zählt:
Wenn FPS gute Qualität haben!

Aber die Größe! 5090 ist fast schon zu klein!

Hakim
2025-01-07, 04:27:58
Ich würde noch auf richtige Tests warten, die 5070 müßte ja vermutlich 2 von 3 Frames faken damit man auf ein ähnliches Niveau kommen kann, wie es dabei noch mit dem Spikes bei der Latenz und damit Spielgefühl gegenüber der 4090 aussieht ist eine andere Frage bei "selben" Fps. Aber ja Preise überraschen schon, hätte mit mehr gerechnet, das wird sehr schwer für die 9070 gegen die 5070 und 5070Ti. Aber mal warten was AMD sagt und die Tests zeigen.

Linmoum
2025-01-07, 04:30:18
https://i.gyazo.com/bc210f6c3c6d79dbb1248a1f4e9d91ab.png
https://www.nvidia.com/de-de/geforce/graphics-cards/compare/

Von der Nvidia-HP mit diversen weiteren technischen Daten (5090/5080/5070Ti/5070).

Sardaukar.nsn
2025-01-07, 04:30:41
Reflex 2

Ye9-s65InLI

Deutsche UVP

https://i.imgur.com/Fsju4rM.jpeg

Langlay
2025-01-07, 04:31:43
Leistungsdaten von NV:
https://www.nvidia.com/en-eu/geforce/graphics-cards/50-series/

https://i.imgur.com/TGEk7CN.png

5090 vs 4090

https://i.imgur.com/9pCcYb5.png

Ist der wichtige Part. Sind wieder gute Kirschen.

ausser in Plaque 4xFG bei der 5090 vs. 2xFG bei der 4090.


Also ich bin nicht wirklich beeindruckt.

Hakim
2025-01-07, 04:33:27
hier kann man die Technischen Daten mit Ada Modellen Vergleichen:

https://www.nvidia.com/de-de/geforce/graphics-cards/50-series/#specs

crux2005
2025-01-07, 04:36:12
https://i.imgur.com/9pCcYb5.png

Ist der wichtige Part. Sind wieder gute Kirschen.

ausser in Plaque 4xFG bei der 5090 vs. 2xFG bei der 4090.


Also ich bin nicht wirklich beeindruckt.

Guten Morgen... Plague Tale: Requiem würde ich immerhin ~+50% Leistung erwarten laut Balken.

Sardaukar.nsn
2025-01-07, 04:36:52
hier kann man die Technischen Daten mit Ada Modellen Vergleichen:

https://www.nvidia.com/de-de/geforce/graphics-cards/50-series/#specs

5090 nur 2,41 Boost und 2,01 Ghz Basis Takt? :rolleyes:

[MK2]Mythos
2025-01-07, 04:38:16
Am Ende ist Blackwell bei reinem Rasterizing langsamer als Ada.

Kriegsgeier
2025-01-07, 04:42:59
Blödsinn hoch 10 - sorry

Kriegsgeier
2025-01-07, 04:44:10
Ohje: ich muss wirklich 2 kaufen ;)

GeForce RTX 5090
Ab 2.329 €


GEIL!!!!

PS: GeForce RTX 5080
Ab 1.169 €

4090 ist nun gute 500€ günstiger geworden auf dem Gebrauchsmarkt! Meine 3090 ist wahrscheinlich keine 500€ mehr wert :)

horn 12
2025-01-07, 04:44:19
Dem ganzen für den Preis traue ich absolut nicht,
Alles nur mit DLSS4 generiert und beim Raster kaum Fortschritt, fast Stillstand!

Linmoum
2025-01-07, 04:47:09
Dem ganzen für den Preis traue ich absolut nicht,
Alles nur mit DLSS4 generiert und beim Raster kaum Fortschritt, fast Stillstand!Die Raster-Performance hängt von der CPU ab. Mit allem unter einem 7800X3D braucht man eine 5090 wahrscheinlich gar nicht erst sinnvoll nutzen, weil permanent die CPU limitiert. Das wird man selbst mit einem 9800X3D häufig sehen. Das ist auch ein Grund, warum Nvidia diesen Weg mit Frame Gen geht, weil die CPUs den (klassischen) Fortschritt aktuell stark ausbremsen.

dildo4u
2025-01-07, 04:47:58
Jup Far Cry ist massiv CPU limitiert.

Nightspider
2025-01-07, 04:49:29
Die ganzen FG Benchmarks sind eh erstmal für die Tonne.
Mal echte Benchmarks abwarten.



PCB der 5090 auch heftig klein. Das wird ne feine, kompakte Wakü-Karte geben.
https://i.imgur.com/Nn9stZx.jpeg

https://i.imgur.com/Nn9stZx.jpeg

SLI mit Wakü auf einer Karte wann? ^^

reaperrr
2025-01-07, 04:49:38
hier kann man die Technischen Daten mit Ada Modellen Vergleichen:

https://www.nvidia.com/de-de/geforce/graphics-cards/50-series/#specs
Wenn man bei AI TOPS von Verdopplung je SM ausgeht und die normalen FP32-ALUs gleichbleiben, hat die 5070 nur schlappe 6% mehr TFLOPs als die 4070.

Da GB205 in der 5070 2 SM mehr haben soll als ne 4070, sind das dann wohl bestenfalls 2% mehr Takt, oder sie haben letztlich doch noch mehr SM deaktiviert :freak:

Also die IPC je SM muss da schon deutlich steigen, um a) ne 4070Ti zu erreichen und b) 250W TDP zu rechtfertigen.

Wenn die IPC je SM nicht um mindestens 10-15% steigt, sind das einzig Positive die Preise. Und dass die relativ aggressiv ausfallen, spricht eher gegen nennenswerte Spiele-Leistungs-Steigerungen außerhalb von RT und KI-beschleunigten Dingen.

Kriegsgeier
2025-01-07, 04:51:09
egal, ich nehme zwei 5090 ;)

Linmoum
2025-01-07, 04:53:42
5090 und 5080 launchen beide am 30.01.

Sardaukar.nsn
2025-01-07, 04:56:03
Mythos;13678410']Am Ende ist Blackwell bei reinem Rasterizing langsamer als Ada.

+50% (unten Links im Bild) Aber eher mit Brechstange. Mich wundert auch der eher geringe Takt der 5090.

https://cdn.videocardz.com/1/2025/01/NVIDIA-CEO-Jensen-Huang-Keynote-at-CES-2025-42-46-screenshot.jpg


Custom Karten:

https://cdn.videocardz.com/1/2025/01/geforce-rtx-5070-ti-partner-cards.jpg

Kriegsgeier
2025-01-07, 04:59:05
warum? Je größer der Chip desto geringer der Takt - es war schon immer so.
In einer Chip-Familie

dildo4u
2025-01-07, 05:01:19
Immer noch 4nm warum sollte der Takt steigen?

crux2005
2025-01-07, 05:04:40
qQn3bsPNTyI

Kriegsgeier
2025-01-07, 05:04:49
sehr schönes Kühlerdesign des RTX 5090 Fe - hofentlich ist es auch ein leiser Design

Hakim
2025-01-07, 05:06:40
Ist der PCB der 5090 in der Mitte von der Kühlkonstruktion verbaut? Wären dann die Frontanschlüsse via Kabel verbunden?

Kriegsgeier
2025-01-07, 05:07:21
gute Frage! Sehr gut um die Ecke gedacht!
PS: Jensen Hung sieht sehr durchtrainiert aus! Er achtet auf die Gesundheit. Sehr gut! Quasi Null fett im Gesicht!

=Floi=
2025-01-07, 05:18:10
Er achtet auf die Gesundheit. Sehr gut!


;D

575watt mit zwei lüftern und zwei slots. KLAR ist die leise!

Kriegsgeier
2025-01-07, 05:24:00
genau das ist hier die Frage!

Aber auch der Kühler trägt dazu bei, dass die Karte keine 4000$ kostet

4090Fe Kühler ist sehr teuer in der Produktion!

crux2005
2025-01-07, 05:24:30
Ist der PCB der 5090 in der Mitte von der Kühlkonstruktion verbaut? Wären dann die Frontanschlüsse via Kabel verbunden?

Ja, ich denke im silbernen Rahmen, wahrscheinlich durch Kabel mit dem PCB verbunden:
SRiV0RgHWI0

PHuV
2025-01-07, 05:25:24
Ist hier eigentlich jemanden bewusst , was Nvidia für ein Brett für die gesamte AI Forschung und Entwicklung vorgelegt hat? :eek::eek::eek:

Sorry, vergesst mal die lummeligen neuen GPUs (die sehr eindrucksvoll sind, keine Frage), das geschaffene Ökosystem dahinter ist doch viel eindrucksvoller, und was damit künftig möglich sein wird.

Kriegsgeier
2025-01-07, 05:25:50
dann wird der Umbau auf Custom WaKü-Blöcke sehr aufwendig, ne?

Kriegsgeier
2025-01-07, 05:27:44
Ist hier eigentlich jemanden bewusst , was Nvidia für ein Brett für die gesamte AI Forschung und Entwicklung vorgelegt hat? :eek::eek::eek:

Sorry, vergesst mal die lummeligen neuen GPUs (die sehr eindrucksvoll sind, keine Frage), das geschaffene Ökosystem dahinter ist doch viel eindrucksvoller, und was damit künftig möglich sein wird.

Das stimmt - ich bin immer noch baff!

Diese kleine Entwicklungsbox - BLACKWELL+GRACE mit internen 128GB an GDDR5 Speicher ist das Krasse Gerät. Jeder kann nun sowas kaufen und seine KI-Modelle machen, verbessern.

Vor Allem diese Roboter, die man nicht mehr Zeile für Zeile programmieren muss. Genial. Bald gib es günstige Roboter zu kaufen, die viele arbeiten autonom erledigen können - dank AI!

crux2005
2025-01-07, 05:29:11
Gegenüber der FE sind die custom Karten richtige Monster (3.5 Slot). Aber die FE gefällt mir dieses mal mehr.

37yHH3YR7jM

nZsVtnWVOck

Das ASUS Marketing ;D

Mythos;13678410']Am Ende ist Blackwell bei reinem Rasterizing langsamer als Ada.

Nein, wir sind hier nicht im AMD Faden. :uhippie:

dildo4u
2025-01-07, 05:29:44
5PHBXY0FI5o

Sardaukar.nsn
2025-01-07, 05:46:20
dann wird der Umbau auf Custom WaKü-Blöcke sehr aufwendig, ne?

Inno3D Frostbite wieder mit Alphacool Wasserblock.

https://i.imgur.com/5IbExYO.jpeg

ASUS Astral mit viel OC Takt

https://i.imgur.com/vzCNCvS.png

OCmylife
2025-01-07, 05:53:24
Reflex 2

https://youtu.be/Ye9-s65InLI

Deutsche UVP

https://i.imgur.com/Fsju4rM.jpeg

Sehr, sehr fein! Ich wusste, dass die Spekulationen hier beim Preis massivst überzogen waren, hatte nach der Vorstellung von AMD gestern aber dennoch ein schlechtes Gefühl, dass die Preise deutlich steigen.

BlacKi
2025-01-07, 05:55:21
Leistungsdaten von NV:
https://www.nvidia.com/en-eu/geforce/graphics-cards/50-series/

https://i.imgur.com/TGEk7CN.png

5090 vs 4090farcry wird natürlich cpu limitiert sein, deshalb ist die 5080 auch etwas performanter gegen ihren vorgänger als es die 5090 ist. aber...


a plague tale muss da nicht zwingend im cpu limit sein. und das wären gerade mal 35-40% schneller.


alle anderen benchmarks kann man wegen der vergleichbarkeit, wegen dlss3 vs 4 nicht vergleichen.


aber wenn man die gains 5090/4090 und 5080/4080 vergleicht, so scheint trotz des großen unterschiedes in der hw, der performance gap nicht wirklich größer geworden zu sein. die 5090 scheint immernoch nur 35% schneller zu sein als die 5080.


aber der 5080 preis überrascht hier dafür wirklich. denn man scheint hier wirklich nah an die 4090 ranzukommen, für knapp über 1100€. der preis ist echt gut. auch die kleineren karten sehen attraktiv aus. amd wird hier probleme haben, da selbst die 5070 schneller sein wird als die 9070xt.



war mir klar, das nv benches bringt die nicht eindeutig die performance zeigen. aber wegen dem geringen performance uplift wundern mich die preise nicht wirklich.

dildo4u
2025-01-07, 06:00:04
5070 scheint langsamer als 4070S für den selben Preis.
Zumindest in der EU.

Da ist Tonnen Platz für Karten unter 650€.

rentex
2025-01-07, 06:04:35
Ist hier eigentlich jemanden bewusst , was Nvidia für ein Brett für die gesamte AI Forschung und Entwicklung vorgelegt hat? :eek::eek::eek:

Sorry, vergesst mal die lummeligen neuen GPUs (die sehr eindrucksvoll sind, keine Frage), das geschaffene Ökosystem dahinter ist doch viel eindrucksvoller, und was damit künftig möglich sein wird.

Ich erwarte neue ATHs an der Börse.

Die gezeigten Diagramme fußen alle auf DLSS4. Also wird die reine Rasterleistung deutlich drunter liegen.

crux2005
2025-01-07, 06:08:01
5070 scheint langsamer als 4070S für den selben Preis.

Wie kommst du darauf? Wenn ich die Bandbreite und den Far Cry 6 Balken als Anhaltspunkte benutze sollte die 5070 etwas schneller als 4070S in Raster sein. Wird sicher auch von den Spielen abhängen. In modernen UE5 Spielen aber denke ich schneller.

ecodriver
2025-01-07, 06:08:10
Ca. 30% schneller als 4900 bei fast 100% mehr Shader, wow das ist echt schlecht.
Bin auf Performance/watt test gespannt und was diese Generation ohne DLSS bringt.
Nur ein Spiel ohne deutet auf nichts gutes hin.

dildo4u
2025-01-07, 06:11:20
Wie kommst du darauf?

Rechenleistung

https://i.ibb.co/719nKJd/Screenshot-2025-01-07-06-12-51-762-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/QK5PMF3)

https://www.resetera.com/threads/nvidia-announces-the-rtx-50-series-january-availability-5090-has-dual-slot-founders-edition-92b-transistors-1-8-tb-s-memory-bandwidth-dlss4.1075542/page-9#post-133933482

crux2005
2025-01-07, 06:13:53
Rechenleistung
https://i.ibb.co/Jrmf7VC/Screenshot-2025-01-07-06-10-11-196-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/5sGN8m2)

https://www.resetera.com/threads/nvidia-announces-the-rtx-50-series-january-availability-5090-has-dual-slot-founders-edition-92b-transistors-1-8-tb-s-memory-bandwidth-dlss4.1075542/page-9#post-133933482

Nur die reinen TFLOPs zwischen Gen zu vergleichen ist meistens nicht Aussagekräftig.
Wieso soll die IPC nur "sub 5%" steigen?

In älteren Spielen war die 4070 Super AFAIR nicht Bandbreitenlimitiert, aber neue UE5 Spiele mit Nanite+Lumen brauchen deutlich mehr Bandbreite. Deswegen denke ich ist Bandbreite ein besserer Indikator.

Altehardware
2025-01-07, 06:15:49
Man kann die tf nicht vergleichen da die gpu von sich aus in 1080p rendert in 2160p darum die aussage von rtx5070 so schnell wie die rtx4090

Und nein da ist kein dlss an das ist nativ da das upscaling von den rop kommt.
Die Tests werden sehr anspruchsvoll

crux2005
2025-01-07, 06:16:40
Man kann die tf nicht vergleichen da die gpu von sich aus in 1080p rendert in 2160p darum die aussage von rtx5070 so schnell wie die rtx4090

Und nein da ist kein dlss an das ist nativ da das upscaling von den rop kommt.
Die Tests werden sehr anspruchsvoll

Was ein Schwachsinn. Natürlich ist DLSS Optional.

wolik
2025-01-07, 06:23:26
5070=4090 funny joke.. Aber Jacke (und Gürtel) sind Geil.

dildo4u
2025-01-07, 06:23:39
Noch mal 650€ für 5070 ist Absurd nichts hier ist Interessant genau das was absehbar ist wenn es noch so viele Super Modelle auf Lager gibt.

mironicus
2025-01-07, 06:24:50
Interessanterweise hat NVidia Balken gezeigt für Generative AI mit Flux, was ich selbst verwende. Da soll die RTX 5090 doppelt so schnell sein wie eine RTX 4090.

Der Balken bei bei dem Spiel Far Cry 6 ist dagegen enttäuschend, das sieht eher aus wie 20-30% Plus.

Kriegsgeier
2025-01-07, 06:25:36
Jetzt will ich aber eine INNO3D mit HeatKiller Wasserkühler haben ;)
Bitte für 2500€ und ich nehme es!

PS: lese ich gerade, der Kühler ist ja von Alphacool und nicht Watercool, daher eher kein Heatkiller :(

Langlay
2025-01-07, 06:25:51
5070=4090 funny joke.. Aber Jacke (und Gürtel) sind Geil.


Viel besser wenn die 5070 4090 Perfomance für 650€ liefert, wieso kostet dann 2x 4090 Performance 2330€ ?


Interessanterweise hat NVidia Balken gezeigt für Generative AI mit Flux, was ich selbst verwende. Da soll die RTX 5090 doppelt so schnell sein wie eine RTX 4090.



Das ist wohl ein FP8 (4090) vs FP4 (5090) Vergleich, ich würde vermuten die 5090 schafft den doppelten Durchsatz in FP4 wie in FP8 und die 4090 nicht.

Tomahawk
2025-01-07, 06:32:39
Immerhin PCIe 5.0
https://www.nvidia.com/en-eu/geforce/graphics-cards/compare/

crux2005
2025-01-07, 06:35:08
zpDxo2m6Sko
https://www.nvidia.com/en-eu/geforce/news/reflex-2-even-lower-latency-gameplay-with-frame-warp/

Ist das noch fair?

r3ptil3
2025-01-07, 06:36:14
Bin jetzt eher negativ überrascht.

Das ganze FG und DLSS interessiert mich eigentlich gar nicht.

Ich sehe 20-30% Uplift gegenüber der Vorgängergeneration.

dildo4u
2025-01-07, 06:39:51
Bin jetzt eher negativ überrascht.

Das ganze FG und DLSS interessiert mich eigentlich gar nicht.

Ich sehe 20-30% Uplift gegenüber der Vorgängergeneration.
Immer noch 4nm der Boost Takt ist immer noch weit unter 3ghz.

wolik
2025-01-07, 06:41:54
Immerhin PCIe 5.0
https://www.nvidia.com/en-eu/geforce/graphics-cards/compare/

HDMI X? DP X? Ich gehe davon aus, dass die neuesten Versionen darauf sind.

Kriegsgeier
2025-01-07, 06:43:27
Bin jetzt eher negativ überrascht.

Das ganze FG und DLSS interessiert mich eigentlich gar nicht.

Ich sehe 20-30% Uplift gegenüber der Vorgängergeneration.

und genau das ist falsch!

Wenn man WIRKLICH kein Unterschied merkt sind diese 3x FPS out of the box ein Segen!
Denn, was unterscheidet ein generativen PIXEL von einem, der aus dem Game-Code kommt? Richtig - nichts!

wolik
2025-01-07, 06:47:20
und genau das ist falsch!

Wenn man WIRKLICH kein Unterschied merkt sind diese 3x FPS out of the box ein Segen!
Denn, was unterscheidet ein generativen PIXEL von einem, der aus dem Game-Code kommt? Richtig - nichts!

Man kann aber DLAA vergleichen? Oder? Sind dort auch 200%+? Ich denke, nicht.

crux2005
2025-01-07, 06:48:13
Man kann aber DLAA vergleichen? Oder? Sind dort auch 200%+? Ich denke, nicht.

MFG sollte mit DLAA kombinierbar sein.

Ex3cut3r
2025-01-07, 06:49:13
Und manche haben darüber gelacht als das Exe geschrieben hat. ;D

Habe 2000, 1200, 800 und 600 USD MSRP getippt.

Guten Morgen, ich grüße dich,

ja, gestern wurde ich ja noch dafür von irgendwelche AMD Leuten augelacht. Ja ist mir klar, dass man unabhängige Benches abwarten sollte. Trotzdem sollte eine 5070 Ti an eine 4090 in der Regel rankommen...

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13678471#post13678471

Kriegsgeier
2025-01-07, 06:50:56
DLSS 4 mit Multi Frame Generation (MFG)

Mit Freundlichen Grüßen :)

Sumpfmolch
2025-01-07, 06:52:26
Schon sehr praktisch dann Jahr für Jahr die gleiche Hardware zu verkaufen und jeweils nur noch per Software eine bessere Frame Generation exklusiv freizuschalten... ;D

Kriegsgeier
2025-01-07, 06:53:21
Ex3cut3r, das mit den Preisen ist WIRKLICH eine Dekaden Überraschung für mich geworden.
Wirklich leckere Preise. Hoffentlich erleben wir kein RTX 3080 für 799$ Moment - hoffentlich!

Kriegsgeier
2025-01-07, 06:55:29
Schon sehr praktisch dann Jahr für Jahr die gleiche Hardware zu verkaufen und jeweils nur noch per Software eine bessere Frame Generation exklusiv freizuschalten... ;D

Leite, bitte die Kirche im Dorf lassen:

die 21.760 Shader einer RTX 5090 sind nicht einfach so da für Möbel. Diese Arbeitstierchen sind SEHR wahrscheinlich stärker als die von RTX 4090!

OgrEGT
2025-01-07, 06:55:59
Die Frage ist doch wie die zusätzlichen Frames generiert werden... Interpolation führt zu mehr fps führt aber zu mehr input lag... Extrapolation hat seine Grenze wie schnell der Spieler seine Entscheidung zur Bewegung macht... wenn diese von der Extrapolation abweicht wird es zu Artefakten kommen da Realität=Nutzereingabe von der Extrapolation=Vorhersage abweicht...

Kriegsgeier
2025-01-07, 06:59:20
ja, das wird es natürlich zu prüfen sein. Von den unabhängigen Testern.

Kriegsgeier
2025-01-07, 07:01:43
"Nicht zu sehen ist auf der Darstellung, wie Nvidia die Anschlüsse ausführt. Hierfür muss eine weitere Platine zum Einsatz kommen, die am Ende auch Gerüchte um ein modulares PCB der RTX 5000 bestätigt."

Wer sich für eine Fonders Edition entscheidet muss wohl auf die Umbau einer Custom WaKü verzichten - leider!

The_Invisible
2025-01-07, 07:03:06
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90851&stc=1&d=1736229616

Verbesserungen für DLSS für alten GPUs, interessant auch das die Performance & Memoryverbrauch für DLSS-FG verbessert wurde

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90852&stc=1&d=1736229777

OgrEGT
2025-01-07, 07:03:34
Warum?
Man bräuchte wahrscheinlich zusätzlich zum Kühler einen Rahmen welcher das Anschluss PCB fixiert...

Sumpfmolch
2025-01-07, 07:05:50
Leite, bitte die Kirche im Dorf lassen:

die 21.760 Shader einer RTX 5090 sind nicht einfach so da für Möbel. Diese Arbeitstierchen sind SEHR wahrscheinlich stärker als die von RTX 4090!

Von der einzigen Karte mit merklich mehr Rechenleistung habe ich auch nicht gesprochen :tongue:

Entwertet natürlich auch schon die RTX 50er Serie, wenn die RTX 60 dann wieder exklusiv ihr 2x Multi Frame Generation mit DLSS 5 bekommen. :biggrin:

deepmac
2025-01-07, 07:06:22
Ist hier eigentlich jemanden bewusst , was Nvidia für ein Brett für die gesamte AI Forschung und Entwicklung vorgelegt hat? :eek::eek::eek:

Sorry, vergesst mal die lummeligen neuen GPUs (die sehr eindrucksvoll sind, keine Frage), das geschaffene Ökosystem dahinter ist doch viel eindrucksvoller, und was damit künftig möglich sein wird.
das mit den einzelnen ai Robots?

sah interessant aus live in der Nachtschicht geguckt, leider ist das technische Verständnis und englisch nicht ausreichend bei mir, das Kion Bsp. fand ich interessant, Frage ist nur lohnt sich die Investitionen im allgemeinen für den Mittelstand?

Kriegsgeier
2025-01-07, 07:13:46
"Wir haben neuronale Netzwerke in programmierbare Shader integriert, um neuronale Shader zu erstellen. RTX Neural Shader werden das nächste Jahrzehnt der Grafikinnovationen vorantreiben. Mit ihnen können Texturen um das bis zu 7-Fache komprimiert werden, wodurch enorme Mengen an Grafikspeicher gespart werden. Und sie können verwendet werden, um Texturen in Kinoqualität und noch fortschrittlichere Lichteffekte in Spielen zu erstellen."

Auch sehr interessant!

MSABK
2025-01-07, 07:17:53
Sind die 23xx€ ohne Mwst?

dildo4u
2025-01-07, 07:20:36
Sind die 23xx€ ohne Mwst?

Ist es nicht gesetzt das man mit MWST angeben muss?

DrFreaK666
2025-01-07, 07:23:53
Guten Morgen, ich grüße dich,

ja, gestern wurde ich ja noch dafür von irgendwelche AMD Leuten augelacht. Ja ist mir klar, dass man unabhängige Benches abwarten sollte. Trotzdem sollte eine 5070 Ti an eine 4090 in der Regel rankommen...

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13678471#post13678471

Ich habe nur die Slides bei CB gesehen, aber wo siehst du da, dass die 5070 Ti an eine 4090 rankommt?

Altehardware
2025-01-07, 07:24:14
Ist mit, €sind immer mit mwst

Kriegsgeier
2025-01-07, 07:24:26
auf deutschen NVIDIA Seite stehen die Preise schon MIT Steuer! Also quasi Endpreis für den Kunden!
Deswegen bin ich nun am A....

Muss jetzt 2 Kaufen und ca. 5000€ ausgeben

Heimscheißer
2025-01-07, 07:25:21
Puhhh...bin erleichtert und will vorerst nicht upgraden (4080S).

Warum nicht? Weil es so aussieht als ob der größte und einzige (?!) Sprung die FG Sache ist (Benchmarks abwarten OHNE FG).

FG ist für mich absolut ekelhaft vom Spielgefühl her da ich da sehr empfindlich bin. Egal was ich über die letzten Jahre gespielt habe und damit rumprobiert habe, es fühlt sich einfach schrecklich für mich an...Latenz, Microstutter etc ...gruselig.(wie damals Sli, das war NIE wirklich smooth) Ich spiel lieber mit Dlss auf Perf statt Quality wenn es nötig ist bevor ich FG dazu schalte. Besonders als Controllerspieler statt Maus merkt man FG extrem in Sachen "Smoothness" und ist für mich persönlich nicht zu ertragen. Und bei mehreren Frames stell ich mir das richtig eklig vor🤷🏼*♂️😂....

Wenn also im normalen Bereich ohne das FG Geschwurbel keine deutlichen Gewinne auftreten von der 4080S zur 5080 dann werd ich wohl aussetzen denk ich😎👍

DrFreaK666
2025-01-07, 07:27:39
auf deutschen NVIDIA Seite stehen die Preise schon MIT Steuer! Also quasi Endpreis für den Kunden!
Deswegen bin ich nun am A....

Muss jetzt 2 Kaufen und ca. 5000€ ausgeben

Weil AMD gestern nichts gezeigt hat.
Diese Logik ist köstlich :lol:

Kriegsgeier
2025-01-07, 07:28:10
mit der 40ger Generation ist das Aussitzen auch relativ simple: die Leistung reicht da sowieso aus.
Bei der 30ger Generation wird schon jetzt kritischer für mich: mein neuer OLED Monitor möchte 240 FPS haben nach Möglichkeit ;)

Troyan
2025-01-07, 07:30:52
Schon sehr praktisch dann Jahr für Jahr die gleiche Hardware zu verkaufen und jeweils nur noch per Software eine bessere Frame Generation exklusiv freizuschalten... ;D

Naja, ohne neue Nodes, geht es bei der Hardware doch nicht vorwärts. Ist alles Software heute. Irgendwann wird man Software genauso wie Hardware wertschätzen.

Muss sagen, die Preise sind top. Die 5090 ist einfach absurd. Das beste, was man bauen kann. Keine Kompromisse. Bin dabei. :eek:

dildo4u
2025-01-07, 07:31:51
Nutzt Apple nicht 3 nm für ihre absurden Max Dual Chips?

The_Invisible
2025-01-07, 07:31:57
Geile ist ja das es die ganzen DLSS Verbesserungen auch für RTX40 und darunter gibt, was ich von Multi-FG halten soll weiß ich net.

Aber ja, Nvidia ist ja so böse und gibt die Features nur an RTX50 weiter. Und die Preisträumer hier mit 5080 >2000 und 5090 > 3000 verstecken sich wohl auch :D

Heimscheißer
2025-01-07, 07:32:38
mit der 40ger Generation ist das Aussitzen auch relativ simple: die Leistung reicht da sowieso aus.
Bei der 30ger Generation wird schon jetzt kritischer für mich: mein neuer OLED Monitor möchte 240 FPS haben nach Möglichkeit ;)

Das stimmt wohl👍 aber mal abwarten was die "Rohleistung" angeht in kommenden Tests. Wenn es da ordentliche Gewinne gäbe würde ich sicher auch überlegen. Aber nur wegen FG absolut null Interesse für mich persönlich, da ich es ja eh nicht nutze

madzapp
2025-01-07, 07:33:19
Und bei mehreren Frames stell ich mir das richtig eklig vor🤷🏼*♂️😂....



Das wird ja dazwischen geklatscht. Sollte um einiges flüssiger rüberkommem solange man bei den Base-FPS bleibt.

Heimscheißer
2025-01-07, 07:35:26
Das wird ja dazwischen geklatscht. Sollte um einiges flüssiger rüberkommem solange man bei den Base-FPS bleibt.

Das warte ich mal ab😎 wie gesagt, die aktuelle, normale FG, find ich grausam und unspielbar für mich persönlich

Da fühlen sich zb echte 60 fps für mich besser an als 120 "generierte"

Kriegsgeier
2025-01-07, 07:36:03
und die 32GB nicht vergessen: diese RAM-Größe wird noch in 3 Jahren State of the Art sein!
Sehr viel RAM!

Troyan
2025-01-07, 07:38:20
Nutzt Apple nicht 3 nm für ihre absurden Max Dual Chips?

Ja und man bekommt was? 20% mehr Effizienz oder so? nVidia ist doch am Limit der Architektur.

Alles was jetzt kommt, ist Software. Habe Indiana Jones mit meiner 4090 im nativen 4K mit DLAA und Pathtracing gezockt. Das war selbst bei nativ 30 FPS mit FG voll spielbar.

Manche sollten endlich die Realität akzeptieren. Dann macht Gaming auch wieder unglaublich viel mehr Spaß.

Kriegsgeier
2025-01-07, 07:40:53
Und etwas ältere Tittel wird die 5090 dann mit 150 Watt wegstecken können - weil GPU gar nicht voll ausgelastet werden kann.
So ist es bei meiner 3090 bei Battlefield 4 --> bei 100FPS ca. 35% Auslastung!

Kriegsgeier
2025-01-07, 07:51:15
Genau! Keiner sagt du sollst die Framegeneration einschalten.
Die normale DLSS wird wahrscheinlich auf der 50 Generation wesentlich flotter laufen als noch auf 40ger Generation! Und das ist das wichtigste.
Plötzlich kann man auf QUALITÄT spielen statt auf AUSGEGLICHEN z.B.

Neurosphere
2025-01-07, 07:54:58
Ich bin mir ziemlich sicher das nächstes Jahr ein Refresh von GB203 in 2nm mit 5080+15% und 24GB Speicher kommt und damit auch die große Lücke zur 5090 schließt. Ich glaube nicht das bei GB202 noch was passiert außer AMD macht aus irgendwelchen Gründen Druck mit UDNA oder was anderem.

The_Invisible
2025-01-07, 07:58:30
Mit was will AMD Druck machen, mit einer vollständigen GPU Präsentation? :freak:

Heimscheißer
2025-01-07, 07:59:23
Genau! Keiner sagt du sollst die Framegeneration einschalten.
Die normale DLSS wird wahrscheinlich auf der 50 Generation wesentlich flotter laufen als noch auf 40ger Generation! Und das ist das wichtigste.
Plötzlich kann man auf QUALITÄT spielen statt auf AUSGEGLICHEN z.B.

Das wäre ja dann super und würde mich zum Kauf bewegen👍

DrFreaK666
2025-01-07, 08:01:37
Die Preise sind stellenweise überraschend niedrig.
Kein Wunder gab es von AMD gestern keine Preise

Sumpfmolch
2025-01-07, 08:06:00
Geile ist ja das es die ganzen DLSS Verbesserungen auch für RTX40 und darunter gibt, was ich von Multi-FG halten soll weiß ich net.


Na viel sollen wir davon halten, wenn die einzigen gezeigten Benchmarks DLSS FG vs. DLSS 4x Multi FG sind. :tongue:

Mal gespannt auf die Vergleiche bei der Rohleistung zwischen 4080 und 5080.

The_Invisible
2025-01-07, 08:11:19
Naja Multi-Fg alleine wäre für mich kein Grund umzusteigen. Kommt das neural Texture & co eigentlich für alle rtx GPUs?

Troyan
2025-01-07, 08:12:19
Für mich mit LCD schon. Overdrive ist nunmal ziemlich lästig. Und Multiframe-FG hilft massiv in die Range zu kommen, wo VRR und Overdrive vernünftig funktionieren.

Kriegsgeier
2025-01-07, 08:15:19
man muss ja auch nicht vergessen: Backwell ist ein reiner AI-Chip! Spiele laufen halt noch drauf aber auch nicht mehr!

][immy
2025-01-07, 08:20:36
und die 32GB nicht vergessen: diese RAM-Größe wird noch in 3 Jahren State of the Art sein!
Sehr viel RAM!

Das wohl, trifft aber nur auf die 5090er zu. Alles andere krankt eher am Speicher, trotz immer noch höher Preise.

Die benches von Nvidia sind aber erst mal für die Tonne. Ist ein Äpfel-birnen Vergleich (mylti-framegen). Da sollte man dringend unabhängige Tests abwarten.

E39Driver
2025-01-07, 08:22:59
Finde die 5080 preislich am besten platziert. Technisch eine halbierte 5090 zu weniger als der Hälfte des Preises. Durch den höheren Takt und das im Verhältnis zum Chip höhere Powerbudget wird man aber in der Leistung wohl eher bei 60 - 70% zu einer 5090 herauskommen.

Die 4080 war das genaue Gegenteil davon und preislich im Vergleich zur 4090 völlig unattraktiv.

mocad_tom
2025-01-07, 08:27:09
Was hat das Project Digit für ein Speicherinterface?

128bit / 256bit / 512bit?

Iregendwie steht und fällt die Power dieser Box mit dem Speicherinterface

dildo4u
2025-01-07, 08:28:17
Die Anpassung war immer klar da die 4080 gefloptt ist.
Du kannst selbst bis Heute die 4080S kaufen zumindest in der EU 1000€ sind ein Hartes Limit für Viele.

Sumpfmolch
2025-01-07, 08:31:33
Finde die 5080 preislich am besten platziert. Technisch eine halbierte 5090 zu weniger als der Hälfte des Preises. Durch den höheren Takt und das im Verhältnis zum Chip höhere Powerbudget wird man aber in der Leistung wohl eher bei 60 - 70% zu einer 5090 herauskommen.


Da ist doch die 5070 Ti deutlich sinnvoller gegenüber der 5080? Kleinste brauchbare Karte mit 16GB Speicher. Bei einem Performanceunterschied von gerade 20% gibt es nichts, was auf der 5080 noch brauchbar laufen wird, wenn es auf der 5070 Ti nicht mehr läuft.

konkretor
2025-01-07, 08:38:49
Was hat das Project Digit für ein Speicherinterface?

128bit / 256bit / 512bit?

Iregendwie steht und fällt die Power dieser Box mit dem Speicherinterface

Gute Frage

https://nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips


128 GB RAM für so eine kleine Kiste und für 3000 € ist schon eine Ansage. Wenn du überlegst das eine 6000 Ada mit 48 GB über 6000 € kostet.
Kommt ja immer die Märchensteuer dazu.

Mit Exo https://github.com/exo-explore/exo würde sich dann ein mini cluster bauen lassen und würde unterumständen die Mac M4 verdrängen.

Daredevil
2025-01-07, 08:39:36
2x in flux.dev GenAI im Vergleich zur absurd schnellen 4090 ist vollkommen Wahnsinn. :D
Jetzt ist aber auch recht klar, wieso AMD sich gestern versteckt hat, ohne fertigem FSR4 hat man hier einfach nichts entgegen zu setzen. The World is AI, Nvidia is AI.

Was ich aber noch nicht abnehme, das man mit Dual Slot so viel Leistung abgeführt bekommt.
Hier will man dieses mal wahrscheinlich wirklich eine dicke 3Slot Customer Lösung. Dafür passen aber easy 2-3 Karten in ein System. :ulove:

Kriegsgeier
2025-01-07, 08:40:58
Der Shaderaufbau selbst von Blackwell ist stark verändert worden: da wird wohl der Hund begraben liegen.



Daher auch die Gewichtung auf AI-Unterstützung.

Prinzenrolle
2025-01-07, 08:41:48
Was ich aber noch nicht abnehme, das man mit Dual Slot so viel Leistung abgeführt bekommt.

Das geht, weil voll auf die andere Seite durchgeblasen wird.
Kein Design vorher konnte das, insofern wird man mit der besseren Wärmeverteilung auf dem großen Die und dem Luftdurchsatz die Karte kühler bekommen. Die AI Leistung ist ein absolutes Schmankerl.

Kriegsgeier
2025-01-07, 08:42:28
2x in flux.dev GenAI im Vergleich zur absurd schnellen 4090 ist vollkommen Wahnsinn. :D
Jetzt ist aber auch recht klar, wieso AMD sich gestern versteckt hat, ohne fertigem FSR4 Hatz man hier einfach nicht entgegen zu setzen. The World is AI, Nvidia is AI.

Was ich aber noch nicht abnehme, das man mit Dual Slot so viel Leistung abgeführt bekommt.
Hier will man dieses mal wahrscheinlich wirklich eine dicke 3Slot Customer Lösung. Dafür passen aber easy 2-3 Karten in ein System. :ulove:

Stimmt, der Luftstrom ist ja einfach von unten nach oben - perfekt für 4 Grafikkarten als Sandwich ;)

MiamiNice
2025-01-07, 08:43:25
Irgendwie ziemlich trauig, wenn der Featureumfang noch immer in dem Film Cyberpunk gezeigt werden muss ;D Habe ich was verpasst oder gab es nur irrelevante Zahlen? Irgendwelche DLSS 4 Zahlen, gegen DLSS3 Zahlen. Wie viel Power bitte ohne das AI Zeug? Ist denen nicht bewusst, dass es die Masse gar nicht interessiert? Warum Tops auf der Übersicht?
Eigentlich gab es nur den Preis und paar Bilder der Karte. Die Werte von Interesse gibt es nicht zu sehen. Poor Lederjacke.

Kriegsgeier
2025-01-07, 08:45:05
genau das sprichst du doch an: BACKWELL ist ein reinrassiger AI-Chip der auch nebenbei Spiele kann!

Daredevil
2025-01-07, 08:50:56
Nvidia fokussiert sich seit Turing auf genau das, was AMD und Intel eben nicht in der Qualität anbieten können.
RAW Performance kann jeder mit genug Kosten und Strom, AI kann eben nur Nvidia.
Man stelle sich mal wirklich vor, Lisa Su hätte gestern auf der AMD Bühne gestanden mit genau der gleichen Präsi und dann kommt Captain AI und zeigt diesen ganzen heißen scheiß, das wäre eine Demütigung gewesen.

https://s20.directupload.net/images/250107/t9nd9o92.jpg

konkretor
2025-01-07, 08:51:50
Was hat das Project Digit für ein Speicherinterface?

128bit / 256bit / 512bit?

Iregendwie steht und fällt die Power dieser Box mit dem Speicherinterface


Hab was gefunden


https://x.com/unusual_whales/status/1876484153774158308/photo/1

LPDDR5X
Up to 68.26GB/s+ per package

https://acemagic.com/blogs/accessories-peripherals/ddr5-vs-lpddr5x-ram

dildo4u
2025-01-07, 08:53:19
Die GPU brauchen immer noch Ryzen und Intel hat nix zu melden, du machst deutlich mehr Marge mit einem winzigen 9800x3D für 500€ als 2k für eine 5090

Korvaun
2025-01-07, 09:00:11
Na hoffentlich wird Kriegsgeier ordentlich entlohnt von nVidia, ist ja so als ob man nen persönlichen nV-PR-Menschen für 3D-Center abgestellt hat ;)

Ach ja, und DLSS&Co hat NIX mit AI zu tun, das ist reiner Buzzword-Bullshit...

dargo
2025-01-07, 09:15:00
Nvidia fokussiert sich seit Turing auf genau das, was AMD und Intel eben nicht in der Qualität anbieten können.
RAW Performance kann jeder mit genug Kosten und Strom, AI kann eben nur Nvidia.

Pure Comedy wieder im 3DC bei bis zu 575W für eine Gaming Grafikkarte. :lol:

Daredevil
2025-01-07, 09:24:07
Pure Comedy wieder im 3DC bei bis zu 575W für eine Gaming Grafikkarte. :lol:
AI Gaming verbraucht bedeutend weniger Power als die reine Berechnung von Pixeln, dort ist Nvidia nun einmal mit Abstand führend.

Und selbst wenn dies nicht genutzt wird, ist Nvidias Hardware im Vergleich jetzt schon führend, auch die "Stromschleuder 4090".
You are ignoring the facts. :)

Stromkosten / Stunde @ CB ( https://www.computerbase.de/artikel/grafikkarten/grafikkarten-preis-leistungs-verhaeltnis.87048/#abschnitt_was_kostet_eine_stunde_spielen_mit_diesen_grafikkarten )

WQHD:
https://s20.directupload.net/images/250107/xeymbygx.png

UHD:
https://s20.directupload.net/images/250107/yy8knogw.png



Das geht, weil voll auf die andere Seite durchgeblasen wird.
Kein Design vorher konnte das, insofern wird man mit der besseren Wärmeverteilung auf dem großen Die und dem Luftdurchsatz die Karte kühler bekommen. Die AI Leistung ist ein absolutes Schmankerl.
Die 3090 hat auch schon an beiden Seiten "durchgeblasen", nur das ein Teil bei der 3090 hinten raus gepustet worden ist. Allerdings war der "Hotspot" dort nicht so mittig, das stimmt, ich bin trotzdem noch sehr skeptisch. :D

Ex3cut3r
2025-01-07, 09:27:11
Pure Comedy wieder im 3DC bei bis zu 575W für eine Gaming Grafikkarte. :lol:
Mensch Dargo. 500W ist das neue 250-300W. Mit den Gedanken wirst du dich anfreunden müssen. Mit 200W ist man nur bei den Einsteiger Karten dabei. Nicht mehr höhere Mittelklasse. Wie es früher mal der Fall war.

dildo4u
2025-01-07, 09:29:34
Die 500 Watt zieht das Ding eh nicht warum hat man sonst den Kühler reduziert?

dargo
2025-01-07, 09:31:13
Mensch Dargo. 500W ist das neue 250-300W.
In deiner Welt vielleicht, nicht in meiner.

Die 500 Watt zieht das Ding eh nicht warum hat man sonst den Kühler reduziert?
Du kannst mir gerne mal erklären warum ein IHV ein Powerlimit von 575W einer Grafikkarte spendiert wenn diese 575W in keinem Szenario erreicht werden. Logik?

dildo4u
2025-01-07, 09:39:18
OK Korrektur ich habe kein Plan wie sich AI workloads oder Blender verhalten.

dargo
2025-01-07, 09:46:16
AI Gaming verbraucht bedeutend weniger Power als die reine Berechnung von Pixeln, dort ist Nvidia nun einmal mit Abstand führend.

Und selbst wenn dies nicht genutzt wird, ist Nvidias Hardware im Vergleich jetzt schon führend, auch die "Stromschleuder 4090".
You are ignoring the facts. :)

Stromkosten / Stunde @ CB ( https://www.computerbase.de/artikel/grafikkarten/grafikkarten-preis-leistungs-verhaeltnis.87048/#abschnitt_was_kostet_eine_stunde_spielen_mit_diesen_grafikkarten )

WQHD:
https://s20.directupload.net/images/250107/xeymbygx.png

UHD:
https://s20.directupload.net/images/250107/yy8knogw.png

Und die nächste Comedy gleich hinterher. ;D Man kauft sich also einen ~2.000€ Boliden, betreibt diesen dann mit Teillast um sich den hohen Durst schön zu saufen. :crazy:

SamLombardo
2025-01-07, 09:48:48
Ich bin mir noch nicht sicher, noch finale Benchmarks abwarten. Aber ich denke das wird seit vielen Jahren die erste Generation, die ich (als 4090 Nutzer) überspringe. Und das sage ich als jemand, der mit Frame Generation überhaupt kein Problem hat. Die Frage ist nur, wofür die ganze Leistung. In absehbarer Zeit, wahrscheinlich bis zur nächsten Konsolengeneration, fällt mir nichts ein, das eine 4090 überfordern könnte. Ja, die Pathtracing Spiele inklusive FG mit 130 statt 75 fps zu spielen, schön und gut. Für mich nicht wirklich relevant, mir reichen 75 fps (anscheinend der übliche Wert für Full Raytracing mit ner 4090 in 4k mit FG, Cyberpunk, Indy, AW2, Wukong sind alle ungefähr da im worst case), Ich bin nicht der High Fps Spieler (hab sowieso ein Treiber Limit von 100 laufen). Somit scheint eine 5090 für meinen Anwendungsbereich derzeit uninteressant. Das war damals bei der 4090 im Vergleich zur 30er Generation völlig anders, da diese das neue optische Level Full RT überhaupt erst mit guten Frameraten ermöglicht hat.

Aber wie gesagt das ist derzeit mein Stand, mal finale Tests abwarten. Ich bin ja immer noch begeisterter VR Nutzer, daher mal sehen wie die reine Leistung der 5090 ohne KI Features im Vergleich zu 4090 abschneiden wird. Wenn es da 50+ Prozent geben sollte, überlege ich es mir doch noch.:)

Ex3cut3r
2025-01-07, 09:50:38
In deiner Welt vielleicht, nicht in meiner.

Vlt. sich mal anpassen? Oder du bleibst auf der Strecke. Wie gesagt mit 150W-200W gewinnst du keinen Blumentopf mehr, bei AMD ist es genau so, siehe RDNA3.

Daredevil
2025-01-07, 09:50:42
Und die nächste Comedy gleich hinterher. ;D Man kauft sich also einen ~2.000€ Boliden, betreibt diesen dann mit Teillast um sich den hohen Durst schön zu saufen. :crazy:

Du hast selber auf dem Schreibtisch einen WQHD@144hz Monitor stehen, insofern wäre dies nicht das erreichen von Teillast sondern das erreichen von solch niedrigen Zielen, die offenbar auch gang und gebe sind. Es gibt schlimmeres, als eine GPU, welche für die gesteckten Ziele unterfordert ist, nämlich eine dauerhafte Überforderung, denn dann wäre der Monitor rausgeschmissenes Geld gewesen. :)
Manche wollen vielleicht ja auch noch ein wenig Pixel schubsten und nicht nur mit der Auflösung eines Smartphones spielen, da braucht es dann sicherlich mehr Leistung und Leistungsaufnahme, wobei gutes KI Upsampling hier ja bedeutend hilft.

Und nach deiner Logik macht eine 5090 in GenAI doppelt so viel als ne 4090 bei "nur" 27% mehr Leistungsaufnahme. Das ist doch ein Schritt Richtung Energieeffizienz. ;)
Und in dem Fall schafft man nun das gleiche für die hälfte der Zeit ( Äquivalent FPS Limit ) oder erhöht seine Ansprüche ( Steigerung der Auflösung/Qualität ).

robbitop
2025-01-07, 09:50:47
Meine Vermutungen:

(1) das neue DLSS ist wieder nur für die neuen GPU und man lockt bereits Ada aus.
(2) man vergleicht dann Äpfel mit Bananen weil die neuen GPUs mehr Frames extrapolieren vs die alten und durch Zauberei ist die 5070 auf 4090 level. Nicht. X-D
(3) Die UVPs sind potenziell mit Vorsicht zu genießen. Die 4090 gab es praktisch nicht für 1500 USD zu kaufen. Die neuen UVPs könnten auch am Markt vorbei gehen. So sieht man gut aus, verkauft aber tatsächlich zu hohen Preisen.
(4) Wie vermutet haut man mit DLSS4(?) wieder ein großes Feature raus und man hat wieder 1 Generation Vorsprung. Mindestens.
Die Frame 4x funktionieren vermutlich so: 1x frame wird extrapoliert und 2 frames werden wie bei DLSS3FG interpoliert (aber doppelt so viele)

dildo4u
2025-01-07, 09:52:05
Du brauchst nicht vermuten nur das neue FG ist Exklusiv.

https://i.ibb.co/6gLn05Q/nvidia-dlss-4-feature-chart-breakdown.jpg (https://ibb.co/18jvGxc)

Pirx
2025-01-07, 09:54:13
Vlt. sich mal anpassen? Oder du bleibst auf der Strecke. Wie gesagt mit 150W-200W gewinnst du keinen Blumentopf mehr, bei AMD ist es genau so, siehe RDNA3.
oder man hinterfragt mal den Weg, auf dem man sich befindet (ich bin da schon lange raus und finde es einfach nur noch grotesk, wie sich die Hardware fürs PC-"Gaming" entwickelt, selbst ins Abseits entwickelt)

DrFreaK666
2025-01-07, 10:00:03
...500W ist das neue 250-300W...

... Wie gesagt mit 150W-200W gewinnst du keinen Blumentopf mehr...

Bei der nächsten Antwort sind es dann 50W-100W :D

dildo4u
2025-01-07, 10:02:57
Keiner steckt zurück eine 9700XT und 5070 sind 250 Watt Karten Minimum.

Kriegsgeier
2025-01-07, 10:04:16
Lecker WaKü:

https://www.gigabyte.com/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf

Nightspider
2025-01-07, 10:06:54
Ich finds gut das die Preise so niedrig sind alleine aus dem Grund weil Kriegsgeier keine abbekommen wird. ;D

VooDoo7mx
2025-01-07, 10:10:12
Pure Comedy wieder im 3DC bei bis zu 575W für eine Gaming Grafikkarte. :lol:
In deiner Welt vielleicht, nicht in meiner.


Du kannst mir gerne mal erklären warum ein IHV ein Powerlimit von 575W einer Grafikkarte spendiert wenn diese 575W in keinem Szenario erreicht werden. Logik?
Und die nächste Comedy gleich hinterher. ;D Man kauft sich also einen ~2.000€ Boliden, betreibt diesen dann mit Teillast um sich den hohen Durst schön zu saufen. :crazy:https://i.imgflip.com/9fvmfs.jpg

Vlt. sich mal anpassen? Oder du bleibst auf der Strecke. Wie gesagt mit 150W-200W gewinnst du keinen Blumentopf mehr, bei AMD ist es genau so, siehe RDNA3.

So ein Quatsch, mann kann auch z.B. mit einer 4070 Super mit weit unter ein einer exzellenten Quali in UHD spielen und im 150-200W Bereich bleiben.
Wird wojhl auch genauso mit einer 5070 sein.

Kriegsgeier
2025-01-07, 10:10:27
das ist ja das Blöde :)

Zu WaKü-Blöcken: warum verkauft ASUS nicht sowas wie GIGABYTE? Würde eher zu ASUS greifen wollen als zu GIGABYTE.
Direkt in den Kreislauf einbinden und gut ist, ohne den "stressigen" Umbau ;)

dargo
2025-01-07, 10:13:00
Du hast selber auf dem Schreibtisch einen WQHD@144hz Monitor stehen...
Nee... aktuell ist es noch ein 4k 144Hz, aber nicht mehr lange. :) Bald folgt ein 240Hz 4k 27" OLED.


(2) man vergleicht dann Äpfel mit Bananen weil die neuen GPUs mehr Frames extrapolieren vs die alten und durch Zauberei ist die 5070 auf 4090 level. Nicht. X-D

Naja... das macht doch Nvidia nicht erst seit Blackwell. Schau dir nur mal die tollen Balken mit Ada und DLSS 3 inkl. FG vs. Ampere an. ;)

Vlt. sich mal anpassen? Oder du bleibst auf der Strecke.
Dann bleibe ich lieber auf der Strecke. Ich habe mir ein persönliches Powerbudget gesetzt und dabei bleibt es. Egal mit welchen Superlativen die IHVs zukünftig bei ihren 600+W Heizöfen um sich schmeißen.

Ich finds gut das die Preise so niedrig sind alleine aus dem Grund weil Kriegsgeier keine abbekommen wird. ;D
;D (y)

Wobei... die Scalper werden es schon regeln. :D

PHuV
2025-01-07, 10:13:38
das mit den einzelnen ai Robots?
Ja, und nicht nur das. Weils hier nicht ganz reinpaßt, habe ich es mal hier weiter ausgeführt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13678685&posted=1#post13678685
Da sind in meinen Augen einige "Revolutionen" darunter.

Das hier Gaming GPUs rauspurzeln, ist eigentlich nur noch eine Nebennote von Nvidia und eine "Resteverwertung", die Musik spielt an sich nur noch in den AI Bereichen. Nvidia ist Cyberdyne und Omniverse / Cosmos ist Skynet. :eek::freak::frown:

Troyan
2025-01-07, 10:13:44
Wow. Und den betreibst du mit deiner RDNA2 Karte? Lmao. Kann mir nicht vorstellen, wie miserabel das Spieleerlebnis mit FSR 3 ist.

dildo4u
2025-01-07, 10:15:36
Nee... aktuell ist es noch ein 4k 144Hz, aber nicht mehr lange. :) Bald folgt ein 240Hz 4k 27" OLED.
Und dafür soll die 9700XT reichen?

Exxtreme
2025-01-07, 10:16:23
Ich finds gut das die Preise so niedrig sind

Also ich glaube, das nennt man Stockholm Syndrom. X-D Die Preise sind mindestens Faktor 3 zu hoch.

Matrix316
2025-01-07, 10:18:18
Ich freue mich auf die 5080. Da spar ich ein paar Watt im Vergleich zur 7900XTX. :ugly:

Btw. ich kann mich noch an den 4090 Release erinnern, da meinten welche noch 450W seit zu wenig, sie wollen die 600 haben. ;)

Troyan
2025-01-07, 10:20:32
Ja, weil es die Begrenzung auf 450W null Sinn gemacht hat. Bei den Preis soll man vernünftige Produkte bauen und fertig.

Immerhin hat nVidia jetzt gelernt.

ChaosTM
2025-01-07, 10:23:07
Nee... aktuell ist es noch ein 4k 144Hz, aber nicht mehr lange. :) Bald folgt ein 240Hz 4k 27" OLED.


Naja... das macht doch Nvidia nicht erst seit Blackwell. Schau dir nur mal die tollen Balken mit Ada und DLSS 3 inkl. FG vs. Ampere an. ;)


Hätte ich schon einen 4k 240hz Monitor, wäre die 5090er wohl ein (schmerzhafter) "No-Brainer", aber der kommt frühestens in 1-2 Jahren.
Für die 138hz tuts die 4090er noch ganz gut.

Mal schaun, was die anderen neuen Features so zu bieten haben, vor allem Reflex 2 und die klügere Texturkompression.

dargo
2025-01-07, 10:24:14
Und dafür soll die 9700XT reichen?
Klar... ~160ppi regelt. Da sieht balanced Upscaling hervorragend aus, selbst Performance (sofern nötig) ist bei guter Implementierung noch gut nutzbar. Zudem müssen die 240Hz nicht überall ausgefahren werden.

Kriegsgeier
2025-01-07, 10:30:17
Zu den Taktraten:

5090: 2.410/2.010
5080: 2.620/2.300

die 5090 könnte DER Übertaktungsmonster werden, oder?

dargo
2025-01-07, 10:31:29
Zu den Taktraten:

5090: 2.410/2.010
5080: 2.620/2.300

So niedrig? Kommt etwas überraschend. Oder hast du die dir ausgedacht?

Argo Zero
2025-01-07, 10:32:05
Puh, ich bin ehrlich gesagt überrascht.
Normalerweise könnte nVidia aus der Position heraus die Preise diktieren aber sie machen genau das Gegenteil: Sie wollen AMD mit den bestehenden Preise weiter vertreiben.
Das Problem dabei ist, sollte AMD noch irrelevanter werden zum Zocken, kann nVidia irgendwann die Preise nach oben "korrigieren".

PHuV
2025-01-07, 10:33:51
Können sie an sich nicht, wenn sie es sich nicht mit dem Kartellamt in den USA verscherzen wollen. Die haben schon andere mächtige Firmen zerschlagen (Standard Oil, AT&T, aktuell sind sie bei Google dran).

Troyan
2025-01-07, 10:35:19
Puh, ich bin ehrlich gesagt überrascht.
Normalerweise könnte nVidia aus der Position heraus die Preise diktieren aber sie machen genau das Gegenteil: Sie wollen AMD mit den bestehenden Preise weiter vertreiben.
Das Problem dabei ist, sollte AMD noch irrelevanter werden zum Zocken, kann nVidia irgendwann die Preise nach oben "korrigieren".

Preis-Elastizität. Auch muss nVidia ja GPUs verkaufen, um die Features im Markt zu verbreiten.

aufkrawall
2025-01-07, 10:37:07
Es spielt doch gar keine Rolle mehr, was AMD macht oder nicht macht. Die sind nur noch ein Alibi für Nvidia, und das schon länger. Da muss man sich keine Sorgen machen, dass sich noch irgendetwas zum Schlechteren wenden könnte. Duopol ist sowieso ein dysfunktionaler Markt.

Ist btw. auch nicht unsere Hausaufgabe, den Markt zu fixen. Ulkig-naive Vorstellung, sollte man sich als reifes Gemüt mal abgewöhnen.

MiamiNice
2025-01-07, 10:37:42
Zu den Taktraten:

5090: 2.410/2.010
5080: 2.620/2.300

die 5090 könnte DER Übertaktungsmonster werden, oder?

Zwischen den Karten liegen nur 190 Mhz. Imho für die 5080 Käufer, die Karte wirkt nicht nur halb so schnell. Wie hoch man die Dinger treiben kann, regelt dann das PT und die Chip Volatge (also Boardpartner und NV). Besonders letzteres limitiert gerne (und ist ohne weiteres von User nicht einstellbar), da man idr. schnell ein PT freies Bios, für die Karten, bekommt. Die eigentliche Frage ist, wie viel Glück man in der Lotterie hat. Da die Chip Voltage idr. limitiert, ist es nichts anderes als bei CPUs. Chip Lotterie.

Ravenhearth
2025-01-07, 10:40:11
Wenn man sich die Benches ohne FG anguckt, dann ist der Leistungssprung nicht gerade gewaltig, vor allem wenn man mit dem Super-Refresh vergleicht: Am meisten legt die 5090 zu, wenn man FC6 mal ignoriert, mit ca. 40% mehr Leistung. Die 5080 ist ca. 30-35% schneller als die 4080 und erreicht die 4090 annähernd. Die 5070 Ti legt 35-40% oben drauf, umgerechnet auf die 4070 Ti Super sind das noch 20-25%. Die 5070 bietet ähnlich viel, was ggü der 4070 Super noch 15-20% sind. Naja, besser als nichts :redface:

Troyan
2025-01-07, 10:40:49
Es spielt doch gar keine Rolle mehr, was AMD macht oder nicht macht. Die sind nur noch ein Alibi für Nvidia, und das schon länger. Da muss man sich keine Sorgen machen, dass sich noch irgendetwas zum Schlechteren wenden könnte. Duopol ist sowieso ein dysfunktionaler Markt.

Es ist kein Duopol. Nur die Einstiegskosten sind zu massiv, um überhaupt wirklich am Markt teilnehmen zu können.

robbitop
2025-01-07, 10:42:29
Puh, ich bin ehrlich gesagt überrascht.
Normalerweise könnte nVidia aus der Position heraus die Preise diktieren aber sie machen genau das Gegenteil: Sie wollen AMD mit den bestehenden Preise weiter vertreiben.
Das Problem dabei ist, sollte AMD noch irrelevanter werden zum Zocken, kann nVidia irgendwann die Preise nach oben "korrigieren".
Erstmal müssen die Preise ja so kommen. Das war ja schon oft genug so, dass die echten Preise dann viel höher sein. Die 4090 für 1500 USD gab es praktisch gar nicht.
Wenn die Preise auf der Straße ankommt und die Realworldperformance passt (bisher haben wir ja nur verzerrte Angaben zu hören bekommen. Das neue FG vs das alte (oder gar keins?))

Aber wenn es wirklich so kommt und die Realworld Performance (mit einem echten Vergleich) gut ist -> 5070 ti ist bestellt. :)

Es spielt doch gar keine Rolle mehr, was AMD macht oder nicht macht. Die sind nur noch ein Alibi für Nvidia, und das schon länger. Da muss man sich keine Sorgen machen, dass sich noch irgendetwas zum Schlechteren wenden könnte. Duopol ist sowieso ein dysfunktionaler Markt.

Ist btw. auch nicht unsere Hausaufgabe, den Markt zu fixen. Ulkig-naive Vorstellung, sollte man sich als reifes Gemüt mal abgewöhnen.
So ist es :up:
Und das ist leider schlecht für den Endkunden. Wäre Intel das Geld nicht ausgegangen hätte es ggf einen ernstzunehmenderen Konkurrenten geben können. Klar die ersten Iterationen sind nicht so toll (wie es immer mit Iterationen ist). Aber schon Alchemist hatte eine modernere und zukunftsgewandtere uArch als AMD mit RDNA3. Mit Celestial hätte man ggf aus AMDs Schatten treten können. (mit vollem Portfolio und nicht nur 1x SKU und davon ausgegangen dass es weitere starke Fortschritte gegeben hätte).
So dümpeln wir dann weiter in einem quasi Monopol. Hoffentlich nicht für immer.

dildo4u
2025-01-07, 10:49:54
So niedrig? Kommt etwas überraschend. Oder hast du die dir ausgedacht?
Die Nvidia Angaben sind immer Konservativ 4070 Super hat Spec 2.475Ghz Boost real 2.7GHz.

Spec

https://www.techpowerup.com/gpu-specs/geforce-rtx-4070-super.c4186

Games
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4070-super-test.86591/seite-2#abschnitt_so_taktet_die_geforce_rtx_4070_super_in_spielen

5070 hat z.b Spec 2.51GHz Läuft vermutlich 2.8GHz

Troyan
2025-01-07, 10:52:06
Sorry, aber die letzten sechs Jahre waren wohl mit die innovatisten am PC. Es ist nunmal nicht nVidias Schuld, dass der einzige Konkurrent durch die Konsolen keine Innovation zeigt und seine 10 Jahre alten Architekturen weiterverkaufen will.

RDNA 4 bringt im Jahr 2025 einfaches ml Upscaling als superduper neues Feature auf dem Markt. Man muss das nur vergleichen mit dem, was nVidia angekündigt hat und stellt fest, dass wir Innovation und Marktkonzentration von und auf eine Firma erleben.

dargo
2025-01-07, 10:53:15
Wenn man sich die Benches ohne FG anguckt, dann ist der Leistungssprung nicht gerade gewaltig, vor allem wenn man mit dem Super-Refresh vergleicht: Am meisten legt die 5090 zu, wenn man FC6 mal ignoriert, mit ca. 40% mehr Leistung. Die 5080 ist ca. 30-35% schneller als die 4080 und erreicht die 4090 annähernd. Die 5070 Ti legt 35-40% oben drauf, umgerechnet auf die 4070 Ti Super sind das noch 20-25%. Die 5070 bietet ähnlich viel, was ggü der 4070 Super noch 15-20% sind. Naja, besser als nichts :redface:
Das ist alles? WTF? Gingen die Transistoren bei Blackwell also überwiegend nur noch in Fake fps? :freak:

dildo4u
2025-01-07, 10:55:42
Das ist alles? WTF? Gingen die Transistoren bei Blackwell also überwiegend nur noch in Fake fps? :freak:
Nur die 5090 bekommt deutlich mehr Hardware beim Rest scheinen die 30% vom GDDR7 zu kommen.
5080 hat z.b immer noch rund 10k Cuda Cores.

https://i.ibb.co/CmBktbp/Screenshot-2025-01-07-105651.png (https://ibb.co/XjXh47f)

Exxtreme
2025-01-07, 10:56:28
Das ist alles? WTF? Gingen die Transistoren bei Blackwell also überwiegend nur noch in Fake fps? :freak:

Die haben auch noch mehr drin wie PCIe5, DP 2.x etc.

aufkrawall
2025-01-07, 10:56:32
Die Nvidia Fake-fps sehen halt um Magnituden echter aus als AMD-fps, warum also nicht.

Pirx
2025-01-07, 10:59:18
Die Nvidia Fake-fps sehen halt um Magnituden echter aus als AMD-fps, warum also nicht.
Wow und damit gibt sich im Jahr 2025 ein echter "Gaming"-Profi zufrieden? Da hat das nV-Marketing ja ganze "Arbeit" geleistet.

Troyan
2025-01-07, 11:00:17
Na, ein echter "Gaming"-Profie spielt im Jahr 2025 auch nicht mehr mit grottiger Rasterizing Grafik. Aber offensichtlich sind einige hier noch im letzten Jahrzehnt stecken geblieben.

dildo4u
2025-01-07, 11:00:32
Die Nvidia Fake-fps sehen halt um Magnituden echter aus als AMD-fps, warum also nicht.
Ist der Konsens nicht das AMD FG ok ist das einzige was mir bisher negativ aufgefallen ist in Hogwarts spinnt das HUD mit der Nvidia Lösung.

dargo
2025-01-07, 11:01:41
Nur die 5090 bekommt deutlich mehr Hardware beim Rest scheinen die 30% vom GDDR7 zu kommen.
5080 hat z.b immer noch rund 10k Cuda Cores.

https://i.ibb.co/CmBktbp/Screenshot-2025-01-07-105651.png (https://ibb.co/XjXh47f)
Ach die 5090 hat nur 33% mehr Shader abbekommen als die 4090, hatte gedacht das wäre mehr. Umso erstaunlicher dass die TDP um 28% nach oben "verschoben" werden musste.

Lawmachine79
2025-01-07, 11:01:46
Gibt es irgendwo:

a) eine Übersicht an 5090 Customs mit vormontiertem Block?
b) eine Übersicht an Customkarten insgesamt, so dass man sich pro Hersteller die Garantiebedingungen ansehen kann? Es gibt ja Hersteller, da bleibt die Garantie erhalten, wenn man einen Customblock montiert.

Der_Korken
2025-01-07, 11:02:58
Die Preise sind am Ende erstaunlich niedrig ausgefallen, damit hätte ich nicht gerechnet. Gemessen an den Preisen vor dem Mining-Boom ist es natürlich immer noch teuer (selbst inflationsbereinigt wegen Uplabelling), aber theoretisch hätte Nvidia auch deutlich mehr zuschlagen können. Vor allem nachdem RDNA4 gestern so abgesägt wurde.

Die Rohperformance kann man mal wieder nicht vernünftig erkennen, da Nvidia alles mit FG bencht. Anhand der ersten beiden Benches auf den Slides sind es je nach Modell so ca. 30% auf den Non-Super-Vorgänger, mal mehr mal weniger. Also 5070 ~ 4070Ti, 5070Ti ~ 4080(S), 5080 ~ 4090. Letzteres überrascht mich dann doch, wenn es stimmt. Genauso überrascht mich aber auch, dass die Balken bei der 5090 scheinbar am wenigsten zulegen. Ich hatte ja schon erklärt, dass ich auf die Rohleistung nicht so viel geben würde und Spekulationen und nicht von mehr als 40-50% Differenz zwischen 5080 und 5090 ausgehen würde, aber es scheint ja eher noch weniger zu sein.

Bei den Specs können das, wie gesagt, nur Auslastungsprobleme der Architektur sein. Gaming hat bei dieser GPU keine große Rolle gespielt, sondern man hat vielleicht eher GB103 als Basis genommen und grob gesagt die Shader pro GPC verdoppelt und das SI verdoppelt. So wie damals die Fury bei AMD: Rohleistung bis unters Dach, aber kommt nix auf die Straße. Da sie den Chip aber zum Rechnen und nicht zum Zocken entwickelt haben, müssen sie das auch nicht.

Aktuell habe ich gar keinen Bock mehr auf die 9070XT und würde lieber bei einer Custom 5070Ti zuschlagen, wenn AMD bis dahin keine Infos rausrückt. Irgendwann bin ich diese Hinhalterei einfach Leid, selbst wenn N48 am Ende eine passable GPU ist.

aufkrawall
2025-01-07, 11:05:55
Ist der Konsens nicht das AMD FG ok ist das einzige was mir bisher negativ aufgefallen ist ist in Hogwarts spinnt das HUD mit der Nvidia Lösung.
Eben, die Zwischenbilder siehst du real nicht, wenn Implementierung ok. Mit Ausnahme weniger HUD-Elemente bei Nvidia, bei AMD mehr + häufiger Probleme mit Vignette etc.
Das Problem war halt die Skalierung, durch die reale Bilder zu lange angezeigt werden mussten.

Wow und damit gibt sich im Jahr 2025 ein echter "Gaming"-Profi zufrieden? Da hat das nV-Marketing ja ganze "Arbeit" geleistet.
Wenn man sich die Präsis von AMD und Nvidia anschaut, war der Verkauf der 7800 XT tatsächlich die beste Entscheidung ever.
Ist jetzt schon völlig klar, dass FSR 4 (was es auf RDNA3 wohl eh nicht gegeben hätte...) völlig untergehen wird gegen die neuen DLSS-Modelle.

dargo
2025-01-07, 11:08:27
Die Preise sind am Ende erstaunlich niedrig ausgefallen, damit hätte ich nicht gerechnet.
1.999$ für eine schnöde Pixelschleuder sind also bei der "PC-Elite" schon wenig? :freak: Zumal du mit hoher Wahrscheinlichkeit eh keine 5090 zu diesem Preis bekommst (paar Einzelfälle mal ausgenommen), Scalper werden es schon regeln. Am Releasetag werden wir sicherlich was mit ~2.500€ sehen. Bei der 5080 mit 999$ UVP hatte ich aber tatsächlich etwas mehr erwartet.

dildo4u
2025-01-07, 11:08:33
.

Die Rohperformance kann man mal wieder nicht vernünftig erkennen, da Nvidia alles mit FG bencht. Anhand der ersten beiden Benches auf den Slides sind es je nach Modell so ca. 30% auf den Non-Super-Vorgänger, mal mehr mal weniger. Also 5070 ~ 4070Ti, 5070Ti ~ 4080(S), 5080 ~ 4090. Letzteres überrascht mich dann doch, wenn es stimmt. Genauso überrascht mich aber auch, dass die Balken bei der 5090 scheinbar am wenigsten zulegen. Ich hatte ja schon erklärt, dass ich auf die Rohleistung nicht so viel geben würde und Spekulationen und nicht von mehr als 40-50% Differenz zwischen 5080 und 5090 ausgehen würde, aber es scheint ja eher noch weniger zu sein.
.
Mit der 5090 hast einfach CPU Limits in allem was kein Path Tracing nutzt.
Das erklärt die Dürftige Skalierung und den Fokus auf mehr Fake Frames.

Lawmachine79
2025-01-07, 11:12:40
gute Frage! Sehr gut um die Ecke gedacht!
PS: Jensen Hung sieht sehr durchtrainiert aus! Er achtet auf die Gesundheit. Sehr gut! Quasi Null fett im Gesicht!
Top! Ich kaufe nur von meinesgleichen Grafikkarten!

Kriegsgeier
2025-01-07, 11:13:41
Leute, warum wundert euch das?

Die BACKWELL Generation ist die wirklich erste Generation, die reinrassig für KI entwickelt worden ist. D.h. die Shader haben die grundlegendste Veränderungen erfahren. Und genau das stellt der Chip nun dar: Er kann am besten KI und Games kann es auch nebenbei!

dargo
2025-01-07, 11:15:08
Mit der 5090 hast einfach CPU Limits in allem was kein Path Tracing nutzt.

Halte ich für Unsinn, so pauschal lässt sich das nicht sagen. Zudem... auch Rasterlast wird in kommenden Games weiter steigen.

dildo4u
2025-01-07, 11:17:25
Mir fällt nur auf das es extrem schwer ist an die 450 Watt der 4090 zu kommen ohne PT ich habe Tonnen Videos über die letzten Jahre geguckt.

Kriegsgeier
2025-01-07, 11:17:34
Gibt es irgendwo:

a) eine Übersicht an 5090 Customs mit vormontiertem Block?
b) eine Übersicht an Customkarten insgesamt, so dass man sich pro Hersteller die Garantiebedingungen ansehen kann? Es gibt ja Hersteller, da bleibt die Garantie erhalten, wenn man einen Customblock montiert.

Von Gigabyte gibt es schon mal ein Bild:
https://www.gigabyte.com/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf

Will genau das gleiche nur von ASUS haben ;)

wolik
2025-01-07, 11:18:53
So niedrig? Kommt etwas überraschend. Oder hast du die dir ausgedacht?

So steht bei Nvidia.

ChaosTM
2025-01-07, 11:21:32
5070 is only as powerful as a 4090 under specific circumstances, like pigs can fly but you have to put them on a plane first.

https://www.youtube.com/watch?v=T-Mkwtf4mus .. höchst-geratete Antwort

.. steckt ein Funken Wahrheit in dieser Aussage - ich werde nicht "umsteigen".. :)

dargo
2025-01-07, 11:24:13
So steht bei Nvidia.
Ok... dann wirds passen. Interessant... denn ich hätte hier eher was mit 2,8-3Ghz erwartet. Womöglich musste NV die 5090 stärker einbremsen damit es am Ende nicht 700+W heißt. :freak:

SamLombardo
2025-01-07, 11:24:58
Halte ich für Unsinn, so pauschal lässt sich das nicht sagen. Zudem... auch Rasterlast wird in kommenden Games weiter steigen.
Aber vermutlich erst mit einer neuen Konsolen Generation. Also nicht mehr zu Zeiten der 5090 als Topmodell.

Lawmachine79
2025-01-07, 11:30:09
Von Gigabyte gibt es schon mal ein Bild:
https://www.gigabyte.com/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf

Will genau das gleiche nur von ASUS haben ;)
Gigabyte (und MSI) eher ungern, ich würde auch gerne ASUS haben oder Inno3D und bei Inno3D gibt es ja was. Leider kann man da nirgends irgendwas preordern.

aufkrawall
2025-01-07, 11:35:27
Die Rasterlast wird in UE imho ziemlich wenig weiter steigen, die macht jetzt schon einen geringen Anteil an der Gesamt-Frame-Time mit Nanite aus. Das SWRT von Lumen und VSM kostet das Zigfache. Und das wird eher durch HWRT weiter ersetzt.

Kriegsgeier
2025-01-07, 11:42:16
Ich glaube die 5090 inkl WaKü Block muss man nicht vorbestellen. Die werden vorrätig sein.

Lawmachine79
2025-01-07, 11:43:56
Ich glaube die 5090 inkl WaKü Block muss man nicht vorbestellen. Die werden vorrätig sein.
Hoffentlich. Sonst muss ich mich wieder mit Fernabsatzpalits über Wasser halten.

Wurde das schon gespostet? Hier ist ein Roundup mit Customs:
https://wccftech.com/nvidia-geforce-rtx-5090-gpu-custom-models-roundup/
Ist aber nicht vollständig die Liste. Inno3D fehlt.

Tatsächlich kein Waküblock von ASUS. Ich dachte die wären "Premium"?

Matrix316
2025-01-07, 11:44:09
Sorry, aber die letzten sechs Jahre waren wohl mit die innovatisten am PC. Es ist nunmal nicht nVidias Schuld, dass der einzige Konkurrent durch die Konsolen keine Innovation zeigt und seine 10 Jahre alten Architekturen weiterverkaufen will.

RDNA 4 bringt im Jahr 2025 einfaches ml Upscaling als superduper neues Feature auf dem Markt. Man muss das nur vergleichen mit dem, was nVidia angekündigt hat und stellt fest, dass wir Innovation und Marktkonzentration von und auf eine Firma erleben.
Also ich finde es nicht so gut, dass eine Firma alleine bestimmt, welche Features Spiele und Grafikkarten bringen sollten.

War das früher mal nicht Direct X als Standard, der bestimmte Features vorgab und die Graka Hersteller haben das mal schlechter und mal besser umgesetzt?

Heute hat man das Gefühl, dass Nvidia irgendwas obskures in ihre Hardware einbaut, ohne AMD und Intel vorher zu fragen. So geht das ja nicht! :P :wink:

Heimscheißer
2025-01-07, 11:47:59
Wann wird es eigtl erste Reviews geben? Kurz vor Monatsende? Weiß man da was?

Troyan
2025-01-07, 11:48:14
Also ich finde es nicht so gut, dass eine Firma alleine bestimmt, welche Features Spiele und Grafikkarten bringen sollten.

War das früher mal nicht Direct X als Standard, der bestimmte Features vorgab und die Graka Hersteller haben das mal schlechter und mal besser umgesetzt?

Heute hat man das Gefühl, dass Nvidia irgendwas obskures in ihre Hardware einbaut, ohne AMD und Intel vorher zu fragen. So geht das ja nicht! :P :wink:

Du hast doch eine 7900XTX. Du bist doch schuld, dass AMD nicht innovativ sein muss. Und jetzt zeigen die dir dreist den Mittelfinger.

Es gibt einfach noch genug, die einfach den veralteten Kram kaufen und somit AMD auch dank Konsolen keine Notwendigkeit von Innovation sieht.

dildo4u
2025-01-07, 11:48:36
Wann wird es eigtl erste Reviews geben? Kurz vor Monatsende? Weiß man da was?
Meistens 1 Tag vor Release also 29.1

wolik
2025-01-07, 11:55:22
Eine Sache ist sicher. Um es milde auszudrücken, FG ist „nicht gut“. Das stelle ich in jedem Spiel fest. Wird MFG besser sein? Wir werden sehen.
4090 in 4K ist mehr als genug für jedes Spiel auf dem Markt, und in den nächsten zwei Jahren wird nichts kommen, was 5090 braucht.
Ich benutze einen 8K-Monitor und das ist fast der einzige Grund, auf 5090 zu wechseln, leider hat 5090 noch keinen neuen HDMI / DP.
Und 8K kann nicht 8K/120Hz noch tun.

DLSS ist für mich der Heilige Gral und ein wahres Wunder. Wird DLSS 4 noch einen draufsetzen?

3090=>4090=>5090
Transistoren:
28 =>76=>92 Milliarden

4090 war ein echtes Monster im Vergleich zu 3090.
Mit 5090 sieht es ganz anders aus.

So oder so: 5090 wird gekauft.

Neurosphere
2025-01-07, 11:55:56
Hoffentlich. Sonst muss ich mich wieder mit Fernabsatzpalits über Wasser halten.

Wurde das schon gespostet? Hier ist ein Roundup mit Customs:
https://wccftech.com/nvidia-geforce-rtx-5090-gpu-custom-models-roundup/
Ist aber nicht vollständig die Liste. Inno3D fehlt.

Tatsächlich kein Waküblock von ASUS. Ich dachte die wären "Premium"?

Hatte Asus aber eigentlich noch nie im Programm wenn ich mich nicht täusche.

Mir würden mit fertigen Blocks auch nur Gigabyte und Inno3D einfallen und damals noch EVGA. Mehr gabs da meine ich nicht.

aufkrawall
2025-01-07, 11:59:09
Seit Lovelace/RDNA3 sind die Customs so gut, da brauchts auch bei 460W keine WK mehr. Spätestens, wenn man Noctuas drauf baut. Die sind bei 1300rpm wesentlich leiser als die elektrischen Geräusche der meisten Karten.

Sumpfmolch
2025-01-07, 12:00:34
Dass gerade die GeForce RTX 5070 Ti als mit Abstand interessanteste Karte im Lineup keine Founders Edition bekommt und man sich deshalb allein mit den Custom-Wegelagerern herumschlagen muss, ärgert mich allerdings schon erheblich.

PHuV
2025-01-07, 12:00:36
https://www.youtube.com/watch?v=T-Mkwtf4mus .. höchst-geratete Antwort

.. steckt ein Funken Wahrheit in dieser Aussage - ich werde nicht "umsteigen".. :)
Zudem eine 5070 nur 1612 GB VRAM hat, und die 4090 24 GB, was ein gutes Argument ist, sie zu behalten.

Update: Danke für die Korrektur.