PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24

MiamiNice
2025-01-15, 15:47:35
was tun nun? Ich weiß: ich warte nun und beobachte wie die 5090 Preise schön auf knapp 2200 fallen - dann kaufe ich erst eine 5090

Sorry NVIDIA

Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.

Für jemanden der erst 2 5090 kaufen wollte, weil zu günstig, ruderst Du nun ganz schön rum :tongue:

Ravenhearth
2025-01-15, 15:48:25
Mit +20% zur 4070 landet die 5070 nur knapp über der 4070S. Das passt allerdings nicht ganz zu den +31% in FC6 und +41% in Plague Tale. Wenn man aus allen Zahlen stumpf einen Durchschnitt bildet, landet man bei +28%. Plague Tale ist wahrscheinlich ein ziemlicher Ausreißer, realistisch gesehen landet man wohl wirklich näher an den +20%.

Die 5070 Ti landet im Schnitt der vier Spiele bei +29%, die 5080 bei +25% und die 5090 bei +34%.

Raff
2025-01-15, 15:51:42
Nvidia hat eine 4070 mit GDDR6 gebracht komischer Weise wirkt sich das in 4k kaum aus.

Der Unterschied bei der Transferrate ist ja auch fast nonexistent.

Für jemanden der erst 2 5090 kaufen wollte, weil zu günstig, ruderst Du nun ganz schön rum :tongue:

Er wird sicher, wie wir alle, bei den Bestcase-Prolltests schwach. ;)

MfG
Raff

Kriegsgeier
2025-01-15, 15:54:06
Zumindest haben wir nun Gewissheit, dass es kein Kartenmangel im Handel sein wird!
Also, wie ich vermutet habe: jeder wird eine kaufen können.

dargo
2025-01-15, 15:55:03
Mit +20% zur 4070 landet die 5070 nur knapp über der 4070S. Das passt allerdings nicht ganz zu den +31% in FC6 und +41% in Plague Tale. Wenn man aus allen Zahlen stumpf einen Durchschnitt bildet, landet man bei +28%. Plague Tale ist wahrscheinlich ein ziemlicher Ausreißer, realistisch gesehen landet man wohl wirklich näher an den +20%.

Die 5070 Ti landet im Schnitt der vier Spiele bei +29%, die 5080 bei +25% und die 5090 bei +34%.
APTR ist mit RT gebencht worden. Und obwohl es afaik nur die Schatten sind ist die RT-Last dennoch recht hoch. Könnte das den Ausreißer erklären?

Tesseract
2025-01-15, 15:56:09
Sehr coole Tabelle:

eher eine der nichtsaussagendsten tabellen die ich je gesehen habe.

Hakim
2025-01-15, 15:57:22
Auffällig die 5070ti im Vergleich zu 4070Ti Benchmark bei indiana Jones. Ja MFG etc klar ist es damit schneller bei Spielen wenn es das hergibt, aber 2,9x? Ich glaube hier zeigt NV das 12GB gegenüber 16GB mit all den AI zeich und RT bei einigen schon vorhanden Spielen einbrechen kann. Wink zu 5070.

dargo
2025-01-15, 15:57:44
eher eine der nichtsaussagendsten tabellen die ich je gesehen habe.
:confused:

Ohne rosarote Brille sagt diese Tabelle sogar sehr viel aus.

Exxtreme
2025-01-15, 16:00:11
eher eine der nichtsaussagendsten tabellen die ich je gesehen habe.

Nö, ich finde sie interessant. Sie zeigt wie abgespeckt Ada und Blackwell sind wenn es um Hardware geht.

x-force
2025-01-15, 16:01:49
eher eine der nichtsaussagendsten tabellen die ich je gesehen habe.

dann fehlt dir bwl hintergrundwissen.

dargo
2025-01-15, 16:03:06
Nö, ich finde sie interessant. Sie zeigt wie abgespeckt Ada und Blackwell sind wenn es um Hardware geht.
Und nicht vergessen dabei... teilweise weniger Hardware (genauer Shadereinheiten) zu wesentlich höheren Kosten! Wieso muss ich gerade dabei an diverse Lebensmittel denken? :ulol:

Ravenhearth
2025-01-15, 16:05:20
APTR ist mit RT gebencht worden. Und obwohl es afaik nur die Schatten sind ist die RT-Last dennoch recht hoch. Könnte das den Ausreißer erklären?
Möglicherweise, RT wurde auf Blackwell erneut verbessert. Far Cry 6 bietet auch mehr RT als Resident Evil 4 und hier schneidet die 5070 besser ab. In den Spielen mit sehr wenig RT oder ohne RT sinds dagegen nur +20%.

Könnte am Ende wirklich darauf hinauslaufen, dass die 5070 (Ti) in Raster nur +20% bringen, die 5080 +15% und die 5090 +33%...

dildo4u
2025-01-15, 16:07:06
Cyberpunk Gameplay mit Latenz Monitor

Path Tracing ohne Framegen 60fps 4k Qualität DLSS

lA8DphutMsY

MiamiNice
2025-01-15, 16:09:21
Nö, ich finde sie interessant. Sie zeigt wie abgespeckt Ada und Blackwell sind wenn es um Hardware geht.
Und nicht vergessen dabei... teilweise zu wesentlich höheren Kosten!
+1
Fällt leider viel zu wenigen auf.

Ravenhearth
2025-01-15, 16:14:43
Interessant, Nvidia hat laut PCGH selbst auch Zahlen genannt:

Auf dem Editor's Day wurden auch zu erwartenden Blackwell-Performance-Zuwächse für 5080, 5070 und 5070 Ti gegenüber der Vorgänger-Generation ohne den Einsatz von DLSS beziehungsweise KI genannt, was wir als erfreulich transparent empfanden.

Die genannten Zuwächse beziffern sich auf 15 Prozent für RTX 5080, 5070 Ti und 10 Prozent für die RTX 5070.

Das ist ja noch weniger als gedacht...

fondness
2025-01-15, 16:23:57
"Erfreulich Transparent". PCGH spürt sich auch nicht mehr. :ugly:

Tesseract
2025-01-15, 16:24:59
:confused:

Ohne rosarote Brille sagt diese Tabelle sogar sehr viel aus.

was genau glaubst du da zu sehen? nimm mal deine rosarote brille ab und denk dir da einen ähnlichen, anderen datensatz rein, z.B. städte mit gebäudehöhen wo jede spalte mit dem höchsten wolkenkratzer skaliert ist und der einfamilienhaus-graph rauf und runter schießt. :freak:


Sie zeigt wie abgespeckt Ada und Blackwell sind wenn es um Hardware geht.
was soll "abgespeckt" in diesem kontext sein? das einzige was der graph zeigt ist die relative größe zum größten chip, dessen größe mehr oder weniger arbiträr ist, genau so wie die produktnamen. das ist nicht normiert auf herstellungskosten, nicht normiert auf preis/leistung, nicht normiert auf das reticle limit oder irgendetwas anderes mehr oder weniger sinnvolles.

Und nicht vergessen dabei... teilweise weniger Hardware (genauer Shadereinheiten) zu wesentlich höheren Kosten!

das diagramm enthält keine kosten. kosten pro shader ist stark vereinfacht und nicht direkt zwischen generationen vergleichbar aber geht zumindest in die richtung eines sinnvollen diagramms. das zeigt das hier aber nicht :rolleyes:

Heimscheißer
2025-01-15, 16:25:59
Interessant, Nvidia hat laut PCGH selbst auch Zahlen genannt:



Das ist ja noch weniger als gedacht...


Dacht ich mir. Dann ist für mich als "FG nicht-Nutzer" ja meine sportlich oc'ed 4080S ja ca so schnell wie ne stock 5080. Also wohl kein Upgrade nötig😃👍

Und die neuen Treiber werden auch noch bissl was bringen👍

Sehr gut🤓

maximus_hertus
2025-01-15, 16:30:36
Puuuuuh.

Ergo landet die 5070 sogar noch unterhalb(!) der 4070 Super (ohne MFG)?
Die 5070 Ti würde demnach dann zwischen 4070 Ti Super und 4080 landen.
Und die 5080 zwischen 4080 und 4090.

Wenn die 9070 XT bei der Performance auch mit RT auf 4070 Ti S Niveau landet, ist sie auch direkt im Fahrwasser der 5070 Ti. Klar, nV hat zusätzlich diverse Vorteile (wahrscheinlich Effizienz und die "Software" / Support), aber wenn das so kommt, öffnet das eine Tür für AMD.

Es sei denn, MFG funktioniert so gut, dass es zum neuen "normal" wird.

Es bleibt spannend. Zunehmend ist weniger die Rohleistung, die sich pro Gen steigert, sondern die Softwarefeatures.

VooDoo7mx
2025-01-15, 16:31:15
Hier mal was wirklich interessantes:

Interview bzw Erklärung vom nVidia Thermal Engeneer Malcolm Gutenberg zu den neuen Kühler. :O

-p0MEy8BvYY

Schon krass was die da für einen Aufwand betrieben haben und viele neue innovative Wege gehen.
Wenn ich da noch an die alten Blower Kühler bis 2018/Turing denke...

Ravenhearth
2025-01-15, 16:33:31
Puuuuuh.

Ergo landet die 5070 sogar noch unterhalb(!) der 4070 Super (ohne MFG)?
Die 5070 Ti würde demnach dann zwischen 4070 Ti Super und 4080 landen.
Und die 5080 zwischen 4080 und 4090.
Ja, die 5070 Ti wäre 5% über der 4070 Ti Super und die 5080 ca. 10% über der 4080 Super.

dargo
2025-01-15, 16:41:00
Es bleibt spannend. Zunehmend ist weniger die Rohleistung, die sich pro Gen steigert, sondern die Softwarefeatures.
Nee... zunehmend sehe ich bei NV weg von viel RAW-Power zu mehr AI im Gamingsektor.

dildo4u
2025-01-15, 16:47:51
Genau so wie die 9700XT und PS5 Pro.

dargo
2025-01-15, 16:51:32
Wozu überhaupt noch das Gedöns an die Consumer verkaufen? Das ganze Zeug können irgendwelche Farmen erzeugen und dann werden die Bilder zu den Consumern gestreamt. Das ganze in irgendein Abo verpacken und fertig. Ok... dafür brauchen wir flächendeckend schnellere Datenübertragungen. :D

The_Invisible
2025-01-15, 16:59:09
Nativ ist tot, kann man eigentlich nicht oft genug wiederholen. DLSS4/FSR4 werden wohl so gut das man problemlos von 1080p auf 4k hochskalieren kann (bei DLSS eigentlich schon jetzt), dazu dann noch MFG und Latenzverbesserungen.

Blackwell zeigt wohl eine Zukunft die derzeit noch nicht recht vorstellbar ist.

https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-5080-5070-ti-5070-details.91036/

Noch mehr frisches Zeug!

Nett, auch wieder einige RT-Verbeserungen. Bin da schon auf die Artikel gespannt wie die näher eingehen darauf und vor allem auch Tests was sich da taktnormiert getan hat.

dildo4u
2025-01-15, 17:00:52
Auf meinem 42 OLED fällt das Geschmierre in Cyberpunk schon auf bin auf das Transformer Modelle gespannt.

Christopher_Blair
2025-01-15, 17:05:23
Zumindest haben wir nun Gewissheit, dass es kein Kartenmangel im Handel sein wird!
Also, wie ich vermutet habe: jeder wird eine kaufen können.

Woher kommt diese Gewissheit? Gab es irgendwo Infos über die 5090 Lieferenmenge? Habe nicht alles genau verfolgt.

Hübie
2025-01-15, 17:14:55
Die 3GB Module werden aber mehr verbrauchen als 2 GB oder?
Obwohl beide mit 1,25V?

Da jeglicher Speicher im Prinzip aus Kondensatoren besteht ist es klar, dass jede Zelle eine gewisse Menge Energie benötigt, um den Zustand aufrecht zu erhalten. Alles im Universum strebt ja nach Stillstand. Ergo brauchen 3 GB-Module mehr Energie, als welche mit nur 2 Gigabyte Kapazität bei gleicher Spannung und gleichem Takt.

Totaler bullshit das was umzulöten, nicht? Die RAM ICs sind doch prinzipiell die gleichen... die 32 GBps gerateten sind evtl. gebinnt, haben sicher losere Timings. Denke man bringt die 28 gbps Teile per OC eh schon auf 32, wenn nicht, dann müsste man ehr die Timings der 32 gbit Varianten ins VBIOS einbauen anstatt minimal besser gebinnte ICs schlecht zu verlöten.

Grakas trainieren sich selbst und somit hat man eher eine Spannweite an Timings. Das liegt einerseits an der Topologie und andererseits an Signalpegel.

Mich persönlich interessiert der Verbrauch mehr oder weniger nicht. Wir verbrauchen hier im Haus um die 8-8,3 kWh p. a. und da würde eine Graka mit 500 Watt kaum bemerkbar gegenüber einer mit 320 Watt sein. :D Aber den Preis einer 5090 KANN ich mir einfach nicht schön trinken... äh reden. :freak:

MiamiNice
2025-01-15, 17:20:56
Woher kommt diese Gewissheit? Gab es irgendwo Infos über die 5090 Lieferenmenge? Habe nicht alles genau verfolgt.
Die Karten haben sich verzögert, also konnten viele produziert werden.
Nativ ist tot, kann man eigentlich nicht oft genug wiederholen.
Kann man so oft wiederholen wie es nur geht, aber abseits der (A)AAA Filmchen stimmt das einfach (noch?) nicht.

aufkrawall
2025-01-15, 17:24:03
Indies sind auch immer mehr UE5, wo die "Implementierung" durch Plug-Ins wenige Klicks ist.

Daredevil
2025-01-15, 17:26:13
Wozu überhaupt noch das Gedöns an die Consumer verkaufen? Das ganze Zeug können irgendwelche Farmen erzeugen und dann werden die Bilder zu den Consumern gestreamt.
Das wäre ja genauso verrückt, als müsste man heute kein Instrument mehr spielen können um Musik zu erzeugen, weil der Computer diesen Sound erzeugt. Völlig verrückt. :wink:
Work smart not hard sollte dir als 200w Ultra ja eher entgegen kommen, als das es dir im Weg steht, sofern es die Pixelpeeper auf 15x Zoom überzeugt. ^^

Cubitus
2025-01-15, 17:27:08
Nativ ist tot, kann man eigentlich nicht oft genug wiederholen. DLSS4/FSR4 werden wohl so gut das man problemlos von 1080p auf 4k hochskalieren kann (bei DLSS eigentlich schon jetzt), dazu dann noch MFG und Latenzverbesserungen.

Blackwell zeigt wohl eine Zukunft die derzeit noch nicht recht vorstellbar ist.



Nett, auch wieder einige RT-Verbeserungen. Bin da schon auf die Artikel gespannt wie die näher eingehen darauf und vor allem auch Tests was sich da taktnormiert getan hat.

Bald wird das Unwort "Fake-Frames" verschwinden und es wird nur von erzeugten Frames und der Technik gesprochen.. In ein paar Jahren juggts die Leute auch nicht mehr, ob ein Frame durch pures Raster erzeugt wurde oder eben sonst wie..
Das gleiche wie mit WLAN.. das kommt halt aus so nem Kasten und ist so schnell wie ich halt nen Vertrag beim Provider abgeschlossen hab..

DrFreaK666
2025-01-15, 17:57:55
...Es sei denn, MFG funktioniert so gut, dass es zum neuen "normal" wird...
Sind High-Hz Monitore denn so stark im Umlauf?

Wenn man sich die letzte Umfrage bei CB anschaut, dann haben nur eine ganz kleine Prozent-Zahl einen Monitor mit mehr als 165Hz
https://i.postimg.cc/3RpXtBM0/grafik.png (https://postimg.cc/gXzLJ32G)

Bei 165Hz würde man ungefähr 45 FPS benötigen. Aber das kann doch niemand wirklich wollen. Und 35FPS für einen 120Hz-Monitor klingt für mich noch sinnloser.

Was man nicht vergessen darf: Bei CB sind auch eher viele Nerds unterwegs. Wenn man alle potentielle Gamer ansehen würde, dann sieht es sicherlich noch schlimmer aus

Daredevil
2025-01-15, 18:06:46
Wo fängt für dich denn "High HZ" an?
Also ich hätte da jetzt gesagt 100Hz+ bzw. alles was nicht "60hz Standard" ist und das wäre demnach der Großteil dort. Ich würde selbst meine 120Hz nicht als "High Refresh" einstufen, weil ich nen 0815 Fernseher habe, der dies explizit nicht beworben hat, sondern das war beim OLED einfach dabei. Also 120hz ist bei dem LG von vor vielen Jahren einfach "Standard". Ein dedizierter High Refresh "Gaming" Monitor fängt dann halt bei 144hz an und dies bildet mit 165hz mehr als die Hälfte, Tendenz steigend.

Wer vor vielen Jahren allerdings schon 120/144hz hatte, wird beim nächsten Upgrade natürlich nicht "nur" die 21hz mehr nehmen, sondern wird eher auf über 200hz springen wollen, damit man auch neben der Auflösung un dem Panel ein Unterschied sieht und schwups, nutzt dir MFG schon was.
Die Statistik oben zeigt ja, 165hz steigt am meisten gefolgt von 240hz, das ist die direkte Zielgruppe.

Raff
2025-01-15, 18:09:43
Hier mal was wirklich interessantes:

Interview bzw Erklärung vom nVidia Thermal Engeneer Malcolm Gutenberg zu den neuen Kühler. :O

https://youtu.be/-p0MEy8BvYY

Schon krass was die da für einen Aufwand betrieben haben und viele neue innovative Wege gehen.
Wenn ich da noch an die alten Blower Kühler bis 2018/Turing denke...

Jo, da ist aber auch viel Not dabei. Früher(tm), mit den Föngeräten, bleiben die GPUs hinter ihren Möglichkeiten zurück und liefen teilweise im Temperaturlimit. Die Custom-Designs waren stets schneller, sprich: Die Referenzkarten sahen in den Tests schlechter aus als notwendig. Seit Turing ist das nicht mehr so (dort sogar verschärft, mit den werkseitig übertakteten FE-Karten), man reizt das Silizium besser aus. Heutzutage, ohne ordentliche Shrinks, muss man dann wirklich alle Register ziehen, denn ein bisschen mehr Leistung muss auch ohne KI her. :ugly:

MfG
Raff

AffenJack
2025-01-15, 18:17:38
Hat kein Reviewer gefragt, ob der L2 reduziert wurde?

Man schaue sich die Diesize an von Hardwareluxx:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65326-nvidia-editors-day-die-details-zur-blackwell-architektur-und-den-geforce-rtx-50-karten.html

https://pbs.twimg.com/media/GhWJS1zXsAAyIPy?format=jpg&name=medium

Man erweitert die Shader um ne weitere INT Pipeline, mehr Shader, Powergating, RT Features und trotzdem bleibt GB203 gleich groß?

Sieht mir danach aus, dass man L2 reduziert hat, um sich den Platz zu erkaufen. Würde auch erklären, wieso die GPUs mit soviel mehr Bandbreite so wenig schneller sind. Das würde gut zu 48mb L2 statt 64mb passen.

DrFreaK666
2025-01-15, 18:22:17
Wo fängt für dich denn "High HZ" an?
Also ich hätte da jetzt gesagt 100Hz+ bzw. alles was nicht "60hz Standard" ist und das wäre demnach der Großteil dort. Ich würde selbst meine 120Hz nicht als "High Refresh" einstufen, weil ich nen 0815 Fernseher habe, der dies explizit nicht beworben hat, sondern das war beim OLED einfach dabei. Also 120hz ist bei dem LG von vor vielen Jahren einfach "Standard". Ein dedizierter High Refresh "Gaming" Monitor fängt dann halt bei 144hz an und dies bildet mit 165hz mehr als die Hälfte, Tendenz steigend.

Wer vor vielen Jahren allerdings schon 120/144hz hatte, wird beim nächsten Upgrade natürlich nicht "nur" die 21hz mehr nehmen, sondern wird eher auf über 200hz springen wollen, damit man auch neben der Auflösung un dem Panel ein Unterschied sieht und schwups, nutzt dir MFG schon was.
Die Statistik oben zeigt ja, 165hz steigt am meisten gefolgt von 240hz, das ist die direkte Zielgruppe.

Du hast meine "Rechnungen" Bei 165Hz würde man ungefähr 45 FPS benötigen. Aber das kann doch niemand wirklich wollen. Und 35FPS für einen 120Hz-Monitor klingt für mich noch sinnloser. einfach mal total ignoriert. Natürlich sind 144Hz höher, aber ist das das Ziel von 4xFG?
Aber gut, scheint ja auch nur 3xFG zu geben

Kriegsgeier
2025-01-15, 18:25:41
Verdammt! Wozu hat 5090 512Bit und 32GB?
Nur um zu haben?

rentex
2025-01-15, 18:47:54
Langsam frag ich mich, wieso man Blackwell abseits von KI, kaufen sollte?

why_me
2025-01-15, 18:51:53
Weil mit MFG die Balken doppelt so lang werden natürlich.

horn 12
2025-01-15, 18:52:15
@rentex
Das frag mal NV, und AMD ist Äußerst gut dran bei dieser Generation, hat ganze 2 Schritte aufgeholt!

whetstone
2025-01-15, 18:59:36
Langsam frag ich mich, wieso man Blackwell abseits von KI, kaufen sollte?

Jo alles ab 4070ti macht den Umstieg nicht so attraktiv. Außer man will nochmal paar FPS mehr in VR oder multiscreen Geschichten. Mir bleibt nichts anderes übrig da mein lappy kapput gegangen ist und ich jetzt nochmal 3 Monate gewartet habe um überhaupt wieder ne GPU zu haben, rückblickend hätte ich ne 4090 für 1500€ neu kaufen sollen als ich die chance hatte. Vllt spielt blackwell ja noch paar Stärken aus wenn diese Mega Geometrie, Neural Shader/Material sachen in spielen kommen.

Kriegsgeier
2025-01-15, 18:59:52
Ich bin auch quasi baff um ehrlich zu sein.
Also ich kaufe auf keinen Fall am ersten Tag.
Meine 3090 ist noch sehr gut bei Astroneer :-)

fondness
2025-01-15, 19:02:28
Hat kein Reviewer gefragt, ob der L2 reduziert wurde?

Man schaue sich die Diesize an von Hardwareluxx:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65326-nvidia-editors-day-die-details-zur-blackwell-architektur-und-den-geforce-rtx-50-karten.html

https://pbs.twimg.com/media/GhWJS1zXsAAyIPy?format=jpg&name=medium

Man erweitert die Shader um ne weitere INT Pipeline, mehr Shader, Powergating, RT Features und trotzdem bleibt GB203 gleich groß?

Sieht mir danach aus, dass man L2 reduziert hat, um sich den Platz zu erkaufen. Würde auch erklären, wieso die GPUs mit soviel mehr Bandbreite so wenig schneller sind. Das würde gut zu 48mb L2 statt 64mb passen.

Ja erscheint mir auch logisch, wofür sonst sollte man auf einmal so viel Bandbreite brauchen? Und macht auch Sinn, GDDR7 ist sicher billiger als ein größeres Die mit mehr Cache. Vielleicht wurde sogar noch mehr Cache entfernt als die von dir spekulierten 16MB, ich würde zumindest mit einer Halbierung rechnen.

whetstone
2025-01-15, 19:04:41
Ich bin auch quasi baff um ehrlich zu sein.
Also ich kaufe auf keinen Fall am ersten Tag.
Meine 3090 ist noch sehr gut bei Astroneer :-)

Wolltest du nicht 3.5k hinblättern für 40-50% Mehrleistung zur 4090? Jetzt bekommst du 35% für 30% weniger kohle, bessere P/L als voher :freak:

TheAntitheist
2025-01-15, 19:05:10
@rentex
Das frag mal NV, und AMD ist Äußerst gut dran bei dieser Generation, hat ganze 2 Schritte aufgeholt!
eher 5 zurück gemacht, schon neural rendering angeguckt? AMD weiß nicht mal wie man das schreibt.

The_Invisible
2025-01-15, 19:11:16
@rentex
Das frag mal NV, und AMD ist Äußerst gut dran bei dieser Generation, hat ganze 2 Schritte aufgeholt!

Wo bitte, AMD hat nicht Mal irgendwas offiziell released, alles gerüchte und die angebliche Vorstellung heute ist auch nix.

Btw find's ja lustig das hardwareluxx meint schon die 5090/5080 gerade zu testen und Raff hat noch nix bekommen. Darf man das überhaupt sagen :freak:

Altehardware
2025-01-15, 19:13:39
Das neural rendering ist aber ein heftiges aber dahinter es funktioniert nur in Kombination mit multi fg und was wichtig ist mit dlss
Daher liegt das brach da aber dlss in hardware vorhanden ist wird man da nativ stehen haben also aus 1080p sind real dann 540p
Das neural rendering reduziert primär den vram bedarf von multi fg und hat keinerlei Vorteil wenn man echtes nativ haben will.
nvidia macht alles um zu vertuschen das man voll auf ai Beschleuniger ausgelegte arch gebaut hat

dargo
2025-01-15, 19:15:10
Ja erscheint mir auch logisch, wofür sonst sollte man auf einmal so viel Bandbreite brauchen? Und macht auch Sinn, GDDR7 ist sicher billiger als ein größeres Die mit mehr Cache. Vielleicht wurde sogar noch mehr Cache entfernt als die von dir spekulierten 16MB, ich würde zumindest mit einer Halbierung rechnen.
Das erklärt aber nicht wirklich die Bandbreite der 5090 die dank noch breiterem SI von 512Bit stärker gestiegen ist. Oder wurden bei GB202 noch mehr Caches geschrumpft? Oder hat sich NV einfach gedacht lassen wir das Ding bei 512Bit SI um paar Käufer mit 32GB zu ködern? :freak: Nee... das wäre zu verrückt. :D

whetstone
2025-01-15, 19:19:23
Das neural rendering ist aber ein heftiges aber dahinter es funktioniert nur in Kombination mit multi fg und was wichtig
Wo hast du das her?

fondness
2025-01-15, 19:20:28
Das erklärt aber nicht wirklich die Bandbreite der 5090 die dank noch breiterem SI von 512Bit stärker gestiegen ist. Oder wurden bei GB202 noch mehr Caches geschrumpft?

Es ist immer eine Kombination aus Cache und Bandbreite, die man natürlich für jeden Chip individuell festlegen kann. Zudem hat ja die 5090 auch als einzige merklich mehr Rechenleistung.

TheAntitheist
2025-01-15, 19:28:18
Das neural rendering ist aber ein heftiges aber dahinter es funktioniert nur in Kombination mit multi fg und was wichtig ist mit dlss
Daher liegt das brach da aber dlss in hardware vorhanden ist wird man da nativ stehen haben also aus 1080p sind real dann 540p
Das neural rendering reduziert primär den vram bedarf von multi fg und hat keinerlei Vorteil wenn man echtes nativ haben will.
nvidia macht alles um zu vertuschen das man voll auf ai Beschleuniger ausgelegte arch gebaut hat
das stimmt alles nicht, man brauch mein MFG und kein DLSS dafür. warum denkst du dir das alles aus? was bringt dir das?

Linmoum
2025-01-15, 20:00:33
Langsam frag ich mich, wieso man Blackwell abseits von KI, kaufen sollte?Die 15 Leute auf der Welt, die natürlich immer noch im Jahr 2025 nur (Raster-)Rohpower wollen, sollten langsam vielleicht mal in der Realität ankommen.

Grafikkarten (der Zukunft) definieren sich mehr und mehr über das ganze Ökosystem. Was Nvidia in der Hinsicht mit Blackwell abliefert, ist mehr als nur beeindruckend. Davon ab sind aktuelle Nvidia-Grafikkarten ab Turing dank DLSS so langlebig, wie noch nie zuvor. Es muss niemand mit jeder Gen aufrüsten. ;)

rentex
2025-01-15, 20:06:22
Die 15 Leute auf der Welt, die natürlich immer noch im Jahr 2025 nur (Raster-)Rohpower wollen, sollten langsam vielleicht mal in der Realität ankommen.

Grafikkarten (der Zukunft) definieren sich mehr und mehr über das ganze Ökosystem. Was Nvidia in der Hinsicht mit Blackwell abliefert, ist mehr als nur beeindruckend. Davon ab sind aktuelle Nvidia-Grafikkarten ab Turing dank DLSS so langlebig, wie noch nie zuvor. Es muss niemand mit jeder Gen aufrüsten. ;)

Ja eben. Langliebig!

Altehardware
2025-01-15, 20:43:09
Das ergibt sich aus den text den nvidia selbst veröffentlicht hat man will mit neural rendering Daten in die fp32 Datenpipeline intrigieren das geht nur wenn upscaler genutzt wird mit FG
Da dies aber in dx Einfließt wird das eine api teil womit jede gpu das kann sofern die hardware auch tensor kerne hat die dann die fp4 fp8 workloads auch bereitstellen kann.
Faktisch wird einen Fg aufgezwungen
Das gute alle rtx seit rtx20 können das das schlechte ohne hardware sheduling läuft das nicht folglich hat man die Wahl maximal Kompatibilität oder neue features.
Den hardware sheduling ist recht instabil auf windows 10/11.

Relex
2025-01-15, 20:51:14
Das ist einfach komplett falsch -.-

dargo
2025-01-15, 20:52:57
Die 15 Leute auf der Welt, die natürlich immer noch im Jahr 2025 nur (Raster-)Rohpower wollen, sollten langsam vielleicht mal in der Realität ankommen.

:freak:

Die Realität siehst du hier.
https://store.steampowered.com/hwsurvey/videocard/

Da ist sogar ein Turing weit oben der nicht mal DLSS unterstützt.

Exxtreme
2025-01-15, 20:57:01
Langsam frag ich mich, wieso man Blackwell abseits von KI, kaufen sollte?

Wenn du Power brauchst um auf Bildvermatscher ala DLSS verzichten zu können dann willst du das. :)

Ansonsten dürfte es passieren, dass Blackwell viel besser altert als Ada. Das Ding hat viel mehr Bandbreite. Und die RTX 4090 verhungert an Bandbreite.

Relex
2025-01-15, 20:59:55
:freak:

Die Realität siehst du hier.
https://store.steampowered.com/hwsurvey/videocard/

Da ist sogar ein Turing weit oben der nicht mal DLSS unterstützt.


Die Realität ist auch, dass der Großteil der Gamer nicht an neuen Spielen interessiert ist. Steam hat dazu ebenfalls kürzlich eine Statistik veröffentlicht.

Wenn man sich dazu zählt, braucht man auch keine neue GPU. Die meisten leute nutzen GPUs 4-7 Jahre. Aber wir sind da einfach ne völlig andere Zielgruppe.

In unserer "bubble" nur auf Rasterperformance zu schauen ist... nun ja... ziemlich weird :D
Zumal es hier um einen Neukauf geht, nicht um die installbase.

Wenn man sich bei nem Neukauf an der installbase orientiert, würde man doch grundlegend was falsch machen. Dann könnte man sogar so absurde Dinge argumentieren, wie "eine 5090 braucht niemand, weil die meisten eh mit ner 3060 spielen".
Das Ergibt halt im Hinblick auf Fortschritt in keinster Weise Sinn. Soll nicht heißen, dass die 5090 als Produkt für jeden das richtige ist. Aber zumindest die Richtung in die es gehen muss. (hauptsächlich Architektur und Features)

Troyan
2025-01-15, 21:08:53
Langsam frag ich mich, wieso man Blackwell abseits von KI, kaufen sollte?

Alles unter Lovelace macht doch Sinn. Man kann MFG in jeden Spiel mit FG nutzen und die 5070 TI sieht wie der Sweetspot aus.

Palpatin
2025-01-15, 21:09:37
:freak:

Die Realität siehst du hier.
https://store.steampowered.com/hwsurvey/videocard/

Da ist sogar ein Turing weit oben der nicht mal DLSS unterstützt.
Steam hat über 1 Mrd User. Die erfolgreichsten aktuellen Triple A Spiele verkaufen sich ca 1–10 Millionen mal. Das sagt eigentlich alles über den hwsurvey.

Exxtreme
2025-01-15, 21:10:45
Steam hat über 1 Mrd User. Die erfolgreichsten aktuellen Triple A Spiele verkaufen sich ca 1–10 Millionen mal. Das sagt eigentlich alles über den hwsurvey.

In dieser Hwsurvey sind auch noch Dritte-Welt-Länder drin. Und in so einem Land kostet eine 3060 soviel wie ein Monatsgehalt. Deshalb gibt es weltweit auch so viel veraltete Hardware, die weiterhin genutzt wird.

Sardaukar.nsn
2025-01-15, 21:12:20
Schon mal was zum Lesen:

NVIDIA Editors Day: Details zur Blackwell-Architektur und der GeForce RTX 50 https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65326-nvidia-editors-day-die-details-zur-blackwell-architektur-und-den-geforce-rtx-50-karten.html


Lautstärke Test der FE ab 13:30min :eek:

lA8DphutMsY

Daredevil
2025-01-15, 21:24:48
Das Spulenrasseln ;D ( Sofern man das hier raus hört )

monstar-x
2025-01-15, 21:29:54
Die 15 Leute auf der Welt, die natürlich immer noch im Jahr 2025 nur (Raster-)Rohpower wollen, sollten langsam vielleicht mal in der Realität ankommen.

In der eigenen Blase sieht man nur einen winzigen Bruchteil der Realität.
Um einen Gesamtüberblick zu gewinnen, könntest du weitere Informationsquellen heranziehen und nicht nur deine Subjektive Wahrnehmung.

Dann wäre dir recht früh aufgefallen dass es Quatsch ist was du schreibst ;D



Schon mal was zum Lesen:

NVIDIA Editors Day: Details zur Blackwell-Architektur und der GeForce RTX 50 https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65326-nvidia-editors-day-die-details-zur-blackwell-architektur-und-den-geforce-rtx-50-karten.html


Lautstärke Test der FE ab 13:30min :eek:

https://youtu.be/lA8DphutMsY

Du kennst die Temperatur der Karte nicht.
Die könnte auch mit 80c laufen damit die Leise wirkt, wissen wir nicht.



Edit: Ich für meinen Teil werde mir dieses mal keine 5090 kaufen.
Die paar % zur 4090, sind mir keinen Aufpreis wert. Zu mal meine MSI SuprimX, leise ist und kein Spulenfiepen/rasseln hat.

Fragman
2025-01-15, 21:35:54
Lautstärke Test der FE ab 13:30min :eek:


Das ist schon sehr leise.
Das ist ein 2 Slot Design?

Linmoum
2025-01-15, 21:37:27
In der eigenen Blase sieht man nur einen winzigen Bruchteil der Realität.
Um einen Gesamtüberblick zu gewinnen, könntest du weitere Informationsquellen heranziehen und nicht nur deine Subjektive Wahrnehmung.

Dann wäre dir recht früh aufgefallen dass es Quatsch ist was du schreibst ;DDie einzige Blase existiert dort, wo Leute sich noch immer dem offensichtlichen Fortschritt verschließen und diesen mit einer teilweisen absurden Vehemenz ablehnen.

Und nein, das ist keine und schon gar nicht meine subjektive Wahrnehmung, dass der Fokus auf (Raster-)Rohpower ein Relikt vergangener Tage und nicht mehr die Zukunft (bzw. mittlerweile sogar schon Gegenwart) ist. Es sei denn, man will Nvidia das ebenso unterstellen. Aber klar, was weiß schon diese Bastelbude, die erst seit kurzem frisch am Markt ist.

The_Invisible
2025-01-15, 21:43:21
Lautstärke Test der FE ab 13:30min :eek:

https://youtu.be/lA8DphutMsY

WTF, kann ja nicht sein das ein 2 Slot Design so leise 500W handeln kann :freak:

dargo
2025-01-15, 21:51:09
4k mit DLSS Performance + MFG wo sollen damit die 500W her kommen? :freak: Ich kann mir kaum vorstellen, dass MFG alleine 150-200W oder so frisst. Einfach mal schauen was eine 4090 mit 4k DLSS Performance + FG dort frisst dann hat man schon mal eine grobe Richtung.

Edit:
Hier habe ich was auf die schnelle gefunden, hatte tatsächlich wesentlich weniger bei einem Input von 1080p erwartet.
https://youtu.be/5GwES4ftTSI?si=ScJb_kOSx2aySRLZ&t=1302

Tesseract
2025-01-15, 21:58:59
WTF, kann ja nicht sein das ein 2 Slot Design so leise 500W handeln kann :freak:

warum nicht? das design ist thermisch nahezu perfekt aufgebaut: vapor chamber geht direkt ohne materialübergänge zu den lamellen, keine pipe ist einer anderen thermisch im weg, kühlblock hat eine geringe tiefe aber große fläche für einen maximalen temperaturgradienten bei gleichzeitigb hohem luftdurchsatz. quasi das einzige was da noch fehlt ist die luft direkt von außen zu bekommen und nach außen wieder abzugeben (aber das ist mit ATX schwer möglich) und das board parallel zum mobo zu drehen und das konzept auf die volle kartenlänge statt 2/3 zu verlängern, was aber mit 2 slots auch nicht möglich sein wird

Sardaukar.nsn
2025-01-15, 22:31:07
@Tesseract: Ja, ideal wäre hier ein Belüftung von unten wie im Dynamic O11 oder Fractal Torrent.

In dem Luftkühler steckt ne Menge Know-How. Aber ich bin immer noch skeptisch ob der wirklich liefert. Wie Monstar schon schrieb, könnte der auch ziemlich heiß sein, also als Zieltemp irgendwas um 80°C haben. Lassen wir uns mal überrasschen. Das Video dazu ist aber spannend:

-p0MEy8BvYY

bbott
2025-01-16, 00:52:44
Eine 4090 Ti vs 5090 wäre spannend geworden *g

Slipknot79
2025-01-16, 00:55:40
Aber das ist schon krass wie die Leute nichts auf NDAs geben. Richtig fies wäre wenn jeder Reviewer eine leicht andere Treiberversion bekommen würde. Dann wüsste Nvidia anhand der Versionsnummer jetzt wer der NDA-Brecher ist. ;D


Das wird nicht passieren, die reviewer sind sicher in Kontakt untereinander. (y)



Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.


Das wird sicher so passieren. Die 6090 wird wieder nen node-Sprung verpasst bekommen, gibt 50-70% Mehrleistung vs 5090.
Die 5090 wird in Sachen "Einkauf minus Verkauf" recht teuer. Relati4t sich aber etwas, wenn man den Prügel 5 statt 2,5 Jahre lang behält.

Slipknot79
2025-01-16, 00:58:58
dp

mczak
2025-01-16, 04:11:39
Da jeglicher Speicher im Prinzip aus Kondensatoren besteht ist es klar, dass jede Zelle eine gewisse Menge Energie benötigt, um den Zustand aufrecht zu erhalten. Alles im Universum strebt ja nach Stillstand. Ergo brauchen 3 GB-Module mehr Energie, als welche mit nur 2 Gigabyte Kapazität bei gleicher Spannung und gleichem Takt.

Der weitaus grösste Teil des Stromverbrauchs bei gddr Speicher fällt beim Transfer an, nicht beim idle-Refresh, 3GB vs 2GB dürfte also den Stromverbrauch nur kaum messbar erhöhen. (Wenn eine neue Fertigung für die 3GB Module verwendet wird dürfte der Verbrauch deutlich tiefer sein, aber keine Ahnung wie da die Pläne der Hersteller sind, und selbstverständlich würden davon auch 2GB Module in der neuen Fertigung profitieren.)

mczak
2025-01-16, 04:30:58
So erstaunlich finde ich das jetzt nicht dass die Chips roh kaum schneller sind. Letztes Mal die PPA deutlich erhöht hat Nvidia mit derselben Fertigung doch bei Kepler->Maxwell.
Seither hat man es etwa geschafft die PPA zu halten trotz neuer Features, ansonsten kam mehr Performance mit entweder neuer Fertigung oder grösseren Chips. Da beides hier nicht der Fall ist kommt eben das heraus (ich hätte eigentlich eine kleine Steigerung bei der Transistorpackdichte erwartet das ist aber offenbar auch nicht der Fall).
Am extremsten hier ist natürlich GB205 - mit ~10% weniger Fläche und weniger Transistoren gegenüber AD104 reicht es dann eben nicht mehr damit ein Nachfolger des Vollausbaus von AD104 (4070Ti) auch wirklich schneller wäre, deswegen muss eben GB203 dafür herhalten. Etwas enttäuschend dabei ist höchstens dass ja deutlich (~40%) mehr Bandbreite zur Verfügung steht was eigentlich schon deutlich was bringen sollte aber offensichtlich auch nicht ausreichend ist damit die Karten gegenüber den Vorgängern deutlich schneller werden (aber allenfalls hat nvidia ja tatsächlich den L2 etwas verkleinert).

crux2005
2025-01-16, 04:38:23
Was ist bitte PPA?

Kriegsgeier
2025-01-16, 06:25:35
Irgendwas per Area

Kriegsgeier
2025-01-16, 06:29:28
So erstaunlich finde ich das jetzt nicht dass die Chips roh kaum schneller sind. Letztes Mal die PPA deutlich erhöht hat Nvidia mit derselben Fertigung doch bei Kepler->Maxwell.
Seither hat man es etwa geschafft die PPA zu halten trotz neuer Features, ansonsten kam mehr Performance mit entweder neuer Fertigung oder grösseren Chips. Da beides hier nicht der Fall ist kommt eben das heraus (ich hätte eigentlich eine kleine Steigerung bei der Transistorpackdichte erwartet das ist aber offenbar auch nicht der Fall).
Am extremsten hier ist natürlich GB205 - mit ~10% weniger Fläche und weniger Transistoren gegenüber AD104 reicht es dann eben nicht mehr damit ein Nachfolger des Vollausbaus von AD104 (4070Ti) auch wirklich schneller wäre, deswegen muss eben GB203 dafür herhalten. Etwas enttäuschend dabei ist höchstens dass ja deutlich (~40%) mehr Bandbreite zur Verfügung steht was eigentlich schon deutlich was bringen sollte aber offensichtlich auch nicht ausreichend ist damit die Karten gegenüber den Vorgängern deutlich schneller werden (aber allenfalls hat nvidia ja tatsächlich den L2 etwas verkleinert).

Ja, sehe ich ähnlich. Irgendwie fühlt sich die Backwell Gen. sogar im Vergleich noch schwächer als die AMPERE gen. :(
Also, ADA Umsteiger und nun Besitzer können sich wirklich Glücklich schätzen. ADA ist die Generation, die am Längsten überleben wird.
Ich würde mich nicht wundern wenn die 4090 noch in 3 jahren nahe 1000€ auf dem Gebrauch Markt bringen wird! Die Karte ist einfach ein Beast!
Und noch kommt dazu, dass die nächste Gen. wieder eine "ADA" Gen. werden könnte...

Somit hätten wir wirklich mit Ampere und Backwell Mähhhh Generationen und dazwischen Wow-Generationen... Wirklich komische Situation!
Und ratet mal auf welcher Generationentrip ich aus bin? Ja, als 3090 Besitzer....

Diese Multi Frame Generation muss dann aber sehr, sehr gut funktionieren.

Man kriegt als als 3090 Besitzer folgendes?:

100 x 1,70 (Ampere --> Ada) x 1,30 (Ada --> Backwell) = 220%

Im ernst? Man hat dann quasi ein SLI? mein Gehirn hat irgendwie immer mit min. 250-300% gerechnet :) Blödes Gehirn - muss auf AI umsteigen.

Nach dem ich diese Seite aufmerksam gelesen habe, denke ich der Blackwell könnte uns bei dem Verbrauch extrem überraschen! Empfehle jedem diese Seite vor allem den Bereich um Powermanagement Verbesserungen genau anzuschauen!
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/3.html

y33H@
2025-01-16, 07:52:03
Was ist bitte PPA? Performance, Power, Area

Kriegsgeier
2025-01-16, 08:02:37
Ich ändere gerade meine Meinung vom Backwell nach dem lesen des Techpowerup Artikels!
Ich denke, die Mehrheit unterschätzt gerade die neue Fähigkeiten der neuen Systeme von Backwell.
Und noch was: es könnte sein, dass ein Paar Sachen zwar auch von ADA unterstützt werden aber erst bei Backwell brauchbar laufen werden!

ChaosTM
2025-01-16, 08:11:21
@Tesseract: Ja, ideal wäre hier ein Belüftung von unten wie im Dynamic O11 oder Fractal Torrent.

In dem Luftkühler steckt ne Menge Know-How. Aber ich bin immer noch skeptisch ob der wirklich liefert. Wie Monstar schon schrieb, könnte der auch ziemlich heiß sein, also als Zieltemp irgendwas um 80°C haben. Lassen wir uns mal überrasschen. Das Video dazu ist aber spannend:

https://youtu.be/-p0MEy8BvYY


Bei den diversen "Hands-ON" Videos von der CES sprechen die Tester von praktisch "unhörbar", aber man weiß zu wenig über Umgebungslärm etc.
Heiß könnte es werden aber 80 wäre noch voll im Rahmen.

Meine AMD 290X lief 2 Jahre lang @ 90° (Chip) und die Spawas @115. Dann noch fast 3 Jahre beim Käufer, einem Bekannten.

Raff
2025-01-16, 08:12:36
Eine 4090 Ti vs 5090 wäre spannend geworden *g

Werte einer "RTX 4090 Ti" gibt es hier: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/

... natürlich dann auch wieder im 5090-Review. :)

MfG
Raff

Linmoum
2025-01-16, 08:17:12
Eine 5090Ti oder Titan wäre auch geil, aber die wird's wieder nicht geben. Diese Gen hat Nvidia ja leider noch weniger Druck, eine solche zu bringen. Vielleicht ja in zwei Jahren wieder.

Relex
2025-01-16, 08:17:56
Auf die Geräuschempfindung kann man absolut gar (!) nichts geben.

Unterschiede im Hintergrundrauschen können sehr extrem, aber kaum bewusst wahrnehmbar sein. Und das reduziert oder erhöht die wahrgenommene Lautstärke dann ebenfalls sehr stark. Im Endeffekt nimmt man dann eben nur den Unterschied zwischen Hintergrundrauschen und Rauschen der Komponente wahr, aber nicht den absoluten Lautstärkepegel.

Auf dem Messegelände wird das Hintergrundrauschen um ein vielfaches höher sein, als bei euch Zuhause.

The_Invisible
2025-01-16, 08:20:37
Auf dem Messegelände wird das Hintergrundrauschen um ein vielfaches höher sein, als bei euch Zuhause.

Er war ja aber in einem externen Raum wo keiner drinnen war, das würde man schon hören.

@Blackwell
Ist für mich ein kleiner "Turing", bringt Fähigkeiten mit die man heute so noch nicht einordnen kann, könnte aber wieder das nächste große Ding werden.

Relex
2025-01-16, 08:24:39
Er war ja aber in einem externen Raum wo keiner drinnen war, das würde man schon hören.



Nope.

Ich seh das alleine schon mit meinem Firmen Notebook.

In der Firma höre ich das teil so gut wie gar nicht, selbst wenn das Büro leer ist und die Klimaanlage aus. Alleine die Lage mitten in der Stadt sorgt für erhöhtes Hintergrundrauschen, das man nicht bewusst wahr nimmt.

Hier auf dem Land bei mir zuhause wirkt das Teil stets 2-3x so laut.

Es ist einfach nicht vergleichbar. Ohne Messung sind die Ergebnisse mMn. völlig wertlos.

Sardaukar.nsn
2025-01-16, 08:39:06
Vielleicht betreibt Nvidia bei der FE ja ab Werk Untervolting oder setzt jetzt mal ein vernünftiges Powerlimit im Sweetspot ohne ernsthaft an Leistung zu verlieren. Bei Lovelace war das ja auch nicht 450 sondern eher bei 350 Watt. Was z.B. Roman gleich im ersten Review kritisiert hat.

Also 5090 FE im (gestrichelten) Sweetspot, dann könnte auch der 2-Slot Kühler passen. Die Partner Karten dann mit Brechstange und vielleicht +10% mehr Leistung und +150-200 Watt?

ChaosTM
2025-01-16, 08:39:22
Muss man schon messen. Wirklich "geräuschlos" ist bei 500W natürlich nicht zu erwarten.
Wertlos ist es aber nicht.

Ich höre meine AIO Pumpe auch gaanz leicht wenn unter Vollast und nicht gespielt wird oder kein Video läuft.
Im Spiel geht das aber völlig unter. Falls das ähnlich kommt ist es kein Problem.
Gleiches gilt für die 4090er.

Lurtz
2025-01-16, 08:40:36
Ich ändere gerade meine Meinung vom Backwell nach dem lesen des Techpowerup Artikels!
Ich denke, die Mehrheit unterschätzt gerade die neue Fähigkeiten der neuen Systeme von Backwell.
Und noch was: es könnte sein, dass ein Paar Sachen zwar auch von ADA unterstützt werden aber erst bei Backwell brauchbar laufen werden!
Bis diese neuen Systeme in großen Spielen wirklich genutzt werden, ist Blackwell kalter Kaffee.

The_Invisible
2025-01-16, 08:55:27
Nope.

Ich seh das alleine schon mit meinem Firmen Notebook.

In der Firma höre ich das teil so gut wie gar nicht, selbst wenn das Büro leer ist und die Klimaanlage aus. Alleine die Lage mitten in der Stadt sorgt für erhöhtes Hintergrundrauschen, das man nicht bewusst wahr nimmt.

Hier auf dem Land bei mir zuhause wirkt das Teil stets 2-3x so laut.

Es ist einfach nicht vergleichbar. Ohne Messung sind die Ergebnisse mMn. völlig wertlos.

Klar braucht es eine Messung, aber wenn zb im Firmenbüro der CPU Lüfter abgeht wegen Kompilierung hört man das auch deutlich raus, selbst wenn daneben ein Kaffeetratsch gehalten wird.

Und er war ja auch mit dem Ohr nahe dran, da würde man sicher was hören.

Bis diese neuen Systeme in großen Spielen wirklich genutzt werden, ist Blackwell kalter Kaffee.

Naja wie gesagt, ist für mich ein kleiner Turing Moment. Was hat man damals über RT & Tensor Cores erst diskutiert. Man ebnet den Weg und wieder mal ist NV vorne...

Relex
2025-01-16, 09:27:54
Vielleicht betreibt Nvidia bei der FE ja ab Werk Untervolting oder setzt jetzt mal ein vernünftiges Powerlimit im Sweetspot ohne ernsthaft an Leistung zu verlieren. Bei Lovelace war das ja auch nicht 450 sondern eher bei 350 Watt. Was z.B. Roman gleich im ersten Review kritisiert hat.




Wenn man das Powerlimit zu niedrig setzt, schwankt die Taktrate und sorgt für einen welligen FPS verlauf, was optisch für Microruckeln sorgt. Zumindest wenn ein Spiel läuft, was die Leistung ausnutzt (was bei Spielen mit Pathtracing so sein sollte)

Das Powerlimit ist von Nvidia also schon "sinnvoll" gewählt, auch wenn es auf den ersten Blick nicht so aussieht.

Unter 80% sollte man mMn. nicht gehen, wenn man Wert auf gute Frametimes legt.


Nvidia könnte natürlich trotzdem den Verbrauch senken, wenn man an der Logik für Basis und Boost Takt arbeitet und dafür sorgt, dass die Karte im Schnitt weniger hoch taktet. Das Problem ist eher die Art und weise, wie ein vom User festgelegtes Powerlimit in das Taktverhalten eingreift.

Kriegsgeier
2025-01-16, 09:28:33
nene, so einfach sehe ich das nicht.

Denn, diese Qualitätssteigerung bei DLSS4 kann zwar auch ADA aber wahrscheinlich nicht so schnell und nicht mit dem Qualitätsgrad. Denn, nur Blackwell verfügt diese Engine, die in komplexen Szenen die Bereiche mit komplexen Geometrie richtig erkennen kann.

Somit wird die Bildqualität bei DLSS NUR bei Blackwell besser sein. Bei ADA weniger.

Relex
2025-01-16, 09:33:02
Dafür gibt es nirgends Hinweise.

Dass manche der RTX Kit features auf Blackwell hardwarebeschleunigt werden ist hingegen bestätigt. Aber das hat nichts mit DLSS zu tun. Das ist reine Mutmaßung von dir.

Kriegsgeier
2025-01-16, 09:37:18
na dann lies mal selbst:
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/4.html

DLSS 4 introduces a transformer-based model, marking a significant shift from traditional convolutional neural networks (CNNs) that were used previously. Transformers use attention mechanisms to focus computational resources on the most relevant parts of the data, enabling better handling of complex rendering scenarios and prioritizing challenging image regions.

Transformers will be used for DLSS Ray Reconstruction, DLSS Super Resolution, and DLAA.

The scalability and efficiency of transformer models allow DLSS 4 to utilize larger datasets and retain more examples from training. These advancements in neural network architecture deliver enhanced graphics performance and visual fidelity, setting a new benchmark for real-time rendering technology.

Kriegsgeier
2025-01-16, 09:39:23
Und genau diese Transformers werden wahrscheinlich wesentlich besser auf die neue Architektur von Backwell optimiert.

dildo4u
2025-01-16, 09:43:20
Laut dem braucht das Framegen int 4 und das ist doch den Wert den NV angibt damit Blackwell bei den Tops gut aussieht.
Das Transformer Modell braucht vermutlich eine höhere Genauigkeit.

Relex
2025-01-16, 10:03:46
na dann lies mal selbst:
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/4.html


Ja schon klar, dass das auf Blackwell schneller läuft. Aber von Unterschieden bei der Bildqualität war keine Rede.

Laut Nvidia wird das Transformer Model für alle GPUs kommen.
Bisher geht man von einem kleinen performanceverlust auf älteren GPUs aus.

Von Bildqualitätsunterschieden zwischen Blackwell und den älteren Generationen war nie die Rede und die Aussagen lassen in keinster Weise darauf schließen.

Nicht dass es ausgeschlossen wäre, dass sich die Qualität unterscheidet, aber aktuell gibt es keine Indizien dafür.

Kriegsgeier
2025-01-16, 10:11:29
Transformers use attention mechanisms to focus computational resources on the most relevant parts of the data, enabling better handling of complex rendering scenarios and prioritizing challenging image regions.

Für mich heißt es, dass bei ADA diese komplexe Bereiche zwar gefunden werden können aber nicht mit der Qualität UND Schnelligkeit berechnet werden können.

The new transformer-based super resolution in DLSS 4 significantly enhances detail retention. Examples include higher fidelity in textures, such as a bag's intricate patterns. Smarter models improve image quality for heavily used features like ray reconstruction and super resolution.

Und hier die Geschwindigkeit auch. Sollte es auf ADA und vor Allem Ampere langsamer laufen, dann wird man von Qualität auf Performance gehen müssen. Somit wäre Blackwell bei der Einstellung Qualität so schnell wie ADA bei Einstellung Ausgewogen.

why_me
2025-01-16, 10:15:33
Wo liest du das da heraus?
Und warum "UND"? Ada ist vielleicht nicht so schnell (falls Int4/FP4 verwendet wird), aber an der Qualität sollte das nichts ändern. Oder sie sind genauso schnell bei schlechterer Qualität. Aber warum beides?

dildo4u
2025-01-16, 10:17:36
Ist ziemlich eindeutig das Lovelace damit klar kommt da es logischerweise auf Lovelace entwickelt wurde da deutlich länger verfügbar.


Meanwhile, enhanced DLSS frame generation benefits both 40 and 50 series users with better image quality, faster performance, and optimized memory use.

Kriegsgeier
2025-01-16, 10:17:46
Weil diese komplexe Bildbereiche sich nicht so effizient finden lassen?
Denn, finden ist das Eine aber dann auch noch "Zeit" haben es qualitativ "hochwertig" zu skalieren?

Will ADA Generation nicht schlecht machen - die Generation ist 1A und wird es bleiben.
Nur denke ich, dass Backwell im Moment noch genau bei dem DLSS4 völlig unterschätzt wird - abseits von der Multi Frame Generation!

Exxtreme
2025-01-16, 10:18:35
Für mich heißt es, dass bei ADA diese komplexe Bereiche zwar gefunden werden können aber nicht mit der Qualität UND Schnelligkeit berechnet werden können.



Das gibt die Aussage, die du da aufführst gar nicht her, sorry. Den Rechenaufwand für diese neuen Modelle können wir gar nicht abschätzen. Und diese Aussage sagt auch nichts über den Rechenaufwand. Kann sogar sein, dass Ampere das problemlos schafft.

Kriegsgeier
2025-01-16, 10:21:32
ok.

PS: kann man DLSS4 auch ohne MFG nutzen? Auf Blackwell meine ich.

why_me
2025-01-16, 10:22:57
Weil diese komplexe Bildbereiche sich nicht so effizient finden lassen?
Denn, finden ist das Eine aber dann auch noch "Zeit" haben es qualitativ "hochwertig" zu skalieren?

Da interpretierst du mMn. zu viel rein. Komplexe Bildbereiche sind die mit viel Bewegung, solche stellen sollte man relativ einfach aus den Bewegunsvektoren bekommen.
Die Bereiche die weniger komplex sind, sind die mit wenig Bewegung, da muss man weniger Rechenleistung investieren.

Relex
2025-01-16, 10:25:05
Für mich heißt es, dass bei ADA diese komplexe Bereiche zwar gefunden werden können aber nicht mit der Qualität UND Schnelligkeit berechnet werden können.



Und hier die Geschwindigkeit auch. Sollte es auf ADA und vor Allem Ampere langsamer laufen, dann wird man von Qualität auf Performance gehen müssen. Somit wäre Blackwell bei der Einstellung Qualität so schnell wie ADA bei Einstellung Ausgewogen.


Also sorry, du ziehst dir das doch komplett aus der Nase.

Du hast keinerlei performanceindikation und dennoch behauptest du dass man bei Ada auf Balanced und bei Ampere auf Performance gehen muss, um die gleiche Performance zu erreichen. Na klar, weil du das so genau aus den nicht vorhandenen Daten extrapolieren kannst.

Also come on. Was für ein Unsinn.


Lass mir ja noch eingehen, dass man spekuliert, ob es qualitätsunterschiede geben könnte. Was aber keinen Sinn ergeben würde, wenn Nvidia selbst Bildqualitätsvergleiche zeigt und dann sagt, dass das Model so auch für alte Karten kommt...

Das was du hier gerade verzapfst endet im gleichen Esotherik nonsense wie die Aussagen, dass FSR ja angeblich auf AMD Karten besser aussieht.


Bei aller Spekulation sollten man schon noch bei den Infos bleiben, die wir haben und nicht wild extrapolieren und sich Dinge ausmalen, für die es aktuell keine Grundlage gibt. Das führt zu nichts.

ChaosTM
2025-01-16, 10:25:12
ok.

PS: kann man DLSS4 auch ohne MFG nutzen? Auf Blackwell meine ich.


Natürlich..

DLSS4 kann man auf allen Karten ab der 2000er Serie nutzen. Nur MFG ist Blackwell exklusiv.

Kriegsgeier
2025-01-16, 10:29:57
Ok, Relex, da bin ich bei dir. Ich habe da zu viel Kaffeeleserei eingebaut - kein wissenschaftliches Vorgehen.

TheAntitheist
2025-01-16, 10:30:41
Weil diese komplexe Bildbereiche sich nicht so effizient finden lassen?
Denn, finden ist das Eine aber dann auch noch "Zeit" haben es qualitativ "hochwertig" zu skalieren?

Will ADA Generation nicht schlecht machen - die Generation ist 1A und wird es bleiben.
Nur denke ich, dass Backwell im Moment noch genau bei dem DLSS4 völlig unterschätzt wird - abseits von der Multi Frame Generation!
die "komplexen" Berechnungen müssen nicht gefunden werden, die sin in den dlls. das Transformer Model kostet ca. 2x soviel Leistung, da haben die GPUs noch genug Luft nach oben. Nvidia hat die Tensor Cores schon immer überdimensioniert für solche Fälle.

Kriegsgeier
2025-01-16, 10:32:42
wo sind die? In dlls? Was sind das für Tierchen?

Exxtreme
2025-01-16, 10:36:41
wo sind die? In dlls? Was sind das für Tierchen?

.dll-Dateien sind Bestandteile des Treibers. :) Und in diesen .dll-Dateien sind auch die DLSS-Modelle drin.

Kriegsgeier
2025-01-16, 10:42:28
quasi sich permanent ändernde Datenkontainer?

Exxtreme
2025-01-16, 10:44:34
quasi permanent sich ändernde Datenkontainer?

Nein, .dll-Dateien sind so eine Art Plugins für Anwendungen. Damit kannst du ein Programm um bestimmte Funktionalitäten erweitern. Und das ist auch der Grund warum Spiele DLSS unterstützen. Die binden einfach die DLSS .dll-Dateien ein und fertig. Und müssen DLSS nicht selber programmieren. Das kommt alles fertig von Nvidia.

Thomas Gräf
2025-01-16, 10:47:18
Was is denn aus Raytracing geworden? Vor 2 jahren ging ja überhaupt nichts ohne Raytracing...

Könnte diese KI der 5090 da mal ne Punktlandung aufzeigen würd ich über die ca.25% mehr Leistung ev hinwegsehen.

Lawmachine79
2025-01-16, 10:48:37
quasi sich permanent ändernde Datenkontainer?
?!?!

Du hast 8 unbeantworte Anrufe von Leonidas. Du bist hier im 3DCenter! Installierst Du Dir auch Rambooster und sowas?

Kriegsgeier
2025-01-16, 10:52:42
ne, was ist das?

PS: danke für die Aufklärung bezüglich dlls. Dlls sind also quasi Plugins - jetzt verstanden!
Raytracing ist doch um Faktor 2 gegenüber ADA schneller geworden. Und 8x gegenüber Ampere!
Zum ersten mal wird RT praktisch nutzbar!

Thomas Gräf
2025-01-16, 10:59:01
ne, was ist das?

PS: danke für die Aufklärung bezüglich dlls. Dlls sind also quasi Plugins - jetzt verstanden!
Raytracing ist doch um Faktor 2 gegenüber ADA schneller geworden. Und 8x gegenüber Ampere!
Zum ersten mal wird RT praktisch nutzbar!

Oh_kay :smile:

Lawmachine79
2025-01-16, 10:59:17
ne, was ist das?

PS: danke für die Aufklärung bezüglich dlls. Dlls sind also quasi Plugins - jetzt verstanden!
Raytracing ist doch um Faktor 2 gegenüber ADA schneller geworden. Und 8x gegenüber Ampere!
Zum ersten mal wird RT praktisch nutzbar!
Ich habe mal mein GPT für Dich angeworfen. Das gute Modell ;)!
https://chatgpt.com/share/6788d7a7-feec-8001-9b80-e6344c11d47a

Relex
2025-01-16, 11:29:21
ne, was ist das?

PS: danke für die Aufklärung bezüglich dlls. Dlls sind also quasi Plugins - jetzt verstanden!
Raytracing ist doch um Faktor 2 gegenüber ADA schneller geworden. Und 8x gegenüber Ampere!
Zum ersten mal wird RT praktisch nutzbar!


RT ist in jeder Gen um Faktor 2x gestiegen. Das heißt aber nicht, dass die FPS um Faktor 2 steigen.

Es kommt immer darauf an, wie hoch der RT Anteil an der gesamten Frametime ist und wie hoch der Anteil der RT Berechnungen ist, die von dem performanceboost bzw. der Änderungen überhaupt profitieren.

Eine 2x gesteigerte Leistung in einem Teilbereich kann die FPS also im theoretischen BestCase um 100% steigen lassen oder aber auch nur um 0,1%.

Kurz gesagt: Es kommt drauf an.

Ohne Messungen kann man dazu keine Abschätzung geben.

Edgecrusher86
2025-01-16, 11:46:31
Werte einer "RTX 4090 Ti" gibt es hier: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/

... natürlich dann auch wieder im 5090-Review. :)

MfG
Raff

Da fehlen aber noch 2048 SM und 24MB L2 Cache. :freak:
Wird nicht die Welt ausmachen, aber vielleicht reden wir über zusätzliche 5-7%, die real auf die Straße kommen, würde der Vollausbau mit ebenfalls 3,0 GHz OC laufen. :cool:

Ich bin mal gespannt, ob die RTX 5090 sich weiter von der RTX 4090 absetzen kann, je brutaler das Setting - da könnte die Speicherbandbreite auch von Vorteil sein.
5K DL-DSR, 6K DL-DSR etwa oder höher (hallo Custom-DSR-Tool ^^). Um die 40% mitsamt RT/PT würde mich ab 5K nicht wundern - mit DLSS dazu jeweils, sollten die fps nicht mehr wirklich gut spielbar sein.

y33H@
2025-01-16, 11:48:07
Laut Nvidia wurde die maximale Ray/Triangle-Intersection-Rate in den RT-Cores bei Blackwell verglichen zu Ada Lovelace verdoppelt, was aber nur ein Teilschritt in der kompletten Raytracing-Rendering-Pipeline ist und damit mitnichten die Fps mal eben verdoppelt werden.

Lurtz
2025-01-16, 11:55:05
Naja wie gesagt, ist für mich ein kleiner Turing Moment. Was hat man damals über RT & Tensor Cores erst diskutiert. Man ebnet den Weg und wieder mal ist NV vorne...
Klar muss man irgendwo anfangen, ich würde aber bezweifeln, dass man als individueller Blackwell-Besitzer groß was davon haben wird. Die 5090 könnte es vielleicht, aber ein High-End-Käufer bleibt ja nicht fünf Jahre oder länger auf der Karte sitzen.

Edgecrusher86
2025-01-16, 12:00:47
Ja, das ist eine Art TITAN V- oder RTX 2080 Ti- / TITAN RTX-Moment (Volta/Turing) - so sehe ich Blackwell auch.
Ein geringer Boost in Rohleistung, aber ein Schritt in die Zukunft der Industrie.

TSMC N3(P) hätte der Serie natürlich gut gestanden - dann wären wir wohl bei 3,0-3,1 GHz Max-Boost gelandet, was dann vielleicht nochmal so + 10% überall gebracht hätte.

Altehardware
2025-01-16, 12:07:23
nein
turing vs ampere +37% per sm
ampere vs ada +45%
blackwell unklar da dynamische alu in sm Zuweisung von +10% bis +27% je sm
Sicher ist nur das durch die verbesserte ser2 das cpu overhead reduziert wurde. Das dürfet viele stalker 2 Spieler freuen da dies in allen rtx karten übernommen wird.
In hardware wird neural shader quasi als api Einzug Erhalten aber per default wird die Auflösung skaliert um die 45% also 748p =1080p als native Ausgabe 1440p=1152p 2160=1496p
Das ist immer Aktiv.
Darum die grob +30% bei ner rtx5070 und knapp 40% der rtx5090 (cpu limitiert)
Ich sagte ja der vergleich hinkt bei dieser Gen
PT wird deutlich beschleunigt da hier die dynamische alu zugewiesen werden können In raster bzw low rt Nutzung wird der fallback Modus greifen wie beim bsp von fc6 sehen kann.
ich denke da an cp2077 mit pt nativ akä 2160p vs 1496p +93% oder 45fps vs 87fps
ad102 vs gb202 nur blöd da dies nicht die gleiche Auflösung ist
Ist es weniger greift ein cpu limit zu was aber eher unwahrscheinlich ist

Relex
2025-01-16, 12:10:55
aber per default wird die Auflösung skaliert um die 45% also 748p =1080p als native Ausgabe 1440p=1152p 2160=1496p
Das ist immer Aktiv.


Quelle?

y33H@
2025-01-16, 12:19:20
[...]Ich werde aus deinen IMHO wirren Posts einfach nicht schlau :freak:

Altehardware
2025-01-16, 12:32:23
Puh quasi nvidia Selbst da man von neural rendering redet in hardware quasi upscaled per default ich nahm nur an das man 25% renderscale nutzt das kommt mit den fps annahmen gut hin.
Die Ursache liegt an der sm Struktur die volle 128 hybrid alu nutzt das bringt wenn man min 16int32 Bereitstellen muss von 96-112alu für fp32 diese müssen aber direkt per code angewiesen werden ist das nicht der fall greift die ampere Hardwarevorgabe zu das sind 80 fp32 und teilweise mit code Zuweisung dann 96fp32 wenn der Treiber erkennt das dass Spiel neuen code ab dx12_2 nutzt die Diskrepanz zu den fc6 werten zu den Realistischen alu Ausgabe in fp32 per sm ergibt sich daraus daher muss ein upscaler per default an sein und da jensen nur von ai per default sprach ist das sehr wahrscheinlich.

Relex
2025-01-16, 12:47:41
"quasi upscaled per default"

Wo nimmst du diese Info her. WO???

Das wird hier langsam wirklich ein esoterik Thread. Ich glaub ich hör jetzt auf, mitzulesen :freak:

Exxtreme
2025-01-16, 12:50:09
Interpretiert jetzt nicht zuviel Zeug in die Aussagen von Nvidia. Die können sehr gut Marketing und Stöckchen hinhalten. ;)

mksn7
2025-01-16, 13:09:46
Also, wenn man von "neural rendering" in der Hardware spricht, wird es quasi standardmäßig hochskaliert. Ich ging davon aus, dass ein Render-Scale von 25% verwendet wird, was gut mit den angenommenen FPS-Werten übereinstimmt.


Das ist falsch. "Neural Rendering" hat mit der Auflösung nichts zu tun. Tensor cores sind bislang in allgemeinem shader code schwer zu verwenden, weil die Inputs einer tensor instruction über einen gesamten Warp (und sogar einen gesamten thread block seit Hopper) verteilt sind. Es müssen also größere Gruppen an threads den gleichen Code ausführen. Bisher spuckt der rasterizer quads/4er Gruppen aus wegen Texturfilterung und Gradienten. Ich weiß nicht genau wie das in der Praxis implementiert wird.


Die Ursache liegt in der SM-Struktur, die die vollen 128 Hybrid-ALUs nutzt. Das ist wichtig, wenn man mindestens 16 INT32 bereitstellen muss. Für FP32 werden dann 96-112 ALUs benötigt. Diese müssen jedoch direkt per Code angesprochen werden. Wenn das nicht der Fall ist, übernimmt die Ampere-Hardwarevorgabe: Das bedeutet, dass 80 FP32-ALUs genutzt werden, und mit Code-Zuweisung können es auch 96 FP32-ALUs sein, wenn der Treiber erkennt, dass das Spiel neuen Code ab DX12_2 verwendet.

Die Diskrepanz zwischen den FC6-Werten und den realistischen ALU-Ausgaben in FP32 pro SM ergibt sich daraus. Daher muss ein Upscaler standardmäßig aktiviert sein. Da Jensen nur von AI als Standard sprach, ist es sehr wahrscheinlich, dass dies der Fall ist.

Wer verteilt ALUs an wen? Die bleiben hübsch an Ort und Stelle! Die warten schließlich darauf dass sie von ihrem Scheduler eine Instruktion zugewiesen bekommen. Da gibts keine feste Aufteilung, und aus Assembler Sicht (geschweige denn API wie dx12_2) ist nicht zu erkennen, wieviele Einheiten was tun, und da wird auch nichts zugewiesen oder verteilt.

HOT
2025-01-16, 14:54:11
https://wccftech.com/nvidia-rtx-4070-discontinued-in-january-4060-4060-ti-in-q1-2025/

Demnach müssten die 5060er Q2 kommen.

Edgecrusher86
2025-01-16, 15:30:28
Ende Q1 könnte auch möglich sein, ansonsten Q2.

Wobei man dann spätestens im Februar etwas ankündigen müsste. Zumeist sind es ja doch ein paar Monate dazwischen. Q2 erscheint somit wahrscheinlich.

Seth
2025-01-16, 15:45:10
Ich finde ja eigentlich die 5090 FE sehr interessant, aber ich bin mir unsicher bei dem Kühler in Verbindung mit einem Noctua NH-D15. Zwischen Grafikkarte und CPU Kühler ist nur ca. 1cm Platz. Der FE Kühler würde also zum großen Teil direkt gegen den NH-D15 blasen, bzw eigentlich in seine Kühllamellen rein.
Vermutlich macht in der Konstellation ein Custom Design von Asus oder so mehr Sinn oder was meint ihr?

mironicus
2025-01-16, 15:51:41
Vielleicht fangen dann ja die Kühllamellen des Noctua an zu glühen. Ein super Leuchteffekt! :D

Radeonfreak
2025-01-16, 15:52:52
Zwischen Grafikkarte und CPU Kühler ist nur ca. 1cm Platz.

So much Space, wow.

Ich hab da nur 1mm Platz.

Wuge
2025-01-16, 16:00:29
Lt. Hardwareluxx ist der L2 zu ADA unverändert! (wobei nicht klar ist, wieviel in den jeweiligen SKUs aktiv ist).

Lawmachine79
2025-01-16, 16:07:35
Zwischen Grafikkarte und CPU Kühler ist nur ca. 1cm Platz.
Wie willst Du den nutzen? LEDs?

Lehdro
2025-01-16, 16:12:22
Ich finde ja eigentlich die 5090 FE sehr interessant, aber ich bin mir unsicher bei dem Kühler in Verbindung mit einem Noctua NH-D15. Zwischen Grafikkarte und CPU Kühler ist nur ca. 1cm Platz. Der FE Kühler würde also zum großen Teil direkt gegen den NH-D15 blasen, bzw eigentlich in seine Kühllamellen rein.

Nee, der bläst zum überwiegenden Teil vor und hinter dem Tower vorbei. Auf der Höhe des Noctuas sitzt die Platine der 5090, da bläst also nix durch hoffe ich ;D

Thomas Gräf
2025-01-16, 16:15:44
Poh, der NH-D15 ballert das wech.
Is Dein Case oben offen?

PHuV
2025-01-16, 16:33:36
PS: danke für die Aufklärung bezüglich dlls. Dlls sind also quasi Plugins - jetzt verstanden!
Plugin paßt meiner Meinung nach nicht so ganz. Es sind Bibliotheken. Du machst im Programm bzw. in der App einen Aufruf einer komplexen Funktion, die dann in dieser Bibliothek liegt.

Wenn Du den MSFS2020 mal benutzt hättest, hättest Du damit schon eher mal Berührung gehabt, siehe
https://github.com/beeradmoore/dlss-archive/releases
https://github.com/beeradmoore/dlss-swapper/tree/main

Dann hättest Du sie schon längst mal von Hand getauscht. :wink:

Nicht jede DLL ist ein Plugin, aber eine DLL kann ein Plugin sein.

Raytracing ist doch um Faktor 2 gegenüber ADA schneller geworden. Und 8x gegenüber Ampere!

Nicht ganz:
4090 3. Generation 191 RT TFLOPS gegen 5090 4. Generation 360 RT TFLOPS.

siehe Folien
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/ bei den technischen Daten.
https://pics.computerbase.de/1/1/5/6/7/6-0c59cf69c1ae3e7b/9-2160.1430ee29.png

MiamiNice
2025-01-16, 16:45:36
Ich finde ja eigentlich die 5090 FE sehr interessant, aber ich bin mir unsicher bei dem Kühler in Verbindung mit einem Noctua NH-D15. Zwischen Grafikkarte und CPU Kühler ist nur ca. 1cm Platz. Der FE Kühler würde also zum großen Teil direkt gegen den NH-D15 blasen, bzw eigentlich in seine Kühllamellen rein.
Vermutlich macht in der Konstellation ein Custom Design von Asus oder so mehr Sinn oder was meint ihr?

IMO ist die FE ein No-Go für jeden ohne CPU WaKü (ich meine keine AIO, mit Radi oben eingebaut, vielleicht ist Radi vorne noch OK k.a.). Egal ob die FE die Luft nach oben oder gegen das Fenster bläst, das Gehäuse wärmt sich massiv auf mit 400--600 Watt nur für die GPU. Das Delta sinkt, die CPU Kühlung versagt.
Abluft aus der GPU muss direkt aus dem Case hinaus, wenn wir über High End Karten sprechen. Alles andere ist Murks und kostet die restliche HW unnötig Lebenszeit.

PHuV
2025-01-16, 16:53:55
Da bin ich ja jetzt gespannt, wie sich mein neues Gehäuse mit 4x200mm 2x120mm Lüftern so macht.

Thomas Gräf
2025-01-16, 17:00:55
Für die FE is der Kamineffekt von vorn nach hinten Popo.
Einzige was gehen würde is direkt von unten nach oben raus und bissl nach hinten.
Ansonsten wie Miami schreibt, CPU/Kraka im custom Loop, dann den Rest mit Case Lukü.

PS. hab zwei große X-Flow Radis in ein Mid Case reinbekommen, oben und seitlich.
Die saugen den gesamten Case Inhalt raus wenn es sein muss. ;)

Tesseract
2025-01-16, 17:12:46
das Gehäuse wärmt sich massiv auf mit 400--600 Watt nur für die GPU. Das Delta sinkt, die CPU Kühlung versagt.
für moderne airflow-cases sind 600W peanuts, die juckt das nicht. in einem torrent könnte die GPU wahrscheinlich auch 2000W haben und das wär kein problem.

Für die FE is der Kamineffekt von vorn nach hinten Popo.
der kamineffekt ist in einem aktiv belüfteten system quasi ein rundungsfehler.

ChaosTM
2025-01-16, 17:23:29
für moderne airflow-cases sind 600W peanuts, die juckt das nicht. in einem torrent könnte die GPU wahrscheinlich auch 2000W haben und das wär kein problem.





Ja, mein Meshify könnte selbst 2 solcher Karten locker entlüften, ohne besonders laut zu werden.

MiamiNice
2025-01-16, 17:23:47
Sorry Tesseract, aber ich muss Dir leider massiv widersprechen. Ich habe 7x 140er im Case (O11 XL Dymanic) und als ich die 3090 erwarb musste ich einen Monat ohne Wasserblock auskommen. Die Strix 3090 OC pustet direkt gegen das Fenster ootb. Glaub das sind nur 400 Watt mit ootb Bios. Aber das hat schon gereicht um das Fenster auf eine Temp zu heizen, das man es nicht mehr anfassen kann. Ca. 30cm daneben ist meine Maus, ich habe an der Hand die Hitze des Glases gespürt. Die 5090 hat nochmals rund 200 Watt mehr. Mehr als 3 140er oben und unten haben die wenigsten Gehäuse. Mein Corsair 1000D hatte oben 4 und vorne 4 140er Lüfter und größer geht es kaum. Das wären allerdings auch nur insgesamt 2 Lüfter mehr. Ich vermute Du unterschätzt ein wenig die Hitzeleistung von 400 Watt und aufwärts. Die Wärme ist im Case und egal wieviel Luft Du da durch wedelst, das Delta am CPU Lüfter sinkt auf jeden Fall. Vielleicht mit 7 Delta Lüftern nicht (kennt die noch wer von damals mit 5 U/min und mehr XD) aber die Geräuschkulisse wäre enorm.

Hakim
2025-01-16, 17:27:59
Egal wie gut die Kühlung auch ist, ich habe früher wo ich noch fettere Karten hatte und teilweise SLI, nach paar Stunden spielen immer gemerkt wie das Zimmer langsam aber sicher richtig warm wurde, gerade im Sommer. Glaub 4090 oder jetzt 5090 wären bei mir Schlimmer :)

Linmoum
2025-01-16, 17:28:22
Tesseract sprach aber auch von modernen airflow-cases, was das O11D XL nun wahrlich nicht ist. ;)

woodsdog
2025-01-16, 17:29:55
Naja, die FE pustet es ja nicht gegen die Seitenwand sondern nach oben raus aber DEIN Problem beginnt ja bereits damit, dass ein 500+W Heizklotz direkt neben dir auf dem Tisch steht.

Tesseract
2025-01-16, 17:39:11
Ich habe 7x 140er im Case (O11 XL Dymanic) und als ich die 3090 erwarb musste ich einen Monat ohne Wasserblock auskommen. Die Strix 3090 OC pustet direkt gegen das Fenster ootb.

eine karte quasi ohne blowthrough in einem schaufenstercase ist etwas völlig anderes als eine FE in einem airflowcase. du unterschätzt wieviel luft zwei riesige lüfter direkt von vorne nach hinten ohne verwinkelungen und nahezu ohne obstruktion selbt bei moderaten drehzahlen durchschaufeln können. das ist eine ganz andere welt.

MiamiNice
2025-01-16, 17:40:47
Tesseract sprach aber auch von modernen airflow-cases, was das O11D XL nun wahrlich nicht ist. ;)

Du pustest trotzdem bei Volllast 575 Watt direkt in den CPU Kühler. Alle CPUs haben Temp abhängige Boost Raten. Das ist ein Teufelskreis. Weil man, gerade bei RT Games, viel CPU Power braucht. Die CPU kann aber kaum noch gekühlt werden, weil kein/kaum Delta zwischen Luft im Case und CPU Kühler/Radi da ist. Gerade Leute mit 13/14. Intel und Luft oder AIO mit Radi oben, werden massiv kotzen mit 5090 FE.

Seth
2025-01-16, 17:44:58
Wie willst Du den nutzen? LEDs?
Verstehe die Frage nicht. Will den Platz für Luft nutzen.
Nee, der bläst zum überwiegenden Teil vor und hinter dem Tower vorbei. Auf der Höhe des Noctuas sitzt die Platine der 5090, da bläst also nix durch hoffe ich ;D
Ich glaube du unterschätzt die Größe von dem Kühler. Die 5090 FE ist nur 4cm länger als die 6900XT.
Poh, der NH-D15 ballert das wech.
Is Dein Case oben offen?

Für die FE is der Kamineffekt von vorn nach hinten Popo.
Einzige was gehen würde is direkt von unten nach oben raus und bissl nach hinten.
Ansonsten wie Miami schreibt, CPU/Kraka im custom Loop, dann den Rest mit Case Lukü.

PS. hab zwei große X-Flow Radis in ein Mid Case reinbekommen, oben und seitlich.
Die saugen den gesamten Case Inhalt raus wenn es sein muss. ;)


Habe ein be quiet! Light Base 600 in horizontaler Ausrichtung. Links (klassisch also unten) 3 120er und rechts (klassisch oben) auch 3 120er Lüfter. Also Durchzug in die Richtung die auch der FE kühler bläst.
Nur eben die Befürchtung dass der Auslass vom Kühler der FE zu "blockiert" ist und daher nicht so effektiv ist.

MiamiNice
2025-01-16, 17:50:45
Falls Du eine FE einbaust, würden mich, und wahrscheinlich viele andere hier, die Werte interessieren. Für mich, sieht das so aus, als würdest Du mit einer 5090FE aus dem CPU Kühler eine CPU Heizung machen.

x-force
2025-01-16, 17:58:29
Du pustest trotzdem bei Volllast 575 Watt direkt in den CPU Kühler. Alle CPUs haben Temp abhängige Boost Raten. Das ist ein Teufelskreis. Weil man, gerade bei RT Games, viel CPU Power braucht. Die CPU kann aber kaum noch gekühlt werden, weil kein/kaum Delta zwischen Luft im Case und CPU Kühler/Radi da ist. Gerade Leute mit 13/14. Intel und Luft oder AIO mit Radi oben, werden massiv kotzen mit 5090 FE.

mal nachgeguckt wie viel mhz dich 20° auf dem 9800x3d kosten?
ich würde vielleicht 50mhz schätzen, also quasi egal.

Falls Du eine FE einbaust, würden mich, und wahrscheinlich viele andere hier, die Werte interessieren. Für mich, sieht das so aus, als würdest Du mit einer 5090FE aus dem CPU Kühler eine CPU Heizung machen.
das problem ist in meinen augen viel mehr, dass der cpu lüfter den luftstrom unterbricht. der müsste 90° nach rechts gedreht werden.
ich frage mich, wann den kühlerherstellern diese offensichtlichkeit auffällt.

Tesseract
2025-01-16, 18:15:55
Falls Du eine FE einbaust, würden mich, und wahrscheinlich viele andere hier, die Werte interessieren. Für mich, sieht das so aus, als würdest Du mit einer 5090FE aus dem CPU Kühler eine CPU Heizung machen.

habe das auf die schnelle gefunden wo O11, torrent und CPU temp bei GPU last drin sind, zur veranschaulichung:

x-force
2025-01-16, 18:22:15
habe das auf die schnelle gefunden wo O11, torrent und CPU temp bei GPU last drin sind, zur veranschaulichung:

leider praktisch wertlos mit stock fans und ohne feste drehzahl

AtTheDriveIn
2025-01-16, 18:26:49
Finde das zu Gehäusebelüftung recht interessant https://youtu.be/lVMCqR_zbKU?si=4J6jgexDDyRjYFJV

VooDoo7mx
2025-01-16, 19:53:08
Meine 4090 brauch je nach Titel 200-300W.
CPU so zwischen 30 und 70W je nach Titel.

Lian Li Lancool 2 Mash mit 2 140 vorne, 1 120 hinten, 2 120 unten, billig CPU AIO oben angebracht.
Alle Lüfter auf 500-600rpm. Grafikkartenlüfter auf 900rpm (weniger geht nicht)
Perfekter Kamineffekt. Warme Luft kommt oben raus, die AIO entlüftet das Gehäuse.
Selbst wenn jetzt eine 5090 da 30% mehr Strom brauchen würde wäre das absolut kein Problem. Aber klar, man braucht natürlich mindestens custom water loop sonst geht natürlich gar nichts. :ugly:

Und natürlich muss auch immer alles bis an die Kotzgrenze übertaktet sein, so dass der PC auch jederzeit abstürzen kann. Wo bleibt denn sonst der Nervenkitzel?
Und der PC sollte auch schon Minimum 200W idle brauchen. Strom sparen ist für Geringverdiener.

gedi
2025-01-16, 20:04:19
Meine 4090 brauch je nach Titel 200-300W.
CPU so zwischen 30 und 70W je nach Titel.

Lian Li Lancool 2 Mash mit 2 140 vorne, 1 120 hinten, 2 120 unten, billig CPU AIO oben angebracht.
Alle Lüfter auf 500-600rpm. Grafikkartenlüfter auf 900rpm (weniger geht nicht)
Perfekter Kamineffekt. Warme Luft kommt oben raus, die AIO entlüftet das Gehäuse.
Selbst wenn jetzt eine 5090 da 30% mehr Strom brauchen würde wäre das absolut kein Problem. Aber klar, man braucht natürlich mindestens custom water loop sonst geht natürlich gar nichts. :ugly:

Und natürlich muss auch immer alles bis an die Kotzgrenze übertaktet sein, so dass der PC auch jederzeit abstürzen kann. Wo bleibt denn sonst der Nervenkitzel?
Und der PC sollte auch schon Minimum 200W idle brauchen. Strom sparen ist für Geringverdiener.

Also meine 4090 benötigt in neueren Titeln unter 4k immer an die 500w (ist eine Inno3d Ultra). Ich wundere mich immer über eure Fantasiewerte ...

Thomas Gräf
2025-01-16, 20:22:12
...
Habe ein be quiet! Light Base 600 in horizontaler Ausrichtung. Links (klassisch also unten) 3 120er und rechts (klassisch oben) auch 3 120er Lüfter. Also Durchzug in die Richtung die auch der FE kühler bläst.
Nur eben die Befürchtung dass der Auslass vom Kühler der FE zu "blockiert" ist und daher nicht so effektiv ist.

Ja man sieht doch gut aus. Die 5090 und der Noctua werden ihre Hitze schon los werden.
Genau dann müssem die 6x120'er den Hitzestau vermeiden, das schaffen die in einem gewissen Rahmen sicherlich.
Musst im BIOS ev mit früher Temp Notabschaltung bei SysTemp testen damit Du im Limit keinen Schaden kriegst.
RAM, Bord und nvme brauchen ja auch bissl Reserve.

Sardaukar.nsn
2025-01-16, 20:34:29
Golem hat sich heute noch mal mit dem neuen "Blackwell Flip Metering" beschäftigt. Finde ich ein sehr spannendes Thema, wenn es wirklich funktioniert und könnte eine große Sache sein. Ich hoffe das einige Reviews darauf eingehen. Macht schon mal neugierig: https://www.golem.de/news/geforce-rtx-blackwell-dlss-4-kann-mehr-als-nur-bilder-generieren-2501-192491.html

Mit Flip-Metering in DLSS 4 hat Nvidia möglicherweise eine Lösung für Spielszenen geschaffen, in denen sichtbare Ruckler entstehen, obwohl die Bildrate für flüssige Darstellung ausreicht.

Troyan
2025-01-16, 20:36:42
Techpowerup hat alle Folien:
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/images/neural-rendering-38.jpg
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/4.html

gedi
2025-01-16, 20:43:11
Du pustest trotzdem bei Volllast 575 Watt direkt in den CPU Kühler. Alle CPUs haben Temp abhängige Boost Raten. Das ist ein Teufelskreis. Weil man, gerade bei RT Games, viel CPU Power braucht. Die CPU kann aber kaum noch gekühlt werden, weil kein/kaum Delta zwischen Luft im Case und CPU Kühler/Radi da ist. Gerade Leute mit 13/14. Intel und Luft oder AIO mit Radi oben, werden massiv kotzen mit 5090 FE.

Was bei 600w massiv ansteigt. Ist die selektive Kerntemperatur. Bei 300w gleich Null, bei 450 beträgt das Delta unter Wasser 5°C. Bei 500w (hier defalult) sind es bereits 12°C und bei 600w sind es derer 25°C!

Es kann mir keiner erzählen, dass die Dinger einfach zu kühlen sind!

Seth
2025-01-16, 20:50:22
Du pustest trotzdem bei Volllast 575 Watt direkt in den CPU Kühler. Alle CPUs haben Temp abhängige Boost Raten. Das ist ein Teufelskreis. Weil man, gerade bei RT Games, viel CPU Power braucht. Die CPU kann aber kaum noch gekühlt werden, weil kein/kaum Delta zwischen Luft im Case und CPU Kühler/Radi da ist. Gerade Leute mit 13/14. Intel und Luft oder AIO mit Radi oben, werden massiv kotzen mit 5090 FE.

Hat ja nichts direkt mit FE zu tun. Bei jeder luftgekühlten Karte gehen die gesamten sagen wir 575W in das Gehäuse und müssen am CPU Towerkühler vorbei, oder durch den CPU-(AIO)Radiator (wenn oben montiert).

Hübie
2025-01-16, 21:49:23
Der weitaus grösste Teil des Stromverbrauchs bei gddr Speicher fällt beim Transfer an, nicht beim idle-Refresh, 3GB vs 2GB dürfte also den Stromverbrauch nur kaum messbar erhöhen. (Wenn eine neue Fertigung für die 3GB Module verwendet wird dürfte der Verbrauch deutlich tiefer sein, aber keine Ahnung wie da die Pläne der Hersteller sind, und selbstverständlich würden davon auch 2GB Module in der neuen Fertigung profitieren.)

Danke für deine Ergänzungen. Ändert ja nichts an meiner Aussage, denn auch bei 3 GB findet zwangsläufig mehr Datentransfer statt.

Ich habe mal mein GPT für Dich angeworfen. Das gute Modell ;)!
https://chatgpt.com/share/6788d7a7-feec-8001-9b80-e6344c11d47a

;D;D;D;D;D;D;D;D Ich kann nicht mehr... Made my day!

The_Invisible
2025-01-16, 22:18:32
Golem hat sich heute noch mal mit dem neuen "Blackwell Flip Metering" beschäftigt. Finde ich ein sehr spannendes Thema, wenn es wirklich funktioniert und könnte eine große Sache sein. Ich hoffe das einige Reviews darauf eingehen. Macht schon mal neugierig: https://www.golem.de/news/geforce-rtx-blackwell-dlss-4-kann-mehr-als-nur-bilder-generieren-2501-192491.html

Vor allem interessant für das OLED VRR-Flicker Problem. AlanWake2 bekommt das ja nativ, wäre der perfekte Testkandidat :D

Christopher_Blair
2025-01-16, 22:32:21
Vor allem interessant für das OLED VRR-Flicker Problem. AlanWake2 bekommt das ja nativ, wäre der perfekte Testkandidat :D

Benötigt flip metering support durch das Spiel?
OLED vrr flackern habe ich leider je nach Szene in forza Motorsport.

crux2005
2025-01-16, 22:43:46
Naja wie gesagt, ist für mich ein kleiner Turing Moment. Was hat man damals über RT & Tensor Cores erst diskutiert. Man ebnet den Weg und wieder mal ist NV vorne...

Sehe ich als Laie auch so.

Danke für deine Ergänzungen. Ändert ja nichts an meiner Aussage, denn auch bei 3 GB findet zwangsläufig mehr Datentransfer statt.


;D;D;D;D;D;D;D;D Ich kann nicht mehr... Made my day!

Erst jetzt gesehen. Woof.

:ulol4:

Sardaukar.nsn
2025-01-16, 22:53:32
Ich sehe Flip Metetring auch als potentielle Alternative zu VRR bzw. G-Sync. Konstante 120hz/fps und minimale Frame Times. Dellen im Verlauf werden mit generierten Frames aufgefüllt. Klingt eigentlich zu gut um wahr zu sein.

@Hübie: Danke für den Lacher!

Relex
2025-01-17, 00:05:44
Flip metering klingt sehr interessant, aber ich würde mir davon erstmal nicht zu viel erwarten.

In dem Beispiel hier liegt die Framerate bei 300 FPS und eine Schwankung zwischen 1 und 6 ms bzw. ein äquivalent dazu bei niedrigerer Framerate ist für "normales" 2x FG z.B. sehr unüblich.

So wie es aussieht ist das wirklich nur nötig, um das Multi Frame Gen (vermutlich dann auch mit der nötigen geringen latenz) ordentlich zu pacen, da es wohl sonst größere Probleme geben kann.
Nvidia hat ja auch immer wieder betont, dass es für MFG gebraucht wird. Der Graph mit Flip metering On ist halt viel eher das, was ich mit bisheriger Frame Gen Technik bei 2x FG erwarten würde. Flip metering stellt eben sicher, dass das mit 3x und 4x FG weitehrin klappt.


Wenn das immer die Frametimes verbessern kann, z.B. mit 2x FG, wäre das schon sehr geil, aber ich würde da erstmal tests abwarten. Momentan glaub ich da nicht so recht dran.




https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91020&stc=1&d=1737068419

Kriegsgeier
2025-01-17, 06:28:55
lol, gerade erst draufgeklickt :)

Ich glaube das ist kompliziert. Erkläre es nochmal, als würdest Du es einem AMD-Grafikkartenkäufer oder einem Golden Retriever erklären:

Für den Golden Retriever:
Eine DLL ist wie dein Lieblingsball. Du holst ihn, wenn du spielen willst, und dein Kumpel kann ihn auch benutzen, wenn er werfen will. Es ist besser, einen Ball zu teilen, als dass jeder seinen eigenen Ball mitbringt. 🐾

Wenn der Ball fehlt, sitzt du traurig da und denkst: "Wie soll ich jetzt spielen?"

HOT
2025-01-17, 09:42:30
https://videocardz.com/newz/nvidia-reveals-die-sizes-for-gb200-blackwell-gpus-gb202-is-750mm%c2%b2-features-92-2b-transistors

N5-Derivat 4N ist der genutzte Prozess. Also genau 0,0 Fortschritt ggü. Ada, das erklärt, dass es quasi keinen Gewinn bei Perf/W gibt. GB205 ist mit 263mm² erstaunlich groß.

dildo4u
2025-01-17, 09:46:17
Wenn sie 4070S Performance erreichen ist es natürlich billiger in der Herstellung genau das war das Ziel.
Nur so kommst du auf 550$ und die Marge ändert sich nicht.

Ich Tippe drauf das 5070 und 9700 dort einordnen.


https://i.ibb.co/Jsn99wT/Screenshot-2025-01-17-094910.png (https://ibb.co/6WYkk7S)

https://www.computerbase.de/artikel/grafikkarten/grafikkarten-preis-leistungs-verhaeltnis.87048/

Kriegsgeier
2025-01-17, 10:26:34
https://videocardz.com/newz/geforce-rtx-5090d-reviewer-says-this-generation-hardware-improvements-arent-massive

Neurosphere
2025-01-17, 10:27:52
Ich bezweifel das Blackwell und gerade die 5090 SOOO schlecht wird wie hier einige denken.

why_me
2025-01-17, 11:17:48
https://videocardz.com/newz/geforce-rtx-5090d-reviewer-says-this-generation-hardware-improvements-arent-massive

Beide karten herunter getaktet auf gleichen takt und gleiche Bandbreite. Also ein kleiner Nachteil für die 5090, die ja 32% mehr shader hat, sollte dafür dann eigentlich auch mehr Bandbreite bekommen.

Werte klingen jetzt nicht so abwegig. +32% shader, die nicht 100% skalieren, da kommen +20% Leistung schon ca hin.
Die Bandbreite wenn sie nicht begrenzt wird, wird sicher noch ein paar Prozent bringen, aber viel mehr sollte man denke ich auch nicht erwarten.
Würde auch zu den ca.30% die sie unbegrenzt schneller als eine 4090 sein soll passen.

basix
2025-01-17, 12:17:09
Flip metering klingt sehr interessant, aber ich würde mir davon erstmal nicht zu viel erwarten.

[...]

Wenn das immer die Frametimes verbessern kann, z.B. mit 2x FG, wäre das schon sehr geil, aber ich würde da erstmal tests abwarten. Momentan glaub ich da nicht so recht dran.

Flip Metering ist eine HW-Lösung für das Frame-Pacing Problem. In SW kriegt man das anscheinend nicht so akkurat hin wie gewünscht. Das sollte auch bei 2x FG einen Vorteil bringen, die DF Vorabtests sahen vielversprechend aus (4x FG zeigte eine geringere Frametime-Varianz als das bisherige 2x FG). Flip Metering zusammen mit der verbesserten FG Performance sollte einen schönen Boost für FG ergeben.

Bei Blackwell packt Nvidia viele Dinge rein, die über die reine GPU-Performance Erhöhung hinausgehen und dennoch das gefühlte Spielerlebnis verbessern. Das finde ich gut. Und man sieht daran auch, das wir uns stark dem abnehmenden Grenzertrag sowie dem "End of Moore's Law" in allen Dimensionen nähern. Die nächste GPU-Generation sollte aufgrund N3P zwar nochmals gut zulegen können, doch den Rest verorte ich bei "Seiten Spielfeldern" wie DLSS und Neural Rendering. Obwohl bei letzterem die Adaptionsrate von Entwicklern entscheidend sein wird und nicht was die HW kann.

N5-Derivat 4N ist der genutzte Prozess. Also genau 0,0 Fortschritt ggü. Ada, das erklärt, dass es quasi keinen Gewinn bei Perf/W gibt. GB205 ist mit 263mm² erstaunlich groß.

GB205 ist ziemlich genau so gross, wie man es anhand der 294mm2 von AD104 hat erwarten können (260...270mm2). Man hat zwar 20% weniger SM aber SI, L2$, Display, Video etc. sind ja immer noch gleich oder ähnlich gross.

Edit:
Was mich momentan am meisten interessiert ist, wie gut UV klappt. Auf den Nvidia Folien steht 2x Power Efficiency bei MaxQ Karten. Ich hoffe das lässt sich auf UV Desktop-Karten transferieren :)

ecodriver
2025-01-17, 12:20:39
Europa UVP sind raus (laut Golem (https://www.golem.de/news/geforce-rtx-5000-blackwell-nvidia-verraet-europreise-fuer-neue-grafikkarten-2501-192519.html)):
5900 - 2350€
5800 - 1180€
5700 Ti - 884€

00-Schneider
2025-01-17, 12:23:15
Für die guten Customs dann wahrscheinlich +200-300€.

Kriegsgeier
2025-01-17, 12:36:06
NVIDIA GeForce RTX 5090 appears in first Geekbench OpenCL & Vulkan leaks

https://videocardz.com/newz/nvidia-geforce-rtx-5090-appears-in-first-geekbench-opencl-vulkan-leaks

ChaosTM
2025-01-17, 12:50:07
Für die guten Customs dann wahrscheinlich +200-300€.


So ca.
2599 für die "billigen" und bis zu 3k für die flüssigkeitsgekühlten

Kriegsgeier
2025-01-17, 12:57:27
dann können die Karten andere kaufen. Mehr als 2700€ zahle ich aus Prinzip nicht!

dargo
2025-01-17, 13:07:03
Wolltest du nicht zuerst 5k ausgeben? Oder verwechsle ich gerade was? :tongue:

HOT
2025-01-17, 13:07:43
Er schwächelt ein wenig :freak:

Kriegsgeier
2025-01-17, 13:08:36
ja, aber für 2! Wenn die DInger nahe 2000€ zu haben sein wären.

Exxtreme
2025-01-17, 13:08:41
Nein nein, er wollte, dass sie 5k kosten damit sie verfügbar bleiben und nicht sofort ausverkauft sind.

Ach ja, auf UVP gebe ich gar nichts. Kann gut drüber liegen aber auch drunter. Ich habe für meine 1650 EUR gezahlt was ganz gut unter der UVP war.

HOT
2025-01-17, 13:12:36
Na ja, ich glaub aber nicht, dass das besonders knapp wird abgesehen von den ersten 2 Wochen Anfangshype (da muss man entweder Tag1 bestellen oder 3 Wochen später), da die Karten a.) nicht so ein bombiger Sprung sind und b.) die Menge groß genug sein sollte, die NV anbieten wird.

DrFreaK666
2025-01-17, 13:13:25
... Ach ja, auf UVP gebe ich gar nichts... was ganz gut unter der UVP war.

:ugly:
Ja was jetzt?

Exxtreme
2025-01-17, 13:14:30
:ugly:
Ja was jetzt?

Das war nur eine Feststellung, die zeigen soll, dass UVP keinen so Rieseneffekt hat. :freak:

monstar-x
2025-01-17, 13:17:23
dann können die Karten andere kaufen. Mehr als 2700€ zahle ich aus Prinzip nicht!

Wie jetzt? Ich dachte du willst mindestens 3500€ bezahlen damit du Garantiert eine bekommst und jetzt willst du keine 2700€ mehr bezahlen?

Wie eine Fahne im Wind ;D

:wink:

E39Driver
2025-01-17, 13:20:38
Wie jetzt? Ich dachte du willst mindestens 3500€ bezahlen damit du Garantiert eine bekommst und jetzt willst du keine 2700€ mehr bezahlen?

Wie eine Fahne im Wind ;D

:wink:
Immer dieses Proletariat was nur 2700€ für eine Grafikkarte zahlen kann :biggrin:

basix
2025-01-17, 13:27:09
Ich kaufe mir natürlich nur die GB202 Quadro für 10k+. Alles andere ist mir eindeutig zu "niederklassig". Also, aus dem Weg, ihr Geringverdiener! ;D

Apropos Quadro:
Der 5090 FE Kühler wäre ein schönes Upgrade gegenüber dem Blower.

HOT
2025-01-17, 13:33:08
Na ja mit dem 600W-Blower musst ja wirklich schon Flugzeugtechnik einsetzen :eek:

basix
2025-01-17, 13:44:28
Das Engineering, welches in den FE-Kühler geflossen ist, finde ich sehr nice und auch beeindruckend. Siehe dazu das Video von Gamers Nexus. Evtl. sehen wir Spuren davon auch bei AIB-Karten der nächsten Generation. Dass man das lange Ende der Karten nun fast überall Flow Through designed ist ein Produkt von Nvidias Vorstoss bei Ampere. Und hat schon seine Vorteile.

Die Vorteile des 5090 FE-Kühler Designs kann man mit ein paar kleinen Anpassungen zu grössten Teilen realisieren und wäre dafür einfacher und günstiger in der Herstellung. Dafür halt nicht 2-Slot sondern eher ~3 Slot. Dennoch eine Reduktion verglichen mit den 3.5...3.8 Slot Kühlern der 4090 / 5090 AIB-Karten:
- Display Connectors wie bei der 5090 FE als abgesetztes PCB
- PCIe Connector ist aber Bestandteil des Haupt-PCBs
- Alternative zu obigem: PCB hat im Bereich des Lüfters bei der Slotblende einfach ein grosses Cutout. Ist also immer noch ein einzelnes PCB (allenfalls günstiger und einfacher)
- AIB-Kühler wären etwas länger und breiter und deswegen hat man etwas mehr Platz auf dem Haupt PCB
- Die Kühlfinnen wären deutlich einheitlicher (Grösse, Form) als beim FE-Hühler, um Kosten zu senken
- 3-Slot, breitere Karte sowie Triple Fan heben die Kühlerperformance über FE Niveau (AIB Differenzierung)

why_me
2025-01-17, 14:13:53
Welcher Vorstoß bei Ampere? Flow Through gab es schon vorher bei z.B. Sapphire und ist einfach nur notwendig bei den gestiegenen Verbräuchen.
Es ist schön, wie du sagst, dass es das jetzt Flächendeckend gibt aber war bei Ampere einfach Notwendig (zumindest bei den großen karten)

The_Invisible
2025-01-17, 14:20:06
Ich kaufe mir natürlich nur die GB202 Quadro für 10k+. Alles andere ist mir eindeutig zu "niederklassig". Also, aus dem Weg, ihr Geringverdiener! ;D

Apropos Quadro:
Der 5090 FE Kühler wäre ein schönes Upgrade gegenüber dem Blower.

Glaub ich nicht, bei Ada haben hier auch einige immer über die nur 24GB VRAM gejammert aber keiner hatte die Eier eine RTX 6000 ADA zu kaufen ;)

Lawmachine79
2025-01-17, 15:29:29
Immer dieses Proletariat was nur 2700€ für eine Grafikkarte zahlen kann :biggrin:
Pfui Deibel!

basix
2025-01-17, 15:53:43
Glaub ich nicht, bei Ada haben hier auch einige immer über die nur 24GB VRAM gejammert aber keiner hatte die Eier eine RTX 6000 ADA zu kaufen ;)

Ha, dir werd ich es zeigen! :D

Ne, Spass bei Seite. Mit einer Quadro hat man bis auf potentiell mehr Speicher und Vollausbau nur Nachteile. Man zahlt das vierfache oder so und vor allem ist der Kühler bis heute ein normaler Blower. Und die doppelt so viel Speicher nützen ohne entsprechende Workloads (heutzutage KI) auch nichts.

32 GByte der 5090 werden in einigen Szenarien allerdings gegen Abstürze helfen. UE5 mit 8K und Cinematic Settings oder CP2077 PT Overdrive in 8K sind so Beispiele. Da reichen die 24GB der 4090 nämlich nicht ;D

Thomas Gräf
2025-01-17, 15:55:30
Wolltest du nicht zuerst 5k ausgeben? Oder verwechsle ich gerade was? :tongue:

Muss ich auch sagen, unser Krieger hier lässt seine Fahne aber ganz schön im Wind wehen! ;)

Dural
2025-01-17, 15:55:36
Ich habe früher als man noch auswählen konnte immer ganz bewusst die "normale" Speicher Version gekauft, weil diese in der Regel immer schneller und Stromsparend waren und der mehr Speicher viel zu teuer war.

Bereut habe ich es nie, da bei der nächsten Generation ja so wie so eine neue angeschafft wurde.

Aber in der heutige Tiktok Kindergarten Zeit ist Speicher natürlich alles :freak:

ChaosTM
2025-01-17, 16:07:00
Ha, dir werd ich es zeigen! :D

Ne, Spass bei Seite. Mit einer Quadro hat man bis auf potentiell mehr Speicher und Vollausbau nur Nachteile. Man zahlt das vierfache oder so und vor allem ist der Kühler bis heute ein normaler Blower. Und die doppelt so viel Speicher nützen ohne entsprechende Workloads (heutzutage KI) auch nichts.

32 GByte der 5090 werden in einigen Szenarien allerdings gegen Abstürze helfen. UE5 mit 8K und Cinematic Settings oder CP2077 PT Overdrive in 8K sind so Beispiele. Da reichen die 24GB der 4090 nämlich nicht ;D


Mit DLSS Ultra Performance und 4x MFG ist das dann auch superduper spielbar

Lawmachine79
2025-01-17, 17:16:07
ja, aber für 2! Wenn die DInger nahe 2000€ zu haben sein wären.
2000?! Du hast Schande über Dich gebracht und Schande über das ganze 3DCenter! Wir sind hier doch nicht am Wühltisch bei Aldi!

aufkrawall
2025-01-17, 17:18:53
Mit DLSS Ultra Performance und 4x MFG ist das dann auch superduper spielbar
Und wenn das jetzt ganz ohne Sarkasmus stimmen würde?

mironicus
2025-01-17, 17:39:49
Ein Anwendungsszenario macht die RTX 5090 für mich interessant: Mit den 32 GByte der RTX 5090 kann man das KI-Bildgenerierungs-Modell Flux in der Dev-Version komplett in den Grafikspeicher laden. Die 24 GB der RTX 4090 reichen nicht ganz und dann wird im Hauptspeicher ausgelagert. Eine NVIDIA RTX 6000 Ada mit 48 GB kostet mindestens 7500 Euro.

basix
2025-01-17, 17:41:31
Und wenn das jetzt ganz ohne Sarkasmus stimmen würde?

Hmm, könnte knapp klappen. Ich habe ~32fps in 8K DLSS-UP mit PT inkl. RR (GPU = 2.55GHz). Packt eine 5090 da 30...40% oben drauf und FG skaliert mit sagen wir mal 1.7...1.8x bei FG x2 würde man bei ~70...80fps landen. Bei FG x3 bei ~100...110fps usw.

Inkl. Reflex 2 (wenn das bei aktivierten FG geht) sowie dem neuen Flip Metering könnte man das vermutlich als gut spielbar bezeichnen. 40fps als Basis mit "nur" Reflex 1 wäre wohl etwas schwammig, aber evtl. noch knapp gangbar. Je nachdem wie empfindlich man auf die Latenz reagiert.

DLSS-UP wie auch RR sollten aufgrund dem neuen Transformer Modell einen guten Qualitätsprung machen, wodurch DLSS4-UP-RR vs. DLSS3-P-RR möglicherweise besser aussieht. Ich bin gespannt.

ChaosTM
2025-01-17, 17:42:28
Und wenn das jetzt ganz ohne Sarkasmus stimmen würde?


Könnte sich sogar ausgehen, ja..
Mal schauen was DLSS4 so kann.

Tesseract
2025-01-17, 18:35:46
bin sehr gespannt was das transformermodell bei P und UP kann. gerade UP wird ja extrem durch CNN und dessen lokalität limitiert.

aufkrawall
2025-01-17, 18:50:05
gerade UP wird ja extrem durch CNN und dessen lokalität limitiert.
Und bei RR auch durch die Ringing-Artefakte. Hat in 4k allerdings trotzdem weniger Disocclusion-Aliasing als FSR Q. :freak:

Sardaukar.nsn
2025-01-17, 18:55:33
Der Heiland ist nah! Nur noch 14 Tage.

https://i.imgur.com/Ir0qtxm.jpeg

Relex
2025-01-17, 19:22:57
Hmm, könnte knapp klappen. Ich habe ~32fps in 8K DLSS-UP mit PT inkl. RR (GPU = 2.55GHz). Packt eine 5090 da 30...40% oben drauf und FG skaliert mit sagen wir mal 1.7...1.8x bei FG x2 würde man bei ~70...80fps landen. Bei FG x3 bei ~100...110fps usw.



Musst ja nur testen, wie FG aktuell mit 8K output bei der zu erwartenden Framerate skaliert.

Faktor 1.7 bis 1.8 in 8K wäre sicher eine gewaltige Verbesserung gegenüber Ada bzw. dem alten Model. Bisher war das nur in 1440p möglich oder in 4K bei niedrigen FPS.
Mal sehen, was Blackwell + neues FG Model da reißen, aber ich bin da eher skeptisch. Frames in 8K zu generieren bleibt halt teuer.
Und je höher die FPS sind, desto stärker schlagen die Frametime kosten durch.

Ich denke man wird mindestens 3x oder 4x FG brauchen, damit sich die FPS überhaupt nennenswert erhöhen und der hit auf die base framerate wird in 8K trotzdem schmerzen.

The_Invisible
2025-01-17, 20:28:07
Raff sicher schon fleißig am testen, gemein :freak:

Kriegsgeier
2025-01-17, 20:36:56
Klar. Die haben schon min. RTX 5090 bekommen. Deswegen schreibt er hier auch wesentlich weniger.
Raff, gib alles! Und bitte die 3090 beim Testen nicht vergessen :-)

lilgefo~
2025-01-17, 21:08:29
Raff sicher schon fleißig am testen, gemein :freak:

Glaub kaum. Printmedien mit so geringer Reichweite (relativ) werden doch kaum noch wahrgenommen. Wenn die noch ein Sample kriegen könnens schon dankbar sein.

basix
2025-01-17, 21:13:59
Musst ja nur testen, wie FG aktuell mit 8K output bei der zu erwartenden Framerate skaliert.

Faktor 1.7 bis 1.8 in 8K wäre sicher eine gewaltige Verbesserung gegenüber Ada bzw. dem alten Model. Bisher war das nur in 1440p möglich oder in 4K bei niedrigen FPS.
Mal sehen, was Blackwell + neues FG Model da reißen, aber ich bin da eher skeptisch. Frames in 8K zu generieren bleibt halt teuer.
Und je höher die FPS sind, desto stärker schlagen die Frametime kosten durch.

Ich denke man wird mindestens 3x oder 4x FG brauchen, damit sich die FPS überhaupt nennenswert erhöhen und der hit auf die base framerate wird in 8K trotzdem schmerzen.

Falls ich mir eine 5090 hole, werde ich das sicher testen. Und klar, 1.7x wäre eine deutlich Steigerung aber sollte schon machbar sein. DF zeigte in ihrem Preview Video auf einer 5080 1.7x zwischen x2 und x4 FG in 4K. Basis ist unbekannt (also was x2 FG bewirkt) aber anhand von FSR3 dürfte man ähnliche Faktoren erwarten.

Vorteile vom neuen FG:
- Tensor Cores sind Stand heute chronisch unterausgelastet, da sollte man Platz finden
- Bandbreite steigt bei allen 50er GPUs mehr an als die Rohleistung und Gaming-Performance. Die parallele Ausführung von DNN und normalen Shadern sollte davon profitieren und entsprechend gut skalieren. Bei RTX 40 GPUs könnte das schlechter aussehen

ChaosTM
2025-01-17, 21:26:19
Glaub kaum. Printmedien mit so geringer Reichweite (relativ) werden doch kaum noch wahrgenommen. Wenn die noch ein Sample kriegen könnens schon dankbar sein.


Auch wenn sich das futuristisch anhört, von PCGH gibt es mittlerweile eine Internetz Version!

crux2005
2025-01-17, 22:08:59
Der Heiland ist nah! Nur noch 14 Tage.

https://i.imgur.com/Ir0qtxm.jpeg

Tolles per KI generiertes Bild.

monstar-x
2025-01-17, 22:30:40
Raff sicher schon fleißig am testen, gemein :freak:

Gemein?
Ich hätte da gar keine Lust drauf.

Seine eigene Kiste zu benchmarken ist das eine (macht ja Spaß, zumindest ein paar Stunden), doch tage lang immer und immer wieder verschiedene Karten zu mit dutzenden Benchmarks und Settings zu bespaßen, na ich weis nicht.

Da würde ich liebe in den Wald gehen und 4 Tage Holz hacken.

monstar-x
2025-01-17, 22:33:26
Glaub kaum. Printmedien mit so geringer Reichweite (relativ) werden doch kaum noch wahrgenommen. Wenn die noch ein Sample kriegen könnens schon dankbar sein.

PCGH mag vielleicht "klein" sein, doch die Mutter, "Computec Media GmbH" ist es wahrlich nicht, die sind schon bestens vernetzt.

Thomas Gräf
2025-01-17, 22:51:08
Tolles per KI generiertes Bild.

Ich glaub jetzt hat die 50'er Generation seinen Namen weg. ;)

Relex
2025-01-17, 23:08:30
Falls ich mir eine 5090 hole, werde ich das sicher testen. Und klar, 1.7x wäre eine deutlich Steigerung aber sollte schon machbar sein. DF zeigte in ihrem Preview Video auf einer 5080 1.7x zwischen x2 und x4 FG in 4K. Basis ist unbekannt (also was x2 FG bewirkt) aber anhand von FSR3 dürfte man ähnliche Faktoren erwarten.

Vorteile vom neuen FG:
- Tensor Cores sind Stand heute chronisch unterausgelastet, da sollte man Platz finden
- Bandbreite steigt bei allen 50er GPUs mehr an als die Rohleistung und Gaming-Performance. Die parallele Ausführung von DNN und normalen Shadern sollte davon profitieren und entsprechend gut skalieren. Bei RTX 40 GPUs könnte das schlechter aussehen


Wie gesagt, ich bezweifle, dass sich an der Performanceskalierung viel getan hat.

Siehe dazu meinen Kommentar hier.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13682137#post13682137


In den DF Benchmarks hat sich das halt bisher nicht gezeigt. Seltsamerweise trotz neuem FG Model auf Blackwell.

Aber dass die Skalierung trotz neuem Model auf der 5080 nicht besser ist ließe sich zumindest damit erklären, dass sich reduzierte Frametime kosten für den FG Algo bei geringen FPS weniger stark auswirken, als bei hohen, da sich der Anteil an der gesamtframetime entsprechend erhöht oder verringert. Daher sind bei niedrigen FPS wie in Cyberpunk PT auch mit neuem Model relativ wenige Unterschiede zu erwarten.


Aber ich denke es führt zu weit, das auf basis so weniger daten auszudiskutieren. Wir brauchen dazu saubere Messwerte.
Ist nur fraglich, ob wir die überhaupt bekommen.

Bei DLSS FG hat sich kaum jemand mit den Frametime kosten und der Skalierung auseinandergesetzt. Schon gar nicht bei verschiedenen Auflösungen.
Computerbase hat nach vielen Monaten mal nen Artikel dazu gemacht, der aber auch nur eher stichprobenartig war und das ganze nur oberflächlich beleuchtet hat.

lilgefo~
2025-01-17, 23:15:06
PCGH mag vielleicht "klein" sein, doch die Mutter, "Computec Media GmbH" ist es wahrlich nicht, die sind schon bestens vernetzt.

Hmm ja, aber das Kräfteverhältnis Nvidia Vs Computec mit x MA oder "1 Streamer xy mit 500k+ views pro video" ist doch schon ein Anderes. Die Verlage wären gut beraten sich drauf vorzubereiten keine Samples mehr zu erhalten.

monstar-x
2025-01-17, 23:27:53
Hmm ja, aber das Kräfteverhältnis Nvidia Vs Computec mit x MA oder "1 Streamer xy mit 500k+ views pro video" ist doch schon ein Anderes. Die Verlage wären gut beraten sich drauf vorzubereiten keine Samples mehr zu erhalten.

Da stimme ich dir zu.
Zu mal solche aufgedrehte OverHyped typen wie Linus oder der aus dem Video da oben, total geil abdrehen und das Ding bis in den Himmel loben. Generiert halt Klicks ohne Ende.

Während "Seriöse" Tester wie PCGH, Igor usw. auch die Kritischen Punkte betrachten werden und nur als Randnotiz wahr genommen werden.

lilgefo~
2025-01-17, 23:41:10
Da stimme ich dir zu.
Zu mal solche aufgedrehte OverHyped typen wie Linus oder der aus dem Video da oben, total geil abdrehen und das Ding bis in den Himmel loben. Generiert halt Klicks ohne Ende.

Während "Seriöse" Tester wie PCGH, Igor usw. auch die Kritischen Punkte betrachten werden und nur als Randnotiz wahr genommen werden.

Klar, Linus ist Abfall. Da gehts nur darum Merch zu verkaufen.
Die PCGH GPU Benches von Raff sind halt sehr gut aber von der Masse auch verkannt. Sieht man ja häufig selbst hier im Forum wenn ihm FBtum vorgeworfen wird für das Prästentieren objektiver Zahlen. Unterbezahlt dazu.

Der involutierte Käufer weiß natürlich welche Benches was taugen und was nicht. Im Endeffekt aber zählen die Aufrufe. Und da sind traditionelle Medien ganz besonders unter dem MA/h Aspekt meilenweit hinterher. Das das nicht mehr lange gut geht kann man sich an den Fingern abzählen. Hoffe dedizierte Bencher wie Raffé etc. finden eine gute Unterkunft für die Zukunft. Die Verlage werden es jedenfalls nicht sein.

P.S. Igor zählt für mich auch eher als einer der größten Laberköppe. Muss man sich nur sein Gesülze zum 12VHPW anschauen um zu sehen wieviel Blabla und Esoterik in die Texte fließt. Inhalt abwesend. Höchst inkonzise noch dazu. PCGH/Raff neigen auch dazu endlose Texte zu schreiben die keinen interessieren aber Igor setzt dem auf jeden Fall die Krone auf. Hat er irgendwann in den letzten 3 Jahren mal richtig gelegen mit seinen Vermutungen/Berechnungen? Ich glaub nicht.

Thomas Gräf
2025-01-17, 23:45:24
nV muss die kleinen Karten pushen die kaum was können ohne Zirkus Nummern.
Also muss die 5090 alle mit hochsaugen.
Jetzt sind die wirklich guten Leute gefragt... ;) ;)

lilgefo~
2025-01-17, 23:48:58
nV muss die kleinen Karten pushen die kaum was können ohne Zirkus Nummern.
Also muss die 5090 alle mit hochsaugen.
Jetzt sind die wirklich guten Leute gefragt... ;) ;)

Ist wie in den letzten Generationen davor. Wer das Beste will holt sioch die XX90. Alle anderen sind mit AMD besser bedient weil RT/PT sowieso wie Grütze läuft auf 80er/70ern (und auch den 90ern teilweise btw).

Thomas Gräf
2025-01-17, 23:54:19
Jo stimm ich Dir zu. Auch Intel is ja für den einen oder anderen deswegen eine Option geworden.

lilgefo~
2025-01-17, 23:57:05
Jo stimm ich Dir zu. Auch Intel is ja für den einen oder anderen deswegen eine Option geworden.

Prob bei Intel ist die Inkonsistenz, je nach Spiel krieg ich Performance die deutlich besser, gleichwertig oder deutlich schlechter als die nächstliegende AMD/NV ist. Dann noch der CPU Treiber Overhead und PCI Gen Limitation sowie die Nichtfverfügbarkeit zum UVP verdammen die Karten in den Abfall. Da brauchts noch 2-3 Generationen bis die im LowEnd angekommen sind.

monstar-x
2025-01-18, 00:05:13
P.S. Igor zählt für mich auch eher unter als einer der Laberköppe. Muss man sich nur sein Gesülze zum 12VHPW anschauen um zu sehen wieviel Blabla und Esoterik in die Texte fließt. Inhalt abwesend. Höchst inkonzise noch dazu. PCGH/Raff neigen auch dazu endlose Texte zu schreiben die keinen interessieren aber Igor setzt dem auf jeden Fall die Krone auf. Hat er irgendwann in den letzten 3 Jahren mal richtig gelegen mit seinen Vermutungen/Berechnungen? Ich glaub nicht.

Ist er auch, vor allem ein Wichtigtuer, mit sein ewigen "Spekulationen", kann mir seine Videos nicht mehr ansehen und seit der Selbst-Demontage mit den Lüftern, rufe ich seine Seite gar nicht mehr auf. Seine Fanbase wie Linus hat er dennoch, wieso auch immer.

Natürlich ist Raff eine ganz andere Hausnummer.

Thomas Gräf
2025-01-18, 00:06:54
Jaja hat Cracky letzten Sonnabend in der Bastelnacht ja live gezeigt.
PCI Gen aber vorallem Resizable BAR und den neuen Ryzen König.
Da lief dat Ding, schon blöd das die Plattform da schon High End sein sollte.

lilgefo~
2025-01-18, 00:07:20
Natürlich ist Raff eine ganz andere Hausnummer.

Amen.

Hoffe er siehts irgendwann selber mal und schließt sich einem guten Channel an oder gründet seinen Eigenen. PCGH ohne Raff ist nur Werbespam.

DrFreaK666
2025-01-18, 00:26:51
PCGH allgemein ist schon übel. Deswegen habe ich den YT-Kanal nicht abonniert.
Und wenn es was Wichtiges gibt, dann postet es Raff hier regelmäßig

kmf
2025-01-18, 00:47:29
Amen.

Hoffe er siehts irgendwann selber mal und schließt sich einem guten Channel an oder gründet seinen Eigenen. PCGH ohne Raff ist nur Werbespam.Oh man, statt die Arbeit der Redakteure von PCGH zu honorieren, wird hier von einigen nur dumm rumgesülzt. Schrecklich! :uclap:

Cubitus
2025-01-18, 01:47:28
rkc9E726K3I

Sardaukar.nsn
2025-01-18, 02:47:36
Ist wie in den letzten Generationen davor. Wer das Beste will holt sioch die XX90. Alle anderen sind mit AMD besser bedient weil RT/PT sowieso wie Grütze läuft auf 80er/70ern (und auch den 90ern teilweise btw).

Genau, deswegen haben sich die nVidia Grafikkarten unterhalb der xx90 in den letzten Jahren ja auch so schlecht verkauft. :freak:

Inzwischen nimmt der Hype Train immer mehr Fahrt auf...

https://pbs.twimg.com/media/GhclhdTX0AARBxp?format=jpg&name=900x900

5000 series buyers

https://media0.giphy.com/media/v1.Y2lkPTc5MGI3NjExcTA3bjlnZHc0a3E2bGo4cXg0bG5lYWtkemF3Mno3YWJiMWE2bGl2aiZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/M3fYVlu7YN9Hq/giphy.gif

crux2005
2025-01-18, 02:54:21
Inzwischen nimmt der Hype Train immer mehr Fahrt auf...

Sehe ich nicht. Eher das Gegenteil.

The_Invisible
2025-01-18, 08:23:22
https://youtu.be/rkc9E726K3I

Schon sehr toll wenn manche eine "special permission" bekommen um das Ding zu zeigen und die anderen müssen warten ;D

ChaosTM
2025-01-18, 08:28:58
Pronhub mit (am Rücken) gefesselten Händen schauen kommt mir da in den Sinn.

Tun man sich nicht an..

Kriegsgeier
2025-01-18, 08:29:13
warum nicht? Er hat sich diese "special permission" hart erarbeitet wie ich finde.
Also alles gerecht soweit!

Sardaukar.nsn
2025-01-18, 08:55:23
Andere testen doch auch schon, damit die Reviews am 24.01. fertig sind.

BTW aus den Kommentaren:

https://i.imgur.com/f4RW084.png

Kriegsgeier
2025-01-18, 09:17:02
Krass, was meint er damit?
Klingt eher positiv für die 5090 oder?

nordic_pegasus
2025-01-18, 10:10:07
Jayztwocents schreibt von Leaks, die Unterwältigung stammt ja aus den offiziellen Slides von Nvidia. Darum kann ich den Kontext nicht ganz nachvollziehen.

Außer er ist der Meinung, dass DLSS4 und speziell MFG wirklich so gut ist, dass man die haluzinierten Frames als echte Frames werten kann.

The_Invisible
2025-01-18, 10:23:33
Andere testen doch auch schon, damit die Reviews am 24.01. fertig sind.

BTW aus den Kommentaren:

https://i.imgur.com/f4RW084.png

Testen schon aber nix zeigen dürfen. Das Video hat schon über 300k Views, das könnten andere mehr gebrauchen.

OgrEGT
2025-01-18, 10:35:04
Jayztwocents schreibt von Leaks, die Unterwältigung stammt ja aus den offiziellen Slides von Nvidia. Darum kann ich den Kontext nicht ganz nachvollziehen.

Außer er ist der Meinung, dass DLSS4 und speziell MFG wirklich so gut ist, dass man die haluzinierten Frames als echte Frames werten kann.
Ich denke NV wird schon wissen wem sie eine 5090 vorab schicken und warum...

ChaosTM
2025-01-18, 10:46:15
Jayztwocents schreibt von Leaks, die Unterwältigung stammt ja aus den offiziellen Slides von Nvidia. Darum kann ich den Kontext nicht ganz nachvollziehen.

Außer er ist der Meinung, dass DLSS4 und speziell MFG wirklich so gut ist, dass man die haluzinierten Frames als echte Frames werten kann.


Wir halluzinieren so gut wie alles.
Es gibt auch keine Farben. Macht alles unsere Weichware unter der Schädeldecke.


Die halluzinierten Frames werden besser und das ist alles was zählt.

wolik
2025-01-18, 11:10:17
Außer er ist der Meinung, dass DLSS4 und speziell MFG wirklich so gut ist, dass man die haluzinierten Frames als echte Frames werten kann.

Ja, wenn Sie Frames zwischen 60 FPS einfügen können. Aber echte (IMHO) 60 fps (mit Reflex) werden sich besser anfühlen als Vaseline 200 FPS.
Das kann man jetzt schon bei FG sehen.


32 GByte der 5090 werden in einigen Szenarien allerdings gegen Abstürze helfen. UE5 mit 8K und Cinematic Settings oder CP2077 PT Overdrive in 8K sind so Beispiele. Da reichen die 24GB der 4090 nämlich nicht ;D

In 8К DLSS UL 24 Gb reicht.

Musst ja nur testen, wie FG aktuell mit 8K output bei der zu erwartenden Framerate skaliert.

Faktor 1.7 bis 1.8 in 8K wäre sicher eine gewaltige Verbesserung gegenüber Ada bzw. dem alten Model. Bisher war das nur in 1440p möglich oder in 4K bei niedrigen FPS.
Mal sehen, was Blackwell + neues FG Model da reißen, aber ich bin da eher skeptisch. Frames in 8K zu generieren bleibt halt teuer.
Und je höher die FPS sind, desto stärker schlagen die Frametime kosten durch.

Ich denke man wird mindestens 3x oder 4x FG brauchen, damit sich die FPS überhaupt nennenswert erhöhen und der hit auf die base framerate wird in 8K trotzdem schmerzen.

FG jetzt in CP2077 bei 8K nicht zu gebrauchen. Mit MFG wird sich das vermutlich nichts ändern. Echte FPS , sogar 40+ sind dort viel besser. Ob man mit DLSS 4 und 5090 gute 60 fps bekommen kann, wird sich zeigen.

Lurtz
2025-01-18, 11:48:28
NOCH 12 TAGE BIS ZUR DLSS 4-REVOLUTION! Ich kanns nicht mehr erwarten :redface:

Thunder99
2025-01-18, 11:50:54
Hab mit die erste Analyse von CB angeschaut und es sieht so aus (wegen der Limitierung des Prozesses und dadurch TDP/mehr HW), dass die Generation für die Zukunft ist.
D.h. wenn es Code gibt der die neuen/verbesserten Funktionen von BW nutzt dann wird die Karte entsprechend von Ada absetzten können. Ansonsten nicht.

Daher auch der Preis der Karten abgesehen von der 5090, welche neue Grenzen aufzeigt und entsprechend teurerer ist in der Produktion (512bit, 32GB, main PCB)

Radeonfreak
2025-01-18, 11:54:08
NOCH 12 TAGE BIS ZUR DLSS 4-REVOLUTION! Ich kanns nicht mehr erwarten :redface:

https://img-9gag-fun.9cache.com/photo/a4PoW6d_460svav1.mp4

rentex
2025-01-18, 12:03:05
Mit DLSS und DLAA habe ich meinen Frieden geschlossen und ich erachte es wirklich als nützlich.
FG ist aber wirklich grobes Blendwerk...

Linmoum
2025-01-18, 12:06:16
Ja, wenn man von 30fps kommt ist es tatsächlich Blendwerk. Das ist aber auch nicht der Sinn.