PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24

Sardaukar.nsn
2025-01-12, 08:39:44
+210 - 250% für die 5090 zur 4090? Hmm... No lo sé Rick.

Die 4090 liegt bei 680, da konservativ etwa ein Drittel drauf und schon kommen wir auf den Index.

Bei den in Zukunft relevanten Szenario inkl. RT und DLSS sind es laut Roman +44%. Kann gut sein die hier auch die Vorteile des DDR7 mit rein spielen. A Plauge Tale: Requiem unterstützt nur DLSS3, also ist da Vergleich 4090 5090 durchaus fair.

https://i.imgur.com/CXPpXRa.jpeg

@ChaosTM Wer den Begriff "Fakeframe" benutzt, muss sich auch nicht über den Ausdruck Geheule wundern. Alternativ auch Mimimi oder neuerdings Aiaiaiai :wink:

BlacKi
2025-01-12, 08:47:51
bitte nicht vergessen. + 44% in 4k dlss performance aka fhd. sicherlich keine äuflösung in der die 5090 ihre stärken zeigen kann.

Sumpfmolch
2025-01-12, 10:23:12
Hilft halt nichts, wenn die Path Tracing Spiele außerhalb 4k DLSS Performance auf der 5090 nicht mehr flüssig laufen...

Troyan
2025-01-12, 10:41:17
Dank Digitalfoundry und dem Vergleich von nVidia, kann man ja sehr gut die Steigerung mit FG2 ausrechnen - ich nehme mal 1,7x Steigerung von FG2 zu FG4 als Maßstab und diese errechneten Werte der nVidia Folie: https://www.reddit.com/r/nvidia/comments/1hvvrqj/50_vs_40_series_nvidia_benchmark_exact_numbers/

5090 <> 4090 - 4K DLSS Performance:
Cyberpunk: +36,7%
Alan Wake 2: +41,6%
Black Myth: +45,2%

5080 <> 4080 - 4K DLSS Performance:
Cyberpunk: +17,17%
Alan Wake 2: +19,8%
Black Myth: +19%

5070 TI <> 4070 TI - 1440p mit DLSS Quality:
Cyberpunk: +24,5%
Alan Wake 2: +39%
Black Myth: +38,6%

5070 <> 4070 - 1440p mit DLSS Quality:
Cyberpunk: +18,3%
Alan Wake 2: +18,6%
Black Myth: +31,2%

Badesalz
2025-01-12, 10:41:41
Niemand ist gezwungen rein basierend auf Marketing Material iwelche Kaufentscheidungen zu treffen ...Man wird sich aber das Recht nehmen dürften über das Marketing oder die Steigerungen der Rohleistung sprechen zu dürfen, nehme ich an (?)

Grad weil spätestens den Käufer der beiden oberen Topmodelle die Fähigkeit zugesprochen wird zu wissen was sie da eigentlich kaufen, versehe ich auch nicht warum sie das nicht kritisch betrachten sollten.

Verstehe den Umgang damit von Lawachine daher auch nicht.

@ChaosTM Wer den Begriff "Fakeframe" benutzt, muss sich auch nicht über den Ausdruck Geheule wundern. Alternativ auch Mimimi oder neuerdings Aiaiaiai :wink:Mach mal einen Vorschlag wie man sie umgangssprachlich nennen könnte. Oder ist das nicht zulässig?

Palpatin
2025-01-12, 10:44:06
bitte nicht vergessen. + 44% in 4k dlss performance aka fhd. sicherlich keine äuflösung in der die 5090 ihre stärken zeigen kann.
NV hat da bestimmt was rausgesucht wo die 5090 ihre stärken nicht voll ausspielen kann um sie auf der Präsentation in ein möglichst schlechtes Licht zu rücken. :rolleyes:

Badesalz
2025-01-12, 10:46:54
@Palpatin
KLADUSCH! :up:

Sardaukar.nsn
2025-01-12, 11:20:43
...Mach mal einen Vorschlag wie man sie umgangssprachlich nennen könnte. Oder ist das nicht zulässig?

Der Begriff "Fake" ist mir zu negativ besetzt. Warum muss ich das auch umbenennen? Damit es ins eigene Narrativ passt?

Nvidia unterscheidet zwischen "Rendered Frame" und "Generated Frame". Bei den Begriffen bleibe ich auch.

monstar-x
2025-01-12, 11:34:33
NV hat da bestimmt was rausgesucht wo die 5090 ihre stärken nicht voll ausspielen kann um sie auf der Präsentation in ein möglichst schlechtes Licht zu rücken. :rolleyes:

Ja, sind halt Fair.
Und freundlich sind die, sieht man an der 5070 Performance die jetzt so schnell wie eine 4090 ist für nur 549$.

Danke Nvidia.

Badesalz
2025-01-12, 11:35:15
Der Begriff "Fake" ist mir zu negativ besetzt. DIR zu negativ? Daher ist das mimimi? Mir ist das "mimimi" zu negativ besetzt, nur weil eine Kritik in das eigene Narrativ passen muss...
Checkste? :rolleyes:

monstar-x
2025-01-12, 11:38:46
Der Begriff "Fake" ist mir zu negativ besetzt. Warum muss ich das auch umbenennen? Damit es ins eigene Narrativ passt?

Nvidia unterscheidet zwischen "Rendered Frame" und "Generated Frame". Bei den Begriffen bleibe ich auch.

So ist es richtig, es gibt auch keine Fake-Kleidung / Uhren, die werden nur so anders billiger produziert.

Deep-Fakes ist auch das Falsche Wort, sind schließlich nur neu "gerenderte Videos".

Gefakte Dokumente wie Pässe, Zertifikate sind so gesehen auch kein Fakes!
Sondern nur neu generierte Dokumente, so klingt es auch nicht so negativ behaftet wie Fake/Fälschung.

anorakker
2025-01-12, 11:46:22
Gefakte Dokumente wie Pässe, Zertifikate sind so gesehen auch kein Fakes!
Sondern nur neu generierte Dokumente, so klingt es auch nicht so negativ behaftet wie Fake/Fälschung.


Ich habe einigen Freunden damals exakt solche "Fake" Semestertickets, beruhend auf meinem originalen Ausweis in Photoshop mit "KI" erstellt, anderer Name, nicht original, sah nur ähnlich aus, hat meistens funktioniert :wink:

Troyan
2025-01-12, 11:46:59
So ist es richtig, es gibt auch keine Fake-Kleidung / Uhren, die werden nur so anders billiger produziert.

Deep-Fakes ist auch das Falsche Wort, sind schließlich nur neu "gerenderte Videos".

Gefakte Dokumente wie Pässe, Zertifikate sind so gesehen auch kein Fakes!
Sondern nur neu generierte Dokumente, so klingt es auch nicht so negativ behaftet wie Fake/Fälschung.

Da ein Frame nicht real existiert, würde das bedeuteten, dass die Personen bei "Deep-Fakes" auch nicht existieren. Kann man daher eine nicht reale Personen "faken"?

ChaosTM
2025-01-12, 12:11:51
Wir können heutzutage faken was wir wollen. Danke "AI"

Troyan
2025-01-12, 12:15:34
Ist es fake, wenn AI fakt ein AI Bild?

Sardaukar.nsn
2025-01-12, 12:20:17
FAEIK FRAEIMS!!!!!!!!!!!

YlpGVXhYjMk

@Badesalz: Du kannst dich ja gerne an dem Theater beteiligen. :freak:

ChaosTM
2025-01-12, 12:20:46
jetzt wird es zu filosofisch

Ich geh Schnee schaufeln

aufkrawall
2025-01-12, 12:24:22
Deep-Fakes ist auch das Falsche Wort, sind schließlich nur neu "gerenderte Videos".

Die Bezeichnung kommt da wohl eher aus dem Kontext, den Betrachter täuschen zu wollen.

Thunder99
2025-01-12, 12:26:43
Mal nüchtern betrachtet, ist Love und Black Bandbreiten-limitiert bzw überproportional abhängig?
Am Beispiel RTX4080 vs. 5080 und 4070Ti und 5070Ti? Kaum mehr Rohpower aber massiv mehr Bandbreite...

Sumpfmolch
2025-01-12, 12:26:58
Die Bezeichnung kommt da wohl eher aus dem Kontext, den Betrachter täuschen zu wollen.

Niemand hat die Absicht eine Mau...äh eine 5070 12GB mit einer absurd hohen "fps" Zahl oben rechts im Bild verkaufen zu wollen, während die Eingabelatenz für den Arsch ist.

aufkrawall
2025-01-12, 12:30:42
Niemand hat die Absicht eine Mau...äh eine 5070 12GB mit einer absurd hohen "fps" Zahl oben rechts im Bild verkaufen zu wollen, während die Eingabelatenz für den Arsch ist.
Lass doch mal die Fake News stecken. Jeder kann mit geringer eigener Hirnaktivität erfassen, dass komplett neu gerenderte Bilder und Zwischenbildberechnung nicht das Gleiche ist. Immer dieser Impetus, sich anzumaßen, dass Andere nicht für sich selbst denken können und es nur lauter komplette Vollidioten gibt, die in Nvidias machiavellistische Masterplan-Falle tappen. Nervig...

Mal nüchtern betrachtet, ist Love und Black Bandbreiten-limitiert bzw überproportional abhängig?
Am Beispiel RTX4080 vs. 5080 und 4070Ti und 5070Ti? Kaum mehr Rohpower aber massiv mehr Bandbreite...
Das ist wohl eher das Nebenprodukt der ML-Architektur, das in "Gaming" einsickert.

Troyan
2025-01-12, 12:31:07
Mal nüchtern betrachtet, ist Love und Black Bandbreiten-limitiert bzw überproportional abhängig?
Am Beispiel RTX4080 vs. 5080 und 4070Ti und 5070Ti? Kaum mehr Rohpower aber massiv mehr Bandbreite...

Bandbreitensteigerung sind ja seit Jahren deutlich weniger möglich. Ampere hat doppelte Rechenleistung bei gleicher Bandbreite zu Turing gebracht. die 4090 hat mehr als die doppelte Rechenleistung zur 3090, aber nur mehr effektive Bandbreite durch den größeren L2 Cache.

Jetzt erhöht man seit Jahren wieder mal die reale angebundene Bandbreite mit Blackwell. Da kann man schon davon sprechen, dass in einigen/vielen Spielen auch die Bandbreite ein Hinderungsgrund für mehr Leistung war.

/edit: Gerade mal geschaut. SO sieht es im Vergleich zwischen 5090 und 3090 aus:
Rechenleistung: 2,95x
Bandbreite: 2x

Die 4090 hatte über 2x mehr Rechenleistung irgendwas um die 15% mehr Bandbreite.

Thunder99
2025-01-12, 12:35:24
Macht Sinn, gerade dort wo der Cache nicht so wirkt oder limitiert. Danke.
Bin dann auf die Test gespannt :). Ggf gibt es auch einen Test mit OC auf VRAM gegen BW :freak: bzw tiefgreifende Analysen :up:

Sumpfmolch
2025-01-12, 12:36:46
Lass doch mal die Fake News stecken. Jeder kann mit geringer eigener Hirnaktivität erfassen, dass komplett neu gerenderte Bilder und Zwischenbildberechnung nicht das Gleiche ist. Immer dieser Impetus, sich anzumaßen, dass Andere nicht für sich selbst denken können und es nur lauter komplette Vollidioten gibt, die in Nvidias machiavellistische Masterplan-Falle tappen. Nervig...


Hier im Forum vermutlich nicht. Aber die Einschätzung, dass 1/3 der Leute dumm wie drei Meter Feldweg, 1/3 gemeingefährlich und 1/3 brauchbar sind, war bisher immer recht passend.

Troyan
2025-01-12, 12:39:14
Na, immerhin müssen die sich nicht einreden, dass die "Eingabelatenz" im Arsch wäre. Aber gut, ein Forum voller hochtrainierter E-Sportsler haben eben andere Ansprüche.

Frage mich echt, wie einige hier überhaupt spielen können. Jedes Scheiß hat Einfluss auf die Latenz. Zockt man in 720p?

00-Schneider
2025-01-12, 12:39:58
Lass doch mal die Fake News stecken. Jeder kann mit geringer eigener Hirnaktivität erfassen, dass komplett neu gerenderte Bilder und Zwischenbildberechnung nicht das Gleiche ist. Immer dieser Impetus, sich anzumaßen, dass Andere nicht für sich selbst denken können und es nur lauter komplette Vollidioten gibt, die in Nvidias machiavellistische Masterplan-Falle tappen. Nervig...


Was ich so in nicht-technik Foren lese, können die meisten tatsächlich nichts mit den Begriffen Frametime/Latenz etc. anfangen.

NVidia kann gerne solche Diagramme bringen, dann aber bitte auch die Frametime/Latenz neben den fps angeben. So ist das Äpfel mit Birnen vergleichen.

Thunder99
2025-01-12, 12:42:14
Unterm Strich würde ich sagen, es gibt kaum Mehr-Performance, da die Fertigung limitiert und damit auch die Möglichkeiten mehr HW Einheiten zu verbauen um nicht die TDP zu sprengen.
DLSS4 MFG "rettet" BW aber ansonsten ist ein Mid-Upgrade und demnach ok, aber nicht gut :wink:

Troyan
2025-01-12, 12:43:39
Das liegt nicht nur an der Fertigung. Software skaliert auch nicht mehr. GB202 hat 3x mehr Transistoren als GA102, aber die Leistung verdoppelt sich beim Rasterizing vielleicht im besten Fall. 1/3 der Kosten sind komplett sinnlos.

Sumpfmolch
2025-01-12, 12:44:56
Unterm Strich würde ich sagen, es gibt kaum Mehr-Performance, da die Fertigung limitiert und damit auch die Möglichkeiten mehr HW Einheiten zu verbauen um nicht die TDP zu sprengen.
DLSS4 MFG "rettet" BW aber ansonsten ist ein Mid-Upgrade und demnach ok, aber nicht gut :wink:

Man kann Fortschritt als Mehrleistung bei gleichem Preis aber auch darüber realisieren, dass man nach mehreren Jahren an Fertigung die Preise niedriger setzt. Indem man beispielsweise die 5080 als 5070Ti verkauft und die 5070Ti als 5070.

Oder man sagt, dass die Leistung im Raster erst mal reicht und man RT endlich weiter voran bringt, dass über das komplette Setup dieses in Spielen voll nutzbar ist, damit Spiele endlich vollständig drauf setzen können.

aufkrawall
2025-01-12, 12:45:49
Was ich so in nicht-technik Foren lese, können die meisten tatsächlich nichts mit den Begriffen Frametime/Latenz etc. anfangen.

Ja, und? Glaubst du, die werden bei einer 5070 ein böses Erwachen wegen FG und 5-10ms Latenz erleben? Hanebüchen.
Das eigentliche Problem dieser Gen ist wieder der VRAM, nicht FG. Wobei Nvidia hier mit den Neural Textures eine Verbesserung bewirbt, während es die letzten Gens dahingehend gar nichts gab. Wird man dann sehen, wie gut das aufgeht, oder eben nicht aufgeht. (Die 8GB-Karten werden natürlich Müll bleiben.)

Ex3cut3r
2025-01-12, 12:46:28
Wartet doch erstmal Benchmarks ab. Immer wieder die gleiche Scheiße. Bei Nvidia wird kleingeredet wie es nur geht. Und im AMD Thread ist die 9070 nun auf 4080S RT Leistung angekommen. ;D

Sumpfmolch
2025-01-12, 12:48:29
Wartet doch erstmal Benchmarks ab. Immer wieder die gleiche Scheiße. Bei Nvidia wird kleingeredet wie es nur geht. Und im AMD Thread ist die 9070 nun auf 4080S RT Leistung angekommen. ;D

Die minimale Mehrperformance von Blackwell hat doch NVIDIA selbst in seinen Folien veröffentlicht. :P
Nur 4070 Ti Super RT Performance sagt der Thread übrigens...

dildo4u
2025-01-12, 12:48:49
Das ist immer noch zwei Jahre später mit dem selben Verbrauch.
Das musste immer das Ziel sein da Nvidia ja nicht still steht.

00-Schneider
2025-01-12, 12:53:09
Ja, und? Glaubst du, die werden bei einer 5070 ein böses Erwachen wegen FG und 5-10ms Latenz erleben? Hanebüchen.


Es wird nicht wenige geben, die mit einer 5070 nativ 30fps haben, diese dann mit 4xFG auf 100-120fps aufblasen und sich dann wundern, warum sich das so schwammig spielt.

Du überschätzt die Technikaffinität der meisten PC-Gamer.

Sumpfmolch
2025-01-12, 12:54:25
Das ist immer noch zwei Jahre später mit dem selben Verbrauch.
Das musste immer das Ziel sein da Nvidia ja nicht still steht.

Wenn es dafür eine Preisklasse nach unten rutscht, ist das auch Fortschritt.
Darum sagte ich ja auch, falls die neuen Karten sich Jahre später kaum 15% von den RTX4000 absetzen können, dann gehören diese eine Preisklasse nach unten (5080 -> 5070Ti | 5070Ti -> 5070).

Troyan
2025-01-12, 12:55:56
Wenn es dafür eine Preisklasse nach unten rutscht ist das auch Fortschritt.
Darum sagte ich ja auch, falls die neuen Karten sich Jahre später kaum 15% von den RTX4000 absetzen können, dann gehören diese eine Preisklasse nach unten (5080 -> 5070Ti | 5070Ti -> 5070).

Das ergibt kein Sinn, wenn die Fertigungskosten jährlich steigen.

Das wäre so als wenn man den Bäcker fragt, wieso seine Brötchen immer teurer und nicht günstiger werden...

Monsta
2025-01-12, 12:57:13
Wartet doch erstmal Benchmarks ab. Immer wieder die gleiche Scheiße. Bei Nvidia wird kleingeredet wie es nur geht. Und im AMD Thread ist die 9070 nun auf 4080S RT Leistung angekommen. ;D

Weil der Nvidia Käufer gewohnt ist mehr Leistung zu bekommen, und wenn die Leistungsziele verfehlt sind oder eine hypotetische 9090 die 5090 rasiert hätte, er auch AMD kaufen würde.

Der typische AMD Käufer kauft Nvidia aus Prinzip nicht, da sitzt man eher im Hypertrain, weil man ja eine neue Graka will, die aber von AMD sein muss.

Sumpfmolch
2025-01-12, 12:59:05
Das ergibt kein Sinn, wenn die Fertigungskosten jährlich steigen.


Oder man hat bei Technik einfach versagt, wenn man über mehrere Jahre sowohl keine Performancesteigerungen als auch keine Kosteneinsparungen entwickeln konnte...

BlacKi
2025-01-12, 13:00:47
Es wird nicht wenige geben, die mit einer 5070 nativ 30fps haben, diese dann mit 4xFG auf 100-120fps aufblasen und sich dann wundern, warum sich das so schwammig spielt.

Du überschätzt die Technikaffinität der meisten PC-Gamer.die meisten haben dann aber motion blur an, das hilft sehr gut gegen schwammigkeit^^

aufkrawall
2025-01-12, 13:07:35
Es wird nicht wenige geben, die mit einer 5070 nativ 30fps haben, diese dann mit 4xFG auf 100-120fps aufblasen und sich dann wundern, warum sich das so schwammig spielt.

Würde die Kritik verstehen, ließe Nvidia sich das FG fürstlich bezahlen. Da die 5070 aber "günstiger" geworden ist...

monstar-x
2025-01-12, 13:07:49
Na, immerhin müssen die sich nicht einreden, dass die "Eingabelatenz" im Arsch wäre. Aber gut, ein Forum voller hochtrainierter E-Sportsler haben eben andere Ansprüche.

Frage mich echt, wie einige hier überhaupt spielen können. Jedes Scheiß hat Einfluss auf die Latenz. Zockt man in 720p?

Dafür musst du kein "hochtrainierter E-Sportsler" sein, eine Latenz von Framegeneartion nimmt man sehr wohl war. Fühlt sich merklich verzögert und Merkwürdig an.

Erst gestern zum testen bei Robocop angemacht, ekelhaft! Gleich wieder aus.

Wenn du es nicht merkst, ehrlich, sei froh, so kannst du sehr viel Geld sparen, denn dir reicht eine 5070 mit ihren 75% gefakten 150 FPS aus. Win für dich.

Relex
2025-01-12, 13:11:55
Das Gegenargument ist weiterhin, dass die Latenzen im GPU Limit idr. ohne Reflex und ohne FG höher sind, als mit Reflex + FG.

Früher hat man jedoch nie Beschwerden gehört, dass sich ein Spiel bei über 60 FPS "ekelhaft" oder "verzögert und merkwürdig" anfühlt.


Natürlich spürt man dan Unterschied zwischen FG + Reflex und reinem Reflex ohne FG.
Aber wenn ich mit FG ein deutlich klareres und schärferes Bild in Bewegung bekomme und latenzmäßig im grünen Bereich bleibe (besser oder gleich gut wie ohne Reflex) dann ist das doch der beste Trade-off, den man für Singleplayer Games überhaupt nur machen kann. Erstrecht, wenn sich die Frameraten mit MFG auch noch vervielfachen und dabei vor allem die Frametimes bzw. 1% und 0.1% extrem profitieren. Jedi Survivor hätte ich ohne die FG Mod wohl niemals gespielt, weil sich das mit FG + FPS limit so viel flüssiger angefühlt hat (lange nicht perfekt aber gefühlt 10x besser)

Früher hat man in den Foren Frametimes rauf und runter diskutiert. FG verbessert diese so extrem wie noch nie zuvor und plötzlich juckt es scheinbar keinen mehr... Verstehen muss man das wohl nicht.

The_Invisible
2025-01-12, 13:13:53
Dafür musst du kein "hochtrainierter E-Sportsler" sein, eine Latenz von Framegeneartion nimmt man sehr wohl war. Fühlt sich merklich verzögert und Merkwürdig an.

Erst gestern zum testen bei Robocop angemacht, ekelhaft! Gleich wieder aus.

Wenn du es nicht merkst, ehrlich, sei froh, so kannst du sehr viel Geld sparen, denn dir reicht eine 5070 mit ihren 75% gefakten 150 FPS aus. Win für dich.

Du bist auch nicht der Nabel der Welt, viele zocken auf Konsole mit schwankenden 30fps und Latenz aus der hölle...

aufkrawall
2025-01-12, 13:15:33
Früher hat man jedoch nie Beschwerden gehört, dass sich ein Spiel bei über 60 FPS "ekelhaft" oder "verzögert und merkwürdig" anfühlt.
Doch, früher von aufkrawall, als du hier noch nicht dabei warst. Hatte jahrelang über das damals fehlende CPU Prerenderlimit 1 im AMD-Treiber geschimpft. :biggrin:
Aber natürlich völlig scheinheilig, wie Leute Latenz kritisieren und trotzdem nicht Nvidia mit Reflex gekauft hatten. Ist halt Fanboy-"Logik".

x-force
2025-01-12, 13:19:36
Du bist auch nicht der Nabel der Welt, viele zocken auf Konsole mit schwankenden 30fps und Latenz aus der hölle...

fg erzeugt spürbaren lag.

viel mehr muss man dazu eigentlich nicht sagen,

ob jemand am fernseher mit 200ms ping und 30fps spielt, tut nichts zur sache, oder sind wir hier im peasant forum?

aufkrawall
2025-01-12, 13:22:30
fg erzeugt spürbaren lag.

viel mehr muss man dazu eigentlich nicht sagen,

Doch. Nämlich, dass kein FG mit Reflex/Anti-Lag 2 spürbare Mikroruckler durch CPU-Frame-Times erzeugt.
Kann man mit etwas CPU Prerender wegglätten, fühlt sich aber auch direkt wieder laggier an und sieht trotzdem viel weniger flüssig aus als FG mit 80% Skalierung.
Ist halt alles zu komplex zu verstehen für viele Leute, ähnlich wie bei TAAU...

The_Invisible
2025-01-12, 13:22:33
fg erzeugt spürbaren lag.

viel mehr muss man dazu eigentlich nicht sagen,

ob jemand am fernseher mit 200ms ping und 30fps spielt, tut nichts zur sache, oder sind wir hier im peasant forum?

Mit Reflex/2 + FG erhält man die gleiche Latenz wie früher ohne Reflex und ohne fg. Also waren früher alle Spiele unspielbar...

Ex3cut3r
2025-01-12, 13:25:47
Das Latenz Argument ist doch hinterhältig. Spielt ihr alle auf OLEDs oder CRTs? Nein? Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Es klingt immer so als die Leute hier im Forum Ihr AAA Spiel mit mit 480p @ Low Settings @ nativen 240 FPS @ 480HZ Monitor spielen. Einfach nur zum schießen. ;D

aufkrawall
2025-01-12, 13:27:42
Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Nicht übertreiben. ;)
Oled ist zwar besser. Bis der Muzzle Flash nach Klicken sichtbar wird, ist der Unterschied aber auch nicht gigantisch. Kabellose Mäuse haben auch keinen Lag mehr.

x-force
2025-01-12, 13:30:35
Doch. Nämlich, dass kein FG mit Reflex/Anti-Lag 2 spürbare Mikroruckler durch CPU-Frame-Times erzeugt.
Kann man mit etwas CPU Prerender wegglätten, fühlt sich aber auch direkt wieder laggier an und sieht trotzdem viel weniger flüssig aus als FG mit 80% Skalierung.
Ist halt alles zu komplex zu verstehen für viele Leute, ähnlich wie bei TAAU...

dann wird hoffentlich bald eine abfrage programmiert, die reflex nur in kombination mit fg nutzt.
kommt das schon durch reflex alleine, oder +boost?

Sumpfmolch
2025-01-12, 13:32:57
Das Latenz Argument ist doch hinterhältig. Spielt ihr alle auf OLEDs oder CRTs? Nein? Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Es klingt immer so als die Leute hier im Forum Ihr AAA Spiel mit mit 480p @ Low Settings @ nativen 240 FPS @ 480HZ Monitor spielen. Einfach nur zum schießen. ;D

Ob es jetzt wirklich hilft, wenn die Leute auf ihrem 120Hz 1080p die 5070 statt mit 60fps ohne FG nun auf 30fps MFG ->120fps aufblasen? :uponder:

MiamiNice
2025-01-12, 13:35:04
Das Latenz Argument ist doch hinterhältig. Spielt ihr alle auf OLEDs oder CRTs? Nein? Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Das sind nur die Dinge, die eh standard sind. Du holst noch mehr Latenz raus, wenn Du HW kaufst die keine Treiber braucht. USB DACs, RGB und Lüftersteurung extern z.b. über Aquaero. Keine Logitech, Racer sonst was Treiber auf dem PC. Mitations aus und Windows ohne MS Apps + Atlas OS.
Das muss man alles in Summe machen, wenn man auf eine niedrige Latenz scharf ist. Und oben drauf kommt dann Reflex.

Troyan
2025-01-12, 13:35:32
Dafür musst du kein "hochtrainierter E-Sportsler" sein, eine Latenz von Framegeneartion nimmt man sehr wohl war. Fühlt sich merklich verzögert und Merkwürdig an.

Erst gestern zum testen bei Robocop angemacht, ekelhaft! Gleich wieder aus.

Wenn du es nicht merkst, ehrlich, sei froh, so kannst du sehr viel Geld sparen, denn dir reicht eine 5070 mit ihren 75% gefakten 150 FPS aus. Win für dich.

Nun, wenn du die Verzögerung "merken" würdest - wie gehst du dann jetzt mit Reflex 2 um? Du weißt ja, dass Reflex 2 weniger Latenz als Reflex hat. Reflex 2 reduziert die Latenz auch nochmal um fast 50%: https://youtu.be/zpDxo2m6Sko?t=191

Du merkst null. Aber vielleicht bist du auch genau derjenige, der in Deutschland die E-Sports Szene in CS2 anführt. Who knows.

Colin MacLaren
2025-01-12, 13:40:53
Das Latenz Argument ist doch hinterhältig. Spielt ihr alle auf OLEDs oder CRTs? Nein? Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Es klingt immer so als die Leute hier im Forum Ihr AAA Spiel mit mit 480p @ Low Settings @ nativen 240 FPS @ 480HZ Monitor spielen. Einfach nur zum schießen. ;D

Wer die Kohle für eine 5080 oder 5090 hat, der tut dies. Ich spiele Multiplayer-Spiele auf FullHD OLED mit 480Hz. Die Funkmäuse haben mittlerweile bessere Latenz als die mit Kabel (und generell im Bereich <1ms).

Der Umstieg von 120Hz/fps zu möglichst nah an die 480Hz/fps ist deutlich spürbar. Das sieht man besonders, wenn man mal beides nebeneinanderstellt.

https://www.youtube.com/watch?v=hHxhoxkGmgU

Dafür musst du kein "hochtrainierter E-Sportsler" sein, eine Latenz von Framegeneartion nimmt man sehr wohl war. Fühlt sich merklich verzögert und Merkwürdig an.

Erst gestern zum testen bei Robocop angemacht, ekelhaft! Gleich wieder aus.

Wenn du es nicht merkst, ehrlich, sei froh, so kannst du sehr viel Geld sparen, denn dir reicht eine 5070 mit ihren 75% gefakten 150 FPS aus. Win für dich.

Ich finde die Frame Generation gut, wenn der Inputlag nur leicht steigt (alles unter 5ms ist verschmerzbar), aber dafür deutlich mehr FPS und damit Bewegtbildschärfe drin sind. Ich kriege aktuell bei FSR3 Framegen laut NVIDIA Frameview 3ms drauf. Das ist mir das schärfere Bild wert.

Relex
2025-01-12, 13:42:40
fg erzeugt spürbaren lag.

viel mehr muss man dazu eigentlich nicht sagen,

ob jemand am fernseher mit 200ms ping und 30fps spielt, tut nichts zur sache, oder sind wir hier im peasant forum?


Mal angenommen Reflex 2 funktioniert zusammen mit MFG.

Sagen wir du hast ohne Reflex und ohne FG bei 60 FPS ca 60ms inputlag.
Mit Reflex 1 + 2x FG meinetwegen ebenfalls 60ms inputlag dafür 90 FPS (also das was wir bisher hatten).
Mit Reflex 2 + 4x FG würdest du vielleicht auf 40ms inputlag und 150 FPS kommen.
Nur mit Reflex 1 ohne FG würdest du auf 30 ms lag bei 60 FPS kommen
Nur mit Reflex 2 ohne FG würdest du bei 60 FPS auf 20 ms inputlag kommen.

Alles nur Beispielwerte.

Würdest du für ein Singleplayer Spiel in diesem Beispiel tatsächlich lieber mit 60 FPS und 20 ms latenz spielen, anstatt mit 150 FPS und 40 ms, obwohl du ohne diese Techniken 60 ms Latenz hättest?
Du könntest von 60 ms auf 40 ms runter und die Frames vervielfachen, entscheidest dich aber, auf die Frames komplett zu verzichten und lieber 60 FPS mit nochmals weniger Latenz zu nehmen??



Das Problem ist doch, dass völlig egal wie niedrig die Latenzen werden. Und selbst wenn es nur 10ms mit FG wären die Leute immer das Argument bringen, dass die latenzen ohne FG (noch) geringer sind. Was ja auch in der Natur der Sache liegt.

Aber ich frag mich wirklich, wie man dabei die steigerung der Frameraten einfach ignorieren kann. Von 60 auf 120 auf 240 FPS zu kommen ist doch 10x mehr wert für die Optik, als 10-20ms unterschied bei den latenzen für das Spielgefühl.


Zumal ich gehört habe, dass schnelle Singleplayer First Person shooter heutzutage gar nicht mal so beliebt sind. Wenn ich sowas wie Baldurs Gate oder Kingdom Come spiele sind die Latenzen das letzte was mich jucken würde. Erstrecht wenn sie eh nicht schlechter oder besser sind als ohne Nvidia technik gedöns.


Also ich werde das niemals verstehen. Aber gut, jeder hat seine Prioritäten muss man respektieren. Aber ich habe bei der Argumentationsweise immer dass gefühl, dass die Leute es aus Prinzip einfach nicht nutzen wollen, ganz egal wie niedrig die Latenzen auch sein mögen. Solange die Latenzen ohne FG noch besser sein können wird es verteufelt.

monstar-x
2025-01-12, 13:44:23
Du bist auch nicht der Nabel der Welt, viele zocken auf Konsole mit schwankenden 30fps und Latenz aus der hölle...

Wieso sollen die Latenzen/Inputlag bei 30Fps aus der Hölle sein?
Wenn ich einen Button am Controller drücke merke ich an meine PS5 (selbst an der PS4) keine Verzögerung, hat Super funktioniert und selbst in Spielen wie Elden Ring & Returnal wo Timing sehr wichtig ist. Ganz im Gegenteil zur Framegeneration.

Das 30 FPS an Konsole schlecht sind, das steht außer Frage, mir wären 60 "Echte" FPS auch lieber, geht aber nicht bei jedem Spiel, ist nun mal so.

Auch für dich gilt, wenn du die Verzögerung zwischen Eingabe (z. B. Mausbewegung) und der auf dem Bildschirm sichtbaren Reaktion nicht merkst, oder es dich nicht stört freu dich.

Es wird in Zukunft richtig billig für dich/euch, weil du dir keine Highend mehr kaufen musst, eine 6070 wird 2-4 so schnell dank MFG 6 Fach und Node Sprung mindestens 2-3 so schnell wie die 5090.

monstar-x
2025-01-12, 13:47:04
Nun, wenn du die Verzögerung "merken" würdest - wie gehst du dann jetzt mit Reflex 2 um? Du weißt ja, dass Reflex 2 weniger Latenz als Reflex hat. Reflex 2 reduziert die Latenz auch nochmal um fast 50%: https://youtu.be/zpDxo2m6Sko?t=191

Du merkst null. Aber vielleicht bist du auch genau derjenige, der in Deutschland die E-Sports Szene in CS2 anführt. Who knows.

Echt? Du hast Reflex 2 schon getestet
Stimmt es mit den Nvidia Youtube Videos überein, oder was sind so deine Erfahrungen? Berichte doch mal, die Community dankt es dir.

Ich beurteile nichts, was ich nicht selbst getestet hab.
Reflex 2 kann ich nicht beurteilen, je doch FG + Reflex + Boost und der Inputlag ist scheiße.

Relex
2025-01-12, 13:50:15
Wieso sollen die Latenzen/Inputlag bei 30Fps aus der Hölle sein?
Wenn ich einen Button am Controller drücke merke ich an meine PS5 (selbst an der PS4) keine Verzögerung, hat Super funktioniert und selbst in Spielen wie Elden Ring & Returnal wo Timing sehr wichtig ist. Ganz im Gegenteil zur Framegeneration.



Nur blöd, dass die Latenzen auf Konsole meist deutlich höher, als am PC sind.
https://www.youtube.com/watch?v=TuVAMvbFCW4


Gemessen daran wäre selbst Frame Gen ohne Reflex (wenn es deaktivierbar wäre) aber mit Treiber Low Latency bei 60 FPS besser als das was man idr. auf Konsole bekommt.

aufkrawall
2025-01-12, 13:51:02
dann wird hoffentlich bald eine abfrage programmiert, die reflex nur in kombination mit fg nutzt.
kommt das schon durch reflex alleine, oder +boost?
Hm? Du kannst in den meisten Spielen Reflex doch ohne FG frei toggeln (sonst Dev Fail)?
Wird dann halt nur mit Treiber-NULL statt Reflex direkt wieder deutlich zäher, auch wenn da angeblich nur ~0,5 Frames Prender zwischen liegen sollen.
Hatte ich schon lange vor FG in etwa Shadow Warrior 3 festgestellt. In manchen Leveln gabs mit Reflex massiv mehr Traversal Stutter als mit NULL. War dann beides ein Stück weit unbefriedigend (auch wenn Reflex die meiste Zeit wesentlich spaßiger war).
Weder FG on noch off ist perfekt, wirklich sehr ähnliche Abwägung zu TAAU/DLSS-Upsampling on/off. Zumindest im Prinzip.

Mit dem HW-Frame-Pacing von Blackwell, besserer Skalierung und breiterer Verfügbarkeit dürfte es aber auch tatsächlich nochmal deutlich attraktiver sein als ~ein Jahr nach dem Release von Lovelace.

Troyan
2025-01-12, 13:51:22
Echt? Du hast Reflex 2 schon getestet
Stimmt es mit den Nvidia Youtube Videos überein, oder was sind so deine Erfahrungen? Berichte doch mal, die Community dankt es dir.

Ich beurteile nichts, was ich nicht selbst getestet hab.
Reflex 2 kann ich nicht beurteilen, je doch FG + Reflex + Boost und der Inputlag ist scheiße.

Man muss nichts testen. Zahl ist Zahl. 16ms weniger, sind 16ms weniger. Entweder du merkst diese oder nicht.

Offensichtlich aber merkst du 16ms mehr nur bei FG. Bei Reflex 1 dagegen sind 16ms unbedeutend. Ignoranz muss ein echter Segen sein.

rentex
2025-01-12, 14:03:19
Das Latenz Argument ist doch hinterhältig. Spielt ihr alle auf OLEDs oder CRTs? Nein? Dann hat der LCD schon massiven Input Lag? Kabellose Maus?

Es klingt immer so als die Leute hier im Forum Ihr AAA Spiel mit mit 480p @ Low Settings @ nativen 240 FPS @ 480HZ Monitor spielen. Einfach nur zum schießen. ;D

Dazu noch die Games, die unter einer, sich komisch anfühlenden Steuerung leiden...

x-force
2025-01-12, 14:08:35
Mal angenommen Reflex 2 funktioniert zusammen mit MFG.

Sagen wir du hast ohne Reflex und ohne FG bei 60 FPS ca 60ms inputlag.
Mit Reflex 1 + 2x FG meinetwegen ebenfalls 60ms inputlag dafür 90 FPS (also das was wir bisher hatten).
Mit Reflex 2 + 4x FG würdest du vielleicht auf 40ms inputlag und 150 FPS kommen.
Nur mit Reflex 1 ohne FG würdest du auf 30 ms lag bei 60 FPS kommen
Nur mit Reflex 2 ohne FG würdest du bei 60 FPS auf 20 ms inputlag kommen.

Alles nur Beispielwerte.


die brauchbarkeit hängt natürlich enorm von den konkreten zahlen ab.
du ziehst mal eben 50% von der latenz durch reflex ab. die realität scheint mir anders auszusehen, eher richtung 10%
durch fg kommt allerdings mehr als 10% wieder drauf.


Würdest du für ein Singleplayer Spiel in diesem Beispiel tatsächlich lieber mit 60 FPS und 20 ms latenz spielen, anstatt mit 150 FPS und 40 ms, obwohl du ohne diese Techniken 60 ms Latenz hättest?
Du könntest von 60 ms auf 40 ms runter und die Frames vervielfachen, entscheidest dich aber, auf die Frames komplett zu verzichten und lieber 60 FPS mit nochmals weniger Latenz zu nehmen??


ja, da 20ms sehr gut spürbar sind. denk nur mal zurück wie deutlich man auf 60hz vsync on/off und tripple buffer gemerkt hat. 16,6ms sind deutlich, 5ms kann man wahrscheinlich vernachlässigen.




Das Problem ist doch, dass völlig egal wie niedrig die Latenzen werden. Und selbst wenn es nur 10ms mit FG wären die Leute immer das Argument bringen, dass die latenzen ohne FG (noch) geringer sind. Was ja auch in der Natur der Sache liegt.

Aber ich frag mich wirklich, wie man dabei die steigerung der Frameraten einfach ignorieren kann. Von 60 auf 120 auf 240 FPS zu kommen ist doch 10x mehr wert für die Optik, als 10-20ms unterschied bei den latenzen für das Spielgefühl.


und da sind wir im bereich der präferenzen.
ich sehe z.b. auch den unterschied zwischen dlss q und dlaa deutlich. konstante, saubere 120fps würden mir immer reichen.

leider ist selbst mit einer 4090 dlss+fg in verbindung mit rt/pt nötig und wird auch mit 5090 nötig bleiben, da die rt performance selbst in der 4. gen noch mangelhaft sein wird. auf amd ist rt ja noch immer ein unbrauchbares checklistenfeature, auf nv kostet es dich die hälfte der auflösung.
was ich sagen will: fg wäre ein nischenfeature, wenn die hardware liefern würde.

MiamiNice
2025-01-12, 14:12:10
Also ich werde das niemals verstehen. Aber gut, jeder hat seine Prioritäten muss man respektieren. Aber ich habe bei der Argumentationsweise immer dass gefühl, dass die Leute es aus Prinzip einfach nicht nutzen wollen, ganz egal wie niedrig die Latenzen auch sein mögen. Solange die Latenzen ohne FG noch besser sein können wird es verteufelt.

Du bist in einem PC Master Race Forum in dem die User alles dafür tun, die Latenz möglichst klein zu halten. Du wunderst Dich wirklich warum nur eine Minderheit eine Mechanik nutzen möchte, die alle diese Bemühungen unterwandert? Beim TV schaltet man btw. in den Spielemodus um die Zwischenbildberechnung zu eliminieren um spielen zu können. Im PC willst Du die nun extra einzuschalten?!? Und dazu sind es Fake Frames, unechte nicht reale Frames. Cheat Frames wenn man so will.

Dein Gefühl ist vollkommen verkehrt. Die Leuten wissen ganz genau warum sie das Feature nicht wollen. Du bist nur völlg anders ;)

Sardaukar.nsn
2025-01-12, 14:14:43
Jetzt wurde erstmal was zur kleinsten Blackwell geleakt. https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5060-mit-GB206-1463397/

Die Performance Steigerungen im unteren Segment bei 2060, 3060, 4060 waren ja immer sehr überschaubar. Vielleicht bringt hier (Multi) Frame Generation ja etwas Schwung in die Hütte.

Troyan
2025-01-12, 14:15:22
Naja, Latenz und Bildqualität widersprechen sich. Wer auf geringe Latenz achtet, der spielt in 1080p.

Mal ein Beispiel aus Black Myth mit meiner 4090, ohne Reflex und Frames limitiert auf 60 FPS:
4K DLSS Performance: 27ms
4K nativ: 67ms

Abgelesen aus dem nVidia-Overlay. In 1080p werden also pro Sekunde 2,4x mehr Informationen verarbeitet. Frag sich also, wenn jemand FG merkt, ob der überhaupt in höher als 1080p zockt...

x-force
2025-01-12, 14:17:51
Hm? Du kannst in den meisten Spielen Reflex doch ohne FG frei toggeln (sonst Dev Fail)?

ich wollte wissen, ob es deiner erfahrung nach etwas zur sache tut, ob man reflex alleine, oder reflex+boost nutzt.

Ex3cut3r
2025-01-12, 14:44:28
Du bist in einem PC Master Race Forum in dem die User alles dafür tun, die Latenz möglichst klein zu halten. Du wunderst Dich wirklich warum nur eine Minderheit eine Mechanik nutzen möchte, die alle diese Bemühungen unterwandert? Beim TV schaltet man btw. in den Spielemodus um die Zwischenbildberechnung zu eliminieren um spielen zu können. Im PC willst Du die nun extra einzuschalten?!? Und dazu sind es Fake Frames, unechte nicht reale Frames. Cheat Frames wenn man so will.

Dein Gefühl ist vollkommen verkehrt. Die Leuten wissen ganz genau warum sie das Feature nicht wollen. Du bist nur völlg anders ;)

Na klar, der typische 3DCentler mit einer Reaktionszeit im gehobenen Alter ist natürlich der 1337 Rul0r. ;D

Wie manche sich hier präsentieren wollen, einfach nur zum Brüllen. Dicke Hose und gar nichts dahinter, aber mal so gar nichts.

Und auch Cheat Frames wirken wie reale Bilder, vollkommen wurscht das Argument, 95% wurden vermutlich sowieo im Direktvergleich nicht merken, was Native Frames sind und FG Frames.

Exxtreme
2025-01-12, 14:46:04
Na klar, der typische 3DCentler mit einer Reaktionszeit im gehobenen Alter ist natürlich der 1337 Rul0r. ;D


Die beste Reaktionszeit hat man mit ~39 Jahren. Würde also zum 3DC-R00l0r passen. ;D

Edit: Was ab 20 Jahren abnimmt ist eine sehr binäre Reaktionszeit auf simple Reize. Nur gehört zum Spielen mehr als nur eine simple Heiss/Kalt/Hell/Dunkel-Reaktionszeit.

Argo Zero
2025-01-12, 14:50:50
Na klar, der typische 3DCentler mit einer Reaktionszeit im gehobenen Alter ist natürlich der 1337 Rul0r. ;D

Wie manche sich hier präsentieren wollen, einfach nur zum Brüllen. Dicke Hose und gar nichts dahinter, aber mal so gar nichts.

Und auch Cheat Frames wirken wie reale Bilder, vollkommen wurscht das Argument, 95% wurden vermutlich sowieo im Direktvergleich nicht merken, was Native Frames sind und FG Frames.

Ich weiß ja nicht, was du für ein Gefühl hast, oder eben nicht, aber mit meinen zarten 37 Jährchen spüre ich sehr wohl den Unterschied :D
Für SP ist 2xFG okayish, wenn die native Framerate sich deutlich über 60 befindet. Am besten 80+fps. Dann ist 2x2FG mit NV Reflex auf Anschlag durchaus gut spielbar im Singleplayer.

Wenn du sehr viel competitive Multiplayer (Shooter) spielst, trainierst du genau das Gefühl täglich.

ChaosTM
2025-01-12, 15:01:00
Ich hab mit den ersten Multiplayer Spielen in 1997 begonnen und ich war richtig gut.

Damals war ich 33

x-force
2025-01-12, 15:15:06
Nur gehört zum Spielen mehr als nur eine simple Heiss/Kalt/Hell/Dunkel-Reaktionszeit.

irrelevant, letztlich geht es nur darum möglichst schnell zu reagieren, wenn sich ein gewünschtes objekt im fadenkreuz befindet.

um das zu messen reichen die üblichen klicktests. da hängt dich der 16 jährige ohne probleme ab.

aufkrawall
2025-01-12, 15:35:33
ich wollte wissen, ob es deiner erfahrung nach etwas zur sache tut, ob man reflex alleine, oder reflex+boost nutzt.
Die Boost-Option existiert halt, damit die GPU-Auslastung durch niedrigeren Takt nicht hochgeht, wodurch die Latenz mitunter steigt. Also ja: Wenn die Auslastung mit Boost bei 50% liegt und ohne bei 80%, wird Boost wohl noch die ein oder andere ms abschneiden können.
Gibt allerdings manchmal komisches Verhalten mit der Boost-Option: In manchen Spielen bleibts im GPU-Limit weiter bei ~97% GPU-Auslastung, während es in anderen Spielen auf 85% mit entsprechendem fps-Verlust dropt. Ob das teilweise Absicht ist? Schwer zu sagen, tippe aber eher auf Bug.
Man kann jedenfalls auch im Treiber-Spielprofil auf maximale Performance stellen und die reguläre Reflex on-Option nutzen. Im GPU-Limit wird die Karte sich aber ohnehin schon fast immer komplett hochtakten. Ist wohl eher für so etwas wie Valorant interessant (theoretisch zumindest).


Edit: Was ab 20 Jahren abnimmt ist eine sehr binäre Reaktionszeit auf simple Reize. Nur gehört zum Spielen mehr als nur eine simple Heiss/Kalt/Hell/Dunkel-Reaktionszeit.
In Valorant/Fortnite Build gehts wohl mit dem Alter rapide bergab.

Exxtreme
2025-01-12, 16:05:18
irrelevant, letztlich geht es nur darum möglichst schnell zu reagieren, wenn sich ein gewünschtes objekt im fadenkreuz befindet.

um das zu messen reichen die üblichen klicktests. da hängt dich der 16 jährige ohne probleme ab.

Nein, Klicktests reichen nicht da viel zu simpel. Für Spiele brauchst du eher die kognitive Reaktionszeit: also Reiz -> Entscheidung treffen -> Entscheidung ausführen. Mit Klicktests würdest du das abdecken als wenn du einen Bot hättest, der die Spielfigur und das Fadenkreuz lenkt und du nur das Feuern der Waffe übernehmen würdest. Sprich, selbst Moorhuhn würde diesen Test überfordern da du bei Moorhuhn schonmal Entscheidungen treffen musst welches Huhn du ins Visier nimmst.

aufkrawall
2025-01-12, 16:08:56
So läuft das aber nicht in CS2 oder Valorant. Das sind Klick-Shooter (setzen also massiv auf Pre-Aiming), und das Flicking ist auch oft meist auf ein potenzielles Ziel begrenzt.
Und in Fortnite kannst du dir mal YT-Videos mit Audio und Builds anhören, wo die Rauschunterdrückung nicht die Tastatur rausfiltert. Maschinengewehr-Hämmern.

PHuV
2025-01-12, 16:18:22
Der Umstieg von 120Hz/fps zu möglichst nah an die 480Hz/fps ist deutlich spürbar. Das sieht man besonders, wenn man mal beides nebeneinanderstellt.

https://www.youtube.com/watch?v=hHxhoxkGmgU

Die Sache hat nur einen großen Haken, Du hast im Normalfall nicht den direkten Vergleich. Das ist das gleiche Thema wie bei Lautsprechern, nur im direkten Vergleich sind Unterschiede bemerkbar, faktisch paßt sich unsere Wahrnehmung ziemlich schnell und sofort an die Gegebenheiten an. Das heißt, wenn Du immer nur 120 Hz spielt, merkst Du kein Geruckel mehr.

Leute, Ihr macht aus dem Thema Latenzen und Co. ein viel zu großes Drama. Meine Güte, wie haben wir nur vor 40 Jahren ohne Latenzkompensation gespielt...

Unsere Wahrnehmung paßt sich permanent an, und all die Kompensation nützt nichts, wenn man gegen Jugendliche spielt, deren Reaktionsvermögen jeden über 25 schlägt. Und sind wir hier alle E-Sportler, die mit Spielen Geld verdienen? Man sollte man die Kirche hier im Dorf lassen. Das Microruckeln hat auch keiner vorher beachtet, bis der seelige Tombman hier das als Thema aufgeworfen hat. Genauso das berühmte NTSC Teardown beim Fernsehen nehmen viele gar nicht wahr oder anderes Geruckel in Bewegungen, wenn sie darauf nicht trainiert und geeicht sind. Genauso ist es mit Latenz. Man gewöhnt sich an alles, und der Fokus und die eigene Achtsamkeit ändert sich erst dann, wenn wir eine direkten Vergleich haben oder neue Hardware, welche die bisherige Wahrnehmung ändert.

Aber ich gebe einigen hier Recht, mit dem Alter wird das alles irrelevant. Komisch wie in der Hifiszene, wenn bei alten Männer das Gehör immer mehr nachläßt, aber sie immer mehr Geld in "audiophile" Komponenten stecken.
Ich hab mit den ersten Multiplayer Spielen in 1997 begonnen und ich war richtig gut.

Damals war ich 33
Du bist schon 60? :eek:

Blase
2025-01-12, 16:31:30
Die Sache hat nur einen großen Haken, Du hast im Normalfall nicht den direkten Vergleich...

Nicht nur das, das Video läuft ja auch in SloMo. Wenn du das nur langsam genug laufen lässt, sähe der Unterschied von 480 zu 960 FPS 1:1 identisch aus. Nur dass es in Echtzeit natürlich niemand merken würde...

MfG Blase

x-force
2025-01-12, 16:32:42
Die Sache hat nur einen großen Haken, Du hast im Normalfall nicht den direkten Vergleich. Das ist das gleiche Thema wie bei Lautsprechern, nur im direkten Vergleich sind Unterschiede bemerkbar, faktisch paßt sich unsere Wahrnehmung ziemlich schnell und sofort an die Gegebenheiten an. Das heißt, wenn Du immer nur 120 Hz spielt, merkst Du kein Geruckel mehr.

ist das ein grund keine brille zu tragen? :biggrin:

da passt sich nichts an, oder haben 60hz zu irgendeinem zeitpunkt für dich nicht geflimmert?

Troyan
2025-01-12, 16:37:02
Viele kaufen sich auch Monitore mit hohen Hz-Zahlen, um eine saubere Darstellung zu erhalten. Da spielt Latenz auch nur noch eine untergeordnete Rolle.

Techniken wir CRT und Plasma werden doch immer verstärkt heute in den Fokus geholt. Und die sind auf weniger als 100Hz oder so begrenzt.

PHuV
2025-01-12, 16:52:47
ist das ein grund keine brille zu tragen? :biggrin:
Was hat das damit zu tun? Hat sich hier noch nicht herumgesprochen, daß ich diesbezüglich keinen Humor habe?

da passt sich nichts an, oder haben 60hz zu irgendeinem zeitpunkt für dich nicht geflimmert?
Du vergißt den CMOS Sensor der Kamera, die das filmte, und auf die Frequenzen ähnlich wie bei Rolling Shutter reagiert. In der Realität siehst Du dieses Flimmern nicht mehr.

x-force
2025-01-12, 16:53:29
Techniken wir CRT und Plasma werden doch immer verstärkt heute in den Fokus geholt. Und die sind auf weniger als 100Hz oder so begrenzt.

ich kenne keinen plasma mit mehr als 60hz, dafür einige crts mit 200hz

Du vergißt den CMOS Sensor der Kamera, die das filmte, und auf die Frequenzen ähnlich wie bei Rolling Shutter reagiert. In der Realität siehst Du dieses Flimmern nicht mehr.

ich rede von bildschirmen und darstellung am pc.

abgesehen davon flimmert ein bildschirm ohne sample and hold mit 60hz, egal was er anzeigt und wie der inhalt erstellt wurde.

ChaosTM
2025-01-12, 16:59:46
Aber ich gebe einigen hier Recht, mit dem Alter wird das alles irrelevant. Komisch wie in der Hifiszene, wenn bei alten Männer das Gehör immer mehr nachläßt, aber sie immer mehr Geld in "audiophile" Komponenten stecken.

Du bist schon 60? :eek:

Ja und immer noch nicht tot - und ich spiele mehr denn je. :)

The_Invisible
2025-01-12, 17:46:36
Titan AI incoming? :freak:

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/RTX-Blackwell-Titan-1463419/

y33H@
2025-01-12, 17:57:58
Wäre nett, weil $2K für kastrierte Hardware nervt.

x-force
2025-01-12, 18:11:38
5090 also doch die neue 5080ti

aufkrawall
2025-01-12, 18:11:40
ich kenne keinen plasma mit mehr als 60hz, dafür einige crts mit 200hz

Gab von Samsung 100Hz Plasmas.

dargo
2025-01-12, 18:12:02
Wäre nett, weil $2K für kastrierte Hardware nervt.
Du meinst $3K für Fullchip sind besser? :freak:

why_me
2025-01-12, 18:14:39
3k? Da ist einer aber optimistisch

rentex
2025-01-12, 18:16:39
Da kann man ja ruhig warten, bis die Resfresh Versionen kommen...so langweilig die ganze Gen.

Badesalz
2025-01-12, 18:23:38
Lass doch mal die Fake News stecken. Jeder kann mit geringer eigener Hirnaktivität erfassen, dass komplett neu gerenderte Bilder und Zwischenbildberechnung nicht das Gleiche ist. Immer dieser Impetus, sich anzumaßen, dass Andere nicht für sich selbst denken können und es nur lauter komplette Vollidioten gibt, die in Nvidias machiavellistische Masterplan-Falle tappen. Nervig...Nervig. Man darf sich darüber nicht unterhalten? Er ist ja auf keinen Beitrag eingegangen um jemanden zu kritisieren (?)

horn 12
2025-01-12, 18:24:28
@rentex
Da stimme ich dir wohl zu.

Badesalz
2025-01-12, 18:25:24
Titan AI incoming? :freak: Hat Nexus nicht die tage eine 4000er Titan auseinander gebaut? Die exisiterte damit ja auch :wink:

rentex
2025-01-12, 18:32:00
Hat Nexus nicht die tage eine 4000er Titan auseinander gebaut? Die exisiterte damit ja auch :wink:

Alien Hardware... ;-D

Exxtreme
2025-01-12, 19:13:44
Die Kastration ist ja eher ein psychologisches Problem denn ein reales. :freak: Eine Grafikkarte mit vollem Chip würde wohl noch viel mehr Strom fressen denn 575 W etc. Ansonsten einfach nach Leistung kaufen und nicht nach Kastration.

y33H@
2025-01-12, 20:23:41
Ob Vollausbau oder nicht ist für das Power Target doch völlig egal, beide Parameter sind unabhängig voneinander und frei justierbar seitens Nvidia - Vollausbau mit 450W geht genauso wie Salvage mit 575W ...

Thomas Gräf
2025-01-12, 20:24:09
Die Kastration ist ja eher ein psychologisches Problem denn ein reales. :freak: Eine Grafikkarte mit vollem Chip würde wohl noch viel mehr Strom fressen denn 575 W etc.
Ansonsten einfach nach Leistung kaufen und nicht nach Kastration.

Nun, wo landet man denn aber wenn man nach Leistung sucht? ;)

dargo
2025-01-12, 20:25:27
Ob Vollausbau oder nicht ist für das Power Target doch völlig egal, beide Parameter sind unabhängig voneinander und frei justierbar seitens Nvidia - Vollausbau mit 450W geht genauso wie Salvage mit 575W ...
Warum sollte NV das tun? Damit der Vollausbau langsamer oder im besten Fall gleich schnell ist wie der Salvage? Logik? :freak:

Troyan
2025-01-12, 21:07:25
ich kenne keinen plasma mit mehr als 60hz, dafür einige crts mit 200hz


Die PC Monitore mit hohen Auflösungen waren irgendwo bei 100Hz oder so. Und da hört man niemanden, der das Spieleerlebnis miserabel empfindet, weil der Lag viel höher ist als bei LCD mit 200Hz.

zeigt eben, dass vielen die Bewegtbildschärfe viel wichtiger ist als Eingabeverzögerung.

Badesalz
2025-01-12, 21:17:24
zeigt eben, dass vielen die Bewegtbildschärfe viel wichtiger ist als Eingabeverzögerung.Es scheint es gibt nicht so viele die eine Interaktion mit der Software in einem schnelleren Tempo erledigen können als 100x pro Sekunde :uup:

x-force
2025-01-12, 21:28:26
Die PC Monitore mit hohen Auflösungen waren irgendwo bei 100Hz oder so.

die hat aber kein vernünftiger mensch genutzt.
das wäre 1600*1200@102hz gewesen und damit im bereich, den die streifenmaske nicht mehr auflösen kann.
1280*960@120hz war stand der dinge.

y33H@
2025-01-12, 21:45:30
Warum sollte NV das tun? Damit der Vollausbau langsamer oder im besten Fall gleich schnell ist wie der Salvage? Logik? :freak:Gehe doch einfach davon aus, dass es die RTX 5090 in ihrer aktuellen Form nicht gäbe, sondern einzig eine RTX 5090 Ti als Vollausbau mit 450W - rein als Beispiel und dann eine RTX 5090 als Salvage bei 400W ... alles nur exemplarisch.

CompuJoe
2025-01-12, 22:59:12
Hatte damals nen IBM P275 der 100Hz bei 1600x1200 und 1280x1024 mit 120Hz. das war schon ein feines Teil, aber Bockschwer wenn es zu Lans ging ^^

dargo
2025-01-13, 06:06:08
Gehe doch einfach davon aus, dass es die RTX 5090 in ihrer aktuellen Form nicht gäbe, sondern einzig eine RTX 5090 Ti als Vollausbau mit 450W - rein als Beispiel und dann eine RTX 5090 als Salvage bei 400W ... alles nur exemplarisch.
Es macht überhaupt keinen Sinn von irgendwas auszugehen was es nicht gibt. :) Unter den Gegebenheiten die da sind müsste deine RTX5090 @400W mit vielleicht 1,8-2Ghz takten, was reinste Verschwendung von Die-Size wäre. Wenn schon der Salvage in seiner jetzigen Form mit max. 575W kommt wird der Vollausbau (sofern der überhaupt kommt) spielend mit 650W kommen müssen damit der überhaupt Sinn ergibt.

Sardaukar.nsn
2025-01-13, 06:28:45
Wenn schon der Salvage in seiner jetzigen Form mit max. 575W kommt wird der Vollausbau (sofern der überhaupt kommt) spielend mit 650W kommen müssen damit der überhaupt Sinn ergibt.

Sehe ich ähnlich. Vielleicht sogar 700-800 Watt um sich wirklich abzuheben. Dazu 2x 12pin Stomanschlüsse und ein Monster Kühler noch größer als Asus Astral und co. oder direkt nur als Wasserblock. >> Wird nicht passieren. Daher bleibt die 5090 auch die nächsten zwei Jahre das Maß der Dinge.

EDIT: Daniel Owen fast die aktuellen Performance Daten ganz gut zusammen. Auch Preis/Performance. Ab 5:00min

pNp7GfKpn8g

dildo4u
2025-01-13, 08:41:36
Da machen die Preise eher Sinn wenn alle über 30% zulegen wirst du keine 5080 unter 1300€ bekommen.

y33H@
2025-01-13, 09:30:52
Du kennst bereits die realen Taktraten bzw Leistungsaufnahme unter Last? aha ...

Sumpfmolch
2025-01-13, 10:20:14
Oder der eine Balken für Farcry ist einfach Bullshit und vom Marketing völlig beliebig reingepinselt worden.

Die Balken sagen, dass diese Karte:
RTX 5080
Cores 10752
Base clock speed 2.30 GHz
Boost clock speed 2.62 GHz
Bandwidth 960.0 GB/s

...diese Karte in der Performance abzieht:
RTX 4090
Cores 16384
Base clock speed 2.23 GHz
Boost clock speed 2.52 GHz
Bandwidth 1.01 TB/s

w0mbat
2025-01-13, 10:25:06
Die Balken sagen, dass diese CPU:
5800 - Zen 3 - TSMC N7
8C/16T
32MB L3 Cache
Base clock speed 3,8 GHz
Boost clock speed 4,7 GHz

...diese CPU in der Performance abzieht:
3800X - Zen 2 - TSMC N7
8C/16T
32MB L3 Cache
Base clock speed 3,9 GHz
Boost clock speed 4,5 GHz


Meine: je nach dem, wie viel an der uArch geändert wurde, kann das schon stimmen.

dildo4u
2025-01-13, 10:38:02
Oder der eine Balken für Farcry ist einfach Bullshit und vom Marketing völlig beliebig reingepinselt worden.

Die Balken sagen, dass diese Karte:
RTX 5080
Cores 10752
Base clock speed 2.30 GHz
Boost clock speed 2.62 GHz
Bandwidth 960.0 GB/s

...diese Karte in der Performance abzieht:
RTX 4090
Cores 16384
Base clock speed 2.23 GHz
Boost clock speed 2.52 GHz
Bandwidth 1.01 TB/s

Hängt wie immer vom Game eine 4090 ist einfach öfter CPU limitiert wenn man nicht schweres RT testet.
Far Cry 6 ist das Gegenteil daher wurde es mit AMD Karten beworben.

Sumpfmolch
2025-01-13, 10:50:54
Hängt wie immer vom Game eine 4090 ist einfach öfter CPU limitiert wenn man nicht schweres RT testet.
Far Cry 6 ist das Gegenteil daher wurde es mit AMD Karten beworben.

Keine Ahnung aber den Balken hat NVIDIA bis auf minimale Abweichungen für alle Vergleiche bis runter zur 5070 mit identischen Performancegewinnen angegeben...

BlacKi
2025-01-13, 11:06:38
Far Cry 6 ist das Gegenteil daher wurde es mit AMD Karten beworben.


gerade in 5k zieht eine 7900xt in far cry der 4080 davon und nicht zu knapp. daran ändert das rt in homeopatischen dosen auch nichts.



das nv hier farcry in den folien aufführt ist natürlich gewollt. man möchte ein worst case szenario abbilden. jeder hersteller nimmt gute und schlechte benchmarks mit in die präsentation. damit kann man dann (be)klagen im nachhinein vermeiden.



deshalb finde ich den farcry benchmark so bemerkenswert in der präsentation. +33% in farcry 5080 vs 4080. ich denke +33-35%, das können wir so im avg erwarten.

dildo4u
2025-01-13, 11:21:55
Und Aufpassen er vergleicht mit dem GPU Index vom Techpowerup wurde der mit dem 9800X3D neu gemacht?
Das könnte erklären wie die 5080 schneller als 4090 ist was Real nicht der Fall ist.

Badesalz
2025-01-13, 11:22:30
Hängt wie immer vom Game eine 4090 ist einfach öfter CPU limitiert wenn man nicht schweres RT testet.1%minFPS? Einfach einen 9800X3D nehmen.

dildo4u
2025-01-13, 11:26:47
Die Werte von Techpowerup sind älter daher ohne 9800X3D.
Man muss auf Finale Werte warten wo alle die selbe CPU nutzen zumindest im High-End die 5070 ist vermutlich ok mit einem langsameren Modell.

Badesalz
2025-01-13, 11:29:28
@dildo4u
TPU macht immer seeehr gut gemeinte AVGs. Für Leute die nicht grad ihre erste Graka kaufen eigentlich wertlos.

die 5070 ist vermutlich ok mit einem langsameren ModellBei TPUs AVG? Ja. Das kann sein. Sonst nicht. Schon die Frametimes sind ein ganz anderes Universum mit der CPU. Das wird außer
Falschgepolten keiner liegen lassen, wenn er eine werksfrische 5070 bezahlt. Das ist wie ein M2 auf 195er Reifen.

(endlich mal ein Autovergleich gefunden was auch wirklich passt :usweet:)

dildo4u
2025-01-13, 11:31:05
Kann sein aber im High End mit Raster Only Games im Index erwarte ich CPU Limits mit 1000€ Karten.

BlacKi
2025-01-13, 12:13:06
Die Werte von Techpowerup sind älter daher ohne 9800X3D.
Man muss auf Finale Werte warten wo alle die selbe CPU nutzen zumindest im High-End die 5070 ist vermutlich ok mit einem langsameren Modell.
ist irgendwo angegeben um welche werte in welchem review es sich handelt?

Sardaukar.nsn
2025-01-13, 13:04:46
ist irgendwo angegeben um welche werte in welchem review es sich handelt?

Von diesem https://www.techpowerup.com/review/sapphire-radeon-rx-7900-gre-pulse/5.html

Also i9-14900k 6.0GHz, da dürfte kein nennenswertes CPU Limit bei 4K vorhanden sein.

dildo4u
2025-01-13, 13:12:18
Techpower erreicht nicht mal den Raster Index von PCGH.

https://i.ibb.co/QpLjkjQ/Screenshot-2025-01-13-13-10-38-856-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/KbdzDzh)
https://i.ibb.co/SvbzVsf/Screenshot-2025-01-13-13-09-55-485-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Th6sPvW)


https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Kriegsgeier
2025-01-13, 13:41:08
NVIDIA GeForce RTX 5090 reviews go live January 24, RTX 5080 on January 30

https://videocardz.com/newz/nvidia-geforce-rtx-5090-reviews-go-live-january-24-rtx-5080-on-january-30

Also noch 10 Tage aushalten ;)

Matrix316
2025-01-13, 13:54:22
Ja sehr gut. Geht erst mal alle auf die 5090, damit für das normale Volk genug 5080 dann da sind. :) :D

EDIT: Ach so die Reviews nur? Der Verkauf startet gleichzeitig? Oder? Das wäre ja doof.

Colin MacLaren
2025-01-13, 14:00:33
Die 5080er Reviews direkt zusammen mit dem Verkauf. Das verheißt nichts Gutes.

Kriegsgeier
2025-01-13, 14:06:24
Es bedeutet: viele Seiten müssten noch diese Woche ihre Testsamples von den 5090 erhalten?
Raff, schon den Postboten zur Besuch gehabt?

Raff
2025-01-13, 14:09:12
Es bedeutet: viele Seiten müssten noch diese Woche ihre Testsamples von den 5090 erhalten?
Raff, schon den Postboten zur Besuch gehabt?

Nope. Und das ist kurios, besorgniserregend, nervig. Erwartet Last-Minute-Tests und seitens der Tester reichlich angebrachte Kritik für die Geheimniskrämerei bis kurz vor Schluss. Dass ich das hier schreibe, bedeutet, dass ich kein Embargo für die Grafikkarten vorliegen habe.

MfG
Raff

Sumpfmolch
2025-01-13, 14:25:07
Hoffe um die Langeweile zu vertreiben hat Team rot wenigstens schon ein Päckchen geschickt. :biggrin:

E39Driver
2025-01-13, 14:26:21
Wenn am Ende die 5090 echt nur ~ 30% vor der 4090 landet, wäre das echt mal ein enttäuschendes Release. Mal die Tests abwarten

Raff
2025-01-13, 14:26:55
Hoffe um die Langeweile zu vertreiben hat Team rot wenigstens schon ein Päckchen geschickt. :biggrin:

Ebenfalls Fehlanzeige. :ulol: Nur auf Intel ist Verlass.

MfG
Raff

Exxtreme
2025-01-13, 14:33:27
Wenn am Ende die 5090 echt nur ~ 30% vor der 4090 landet, wäre das echt mal ein enttäuschendes Release. Mal die Tests abwarten

Wird hier und da wahrscheinlich mehr sein. Blackwell hat beträchtlich mehr Speicherbandbreite. Und die RTX4090 verhungert öfter wegen zuwenig Speicherbandbreite. Das sieht man daran wie gut das Ding mit Speichertakt skaliert. Bei älteren oder nicht so anspruchsvollen Spielen wird es aber wohl doch auf 20 - 30% hinauslaufen, ja.

Kriegsgeier
2025-01-13, 14:33:48
ohje. Sobald der Postbote bei dir klingelt und ein grünes Paket überreicht bist du direkt unter NDA? Oder erst wenn du das Paket öffnest?

Angiesan
2025-01-13, 14:36:06
Nope. Und das ist kurios, besorgniserregend, nervig. Erwartet Last-Minute-Tests und seitens der Tester reichlich angebrachte Kritik für die Geheimniskrämerei bis kurz vor Schluss. Dass ich das hier schreibe, bedeutet, dass ich kein Embargo für die Grafikkarten vorliegen habe.

MfG
Raff

Oh das ist ungewöhnlich, oder? Hoffe das NV nicht so einen Stunt macht und nur noch "ausgewählte" (wohlgesonnene Redaktionen bedient) und der Rest über die Youtuber mit aufgerissenen Augen bedient wird, die dann 30 min. Lobpreisungen absondern.

dildo4u
2025-01-13, 14:39:58
Die Karten werden durch Software definiter mich juckt eine AMD review Null wenn ich kein FSR4 Test gleichzeitig bekomme.
Nvidia hat ja auch tonnen neue DLSS Features die man erstmal bewerten muss.

Radeonfreak
2025-01-13, 14:40:42
[B]NVIDIA GeForce RTX 5090 reviews go live January 24

Sehr schön. Da hab ich ja einige Tage Bedenkzeit.

Lurtz
2025-01-13, 14:41:23
Wann fallen die Embargos für DLSS 4? Mit den 5090-Reviews?

Thomas Gräf
2025-01-13, 14:41:50
Hmm, um Verkaufswerbung brauch nV sich nicht zu kümmern.
Eher gehts darum das Gesicht nicht zu verlieren.
Und da sind die YT Jubelperser besser für geeignet als die üblichen
Fachleute.

w0mbat
2025-01-13, 14:43:55
Ebenfalls Fehlanzeige. :ulol: Nur auf Intel ist Verlass.

MfG
Raff
Jupp. Intel PR/Comms ist top. Nvidia ist OK. AMD ist (bei mir) totales Versagen. Fast nicht existent. Die haben keine gute Agentur in De.

Ich Depp hab nein zur 5090 gesagt. Aber reviews sind mir auch zu viel Arbeit. Passt schon.

Lawmachine79
2025-01-13, 14:44:11
Hoffe um die Langeweile zu vertreiben hat Team rot wenigstens schon ein Päckchen geschickt. :biggrin:
Wie demotivierend das sein muss, eine AMD-Karte zu testen, wenn man zu Hause eine 4090 hat. Oder machen das bei PCGH Leute, die man rausekeln will?

Relex
2025-01-13, 14:45:27
Wann fallen die Embargos für DLSS 4? Mit den 5090-Reviews?

Gehe mal sehr stark davon aus. Ein 5090 review ohne DLSS4 macht ja mal gar keinen Sinn, nachdem das so agressiv beworben wurde.
Das würde mich auch mit Abstand am meisten interessieren.

Performancegewinne mit DLSS4 Frame Generation CNN vs Transformer bei 2x.
Qualität und Performance von DLSS SR CNN vs Transformer usw.

Wäre super, wenns das schon am 24 anstatt am 30. gibt.

Sumpfmolch
2025-01-13, 14:50:34
Oh das ist ungewöhnlich, oder? Hoffe das NV nicht so einen Stunt macht und nur noch "ausgewählte" (wohlgesonnene Redaktionen bedient) und der Rest über die Youtuber mit aufgerissenen Augen bedient wird, die dann 30 min. Lobpreisungen absondern.

Jetzt aber schnell einen salbungsvollen Text über das MFG-Mana schreiben und AMD raten die 9070XT preislich weit unter die 5070 12GB zu packen. :deal:

Exxtreme
2025-01-13, 14:54:51
Eine Sache ist interessant: es haben offenbar nicht alle angekündigten Grafikkarten DP2.1b-Support mit 80 GB/s.

Die FE hat es:
https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5090/

Die ASUS hat es nicht:
https://rog.asus.com/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5090-o32g-gaming/spec/

Die MSI auch nicht:
https://www.msi.com/Graphics-Card/GeForce-RTX-5090-32G-SUPRIM-SOC/Specification

Die Gigabyte auch nicht:
https://www.gigabyte.com/Graphics-Card/GV-N5090AORUS-M-32GD/sp#sp

Gainward auch nicht:
https://www.gainward.com/main/vgapro.php?id=1225&lang=de


Also aufpassen falls euch DP2.1b wichtig ist. :)

PHuV
2025-01-13, 15:15:58
Nope. Und das ist kurios, besorgniserregend, nervig. Erwartet Last-Minute-Tests und seitens der Tester reichlich angebrachte Kritik für die Geheimniskrämerei bis kurz vor Schluss. Dass ich das hier schreibe, bedeutet, dass ich kein Embargo für die Grafikkarten vorliegen habe.
Obwohl es schon so viele Anbieterkarten gibt? :confused: Ich bin überrascht, weil ich kann mich nicht daran erinnern, daß es vor einem Launch einer GPU-Reihe schon so viele konkrete Modelle wie jetzt bei Blackwell gab.
Eine Sache ist interessant: es haben offenbar nicht alle angekündigten Grafikkarten DP2.1b-Support mit 80 GB/s.

Ach nö, warum daß denn? Aber vielleicht können es die anderen noch, so wie damals bei den GTX 9x0 und 10x0, noch per Firmwareupdate nachreichen.
Update: Ok, das Presse Release war ja erst am 06.01.2025
https://www.displayport.org/pr/vesa-to-update-displayport-2-1-with-new-active-cable-specification-for-up-to-3x-longer-dp80-cables/

Wobei es genau so ist, wie ich es sagte, die DP2.1 Modelle kann man immer noch an zwei Händen abzählen.
https://geizhals.de/?cat=monlcd19wide&xf=17830_DisplayPort+2.1x
Mein Prognose, daß DP 2.0/2.1 noch lange keine Relevanz haben werden, trifft bis heute zu. Und das haben unsere AMD Freunde ja immer als Kaufargument für diese GPU genannt. Wie man sehen kann, war die frühe Zertifizierung dafür eigentlich umsonst, zudem sich dieser Kundenkreis kaum solche teuren Monitore kauft, und andererseits schon wieder die nächste Generation an den Start geht.

BTW sehe ich gerade, daß mein Dell 6k schon DP2.1 hat. :freak: Aber ich betreibe ihn ganz schnöde an einer Intel iGPU UHD 770.

MiamiNice
2025-01-13, 15:46:40
Vielleicht hat sich NV überlegt die üblichen Medien gar nicht mehr mit Testsamples zu versorgen. Hätte ich an NVs Stelle schon lange überlegt. Die Dinger verkaufen sich auch so und Raff und Co. murren nur rum wegen zu wenig Speicher, etc. Da übergebe ich die Karten doch lieber paar Fanbois on YT.

davidzo
2025-01-13, 15:49:39
Ebenfalls Fehlanzeige. :ulol: Nur auf Intel ist Verlass.

MfG
Raff
Leider nur die B570 fürchte ich. Nach der CPU Overhead Debatte verstehe ich aber auch wieso G31 nicht mehr kommt. Wenn selbst ein 9800x3d schon manchmal die Performance einer Entry level B580 einschränkt, dann würde ein höher performenden Chip der gleichen Architektur nur noch schlechter skalieren.


Und da sind die YT Jubelperser besser für geeignet als die üblichen
Fachleute.

Zum Glück hat nvidia derzeit hardwaretechnisch genug vorzuweisen dass man darauf auf sowas angewiesen ist. Aber könnte nvidia das machen? auf jeden Fall. Es gibt genug Journalisten die auch Nvidia Stock halten und die Dominanz auf dem Markt ist groß genug dass Nvidia quasi entscheiden kann wer tech-journalist bleiben darf und wer nicht. Die Tendenz zu solcher Verquickung ist leider beängstigend. Momentan sehe ich aber keine Notwendigkeit für Jensen einen Elon zu pullen.

Tesla zum Beispiel betreibt erfolgreich so eine Echokammer wo Anleger, Kunden, Journalisten und PR Agenturen zu großen Teilen Deckungsgleich sind und die Einzigen die zu neuen Launches eingeladen werden. Damit lässt sich dann erfolgreich ein fallender Aktienkurs pushen. Selbst bei schlechten Zahlen kann man mit so einer Gefolgschaft zum Kursausgleich jederzeit ein ebenso großes Strohfeuer zünden welches das Loch stopft das eventuell enttäuschte Anleger oder Börsianer hinterlassen.

Die Sorgen bei nvidia sind imo noch andere. Das Unternehmen performt zwar großartig, aber der Kurs ist dermaßen überbewertet dass selbst die allerbeste Marge irgendwann nicht reicht um die Erwartungen der Anleger zu erfüllen. Das wird aber auch erst zum Problem wenn dass die Liquidität von nvidia beeinflussen würde wovon wir weit entfernt sind. Das würde dann zu Entlassungswellen oder freiwilligen Kündigungen von Führungspersonal wie bei tesla führen, die das sinkende Schiff verlassen. Erst dann müsste nvidia zu solchen Mitteln greifen.

Exxtreme
2025-01-13, 15:54:15
Also das mit DP2.1b scheint doch nicht so ein Riesenakt zu sein. Der Unterschied zwischen 2.1a und 2.1b sind wohl nur die längeren aktiven Kabel.

https://tftcentral.co.uk/news/nvidia-rtx-50-series-graphics-cards-add-displayport-2-1-uhbr20-connectivity-finally

"As far as we know there’s no change to the DP connections required on graphics cards or monitors, and there are no changes to speeds, UHBR tiers and so on, and so these could just as easily be labelled as DP 2.1b."

ashantus
2025-01-13, 16:03:22
@ Raff
Warum läuft es nicht komplett unabhängig von den Herstellern?
Einfach im Shop bestellen zum Normalpreis. Dann die Tests, danach das Zeug auf Lager oder als gebraucht verkaufen?
Der Wertverlust als Gebrauchtware ist gering, man hat ja die Einnahmen aus dem Review.
Mit der Methode unterschreibt man kein einziges NDA oder unterliegt irgend einem Einfluß.

Tomahawk
2025-01-13, 16:17:22
@ashantus
Dir ist schon bewusst, dass die Reviews dann verspätet erscheinen würden und dass die interessierten Leser sich zuvor schon andere Artikel angeschaut hätten?

ashantus
2025-01-13, 17:10:40
@ashantus
Dir ist schon bewusst, dass die Reviews dann verspätet erscheinen würden und dass die interessierten Leser sich zuvor schon andere Artikel angeschaut hätten?

Ja und?
Beste hardwareseite war Anandtech! Die Reviews hatten die höchste Qualität von allen Webseiten (sorry Raff)
Deswegen waren sie idR etwas später dran. Aber Reviews gelesen zu einem späteren Zeitpunkt als Release waren Sie damit die erste Wahl.
Wer etwas später ist, verliert am Anfang ein paar Leser. Aber nicht alle Kunden kaufen am ersten Tag! Wenn Du eine Woche später veröffentlichst, aber den besten Artikel hast, dann sollten Dir die meisten Leser gehören, die ab der zweiten Woche kaufen wollen. Und das Ding hat einen Verkaufszeitraum von 2 Jahren.
Eine Woche vs. 2 Jahre! Das ist meine Meinung.

Das zweite Argument nannte ich bereits. Eine Woche später dran, aber komplett unabhängig von NDA oder sonstigem!

Drittes Argument: man hat ein Produkt aus dem Laden! Was bedeutet das?
Bei der 4070 bspw. gab es Marken welche über 70% Spulenfiepen hatten. Luxx-Userauswertung zum Spulenfiepen. Als Testsample bei den Institutionen hatte aber niemand ein Model mit Spulenfiepen von dieser Marke. Also war das ordentlich handsortiert was an die Institutionen ging! Zufallskauf als Otto-Normal hätte zumindest bei manchen Testern ein auffälliges Spuelnfiepen aufgedeckt.

Wuge
2025-01-13, 17:26:21
Eine Sache ist interessant: es haben offenbar nicht alle angekündigten Grafikkarten DP2.1b-Support mit 80 GB/s.

Die FE hat es:
https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5090/

Die ASUS hat es nicht:
https://rog.asus.com/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5090-o32g-gaming/spec/

Die MSI auch nicht:
https://www.msi.com/Graphics-Card/GeForce-RTX-5090-32G-SUPRIM-SOC/Specification

Die Gigabyte auch nicht:
https://www.gigabyte.com/Graphics-Card/GV-N5090AORUS-M-32GD/sp#sp

Gainward auch nicht:
https://www.gainward.com/main/vgapro.php?id=1225&lang=de


Also aufpassen falls euch DP2.1b wichtig ist. :)

Und die FE gibts nicht mit Wakü... ich kotze.

Tomahawk
2025-01-13, 17:39:03
@ashantus
Die Betonung liegt auf war - das Geschäftsmodell hat offensichtlich nicht funktioniert.

Mein Verständnis ist, dass die "Klickzahlen" für Artikel bei Veröffentlichung bzw. wenn ein Produkt in den Markt kommt sehr hoch ist, dann aber schnell nachlassen. Und nach dem initialen Artikel kann man immer noch Updates bringen (z.B. mehr Custom-Karten, neue Treiber, neue Artikel zu bestimmten Features). Mit deiner Logik würde man genau den Zeitpunkt verlieren, in dem man die mit Abstand meisten Klicks bekommt - das wäre sehr unvernünftig.

dildo4u
2025-01-13, 17:59:11
Megageometrie soll schon in Alana Wake 2 genutzt werden.

HLxVskv2zs0

Relex
2025-01-13, 18:48:55
Ist aber kein Blackwell feature. Das läuft auf allen RTX GPUs.
Ich bin sehr gespannt, wie viel performance das bringt.

Denn Vegetation ist mit RT sehr teuer. Sich bewegende Vegetation erstrecht. Da dürfte sicher viel zu holen sein.

Interessant wird auch der Performancevergleich zwischen Alan Wake 2 im jetzigenm Zustand mit DLSS, RR und FG sowie nach dem Patch mit MegaGeometry + Transformer DLSS/RR/FrameGen.


Zum Glück ist der 30. schon ein Donnerstag. Werde wahrscheinlich jedes DLSS Game das ich habe testen ;D

crux2005
2025-01-13, 20:47:59
Eine Sache ist interessant: es haben offenbar nicht alle angekündigten Grafikkarten DP2.1b-Support mit 80 GB/s.

Die FE hat es:
https://www.nvidia.com/en-us/geforce/graphics-cards/50-series/rtx-5090/

Die ASUS hat es nicht:
https://rog.asus.com/graphics-cards/graphics-cards/rog-astral/rog-astral-rtx5090-o32g-gaming/spec/

Die MSI auch nicht:
https://www.msi.com/Graphics-Card/GeForce-RTX-5090-32G-SUPRIM-SOC/Specification

Die Gigabyte auch nicht:
https://www.gigabyte.com/Graphics-Card/GV-N5090AORUS-M-32GD/sp#sp

Gainward auch nicht:
https://www.gainward.com/main/vgapro.php?id=1225&lang=de


Also aufpassen falls euch DP2.1b wichtig ist. :)

Sie haben alle 2.1a was auch 80Gbps ist.
https://en.wikipedia.org/wiki/DisplayPort

2.1b wird auch erst im Frühling 2025 "vorgestellt".

Sardaukar.nsn
2025-01-13, 20:55:46
Zum Glück ist der 30. schon ein Donnerstag. Werde wahrscheinlich jedes DLSS Game das ich habe testen ;D

Nächste Woche Freitag am 24.01. gibt's ja auch schon die Reviews. Vielleicht ist was dabei. Ich freue mich aber auch aufs selber testen ;)

Slipknot79
2025-01-13, 22:40:13
ohje. Sobald der Postbote bei dir klingelt und ein grünes Paket überreicht bist du direkt unter NDA? Oder erst wenn du das Paket öffnest?


AMDead und Ngreedia werden zuerst nen Lappen zum Unterschreiben per E-Mail schicken und erst nach Unterschrift das Paket losschicken.

crux2005
2025-01-14, 00:54:32
Das die Zotac 5090 und 5080 Solid "MSRP" Karten sind überrascht mich. Die Gigabyte und Zotac 50er haben IMHO das beste Design. Die ASUS würde auch noch gehen, aber der Kühler auf der Rückseite macht es kaputt.

u2_fzwVqCUM

Die 5070(Ti) Solid für MSRP wirken dagegen billiger.

horn 12
2025-01-14, 00:59:22
https://www.youtube.com/watch?v=7p_HUvp5KbA

Wenns so kommen sollte, dann nur 15 - max. 25% schneller als 4080
Aber nur Prognose, und sollte nix wert sein...
Aber möglich könnts sein.

Sardaukar.nsn
2025-01-14, 01:42:55
Als ob so ein No-Name YT Channel schon eine 5090 und 5080 samt funktionierendem Treiber hat.

whetstone
2025-01-14, 02:41:20
https://www.youtube.com/watch?v=7p_HUvp5KbA

Wenns so kommen sollte, dann nur 15 - max. 25% schneller als 4080
Aber nur Prognose, und sollte nix wert sein...
Aber möglich könnts sein.

Fake.

Kriegsgeier
2025-01-14, 07:35:54
Habe gerade zum ersten Mal den 4090 Test von Raff durchgelesen (ja, zum 1. mal, da ich mich Ende 2022 mit der 4090 Null beschäftigt habe - habe geschworen mit der 3090 die nächste Gen. überspringen zu wollen. Habe es auch eingehalten!):
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/3/

Sehr, sehr gut geschrieben. Auf genau solchen Test werde ich von ihm zur 5090 abwarten bis ich die Karte bestelle.

Das geilste finde ich, das PCGH konsequent und durchgehend die 3440x1440p Auflösung mittestet - meine Lieblings Auflösung seit min. 6 Jahren

Kriegsgeier
2025-01-14, 08:06:07
Warum ich denke, wir könnten regelreche Überflutung der Grafikkarten bei dieser Gen. erleben:

N4P Node --> ist sehr ausgereift (ADA hat fast den gleichen verwendet!), die Maschinen eingelaufen/erprobt - die Produktionslinien spucken die Chips schon seit gut 3 Monate raus! Wohin damit?!
PS: das war auch der Grund warum die 4090 Produktion so schnell ausgelaufen ist. Man hat die gleichen Linien nutzen können.

Dann kommt zu sowas, wie:

MAXSUN reveals GeForce RTX 50 Mega Gamer design, Dot Matrix screen is back
https://videocardz.com/newz/maxsun-reveals-geforce-rtx-50-mega-gamer-design-dot-matrix-screen-is-back

YESTON reveals GeForce RTX 50 SAKURA and SAKURA Atlantis GPUs
https://videocardz.com/pixel/yeston-reveals-geforce-rtx-50-sakura-and-sakura-atlantis-gpus



Habt ihr von diesen Hersteller was gehört? Ich nicht! Sogar diese legen mehrere Modelle auf!

madzapp
2025-01-14, 08:31:54
Von Yeston hört man öfters. Die Cute Pet Serie find ich geil, gibt es gelegentich Revues, die anderen weniger.
Von der anderen Firma nur aus Erwähnungen.

Neurosphere
2025-01-14, 08:33:24
Es gibt einige Hersteller die nicht in der EU vertreten sind. Gegeben hat es sie aber schon länger.

Sardaukar.nsn
2025-01-14, 08:54:05
Hat jemand in den letzten Jahren Erfahrung mit Palit/Gainward gemacht? Soll als Basis für Wasserkühlung dienen: https://watercool.de/heatkiller-v-pro-ultra-fuer-palit-gainward-rtx-5090-grafikkarten/

Ich hatte eine 1080ti von Palit, erst Ghetto-Mod ála Raff und später auf Wasserkühlung umgebaut.
Davor gefielen mir die Gainward Phantom Modelle immer ganz gut. Z.b.: https://youtu.be/yNlXsZ1C3dA?si=q4L7Hy_8gmfBZ8iG

w0mbat
2025-01-14, 09:29:54
N4P Node --> ist sehr ausgereift (ADA hat fast den gleichen verwendet!), die Maschinen eingelaufen/erprobt - die Produktionslinien spucken die Chips schon seit gut 3 Monate raus! Wohin damit?!
PS: das war auch der Grund warum die 4090 Produktion so schnell ausgelaufen ist. Man hat die gleichen Linien nutzen können.

Soweit ich weiß, ist "4N" Nvidias Marketingname für TSMC N5P und "4NP" ist TSMC N4P. Ada -> Blackwell ist also N5P -> N4P. Aber das ist alles unbestätigt, was genau hinter den Nvidia Prozessen steckt wurde nie offiziell gesagt.

robbitop
2025-01-14, 09:31:12
Du hattest doch mal im Forum geschrieben dass 4N nach deinen Quellen N5 war? Jetzt N5P? Damals typo oder hat sich da was geändert in Zwischenzeit? Ich frage nur aus Interesse :)

Der Sprung von N5P auf N4P ist wahrscheinlich ziemlich klein. Von N5 auf N4P wäre es ein wenig mehr gewesen.

w0mbat
2025-01-14, 09:45:23
Ja, N5(P). Auf jeden Fall ein N5 Derivat und kein TSMC N4, das weiß ich. Ob jetzt N5 oder P kann ich nicht 100% sagen.

Kriegsgeier
2025-01-14, 09:55:05
Hat jemand in den letzten Jahren Erfahrung mit Palit/Gainward gemacht? Soll als Basis für Wasserkühlung dienen: https://watercool.de/heatkiller-v-pro-ultra-fuer-palit-gainward-rtx-5090-grafikkarten/

Ich hatte eine 1080ti von Palit, erst Ghetto-Mod ála Raff und später auf Wasserkühlung umgebaut.
Davor gefielen mir die Gainward Phantom Modelle immer ganz gut. Z.b.: https://youtu.be/yNlXsZ1C3dA?si=q4L7Hy_8gmfBZ8iG

Das wäre auch meine bevorzugte Variante!

Lawmachine79
2025-01-14, 09:57:23
Hat jemand in den letzten Jahren Erfahrung mit Palit/Gainward gemacht? Soll als Basis für Wasserkühlung dienen: https://watercool.de/heatkiller-v-pro-ultra-fuer-palit-gainward-rtx-5090-grafikkarten/

Ich hatte eine 1080ti von Palit, erst Ghetto-Mod ála Raff und später auf Wasserkühlung umgebaut.
Davor gefielen mir die Gainward Phantom Modelle immer ganz gut. Z.b.: https://youtu.be/yNlXsZ1C3dA?si=q4L7Hy_8gmfBZ8iG
Ich würde mich mal umsehen, bei welchen Herstellern Du die Garantie bei Umbauten nicht verlierst. Leider gibt es nichts von EVGA, bei den anderen Herstellern kenne ich die Policy nicht. ChatGPT nennt noch PNY und XFX. Muss man natürlich mit dem konkreten Produkt nochmal prüfen, bevor man kauft. Von den genannten Herstellern wird nur PNY eine 5090 liefern. Jetzt muss es nur noch einen Block geben, der auf eine PNY 5090 passt ;).

Ich hatte aus diesen Gründen erwogen, mir eine 5090 mit vorinstalliertem Block zu kaufen. Der Einwand, die gebraucht wieder loszuwerden, ist aber sehr valide und ich kann mir vorstellen, dass man da Abschläge machen muss.

Kriegsgeier
2025-01-14, 10:21:01
Gigabyte WATERFORCE wäre mein Favorit dann.

monstar-x
2025-01-14, 10:23:08
Warum ich denke, wir könnten regelreche Überflutung der Grafikkarten bei dieser Gen. erleben:

N4P Node --> ist sehr ausgereift (ADA hat fast den gleichen verwendet!), die Maschinen eingelaufen/erprobt - die Produktionslinien spucken die Chips schon seit gut 3 Monate raus! Wohin damit?!
PS: das war auch der Grund warum die 4090 Produktion so schnell ausgelaufen ist. Man hat die gleichen Linien nutzen können.

Dann kommt zu sowas, wie:

MAXSUN reveals GeForce RTX 50 Mega Gamer design, Dot Matrix screen is back
https://videocardz.com/newz/maxsun-reveals-geforce-rtx-50-mega-gamer-design-dot-matrix-screen-is-back

YESTON reveals GeForce RTX 50 SAKURA and SAKURA Atlantis GPUs
https://videocardz.com/pixel/yeston-reveals-geforce-rtx-50-sakura-and-sakura-atlantis-gpus



Habt ihr von diesen Hersteller was gehört? Ich nicht! Sogar diese legen mehrere Modelle auf!

Wie können eigentlich chinesische Hersteller 5080/5090 produzieren, unterliegen dieser nicht der Beschränkung?

Wenn der Chip erstmal in China ist, kann doch niemand mehr kontrollieren wieviel tatsächlich ins Westliche Ausland verkauft werden? In dürften diese ja nicht verkauft werden.

Kriegsgeier
2025-01-14, 10:26:17
das ist es ja - völlig neben der Logik das ganze.
Vor Allem, fast ALLE Hersteller lassen es in Mainland-China herstellen. Ob MSI, ASUS oder GIGABYTE. Wegen den zu verbauten Materialen/Bauteilen und natürlich Energie! Arbeitsstundenlöhne sind nicht mehr so ausschlaggebend in China.

Guckt mal ein Grafikkartenproduktionsvideo von Der8auer - er war glaube ich bei Powercolor - Produktion 7800XT - da ist mir so richtig bewusst geworden wie Komplex solch eine Produktionslinie wirklich ist!

MiamiNice
2025-01-14, 10:31:06
Gigabyte WATERFORCE wäre mein Favorit dann.

Falls Du die 32G meint, also mit vorinstalliertem Wasserblock, achte auf die Höhe der Karte. Hatte mir die auch angesehen und versucht die Maße zu schätzen, überhang Slotblende vergleichen mit dem Aquacomputer 3090 Kühler der bei mir drin ist, in meinem Dynamic XL wird es knapp. Ich denke die passt entweder so gerade eben oder eher nicht. Anschlusstermianl ist das Problem.

https://i.ibb.co/Zxb89Fw/AORUS-Ge-Force-RTX-5090-XTREME-WATERFORCE-WB-32-G-01.png (https://ibb.co/GRr2m81)
https://i.ibb.co/x2X82bq/AORUS-Ge-Force-RTX-5090-XTREME-WATERFORCE-WB-32-G-01.png (https://ibb.co/7SjNSDt)

Kriegsgeier
2025-01-14, 10:38:23
aha, interessant. Was mich bei dem vorinstalliertem Wasserkühler stören würde ist, dass ich nicht wüsste wie gewissenhaft die Paste / am besten natürlich PhasenPad aufgebracht worden ist + ob alles bei der GDDR-Bausteinen richtig installiert ist - will keine Hotspots haben, die ich persönlich nicht merke aber die Karte irgendwann mal sagt: "nö, jetzt will ich nicht mehr"

Wiederverkaufswert wäre natürlich bei solch einer Karte wesentlich geringer als bei Luft-ASTRAL z.B.
Das merke ich gerade bei meiner umgebauten RTX 3090.
Aber, da ich die 5090 wirklich gute 4,5 Jahre behalten will... Egal.

Cubitus
2025-01-14, 10:42:30
aha, interessant. Was mich bei dem vorinstalliertem Wasserkühler stören würde ist, dass ich nicht wüsste wie gewissenhaft die Paste / am besten natürlich PhasenPad aufgebracht worden ist + ob alles bei der GDDR-Bausteinen richtig installiert ist - will keine Hotspots haben, die ich persönlich nicht merke aber die Karte irgendwann mal sagt: "nö, jetzt will ich nicht mehr"

Wiederverkaufswert wäre natürlich bei solch einer Karte wesentlich geringer als bei Luft-ASTRAL z.B.
Das merke ich gerade bei meiner umgebauten RTX 3090.
Aber, da ich die 5090 wirklich gute 4,5 Jahre behalten will... Egal.

Die Waterforce wird vermutlich "schlanke" 3K+ Kosten.
Hatte ich auch im Auge, aber nachdem ich den Aufpreis der 5080er der Waterforce gesehen habe.. Naja.

Aber an sich bestimmt ne tolle Karte mit der AIO Lösung. :)

Sardaukar.nsn
2025-01-14, 10:43:49
Inno3D und Gigabyte wären natürlich einfach Lösungen. Wobei es sich andeutet das die Waterforce wohl mehr als 400€ Aufpreis kosten soll. https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/News/Custom-Designs-im-Handel-1463433/

Dafür baue ich selbst um gönne mir nen Heatkiller Block. Mal sehe was Inno3D verlangt und wie die Verfügbarkeit ist. Palit/Gainward scheint mir da eher „Nummer sicher“ für die Schlacht am 30.01. da man auch dem großen Run auf die Luftkühlungs Topmodelle von Asus, MSI ect. Aus dem Weg geht. So zumindest die Hoffnung ;)

@Miami: Alphcool hat meist auch alternative Terminals die flacher bauen. https://shop.alphacool.com/shop/gpu-wasserkuehlung/zubehoer/?currency=1

Kriegsgeier
2025-01-14, 10:44:24
Die Waterforce wird vermutlich "schlanke" 3K+ Kosten.
Hatte ich auch im Auge, aber nachdem ich den Aufpreis der 5080er der Waterforce gesehen habe.. Naja.

Aber an sich bestimmt ne tolle Karte mit der AIO Lösung. :)

Also gute 500-600€ mehr bezahlen? Never. dann ohne mich.
Ich warte dann einfach bis es für 2700€ zu haben sein wird.
Wenn die ASUS Astral sagen wir mal 2800€ hier bei uns kostet, dann ist das für mich die MAXIMAL-Latte für den Preis.

Und wenn wir uns ehrlich sind: ein sehr guter Luftkühler von MSI oder ASUS oder Zotac müsste eigentlich in der Herstellung mehr kosten als ein "popliger" WaKü-Block (nichts gegen die WaKü-Blöcke an sich - ich mag diese Technik sehr!), oder?
Klar, könnte sein, dass die produzierende Mengen sich um sagen wir mal Faktor 100 unterscheiden - dann versteht man die Preise von 300€ für ein WaKü-Block - Maschinenproduktionszeiten sind hier einfach wesentlich höher?

Sardaukar.nsn
2025-01-14, 11:10:59
Immerhin, die 5080 Reviews jetzt wohl doch einen Tag vor dem Verkauf. Also am 29.01.: https://videocardz.com/newz/nvidia-geforce-rtx-5090-reviews-go-live-january-24-rtx-5080-on-january-30

Blase
2025-01-14, 11:41:42
Hat jemand in den letzten Jahren Erfahrung mit Palit/Gainward gemacht?

Ich wüsste nichts negatives über meine Palit 4090 GameRock OC zu berichten. Aber die Karten werden doch mehr oder minder eh jede neue Gen neu gemischt...

MfG Blase

Thomas Gräf
2025-01-14, 12:01:23
Ich wüsste nichts negatives über meine Palit 4090 GameRock OC zu berichten.
Aber die Karten werden doch mehr oder minder eh jede neue Gen neu gemischt...]
MfG Blase


Im wahrsten Sinne des Wortes... ;)

fondness
2025-01-14, 12:15:11
NV scheint fortlaufende Probleme mit ihren Backwell AI Chips zu haben:
https://wccftech.com/nvidia-blackwell-ai-servers-faced-with-overheating-glitching-issues/

Zahlreiche Kunden sollen Bestellungen storniert haben. Dürfte Gaming aber nicht betreffen, da es um den Interconnect zwischen den zwei Dies geht.

rentex
2025-01-14, 12:32:08
NV scheint fortlaufende Probleme mit ihren Backwell AI Chips zu haben:
https://wccftech.com/nvidia-blackwell-ai-servers-faced-with-overheating-glitching-issues/

Zahlreiche Kunden sollen Bestellungen storniert haben. Dürfte Gaming aber nicht betreffen, da es um den Interconnect zwischen den zwei Dies geht.

Zusammen mit den Exportbeschränkungen ein schlechter Cocktail...

mironicus
2025-01-14, 12:35:31
Bei 575 Watt TDP würde ich auch Problem-Meldungen bei der Founders Edition erwarten. Mal schauen was das Design taugt.

Mr. Pink
2025-01-14, 12:37:19
Ich hatte aus diesen Gründen erwogen, mir eine 5090 mit vorinstalliertem Block zu kaufen.

Caseking baut dir deine Karte auf Wunsch um. Hab ich mit meiner 4090 so gemacht und werde den Service wieder nutzen. Kein Gefummel mehr und keine Gefahr etwas zu beschädigen. Weiss nur nicht mehr was das ganze gekostet hat, aber bei dem Preis einer 5090 + Wasserblock ist das auch Egal. Aber ich denke es war etwas zwischen 100 und 150€.

Kriegsgeier
2025-01-14, 12:39:23
NV scheint fortlaufende Probleme mit ihren Backwell AI Chips zu haben:
https://wccftech.com/nvidia-blackwell-ai-servers-faced-with-overheating-glitching-issues/

Zahlreiche Kunden sollen Bestellungen storniert haben. Dürfte Gaming aber nicht betreffen, da es um den Interconnect zwischen den zwei Dies geht.

Für uns Gamer könnte es sogar positive Auswirkungen haben!
Freiwerdende Kapazitäten bei TSMC? Und das seit September 2024?
Vielleicht deswegen auch so viele neue RTX Modelle?

PS: wie sicher kann man sein, dass der große 5090 Chip davon nicht betroffen ist?

MiamiNice
2025-01-14, 12:53:19
Caseking baut dir deine Karte auf Wunsch um. Hab ich mit meiner 4090 so gemacht und werde den Service wieder nutzen. Kein Gefummel mehr und keine Gefahr etwas zu beschädigen. Weiss nur nicht mehr was das ganze gekostet hat, aber bei dem Preis einer 5090 + Wasserblock ist das auch Egal. Aber ich denke es war etwas zwischen 100 und 150€.

Das wäre so gar nichts für mich. Wenn ich nicht selber die WLP drunter geamacht habe und die Schrauben nicht mit exakt 0,6Nm angezogen sind im ganzen PC, gehe ich steil ;D

Exxtreme
2025-01-14, 12:54:15
Für uns Gamer könnte es sogar positive Auswirkungen haben!

Das dauert etliche Monate bis sich das auswirkt.

monstar-x
2025-01-14, 13:24:25
Caseking baut dir deine Karte auf Wunsch um. Hab ich mit meiner 4090 so gemacht und werde den Service wieder nutzen. Kein Gefummel mehr und keine Gefahr etwas zu beschädigen. Weiss nur nicht mehr was das ganze gekostet hat, aber bei dem Preis einer 5090 + Wasserblock ist das auch Egal. Aber ich denke es war etwas zwischen 100 und 150€.

150€ für 2-3 Stunden Arbeit (inkl. Vorbereitung, zuschneiden der Pads etc.), so wie die Kosten für Pads und Wärmeleitpaste finde ich mehr als in Ordnung.

Zu dem dürfte dadurch die Garantie über Caseking bestand haben.

Matrix316
2025-01-14, 13:30:13
Ich wüsste nichts negatives über meine Palit 4090 GameRock OC zu berichten. Aber die Karten werden doch mehr oder minder eh jede neue Gen neu gemischt...

MfG Blase
Hatte deine nicht dieses Geräusch vom Lüfter?

VlXnSn2GMSA

Ich hatte die 4080 von Zotac und ein ähnliches. Ich hoffe mal die 50er Karten sind da besser...

Relex
2025-01-14, 14:25:26
Bin mit meiner 4080 MSI Gaming X Trio extrem zufrieden. Ist zwar kein High End Modell, aber die Lüfter machen einfach Null probleme. Bin da eigentlich extrem empfindlich, was brummen, surren oder irgendwelche Anlaufgeräusche angeht. Die standard Lüfterkurve ist im silent BIOS auch perfekt abgestimmt und super leise. Das hatte ich bisher auch noch nie. Musste immer selbst hand anlegen.

Ist also sicher kein problem der 40er Serie gewesen. Manche Hersteller verkacken es einfach und du weißt nie, welcher...

Blase
2025-01-14, 14:35:22
Hatte deine nicht dieses Geräusch vom Lüfter?

https://youtu.be/VlXnSn2GMSA

Ich hatte die 4080 von Zotac und ein ähnliches. Ich hoffe mal die 50er Karten sind da besser...

Das ist ja ne Turbine :tongue:

Ne, so klingt meine Karte nicht. Aber ich würde lügen wenn ich sage, dass ich die Lüfter nicht bei Vollast hören kann. Aber das habe ich selbst... zu verschulden, denn ich habe noch ein gedämmtes Gehäuse, wo der Airflow nur sekundär ist. Das Ganze steht auch in der Ecke ohne viel Optionen bezüglich frischer Luft von außen :redface:
Mit einem Fractal Torrent sähe das wahrscheinlich anders aus...

MfG Blase

Matrix316
2025-01-14, 14:41:07
Das ist ja ne Turbine :tongue:

Ne, so klingt meine Karte nicht. Aber ich würde lügen wenn ich sage, dass ich die Lüfter nicht bei Vollast hören kann. Aber das habe ich selbst... zu verschulden, denn ich habe noch ein gedämmtes Gehäuse, wo der Airflow nur sekundär ist. Das Ganze steht auch in der Ecke ohne viel Optionen bezüglich frischer Luft von außen :redface:
Mit einem Fractal Torrent sähe das wahrscheinlich anders aus...

MfG Blase
Die Lüfter sind in dem Video ja auch gar nicht so laut. Irgendwas anderes macht dieses nervende Geräusch.

Wuge
2025-01-14, 15:10:08
150€ für 2-3 Stunden Arbeit (inkl. Vorbereitung, zuschneiden der Pads etc.), so wie die Kosten für Pads und Wärmeleitpaste finde ich mehr als in Ordnung.

Zu dem dürfte dadurch die Garantie über Caseking bestand haben.

Der Preis ist sicher fair... aber wenn man Spaß am Umbauen hat halt trotzdem zu hoch ;)

Gewährleistung geht prinzipiell auch beim Eigenumbau nicht verloren, solange man nichts beschädigt.

Kriegsgeier
2025-01-14, 16:16:31
Am besten wäre für mich eine nackte 5090 Referenzboard Karte ohne jeglichen Kühler für runde 2000€
Und ich hätte mich selbst für ein Wasserblock entschieden und eingebaut.
Warum kein Hersteller sowas anbietet? Keine Ahnung - eigentlich eine Marktlücke!


Denn, in jedem Fall zahlen wir immer gute 200$ alleine für die installierte Kühllösung - will man diese ersetzen so muss man die bezahlte Kühllösung der Graka abbauen und liegen lassen :(

MiamiNice
2025-01-14, 16:21:21
150€ für 2-3 Stunden Arbeit (inkl. Vorbereitung, zuschneiden der Pads etc.), so wie die Kosten für Pads und Wärmeleitpaste finde ich mehr als in Ordnung.

Zu dem dürfte dadurch die Garantie über Caseking bestand haben.

2-3 Stunden hören sich für mich ultra lang an. Kühler runter, Karte lacken, Joint rauchen, WLP drauf und 4 Schrauben fest ziehen. Maximal eine Stunde, eher 30 Mins. Dafür finde ich die 150€ zwar OK, wegen Garantie, aber trotzdem nein danke.

why_me
2025-01-14, 16:27:44
Warum kein Hersteller sowas anbietet? Keine Ahnung - eigentlich eine Marktlücke!

Weil es den DAU gibt und der alles tun wird die Karte kaputt zu machen und dann als Defekt zurück zu schicken, ohne dass er damit etwas zu tun hatte.

Kriegsgeier
2025-01-14, 16:28:25
auf keinen Fall werden es 30 min.
Wenn einer das schreibt, dann hat er noch nie einen Kühler bei einer teureren Graka getauscht ;)
Sorry for that

why_me
2025-01-14, 16:33:39
Ist auch ein unterschied ob du das täglich mit fremden Eigentum machst oder alle 2 Jahre mit teurer Hardware die du selbst gekauft hast.

MiamiNice
2025-01-14, 16:42:04
auf keinen Fall werden es 30 min.
Wenn einer das schreibt, dann hat er noch nie einen Kühler bei einer teureren Graka getauscht ;)
Sorry for that

Nein, man macht sich frei von dem Gedanken was es kostet. Es sind meist 4 Schrauben die den gesamten Kühler an der Karte halten. Den kann man meist komplett und in einem Stück demontieren (ggf. vorher Backplate runter). Dann Chip und Speicherbausteine mit Isopropanol abwischen. Mit dem Lack um dem Chip herum lacken und trocknen lassen. Wärmepads auf die Speicher, WLP auf den Chip, Kühler drauf, 4 Schrauben fest ziehen.
Lass es 45 Mins dauern, wegen Lack trocknen.
Und ja, ich habe das schon öfter selbst gemacht, nicht nur bei meinen Karten.
Selbst früher, noch ohne WaKü, immer alternative Luftkühler auf die Karten montiert.
Das wird definitv schneller gehen als einen Ryzen zu köpfen. Von den 1xx mal hin und her im Delid Die Mate, über eine Stunde lang, ist mir noch heute schwindelig :)

Kriegsgeier
2025-01-14, 16:48:49
https://videocardz.com/newz/zotac-confirms-first-geforce-with-600w-tdp-rtx-5090-amp-extreme-infinity

WILL HABEN!

Sardaukar.nsn
2025-01-14, 17:19:08
Das 600 Watt Bios wird schon schnell seinen Weg zur Techpowerup Datenbank finden. Hoffe aber noch auf verrückte Galax HOF (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/Galax-RTX-4090-HOF-Neue-Details-zum-666-Watt-Monster-1411643/) ect. Karten.

Die Brasilianer mit dem Lötkolben kündigen schon 2 TB/s Speicherdurchsatz an. Das Doppelte einer 4090: https://videocardz.com/newz/brazilian-modders-targeting-32-gbps-gddr7-memory-mods-for-rtx-5090-aiming-for-2tb-s-bandwidth

Kriegsgeier
2025-01-14, 17:38:50
na dann viel Spaß die unzählige Kügelchen unter einem GDDR7 Modul verlöten zu müssen.

dargo
2025-01-14, 18:31:32
Die Brasilianer mit dem Lötkolben kündigen schon 2 TB/s Speicherdurchsatz an.
Wird schürfen wieder profitabel für alle? :D Keine Ahnung wo Kryprowährungen aktuell stehen.

The_Invisible
2025-01-14, 19:00:57
Das 600 Watt Bios wird schon schnell seinen Weg zur Techpowerup Datenbank finden. Hoffe aber noch auf verrückte Galax HOF (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/Galax-RTX-4090-HOF-Neue-Details-zum-666-Watt-Monster-1411643/) ect. Karten.

Die Brasilianer mit dem Lötkolben kündigen schon 2 TB/s Speicherdurchsatz an. Das Doppelte einer 4090: https://videocardz.com/newz/brazilian-modders-targeting-32-gbps-gddr7-memory-mods-for-rtx-5090-aiming-for-2tb-s-bandwidth

Dann aber bitte gleich 3gb module für 48gb ;-)

Kriegsgeier
2025-01-14, 19:30:59
Die 3GB Module werden aber mehr verbrauchen als 2 GB oder?
Obwohl beide mit 1,25V?

why_me
2025-01-14, 19:53:44
Daten halten verbraucht kaum etwas, das schnelle Senden frisst die Energie und da sind beide gleich.

Neurosphere
2025-01-14, 20:25:19
https://watercool.de/heatkiller-v-pro-ultra-fuer-palit-gainward-rtx-5090-grafikkarten/#&gid=1&pid=6

https://watercool.de/wp-content/uploads/2025/01/5090_palit_2.jpg

Hoffentlich kommt da auch schnell was für die anderen ANbieter. Watercool macht bei den GFX Blöcken meiner Meinung nach immernoch die Schicksten und die Leistung ist normalerweise auch vorne.

Kriegsgeier
2025-01-14, 21:30:07
Für Leute, die denken früher haben die Grafikkarten aus einem Teelöffel gesoffen:

PS: war die GTX 480 nicht die fermi = thermi?

konkretor
2025-01-14, 21:31:26
Aufpassen bei den alten Benchmark sachen, war das nicht der ganze PC der mit gemessen wurde?

Palpatin
2025-01-14, 21:34:42
Aufpassen bei den alten Benchmark sachen, war das nicht der ganze PC der mit gemessen wurde?
So ist es. Die Karte hatte glaub ich ein Powerlimit von 250 Watt. Die 480 Watt die z.B. auch CB gemessen hat war der Komplette Rechner.

dargo
2025-01-14, 21:44:35
Aufpassen bei den alten Benchmark sachen, war das nicht der ganze PC der mit gemessen wurde?
Korrekt. Aber womöglich versucht Kriegsgeier sich die aktuellen Heizöfen @Grafikkarten schönzureden. :tongue:

btw.
Bin mir jetzt nicht ganz sicher... aber ich meine die Verbräuche vom Gesamtsystem wurden damals auch hinter den Netzteilen gemessen. Ergo sind die NT-Verluste dort auch inbegriffen. Zudem waren damals die NTs nicht so effizient wie heute.

Kriegsgeier
2025-01-14, 21:44:39
UPS, sorry war mir so nicht bewusst!

why_me
2025-01-14, 21:51:08
Damals hatten wir auch schon riesige Grafikkarten.
Asus R290x Mars oder so. Die sind winzig im vergleich zu den heutigen Kloppern.

monstar-x
2025-01-14, 23:39:38
2-3 Stunden hören sich für mich ultra lang an. Kühler runter, Karte lacken, Joint rauchen, WLP drauf und 4 Schrauben fest ziehen. Maximal eine Stunde, eher 30 Mins. Dafür finde ich die 150€ zwar OK, wegen Garantie, aber trotzdem nein danke.

Zuerst musst schauen wie du überhaupt die GPU vom Kühlkörper trennst, ohne etwas Kaputt machen.
Danach kannst du die Anleitung des Blockherstellers studieren – mal ist das einfach, mal eher kompliziert. Falls keine Schablone beiliegt, musst du dir selbst eine drucken. Danach schneidest du ein 12x12 cm großes Pad in 25 bis 35 Stücke. Manche Stücke sind so klein, dass ich sie mit einer Lupe suchen musste :-)

Anschließend legst du die Teile sorgfältig und akkurat auf. Dann baust du alles zusammen, leuchtest von den Seiten in die GPU, um zu prüfen, ob alles richtig sitzt, und nimmst bei Bedarf Anpassungen vor.

In 30 Minuten geht das nicht, nicht wenn man vernünftig arbeitet, schon gar nicht wenn man diese Karte noch NIE auseinander gebaut hat.


PS: Ich hatte mal bei meiner 3090 beim abnehmen des Kühlers das sehr dünne zum Lüfter geschrottet, hat mich am Ende 100€ gekostet (Microlöten), da der Lüfter 3090 FE Lüfter nicht einzelne bestellbar ist, im Gegensatz zu MSI/ASUS und Co.

Das Flachband ist 7mm Flachbandkabel mit 7 Leiterbahnen a 1mm Abstand, ich hatte es vorsichtig abgeschliffen und die Kontakte übereinander gelegt, ohen Erfolgt, so das ich einen Microlöter finden musste der sowas überhaupt kann.

Palpatin
2025-01-14, 23:49:40
Damals hatten wir auch schon riesige Grafikkarten.
Asus R290x Mars oder so. Die sind winzig im vergleich zu den heutigen Kloppern.
Die dual Karten waren kamen was Leistungsaufnahme und Größe anging halbwegs an die aktuell ran.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Asus-Mars-II-im-Test-Die-extremste-Grafikkarte-der-Welt-Wahnsinn-done-right-Test-des-Tages-842114/

Thomas Gräf
2025-01-15, 00:19:39
Zuerst musst schauen wie du überhaupt die GPU vom Kühlkörper trennst, ohne etwas Kaputt machen.
Danach kannst du die Anleitung des Blockherstellers studieren – mal ist das einfach, mal eher kompliziert. Falls keine Schablone beiliegt, musst du dir selbst eine drucken. Danach schneidest du ein 12x12 cm großes Pad in 25 bis 35 Stücke. Manche Stücke sind so klein, dass ich sie mit einer Lupe suchen musste :-)

Anschließend legst du die Teile sorgfältig und akkurat auf. Dann baust du alles zusammen, leuchtest von den Seiten in die GPU, um zu prüfen, ob alles richtig sitzt, und nimmst bei Bedarf Anpassungen vor.

In 30 Minuten geht das nicht, nicht wenn man vernünftig arbeitet, schon gar nicht wenn man diese Karte noch NIE auseinander gebaut hat.
Vor allem die fetten Magnet Halter haste nich auf'm Schirm, auch nich diese fiesen mini Flachkabel.


PS: Ich hatte mal bei meiner 3090 beim abnehmen des Kühlers das sehr dünne zum Lüfter geschrottet, hat mich am Ende 100€ gekostet (Microlöten), da der Lüfter 3090 FE Lüfter nicht einzelne bestellbar ist, im Gegensatz zu MSI/ASUS und Co.

Das Flachband ist 7mm Flachbandkabel mit 7 Leiterbahnen a 1mm Abstand, ich hatte es vorsichtig abgeschliffen und die Kontakte übereinander gelegt, ohen Erfolgt, so das ich einen Microlöter finden musste der sowas überhaupt kann.

Haha ohne Igor hätt ich heut auch keine 4090 mit AC Block.

https://www.igorslab.de/nvidia-geforce-rtx-4090-founders-edition-richtig-zerlegen-anleitung-fuer-wasserkuehlungs-umbauer/

Weil das alles saugst du dir nicht aus den Fingern wenn du das nicht
beruflich machst.

Mr. Pink
2025-01-15, 02:03:08
Habe eben nochmal nachgeschaut: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13238368&postcount=13642

Der Umbau hat sogar nur 90€ gekostet. Wenn man wie Miami gerne bastelt kann man sich natürlich auch die 90€ sparen. Ich habe eine 2080ti und eine 3090 auf Wakü umgebaut, und ich habe es jedesmal gehasst. :D (Wenn ich nur daran denke wie schwer der Kühlkörper abgegangen ist...) Von daher sicher für jeden interessant der ebenfalls keine Lust auf das Gebastel hat.

Colin MacLaren
2025-01-15, 04:58:07
So ist es. Die Karte hatte glaub ich ein Powerlimit von 250 Watt. Die 480 Watt die z.B. auch CB gemessen hat war der Komplette Rechner.

Und heute zieht selbst ein übertakteter 9800X3D im Spiel nur 60W. Da gleicht es sich wieder aus zum Vollkupferkühlermonster mit Delta-Lüfter von früher :freak:

dargo
2025-01-15, 07:43:39
Und heute zieht selbst ein übertakteter 9800X3D im Spiel nur 60W.
Aber auch nur weil Spiele für so einen Prozessor Teillast sind. ;) Gibst du ihm Arbeit säuft das Teil auch seine 162W @Stock sofern Thermik nicht limitiert.

dildo4u
2025-01-15, 07:45:46
Cyberpunk schafft die 100Watt ohne OC?


RGVMUtzgI1M

dargo
2025-01-15, 08:03:44
:D

0FcjnnrlqXU

Auch wenn reine SM zu vergleichen noch viel Spekulatius ist, NV könnte den Durchsatz bei Blackwell wie AMD bei RDNA4 erhöht haben. Echt bemerkenswert was da unter der 5090 passiert ist. Ein Super, Super Refresh. :freak:

Wuge
2025-01-15, 09:06:55
Mit dem Lack um dem Chip herum lacken und trocknen lassen.

Was nehmt ihr da eigentlich? Ich hab noch nie isoliert...

Wuge
2025-01-15, 09:10:47
Die Brasilianer mit dem Lötkolben kündigen schon 2 TB/s Speicherdurchsatz an. Das Doppelte einer 4090: https://videocardz.com/newz/brazilian-modders-targeting-32-gbps-gddr7-memory-mods-for-rtx-5090-aiming-for-2tb-s-bandwidth

Totaler bullshit das was umzulöten, nicht? Die RAM ICs sind doch prinzipiell die gleichen... die 32 GBps gerateten sind evtl. gebinnt, haben sicher losere Timings. Denke man bringt die 28 gbps Teile per OC eh schon auf 32, wenn nicht, dann müsste man ehr die Timings der 32 gbit Varianten ins VBIOS einbauen anstatt minimal besser gebinnte ICs schlecht zu verlöten.

Thomas Gräf
2025-01-15, 10:16:00
Was nehmt ihr da eigentlich? Ich hab noch nie isoliert...

Stilecht is das hier...
https://www.thermal-grizzly.com/tg-shield/s-tg-ash

Früher hats aber auch normaler Fingernagel Lack gemacht.
Gibt auch solch Spray, aber Du musst da ja ziemlich Lokal auftragen.

Lawmachine79
2025-01-15, 10:35:55
UPS, sorry war mir so nicht bewusst!
Wen juckt das? Meinentwegen sollen die Dinger 1000 Watt fressen. Am Ende des Tages muss die Performance stimmen. Leistungsaufnahme ist immer so ein Argument des Performanceverlierers; das ist vielleicht dann valide, wenn man 2-3% hinten liegt, dafür aber tatsächlich 50% weniger Leistungsaufnahme hat. Aber so ein Szenario haben wir gegenwärtig weder bei CPUs noch bei GPUs.

MiamiNice
2025-01-15, 10:41:05
Was nehmt ihr da eigentlich? Ich hab noch nie isoliert...
Das was Thomas Gräf schrieb, ansonsten ordinären Nagellack.

why_me
2025-01-15, 10:43:13
Wen juckt das? Meinentwegen sollen die Dinger 1000 Watt fressen. Am Ende des Tages muss die Performance stimmen. Leistungsaufnahme ist immer so ein Argument des Performanceverlierers; das ist vielleicht dann valide, wenn man 2-3% hinten liegt, dafür aber tatsächlich 50% weniger Leistungsaufnahme hat. Aber so ein Szenario haben wir gegenwärtig weder bei CPUs noch bei GPUs.

Nicht jeder hat bock sein Zimmer mit 1kW aufzuheizen. Besonders im Sommer.
Und es hat auch nicht jeder eine Klimaanlage um dem entgegenzuwirken.
Tellerrand und so.

Fragman
2025-01-15, 10:54:44
Die beiden DF Videos zu den Themen RTX Mega Geometry und den Neural Materials wurden hier noch nicht verlinkt?

5KRxyvdjpVU

Der dadurch mögliche Detailgrad ist schon extrem und erinnert an Renderman.
Dort kann man sich die Normal Maps um Details zu faken auch sparen.
Sowas in Realtime path traced zu sehen auf einem animierten Mesh ist aber nochmal eine andere Nummer.

ku1rdOG-c4Y

Weil einige schon den Unterschied im Shading moniert haben, hier wird nochmal erklärt wo der her kommt.
Nv arbeitet auch mit MS zusammen damit das in DXR rein kommt.

dargo
2025-01-15, 11:08:54
Nicht jeder hat bock sein Zimmer mit 1kW aufzuheizen. Besonders im Sommer.
Und es hat auch nicht jeder eine Klimaanlage um dem entgegenzuwirken.
Tellerrand und so.
Apropo Tellerrand... wenn so ein Ding 1.000W frisst wie will man das noch sinnvoll in den mobilen Bereich skalieren? Trägt demnächst jeder mobil so einen Kühlblock neben dem Laptop mit sich herum? :ulol:

why_me
2025-01-15, 11:11:45
dafür nennt man dann den Chip einer 5060 einfach 5090 Mobile und verkauft den für 2k€

MiamiNice
2025-01-15, 13:51:31
Nicht jeder hat bock sein Zimmer mit 1kW aufzuheizen. Besonders im Sommer.
Und es hat auch nicht jeder eine Klimaanlage um dem entgegenzuwirken.
Tellerrand und so.

Andere stellen den MoRa im Sommer auf den Balkon/Veranda und im Winter unter den Schreibtisch :wink: Finde Karten mit so hohen Verbrauchswerten sollten generell nur als WaKü Version kommen.

Kriegsgeier
2025-01-15, 13:57:58
https://videocardz.com/pixel/nvidia-preparing-geforce-game-ready-570-drivers-for-rtx-50-launch

So wie der geleakter Screenshot (Ordner mit Driver und Reviewer-PDF usw.) zeigt haben die Reviewer die Karten schon! Genial.

MiamiNice
2025-01-15, 14:29:42
Hatte nicht Raff gestern noch geschrieben es gäbe noch keine Karten?

Exxtreme
2025-01-15, 14:33:05
Hatte nicht Raff gestern noch geschrieben es gäbe noch keine Karten?

Gestern ist gestern und heute ist heute. Und wenn er heute eine hat dann steht er jetzt unter einem NDA und wird nichts drüber schreiben dürfen. :D

Aber das ist schon krass wie die Leute nichts auf NDAs geben. Richtig fies wäre wenn jeder Reviewer eine leicht andere Treiberversion bekommen würde. Dann wüsste Nvidia anhand der Versionsnummer jetzt wer der NDA-Brecher ist. ;D

Raff
2025-01-15, 14:52:48
Gestern ist gestern und heute ist heute.

Das Motto derzeit. Nur eines ist sicher: Morgen gibt’s einen B570-Test, komme was wolle.

MfG
Raff

Kriegsgeier
2025-01-15, 14:58:54
Das was Thomas Gräf schrieb, ansonsten ordinären Nagellack.
Ich habe diesen hier bei meinem 3090Fe Umbau genutzt:
https://www.caseking.de/thermal-grizzly-shield-protective-coating-5-ml/ZUWA-211.html?gad_source=1&gclid=Cj0KCQiA1p28BhCBARIsADP9HrN0um5piU2zKdxi-sgL2DTpjVXBaxgxDo4glBFOWzZvYRJccd8L1sQaApmUEALw_wcB

Kriegsgeier
2025-01-15, 15:01:36
Gestern ist gestern und heute ist heute. Und wenn er heute eine hat dann steht er jetzt unter einem NDA und wird nichts drüber schreiben dürfen. :D

Aber das ist schon krass wie die Leute nichts auf NDAs geben. Richtig fies wäre wenn jeder Reviewer eine leicht andere Treiberversion bekommen würde. Dann wüsste Nvidia anhand der Versionsnummer jetzt wer der NDA-Brecher ist. ;D

Genau deswegen habe ich mal den guten Raff gefragt gehabt:

wann genau steht man unter NDA? Erst nach dem Öffnen von "grünen" Paketen oder schon wenn der Postbote die Tür aufmacht und bevor er das Paket übergibt sagt er die Worte: "SIE STEHEN NUN UNTER NDA!"

:)

MiamiNice
2025-01-15, 15:04:55
Für mein Verständnis von solchen Dingen muss man aktiv etwas unterschreiben, eben eine Vereinbarung.

Kriegsgeier
2025-01-15, 15:07:41
und genau das ist es ja!
Er könnte uns ja sagen: Leute, das Paket von NVIDIA ist angekommen.
Und wenn er es aufmacht, ist er Mausestill.

Wo ist das Problem? Nicht verstehen

Kriegsgeier
2025-01-15, 15:12:11
Sehr coole Tabelle:

Kriegsgeier
2025-01-15, 15:16:22
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-5080-5070-ti-5070-details.91036/

Noch mehr frisches Zeug!

dildo4u
2025-01-15, 15:19:28
Warum legt die 5070 so massiv zu die 4070S scheint nicht Bandbreiten limitiert?

Raff
2025-01-15, 15:22:10
Nvidia Blackwell: Hinter den Kulissen von RTX 5090 und Co. - Impressionen vom Editor's Day (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/CES-Editors-Day-Information-Impressions-Summary-1463495/)

MfG
Raff

why_me
2025-01-15, 15:24:30
Warum legt die 5070 so massiv zu die 4070S scheint nicht Bandbreiten limitiert?

4070S oder 4070?

dildo4u
2025-01-15, 15:26:40
20% zu 4070 mit 4% mher Cuda Cores.

Langlay
2025-01-15, 15:29:37
und genau das ist es ja!
Er könnte uns ja sagen: Leute, das Paket von NVIDIA ist angekommen.
Und wenn er es aufmacht, ist er Mausestill.

Wo ist das Problem? Nicht verstehen


Der NDA wird nicht im Paket liegen wo die Karten drin sind. Der wird vorher unterschrieben bevor die Karten in den Besitz der Redaktion übergehen. Alles andere wäre Schildbürgertum. Ohne unterschriebenen NDA werden keine Karten auf die Reise gehen.

Kriegsgeier
2025-01-15, 15:32:05
ohje, habe wieder ein Gefühl bei der 5090 eine AMPERE 2.0 Karte zu kaufen :)

Kriegsgeier
2025-01-15, 15:36:28
Also eigentlich, sind bei +33% Shaderleistung und +33% mehr Performace die 2700€ auch irgendwie zu schade :(

Nvidias Preispolitik durchschaut!

rentex
2025-01-15, 15:37:21
ohje, habe wieder ein Gefühl bei der 5090 eine AMPERE 2.0 Karte zu kaufen :)

Das hatte ich schon seit den ersten Leaks...

Exxtreme
2025-01-15, 15:38:44
Warum legt die 5070 so massiv zu die 4070S scheint nicht Bandbreiten limitiert?

Alle Adas sind bandbreitenlimitiert. Ist ja auch kein Wunder bei der schmalen Speicheranbindung. Der Cache hilft zwar bissl. Aber bei den Daten, die da durchgejagt werden ist die Wahrscheinlichkeit wohl nicht sehr hoch, dass man viele Daten aus dem Cache lädt.

Kriegsgeier
2025-01-15, 15:39:59
was tun nun? Ich weiß: ich warte nun und beobachte wie die 5090 Preise schön auf knapp 2200 fallen - dann kaufe ich erst eine 5090

Sorry NVIDIA

Ich sehe jetzt schon, dass die Gebrauchpreise von 5090 in 1,5-2 Jahren min. um die Hälfte reduziert werden. Wahrscheinlich wird die 5090 den steilsten Preisverfall erleben.

rentex
2025-01-15, 15:41:18
was tun nun? Ich weiß: ich warte nun und beobachte wie die 5090 Preise schön auf knapp 2200 fallen - dann kaufe ich erst eine 5090

Sorry NVIDIA

Bei der FOMO kannste gleich auf den Refresh warten.

dildo4u
2025-01-15, 15:43:48
Alle Adas sind bandbreitenlimitiert. Ist ja auch kein Wunder bei der schmalen Speicheranbindung. Der Cache hilft zwar bissl. Aber bei den Daten, die da durchgejagt werden ist die Wahrscheinlichkeit wohl nicht sehr hoch, dass man viele Daten aus dem Cache lädt.
Nvidia hat eine 4070 mit GDDR6 gebracht komischer Weise wirkt sich das in 4k kaum aus.


https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6