Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
Nuada
2025-01-07, 12:00:45
Na, ein echter "Gaming"-Profie spielt im Jahr 2025 auch nicht mehr mit grottiger Rasterizing Grafik. Aber offensichtlich sind einige hier noch im letzten Jahrzehnt stecken geblieben.
Und ich dachte, ein Pro-Gamer steht besonders auf Raw-Performance, und niedrige Latenzen, und nicht auf Fake Bilder. :biggrin:
Kriegsgeier
2025-01-07, 12:01:48
dann greife doch auf die 5080 Fe zurück! Kriegst später mehr wenn du es verkaufst
Wenn die Fake Bilder gut und besser als die per RAW erzeugten, spielt das, so glaube ich, keine Rolle mehr.
DrFreaK666
2025-01-07, 12:04:57
Zudem eine 5070 nur 16 GB VRAM hat, und die 4090 24 GB, was ein gutes Argument ist, sie zu behalten.
Eine 5070 hat nur 12GB. Die 5070 Ti hat dann 16
madzapp
2025-01-07, 12:05:43
Zudem eine 5070 nur 16 GB VRAM hat, und die 4090 24 GB, was ein gutes Argument ist, sie zu behalten.
12 GB bei 5070
zu spät, Vodafone mal wieder
Exxtreme
2025-01-07, 12:08:11
Und ich dachte, ein Pro-Gamer steht besonders auf Raw-Performance, und niedrige Latenzen, und nicht auf Fake Bilder. :biggrin:
Fake-Bilder sind nice wenn du im CPU-Limit rumkrebst. Denn da bringt das Entlasten der Grafikkarte nichts. Mit Fake-Bildern bekommst du dann doch mehr FPS raus was ohne Fake-Bilder gar nicht möglich gewesen wäre. Nur würde ich an der CPU trotzdem nicht sparen. 100 fps mit 4x Fake-Bildern bedeutet, dass die Spiele-Engine mit 25 fps läuft. Und 25 fps spürt man sehr deutlich an der Latenz.
Troyan
2025-01-07, 12:09:47
Dumm nur, das die Fake-Bilder real sind. Außer wir bezeichnen jegliche mathematische Berechnung als Fake.
The_Invisible
2025-01-07, 12:13:55
Wie sind die Neural Shaders eigentlich zu verstehen?
https://developer.nvidia.com/blog/nvidia-rtx-neural-rendering-introduces-next-era-of-ai-powered-graphics-innovation/
https://developer-blogs.nvidia.com/wp-content/uploads/2025/01/nvidia-rtx-neural-shaders-game-data-shader-code-1.png
Matrix316
2025-01-07, 12:17:14
Du hast doch eine 7900XTX. Du bist doch schuld, dass AMD nicht innovativ sein muss. Und jetzt zeigen die dir dreist den Mittelfinger.
Es gibt einfach noch genug, die einfach den veralteten Kram kaufen und somit AMD auch dank Konsolen keine Notwendigkeit von Innovation sieht.
Sind dann alle Schuld die eine Konsole haben?
Nvidias Innovation mit der 4080 war halt teurer als die 7900XTX und die Lüfter waren fast alle scheiße und machten komische Geräusche. ;)
Außerdem braucht man so Quatsch wie Path Tracing überhaupt nicht. Und Raytracing auch nicht unbedingt. Alles Mumpitz.
Troyan
2025-01-07, 12:17:31
Soweit ich nVidia verstehe, wird normaler Shader-Code durch ein ML-Set ersetzt, welches am Ende das selbe Ergebnis liefert.
Sind dann alle Schuld die eine Konsole haben?
Nvidias Innovation mit der 4080 war halt teurer als die 7900XTX und die Lüfter waren fast alle scheiße und machten komische Geräusche. ;)
Außerdem braucht man so Quatsch wie Path Tracing überhaupt nicht. Und Raytracing auch nicht unbedingt. Alles Mumpitz.
Nicht die Kunden, die Konsolenhersteller, die den Schrott verbauen.
Jo, die 4080 war überteuert, aber heute sieht man, dass man dann wenigsten nicht verarscht wird. Wie fühlst du dich eigentlich, dass dir 2018 Software auf deiner 2022 Grafikkarte vorenthalten werden soll?
aufkrawall
2025-01-07, 12:21:42
Und ich dachte, ein Pro-Gamer steht besonders auf Raw-Performance, und niedrige Latenzen, und nicht auf Fake Bilder. :biggrin:
Progamer sind 0,00xx% der Spielerschaft. Leute, denen Semi-Competitive wichtig ist, machen dann schon einen riesigen Marktanteil der meistgespielten Spiele aus. Und wenn die etwas informiert sind, kaufen die eh Nvidia wegen Reflex.
Habe noch nie einen irgendwie auch nur geringfügig bekannteren Streamer gesehen, der eine Radeon hätte.
Hakim
2025-01-07, 12:26:11
Ja doch ich kenne zumindest einen CoD Streamer der eine 7900XTX hat und auch für AMD Werbung macht :), das Spiel lief aber schon immer verhältnismäßig sehr gut auf Radeons
Altehardware
2025-01-07, 12:26:52
Bevor reflex irgendeinen Effekt hat sollte man beim monitor und den Eingabegeräten anfangen.
heutige hardware kann kein ps2 tasta maus nutzen alles läuft per signal von usb pole rate
Daher ist reflex mehr Psychologie als wirklich nützlich und fg erhöht die Latenz das es nur mit reflex quasi gleich wäre wie ohne fg
Daher bringt das nix.
Exxtreme
2025-01-07, 12:29:23
Das Problem an den Radeons ist der H.264-Encoder. Da reicht nur ein kleiner Kameraschwenk und man sieht nur noch quadratische Blöcke überall. Ja, der AV1-Encoder auf Radeons ist zwar sehr gut. Hilft aber nichts wenn die Heinis bei Twitch es seit 5 Jahren nicht schaffen AV1 einzubauen.
Außerdem braucht man so Quatsch wie Path Tracing überhaupt nicht. Und Raytracing auch nicht unbedingt. Alles Mumpitz.
Meinst Du das jetzt ironisch und sarkastisch oder ernst? :confused:
Gibts eigentlich schon irgendwo der Foliensatz von der Präsentation online?
00-Schneider
2025-01-07, 12:32:35
Meinst Du das jetzt ironisch und sarkastisch oder ernst? :confused:
Manche Leute haben Angst vor Dingen, die sie nicht verstehen.
Das Project DIGITS Teil, wo mir noch ein Preis fehlte, ist nun mit 3000$ bepreist:
https://nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips
Project DIGITS will be available in May from NVIDIA and top partners, starting at $3,000.
dildo4u
2025-01-07, 12:36:45
Über Treiber Software/Bios? angeblich wird die 5090D nur bei der AI Performance beschränkt.
https://videocardz.com/newz/nvidia-launches-geforce-rtx-5090d-in-china-same-specs-as-5090-with-reduced-ai-speed
MiamiNice
2025-01-07, 12:45:38
Manche Leute haben Angst vor Dingen, die sie nicht verstehen.
Manchen Menschen reicht die erreichte Grafik und wollen nicht für "noch ein wenig mehr Grafik" mit miesen FPS, Mouselag oder ähnlichen spielen. Jeder hier versteht was diese Dinge machen und wohin die Reise gehen soll. Nur nicht jeder ist damit einverstanden.
Badesalz
2025-01-07, 12:45:46
Außerdem braucht man so Quatsch wie Path Tracing überhaupt nicht. Und Raytracing auch nicht unbedingt. Alles Mumpitz.Das war eine ganze ganze Weile, teilweise leider ist das immernoch so, so von der Soft (Game) implementiert, wie wenn man Fotos nur in Teletubbie-Optik machen würde.
Wenn man das nicht so macht, und Pathtracing macht, dann ist das aber schon sehr ok.
Ganz am Anfang war das für mich in solchen schwachsinnigen Umsetzungen auch Müll. Das ist aber nicht die Schuld derer welche diese Möglichkeiten eröffnen.
Jetzt nerven nur wieder die Tec-Yuppies, Konzernpromotors und sonstige Fanboys mit ihrem noch&nöcher Edelansprüchen :usweet:
Weil das alles für ein gutes Spiel natürlich noch viel mehr können muss als UE 5.5 Megalights kann :rolleyes:
Das ist das gleiche Thema wie bei Hifi. Wie Alan Parsons himself mal bemerkte:
Audiophiles don't use their equipment to listen to your music. Audiophiles use your music to listen to their equipment.
Deswegen unterhält sich der 3DC auch so oft bei welcher Szene und bei welcher Drehung etwas hinten in der Ecke für 100ms aufblitzte.
@MiamiNice
Was ist denn mit dir los? :O Das hörte sich total menschlich an (?!) :up:
Neosix
2025-01-07, 12:46:58
Was ist eure Meinung zu den Founders Editions? Ich fand die letzten paar Generationen richtig sexy, aber hier trotz steigendem tdp nur 2 Slots? Hat Nvidia den heiligen gral der Luftkühlung gefunden. Das es bei der 70Ti wieder keine FE gibt schmerzt doppelt. Ka warum Nvidia diese Karte so sehr hasst. Hoffe es wird gute Lautstärke/Hitze Tests vor dem Release geben.
MiamiNice
2025-01-07, 12:51:00
Was ist eure Meinung zu den Founders Editions?
Ich würde mir nie eine FE kaufen. NV verbaut billigen Komponenten, das Board ist zu kompakt und eng. Wasserkühler dafür gibst es meist nur von Billiganbietern. Die Platine sieht meist maximal unsexy aus. Und NV ist in Sachen Kulanz unter aller Sau.
Bei einer FE wäre ich daher generell raus, noch eher es um OC und die miese Kühlleistung geht ;D
Christopher_Blair
2025-01-07, 12:52:06
Das Project DIGITS Teil, wo mir noch ein Preis fehlte, ist nun mit 3000$ bepreist:
https://nvidianews.nvidia.com/news/nvidia-puts-grace-blackwell-on-every-desk-and-at-every-ai-developers-fingertips
Könnte dass dazu führen, dass mehr 5090 für die Gamer übrig bleiben?
Also ich find die 5090 ziemlich uninteressant, 575W sind bekloppt, der Preis ist bekloppt und die kolportierte Mehrleistung ggü. der 5080 ist zuwenig um toll zu sein.
Ist mMn ne sehr teure Pathtracing-Lösung, ansonsten für professionelle Workloads optimiert.
Die 5080 ist aber toll, endlich mal echte Mehrleistung für weniger Geld. Die 16GB wird wohl durch neue Texturkompressionsverfahren auch noch ne weile halten mMn.
Spring
2025-01-07, 12:56:28
Das Problem an den Radeons ist der H.264-Encoder. Da reicht nur ein kleiner Kameraschwenk und man sieht nur noch quadratische Blöcke überall. Ja, der AV1-Encoder auf Radeons ist zwar sehr gut. Hilft aber nichts wenn die Heinis bei Twitch es seit 5 Jahren nicht schaffen AV1 einzubauen.
Ja... Richtiger Gamnmel (seitens Twitch)
Die 3 extra AI Frames der RTX 5xxx meinte ich allerdings gestern nicht mit Hybrid AI rendering, das ist nur nen Boost für die 5060 und 5070 (5070 mit 4090 Leistung, ja genau...) und das die 5080 und 5090 besser gegenüber der 4080/4090 aussehen.. schön 25ms extra lag (bei 120fps), die Reflex niemals ausgleichen kann auch nicht mit dem warpen, wird RIP für Multiplayer (abaimen).
Eigentlich richtig grosses Gecheate, so wäre der Tenor hier vor 20 Jahren.
Kriegsgeier
2025-01-07, 12:56:43
aha, die Founders Edition ist mit über 13cm die tiefste Karte - deswegen konnten die bei der 4cm (Dual Slot) Dicke bleiben!
https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-is-the-only-5090-sff-ready-model
Deswegen auch die 2 Lüfter, die im Durchmesser sehr groß ausgefallen sind!
Quasi min. 1cm breiter als jede andere 5090 oder 5080!
War mir so nicht bewusst! Krass!
Ich würde mir nie eine FE kaufen. NV verbaut billigen Komponenten, das Board ist zu kompakt und eng.
Die FE hatte den Vorteil, daß sie bei den 4090 deutlich kleiner war als die Boilden wie eine Asus TUF oder ROG, die mir 2-4 cm zu groß für mein Gehäuse waren.
Hakim
2025-01-07, 12:59:19
Das Kühlkonzept mag ja interessant sein, aber kann man damit wirklich auf so einer kleinen Fläche 575W kühlen? Da arbeiten seit Jahren alle Hersteller an best mögliche Lösungen und NV meint es deutlich besser machen zu können, bin echt auf die Tests gespannt
Matrix316
2025-01-07, 12:59:33
Soweit ich nVidia verstehe, wird normaler Shader-Code durch ein ML-Set ersetzt, welches am Ende das selbe Ergebnis liefert.
Nicht die Kunden, die Konsolenhersteller, die den Schrott verbauen.
Jo, die 4080 war überteuert, aber heute sieht man, dass man dann wenigsten nicht verarscht wird. Wie fühlst du dich eigentlich, dass dir 2018 Software auf deiner 2022 Grafikkarte vorenthalten werden soll?
Meinst Du das jetzt ironisch und sarkastisch oder ernst? :confused:
[...]
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus. Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft... :rolleyes:
Und dann kommt Path Tracing, was selbst eigentlich Karten die Raytracing konnten an die Wand gefahren hat.
Nur damit Nvidia ihr DLSS pushen können mit der 4000er Serie.
So ähnlich wie Hairworks damals, was eigentlich auch kein Mensch gebrauch hat.
Spiele sahen auch vor Raytracing gut aus. Selbst Cyberpunk. Das ganze hat Nvidia nur gebaut um anzugeben und um seine Karten zu pushen. ;)
Normalerweise müssten sich auch die PC Entwickler an der Konsolenhardware orientieren. Und nicht an Nvidia. Konsolen sind der kleinste gemeinsame Nenner.
Ich meine ich mag ja eigentlich Nvidia die Grafikkarten. Die letzte Radeon vor der 7900XTX war bei mir die 290X. Danach hatte ich eine Geforce 970, 980TI, 1080TI und 3080. Jetzt wirds wahrscheinlich eine 5080. Ich hatte ja kurz eine 4080, aber irgendwie war das eine der biligsten für 1300 Euro und dann macht der eigentlich leise Lüfter ein komisches Geräusch unter Last. Und die Radeon war auch ca. 100 Euro billiger. Früher hab ich immer abwechselnd gekauft. Aber Nvidia wird doch irgendwie zu dominant. Wir brauchen mehr Konkurrenz. Wenn Intel mithalten könnte im High End Bereich, würde ich vielleicht die auch mal ausprobieren. Trotz flackernder Texturen. Bei der Radeon nervt mich auch einiges. Zum Beispiel hängen Streams, wenn man z.B. gleichzeitig DAZN und Youtube schaut. Und der hohe Verbrauch. ;)
Kriegsgeier
2025-01-07, 13:01:35
Das Kühlkonzept mag ja interessant sein, aber kann man damit wirklich auf so einer kleinen Fläche 575W kühlen? Da arbeiten seit Jahren alle Hersteller an best mögliche Lösungen und NV meint es deutlich besser machen zu können, bin echt auf die Tests gespannt
Mein Post oben beantwortet deine Frage: NVIDIA ist in die Tiefe gegangen und an der höhe gespart.
Wahrscheinlich damit bis zu 4 Karten in ein PC verbaut werden können?
Zwecks LLM 4 x 32Gb z.B.?
The_Invisible
2025-01-07, 13:01:49
@Matrix316
"Du" sagst das es kein Mensch braucht, das ist der Unterschied
Spring
2025-01-07, 13:02:57
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus. Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft... :rolleyes:
Und dann kommt Path Tracing, was selbst eigentlich Karten die Raytracing konnten an die Wand gefahren hat.
Nur damit Nvidia ihr DLSS pushen können mit der 4000er Serie.
So ähnlich wie Hairworks damals, was eigentlich auch kein Mensch gebrauch hat.
Spiele sahen auch vor Raytracing gut aus. Selbst Cyberpunk. Das ganze hat Nvidia nur gebaut um anzugeben und um seine Karten zu pushen. ;)
Jensen hat doch bei der keynote selbst gesagt das sowas komplett in RT von der Rechenleistung unrealistisch ist, daher muss AI ran.
DrFreaK666
2025-01-07, 13:06:15
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus. Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft...
Keine Ahnung. Wie viele denn?
Aber ich muss sagen: Ich nutze gerne Reshade+RTGI
Matrix316
2025-01-07, 13:10:37
@Matrix316
"Du" sagst das es kein Mensch braucht, das ist der Unterschied
"Es braucht kein Mensch" ist ein Stilmittel der Übertreibung. ;) https://www.dwds.de/wb/kein%20Mensch
Aber wer hat denn vor der Geforce 2000er Serie das unbedingt gefordert? Das kam doch relativ plötzlich. Und am Anfang gar nicht mal so gut.
Exxtreme
2025-01-07, 13:12:28
So ähnlich wie Hairworks damals, was eigentlich auch kein Mensch gebrauch hat.
Hairworks ist auch Schrott hoch drei und hat sich auch nicht durchgesetzt.
Spiele sahen auch vor Raytracing gut aus. Selbst Cyberpunk. Das ganze hat Nvidia nur gebaut um anzugeben und um seine Karten zu pushen. ;)
Man bekommt ohne RT sehr gute Ergebnisse hin wenn nahezu die gesamte Geometrie des Spiels statisch ist. Denn hier kann man viele Dinge vorberechnen und diese dann als Textur passend platzieren. Der Preis, den man zu zahlen hat, ist halt statische Geometrie. Du kannst in so einem Spiel nicht viel verändern. So Dinge wie ein Loch in eine Wand ballern gehen nur an ganz bestimmten Stellen, die die Devs extra dafür vorgesehen haben etc. Will man aber flexibel veränderbare Geometrie dann ist RT die viel bessere Lösung.
The_Invisible
2025-01-07, 13:19:18
"Es braucht kein Mensch" ist ein Stilmittel der Übertreibung. ;) https://www.dwds.de/wb/kein%20Mensch
Aber wer hat denn vor der Geforce 2000er Serie das unbedingt gefordert? Das kam doch relativ plötzlich. Und am Anfang gar nicht mal so gut.
Neue Features fangen immer mit dem Henn-Ei Problem an.
In ein paar Jahren wird keine Sau mehr darüber diskutieren ob wir RT/PT brauchen oder nicht. Der Mensch ist nicht für Stillstand ausgelegt sonst würden wir heute noch in Höhlen hausen.
dildo4u
2025-01-07, 13:19:38
Custom Modelle und deren Abmessungen
https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-is-the-only-5090-sff-ready-model
Kriegsgeier
2025-01-07, 13:22:03
war die 4090Fe auch schon über 13cm breit?
Die 3090Fe wohl unter 13cm, oder?
aufkrawall
2025-01-07, 13:23:25
Man bekommt ohne RT sehr gute Ergebnisse hin wenn nahezu die gesamte Geometrie des Spiels statisch ist.
Nur theoretisch. In der Praxis nehmen Artists auch nach dem Backen Änderungen an diversen Objekten vor, oder bestimmte Volumetrieffekte etc. reagieren extrem bescheiden aufs Baking (Forbidden West Interiors...).
In der Praxis sieht jedes gebackene Lighting völlig unrealistisch aus gegen das Lumen in Fortnite, das auf den Konsolen mit 60fps 4k Target läuft (und auf der PS5 Pro auch mit HWRT 60fps).
Troyan
2025-01-07, 13:25:10
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus. Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft... :rolleyes:
Du hast dir für 1000€ eine Grafikkarte gekaufst und fragst, wieso Leute bessere Grafik haben wollen? :confused:
Wozu soviel Geld für etwas ausgeben, was exakt das selbe macht wie eine 500€ Karte?
HTB|Bladerunner
2025-01-07, 13:27:49
Wie muss man eigentlich diese Explosionszeichnung verstehen?
Die Platine ist auf dem Bild ja mittig platziert. Die beiden Lüfter können so die Abwärme durch die beiden seitlichen Kühlelemente nach oben befördern.
Damit das so funktioniert, müsste doch auch der PCIe-Slot mittig platziert sein, was er aber bekanntlich nicht ist. Dieser ist viel weiter Richtung Slotblende versetzt.
Fehlt da noch ein Platinenteil auf dem Bild oder habe ich da einen Denkfehler?
Mayk-Freak
2025-01-07, 13:30:42
aha, die Founders Edition ist mit über 13cm die tiefste Karte - deswegen konnten die bei der 4cm (Dual Slot) Dicke bleiben!
https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-is-the-only-5090-sff-ready-model
Deswegen auch die 2 Lüfter, die im Durchmesser sehr groß ausgefallen sind!
Quasi min. 1cm breiter als jede andere 5090 oder 5080!
War mir so nicht bewusst! Krass!
AORUS GeForce RTX 5090 XTREME WATERFORCE WB 32G wird noch breiter als die 5090 FE.
DrFreaK666
2025-01-07, 13:32:44
"Es braucht kein Mensch" ist ein Stilmittel der Übertreibung. ;) https://www.dwds.de/wb/kein%20Mensch
Aber wer hat denn vor der Geforce 2000er Serie das unbedingt gefordert? Das kam doch relativ plötzlich. Und am Anfang gar nicht mal so gut.
Anfangs wurde es auch fast nur für Spiegelungen und RT Schatten genutzt.
Bei Beleuchtung wird es aber dann wirklich interessant
Der_Korken
2025-01-07, 13:34:54
Das Kühlkonzept mag ja interessant sein, aber kann man damit wirklich auf so einer kleinen Fläche 575W kühlen? Da arbeiten seit Jahren alle Hersteller an best mögliche Lösungen und NV meint es deutlich besser machen zu können, bin echt auf die Tests gespannt
Bei 575W bin ich auch skeptisch, aber generell traue ich dem Design deutlich mehr zu als es von außen aussieht. Der Schlüssel ist die winzige Platine, wodurch die Lüfter fast komplett durch den Kühler durchblasen können. Dadurch schaffen die Lüfter bei gleicher Drehzahl einen viel größeren Durchsatz als wenn sie gegen eine senkrecht stehende Platine die Luft durch kleine seitliche Öffnung rauspressen müssen. Kühlleistung ist nicht nur Oberfläche, sondern Oberfläche mal Durchsatz. Dass die GPU in der Mitte sitzt und die Hitze nicht mehr Heatsprader über 20cm und mehr geleitet werden muss, könnte auch ein Vorteil sein.
Zudem umgeht man das Problem, dass vorgewärmte Luft teilweise wieder angesogen wird, weil die Luft gerade am Mainboard nur sehr schlecht nach oben abwandern kann. Hier werden zusätzlich zu den GPU-Lüftern noch Lüfter im Gehäuseboden gebraucht, um die warme Abluft des GPU-Kühlers nach oben zu verdrängen. Ich habe das beim Gehäusewechsel stark gemerkt, als von Front-Intake auf Bottim-Intake gewechselt bin: Die GPU wurde deutlich leiser und kühler.
Es gab mal eine AiO 6800XT von Asus: https://www.computerbase.de/2021-04/radeon-rx-6800-xt-custom-asrock-asus-msi/
Die 240er AiO hat bei gleicher Lautstärke mal eben 15 Grad weniger an der GPU anliegen als die ganzen Triple-Slot-Triple-Fan-Klötze. Letzteren noch dicker zu bauen, bringt halt irgendwann nichts mehr, weil die Lüfter viel zu wenig Druck haben, um da noch einen ordentlichen Luftstrom aufzubauen. Wenn man die Karte zusätzlich noch 3cm breiter und länger macht, reicht es vielleicht die AiO einzuholen, aber eben bei drastisch mehr Materialaufwand.
robbitop
2025-01-07, 13:35:07
Das Video von DLSS4 hört sich an als wenn es keine Frameextrapolation gibt sondern statt bisher 1 Frame nun 3 Frames eingefügt werden.
Oder hat das jemand anders verstanden?
Matrix316
2025-01-07, 13:35:07
Nur theoretisch. In der Praxis nehmen Artists auch nach dem Backen Änderungen an diversen Objekten vor, oder bestimmte Volumetrieffekte etc. reagieren extrem bescheiden aufs Baking (Forbidden West Interiors...).
In der Praxis sieht jedes gebackene Lighting völlig unrealistisch aus gegen das Lumen in Fortnite, das auf den Konsolen mit 60fps 4k Target läuft (und auf der PS5 Pro auch mit HWRT 60fps).
Aber Fortnite sieht so oder so komplett furchtbar aus. Übertrieben bunt, übertrieben unrealistisch. Wen interessieren da noch irgendwelche Lumen? :freak:
Wenn man jetzt nicht eine prozedural generierte Open World hat, weiß der Gamedeveloper doch eigentlich wo wie was auszusehen hat. Dass man nicht in jedes Haus und jedes Zimmer reingehen und Löcher in die Wand machen kann, das ist IMO jetzt auch nicht sooo schlimm.
Das Gameplay und Story und so an sich ist doch viel wichtiger.
Du hast dir für 1000€ eine Grafikkarte gekaufst und fragst, wieso Leute bessere Grafik haben wollen? :confused:
Wozu soviel Geld für etwas ausgeben, was exakt das selbe macht wie eine 500€ Karte?
Die 1000 Euro Karte ist halt in den meisten Fällen etwas schneller als eine 500 Euro Karte. Und Spiele sind auch schöner, weil man mehr Details anschalten kann. Aber die Features einer Grafikkarte sollte man irgendwie zentral standardisieren, so dass nicht jeder Hersteller machen kann was er will und damit den anderen Herstellern schadet. ;)
MiamiNice
2025-01-07, 13:38:29
Das Video von DLSS4 hört sich an als wenn es keine Frameextrapolation gibt sondern statt bisher 1 Frame nun 3 Frames eingefügt werden.
Oder hat das jemand anders verstanden?
Ich habe es so verstanden, dass überall AI und pre rendered, aka fake, Frames beinhaltet sind, außer in DLSS4. Auch das neue Reflex wird Fake Frames nutzen.
So zumindest ist es hier angekommen.
aufkrawall
2025-01-07, 13:40:13
Das Gameplay und Story und so an sich ist doch viel wichtiger.
Wieso noch gleich postest du hier? Du kannst auf jeder Grafikkarte die Details auf hässlich drehen, dich am Gameplay erfreuen und jede Menge Geld sparen.
Troyan
2025-01-07, 13:40:28
Das Video von DLSS4 hört sich an als wenn es keine Frameextrapolation gibt sondern statt bisher 1 Frame nun 3 Frames eingefügt werden.
Oder hat das jemand anders verstanden?
Es werden bis zu drei Frames zwischen zwei tradionellen erzeugt. Ist FG auf Steroids.
Exxtreme
2025-01-07, 13:41:09
Wenn man jetzt nicht eine prozedural generierte Open World hat, weiß der Gamedeveloper doch eigentlich wo wie was auszusehen hat. Dass man nicht in jedes Haus und jedes Zimmer reingehen und Löcher in die Wand machen kann, das ist IMO jetzt auch nicht sooo schlimm.
Tja, das sehr beliebte PoE2 hat prozedural generierte Maps. ;) Und es gibt Spiele, die darauf basieren, dass man sehr viel Kontrolle über die Spielwelt hat. Weil man Dinge zerstören oder neu aufbauen kann etc. Ja, in einem Schlauchschooter ist RT vielleicht bissl viel Overkill. Aber nicht alle Spiele sind so.
MiamiNice
2025-01-07, 13:42:12
Es werden bis zu drei Frames zwischen zwei tradionellen erzeugt. Ist FG auf Steroids.
Bist Du Dir da sicher?
aufkrawall
2025-01-07, 13:45:14
Ja, in einem Schlauchschooter ist RT vielleicht bissl viel Overkill.
Oder auch nicht, wie Marvel Rivals zeigt.
Niemand will mehr Kacke backen. Das ging schon mit SSR los, wo sich dann niemand mehr die Mühe für vernünftige Fallbacks gemacht hat. Uralte Entwicklung, lange vor HWRT. Jetzt gibts wenigstens RT-Fallbacks...
Kriegsgeier
2025-01-07, 13:45:50
gerade haben sich meine rationale Gehirnareale gemeldet mit folgender Idee:
Sollte sich die 5090 wirklich nur 30% von der 5080 absetzen, dann wäre es für mich als 3090Fe besitzer dann sinnvoller eine 5080Fe zu kaufen und dann erst nächste Generation auf den TopDog zu setzen? Auf die 6090Fe...
Und die 5080Fe müsste ich wahrscheinlich gar nicht auf eine WaKü umbauen - da es genug Kühlleistung vorhanden?!
Andere Gehirnareale: "du kauft gefälligst eine 5090 - haben wir uns gut verstanden?"
Troyan
2025-01-07, 13:49:14
Bist Du Dir da sicher?
Ja:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-multi-frame-generation-architecture.jpg
HTB|Bladerunner
2025-01-07, 13:51:10
Wie muss man eigentlich diese Explosionszeichnung verstehen?
Die Platine ist auf dem Bild ja mittig platziert. Die beiden Lüfter können so die Abwärme durch die beiden seitlichen Kühlelemente nach oben befördern.
Damit das so funktioniert, müsste doch auch der PCIe-Slot mittig platziert sein, was er aber bekanntlich nicht ist. Dieser ist viel weiter Richtung Slotblende versetzt.
Fehlt da noch ein Platinenteil auf dem Bild oder habe ich da einen Denkfehler?
Die Frage konnte ich mir hiermit selbst beantworten.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-mit-32-GiB-und-drei-PCBs-1448073/
Es gab wohl schon vor 6 Monaten das Gerücht über 3 Platinen-Elemente. Demzufolge wird die Explosionszeichnung wohl unvollständig sein.
Exxtreme
2025-01-07, 13:54:03
Sollte sich die 5090 wirklich nur 30% von der 5080 absetzen,
Im GPU-Limit wird da bestimmt mehr sein. Die 5090 ist um 70% - 80% fetter denn die 5080.
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus.
Ich, und ja, es sah immer ... sehr künstlich und statisch aus.
Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft... :rolleyes:
Da faßt Du das Thema von der aus meiner Sicht vollkommen falschen Seite an. Fakt ist, wie es Exxtreme auch richtig sagte, daß alles statisch vorbereitet wurde, und das immer Kacke aussah. Schatten, Spiegelungen und Co. wurden aufwendig und mit vielen Maßnahmen hinzugepappt und rangeklebt, anders kann man es nicht sagen. Es wurde viel Aufwand in Fakedarstellungen reingesteckt, was dann auch die Rasterleistungen in die Höhe trieb.
Mit Raytracing hast Du diese Probleme eben nicht mehr! Du mußt keine Schatten, keine Beleuchtungsmodelle mehr künstlich faken, Du kannst es in Echtzeit realistisch errechnen und darstellen. Natürlich nicht zu 100%, aber schon deutlich besser und deutlich realer als die ganzen Fakes vorher. Und es entlastet sehr wohl die ganzen Engines, die sich eben nicht mehr künstlich mit dem Problem rumschlagen müssen, um sehr aufwendig einen Effekt zu simulieren, sondern die Berechnung vereinfacht hier schlagartig alles.
Sorry, daß Du das, obwohl Du schon auch hier jahrelang im Forum unterwegs bist, als unnötig abtust, ist für mich nicht zugänglich.
Kriegsgeier
2025-01-07, 13:56:33
Die Frage konnte ich mir hiermit selbst beantworten.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-mit-32-GiB-und-drei-PCBs-1448073/
Es gab wohl schon vor 6 Monaten das Gerücht über 3 Platinen-Elemente. Demzufolge wird die Explosionszeichnung wohl unvollständig sein.
das mit den 2 zusätzlichen Platinen für die Anschlüsse und PCI-Express wäre krass! Quasi ein Mac Book Pro :(
dann wäre für mich die Fe leider gestorben :(
Ravenhearth
2025-01-07, 13:57:31
Im GPU-Limit wird da bestimmt mehr sein. Die 5090 ist um 70% - 80% fetter denn die 5080.
In Nvidias eigenem Benchmark (Plague Tale) sind es vielleicht knapp über 40%.
Troyan
2025-01-07, 13:59:55
Die 1000 Euro Karte ist halt in den meisten Fällen etwas schneller als eine 500 Euro Karte. Und Spiele sind auch schöner, weil man mehr Details anschalten kann. Aber die Features einer Grafikkarte sollte man irgendwie zentral standardisieren, so dass nicht jeder Hersteller machen kann was er will und damit den anderen Herstellern schadet. ;)
Eine 4070 für 550€ liefert mit DLSS Quality das exakt selbe Erlebnis wie deine 7900XTX für 1000€.
dildo4u
2025-01-07, 14:02:36
DLSS Qualität überbrück keine 50% Leistung.
Troyan
2025-01-07, 14:04:06
Doch, sind ~60% Verbesserung gegenüber nativ.
monstar-x
2025-01-07, 14:05:50
Also ich weiß nicht, aber wie viele Gamer haben in den letzten Jahren gesagt: Ohh die Beleuchtung sieht aber ganz schlecht aus. Wir brauchen jetzt unbedingt Raytracing was nur mit der Hälfte der Karten überhaupt vernünftig läuft... :rolleyes:
In einigen Spielen verzichte ich Bewusst auf Raytracing, weil es schlechter aussieht, auch wenn die Beleuchtung physikalisch richtig ist, sieht es dennoch schlechter aus, z.B in Hogwarts und Wukong.
Exxtreme
2025-01-07, 14:06:56
In Nvidias eigenem Benchmark (Plague Tale) sind es vielleicht knapp über 40%.
Die haben leider keine näheren Angaben welche Einstellungen da verwendet wurden.
aufkrawall
2025-01-07, 14:09:07
In Nvidias eigenem Benchmark (Plague Tale) sind es vielleicht knapp über 40%.
Sie haben ja auch nur von 50% mehr Shader Performance gesprochen.
Wird man dann sehen, wie es in der Breite skaliert. Spannend wäre UE5 Lumen mit viel Upsampling, da war die 4090 oft sehr schwach vs. die 4080.
Fragman
2025-01-07, 14:10:44
Eigentlich fehlt bei der 50ziger Serie der Grund für den Umstieg als 40ziger Seriennutzer.
Übrig bleibt nur MFG, den Rest kann die Serie auch.
Die Performance ist sonst kaum besser, Ram ist gleich geblieben.
RT Verbesserungen gibt es keine?
Ändert sich vielleicht noch mit dem ersten Vorzeigeprojekt und den Benches dazu von der 5070, aber nach 2,5 Jahren ist das schon etwas enttäuschend.
Troyan
2025-01-07, 14:12:18
Gibt keinen. Ist ein Refresh auf dem selben Node. Glaube auch nicht, dass Blackwell für Lovelace-User ist.
Ist aktuell überall so. Bei AMD ist Zen5 auch sinnlos gegenüber Zen4. Arrow Lake ist leistungstechnisch nicht besser. iPhone 16? Kamerabutton...
Kriegsgeier
2025-01-07, 14:12:45
wird bei BACKWELL vollkommen der gleicher Node wie bei ADA verwendet?
4N?
Troyan
2025-01-07, 14:14:29
Ja, ggfs. mit ein paar (unspezifischen) Anpassungen.
aufkrawall
2025-01-07, 14:15:23
RT Verbesserungen gibt es keine?
Doch, soll um Faktor 2x gestiegen sein, während Shader/Raster nur 1,5x.
DrFreaK666
2025-01-07, 14:15:50
Eine 4070 für 550€ liefert mit DLSS Quality das exakt selbe Erlebnis wie deine 7900XTX für 1000€.
In welchem cherrypicked benchmark soll das der Fall sein?
Eine 4070 für 550€ liefert mit DLSS Quality das exakt selbe Erlebnis wie deine 7900XTX für 1000€.
Nicht ansatzweise und das weißt du genau. Wieso postest du solchen Stuss?
Fragman
2025-01-07, 14:17:53
Doch, soll um Faktor 2x gestiegen sein, während Shader/Raster nur 1,5x.
Dann mal Benches von Cyperpunk und Alan Wake II ohne MFG abwarten.
Matrix316
2025-01-07, 14:20:58
Eine 4070 für 550€ liefert mit DLSS Quality das exakt selbe Erlebnis wie deine 7900XTX für 1000€.
Das kommt drauf an. Bei der Radeon gibt es auch FSR und man muss ja nicht immer nativ spielen. ;) So gesehen wäre eine 4070 mit DLSS Quality auch so schnell wie eine 4080 ohne.
Sumpfmolch
2025-01-07, 14:21:05
Doch, soll um Faktor 2x gestiegen sein, während Shader/Raster nur 1,5x.
Hab ich paar Folien verpasst? Ich hab nicht eine einzige gesehen, die nicht mit unbrauchbarem Frame Generation vs. 4x Frame Generation gebenched wurde.
Ich könnte aktuell noch nicht mal sagen, ob die neuen Karten (<5090) zumindest aufgrund der zusätzlichen CUs/Shader die ~20% Mehrperformance liefern.
Neurosphere
2025-01-07, 14:22:01
aha, die Founders Edition ist mit über 13cm die tiefste Karte - deswegen konnten die bei der 4cm (Dual Slot) Dicke bleiben!
https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-is-the-only-5090-sff-ready-model
Deswegen auch die 2 Lüfter, die im Durchmesser sehr groß ausgefallen sind!
Quasi min. 1cm breiter als jede andere 5090 oder 5080!
War mir so nicht bewusst! Krass!
Quatsch, ist die schmalste 5090....
https://wccftech.com/nvidia-geforce-rtx-5090-gpu-custom-models-roundup/
Troyan
2025-01-07, 14:24:09
Hab ich paar Folien verpasst? Ich hab nicht eine einzige gesehen, die nicht mit unbrauchbarem Frame Generation vs. 4x Frame Generation gebenched wurde.
Ich könnte aktuell noch nicht mal sagen, ob die neuen Karten (<5090) zumindest aufgrund der zusätzlichen CUs/Shader die ~20% Mehrperformance liefern.
https://pbs.twimg.com/media/GgqKguCasAAx_AR?format=jpg&name=medium
Wobei das mit Taktrate und wohl vollständiger GB202 Chip ist.
/edit: Soweit ich sehe und man aus der Keynote rausgehört hat: 1,5x bessere RT Cores, 2x bessere TensorCores, Rückkehr 1:1 FP32:INT Leistung.
dildo4u
2025-01-07, 14:24:18
Hab ich paar Folien verpasst? Ich hab nicht eine einzige gesehen, die nicht mit unbrauchbarem Frame Generation vs. 4x Frame Generation gebenched wurde.
Ich könnte aktuell noch nicht mal sagen, ob die neuen Karten (<5090) zumindest aufgrund der zusätzlichen CUs/Shader die ~20% Mehrperformance liefern.
https://i.ibb.co/y6xjb1s/rtx-5090-performance-metrics.jpg (https://ibb.co/StZC98v)
Mayk-Freak
2025-01-07, 14:24:46
@Neurosphere
Es geht um die Tiefe.
robbitop
2025-01-07, 14:26:35
Hab ich paar Folien verpasst? Ich hab nicht eine einzige gesehen, die nicht mit unbrauchbarem Frame Generation vs. 4x Frame Generation gebenched wurde.
Ich könnte aktuell noch nicht mal sagen, ob die neuen Karten (<5090) zumindest aufgrund der zusätzlichen CUs/Shader die ~20% Mehrperformance liefern.
Damit ist der Rayintersection Throughput gemeint. Das bringt aber nicht 2x RT Leistung. Das bringt nur was wenn der Rayintersection Throughput limitiert. Wahrscheinlich bringt das allein nicht all zu viel für den Anteil des RT workloads pro Frametime.
Ansonsten wurden die Rohleistung (als Produkt der SMs und Takt) um 50% erhöht bei der 5090.
Neurosphere
2025-01-07, 14:26:42
@Neurosphere
Es geht um die Tiefe.
Ja, dann eben tiefse, ändert da aber nichts dran.
monstar-x
2025-01-07, 14:29:17
Eigentlich fehlt bei der 50ziger Serie der Grund für den Umstieg als 40ziger Seriennutzer.
Übrig bleibt nur MFG, den Rest kann die Serie auch.
Die Performance ist sonst kaum besser, Ram ist gleich geblieben.
RT Verbesserungen gibt es keine?
Ändert sich vielleicht noch mit dem ersten Vorzeigeprojekt und den Benches dazu von der 5070, aber nach 2,5 Jahren ist das schon etwas enttäuschend.
Ich habe mir die Präsentation nicht angesehen, keine Lust 15 Minuten Weihräucherung.
Ist die RT Performance tatsächlich zur 40er gleichgeblieben nichts wurde verbessert?
SamLombardo
2025-01-07, 14:32:37
Mal angenommen MFG funktioniert super, was ja toll wäre. Aber wo soll das denn hinführen? Haben wir jetzt schon zumindestens in der NV Werbung 250fps in den anspruchsvollsten Spielen, was kommt als nächstes, 500? Nvidia gräbt sich doch damit selber das Wasser ab. Wer außer ein paar Enthusiasten die gerne fps Counter mitlaufen lassen und sich an den hohen Zahlen erfreuen soll denn das kaufen? Will sagen wir brauchen massiv Fortschritt in Grafikqualität. Und den sehe ich nicht vor PS6 und Co. Und selbst dann ist die Frage, ob es soweit geht dass es eine 5090 erfordert. Oder gar eine 6090 oder 7090, die es zu diesem Zeitpunkt dann sicher schon geben wird.
Ja, dann eben tiefse, ändert da aber nichts dran.
Es geht um die Höhe und da ist die FE laut der Tabelle im verlinkten Artikel die höchste.
Allgemein sind die Karten auch alle kürzer geworden wie mir scheint. Von den 4090 damals hätte fast keine in mein Gehäuse gepasst. Die ganzen 5090 Modelle mit <=304mm schon.
Edit: Sehe gerade in der Tabelle sind keine 5090 außer der FE...:freak:
Tesseract
2025-01-07, 14:35:13
die änderungen von CNN auf transformer und der NN ansatz für optical flow statt fixed function hört sich extrem interessant an, auch für ada.
Damit ist der Rayintersection Throughput gemeint. Das bringt aber nicht 2x RT Leistung. Das bringt nur was wenn der Rayintersection Throughput limitiert. Wahrscheinlich bringt das allein nicht all zu viel für den Anteil des RT workloads pro Frametime.
Ansonsten wurden die Rohleistung (als Produkt der SMs und Takt) um 50% erhöht bei der 5090.
die verbesserungen an SER werden in der praxis potenziell vielleicht sogar mehr bringen als der throughput der RT units.
Sumpfmolch
2025-01-07, 14:36:23
https://i.ibb.co/y6xjb1s/rtx-5090-performance-metrics.jpg (https://ibb.co/StZC98v)
Ja aber im Benchmark sehe ich für die 5080 vs. 4080 dann ein 2x stehen, allerdings wurde die 4080 mit Frame Generation (1 Bild -> 2 Bilder) gebenched und die 5080 mit Multi Frame Generation (1 Bild -> 4 Bilder)
Welchen konkreten Performancezuwachs in der Rohleistung kann ich da jetzt für die 5080 oder 5070 Ti ablesen?
Dann ist der interessanteste Balken eventuell ganz links Far Cry 6, weil hier kein DLSS + Frame Generation verfügbar ist.
Dann wären wir bei 20-30% mehr Rohleistung gegenüber der 4080 wohlgemerkt und nicht gegenüber der schnelleren 4080 super.
https://pics.computerbase.de/1/1/5/5/3/5-2497ce7a185952c9/5-1080.a88a5c3a.jpg
Ansonsten wurden die Rohleistung (als Produkt der SMs und Takt) um 50% erhöht bei der 5090.
Leider nein. Mit den offiziellen Taktraten sind es nur +27 Prozent. :conf:
MfG
Raff
aufkrawall
2025-01-07, 14:38:51
Wissen wir nicht. Wir wissen nur, dass sie RT überproportional zu 3D verbessert haben wollen. Wie viel davon in der Praxis zu sehen sein wird, ggf. mit App-Anpassungen für Blackwell/neue Libs von Nvidia, bleibt natürlich abzuwarten.
Lovelace hatte schließlich auch diverse RT-Verbesserungen, die auch mitunter nicht so gut in diversen Titeln sichtbar waren.
Troyan
2025-01-07, 14:39:18
Mal angenommen MFG funktioniert super, was ja toll wäre. Aber wo soll das denn hinführen? Haben wir jetzt schon zumindestens in der NV Werbung 250fps in den anspruchsvollsten Spielen, was kommt als nächstes, 500? Nvidia gräbt sich doch damit selber das Wasser ab. Wer außer ein paar Enthusiasten die gerne fps Counter mitlaufen lassen und sich an den hohen Zahlen erfreuen soll denn das kaufen? Will sagen wir brauchen massiv Fortschritt in Grafikqualität. Und den sehe ich nicht vor PS6 und Co. Und selbst dann ist die Frage, ob es soweit geht dass es eine 5090 erfordert. Oder gar eine 6090 oder 7090, die es zu diesem Zeitpunkt dann sicher schon geben wird.
UE5 Spiele mit Pathtracing sind doch schon hier. Die werden selbst auf einer PS6 nicht laufen.
Black Myth läuft mit <=30 FPS oder so auf einer 4090. Selbst mit MF-FG kommt man hier nur auf ~100FPS in 4K.
aufkrawall
2025-01-07, 14:43:33
UE5 Spiele mit Pathtracing sind doch schon hier.
"PT". Sieht wahrscheinlich deutlich schlechter aus, als das, was Nvidia direkt in ihrem PT-Branch für die Engine machen.
Mit etwas Glück wird das in die CDPR-Spiele portiert.
Relex
2025-01-07, 14:44:33
Mal angenommen MFG funktioniert super, was ja toll wäre. Aber wo soll das denn hinführen? Haben wir jetzt schon zumindestens in der NV Werbung 250fps in den anspruchsvollsten Spielen, was kommt als nächstes, 500? Nvidia gräbt sich doch damit selber das Wasser ab. Wer außer ein paar Enthusiasten die gerne fps Counter mitlaufen lassen und sich an den hohen Zahlen erfreuen soll denn das kaufen? Will sagen wir brauchen massiv Fortschritt in Grafikqualität. Und den sehe ich nicht vor PS6 und Co. Und selbst dann ist die Frage, ob es soweit geht dass es eine 5090 erfordert. Oder gar eine 6090 oder 7090, die es zu diesem Zeitpunkt dann sicher schon geben wird.
Mit Pathtracing und darauf aufbauend Neural Rendering dürfte es mittel bis langfristig recht einfach werden, die Grafik moderner Spiele bis hin zum Fotorealismus aufzuwerten, weitestgehend unabhängig von den Konsolen. Ich denke das ist Nvidias Ziel.
Natürlich müssen die Entwickler es auch einbauen, aber wenn die Schnittstellen mal da sind, dann sollte es auch nicht schwer sein, die Spiele mit künftiger Hardware immer weiter grafisch aufzuwerten.
Bei einem Cyberpunk kann man heute mit DLSS4 vielleicht nur die Bildqualität und Framerate optimieren. Aber wenn neural Rendering in Spielen umgesetzt wird könnte da auch Grafisch was gehen. Quasi "dll ersetzen für bessere Beleuchtung in Spielen" so wie wir es jetzt mit DLSS Upscaling machen.
Nvidia hat so kluge Ingenieure und sie überraschen so häufig, dass ich mittlerweile das Gefühl habe, dass alles, was wir uns ausmalen können künftig auch umgesetzt wird. Wer hätte vor 5 Jahren gegeglaubt, dass wir Pathtracing mit 250 FPS auf nem 4K screen genießen können. Vor wenigen Jahren galt das noch als völlig unmöglich.
monstar-x
2025-01-07, 14:47:52
Mal angenommen MFG funktioniert super, was ja toll wäre. Aber wo soll das denn hinführen? Haben wir jetzt schon zumindestens in der NV Werbung 250fps in den anspruchsvollsten Spielen, was kommt als nächstes, 500? Nvidia gräbt sich doch damit selber das Wasser ab. Wer außer ein paar Enthusiasten die gerne fps Counter mitlaufen lassen und sich an den hohen Zahlen erfreuen soll denn das kaufen? Will sagen wir brauchen massiv Fortschritt in Grafikqualität. Und den sehe ich nicht vor PS6 und Co. Und selbst dann ist die Frage, ob es soweit geht dass es eine 5090 erfordert. Oder gar eine 6090 oder 7090, die es zu diesem Zeitpunkt dann sicher schon geben wird.
Diese Befürchtung habe ich ebenfalls. Was hat Nvidia damit jetzt eigentlich erreicht?
Der Leistungsbalken wirkt durch MFG und Fake-Frames zwar zwei- bis viermal länger, aber ohne diese Technologien wären es lediglich 15–25 % mehr Leistung.
Aber was erwartet uns dann bei der 6000er-Serie? Wird DLSS künftig mit fünffachen Fake-Frames kommen, nur damit sich der Balken weiterhin abheben kann? Damit würde Nvidia sich selbst sicher keinen Gefallen tun.
Oder werden die Benchmarks dann wieder ohne DLSS durchgeführt, weil der Nodesprung für einen Leistungsschub von etwa 50 % sorgen könnte?
Die nächste Frage lautet: Wie sollen sie eine 6080 oder 6090 vermarkten, wenn die 5080 mit DLSS und MFG schneller ist als eine 6090 ohne diese Technologien?
Meiner Meinung nach hat Nvidia sich und der gesamten Gaming-Branche damit keinen Gefallen getan. Jetzt werden vermutlich auch alle anderen, wie Intel und Nvidia, einfach mehr Fake-Frames hinzufügen. Besonders schwierig ist das ja nicht wie man an Lossless Scaling sehen kann.
Relex
2025-01-07, 14:51:49
Die Performancekosten von LSFG sind um ein vielfaches höher als normale FG.
LSFG ist in Punkto Performance und Bildqualität mMn. völlig unbrauchbar.
Was so viele FPS bringen? Mehr Bildschärfe in Bewegung auf High Refreshrate Displays.
why_me
2025-01-07, 14:54:27
Funktioniert das Reflex2 warping dann eigentlich auf jedem frame (also auch den 3 "ausgedachten"). Muss es ja eigentlich, sonst bringt das ganze fame generating nichts.
20FPS x 4, wären sonst zwar 80 FPS aber mit 20 FPS input, das will doch niemand haben.
Und wo soll das ganze denn enden? Mit den settings auf den Nvidia Folien (auch wenn so hoffentlich niemand spielt): DLSS performance und 4x FG. Es werden 15/16 Pixel "ausgedacht" und nur 1/16 regulär gerendert.
Spring
2025-01-07, 14:54:48
Eine 4070 für 550€ liefert mit DLSS Quality das exakt selbe Erlebnis wie deine 7900XTX für 1000€.
Schwachsinn.
Troyan
2025-01-07, 14:55:41
Meiner Meinung nach hat Nvidia sich und der gesamten Gaming-Branche damit keinen Gefallen getan. Jetzt werden vermutlich auch alle anderen, wie Intel und Nvidia, einfach mehr Fake-Frames hinzufügen. Besonders schwierig ist das ja nicht wie man an Lossless Scaling sehen kann.
Stimmt. Hätte nVidia nur mal GPUs mit 105 TFLOPs produziert, so dass man alles auf dem alten Weg lösen kann... Ach warte, das tun sie ja. Und dazu gibt es noch 3,330 AI TFLOPs.
Kannst ja gerne deine eigenen Fähigkeiten der Branche zur Verfügung stellen und bessere Software schreiben, die alles ab Ampere viel besser ausnutzt.
ENKORE
2025-01-07, 14:55:43
wird bei BACKWELL vollkommen der gleicher Node wie bei ADA verwendet?
4N?
4090, 76.3 Milliarden Transistoren auf 609 mm² = 125 MTr/mm²
5090, 92 Milliarden Transistoren auf 744* mm² = 124 MTr/mm²
Im TSMC N3 Prozess sind wir dagegen bei >200 MTr/mm². Z.B. hat das SoC vom iPhone 16 ~19 Milliarden Transistoren auf 90 mm², also 211 MTr/mm². Ich denke wenn dann 2027/2028 die RTX 60 Generation vielleicht den Schritt zu 3nm wagt (größere Chips mehr schwierig), dann dürfte dieses Verhältnis auch in Rohleistung umgesetzt werden.
* +- "hat noch keiner den Messschieber drangehalten"-Toleranz
"4N" ist btw. der nVidia-Marketingname für eine Variante von TSMC N5 (2020 production, u.a. zu finden im iPhone 12 SoC).
Spring
2025-01-07, 14:55:47
Funktioniert das Reflex2 warping dann eigentlich auf jedem frame (also auch den 3 "ausgedachten"). Muss es ja eigentlich, sonst bringt das ganze fame generating nichts.
20FPS x 4, wären sonst zwar 80 FPS aber mit 20 FPS input, das will doch niemand haben.
Und wo soll das ganze denn enden? Mit den settings auf den Nvidia Folien (auch wenn so hoffentlich niemand spielt): DLSS performance und 4x FG. Es werden 15/16 Pixel "ausgedacht" und nur 1/16 regulär gerendert.
Das ist der casus knacksus.
Neurosphere
2025-01-07, 15:02:08
Edit: Sehe gerade in der Tabelle sind keine 5090 außer der FE...:freak:
:up:
Thats it.
AtTheDriveIn
2025-01-07, 15:04:52
Funktioniert das Reflex2 warping dann eigentlich auf jedem frame (also auch den 3 "ausgedachten"). Muss es ja eigentlich, sonst bringt das ganze fame generating nichts.
20FPS x 4, wären sonst zwar 80 FPS aber mit 20 FPS input, das will doch niemand haben.
Als Nächstes kommt dann, das die Karte ahnt wie du auf Spielgeschehen reagierst. Also die Bewegung vorbereiten, bevor du den Input physikalisch lieferst.
Exxtreme
2025-01-07, 15:07:08
Als Nächstes kommt dann, das die Karte ahnt wie du auf Spielgeschehen reagierst. Also die Bewegung vorbereiten, bevor du den Input physikalisch lieferst.
Das könnte Anticheat-Mechanismen triggern. Deshalb glaube ich nicht, dass das so kommt.
Relex
2025-01-07, 15:08:14
Wenn sie Reflex 2 wirklich zusammen mit FG bringen, wäre das imho das Meisterstück.
Wenn man mal darüber nachdenkt, müssten sie sowohl die Realen als auch die generierten Frames im nachhinein nochmal mit dem Input der Maus aktualisieren und "warpen".
Evtl könnte man den Maus Input auch direkt in den Algorithmus für die Frame Generation füttern.
Nur muss die Interpolation der bewegungen von drei zwischenbildern dann am Ende zum nächsten "echten" frame passen.
Das wäre alles unglaublich komplex. Vor allem da Reflex 2 ja den Frame verschiebt und die Lücken an den Rändern wieder mit AI Generierung auffüllt. Je nachdem wie hochwertig das ist könnte das bei zu geringen Frameraten zu sichtbaren Artefakten führen.
aufkrawall
2025-01-07, 15:09:56
Funktioniert das Reflex2 warping dann eigentlich auf jedem frame (also auch den 3 "ausgedachten"). Muss es ja eigentlich, sonst bringt das ganze fame generating nichts.
Wieso? Das sind fixe Werte durchs FG durch eine native Frame Time Bufferzeit + zusätzliche Latenz durch verlängerte Frame Time durch die FG-Berechnung selbst.
In dem Reflex 2-Video zeigen sie MP-Shooter mit geringer Latenz (was eher nicht für FG spricht), die durch Reflex 2 weiter massiv sinkt. Imho wird da die FG-Latenz weiterhin einfach on top kommen. Falls es nicht so ist, natürlich auch gut.
Matrix316
2025-01-07, 15:10:16
Als Nächstes kommt dann, das die Karte ahnt wie du auf Spielgeschehen reagierst. Also die Bewegung vorbereiten, bevor du den Input physikalisch lieferst.
Die Karte beobachtet das Spielgeschehen und gibt dir Tipps und hilft dir. :biggrin: Vielleicht kann man auch mit ihr reden dann. ;) (Man sieht dann so einen Avatar in der Ecke der dir sagt: Vorsicht da hinten. ;D ) Vielleicht kann sie auch im Multiplayer mitspielen. ;)
monstar-x
2025-01-07, 15:14:57
Stimmt. Hätte nVidia nur mal GPUs mit 105 TFLOPs produziert, so dass man alles auf dem alten Weg lösen kann... Ach warte, das tun sie ja. Und dazu gibt es noch 3,330 AI TFLOPs.
Kannst ja gerne deine eigenen Fähigkeiten der Branche zur Verfügung stellen und bessere Software schreiben, die alles ab Ampere viel besser ausnutzt.
Wer hat dir denn in den Sack getreten?
Ich stelle lediglich eine Aussage zusammen mit einer Frage in den Raum, und du reagierst wie ein bellender Köter und motzt mich blöd von der Seite an.
Die 105 TFLOPs mögen zwar auf dem Papier beeindruckend klingen, aber im Vergleich zu den 83 TFLOPs der RTX 4090, die 25 % weniger Cores besitzt, sind sie alles andere als das, was ich nach zwei Jahren Entwicklung erwartet hätte.
Und wenn du tatsächlich denkst, dass Nvidia diese Lücke mit dreifachen Fake-Frames ausgleichen kann und das vollkommen in Ordnung und der richtige, neue weg ist, dann hat Nvidia bei dir ja alles richtig gemacht. Ist das wirklich Fortschritt? Willst du ernsthaft DLSS 5 mit vielleicht 6-Fach Fake-Frames feiern, nur damit die Marketing-Balken noch länger aussehen?
Meiner Meinung nach ist das keine Entwicklung, die dem Gaming oder uns Spielern wirklich weiterhilft.
Lawmachine79
2025-01-07, 15:17:17
Die Karte beobachtet das Spielgeschehen und gibt dir Tipps und hilft dir. :biggrin: )
Ist dann was für Konsoleros: "Hint: Shoot enemies to kill them".
aufkrawall
2025-01-07, 15:18:13
Ist doch völlig klar? Nvidia macht mit dem Verkaufen von FG als Feature viel mehr Gewinn, als wenn sie die kleinen Chips aufpusten würden?
Bei dem, was sie mit ML-HPC verdienen würden, kann man wahrscheinlich froh sein, dass sie über FG weiterhin einen Hebel für sehr hohe Rendite mit Gaming haben. Außerdem wollen sie auch als Edel-AI-Firma wahrgenommen werden. Könnte schlimmer für den Kunden sein (AMD).
Sardaukar.nsn
2025-01-07, 15:19:48
Doch, soll um Faktor 2x gestiegen sein, während Shader/Raster nur 1,5x.
So habe ich die Folie auch verstanden.
Tesseract
2025-01-07, 15:22:25
bitte etwas zivilisierter, die vielen sticheleien auf den letzten 10+ seiten sind echt unnötig.
SamLombardo
2025-01-07, 15:23:46
UE5 Spiele mit Pathtracing sind doch schon hier. Die werden selbst auf einer PS6 nicht laufen.
Black Myth läuft mit <=30 FPS oder so auf einer 4090. Selbst mit MF-FG kommt man hier nur auf ~100FPS in 4K.
Das meine ich ja und mit der 5090 dann wahrscheinlich 200fps. Und das Pathtracing Spiele selbst auf einer PS6 nicht laufen werden, die Befürchtung habe ich auch. Nvidia muss ich hier was einfallen lassen um ihre Grafikkarten, die selbst anspruchsvollsten Spielen dank FG völlig "davongerannt" sind weiter attraktiv zu machen. Ob ich Wukong mit 100 oder 200 fps spiele ist für mich völlig irrelevant. Wenn sich die fps mit einer 6090 normal verdoppeln sollten, geht es dann um 200 oder 400 fps. Das ist dann wahrscheinlich für so gut wie jeden irrelevant.
Mit Pathtracing und darauf aufbauend Neural Rendering dürfte es mittel bis langfristig recht einfach werden, die Grafik moderner Spiele bis hin zum Fotorealismus aufzuwerten, weitestgehend unabhängig von den Konsolen. Ich denke das ist Nvidias Ziel.
Natürlich müssen die Entwickler es auch einbauen, aber wenn die Schnittstellen mal da sind, dann sollte es auch nicht schwer sein, die Spiele mit künftiger Hardware immer weiter grafisch aufzuwerten.
Bei einem Cyberpunk kann man heute mit DLSS4 vielleicht nur die Bildqualität und Framerate optimieren. Aber wenn neural Rendering in Spielen umgesetzt wird könnte da auch Grafisch was gehen. Quasi "dll ersetzen für bessere Beleuchtung in Spielen" so wie wir es jetzt mit DLSS Upscaling machen .
Wenn das wirklich so eintritt wäre das klasse. Nvidia muss dafür sorgen, aus genannten Gründen. Ich befürchte nur dass Pathtracing in seiner jetzigen Form erstmal der Standard bleibt. Aber vielleicht täusche ich mich ja, ...hoffentlich:).
AtTheDriveIn
2025-01-07, 15:26:07
Die Karte beobachtet das Spielgeschehen und gibt dir Tipps und hilft dir. :biggrin: Vielleicht kann man auch mit ihr reden dann. ;) (Man sieht dann so einen Avatar in der Ecke der dir sagt: Vorsicht da hinten. ;D ) Vielleicht kann sie auch im Multiplayer mitspielen. ;)
"The way it's meant to be played" ;)
aufkrawall
2025-01-07, 15:27:27
Fehlt nur noch der Senua-Psychosenmodus. :biggrin:
w0mbat
2025-01-07, 15:28:01
Ich denke fürs Gaming sind 32GB 28Gbps GDDR7 @ 512-bit etwas zuviel des Guten. Hier wären 24GB 30Gbps GDDR7 @ 384-bit mMn die bessere Wahl gewesen. Dafür hätte ich gerne mehr Funktionseinheiten gesehen. Aber das ist wohl der KI-Fokus.
Das Problem ist jetzt: die 5080 ist nett, aber es gibt einfach einen rießen Gap zur 5090. Ich würde gerne alle aktuellen und kommenden Path-Tracing Spiele mit max. Settings @ UWQHD spielen. Hmmm.
Leider nein. Mit den offiziellen Taktraten sind es nur +27 Prozent. :conf:
Hast Du eigentlich noch im Kopf, wie sehr die Abweichungen der Benchmarkwerte bei der 3090 und 4090 Nvidia-Präsentation zu realen Ergebnissen von Euch waren? Wenn ich mich richtig erinnere, waren sie doch schon sehr nahe dran und nicht so stark abweichend wie früher, oder?
Ist N4 für Blackwell denn bestätigt?
Hast Du eigentlich noch im Kopf, wie sehr die Abweichungen der Benchmarkwerte bei der 3090 und 4090 Nvidia-Präsentation zu realen Ergebnissen von Euch waren? Wenn ich mich richtig erinnere, waren sie doch schon sehr nahe dran und nicht so stark abweichend wie früher, oder?
Aus dem Kopf nicht (mehr), da müsste mal jemand, einer oder man graben. :D
MfG
Raff
Kriegsgeier
2025-01-07, 15:29:24
https://www.youtube.com/watch?v=Far7GJch2KA
Matrix316
2025-01-07, 15:33:31
Ich denke fürs Gaming sind 32GB 28Gbps GDDR7 @ 512-bit etwas zuviel des Guten. Hier wären 24GB 30Gbps GDDR7 @ 384-bit mMn die bessere Wahl gewesen. Dafür hätte ich gerne mehr Funktionseinheiten gesehen. Aber das ist wohl der KI-Fokus.
Das Problem ist jetzt: die 5080 ist nett, aber es gibt einfach einen rießen Gap zur 5090. Ich würde gerne alle aktuellen und kommenden Path-Tracing Spiele mit max. Settings @ UWQHD spielen. Hmmm.
Das geht mit DLSS und FG bestimmt auch mit der 5080. ;)
Was ich mich frage, warum macht man nicht einfach eine KI Karte oben drüber mit allem Schnickschnack und 64 GB GDDR7 und so speziell für KI und AI und KI und so und macht dafür eine 5090 mit 24 GB RAM und mit einem etwas niedrigeren Preisschild?
Sumpfmolch
2025-01-07, 15:38:29
Das Problem ist jetzt: die 5080 ist nett, aber es gibt einfach einen rießen Gap zur 5090. Ich würde gerne alle aktuellen und kommenden Path-Tracing Spiele mit max. Settings @ UWQHD spielen. Hmmm.
Lustig, ich richte mich da genau anders herum ein: jedes Spiel, das die nächsten zwei Jahre mit der dann verbauten Grafikkarte nicht auf max@WQHD flüssig rennt, wird einfach nicht gekauft. ;D
Das geht mit DLSS und FG bestimmt auch mit der 5080. ;)
Was ich mich frage, warum macht man nicht einfach eine KI Karte oben drüber mit allem Schnickschnack und 64 GB GDDR7 und so speziell für KI und AI und KI und so und macht dafür eine 5090 mit 24 GB RAM und mit einem etwas niedrigeren Preisschild?
Du sollst ja auch keine 5080 kaufen, sondern gleich zur 5090 greifen.
Und die 5070 Ti sollst du auch nicht kaufen.
Mayk-Freak
2025-01-07, 15:39:46
https://www.youtube.com/watch?v=Far7GJch2KA
;D
aufkrawall
2025-01-07, 15:42:13
Lustig, ich richte mich da genau anders herum ein: jedes Spiel, das die nächsten zwei Jahre mit der dann verbauten Grafikkarte nicht auf max@WQHD flüssig rennt, wird einfach nicht gekauft. ;D
Mir schon klar, dass jede Meinung so valide ist wie die andere. Aber was bringt diese demonstrative Brömmelei bei einem Hobby, das Spaß machen soll? Klingt irgendwie nicht nach Yoga-Ausgeglichenheit.
Exxtreme
2025-01-07, 15:42:57
Was ich mich frage, warum macht man nicht einfach eine KI Karte oben drüber mit allem Schnickschnack und 64 GB GDDR7 und so speziell für KI und AI und KI und so und macht dafür eine 5090 mit 24 GB RAM und mit einem etwas niedrigeren Preisschild?
Kennst du den Begriff Upselling (https://de.wikipedia.org/wiki/Upselling)? Das ist exakt das, was NV macht.
Spring
2025-01-07, 15:43:25
HGQ_evDIkHQ
paar Glitches sind drin, aber das Stuttern/Ruckeln bei Sekunde 40/41 ist richtig mega :freak:
Troyan
2025-01-07, 15:44:12
Kennst du den Begriff Upselling (https://de.wikipedia.org/wiki/Upselling)? Das ist exakt das, was NV macht.
Inwieweit ist es upselling, wenn man den doppelten Preis für den doppelten VRAM bezahlen muss? :freak:
Relex
2025-01-07, 15:45:53
https://youtu.be/HGQ_evDIkHQ
paar Glitches sind drin, aber das Stuttern/Ruckeln bei Sekunde 40/41 ist richtig mega :freak:
Unreal Engine halt.
Schade dass Nvidia dagegen kein AI Model hat :biggrin:
Kennst du den Begriff Upselling (https://de.wikipedia.org/wiki/Upselling)? Das ist exakt das, was NV macht.
Das ist kein Upselling. Die 80er ist ja klar schneller und die 70ti hat ja auch die 16GB und die Preisdifferenz ist 200$/€. AMD hat bei der 7900XT Upselling praktiziert, da die ja nur 100€ auseinander waren, in der Praxis sogar weniger. Hier würde ich vermuten, dass NV bestimmt 5x mehr 70Ti absetzen wird als 80er, aufgrund des passenden Preises und der 16GB.
aufkrawall
2025-01-07, 15:46:55
paar Glitches sind drin, aber das Stuttern/Ruckeln bei Sekunde 40/41 ist richtig mega :freak:
Wird halt Unreal + Early Adopter-Features von NV sein. Wäre ein Wunder, wenn das nicht ruckelt.
Das RT sieht schon sehr nice aus, dafür, dass das offenbar ungeschminkte Footage ist.
Hakim
2025-01-07, 15:47:25
Ich werde auf jeden Fall Test abwarten bevor ich was bestelle. Die DLSS und Reflex Verbesserungen hören sich gut an. Aber bei MFG habe ich wie bei FG so meine Zweifel. Da wo man sowas gebrauchen könnte, sprich durch eine Grafik Einstellung geht die FPS in die Knie, funktioniert es nicht so gut weil es eine gewisse fps Höhe braucht um ordentlich zu arbeiten. Bei competitive spielen würde ich es sowieso nicht nutzen und bei Solo spielen bin ich in der Regel mit 70+ Fps zufrieden und muss nicht daraus 200 machen. Sehe ich es falsch?
Exxtreme
2025-01-07, 15:47:40
Inwieweit ist es upselling, wenn man den doppelten Preis für den doppelten VRAM bezahlen muss? :freak:
Lies den Wikipedia-Artikel. Da geht es nicht bloß um RAM sondern um das Gesamtprodukt. Und Upselling funktioniert halt so, dass man das kleinere Modell so unattraktiv macht, dass die Kunden dann zum größeren greifen obwohl sie das ursprünglich gar nicht planten.
aufkrawall
2025-01-07, 15:49:09
Jein. Du kannst halt bei Solo-Spielen aus 70 wesentlich mehr machen, und ggf. glättet das FG dir auch noch die Frame Times (insbesondere mit dem neuen BW-Frame-Pacing). Wird schon mehr Spaß machen so.
Relex
2025-01-07, 15:50:52
bei Solo spielen bin ich in der Regel mit 70+ Fps zufrieden und muss nicht daraus 200 machen.
Warum nicht? :smile:
Matrix316
2025-01-07, 15:51:10
Lies den Wikipedia-Artikel. Da geht es nicht bloß um RAM sondern um das Gesamtprodukt. Und Upselling funktioniert halt so, dass man das kleinere Modell so unattraktiv macht, dass die Kunden dann zum größeren greifen obwohl sie das ursprünglich gar nicht planten.
Wobei Upselling nur dann funktioniert, wenn das nächstgrößere Modell nicht gleich doppelt so viel kostet. =) Gerade fürs Upselling darf man eigentlich den preislichen Abstand nicht zu groß machen.
Es sei denn man würde die 4090 deutlich reduzieren und weiterverkaufen. Man bräuchte eigentlich sowas wie eine 5080TI dazwischen. Wenn du die Wahl hättest zwischen einer 1300 Euro 5080 oder einer 1600 Euro 5080TI... da kann man ins Grübeln kommen. Aber 1300 zu ~2300 oder noch mehr... eher weniger.
reaperrr
2025-01-07, 15:51:29
Inwieweit ist es upselling, wenn man den doppelten Preis für den doppelten VRAM bezahlen muss? :freak:
Indem du den doppelten Preis für nur ~30-40% mehr Leistung zahlen musst, wenn dir 16GB zu wenig sind, weil es halt keine 5080-24GB oder 5080Ti gibt.
Troyan
2025-01-07, 15:53:08
Lies den Wikipedia-Artikel. Da geht es nicht bloß um RAM sondern um das Gesamtprodukt. Und Upselling funktioniert halt so, dass man das kleinere Modell so unattraktiv macht, dass die Kunden dann zum größeren greifen obwohl sie das ursprünglich gar nicht planten.
Dann betreibt jede Firma mit mindesten zwei Varianten upselling. Die 5090 kostet doppelt soviel zur 5080 und liefert 40%-50% mehr Leistung. Gegenüber Lovelace ist bei Blackwell also die 5090 ein schlechterer Kauf.
Indem du den doppelten Preis für nur ~30-40% mehr Leistung zahlen musst, wenn dir 16GB zu wenig sind, weil es halt keine 5080-24GB oder 5080Ti gibt.
Das ist nicht relevant. Kompromisse muss man mit jeder GPU eingehen.
monstar-x
2025-01-07, 15:58:14
Ich werde auf jeden Fall Test abwarten bevor ich was bestelle. Die DLSS und Reflex Verbesserungen hören sich gut an. Aber bei MFG habe ich wie bei FG so meine Zweifel. Da wo man sowas gebrauchen könnte, sprich durch eine Grafik Einstellung geht die FPS in die Knie, funktioniert es nicht so gut weil es eine gewisse fps Höhe braucht um ordentlich zu arbeiten. Bei competitive spielen würde ich es sowieso nicht nutzen und bei Solo spielen bin ich in der Regel mit 70+ Fps zufrieden und muss nicht daraus 200 machen. Sehe ich es falsch?
Nein, du siehst es genau richtig: Da, wo Frame Generation (FG) wirklich sinnvoll sein könnte, nämlich bei niedrigen FPS (alles unter 60fps) – sind die FPS so gering, dass die Latenz dadurch zu hoch wird. Das fühlt sich einfach schrecklich an.
Ein gutes Beispiel ist Wukong. Auf meiner 4090 lief es in 4K auf Ultra-Einstellungen mit etwa 35 FPS, was schon deutlich ruckelig war. Mit aktiviertem FG kam ich auf 70 FPS, aber das fühlte sich trotzdem so komisch und laggy an, dass ich es wieder ausgeschaltet habe. Stattdessen habe ich DLSS-Quality (DLSS-Q) aktiviert. Obwohl ich damit im Durchschnitt nur etwa 50 FPS hatte, war das Spielerlebnis viel besser und fühlte sich deutlich responsiver an.
FG ist einfach nichts für mich. Aber ich bin auch jemand, der TrueMotion auf dem Fernseher sofort deaktiviert, weil ich diesen Soap-Effekt keine zwei Minuten ertrage.
aufkrawall
2025-01-07, 16:01:10
Je niedriger die fps, desto schlechter wird das DLSS FG Frame Pacing, mit subjektiv ständig variierendem Input Lag. Das war mit Radeon und FSR 3 FG trotz fehlendem Anti-Lag 2 mitunter wesentlich weniger störend. Von daher würd ich das mit BW mit dem besseren Frame Pacing noch nicht abschreiben. Insbesondere, wenn man auf ~100fps durch 2x FG kommt. Und Reflex 2 gibts ja auch noch, sollte sich schon positiv summieren.
Exxtreme
2025-01-07, 16:03:19
Dann betreibt jede Firma mit mindesten zwei Varianten upselling. Die 5090 kostet doppelt soviel zur 5080 und leistet 40%-50% mehr Leistung. Gegenüber Lovelace ist bei Blackwell also die 5090 ein schlechterer Kauf.
Die relativen Kosten spielen beim Upselling nicht so die Rolle. Wenn die Kunden zum Schluss kommen, dass das teurere Produkt der bessere Deal ist obwohl sie den Kauf des teureren Produkts gar nicht planten dann hat das Upselling funktioniert. Ja, das ist diesmal nicht ganz so krass wie bei Ada und die billigeren Prodkte haben auch das bessere P/L-Verhältnis.
Sumpfmolch
2025-01-07, 16:06:02
Mir schon klar, dass jede Meinung so valide ist wie die andere. Aber was bringt diese demonstrative Brömmelei bei einem Hobby, das Spaß machen soll? Klingt irgendwie nicht nach Yoga-Ausgeglichenheit.
Ich halte das für viel entspannter, als irrwitzige Summen auszugeben oder sich über schlechte Framerates zu ärgern. :uponder:
Das Backlog ist eh dutzende Spiele lang, da ist kein Game ein Verlust, wenn es nicht sofort gezockt wird.
Kriegsgeier
2025-01-07, 16:09:24
4090, 76.3 Milliarden Transistoren auf 609 mm² = 125 MTr/mm²
5090, 92 Milliarden Transistoren auf 744* mm² = 124 MTr/mm²
Im TSMC N3 Prozess sind wir dagegen bei >200 MTr/mm². Z.B. hat das SoC vom iPhone 16 ~19 Milliarden Transistoren auf 90 mm², also 211 MTr/mm². Ich denke wenn dann 2027/2028 die RTX 60 Generation vielleicht den Schritt zu 3nm wagt (größere Chips mehr schwierig), dann dürfte dieses Verhältnis auch in Rohleistung umgesetzt werden.
* +- "hat noch keiner den Messschieber drangehalten"-Toleranz
"4N" ist btw. der nVidia-Marketingname für eine Variante von TSMC N5 (2020 production, u.a. zu finden im iPhone 12 SoC).
Danke ENKORE!
Troyan
2025-01-07, 16:12:22
Die relativen Kosten spielen beim Upselling nicht so die Rolle. Wenn die Kunden zum Schluss kommen, dass das teurere Produkt der bessere Deal ist obwohl sie den Kauf des teureren Produkts gar nicht planten dann hat das Upselling funktioniert. Ja, das ist diesmal nicht ganz so krass wie bei Ada und die billigeren Prodkte haben auch das bessere P/L-Verhältnis.
Bei nVidia gibt es nicht mehr als 16GB unter $1000. Die 5080 liegt genau in dem Bereich, wo man das bekommt, was man erwarten kann.
Wer bis heute mehr als 16GB haben wollte, musste schon immer deutlich mehr bezahlen - $1499 für die 3090 und $1599 für die 4090.
basix
2025-01-07, 16:12:25
Irgendwie habe ich stark das Gefühl, dass die RTX 5090 den Gamer-Fokus weggelassen hat. Die hohe Bandbreite und vielen Matrix-FLOPS schlagen so wie es aussieht nur bei ML-Anwendungen durch. Bei Gaming sind es anscheinend nur 25-40% wenn man DLSS MFG auslässt. Also war der Fokus zum grössten Teil professionelle Anwendungen.
Etwas positives hat es: Die 4090 behält ihren Wert besser :)
Nicht gut: Energieffizienz scheint nur geringfügig zu steigen, wenn überhaupt.
Nicht gut: Energieffizienz scheint nur geringfügig zu steigen, wenn überhaupt.
Gar nicht oder gar schlechter. Schau dir mal die 5080 vs. 4080 Super an. Natürlich kommt’s am Ende auf die Average Power an, die offiziellen Zahlen sind in Sachen Energie-Effizienz aber "meh".
MfG
Raff
basix
2025-01-07, 16:19:03
Bei DLSS4 bin ich hingegen gehypt. Alleine verbessertes DLSS mit dem Transformer Model sieht super aus. RR ohne Ölgemälde Look ebenfalls
Kriegsgeier
2025-01-07, 16:22:03
Irgendwie habe ich stark das Gefühl, dass die RTX 5090 den Gamer-Fokus weggelassen hat. Die hohe Bandbreite und vielen Matrix-FLOPS schlagen so wie es aussieht nur bei ML-Anwendungen durch. Bei Gaming sind es anscheinend nur 25-40% wenn man DLSS MFG auslässt. Also war der Fokus zum grössten Teil professionelle Anwendungen.
Etwas positives hat es: Die 4090 behält ihren Wert besser :)
Nicht gut: Energieffizienz scheint nur geringfügig zu steigen, wenn überhaupt.
Du siehst es mehr als richtig:
Janson Huang hat doch eingangs auch selbst gesagt: GeForce hat die AI ermöglicht und nun ermöglicht AI die GeForce.
Somit hat er selbst zugegeben:
BACKWELL ist eine REINRASSIGE AI-Architektur und keine fürs Gaming!
Relex
2025-01-07, 16:34:00
Irgendwie habe ich stark das Gefühl, dass die RTX 5090 den Gamer-Fokus weggelassen hat. Die hohe Bandbreite und vielen Matrix-FLOPS schlagen so wie es aussieht nur bei ML-Anwendungen durch. Bei Gaming sind es anscheinend nur 25-40% wenn man DLSS MFG auslässt. Also war der Fokus zum grössten Teil professionelle Anwendungen.
Also haben sie alles richtig gemacht, wenn künftig sowieso das meiste Rendering über ML stattfindet.
Kriegsgeier
2025-01-07, 16:47:31
das darf man aber dann nicht mehr RENDERING bezeichnen. Eher GENERATIVE Erzeugung.
Troyan
2025-01-07, 16:52:51
https://www.youtube.com/watch?v=xpzufsxtZpA&t=3s
Digitalfoundry: DLSS 4 on Nvidia RTX 5080 First Look: Super Res + Multi Frame-Gen on Cyberpunk 2077 RT Overdrive!
Noch nicht gesehen.
Sumpfmolch
2025-01-07, 17:01:05
Gar nicht oder gar schlechter. Schau dir mal die 5080 vs. 4080 Super an. Natürlich kommt’s am Ende auf die Average Power an, die offiziellen Zahlen sind in Sachen Energie-Effizienz aber "meh".
MfG
Raff
Waren die Folien von NVIDIA eigentlich 5080 vs. 4080 Super oder gegenüber der ollen 4080?
davidzo
2025-01-07, 17:06:55
Indem du den doppelten Preis für nur ~30-40% mehr Leistung zahlen musst, wenn dir 16GB zu wenig sind, weil es halt keine 5080-24GB oder 5080Ti gibt.
Die Zielgruppe sieht das sicher anders. Kein Enthusiast regt sich auf dass 64GB Ram das doppelte von 32GB kosten, aber in den meisten games keinen Unterschied bringen. Dasselbe für CPUs, niemand erwartet da ein Pricing proportional zur Gaming-performance.
Die 5090 bietet an Hardware rund das Doppelte einer 4080, bei den CUs sogar mehr als das doppelte. Dazu ist sie weniger auf Kante getaktet und somit effizienter.
Ob sie in Spielen die doppelte Leistung erreicht oder ins CPUlimit rennt - Ob es erste mit 8K einen großen Performancespring gibt oderob die Architektur bei so vielen CUs manchmal Skalierungsprobleme hat. Das alles ist dem Käufer einer 90er Karte egal.
Es geht darum Reserven zu haben für die Edgecases oder für die Zukunft und eben das beste zu besitzen was man gerade kaufen kann.
Irgendwie habe ich stark das Gefühl, dass die RTX 5090 den Gamer-Fokus weggelassen hat. Die hohe Bandbreite und vielen Matrix-FLOPS schlagen so wie es aussieht nur bei ML-Anwendungen durch. Bei Gaming sind es anscheinend nur 25-40% wenn man DLSS MFG auslässt.
Wobei man davon ausgehen kann dass viele Titel bei 4K ins CPUlimit rennen. Wahrscheinlich sieht es in 8K oder Pathtracing schon anders aus.
BACKWELL ist eine REINRASSIGE AI-Architektur und keine fürs Gaming!
Das Gerücht war ja schon vor Jahren dass man die getrennten Compute/Gaming Architekturen wieder zusammenführen wollte. Und zuletzt ist das auch der Zug auf den AMD aufgesprungen ist und die machen in der Regel alles was nvidia macht nur eben 1-2Jahre später.
monstar-x
2025-01-07, 17:07:51
https://www.youtube.com/watch?v=xpzufsxtZpA&t=3s
Digitalfoundry: DLSS 4 on Nvidia RTX 5080 First Look: Super Res + Multi Frame-Gen on Cyberpunk 2077 RT Overdrive!
Noch nicht gesehen.
Bei Bewegung nach vorne, funktioniert es ganz gut, wie FG auch schon.
Doch bei Schwenks zur Seite/oben und unten werden die ganzen Lichter und Gitter zerrissen, sieht man sehr gut im.
Sieht man hier sehr gut bei Sekunde 81, dort die Neon Pistole (Sale) und das Gitter aus dem 1. OG. , ebenso später bei den Autos, die Lichter und das Markensmybol auf dem Autos.
https://www.youtube.com/watch?v=xpzufsxtZpA&t=80s
Wem das nicht stört, für den ist FG sicher gut, mich nervt schon einfaches Aliasing und zereisende Grafiken triggern mich sofort.
00-Schneider
2025-01-07, 17:08:35
https://www.youtube.com/watch?v=xpzufsxtZpA&t=3s
Digitalfoundry: DLSS 4 on Nvidia RTX 5080 First Look: Super Res + Multi Frame-Gen on Cyberpunk 2077 RT Overdrive!
Noch nicht gesehen.
Ui, DLSS sieht jetzt mit dem neu genutzten Model deutlich besser in Bewegung aus. :eek:
Relex
2025-01-07, 17:13:11
Bei Bewegung nach vorne, funktioniert es ganz gut, wie FG auch schon.
Doch bei Schwenks zur Seite/oben und unten werden die ganzen Lichter und Gitter zerrissen, sieht man sehr gut im.
Sieht man hier sehr gut bei Sekunde 81, dort die Neon Pistole (Sale) und das Gitter aus dem 1. OG. , ebenso später bei den Autos, die Lichter und das Markensmybol auf dem Autos.
https://www.youtube.com/watch?v=xpzufsxtZpA&t=80s
Wem das nicht stört, für den ist FG sicher gut, mich nervt schon einfaches Aliasing und zereisende Grafiken triggern mich sofort.
Wundert mich nicht.
Die haben mit 120 FPS Limit aufgenommen und für youtube um 50% verlangsamt (weil youtube = 60 FPS max). Das heißt, das Spiel läuft eigentlich intern mit 120/4 = 30 FPS (!)
Logisch, dass das bei 30 FPS nicht ganz optimal arbeitet. Dafür ist das Ergebnis sogar extrem gut.
Tomahawk
2025-01-07, 17:15:57
Ich hoffe, dass sich die hiesigen Testberichte DLSS MFG genauer anschauen werden. Neben Artefakten und Latenz natürlich auch wie 'smooth' es sich anfühlt.
Bei den sehr schnelleren Karten ist DLSS MFG weniger spannend - da hat man 'genug' Frames. Aber gerade ein Setting von z.B. 15 auf 50 Frames wäre spannend - ganz besonders dann bei den (noch zu erwarteten) kleineren Karten.
Troyan
2025-01-07, 17:16:58
Glaube nicht, dass man das bei 15 FPS verwenden will. 30 FPS ist die unterste Grenze. Konnte damit ziemlich gut Indiana Jones mit meiner 4090 zocken.
Relex
2025-01-07, 17:20:36
Wer will denn mit 15 FPS spielen? Da beträgt die Latenz doch mindestens 133 ms durch die zweifache Frametime von 15 FPS. Systemlatenz noch gar nicht draufgerechnet.
So funktioniert das nicht.
30 FPS ist das absolute minimum, damit das überhaupt mit Artefakten spielbar ist. Sinnvoll wird es ab 50 FPS und richtig gut und snappy wird es ab 60-70 FPS bevor man FG aktiviert.
Mit dem neuen schnelleren model kann man vielleicht ein paar FPS niedriger ansetzen, da der performancverlust der "echten" frames dann geringer ausfällt, aber so viel auch wieder nicht.
reaperrr
2025-01-07, 17:23:44
Das ist nicht relevant. Kompromisse muss man mit jeder GPU eingehen.
Die Zielgruppe sieht das sicher anders. Kein Enthusiast regt sich auf dass 64GB Ram das doppelte von 32GB kosten, aber in den meisten games keinen Unterschied bringen. Dasselbe für CPUs, niemand erwartet da ein Pricing proportional zur Gaming-performance.
Die 5090 bietet an Hardware rund das Doppelte einer 4080, bei den CUs sogar mehr als das doppelte. Dazu ist sie weniger auf Kante getaktet und somit effizienter.
Ob sie in Spielen die doppelte Leistung erreicht oder ins CPUlimit rennt - Ob es erste mit 8K einen großen Performancespring gibt oderob die Architektur bei so vielen CUs manchmal Skalierungsprobleme hat. Das alles ist dem Käufer einer 90er Karte egal.
Es geht darum Reserven zu haben für die Edgecases oder für die Zukunft und eben das beste zu besitzen was man gerade kaufen kann.
Alles schön und gut, nur ziemlich an dem vorbei, was ich geschrieben habe.
Es ging um die Frage, ob es Upselling ist oder nicht.
"Kompromisse muss man eingehen" und "es geht darum, Reserven zu haben" sind in meinen Augen Cope und bestätigen eigentlich nur, dass Nvidia mit ihrer Taktik Erfolg haben.
Tomahawk
2025-01-07, 17:24:32
Wer will denn mit 15 FPS spielen? Da beträgt die Latenz doch mindestens 133 ms durch die zweifache Frametime von 15 FPS. Systemlatenz noch gar nicht draufgerechnet.
So funktioniert das nicht.
30 FPS ist das absolute minimum, damit das überhaupt mit Artefakten spielbar ist. Sinnvoll wird es ab 50 FPS und richtig gut und snappy wird es ab 60-70 FPS bevor man FG aktiviert.
Mit dem neuen schnelleren model kann man vielleicht ein paar FPS niedriger ansetzen, da der performancverlust der "echten" frames dann geringer ausfällt, aber so viel auch wieder nicht.
Wollen ist das falsche Wort. Ich stelle mir die Frage, ob nicht (irgendwann) relativ kleine Chips reichen werden, da sehr viel durch AI (DLSS MFG) berechnet werden kann. Man also statt einem stockenden Bild ein flüssiges Bild bekommt.
Und nicht, wie jetzt so oft gezeigt, von einem flüssigen Bild auf ein super-flüssiges Bild.
Troyan
2025-01-07, 17:26:58
Alles schön und gut, nur ziemlich an dem vorbei, was ich geschrieben habe.
Es ging um die Frage, ob es Upselling ist oder nicht.
"Kompromisse muss man eingehen" und "es geht darum, Reserven zu haben" sind in meinen Augen Cope und bestätigen eigentlich nur, dass Nvidia mit ihrer Taktik Erfolg haben.
Upselling bedeutet, dass der Sprung zum besserausgestatteten Produkt deutlich sinnvoller ist als das günstigere zu kaufen. Das war bei RTX4080 und RTX4090 der Fall, wo die 34% teurere 4090 nicht nur 34% schneller sondern auch 24GB hatte.
Jetzt reden wir vom doppelten Aufpreis für <=50% Mehrleistung und doppelten Speicher. Das ist kein Upselling.
monstar-x
2025-01-07, 17:28:18
Wundert mich nicht.
Die haben mit 120 FPS Limit aufgenommen und für youtube um 50% verlangsamt (weil youtube = 60 FPS max). Das heißt, das Spiel läuft eigentlich intern mit 120/4 = 30 FPS (!)
Logisch, dass das bei 30 FPS nicht ganz optimal arbeitet. Dafür ist das Ergebnis sogar extrem gut.
Was? Verstehst du überhaupt was ich sagte? Ich rede nicht von Videokompressions Artefakten noch von Tearing, sondern von Elementen die nicht so leicht von der AI verarbeitet werden können, da diese zu Komplex sind, wie Gitter, oder Feine Details, die bei einer Horizontalen Bewegung kaputt sind, während nicht so Komplexe Bildelemente normal aussehen.
Das hat rein gar nichts mit Youtube zu tun sondern mit Frame-Geneartion.
why_me
2025-01-07, 17:30:28
Wollen ist das falsche Wort. Ich stelle mir die Frage, ob nicht (irgendwann) relativ kleine Chips reichen werden, da sehr viel durch AI (DLSS MFG) berechnet werden kann. Man also statt einem stockenden Bild ein flüssiges Bild bekommt.
Und nicht, wie jetzt so oft gezeigt, von einem flüssigen Bild auf ein super-flüssiges Bild.
Der AI kram braucht auch Rechenleistung und Informationen (FPS).
Und dann noch das Thema inputlag, je niedriger die FPS desto schlimmer ist es.
MiamiNice
2025-01-07, 17:36:44
Sinnvoll wird es ab 50 FPS und richtig gut und snappy wird es ab 60-70 FPS bevor man FG aktiviert.
Ich habe noch keine Karte die FG unterstützt, daher verzeihe man mir die vielleicht dumme Frage ^^.
Warum sollte man bei 60-70 Fps FG + Reflex aktivieren und die erhöhte Latenz in Kauf nehmen, wenn man auch G-Sync und Reflex nutzen könnte? Wo ist der Vorteil von 3 stelligen FPS und erhöhter Latenz ggü. genug FPS, die sich wegen G-Sync auch flüssig anfühlen, und einer niedrigen Latenz?
Das habe ich noch nie verstanden :freak:
Tesseract
2025-01-07, 17:38:29
das darf man aber dann nicht mehr RENDERING bezeichnen. Eher GENERATIVE Erzeugung.
natürlich ist das rendering. rendering ist das generieren eines 3D bildes aus daten/plänen/modellen. historisch gesehen war "rendering" unter anderem wenn ein künstler/zeichner aus architekturplänen per hand ein bild vom fertigen gebäude gezeichnet hat um zu zeigen wie es nach dem bau vor ort aussehen wird.
why_me
2025-01-07, 17:38:54
@MiamiNice: Längere Balken in Benchmarks und Marketing Folien.
Was leider zu klappen scheint, die Leute glauben aktuell auch Reihenweise 5070 = 4090 Leistung.
Weil Nvidia natürlich nicht dazu gesagt hat, das die eine 2x, die andere 4x FG macht.
Tomahawk
2025-01-07, 17:40:20
Der AI kram braucht auch Rechenleistung und Informationen (FPS).
Und dann noch das Thema inputlag, je niedriger die FPS desto schlimmer ist es.
Genau deswegen sollte es gut getestet werden.
monstar-x
2025-01-07, 17:42:55
Der AI kram braucht auch Rechenleistung und Informationen (FPS).
Und dann noch das Thema inputlag, je niedriger die FPS desto schlimmer ist es.
Latenz erhöht sich deutlich im Video aus DF ist zu sehen
bei x2 FG 53ms zu 65ms bei x4 FG, die Nativen ms darf er nicht zeigen oder sagen, wird schon seine Gründe haben.
@RAFF wird es uns schon mitteilen :-)
Relex
2025-01-07, 17:44:21
Was? Verstehst du überhaupt was ich sagte? Ich rede nicht von Videokompressions Artefakten noch von Tearing, sondern von Elementen die nicht so leicht von der AI verarbeitet werden können, da diese zu Komplex sind, wie Gitter, oder Feine Details, die bei einer Horizontalen Bewegung kaputt sind, während nicht so Komplexe Bildelemente normal aussehen.
Das hat rein gar nichts mit Youtube zu tun sondern mit Frame-Geneartion.
Beruhig dich mal. Du hast offensichtlich kein Wort verstanden.
Nochmal, das Spiel lief mit 120 FPS cap.
Bei 4x FG läuft das Spiel folglich intern nur noch mit 30 FPS.
Das ist zu wenig für FG. Solche Artefakte entstehen vermehrt, wenn die Framerate zu gering ist. Kannst du auch jetzt schon auf RTX4000 ausprobieren, wenn du mir nicht glaubst...
Sumpfmolch
2025-01-07, 17:44:44
@MiamiNice: Längere Balken in Benchmarks und Marketing Folien.
Was leider zu klappen scheint, die Leute glauben aktuell auch Reihenweise 5070 = 4090 Leistung.
Weil Nvidia natürlich nicht dazu gesagt hat, das die eine 2x, die andere 4x FG macht.
Böse Zungen würden sagen: wenn 4x FG brauchbar ist und von NVIDIA auf der 4090 nicht bereit gestellt wird, dann zieht die 5070 die 4090 schon ab.
Das ist natürlich eine ziemlich feine Entwertung von über 2000€ Hardware. :naughty:
Lawmachine79
2025-01-07, 17:49:12
Lies den Wikipedia-Artikel. Da geht es nicht bloß um RAM sondern um das Gesamtprodukt. Und Upselling funktioniert halt so, dass man das kleinere Modell so unattraktiv macht, dass die Kunden dann zum größeren greifen obwohl sie das ursprünglich gar nicht planten.
Dann haben sie es mir nicht upgeselled. Denn ich hatte genau das geplant.
Relex
2025-01-07, 17:49:12
Böse Zungen würden sagen: wenn 4x FG brauchbar ist und von NVIDIA auf der 4090 nicht bereit gestellt wird, dann zieht die 5070 die 4090 schon ab.
Das ist natürlich eine ziemlich feine Entwertung von über 2000€ Hardware. :naughty:
Nö, die Latenzen sind ja viel höher.
Ne 4090 wird mit FG weiterhin deutlich niedrigere Latenzen haben, als eine 5070, weil die Basisframerate höher ist.
Die FPS werden auf einer 5070 natürlich trotzdem höher oder ähnlich sein, wenn Nvidia das Versprechen mit 4x FG einlösen kann.
Kleines Beispiel:
Die 4090 rendert das Spiel mit aktiver 2x FG bei 120 FPS. Tatsächliche Framerate und latenz entspricht somit 60 FPS.
Die 5070 schafft mit 4x Frame Generation meinetwegen 130 FPS und schlägt somit die 4090 etwas.
Das Spiel würde dann intern mit 33 FPS laufen (130 / 4). Also ca. doppelte Latenz im Vergleich zur 4090.
Oder einfach gesagt: Wenn die 5070 4x FG braucht, um die 4090 mit 2x FG zu schlagen, sind die Latenzen doppelt so hoch.
Karümel
2025-01-07, 17:50:02
Wann kommt eigentlich was zu den 5060 (TI) Karten?
dildo4u
2025-01-07, 17:51:59
Wann kommt eigentlich was zu den 5060 (TI) Karten?
Die kommen meistens deutlich später 4060 erst 8 Monate nach 4090 z.b.
Gibt noch zu viele 4060TI auf Lager dort könnte die 5060 landen wenn die Abverkauft sind.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&sort=p&bl1_id=30&xf=9816_03+05+17+-+RTX+4060+Ti
Sumpfmolch
2025-01-07, 18:22:17
Kleines Beispiel:
Die 4090 rendert das Spiel mit aktiver 2x FG bei 120 FPS. Tatsächliche Framerate und latenz entspricht somit 60 FPS.
Die 5070 schafft mit 4x Frame Generation meinetwegen 130 FPS und schlägt somit die 4090 etwas.
Das Spiel würde dann intern mit 33 FPS laufen (130 / 4). Also ca. doppelte Latenz im Vergleich zur 4090.
Oder einfach gesagt: Wenn die 5070 4x FG braucht, um die 4090 mit 2x FG zu schlagen, sind die Latenzen doppelt so hoch.
Die Frage ist, ob Latenzen um die 57ms in Games wie Cyberpunk mit 4x Frame Generation sehr störend sind.
Kriegsgeier
2025-01-07, 18:24:06
Ca. 7 ms mehr als bei FG1
https://youtu.be/xpzufsxtZpA?si=HGGeSgb5-CZh-F1E
monstar-x
2025-01-07, 18:24:55
Beruhig dich mal. Du hast offensichtlich kein Wort verstanden.
Nochmal, das Spiel lief mit 120 FPS cap.
Bei 4x FG läuft das Spiel folglich intern nur noch mit 30 FPS.
Das ist zu wenig für FG. Solche Artefakte entstehen vermehrt, wenn die Framerate zu gering ist. Kannst du auch jetzt schon auf RTX4000 ausprobieren, wenn du mir nicht glaubst...
Ich bin ruhig :biggrin:, sorry wollte dich nicht angehen, falls das so rüber kam.
Richard von DF sagt im Video O-Ton:
"unlocked framerates from the RTX 5080 are much higher ... and thereforre visible far artifacts are less noticeable" Er sagt nicht dass keine da sind.
D.h. du nimmst es weniger wahr, nicht dass die Artefakte nicht mehr da sind.
Ich kaufe doch keine 2500€-Karte, um Artefakte im Spiel zu haben.
Wenn du dich damit arrangieren kannst, ist das dein Ding, doch zu sagen, es liegt an den 30 FPS lock, stimmt nicht.
Und jetzt weiß ich nicht ob ich die 4090 schon verkaufen soll (brauche sie ab Mitte Januar nicht) und wo der Preispunkt für ne gute FE mit WaKü Block liegt. Könnte man für die Oldies vielleicht mal nen Raster-Benchmark ohne FG aber mit exorbitant hoher Auflösung (mdst. 8k) ins Marketing-Geschwätz einbauen? :freak:;D
teezaken
2025-01-07, 18:39:49
Ich bin ruhig :biggrin:, sorry wollte dich nicht angehen, falls das so rüber kam.
Richard von DF sagt im Video O-Ton:
"unlocked framerates from the RTX 5080 are much higher ... and thereforre visible far artifacts are less noticeable" Er sagt nicht dass keine da sind.
D.h. du nimmst es weniger wahr, nicht dass die Artefakte nicht mehr da sind.
Ich kaufe doch keine 2500€-Karte, um Artefakte im Spiel zu haben.
Wenn du dich damit arrangieren kannst, ist das dein Ding, doch zu sagen, es liegt an den 30 FPS lock, stimmt nicht.
Eigentlich sagt Rich "far less noticeable" und er sagt selbst das sie die Fps begrenzt haben (für die B-Roll), ergo bedeutet das mehr Artefakte (ist doch logisch mit weniger Inputdata), da Basisframerate geringer ist und nichts anderes sagt Relex. Die Frage ist natürlich wie immer ob man die Artefakte im Gameplay sehen kann oder nicht (beim Spielen) und das ist individuell.
Orbmu2k
2025-01-07, 18:40:34
Nö, die Latenzen sind ja viel höher.
Ne 4090 wird mit FG weiterhin deutlich niedrigere Latenzen haben, als eine 5070, weil die Basisframerate höher ist.
Die FPS werden auf einer 5070 natürlich trotzdem höher oder ähnlich sein, wenn Nvidia das Versprechen mit 4x FG einlösen kann.
Kleines Beispiel:
Die 4090 rendert das Spiel mit aktiver 2x FG bei 120 FPS. Tatsächliche Framerate und latenz entspricht somit 60 FPS.
Die 5070 schafft mit 4x Frame Generation meinetwegen 130 FPS und schlägt somit die 4090 etwas.
Das Spiel würde dann intern mit 33 FPS laufen (130 / 4). Also ca. doppelte Latenz im Vergleich zur 4090.
Oder einfach gesagt: Wenn die 5070 4x FG braucht, um die 4090 mit 2x FG zu schlagen, sind die Latenzen doppelt so hoch.
Die zusätzliche Latenz bei FG kommt doch hauptsächlich, weil ein schon fertiges Bild zurückgehalten wird und erstmal das berechnete Zwischenbild ausgegeben wird. Bei 4x FG werden aber keine 4 Frames zurückgehalten sondern weiter nur das eine, aber 3 Zwischenbilder dazwischen erzeugt. Die Latenz nimmt zwischen 2x und 4x nur minimal zu für den Overhead.
Ex3cut3r
2025-01-07, 18:47:45
Ich gebe zu, ich bin schon ein wenig gehypt. Verdammte Axt, da hat mich der Jensen mal wieder gepackt. Ich habe noch ne AM4 Plattform mit einer RTX 3080 Ti. Eigentlich wollte ich im Sommer erstmal MB, CPU, RAM austauschen. :freak:
Das wird kosten Herr Präsident. :freak:
So ne 5070 Ti oder 5080 mit DLSS 4 sollte mir aber genügen. Als Monitor habe ich "nur" einen 4K 31.5" mit 144HZ.
Undertaker
2025-01-07, 18:52:50
Die zusätzliche Latenz bei FG kommt doch hauptsächlich, weil ein schon fertiges Bild zurückgehalten wird und erstmal das berechnete Zwischenbild ausgegeben wird. Bei 4x FG werden aber keine 4 Frames zurückgehalten sondern weiter nur das eine, aber 3 Zwischenbilder dazwischen erzeugt. Die Latenz nimmt zwischen 2x und 4x nur minimal zu für den Overhead.
Deine Argumentation ist doch nur die Begründung, dass die Latenz ein und derselben GPU in einem bestimmten use case zwischen FG und MFG nur geringfügig steigt. Für die absolute Latenz ist jedoch natürlich die Bildrate/Frametime VOR der Aktivierung von FG entscheidend. Heißt: Bei gleichen angezeigten FPS von drei unterschiedlichen GPUs mit MFG, FG und non-FG hat die letzte GPU natürlich die mit Abstand geringste Latenz.
Orbmu2k
2025-01-07, 18:59:32
Deine Argumentation ist doch nur die Begründung, dass die Latenz ein und derselben GPU in einem bestimmten use case zwischen FG und MFG nur geringfügig steigt. Für die absolute Latenz ist jedoch natürlich die Bildrate/Frametime VOR der Aktivierung von FG entscheidend. Heißt: Bei gleichen angezeigten FPS von drei unterschiedlichen GPUs mit MFG, FG und non-FG hat die letzte GPU natürlich die mit Abstand geringste Latenz.
Richtig deswegen habe ich ja zusätzliche Latenz geschrieben. Ohne FG wird das fertige Bild ja sofort ausgegeben und nicht zurückgehalten und hat natürlich die geringste Latenz.
Kriegsgeier
2025-01-07, 19:01:22
Ich überlege auch gerade: ob 5080 oder 5090 von einer 3090Fe kommend
Die 5080 wäre dann für 2 Jahre, die 5090 wieder für 4 bis 7090 dann…
BlacKi
2025-01-07, 19:01:55
Die zusätzliche Latenz bei FG kommt doch hauptsächlich, weil ein schon fertiges Bild zurückgehalten wird und erstmal das berechnete Zwischenbild ausgegeben wird. Bei 4x FG werden aber keine 4 Frames zurückgehalten sondern weiter nur das eine, aber 3 Zwischenbilder dazwischen erzeugt. Die Latenz nimmt zwischen 2x und 4x nur minimal zu für den Overhead.guter punkt. wenn reflex 2 nochmals inputlag reduziert wird 4x FG wirklich nutzbar.
The_Invisible
2025-01-07, 19:07:30
Ich gebe zu, ich bin schon ein wenig gehypt. Verdammte Axt, da hat mich der Jensen mal wieder gepackt. Ich habe noch ne AM4 Plattform mit einer RTX 3080 Ti. Eigentlich wollte ich im Sommer erstmal MB, CPU, RAM austauschen. :freak:
Das wird kosten Herr Präsident. :freak:
So ne 5070 Ti oder 5080 mit DLSS 4 sollte mir aber genügen. Als Monitor habe ich "nur" einen 4K 31.5" mit 144HZ.
Von einer 3080ti aus ist eh ein geiles Upgrade, 5070ti/5080 rein und gut :D
@Kriegsgeier
Hä, hast du nicht gesagt das eine 5090 4,5k kosten soll damit du sicher eine abkriegst
Relex
2025-01-07, 19:14:06
Die zusätzliche Latenz bei FG kommt doch hauptsächlich, weil ein schon fertiges Bild zurückgehalten wird und erstmal das berechnete Zwischenbild ausgegeben wird. Bei 4x FG werden aber keine 4 Frames zurückgehalten sondern weiter nur das eine, aber 3 Zwischenbilder dazwischen erzeugt. Die Latenz nimmt zwischen 2x und 4x nur minimal zu für den Overhead.
Alles richtig was du schreibst, aber im Bezug auf den RTX5070 vs 4090 Vergleich hast du einen Denkfehler :wink:
Nochmal, in meinem Beispiel würde die 4090 mit 2x FG 120 FPS schaffen und die 5070 mit 4x FG 130 FPS.
Du vergisst dabei, dass die 5070 mit 2x FG, dann eben nur noch ca 65 FPS erreichen würde (oder etwas mehr, weil weniger Rechenaufwändig, aber so genau gehts ja nicht, ist eh nur ein Beispiel).
Natürlich steigt bei der 5070 die Latenz von 2x auf 4x FG nur minimal an, aber das ändert ja nichts an der Tatsache, dass die Basis framerate viel niedriger und damit eben unweigerlich die Latenz viel höher sein muss als auf der 4090.
Das was du schreibst widerspricht also in keinster Weise meinen Aussagen, du hast nur den falschen Schluss daraus gezogen.
Eine 5070 kann niemals an die Latenzen einer 4090 heranreichen, wenn sie das nicht über tatsächliche Rohleistung schafft. FG hilft bei den Latenzen nicht, nur bei den Frames. Dass die Latenzen mit 4x FG gegenüber 2x nicht viel schlechter werden hilft der 5070 nur, die eh schon schlechteren Latenzen aufgrund der geringeren basis Framerate zumindest aufrecht zu herhalten und nicht NOCH WEITER zu verschlechtern. Es hilft NICHT die Latenzen zu VERBESSERN und auf 4090 niveau zu bringen.
Undertaker
2025-01-07, 19:19:32
Alles richtig was du schreibst, aber im Bezug auf den RTX5070 vs 4090 Vergleich hast du einen Denkfehler :wink:
Nochmal, in meinem Beispiel würde die 4090 mit 2x FG 120 FPS schaffen und die 5070 mit 4x FG 130 FPS.
Du vergisst dabei, dass die 5070 mit 2x FG, dann eben nur noch ca 65 FPS erreichen würde (oder etwas mehr, weil weniger Rechenaufwändig, aber so genau gehts ja nicht, ist eh nur ein Beispiel).
Natürlich steigt bei der 5070 die Latenz von 2x auf 4x FG nur minimal an, aber das ändert ja nichts an der Tatsache, dass die Basis framerate viel niedriger und damit eben unweigerlich die Latenz viel höher sein muss als auf der 4090.
Das was du schreibst widerspricht also in keinster Weise meinen Aussagen, du hast nur den falschen Schluss daraus gezogen.
Exakt :Up: Und damit ist für mich der Nutzen von FG und MFG weiterhin sehr begrenzt. Die Latenz und damit Spielbarkeit gegenüber einem Settings ohne FG wird sich weiterhin prinzipbedingt nicht verbessern, im best case vielleicht "nur" marginal verschlechtern. Dafür bekomme ich eine flüssigere optische Darstellung, die ich jedoch bei VRR und Frameraten >>60 FPS (darunter wäre mir die absolute Latenz ohnehin zu schlecht) mMn nicht wirklich brauche. Obendrein verliere ich ein bisschen VRAM und Bildqualität... Ich sehe da tatsächlich keinen Mehrwert.
aufkrawall
2025-01-07, 19:21:47
Tja, dann siehst du nicht so gut? Die Bewegtbildschärfe durch FG steigt (bei entsprechender Skalierung) massiv. Ist einfach mal Fakt.
BlacKi
2025-01-07, 19:23:13
ich finde am bemerkenswertesten die 5080. 100mhz und 8sm (nicht 4)mehr, und trotzdem zaubert sie in farcry 33% ohne dlss und 35% (pixelgenau rausgemessen)in dlss3 auf die 4080, obwohl die rechenleistung nur um 15,5% gestiegen ist. das sind immmernoch solide +-16% ipc increase ada vs blackwell!
ich glaube die 5090 sandbagged mit den farcry und plague tale benchmarkwerten, wenn man bedenkt, das man gegen die 4090 nicht nur 15% mehr rechenleistung bietet, sondern 27%, dann kommt man bei einem echten performance gewinn von 47% heraus. davon muss man die schlechtere shaderskalierung noch abziehen. und scheinbar wäre mit oc noch weit über 50% auf die 4090 möglich.
Hakim
2025-01-07, 19:26:13
Ich werde sowieso bei meiner Persönlichen Bewertung und Kaufentscheidung FG und MFG nicht berücksichtigen, aus den genannten Gründen. In meinem Nutzungsverhalten würde es mir auch nicht viel bringen. Ich freue mich eher auf die verbesserte DLSS und Reflex Versionen, die aber halt auch auf den älteren laufen sollen. Gut wenn RT Performance verbessert wurde ist das türlich auch ein Plus Punkt.
Relex
2025-01-07, 19:29:18
@Undertaker
Na ja, der Grundgedanke ist doch folgender: Wenn deine Karte nur 50 FPS schafft, dann ist das so. Lässt sich nichts dran rütteln ohne die Settings zu reduzieren.
Jetzt aktivierst du Frame Generation + Reflex. Hast dadurch im Idealfall etwas bessere oder wenigstens gleich bleibende Latenzen, aber dafür deutlich mehr Frames für eine flüssigere Bildwiedergabe, weniger Ruckeln und weniger Unschärfe in Bewegung, weil du jetzt eben 150 oder 200 FPS anstatt 50 hast.
Natürlich fühlt sich das nicht wie 200 FPS an. Aber der Sinn und Zweck ist ja, einfach das bestmögliche aus dem zu machen, was die Grafikkarte schafft. Der Vergleich mit der 4090 ist daher aus meiner Sicht total dämlich, da er falsche Dinge suggeriert.
Für mich ist FG schon immer ein tool gewesen, um das was man mit seiner GPU erreichen kann zumindest nochmal flüssiger zu machen. Die latenzen bleiben dann eben in etwa auf dem niveau, wie es die GPU eben aufgrund ihrer Rohleistung schaffen kann. Ich sehe deshalb auch kaum Gründe, darauf zu verzichten. Man darf sich halt nur nicht einreden, dass die FPS äquivalent zu "echten" FPS in gleicher höhe wären, wobei man die Situation so oder so neu bewerten muss. Wenn sich latenzen und FPS mit FG anders zueinander verhalten als vorher verschieben sich auch die Schwellen im Bezug auf das was akzeptabel ist und was nicht.
Nur weil das nicht erreicht wird (also dass FG FPS sich wie echte FPS anfühlen) ist das mMn. kein Grund gegen FG. Wobei ich die Rechnung noch nicht mit Reflex 2 gemacht habe. Wobei da ja noch völlig offen ist, ob das zusammen mit FG funktioniert.
why_me
2025-01-07, 19:32:00
ich finde am bemerkenswertesten die 5080. 100mhz und 4sm mehr, und trotzdem zaubert sie in farcry 33% ohne dlss und 35% (pixelgenau rausgemessen)in dlss3 auf die 4080, obwohl die rechenleistung nur um 15,5% gestiegen ist. das sind immmernoch solide +-16% ipc increase ada vs blackwell!
4080 oder 4080 super?
Und bitte nicht vergessen:
12,5% höhere TDP
33% höhere Bandbreite
unbekannte anliegende Taktrate, boost sagt ja nichts mehr aus
Ich komme auf 19,8% mehr TFLOPS im vergleich zur 4080
mczak
2025-01-07, 19:35:21
ich finde am bemerkenswertesten die 5080. 100mhz und 4sm mehr, und trotzdem zaubert sie in farcry 33% ohne dlss und 35% (pixelgenau rausgemessen)in dlss3 auf die 4080, obwohl die rechenleistung nur um 15,5% gestiegen ist. das sind immmernoch solide +-16% ipc increase ada vs blackwell!
Naja also man darf nicht vergessen dass die auch ~33% mehr Speicherbandbreite hat. Keine Ahnung wieviel genau das in welchem Benchmark bringt aber ein paar Prozent werden es hier wohl schon sein. Da bleibt dann von der IPC-Steigerung rein architekturmässig nicht mehr so viel übrig. (edit: ich gehe mal davon aus dass der L2 gleich gross geblieben ist. Theoretisch wäre es denkbar dass nvidia den etwas verkleinert um Fläche zu sparen weil die Bandbreite im Verhältnis zur rohen Rechenleistung überproportional steigt.) Aber klar als Kunde ist das am Ende egal wieso die schneller ist.
BlacKi
2025-01-07, 19:35:35
4080 oder 4080 super?
Und bitte nicht vergessen:
12,5% höhere TDP
33% höhere Bandbreite
unbekannte anliegende Taktrate, boost sagt ja nichts mehr aus
Ich komme auf 19,8% mehr TFLOPS im vergleich zur 4080
terchpowerup hat für die 4080 48,74TF angegeben. leo hat für die 5080 56,3tf angegeben.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080.c3888https://www.3dcenter.org/news/nvidia-auf-der-ces-2025-vorstellung-der-geforce-rtx-50-desktop-laptop-serien
Naja also man darf nicht vergessen dass die auch ~33% mehr Speicherbandbreite hat. Keine Ahnung wieviel genau das in welchem Benchmark bringt aber ein paar Prozent werden es hier wohl schon sein. Da bleibt dann von der IPC-Steigerung rein architekturmässig nicht mehr so viel übrig. Aber klar als Kunde ist das am Ende egal wieso die schneller ist.
ja, die ipc steigerung kommt auch durch die steigerung der bandbreite zusammen. das kann man aber nicht getrennt sehen, denn vergrößerung von cache und dessen geschwindigkeit verbessert ja auch die ipc. genau wie speicherbandbreite.
aber weißt du welche karte nochmehr bandbreite dazubekommen hat? die die gerade massiv sandbagged.
@Blacki: Ah ok, ich hab von der Vergleichtstabelle auf Computerbase 47 TFLOPs.
4 CUs weniger stimmt aber dann auch nicht, sind 8. 4 Wären es bei der Super
ups, danke
Orbmu2k
2025-01-07, 19:38:32
Alles richtig was du schreibst, aber im Bezug auf den RTX5070 vs 4090 Vergleich hast du einen Denkfehler :wink:
Nochmal, in meinem Beispiel würde die 4090 mit 2x FG 120 FPS schaffen und die 5070 mit 4x FG 130 FPS.
Du vergisst dabei, dass die 5070 mit 2x FG, dann eben nur noch ca 65 FPS erreichen würde (oder etwas mehr, weil weniger Rechenaufwändig, aber so genau gehts ja nicht, ist eh nur ein Beispiel).
Natürlich steigt bei der 5070 die Latenz von 2x auf 4x FG nur minimal an, aber das ändert ja nichts an der Tatsache, dass die Basis framerate viel niedriger und damit eben unweigerlich die Latenz viel höher sein muss als auf der 4090.
Das was du schreibst widerspricht also in keinster Weise meinen Aussagen, du hast nur den falschen Schluss daraus gezogen.
Eine 5070 kann niemals an die Latenzen einer 4090 heranreichen, wenn sie das nicht über tatsächliche Rohleistung schafft. FG hilft bei den Latenzen nicht, nur bei den Frames. Dass die Latenzen mit 4x FG gegenüber 2x nicht viel schlechter werden hilft der 5070 nur, die eh schon schlechteren Latenzen aufgrund der geringeren basis Framerate zumindest aufrecht zu herhalten und nicht NOCH WEITER zu verschlechtern. Es hilft NICHT die Latenzen zu VERBESSERN und auf 4090 niveau zu bringen.
Du hast natürlich absolut Recht was die Latenz aus der Basisframerate betrifft. War vielleicht etwas missverständlich aber ich wollte nicht deinem Battle 5070 vs 4090 widersprechen. Die 5070 verliert da auf allen Ebenen.
Latenz, VRAM, DLSS MFG Support usw...
Mir ging es nur darum das 2xFG und 4xFG keinen großen Unterschied bei der Latenz macht.
why_me
2025-01-07, 19:39:09
@Blacki: Ah ok, ich hab von der Vergleichtstabelle auf Computerbase 47 TFLOPs.
4 CUs weniger stimmt aber dann auch nicht, sind 8. 4 Wären es bei der Super
Neurosphere
2025-01-07, 19:44:29
ich finde am bemerkenswertesten die 5080. 100mhz und 4sm mehr, und trotzdem zaubert sie in farcry 33% ohne dlss und 35% (pixelgenau rausgemessen)in dlss3 auf die 4080, obwohl die rechenleistung nur um 15,5% gestiegen ist. das sind immmernoch solide +-16% ipc increase ada vs blackwell!
ich glaube die 5090 sandbagged mit den farcry und plague tale benchmarkwerten, wenn man bedenkt, das man gegen die 4090 nicht nur 15% mehr rechenleistung bietet, sondern 27%, dann kommt man bei einem echten performance gewinn von 47% heraus. davon muss man die schlechtere shaderskalierung noch abziehen. und scheinbar wäre mit oc noch weit über 50% auf die 4090 möglich.
Farcry skaliert auch nicht so gut auf Geforce. Hier hat die 4090 auch "nur" ca. 50% zur 3090ti gebracht. In anderen Titeln lief es da deutlich besser.
Ex3cut3r
2025-01-07, 20:06:00
Die Dunia Engine ist auch massiv CPU Limitierend.
Von einer 3080ti aus ist eh ein geiles Upgrade, 5070ti/5080 rein und gut :D
So machen wir das. :biggrin:
Der_Korken
2025-01-07, 20:11:15
Die zusätzliche Latenz bei FG kommt doch hauptsächlich, weil ein schon fertiges Bild zurückgehalten wird und erstmal das berechnete Zwischenbild ausgegeben wird. Bei 4x FG werden aber keine 4 Frames zurückgehalten sondern weiter nur das eine, aber 3 Zwischenbilder dazwischen erzeugt. Die Latenz nimmt zwischen 2x und 4x nur minimal zu für den Overhead.
Jein. Für 2x FG reicht es theoretisch aus, einen fertigen Frame für eine halbe Frametime zurückzuhalten (wir nehmen vereinfachend mal an, dass das Generieren von Zwischenbildern keine Zeit kostet): Wenn Frame 2 fertig ist, wird Frame 1,5 ausgegeben - man ist also immer "einen halben Frame" hinter der direkten Ausgabe. Praktisch kommt natürlich noch die Zeit für das Berechnen des Zwischenbilds dazu, aber das lassen wir mal weg.
Für 4xFG ist es anders: Sobald Frame 2 fertig ist, berechnest du die Frames 1,25, 1,5 und 1,75. Davon gibst du zuerst Frame 1,25 aus. Also bist du hier "dreiviertel Frames" hinter der Direktausgabe. Die Latenz verschlechtert sich also prinzipbedingt durch 4xFG, selbst wenn die Basisframerate identisch ist.
Matrix316
2025-01-07, 20:17:08
5090 in Action
3a8dScJg6O0
aufkrawall
2025-01-07, 20:21:57
Gar keinen Bock, dieses Video anzuklicken...
Neurosphere
2025-01-07, 20:22:26
3a8dScJg6O0
Linus darf ein bisschen spielen. Aussagekraft natürlich leider sehr gering wegen FG auf 4090 und MFG auf 5090.
Tante Edith: Matrix316 war schneller, war noch am editieren...
00-Schneider
2025-01-07, 20:23:27
Clickbait vom Feinsten.
Ex3cut3r
2025-01-07, 20:26:12
https://youtu.be/3a8dScJg6O0
Aussagekraft natürlich leider sehr gering wegen FG auf 4090 und MFG auf 5090.
Und? Verstehe diese Denkweise, die auch andere hier im Thread haben nicht. Mich als Kunde interessiert doch das, was ich am ende rausbekomme. Welches AAA Spiel kommt eigentlich noch ohne FG auf dem Markt?
Dürften die wenigsten sein. Von daher komplett wurscht, ob AI Generated oder nicht, die Fake Frames sehen am ende des Tages zu 99,8% wie echte Frames aus. Daher komplett wurscht!
][immy
2025-01-07, 20:27:42
Ui, DLSS sieht jetzt mit dem neu genutzten Model deutlich besser in Bewegung aus. :eek:
Was mich daran wieder wundert, DLSS hat richtig eklige Artefakte und plötzlich sieht man die in einem Vergleich, wo ein besserer Nachfolger raus ist.
Ja, sieht in dem DF Video deutlich besser aus, ggfs. endlich mal nutzbar. Ich befürchte aber, das auch auch da wieder richtig miese Implementierungen gibt.
Den Hype um Framegen kann ich echt nicht verstehen. Ja, doppelte Bildrate, geht ja vielleicht gerade noch, aber noch mehr generierte Zwischenbilder ... da ist der Lag irgendwann nicht mehr aus zu halten. Ich hoffe auch, das dies in Zukünftigen Benches deaktiviert wird. Ich würde es eher als Zuschaltbares Qualitätsfeature sehen, wie damals SSAA, aber es hat nichts in Benches zu suchen.
Interessant finde ich aber auch, das nvidia jetzt doch die Features mal bis zu den ersten RTX-Karten runter unterstützt (bis auf das nutzlose Multiframegen).
Tesseract
2025-01-07, 20:41:58
[immy;13679355']Was mich daran wieder wundert, DLSS hat richtig eklige Artefakte und plötzlich sieht man die in einem Vergleich, wo ein besserer Nachfolger raus ist.
es wundert dich dass man für einen vergleich das raussucht was vorher die größten probleme gemacht hat um die unterschiede zu verdeutlichen?
[immy;13679355']da ist der Lag irgendwann nicht mehr aus zu halten.
die latenz zwischen 2x und 4x unterscheidet sich kaum. auf einem 144Hz schirm 4x einzuschalten und die basis-fps auf 36 zu drücken macht natürlich wenig sinn aber auf 240+ 3x oder 4x an und ab die post.
[immy;13679355']Interessant finde ich aber auch, das nvidia jetzt doch die Features mal bis zu den ersten RTX-Karten runter unterstützt (bis auf das nutzlose Multiframegen).
so wie eigentlich fast immer wenn es keine hardwaregründe gibt?
aufkrawall
2025-01-07, 20:45:35
es wundert dich dass man für einen vergleich das raussucht was vorher die größten probleme gemacht hat um die unterschiede zu verdeutlichen?
DF haben da schon die Tendenz, diese Sachen so lange es geht irgendwie als Beiläufigkeit abzutun bis unter den Tisch fallen zu lassen.
Ich will mal stark hoffen, dass der fucking Bloom-"Bug" mit den neuen Modellen endlich so wie mit RR weg ist. Unglaublich blöd.
monstar-x
2025-01-07, 20:46:57
https://youtu.be/3a8dScJg6O0
Linus darf ein bisschen spielen. Aussagekraft natürlich leider sehr gering wegen FG auf 4090 und MFG auf 5090.
Tante Edith: Matrix316 war schneller, war noch am editieren...
Schade, hätten Nvidia die 5090 lieber Steve von Hardwareunboxed oder GamersNexus gegeben.
Linus schaue ich mir nicht mehr an, seit dem Skandal nicht mehr an.
War da irgendwas brauchbares drinnen was wir noch nicht wussten?
Ex3cut3r
2025-01-07, 20:57:35
Gar nichts. Außer Bla Bla, ich bin Linus und Millonär.
monstar-x
2025-01-07, 20:59:55
Gar nichts. Außer Bla Bla, ich bin Linus und Millonär.
Danke, wie ich es dachte.
So nach dem Motto jeder sollte jetzt mindestens 5x 5090 kaufen sind ja günstig, kosten nur 1999$
Weiß jemand hier, wer dieses Mal nach NBB die Dinger in Deutschland die FE-Edition verkaufen wird?
00-Schneider
2025-01-07, 21:18:42
[immy;13679355']Den Hype um Framegen kann ich echt nicht verstehen. Ja, doppelte Bildrate, geht ja vielleicht gerade noch, aber noch mehr generierte Zwischenbilder ... da ist der Lag irgendwann nicht mehr aus zu halten.
Das ist eher für 240Hz-Monitore +/- gedacht. ~90fps als Basisframerate für ~geringen Inputlag, dann 3xFG drüber wo nur ein paar ms an Lag hinzukommen und man kann mit 240 fps spielen und hat ein ~knackscharfes Bild in Bewegung.
AtTheDriveIn
2025-01-07, 21:22:21
Gar nichts. Außer Bla Bla, ich bin Linus und Millonär.
Naja das stimmt so nicht. Er weißt schon auf FG settings und blur hin, zerreißt das gezeigte aber auch nicht. Linus ist halt so ein hyperaktiver Tech-Nerd. Mag halt nicht jeder. Das er sich für die 5090 specs begeistern kann ist schon klar. Hinweise auf sein Income gab es überhaupt nicht...
Si|encer
2025-01-07, 21:32:40
Schade, hätten Nvidia die 5090 lieber Steve von Hardwareunboxed oder GamersNexus gegeben.
Linus schaue ich mir nicht mehr an, seit dem Skandal nicht mehr an.
War da irgendwas brauchbares drinnen was wir noch nicht wussten?
Er hat die Karte nicht selber zuhause sondern durfte vor Ort bissl rumdaddeln.
Ex3cut3r
2025-01-07, 21:42:17
Naja das stimmt so nicht. Er weißt schon auf FG settings und blur hin, zerreißt das gezeigte aber auch nicht. Linus ist halt so ein hyperaktiver Tech-Nerd. Mag halt nicht jeder. Das er sich für die 5090 specs begeistern kann ist schon klar. Hinweise auf sein Income gab es überhaupt nicht...
Na das kommt dann halt zum Rls. wenn er mal wieder für sich und seine Crew keine "Umsonst Samples" bekommt und Nvidia deswegen böse und eine scheiß Firma ist. Typischer Selbstdarsteller. Der eigentlich nur oberflächliches Tech Wissen hat. Und nur Basics vermittelt, was du dir innerhalb von 5 Min. auf CB und Co. selbst beibringen könntest. Taugt einfach nicht. Aber kann jeder anders sehen.
Lawmachine79
2025-01-07, 21:47:01
Die Kühlung der 5090 sieht krass aus. Da ist mehr Entwicklungsaufwand reingeflossen als in RDNA 4 und wahrscheinlich ist allein der Kühler mehr wert als eine 9070 XT.
Fakten-Check und Direktvergleich mit RTX 4000:
uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
crux2005
2025-01-07, 21:51:37
Die 50er Karten sind alle eigentlich viel zu billig. Sony verlangt 800€ für eine 300 TOPS* Konsole. Wobei das nur ein theoretisches Limit ist. Real werden es weniger sein. :crazy:
Lawmachine79
2025-01-07, 21:52:57
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
Raff, gibt es eine Prognose hinsichtlich VR Performance? Da dürfte ja Rasterizerperfomance maßgeblich sein (ich rede nicht von Raytracing VR-Spielen, geht vor allem um DCS). Und sind Cuda-Cores gleich Cuda-Cores oder ist da mit erhöhter IPC-Leistung zu rechnen?
AtTheDriveIn
2025-01-07, 22:00:21
Na das kommt dann halt zum Rls. wenn er mal wieder für sich und seine Crew keine "Umsonst Samples" bekommt und Nvidia deswegen böse und eine scheiß Firma ist. Typischer Selbstdarsteller. Der eigentlich nur oberflächliches Tech Wissen hat. Und nur Basics vermittelt, was du dir innerhalb von 5 Min. auf CB und Co. selbst beibringen könntest. Taugt einfach nicht. Aber kann jeder anders sehen.
Gibt ja auch genug Gründe kein Nvidia Fan zu sein. ;-) Und nein, in 5min kannst du dir seine Erfahrung und Insights in die Szene nicht anlesen. Natürlich ist er kein Engineprogrammierer oder Hardware-Entwickler. Nuff Off-topic
Ich warte auf echte Reviews. Die Grünen Balken mit MFG sind ja fast bewusste Irreführung. 200fps die sich anfühlen wie 50fps... Kann mich nicht begeistern. 5090 als Halo Produkt allerdings schon an krasses Stück Hardware. Gebe meine Kohlen allerdings inzwischen lieber für andere Dinge aus.
Undertaker
2025-01-07, 22:11:04
Na ja, der Grundgedanke ist doch folgender: Wenn deine Karte nur 50 FPS schafft, dann ist das so. Lässt sich nichts dran rütteln ohne die Settings zu reduzieren.
Jetzt aktivierst du Frame Generation + Reflex. Hast dadurch im Idealfall etwas bessere oder wenigstens gleich bleibende Latenzen, aber dafür deutlich mehr Frames für eine flüssigere Bildwiedergabe, weniger Ruckeln und weniger Unschärfe in Bewegung, weil du jetzt eben 150 oder 200 FPS anstatt 50 hast.
Nun, Reflex kann ich auch ohne FG/MFG nutzen, d.h. die Latenzen werden ganz ohne FG immer etwas besser sein. Klar sieht das Bild mit FG/MFG dann flüssiger aus, aber trotzdem verbessert sich in meinen Augen die Spielbarkeit nicht. Insbesondere bei einem Display mit VRR, wo auch 50-60 fps ohne Tearing sauber dargestellt werden können. Ich persönlich freueich darum viel mehr auf das potentiell bessere Upscaling mit DLSS 4 als auf noch mehr Zwischenbilder, aber das mag Geschmackssache sein ;)
Troyan
2025-01-07, 22:12:27
Im ReseteraForum hat jemand mal probiert die Leistungsunterschiede aus den Graphen zu ermitteln: https://www.resetera.com/threads/nvidia-announces-the-rtx-50-series-availability-starts-in-january-5090-1999-5080-999-99-5070-ti-749-5070-549.1075542/page-23#post-133968201
Farcry 6 sind ~31% und in A Plague Tale ~41%.
basix
2025-01-07, 22:13:05
Wenn ich die HW Daten der 5090 anschaue: Evtl. hat GB202 nur 64MByte L2$?
Tesseract
2025-01-07, 22:22:05
die 5090 ist halt die neue 2080Ti: gleiche/ähnliche fertigung aber viel dicker als der vorgänger, folglich auf günstigeren betriebspunkt angewiesen.
fizzo
2025-01-07, 22:37:56
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
Danke für die unaufgeregte Gegenüberstellung. Damit mach auch die Bepreisung Sinn. Bis auf die 5090 eine lauwarme Angelegenheit und die 5070 jetzt schon nicht empfehlenswert.
mocad_tom
2025-01-07, 22:41:19
Hab was gefunden
https://x.com/unusual_whales/status/1876484153774158308/photo/1
LPDDR5X
Up to 68.26GB/s+ per package
https://acemagic.com/blogs/accessories-peripherals/ddr5-vs-lpddr5x-ram
ich habe jetzt nochmal intensiver durchgegraben, aber es wird wahrscheinlich 128bit sein.
Es gibt wirklich keinen, der da gerade etwas mehr weiß.
256bit könnte es auch noch mit einer geringen wahrscheinlichket sein.
mit 128bit hätte er die gleiche speicherbandbreite wit MTL-H
mit 256bit hätte er die gleiche bandbreite wie strix halo
davidzo
2025-01-07, 22:41:44
Die 50er Karten sind alle eigentlich viel zu billig. Sony verlangt 800€ für eine 300 TOPS* Konsole. Wobei das nur ein theoretisches Limit ist. Real werden es weniger sein. :crazy:
Nvidia rechnet aber auch mit Sparsityzahlen oder?
Es ist aber auch auffällig dass die Nvidia Chips theoretische Compute Durchsätze haben die man mit der gegebenen Bandbreite selten auslasten kann. Die Verhältnisse sind bei nv jedenfalls ganz anders als bei Google TPUv6, Gaudi3, tenstorrent etc.
Und nicht alle davon sind performancetechnisch abgeschlagen. Google TPUv6 soll ja angeblich bei perf/watt und perf/$ führend sein, nur sind die halt für niemand anderes verfügbar.
Wenn ich die HW Daten der 5090 anschaue: Evtl. hat GB202 nur 64MByte L2$?
Klingt plausibel denn sonst wäre das Verhältnis aus compute zu Bandbreite deutlich niedriger als bei lovelace. Und es erklärt auch die scheinbar mäßige Eenergieeffizienz und den überraschend geringen Transistorzuwachs. Bisher richtete sich die Cachegröße ja nach der Ziehl-Auflösung für Rasterizing, nicht nach AI workloads. Für AI ist der sweetspot zwischen Cachebandbreite und Cache-Kapazität möglicherweise ein anderer. H100 hatte auch weniger Cache als AD102, aber dafür einen viel breiteren Bus mit mehr Granularität.
Das würde auch den mäßigen Gaming-Performancezuwachs erklären.
wolik
2025-01-07, 22:46:50
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
27:20. Ich dachte DLSS 4 wird auch auf 4090 laufen. Nur ohne MFG.
https://www.nvidia.com/de-de/geforce/technologies/dlss/
basix
2025-01-07, 22:52:22
die 5090 ist halt die neue 2080Ti: gleiche/ähnliche fertigung aber viel dicker als der vorgänger, folglich auf günstigeren betriebspunkt angewiesen.
Die 32 GByte werden wohl etwas länger reichen als die 11 GByte der 2080 Ti ;)
Die 2080 Ti ist aber von den Features her aufgrund Turing Architektur und den doch immerhin 11GB die wohl langlebigste GPU aller Zeiten. Die ist nun >6 Jahre alt und immer noch brauchbar. Mit Tensor Cores für ML/AI, RT-Acceleration, DX12 Ultimate (Mesh Shader, Direct Storage, Sampler Feedback Streaming, WMMA) und DLSS4 (neues Super Resolution, Ray Reconstruction, Reflex 2) ist man Feature mässig aber immer noch up-to-date. Klar gibt es nun noch FG/MFG und das kann nützlich sein, doch verbessertes DLSS nützt uns mehr (man kann z.B. mit DLSS-P anstatt DLSS-Q spielen). Dazu gibt es mit moderneren Chips mehr Compute- und Tensor-Performance, doch fürs Gaming ist das nicht so extrem relevant.
Die 4090 könnte hier ziemlich ähnlich altern. Die 5090 natürlich noch etwas besser und hätte vermutlich einen besseren Stand bei der Speichermenge. SM, Tensor und RT wurden auf den neuesten Stand geupdated und ich sehe hier in nächster Zukunft keine Quantensprünge bei der HW. Und wenn man den ML/AI Software Push von Nvidia sieht, dürfte man mit den Lovelace & Blackwell Tensor-Cores gut gerüstet sein. Turing zeigt das ja auch, da es immer noch läuft.
Tesseract
2025-01-07, 22:55:44
das war eigentlich nur auf TDP, node und taktraten bezogen. die 2080Ti war ja auch bei viel logic moderat getaktet um halbwegs im powerbudget zu bleiben.
Emil_i_Lönneberga
2025-01-07, 23:06:15
90864
90865
90866
90867
Linmoum
2025-01-07, 23:07:44
Die 5090 zieht mit so einer FE niemals >500W real. Außer, Nvidia scheißt komplett auf die Lautstärke.
Sumpfmolch
2025-01-07, 23:08:20
27:20. Ich dachte DLSS 4 wird auch auf 4090 laufen. Nur ohne MFG.
https://www.nvidia.com/de-de/geforce/technologies/dlss/
Müsste so korrekt sein. DLSS 4 mit verbesserter Qualität kommt auch für die älteren Karten. Exklusiv bleibt das MFG, d.h. Frame Generation auf der 5000er Serie wird ~70% mehr Frames bringen als auf den 4000ern.
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
Joa. Also wenn es eine 5000er sein soll und man nicht unbegrenzt Budget hat, dann kauft man sich die günstigste der vorgestellten Karten, die wenigstens 16GB hat.
Oder man hofft auf ein RX4000 Schnäppchen. Allerdings woher, es gibt schlichtweg keinerlei Gründe eine 4000er durch eine 5000er in der gleichen Preisklasse auszutauschen.
Thomas Gräf
2025-01-07, 23:29:02
Fakten-Check und Direktvergleich mit RTX 4000:
https://youtu.be/uk2hy1hfuQQ
@Leo: Du kommst auch vor. =)
MfG
Raff
Jepp danke Raff, sehr nettes Video. :smile:
monstar-x
2025-01-08, 00:06:27
Gerade im PCGH Forum einen interessantes Ansatz gelesen, das für AMD und Intel nichts besseres als MFG passieren konnte. Da Nvidia jetzt Fake Frames eingeführt hat und nicht der Unterlegene Mitbewerber.
Da die nun diese sehr wahrscheinlich ebenfalls eine Art MFG entwickeln werden, sobald AMD und Intel ihre eigenen Technologien für 4x Frame-Generation einführen, das ist nur eine Frage der Zeit, da es primär softwarebasiert und die haben ebenfalls extrem talentierte Entwickler.
Wenn in Cyberpunk der Framecounter bei AMD 180 FPS und bei Nvidia 240 FPS zeigt. Ab >120 FPS merkt sowieso niemand mehr einen Unterschied, weil es absolut flüssig ist.
Die Unterschiede sind dann nur noch theoretische Werte auf dem Papier.
Die FPS-Zahlen werden mit diesen Technologien sowieso immer absurder. Aus echten 30 FPS werden plötzlich >100, aus echten 40 schon >130. Gerade für AMD und Intel könnte diese Entwicklung richtig gut sein.
Was meint ihr?
nordic_pegasus
2025-01-08, 00:07:05
da in der Explosionszeichnung aus der Keynote nur ein kleines PCB in der Mitte erkennbar war (links und rechts dürfte eigentlich kein PCB sein wegen den Lüftern), frage ich mich, wie die Video-Ausgänge und der PCIe Slot angebunden werden.
Bei der Pressemitteilung von Alphacool fällt auf, dass für viele Custom-Designs bereits Wakü-Blöcke angekündigt wurden aber nicht für die FE-Karten.
-> Sind die FE-Karten mehrteilig und vielleicht etwas komplexer für den Umbau auf einen Wakü-Block? Ich hoffe auf Zotac und inno3D, dass hier wieder gute Layouts bezogen auf Spulenfiepen kommen. Beide Designs waren sehr nahe am Referenz-Design der 40er Karten, welcher ansonsten wohl kein AiB verwendet hatte.
crux2005
2025-01-08, 00:39:41
da in der Explosionszeichnung aus der Keynote nur ein kleines PCB in der Mitte erkennbar war (links und rechts dürfte eigentlich kein PCB sein wegen den Lüftern), frage ich mich, wie die Video-Ausgänge und der PCIe Slot angebunden werden.
KI...
... im silbernen Rahmen mit Kabel verbunden und so
Sardaukar.nsn
2025-01-08, 01:34:34
Die 5090 zieht mit so einer FE niemals >500W real. Außer, Nvidia scheißt komplett auf die Lautstärke.
So wird's kommen. Nicht ohne Grund verbaut Asus mit der Astral 4 und MSI auf dem Lightning Klopper sogar 5! Lüfter.
Hält man sich an normal gängige FPS bzw Vsync Bereiche, können die Blackwell Karten wohl aber auch ultra effizient laufen.
Bei meinem 4k/120 Bildschirm lief auch die 4090 teilweise ins 120fps Limit. Mit DLSS 4 und Multi-FG wird das wohl eher die Regel sein. Der Sprung für die Effizienz ist dann enorm und die Karten werden dann sehr wenig verbrauchen. So könnte auch eine 5090FE im SFF funktionieren. Bleibt also spannend.
crux2005
2025-01-08, 05:36:27
Ein Pixelzähler auf Reddit hat die Pixel der Balken gezählt https://www.reddit.com/r/nvidia/comments/1hvvrqj/50_vs_40_series_nvidia_benchmark_exact_numbers/
und wenn ich nur FC6 + Requiem nehme sind es:
5090 vs. 4090: +27,5% und +43,2%
5080 vs. 4080: +33,2% und +35,1%
5070 Ti vs. 4070 Ti: +33,2% und +41,3%
5070 vs. 4070: +31,3% und +40,7%
Raster wird wohl etwas langsamer sein, aber wenn es alleine in RT+ DLSS grob +35% durch die Bank sind, kann von "unterwältigend" nicht die Rede sein.
Relex
2025-01-08, 06:16:26
Gerade im PCGH Forum einen interessantes Ansatz gelesen, das für AMD und Intel nichts besseres als MFG passieren konnte. Da Nvidia jetzt Fake Frames eingeführt hat und nicht der Unterlegene Mitbewerber.
Da die nun diese sehr wahrscheinlich ebenfalls eine Art MFG entwickeln werden, sobald AMD und Intel ihre eigenen Technologien für 4x Frame-Generation einführen, das ist nur eine Frage der Zeit, da es primär softwarebasiert und die haben ebenfalls extrem talentierte Entwickler.
Wenn in Cyberpunk der Framecounter bei AMD 180 FPS und bei Nvidia 240 FPS zeigt. Ab >120 FPS merkt sowieso niemand mehr einen Unterschied, weil es absolut flüssig ist.
Die Unterschiede sind dann nur noch theoretische Werte auf dem Papier.
Die FPS-Zahlen werden mit diesen Technologien sowieso immer absurder. Aus echten 30 FPS werden plötzlich >100, aus echten 40 schon >130. Gerade für AMD und Intel könnte diese Entwicklung richtig gut sein.
Was meint ihr?
Das ändert doch überhaupt nichts. Die Grundframerate muss ja trotzdem hoch genug sein und ich bezweifle, dass mit dem aktuellen FSR Algorithmus sinnvoll eine 3x oder 4x FG möglich ist. AMD müsste dafür wohl auch den Algo überarbeiten und effizienter machen oder entsprechend mit Hardware beschleunigen, sonst wirds denke ich schwierig. Bei LSFG ist z.B. der Performance Overhead für 4x FG extrem hoch, wodurch es praktisch sinnlos wird, so einfach ist das also auch nicht. Ich rechne trotzdem damit, dass es bei Intel und AMD ebenfalls kommt. Muss ja.
Aber MFG ist ja nicht das was Nvidia so weit in Führung bringt. Es sind die KI und Pathtracing performance sowie die Bildqualität mit DLSS bzw. Ray Reconstruction. Damit werden AMD und Intel auf absehbare Zeit nicht konkurrieren können. Nvidia wird zunehmend mit deutlich besserer Grafik bei hohen FPS werben während die Konkurrenz schlimmstenfalls weniger FPS bei deutlich schlechterer Grafik liefern kann (also ohne Pathtracing, Neural Rendering etc) Nvidia zieht spätestens dann Kreise um die gesamte Konkurrenz, weil Nvidia dann für alle deutlich sichtbar einfach Jahre Voraus ist.
Das zeichnet sich zwar jetzt schon mit Pathtraced Spielen ab, aber Pathtracing ist ja auf AMD und Intel Hardware zumindest lauffähig, wenn auch mit unspielbarer performance.
Wenn Nvidia jetzt aber mit neural Rendering gedöns um die Ecke kommt (womit man praktisch nochmals deutlich aufwändigeres Pathtracing via KI simuliert) dann läuft das ja nichtmal mehr theoretisch auf den konkurrenz Karten. Spätestens damit wird sich NV komplett vom Rest des Marktes absetzen.
dildo4u
2025-01-08, 06:29:07
Asus nutzt Thermal Pads statt Paste für ihre neuen Karten
https://press.asus.com/news/press-releases/asus-nvidia-geforce-rtx-50-series-graphics-cards
Kriegsgeier
2025-01-08, 06:29:47
90864
90865
90866
90867
Krass, jemand hat schon die Karte zum Testen?
DigitalFoundrys?
Die haben ja die 5080Fe in Cyberpunk 2077 DLSS4 gestern schon getestet!
Eine Überlegung zu den ASUS Karten mit 3 + 1 Lüfter: Warum macht man die 2 von den 3 Lüftern unten nicht 100% horizontal sondern etwas geneigt/ausgerichtet zu dem 3. Lüfter bzw. zu der Luftröhre, die nun am Ende der GraKa aus 2 Lüftern besteht?
Somit könnten die 2 hintere Lüfter (oben und unten) etwas schneller drehen und den 2 unteren Lüfter an der Blende die Luft quasi wegsaugen.
Wäre interessant zu sehen ob es funktionieren könnte.
PS: sonst kann ich mir diese 2 Lüfter hinten nur als sinnvoll betrachten wenn die Kühler-Lamellen in diesem Bereich WESENTLICH dichter ausgeführt sind --> da jetzt an der Stelle Push-Pull stattfindet.
Erst jetzt bei ASUS gelesen:
The inclusion of a fourth fan allows for more densely-packed heatsink fins, increasing overall cooling potential. In addition, the ROG Astral GeForce RTX 5090 and 5080 see the return of the ASUS-patented vapor-chamber design with milled pathways, allowing heat pipes to sink into the surface without flat edges for improved heat dissipation.
Sardaukar.nsn
2025-01-08, 06:36:44
Far7GJch2KA
https://i.kym-cdn.com/photos/images/newsfeed/000/353/279/e31.jpg
https://www.kleinanzeigen.de/s-anzeige/rtx-4090-24-gb/2969725866-225-6315
https://www.kleinanzeigen.de/s-anzeige/suche-rtx-4090-oder-rtx-4080/2969648643-225-1905
https://www.kleinanzeigen.de/s-anzeige/suche-nvidia-rtx-4090/2969724837-225-1162
Kriegsgeier
2025-01-08, 06:40:07
LOL, das ging ja schnell!
PS: ich vermute mal, es gibt in der freien Wildbahn höchstens 30.000 RTX 4090 Karten, vielleicht maximal 50.000 Stück.
In DE wahrscheinlich unter 10.000 Stück - viele denken, dass jeder Gamer in seinem PC eine 4090 hat ;) Never!
Palpatin
2025-01-08, 07:13:47
LOL, das ging ja schnell!
PS: ich vermute mal, es gibt in der freien Wildbahn höchstens 30.000 RTX 4090 Karten, vielleicht maximal 50.000 Stück.
In DE wahrscheinlich unter 10.000 Stück - viele denken, dass jeder Gamer in seinem PC eine 4090 hat ;) Never!
Wie kommst du auf so niedrige Zahlen?
Steam hat über eine Mrd. Nutzer und laut steam hardware survey haben 1,16% davon also über 10 Millionen eine 4090. Glaub zwar das die Zahlen nicht sonderlich genau sind aber Millionenfach wird sich sowas wie die 4090 schon verkauft haben.
PrinceGSC
2025-01-08, 07:14:25
Lustig sind die Panik Verläufe der 4090 wegen der 5070.
Die Leute verstehen nicht dass die 4090 nur mit Dlss + Multi Frame Generation erreicht wird. Die native Leistung ist ja immer noch höher als die der 5080,scheinbar.
Das wissen wir ja erst nach unabhängigen Tests aber schon interessant wie manche panisch verkaufen und andere meinen ne 4090 günstig schließen zu können.
Ich werd meine 4090 nicht verkaufen und warte auf die nächste Generation.
Nüchtern betrachtet sind die Balken von NVIDIA Folien dann wiederum nicht so der Brüller.
Kriegsgeier
2025-01-08, 07:17:44
Millionen von der Karte, die über 1500$ kostet?
Finde diese Zahlen in den Q-Zahlen von Nvidia mal. Nichts da. Passt nicht, denn die kleineren Karten spielen da auch rein + Laptops usw.
Denke nicht, dass NVIDIA über 1.000.000 Stück von den 4090 verkauft hat.
wolik
2025-01-08, 07:38:21
LOL, das ging ja schnell!
Was ging da schnell?
Dass ein paar Leute denken, dass man den 4090 für 650 Euro bekommen kann?
Ja, es wird funktionieren. Die kriegen 4090. Mit ausgelötetem Speicher und Chip.
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/Grafikkarte-ohne-Grafikchip-im-Umlauf-1437815/
Palpatin
2025-01-08, 07:42:23
Millionen von der Karte, die über 1500$ kostet?
Finde diese Zahlen in den Q-Zahlen von Nvidia mal. Nichts da. Passt nicht, denn die kleineren Karten spielen da auch rein + Laptops usw.
Denke nicht, dass NVIDIA über 1.000.000 Stück von den 4090 verkauft hat.
1 Mio Stück wäre für NV ganz grob 1,5Mrd Umsatz mit der Karte. Insgesamt haben sie seit Release mit Gaming über 15 Mrd Umgesetzt.
Halte ich für wesentlich realistischer als 30k Karten was in Summe 45 Mio Umsatz für NV bedeuten würde sprich pro Quartal 5 Mio Umsatz....
mironicus
2025-01-08, 07:45:12
Am meisten fasziniert mich das neue Referenz Kühlerdesign von NVidia. Zwei Slot-Kühlung vs Vier Slot-Kühlung bei den 3rd Party-Anbietern.
wolik
2025-01-08, 07:46:48
Ein Pixelzähler auf Reddit hat die Pixel der Balken gezählt https://www.reddit.com/r/nvidia/comments/1hvvrqj/50_vs_40_series_nvidia_benchmark_exact_numbers/
und wenn ich nur FC6 + Requiem nehme sind es:
5090 vs. 4090: +27,5% und +43,2%
5080 vs. 4080: +33,2% und +35,1%
5070 Ti vs. 4070 Ti: +33,2% und +41,3%
5070 vs. 4070: +31,3% und +40,7%
Raster wird wohl etwas langsamer sein, aber wenn es alleine in RT+ DLSS grob +35% durch die Bank sind, kann von "unterwältigend" nicht die Rede sein.
35% ist "unterwältigend". Mindestens für 4090 Besitzer. Wer von 2080Ti wechselt der wird glücklich sein. Aber auch mit 4090 :)
Am meisten fasziniert mich das neue Referenz Kühlerdesign von NVidia. Zwei Slot-Kühlung vs Vier Slot-Kühlung bei den 3rd Party-Anbietern.
Ja. Wenn man in Kopfhörer spielt.
Kriegsgeier
2025-01-08, 07:53:11
Am meisten fasziniert mich das neue Referenz Kühlerdesign von NVidia. Zwei Slot-Kühlung vs Vier Slot-Kühlung bei den 3rd Party-Anbietern.
nun ja, die 2 Lüfter sind aber auch die größten im Durchmesser!
Die FE Karten sind fast 2 cm tiefer diesmal!
Deswegen werden die Karten noch mal wesentlich flacher wirken als normale 2 Slot Karten!
dargo
2025-01-08, 08:03:14
Die Kühlung der 5090 sieht krass aus. Da ist mehr Entwicklungsaufwand reingeflossen als in RDNA 4 und wahrscheinlich ist allein der Kühler mehr wert als eine 9070 XT.
Ganz bestimmt. :comfort:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.