Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
The_Invisible
2025-01-09, 09:37:26
Das spricht aber für eine gute Verfügbarkeit. Allein Gigabyte hat 20! verschiedene Blackwell Karte auf der CES vorgestellt.
Das Design ist ja ähnlich wie Lovelace, sollte also inzwischen sehr ausgereift sein. Auch vom Rest wie den Steckern ect erwarte ich keine Kinderkrankheiten mehr wie noch bei Lovelace.
Hoffe auch das man mit Karten quasi erschlagen wird und sich die Scalper ihre Karten sonst wo hinschieben können :)
edit: Brauch doch mal ein neues Netzteil, mein 13 Jahre altes 800W hat zwar keine Probleme mit der 4090 aber lange traue ich dem Braten nicht mehr
Neurosphere
2025-01-09, 09:43:30
und plus dazu, sind die Lüfter der FE im Durchmesser gewachsen und das nicht wenig!
Verstehe überhaupt nicht wieso das nicht thematisiert wird! Viele wundern sich über den 2-Slot-Design aber sprechen die Tiefe der Karte und somit die Lüfterdurchmesser nicht an!
Weil sie auch nicht größer geworden ist! Die 3090/ti FE hatten eine Tiefe von 138mm, die 5090 hat nun 137mm, ebenso wie die 4090 FE.
Guckst du auch mal ob die Sachen die du so raus haust stimmen?
Thunder99
2025-01-09, 09:48:43
Hab kaum Zeit alles anzuschauen aber dennoch eine Frage hier :D.
Am Beispiel vom 5080 vs. 4080, es kommen nur +10% Default dabei rum? Ergo etwa das was man sieht am + an HW Einheiten? Ergo schwach und dann nochmal mehr zahlen? Nur wegen DLSS 4 MFG?
Trifft auf alle Modelle die kaum mehr oder sogar weniger HW Einheiten haben als der direkte Vorgänger (Name, nicht Chip).
Einig die 5090 ist alleine da oben mit brachialer Default Leistung ohne DLSS mit dafür wieder einmal mehr Strombedarf...
Dimon
2025-01-09, 09:54:05
Naja eher nebensächlich. Wer sich eine 5090 gönnt, wird vermutlich keinen runzligen Tower-Kühler von 2010 mehr im Rechner haben
Mal OT:
Bei mir ist die graka nach oben zu den lüftern gedreht, dummerweise müssen aber die Lüfter die luft aus dem gehäuse befördern.
Was meint ihr zu der kühlperformance? Soll ich die mainboardschiene wieder zurückdrehen in die klassische position?
Grüsse
Kriegsgeier
2025-01-09, 09:56:34
Die Lüfterdurchmesser der neuen 5090 und 5080 FEs sind aber dennoch im Durchmesser gewachsen.
why_me
2025-01-09, 10:02:45
Wenn er keinen Tower Kühler hat, hat er eine AIO. In 99 Prozent aller Fälle ist die "top" monitiert. Da ziehen die 120iger dann die knapp "600 Watt wärme Luft" durch den Radi. Gibt es schönes Delta Luft / Radi und das optimiert die Kühlung ungemein!
Die VRMs der CPU nicht vergessen. Gerade bei einer AIO bekommen die ja nicht so viel Luft ab. Ob da die "600W warme Luft" so gut für ist?
Daredevil
2025-01-09, 10:13:25
Was ist denn die nächste steile These? Das die Bausubstanz gefährdet ist, wenn warme Luft aus dem Gehäuse bläst?
Vor 5 Jahren zur Mining Zeit hat meine Mining Kiste 24/7 für ca. 1 Jahr dauerhaft ca. 1000w über ein Mainboard gepustet, das läuft heute immer noch und das Netzteil auch. Da war nicht nur eine Baby 5090 verbaut, sondern 6 Radeon VII, die teilweise über 90 Grad heiß wurden im Sommer.
600w Warme Luft ( was soll das sein? ) wird es imho eh nicht geben, weil Dual Slot das nicht kühlen kann und somit Limits greifen. Dann holt man sich 3-Slot von Asus und verwirbelt die 600w warme Luft lieber im Gehäuse, damit die CPU keinen Sonnenbrand bekommt. :D
MiamiNice
2025-01-09, 10:24:20
600w Warme Luft extra in "", weil ich schlecht schätzen kann, wie warm genau ;) Als auf meiner 3090 noch kein Block war, dachte ich die Glasscheibe an meinen Gehäuse schmilzt mir weg (Asus Strix OC Kühler pustet alles gegen die Glaswand). Die konnte man kaum noch anfassen. Natürlich beeinflusst das die CPU Kühlung und die Lebensdauer der anderen Komponenten auf dem Board und sonstigen Komponenten innerhalb des PCs. Sicherlich nciht um Jahre, aber gut kann das kaum sein.
rentex
2025-01-09, 10:27:08
Die Lüfterdurchmesser der neuen 5090 und 5080 FEs sind aber dennoch im Durchmesser gewachsen.
Wie groß ist denn der Durchmesser?
Kriegsgeier
2025-01-09, 10:31:11
größer als bei 4090 Fe
Neurosphere
2025-01-09, 10:34:07
Ich bringe hier mal das Video von Steve dazu ein und was ich drüben im Ada Thread geschrieben habe:
lyliMCnrANI
Ja, die 575 Watt können in der aktuellen Lösung nicht effektiv weggekühlt werden wenn man für potentielle 600 Watt ein solches Design wie bei dem Prototypen vorgesehen hat.
Ich vermute mal NV hat irgendwas an der thermischen Regelung gemacht und lässt das Powerlimit quasi einfach offen weil alles an der Kühlung hängt. Das erklärt auch warum die Customs bei einem 12VHPWR Anschluss bleiben und die Kühllösungen im Vergleich so massig ausfallen.
Lüfter alleine helfen ja nicht ich brauche ja auch Fläche um die Wärme an die Luft abzugeben, oder aber halt viel Luft=Laute Lüfter.
Relex
2025-01-09, 10:37:06
600w Warme Luft extra in "", weil ich schlecht schätzen kann, wie warm genau ;) Als auf meiner 3090 noch kein Block war, dachte ich die Glasscheibe an meinen Gehäuse schmilzt mir weg (Asus Strix OC Kühler pustet alles gegen die Glaswand). Die konnte man kaum noch anfassen. Natürlich beeinflusst das die CPU Kühlung und die Lebensdauer der anderen Komponenten auf dem Board und sonstigen Komponenten innerhalb des PCs. Sicherlich nciht um Jahre, aber gut kann das kaum sein.
Ach was, solange man irgendwas länger als 0,5 sec anfassen kann ohne sich die Pfoten zu verbrennen ist die Temp im grünen Bereich. ;D
Troyan
2025-01-09, 10:44:39
Meine Gigabyte pumpt seine 600W auch direkt ins Gehäuse. Ich gehe mal davon aus, dass die meisten eher eine AIO für die CPU haben. Da spielt das doch keine wirkliche Rolle.
Kriegsgeier
2025-01-09, 10:45:28
nene, ihr lässt die NEUE Stromversorgung der RTX 5090 FE außer Acht!
Habt ihr diese kleinen Dinger um den Chip und RAM-Bausteine gesehen?
Und was Steve da auseinander baut hat noch konventionelle Bauteile für die Phasen!
Exxtreme
2025-01-09, 10:47:07
Meine Gigabyte pumpt seine 600W auch direkt ins Gehäuse. Ich gehe mal davon aus, dass die meisten eher eine AIO für die CPU haben. Da spielt das doch keine wirkliche Rolle.
Ich habe kein AIO da das die Nachteile einer custom loop mit den Nachteilen eines Luftkühlers vereint. X-D
Mhhh, eventuell wird eine custom loop für die Grafikkarte doch eine gute Idee werden. Da gibt es dann auch keine kalten Füße im Winter. X-D
woodsdog
2025-01-09, 10:48:25
Meine Gigabyte pumpt seine 600W auch direkt ins Gehäuse. Ich gehe mal davon aus, dass die meisten eher eine AIO für die CPU haben. Da spielt das doch keine wirkliche Rolle.
Ja, wenn man 250W Intel-Gammel aus den letzten Paar Jahren hat...
Gerade die bei Gamern mit X3Ds kommen selbige super leise mit nem 08/15 Tower Kühler aus.
Neurosphere
2025-01-09, 10:50:00
nene, ihr lässt die NEUE Stromversorgung der RTX 5090 FE außer Acht!
Habt ihr diese kleinen Dinger um den Chip und RAM-Bausteine gesehen?
Und was Steve da auseinander baut hat noch konventionelle Bauteile für die Phasen!
575 Watt sind 575 Watt die letzten Endes als Wärme abgeführt werden müssen. Die verwendeten Bauteile ändern daran wenig.
Kriegsgeier
2025-01-09, 10:50:08
Plus: diese 75 Watt über PCI-Express: die FE wird sich wohl hier nichts genehmigen können da über einen Flachbandkabel angeschloßen.
why_me
2025-01-09, 10:50:54
nene, ihr lässt die NEUE Stromversorgung der RTX 5090 FE außer Acht!
Habt ihr diese kleinen Dinger um den Chip und RAM-Bausteine gesehen?
Und was Steve da auseinander baut hat noch konventionelle Bauteile für die Phasen!
Was soll da anders sein? Sind halt höhere Schaltfrequenzen bei den VRMs und dadurch kleinere Induktivitäten. Ist jetzt nichts wirklich neues.
Das was neu ist, sind die separaten PCBs und dadurch der bessere Luftstrom bei beiden Lüftern DURCH die Karte. Und nicht wie sonst üblich ein Luftstrom der vom PCB blockiert wird.
Kriegsgeier
2025-01-09, 10:53:47
575 Watt sind 575 Watt die letzten Endes als Wärme abgeführt werden müssen. Die verwendeten Bauteile ändern daran wenig.
Also die 575 Watt sind doch die gesamte Thermal Design Power - richtig?
Und wenn all die Phasen wesentlich effizienter den Strom an den Chip weiterleiten können so muss der Kühler keine 575 Watt abführen!
Es kann wirklich sein, dass der Kühler der RTX 5090 Fe überhaupt nicht für 575 Watt im Dauerbetrieb ausgelegt worden ist.
Der Chip selbst wird nie im leben ganze 575 Watt "produzieren"/umsetzen
Kriegsgeier
2025-01-09, 10:56:53
Was soll da anders sein? Sind halt höhere Schaltfrequenzen bei den VRMs und dadurch kleinere Induktivitäten. Ist jetzt nichts wirklich neues.
Das was neu ist, sind die separaten PCBs und dadurch der bessere Luftstrom bei beiden Lüftern DURCH die Karte. Und nicht wie sonst üblich ein Luftstrom der vom PCB blockiert wird.
Richtig, das mit der Größe der Chokes. Aber auch die Kondensatoren sind davon betroffen: oder siehst du sehr viele Kondensatoren um den Chip herum?
Was aber auffällig ist, dass die Rückseite viel mehr SMD-Kondensatoren aufweist!
Dural
2025-01-09, 10:58:06
Natürlich nicht, schon der Speicher wird einiges verbrauchen.
und wenn schon, einfach TDP runter schrauben und fertig.
Relex
2025-01-09, 11:07:22
TDP runter schrauben sorgt ab nem gewissen Punkt für nen welligen Frametimeverlauf durch schwankenden Takt. 80% sind noch gut, ab 70% kann man es erahnen und bei 60% sind die Frametimes deutlich schlechter.
Entweder man limitiert den maximalen takt dauerhaft um zu starke Schwankungen zu vermeiden oder man optimiert weiter durch undervolting, dann kann man auch die TDP weiter runter limitieren ohne dass der Takt zu stark schwankt.
Das fiese ist, dass einem nichtmal CapFrameX das zeigt, weil die periode für die Taktschwankungen zu lang ist, um in den Varianzen sichtbar zu sein. Auf die percentile wirkt es sich ebenfalls nicht aus. Man sieht nur, dass der Frameverlauf welliger wird incl ruckeliger Kameraschwenks ingame.
Kriegsgeier
2025-01-09, 11:09:47
Oder Nvidia will diesmal ihren Partnern ein Geschenk machen und die FE wird diesmal gute 5-10% langsamer?
Könnte ja sein. Da NVIDIA heutzutage sowieso mit den IA-Server mehr als ausgelastet ist?
Badesalz
2025-01-09, 11:14:23
Oder Nvidia will diesmal ihren Partnern ein Geschenk machen Ich finde das ausgesprochen erfreulich, daß es einfach NICHTS negatives zu berichten gibt. Bin ebenfalls sehr beeindruckt :uup:
ChaosTM
2025-01-09, 11:19:16
Indem man Äpfel mit Birnen vergleicht? Oder wo steigt die Latenz kaum mit non FG + Reflex On vs. MFG + Reflex On?
Da muss man natürlich genauere Reviews abwarten. Das hat Richard L. auch so erklärt. War nur eine kurze Vorschau.
mironicus
2025-01-09, 12:11:33
Es kann wirklich sein, dass der Kühler der RTX 5090 Fe überhaupt nicht für 575 Watt im Dauerbetrieb ausgelegt worden ist.
Stell dir vor, NVidia handhabt das wie Intel es bei CPUs macht. Kurze Spitzen bis 575 Watt sind erlaubt, dann aber riegelt die Karte im Schnitt auf 250 Watt herunter, mehr kann das 2 Slot-Design nicht dauerhaft kühl halten. Der 3D Mark läuft zumindest einmal mit voller Geschwindigkeit durch... :freak:
Relex
2025-01-09, 12:16:24
Bei CPUs ist das auch sinnvoll, weil Takt und Auslastung der Kerne extrem variabel ist, gerade in Spielen und nicht-synthetischen Workloads. Hohe und kurze Spitzen sind ja quasi das Anforderungsprofil dem eine CPU ständig ausgesetzt ist.
Bei ner GPU hast du aber in der Praxis ne viel gleichmäßigere Auslastung, alleine schon weil alle Workloads die auf ner GPU ausgeführt werden hochgradig parallelisierbar sind.
Würde also sagen, dass das schwer vergleichbar ist. Bei CPUs ist die Burst performance viel wichtiger als bei GPUs.
Weltraumeule
2025-01-09, 12:48:54
Kann mir Halbnoob mal einer bei der Einschätzung helfen, sie sich die 5070 Ti S gegen die 4080 S verhalten wird? Klar werde ich Benchmarks abwarten, aber aus Neugier können erfahrene User aus den Specs bestimmt schon etwas ableiten.
Ich visiere 110 fps bei 4k an.
Also mit DLSS 4 wäre die 5070 Ti S deutlich schneller, soweit ich das verstanden habe?
Aber was ist mir Rasterleistung ohne DLSS und FG bei Vergleich der Karten?
Ich spiele jede Menge Indietitel und alte Titel welche gar kein DLSS und FG anbieten.
Z.B. seit 10 Jahren regelmäßig Portal 2 Fanlevel. Und mit OGSSAA und zig Reshade Filtern, u.a. rtgi, schafft die 4080 S keine konstanten 110 fps bei 4k. Ich muss eine custom Auflösung zwischen 1440p und 4k dafür wählen.
Die PNY 4080 S war damals mit 1025 € recht "günstig", dafür dass sie einen sehr guten und leisen fast 4 Slot Kühler hat.
Eine etwaige 5070 Ti S sollte daher einen identischen Kühler haben, was den Preis in die Höhe treiben wird. Aber bestimmt noch unter 1000 € bleiben?
Aber wie gesagt, sie dürfte im Raster nicht langsamer als eine 4080 S werden. Irgendwelche Einschätzungen von euch hierzu?
Troyan
2025-01-09, 13:10:54
Kann man zum aktuellen Zeitpunkt nicht sagen. Farcry sind es 33% zur 4070 TI. Damit wäre die Karte schneller als eine 4080 Super -> https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-super-founders-edition/35.html
Das selbe scheint auch für A Plaque Tale zu gelten.
Kann mir Halbnoob mal einer bei der Einschätzung helfen, sie sich die 5070 Ti S gegen die 4080 S verhalten wird? Klar werde ich Benchmarks abwarten, aber aus Neugier können erfahrene User aus den Specs bestimmt schon etwas ableiten.
Ich visiere 110 fps bei 4k an.
Also mit DLSS 4 wäre die 5070 Ti S deutlich schneller, soweit ich das verstanden habe?
Aber was ist mir Rasterleistung ohne DLSS und FG bei Vergleich der Karten?
Ich spiele jede Menge Indietitel und alte Titel welche gar kein DLSS und FG anbieten.
Z.B. seit 10 Jahren regelmäßig Portal 2 Fanlevel. Und mit OGSSAA und zig Reshade Filtern, u.a. rtgi, schafft die 4080 S keine konstanten 110 fps bei 4k. Ich muss eine custom Auflösung zwischen 1440p und 4k dafür wählen.
Die PNY 4080 S war damals mit 1025 € recht "günstig", dafür dass sie einen sehr guten und leisen fast 4 Slot Kühler hat.
Eine etwaige 5070 Ti S sollte daher einen identischen Kühler haben, was den Preis in die Höhe treiben wird. Aber bestimmt noch unter 1000 € bleiben?
Aber wie gesagt, sie dürfte im Raster nicht langsamer als eine 4080 S werden. Irgendwelche Einschätzungen von euch hierzu?
Das dürfte dir weiterhelfen:
uk2hy1hfuQQ
5070 Ti und 4080 sind vermutlich ~gleich schnell. Das Einzige, was die RTX 5000 beschleunigt, ist MFG (Frame Gen mit 2 oder 3 Zwischenbildern). Und eine 5070 Ti Super gibt es noch nicht. :D
MfG
Raff
Relex
2025-01-09, 14:10:40
Das Problem bei RTX5000 zumindest abseits der 5090 ist auch, dass die Karten durch MFG nicht wirklich langlebiger werden.
Mit 2xFG kann man zumindest aus einer mäßigen Framerate oft eine flüssige machen.
Mit MFG wirds dann eben noch flüssiger, aber die Basis Framerate muss ja mindestens genauso hoch sein, sonst wirds trotz hoher FPS schlecht spielbar.
MFG trägt damit zumindest im Vergleich zu normaler FG praktisch gar nicht zur Langlebigkeit bei.
Ist eine RTX4000 Karte zu langsam, dann ist es eine RTX5000 Karte mit gleicher Rohleistung ebenfalls.
Natürlich momentan noch ungeachtet von möglichen Performancevorteilen bei Raytracing und KI.
Troyan
2025-01-09, 14:22:06
Naja, du kannst den Frame-Output ca. verdoppeln ohne das die Latenz relevant ansteigt.
Wo eine 4070 zu langsam ist, hat man mit der 5070 wohl >20% Puffer.
VooDoo7mx
2025-01-09, 15:27:58
ORXoOKND1Tk
Schon jemand das gepostet?
Ist aber schon krass, dass selbst in CP2077 mit Pathtracing nur 30% mehr echte Performance rauskommen. Bei der gigantischen GPU hätte ich mir gerade mit Raytracing ein viel größerers Plus versprochen.
Ab einer Sprung von 20 auf 26fps welche dann auf 100 fake fps aufgeblasen werden, macht doch das Spiel Erlebnis nicht besser.
26fps fühlen sich wie Grütze an, selbst wenn 200fps auf den Bildschirm erscheinen.
Kriegsgeier
2025-01-09, 15:30:32
Deswegen ist es auch mehr als angebracht erst mal die Tests abzuwarten.
Vor dem Kauf immer Tests!
130% Performance für 2400€ mit der 5090 sind doch besser als 100% Performance mit der 4090 für 2800€, oder?
Troyan
2025-01-09, 15:34:22
https://youtu.be/ORXoOKND1Tk
Schon jemand das gepostet?
Ist aber schon krass, dass selbst in CP2077 mit Pathtracing nur 30% mehr echte Performance rauskommen. Bei der gigantischen GPU hätte ich mir gerade mit Raytracing ein viel größerers Plus versprochen.
Ab einer Sprung von 20 auf 26fps welche dann auf 100 fake fps aufgeblasen werden, macht doch das Spiel Erlebnis nicht besser.
26fps fühlen sich wie Grütze an, selbst wenn 200fps auf den Bildschirm erscheinen.
Weil nativ nunmal vollkommen irrelevant ist. Upscaling wird verbessert, Ray Reconstruction wird verbessert, Reflex reduziert Latenz und MFG erzeugt dann die zusätzlichen 150 Bilder.
Sinnloses Video. Ist nichtmal als Ironie brauchbar.
dildo4u
2025-01-09, 15:39:41
https://youtu.be/ORXoOKND1Tk
Schon jemand das gepostet?
Ist aber schon krass, dass selbst in CP2077 mit Pathtracing nur 30% mehr echte Performance rauskommen. Bei der gigantischen GPU hätte ich mir gerade mit Raytracing ein viel größerers Plus versprochen.
Ab einer Sprung von 20 auf 26fps welche dann auf 100 fake fps aufgeblasen werden, macht doch das Spiel Erlebnis nicht besser.
26fps fühlen sich wie Grütze an, selbst wenn 200fps auf den Bildschirm erscheinen.
Angeblich soll das Upsampling verbessert worden sein daher zockst du eher mit 70fps durch DLSS Performance der Rest ist Framegen.
Kriegsgeier
2025-01-09, 15:44:23
Nun sind wir im Zeitalter von DLSS endgültig angekommen - wenn auch die "alten" Hasen DLSS ok finden ;)
DLSS lässt auch das Anti Aliasing 2x oder 4x vergessen... Ach waren das Zeiten ;)
Ist aber schon krass, dass selbst in CP2077 mit Pathtracing nur 30% mehr echte Performance rauskommen. Bei der gigantischen GPU hätte ich mir gerade mit Raytracing ein viel größerers Plus versprochen.
Das Ding ist ja nicht mal so gigantisch größer. Mich macht hauptsächlich das dicke SI an.
Hab gestern mal ein Paar Baseline-Benchmarks mit der 4090 gemacht um dann zu sehen was die 5090 mehr bringt. DCS in VR... hab für mein Standard-Setting mal noch foveated rendering ausgeschaltet und siehe da, 0 FPS, Gfx memory 98%, PC virtual memory 98%. Kiste quasi kurz vor tot. Im normalen setting hab ich auch über 20 GB im VRAM. Dachte das nimmt sie sich halt, braucht es aber nicht... pustekuchen, das ist der echte VRAM Bedarf. Also nicht vergessen, mit der 5090 gibts auch bissl mehr Speicher ;)
Kriegsgeier
2025-01-09, 16:10:55
und nächste Generation dann 16 x 3Gb
VooDoo7mx
2025-01-09, 16:11:47
130% Performance für 2400€ mit der 5090 sind doch besser als 100% Performance mit der 4090 für 2800€, oder?
Und was ist, wenn man schon eine 4090 hat?
Das die 4090 aktuell so teuer ist, liegt an leeren Lagern und schlechter Verfügbarkeit. Das hat nichts mit realen Preisen zu tun.
Ich hab für meine Gigabyte Gaming 4090 ~1680€ bezahlt.
Weil nativ nunmal vollkommen irrelevant ist. Upscaling wird verbessert, Ray Reconstruction wird verbessert, Reflex reduziert Latenz und MFG erzeugt dann die zusätzlichen 150 Bilder.
Sinnloses Video. Ist nichtmal als Ironie brauchbar.
Es ging überhaupt nicht darum ob nativ eine Relavanz hat oder nicht, oder was der ganze nVidia Marketingcrap bewirkt.
Die Grundaussage war, dass wenn man die ganzen Fake-Müll weglässt, nur 30% mehr Performance in UHD+Pathtracing rumkommen.
Dies sollte eigentlich die Pradadisziplin der Karte sein. Dieses Szenario an sich das komplexeste ist, um de ganzen zusätzlichen Recheneinheiten der Karte überhaupt auszulasten.
Wenn in diesen Stzenario nur 30% mehr rauskommen, wird es in anderen sogar noch weniger sein. Darum geht es mir.
Und davon abgesehen hat natürlich nativ noch eine Relavanz. Und selbst mit Reflex On, hat man noch eine deutlich höhere Latenz als ohne Framgen. Das ist doch jetzt alles seit über 2 Jahren bekannt. Wieso muss man das hier jetzt wieder diskutieren?
Angeblich soll das Upsampling verbessert worden sein daher zockst du eher mit 70fps durch DLSS Performance der Rest ist Framegen.
Ja die Bildqualität von DLSS 4 ist besser, da ein anderes ML Modell verwendet wird. Bessere Bildqualität ist aber nicht mehr fps. Das können aber dann auch alle Karten ab Turing nutzen.
Und von 26 fps ausgehend kommst du mit DLSS Performance nicht auf 70fps. Erzähl nicht so einen Stuss.
Matrix316
2025-01-09, 16:17:17
Irgendwann sind alle neuen Grafikkarten gleich schnell und der Unterschied zwischen 70, 80 und 90 im Namen ist die KI welche DLSS und MFG und sowas macht. ;)
Das wäre für Nvidia eh die günstigere Variante... :uponder:
Disconnected
2025-01-09, 16:20:55
Ich zahle dann einfach 500 für eine 5090. Die restlichen 1500 werden von KI generiert.
monstar-x
2025-01-09, 16:21:25
An die User die FG und ähnlich Techniken nutzten, nur aus reiner Neugier.
Wieviel (Basis) FPS sollten es sein, damit FG / MFG das Bild nicht zerreißt o. Artfakte zu sehen sind, bzw. sich nicht Laggy anfühlt?
Mangel76
2025-01-09, 16:25:09
Angeblich soll das Upsampling verbessert worden sein...
Aber diese Verbesserung bekommt die 4000er Serie doch auch? Nur MFG nicht.
MiamiNice
2025-01-09, 16:26:45
An die User die FG und ähnlich Techniken nutzten, nur aus reiner Neugier.
Wieviel (Basis) FPS sollten es sein, damit FG / MFG das Bild nicht zerreißt o. Artfakte zu sehen sind, bzw. sich nicht Laggy anfühlt?
Wenn ich unseren Relex richtig verstanden habe, um 70 FPS eher FG richtig kickt. Also das alte FG.
dargo
2025-01-09, 16:28:15
https://youtu.be/ORXoOKND1Tk
Schon jemand das gepostet?
Ist aber schon krass, dass selbst in CP2077 mit Pathtracing nur 30% mehr echte Performance rauskommen. Bei der gigantischen GPU hätte ich mir gerade mit Raytracing ein viel größerers Plus versprochen.
Ab einer Sprung von 20 auf 26fps welche dann auf 100 fake fps aufgeblasen werden, macht doch das Spiel Erlebnis nicht besser.
26fps fühlen sich wie Grütze an, selbst wenn 200fps auf den Bildschirm erscheinen.
Du hast da einen kleinen Denkfehler. Nimm nicht die 26fps als Basis was sich auf nativ 4k bezieht sondern die XXfps mit 4k + DLSS Performance ohne Framegen. Die xxfps mit DLSS Performance und (M)FG)) Off werden sich definitiv besser anfühlen als die 26fps.
Ich zahle dann einfach 500 für eine 5090. Die restlichen 1500 werden von KI generiert.
you made my day ;D
An die User die FG und ähnlich Techniken nutzten, nur aus reiner Neugier.
Wieviel (Basis) FPS sollten es sein, damit FG / MFG das Bild nicht zerreißt o. Artfakte zu sehen sind, bzw. sich nicht Laggy anfühlt?
Das wird dir niemand richtig beantworten können da die Ansprüche in diesem Bereich sehr unterschiedlich sind. Die IHVs empfehlen aber so um die 60-70 Basis fps. Ich teile die Meinung der IHVs in der Praxis allerdings nicht (Mausspieler). Mir waren oftmals selbst 140fps mit FG (ein Fake Frame) noch nicht direkt genug. Ab ca. 90-100 Basis fps könnte es aber dann auch bei mir eventuell passen.
Troyan
2025-01-09, 16:32:33
Es ging überhaupt nicht darum ob nativ eine Relavanz hat oder nicht, oder was der ganze nVidia Marketingcrap bewirkt.
Die Grundaussage war, dass wenn man die ganzen Fake-Müll weglässt, nur 30% mehr Performance in UHD+Pathtracing rumkommen.
Dies sollte eigentlich die Pradadisziplin der Karte sein. Dieses Szenario an sich das komplexeste ist, um de ganzen zusätzlichen Recheneinheiten der Karte überhaupt auszulasten.
Wenn in diesen Stzenario nur 30% mehr rauskommen, wird es in anderen sogar noch weniger sein. Darum geht es mir.
Äh, ja? 30% mehr Frames für 25% Aufpreis. Also besser. :cool:
monstar-x
2025-01-09, 16:33:50
Weil nativ nunmal vollkommen irrelevant ist. Upscaling wird verbessert, Ray Reconstruction wird verbessert, Reflex reduziert Latenz und MFG erzeugt dann die zusätzlichen 150 Bilder.
Sinnloses Video. Ist nichtmal als Ironie brauchbar.
Ohne eine hohe native Basis FPS bringt dir aber 4x / 8x MFG auch nichts ;D
Hast zwar 100 FPS auf dem Framecounter, die sich dann aber scheiße anfühlen weil Basis FPS mit 25 daher ruckeln.
Möchtest du so spielen? Ich nicht.
SamLombardo
2025-01-09, 16:41:02
Wenn ich unseren Relex richtig verstanden habe, um 70 FPS eher FG richtig kickt. Also das alte FG.
Vielleicht für die ganze empfindlichen. Ich bin da.entspannter. spiele quasi alle Pathtracing-spiele mit FG und hab inkl FG mit DLSSQ als Vorlage in 4k meist um die 75fps (Cyberpunk, Alan Wake, Wukong) Ohne FG wären das teilweise um die 40. Also mit 40 als Grundlage fallen mir FG Artefakte so gut wie nie auf, ganz selten mal am HUD aber eigentlich auch das nicht. Wie gesagt sicherlich sind da manch andere empfindlicher. Für mich ist FG wirklich der Gamechanger, weil es (zusammen mit DLSS) solche Grafikerlebnisse möglich macht, von denen wir noch vor einer Generation nur träumen konnten.
Geldmann3
2025-01-09, 16:48:17
Ich finde es interessant, wie Nvidia die Performance der RTX 5090 sandbagged.
Auf dem allerersten Blick auf die Graphen wirkt sie mehr als doppelt so schnell wie die RTX 4090.
Doch natürlich blicken alle Enthusiasten durch, dass hier 4x FG aktiv ist, was einen dann zu nur noch rund 33% Performanceplus führt. Die Performance erweckt also den Anschein einen sehr kleinen Sprung gemacht zu haben.
ABER
Die Karte rendert hier in 4K @ DLSS Performance, um die base Framerate herzustellen. Das sind intern nur 1080p. Das ist nix für die 5090 und hängt teilweise sogar im CPU Limit.
Würde Nvidia 4k@DLAA testen oder 8K könnte die 5090 wahrscheinlich mit +50% glänzen. Doch dann würde man bei der 5070 ja sehen, dass 12GB Vram Schrott sind. Was für eine Zwickmühle. ;)
VooDoo7mx
2025-01-09, 16:50:37
An die User die FG und ähnlich Techniken nutzten, nur aus reiner Neugier.
Wieviel (Basis) FPS sollten es sein, damit FG / MFG das Bild nicht zerreißt o. Artfakte zu sehen sind, bzw. sich nicht Laggy anfühlt?
Meine Meinung zu nVidia DLSS Frame mit Ada:
Wenn man mit den bisherigen 2X Framegen bei über 100fps am Ende rauskommt macht es meiner Meinung nach Sinn es zu aktivieren.
Mit 4X Framegen von Blackwell wären es dann wohl 200fps am Ende.
Bei Cyberpunk hatte iich auch mal ne Szene mit Pathtraycing und Framegen dann unter 80fps hatte. Und das hat sich dann schon derbe scheiße angefühlt.
Kann natürlich jeder anders sehen.
Jedoch werden generierte Fake Frames niemals ein Ersatz für echte sein.
nVidias Marketing grenzt hier meiner Meinung nach schon stark an Betrug.
dargo
2025-01-09, 16:52:10
nVidias Marketing grenzt hier meiner Meinung nach schon stark an Betrug.
Betrug ist ein böses Wort, ich würde es Cheat nennen. :)
Geldmann3
2025-01-09, 16:52:46
Ich muss dem Vorredner bestätigen, 30FPS als Base-Framerate fühlt sich auch für mich "derbe Scheiße" an. 40 sind dann aber schon akzeptabel und 60 top.
Wobei ich denke, dass man immernoch sagen kann, dass je höher die Base-Framerate, desto besser. Aber ab 60 ist der diminshing return langsam schon sehr groß.
VooDoo7mx
2025-01-09, 16:54:54
Würde Nvidia 4k@DLAA testen oder 8K könnte die 5090 wahrscheinlich mit +50% glänzen. Doch dann würde man bei der 5070 ja sehen, dass 12GB Vram Schrott sind. Was für eine Zwickmühle. ;)
Das vob mir gezeigte Beispiel war ja mit UHD nativ+ Path Tracing. Und da war eben nur 30% mehr ggü. einer 4090 drin.
Und wenn da doe 5090 in UHD nur 26 fps schafft, wieso sollte man dann in 8K mit 10fps spielen wollen? Oder in 8K mit 4X FG und 50 fps?
mironicus
2025-01-09, 16:55:42
20 FPS zu 200 FPS ist definitiv Selbstbetrug. :freak:
Geldmann3
2025-01-09, 17:01:18
Das vob mir gezeigte Beispiel war ja mit UHD nativ+ Path Tracing. Und da war eben nur 30% mehr ggü. einer 4090 drin.
Und wenn da doe 5090 in UHD nur 26 fps schafft, wieso sollte man dann in 8K mit 10fps spielen wollen? Oder in 8K mit 4X FG und 50 fps?
Du meinst Cyberpunk?
Troyan
2025-01-09, 17:01:40
Jedoch werden generierte Fake Frames niemals ein Ersatz für echte sein.
nVidias Marketing grenzt hier meiner Meinung nach schon stark an Betrug.
Wenn Latenz so wichtig ist, spielst sowieso niemand in höher als 1080p. Komischweise kaufe die Leute ja Monitore mit höheren Auflösungen, was wiederum bedeutet, dass Latenz sekundär relevant ist.
Kriegsgeier
2025-01-09, 17:05:18
es gibt aber Leute, die wahrscheinlich erst in 5 Jahren auf die 4k Auflösung wechseln werden.
Die 3440 x 1440 Auflösung ist für mich persönlich das Beste aus beiden Welten. Und das schon seit gut 6 Jahren bei mir.
Und ich wette, dass GTA6 in 3440 x 1440 mit RTX 5090 auch 1A laufen wird. In 4K wahrscheinlich nicht mehr.
Troyan
2025-01-09, 17:07:28
Spielt alles keine Rolle. Latenz ist direkt gekoppelt an GPU-Auslastung. Je geringer die Auslastung (selbst bei 99%), umso deutlich geringer die Eingabeverzögerung.
dargo
2025-01-09, 17:15:06
Wenn Latenz so wichtig ist, spielst sowieso niemand in höher als 1080p. Komischweise kaufe die Leute ja Monitore mit höheren Auflösungen, was wiederum bedeutet, dass Latenz sekundär relevant ist.
Falsch... bei 4k und 160ppi kommt wieder Upscaling in Frage. Und schon bist du wieder bei 1080p bis 1253p GPU-Last plus etwas Upscaling Overhead.
Troyan
2025-01-09, 17:20:09
Aber dann kann man auch FrameGeneration aktivieren, da maximal ein Frame Verzug hinzukommt, wodurch die Latenz immer noch deutlich geringer ist als im nativen 4K unter voller GPU-Last.
Habe Black Myth getestet und das sieht so aus bei 60 FPS - Zahlen von nVidias Overlay:
1080p: 27ms
2160p: 67ms
Das sind alleine 2,4 Frames Verzug im nativen 4K. Diese Diskussion um FrameGeneration und Latenz ist einfach sinnbefreit, wenn man nicht gerade derjenige ist, dem Latenz am wichtigsten ist.
Da wir ja im Spekuforum sind... hält es jemand für wahrscheinlich, dass NV das Ding früher als in 24 Monaten in 3N shrinkt und wir einen +25%-refresh sehen?
monstar-x
2025-01-09, 17:31:38
Meine Meinung zu nVidia DLSS Frame mit Ada:
Bei Cyberpunk hatte iich auch mal ne Szene mit Pathtraycing und Framegen dann unter 80fps hatte. Und das hat sich dann schon derbe scheiße angefühlt.
Kann natürlich jeder anders sehen.
.
So waren meine bisherigen Erfahrungen auch, hab FG nur da angemacht wo die Basis FPS schon unter aller sau waren mit 35-40FPS.
Alan Wake mit FG auf 70-80 fps
Wukong mit FG auf 70-80 fps
Habs dann ganz schnell wieder ausgemacht, weil es sich sehr merkwürdig und verzögert anfühlt.
// Edit, nach etwas Recherche, ist die Aussage durchweg, 60 FPS (Basis) sollten es für Frame-Generation damit es sich nicht Laggy anfühlt.
Ravenhearth
2025-01-09, 17:50:36
Da wir ja im Spekuforum sind... hält es jemand für wahrscheinlich, dass NV das Ding früher als in 24 Monaten in 3N shrinkt und wir einen +25%-refresh sehen?
Ich denke das spart man sich für den Nachfolger. Wann gab es zuletzt einen einfachen Shrink? Tesla?
Tesseract
2025-01-09, 18:09:25
kann ich mir auch nicht vorstellen, warum auch? das große ding beim refresh werden die 3GB GDDR7 chips mit +50% VRAM für alle karten, was allein schon sehr werbewirksam ist.
Troyan
2025-01-09, 18:14:50
Apple soll doch angeblich deutlich später auf 2nm wechseln. Daher werden die Wafer von denen länger in Schlag genommen. Nächstes Jahr gibt es dann den Super-Zyklus mit mehr Cores und Speicher.
... oder sagen wir so: Nachfolger nicht in 2 Jahren sondern viel früher...
Obwohl.. nee... weshalb... gibt ja keinen Konkurrenzdruck und neue Nodes werden ehr teurer als günstiger.
The_Invisible
2025-01-09, 18:22:22
kann ich mir auch nicht vorstellen, warum auch? das große ding beim refresh werden die 3GB GDDR7 chips mit +50% VRAM für alle karten, was allein schon sehr werbewirksam ist.
48gb für 5090ti :freak:
Palpatin
2025-01-09, 18:27:28
So waren meine bisherigen Erfahrungen auch, hab FG nur da angemacht wo die Basis FPS schon unter aller sau waren mit 35-40FPS.
Alan Wake mit FG auf 70-80 fps
Wukong mit FG auf 70-80 fps
Habs dann ganz schnell wieder ausgemacht, weil es sich sehr merkwürdig und verzögert anfühlt.
// Edit, nach etwas Recherche, ist die Aussage durchweg, 60 FPS (Basis) sollten es für Frame-Generation damit es sich nicht Laggy anfühlt.
+1 auch meine Erfahrung mit der 4070ti. Am Ende bringt FG eigentlich erst dann was wenn das Spiel auch ohne FG super flüssig läuft. Mir ist es dann aber als Single Game Player auch wieder völlig egal ob es an ist oder nicht.
Ein Beispiel Dying Light 1 konnte man hervorragend mit 40-50 FPS Gsync ruckelfrei Spielen. Hogwarts und Jedi Survivor ruckeln sich mit 8x-1xx FPS DLSS+FG einen ab und spielen sich viel weniger flüssig.
BlacKi
2025-01-09, 18:27:32
Und ich wette, dass GTA6 in 3440 x 1440 mit RTX 5090 auch 1A laufen wird. In 4K wahrscheinlich nicht mehr.na sicher. mit zweihundertdrölfzig dlss4 fps. und die ps6 wird vermutlich drölf fake frames haben. den inputlag merkste am controller eh nicht. ;D
Kriegsgeier
2025-01-09, 18:56:21
die 2nm werden für solch große Chips wie 6090 erst in 3,5-4,5 Jahren bezahlbar - früher nicht
Sardaukar.nsn
2025-01-09, 19:03:14
Im Chiphell Forum sind schon (angebliche) 3Dmark Scores der 5090 aufgetaucht. Könnte hinkommen.
https://i.imgur.com/WsyEOuU.png
Time Spy Extreme ist Raster 4k
Speed Way ist DX12 Raytracing
Der 3DMark Speed Way testet die Raytracing-Performance der Grafikkarte und damit die aktuelle „Königsklasse“ der PC-Grafik. Sie ist generell sehr anspruchsvoll für die Probanden, zudem können sich deutlich größere Unterschiede als gewöhnlich zwischen einzelnen 3D-Beschleunigern und auch den Herstellern Nvidia, AMD sowie Intel herausstellen.
https://www.computerbase.de/artikel/grafikkarten/3dmark-speed-way-benchmark.88644/
Im Vergleich sähe das so aus:
https://i.imgur.com/1ZqJZQ3.jpeg
VooDoo7mx
2025-01-09, 19:25:58
Deckt sich mit dem von nVidia selbst geposteten Cyberpunk Videos wo auch in etwa 30% mehr fps rauskommen.
Aber jetzt mal ehrlich.
Bin ich der einzige der ~30% mehr bei UHD RT und 20% mehr bei UHD Raster etwas mickrig findet?
w0mbat
2025-01-09, 19:38:23
21% mehr Transistoren und 125W mehr TDP. Der Schritt von Ampere auf Ada war so groß, weil Nvidia 2,7x so viele Transistoren verbaut hat. Dank Samsung 8nm -> TSMC 5nm. Mehr kann man erst wieder mit 3nm erwarten.
Neurosphere
2025-01-09, 19:39:35
Deckt sich mit dem von nVidia selbst geposteten Cyberpunk Videos wo auch in etwa 30% mehr fps rauskommen.
Aber jetzt mal ehrlich.
Bin ich der einzige der ~30% mehr bei UHD RT und 20% mehr bei UHD Raster etwas mickrig findet?
Nein. Passt auch nicht wenn man es wie schonmal geschrieben mit dem Abstand der 5080 zur 4080 vergleicht.
Warten wir mal den Release ab, ich weiss nicht, wie das mit Vorab-Benchmarks ist, der Treiber sollte ja erst zum Launch scharf sein. Könnte durchaus noch Bombe werden, aber dennoch würde ich die Erwartungen mal bremsen, 50-60% mehr als die 4090 wirds nicht werden, dafür fehlt offenbar einfach die Effizienz. Ist ja bei fast gleichem Prozess auch kein Wunder.
Siehe z.B. die 5070Ti, hat wahrscheinlich etwa 4080-Leistung, aber kaum weniger TBP. Da musste NV schon dick Strom hinterherschieben, damit der 202 wenigstens etwas mehr Performance rausholt. Wenn die Vorabwerte stimmen sollten, sind wir bei 6-7% mehr Perf/W als bei Ada, mehr nicht.
00-Schneider
2025-01-09, 20:03:48
Aber jetzt mal ehrlich.
Bin ich der einzige der ~30% mehr bei UHD RT und 20% mehr bei UHD Raster etwas mickrig findet?
Jup. Falls die Werte stimmen lässt sich das in etwa so zusammenfassen:
https://media4.giphy.com/media/v1.Y2lkPTc5MGI3NjExbTdyazJrNDlhMXA0MnIyYWJwZ2RmejVxbHR2ZW9obGdsYm91OHo1ZSZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/hk4LNUOgb0fiU/giphy.webp
Arg mau nach zwei Jahren. Sind wir hier bei AMD?
aufkrawall
2025-01-09, 20:09:22
Jede Optimierung für ML bringt ihnen halt zigmal mehr als für 3D. Der Plan ist sicherlich, mit immer entwickler-freundlicher werdenden Toolkits wie RTX Kit PC-Gaming immer mehr auf ML umzumodeln.
nordic_pegasus
2025-01-09, 20:21:57
ich glaube ja immernoch, dass die 5090 im Powerlimit verdursten wird. Die 360Watt zu 575Watt der 5080 zu 5090 werden zum Großteil vom doppelten SI und Speichermodulen verbraten. Der Rest wird doch kaum ausreichen in allen Last-Szenarien die doppelte Anzahl an Shadern zu versorgen.
Wenn die 5080 mit 3GB Modulen und 24GB käme (vielleicht der künftige Super Refresh, mehr Shader gehen wohl bei GB203 nicht), wäre es das rundere Gesamtpaket diese Generation. Aber wegen der 16GB auf der 5080 bin ich echt unschlüssig, ob man diese Karte in der Preis- und Leistungsklasse ernsthaft in Betracht ziehen kann.
The_Invisible
2025-01-09, 20:33:17
Deckt sich mit dem von nVidia selbst geposteten Cyberpunk Videos wo auch in etwa 30% mehr fps rauskommen.
Aber jetzt mal ehrlich.
Bin ich der einzige der ~30% mehr bei UHD RT und 20% mehr bei UHD Raster etwas mickrig findet?
Ja irgendwie hat man mehr erwartet, zumindest die 50%. Bin aber gespannt auf die Reviews, vor allem gibt's sicher von pcgh Raff wieder "extrem" Benchmarks, Mal sehen.
Ich bin eigentlich von den ganzen dlss4 Verbesserungen mehr gehypt
VooDoo7mx
2025-01-09, 20:35:04
21% mehr Transistoren und 125W mehr TDP. Der Schritt von Ampere auf Ada war so groß, weil Nvidia 2,7x so viele Transistoren verbaut hat. Dank Samsung 8nm -> TSMC 5nm. Mehr kann man erst wieder mit 3nm erwarten.
Kepler und Maxwell waren auf der selben Node.
Die 980ti hatte sogar 2% weniger Shader Cores als die 780ti und war trotzdem ganze 50% schneller.
Ok jetzt kann man sagen, alte Kamellen und solche Sprünge werden immer schwieriger und sind selten. Alles richtig.
Aber auch Pascal und Turing waren auch auf der gleichen Node.
2080ti hatte prozentual gesehen weit weniger zusätzliche Shader Cores gegenüber der 1080ti als die 4090 auf 5090. (22% auf Turing und 33% auf Blackwell)
Trotzdem wurde prozentual mehr zugelegt als jetzt bei Blackwell.
Das ist so definitv nicht normal und ich gebe mich nicht mit mickrigen 20-30% bei einer 2300€+ Grafikkarte zufrieden.
Selbst wenn man auf N3E gewechselt wäre und hätte vielleicht 50% und mehr drauf gepackt würde doch auch nicht großartig mehr rumkommen.
Die Realität ist wohl einfach, dass nVidia die 5090 kaum noch vernünftig in Games auslasten kann. Entweder sind sie mittlerweile in einer Sackgasse wo kaum noch mehr geht und/oder ihre Chips werden nur noch primär auf AI Beschleunigung ausgelegt.
Und da legt wirklich Blackwell phänomenal zu. Die Verdopplung der Leistung bei Flux auf dem Nvidia Slide ist schon sehr beachtlich.
Nur leider gibt es kaum gute Endverbraucher AI Apps. Da sehe ich großes Potential.
Ich spekuliere mal darauf, dass je kleiner der Blackwell Chip ist, des so größere fallen die Leistungssprünge in Games ggü dem Vorgängerchip aus. Die vermeintlichen Ergebnisse der Notebook 5060 haben an sich ja schon sehr gut ausgesehen.
Jup. Falls die Werte stimmen lässt sich das in etwa so zusammenfassen:
https://media4.giphy.com/media/v1.Y2lkPTc5MGI3NjExbTdyazJrNDlhMXA0MnIyYWJwZ2RmejVxbHR2ZW9obGdsYm91OHo1ZSZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/hk4LNUOgb0fiU/giphy.webp
Arg mau nach zwei Jahren. Sind wir hier bei AMD?
Also das war jetzt mal echt unter der Gürtellinie.
Ich hab deinen Post gleich mal gemeldet. ;)
Ja irgendwie hat man mehr erwartet, zumindest die 50%. Bin aber gespannt auf die Reviews, vor allem gibt's sicher von pcgh Raff wieder "extrem" Benchmarks, Mal sehen.
Ich bin eigentlich von den ganzen dlss4 Verbesserungen mehr gehypt
Die Bildqualiverbesserungen des neuen ML Modells bekommst du aber auch mit Turing, Ampere und Ada. ;)
Und 4X FG halte ich nicht wirklich für ein Killerfeature.
Altehardware
2025-01-09, 20:39:37
ich kann das whitepaper nicht abwarten und die Tests selten das ich so gespannt war
Nächste Woche wird die rx9070xt vorgestellt und darauf die Woche release
harte Zeiten für die reviewer zumal blackwell nicht einfach wird zu benchen. Da sind die rdna4 test Mickrig im Vergleich
The_Invisible
2025-01-09, 20:48:20
Die Bildqualiverbesserungen des neuen ML Modells bekommst du aber auch mit Turing, Ampere und Ada. ;)
Und 4X FG halte ich nicht wirklich für ein Killerfeature.
Ja das meinte ich ja, wobei ich das 4x FG vor allem für die >=240hz oleds nett finde.
Troyan
2025-01-09, 20:52:16
Aber auch Pascal und Turing waren auch auf der gleichen Node.
2080ti hatte prozentual gesehen weit weniger zusätzliche Shader Cores gegenüber der 1080ti als die 4090 auf 5090. (22% auf Turing und 33% auf Blackwell)
Trotzdem wurde prozentual mehr zugelegt als jetzt bei Blackwell.
Huh? 35% zur 1080 TI mit deutlich überarbeiteter Shader-Architektur: https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
Das ist jetzt, wenn überhaupt, nicht viel besser.
DrFreaK666
2025-01-09, 20:55:38
Arg mau nach zwei Jahren. Sind wir hier bei AMD?
Die 4070 war im Vergleich zur 3070 auch kein Überflieger.
Und die 4060Ti 8GB ... war sicherlich auch von AMD
BlacKi
2025-01-09, 20:56:23
Deckt sich mit dem von nVidia selbst geposteten Cyberpunk Videos wo auch in etwa 30% mehr fps rauskommen.
finde ich nicht. nur das mit dlss 4, wo mehr als doppelt soviel fps rauskommen. kannst du das mal verlinken?
Linmoum
2025-01-09, 21:02:36
2080ti hatte prozentual gesehen weit weniger zusätzliche Shader Cores gegenüber der 1080ti als die 4090 auf 5090. (22% auf Turing und 33% auf Blackwell)
Trotzdem wurde prozentual mehr zugelegt als jetzt bei Blackwell.
Das ist so definitv nicht normal und ich gebe mich nicht mit mickrigen 20-30% bei einer 2300€+ Grafikkarte zufrieden.
Die (Roh-)Leistung ist bei den GPUs in den letzten Generationen massiv gestiegen und es ist unmöglich, das in der Form fortzuführen. Unmöglich nicht deswegen, weil Nvidia es nicht könnte. Unmöglich deswegen, weil die CPUs in Relation dazu einfach viel zu langsam werden. Nvidia hat seit eh und je Benchmarks auf Intel-CPUs durchgeführt, bei Ada war's damals der 12900K. Die Blackwell-Benchmarks hat man jetzt auf einem 9800X3D durchgeführt. Warum? Weil alle andere CPUs (mit Ausnahme vielleicht noch von den Zen4X3Ds) einfach nicht dazu in der Lage sein werden, Blackwell vernünftig auszulasten. Zumindest eben an der Spitze.
Raster und Brute Force sind Sackgassen. Wer ernsthaft der Meinung ist, dass er anderes nicht braucht oder den Fokus auf diese Sachen gelegt haben will, erzählt sich selbst Märchen und verkennt die Realität.
Tesseract
2025-01-09, 21:03:24
2080ti hatte prozentual gesehen weit weniger zusätzliche Shader Cores gegenüber der 1080ti als die 4090 auf 5090. (22% auf Turing und 33% auf Blackwell)
die 2080Ti hatte effektiv für spiele nutzbar rund 60% "mehr cores", du kannst die konfigurationen nicht so vergleichen wie du das tust weil sie zu unterschiedlich sind.
Sardaukar.nsn
2025-01-09, 21:06:28
Ja irgendwie hat man mehr erwartet, zumindest die 50%. Bin aber gespannt auf die Reviews, vor allem gibt's sicher von pcgh Raff wieder "extrem" Benchmarks, Mal sehen.
Ich bin eigentlich von den ganzen dlss4 Verbesserungen mehr gehypt
Klar das man nicht so einen krassen 2-node Sprung wie von 3090 auf 4090 wiederholen kann. Trotzdem reizt die 5090 schon die aktuellen Grenzen des aktuell Machbaren (Die Größe, Transistoren, TDP ect.) fast voll aus. Mehr scheint mit der aktuellen Technik in den nächsten 2 Jahren nicht drin zu sein. Für weitere Performance Sprünge muss wohl die KI sorgen.
r3ptil3
2025-01-09, 21:14:01
Gesehen?
https://i.ibb.co/gm4fgn2/1.jpg
Da sinds dann eben nur ca. 30-40% über der RTX 4090.
Sieht etwas mager aus für die noch teurere 5090.
Sumpfmolch
2025-01-09, 21:39:51
Ganz nettes Video über die systematisch falschen Vergleiche in den Benchmarks für die verfügbaren Karten der alten Generation:
5080 vs. 4080 anstatt 4080 Super
5070 Ti vs. 4070 Ti anstatt 4070 Ti Super
5070 vs. 4070 anstatt 4070 Super
rlV7Ynd-g94
basix
2025-01-09, 21:44:39
Hier paar detaillierte Aufnahmen vom PCB (Front und Rückseite ab 3m10s):
https://youtu.be/4WMwRlTdaZw
Eindeutig eine Weiterentwicklung von der "config 2" 4090.
Muss schon sagen, sehr interessantes Design. Voll auf Flow Through optimiert. Geil kompaktes Highend PCB (bin selbst E-Ingenieur ;)). Die konkaven Kühlerlamellen für den Druckausgleich (Lüfterblätter rotieren aussen schneller als innen) sind auch spannend.
BlacKi
2025-01-09, 21:54:04
Da sinds dann eben nur ca. 30-40% über der RTX 4090.
Sieht etwas mager aus für die noch teurere 5090.
ich finde die benches von nvidia sehr schlecht gewählt. das ist vermutlich absicht, aber das wusste ich schon im vorraus.
dir ist schon klar, das da unten dlss performance steht? das bedeutet auch, das die 5090 dort schlechter ihre performance zeigen kann.
ich meine, das ist fhd benchmarks. du sagst gerade das die 5090 in fhd nur 30-40% schneller ist, und dass das doch sehr mager ist. ich würde jedem empfehlen das mal zu realisieren, was das für balken dort sind und was sie denn wirklich aussagen.
ich sage, die benches sind alle schrott.
ENKORE
2025-01-09, 22:01:46
Oder wird es z.B. von Micron vorgeschrieben wie die Hersteller die GDDR7 RAM-Bausteine zu positionieren und verdrahten haben?
Das Layout von GPU-Chip und Speicher wird doch schon lange von Nvidia vorgegeben?
Das mit Signalqualität bzw. Geschwindigkeiten, die er im Video anspricht: verstehe ich nicht, NVIDIA musste auf diese Größe gehen um nicht nur den Kühler so zu dimensionieren sondern auch die Signalqualität zu erreichen?
Nicht geguckt, aber meinen sie vielleicht eher, dass die Signalqualität eine Herausforderung war wegen der zusätzlichen Steckverbinder im Signalpfad? Wir reden hier ja immerhin von DP 2.0 mit 20 Gbit/s pro Lane und PCIe 5.0 mit 32 Gbit/s.
ich finde die benches von nvidia sehr schlecht gewählt. das ist vermutlich absicht, aber das wusste ich schon im vorraus.
dir ist schon klar, das da unten dlss performance steht? das bedeutet auch, das die 5090 dort schlechter ihre performance zeigen kann.
ich meine, das ist fhd benchmarks. du sagst gerade das die 5090 in fhd nur 30-40% schneller ist, und dass das doch sehr mager ist. ich würde jedem empfehlen das mal zu realisieren, was das für balken dort sind und was sie denn wirklich aussagen.
ich sage, die benches sind alle schrott.
Die RTX 5090 ereilt das gleiche Schicksal wie viele andere High-End-Grafikkarten: Keine CPU ist schnell genug, um sie in Full HD (bzw. einem Upscaling-Äquivalent gleicher interner Auflösung) auszulasten. Wird zwar nicht so schlimm wie bei der Voodoo 5 6000 (https://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/cpu-skalierung-und-durchschnittswerte) ;), aber die CPUs maskieren das Potenzial unterhalb von UHD. Ich kann an dieser Stelle schon mal versprechen, dass die neue PCGH-Aufstellung (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/) mithilfe der schnellstmöglichen CPU und den grafiklastigsten Szenen so viel Differenz herausarbeitet, wie das Anfang 2025 eben geht.
MfG
Raff
VooDoo7mx
2025-01-09, 22:03:34
Die 4070 war im Vergleich zur 3070 auch kein Überflieger.
Und die 4060Ti 8GB ... war sicherlich auch von AMD
Ja weil deine Vergleiche einfach nur strunz-dumm sind. Du vergleichst Marketing Namen und nicht die Chips.
3070 ist ein GA104 wo 4% der Recheneinheiten deaktiviert sind
4070 ist ein AD104 wo 25% der Recheneinheiten und weiterer L2 Cache deaktiviert sind.
Das heißt, das eine 4070Super (7% des Chips deaktiviert) mit einer 3070 in etwa vergleichbar ist.
Die 4070 ist das Äquivalent zur 3060Ti. Bei der 3060Ti sind 21% des GA104 deaktiviert.
Und wenn man den Vergleich gerade rückt hat man in beiden Fällen etwa 40-50% mehr Performance
Genau das selbe bei der 4060Ti. Diese nutzt den AD106, welcher wiederum der Nachfolgechip des GA106 der 3060 ist. Bei beiden Chips sind etwa die selbe Menge an Einheiten deaktiviert.
Und auch hier ist der Nachfolger 40-50% schneller.
Ganz nettes Video über die systematisch falschen Vergleiche in den Benchmarks für die verfügbaren Karten der alten Generation:
5080 vs. 4080 anstatt 4080 Super
5070 Ti vs. 4070 Ti anstatt 4070 Ti Super
5070 vs. 4070 anstatt 4070 Super
https://youtu.be/rlV7Ynd-g94
Zu den Notebook-Varianten hat nVidia nicht mal ihre eigenen geschönten Slides rausgeholt. Ich glaube hier kommt auch nur wenig Mehrleistung.
BlacKi
2025-01-09, 22:19:16
was auch noch nicht erwähnt wurde. die 5080 hat nur 12,5% mehr power, schafft aber 35% mehr performance, 18,1% effizienter als die 4080. die 5090 wird wesentlich effizienter takten als die 5080 und damit auch effizienter sein. wendet man die effizienzsteierung der 5080 auf die 5090 an, kommt man bei 51% mehr performance raus. da hört es aber nicht auf, denn jedes prozent das die 5090 effizienter ist, schlägt hier auch in zusätzliche performance um.
ich würde wirklich auf 55% anhand der effizienzumrechnung schätzen. keine 30-40%. in 5-8k geht das dann auch in richtung 70%.
Also Raster bezweifle ich sehr stark, dass die 5080 wesentlich mehr als 20% mehr Performance ggü der 4080(S) bringt, absolutes Maximum wäre 25% aus meiner Sicht. RT kanns natürlich etwas mehr sein - mit jetzigem Kenntnisstand jedenfalls, also 6-7% mehr perf/W und 12% mehr W.
Solange wir kein Whitepaper haben, das einige der noch unbekannten Interna erläutert, ist das pures Raten.
MfG
Raff
Relex
2025-01-10, 00:58:21
Ich wills nochmal highlighten - hier auf Reddit hat jemand Infos zu RTX Mega Geometry zusammengetragen, was zusammen mit Blackwell vorgestellt wurde:
https://www.reddit.com/r/nvidia/comments/1hxiqxj/rtx_mega_geometry_is_massively_underappreciated/
Man kann es wohl als sowas wie "nanite für die BVH" bezeichnen.
Massiv reduzierter CPU Overhead und weniger VRAM Verbrauch und außerdem auch deutlich gesteigerter Detailgrad mit RT/PT.
Unterstützt natürlich auch animierte geometrie.
Siehe hier: https://www.tiktok.com/@thegameawards/video/7457377686722284842
Ist kompatibel mit allen RTX Karten und wird mit dem nächsten patch in Alan Wake 2 integriert und wird auch für die UE5 übernommen.
MMn wirklich ein wichtiges Feature. Die BVH war ja bisher das was RT zurückgehalten hat. Fehlende Details in der BVH, der gestiegene VRAM Verbrauch und generell die Auswirkungen auf die CPU performance.
Wenn das jetzt alles kein Problem mehr ist, dann ist das schon sehr genial.
Wenn jetzt auch noch das neue RayReconstruction überzeugen kann, dann hat Nvidia wirklich nen ganzen Haufen Probleme auf einmal gelöst.
BlacKi
2025-01-10, 05:35:13
Also Raster bezweifle ich sehr stark, dass die 5080 wesentlich mehr als 20% mehr Performance ggü der 4080(S) bringt, absolutes Maximum wäre 25% aus meiner Sicht. RT kanns natürlich etwas mehr sein - mit jetzigem Kenntnisstand jedenfalls, also 6-7% mehr perf/W und 12% mehr W.dann würde ich gerne von dir erklärt haben, warum die 5080 33% schneller ist als die 4080 in farcry6. das ist erstens kein titel, indem nv gut performt und der RT anteil ist dort auch sehr niedrig. das ist basicly die worst case angabe von nvidia.
rentex
2025-01-10, 06:21:13
@Relex Das wäre ja ebenfalls ein benefit für die älteren RTX Gens.
Kriegsgeier
2025-01-10, 07:23:20
Gemäß taiwanischen Medien ließ MediaTek verlauten, dass die neuen Produkte von MediaTek und Nvidia auf eine 3-nm-Fertigung von TSMC setzen. Der GB10 ist so also auch der erste Chip, der Blackwell in einer N3-Fertigung zum Einsatz bringt, in allen bisherigen großen Lösungen nutzt Nvidia einen N4-Node. Es ist davon auszugehen, dass auch ein zukünftiger Notebook- und Desktop-Chip auf das effiziente N3-Design von TSMC setzt.
Ok, also erwartet uns die 60ger Generation in 3nm von TSMC?
Wobei habe ich irgendwo gelesen, dass auch Samsung wieder im Spiel sein könnte - sollte sein Node bis dahin mit guten Yealds laufen.
Thomas Gräf
2025-01-10, 07:59:50
Hab ein kleinen Schatz gefunden.
Na wer von Euch kann sich erinnern? :smile:
https://graphics.tu-bs.de/upload/publications/ray-tracing-mit-dynamischer-bounding-volume-hierarchie.pdf
Kriegsgeier
2025-01-10, 08:09:23
sehr interessant, habe mir direkt abgespeichert. Kann man zumindest den Anfang für den Verständnis lesen.
wolik
2025-01-10, 09:08:19
Nicht geguckt, aber meinen sie vielleicht eher, dass die Signalqualität eine Herausforderung war wegen der zusätzlichen Steckverbinder im Signalpfad? Wir reden hier ja immerhin von DP 2.0 mit 20 Gbit/s pro Lane und PCIe 5.0 mit 32 Gbit/s.
Ich habe mich auch gewundert, wieso man drei Platinen statt einer PCB macht. Es wäre billiger und störungssicherer. Ich meine "G-Formig"
Die FE kommt bei mir auf keinen Fall in die Kiste.
Kriegsgeier
2025-01-10, 09:15:34
bei mir diesmal auch nicht. Diese Steckverbinder sind wahrscheinlich relativ störungsanfällig. Und im Feld haben diese ihren Test noch nicht bestanden ;)
Also auf eine FE verzichte ich diesmal freiwillig.
Es wird wahrscheinlich eine GIGABYTE @ WaKü
basix
2025-01-10, 09:17:01
Ich wills nochmal highlighten - hier auf Reddit hat jemand Infos zu RTX Mega Geometry zusammengetragen, was zusammen mit Blackwell vorgestellt wurde:
https://www.reddit.com/r/nvidia/comments/1hxiqxj/rtx_mega_geometry_is_massively_underappreciated/
Man kann es wohl als sowas wie "nanite für die BVH" bezeichnen.
Massiv reduzierter CPU Overhead und weniger VRAM Verbrauch und außerdem auch deutlich gesteigerter Detailgrad mit RT/PT.
Unterstützt natürlich auch animierte geometrie.
[...]
MMn wirklich ein wichtiges Feature. Die BVH war ja bisher das was RT zurückgehalten hat. Fehlende Details in der BVH, der gestiegene VRAM Verbrauch und generell die Auswirkungen auf die CPU performance.
Mega Geometry ist einfach die Nutzung der DMM (Displacement Micro Meshes) von Lovelace. Glaube nicht, dass Ampere und älter das Feature unterstützen werden.
Die gezeigten Bilder sehen sehr gut aus. Der Vergleich ohne DMM ist aber wertlos, das sieht niemals so schlecht aus wie z.B. bei der Efeu-Ranke.
Aber egal, es verbessert Performance und Qualität, das ist mal nice.
Hier die Übersicht über das komplette RTX Kit:
https://developer.nvidia.com/rtx-kit
Neural Radiance Caching ist endlich auch dabei ;)
Edit:
Irgendwie lustig. Das interessanteste an der Blackwell Vorstellung ist nicht die HW sondern die SW-Features rundherum (welche zum grossen Teil auch auf älteren Nvidia GPUs laufen werden). Natürlich werden dazu einige der HW Features verwendet (Tensor Cores, DMM, OMM, SER) aber alles was nur die Tensor Cores benötigt, läuft auch auf Turing und hat insgesamt den grössten Benefit (verbessertes DLSS, RR, Reflex, NRC, NTC, Neural Textures). Bei Neural Faces sind sie noch nicht so weit. Das sieht noch etwas zu sehr nach Deepfake aus (was es technologisch gesehen ja auch ist).
Ok, also erwartet uns die 60ger Generation in 3nm von TSMC?
Wobei habe ich irgendwo gelesen, dass auch Samsung wieder im Spiel sein könnte - sollte sein Node bis dahin mit guten Yealds laufen.
Wenn Samsung endlich brauchbare Yields erreichen kann vielleicht. Das ist ja nach wie vor das Problem. Die 7nm-Generation (7LPx. 6LPx, 5LPx, SF4x) läuft ja nach wie vor eher schlecht... SF3 läuft auch schlecht, die werden nur Kunden damit gewinnen, wenn SF2 (was ja ein gefixter SF3 sein soll) endlich gute Yields liefert.
Kriegsgeier
2025-01-10, 09:25:26
...
Irgendwie lustig. Das interessanteste an der Blackwell Vorstellung ist nicht die HW sondern die SW-Features rundherum (welche zum grossen Teil auch auf älteren Nvidia GPUs laufen werden). Natürlich werden dazu einige der HW Features verwendet (Tensor Cores, DMM, OMM, SER) aber alles was nur die Tensor Cores benötigt, läuft auch auf Turing und hat insgesamt den grössten Benefit (verbessertes DLSS, RR, Reflex, NRC, NTC, Neural Textures).
Natürlich werden diese auf RTX 30 und 40ger Serien laufen - die Frage ich nur wie performant?
Ich glaube viele der Features brauchen Bandbreite und Speicher und da trumpft natürlich nur eine Karte ;)
AffenJack
2025-01-10, 09:31:58
Was haltet ihr von MFR eigentlich in Bezug auf Traversal Stutter usw?
Da soll ja jetzt Hardwareframepacing bei Blackwell drin sein. Könnte es sein, dass MFR die Traversal Stutter stark abmildert, weil 4 Frames verteilt werden auf den Spike?
Obwohl ich sonst weniger der Freund von Frame Generation bin hört sich das in Bezug auf UE5 gerade am positivsten an oder ist mein Gedanke falsch?
Natürlich werden diese auf RTX 30 und 40ger Serien laufen - die Frage ich nur wie performant?
Ich glaube viele der Features brauchen Bandbreite und Speicher und da trumpft natürlich nur eine Karte ;)
Das ist bei Neural Shader z.B. unklar. Das wird jetzt von MS unterstützt, aber es wird explizit nur 50 Serie erwähnt. Kann durchaus sein, dass da Hardwareänderungen für die DirectX Unterstützung drin sind und alles ältere raus ist.
So wie AMDs frühere Primitive Pipeline, die aber kein Mesh Shader Support für DX hatte.
basix
2025-01-10, 09:57:23
Natürlich werden diese auf RTX 30 und 40ger Serien laufen - die Frage ich nur wie performant?
Langsamer ;)
Ich glaube aber, dass für viele Dinge die FLOPS sowie Bandbreite nicht limitieren werden.
- 2080 Ti = 120 TFLOPS FP16 / 240 TOPS INT8 + 616 GByte/s
- 3090 = 160 TFLOPS FP16 / 320 TOPS INT8 + 936 GByte/s
- 4090 = 320 TFLOPS FP16 / 640 TOPS INT8 / 640 TFLOPS FP8 + 1008 GByte/s + 72 MByte L2$
- 5090 = 400 TFLOPS FP16 / 800 TOPS INT8 / 800 TFLOPS FP8 + 1790 GByte/s + 96...128 MByte L2$
Verwendet man FP16 oder INT8 fürs Inferencing sowie Neural Shaders etc. ist eine 5090 "nur" ~3x schneller als eine 2080 Ti. Und da die 2080 Ti generell >3x langsamer sein wird als eine 5090 passt das doch tip top. Dito bei der Bandbreite, wo höchstens die grösseren L2-Caches bei Lovelace und Blackwell was ausmachen könnten.
Verwendet man irgendwo FP8 anstatt FP16 dann werden 4090 und 5090 stärker davonziehen können. Wenn ich Nvidia wäre, würde ich bei INT8 und FP16 bleiben, da dies den Entwicklungsaufwand reduziert und man eine breite Nutzerbasis erhält (ab Turing RTX). Eine 2080 Ti ist eh keine Konkurrenz für eine 4090 oder 5090.
Für Lovelace und Blackwell exklusive Features (z.B. FG) kann man natürlich FP8 verwenden. Könnte einer der Gründe sein, wieso das trotz Tensor Core DNN nicht auf Ampere kommt (neben Produkt-Differenzierungen).
Kriegsgeier
2025-01-10, 10:09:02
was mich immer wundert, wie krass NVIDIA die Struktur der Shader von Gen zu Gen umbaut.
Das ist doch verrückt.
Es kann nur davon kommen, dass die Generationen alle irgendwie parallel entwickelt werden und das noch von unterschiedlichen Teams?
Man kann doch nicht so krass jede Generation umkrempeln, oder?
Was bedeutet eigentlich, dass erst die 40 und 50ger Serien dieses INT8+FP8 abbekommen haben?
- 2080 Ti =120 TFLOPS FP16 / 240 TOPS INT8
- 3090 = 160 TFLOPS FP16 / 320 TOPS INT8
- 4090 = 320 TFLOPS FP16 / 640 TOPS INT8 / 640 TFLOPS FP8
- 5090 = 400 TFLOPS FP16 / 800 TOPS INT8 / 800 TFLOPS FP8
The_Invisible
2025-01-10, 10:24:58
Was haltet ihr von MFR eigentlich in Bezug auf Traversal Stutter usw?
Da soll ja jetzt Hardwareframepacing bei Blackwell drin sein. Könnte es sein, dass MFR die Traversal Stutter stark abmildert, weil 4 Frames verteilt werden auf den Spike?
Obwohl ich sonst weniger der Freund von Frame Generation bin hört sich das in Bezug auf UE5 gerade am positivsten an oder ist mein Gedanke falsch?
Hört sich auch wegen Hauptproblem VRR-Flicker auf OLEDs interessant an, das könnte ein heimliches Killerfeature dafür werden
aufkrawall
2025-01-10, 10:31:57
Du kannst miese CPU Frame Times nur bis zu einem gewissen Grad mit FG wegglätten, insbesondere einzelne Ausreißer schlechter. Da MFG wie 2x FG nicht wirklich mehr als eine Frame Time Buffer hat, wird das eher nicht besser werden. Oder nicht viel. Das HW Frame Pacing kann aber dafür sorgen, dass es FG nach größeren Spikes nicht mehr eine kurze Zeit lang aus dem Tritt bringt. Das ist mit FSR FG auf Radeons deutlich besser.
nordic_pegasus
2025-01-10, 10:52:37
- 2080 Ti = 120 TFLOPS FP16 / 240 TOPS INT8 + 616 GByte/s
- 3090 = 160 TFLOPS FP16 / 320 TOPS INT8 + 936 GByte/s
- 4090 = 320 TFLOPS FP16 / 640 TOPS INT8 / 640 TFLOPS FP8 + 1008 GByte/s + 72 MByte L2$
- 5090 = 400 TFLOPS FP16 / 800 TOPS INT8 / 800 TFLOPS FP8 + 1790 GByte/s + 96...128 MByte L2$
was hätte eigentlich ein voller AD102 mit 96 MB L2$ an Leistung auf die Straße gebracht? Der starke Beschnitt auf 72 MB war für mich immer ein Rätsel. Der Cache wurde bei der 4090 um 25% beschnitten, die Shader nur um 11% und das SI gar nicht. Die Asymmetrie habe ich nie verstanden.
Relex
2025-01-10, 12:20:21
aber alles was nur die Tensor Cores benötigt, läuft auch auf Turing und hat insgesamt den grössten Benefit (verbessertes DLSS, RR, Reflex, NRC, NTC, Neural Textures).
Bist du dir sicher, dass Neural Texture compression und Neural Textures/materials auch auf älteren GPUs laufen wird?
Zumindest in der Keynote hat sich das angehört, als wäre das Blackwell exklusiv.
dildo4u
2025-01-10, 12:24:38
Das muss natürlich überall laufen wenn das überhaupt mal genutzt werden soll.
The HLSL team is working with AMD, Intel, NVIDIA, and Qualcomm on bringing cross-vendor support for cooperative vectors to the DirectX ecosystem. Stay tuned for more updates about cooperative vectors and its upcoming Preview release!
https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/
Nvidia bringt es als erstes zum Markt.
Relex
2025-01-10, 12:30:53
Na ja, kann ja sein, dass man über DirectX den Grundstein legt. Aber das bestätigt ja nicht, dass es auf allen RTX GPUs läuft.
Ich hab deshalb zweifel, weil Nvidia ja irgendwas sagte von wegen Blackwell würde es erlauben kleine Neuronale Netzte auf Shader Ebene auszuführen, was hier wohl große Vorteile bringen könnte (und damit überhaupt erst sinnvoll nutzbar macht?)
Und als vor einigen Monaten das Paper zu Neural Texture Compression aufgetaucht ist hieß es, dass das zu teuer auf aktuellen GPUs ist.
Kann natürlich sein, dass man das so weit optimiert hat, dass es sogar auf Turing läuft, aber wie wahrschienlich ist das?
Es wäre natürlich super, wenn das alles Rückwärtskompatibel ist und auch sinnvoll nutzbar ist. Aber aktuell hab ich noch zweifel. Bisher konnte ich nichts offizielles finden.
- 2080 Ti = 120 TFLOPS FP16 / 240 TOPS INT8 + 616 GByte/s
- 3090 = 160 TFLOPS FP16 / 320 TOPS INT8 + 936 GByte/s
- 4090 = 320 TFLOPS FP16 / 640 TOPS INT8 / 640 TFLOPS FP8 + 1008 GByte/s + 72 MByte L2$
- 5090 = 400 TFLOPS FP16 / 800 TOPS INT8 / 800 TFLOPS FP8 + 1790 GByte/s + 96...128 MByte L2$
Wo hast Du diese Werte her? :confused: Ich hab da andere Werte gelesen:
https://www.tomshardware.com/pc-components/gpus/nvidia-geforce-rtx-5090-versus-rtx-4090-how-does-the-new-halo-gpu-compare-with-its-predecessor
Nvidia is betting big on AI with the RTX 50-series, and that's where we see some of the biggest changes. The RTX 4090 has 661 TFLOPS of FP16 tensor compute (with sparsity), and 1321 TOPS (teraops) of INT8 tensor compute (again with sparsity). That's far more than AMD's RX 7900 XTX that only offers 123 TFLOPS / TOPS of FP16 / INT8 compute (without sparsity). But it still pales in comparison to the RTX 5090.
We're not certain on the FP16 figure, but assuming Nvidia follows the same ratios as the prior generation, the RTX 5090 will deliver up to 1676 TFLOPS of tensor FP16 compute, and double that for 3352 TOPS of tensor INT8 compute (both with sparsity). That's a 154% increase (2.54X) in AI computational performance with the new generation. And Nvidia intends to put the AI potential to good use.
Das sieht für AI Anwendungen schon mal gut aus:
RTX 4090 RTX 5090
FP16 661 TFLOPS 1676 TFLOPS
INT8 1321 TOPS 3352 TOPS
Da bin ich mal für die ersten Benchmarks mit PyTorch und Co. gespannt.
Daredevil
2025-01-10, 12:35:50
Ready für GenAI Videos :D
Flux.dev ist lt. NVIDIA ja doppelt so schnell, das klingt sehr vielversprechend.
The_Invisible
2025-01-10, 12:38:29
flux.dev benchmarks gibts von nvidia, doppelt so schnell die 5090: https://www.nvidia.com/de-at/geforce/graphics-cards/50-series/rtx-5090/
Kriegsgeier
2025-01-10, 12:40:23
eigentlich müsste 5090 in manchen Bereichen sogar >2x gegenüber 4090 zulegen.
Auch der Speicher von 32Gb müsste sich zeigen. Auch diese krasse Bandbreite?!
NVIDIA hat das ja nicht umsonst in die 5090 eindesigned
why_me
2025-01-10, 12:40:24
@The_Invisible: Aber auch nur wenn die eine mit FP4 und die andere mit FP8 läuft
- 4090 = 320 TFLOPS FP16 / 640 TOPS INT8 / 640 TFLOPS FP8 + 1008 GByte/s + 72 MByte L2$
- 5090 = 400 TFLOPS FP16 / 800 TOPS INT8 / 800 TFLOPS FP8 + 1790 GByte/s + 96...128 MByte L2$
Ich vermute, dass GB202 weniger L2 hat als AD102. Der starke Beschnitt bei letzterer in der Gaming Version deutet darauf hin, dass der Cache nicht übermächtig ist. Und GB202 hat im Verhältnis zu allen anderen Erweiterungen massiv an Bandbreite gewonnen - ergo braucht man weniger Cache und kann da Transistoren sparen.
Limitieren heutzutage eigentlich noch die ROPs irgendwo? Da nackte Pixeloutput steigt 5090 vs. 4090 ja kaum. Nicht dass das Ding in brute force hi res Raster am Ende nicht mal schneller ist :freak:
dildo4u
2025-01-10, 12:42:44
Na ja, kann ja sein, dass man über DirectX den Grundstein legt. Aber das bestätigt ja nicht, dass es auf allen RTX GPUs läuft.
Ich hab deshalb zweifel, weil Nvidia ja irgendwas sagte von wegen Blackwell würde es erlauben kleine Neuronale Netzte auf Shader Ebene auszuführen, was hier wohl große Vorteile bringen könnte (und damit überhaupt erst sinnvoll nutzbar macht?)
Und als vor einigen Monaten das Paper zu Neural Texture Compression aufgetaucht ist hieß es, dass das zu teuer auf aktuellen GPUs ist.
Kann natürlich sein, dass man das so weit optimiert hat, dass es sogar auf Turing läuft, aber wie wahrschienlich ist das?
Es wäre natürlich super, wenn das alles Rückwärtskompatibel ist und auch sinnvoll nutzbar ist. Aber aktuell hab ich noch zweifel. Bisher konnte ich nichts offizielles finden.
Nicht vergessen du hast Features wie Direct Storage in 2020 gesehen das ganze kann ein Thema für die nächsten Konsolen sein also in 3 Jahren Nvidia hat dann wie bei RT Performance Vorteile.
https://www.techpowerup.com/271705/nvidia-rtx-io-detailed-gpu-assisted-storage-stack-here-to-stay-until-cpu-core-counts-rise?cp=2
Toms Hardware - More GeForce RTX 5090 Founders Edition mysteries revealed: backside of the PCB (https://www.tomshardware.com/pc-components/gpus/more-geforce-rtx-5090-founders-edition-mysteries-revealed-backside-of-the-pcb)
Exxtreme
2025-01-10, 12:50:00
Limitieren heutzutage eigentlich noch die ROPs irgendwo? Da nackte Pixeloutput steigt 5090 vs. 4090 ja kaum. Nicht dass das Ding in brute force hi res Raster am Ende nicht mal schneller ist :freak:
ROPs limitieren immer. Aus dem Grund gibt es ja Upscaling weil das exakt hier ansetzt.
MiamiNice
2025-01-10, 12:50:10
Das sieht krank und verkehrt aus.
Und irgendwie nach Geiz ist geil.
https://s20.directupload.net/images/250110/oszwobuj.webp (https://www.directupload.eu)
Kriegsgeier
2025-01-10, 12:52:53
man müsste also zwangsläufig auch die Rückseite mit einem WaKü Block kühlen, da da so viel von der Stromversorgung sitzt.
Also, die FE ist für mich eindeutig ausgeschlossen
Toms Hardware liefert auch noch
RTX 5080 laptop GPU OpenCL score surpasses RTX 4090 laptop GPU and RX 7900 XTX — mobile Blackwell GPU nearly catches the RTX 3080 Ti (https://www.tomshardware.com/pc-components/gpus/rtx-5080-laptop-gpu-opencl-score-surpasses-rtx-4090-laptop-gpu-and-rx-7900-xtx-mobile-blackwell-gpu-nearly-catches-the-rtx-3080-ti)
Aber auch
Nvidia RTX 5090 laptop GPU undergoes multiple benchmark tests — flagship mobile GPU yields inconsistent results (https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-5090-laptop-gpu-undergoes-multiple-benchmark-tests-flagship-mobile-gpu-yields-inconsistent-results)
basix
2025-01-10, 13:07:17
was mich immer wundert, wie krass NVIDIA die Struktur der Shader von Gen zu Gen umbaut.
Das ist doch verrückt.
Für mich sieht es bei der generellen SM-/Shader-Struktur nach 2x Generationen Takt aus:
- Volta + Turing
- Ampere + Lovelace
- Blackwell + XXX
Bei den Tensor Cores und RT-Cores hat man einen höheren Release-Takt, damit man alle 2 Jahre auf die neuesten ML/AI-Veränderungen reagieren kann.
Was bedeutet eigentlich, dass erst die 40 und 50ger Serien dieses INT8+FP8 abbekommen haben?
Ja, Lovelace hat FP8 auf den Tensor Cores eingeführt. Das konnte Ampere noch nicht. Blackwell führt jetzt neu FP4 und FP6 ein, was Lovelace noch nicht konnte ;)
Wo hast Du diese Werte her? :confused: Ich hab da andere Werte gelesen:
https://www.tomshardware.com/pc-components/gpus/nvidia-geforce-rtx-5090-versus-rtx-4090-how-does-the-new-halo-gpu-compare-with-its-predecessor
Das sieht für AI Anwendungen schon mal gut aus:
RTX 4090 RTX 5090
FP16 661 TFLOPS 1676 TFLOPS
INT8 1321 TOPS 3352 TOPS
Da bin ich mal für die ersten Benchmarks mit PyTorch und Co. gespannt.
Diese Werte sind inkl. Sparsity. Wenn man ein DNN möglichst schnell und kompakt (Speicher) machen will, dann sollte es schon Dense sein wenn das irgendwie geht ;) Dann halbieren sich die Marketing-FLOPS von Ampere, Lovelace und Blackwell.
Die Blackwell Zahlen sind zudem mit FP4/INT4. Das kann man verwenden, weiss aber nicht ob die Genauigkeit dafür ausreicht.
Bist du dir sicher, dass Neural Texture compression und Neural Textures/materials auch auf älteren GPUs laufen wird?
Zumindest in der Keynote hat sich das angehört, als wäre das Blackwell exklusiv.
Falls es das sein sollte: Schlecht für die Adoption und Marktdurchdringung. Aber Blackwell hätte mit FP4 viel mehr Bumms als die alten GPUs. Aber dennoch, eine 4090 hätte mehr FP8 Bumms als eine 5070 mit FP4. Sollte schon irgendwie gehen, aber halt langsamer. Mir wäre lieber es läuft und dafür langsam als dass es gar nicht läuft, weil Nvidia Differenzierungs-Strategie. Wenn es langsam läuft und man es jedem zeigen kann versteht es jeder. Wenn man einfach sagt "es ist langsam" ohne Beweise ist das wie bereits bei FG unbefriedigend. Vor allem für die High-End GPU Besitzer der Vorgänger-Generation welche mehr Rechenleistung aufweisen dürften als die Mitteklasse GPUs der neuen Generation.
Ich vermute, dass GB202 weniger L2 hat als AD102. Der starke Beschnitt bei letzterer in der Gaming Version deutet darauf hin, dass der Cache nicht übermächtig ist. Und GB202 hat im Verhältnis zu allen anderen Erweiterungen massiv an Bandbreite gewonnen - ergo braucht man weniger Cache und kann da Transistoren sparen.
64 MByte wären auch denkbar, ja. Hatte ich auch schon spekuliert, da die Transistomenge verglichen mit AD102 nur moderat ansteigt.
Kriegsgeier
2025-01-10, 13:55:37
Wenn aber der GB202 schon 64 MB hat dann müsste doch der GB203 nur die Hälfte davon haben?
Nicht, dass GB202 eher 128 MB hat damit GB203 64 MB abbekommt.
Der_Korken
2025-01-10, 14:00:25
Das sieht krank und verkehrt aus.
Und irgendwie nach Geiz ist geil.
https://s20.directupload.net/images/250110/oszwobuj.webp (https://www.directupload.eu)
Das sieht nach genialem Engineering aus. Perfektion ist nicht, wenn man nichts mehr hinzufügen kann, sondern wenn man nichts mehr wegnehmen kann.
nordic_pegasus
2025-01-10, 14:12:25
Das sieht nach genialem Engineering aus. Perfektion ist nicht, wenn man nichts mehr hinzufügen kann, sondern wenn man nichts mehr wegnehmen kann.
Nvidia geht mir beim Design der FE Karten zu stark in Richtung Apple. Und das schon seit einigen Generationen.
- neuer Stromstecker, welchen niemand haben wollte (ich will die Diskussion nicht wieder starten)
- bei der 3090 die rückseitigen Speicherchips, welche schlecht gekühlt werden konnten
- die merkwürdigen Schrauben, welche leicht durchdrehen und nur mit Inbus-Bits gelöst werden können (zumindest bei Pascal und Turing)
- unterschiedlich lange Schrauben, welche nach einer Wartung oder Kühlerwechsel (WaKü) zum Problem werden können
- die kurzen PCBs mit verlängerten Stromsteckern
- jetzt die mehrteiligen PCBs mit Flachbandkabeln zum I/O
Als Ingenieur bin ich eher der Vertreter von KISS (Keep Simple and Stupid). Die FE-Karten wurden eher von Architekten entworfen ;-)
MiamiNice
2025-01-10, 14:13:00
Nein, sieht nicht genial aus. Genial ist es auch nicht, wenn man Komponenten so nah zusammen setzt. Alles auf dem Board produziert Hitze. Das sieht aus als würde jemand 5 Cent sparen wollen auf Kosten der Langlebigkeit.
Wenn aber der GB202 schon 64 MB hat dann müsste doch der GB203 nur die Hälfte davon haben?
Nicht, dass GB202 eher 128 MB hat damit GB203 64 MB abbekommt.
Wieso vielleicht haben beide 64 oder 32 MB?
Sumpfmolch
2025-01-10, 14:26:37
Das sieht krank und verkehrt aus.
Und irgendwie nach Geiz ist geil.
https://s20.directupload.net/images/250110/oszwobuj.webp (https://www.directupload.eu)
Innerer Monk sagt nein dazu den Lüftereinlass teilweise abzudecken.
Loeschzwerg
2025-01-10, 14:29:47
Genial ist es auch nicht, wenn man Komponenten so nah zusammen setzt. Alles auf dem Board produziert Hitze.
a) lässt sich die höhere Komponentendichte immer weniger vermeiden (u.a. Signalwege usw.) und b) ist das mit der Hitzeentwicklung auch nur dann ein Problem wenn sich Wärmenester bilden bzw. man die Hitze nicht weg bekommt (und genau das will man ja optimiert haben).
Ein Sparpaket sehe ich bei dem recht komplexen Aufbau auch eher weniger. Ich sehe das entspannt, abseits der allgemein kotzigen Wartbarkeit der FEs.
dargo
2025-01-10, 14:42:40
Das sieht krank und verkehrt aus.
Und irgendwie nach Geiz ist geil.
https://s20.directupload.net/images/250110/oszwobuj.webp (https://www.directupload.eu)
Hmm... das hätte ich jetzt nicht erwartet, dass da ein Teil vom Ansaugweg abgedeckt ist. Dürfte etwas kontraproduktiv sein im Bereich Kühlleistung und Geräuschkulisse.
ROPs limitieren immer. Aus dem Grund gibt es ja Upscaling weil das exakt hier ansetzt.
Na dann... GB202 hat genauso viele GPC und TPCs wie AD102, damit genauso viele ROPs. Bei der 4090 war ein TPC samt seiner 16 ROPs deaktiviert. Wenn man bei der 5090 auch ein GPC deaktiviert (wird aus yield gründen sicher so sinnvoll sein), dann hat man genauso viele ROPs, die langsamer takten.
Mir geht langsam die Düse, da meine 4090 vorhin zu DHL gegangen ist.
>>> ich dachte der Pixel-Output limitiert nicht mehr und das Upscaling ist ehr dafür die, die Shader-/Texel-/RT-last zu reduzieren.
man müsste also zwangsläufig auch die Rückseite mit einem WaKü Block kühlen, da da so viel von der Stromversorgung sitzt.
Also, die FE ist für mich eindeutig ausgeschlossen
Auf der Rückseite befinden sich nur die Kondensatoren, alles andere ist vorne. Die haben auf das kleine Ding 29 SPS gequetscht, das ist völlig krank :freak:. Oben rechts ist Strom, wenn man auf das PCB blickt unten links Display und Gredöns wie Igor immer so schön sagt. Köntakte für die Flachbandkabel des Tochter-PCBs mit den Anschlüssen ist auch auf der Rückseite.
Lawmachine79
2025-01-10, 14:56:19
Das sieht nach genialem Engineering aus. Perfektion ist nicht, wenn man nichts mehr hinzufügen kann, sondern wenn man nichts mehr wegnehmen kann.
"Sie haben die Technologie des Maschinenbaus entdeckt"
Auf der Rückseite befinden sich nur die Kondensatoren, alles andere ist vorne. Die haben auf das kleine Ding 29 SPS gequetscht, das ist völlig krank :freak:. Oben rechts ist Strom, wenn man auf das PCB blickt unten links Display und Gredöns wie Igor immer so schön sagt. Köntakte für das Tochter-PCB mit den Anschlüssen ist auch auf der Rückseite.
Allein wer dieses Layout entwickelt und zum Laufen gebracht hat, hat mehr Gehirnschmalz als der über die Existenzdauer von AMD aufsummierte Gehirnschmalz in der GPU-R&D.
Hakim
2025-01-10, 14:59:30
Oh man, ich frag mich immer noch wie das Ding 575w handeln kann? Mein Gefühl sagt mir deutlich dickere Pipes die auf ein 3 Slot Design mit vielleicht Push/Pull Lüftern (also 4 :) ), wären besser gewesen. Aber lasse mich mal vom Gegenteil überzeugen wenn es so funzt, ohne die Geräusche Kulisse eines Jets.
Thomas Gräf
2025-01-10, 15:07:43
Die Wärmebild Kamera von IgorsLab wird schon im Dreieck hopsen. ;)
The_Invisible
2025-01-10, 15:09:59
Oh man, ich frag mich immer noch wie das Ding 575w handeln kann? Mein Gefühl sagt mir deutlich dickere Pipes die auf ein 3 Slot Design mit vielleicht Push/Pull Lüftern (also 4 :) ), wären besser gewesen. Aber lasse mich mal vom Gegenteil überzeugen wenn es so funzt, ohne die Geräusche Kulisse eines Jets.
Frag mich eher wie oft die GPU überhaupt über 500W kommt, bin schon auf Tests gespannt
Kriegsgeier
2025-01-10, 15:10:06
denkt bitte bei der PCB nicht nur eindimensional: das Teil hat 14 Layer!
Und mindestens 3 davon sind wahrscheinlich Grounds ;)
Quasi als Schirm ;)
davidzo
2025-01-10, 15:14:47
hab das mal korrigiert:
Wo hast Du diese Werte her? :confused: Ich hab da andere Werte gelesen:
Das sieht für AI Anwendungen schon mal gut aus:
RTX 4090 RTX 5090
FP16 661 TFLOPS nicht 1676 838 TFLOPS
INT8 1321 TOPS nicht 3352 1676 TOPS
Da bin ich mal für die ersten Benchmarks mit PyTorch und Co. gespannt.
Für AI tinkerer ist die 5090 imo nicht attraktiver als die 4090 oder gebrauchte 3090s. 32gb reichen immer noch nicht für die größeren Modelle und wenn man Modelle trainiert macht es eher Sinn sich eine Trillium Instanz zu mieten und wenn man lokales Inferencing machen will lohnt es sich wohl eher auf den Mini-PC mit GB10 zu warten wegen der VRAM Größe und DGX-OS.
Ohne Sparsity ist das nochmal die Hälfte, also 419tops FP16 und 838 Int8.
Mi300 kann natürlich auch sparsity, dann 5,3 Pflops int8 und 2pflops fp16. Aber keiner gibt sonst die sparsity zahlen als reale Leistung an. Wenn das die Leistung ohne sparsity wäre, käme es auch zu einem absurden mismatch aus Compute zu Bandbreite.
Das Upgrade gegenüber GA102 hält sich also in Grenzen. 26% mehr Rohleistung bei gleicher Genauigkeit +neuer FP4 support.
Reinrassige AI Chips sind da nochmal effizienter. Inferencing mag mit 4bit massiv schneller sein, aber so wenig Präzision reicht nur für weniger kritische Modelle. Insbesondere für Training taugt das nicht weil man da eigentlich mindestens 32bit Genauigkeit braucht, bzw minimal 8bit Exponenten wie bei BF16.
Google TPUv6 ist auch ein TSMC N4 Chip ähnlicher Größenordnung, erreicht aber 926Tflops in BFLOAT16. Das ist das google-eigene Brain Float Format mit einem 8bit Exponenten. Am ehesten vergleichbar ist das wohl mit nvidias BF16 + TF32 Accumulate, wo die 5090 aber nur 210/419Tflops abliefert (4090 165/330).
Der Google Chip ist nicht nur viel effizienter, er hat auch eine gehörige Menge an networking mit an bord um 256chips per Pod zusammen zu schließen.
Also B100/200 und Googles TPUs sind halt weiterhin in einer anderen Liga, auch Architekturell. Ich betrachte nvidias Ankündigung dass die GPU jetzt ein AI chip ist mit der gleiche Arch wie Server-Blackwell als nicht ganz Wahrheitsgemäß.
Als Ingenieur bin ich eher der Vertreter von KISS (Keep Simple and Stupid). Die FE-Karten wurden eher von Architekten entworfen ;-)
Ich kann mir schon erklären woher das kommt. Nvidia hat vor Jahren schon mit SXM Modulen angefangen und da ist halt viel mehr Leistung und Kühlung in einem kleineren Format möglich. Elektrisch, thermisch und physisch / vom Volumen sind SXM Module weit überlegen, lassen sich doch 700Watt mit vertretbarem Aufwand kühlen in einem kleineren Bauraum als eine 4090. Da kann man den physischen PCIeslot schon als deprecated Technologie ansehen.
Gewissermaßen ist der neue Kühler auch einfacher als die alten. Die X-förmigen Kühler mit den zig verschiedenen gestanzten und aufwändig verlöteten Kühlern und dem merkwürdigen Airflow mit mehreren Totzonen und Lamellen die rein optisch sind und kaum durchströmt, waren sicher nicht billig. Da sieht mir der neue Kühler sogar günstiger aus und cleaner designt.
Vermutlich hat man die gleichen Ingenieure welche die 700Watt SXM Module designt haben auch mal an die Desktop Karten heran gelassen und am Ende haben trotzdem die Designer nochmal eine Blende gemäß RTX branding mit dem X-förmigen satinierten Alurahmen drüber geschmissen.
Kriegsgeier
2025-01-10, 15:22:35
ok, interessant. Also ist GB202 kein AI-Chip - das beruhigt ein wenig. Dachte schon, dass uns die KI-Ingenieure alle RTX 5090 wegkaufen.
Allein wer dieses Layout entwickelt und zum Laufen gebracht hat, hat mehr Gehirnschmalz als der über die Existenzdauer von AMD aufsummierte Gehirnschmalz in der GPU-R&D.
Muahahha... fies aber gut.
Ich find das kleine PCB nice. Wie auch das RTX4090 PCB. Aber diesmal wirds wohl an der Wakü Möglichkeit scheitern.
mironicus
2025-01-10, 15:24:42
NVidia hat die Physik besiegt mit dem neuen Referenz-Design! :eek:
Kriegsgeier
2025-01-10, 15:26:46
Spulen"singen" wird sich auf jeden Fall wesentlich von den anderen Designs unterscheiden. Die Frage ist jetzt ob besser oder schlechter.
Denn, bei der brachialen Leistung wird jedes ältere Spiel Wahnsinns Spulensingen verursachen
Das ist ja nicht referenz. Da referenze PCBs dienen den Boardpartnern als Ausgangspunkt und wird klassisch sein. NVidia benutzt quasi für die eigenen Karten nicht das Referenzdesign ;)
The_Invisible
2025-01-10, 15:42:27
der8auer über die 5090FE + Design
WMxCqAYDNMM
Loeschzwerg
2025-01-10, 15:46:47
Aber diesmal wirds wohl an der Wakü Möglichkeit scheitern.
Wobei ich nicht wüsste warum. Statt dem PCB muss halt jetzt das ganze Wakü-Element als Träger fungieren.
lilgefo~
2025-01-10, 15:51:54
"Sie haben die Technologie des Maschinenbaus entdeckt"
Allein wer dieses Layout entwickelt und zum Laufen gebracht hat, hat mehr Gehirnschmalz als der über die Existenzdauer von AMD aufsummierte Gehirnschmalz in der GPU-R&D.
Jetzt wollmer mal aufm Teppich bleibe ge. Mit Radeon gabs DX9 (inkl. flüssiger FPS) & Tesselation zuerst während nV mit AF Flimmerfiltern, schlechter FPS und Föngeräuschen aufwartete. Kühlung ist scho gut aber auch nur der Notwendigkeit her geboren. Des hätt ATi genauso gebracht. Die FE Kühlung ist sehr gut für die GPU belastet aber halt den Rest des Systems massiv sofern man auf LuKü setzt.
00-Schneider
2025-01-10, 15:53:06
der8auer über die 5090
Er geht von 20-30% Mehrleistung von 5090 ggü. 4090 aus.
nordic_pegasus
2025-01-10, 16:04:13
Er geht von 20-30% Mehrleistung von 5090 ggü. 4090 aus.
das liest er wie alle anderen aus den Slides von Nvidia und der Leistung in Far Cry 6. Das wird wohl auch passen für die bereinigte Rohleistung. Was auch zum Anstieg der Shader passt. Das würde aber bedeuten, dass pro Shader kaum Fortschritt existiert. Und die Mehrleistung 1:1 mit Mehrverbrauch einhergeht (450 zu 575 Watt).
Die Frage ist halt, ob direkt vom Start an DLSS4 mit MFG so einschlägt, das selbst die Enthusiasten mit haluzinierten Frames zocken und die "wahre" Rohleistung bald niemand mehr juckt.
Thomas Gräf
2025-01-10, 16:11:28
DLSS4 und MFG könnten beim Spazierenfliegen in MSFS passen.
Aber in Racesims oder Dogfights a'la DCS wird sowas in die Hose gehen.
aufkrawall
2025-01-10, 16:16:41
Bist du früher ohne Reflex immer vor einen Baum gefahren? Glaub ich eher nicht.
Thomas Gräf
2025-01-10, 16:19:26
Bist du früher ohne Reflex immer vor einen Baum gefahren? Glaub ich eher nicht.
Es wird ja knallharte Vergleiche geben in der Racesim Szene.
Ein zehntel pro Anbremszone zuviel reicht...
aufkrawall
2025-01-10, 16:24:12
Ich gehe davon aus, dass der Lag am Mouse Look massiv offensichtlicher als störend zu bemerken ist. Von daher würd ich da echt keine Probleme bei allem erwarten, was realistisch fährt/fliegt und wo man nicht mit der Maus irgendwas schalten muss. Halt mit den üblichen Einschränkungen für ausreichend hohe Basis-fps.
Thomas Gräf
2025-01-10, 16:25:44
Naja in iRacing fahren die nicht mit'ner Maus ;)
Unde die Amis werden das alles bis aufs letzte ausprobieren.
Denn die TripleScreens und VR brauchen Power.
MiamiNice
2025-01-10, 16:38:08
Allein wer dieses Layout entwickelt und zum Laufen gebracht hat, hat mehr Gehirnschmalz als der über die Existenzdauer von AMD aufsummierte Gehirnschmalz in der GPU-R&D.
Ich würde meinen, dies hat kein Mensch gemacht. Weiß hier jemand mehr, wie bei NV das Platinenlayout generiert wird? KI Tools?
der8auer über die 5090FE + Design
https://youtu.be/WMxCqAYDNMM
Ich freue mich auf das OC und wahrscheinlich Volt Mod Video von ihm.
Ich würde meinen, dies hat kein Mensch gemacht. Weiß hier jemand mehr, wie bei NV das Platinenlayout generiert wird? KI?
Yep. Auch hier gilt, dass man ein paar Brocken hinschmeißt und der Rest via KI generiert wird. Man sieht im Falle des Blackwell-PCBs allerdings, dass die KI nicht alles rekonstruieren kann ... ;D
MfG
Raff
The_Invisible
2025-01-10, 16:40:39
Laut der8auer scheinen ja schon die Kühlfinnen extrem aufwendig zu sein. Hört sich nicht wirklich nach einem "Spar-Design" an
Ravenhearth
2025-01-10, 16:42:15
das liest er wie alle anderen aus den Slides von Nvidia und der Leistung in Far Cry 6. Das wird wohl auch passen für die bereinigte Rohleistung. Was auch zum Anstieg der Shader passt. Das würde aber bedeuten, dass pro Shader kaum Fortschritt existiert. Und die Mehrleistung 1:1 mit Mehrverbrauch einhergeht (450 zu 575 Watt).
Far Cry 6 hängt wahrscheinlich an der CPU, bei Plague Tale sinds +43%. Also +30-40% halte ich für realistischer.
OgrEGT
2025-01-10, 16:48:57
Das sieht krank und verkehrt aus.
Und irgendwie nach Geiz ist geil.
https://s20.directupload.net/images/250110/oszwobuj.webp (https://www.directupload.eu)
Also wenn das so ausschaut, dann käme da oben drauf der Kühlkörper mit den Heatpipes? Das hieße ja dann nach Einbau der KArte, dass der Luftstrom der Lüfter nach unten geht...?
nordic_pegasus
2025-01-10, 17:01:39
es drücken beide Lüfter die Luft nach "oben" bei normaler Einbaulage im PC. Damit wird der aber Lüfter näher zu den Video-Ausgängen die Luft rausdrücken, wo bei aktuellen Mainboards der M.2 Kühler und die VRM-Kühler sind. Selbst wenn dies nicht die FE-Karte negativ beeinflusst, würde ich mir wünschen, wenn in den Reviews die Temperaturen der VRMs vom Mainboard und der SSD einmal überprüft würde.
Sardaukar.nsn
2025-01-10, 17:02:29
Far Cry 6 hängt wahrscheinlich an der CPU, bei Plague Tale sinds +43%. Also +30-40% halte ich für realistischer.
3Dmark Speed Way (RT) sind es +34%. Aber so grob in der Richtung könnte hin kommen.
Der große Zauber kommt dann mit Einsatz von DLSS. Über die Verbreitung mache ich mir inzwischen aber wenig Sorgen: https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ray-tracing-rtx-games/
@nordic_pegasus: Das Design wird auch nur ordentlich funktionieren wenn die Karte von unten mit Frischluft angeströmt wird. Also Gehäuse wie Fractal Design Torrent mit 2-3 Lüftern im Boden.
x-force
2025-01-10, 17:05:20
das effizenteste kühlsystem in einem tower leitet die luft von unten über 2-3 14er noch oben und über ebenfalls 2-3 14er raus.
daher ist es kein wunder, dass nv nun endlich so baut. damit das halbwegs kompakt ist, ist das kleine board notwendig.
jetzt wirds nur noch zeit, dass die cpu kühler hersteller das endlich schnallen und den block um 90° drehen und nach oben blasen lassen.
mit dem konzept liegt das ram auch automatisch im luftstrom
basix
2025-01-10, 17:05:57
Yep. Auch hier gilt, dass man ein paar Brocken hinschmeißt und der Rest via KI generiert wird. Man sieht im Falle des Blackwell-PCBs allerdings, dass die KI nicht alles rekonstruieren kann ... ;D
Nicht rekonstruieren aber effektiv konstruieren ;) Ich arbeite selbst im Engineering und da sind ML/AI-Helfer bei Design und Simulation auf dem Vormarsch ;)
- Nvidia ChipNemo für Chipdesign
- CFD Simulation für Kühler und Kühlung
- Thermische Simulationen für Bauteile usw.
- Elektrische & EMV Simulationen auf PCB-Level
- Software und Code schreiben
- ...
Also in der Designphase wird KI also auch immer wichtiger ;) Nur die effektive Fertigung, der Zusammenbau und die Auslieferung an den Kunden ist garantiert "nicht KI", das kann man anfassen :D
dargo
2025-01-10, 17:20:04
Yep. Auch hier gilt, dass man ein paar Brocken hinschmeißt und der Rest via KI generiert wird. Man sieht im Falle des Blackwell-PCBs allerdings, dass die KI nicht alles rekonstruieren kann ... ;D
Ich mag deinen Humor. :D
MiamiNice
2025-01-10, 17:28:51
Also wenn das so ausschaut, dann käme da oben drauf der Kühlkörper mit den Heatpipes? Das hieße ja dann nach Einbau der KArte, dass der Luftstrom der Lüfter nach unten geht...?
Der Kühler kommt oben drauf und die Lüfter ziehen die Luft durch die Finnen. Die Finnen liegen hinterher unten, d.h. der Kühler zieht von unten und pustet nach oben in die CPU Abteilung und die Luft verschwindet über die oberen und dem hinterem Lüfter im Gehäuse. Das was auf dem Bild oben ist, zeigt hinterher nach unten. An der Slotblende kann man sich gut orientieren.
PS: Lüfter haben auf einer Seite meist den Typenkleber in der Mitte auf der anderen Seite sind sie clean. Die Luft wird immer auf der cleanen Seite angezogen und auf der anderen ausgestoßen.
Schnitzl
2025-01-10, 17:38:25
3Dmark Speed Way (RT) sind es +34%. Aber so grob in der Richtung könnte hin kommen.
Der große Zauber kommt dann mit Einsatz von DLSS. Über die Verbreitung mache ich mir inzwischen aber wenig Sorgen: https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ray-tracing-rtx-games/
Sehr schön, 75 Spiele die bereits DLSS4 haben :)
Viel geiler :D find ich den Satz:
For games that haven’t updated yet to the latest DLSS models and features, NVIDIA app will enable support through a new DLSS Override feature.
verstehe ich das richtig, man kann quasi selbst "upgraden" von z.B. DLSS3 auf 4?
wolik
2025-01-10, 17:59:40
Laut der8auer scheinen ja schon die Kühlfinnen extrem aufwendig zu sein. Hört sich nicht wirklich nach einem "Spar-Design" an
Es gibt doch schon "lange" Video, die das gut aufklärt.
Es wird auch erklärt, warum die 5090 ein paar Schlitze oben hat.
https://www.youtube.com/watch?v=4WMwRlTdaZw&t=6s
4WMwRlTdaZw?si=pC1pMfJCKKTgI8WO
Kriegsgeier
2025-01-10, 18:43:53
Ein zusätzlicher Spoiler aus Luftstrom der den Hauptluftstrom im Zaum hält!
Sardaukar.nsn
2025-01-10, 19:25:47
verstehe ich das richtig, man kann quasi selbst "upgraden" von z.B. DLSS3 auf 4?
Das wäre schön. Aber ich denke das meint nur das updaten der DLSS .dll auf den jeweils neuesten Stand. Aber da gibt ja je nach Version schon enorme Fortschritte.
Zudem kommt DLSS4 ja auch direkt in Unreal Engine 5.0 und andere große Engines, daher wird sich das fix etablieren.
basix
2025-01-10, 19:31:42
verstehe ich das richtig, man kann quasi selbst "upgraden" von z.B. DLSS3 auf 4?
Ich nehme an via DLSS DLL Austausch. Kann man mit DLSS2/3 ja bereits sehr lange selber machen ("DLSS Swapper" nennt sich das Tool, oder halt von Hand). Nun anscheinend direkt via Treiber, finde ich gut.
Loeschzwerg
2025-01-10, 19:53:13
Nochmal zum Thema Wasserkühlung der 5090 (und auch 5080):
https://www.hardwareluxx.de/index.php/news/hardware/wasserkuehlung/65255-mg-wasserkuehler-fuer-rtx-5080-5090-alphacool-core-starten-zusammen-mit-den-grafikkarten.html
FE Modelle werden unterstützt, also keine Panik wegen des dreigeteilten PCBs der 5090 ;) Edit: Oder auch nicht, wenn es nach den Kommentaren geht. Hm...
Schnitzl
2025-01-10, 20:06:37
Ich nehme an via DLSS DLL Austausch. Kann man mit DLSS2/3 ja bereits sehr lange selber machen ("DLSS Swapper" nennt sich das Tool, oder halt von Hand). Nun anscheinend direkt via Treiber, finde ich gut.
danke :up:
ich auch :D
vor allem DLSS4 gefällt mir, bzw. die Verbesserungen zum Vorgänger
Thomas Gräf
2025-01-10, 20:17:24
Aha diesmal ist AC vorab gut aufgestellt, bei den Bordherstellern im Boot und alles vorab von nV abgesegnet.
Was will man mehr.
Übrigends haben sich die Herren vom Lux auch schon aufgestellt.
Immerwieder der König aller Threads...
https://www.hardwareluxx.de/community/threads/nvidia-blackwell-50xx-wasserkühler.1362662/
basix
2025-01-10, 20:34:04
vor allem DLSS4 gefällt mir, bzw. die Verbesserungen zum Vorgänger
Mir gefällt das Update von DLSS4 irgendwie auch mehr als die neuen GPUs :freak: Der Mehrwert scheint von dem was ich sehe grösser zu sein und kostet mich gleichzeitig nichts ;)
Aber ich kenne mich: Die 5090 bezirzt mich bereits...
OgrEGT
2025-01-10, 20:48:16
Der Kühler kommt oben drauf und die Lüfter ziehen die Luft durch die Finnen. Die Finnen liegen hinterher unten, d.h. der Kühler zieht von unten und pustet nach oben in die CPU Abteilung und die Luft verschwindet über die oberen und dem hinterem Lüfter im Gehäuse. Das was auf dem Bild oben ist, zeigt hinterher nach unten. An der Slotblende kann man sich gut orientieren.
PS: Lüfter haben auf einer Seite meist den Typenkleber in der Mitte auf der anderen Seite sind sie clean. Die Luft wird immer auf der cleanen Seite angezogen und auf der anderen ausgestoßen.
Luft durchziehen kann aber doch nicht so effizient sein wie durchblasen oder?
Für mich sind hier Kühler und Lüfter falsch rum... die Lüfter liegen unter dem PCB also eher auf der Rückseite des PCBs... so wie die Karte abgebildet ist müsste das PCB unter den Lüftern auf Höhe des PCIe Anschluss liegen...
dargo
2025-01-10, 21:03:25
Braucht man dafür schon einen Waffenschein? :D
https://www2.pic-upload.de/thumb/37457203/GB.jpg (https://www.pic-upload.de/view-37457203/GB.jpg.html)
Joies
2025-01-10, 21:08:08
Luft durchziehen kann aber doch nicht so effizient sein wie durchblasen oder?
Ziehen hat einen minimal besseren Kühleffekt.
Sardaukar.nsn
2025-01-10, 21:38:12
Ziehen hat einen minimal besseren Kühleffekt.
Trotzdem hast du immernoch deine 575 Watt Abwärme in deinem Brutkasten Gehäuse.
davidzo
2025-01-10, 21:39:53
Luft durchziehen kann aber doch nicht so effizient sein wie durchblasen oder?
Für mich sind hier Kühler und Lüfter falsch rum... die Lüfter liegen unter dem PCB also eher auf der Rückseite des PCBs... so wie die Karte abgebildet ist müsste das PCB unter den Lüftern auf Höhe des PCIe Anschluss liegen...
Ziehen hat einen minimal besseren Kühleffekt.
Weder noch. Ist theoretisch zwar beides gleich, aber praktisch ist blasend meist besser. Wenn ein laminarer Luftstrom durch die Lamellen zieht ist der Wärmetransfer abhängig von der Gleitschicht an der Lamellenoberfläche. Und die Dicke dieser Isolationsschicht aus Luft ist bei laminarem Fluss direkt von der Luftgeschwindigkeit abhängig. Also wieviel der Lüfter fördert. Theoretisch ist dabei egal ob sich der Lüfter davor oder danach befindet.
Praktisch aber nicht wirklich, denn Lüfter sind kein einfacher Luftstrom.
Axiallüfter haben auf der saugenden Seite weniger Verwirbelungen und saugen gleichmäßiger aus allen Richtungen an. Das heißt der Luftdurchsatz ist beim Saugen höher. Bei Wasserkühlungen hat man sich das früher viel zu nutzen gemacht, insbesondere bei sehr tiefen Radiatoren mit geringem Lamellenabstand.
Moderne Waküs verwenden aber auch blasende Lüfter weil sie meist dünner sind und einen größeren Lamellenabstand haben.
Blasend erzeugen Axiallüfter einen viel schmaleren Abstrahlwinkel mit starkem Drall, was einen turbulenten Airflow resultiert. Die Turbulenzen sorgen für eine viel bessere Gleitschichtablösung als laminarer Flow. Obwohl Turbulenzen also für Druckverlust sorgen und damit weniger Durchsatz bringen, sind blasende Lüfter auf Kühlkörpern in der Regel zu bevorzugen weil sie einen besseren Wärmeübergang durch dünnere Gleitschichten erzeugen. Die reiben quasi die Gleitschicht ab und das macht einen großen Unterschied.
Joies
2025-01-10, 22:10:05
Trotzdem hast du immernoch deine 575 Watt Abwärme in deinem Brutkasten Gehäuse.
Zumindest nicht bei mir :biggrin:
https://cdn.discordapp.com/attachments/1248266512759001180/1327379347862196264/IMG_5913.png?ex=6782d9da&is=6781885a&hm=c8e569edc8391f0bc477157db8e0fb7e782d36b68e7af7ccdbdc7a571bfbc5da&
Weder noch. Ist theoretisch zwar beides gleich, aber praktisch ist blasend meist besser.
Vor 10-15 Jahren dazu einen praktischen test mir angeschaut, da wurde auf einem Mora ziehen/blasen und beidseitig bestückt (ziehen und blasen gleichzeitig) getestet.
Mit dem Ergebniss das ziehen ticken besser war(beidseitig war natürlich am besten) als blasen und seitdem versuche ich wo es geht mit ziehen zu verbauen.
Altehardware
2025-01-10, 22:22:17
Einer schrieb das die gpc und sich nicht ändern das stimmt nicht
ad102 hat 12gpc a 12sm das sind 6 render engines
bei blackwell sind es 12gpc a18sm also 6 render engines der Grund ist klar und ist in nvidia auto sheduler für multithread zu suchen
Dieser kann nur bis 6 Renderengines drawcalls aufteilen mehr geht schlicht nicht weswegen ein hign end chip nie ausgelastet werden kann sofern die cpu es nicht schafft in singlecore das zu bringen.
Daher sind kleinere chips eher auslastbar als die großen
So wie ich ein ad104 (drei render engines 2 aktiv) habe wird maximal der gb205 mit aktuellen cpu auslastbar werden
Das sind in auf 2160p mit glück bis 70tf (Annahme vom 9800x3d auf 5,4ghz oc)
Es ist kein Wunder warum nvidia so auf ai pocht da man massiv im cpu limit rennt. Das kann nur amd oder intel mit neuen cpu arch lösen amd hat noch mit zen 6 min 15% perf. Vorteil und vermutlich durch Anpassung des I/O DIE bis zu 30% perf. bringen wird
Intel hat bis 2027 nix nova lake wird ein Aufguss von arrow lake auch mit neuen i/o DIE was die perf. auf zen5 level bringt. +15%
derzeit amd 346 cb15 intel 320 cb15
Die erste cpu gen die wirklich ne rtx5090 auslasten kann ist zen7 +- 2027 +50% die rtx4090 ist knapp ausgelastet in 2160p mit dem 9800x3d
Wird die rtx5090 schneller sein als die rtx4090 trotz potenzieller cpu limits? Klares ja, das liegt an den kürzeren Latenzen und an dem in hardware verbauten dlss
Eventuell hat es nvidia geschafft das die drawcalls an die cpu zu verringern. Das aber würde alle gpu bis zu rtx20 profitieren da es eine software Lösung wäre.
Aktuell Schafft es nur pahtracing ne rtx4090 auszulasten das wird auch das sein wo ne rtx5090 merklich schneller wird. auf 2160p da auch mehr rop verbaut sind 12gpc a 24rop =288 voll vermutlich aber 10 aktiv = 240
das alleine schafft bei dxr dann 59fps vs 75fps = +27% in native render.
mehr erwarte ich nicht die alu sind größtenteils ohne Arbeit was oft in cpu limits resultiert
Darum ist der in hardware angewendete dlss entscheidend den dann sind es nicht 8 gpixel sondern nur 2-4 gpixel
Das entspricht nicht dem dlss Skalen daher wird der vergleich auch so schwer werden.
Sardaukar.nsn
2025-01-10, 22:29:23
Zumindest nicht bei mir :biggrin:
https://cdn.discordapp.com/attachments/1248266512759001180/1327379347862196264/IMG_5913.png?ex=6782d9da&is=6781885a&hm=c8e569edc8391f0bc477157db8e0fb7e782d36b68e7af7ccdbdc7a571bfbc5da&.
Richtig so! Ich hab mit Thema Abwärme und Lautstärke auch schon seit Jahren keinen Stress mehr. Siehe Link in der Signatur :wink:
davidzo
2025-01-10, 22:42:15
Vor 10-15 Jahren dazu einen praktischen test mir angeschaut, da wurde auf einem Mora ziehen/blasen und beidseitig bestückt (ziehen und blasen gleichzeitig) getestet.
Mit dem Ergebniss das ziehen ticken besser war(beidseitig war natürlich am besten) als blasen und seitdem versuche ich wo es geht mit ziehen zu verbauen.
Genau den Effekt bei dicken Radiatoren habe ich ja beschrieben.
Bei 99% aller Luftkühler und mittlerweile 70-80% der Radiatoren ist blasen aber besser.
Btw, sie 5070, 5080 und 5090 FE sind Konsolen Grafikkarten.
:ulol3:
Begründung: https://www.reddit.com/r/sffpc/comments/1hy8kek/case_manufacturers_i_begging_you/
:freak:;D
Thomas Gräf
2025-01-10, 23:07:59
Ich sach Euch, die 6090 wird als Mainbord verkauft.
Den Ryzen kannste dann da drauf stecken, den versorgt die Graka mit.
Relex
2025-01-10, 23:18:09
Kleines Spekulatius Schmankerl zum Wochenende :)
Ich hab mal die Frames im Digital Foundry Video nachgezählt
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13682114
OgrEGT
2025-01-11, 06:24:18
Luft durchziehen kann aber doch nicht so effizient sein wie durchblasen oder?
Für mich sind hier Kühler und Lüfter falsch rum... die Lüfter liegen unter dem PCB also eher auf der Rückseite des PCBs... so wie die Karte abgebildet ist müsste das PCB unter den Lüftern auf Höhe des PCIe Anschluss liegen...
Ich glaube die Abbildung zeigt eine fertige Karte auf die man zur Anschauung nochmal ein weiteres PCB darauf gelegt hat um zu verdeutlichen wie dieses angeordnet ist... das Bild das auf der CES gezeigt wurde zeigt die korrekte Anordnung bei der wie üblich Luft von unten durch die Kühlrippen geblasen wird...
wolik
2025-01-11, 09:57:05
Kleines Spekulatius Schmankerl zum Wochenende :)
Ich hab mal die Frames im Digital Foundry Video nachgezählt
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13682114
Fazit?
Heimscheißer
2025-01-11, 10:17:24
Fazit?
Na für mich zb, der FG wegen des (für mich) ekelhaften Spielgefühls absolut vermeidet, hat sich ein Upgrade von der 4080S zur 5080 damit absolut erledigt. Hätte mir mehr "rohe" Power gewünscht und da abgesehen von MFG ja alle anderen Software Upgrades auch meine 4080S betreffen bin ich zb eigtl zufrieden mal ne Generation auszusetzen🥂😂
Für FG Nutzer natürlich n super Sprung auf MFG👍 aber für mich halt ein NoGo
Catrovacer
2025-01-11, 10:22:41
Ich befürchte das ist halb offtopic, aber einen Vertical GPU Mount mit PCIE 5.0 hat noch kein namhafter Hersteller angekündigt, oder? Weil wenn ich schon eine RTX 5090 verbaue, möchte ich die auch mit maximaler Geschwindigkeit anschließen können ...
Troyan
2025-01-11, 10:26:42
Na für mich zb, der FG wegen des (für mich) ekelhaften Spielgefühls absolut vermeidet, hat sich ein Upgrade von der 4080S zur 5080 damit absolut erledigt. Hätte mir mehr "rohe" Power gewünscht und da abgesehen von MFG ja alle anderen Software Upgrades auch meine 4080S betreffen bin ich zb eigtl zufrieden mal ne Generation auszusetzen🥂😂
Für FG Nutzer natürlich n super Sprung auf MFG👍 aber für mich halt ein NoGo
Dann spielst du mit Reflex? Was macht du bei Games, wo es kein Reflex gibt? Boykottieren?
Sardaukar.nsn
2025-01-11, 10:30:55
Ich befürchte das ist halb offtopic, aber einen Vertical GPU Mount mit PCIE 5.0 hat noch kein namhafter Hersteller angekündigt, oder? Weil wenn ich schon eine RTX 5090 verbaue, möchte ich die auch mit maximaler Geschwindigkeit anschließen können ...
Da würde ich mir keine Sorgen machen. PCIE 4.0 wird schnell genug sein und wohl keine Einbußen liefern. Meine 4090 hat sogar mit einem 3.0 Riser die volle Leistung in Benchmarks geliefert.
Erste Benchmarks werden da aber Klarheit schaffen.
BlacKi
2025-01-11, 10:31:35
Ich befürchte das ist halb offtopic, aber einen Vertical GPU Mount mit PCIE 5.0 hat noch kein namhafter Hersteller angekündigt, oder? Weil wenn ich schon eine RTX 5090 verbaue, möchte ich die auch mit maximaler Geschwindigkeit anschließen können ...
es hat bei pcie 4.0 schon lange gedauert, was qualitativ hochwertiges zu bekommen. 2-3 jahre nach den ersten karten. bei pcie 5.0 wird es sicher nicht einfacher werden. ich war eine zeitlang der meinung, pcie 5.0 riser könnte es nie geben, da die pcie specs keine distanzen über 150mm möglich macht und zwar von der cpu aus. aber ich halte meine meinung da offen.
zum glück, wird der pcie 5.0 effekt sehr klein ausfallen, selbst mit der 5090. daher wird das am anfang noch kein thema sein. viele betreiben auch eine 3090 mit pcie3.0 komplett ohne schmerzen, obwohl ich das für kritischer halte.
aber wenn du ein feature complete typ bist, dann ist das sowieso essig darüber zu reden.
Kriegsgeier
2025-01-11, 10:33:44
Ich befürchte das ist halb offtopic, aber einen Vertical GPU Mount mit PCIE 5.0 hat noch kein namhafter Hersteller angekündigt, oder? Weil wenn ich schon eine RTX 5090 verbaue, möchte ich die auch mit maximaler Geschwindigkeit anschließen können ...
Ob PCI-Express 4.0 oder 5.0 ist völlig egal bei den 32GB GDDR7 RAM auf dem Board der 5090!
Man braucht keine erhöhte Bandbreite zwischen der CPU/RAM und der Grafikkarte. Also kannst du locker bei 4.0 bleiben.
Kriegsgeier
2025-01-11, 10:37:08
...viele betreiben auch eine 3090 mit pcie3.0 komplett ohne schmerzen, obwohl ich das für kritischer halte.
völlig unbegründet und vor Allem messtechnisch nicht festzustellen, das hier irgendeiner Flaschenhals wäre.
Man schaufelt keine großen Daten über PCI-Xpress Slot!
Wenn das so wäre würde die Graka nie so schnell rechnen können.
Ob PCI-Express 3.0, 4.0 oder 5.0 - für die GraKas mit sehr viel VRAM ist das völlig egal!
Thunder99
2025-01-11, 11:59:29
Ob PCI-Express 4.0 oder 5.0 ist völlig egal bei den 32GB GDDR7 RAM auf dem Board der 5090!
Man braucht keine erhöhte Bandbreite zwischen der CPU/RAM und der Grafikkarte. Also kannst du locker bei 4.0 bleiben.
Gilt diese Aussage auch für PCE-E 5.0 x8 (elektrisch)?
Wenn es nur 4.0 x8 wäre würde das schon ein Risiko sein bei manchen Sachen das die Karte ausgebremst wird. Ggf kommt es nie vor, da es zu extreme Sachen wäre :D
Es wird wohl so sein, wer Ada hat braucht BW nicht, sofern die VRAM Menge bei Ada gut ist (also wenn man das richtige Modell gewählt hatte :D)
The_Invisible
2025-01-11, 12:39:29
Naja ein paar % macht's schon aus, mein innerer Schweinehund würde nicht klar kommen wenn die Grafikkarte in einem niederen Modus läuft :freak:
Jetzt wird Blackwell auch für Content Creators interessant
slashcam Endlich in Hardware - Nvidia RTX 50 Serie schließt Lücke zu Apple: 10-Bit 4:2:2 Hardware-Decoding für Windows (https://www.slashcam.de/news/single/Nvidia-RTX-50-Serie-schliesst-Luecke-zu-Apple--10-Bi-19036.html)
Nvidia bringt mit der neuen Geforce GPU RTX 50 Serie jetzt echtes 10 Bit 4:2:2 Decoding in Hardware!
Nvidia spricht übrigens in diesem Zusammenhang vom „4:2:2-Profi-Farbformat“ (Pro-Grade 4:2:2 Color). Bereits eine Hardware-Decoding-Einheit der neuesten, sechsten Generation soll nun bis zu acht 4K-Streams mit 60 fps decodieren können. Zudem sollen die RTX 5090 und die RTX 5080 gleich mit zwei Decodern ausgestattet sein. Die RTX 5070 (und auch das TI-Modell) werden dagegen nur mit einer Decoding-Einheit ausgeliefert.
Und auch die Encoder-Einheiten wurden weiter aufgebohrt. Die RTX 5090 erhält nun sogar drei an der Zahl, die RTX 5080 sowie die RTX 5070 Ti noch zwei und nur die bislang günstigste RTX 5070 (ohne Ti) wird über einen einzigen Encoder verfügen.
Damit ich bei der 5090 das Desaster von 2022 vermeide (Asus TUF wie Asus ROG waren beide zu groß für mein Coolermaster HAF X, Festplattenkäfig stört), ist heute mein neues Coolermaster HAF 700 und ein neues Netzteil Corsair HX1000i angekommen. Damit ist auf den Spielerechner erst mal Bastelstunde angesagt. Dann habe ich quasi bis auf die Datenträger wieder in einen komplett neuen Rechner mit 9800X3D + Mainboard + neues RAM investiert. :freak:
Ich muß ja meinem Ruf hier gerecht werden, daß ich wieder der erste bin, der die GPU zuerst hat. :cool:
4090, man möge sich den Preis anschauen. :eek: An den hohen Preis kann ich mich gar nicht mehr erinnern? :freak: Die TUF Variante kostete "nur" 2249,90 €
Erster?
Asus ROG Strix für 2529 € bei Caseking.
Ich hab eine. Asus TUF OC 3090, liegt hier ausgepackt kurz vorm Einbau. Da bin ich wohl aktuell der einzige hier. :weg:
rentex
2025-01-11, 15:16:01
Naja ein paar % macht's schon aus, mein innerer Schweinehund würde nicht klar kommen wenn die Grafikkarte in einem niederen Modus läuft :freak:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/
Immer wieder die gleichen Diskussionen obwohl das schon lange geklärt ist und für die 5090 demnächst wird.
Bin ich jetzt im 3DCenter oder bei der GameStar?
Naja ein paar % macht's schon aus, mein innerer Schweinehund würde nicht klar kommen wenn die Grafikkarte in einem niederen Modus läuft :freak:
Das wird niemand merken. Wenn die 16GB bei der 5080 voll sind wäre es aber sinnvoll PCIe5 zu haben. Bei der 5090 stimme ich der Aussage voll zu, dass PCIe4 reicht.
The_Invisible
2025-01-11, 16:02:27
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/
Immer wieder die gleichen Diskussionen obwohl das schon lange geklärt ist und für die 5090 demnächst wird.
Bin ich jetzt im 3DCenter oder bei der GameStar?
Ja gibt Leistungsverlust und weiter?
BlacKi
2025-01-11, 16:10:46
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/
Immer wieder die gleichen Diskussionen obwohl das schon lange geklärt ist und für die 5090 demnächst wird.
Bin ich jetzt im 3DCenter oder bei der GameStar?Das wird niemand merken.
Ja gibt Leistungsverlust und weiter?
welp
https://tpucdn.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/images/elden-ring-3840-2160.png
The_Invisible
2025-01-11, 16:14:46
Steh auf'n Schlauch was ihr jetzt wollt :D
y33H@
2025-01-11, 16:37:00
Wenn die 16GB bei der 5080 voll sind wäre es aber sinnvoll PCIe5 zu haben.Und warum? ruckelt dann trotzdem ...
Sardaukar.nsn
2025-01-11, 17:10:31
Hier schneidet Multi-Frame-Generation im Vergleich 5070 vs 4090 super ab: https://www.pcgamesn.com/nvidia/geforce-rtx-5070-vs-4090
https://i.imgur.com/jFwGy5W.jpeg
Vielleicht sind die Blackwell Karten doch ihr Geld wert?
Sumpfmolch
2025-01-11, 17:25:10
Naja Diskussion dazu gab es ja schon viel. Wenn das Game über 60fps abliefert, dann kann FG spielbar sein.
Bei Spielen wie Cyberpunk 2077 wird die 5070 aber mit Patch Tracing nicht mal 30fps liefern. Das will man dann sicher nicht mit Frame Generation spielen.
Ich konnte aus dem Artikel auch nicht raus lesen, ob die 4090 wenigstens ein 2x Frame Generation aktiviert hatte?
Ich hätte es lieber gesehen, wenn NVIDIA weiter RT voranbringt und die Leistung aller Preisklassen hier weiter massiv steigert.
welp
https://tpucdn.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/images/elden-ring-3840-2160.png
Jippie du hast die eine Ausnahme gefunden.
3Dmark Speed Way (RT) sind es +34%. Aber so grob in der Richtung könnte hin kommen.
Der große Zauber kommt dann mit Einsatz von DLSS. Über die Verbreitung mache ich mir inzwischen aber wenig Sorgen: https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ray-tracing-rtx-games/
@nordic_pegasus: Das Design wird auch nur ordentlich funktionieren wenn die Karte von unten mit Frischluft angeströmt wird. Also Gehäuse wie Fractal Design Torrent mit 2-3 Lüftern im Boden.
Meine 4090 macht stock 20300 bei 500w, was se in Speed Way durchgängig abruft. Der Vorsprung ist lächerlich für eine neue Gen. Blackwell ist für mich außen vor!
Platos
2025-01-11, 17:55:48
welp
https://tpucdn.com/review/nvidia-geforce-rtx-4090-pci-express-performance-scaling-with-core-i9-13900k/images/elden-ring-3840-2160.png
Das ist PCI-e 4.0 x16 vs x8. Es ging aber um PCI-E 4.0 x16 vs PCI- 5.0 x16.
Wenn schon bei 4.0 x16 vs x8 nur ao ein geringer Unterschied dabei raus kommt, kannst du dir ja denken, wie es bei 5.0 vs 4.0 aussieht...
ChaosTM
2025-01-11, 17:56:58
Warte mal auf die Blackwells mit 800 Watt...
Nein, einfach auf "echte" Reviews warten und sich dann ein Urteil bilden.
Lawmachine79
2025-01-11, 18:02:33
Hier schneidet Multi-Frame-Generation im Vergleich 5070 vs 4090 super ab: https://www.pcgamesn.com/nvidia/geforce-rtx-5070-vs-4090
https://i.imgur.com/jFwGy5W.jpeg
Vielleicht sind die Blackwell Karten doch ihr Geld wert?
Die Wahrheit liegt in der Mitte. MFG hat einen Mehrwert, das "Fakeframe"-Geheule ist nicht sachgerecht. Echte Rohleistung ersetzt es aber nicht, man braucht ein solides Framefundament. Die 5070 schafft mit MFG nur dann 4090 Performance, wenn sie ohne MFG schon spielbare FPS liefert. Wenn man erst mit der 4090 die 60 FPS knackt, sieht die 5070 kein Land. Auch das Geheule über NVs Marketing verstehe ich nicht. NV stellt die Stärken seines Produkts in den Vordergrund. Das ist der Job von Marketing. Nur ist Rohleistung nicht die Stärke des Produkts, die kommt erst mit der nächsten Stufe des Fertigungsprozesses.
Leonidas
2025-01-11, 19:32:57
Eine (fehlbare) Performance-Prognose zur GeForce RTX 50 Serie
https://www.3dcenter.org/news/eine-fehlbare-performance-prognose-zur-geforce-rtx-50-serie
gemäß 3DC 4K Perf-Index:
~910-960% ... GeForce RTX 5090
~590-620% ... GeForce RTX 5080
~480-510% ... GeForce RTX 5070 Ti
~380-410% ... GeForce RTX 5070
Index-Werte von RTX40:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2024#4k
Die Wahrheit liegt in der Mitte. MFG hat einen Mehrwert, das "Fakeframe"-Geheule ist nicht sachgerecht. Echte Rohleistung ersetzt es aber nicht, man braucht ein solides Framefundament.
Perfekt gesagt. Es müssen beide Seiten der Medaille betrachtet werden.
Troyan
2025-01-11, 19:34:37
Das die 5070 überhaupt schneller ist, wundert mich. Laut dem hier sind das ~35% mehr Leistung mit FG4 gegenüber FG2 bei der 4090: https://www.youtube.com/watch?v=wa4_aTbIeZs
Laut Digitalfoundry ist FG4 gegenüber FG2 67% schneller. Also runtersubstrahiert von der 5070 wären es 178 FPS zu 145 FPS.
/edit: Hothardware auch ein Video von 4090 DLSS 3 und 5090 DLSS 4 in Alan Wake 2: https://www.youtube.com/watch?v=AVXI4ymC-yQ
Bei gleicher Skalierung wäre die 5090 hier ca. 43% schneller mit FG2.
AtTheDriveIn
2025-01-11, 19:42:50
Die 5070 hat 12Gb oder? Kostet FG und Co nicht VRAM von der die einfach nicht viel hat? Die Szenarien wo sie wirklich 4090 Performance abliefert werden handpicked sein. Das dieser offensichtliche Marketingstunt von NV noch verteidigt wird, ist wieder so typisch. NV könnte der 4090 auch einfach MFG geben und der natürliche Abstand wäre wieder hergestellt.
Troyan
2025-01-11, 19:48:06
Man braucht nicht mehr als 12GB in 1080p. Mehr wird in Zukunft sowieso von keiner Karte gepackt. UE5 sei dank.
AtTheDriveIn
2025-01-11, 19:51:04
Man braucht nicht mehr als 12GB in 1080p. Mehr wird in Zukunft sowieso von keiner Karte gepackt. UE5 sei dank.
Und wer mit einer 4090 spielt in 1080?
Troyan
2025-01-11, 19:55:56
Und wer mit einer 4090 spielt in 1080?
Wer spielt mit 55 FPS in 4K? :confused:
AtTheDriveIn
2025-01-11, 19:59:21
Mit FG2 doch über 100 ;)
Bei MFG auf 5070 wahrscheinlich 100 basierend auf 25 echten Frames.
Troyan
2025-01-11, 20:03:09
Na, man spielt mit DLSS Performance + Reflex + FG. Wobei ich nur 160Hz habe, also DLSS Quality. :D
Macht kein Sinn nativ in 4K in der UE5 zu spielen. Viel zu lahm.
ChaosTM
2025-01-11, 20:05:27
Jop, ganz speziell in Wukong.
aufkrawall
2025-01-11, 20:09:10
Macht kein Sinn nativ in 4K in der UE5 zu spielen. Viel zu lahm.
Geht immer noch schlimmer. Habe 50fps in AW2 mit der 4070S 4k DLSS Performance. Komplett ohne HWRT, wohlgemerkt. Mit DLSS UP skaliert es dann um sagenhafte 50fps -> 55fps. Schatten sind dabei Müll, und Bounce Light hab ich auch noch keines entdeckt...
Ach ja, Bäume ploppen 5m vor einem. Übertreibe nicht, habs sogar aufgenommen...
Troyan
2025-01-11, 20:09:37
Black Myth skaliert auch null mit Software Lumen, wenn man von 4K -> 1080p geht. Das geht von 55 FPS auf 92 FPS mit meiner 4090 hoch.
Nichtmal 100 FPS in 1080p. Da werden selbst die billigsten 120Hz 1080p TN Monitore nicht mehr voll ausgenutzt.
Kriegsgeier
2025-01-11, 20:36:18
Es wird langsam Zeit, dass Nvidia nativ UE Einheiten verbaut.
In 2-4 Jahren haben wir gute 75-85% der Spiele auf UEngine.
Badesalz
2025-01-11, 20:51:54
Ja genau! Es ist schon lange Zeit, daß AMD endlich Windows-Einheiten verbaut :ulol:
OgrEGT
2025-01-11, 22:52:06
Was ist eine UE Einheit?
w0mbat
2025-01-11, 23:15:23
Ein Einheit die speziell die Unreal Engine beschleunigt. War ziemlich sicher als Scherz gemeint.
Badesalz
2025-01-11, 23:27:16
War ziemlich sicher als Scherz gemeint.Was denn nicht? :usweet:
ChaosTM
2025-01-11, 23:33:47
Wir ersetzten DX12 mit UE1(5) - danke Microsoft !
lilgefo~
2025-01-11, 23:42:25
Eine (fehlbare) Performance-Prognose zur GeForce RTX 50 Serie
https://www.3dcenter.org/news/eine-fehlbare-performance-prognose-zur-geforce-rtx-50-serie
gemäß 3DC 4K Perf-Index:
~910-960% ... GeForce RTX 5090
~590-620% ... GeForce RTX 5080
~480-510% ... GeForce RTX 5070 Ti
~380-410% ... GeForce RTX 5070
Index-Werte von RTX40:
https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2024#4k
Perfekt gesagt. Es müssen beide Seiten der Medaille betrachtet werden.
+210 - 250% für die 5090 zur 4090? Hmm... No lo sé Rick.
Nazar
2025-01-11, 23:49:32
Die Wahrheit liegt in der Mitte. MFG hat einen Mehrwert, das "Fakeframe"-Geheule ist nicht sachgerecht. Echte Rohleistung ersetzt es aber nicht, man braucht ein solides Framefundament. Die 5070 schafft mit MFG nur dann 4090 Performance, wenn sie ohne MFG schon spielbare FPS liefert. Wenn man erst mit der 4090 die 60 FPS knackt, sieht die 5070 kein Land. Auch das Geheule über NVs Marketing verstehe ich nicht. NV stellt die Stärken seines Produkts in den Vordergrund. Das ist der Job von Marketing. Nur ist Rohleistung nicht die Stärke des Produkts, die kommt erst mit der nächsten Stufe des Fertigungsprozesses.
Das einzige, was wirklich nicht sachgerecht ist, ist, dass du berechtigte Kritik als Geheule bezeichnest!
Du erkennst ja selber, dass die Rohleistung der wesentliche Faktor ist, der MFG erst den entsprechenden Mehrwert bringt.
Es gibt auch kein Geheule über das Marketing.
Sachliche Kritik ist niemals Geheule. Inhaltslose Angriffe und das undurchdachte abwerten von Kritik, das ist Geheule auf Gott-Niveau!
Das Marketing verschleiert für die meisten Käufer, dass es eben nicht die Rohleistung geben wird, die, wie du selber erkannt hast, aber ein wesentlicher Faktor ist, damit die neuen Features überhaupt erst sinnvoll greifen können.
Auch wird von Nvidia geschickt unter den Tisch gekehrt, dass diese Features immer deutlich mehr VRAM benötigen.
Wenn du das anders siehst, dann ist das ok, aber bitte halte dich mit deiner unqualifizierten Art zurück.
lilgefo~
2025-01-11, 23:52:54
Das einzige, was wirklich nicht sachgerecht ist, ist, dass du berechtigte Kritik als Geheule bezeichnest!
Du erkennst ja selber, dass die Rohleistung der wesentliche Faktor ist, der MFG erst den entsprechenden Mehrwert bringt.
Es gibt auch kein Geheule über das Marketing.
Sachliche Kritik ist niemals Geheule. Inhaltslose Angriffe und das undurchdachte abwerten von Kritik, das ist Geheule auf Gott-Niveau!
Das Marketing verschleiert für die meisten Käufer, dass es eben nicht die Rohleistung geben wird, die, wie du selber erkannt hast, aber ein wesentlicher Faktor ist, damit die neuen Features überhaupt erst sinnvoll greifen können.
Auch wird von Nvidia geschickt unter den Tisch gekehrt, dass diese Features immer deutlich mehr VRAM benötigen.
Wenn du das anders siehst, dann ist das ok, aber bitte halte dich mit deiner unqualifizierten Art zurück.
VRAM ist in der 70er Klasse sicher nicht das Problem..
ChaosTM
2025-01-11, 23:53:28
Du hast "Geheule" fast so oft benutzt wie Jensen "AI"
Niemand heult - wir beurteilen
Lawmachine79
2025-01-12, 00:06:47
Das einzige, was wirklich nicht sachgerecht ist, ist, dass du berechtigte Kritik als Geheule bezeichnest!
Du erkennst ja selber, dass die Rohleistung der wesentliche Faktor ist, der MFG erst den entsprechenden Mehrwert bringt.
Es gibt auch kein Geheule über das Marketing.
Sachliche Kritik ist niemals Geheule. Inhaltslose Angriffe und das undurchdachte abwerten von Kritik, das ist Geheule auf Gott-Niveau!
Das Marketing verschleiert für die meisten Käufer, dass es eben nicht die Rohleistung geben wird, die, wie du selber erkannt hast, aber ein wesentlicher Faktor ist, damit die neuen Features überhaupt erst sinnvoll greifen können.
Auch wird von Nvidia geschickt unter den Tisch gekehrt, dass diese Features immer deutlich mehr VRAM benötigen.
Wenn du das anders siehst, dann ist das ok, aber bitte halte dich mit deiner unqualifizierten Art zurück.
Also bitte wer für die Karten als Zielgruppe.in Frage kommt,kann das schon gut einschätzen. Und wenn nicht, kriegt er immer er immer noch mehr fürs Geld, als er von AMD bekommt.Ich werde wahrscheinlich eine 5090 kaufen und die 20-30% Mehrleistung werden mich 2.500k minus den Verkaufspreis der 4090 kosten. Mache ich im Vollbesitz meiner geistigen Kräfte und in dem Wissen dass die MFG frames für meine Zwecke (VR) völlig nutzlos sind.
y33H@
2025-01-12, 00:07:02
Niemand ist gezwungen rein basierend auf Marketing Material iwelche Kaufentscheidungen zu treffen ...
Lawmachine79
2025-01-12, 00:09:54
Niemand ist gezwungen rein basierend auf Marketing Material iwelche Kaufentscheidungen zu treffen ...
So sieht es aus, wir reden hier über ein Hobby. Das alles ist Luxus.
Und wer meint, dass er zu wenig VRAM hat: die Diskussion ist gut dokumentiert, gut genug, dass jeder eine qualifizierte Entscheidung für seinen Bedarf treffen kann. So what? NVidia hat jetzt keinen Brunnen vergiftet oder verlangt eine Niere für ein Kilo Reis.
Davon ab: es kann sich doch auch jeder eine AMD-Karte kaufen. In der Haut von deren Marketingabteilung - um den Kreis mal zu schließen - möchte ich nicht stecken, schon seit der 5870 nicht mehr.
crux2005
2025-01-12, 05:27:58
WlND7pFg2pk
;D
Ehm-Es-Eye will sogar die Lightning Serie mit double-flow through wie die FE bringen.
OgrEGT
2025-01-12, 07:05:45
https://youtu.be/WlND7pFg2pk
;D
Ehm-Es-Eye will sogar die Lightning Serie mit double-flow through wie die FE bringen.
Sehr lustig wovon Marketing so inspiriert wurde :ulol:
dargo
2025-01-12, 07:13:24
Findet da einer den Sarkasmus bei GN? ;D
KarlKastor
2025-01-12, 07:53:40
Ich hatte das gar nicht auf dem Schirm, dass das mittlerweile so ausgeartet ist.
Stell dir mal vor, du hast nichts gescheites gelernt und musst dann echt so ein peinliches Zeug präsentieren, wie der Typ von MSI.
Völlig surreal. Als hätte er ne Wette verloren. Glauben die ernsthaft das lockt Käufer an? Kostet dich auch Geld.
OgrEGT
2025-01-12, 08:02:47
Marketing ist dafür da die Produkte für die Zielgruppe attraktiv zu machen und neue Zielgruppen/Märkte zu erschließen... wenns nicht klappen würde dann würde mans nicht machen :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.