PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Altehardware
2024-04-24, 07:44:13
Das macht durchaus Sinn da man die architektur vorstellt und keine Sku
Das wiederum deutet auf eine ai karte hin die auf gb202 basiert mit nen teaser zur rtx5090 mit dem gb203
release könnte sogar dann im juli kommen aber ich ahne das man zur computex nen teaser zur ai karte macht und erste infos erst zur siggarath im august gibt was ein release dann üblich sept zur gamescom sein wird.
Dann aber nur die gb205 und gb206 chips mit nen refresh der ada gen als 5060er sku
Blackwell kommt in sf4x und n4 node dieser ist verfügbar nicht n3
darum haben sich alle Vermutungen zum 2025 release egalisiert. Kann sein das die Verfügbarkeit bis dahin eher mau ist

Sardaukar.nsn
2024-04-26, 09:02:40
Nvidia gibt Gas. Am 2. Juni ist es wohl soweit: https://www.gamestar.de/artikel/special-keynote-nvidia,3412389.html

Linmoum
2024-04-26, 09:36:27
Da interpretiert Gamestar schön viel rein. Wenn GeForces da angekündigt werden, würde das im Prinzip schon auf einen Launch im Juli hinauslaufen. Was man quasi schon aus saisonalen Gründen ausschließen kann, weil sowas die denkbar schlechteste Jahreszeit ist.

Radeonfreak
2024-04-26, 09:39:57
RTX Racer wird endlich vorgestellt? :freak:

Fragman
2024-04-26, 09:42:06
RTX Racer wird endlich vorgestellt? :freak:

2.0 wird gezeigt und eine Veröffentlichung für "soon" angekündigt. :freak:

AffenJack
2024-04-26, 10:08:16
Als ob da was für Gaming käme. Das wird nur: AI, AI, AI, AI....

The_Invisible
2024-04-26, 10:30:26
Da interpretiert Gamestar schön viel rein. Wenn GeForces da angekündigt werden, würde das im Prinzip schon auf einen Launch im Juli hinauslaufen. Was man quasi schon aus saisonalen Gründen ausschließen kann, weil sowas die denkbar schlechteste Jahreszeit ist.

Hätte nichts dagegen, das war auch zu Mining Zeiten der beste Zeitpunkt um an Grafikkarten zu kommen. Vielleicht lässt er aber zumindest ein paar Teaser springen, glaubs aber auch nicht.

MiamiNice
2024-04-26, 12:37:43
Nvidia gibt Gas. Am 2. Juni ist es wohl soweit: https://www.gamestar.de/artikel/special-keynote-nvidia,3412389.html

Das ist das Datum an dem Lederjacke schon mal vorsichtig durchblicken lässt, das die neuen karten sehr hart zu produzieren sind und man sich auf höhere Preise einstellen soll ;)

Sardaukar.nsn
2024-04-26, 13:02:29
Ohne etwas Exklusivität wäre es doch langweilig. Vielleicht gibt es auch wieder neue Stecker 😇

Exxtreme
2024-04-26, 13:04:03
Ohne etwas Exklusivität wäre es doch langweilig. Vielleicht gibt es auch wieder neue Stecker 😇
12VVHPWR-Stecker. 12 Volt Very High Power. X-D

Radeonfreak
2024-04-26, 13:05:30
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg

The_Invisible
2024-04-26, 13:44:41
Hoffentlich der Elektriker Einsatz schon inkludiert :D

Altehardware
2024-04-26, 14:10:56
Wird wohl ne genaue Erklärung wie blackwell funktioniert und ne ai karte vorgestellt. Der letzte leak spricht von 256alu per sm das wär ne Verdoppelung der Einheiten je sm und würde massiv die perf steigern bedingt aber größere chips das deutet eher an das es in n3 ist Das aber dürfte ausgeschlossen sein
Folglich hat man die dichte erhöht und somit den Takt reduziert 192alu per sm wäre eher denkbar wie ich seit Monaten predige. 256 alu per sm ist mit n4 node nicht umsetzbar dafür braucht es zwingend gaa samsung 18% dense in sf3 und mit sf3x dann doe vollen 50%
aus 609mm² wird gleicher chip etwa 392mm sein
aber samsung sf3x kommt erst 2026 tsmc n2x erst 2027
Daher dürfte das Gerücht sich auf irgendein software feature beziehen das teils in hardware beschleunigt wird etwa ähnlich zu amd dual issue was in fakt doppelte Datenwege bedeutet das kostet diefläche womit nur eins sein kann die Lösung von mir macht am meisten sinn.

Doppelte L1 in alu vergrößert den chip um 25% ohne das die alu mehr werden das kann nicht sinnvoll sein.
mehr cache bewirkt nur das die alu mehr zutun bekommen dafür braucht es aber mehr Takt.
Den n4 node nicht geben kann maxed wären 3,1ghz an datenmangel für die rt cores mangelt es nicht eher fehlt compute und das über fp64 befehle also dann 4 operation per clock umzusetzen brauchtes ne neue Treiber Architektur und sheduler
Das wäre möglich würde aber weniger Takt bedeuten und zwar die hälfte aus 2,8ghz wird maximal inklusive n4 Verbesserung etwa 1,5ghz bedeuten.
Folgende formel 192*128*4*1,5=147 nv tf real dann 101tf vs aktuell 63tf =+60%
In dxr ist der gewinn eher marginal maximal sind das 38% aber man hat ja 192sm vs 144sm
nenn salvage chip vermutlich 160sm wäre dann maximal +29% schneller in dxr
Das bringt nix zumal die chips dann riesig werden gb202 min 761mm² gb203 min 641mm²
das ist nicht wirtschaftlich und somit dürfte die dual issue per sm nicht stimmen. Mehr cache bringt nix.
Gpu sind linear nicht Out of order fähig. Daher bringt mehr cache nix da wo es helfen kann ist beim vorladen von daten aus den vram das erhöht die Bandbreite des vram mehr bringt es nicht Und das muss vor dem si sein Und über einen L3 cache gelöst sein wie amd es macht.
nvidia kann nur zwei Wege gehen mehr Takt und somit zwingend n3 node um dann 3,6ghz zu erreichen oder die sm Struktur auf 192 alu per sm erhöhen. Letztere würde die dxr Perf massiv steigern. Während 800mhz mehr Takt maximal +8% bringen.
In raster ist man sowieso am limit da die cpu's das nicht auslasten können. An Bandbreite mangelt es derzeit auch nicht alles über 800gb/s reicht aus selbst in 2160p
also ein dual issue mit software den alu mehr zutun zu geben macht keinen Sinn selbst für die rt cores nicht den die haben kein Speicherproblem.
Die perf daten beziehen sich auf dxr Leistung nicht raster die steigt linear an aber kann aktuell nicht ausgereizt werden.

TheCounter
2024-04-26, 16:10:41
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg

Passt, hab hier extra noch eine ungenutzte Starkstromleitung in der Wand :D

Muss nur ein entsprechender Stecker dran :ugly:

Wuge
2024-04-26, 16:35:30
Ich sag euch was... wegen mir kann das Ding eine eigenes Netzteil mitbringen oder ein VRM mit 230V Eingang und Kaltgerätestecker am Slotblech haben. 4090 OC + 100% und ich bau mir das auf xD Bitte bitte nicht nur Ai-salvage Kleinkram.

Zossel
2024-04-26, 17:20:24
Ich sag euch was... wegen mir kann das Ding eine eigenes Netzteil mitbringen oder ein VRM mit 230V Eingang und Kaltgerätestecker am Slotblech haben. 4090 OC + 100% und ich bau mir das auf xD Bitte bitte nicht nur Ai-salvage Kleinkram.

Ich plädiere immer noch für dafür diese Monster-GPUs extern zu bauen.

OgrEGT
2024-04-26, 17:49:06
Passt, hab hier extra noch eine ungenutzte Starkstromleitung in der Wand :D

Muss nur ein entsprechender Stecker dran :ugly:

Bei dem Stecker kann man sich zumindest sicher sein dass der funktioniert :ulol:

Sardaukar.nsn
2024-04-26, 18:15:27
Ich plädiere immer noch für dafür diese Monster-GPUs extern zu bauen.

Kommt auf den Kühler an, gibt ja auch zierliche Exemplare: https://i.imgur.com/AHWEhCV.jpeg

Zossel
2024-04-26, 18:32:33
Kommt auf den Kühler an, gibt ja auch zierliche Exemplare: https://i.imgur.com/AHWEhCV.jpeg

Es geht ja darum sich diesen ganzen Aufriss mit H2O, gammeligen Steckern und riesigen Computergehäusen zu schenken, und das ganze in eine Kiste zu stecken die konstruktiv darauf ausgelegt ist leise viel Luft um eine GPU und ein Netzteil zu blasen.

Sardaukar.nsn
2024-04-26, 19:18:24
Dann würde ich mir sowas wie ein Fractal Design Torrent anschauen welches auch starke Hardware leise kühlt: https://www.computerbase.de/2022-05/next-gen-grafikkarten-gehaeuse-kuehlung/#abschnitt_die_konfiguration_des_fractal_design_torrent

iamthebear
2024-04-26, 21:32:46
Ist jetzt etwas Off Topic: Aber Achtung bei der Kombination des Torrent mit 12VHPWR GPUs. Da das Netzteil oben sitzt sind die vom Netzteilhersteller mitgelieferten Kabel gerne mal zu kurz (gerade erst mit be quiet gehabt). Dann kann man nur mehr den Adapter aus der GPU Box verwenden und an die 8 Pin Anschlüsse hängen.

[MK2]Mythos
2024-04-26, 22:39:22
Wurde schon angeteasert.

https://i.ytimg.com/vi/JFEnTjl1AxU/mqdefault.jpg
Unwahrscheinlich aus zwei Gründen:
1) Ists ein etablierter Standard und sowas macht nvidia keinen Spaß und bringt nicht genug zusätzliche Kohle
2) Funktioniert der Anschluss und ist handhabungssicher

:freak:

Altehardware
2024-04-26, 22:58:17
Wäre ne idee nen drehstrom Stecker in klein hat doch was

mksn7
2024-04-30, 11:49:46
Wird wohl ne genaue Erklärung wie blackwell funktioniert und ne ai karte vorgestellt. Der letzte leak spricht von 256alu per sm das wär ne Verdoppelung der Einheiten je sm und würde massiv die perf steigern bedingt aber größere chips das deutet eher an das es in n3 ist Das aber dürfte ausgeschlossen sein


Eine Verdopplung von 64 auf 128 FP32 units hat bei Ampere doch die performance schon so dramatisch erhöht, wieviel soll da bei 128 -> 256 rumkommen?



Doppelte L1 in alu vergrößert den chip um 25% ohne das die alu mehr werden das kann nicht sinnvoll sein.
mehr cache bewirkt nur das die alu mehr zutun bekommen dafür braucht es aber mehr Takt.


Die L1 Kapazität ist schon recht großzügig mit den 128kB, zumindest wenn man sich anschaut dass AMD da mit 32 kB rumkrebst. Eine Erhöhung würde die Architektur etwas an die HPC Brüder angleichen. Ich glaube aber nicht dass dadurch viel IPC rumkommt. Schon eher eine Erhöhung der L1 cache Bandbreite. Da haben Ada/Ampere mit 64B/cycle/SM, bzw. 16 LSU/SM die Hälfte im Vergleich zu den HPC Brüdern und sogar im Vergleich zu RDNA2.

basix
2024-04-30, 17:56:45
H100 hat 256kByte L1$, da ist noch Luft nach oben ;)

Bei einer FP32 Verdopplung müsste man vermutlich auch die Scheduler aufbohren, damit das wirklich was bringt.

af7473
2024-04-30, 22:31:44
Ich wette Blackwell wird 5 mal größer und schneller wie 4090, aber auch nur 5 mal teurer so 8k.

af7473
2024-04-30, 22:39:42
Aber dafür kriegt man schon 2024 die Zuckunft serviert. Bis ein normaler Sterblicher dann sich solche Leistung für 300 euro kaufen kann also mid range gpu und diese Leistung dann auch endlich wirklich was nutzt, sind wir im Jahre 2030+.
Ich finde es richtig, dass AMD das nicht mitmachen will und eher für die breite Masse anbieten möchte. Das Moto hier kann nur heißen Entschleunigung. Ich habe Intel ARC 750 für 200 Öcken. Ist hier nur meine nur gantz persönliche Meinung.

af7473
2024-04-30, 22:46:12
Bevor ich mich für ARC entschieden habe, habe ich ganz kurtz mit Hopper geliebäugelt fur 35 000, aber dann hätte ich mir selbst entsprechende Spiele programieren müssen um die auszureizen.

Sardaukar.nsn
2024-04-30, 22:58:29
@af7473: Fänd ich fair. Bei den CPUs müssen wir uns mit deutlich weniger Steigerung bei der Leistung zufrieden geben.

BlacKi
2024-04-30, 23:50:30
wenn kein 3nm kommt, und die caches nicht groß wachsen, bzw. die chipfläche, dann wird der performance jump max bei 30-40% bleiben. und die 5090 wird trotzdem mehr saufen als die 4090, vermutlich wirds dann wenigstens OC potential geben. eine gen, die man gut und gerne skippen kann.

iamthebear
2024-05-01, 00:54:36
Eine Verdopplung von 64 auf 128 FP32 units hat bei Ampere doch die performance schon so dramatisch erhöht, wieviel soll da bei 128 -> 256 rumkommen?

1.) Wenn du damit Ampere vs. Turing meinst:
Turing hatte 64FP32 und 64INT Einheiten
Ampere hatte 64FP32 Einheiten und 64 Kombieinheiten, die je nach Auslastung sowohl INT als auch FP32 Operationen ausführen konnten aber nicht beides gleichzeitig.

Bei reinen FP32 Workloads ist es eine Verdopplung.
Bei 50% INT Anteil oder höher bringt es gar nichts.
Laut Nvidia ist der INT Anteil bei durchschnittlich ca. 25%. Damit liegt die Wahrheit in der Mitte und es entspricht in der Praxis eher einer 50% Erhöhung und die Performance hat fast linear mehr der realen Rohperformance skaliert (68 Turing SM der 2080 Ti = 46 Ampere SM der 3070)

Turing ist übrigens die Ausnahme, da hier der Aufbau der Datacenterreihe verwendet wurde. Ansonsten hatten seit GTX900 alle Gamingkarten 128 FP32/SM.

2.) Was würde also passieren, wenn man einfach auf 256FP32 pro SM verdoppeln würde?
Die Antwort dürfte wohl sein: Nicht viel
Nvidia hatte mit der GTX600/700 schon einmal 2 Generationen mit 192FP32/SM und ist mit der GTX900 runter auf 128FP32/SM. Ergebnis waren 55% mehr Performance der 980 Ti vs. 780 Ti bei nur ca. 10% mehr die size am gleichen Node.

Ich denke damut das alles skaliert müsste so gut wie alles verdoppelt werden und dann stellt sich die Frage wieso nicht gleich doppelt so viele SMs.

3.) Das Hauptproblem bei Ada scheint zu sein, dass die Performance ab 76SMs aufwärts nicht mehr linear skaliert selbst wenn Speicherbandbreite etc. mitskaliert werden.
Dieses Problem muss Nvidia lösen weil sonst werden aus 50% mehr SMs und Bandbreite nur 20% Performance raus schauen.

af7473
2024-05-01, 13:50:40
@af7473: Fänd ich fair. Bei den CPUs müssen wir uns mit deutlich weniger Steigerung bei der Leistung zufrieden geben.[/QUOTE]


Ich meinte ja nur, dass schon heute eine GPU möglich wäre, die 5 mal schneller ist als 4090 ti, für 10 000 k. Der Preis ist hier entscheidend. Für die meisten sind halt 1600 Euro für 4090 sogut wie 10 000, uninteressant. Eine GPU für 300 ist aber praktisch 6 Jahre alte GPU.

af7473
2024-05-01, 14:05:59
GTX 1060 wurde est vor 1 Jahr auf steam von 3060 als Nummer 1 abgelöst, ist immer noch die Nummer 2.
Die 4090 ist wohl 15 mal schneller. Und jetzt wir 1060 halt 40 mal langsamer als Blackwell. HaHaHa

af7473
2024-05-01, 14:11:02
Besser wäre es, man hätte günstige mid range gpu, die sich massenhaft ausbreiten z.B. 4070 ti als der ist Zustand. Spiele werden wohl immer auf Durchschnitt entwickelt.

woodsdog
2024-05-01, 16:59:00
Du darfst auch gerne mehr als eine Zeile pro Beitrag schreiben, müssen nich 3 Beitrage sein :freak:

mksn7
2024-05-01, 17:55:42
1.) Wenn du damit Ampere vs. Turing meinst:
[...]
Die Antwort dürfte wohl sein: Nicht viel

Du hast natürlich Recht mit all deinen Ausführungen, ich ziehe auch den gleichen Schluss wie du. Ich hoffe die Ironie in meinem Post war klar.


Ich denke damut das alles skaliert müsste so gut wie alles verdoppelt werden und dann stellt sich die Frage wieso nicht gleich doppelt so viele SMs.

Jedes mal wenn ich mir Gedanken mache, wie aus mehr execution units mehr Leistung herausgeholt werden soll, komme ich zu genau dem gleichen Schluss wie du, man hat halt mehr SMs am Schluss.


3.) Das Hauptproblem bei Ada scheint zu sein, dass die Performance ab 76SMs aufwärts nicht mehr linear skaliert selbst wenn Speicherbandbreite etc. mitskaliert werden.
Dieses Problem muss Nvidia lösen weil sonst werden aus 50% mehr SMs und Bandbreite nur 20% Performance raus schauen.

Ich denke das ist allgemein ein Problem von breiter werdenden GPUs mittlerweile. Spielegrafik hat halt doch nicht unendlich viel Parallelität zu bieten. Deswegen ja auch der Trend zu viel mehr Takt in den letzten Jahren. Oder der Versuch von RDNA die single thread performance im Vergleich zu CDNA zu steigern.

Also doch mehr issues aus dem gleichen thread pro Takt, um die single thread performance zu erhöhen? triple-issue? Das ist schon wieder schwierig für die register files...

Altehardware
2024-05-01, 20:47:31
Hurra ihr habt cpu limit gefunden
Das problem erkannte ich schon 2019 zum ende der ps4 pro
Dann kam zen2 und die welt war bissl besser und dann zen3 was das cpu limit aufhob bis zur rtx2080ti und jetzt kommt im Sommer zen5 und wird ne rtx4090 endlich mal auslasten in raster.
man bedenke das die rtx5090 nur den gb203 haben wird 128sm a152 oder 88fp32 mit 3 operationen per clock beides macht am ende die gleiche perf.
erstere idee wäre deutlich schneller in dxr und man hat die Auslastungsprobleme nicht

HOT
2024-05-02, 08:06:10
Da zeichnet sich bei NV aber ne krasse Upsellingstrategie ab. MLID meldet, dass die 5080 nicht vor 25 zu erwarten ist, die kleinen Karten überaupt nicht erst mal. Auch die Mobil 5080/90 sind beide GB203-Basis.
Nur die 5090 soll schnell verfügbar sein, damit hätte NV die 5090 fast 1/2 Jahr allein auf dem Markt. Schon die überteuerte 4080 wirkte als Upselling-Katalysator, die neue erst gar nicht zu bringen, dürfte noch krasser wirken. Entweder du gibst 1600€+ aus, oder du bekommst keine neue Technik. Ich wette, dass die Erpressungsstrategie aufgeht.

W4RO_DE
2024-05-02, 12:56:05
Wenn die RTX 5090 beispielsweise im Oktober/November auf den Markt kommt und die RTX 5080 auf der CES vorgestellt wird und im Januar/Februar auf den Markt kommt, sprechen wir von 3 Monaten. Das wäre ziemlich normal. Generell sehe ich aber keine Veranlassung, Äußerungen von MLID zur Diskussionsgrundlage zu machen.

P.S. "Erpressungsstrategie" lol

Zossel
2024-05-02, 13:30:36
Ich wette, dass die Erpressungsstrategie aufgeht.

Davon wären ja nur Junkies betroffen.

mksn7
2024-05-02, 13:34:40
Hurra ihr habt cpu limit gefunden
Das problem erkannte ich schon 2019 zum ende der ps4 pro
Dann kam zen2 und die welt war bissl besser und dann zen3 was das cpu limit aufhob bis zur rtx2080ti und jetzt kommt im Sommer zen5 und wird ne rtx4090 endlich mal auslasten in raster.
man bedenke das die rtx5090 nur den gb203 haben wird 128sm a152 oder 88fp32 mit 3 operationen per clock beides macht am ende die gleiche perf.
erstere idee wäre deutlich schneller in dxr und man hat die Auslastungsprobleme nicht

CPU Limit ist/war schon länger immer wieder ein Grund für schlechte Skalierung mit steigenden unit counts. Die Lösung sind schnellere CPUs und bessere APIs.

Aber unabhängig davon gäbe es auch mit einer unendlich schnellen CPU Skalierungsprobleme. Wenn die Anwendung lauter kleine draw calls mit jeweils 100 Pixeln absetzt, und dabei (vielleicht unbeabsichtigt) die API Semantik verlangt dass jeder draw call komplett fertig ist bevor der nächste startet? Wie viele cycles braucht der vertex shader für drei vertices? Wie lange bis der rasterizer die 5 resultierenden Pixel weitergegeben hat, bis die pixel shader ihre Arbeit aufnehmen, der pixel shader komplett durchgelaufen ist?

Da hilft keine breitere GPU, sondern nur single thread performance, eine Metrik über die man bei GPUs selten spricht. Ich bin kein Grafikentwickler sonder komme aus der HPC Ecke, daher kann ich nicht 100% beurteilen wie realistisch dass oben genannte Szenario, dass draw calls hart seriell bearbeitet werden, tatsächlich vorkommen. Das ist natürlich ein Szenario dass sich durch bessere Programmierung lösen lassen würde.

Ich hab mal ein bisschen mit CUDA kernel call overhead benchmarks rumgespielt. Also ganz andere API als DirectX/Vulkan, aber schonmal eine Größenordnung. Da komme ich auf 1000-1500ns pro Kernel call für back-to-back kernel calls auf einer L40 (4090 Äquivalent). Das kann man ca 5000 mal in einer 120Hz frame time machen. A100/H100 sind langsamer, wegen weniger Takt, die brauchen eher 2500ns.

(RDNA2 ist mit ~2500ns leider langsamer als CDNA/GCN, aber das liegt vermutlich eher an ROCm)

Gleichzeitig messe ich ca. 1000 cycles für einen kernel in dem jeder thread ein A[i] = B[i]*1.2f ausführt und der mit einem Minimum an threads (32 pro SM), also single thread/warp pro SM läuft, und ein nicht ausgelastetes (~10%) Speicherinterface. Die Hälfte der Zeit ist die DRAM latenz, der Rest muss der ganze Rest sein den ein thread so macht um zu starten und zu initialisieren. Höhere single thread performance würde helfen das zu reduzieren und auch mit wenig threads gute Leistung zu erreichen.

Weltraumeule
2024-05-02, 15:19:47
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

Altehardware
2024-05-02, 15:21:50
Gpu sind strikt linear wie man aber die game engine das aufteilt ist Sache der cpu sheduler aber im Grunde das reine rasterizer ist linear
daher ist die api hier entscheidnt dx9 kann kein multitrhead dx10 fängtes an bis zu 4threads wo amn als entwickler die gaem engine arbeit aufteilen kann und mit dx11 an bis heute dx12 kann man bis zu 8 threads skalieren wobei bei 6 Schluss ist mehr bringt nix mehr.
Die meisten programmieren aber in high level also keinen Kopf wie die game engine das umsetzt
Das wird mit dx12 zum problem da der zugriff vom Speicher vom Entwickler gemacht werden muss darum oft diese miese perf bei den dx12 spielen.
Aber ja gpu sind strikt linear und die Skalierung über die alu breite ist möglich aber nur dann wenn die cpu höher Takten.
Ne cpu arch Verbesserung also ipc hilft schon aber nicht stark dafür braucht es befehlsätze die erst in den game engines genutzt werden müssen. Da sind die Entwickler noch bei cpu von 2011
Es reicht schon aus wenn mal avx2 genutzt würde das wären cpu ab 2013
Die Beschleunigung ist lediglich ne register Vergrößerung das kann der ipc in spielen helfen wird aber derzeit nicht genutzt
So tief in der renderpipeline programmiert keiner mehr.
man haut einfach der api die befehle um die Ohren damit fps raus kommen. lediglich das Speichermangdment passt man an.
Was die cpu ausspuckt interessiert den lieben Spiel Programmierer nicht.

Die ideale gaming cpu ist Hoher takt damit kurze latenzen beim L3 cache und viel L3 hilft hier gewaltig. Da weniger zugriff auf dem lahmen ram. Deswegen profitieren die x3d chips so sehr.
das gab es schon mal mit intels L4 cache bei der broadwell arch 2014 1 ghz weniger Takt dennoch schneller als die 4,5ghz skylake cpu.
zen 5 wird auch wieder ein ordentlichen sprung machen da die cache arch geändert wird weniger zyklen zum refresh = kürzere Latenz 1-1 perf Zuwachs in ipc
Möglich wäre L3 von nur 7ns aktuell sind wir bei 9ns. 28% mehr fps im besten fall
Die norm wird eher die hälfte sein also 15% ich sagte ja die rtx4090 könnte erstmals in raster nativ 4k ausgelastet werden das sieht man dann an 450w 100% gpu load in spielen
Die fps werden dann mit Sicherheit von den rop limitiert

man hat bei cpu zwei Wege um mehr fps zu bekommen Takt oder mehr cache mit weniger Taktzyklen
Die Besonderheit bei nvidia ist das die gpu eine Software sheduler hat der bis zu 6 renderpipelines unterstützt entsprechend weniger bei anderen sku
Eine renderpipelien sind 2 gpc =1tpc amd ist das nicht anders derzeit 6 render pipeline aber in hardware daher sind amd gpu explizit auf die entwickler angewiesen das diese den multithread aufteilung der command list beachten (dx10 an liste für multithred bei cpu für drawcalls)
Nvidai bringt das mit ihren Treibern frei haus mit.
Aufgrund der maximal 6 render skaliert man 1-1 wie die game engine bis auf 6 threads skaliert das geht nicht immer linear. und sackt ab 4 thread oft ab.
da aber gb203 aber nur 4 render engines haben wird (8*24sm) dürfte die rtx4090 deutlich geschlagen werden in fps trotz beinahe gleiche tf

man sieht trotz mehr alu wird die Leistung größer die cpu allerdings hat ihren Einfluss und die rtx4090 muss ein cpu limit test Erfahren nach release der ryzen r7 9800x vs r7 7800x3d
grob sehe ich den 112sm entweder mit 88fp32 mal 3 oder 152 mal 2,3ghz +42%
ich gehe sogar davon aus das dies die titan b wird. Das würde auch die frühe Ankündigung zur computex erklären
am ende sage ich nur man kann per software ne menge herausholen wenn man will aber gpu an sich sind linear.

Leonidas
2024-05-02, 15:42:00
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Was sagen eure Glaskugeln?

5090 - Jahresende
5080 - mit Glück Jahresende, ansonsten danach
5070 usw. - 2025

BlacKi
2024-05-02, 15:53:32
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?700€? vl nicht ganz mitte 2025, aber in richtung.

The_Invisible
2024-05-02, 16:31:55
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

70er kommt wieder später, tippe mal Q2 2025, da AMD in dem Bereich auch mitmischt dürfte es wohl nicht so abgehoben sein, lets see...

Zossel
2024-05-02, 18:48:15
CPU Limit ist/war schon länger immer wieder ein Grund für schlechte Skalierung mit steigenden unit counts. Die Lösung sind schnellere CPUs und bessere APIs.

Aber unabhängig davon gäbe es auch mit einer unendlich schnellen CPU Skalierungsprobleme. Wenn die Anwendung lauter kleine draw calls mit jeweils 100 Pixeln absetzt, und dabei (vielleicht unbeabsichtigt) die API Semantik verlangt dass jeder draw call komplett fertig ist bevor der nächste startet?

Muss der erste Call nur fertig sein oder braucht der nächste Call die Ergebnisse aus dem ersten Call?

Ist das ein Setup wo die CPU was an ein PCI-Device absetzt oder ist das eine "APU" mit cohärenten Speicher, also ein Coprozessor?

mksn7
2024-05-03, 15:31:59
Muss der erste Call nur fertig sein oder braucht der nächste Call die Ergebnisse aus dem ersten Call?

Ist das ein Setup wo die CPU was an ein PCI-Device absetzt oder ist das eine "APU" mit cohärenten Speicher, also ein Coprozessor?

Ich spreche hier insgesamt von GPUs im Allgemeinen.

Soweit ich das verstehe, dürfen aufeinanderfolgende draw calls in das gleiche frame buffer attachment ohne state change (texture, shader, usw...) schon stark überlappen. Es gibt hardware in den ROPs die dann sicherstellt dass ein späterer draw call einen früheren übermalt, wenn sie die gleichen Pixel mit gleicher depth ausgeben. Da treffen dann meine Überlegungen nicht zu.

Ich glaube es gibt aber schon einige Operationen mit echten oder nur impliziten, falschen Abhängigkeiten, wo die vorher laufenden Berechnungen komplett abgeschlossen sein müssen bevor das nächste kommt. Z.b. fürs shading müssen die shadow maps vorher fertig sein (echte Abhängigkeit).

Sowas wie state changes (andere texture/shader usw) implizieren Abhängikeiten die von der Logik gar nicht da sind. Aber wie gesagt, das bisschen OpenGL das ich bisher programmiert habe qualifiziert mich nicht da echte Aussagen zu machen.

Hübie
2024-05-03, 15:43:01
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?

Rechne mal so mit März '25. Preislich wird es in etwas so bleiben wie aktuell +/- $50 denke ich mal. Die Preise werden aber in der Tat sehr spät an die AiB Vendor kolportiert / kommuniziert.

Die 4080 Super rutscht nun immer wieder mal unter die 1000er Marke. Wer also noch ein Jahr Geduld hat bekommt dann für ~75% des Preises gleiche Leistung oder für das gleiche Geld 30% mehr Leistung. Musst halt abwägen.

Ich bin auf die neuen Features gespannt. NVIDIA hatte vor Ewigkeiten schon mal was mit AI & Scheduling bzw. Arbiter geplappert, aber bisher kam da noch nix ins (hartverdrahtete) Frontend. Vielleicht ja nach Blackwell.:confused:

HOT
2024-05-04, 08:02:52
lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)

ImmortalMonk
2024-05-04, 08:08:26
Rechne mal so mit März '25. Preislich wird es in etwas so bleiben wie aktuell +/- $50 denke ich mal. Die Preise werden aber in der Tat sehr spät an die AiB Vendor kolportiert / kommuniziert.

Die 4080 Super rutscht nun immer wieder mal unter die 1000er Marke. Wer also noch ein Jahr Geduld hat bekommt dann für ~75% des Preises gleiche Leistung oder für das gleiche Geld 30% mehr Leistung. Musst halt abwägen.

Ich bin auf die neuen Features gespannt. NVIDIA hatte vor Ewigkeiten schon mal was mit AI & Scheduling bzw. Arbiter geplappert, aber bisher kam da noch nix ins (hartverdrahtete) Frontend. Vielleicht ja nach Blackwell.:confused:


Ja, ich kaufe jetzt auch nichts mehr. Hatte ursprünglich mal mit dem Gedanken gespielt, meine 4070 durch eine 4080 Super zu ersetzen. Aber das lohnt einfach nicht, zumal es am PC aktuell keine Titel gibt, die das für mich persönlich erforderlich machen würden. Denke, im kommenden Herbst kann es mit Titeln wie Star Wars Outlaws dahingehend nochmals kritisch werden, aber da muss ich dann hart bleiben. Werde die 4070 dann "vermutlich" durch eine 5080 ersetzen sobald sie verfügbar ist.

The_Invisible
2024-05-04, 08:20:12
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Sardaukar.nsn
2024-05-04, 08:28:23
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Du sprichst mir aus der dunklen Seele...

https://media1.tenor.com/m/nZT5X9swNZ4AAAAd/jack-nicholson-yes.gif

Hübie
2024-05-04, 08:42:20
Highend am besten gleich am Anfang kaufen. Vor allem bei Nvidia tut sich da preislich über die Lebensspanne fast nix und man hat quasi 2 Jahre ein solides Produkt und Freude daran :D

Das stimmt. Wobei ich drei Jahre abschreibe und nicht zwei. Ich hätte Ende 2023 auch schon neu ordern können, aber mein System gefällt mir, wie es ist immer noch sehr gut. Also mache ich später den Sprung auf (wahrscheinlich) Zen 5 & Blackwell samt QLED. Der Sprung dürfte dann etwa 3x sein und wenn man dann Spielereien wie Bilderzeugung mit rechnet sind es wahrscheinlich so um die 5x.

w0mbat
2024-05-04, 09:37:37
Mei 3440x1440 QD-OLED kommt heute bei mir an, ich werde auch versuchen direkt zum Start eine 5090 zu ergattern. Die RX 6800 ist langsam doch etwas zu langsam für hohe Auflösung und FPS. Plus, RT wird langsam echt wichtig.

Altehardware
2024-05-04, 10:05:31
es wird langsam wieder zeit für ne neue gpu und das schon nach 3 Jahren im Normalfall also wie vor 10 Jahren ziemlich normal wäre da nicht der absurde preis und die extremen Strom bedarf der aktuellen sku
rtx4060 lachhaft wenig mehr Leistung weniger vram 8gb
rtx4060ti 16gb ok wäre da nicht diese Handbremse Bandbreite bei nur 288gb/s das bremst den chip total aus tbp 170w ok
rtx4070 beinahe ideal wäre da nicht die tbp 200w neben den absurden preis über 500€
rtx4070 super das gleiche hier passt mir nicht das 12gb etwas zu knapp sind
rtx4070ti super ideale gpu aber bei nenn absurden preis 850€
rtx4080 preislich undenkbar 1000€
rtx4090 naja viel zu hohe tbp (450w) und außerhalb meiner Anforderungen (1080p)

man siehe mein problem ich benötige ne neue sku kann aber derzeit keine kaufen weil es die sku nicht gibt was idealerweise ein ad104 mit12gb gddr6 18gbps 42sm und nur 180w tbp wäre.
das könnte nvidai jderzeit umsetzen als rtx406,ti super und den ad106 mit gddr6 20gbps und vollen 36sm als rtx4060 super 16gb
Diese wäre sogar mein favorite da diese dann 175w 17tf und 16gb hätte
Die Ursache warum da nvidia nicht tut liegt an den vertrag mit micron alle nvidia rtx40 karten haben micron chips und die sind eben auf gddr6x oder 18gbps beschränkt
Und ne rtx4060super mit samsung chips ist nicht umsetzbar. also muss da gddr6x drauf
das wird es nicht geben daher nehme ich an das man maximal die rtx4060ti super mit 42sm kommen wird oder man labelt eine sku mit gddr6 rtx4070 um statt gddr6x Speicher das reduziert den verbrauch auf 190w bei gleicher alu menge 46sm

KarlKastor
2024-05-04, 11:16:45
Erzähle uns mehr über den Vertrag zwischen Nvidia und Micron.

reaperrr
2024-05-04, 13:57:30
Wann wird denn schätzungsweise Blackwell veröffentlicht und kaufbar sein? Ich meine jetzt aber die 70er Reihe davon. Wird z.B. eine 5070 (TI) wohl die Leistung einer 4080 erreichen, das bei einer 2,5 Slot Kühlung? Und 700 € nicht überschreiten? Was sagen eure Glaskugeln?
Alles unter der 5090 soll Stand jetzt erst nächstes Jahr kommen, und im Fall der 5070 vermutlich auch nicht gleich Januar, sondern eher März/April 2025.

Zu deinen Fragen zur 5070, kann wahrscheinlich alles mit "ja" beantwortet werden (Preis aber nur bei 5070, nicht bei 5070Ti), aber mit der Einschränkung, dass die 5070 wohl erstmal bei 12GB bleibt, da auch GB205 nur ein 192bit SI hat und die erste Gen GDDR7 noch bei 16Gbit (2GB) je Chip bleibt, wodurch die Zukunftstauglichkeit in hohen Auflösungen mit RT wohl eher begrenzt ist.

Und ne 5070Ti mit 16GB auf GB203-Basis würde ähnlich wie die 4070Ti zum Launch wohl eher 900-1000€ kosten, und ne 5070-18GB würde ich frühestens als Refresh gegen Ende 2025 erwarten, zu nem Aufpreis von mindestens 100€ zur normalen 5070, also... joah, was Speichermengen angeht, wird's bei Nvidia meiner Meinung nach frühestens 2026 wieder einigermaßen fair, wenn sie Konkurrenz von RDNA5 bekommen.

lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)
Spricht für GB203-Salvage in der 5080m.

Erhöht zumindest die Wahrscheinlichkeit etwas, dass GB203 prozentual etwas mehr Volumen als AD103 bekommt und die 5070Ti diesmal vielleicht nicht mit kleinerem Chip und 12GB kommt, sondern ebenfalls auf GB203-Salvage basiert.
Kann dafür aber sein, dass die 5070Ti erst später kommt, damit die Leute erstmal entweder 5080 (gleicher Chip zu höherem Preis) oder 5070 (billigerer Chip) kaufen.

Gouvernator
2024-05-04, 16:10:26
lt. Tom (MLID):

5090m -> 16GB
5080m -> 16GB
5070m -> 12GB (GB205)
5060m (Ti) -> 8GB (GB206)
Die 16Gb sind wohl echt eine Verarsche an Kunden. Diese GPUs könnten locker mit meiner 3090 mithalten, werden aber durch mickrigen VRAM in Qualitätseinstellungen mit DSR völlig ausgebremst werden.
Auch auf die Desktop-GPU bin ich deswegen nicht wirklich heiß. Seit 3090 gibt es damit keinerlei Qualitätssteigerung von 8K auf 12K, 16K... Für die Leistung muss schon 48Gb Desktop und 24Gb Mobile her.
Forza Horizon in 8K auf dem Laptop und 16K Desktop wären aus dem Stand möglich.

bbott
2024-05-04, 16:54:53
Die 16Gb sind wohl echt eine Verarsche an Kunden. Diese GPUs könnten locker mit meiner 3090 mithalten, werden aber durch mickrigen VRAM in Qualitätseinstellungen mit DSR völlig ausgebremst werden.
Auch auf die Desktop-GPU bin ich deswegen nicht wirklich heiß. Seit 3090 gibt es damit keinerlei Qualitätssteigerung von 8K auf 12K, 16K... Für die Leistung muss schon 48Gb Desktop und 24Gb Mobile her.
Forza Horizon in 8K auf dem Laptop und 16K Desktop wären aus dem Stand möglich.
Dafür gibt's doch dann FG 2.0 mit 3x mehr fps...

=Floi=
2024-05-04, 17:15:26
Da steht mobil!

Ich warte mal ab, wo NV dreht. Vorteile würde ich auch bei einer verbesserten api sehen.

Hübie
2024-05-05, 05:58:07
Vorteile würde ich auch bei einer verbesserten api sehen.

Weil? :uponder:

=Floi=
2024-05-05, 06:22:10
Weil die single thread cpu immer mehr limitiert. Die 40980er hat schon so ihre probleme und bei 40%-100% mehr leistung wird man selbst in 4k nur noch im limit sein.

davidzo
2024-05-05, 10:32:49
On dGPUs, more than 65% of the time is spent in page migrations: updating GPU tables and copying the data between host and device.

Scheint wohl ein Edgecase zu sein.
Mi300A skaliert eben besser je größer der workload ist, weil dann eben der aufwand für speicherkohärenz dominierend wird.

Overloading the MI300A APU with multiple processes further improved performance by 2x (test with 3-6 CPU cores per APU) which is much better than the lack of scalability on a dGPU+dCPU configuration.

Ich kann mir vorstellen dass traditionelle dGPUs im HPC Kontext in der Praxis einfach schwere scheduling Kopfschmerzen verursachen, während Mi300A deutlich weiter mit skaliert.

Hübie
2024-05-05, 15:43:51
Weil die single thread cpu immer mehr limitiert. Die 40980er hat schon so ihre probleme und bei 40%-100% mehr leistung wird man selbst in 4k nur noch im limit sein.

An was denkst du denn da im Speziellen? Afair ist jede halbwegs aktuelle Engine multithreaded...

nordic_pegasus
2024-05-06, 17:30:47
mal ein Gedanke zu Blackwell und Stromverbrauch. Wenn GB202 weiterhin in N4P gefertigt wird, deutlich mehr Shader bekommen wird und hoffentlich auch die Effizienz steigen wird, so wird dennoch absehbar der absolute Verbrauch steigen bei dem kolpotierten Monster-Chip.

Jetzt ist der 12VHPWR / 12V-2x6 mit 600 Watt maximal spezifiziert, zumindest die hochgezüchteten 4090er Karten stoßen bereits an diese Grenze. Selbst die 4090FE kann man per nvidia-smi Befehl auf 600W stellen. Was machen die Grafikkarten-Hersteller, wenn die OC-Modelle der 5090 die magische Grenze überschreiten? Ich kenne abseits von ein paar 1.600Watt PSUs keine Modelle mit 2 12VHPWR Kabeln. Sofern die PSU-Hersteller den 12VHPWR-Anschluss nativ an der Netzteil-Seite realisiert haben, könnten die "alten" PCIe-Anschlüsse für etwaige Adapter-Kabel knapp sein.

Mal abgesehen davon, sieht die ATX3.0/3.1 Spec überhaupt Karten mit mehr als 600 Watt vor? Wäre das grundsätzlich mit dem Prinzip der Sense-Pins am 12VHPWR-Kabel vereinbar, wenn man 2 Kabel parallel anschließt?

Sind die 600 Watt ein Hard-Limit oder nur eine Papierwand, die bald durchstoßen wird?

wolik
2024-05-06, 17:57:02
Mein gesamte PC Verbrauch (PC+65"8K) bei zocken (in 8K) liegt nicht immer über 600 Watt. Bitte keine "Panik" verbreiten.

[MK2]Mythos
2024-05-06, 18:05:12
Die Frage ist berechtigt. Der Stecker ist doch mit der 4090 schon sehr problematisch. Jede Karte die mehr verbraucht, wird das Problem auch vergrößern.

nordic_pegasus
2024-05-06, 18:52:55
Mein gesamte PC Verbrauch (PC+65"8K) bei zocken (in 8K) liegt nicht immer über 600 Watt. Bitte keine "Panik" verbreiten.

ich verbreite keine Panik. Es geht um die offiziellen Specs. Der Stecker ist für maximal 600 Watt spezifiziert. Die Sicherheitsfaktoren sind mit x1,1 lächerlich klein, wobei diese auch bei normierten Umgebungsbedingungen gelten.

Sardaukar.nsn
2024-05-06, 21:10:10
Das Powerlimit der 4090 ist auch ganz unglücklich gewählt. Sweetspot liegt irgendwo grob bei 350 Watt. Wenn der 5090 Sweetspot 100 Watt höher liegen würde, sillte das kein Problem sein.

horn 12
2024-05-07, 06:36:56
https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-before-rtx-5090

Dann sollte wohl eine 5080 auf RTX 4090 in etwa aufschliessen und man will die Kunden ergattern für jene eine RTX 4090 zu teuer war.
Dafür aber weniger Speicher denke ich mir und max. etwas mehr Performance als eine 4090 für "womöglich 1399 Euro" für die 5080.

Könnte dies hinkommen ?

vinacis_vivids
2024-05-07, 09:55:18
Lächerliche Entwicklung bei Nvidia. Wenn man früher sich mal die GeForce2 Ultra angeschaut hat, gab's die GeForce2 GTS /Pro und die GeForce2 MX als abgespeckte Version.

Die spekulierte RTX5080 ist lediglich eine GeForce2 MX NV11, also quasi alles halbiert für 1399€. Einfach eine lächerliche Entwicklung von Huang.

So wird eine Gesellschaft immer mehr verarmen, wenn man diesem Typen glaubt. Ich denke, es werden sich wieder Leute anstellen und über Nacht zelten für ne Grafikkarte aka "GeForce2 MX" und sich das ganze Geld wieder aus der Tasche ziehen lassen.

Lächerliche Entwicklung.

Altehardware
2024-05-07, 10:15:51
ich habe ne neue Idee aufgrund des Gerücht von dual issue für die sm
Wenn nvidia wirklich wie amd ein dual issue anstrebt also per cache nen zweiten operation anfangen wäre maximal 25% von 2 Opüerationen drin wie amd derzeit mit 17%
Wieso macht das nvidia das ist die Vorbereitung auf mcm
Da zwischen den gpu tiles daten geteilt werden müssen hat man ne latenz was die gpu schlecht auslasten lässt folglich wird die nächste operatione begonnen um die zeit zu nutzen damit der sync dann min dann 2,125 operationen ermöglicht bei 2 chiplets
So der plan
Blackwel wird aber noch monlithisch und erstmal das dual issue ansetzen was folgende konfig beim gb207
chip 2 gpc je 16sm =32smn sku mit 28sm
28*88*2,5*2,25 (sf4x node samsung deutlich langsamer) = 13,8tf oder +21% rtx4060
besser ist der gb206 42sm 42*88*2,5*2,25 =20,7tf oder +24% rtx4060ti
das als rtx5060 12gb und rtx5060ti 16gb
Letztere wäre ideal
Offen ist nur wie sehr die neue ipc auf die tbp auswirken wird da mehr Operationen per clock auch mehr wärme erzeugt. (siehe Ursprung der sfu)
Da auch sf4x genutzt wird dürfte nvidia mit gr206 dann mcm auf samsung sf3 setzen dann etwa 2,65ghz
bsp ein grafiktile etwa 32sm 2 verbaut 64sm aktiv vermutlich 56sm dann
56*88*2,125*2,65 =55,4tf
Dieser Schritt wäre sehr gewagt statt die alu per sm zu erhöhen auf software zu setzen
Sagt aber auch das nvidia keine andere Wahl hat da mcm sicher ist ab n2 bzw sf3 node muss man in chiplets setzen.
Offen ist nur wie gut nvidia dual issue wird. 25% dürften aber machbar sein. Da nvidia alu dichte nicht so hoch ist wie bei amd.
Mehr als 2 tiles dürfte nvidia nicht anstreben bedeutet aber auch das es min 3 tile konfig gibt
32sm (eine rednerengine=2gpc ) 64sm (zwei renderengines =4gpc) 128sm (drei renderengines=6gpc) je mal 2 per gpu
Das aber ist erst rubin 2026 sf3 node 2,65ghz tsmc n2x node 3,75ghz
Demzufolge diese konfig bei blackwell
gb207 32sm 28 aktiv sf4x node 2,25ghz eine sku 60
gb206 64sm 42-60 Aktiv sf4x 2,25ghz 2 sku 60TI 70
gb205 96sm 72-82-90sm aktiv 3,0ghz 3 sku 70TI 80 80ti
gb203 144sm 128 aktiv 3,0ghz eine sku 90
gb202 192sm 160sk aktiv 2,5ghz (hpc only profi)

BlacKi
2024-05-07, 10:33:52
wenn die 5080 mit dem kleineren chip zuerst kommt, dann ist man ja beim alten schema wieder angekommen. die mit dem großen chip 1080ti kam auch erst ein jahr später. weil amd ja keine performance liefert, musste nv nichtmal die hard beschnittene 4090 als full chip bringen. jetzt spart man sich wohl den kompletten big chip am anfang und kann dann mit rdna5 kontern.

leute die alle 2 jahre sich den big chip gönnen werden nicht begeistert sein.

Troyan
2024-05-07, 14:15:53
Das Powerlimit der 4090 ist auch ganz unglücklich gewählt. Sweetspot liegt irgendwo grob bei 350 Watt. Wenn der 5090 Sweetspot 100 Watt höher liegen würde, sillte das kein Problem sein.

Es gibt kein Sweetspot bei Lovelace. Der Stromverbrauch in 4K kann bei 300W oder 450W liegen. Meine 600W OC Karte ohne Spannungserhebung kann auch 550W ziehen oder in einem typischen UE5 Spiel bei 330W rumnuckeln.

HOT
2024-05-07, 17:49:08
Irgendwie beschäftigt mich der Laptop-Launch etwas. Letztes Mal launchten 4080/90 am 8. Februar 23, 4050,60,70 am 22.Februar. Das muss dieses Mal ähnlich oder besser früher laufen, da die Laptops glaube ich diesmal generell früher dran sind (also in Time diesmal) und nicht zu spät, wie bei RPL-U/H(X) oder Rembrandt oder Pheonix oder MTL oder Hawk Point.
Ich gehe mal davon aus, dass NV die Chips schon zur CES alle benötigen wird, da sowoihl ARL-U als auch Kraken Point diesmal pünktlich am Start sind (APU-Launch Oktober, entwickelte Notebooks dann ebenfalls noch in 24). Für NV ändert sich also die Situation zu den letzten Malen. Bin gespannt ob das dann alles BW sind oder ob es eine mixed-Generation aus GB203 und Adas darunter gibt... dann wäre eine BW-Refresh-Generation Ende 25 garantiert.

TheAntitheist
2024-05-10, 02:40:24
Lächerliche Entwicklung bei Nvidia. Wenn man früher sich mal die GeForce2 Ultra angeschaut hat, gab's die GeForce2 GTS /Pro und die GeForce2 MX als abgespeckte Version.

Die spekulierte RTX5080 ist lediglich eine GeForce2 MX NV11, also quasi alles halbiert für 1399€. Einfach eine lächerliche Entwicklung von Huang.

So wird eine Gesellschaft immer mehr verarmen, wenn man diesem Typen glaubt. Ich denke, es werden sich wieder Leute anstellen und über Nacht zelten für ne Grafikkarte aka "GeForce2 MX" und sich das ganze Geld wieder aus der Tasche ziehen lassen.

Lächerliche Entwicklung.
wenn die Entwicklung lächerlich ist, dann lass uns mal lieber mit über AMD GPUs reden...

OgrEGT
2024-05-10, 06:48:13
https://videocardz.com/newz/nvidia-allegedly-testing-geforce-rtx-50-gpu-coolers-ranging-from-250w-to-600w
NVIDIA allegedly testing GeForce RTX 50 GPU coolers ranging from 250W to 600W

Leonidas
2024-05-10, 08:30:25
https://twitter.com/kopite7kimi/status/1787645742510993853
RTX 5080 should be released first.

https://twitter.com/XpeaGPU/status/1788442097978081334
To be exact, they should be announced at same time with availability separated by few weeks

Slipknot79
2024-05-11, 01:43:30
Und was soll die upwerfen? +20% auf die 4090? Gähn. (y)

OgrEGT
2024-05-11, 07:30:47
20% Mehrleistung einer 5080 zur 4090 könnten 40-50%* zu einer 4070Ti/4080S sein... das hört sich schon besser an... kommt halt auf P/L an...
-‐---
* https://www.computerbase.de/2024-04/fortnite-benchmark-test-2024/#abschnitt_benchmarks_in_ultra_hd

robbitop
2024-05-11, 08:50:51
Ich würde nicht zu viel erwarten. Es sind immer noch 4 nm und gb203 soll deutlich kleiner sein als AD102.

nordic_pegasus
2024-05-11, 09:34:43
w17I28lOL84

die 5080 soll wohl passend auf 4090D Niveau abzielen, damit weiterhin eine Karte nach China gehen darf und gleichzeitig günstiger in der Herstellung ist als die 4090D.

AffenJack
2024-05-11, 09:49:29
Ich würde nicht zu viel erwarten. Es sind immer noch 4 nm und gb203 soll deutlich kleiner sein als AD102.

Jepp, deshalb würde ich auch max. 30% mehr für dei 5080 vs 4080 bei Rasterizer erwarten. Einzig bei RT könnte es mehr werden durch Features.

BlacKi
2024-05-11, 10:28:21
Und was soll die upwerfen? +20% auf die 4090? Gähn. (y)nach MLID wirds eine zeit lang keine schnelleren karten geben als die 4090D. deswegen kommt die 5080 zuerst und wird hart an dem sanktionslimit darunter laufen.


natürlich nicht auf dauer.

basix
2024-05-11, 11:07:55
Das muss man immer mit dem TFLOPS-Limit betrachten. Spiele-Performance kann anders ausfallen, AD102 hat jetzt nicht sonderlich hohe Performance/TFLOPS

AffenJack
2024-05-11, 11:59:08
nach MLID wirds eine zeit lang keine schnelleren karten geben als die 4090D. deswegen kommt die 5080 zuerst und wird hart an dem sanktionslimit darunter laufen.


natürlich nicht auf dauer.

Kopite und Xpea sind deutlich glaubwürdiger als MLID. Dass man ihn überhaupt noch ernst nimmt.

Cubitus
2024-05-11, 12:38:17
Ist doch ganz einfach.. ;D

Die 5080 RTX bekommt eine Singel Blackwell GPU, (eventuell abgespeckt) und wenn Jensen gut drauf ist, mit 24 GB VRAM

Die 5090 wird das Monster werden, zwei kastrierte Blackwell GPUs mit dem Interconnect, dennoch wesentlich schneller als die 5080.
Natürlich im Fokus auf die Verwertung der Professional Chips, der Ausschuss muss ja weg, gleichzeitig wird das TDP-Limit nicht vollends gesprengt.

Alternative, kastrierte GPUs eben wieder im Chiplet Design.
5080, Zwei GPUs auf dem DIE
Alles drunter Singel GPU
5090: 4 GPUs auf dem DIE kreuzförmig.

Die 5090 wird dann als Streamer/Creator/und Semi Pro vermarktet.
Hast ja zwei GPUs kannst Streamen, Rendern und Zocken. --> Dann gibts dafür wieder nen Fancy Namen NV-Creator Mode, oder irgend ein anderes Treiber Feature wo du die Gpus trennen kannst.
VRAM, kommt drauf an, schön wären 48 Gigabyte VRAM.

Dann fassen wir mal die Nvidia Logik der Preisgestaltung zusammen.

Die 5080 RTX sollte sie an die 4090(D) kommen, welche ja um die ~1800 Euro kostet,
nicht die neusten Fancy Features besitzt, und somit die schlechtere Wahl wäre, wenn die 5080 ebenfalls 24 Gig Vram hat.. Joa dann bitte einmal 1400 Dollar MRSP, Ka-Ching..

Die 5090 ist dann in der Milchmädchen-Rechnung doppelt so schnell, (weil zwei oder mehr Chips ;D) und bietet doppelten Vram..
Aber Nvidia schreckt eventuell vor der 3K Marke zurück, weil hmm so teuer will man dann auch nicht erscheinen, also 2900 oder 2949 Dollar MRSP für die Founders. E voila

Eine Multichip Design zu undervolten wäre spannend ^^
Dann wirds auf den kleinsten gemeinsamen Nenner hinauslaufen.

Daredevil
2024-05-11, 13:34:06
Wenn wir annehmen, dass es 2 DIEs auf einem Package werden und alles perfekt funktioniert, könnte die potentielle 5090 ggf. auch mehr leisten und weniger Strom verbrauchen als eine 5080 bei gleichen Leistung.
Weil zwei GPUs mit niedrigerem Takt weniger saufen und zusammen halt mehr leisten. Dieses Spielchen habe ich mal mit zwei Vega64 in Battlefield getestet. 2x100w war FPS mäßig ca. 30% schneller als eine Vega64 bei 300w. Nur da war MGPU halt broken bis auf 1-2 Spiele in HighFPS.
Insofern könnte Nvidia auch ne 5080 bei 400w anbieten mit "gutem Chip" und ne 5090 bei 350w mit 2x "schlechtem Chip", aber deutlich mehr Leistung theoretisch. In a perfect World natürlich. :D

BlacKi
2024-05-11, 13:38:42
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.

horn 12
2024-05-11, 13:57:22
Eine 5080 ist wohl eher eine RTX 4080TI welche Nvidia nicht gebracht hat um somit eine 5080 zu Releasen.
Sonst stünde diese Karte in Konkurrenz zur Letzten Generation
Multi Chiplet kann NV streichen,- di ist AMD ihnen schonmal voraus.
Auf sowas Großes muss man vorab die Hausaufgaben machen!

Altehardware
2024-05-11, 14:21:50
kurz nei für mcm ist es noch zu früh blackwell bereitet mcm vor.
rubin vermutlich erst 2027 bzw dessen Nachfolger wird mcm in sf3x node
da nvidia vermutlich die sm Struktur nicht ändert

Folglich wird man den software Weg gehen und mcm umsetzen.
zuerst software mit mehr ipc und dann mcm in sf3x node
bin aber gespannt wie nvidia das latenzproblem zwischen den gpu tile lösen will.
und wie groß werden die tiles ich vermute 2 tpc =96sm in sf3x node etwa 108mm² ohne analog Anteil.
Und dann als rtx70 mit 2 tiles bis 4 tiles die sku ergeben. 192-384sm bei 2,65ghz

TheAntitheist
2024-05-11, 14:25:05
Die 5080 RTX bekommt eine Singel Blackwell GPU, (eventuell abgespeckt) und wenn Jensen gut drauf ist, mit 24 GB VRAM

Erklär mir mal bitte wie man 24GB VRAM an ein 256bit Speicherinterface anbindet, ohne 1.5 oder 3GB RAM Module (nicht verfügbar in diesem Jahr)

also wirklich, erklär mir das bitte

Cubitus
2024-05-11, 14:26:16
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.

Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

Daredevil
2024-05-11, 14:37:53
im consumer gibt kein multichip, save! man könnte eher darüber diskutieren, ob die 5090 überhaupt zeitnah kommt, oder ob man sie gleich ganz im consumer streicht. es gibt einfach 0 konkurenz.
MCM bzw. diese Technologie, die Nvidia einsetzt sieht stark so aus wie die vom M1 Ultra, der im März 2022 vorgestellt worden ist.
Also insofern gibt es schon MCM im Consumer, die Frage ist nur, welchen Preis man dafür aufruft und was der Kunde bereit ist, zu zahlen.
M2 Max + M2 Max = M2 Ultra
https://s20.directupload.net/images/240511/ttvgryzk.png

Die Blackwell Kiste hat 208Mrd Transistoren, der M2 Max kommt auf 134 Milliarden. Das Package ist größer als Intels Flagschiff. :D

https://cdn.wccftech.com/wp-content/uploads/2023/06/Apple-M2-Ultra-SoC-delidded-Intel-Xeon-Sapphire-Rapids-CPU-_1-scaled.jpeg

Selbst wenn es eine 2999€ Titan wird, werden sich dort auch Käufer finden, auch wenn es nur ein AI prestige Objekt wird. Consumer GPUs sind ja mittlerweile schnell genug für AI Workloads im Desktop, was es einem hier nur mangelt ist wirklich massig viel Speicher. Aber hey, alles nur ne Wunschvorstellung. :love4:

BlacKi
2024-05-11, 14:43:11
Erklär mir mal bitte wie man 24GB VRAM an ein 256bit Speicherinterface anbindet, ohne 1.5 oder 3GB RAM Module (nicht verfügbar in diesem Jahr)

also wirklich, erklär mir das bittedurch gddr7 3gb module. der hersteller micron plant jene wohl wirklich ins portfolio aufzunehmen, wenn das aber nv von der verfügbarkeit zuviel risiko ist, dann wird man sich dagegenentscheiden.

Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

nur nachträglich, wenn man wie bei der titan v zuviel ausschuß hat. aber auch jene war wohl nie für den consumer geplant. in dem fall würde ich aber dazu tendieren, das man sogar soweit geht und die titan b als karte soweit kastriert, das sogar nur 1 chip aktiv ist.

ich denke, nv will das die prosumer lieber pro kaufen.

Hübie
2024-05-12, 10:36:01
Das weißt du woher?
Ich sehe es als durchaus realistisch, gerade damit sich die 5090 abheben wird.

Das hat mit Konkurrenz gar nichts zu tun, weil die Preisrange sowieso den AMD Käufer nicht tangieren wird. Eine Multichip 5090 könnte aber durchaus ein Bedarf der Creators, Enthusiasten und Semi-Pro Anwender abdecken.

Billig wird Sie nicht, Nvidia kann mit so einer Karte gutes Geld verlangen und diese wird trotzdem Käufer finden. Wie gesagt wenn es so kommt gehe ich in Euro von 3K aus, wenn es die AIBs fertigen dann sind Preise für die super OC Modelle zwischen 3500-4000 Euro drin. Die "günstigen" Partner wie PNY, KFA
und Co werden dann knapp unter 3K liegen.

Nvidia hat sich noch nie an AMD orientiert, was Produktpalette angeht. Preislich schon eher. Wenn eine 5090 geplant war, wird sie kommen. Ob AMD nun Kopfstand macht oder nicht spielt keine Rolle. Multichip könnte man als Wiederauferstehung des Titanen nutzen, aber das möchte wohl niemand. :D

Gouvernator
2024-05-12, 10:56:10
Spannendste GPU wird eh das sein welche statt 16Gb , 24Gb bekommt. Alle VRAM Größen drüber werden von NV aus dem Stand heraus vergoldet und unbezahlbar. Wenn es hart auf hart kommt, dann wird NV den Preis über die Vram Größe über ein Kamm bestimmen. Eine 5080 mit 24Gb könnte grundsätzlich eine 2000€ Karte sein. Die 5090 mit 24Gb 2500-3000€. Und 5090 mit 32-48Gb dann mit völlig offenem Preis, bestimmt durch Schmuggler nach China.

PS. Wer eine "billige" 5080 mit 16Gb kaufen will, fällt auf den selben Scam ein wie damals als NV beschnittene 1,5-3,5Gb verkaufen konnte. Leistung vs VRAM stimmt bei 5080 16Gb in etwa auf gleiche Weise.

The_Invisible
2024-05-12, 11:01:31
Hier wird schon wieder übertrieben mit den Preisen genauso wie nach den >2k GPUs titan rtx und 3090ti...

@Hübie
Naja die 90er Serie ist eigentlich Titan, kann man auch ECC aktivieren. Obwohl man natürlich differenzieren kann, eine richtige Titan mit dual-gpu wär schon geil, um wird man aber sicher für Prof. Karten sparen...

Platos
2024-05-12, 11:08:12
Mit dual-GPU wie eine "wirkliche" Titan wäre es aber wie eine SLI Karte und somit alles andere als Geil fürs Gaming. Dann wäre es wieder eine Microstutter-Maschine.

Hingegen eine Multichip-GPU, die als eine einzige GPU fungiert, das wäre technologisch geil. Aber preislich sicherlich vergoldet.

The_Invisible
2024-05-12, 11:10:24
Mit dual-GPU wie eine "wirkliche" Titan wäre es aber wie eine SLI Karte und somit alles andere als Geil fürs Gaming. Dann wäre es wieder eine Microstutter-Maschine.

Hingegen eine Multichip-GPU, die als eine einzige GPU fungiert, das wäre technologisch geil. Aber preislich sicherlich vergoldet.

Ja das meinte ich, SLI will heute wohl keiner mehr...

Sardaukar.nsn
2024-05-14, 07:26:34
Die wohl wichtigste Änderung für Blackwell... Abschreibung (https://www.haustec.de/management/it/so-schreiben-sie-hardware-und-software-richtig-ab#:~:text=Steuertipps%20f%C3%BCr%20Handwerksbetriebe-,Hard%2D%20und%20Software%20komplett%20in%202023%20abschreiben,mehr%20unter%2080 0%20Euro%20liegen) :freak:

Hübie
2024-05-14, 19:03:42
Das muss dann aber ein Fertig-PC oder ein komplett selbst zusammen gestellter PC sein.

Sardaukar.nsn
2024-05-14, 19:11:11
Bisher habe ich die eingereichten Einzelteile immer bewilligt bekommen. Abschreibung halt uber drei Jahre. So ist es mir deutlich lieber. Je nachdem wie 4090 wieder verkauft wird, könnte das unterm Strich eine sehr günstige GPU gewesen sein.

monstar-x
2024-05-15, 13:03:51
Das muss dann aber ein Fertig-PC oder ein komplett selbst zusammen gestellter PC sein.

Muss eigenständig nutzbar sein, eine Grafikkarte ist alleine nicht nutzbar, ein Fertig-PC hingegen schon.


Bisher habe ich die eingereichten Einzelteile immer bewilligt bekommen. Abschreibung halt uber drei Jahre. So ist es mir deutlich lieber. Je nachdem wie 4090 wieder verkauft wird, könnte das unterm Strich eine sehr günstige GPU gewesen sein.

Dann hattest du bisher Glück, bei einer richtigen Prüfen, würden die Steuerprüfer das bemängeln. Grafikkarte muss laut AFA Tabelle über Jahre abgeschrieben werden und ist nicht Sofort Abschreibungsfähig.

TheAntitheist
2024-05-16, 06:02:36
Muss eigenständig nutzbar sein, eine Grafikkarte ist alleine nicht nutzbar, ein Fertig-PC hingegen schon.




Dann hattest du bisher Glück, bei einer richtigen Prüfen, würden die Steuerprüfer das bemängeln. Grafikkarte muss laut AFA Tabelle über Jahre abgeschrieben werden und ist nicht Sofort Abschreibungsfähig.
er hat doch gesagt über drei Jahre, drei Jahre sind nicht sofort.

Dazu kommt noch das was du schreibst nicht stimmt, denn man kann es seit ein paar Jahren komplett abschreiben.

Mit Schreiben vom 26.2.2021 ermöglicht das Bundesfinanzministerium (BMF, Schreiben v. 26.2.2021, IV C 3 - S 2190/21/10002 :013) die Nutzungsdauer von Computern, Tablett-PCs, Notebooks und Netbooks einschließlich aller Zubehörteile sowie der Peripheriegeräte, z.B. Drucker und Scanner, mit 1 Jahr anzusetzen.

monstar-x
2024-05-17, 00:34:03
er hat doch gesagt über drei Jahre, drei Jahre sind nicht sofort.

Stimmt :cool:



Dazu kommt noch das was du schreibst nicht stimmt, denn man kann es seit ein paar Jahren komplett abschreiben.

Mit Schreiben vom 26.2.2021 ermöglicht das Bundesfinanzministerium (BMF, Schreiben v. 26.2.2021, IV C 3 - S 2190/21/10002 :013) die Nutzungsdauer von Computern, Tablett-PCs, Notebooks und Netbooks einschließlich aller Zubehörteile sowie der Peripheriegeräte, z.B. Drucker und Scanner, mit 1 Jahr anzusetzen.

Du kannst viele Dinge im Anschaffungsjahr abschreiben aber keine interne Geräte wie Grafikkarte, CPU, SSD, Mainboard, Netzteil etc.
Wie du schon sagst bezieht sich dass auf externe Peripheriegeräte oder eigenständig nutzbare Geräte wie Notebook, Computer.

Alles schön hier aufgelistete
https://www.haufe.de/steuern/finanzverwaltung/geaenderte-nutzungsdauer-von-computerhardware-und-software_164_537792.html


Aber lass uns nicht zu sehr Offtopic werden, die Frage ist beantwortet.

ianm
2024-05-20, 21:20:15
Ich würde nicht zu viel erwarten. Es sind immer noch 4 nm und gb203 soll deutlich kleiner sein als AD102.

https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-super-modded-to-26-gbps-memory-outperforms-rtx-4080-in-synthetic-test

GDDR7 scheint da einiges an Leistung zu bringen.

robbitop
2024-05-20, 22:03:27
Da wurde sicher die GPU auch mächtig mit übertaktet. Außerdem war die 4070 ti super ja nun nicht so ewig weit weg von der 4080.

ianm
2024-05-20, 22:20:50
Dennoch wird hier einiges an Performance dazu kommen. Mehr als nur mit reinen Architekturverbesserungen mögliche wäre.

Hübie
2024-05-21, 10:23:15
er hat doch gesagt über drei Jahre, drei Jahre sind nicht sofort.

Dazu kommt noch das was du schreibst nicht stimmt, denn man kann es seit ein paar Jahren komplett abschreiben.

Mit Schreiben vom 26.2.2021 ermöglicht das Bundesfinanzministerium (BMF, Schreiben v. 26.2.2021, IV C 3 - S 2190/21/10002 :013) die Nutzungsdauer von Computern, Tablett-PCs, Notebooks und Netbooks einschließlich aller Zubehörteile sowie der Peripheriegeräte, z.B. Drucker und Scanner, mit 1 Jahr anzusetzen.

Genau. Abschreibungen schön über drei Jahre verteilen. Ich mache das linear degressiv. Passte bisher ohne Murren.

B2T: Mehr Bandbreite schadet sicher nicht, aber wenn es an anderen Stellen klemmt, dann nützt die natürlich auch nix mehr. Wenn Blackwell draußen ist, können wir uns ja hin setzen und die Bandbreite auf 21 oder 23 Gbps drosseln, um Vergleiche anstellen zu können. Ich erwarte dabei keine Überraschungen, sondern niedrigen, einstelligen Bereich, was so 3-5% entsprechen dürfte. IIrc skalierte in der Vergangenheit die Bandbreite nie linear mit der Geschwindigkeit in Computerspielen.

Sardaukar.nsn
2024-05-21, 10:27:30
Heute Abend erscheint ja der neue 3D Mark Steel Nomad. Wenn Blackwell nicht +50% auf die 3GHz 4090 drauflegen kann wird es eh nicht so spannend. https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/

Von 2080ti zu 3090ti waren es laut dem PCGH Benchmark +74% und von dort zur 4090 +78-91%. Also Erwartungen sind schon mal da.

Cubitus
2024-05-21, 13:18:47
Ganz hartes Spekulatius:

Also gehen wir mal von einem Multichipcluster (4090/5090) aus, die Technik zum Verbinden wird NVLink sein.

Beispiel die 5090 bestünde aus 2-4 kleineren GPUs die sowohl einzeln auch wie im Verbund arbeiten können.
Man könnte das sogar weiterspinnen, ein Teil des Treibers (KI) überwacht die Auslastung der Chips und würde bei benötigter Leistung das Cluster hochfahren, 600+ Watt.
Oder die Leistung wird nicht benötigt und die Karte würde dann eben je nachdem 50-100 Watt verbrauchen.

Voraussetzung wäre ein ordentlich dimensionierter Vram-Memory Pool, und eben auch gute Treiber.

Man hätte jedenfalls keine Nachteile mehr von SLI da im Verbund "eine" virtuelle GPU für die ganzen Berechnungen verantwortlich wäre und der VRAM ließe sich natürlich gemeinsam nutzen.
Man spricht dann auch nicht mehr von einer "Gaming GPU" sondern wie gesagt von einem Cluster, welches Nvidia in die Heim-PCs bringen würde.

k0nan
2024-05-21, 13:41:26
Heute Abend erscheint ja der neue 3D Mark Steel Nomad. Wenn Blackwell nicht +50% auf die 3GHz 4090 drauflegen kann wird es eh nicht so spannend. https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/

Von 2080ti zu 3090ti waren es laut dem PCGH Benchmark +74% und von dort zur 4090 +78-91%. Also Erwartungen sind schon mal da.


+1 :wink:

davidzo
2024-05-21, 15:41:01
Ganz hartes Spekulatius:

Also gehen wir mal von einem Multichipcluster (4090/5090) aus, die Technik zum Verbinden wird NVLink sein.


Das glaube ich nicht. Wenn man das als Gaming-GPU akzeptiert hätte, dann hätten wir schon in den letzten Generationen Multichip GPUs gesehen.
Nee, das wird eine Crossbar, Ringbus oder so auf L2 Cache Ebene oder DRAM Controller Ebene sein. Ein Chip edge to edge connector wobei sich das fabric ansonsten so verhält als wäre es ein Einzelchip, analog zum M2Ultra und sapphire Rapids.

Nvlink verwendet NICs, PHYs etc. Das ist also ein richtiges Netzwerk und unterstützt flexible Anzahlen von Teilnerhmern und komplexe Topologien mit Switches etc. Nvlink nutzt außerdem PAM4 signaling um die Bandbreite so hoch zu bekommen. All das kostet nur unnötig Diefläche, Latenz und Power. Eine edge to edge Verbindung über einen embedded silicon bridge oder das package dagegen begrenzt nur den Takt und Latenz, verhält sich ansonsten aber wie ein Einzelchip.

900gb/s wie das aktuelle NVlink wäre für gaming auch einfach noch nicht ausreichend um den L3 Cache oder DRAM effektiv wie ein einzelnen Node zu behandeln. Und alles andere will man offen sichtlich nicht wegen der Treiberkomplexität. Sonst hätte man das schon gemacht.

12x Lanes Nvlink 3.0 kosten bei Ampere rund 4% des DIEs, also 30mm2 (von 836mm2). Darüber gehen bei A100 nur rund 600gb/s mit allen Lanes. Nvlink 4.0 bringt 900gb/s ist aber nicht kleiner geworden bei H100.

Die 4090 hat 5,5tb/s Bandbreite aus dem L3. Navi31 hat ungefähr die gleiche Bandbreite zu den MCDs und der Interconnect belegt dabei nur rund 7%der CCD-fläche bzw. 10% der MCD-Fläche, also 20 + 22mm2. Für Durchschnittlich 8% der Chipgröße bzw. 42mm2 bekomme ich also einen Interconnect mit über 5tb/s. Das ist viel effektiver als NVlink.

Btw, ein weiterer Vergleich: der 7800x3d hat rund 700gb/s L3 cache Bandbreite auf einem winzigen 70mm2 Chiplet bei dem nur in einem Bruchteil der größe überhaupt Chip to Chip Vias vorhanden sind. Das ist ähnlich viel wie die Off-Chip Bandbreite einer riesigen H100 GPU.
Genoa X mit 12 davon hat fast 10TB/s an L3 Cache Bandbreite!

Es wird eine Punkt zu Punkt Verbindung die auch ausschließlich so verwendet werden kann, also mit 2x Chips wenn sie für 2x designed ist. Wenn nur ein Chip verbaut ist kann man die nicht etwas für Offchip Kommunikation wie NVlink benutzen, sondern dann liegt der Verbinder einfach brach, so wie bei den Apple Max CPUs.

Btw, nur B100, B200, BH200 werden Multichip.

GB202 (5090) bleibt eh noch monolithisch.

The_Invisible
2024-05-21, 15:54:59
Heute Abend erscheint ja der neue 3D Mark Steel Nomad. Wenn Blackwell nicht +50% auf die 3GHz 4090 drauflegen kann wird es eh nicht so spannend. https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/

Von 2080ti zu 3090ti waren es laut dem PCGH Benchmark +74% und von dort zur 4090 +78-91%. Also Erwartungen sind schon mal da.

Wäre schon nice, wobei man dann selbst in 4k immer öfter in CPU-Limits laufen wird, wenn da die Reviewer nicht aufpassen kommt nur ein "nur 40% schneller" raus ;)

Weltraumeule
2024-05-22, 18:03:22
Die 5070 wird die Leistung einer 4080 erreichen, max 700 € kosten, unter 250 Watt verbrauchen und 2,5 Slots brauchen oder? Und mit 12 GB für paar Jahre in wqhd reichen?
Oder wird die 5070 TI 16 GB haben und vorzuziehen sein?

basix
2024-05-22, 18:56:06
Ich persönlich würde für längerfristige Nutzung eher 16GB empfehlen. Heute noch nicht nötig, aber es gibt bereits heute "Problemstellen" mit 12GB.

Ob das den preiswert ist, ist die andere Frage. Evtl. hat AMD ja auch was im Angebot.

Weltraumeule
2024-05-22, 19:03:16
Ich persönlich würde für längerfristige Nutzung eher 16GB empfehlen. Heute noch nicht nötig, aber es gibt bereits heute "Problemstellen" mit 12GB.

Ob das den preiswert ist, ist die andere Frage. Evtl. hat AMD ja auch was im Angebot.

Leider brauche ich für meine viele alten Spiele (spiele u.a. seit 10 Jahen regelmäßig Portal 2 hunderttausende von Spielern erstellten Level) OGSSAA/SGSSAA, das bietet nur Nvidia.

Ach ja, wird die 5000er Generation dies überhaupt noch unterstützen? :confused: Bei der vierer geht es ja zum Glück noch. Ist das überhaupt eine Architektur oder nur Treibersache? Oder beides zusammen?

Sardaukar.nsn
2024-05-22, 22:40:40
Wäre schon nice, wobei man dann selbst in 4k immer öfter in CPU-Limits laufen wird, wenn da die Reviewer nicht aufpassen kommt nur ein "nur 40% schneller" raus ;)

Zumindest in den synthetischen Benchmarks wie 3D Mark wird der Blackwell TopDog (welche auch sicher zuerst vorgestellt wird) wie immer ordentlich drauflegen müssen. Wenn sie nach zwei Jahren einen Nachfolger mit weniger als +50% rausbringen wäre das ein ziemlicher Fail.

Altehardware
2024-05-22, 23:37:07
Wo die sku landen ist schwierig zu bestimmen da nicht klar ist welcher chip ne rtx5070 haben wird ausreichen würde der gb206 mit 64sm und 60sm aktiv bei 2,25ghz grob 29tf das wär 10% schneller als ne rtx4070super mit dem gb205 mit 72sm 47tf was dann etwa +30% über der rtx4080 wäre
Man muss die Konkurrenz sehen und amd konkurriert nur mit der rtx4070ti akä rtx5070
der gb206 ist saubillig 9000$ per wafer nur 300mm² chip grob 60$
den kann man ab 550€ verkaufen
daher wird das nix mit rtx4080 perf mit der rtx5070
nvidia kann sich anders entscheiden und klar vorrennen um das die mcm chips zu entlaufen
da aber wird es noch nenn refresh als rtx60 geben mit dann geänderten chipsortirung also rtx6070 den gb205 mit 90sm aktiv grob 44tf
amd mcm wird sowieso spannend
ich gehe von 2 gcd designs aus einmal 48cu per gcd und einmal 60cu per gcd als refresh mit n2x node
erste gen also 2 gcd 96cu und 3 gcd 144cu bei 3,9ghz
grob 4 sku
n52 80cu 3,9ghz 2,25ipc grob 45tf
n52 96cu 3,9ghz 2,25 ipc grob 53tf
n51 112cu 3,9ghz 2,11 ipc grob 58tf
n51 144cu 3,9ghz 2,11 ipc grob 75tf
das kommt q4 2025 bis q4 2026 und wird von den apu abgelöst und mit dem refresh in n2x 2027 halbe chipgröße und 60cu per gcd mit dann 4gcd und 6 gcd
n62 240cu n61 mit 360cu

n62 226cu 2,07 ipc 3,9ghz grob 115tf
n62 240cu 2,05 ipc 3,9ghz grob 122tf
n61 312cu 2,04 ipc 3,9ghz grob 158tf
n61 360cu 2,04 ipc 3,9ghz grob 183tf

amd könnte auch einfach die cu umbauen in 128alu per cu das reduziert die zahlen aber am ende bleibt es gleich.
da aber pro cu ein rt core ist bietet sich das an

TheAntitheist
2024-05-23, 00:22:25
Leider brauche ich für meine viele alten Spiele (spiele u.a. seit 10 Jahen regelmäßig Portal 2 hunderttausende von Spielern erstellten Level) OGSSAA/SGSSAA, das bietet nur Nvidia.

Ach ja, wird die 5000er Generation dies überhaupt noch unterstützen? :confused: Bei der vierer geht es ja zum Glück noch. Ist das überhaupt eine Architektur oder nur Treibersache? Oder beides zusammen?
ein großer Teil ist Software, die Hardware muss nur die Auflösung unterstützen und die wird sich ja nicht in der Zukunft verkleinern. der software teil ist wie die Abtastung ist, ob ordered oder rotated. bei SGSSAA wird die Auflösung intern nicht erhöht aber mehr samples pro pixel genommen (denke mal mit jitter). also auch alles software

und BTW, brauchen schreibt "Altehardware" auch hier wieder über AMD... kann dieser Quatsch von den AMD Fanboys mal aufhören? Ihr müsst eure Fehlkäufe nicht rechtfertigen.

Altehardware
2024-05-23, 02:36:57
ich bin mit meiner cpu zufrieden mir geht es um den trend und da muss nvidia mit rtx70 auf mcm setzen und da steige ich aus weil einfach zu viel Strom frisst nicht unter 250w und zu teuer wird nicht unter 500€
Da bleibt nur amd über.
Den Effizienz Weg könnt amd und nvidia gehen aber dafür fehlt einfach die motivation da man diese Leistung auch für Ai brauchen wird und nicht extra Stromsparende gaming gpu entworfen werden.
Daher geht amd in entry klar den Weg der apu und nvidia sagt Tschüss zum entry markt.
Darum die Erziehung von asp über 600€ Ich hätte sehr gerne nenn monolithischen gx206 mit 128sm (120mm² n2x node +-60$) 180w um 2028 rum
Den wird es aber nicht geben

gnomi
2024-05-23, 11:12:55
Die 5070 wird die Leistung einer 4080 erreichen, max 700 € kosten, unter 250 Watt verbrauchen und 2,5 Slots brauchen oder? Und mit 12 GB für paar Jahre in wqhd reichen?
Oder wird die 5070 TI 16 GB haben und vorzuziehen sein?

Kann man ja nur spekulieren.
Falls es zwei Produkte 5070/5070TI wie bei 4070/4070 TI gibt, könnte eines über den Preis gehen. (~ 4070 Ti Super Performance; eventuell nur 12GB VRam; 600-700$)
Bei ~ 4080S Performance mit 16GB VRam wird es beim Preis denke ich eng. 700-800$ würde ich eher schätzen.
5080 dann ~ 4090 Niveau. Eventuell nur 16GB Vram und günstiger 1000-1200$.
5090 dann so schnell wie möglich und über 1600$.

Denke aber allgemein, dass es nicht ganz so teuer, aber auch nicht ganz so aufsehenerregend diesmal wird.
4090 war eine Hammer GPU zum Hammer Preis.
Beides nochmal brutal hoch und den Rest der Karten fast zum schlechten Deal machen. Na, ich weiß nicht, ob das so gut ankommt.
Finde 4080 Performance und 16GB Vram für nochmals weniger Geld als mit den Super Karten bringt uns jetzt eher weiter.
Damit hätte man mehr Gaming Karten über PS5 Pro Niveau im Markt und würde denke ich mehr ausgereifte und sich gut verkaufende PC Umsetzungen sehen.
Effizienz wird wie immer besser gemessen an der Performance.
Kühlungslösung hat sich das Niveau bei der 4000er Serie nochmals gegenüber Turing und Ampere verbessert. Bei solchen Karten akzeptiert kaum einer noch gestrigen Durchschnitt. Muss alles zudem leise sein und leuchten.
Verbrauch 200-350Watt je nach Chip und welche Performance bei den Produkten erreicht werden soll.
Unter 250 wahrscheinlich nur die kleinste 70er Lösung.
Bei einer zweiten besseren könnte es mit Glück klappen.
Ich bin wirklich gespannt, wie das ausgeht und ob nvidia nicht bei den Preisen überzieht und bei allem anderen wie gewohnt die Erwartungen übertrifft. :wink:

Daredevil
2024-05-23, 11:23:46
Imho sind die DLSS bzw. Software Fähigkeiten aber auch ein Faktor, den man nicht außer Acht lassen sollte.
Wenn ich die Wahl zwischen einer 4080 mit DLSS3 und einer 4090 mit nur DLSS2 hätte, würde ich wahrscheinlich das Featureset mit FG usw. über die Rohperformance stellen.

Insofern könnte eine 5070 auch attraktiver sein als eine 4090. Es kommt immer drauf an, was am Ende auf dem Bildschirm angezeigt wird und das entscheidet nicht nur die rohe Performance sondern auch die Tensor Cores + Software. Eine 2070 fühlt sich 2024 sicher deutlich besser an als eine 1080ti, die überhaupt kein DLSS kann.
Nur weiß man natürlich nicht, was alles in Zukunft kommt und wie sehr Nvidia die neuen Features künstlich beschränkt.

Weltraumeule
2024-05-23, 12:23:59
Seufz, Fragen über Fragen hmmm.
Habe wqhd und 4070. Gestern kam der 4k OLED an. Spiele momentan außer Minecraft Bedrock RTX eh eher ältere oder Indiespiele, wo die 4070 die 4k noch packen könnte oder zur Not schalte ich auf 1440p, so schlimm wird das schon nicht aussehen. Habe eh schlechte Augen und hätte zu OLED 32 Zoll wqhd gegriffen wenn es sowas geben würde, brauche kein 4k :biggrin:

Frage mich nur, ob ich jetzt 4080 kaufen solle oder ein Jahr lang bis zur 5070/80 warten und dann Leistung, Softwarefeatures und Preis begutachte. Bin ein sehr ungeduldiger Mensch und die 4080 juckt in den Fingern. Obwohl ich die Leistung nicht bräuchte (Selbsteinredung), wenn ein Jahr lang eher ältere Spiele zocken sollte. Aber, wenn es mich doch mal innerhalb dieses einen Jahres zu z.B. Witcher 3 Remastered oder Cyberpunk zieht und dann die Leistung fehlt?
Oder ältere Spiele mit hohen OG/SGSSAA, OU und RTGI? Ich spiele regelmäßig Porta 2 die hunderttausenden Spielerlevel mit OG/SGSSAA und die Leistung für RTGI fehlt mit der 4070.
Vielleicht sollte ich jetzt zur 4080 greifen und dann in 1,5-2 Jahren zur 5070 und deren Refreshes.

Daredevil
2024-05-23, 13:26:28
Ich habe seit Anfang 2020 einen 4K OLED und kann dir aus Erfahrung sagen, das wurmt mich bis heute. Völlig egal ob 1080ti, 2080ti oder jetzt 3090, es gibt keine Karte der Welt, die diesen Monitor perfekt bedienen kann, auch ohne RT. Eine 4090 macht dies natürlich nochmal deutlich besser, aber eben auch nicht perfekt. 4K120 ist ein Problem, welches selbst mit DLSS und FG nicht gelöst ist. Problematisch dazu kommt natürlich auch RT hinzu, was alles verschlimmert in Sachen Performance. :D
Insofern mein Tipp: Füße still halten, weil das *Problem 4K bekommst auch mit einer 4080 nicht in den Griff. Ich habe letzten meine 3090 noch für nen guten Preis verkauft und warte lechzend auf die dickste Blackwell, die dann... zum vierten mal in den letzten Jahren vielleicht die 4K Karte sein wird. :usad:

* Das Problem im Sinne der Spielbarkeit ist natürlich subjektiv. Für manche reicht 4K60, für manche 4K100 mit Mid Details und manche pfeifen auf 4K und reduzieren einfach die Auflösung.
Geht bei mir in 55" bei 1m Abstand nicht, deswegen ist das natürlich hoch subjektiv.

Hellblade II zeigt es eigentlich wieder ganz eindrücklich. Von einer 2000€ Hardware erwarte ich schlicht 4K100+. Das wäre meine "Schmerzgrenze".
https://www.computerbase.de/2024-05/senuas-saga-hellblade-ii-benchmark-test/
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88259&d=1716463761

The_Invisible
2024-05-23, 13:42:07
100+ bekommst eh wenn du FG einschaltest ;)

rentex
2024-05-23, 15:07:51
@Daredevil Seit der GTX 1080, hat jedes bisher erschienenes Modell von NV sein "4K" Versprechen nicht eingehalten.
Daher hatte ich bis jetzt auch keinen 4K Monitor, sondern nur 1440p.

Leonidas
2024-05-23, 15:43:42
Chiphell-Gerücht: Blackwell Top-Modell vorbereitet auf 512-Bit-Interface und 32 GB Speicher
https://videocardz.com/newz/nvidia-rtx-5090-founders-edition-rumored-to-feature-16-gddr7-memory-modules-in-denser-design
https://cdn.videocardz.com/1/2024/05/NVIDIA-RTX5090-PCB-768x576.jpg

Die Platine derart zu gestalten, sagt erst einmal nicht aus, dass man es anfänglich wirklich so nutzt. Es sagt nur aus, dass es den Plan gibt, dies irgendwann zu nutzen. Möglich ist natürlich alles: 32 GB gleich von Anfang an mit der 5090 - oder aber erst zum Refresh in Form einer Titan.

PS: An den mageren Speichergrößen der kleineren Chips ändert das nix. Dort müsste NV heweils eine Chip-Stufe nach oben gehen (dem Kunden mehr Silizium schenken), damit mehr VRAM möglich wird.

Wuge
2024-05-23, 15:58:04
Uhhh hübsche Platine. Gib uns 32/s Gbit x 512 und lass das fette VRM glühen :)

Cubitus
2024-05-23, 16:12:39
Chiphell-Gerücht: Blackwell Top-Modell vorbereitet auf 512-Bit-Interface und 32 GB Speicher
https://videocardz.com/newz/nvidia-rtx-5090-founders-edition-rumored-to-feature-16-gddr7-memory-modules-in-denser-design
https://cdn.videocardz.com/1/2024/05/NVIDIA-RTX5090-PCB-768x576.jpg

Die Platine derart zu gestalten, sagt erst einmal nicht aus, dass man es anfänglich wirklich so nutzt. Es sagt nur aus, dass es den Plan gibt, dies irgendwann zu nutzen. Möglich ist natürlich alles: 32 GB gleich von Anfang an mit der 5090 - oder aber erst zum Refresh in Form einer Titan.

PS: An den mageren Speichergrößen der kleineren Chips ändert das nix. Dort müsste NV heweils eine Chip-Stufe nach oben gehen (dem Kunden mehr Silizium schenken), damit mehr VRAM möglich wird.

32 GB sollten schon sein um einen 4090 User hinter dem Ofen hervor zu locken. Hätte 1-2 Spiele wo mehr Speicher nett wäre. Gerade Cyperpunk sieht mit guten Texturemods nochmals um einiges besser aus, leider wird unter 4K damit der Vram knapp.

Troyan
2024-05-23, 18:31:05
AI Blackwell ist in Produktion. Daher sollten die Gaming-Chips auch nicht weit weg sein.

Ghost1nTh3GPU
2024-05-23, 19:03:13
Eine 48GB (3GB Module) Titan RTX Black würde sicherlich auch ihre Käufer finden.

BlacKi
2024-05-24, 00:41:47
und damit wäre der dual chip fiebertraum auch ausgeträumt.



Eine 48GB (3GB Module) Titan RTX Black würde sicherlich auch ihre Käufer finden.blackwell next braucht aber auch einen kaufgrund.





aber ganz ehrlich, 512bit + gddr7? da lässt man aber auch nichts mehr für bw next übrig. ob das nicht ne finte ist?

iamthebear
2024-05-24, 01:05:23
Ich würde einmal davon ausgehen, dass GB202 Preis astronomische Höhen erreichen wird. Wenn sich nicht genug Gamingkunden finden verkauft man den Rest eben wieder über ein paar Hintertüren nach China.

Das was Nvidia dann wirklich in der Masse verkaufen will ist GB203 und der ist deutlich kleiner, mit masstauglicher Kühlung usw. Ich würde hier auf 1199$ Straßenpreis tippen. Und diese Karte kann man auch auf offiziellem Weg in China verkaufen.

Kriegsgeier
2024-05-24, 14:07:51
bei den Aussichten:

RTX 5080 --> 1499€

RTX 5090 --> 2499€

Und glaubt mir Leute, diese Preise wären ein Segen für die potenzielle Käufer, denn bei diesen Preisen wird man zumindest was kaufen können!
Bei geringeren Preisen wird es ein 3080/3090 Launch und da hat man nur 100 oder 150 Karten kaufen können? Ne danke.

PS: ein Ferrari kauft auch nicht jeder und für eine RTX 5090 die 2500€ wären völlig ok!

boxleitnerb
2024-05-24, 14:51:26
Nein wäre nicht ok, P/L muss mit der Zeit deutlich besser werden. 50% mehr Leistung bei 50% höherem preis ist scheiße. Hört bitte auf, so einen Mist schönzureden.

basix
2024-05-24, 15:07:32
Via CB von kopite:
https://www.computerbase.de/2024-05/geforce-rtx-5090-pcb-der-fe-soll-16-gddr7-chips-fassen-und-dreiteilig-sein/#update-2024-05-24T13:48

Main Board, IO Rigid Board and a separate PCIE slot component(perhaps it should not be considered as the third PCB).

Finde ich jetzt nicht unlogisch:
- Mainboard mit GPU, Speicher und Power Delivery
- Adapter-Board für IO, evtl. für verschiedene Karten wiederverwertbar
- Adapter /(Board?) für PCIe Slot Connector, evtl. für verschiedene Karten wiederverwertbar

Sardaukar.nsn
2024-05-24, 17:12:31
Für die FE vielleicht denkbar, aber ich hoffe doch stark es wird wieder ein kompaktes PCB im Referenz Design geben.

reaperrr
2024-05-24, 18:07:37
aber ganz ehrlich, 512bit + gddr7? da lässt man aber auch nichts mehr für bw next übrig. ob das nicht ne finte ist?
Nicht unbedingt.

Die Ada-Karten rennen teilweise schon recht nah am Bandbreitenlimit, die 4090 wegen dem kastrierten L2 teilweise noch mehr als z.B. die 4080(S).

GDDR7 wird anfangs höchstens bis 32 Gbps gehen, mit sicherlich deutlich höheren Timings/Latenzen je Takt.
Da braucht es neben mehr aktivem L2 vielleicht auch einfach zusätzlich ein breiteres SI, um die Rohleistung voll ausschöpfen zu können.
Ob das bei der 5090 auch so kommt ist ja auch noch nicht bestätigt, könnte auch auf Quadros, ne Titan oder ne spätere 5090 Ti/Super beschränkt sein und die 5090 setzt weiter auf 384bit/24GB.

Kann auch sein, dass die erste Gen an Karten erstmal nur 28Gbps G7 verwendet, weil der deutlich günstiger/besser verfügbar wird, das muss man abwarten.

BW Next für Desktop wird wahrscheinlich wieder 2 Jahre dauern, bis dahin gibt's wahrscheinlich GDDR7 mit 3GB je Chip und 36-40 Gbps, vielleicht auch wieder etwas schnelleren GDDR7X von Micron exklusiv für NV.

gedi
2024-05-24, 18:34:27
Nicht unbedingt.

Die Ada-Karten rennen teilweise schon recht nah am Bandbreitenlimit, die 4090 wegen dem kastrierten L2 teilweise noch mehr als z.B. die 4080(S).

GDDR7 wird anfangs höchstens bis 32 Gbps gehen, mit sicherlich deutlich höheren Timings/Latenzen je Takt.
Da braucht es neben mehr aktivem L2 vielleicht auch einfach zusätzlich ein breiteres SI, um die Rohleistung voll ausschöpfen zu können.
Ob das bei der 5090 auch so kommt ist ja auch noch nicht bestätigt, könnte auch auf Quadros, ne Titan oder ne spätere 5090 Ti/Super beschränkt sein und die 5090 setzt weiter auf 384bit/24GB.

Kann auch sein, dass die erste Gen an Karten erstmal nur 28Gbps G7 verwendet, weil der deutlich günstiger/besser verfügbar wird, das muss man abwarten.

BW Next für Desktop wird wahrscheinlich wieder 2 Jahre dauern, bis dahin gibt's wahrscheinlich GDDR7 mit 3GB je Chip und 36-40 Gbps, vielleicht auch wieder etwas schnelleren GDDR7X von Micron exklusiv für NV.

Aufgrund der vermutlichen Specs sehe ich ne 5090 im best case 50% schneller als ne 4090. Im Schnitt werden es wohl ~35% sein. Eine 5080 sehe ich im best case bei einer 4090, im Schnitt allerdings 10% darunter.

Sardaukar.nsn
2024-05-24, 19:44:23
PCGH hat sich ja anlässlich des neuen 3D Mark auch mit der Rohleistung älteren Karten beschäftigt und da sieht man rückblickend... https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/

1080 Ti > 2080 Ti +51%
2080 Ti > 3090 Ti +71%
3090 Ti > 4090 +78-91%

Weniger als +50% wäre schon echt ein Abturner.
So um +80% inkl. OC fände ich attraktiv.

BlacKi
2024-05-24, 20:23:22
Aufgrund der vermutlichen Specs sehe ich ne 5090 im best case 50% schneller als ne 4090. Im Schnitt werden es wohl ~35% sein. Eine 5080 sehe ich im best case bei einer 4090, im Schnitt allerdings 10% darunter.naja, die 4090 ist stark beschnitten. 11,12% weniger recheneinheiten. nvidia fährt mit angezogener handbremse gegen die xtx. nvidia könnte sich entscheiden, die 5090 nicht so stark zu beschneiden, dann kommen nochmal 10% obendrauf. das 512bit SI zeigt mir, das sie nicht langsam machen wollen.

ChaosTM
2024-05-24, 20:23:47
Aufgrund der vermutlichen Specs sehe ich ne 5090 im best case 50% schneller als ne 4090. Im Schnitt werden es wohl ~35% sein. Eine 5080 sehe ich im best case bei einer 4090, im Schnitt allerdings 10% darunter.


+50% wäre schon eine Überraschung und dann auch nur bei Auflösungen höher als 4k.
35% scheint ein guter Wert zu sein.

BlacKi
2024-05-24, 21:13:41
wir reden hier von einer verdoppelung der bandbreite. auch der cache wird wachsen.

und hier reden leute von 35% performance steigerung. ich checks nicht.

Radeonfreak
2024-05-24, 21:18:49
Das sind doch alles nur Gerüchte.

Ich lach mir schon seit Monaten über die Leute hier nen Ast ab die glauben das Ding wird doppelt so schnell wie ne 4090. :freak:

Wieso? Nvidia hat doch gar keinen Grund dazu sich selber ein Bein zu stellen.

AMD setzt gar Enthusiast aus.

Es wird auch keine 32GB geben denk ich. Alles völliger Humbug.

Daredevil
2024-05-24, 21:28:51
Imho wird es Zeit für ne richtige Titan und die ist natürlich das Herzstück in jedem richtigen „Premium AI PC“. Gaming ist hier denke ich 2024 weniger der Fokus, das wird aber natürlich auch abgedeckt. Deswegen könnte ich mir vorstellen, das es egal ist, was AMDs GPUs machen, weil NVIDIA den NPUs zeigen möchte was richtige TOPS sind. ^^
Und da hat NVIDIA durchaus einen Ruf zu verlieren, Apple ist ihnen ja ebenso auf den Fersen, wenn man sowas wie ein M4 Ultra oder mehr kommen sollte.

Sardaukar.nsn
2024-05-24, 21:51:18
Nvidia konnte in den letzten Jahren auch trotz Pandemie immer ihren 2-Jahres Zyklus einhalten.

@Radeonfreak: Doppelt? Ich wäre für eine Neuauflage von "2-4x faster!"

AffenJack
2024-05-25, 10:11:42
Via CB von kopite:
https://www.computerbase.de/2024-05/geforce-rtx-5090-pcb-der-fe-soll-16-gddr7-chips-fassen-und-dreiteilig-sein/#update-2024-05-24T13:48



Finde ich jetzt nicht unlogisch:
- Mainboard mit GPU, Speicher und Power Delivery
- Adapter-Board für IO, evtl. für verschiedene Karten wiederverwertbar
- Adapter /(Board?) für PCIe Slot Connector, evtl. für verschiedene Karten wiederverwertbar

Das jetzt schon soviele Infos zur Platine leaken deutet auf jeden Fall in Richtung Launch spätestens in 6 Monaten. Könnte mir Gamescom Teaser, Reviews September und Oktober Launch vorstellen.

horn 12
2024-05-25, 10:42:55
Nur 5090 oder auch 5080
Performance denkst du wo landen beide ?

Sardaukar.nsn
2024-05-25, 11:02:05
+50% auf die 4090. In der Vergangenheit war es eher mehr.

The_Invisible
2024-05-25, 11:04:39
wir reden hier von einer verdoppelung der bandbreite. auch der cache wird wachsen.

und hier reden leute von 35% performance steigerung. ich checks nicht.

Ganz normal, bei NV wird immer tief gestapelt und bei AMD entgleist gleich der HypeTrain. Zurücklehnen und Tee drinken :D

BlacKi
2024-05-25, 11:05:04
4x faster!"


ah, dlss4^^

dargo
2024-05-25, 20:54:49
Ganz normal, bei NV wird immer tief gestapelt und bei AMD entgleist gleich der HypeTrain.
Wo wurde bei Turing tief gestapelt? Das Ding war lächerliche 35% schneller als die 1080TI damals bei noch leicht gestiegenen Leistungsaufnahme.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Haben die "Grünen" echt so eine geringe Erwartungshaltung an eine neue Generation? :freak:

BlacKi
2024-05-25, 22:58:29
wenn BW dieselbe zukunftstauglichkeit mit sich bringt wie rtx 2000 wäre das was schönes. die 1080ti kann kein dlss. und dlss ist der grund, warum ich von amd wieder weg gehe, zurück auf 12gb.

schreiber
2024-05-26, 01:14:22
wenn BW dieselbe zukunftstauglichkeit mit sich bringt wie rtx 2000 wäre das was schönes. die 1080ti kann kein dlss. und dlss ist der grund, warum ich von amd wieder weg gehe, zurück auf 12gb.
Naja, die Langlebigkeit hat immer zwei Seiten. Würde bedeuten, dass die Nachfolger von BW keine Bäume ausreißen. Darauf hoffe ich nicht. Soll ruhig mal wieder Fahrt ins GPU-Business kommen, wie auch immer.

aufkrawall
2024-05-26, 01:21:53
wenn BW dieselbe zukunftstauglichkeit mit sich bringt wie rtx 2000 wäre das was schönes. die 1080ti kann kein dlss. und dlss ist der grund, warum ich von amd wieder weg gehe, zurück auf 12gb.
Hatte ich auch kurz gemacht. Find das Smearing mittlerweile unerträglich, ich seh nur noch Fehler:
https://i.ibb.co/54R5CQ7/Fortnite-Client-Win64-Shipping-2024-05-20-21-27-32-522.png
https://i.ibb.co/gZwW02s/Fortnite-Client-Win64-Shipping-2024-05-20-21-27-46-315.png

Sind mitunter ja auch nicht zu übersehen. :freak:
Das Problem ist, dass der Fehler, anders als etwa oft etwas temporales Aliasing, in Bewegung 100% konstant über zig Sekunden bleibt und sich so entsprechend in der Wahrnehmung nach vorne schiebt. Glaube langsam, das ist mit den Leistungsanforderungen an Echtzeit derzeit nicht lösbar und ein Hybrid aus handoptimiertem Algorithmus + NN für die Bereiche, für die keine ausreichende temporale Historie vorliegt, wäre besser.

BlacKi
2024-05-26, 09:49:37
da ich in uhd entweder performance oder ultra performance nehme, sind die differenzen zwischen dlss und fsr noch größer. und mit bildfehlern vs nativ muss man dann eben leben. wenigstens sind die dll tauschbar und man kann manuell updaten.

The_Invisible
2024-05-26, 09:59:51
Wo wurde bei Turing tief gestapelt? Das Ding war lächerliche 35% schneller als die 1080TI damals bei noch leicht gestiegenen Leistungsaufnahme.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

Haben die "Grünen" echt so eine geringe Erwartungshaltung an eine neue Generation? :freak:

Siehe pcgh 2080ti nachtest, man hat heute noch immer das bessere dlss + RT performance auf rdna3 (obere) Mittelklasse, ja voll schlecht

Fragman
2024-05-26, 10:11:19
Hatte ich auch kurz gemacht. Find das Smearing mittlerweile unerträglich, ich seh nur noch Fehler:


Aus meiner Sicht stichst Du aber selbst hier in einem Nerdforum heraus.
Ich bin recht froh, das mir diese Brille zumindest in dem Bereich hier erspart bleibt, auch wenn ich Deine Beobachtungen gerne mitverfolge. ;)

Troyan
2024-05-26, 10:30:20
Naja, die Langlebigkeit hat immer zwei Seiten. Würde bedeuten, dass die Nachfolger von BW keine Bäume ausreißen. Darauf hoffe ich nicht. Soll ruhig mal wieder Fahrt ins GPU-Business kommen, wie auch immer.

Naja, da die Leistung der GPUs nicht mehr durch die Hardware bestimmt wird, bringt einem schnellere Hardware ja nichts.

Ghost of Tsushima läuft schlechter als Shadow of the Tomb Raider mit Raytracing auf einer 2080TI. :freak:

Cubitus
2024-05-27, 08:13:35
NVIDIA's GeForce RTX 5090 Flagship To Feature A Monolithic GB202 "Blackwell" Die But There Might Be A Twist

NVIDIA may essentially be packing two GB203 dies on a monolithic package without making it seem like a chiplet design. It will allow for better inter-die communication rather than off-die communication bottlenecks associated with proper chiplet implementations. While NVIDIA has solutions to overcome the bottlenecks such as NVLINK and other interconnects, they might get a little bit expensive as they add to to the complexity of the GPU.

https://wccftech.com/nvidia-geforce-rtx-5090-gpu-feature-massive-monolithic-gb202-blackwell-die/

dargo
2024-05-27, 08:36:17
Siehe pcgh 2080ti nachtest, man hat heute noch immer das bessere dlss + RT performance auf rdna3 (obere) Mittelklasse, ja voll schlecht
Wo? In Lederjacken-Showcases wie bsw. CP77 und AW2? :tongue:

Hier hast du mal einen Ausblick wie es aussieht wenn Nvidia keine bullshit RT-Last einbauen lässt.
https://www.computerbase.de/2024-05/senuas-saga-hellblade-ii-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Dann heißt es RX 6800XT (RDNA2!) = ca. RTX 3080 (Ampere!).

robbitop
2024-05-27, 08:38:18
Naja wenn die RT Last gering ist, zählt RT Performance weniger. ;)
Da die Grundleistung von RDNA2 bei gleicher SKU natürlich viel höher als von Turing ist - und dann wenig RT Last - dann hat Turing natürlich keine Chance. Aber dann ist der Einfluss von RT HW sehr gering.

dargo
2024-05-27, 08:45:11
Naja wenn die RT Last gering ist, zählt RT Performance weniger. ;)

Es mag dich überraschen, aber mich interessiert die Realität und nicht vereinzelte Showcases von Nvidia die man an einer Hand abzählen kann. Zumal in der Realität aktuell noch AAA-Titel rauskommen die nicht mal einen hybriden Ansatz verwenden. Wie zb. letztens Horizon Forbidden West und Ghost of Tsushima. So sieht nun mal die Realität aus, der hybride Ansatz wird dich/uns noch sehr lange begleiten bei den extremen Kosten von hoher RT-Last. Die DEVs werden dann pro GPU-Generation sich Stück für Stück weiter zur höheren RT-Last langsam wagen, eine noch sehr lange Reise.

robbitop
2024-05-27, 08:52:15
Ja aber das war nicht der Punkt. RT Performance bringt halt nur was für den Teil der Frametime wo RT läuft. Bei geringer Last ist der Anteil der Frametime halt klein, bei großer Last groß. Dementsprechend auch der Einfluss der HW.
Dass dich diese Spiele mit hoher RT Last nicht interessiert ist bekannt. :)

dargo
2024-05-27, 09:02:08
RT Performance bringt halt nur was für den Teil der Frametime wo RT läuft. Bei geringer Last ist der Anteil der Frametime halt klein, bei großer Last groß. Dementsprechend auch der Einfluss der HW.

Wow... da wäre ich jetzt nicht drauf gekommen. :freak: Wie gesagt... mich interessiert wie der Großteil aktueller AAA-Titel läuft und nicht wie Spiele mit hoher RT-Last in ferner Zukunft laufen würden. In ferner Zukunft gibts eh wieder neue, schnellere Grafikkarten.

Kriegsgeier
2024-05-27, 09:25:45
hat einer daran gedacht, dass vielleicht extrem gestiegene RT Leistung die größere Speichermengen benötigt? Also 24GB --> 32GB Plus die Anbindungsbreite von 512Bit?

Wenn z.B. RT Performance um 4x gegenüber RTX 4090 gesteigert worden ist?

robbitop
2024-05-27, 09:27:16
Wow... da wäre ich jetzt nicht drauf gekommen. :freak: Wie gesagt... mich interessiert wie der Großteil aktueller AAA-Titel läuft und nicht wie Spiele mit hoher RT-Last in ferner Zukunft laufen würden. In ferner Zukunft gibts eh wieder neue, schnellere Grafikkarten.
Wenn dich das das nicht interessiert, warum beteiligst du dich an genau dieser Diskussion wo es genau um diesen Aspekt geht?

hat einer daran gedacht, dass vielleicht extrem gestiegene RT Leistung die größere Speichermengen benötigt? Also 24GB --> 32GB Plus die Anbindungsbreite von 512Bit?

Wenn z.B. RT Performance um 4x gegenüber RTX 4090 gesteigert worden ist?
Die Leistung erfordert keine größere Speichermenge, weil die BVH Structure die gleiche ist (normiert auf Detailsettings und das Spiel). Aber je größer die RT Leistung desto länger hält die GPU und irgendwann könnte VRAM deshalb auch limitieren.

dargo
2024-05-27, 09:31:12
Ist denn überhaupt das Gerücht mit 512Bit SI und 32GB für die Gamingsparte bestätigt? Nicht, dass es nachher heißt Gaming Topdog kommt mit 384Bit SI und 24GB. Denkbar wäre natürlich auch 448Bit SI und 28GB. Denn beschnitten wird das Ding fürs Gaming so oder so.

Wenn dich das das nicht interessiert, warum beteiligst du dich an genau dieser Diskussion wo es genau um diesen Aspekt geht?
Weil mir immer wieder paar grüne Lemminge versuchen zu verkaufen wie wichtig RT ist. Natürlich erfolglos.

Gouvernator
2024-05-27, 09:44:26
Ohne DLSS ist Ray Tracing in 8K völlig VRAM limitiert. Das ist wie früher 4K mit 4Gb Vram spielen wollen. Normal braucht man jetzt eigentlich mindestens 48Gb, besser gleich 60Gb. Die nötige Verdopplung geht heute richtig ins Geld. Das ist nicht mehr wie früher 4-->8.

Exxtreme
2024-05-27, 10:02:36
Ohne DLSS ist Ray Tracing in 8K völlig VRAM limitiert. Das ist wie früher 4K mit 4Gb Vram spielen wollen. Normal braucht man jetzt eigentlich mindestens 48Gb, besser gleich 60Gb. Die nötige Verdopplung geht heute richtig ins Geld. Das ist nicht mehr wie früher 4-->8.

8K UHD kannst du die nächsten 10 Jahre wohl komplett knicken. Monitore sind preislich jenseits von gut und böse und die bisherigen Datenanschlüsse geben da nicht so viel her.

Selbst UHBR20 gibt in 8 Bit pro Kanal max. 92 Hz her:
https://en.wikipedia.org/wiki/DisplayPort#Resolution_and_refresh_frequency_limits

Du wirst also mindestens zwei Displayport-Anschlüsse für einen 8K Monitor brauchen für ordentliche Ergebnisse.

Kriegsgeier
2024-05-27, 10:20:25
wartet mal ab wenn viele Module einer Engine Ai-Berechnungen bekommen und diese NUR im VRAM Platz fenden werden müssen!

Dann sind wohl 24GB das mindeste und die 32GB mit RTX 5090 sind da sowas von willkommen!

Leonidas
2024-05-27, 10:22:52
Ist denn überhaupt das Gerücht mit 512Bit SI und 32GB für die Gamingsparte bestätigt?

Überhaupt nicht bestätigt. Ich gebe 384-bit/24GB nach wie vor die etwas größeren Chancen für Gaming-Ausführungen. NV braucht einfach nicht mehr. Für AI-Zeugs hat man Profi-Karten, die will man auch verkaufen.

Kriegsgeier
2024-05-27, 10:25:37
und was ist mit dem Ai-Zeugs in den Games? Ich wette Unreal Engine 5.5 wird irgendwas mit der Ai in den Modulen bringen und dann sind 32GB nicht mehr so abwegig.
Oder: wie wäre es eine Levelerstellung in Echtzeit? Wäre auch was super neues. Mit der Ai eben...

Dann braucht man auch 32GB oder gar mehr?

OgrEGT
2024-05-27, 10:36:01
und was ist mit dem Ai-Zeugs in den Games? Ich wette Unreal Engine 5.5 wird irgendwas mit der Ai in den Modulen bringen und dann sind 32GB nicht mehr so abwegig.
Oder: wie wäre es eine Levelerstellung in Echtzeit? Wäre auch was super neues. Mit der Ai eben...

Dann braucht man auch 32GB oder gar mehr?

Level also Content Erstellung Hersteller bzw. sogar SKU abhängig zu machen kann ich mir nicht vorstellen.

dargo
2024-05-27, 10:37:22
Überhaupt nicht bestätigt. Ich gebe 384-bit/24GB nach wie vor die etwas größeren Chancen für Gaming-Ausführungen. NV braucht einfach nicht mehr. Für AI-Zeugs hat man Profi-Karten, die will man auch verkaufen.
Ok, danke.

OgrEGT
2024-05-27, 10:42:29
https://www.computerbase.de/2024-05/geforce-rtx-5090-pcb-der-fe-soll-16-gddr7-chips-fassen-und-dreiteilig-sein/
Interessante Spekulationen zum PCB...
Würde aber mMn für eine sehr hohe TBP sprechen wenn nun 2 PCB Ausschnitte notwendig wären... wie sieht es eigentlich mit der Leistungsaufnahme von 24 oder 32GB GDDR7 aus?

Kriegsgeier
2024-05-27, 11:18:03
Also bei RTX 5090 würde ich auf min. 5 Slot-Design umstellen und somit die ganze PCB einfach um 90° positionieren. Somit hätte man fast das ganze umbaute Volumen für den Kühler übrig. Dann schön 3 Lüfter und gib ihm.

Auch ja: hoffe ich doch, dass NVIDIA eigenes WaKü-Design bringt ;) Damit man den Umbau sparen kann ;)

Ghost1nTh3GPU
2024-05-27, 11:38:01
Die Mobo Hersteller bereiten sich wohl schon auf sie RTX 5090 FE vor:
"When it comes to PCIe EZ-Latch Plus, of course we must also mention PCIe UD Slot X, a PCIe 5.0 slot design that can withstand a maximum weight of 58KG."
https://videocardz.com/newz/gigabyte-b650e-aorus-motherboard-is-equipped-with-pcie-ultra-durable-slot-supporting-up-to-58kg-gpus

:uponder:

Alternativ wird der ganze PC dann an die freistehende Grafikkarte angesteckt.

Altehardware
2024-05-27, 11:57:54
Was die ai LLM Modelle in games betrifft dazu nur dass, das wird nicht kommen da dazu eine npu verpflichtend ist
Und solange cpu oder gpu diese nicht als standard haben wird das auch nicht in games umgesetzt
Vielleicht mit den mcm gpu und apu ab 2027 wenn amd am6 intels core sonstwas und nvidia rtx70 Serie das haben
Und selbst dann dürfte das sich verzögern bis 2030 und später zumal das OS da mitmachen muss
Wenn ist das ein directx standard ansonsten sehe ich keine chance das generative ai in spielen eingesetzt wird. und wenn würde es mich sogar nerven.
ich muss mit dem Pc reden gar nicht mein ding es gab nenn Grund warum cortana und co gescheitert sind.

Cubitus
2024-05-27, 12:00:33
Doch das wirds geben, nennt sich Nvidia ACE und das wird schneller kommen

https://www.nvidia.com/en-us/geforce/news/nvidia-ace-for-games-generative-ai-npcs/
läuft halt auf den Tensor-Cores und ist evtl mit Cloud basierend.

Gouvernator
2024-05-27, 16:46:02
8K UHD kannst du die nächsten 10 Jahre wohl komplett knicken. Monitore sind preislich jenseits von gut und böse und die bisherigen Datenanschlüsse geben da nicht so viel her.

Selbst UHBR20 gibt in 8 Bit pro Kanal max. 92 Hz her:
https://en.wikipedia.org/wiki/DisplayPort#Resolution_and_refresh_frequency_limits

Du wirst also mindestens zwei Displayport-Anschlüsse für einen 8K Monitor brauchen für ordentliche Ergebnisse.
DSR geht eigentlich auch.

Bemerkt ihr aber wie lustig NV hier vorgeht? Sie gehen in gleichen VRAM-Schritten wie früher. Sprich nur 4GB und 8GB. Von 12GB > 16GB > 20GB\24GB > 32GB.

Obwohl technisch gefordert wären heute 16GB>32GB\24GB>48GB.

The_Invisible
2024-05-27, 17:19:15
Zu viel VRAM wirds nicht geben weil man sich sonst selbst kannibalisiert. Außerdem werden die absoluten Speicherschritte bei Verdoppelung halt immer größer und der need für Privatuser ist nicht da, siehe RAM von 16GB auf 32Gb was eine halbe Ewigkeit gedauert hat bzw noch immer nicht vollzogen ist.

24GB VRAM sind quasi ja noch immer Overkill wenn man mal Games rausnimmt die sowieso alles allokieren oder irgendwelche (unsinnigen?) Texturmods. Bei CP2077/AW2 im PT Mod in 4k hab ich mal so 15-17GB gesehen, für mehr ist die Karte eh schon zu lahm.

AffenJack
2024-05-27, 17:31:03
Ist denn überhaupt das Gerücht mit 512Bit SI und 32GB für die Gamingsparte bestätigt? Nicht, dass es nachher heißt Gaming Topdog kommt mit 384Bit SI und 24GB. Denkbar wäre natürlich auch 448Bit SI und 28GB. Denn beschnitten wird das Ding fürs Gaming so oder so.


448 Bit wäre auch mein Tipp. Die 512 Bit spart man sich für AI und später als RDNA5 Gegner auf.

HPVD
2024-05-28, 10:07:00
Gerüchte best of?
Die RTX 5090 soll zum Titan-Ersatz werden
https://www.golem.de/news/grafikkarten-die-rtx-5090-soll-zum-titan-ersatz-werden-2405-185486.html

The_Invisible
2024-05-28, 11:38:27
Dachte das waren die 90er sowieso immer, die letzte Titan war ja Turing wo es keine 90er gab. Aber an die 3090 hat man damals ja auch gezweifelt. Außer man nutzt es um die Karte teurer zu machen weil ja Titan draufsteht :freak:

Naja man merkt langsam das die Karten näher kommen, wird ein spannender Hardware-Herbst was da alles rauskommt.

Palpatin
2024-05-28, 14:17:53
Wenn man 3k€ anpeilt muss Titan in den Namen. Bleibt es bei ~2k wird es eine 5090.

dargo
2024-05-28, 14:21:27
Wenn man 3k€ anpeilt muss Titan in den Namen.
Gibt es dafür ein Gesetz oder ist es nur dein Bauchgefühl? 3.000€ sind heute nicht mehr die 3.000€ vor 10 Jahren. ;)

Leonidas
2024-05-28, 16:51:30
nVidias GB203 könnte auch mittels Durchsägen des GB202-Chips gewonnen werden
https://www.3dcenter.org/news/geruechtekueche-nvidias-gb203-koennte-auch-mittels-durchsaegen-des-gb202-chips-gewonnen-werden

https://www.3dcenter.org/dateien/abbildungen/nVidia-GB202-possible-schematic-design.png

HOT
2024-05-28, 17:26:29
Also das wird mal echt Unsinn sein... N32 ist quasi ein durchgesägter N31, aber eben nur fast.

Hatstick
2024-05-28, 17:28:54
Aber wie will man die Karten unterhalb einer 3000€ Karte überhaupt sinnig plazieren?
Ich meine ohne die Zahlen zu kennen, war die RTX 4080 für 1500€ bei Release schon damals die schlechteste Wahl und die RTX 5080 wird man kaum bei zumindest 2000€ ansetzen.
Bin ich mal sehr gespannt, wie nVidia das plazieren will, wenn es stimmt...

Leonidas
2024-05-28, 17:33:34
Also das wird mal echt Unsinn sein... N32 ist quasi ein durchgesägter N31, aber eben nur fast.

Überhaupt nicht. N32 ist 2/3 von N31, in fast allen Disziplinen. Es gäbe andere passenden Beispiele, aber dieses trifft es gar nicht.

PS: Sofern Du N21 & N22 meintest: Kommt der Sache näher, ist aber auch nicht wirklich treffend. Speicherinterface und IF$ von N22 sind größer als die Hälfte von N21.

HOT
2024-05-28, 17:51:13
N32 ist ein halber N31 +2 WGPs pro SE, also die Hälfte plus ein bisschen.
Und ähnlich kann auch GB203 aussehen. Das Durchsägen ist einfach völliger Unsinn.

BlacKi
2024-05-28, 17:55:32
Aber wie will man die Karten unterhalb einer 3000€ Karte überhaupt sinnig plazieren?
Ich meine ohne die Zahlen zu kennen, war die RTX 4080 für 1500€ bei Release schon damals die schlechteste Wahl und die RTX 5080 wird man kaum bei zumindest 2000€ ansetzen.
Bin ich mal sehr gespannt, wie nVidia das plazieren will, wenn es stimmt...wer sagt, das die 5090 3000$ kosten wird? deshalb wird auch die 5080 keine 2000$ kosten. ja, die 4080 war preis/perf schlecht, aber man musste platz lassen, das man die 3000 gen noch verkaufen konnte, von denen man zuviele hatte.


da aber BW denselben prozess nutzt, es keine überkapazitäten gibt, wird die 5080/5070 wohl preis/perf deutlich besser liegen als die 4080 damals gegen die 4090.


das mindeste wäre mal das die 5080 etwas günstiger wird als die 4090. die liegt aktuell bei 1700€. 1500$ halte ich für einen oberen realistischen wert, könnte aber auch deutlich darunter liegen, wenn nv ein paar mehr karten loswerden will.


ich denke, die 5090 wird wohl gerade so noch unter 2000$ bleiben, und die 5080 so um die 1300$. meine 2 cents dazu.

Gouvernator
2024-05-28, 19:03:28
das mindeste wäre mal das die 5080 etwas günstiger wird als die 4090. die liegt aktuell bei 1700€. 1500$ halte ich für einen oberen realistischen wert, könnte aber auch deutlich darunter liegen, wenn nv ein paar mehr karten loswerden will.
"Etwas" günstiger? Seit einer 3090 bekommt man schon für 1700€ 24Gb VRAM. Wenn man für 1700€ jetzt nur noch 16Gb bekommt, hat es mit günstig nichts mehr zu tun.

Ach ja und glaubt bloß nicht das NV mit diesen Mondpreisen durchkommt. Die grünen Männchen bekommen zum Glück mächtige Konkurrenz. Von Gaming-Laptops. Wenn sie sich nicht genieren. Ab 2500-3000€ klickt bei vielen Gamern der Sachverstand. Selbe 16Gb VRAM dafür 200W Verbrauch für Gesamtpaket. Und die Leistung einer 3090 im Laptop reicht komplett aus für ALLES.

Sardaukar.nsn
2024-05-28, 23:11:01
PC-Hardware ist inzwischen ein etabliertes (Männer)Hobby. So wie Hifi, Fotographie, Heimkino, Fahrrad ect. da gibts nach oben eigentlich keine Limits. Zumal der Fortschritt ja wirklich, messbar da ist. Andere Hobbys müssen sich das auf Trends und Voodoo verlassen. Funktioniert aber auch.

Reaping_Ant
2024-05-29, 02:45:10
nVidias GB203 könnte auch mittels Durchsägen des GB202-Chips gewonnen werden
So abwegig ist das nicht. Ich koennte mir aber noch einen anderen Grund (als den von Dir genannten, dass man sich auf MCM in der Folgegeneration vorbereiten will) vorstellen: Vielleicht war GB202 tatsaechlich einmal als MCM Aufbau (= 2x GB203) geplant.
Allerdings hat man ja schon seit einiger Zeit das Problem, dass eher das Packaging, als die Fertigung der Chips an sich, die Produktionskapazitaet limitiert. Darum nutzt man die wertvollen MCM-Packaging-Kapazitaeten lieber fuer die professionellen Produkte, wo man keine andere Moeglichkeit hat.
Im Gegenzug hat man bei GB202 den Interconnect einfach mit auf den Wafer geholt, was zwar die Produktion verteuert, aber dafuer keine MCM-Kapazitaeten belegt. Und nachdem man bei Ada schon festegestellt hat, dass die "Enthusiast"-Nutzer offenbar relativ schmerzfrei sind, was den Preis angeht, kann man die Mehrkosten auch einfach auf den Preis umlegen, ohne die Marge zu senken.

Leonidas
2024-05-29, 04:41:14
Interessanter Gedankengang!

Kriegsgeier
2024-05-29, 06:34:08
...
ich denke, die 5090 wird wohl gerade so noch unter 2000$ bleiben, und die 5080 so um die 1300$. meine 2 cents dazu.

Never. Ich denke RTX 5090 wird für mindestens 2499$ kommen.
Zum einen auf die Chipfläche + N4 Prozess bezogen --> an sich sehr teuer!
Plus: man will eine eine RTX 5090 auch kaufen können!

Und für 1999$ wird man quasi keine bekommen - kein Bock! Lieber 2499$ dann aber auch überall zu kaufen!

PS: nur so als Gedankengang. Es könnte die letzte XX90 bezahlbare Generation werden! Denn die RTX 6090 wird wohl 5999$ wegen der Taiwanblockade kosten...

Altehardware
2024-05-29, 07:38:44
Ein n4 node wafer kostet grob geschätzt 10000$ bis 11000$ ein 4n 17000$
nvidia reduziert mit dem n4 node die kosten Da man massiv die mengen erhöht hat da man die neue gen an hpc erhöht hat.
Das hat zur folge das es trotz n4 node die wafer knapp sind folglich müssen die chips klein sein.
nvidia kann sich das erlauben da der über bestand an ada chips massiv ist und man wahrscheinlich nach release der rx5080 einige sku deutlich im preis senken wird.
Und bei den gb206 gb205 massiv mehr produziert wird (samsung sf4x node da node bei grob 9000$ grob 180mm² 290mm² massiv mehr chips sind)
Das Si muss kleiner werden 512bit beim gb202 tsmc node und der dann quasi aufgeteilt in gb203 wird. Wo die intakten in profi karten kommen und der Abfall an defekten chips als rtx5090 und rtx5080 gibt
Daher diese Preisaussichten
rtx5080 gb203 (6pc 3tpc) 80sm 1199$ perf +40% (p/l +20%)
rtx5090 gb203 92sm 16gb 1599$ perf +-0 (p/L + 0%)
rtx5070 gb205 (4gpc 2 tpc) 60sm 16gb 600$ perf+31% (P/L +11%)
rtx5060ti gb205 48sm 12gb 500$ perf+41% (P/L +20%)
rtx5060 gb206 (2 gpc 1 tpc) 30sm 12gb 360$ perf+25% (p/l +5%)

chips gb202 aufgeteilt defekt 32 chips intakte 29
Demzufolge gb203 64 chips
gb205 samsung 177chips (62$ chip)
gb206 samsung 298chips (37$ chip)
Das teure ist der vram für 16gbit 10$ gddr7 28gbps grob geschätzt aktuell gddr6 5$
nvidia Bruttomarge 130%
Blackwell wird definitiv nicht zwei dram standards unterstützen da diese zueinander nicht kompatibel sind verdoppelt das SI

Da USa den zoll erhöht trifft es die hart nochmal um 25%
Wenn Eu aber dann reimporte macht was an sich dumm ist aber ich vermute mal wird passieren dann wird es richtig teuer da alle preise nochmal um nen viertel mehr
Womit ne rtx5060 16gb ab 500€ bedeuten wird mit der perf der rtx3060ti bzw rtx4060ti
Das trifft aber alle am Markt.

OgrEGT
2024-05-29, 07:57:04
So abwegig ist das nicht. Ich koennte mir aber noch einen anderen Grund (als den von Dir genannten, dass man sich auf MCM in der Folgegeneration vorbereiten will) vorstellen: Vielleicht war GB202 tatsaechlich einmal als MCM Aufbau (= 2x GB203) geplant.
Allerdings hat man ja schon seit einiger Zeit das Problem, dass eher das Packaging, als die Fertigung der Chips an sich, die Produktionskapazitaet limitiert. Darum nutzt man die wertvollen MCM-Packaging-Kapazitaeten lieber fuer die professionellen Produkte, wo man keine andere Moeglichkeit hat.
Im Gegenzug hat man bei GB202 den Interconnect einfach mit auf den Wafer geholt, was zwar die Produktion verteuert, aber dafuer keine MCM-Kapazitaeten belegt. Und nachdem man bei Ada schon festegestellt hat, dass die "Enthusiast"-Nutzer offenbar relativ schmerzfrei sind, was den Preis angeht, kann man die Mehrkosten auch einfach auf den Preis umlegen, ohne die Marge zu senken.
So müsste aber wiederum jede GB203 Einheit autark funktional sein... d.h. mindestens CP und display out und Video codec müssten doppelt vorhanden sein. Dazu den immensen Interconnect. Man würde somit viel Chipfläche verbrauchen um dennoch quasi monolithisch zu bleiben... kann ich mir nicht vorstellen... zumal wie du sagst NV jeden Preis verlangen kann... dann besser 2 jeweils voll monolithische Chipdesigns für GB203 und 202...

OgrEGT
2024-05-29, 10:26:59
https://www.computerbase.de/2024-05/rtx-5000-und-rx-8000-ein-die-fuer-blackwell-chiplet-gpu-fuer-rdna-4-im-gespraech/#update-2024-05-28T18:11

Demnach GB202 als 1 monolithische GPU organisiert in 2 logische GPUs...

Je nachdem wie das gemeint ist... 2 vollständige logische GPUs mit allen Funktionseinheiten getrennt verfügbar also alles zwischen CP und Display out...
GPUx (GPC-SM-RT-TC-TMU-ROP) synchronisiert über L2$... wobei ich vermuten würde dass der CP alle GPCs von GPU 0 und 1 gezielt ansteuern und füttern können sollte um die Last bestmöglich zu verteilen... wobei das dann irgendwie dem bisherigen Vorgehen entspricht... wenn der CP nur GPU 0 und 1 ansteuert und diese dann selbstständig ausführen wäre das ggf nicht feingranular genug für die Lastverteilung?

Ghost1nTh3GPU
2024-05-29, 11:04:10
Vielleicht ist ein GB201 auch möglich. Zumindest für DataCenter / 3D Cloud.

Kriegsgeier
2024-05-29, 15:04:40
NVIDIA RTX 5090 schlanker als RTX 4090?

Angeblich soll RTX 5090 nur ein dual-slot Kühler bekommen! Das wäre ein Gamechanger, oder?

Vielleicht doch noch N4E Prozess?

https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-rumored-to-feature-dual-slot-and-dual-fan-cooler#disqus_thread

The_Invisible
2024-05-29, 15:40:37
Hä, zuerst ist man bei 4 Slot mit vertikaler Platine und jetzt plötzlich 2 Slot :freak: Die Klicks müssen rollen oder so...

Altehardware
2024-05-29, 15:59:24
Vermutlich die echte rtx5090 alle gehen vom dicken chip aus aber es kann sein das nvidia den aufschiebt bis amd mcm kommt
Und es sich hier um den gb205 Rest vom gb202 Aufsplittung handelt
Das würde passen aber dann gäbe es noch eine gb203 mit 8 gpc der später kommt vermutlich als Titan
Wie nvidia das vermarktet ist unklar naheliegend wäre gb205 96smn als rtx5090 +-0% und gb205 72sm rtx5080 +30% dafür weit effizienter als bisher.
rtx5090 28gb 260w tbp
rtx5080 220w 240w tbp
rtx5070 16gb 190w tbp
rtx5060ti 14gb 160w tbp
rtx5060 12gb 100w tbp

Das würde ich begrüßen den damit wär der 12v6x2 problemlos anwendbar

OgrEGT
2024-05-29, 16:12:13
Produkte aufschieben ist eigentlich nie eine gute Idee... wenn die Konkurrenz bei der nächsten Runde neue Features oder mehr Leistung hat dann könnte das aufgeschobene Produkt ggf nur noch unter Wert verkauft werden... Reputationsverlust gratis dazu... was würden die NV Käufer dazu sagen?

BlacKi
2024-05-29, 18:21:18
Produkte aufschieben ist eigentlich nie eine gute Idee... wenn die Konkurrenz bei der nächsten Runde neue Features oder mehr Leistung hat dann könnte das aufgeschobene Produkt ggf nur noch unter Wert verkauft werden... Reputationsverlust gratis dazu... was würden die NV Käufer dazu sagen?es ist wirtschaftlicher den big full chip mit 300% marge an in dem profimarkt zu verkaufen als für 100% marge im gaming segment. und solange der big full chip im gaming segment fehlt, können die kleineren karten teurer verkauft werden.


ob der big chip wirklich im gaming am anfang fehlt? wer weiß. solange die konkurenz nix hat, halte ich es für möglich dass das so kommt.


passt halt auch zu dem 2slot kühler. aber ich würde die tdp höher setzen, so 320-350w. siehe 3080ti.

ChaosTM
2024-05-29, 19:01:48
Alleged 4-slot GeForce RTX 5090 Founders Edition heatsink revealed (https://videocardz.com/newz/nvidia-geforce-rtx-5090-founders-edition-rumored-to-feature-dual-slot-and-dual-fan-cooler#disqus_thread)

Das hier ist realistischer als ein 2 Slot Design. Oder es gibt beide. Einmal mit 400 und dann die "Titan" Version mit 600+ Watt.

Altehardware
2024-05-29, 19:17:30
Das werden wir sehen welcher chip welche sku wird den das kann nvidia eine Woche vor Vorstellung entscheiden.
ich gehe nicht davon aus das man große per Zuwächse erwarten kann da alles was an compute man bekommen kann Richtung ai fließen wird.
Die split Idee mit dem gb202 erklärt auch warum so komische chipnamen gibt
gb202 gb203 gb205
kein 04 chip und ab gb206 ein anderer node der den Takt sogar sinken lässt grob 2,2-2,3ghz
nvidia scheint sich auf mcm vorzubereiten mit a16 node

BlacKi
2024-05-29, 21:18:47
goodbye gaming
http://www.nextplatform.com/wp-content/uploads/2024/05/nvidia-q1-f2025-divisions.jpg
https://www.nextplatform.com/2024/05/23/nvidias-enormous-financial-success-becomes-normal/

ChaosTM
2024-05-29, 21:23:46
Ein paar Chips werden für uns schon noch übrig bleiben.
Wenn auch nicht die schnellsten, aber müssen sie auch nicht.

Die 4090er ist schneller als alles was die Spieleindustie uns derzeitig entgegenwerfen kann.

Slipknot79
2024-05-30, 01:59:51
Dual Slot ist ok wenn das Teil 120cm lang ist. (y)

Pirx
2024-05-30, 06:40:14
es ist wirtschaftlicher den big full chip mit 300% marge an in dem profimarkt zu verkaufen als für 100% marge im gaming segment. und solange der big full chip im gaming segment fehlt, können die kleineren karten teurer verkauft werden.

....
ja, oder der Preis steigt noch weiter oder die 4090 mit dem riesigen AD102 war ein Konter gegen die vermutet sehr gute 7900xtx und bleibt erstmal einmalig

OgrEGT
2024-05-30, 08:08:59
Kann es sich NV erlauben keine GPU zu bringen die mehr Leistung hat als die 4090? Ich glaube nicht.

Daredevil
2024-05-30, 09:05:51
Wenn Ai Features und Raytracing einen ordentlichen Boost bekommen, ist das denke ich weniger ein Problem, sofern der Preis dann wenigstens gleich bleibt oder sogar sinkt. :D
Am Ende baut Nvidia, genauso wie AMD ja nicht mehr einfach nur eine "Rohperformance Maschine", sondern ein Produkt mit vielen Ebenen und Features, die alle in irgendeiner Form bedient werden wollen.

Selbst wenn z.B. AMD nun ein Produkt für 999€ rausbringt, welches 30% schneller ist als eine 4090 und auf das komplette Featureset verzichtet, also FSR, Raytracing, AntiLag, AV1 Encoding, großer Speicher usw. wäre die Karte in der reinen Leistung zwar besser, aber schlicht das schlechtere Produkt in 2024. Insofern bin ich der Meinung, das es viele Stellschrauben geben kann, worauf der Fokus am Ende liegen kann. Wenn RT z.B. deutlich weniger Einbußen hat und die 5090 10% schneller ist als ne 4090, wäre das ein unheimlicher Sprung. Oder "DLSS4" verdreifacht auf einmal die FPS und es sieht genau so gut aus wie vorher. In dem Fall wäre der Fokus komplett auf Tenor Cores und KI Beschleunigung, womit man in Zukunft noch viele andere Späße anstellen kann, auch in Pro Workloads.

An Dual Slot glaube ich aber auch nicht wirklich. Die Lüfterblätter sind vielleicht so dick wie zwei PCI Slots, das wäre für mich schlüssig. :D
Allerdings sehe ich auch nicht diesen vier-slot-brocken in meinem Gehäuse. Der Platz ist da und meinetwegen kann sie sich in der Form auch dort gemütlich machen, ich sehe es aber noch nicht.
Da kann Nvidia meinetwegen auch einfach einen "MacStudio" bauen, der wie eine 4090 aussieht und wo ein MediaTek Prozessor noch drin ist, dann spare ich mit Intel/AMD komplett.

rentex
2024-05-30, 10:07:14
@Kriegsgeier Welche Taiwan Blockade? Etwas zuviel geraucht?
Wenn es soweit ist, ist es soweit, nicht vorher!
Dann sind Grakas unser letztes Problem.

BlacKi
2024-05-30, 10:13:16
Kann es sich NV erlauben keine GPU zu bringen die mehr Leistung hat als die 4090? Ich glaube nicht.du redest sicher von mehr als nur 5-10% schneller. aber ich weiß nicht ob nv das nötig hat.


man sollte bedenken, das die 4090 nur 31% schneller ist als die 4080s.


das zu schlagen ist mit der besseren ipc durch größeren l1 cache und 20% mehr recheneinheiten und schnellerem speicher vielleicht möglich.


und bei RT spielen gibt bereits gerüchte, das gb203 schneller ist als ad102.



dann kommt hinzu, AI ist einfach überall, ich denke nv wird ein neues AI feature bringen, das alle ada karten uninteressant macht.


ist aber alles hochspekulativ.

OgrEGT
2024-05-30, 11:37:59
du redest sicher von mehr als nur 5-10% schneller. aber ich weiß nicht ob nv das nötig hat.


man sollte bedenken, das die 4090 nur 31% schneller ist als die 4080s.


das zu schlagen ist mit der besseren ipc durch größeren l1 cache und 20% mehr recheneinheiten und schnellerem speicher vielleicht möglich.


und bei RT spielen gibt bereits gerüchte, das gb203 schneller ist als ad102.



dann kommt hinzu, AI ist einfach überall, ich denke nv wird ein neues AI feature bringen, das alle ada karten uninteressant macht.


ist aber alles hochspekulativ.
Der Shitstorm bei Turing 2080Ti war nicht gerade klein und da hatte man RT und DLSS als neue Features...
Wenn es wider Erwarten den GB202 nicht als Gaming Karte gibt wird man es wohl mit der GB203 gerade so schaffen an die 4090 zu kommen... wie du schon sagst kommt es auf neue BW exklusive Features an... wie wärs mit AI optimiertem DLSS4 oder FG welches noch höhere Upscaling und AI generierte Frames bringt oder AI RT welches die Auswahl der begrenzten Strahlen optimiert oder AI Denoiser... etc...

OgrEGT
2024-05-30, 11:53:08
https://videocardz.com/newz/nvidia-might-revive-its-2017-geforce-g-assist-aprils-fools-joke-as-a-real-technology
Oder natürlich einen weiteren AI Assi :uhammer:

Radeonfreak
2024-05-30, 12:01:50
BossBoost könnte mir gefallen. :freak:

OgrEGT
2024-05-30, 12:09:37
BossBoost könnte mir gefallen. :freak:
Meinst du dass Bosse per AI besser werden oder dass du besser gegen Bosse wirst?
:ulol:

Radeonfreak
2024-05-30, 12:32:39
Letzteres.

BossBoost AI übernimmt dann den Kampf für mich bis der Boss tot ist. Ich bin zu alt für diesen Scheiß Stress.

Leonidas
2024-05-30, 14:05:50
GeForce RTX 5090
448-bit Interface
28 GB GDDR7 @ 28 Gbps
https://videocardz.com/newz/nvidia-rtx-5090-new-rumored-specs-28gb-gddr7-and-448-bit-bus

HOT
2024-05-30, 14:24:52
https://www.3dcenter.org/news/news-des-29-mai-2024

Moment, die haben jetzt erst Tape Out? Dann dauert das von jetzt ab noch ein halbes Jahr bis zur fertigen Karte, das wird dann aber knapp mit diesem Jahr, Vortellung dann aber nicht vor Dezember.
Igor hatte man ne Timeline angelegt, wie lange das vom Tape out zum fertigen Produkt dauert. Das war ein halbes Jahr bei NV. Dazu passt ja auch, dass der Kühler geleakt ist, das ist dann der Prototyp der founders edition.

Leonidas
2024-05-30, 14:40:09
Moment, die haben jetzt erst Tape Out? Dann dauert das von jetzt ab noch ein halbes Jahr+ bis zur fertigen Karte,

Dass der Tape-Out erst jetzt war, sagt niemand. Der Tape-Out wurde zu einem unbestimmten Zeitpunkt in der Vergangenheit vollzogen - mehr wissen wir nicht. Wie weit dies zurückliegt - unbekannt. Damit sind keine sicheren Abschätzungen zum Erscheinungstermin möglich. Allenfalls kann man spekulieren, dass der Tape-Out so gelegen haben mag, das NV seine Terminpläne einhalten kann.

HOT
2024-05-30, 14:43:16
Der bisherige Plan ist ne Roadmap, auf der 2025 steht.
Hast recht, hab das grad noch mal gelesen, er sprach ja von beiden Chips, dann wird das schon deutlich früher gewesen sein.

The_Invisible
2024-05-30, 14:57:13
GeForce RTX 5090
448-bit Interface
28 GB GDDR7 @ 28 Gbps
https://videocardz.com/newz/nvidia-rtx-5090-new-rumored-specs-28gb-gddr7-and-448-bit-bus

Würde Sinn ergeben, für die Gamer mal wieder Resterampe inkl. anderen Beschneidungen und dafür bleibt der Preis human. Wenn dann RDNA5 wirklich was werden könnte kann man dann noch einen (fast) vollen Chip nachschieben.

[MK2]Mythos
2024-05-30, 16:48:23
Würde Sinn ergeben, für die Gamer mal wieder Resterampe inkl. anderen Beschneidungen und dafür bleibt der Preis human steigert man die Marge. Wenn dann RDNA5 wirklich was werden könnte kann man dann noch einen (fast) vollen Chip nachschieben.
ftfy ;)

gedi
2024-05-30, 22:16:29
Würde Sinn ergeben, für die Gamer mal wieder Resterampe inkl. anderen Beschneidungen und dafür bleibt der Preis human. Wenn dann RDNA5 wirklich was werden könnte kann man dann noch einen (fast) vollen Chip nachschieben.

Na ich weiß nicht: Der UVP wird hier in Deutschland wahrscheinlich bei 1999€ aufschlagen, Performance+ zur 4090 vielleicht 40% und ja okay, dann könnte man die 5080 auch noch irgendwie vermarkten, welche vielleicht mit 1399€ aufschlägt, aber in Summe schlechter als eine 4090 abschneidet. Der Grund, warum es keine 4090Ti gegeben hat sollte ab nu klar sein.

Sardaukar.nsn
2024-05-31, 00:24:41
+40% wäre mir ehrlich gesagt zu wenig. Dafür waren die 2-Jahres-Sprünge in den letzten Generationen zu stark. Dafür läuft es bei nVidia auch aktuell eigentlich zu gut. Gaming ist ja noch noch Nebengeschäft, aber ich hoffe hier wird ebenfalls geklotzt und nicht gekleckert.

monstar-x
2024-05-31, 01:32:46
Ein paar Chips werden für uns schon noch übrig bleiben.
Wenn auch nicht die schnellsten, aber müssen sie auch nicht.

Die 4090er ist schneller als alles was die Spieleindustie uns derzeitig entgegenwerfen kann.

Sehe ich anders, Alan Wake II (Ultra) ist ohne Frame Generation bei 40 FPS.
Ebenso Cyberpunk 2077

Und bei noch einem Spiel hatte ich keine 60 FPS (k.a welches das war).

Slipknot79
2024-05-31, 03:23:07
Sehe ich anders, Alan Wake II (Ultra) ist ohne Frame Generation bei 40 FPS.
Ebenso Cyberpunk 2077

Und bei noch einem Spiel hatte ich keine 60 FPS (k.a welches das war).


Die 4090 ist aber keine 4k Karte, das war sie nie und wir es nie werden. (y)

OgrEGT
2024-05-31, 07:50:09
Die 4090 ist aber keine 4k Karte, das war sie nie und wir es nie werden. (y)
Für Raster- und die meisten Hybrid-RT-Grafik Games schon. Es wird immer auch nach AW2 oder CP77 Showcases geben bei denen die Leistungsanforderungen so hoch sind dass 4K60 ohne FG nicht erreichbar sind... wenn für jedes Pixel bei 4K ein Ray benötigt würde haben wir noch mehrere Generationen auf diese 4K Karten zu warten...

Pirx
2024-05-31, 08:47:12
naja das ist ja das (fragwürdige) Geschäftsmodell

Altehardware
2024-05-31, 09:37:40
bei gpu in high end ist es schon erforderlich als Entwickler mit Pathtracing zu arbeiten um überhaupt das cpu limit zu umgehen.
Den das ist das größte Problem ab realen 30tf ist in 1080p keine cpu mehr in der Lage die gpu mit entsprechende gpu auslasten sprich tbp und 99% gpu load.
Das kann man anhand derzeitiger high end chips sehen amd trifft das nur die rx7900xtx und nvidia den ad103 rtx4080 und ad102 rtx4090
In teilen die rtx4070ti super die knapp drüber ist (33tf)
In 1440p brauchte s da schon die 50tf um in cpu limits zu rennen
DXR erhöht das marginal lass es gut 15% sein einzig pathtracing ist derzeit in der Lage überhaupt nenn ad102 die volle 63tf auszulasten aber dann schlägt die tbp zu und reduziert den Takt auf nur noch 2,3ghz was die endgültige tf reduziert auf nur noch 51tf was die kleinen abstände zu dem ad103 erklärt maxed 40%
hier zeigt sich das der ad102 massiv voltage limitiert ist das ist Absicht den ohne limit wär der chip locker als hpc karte einsetzbar.
Anders kann die Taktsenkung bei pathtracing Einsatz nicht erklärt werden wenn andere chips wie den ad103 oder ad104 da keine Takt Senkung erfahren.
Das lässt vermuten das blackwell noch mehr reglementiert wird
Darum die aussage von mir das gb202 voller chip nur im profi Bereich kommt es eine dedizierten monolithischen gb203 gibt dieser wird ne titan und die Abfall chips von teildefekten gb202 als rtx5090 kommen chipname ist dann gb205 96sm 224bit
dasselbe wird nvidia mit samsung sf4x gefertigten gb206 machen und daraus auch die gb207 ableiten
gb206 192bit 64sm gb207 Reste 96bit 32sm
Damit dürfte nvidia weniger wafer für ein designs brauchen das erhöht die chipausbeute da man weniger Abfall hat bzw weniger kleinere chips die sich dann nicht verkaufen.

OgrEGT
2024-05-31, 10:01:50
Momentan geht man aber schon von einem GB202 mit 448bit 28GB GDDR7 aus... Einen GB203 als Titan und alles andere halte ich für sehr abwegig...

rentex
2024-05-31, 10:06:28
Für Raster- und die meisten Hybrid-RT-Grafik Games schon. Es wird immer auch nach AW2 oder CP77 Showcases geben bei denen die Leistungsanforderungen so hoch sind dass 4K60 ohne FG nicht erreichbar sind... wenn für jedes Pixel bei 4K ein Ray benötigt würde haben wir noch mehrere Generationen auf diese 4K Karten zu warten...

Nope. Da die Anforderungen permanent ansteigen und sich dadurch die "Notwendigkeit" für neuere und teuere HW ergibt. Wer das Spiel nicht durchschaut hat, sollte mal die Augen aufmachen...war in den letzten 1-2 Jahren noch schlimmer geworden.

OgrEGT
2024-05-31, 10:11:40
Nope. Da die Anforderungen permanent ansteigen und sich dadurch die "Notwendigkeit" für neuere und teuere HW ergibt. Wer das Spiel nicht durchschaut hat, sollte mal die Augen aufmachen...war in den letzten 1-2 Jahren noch schlimmer geworden.
Korrekt. Das hab ich auch gemeint... mit ein paar Showcases werden die Anforderungen neu definiert und nach oben geschraubt... Deshalb wird es niemals "die" 4K Sorglos Karte für alles geben...

basix
2024-05-31, 18:36:21
GeForce RTX 5090
448-bit Interface
28 GB GDDR7 @ 28 Gbps
https://videocardz.com/newz/nvidia-rtx-5090-new-rumored-specs-28gb-gddr7-and-448-bit-bus

448bit wären 28 GByte. Ist ja nicht schlecht. Dann evtl. auch auf 96MByte beschnittener L2$. Würde mit 28Gbps GDDR7 immer noch 1.8x effektive Bandbreite einer RTX 4090 ergeben. Würde ziemlich gut passen. Zwischen GB203 mit max. 16 GByte wäre dann aber eine relativ grosse Lücke

Beim späteren Blackwell Refresh gegen Ende 2025 schiebt man dann Upgrades nach:
- 5090 Ti, GB202, evtl. mit 32 GByte
- 5080 Ti / Super , GB202, z.B. 24 GByte oder GB203 Vollausbau mit 24Gbit GDDR7
- 5070 Ti (Super), GB203, 16 GByte

Cubitus
2024-05-31, 18:42:21
448bit wären 28 GByte. Ist ja nicht schlecht. Dann evtl. auch auf 96MByte beschnittener L2$. Würde mit 28Gbps GDDR7 immer noch 1.8x effektive Bandbreite einer RTX 4090 ergeben. Würde ziemlich gut passen. Zwischen GB203 mit max. 16 GByte wäre dann aber eine relativ grosse Lücke

Beim späteren Blackwell Refresh gegen Ende 2025 schiebt man dann Upgrades nach:
- 5090 Ti, GB202, evtl. mit 32 GByte
- 5080 Ti / Super , GB202, z.B. 24 GByte oder GB203 Vollausbau mit 24Gbit GDDR7
- 5070 Ti (Super), GB203, 16 GByte

Ne 5090Ti wirds vermutlich nicht geben.. Weil AMD zu schwach.
Aber ich hoffe auf deutlich +30% Mehrleistung gegenüber der 4090 bei der 5090 weil sonst lohnt sich das Upgrade kaum

28 GB sind auch nur so meh....

basix
2024-05-31, 19:10:00
Blackwell Refresh ist ein Ende 2025 Thema. Bis dann gibt es evtl., wer weiss, bereits Big Fat RDNA5

Palpatin
2024-05-31, 23:35:10
Ne 5090Ti wirds vermutlich nicht geben.. Weil AMD zu schwach.
Aber ich hoffe auf deutlich +30% Mehrleistung gegenüber der 4090 bei der 5090 weil sonst lohnt sich das Upgrade kaum

28 GB sind auch nur so meh....
Sehe ich auch so. 30-40% Mehrleistung und ~2k für die 5090FE. Evtl. sehen wir aber nach 3-6 Monaten eine neue Titan die dann mit 32GB und 512bit kommt nochmal 15% drauf legt und ~3k kostet.

Gouvernator
2024-06-01, 00:03:18
Sehe ich auch so. 30-40% Mehrleistung und ~2k für die 5090FE. Evtl. sehen wir aber nach 3-6 Monaten eine neue Titan die dann mit 32GB und 512bit kommt nochmal 15% drauf legt und ~3k kostet.
Das wäre doch ein Scam. Von einer Titan erwarte ich mindestens 48Gb.
Aber das kommt aus ganz anderen Gründen nicht.
Die US-Regierung scheint unsere GPUs tatsächlich schon als Bedrohung für nationale Sicherheit einzustufen. Die VRAM Größe ist entscheidender Faktor für AI. Deswegen wird NV allein deswegen keine Titan rausbringen. Egal für welchen Preis.
Sonst bekommen sie noch eine Auflage aufgebrummt.
Vielleicht ist es ja auch besser so... Wenn ganze Staaten Gaming-GPUs für AI aufsaugen bekommen wir ja gar nichts mehr. Je höher VRAM Größe umso attraktiver wirds für AI.

BlacKi
2024-06-01, 01:11:59
blub blub? es gibt bereits karten mit 48gb. sie sind nur teuer. eine titan wäre nur eine günstigere pro karte. das macht nv wenn der AI markt gesättigt ist. das sehe ich aktuell nicht kommen.

Gouvernator
2024-06-01, 11:24:46
blub blub? es gibt bereits karten mit 48gb. sie sind nur teuer. eine titan wäre nur eine günstigere pro karte. das macht nv wenn der AI markt gesättigt ist. das sehe ich aktuell nicht kommen.
Laut neusten News beschließt US-Regierung gerade "AI-Beschleuniger" auch im Nahen Osten zu verbieten. Das heißt irgendwo auf CIA Ebene hat es schon geklickt, das eine GPU mit viel VRAM gleichzusetzen ist mit Waffenexport beispielsweise. Eine bezahlbare Gaming-Titan mit 48gb wird laut Regierungsdefinition automatisch wie angereichertes Uran behandelt. :freak:
Das stimmt ja auch, weil man so eine schöne GPU zum chatten im Generalstab einsetzen kann.

Aus dem Grund kann man getrost VRAM kastriertes Blackwell kaufen. Weil viel VRAM kommt ehe nicht mehr.

robbitop
2024-06-01, 12:02:12
Die ganzen Exportverbote sind IMO extrem kurzfristig gedacht. Es ermutigt China und Co in besonders hohen Investitionen in eigene Produkte und Modernisierung der Fertigungsprozesse. Mittelfristig holen sie auf und werden unabhängig und haben dann diese Produkte sowieso in der Hand. Nur dass man dann nicht mehr daran mitverdienen kann und keine Ahnung haben wird was drin steckt.

BlacKi
2024-06-01, 12:11:53
da die entwicklung zu immer kleineren bit training llms geht, spielt der vram immer weniger eine rolle. und statt großer gpus. werden einfach mehrere kleine verwendet. daher wird das sowieso kippen.

blackwell wird das AI training massiv beschleunigen, wenn man also china vom trainieren mit gpus abhalten will, müsste man die exporte von blackwell nach china komplett verbieten.

das wäre eine neue eskalationsstufe, vl wäre das dann zuviel, und man lässt es dann lieber.