PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Gouvernator
2024-06-01, 12:16:17
Die ganzen Exportverbote sind IMO extrem kurzfristig gedacht. Es ermutigt China und Co in besonders hohen Investitionen in eigene Produkte und Modernisierung der Fertigungsprozesse. Mittelfristig holen sie auf und werden unabhängig und haben dann diese Produkte sowieso in der Hand. Nur dass man dann nicht mehr daran mitverdienen kann und keine Ahnung haben wird was drin steckt.
Laut Sam Altman geht es nur um wenige Jahre beim Rennen um AGI. Wer als erster AGI erreicht, der kann nicht mehr eingeholt werden. Weil ab dem Zeitpunkt AGI beginnt sich selbst zu verbessern. Hat also durchaus Sinn und Zweck die Mitbewerber kurzfristig im GPU Segment auszubremsen.

Gouvernator
2024-06-01, 15:02:50
Hier mal was passendes von OpenAI. Wohin Jensen seine neue GPUs persönlich abliefert.
GPUs having unique cryptographic identity can enable model weights and inference data to be encrypted for specific GPUs or groups of GPUs. Fully realized, this can enable model weights to be decryptable only by GPUs belonging to authorized parties, and can allow inference data to be encrypted from the client to the specific GPUs that are serving their request.
https://openai.com/index/reimagining-secure-infrastructure-for-advanced-ai/
https://youtu.be/lQNEnVVv4OE?si=zC7OEfTX46m4F4tq

Sprich sie wollen GPU`s grundsätzlich signieren. Um dann AI Anwendungen erlauben oder nicht je nach dem wer sie nutzt. Bis sie auf diese Weise die Kontrolle erlangt haben, können sie versuchen mit Absprache durch Nvidia u.a. die VRAM Größen zu begrenzen bzw. nicht weiter steigern.

Das wird auf freiwilliger Basis mit Weißen Haus abgestimmt.
Our security program has sought to manifest this principle via voluntary security commitments provided to the White House

fuck me... kein 16K in nächster Zeit dank KI.

EDIT.
Wie lange könnte es dauern bis Jensen neue Titan GPU im signierten Zustand mit viel VRAM ausliefern kann...?

robbitop
2024-06-01, 15:15:02
Laut Sam Altman geht es nur um wenige Jahre beim Rennen um AGI. Wer als erster AGI erreicht, der kann nicht mehr eingeholt werden. Weil ab dem Zeitpunkt AGI beginnt sich selbst zu verbessern. Hat also durchaus Sinn und Zweck die Mitbewerber kurzfristig im GPU Segment auszubremsen.
Wir Menschen sind gut darin zu erklären, warum etwas in der Vergangenheit passiert ist. Aber sehr sehr schlecht darin zuverlässig zu prognostizieren was werden wird. Insbesondere bei Dingen, die man noch nie gemacht hat und man nicht weiß welche Dinge es braucht um sie hinzubekommen. Je komplexer desto mehr liegen wir daneben. IMO sind deshalb die Prognosen über AGI alle mehr als wackelig. Egal ob Experte oder nicht.
Insofern: -_-
Uneinholbar ist sowieso nichts - IMO ist da viel Schwarzmalerei dabei. Wenn es AGI überhaupt geben wird, dann ist es nur eine Frage der Zeit bis jeder sie hat. IMO.

wolik
2024-06-01, 16:17:33
AGI wäre großartig, wenn das Forum Beiträge löschen/verschieben könnte, die in den falschen Threads gepostet wurden.

Gouvernator
2024-06-01, 18:27:20
If your system has enough GPU memory (~48GB), you can comfortably run 8B models with full precision and a 4-bit quantized 70B (https://www.analyticsvidhya.com/blog/2024/04/how-to-run-llama-3-locally/#:~:text=There%20are%20different%20ways%20to,use%20cloud%20instances%20for%20inf erencing.) model.
Bedauerlicherweise braucht man für Llama3 8B und 70B Modelle, exakt die gleiche Menge an VRAM wie für 16K 3D Grafik. :(

The_Invisible
2024-06-01, 18:39:12
Was hast du mit deinen 16k, ist doch sowieso jede GPU zu lahm, auch Blackwell...

Daredevil
2024-06-01, 18:49:12
Es stimmt ja auch nicht, das nur die Menge des Speichers entscheidend ist.
Ein M3 Max MacBook kannst du schließlich mit 128GB Unified Memory konfigurieren und das unterliegt soweit ich weiß keinen Exporteinschränkungen.
Aber aus dem Grund, weil Apple hier in der Menge ordentlich Gas gibt, kommt Nvidia vielleicht ein wenig in Zugzwang.

Gouvernator
2024-06-01, 19:14:24
Was hast du mit deinen 16k, ist doch sowieso jede GPU zu lahm, auch Blackwell...
Ach ich will doch nur sowas wie Serios Sam 3 in 16K.
Es stimmt ja auch nicht, das nur die Menge des Speichers entscheidend ist.
Ein M3 Max MacBook kannst du schließlich mit 128GB Unified Memory konfigurieren und das unterliegt soweit ich weiß keinen Exporteinschränkungen.
Aber aus dem Grund, weil Apple hier in der Menge ordentlich Gas gibt, kommt Nvidia vielleicht ein wenig in Zugzwang.
Das ist übrigens auch ein Geheimtipp von AI Leuten. Die haben sich so ein Ding gleich angeschafft für Llama3 70B. Hier schöner Podcast. Und das ist deswegen so interessant, weil man sich von der Stärke her, damit quasi ChatGPT3.5 ins Haus holt.
https://youtu.be/wfNNlz5zFAM?si=TpzxZaOGzapYwnuM&t=341

OgrEGT
2024-06-01, 19:24:06
https://videocardz.com/newz/nvidia-to-introduce-project-g-assist-geforce-powered-ai-assistants-for-gamers
Das beste: am Ende braucht man so nen AI Assi um gegen AI NPCs bestehen zu können... LOL

Gouvernator
2024-06-01, 19:45:21
https://videocardz.com/newz/nvidia-to-introduce-project-g-assist-geforce-powered-ai-assistants-for-gamers
Das beste: am Ende braucht man so nen AI Assi um gegen AI NPCs bestehen zu können... LOL
Finde ich gut. Das kann doch nur genau so aufwendig werden wie durch eigene Redekunst, bei einem Aliexpress-Händler eine erfolgreiche Reklamation zu erwirken. Äh das wird heftig, wenn eine RPG-Quest per LLM absolviert werden muss. So LLM-NPC`s mit denen du statt vordefinierten Dialogen, in echt diskutieren muss.

OgrEGT
2024-06-01, 20:44:28
Finde ich gut. Das kann doch nur genau so aufwendig werden wie durch eigene Redekunst, bei einem Aliexpress-Händler eine erfolgreiche Reklamation zu erwirken. Äh das wird heftig, wenn eine RPG-Quest per LLM absolviert werden muss. So LLM-NPC`s mit denen du statt vordefinierten Dialogen, in echt diskutieren muss.
Und das "in echt" diskutieren geht nicht auch ohne AI Assi?
Also dass der PC ein LLM benötigt um die User Eingaben zu "verstehen" könnte ich nachvollziehen... wenn man das aber als User benötigt also der eigenen Sprache schon nicht mehr mächtig ist?
Der letzte Satz im VC Artikel bezog sich darauf dass man ggf in Zukunft als User selbst AI benötigt um gegen AI Gegner bestehen zu können... das klingt für mich absurd...

Gouvernator
2024-06-01, 21:43:26
Es gibt schon UE Plugins für LLM. Die Kommentare gehen aber dahin - es braucht heftig an Ressourcen. Auch hier wieder - VRAM. Vernünftige Auflösung + LLM da bist du schnell bei 60Gb+. Das was NV aktuell auftischt mit 28Gb ist Zynismus.

Altehardware
2024-06-01, 22:01:22
Nvidia Antwort darauf Cloud
Das wird nix mit g-assist

iamthebear
2024-06-01, 22:52:28
Das Problem das ich sehe:
Wenn ein Spiel rund um LLMs aufgebaut ist dann muss das auch die Einsteigerhardware performancetechnisch schaffen. Das Ganze wie bei RT als optionales Feature für High End Karten zu implementieren wird nicht funktionieren.
Wenn man sich den Trend der letzten 3 Jahre ansieht waren die Performance/Euro Steigerungen minimal während sich der Bedarf der Spiele fast verdoppelt hat bei selber Auflösung. Wir bewegen uns also rückwärts.

Moores Law ist auch am Ende sowohl beim RAM als auch beinder Anzahl der Logiktransistoren pro Euro.

Die Frage ist auch ob die ganzen KI Charaktere den Entwicklern nicht zu viel Arbeit machen als dass man es wirklich durchgehend durchzieht.
Ich erinnere mich noch an die Zeit vor knapp 20 Jahren wo es gerade in Mode war physikalisch korrekte Effekte zu generieren also jede Kiste die herumliegt hat eine bestimmte Masse, bremst dich etwas ab, kann aif Gegner geworfen werden usw. Hat sich aber langfristig nicht durgesetzt da wohl zu viel Aufwand. Ich vermute dasselbe Schicksal wird KI Nutzung in Spielen ereilen.

ChaosTM
2024-06-01, 23:10:23
28Gb wäre wirklich mau, aber mehr erwarte ich auch bezüglich Performance (vorerst) nicht.

20-30%, falls es dabei bleibt.

bessere AI Upscaler sind aber immer willkommen. ;)

Gouvernator
2024-06-02, 09:31:00
Das Problem das ich sehe:
Wenn ein Spiel rund um LLMs aufgebaut ist dann muss das auch die Einsteigerhardware performancetechnisch schaffen. Das Ganze wie bei RT als optionales Feature für High End Karten zu implementieren wird nicht funktionieren.
Wenn man sich den Trend der letzten 3 Jahre ansieht waren die Performance/Euro Steigerungen minimal während sich der Bedarf der Spiele fast verdoppelt hat bei selber Auflösung. Wir bewegen uns also rückwärts.

Moores Law ist auch am Ende sowohl beim RAM als auch beinder Anzahl der Logiktransistoren pro Euro.

Die Frage ist auch ob die ganzen KI Charaktere den Entwicklern nicht zu viel Arbeit machen als dass man es wirklich durchgehend durchzieht.
Ich erinnere mich noch an die Zeit vor knapp 20 Jahren wo es gerade in Mode war physikalisch korrekte Effekte zu generieren also jede Kiste die herumliegt hat eine bestimmte Masse, bremst dich etwas ab, kann aif Gegner geworfen werden usw. Hat sich aber langfristig nicht durgesetzt da wohl zu viel Aufwand. Ich vermute dasselbe Schicksal wird KI Nutzung in Spielen ereilen.
Mit jetzigen LLMs kannst du die LLM, entweder "fine tunen" um sie auf einen bestimmten Task vorzubereiten und dadurch schön klein zu halten. Oder du nimmst von vorne rein ein größeres Modell, was schlau genug ist für jede Task. Ein Modell dem du einfach dein Märchen, Script oder Geschichte als PDF füttern kannst ist leider nach jetzigen Maßstäben - fast AGI. Das ist glaube ich nicht mal in der Cloud möglich. Also "fine tuning" is it. Und da beginnen die Anforderungen mit 4-10Gb small size Models. Man könnte oder müsste theoretisch mehrere LLM Module laden, um mehrere NPCs unabhängig von einander und miteinander sprechen lassen. Und dann beginnt schon das Ressourcen-Problem bei RAM\VRAM

Daredevil
2024-06-02, 10:50:08
Das Problem das ich sehe:

Herstellern von Hardware lieben es, neue Probleme zu schaffen für die sie dir in den nächsten Jahren eine Lösung anbieten können. :D
Raytracing ist da ein populäres Beispiel. Vor 10 Jahren hat da niemand drüber nachgedacht, heute geben manche bewusste mehrere Hundert Euro mehr aus, um dieses "Problem" besser in den Griff zu bekommen.
GPU Hersteller freuen sich sicherlich auch jedes mal mehr, wenn Monitore mit so viel HZ wie möglich rauskommen, weil dann dickere GPUs gekauft werden.

Das Konzept LLM in Spielen steckt selbstverständlich in den Kinderschuhen, LLM stecken ja allgemein in den Kinderschuhen. Es wird aber sicherlich irgend ein Spiel oder eine Mod für z.B. Skyrim oder whatever geben, die auf einmal zeigen, was man mit solchen dingen anstellen kann.
Es reicht ja schon alleine, das man eine Sprachausgabe in jedem Spiel hat, die Texte selber müssten ja nicht mal generiert sein. Also Spracheingabe+Sprachausgabe wäre ja schon wahnsinnig, selbst wenn es in einem Spiel wie Sims sein sollte. :D
Nvidia wird hier vermutlich Vorreiter sein, weil das einfach jetzt ihr Core Business ist. Und die AI Girlfriends sprießen dann aus dem Boden. ;D

rentex
2024-06-02, 11:39:03
Raytracing ist kein Problem, das es zu lösen gilt und hohe Bildwiederholraten muss du ja nicht nutzen.

fondness
2024-06-02, 11:45:00
Um 13 Uhr startet die Keynote von Jensen Huang, weiß man was über den Inhalt?

pKXDVsWZmUU

Troyan
2024-06-02, 11:49:22
Industrie, hat nichts mit Gaming zu tun.

OgrEGT
2024-06-02, 12:24:25
https://videocardz.com/newz/watch-nvidia-ceo-jensen-huang-keynote-at-computex-2024
Angeblich Update zum AI Assi for Gamers und SFF Guide... keine GeForce Ankündigungen... ansonsten AIAIAI...

w0mbat
2024-06-02, 12:32:34
Warten wirs ab. Ich erwarte auch keine 5090, aber wissen tun wir erst erst danach.

Troyan
2024-06-02, 12:59:41
nVidia hat schon Ewigkeiten nichts mehr auf der Computex angekündigt. Ggfs. gibt es was mit Mediathek.

OgrEGT
2024-06-02, 13:04:39
Läuft der stream schon?
Bei mir nur Musik...

Gouvernator
2024-06-02, 13:05:37
Herstellern von Hardware lieben es, neue Probleme zu schaffen für die sie dir in den nächsten Jahren eine Lösung anbieten können. :D
Raytracing ist da ein populäres Beispiel. Vor 10 Jahren hat da niemand drüber nachgedacht, heute geben manche bewusste mehrere Hundert Euro mehr aus, um dieses "Problem" besser in den Griff zu bekommen.
GPU Hersteller freuen sich sicherlich auch jedes mal mehr, wenn Monitore mit so viel HZ wie möglich rauskommen, weil dann dickere GPUs gekauft werden.

Das Konzept LLM in Spielen steckt selbstverständlich in den Kinderschuhen, LLM stecken ja allgemein in den Kinderschuhen. Es wird aber sicherlich irgend ein Spiel oder eine Mod für z.B. Skyrim oder whatever geben, die auf einmal zeigen, was man mit solchen dingen anstellen kann.
Es reicht ja schon alleine, das man eine Sprachausgabe in jedem Spiel hat, die Texte selber müssten ja nicht mal generiert sein. Also Spracheingabe+Sprachausgabe wäre ja schon wahnsinnig, selbst wenn es in einem Spiel wie Sims sein sollte. :D
Nvidia wird hier vermutlich Vorreiter sein, weil das einfach jetzt ihr Core Business ist. Und die AI Girlfriends sprießen dann aus dem Boden. ;D
So eine LLM muss sich ja irgendwie erst ins Spiel-Story einarbeiten. Das ist heute schon möglich. Aber nicht so gut mit lokalen LLM`s. Retrieval-Augmented Generation (RAG) nennt sich das. Du kannst zwar so eine LLM die auf Gaming-Laptop noch läuft, mit paar Seiten deiner Geschichte füttern aber mit 1B bis 8B Parametern ist sie viel zu dumm und könnte massiv halluzinieren. Ich denke ein guter Wert für sowas ist ChatGPT3.5, das in Richtung 100B geht. Das wird erst so ab 64Gb VRAM passieren. Und da auch vermutlich nur wenn ein extra Dev ein LLM für die Game-Story fine tuned.

PS.
Nvidia hat aber tatsächlich dieses Thema im Blick. Ihre ChatRTX App ist momentan die einzige Lösung die aus dem Stand über RAG mit dir kommunizieren kann. Und sie sind quasi nur durch VRAM begrenzt. Da läuft irgendeine Mistral LLM mit 6B oder so. Wenn sie wollten wäre mit massig VRAM 70B LLM möglich.

aceCrasher
2024-06-02, 13:06:39
https://videocardz.com/newz/watch-nvidia-ceo-jensen-huang-keynote-at-computex-2024
ansonsten AIAIAI...
Woran ich da immer denken muss (https://www.youtube.com/watch?v=D0q0QeQbw9U) ;D

Kriegsgeier
2024-06-02, 14:05:18
Wenn NVIDIA so weiter macht wird der Konzern sehr bald zerschlagen werden.

TheCounter
2024-06-02, 14:06:44
Das Wachstumspotential ist definitiv enorm, die Aktien sind eigentlich viel zu billig.

Ich will aber endlich consumer Blackwell sehen :)

BlacKi
2024-06-02, 14:10:48
boah der stream bricht laufend ab. aber viel ist bisher nicht passiert, nur das AI die zukunft ist.

€dit: ah jetzt ja.

Kriegsgeier
2024-06-02, 14:22:59
Energie wird bald wesentlich teurer!

Wahnsinn wieviel die Wracks verbrauchen - er spricht in 100 kWatt - ein "Kühl"schrank!

Kriegsgeier
2024-06-02, 14:23:22
JUHU!!!! RTX 5090!
Hat er doch in der Hand gehabt, oder?

Ohje, jetzt wird noch das Internettrafic mit der IA überlastet :(

TheCounter
2024-06-02, 14:34:12
"Only I can do that" - Lederjacke 2024 :ugly: ;D

BlacKi
2024-06-02, 14:34:45
wenn die 5090 wie eine 4090, dann ja. sah etwas sehr dunkel aus, aber das kann an der bühne liegen.

Kriegsgeier
2024-06-02, 14:59:46
nix RTX 5090 :(

konkretor
2024-06-02, 16:19:27
https://www.computerbase.de/forum/threads/nvidia-roadmap-2026-kommt-rubin-mit-hbm4-und-die-vera-cpu.2197980/

Gouvernator
2024-06-02, 17:39:29
Das wichtigste was er sagte, er will Millionen HPC GPUs bauen. Und er will AI-Laptops sehen. Das ist seine Priorität. Heißt man wird vermutlich eher auf Mobile-Blackwells setzen. Sprich die Gaming-Laptops könnten in Preis\Leistung wirklich attraktiv werden. Was ich zuvor gesagt habe, das Geld lieber in Laptop investieren anstatt 5090.

OgrEGT
2024-06-02, 18:13:03
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-gpus-to-feature-similar-gpc-count-to-lovelace
BW und AD sollen die gleiche Anzahl an GPCs also Rasterizer haben..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88378&stc=1&d=1717344934

AffenJack
2024-06-02, 18:55:45
Jetzt soll GB202 schon mehr als ein doppelter GB203 werden? Das klingt für mich langsam sehr unglaubwürdig, auch wenn es von Kopite7kimi kommt.

robbitop
2024-06-02, 19:23:19
Die Kunden wollen gemolken werden. Das wäre 43% des vollen Chips. Das liegt also schon unter dem was mal die 70er SKU war und driftet fast ins ehemalige 60er SKU Territorium. ^^

TheAntitheist
2024-06-02, 19:36:36
Die Kunden wollen gemolken werden. Das wäre 43% des vollen Chips. Das liegt also schon unter dem was mal die 70er SKU war und driftet fast ins ehemalige 60er SKU Territorium. ^^
wieso 43%? GB203 ist bei 100% aktivierten shadern, 96 Shader groß.

das ist wieder dummes bashing und provoziert nur.

der GB203 geht eben so durch weil AMD nix bringt dieses Jahr. die neuen AMD GPUs sind nicht interessant für alle AMD Kunden die in den letzten 18 Monaten was gekauft haben. und für Nvidia Kunden seit der 30er Serie.

Natürlich nehme ich jetzt die Mainstream Karten da raus. Aber kaum einer macht sidegrades weil wirtschaftlicher Unsinn

OgrEGT
2024-06-02, 19:39:34
Für mich macht das keinen Sinn wenn doch GB202 logisch aus 2xGB203 bestehen soll...
Wie soll das gehen wenn GB203 nun aus 7x12SMs aufgebaut sein soll?
Dann müsste GB202 14 GPCs und nicht 12 haben...

Oder GB203 hat eigentlich 8GPCs von denen dann 1 GPC deaktiviert wurde... Bei GB202 sind dann gleich 4 GPCs deaktiviert...

Oder die Information zu GB202=2xGB203 stimmt nicht und wir haben es wie bisher mit 2 eigenständigen Chips zu tun...

dargo
2024-06-06, 20:51:02
Wenn ich das richtig interpretiere und überhaupt was dran ist angeblich +48% in RT bei 5090 vs. 4090 und +42% in Raster bei 4k.

kPAonMUzap4

The_Invisible
2024-06-06, 21:25:50
Würde ja fast Sinn ergeben, gerade so viel Performance liefern damit die meisten 4090er User upgraden und beim nächsten Super Refresh nochmals absahnen kann. Aber schon highly Speku :D

Sardaukar.nsn
2024-06-06, 21:36:18
Kann mich kaum erinnern das der Ti bzw. Super Refresh der TopDog Karten irgendwann mal interessant war.

Immerhin wurden auf der Computex Messe in Taipei die passenden neuen Netzteile vorgestellt.

https://i.imgur.com/s0FzmLi.jpeg

[MK2]Mythos
2024-06-06, 21:56:43
Bleibt jetzt nur noch die Frage ob mehrere 12vHP Stecker das Brandrisiko erhöhen, oder reduzieren? :D

The_Invisible
2024-06-06, 22:07:49
Stell mir da die Adapter lustig vor, 4x4 8Pin PCIe :D

horn 12
2024-06-07, 04:22:26
https://www.youtube.com/watch?v=KGWkv3QQ4sM

Moore's Law Is Dead Video
zu den Neuesten Stands.

Leonidas
2024-06-07, 11:44:04
Micron gibt einen Ausblick auf die mögliche Performance der GeForce RTX 5090
inkl. pixel-genau ausgewerteter Performance (+42% Raster, +50% RT)
https://www.3dcenter.org/news/micron-gibt-einen-ausblick-auf-die-moegliche-performance-der-geforce-rtx-5090

https://www.3dcenter.org/dateien/abbildungen/Micro-GeForce-RTX-5090-Benchmarks.vorschau2.jpg

Wuge
2024-06-07, 14:47:10
mhm... najaaa :(

Badesalz
2024-06-07, 18:42:17
Mythos;13555409']Bleibt jetzt nur noch die Frage ob mehrere 12vHP Stecker das Brandrisiko erhöhen, oder reduzieren? :DUnd das für +42% Raster und +50% RT. Irre :usweet:

OgrEGT
2024-06-07, 20:15:43
Vielleicht kommt SLI zurück dann 2x2 Stecker:ulol:

Altehardware
2024-06-07, 21:05:06
nvlink gibt es doch und soll laut jetson wie eine gpu ohne latenz arbeiten was teilweise wahr ist

Badesalz
2024-06-07, 22:25:35
"soll" "was teilweise wahr ist"
Aha :|

Ja SLI wäre mega. 3799€ alleine für die Spielegrafik am PC. Total toll :uup:

Der_Korken
2024-06-07, 22:45:08
Ja SLI wäre mega. 3799€ alleine für die Spielegrafik am PC. Total toll :uup:

Das finde ich ehrlich gesagt einen optimistischen Preis.

BlacKi
2024-06-07, 22:48:09
"soll" "was teilweise wahr ist"
Aha :|

Ja SLI wäre mega. 3799€ alleine für die Spielegrafik am PC. Total recall :uup:ftfy:biggrin:

auf so vielene ebenen:hammer:

Sardaukar.nsn
2024-06-07, 23:16:44
Und das für +42% Raster und +50% RT. Irre :usweet:

Kann ich mir kaum vorstellen und wäre mir persönlich auch deutlich zu wenig für einen Wechsel.

bbott
2024-06-08, 00:19:02
Das finde ich ehrlich gesagt einen optimistischen Preis.
Wieso für zwei 5080er doch realistisch :freak: Solange die Kunden NV die Karten aus den Händen reisen, einfach Kosten weiter optimieren und Preise erhöhen... der Kunde bekommt das was er will bzw. verdient. :wink:

dildo4u
2024-06-08, 12:57:42
Auf der Computex geht das Gerücht rum das wir 2024 keine neuen GPU sehen.

https://videocardz.com/newz/amd-nvidia-and-intel-next-gen-gpus-most-likely-arriving-in-2025

rentex
2024-06-08, 16:04:31
Auf der Computex geht das Gerücht rum das wir 2024 keine neuen GPU sehen.

https://videocardz.com/newz/amd-nvidia-and-intel-next-gen-gpus-most-likely-arriving-in-2025

Aber ebenfalls von AMD und Intel. Auf was wartet AMD? Die 8000er Serie beinhaltet eh keine neue High-End GPU.

Fragman
2024-06-08, 16:26:46
Gestern die genauen auflösungsabhängigen Prognosen zu GBxxx und heut diese Nachricht.
Das Internet dreht wieder frei. 😁

prinz_valium_2
2024-06-08, 16:31:07
Aber ebenfalls von AMD und Intel. Auf was wartet AMD? Die 8000er Serie beinhaltet eh keine neue High-End GPU.

Darauf, dass die Karten fertig werden und man das Produkt in den Markt bringen kann.

Leonidas
2024-06-08, 17:15:44
Vorschau zu Mobile-Blackwell: An der Spitze wieder 16 GB VRAM, darunter dasselbe Elend wie bisher (1x 12 GB, 3x 8 GB)

https://x.com/AlvieriD/status/1797612907074843039
https://pbs.twimg.com/media/GPJnaIdXQAAk_OK?format=jpg

rentex
2024-06-08, 21:24:09
Darauf, dass die Karten fertig werden und man das Produkt in den Markt bringen kann.

Kein High-End und dann kriegen sie es nicht gebacken?

Gouvernator
2024-06-08, 21:33:58
Wenn's Mobile 5090 nicht wieder so abartig teuer wird... dann ist es ok. Ab 2000€ für 16Gb Vram wird es schon gut.

ChaosTM
2024-06-08, 21:40:37
Kein High-End und dann kriegen sie es nicht gebacken?


Man steht unter keinerlei Druck.
Die 4090er ist der Konkurrenz wohl noch auf Jahre klar überlegen.

Altehardware
2024-06-08, 23:57:44
Da damit klar ist das blackwell gb205 maximal herauskommt (halber gb202) dürfte sich erst q1 2025 mit gb203 und gb206 kommen
faktisch zuerst die rtx5080 und dan die rtx5090 im Januar gefolgt im Februar die rtx5070 gb206
dann diese konfigs

gb203 rtx5090 112sm (3,0ghz) 2000$ 28gb/+17% januar 2025
gb205 rtx5080 84sm (3,0ghz) 1300$ 20gb /+49% dez 2024
gb206 rtx5070 60sm (2,4ghz) 650$ 12gb /+39% Februar 2025
gefolgt im März april gb207 rtx5060 (2,4ghz) 12gb 400$ /+30% März 2025
= meine sku mt Zähneknirschen da weniger Bandbreite als vorherige 320-336gb/s vs 360gb/s +60% nah an der grenze was min sein müsste für 2 gen Differenz.
Dafür passt der verbrauch von nur maximal 100w
es wird 2026 nen refresh geben in sf3x node +18% Takt. Andere sku Sortierung dann den gb306 2,7ghz 48sm grob 30tf +100%
Das dürfte mit dann 180w meine sku werden bis zum Systemwechsel auf apu basis 2029 (144cu 3,9ghz a16 node octacore 6,2ghz+16 zen6c 5,2ghz tdp 250w cam modul ddr7 14gt/s 48gb 77tf 448gb/s 100tops)
grob 800€ leider als ganzen pc zu kaufen

BlacKi
2024-06-09, 00:06:48
5070 12gb ? find ich nicht so witzig...

zum glück ist die 4080 in der post.

HOT
2024-06-09, 09:20:38
Jedenfalls mobil. Aber ich fürchte dennoch auch im Desktop geht so weiter: 70 -> 12GB, 70Ti -> 16GB, 60Ti -> 12GB

Leonidas Roadmap ist ja leicht zu entschlüsseln:

5090
5080
5070

5060Ti
5060
5050

Badesalz
2024-06-09, 11:48:36
Ohne Kaufabsichten (!)

Kein High-End und dann kriegen sie es nicht gebacken?Hat HighEnd etwas damit zu tun wie schwer es ist ein Design zu debuggen?
Ich finde es grad sehr spannend. Bisher waren sie die durch das Matschefeld Gehetzten :rolleyes: Haben wir letztes Mal gesehen wie das endete.

Jetzt bin ich mal gespannt was sie bringen, wenn sie bisschen mehr Zeit haben sich um alles vernünftig zu kümmern. Wenn das wieder nicht das bringt was es könnte und wie es geplant wurde, dann haben sie im gegensatz zu CDNA, RDNA nicht drauf. Ich glaub so möchten sie nicht nochmal dastehen ;)

AffenJack
2024-06-09, 12:13:20
Vorschau zu Mobile-Blackwell: An der Spitze wieder 16 GB VRAM, darunter dasselbe Elend wie bisher (1x 12 GB, 3x 8 GB)

https://x.com/AlvieriD/status/1797612907074843039
https://pbs.twimg.com/media/GPJnaIdXQAAk_OK?format=jpg

Solange es kein größeren Module gibt, wirds auch nicht mehr RAM geben. Mist, dass GDDR7 mit den gleichen Speichergrößen weitergeht wie vorher. Ich hoffe im Laufe 2025 sind die größeren Module endlich mal fertig.
Für Q1-Q2 für die Notebooks kommt der Speicher anscheinend zu spät.

Jedenfalls mobil. Aber ich fürchte dennoch auch im Desktop geht so weiter: 70 -> 12GB, 70Ti -> 16GB, 60Ti -> 12GB

Leonidas Roadmap ist ja leicht zu entschlüsseln:

5090
5080
5070

5060Ti
5060
5050

Dann würde wenigstens die Mobile 5070 von 8 auf 12 GB gehen. Das wäre wenigstens etwas. Ich würde nicht ausschließen, dsas die 12gb erst die 5070Ti werden.

HOT
2024-06-09, 15:14:00
Wenn man bedenkt, dass es schon GM204-Varianten mobil (980m) schon mit 8GB gab ist das alles derart traurig... das ist 10(!!) Jahre her.

rentex
2024-06-10, 08:46:12
Man kann mittlerweile festhalten, das Gaming deutlich in den Hintergrund rückt und das bei allen Herstellern. Dann wird es halt mal etwas länger dauern, bis die neuen Gens released werden.

mocad_tom
2024-06-10, 10:11:36
Ich glaube nvidia kegelt sich hier selber raus.

K.I. Modelle benötigen RAM.
Ein Laptop mit unified RAM und 64GB RAM kann sehr viel größere Modell laden als eine Geforce Mobile mit 16GB.

Da kann die Geforce Mobile 300TOPS haben, sie wird gegen einen Laptop mit 45TOPS verlieren, wenn das Modell nicht in den Speicher passt.

Llama 3 70B benötigt 48GB VRAM

Qwen 72B benötigt ebenfalls 48GB VRAM

Beide Modelle sind recht human bei der Lizenz.

Wenn hier 64GB Laptops mit Strix Point rauskommen, dann brennt die Luft.


https://huggingface.co/Qwen/Qwen-72B-Chat

Tongyi Qianwen-72B ( Qwen-72B ) ist ein 72-Milliarden-Parameter-Modell der großen Tongyi-Qianwen-Modellreihe, das von Alibaba Cloud entwickelt wurde. Qwen-72B ist ein großes Sprachmodell, das auf Transformer basiert und auf extrem umfangreichen Vortrainingsdaten trainiert wird. Die Datentypen vor dem Training sind vielfältig und decken ein breites Spektrum an Bereichen ab, darunter eine große Anzahl von Online-Texten, Fachbüchern, Codes usw. Gleichzeitig haben wir basierend auf Qwen-72B den Ausrichtungsmechanismus verwendet, um einen KI-Assistenten Qwen-72B-Chat zu erstellen, der auf einem großen Sprachmodell basiert. Dieses Lager ist das Lager von Qwen-72B-Chat.

Qwen schneidet wirklich gut ab.

1ch0
2024-06-10, 10:20:13
5070 12gb ? find ich nicht so witzig...
zum glück ist die 4080 in der post.

Glückwunsch zur 4080. Tolle Karte und willkommen in der Welt von Ray- und Pathtracing. It’s beautiful here. :D. Unter 16 GB würde ich auch nichts mehr kaufen.

Altehardware
2024-06-10, 11:15:32
Da hat es einer begriffen
Ai wird definitiv am vram scheitern daher sagt ja jensen man solle ich ne ai fabric mieten.
Das wird sich nicht durchsetzen amd Fahrplan ist ziemlich sicher sofern der copilot Erfolg hat. woran ich auch zweifle.

1ch0
2024-06-10, 12:39:07
Da hat es einer begriffen
Ai wird definitiv am vram scheitern daher sagt ja jensen man solle ich ne ai fabric mieten.

Das ist doch Quatsch. Du kannst dir ja ChatwithRTX mal installieren oder GPT4All. Da kannst du dir lokal ganz einfach mit 8 GB VRAM ein Modell installieren und lokal nutzen. Du musst ja nicht immer das mega große Modell nutzen, was die meisten auch gar nicht brauchen. Darum gibt es ja so viele verschiedene…

Ich nutze verschiedene Modelle und Mistral AI ist zum Beispiel ganz gut und zensiert auch kaum was. Zumal du da noch auswählen kannst, welches Modell. Das geht auch wenn du es lokal installiert hast.

https://chat.mistral.ai/chat

https://gpt4all.io/index.html

00-Schneider
2024-06-11, 15:33:43
Specs sind raus:

GB202 = 24,576 Cores (512-bit G7) / +33% More Cores Vs AD102
GB203 = 10,752 Cores (256-bit G7) / +5% More Cores Vs AD103
GB205 = 6,400 Cores (192-bit G7) / -16.6% Cores Vs AD104
GB206 = 4,608 Cores (128-bit G7) / Same Cores Vs AD106
GB207 = 2,560 Cores (128-bit G6) / -16.6% Cores Vs AD107

https://wccftech.com/nvidia-geforce-rtx-50-blackwell-gpu-configs-leak-gb202-192-sm-512-bit-gb203-84-sm-256-bit-gb205-50-sm-192-bit-gb206-36-sm-128-bit-gb207-20-sm-128-bit/

Exxtreme
2024-06-11, 15:46:26
Bin gespannt ob man den vollen BW als Spiele-Grafikkarte bekommt und was das Ding dann kostet. :freak:

y33H@
2024-06-11, 15:56:31
Wenn man stumpf die 23 Gbps GDDR6X einer RTX 4080 Super hernimmt und Micron schon 32 Gbps GDDR7 samplet, dann sprechen wir von theoretisch +40% mehr Speichertransferrate - ergo würde ich behaupten, eine "RTX 5080" ist gute 30% flotter als eine RTX 4080 Super :freak:

00-Schneider
2024-06-11, 16:00:27
Wenn man stumpf die 23 Gbps GDDR6X einer RTX 4080 Super hernimmt und Micron schon 32 Gbps GDDR7 samplet, dann sprechen wir von theoretisch +40% mehr Speichertransferrate - ergo würde ich behaupten, eine "RTX 5080" ist gute 30% flotter als eine RTX 4080 Super :freak:


Würde ja dann zu den Gerüchten passen, dass eine 5080 in etwa so schnell wie eine 4090 ist.

Tesseract
2024-06-11, 16:07:38
Bin gespannt ob man den vollen BW als Spiele-Grafikkarte bekommt und was das Ding dann kostet. :freak:

ziemlich sicher nicht. so ein gigantischer chip mit dem abstand zum GB203 macht eigentlich nur sinn wenn der primär auf den professionellen markt zugeschnitten ist der alle 100%-chips bekommen wird wie auch bei AD102 schon.

The_Invisible
2024-06-11, 17:01:34
Bin gespannt ob man den vollen BW als Spiele-Grafikkarte bekommt und was das Ding dann kostet. :freak:

Bei dem was AMD bringt niemals, eventuell wenn irgendwann rdna5 kommt eine 5090ti. Wenn's dann eh nicht schon die neue Gen von Nvidia gibt...

Sardaukar.nsn
2024-06-11, 21:33:58
Hätte nicht gedacht das die Lücke zwischen 202 und 203 noch mal größer wird als schon bei Lovelace.

Wuge
2024-06-11, 21:59:42
Bin gespannt ob man den vollen BW als Spiele-Grafikkarte bekommt und was das Ding dann kostet. :freak:

Ich wills hoffen. Ich kauf nix unrundes und bau die Wakü auch nicht wegen 25% mehr Performance um. Dann solln se halt 2500 EUR verlangen wenn das Ding wenigstens am Limit des Machbaren ist. Dafür muss es sich doch rechnen...

Ghost1nTh3GPU
2024-06-11, 22:46:19
Wenn man stumpf die 23 Gbps GDDR6X einer RTX 4080 Super hernimmt und Micron schon 32 Gbps GDDR7 samplet, dann sprechen wir von theoretisch +40% mehr Speichertransferrate - ergo würde ich behaupten, eine "RTX 5080" ist gute 30% flotter als eine RTX 4080 Super :freak:

Bei GB206 ist der Sprung von 17/19 Gbps der 4060 (Ti) noch extremer, selbst wenn es nur bei 28Gbps bleiben würde. Da könnte wohl 96-Bit/12GB für den Beginn naheliegend sein, für vielleicht günstige $449-499:tongue:.
Beim Blackwell Super Refresh stehen dann vielleicht schon die 3GB Module zur Verfügung, sodass man da mal die 16GB für den $400 Bereich auspacken kann.

ashantus
2024-06-12, 07:27:32
Glückwunsch zur 4080. Tolle Karte und willkommen in der Welt von Ray- und Pathtracing. It’s beautiful here. :D. Unter 16 GB würde ich auch nichts mehr kaufen.
Wenn die Blackwell dafür sorgen, dass die 4080 auf 700,- fällt, wäre das auch eine Lösung. Dann gibt es halt 4080-16GB statt 5070-12GB.
Ich spekuliere nun, dass die Blackwell erstmal mit GDDR6 kommen, und ein Refresh mit GDDR7 als 6070 folgt. So könnte nvidia mit sehr einfachem GDDR Wechsel nochmal groß Kasse machen.

y33H@
2024-06-12, 07:58:38
Dann müsste der IMC beides können, fraglich ob Nvidia das so umsetzt - IMHO nein.

reaperrr
2024-06-12, 08:15:45
Hätte nicht gedacht das die Lücke zwischen 202 und 203 noch mal größer wird als schon bei Lovelace.
Krasser finde ich eigentlich, dass wir jetzt schon Rückschritte bei der SM-Zahl in den niedrigeren Chips haben :freak:

Ich wette, dass NV die fehlende Konkurrenz und GDDR7 außerdem nutzt, um die L2s wieder zu verkleinern.

GB203 - 32 MB, 32 Gbps G7
GB205 - 24 MB, 28-32 Gbps G7
GB206 - 16 MB, 28 Gbps G7
GB207 - 16 MB, 18-19 Gbps G6

Würde ordentlich Fläche sparen.
Möglich sind natürlich auch 48MB für GB203, 36MB für GB205 und 24 MB für GB206/207. Aber ich wäre positiv überrascht, wenn am L2 nix reduziert wird.

robbitop
2024-06-12, 08:58:41
Das Krasse ist dazu auch dass GB203 in relation zum Top Dog noch weniger (prozentual) SMs hat. Wenn GB203 eine 80 SKU wird, wird es schon albern. Dann ist 80 wirklich das was mal 60 war.
Und die Leute zahlen >1000 EUR
Herrlich so ein Monopol X-D

Dovregubben
2024-06-12, 10:24:05
Da kann die Geforce Mobile 300TOPS haben, sie wird gegen einen Laptop mit 45TOPS verlieren, wenn das Modell nicht in den Speicher passt.

Llama 3 70B benötigt 48GB VRAM

Qwen 72B benötigt ebenfalls 48GB VRAM

Beide Modelle sind recht human bei der Lizenz.

Das sind Cloudmodelle. Die brauchen auch mehr Rechenleistung.
Wenn man Speicher sparen will, quantisiert man halt etwas stärker, wirft ein Teil der Parameter weg und gut ist.
Der nächste Schritt für lokal sind vermutlich ternary LLMs. Mal schauen, wann Nvidia dafür extra Support bietet.

Fragman
2024-06-12, 11:04:58
Das Krasse ist dazu auch dass GB203 in relation zum Top Dog noch weniger (prozentual) SMs hat. Wenn GB203 eine 80 SKU wird, wird es schon albern. Dann ist 80 wirklich das was mal 60 war.
Und die Leute zahlen >1000 EUR
Herrlich so ein Monopol X-D

Die Antwort vor einigen Wochen auf den riesigen Unterschied lautete noch in etwa so, das GB202 gar nicht so skalieren kann und aus dem Mehr nur 60 % Prozent oder so an Mehrleistung herausholen wird.

Wir müssen mal abwarten wieviele 5090 nv zum Start anbieten wird.
Vielleicht ist es so, das GB wieder nur als obendrauf Option zum bestehenden Portfolio gesehen wird.
Oder wen interessiert eine mögliche 5060, die die Leistung eine 4070TI erreicht für vielleicht 100 euro weniger?

AMD fällt ja wieder einmal aus, da kann man das dann machen.

basix
2024-06-12, 11:59:27
Krasser finde ich eigentlich, dass wir jetzt schon Rückschritte bei der SM-Zahl in den niedrigeren Chips haben :freak

Wenn man pro SM +50% schneller wäre, wäre es immer noch ein schnellerer Chip ;)

x-force
2024-06-12, 13:22:48
Herrlich so ein Monopol X-D

noch herrlicher ist es in der kartellbehörde zu arbeiten und im schlaf sein geld zu verdienen :biggrin:

Exxtreme
2024-06-12, 13:28:36
Herrlich so ein Monopol X-D

Die Kunden wollen es so und haben so mit dem Geldbeutel abgestimmt. Das sind halt die Konsequenzen.

dargo
2024-06-12, 13:38:59
Die Kunden wollen es so und haben so mit dem Geldbeutel abgestimmt. Das sind halt die Konsequenzen.
Richtig... wie bestellt so geliefert.

MiamiNice
2024-06-12, 14:03:40
Ich habe so ein Gefühl, dass die 5090 auch mit GB203 kommt und NV irgendwas anderes gemacht hat (bessere Auslastung, besseres DLSS) um deutlich längere Balken zeigen zu können.

x-force
2024-06-12, 14:19:28
Die Kunden wollen es so und haben so mit dem Geldbeutel abgestimmt. Das sind halt die Konsequenzen.

vielleicht sehen es die kunden auch nicht ein den job der politiker und verwaltungsbeamten zu übernehmen.

die aussage kannst du so nur halten, wenn nvidia kunden repräsentativ für den durchschnittlichen wähler sind ;)

The_Invisible
2024-06-12, 14:48:47
Ich habe so ein Gefühl, dass die 5090 auch mit GB203 kommt und NV irgendwas anderes gemacht hat (bessere Auslastung, besseres DLSS) um deutlich längere Balken zeigen zu können.

Da müsste man 60% Shadereinheiten kompensieren gegenüber der 4090 und zur Kaufanregung noch einiges drauflegen. Das wäre dann wohl ein richtiges IPC Monster. Glaub ich nicht daran, eher wird man die Preise erhöhen.

BlacKi
2024-06-12, 15:35:04
das mit gb203 hat mit den chinesen zu tun. gb202 darf nicht nach china, und wenn gb203 zu schnell wird auch nicht.

wer würde auf die bescheuerte idee kommen, oh schaut mal, die 4090D ist so langsam, weil amd keine konkurenz mehr ist.
das man dann das restliche portfolio auch nach unten skalieren muss ist dann ja auch klar. solange der preis der karte passt, warum denn auch nicht.

über die preise darf man dann meckern, nur bringts das halt auch nicht, denn amd hat auch kein interesse im unteren mittelfeld in den preiskampf zu gehen, obwohl konkurenz da ist, btw, mehr als je zuvor in den letzen 20jahren. helfen tut das auch nicht.

da gddr7 erst ab 2025 in massenproduktion geht, werden wir dieses jahr sowiesokeine neuen karten mehr sehen und 2025 nicht gleich.

y33H@
2024-06-12, 16:12:40
Du meinst echt, die haben sich vor 4+ Jahren hingesetzt und gesagt, wir bauen GB203 so, dass wir ihn 2025 exportieren dürfen? ^^

BlacKi
2024-06-12, 16:18:37
die shader anzahl ist doch relativ variabel.

im gegenzug könnte ich ja auch behaupten, die wussten vor 4+ jahren, das amd keine konkurenz bringt?

y33H@
2024-06-12, 16:21:28
Beide Aussagen sind Quatsch.

AffenJack
2024-06-12, 16:25:57
da gddr7 erst ab 2025 in massenproduktion geht, werden wir dieses jahr sowiesokeine neuen karten mehr sehen und 2025 nicht gleich.

Wie kommst du darauf, dass GDDR7 2025 in Produktion geht? Nur SK Hynix ist später dran 2025.

Exxtreme
2024-06-12, 16:35:18
Also Micron angeblich erstes Halbjahr 2024:
https://www.igorslab.de/microns-gddr7-speicher-wird-im-ersten-halbjahr-2024-auf-den-markt-kommen-und-die-naechste-generation-von-grafikprozessoren-antreiben/

dargo
2024-06-12, 16:42:51
Du meinst echt, die haben sich vor 4+ Jahren hingesetzt und gesagt, wir bauen GB203 so, dass wir ihn 2025 exportieren dürfen? ^^
Danke für den Lacher. :biggrin: Manche haben hier echt grandiose Vorstellungen bei Entwicklungen von neuen GPU-Designs. Wir krempeln mal eben schnell alles um. ;D

AffenJack
2024-06-12, 16:49:44
Also Micron angeblich erstes Halbjahr 2024:
https://www.igorslab.de/microns-gddr7-speicher-wird-im-ersten-halbjahr-2024-auf-den-markt-kommen-und-die-naechste-generation-von-grafikprozessoren-antreiben/

Ja genau und Samsung hat August 2023 Nvidia schon Samples geschickt. Der Speicher ist fertig, nur leider mit den kleinen Kapazitäte. Außerdem wenn man den Angaben über die Shader von Kopite glauben will, dann sollte man auch an die Releasedates von Kopite glauben und der sagt 2024 für GB202 und GB2023.

Leonidas
2024-06-13, 12:10:50
Ich habe so ein Gefühl, dass die 5090 auch mit GB203 kommt und NV irgendwas anderes gemacht hat (bessere Auslastung, besseres DLSS) um deutlich längere Balken zeigen zu können.

Denke ich mir auch. Genau dafür ergibt so ein nominell schwaches Chip-Portfolio Sinn - um wieder mehr Chip pro Grafikkarte zuliefern. Und die 4nm-Fertigung macht es möglich, da nicht so teuer wie 3nm.

HOT
2024-06-13, 13:21:32
das mit gb203 hat mit den chinesen zu tun. gb202 darf nicht nach china, und wenn gb203 zu schnell wird auch nicht.

wer würde auf die bescheuerte idee kommen, oh schaut mal, die 4090D ist so langsam, weil amd keine konkurenz mehr ist.
das man dann das restliche portfolio auch nach unten skalieren muss ist dann ja auch klar. solange der preis der karte passt, warum denn auch nicht.

über die preise darf man dann meckern, nur bringts das halt auch nicht, denn amd hat auch kein interesse im unteren mittelfeld in den preiskampf zu gehen, obwohl konkurenz da ist, btw, mehr als je zuvor in den letzen 20jahren. helfen tut das auch nicht.

da gddr7 erst ab 2025 in massenproduktion geht, werden wir dieses jahr sowiesokeine neuen karten mehr sehen und 2025 nicht gleich.

Ich glaub ehrlichgesagt nicht dass das stimmt. Ich weiß, das war ne Theorie von Tom (MLID) aber die Sanktionen sind ja willkürlich und können jederzeit auch solche Chips umfassen, dafür kann man nicht planen. Was auch immer NV dazu bewogen hat, so vorzugehen, die Sanktionen waren es nicht.

Du meinst echt, die haben sich vor 4+ Jahren hingesetzt und gesagt, wir bauen GB203 so, dass wir ihn 2025 exportieren dürfen? ^^

Exakt.

Ich würde sagen, dass das simple Gewinnmaximierung ist. Man möchte größere Margen, daher macht man kleinere Chips. Wenn der Pöbel das dafür kauft ist doch super. Allerdings hat sich an der 4080 ja schon gezeigt, dass die "Stategie" nur bedingt funktioniert. Allerdings waren da die Entwicklungen ja schon auch weit fortgeschritten und man dachte sicherlich bis in 23 hinein, dass das noch kommt - kam es nicht. Stattdessen kauft der Großteil 12GB-Karten und bringt damit die Spielehersteller in den nächsten 2 Jahren wieder ins Schwitzen...

Ich habe so ein Gefühl, dass die 5090 auch mit GB203 kommt und NV irgendwas anderes gemacht hat (bessere Auslastung, besseres DLSS) um deutlich längere Balken zeigen zu können.

Damit würden sie das Blatt endgültig überreizen.

Exxtreme
2024-06-13, 13:32:41
Ich habe so ein Gefühl, dass die 5090 auch mit GB203 kommt und NV irgendwas anderes gemacht hat (bessere Auslastung, besseres DLSS) um deutlich längere Balken zeigen zu können.

DLSS 4.x FG liefert 2 generierte Frames und nicht nur einen! Das gibt 50% mehr FPS! :freak:

BlacKi
2024-06-13, 15:16:57
Ich glaub ehrlichgesagt nicht dass das stimmt. Ich weiß, das war ne Theorie von Tom (MLID) aber die Sanktionen sind ja willkürlich und können jederzeit auch solche Chips umfassen, dafür kann man nicht planen. Was auch immer NV dazu bewogen hat, so vorzugehen, die Sanktionen waren es nicht.



für mich macht das nach wie vor sinn. die sanktionen selbst weniger, aber die sanktionen umzuschmeißen, würde noch weniger sinn ergeben.


es wird vermutlich so sein, dass das mit anderen design targets übereinstimmt und dass das nicht der einzigste grund ist.

AffenJack
2024-06-13, 15:41:11
für mich macht das nach wie vor sinn. die sanktionen selbst weniger, aber die sanktionen umzuschmeißen, würde noch weniger sinn ergeben.


es wird vermutlich so sein, dass das mit anderen design targets übereinstimmt und dass das nicht der einzigste grund ist.

Es ist doch völlig egal, wie der Chip designt ist in Sachen Sanktionen. Man muss den nur richtig zurecht kürzen und fertig.

BlacKi
2024-06-13, 16:43:41
Es ist doch völlig egal, wie der Chip designt ist in Sachen Sanktionen. Man muss den nur richtig zurecht kürzen und fertig.und das kostet geld durch das zusätzliche silizium das man deaktivieren muss. das ist eine sache des min maxing, des margen optimierens im gaming bereich, dort wo die margen unerträglich gering sind?:freak: im gaming, wo man teures silizum verschwendet?

so oder so, das werden sehr teure jahre, bis wir endlich alle in AI spielen.

Altehardware
2024-06-14, 03:59:52
Die chipausbaustufen machen kaum Sinn
da dies auf 3 design hindeutet
gb202 wäre neben dem gb203 ujd gb205 drei deutlich unterschiedliche design
einmal 16sm per gpc einmal 12sm per gpc und einmal 10sm per gpc
das lasst vermuten das nvidia abseits dem dicken gb202 alle anderen ein ada refresh sind
Sprich gb207 mit 2 gpc per reihe 10sm gb206 4 per reihe 9sm gb205 5 per reihe 10sm und gb203 7 per reihe 12sm

Da müsset nvidia ordentlich bei der ipc geschraubt haben das dies mit sf4x man überhaupt in der nähe der ada sku kommt.
gb207 rtx5050 10,5t 2,5 ipc 2,4ghz sf4 / 2,9ghz n4 node 8gb +30% (rtx3050)
gb206 rtx5060ti 19,9tf 2,5ipc 2,4ghz sf4 /2,9ghz n4 node 16gb +20%
gb205 rtx5070ti 33tf 2,5ipc 3,0ghz n4 node 12gb +30%
gb203 rtx5080ti 55tf 2,5 ipc 3,0ghz n4 node 16gb +48%
gb202 rtx5090 (144sm) 95tf 2,5ipc 3,0ghz n4 node 24gb +50%
entsprechend die non ti weniger

Das ist kaum vorstellbar

MiamiNice
2024-06-14, 16:30:35
Wie sähe es aus, wenn die 5090 auf GB203 kommt? GB202 nur Profi Karten und hinterher ne Titan um die kaputten Chips loszuwerden. Von unten wird mit Ada Chips aufgefüllt. Dafür müsste NV natürlich irgendwo massig IPC gefunden haben.

BlacKi
2024-06-21, 18:55:04
8:24 wird nochmal bestätigt, quelle devierse boardpartner, 5080 noch dieses jahr, das weglassen der anderen modelle bedeutet nächstes jahr.

da verm. premium preis, für die meisten wohl preislich uninteressant. incl. mir.
3ZQyNvZy5do

VooDoo7mx
2024-06-26, 16:26:36
Wie sähe es aus, wenn die 5090 auf GB203 kommt? GB202 nur Profi Karten und hinterher ne Titan um die kaputten Chips loszuwerden. Von unten wird mit Ada Chips aufgefüllt. Dafür müsste NV natürlich irgendwo massig IPC gefunden haben.

Man darf auch nicht vergessen, dass NVIDIA bei Kepler, Maxwell und Pascal immer die 80 Karte zu erst gelauncht hat und den dicken Brummer teilweise erst deutlich später nachgeschoben hat.

Wenn die Daten stimmen und eine 5080 mit 84SM kommt, müsste die IPC wohl um über 30% und noch mehr gesteigert wurden, damit diese in die Nähe der 4090 landet. Solche Steigerungen gab es auch schon der Vergangenheit aber nicht mehr in den letzten Generationen…

Upgrade auf eine 5080 oder 5090 am Desktop benötige ich von der 4090 eigentlich erst mal nicht.
Aber der GB205 würde mich für ein Notebook Upgrade interessieren. Hoffentlich wird dieser als 5070/Ti im Notebook verkauft…

The_Invisible
2024-06-26, 16:29:27
Performance ist das eine, Features das andere. Wenn DP2.1, DLSS4 und anderer heißer Schei* kommt bin ich gern dabei :D

basix
2024-06-26, 17:31:19
Wenn die Daten stimmen und eine 5080 mit 84SM kommt, müsste die IPC wohl um über 30% und noch mehr gesteigert wurden, damit diese in die Nähe der 4090 landet.

Gibt auch noch Takt ;)

Schnitzl
2024-06-26, 18:21:39
Performance ist das eine, Features das andere. Wenn DP2.1, DLSS4 und anderer heißer Schei* kommt bin ich gern dabei :D
und du bekommst es: :freak:

U3mP9Ta3Y6w

Sardaukar.nsn
2024-06-26, 23:45:51
https://i.imgur.com/qdaRmh7.jpeg

Jenson war da schon sehr eindeutig.

MiamiNice
2024-06-27, 00:42:31
you can use your nv implantat as an ai assistent to help you in life

Jensen Huang, Nvidia CEO anno Domini 2030

Glaskugel :freak:

Zossel
2024-07-04, 20:42:58
https://www.heise.de/news/Frankreich-will-gegen-Nvidias-KI-Dominanz-vorgehen-9790187.html

rentex
2024-07-04, 21:11:15
https://www.heise.de/news/Frankreich-will-gegen-Nvidias-KI-Dominanz-vorgehen-9790187.html

Und? Tangiert NV jetzt wenig.

Platos
2024-07-04, 22:19:57
CUDA tangiert nvidia wenig?

AffenJack
2024-07-05, 04:42:26
CUDA tangiert nvidia wenig?

Nur weil es erwähnt wird, heißt es nicht, dass sie irgendwas machen können. Cuda hat bei KI keine alternativlose Stellung, die ein Problem darstellt. Gerade bei KI kann man von Cuda unabhängig sein mit den ganzen Frameworks. Wenn sie sich Cuda als Hauptziel aussuchen, fallen die Wettbewerbshüter nur auf die Schnauze.

Es geht eher um die gesamte Kombination aller Software die Nvidia anbietet in Kombination mit Hardware. Außerdem vor allem auch Nvidias Versuch mit ihren DGX Servern praktisch der komplette Provider des gesamten Servers zu werden. Alles aus einer Hand, wie bei Apple, nur für Server und da müssen die Wettbewerbshüter definitiv draufschauen. Bis da aber eine Untersuchung wirklich lang genug läuft dürfte sich die Wettbewerbssituation eh gewandelt haben. Nvidia wird nicht die nächsten 5 Jahre >95% Marktanteil haben.

Zossel
2024-07-05, 06:09:35
Nur weil es erwähnt wird, heißt es nicht, dass sie irgendwas machen können.

Für was benutzt du "Sie" als Synonym?

OgrEGT
2024-07-10, 06:09:28
https://videocardz.com/newz/rumor-geforce-rtx-5090-base-clock-nears-2-9-ghz
Rumor: GeForce RTX 5090 base clock nears 2.9 GHz

Sardaukar.nsn
2024-07-10, 07:31:38
3 Ghz schaffen die 4090 auch mit OC. Aber das geht schon in die richtige Richtung. Plus ca. 700mhz Takt sollten zusammen mit dem DDR7 einiges bringen.

w0mbat
2024-07-10, 10:30:42
Ich frage mich woher der Takt kommt, N5P -> N4P ist jetzt ja kein Riesensprung. Ist die Architektur hinsichtlich Taktbarkeit verbessert worden oder einfach näher am Maximum getaktet?

The_Invisible
2024-07-10, 10:37:44
Wenns genauso konservativ wie bei der 4090 ist wird man dann wohl so einen Standardboost von 3,3-3,4Ghz haben, OC Modelle dann wohl so ~3,5Ghz. Zusammen mit mehr Cores, besserer Auslastung, mehr IPC und GDDR7 könnte da schon einiges an Mehrleistung rauskommen :D

AffenJack
2024-07-10, 10:55:50
Für was benutzt du "Sie" als Synonym?

Wettebewerbshüter, weil es im Artikel darum ging.

Ich frage mich woher der Takt kommt, N5P -> N4P ist jetzt ja kein Riesensprung. Ist die Architektur hinsichtlich Taktbarkeit verbessert worden oder einfach näher am Maximum getaktet?

Ich bin ebenso wie bei RDNA4 erstmal extrem skeptisch bezüglich solcher Taktsteigerungen im gleichen Prozess und hab da massive Zweifel dran.
10% mehr Takt ok, aber das klingt komplett unrealistisch.

robbitop
2024-07-10, 12:15:18
Ich frage mich woher der Takt kommt, N5P -> N4P ist jetzt ja kein Riesensprung. Ist die Architektur hinsichtlich Taktbarkeit verbessert worden oder einfach näher am Maximum getaktet?

Naja Ada hatte doch relativ große Taktreserven. Davon kann man auch einen Teil abschöpfen um performancenormiert weniger Silizium zu investieren ^^

Gibt es eigentlich eine definitive Auflösung zu „4N“ welcher Prozess das gewesen sein soll?

w0mbat
2024-07-10, 16:37:00
"4N" ist ziemlich sicher N5P und "4NP" schein tatsächlich N4P zu sein.

robbitop
2024-07-10, 16:41:17
"4N" ist ziemlich sicher N5P und "4NP" schein tatsächlich N4P zu sein.

Und woher nimmst du diese Gewissheit? :)

w0mbat
2024-07-10, 17:58:03
Indem ich mit vielen Menschen spreche und Infos sammel :D

robbitop
2024-07-10, 18:04:24
Tja das kann jeder sagen. Ist die Quelle entweder Nvidia oder TSMC?

Zossel
2024-07-10, 18:37:53
Tja das kann jeder sagen. Ist die Quelle entweder Nvidia oder TSMC?

Das ist einfach die zweite Generation der N[45] Prozesse, die fallen vom selben Band wie die Zen5 Dies.

robbitop
2024-07-10, 18:51:26
Da gibt es in der 5nm Familie ja mindestens 4x Varianten. N5, N5p, N4 und N4p. IIRC hat sich Nvidia nie dazu geäußert was sie nehmen. Zu Blackwell habe ich auch noch nicht 1x was von 4NP gehört.
Das kann ja aber trotzdem durchaus stimmen.

Leonidas
2024-07-10, 19:18:15
Das 4N ist allem Anschein nach der reguläre 5nm-Prozeß, welches nVidia "4N" nennen darf. TSMC benutzt den Begriff IMO nirgendwo. Technisch sollte es reguläres 5nm sein, noch nix mit 4nm zu tun haben. Irgendwo hat es mal einer der Techniker unter der Hand zugegeben.

robbitop
2024-07-10, 19:25:07
Die Diskussion gab es schon mehrfach hier im Forum. Und leider gibt es nirgends Handfestes um es ein für alle mal festzuziehen. Ansichten hingegen gibt es dazu viele ^^

rentex
2024-07-14, 18:20:18
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

500W für die 5090

Sardaukar.nsn
2024-07-14, 19:02:17
Die Netzteile Hersteller empfehlen eigentlich immer eine Nummer größer. Bei der 4090 FE mussten schon 600W gekühlt werden und der Stecker musste das auch aushalten. Klar, OC aber ab Werk im NV Panel einstellbar.

rentex
2024-07-14, 20:54:03
Die Netzteile Hersteller empfehlen eigentlich immer eine Nummer größer. Bei der 4090 FE mussten schon 600W gekühlt werden und der Stecker musste das auch aushalten. Klar, OC aber ab Werk im NV Panel einstellbar.

Um so besser...also ein Effizienswunder ;-D

BlacKi
2024-07-15, 01:04:12
Um so besser...also ein Effizienswunder ;-D


wunder? +30% performance für 10% mehr verbrauch, das ist sehr gut im selben fertigungsprozess, aber die 4090 hat oft keine 450w gebraucht.

Altehardware
2024-07-15, 01:19:39
Wegen dem cpu limit

BlacKi
2024-07-15, 02:15:04
Wegen dem cpu limitja und nein.

KarlKastor
2024-07-15, 02:29:15
https://videocardz.com/newz/seasonic-lists-geforce-rtx-5090-with-500w-tdp-and-rtx-5080-with-350w-16-pin-connector-for-all-rtx-50-models

500W für die 5090
Klingt sparsam. Dem Vorgänger wurden bis 800W angedichtet. Vielleicht werden es am Ende dann 300W. :D

basix
2024-07-15, 08:39:51
Klingt sparsam. Dem Vorgänger wurden bis 800W angedichtet. Vielleicht werden es am Ende dann 300W. :D

:D

HOT
2024-07-15, 08:52:12
wunder? +30% performance für 10% mehr verbrauch, das ist sehr gut im selben fertigungsprozess, aber die 4090 hat oft keine 450w gebraucht.
N4P vs. N5P

Damit ist der 206er wieder die 5060, 205 wird 5060Ti und 5070 (12GB), 203 5070Ti und 5080
Ich würd vermuten, dass der 5080 den kleinsten Sprung auf seinen Vorgänger macht. Fast gleich viel shader bei 50W mehr...

w0mbat
2024-07-15, 13:47:31
Tja das kann jeder sagen. Ist die Quelle entweder Nvidia oder TSMC?

Wenn es jeder sagt, könnte es stimmen ;)

BlacKi
2024-07-15, 13:58:23
N4P vs. N5P

Damit ist der 206er wieder die 5060, 205 wird 5060Ti und 5070 (12GB), 203 5070Ti und 5080
Ich würd vermuten, dass der 5080 den kleinsten Sprung auf seinen Vorgänger macht. Fast gleich viel shader bei 50W mehr...naja, die 4080 hier braucht eher selten ihre 320w. also die zusätzliche wattage alleine bringt hier keinen nennenswerten speed up.


wenn man aber auf coretakt die architektur aufbaut, dann könnte der mehrverbrauch natürlich nützlich sein.



ja, ist aber klar, das die karte mit den wenigsten steigerungen an shadern auch am wenigsten profitieren wird.

dildo4u
2024-07-22, 11:47:51
Angeblich erst Vorstellung auf der CES für RTX 50 Karten.

https://videocardz.com/newz/nvidia-geforce-rtx-50-announcement-may-slip-to-2025

Raff
2024-07-22, 11:52:42
Damit liegen alle Hoffnungen auf AMD. Wenn die auch erst 2025 liefern, wird das zweite Halbjahr (in Sachen GPUs) furchtbar langweilig - und der Jahresstart unnötig voll.

MfG
Raff

AffenJack
2024-07-22, 20:02:13
Sind wir mal gespannt, Xpea und Kopite haben sonst in der Regel das gleiche behauptet.

1. When was the last time Nvidia launched their next gen gaming GPUs during a public event?
2. How many times have leakers predicted that Nvidia will launch later than in reality?
Every gen is the same story. People never learn...
https://x.com/XpeaGPU/status/1815411225477726460

Mal gucken, wer von beiden diesmal Recht behält.

Ansonsten wen die Architektur interessiert, der sollte auf Montag gespannt sein. Da präsentiert Nvidia Blackwell auf der HotChips und bisher hat Nvidia bei Blackwell nur extrem wenig zur Architektur gezeigt und zur GTC kein Whitepaper veröffentlicht, sondern nur ein sehr oberflächliches Technical Brief. Wird also nächsten Montag spannend wie der Aufbau des Chips ist und ob Nvidia Veränderungen an den SM usw. hat, die sie möglichst lange verschweigen wollten.

medi
2024-07-22, 20:36:28
... - und der Jahresstart unnötig voll.

MfG
Raff
Da hat wohl jemand Angst vor Überstunden 😁

Raff
2024-07-22, 21:58:52
Da hat wohl jemand Angst vor Überstunden 😁

Überwochen (-stunden mache ich so schon, um die Bude am Laufen zu halten). :freak:

MfG
Raff

y33H@
2024-07-22, 22:17:05
Wird also nächsten Montag spannend wie der Aufbau des Chips ist und ob Nvidia Veränderungen an den SM usw hat, die sie möglichst lange verschweigen wollten. Nächsten Montag? ist noch ein Monat hin ^^

y33H@
2024-07-22, 22:17:40
ÜberwochenKomm zu mir, Mausi!

mocad_tom
2024-07-23, 00:39:40
als tsmc die zahlen vorgestellt hat.

und dann kam 7% plus bei den Waferstarts YoY.

was habt ihr euch dabei gedacht?

mein gedanke war das erdbeben hat doch was angerichtet.

alle produkte kommen einen Monat später als zunächst gedacht.

ich bin gespannt auf den YoY zuwachs im Q3, da ist dann nämlich nicht das erdbeben drin.

=Floi=
2024-07-23, 02:33:09
Gib es irgendwo details zur drosselung der karten für china?
Was dort genau gedrosselt wird um konform zu sein?

AffenJack
2024-07-23, 07:03:30
Nächsten Montag? ist noch ein Monat hin ^^

Du hast völlig Recht, irgendwo hat mein Hirn August als Juli definiert und ich hab mich schon gewundert, wie früh Hotchips diesmal ist.;D

robbitop
2024-07-23, 09:08:25
Komm zu mir, Mausi!
Stiehl bloß nicht den Raff von der PCGH weg. Die PCGH ohne Raff - das wäre echt öde. Ich finde Raff ist das Beste daran. Und Phil das Zweitbeste. X-D

y33H@
2024-07-23, 09:10:57
Raff wird irgendwann eins werden mit dem Feinstaub seiner Grafikkarten :ulol:

00-Schneider
2024-07-23, 23:15:28
kopite deutet neue Titan an:

https://x.com/kopite7kimi/status/1815688314177159602

dildo4u
2024-07-30, 12:54:17
GDDR7 Produktion läuft an


https://news.skhynix.com/sk-hynix-enhances-leadership-in-graphics-memory-with-introduction-of-industry-best-gddr7

AffenJack
2024-07-30, 17:18:31
GDDR7 Produktion läuft an


https://news.skhynix.com/sk-hynix-enhances-leadership-in-graphics-memory-with-introduction-of-industry-best-gddr7

Deutet stark auf Release von Blackwell dieses Jahr hin, was aber nicht heißen muss, dass wir den Big Chip für Spieler dieses Jahr sehen. Für Professional würde ich ihn aber schon erwarten, sonst würde Hynix nicht jetzt ankündigen. Bei GDDR6X waren es mit Micron glaube drei Monate von Herstellung bis Release der neuen Generation.

Altehardware
2024-07-31, 05:37:14
Das Quadros kommen ist sicher zur siggarath im august
Das schöne es gibt dann endlich whitepaper zum design.

Badesalz
2024-07-31, 07:24:58
Komm zu mir, Mausi!Würde passen :up:

Sardaukar.nsn
2024-07-31, 07:52:26
Auf der aktuellen Siggraph hat Nvidia die nächste Generation Shader angekündigt die mit KI realistische Oberflächen erzeugt. Klingt spannend und effizient. Soll wohl aber auch ab 2080Ti laufen.

2r6IlVJj6gc

Insgesamt stellt der neue Ansatz der Neural Appearance Models von NVIDIA einen bedeutenden Fortschritt in der Echtzeit-Rendering-Technologie dar. Durch die Nutzung von KI und neuronalen Netzwerken wird eine effizientere und genauere Darstellung möglich, die sowohl die Leistung als auch die visuelle Qualität erheblich verbessert.

https://www.igorslab.de/die-naechste-generation-der-materialdarstellung-nvidia-machts-moeglich/

Altehardware
2024-07-31, 08:06:41
ich traue den ganzen generativen Ai Geschwafel nicht das muss einen basis haben und am ende ist es geklaute Daten die nur in out of order funktionieren sprich streams keine Echtzeit.
Um das zu beschleunige müsste man den Takt weg gehen was thermisch und chipdesign technisch nicht gehen wird.

nein nvidia sol endlich ehrlich sein und sich eingestehen das die ai blase geplatzt ist.

dildo4u
2024-07-31, 08:09:36
ich traue den ganzen generativen Ai Geschwafel nicht das muss einen basis haben und am ende ist es geklaute Daten die nur in out of order funktionieren sprich streams keine Echtzeit.
Um das zu beschleunige müsste man den Takt weg gehen was thermisch und chipdesign technisch nicht gehen wird.

nein nvidia sol endlich ehrlich sein und sich eingestehen das die ai blase geplatzt ist.
AI ist das einzige was Umsatz erzeugt Gameing kannste knicken.
Siehe AMD neue Zahlen.

https://wccftech.com/amd-grows-data-center-revenue-by-115-as-ai-products-take-hold-in-market

Badesalz
2024-08-01, 06:27:45
:| Alles erzeugt Umsatz ;) Nur vieles nicht genig. Datacenter bringt aktuell eben die Gewinne.

Egal ob AI, HPC oder Network. Und das wird sich auch nicht ändern.

Zossel
2024-08-04, 06:29:00
Skynet kommt 3 Monate später:
https://www.heise.de/news/NVIDIAs-neue-KI-Chips-der-Reihe-Blackwell-koennten-sich-um-Monate-verspaeten-9823168.html

Sardaukar.nsn
2024-08-04, 08:06:48
Scheint wohl wenig Konkurrenz da zu sein, so kann man halt noch gut das alte Zeug verkaufen.

Neosix
2024-08-04, 10:10:03
Und heute folgt ein Dementi um eine angebliche Verzögerung:
https://www.computerbase.de/2024-08/blackwell-nvidia-dementiert-verzoegerung-von-b200-gpus-fuer-ki/

rentex
2024-08-04, 10:35:43
Skynet kommt 3 Monate später:
https://www.heise.de/news/NVIDIAs-neue-KI-Chips-der-Reihe-Blackwell-koennten-sich-um-Monate-verspaeten-9823168.html

Wäre es Skynet, würden sich ja die Investitionen lohnen. So bekommt man nen besseren Sprach-und Bildgenerator...

AffenJack
2024-08-04, 12:04:32
Laut Dylan Patel (Semianalysis) ist an der Meldung wohl einiges falsch, wenn auch die Verschiebung real ist:

People keep asking about Blackwell delays
We already sent out the our update 2 weeks ago, July 22nd to our hyperscaler, semiconductor, and investor clients
Sell side and media are quite late
They still have multiple things wrong too
Volumes, ASP, etc below

Laut ihm liegt es wohl an Cowos-L Ramp Problemen:

https://pbs.twimg.com/media/GUDZZyRWoAEF6pn?format=jpg&name=4096x4096

https://twitter.com/dylan522p/status/1819693289689198800

Das ist nen Vorteil für Mi300, da dieser auf Cowos-S basiert und die Probleme nicht hat.

w0mbat
2024-08-04, 12:32:36
Hopper war auch CoWoS-S, -L ist neu und nutzt silicon bridges, ähnlich wie EMIB.

reaperrr
2024-08-04, 12:41:43
Das ist nen Vorteil für Mi300, da dieser auf Cowos-S basiert und die Probleme nicht hat.
Wo da der Vorteil sein soll, wenn eine Fab die bisher voll auf CoWoS-S ausgerichtet war auf CoWoS-L umgerüstet wird (und damit die CoWoS-S Kapazität reduziert wird), sehe ich nicht.

Unter der Annahme, dass auch bei AMD CoWoS der hauptsächliche limitierende Faktor bei der Produktion von MI300/325 ist/sein wird, sind das für AMD eher schlechte Nachrichten, dass diese Fabrik überhaupt umgerüstet wird.

Klar, an anderer Stelle wird TSMC sicher dafür mehr CoWoS-S hochziehen, aber die Gesamt-Kapazität an CoWoS-S hätte ohne diese Umrüstung halt noch höher sein können.

AffenJack
2024-08-04, 13:07:39
Wo da der Vorteil sein soll, wenn eine Fab die bisher voll auf CoWoS-S ausgerichtet war auf CoWoS-L umgerüstet wird (und damit die CoWoS-S Kapazität reduziert wird), sehe ich nicht.

Unter der Annahme, dass auch bei AMD CoWoS der hauptsächliche limitierende Faktor bei der Produktion von MI300/325 ist/sein wird, sind das für AMD eher schlechte Nachrichten, dass diese Fabrik überhaupt umgerüstet wird.

Klar, an anderer Stelle wird TSMC sicher dafür mehr CoWoS-S hochziehen, aber die Gesamt-Kapazität an CoWoS-S hätte ohne diese Umrüstung halt noch höher sein können.

Die Cowos-S Kapazitäten sind eh fix. Das basiert auf den Bestellungen von AMD, Nvidia und anderen. Da werden nicht plötzlich andere Cowos-S Kapazitäten gestrichen, sondern Cowos-L kommt später online, wieso auch immer.
Wenn Nvidia aber 1 Quartal später erst Mengen ausliefern kann, dann hat AMD noch 1 Quartal mehr bevor Blackwell ordentlich verfügbar ist, um Mi300/Mi325 zu verkaufen. Die Annahmen gehen ja gerade dahin, dass in H2 25 es keine Supply Limitierung von Cowos mehr gibt. Wir wissen nicht, ob dann jegliche Supply Limitierung durch, aber falls ja, dann ist die Situation zuende, wo alles genommen wird, was irgendwie auf dem Markt ist und der wirkliche Wettkampf beginnt. 1 Quartal mehr, wo man alles verkauft, was man produzieren kann ist aber natürlich ein Vorteil für AMD.

Zossel
2024-08-04, 18:18:59
Wäre es Skynet, würden sich ja die Investitionen lohnen. So bekommt man nen besseren Sprach-und Bildgenerator...
Sie brauchten Millionen von Beispiele, um das zu lernen, was sie jetzt können. Ein Kind braucht dazu zwei, drei Erfahrungen. Sie scheitern zudem an räumlichen Aufgaben, selbst einfaches Zählen gelingt ihnen nicht.
https://www.derstandard.at/story/3000000229747/ki-forscherin-chatgpt-ist-der-falsche-weg

rentex
2024-08-04, 19:11:49
https://www.derstandard.at/story/3000000229747/ki-forscherin-chatgpt-ist-der-falsche-weg

Eben. Das ist erst der Anfang. Dazwischen wird aber der Hype erstmal vergehen.

Zossel
2024-08-05, 08:41:58
Hat jemand schon mal hier geschaut: https://chipsandcheese.com/2024/07/31/grace-hopper-nvidias-halfway-apu/?

Der Kram scheint wohl noch ziemliche Macken zu haben (Hänger die nur per Reboot aufgelöst werden können, hängende Prozesse mit Kernel-Meldungen aus den NV-Blobs, usw..
But it’s not perfect. NVLink C2C’s theoretical 450 GB/s is difficult to utilize because of high latency. Link errors and system hangs are a concerning problem, and point to the difficulty of validating a custom interconnect.
Wahrscheinlich sind die Anwendungen die darauf laufen so gestrickt das die Cluster-Nodes von einem Scheduler mit Jobs versorgt werden, und wenn eine Node abkackt kommt der Job eben nicht zurück und wird wird woanders neu gestartet.

Troyan
2024-08-05, 10:04:40
Laut Dylan Patel (Semianalysis) ist an der Meldung wohl einiges falsch, wenn auch die Verschiebung real ist:



Laut ihm liegt es wohl an Cowos-L Ramp Problemen:

https://pbs.twimg.com/media/GUDZZyRWoAEF6pn?format=jpg&name=4096x4096

https://twitter.com/dylan522p/status/1819693289689198800

Das ist nen Vorteil für Mi300, da dieser auf Cowos-S basiert und die Probleme nicht hat.

Das ist noch unsinniger. TSMC ist nVidia genauso verpflichtet wie nVidia anderen. Die können nicht einfach die Fertigung runterfahren...

Badesalz
2024-08-05, 10:46:57
Und heute folgt ein Dementi um eine angebliche Verzögerung:
https://www.computerbase.de/2024-08/blackwell-nvidia-dementiert-verzoegerung-von-b200-gpus-fuer-ki/Dein ernst? :| Ja, sie werden paar Kisten davon noch 2H24 ausliefern. Keine Verzögerung :ulol: Nur halt jenseits der geplanten Stückzahlen für 2024. Die sind auch nicht um 3, sondern in etwa um 4-5 Monate verzögert. Das ist der MS-Leak. Die bestellte Menge wird stand heute mind. 4 Monate und max. 5 Monate später KOMPLETT angeliefert.

Richtig?

TheAntitheist
2024-08-05, 12:23:48
Dein ernst? :| Ja, sie werden paar Kisten davon noch 2H24 ausliefern. Keine Verzögerung :ulol: Nur halt jenseits der geplanten Stückzahlen für 2024. Die sind auch nicht um 3, sondern in etwa um 4-5 Monate verzögert. Das ist der MS-Leak. Die bestellte Menge wird stand heute mind. 4 Monate und max. 5 Monate später KOMPLETT angeliefert.

Richtig?
dennoch kann es dann kein Designfehler sein

Badesalz
2024-08-05, 13:13:53
Jein. Ja. Bisschen spannend, zugegeben :) Wahrscheinlich decken sie sich jetzt gegenseitig ;)

Anhand der Dauer der Verzögerung aber kann das auch nicht eine kleine kaputte Charge sein, weil jemandem bei TSMC beim Konfig des Prozesses (Maschine) ein Zahlendreher passierte. Das ist schon bisschen größer.

Ein vor der Auslieferung bemerkter kleine..ähh... design flaw... Warum muss das so fürchtbar schlimm sein für die ähh... Anhänger? Ist bei NV sowas absolut unvorstellbar?

Zossel
2024-08-05, 14:23:31
Das ist noch unsinniger. TSMC ist nVidia genauso verpflichtet wie nVidia anderen. Die können nicht einfach die Fertigung runterfahren...

Willst du lieber für teuer Geld Schrott produzieren?

AffenJack
2024-08-05, 18:12:27
Viele interessante Infos von Semianalysis:

https://www.semianalysis.com/p/nvidias-blackwell-reworked-shipment

One is related to embedding multiple fine bump pitch bridges in the interposer and within an organic interposer can cause a coefficient of thermal expansion (CTE) mismatch between the silicon dies, bridges, organic interposer, and substrate, causing warpage.
Source: Resonac

The bridge die placement requires very high levels of accuracy, especially when it comes to the bridges between the two main compute dies as these are critical for supporting the 10 TB/s chip-to-chip interconnect. A major design issue rumored is related to the bridge dies. These bridges need to be redesigned. Also rumored is a redesign of the top few global routing metal layers and bump out of the Blackwell die. This is a primary cause of the multi-month delay.

Also wahrscheinlich ein Respin des Dies und dementsprechend etwas Verzögerung. Ein zu aggressiver Einsatz das neue Cowos-L zu nutzen.

Weiterhin interessant:
Turning to Blackwell Ultra, the mid-generation enhancement of Blackwell, the standard CoWoS-L Blackwell Ultra will be known as the B210 or B200 Ultra. Blackwell Ultra contains both a memory refresh going to up to 288GB of 12 Hi HBM3E and a performance enhancement in FLOPS, up to 50%.

Das bestätigt eigentlich, dass Blackwell Ultra ein 3nm Refresh wird. Anders sind solche Flopsteigerungen nicht möglich.

Altehardware
2024-08-05, 18:50:47
alles data center da die gb200 kein cowos nutzen
es gibt keine Verschiebung und zur gamescom werden paar sku Vorgestellt sprich rtx5080ti rtx5080 und ne rebrand rtx4070 mit d6 Speicher.

horn 12
2024-08-05, 19:09:54
Nun, da du ja viel weissst, wann bitte kaufbar die Karten und Performance mässig
RTX 5080
RTX 5090

Laut mir wird dies erst zur Cebit 2025 was mit Gamerkarten
und selbst jene werden nicht soooo überzeugen wie viele erhoffen!

BlacKi
2024-08-05, 19:13:32
und selbst jene werden nicht soooo überzeugen wie viele erhoffen!keine ahnung was die leute sich erhoffen? weißt du das? deine äusserung ist sooooo unkonkret das sie überflüssig ist.

horn 12
2024-08-05, 19:35:10
Ja, den 4090 Killer als 5090 / 5080 TI)
und die 5080 schneller als eine 4090

Badesalz
2024-08-05, 19:50:51
Und das unter 2000€ wie auch unter 500W...

BlacKi
2024-08-05, 19:56:29
ich würde man behaupten, die meisten erwarten das die 5080 ungefähr +- 5% der 4090 entsprechen wird. ich bezweifle, das die benchmarks später stark davon abweichen werden. wolltest du damit sagen, das die 5080 deutlich langsamer wird als die 4090? mehr als nur 5% langsamer, also 10-20%? wolltest du das mit deinem satz ausdrücken? nur um das mal etwas konkreter einordnen zu können.

horn 12
2024-08-05, 20:35:15
Selbst! rechne ichmit 16 GB Speicher und 4090 Plus / Minus um die 5%
Einmal knapp darüber, einmal knapp hinter einer 4090
bei RayTracing vielleicht 20% schneller als die 4090

RTX 5090 wohl 25 bis 30% schneller als 4090 aber auch dann 2000 bis 2200 Euro
Bei RayTrang vielleicht auch stolze 60% schneller.

BlacKi
2024-08-05, 20:39:20
ich glaub nicht das viele denken, das die 5080 deutlich schneller wird als die 4090. das hab ich hier nirgends lesen können.

Altehardware
2024-08-05, 20:55:54
Derzeit ist die Annahme das nvidia die sm Struktur ändert und mehr alu je sm rechnen
Es sind 12gpc oder 6 tpc zu je 128alu die dann 8 fpu bekommen die wieder aktiv werden.
Eine fpu rechnet 4 fp32 ist aber um 50% kleiner als 64fp32 inklusive int32.
Das sind eine floating point Einheiten die nativ fp64 rechnen aber kein int können, also rechnet real ein sm dann 104fp32 vs den normal 88-96fp32

Da die SM menge relativ bekannt geworden sind also gb203 halber gb202 soll die rtx5080 80sm haben es sind auch 84 im Gespräch
Der volle Gb203 hat 96sm oder 6 gpc das wird die rtx5080ti
Der node ist n4p also +11% Takt oder -22% Energie letztere wird angewendet.
Das Ergebnis sind rtx5080 +33% im maximum das ist nicht Ansatzweise nahe der rtx4090 70%.
Die rtx5080ti vergl mit der super +41%
Die Bandbreiten Differenz macht kaum was aus.

Das cpu limit greift aktuell stark zu das wird auch der Test bei zen5 auch darstellen. Insbesondere den Oc Ergebnissen mit hohem ramtakt ab ddr5 6400

Sardaukar.nsn
2024-08-05, 21:44:19
...RTX 5090 wohl 25 bis 30% schneller als 4090 aber auch dann 2000 bis 2200 Euro
Bei RayTrang vielleicht auch stolze 60% schneller.

Das wäre deutlich zu wenig. Zuletzt waren +50-70% Rohleistung drin. In die Richtung sollte es schon gehen.

BlacKi
2024-08-05, 22:03:37
Das Ergebnis sind rtx5080 +33% im maximum das ist nicht Ansatzweise nahe der rtx4090 70%.
Die rtx5080ti vergl mit der super +41%
Die Bandbreiten Differenz macht kaum was aus.

Das cpu limit greift aktuell stark zu das wird auch der Test bei zen5 auch darstellen. Insbesondere den Oc Ergebnissen mit hohem ramtakt ab ddr5 6400
unter 4k glaube ich nicht das eine 4090 schon überall cpu limitiert ist. wenn die 5090 genug drauflegt könnte das vl hier und da sein.


4080 + 33% ist haargenau die 4090.

Rampage 2
2024-08-06, 00:37:19
Ist es eigentlich gesichert, dass bei Blackwell die Zahl der Rasteroperator-Units (ROPs) pro Graphics Processing Cluster (GPC) verdoppelt wird? Also von 16 -> 32 ROPs/GPC?

Die gleiche Frage zur Anzahl SMs pro GPC: soll diese tatsächlich von 12 -> 16 verbreitert, also das GPC von 1536 auf 2048 Shadereinheiten aufgebläht werden?

R2

=Floi=
2024-08-06, 01:46:20
glaubst du die droppen die info einfach?

Altehardware
2024-08-06, 09:35:32
Die info ist seit Monaten bekannt und von den hpc bestätigt
Ein gpc hat 16sm unklar ist nur wie man die sm aufbaut ich gehe wie gesagt von 128alu + 8fsfu aus
Die rop steigen auf 20 per gpc die tmu mal 4 also 80tmu also bsp gb205 6gpc = 120rop 480tmu 96sm 12288alu 2,4ghz samsung sf4 node (+30% Takt vs sf8/8n)

reaperrr
2024-08-06, 12:07:50
Die info ist seit Monaten bekannt und von den hpc bestätigt
Ein gpc hat 16sm unklar ist nur wie man die sm aufbaut ich gehe wie gesagt von 128alu + 8fsfu aus
Die rop steigen auf 20 per gpc die tmu mal 4 also 80tmu also bsp gb205 6gpc = 120rop 480tmu 96sm 12288alu 2,4ghz samsung sf4 node (+30% Takt vs sf8/8n)
Sorry, aber das ist größtenteils Quatsch.

Zunächst mal, nur GB202 hat nach jetzigem Gerüchte-Stand 16SM je GPC. Die Konfiguration der GPC ist bei Nvidia nochmal flexibler als bei RDNA, was für GB202 gilt, gilt noch lange nicht für andere GPUs.

20 ROPs macht außerdem mal so gar keinen Sinn, das sind immer 2er-Potenzen, das wird mit hoher Wahrscheinlichkeit bei 16 bleiben, oder wenn dann auf 32 verdoppelt. Eher wird aber am Durchsatz für einzelne Operationen wie dem Z-/Stencil-Testing geschraubt, aber auch dann eher verdoppelt und nix krummes.

Und die Zahl der TMUs je SM wird mit ziemlicher Sicherheit NICHT erhöht, schon gar nicht vervierfacht ;D
Der klare Trend der letzten 15 Jahre war, dass sich das Verhältnis von ALUs zu TMUs immer weiter hin zu ALUs verschiebt.
Anders als AMD braucht NV die TMUs ja auch nicht für RT-Operationen.

GB205 wird nach letztem Gerüchtestand übrigens nur 5 GPCs mit je 10 SM haben.
Und dass NV für irgendwas anderes als die untersten GPUs (GB205 ist ja eher Performance-Mainstream) nochmal zu Samsung zurückgeht, glaube ich auch nicht, Samsungs Prozesse haben einfach zu sehr den Anschluss verloren.

Ist es eigentlich gesichert, dass bei Blackwell die Zahl der Rasteroperator-Units (ROPs) pro Graphics Processing Cluster (GPC) verdoppelt wird? Also von 16 -> 32 ROPs/GPC?
Nein.
Ich hatte noch nicht mal Gerüchte dazu gehört. Gesichert ist da definitiv noch garnix.

Die gleiche Frage zur Anzahl SMs pro GPC: soll diese tatsächlich von 12 -> 16 verbreitert, also das GPC von 1536 auf 2048 Shadereinheiten aufgebläht werden?
Nur für GB202 (aber auch nur Gerüchte, nichts von NV selbst), der Rest bleibt eher ungefähr so wie jetzt.

Altehardware
2024-08-06, 13:27:18
Man design nicht 4 Unterschiedliche chip design das ist kein Baukasten (16 14 12 10)
Es gibt ein design das skaliert wird ansonsten müsste man jedes design ein eigenes cache design an die gpc anpassen
Das neue ist sogar das man zwei chipdrucks auf eine Maske hat und das SI geteilt ist sowie der L2 cache
Wie das nvidia gelöst hat das dadurch keine latenz entsteht ist noch offen.
Sicher ist das maximal eine Halbierung der fp32 der zweiten operation geben wird.
Einfachhalber rechne ich mit den sfu das diese ne zweite operation anfangen und diese dann halbiert wird was am ende 96fp32 werden wo ansonsten 104 fp32 sind
64 nativ +16 int32 hybrid +8 software +8sfu =16fp32 mal 2 104fp32 oder +8 bei zwei chips =96fp32

Am ende steigert dies die rt perf und die rt cores werden mehr ausgelastet was der Grund ist für die Änderung.
Es kann sein das ab a18 node 2 dual druck auf nenn cowos chjip verbunden werden womit dann 92fp32 aber eben 4 chips laufen und am ende sogar 3 chips auf dem SI sitzen mit dann wie aktuell 88fp32 laufen
das sind 6*88fp32 im maximum
rtx50 sind nur bis 2*96fp32
Die gpc werden auch ansteigen von aktuell 6gpc auf rubin bis 3 gpc doppelte menge was 32sm sind
Die rop könnten gleich bleiben ist aber wegen der sm per gpc nicht möglich daher müssen es 24 sein
aktuell sind es 12sm die 16rop haben kommen 4sm dazu sind es + 4 rop
das ist nicht gerade weswegen ich vom Ur design bei 18sm per gpc ausgehe
dann geht es auf mit 24rop und 4 tmu per sm
Da aber alle chips definitiv zugeschnitten werden ändern sich die maximale tmu heftig von den rop original ist das 1-4 meistens aber eher 1-3 oder weniger
je nachdem wie viele gpc Deaktiv sind.
Die sku die bekannt sind dürften gb205 voller chip 50sm dann nur 3gpc aktiv sind was die rop auf 72 bringt und die tmu bei 200 sein.
Dann liegt etwa 1/3 des chips brach und das bei nenn dual druck von faktisch 72sm
Das erklärt auch den gb206 mit 36sm zwei gpc eine rasterengine 48rop und dann 144tmu
Das nvidia so gezwungen ist den chip zu kastrieren kann nur am samsung sf4 node liegen

Der gb202 hat nur ein gpc deaktiv mit 18sm was die 192sm erklärt (198 ohne cut)
das bedeutet das der volle chip 216sm hat mit 12gpc 11 gpc aktiv.
Was auch die halbe 6 gpc mit 108sm im maximum erklärt das eröffnet sku mit 90sm
Wen ich annehme das man auch beim gb203 ein gpc deaktiv hat was dann maximal 90sm aktiv sein können folglich die 84sm sind die Konsequenz daraus.
Folgende neue Annahme was die gpc und sm menge gut erklärt

gb207 2gpc Reste des gb206 die völlig am a sind 20sm chip hat 36sm
gb206 2gpc halber gb205 36sm voller chip 36sm.
gb205 50sm 4gpc cut mit 1 gpc deaktiv voller chip maximale sku 54sm
gb203 84sm 5gpc voller chip 108sm chip maximal mögliche sku 90sm
gb202 192sm 11gpc voller chip 216sm ein gpc deaktiv mögliche maximaler sku 198sm

Das ändert die Größen der chips etwas grob 15%
Sicher ist somit das 20rop pro gpc sind womit 18sm per gpc sicher stehen
Die tmu werden von den sm festgelegt daher schwankt das extrem rop tmu Verhältnis

Für mich interessant wird damit der gb206 da dieser dann 2 gpc hat 48rop mit dann 144tmu 104fp32 per sm (+-17,9tf 336gb/s 12gb gd7)
Der haken wird nur der pcie5 x4 sein, wenn dann die sku 3 m2 slot am rücken hat wäre das nützlich

Mich hat es schon die ganze Zeit gestört das die 16sm per gpc so im Fokus waren das macht mit den anderen vorgaben kaum Sinn.

Zumal die hopper gen schon 18sm per gpc hatten.

Das ändert die zahlen etwas am ende ist es aber sicher das mehr als +25-35% nicht geben wird mit rtx50 je sku
Und das auch so gestaffelt das man gezwungen ist eine klasse höher zu greifen diemal weil die perf nicht reicht.

reaperrr
2024-08-06, 22:08:48
Grundgütiger, was soll man darauf antworten :freak:

Am besten wäre wahrscheinlich gar nichts, aber ein letzter Versuch:

Das ist alles eher noch falscher, zumal du dir teilweise auch noch selbst widersprichst und scheinbar gar nicht genau verstehst, wie ein GPC aufgebaut ist.
Du kannst mit 11 GPCs z.B. gar nicht auf 192 aktive SM kommen (außer du deaktivierst einzelne SM in manchen GPC), 192/11 = 17,45 SM je GPC, kommt nicht hin.

Man design nicht 4 Unterschiedliche chip design das ist kein Baukasten (16 14 12 10)
Äh... doch :biggrin:

Bei Ada hatte jetzt zwar tatsächlich jeder GPC im Vollausbau 12 SM (Sonderfall AD103 mal etwas außen vor), aber bei Ampere sah das noch völlig anders aus:
GA102: 12 SM je GPC
GA103, 106 und 107: 10 SM je GPC
GA104: 8 SM je GPC

Der aktuelle (und glaubwürdigste) Gerüchtestand bei Blackwell sieht so aus:

GB202: 12 GPC a 16 SM (Vollausbau)
GB203: 7 GPC mit je 12 (aktiven) SM (ob Vollausbau ist noch nicht ganz klar)
GB205: 5 GPC mit je 10 SM (scheinbar Vollausbau)
GB206: 3 GPC mit je 12 SM, wie AD106
GB207: 2 GPC mit je 10 (aktiven) SM

Alles unterhalb von GB202 bleibt also so ziemlich bei den Ada-Konfigs, bzw. im Fall von GB205 geht man gegenüber AD104 sogar um 10 SM bzw. 2 SM je GPC runter, daher auch GB205 statt GB204, und bei GB207 ist auch nur von 20 SM die Rede, könnte durchaus schon der Vollausbau sein.

Das wird dann halt durch GDDR7, höhere Taktraten und höhere IPC je SM ausgeglichen, da man von AMD mit RDNA4 scheinbar nicht wahnsinnig viel Gegenwehr erwartet und deshalb eher auf billige Produktion statt höhere Performance optimiert, für mehr Marge je Chip.

Dimon
2024-08-07, 06:43:07
Selbst! rechne ichmit 16 GB Speicher und 4090 Plus / Minus um die 5%
Einmal knapp darüber, einmal knapp hinter einer 4090
bei RayTracing vielleicht 20% schneller als die 4090

RTX 5090 wohl 25 bis 30% schneller als 4090 aber auch dann 2000 bis 2200 Euro
Bei RayTrang vielleicht auch stolze 60% schneller.

Passt imho nicht, da die 5080 laut gerüchten doch um einiges kleiner als das grosse Modell sein wird, wenn die 5080 minimal schneller als 4090 sein wird, wird die 5090 um einiges schneller als der direkte Vorgänger...

Spannend wirds :)

Rampage 2
2024-08-08, 20:18:24
20 ROPs macht außerdem mal so gar keinen Sinn, das sind immer 2er-Potenzen, das wird mit hoher Wahrscheinlichkeit bei 16 bleiben, oder wenn dann auf 32 verdoppelt. Eher wird aber am Durchsatz für einzelne Operationen wie dem Z-/Stencil-Testing geschraubt, aber auch dann eher verdoppelt und nix krummes.

An was soll denn da noch "geschraubt" werden? :|

Seit dem G71-Chip (2006) können Nvidia-GPUs pro ROP-Unit und pro Takt jeweils eine AlphaBlending-Operation (G70 nur die Hälfte, also nur jede 2. ROP-Unit oder jeden 2. Takt) und jeweils 2 Zixel verarbeiten - die ROP-Units sind also bereits seit fast 2 Jahrzehnten vollwertig, d.h. jede ROP-Unit kann Z/Stencil-Operationen und AlphaBlending-Operationen ausführen. Was soll denn da noch gesteigert werden? Mir fällt da nur eine mögliche Steigerung der Zahl der Z/Stencil-Operationen pro ROP-Unit oder Takt ein - aber lässt sich das beliebig oder *überhaupt* steigern bzw. gibt es hier keine theoretische Grenze?


Nein.
Ich hatte noch nicht mal Gerüchte dazu gehört. Gesichert ist da definitiv noch garnix.

Doch, ich aber schon - und das, glaube ich, sogar mehr als nur einmal;) Kann aber auch sein, dass ich mich falsch erinnere bzw. die Gerüchte für Lovelace (bzw. bevor es releast wurde) galten:wink:

Ich kann mir aber auch keinen Reim über die Sinnhaftigkeit machen, bei Blackwell den ROP-Durchsatz zu verdoppeln obwohl der restliche Durchsatz (arithmetische Leistung, Speicherbandbreite, etc.) nicht nennenswert zunimmt - deswegen habe ich die Frage überhaupt erst gestellt;)


Nur für GB202 (aber auch nur Gerüchte, nichts von NV selbst), der Rest bleibt eher ungefähr so wie jetzt.

GB203 soll ja diesmal 8 GPCs haben (am Anfang aber wieder wohl nur Salvage, also nur 7 aktiv) bei gleichbleibender SM/GPC-Ratio - AD103 hat nur 7. Also 14% mehr Einheiten + höherer Takt. Das sollte insgesamt reichen, um die 4090 zu erreichen oder leicht zu überholen...

R2

mksn7
2024-08-09, 10:11:54
Sorry, aber das ist größtenteils Quatsch.


Und die Zahl der TMUs je SM wird mit ziemlicher Sicherheit NICHT erhöht, schon gar nicht vervierfacht ;D
Der klare Trend der letzten 15 Jahre war, dass sich das Verhältnis von ALUs zu TMUs immer weiter hin zu ALUs verschiebt.
Anders als AMD braucht NV die TMUs ja auch nicht für RT-Operationen.



Vielleicht ist ja sogar ein Körnchen Wahrheit dran!

Aus meiner HPC/Compute orientierten Sicht kann ich nur über Load/Store Units reden, die aber sicherlich einen engen Zusammenhang mit den TMUs haben. Bei den LSU wäre tatsächlich eine Verdopplung denkbar, von 16/SM auf 32/SM, das ist die Anzahl die die HPC GPUs seit V100 schon haben. Macht aber nur Sinn zusammen mit einer Verdoppelung der L1 Cache/Shared Memory Bandbreite von 64B/cycle/SM auf 128B/cycle/SM.

Das wäre für gaming nicht übertrieben, sondern auch nur auf RDNA Niveau.

Das Verhältnis von klassischem texture sampling / ALU throughput hat sich ja wie du schon gesagt hast in Richtung math verschoben und wird es wie du sagst auch eher weiter tun. Für compute tasks seh ich aber keinen Grund warum das load/store vs arithmetic instruction Verhältnis sich ändern sollte. Algorithmen haben einfach eine bestimme arithmetische Intensität. Die ALUs wurden in den letzten Jahren verdoppelt, vielleicht werden die LSU nachgezogen?


Edit: Ich seh gerade, auf den Architekturvisualisierungen sind die LSU als per-scheduler Ressource eingezeichnet, separat von den SM-weiten TMUs. Hängen also doch nicht so eng zusammen.

Thomas Gräf
2024-08-13, 01:06:44
Hui hui, ich hab mich auf die Vorbesteller List zur PIMAX CRYSTAL SUPER setzen lassen.
Hoffentlich weiß nVidia was da auf ihre 5090 zukommen wird im Jahre 2025 ;)

Badesalz
2024-08-15, 22:27:05
Da sie ja selbst bisher keine Probleme haben und keine auf sich zukomen sehen - und eh alles pulverisieren was von links oder rechts kommt, meine Damen und Herren:

Cerebras nutzt die Situation (Verzögerungen) für bisschen Eigenwerbung und klären ausreichend grob was das für ein Prob grad ist bei NV
(wie auch immer AMD das hinbekam...)

https://www.youtube.com/watch?v=7GV_OdqzmIU

basix
2024-08-16, 07:56:23
Blackwell nutzt CoWoS-L (wo laut Gerüchten das Problem bei Blackwell liegen soll) und MI300 nutzt CoWoS-S.

Aber das Cerebras solch ein Video rausbringt, wirkt irgendwie unprofessionell. Und da sie vermutlich nicht ganz genau wissen sondern eher vermuten was das Problem ist, ist es nochmals negativer zu sehen.

Badesalz
2024-08-16, 08:54:57
Geht so.
Ich hab das so richtig auch erst durch das Video gepeilt. Obowohl das eigentlich einleuchtend ist....

Wenn es an CoWoS liegt, dann gibt es da auch keine Spielräume, außer dem was sie erzählt haben. Von daher.
Ist zwar schon eher so Gunst der Stunde, aber es sind trotzdem vernünftige Inhalte (für alle die da nicht so drin steckten).
Kann nur sein, daß TSMC - wo sie nun Kunde von 5nm sind - sie dann kurz zurecht pfeift :tongue: Erzählen ja an sich über TSMCs Probleme :rolleyes:

OgrEGT
2024-08-16, 09:48:44
Die Problemanalyse scheint nachvollziehbar... das sind jedoch sehr allgemeine Punkte die da angesprochen werden welche TSMC bei der Entwicklung der Packaging Technologie sicher auch bedacht hat. Das Video erklärt gut dass es bzgl bestimmter Materialkoeffizienten und Dimension des Konstrukts Grenzen gibt. Inwieweit NV und TSMC an diese gekommen sind und welche Optionen es gibt bspw durch Materialauswahl etc. bleibt offen.
Der zweite Teil wie man das Bandbreiten und Latenzproblem sowie die Interkonnektivität durch einen ganz neuen Ansatz des Chip und Wafer Layouts anders angehen will ist zwar interessant geht aber auch nicht darauf ein wie die Verdrahtung der GPU Logik und die Kohärenz des HBM Speichers über den kompletten Wafer verteilt sicherstellt...

Badesalz
2024-08-16, 09:55:05
Kluge Wortwahl. Bedacht, ist nicht unbedingt auch real wirklich gelöst. So ein B200 ist wie ein worst case für solche Verfahren. Es kann genauso gut sein, daß ein Setzen der Teile klappt, aber erst nachher im (Test)Betrieb die Verbindungen doch brechen.

Das ist auch eine ziemliche Hausnummer mit u.a. Pad pitch von 40µm direkt auf 25µm... Intels Roadmaps für so ein Zeug, mit den seit einiger Zeit eben kleineren Brötchen, gingen nach 55µm zu 45µm, ab da imho in nur 5µm Schritten runter und ich meine bei 30µm war da auch erstmal Sense für die (?)

geht aber auch nicht darauf ein wie die Verdrahtung der GPU Logik und die Kohärenz des HBM Speichers über den kompletten Wafer verteilt sicherstellt...Anscheinend gab es vor der Aufnahme einen Briefing was man alles erzählen möchte und was nicht :wink:

basix
2024-08-16, 10:09:21
Der Inhalt des Videos mag schlüssig und grösstenteils korrekt sein. Doch Nvidias Ingenieure sind nicht auf den Kopf gefallen. Die können solche naheliegenden Dinge wie thermische Ausdehnungskoeffizienten berücksichtigen, ja ist seit Äonen Grundbaustein von Chip- und Packaging-Design (auch wenn manchmal was schiefgehen kann). Deswegen: Es kann das Problem sein, doch schlussendlich ist es eine Vermutung von Seiten Cerebras über ein nicht veröffentlichtes Produkt der Konkurrenz. Man lehnt sich da also ziemlich aus dem Fenster, dies dann als "Deconstruct Blackwell Delay" zu bezeichnen. Deswegen empfinde ich es als unprofessionell. Vor allem weil es ein Konkurrent im Bereich HW ist. Wenn es ein neutraler Channel so gezeigt hätte und das als "mögliche" Ursache und dessen Erklärung markieren würde, wäre das für mich voll OK.

Badesalz
2024-08-16, 10:13:20
Der Inhalt des Videos mag schlüssig und grösstenteils korrekt sein. Doch Nvidias Ingenieure sind nicht auf den Kopf gefallen. Die können solche naheliegenden Dinge wie thermische Ausdehnungskoeffizienten berücksichtigen Oder einschätzen? Wenn man gut ist, stimmen Einschätzungen auch meist. Daß es an CoWoS liegt ist imho quasi bestätigt. Was soll es da also noch großartig sonst sein damit?

Entweder ist es das Setzen unabhängig von Tempkoefizienten oder das Setzen abhängig von Tempkoefizienten oder die Verbindungen reißen (wohl im Kontext der Koeffizienten).

Muss ja auch keine riesiege Baustelle sein und das hält dann später schon zusammen, ABER beim Setzen die Partner eben eine bestimmte unterschiedliche Temp brauchen und das hat erstmal nicht so exakt hingehauen wie eigentlich nötig.
Oder ein Hauch mehr "Lot" hilft schon :) Muss man halt jetzt alles neu Austesten und das braucht nun seine Zeit.

Ich weiß jetzt nicht so wirklich was damit so generell nicht stimmt. Normalerweise freut man sich über jede Erklärbär-Nummer von Fachmännern die zweifelsfrei fundiert ist. Diesmal nicht? Weil es wieder nicht nur darum geht was wer sagt, sondern wer was sagt? So PoWi-like?

edit:
Beim Frontier hatte man während der Inbetriebnahmen und trotz "nur" -S auch viel mehr plötzlich kaputte Instincts auszusortieren als Epycs. Warum auch immer :wink:

basix
2024-08-16, 11:45:56
Dass es an CoWoS liegt ist ein Gerücht / Vermutung / Educated Guess ;)

Ich habe nichts gegen die Erklärung an sich. Doch es ist schon relevant, wer es macht und auf welcher Fakten-Grundlage man es macht. Letzteres ist nicht verifiziert (wie soll es auch, ist Nvidia interne Info), was es inhaltlich schon mal ziemlich abwertet (bezogen auf Blackwell, nicht auf CoWoS und technologische Grundlagen an sich) und ersteres ist ein direkter Konkurrent der es macht.

Ergo:
Hat ein Geschmäckle. Nicht das technisch / technologische, sondern das (politische, marketingtechnische) drum herum. Da man die Fakten-Grundlage nicht verifizieren kann, ist es im schlimmsten Fall sogar eine Falschinformation zu Blackwell. Und das von einem direkten HW-Konkurrenten. Ich hoffe du verstehst deswegen meine Ansichten.

amdfanuwe
2024-08-16, 12:56:34
Beim Frontier hatte man während der Inbetriebnahmen und trotz "nur" -S auch viel mehr plötzlich kaputte Instincts auszusortieren als Epycs. Warum auch immer :wink:
Frontier verwendet MI250X. Da wird kein -S verwendet sondern auch Silicon Bridges (EFB) wie bei Blackwell.
MI250X wird wohl nur nicht so heiß wie Blackwell.
https://cdn.mos.cms.futurecdn.net/iyJNUAwb2KQhqSamGn2oQF-650-80.jpg.webp
Vielleicht hat AMD, auf Grund der Erfahrungen mit EFB bei der MI250X, bei der MI300 Serie auf CoWoS-S gesetzt (Sollte wohl ursprunglich ein organic Fan Out Package wie bei RDNA3 verwendet werden, hat aber nicht geklappt).

basix
2024-08-16, 13:00:04
Elevated Fanout Bridges bei MI250X sind wieder was anderes als CoWoS-L ;)
- EFB: Si-Bridges liegen auf dem Substrat, Cu-Pillars für Kontaktierung zur GPU
- CoWoS-L ("EMIB"): Si-Bridges sind im Substrat eingelassen, GPU liegt flach auf Substrat auf

amdfanuwe
2024-08-16, 13:06:02
Intels EMIB ist im Substrat eingelassen.
CoWoS -L sitzt der LSI auf dem Substrat.
https://images.anandtech.com/doci/16031/Advanced%20Packaging%20Technology%20Leadership.mkv_snapshot_16.44_%5B2020.08.25_ 14.14.27%5D_575px.jpg

P.S.
Die Technik wurde wohl von TSMC mit AMD entwickelt und darf nun von TSMC allgemein vermarktet werden.
Ebenso AMDs X3D Stacking Technologie, die TSMC nun unter TSMC SoIC vermarktet wird.

basix
2024-08-16, 13:29:29
Ah OK, danke für die Korrektur. Dann ist EFB und CoWoS-L das selbe.

Badesalz
2024-08-27, 07:35:26
(oben)
Weswegen man sich eher sicher sein kann, trotz des Getrolle einiger zu dem Thema, daß was AMD als "unbedingt nötig" bei TSMC an Kapazitäten braucht, auch immer bekommt :wink: Egal wieviel NV für noch und nöcher mehr bietet.

dildo4u
2024-08-27, 09:03:17
TDP soll im Mobile Bereich für 5080/5700/5600/5050 gesenkt werden.


https://youtu.be/DMW0lxP7lCA?si=7eOjNDKAD1cPrxhx&t=401

basix
2024-08-27, 14:23:54
Was OK wäre und anhand der Abstufung auch eine etwas sinnvollere & grössere Differenz zwischen den SKUs liefern würde.

Zossel
2024-08-30, 20:52:12
Das könnte die Crypto-Bros empfindlich treffen:

https://www.n-tv.de/wirtschaft/Der-KI-Boom-gefaehrdet-die-globale-Stromversorgung-article25193679.html

Immerhin wird es dann ein neues Feindbild für Strompreise geben auf das sich die üblichen Verdächtigen dann einschießen können.

lilgefo~
2024-08-30, 21:31:12
Der Artikel von Hannes Vogel? Oder was trifft die "Crypto-Bros"?

Lehdro
2024-08-30, 23:40:27
Das könnte die Crypto-Bros empfindlich treffen:

https://www.n-tv.de/wirtschaft/Der-KI-Boom-gefaehrdet-die-globale-Stromversorgung-article25193679.html

Immerhin wird es dann ein neues Feindbild für Strompreise geben auf das sich die üblichen Verdächtigen dann einschießen können.
Ich zitiere mal einen Miningpool:
We have acquired a new location in northern Asia with direct flare gas access and free capacity for about 100 MW. This location can provide us with an average electricity price of $0.019 to $0.015 per kWh.
Die Miner werden immer solche Randgebiete finden, weil dort niemand ein Datacenter hinsetzen würde. Es bleibt ein Verdrängungswettkampf, den derjenige gewinnen wird, der die tieferen Taschen hat. Mal sehen ob der KI-Boom durch fehlende Einnahmen zusammenbricht (Usecases für Revenue fehlen) oder ob sich bald grundlegend etwas tut.

Zossel
2024-08-31, 06:34:23
Der Artikel von Hannes Vogel? Oder was trifft die "Crypto-Bros"?

Typo, ich meinte die AI-Bros, die sind ja beide mit fragwürdigen Geschäftsmodellen ähnlich unseriös.

mocad_tom
2024-09-02, 12:55:38
Ich ziehe das mal hierrüber


@Badesalz

Wir müssen zwei APU-Arten voneinander unterscheiden.
GH200 oder GB200 haben jeweils RAM auf der CPU-Seite und RAM(HBM) auf der GPU-Seite.

MI300A ist unified.

Beim Training bringt unified gerade gar nix, weil man auf der CPU-Seite viel Speicher haben will, dann macht man Optimierungen/Redundancy weg/Änderungen in der Precision/.... (dies auf der CPU) und dann gibt man es in die GPU.

Und ja ich höre gerade von MI300A mächtig wenig - erschreckend wenig.
Wäre es der Burner, dann gäbe es auch einen MI325A - gibt es nicht.

Diese Zahlen sind inferencing das LLM ist nicht übermäßig groß (70B):
https://x.com/appenz/status/1828825055989735577

Wiedermal sieht man, AMD hat nur liebe für MI300X (sonst hätten sie auch MI300A Zahlen in MLPerf submitted).

Und man sieht, wie viel PS GH200 nicht auf die Straße bringt.
Das ist Inferencing - das ist die 'unedlere' Art AI.
Und nvidia hat B200-Werte submitted. Wo sind die GB200-Werte?

Dieser Ansatz Dual-Sockel-CPU + 8 GPU werden wir auch in der Blackwell-Generation sehen(auch wenn Jensen Huang gerne mehr GB200 verkaufen würde).
Aber die Gravitationskräfte ziehen dort hin und nvidia kann nicht "Artificial" die Käufer wo anders hinlenken.

Die Google-TPU v6 / Broadcom AI Accelerator wird auch wieder 8 GPU mit einem Dual-Sockel-CPU-System:
https://investors.broadcom.com/static-files/4378d14e-a52f-409f-9ae4-03d810bc7a6c


Schau mal auf Folie 65 - da werden die CPUs mit einem starken Netzwerk miteinander verbunden und dann werden die Accelerator mit einem starken Netzwerk verbunden.
So baut nvidia und Broadcom große KI-Training-Cluster auf.
Deepspeed benötigt diese Interconnects auf der GPU-Seite(und das geht z.B. auch Aurora ab).

Badesalz
2024-09-02, 21:42:21
Ich ziehe das mal hierrüber Ja... Wenn du überall bist, bist du nirgends
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13607679#post13607679

Mal aber davon ab:
@BadesalzWas mir in der Kühle nun :rolleyes: auffiel: Was ziehst du dich an der APU so auf? Die kann zwar sehr gut KI, aber eigentlich ist das für HPC gemacht. Wo es auch wirklich ballert.

Instinct von ARL-Thread zum Blackwell-Thread zu schleppen ist immernoch OT.

DrFreaK666
2024-09-03, 09:35:16
NVIDIA GeForce RTX 50 Blackwell rumors hint at higher power consumption
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

NVIDIA Blackwell Design Change Might Affect GeForce RTX 50 Launch, Reports of Higher Power Consumption
https://wccftech.com/nvidia-blackwell-design-change-affect-geforce-rtx-50-launch-higher-power-consumption/

Altehardware
2024-09-03, 09:58:09
Das wäre schlecht den das Würde bedeuten das man den n4x node komplett in den Takt gehen würde. das passt aber zu nvidia Tendenz zu wenig alu mit viel Takt.
Sprich kleiner chip höhere tbp.
Also dann gb203 (177$ chip) 92-96sm 3,1ghz als rtx5080 = fasst rtx4090 perf bei 390w tbp
Das ist weniger als mit dem ad102 aber deutlich über dem sweetspot bei 1,08v Der sweetspot ist 1,06v

Bleibt zu hoffen das nvidia nicht auch den gb206 halber gb205 in samsung sf4 nicht auch die 1,1v reißt das würde bedeuten das die sku ab 215w braucht bei 2,6ghz 36sm 104fp32 per sm =19,4tf
Fasst ps5 pro level.


Wo ist der Gedanke an Effizienz hin bei so einer sku Planung.

Badesalz
2024-09-03, 10:06:08
Wo ist der Gedanke an Effizienz hin bei so einer sku Planung.So rein garnichts mitbekommen? :| Sie haben ähh... die Maske versemmelt (im ähh... übertragenem Sinne). Mussten es dann mal eben flicken. Das ist das Resultat.

Der Plan war bisschen anders.

edit:
Was mit Deutsch los? :cop:

Wuge
2024-09-03, 12:23:56
Höhere TDP bei mindestestens gleichem PErf/W Verhältnis für die großen SKU würde ja noch akzeptabel sein auf gleichem Node. Wenn sie brute force gehen müssen um überhaupt mehr Leistung rauszuquetschen wirds allerdings bitter.

Badesalz
2024-09-03, 12:33:24
@Wuge
Irgendwann schaut man sich aber nicht mehr nur die x/y Verhältnisse, sondern schlicht die absoluten Zahlen. In dem Fall Watt.
Es wird bitter. Na Gott sei Dank wurde 12-2x6 auf 675W ausgelegt. Damit reicht es für EINE neue 90er Gen.

edit:
Die Trends 2026:
...
...
- Dual-PS computer cases
...

Leonidas
2024-09-03, 13:08:36
NVIDIA GeForce RTX 50 Blackwell rumors hint at higher power consumption
https://videocardz.com/newz/nvidia-geforce-rtx-50-blackwell-rumors-hint-at-higher-power-consumption

Genauere Hinweise:
5070 mehr als 220W
5090 mehr als 550W

Badesalz
2024-09-03, 13:11:17
1. some incrase in power consumption
2. higher SKUs incrase more

5070 sollte schon davor 220W haben (?)

00-Schneider
2024-09-03, 13:12:17
5090 mehr als 550W


Das bekomm ich mit meiner 4090 ~auch hin. Die ist afaik auch auf 600W ausgelegt. Zumindest theoretisch.

Wo Neuigkeit?

Leonidas
2024-09-03, 13:13:46
Sofern die TDP tatsächlich höher als 550W liegt, wäre das neu. Die TDP einer 4090FE liegt nur bei 450W, auch wenn das Design für 600W ausgelegt wurde.

Wuge
2024-09-03, 13:18:54
Nur dass die 4090 über 500W nicht mehr wirklich skaliert. Wenn sie mit BW einen so großen Chip bauen, dass der mit 550W etwa so auf der Takt/Watt-Kurve liegt wie de 4090 bei 400W, dann käme schon mehr Effizienz trotz höherer TDP bei raus und die Freaks wie ich können auf 750W aufdrehen für die letzten 5%.

Alles in Allem natürlich ernüchternd. Denn es wird dann auch keine Performance-Revolution geben.

00-Schneider
2024-09-03, 13:19:17
Sofern die TDP tatsächlich höher als 550W liegt, wäre das neu. Die TDP einer 4090FE liegt nur bei 450W, auch wenn das Design für 600W ausgelegt wurde.


Das kann sein, wenn sich die Nachricht nur auf die FE bezieht. Kann man die FEs überhaupt auf über 450W prügeln?

Wuge
2024-09-03, 13:20:33
@Wuge
Irgendwann schaut man sich aber nicht mehr nur die x/y Verhältnisse, sondern schlicht die absoluten Zahlen. In dem Fall Watt.
.

Aber nicht im Top-Segment.

Was sie natürlich schaffen müssen ist, alle SKUs unter dem Top-Dog so niedrig zu halten, dass es normal kühlbar ist und man keine Kabelpeitsche wie am Server braucht.

Wuge
2024-09-03, 13:21:08
Das kann sein, wenn sich die Nachricht nur auf die FE bezieht. Kann man die FEs überhaupt auf über 450W prügeln?

600W. Nimmt sie dann aber normalerweise trotzdem nicht, selbst bei OC und 1.1V.

Sunrise
2024-09-03, 13:44:54
So rein garnichts mitbekommen? :| Sie haben ähh... die Maske versemmelt (im ähh... übertragenem Sinne). Mussten es dann mal eben flicken. Das ist das Resultat.

Der Plan war bisschen anders.

edit:
Was mit Deutsch los? :cop:
Mal davon ab, dass es “die Maske” dort garnicht gibt, weil es verschiedene Chips treffen soll und auch Blackwell AI einen Fehler hatte (Metal Spin), wissen wir garnichts.

Das ist das entweder ein Designthema oder es gibt ein Prozessproblem, was so ein Bisschen Hand in Hand läuft, wenn NV da wiedermal am Rande der Parameter arbeitet, weil man hohe Takte erreichen möchte. Kam in der Vergangenheit bei NV schon öfter vor (der FX Föhn und die GTX512)

Und klar, im Endeffekt vergeigen sie sich damit ihre Effizienz, vollkommen egal, woher das kommt (wenn es tatsächlich nicht schon so geplant war).

reaperrr
2024-09-03, 15:06:30
das passt aber zu nvidia Tendenz zu wenig alu mit viel Takt.
N31: 6144 SP (12288 nur im VOPD-Modus), ursprünglich auf >3 Ghz ausgelegt
AD102: 18432 ALUs im Vollausbau

Hm...:rolleyes:

Wo ist der Gedanke an Effizienz hin bei so einer sku Planung.
Wozu?

Betriebswirtschaftlich macht es für NV am meisten Sinn, so viele Dollar aus einem mm² Fläche rauszuquetschen wie möglich.

Hinzu kommt, wegen der Handelsbeschränkungen der USA muss die 5080 unter einem bestimmten TFLOP-Wert bleiben, um in China verkauft werden zu können.

Um aus einem bestimmten TFLOP-Limit so viel reale Performance wie möglich rauszuquetschen, ist es am besten, bei den SM zu sparen und dafür so hoch wie möglich zu takten, damit Frontend und Backend das Maximum aus den vorhandenen SM rausholen.

AffenJack
2024-09-03, 15:14:21
So rein garnichts mitbekommen? :| Sie haben ähh... die Maske versemmelt (im ähh... übertragenem Sinne). Mussten es dann mal eben flicken. Das ist das Resultat.

Der Plan war bisschen anders.


Du verwechselst HPC mit Gaming. Die Chips haben nix miteinander zutun.

Sofern die TDP tatsächlich höher als 550W liegt, wäre das neu. Die TDP einer 4090FE liegt nur bei 450W, auch wenn das Design für 600W ausgelegt wurde.

Kommt ganz drauf an, was für ein Ausbau der 5090 kommt. Mit 512 Bit und nem nicht so extrem abgespeckten Chip sind 600W wenig überraschend. Aber eigentlich ging man ja davon aus, dass Nvidia erst mit nem stark deaktivierten Chip kommt und erst mit RDNA5 reagiert. Geht man dagegen gleich fast ALL-In, dann sollte man ganz andere Erwartungen an die 5090 haben.

Generell sind jetzt Steigerungen der TDP ziemlich klar, seit alles auf N4 deutet. Im sogut wie gleichen Prozess sind sonst keine nennenswerten Steigerungen möglich. Mit N4 ist man da einfach arg limitiert.

Sardaukar.nsn
2024-09-03, 16:54:30
Hauptsache es gibt relativ zügig wieder etwas wie die Zero-Bullshit Frostbite Pro: https://geizhals.de/inno3d-geforce-rtx-4090-ichill-frostbite-pro-c4090-246x-1833fbp-a3009693.html

horn 12
2024-09-03, 18:47:03
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090

RTX 5080 ca. 400 Watt und 10% schneller als RTX 4090
Raster oder RayTracing,-
tippe auf 2-tes und bei Raster knapp dahinter bis max. Gleichauf.

Wuge
2024-09-03, 19:32:50
Das wäre bitter nach über 2 Jahren.