PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - UDNA - Zusammenführung von RDNA und CDNA


samm
2024-09-10, 13:53:13
Da es noch kein Topic zum Thema gibt:

Gemäss einem Q&A von Tom's HW :/ mit Jack Huynh von AMD (https://www.tomshardware.com/pc-components/cpus/amd-announces-unified-udna-gpu-architecture-bringing-rdna-and-cdna-together-to-take-on-nvidias-cuda-ecosystem) werden die von AMD nach GCN gesplitteten GPU-Architekturen wieder zusammengeführt. Das Ganze soll "UDNA" heissen, mit dem "U" wohl für "unified".

Jack Huynh [JH], AMD: So, part of a big change at AMD is today we have a CDNA architecture for our Instinct data center GPUs and RDNA for the consumer stuff. It’s forked. Going forward, we will call it UDNA. There'll be one unified architecture, both Instinct and client [consumer]. We'll unify it so that it will be so much easier for developers versus today, where they have to choose and value is not improving.

We forked it because then you get the sub-optimizations and the micro-optimizations, but then it's very difficult for these developers, especially as we're growing our data center business, so now we need to unify it. That's been a part of it. Because remember what I said earlier? I'm thinking about millions of developers; that’s where we want to get to. Step one is to get to the hundreds, thousands, tens of thousands, hundreds of thousands, and hopefully, one day, millions. That's what I'm telling the team right now. It’s that scale we have to build now.

Details gibt's noch keine, aber spekulieren können wir ja schon mal :)

Dino-Fossil
2024-09-10, 13:58:08
Spannend wie "unified" das am Ende wirklich wieder wird. Oder geht es eher darum, wie die Hardware sich dem Programmierer gegenüber zeigt? Also die Architekturen sind schon unterschiedlich, aber sie wollen die Art und Weise wie sie angesprochen werden möglichst weit vereinheitlichen?

samm
2024-09-10, 14:04:02
Huynh's Aussagen klingen schon so, als wolle man speziell den Devs das Leben leichter machen, also die Vermutung passt imo, dass sich die HW von aussen einheitlich ansprechen lässt (was auch immer einheitlich in dem Kontext heissen mag) - ist ggf. für Compiler auch schön, oder im Gegenteil, wenn es nach Aussen gleich sein muss aber die HW doch sehr divergiert.

Ausserdem klingt es nach Vermeidung von Redundanzen / Neuerfinden des Rades, was er da mit der Memory-Architektur und Optimierungen anspricht. Und, wenn das nicht nur zufällige Nennungen sind, dass das ganze nach RDNA5 starten wird:

JH: So, one of the things we want to do is ...we made some mistakes with the RDNA side; each time we change the memory hierarchy, the subsystem, it has to reset the matrix on the optimizations. I don't want to do that.

So, going forward, we’re thinking about not just RDNA 5, RDNA 6, RDNA 7, but UDNA 6 and UDNA 7. We plan the next three generations because once we get the optimizations, I don't want to have to change the memory hierarchy, and then we lose a lot of optimizations. So, we're kind of forcing that issue about full forward and backward compatibility. We do that on Xbox today; it’s very doable but requires advanced planning. It’s a lot more work to do, but that’s the direction we’re going.

Savay
2024-09-10, 23:02:41
GCN Reloaded!? :uponder:

Leonidas
2024-09-11, 06:34:54
Ich gehe schwer von einer reinen Software-Architektur aus, welche dann einzelne Bedingungen für die Entwicklung der HW vorgibt, aber dennoch sehr unterschiedliche HW ermöglicht. Die HW selber wird weiterhin auf unterschiedlichen Architekture beruhen, auch wenn es AMD des lieben Marketings wegen "unified" nennt.

mksn7
2024-09-11, 09:20:13
Ich denke damals wollte man im HPC Markt dabei sein, aber nicht soviel Aufwand reinstecken, weil erstmal klar ist dass man eine Weile 0% Marktanteil haben wird in einem Markt der nicht rießig ist. Daher nur die relativ sanfte Iteration von GCN (mit dafür deutlich mutigeren Schritten beim packaging). Das war auch erstmal ok, es gibt genug gutmütige HPC codes für die GCN passabel ist. Aber für gaming brauchte es was neues.

Jetzt ist der data center Markt plötzlich rießig, und wenige % davon sind viel Geld, die Architekturentwicklung rechtfertigen. AMD müsste also deutlichere Architekturentwicklungen machen. Das fängt bei CDNA3 an, soviel hat sich an der Architektur in den 10 Jahren vorher an GCN nicht geändert. Sie könnten jetzt versuchen CDNA weiter zu modernisieren, oder sie nehmen halt die moderne Architektur die sie schon haben.

Außerdem wurde ja schon recht explizit davon gesprochen, weniger Unterschiede in der cache struktur und vermutlich auch insgesamt der Architektur haben zu wollen. Mein Tipp, rein spekulativ:

- Kernarchitektur von RDNA, die HPC Teile bekommen die mächtigeren Matrix Cores und FP64, die gaming parts die RT hardware. Evtl Unterschiede bei den register file größen
- L0 cache von RDNA, insgesamt größer, evtl verschiedene Größe für HPC und gaming, wie bei NVIDIA
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschen
- distributed L2 cache von CDNA (hilft vielleicht bei chiplet gaming GPUs??)
- I$ cache wie gehabt, da sind beide GPUs ja schon ähnlich

HOT
2024-09-11, 09:21:30
Es dürfte recht einfach sein: Die GCN-Struktur ist nicht länger vorteilhaft und geht in Rente.
Außerdem dürfte dieses dedundante Arbeiten auch einfach zuviele Ressourcen fressen. Als 3. dürften Chiplets die Produktdiversifikation ausreichend abbilden könenn. Ich finde das ist ne gute Entwicklung.

reaperrr
2024-09-11, 09:47:01
Außerdem wurde ja schon recht explizit davon gesprochen, weniger Unterschiede in der cache struktur und vermutlich auch insgesamt der Architektur haben zu wollen. Mein Tipp, rein spekulativ:

- Kernarchitektur von RDNA, die HPC Teile bekommen die mächtigeren Matrix Cores und FP64, die gaming parts die RT hardware. Evtl Unterschiede bei den register file größen
- L0 cache von RDNA, insgesamt größer, evtl verschiedene Größe für HPC und gaming, wie bei NVIDIA
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschen
- distributed L2 cache von CDNA (hilft vielleicht bei chiplet gaming GPUs??)
- I$ cache wie gehabt, da sind beide GPUs ja schon ähnlich
Nur ein Minimum (oder vllt. gar keine) ROPs wäre auch noch ein Punkt, wo man bei HPC mit relativ wenig Aufwand abweichen können dürfte.

Die Anzahl der ShaderEngines/-Arrays dürfte in HPC/AI ebenfalls weniger wichtig sein.

Also da gibt es schon ne Menge Ansatzpunkte, um die gleiche uArch-Basis trotzdem an die jeweiligen Marktbedürfnisse anzupassen zu können.

BlacKi
2024-09-11, 09:59:45
das passt zeitlich in das fenster, das amd kein highend mehr bauen will. rdna5 wirds also nichtmehr geben?
oder ist rdna5 schon zu lange in der mache?

HOT
2024-09-11, 10:12:41
RDNA5 ist der Startschuss dafür.

Neurosphere
2024-09-11, 10:14:29
Wo steht das AMD kein High-End mehr bauen will? Liest irgendwer eigentlich auch das Interview oder bleibt man nur bei den überschriften kleben?!?

Im Endeffekt hat sich erstmal nichts geändert, RDNA4 bleibt wie es ist, der Rest ist Zukunft.

Vermutlich wird es eher in die Richtung gehen das man mit Chiplets verschiedene Teile des Chips je nach Anforderung kombiniert. Deshalb keine strikte Trennung mehr von CDNA und RDNA weil manche Teile identisch sein werden.

Exxtreme
2024-09-11, 10:18:24
Ich denke mal, die werden mit dem Chiplet-Design weitermachen. Consumer- und Datacenter werden sich zwar die Kern-Hardware teilen, aber das zusätzliche Chiplet wird den Ausschlag geben ob das Consumer- oder Datacenter-Hardware ist. Und ja, das ist warscheinlich viel billiger für AMD, auch wenn es eventuell mehr Transistoren und vielleicht auch Latenzen kostet.

fondness
2024-09-11, 10:34:04
CDNA4 und 5 ist in Roadmaps bereits bestätigt, das ist also eher eine Langfriststrategie. Oder sie labeln nur um und was vorher CDNA5 war wird auf einmal UDNA^^

Gipsel
2024-09-11, 13:24:40
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschenDie ROPs hängen an den L1 (die sind ja auch den Shaderarrays zugeordnet).
Edit: Und die wurden auch eingeführt, um weniger Clients zu haben, die am L2 hängen (wie noch bei GCN). Dies vereinfacht das Datenrouting auf dem Chip (und vermeidet das Bottleneck am L2).

mksn7
2024-09-11, 14:43:22
Ich denke mal, die werden mit dem Chiplet-Design weitermachen. Consumer- und Datacenter werden sich zwar die Kern-Hardware teilen, aber das zusätzliche Chiplet wird den Ausschlag geben ob das Consumer- oder Datacenter-Hardware ist. Und ja, das ist warscheinlich viel billiger für AMD, auch wenn es eventuell mehr Transistoren und vielleicht auch Latenzen kostet.

Es werden nicht die gleichen Chiplets für beides verwendet werden, weil die CUs selbst dann doch unterschiedlich sein müssen. Wenn man zu NVIDIA rüberschaut, gibts Unterschiede bei RT Cores, Tensor Cores, TMA, FP64, L1 Cache Größe/Bandbreite.

Außerdem all das was außerhalb der CU/SMs noch sitzt, also die ganze 3D fixed function hardware.

reaperrr
2024-09-11, 14:46:51
CDNA4 und 5 ist in Roadmaps bereits bestätigt, das ist also eher eine Langfriststrategie. Oder sie labeln nur um und was vorher CDNA5 war wird auf einmal UDNA^^
CDNA4 klingt bisher - auch wegen dem Produktnamen, MI350 - eher nach CDNA3.5, quasi CDNA3-Shrink auf N3E/P + besserer AI-Support (mehr unterstützte Formate und Durchsatz in niedrigen Präzisionen).
Dürfte IP-technisch auch schon so gut wie fertig sein, hier wird AMD Time-to-Market und mehr CUs/Takt wichtiger sein als fundamentale Architektur-Änderungen abseits der Low-Precision-Sachen.
Halt schnell noch was von der Blase(?) mitnehmen, bevor wieder ne vorübergehende Depression einsetzt.

CDNA5 wird evtl. auch nochmal ein GFX9-Abkömmling (deshalb nur MI400, das dürfte der ursprüngliche CDNA4 gewesen sein), und UDNA6 dann vermutlich ne Weiterentwicklung von RDNA5 mit mehr KI-spezifischen Verbesserungen, um die uArch sowohl für Gaming (KI-Upscaling, KI-FrameGen) als auch HPC zum würdigen Nachfolger beider Vorgänger zu machen.

amdfanuwe
2024-09-11, 14:57:38
auch wegen dem Produktnamen, MI350
Ich denke eher, MI3xx bezieht sich auf die Plattform.
MI4xx könnte eine neue Plattform fällig werden, mehr und schnellerer Speicher, optische Anbindung, andere TDP oder sowas.

fondness
2024-09-16, 10:33:07
Das könnte wohl der Zweck den UDNA-Ansatzes sein:

We have a team working on AI technologies developing our ROCm subsystem for data center. New team, that we just established, is working on ROCm for Radeon.
We're extending our ROCm subsystem to Radeon products, so everybody can get to use AI on AMD APUs and Radeon GPUs.
This is going to be a full-fledged design center, we are going to have RTL design, hardware verification and many other hardware and software technologies as an option.

https://www.techpowerup.com/326593/interview-with-amds-senior-vice-president-and-chief-software-officer-andrej-zdravkovic-udna-rocm-for-radeon-ai-everywhere-and-much-more

HOT
2024-09-16, 11:41:27
Ja und mit angepassten Chiplets auf einer Struktur kann man ja auch die entsprechenden Workloads abbilden.

Sunrise
2024-09-16, 14:53:35
Klingt auf den ersten Blick irgendwie halbgar, vor allem in Bezug auf Skalierbarkeit und Performance. Gibt ja gute Gründe, warum Nvidia die Dinger lieber getrennt laufen lässt.

Die Anforderungen sind ja noch auch teilweise komplett unterschiedlich..

fondness
2024-11-19, 14:14:36
There is no RDNA5 code name. After RDNA4, it will be UDNA.
MI400 and RX9000 use the same UDNA, and the architecture uses an ALU design similar to GCN.
UDNA Gaming GPU is tentatively scheduled for mass production in Q2 26.
Sony's PS6 will use UDNA, and the CPU has not yet been determined to be ZEN4 or ZEN5. Sony's handheld will also use AMD hardware.
I heard that Microsoft's handheld will choose between Qualcomm and AMD? I don't know about this
The above information comes from the supply chain, and I don't know the specifications and performance.


https://www.chiphell.com/thread-2652187-1-1.html

mboeller
2024-11-19, 14:47:04
https://www.chiphell.com/thread-2652187-1-1.html



and the architecture uses an ALU design similar to GCN


ja sicher... macht es für mich erst mal unglaubwürdig.
AMD ist von GCN weggegangen, weil die Auslastung bei Spielen nicht gut genug war. Zumindest haben sie das bei RDNA1 behauptet.

zB:
https://hexus.net/tech/news/graphics/131555-the-architecture-behind-amds-rdna-navi-gpus/
https://hexus.net/media/uploaded/2019/6/84efe3a9-9957-44d7-903c-e2f269817c0f.PNG

Auslastung von 25% auf 100% im Bild (2. Link)

robbitop
2024-11-19, 14:50:23
Aber GCN hat mehr TFLOPs pro Fläche gebracht die in HPC/AI trotzdem relativ problemlos auslastbar waren. Und jetzt schauen wir mal auf AMD's Umsatz und Gewinn: AI vs Gaming. Was hat mehr Prio? :)
So können sie ihre Resources besser bündeln und wenn es da bei Gaming Nachteile gibt ist das aus jetziger Sicht weniger relevant.

Aber ggf. können sie die eigentliche Implementierung aber auch einiges reißen.

Badesalz
2024-11-19, 14:55:37
Was nochmal bedeutet "similar"?
CDNA scheint an einigen weiteren Stellen ausreichend geeignet geworden zu sein :tongue:, daß man sie mit paar Änderungen als RDNA-Ersatz verwenden kann.

Der Consumer-Tweak von CDNA kostet 15% dessen was jedesmal extra RDNA kosten würde, bringt 80% der Leistung wie extra gemachtes nextgen RDNA. So in etwa (GROB).
Wieviel Generationen braucht AMD denn um 1:1 mit 4090 zu sein? Interessiert das die meisten Zocker außerhalb der Forenblasen, wenn sie das - zu dem Zeitpunkt/Nodes - für 300€ in 250W bekämen? Ich glaub die meisten gehen nicht voll ab, weil es dann eine 6090 für 2300€ gibt...

So in etwa ist die Rechnung. Ob die aufgeht ist natürlich eine andere Sache.

E39Driver
2024-11-19, 15:09:55
ja sicher... macht es für mich erst mal unglaubwürdig.
AMD ist von GCN weggegangen, weil die Auslastung bei Spielen nicht gut genug war. Zumindest haben sie das bei RDNA1 behauptet.

zB:
https://hexus.net/tech/news/graphics/131555-the-architecture-behind-amds-rdna-navi-gpus/
https://hexus.net/media/uploaded/2019/6/84efe3a9-9957-44d7-903c-e2f269817c0f.PNG

Auslastung von 25% auf 100% im Bild (2. Link)

Bis einschließlich Vega als letzte GCN-Ausbaustufe hatte man sehr viele TF auf den Gamingkarten. Man konnte die Leistung in Spielen aber nie auf die Straße bringen.

Rückkehr zu diesem Ansatz kann aktuell Sinn machen. NV hält eh 90% des Gamingmarktes und betrachtet dies auch nur als Abfall vom AI-Markt, Intel ist weg vom Fenster. Und AMD muss für AI so oder so Chips entwickeln. Da wartet der große Umsatz. Da könnte es dann günstiger sein einen groß ausgefallenen AI-Chip auch als Spielkarte herauszubringen anstelle der Entwicklung eines dedizierten Gamingchips für den schrumpfenden Markt, von dem man wiederum nur sehr geringe Marktanteile mittelfristig erreichen kann. Von der technischen Seite betrachtet würde mir diese Entwicklung gefallen.

MSABK
2024-11-19, 15:16:08
Ist ja auch bissi logisch, dass Amd sich an AI orientiert und aus dessen Entwicklung dann Gamingkarten als Beiprodukt entstehen. So sparen sie Entwicklungskosten.

HOT
2024-11-19, 15:34:06
Zu GCN zurück bedeutet ja nicht, dass man GCN wieder ausgräbt, sondern, dass die Organisation der kommenden CDNA-Chips auf RDNA übergreift. Die ALU-Auslastung wird sicherlich > RDNA werden. Man darf da nicht den Fehler machen solchen Fehlschlüsse zu ziehen. Es gibt ja vor allem darum, die Organisation, Protokolle und Weiteres zu standardisieren, um die Kosten und Entwicklungszeiten zu reduzieren. Es ist ja auch ziemlich sinnlos 2 Chiplinien zu entwickeln die zu 90% eh das gleiche tun (rein technisch gesehen).

amdfanuwe
2024-11-19, 16:07:51
Ist UDNA nicht eher als Gegenstück zu CUDA zu sehen?
Das bedeutet doch nicht, dass jetzt alle GPUs die gleichen ALUs benutzen. Die darunter liegende Architektur könnte durchaus auf die verschiedenen Anwendungsfälle angepasst sein.
Das Problem für AMD besteht ja darin, dass für jede Architektur die Software erneut angepasst werden muss während bei Nvidia alles unter CUDA läuft.
Da will AMD jetzt auch hin, damit die Softwareentwickler sich auf ihre Anwendung konzentrieren können und sich weniger Gedanken um die Architekturbedingte Implementierung machen müssen.
Deshalb hat Nvidia ja auch solch einen Erfolg, weil die Ingenieure im Studium vor Jahren CUDA gelernt haben und das auf den neusten Nvidia GPUs immer noch läuft.

HOT
2024-11-19, 16:19:52
Mit Sicherheit nicht. Die ALUs für Games und für AI/WS-Workloads werden sich ja nach wie vor grundsätzlich unterscheiden. RDNA lebt weiter aber nur noch auf der Mikroebene quasi. GCNs riesige Stärke ist die krasse Modularität. Einzelne Module sind ja durchversioniert seit GCN1. Warum nicht also neue Module für Gaming entwickeln und das Ganze dann zusammenstellen, wie man es braucht? RDNA als komplettes Gebilde war ein sehr wichtiger Entwicklungsweg, war aber letztendlich eine teure Sackgasse. Die Skalierbarkeit kann CDNA eh besser, warum nicht also die Synergie ausnutzen?

Macht doch nicht den Fehler, nur weil AMDs Marketing von UDNA quatscht, anzunehmen, dass die CDNA-Architektur einfach jetzt fürs Gaming genutzt wird, das ist natürlich Unsinn. Das wird natürlich ein Gamingchip werden und eine WGP wird sich auch weiterhin von einer CDNA-CU unterscheiden.

AffenJack
2024-11-19, 16:27:35
Mit Sicherheit nicht. Die ALUs für Games und für AI/WS-Workloads werden sich ja nach wie vor grundsätzlich unterscheiden. RDNA lebt weiter aber nur noch auf der Mikroebene quasi.

Das würde die ganzen Gewinne von einer Architekturentwicklung wieder zunichte machen. Gerade die ALUs werden in Ihrem Aufbau größtenteils sehr ähnlich sein. Compute AlU ist Compute Alu. Man kann da teilweise ein wenig dran rumspielen, wie Nvidia es mit HPC zu Consumer tut aufbauend auf einer Architektur. Da mehr Precision, hier ein Shedular mehr etc. Aber es geht ja gerade darum die Kompatibilität zu erzeugen bei Computer. RDNA dürfte viel eher auf der Makroebene weiterleben, indem die CDNA Alus für Gaming um die RDNA TMUs etc erweitert werden.

horn 12
2024-11-19, 17:42:13
Dies heist somit bitte auf Gut Deutsch
Wann sollte somit frühestens RDNA 5 kommen

HOT
2024-11-19, 17:52:21
frühestens Q3 26 dann.

Badesalz
2024-11-19, 17:54:32
AI ist AI. Man sollte aber nicht verdrängen, daß AMD in HPC ein Macht ist die es viel einfacher mit NV aufnehmen kann als bei AI. Und HPC umodden auf Consumer-3D wird, wie oben erwähnt, Sinn ergeben.

Ich nehme auch an, daß ist nicht aus einer Laune heraus entstanden ist. Ich verstehe so manches Nebenthema solcher Diskussionen nicht. Meint ihr die haben das nicht vernünftig abgechekct, bevor sie Meldungen für die Presse raushauen?

Das wird AMDs Spielekarten retten. Punkt :wink:

mksn7
2024-11-19, 18:02:36
Ist UDNA nicht eher als Gegenstück zu CUDA zu sehen?


Nein, UDNA und CUDA sind zwei völlig verschiedene Dinge. Das eine ist eine Architekturfamilie, das andere ein Programmiersystem. Das Gegenstück zu CUDA ist HIP. Mit CUDA kann man bei NVIDIA sehr verschiedene, über die Zeit angesammelten GPU Architekturen programmieren.

NVIDIA ist schon lange genug dran, hat genug Ressourcen in CUDA gesteckt, und hatte auch nie so sehr diesen Architektursplit, so dass CUDA alle NVIDIA GPUs abdeckt. Insofern könnte man diese Frage auch mit Ja beanworten, eine vereinheitlichte Architektur macht es AMD einfacher dass ihr CUDA Äquivalent mehr so wird wie CUDA, nämlich die die ganze Produktpalette abdeckend.

horn 12
2024-11-19, 18:25:09
frühestens Q3 26 dann.

Dies wäre knappe 4 Jahre nach dem 7900XTX - XT Launch
Dann soll AMD die Karten mal wieder im Eigenem Shop als MBA Karten für 899 Euro anbieten
und kaufe eine Neue Auflage, meine 7900XTX MBA ist von 672248

Die wird langsam immer heißer beim Hotspot

HOT
2024-11-19, 18:34:47
Wenn du Geld hast kannst ja auch einfach grün kaufen nächstes Mal. Ne 5080 mit 24GB hört sich gar nicht so schlecht an, ist halt überteuert.

horn 12
2024-11-19, 18:44:36
Die kommt ja nur mit 16 GB (vorerst)
und maximal 10% oder 15% über meiner 7900XTX
und bei RT vielleicht + 70%

TheAntitheist
2024-11-20, 07:27:32
Wenn du Geld hast kannst ja auch einfach grün kaufen nächstes Mal. Ne 5080 mit 24GB hört sich gar nicht so schlecht an, ist halt überteuert.
naja wenn eine Karte mit halbsoviel features nur 200€ weniger kostet,dann juckt das die meisten auch nicht mehr. oder veralteter RAM

reaperrr
2024-11-20, 17:36:11
naja wenn eine Karte mit halbsoviel features nur 200€ weniger kostet,dann juckt das die meisten auch nicht mehr. oder veralteter RAM
"Veralteter" RAM ist doch völlig egal, wenn dieser niedrigere Latenzen und dank 50% breiterem SI ähnliche Bandbreite hat.
Neuer RAM erkauft den höheren Speed meist erstmal mit massiver Latenz-Steigerung je Gbps, so dass der Perf-Gewinn bei gleicher SI-Breite anfangs gar nicht so groß ist.
Außerdem wird die 7900XTX sicherlich mehr als 200 € günstiger, wenn die 5080 rauskommt.

Nimm als Begründung lieber, dass N31 für die Leistung einfach zu viel säuft und das 384bit-SI zumindest einer der Gründe dafür ist, das ist zumindest faktisch richtig und nachvollziehbarer als dieser lächerliche "veralteter RAM" Quark.

HOT
2024-11-20, 17:47:42
Das Speicherinterface sind nur ein paar W, RDNA3 säuft einfach viel.

robbitop
2024-11-20, 18:07:48
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.

davidzo
2024-11-20, 18:13:11
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.

Hier macht Latenz scheinbar den größeren Ausschlag als der Bandbreitenunterschied: https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4070-gddr6-mit-langsamerem-speicher-angeblich-gleicher-performance-
Wobei der Erklärungsansatz mit dem Stromverbrauch imo auch sehr einleuchtend ist.

mczak
2024-11-20, 19:51:04
Hier macht Latenz scheinbar den größeren Ausschlag als der Bandbreitenunterschied: https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4070-gddr6-mit-langsamerem-speicher-angeblich-gleicher-performance-
Wobei da unklar ist welche Karten da genau verglichen wurden. Im einzigen sonstigen Review das ich gefunden habe ist die gddr6x Version wie erwartet durchweg minimal schneller: https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6/

reaperrr
2024-11-20, 21:08:05
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.
Generell vielleicht nicht, in Einzelfällen aber schon.

Wobei da unklar ist welche Karten da genau verglichen wurden. Im einzigen sonstigen Review das ich gefunden habe ist die gddr6x Version wie erwartet durchweg minimal schneller: https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6/

Naja, bei 5% mehr Takt würde ich jetzt auch nicht erwarten, dass die Timings von G6X so wahnsinnig viel entspannter sind.
Da rechne ich bei G7 mit ner anderen Größenordnung.

Wuge
2024-11-21, 10:50:15
Die Timings werden ja nur nominal schlechter. Die Latenz ansich bleibt gleich, bei steigender Bandbreite.

mczak
2024-11-21, 14:16:37
Die Timings werden ja nur nominal schlechter. Die Latenz ansich bleibt gleich, bei steigender Bandbreite.
So im Detail müsste man das mal genauer anschauen, das Encoding wird ja komplexer was theoretisch minimal Latenz kosten könnte weil halt die Speichercontroller auch komplizierter sind. Aber klar der Hauptteil der Latenz kommt immer noch von den eigentlichen Speicherzellen, und das sind noch die gleichen. Man kann wohl davon ausgehen dass die Latenz absolut gesehen sehr ähnlich bleibt.

fondness
2025-01-17, 11:10:36
Leaks auch China zu UDNA:

Release Ende 2026, Fertigung TSMC N3E, und es soll auch wieder High-End-Gaming Lösungen via Chiplets geben.

https://videocardz.com/newz/next-gen-amd-udna-architecture-to-revive-radeon-flagship-gpu-line-on-tsmc-n3e-node-claims-leaker

Dino-Fossil
2025-01-17, 11:15:09
Ich denke wenn die letzten Jahre eines gezeigt haben, dann das man auf Leaks 2 Jahre vor dem Release einer neuen Generation absolut nichts geben sollte. Aber irgendwas muss man ja schreiben, schätzte ich...

dargo
2025-01-17, 11:47:51
Leaks auch China zu UDNA:

Release Ende 2026, Fertigung TSMC N3E, und es soll auch wieder High-End-Gaming Lösungen via Chiplets geben.

https://videocardz.com/newz/next-gen-amd-udna-architecture-to-revive-radeon-flagship-gpu-line-on-tsmc-n3e-node-claims-leaker
Hehe... Déjà-vu @RDNA1. :D Blöderweise werden Chiplets den großen Durst im High-End nicht lösen können. ;( Aber wenn die Produkte dadurch günstiger werden führt kein anderer Weg dran vorbei.

Ich denke wenn die letzten Jahre eines gezeigt haben, dann das man auf Leaks 2 Jahre vor dem Release einer neuen Generation absolut nichts geben sollte. Aber irgendwas muss man ja schreiben, schätzte ich...
Naja... langfristig führt kein Weg an Chiplets vorbei, siehe CPU-Entwicklung. Dass Chiplets bei RDNA4 gescheitert sind heißt ja nicht, dass die endgültig vom Tisch sind. Der Zeitpunkt war offensichtlich noch nicht passend.

why_me
2025-01-17, 11:59:47
Wenn man mit dem Takt runter kann, weil man durch Chiplets günstiger in die Breite gehen kann. Kann man den Durst zumindest etwas abmildern.
Wobei die interconnects auch nicht wenig verbrauchen werden, bei den benötigten Bandbreiten. Am Ende wird der ganze N3 Vorteil von den Interconnects aufgefressen und man ist nicht weiter als heute mit N4...

Nightspider
2025-01-17, 12:01:35
N3E Ende 2026 fänd ich schon ziemlich langweilig. ^^

Ich dachte man wollte auf winzige Compute Tiles on top im neuesten Prozess gehen?

w0mbat
2025-01-17, 12:02:42
N4 Anfang 2025 auch.

dargo
2025-01-17, 12:03:18
N3E Ende 2026 fänd ich schon ziemlich langweilig. ^^

Gewöhn dich dran. Ende 2026 halte ich sogar für optimistisch, ich tippe eher auf Anfang 2027. Schon das wären "nur" zwei Jahre zum Vorgänger.

Wenn man mit dem Takt runter kann, weil man durch Chiplets günstiger in die Breite gehen kann. Kann man den Durst zumindest etwas abmildern.
Wobei die interconnects auch nicht wenig verbrauchen werden, bei den benötigten Bandbreiten. Am Ende wird der ganze N3 Vorteil von den Interconnects aufgefressen und man ist nicht weiter als heute mit N4...
Das befürchte ich auch und hoffe, dass es nicht ganz so schlimm kommt.

Nightspider
2025-01-17, 12:07:48
N4 Anfang 2025 auch.

Ja aber das sind ja auch nur popelige Midrange Karten, die nicht auf Stacking setzen und sowieso schon wieder 6-9 Monate zu spät kommen.

UDNA soll ja auch im AI Market endlich die Kohle aus dem Keller holen. Da muss AMD in die vollen gehen.

Gewöhn dich dran. Ende 2026 halte ich sogar für optimistisch, ich tippe eher auf Anfang 2027. Schon das wären "nur" zwei Jahre zum Vorgänger.

Es geht ja nicht nur um die unwichtigen Grafikkarten sondern darum Nvidia überholen zu können dank Stacking und sich endlich größere Scheiben vom AI Markt einzuverleiben.

w0mbat
2025-01-17, 12:09:57
UDNA ist die Architektur. MI400 wird sicher eine bessere Fertigung nutzen.

dargo
2025-01-17, 12:11:30
Es geht ja nicht nur um die unwichtigen Grafikkarten sondern darum Nvidia überholen zu können dank Stacking und sich endlich größere Scheiben vom AI Markt einzuverleiben.
Mir wäre neu, dass AMD zaubern bzw. die Physik aushebeln kann. AMD kocht auch nur mit Wasser. Die sind genauso auf externe Fertigung von hauptsächlich TSMC angewiesen wie andere IHVs. Daraus gilt es dann das beste draus zu machen..

Nightspider
2025-01-17, 12:20:22
Mir wäre neu, dass AMD zaubern bzw. die Physik aushebeln kann.

AMD muss nicht zaubern können, wenn TSMC für 2025 N2 und für 2026 N2X und N2P geplant hat und die Compute Tiles wirklich klein sind.
Der Cache soll ja unten drunter liegen.

Da sind doch schon vor 1,5 Jahren die Patente durchgesickert:

https://hardforum.com/data/attachment-files/2023/08/891255_Screenshot_20230815-000410_Word.jpg

dargo
2025-01-17, 12:25:31
Und du meinst AMD ist nicht in der Lage entsprechende Entscheidungen zu treffen wann was in welchen Markt-Segmenten released wird? :freak:

basix
2025-01-17, 12:27:12
UDNA ist die Architektur. MI400 wird sicher eine bessere Fertigung nutzen.

N3P ist wohl das Minimum. N2(P) dürfte aber knapp werden hinsichtlich Timeline. N2P könnte sehr gut für einen MI400 Refresh mit +1 Jahr passen.

Nightspider
2025-01-17, 12:28:42
Und du meinst AMD ist nicht in der Lage entsprechende Entscheidungen zu treffen wann was in welchen Markt-Segmenten released wird? :freak:

Ich meine, dass das Gerücht mit N3D Banane ist und das du mal ne Runde laufen gehen solltest um Sauerstoff zu bekommen.

HOT
2025-01-17, 12:35:44
AMD wird N3E sicherlich für seine Zwecke anpassen, das wird wieder alles im gleichen Prozess gefertigt.

Es ist ja auch sinnvoll auf N2P zu warten und dann auf diesen umzusteigen mit einer Anpassung.

Nightspider
2025-01-17, 12:37:28
das wird wieder alles im gleichen Prozess gefertigt.

Das würde Stacking ausschließen. Eigentlich will AMD ja immer mehr hin zum Stacking.

HOT
2025-01-17, 12:51:22
Was hat das mit Stacking zu tun? Du kannst alle Prozesse stacken auch durcheinander wenn du willst.

dargo
2025-01-17, 12:53:29
Ich meine, dass das Gerücht mit N3D Banane ist und das du mal ne Runde laufen gehen solltest um Sauerstoff zu bekommen.
:freak:

Nur weil ein Nightspider in einem Nerdforum mit den Füssen trampelt wird nichts schneller kommen.

Nightspider
2025-01-17, 22:58:00
Was hat das mit Stacking zu tun? Du kannst alle Prozesse stacken auch durcheinander wenn du willst.

Na du schreibst doch das alles im gleichen Prozess gefertigt wird. Man wird ja wohl kaum N3 auf N3 stacken, weil es einfach keinen Sinn machen würde.
UDNA in MI400 wird sowieso auf Stacking und verschiedene Prozesse setzen, also ist es auch relativ naheliegend das sie es im Gaming Bereich auch in einer abgewandelten Form weiterverwenden werden, wenn sie Nvidia auch wieder im highend Gaming angreifen wollen und die Chiplet GPU Technik endlich soweit ist.
Daraus resultieren eben verschiedene Prozesse.

N3 wäre Ende 2026 einfach eine Enttäuschung für mich. Ich hätte gerne eine highend AMD GPU. So muss ich weiterhin zu Nvidia greifen.

:freak:

Nur weil ein Nightspider in einem Nerdforum mit den Füssen trampelt wird nichts schneller kommen.

Netter Versuch aber bist du nicht eigentlich zu alt für solche Sticheleien?

bbott
2025-01-18, 00:06:49
N3 wäre Ende 2026 einfach eine Enttäuschung für mich. Ich hätte gerne eine highend AMD GPU. So muss ich weiterhin zu Nvidia greifen.

Wieso, die NV Käufer werden doch eh wieder ein Grund finden, warum sie AMD nicht kaufen. DLSS 5, Hyper duper RT, oder auf einmal spielt der Stromverbrauch doch eine Rolle, oder aber der Preis,... es wird schon einen Grund geben. Zur Not ist es der "miese" Treiber Schuld.
Die NV Fans freuen sich nur über nicht mehr so stark steigende Preise und zeigen AMD als dank den Mittelfinger und schreiben in allen Foren wie schlecht AMD ist und wie toll "Ihre" NV Karte...

AffenJack
2025-01-18, 09:18:09
N3 wäre Ende 2026 einfach eine Enttäuschung für mich. Ich hätte gerne eine highend AMD GPU. So muss ich weiterhin zu Nvidia greifen.


Und was würde bei N3 gegen eine High-End GPU sprechen? Nvidia wird auch nur auf N3 sein. Bist du bereit mehr als für eine 5090 für eine GPU bei AMD zu zahlen?

Denn das wäre die Konsequenz aus einem echten N2 High-End Design in 2026. N2 ist anfangs völlig unbezahlbar und wird deshalb nur in kleinen Smartphonechips oder HPC genutzt werden, nach 2 Jahren werden wir das dann langsam bei GPUs sehen, wenn wir Glück haben. Bei N3 hat sich nicht mal das gelohnt, wie man an Blackwell und RDNA4 sieht.

Nightspider
2025-01-18, 14:20:44
Und was würde bei N3 gegen eine High-End GPU sprechen? Nvidia wird auch nur auf N3 sein. Bist du bereit mehr als für eine 5090 für eine GPU bei AMD zu zahlen?

Denn das wäre die Konsequenz aus einem echten N2 High-End Design in 2026. N2 ist anfangs völlig unbezahlbar und wird deshalb nur in kleinen Smartphonechips oder HPC genutzt werden, nach 2 Jahren werden wir das dann langsam bei GPUs sehen, wenn wir Glück haben. Bei N3 hat sich nicht mal das gelohnt, wie man an Blackwell und RDNA4 sieht.

Wenn dank Stacking nur ein Bruchteil der gesamten Chipfläche in N2 gefertigt werden muss sehe ich da kein Problem.
Genau das zeigt ja auch das Patent von AMD und genau darauf läuft es ja hinaus.

Cache und IO im billigen N4-N6 Prozess und die reinen Recheneinheiten platzsparend in cutting edge node chiplets.
Anders wird es AMD wohl kaum schafffen schneller als Nvidia zu werden.

HOT
2025-01-24, 22:46:26
RGT brachte jetzt ein Video, dass sich auf Kepler_L2 bezieht:

https://x.com/Kepler_L2/status/1882706515771129969?mx=2

AMD hat den Chiplet-Weg bei Consumer-GPUs offenbar wieder verlassen. Und er spekuliert (sehr plausibel), dass es kein Halo-Produkt von UDNA gibt und auch offenbar nie geplant war.
Wenn ich das weiter spekuliere, denke ich, dass man bei um die 400mm² bleiben wird und maximal 320-350W anpeilen wird. Man wird bei diesen crazy Wachstum nicht mitmachen, solche AMD-Karten würd ja auch eh kaum einer kaufen.

Also bitte diesmal die Erwartungen im Zaum halten, es wird keinen NV-Killer mehr geben mittelfristig, sowas ist einfach nicht mehr zu erwarten und auch NV hat diesen Weg ja verlassen, wenn man sich GB203 ansieht, denn auch dieser ist knapp 400mm² und 360W. Für GR103 oder wie auch immer die 3nm-Iteration heißt, dürfte wieder ähnliches gelten.

Ich erwarte für alle 3 Hersteller als maximal sinnvollen Grafikchip N3E/P bzw. 18A-Fertigung und um die 400mm² und um die 320-350W. NV wird mMn als einziger noch eine Halo/Prosumer-GPU bringen, die verkauft sich ja auch.

reaperrr
2025-01-24, 23:03:17
N3 wäre Ende 2026 einfach eine Enttäuschung für mich. Ich hätte gerne eine highend AMD GPU. So muss ich weiterhin zu Nvidia greifen.
Aber N4P selbst für GB202 Anfang 2025, obwohl N3E jetzt schon ne ganze Weile in Produktion ist und einigermaßen ausgereift sein sollte, ist keine Enttäuschung? :freak:

Wenn AMD Ende 2026 noch auf N3E/P statt N2 setzt, dann weil absehbar ist, dass der elektrische Vorteil von N2 zu gering und der Kostennachteil zu groß wäre, ganz einfach. Und das wird Nvidia in dem Fall genauso machen, so wie derzeit ja auch.

HOT
2025-01-24, 23:42:37
Auch NV wird dann noch auf N3 setzen. Das machen die allein aus Kostengründen schon so. Ich halte es für ein totales Luftschloss, da N2 zu erwarten, zumal sowohl AMD als auch NV mMn erst bei N2P einsteigen werden, wegen der Backside Power Delivery. N2 dürfte ein ziemliches Nischendasein fristen.
Ich möchte daran erinnern, dass N2 sogar von Apple links liegen gelassen wurde.
Nur Intel wird dann 18A produzieren, dieser Weg stünde beiden Herstellern natürlich auch zur Verfügung alternativ.

why_me
2025-01-25, 00:00:52
Ich erwarte für alle 3 Hersteller als maximal sinnvollen Grafikchip N3E/P bzw. 18A-Fertigung und um die 400mm² und um die 320-350W. NV wird mMn als einziger noch eine Halo/Prosumer-GPU bringen, die verkauft sich ja auch.

Vielleicht sehen wir ja auch 3D stacking.
IO und Cache in gröberen Prozess unten, oben drauf in N3E die Shader dann auf der kompletten Fläche.

basix
2025-01-25, 00:35:11
Ich erwarte für alle 3 Hersteller als maximal sinnvollen Grafikchip N3E/P bzw. 18A-Fertigung und um die 400mm² und um die 320-350W. NV wird mMn als einziger noch eine Halo/Prosumer-GPU bringen, die verkauft sich ja auch.

Sowas ist gut denkbar, ja. In N3P könnte ein 400mm2 Chip auch schneller als eine 5090 sein ;)

24 GByte bei 256bit wären es auch. Das reicht wohl den allermeisten Leuten.

MSABK
2025-01-25, 09:45:36
Macht ja auch keinen Sinn Halo-Produkte zu bringen wenn der Marktanteil eh schon gering ist. Was ih da viel wichtiger finde ist, dass die ganzen Features wie AI Upscaling usw usw deutlich besser werden und da langt es ja wenn man sich auf die normalen Chips um die 300W konzentriert.

basix
2025-01-25, 10:16:15
Solch eine Karte wäre halt im 1000 Euro Bereich angesiedelt. Darüber wird der Kundenkreis dünn. Wenn AMD sich Aufwand sparen und TAM vs. Aufwand maximieren will, wäre das ja nicht so dumm.

Chiplets hätten allerdings den grossen Vorteil, dass man mit nur einem Design skalieren kann. Den Vorteil verliert man mit monolithischen Die. AMD könnte mit Chiplets relativ flexibel reagieren. Ach, Nvidia ist doch nicht so gut wie erwartet, packen wir noch +1 Chiplet hinzu. Ach, Nvidia ist sehr stark, dann lassen wir das.

Ich glaube, dass im moment CDNA und Chiplets in diesem Bereich mehr Prio geniessen. Und deswegen hat man das bei RDNA vorerst vertagt. Die Chiplet Experten arbeiten nun an CDNA. Langfristig gesehen ist das auch nicht schlimm, weill die Chiplet Technologie wird man zu guten Teilen auf RDNA übertragen können. Nur das splitten des Grafik-Workloads auf mehrere Rasterizer/Command Processors ist ein eigenständiges Thema. Da viele Workloads aber immer mehr in Richtung Compute gehen (Matrix/Tensor/Neural Rendering, generelles Compute, RT), ist eine Skalierbarkeit über mehrere Chipletes vermutlich in Zukunft einfacher als heute bei Raster-Grafik.

robbitop
2025-01-25, 11:17:10
Ich vermute, dass ein solches Halo Produkt von AMD (mit weniger Mindshare als Nvidia) nur in sehr erfolgreichen Stückzahlen gekauft werden würde und auch den Vorteil für die kleineren SKUs bringen würde, wenn es das Nvidia Halo Produkt dominieren würde. So wie damals die 9700Pro in 2002.
Ist aber ziemlich unwahrscheinlich, dass man das hinbekommen würde denn Nvidia scheint nie wie Intel bei den CPUs satt und träge zu werden. Und dann haben sie noch eine Größenordnung mehr Ressourcen. Insofern denke ich würde sie midrange Strategie für AMD langfristig am meisten Sinn machen.

Altehardware
2025-01-25, 12:10:47
Das amd kein udna mcm bringt ist unlogisch da mn mit den apu dies schon hat es mag kein mullti alu chiplet sein das war aber mit rdna3 auch nicht.
Das teure an gpu ist das Si und der analoge Anteil zur Verbindung mit dem vram.
HBM löst das Problem und gestapelte über tsv verbundene Si mit alu löst das andere problem der chipkosten.
Amd hat en Lösung dafür und wird sicherlich bei udna angewendet werden unklar ist nur ob HBM oder nicht
Den größer als 512it passt der alu chipanteil nicht da braucht es zwingend ein größeres Si und da bietet sich hbm an als Teilanbindung mit nur 4gb quasi als L4 cache an 1024bit mit hbm3 6,4gbps 819gb/s + 512bit gddr6 20gbps 1,280gb/s + inf cache 384gb/s =2,5pb/s
Dazu effektiv 192cu a128alu 2,5ghz grob 164tf n3+n6 580w tbp
Doppelt so schnell wie die rtx5090 gleicher verbrauch
Das ist mit n3e möglich da man hier -50% packdichte hat Das Si wird grob bei 357mm² sein
Das ist umsetzbar nur die frage ob der markt das will dafür braucht amd passende software
Den Spieler bekommen das sicher nicht.
Den amd hat selber gar keine cpu die das auslasten können womit die kleinere option kommen wird wo das ganze halbiert ist also
96cu a128alu grob etwas mehr Takt 3,0ghz 1,8pb/s 400w 98tf etwa +20% schneller als die rtx5090
Das auf etwa 210mm² chip das wird ne Herausforderung bei der Kühlung.
Es handelt sich um gestapelte chips unten Si oben alu ähnlich dem x3d Lösung nur eben ganze chips.

Daher sehe ich amd in high end noch kommen da man komplett auf diese Stapel chips gehen wird primär auf apu bis zu 48cu a128alu +- rtx4090D perf.
Der Ai trend ist am Stocken amd fehlt lediglich noch die cuda alternative bei den dgpu am desktop. DXR holt amd auf das ist sicher und da nvidia mit blackwell stillstand bewiesen haben sehe ich sogar das amd da gewinnen kann wenn die preise angemessen sind.

fondness
2025-01-25, 14:59:11
RGT brachte jetzt ein Video, dass sich auf Kepler_L2 bezieht:

https://x.com/Kepler_L2/status/1882706515771129969?mx=2

AMD hat den Chiplet-Weg bei Consumer-GPUs offenbar wieder verlassen. Und er spekuliert (sehr plausibel), dass es kein Halo-Produkt von UDNA gibt und auch offenbar nie geplant war.
Wenn ich das weiter spekuliere, denke ich, dass man bei um die 400mm² bleiben wird und maximal 320-350W anpeilen wird. Man wird bei diesen crazy Wachstum nicht mitmachen, solche AMD-Karten würd ja auch eh kaum einer kaufen.

Also bitte diesmal die Erwartungen im Zaum halten, es wird keinen NV-Killer mehr geben mittelfristig, sowas ist einfach nicht mehr zu erwarten und auch NV hat diesen Weg ja verlassen, wenn man sich GB203 ansieht, denn auch dieser ist knapp 400mm² und 360W. Für GR103 oder wie auch immer die 3nm-Iteration heißt, dürfte wieder ähnliches gelten.

Ich erwarte für alle 3 Hersteller als maximal sinnvollen Grafikchip N3E/P bzw. 18A-Fertigung und um die 400mm² und um die 320-350W. NV wird mMn als einziger noch eine Halo/Prosumer-GPU bringen, die verkauft sich ja auch.

Eine Karte um 3000 Euro bei 600 W ist sowieso krank. Wer kauft sowas? Und vor allem: Wo soll das hinführen? Klar könnte AMD jetzt eine schnellere Karte mit 800W um 4000 Euro bringen, sinnvoll ist das halt imo nicht.

robbitop
2025-01-25, 15:08:56
Ganz ehrlich: gute GPUs für normales Geld. Das brauchen die meisten. Der 500-600 EUR Bereich (vielleicht auch gerade so noch 700) ist für viele noch interessant - IMO wird es darüber dann schon enger.

Nightspider
2025-01-25, 16:15:20
Aber N4P selbst für GB202 Anfang 2025, obwohl N3E jetzt schon ne ganze Weile in Produktion ist und einigermaßen ausgereift sein sollte, ist keine Enttäuschung? :freak:

Der GPU Markt ist eine einzige Enttäuschung in letzter Zeit.

Die letzte gute AMD GPU war vor >4 Jahren die 6900XTX und RTX5090 ist nach >2 Jahren mit 20-30% mehr Leistung auch enttäuschend.
Das ist ja das schlimme. Nach 4 Jahren wird AMD gerade mal ~40% mehr Leistung bieten als die 6900XTX und die neue Gen muss ja auch wieder ~2 Jahre durchhalten.
Das heißt wer 5 Jahre nach der 6900XTX eine neue highend GPU von AMD kaufen will wird gerade mal ~~40% mehr Leistung bekommen.

Die hätten vielleicht einfach mal noch 6 bis 9 Monate warten und dann N3E nehmen sollen.

Bin froh vorletztes Jahr die 4090 gekauft zu haben sonst hätte ich mich jetzt richtig geärgert.

horn 12
2025-01-25, 16:19:15
Nun bei Blackwell hatte AlteHardware wirklich komplett RECHT
RTX 5080 wirklich nur magere 7 bis 12% Vor einer RTX 4080 rechne ich mal stark.

Daher auch die Preise bei Nvidia
AMD hat diesesmal den Hauch einer Chance vieles wieder gut zu machen und ins Lot zu stellen!

w0mbat
2025-01-25, 17:25:24
Wie kommen hier alle auf N4P für GB202? Kann gut sein, dass das weiterhin N5(P) ist. Nvidia spricht ja weiterhin von "4N" und nicht "4NP", wie bei B100.

Oranje7
2025-01-25, 17:38:35
Ganz ehrlich: gute GPUs für normales Geld. Das brauchen die meisten. Der 500-600 EUR Bereich (vielleicht auch gerade so noch 700) ist für viele noch interessant - IMO wird es darüber dann schon enger.

Das ist mir zum Beispiel schon zuviel.
Eigentlich war ich immer im 200€ Bereich unterwegs, da gibt es aber mittlerweile gar nichts mehr und musste notgedrungen in den 300-400€ Bereich.

So ganz im Nachhinein bereue ich Anno dazumal keine 1080ti gekauft zu haben

Altehardware
2025-01-25, 18:53:45
Es ist der bisherige n5 node da hat sich nix getan darum diese katastrophale tbp