Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - UDNA - Zusammenführung von RDNA und CDNA
Da es noch kein Topic zum Thema gibt:
Gemäss einem Q&A von Tom's HW :/ mit Jack Huynh von AMD (https://www.tomshardware.com/pc-components/cpus/amd-announces-unified-udna-gpu-architecture-bringing-rdna-and-cdna-together-to-take-on-nvidias-cuda-ecosystem) werden die von AMD nach GCN gesplitteten GPU-Architekturen wieder zusammengeführt. Das Ganze soll "UDNA" heissen, mit dem "U" wohl für "unified".
Jack Huynh [JH], AMD: So, part of a big change at AMD is today we have a CDNA architecture for our Instinct data center GPUs and RDNA for the consumer stuff. It’s forked. Going forward, we will call it UDNA. There'll be one unified architecture, both Instinct and client [consumer]. We'll unify it so that it will be so much easier for developers versus today, where they have to choose and value is not improving.
We forked it because then you get the sub-optimizations and the micro-optimizations, but then it's very difficult for these developers, especially as we're growing our data center business, so now we need to unify it. That's been a part of it. Because remember what I said earlier? I'm thinking about millions of developers; that’s where we want to get to. Step one is to get to the hundreds, thousands, tens of thousands, hundreds of thousands, and hopefully, one day, millions. That's what I'm telling the team right now. It’s that scale we have to build now.
Details gibt's noch keine, aber spekulieren können wir ja schon mal :)
Dino-Fossil
2024-09-10, 13:58:08
Spannend wie "unified" das am Ende wirklich wieder wird. Oder geht es eher darum, wie die Hardware sich dem Programmierer gegenüber zeigt? Also die Architekturen sind schon unterschiedlich, aber sie wollen die Art und Weise wie sie angesprochen werden möglichst weit vereinheitlichen?
Huynh's Aussagen klingen schon so, als wolle man speziell den Devs das Leben leichter machen, also die Vermutung passt imo, dass sich die HW von aussen einheitlich ansprechen lässt (was auch immer einheitlich in dem Kontext heissen mag) - ist ggf. für Compiler auch schön, oder im Gegenteil, wenn es nach Aussen gleich sein muss aber die HW doch sehr divergiert.
Ausserdem klingt es nach Vermeidung von Redundanzen / Neuerfinden des Rades, was er da mit der Memory-Architektur und Optimierungen anspricht. Und, wenn das nicht nur zufällige Nennungen sind, dass das ganze nach RDNA5 starten wird:
JH: So, one of the things we want to do is ...we made some mistakes with the RDNA side; each time we change the memory hierarchy, the subsystem, it has to reset the matrix on the optimizations. I don't want to do that.
So, going forward, we’re thinking about not just RDNA 5, RDNA 6, RDNA 7, but UDNA 6 and UDNA 7. We plan the next three generations because once we get the optimizations, I don't want to have to change the memory hierarchy, and then we lose a lot of optimizations. So, we're kind of forcing that issue about full forward and backward compatibility. We do that on Xbox today; it’s very doable but requires advanced planning. It’s a lot more work to do, but that’s the direction we’re going.
Savay
2024-09-10, 23:02:41
GCN Reloaded!? :uponder:
Leonidas
2024-09-11, 06:34:54
Ich gehe schwer von einer reinen Software-Architektur aus, welche dann einzelne Bedingungen für die Entwicklung der HW vorgibt, aber dennoch sehr unterschiedliche HW ermöglicht. Die HW selber wird weiterhin auf unterschiedlichen Architekture beruhen, auch wenn es AMD des lieben Marketings wegen "unified" nennt.
mksn7
2024-09-11, 09:20:13
Ich denke damals wollte man im HPC Markt dabei sein, aber nicht soviel Aufwand reinstecken, weil erstmal klar ist dass man eine Weile 0% Marktanteil haben wird in einem Markt der nicht rießig ist. Daher nur die relativ sanfte Iteration von GCN (mit dafür deutlich mutigeren Schritten beim packaging). Das war auch erstmal ok, es gibt genug gutmütige HPC codes für die GCN passabel ist. Aber für gaming brauchte es was neues.
Jetzt ist der data center Markt plötzlich rießig, und wenige % davon sind viel Geld, die Architekturentwicklung rechtfertigen. AMD müsste also deutlichere Architekturentwicklungen machen. Das fängt bei CDNA3 an, soviel hat sich an der Architektur in den 10 Jahren vorher an GCN nicht geändert. Sie könnten jetzt versuchen CDNA weiter zu modernisieren, oder sie nehmen halt die moderne Architektur die sie schon haben.
Außerdem wurde ja schon recht explizit davon gesprochen, weniger Unterschiede in der cache struktur und vermutlich auch insgesamt der Architektur haben zu wollen. Mein Tipp, rein spekulativ:
- Kernarchitektur von RDNA, die HPC Teile bekommen die mächtigeren Matrix Cores und FP64, die gaming parts die RT hardware. Evtl Unterschiede bei den register file größen
- L0 cache von RDNA, insgesamt größer, evtl verschiedene Größe für HPC und gaming, wie bei NVIDIA
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschen
- distributed L2 cache von CDNA (hilft vielleicht bei chiplet gaming GPUs??)
- I$ cache wie gehabt, da sind beide GPUs ja schon ähnlich
Es dürfte recht einfach sein: Die GCN-Struktur ist nicht länger vorteilhaft und geht in Rente.
Außerdem dürfte dieses dedundante Arbeiten auch einfach zuviele Ressourcen fressen. Als 3. dürften Chiplets die Produktdiversifikation ausreichend abbilden könenn. Ich finde das ist ne gute Entwicklung.
reaperrr
2024-09-11, 09:47:01
Außerdem wurde ja schon recht explizit davon gesprochen, weniger Unterschiede in der cache struktur und vermutlich auch insgesamt der Architektur haben zu wollen. Mein Tipp, rein spekulativ:
- Kernarchitektur von RDNA, die HPC Teile bekommen die mächtigeren Matrix Cores und FP64, die gaming parts die RT hardware. Evtl Unterschiede bei den register file größen
- L0 cache von RDNA, insgesamt größer, evtl verschiedene Größe für HPC und gaming, wie bei NVIDIA
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschen
- distributed L2 cache von CDNA (hilft vielleicht bei chiplet gaming GPUs??)
- I$ cache wie gehabt, da sind beide GPUs ja schon ähnlich
Nur ein Minimum (oder vllt. gar keine) ROPs wäre auch noch ein Punkt, wo man bei HPC mit relativ wenig Aufwand abweichen können dürfte.
Die Anzahl der ShaderEngines/-Arrays dürfte in HPC/AI ebenfalls weniger wichtig sein.
Also da gibt es schon ne Menge Ansatzpunkte, um die gleiche uArch-Basis trotzdem an die jeweiligen Marktbedürfnisse anzupassen zu können.
BlacKi
2024-09-11, 09:59:45
das passt zeitlich in das fenster, das amd kein highend mehr bauen will. rdna5 wirds also nichtmehr geben?
oder ist rdna5 schon zu lange in der mache?
RDNA5 ist der Startschuss dafür.
Neurosphere
2024-09-11, 10:14:29
Wo steht das AMD kein High-End mehr bauen will? Liest irgendwer eigentlich auch das Interview oder bleibt man nur bei den überschriften kleben?!?
Im Endeffekt hat sich erstmal nichts geändert, RDNA4 bleibt wie es ist, der Rest ist Zukunft.
Vermutlich wird es eher in die Richtung gehen das man mit Chiplets verschiedene Teile des Chips je nach Anforderung kombiniert. Deshalb keine strikte Trennung mehr von CDNA und RDNA weil manche Teile identisch sein werden.
Exxtreme
2024-09-11, 10:18:24
Ich denke mal, die werden mit dem Chiplet-Design weitermachen. Consumer- und Datacenter werden sich zwar die Kern-Hardware teilen, aber das zusätzliche Chiplet wird den Ausschlag geben ob das Consumer- oder Datacenter-Hardware ist. Und ja, das ist warscheinlich viel billiger für AMD, auch wenn es eventuell mehr Transistoren und vielleicht auch Latenzen kostet.
fondness
2024-09-11, 10:34:04
CDNA4 und 5 ist in Roadmaps bereits bestätigt, das ist also eher eine Langfriststrategie. Oder sie labeln nur um und was vorher CDNA5 war wird auf einmal UDNA^^
Gipsel
2024-09-11, 13:24:40
- Kein RDNA L1 cache mehr. Bei general purpose compute sind die hit rates eher gering, bei 3D APIs hat der glaub ich eine Sonderfunktion um Daten zwischen shader stages auszutauschenDie ROPs hängen an den L1 (die sind ja auch den Shaderarrays zugeordnet).
Edit: Und die wurden auch eingeführt, um weniger Clients zu haben, die am L2 hängen (wie noch bei GCN). Dies vereinfacht das Datenrouting auf dem Chip (und vermeidet das Bottleneck am L2).
mksn7
2024-09-11, 14:43:22
Ich denke mal, die werden mit dem Chiplet-Design weitermachen. Consumer- und Datacenter werden sich zwar die Kern-Hardware teilen, aber das zusätzliche Chiplet wird den Ausschlag geben ob das Consumer- oder Datacenter-Hardware ist. Und ja, das ist warscheinlich viel billiger für AMD, auch wenn es eventuell mehr Transistoren und vielleicht auch Latenzen kostet.
Es werden nicht die gleichen Chiplets für beides verwendet werden, weil die CUs selbst dann doch unterschiedlich sein müssen. Wenn man zu NVIDIA rüberschaut, gibts Unterschiede bei RT Cores, Tensor Cores, TMA, FP64, L1 Cache Größe/Bandbreite.
Außerdem all das was außerhalb der CU/SMs noch sitzt, also die ganze 3D fixed function hardware.
reaperrr
2024-09-11, 14:46:51
CDNA4 und 5 ist in Roadmaps bereits bestätigt, das ist also eher eine Langfriststrategie. Oder sie labeln nur um und was vorher CDNA5 war wird auf einmal UDNA^^
CDNA4 klingt bisher - auch wegen dem Produktnamen, MI350 - eher nach CDNA3.5, quasi CDNA3-Shrink auf N3E/P + besserer AI-Support (mehr unterstützte Formate und Durchsatz in niedrigen Präzisionen).
Dürfte IP-technisch auch schon so gut wie fertig sein, hier wird AMD Time-to-Market und mehr CUs/Takt wichtiger sein als fundamentale Architektur-Änderungen abseits der Low-Precision-Sachen.
Halt schnell noch was von der Blase(?) mitnehmen, bevor wieder ne vorübergehende Depression einsetzt.
CDNA5 wird evtl. auch nochmal ein GFX9-Abkömmling (deshalb nur MI400, das dürfte der ursprüngliche CDNA4 gewesen sein), und UDNA6 dann vermutlich ne Weiterentwicklung von RDNA5 mit mehr KI-spezifischen Verbesserungen, um die uArch sowohl für Gaming (KI-Upscaling, KI-FrameGen) als auch HPC zum würdigen Nachfolger beider Vorgänger zu machen.
amdfanuwe
2024-09-11, 14:57:38
auch wegen dem Produktnamen, MI350
Ich denke eher, MI3xx bezieht sich auf die Plattform.
MI4xx könnte eine neue Plattform fällig werden, mehr und schnellerer Speicher, optische Anbindung, andere TDP oder sowas.
fondness
2024-09-16, 10:33:07
Das könnte wohl der Zweck den UDNA-Ansatzes sein:
We have a team working on AI technologies developing our ROCm subsystem for data center. New team, that we just established, is working on ROCm for Radeon.
We're extending our ROCm subsystem to Radeon products, so everybody can get to use AI on AMD APUs and Radeon GPUs.
This is going to be a full-fledged design center, we are going to have RTL design, hardware verification and many other hardware and software technologies as an option.
https://www.techpowerup.com/326593/interview-with-amds-senior-vice-president-and-chief-software-officer-andrej-zdravkovic-udna-rocm-for-radeon-ai-everywhere-and-much-more
Ja und mit angepassten Chiplets auf einer Struktur kann man ja auch die entsprechenden Workloads abbilden.
Sunrise
2024-09-16, 14:53:35
Klingt auf den ersten Blick irgendwie halbgar, vor allem in Bezug auf Skalierbarkeit und Performance. Gibt ja gute Gründe, warum Nvidia die Dinger lieber getrennt laufen lässt.
Die Anforderungen sind ja noch auch teilweise komplett unterschiedlich..
fondness
2024-11-19, 14:14:36
There is no RDNA5 code name. After RDNA4, it will be UDNA.
MI400 and RX9000 use the same UDNA, and the architecture uses an ALU design similar to GCN.
UDNA Gaming GPU is tentatively scheduled for mass production in Q2 26.
Sony's PS6 will use UDNA, and the CPU has not yet been determined to be ZEN4 or ZEN5. Sony's handheld will also use AMD hardware.
I heard that Microsoft's handheld will choose between Qualcomm and AMD? I don't know about this
The above information comes from the supply chain, and I don't know the specifications and performance.
https://www.chiphell.com/thread-2652187-1-1.html
mboeller
2024-11-19, 14:47:04
https://www.chiphell.com/thread-2652187-1-1.html
and the architecture uses an ALU design similar to GCN
ja sicher... macht es für mich erst mal unglaubwürdig.
AMD ist von GCN weggegangen, weil die Auslastung bei Spielen nicht gut genug war. Zumindest haben sie das bei RDNA1 behauptet.
zB:
https://hexus.net/tech/news/graphics/131555-the-architecture-behind-amds-rdna-navi-gpus/
https://hexus.net/media/uploaded/2019/6/84efe3a9-9957-44d7-903c-e2f269817c0f.PNG
Auslastung von 25% auf 100% im Bild (2. Link)
robbitop
2024-11-19, 14:50:23
Aber GCN hat mehr TFLOPs pro Fläche gebracht die in HPC/AI trotzdem relativ problemlos auslastbar waren. Und jetzt schauen wir mal auf AMD's Umsatz und Gewinn: AI vs Gaming. Was hat mehr Prio? :)
So können sie ihre Resources besser bündeln und wenn es da bei Gaming Nachteile gibt ist das aus jetziger Sicht weniger relevant.
Aber ggf. können sie die eigentliche Implementierung aber auch einiges reißen.
Badesalz
2024-11-19, 14:55:37
Was nochmal bedeutet "similar"?
CDNA scheint an einigen weiteren Stellen ausreichend geeignet geworden zu sein :tongue:, daß man sie mit paar Änderungen als RDNA-Ersatz verwenden kann.
Der Consumer-Tweak von CDNA kostet 15% dessen was jedesmal extra RDNA kosten würde, bringt 80% der Leistung wie extra gemachtes nextgen RDNA. So in etwa (GROB).
Wieviel Generationen braucht AMD denn um 1:1 mit 4090 zu sein? Interessiert das die meisten Zocker außerhalb der Forenblasen, wenn sie das - zu dem Zeitpunkt/Nodes - für 300€ in 250W bekämen? Ich glaub die meisten gehen nicht voll ab, weil es dann eine 6090 für 2300€ gibt...
So in etwa ist die Rechnung. Ob die aufgeht ist natürlich eine andere Sache.
E39Driver
2024-11-19, 15:09:55
ja sicher... macht es für mich erst mal unglaubwürdig.
AMD ist von GCN weggegangen, weil die Auslastung bei Spielen nicht gut genug war. Zumindest haben sie das bei RDNA1 behauptet.
zB:
https://hexus.net/tech/news/graphics/131555-the-architecture-behind-amds-rdna-navi-gpus/
https://hexus.net/media/uploaded/2019/6/84efe3a9-9957-44d7-903c-e2f269817c0f.PNG
Auslastung von 25% auf 100% im Bild (2. Link)
Bis einschließlich Vega als letzte GCN-Ausbaustufe hatte man sehr viele TF auf den Gamingkarten. Man konnte die Leistung in Spielen aber nie auf die Straße bringen.
Rückkehr zu diesem Ansatz kann aktuell Sinn machen. NV hält eh 90% des Gamingmarktes und betrachtet dies auch nur als Abfall vom AI-Markt, Intel ist weg vom Fenster. Und AMD muss für AI so oder so Chips entwickeln. Da wartet der große Umsatz. Da könnte es dann günstiger sein einen groß ausgefallenen AI-Chip auch als Spielkarte herauszubringen anstelle der Entwicklung eines dedizierten Gamingchips für den schrumpfenden Markt, von dem man wiederum nur sehr geringe Marktanteile mittelfristig erreichen kann. Von der technischen Seite betrachtet würde mir diese Entwicklung gefallen.
MSABK
2024-11-19, 15:16:08
Ist ja auch bissi logisch, dass Amd sich an AI orientiert und aus dessen Entwicklung dann Gamingkarten als Beiprodukt entstehen. So sparen sie Entwicklungskosten.
Zu GCN zurück bedeutet ja nicht, dass man GCN wieder ausgräbt, sondern, dass die Organisation der kommenden CDNA-Chips auf RDNA übergreift. Die ALU-Auslastung wird sicherlich > RDNA werden. Man darf da nicht den Fehler machen solchen Fehlschlüsse zu ziehen. Es gibt ja vor allem darum, die Organisation, Protokolle und Weiteres zu standardisieren, um die Kosten und Entwicklungszeiten zu reduzieren. Es ist ja auch ziemlich sinnlos 2 Chiplinien zu entwickeln die zu 90% eh das gleiche tun (rein technisch gesehen).
amdfanuwe
2024-11-19, 16:07:51
Ist UDNA nicht eher als Gegenstück zu CUDA zu sehen?
Das bedeutet doch nicht, dass jetzt alle GPUs die gleichen ALUs benutzen. Die darunter liegende Architektur könnte durchaus auf die verschiedenen Anwendungsfälle angepasst sein.
Das Problem für AMD besteht ja darin, dass für jede Architektur die Software erneut angepasst werden muss während bei Nvidia alles unter CUDA läuft.
Da will AMD jetzt auch hin, damit die Softwareentwickler sich auf ihre Anwendung konzentrieren können und sich weniger Gedanken um die Architekturbedingte Implementierung machen müssen.
Deshalb hat Nvidia ja auch solch einen Erfolg, weil die Ingenieure im Studium vor Jahren CUDA gelernt haben und das auf den neusten Nvidia GPUs immer noch läuft.
Mit Sicherheit nicht. Die ALUs für Games und für AI/WS-Workloads werden sich ja nach wie vor grundsätzlich unterscheiden. RDNA lebt weiter aber nur noch auf der Mikroebene quasi. GCNs riesige Stärke ist die krasse Modularität. Einzelne Module sind ja durchversioniert seit GCN1. Warum nicht also neue Module für Gaming entwickeln und das Ganze dann zusammenstellen, wie man es braucht? RDNA als komplettes Gebilde war ein sehr wichtiger Entwicklungsweg, war aber letztendlich eine teure Sackgasse. Die Skalierbarkeit kann CDNA eh besser, warum nicht also die Synergie ausnutzen?
Macht doch nicht den Fehler, nur weil AMDs Marketing von UDNA quatscht, anzunehmen, dass die CDNA-Architektur einfach jetzt fürs Gaming genutzt wird, das ist natürlich Unsinn. Das wird natürlich ein Gamingchip werden und eine WGP wird sich auch weiterhin von einer CDNA-CU unterscheiden.
AffenJack
2024-11-19, 16:27:35
Mit Sicherheit nicht. Die ALUs für Games und für AI/WS-Workloads werden sich ja nach wie vor grundsätzlich unterscheiden. RDNA lebt weiter aber nur noch auf der Mikroebene quasi.
Das würde die ganzen Gewinne von einer Architekturentwicklung wieder zunichte machen. Gerade die ALUs werden in Ihrem Aufbau größtenteils sehr ähnlich sein. Compute AlU ist Compute Alu. Man kann da teilweise ein wenig dran rumspielen, wie Nvidia es mit HPC zu Consumer tut aufbauend auf einer Architektur. Da mehr Precision, hier ein Shedular mehr etc. Aber es geht ja gerade darum die Kompatibilität zu erzeugen bei Computer. RDNA dürfte viel eher auf der Makroebene weiterleben, indem die CDNA Alus für Gaming um die RDNA TMUs etc erweitert werden.
horn 12
2024-11-19, 17:42:13
Dies heist somit bitte auf Gut Deutsch
Wann sollte somit frühestens RDNA 5 kommen
Badesalz
2024-11-19, 17:54:32
AI ist AI. Man sollte aber nicht verdrängen, daß AMD in HPC ein Macht ist die es viel einfacher mit NV aufnehmen kann als bei AI. Und HPC umodden auf Consumer-3D wird, wie oben erwähnt, Sinn ergeben.
Ich nehme auch an, daß ist nicht aus einer Laune heraus entstanden ist. Ich verstehe so manches Nebenthema solcher Diskussionen nicht. Meint ihr die haben das nicht vernünftig abgechekct, bevor sie Meldungen für die Presse raushauen?
Das wird AMDs Spielekarten retten. Punkt :wink:
mksn7
2024-11-19, 18:02:36
Ist UDNA nicht eher als Gegenstück zu CUDA zu sehen?
Nein, UDNA und CUDA sind zwei völlig verschiedene Dinge. Das eine ist eine Architekturfamilie, das andere ein Programmiersystem. Das Gegenstück zu CUDA ist HIP. Mit CUDA kann man bei NVIDIA sehr verschiedene, über die Zeit angesammelten GPU Architekturen programmieren.
NVIDIA ist schon lange genug dran, hat genug Ressourcen in CUDA gesteckt, und hatte auch nie so sehr diesen Architektursplit, so dass CUDA alle NVIDIA GPUs abdeckt. Insofern könnte man diese Frage auch mit Ja beanworten, eine vereinheitlichte Architektur macht es AMD einfacher dass ihr CUDA Äquivalent mehr so wird wie CUDA, nämlich die die ganze Produktpalette abdeckend.
horn 12
2024-11-19, 18:25:09
frühestens Q3 26 dann.
Dies wäre knappe 4 Jahre nach dem 7900XTX - XT Launch
Dann soll AMD die Karten mal wieder im Eigenem Shop als MBA Karten für 899 Euro anbieten
und kaufe eine Neue Auflage, meine 7900XTX MBA ist von 672248
Die wird langsam immer heißer beim Hotspot
Wenn du Geld hast kannst ja auch einfach grün kaufen nächstes Mal. Ne 5080 mit 24GB hört sich gar nicht so schlecht an, ist halt überteuert.
horn 12
2024-11-19, 18:44:36
Die kommt ja nur mit 16 GB (vorerst)
und maximal 10% oder 15% über meiner 7900XTX
und bei RT vielleicht + 70%
TheAntitheist
2024-11-20, 07:27:32
Wenn du Geld hast kannst ja auch einfach grün kaufen nächstes Mal. Ne 5080 mit 24GB hört sich gar nicht so schlecht an, ist halt überteuert.
naja wenn eine Karte mit halbsoviel features nur 200€ weniger kostet,dann juckt das die meisten auch nicht mehr. oder veralteter RAM
reaperrr
2024-11-20, 17:36:11
naja wenn eine Karte mit halbsoviel features nur 200€ weniger kostet,dann juckt das die meisten auch nicht mehr. oder veralteter RAM
"Veralteter" RAM ist doch völlig egal, wenn dieser niedrigere Latenzen und dank 50% breiterem SI ähnliche Bandbreite hat.
Neuer RAM erkauft den höheren Speed meist erstmal mit massiver Latenz-Steigerung je Gbps, so dass der Perf-Gewinn bei gleicher SI-Breite anfangs gar nicht so groß ist.
Außerdem wird die 7900XTX sicherlich mehr als 200 € günstiger, wenn die 5080 rauskommt.
Nimm als Begründung lieber, dass N31 für die Leistung einfach zu viel säuft und das 384bit-SI zumindest einer der Gründe dafür ist, das ist zumindest faktisch richtig und nachvollziehbarer als dieser lächerliche "veralteter RAM" Quark.
Das Speicherinterface sind nur ein paar W, RDNA3 säuft einfach viel.
robbitop
2024-11-20, 18:07:48
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.
davidzo
2024-11-20, 18:13:11
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.
Hier macht Latenz scheinbar den größeren Ausschlag als der Bandbreitenunterschied: https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4070-gddr6-mit-langsamerem-speicher-angeblich-gleicher-performance-
Wobei der Erklärungsansatz mit dem Stromverbrauch imo auch sehr einleuchtend ist.
mczak
2024-11-20, 19:51:04
Hier macht Latenz scheinbar den größeren Ausschlag als der Bandbreitenunterschied: https://www.3dcenter.org/news/nvidia-kuendigt-geforce-rtx-4070-gddr6-mit-langsamerem-speicher-angeblich-gleicher-performance-
Wobei da unklar ist welche Karten da genau verglichen wurden. Im einzigen sonstigen Review das ich gefunden habe ist die gddr6x Version wie erwartet durchweg minimal schneller: https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6/
reaperrr
2024-11-20, 21:08:05
Wobei Latenz bei GPUs nicht so eine große Rolle spielt wie bei CPUs.
Generell vielleicht nicht, in Einzelfällen aber schon.
Wobei da unklar ist welche Karten da genau verglichen wurden. Im einzigen sonstigen Review das ich gefunden habe ist die gddr6x Version wie erwartet durchweg minimal schneller: https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6/
Naja, bei 5% mehr Takt würde ich jetzt auch nicht erwarten, dass die Timings von G6X so wahnsinnig viel entspannter sind.
Da rechne ich bei G7 mit ner anderen Größenordnung.
Die Timings werden ja nur nominal schlechter. Die Latenz ansich bleibt gleich, bei steigender Bandbreite.
mczak
2024-11-21, 14:16:37
Die Timings werden ja nur nominal schlechter. Die Latenz ansich bleibt gleich, bei steigender Bandbreite.
So im Detail müsste man das mal genauer anschauen, das Encoding wird ja komplexer was theoretisch minimal Latenz kosten könnte weil halt die Speichercontroller auch komplizierter sind. Aber klar der Hauptteil der Latenz kommt immer noch von den eigentlichen Speicherzellen, und das sind noch die gleichen. Man kann wohl davon ausgehen dass die Latenz absolut gesehen sehr ähnlich bleibt.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.