Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware-Daten, Taktraten und Power-Limits zu AMDs RDNA2 ...
Leonidas
2020-09-29, 18:17:44
Link zur News:
https://www.3dcenter.org/news/hardware-daten-taktraten-und-power-limits-zu-amds-rdna2-grafikchips-offengelegt
Berniyh
2020-09-29, 18:39:05
Sicher sind zum einen die Daten zur Chip-Technik. Die Daten zu den Speicherinterfaces stellen dagegen eine Ableitung gemäß der Anzahl der im Treiber genannten SDP-Interfaces dar.
Das ist ein bisschen ungenau, wäre gut, wenn du da noch nachbesserst.
In der Firmware wird die Anzahl der SDP Interfaces (und damit die Anzahl der Speicherkanäle) nicht genannt, sondern die Anzahl der "Texture Channel Caches" (TCCS).
Bei den meisten Chips (z.B. Navi 10/12, Vega 10) korrelieren diese 1:1 mit der Anzahl an Speicherkanäle. Es gibt aber auch Beispiele wo dies augenscheinlich nicht der Fall ist.
So hat zum Beispiel die XBox One ein Layout bei dem sich mehrere Speicherkanäle Caches teilen (im Verhältnis 1:1.5).
Bei Fiji (16 TCCS) ist es sogar augenscheinlich ein Verhältnis von 1:2 (da 4 Stacks HBM und damit 32 Speicherkanäle).
Auch Arcturus hat ziemlich sicher mehr Speicherkanäle als TCCS, da nicht davon auszugehen ist, dass AMD einem 128 CU Chip nur 16 Speicherkanäle spendiert (so viele TCCS hat der Chip laut Firmware).
Es ist nun nicht unbedingt wahrscheinlich, dass so etwas auch bei Navi 21 der Fall ist, eher hat der Chip wahrscheinlich wirklich 16 Speicherkanäle, aber die Begründung bzw. Beschreibung in deinem Text passt nicht wirklich zu den Erkenntnissen.
Leonidas
2020-09-29, 18:46:15
Hast völlig Recht. Die Ableitung erfolgt auf Basis des TCCS-Eintrags, nicht auf Basis der SDP-Interfaces. Korrigiert.
256Bit GDDR6 vs. 320Bit GDDR6X
Ist doch klar wer da gewinnt.
AMD wird die zusätzliche Schader-Leistung vor allem für Raytracing brauchen, wofür Nvidia spezielle Einheiten hat..
Ohne Raytracing wird das schmale Schpeicherintface limitieren und die 80 Shader-Cluster können ihre Rohperformance nicht auf den Bildschirm brigen...
Linmoum
2020-09-29, 21:04:10
256Bit GDDR6 vs. 320Bit GDDR6X
Ist doch klar wer da gewinnt.
AMD wird die zusätzliche Schader-Leistung vor allem für Raytracing brauchen, wofür Nvidia spezielle Einheiten hat..
Ohne Raytracing wird das schmale Schpeicherintface limitieren und die 80 Shader-Cluster können ihre Rohperformance nicht auf den Bildschirm brigen...Ui, da bin ich jetzt aber gespannt. Du scheinst ja harte Fakten zu haben, inwiefern ein potentiell großer 128MB Cache fehlende Bandbreite kompensieren könnte (oder auch nicht).
Her mit den Quellen, das interessiert mich wirklich. Konnte ja bisher noch niemand außer dir jetzt so klar beantworten.
Dino-Fossil
2020-09-29, 21:54:26
Ich frage mich allerdings, ob die 2500MHz nicht doch ein Tippfehler sind - Navi21 ist mit 2050 angegeben, ein kleiner Zahlendreher und schon hat man 2500.
AlterSack
2020-09-29, 21:58:14
Das Verhältnis der 170W N22 zu 200-238W N21 scheint mir trotz
der evtl. 2,5 Ghz bei N22 etwas eigenartig. ...vllt. beabsichtigt man
N22 bis an die Grenze des Machbaren zu prügeln?
inwiefern ein potentiell großer 128MB Cache fehlende Bandbreite kompensieren könnte
Von einem 128MB Cache höre ich tatsächlich das erste mal... Hab ich da irgend einen leak verpasst?
iamthebear
2020-09-30, 01:51:30
Ich denke nicht, dass mehr Cache bei GPUs einen so großen Performancevorteil bringt.
128MB hört sich zwar viel an aber 128MB SRAM Zellen brauchen bei TSMC 7nm gerade einmal 30mm² Platz. Würde das wirklich so viel bringen, hätte das schon längst jemand gemacht.
256Bit GDDR6 vs. 320Bit GDDR6X
Ist doch klar wer da gewinnt.
AMD wird die zusätzliche Schader-Leistung vor allem für Raytracing brauchen, wofür Nvidia spezielle Einheiten hat..
Ohne Raytracing wird das schmale Schpeicherintface limitieren und die 80 Shader-Cluster können ihre Rohperformance nicht auf den Bildschirm brigen...
Ohne Hardwareunterstützung für Raytracing ist die Performance so schlecht, dass es keinen Sinn macht sie einzusetzen. Wir reden hier von Faktor 5 aufwärts.
Ich denke aber nicht, dass Raytracing wirklich so ein K.O. Kriterium für die meisten ist zumindest bei den aktuellen Performancekosten. So toll sind die Effekte nun auch wieder nicht.
Was AMD jedoch mehr weh tut ist das Fehlen von DLSS 2.0. Klar im Moment schafft die Leistungsklasse der 3080 4K auch noch flüssig ohne DLSS. Bei zukünftigen Spielen oder mit Karten unterhalb des Topmodells ist das dann aber eine Frage zwischen 1440p und "annähernd 4K" Qualität.
KodeX
2020-09-30, 04:15:16
Für mich scheinen die RDNA2-Chips extrem auf Effizienz getrimmt zu sein. Hier könnte ein ähnlicher Sprung stattfinden wie seinerzeit von Kepler auf Maxwell, wo ebenfalls ohne nennenswerten Fertigungsvorteil Beeindruckendes geschafft wurde. Möglicherweise zaubert AMD eine neue HD 5870 aus dem Hut, die Nvidia nur mit einem Monster schlagen kann. :-D
Leonidas
2020-09-30, 04:34:05
Von einem 128MB Cache höre ich tatsächlich das erste mal... Hab ich da irgend einen leak verpasst?
Siehe hier:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-14-september-2020
ActionNews
2020-09-30, 05:47:13
Hmm ... angeblich hat AMD ja einige der CPU-Ingenieure an die Radeon-Group ausgeliehen. Vielleicht konnten die einen guten Beitrag zum Chip liefern mit Techniken aus dem CPU-Bereich auf die ein auf Grafik eingefahrenes Team nie gekommen wäre die auszuprobieren.
Ich bin jedenfalls gespannt ob AMD die vergleichsweise geringe Speicherbandbreite ausgleichen kann. Vielleicht klappt das ja tatsächlich mit dem 128MB "Infinity Cache".
Klingt zumindest als würde das ein sehr interessantes viertes Quartal 2020.
Gast-chk
2020-09-30, 06:19:19
Woher kommt jetzt plötzlich das Argument, dass Navi 21 kein Hardware-Raytracing unterstützt? Das ist doch in den neuen Konsolen vorhanden, warum soll es bei den neuen GPUs nicht präsent sein?
Ferenzo
2020-09-30, 07:08:59
Spannende Zeiten auf dem GPU Markt :smile:
Gerade im Midrange Bereich sieht es doch nach einer ordentlichen Performance Steigerung aus, Preise scheinen auch human zu bleiben.
Gast Ritis
2020-09-30, 07:37:38
Ich denke nicht, dass mehr Cache bei GPUs einen so großen Performancevorteil bringt.
128MB hört sich zwar viel an aber 128MB SRAM Zellen brauchen bei TSMC 7nm gerade einmal 30mm² Platz. Würde das wirklich so viel bringen, hätte das schon längst jemand gemacht.
Jeder Cache entlastet das Speicherinterface, dazu sind die nun mal da.
Bislang ist AMD die einzige Firma mit 7nm und das Konzept für sehr grossen Cache muss auch erst mal in eine Arch hinein passen, ist ja kein Lego Baukasten.
Ivy Bridge gabs auch mit 128MB on package, Intel hat’s wieder verworfen.
Radeon VII war nur Vega und RDNA1 ein Übergang. RDNA2 wäre der richtige Zeitpunkt mit Konsolen im Rücken neue Cache Hierarchien einzuführen. Am Ende darf die Software nicht zu viele Misses provozieren.
Kearvaig
2020-09-30, 07:57:46
Hmm, ich verstehe die Prognose nicht das sich N21 mit einer 3080 anlegen können soll.
Bezüglich Power Target, Speicherinterface, Rohleistung, Anzahl der Recheneinheiten und Speicherbandbreite bewegt sich N21, laut diesen Angaben, doch in der Nähe der 3070. Kann mir das nochmal jemand erklären?
BigKid
2020-09-30, 08:40:32
Hmm, ich verstehe die Prognose nicht das sich N21 mit einer 3080 anlegen können soll.
Bezüglich Power Target, Speicherinterface, Rohleistung, Anzahl der Recheneinheiten und Speicherbandbreite bewegt sich N21, laut diesen Angaben, doch in der Nähe der 3070. Kann mir das nochmal jemand erklären?
Weil ein Chip der in 7nm TMSC gefertigt wurde einfach effinzienter sein kann als einer der in Samsungc 8nm Prozess gefertigt wurde ? Einfach die PTs miteinander zu vergleichen bringt da nix...
Es scheint auch so zu sein als ob der N21 höher Takten kann als GA102 ... Wie effizient die Einheiten sind wissen wir auch noch nicht...
Ich kann mich hier nur wiederholen: Wenn nicht NVidia da selbst Befürchtungen hätte dann ...
- Gäbe es keine 3090
- Hätten wir nicht GA102 in der RTX3080
- Wäre diese nicht bis an die Kotzgrenze hochgeprügelt - die Undervolting Versuche zeigen doch deutlich dass man hier WEIT über den Sweetspot gegangen ist
- Wären keine Modelle mit höherem Speicherausbau in Planung
Hmm, ich verstehe die Prognose nicht das sich N21 mit einer 3080 anlegen können soll.
Bezüglich Power Target, Speicherinterface, Rohleistung, Anzahl der Recheneinheiten und Speicherbandbreite bewegt sich N21, laut diesen Angaben, doch in der Nähe der 3070. Kann mir das nochmal jemand erklären?
Das Thema Speicherinterface ist aktuell ja noch hitzig in Diskussion. Soweit ich das verstanden habe, wäre es auch denkbar, dass Navi21 ein 512Bit SI hat. Auch ein großer Cache wird diskutiert, der das SI abfedern soll.
Beim Power Target hat AMD angekündigt, dass RDNA2 50% effizienter als RDNA1 sein soll. Da Ampere nur etwa 15%-20% mehr Effizienz als Turing bietet und man RDNA1 und Turing kennt (beide liegen nicht weit auseinander), dürfte RDNA2 etwas sparsamer als Ampere sein, wenn AMD das Ziel erfüllen kann.
Bei den Recheneinheiten und der Rohleistung bietet Ampere teilweise das Doppelte im Vergleich zu Turing. Allerdings kann Ampere das nur in grob 35%-40% mehr Leistung umsetzen (Board Power normiert). Das liegt daran, dass man nicht immer alle Recheneinheiten auslasten kann. Entsprechend muss AMD hier gar nicht so große Schritte machen als es scheint.
Alles natürlich voraus gesetzt, dass AMD seine Vorsätze einhalten kann (+50% Effizienz) und das Thema Speicherbandbreite nicht limitiert. Aber die Speicherbandbreite wird AMD mit Sicherheit auf dem Schirm haben, wenn sie da ein Thema gesehen hätten, hätten sie da sicherlich frühzeitig gegen gesteuert.
Weil ein Chip der in 7nm TMSC gefertigt wurde einfach effinzienter sein kann als einer der in Samsungc 8nm Prozess gefertigt wurde ?
Naja, wer sagt denn, dass das am Samsung Prozess liegt? Vielleicht ist das Ampere Design auch einfach (noch) nicht der große Wurf? Aktuell scheint es ja so, als hätte Ampere ein Auslastungs-Problem. Mit grob 100% mehr Recheneinheiten und ordentlich mehr Speicherbandbreite als Turing grob 35% mehr Leistung klingt für mich nicht normal. Ampere hat hier ein ähnliches Problem wie Fiji und Vega auch hatte. Man klotzt mit Rechenleistung, aber der Rest vom Chip kommt irgendwie nicht mit. Witzigerweise scheint es so, als hätten AMD und NVidia ihre Ansätze getauscht: NV macht jetzt Brut-Force Chips und AMD versucht es eher mit ausgewogenen und durchoptimierten Chips...Schon irgendwie komisch, die aktuelle Situation. Ich bin gespannt, ob NVidia das Thema noch mit Ampere lösen kann, oder ob erst Hopper die Auslastung wieder erhöhen kann. Und ob AMD Navi2 tatsächlich auf das Level bringt, was man geplant hat. Die +50% Effizienz sind schon ein großer Batzen...
Iscaran
2020-09-30, 09:51:06
@Leonidas:
Wäre es nicht sinnvoll gewesen die neuen Daten auch mit Spekulationswerte über deren Performance zu versehen ?
5700 XT is glaub ich im 3DC-4k-Index bei 156 %
5700 XT hat 40 CUs und 1.9 GHz Turbo clock
Navi21 @80CU@2.05 GHz (Turbo clock) dürfte damit in etwa bei 80*2.05/40*1.9= 2.16 x 5700 XT sein.
Demnach also 156%*2.16 = 337 % (geschätzt).
(vermutlich noch minus X, da die Chip-Auslastung sicher nicht 100% ist) und plus Y (da die IPC sicher etwas besser als bei RDNA1 ist)
Analog mit 40 CU @2.5 GHz = 2.5/1.9 *156% = 205% geschätzt.
Damit müsste N21 +- im Bereich einer 3080 liegen (325%) eher etwas darüber.
und N22 +- im Bereich einer 3070 (220-240% geschätzt).
Ähnlich wie du es ja z.B. hier machst:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2627-september-2020
Leonidas
2020-09-30, 10:04:18
Hmm, ich verstehe die Prognose nicht das sich N21 mit einer 3080 anlegen können soll.
Bezüglich Power Target, Speicherinterface, Rohleistung, Anzahl der Recheneinheiten und Speicherbandbreite bewegt sich N21, laut diesen Angaben, doch in der Nähe der 3070. Kann mir das nochmal jemand erklären?
N21s Shader-Cluster sind durch die höheren Taktraten ca. 90-95 SMs von Turing wert.
GTX3080 legt hingegen auf die Turing-SMs wie bekannt +32% hinauf = 90 SM.
Sofern AMD das Bandbreiten-Problem löst, kann man die RTX3080 mit N21 erreichen.
@Leonidas:
Wäre es nicht sinnvoll gewesen die neuen Daten auch mit Spekulationswerte über deren Performance zu versehen ?
Mache ich, sobald es etwas konkreter wird. Derzeit sind das ja erst einmal nur Chip-Daten und keine Daten zu konkreten Karten.
Aroas
2020-09-30, 10:09:55
Eine 6700XT mit nur 6GB Speicher? Das wäre nun wahrlich lächerlich wenig für diese Leistungsklasse.
BigKid
2020-09-30, 10:18:24
Eine 6700XT mit nur 6GB Speicher? Das wäre nun wahrlich lächerlich wenig für diese Leistungsklasse.
Wenn das ne FullHD Karte werden soll könnte es sich ausgehen...
N21s Shader-Cluster sind durch die höheren Taktraten ca. 90-95 SMs von Turing wert.
GTX3080 legt hingegen auf die Turing-SMs wie bekannt +32% hinauf = 90 SM.
Sofern AMD das Bandbreiten-Problem löst, kann man die RTX3080 mit N21 erreichen.
Mache ich, sobald es etwas konkreter wird. Derzeit sind das ja erst einmal nur Chip-Daten und keine Daten zu konkreten Karten.
Wer solche Angaben macht sollte sie wenigstens begründen 😉
BigKid
2020-09-30, 10:21:34
Naja, wer sagt denn, dass das am Samsung Prozess liegt? Vielleicht ist das Ampere Design auch einfach (noch) nicht der große Wurf? Aktuell scheint es ja so, als hätte Ampere ein Auslastungs-Problem. Mit grob 100% mehr Recheneinheiten und ordentlich mehr Speicherbandbreite als Turing grob 35% mehr Leistung klingt für mich nicht normal. Ampere hat hier ein ähnliches Problem wie Fiji und Vega auch hatte. Man klotzt mit Rechenleistung, aber der Rest vom Chip kommt irgendwie nicht mit. Witzigerweise scheint es so, als hätten AMD und NVidia ihre Ansätze getauscht: NV macht jetzt Brut-Force Chips und AMD versucht es eher mit ausgewogenen und durchoptimierten Chips...Schon irgendwie komisch, die aktuelle Situation. Ich bin gespannt, ob NVidia das Thema noch mit Ampere lösen kann, oder ob erst Hopper die Auslastung wieder erhöhen kann. Und ob AMD Navi2 tatsächlich auf das Level bringt, was man geplant hat. Die +50% Effizienz sind schon ein großer Batzen...
Du hast einfach die Frage ausgeblendet. Es hatte jemand gefragt wieso Navi21 in Richtung RTX3080 verortet wird von der Performance und sich auf die Hardware Daten bezogen... Ich habe lediglich auf Dinge hingewiesen, die er (scheinbar) nicht auf dem Schirm hatte und die alle dafür Sorgen könnten, dass Navi21 halt recht nah an RXT3080 rannkommen kann...
EDIT: Und sorry für Doppelpost...
Leonidas
2020-09-30, 10:28:18
Wer solche Angaben macht sollte sie wenigstens begründen
Verstehe ich nicht ganz. Die grobe Performance-Einordnung habe ich doch begründet. Genauere Angaben im Rahmen des 4K-Index habe ich ja bewußt noch nicht getätigt.
Wenn das ne FullHD Karte werden soll könnte es sich ausgehen...
Ist mir auch zu wenig. Ich denke, AMD macht auf N22 genauso 12GB drauf. Schon weil N23 schließlich mit 8GB erwartet wird, wären 6GB bei N22 zu wenig. Passt auch wenig zur ganzen Strategie, mit dem Speicher nicht knausrig zu sein.
BigKid
2020-09-30, 10:31:11
Verstehe ich nicht ganz. Die grobe Performance-Einordnung habe ich doch begründet. Genauere Angaben im Rahmen des 4K-Index habe ich ja bewußt noch nicht getätigt.
Ich denke das schon die Erwähnung das Navi21 in Richtung RTX3080 kommen könnte jetzt Beissreflexe auslöst bei allen die sich nicht darüber freuen weil nur durch Konkurrenzdruck noch wirklich Bewegung in den Markt kommt... Hat man bei den CPUs gesehen (4 Kerne forever) und ich freue mich dass AMD (so wie die Vorzeichen stehen) nun vermutlich auch im GPU Markt Druck machen kann...
Aber wie gesagt da kommt jetzt "Angst" auf bei Fanatikern und bei Leuten die sich gerade eine RTX3080 gekauft haben...
Berniyh
2020-09-30, 10:51:18
Das Thema Speicherinterface ist aktuell ja noch hitzig in Diskussion. Soweit ich das verstanden habe, wäre es auch denkbar, dass Navi21 ein 512Bit SI hat.
Prinzipiell sind derzeit weder 384 Bit noch 512 Bit vollkommen ausgeschlossen, würde halt nur bedeuten, dass sich mehrere Speicherkanäle Caches teilen, was man offensichtlich im Normalfall versucht zu vermeiden.
Sofern die in Fortnite gezeigte Karte Navi 21 ist ist zumindest bei der Variante 512 Bit extrem unwahrscheinlich, da hier dann die eingezeichneten Bohrungen im Weg wären.
Diese Bohrungen waren auch auf einem Testboard zu sehen, welches offensichtlich mit 8 Speicherbausteinen bestückt war.
Da derzeit noch davon ausgegangen ist, dass das Testboard Navi 21 enthielt geht man eben von 256 Bit aus.
Wie auch immer das in der Realität funktionieren soll.
256Bit GDDR6 vs. 320Bit GDDR6X
Ist doch klar wer da gewinnt.
Ja, allerdings kann es so simpel halt einfach nicht sein.
Wenn eine 5700 XT ein 256 Bit Interface schon gut auslastet, dann wäre es der absolute Mega-Fail seitens AMD eine Karte zu bauen die doppelt so viele CUs hat (das ist bestätigt), aber das gleiche Speicherinterface, ohne sonst irgendwelche Maßnahmen zu treffen.
Genau aus dem Grund rätseln ja alle herum wie das funktionieren soll.
Die Realität ist: wir wissen es nicht, aber so simpel wie du es hier darstellst kann es eigentlich nicht sein, denn wie gesagt, das wäre der Mega-Fail mit Ansage.
Berniyh
2020-09-30, 10:59:33
Wäre es nicht sinnvoll gewesen die neuen Daten auch mit Spekulationswerte über deren Performance zu versehen ?
Gerade wegen der komischen Kombination #CU und 256 Bit GDDR6 macht es an der Stelle wenig Sinn da über die mögliche Performance zu spekulieren, dazu gibt es einfach zu viele offene Fragen.
Legendenkiller
2020-09-30, 11:17:07
Das Verhältnis der 170W N22 zu 200-238W N21 scheint mir trotz
der evtl. 2,5 Ghz bei N22 etwas eigenartig. ...vllt. beabsichtigt man
N22 bis an die Grenze des Machbaren zu prügeln?
Jup, machen sie doch schon immer. siehe 580/590/5700XT welche zugunsten eines guten P/L eine deutlich schlechtere Effizienz in Kauf genommen wird.
3080 -> 320W , die mit 40W weniger nur 3% verliert, also definitiv "hochgeprügelt" ist.
AMD prügelt die Navi22 maximal hoch um ein guten P/L zu erreichen.
Da die 3070 auch schon 220W haben wird, liegt man sogar noch im "Rahmen"
PS: die 170/200/238 W lese ich als Angabe für die reine GPU ...
die TPDs der ganzen Karten würde ich dann eher bei N22 mit 220W und N21 mit 250-320W erwarten. Weil alleine der Speicher mittlerweile 20W+ verbraucht.
Aroas
2020-09-30, 11:29:17
Wenn das ne FullHD Karte werden soll könnte es sich ausgehen...
Nein, könnte es nicht. Selbst in FullHD bekommt man bei den aktuellsten 3D Titeln mit 6GB Speicher zum Teil schon Probleme.
Außerdem sprechen wir hier von einer Karte, die auf dem Leistungsniveau einer RX 5700XT oder gar höher angesiedelt ist.
Da nun wieder den Speicher auf 6GB zu kappen, ist aus meiner Sicht nicht tragbar.
Das war schon bei der RX 5600XT sehr grenzwertig.
Speicherkrüppel sind einfach nervig. Insbesondere, wenn man Grafikmods nutzt, die primär die Texturen verbessern.
Da reicht die GPU Leistung meist locker aus, aber der Speicher ist ob der hochaufgelösten Texturen völlig überfüllt und die Ruckelei geht los.
Adelholzer
2020-09-30, 11:29:20
Kann mir jemand erklären wir ihr darauf kommt das Navi 21 schneller ist als eine 3080?
Wenn man von der gleichen IPC ausgeht muss Navi21 20% mehr Taktrate liefern um die 3070 zu erreichen. Viel mehr wird auch mit 7nm Fertigung nur mit der Brechstange gehen, und eine Explosion bei der IPC würde ich jetzt auch nicht erwarten. Nicht vergessen das AMD hier mit RDNA1 nicht mal an die alten Turing Karten ran gekommen ist. Aus welcher Ecke sollen denn die 50% extra kommen um eine 3080 zu schlagen?
Und wenn es diesen 128 MB Cache wirklich geben wird, und der den Zugriff auf den Speicher deutlich reduziert. Wofür brauche ich dann 16 GB Speicher, wenn die oft kritisierten 10 GB der 3080 in keinem einzigen Spiel mit 4K & RT zum Flaschenhals wurden. In dem Fall hätte sich die 3090 deutlich absetzen müssen, das war aber nicht der Fall. Die neuen Konsolen haben auch alle deutlich <10 GB für Texturen zur Verfügung, woher soll denn in den nächsten Jahren der Bedarf für so viel Speicher kommen? Und wenn er in 4-5 Jahren genutzt werden könnte, wird RDNA2 nicht stark genug sein um diese Features auch zu aktivieren.
Leonidas
2020-09-30, 11:34:04
Wenn man von der gleichen IPC ausgeht muss Navi21 20% mehr Taktrate liefern um die 3070 zu erreichen.
Wieso sollte N21 mit der RTX3070 irgendein Problem haben? Es sind 80 CU vs. 46 SM. Bitte nicht die FP32-Einheiten vergleichen, das geht in die Hose.
Hmm ... angeblich hat AMD ja einige der CPU-Ingenieure an die Radeon-Group ausgeliehen. Vielleicht konnten die einen guten Beitrag zum Chip liefern mit Techniken aus dem CPU-Bereich auf die ein auf Grafik eingefahrenes Team nie gekommen wäre die auszuprobieren.
Ich bin jedenfalls gespannt ob AMD die vergleichsweise geringe Speicherbandbreite ausgleichen kann. Vielleicht klappt das ja tatsächlich mit dem 128MB "Infinity Cache".
Klingt zumindest als würde das ein sehr interessantes viertes Quartal 2020.
Ich frage mich die ganze Zeit:
FALLS es den "Infinity Cache" gibt und FALLS AMD damit der 3080 locker Paroli bieten kann... wie würde dann eine Karte mit 512bit SI *und* "Infinity Cache" abgehen? Dann hätte man die 3090 doch locker im Sack und NV kann Ampere eintüten... oder?
Leonidas
2020-09-30, 11:52:11
Und wenn dann die Rechenleistung fehlt? Bzw. die TDP, um eine höhere Rechenleistung zu ermöglichen? Alles eine Sache des aufeinander abgestimmten Designs.
why_me
2020-09-30, 12:23:35
Kleiner Hinweis, die Daten von Newegg sind mittlerweile entfernt worden und stammten höchstwahrscheinlich von techpowerup, wo es einfach nur Platzhalter sind.... ;)
Adelholzer
2020-09-30, 12:36:38
Wieso sollte N21 mit der RTX3070 irgendein Problem haben? Es sind 80 CU vs. 46 SM. Bitte nicht die FP32-Einheiten vergleichen, das geht in die Hose.
Die Benchmark Leaks lagen etwa auf dem Level der 2080Ti/3070 oder knapp darüber. Die ersten Karten sind einfach die Großen, auch wenn ohne Begründung angenommen wurde das es nur eine kleinere war. Laut AMD selbst verbessert sich das Perf/Watt Verhältnis zwischen RDNA1&2 um 50%, und bei der angeblichen TDP der 6900 komme ich bei der 5700XT + 50% auch nur knapp über die 2080Ti/3070. Die angenommene Speicheranbindung entspricht der 3070. Außerdem würde es auch der Leistung der letzten AMD Produkte entsprechen, das sie ein paar Monate später ein Produkt in den Markt stellen das die alte von Nvidia schlägt.
Das alles natürlich nur ohne DLSS und RT. Das erste gibt es gar nicht, und für den ersten Wurf beim RT würde ich jetzt auch keine Wunder erwarten. Dafür erhält man 16 GB Speicher den keiner nutzt, aber haben ist besser als brauchen.
Bin gespannt was im Oktober präsentiert wird, und 2020 gibt es eh nicht viel zu kaufen. Alles andere als oben beschrieben währe für mich eine positive Überraschung, mal sehen :)
Leonidas
2020-09-30, 13:01:59
Kleiner Hinweis, die Daten von Newegg sind mittlerweile entfernt worden und stammten höchstwahrscheinlich von techpowerup, wo es einfach nur Platzhalter sind.... ;)
Haha, das wäre schändlich. TPU sollte es lassen, Platzhalter-Daten einzutragen, das wird zu oft ernst genommen.
Hardware- und Nachrichten-Links des 29. September 2020
Kommentare ist hierher verlinkt
Mein Bauchgefuehl sagt mir, das von allem etwas wahr ist. Irgendwie sowas wie das es fuer Navi 21 einen besseren Cache hat auf den alle "cores" problemfrei zugreifen koennen, das es den Chip in unterschiedlichen Ausfuehrungen gibt die sich nicht nur im Takt unterscheiden (sondern evt im Speicherinterface Typ oder Breite), das die Speicherbandbreite hoeher ist als bisher angenommen, und das dieses dazu fuehrt das die Daten nicht eins zu eins aus den zur Zeit vorliegenden Source Codes der Treiber abgelesen werden koennen ohne die Architektur zu kennen.
Timbaloo
2020-09-30, 13:45:05
Ich frage mich die ganze Zeit:
FALLS es den "Infinity Cache" gibt und FALLS AMD damit der 3080 locker Paroli bieten kann... wie würde dann eine Karte mit 512bit SI *und* "Infinity Cache" abgehen?
Dein Denkfehler ist: Wenn der hypothetische "Infinity Cache" funktioniert, ergo ein 256Bit@GDDR6-SI nicht limitiert, dann würde im Umkehrschluss ein doppelt so breites SI kaum einen Einfluss haben.
why_me
2020-09-30, 13:45:48
Laut AMD selbst verbessert sich das Perf/Watt Verhältnis zwischen RDNA1&2 um 50%, und bei der angeblichen TDP der 6900 komme ich bei der 5700XT + 50% auch nur knapp über die 2080Ti/3070.
Und hier nicht TDP mit TBP verwechseln. ;)
Bei 225W TBP und +50% Perf/W kommt eine RDNA2 Karte auf die Leistung einer 2080 ti, für doppelte 5700xt Leistung und damit 3080 4k-Leistung kommt man damit auf 300W Boardpower, was zu den 235W TDP passt, da kommt noch Speicher, Wandlerverluste + Lüfter dazu. ;)
Die Rechnung zur Leistung ist doch relativ einfach, pro CU/SM ist RDNA1 mit Turing gleich auf.
Ampere hat zwar doppelt so viele Cuda cores, diese teilen sich aber die INT Pipeline, effektiv bleiben von den +100% Cuda cores nur ca. 35% Leistung übrig.
Das bedeutet die 48SMs der 3070 entsprechen ~64SMs von Turing. Die 80 CUs von N21 sind davon 25% mehr, plus evtl. Takt/IPC Steigerungen und man kommt einer 3080 sehr nahe.
Und wie hier schon oft geschrieben wurde, das Speicherinterface ist das große Fragezeichen, da werden wir auf weitere Infos warten müssen. Leider hat AMD aktuell scheinbar alle Lecks abgedichtet.
Haha, das wäre schändlich. TPU sollte es lassen, Platzhalter-Daten einzutragen, das wird zu oft ernst genommen.
Was das nicht schon immer so? Steht ja auch in einer roten box dabei:
"This product is not released yet.
Data on this page may change in the future."
WedgeAntilles
2020-09-30, 13:56:36
Bin gespannt was im Oktober präsentiert wird, und 2020 gibt es eh nicht viel zu kaufen. Alles andere als oben beschrieben währe für mich eine positive Überraschung, mal sehen :)
Es wäre auf jeden Fall eine Erklärung, warum man von AMD nix hört.
Die aktuelle Politik von AMD im GPU Segment dreht jedem, der sich mit Marketing beschäftigt, den Magen um.
Iscaran
2020-09-30, 14:05:09
@Leonidas:
Bei Navi 22 schreibst du in der Tabelle:
4 Raster-Engines, 40 Shader-Cluster (2560 FP32-Einheiten), 32 ROPs
Das ist bestimmt falsch. Schon Navi10 hatte bei 40 CUs und 4 Rasterizer (=Raster Engines), jeweils 1 pro Shader Array, bestehend aus jeweils 4 Raster Backends (RBs) = 4*4 = 16 ROPs (bzw. man muss diese noch mit *4 multiplizieren um auf die ROP-Zahl zu kommen (=64), meines Wissens).
siehe Figure 4 Seite 6: https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Es ist nicht anzunehmen dass RDNA 2 Navi22, mit 40CUs hier weniger ROPs fährt wie Navi10. Oder gibt es da anders lautende Gerüchte ?
EDIT: Analog könnte man vermuten, daß Navi21 bei 8 REs und 80 CUs dann mit 8*4=32 RasterBackends also dann mit 128 ROPs auffährt - oder vielleicht auch nicht. Aber ich glaube nicht, daß man die ROP Zahl bei Navi22 vs Navi10 um 50% reduziert ?!? Das ergäbe einfach Null-Sinn.
Berniyh
2020-09-30, 14:25:33
@Leonidas:
Bei Navi 22 schreibst du in der Tabelle:
4 Raster-Engines, 40 Shader-Cluster (2560 FP32-Einheiten), 32 ROPs
Das ist bestimmt falsch. Schon Navi10 hatte bei 40 CUs und 4 Rasterizer (=Raster Engines), jeweils 1 pro Shader Array, bestehend aus jeweils 4 Raster Backends (RBs) = 4*4 = 16 ROPs (bzw. man muss diese noch mit *4 multiplizieren um auf die ROP-Zahl zu kommen (=64), meines Wissens).
siehe Figure 4 Seite 6: https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Es ist nicht anzunehmen dass RDNA 2 Navi22, mit 40CUs hier weniger ROPs fährt wie Navi10. Oder gibt es da anders lautende Gerüchte ?
EDIT: Analog könnte man vermuten, daß Navi21 bei 8 REs und 80 CUs dann mit 8*4=32 RasterBackends also dann mit 128 ROPs auffährt - oder vielleicht auch nicht. Aber ich glaube nicht, daß man die ROP Zahl bei Navi22 vs Navi10 um 50% reduziert ?!? Das ergäbe einfach Null-Sinn.
num_rb_per_se 8 8 8 4 4 4 4 4
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3
;)
Iscaran
2020-09-30, 14:54:05
@Berniyh:
OK...daher kommt das. :-) Alles klar.
Aber ich glaube nicht, daß man die ROP Zahl bei Navi22 vs Navi10 um 50% reduziert ?!? Das ergäbe einfach Null-Sinn.
Dann bin ich mal auf den 28.10. gespannt - bislang ist es irgendwie völlig unklar wie sich all die strukturellen Chipdesign Veränderungen auswirken werden...
Lehdro
2020-09-30, 15:14:18
Es wäre auf jeden Fall eine Erklärung, warum man von AMD nix hört.
Die aktuelle Politik von AMD im GPU Segment dreht jedem, der sich mit Marketing beschäftigt, den Magen um.
Dasselbe wurde auch vorher behauptet als es haufenweise Leaks bei Vega gab und AMD teilweise sogar "Sprüche" geklopft hat. Es ist einfach wahnwitzig hier irgendjemanden etwas recht zu machen - denn meckern tut ihr immer, es wird sich schon etwas finden. Leaken da dann Sachen, werden die teilweise böswillig aus dem Kontext gerissen, völlig übertrieben oder nicht als das erkannt was sie eigentlich sind: Entweder Cherry Picking (hallo @ Vega @ Doom), "tongue in cheek remarks" die als 100% Bestätigung gesehen werden ("no Paper Launch" anyone) oder halt obskure technische Veränderungen/Patente als der nächste Heilsbringer angebetet (HBCC, Primitive Shader, Rapid Math, WUNDERTREIBER etc). Im Nachhinein werden dann aus den wackligen "Leaks" auf einmal absichtlich von AMD verbreitete Fakten die man dann "den anderen" noch Jahre später schön reinwürgen kann, weil ja von Firma xy eh immer nur gelogen und betrogen wird - einfach lächerlich. Das die Techpresse dann dort auch immer fleißig mit dabei ist Öl in das Feuer zu kippen, zeigt einmal mehr das es primär nicht an der fehlenden Kompetenz zum Einschätzen der Leaks mangelt, sondern viel mehr am Willen. Wilde Gerüchte, aus dem Kontext gerissene Fakten/Aussagen als Überschriften und Fanboywars in den Kommentaren sind halt garantiere Klickbringer im heutigen schnelllebigen Sensationsjournalismus.
Von daher: Daumen hoch an AMD dieses Spiel in Zukunft einfach gar nicht mehr mitzuspielen, man kann nur verlieren, gerade als Underdog. Die mysteriöse Aura die knapp einen Monat vor der Vorstellung der nächsten Generation herrscht ist mir wesentlich lieber als der nächste Hypetrain der trotz genug Unkenrufen von den Schienen springt oder der Schwall von negative Nancys die nur das absolut schlechteste aus jeder Information ziehen und dass dann als realistische Erwartung darstellen. Ein gesunder Mittelweg wäre da durchaus gesünder und bringt vielleicht einige Leute wieder zurück auf den Boden der Tatsachen, weil dann eben nicht alles komplett hochemotionalisiert wird.
num_rb_per_se 8 8 8 4 4 4 4 4
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3
;)
Was mir da gerade so ins Auge gesprungen ist, ist das der abgespeckte Navi 21 Lite eine hoehere num_tccs hat. (20 statt 16 beim "normalen" Navi 21). Scheint doch ein ganz anderer Chip zu sein. Bisher dachte ich das 21A und 21B (oder wie uben eben einer als Lite bezeichnet) der gleiche Chip waere aber evt auf einem anderen Traeger, halt einmal HBM2(E) und GDDR6. Aber die Daten sind doch recht verschieden vom Aufbau.
Berniyh
2020-09-30, 15:49:41
Von daher: Daumen hoch an AMD dieses Spiel in Zukunft einfach gar nicht mehr mitzuspielen, man kann nur verlieren, gerade als Underdog. Die mysteriöse Aura die knapp einen Monat vor der Vorstellung der nächsten Generation herrscht ist mir wesentlich lieber als der nächste Hypetrain der trotz genug Unkenrufen von den Schienen springt oder der Schwall von negative Nancys die nur das absolut schlechteste aus jeder Information ziehen und dass dann als realistische Erwartung darstellen.
Sehe ich tatsächlich auch so.
Und wenn ich ehrlich bin: ich finde diese digitale Schnitzeljagd die da abseits der typischen Leak-Quellen derzeit stattfindet sogar ziemlich spannend. ;)
Was mir da gerade so ins Auge gesprungen ist, ist das der abgespeckte Navi 21 Lite eine hoehere num_tccs hat. (20 statt 16 beim "normalen" Navi 21). Scheint doch ein ganz anderer Chip zu sein. Bisher dachte ich das 21A und 21B (oder wie uben eben einer als Lite bezeichnet) der gleiche Chip waere aber evt auf einem anderen Traeger, halt einmal HBM2(E) und GDDR6. Aber die Daten sind doch recht verschieden vom Aufbau.
Der Navi 21 Lite hat nichts mit dem Navi A/B zu tun. Warum er das rausgenommen hat weiß ich nicht, das sollte aber immer noch vorhanden sein (d.h. diese Aussage Navi 21 könnte in irgendeiner Form auch HBM2 und GDDR6 besteht immer noch).
Navi 21 Lite scheint eine Art Zwischenstufe von Navi 10 nach Navi 2x (oder spezifischer 21) zu sein.
Wahrscheinlich eine Art Entwicklungs-Chip aus dem dann die XBox entstanden ist.
(Ob Navi 21 Lite nun exakt das gleiche wie die XBox ist oder nur ein Entwicklungs-Chip für den Graphik-Teil ohne CPU wissen wir natürlich nicht.)
Es spricht aber auf jeden Fall dafür, dass irgendwelche Secret-Sauce – sollte es sie denn geben – erst bei Navi 21 und nicht in Navi 21 Lite (oder die XBox) gewandert ist.
Die Entscheidung das Interface weiter zu beschneiden scheint später gefallen zu sein (was wiederum dagegen spricht, dass AMD einfach zu doof war genügend Bandbreite bereitzustellen).
Kearvaig
2020-09-30, 16:06:23
Danke für die Erklärungen, es ist jetzt verständlicher warum N21 eine 3080 erreichen könnte.
Einen Beißreflex gabs übrigens bei mir nicht - falls ich gemeint gewesen sein sollte. Ich wollte es wirklich nur verstehen, weil die oberflächlich betrachteten Werte erstmal was anderes glauben lassen.
BigKid
2020-09-30, 16:10:20
Danke für die Erklärungen, es ist jetzt verständlicher warum N21 eine 3080 erreichen könnte.
Einen Beißreflex gabs übrigens bei mir nicht - falls ich gemeint gewesen sein sollte. Ich wollte es wirklich nur verstehen, weil die oberflächlich betrachteten Werte erstmal was anderes glauben lassen.
Von meiner Seite aus warst du nicht gemeint ;)
Berniyh
2020-09-30, 16:13:47
Dann bin ich mal auf den 28.10. gespannt - bislang ist es irgendwie völlig unklar wie sich all die strukturellen Chipdesign Veränderungen auswirken werden...
Genau. Deshalb bin ich auch völlig bei Leo hier nicht wild anzufangen auf der vorhandenen Datenlage die Performance hoch zu spekulieren.
Denn das gibt die Datenlage schlicht nicht her.
Das einzige was klar sein sollte ist, dass AMD 1. 50 % Effizienzgewinn im Vergleich zu RDNA1 versprochen hat und 2. kaum die Anzahl der CUs verdoppelt um dann nur 20-30% über einer 5700 XT zu landen.
Viel mehr kann man aber leider wirklich nicht ableiten.
nonharderware
2020-09-30, 16:48:01
Zum Thema "Infinity Cache":
Könnte eventuell dieses (https://www.freepatentsonline.com/y2020/0293445.html) Patent damit gemeint sein, siehe hier (https://www.overclockers.co.uk/forums/threads/amd-navi-23-nvidia-killer-gpu-rumored-to-support-hardware-ray-tracing-coming-next-year.18869659/page-468#post-33949260) angeführt?
Ich bin auch echt verwundert, dass manche Leute Firma X abschreiben oder in den Himmel loben.
Es ist doch rein kosmetischer Natur, welche Firma nun die schnellste Grafikkarte hat.
Das ist evenutell für das Marketing interessant, aber den meisten Umsatz macht man eben mit den Produkten "in der Mitte".
Genau da sehe ich einen sehr interessanten Herbst 2020 und Jahr 2021 vor uns.
Wäre doch wirklich fein wenn sich 8GB sozusagen flächendeckend als Grafikspeicher durchsetzen und eine breite Basis (inkl. Konsolen) für RT bereit steht.
Dazu noch die ganzen dann sich im Umlauf befindlichen 2nd-hand GPUs der 2000er Turing-Serie sollten wirklich die Hardwarebasis entsprechend ausbauen.
Somit wäre 2021 ein tolles Spielejahr.
WedgeAntilles
2020-09-30, 16:54:02
gelöscht, da der Post eh schon viel zu lang ist
Ich sage nicht, dass du völlig unrecht hast.
Aber lass mich dir eine Frage stellen.
Nvidia hat einen deutlich höheren Marktanteil als AMD. Ca. das Dreifache. Und das, obwohl die Produkte tendenziell sogar teurer sind als bei AMD.
Woran liegt das deiner Meinung nach?
a) Sind die Produkte von Nvidia so wahnsinnig viel besser gewesen als bei AMD in den letzten 10 Jahren?
b) Ist das Marketing von Nvidia so viel besser?
c) Ist es eine Kombination von a + b?
Ich sehe das Marketing bei AMD im GPU Bereich als furchtbar an.
Vega: Sprüche rauszuhauen und am Ende nichts liefern ist natürlich noch falscher.
Aber vergleich das doch mal mit der CPU Sparte.
Zen 3.
Unaufgeregt kommen da immer wieder neue Dinge ans Licht.
War man am Anfang schon mit 10% Leistungssteigerung froh, ist es doch inzwischen ziemlich wahrscheinlcih, dass man bei mindestens 15% rauskommt. Gut möglich auch bei 20%.
Zen 3 wird seit Monaten positiver und positiver.
Intel hat nix tolles rausgebracht - trotzdem glänzt AMD immer wieder mit neuen Prognosen zur Leistung von Zen 3.
DAS ist gutes Marketing.
ich weiß als Käufer, dass ich auf Zen 3 warten sollte.
Ich weiß als Käufer, dass mit Zen 3 ein gutes Produkt kommt.
In einem Umfeld in dem der Konkurrent ziemlich ruhig ist, könnte AMD - wenn sie wollten - auch ruhig sein. Wäre keine Katastrophe. Auf welches Produkt von Intel sollten die User denn gehen? Es wäre natürlich trotzdem der falsche Weg, aber halt keine Katastrophe. Macht AMD das? Nein. AMD sorgt dafür, dass Zen 3 ein großes Thema ist, fast ausschließlcih positiv besetzt ist und sich immer mehr Leute darauf freuen.
Besser geht es nicht.
Klar, wenn jetzt Zen 3 mit +6,5% Performancegewinn startet ist es ein Debakel. Nur: Wird das passieren? Halte ich für extrem unwahrscheinlich.
Und jetzt vergleiche das mit RNDA2.
Und einer anderen Marktsituation als im CPU Bereich.
Nvidia liefert.
Und zwar heftig.
Viel Leistung.
DLSS.
RT.
Das ist in aller Munde. Ist RT und DLSS wirklich sooo wichtig? Vermutlich ja. Sagt Nvidia ja. Und von AMD hört man halt 0. Also muss es ja wichtig sein, ist ja das einzige was man hört, oder? (Antwort: Nein, natürlich muss es das nicht sein. Das ist es aber, was bei der Großteil der Konsumenten ankommt. Und das ist entscheidend.)
Und AMD? BigNavi?
Keine Ahnung. Da kommt nix positives.
Wenn nicht mal AMD den Käufern von Nvidia nen Grund geben kann nicht Nvidia zu kaufen - warum sollte der Käufer überhaupt einen Grund suchen auf AMD zu warten?
Das Glück von AMD ist, dass der Start von Ampere Probleme machte (die wohl bald im Griff sein werden).
Es gibt auch im Marketing klare Richtlinien und "Lehren" wie sich eine Firma verhalten sollte.
Und da verstößt AMD gegen so ziemlich alles. Im GPU Bereich. Der CPU Bereich zeigt wie es geht.
Klar, du kannst sagen: Alles Schwachsinn.
Ist beim Marketing tendenziell schwierig das Gegenteil zu bewesen.
Aber noch mal: Es geht überhaupt nicht darum, was FAKTISCH richtig ist. Ob DLSS z.B. wirklich wichtig ist.
Wenn der Großteil der Käufer es glaubt ist das völlig ausreichend für Nvidia.
Nur 1% der Spiele nutzt DLSS - na und? Falls 30% der Käufer DLSS für wichtig halten hat Nvidia da mehr davon, als wenn 80% aller Spiele DLSS nutzen würden, aber fast kein Käufer sich für das Feature interessiert.
Das sind jetzt natürlich völlig willkürliche Zahlen, DLSS soll hier nur ein Beispiel dafür sein, dass es im Verkauf eben nicht primär um harte Fakten geht.
Und AMD überlässt da vollständig Nvidia das Feld, dem Käufer zu erklären was wichtig ist, was super ist. Und oh Wunder, Nvidia sagt dem Käufer: Unsere GraKa ist geil, RT ist geil, DLSS ist geil.
Schaut euch mal die Autowerbungen an - wer wirbt da mit Fakten? Soundsoviel PS oder sonstwas. Das wird wenig bis gar nicht erwähnt.
Es geht da um anderes.
Daher noch mal meine Frage.
Glaubst du nicht auch, dass der Vorsprung von Nvidia teilweise auf einem deutlich besseren Marketing liegt?
Adelholzer
2020-09-30, 16:57:35
Die Rechnung zur Leistung ist doch relativ einfach, pro CU/SM ist RDNA1 mit Turing gleich auf.
Ampere hat zwar doppelt so viele Cuda cores, diese teilen sich aber die INT Pipeline, effektiv bleiben von den +100% Cuda cores nur ca. 35% Leistung übrig.
Das bedeutet die 48SMs der 3070 entsprechen ~64SMs von Turing. Die 80 CUs von N21 sind davon 25% mehr, plus evtl. Takt/IPC Steigerungen und man kommt einer 3080 sehr nahe.
"
Ihr geht alle davon aus das die 80 CUs identisch wie die RDNA1 CUs sind - nur besser und durch den 7nm Prozess auch effizienter. Praktisch weis aber stand Heute keiner wirklich wie die aufgebaut sind, und was hinten an verfügbarer Leistung rauskommt wenn 80 auf einen Chip gepackt werden. Durch RT und den erwarteten InfinityCache + weniger Bandbreite zum Speicher wird es zu 100% Änderungen am Design gegeben haben.
Aufbauend auf den PS5 Leak bringen 36 CUs bei 2,25Ghz 20000 Punkte im Firestrike 1080p, also kann ein 80 CU Chip bei dem Takt theoretisch 45000 Punkte liefern (3080 + 5%). Praktisch brennt ein 125% größerer Chip bei dem Takt ein Loch in die Platine, und dazu kommen noch Reibungsverluste weil ein größerer Chip nicht zu 100% skaliert. Das die PS5 laut aktueller Spekulation die gleiche Speicherbandbreite ohne den Cache nutzt macht es nicht besser.
Leonidas
2020-09-30, 16:58:09
Hardware- und Nachrichten-Links des 29. September 2020
Kommentare ist hierher verlinkt
Oops, Fehler. Gefixt.
nonharderware
2020-09-30, 17:23:09
Ihr geht alle davon aus das die 80 CUs identisch wie die RDNA1 CUs sind - nur besser und durch den 7nm Prozess auch effizienter. Praktisch weis aber stand Heute keiner wirklich wie die aufgebaut sind, und was hinten an verfügbarer Leistung rauskommt wenn 80 auf einen Chip gepackt werden. Durch RT und den erwarteten InfinityCache + weniger Bandbreite zum Speicher wird es zu 100% Änderungen am Design gegeben haben.
Aufbauend auf den PS5 Leak bringen 36 CUs bei 2,25Ghz 20000 Punkte im Firestrike 1080p, also kann ein 80 CU Chip bei dem Takt theoretisch 45000 Punkte liefern (3080 + 5%). Praktisch brennt ein 125% größerer Chip bei dem Takt ein Loch in die Platine, und dazu kommen noch Reibungsverluste weil ein größerer Chip nicht zu 100% skaliert. Das die PS5 laut aktueller Spekulation die gleiche Speicherbandbreite ohne den Cache nutzt macht es nicht besser.
Schau mal da:
Zum Thema "Infinity Cache":
Könnte eventuell dieses (https://www.freepatentsonline.com/y2020/0293445.html) Patent damit gemeint sein, siehe hier (https://www.overclockers.co.uk/forums/threads/amd-navi-23-nvidia-killer-gpu-rumored-to-support-hardware-ray-tracing-coming-next-year.18869659/page-468#post-33949260) angeführt?
Es könnte der L1 Cache massiv erweitert worden sein - ohne ein ganz großes Designupdate zu machen und z.B. einen Partner in der Konsolenwelt zu verärgern, weil ja das Design geändert wurde.
why_me
2020-09-30, 17:53:28
Ihr geht alle davon aus das die 80 CUs identisch wie die RDNA1 CUs sind - nur besser und durch den 7nm Prozess auch effizienter. Praktisch weis aber stand Heute keiner wirklich wie die aufgebaut sind, und was hinten an verfügbarer Leistung rauskommt wenn 80 auf einen Chip gepackt werden. Durch RT und den erwarteten InfinityCache + weniger Bandbreite zum Speicher wird es zu 100% Änderungen am Design gegeben haben.
Dann wäre das meines Wissens die erste Generation die pro CM/CU schlechter wurde als ihr Vorgänger.
Meinst du die Firestrike scors von 2019? Ob man damit so viel anfangen kann? Wer sagt, dass da 2,2GHz angelegen sind?
...
Wenn nicht mal AMD den Käufern von Nvidia nen Grund geben kann nicht Nvidia zu kaufen - warum sollte der Käufer überhaupt einen Grund suchen auf AMD zu warten? ...
Es gibt eine Menge Leute, die...
a) nie NV kaufen, egal was sie anbieten,
b) NV grundsätzlich kaufen, aber sich über den krassen Fehlstart von Ampere ärgern und daher erstmal abwarten, was AMD liefern kann,
c) die die aktuelle Generationen miteinander vergleichen und immer dann das kaufen, was augenscheinlich für sie am besten passt (Wechselkäufer).
Da hast du gleich 3 Gründe/Gruppen, um/die auf AMD zu warten. :)
Gerade ein ganz blöder abwegiger Gedanke.
Wenn da immer wieder Gerüchte über irgendwelche komischen Caches, und dann auch noch dass Navi angeblich ein Dual-Speicherinterface hat.
Wäre es vielleicht denkbar dass da sogar was dran ist, und vielleicht sogar beides stimmt?
Nämlich, dass Navi beispielsweise 1 Stack HBM als HBC, oder wie man das auch immer nennt auf dem Package hat, zuzüglich von "normalem" GDDR als VRAM.
Dann könnte man vielleicht wirklich mit 256bit für den GDDR auskommen, und der Cache hätte zumindest eine Größe im GB-Bereich und nicht nur einige 100MB wie es bei eDRAM/eSRAM der Fall wäre.
Die Frage ist nur ob man das ohne explizite Softwareunterstützung wirklich vernünftig verwenden kann.
unl34shed
2020-09-30, 18:55:55
Gerade ein ganz blöder abwegiger Gedanke.
Wenn da immer wieder Gerüchte über irgendwelche komischen Caches, und dann auch noch dass Navi angeblich ein Dual-Speicherinterface hat.
Wäre es vielleicht denkbar dass da sogar was dran ist, und vielleicht sogar beides stimmt?
Nämlich, dass Navi beispielsweise 1 Stack HBM als HBC, oder wie man das auch immer nennt auf dem Package hat, zuzüglich von "normalem" GDDR als VRAM.
HBM als Cache bring nicht wirklich Vorteile, da die Latenz vergleichbar mit GDDR6 (alles DRAM) ist. Auch die Bandbreite ist bei einem Stack nicht wirklich schneller als 256bit GDDR6. Da kannst du den HBM lieber gleich als zusätzlichen VRAM nutzen, bringt in Summe dann auch mehr Bandbreite.
Iscaran
2020-09-30, 22:03:53
Der Navi 21 Lite hat nichts mit dem Navi A/B zu tun. Warum er das rausgenommen hat weiß ich nicht, das sollte aber immer noch vorhanden sein (d.h. diese Aussage Navi 21 könnte in irgendeiner Form auch HBM2 und GDDR6 besteht immer noch).
Navi 21 Lite scheint eine Art Zwischenstufe von Navi 10 nach Navi 2x (oder spezifischer 21) zu sein.
Wahrscheinlich eine Art Entwicklungs-Chip aus dem dann die XBox entstanden ist.
(Ob Navi 21 Lite nun exakt das gleiche wie die XBox ist oder nur ein Entwicklungs-Chip für den Graphik-Teil ohne CPU wissen wir natürlich nicht.)
Es spricht aber auf jeden Fall dafür, dass irgendwelche Secret-Sauce – sollte es sie denn geben – erst bei Navi 21 und nicht in Navi 21 Lite (oder die XBox) gewandert ist.
Die Entscheidung das Interface weiter zu beschneiden scheint später gefallen zu sein (was wiederum dagegen spricht, dass AMD einfach zu doof war genügend Bandbreite bereitzustellen).
Navi21 Lite entspricht eigentlich von den Specs her so ziemlich der XBox-X
2 SEs zu je 2 SAs mit je 14 CU (=7 WGPx2CUs) = 56 CUs (2*2*7*2)
Das SI ist mit 20 tccs = 320 bit auch genau passend.
Das einzige was anders ist, ist die Zahl der Waves / SIMD...die ist mit 20 identisch zu Navi10...aber das könnte auch mit dem anderen Shader Array Aufbau mit 7WGPs zu tun haben.
Bei 5er WGPs braucht man da evtl. eben nur 16.
Daher denke ich dass Navi21 Lite de-facto der X-Box Chip ist. Evtl. gibts davon auch eien Desktop-Variante zu kaufen.
Berniyh
2020-09-30, 22:37:23
Daher denke ich dass Navi21 Lite de-facto der X-Box Chip ist.
Ja, die Hardwaredaten passen sehr gut zusammen, daher liegt der Schluss nahe.
Dennoch halte ich das ehrlich gesagt für voreilig.
Vor allem, da es für AMD doch recht ungewöhnlich wäre einen Chip einer GPU Generation (wenn auch mit dem Lite Zusatz) nach einer APU zu benennen.
Es gibt zwar noch den Namen Arden für Navi 21 Lite, aber auch da wäre ich mir nicht 100%ig sicher, dass das die XBox ist.
Ich schätze vielmehr, dass AMD mit diesen Eckdaten einen Prototypen für RDNA2 gebaut hat und zwar als dedizierte GPU.
Diese wurde dann – zusammen mit einer Zen 2 CPU – als Dev-Kit für die XBox eingesetzt.
Ich meine sogar vor längerer Zeit mal etwas zu derartigen Dev-Kits gelesen zu haben, wobei da (bis auf die Zen 2 + RDNA2 Geschichte) natürlich nichts über die genaue Hardware bekanntgegeben wird.
Letztendlich ist es aber natürlich nur Spekulation meinerseits, kann auch sein, dass du recht hast und Navi 21 Lite ist exakt der XBox Chip (inkl. CPU Teil).
Evtl. gibts davon auch eien Desktop-Variante zu kaufen.
Das würde ich bezweifeln. Wäre weder im Interesse von Microsoft noch von AMD.
AMD hat ja dafür die "richtigen" Navi 2x Chips, welche das Spektrum wohl schon recht gut abdecken.
Ravenhearth
2020-09-30, 22:39:47
Die Anzahl der Waves/SIMD könnte Kompatibilitätsgründe haben (für Back Compat). GCN hat 10 Waves pro (halb so großer) SIMD.
Troyan
2020-10-01, 01:02:51
Dein Denkfehler ist: Wenn der hypothetische "Infinity Cache" funktioniert, ergo ein 256Bit@GDDR6-SI nicht limitiert, dann würde im Umkehrschluss ein doppelt so breites SI kaum einen Einfluss haben.
Der Denkfehler ist generell, dass große Caches helfen. Wir reden von 8GB+ an Daten, die pro Frames transferiert werden. Der Cache wird also dauernd überschrieben. Cache nimmt Fläche weg, bringt aber keine nennenswerte Leistung in Spielen.
Der Denkfehler ist generell, dass große Caches helfen. Wir reden von 8GB+ an Daten, die pro Frames transferiert werden. Der Cache wird also dauernd überschrieben. Cache nimmt Fläche weg, bringt aber keine nennenswerte Leistung in Spielen.
Wenn du recht hast mit deiner Vermutung, warum setzt dann AMD auf das Cache-Pferd und nicht gleich auf 512bit? Warum hat NV dann augenscheinlich die Hosen voll und verramscht ihre beste Spiele-GPU?
Ich denke, es wird dahingehend noch einige Überraschungen Ende Okt. / Anf. Nov. geben.
Iscaran
2020-10-01, 09:32:39
Letztendlich ist es aber natürlich nur Spekulation meinerseits, kann auch sein, dass du recht hast und Navi 21 Lite ist exakt der XBox Chip (inkl. CPU Teil).
Das würde ich bezweifeln. Wäre weder im Interesse von Microsoft noch von AMD.
AMD hat ja dafür die "richtigen" Navi 2x Chips, welche das Spektrum wohl schon recht gut abdecken.
Ne, ich denke dass Navi 21 Lite eine "Desktop"-Variante des XBox-Chips ist, ganz ohne CPU-Teil.
Ich weiss jetzt nicht wie der XBX Chip im Detail designed ist, aber womöglich könnte AMD einfach den GPU und den CPU-Teil getrennt fertigen und dann nur auf dem Package zusammenfügen ?
Dann könnte es sein dass AMD einen "Überschuss" an GPU Chips hat, diese bringt man vielleicht später als Desktopversion raus. Könnt ja ein Ersatz für z.B. die 5600 sein ?
DevKit-Systeme tauchen doch AFAIK nie in mehr oder weniger "regulären" Beta-Treibern auf, woraus hier die Daten stammen.
WedgeAntilles
2020-10-01, 09:52:00
Es gibt eine Menge Leute, die...
a) nie NV kaufen, egal was sie anbieten,
b) NV grundsätzlich kaufen, aber sich über den krassen Fehlstart von Ampere ärgern und daher erstmal abwarten, was AMD liefern kann,
c) die die aktuelle Generationen miteinander vergleichen und immer dann das kaufen, was augenscheinlich für sie am besten passt (Wechselkäufer).
Da hast du gleich 3 Gründe/Gruppen, um/die auf AMD zu warten. :)
D.h. dein Vorschlag ist, dass sich AMD gar nicht erst bemüht alle Käufer irgendwie zu erreichen sondern
a) nur die Leute nimmt die sowieso AMD kaufen
b) betet, dass Nvidia üblen Mist baut und daher Leute wechseln (und der Mist ist ca. 1 Woche später mit einem neuen Treiber behoben. Wieviele verkrault man da?)
c) hoch informierte Käufer, die alles genau vergleichen und das beste wählen?
Falls AMD wirklich so denkt wundert es nicht, dass deren Marktanteil inzwischen bei nur noch ca. 20% liegt.
Seriously, das Ziel eines Unternehmens muss doch sein selber Käufer zu holen und nicht auf Fehler anderer zu warten.
Oder sich drauf zu verlassen, dass es ne Käufershicht gibt die immer zur eigenen Ware greift.
Oder dass die Kunden schon super informiert sind.
Sorry, der Großteil der Konsumenten ist NICHT super informiert.
Ein geiles Produkt zu haben bringt dir alleine nichts.
Du musst den potentiellen Käufern klar machen, dass du ein geiles Produkt hast.
Sonst kaufen die das Produkt des Konkurrenten von dem sie glauben, es wäre geil.
Keine Ahnung wie alt du bist, aber kennst du die Zeit zwischen Nvidia und 3dfx?
16bit Vodoo 3 von 3dfx und die TNT von Nvidia, die 32bit darstellen konnte?
32Bit war DAS Feature. Sieht besser aus als 16bit und ist einfach geil.
die Vodoo hatte das nicht, die hatte nur 16bit.
Nur - jetzt kommt der Witz - das Bild der Vodoo sah bei 16bit genauso gut aus wie das von Nvidia bei 32bit. Nur mit mehr Frames. (32bit hat natürlich mehr Leistung gekostet wie 16bit)
Nur: Das war egal. Das wusste kaum einer. Das Marketing von Nvidia war schlicht um welten besser. Überall las man von 32bit und dass das besser aussieht. (Sah es ja auch aus - bezogen auf 16 bit der TNT von Nvidia.)
Die TNT war dann genau der Punkt, an dem Nvidia begann weiter und weiter fortzuziehen und immer mehr Geld zu verdienen bei immer größerem Marktanteil.
Die Vodoo war nicht die schlechtere Karte - im Gegenteil.
Aber die TNT war die mit Abstand erfolgreichere Karte. Weil das Marketing bei Nvidia funktioniert hat.
Berniyh
2020-10-01, 10:14:19
Ich weiss jetzt nicht wie der XBX Chip im Detail designed ist, aber womöglich könnte AMD einfach den GPU und den CPU-Teil getrennt fertigen und dann nur auf dem Package zusammenfügen ?
Nein, die XBox ist ziemlich sicher eine APU, also ein Chip.
Dann könnte es sein dass AMD einen "Überschuss" an GPU Chips hat, diese bringt man vielleicht später als Desktopversion raus. Könnt ja ein Ersatz für z.B. die 5600 sein ?
Wie gesagt, ich halte das für sehr unwahrscheinlich.
Es gab ja auch einen Navi 10 Lite, den wir aber nie irgendwo gesehen haben.
(soweit mir bekannt)
DevKit-Systeme tauchen doch AFAIK nie in mehr oder weniger "regulären" Beta-Treibern auf, woraus hier die Daten stammen.
Das dürften irgendwelche Überreste sein die man nicht wieder entfernt hat.
In den eigentlichen Treibern wird Navi 21 Lite meines Wissens nirgends erwähnt.
Nur in pal war es mal kurz drinnen, aber wurde da auch wieder gestrichen.
D.h. dein Vorschlag ist, dass sich AMD gar nicht erst bemüht alle Käufer irgendwie zu erreichen sondern
a) nur die Leute nimmt die sowieso AMD kaufen
b) betet, dass Nvidia üblen Mist baut und daher Leute wechseln (und der Mist ist ca. 1 Woche später mit einem neuen Treiber behoben. Wieviele verkrault man da?)
c) hoch informierte Käufer, die alles genau vergleichen und das beste wählen?
Das ist nicht mein Vorschlag, das wäre mein Erklärungsansatz. AMD macht es gar nicht so ungeschickt. Minimalaufwand (hier mal ein Ankündigung, dort mal eine gerenderte Karte in Fortnite...) und dafür maximale Spannung erzielen (alle warten mit großen Augen auf BigNavi) finde ich schon recht gutes Marketing, muss ich sagen.
Ok, dass NV einen Fehlstart hat, spielt ihnen natürlich jetzt noch ein wenig in die Hände, aber neue Treiber beheben z. B. keine Speicherkrüppel.
Und: glaubst du wirklich, dass es Leute gibt, die mal eben 700 Euro aufwärts für ne GK ausgeben, ohne nicht vorher genau zu vergleichen? (Ok, die mag es geben, aber die sind wohl deutlich in der Unterzahl).
Dafür muss ich nicht mal "hochinformiert" sein, ich muss einfach nur 2-3 Tests aus versch. Zeitschriften lesen und für mich dann entscheiden, was mir wichtiger ist (meist ja Leistung auf der einen Seite, P/L oder Verbrauch auf der anderen). Viele Zeitschriften nehmen einem ja quasi die Entscheidung fast schon ab: "Wenn Sie zu der und der Gruppe gehören, sollten Sie zu Produkt X greifen, sonst zu Y."
Falls AMD wirklich so denkt wundert es nicht, dass deren Marktanteil inzwischen bei nur noch ca. 20% liegt.
Wird sich hoffentlich bald ändern, hat sich ja auch mit Zen im CPU-Segment geändert, soweit ich die Zahlen noch richtig im Hinterkopf habe. AMD ist auf einem guten Weg.
Ein geiles Produkt zu haben bringt dir alleine nichts.
Du musst den potentiellen Käufern klar machen, dass du ein geiles Produkt hast.
Sonst kaufen die das Produkt des Konkurrenten von dem sie glauben, es wäre geil.
Keine Ahnung wie alt du bist, aber kennst du die Zeit zwischen Nvidia und 3dfx?
16bit Vodoo 3 von 3dfx und die TNT von Nvidia, die 32bit darstellen konnte?
32Bit war DAS Feature. Sieht besser aus als 16bit und ist einfach geil.
die Vodoo hatte das nicht, die hatte nur 16bit.
Nur - jetzt kommt der Witz - das Bild der Vodoo sah bei 16bit genauso gut aus wie das von Nvidia bei 32bit. Nur mit mehr Frames. (32bit hat natürlich mehr Leistung gekostet wie 16bit)
Nur: Das war egal. Das wusste kaum einer. Das Marketing von Nvidia war schlicht um welten besser. Überall las man von 32bit und dass das besser aussieht. (Sah es ja auch aus - bezogen auf 16 bit der TNT von Nvidia.)
Die TNT war dann genau der Punkt, an dem Nvidia begann weiter und weiter fortzuziehen und immer mehr Geld zu verdienen bei immer größerem Marktanteil.
Die Vodoo war nicht die schlechtere Karte - im Gegenteil.
Aber die TNT war die mit Abstand erfolgreichere Karte. Weil das Marketing bei Nvidia funktioniert hat.
Ja, da gebe ich dir recht, grundsätzlich ist da bei AMD noch ein wenig Luft nach oben (wobei ich wie gesagt finde, dass AMD das gar nicht so schlecht macht gerade... Schweigen... mal einen Leak... mal eine Andeutung...).
Vor 20-25 Jahren ist man auf Marketingtricks evtl. noch reingefallen (der 3D-Hype ging da ja erst richtig los), aber ich gehe davon aus, dass heutzutage ein Großteil unserer aufgeklärten, wachen IT-Gesellschaft nicht auf irgendwelche Nebelkerzen hereinfällt. Vorher vernünftig informieren, dann ärgert man sich hinterher potentiell weniger. Ist ne einfache Gleichung. :)
why_me
2020-10-01, 11:49:09
Der Denkfehler ist generell, dass große Caches helfen. Wir reden von 8GB+ an Daten, die pro Frames transferiert werden. Der Cache wird also dauernd überschrieben. Cache nimmt Fläche weg, bringt aber keine nennenswerte Leistung in Spielen.
Bist du dir da sicher? Das ist doch bei den Bandbreiten aktueller GPUs kaum möglich. (bis ca. 60 FPS, aber das packen ja die meisten karten)
foenfrisur
2020-10-03, 13:37:53
nvidia hat es definitiv über das Marketing, aber auch über Innovationen und einer gewissen Vorreiterrolle geschafft, das bestimmte positive Attribute in den Köpfen der Menschen verankert sind und immer die Verbindung zu nvidia führen.
da werden dann auch fehler eher verziehen.
amd hat es im grunde komplett umgekehrt gemacht.
finde wedgeantilles Beitrag total plausibel.
denn diese "ich kaufe nur intel oder nvidia" werden ja nicht so geboren.
es ist vermutlich unmöglich, als Premiumhersteller wahrgenommen zu werden, wenn man vorher eher das Gegenteil war.
Beispiele gibt es ja in allen Branchen.
mfg
nvidia hat es definitiv über das Marketing, aber auch über Innovationen und einer gewissen Vorreiterrolle geschafft, das bestimmte positive Attribute in den Köpfen der Menschen verankert sind und immer die Verbindung zu nvidia führen.
da werden dann auch fehler eher verziehen.
amd hat es im grunde komplett umgekehrt gemacht.
finde wedgeantilles Beitrag total plausibel.
denn diese "ich kaufe nur intel oder nvidia" werden ja nicht so geboren.
es ist vermutlich unmöglich, als Premiumhersteller wahrgenommen zu werden, wenn man vorher eher das Gegenteil war.
Beispiele gibt es ja in allen Branchen.
mfg
Diese "ich kaufe nur intel oder nvidia" werden zwar nicht so geboren, aber doch auf irgendeine Art und Weise sozialisiert. Bei mir war der erste Computer ein Amiga und da hasste man natürlich den IBM-PC und über Intels 286er/386er wurde gelacht, dass sich die Balken bogen. Wer kennt noch den Spruch "Windows95 = Amiga85" ? :)
Naja, und als der Amiga dann (leider) ein Auslaufmodell wurde, war Intel aber trotzdem noch der Feind, so dass man sehr sehr gerne auf die Konkurrenz zurückgriff (damals auch schon AMD) und das hat sich bis heute gehalten. Bisher habe ich noch nie Intel gekauft, schon aus Prinzip nicht, und ich habe es nie bereut.
Mit NV ist es jetzt recht ähnlich, auch wenn das vor 20 Jahren mit dem ersten GeForce-Hype zugegebenermaßen mal anders war. Aber so ungefähr seit 15 Jahren kommt mir NV nicht ins Haus. Deren Produkte interessieren einfach nicht.
Mit dem Ampere-Fehlstart fühle ich mich in meiner Auffassung bestätigt: Ein Produkt wird 2 Jahre entwickelt und alles was denen im Groben einfällt ist, die FP-Einheiten zu verdoppeln? Weia.
Dann wird der Chip mit der Brechstange an die Leitungsgrenze geprügelt, die Karten ziehen bis zu 350 Watt, nichts kann von den Kartenherstellern so richtig durchgetestet werden, Treiberprobleme, Netzteile rauchen ab, und dann sind die Karten wahrscheinlich bis Ende 2020 auch nichtmal verfügbar.
Und das als Branchenprimus? Mein Gott, was für ein Deaster.
Naja, immerhin kauft man sich mit der 3080 1GB weniger als mit der 2080Ti. Das ist ja schonmal was. ;)
Nein danke, ich bleibe dann doch bei AMD, auch wenn ich in irgendeinem Shooter nur 125 fps statt 135 habe. Damit kann ich leben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.