Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Das mit Apple ist noch nicht vorbei. Die haben sicherlich noch Verträge.
Nein, es wird keine exklusiven Chips mehr geben in Zukunft, da Apple seine GPUs selbst entwickelt. N12 wird das letzte Produkt in der Hinsicht sein und das ist ja auch nagelneu. Das haben wir schon etlichen Seiten vorher abschließend geklärt. Alle 4 RDNA2-Chips landen im PC-Markt, punkt.
Berniyh
2020-09-03, 09:02:41
Ihr mit eurem Scheiss Apple immer, so ein Schwachfug. Das ist vorbei.
Nein, es wird keine exklusiven Chips mehr geben in Zukunft, da Apple seine GPUs selbst entwickelt. N12 wird das letzte Produkt in der Hinsicht sein und das ist ja auch nagelneu. Das haben wir schon etlichen Seiten vorher abschließend geklärt. Alle 4 RDNA2-Chips landen im PC-Markt, punkt.
Das kannst du nicht sagen. Da du das genauso wenig weißt wie wir alle. Also hör auf hier den wissenden Macker zu spielen …
Ja, Apple entwickelt selbst Produkte. Aber schau mal bei Intel wie lange das gedauert hat bis da was vernünftiges bei rum gekommen ist.
Abgesehen davon ist bei Navi 24 auffällig, dass der Chip wesentlich später bemerkt/erwähnt wurde als das bei Navi 21 und 23 der Fall war. Selbst von Navi 22 wussten wir zwar später, aber immerhin schon vor einem Jahr.
Daher ist es sehr wahrscheinlich, dass der Chip früher nicht geplant war und das wiederum macht eine Semi-Custom Variante (sei es nun für Apple oder was anderes) deutlich wahrscheinlicher, da solche Anfragen ja auch wesentlich später kommen können.
Aber selbstverständlich ist es auch eine absolut realistische Möglichkeit, dass es sich um einen Nachfolger für Navi 14, Polaris & Co handelt.
Screemer
2020-09-03, 09:04:30
Wie soll das mit 2 Stacks gehen? Wenn schon dann 16GB.
Hbm2e kann 12 dice high mit bis zu 24gb pro Stack sein.
https://images.samsung.com/is/image/samsung/p5//semiconductor/insights/news-events/2019/thumb-samsung-electronics-develops-industrys-first-12-layer-3d-tsv-chip-packaging-technology.jpg?$ORIGIN_JPG$ (https://www.samsung.com/semiconductor/dram/hbm2/)
unl34shed
2020-09-03, 09:10:32
Wie soll das mit 2 Stacks gehen? Wenn schon dann 16GB.
HBM2e verdoppelt die Kapazität pro die und auch die Stackhöhe auf 12, damit sind mit 2 stacks sogar 48GB möglich.
HBM2e Anandtech (https://www.anandtech.com/show/15469/jedec-updates-hbm2-memory-standard-to-32-gbps-samsungs-flashbolt-memory-nears-production)
dargo
2020-09-03, 09:12:09
Leute... was wollt ihr mit einem Stack? Dann hängt ein 80CU RDNA 2 an mickrigen 460GB/s. :freak: Unter 2 Stacks macht so eine GPU gar keinen Sinn.
Screemer
2020-09-03, 09:14:10
Du fragtest wie das mit 2 stacks gehen soll? Die Antwort ist eben zwei 6 dice high stacks mit je 12gb. Theoretisch ginge sogar die doppelte Kapazität. Man ist bei hbm2e pro Stack flexibel was die Speichermenge angeht. Man stellt halt entsprechend viele 2gb dice. Der Rest der Höhe wird mit einem Siliziumspacer ausgeglichen.
Wie kommst du auf 460gb/s? Hbm2e hat mit 8 links 1tb/s pro Stack.
Stehst du grad auf der Leitung?
Leute... was wollt ihr mit einem Stack? Dann hängt ein 80CU RDNA 2 an mickrigen 460GB/s. :freak: Unter 2 Stacks macht so eine GPU gar keinen Sinn.
2 Stacks mit 12 oder 6 Slices je nach Kapazität. HBM ist stufenlos skalierbar. Du kannst mit 2 Stackes von 2 bis 48GB so ziemlich alle gängigen Speichergrößen bekommen. In realer Produktion werden 2, 4, 8, 12 und 16GB-Stacks sein.
Das kannst du nicht sagen. Da du das genauso wenig weißt wie wir alle. Also hör auf hier den wissenden Macker zu spielen …
Ja, Apple entwickelt selbst Produkte. Aber schau mal bei Intel wie lange das gedauert hat bis da was vernünftiges bei rum gekommen ist.
Abgesehen davon ist bei Navi 24 auffällig, dass der Chip wesentlich später bemerkt/erwähnt wurde als das bei Navi 21 und 23 der Fall war. Selbst von Navi 22 wussten wir zwar später, aber immerhin schon vor einem Jahr.
Daher ist es sehr wahrscheinlich, dass der Chip früher nicht geplant war und das wiederum macht eine Semi-Custom Variante (sei es nun für Apple oder was anderes) deutlich wahrscheinlicher, da solche Anfragen ja auch wesentlich später kommen können.
Aber selbstverständlich ist es auch eine absolut realistische Möglichkeit, dass es sich um einen Nachfolger für Navi 14, Polaris & Co handelt.
Es wird echt nervig. N24 würde genau zwischen N23 und N14 passen. Das hat nix mit Apple zu tun. Es gab nicht mal Gerüchte zu N2x und Apple, das ist einfach aus der Luft gegriffener BS.
prinz_valium_2
2020-09-03, 09:59:29
GDDR6X ist ja teuer und HBM wird immer günstiger.
Können sich die beiden bei Preis pro Kapazität bald annähern?
Ich denke je höher die Speichergröße, desto besser schneidet HBM beim Preis ab in Relation.
Aber 24GB ist eigentlich übertrieben.
Ich denke 16GB ist da sinvoller und ausreichend, wenn Nvidia nur 10GB hat.
Das normale 384 bit interface bekommt dann 12GB.
Es muss ja auch noch platz nach oben für die Refreshes geben.
dargo
2020-09-03, 10:20:20
Du fragtest wie das mit 2 stacks gehen soll? Die Antwort ist eben zwei 6 dice high stacks mit je 12gb.
Achso... ihr geht dann von mindestens 24GB aus. Das wäre imo Overkill für einen 80CU RDNA 2 und würde wieder nur unnötig die Kosten hochtreiben.
Wie kommst du auf 460gb/s?
https://www.computerbase.de/2020-07/sk-hynix-hbm2e-speicher-massenproduktion/
In realer Produktion werden 2, 4, 8, 12 und 16GB-Stacks sein.
Das finde ich richtig cool, man ist damit wesentlich flexibler als noch zu Anfang von HBM.
Screemer
2020-09-03, 10:26:40
Achso... ihr geht dann von mindestens 24GB aus. [/url]
Wie kommst du darauf? Das war der spekulierte max Ausbau für bnavi. Die stacks kann man dann auch für die salvage Varianten verkleinern.
Hauwech
2020-09-03, 10:30:08
GDDR6X ist ja teuer und HBM wird immer günstiger.
Können sich die beiden bei Preis pro Kapazität bald annähern?
Ich denke je höher die Speichergröße, desto besser schneidet HBM beim Preis ab in Relation.
Aber 24GB ist eigentlich übertrieben.
Ich denke 16GB ist da sinvoller und ausreichend, wenn Nvidia nur 10GB hat.
Das normale 384 bit interface bekommt dann 12GB.
Es muss ja auch noch platz nach oben für die Refreshes geben.
HBM muss sich mit GDDR6 messen, nicht GDDR6x.
G6x ist soweit wir wissen, erstmal nV exklusiv. Zudem gehen auch mit einem 512er SI 16GB Speicher. Legt man es auf niedrige Geschwindigkeit aus, kann man es auch (anzunehmenderweise) ähnlich groß wie ein 384er SI bauen.
Ob HBM immer günstiger wird, wissen wir nicht. Der Speicherbaustein selber vielleicht, aber du musst ja noch das ganze drum herum mitkalkulieren.
Cyberfries
2020-09-03, 10:31:36
Es wird echt nervig. N24 würde genau zwischen N23 und N14 passen. Das hat nix mit Apple zu tun. Es gab nicht mal Gerüchte zu N2x und Apple, das ist einfach aus der Luft gegriffener BS.
Nervig ist das durchaus, die Diskussion haben wir ständig.
Nur weil du das für dich selber als abgeschlossen betrachtest und deine Sichtweise für die richtige hältst, ist das aber keine unumstößliche Wahrheit.
Auch weißt du nicht, wie groß N23 wird, kannst also nicht sagen ob da ein möglicher N24 dazwischen passt.
Wir haben alle die gleich Faktenlage, du kannst nicht allen DEINE Interpretation aufdrücken.
edit: Zum Thema: 24GB halte ich für eher unrealistisch.
Bei den Taktraten die für die Bandreite notwendig sind.... 16GB ist momentan wohl der Sweetspot zwischen dem zuwenig der 3080 und dem zuviel der 3090.
dargo
2020-09-03, 10:32:02
Wie kommst du darauf? Das war der spekulierte max Ausbau für bnavi. Die stacks kann man dann auch für die salvage Varianten verkleinern.
Ok... das hatte ich jetzt nicht auf dem Schirm. Wäre aber schon sehr ungewöhnlich für AMD. Aber gut... warum nicht andere Wege gehen? :tongue: Dir schwebt also TopDog mit 24GB und Salvage mit 16GB vor nehme ich an?
HBM muss sich mit GDDR6 messen, nicht GDDR6x.
Wie kommst du auf den Trichter jetzt? Wenn BigNavi sich mit der 3080 kloppt dann misst sich HBM genau mit GDDR6X.
Nervig ist das durchaus, die Diskussion haben wir ständig.
Nur weil du das für dich selber als abgeschlossen betrachtest und deine Sichtweise für die richtige hältst, ist das aber keine unumstößliche Wahrheit.
Auch weißt du nicht, wie groß N23 wird, kannst also nicht sagen ob da ein möglicher N24 dazwischen passt.
Wir haben alle die gleich Faktenlage, du kannst nicht allen DEINE Interpretation aufdrücken.
Dann zähl doch mal die 100 Apple-Excusiven GPUs auf, die es bisher gab, erhelle uns mit der Apple-Weisheit. Ich zähle eine und das ist N12. Weder V12 noch Tonga waren Apple-Exclusiv. Dass es sowas noch mal geben wird, die Wahrscheinlichkeit tendiert gegen 0. Wir können nochmal darüber reden, wenn die Gerüchte das hergeben, im Moment ist und bleibt das einfach BS.
..
Wie kommst du auf den Trichter jetzt? Wenn BigNavi sich mit der 3080 kloppt dann misst sich HBM genau mit GDDR6X.
Er meinte preislich, in der Fertigung..
Ich denke auch das die Top Version mit HBM kommt. Und an noch einen Chip für Apple glaube ich auch nicht.:biggrin:
Screemer
2020-09-03, 10:40:36
Ok... das hatte ich jetzt nicht auf dem Schirm. Wäre aber schon sehr ungewöhnlich für AMD. Aber gut... warum nicht andere Wege gehen? :tongue: Dir schwebt also TopDog mit 24GB und Salvage mit 16GB vor nehme ich an?
Die 24gb variante also 96cu xtx und als ti/3090 Konkurrent und in ähnlichem Preisbereich. Darunter dann noch 80cu xt mit 16gb und 72cu nonxt mit 12gb. So würde ich mir das ideale lineup im Enthusiast->highende-Bereich vorstellen. Natürlich pure Spekulation und von einem 96cu bnavi ausgehen.
Complicated
2020-09-03, 10:53:04
Weder V12 noch Tonga waren Apple-Exclusiv. Dass es sowas noch mal geben wird, die Wahrscheinlichkeit tendiert gegen 0. Der Tonga-Vollausbau war 1 Jahr lang Apple-Exklusiv. Was du meinst ist ein Custom-Design, das später andere nicht nutzen dürfen. Die NEws waren ständig davon voll wann der Vollausbau endlich mal released wird für alle im Markt.
Deine "gegen 0" Wahrscheinlichkeit halte ich für ebenso für deine Meinung wie vieles andere, das du hier als gegeben annimmst. Das Semi-Custom Geschäft nimmt gerade wohl etwas fahrt auf und es wird wohl eher mehr exklusive Chips geben als in der Vergangenheit. Zumindest für einen temporären Zeitraum ist das auch bei Massenprodukten der Fall. Siehe Renoir TopDog für Asus Notebooks.
Cyberfries
2020-09-03, 10:54:29
Dann zähl doch mal die 100 Apple-Excusiven GPUs auf, die es bisher gab, erhelle uns mit der Apple-Weisheit. Ich zähle eine und das ist N12. Weder V12 noch Tonga waren Apple-Exclusiv. Dass es sowas noch mal geben wird, die Wahrscheinlichkeit tendiert gegen 0. Wir können nochmal darüber reden, wenn die Gerüchte das hergeben, im Moment ist und bleibt das einfach BS.
Zum einen habe ich mich nicht nur auf Apple bezogen, sondern allgemein auf die Spezifikationen und das Lineup das du als gegeben annimmst.
Ständig auch deine Speicher- und CU-Auflistungen für die es keinerlei Rückhalt gibt.
Zu meiner Interpretation auch nicht, logisch.
Zu Apple: AMD gibts noch nicht so lange bei Apple.
In der kurzen Zeit gabs mit V12 und N12 zwei exklusive Chips und ziemlich viele exklusive Varianten von bekannte Grafikkarten.
Mir wäre nicht bekannt wo V12 sonst eingesetzt wurde, eine kurze Suche ergab da nichts.
Dampf
2020-09-03, 10:56:36
Was machen eigentlich die RDNA1 Käufer jetzt? Ihre GPU ist ja praktisch obsolet wegen dem nicht vorhandenen Featureset.
Noebbie
2020-09-03, 10:58:18
Was machen eigentlich die RDNA1 Käufer jetzt? Ihre GPU ist ja praktisch obsolet wegen dem nicht vorhandenen Featureset.
Jo ich lasse den Computer seit gestern aus. Macht keinen Sinn mehr. ;D
Auf BigNavi warten, was sonst? Und aus lassen, genau:biggrin:
dargo
2020-09-03, 11:05:48
Jo ich lasse den Computer seit gestern aus. Macht keinen Sinn mehr. ;D
Diese Sprüche sind immer so geil. ;D Die ganzen Pascals und älteren Karten kann man dann auch alle ab 01.09.2020 in den Müll schmeißen weil kein Game mehr damit funktioniert. :facepalm: Man sollte langsam gelernt haben, dass Features immer ewig am PC brauchen bis die sie richtig durchsetzen. :rolleyes:
Berniyh
2020-09-03, 11:13:42
Achso... ihr geht dann von mindestens 24GB aus. Das wäre imo Overkill für einen 80CU RDNA 2 und würde wieder nur unnötig die Kosten hochtreiben.
Da die DRAM Dies bei HBM keine so hohen Anforderungen haben würde ich mal davon ausgehen, dass die VRAM Größe in dem Fall nicht der wesentliche Kostentreiber ist.
Edit: an 24GB VRAM bei Big Navi glaube ich aber auch nicht. Höchstens in einer Art Special Edition.
Berniyh
2020-09-03, 11:15:48
Wir können nochmal darüber reden, wenn die Gerüchte das hergeben, im Moment ist und bleibt das einfach BS.
Das gilt aber auch 1:1 für deine Interpretation.
Die 24gb variante also 96cu xtx und als ti/3090 Konkurrent und in ähnlichem Preisbereich. Darunter dann noch 80cu xt mit 16gb und 72cu nonxt mit 12gb. So würde ich mir das ideale linup im Enthusiast->highende-Bereich vorstellen. Natürlich pure Spekulation und von einem 96cu bnavi ausgehen.
Genau so stelle ich mir das Lineup vor :) In 505mm² sollten 96CUs locker Platz finden.
Der_Korken
2020-09-03, 11:25:55
Dass es für HBM2e auch Stacks mit "ungerader" Speichermenge gibt, ist interessant. Man ist dort mit der Anzahl der Stacks sehr eingeschränkt, denn was anderes als zwei Stacks ergibt von der Bandbreite her für einen Consumer-Chip oft keinen Sinn. Drei Stacks sind dann zu asymmetrisch auf dem Interposer und vier Stacks totaler Overkill. Bei GDDR kann man, wenn z.B. 8GB zu wenig sind, immer noch ein "krummes" SI verbauen, z.B. 320 oder 384bit, damit auch 10 bzw. 12GB gehen. Bei HBM hätte man dann direkt auf 16 gehen müssen, was wieder teuer wird.
Generell finde ich, dass 16GB für einen 3080-Konkurrenten völlig OK sind. Nvidia ist hier in der Situation, dass die 8, 10 und 12GB-Ausbauten alle etwas zu klein sind für die gebotene Leistung, es aber offensichtlich keine 1,5GB-Chips von GDDR6X gibt. Damit hätte man 12GB für die 3070, 15GB für die 3080 und 18GB für die 3090 verbauen können, was in Relation zur alten Gen die wesentlich ausgewogenere Speichermenge ist als 16, 20 und 24GB. Daher fände ich 16GB für Big Navi top. 24GB können die ja für eine auf 400W hochgeprügelte 6900XTX bringen, wenn sie unbedingt wollen :freak:.
dargo
2020-09-03, 11:33:53
24GB können die ja für eine auf 400W hochgeprügelte 6900XTX bringen, wenn sie unbedingt wollen :freak:.
Das ist auch meine Hoffnung. Bloß nicht über 300W bei BigNavi gehen. Wenn AMD unbedingt der Meinung ist man muss die 3090 auf Teufel komm raus angreifen dann sollen sie eine extra XTX dafür bringen wo Perf/W zweitrangig ist, von mir aus dann auch mit 24GB. Letzteres natürlich nur unter der Annahme N21 kommt mit HBM2e, was noch wilde Speku ist.
Berniyh
2020-09-03, 11:43:10
Drei Stacks sind dann zu asymmetrisch auf dem Interposer und vier Stacks totaler Overkill.
Man kann ja einen Dummy Die verbauen, so wie das Nvidia beim G100 macht.
So könnte man – rein theoretisch – auch eine Variante mit 3 Stacks bringen und dann eine mit 2 Stacks (und entsprechend reduzierter Bandbreite).
Ich halte aber durchgehend 2 Stacks für realistischer. Eher würde man vermutlich Einsparungen bei der Speichermenge und ggf. beim Speichertakt (und damit der Bandbreite) machen.
Generell finde ich, dass 16GB für einen 3080-Konkurrenten völlig OK sind.
Ich glaube es geht eher um einen Konkurrenten für die 3090.
Aber persönlich würde ich auch sagen, dass 16 GB absolut ausreichend sind.
Cyberfries
2020-09-03, 12:09:13
Man kann ja einen Dummy Die verbauen, so wie das Nvidia beim G100 macht.
So könnte man – rein theoretisch – auch eine Variante mit 3 Stacks bringen
In dem Fall müsste der Interposer unnötig groß werden, da halte ich noch zwei Stapel seitlich und einen oben für realistischer.
Da eine Speicherbandbreite und Speichermenge wie bei der 3090 jedoch bereits mit zwei Stapeln möglich ist, rechne ich auch nur mit Zweien.
Berniyh
2020-09-03, 12:19:26
In dem Fall müsste der Interposer unnötig groß werden, da halte ich noch zwei Stapel seitlich und einen oben für realistischer.
Das schenkt sich nicht viel, da du in dem Fall ja auch mindestens in der Ecke verschwendeten Platz hättest.
Da das Aspect Verhältnis der HBM2 Dies nicht so groß ist wäre der Unterschied nicht so groß.
why_me
2020-09-03, 12:22:07
Oder der EMIB ansatz mit mehreren kleinen Interposern. Da hat AMD auch ein Patent.
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Spiele-Chef-gratuliert-Nvidia-1357425/
AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2
"Er könne es kaum erwarten, "all die großartigen Produkte zu zeigen, an denen das Radeon-Team gearbeitet habe. Generell sei es ein "großartiges Jahr, um ein Gamer zu sein".
Los, raus damit!
"RTX 3090 & Co. werden gut mit den neuesten Ryzen-Prozessoren zusammenarbeiten.." ;-)
Der_Korken
2020-09-03, 12:40:41
Das schenkt sich nicht viel, da du in dem Fall ja auch mindestens in der Ecke verschwendeten Platz hättest.
Kann man die GPU länglich bauen und dann drei Stacks längs an einer Seite? :D Passt wahrscheinlich mit den Leitungen nicht. Aber zwei Stacks reichen ja eh, wie schon gesagt wurde.
AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2
"RTX 3090 & Co. werden gut mit den neuesten Ryzen-Prozessoren zusammenarbeiten.." ;-)
;D Shots fired
Man stelle sich vor, die 3080/3090 verlieren in Games zusätzlich etwas Leistung durch PCIe 3.0 auf Intel.
Berniyh
2020-09-03, 12:56:23
Kann man die GPU länglich bauen und dann drei Stacks längs an einer Seite? :D Passt wahrscheinlich mit den Leitungen nicht. Aber zwei Stacks reichen ja eh, wie schon gesagt wurde.
Eher nicht.
Vega 10 ist ja schon recht groß und trotzdem reicht es gerade so für 2 Dies:
https://wccftech.com/amd-vega-gpu-pictures-hbm2-official/
Die GPU in die Länge zu ziehen bringt ja auch längere Signalwege im Inneren und auch einen schlechteren Yield (weil schlechter auf dem Wafer angeordnet werden kann). Das dürfte sich nicht lohnen.
Man könnte natürlich aber die HBM2 Dies um 90° drehen, dann könnte es evtl. gerade so reichen.
Aber auch das bringt natürlich wieder Nachteile mit sich.
BoMbY
2020-09-03, 13:14:55
Man kann ja einen Dummy Die verbauen, so wie das Nvidia beim G100 macht.
Einfacher wäre es wenn man einen eher länglichen GPU-Die baut und dann drei HBM-Stack auf eine lange Seite packt ...
Gipsel
2020-09-03, 13:22:02
Kann man die GPU länglich bauen und dann drei Stacks längs an einer Seite? :D Passt wahrscheinlich mit den Leitungen nicht.Gehen würde das natürlich schon, siehe A100 von nV (den in der Hälfte durchsägen vom Format her). Ist aber praktisch nicht sehr wahrscheinlich.
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/a100/nvidia-a100-hgx-3qtr-front-left-2c50-d.jpg
Der_Korken
2020-09-03, 13:44:28
Gehen würde das natürlich schon, siehe A100 von nV (den in der Hälfte durchsägen vom Format her).
Ne, ich meinte längs von der GPU aus gesehen. Also nicht wie bei A100, sondern um 90 Grad gedreht. Die GPU muss dann natürlich so lang wie drei kurze HBM-Seiten sein.
unl34shed
2020-09-03, 13:46:30
Eher nicht.
Vega 10 ist ja schon recht groß und trotzdem reicht es gerade so für 2 Dies:
https://wccftech.com/amd-vega-gpu-pictures-hbm2-official/
:confused:
Der Interposer ist halt so groß wie er sein muss, damit Chip und Speicher drauf passen.
Gipsel
2020-09-03, 13:53:11
Ne, ich meinte längs von der GPU aus gesehen. Also nicht wie bei A100, sondern um 90 Grad gedreht.Du meinst also, die HBM-Stacks sollen quer* zum GPU-Die orientiert werden.
Das geht natürlich im Prinzip auch, macht aber das Routing auf dem Interposer (bzw. EMIB bridge) komplizierter.
*:
Längs: (lange bzw Haupt-) Achsen sind parallel
Quer: Achsen stehen senkrecht aufeinander
Berniyh
2020-09-03, 13:58:34
Einfacher wäre es wenn man einen eher länglichen GPU-Die baut und dann drei HBM-Stack auf eine lange Seite packt ...
Ja, aber wie gesagt: das hat auch für die GPU intern wieder Nachteile und verschlechtert den Yield (da man längliche Dies nicht so gut auf dem Wafer platzieren kann).
Aber generell ist halt auch die Frage ob die Interposergröße so entscheidend ist. Auch das wissen wir nicht wirklich.
Das Einzige was wir recht sicher wissen ist, dass generell die Nutzung von einem Interposer das Package teurer macht, aber eben nicht ob das mit dessen Größe skaliert.
(bzw. das tut es mit Sicherheit, aber wie groß der Einfluss ist wissen wir nicht)
Cyberfries
2020-09-03, 16:19:34
https://i.gyazo.com/6967da957f7f069f80af048b873834e7.png
https://mobile.twitter.com/_rogame/status/1301251483283980293
In den folgenden Tweets versucht er verschiedene Device IDs unterschiedlichen Speichersorten zuzuordnen.
z.B. bei Navi 22:
73DF mit GDDR6
73c0-73c7 mit HBM2
Problem an der Sache ist, dass diese Auflösung zwei Interfaces auf einem Chip voraussetzt, was hier eigentlich ausgeschlossen wurde.
Genauer sogar auf jedem Chip (N21, N22, N23).
Sollte also AMD nicht völlig überraschend mit Chiplets oder einem revolutionären Interface daherkommen,
würde ich diesen Tweet in den Papierkorb werfen.
Interessanter ist ohnehin folgendes:
Q: Navi 22 bigger ?
A: It's the second biggest die. Should be bigger than GA104
Q: How many CUs? 60?
A: I'd say around Xbox Series X config is a good guess
Sollte das stimmen, wäre die Apple-Theorie vom Tisch und 52-56CUs nahezu gesetzt.
WENN das stimmt.
Ravenhearth
2020-09-03, 16:22:54
Interessanter ist ohnehin folgendes:
Sollte das stimmen, wäre die Apple-Theorie vom Tisch und 52-56CUs nahezu gesetzt.
WENN das stimmt.
Bei der Größe versieht er sich dann aber. 56 CUs wären maximal 320mm² groß (Xbox ohne CPU). GA104 ist stumpf anhand der SMs von 630mm² runtergerechnet 360mm² groß, real wohl mehr.
Cyberfries
2020-09-03, 16:29:50
Da ist wohl kaum die physische Größe gemeint, sondern die Leistungsstärke/Zahl an Recheneinheiten.
Der_Korken
2020-09-03, 16:32:04
Bigger than GA104 wäre um die 400mm². Und dann nur 56CUs? Das kommt mir zu wenig vor im Vergleich zur Xbox.
Edit: OK, wenn man mit "Größe" die Anzahl der Transistoren, dann kann es wieder hinkommen. Anzahl Recheneinheiten ist wieder fraglich, weil GA104 dessen 6144 an. Das wären umgerechnet 96 CUs.
Ravenhearth
2020-09-03, 16:33:44
Da ist wohl kaum die physische Größe gemeint, sondern die Leistungsstärke/Zahl an Recheneinheiten.
Er sagt "It's the second biggest die. Should be bigger than GA104". Das macht mMn nur Sinn wenn er die physische Größe meint. Sonst hätte er nicht explizit "die" gesagt
Cyberfries
2020-09-03, 16:36:09
Im Wörterbuch stehen neben der Übersetzung "groß" auch die Übersetzungsmöglichkeiten "wichtig" oder "stark".
Und wenn du einen Amerikaner "big" nennst, glaubt der du nennst ihn "fett", besser vermeiden.
Dino-Fossil
2020-09-03, 16:55:15
Mein Sprachgefühl sagt da eigentlich schon das eine Größe gemeint ist.
Verstehen würde ich in dem Zusammenhang die Anzahl der "Organisationseinheiten" (hab gerade Wortfindungsstörungen :D), also z.B. 56CU vs 48SM des GA104.
Wo die Performance herauskommt bleibt natürlich abzuwarten...
Er sagt "It's the second biggest die. Should be bigger than GA104". Das macht mMn nur Sinn wenn er die physische Größe meint. Sonst hätte er nicht explizit "die" gesagtDenke ich auch, wenn er Einheiten meinte hätte er Chip gesagt.
Berniyh
2020-09-03, 17:25:35
Interessanter ist ohnehin folgendes:
Sollte das stimmen, wäre die Apple-Theorie vom Tisch und 52-56CUs nahezu gesetzt.
WENN das stimmt.
bei Navi 22 gehe ich auch nicht von einem Apple Chip aus. Alleine schon, weil der nahezu zeitgleich zu Navi 21 im Linux Kernel integriert wurde.
Das zielt in meinen Augen auf einen Launch mit 2 Chips dieses Jahr.
Oder zumindest mit relativ kurzem Abstand zwischen den beiden Chips.
In den folgenden Tweets versucht er verschiedene Device IDs unterschiedlichen Speichersorten zuzuordnen.
z.B. bei Navi 22:
73DF mit GDDR6
73c0-73c7 mit HBM2
Problem an der Sache ist, dass diese Auflösung zwei Interfaces auf einem Chip voraussetzt, was hier eigentlich ausgeschlossen wurde.
Genauer sogar auf jedem Chip (N21, N22, N23).
Sollte also AMD nicht völlig überraschend mit Chiplets oder einem revolutionären Interface daherkommen,
würde ich diesen Tweet in den Papierkorb werfen.
Interessanter ist ohnehin folgendes:
Sollte das stimmen, wäre die Apple-Theorie vom Tisch und 52-56CUs nahezu gesetzt.
WENN das stimmt.
Für ne 6800 hätte ich schon mehr als 60CUs gesehen. Die Chips auf der Xbox waren doch immer die c700 Chips mit wesentlich weniger Takt. Ich sehe die 52 und 56 CUs eher bei ner 6700xt bzw. non-XT.
Zudem: Warum zum Teufel sollte N21 kein HBM bekommen und die anderen Chips auf herkömmliche SIs zu setzen, ausschließen? Die Dinger fallen schließlich deutlich kleiner aus.
Und Bernih, lass doch bitte Apple außen vor.
Berniyh
2020-09-03, 17:45:43
Für ne 6800 hätte ich schon mehr als 60CUs gesehen. Die Chips auf der Xbox waren doch immer die c700 Chips mit wesentlich weniger Takt. Ich sehe die 52 und 56 CUs eher bei ner 6700xt bzw. non-XT.
Wieso? Die 5700 hat doch 40 CU. Würde also doch super passen, wenn eine 6700 wieder etwa 40 CU hätte, eine 6800 dann ca. 60 und 6900 eben 80.
dargo
2020-09-03, 17:49:29
Hatten wir das schon?
I have had just over 5 hours sleep in way over 48 hours now, trying to cover NVIDIA's launch of the new GeForce RTX 30 series graphics cards as much as I could.
But there is one story I wanted to sit down and make sure I wrote, and that was from an industry source who told me that post-launch there will be "no stock will be available till the end of the year". The first wave of cards is said to be small, very, very small -- possibly the smallest launch in many years.
Another source had something much more damning to say, but I want to flesh that out before I write it. For now, I'm being told stock will be extremely low for the next couple of months. Why? Samsung 8nm yields are unknown at this point, NVIDIA might not want to make too many before the yields improve.
They'd also want to wait and see what AMD does with its own RDNA 2 reveal, but different sources tell me AMD is on a roll with Ryzen and that "Big Navi will just drag them down". Wowzers. So now I really want to see how Big Navi goes -- and whether it can get anywhere close to the GeForce RTX 3080, let along their new BFGPU-powered GeForce RTX 3090
https://www.tweaktown.com/news/74915/exclusive-geforce-rtx-30-series-cards-tight-supply-until-end-of-year/index.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=tweaktown
Cyberfries
2020-09-03, 17:53:12
Für ne 6800 hätte ich schon mehr als 60CUs gesehen. Die Chips auf der Xbox waren doch immer die c700 Chips mit wesentlich weniger Takt. Ich sehe die 52 und 56 CUs eher bei ner 6700xt bzw. non-XT.
Bisschen früh für Verkaufsbezeichnungen, oder?
Bei N1x hat AMD eher versucht gerade Zahlen zu vermeiden, nach dem Vorbild könnte das ganze so kommen:
N21 80CU - 6900 XT
N21 72CU - 6900
N22 56CU - 6700 XT
N22 48CU - 6700
N23 32CU - 6500 XT
N23 28CU - 6500
Da könnte man dann noch N10 als 6600 und N14 als 6400/6300 einschieben. Natürlich alles reine Spekulation.
Aber ganz ehrlich, wen juckt, ob N22 dann 6700, 6600 oder ganz anders heißt? Namen sind auch nur Geräusche
Die Verkaufsbezeichnung kommt wie der Preis erst ganz zum Schluss.
Edit:
Hatten wir das schon?
Dass das den Leuten nicht langsam selbst zu albern wird?
Da wird monatelang behauptet nVidia wäre chancenlos, brächte nichts ordentliches, mit Müh und Not +1fps.
Jetzt sind die Karten vorgestellt, besser als erwartet, also treibt man die nächste Sau durchs Dorf.
Und wenns dann wegen gewaltiger Nachfrage zu Lieferproblemen kommt, fühlt man sich bestätigt.
siehe Klopapier
w0mbat
2020-09-03, 17:53:37
Kling nicht gut, sowohl für Nvidia als auch für AMD.
Der_Korken
2020-09-03, 18:06:38
Hm ... sollte ich mir vielleicht noch schnell ne 2080Ti für 450€ schießen? ;D
Bisschen früh für Verkaufsbezeichnungen, oder?
Bei N1x hat AMD eher versucht gerade Zahlen zu vermeiden, nach dem Vorbild könnte das ganze so kommen:
N21 80CU - 6900 XT
N21 72CU - 6900
N22 56CU - 6700 XT
N22 48CU - 6700
N23 32CU - 6500 XT
N23 28CU - 6500
Da könnte man dann noch N10 als 6600 und N14 als 6400/6300 einschieben. Natürlich alles reine Spekulation.
Aber ganz ehrlich, wen juckt, ob N22 dann 6700, 6600 oder ganz anders heißt? Namen sind auch nur Geräusche
Die Verkaufsbezeichnung kommt wie der Preis erst ganz zum Schluss.
Siehst du, ich sehe es ganz anders. Meinst du wirklich AMD war nicht informiert über Ampere?
6900XTX 96CUs bei 16 oder 24GB HBM2
6900XT 80CUs bei 16 GB HBM2
6900XL 72CUs bei 16 GB HBM2
6800XT 64CUs 320-Bit SI bei 10GB
6800XL 60CUs 320-Bit SI bei 10GB
6700XT 56CUs 256-Bit SI bei 8GB
6700XL 52CUs 256-Bit SI bei 8GB
Dino-Fossil
2020-09-03, 18:12:29
Nur gibt es keinerlei Hinweise auf Navi mit mehr als 80CU, oder?
Einzig Arcturus fliegt da noch irgendwo rum (und ist MIA, oder doch AWOL? :D), aber der dürfte recht sicher keine Gaming-GPU werden.
@dargo:
Kann man jede Menge reininterpretieren, aber was konkretes ist das nicht.
dargo
2020-09-03, 18:12:42
6900XTX 96CUs bei 16 oder 24GB HBM2
6900XT 80CUs bei 16 GB HBM2
6900XL 72CUs bei 16 GB HBM2
Zwei Salvages aus einer GPU? Ich weiß nicht. :uponder: Gabs das jemals außerhalb von Navi10? Ich glaube bei N10 hat AMD das mit der RX 5600XT nur gemacht weil der Abstand zu Navi14 zu groß war.
Cyberfries
2020-09-03, 18:15:32
Jetzt kommt der schon wieder mit seinen 96CUs.
Trotz mehrfacher Nachfrage habe ich immer noch keine Antwort bekommen auf die Frage, wo du die hernimmst.
Wenn Ampere eins gezeigt hat, dann dass bereits vor einem Jahr alle wichtige Chipdaten bekannt waren.
Und bereits vor einem Jahr wussten wir, dass N21 80CUs erhält.
Und jetzt bastelst du da ein Portfolio zusammen, bei dem Chips nur 12,5% auseinanderliegen.
Zwei Salvages aus einer GPU?....Gabs das jemals außerhalb von Navi10?
Navi 14 mit 5500 XT / 5500 / 5300 XT
Fiji mit Fury X / Fury Nano / Fury
Polaris 10 mit 570 / 580 / 590
Berniyh
2020-09-03, 18:17:31
Hatten wir das schon?
https://www.tweaktown.com/news/74915/exclusive-geforce-rtx-30-series-cards-tight-supply-until-end-of-year/index.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=tweaktown
Wenn die Probleme bei Samsung mit dem Yield so groß wären und man so gut wie keine Karten verkaufen könnte, dann würde man doch never ever die Karten bis zur 3080 so "günstig" anbieten (in Relation zu Turing bislang).
Zumindest nicht bis zum Launch von RDNA2.
Berniyh
2020-09-03, 18:20:12
Und bereits vor einem Jahr wussten wir, dass N21 80CUs erhält.
Sorry, aber das ist Quatsch. Vor einem Jahr wussten wir nichts über Navi 21 außer, dass es den Chip geben wird.
Wir wussten noch nicht mal, ob das der größte Chip ist oder nicht (lange wurde auf 3DC gemutmaßt, dass Navi 23 der größte Chip wird, d.h. die Rangfolge wäre gewesen Navi 23 > 21 > 22).
Die 80 CU schwirren im Netz in etwa seit Anfang des Jahres herum, frühestens evtl. Nov/Dez.
Zwei Salvages aus einer GPU? Ich weiß nicht. :uponder: Gabs das jemals außerhalb von Navi10? Ich glaube bei N10 hat AMD das mit der RX 5600XT nur gemacht weil der Abstand zu Navi14 zu groß war.
Gabs doch bereits in jeder Generation: v64, v56 7970, 7950 usw.
dargo
2020-09-03, 18:24:10
Navi 14 mit 5500 XT / 5500 / 5300 XT
Die 5500 gibts im Desktop nicht.
Fiji mit Fury X / Fury Nano / Fury
R9 Nano war schon etwas sonderbar, ITX-Format. Zudem war R9 Nano kein Salvage in dem Sinne, gleiche Menge CUs wie Fury X. Salvage heißt für mich beschnitten in den CUs. Selbst die RX 5600XT ist nicht bei den CUs weiter beschnitten im Vergleich zur 5700.
Polaris 10 mit 570 / 580 / 590
590 = Polaris 30, 570/580 sind Polaris 20.
Gabs doch bereits in jeder Generation: v64, v56 7970, 7950 usw.
Wo siehst du bei Vega 10 und Tahiti zwei Salvages? :confused:
Sorry, aber das ist Quatsch. Vor einem Jahr wussten wir nichts über Navi 21 außer, dass es den Chip geben wird.
Wir wussten noch nicht mal, ob das der größte Chip ist oder nicht (lange wurde auf 3DC gemutmaßt, dass Navi 23 der größte Chip wird, d.h. die Rangfolge wäre gewesen Navi 23 > 21 > 22).
Die 80 CU schwirren im Netz in etwa seit Anfang des Jahres herum, frühestens evtl. Nov/Dez.
Exakt. Die 96CUs auf 505mm^2 war das erste Gerücht, sollte allerdings der N23 aka NV-Killer sein.
Berniyh
2020-09-03, 18:28:15
Die 5500 gibts im Desktop nicht.
Stimmt, aber die 5500 XT ist Salvage. ;)
Cyberfries
2020-09-03, 18:28:48
Sorry, aber das ist Quatsch. Vor einem Jahr
Die 80 CU schwirren im Netz in etwa seit Anfang des Jahres herum, frühestens evtl. Nov/Dez.
Stimmt, mein Satz hätte lauten sollen:
Und bereits im letzten Jahr wussten wir, dass N21 80CUs erhält
Ein Stück weiter vorne habe ich das schonmal per Zitat gegenüber gedi bestätigt.
Der ignoriert das bloß, genau wie meine Nachfragen und geht weiter mit 96CUs hausieren.
590 = Polaris 30, 570/580 sind Polaris 20.
Kleinkariert sind wir auch gar nicht...
Die 5500 gibts im Desktop nicht.
OEMs sind auch Desktop, aber ich gebe dir Recht.
Dann fallen mir noch geschätzte 100 Oland-Varianten ein.
Exakt. Die 96CUs auf 505mm^2 war das erste Gerücht, sollte allerdings der N23 aka NV-Killer sein.
QUELLE?
Ich hab dir das Gegenteil bereits bewiesen.
Berniyh
2020-09-03, 18:30:00
Exakt. Die 96CUs auf 505mm^2 war das erste Gerücht, sollte allerdings der N23 aka NV-Killer sein.
Da die 505 mm2 aber recht wahrscheinlich Arcturus (welcher gesichert 128 CU hat) zugeordnet werden können würde ich auf die 96 CU nichts geben.
Wenn die Probleme bei Samsung mit dem Yield so groß wären und man so gut wie keine Karten verkaufen könnte, dann würde man doch never ever die Karten bis zur 3080 so "günstig" anbieten (in Relation zu Turing bislang).
Zumindest nicht bis zum Launch von RDNA2.
Warum, man muss doch die 5 Kärtchen unterbringen, wenn man nach RDNA2 keine mehr verkauft :whistle:
Da die 505 mm2 aber recht wahrscheinlich Arcturus (welcher gesichert 128 CU hat) zugeordnet werden können würde ich auf die 96 CU nichts geben.
Wie bereits erwähnt, das war so ziemlich das Erste, welches ich über RDNA2 in Erfahrung bringen konnte. Allerdings getarnt als N23
Cyberfries
2020-09-03, 18:53:04
Wie bereits erwähnt, das war so ziemlich das Erste, welches ich über RDNA2 in Erfahrung bringen konnte. Allerdings getarnt als N23
Lass stecken, ich hab deine "Quelle" gefunden: Freie Spekulationen von HOT aus dem Juli 2019:
Radeon 5300/400 -> P12 12nm Refresh
Radeon 5500(XT) -> P11 12nm Refresh
Radeon 5600(XT) -> N14
Radeon 5700(XT) -> N10
Radeon 5800(XT) -> N12 (64CUs, 7 DUV, RDNA1 (leider))
Radeon 59x0(XT) -> N21 (96CUs, 7 EUV, RDNA2, losless RT)
RT werden alle Navis können, nur wird es mit RDNA2 quasi verlustfrei gehen.
Im 2.HJ 2021 werden dann die ersten 5nm-GPUs ausgerollt.
Im Grunde ist das ähnlich, wie ich mir das zu Jahresanfang schon ausgemalt hatte. Nur, dass N10 nicht der 64 CU-Chip ist und die tatsächlich mit dem kleineren gestartet sind.
Die Nennung von 80CU findet sich Ende September 2019. So weit weg war ich mit meinem Jahr gar nicht:
Jede Menge fragwürdiges Spekulatius: (https://www.youtube.com/watch?v=lzJWS3gLOuw)
https://abload.de/img/mooreslawisdead17kif.jpg
Lass stecken, ich hab deine "Quelle" gefunden: Freie Spekulationen von HOT aus dem Juli 2019:
Die Nennung von 80CU findet sich Ende September 2019. So weit weg war ich mit meinem Jahr gar nicht:
Nö, war entweder auf videocardz oder guru3d. Such selbst
Locuza
2020-09-03, 19:11:01
Ich meinte das hier, der Typ hat ja auch die 80 CUs erwähnt
https://twitter.com/_rogame/status/1240224499158654978
Das kommt vom AMDs Treiberdateien.
Wenn AMD ganz lustig ist, könnten sie vielleicht Quatsch hinschreiben.
Die letzten Jahre haben die Einträge zu 99% gestimmt, aber scheinbar hat AMD die letzten Monate auch angefangen fake ID-Nummern bei Geräten zu verwenden, damit Dataminer und Leaker es nicht so einfach haben.
Ich würde bei N21 aber davon ausgehen, dass es passt.
Um das noch mal aufzugreifen: Laut dem User "Bondrew" ausm beyond3d sind es nicht (nur) 64 ROPs.
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-123#post-2144008
Wie ernst man den User nehmen kann, kann ich schlecht einschätzen. Aber dafür ist man hier im Speku-Forum und bei dem, was hier sonst noch an Quellen gepostet wird... ;)
Dem schließe ich mich mittlerweile auch an.
Mit RDNA2 wird es vermutlich 8 ROPs pro Backend geben und nicht mehr 4.
N21 hätte dann entsprechend 128 ROPs.
Eine andere Sache von rogames Tabelle sind die L2$-Partitionen.
Wie bei Navi10 oder Vega10 sollen es 16 sein.
Navi hat 16x256KiB für den L2$ verbaut, also insgesamt 4MB.
Die L2$-Partitionen hat AMD iirc mit den Speichercontrollern skaliert, also 16 würden gegen ein 384-Bit GDDR6-Interface sprechen.
Also entweder sind es 2048-Bit HBM2(e) oder gar 512-Bit GDDR6 mit weniger Partitionen pro MC.
Bei 80 Compute Units und 16 L2$-Partitionen erwarte ich das Navi21 die Kapazität verdoppelt.
Also 16x512KB = 8MB L2$.
Das kommt vom AMDs Treiberdateien.
Wenn AMD ganz lustig ist, könnten sie vielleicht Quatsch hinschreiben.
Die letzten Jahre haben die Einträge zu 99% gestimmt, aber scheinbar hat AMD die letzten Monate auch angefangen fake ID-Nummern bei Geräten zu verwenden, damit Dataminer und Leaker es nicht so einfach haben.
Ich würde bei N21 aber davon ausgehen, dass es passt.
Dem schließe ich mich mittlerweile auch an.
Mit RDNA2 wird es vermutlich 8 ROPs pro Backend geben und nicht mehr 4.
N21 hätte dann entsprechend 128 ROPs.
Eine andere Sache von rogames Tabelle sind die L2$-Partitionen.
Wie bei Navi10 oder Vega10 sollen es 16 sein.
Navi hat 16x256KiB für den L2$ verbaut, also insgesamt 4MB.
Die L2$-Partitionen hat AMD iirc mit den Speichercontrollern skaliert, also 16 würden gegen ein 384-Bit GDDR6-Interface sprechen.
Also entweder sind es 2048-Bit HBM2(e) oder gar 512-Bit GDDR6 mit weniger Partitionen pro MC.
Bei 80 Compute Units und 16 L2$-Partitionen erwarte ich das Navi21 die Kapazität verdoppelt.
Also 16x512KB = 8MB L2$.
Den GDDR6(x) würde ich bei BN aus der Rechnung nehmen, da die Dinger ganz einfach sackheiß werden. Die GPU ist schon relativ fett und einem besonderen PCB (12-Layer) habe ich zwecks BN nix vernommen. HBM ist ganz einfach viel einfacher zu kühlen, man hat mehr Platz auf dem DIE um entsprechend mehr Operatoren unterzubringen und zudem was ist teurer: Ein fettes PCB mit entsprechender Kühlung, oder aber ein Standard-PCB mit AMD-typischer Kikilala Kühlung?
Mein Traum wäre eh ne XTX mit ähnlicher Kühlung wie bei der v64 AiO, nur dass die Pumpe nicht an der GPU hängt, sondern am Radiator und dass an der Grafikkarte austauschbare in 1/4Zoll Anschlüsse vorhanden wären. Einbindung in ein Wakü-Kreislauf ohne Probleme möglich ohne Verlust der Garantie. Für mich wäre dies die perfekte Karte, für welche ich auch 2k ohne mit der Wimper zu zu Zucken, ausgeben würde!
Flinx
2020-09-03, 19:54:29
Kleine Frage ...
"N21 hätte dann entsprechend 128 ROPs."
Welche Vor- und Nachteile hätte das?
Platzbedarf?
Keine, denn es gibt nur das was die Fläche hergibt. Vorteile: Massive RT-Leistung, in MSAA und SSAA gute Performance und der Nachteil vielleicht dass der Anspruch ans NT etwas wächst
Locuza
2020-09-03, 21:11:58
Kleine Frage ...
"N21 hätte dann entsprechend 128 ROPs."
Welche Vor- und Nachteile hätte das?
Platzbedarf?
https://extreme.pcgameshardware.de/attachments/1019692-amd-rx-vega-laberthread-geo-pipecgcsw.jpg
Wenn die klassische 3D-Pipeline verwendet wird, werden erst einmal Geometrieberechnungen erledigt.
Danach wird der Datensatz auf die 2D Auflösung gerastert.
Ein Rasterizer kann bis zu 16 Roh-Pixel bei diesem Verarbeitungsschritt liefern, nachfolgend laufen Pixel-Shader drüber und ganz zum Schluss setzen die Raster Operations Pipelines (ROPs) das Bild mit den finalen Werten zusammen.
Rasterizer nenne ich mal das Pixel-Vorderteil und ROPs das Pixel-Hinterteil.
Polaris10 hatte vier Rasterizer und konnte wahrscheinlich 64 Pixel rastern, aber final nur 32 Pixel ausschreiben.
Aber in der Praxis kann ein Rasterizer auch nur im Optimalfall 16 Pixel liefern, ist das Dreieck klein, könnten es auch deutlich weniger als 16 Pixel pro Takt sein, entsprechend war das Ungleichgewicht vermutlich nicht so schrecklich.
Bei Nvidia kam manchmal der umgekehrte Fall vor, mehr ROPs als das Pixel-Frontend liefern konnte.
IIRC hat die 1060 GTX 48 ROPs, aber nur zwei GPCs die 32 Pixel rastern können, entsprechend ist das große Backend hauptsächlich überdimensioniert bzw. nutzlos.
ROPs sind auch für MSAA-Berechnungen zuständig.
Je größer das Pixel-Vorderteil und Pixel-Hinterteil, desto mehr Pixel kann man insgesamt berechnen.
Also der Vorteil sollte sich bei hohen Auflösungen zeigen, wo mehr einzelne Pixel gerastert werden müssen.
Der Nachteil ist die dafür nötige Fläche, denn 128 ROPs gibt es nicht umsonst.
Auch ein Grund, wieso AMD bei einigen Mainstream-Produkten dabei gespart hat und wenn sowieso nur 1080p hauptsächlich verwendet wird, dann ist der Flaschenhals vermutlich auch gering bis nicht-existent.
Navi21 scheint ein 1:1-Verhältnis aus Pixel-Frontend und Pixel-Backend zu haben.
Gipsel
2020-09-03, 21:53:22
Navi21 scheint ein 1:1-Verhältnis aus Pixel-Frontend und Pixel-Backend zu haben.Vermutlich, weil das genau wie bei RDNA1 an die Shader-Engines gekoppelt ist. Jede Shaderengine hat einen Rasterizer (16 Pixel/Takt) und 4 Render-Backends (1 RBE = 4 ROPs). Navi 10 hat 4 Shader-Engines, Navi 21 hat vermutlich 8.
Locuza
2020-09-03, 22:18:38
1:1?
128 Pixel pro Takt vom Rasterizer Frontend und 128 Pixel pro Takt aus dem Raster Backend.
Ein 1:1-Verhältnis, 128 Pixel in, 128 Pixel out.
Polaris10 war vermutlich 64 Pixel in, 32 Pixel out.
Navi10 ist bei 64 Pixel in and out.
Vermutlich, weil das genau wie bei RDNA1 an die Shader-Engines gekoppelt ist. Jede Shaderengine hat einen Rasterizer (16 Pixel/Takt) und 4 Render-Backends (1 RBE = 4 ROPs). Navi 10 hat 4 Shader-Engines, Navi 21 hat vermutlich 8.
Navi10 hat 2 Shader-Engines mit jeweils 2 Shader-Arrays:
https://www.pcgamesn.com/wp-content/uploads/2019/06/amd-navi-rdna-cache.jpg
Microsoft hat ein wenig mehr Details geliefert, was jetzt eine Shader-Engine ausmacht:
https://cdn.videocardz.com/1/2020/08/Xbox-Series-X-Slide12.jpg
Pro Shader-Engine kümmert sich eine Shader Processor Input Unit um zwei Shader-Arrays und den Parameter$ gibt es auch nur einmal pro SE.
Pro Shader-Array platziert AMD die ROPs, was dann zu deiner Ausführung passt.
4 RBEs (4 ROPs jeweils) führen zu 16 ROPs pro Shader-Array bzw. 32 pro Shader Engine.
Laut den extrahierten Treibereinträgen hat Navi21 4 Shader-Engines und 4 RBEs pro Shader-Engine:
https://m.3dcenter.org/dateien/abbildungen/AMD-Navi-21-maximale-Hardware-Konfiguration-laut-Linux-Treiber.png
Bei 4 ROPs pro RBE wie bisher, würde das zu insgesamt 64 ROPs führen.
Ich habe das auch so mal aufgezeichnet, weil ich dachte das AMD vielleicht wieder knausert, aber nach etwas Feedback scheint es wahrscheinlich das AMD das Renderbackend re-designed hat und jetzt 8 ROPs pro RBE verwendet.
Damit gäbe es 4x8 ROPs pro Shader-Engine = 32 ROPs und da N21 4 Shader-Engines hat, insgesamt 128 ROPs.
Gaming Ampere hat die ROPs jetzt auch vom MC entkoppelt und skaliert das pro GPC.
Jeder GPC hat zwei Renderbackends, jeweils mit 8 ROPs (7 GPCs = 112 Pixel in and out/clock)
Intel verwendet auch 8 ROPs pro RenderBackend bei Gen12/Xe LP.
Flinx
2020-09-03, 22:56:39
Herzlichen Dank für die Beschreibung an alle!
robbitop
2020-09-04, 11:29:36
Keine, denn es gibt nur das was die Fläche hergibt. Vorteile: Massive RT-Leistung, in MSAA und SSAA gute Performance und der Nachteil vielleicht dass der Anspruch ans NT etwas wächst
ROPs haben nichts mit raytracing zu tun.
unl34shed
2020-09-04, 11:59:24
Ist es ein gutes oder schlechtes Zeichen, dass kopite7kimi sein Account auf privat gestellt hat?
Nazar
2020-09-04, 12:19:39
Dass das den Leuten nicht langsam selbst zu albern wird?
Da wird monatelang behauptet nVidia wäre chancenlos, brächte nichts ordentliches, mit Müh und Not +1fps.
Jetzt sind die Karten vorgestellt, besser als erwartet, also treibt man die nächste Sau durchs Dorf.
Und wenns dann wegen gewaltiger Nachfrage zu Lieferproblemen kommt, fühlt man sich bestätigt.
siehe Klopapier
Wann hat das wer wo erzählt?
Es wird eher langweilig ständig diese unhaltbaren Unterstellungen und Behauptungen lesen zu dürfen, die sich selbst als Schwachsinn entlarven.
1 FPS... ernsthaft? :rolleyes:
Anderen Vorwürfe machen aber selber Öl ins Feuer gießen... :mad:
@angebliche Lieferengpässe
Bei den Lieferungen kann es auch genau umgekehrt sein.
Es gibt gar keine Engpässe und es wird nur deshalb geleakt, weil nVidia Big Navi fürchtet und vorher so viele Karten wie irgend möglich an den Mann bringen möchte!
Es gibt nichts besseres als einen angebli8chen Lieferengpass leaken zu lassen, um die Unentschlossen zu einem Kauf zu "drängen".
Da es "Leaks" sind kann man nV nicht mal Vorwürfe der unlauteren Marktbeeinflussung machen. Win-Win für nV würde ich sagen. :wink:
Dino-Fossil
2020-09-04, 12:36:30
Mal wieder bisschen BN Gerüchte und Linmoum aufgreifend:
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-123#post-2144008
Wie ernst man den User nehmen kann, kann ich schlecht einschätzen. Aber dafür ist man hier im Speku-Forum und bei dem, was hier sonst noch an Quellen gepostet wird... ;)
Der gute Bondrewd ist entweder ein Schaumschläger oder hat tiefere Einblicke, kann den jemand einschätzen?
Wenn er Recht hat, schaut es mit Big Navi in etwa so aus:
gut genug um es teilweise mit 3080/3090 aufzunehmen (da bleibt er aber recht unspezifisch "Kinda. Depends on how are they going to push the 'efficiency' angle".)
Allerdings läge der Fokus von AMD aktuell auf CPU/APU und maximal mobile GPUs (die kleineren Navi2x dies), so dass man für Big Navi nicht allzuviele Wafer opfern wird. Das korrespondiert evtl. zu dem kürzlich bei Tweaktown erschienenen Artikel, laut dem Big Navi AMD ausbremsen würde - dann wäre nicht damit gemeint, dass er schlecht performt, sondern dass sie zu wenig Waferkapazität haben und CPUs/APUs einfach mehr Geld in die Kasse spülen. Natürlich kann Tweaktown auch einfach von Bondrewd abgeschrieben haben, oder umgekehrt...
"Guaranteed CPU sales trump GPU gambling every time."
mobile RDNA2-Navi schätzt er vielversprechend ein
Ohne eine Einordnung von dem Typen natürlich nur Foren-Gerüchte...
mironicus
2020-09-04, 12:42:39
AMD hat einen Fertigungsvorteil durch 7 nm und gerade bei niedriger TDP dürfte die voll durchschlagen und somit eine echte Alternative darstellen gegenüber zukünftigen Ampere-Mobile GPUs. Durch NVidias Vordringen müßte AMD eventuell Big Navi günstiger verkaufen als zunächst gedacht, daher kann ich es mir durchaus vorstellen, daß AMD das High-TDP Rennen mit NVidia erst gar nicht mitmacht und lieber einen Chip im Bereich zwischen RTX 3070 und 3080 bringt.
Also z.B. ein Big Navi mit 16 Gigabyte für 599 Euro, 220-250 Watt TDP, 10-15% schneller als RTX 3070.
ROPs haben nichts mit raytracing zu tun.
Ich weiß, hier sind’s die ALUs. Hauptsache Blödsinn geschrieben, sorry
Der_Korken
2020-09-04, 12:59:02
Allerdings läge der Fokus von AMD aktuell auf CPU/APU und maximal mobile GPUs (die kleineren Navi2x dies), so dass man für Big Navi nicht allzuviele Wafer opfern wird. Das korrespondiert evtl. zu dem kürzlich bei Tweaktown erschienenen Artikel, laut dem Big Navi AMD ausbremsen würde - dann wäre nicht damit gemeint, dass er schlecht performt, sondern dass sie zu wenig Waferkapazität haben und CPUs/APUs einfach mehr Geld in die Kasse spülen.
Im Grunde ist das gar nicht so abwegig. Auf den gehypten 505mm² bekommt man fast 7 Zen2-Chiplets unter, die sich für tausende Euro als Eypc verkaufen lassen. Wenn also die Waferkapazität der Flaschenhals ist und nicht die Nachfrage, dann produziert man doch das, was pro Wafer den meisten Gewinn abwirft. Allein das macht in Augen die Phantasien von Riesen-Dies für Big Navi unwahrscheinlich.
Wobei man sagen muss, dass HBM unter diesen Voraussetzungen sogar doppelt gut wäre. Man spart nicht nur Energie ein, sondern auch Fläche auf dem 7nm-Wafer. 512bit SI PHYs würden ausgehend von N10 und Xbox wieviel Fläche kosten? 100mm²? Da spart AMD allein durch die kleineren HBM2-PHYs wahrscheinlich fast so viel Fläche ein, wie ein Zen2-Chiplet groß ist. Dieses ist u.U. für mehere hundert Euro wert. Der Interposer und Packaging ist dann relativ egal.
Ravenhearth
2020-09-04, 13:04:55
AMD hat einen Fertigungsvorteil durch 7 nm und gerade bei niedriger TDP dürfte die voll durchschlagen und somit eine echte Alternative darstellen gegenüber zukünftigen Ampere-Mobile GPUs. Durch NVidias Vordringen müßte AMD eventuell Big Navi günstiger verkaufen als zunächst gedacht, daher kann ich es mir durchaus vorstellen, daß AMD das High-TDP Rennen mit NVidia erst gar nicht mitmacht und lieber einen Chip im Bereich zwischen RTX 3070 und 3080 bringt.
Also z.B. ein Big Navi mit 16 Gigabyte für 599 Euro, 220-250 Watt TDP, 10-15% schneller als RTX 3070.
Wenn man die RTX 3080 erreichen kann und dafür auf 300W gehen muss, wird man das sicher tun. Dann kann AMD schließlich mehr Geld verlangen. 10% über 3070 bei 225W kann man auch mit einem Salvage abdecken.
Cyberfries
2020-09-04, 13:10:46
1 FPS... ernsthaft? :rolleyes:
Anderen Vorwürfe machen aber selber Öl ins Feuer gießen...
Verdeutlichung durch Übertreibung.
Da war mal von +35% oder weniger die Rede, mal von klar hinter Navi und völligem Flop, viele Stimmen die schlechte Erwartungen zu Ampere schürten.
Natürlich hat niemand von +1fps gesprochen, das war eine klare Übertreibung von der ich erwartet habe, dass sie durch ihre Höhe klar als solche erkennbar ist.
Bei den Lieferungen kann es auch genau umgekehrt sein.
Es gibt gar keine Engpässe und es wird nur deshalb geleakt, weil nVidia Big Navi fürchtet und vorher so viele Karten wie irgend möglich an den Mann bringen möchte!
Auch denkbar, doch “Fürchten“ nur wenn BigNavi wirklich stark wird.
Von möglichst vielen verkauften und bestellten Karten kann nVidia nur profitieren, das stimmt auf jeden Fall.
why_me
2020-09-04, 13:23:02
Mal wieder bisschen BN Gerüchte und Linmoum aufgreifend:
Der gute Bondrewd ist entweder ein Schaumschläger oder hat tiefere Einblicke, kann den jemand einschätzen?
Wenn er Recht hat, schaut es mit Big Navi in etwa so aus:
gut genug um es teilweise mit 3080/3090 aufzunehmen (da bleibt er aber recht unspezifisch "Kinda. Depends on how are they going to push the 'efficiency' angle".)
Allerdings läge der Fokus von AMD aktuell auf CPU/APU und maximal mobile GPUs (die kleineren Navi2x dies), so dass man für Big Navi nicht allzuviele Wafer opfern wird. Das korrespondiert evtl. zu dem kürzlich bei Tweaktown erschienenen Artikel, laut dem Big Navi AMD ausbremsen würde - dann wäre nicht damit gemeint, dass er schlecht performt, sondern dass sie zu wenig Waferkapazität haben und CPUs/APUs einfach mehr Geld in die Kasse spülen. Natürlich kann Tweaktown auch einfach von Bondrewd abgeschrieben haben, oder umgekehrt...
"Guaranteed CPU sales trump GPU gambling every time."
mobile RDNA2-Navi schätzt er vielversprechend ein
Ohne eine Einordnung von dem Typen natürlich nur Foren-Gerüchte...
In einem weiteren Post schreibt er, dass der GPU ramp erst richtig anfängt, wenn die Wafer von Huawai ende Q4 frei werden (https://forum.beyond3d.com/posts/2151526/).
Klingt erst einmal logisch, aber release wird ja auch erst knapp vor dem 11.11 erwartet. Mit geringer Stückzahl könnte das bis Januar schon klappen, bis dann die Massenproduktion anläuft.
E: Auch interessant, etwas weiter unten:
"No, they're shipping everything not Cezanne and N23/24 this year.
Even then AIC N23 might just about make it."
Complicated
2020-09-04, 14:32:51
Wenn also die Waferkapazität der Flaschenhals ist und nicht die Nachfrage, dann produziert man doch das, was pro Wafer den meisten Gewinn abwirft. Allein das macht in Augen die Phantasien von Riesen-Dies für Big Navi unwahrscheinlich.
Ich glaube Nvidia hat AMD hier eine "Zwickmüle" gestellt mit dem großen Preisunterschied zwischen RTTX 3080 und RTX 3090. AMD wollte sicherlich die Nachfrage für die große GPU über einen hohen Preis gering halten. Wenn Sie jetzt an der RTX 3080 gemessen werden, können sie den Preis maximal so weit erhöhen wie das Preis-/Leistungsverhältnis es zuläßt oder sie bekommen schlechte Presse. Die Zwickmühle ist, dass Big Navi womöglich dann nicht lieferbar ist für alle Interessenten, wenn man auf der Linie liegt.
Da war mal von +35% oder weniger die Rede, mal von klar hinter Navi und völligem Flop, viele Stimmen die schlechte Erwartungen zu Ampere schürten.
Ich kann mich an relativ ernüchternde ~+45% ohne DLSS und RT erinnern.
Das es scheinbar wesentlich mehr wird, ist doch super. (freue mich auf Tests)
Viele fürchteten nur eine erneute Preiserhöhung die das Performance+ "auffrisst".
Das ist, außer eventuell bei den 3090 (Customs), aber nicht passiert.
Dafür ist abseits derer leider das momentane Speicherangebot ernüchternd.
Ohne ne 3080 20Gb merklich unter 1K, ist NV für mich uninteressant.
(die 3070 ist mir zu klein und die 3090 ist verhältnismäßig zu teuer/unvernünftig, aber geil find ich sie irgendwie ^^ )
NV hat gezeigt. Jetzt will ich möglichst bald AMDs sehen :freak:
M.f.G. JVC
dargo
2020-09-04, 14:51:19
Verdeutlichung durch Übertreibung.
Da war mal von +35% oder weniger die Rede, mal von klar hinter Navi und völligem Flop, viele Stimmen die schlechte Erwartungen zu Ampere schürten.
Damit war man gar nicht mal so weit weg. Keiner hätte ahnen können, dass Nvidia die Leistungsklassen verschiebt und gleichzeitig die Leistungsaufnahme erheblich erhöht.
Dino-Fossil
2020-09-04, 15:07:43
AMD's virales Marketing scheint anzufahren:
https://hothardware.com/news/amd-big-navi-easter-egg-discovered-in-fortnite-map
Und wenn das stimmt, kommen bald substantielle Leaks:
https://twitter.com/coreteks/status/1301839482287796224
Der_Korken
2020-09-04, 15:12:22
549$ für 16GB klingt ja nicht besonders gut. Läuft wohl maximal auf 3070-Niveau hinaus, sonst könnte AMD deutlich mehr verlangen.
horn 12
2020-09-04, 15:19:13
RTX 3080 Kanpp dahinter bei 210 Watt Verbrauch...
Prüglelt man sie hoch auf 300+ Watt kommt man überhalb RTX 3080 raus, ca. 5 bis 10% mehr.
Doch Lisa Su spricht anders!
Die OC Karten überlässt man gegebenfalls den Boardpartner, falls jene daran interessiert sind.
Man will Effizienz und nicht die Absolute Performance halten.
why_me
2020-09-04, 15:19:22
Wird coreteks jetzt ernst genommen? Der lag AFAIK bei Ampere ja auch daneben.
prinz_valium_2
2020-09-04, 15:23:15
Als ob es nur $50 Aufpreis für 8GB mehr RAM gibt
Das sind mindestens $100. Eher mehr.
Dino-Fossil
2020-09-04, 15:24:51
Jo, scheinen nicht völlig zuverlässig zu sein.
N0Thing
2020-09-04, 15:30:07
Hatten wir das schon?
https://www.tweaktown.com/news/74915/exclusive-geforce-rtx-30-series-cards-tight-supply-until-end-of-year/index.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=tweaktown
Igor hat sich dazu auch geäußert:
https://www.igorslab.de/warum-die-geforce-rtx-3080-founders-edition-zum-start-am-17-09-2020-doch-etwas-knapp-werden-koennte-vorruebergehend/
Kurz gesagt, die Kühler der FE werden erst seit ca. 1 Monat produziert und dementsprechend fällt die erste Charge nicht so wahnsinnig groß aus. Die Grafikkartenpartner haben auch erst vor kurzem die notwendigen Infos bekommen, um ihre eigenen Designs erstellen zu können. Also kommt auch von deren Seite direkt zum Launch nicht die maximal mögliche Anzahl an Grafikkarten.
why_me
2020-09-04, 15:30:46
Am anderen ist möglicherweise mehr dran:
Right under your noses :) got to wonder what else we've already put out there that you just haven't discovered yet...
https://twitter.com/AzorFrank/status/1301859512136142848
Spielt von euch jemand Fortnite und will eine Schnitzeljagd machen? ;D
Complicated
2020-09-04, 16:25:07
Igor hat sich dazu auch geäußert:
https://www.igorslab.de/warum-die-geforce-rtx-3080-founders-edition-zum-start-am-17-09-2020-doch-etwas-knapp-werden-koennte-vorruebergehend/
Kurz gesagt, die Kühler der FE werden erst seit ca. 1 Monat produziert und dementsprechend fällt die erste Charge nicht so wahnsinnig groß aus. Die Grafikkartenpartner haben auch erst vor kurzem die notwendigen Infos bekommen, um ihre eigenen Designs erstellen zu können. Also kommt auch von deren Seite direkt zum Launch nicht die maximal mögliche Anzahl an Grafikkarten.
Wieso im Navi-Thread anstatt im RTX-Thread?
Der direkte Gegner der 3070 kommt dieses Jahr wohl nicht mehr, von daher erscheinen mir die 599$ für die kleinste Variante als relativ plausibel. Wer kauft noch ne 3070/3080, wenn er mehr, die gleiche Performance dafür bekommen kann. Mich würde dies sehr freuen
Berniyh
2020-09-04, 18:12:28
Der direkte Gegner der 3070 kommt dieses Jahr wohl nicht mehr, von daher erscheinen mir die 599$ für die kleinste Variante als relativ plausibel. Wer kauft noch ne 3070/3080, wenn er mehr, die gleiche Performance dafür bekommen kann. Mich würde dies sehr freuen
Wieso? Ich denke schon, dass die Navy Flounders Karten dieses Jahr noch aufschlagen.
Gerade die wären für das Weihnachtsgeschäft doch perfekt.
Allerdings läge der Fokus von AMD aktuell auf CPU/APU und maximal mobile GPUs (die kleineren Navi2x dies), so dass man für Big Navi nicht allzuviele Wafer opfern wird. Das korrespondiert evtl. zu dem kürzlich bei Tweaktown erschienenen Artikel, laut dem Big Navi AMD ausbremsen würde - dann wäre nicht damit gemeint, dass er schlecht performt, sondern dass sie zu wenig Waferkapazität haben und CPUs/APUs einfach mehr Geld in die Kasse spülen. Natürlich kann Tweaktown auch einfach von Bondrewd abgeschrieben haben, oder umgekehrt...
Ach komm … wer mit Big Navi als Massenprodukt gerechnet hat hat wohl eh nur vor sich hingeträumt.
Dieser Preisbereich (mutmaßlich 600-700€ aufwärts) kommt nur bei einem verhältnismäßig kleinen Kundenkreis überhaupt in Frage.
Big Navi würde insofern eh nie in wirklich signifikanter Stückzahl gefertigt.
Viel interessanter wäre die Betrachtung im Blick auf Navy Flounders, denn da kommen wir dann langsam in den Bereich der auch größere Stückzahlen bringt und damit wahrscheinlich auch deutlich mehr Wafer verschlingt als Sienna Cichlid.
Generell ist die Diskussion in meinen Augen immer viel zu sehr auf die Leistungsspitze fokussiert.
AFAIK kommt dieses Jahr nur die 6900er-Serie. Als XL mit 72 CUs und 16GB legt man sich praktisch mit der 3080 an. Die 3070 sollte man mit der GPU sicher im Griff haben
Flinx
2020-09-04, 19:11:05
Insider oder ...
LeStoffer said: ↑ They have info on Navi22, not Navi21 maybe?
Y E S
E
S
You'll hear the same perf target a few more times since N22/23/24 are AIB-only launches.
Bondrewd, 23 minutes ago
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-135
Cyberfries
2020-09-04, 19:14:45
Bei dem Tempo das AMD in der Vergangenheit vorgelegt hat, würde es mich auch nicht wundern, wenn N22 und N23 erst 2022 aufschlagen.
Kommt natürlich auf drauf an, wie sehr man jetzt bei N21 auf die Tube drückt.
Die einen sagen Mitte September Vorstellung und Oktober Marktstart, während weniger optimistische Stimmen erst von Mitte November ausgehen.
Die optimistischeren Stimmen sprechen auch von N22 kurz danach und N23 ganz knapp noch in diesem Jahr.
Das wird sich in den nächsten Wochen zeigen.
Es ist derzeit noch wahnsinnig still um Navi, da war um den vergangenen Jahreswechsel mehr los.
Dino-Fossil
2020-09-04, 19:18:07
Joah, Igor spekuliert mit viel Spekulatius (wobei er durchblicken lässt das er nix konkretes hat und die AIBs noch nix bekommen haben), dass Big Navi 275W bei 3070+ Perf bietet, aber mit 300W+ zur 3080 aufschließt.
Wäre allerdings eine "interessante" Skalierung.
Jedenfalls glaubt er nicht so recht dran, dass BN mit Ampere mithalten kann, aber das ist ja der generelle Tenor aktuell.
Dann stellt man Navi2 lieber mit Zen3 vor, um das ganze ein wenig zu kaschieren.
Bondrewd scheint aber eher der Meinung zu sein, dass sogar der nächst-kleinere Navi schon die 3070 angehen kann...
Jede Menge weihnachtliches Gebäck in diesem Spätsommer... :D
Der gute Igor war hinsichtlich AMD noch nie gut informiert. Er weiß eben so viel wie ich, nämlich nix
https://www.youtube.com/watch?v=lpTPzoBWR4Q
Bei Spekulatius nr.4 ...
(grob zusammengefasst)
BN kommt mit wahrscheinlich 275Watt und unter der 3080 heraus...
Bei ~300Watt (mit OC eben) sollte sie die 3080 packen...
Mit der 3090 wird sie sich nicht anlegen können.
Nochmal von mir alle "Gerüchte" zusammengefasst:
275Watt für die "XTX" - naja geht so ...
16Gb - es sind wahrscheinlich nicht mehr, passt aber perfekt...
HDMI 2.1 - haben eh beide, passt
Der Preis ........... ich tippe auf 699,- :biggrin: (außer sie hat mehr oder HBM2e)
(der Grund meiner Annahme? Die R7 7nm 300Watt + 16Gb HBM kostete 699.- und AMD will ja was für die treuen Fans liefern)
Sollte das so kommen, passt für mich BN mit 16Gb besser als die 3080 10Gb und beide werden warscheinlich ähnlich kosten ;)
M.f.G. JVC
Insider oder ...
LeStoffer said: ↑ They have info on Navi22, not Navi21 maybe?
Y E S
E
S
You'll hear the same perf target a few more times since N22/23/24 are AIB-only launches.
Bondrewd, 23 minutes ago
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-135
Bin gerade ein wenig confused?! Was ist bitte BN? N21 oder der NV-Killer N23? Rogame hat was rausgelassen, dass HBM2 für N21 confirmed wäre. Haben die uns alle hinters Licht geführt?
Rogame hat was rausgelassen, dass HBM2 für N21 confirmed wäre.
Haben die uns alle hinters Licht geführt?
Na das wäre n dicker Hund :biggrin:
Wenn sie HBM2 nehmen, fände ich das Erstens geil :eek: "habenwill"
und Zweitens würde ich eine höhere Performance erwarten als vermutet :smile:
Das einzige was ich Igor im Bezug auf AMD sicher glaube, ist der Verbrauch.
M.f.G. JVC
Shaft
2020-09-04, 19:57:09
Jetzt ist AMD drann.
Von mir aus etwas weniger Leistung, Verbrauch, Preis und dafür mehr Speicher.
Dieses warten.
Na das wäre n dicker Hund :biggrin:
Wenn sie HBM2 nehmen, fände ich das Erstens geil :eek: "habenwill"
und Zweitens würde ich eine höhere Performance erwarten als vermutet :smile:
Das einzige was ich Igor im Bezug auf AMD sicher glaube, ist der Verbrauch.
M.f.G. JVC
Aber! Wenn BN nix anderes ist als ne 56CU GPU angebunden an einem 512-Bit SI mit 15.5GBS bei 250W. Auch dieses Ding macht ne 2080TI platt. Performance leicht unter ner 3080, Customs allerdings drüber. Für die Spitze reicht es nicht, aber man braucht kein 525W Totschlagargument. Für 599 Teuronen - gekauft!
Und vor allem was wäre denn, wenn RT auf Nextgen Navi praktisch umsonst wäre. Ein bisschen CAS und kein Schwein braucht DLSS
Aber! Wenn BN nix anderes ist als ne 56CU GPU ....
Weiter habe ich nicht gelesen...
Diese Annahme ist absurd :freak:
Außer... die kostet nur ~444.- und hat 10Gb an 320Bit :wink: (das wäre die Xbox GPU)
M.f.G. JVC
AffenJack
2020-09-04, 20:09:17
Insider oder ...
LeStoffer said: ↑ They have info on Navi22, not Navi21 maybe?
Y E S
E
S
You'll hear the same perf target a few more times since N22/23/24 are AIB-only launches.
Bondrewd, 23 minutes ago
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion-2019.61042/page-135
Fangen wir jetzt an aus jedweden Foren x-beliebige User als Quellen zu nehmen? Dann können wir hier auch Horn als felsenfeste Quelle nehmen.
Ich lese seit Jahren b3d und Bondrewd hat sich da nie als irgendeine Person mit Quellen herausgestellt.
Weiter habe ich nicht gelesen...
Diese Annahme ist absurd :freak:
Außer... die kostet nur ~444.- und hat 10Gb an 320Bit :wink: (das wäre die Xbox GPU)
M.f.G. JVC
Darum habe ich Ampere Thread gefragt wieviel die 2080TI in 4K mit RT ohne DLSS in MC packt. Ich weiß, das die Xbone Next hier dauerhaft 60 FPS ausspuckt.
Und ja, ich sehe die 52 CUs der Xbone auf einem Level mit ner 3070 - mindestens. Die muss den OS-Krempel / Treiberlast nicht mit sich tragen. Vermutlich ist es eher 3090 Performance
Linmoum
2020-09-04, 20:28:09
Joah, Igor spekuliert mit viel Spekulatius (wobei er durchblicken lässt das er nix konkretes hat und die AIBs noch nix bekommen haben), dass Big Navi 275W bei 3070+ Perf bietet, aber mit 300W+ zur 3080 aufschließt.
Wäre allerdings eine "interessante" Skalierung.Bin erstaunt, dass er so einen Schwachfug überhaupt von sich gibt. Zwischen 3070 und 3080 liegen immer hin 30-40%. So viel Leistung mit 25W(+) herausholen. Aha.
Aber lustig, wie fast jeder denkt, dass die 3080 nur schwer erreichbar ist. Naja, irgendwann bald ist Weihnachten. Also vorgezogenes.
Weiter habe ich nicht gelesen...
Diese Annahme ist absurd :freak:
Außer... die kostet nur ~444.- und hat 10Gb an 320Bit :wink: (das wäre die Xbox GPU)
M.f.G. JVC
Außer man packt die GPU in 360mm^2 und knallt HBM2 dazu! Trotz HBM relativ billig und das P/L passt.
Ebenso dieses RTX i/o. Gibt es schon ewig und drei Tage. Kommt halt immer drauf an wo der Treiber seine Dinge auslagern darf! Hier, Gott sei Dank an 2NVMEs, aber zu 1000% nicht mit einer NVGPU
unl34shed
2020-09-04, 20:46:54
Außer man packt die GPU in 360mm^2 und knallt HBM2 dazu! Trotz HBM relativ billig und das P/L passt
Meinst du die 56CU GPU? Der Xbox Die ist doch gerade so groß, hat 320bit GDDR6, 8 Zen2 Kerne etc. Gut das IO ist wohl etwas kleiner als bei einer vollen GPU. Mit HBM wären das eher 250mm².
dargo
2020-09-04, 20:51:35
Joah, Igor spekuliert mit viel Spekulatius (wobei er durchblicken lässt das er nix konkretes hat und die AIBs noch nix bekommen haben), dass Big Navi 275W bei 3070+ Perf bietet, aber mit 300W+ zur 3080 aufschließt.
Wäre allerdings eine "interessante" Skalierung.
Die Lücke zwischen 3080 und 3070 ist diesmal ziemlich groß. Ich gehe davon aus, dass die 3080 ca. 45% schneller als die 3070 ist. Wenn BN also mit 275W 5% unter der 3080 landet ist es immer noch 3070+. ;) Insofern würde dann auch die Skalierung mit 300W auf die 3080 passen.
Außer man packt die GPU in 360mm^2 und knallt HBM2 dazu! Trotz HBM relativ billig und das P/L passt
Dann würde AMD aber vermutlich voll auf HBM setzen
und das ist eher unwahrscheinlich...
Klar, eine "5600M" 40CU mit 50Watt, gibt's ja auch mit 2 Staks HBM2 für Apple...(könnte ein Test gewesen sein?)
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/
Möglich ist vieles, aber wahrscheinlich, wenn auch wünschenswert, ist es nicht.
Ich bin aber zuversichtlich, dass uns AMD im relevanten Preissegment nicht hängen lässt ;)
Kompromisslose (Preis egal) max. Performance Käufer, sind aber mit NVs 3090 denke ich gut versorgt.
M.f.G. JVC
Bin erstaunt, dass er so einen Schwachfug überhaupt von sich gibt. Zwischen 3070 und 3080 liegen immer hin 30-40%. So viel Leistung mit 25W(+) herausholen. Aha.
Aber lustig, wie fast jeder denkt, dass die 3080 nur schwer erreichbar ist. Naja, irgendwann bald ist Weihnachten. Also vorgezogenes.
Mit 10GB gehst du auf ner GeForce mit RT trotz DLSS unter. Die FPS sind gut, die Frametimes machen allerdings gewaltige Wellen
Dann würde AMD aber vermutlich voll auf HBM setzen
und das ist eher unwahrscheinlich...
Klar, eine "5600M" mit 50Watt, gibt's ja auch mit 2 Staks HBM2 für Apple...
https://www.computerbase.de/2020-06/radeon-pro-5600m-hbm2/
Möglich ist vieles, aber wahrscheinlich, wenn auch wünschenswert, ist es nicht.
Ich bin aber zuversichtlich, dass uns AMD im relevanten Preissegment nicht hängen lässt ;)
M.f.G. JVC
Du hast bei vermutlich 250W annähernd 3080 Performance für 599$ bei 16GB! Was willst du mehr? Du drehst das PT auf 25% und landest über ner 3080. Wo ist das Problem? Du setzt das Ding unter Wasser und hast ne 3090 für dann 750€.
dildo4u
2020-09-04, 21:00:05
Welche neuen Games meinst du?Die einzige die in letzer Zeit negativ auffällt ist Vega.
https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/2/#abschnitt_mit_einer_ausnahme_gute_frametimes
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/2/#diagramm-death-stranding-3840-2160
dargo
2020-09-04, 21:05:46
Welche neuen Games meinst du?Die einzige die in letzer Zeit negativ auffällt ist Vega.
Vega10 hat einiges mit dem letzten Spielpatch zugelegt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12410597&postcount=49
Der Spieleentwickler hat die offenbar komplett vergessen. :freak: Bei der riesen Baustelle (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12414191&postcount=1435) verwundert mich das auch nicht wirklich.
Welche neuen Games meinst du?Die einzige die in letzer Zeit negativ auffällt ist Vega.
https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/2/#abschnitt_mit_einer_ausnahme_gute_frametimes
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/2/#diagramm-death-stranding-3840-2160
N10 war First-Gen. Und der Vergleich mit GCN verbietet sich. N2x tritt hier bedeutend breiter auf. Fette ALUs, RT, vermutlich gnadenloser Takt in einem Vergleich zum Konkurrenten fortschrittlichen Prozess. So oder so, das Ding rockt
dildo4u
2020-09-04, 21:19:01
Kann sein es ging um dein Kommentar das Ampere Frametime Probleme hat woher willst du das zu jetzigen Zeitpunkt wissen?
Es macht null Sinn das Entwickler nicht drauf achten das ihre Games auf dem Marktführer ordentlich laufen, das passiert mit nieschen Karten wie Vega.
Dino-Fossil
2020-09-04, 21:19:44
Ich lese seit Jahren b3d und Bondrewd hat sich da nie als irgendeine Person mit Quellen herausgestellt.
Gut zu wissen, dann sollte man das wohl eher (noch) skeptisch(er) betrachten.
Kann sein es ging um dein Kommentar das Ampere Frametime Probleme hat woher willst du das zu jetzigen Zeitpunkt wissen?
Es macht null Sinn das Entwickler nicht drauf achten das ihre Games auf dem Marktführer ordentlich laufen, das passiert mit nieschen Karten wie Vega.
Vega hast du ins Spiel gebracht. Gemessen an den Konsolen ist doch eher NV Niesche - you know?
dargo
2020-09-04, 21:22:57
Es macht null Sinn das Entwickler nicht drauf achten das ihre Games auf dem Marktführer ordentlich laufen, das passiert mit nieschen Karten wie Vega.
Was ist das denn wieder für ein Schwachsinnsargument? Dann könnte ich auch sagen warum sollen die Spieleentwickler Rücksicht auf eine 8GB 3070 nehmen wenn es eine 3080 10GB gibt? Was soll überhaupt dieser Quatsch mit harten Limits? Das gab es früher nicht, das gibt es heute nicht und das wird es auch nicht in Zukunft geben.
Was ist das denn wieder für ein Schwachsinnsargument? Dann könnte ich auch sagen warum sollen die Spieleentwickler Rücksicht auf eine 8GB 3070 nehmen wenn es eine 3080 10GB gibt? Was soll überhaupt dieser Quatsch mit harten Limits? Das gab es früher nicht, das gibt es heute nicht und das wird es auch nicht in Zukunft geben.
Danke
dargo
2020-09-04, 21:34:21
Zurück zum BigNavi... ich hoffe echt das Ding kommt mit 16GB. 12GB (bei 384Bit SI) fände ich zwar auch noch in Ordnung, 16GB fühlen sich aber besser an. Sofern es 16GB sind hoffe ich auch das AMD das 512Bit SI einigermaßen sparsam und platzsparend implementiert. Parallel zu damals mit Hawaii. Mit 14Gbps hätte man mit 896GB/s eine ordentliche Bandbreite. Und wenn ich das hier sehe dann kann 14Gbps GDDR6 gar nicht mehr so teuer sein.
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-4gbd6-dh-oc-a2199381.html?hloc=at&hloc=de
https://geizhals.de/powercolor-radeon-rx-5500-xt-axrx-5500xt-8gbd6-dh-oc-a2199372.html?hloc=at&hloc=de
Sind jetzt natürlich 1GB Chips. Bei 2GB könnte dies wieder etwas anders aussehen.
btw.
Aber schon geil... da gibt es eine RX 5500XT mit 8GB und Nvidia bringt eine "2080TI" ebenfalls mit 8GB. :facepalm:
DrFreaK666
2020-09-04, 23:02:02
...Und ja, ich sehe die 52 CUs der Xbone auf einem Level mit ner 3070 - mindestens. Die muss den OS-Krempel / Treiberlast nicht mit sich tragen. Vermutlich ist es eher 3090 Performance
Das war hoffentlich Sarkasmus
Welche neuen Games meinst du?Die einzige die in letzer Zeit negativ auffällt ist Vega.
https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/2/#abschnitt_mit_einer_ausnahme_gute_frametimes
https://www.computerbase.de/2020-07/death-stranding-benchmark-test/2/#diagramm-death-stranding-3840-2160
Lustigerweise Spiele mit der gleichen Engine :wink:
https://www.computerbase.de/2020-09/iron-harvest-benchmark-test/2/#abschnitt_ordentliche_frametimes_mit_ein_paar_ausreissern
https://www.computerbase.de/2020-08/project-cars-3-benchmark-test/2/#abschnitt_die_frametimes_sind_ordentlich_aber_mit_auf_und_ab
https://www.computerbase.de/2020-08/flight-simulator-benchmark-test/2/#abschnitt_die_frametimes_sind_immer_unruhig
https://www.computerbase.de/2020-06/desperados-3-benchmark-test/2/#abschnitt_bei_den_frametimes_liegt_amd_vorn
https://www.computerbase.de/2020-05/saints-row-the-third-remaster-benchmark-test/2/#abschnitt_die_frametimes_sind_generell_sehr_schlecht
https://www.computerbase.de/2020-06/valorant-benchmark-test/2/#abschnitt_je_nach_gpuarchitektur_gibt_es_unterschiedliche_frametimes
Von einer Vega-Schwäche kann man als nicht sprechen
just4FunTA
2020-09-04, 23:18:29
Da nvidia die hosen runtergelassen hat wann kann man wohl mit infos zu amds Karten rechnen.
unl34shed
2020-09-04, 23:24:02
Vermutlich nächste Woche, wenn die Ampere News etwas abflachen und bevor die Tests dan zum 17.(?) rauskommen.
Jetzt erstmal die eigenen Specs und Präsentation noch auf die Nvidia Karten anpassen.
AMD hat immer mindestens die doppelten Recheneinheiten bzw. Doppelte bis dreifache Rechenleistung gebracht in der Desktop Grafikkarte im Vergleich zur Konsole. Letztens gab es irgendwo einen Vergleich in einem Artikel.
Also wisst ihr was da kommt...
Cyberfries
2020-09-04, 23:45:59
Erzähl das mal der PS4 Pro.
Die hat gleich viele CUs (36) wie die RX480. Beide 2016.
Die xBox One X etwas später kam dann immerhin auf 40CUs.
reaperrr
2020-09-04, 23:57:02
AMD hat immer mindestens die doppelten Recheneinheiten bzw. Doppelte bis dreifache Rechenleistung gebracht in der Desktop Grafikkarte im Vergleich zur Konsole. Letztens gab es irgendwo einen Vergleich in einem Artikel.
Also wisst ihr was da kommt...
Im Vergleich zur PS5 würden dafür 80 CUs ja reichen, und die XSX ist viel aggressiver spezifiziert, als das bei der originalen XBOne der Fall war.
Ich hoffe ja auch, dass Takt und IPC-Steigerung vielleicht etwas höher als gedacht/befürchtet ausfallen, aber daran, dass RDNA2 jetzt plötzlich wie Ampere 10240 ALUs (128 je CU) oder 96(+) CUs aus dem Hut zaubert, glaube ich nicht.
maximus_hertus
2020-09-05, 00:07:52
Da nvidia die hosen runtergelassen hat wann kann man wohl mit infos zu amds Karten rechnen.
Da werden wir wohl noch 7-8 Wochen warten müssen.
Der 27.10. oder der 3.11. sind die heißesten Kandidaten.
Berniyh
2020-09-05, 00:10:19
AFAIK kommt dieses Jahr nur die 6900er-Serie. Als XL mit 72 CUs und 16GB legt man sich praktisch mit der 3080 an. Die 3070 sollte man mit der GPU sicher im Griff haben
Wenn man nur das Spitzenmodell launcht, dann legt man ja einen halben Paperlaunch hin und dann kann man sich das auch sparen.
Ne, wenn AMD noch irgendwie Grafikkarten dieses Jahr verkaufen will, dann müssen sie im Prinzip auch Navi 22 gleich mit vom Stapel lassen oder zumindest kurze Zeit nach Navi 21.
Dafür spricht auch, dass Navi 22 im Linux Kernel kurz nach Navi 21 integriert wurde.
Linmoum
2020-09-05, 00:31:10
Da werden wir wohl noch 7-8 Wochen warten müssen.
Der 27.10. oder der 3.11. sind die heißesten Kandidaten.CEO ist Lisa Su, nicht Hector Ruiz.
Erste Infos wird es natürlich nicht erst Ende Oktober geben. Der September ist noch lang und es gibt die ein oder anderen Zeitpunkte, an denen die Konkurrenz noch mal im Mittelpunkt stehen wird. Oder es gedenkt zu tun.
Davon ab lagen letztes Jahr zwischen der Vorstellung von Navi/Zen2 und dem Launch ganze fünf Wochen. Dinge (weit) im Voraus vorzustellen, ist mittlerweile Standard.
prinz_valium_2
2020-09-05, 07:13:51
Sehe ich das richtig?
RX5700 hat 41 Millionen Transistor je mm2 in N7 TSMC
Xbox Series X hat 42,5 Millionen Transistor je mm² in N7E TSMC
Die RTX 30X0 hat 45 Millionen Transistor je mm² in 8nm Samsung
Die in 7nm+ gefertigte Quadro hat aber 65 Millionen Transistor je mm² in N7+ TSMC
Soll RDNA2 denn jetzt in N7+, N7P oder N7E kommen?
horn 12
2020-09-05, 09:09:26
Da NV nun die Katze so gut wie aus dem Sack lies sollte doch etwas von AMD kommen
Weiss nicht warum die so hintern Berg warten ...
So schlimm wird die Karte nicht,- ausser NV hat Ihnen komplett den Preis verhunzt.
PS:
Nun, meine Sapphire Pulse 5700 sollte wohl noch 250 bis 275 Euro bringen
Dies wäre knapp die Hälfte was Big Navi kosten wird...
Sehe ich das richtig?
RX5700 hat 41 Millionen Transistor je mm2 in N7 TSMC
Xbox Series X hat 42,5 Millionen Transistor je mm² in N7E TSMC
Die RTX 30X0 hat 45 Millionen Transistor je mm² in 8nm Samsung
Die in 7nm+ gefertigte Quadro hat aber 65 Millionen Transistor je mm² in N7+ TSMC
Und Renoir hat 60+ Millionen Transistor je mm2 in N7 TSMC
Sehe ich das richtig?
RX5700 hat 41 Millionen Transistor je mm2 in N7 TSMC
Xbox Series X hat 42,5 Millionen Transistor je mm² in N7E TSMC
Die RTX 30X0 hat 45 Millionen Transistor je mm² in 8nm Samsung
Die in 7nm+ gefertigte Quadro hat aber 65 Millionen Transistor je mm² in N7+ TSMC
Soll RDNA2 denn jetzt in N7+, N7P oder N7E kommen?
Bei AMD wird jetzt alles im eigenen N7e kommen, bis der nächste Prozess soweit ist und das soll gerüchteweise ein angepasster N6 sein.
N7 HPC hat nicht soviel Packdichte, NV nutzt die Mobilvariante für AM100.
Berniyh
2020-09-05, 09:32:49
Man darf bei diesen Rechnungen nicht vergessen, dass unterschiedliche Komponenten unterschiedlich gut verkleinert werden.
Alleine daher kann man CPUs, APUs und GPUs in der Hinsicht nicht so gut vergleichen.
Berniyh
2020-09-05, 09:34:39
Bei AMD wird jetzt alles im eigenen N7e kommen, bis der nächste Prozess soweit ist und das soll gerüchteweise ein angepasster N6 sein.
Nein, AMD hat (irgendwann im Frühjahr) schon verlauten lassen, dass man mit TSMC an einem angepassten N5 Prozess arbeitet.
Zu N6 gibt es nach meinem Wissen keine Infos / Gerüchte, dass AMD den Prozess nutzen wird, auch wenn wir gerne darüber spekulieren (da es aus mancher Sicht einfach Sinn machen würde).
Hübie
2020-09-05, 09:37:09
Was Hübie und Hot hier von sich abgeben, zum fremdschämen. :usad:
Für mich sind es so aus, als wäre bei beiden Hersteller 2,5 GHZ Core Takt möglich. Deswegen vermutlich auch die höhen Out of the Box Watt Angaben. Ein Fan von 320W und mehr, bin ich wirklich nicht. Wenn da aber +100% rauskommt im vergleich zu den direkten Vorgänger könnte ich damit aber leben.
Wir sprechen uns ja bald wieder :D Igor hat in seinem neuen Video am Ende ein wenig die Spekulatius ausgepackt und momentan ist der Stand, dass Navi21 etwa 3070 bis 3080 Niveau sein soll. https://youtu.be/lpTPzoBWR4Q
lpTPzoBWR4Q
Nichts desto trotz warte ich auf die 20 GB Version der 3080 oder greife zu Navi, sollte die doch zwischen 3080 und 3090 liegen (was sicher nicht passieren wird, aber man darf ja hoffen).
Nein, AMD hat (irgendwann im Frühjahr) schon verlauten lassen, dass man mit TSMC an einem angepassten N5 Prozess arbeitet.
Zu N6 gibt es nach meinem Wissen keine Infos / Gerüchte, dass AMD den Prozess nutzen wird, auch wenn wir gerne darüber spekulieren (da es aus mancher Sicht einfach Sinn machen würde).
Erst N6, dann N5. Es gab Gerüchte, dass Rembrandt N6 ist. N5 kommt wohl erst bei Zen4 und Raphael, vielleicht bei N31 (das könnte ein Pipecleaner werden), das ist aber nicht sicher.
Hübie
Dieses Jahr noch Grafikkarte kaufen ist mMn ne schlechte Taktik.
Complicated
2020-09-05, 10:12:21
Erst N6, dann N5. Es gab Gerüchte, dass Rembrandt N6 ist. N5 kommt wohl erst bei Zen4 und Raphael, vielleicht bei N31 (das könnte ein Pipecleaner werden), das ist aber nicht sicher.
N6 ist erst nach N5 fertig. Wo ist denn dieses Gerücht zu Rembrandt N6 zu finden?
N6 ist erst nach N5 fertig. Wo ist denn dieses Gerücht zu Rembrandt N6 zu finden?
im Zen3-Thread irgendwo vergraben. Welcher Prozess vorher fertig ist ist ziemlich egal. Hier gehts ja auch im Kosten und Kapazitäten.
Complicated
2020-09-05, 10:13:53
Ich habe nix davon gelesen und verfolge den Thread.
Iscaran
2020-09-05, 10:34:47
Alle Gerüchte deuten doch bislang darauf hin daß die Konsolen Chips ca 1/2 big Navi sind.
(~260mm^2 - 360mm^2 (incl. CPU) vs 427mm^2 GPU only bzw. sogar 505 mm^2 (falls das nicht ausschliesslich CDNA ist).
Wenn ich mal ganz simplifiziert die Konsolen chips verdoppele bin ich bei >24 TFlops und mind. >80CUs
Ich bleib bei meiner alten Vorhersage daß in diese 427 mm^2 Die Sizes auch 96 CUs passen würden und 505 mm^2 auf jeden Fall.
Die 10xxx Shader bei Ampere sind ja auch nur "gefaked" wie jemand in einem anderen Topic (grad nicht zu Hand) schrieb könnte man erwarten daß diese "Verdoppelung" in FPS nur mit ca +40% Mehrleistung skalieren könnte.
https://twitter.com/IGPUOdyssey/status/1301718062572490753 :biggrin:
why_me
2020-09-05, 11:27:15
Wurde doch vom Chief AMD Architect of Gaming Solutions als Fake entlarvt
@AzorFrank
It's 12.5 inches silly, you're off by a half inch :P
mironicus
2020-09-05, 11:42:34
Das wäre nach der Zeichnung doch ein Chipletdesign. Ist AMD denn schon so weit? Ein 40 CU-Chiplet als Ausgangsbasis zu nehmen wäre schon gut.
davidzo
2020-09-05, 11:59:58
im Zen3-Thread irgendwo vergraben. Welcher Prozess vorher fertig ist ist ziemlich egal. Hier gehts ja auch im Kosten und Kapazitäten.
Das war in dem Thread pure Spekulation/Wunschdenken. Offiziell hat sich AMD schon sehr früh auf 5nm committed und zwar noch bevor 6nm zur verfügung stand. Dass es jetzt n5e wird und man noch ne weile mit n7e weiter macht passt da nur ins bild einer sehr langfristigen prozessroadmap. Wahrscheinlich hatte man schon die tools, libraries und IPLizenzen für 5nm gekauft als 6nm auftauchte, wozu soll man also vom Plan abweichen wenn es nur für zeitliche Verzögerungen sorgt und man mit n7e fast dieselbe dichte und leistung hin bekommt (siehe renoir).
6nm ist ein Prozess für spätentschlossene, es gilt als gesichert das Intel davon den Löwenanteil nehmen wird, nicht jedoch AMD.
Das wäre nach der Zeichnung doch ein Chipletdesign. Ist AMD denn schon so weit? Ein 40 CU-Chiplet als Ausgangsbasis zu nehmen wäre schon gut.
:upicard:
Das ist Medienkometenztraining, du willst das doch nicht allen ernstes hier nüchtern diskutieren?
mironicus
2020-09-05, 12:11:54
Das nehme ich absolut ernst, diese Zeichnung ist ab jetzt meine Diskussionsgrundlage über Big Navi. RDNA2 = Zen2 = Chipletdesign. :D
reaperrr
2020-09-05, 13:39:10
Sehe ich das richtig?
RX5700 hat 41 Millionen Transistor je mm2 in N7 TSMC
Xbox Series X hat 42,5 Millionen Transistor je mm² in N7E TSMC
Die RTX 30X0 hat 45 Millionen Transistor je mm² in 8nm Samsung
Die in 7nm+ gefertigte Quadro hat aber 65 Millionen Transistor je mm² in N7+ TSMC
Soll RDNA2 denn jetzt in N7+, N7P oder N7E kommen?
N7P oder N7E, N7+ ist wahrscheinlich tot (A100 wird auch nicht in N7+ gefertigt!).
Zu den Transistordichten, das wird massiv durch den Flächenanteil von analogen Interfaces wie z.B. dem Speicherinterface verfälscht, weil die seit 28nm nicht mehr mit den Prozessen skaliert haben und erst mit N5 erstmals wieder eine höhere Packdichte in diesem Bereich kommen soll.
Heißt zwangsläufig, je höher der Anteil der Interfaces an der Gesamtfläche, desto geringer die MTr/mm².
(G)A100 hat die kleineren/dichteren HBM-Interfaces und verdammt viel Logik- und SRAM-Transistoren, da fällt die Packdichte automatisch höher aus.
N21 wird vermutlich nur bei ~45-50 MTr/mm² rauskommen, wegen des breiten GDDR6-SIs.
Zu guter letzt werden die Transistormengen von den Herstellern auch nicht immer einheitlich gezählt, oder halt mal aus Gründen der Taktbarkeit bewusst weniger dicht gepackt.
Leonidas
2020-09-05, 13:53:15
Ist es ein gutes oder schlechtes Zeichen, dass kopite7kimi sein Account auf privat gestellt hat?
Nix davon zu sehen. Er redet schon über "Hopper".
Bin erstaunt, dass er so einen Schwachfug überhaupt von sich gibt. Zwischen 3070 und 3080 liegen immer hin 30-40%. So viel Leistung mit 25W(+) herausholen. Aha.
War auch meine erste Reaktion. Allerdings sagt sein exakter Wortlaut nicht aus, wieviel BN gegenüber der 3070 besser sein soll. Wenn BN bereits +25% auf die 3070 drauflegt, dann könnte man mit Draufknüppel tatsächlich die 3080 (knapp) erreichen.
dargo
2020-09-05, 14:13:47
Da brauchst du nix draufknüppeln. Das kommt automatisch mit den Customs. ;)
Dural
2020-09-05, 14:26:39
Was für drogen nehmt ihr? Die 3080 ist 120% schneller als die 5700xt
N21 vs ga104 läuft es hinaus.
why_me
2020-09-05, 14:31:34
Ja, sicher doch :comfort2:
abwarten würde ich sagen, über BN wissen wir immer noch so gut wie nichts... :rolleyes::facepalm:
Linmoum
2020-09-05, 14:35:42
Was für drogen nehmt ihr? Die 3080 ist 120% schneller als die 5700xt
N21 vs ga104 läuft es hinaus.GA104 darf sich mit N22 rumprügeln.
Achill
2020-09-05, 14:59:50
[..]
War auch meine erste Reaktion. Allerdings sagt sein exakter Wortlaut nicht aus, wieviel BN gegenüber der 3070 besser sein soll. Wenn BN bereits +25% auf die 3070 drauflegt, dann könnte man mit Draufknüppel tatsächlich die 3080 (knapp) erreichen.
Was ist draufknüppeln? Also wenn BN wie die 3080 auch bei ~320W landet dann ist dies schon viel für 7N* - die Energiedichte muss man erstmal gekühlt bekommen.
Ich brauche die aktuelle Entwicklung nicht. Mir reicht es, wenn ich selbst OC machen kann ... Zur Erinnerung, aktuelle Entwicklung bei NV:
1070: 150W | 2070: 175W | 2070S: 215W | 3070: 220W
1080: 180W |2080: 215W | 2080S: 250W | 3080: 320W
1080TI: 250W |2080TI: 250W | - | 3090: 350W
Leonidas
2020-09-05, 15:02:53
In der Tat, keine gute Entwicklung. Meine persönlichen Kaufgegenstände sind diese 300W-Boliden auch nicht.
dargo
2020-09-05, 15:27:31
@Achill
Die 2080TI hat keine 250W sondern knapp 280W. Jedenfalls die FE.
mironicus
2020-09-05, 15:30:31
Die offizielle Referenz-Spezifikation von NVidia sagt 250 Watt. Die FE hat 260 Watt.
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/
aufkrawall
2020-09-05, 15:38:56
Scheint nur nicht so ganz der Wahrheit zu entsprechen?
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-founders-edition/31.html
dargo
2020-09-05, 15:42:24
Die offizielle Referenz-Spezifikation von NVidia sagt 250 Watt. Die FE hat 260 Watt.
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/
Beim Marketing vielleicht.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/4/#abschnitt_messung_der_leistungsaufnahme
https://www.igorslab.de/nvidia-geforce-rtx-2080-und-rtx-2080-ti-im-test-gaming-turing-benchmarks-und-neue-erkenntnisse/20/
Igor misst 279W, Wolfgang 277W im Schnitt von drei Spielen.
Was für drogen nehmt ihr?
Nur die Roten, die Grünen sind gefährlicher so mein Eindruck.
Achill
2020-09-05, 15:45:00
[..]
1070: 150W | 2070: 175W | 2070S: 215W | 3070: 220W
1080: 180W |2080: 215W | 2080S: 250W | 3080: 320W
1080TI: 250W |2080TI: 250W | - | 3090: 350W
Ich habe einfach die Zahlen von techpowerup (z.B. 2080TI (https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305)) genommen, mir ging es nicht um besonders hohe Genauigkeit sondern nur darum, die Tendenz zu zeigen.
--
Edit: Flasche URL
prinz_valium_2
2020-09-05, 16:16:07
N7P oder N7E, N7+ ist wahrscheinlich tot (A100 wird auch nicht in N7+ gefertigt!).
Zu den Transistordichten, das wird massiv durch den Flächenanteil von analogen Interfaces wie z.B. dem Speicherinterface verfälscht, weil die seit 28nm nicht mehr mit den Prozessen skaliert haben und erst mit N5 erstmals wieder eine höhere Packdichte in diesem Bereich kommen soll.
Welcher Prozess ist es dann bei A100?
Schon klar, dass größere GPUs leichter auf mehr Transistoren pro mm², aber das sind 20 Millionen.
Cyberfries
2020-09-05, 16:24:56
Neben den schlecht skalierenden Bestandteilen, die die Transistorendichte verringern, spielt auch die Taktfreudigkeit mit rein.
Zu A100 wurde hier öfters mal "7nm mobile" genannt, ist laut CBS DUV.
Bei Navi 2x ist ja noch nicht mal sicher obs ein EUV-Prozess wird oder es sogar beim gleichen Prozess wie Navi 1x bleibt.
Ein gutes Stück besser als der Vorgänger sollte man doch hoffentlich sein, wenn selbst nVidia in 8nm eine höhere Dichte erreicht.
DrFreaK666
2020-09-05, 16:27:19
Könntet ihr wieder zurück zu AMD wechseln? Oder habt ihr euch aus Versehen im Thread geirrt?
Hier geht's weiter ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12415207#post12415207
Iscaran
2020-09-05, 16:38:55
Wurde dieses Video schon gelinked ? (hab die letzten Seiten nicht alles gelesen)
https://www.youtube.com/watch?time_continue=2&v=aPyUDAR3J7M&feature=emb_logo
Interessante Analyse - nur schade, daß er den Graph oben Abschneidet.
Bei Minute 9 ist dann die Zusammenfassung der aktuellen AMD-Entwicklungen und Sprünge.
Wenn man das extrapoliert und sagt die versprochenen +50% Perf/W wie bei RDNA1 welche dann eigentlich eher so +30% waren nimmt und dies nach oben Projiziert auf 80 CU
Dann landet man knapp unterhalb der Grünen marke. Je nachdem also wie gut Takt/Skalierbarkeit, CU-Anzahl usw. aussehen liegt RDNA2 mindestens im Bereich einer 3080.
nairune
2020-09-05, 17:19:33
RDNA1 waren mehr als 30% im Vergleich zu GCN.
Es kommt halt auf den Betriebspunkt an, da kann man sich die Zahlen zusammenlegen wie sie einem passen. Bei den jeweiligen Topmodellen (Vega 64 vs 5700 XT) sowie cut downs (Vega 56 vs 5700) kommen ~50% jeweils hin.
Das kommt einfach daher, dass Verbrauch/Performance exponentiell zunimmt, je höher man geht, das ist ja nun seit Jahrzehnten bekannt. Meine 5700XT läuft mit einem 135W Powerlimit und verliert dabei 5% Performance... (das sind nochmal +30% Effizienz)
Daher ist diese "50%"-Aussage einfach sehr sehr dünn (welcher Betriebspunkt gegen welchen?), außer dass man da eine Verbesserung erwarten darf. Alle Spekulationen und Videos, die einzig und allein darauf aufbauen, kann man sich schenken.
Dural
2020-09-05, 18:09:51
Ga104 ist bei ähnlichem verbrauch ca. 65% schneller als 5700xt... 390mm2 gegen 250mm2 chip.
Selbst wenn sie die 50% ereichen, was sie mit der selben architektur im selben prozess niemals erreichen, fehlt immer noch was.
why_me
2020-09-05, 18:13:40
Woher kommen die 65% jetzt schon wieder, hast du andere Quellen als wir? Oder schlagen da nur deine Drogen durch? :confused: :biggrin:
Hauwech
2020-09-05, 18:22:03
In der Tat, keine gute Entwicklung. Meine persönlichen Kaufgegenstände sind diese 300W-Boliden auch nicht.
Von nix kommt halt auch nix. Das die großen Sprünge durch neue Prozesse vorbei sind, ist doch schon länger klar.
Dural
2020-09-05, 18:22:56
Wenn man einen rechner bedienen könnte würde man selber drauf kommen...
Gibt genug performence qwellen, und bevor ein neunmal kluger ohne gehirn daher kommt, ich spreche von ga104 und nicht 3070.
dargo
2020-09-05, 18:23:57
Von nix kommt halt auch nix. Das die großen Sprünge durch neue Prozesse vorbei sind, ist doch schon länger klar.
Erzähl das Troyan. :ulol:
Linmoum
2020-09-05, 18:31:05
Selbst wenn sie die 50% ereichen, was sie mit der selben architektur im selben prozess niemals erreichenDu solltest den Mund weniger voll nehmen.
Gibt genug performence qwellen, und bevor ein neunmal kluger ohne gehirn daher kommt, ich spreche von ga104 und nicht 3070.Du sprichst von 2SM mehr, das ist vollkommen irrelevant. Die 3070 wird +-2080Ti-Performance bieten, also +50% auf eine 5700XT.
Jetzt noch irgendwelche Vergleiche zwischen RDNA und Ampere anzustellen natürlich auch völlig absurd. Die 3070 wird eh nur Rücklichter sehen demnächst. Nicht als einzige Karte.
why_me
2020-09-05, 18:31:24
Wenn man einen rechner bedienen könnte würde man selber drauf kommen...
Gibt genug performence qwellen, und bevor ein neunmal kluger ohne gehirn daher kommt, ich spreche von ga104 und nicht 3070.
Es gibt Performance quellen zum Vollausbau von GA104? Und den Verbauch kennen wir auch? Sorry, aber ich denke da sind viele nicht in der Lage ihren Rechner zu bedienen, wie du, könntest du diese Quellen verlinken?
[MK2]Mythos
2020-09-05, 18:50:28
Wenn man einen rechner bedienen könnte würde man selber drauf kommen...
Gibt genug performence qwellen, und bevor ein neunmal kluger ohne gehirn daher kommt, ich spreche von ga104 und nicht 3070.
Dural, jeder der mehr als nur singen und klatschen in der Schule hatte, kann sich denken dass ein 80CU Navi eher bei der 3080, als bei der 3070 landen wird. Was soll dein Getrolle hier? In einem Monat wird dir dein ganzer Blödsinn sowieso wieder vor die Nase gehalten. Halt doch mal den Ball flach.
Berniyh
2020-09-05, 18:57:47
Erst N6, dann N5. Es gab Gerüchte, dass Rembrandt N6 ist.
Dazu ist mir auch nichts bekannt. Ein Link wäre hilfreich.
Den Zen3 Thread lese ich auch.
N5 kommt wohl erst bei Zen4 und Raphael,
Nun, da würde ich nicht widersprechen.
vielleicht bei N31 (das könnte ein Pipecleaner werden), das ist aber nicht sicher.
Eher CDNA2. So war es zumindest bei N7 (Vega 20) bzw. N7P/N7E (Arcturus/CDNA1).
Für CDNA2 passt N5E (oder wie auch immer das genannt wird) wahrscheinlich auch gut in die Timeline, da AMD ja demnächst einiges an Custom-Designs für einige Super-Computer fertigen muss, für welche ja Chiplets auf Basis von CDNA2 eine Option sein könnten. (CDNA2-basiert gilt in jedem Fall als recht wahrscheinlich)
Ist aber ziemlich Spekulation.
Wiseman
2020-09-05, 19:00:22
Mythos;12415321']Dural, jeder der mehr als nur singen und klatschen in der Schule hatte, kann sich denken dass ein 80CU Navi eher bei der 3080, als bei der 3070 landen wird. Was soll dein Getrolle hier? In einem Monat wird dir dein ganzer Blödsinn sowieso wieder vor die Nase gehalten. Halt doch mal den Ball flach.
Der war gut (hehehe).
Wenn sich ne 80CU mit ner 68SM GPU herumschlagen müsste, dann wäre ich auch enttäuscht, außer man drückt das Ding auf 250W.
SKYNET
2020-09-05, 21:18:28
Mythos;12415321']Dural, jeder der mehr als nur singen und klatschen in der Schule hatte, kann sich denken dass ein 80CU Navi eher bei der 3080, als bei der 3070 landen wird. Was soll dein Getrolle hier? In einem Monat wird dir dein ganzer Blödsinn sowieso wieder vor die Nase gehalten. Halt doch mal den Ball flach.
aber auch nur wenn die bandbreite verdoppeln... hoffe ja wirklichst innig, das die gerüchte zum 96CU navi stimmen... aber der brauch dann auch seine 1.2TB/s min. beim speicher, um die leistung auch ausfahren zu können... das teil könnte sich dann wirklich mit der 3090 battlen... am besten grad mit 32GB, nur um NV den da zu machen: :ufinger:
Tarkin
2020-09-05, 21:25:10
Ga104 ist bei ähnlichem verbrauch ca. 65% schneller als 5700xt... 390mm2 gegen 250mm2 chip.
Selbst wenn sie die 50% ereichen, was sie mit der selben architektur im selben prozess niemals erreichen, fehlt immer noch was.
Was für ein BS? Träumst du?
GA104 ist die 3070er und die ist laut nVidia etwa gleich schnell wie eine 2080 TI (bis zu vermutlich!)
Laut PCGH ist die 2080 TI (FE) 38% schneller als NAVI 10 in 4k.... und bis 48% schneller bei niedrigen Auflösungen. Aus welchem Raum Zeit-Kontinuum du 65% her nimmst, weiß ich nicht... jedenfalls nicht aus unserem.
Es folgt ein IQ Test: Wenn die GPU der Xbox Series X mit 52(56) CUs (bei 360qmm Die-Size inkl. 8-Core Zen 2 CPU), ~1,825GHz, 3328 CUs, 12,2TFlops und 130-140W ungefähr bzw. eine höhere Geschwindigkeit als ein 2080 Super erzielt ... meinst du nicht, dass AMD mit einer RDNA2 GPU mit sagen wir vollen 56 CUs und ca. 280qmm bei 2GHz, LOCKER 2080 TI Geschwindigkeit bei 220W erzielen kann? ... von einer 2080 Super sind es nur 20% auf eine 2080 TI.
2080 Super hat knapp 11 Tflops, eine 2080 Ti erreicht 13,5. Eine RDNA2 GPU mit 2GHz und 56 CUs hätte ~ 14,5!
Also ich meine, das ist mehr als realistisch. Es würde ORDENTLICH was schief laufen, wenn es nicht so wär IMO.
Und außerdem passt es auch zur Aussage seitens AMD bzgl. RDNA2 mit +50% Energieeffizienz über RDNA1. (außer sie lügen sich in die Tasche wie nVidia mit 1.9x Energieeffizienz über Turin - haha- selten so gelacht.) Kann sich Kevin-Horst und Jacquelin-Chantal zur neuen Geforce auch gleich noch ein 200,- Netzteil besorgen weil sich ihre China-Böller in den Orbit verabschieden :biggrin::freak:
aber auch nur wenn die bandbreite verdoppeln... hoffe ja wirklichst innig, das die gerüchte zum 96CU navi stimmen... aber der brauch dann auch seine 1.2TB/s min. beim speicher, um die leistung auch ausfahren zu können... das teil könnte sich dann wirklich mit der 3090 battlen... am besten grad mit 32GB, nur um NV den da zu machen: :ufinger:
Eine 96CUS GPU mit HBM2 wäre ohne Frage die Performancekrone. Zudem gab es doch ein Gerücht aus 2019, dass RT auf RDNA2 praktisch umsonst wäre. Dazu CAS - ähm NV ist rasiert!
Der_Korken
2020-09-05, 21:26:17
Woher kommen die 65% jetzt schon wieder, hast du andere Quellen als wir? Oder schlagen da nur deine Drogen durch? :confused: :biggrin:
Er geht von 2080Ti +10% für GA104 aus.
Mythos;12415321']Dural, jeder der mehr als nur singen und klatschen in der Schule hatte, kann sich denken dass ein 80CU Navi eher bei der 3080, als bei der 3070 landen wird. Was soll dein Getrolle hier?
Wenn man einfach davon ausgeht, dass die CUs von Big Navi 1:1 skalieren, dann ja, wobei es für die 3080 mehr als +100% bräuchte. Nach der Zurückhaltung von AMD und den Gerüchten von Igor, dass die 3080 nicht erreicht wird, wäre ich hier erstmal skeptisch. Die Vega-Specs lasen sich am Anfang auch ganz gut, am Ende war der Chip eine Luftpumpe, weil die 64 CUs viel schlechter ausgelastet wurden als die 36 bei Polaris.
Wenn sich ne 80CU mit ner 68SM GPU herumschlagen müsste, dann wäre ich auch enttäuscht, außer man drückt das Ding auf 250W.
Was sind das denn für krude Vergleiche? Du hast schon mitbekommen, dass Nvidias SMs doppelt so viel Rohleistung wie die CUs bei AMD haben? Um mit den Flops/s auf GA104-Niveau zu kommen, bräuchte ein 80CU-Chip schon ~2,2Ghz Takt. Wenn RDNA2 mit nur 5120SPs auf 3080-Niveau kommt, wäre das ein ziemlicher Knaller imho.
Edit:
Was für ein BS? Träumst du?
GA104 ist die 3070er und die ist laut nVidia etwa gleich schnell wie eine 2080 TI (bis zu vermutlich!)
Laut PCGH ist die 2080 TI (FE) 38% schneller als NAVI 10 in 4k.... und bis 48% schneller bei niedrigen Auflösungen. Aus welchem Raum Zeit-Kontinuum du 65% her nimmst, weiß ich nicht... jedenfalls nicht aus unserem.
Wo hast du denn die 38% her? Im Bench-Marathon von PCGH liegt die 2080Ti am Ende 48% im Gesamtrating vorne: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/
Einen separaten 4K-Index habe ich dort leider nicht gesehen.
Bei CB sind es 40%, 46% und 53% für die 2080Ti FE auf die 5700XT in 1080p, 1440p und 2160p.
Edit2: Kann es sein, dass du nur den Anno-Benchmark genommen hast? Anders kann ich mir nicht erklären, wie du in 4K auf 38% kommen willst.
dargo
2020-09-05, 21:30:01
aber auch nur wenn die bandbreite verdoppeln... hoffe ja wirklichst innig, das die gerüchte zum 96CU navi stimmen... aber der brauch dann auch seine 1.2TB/s min. beim speicher, um die leistung auch ausfahren zu können...
Aha... und das weißt du genau von welcher Glaskugel? Normalerweise sollte eine neuere Generation auch eine Verbesserung in der Bandbreiteneffizienz bringen. Und diese sieht man schon bei der 3070 wenn sie die Performance der 2080Ti erreicht. Eine 2080TI hat 616GB/s Bandbreite, eine 3070 sofern die 16Gbps stimmen nur 512GB/s.
Um mit den Flops/s auf GA104-Niveau zu kommen, bräuchte ein 80CU-Chip schon ~2,2Ghz Takt.
Was rechnest du da wieder für einen Stuss zusammen? Das wird ja immer absurder hier. :freak:
Linmoum
2020-09-05, 21:34:47
Nach der Zurückhaltung von AMD und den Gerüchten von Igor, dass die 3080 nicht erreicht wird, wäre ich hier erstmal skeptisch.Welche Zurückhaltung? Das dümmste, was AMD aktuell machen könnte, wäre schon jetzt irgendetwas zu präsentieren. Der Zeitpunkt dafür kommt frühestens mit den Reviews der FE, ergo in rund zehn Tagen. Zum Glück ist Raja nicht mehr da, der hätte wahrscheinlich schon zehnmal in irgendwelche Mikros etwas herausposaunt.
Zu Igors """Spekulation""" wurde ja schon genug gesagt. Die ist absurd und fernab der Realität. Wer immer noch glaubt, dass RDNA2 es, wenn überhaupt, nur mit Ach und Krach zu 3080-Performance schafft, der wird noch früh genug sein Wunder erleben.
Er geht von 2080Ti +10% für GA104 aus.
Wenn man einfach davon ausgeht, dass die CUs von Big Navi 1:1 skalieren, dann ja, wobei es für die 3080 mehr als +100% bräuchte. Nach der Zurückhaltung von AMD und den Gerüchten von Igor, dass die 3080 nicht erreicht wird, wäre ich hier erstmal skeptisch. Die Vega-Specs lasen sich am Anfang auch ganz gut, am Ende war der Chip eine Luftpumpe, weil die 64 CUs viel schlechter ausgelastet wurden als die 36 bei Polaris.
Was sind das denn für krude Vergleiche? Du hast schon mitbekommen, dass Nvidias SMs doppelt so viel Rohleistung wie die CUs bei AMD haben? Um mit den Flops/s auf GA104-Niveau zu kommen, bräuchte ein 80CU-Chip schon ~2,2Ghz Takt. Wenn RDNA2 mit nur 5120SPs auf 3080-Niveau kommt, wäre das ein ziemlicher Knaller imho.
Edit:
Wo hast du denn die 38% her? Im Bench-Marathon von PCGH liegt die 2080Ti am Ende 48% im Gesamtrating vorne: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/
Einen separaten 4K-Index habe ich dort leider nicht gesehen.
Bei CB sind es 40%, 46% und 53% für die 2080Ti FE auf die 5700XT in 1080p, 1440p und 2160p.
Edit2: Kann es sein, dass du nur den Anno-Benchmark genommen hast? Anders kann ich mir nicht erklären, wie du in 4K auf 38% kommen willst.
Du kennst die Specs von RDNA2? Dann erzähl mal... Zudem würde es mich sehr wundern, dass die aufgebohrte FP32-Unit in irgendeiner Weise AMD überrascht hätte. Du glaubst wohl wirklich, dass AMD nichts anderes ist, als irgendwelche Holzhacker, welches die GPUs aus den Bäumen schnitzen?
Der_Korken
2020-09-05, 21:44:54
Was rechnest du da wieder für einen Stuss zusammen? Das wird ja immer absurder hier. :freak:
Das Kompliment gebe ich gerne an dich zurück. :rolleyes:
Du kennst die Specs von RDNA2? Dann erzähl mal
Wo habe ich das behauptet? Du hast doch geschrieben "Wenn sich ne 80CU mit ner 68SM GPU herumschlagen müsste, dann wäre ich auch enttäuscht, außer man drückt das Ding auf 250W.". Wenn dann müsstest du uns erzählen, was die RDNA2-CUs können, damit 3080-Leistung für 80CUs "enttäuschend" wäre.
Das Kompliment gebe ich gerne an dich zurück. :rolleyes:
Wo habe ich das behauptet? Du hast doch geschrieben "Wenn sich ne 80CU mit ner 68SM GPU herumschlagen müsste, dann wäre ich auch enttäuscht, außer man drückt das Ding auf 250W.". Wenn dann müsstest du uns erzählen, was die RDNA2-CUs können, damit 3080-Leistung für 80CUs "enttäuschend" wäre.
Die Rechenpower ist ganz einfach höher. RDNA1 war diesbezüglich bereits äußerst effektiv, warum sollte sich dies nun ändern?
Zergra
2020-09-05, 21:57:27
Die Rechenpower ist ganz einfach höher. RDNA1 war diesbezüglich bereits äußerst effektiv, warum sollte sich dies nun ändern?
Weil der Chip nicht linear skaliert, deswegen werden wir auch keine 96CUs sehen.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
Tarkin
2020-09-05, 22:04:10
Er geht von 2080Ti +10% für GA104 aus.
Wenn man einfach davon ausgeht, dass die CUs von Big Navi 1:1 skalieren, dann ja, wobei es für die 3080 mehr als +100% bräuchte. Nach der Zurückhaltung von AMD und den Gerüchten von Igor, dass die 3080 nicht erreicht wird, wäre ich hier erstmal skeptisch. Die Vega-Specs lasen sich am Anfang auch ganz gut, am Ende war der Chip eine Luftpumpe, weil die 64 CUs viel schlechter ausgelastet wurden als die 36 bei Polaris.
Was sind das denn für krude Vergleiche? Du hast schon mitbekommen, dass Nvidias SMs doppelt so viel Rohleistung wie die CUs bei AMD haben? Um mit den Flops/s auf GA104-Niveau zu kommen, bräuchte ein 80CU-Chip schon ~2,2Ghz Takt. Wenn RDNA2 mit nur 5120SPs auf 3080-Niveau kommt, wäre das ein ziemlicher Knaller imho.
Edit:
Wo hast du denn die 38% her? Im Bench-Marathon von PCGH liegt die 2080Ti am Ende 48% im Gesamtrating vorne: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/
Einen separaten 4K-Index habe ich dort leider nicht gesehen.
Bei CB sind es 40%, 46% und 53% für die 2080Ti FE auf die 5700XT in 1080p, 1440p und 2160p.
Edit2: Kann es sein, dass du nur den Anno-Benchmark genommen hast? Anders kann ich mir nicht erklären, wie du in 4K auf 38% kommen willst.
Ah, mein Fehler... bezog sich auf Anno. Spielt aber nicht wirklich eine Rolle - es sind so um die 45-50%
5700XT ist eh Schnee von gestern ;) ging mir in erster Linie um RDNA2
Hauwech
2020-09-05, 22:05:11
Weil der Chip nicht linear skaliert, deswegen werden wir auch keine 96CUs sehen.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
50-60%? Das wäre irgendwie ein wenig wenig?:confused:
Zu RDNA1? Doppelt soviele CU, IPC Verbesserungen, mehr Perf/W - da dürfte mehr bei rum kommen.
Weil der Chip nicht linear skaliert, deswegen werden wir auch keine 96CUs sehen.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
Hm, okay ich habe 96 CUs bei mehr als 2G Inclusive HBM2 und den kolportierten 50% welche die neue Architektur drauflegt. Ich weiß ja nicht ...
3090-Performance wäre schon enttäuschend!
Zudem habe ich in diesem Fred nach Performance-Werten in MC @4k mit ner 2080Ti gefragt-no one answers! Eine XBOX packt hier dauerhaft 60FPS ohne Upsampler!
why_me
2020-09-05, 22:22:24
Er geht von 2080Ti +10% für GA104 aus.
Falls das so sein sollte, warum schreibt er das dann nicht einfach genau so?
Nein stattdessen werden 65% in den Raum geworfen und bei Nachfrage wird man auch noch beleidigend. Und dann wird auch noch der Schwachsinn mit dem GA104 Vollausbau... Das ist nur Trolling und hat nichts mit einer gesunden Diskussionskultur zu tun.
Falls das so sein sollte, warum schreibt er das dann nicht einfach genau so?
Nein stattdessen werden 65% in den Raum geworfen und bei Nachfrage wird man auch noch beleidigend. Und dann wird auch noch der Schwachsinn mit dem GA104 Vollausbau... Das ist nur Trolling und hat nichts mit einer gesunden Diskussionskultur zu tun.
Wer, wie, was?
unl34shed
2020-09-05, 22:26:58
Dural letzten zwei Seiten
Iscaran
2020-09-05, 22:30:27
@Der_Korken:
Die Flops bei nVidia sind aber nicht (mehr) 1:1 so abrufbar, da man den Aufbau intern verändert hat!
Nur für manche Sachen die wenig Int-Leistung erfordern kann man nun dafür mehr Floats abarbeiten. Bestimmte optionen die z.B. DLSS machen profitieren davon. Ebenso wie nVidias Art RayTracing umzusetzen.
Deswegen gibt es ja auch nur die schönen Leaks von nVidia mit diesen Optionen und quasi KEINEN Vergleich zur "Basis"-Performance...wer weiss ob wir da nicht ein "grünes" Wunder erleben werden.
https://www.3dcenter.org/news/wie-gaming-ampere-die-verdoppelte-anzahl-shader-einheiten-erreicht
Ampere kann eben 128x FP32 oder 64x FP32 + 64x INT32 !
Die Gaming-Leistung hängt aber eben auch ziemlich von der INT Leistung ab. Und genau diese steigt durch den anderen SM-Aufbau nicht !
nVidia hat deswegen auch in der 3090 eben im "worst case" nur 10752/2 = 5376 FP32 Units
Verglichen mit den 4352 einer 2080 Ti ist das eben auch nur eine Steigerung um +23.5 % (+ ggf. Takt Output).
Mich würde also nicht überraschen wenn die eigentliche Gaming-Performance (bis auf Sondersituationen) bei weitem nicht so stark steigen würde wie gedacht.
Dural letzten zwei Seiten
Meh
Der_Korken
2020-09-05, 22:50:52
Zum Glück ist Raja nicht mehr da, der hätte wahrscheinlich schon zehnmal in irgendwelche Mikros etwas herausposaunt.
Zu Igors """Spekulation""" wurde ja schon genug gesagt. Die ist absurd und fernab der Realität. Wer immer noch glaubt, dass RDNA2 es, wenn überhaupt, nur mit Ach und Krach zu 3080-Performance schafft, der wird noch früh genug sein Wunder erleben.
Ja das mit Raja stimmt schon. Am Anfang hatte ich sogar gedacht, dass da wirklich was kommt. Da sind mir die realistischen Leistungsprognosen seit Zen und V20 wesentlich lieber.
Was Igors Spekulation angeht: Versteht mich nicht falsch, ich wünsche mir nicht, dass RDNA2 floppt, da ich selber Interesse an einer schnellen AMD-Karte hätte und nicht zu Nvidia wechseln will. Ich habe seit dem Ampere-Launch aber eher ein schlechtes Bauchgefühl und ganz objektiv muss uns AMD erst noch zeigen, dass sie auch GPUs bauen können, die gut mit der Einheitenzahl skalieren - und zwar oberhalb von 40 CUs. Gute IPC können sie zumindest schon mal wie man nun an RDNA1 vs Ampere sieht.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
60% fände ich auch schon extrem meh. Damit hätte man die selbst zugeschriebenen 25% IPC auf Vega ja direkt wieder verloren bei 80CUs. Das wäre imho sehr enttäuschend, nachdem Navi angeblich "scalability" bringen sollte.
Ampere kann eben 128x FP32 oder 64x FP32 + 64x INT32 !
Die Gaming-Leistung hängt aber eben auch ziemlich von der INT Leistung ab. Und genau diese steigt durch den anderen SM-Aufbau nicht !
nVidia hat deswegen auch in der 3090 eben im "worst case" nur 10752/2 = 5376 FP32 Units
Verglichen mit den 4352 einer 2080 Ti ist das eben auch nur eine Steigerung um +23.5 % (+ ggf. Takt Output).
Dass die Gaming-Leistung stark vom INT-Durchsatz abhängt, wage ich zu bezweifeln. Wenn das so wäre, dann hätte Turing bei der Gaming-Leistung explodieren müssen, weil eine 2070S bspw. dann schon auf 5120 ALUs kommt (wenn INT und FP jeweils voll ausgelastet sind). Tatsächlich ist sie trotz mehr Takt nur so schnell wie eine 1080Ti mit 3584 ALUs. Entsprechend würde auch der Sprung zu Ampere geringer ausfallen, da 3080 und 2080Ti theoretisch gleich viele ALUs haben (4352FP+4352INT vs 4352FP+4352(INT oder FP)). Nach bisherigem Stand ist erstere aber 40% schneller - irgendwo her muss es kommen.
Zergra
2020-09-05, 22:59:14
Hm, okay ich habe 96 CUs bei mehr als 2G Inclusive HBM2 und den kolportierten 50% welche die neue Architektur drauflegt. Ich weiß ja nicht ...
3090-Performance wäre schon enttäuschend!
Zudem habe ich in diesem Fred nach Performance-Werten in MC @4k mit ner 2080Ti gefragt-no one answers! Eine XBOX packt hier dauerhaft 60FPS ohne Upsampler!
Mein jetzt nur die CUs ohne andere Architektur.
Digidi
2020-09-05, 23:04:28
Mann muss mal abwarten was die Zukunft bringt. Nvidia geht voll auf Alu. AMD auf Frontend und Rops. Wenn AMD 2Ghz erreichen kann haben sie das stärkste Frontend und Backend im Markt mit 8 Shaderengines und wohl 128 rops und das bei um die 2ghz.
Spiele werden immer Polygonen lastiger und nicht jeder Entwickler kann sich wie UE5 erlauben sein Frontend in der Engine von den Fixed Funktion auf die Shader umzulegen.
Das Thema bleibt spannend.
unl34shed
2020-09-05, 23:13:22
Dass die Gaming-Leistung stark vom INT-Durchsatz abhängt, wage ich zu bezweifeln. Wenn das so wäre, dann hätte Turing bei der Gaming-Leistung explodieren müssen, weil eine 2070S bspw. dann schon auf 5120 ALUs kommt (wenn INT und FP jeweils voll ausgelastet sind). Tatsächlich ist sie trotz mehr Takt nur so schnell wie eine 1080Ti mit 3584 ALUs. Entsprechend würde auch der Sprung zu Ampere geringer ausfallen, da 3080 und 2080Ti theoretisch gleich viele ALUs haben (4352FP+4352INT vs 4352FP+4352(INT oder FP)). Nach bisherigem Stand ist erstere aber 40% schneller - irgendwo her muss es kommen.
Laut Nvidia waren es zu Turing Release über einige Spiele im Schnitt 36% Auslastung der INT Cores.
Sunrise
2020-09-05, 23:23:05
Ich habe seit dem Ampere-Launch aber eher ein schlechtes Bauchgefühl und ganz objektiv muss uns AMD erst noch zeigen, dass sie auch GPUs bauen können, die gut mit der Einheitenzahl skalieren - und zwar oberhalb von 40 CUs. Gute IPC können sie zumindest schon mal wie man nun an RDNA1 vs Ampere sieht.
Bei 52 CUs der XBX sind wir ja schon drüber, die wird wohl kaum schlecht skalieren. Natürlich wird es etwas aufwendiger sein, viele CUs auszulasten, bzw. das hängt wie bei NV dann wohl auch vom Programmcode ab, aber grundsätzlich sprechen wir ja nichtmehr über GCN, das kann man denke ich ad acta legen. AMD hatte bei Big Navi mit Sicherheit das Ziel, etwa doppelte Performance across the board zu liefern. Wenn die 80 CUs stimmen, wird es sicher nicht leicht, doppelte FP32-Einheiten hatte denke ich auch niemand klar auf dem Schirm.
60% fände ich auch schon extrem meh. Damit hätte man die selbst zugeschriebenen 25% IPC auf Vega ja direkt wieder verloren bei 80CUs. Das wäre imho sehr enttäuschend, nachdem Navi angeblich "scalability" bringen sollte.
60% ist denke ich etwas wenig, das kann so nicht stimmen. Da müsste man sonst mit der Taktkeule ran. Das sollten wenn alles gut mitwächst (und AMD hat ja Platz auf dem Die) sicher min. 70-75% sein, denn ansonsten ist das Ziel nicht erreichbar. Bei min. 80CUs schlägt der Takt auch stark rein, auch wenn AMD bei RDNA2 sicher 10-15% mehr Gas geben kann. Wir haben eben seit Ewigkeiten keine so ambitionierte GPU von AMD mehr gesehen, daher wirds sehr spannend, wie weit man gewillt war, bei Big Navi zu gehen. NV hat ja scheinbar alles aufgerissen, was sie hatten, inkl. VRAM, Verbrauch, Rohpower und etwas besserer Effizienz.
Dino-Fossil
2020-09-05, 23:50:54
Wenn die 80 CUs stimmen, wird es sicher nicht leicht, doppelte FP32-Einheiten hatte denke ich auch niemand klar auf dem Schirm.
Man kann sich hier natürlich mal fragen, auf welches Ziel hin AMD GPUs entwickelt. Möchten sie einfach eine bestimmte nVidia-GPU (+x%) schlagen, oder wollen sie die bestmögliche GPU im Rahmen ihrer Möglichkeiten?
Was ich damit sagen will ist, man bekommt hier den Eindruck AMD reagiert nur auf nVidia's Vorlage, spricht ihnen aber jegliche eigene Agenda ab.
Ampere wurde also mächtig aufgeblasen um mehr Leistung zu bieten. Warum sollte das nicht auf die eine oder andere Art auch bei RDNA2 passieren?
Neurosphere
2020-09-06, 00:14:24
Weil der Chip nicht linear skaliert, deswegen werden wir auch keine 96CUs sehen.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
Das würde bedeuten das die 3090 nur 10% schneller wird als die 3080, hat ja auch nur 20% mehr Einheiten und 1 zu 1 die gleiche Arch...
N21 hat, wie es aussieht, ne Bandbreite der 3090 und die Rechenleistung von 22,8TFLOPs (80CUs * 2,23GHz). Der wird wohl kaum auf 3070-Niveau herauskommen. Ich denk mal ne 3080 ist schon ein guter Maßstab, wenn man mit der TDP unter 300W bleibt, was den 50% mehr Perf/W auch ungefähr entspricht. Es spricht eigentlich alles für diese Kategorie momentan.
Die 3070 ohne Ti/Super kommt i.Ü. auch nicht auf 2080Ti-Niveau im Durchschnitt raus, das ist purer BS, das Teil hat grad mal die gleiche Bandbreite wie die 2080 ohne Super bzw. N10. Da kann nix dolles bei rumkommen und es fehlen schlicht 3GB, was obendrein ne Sonderrolle ggü. der 2080Ti spielen wird. Man kann sicherlich mit RT auf 2080Ti-Niveau kommen, aber bei normalen Games wirds ziemlich sicher eher etwas über der 2080 Super-Leistung bleiben weil das Ding total an der Bandbreite hängen wird. Das hat was von der 1070Ti damals. Mit einer 3070Ti, die evtl. 16GT/s RAM einsetzt könnte das eher was werden.
Nazar
2020-09-06, 01:31:26
Weil der Chip nicht linear skaliert, deswegen werden wir auch keine 96CUs sehen.
Wenn doppelt soviel CUs mit 50-60% skaliert ist das schon gut.
Warauf soll das bezogen sein? Auf RDNA1?
Aber selbst wenn, ist die Pauschalaussage bestenfalls als Quatsch abzutun.
Mich würde allerdings interessieren, wie du auf einen Perfomanceverlust von 50-60% nur alleine aufgrund einer Verdopplung der CUs kommst.
Das wäre mit Abstand das schlechteste Ergebnis in der Geschichte des GPUs Designs. :freak:
Gehst du ernsthaft davon aus, dass die 96 CUs mit 150W betrieben werden? :confused:
Naja, eventuell kommst du selber drauf, dass du Blödsinn geschrieben hast.
Nazar
2020-09-06, 01:51:19
Wenn man einfach davon ausgeht, dass die CUs von Big Navi 1:1 skalieren, dann ja, wobei es für die 3080 mehr als +100% bräuchte. Nach der Zurückhaltung von AMD und den Gerüchten von Igor, dass die 3080 nicht erreicht wird, wäre ich hier erstmal skeptisch. Die Vega-Specs lasen sich am Anfang auch ganz gut, am Ende war der Chip eine Luftpumpe, weil die 64 CUs viel schlechter ausgelastet wurden als die 36 bei Polaris.
Ich weiß ja nicht welches Vid du gesehen hast aber Igor hat deutlich gemacht, dass der große BIG Navi bei 275 Watt nicht die 3080 erreichen wird. Gleichzeitig sagte er aber auch, dass ein 300+ Watt BN sogar vermutlich in die Nähe der 3090 kommen könnte.
Am wichtigsten ist aber seine Aussage, dass er absolut keine Ahnung von der Performance, die BN haben könnte, hat. So wie wir alle.
Das was wir wissen, basiert alles auf Daten der Konsolen.
Und selbst damit ist die Leistung kaum einschätzbar, da die Konsolen ganz andere thermische Beschränkungen haben, als die GPUs im PC.
Was man aber mit Sicherheit sagen kann ist, dass eine reine GPU mit gleicher CU Anzahl, wie die GPU in den Konsolen, eine deutlich höhere Leistung fahren kann und wird.
Die kolportierten 275 Watt sind aber vermutlich nur ebenso "fest" wie die Wattangaben damals bei der Vega.
Ob das dann reicht, um wirklich "Big" zu sein, wird sich noch zeigen.
Meiner Meinung nach wird AMD, wenn sie wirklich der 3080 oder sogar der 3090 Paroli bieten können, vor dem 17.09.2020 das klar aufzeigen müssen, um Käufer für sich zurückzuhalten.
Kommt nichts, kann man schon fast sicher sein, dass BN kaum besser als eine 3070/2080Ti sein wird oder weshalb sonst sollte man nichts leaken? Mir fällt da gerade kein logischer Grund ein.
nairune
2020-09-06, 02:37:28
Ich weiß ja nicht welches Vid du gesehen hast aber Igor hat deutlich gemacht, dass der große BIG Navi bei 275 Watt nicht die 3080 erreichen wird. Gleichzeitig sagte er aber auch, dass ein 300+ Watt BN sogar vermutlich in die Nähe der 3090 kommen könnte.
Am wichtigsten ist aber seine Aussage, dass er absolut keine Ahnung von der Performance, die BN haben könnte, hat.
Das sind 3 Sätze mit 3 Widersprüchen.
Wartet´s halt ab, wo keine Informationen sind, braucht man sich nicht anblaffen wer nun Recht hat.
robbitop
2020-09-06, 08:03:19
Laut Nvidia waren es zu Turing Release über einige Spiele im Schnitt 36% Auslastung der INT Cores.
Laut NV. Aber real hat man diese Zahlen ggü Pascal fast nirgends gesehen. Wolfenstein 2 und Quantum Break könnten die Ausnahmen sein.
prinz_valium_2
2020-09-06, 10:59:12
Bei 52 CUs der XBX sind wir ja schon drüber, die wird wohl kaum schlecht skalieren. Natürlich wird es etwas aufwendiger sein, viele CUs auszulasten, bzw. das hängt wie bei NV dann wohl auch vom Programmcode ab, aber grundsätzlich sprechen wir ja nichtmehr über GCN, das kann man denke ich ad acta legen. AMD hatte bei Big Navi mit Sicherheit das Ziel, etwa doppelte Performance across the board zu liefern. Wenn die 80 CUs stimmen, wird es sicher nicht leicht, doppelte FP32-Einheiten hatte denke ich auch niemand klar auf dem Schirm.
60% ist denke ich etwas wenig, das kann so nicht stimmen. Da müsste man sonst mit der Taktkeule ran. Das sollten wenn alles gut mitwächst (und AMD hat ja Platz auf dem Die) sicher min. 70-75% sein, denn ansonsten ist das Ziel nicht erreichbar. Bei min. 80CUs schlägt der Takt auch stark rein, auch wenn AMD bei RDNA2 sicher 10-15% mehr Gas geben kann. Wir haben eben seit Ewigkeiten keine so ambitionierte GPU von AMD mehr gesehen, daher wirds sehr spannend, wie weit man gewillt war, bei Big Navi zu gehen. NV hat ja scheinbar alles aufgerissen, was sie hatten, inkl. VRAM, Verbrauch, Rohpower und etwas besserer Effizienz.
Series X hat 56CUs bei 2 SA
Ich finde 96CUs auch nicht sooo viel.
Aber mal sehen. Bei 80 hat man einfach weniger Spielraum nach unten. Bein 50% ist man schon bei der 5700.
LasterCluster
2020-09-06, 11:13:06
Dazu ist mir auch nichts bekannt. Ein Link wäre hilfreich.
Den Zen3 Thread lese ich auch.
Rembrandt is a huge update, the CPU architecture will use Zen 3+, while the GPU is finally getting rid of the Vega architecture in favor of RDNA 2, in terms of process, it will be updated to TSMC's 6nm, which is the optimized version of the N7 process, and will support DDR5, LPDDR5, and two new buses, USB4 and PCIe 4.0. Will be available on top of this generation architecture.
Quelle: https://www.expreview.com/74342.html.
Der gleiche Artikel hatte schon Zen3+Vega für Cezanne und Zen2+RDNA2 für Van Gogh genannt, was damals (26.5.) noch niemand so richtig glauben wollte. Der Leak ist also sehr glaubwürdig.
N6, der bei AMD wahrscheinlich eh anders heißen wird, kommt vor N5P/e und ist auf der Schiene N7-N7P/e/-N6, wodurch Zen3 und RDNA2-IP schon drarauf optimiert ist. Entweder kommt Rembrandt in so einem N6/"N7ee"-Prozess oder einfach N7e, aber sicher nicht auf N5P. Spätere RDNA2-Ableger oder Refreshes nutzen den vielleicht ebenso.
LasterCluster
2020-09-06, 11:14:14
Ich finde 96CUs auch nicht sooo viel.
It 80CU durch den Treibereintrag (siehe 3dcenter News) nicht schon quasi bestätigt?
unl34shed
2020-09-06, 11:22:46
Rein theoretisch kann man das auch beim Release Treiber noch mal ändern.
Ich meine im Linux Treiber steht auch 2048b HBM drin und das wird nicht als gesichert angesehen.
LasterCluster
2020-09-06, 11:33:36
Rein theoretisch kann man das auch beim Release Treiber noch mal ändern.
Ich meine im Linux Treiber steht auch 2048b HBM drin und das wird nicht als gesichert angesehen.
Rein theoretische kann vieles passieren. Aber auf irgendwelche Fakten sollten sich Spekus doch stützen. Sonst kann man es gleich sein lassen. AFAIK bezog sich der Treiber nicht direkt auf die Bits bei HBM. Sondern etwas in richtung: Falls HBM genutzt wird, werden es 2048b sein. Frag da besser Berniyh oder Locuza.
Complicated
2020-09-06, 11:56:48
N6, der bei AMD wahrscheinlich eh anders heißen wird, kommt vor N5P/e und ist auf der Schiene N7-N7P/e/-N6, wodurch Zen3 und RDNA2-IP schon drarauf optimiert ist. Entweder kommt Rembrandt in so einem N6/"N7ee"-Prozess oder einfach N7e, aber sicher nicht auf N5P. Spätere RDNA2-Ableger oder Refreshes nutzen den vielleicht ebenso.
Es ging allerdings um die Aussage, dass N6 noch vor 5nm zum Einsatz kommt bei AMD:
Erst N6, dann N5.
Mit der in dem Link gezeigten Roadmap wäre N6 frühestens Q2/2022 dran mit Rembrandt, was ganz sicherlich nicht vor N5 bei AMD sein wird. Der Link widerlegt diese Aussage eindeutig. 2021 wird Zen4 in 5nm (Genoa) verfügbar sein.
mboeller
2020-09-06, 12:05:00
Die 3070 wird +-2080Ti-Performance bieten, also +50% auf eine 5700XT.
Wenn man sich die Benchmarks ein wenig anschaut, und 5700XT, 2080S, und 2080Ti so anschaut, dann geht den beiden 8GB Karten bei hoher Auflösung anscheinend der Speicher aus. Deshalb wird dann der Abstand zur 2080Ti größer. Mit 16GB bei einer BigNavi passiert das nicht. Für eine Skalierung von 5700XT auf BigNavi sollte man also das berücksichtigen und eher mit den FHD Werten arbeiten als mit den 4K-Werten.
Der_Korken
2020-09-06, 12:15:14
Für eine Skalierung von 5700XT auf BigNavi sollte man also das berücksichtigen und eher mit den FHD Werten arbeiten als mit den 4K-Werten.
In Full HD ist die Gefahr eines GPU-Limits zu hoch, gerade wenn man 5700XT gegen 2080Ti vergleicht. Das Frontend bei Navi scheint gut zu sein, dafür fehlt es etwas an Rohleistung im Vergleich zu Turing (und Ampere). Deswegen legt Turing hinten raus wieder zu, so wie damals die GCN-Rohleistungsmonster gegen Maxwell.
Iscaran
2020-09-06, 13:02:22
Wenn wir mal diese nVidia Marketing folie nehmen, dann brauchen Games so zwischen 30-50% INT-Leistung (Witcher braucht nur 20% ist aber eher ein Ausreisser würd ich sagen):
https://www.computerbase.de/forum/attachments/1599260187027-png.962883/
Vermutlich hat man sich da auch ein wenig Cherrypicked.
Basierend darauf kann ein Ampere also entweder n bis 84 * 128 FP rechnen oder n - x 64FP+64INT.
Wenn ich das also auf die 84 SMs umrechne, braucht es ca 24 bis 42 SMs um die notwnedigen Int OPs zu berechnen und nur der Rest kann dann mit 128 FPs rechnen.
Ergo ist der Mehrnutzen nur eingeschränkt und wir haben "effektiv" im best case sowas wie 60 SMs (@128 FP), das sind dann 7680 Shader für FLOPS und eben nicht 10752.
Der_Korken
2020-09-06, 13:32:50
@Iscaran: Achtung mit den Prozenten. Spiele brauchen nicht 30-50% INT, sondern auf 100 FP-Ops kommen 30-50 INT-Ops. Anteilig wären das dann 23-33%. Oder anders gesagt: Turing hat nur 65-75% der SPs überhaupt füllen können aufgrund des Verhältnisses, währen Ampere quasi immer 100% erreichen kann (der Fall, dass mehr INT als FP gerechnet wird, kommt in Games quasi nicht vor, kann man sagen). Das ergibt eine 33-53% höhere Auslastung der SMs gegenüber Turing und zufälligerweise ist die 3080 auch ca. 40% schneller als die 2080Ti. Das ergibt alles Sinn.
Cyberfries
2020-09-06, 13:41:00
Klar die 10496 Cuda-Cores sind nicht ganz ehrlich, aber besser als die vorherige Anordnung ist es auf jeden Fall.
War der Beitrag eigentlich für den Ampere-Thread gedacht?
Ein paar Beiträge zuvor wurde auf beyond3d und Bondrewd verwiesen.
Ich weiß, er gilt nicht als vertrauenswürdig, ich möchte dennoch mal auf seine jüngsten Beiträge hinweisen:
- N22 vor der 3070, mit 8GB/16GB
- N21 mit 80CUs, wie schon lange spekuliert, jedoch nur mit 16 Gbps GDDR6 da schnellerer Speicher nicht verfügbar sei.
Auch HBM2E soll bisher nur mit 2,4/2,54Gbps verfügbar sein. Zum Interface: 512bit nein und zu 384bit:
Q: that’s a bit short for 80CUs, no?
A: A bit.
Und:
Q: Why 384-bit?
A: Because.
Das klingt für mich nicht völlig unrealistisch.
Und bevor der Aufschrei kommt zu nur 16Gbps an 384bit: Das ist besser als bei der 3080 (768 zu 760).
Edit: Ganz vergessen: N21 soll nicht 16GB haben, sondern 12/24. Die 16GB würden zu N22 gehören.
Iscaran
2020-09-06, 13:44:31
@Korken: Ja das ist korrekt. Aber manche gehen hier scheinbar davon aus das die Mehrleistung 10752/4352 = +147% ist. (bei der 3090)
Aber wie du schon sagst kommt davon nur 33-53% an, das sind dann +49 bis 78%. Und in der Realität eher noch weniger als hier im Idealfall.
Wenn die 3090 mit +60% gegenüber der 2080 Ti kommt wäre das schon ziemlich gut IMHO...
Wenn ich das so sehe glaub ich zwar nicht, daß RDNA2 mit nur 80 CUs das schlagen kann, aber RDNA2 mit 80 CUs müsste eigentlich mind. in der Region einer 3080 liegen.
Vielleicht ist das der Hauptgrund für die preisliche Staffelung 500€, 700€, => 1500 € ?!?
why_me
2020-09-06, 13:45:53
16GB and 384 bit würde aber einen krummen Speicherausbau bedeuten.
320 352 mit 1,5GB wären 16 GB möglich. Bei 384 bit müsste man mit unterschiedlich großen Chips arbeiten und hätte dann unterschiedlich schnelle Speicherpools... zwar möglich, klingt aber nicht wirklich plausibel.
E: Noch zu früh für Mathe
dargo
2020-09-06, 13:46:04
Sofern RDNA 2 weitere Verbesserungen im Bereich Bandbreiteneffizienz erfahren hat sind doch 768GB/s absolut in Ordnung. Und nach alter Manier von AMD dürfte der Salvage höchstwahrscheinlich die gleiche Bandbreite bekommen. :tongue: Wobei ich mich frage wie man 16GB an 384Bit anbinden will? Geht nicht. ;) Wenn N22 tatsächlich mit 8/16GB kommt und die 384Bit bei N21 stimmen bleiben nur 12/24GB Versionen für BigNavi.
unl34shed
2020-09-06, 14:00:02
16GB gehen ja noch, aber die 8GB sind doch unmöglich, AFAIK gibt es keine 0.5GB GDDR6 Chips.
Und die 1.5GB sind auch nie wirklich angelaufen, was bei 16GB@16GT (4x2GB+8x1GB) zu einer durchschnittlichen Bandbreite von 512GB/s führen würde.
Ravenhearth
2020-09-06, 14:17:49
Also N21 mit 80 CUs, 384 Bit und 12/24GB, und N22 mit ~56 CUs, 256 Bit und 8/16GB?
dargo
2020-09-06, 14:40:56
Also N21 mit 80 CUs, 384 Bit und 12/24GB, und N22 mit ~56 CUs, 256 Bit und 8/16GB?
So in etwa würde es Sinn machen. Wobei ich 60CUs im N22 nicht ausschließen würde.
Der_Korken
2020-09-06, 14:41:03
Ein paar Beiträge zuvor wurde auf beyond3d und Bondrewd verwiesen.
Ich weiß, er gilt nicht als vertrauenswürdig, ich möchte dennoch mal auf seine jüngsten Beiträge hinweisen:
- N22 vor der 3070, mit 8GB/16GB
- N21 mit 80CUs, wie schon lange spekuliert, jedoch nur mit 16 Gbps GDDR6 da schnellerer Speicher nicht verfügbar sei.
Auch HBM2E soll bisher nur mit 2,4/2,54Gbps verfügbar sein. Zum Interface: 512bit nein
Ich hatte gehofft, dass N21 doch noch mit HBM kommt, aber bei 2,5Gbps (und daher nur 640GB/s für zwei Stacks) kann man das natürlich vergessen. 3Gbps für 768GB/s hätten es schon sein müssen. N22 hätte man dann mit 14Gbps GDDR6 @320bit bringen können. Angenommen, N21 landet auf 3080-Niveau und angenommen dass N21 ~50% vor N22 liegt, wäre letzterer leicht hinter einer 2080Ti/3070 und da würden 320bit/10GB gut passen. Klar ist mehr immer besser, aber SI kostet extrem viel Fläche, da wird AMD nur das nötigste verbauen.
Mit 384bit für N21 wird es wieder verzwickt, weil dann nur 12GB oder 24GB gehen. Letzteres wird wahrscheinlich 150-200€ Aufpreis kosten und nur ganz selten was bringen. Bei N22 mit 256bit wäre es noch schlimmer, denn 8GB sind für "leicht hinter 2080Ti/3070) imho zu wenig, aber 16GB katapultiert den Preis sicher wieder nah an N21/12GB heran. Und man hat die unschöne Aufteilung, dass der kleinere Chip teilweise mit mehr Speicher gepaart wird als der große. Ja, das Problem hat Nvidia auch, aber auch da finde ich das schon unschön. Irgendwie sind die Speichermengen bei dieser Gen ein Kackstuhl. Die 1,5GB-Chips hätten hier geregelt. Oder halt HBM für N21 wie oben beschrieben.
Edit: Wie wollt ihr 56 bzw. 60 CUs von den Shader Engines/Arrays her aufteilen?
60CUs = 3 SEs mit je zwei SAs zu je 10 CUs, d.h. ein 3/4 N21? Kommt mir zu groß vor, zu dicht an N21.
56CUs = 2 SEs mit je zwei SAs zu je 14 CUs, d.h. XBSX-Config? Wäre komisch, weil der kleine Chip dann Frontend-schwächer ist als der große. Normalerweise macht man das andersrum, weil der große Chip eher in hohen Auflösungen läuft und deswegen weniger Geometrie- und mehr Rechenleistung braucht.
Ich tippe auf 48CUs (2 3SEs, je 2SAs, je 8CUs). Wäre vermutlich kaum größer als N10 und würde diesen dann preislich auch beerben.
Ravenhearth
2020-09-06, 14:49:04
So in etwa würde es Sinn machen. Wobei ich 60CUs im N22 nicht ausschließen würde.
Bei 60 CUs hätten die Shader Arrays allerdings eine asymmetrische Bestückung, wenn wir von 4 SAs wie bei Navi10 oder der Series X ausgehen. Navi hat ja Dual-CUs, d.h. bei der Series X sind es in Hardware 4 SAs a 7 Dual-CUs. Für die Konsole ist in 2 Shader Engines jeweils eine Dual-CU deaktiviert (https://images.anandtech.com/doci/15994/202008180219321.jpg). Bei 60 CUs hätte N22 so eine Asymmetrik direkt in Hardware.
dargo
2020-09-06, 14:53:44
Bei 60 CUs hätten die Shader Arrays allerdings eine asymmetrische Bestückung, wenn wir von 4 SAs wie bei Navi10 oder der Series X ausgehen. Navi hat ja Dual-CUs, d.h. bei der Series X sind es in Hardware 4 SAs a 7 Dual-CUs. Für die Konsole ist in 2 Shader Engines jeweils eine Dual-CU deaktiviert (https://images.anandtech.com/doci/15994/202008180219321.jpg). Bei 60 CUs hätte N22 so eine Asymmetrik direkt in Hardware.
Hmm... ok, dann machen wirklich nur 56 oder 64CUs Sinn. Tendenz eher zu 56. Mit 64CUs wäre der Abstand zum Salvage von BigNavi wieder etwas zu klein.
reaperrr
2020-09-06, 15:31:35
So in etwa würde es Sinn machen. Wobei ich 60CUs im N22 nicht ausschließen würde.
Ich schon.
Durch die dual-CUs (WGPs) sind 4er-Schritte bei 4 Shader-Arrays nicht mehr möglich. Es geht in dem Fall nur in 4er-Schritten was WGPs angeht (also 8 CUs nach altem Verständnis).
Und dass 64 CUs zu nah an N21 und von Fläche/Verbrauch/Auslastung/Bandbreitenbedarf bei 256bit und wahrscheinlichweise 4 SA zu viel des guten wäre, sollte auch einleuchten.
Berniyh
2020-09-06, 15:37:32
Quelle: https://www.expreview.com/74342.html.
Der gleiche Artikel hatte schon Zen3+Vega für Cezanne und Zen2+RDNA2 für Van Gogh genannt, was damals (26.5.) noch niemand so richtig glauben wollte. Der Leak ist also sehr glaubwürdig.
Danke für den Link. Das hört sich schon halbwegs fundiert an.
bzgl. van Gogh und Cezanne: das war glaube ich vorher schon bekannt, 100%ig sicher bin ich mir nicht.
Zumindest RDNA2 für van Gogh wussten wir seit Dezember.
N6, der bei AMD wahrscheinlich eh anders heißen wird, kommt vor N5P/e und ist auf der Schiene N7-N7P/e/-N6, wodurch Zen3 und RDNA2-IP schon drarauf optimiert ist. Entweder kommt Rembrandt in so einem N6/"N7ee"-Prozess oder einfach N7e, aber sicher nicht auf N5P. Spätere RDNA2-Ableger oder Refreshes nutzen den vielleicht ebenso.
Ich würde auch nicht behaupten, dass Rembrandt in N5* kommt.
Nur war mir halt kein Artikel bekannt in dem der explizit mit N6 in Verbindung gebracht wird (und nicht z.B. mit N7*).
Complicated
2020-09-06, 15:37:36
Und wenn AMD die Packdichte erhöht, weil der 7nm Prozess nun deutlich reifer ist?
Radeon VII -> 39 MT/mm² (330 mm²/HBM) 09.01.2019
Navi 10 -> 40 MT/mm² (250 mm²/GDDR) 07.07.2019
Ampere GA100 -> 60 MT/mm² (826 mm²/HBM) 12.05.2020
Hier sind noch gar keine Verbesserung des Prozesses oder möglicherweise EUV Layer berücksichtigt.
Nur wenn man N10 verdoppelt und von 256-bit GDDR SI auf HBM wechselt, dann skaliert das um einiges besser als nur doppelte CUs bis auf 505 mm². Und wenn man auf ein 384-bit SI hochrechnet ebenfalls, da nur die Hälfte des SI gegenüber doppelten CU-Anzahl skaliert werden muss. Schau ich mit den 360 mm² (ca. 40 MT/mm²) großen Xbox SoC an und rechne ca. 100mm² für CPU+zugehörigen Uncore raus, den ein GPU nicht benötigt, dann kommt man schnell auf über 100 CUs für einen 505 mm² Chip der nur GPU beinhaltet. Wenn die Packdichte 20-40% erhöht werden kann (Ampere-Packdichte wären +50%)
Was das ganze wohl behindert und auch AMD gebremst hat ist der Stromverbrauch. Nur RDNA2 soll da ja +50% Effizienz erhalten. Also wenn AMD alles in den Stromverbrauch steckt, und als Strombudget das doppelte der 56 CUs veranschlagt (TDP 200W inkl. CPU). Meine Rechnung wäre 65W Abzug für die CPU (3700x 8-Kern)->135x2=270W
Also in 300W könnten durchaus 112 CUs werkeln mit einem 384-Bit SI (12 GB GDDR6 768 GB/s) oder mit HBM (16 GB HBM2e ca. 780-840 GB/s mit 2 Stacks).
Ich denke AMD nimmt die 56 CU als Optimum aus der Konsolenentwicklung mit und macht N22 zu genau dem reinen GPU-Chip und verdoppelt diesen dann für Big Navi auf 112 aktive CU (vielleicht wird noch Redundanz benötigt für die Yields bei der Chipgröße) - die Konsolen haben wohl auch zu Yield-Zwecken 4 CUs deaktiviert (also sind 60 verbaut auf dem Chip)
Berniyh
2020-09-06, 15:41:50
Ich meine im Linux Treiber steht auch 2048b HBM drin und das wird nicht als gesichert angesehen.
Nein, das steht da nicht drin.
(oder zumindest habe ich es nicht gesehen)
Es gibt hier und da Ähnlichkeiten zwischen den verschiedenen HBM-basierten Chips.
Aber das kann auch schlicht Zufall sein, z.B. weil es sich im Allgemeinen eher um High-End Chips mit hoher Computing-Power handelt.
Nach meinem Wissen gibt es im Linux Treiber verschwiedene Codestellen die man sowohl als Hinweise in die eine als auch in die andere Richtung interpretieren könnte.
Im Allgemeinen ist es aber unwahrscheinlich, dass man den Speichertyp bzw. die Größe des Interface aus dem Treiber extrahieren kann.
Bei Navi12 hat es fast ein Jahr gedauert bis klar war, dass der HBM2 hat, obwohl der Treiber im Kernel praktisch vollständig war.
Cyberfries
2020-09-06, 15:53:49
Ich denke AMD nimmt die 56 CU ... und verdoppelt diesen dann für Big Navi auf 112 aktive CU ....
die Konsolen haben wohl auch zu Yield-Zwecken 4 CUs deaktiviert (also sind 60 verbaut auf dem Chip)
Die xBox hat 56CUs physisch und 52 aktiviert.
2SE mit je 2 Arrays mit je 7WGP.
Eine Verdopplung führt zu einer riesigen Lücke, das kann ich mir kaum vorstellen.
Edit: Wie wollt ihr 56 bzw. 60 CUs von den Shader Engines/Arrays her aufteilen?
....
Ich tippe auf 48CUs (2 3SEs, je 2SAs, je 8CUs). Wäre vermutlich kaum größer als N10 und würde diesen dann preislich auch beerben.
3SEs führen aber auch zu 96 ROPs, das halte ich für zuviel.
Ich tippe auf xBox-Konfig. Oder, wenn tatsächlich 48Cus, dann eher 2x2x6x2.
Seltsam, dass sowohl nVidia als auch AMD die ROPs von den Speicherinterfaces entkoppeln.
Bisher war das immer schön regelmäßig, 64/32 ROPs bei 256/128bit, 48/96 ROPs bei 384/192bit.
Doch zu den spekulierten Interfaces passen die 64/128ROPs bei N21/N22 nicht.
Außer AMD geht auf 6ROPs je Backend, dann sind auch 3SEs drin.
SKYNET
2020-09-06, 16:31:22
Aha... und das weißt du genau von welcher Glaskugel? Normalerweise sollte eine neuere Generation auch eine Verbesserung in der Bandbreiteneffizienz bringen. Und diese sieht man schon bei der 3070 wenn sie die Performance der 2080Ti erreicht. Eine 2080TI hat 616GB/s Bandbreite, eine 3070 sofern die 16Gbps stimmen nur 512GB/s.
Was rechnest du da wieder für einen Stuss zusammen? Das wird ja immer absurder hier. :freak:
und jede wette das es genug titel gibt, die sagen "öhm, wo ist die bandbreite? nene, nix bandbreite = nix mehr frames"... bandbreite ist durch nix zu ersetzen als durch noch mehr bandbreite :cool:
dargo
2020-09-06, 17:17:45
Eine R9 390X hatte 384GB/s Bandbreite, eine RX 5600XT hat heute 288GB/s. Letzteres ist bestimmt langsamer als Grenada gell? Oh man... :facepalm:
pixeljetstream
2020-09-06, 18:54:49
und jede wette das es genug titel gibt, die sagen "öhm, wo ist die bandbreite? nene, nix bandbreite = nix mehr frames"... bandbreite ist durch nix zu ersetzen als durch noch mehr bandbreite :cool:
Oder mehr Cache ;)
SKYNET
2020-09-06, 18:58:48
Eine R9 390X hatte 384GB/s Bandbreite, eine RX 5600XT hat heute 288GB/s. Letzteres ist bestimmt langsamer als Grenada gell? Oh man... :facepalm:
ja, und wo schliesst das eine das andere aus? wenn du mehr bandbreite hast als die GPU selber benötigt bringts halt nix mehr. :freak:
und die 5600XT ist im fall bandbreiten limitiert... speicher hochdrehen bringt ordentlich was --> nix ist zu ersetzen durch mehr bandbreite. :P
dargo
2020-09-06, 19:30:06
Dude... hast du überhaupt meine Kernaussage verstanden? Dann ersetze die RX 5600XT in meinem Vergleich gegen eine GTX1070TI mit 256GB/s Bandbreite. :rolleyes: Die Radeon VII mit ihren 1TB/s Bandbreite ist der beste Beweis, dass eine gute Gaming-Architektur wesentlich mehr bringt als Brechstange bei der Bandbreite. Kein IHV ist auf den Kopf gefallen und pumpt in seinen Chip Unmengen an Bandbreite die im Verhältnis zum Preis bzw. Aufwand um diese Bandbreite zu erreichen wenig bringt. Kosten/Nutzen und so.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.