PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 [59] 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

DK999
2020-10-20, 10:55:34
Hat wer die technischen Daten zu den GDDR6/X Chips?
Müssten die X nicht mehr Saft ziehen wegen des höheren Takts?
Vernachlässigbar?

Dural
2020-10-20, 10:59:25
GDDR6X braucht ca. 1 Watt pro Chip mehr.

Iscaran
2020-10-20, 11:01:52
Blöd nur, dass bei der RX 5700 XT die TGP (225) unter Last in Spielen nicht überschritten wird mit 210W bei Messungen für die gesamte Karte. Mir wäre auch keine dokumentierte TBP über 250 W für die RX 5700 bekannt. Das ist eine Phantasiezahl die er aus Nvidias Rechnung mit einbringt.

Ja - ich denke der Fehler ist er addiert die 20 W noch zur GPU. Obwohl er selber schreibt dass AMD diesen Wert ja immer zusammen betrachtet.

Ergo sind die 270 W (inkl. 20 W Speicher)

Man muss für die MOSFET-Effizienz aber natürlich irgendeine Annahme zum Speicherverbrauch machen und ich denke da ist dann eben einfach ein Schnitzer passiert indem die 20 W Annahme nicht von den 270 W "GPU+Speicher" abgezogen wurden.
Also wurden sie doppelt gerechnet.

nairune
2020-10-20, 11:02:50
Die 5700 XT Nitro+ hat ein 225W Powerlimit. CB (edit: und auch Igor selbst) misst an ihr 260W für die ganze Karte. Das sind gerade mal +15,5%.
Igor geht für die XL von 220W Powerlimit aus und kommt auf 290W gesamt. Das sind +31,8%.

Also so genau sind seine Spielereien nicht...
Zudem ist immer noch nicht klar:
- was ist Referenz PL
- sind die 290W das maximal einstellbare PL oder werden wirklich Karten damit voreingestellt

Complicated
2020-10-20, 11:06:57
Aber ist es glaubwürdig eine solche Erhöhung des Powerlimits auf quasi dem selbem PCB der Nitro mit zusätzlichen 8GB?

Iscaran
2020-10-20, 11:07:12
Die 5700 XT Nitro+ hat ein 225W Powerlimit. CB misst an ihr 260W für die ganze Karte.

Wo ?
Hier misst CB 210 W für die Navi Referenz
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_messung_der_leistungsaufnahme

Die Nitro + ist eine Custom monster OC-Karte und auch dort findet CB die 260 W nur im Worst case (anderes BIOS = 220 W):
https://www.computerbase.de/2019-09/sapphire-radeon-rx-5700-xt-nitro-plus-test/2/#abschnitt_messung_der_leistungsaufnahme

Für diese ganze Sache würd ich mich da also eher mal an der AMD Referenz orientieren.

Die hat einen Overheadfaktor von 1.17 bis 1.25

HOT
2020-10-20, 11:10:43
Die PCBs von Sapphire und Asus sind sehr sehr stark bestückt und können mindestens 300W bedienen. Deshalb meint Igor ja auch, dass das nicht allzu viel Anpassung bedarf und das ist auch plausibel. 2 PS mehr auf das PCB und das passt schon.

Alle anderen (bis auf die MSI) waren ja downcosts. Die brauchen natürlich neue.

nairune
2020-10-20, 11:24:24
Wo ?


Der Punkt ist, den Overhead bei ähnlicher absoluter Leistungsaufnahme zu haben und da bot sich das Nitro OC BIOS eben an, da wir für dieses reale Messungen haben.

Iscaran
2020-10-20, 11:41:24
@nairune:

Ja OK eine OC-Version kann dann sicher nochmal mehr als 255 W TGP haben und entsprechend noch mehr Overhead...

Aber das scheinen ja eher die Referenzwerte zu sein.
Vergleiche auch mit den 238 W "GPU only ?)" von September
https://www.computerbase.de/2020-10/amd-radeon-rx-6000-navi-21-xt-game-boost/

Dazu passt auch AMDs Werbung mit +50% P/W.

Hat mal wer berechnet wie schlecht P/W wäre wenn Navi 2x nun plötzlich 355 W hätte (bei 3080 Leistung?)

Das würde wiederum komplett NICHT zu AMDs Roadmap aussagen passen.

Elite_Warrior
2020-10-20, 11:42:11
Ja - ich denke der Fehler ist er addiert die 20 W noch zur GPU. Obwohl er selber schreibt dass AMD diesen Wert ja immer zusammen betrachtet.


Wie ich das sehe nimmt er die kolportierten 255W TGP und listet den Speicher mit 20W nochmal einzelt auf. Dadurch hat er GPU 235W +20W Ram

Aber ja sinniger wäre wohl ein N10 vergleich als Herleitung. Fan mit 15W ist schon'n brocken

Iscaran
2020-10-20, 11:53:52
Ja 15 W für die Fans und bei der 3080 rechnet er da auch nur 7 W für Fans...

Ne - solange er nicht eine Navi10 Rechnung hinlegt. Glaube ich erstmal da passt was nicht.

gedi
2020-10-20, 11:55:53
Aha und woher hast Du diese Information denn wieder her?
Von der selben Quelle die 2.6Ghz Boostclock und 220W Verlustleistung genannt hat?

Von einem AMD Träumer in diesem Forum, der gemutmasst hat dass die gezeigten Werte für seine Weltbild zu gering sind und es daher zwingend noch eine höhere Macht geben muss?

Sorry, 2.4G Gametakt steht in Leos Artikel für die Customs. Boost drauf im Bezug auf N10-was kommt in etwa raus? Da du Navi offensichtlich auf Trumps Seeflotte beziehst, wäre ich an deiner Stelle mal ruhig. Zudem habe ich im Moment ne 3080 drin, von daher ...

w0mbat
2020-10-20, 11:58:18
Ich glaube, Igor hat mehr Ahnung als die meisten hier. Ich glaube seinen Angaben erstmal.

ianm
2020-10-20, 12:03:53
Zumindest scheint er den RAM doppelt zu berechnen.

Nazar
2020-10-20, 12:04:32
Igor vergleicht Äpfel mit Birnen, wenn er das PL von nVidia und AMD so gleichsetzt.
Was mich auch irritierte war, dass die Lüfterversorgung bei AMD mehr als doppelt soviel Leistung ziehen sollen wie bei nV (15 versus 7 Watt). Es muss ja nicht falsch sein, aber ohne Erklärung hat es einen "Geschmack".
Es wäre besser gewesen, wenn man die 5700XT genommen hätte, da RDNA1 schon eher eine Vergleichbarkeit zulässt.
Allerdings ist auch klar, dass AMD keine Wunder bewirken kann und bestimmte Dinge eben eine bestimmte Leistung fordern.
Die einzigen Unbekannten sind die GPU, PL und das SI, den Rest kann man errechnen.
Interessant wäre allerdings, wenn die kolportierten 320+ Watt stimmen sollten, ob damit dann die 3080, bzw. sogar die 3090 geschlagen werden !!könnten!!?

w0mbat
2020-10-20, 12:05:19
Ne, macht er nicht. Schau doch die Tabelle an.

Elite_Warrior
2020-10-20, 12:05:40
Kann vielleicht sein, dass er die vorgenomme TDP der Karte schon kennt und sich hier hinter einer Rechnung versteckt.

patrickschur
2020-10-20, 12:11:23
Also auch hoher Verbrauch und alle bisherigen "Leistungsdaten" sind für die Tonne.

Was für bisherige Leistungsdaten meinst du? Ich habe immer nur über die TGP geredet und die stimmt doch sogar mit den Zahlen von Igor überein. Er berechnet hier aber noch zusätzlich die TBP. Ob seine Angaben zur TBP nun stimmen oder nicht, sei mal dahingestellt.

Ich zitiere mich mal selber.
Quelle: https://twitter.com/patrickschur_/status/1317855621157392393
- Max. TGP of Navi 21 XT is 290 W.
- AIB partners are testing different TGP for their cards.
- The ~2.4 GHz was achieved with an AIB partner card. So assume that the card was slightly overclocked.

Damit meinte ich, dass AIB Partner derzeit Karten mit einer TGP von 255 W - 290 W testen.

stinki
2020-10-20, 12:13:02
Ihr diskutiert hier wirklich über ~ +/- 25W?
Meine grobe Abschätzung:
255W (für GPU + RAM) + 45W Rest = 300W
Das mögen jetzt 10W zu viel oder 20W zu wenig sein, aber kommt es da wirklich drauf an???

Zergra
2020-10-20, 12:14:56
Dazu passt auch AMDs Werbung mit +50% P/W.

Hat mal wer berechnet wie schlecht P/W wäre wenn Navi 2x nun plötzlich 355 W hätte (bei 3080 Leistung?)

Das würde wiederum komplett NICHT zu AMDs Roadmap aussagen passen.
Doch würde es, da die 50% sich nur auf die 40CUs beziehen, also ggf. NV22.

Das kann bei einem 80CU schon anders aussehen, vor allem wenn man den Takt noch weiter erhöht um näher an NV zu sein.

Nazar
2020-10-20, 12:15:50
Davon abgesehen hat AMD ausschließlich DX12 Titel gebencht...wie das mit DX11 aussieht oder Vulkan (wobei ich hier von ähnlicher Performance wie bei DX12 oder besser ausgehe), steht noch in den Sternen...genauso wie bei RT.

Das stimmt so aber ich habe z.B. Borderlands 3 mit meiner 2080Ti gebencht und komme zwischen DX11 und DX12 auf einen Unterschied von 4% beim 4K Badass Setting zugunsten DX11. Das wären bei der 3080, wenn ich den 4k Badass DX12 Benchmark mit 57 FPS nehme 2,2 FPS mehr.
Interessanter wäre zu wissen, was die 6XXX Radeon mit DX11 für Werte erzeugt.
Wieviel verliert eine 5700XT von DX12 runter auf DX11 oder gewinnt sie auch dazu?
Im Kern glaube ich nicht an die extreme DX12 Schwäche von nV. Wenn, dann liegt die Schwäche im niedrigen einstelligen Prozentbereich.

Complicated
2020-10-20, 12:33:05
Die PCBs von Sapphire und Asus sind sehr sehr stark bestückt und können mindestens 300W bedienen. Deshalb meint Igor ja auch, dass das nicht allzu viel Anpassung bedarf und das ist auch plausibel. 2 PS mehr auf das PCB und das passt schon.

Alle anderen (bis auf die MSI) waren ja downcosts. Die brauchen natürlich neue.Quelle dafür bitte - denn das wäre wirtschaftlicher Unsinn für einen AIB diese Kosten nicht einzusparen. Es gibt keine plausible Begründung dafür.
Ich glaube, Igor hat mehr Ahnung als die meisten hier. Ich glaube seinen Angaben erstmal.
Ich glaube das eher nicht. Seine Infos stammen von Nvidia AIBs und bei AMD Produkten liegt er daher häufig falsch. Ich bezweifle, dass er AMDs Power-Angaben verstanden hat und es liest sich eher wieder mal wie eine Milchmädchenrechnung aus dem Nvidia-AIB-Lager und er springt darauf an. Ist ja nun nicht das erste mal, dass seine "Quellen" ihn nicht mit korrekten Daten füttern, doch seine Plausibilitätsprüfung lässt zu Wünschen übrig und zeigt eher, dass er die Materie nicht so ganz versteht oder überblickt. Er hätte das ganze nur mal an Navi10 anwenden müssen.

gedi
2020-10-20, 12:40:03
Quelle dafür bitte - denn das wäre wirtschaftlicher Unsinn für einen AIB diese Kosten nicht einzusparen. Es gibt keine plausible Begründung dafür.

Ich glaube das eher nicht. Seine Infos stammen von Nvidia AIBs und bei AMD Produkten liegt er daher häufig falsch. Ich bezweifle, dass er AMDs Power-Angaben verstanden hat und es liest sich eher wieder mal wie eine Milchmädchenrechnung aus dem Nvidia-AIB-Lager und er springt darauf an. Ist ja nun nicht das erste mal, dass seine "Quellen" ihn nicht mit korrekten Daten füttern, doch seine Plausibilitätsprüfung lässt zu Wünschen übrig und zeigt eher, dass er die Materie nicht so ganz versteht oder überblickt. Er hätte das ganze nur mal an Navi10 anwenden müssen.

Also das PCB der Strix 5700XT ist schon sehr gut bestückt, allerdings würde es mich wundern, wenn Asus dies 1:1 übernimmt. https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-strix-oc/4.html

HOT
2020-10-20, 12:52:57
Leistung ist N10XT*2+x, aber es ist völlig unbekannt, was da in der Praxis herumkommt. Alle Prognosen und "Laeks" bezüglich der Leistung sind schlicht falsch und dürfen nicht mehr beachtet werden. Igor schrieb doch, dass der Treiber stark eingeschränkt ist.

dargo
2020-10-20, 12:56:18
Aber ist es glaubwürdig eine solche Erhöhung des Powerlimits auf quasi dem selbem PCB der Nitro mit zusätzlichen 8GB?
Die zusätzlichen 8GB brauchst du gar nicht betrachten da Navi21 mit acht 2GB Chips kommt. Warum sollte man da 16 Stück 1GB verbauen wenn sogar Sony 2GB Chips verwendet?

Wo ?
Hier misst CB 210 W für die Navi Referenz
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_messung_der_leistungsaufnahme

Die Nitro + ist eine Custom monster OC-Karte und auch dort findet CB die 260 W nur im Worst case (anderes BIOS = 220 W):
https://www.computerbase.de/2019-09/sapphire-radeon-rx-5700-xt-nitro-plus-test/2/#abschnitt_messung_der_leistungsaufnahme

Für diese ganze Sache würd ich mich da also eher mal an der AMD Referenz orientieren.

Die hat einen Overheadfaktor von 1.17 bis 1.25
Ach Leute... habt ihr immer noch nicht nach der ganzen Zeit Navi10 verstanden? :freak: Die Dinger werden mit zwei Biosen ausgeliefert. Jedes Bios hat ein anderes Powerlimit.

Referenz = 180W
Pulse = 180W/195W
Nitro+ = 200W/225W

Im übrigen sieht man bei den Sapphires sehr schön was eine effizientere Spannungsversorgung ausrichten kann. Die Pulse hat im Performancebios 5W weniger GPU-Power als die Nitro+ im Alternativbios und trotzdem verbraucht die Pulse bei der gesamten Karte 11W mehr als die Nitro+. Und das sogar obwohl die Nitro+ einen Lüfter mehr hat.

aufkrawall
2020-10-20, 12:57:05
Das stimmt so aber ich habe z.B. Borderlands 3 mit meiner 2080Ti gebencht
Turing ist nicht Ampere.

patrickschur
2020-10-20, 13:00:08
Igor schrieb doch, dass der Treiber stark eingeschränkt ist.

Das habe ich gestern doch auch schon gesagt. :wink:

gedi
2020-10-20, 13:03:10
Das habe ich gestern doch auch schon gesagt. :wink:

Ist dem noch immer so?

Smee
2020-10-20, 13:11:08
Ist dem noch immer so?

Vermutlich schon, da wir ja bis heute auf den aktuellen Oktober-Treiber von AMD warten mussten, könnte dies andeuten, dass noch ordentlich an den Treibern für big(gest) Navi geschraubt wurde/wird:redface:

patrickschur
2020-10-20, 13:12:04
Ist dem noch immer so?
Nein, seit Anfang September haben sie einen Beta "Unlock" Treiber. An den Treiber wird natürlich dennoch kräftig geschraubt.

gedi
2020-10-20, 13:13:27
Aber es hieß doch an anderer Stelle, dass die Customs bereits am VBios arbeiten - ohne Treiber?

Danke Patrick

Brillus
2020-10-20, 13:14:46
Ist dem noch immer so?

Ne hat er auch schon geschrieben, anders kann ich "bis vor kurzem" zumindedt nicht interpretieren.

gedi
2020-10-20, 13:16:53
Hat sich erledigt

dargo
2020-10-20, 13:18:58
Ihr diskutiert hier wirklich über ~ +/- 25W?
Meine grobe Abschätzung:
255W (für GPU + RAM) + 45W Rest = 300W
Das mögen jetzt 10W zu viel oder 20W zu wenig sein, aber kommt es da wirklich drauf an???
Wenn ich mich an der Nitro+ N10 orientiere müssten bei 255W für die gesamte Karte 310-314W rauskommen. Dabei nicht vergessen, dass diese 255W für GPU + Speicher mit hoher Wahrscheinlichkeit bereits OC ist. Sprich... Performancebios mit höherem PT als Referenz.

Edit:
Argh... ich habe mit der Effizienz der Pulse gerechnet. :freak: Bei 255W sollte die ganze Karte eher 295-300W verbrauchen mit einer Spannungsversorgung wie bei der Sapphire Nitro+.

gedi
2020-10-20, 13:23:15
Was mich allerdings doch schon sehr wundert, sind die 14GB/s Vram für die XE.

dildo4u
2020-10-20, 13:24:03
Werden High-End Netzteile eigentlich langsam knapp?
Ich bin ja fast gezwungen eine 3070 zu nehmen mit meinem 400 Watt Be Quit.

dargo
2020-10-20, 13:26:32
Was mich allerdings doch schon sehr wundert, sind die 14GB/s Vram für die XE.
Was wundert dich jetzt daran? Ist doch die beste Methode die XL besser von der XT abzugrenzen ohne das SI und somit die Speichermenge zu kappen. Mit OC kommen die Möchtegern-Übertakter auch nicht sehr weit womit ein gewisser, garantierter Abstand bestehen bleibt.

gedi
2020-10-20, 13:30:14
Wenn der Vram ebenfalls von Samsung kommt, dann sind 1G Memclock trotzdem sicher. Da wäre ein Lasercut imo besser.

Iscaran
2020-10-20, 13:37:01
50% P/W laut AMD.

Nehmen wir Navi10 mit 225 W TBP = 100% => 1% pro 2.25 W

Nun nehmen wir mal +50% P/W an => 1.5 W = 1% (und das wäre also TBP !)

Wir WISSEN Navi 21 hat 80 CUs = 2x Navi10 + 2.4GHz von mir aus Boost Clock was dann mit den 1.9 GHz von Navi10 Boost vergleichbar wäre.
Leistungsmäßig also im optimalfall 2.4/1.9*2 = 2.52x Navi10 (252%)
Bei 1.5 W / % = 252*1.5 W = 378 W TBP !

=> Die 355 W TBP von Igor und die 290 W TGP von Patrick kann man eigentlich nur so verstehen, daß die Leistung von Navi21 im Bereich 2.5x Navi10 liegt.

Rechne ich dieses Performance-Level mit dem 3DC-4k Index für Navi10 (0.1476 GFlops/% Indexpunkt) um in Indexpunkte lande ich bei 167%.

Die RTX 3090 liegt bei 158%.

Iscaran
2020-10-20, 13:50:44
Alternativ könnte man die Rechnung auch mit den 180 W TGP von Navi10 machen.

180 W TGP = 100% = 1%/1.8 W

Bei +50% P/W = 1%/1.2 W TGP für RDNA2

Entsprechend dann mit Leistungsfaktor 2.52 gerechnet = 302 W für 2.52x-fache Leistung (EDIT: Was dann wiederum wohl doch gut zu den 290 W TGP passen würde)

Dazu noch den TGP zu TBP "Overhead" (180/225 W bei Navi10) von 1.25 also 302 W * 1.25 = 378 W TBP für Navi2x und das mit der Annahme man erreicht 2.5 mal die Leistung von Navi10.

Es kommt also dasselbe raus egal ob ich die TBP oder TGP als Basis nehme (sofern sich der Overhead-Anteil eben nicht verändert - was aber bei angeblich recht ähnlichem Layout wohl nicht gegeben sein dürfte).

Complicated
2020-10-20, 13:56:26
Die zusätzlichen 8GB brauchst du gar nicht betrachten da Navi21 mit acht 2GB Chips kommt. Warum sollte man da 16 Stück 1GB verbauen wenn sogar Sony 2GB Chips verwendet?
Das musst du Igor fragen, da ich lediglich seine Zahlen übernommen habe, die dennoch nicht plausibel sind. (Auf Wattangaben verstanden)
Edit: achso jetzt erst den Kontext verstanden - im Bezug auf PCB-Bestückung hast du natürlich recht.

Berniyh
2020-10-20, 14:04:41
Werden (passiv gekühlte) RDNA2 Low End Karten rauskommen?
Zb. RX6500 oder kleiner?
Wenn Navi 24 ein kleiner Chip wird, dann vermutlich schon.
Zumindest wenn sich ein Hersteller so einer Lösung annimmt (was ja nicht garantiert ist).
Zumindest irgendwas mit Zero-Fan Modus sollte es aber auf jeden Fall geben.

Derzeit wissen wir aber noch nicht, ob Navi 24 diese Funktion haben wird, könnte sich auch um was anderes handeln.
Ist aktuell der einzige Chip der Navi 2x Reihe zu dem wir nichts wissen außer, dass es ihn geben soll.

Berniyh
2020-10-20, 14:21:23
Ich finde Igors Rechnung auch nicht ganz nachvollziehbar.
Zwar scheinen mir die MOSFETs recht vernünftig angenommen (wobei doch eigentlich gute mehr als 90% Effizienz schaffen, oder?), aber bei den anderen Punkten bin ich etwas verdutzt.

Warum hat er denn bei Fans / Other Power bei AMD 15W angenommen, bei Nvidia aber 7W?
Sehe nicht wirklich, dass das Sinn macht.
Zudem hat er in beiden Fällen 15W für das PCB angenommen, was man doch bezweifeln darf angesichts des Aufwands für GDDR6X.
Gut, das macht den Braten auch nicht fett, aber ich denke insgesamt liegt er bei seiner Rechnung erst mal so 20-25W daneben.

Am Ende hat er vermutlich mit der TBP dann aber doch recht, denn man muss ja auch noch den USB-C dazu zählen und der darf bis zu 27 W ziehen, was es dann wieder ausgleicht.

maximus_hertus
2020-10-20, 14:36:28
50% P/W laut AMD.


Die 50% beziehen sich auf den Chip, NICHT auf die endgültigen Karten.

Ein RDNA2 im Sweetspot wird die +50% zu RDNA1 packen. Taktet man nicht im Sweetspot, wird es wohl eher weniger werden. Gerade wenn man ein Konkurrenzprodukt hat, das wenige % vor einem liegt, könnte man versucht sein, etwas Effizienz für die letzten fps zu opfern.

Macht euch nicht verrückt. Aus nVidias "dopplet so schnell wie die RTX 2080" ist ja auch eher 70-80% mehr fps geworden. Also lasst die Hersteller ihre Cherry-Picks machen und wir warten auf die finalen Daten und unabhängigen Benchmarks. :)

Birdman
2020-10-20, 14:48:02
50% P/W laut AMD.
Diese 50% sind auf die Architektur bezogen.
Wenn man diesen Wert heranzieht um von irgendeiner SKU was hochzurechnen, dann ist das ziemlich sinnbefreit.


edit sagt: zu langsam, maximus war schneller

dargo
2020-10-20, 14:56:43
Wenn der Vram ebenfalls von Samsung kommt, dann sind 1G Memclock trotzdem sicher. Da wäre ein Lasercut imo besser.
Du meinst so sicher wie bei Navi10? :rolleyes:

BlacKi
2020-10-20, 14:57:27
Die 50% beziehen sich auf den Chip, NICHT auf die endgültigen Karten.

Ein RDNA2 im Sweetspot wird die +50% zu RDNA1 packen. Taktet man nicht im Sweetspot, wird es wohl eher weniger werden. Gerade wenn man ein Konkurrenzprodukt hat, das wenige % vor einem liegt, könnte man versucht sein, etwas Effizienz für die letzten fps zu opfern.

Macht euch nicht verrückt. Aus nVidias "dopplet so schnell wie die RTX 2080" ist ja auch eher 70-80% mehr fps geworden. Also lasst die Hersteller ihre Cherry-Picks machen und wir warten auf die finalen Daten und unabhängigen Benchmarks. :)
die diskussion gabs schon früher und man hat sich damals darauf bezogen dass das auf reale produkte bezogen war. diese leute hörst du jetzt nichtmehr, die sind verstummt. genauso wie die leute die meinen das amd die weg der effzienz vorzieht und es nicht logisch ist die karte bis zur ineffizienz zu takten.

und jetzt soll plötzlich der perf/watt vergleich nicht im normalen betrieb zutreffen? ich hab damals schon gesagt, das die 50%per/w nicht bei 2ghz plus erreicht werden sondern bei 1,75-1,85ghz. was wurde ich beschimpft.

aber so kommts halt wenn man sich blenden lässt.

WedgeAntilles
2020-10-20, 14:59:53
Macht euch nicht verrückt. Aus nVidias "dopplet so schnell wie die RTX 2080" ist ja auch eher 70-80% mehr fps geworden. Also lasst die Hersteller ihre Cherry-Picks machen und wir warten auf die finalen Daten und unabhängigen Benchmarks. :)

Man sollte ja auch nicht vergessen wo man herkommt.
Wenn AMD jetzt aller Voraussicht nach eine Karte bringt, die ungefähr auf 3080 Niveau ist und ungefähr 3080 Verbrauch hat - das ist doch gut?
Dazu hat die Karte mehr Ram als die aktuelle 3080, vermutlich jedoch eher schwaches RT und kein DLSS.
Falls jetzt der Preis ähnlich ist, ist das doch ziemlich ausbalanciert. Wem mehr Ram wichtiger ist greift zu AMD. Wem RT und DLSS wichtiger ist greift zu Nvidia.

Man hat zur Leistungsspitze aufgeschlossen, da war man die letzten 2 Generationen meilenweit weg.

Wieso hier genau immer wieder erwartet (und geglaubt!) wird, dass man aus einem großen Rückstand plötzlich einen großen Vorsprung macht, ist mir unverständlich.
(Und wer AMD nicht ebenfalls meilenweit vorne sieht wird ja sehr gerne angeflamt...)

Linmoum
2020-10-20, 15:05:56
ich hab damals schon gesagt, das die 50%per/w nicht bei 2ghz plus erreicht werden sondern bei 1,75-1,85ghz. was wurde ich beschimpft.

aber so kommts halt wenn man sich blenden lässt.Hast du denn belastbare Fakten, dass es so ist? Gerne her damit, wenn man schon große Töne spuckt. ;)

[MK2]Mythos
2020-10-20, 15:11:03
Hast du denn belastbare Fakten, dass es so ist? Gerne her damit, wenn man schon große Töne spuckt. ;)
Das Muster in Blackis Postings ist immer das gleiche: "Ich habs euch schon immer gesagt, ihr wart alle doof". JEDES einzelne Posting trieft nur so vor Selbstbeweihräucherung. Natürlich bleibt er Beweise für seine Geschichten schuldig - wie immer.

BlacKi
2020-10-20, 15:11:34
Hast du denn belastbare Fakten, dass es so ist? Gerne her damit, wenn man schon große Töne spuckt. ;)
wir werden es sehen;)

Linmoum
2020-10-20, 15:16:33
Wenn sich eine Architektur scheinbar ohne größere Probleme auf >=2.4GHz bringen lässt, sehe ich keinen Grund, warum der Sweetspot nur bei ~1.8GHz liegen sollte. Ich bin mir sicher, dass man +50% Perf/Watt auch mit 2.xGHz zu sehen bekommen wird.

Gratzner
2020-10-20, 15:20:30
Die 50% beziehen sich auf den Chip, NICHT auf die endgültigen Karten.


Nö. Also wir reden über AMDs Folie mit den +50% Perf/Watt zwischen GCN und RDNA1, sowie RDNA1 und RDNA2. Bisher wurden diese Angaben in realen Prdukten übererfüllt. Siehe https://www.computerbase.de/... (https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#diagramm-performance-pro-watt-1920-1080):

RX Vega 64 vs RX 5700xt: +63% mehr Perf/watt für letztere
RX Vega 56 vs RX 5700: +50% mehr Perf/watt für RDNA

Ich habe NAVI nicht mit der Radeon VII verglichen (welche auch GCN wäre), weil diese zum Zeitpunkt der Folien noch nicht veröffentlicht wurde

Redneck
2020-10-20, 15:26:22
50% P/W laut AMD.

Nehmen wir Navi10 mit 225 W TBP = 100% => 1% pro 2.25 W

Nun nehmen wir mal +50% P/W an => 1.5 W = 1% (und das wäre also TBP !)
.

wie bitte ?

[MK2]Mythos
2020-10-20, 15:26:35
Es ist ja nun auch keine prophetische Meisterleistung, vorherzusagen dass +50% P/W nicht bei jedem Takt erreicht wird. Da kann sich jeder den Takt raussuchen, den er gerade braucht um die eigene Darstellung zu untermauern. Dass das nicht hinkommt, wenn man RDNA2 bis zur absoluten Grenze prügelt und auf der anderen Seite RDNA1 im Sweetspot betreibt, kann doch wohl nicht ernsthaft jemanden überraschen.

Langlay
2020-10-20, 15:29:02
wir werden es sehen;)

Werden wir nicht. Der Punkt wo die Leistungsaufnahme expoldiert sollte schon weiter oben sein. ~1.8GHz ist ungefähr der Punkt, ab dem die Leistungsaufnahme von einer Radeon VII explodiert. Wenn das bei Navi21 ähnlich ist wirste nicht auf 2.2 GHz Gametakt kommen ohne das du Unmengen an Strom brauchst.

Meine VII hat bei 1.775 GHz Coretakt ~ 200W ASIC Power in Witcher 3 4k.
Bei 2.05GHz liegste bei 350-400W ASIC Power in Witcher 4k.

Wenn ich jetzt eine Milchmädchenrechnung mache. Und sage das ist der Punkt ab dem ich für 10% mehr Takt meine Leistungsaufnahme verdoppel. Müsste Navi21 bei 1.8GHz <100W verbrauchen damit ich dann auf 320W @ 2.2 GHz komme, wenn sie ähnlich skaliert wie die VII. Halte ich für ne gewagte Aussage.

Dural
2020-10-20, 15:34:51
Manchmal frage ich mich echt was hier nur los ist?!?

Bei Vega zu Navi1 hatten wir auch 16nm vs 7nm, das sind zwei ganze Full Node (!!!) und alte Architektur gegen neue Architektur :rolleyes: Dazu war Vega ein kompletter Krüppel Chip, extrem ineffizient, selbst da hat AMD "nur" 60% rausgeholt.

Und jetzt schaut mal wie die Konsolen Chips Takten, richtig 1,8 und 2,2GHz. Wieso die eine mit 1,8GHz und die andere mit 2,2GHz taktet dürfte ziemlich offensichtlich sein. Muss ich wohl nicht erklären?!?

Die Effizienzsteigerung von Navi2 kommt alleine von Optimierungen die sicher kaum ins Gewichtfallen werden (ca. 5-10%) deutlich breiterem Chip, und Überarbeitung SI / Cache System (256Bit etc.)

Langlay
2020-10-20, 15:40:45
Die Effizienzsteigerung von Navi2 kommt alleine von Optimierungen die sicher kaum ins Gewichtfallen werden (ca. 5-10%) deutlich breiterem Chip, und Überarbeitung SI / Cache System (256Bit etc.)


5700XT 40 CU@ ~1950MHz = 225W Verbrauch, wenn ich jetzt 10% Effizenzsteigerung hab wie will ich dann 80CUs @2.2 GHz in 320W unterkriegen ? Deine Aussage muss irgendwo einen Fehler haben. Ich würde bei die 5-10% Effizienzsteigerung.vermuten. Weil mit deiner Aussage würde die Karte dann bei 1950MHz mit 80CU schon über 400W verballern und bis 2.2 GHz ist dann noch ein langer weg.

Kommt Navi21 mit externem Netzteil und die 320W sind nur das was über das interne Netzteil zieht? Oder wie siehst du das?

Und das die X-Box mit 52CU @ 1.8 GHz + 8 Zen2 Kernen und allem anderen Gedöns weniger Strom verbraucht als bei der 5700XT nur der Chip + Speicher haste auch irgendwie vergessen zu erwähnen.

NC
2020-10-20, 15:44:03
Die Effizienzsteigerung von Navi2 kommt alleine von Optimierungen die sicher kaum ins Gewichtfallen werden (ca. 5-10%) deutlich breiterem Chip, und Überarbeitung SI / Cache System (256Bit etc.)
In der Summe soll das dennoch 50% bei perf/W sein. Dass AMD das jetzt auf einem anderen Weg als bei GCN zu RDNA1 erreicht ist nicht wirklich.

Dural
2020-10-20, 15:47:44
Doppelte Einheiten bedeuten selten bis nie doppelter Verbrauch.

Weil schlicht nicht der ganzer Chip verdoppelt wird zb. Uncore Bereich, und wie es scheint bleibt das Si mehr oder weniger gleich 256Bit vs 256Bit, das alleine wird kräftig sparen.

Die einzige grosse Frage um Navi2 ist eigentlich nur wie AMD den Bandbreiten Mangel kompensieren kann (Und ob sie das überhaupt zu 100% können)

Langlay
2020-10-20, 15:50:25
Doppelte Einheiten bedeuten selten bis nie doppelter Verbrauch.

Weil schlicht nicht der ganzer Chip verdoppelt wird zb. Uncore Bereich, und wie es scheint bleibt das Si mehr oder weniger gleich 256Bit vs 256Bit, das alleine wird kräftig sparen.

Die einzige grosse Frage um Navi2 ist eigentlich nur wie AMD den Bandbreiten Mangel kompensieren kann (Und ob sie das überhaupt zu 100% können)


Doppelter Chip + 10% höherem Takt. Doppelter Chip bei gleichem Takt kostet etwas weniger als 2x Verbrauch. Aber Welten macht das auch nicht aus, lass das +75-80% Stromverbrauch im Vergleich zum halben Chip sein, das reicht trotzdem noch nicht um deine Aussage von oben plausibel zu machen.

Dural
2020-10-20, 15:57:45
Ich glaube auch nicht das sie die 50% erreichen, an den 50% habe ich schon immer gezweifelt. Jedenfalls nicht beim Top Produkt.

Real 20-30% wäre schon ein richtig guter Wert. Passt eigentlich auch ziemlich gut zu den 300-320Watt.

Hakim
2020-10-20, 15:59:04
Die 290W für den kleineren falls es den gegen die 3070 antreten soll finde ich etwas viel (ausgehend von 220w vs 290w). Oder es platziert sich zwischen 3070 und 3080.

NC
2020-10-20, 16:00:47
Ich glaube auch nicht das sie die 50% erreichen, an den 50% habe ich schon immer gezweifelt. Jedenfalls nicht beim Top Produkt.

Real 20-30% wäre schon ein richtig guter Wert. Passt eigentlich auch ziemlich gut zu den 300-320Watt.worauf stützen sich deine Zweifel? Die bisherigen Aussagen von AMD stimmten.

Langlay
2020-10-20, 16:02:47
worauf stützen sich deine Zweifel? Die bisherigen Aussagen von AMD stimmten.


Das die Karte von AMD nicht von Nvidia kommt.

dargo
2020-10-20, 16:03:47
Und jetzt schaut mal wie die Konsolen Chips Takten, richtig 1,8 und 2,2GHz. Wieso die eine mit 1,8GHz und die andere mit 2,2GHz taktet dürfte ziemlich offensichtlich sein. Muss ich wohl nicht erklären?!?

Es ist für jeden offensichtlich, außer für Dural.

Gratzner
2020-10-20, 16:10:36
Bei Vega zu Navi1 hatten wir auch 16nm vs 7nm, das sind zwei ganze Full Node (!!!)

Nein. Ein Full node Sprung bringt typischerweise eine verdoppelte Transistorendichte mit. Wikichip gibt für eine 1-bit SRAM-Zelle
bei TSMC in der 16 nm Fertigung 0,074µm^2 und
bei TSMC 7nm 0,027µm^2 an.
Macht also das 2,74-fache und nicht das 4-fache. Da SRAM natürlich optimal skaliert, ist der Unterschied in der Praxis sogar noch geringer. 16nm zu 7nm sind eher 1 Fullnodesprung oder aus Sicht des SRAMs 1 Fullnodesprung + 1/2 Halfnodesprung

Ich glaube auch nicht das sie die 50% erreichen, an den 50% habe ich schon immer gezweifelt. Jedenfalls nicht beim Top Produkt.

Real 20-30% wäre schon ein richtig guter Wert. Passt eigentlich auch ziemlich gut zu den 300-320Watt.

Ich fasse mal zusammen: "Eigentlich muss es quasi so sein, das AMD normalerweise die 50% bessere Perf/Watt nicht schaffen söllte. Zumindestens generell beim Top-Produkt nicht"

worauf stützen sich deine Zweifel? Die bisherigen Aussagen von AMD stimmten.

So stark wie er relativiert, kann ich bei Dural nur Zweifel an seinen eigenen Aussagen rauslesen

Iscaran
2020-10-20, 16:11:20
Ich glaube auch nicht das sie die 50% erreichen, an den 50% habe ich schon immer gezweifelt. Jedenfalls nicht beim Top Produkt.

Real 20-30% wäre schon ein richtig guter Wert. Passt eigentlich auch ziemlich gut zu den 300-320Watt.

Und welche Leistungsregion würde Karte dann bei +30% haben ?

RTX 3070 oder wie ? Mach dich doch nicht selbst lächerlich.

180 W TGP also bei 1.8 W / %3DC-Index
bei +30% Effizienz sind wir da bei 1.385 W/%3DC

Nehmen wir deine 320 W TBP:
Und dazu den Faktor 1.25 für den Overhead von TBP zu TGP = 255 W TGP.

255/1.385 = 184% eines Navi10

Das wäre dann wo ca?
2080 Ti Niveau (+10% evtl.)...

Aha - und von den BENCHMARKS von AMD wissen wir, dass wir mindestens EIN Produkt haben das ungefähr auf RTX 3080 Höhe liegt.

Mach dich doch nicht selber lächerlich mit deinen Trollversuchen.

[MK2]Mythos
2020-10-20, 16:15:48
(...)
RTX 3070 oder wie ? Mach dich doch nicht selbst lächerlich.

(...).
Dafür ist es längst zu spät.

unl34shed
2020-10-20, 16:17:35
Und jetzt schaut mal wie die Konsolen Chips Takten, richtig 1,8 und 2,2GHz. Wieso die eine mit 1,8GHz und die andere mit 2,2GHz taktet dürfte ziemlich offensichtlich sein. Muss ich wohl nicht erklären?!?

Doch bitte mach Mal.

Complicated
2020-10-20, 16:21:25
löschen bitte...

Redneck
2020-10-20, 17:02:43
Mythos;12466952']Dafür ist es längst zu spät.
na na na.. er schrieb "er glaubt"..
genauso wie ans Christkind und an den Osterhasen.
darüber macht man sich nicht lustig:D

Dafür das wir hier im Speku Forum sind, geht das ja noch relativ gesittet zu und die Hand voll Kandidaten , die zu Extremen neigen, hat man relativ schnell ausfindig gemacht. Dural ist ja noch "normal"

Berniyh
2020-10-20, 17:07:05
Jedenfalls nicht beim Top Produkt.
Die Aussage bezieht sich ja auch nicht auf das Top Produkt, sondern auf eine bestimmte Konfiguration (gleiche CU und Taktrate).
Diese ist in der Folie ja auch angegeben.

Bei anderen Konfigurationen kann das natürlich abweichen. Zum besseren aber auch zum schlechteren.

Eben deshalb macht es ja auch nur bedingt Sinn aus so einer Angabe konkrete Aussagen für bestimmte Produkte abzuleiten, wie ja vorhin schon angemerkt wurde.

stinki
2020-10-20, 17:10:34
Natürlich kann man Navi10 mit 40CUs nicht direkt mit Navi21 mit 80CUs vergleichen, ich mache es aber trotzdem mal, und gehe von 50% mehr Perf/Watt aus, dann komme ich nur bezogen auf die Watt Zahl ganz grob überschlagen auf:
Navi10: TGP:180W / 3DC-Perf-Index:163%
Navi21: TGP:255W / estimated 3DC-Perf-Index:346% (163*1,5*255/180)

Ich weiß, das kann man so vereinfacht nicht rechnen und der Wert wird wahrscheinlich zu hoch sein, aber ich glaube die grobe Richtung wird schon so in etwa passen.

Gratzner
2020-10-20, 17:17:02
Die Aussage bezieht sich ja auch nicht auf das Top Produkt, sondern auf eine bestimmte Konfiguration (gleiche CU und Taktrate).


Kannst Du mir bitte die Folie verlinken?

Ich hatte auch was ähnliches in Erinnerung, dass sich die +50%perf/watt sich auf "same configuration and power" beziehen. Habe jetzt nochmal in den Folien nachgeschaut (link, pcgh (https://www.pcgameshardware.de/AMD-Firma-238123/News/AMD-Financial-Analyst-Day-2020-RDNA-2X-mit-50-Prozent-mehr-IPC-und-Raytracing-1344957/galerie/3368891/?fullsize)) und da steht nur "See Endnotes RX-325; RDNA2 Improvement Based on AMD Internal Estimate". In den RX-325 steht nur "Testing done by AMD perfomance labs 5/23/19, using Division 2 @ 25*14 Ultra settings. Performance may vary based on using of latest drivers"

Das "@ 25*14" steht tatsächlich so da

Linmoum
2020-10-20, 17:22:07
Er meint GCN zu RDNA, auf der Folie stand das damals (bzw. bei den Endnotes) mit gleicher CU-Anzahl.

Jupiter
2020-10-20, 17:46:39
In ALLEN Threads mit RTX3000er Grafikkarten gab es permanent Kommentare, wie überlegen Navi 21 beim Stromverbrauch sein wird. 220 Watt und RTX 3080 Geschwindigkeit und jetzt lese ich von 320 Watt trotz des besseren 7nm-Prozesses. Was für ein Lacher. Da hätte man in den ganzen Threads lieber still sein sollen. Die Effizienz ist noch immer schlechter...

dargo
2020-10-20, 17:55:11
Übrigens spricht Igor hier von ca. 1,5W pro Speichermodul bei 16Gbps GDDR6.
https://youtu.be/CLOVUQVpBGM?t=630

Warum er mit 16 Modulen rechnet ist mir ein Rätsel. Bei 8 Modulen bedeutet das alleine für den Speicher ~12W.

Edit:
Die ersten Nitro+ und Strix als ab Mitte November verfügbar.

maximus_hertus
2020-10-20, 17:56:09
220 Watt und RTX 3080 Geschwindigkeit und jetzt lese ich von 320 Watt trotz 7nm.

Selbst mit 320W wird man wohl UNTER einer 3080 landen ;)

1. Gesetz: kurz vor Launch einer Radeon Karte brauchst du KEINE überhypten "Gerüchte" aka komplette "Wahn" / Wunschvorstellungen aufschnappen. Sie stimmen eh nicht und kosten nur Zeit und KRaft.

Entscheidend ist auf dem Platz aka unabhängige Benchmarks. Nicht früher, aber auch nicht später ;)

PS: Ich denke schon, dass Navi ein echt guter Wurf sein wird, AMD wird so nah dran sein wie seit vielen Jahren nicht mehr. Nur die komplett überzogenen Erwartungen a la schlägt die 3090 bei unter 300W sind komplett daneben.

Berniyh
2020-10-20, 17:57:03
Er meint GCN zu RDNA, auf der Folie stand das damals (bzw. bei den Endnotes) mit gleicher CU-Anzahl.
Genau. Bei RDNA2 muss man mal abwarten, aber wäre seltsam, wenn AMD jetzt plötzlich wieder anders rechnet.
100%ig ausschließen kann man derzeit bei RDNA2 aber so gut wie gar nichts.

Linmoum
2020-10-20, 17:59:47
Nur die komplett überzogenen Erwartungen a la schlägt die 3090 bei unter 300W sind komplett daneben.Überzogene Erwartungen sind nicht mehr daneben als ständiges "selbst damit reicht es nicht für die 3080"-Mantra.

Jupiter
2020-10-20, 18:02:42
Selbst mit 320W wird man wohl UNTER einer 3080 landen ;)

1. Gesetz: kurz vor Launch einer Radeon Karte brauchst du KEINE überhypten "Gerüchte" aka komplette "Wahn" / Wunschvorstellungen aufschnappen. Sie stimmen eh nicht und kosten nur Zeit und KRaft.

Entscheidend ist auf dem Platz aka unabhängige Benchmarks. Nicht früher, aber auch nicht später ;)

PS: Ich denke schon, dass Navi ein echt guter Wurf sein wird, AMD wird so nah dran sein wie seit vielen Jahren nicht mehr. Nur die komplett überzogenen Erwartungen a la schlägt die 3090 bei unter 300W sind komplett daneben.

Das ist natürlich korrekt. Trotzdem nervt es, wenn alle Nvidia-Threads mit so etwas überflutet werden. Wenn das nicht gewesen wäre, hätte ich hier nichts geschrieben.

AMD kann diesmal wohl bei der Energieeffizienz aufholen und näher aufschließen als den letzten sechs Jahren. Das stimmt.

Überzogene Erwartungen sind nicht mehr daneben als ständiges "selbst damit reicht es nicht für die 3080"-Mantra.

Wenn sie trotz 7nm ähnlich viel verbrauchen soll, ist diese Einschätzung zumindest realistischer.

Linmoum
2020-10-20, 18:07:01
Allein der reine Verbrauch hat nur nichts mit Effizienz zu tun. Da fehlt noch was zur Beurteilung.

dargo
2020-10-20, 18:09:23
AMD kann diesmal wohl bei der Energieeffizienz aufholen und näher aufschließen als den letzten sechs Jahren. Das stimmt.

Nö... denn schon RDNA1 war so effizient wie Turing.

eratte
2020-10-20, 18:09:33
Wenn das nicht gewesen wäre, hätte ich hier nichts geschrieben.

Selektive Wahrnehmung? wenn ich hier als Leser die nervigsten User listen würde die Threads fluten dann kommen 90 % aus dem grün/blauen Lager. Dieses Lagerdenken werde ich nie verstehen.

Du nimmst ja auch die für dich passende Spekulation als gegeben hin.

Adam D.
2020-10-20, 18:12:39
Wenn sie trotz 7nm ähnlich viel verbrauchen soll, ist diese Einschätzung zumindest realistischer.
Ich finde viel witziger, wie hier manche Leute schon wieder absurde Beurteilungsmaßstäbe ansetzen. Wenn AMD bei Performance und Effizienz mit NV gleichzieht, ist das ein gigantischer Win für AMD. Nicht zu vergessen, dass sie vom Start weg mehr Speicher bieten.

Jupiter
2020-10-20, 18:24:54
Selektive Wahrnehmung? wenn ich hier als Leser die nervigsten User listen würde die Threads fluten dann kommen 90 % aus dem grün/blauen Lager. Dieses Lagerdenken werde ich nie verstehen.

Du nimmst ja auch die für dich passende Spekulation als gegeben hin.

Ich bin kein Anhänger irgendeines Hardwareherstellers, mich nervte aber die Überflutung in den Nvidia-Threads extrem. Nach meiner Beobachtung sind die Nvidia-Anhänger eher ignorant, sehen auf AMD herab und schenken AMD-Grafikkarten ansonsten keine Beachtung. Da wird nicht so viel geschrieben. Wenn bedacht wird wie viele Nutzer statistisch gesehen Nvidia-Grafikkarten und wie viele AMD-Grafikkarten haben, wird das noch deutlicher.

Nightspider
2020-10-20, 18:32:37
Was viele Leute halt feiern ist das ein Underdog wie AMD demnächst eventuell die besseren Karten auf den Markt bringen wird und der Konkurrenzkampf dadurch endlich mal wieder härter wird.

Man muss halt auch mal sehen wie Ampere gefeiert wurde von den Nvidia Fans, nachdem Nvidia jahrelang die Preise angehoben hat und mit den letzten 2 Generationen jeweils nur ~~ +35% Leistung bot.

Nicht wenige finden es auch albern das überhaupt eine 3080 mit nur 10GB VRAM auf den Markt gebracht wurde, 4 Jahre nach der 1080ti mit 11GB.

Langlay
2020-10-20, 18:51:44
Nicht wenige finden es auch albern das überhaupt eine 3080 mit nur 10GB VRAM auf den Markt gebracht wurde, 4 Jahre nach der 1080ti mit 11GB.

Es ist ja auch albern, eine ansonsten überzeugende Karte rauszubringen und dann nur soviel VRAM zu verbauen, das die Karte heute schon teilweise Einschränkungen dadurch hat.

Mit 12GB GDDR6 @ 384Bit, wäre die 3080 eine rundere Karte gewesen, als das Ding das Nvidia vorgestellt hat.

Hakim
2020-10-20, 18:54:25
Es ist auf beiden Threads überfüllt, schenkt sich nicht viel mMn, etwas sticheln ist ok und Lustig, man kann ja Tendenziell eine Marke vorziehen, aber das ständige schlecht reden, Total unrealistische Spekus abfeiern, sich einen ab geilen wenns bei der Konkurrenz nicht so läuft ist schon, ja net ganz Gesund.

Ich habe das Gefühl das sowohl der Fette Chip als auch die abspeck Version sicher innerhalb vom 3070-3080 befinden werden, sprich einige % unter 3080 (könnte auch die Positionierung der 3080 erklären) und die kleinere einige Prozente über der 3070. DLSS und RT mal außen vor hätte AMD damit in den Bereich wo es viel mehr verkauft wird die schnellere Karte, aber mal abwarten.

NC
2020-10-20, 18:56:03
AMD kann diesmal wohl bei der Energieeffizienz aufholen und näher aufschließen als den letzten sechs Jahren. das ist nicht so sicher, RDNA1 mit 7nm konnte mit 12nm Turimg mithalten. Ampere ist zwar in FPS/TFlop ineffizienter geworden, aber dank 8nm dann doch insgesammt besser. AMD muss jetzt ohne viel Herstellungsvorteil eine ebenwürtige Architektur liefern. Das ist nicht einfach, NVidia gammelt nicht rum wie Intel.

Cyberfries
2020-10-20, 19:04:58
_rogame und Redgamingtech spekulieren über drei Karten zum Start. Bei _rogame klingt das so:
This could mean
Navi21 XTX is 6900 XT 80CU
Navi21 XT is 6800 XT 72CU
Navi21 XL is 6800 72CU
https://twitter.com/_rogame/status/1318580960917676033

Gabs das schonmal, dass eine XTX einer anderen Zahl zugeordnet wird, als die XT?
Es bleibt merkwürdig.
Trotz aller Geheimniskrämerei hat die Gerüchteküche in den letzten Tagen merklich angezogen.

Ich glaube mit der genauen Rechnung hat Igor sich keinen Gefallen getan, da sind zuviele Angriffspunkte.
Sollte er von 320w sicher wissen und die Tabelle nach Gefühl befüllt haben, war das nicht clever.

https://videocardz.com/newz/amd-issues-guidelines-to-retailers-to-prevent-radeon-rx-6000-scalping
Videocardz schreibt von Richtlinien an Händlern um Lieferengpässe zu vermeiden.

bloodflash
2020-10-20, 19:13:43
Nicht wenige finden es auch albern das überhaupt eine 3080 mit nur 10GB VRAM auf den Markt gebracht wurde, 4 Jahre nach der 1080ti mit 11GB.


Hätte nV die 3080 mit 12GB herausgebracht und wäre bei 275W geblieben, wären alle zufrieden gewesen.


Jetzt liegt der Ball für AMD auf dem Elfmeterpunkt:
Eine 6900 mit 16GB und bei 275W (300 Peak), meinetwegen in einstelligen Prozentpunkten unter der 3080 und das Ding ist drin. RT zumindest mit angemessener Performance würde da reichen. Statt DLSS vereinfachtes Upscaling/Sharpening ist dann auch gut genug. Preispunkt UVP 679,-$ und gut ist.


Wenn die jetzt auch so ein Monster rausbringen, bin ich raus. OK, bin ich sowieso, weil mich eher die >200W-Karten interessieren, besser nur 150W.

Benutzername
2020-10-20, 19:14:52
Was viele Leute halt feiern ist das ein Underdog wie AMD demnächst eventuell die besseren Karten auf den Markt bringen wird und der Konkurrenzkampf dadurch endlich mal wieder härter wird.

Man muss halt auch mal sehen wie Ampere gefeiert wurde von den Nvidia Fans, nachdem Nvidia jahrelang die Preise angehoben hat und mit den letzten 2 Generationen jeweils nur ~~ +35% Leistung bot.


All das Gefeiere hilft nicht wenn nix im Laden steht. DAS wäre IMHo der echte Knaller wenn AMD auch tatsächlich Stückzahlen liefern kann und die Karten dabei so etwa auf 3080 Niveau sind.



Nicht wenige finden es auch albern das überhaupt eine 3080 mit nur 10GB VRAM auf den Markt gebracht wurde, 4 Jahre nach der 1080ti mit 11GB.

Hat doch bei nvidia Tradition. zb die GTX960 mit nur 2GB VRAM. :wink:


Hat aber imho mit einer Fehleinschätzung seitens nvidia während der Planung zu tun. Der schöne neue GDDR6X Speicher ist doch noch nicht so geil wie geplant und auch noch teuer. wäre er schneller hätte man mit 10Gb wohl leben können. Aber sind ja eh nicht lieferbar. Also auch egal. ;)



Meine Vorhersage für Bignavi ist Leistung etwas unter 3080, aber lieferbar und kühler.

Berniyh
2020-10-20, 19:22:54
Sollte er von 320w sicher wissen und die Tabelle nach Gefühl befüllt haben, war das nicht clever.
Stimmt, aber wie gesagt sind 320W schon plausibel, wenn man den USB-C mit einrechnet. ;)

Berniyh
2020-10-20, 19:25:37
Meine Vorhersage für Bignavi ist Leistung etwas unter 3080, aber lieferbar und kühler.
Wäre mir ehrlich gesagt recht.
Dann können sich die ganzen Benchmarkfetischisten die 3080 holen und für vernünftige Menschen bleibt die bessere Wahl zurück. :biggrin:

Complicated
2020-10-20, 19:25:48
Witzigerweise hat er genau USB überhaupt nicht berücksichtigt.

BigBangBacket
2020-10-20, 19:31:34
_rogame und Redgamingtech spekulieren über drei Karten zum Start. Bei _rogame klingt das so:

https://twitter.com/_rogame/status/1318580960917676033

Gabs das schonmal, dass eine XTX einer anderen Zahl zugeordnet wird, als die XT?

So wie die 5700 xt damals die 2070 stehen musste könnte ich mir das Schema jetzt auch vorstellen.
6800 vs 3080 ca.
6900 vs 3090 ca.

Immer ein paar Prozentpunkte hoch oder runter. Rechne eher 5-10% unter Nv
Aber wie sicher ist diese Namensgebung bisher?!

Wie spannend. Habe schon Stressdurchfall

Screemer
2020-10-20, 19:38:42
In ALLEN Threads mit RTX3000er Grafikkarten gab es permanent Kommentare, wie überlegen Navi 21 beim Stromverbrauch sein wird. 220 Watt und RTX 3080 Geschwindigkeit und jetzt lese ich von 320 Watt trotz des besseren 7nm-Prozesses. Was für ein Lacher. Da hätte man in den ganzen Threads lieber still sein sollen. Die Effizienz ist noch immer schlechter...
Das lustige ist, dass das Wort Navi weniger häufig im Ampere spekuthread vorkommt als alleine 3080 hier im navi-faden. Nimmt man noch Ampere und 3090 dazu, dann liegt Nvidia deutlich vor AMD im jeweils anderen Spekulationsfaden :ugly:

Über eine ach so häufig diskutierte überlegene perf/w gibt es seit gut einem Monat quasi keinen post. Mmmmh. An was das wohl liegt?

dargo
2020-10-20, 19:39:48
Hätte nV die 3080 mit 12GB herausgebracht und wäre bei 275W geblieben, wären alle zufrieden gewesen.

Nur Nvidia nicht, denn dann hätte die 3080 912GB/s Bandbreite und die 3090 würde sich nur noch um die 5-6% absetzen können. ;)

Langlay
2020-10-20, 19:51:42
Über eine ach so häufig diskutierte überlegene perf/w gibt es seit gut einem Monat quasi keinen post. Mmmmh. An was das wohl liegt?


Also mal unter uns Ordensschwestern, eigentlich müsste die 3090 von AMD kommen. Die Karte verhält sich wie ne Vega20 auf Steroiden.
Bis ~1600 MHz Coreclock ist noch alles okay und der Stromverbrauch noch ziemlich gering. Bis ~1800MHz Coreclock ist der Stromverbrauch noch so okay und bei allem >1800MHz Coreclock steigt dann der Stromverbrauch soviel das dir die Augen tränen *g

So wie die 5700 xt damals die 2070 stehen musste könnte ich mir das Schema jetzt auch vorstellen.
6800 vs 3080 ca.
6900 vs 3090 ca.

Immer ein paar Prozentpunkte hoch oder runter. Rechne eher 5-10% unter Nv
Aber wie sicher ist diese Namensgebung bisher?!

Wenn die 6800 5% schneller ist als die 3080 und die 6900 5% langsamer als ne 3090.

Wären beide Karten (6800 & 6900) gleich schnell. :freak:

Screemer
2020-10-20, 20:00:53
Hat mich auch sehr an die VII erinnert. Ab einem gewissen Punkt gibt's für jedes Prozent mehr Leistung einen Schritt mehr hin zu wahnsinnigen Geschwindigkeit des Rädchens im Stromzähler.

bloodflash
2020-10-20, 20:07:00
Nur Nvidia nicht, denn dann hätte die 3080 912GB/s Bandbreite und die 3090 würde sich nur noch um die 5-6% absetzen können. ;)


Naja, das lässt sich über TBP und langsameren Speicher durchaus regulieren.


Für mich ist das einzige Indiz, dass nV von AMD kalt überrascht wurde, die Auslegung der 3080. Das passt vorne und hinten nicht. Weniger Watt, weniger HighPerformance beim Speicher, anderes Die und etwas mehr Speichermenge hätten dem Produkt wirklich gut getan.


So ist das nur Crap. Mit der mangelnden Verfügbarkeit sogar MEGA-Crap.


AMD kann hier nur gewinnen. Ausser die kommen mit einem ähnlichen Monster.

dargo
2020-10-20, 20:09:01
Naja, das lässt sich über TBP und langsameren Speicher durchaus regulieren.

Es gibt keinen langsameren GDDR6X.

Berniyh
2020-10-20, 20:11:44
Es gibt keinen langsameren GDDR6X.
Aber normalen GDDR6. ;)

unl34shed
2020-10-20, 20:12:42
Da ist halt dann die Frage, ob die mit dem gleichen Interface laufen.

BigBangBacket
2020-10-20, 20:12:47
Also mal unter uns Ordensschwestern, eigentlich müsste die 3090 von AMD kommen. Die Karte verhält sich wie ne Vega20 auf Steroiden.
Bis ~1600 MHz Coreclock ist noch alles okay und der Stromverbrauch noch ziemlich gering. Bis ~1800MHz Coreclock ist der Stromverbrauch noch so okay und bei allem >1800MHz Coreclock steigt dann der Stromverbrauch soviel das dir die Augen tränen *g

[QUOTE]

Wenn die 6800 5% schneller ist als die 3080 und die 6900 5% langsamer als ne 3090.

Wären beide Karten (6800 & 6900) gleich schnell. :freak:

Nun...ich hatte wirklich gedacht das das nicht extra betont werden musste...aber natürlich muss man von der 3080....5% abziehen...und dann auch noch von der 3090 5% abziehen. 5-10 habe ich jetzt ausgelassen da es wohl zu noch mehr Missverständnissen führt.
Also NICHT irgendwo was abziehen und woanders was hinzufügen

dargo
2020-10-20, 20:13:07
Aber normalen GDDR6. ;)
Wie oft denn noch? :facepalm: GA102 hat einen GDDR6X Speichercontroller und logischerweise auch der Salvage davon.

bloodflash
2020-10-20, 20:16:02
Es gibt keinen langsameren GDDR6X.


Wenn AMD wirklich mit 256bit und 16GPS-DDR6 knapp an das Perfomance-Niveau rankommt, wäre das der Gegenbeweis.


Wenn nV natürlich die Bandbreite braucht...


Bleibe gespannt bis zum 28.
Das wird entweder ein Fiasko für AMD oder ein Punch. Wenn ich die komischen "Leaks" betrachte.
Ohne Leaks hoffe ich auf Secret-Sauce oder knapp darunter aber Preis-/Leistungs-Sieger.

Screemer
2020-10-20, 20:17:40
Kann ja Mal jemand seine 3080 auf entsprechende Bandbreite untertakten und schauen wie sich die perf verhält. Würde mich wirklich interessieren.

Berniyh
2020-10-20, 20:18:29
Wie oft denn noch? :facepalm: GA102 hat einen GDDR6X Speichercontroller und logischerweise auch der Salvage davon.
Ja, aber selbst Schuld, wenn man so einen Schmu fabriziert. Mein Mitleid hält sich da absolut in Grenzen.

Cyberfries
2020-10-20, 20:22:55
Wie oft denn noch? :facepalm: GA102 hat einen GDDR6X Speichercontroller und logischerweise auch der Salvage davon.

Und wie erklärst du dann die Quadro A6000 und A40?
https://videocardz.com/newz/nvidia-announces-quadro-rtx-a6000-and-quadro-rtx-a40
GA102 kann GDDR6.

Aber wie sicher ist diese Namensgebung bisher?!

Da steht Spekulation, nicht Gerücht. Also absolut unsicher.

Redneck
2020-10-20, 20:27:33
In ALLEN Threads mit RTX3000er Grafikkarten gab es permanent Kommentare, wie überlegen Navi 21 beim Stromverbrauch sein wird. 220 Watt und RTX 3080 Geschwindigkeit und jetzt lese ich von 320 Watt trotz des besseren 7nm-Prozesses. Was für ein Lacher. Da hätte man in den ganzen Threads lieber still sein sollen. Die Effizienz ist noch immer schlechter...
Und was du jetzt liest ist Fakt oder auch nur Spekulation? Am Ende kommt auch deine Schadenfreude zu früh und bleibt dir im Halse stecken.
Doppelter N10 bei 50% gesteigerter P/W stehen im Raum.

dargo
2020-10-20, 20:28:02
Wenn AMD wirklich mit 256bit und 16GPS-DDR6 knapp an das Perfomance-Niveau rankommt, wäre das der Gegenbeweis.


Wenn nV natürlich die Bandbreite braucht...

Das wird der Knackpunkt sein.

Und wie erklärst du dann die Quadro A6000 und A40?
https://videocardz.com/newz/nvidia-announces-quadro-rtx-a6000-and-quadro-rtx-a40
GA102 kann GDDR6.

Ich werde gerne für dich präziser... GA102 Gaming hat einen GDDR6X Speichercontroller.

btw.
Am A6000 und A40 sieht du auch, dass beide Karten wesentlich weniger Bandbreite haben als die 3080 und die 3090. Offenbar braucht in den Einsatzgebieten NV bei diesen Karten nicht so viel Bandbreite im Gegensatz zur Gaming-Sparte.

Ja, aber selbst Schuld, wenn man so einen Schmu fabriziert. Mein Mitleid hält sich da absolut in Grenzen.
Nvidia hat sich mit der Segmentverschiebung bei der 3080 selbst ein Ei gelegt. Wahrscheinlich war die Angst zu groß vor RDNA2.

Langlay
2020-10-20, 20:33:47
Nun...ich hatte wirklich gedacht das das nicht extra betont werden musste...aber natürlich muss man von der 3080....5% abziehen...und dann auch noch von der 3090 5% abziehen. 5-10 habe ich jetzt ausgelassen da es wohl zu noch mehr Missverständnissen führt.
Also NICHT irgendwo was abziehen und woanders was hinzufügen

Du hast den Witz nicht verstanden.

Ich wollte eigentlich nur scherzhaft ausdrücken, das wenn man schneller ist als die 3080 ist man schon in 3090 Gebiet. Unterm Strich ist die 3090 ne 3080 OC mit mehr RAM.

|MatMan|
2020-10-20, 20:36:55
Meine Vorhersage für Bignavi ist Leistung etwas unter 3080, aber lieferbar und kühler.
Das wäre toll, beißt sich für mich von der Logik her mit dem ständigen Geheule nach fehlenden Kapazitäten in der Fertigung (7nm allgemein).

GA102 Gaming hat einen GDDR6X Speichercontroller.
Was soll das denn bitteschön sein?

Cyberfries
2020-10-20, 21:03:13
Ich werde gerne für dich präziser... GA102 Gaming hat einen GDDR6X Speichercontroller.

Jetzt häng dich nicht in eine sinnlose Diskussion rein.
Geforces und Quadros verwenden das gleiche Die.
Wenn nVidia gewollt hätte, hätten sie auch 12GB GDDR6 bringen können - wollten sie aber nicht.
Über die Gründe dürfen wir gern spekulieren, ob geplante Obsoleszenz, Image oder PCB-Zwänge.
Aber am Chip scheiterts nicht.

Und ob 768GB/s bei GDDR6 oder 760GB/s bei GDDR6X....

BigBangBacket
2020-10-20, 21:14:44
Du hast den Witz nicht verstanden.

Ich wollte eigentlich nur scherzhaft ausdrücken, das wenn man schneller ist als die 3080 ist man schon in 3090 Gebiet. Unterm Strich ist die 3090 ne 3080 OC mit mehr RAM.

Ah touchè. 🤭 Du süsser Witzbold.
Aber ich gehe nicht davon aus das AMD schneller ist als ihr NV Gegenpart. Und das meine ich ernst 😋
Ich halte es trotzdem für eine tolle Leistung wenn AMD es schafft in die Nähe von Nvidias Karten kommt. Auch mit gleicher Leistungsaufnahme.
Aber die hoffentlich bald erscheinende Reverb G2 braucht wohl einen neuen Feuerstuhl 🔥

gedi
2020-10-20, 23:17:27
Echt ein witziger Thread hier: Heute morgen schreibe ich noch die XTX wird die 6900 und alles lacht mich aus, schreibt es Rogame, alles gut. Und wenn die 6900 auf ne 3090 10-15% in non-RT Games draufpackt, dann finde ich das nicht wirklich außergewöhnlich.

Linmoum
2020-10-20, 23:24:34
"Ausgelacht" wurdest du nicht für XTX=6900, sondern für dein +30% zur 3080. Bodenhaftung und so.

Berniyh
2020-10-20, 23:33:03
Wenn nV natürlich die Bandbreite braucht...
Da würde ich mir eher den Klotz HBM2 ans Bein binden als so eine aufgeblasene GDDR6X Geschichte.
Günstig scheint das Zeug ja auch nicht zu sein.

Naja, manchmal trifft man halt falsche Entscheidungen und muss damit leben. Siehe Vega bei AMD.
Wahrscheinlich war die Angst zu groß vor RDNA2.
Möglich, aber glaube ich nicht so wirklich. Auch gegen Turing sieht Ampere ja nicht so gut aus wie man es eigentlich erwarten würde.
Ne, ich denke da gab es in der Designphase halt 2-3 Fehlentscheidungen (z.B. GDDR6X, Samsung 8nm).
Gibt es vermutlich immer, aber diesmal haben sie sich halt stärker ausgewirkt.

SKYNET
2020-10-20, 23:36:49
Da würde ich mir eher den Klotz HBM2 ans Bein binden als so eine aufgeblasene GDDR6X Geschichte.
Günstig scheint das Zeug ja auch nicht zu sein.

Naja, manchmal trifft man halt falsche Entscheidungen und muss damit leben. Siehe Vega bei AMD.

Möglich, aber glaube ich nicht so wirklich. Auch gegen Turing sieht Ampere ja nicht so gut aus wie man es eigentlich erwarten würde.
Ne, ich denke da gab es in der Designphase halt 2-3 Fehlentscheidungen (z.B. GDDR6X, Samsung 8nm).
Gibt es vermutlich immer, aber diesmal haben sie sich halt stärker ausgewirkt.

fehler ist eher, das soviel aufs mal kam... zuviel strom, zuwenig mehrleistung gegenüber turing, obwohl theoretisch MASSIV! mehr leistung vorhanden, dann der fertigungsprozess, so das die karten an der kotzgrenze laufen... da war der sprung pascal --> turing deutlich sympathischer(abgesehen vom preis)....

patrickschur
2020-10-20, 23:56:45
Hach, ist das wieder schön hier mitzulesen... Fehlt nur noch eine Packung Popcorn. ;D

Savay
2020-10-21, 00:04:04
Schön?
Ach vergas...du bist ja noch neu hier! :tongue:

Liest sich wie vor 15 Jahren...immer das gleiche nervöse geflatter in dem Hühnerstall kurz vor irgendwelchen Releases. :wink:

Linmoum
2020-10-21, 00:08:52
Wahrscheinlich weiß er schon wieder mehr und findet's deswegen so amüsant. :D

Achill
2020-10-21, 00:20:50
Briketts für den Hypetrain gibt es dann bestimmt erst morgen wieder ... ;)

https://vignette.wikia.nocookie.net/ghibli/images/0/09/Carbon.jpg/revision/latest?cb=20120609142346&path-prefix=de

horn 12
2020-10-21, 02:37:56
Nun, mal sehen ob Alles so kommt wie Igor immer behauptet.
Rechne da weiss einzig und Alleine AMD Was Sache ist.

Nightspider
2020-10-21, 04:43:46
Ich find etwas amüsant das sehr viele hier die Formulierung "knapp hinter der 3080" verwenden, anstatt "in etwa auf Augenhöhe" oder ähnliches.

So als ob AMD gar nicht schneller werden darf oder sie es sich nicht getrauen in Erwägung zu ziehen das AMD doch schneller werden könnte. ;D


Ich schätz es gar nicht so unwahrscheinlich ein das der hochgezüchtete Top-Dog schneller werden könnte als eine 3080. Eventuell dann halt wirklich mit Wasserkühler und schnellerem GDDR6 zum etwas höheren Aufpreis dann natürlich.

gedi
2020-10-21, 06:17:20
"Ausgelacht" wurdest du nicht für XTX=6900, sondern für dein +30% zur 3080. Bodenhaftung und so.

Wieviel schneller ist ne 5700XT zur 2060 non-s? Zudem gehe ich bei einer 6900 (wenn es die wirklich gibt) von 16GB HBM2 aus. Preis: Teuer

Adam D.
2020-10-21, 06:24:09
https://videocardz.com/newz/amd-radeon-rx-6900xt-to-feature-navi-21-xtx-gpu-with-80-cus

N21XTX: 6900XT, 80 CUs, GC 2,04GHz, AMD-exklusiv
N21XT: 6800XT, 72CUs, GC 2,0GHz
N21XL: 6800, 64 CUs, GC 1,8Ghz

AMD bricht also tatsächlich mit ihrer Tradition und platziert die XTX spürbar über XT.

Hakim
2020-10-21, 06:36:07
In dem Link steht aber was von 2040 mhz GC und nicht 2.3ghz für die xtx

Adam D.
2020-10-21, 06:50:51
In dem Link steht aber was von 2040 mhz GC und nicht 2.3ghz für die xtx
fixed, danke!

Ich entnehme dem Namensschema jetzt einfach mal, dass AMD tatsächlich die 3090 angreifen will. WTF :freak:

3090 ~ 6900 XT > 3080 ~ 6800XT > 6800 > 3070 ?

user77
2020-10-21, 06:54:05
Heißt das auf der Präsentation wurden die FPS von der 6800XT gezeigt?

OgrEGT
2020-10-21, 06:55:34
https://videocardz.com/newz/amd-radeon-rx-6900xt-to-feature-navi-21-xtx-gpu-with-80-cus

N21XTX: 6900XT, 80 CUs, GC 2,0GHz, AMD-exklusiv
N21XT: 6800XT, 72CUs, GC 2,0GHz
N21XL: 6800, 64 CUs, GC 1,8Ghz

AMD bricht also tatsächlich mit ihrer Tradition und platziert die XTX spürbar über XT.

Und alle mit 16GB VRAM...
Interessant ist die 6800... die platziert sich genau zwischen 2080ti/3070 und 3080... sofern die geleakten 4k Benchmarks von der 6800XT stammen...

Adam D.
2020-10-21, 06:56:11
Heißt das auf der Präsentation wurden die FPS von der 6800XT gezeigt?
Es ist zumindest denkbar. Würde auch dieses ominöse Interview danach erklären. Ich glaub zwar immer noch nicht ganz dran, aber in einer Woche wissen wir dann endlich mehr.

Korvaun
2020-10-21, 07:33:26
Würde doch gut passen:
6800XT ca. 5-10% unter 3080
6900XTX ca. 5% über der 3080
Stromverbrauch wird ähnlich der 3080 sein wobei die 6800XT unter 300W bleiben wird. Ref-Design wird wie immer bei AMD nicht so dolle sein, insbesondere die Lautstärke unter Last...

Würde mit der ZEN Roadmap gleichgehen:
RDNA1=ZEN1 (Konkurrenz wieder in Schlagsdistanz)
RDNA2=ZEN2 (Konkurrenz +/- eingeholt)
RNDA3=ZEN3 (Konkurrenz überholt) --> noch Träumerei ;)

Cyberfries
2020-10-21, 07:59:30
Ich entnehme dem Namensschema jetzt einfach mal, dass AMD tatsächlich die 3090 angreifen will.

Genau, siehe RX580, RX480, R9 380, R9 280. Alles Karten in Konkurrenz zur jeweiligen x60/x70....
Haltet eure Pferde ruhig, es sind nur Namen, nicht zuviel in jedes Detail interpretieren.

Stromverbrauch wird ähnlich der 3080 sein wobei die 6800XT unter 300W bleiben wird.

Der Videocardz-Artikel verweist auch auf Coreteks (nicht vertrauenswürdig),
der von 255/320w bei der 6800xt und von 290+/300+w bei der 6900xt ausgeht, wäre über der 3090!

Maybe the codename(XTX XT XL) need some corrections.
Nochmal zu den Codenamen, Yuko Yoshida hat zuletzt eine andere Interpretation gezeigt (XT, XTL, XL),
nun meint auch kopite7kimi, dass das bisher vermutete Schema nicht zutreffen muss.
https://twitter.com/kopite7kimi/status/1318776796226048001

Adam D.
2020-10-21, 08:05:31
Genau, siehe RX580, RX480, R9 380, R9 280. Alles Karten in Konkurrenz zur jeweiligen x60/x70....
Haltet eure Pferde ruhig, es sind nur Namen, nicht zuviel in jedes Detail interpretieren.
Klar, es bleibt Spekulation bzw. Gedankenspielerei. Sie beruht ja auch auf der Annahme, dass 3080 > 6800 > 3070, nur dann würde es Sinn ergeben. 10% mehr CUs und minimal mehr Takt als bei N21XT würde ja auch so ziemlich genau 3090 ergeben, wenn XT ~ 3080.

dargo
2020-10-21, 08:14:23
https://videocardz.com/newz/amd-radeon-rx-6900xt-to-feature-navi-21-xtx-gpu-with-80-cus

N21XTX: 6900XT, 80 CUs, GC 2,04GHz, AMD-exklusiv
N21XT: 6800XT, 72CUs, GC 2,0GHz
N21XL: 6800, 64 CUs, GC 1,8Ghz

AMD bricht also tatsächlich mit ihrer Tradition und platziert die XTX spürbar über XT.
Puh... bin etwas erleichtert, dass N21XL nicht im SI und somit auch nicht in der Speichermenge beschnitten ist. (y)

Edit:
Eine Sache ist dennoch komisch. XTX hat rund 40% mehr Rohleistung als die XL und beide Karten sollen mit der gleichen Bandbreite kommen? Etwas merkwürdig zumal AMD die XL mit 14Gbps besser abgrenzen könnte. Es sei denn es gibt wirklich diesen ominösen Cache und dieser dann per Lasecut bei der XL reduziert bzw. ganz deaktiviert wird. Keine Ahnung welche Möglichkeiten bei so einer Lösung bestehen.

Heißt das auf der Präsentation wurden die FPS von der 6800XT gezeigt?
Weiß niemand. Theoretisch könnte es sogar die RX 6800 gewesen sein.

btw.
Die Frequenzen scheinen wohl noch nicht final zu sein. Haben die Leaker diese aus dem eingebremsten Treiber herausgelesen? :tongue:

Iscaran
2020-10-21, 08:55:04
https://translate.googleusercontent.com/translate_c?client=tw-ob&depth=1&hl=de&ie=UTF8&pto=aue&rurl=translate.google.com&sl=ja&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/posts/2020/07/02/radeonsi-shader-wave64-with-rdna/&usg=ALkJrhiXWo8VwWmHlF-tvCgsNNcBmg565A

Interessant: AMD scheint was an der Treiberausführung geändert zu haben. Die "Default" Wavegröße ist nun wohl auf 64 gewachsen - statt wie bisher 32.

Das hat wohl damit zu tun dass man dadurch mehr im L0 Cache "bleiben" kann - was also die GPU-Memory Bandbreite Effektiver gestaltet und somit die IPC erhöhen dürfte (Änderungen in dem Bereich (zusätzlicher L1 Cache usw, hatte man ja von GCN5 => RDNA1 gemacht um damit die IPC so drastisch zu erhöhen)

Das ganze liest sich ein bisschen so ähnlich wie die Anpassung die nVidia mit Ampere gebracht hat mit dem "Float only" modus für ihre Shader.

Auch bei der Wave64 Implementation würde die INT-Leistung übrigens scheinbar "halbiert" werden. (da nur noch 1 skalarbefehl Paralle pro Wave bearbeitet werden kann, wohingegen bei Wave32 das wohl 2 sind).

Die Japanische Übersetzung ist etwas schwierig, noch dazu für einen Laien was GPU-Programmierung betrifft :-).

Aber das sieht mir nach einem starken Indiz für die Frage aus:
Warum reichen 256bit SI
IPC-Optimierung => und damit P/W

FALLS AMD damit wirklich wie Ampere nochmal zusätzliche FP-Leistung rausholt dann kann das nochmal einen richtigen Schub in der Leistung geben (bei Ampere ja ca 30%).

Das hier ist auch interessant: Man kann wohl Treiberseitig einzelne CUs deaktiveiren:
https://translate.googleusercontent.com/translate_c?client=tw-ob&depth=1&hl=de&ie=UTF8&pto=aue&rurl=translate.google.com&sl=ja&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/posts/2020/08/06/polaris11-cu-scaling-test/&usg=ALkJrhglVs9Nzbzp3Z4MS_HjT0x9n26g2Q

Coelacanth hat das sogar gebenchmarked für 2 CU, 4 CU usw bis 16 CU

Damit sieht man wie gut die Architektur mit CUs skaliert - nahezu linear bis 16 CU :-) für die simplen Tests - aber im 3D-Mark flacht die Kurve dann schon merklich ab (Power Target von 48 W?)
Würde mich mal mit 5700 XT interessieren so ein Test.

Kriegsgeier
2020-10-21, 09:25:43
extrem interessante Infos! Danke!

HOT
2020-10-21, 09:27:21
Puh... bin etwas erleichtert, dass N21XL nicht im SI und somit auch nicht in der Speichermenge beschnitten ist. (y)

Edit:
Eine Sache ist dennoch komisch. XTX hat rund 40% mehr Rohleistung als die XL und beide Karten sollen mit der gleichen Bandbreite kommen? Etwas merkwürdig zumal AMD die XL mit 14Gbps besser abgrenzen könnte. Es sei denn es gibt wirklich diesen ominösen Cache und dieser dann per Lasecut bei der XL reduziert bzw. ganz deaktiviert wird. Keine Ahnung welche Möglichkeiten bei so einer Lösung bestehen.


Weiß niemand. Theoretisch könnte es sogar die RX 6800 gewesen sein.

btw.
Die Frequenzen scheinen wohl noch nicht final zu sein. Haben die Leaker diese aus dem eingebremsten Treiber herausgelesen? :tongue:


Also ich glaub dass das Ganze eh nicht stimmt, denn man wird den "6900" Brand nicht für N21 "verschwenden". Wenn es eine XTX gibt heißt die 6800 + irgendwas.

Außerdem sind die Abstände unplausibel und, wie du schon schreibst, die Speicherbandbreite.

Es wird vielleicht irgendwann mal ne LE oder sowas geben von N21, aber nicht zum Start, solchen super-beschnittenen Varianten kommen bei AMD für gewöhnlich erheblich später und sind dann natürlich auch im Speicherinterface beschnitten, das ergibt sonst keinen Sinn.

Folgendes ist viel plausibler:
- 6800XTX -> minimal besser als 6800XT
- 6800XT -> voller Chip mit 16GT/s RAM
- 6800 -> 72 CU-Salvage mit evtl. 14GT/s RAM

Zergra
2020-10-21, 09:28:22
Puh... bin etwas erleichtert, dass N21XL nicht im SI und somit auch nicht in der Speichermenge beschnitten ist. (y)

Edit:
Eine Sache ist dennoch komisch. XTX hat rund 40% mehr Rohleistung als die XL und beide Karten sollen mit der gleichen Bandbreite kommen? Etwas merkwürdig zumal AMD die XL mit 14Gbps besser abgrenzen könnte. Es sei denn es gibt wirklich diesen ominösen Cache und dieser dann per Lasecut bei der XL reduziert bzw. ganz deaktiviert wird. Keine Ahnung welche Möglichkeiten bei so einer Lösung bestehen.




Für mich sieht das auch das danach aus das die Bandbreite ein Problem bleibt, ggf. kein großes aber eben immer noch Vorhanden und das die Karten mit mehr Bandbreite immer noch ganz gut skalieren würden.

Es gibt aber auch bei AMD diesmal starke Cuts vom Chip, spricht für mich für die Probleme bei großen Chips in der Fertigung.

Adam D.
2020-10-21, 09:31:25
Für mich sieht das auch das danach aus das die Bandbreite ein Problem bleibt, ggf. kein großes aber eben immer noch Vorhanden und das die Karten mit mehr Bandbreite immer noch ganz gut skalieren würden.

Es gibt aber auch bei AMD diesmal starke Cuts vom Chip, spricht für mich für die Probleme bei großen Chips in der Fertigung.

1. So lange wir die Cache-Frage nicht klären können, ist die Frage mit der Speicherbandbreite nicht beantwortbar. Uns fehlt hier weiter ein wichtiges Puzzle-Teil.

2. Wieso sprechen die Cuts nicht für eine wirtschaftlich kluge Entscheidung? Dann muss man nicht alles wegschmeißen, was die 72/80 CUs bzw. 2,2++ Ghz nicht erreicht. Anscheinend reicht ja dann ein full N22, um die 3060-3070-Range anzugreifen.

Complicated
2020-10-21, 09:34:40
Interessant: AMD scheint was an der Treiberausführung geändert zu haben. Die "Default" Wavegröße ist nun wohl auf 64 gewachsen - statt wie bisher 32.
Aus dem RDNA Whitepaper:
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
The RDNA architecture is natively designed for a new narrower wavefront with 32 work-items,intuitively called wave32, that is optimized for efficient compute. Wave32 offers several critical advantages for compute and complements the existing graphics-focused wave64 mode. One of the defining features of modern compute workloads is complex control flow: loops, function calls, and other branches are essential for more sophisticated algorithms. However, when a branch forces portions of a wavefront to diverge and execute different instructions, the overall efficiency suffers since each instruction will execute a partial wavefront and disable the other portions. The new narrower wave32 mode improves efficiency for more complex compute workloads by reducing the cost of control flow and divergence.

Ab Seite 9 ist in diesem Zusammenhang vielleicht der "Sub-Vector-Mode" der wave64 halbiert ausführen kann:
The RDNA architecture also introduces a software-controlled sub-vector mode that cuts a sequence of instructions in half, and first processes the low half of all the instructions, followed by the upper half. Figure 7 illustrates these two approaches on a simple four instruction loop. The two modes will achieve the same utilization of execution units and complete a full iteration of the loop in eight cycles. However, the sub-vector mode can release half of its registers once the low half of inst3 has executed in cycle 4 and may use the cache more effectively.

Zergra
2020-10-21, 09:36:52
1. So lange wir die Cache-Frage nicht klären können, ist die Frage mit der Speicherbandbreite nicht beantwortbar. Uns fehlt hier weiter ein wichtiges Puzzle-Teil.

2. Wieso sprechen die Cuts nicht für eine wirtschaftlich kluge Entscheidung? Dann muss man nicht alles wegschmeißen, was die 72/80 CUs bzw. 2,2++ Ghz nicht erreicht. Anscheinend reicht ja dann ein full N22, um die 3060-3070-Range anzugreifen.

Zu 1. Natürlich wissen wir nicht so besonders viel über den Cache. Aber eine optimale Lösung wird der wohl auch nicht sein, eher eine Alternative zu mehr Bandbreite. Sieht für mich aber schon danach aus, das die kleineren Karten durch z.B. 14Gbps limitiert werden.

Zu 2. Das hängt doch miteinander zusammen. Wenn man viele Chips hat mit 20-30% kaputten Anteilen dann lohnt sich ein starker Cut, sonst eben nicht.
Vor allem weil die 64 / 72 CUs wohl mehr verkauft werden als die 80CU Variante.

JVC
2020-10-21, 09:37:10
Ach, solange die schnellste Karte nicht das doppelte der 2t schnellsten kostet,
ist doch alles ok ^^

Wen es ne XTX gibt und die ist preislich nicht so abgehoben wie bei NV... ist sie Meins :)
Sonnst wird es halt nur die 2t schnellste mit 16Gb...

M.f.G. JVC

dargo
2020-10-21, 09:38:10
Es wird vielleicht irgendwann mal ne LE oder sowas geben von N21, aber nicht zum Start, solchen super-beschnittenen Varianten kommen bei AMD für gewöhnlich erheblich später und sind dann natürlich auch im Speicherinterface beschnitten, das ergibt sonst keinen Sinn.

Folgendes ist viel plausibler:
- 6800XTX -> minimal besser als 6800XT
- 6800XT -> voller Chip mit 16GT/s RAM
- 6800 -> 72 CU-Salvage mit evtl. 14GT/s RAM
Naja... mal angenommen dieser 64CUs N21 (wobei ich das immer noch nicht so recht glaube bei AMD) wird gegen die 3070 gestellt oder halt etwas drüber. Dann macht es schon Sinn das Ding direkt zu bringen. Schließlich kommt die 3070 ja auch bald. Was bringt es dir damit zu warten? Da kannst du nur verlieren wenn der erste Ansturm sich nur auf die 3070 stürzt.

edit:
Nur so ein Gedankenspiel:

RTX 3070 8GB = 499$
RX 6800 (64 CUs) 16GB = 499$ bei ca. +10% Performance über der 3070

Das wäre ein richtig aggressiver Auftritt von AMD gegen Nvidia.

Linmoum
2020-10-21, 09:40:05
64/72/80 ergibt bei dem Abstand zwischen N22 und N21 deutlich mehr Sinn als 72/72/80. Vor allem deutlich mehr Sinn als zwei 80CU SKUs, die eng beieinander sind.

basix
2020-10-21, 09:43:55
Außerdem sind die Abstände unplausibel und, wie du schon schreibst, die Speicherbandbreite.

Es gibt viele Aufklärungen für diese Thematik:

Alle drei SKUs mit 16 Gbps
...oder 18/16/14 Gbps für die drei SKUs
...oder 16 Gbps für die grössten zwei SKUs und 14 Gbps für die XL
...oder 16 Gbps für die XTX, 14 Gbps für die XT und XL
...

Schlussendlich ist nur die Frage, welche der SKUs eher zu viel oder zu wenig Bandbreite bekommt. Und das wissen wir nicht. Dass die Top End SKUs oftmals weniger Bandbreite/FLOP haben ist aber nichts neues.

dargo
2020-10-21, 09:51:10
64/72/80 ergibt bei dem Abstand zwischen N22 und N21 deutlich mehr Sinn als 72/72/80. Vor allem deutlich mehr Sinn als zwei 80CU SKUs, die eng beieinander sind.
Da hast du auch wieder Recht. Besseres Portfolio da langsamster N21 nicht mehr so weit vom schnellsten N22 entfernt ist. Bei Navi10 hatten wir noch 40CUs und 2x 36 CUs. Dort war der Chip aber im Vergleich winzig. Ergo weniger Risiko in der Produktion.

* Speku:
N21 XL @64 CUs @ ~1,9Ghz = 15-15,5 TFLOPs
N22 XT @40 CUs @ ~2,3Ghz = 11,5-12 TFLOPs

Cyberfries
2020-10-21, 09:52:53
Die "Default" Wavegröße ist nun wohl auf 64 gewachsen - statt wie bisher 32.

Wieso Default? Optional.
Der Sprung von GCN wv64 auf RDNA wv32 war ja für eine bessere Auslastung bei kurzen Befehlen.
Das was du gefunden hast, ist ein Weg um bei wv64 auf RDNA zu sparen, nicht beide SIMD32 voll auszulasten.
Man hat wohl festgestellt, dass es nicht sinnvoll ist, alles auf wv32 auszuführen,
sondern ein gewisser Anteil wv64 bleiben sollte.
(Wenn ich das richtig verstehe) (edit: ungeschickt formuliert, ich hoffe es ist klar, was ich meine)

... denn man wird den "6900" Brand nicht für N21 "verschwenden".

Die x80/x90 wurden auch schonmal verschwendet, siehe RX 590.
Grundsätzlich ist es nicht sinnvoll, zuviele Varianten mit gleicher Zahl zu bringen. Besser aufteilen, siehe 5700/5600.
Zwei 6800er wundern mich trotzdem, ich wäre eher von zwei 6900ern ausgegangen.

Dir geht es doch ohnehin darum, dass du N31 als 6900 erwartest.
Nochmal: Nie und nimmer. Man wird sich nicht entgehen lassen, gfx11 als eigene Serie zu vermarkten.
(selbst wenn es ein Einzelstück bleibt, was ich nicht glaube)

edit:
N21 XL @64 CUs @ ~1,9Ghz = 15-15,5 TFLOPs
N22 XT @40 CUs @ ~2,3Ghz = 11,5-12 TFLOPs

Jopp, stimme zu, deckt sich mit meinen Spekus.

Adam D.
2020-10-21, 09:56:44
Zu 1. Natürlich wissen wir nicht so besonders viel über den Cache. Aber eine optimale Lösung wird der wohl auch nicht sein, eher eine Alternative zu mehr Bandbreite. Sieht für mich aber schon danach aus, das die kleineren Karten durch z.B. 14Gbps limitiert werden.

Zu 2. Das hängt doch miteinander zusammen. Wenn man viele Chips hat mit 20-30% kaputten Anteilen dann lohnt sich ein starker Cut, sonst eben nicht.
Vor allem weil die 64 / 72 CUs wohl mehr verkauft werden als die 80CU Variante.

2. Es geht hier doch in erster Linie um das Lineup. Wenn ein full N22 mit hohen Taktraten etwas unter 3070 rauskommt, dann braucht man hier eine andere Lösung. Und die scheint man ja mit einem relativen stark beschnittenen N21 zu haben. Ob bei N21 dann viel "Abfall" oder nicht rauskommt, ist doch erstmal egal, wenn ich den Abfall so wunderbar verwerten kann.

Naja... mal angenommen dieser 64CUs N21 (wobei ich das immer noch nicht so recht glaube bei AMD) wird gegen die 3070 gestellt oder halt etwas drüber. Dann macht es schon Sinn das Ding direkt zu bringen. Schließlich kommt die 3070 ja auch bald. Was bringt es dir damit zu warten? Da kannst du nur verlieren wenn der erste Ansturm sich nur auf die 3070 stürzt.

edit:
Nur so ein Gedankenspiel:

RTX 3070 8GB = 499$
RX 6800 (64 CUs) 16GB = 499$ bei ca. +10-15% Performance über der 3070

Das wäre ein richtig aggressiver Auftritt von AMD gegen Nvidia.
Ich weiß, es ist nicht direkt vergleichbar, aber AMD hat (wie auch bei den CPUs) in der Grafiksparte nichts zu verschenken. Mit mehr Speicher und besserer Performance (falls es so kommt) werden wir definitiv draufzahlen, AMD ist ja nicht bekloppt.

fondness
2020-10-21, 09:58:00
Gibt es eigentlich jetzt schon irgendwelche belastbaren Infos, wie es AMD schafft so viel Leistung aus einem 256-bit SI mit normalen GDDR6 zu quetschen?

BoMbY
2020-10-21, 10:01:36
Gibt es eigentlich jetzt schon überhaupt irgendwelche belastbaren Infos bezüglich des Speicherinterfaces? Ich glaube nicht. Immer noch die gleichen Gerüchte.

HOT
2020-10-21, 10:02:47
64/72/80 ergibt bei dem Abstand zwischen N22 und N21 deutlich mehr Sinn als 72/72/80. Vor allem deutlich mehr Sinn als zwei 80CU SKUs, die eng beieinander sind.

Wenn dann 80/80/72 (18/16/14GT/s) und deutlich später ne LE mit 60 und 192Bit.

BoMbY
256Bit bei N21 und 192Bit bei N22 sind halbwegs sicher.

Zergra
2020-10-21, 10:12:43
2. Es geht hier doch in erster Linie um das Lineup. Wenn ein full N22 mit hohen Taktraten etwas unter 3070 rauskommt, dann braucht man hier eine andere Lösung. Und die scheint man ja mit einem relativen stark beschnittenen N21 zu haben. Ob bei N21 dann viel "Abfall" oder nicht rauskommt, ist doch erstmal egal, wenn ich den Abfall so wunderbar verwerten kann.


Ich weiß, es ist nicht direkt vergleichbar, aber AMD hat (wie auch bei den CPUs) in der Grafiksparte nichts zu verschenken. Mit mehr Speicher und besserer Performance (falls es so kommt) werden wir definitiv draufzahlen, AMD ist ja nicht bekloppt.


Die Frage ist halt wo der N22 wirklich landet, der kommt ja außerdem eine Zeit später. Zwischen der 3070 und der 3080 ist ja auch ein relativ großer Unterschied in der SM Anzahl.


Am Ende liegt es auch an der RT Leistung, wo AMD sich preislich anordnet, den die wird eine Rolle spielen, vllt. noch nicht die größte aber ganz vergessen sollte man das Thema nicht.

@ 256bit, alleine das die 256bit hier seit über einem Monat herumgeistern, spricht dafür.

Linmoum
2020-10-21, 10:18:43
Wenn dann 80/80/72 (18/16/14GT/s) und deutlich später ne LE mit 60 und 192Bit.Es ergibt schlichtweg keinen Sinn, eine derart große Lücke zwischen N22 und N21 klaffen zu lassen. Noch weniger Sinn ergibt es, den vollen Chip gleich für zwei SKUs zu verschwenden. Das würde vor allem auf die Verfügbarkeit gehen, wenn man zudem einfach mehr Abfall als 64CU SKU verwerten kann.

Ne, 80/80/72 ist wenig sinnvoll, gerade wenn wir wirklich von >500mm2 reden.

dargo
2020-10-21, 10:23:05
Ich weiß, es ist nicht direkt vergleichbar, aber AMD hat (wie auch bei den CPUs) in der Grafiksparte nichts zu verschenken. Mit mehr Speicher und besserer Performance (falls es so kommt) werden wir definitiv draufzahlen, AMD ist ja nicht bekloppt.
Was heißt hier verschenken? :freak: 499$ ist jedenfalls weit davon entfernt. Und du darfst nicht vergessen, dass N21XL der absolute Abfall ist den du agressiv im Markt platzieren kannst. Nichts anderes macht Nvidia mit der RTX 3080. 16GB GDDR6 ist nicht sehr teuer. Schau dir den Preis der PS5 mit 399$ an (geringere Marge) oder einfach RX 5500XT 8GB vs. RX 5500XT 4GB. Die Preisunterschiede sind klein.

optimistisch:
N21 Topdog @80 CUs 16GB = 799$
N21 Salvage @72 CUs 16GB = 649$
N21 Salvage @64 CUs 16GB = 499$

pessimistisch:
N21 Topdog @80 CUs 16GB = 899$
N21 Salvage @72 CUs 16GB = 699-749$
N21 Salvage @64 CUs 16GB = 599$

Das wäre so meine grobe Prognose.

Adam D.
2020-10-21, 10:23:53
Es ergibt schlichtweg keinen Sinn, eine derart große Lücke zwischen N22 und N21 klaffen zu lassen. Noch weniger Sinn ergibt es, den vollen Chip gleich für zwei SKUs zu verschwenden. Das würde vor allem auf die Verfügbarkeit gehen, wenn man zudem einfach mehr Abfall als 64CU SKU verwerten kann.

Ne, 80/80/72 ist wenig sinnvoll, gerade wenn wir wirklich von >500mm2 reden.
Die Betonung auf begrenzter Verfügbarkeit (VC) bei der kolportierten 6900XT deutet ja auch darauf hin, dass hier die Ausbeute wirklich knapp sein könnte. Was ja auch kein Wunder sein dürfte, bei den Taktraten und dem vollen Chip. Daher full ack.

Adam D.
2020-10-21, 10:27:46
Was heißt hier verschenken? :freak: 499$ ist jedenfalls weit davon entfernt. Und du darfst nicht vergessen, dass N21XL der absolute Abfall ist den du agressiv im Markt platzieren kannst. Nichts anderes macht Nvidia mit der RTX 3080. 16GB GDDR6 ist nicht sehr teuer. Schau dir den Preis der PS5 mit 399$ an (geringere Marge) oder einfach RX 5500XT 8GB vs. RX 5500XT 4GB. Die Preisunterschiede sind klein.

optimistisch:
N21 Topdog @80 CUs 16GB = 799$
N21 Salvage @72 CUs 16GB = 649$
N21 Salvage @64 CUs 16GB = 499$

pessimistisch:
N21 Topdog @80 CUs 16GB = 899$
N21 Salvage @72 CUs 16GB = 699-749$
N21 Salvage @64 CUs 16GB = 599$

Das wäre so meine grobe Prognose.
Das Preisgefüge hat sich in den letzten Jahren so extrem geändert, das betrifft natürlich auch AMD.

Nehmen wir jetzt mal folgende Spekulation als Ausgangspunkt: AMD platziert N21XL bei 3070+10%, bietet dafür doppelten Speicher aber schlechtere RT-Leistung. Da wären 499$ extrem knapp kalkuliert, da scheinen 549-599$ einfach einleuchtender.

Ansonsten finde ich deine pessimistische Tabelle einen sehr guten Orientierungspunkt - wenn es billiger wird, umso besser.

Iscaran
2020-10-21, 10:28:32
Wieso Default? Optional.
Der Sprung von GCN wv64 auf RDNA wv32 war ja für eine bessere Auslastung bei kurzen Befehlen.
Das was du gefunden hast, ist ein Weg um bei wv64 auf RDNA zu sparen, nicht beide SIMD32 voll auszulasten.
Man hat wohl festgestellt, dass es nicht sinnvoll ist, alles auf wv32 auszuführen,
sondern ein gewisser Anteil wv64 bleiben sollte.
(Wenn ich das richtig verstehe) (edit: ungeschickt formuliert, ich hoffe es ist klar, was ich meine)


Ja ich denke darauf läuft es irgendwie hinaus - aber Coelacanth schreibt auch explizit dass dabei die paralelle Skalar-Ausführung von 2 auf 1 reduziert wird.

Das erinnert mich eben irgendwie an die Ampere-Methode die Floatleistung bei ausbleiben von INT-Lasten zu verdoppeln.


Aus dem RDNA Whitepaper:
https://www.amd.com/system/files/doc...whitepaper.pdf
The RDNA architecture is natively designed for a new narrower wavefront with 32 work-items,intuitively called wave32, that is optimized for efficient compute. Wave32 offers several critical advantages for compute and complements the existing graphics-focused wave64 mode. One of the defining features of modern compute workloads is complex control flow: loops, function calls, and other branches are essential for more sophisticated algorithms. However, when a branch forces portions of a wavefront to diverge and execute different instructions, the overall efficiency suffers since each instruction will execute a partial wavefront and disable the other portions. The new narrower wave32 mode improves efficiency for more complex compute workloads by reducing the cost of control flow and divergence.

Ab Seite 9 ist in diesem Zusammenhang vielleicht der "Sub-Vector-Mode" der wave64 halbiert ausführen kann:
Zitat:

The RDNA architecture also introduces a software-controlled sub-vector mode that cuts a sequence of instructions in half, and first processes the low half of all the instructions, followed by the upper half. Figure 7 illustrates these two approaches on a simple four instruction loop. The two modes will achieve the same utilization of execution units and complete a full iteration of the loop in eight cycles. However, the sub-vector mode can release half of its registers once the low half of inst3 has executed in cycle 4 and may use the cache more effectively.


Hmm danke für den Fund - d.h. das ist eigentlich schon mit RDNA1 eingeführt worden.
Bei Coelacanth liest sich das aber so, daß es erst JETZT Treiberseitig aktiviert wird ?

So oder so ist mein Japanisch ein bisschen schlecht :-). Und mein GPU-Driver knowledge sowieso zu rudimentär.

Hoffentlich kann das jemand mit deutlich mehr know-how kommentieren und für "Laien" verständlicher runterbrechen :-)

dargo
2020-10-21, 10:33:42
Das Preisgefüge hat sich in den letzten Jahren so extrem geändert, das betrifft natürlich auch AMD.

Nehmen wir jetzt mal folgende Spekulation als Ausgangspunkt: AMD platziert N21XL bei 3070+10%, bietet dafür doppelten Speicher aber schlechtere RT-Leistung. Da wären 499$ extrem knapp kalkuliert, da scheinen 549-599$ einfach einleuchtender.

Du vergisst hier nur eine Sache. Zen 3 kommt mit 50$ Aufschlag weil man es sich dort leisten kann ohne ernsthafte Konkurrenz. ;) Bei den GPUs muss AMD verlorere Marktanteile wieder zurück holen. Das schöne dabei ist auch... wenn du sehr gute CPUs produzieren kannst kannst du das Preisgefüge bei den GPUs besser steuern. Beispiel... die 50$ die du bei einer GPU tiefer gehst holst du mehrfach in der CPU-Sparte wieder raus.

Cyberfries
2020-10-21, 10:35:28
Heilige Scheiße....
https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/
Diese ganz spezielle Boardpartner-Karte setzt den GPU-Takt auf 2.577 MHz.

dargo
2020-10-21, 10:38:55
2,8Ghz max. Clock in der PP-Table? Das sind 650Mhz mehr als bei Navi10 mit 2150Mhz. :eek: :O

btw.
Max. Voltge ist zum Glück 50mV niedriger als bei N10, schon mal ein gutes Zeichen.

Edit:
Max. 17,2Gbps Speicher. OC-Spielraum oder doch 18Gbps Speicher leicht unter dem max. Takt?

Doch 16Gbps, siehe 1000Mhz im höchsten P-State.

Piefkee
2020-10-21, 10:39:02
Heilige Scheiße....
https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/

Sapphire Toxic😍

Nazar
2020-10-21, 10:40:19
Was heißt hier verschenken? :freak: 499$ ist jedenfalls weit davon entfernt. Und du darfst nicht vergessen, dass N21XL der absolute Abfall ist den du agressiv im Markt platzieren kannst. Nichts anderes macht Nvidia mit der RTX 3080. 16GB GDDR6 ist nicht sehr teuer. Schau dir den Preis der PS5 mit 399$ an (geringere Marge) oder einfach RX 5500XT 8GB vs. RX 5500XT 4GB. Die Preisunterschiede sind klein.

optimistisch:
N21 Topdog @80 CUs 16GB = 799$
N21 Salvage @72 CUs 16GB = 649$
N21 Salvage @64 CUs 16GB = 499$

pessimistisch:
N21 Topdog @80 CUs 16GB = 899$
N21 Salvage @72 CUs 16GB = 699-749$
N21 Salvage @64 CUs 16GB = 599$

Das wäre so meine grobe Prognose.

Das alles funktioniert aber nur, wenn AMD nV in der jeweiligen Preisklasse schlagen kann.
Ich halte selbst die 799€ für den Topdog schon für fast zu hoch angesetzt, selbst wenn hier die 3080 knapp geschlagen werden sollte.
nV wird mit einer 20GB Version der 3080 im Dezember kommen und bei der wurde ein Preis von 799€-899€ vermutet. 4GB mehr VRAM für eventuell 100€ mehr, scheint einige Leute nicht abzuschrecken dann diesen Mehrpreis zu bezahlen.
AMD muss erst einmal beweisen, dass sie wirklich schneller sind und müssen sich erst einmal wieder in den Markt "einkaufen" und das geht nur über den Preis.
Nur wenn AMD deutlich besser ist als die 3080 erwarte ich für den Topdog Preise die über 800€ gehen aber unter 1000€ bleiben.

HOT
2020-10-21, 10:46:55
Heilige Scheiße....
https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/
Wird die Strix sein würd ich sagen. Oder was völlig krankes von MSI.

Igor sagte was von 599$ für die XT.

Es ergibt schlichtweg keinen Sinn, eine derart große Lücke zwischen N22 und N21 klaffen zu lassen. Noch weniger Sinn ergibt es, den vollen Chip gleich für zwei SKUs zu verschwenden. Das würde vor allem auf die Verfügbarkeit gehen, wenn man zudem einfach mehr Abfall als 64CU SKU verwerten kann.

Ne, 80/80/72 ist wenig sinnvoll, gerade wenn wir wirklich von >500mm2 reden.

Klar ergibt das Sinn. N22XT muss doch nur schneller sein als die 3060, die XL muss am besten deutlich schneller sein als die 3070. Das ergäbe nur keinen Sinn, wenn die XL schneller wäre als die 3080. Zudem scheint AMD die N22 ja noch mal nen ganzes Stück höher zu takten -> 2,5GHz vs. ~2GHz bei der N21XL.

Piefkee
2020-10-21, 10:48:42
Wird die Strix sein würd ich sagen. Oder was völlig krankes von MSI.

Igor sagte was von 599$ für die XT.

Very Special AIB Card... Leute das kann nur eine sapphire sein die es länger nicht mehr gab..Toxic z.B

dargo
2020-10-21, 10:50:36
Igor ist schon wieder putzig. :tongue:
Wichtiger ist am Ende, wo AMD bzw. der Bordpartner die Slider für den Endkunden dann final gesetzt hat. Die 1.15 Volt für die Spannung sind schon recht hoch bemessen und es wird interessant sein zu sehen, ob und wo die AMD-Software noch eine Sicherheitssperre eingebaut hat, denn genau das können wir ja (im Rahmen des Sinnvollen) durchaus auch mit dem Tool anheben.
Dabei übersieht er wieder (eigentlich müsste er es besser wissen) völlig, dass diese 1150mV sich auf die 2,8GHz beziehen, genau wie die 1200mV bei Navi10 auf 2,1Ghz. Wie das so üblich in der bekannten Spannungskurve bei AMD ist wird die Karte weder die 2,8GHz noch die 1150mV jemals @Default Powerlimit sehen. Ok... außer vielleicht im starken CPU-Limit, aber das interessiert eh keinen.


Igor sagte was von 599$ für die XT.

Das wäre sogar unter meiner optimistischen Prognose. X-D

Edit:
Hier macht Igor den gleichen Fehler.
Das Gleiche gilt auch für den SOC-Wert. Das Power Limit für die Socket.Power steht schon bei 255 Watt. Nimmt man noch die (ohne MPT-Eingriff) maximal erlaubten 15% hinzu, dann landet man bereits bei 293 Watt. Das wären plus Speicher dann mit Sicherheit schon bis zu 315 Watt zuzüglich der restlichen Dinge (Teilspannungen, Wandler- und Platinen-Verluste, Lüfter usw.).

Er zählt den Speicher dazu, was falsch ist. Die 293W Powerlimit (+15%, ausgehend von 255W) sind bereits inkl. Speicher.

Very Special AIB Card... Leute das kann nur eine sapphire sein die es länger nicht mehr gab..Toxic z.B
Und warum kann das nicht einfach eine "stinknormale" Nitro+ sein? 327W bei Vega64 Nitro+.
https://www.igorslab.de/rx-vega64-custom-card-review/12/

Die V64 war sogar 8% kleiner sofern die 536mm² bei N21 stimmen.

nairune
2020-10-21, 11:04:36
Igor ist schon wieder putzig. :tongue:

Dabei übersieht er wieder (eigentlich müsste er es besser wissen) völlig, dass diese 1150mV sich auf die 2,8GHz beziehen, genau wie die 1200mV bei Navi10 auf 2,1Ghz. Wie das so üblich in der bekannten Spannungskurve bei AMD ist wird die Karte weder die 2,8GHz noch die 1150mV jemals @Default Powerlimit sehen.


Nicht ganz, die 2800 MHz ist ja nur das Ende das "Spielfeldes". Die Kurve endet bei dieser Karte bei 2577 MHz.

Wie auch immer, was man daraus mitnehmen kann:
- die 290W sind das PL-Maximum, wie ich schon vermutet hatte, und nicht was voreingestellt ist
- die 255W sind bereits auf einer OC-Karte, die - wenn die VC-Taktraten auch nur entfernt in die Referenzrichtung gehen - bereits deutlich hochgezogen wurde

Die mildert die Verbrauchsbefürchtungen doch deutlich ab.

edit: falls man auf die Referenz wieder +50% PL geben dürfte, ergäbe das 195W für die Referenz. +50% sind 292,5W und Igor schreibt von 293...

Dampf
2020-10-21, 11:07:49
Igor sagte was von 599$ für die XT.



Welche XT? Der 3080 Kompetitor? Dann wäre das ein sehr guter Preis. Die 3080 kostet ja rund 800.

Damit würde AMD einiges wegfegen.

Adam D.
2020-10-21, 11:09:09
Welche XT? Der 3080 Kompetitor? Dann wäre das ein sehr guter Preis. Die 3080 kostet ja rund 800.

Damit würde AMD einiges wegfegen.
Das war aus dem Video, und ehrlich gesagt glaube ich, dass sich Igor hier versprochen hat, weil der Preis im Kontext der XL gefallen ist, nicht der XT.

HOT
2020-10-21, 11:09:17
Welche XT? Der 3080 Kompetitor? Dann wäre das ein sehr guter Preis. Die 3080 kostet ja rund 800.

Damit würde AMD einiges wegfegen.
Die 3080 kostet 699. Die Händlerpreise der AIBs sind extrem hoch, aufgrund der beschissenen Verfügbarkeit.

dargo
2020-10-21, 11:11:59
Nicht ganz, die 2800 MHz ist ja nur das Ende das "Spielfeldes". Die Kurve endet bei dieser Karte bei 2577 MHz.

Das ist zwar richtig... dafür gibt es aber auch einen Grund. Igor bezieht sich bei den 2577Mhz auf eine AIB-Karte. Die bis zu 2800Mhz beziehen sich erstmal auf alle N21, werden nur nicht mit Default-PT bei den AIBs ausgenutzt. Alles über 2577Mhz ist mit hoher Wahrscheinlichkeit für die XTX von AMD reserviert. Bei dieser XTX erwarte ich >2,6Ghz im Boost. Jetzt verstehe ich auch warum AMD die XTX alleine bringen will. Das werden die absoluten Golden Samples in begrenzten Stückzahlen, hoffentlich nicht dauerhaft.


Wie auch immer, was man daraus mitnehmen kann:
- die 290W sind das PL-Maximum, wie ich schon vermutet hatte, und nicht was voreingestellt ist
- die 255W sind bereits auf einer OC-Karte, die - wenn die VC-Taktraten auch nur entfernt in die Referenzrichtung gehen - bereits deutlich hochgezogen wurde

Die mildert die Verbrauchsbefürchtungen doch deutlich ab.

edit: falls man auf die Referenz wieder +50% PL geben dürfte, ergäbe das 195W für die Referenz. +50% sind 292,5W und Igor schreibt von 293...
Da bist du denke ich auf dem richtigen Weg. Je nach Bios und PT-Auslegung der AIBs wird man im Wattman unterschiedliche Prozente beim Aufschlag sehen um die max. 290W nicht zu überschreiten. Aber 195W PT bei Referenz wäre der absolute Hammer für eine 72CUs N21. :eek: Ich glaubs erst wenn ich es sehe.

Complicated
2020-10-21, 11:18:30
Eines ist mir nicht ganz klar: Welche Boardpartner-Karte soll das sein? Eine RX 6900XT OC kann es ja nicht sein, da er selber AMD zitiert im ersten Satz, diese würden Boardpartner überhaupt nicht erhalten:
Die große RX 6900XT wird laut AMDs eigenen Angaben(“This card will be (for now) AMD exclusive. The Radeon RX 6900XT will be the AMD flagship series, which according to our sources will be in limited quantity.”)
Sind das nun Screens die er selber mit einer Review-Karte gemacht hat oder sind das Screens von Boadpartnern für eine RX 6800 OC oder sind das nun Screens von einem Leaker?
Die nachfolgend gezeigten Werte stammen von einer eher überdurchschnittlich konzipierten Boardpartner-Karte und sind einerseits sicher schon exemplarisch, andererseits aber unbedingt mit dem Vorbehalt noch möglicher Änderungen zu betrachten.
Wer hat die gemacht und warum ist es glaubwürdig, dass derjenige nicht einfach selber Werte eingetragen hat? Oder ist einfach ein BIOS-File ausgelesen worden, das von AMD stammt?

Palpatin
2020-10-21, 11:18:58
Das alles funktioniert aber nur, wenn AMD nV in der jeweiligen Preisklasse schlagen kann.
Ich halte selbst die 799€ für den Topdog schon für fast zu hoch angesetzt, selbst wenn hier die 3080 knapp geschlagen werden sollte.
nV wird mit einer 20GB Version der 3080 im Dezember kommen und bei der wurde ein Preis von 799€-899€ vermutet. 4GB mehr VRAM für eventuell 100€ mehr, scheint einige Leute nicht abzuschrecken dann diesen Mehrpreis zu bezahlen.
AMD muss erst einmal beweisen, dass sie wirklich schneller sind und müssen sich erst einmal wieder in den Markt "einkaufen" und das geht nur über den Preis.
Nur wenn AMD deutlich besser ist als die 3080 erwarte ich für den Topdog Preise die über 800€ gehen aber unter 1000€ bleiben.
Würd ich zustimmen wenn die 3080 für 700 nicht nur auf dem Papier existieren würde. Realistisch wird man die nächste 3-4 Monate keine 3080 20gb unter 1000€ in die Finger bekommen.

maximus_hertus
2020-10-21, 11:20:15
Igor sagte was von 599$ für die XT.


Der Preis passt ja auch zur wahrscheinlichsten Performance Prognose. "Normal" irgendwo, je nach Game, 5-15% hinter der 3080, dazu einen größeren Hit bei RT (dann eher 3070 Leistung). Dafür direkt mit 16GB und halt den Nachteil, dass kein "Geforce"-Branding auf der Packung steht (klingt komisch, ist aber so).

Mittlerweile kann man das als relativ sicher sehen, das es so kommen wird.

Die XTX, oder wie auch immer die limitierte Top-Karte genannt wird, wird dann die 3080 gaaaanz knapp schlagen (oder je nach Parcours auch knapp dahinter landen). Das ganze jedoch mit der (Strom)brechstange. Da es wohl nur kleine Kontigente geben wird, kann man ruhig 799 - 899 USD / Euro auf dem Preisschild drauf schreiben.

Ergo 799-899 für die "XTX" und 599 für die "normalo" XT.

Passt :)

nairune
2020-10-21, 11:20:34
An 195W glaube ich eigentlich auch nicht, wohlmöglich gibt es einfach keine +50% dieses Mal, auch um der XTX nicht zu nah zu kommen.

basix
2020-10-21, 11:24:04
Mann mann mann, hat jemand überhaupt Igors Text zuende gelesen?

Diese ganz spezielle Boardpartner-Karte setzt den GPU-Takt auf 2.577 MHz. Rechnet man das in die Erfahrungen mit Navi um, dann sollten temporär noch ca. 2.3 bis 2.4 GHz maximaler “Boost”-Takt übrig bleiben. Real unter Last könnten das immer noch zwischen 2.1 und 2.3 GHz “Gaming”-Takt werde

Also eher ~2.3 GHz Takt in Games und nicht 2.6 GHz...wir müssen ja den Hype Train nicht unnötig beschleunigen, der ist schon genug schnell unterwegs ;)

dargo
2020-10-21, 11:29:35
Der Preis passt ja auch zur wahrscheinlichsten Performance Prognose. "Normal" irgendwo, je nach Game, 5-15% hinter der 3080, dazu einen größeren Hit bei RT (dann eher 3070 Leistung). Dafür direkt mit 16GB und halt den Nachteil, dass kein "Geforce"-Branding auf der Packung steht (klingt komisch, ist aber so).

Mittlerweile kann man das als relativ sicher sehen, das es so kommen wird.

Ich weiß ehrlich gesagt nicht wie man darauf kommt, dass alles sicher ist. Diese Custom XT Karte die Igor da anspricht mit max. 2577Mhz im Boost hätte 21,2 TFLOPs wenn wir annehmen, dass diese real mit 2,3Ghz läuft. Das sind ca. 43% mehr als die 2080TI. Und hier gehe ich sogar davon aus, dass die RDNA2 TFLOPs gleich performen wie RDNA1 TFLOPs. Sollten die RDNA2 TFLOPs leicht schneller sein wirds noch übler (bei nur 5% mehr IPC bist du schon bei reinen TFLOPs 50% über einer 2080TI). Eine 3080 ist im Schnitt afaik 35% schneller als die 2080TI.

PS: 3080FE ist bei CB 31% schneller als die 2080TI FE.

Mann mann mann, hat jemand überhaupt Igors Text zuende gelesen?

Also eher ~2.3 GHz Takt in Games und nicht 2.6 GHz...wir müssen ja den Hype Train nicht unnötig beschleunigen, der ist schon genug schnell unterwegs ;)
Wer schreibt hier was von 2,6Ghz Realtakt? :confused:

nairune
2020-10-21, 11:30:00
Wie haben selber RDNA1 Karten und wissen, was die Limits bedeuten ;)
2577 MHz in der Kurve sind ca. 2500 MHz maximaler realer Takt. Liegt halt nur an, wenn das Powerlimit nicht zügelt, was es bei den meisten Spielen tut. Wie weit dann gedrosselt wird bei dieser OC-Karte ist pure Spekulation, auch von Igor.

JVC
2020-10-21, 11:30:32
... je nach Game, 5-15% hinter der 3080,...
80CU mit ~2,4Ghz... würde mich wundern wenn die hinter der 3080 bleibt.

M.f.G. JVC

dargo
2020-10-21, 11:35:11
Wie haben selber RDNA1 Karten und wissen, was die Limits bedeuten ;)
2577 MHz in der Kurve sind ca. 2500 MHz maximaler realer Takt. Liegt halt nur an, wenn das Powerlimit nicht zügelt, was es bei den meisten Spielen tut. Wie weit dann gedrosselt wird bei dieser OC-Karte ist pure Spekulation, auch von Igor.
Korrekt... ich finde das immer wieder genial wenn uns jemand das Powermanagement von Radeon erklären will, besonders ein Geforce User. :freak:

Iscaran
2020-10-21, 11:40:13
Die XTX, oder wie auch immer die limitierte Top-Karte genannt wird, wird dann die 3080 gaaaanz knapp schlagen (oder je nach Parcours auch knapp dahinter landen). Das ganze jedoch mit der (Strom)brechstange.


Das glaubst du immer noch ?

Nur mal ein paar Zahlen - völlig frei von TDP.

80 CU mit 0.0 IPC-Optimierung RDNA2 relativ zu RDNA1 (also mehr Flops/Takt)

liefern @ 2.275 MHz eine Rohpower die der Gaming-Leistung einer RTX 3090 entspricht.

Navi10 = 66% 4k-Index @9.754 FP32 TFlops
Navi21 = 80*2275*64*2/1000/1000 = 23.3 FP32 TFlops
Das ergibt umgerechnet und bezogen auf Navi10 mit 66% einen 4k-Index von 158% = RTX 3090 (die hat zwischen 17.8 und 35.6 TFlops je nach INT-Last. Bei 30% Int liegt die Karte zwar bei 30.2 TFlops...aber irgendwie scheint das nicht mehr in Gaming-Leistung anzukommen.

Der Wert TFlops/3DC-Index ist bei Ampere erstmals wieder gestiegen bei nVidia, seit langem. D.h. die IPC ist geringer geworden bei Gaming-Lasten.

Sollte Navi2x dieselbe FP/3DC-Index% brauchen wie Navi10 wird ein 2.3GHz getakteter Navi21 die 3090 auf Augenhöhe gegenüberstehen.

Wird der Takt noch höher oder die IPC evtl. noch besser wirds sogar zu mehr reichen...

OMG noch 7 Tage warten....

Complicated
2020-10-21, 11:41:40
80CU mit ~2,4Ghz... würde mich wundern wenn die hinter der 3080 bleibt.

M.f.G. JVC
Laut Igor kann das nur eine 72 CU Karte sein, da es ja eine Boardpartnerkarte ist:
Die große RX 6900XT wird laut AMDs eigenen Angaben(“This card will be (for now) AMD exclusive. The Radeon RX 6900XT will be the AMD flagship series, which according to our sources will be in limited quantity.”) wohl erst einmal ein Gegenstand für die Galerie, so wie damals die Titan RTX. Richten musste es seinerzeit der GeForce RTX 2080 Ti, die einer Titan RTX mit viel OC sogar recht nahe kam. Die Parallelen sind interessant, denn AMD’s Big Navi in Form der RX 6900XT wird 80 Compute Units (5120 Stream Processors) besitzen, die nächstkleinere RX 6800XT derer 72 (4608 Stream Processors). Beide Karten werden mit 16 GB GDDR6 ausgestattet sein, die an einem 256-Bit breiten Speicher-Interface angebunden sind.
Es gibt keine RX 6900 Boardpartnerkarten, seiner Aussage nach.

[MK2]Mythos
2020-10-21, 11:42:29
Hoffentlich wird es bald Wasserkühler für die XTX geben...

JVC
2020-10-21, 11:45:44
... wenn sie nicht eh schon von haus aus unter Wasser kommt.

M.f.G. JVC

dargo
2020-10-21, 11:46:11
Da steht zum Glück "for now". :up: Dann werden sicherlich auch AIBs kommen, nur erst 2021.

Palpatin
2020-10-21, 11:46:33
Das glaubst du immer noch ?

Nur mal ein paar Zahlen - völlig frei von TDP.

80 CU mit 0.0 IPC-Optimierung RDNA2 relativ zu RDNA1 (also mehr Flops/Takt)

liefern @ 2.275 MHz eine Rohpower die der Gaming-Leistung einer RTX 3090 entspricht.

Navi10 = 66% 4k-Index @9.754 FP32
Navi21 = 80*2275*64*2/1000/1000 = 23.3 TFlops
Das ergibt umgerechnet und bezogen auf Navi10 mit 66% einen 4k-Index von 158% = RTX 3090 (die hat zwischen 17.8 und 35.6 TFlops je nach INT-Last. Bei 30% Int liegt die Karte zwar bei 30.2 TFlops...aber irgendwie scheint das nicht mehr in Gaming-Leistung anzukommen.

Der Wert TFlops/3DC-Index ist bei Ampere erstmals wieder gestiegen bei nVidia, seit langem. D.h. die IPC ist geringer geworden bei Gaming-Lasten.

Sollte Navi2x dieselbe FP/3DC-Index% brauchen wie Navi10 wird ein 2.3GHz getakteter Navi21 die 3090 auf Augenhöhe gegenüberstehen.

Wird der Takt noch höher oder die IPC evtl. noch besser wirds sogar zu mehr reichen...

OMG noch 7 Tage warten....
Du hast das 256 Bit SI bei deiner ganzen rechnerei völlig vergessen. Solang wir keinen Anhaltspunkt haben wie gut Infinity Cache funktioniert kann man sich alle Rechenspiele sparen.

Iscaran
2020-10-21, 11:47:59
Laut Igor kann das nur eine 72 CU Karte sein, da es ja eine Boardpartnerkarte ist:

Es gibt keine RX 6900 Boardpartnerkarten, seiner Aussage nach.

Guter Punkt !

Btw. mit 72 CU und 2.577 GHz Takt landet man bei 23.8 TFlops.
Gleiche "IPC" (67.77 GFlops/%-Index) wie Navi10 angesetzt landet man bei 161% 3DC-4k-Index !
Das wäre immer noch 3090 Niveau +-

WTF...

why_me
2020-10-21, 11:49:11
Du hast das 256 Bit SI bei deiner ganzen rechnerei völlig vergessen. Solang wir keinen Anhaltspunkt haben wie gut Infinity Cache funktioniert kann man sich alle Rechenspiele sparen.

Würde er nicht funktionieren, würde es den Cache mMn. nicht geben.

gedi
2020-10-21, 11:49:50
Korrekt... ich finde das immer wieder genial wenn uns jemand das Powermanagement von Radeon erklären will, besonders ein Geforce User. :freak:

Exakt. Wenn die Wattage/Kühlung nicht limitiert, dann sind es genau -70Mhz an Takt.

Sprich unter Wasser mit dem Powerslider auf max. Liegen immer 2.5G an.
Aber: Wenn Customs so hoch takten dürfen wie schnell muss dann die XTX oder 6900 sein? Ich kann mir kaum vorstellen, dass 10% an CUs usw. so viel ausmacht. Es muss doch nen Grund haben, dass RDNA2 sowohl als auch bedienen kann.

[MK2]Mythos
2020-10-21, 11:52:50
Jedenfalls können wir wohl davon ausgehen, dass AMD die oem 6800xt(?) mit 72CUs gezeigt hat. Die Customs werden die Leistung deutlich schlagen und die 6900xt(?) Prügelt sich dann mit der RTX 3090.

Zergra
2020-10-21, 11:55:11
Würde er nicht funktionieren, würde es den Cache mMn. nicht geben.
Trotzdem weiß man nicht was der mögliche Cache bringt.

dargo
2020-10-21, 11:57:10
Aber: Wenn Customs so hoch takten dürfen wie schnell muss dann die XTX oder 6900 sein? Ich kann mir kaum vorstellen, dass 10% an CUs usw. so viel ausmacht. Es muss doch nen Grund haben, dass RDNA2 sowohl als auch bedienen kann.
* Speku 2:
XTX = 25 TFLOPs (~2,45GHz @80 CUs)
XT = 21 TFLOPs (~2,3Ghz @72 CUs)

19% mehr Rohleistung wovon dann ca. 12-14% auf die Straße gebracht werden.

JVC
2020-10-21, 11:57:25
Vielleicht sind die neuen GPUs von AMD OC Biester ? ^^
"Maximal 2,8Ghz bei 1,15v"... vielleicht mit 15°c Wasser und 500W+ :freak:
Und nur wegen dem "vernünftigen" Verbrauch bei nur ~2,2Ghz "gedrosselt" unterwegs...
Naja :ubeer: *rülps*
Ne 72CU Custom @300Watt @2,5Ghz dafür würde ich mich auch erwärmen lassen ;D

M.f.G. JVC

gedi
2020-10-21, 12:01:51
* Speku 2:
XTX = 25 TFLOPs (~2,45GHz @80 CUs)
XT = 21 TFLOPs (~2,3Ghz @72 CUs)

19% mehr Rohleistung wovon dann ca. 12-14% auf die Straße gebracht werden.

Die 15% holt man auch mit mehr Takt raus. Mir fehlt da was ....

dargo
2020-10-21, 12:02:29
Vielleicht sind die neuen GPUs von AMD OC Biester ? ^^
"Maximal 2,8Ghz bei 1,15v"... vielleicht mit 15°c Wasser und 500W+ :freak:
Und nur wegen dem "vernünftigen" Verbrauch bei nur ~2,2Ghz "gedrosselt" unterwegs...

Normalerweise sollten mindestens 2,8Ghz erreichbar sein sofern diese Angaben in den Tabellen von Igor stimmen, natürlich mit stark aufgedrehtem Powerlimit und entsprechend potenten PCBs. N10 hat dort max. 2150Mhz stehen und gedi kam mit Wasser auf 2,2Ghz bei Navi10. Ich glaube Igor bei seinen Versuchen auch.

Felixxz2
2020-10-21, 12:02:48
Eigentlich verraten doch nVs Preise die erwartbare Leistung schon ganz gut. Die 3080 wird definitiv geschlagen, sonst wäre sie nicht so „günstig“. Die 3090 wohl nicht, aber für Augenhöhe könnte es durchaus reichen. Den Markenbonus hat nV ja immer

Iscaran
2020-10-21, 12:03:38
Du hast das 256 Bit SI bei deiner ganzen rechnerei völlig vergessen. Solang wir keinen Anhaltspunkt haben wie gut Infinity Cache funktioniert kann man sich alle Rechenspiele sparen.

Vergessen hab ich es nicht. Es steckt natürlich in der "Annahme" gleicher IPC also 67.77 Gflops pro 4k-Index-%-Punkt mit drin.

Ampere unterscheidet sich hier ja auch deutlich von Turing.

2080 Ti = 74.4 GFlops/%
Für Ampere ist es aktuell noch nicht eindeutig den Wert festzulegen - aber er liegt irgendwo zwischen 100% "Double Float" und 0% Double-Float Leistung

Denn die 3090 hat 17.8 - 35.6 TFlops. Und damit bei 158% Index also 44.4 - 88.8 GFlops/%.

Bei angenommenen 30% INT-Leistung und 70% DoubleFloat wären das 52.5 GFlops/%

52.5Gflops/% wären IPC-Technisch deutlich besser als eine 2080 Ti (74.4 Gflops/%)

Aber wieviel "INT-Blockade" wirklich vorliegt kann man nur schätzen.

Nehme ich die 67.77 von RDNA und 74.4 von Turing als Referenzen wäre RDNA also ca 10% besser im Gaming-Output pro Flops ("IPC")

Allerdings wäre Ampere hier wieder fast 30% besser wenn ich 30% INT-Anteile unterstelle und der Rest als double Floats operiert.

Die Wahrheit wird vermutlich irgendwo dazwischen liegen.

JVC
2020-10-21, 12:05:31
Den Markenbonus hat nV ja immer
Und 24Gb...

Mit OC von BN könnte aber die Leistung der 3090 "fallen".

Vielleicht schiebt man ja wirklich auch ne beidseitig mit Speicher bestückte in den Markt?
Wobei ne. 16Gb sind für mich wirklich gut für 4K.

M.f.G. JVC

why_me
2020-10-21, 12:05:37
Trotzdem weiß man nicht was der mögliche Cache bringt.

Schon klar, aber wie gesagt, würde er nicht funktionieren, würden wir ihn sehen. Ich würde also von +-0% oder mehr Leistung als von weniger Leistung ausgehen. Im vergleich zu einem breiteren Interface.
Klar kann es Fälle geben, die mehr und auch welche die weniger vom Cache profitieren werden.

patrickschur
2020-10-21, 12:22:42
Das BIOS stammt übrigens von Patrick Schur.
Quelle: https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/
Wird die Strix sein würd ich sagen. Oder was völlig krankes von MSI.
Wenn ich mich richtig erinnere, habe ich ihm ein VBIOS von einer XFX Karte geschickt. Schließlich habe ich mir die ~2,4 GHz nicht ausgedacht. :wink:

dargo
2020-10-21, 12:30:36
@Patrick
Was steht dann bei N22 als max. GPU-Takt in der PP-Table? 3Ghz? :freak: Hast du da zufällig auch schon ein Bios parat? :upara:

Edit:
Ich bin echt gespannt auf N22. Wenn AMD es schafft N22 mit 2,6Ghz laufen zu lassen (eher dann AIBs mit Customs) hat die RTX 3070 ein ernsthaftes Problem. Könnte ein knappes Battle werden.

Dschounz
2020-10-21, 12:33:41
Quelle: https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/

Wenn ich mich richtig erinnere, habe ich ihm ein VBIOS von einer XFX Karte geschickt. Schließlich habe ich mir die ~2,4 GHz nicht ausgedacht. :wink:

Dann könnte bei einer Sapphire Nitro(+)/Toxic ja noch mehr gehen ;D

Hypetrain auf Volldampf....schuuuschuuu :biggrin:

Berniyh
2020-10-21, 12:53:54
Du hast das 256 Bit SI bei deiner ganzen rechnerei völlig vergessen. Solang wir keinen Anhaltspunkt haben wie gut Infinity Cache funktioniert kann man sich alle Rechenspiele sparen.
Stimmt, aber dann hätte die Karte keine 80CU. Man verschwendet ja nicht völlig unnötig Fläche. ;)

gedi
2020-10-21, 12:58:04
2.4G Gameclock - hui. Dann möchte ich mal wissen wieviel ne MSI oder ASUS macht. Ich denke aber:

6800Xe 599€
6800XT 699€
6900.. 999€

Je nur für die Referenz. Gute Customs je 100 Taler mehr.

Redneck
2020-10-21, 12:59:42
Eigentlich verraten doch nVs Preise die erwartbare Leistung schon ganz gut. Die 3080 wird definitiv geschlagen, sonst wäre sie nicht so „günstig“. Die 3090 wohl nicht, aber für Augenhöhe könnte es durchaus reichen. Den Markenbonus hat nV ja immer

Wie soll NV denn die Leistung wissen, wenn nicht einmal die Boardpartner die Leistung aufgrund gebremster Treiber einschätzen können ?

ianm
2020-10-21, 13:06:41
Nvidias Ingenieure sind ja nicht dumm, wenn die mitbekommen da sind 80CUs im Spiel werden die schon Hochrechnungen machen können, um zu verstehen wo AMD ungefähr landen wird.

Redneck
2020-10-21, 13:10:04
Vielleicht sind die neuen GPUs von AMD OC Biester ? ^^
"Maximal 2,8Ghz bei 1,15v"... vielleicht mit 15°c Wasser und 500W+ :freak:
Und nur wegen dem "vernünftigen" Verbrauch bei nur ~2,2Ghz "gedrosselt" unterwegs...
Naja :ubeer: *rülps*
Ne 72CU Custom @300Watt @2,5Ghz dafür würde ich mich auch erwärmen lassen ;D

M.f.G. JVC
Wenn ich mir Überlege, das die Xbox series X unter Last bei Digital Foundry zwischen 150-210 Watt verbraucht hat (Gesamtsystem) mit 52CU und 1850MHZ, dann ist da noch etliches an Luft dazwischen.
Man wird die Karten also auch "sparsam" betreiben können.

Redneck
2020-10-21, 13:11:57
Nvidias Ingenieure sind ja nicht dumm, wenn die mitbekommen da sind 80CUs im Spiel werden die schon Hochrechnungen machen können, um zu verstehen wo AMD ungefähr landen wird.
Das behauptet ja auch keiner... nur werden die auch nichts vom Infinity Cache gewußt haben. 80CU+256 Interface sind nun einmal nicht wirklich spannend, theoretisch

ianm
2020-10-21, 13:16:52
Das behauptet ja auch keiner... nur werden die auch nichts vom Infinity Cache gewußt haben. 80CU+256 Interface sind nun einmal nicht wirklich spannend, theoretisch
Das ist im Grunde 2x Navi10 und reicht theoretisch schon für die 3080. Unabhängig vom Speicherinterface. Zumindest ein erstes Anzeichen das AMD dieses mal mitspielen kann. Daher auch die Reaktion von Nvidia. Hätte ja auch 384/512bit werden können.

Redneck
2020-10-21, 13:23:03
Das ist im Grunde 2x Navi10 und reicht theoretisch schon für die 3080. Unabhängig vom Speicherinterface. Zumindest ein erstes Anzeichen das AMD dieses mal mitspielen kann. Daher auch die Reaktion von Nvidia. Hätte ja auch 384/512bit werden können.
stimmt.
denke mit 256 ohne secret sauce würde man in 4k kein Land sehen und wäre damit im Enthusiast Level raus. .. ergo mußte NV von etwas grösserem ausgehen.

gedi
2020-10-21, 13:24:44
Aber nur in 1080p. Für 4k braucht es Bandbreite, um die Performance auf den Bildschirm zu bringen.

dargo
2020-10-21, 13:26:20
Das ist im Grunde 2x Navi10 und reicht theoretisch schon für die 3080.
Nicht ganz, denn die Frequenzen sind deutlich höher und auch was die IPC angeht tappt nicht nur NV noch im Dunkeln.

basix
2020-10-21, 13:27:16
Korrekt... ich finde das immer wieder genial wenn uns jemand das Powermanagement von Radeon erklären will, besonders ein Geforce User. :freak:

Wenn du damit mich meinst: Ich besitze eine 5700 XT 50th Anniversary Edition ;) Der Schuss ging also nach hinten los. Solchen Rant kannst du auch allgemein gerne stecken lassen, der trägt nämlich nichts zur Diskussion bei.

Meine Aussage ist nur, dass man die 2.6 GHz wohl niemals sehen wird ohne OC. Bei der Euphorie von einigen ist man bald bei 3.0 GHz OC Takt :freak: (auch wenn ich das sehr geil finden würde :D). Zwischen 2.3-2.4 GHz (was realistisch ist) und 2.6 GHz liegen etwa 10%. Das kann schon den Unterschied zwischen über oder unter einer 3080 sein, was sehr relevant sein kann für die Vermarktung als auch den Verkaufspreis.

Edit:
Und noch als Anmerkung, 2.4 GHz sind +30% verglichen zu 1.85 GHz. Das im selben Node und massiv verbesserter Perf/Watt ist extrem gut. Das letzte mal haben wir sowas mit Maxwell gesehen, welcher damals in dieser Hinsicht ein Novum war.

dargo
2020-10-21, 13:30:56
Wenn du damit mich meinst: Ich besitze eine 5700 XT 50th Anniversary Edition ;) Der Schuss ging also nach hinten los. Solchen Rant kannst du auch allgemein gerne stecken lassen, der trägt nämlich nichts zur Diskussion bei.

Da ging gar nichts nach hinten los denn deine Sig. sagt eindeutig RTX 2080 Ti. Und wenn du jetzt doch Navi10 hast umso schlimmer, denn eigentlich solltest du das Powermanagement von N10 bestens kennen.

gedi
2020-10-21, 13:32:18
Wenn die XFX schon 2.4G Gameclock hat. Du solltest eigentlich auch wissen, dass der eigentlich immer erreicht wird.

ianm
2020-10-21, 13:34:03
Nicht ganz, denn die Frequenzen sind deutlich höher und auch was die IPC angeht tappt nicht nur NV noch im Dunkeln.
Ganz dumm gerechnet, wie ich das hier als Laie mache.

NV MA1: "Oh 80CU, doppelt so schnell wie Navi10? Hmm, könnte gefährlich werden."
NV MA "dargo": "Was passiert wenn AMD auch mehr IPC und Takt liefern kann?"

Jensen: (╯°□°)╯︵ ┻━┻

Smee
2020-10-21, 13:35:24
Ich weiß zwar nicht wie glaubwürdig der Kerl ist aber hier gibts ein paar interessante Infos bez. Countermeasures vs. Bots für Reseller:
https://twitter.com/mooreslawisdead/status/1318599153715433477

Abschließend erwähnt er noch:
I also find this statement about RX 6000 interesting:
"built to enable world-class gaming performance."
:D

Complicated
2020-10-21, 13:37:29
Quelle: https://www.igorslab.de/das-koennen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verraet-die-details/

Wenn ich mich richtig erinnere, habe ich ihm ein VBIOS von einer XFX Karte geschickt. Schließlich habe ich mir die ~2,4 GHz nicht ausgedacht. :wink:Danke für die Info :)
Das hat er wohl nachgetragen nachdem du in den Kommentaren darauf hingewiesen hast. Ich hatte extra danach gesucht wo die Quelle erwähnt ist. ;)

gedi
2020-10-21, 13:41:28
Ich weiß zwar nicht wie glaubwürdig der Kerl ist aber hier gibts ein paar interessante Infos bez. Countermeasures vs. Bots für Reseller:
https://twitter.com/mooreslawisdead/status/1318599153715433477

Abschließend erwähnt er noch:
I also find this statement about RX 6000 interesting:
"built to enable world-class gaming performance."
:D

Das Dokument ist wohl offiziell und wurde gestern bereits auf mehreren Seiten veröffentlicht, u.a auf CB.

basix
2020-10-21, 13:45:00
Da ging gar nichts nach hinten los denn deine Sig. sagt eindeutig RTX 2080 Ti. Und wenn du jetzt doch Navi10 hast umso schlimmer, denn eigentlich solltest du das Powermanagement von N10 bestens kennen.

Klar habe ich eine 2080 Ti, welche ich auch seit 2 Jahren gerne nutze. Eine Sig. erzählt aber nicht zwingend die ganze Wahrheit ;) Es gibt sehr viele Leute (speziell) hier im Forum, welche Erfahrung mit beiden Herstellern haben.

N10 kenne ich sicher nicht so gut wie die Turing Karte und ich kenne nicht alle Clock Tables. Ja, eine 5700 XT taktet höher als der nominelle Game Clock aber der Boost Clock wird eigentlich nie erreicht. Und umso höher die Karten getaktet sind und so breiter sie sind, desto grösser ist die Differenz des Realtakts zum Boost Takt. Und ich kann auch die Frage in den Raum stellen, ob sich RDNA2 hier genau gleich verhält wie RDNA1 oder nicht. Wissen wir das? Nein. Also lieber auf der etwas konservativen Seite bleiben. Dann wird man nicht entäuscht und allenfalls sogar positiv überrascht.

patrickschur
2020-10-21, 14:17:01
@Patrick
Was steht dann bei N22 als max. GPU-Takt in der PP-Table? 3Ghz? :freak: Hast du da zufällig auch schon ein Bios parat? :upara:

Dafür habe ich leider noch kein vBIOS vorliegen.

Complicated
2020-10-21, 14:18:11
War das nun ein 72CU BIOS oder ein 80CU BIOS für Igor?

Adam D.
2020-10-21, 14:20:38
War das nun ein 72CU BIOS oder ein 80CU BIOS für Igor?
72, schlicht weil es sehr unwahrscheinlich ist, dass man aktuell an ein BIOS für eine Karte kommt, die AMD-exklusiv ist.

Linmoum
2020-10-21, 14:22:51
Ja, bei AMD-only anfangs gibt's für die AiB natürlich nichts. Die dürfen sich mit den kleineren Karten rumprügeln.

dargo
2020-10-21, 14:41:04
Dafür habe ich leider noch kein vBIOS vorliegen.
Schade... dann aber bitte vormerken sobald du was hast. :)

Cyberfries
2020-10-21, 14:45:02
Ich habe das Gefühl, vor lauter Begeisterung werden hier ein paar Dinge vergessen.

Leistungsaufnahme.
Klar, wenn die AIB-Karten mit 255w TGP unter OC lief, liegt die TBP der Referenz unter 300w.
Bei der 6800.
Leistung kostet, ist die 6900xt 15% schneller, schluckt sie auch min.15% mehr, 350w sind da schnell erreicht.

IPC
Klar, normalerweise sollte die IPC steigen, doch garantiert ist das nicht.
AMD hat schon einmal dem hohen Takt alles geopfert.

Skalierung
Wieviel bringt AMD von der Rohleistung auf die Straße? Was passiert unter Raytracing?
Große Chips waren bei AMD schon immer ein Problem.

Ich weiß, es fällt schwer, nicht dem Hype zu verfallen, doch ich mahne zur Vorsicht.
Ich erinnere nur an Fury und Vega, AMDs vorherige Flaggschiffe mit 4SE und 64CUs.
Ja, wir gehen davon aus, dass aus den Fehlern gelernt wurde, doch das ist keine "gmahde Wiesn".

2,577GHz - verrückt. Geil.
Nix mit harter Taktgrenze bei 2,3GHz. Krass

edit:
Coreteks zeigt doch momentan dieses Bild:
https://pbs.twimg.com/media/Ek0FC2VXEAA-64N?format=jpg&name=large
Das sind doch nie und nimmer 536mm² im Vergleich zum GDDR6?
Sofern das Verhältnis passt und nicht weiter bearbeitet wurde, sind das unter 400mm².

why_me
2020-10-21, 14:48:30
Spaßbremse :P :biggrin:

Kann ich so nur unterschreiben. Wir wissen einfach aktuell zu wenig.

[MK2]Mythos
2020-10-21, 14:51:34
AMD hat gezeigt, was eine die 72CU GPU kann. Ohne den wahnwitzigen AIB Takt. Ich glaube, du musst hier nicht mehr zur Vorsicht raten. Die Karten liegen doch mit den neusten Details weitgehend auf dem Tisch. Ob es dann am Ende 10% mehr oder weniger werden, ist komplett egal. Die Karten sind nach langer Zeit erstmalig wieder mit nvidias absoluter Leistungsspitze konkurrenzfähig.

dargo
2020-10-21, 14:51:53
N10 kenne ich sicher nicht so gut wie die Turing Karte und ich kenne nicht alle Clock Tables. Ja, eine 5700 XT taktet höher als der nominelle Game Clock aber der Boost Clock wird eigentlich nie erreicht.
Das ist so pauschal gesagt nicht korrekt. Wenn ich bei meiner Pulse das Performance-Bios aktiviere erreiche ich dank 195W PT (+15W vs. Referenz) sehr wohl die 1925Mhz Boosttakt in vielen Games in 1440p, was meine Spielauflösung ist.


Skalierung
Was passiert unter Raytracing?

Die Framerate fällt. :tongue: Spaß bei Seite... RT-Performance ist zumindest mir in dieser Generation relativ egal. Da muss ich eh pro Game individuell schauen ob ich das nutze oder nicht... Kosten/Nutzen Faktor.


edit:
Coreteks zeigt doch momentan dieses Bild:
https://pbs.twimg.com/media/Ek0FC2VXEAA-64N?format=jpg&name=large
Das sind doch nie und nimmer 536mm² im Vergleich zum GDDR6?
Sofern das Verhältnis passt und nicht weiter bearbeitet wurde, sind das unter 400mm².
Umso besser... mehr Spielraum bei der Preisgestaltung nach unten. ;) Einziger Nachteil bei ~400mm2 ist dann eventuell die Kühlung in den höheren Power-Bereichen.

Linmoum
2020-10-21, 14:56:41
Natürlich wird die IPC garantiert steigen, AMD selbst sprach damals auf dem FAD im März von höherer IPC für RDNA2.

basix
2020-10-21, 15:00:30
IPC
Klar, normalerweise sollte die IPC steigen, doch garantiert ist das nicht.
AMD hat schon einmal dem hohen Takt alles geopfert.

Skalierung
Wieviel bringt AMD von der Rohleistung auf die Straße? Was passiert unter Raytracing?
Große Chips waren bei AMD schon immer ein Problem.

Auf die IPC bin ich gespannt. AMD hat aber IPC-Steigerungen angekündigt, deswegen mache ich mir keine Gedanken und "IPC-Erosion", eher "wie viel mehr?"

Die Skalierung wir mMn recht gut sein. Nicht umsonst steht bei Navi seit 2015 oder so Scalability auf AMDs Roadmap. Mit z.B 0.9x Scaling von 40 auf 72 CU lande ich bei 2.4 GHz bei 2.1x Performance einer 5700 XT und somit ein Haar über der 3080. Wenn da noch etwas IPC obendrauf kommt, na dann gute Nacht :D

Raytracing ist eine Wundertüte. Ebenso Features wie DLSS / ML Upsamling. Noch 1 Woche warten und wir wissen mehr.

Screemer
2020-10-21, 15:06:15
Double Dissipation Black Edition Karten von XFX waren immer bis an die Kotzgrenze getaktet und auch immer Vollausbau bzw. das maximum was eine GPU-Gen hergab. Das "speziellste" was XFX zu bieten hatte. Würde mich wunder, wenn AMD einem Exkluivpartner wie XFX für ihre Topkarte dann nur den Salvage-Chips bekommen würden.

die DD Black gab's glaube ich seit der 390 nicht mehr.

Dural
2020-10-21, 15:47:17
Ihr diskutiert jetzt nicht ernsthaft über den max Takt der im Bios hinterlegt ist?
Wird ja immer besser hier :freak:

Aber immerhin sind wir vom Speicher Ausbau jetzt zum Takt gekommen. Das ist wie vor 25 Jahren wo jeder nur auf MHz und KB geschaut hat. Läuft.

Und nur so, sollten die 320Watt stimmen, muss die 6900XT um 3080 Leistung zu generieren 40% effektiver Arbeiten als die 5700XT (220W) Kann man ohne Probleme ausrechnen, aber auf die Idee ist wohl noch keiner gekommen.

Adam D.
2020-10-21, 15:53:55
Ihr diskutiert jetzt nicht ernsthaft über den max Takt der im Bios hinterlegt ist?
Wird ja immer besser hier :freak:

Aber immerhin sind wir vom Speicher Ausbau jetzt zum Takt gekommen. Das ist wie vor 25 Jahren wo jeder nur auf MHz und KB geschaut hat. Läuft.

Und nur so, sollten die 320Watt stimmen, muss die 6900XT um 3080 Leistung zu generieren 40% effektiver Arbeiten als die 5700XT (220W) Kann man ohne Probleme ausrechnen, aber auf die Idee ist wohl noch keiner gekommen.
Geh dich bitte mit NV-Mitarbeiter streiten, das steht dir viel besser. Da kannst du deine Expertise besser zur Schau stellen.

Ist ja zum Glück nicht so, als hätte AMD 50% Perf/W-Erhöhung in Aussicht gestellt. Und ist ja zum Glück nicht so, als hätte AMD in letzter Zeit ziemlich punktgenau angekündigt, was am Ende auch rauskam.

Ex3cut3r
2020-10-21, 16:00:28
Ich bin sowas von gespannt. Könnte es wirklich sein, dass AMD diesmal das schnellere und bessere Paket bietet? Das wäre nach gefühlten 15 Jahren, der absolute ober Hammer. Mehr VRAM gleich zum Start, ist schonmal so gut wie sicher. Geil.

basix
2020-10-21, 16:04:37
Coreteks zeigt doch momentan dieses Bild:
https://pbs.twimg.com/media/Ek0FC2VXEAA-64N?format=jpg&name=large
Das sind doch nie und nimmer 536mm² im Vergleich zum GDDR6?
Sofern das Verhältnis passt und nicht weiter bearbeitet wurde, sind das unter 400mm².

Die GDDR6 Packages sind 14x12mm gross. Wenn die der Massstab und relative Grösse stimmt, wäre das ein ~340mm2 Die. Ich habe 14.8x23.2mm ausgemessen.

Dural
2020-10-21, 16:23:42
Geh dich bitte mit NV-Mitarbeiter streiten, das steht dir viel besser. Da kannst du deine Expertise besser zur Schau stellen.

Ist ja zum Glück nicht so, als hätte AMD 50% Perf/W-Erhöhung in Aussicht gestellt. Und ist ja zum Glück nicht so, als hätte AMD in letzter Zeit ziemlich punktgenau angekündigt, was am Ende auch rauskam.

Mach das doch du, ist nicht meine Aufgabe NV Mitarbeiter zu schulen. :rolleyes:

Ich freue mich schon auf die nächsten Tage, 50% und so ;)

Savay
2020-10-21, 16:27:52
Ich bin sowas von gespannt. Könnte es wirklich sein, dass AMD diesmal das schnellere und bessere Paket bietet? Das wäre nach gefühlten 15 Jahren, der absolute ober Hammer. Mehr VRAM gleich zum Start, ist schonmal so gut wie sicher. Geil.

Eher gefühlt 10.
RV870 vs. Thermi kommt dem wohl am nächsten was sich hier bisher für mich abzeichnet.

Und die gleichen BS Diskussionen auf irgendwelchen für diese Gen an sich komplett irrelevanten Nebenschauplätzen werden uns wie ich fürchte wohl auch wieder bevorstehen. (Tesselation Performance <-> RT Performance) :popcorn:

nairune
2020-10-21, 16:28:58
Die 50% sind locker drin:
- Igors Zahlen sind etwas zu hoch
- Das ist mit großer Wahrscheinlichkeit ein OC-Modell und OC geht immer auf die Effizienz

Die Referenz XT wird sich spürbar unter 300W platzieren und wenn sie die Karte vom 8. Oktober war, dann reicht die Leistung auch, um das Effizienzversprechen zu erfüllen.

Adam D.
2020-10-21, 16:30:18
Mach das doch du, ist nicht meine Aufgabe NV Mitarbeiter zu schulen. :rolleyes:

Ich freue mich schon auf die nächsten Tage, 50% und so ;)
Ich nehme einfach mal deine Einschätzungen zu Igors TDP-Angaben zu Ampere vor Release als Maßstab für deine Treffgenauigkeit. Wir sehen uns dann in ein paar Tagen wieder.

Dural
2020-10-21, 16:41:48
Ich habe die Ampere Leistung bis auf 5% genau geschätzt. :rolleyes:

Beim Verbrauch habe ich mich mit dem GDDR6X etwas verschätzt, keiner ging davon aus das der so viel Saft zieht.

gedi
2020-10-21, 16:46:23
Ich habe das Gefühl, vor lauter Begeisterung werden hier ein paar Dinge vergessen.

Leistungsaufnahme.
Klar, wenn die AIB-Karten mit 255w TGP unter OC lief, liegt die TBP der Referenz unter 300w.
Bei der 6800.
Leistung kostet, ist die 6900xt 15% schneller, schluckt sie auch min.15% mehr, 350w sind da schnell erreicht.

IPC
Klar, normalerweise sollte die IPC steigen, doch garantiert ist das nicht.
AMD hat schon einmal dem hohen Takt alles geopfert.

Zwecks RT habe ich auch mal hier was verlinkt (afair von THG), dass RT max. 10% in nativer Auflösung brauchen soll.

Skalierung
Wieviel bringt AMD von der Rohleistung auf die Straße? Was passiert unter Raytracing?
Große Chips waren bei AMD schon immer ein Problem.

Ich weiß, es fällt schwer, nicht dem Hype zu verfallen, doch ich mahne zur Vorsicht.
Ich erinnere nur an Fury und Vega, AMDs vorherige Flaggschiffe mit 4SE und 64CUs.
Ja, wir gehen davon aus, dass aus den Fehlern gelernt wurde, doch das ist keine "gmahde Wiesn".

2,577GHz - verrückt. Geil.
Nix mit harter Taktgrenze bei 2,3GHz. Krass

edit:
Coreteks zeigt doch momentan dieses Bild:
https://pbs.twimg.com/media/Ek0FC2VXEAA-64N?format=jpg&name=large
Das sind doch nie und nimmer 536mm² im Vergleich zum GDDR6?
Sofern das Verhältnis passt und nicht weiter bearbeitet wurde, sind das unter 400mm².

AMD gab als erste Prognose +6-10% IPC an. Normalerweise stapelt AMD hier aber Afaik immer tief.

Linmoum
2020-10-21, 16:48:07
AMD hat NIE eine konkrete Angabe zu RDNA2 gemacht, um wie viel höher die IPC liegen wird/soll.

gedi
2020-10-21, 16:50:46
AMD hat NIE eine konkrete Angabe zu RDNA2 gemacht, um wie viel höher die IPC liegen wird/soll.

Doch haben sie. Suchen kannst selbst. Afair habe ich dies hier in diesem Thread auch mal verlinkt.

patrickschur
2020-10-21, 16:51:46
Sofern ich das beurteilen kann, sind die 255 W TGP der Standard bei der XT. Mit OC sind wie gesagt 290 W TGP möglich. Um ganz genau zu sein sind es 289 W (für die Korinthenkacker unter euch). :P Mehr ist laut AMD nicht erlaubt. Es scheint auch so, dass bei allen XT Karten, der max. Takt mit 2577 MHz im vBIOS angegeben wird. Bei der XL ist der max. Takt mit 2475 MHz angegeben. Standard TGP scheint 203 W zu sein und maximal erlaubt sind 230 W.

Wenn ich mir also die TGP anschaue, liegt zwischen Standard und max. erlaubter TGP immer ~13,3 %.

Screemer
2020-10-21, 16:52:02
Ich habe die Ampere Leistung bis auf 5% genau geschätzt. :rolleyes:

Beim Verbrauch habe ich mich mit dem GDDR6X etwas verschätzt, keiner ging davon aus das der so viel Saft zieht.
Und jetzt liest du sein Post noch Mal.