PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 [57] 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Nightspider
2020-10-15, 08:53:45
Ist eigentlich ein Chip in der Pipeline der für Laptops taugt und nicht zu groß ist?

Wobei eine Version mit 40CUs und niedrigem Takt auch noch in Laptops passen sollte mit ~200mm² und stromsparend sein dürfte.

HOT
2020-10-15, 09:05:23
Dafür gibts offenbar N23, welcher 32CUs aber nur 128Bit GDDR6 haben soll. Perfekt für mobil.

Klar haben die sich was gedacht... Nvidia wollte nicht alleine die RTX 3090 gegen AMD stellen um vorne zu bleiben. Dann würde es heißen... nur die teure 1.500+€ Karte Karte schafft es sicher BigNavi leicht zu überholen.


Na dann hoffe ich auf folgendes...

XTX = Brechstange (320+W?)
XT = 275W
XL = 220W

Wobei ich mich frage ob diese Brechstange bei der XTX überhaupt Sinn macht? Ich würde jetzt davon ausgehen, dass sowohl die XTX als auch die XT 80 CUs haben. Also kannst du die Brechstange nur über den Takt liefern. Selbst wenn die XTX auf 2,3GHz geprügelt wird und die XT mit 2Ghz läuft hast du gerade mal 15% mehr Takt. Davon bleiben dann auf der Straße um die 8-10%. Naja... wäre mir dann auch egal, ich muss ja (und würde auch nicht) keine XTX kaufen. :)

So würd ich das auch sagen. Die Brechstange ist halt nötig um leistungsmäßig mit vorne dabei zu sein. Ich würd aber auch die XT vorziehen ;). Oder eben doch ne 3080 mit 20GB.

Nightspider
2020-10-15, 09:10:19
Dann hoff ich mal das N23 nicht viel später als Cezanne aufschlagen wird.

Wäre schön beides zusammen in einer neuen Gen Laptops vorzufinden.

HOT
2020-10-15, 09:12:57
Da würd ich grob Q2 rechnen für N23.

Brillus
2020-10-15, 09:49:55
Dann hoff ich mal das N23 nicht viel später als Cezanne aufschlagen wird.

Wäre schön beides zusammen in einer neuen Gen Laptops vorzufinden.

Da bin ich bei dir sowas hätte ich gern für meinen nächsten Lapi.

Vor Fragen kommen, bin Linux unter Rolling Releaae distros da ist NV einfach nur kompletter Müll.

Dural
2020-10-15, 09:52:48
:rolleyes:

Also fassen wir mal zusammen was hier alles so steht:

Navi2 ist kleiner Navi1 (40CU Version 250mm gegen 200mm)
Navi2 hat mehr Takt als Navi1
Navi2 verbraucht weniger als Navi1
Navi2 hat "Hardware" RT
Navi2 nach wie vor in 7nm wie auch Navi1

Wird bestimmt so kommen, klingt auch alles sehr logisch.

Edit:
Noch vergessen, die XTX richtet es den bestimmt!

Cyberfries
2020-10-15, 09:54:44
Derzeit findet in Bezug auf die Avery-Aussagen eine Twitter-Hexenjagd statt.
Der Vorwurf wäre, er hätte aus einem China-Forum von einem bekannten Lügner und nVidia-Fanboy abgeschrieben:
https://tieba.baidu.com/p/7016495593

Ich spreche kein Chinesisch, aber ich habs mal durch ein Übersetzungstool gejagt.
Und obwohl es Übereinstimmungen gibt (kein RT unter N21, schlechtes OC), sind die Unterschiede groß genug,
als dass ich diese Behauptung ablehnen würde.
Dieser Chinese spricht von 60-80w mehr Strombedarf bei gleicher Leistung und 375w für N21.
N22 knapp vor 2070S und 300mhz mehr als die 5700, N23 Weiterentwicklung von N12, knapp 200w.
GA106 soll schneller als die 2080S und GA107 schneller als die 2070 sein.
Das würde ich definitiv als BS bezeichnen.

dargo
2020-10-15, 09:57:34
Also fassen wir mal zusammen was hier alles so steht:

Navi2 ist kleiner Navi1 (40CU Version 250mm gegen 200mm)
...
Wer sagt das?

Dural
2020-10-15, 09:59:29
Steht ja gleich hier oben:


Wobei eine Version mit 40CUs und niedrigem Takt auch noch in Laptops passen sollte mit ~200mm² und stromsparend sein dürfte.

dargo
2020-10-15, 09:59:54
Und das ist jetzt für dich Fakt weil jemand wilde Spekulation in den Raum wirft? ;D

Nightspider
2020-10-15, 10:07:18
Das war eine maximal grobe Schätzung und es ging nur darum ob die Größe für Laptops noch passt.

Bei Nvidia gabs früher gar Chips mit über 300mm² für Laptops.

Cyberfries
2020-10-15, 10:15:29
Navi2 ist kleiner Navi1 (40CU Version 250mm gegen 200mm)
Navi2 hat mehr Takt als Navi1
Navi2 verbraucht weniger als Navi1
Navi2 hat "Hardware" RT
Navi2 nach wie vor in 7nm wie auch Navi1

256bit vs 192bit, xBox zeigt ebenfalls kleinere Einheiten, N10 war da nicht am Limit.
200mm² sind zu wenig, es standen mal 240mm² im Raum.

Mehr Takt und RT sind dank den Konsolen bekannt.

Wenn die Behauptung nach 50% mehr Perf/watt zutreffen soll,
muss bei kaum Mehrleistung ein deutlicher Minderverbrauch anliegen.

Bei Nvidia gabs früher gar Chips mit über 300mm² für Laptops.

Gibt auch Laptops mit den Turing-Monstern, Chipgröße ist da kein Hinderungsgrund.
Wichtig ist nur der Stromverbrauch.

Nightspider
2020-10-15, 10:17:18
Ja gut, es gibt aber auch Schlachtschiffe die nicht viel kleiner sind als Tombmans Koffer. :D

Vielleicht gibts ja wirklich RDNA2 Chips mit 32 und 40 CUs in Laptops, je nach Größe.

Immerhin scheint diese Generation ja effizienter zu werden als alles was es von Nvidia bisher gibt.

win-win :D

Nazar
2020-10-15, 10:33:28
Ich bin immer wieder erstaunt, wie schnell die nV Fanboys bei Gerüchten gegen AMD mit den Kopf nicken und lauthals "rufen": "Ja, so muss das stimmen!" Obwohl die Spekulationen inhaltlich selber widersprechen. So soll Big Navi 15% vor einer 3070 sein aber 25% vor einer 2080Ti rauskommen. Aufgrund der Folien von Nvidia (wo die 3070, wenn überhaupt nur eine Winzigkeit schneller als die 2080 TI war) und nach Tests mit der 3080, sollte jedem Klar sein, dass das absoluter BS ist. Aber muss ja stimmen, weil es gegen AMD ist. :freak:
Natürlich sind das Spekulationen aber warum das eine Quatsch und das andere plötzlich Fakt ist, erschließt sich offensichtlich nur den jeweiligen Fanatikern. :rolleyes:
Bisher hatte AMD bewiesen, dass die Performance pro Watt immer ein deutlicher Anstieg war. Jetzt auf einmal, nach RDNA1, soll sich das laut Gerüchten vollkommen geändert haben. Alle Angaben die aus dem neuste Gerücht kommen, könnten direkt aus dem Vega Thread stammen:

1. Performance pro Watt soll so schlecht sein, sodass eine RDNA1 GPU mit !!!!weniger!!!!! Takt als eine RDNA2 GPU und gleicher CU Anzahl !!schneller!! sein müsste. :eek:
2. die gezeigte Big Navi GPU soll für die erbrachten Ergebnisse an die Kotzgrenze mit mehr als 320 Watt gebracht worden sein, soll aber beim Release jetzt weniger Watt bekommen und damit nur noch knapp vor einer 3070 liegen.

Ja, das könnte alles möglich sein, widerspräche aber allen bisherigen Ankündigungen von AMD und es erscheint eher unwahrscheinlich, dass AMD bei den CPUs und RDNA1 den "Heiligen Gral" entdeckt hat was Performance per Watt angeht aber bei RDNA2 vollkommen versagen und das Gegenteil der Fall sein soll.
Natürlich könnte selbst das stimmen aber die Wahrscheinlichkeit ist derart gering, dass man diese neue "Spekulation" schon eher als Fanboygequatsche abtun sollte. Zu viele Widersprüche.
Für mich klingt es nach gezielt gestreuten Gerüchten von "nVidia", damit die 3080 Bestellungen nicht alle rückgängig gemacht werden. :freak:
Aber alles reine Speku von mir. :wink:

Berniyh
2020-10-15, 10:40:32
Naja, in die andere Richtung gibt's das ja genauso, das gibt sich nun wirklich nichts. ;)

Denniss
2020-10-15, 10:53:26
Zwei Wochen noch dann hören endlich diese unsägliche Fakes und seltsamen Leaks auf und wir wissen was genaueres (aber sicherlich noch nicht alles).
Fehlt nur noch AdoredTV der all diese Gerüchte zusammenrührt und als frisch gekochte Suppe verkauft.

Adam D.
2020-10-15, 10:56:08
Zwei Wochen noch dann hören endlich diese unsägliche Fakes und seltsamen Leaks auf und wir wissen was genaueres (aber sicherlich noch nicht alles).
Fehlt nur noch AdoredTV der all diese Gerüchte zusammenrührt und als frisch gekochte Suppe verkauft.
Ich muss ehrlich sagen, dass mir der Mangel an glaubhaften Gerüchten langsam Sorgen macht. Entweder AMD hat es wirklich geschafft, alle Löcher bei den AIBs zu stopfen oder die haben bisher schlicht nichts substantielles bekommen (was mich sehr wundern würde, aber man weiß ja nie.) Bei Ampere hatten wir Wochen vor dem Launch schon eine ungefähre Ahnung und nicht nur Hochrechnungen. Das ist echt eine seltsame Situation.

why_me
2020-10-15, 10:58:54
Zwei Wochen noch dann hören endlich diese unsägliche Fakes und seltsamen Leaks auf und wir wissen was genaueres (aber sicherlich noch nicht alles).
Fehlt nur noch AdoredTV der all diese Gerüchte zusammenrührt und als frisch gekochte Suppe verkauft.

Der hat aufgehört:
https://twitter.com/AdoredTV/status/1316305919291125760
Today is my birthday. I'm now 45, which sounds older than it feels.

I gave myself a long overdue present. I quit being a "TechTuber".

Whatever I decide to do next, I'll let you know when I do. ;)

PrinceGSC
2020-10-15, 11:43:43
Ich kann mir nicht vorstellen das solch leaks echt sind, AMD ist seit Jahren für ihre Energieffizienz bekannt und jetzt sollen sie so in die vollen gehen PERF/W ??
Natürlich ist es möglich aber AMD feiert sich bei jeder Präsentation für die Effizienz, daher kann ich mir das nicht vorstellen.

Daredevil
2020-10-15, 12:08:09
Ich kann mir nicht vorstellen das solch leaks echt sind, AMD ist seit Jahren für ihre Energieffizienz bekannt und jetzt sollen sie so in die vollen gehen PERF/W ??

Ehhh, wir sind nicht im Ryzen Thread. :D
AMD ballert seit Jahren raus, was geht und das ist auch völlig okay.
Leistung durch Abwärme ( MOER POWR) zu generieren kostet halt "fast nichts", nur halt ne größere Kühlung. ( Oder man scheißt einfach drauf, siehe VII :D ).

Wer Leistung brach liegen lässt, um am Verbrauch zu sparen, muss ein extraordinär gutes Produkt haben und damit kann man dann flexen. Das haben aktuell keiner der beiden GPU Hersteller, höchstens Apple zum Ende des Jahres.

In der CPU Sparte hat AMD das, da deklassieren sie Intel, ohne sich anzustrengen beim Verbrauch.
Aber ob man super effizient ran geht mit einer Architektur, die schon in Konsolen über 2Ghz macht? Gloob ick nicht, da wird wieder kosten effizient geprügelt, was geht. ( Und wie gesagt, das ist okay )

PrinceGSC
2020-10-15, 12:09:21
Ehhh, wir sind nicht im Ryzen Thread. :D
AMD ballert seit Jahren raus, was geht und das ist auch völlig okay.
Leistung durch Abwärme ( MOER POWR) zu generieren kostet halt "fast nichts", nur halt ne größere Kühlung. ( Oder man scheißt einfach drauf, siehe VII :D ).

Wer Leistung brach liegen lässt, um am Verbrauch zu sparen, muss ein extraordinär gutes Produkt haben und damit kann man dann flexen.
Das haben aktuell keiner der beiden GPU Hersteller, höchstens Apple zum Ende des Jahres.

In der CPU Sparte hat AMD das, da deklassieren sie Intel, ohne sich anzustrengen beim Verbrauch.


OK dann sollte ich demnächst erst nach Infos diesbezüglich suchen, hab das dann wohl verallgemeinert.

erlgrey
2020-10-15, 12:22:30
tbh. mir wäre es relativ egal ob die Karte 270, 300 oder 320W standardmäßig verbraucht.
Wenn mir 300 oder 320W etwas zu viel sind, für die letzten % Leistung, dreh ich einfach das Powerlimit runter. Das alleine entscheidet jedenfalls nicht, ob ich eine Grafikkarte für gut oder schlecht halte, Performance, Kühlung, Preis und Features gibt es ja dann auch noch..

Daredevil
2020-10-15, 12:25:18
Mir ist das auch völlig Latte.
Es ist ( für uns Bastler ) irrelevant, ob die Karte nun 300w zieht oder 200w.
Bei 300w dreht man am Power Limit nach unten, bei 200w dreht man am Power Limit nach oben, oder man belässt es bei 200w.

Computer sind ja nicht Konsolen, wo man nicht einstellen kann, wie man es haben möchte.
Meinen Ryzen 3600 prügel ich auch auf 120w hoch, weil mir die Leistung bei 65w zu schwach ist, eine 2080ti habe ich teilweise auf 150w begrenzt, wenn mir die Leistung zu hoch war.
Its going up, its going down.

Eine kompetitive AMD Karte mit 200w wird nicht als "Sparwunder" in die Geschichte eingehen, sondern als "Overclockers Dream". :D

mboeller
2020-10-15, 12:48:45
Da würd ich grob Q2 rechnen für N23.

sollte wohl so sein, zumindest nach den alten Gerüchten über Dell Notebooks in 2021

dargo
2020-10-15, 13:10:07
Ehhh, wir sind nicht im Ryzen Thread. :D
AMD ballert seit Jahren raus, was geht und das ist auch völlig okay.

Ich weiß nicht wo du lebst, aber seit RDNA1 hat AMD sich komplett gewandelt. RDNA2 ist nichts weiter als logische Fortsetzung dieser Schiene.

tbh. mir wäre es relativ egal ob die Karte 270, 300 oder 320W standardmäßig verbraucht.
Wenn mir 300 oder 320W etwas zu viel sind, für die letzten % Leistung, dreh ich einfach das Powerlimit runter. Das alleine entscheidet jedenfalls nicht, ob ich eine Grafikkarte für gut oder schlecht halte, Performance, Kühlung, Preis und Features gibt es ja dann auch noch..
Ich sehe das zwar ähnlich wie du, aber wir sind nur ein paar Forumnerds. Die Masse sieht es schon etwas anders. Meine Vega64 konnte ich auch spielend von 350W auf ~200W dank UV drücken ohne Leistung zu verlieren. Und dennoch hat sich in den Reviews sowie bei der Masse Vega10 = Säufer eingebrannt.

Daredevil
2020-10-15, 13:13:32
Nur weil eine Karte 225w verbraucht, bedeutet das nicht, dass hier nicht auch Leistung durch viel Verbrauch erschaffen wurde. ( Beispiel 5700xt )
Hätte es Sinn gemacht, auf 300w zu gehen, wäre AMD auch diesen Weg gegangen, die 5700xt skaliert hier aber noch schlechter, deswegen belässt man es dabei. ( Sapphire geht ja diesen Weg mit 285w https://geizhals.de/sapphire-nitro-radeon-rx-5700-xt-8g-se-11293-05-40g-a2177187.html?hloc=de )
Klar sind sie besser geworden, aber nicht so gut, dass man jetzt auf Strom sparen achten kann.

Das RDNA2 nochmal deutlich besser wird im Perf/Watt, selbst wenn es 250-350w sein sollten, steht ja außer Frage.

dargo
2020-10-15, 13:20:44
Keine Ahnung was du mit dem AIB @Sapphire mit Nitro+ jetzt genau beweisen willst. Mal was ganz Neues, dass einige AIBs mit ihren Customs über das Powerlimit der Referenz gehen. :rolleyes: Verbraucht also eine RTX 3090 jetzt 480+W? Wäre genauso bullshit dies zu behaupten. Hier hast du eine RX 5700XT @216W die nicht geprügelt wurde.
https://www.igorslab.de/sapphire-radeon-rx-5700-xt-pulse-im-test-navi-einstieg-mit-gewissen-schwingungen/6/

Wobei Sapphire bei der Pulse noch recht harmlos beim OC-Bios vorgegangen ist... 10% mehr Energie für 6% mehr Leistung. Da gibt es einige üblere Kandidaten.

basix
2020-10-15, 13:24:26
Ehhh, wir sind nicht im Ryzen Thread. :D
AMD ballert seit Jahren raus, was geht und das ist auch völlig okay.

Du weisst schon, dass einige High Profile Leute der CPU-Abteilung vor 2-3 Jahren zur GPU-Abteilung gewechselt haben. Zweck: Energieverbrauch der GPUs senken (RDNA1, RDNA2, APUs). Die ersten Früchte sah man anhand Renoir (RDNA1 war schon relativ weit fortgeschritten). Die nächsten Früchte wird man in den Konsolen, RDNA2 und CDNA sehen sowie allen zukünftigen APUs, welche RDNA tragen werden.

Hinsichtlich APUs als auch HPC war diese Rotation der Leute damals sehr sinnvoll. Dass die Konsolen und Desktop-GPUs auch davon profitieren ist "schönes Beiwerk" und zeigt, wie viele Synergieeffekte eine starke GPU-Architektur haben kann. Und dass sich AMD dessen bewusst war und sie einige ihrer besten Leute von den CPUs abgezogen und in die GPU-Abteilung gesteckt haben, spricht für eine gute Führung.

dargo
2020-10-15, 13:34:11
Hinsichtlich APUs als auch HPC war diese Rotation der Leute damals sehr sinnvoll. Dass die Konsolen und Desktop-GPUs auch davon profitieren ist "schönes Beiwerk" und zeigt, wie viele Synergieeffekte eine starke GPU-Architektur haben kann. Und dass sich AMD dessen bewusst war und sie einige ihrer besten Leute von den CPUs abgezogen und in die GPU-Abteilung gesteckt haben, spricht für eine gute Führung.
Die müssen da echt gezaubert haben. Ich frage mich bis heute wie sie Vega mit bis zu 1750Mhz in eine 15W TDP APU stecken konnten? :freak:
https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Ryzen4000USpecs.JPG

Iscaran
2020-10-15, 13:51:24
Die müssen da echt gezaubert haben. Ich frage mich bis heute wie sie Vega mit bis zu 1750Mhz in eine 15W TDP APU stecken konnten? :freak:
https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Ryzen4000USpecs.JPG

Ironie: Ganz einfach die GPU versorgt die CPU mit Strom :-). X-Y= 15 W :-)

/Ironie OFF

Mal was anderes: Die RTW 3080 wird nun per BIOS auf bis zu 450 W aufgepumpt...
https://www.computerbase.de/2020-10/evga-geforce-rtx-3080-ftw3-ultra-450-watt-bios-update/

Vermutlich weil Big Navi halt doch die 3080 schlägt sonst.... ?

Daredevil
2020-10-15, 13:55:34
@basix
Ne, weiß ich nicht.
Ist für mich auch im jetzt irrelevant, da das nur Versprechen und Spekulationen sind.

Allerdings ist das hier:
Die müssen da echt gezaubert haben. Ich frage mich bis heute wie sie Vega mit bis zu 1750Mhz in eine 15W TDP APU stecken konnten? :freak:
https://www.notebookcheck.com/fileadmin/Notebooks/News/_nc3/Ryzen4000USpecs.JPG
In der tat Magie. ^^
Also Renoir allgemein ist genau das, was ich damit meinte.
Es muss nicht mit voller Leistung laufen ( 15w statt 40w z.B. ) um, andere Produkte zu deklassieren.
AMD könnte die Voltkeule heben, das brauchen sie aber nicht. Das ist ein sehr luxuriöser Stand.

@Iscaran
450w sind völlig legitim, so fürs Gefühl, die 2Ghz zu halten bei einem Gurkenmodell. x(

dargo
2020-10-15, 13:56:07
Vermutlich weil Big Navi halt doch die 3080 schlägt sonst.... ?
Quatsch... das normale Bios bleibt unverändert. Außerdem was sollen diese +50W im OC-Bios genau bringen? + 1-2% mehr Performance? Oh ja... das wird es richten. :ulol: Wahrscheinlich hat EVGA nur festgestellt, dass das OC Bios mit +20W sinnfrei ist. Nochmal geprüft ob man 450W durch den Kühler jagen kann und fertig.

btw.
Aber schon geil... selbst das sparsamste Bios haut schon 60W mehr raus als die Referenz. :ucrazy:

Berniyh
2020-10-15, 14:00:48
Hm, ob Nvidia demnächst ein separates Netzteil für die GPU empfehlen wird, welches man an eine andere Sicherungsschiene im Haushalt anschließen sollte? :freak:

Edit: evtl. kommt ja auch noch eine ti Version, die dann wieder nen neuen Stromstecker bringt … also nen Anschluss für nen Kaltgerätekabel. :D

dargo
2020-10-15, 14:02:08
Hör auf sonst muss der Geschirrspüler aus bleiben. ;D

Noebbie
2020-10-15, 14:05:08
Hör auf sonst muss der Geschirrspüler aus bleiben. ;D

Der sollte extra gesichert sein. ;)

Nightspider
2020-10-15, 14:08:22
Ich überlege schon auf fallende Kurse bei NV zu setzen. Die sind gerade 2,6x so hoch bewertet wie vor genau einem Jahr.

Dabei schwächelt der Automobilmarkt und im Gaming Sektor ist die Marge viel kleiner als noch bei Turing. Selbst wenn sie denen die paar 3080er Karten aus den Händen reißen (bis BigNavi kommt), wird da weniger Gewinn erzielt.

dargo
2020-10-15, 14:09:55
Der sollte extra gesichert sein. ;)
Ist er jetzt auch. Nur dann würde ne Geforce dran hängen. ;)

Birdman
2020-10-15, 14:18:32
Es wäre ein Wunder, wenn die neuen RDNA2 Karten nicht an der Kotzgrenze betrieben/ausgeliefert werden und wenn diese Kotzgrenze bei den Highend Modellen (XT/XTX) nicht jenseits der 300W liegt.

Wir wissen wie es AMD die letzten Jahre gehandhabt habt und es gibt keinen Grund (Marktsituation anyone?) dass sich dies ändern sollte.
Ja, ich weiss dass die Nerds lieber stromsparende und effiziente Karten hätten, aber jeder ökonomisch denkende Mensch der für so eine Halbleiter-Firma arbeitet, wird darauf pochen dass die Karten mit dem maximal möglichen auf den Mark kommen.
Weil stromsparend und effizient heisst weniger Performance und weniger Performance bedeutet dass auch nur ein geringerer Verkaufspreis möglich ist.
Wieso sollte ein Hersteller also auf Margen verzichten, nur um ein paar wenige Overclocker glücklich zu machen?!?

nVidia macht es mit Ampere genauso und ich kann mir beim besten Willen nicht vorstellen, dass es im Enthusiast und High-End Bereich je wieder anders sein wird. (ausser ein Hersteller schafft wieder einen so grossen Vorsprung auf die Konkurrenz wie nVidia mit Pascal und Turing)

dildo4u
2020-10-15, 14:25:49
Es würde kein Sinn machen wenn die Karte Bandbreiten limitiert ist, so lange sie GDDR6 nutzen könnte es sinnlos sein die Karte über 300 Watt zu pumpen.

basix
2020-10-15, 14:26:55
Wir wissen wie es AMD die letzten Jahre gehandhabt habt und es gibt keinen Grund (Marktsituation anyone?) dass sich dies ändern sollte.
Ja, ich weiss dass die Nerds lieber stromsparende und effiziente Karten hätten, aber jeder ökonomisch denkende Mensch der für so eine Halbleiter-Firma arbeitet, wird darauf pochen dass die Karten mit dem maximal möglichen auf den Mark kommen.
Weil stromsparend und effizient heisst weniger Performance und weniger Performance bedeutet dass auch nur ein geringerer Verkaufspreis möglich ist.
Wieso sollte ein Hersteller also auf Margen verzichten, nur um ein paar wenige Overclocker glücklich zu machen?!?

nVidia macht es mit Ampere genauso und ich kann mir beim besten Willen nicht vorstellen, dass es im Enthusiast und High-End Bereich je wieder anders sein wird. (ausser ein Hersteller schafft wieder einen so grossen Vorsprung auf die Konkurrenz wie nVidia mit Pascal und Turing)

Da hast du in der Tat recht. Performance und Performance/$ ist King. Aber AMD muss die letzten Chipreserven nicht anknabbern, solange es für die 3080 reicht. Das ist der Gegner. Die 3090 ist aufgrund des Preises völlig irrelevant für die Marktsituation. Klar, "wir haben die schnellste GPU" wäre schön und evtl. gibt es so eine Karte auch (5700XT 50th Anniversary Edition anyone?). Momentan erwarte ich aber, dass AMD vernünftige TDPs hat (vor allem geringe Lautstärke macht sich gut in Reviews) und dass es maximal eine einzige Top End SKU geben wird, welche geprügelt wird. Und auch das nur, wenn es ansonsten nicht für die 3080 reicht oder inkl. Prügeln sogar für die 3090 reicht.

Den Benchmark des Ryzen Events deute ich so: "Schaut her, wir sind im Ballpark der 3080. Vielleicht sogar schneller". Und ja, ich glaube auch, das es nicht die allerschnellste SKU war sondern dass es mindestens noch eine geben wird welche die 3080 im Schnitt übertreffen wird.

Iscaran
2020-10-15, 14:30:40
Hm, ob Nvidia demnächst ein separates Netzteil für die GPU empfehlen wird, welches man an eine andere Sicherungsschiene im Haushalt anschließen sollte? :freak:

Ne - ich denke die steigen in die Produktion von Netzteilen ein.
Einen eigenen 12 Pin-Stecker hat man ja schon.

In Zukunft ist dann die GPU IN das PSU integriert...den Rest PC stellt man dann dazu. ;-)

"nVidia - the way it is meant to be Powered"

Birdman
2020-10-15, 15:14:01
Es würde kein Sinn machen wenn die Karte Bandbreiten limitiert ist, so lange sie GDDR6 nutzen könnte es sinnlos sein die Karte über 300 Watt zu pumpen.
Klar, wenn irgendwo anders ein hartes Limit* ist und man wirklich keine Performance mehr rausholt, egal wie viel Strom man reinpumpt, dann macht man es sicher nicht.
Aber so wie bei Ampere für +30% mehr Strom nochmals 5% rauskitzeln? Das lässt man doch nicht liegen...

* Siehe z.B. die Zen2 CPUs, welche out of the Box quasi auch an der "Kotzgrenze" laufen, wenn man rein die Taktfrequenz anschaut. Da diese aber bereits bei humaner voltage und somit Verbrauch erreicht wird, bleibt das ganze trotzdem noch ziemlich effizient.

Dural
2020-10-15, 15:22:48
Ich überlege schon auf fallende Kurse bei NV zu setzen. Die sind gerade 2,6x so hoch bewertet wie vor genau einem Jahr.

Dabei schwächelt der Automobilmarkt und im Gaming Sektor ist die Marge viel kleiner als noch bei Turing. Selbst wenn sie denen die paar 3080er Karten aus den Händen reißen (bis BigNavi kommt), wird da weniger Gewinn erzielt.

Mach das unbedingt!

why_me
2020-10-15, 16:29:13
Heise konnte die XBsX testen und haben auch verbrauch gemessen.
In Dirt5 4k-HDR 162W (klick (https://www.heise.de/tests/Next-Gen-Konsole-Xbox-Series-X-im-Vorab-Check-Leises-4K-Powerhouse-mit-Pfiff-4927844.html?seite=2)). Denke der Verbrauch wird bei anderen Titeln mit höherer Auslastung höher sein, dennoch erstaunlich wenig.

Schonmal gute Aussichten für die Perf/W, würde ich sagen.

Nightspider
2020-10-15, 16:30:51
Dir ist nun echt kein Maßstab, denn da reichen 1-2 CPU Kerne. :ugly:

why_me
2020-10-15, 16:34:30
Wie wäre es dann mit: "Doom Eternal zwischen 120 und 130 Watt" ?

bnoob
2020-10-15, 16:40:18
vor allem geringe Lautstärke macht sich gut in Reviews
Nicht außerhalb Deutschlands, und außerhalb Europas wird es NOCH egaler bzw. im asiatischen Markt teilweise sogar kontraproduktiv.

Schau mal ein paar Buildvideos von Amis die "whisper quiet PCs" bauen :freak:

Cyberfries
2020-10-15, 16:42:40
MatthewSmith von Techpowerup hat folgendes von sich gegeben:
2160 / 2410
This might be the max clocks for navi 21

Base and boost, not confident its retail clocks or OC just some hard limit to see how far they can go i assume.

Im not too confident its actual clocks but more rather the actual limit used for an ES bios from an AIB, personnally i expect base clocks to range between 1300 to 1600. Boost i wont bother guessing yet.

Linmoum
2020-10-15, 16:46:33
Schau mal ein paar Buildvideos von Amis die "whisper quiet PCs" bauen :freak:Ja, gerade wenn die ihre Wakü-Builds raushauen. Vollgestopftes Gehäuse mit 2x360mm Radis und dann mit allein >300W-GPU. Natürlich kalt und unhörbar. ;D

Wobei Hawaii-Reloaded auch außerhalb von DE und selbst bei den Amis sicher nicht gut kommen würde. :D

Gipsel
2020-10-15, 16:47:39
Dir ist nun echt kein Maßstab, denn da reichen 1-2 CPU Kerne. :ugly:Bei dem Takt in den Konsolen zieht die CPU selbst unter Volllast nicht so viel. Bei 3,5 bzw. 3,6GHz bleibst Du selbst mit Prime im Zweifelsfall unter 50W.
Und der Punkt ist ja: Wenn die XBSX selbst bei geringer Last auf der CPU an der Steckdose nur ~160W zieht (in 4k GPU-limitiert[?] bei deutlich oberhalb RX5700XT Leistung), dann bleiben nach Abzug der Wandlerverluste im Netzteil und mal sehr zurückhaltenden 20W für die CPU vielleicht noch 125W für den GPU-Teil. Das ist schon ordentlich.

dargo
2020-10-15, 16:52:00
Heise konnte die XBsX testen und haben auch verbrauch gemessen.
In Dirt5 4k-HDR 162W (klick (https://www.heise.de/tests/Next-Gen-Konsole-Xbox-Series-X-im-Vorab-Check-Leises-4K-Powerhouse-mit-Pfiff-4927844.html?seite=2)). Denke der Verbrauch wird bei anderen Titeln mit höherer Auslastung höher sein, dennoch erstaunlich wenig.

Schonmal gute Aussichten für die Perf/W, würde ich sagen.
Nicht vergessen... das ist hinter dem Netzteil gemessen worden! Also real sind es noch weniger Wattchen. Bei 92% NT-Effizienz (was schon verdammt gut ist) bedeutet das 149W. Mich würde es nicht überraschen wenn der GPU-Part alleine dann 120-125W zieht. Das wäre der Hammer. Nicht vergessen, das Ding hat ein 320Bit SI!

Iscaran
2020-10-15, 16:57:13
https://twitter.com/KittyYYuko/status/1316289459109851137
"I'm sure, Navi 21 has 128 ROPs."

Das ist derjenige der auch die FP32-Verdopplung bei Ampere als erstes geleaked hat.

128 ROPs bei einem "ähnlichen" Design wie Navi10 würde auf 80 CUs passen...also im Rahmen was eh spekuliert ist.
Eine weitere Bestätigung für die 256bit ausserdem...stellt sich umso mehr die Frage wie AMD das anstellt eine so "fette" GPU (mehr ROPs als 3080, und 80 CUs) bei nur ~448 GB/s mit Daten zu füttern...

Ich freu mich schon in 14 Tagen...das wird eine Bombe, ich gehe jede Wette ein.

dargo
2020-10-15, 17:01:59
@Iscaran

Es könnten auch 512GB/s mit 16Gbps sein. Dennoch ändert das natürlich nichts an der Frage wie AMD es schafft mit so wenig Bandbreite auszukommen.

Cyberfries
2020-10-15, 17:09:15
Das ist derjenige der auch die FP32-Verdopplung bei Ampere als erstes geleaked hat.

Dieser Nutzer hat zuletzt bei Navi alles andere als geglänzt, siehe z.B. gc_10_3_2.
Mag sein dass bei nVidia Quellen da sind, aber bei AMD eher nicht.

edit: Die Leistungsaufnahme ist beeindruckend, arstechnica hat ca. 190watt gemessen.
Damit werden deutlich unter 200w für N22 deutlich realistischer.

dargo
2020-10-15, 18:05:44
Viel interessanter wäre wenn wir schon die Leistungsaufnahme der PS5 kennen würden weil dort 36CUs arbeiten und der Takt viel näher an N22 Desktop ist. ;)

gedi
2020-10-15, 19:04:34
@Iscaran

Es könnten auch 512GB/s mit 16Gbps sein. Dennoch ändert das natürlich nichts an der Frage wie AMD es schafft mit so wenig Bandbreite auszukommen.

Und ich glaube trotzdem nicht daran :redface:

Berniyh
2020-10-15, 19:05:50
Viel interessanter wäre wenn wir schon die Leistungsaufnahme der PS5 kennen würden weil dort 36CUs arbeiten und der Takt viel näher an N22 Desktop ist. ;)
Naja, das Doppelte wird es aber wohl kaum sein. ;)

dargo
2020-10-15, 19:09:21
Das wäre auch eine sehr merkwürdige Skalierung. :usweet:

OgrEGT
2020-10-15, 21:13:46
Nicht vergessen... das ist hinter dem Netzteil gemessen worden! Also real sind es noch weniger Wattchen. Bei 92% NT-Effizienz (was schon verdammt gut ist) bedeutet das 149W. Mich würde es nicht überraschen wenn der GPU-Part alleine dann 120-125W zieht. Das wäre der Hammer. Nicht vergessen, das Ding hat ein 320Bit SI!

https://global.techradar.com/de-de/news/xbox-series-x-erscheinungsdatum-spezifikationen-design-und-launch-titel-fur-die-nachste-xbox
GPU: 12 TFLOPs, 52 CUs bei 1,825 GHz, Custom RDNA 2 GPU

Wenn die XBSX mit der GPU 130W verbraucht, dann werden wohl 80CUs nicht das Doppelte verbrauchen also nicht mehr als ca 250W (eher weniger bei nur 256bit SI) bei 1,825GHz... Davon ausgehend könnten man ggf noch unter 300W bei +/- 2GHz liegen...

Dural
2020-10-16, 09:24:37
:rolleyes:

Ihr könnt von den Konsolen keine Rückschlüsse auf die Desktop Hardware ziehen, Konsolen sind ein abgeschirmtes System wo jede Komponente auf die andere angepasst ist, das ist im PC nicht so.

Berniyh
2020-10-16, 09:37:00
:rolleyes:

Ihr könnt von den Konsolen keine Rückschlüsse auf die Desktop Hardware ziehen, Konsolen sind ein abgeschirmtes System wo jede Komponente auf die andere angepasst ist, das ist im PC nicht so.
Ich hab so die vage Vermutung du würdest nicht das gleiche schreiben, wenn die GPU in den Konsolen von Nvidia kommen würde.
Weiß auch nicht, wie das kommt … :biggrin:

dargo
2020-10-16, 09:41:31
Ach lass ihn doch... Dural greift auch schon nach dem letzten Strohhalm. Versüßt nur die Wartezeit. :tongue:

JVC
2020-10-16, 09:55:44
NV findet mit der 3080 20Gb zu seinen alten Preisen...
(ne gute 3070 16Gb kostet dann ~700 ?)

Wird echt spannend wo sich N21 so platziert.

~3080 Niveau mit 16Gb für ~699.- würden gut klingen...
(und das hoffentlich bei unter 300Watt)

M.f.G. JVC

Adam D.
2020-10-16, 10:21:43
NV findet mit der 3080 20Gb zu seinen alten Preisen...
(ne gute 3070 16Gb kostet dann ~700 ?)

Wird echt spannend wo sich N21 so platziert.

~3080 Niveau mit 16Gb für ~699.- würden gut klingen...
(und das hoffentlich bei unter 300Watt)

M.f.G. JVC
Wenn die 3080 einen UVP von 699€ hat, wird da wohl kaum die 3070 16GB platziert, die natürlich bei um die 599€ landen wird. Genau in dem Rahmen vermute ich auch N21XT, wahrscheinlich +50€, wenn man die 3070 schlägt. XTX wird, wenn die kolportierten Einschätzungen stimmen, >700€ kosten.

yX7B-sIybJk

dargo
2020-10-16, 10:29:31
Wenn die 3080 einen UVP von 699€ hat, wird da wohl kaum die 3070 16GB platziert, die natürlich bei um die 599€ landen wird. Genau in dem Rahmen vermute ich auch N21XT, wahrscheinlich +50€, wenn man die 3070 schlägt.
Du erwartest echt N21XT als Gegner für die RTX 3070? :lol:

Adam D.
2020-10-16, 10:34:24
Du erwartest echt N21XT als Gegner für die RTX 3070? :lol:
Natürlich, aber halt als Orientierungshilfe. Wenn das Zeugs von Igor stimmt, dann landet der N21XT zwischen 3070 und 3080 als 6800XT für ~600€. Das macht doch total Sinn.

In dem Video ist ja auch 'ne Antwort auf meine frühere Frage versteckt. Alle Infos zu N21 sind auf einen minimalen Personenkreis bisher beschränkt. Von Überraschungshit bis Desaster ist also alles noch drin ;D

dargo
2020-10-16, 10:40:25
Natürlich, aber halt als Orientierungshilfe. Wenn das Zeugs von Igor stimmt, dann landet der N21XT zwischen 3070 und 3080 als 6800XT für ~600€. Das macht doch total Sinn.

Stimmt... es macht total Sinn, dass ein 80CU RDNA2 so performant ist wie ein <=60SM @Ampere. :freak:

maximus_hertus
2020-10-16, 10:41:16
Du erwartest echt N21XT als Gegner für die RTX 3070? :lol:

Wenn man gemein ist, dann hat die N21XT gar keinen Gegner. Sie wird wohl spürbar schneller als die RTX 3070 raus kommen, aber auch spürbar langsamer als die RTX 3080.

Eine RTX 3070 16GB wird wohl am Ende der Gegner werden. Die Radeon liegt bei den "normalen" fps vorne, jedoch nicht unbedingt bei RT und es wird den DLSS Vorteil bei den RTX Karten geben. Dazu das Branding (nV und AMD zum gleichen Preis bei gleicher Leistung = instant nV Kauf, daher muss AMD mehr fps zum gleichen Preis bieten).

599 USD/Euro für die N21XT scheint immer mehr der richtige Preis zu sein, maximal 649 Euro.

Also genau dort, wo man eine RTX 3070 16GB erwarten kann. Ergo gibt es preislich das direkte Duell RTX 3070 16GB vs N21XT 16GB. Beide wohl mit Vor und Nachteilen, so dass niemand sein "Gesicht" verliert.

Die XTX wird dann versuchen mit der 20GB 3080 gleich zu ziehen für mindestens 799 USD/Euro. Wahrscheinlich wird es nicht so viele XTX KArten geben, so dass das P/L Verhältnis nicht wirklich relevant sein wird. Einfach 50 Euro unterhalb der 20GB 3080 und es wird genug Käufer finden.

Adam D.
2020-10-16, 10:42:45
Stimmt... es macht total Sinn, dass ein 80CU RDNA2 so performant ist wie ein <=60SM @Ampere. :freak:
Nein, tut er ja eben nicht, sondern er schlägt GA104 um 10-15%. Außerdem glaube ich, dass der XTX die 80CU vorbehalten bleiben. XT kriegt vielleicht 64-72? Keine Ahnung, ich spekulier ja auch nur ins Blaue.

HOT
2020-10-16, 10:42:46
Natürlich, aber halt als Orientierungshilfe. Wenn das Zeugs von Igor stimmt, dann landet der N21XT zwischen 3070 und 3080 als 6800XT für ~600€. Das macht doch total Sinn.

In dem Video ist ja auch 'ne Antwort auf meine frühere Frage versteckt. Alle Infos zu N21 sind auf einen minimalen Personenkreis bisher beschränkt. Von Überraschungshit bis Desaster ist also alles noch drin ;D
So wirds aussehen. Die 6900 Serie ist dann für N31 reserviert. Man wird ohne RT eben Richtung 3080 tendieren, mit RT dann eher in Richtung 3070 oder jedenfals irgendwo dazwischen (der Sprung ist ja recht groß von 3070 zu 3080). Das wird weder Überraschungshit noch Desaster. Man nutzt N21b einfach dafür, die 3090 anzugreifen, allerdings nur mit RT-Leistung <3080. Wenn Igor die Tabelle in seine Videos aufnimmt, wird die schon stimmen.


6800 -> N21 XL, ca. 230W(?) bei 170W TDP (?), 256Bit 14GT/s Speicher (?)
6800XT -> N21a XT, ca. 270W bei 200W TDP, 256Bit 16GT/s Speicher
6800XTX -> N21b XT, ca. 320W bei 238W TDP, 256Bit 18(?) GT/s Speicher (erst 21 verfügbar)
6700XT -> N22 XT, ca. 210W bei 170W TDP, 192Bit 14GT/s Speicher
6700 -> N22XL, ca. 180W(?) bei 140W TDP (?), 192 Bit 14GT/s Speicher

irgendwie so. Erinnert ein bisschen an die Situation bei der HD4000-Serie. Effizient aber nicht 100% auf Augenhöhe. Aber HD5870 in Form von N31 kommt ja noch ;). N31 wird auch gleichzeitig der Pipecleaner für N5.

dargo
2020-10-16, 10:43:15
Wenn man gemein ist, dann hat die N21XT gar keinen Gegner. Sie wird wohl spürbar schneller als die RTX 3070 raus kommen, aber auch spürbar langsamer als die RTX 3080.

Eine RTX 3070 16GB wird wohl am Ende der Gegner werden.
Wird ja immer besser. 80CU RDNA2 vs. 48 46SM Ampere. ;D ;D ;D

maximus_hertus
2020-10-16, 10:50:49
Wird ja immer besser. 80CU RDNA2 vs. 48 46SM Ampere. ;D ;D ;D

Ist ja nicht mein Fehler, wenn AMD es nicht besser hinbekommt. Der Sneak Peak war ja nett, aber zeigte schon, dass man wohl nicht ganz die Spitze erreicht.

Ob das nun 40, 80, 160, whatever Einheiten sind => who cares. Entscheidend ist auf dem Platz aka fps auf dem Bildschirm. Alles andere ist nur "noise" ;)

Nightspider
2020-10-16, 10:57:14
Der Sneak Peak war ja nett, aber zeigte schon, dass man wohl nicht ganz die Spitze erreicht.

Wo denn? Du kanntest das Setting ja gar nicht.

Je nach Szene könnte BigNavi sogar vor der 3080 gelegen haben.

dargo
2020-10-16, 10:57:59
Ist ja nicht mein Fehler, wenn AMD es nicht besser hinbekommt.
Natürlich... RTX 3070 mit 46SM wird rund 50% schneller sein als die RX 5700XT mit 40 RDNA1 CUs. Ergo wird ein RDNA2 mit 80 CUs und höheren Taktraten nur 50% schneller sein als RDNA1? Cool Comedy Bro... :ulol:

ChaosTM
2020-10-16, 11:07:19
"big chubby Navi " nennt Igor eine XTX. Ich hoffe dass das auf wirklich viel Speicher hindeutet...

why_me
2020-10-16, 11:10:44
Die eigentliche Frage ist doch, wie AMD die riesige Lücke zwischen N21 80CU und N22 40 CU mit salvages und Takt schießen wird. Sofern die 40 und 32 CUs stimmen und nicht fake Einträge im Treiber sind.
Kann man N22 so hoch takten um an 68 Turing SMs ran zu kommen oder sehen wir ein ~64CU salvage von N21 gegen die 3070?

Linmoum
2020-10-16, 11:11:36
Natürlich... RTX 3070 mit 46SM wird rund 50% schneller sein als die RX 5700XT mit 40 RDNA1 CUs. Ergo wird ein RDNA2 mit 80 CUs und höheren Taktraten nur 50% schneller sein als RDNA1? Cool Comedy Bro... :ulol:Bis in knapp zwei Wochen wirst du das noch ertragen müssen. :D Dann ist aber immerhin endlich Ruhe mit dem ganzen Quatsch, das ein 80CU-RDNA2 irgendwo bei einem 46SM-Ampere oder nur knapp darüber rumkrebst.

basix
2020-10-16, 11:13:23
Zu den N22 und N23 Gerüchten (40CU und 32CU): Was ist, wenn N23 im N7 Mobile Prozess mit höherer Packdichte und geringerem Verbrauch kommt, aber dadurch nicht so hoch takten wird/kann? Das ergäbe wieder anständige Abstände bei Chipgrössen als auch Performance. Zudem hätte man einen richtig guten Mobile Chip, da relativ breit ausgebaut.

Troyan
2020-10-16, 11:15:31
Echt, wie schafft AMD das mit der selben Rechenleistung?

basix
2020-10-16, 11:16:31
FLOPS != FLOPS. Aber da du hier nur trollen willst, Versuche ich gar nicht erst das zu erklären. Du weisst das nämlich selbst.

Linmoum
2020-10-16, 11:17:07
Statt N23 kann man aber auch einfach einen Salvage N22 nehmen, die müssen ja auch irgendwo hin. Für mich ergibt N23 immer noch nur wirklich Sinn, wenn das ein extra Chip nur für Mobile ist.

Sunrise
2020-10-16, 11:17:44
...Außerdem glaube ich, dass der XTX die 80CU vorbehalten bleiben. XT kriegt vielleicht 64-72? Keine Ahnung, ich spekulier ja auch nur ins Blaue.
Das wurde auch schon länger so geleakt, jedoch mit Fragezeichen. Ich finde gerade den entsprechenden Leaker-Twitterpost nicht...

Der Post hatte folgenden Inhalt:

N21
80 CU
72 CU
72 CU

Wurde also schonmal breitgetreten. Macht auch durchaus Sinn, wie schon erwähnt (Yield).

Cyberfries
2020-10-16, 11:18:12
....Die 6900 Serie ist dann für N31 reserviert....

6800 -> N21 XL, ca. 230W(?) bei 170W TDP (?), 256Bit 14GT/s Speicher (?)
6800XT -> N21a XT, ca. 270W bei 200W TDP, 256Bit 16GT/s Speicher
6800XTX -> N21b XT, ca. 320W bei 238W TDP, 256Bit 18(?) GT/s Speicher (erst 21 verfügbar)
6700XT -> N22 XT, ca. 210W bei 170W TDP, 192Bit 14GT/s Speicher
6700 -> N22XL, ca. 180W(?) bei 140W TDP (?), 192 Bit 14GT/s Speicher

Was da schon wieder alles sicher bestätigt ist. Schon mal was von Möglichkeitsform gehört?
Vor allem bei solchen wilden Spekulationen...
N21XL und N22XT mit gleicher TDP? Is klar.

Ich würde ziemlich sicher N31 NICHT der 6000-Serie zuordnen, damit erfolgt der Sprung auf gfx11.
Das ist mehr als nur ein kleines Update.

Kann man N22 so hoch takten um an 68 Turing SMs ran zu kommen oder sehen wir ein ~64CU salvage von N21 gegen die 3070?

Wieso soll N22 gegen 68SM 3080 gestellt werden? Das wird schon gegen die 38SM 3060 knapp.

Zu CU-SM-Vergleichen (editiert):
Leo hat in den gestrigen News eine Gegenüberstellung der Recheneinheiten gebracht,
natürlich mit möglicher Fehlerbandbreite, auf Basis von Tests bei Ampere und Taktschätzungen bei RDNA2
68 Ampere-SM = 92 Turing-SM = 80 RDNA2-CU
46 Ampere-SM = 68 Turing-SM
38 Ampere-SM = 52 Turing-SM = 40 RDNA2-CU
Ein direkter Vergleich aufgrund der CU/SM-Anzahl zwischen den Architekturen ist nicht möglich.

Fragman
2020-10-16, 11:18:18
Die 3080 kann man hier sowieso raus lassen. Nv verkauft die nicht mehr, es gibt sie nicht in anderen Shops und man könnte schon spekulieren, ob die Chips überhaupt produziert werden. ;D

Das heißt, wenn AMD liefern kann, stehen ihre GPU's gegen Turing.
Also wenn ADM liefern kann, haben sie aktuell keine Konkurenz, vor allem nicht bei den zu erwartenden Preisen.

HOT
2020-10-16, 11:21:45
Was da schon wieder alles sicher bestätigt ist. Schon mal was von Möglichkeitsform gehört?
Vor allem bei solchen wilden Spekulationen...
N21XL und N22XT mit gleicher TDP? Is klar.

Ich würde ziemlich sicher N31 NICHT der 6000-Serie zuordnen, damit erfolgt der Sprung auf gfx11.
Das ist mehr als nur ein kleines Update.

[...]
Wir sind im Spekulationsforum, da spar ich mir die Möglichkeitsform. Deal with it.

N22XT taktet extrem hoch, daher dieselbe TDP.
Und ich bin davon überzeugt, dass N31 ein Einzelstück ist, daher passt er wunderbar in die 6000-Serie.

Fragman
Igor spekuliert ja, dass die Yields aufgrund der 600mm²+ echt kacke sein sollen. Die 400mm² vom GA104 sollen hingegen problemlos sein.

Sunrise
2020-10-16, 11:21:52
@Fragman:
So falsch ist das nichtmal, denn GA103 soll ja auch bald kommen. Das wäre dann der Gegner für Big Navi. Eventuell hat diese “Verknappung” auch damit zu tun.

why_me
2020-10-16, 11:22:29
Wieso soll N22 gegen 68SM 3080 gestellt werden? Das wird schon gegen die 38SM 3060 knapp.

Zu CU-SM-Vergleichen: Einfach Leos Umrechnung anschauen.
68 Ampere-SM = 92 Turing-SM = 80 RDNA2-CU
46 Ampere-SM = 68 Turing-SM
38 Ampere-SM = 52 Turing-SM = 40 RDNA2-CU
Passt nicht exakt aber gibt eine ungefähre Einschätzung.

Turing SMs ;)
68 = 2080TI = 3070
Ist für mich einfacher zu rechnen als Ampere mit den 30% Mehrleistung pro SM durch die doppelten FP32.

E:
Wir sind im Spekulationsforum, da spar ich mir die Möglichkeitsform. Deal with it.

Sehr gewagt, da du damit schon bekannte Fakten und Spekulationen auf die gleiche Ebene stellst und man keinen unterschied erkennen kann.
Sehr schlechter Diskussionsstil meiner Meinung nach. ;)

Troyan
2020-10-16, 11:25:27
FLOPS != FLOPS. Aber da du hier nur trollen willst, Versuche ich gar nicht erst das zu erklären. Du weisst das nämlich selbst.

Echt, erkläre mal.
Ein SM bei nVidia hat 128 FP32 Einheiten, ein CU bei AMD hat 64 FP32. Wie genau kann also AMD "bessere" Flops haben? Und betrachte dies unter dem Fakt, dass bei Integer-Berechnungen ein SM 64 FP32 und 64 INT32 Einheiten hat und AMD 0 FP32 Einheiten und nur 64 INT32 Einheiten.

Ich bin gespannt.

Nightspider
2020-10-16, 11:27:35
Nur noch 12 Tage bis zur BigNavi Vorstellung. :)

Daredevil
2020-10-16, 11:28:42
Freue mich schon auf die ganzen FLOPS! :heart:

Fragman
2020-10-16, 11:31:30
@Fragman:
So falsch ist das nichtmal, denn GA103 soll ja auch bald kommen. Das wäre dann der Gegner für Big Navi. Eventuell hat diese “Verknappung” auch damit zu tun.

Falls nv einen Plan hat und massiv Chips zurück hält, dann vielleicht.
Glauben kann ich das aber nicht in Anbetracht der Liefersituation der 3090 (vom realen Preis der 30xx Karten mal abgesehen) nicht.

dargo
2020-10-16, 11:32:43
Zu CU-SM-Vergleichen: Einfach Leos Umrechnung anschauen.
68 Ampere-SM = 92 Turing-SM = 80 RDNA2-CU
46 Ampere-SM = 68 Turing-SM
38 Ampere-SM = 52 Turing-SM = 40 RDNA2-CU
Passt nicht exakt aber gibt eine ungefähre Einschätzung.
Leo hat Informationen wie schnell ein RDNA2 CU gegenüber der Konkurrenz ist? :tongue: Vor allem ist der Vergleich 38 Ampere-SM = 40 RDNA2 CUs und dann 68 Ampere-SM = 80 CUs RDNA2 sehr überzeugend. :ulol:

maximus_hertus
2020-10-16, 11:35:26
Bis in knapp zwei Wochen wirst du das noch ertragen müssen. :D Dann ist aber immerhin endlich Ruhe mit dem ganzen Quatsch, das ein 80CU-RDNA2 irgendwo bei einem 46SM-Ampere oder nur knapp darüber rumkrebst.

Warum muss es direkt "Quatsch" sein?

Wo soll den der 80er CU-RDNA im Vergleich zu den Ampere-SMs landen? 1:1, also 80 CU-RDNA2 = 80 Ampre SMs?

why_me
2020-10-16, 11:41:41
Mindestens 1:1 bei Turing SMs, mehr wissen wir aktuell einfach nicht (Bei Taktgleichheit und keinen IPC Verbesserungen zu RDNA1). Das die IPC und der Takt im vergleich zu RDNA1 sinkt ist denke ich so gut wie ausgeschlossen.
Ampere ist ca. 30% schneller pro SM in Spielen als Turing. Daraus folgt:
80 RDNA2 CUs >= 80 Turing SMs (N21)
68 Ampere SMs = 88 Turing SMs (3080)
46 Ampere SMs = 60 Turing SMs (3070)
40 RDNA2 CUs >= 40 Turing SMs (N22)
Alles eine grobe Milchmädchenrechnung.

Um mit N22 an die 3070 zu kommen muss N22 also sehr hoch getaktet werden oder N21 sehr stark beschnitten.

Cyberfries
2020-10-16, 11:44:05
Leo hat Informationen wie schnell ein RDNA2 CU gegenüber der Konkurrenz ist?

Hättest du den entsprechenden Artikel gelesen wäre dir klar wo die Werte herkommen.
Stattdessen kommt von dir die letzten Tage nur BS.
Arbeite mal wieder ein bisschen an deinem Diskussionsstil.

Echt, erkläre mal.
Ich bin gespannt.

Flops und Leistung konnte man in den letzten Jahren nur einmal vergleichen, bei Navi und Turing.
Da die Differenz von Flops und Leistung bei Turing und Ampere nicht mehr passt,
ist die Vergleichbarkeit zwischen den Herstellern auch nicht mehr gegeben.

Wir sind im Spekulationsforum, da spar ich mir die Möglichkeitsform. Deal with it.

Sehr schlechter Diskussionsstil, why_me hat es auf den Punkt gebracht.

N22XT taktet extrem hoch,

Es soll da ein architektonisches Limit geben, so groß wird der Unterschied vrmtl nicht sein.

Igor spekuliert ja, dass die Yields aufgrund der 600mm²+ echt kacke sein sollen.

Das Problem soll doch der fehlende GDDR6X-Nachschub sein?
Gut, ist für GA104 auch kein Problem.

dargo
2020-10-16, 11:46:15
Hättest du den entsprechenden Artikel gelesen wäre dir klar wo die Werte herkommen.
Stattdessen kommt von dir die letzten Tage nur BS.

Entschuldige bitte, dass ich mir keine Mühe mache Spekulationen eines Spekulanten zu lesen die auf Spekulationen anderer Spekulationen basieren.

Adam D.
2020-10-16, 11:49:14
Das Problem soll doch der fehlende GDDR6X-Nachschub sein?
Gut, ist für GA104 auch kein Problem.
Es weiß keiner genau. Laut den ominösen Tech-Tubern verknappt NV bewusst, indem sie Massen an Speicher gekauft haben und nur in homöopathischen Dosen an die AIBs verteilen. Die Tatsache, dass nach übereinstimmenden Gerüchten GA104 von Anfang an breit verfügbar sein soll, sagt dann halt leider auch wenig aus über die Situation mit GA102.

Berniyh
2020-10-16, 11:51:30
Und ich bin davon überzeugt, dass N31 ein Einzelstück ist, daher passt er wunderbar in die 6000-Serie.
Dann wäre es gfx 10 und nicht 11.

Ne, Navi 31 wird ziemlich sicher nicht in der 6000er Serie kommen.

Andron
2020-10-16, 12:03:30
Echt, erkläre mal.
Ein SM bei nVidia hat 128 FP32 Einheiten, ein CU bei AMD hat 64 FP32. Wie genau kann also AMD "bessere" Flops haben? Und betrachte dies unter dem Fakt, dass bei Integer-Berechnungen ein SM 64 FP32 und 64 INT32 Einheiten hat und AMD 0 FP32 Einheiten und nur 64 INT32 Einheiten.

Ich bin gespannt.

Eine SM bei Ampere hat 128 FP32 Einheiten, eine SM bei Turing hat 64 FP32. Wie genau kann also Turing die (nachweislich) "besseren" Flops haben? Und betrachte dies unter dem Fakt, dass eine 3080 (GA102!) bei über 120% höherer theoretischer Rohleistung und ausuferndem Stromverbrauch nur ca. 30-40% mehr Realleistung als eine 2080Ti (TU 102) bringt. Verbrauchsbereinigt bleiben noch 20-25% übrig.
Es gab selten schlechter vergleichbare Flop-Angaben als bei Ampere, selbst im Vergleich mit anderen Nvidia Produkten. Wie kann Ampere dermaßen "schlechtere" Flops haben als Vorgänger und Konkurrenz:rolleyes:?

reaperrr
2020-10-16, 12:07:55
Es soll da ein architektonisches Limit geben, so groß wird der Unterschied vrmtl nicht sein.
Es wurde lediglich vom Chef-Entwickler der PS5 gesagt, dass die GPU im PS5-SoC bei 2.3 GHz Fehler produziert hat.

Das heißt noch lange nicht, dass es ein allgemeines Architekturlimit ist, das auch auf die Desktop-GPUs zutrifft.
Die uArch-Entwicklung steht niemals vollständig still, es gab und gibt selbst innerhalb einer Generation immer wieder kleine Unterschiede zwischen jeder einzelnen GPU.
Z.B. gut möglich, dass es dieses Limit in N21 noch gibt, wo es nicht ins Gewicht fällt, da man aufgrund der Chipgröße eh schon vorher an andere Grenzen (TDP, Hitzeentwicklung) stößt, während man es ab N22 gefixt hat, da man den höheren Takt brauchte, um mit nur 40 CUs die Performance-Ziele zu erreichen.

Nightspider
2020-10-16, 12:18:57
Es weiß keiner genau. Laut den ominösen Tech-Tubern verknappt NV bewusst, indem sie Massen an Speicher gekauft haben und nur in homöopathischen Dosen an die AIBs verteilen. Die Tatsache, dass nach übereinstimmenden Gerüchten GA104 von Anfang an breit verfügbar sein soll, sagt dann halt leider auch wenig aus über die Situation mit GA102.

Aus welchem Grund sollte Nvidia Speicher aufkaufen und zurückhalten?

Denniss
2020-10-16, 12:32:53
Hmm, diese FLOPS Diskussion gabs doch schon mal:
AMD's GCN vs Nvidia nur das AMD dort die höhere theoretische Leistung hatte aber die in Spielen nicht so ganz auf die Straße brachte

Nightspider
2020-10-16, 12:35:17
Die wirds auch immer wieder geben mit jeder neuen Gen.

Adam D.
2020-10-16, 12:44:20
Aus welchem Grund sollte Nvidia Speicher aufkaufen und zurückhalten?
Aus Markenwahrnehmungsgründen. Angeblich (und ich halte die These für gewagt), um ein kollektives "Muss haben!!!!" zu etablieren, was ja - s. dieses Forum - extrem gut zu funktionieren scheint. Im November will man dann die Verfügbarkeit erhöhen, um AMD das Wasser abzugraben. Ich halte das für Unsinn, weil die Leute den Shit ja längst gekauft hätten, wenn man ihn den hätte kaufen können. Gab ja Millionen Leute, denen der AMD-Launch komplett am Hintern vorbeigeht, wie man an den Vorbestellungen sehen kann.

WedgeAntilles
2020-10-16, 13:07:07
Aus Markenwahrnehmungsgründen. Angeblich (und ich halte die These für gewagt), um ein kollektives "Muss haben!!!!" zu etablieren, was ja - s. dieses Forum - extrem gut zu funktionieren scheint. Im November will man dann die Verfügbarkeit erhöhen, um AMD das Wasser abzugraben. Ich halte das für Unsinn, weil die Leute den Shit ja längst gekauft hätten, wenn man ihn den hätte kaufen können. Gab ja Millionen Leute, denen der AMD-Launch komplett am Hintern vorbeigeht, wie man an den Vorbestellungen sehen kann.

Full Ack, dem ist aus meiner Sicht nichts hinzuzufügen.

Fragman
2020-10-16, 13:09:49
Das heißt man beliefert seine Kunden heute nicht, nimmt einen Paperlaunch in Kauf, der dafür sorgt, das viele verärgert sind nur um dann im Dezember liefern zu können?
Und das, nachdem AMD gelauncht hat?

Ich weiß, wir sind hier im Navi Speku Thread, aber selbst das geht zu weit. ;)

Cyberfries
2020-10-16, 13:14:49
YukoYoshida (dessen Wissen ich selbst gestern angezweifelt habe), behauptet folgendes:


XSX
Front-End:
RDNA 1
Render-Back-Ends:
RDNA 2
Compute Units:
RDNA1
RT:
RDNA2


Deckt sich mit einigen Vermutungen, die auch hier im Faden geäußert wurden.

Es wurde lediglich vom Chef-Entwickler der PS5 gesagt, dass die GPU im PS5-SoC bei 2.3 GHz Fehler produziert hat.

Ich glaube mich erinnern zu können, dass eine ähnliche Aussage auch zu N2x getroffen wurde,
finde natürlich aber momentan nichts.

während man es ab N22 gefixt hat, da man den höheren Takt brauchte, um mit nur 40 CUs die Performance-Ziele zu erreichen.

Um die Kluft überbrücken zu können müssten die Taktraten Richtung 3GHz gehen,
momentan sieht es eher nach nur 10% Unterschied aus. (Leaks & Mac-Treiber).
Kann natürlich alles anders kommen, aber ich glaube nicht daran, dass N22 40% höher taktet als N21.

basix
2020-10-16, 13:29:23
Um die Kluft überbrücken zu können müssten die Taktraten Richtung 3GHz gehen,
momentan sieht es eher nach nur 10% Unterschied aus. (Leaks & Mac-Treiber).
Kann natürlich alles anders kommen, aber ich glaube nicht daran, dass N22 40% höher taktet als N21.

40CU @ 2.4 GHz gegenüber 64 CU @ 1.9-2.0 GHz. Dann liegen die gewohnten Abstände von ~30% zwischen den SKUs. Ist also definitiv möglich. Ich denke, dass N21 deutlich niedriger takten wird als N22, damit Perf/W möglichst hoch wird. Ein hochgetakteter N22 wird um die 200W verbrauchen. Will man mit doppelt so viel CUs und nur 1/3 breiterem SI auskommen, wird der Chip zwangsläufig niederiger takten. Sonst ist man entweder über dem Power Budget oder bandbreitenlimitiert, auch mit 18GT/s GDDR6.

Redneck
2020-10-16, 13:29:49
Aus Markenwahrnehmungsgründen. Angeblich (und ich halte die These für gewagt), um ein kollektives "Muss haben!!!!" zu etablieren, was ja - s. dieses Forum - extrem gut zu funktionieren scheint. Im November will man dann die Verfügbarkeit erhöhen, um AMD das Wasser abzugraben. Ich halte das für Unsinn, weil die Leute den Shit ja längst gekauft hätten, wenn man ihn den hätte kaufen können. Gab ja Millionen Leute, denen der AMD-Launch komplett am Hintern vorbeigeht, wie man an den Vorbestellungen sehen kann.

so viel hanebüchenen Unsinn habe ich schon lange nicht mehr gelesen (gut, ich schau mir auch keine Videos von Allu Hut Trägern an...).

Falls NV die ganzen GDDR6x Bestände kauft , wieso verbauen sie (oder die AIBs) die nicht gleich und verkaufen die Karten, jetzt, wo noch der demand hoch ist ?
Sofern NV tatsächlich mit einem starken BN gerechnet hat (und der frühe Markstart mit den einhergehenden Issues deutet darauf hin sowie die an die Kotzgrenze gebrachten Frequenzen samt TDPs), wieso sollten sie darauf warten bis BN auf dem Markt ist und die potentielle Käuferschafft zur Konkurrenz greifen kann . So fair ist NV nicht.. die haben einen zeitlichen Vorteile, den sie aktuell nicht nutzen (können)... aber das wird andere Ursachen als geplante Verknappung haben.

Dural
2020-10-16, 13:33:51
GDDR6X ist exklusiv nv

Redneck
2020-10-16, 13:34:54
GDDR6X ist exklusiv nv
eben, und dann macht das noch viel weniger Sinn.
NV kauft die ganzen Bestände auf die sie ohnehin exklusiv haben.. was für ein Blödsinn

ich denke eher, NV wird bestrebt sein die 10GB/3080 so schnell wie möglich auslaufen zu lassen und stattdessen die AIBs dazu zu bringen nur noch die 20GB Versionen zu bringen um BN etwas entgegen zu setzen mit seinen 16GB.

Cyberfries
2020-10-16, 13:49:31
40CU @ 2.4 GHz gegenüber 64 CU @ 1.9-2.0 GHz.

Das ist ja genau mein Punkt. 64CU ist eine zweite Salvage-Stufe.
Ausgehend vom erwarteten Takt und üblichem ersten Salvage sind zwischen N21 und N22 50% Lücke:
80CU @2,1GHz = 21,5 TFlops
72CU @2,0GHz = 18,4 TFlops
40CU @2,4GHz = 12,3 TFlops
36CU @2,2GHz = 10,1 TFlops

Dazwischen muss ein zweiter Salvage (60 @2,0 = 15,4), oder N22 @3GHz (ebenfalls 15,4TFlops).
2,4GHz zu 2,1GHz sind keine ausreichende Differenz um ohne auszukommen.
Und die 2,1GHz für N21 sind niedrig angesetzt, wenn 22,5TFlops und 2,2GHz bereits genannt wurden.

HOT
2020-10-16, 14:37:24
Dann wäre es gfx 10 und nicht 11.

Ne, Navi 31 wird ziemlich sicher nicht in der 6000er Serie kommen.
Dann ist der eben ne ganze Ebene weiter, das spielt doch aber doch keine Rolle, ob der ein Einzelstück ist oder nicht.

Savay
2020-10-16, 14:43:53
Hmm, diese FLOPS Diskussion gabs doch schon mal:

Gab es schon vorher noch deutlich ausgeprägter...zur Zeit der VLIW Radeons. :tongue:
RV870 vs. GF100 - 2700 vs. 1300 GFLOPS :popcorn:


Dazwischen muss ein zweiter Salvage (60 @2,0 = 15,4), oder N22 @3GHz (ebenfalls 15,4TFlops).

Wieso muss(!) da denn unbedingt einer dazwischen?

Wir wissen doch eh noch gar nicht wie gut die Rohleistung beim N21 und N22 skaliert oder etwa doch? :wink:
Sind die 72CUs für den N21 Salvage überhaupt schon fix? Sicher das es nicht von vornherein ein 64er wird?

basix
2020-10-16, 14:57:14
Das ist ja genau mein Punkt. 64CU ist eine zweite Salvage-Stufe.

Haben die ursprünglichen SKU Leaks nicht 3 N21 Varianten erwähnt?

Cyberfries
2020-10-16, 15:24:10
Wieso muss(!) da denn unbedingt einer dazwischen?


*muss, wenn die Abstände zwischen den einzelnen Varianten nicht zu groß werden sollen.
Ich gehe vom gewohnten Bild bei AMD aus, das wären hier 72CUs, wurden auch schonmal genannt.
Direkt 64CU @2,0GHz wären 16,4TFlops, 31% zum Topmodell, 33% zu N22.
Ziemlich großer Abstand, selbst bei schlechter Skalierung.

Haben die ursprünglichen SKU Leaks nicht 3 N21 Varianten erwähnt?

_rogame nannte vier:
GL-XL, XTX, XT, XL, was wie folgt gedeutet wurde: Pro, Liquid, 80CU, 72CU

kopite7kimi dagegen nannte nur drei:
I don't know if amd has one-on-one capabilities.
80CU vs 82SM
72CU vs 68SM
72CU vs 68SM

Von einem zweiten Salvage war dabei nie die Rede.
Wobei ich das als die wahrscheinlichste Variante ansehe, eher noch als N22 @3GHz.

(edit: Ich reite auf 3GHz rum, weil erst damit der zweite Salvage obsolet wird.
Ob 3GHz oder 2,8 oder 3,1 ist sekundär, es geht mir um absurd hohe benötigte Taktraten)

Brillus
2020-10-16, 15:41:16
*muss, wenn die Abstände zwischen den einzelnen Varianten nicht zu groß werden sollen.
Ich gehe vom gewohnten Bild bei AMD aus, das wären hier 72CUs, wurden auch schonmal genannt.
Direkt 64CU @2,0GHz wären 16,4TFlops, 31% zum Topmodell, 33% zu N22.
Ziemlich großer Abstand, selbst bei schlechter Skalierung.



_rogame nannte vier:
GL-XL, XTX, XT, XL, was wie folgt gedeutet wurde: Pro, Liquid, 80CU, 72CU

kopite7kimi dagegen nannte nur drei:


Von einem zweiten Salvage war dabei nie die Rede.
Wobei ich das als die wahrscheinlichste Variante ansehe, eher noch als N22 @3GHz.

(edit: Ich reite auf 3GHz rum, weil erst damit der zweite Salvage obsolet wird.
Ob 3GHz oder 2,8 oder 3,1 ist sekundär, es geht mir um absurd hohe benötigte Taktraten)

Zwei Salvage mit gleich CU Anzahl hört sich für mich stark nach Taktsalvage an, das da eine significante Anzahl den Takt nicht hinbekommt. Da könnte man Lücke gut mit füllen.

reaperrr
2020-10-16, 15:45:42
Um die Kluft überbrücken zu können müssten die Taktraten Richtung 3GHz gehen,
momentan sieht es eher nach nur 10% Unterschied aus. (Leaks & Mac-Treiber).
Kann natürlich alles anders kommen, aber ich glaube nicht daran, dass N22 40% höher taktet als N21.
Das war nicht, worauf ich hinaus wollte.
Es ging mir nur darum, dass für N22 in den Leaks/Treibereinträgen auf maximale Turbo-Taktraten im Bereich bis 2,5 GHz hingedeutet wird, was über 200 MHz mehr als bei der PS5 sind, ergo kann N22 keine harte Taktmauer bei unter 2,3 GHz haben, wie das scheinbar bei der PS5 der Fall ist.

Und AMD haben selbst schon angedeutet, dass Desktop-RDNA2 nicht identisch zu den Konsolen-GPUs, sondern in manchen Bereichen wahrscheinlich schon etwas weiter ist.

basix
2020-10-16, 15:46:53
Zwei Salvage mit gleich CU Anzahl hört sich für mich stark nach Taktsalvage an, das da eine significante Anzahl den Takt nicht hinbekommt. Da könnte man Lücke gut mit füllen.

Eventuell erreicht man damit mehr Performance im Schnitt bei identischem Yield anstatt mit weniger CUs und höherem Takt:

80 CU XTX = Liquid / FuryEx
80 CU = XT
72 CU = XL @ 100% Clock
72 CU = GL-XL @ 95% Clock
(64 CU = GL-XL @ 100% Clock) --> denkbar, aber man kommt im Schnitt schlechter weg

Berniyh
2020-10-16, 16:42:47
Dann ist der eben ne ganze Ebene weiter, das spielt doch aber doch keine Rolle, ob der ein Einzelstück ist oder nicht.
Wenn der Chip ein neues Featureset hat (und davon würde ich ob der neuen gfx Version ausgehen), dann wird man das in einer neuen Serie vermarkten wollen.
Wüsste nicht, dass das AMD in letzter Zeit irgendwie anders gehandhabt hätte.

Dazu wird die 6000er Serie vermutlich bis hin zu 6900 mit Navi 21 zugepflastert, da wird wenig Raum sein noch was drüber zu setzen.

Wenn Navi 31 wirklich ein Refresh in 5nm wäre, wie ich ja irgendwann mal vermutet hatte, dann hätte ich zugestimmt, aber die Anzeichen (Navi3x = RDNA3, gfx 11, nachdem Navi1x und 2x gfx 10 waren sowie die Gerüchte um MCM) sprechen klar dagegen.

gedi
2020-10-16, 17:43:24
*muss, wenn die Abstände zwischen den einzelnen Varianten nicht zu groß werden sollen.
Ich gehe vom gewohnten Bild bei AMD aus, das wären hier 72CUs, wurden auch schonmal genannt.
Direkt 64CU @2,0GHz wären 16,4TFlops, 31% zum Topmodell, 33% zu N22.
Ziemlich großer Abstand, selbst bei schlechter Skalierung.



_rogame nannte vier:
GL-XL, XTX, XT, XL, was wie folgt gedeutet wurde: Pro, Liquid, 80CU, 72CU

kopite7kimi dagegen nannte nur drei:


Von einem zweiten Salvage war dabei nie die Rede.
Wobei ich das als die wahrscheinlichste Variante ansehe, eher noch als N22 @3GHz.

(edit: Ich reite auf 3GHz rum, weil erst damit der zweite Salvage obsolet wird.
Ob 3GHz oder 2,8 oder 3,1 ist sekundär, es geht mir um absurd hohe benötigte Taktraten)

Ich denke nur die Liquid kommt im Vollausbau. Sprich Max. CUs und sehr hohe Leistungsabgabe mit dem Rage-VBios. Wenn se die Pumpe diesmal nicht in den Kühler integrieren und 1/4“ Anschlüsse dabei wären, dann wäre das Ding so was von gekauft!

Btw. gibt es eigentlich so etwas wie ein 768-Bit SI? Wie würde es sich dann mit dem Vram im Bezug aufs SI verhalten?

Adam D.
2020-10-16, 18:37:15
AMD is set to launch three SKUs based on Navi 21. According to our sources, AMD is not launching Navi 22 or Navi 23 at the same time as Navi 21.

N21XTX ~ 3080
N21XT ~ 3070 + 10-15%
N21XL ~ 3070

?

https://videocardz.com/newz/techpowerup-gpu-z-gets-amd-radeon-rx-6000-navi-21-support

dargo
2020-10-16, 18:49:54
Das wäre die absolute Vernichtung von Nvidia. :ulol:
The second-generation (Navi 2X) GPUs are to offer twice the performance per Watt, compared to the Navi 1X series.

Linmoum
2020-10-16, 18:53:14
Ich glaube, whycry interpretiert +50% Perf/Watt einfach falsch.

Berniyh
2020-10-16, 18:54:16
Ist so allgemein aber sicher Quatsch. AMD selbst sagt ja 1.5x.

Vermutlich ist eher gemeint, dass Navi 21 bei Navi 10 Leistungsaufnahme doppelt so schnell ist, aber das sind sehr spezifische Vergleiche wo einer der beiden Chips immerhin doppelt so viele CUs hat …

@Adam: dass Navi 22 und 23 später kommen wissen wir eigentlich schon. Gerade Navi 23 wird noch eine Weile auf sich warten lassen.

dargo
2020-10-16, 18:57:49
Vermutlich ist eher gemeint, dass Navi 21 bei Navi 10 Leistungsaufnahme doppelt so schnell ist, aber das sind sehr spezifische Vergleiche wo einer der beiden Chips immerhin doppelt so viele CUs hat …

Auch das wäre eine Vernichtung von Nvidia. ;)

RX 5700XT = 100% (225W)
RTX 3080 = 200% (320W)
Navi 21 = 200% (225W)

Ex3cut3r
2020-10-16, 19:10:13
Ich glaube diesmal wirklich an AMD. Wenn die AMD Karte fast 3080 Leistung mit sofortigen 16GB VRAM bei 225-250W Stromverbrauch bietet, wird das meine erste AMD Karte seit Jahrzehnten. :eek:

Komme von einer 2080 @ 1950/7700mhz @ 215-225W. Spiele Auflösung 3440x1440.

Cyberfries
2020-10-16, 19:23:15
ergo kann N22 keine harte Taktmauer bei unter 2,3 GHz haben, wie das scheinbar bei der PS5 der Fall ist.

Wenn du mich nur auf die 2,3GHz-PS5-Grenze hinweisen wolltest: ist akzeptiert.
Nur hilft das trotzdem nicht dem Argument, dass N22 die Lücke durch Takt schließt.
Irgendwo ist immer eine Taktgrenze.

Btw. gibt es eigentlich so etwas wie ein 768-Bit SI?

Theoretisch ja, doch schon bei 512bit wirds so komplex dass es keinen Sinn mehr ergibt.

Wenn die AMD Karte fast 3080 Leistung mit sofortigen 16GB VRAM bei 225-250W Stromverbrauch bietet.

Könnt ihr nicht mal für 5min keinen neuen Hype-Train starten? Nur für 5min?
Dass es da eine Verwechslung mit den 50% gab ist doch offensichtlich. 225w könnt ihr vergessen.

Elite_Warrior
2020-10-16, 19:30:37
Und die dicken Kühler haben wir auch gesehen, könnte mir höchsten eine Navi21 XE vorstellen wo sowas in die Richtung gehen könnte.

basix
2020-10-16, 20:23:57
Auch das wäre eine Vernichtung von Nvidia. ;)

RX 5700XT = 100% (225W)
RTX 3080 = 200% (320W)
Navi 21 = 200% (225W)

In diesem Fall würde ich ja lieber Navi 21 = 240% (280W) sehen ;)

Aber lassen wir den Hype Train vorerst noch auf dem Nebengleis. Selbst 200% Performance bei 280W wäre schon sehr gut, das wäre nämlich +60% Perf/Watt.

gedi
2020-10-16, 20:35:19
Wenn du mich nur auf die 2,3GHz-PS5-Grenze hinweisen wolltest: ist akzeptiert.
Nur hilft das trotzdem nicht dem Argument, dass N22 die Lücke durch Takt schließt.
Irgendwo ist immer eine Taktgrenze.



Theoretisch ja, doch schon bei 512bit wirds so komplex dass es keinen Sinn mehr ergibt.



Könnt ihr nicht mal für 5min keinen neuen Hype-Train starten? Nur für 5min?
Dass es da eine Verwechslung mit den 50% gab ist doch offensichtlich. 225w könnt ihr vergessen.

Nur wegen der Die-Size? Es stehen 536mm^2 im Raum

BTW. sollte doch klar sein, dass die XBX-Version in Abetracht des OS, ne 2080ti in Grund und Boden stampft.
Dafür braucht es keiner besonderen Erkennisse in Bezug auf Mathematik und Physik

Linmoum
2020-10-16, 20:37:21
Selbst 200% Performance bei 280W wäre schon sehr gut, das wäre nämlich +60% Perf/Watt.Mit 280-290W rechne ich schon länger für das normale (falls es nicht wieder irgendwas Special-Edition-mäßiges gibt) Flaggschiff, dazu 16GiB bei doppelter 5700XT-Performance. Würde nur noch gutes OC-Potential fehlen.

Ich denke grundsätzlich, dass AMD zukünftig bei all ihren Produkten den Fokus stark auf Effizienz legen wird. Das tun sie bei Zen bereits und die GPUs sind als nächstes dran.

Nur wegen der Die-Size? Es stehen 536mm^2 im RaumEs stehen auch 505mm² und sogar 427mm² im Raum. Who knows, darauf braucht man wenig geben.

Piefkee
2020-10-16, 20:44:34
https://twitter.com/momomo_us/status/1317131514300166145?s=21

Navi21 XTX. 270w
Navi21 XT. 205w
Navi21 XL 185w

Keine Ahnung ob TDP oder TGP

patrickschur
2020-10-16, 20:51:52
Aber lassen wir den Hype Train vorerst noch auf dem Nebengleis.

Dabei hatte ich eigentlich vor, morgen den Hypetrain wieder zu starten... :(

Linmoum
2020-10-16, 20:53:05
Er sagte ja auch nur vorerst. :D

dargo
2020-10-16, 20:53:06
In diesem Fall würde ich ja lieber Navi 21 = 240% (280W) sehen ;)

Das wäre dann die XTX. ;) Natürlich nur wenn XT weniger als 80 CUs hat, ergo Salvagestufe. Alleine durch mehr Takt holst du keine +20% mehr Leistung raus bzw. wird extrem schwierig.

Sunrise
2020-10-16, 20:53:42
https://twitter.com/momomo_us/status/1317131514300166145?s=21

Navi21 XTX. 270w
Navi21 XT. 205w
Navi21 XL 185w

Keine Ahnung ob TDP oder TGP
Sollte das stimmen (nur 256bit SI, massives Re-Layouting und sehr viel Cache machen es wohl möglich), dann wäre das absolut brachial.

205W bei nur 10-15% weniger Leistung als eine 3080, das wäre tatsächlich vernichtend.

gedi
2020-10-16, 20:54:53
Ich gehe jetzt vom Die einer scheinbarer 69 aus (dies hat keinen sexuellen Hintergrund ��). Man nehme 80CUs, welche schneller agieren sollen, als Ampere und hänge dies an 256-Bit + Infitity Cache?

Auch bei AMD wollen die CUs gefüllt werden, aber mit 256-Bit? Da halte ich folgendes Szenario für wesentlich glaubwürdiger: MCM, 2x80CUs und 2x256-Bit an so etwas wie nen Ringbus. Nie war es einfacher auf ne Engine zu reagieren

Cyberfries
2020-10-16, 20:55:13
Navi21 XTX. 270w
Navi21 XT. 205w
Navi21 XL 185w

Angeblich Ice Lake -X, nicht Navi.

Dabei hatte ich eigentlich vor, morgen den Hypetrain wieder zu starten... :(

Oh bitte nicht, das halte ich nicht aus.

Nur wegen der Die-Size?

Allein schon das alles auf dem PCB unterzubringen....
Beidseitig, durch mehrere Lagen komplex verdrahtet...

dargo
2020-10-16, 20:58:05
Und die dicken Kühler haben wir auch gesehen, könnte mir höchsten eine Navi21 XE vorstellen wo sowas in die Richtung gehen könnte.
Schau dir mal die Customs bei einer RTX 2080 an. Zum Bleistift sowas hier. ;)
https://geizhals.de/zotac-gaming-geforce-rtx-2080-amp-zt-t20800d-10p-zt-p00010b-10p-a1870908.html?hloc=de

Soll die Karte sehr leise sein, brauchts entsprechende Kühlfläche. :)

Piefkee
2020-10-16, 20:58:08
Dabei hatte ich eigentlich vor, morgen den Hypetrain wieder zu starten... :(

Warum auf morgen warten...
Wäre doch mal was tolles wenn euch mal wieder Infos im 3Dforum kommen 😏

Piefkee
2020-10-16, 21:00:32
Angeblich Ice Lake -X, nicht Navi.
.

Das ist nicht ice-lake....😂

basix
2020-10-16, 21:08:02
https://twitter.com/momomo_us/status/1317131514300166145?s=21

Navi21 XTX. 270w
Navi21 XT. 205w
Navi21 XL 185w

Keine Ahnung ob TDP oder TGP

Ich würde anhand der Zahlen auf TPD tippen. Ergäbe etwa 225W und 250W für die luftgekühlten Karten und 320W für die Liquid. Sollten die Zahlen denn stimmen ;)

dargo
2020-10-16, 21:10:51
https://twitter.com/momomo_us/status/1317131514300166145?s=21

Navi21 XTX. 270w
Navi21 XT. 205w
Navi21 XL 185w

Keine Ahnung ob TDP oder TGP
Ich sags mal so... selbst wenn das reine GPU-Power Angaben sind wäre das schon der Hammer sofern die XT 72 CUs hat. Mit 205W GPU landest du bei ca. 250W für die gesamte Karte. Als Vergleich nehme ich da meine Pulse mit 195W GPU-Power im OC-Bios was in 236W für die gesamte Karte resultiert.

gedi
2020-10-16, 21:12:07
Schau dir mal die Customs bei einer RTX 2080 an. Zum Bleistift sowas hier. ;)
https://geizhals.de/zotac-gaming-geforce-rtx-2080-amp-zt-t20800d-10p-zt-p00010b-10p-a1870908.html?hloc=de

Wenn sich AMD an Turing messen müsste, dann Land unter! Man hat einen enormen Vorteil bez. des Fertigungsprozess. Zudem ist ist Ampere im Vergleich zu Turing und vor allem Vega ne 10-Bit und HDR-Krücke. Für mich ist Ampere die 30% im Vgl. zum Vorgänger nicht der Rede wert! Ich rede hier von maxed out und ihr werdet sehen, dass sehr viel Geld versenkt wurde.

patrickschur
2020-10-16, 21:34:45
Warum erst morgen? Ich muss noch einige Information aufbereiten... Heute war nämlich ein sehr ereignisreicher Tag und ich habe sehr viele neue Information erhalten. :)

Zu Navi habe ich leider nicht so viel erhalten, aber dass was ich weiß, kann sich sehen lassen.

Linmoum
2020-10-16, 21:38:23
"Nicht so viel" dürfte trotzdem mehr sein als alles, was man bisher wirklich weiß. :freak:

[MK2]Mythos
2020-10-16, 21:38:44
Entschuldigt meine Blasphemie, aber wer ist Patrick Schur und wieso ist er jetzt unsere Leakquelle? :biggrin: (gerne auch per PN)

patrickschur
2020-10-16, 21:41:48
Ja, das wüsste ich auch gerne. :biggrin:

Achill
2020-10-16, 22:01:57
Ja, das wüsste ich auch gerne. :biggrin:


Hab gehört er soll in etwa so aussehen ... :ulol:

https://data.whicdn.com/images/146188676/original.jpg

Piefkee
2020-10-16, 22:17:30
Warum erst morgen? Ich muss noch einige Information aufbereiten... Heute war nämlich ein sehr ereignisreicher Tag und ich habe sehr viele neue Information erhalten. :)

Zu Navi habe ich leider nicht so viel erhalten, aber dass was ich weiß, kann sich sehen lassen.


Teaser???

WedgeAntilles
2020-10-16, 22:17:41
Mythos;12463260']wer ist Patrick Schur und wieso ist er jetzt unsere Leakquelle?
Weil er Wunder für BigNavi verheißt.
Daher muss es wahr sein.

Klar, 3080 Leistung bei 205 Watt.

Falls ich jetzt nen Twitter-Account anlege und sage, BigNavi kann Krebs heilen - glaubt ihr das dann auch? :biggrin:

[MK2]Mythos
2020-10-16, 22:29:09
Falls ich jetzt nen Twitter-Account anlege und sage, BigNavi kann Krebs heilen - glaubt ihr das dann auch? :biggrin:
Nein, weil das nur die 3dfx Voodoo GPU kann. Bewiesenermaßen.

ooLO2xeyJZA

patrickschur
2020-10-16, 22:47:38
Das ist hier zwar der falsche Thread für so etwas, aber ich möchte die Frage trotzdem kurz beantworten.

- Ich bin Software Entwickler und stelle auf Github unter anderem das amdvbflash und atitool zur Verfügung.
- Ich habe auch das relativ bekannte MCExtractor Tool um Family 19h Support erweitert (obwohl Zen 3 noch gar nicht released wurde).
- Mein erster Follower auf Twitter war übrigens Komachi und ich glaube nicht, dass er mir gefolgt wäre, wenn ich Bullshit schreiben würde.
- Generell habe ich in den letzten zwei Monaten fast 860 Follower gewonnen. Was hoffentlich auch für micht spricht.
- Außerdem lag ich mit vielen meiner Leaks bisher richtig und habe mir selber zum Ziel genommen, nur Dinge zu posten, bei denen ich mir zu 98 % sicher bin. Aber auch mir passieren Fehler. Ich kommuniziere diese dann aber auch und korrigiere mich.

Ich könnte dieselbe Frage übrigens mit jeder beliebigen Person stellen. ;)

Wenn du mir nicht vertraust, ist das auch in Ordnung. Man sollte immer eine gewisse Skepsis haben. :)

Complicated
2020-10-16, 22:49:57
Willkommen im Forum und ich freue mich auf deinen Input :)

Dampf
2020-10-16, 22:52:44
Oooh! Das wird ja langsam ein richtiger Hype Train hier mit waschechten foren-eigenen Leaks.

Na dann bin ich mal gespannt :D

[MK2]Mythos
2020-10-16, 22:55:43
Das ist hier zwar der falsche Thread für so etwas, aber ich möchte die Frage trotzdem kurz beantworten.

- Ich bin Software Entwickler und stelle auf Github unter anderem das amdvbflash und atitool zur Verfügung.
- Ich habe auch das relativ bekannte MCExtractor Tool um Family 19h Support erweitert (obwohl Zen 3 noch gar nicht released wurde).
- Mein erster Follower auf Twitter war übrigens Komachi und ich glaube nicht, dass er mir gefolgt wäre, wenn ich Bullshit schreiben würde.
- Generell habe ich in den letzten zwei Monaten fast 860 Follower gewonnen. Was hoffentlich auch für micht spricht.
- Außerdem lag ich mit vielen meiner Leaks bisher richtig und habe mir selber zum Ziel genommen, nur Dinge zu posten, bei denen ich mir zu 98 % sicher bin. Aber auch mir passieren Fehler. Ich kommuniziere diese dann aber auch und korrigiere mich.

Ich könnte dieselbe Frage übrigens mit jeder beliebigen Person stellen. ;)

Wenn du mir nicht vertraust, ist das auch in Ordnung. Man sollte immer eine gewisse Skepsis haben. :)
Klingt doch gut! Ich würde sowas dann im Zweifel zwar ohne Klarnamen machen, aber willkommen im Forum! :)

patrickschur
2020-10-16, 22:57:12
Falls ich jetzt nen Twitter-Account anlege und sage, BigNavi kann Krebs heilen - glaubt ihr das dann auch? :biggrin:

Da bist du leider etwas zu spät. :D

https://i.ibb.co/QHJgTjm/Screenshot-from-2020-10-16-22-51-39.png

Unicous
2020-10-16, 23:03:16
@[MK2]Mythos

Da er soweit ich weiß keine Folien veröffentlicht sondern nur einen Tweet verfasst, dürfte das ziemlich egal sein, solange seine Quelle nicht versiegt.:wink:

@patrickschur

Nochmals herzlich willkommen und generell vielen Dank für deine Arbeit bei den genannten Tools.

Ich denke auch nicht, dass du dich hier groß rechtfertigen musst.
Quellen und Leaks sollte man eh immer mit einer gewissen Skepsis betrachten und kritisches Denken walten lassen, aber es ist natürlich trotzdem spannend wenn du uns an deinem Wissensvorsprung teilhaben lässt.:smile:

edit:

Der Tweet screenshot deutet eindeutig auf neurale Netze hin. Big Navi hat demnach also Fixed Function Units um Krebs zu heilen.

patrickschur
2020-10-16, 23:23:04
Vielen Dank für die Wilkommensgrüße.

@[MK2]Mythos Ich verwende meinen Klarnamen nur, weil ich diesen auch auf Github verwende und ich tauche dadurch weiter oben bei den Suchergebnissen auf (positiver Nebeneffekt). Außerdem ist es jetzt auch zu spät für eine Namensänderung. :D

Ich habe außerdem weder ein NDA unterschrieben, noch veröffentliche irgendwelche Dokumente. Ich möchte nur ein paar Information mit der Welt teilen. AMD weiß sogar, dass ich die Tools auf Github zur Verfügung stelle. :) Leider sind die Tools nicht mehr öffentlich verfügbar, wodurch es schwer wird an neue Versionen zu kommen.

@Unicous Danke, aber wie schon oben beschrieben kommen die zwei Tools nicht von mir, sondern von AMD.

patrickschur
2020-10-16, 23:28:34
Teaser???

Du hast es erkannt. :D

Unicous
2020-10-16, 23:41:56
Mir war schon klar, dass du nicht der Autor der Tools bist.:wink:

Iscaran
2020-10-16, 23:45:41
Echt, erkläre mal.
Ein SM bei nVidia hat 128 FP32 Einheiten, ein CU bei AMD hat 64 FP32. Wie genau kann also AMD "bessere" Flops haben? Und betrachte dies unter dem Fakt, dass bei Integer-Berechnungen ein SM 64 FP32 und 64 INT32 Einheiten hat und AMD 0 FP32 Einheiten und nur 64 INT32 Einheiten.


AMD hat bei RDNA aber eben genau NICHT mehr diese Hierarchie entweder FP oder Int zu machen.

https://www.hardwaretimes.com/amd-navi-vs-vega-differences-between-rdna-and-gcn-architecture/
"Most of the computation in AMD’s GCN and RDNA architectures is performed by the SIMDs which happen to be vector in nature: perform a single instruction on multiple data types (32 INT/32 FP executed per SIMD per cycle, simultaneously). "

Denke das ist genau der Grund wo ein Gut-Teil der IPC von RDNA vs GCN5 herkam.
Nebst eben der Verkürzung der Instruction pipeline von 1 wavefronts aber nur alle 4 clocks auf 1 Wafefront PRO clock.

Abgesehen davon ermöglicht die obige parallelisierung von Int/FP auf WGP-eben RDNA hier einiges an Flexibilität und Auslastungsoptimierung. Von nVidia Wissen wir ja, daß etwa 30-40% Int-Last bei Gaming anliegt.

AMD kann diese bei RDNA quasi voll-flexibel über die WGPs verteilen.
Ich glaube, das ist eben auch genau einer der Schwachpunkte an dem Ampere-Ansatz mit den 128 FP32 "only"...was eben zu der mageren Mehrleistung von nur ~30% führt. Weil die Architektur sozusagen von den INTs gestalled wird.

EDIT: hier steht evtl. mehr drin - ist mir aber zu "hoch" :-)
https://gpuopen.com/wp-content/uploads/2019/08/RDNA_Shader_ISA_7July2019.pdf

Im Whitepaper zu RDNA steht es auch ähnlich beschrieben (also parallelität von FP und INT): https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
EDIT2: https://medium.com/high-tech-accessible/an-architectural-deep-dive-into-amds-terascale-gcn-rdna-gpu-architectures-c4a212d0eb9
Ja und auch hier steht es ähnlich: Further on we see that while GCN equips it’s CUs with a single scalar unit, RDNA’s carries two Scalar ALUs in a CU, one per SIMD core. Recall that the SALU is dedicated to one-off operations which would otherwise bog down the SIMD cores, wasting their parallel compute capabilities.

EDIT3: Und Techspot (https://www.techspot.com/article/1874-amd-navi-vs-nvidia-turing-architecture/) schreibt sogar explizit:Let's take a look at the Turing equivalent to the RDNA Compute Unit:.....
und dann weiter unten: "The FP32 and INT32 ALUs can work concurrently and in parallel. This is an important feature because even though 3D rendering engines require mostly floating point calculations, there is still a reasonable number of simple integer operations (e.g. data address calculations) that need to be done."

Cyberfries
2020-10-17, 11:22:55
Das ist nicht ice-lake....��

Dude....
Der Originaltweet enthält ein Ice-Emoji und keinen Hinweis auf Navi.
Dass Ice Lake maximal bei 270w (https://pics.computerbase.de/8/9/9/7/6/1-1080.68ffd5f5.jpg) landet ist bereits bekannt.
Und Komachi_Ensaka hat das auch nochmal bestätigt:
No. It’s ICX TDP Number.

edit: Mittlerweile hats auch der Originalposter nochmals bestätigt...

Daredevil
2020-10-17, 15:35:30
The Power of Vega+HBM, meine Damen und Herren. :>

Superposition 4K - Punkte pro Watt im Bestcase aka Sweetspot

Zotac 3090 Trinity
Takt | Spannung | Verbrauch | Punkte | Temperatur/RPM | Punkte pro Watt
1260/5002 | 0,712v | 188w | 11296pts |( 66 Grad , 830rpm ) |60w/pts

Radeon VII
1200mhz|0,725v | ~90w | 5505pts | ( 58 Grad, 900rpm )| 61w/pts

2080TI
1400mhz|0,712v | ~146w | 9636pts | ( 62 Grad, 1020rpm) | 66w/pts


5700XT
1400mhz|0,750v | ~120w | 5560pts | ( 87 Grad, 901rpm) | 46w/pts

Ist HBM eigentlich jetzt raus? :D

dargo
2020-10-17, 15:37:49
Hast du dich verlaufen?

Daredevil
2020-10-17, 15:38:47
Nope, du?

[MK2]Mythos
2020-10-17, 15:39:06
The Power of Vega+HBM, meine Damen und Herren. :>

Superposition 4K - Punkte pro Watt im Bestcase aka Sweetspot

Zotac 3090 Trinity
Takt | Spannung | Verbrauch | Punkte | Temperatur/RPM | Punkte pro Watt
1260/5002 | 0,712v | 188w | 11296pts |( 66 Grad , 830rpm ) |60w/pts
Radeon VII
1200mhz|0,725v | ~90w | 5505pts | ( 58 Grad, 900rpm )| 73w/pts
2080TI
1400mhz|0,712v | ~146w | 9636pts | ( 62 Grad, 1020rpm) | 66w/pts

5700XT
1400mhz|0,750v | ~120w | 5560pts | ( 87 Grad, 901rpm) | 60w/pts
Ist HBM eigentlich jetzt raus? :D
Ich glaube, da hast du dich nicht nur im Thema, sondern auch bei den Zahlen vertan.

Daredevil
2020-10-17, 15:42:49
Huch, tatsächlich. Habs korrigiert. :redface:

Was ich damit sagen wollte.
Viel schneller Speicher, viele Probleme effizient betrieben zu werden, außer eben mit HBM. ;(
Ist das jetzt vom Tisch? ^^

dargo
2020-10-17, 16:06:51
Ja.

OgrEGT
2020-10-17, 17:33:18
https://forum.beyond3d.com/posts/2166015/
Clocks and voltage is very low comparatively to what you’ll see on the PC space however. Something larger than the Series X with a boost clock above 2200 is likely going to double the power of series x. When it’s hitting up there.

Na wenn schon... N21 mit 2200MHz wenn er so hoch geht mit dem Doppelten des Stromverbrauchs so wie für die XBSX gezeigt könnte immer noch <300W TBP bleiben...

user77
2020-10-17, 18:01:47
Komplette Xbox Series X braucht bei RDR2 128W (https://tweakers.net/reviews/8252/3/xbox-series-x-onze-eerste-indrukken-en-tests-meten-is-weten.html)

Zieht man die CPU ab, wäre der doppelte Stromverbrauch gar nicht so wild.

dildo4u
2020-10-17, 18:18:14
Komplette Xbox Series X braucht bei RDR2 128W (https://tweakers.net/reviews/8252/3/xbox-series-x-onze-eerste-indrukken-en-tests-meten-is-weten.html)

Zieht man die CPU ab, wäre der doppelte Stromverbrauch gar nicht so wild.
RDR2 ist in der Konsolenversion auf 30fps gelockt die GPU dreht also Däumchen.

But it's also comparable to the total heat output of most modern consoles. Series X's power draw—a theoretical maximum of 315 watts, but closer to 190 watts as measured by a Kill-a-Watt device while playing "next-gen" games—is a good metric, compared to the 120W average gameplay draw of the original Xbox One and 185W average gameplay draw of Xbox One X. (You read that correctly: In my limited testing, Series X and XB1X are absolutely comparable in power draw.)


https://arstechnica.com/gaming/2020/10/xbox-series-x-unleashed-our-unrestricted-preview/

gedi
2020-10-17, 18:21:41
Dumme Frage, aber wie schnell ist denn die 52-CU Variante der XBX im Vergleich zu ner Grafikkarte?

dildo4u
2020-10-17, 18:23:17
Dumme Frage, aber wie schnell ist denn die 52-CU Variante der XBX im Vergleich zu ner Grafikkarte?
Schwer zu sagen keiner hat z.b die PC Version von Dirt 5 gegen die Xbox getestet, das dauert vermutlich bis zum November.

dargo
2020-10-17, 18:23:25
Komplette Xbox Series X braucht bei RDR2 128W (https://tweakers.net/reviews/8252/3/xbox-series-x-onze-eerste-indrukken-en-tests-meten-is-weten.html)

Höchstwahrscheinlich 60fps Limit dank Vsync, ergo Teillast. Dennoch heftig... 128W. :freak:

dildo4u
2020-10-17, 18:25:54
Red Dead 2 ist auf 30fps gelockt das haben sie getestet.

dargo
2020-10-17, 18:26:34
Immer noch Teillast... nur sparsamer. ;)

user77
2020-10-17, 18:33:23
ah okay, locked.
die AMD Radeon RX 5700 XT bringt laut computerbase ca. 29fps in 4k.

dildo4u
2020-10-17, 18:38:07
Sie bringt deutlich mehr die Settings sind bei der Xbox ordentlich zurück gefahren.
Die GPU in der alten Xbox ist im Bereich einer RX580 bis 590.

Note: Some of Xbox One X's effects appear to be hybrid versions of low and medium, or medium and high. We'd recommend starting with the higher quality version, but should emphasise that the lower quality rendition of the effect still looks quite comparable across the run of play.

https://www.eurogamer.net/articles/digitalfoundry-2019-what-does-it-take-to-run-red-dead-redemption-2-at-60fps

gedi
2020-10-17, 18:51:32
ah okay, locked.
die AMD Radeon RX 5700 XT bringt laut computerbase ca. 29fps in 4k.

Wieviel macht ne 2080Ti?

dargo
2020-10-17, 18:56:23
die AMD Radeon RX 5700 XT bringt laut computerbase ca. 29fps in 4k.
Das bringt dir sowieso nichts ohne zu wissen welche Grafiksettings XBSX fährt.

gedi
2020-10-17, 19:00:12
Ich denke doch mit 30fps maxed out! Aber naja, die GPU wird in ner Konsole weitaus stärker performen als in nem PC mit Win10 oder Linux

dargo
2020-10-17, 19:10:32
Denken ist nicht wissen. ;) Schau dir nur wie überladen schon das Grafikmenü am PC ist. Man wird sicherlich keine sinnlosen Optionen auf der Konsole wählen die die Rendertime stark drücken, dafür aber kaum besser aussehen. Dafür hat man "Ethusiasten" am PC. :ulol:

gedi
2020-10-17, 19:31:12
Ich denke, man hat ne Hardware welche maxed out in 4K darstellen kann. Es hätte mich nur interessiert, ob die 2080Ti bei den min. Frames 60 packt. Und in der Region sehe ich die XBX-Version, also etwas schneller als ne 3070, vor allem mit dem Vorteil keine Treiberlast zu haben. Ist jetzt aber doch OT

Linmoum
2020-10-17, 20:10:21
Warum erst morgen? Ich muss noch einige Information aufbereiten... Heute war nämlich ein sehr ereignisreicher Tag und ich habe sehr viele neue Information erhalten. :)

Zu Navi habe ich leider nicht so viel erhalten, aber dass was ich weiß, kann sich sehen lassen.Navi 21 XT
16GB GDDR6
255W TGP
~2.4 GHz (Game Clock)
https://twitter.com/patrickschur_/status/1317527480866144257


Das hier? :D

gedi
2020-10-17, 20:12:10
Und das SI? Ich meine man hat ~530mm^2 zur Verfügung. Da sollte man doch auf ne Technologie setzen die sich bewährt hat.

Zergra
2020-10-17, 20:16:26
Und das SI?

256bit, das doch schon lange relativ sicher.

dargo
2020-10-17, 20:29:03
Navi 21 XT
16GB GDDR6
255W TGP
~2.4 GHz (Game Clock)
https://twitter.com/patrickschur_/status/1317527480866144257


Das hier? :D
Fail... 5W zu viel. ;)

btw.
Ca. 2,4Ghz bei so einem fetten Teil wären echt bemerkenswert. Bei 72 CUs wären das 22,1 TFLOPs, mit 80 CUs ~24,6 TFLOPs. Doppelte XBox Series X. :eek:

Und das SI? Ich meine man hat ~530mm^2 zur Verfügung. Da sollte man doch auf ne Technologie setzen die sich bewährt hat.
Deine Denkweise ist sowas von Steinzeit.

Linmoum
2020-10-17, 20:31:03
Und das SI? Ich meine man hat ~530mm^2 zur Verfügung. Da sollte man doch auf ne Technologie setzen die sich bewährt hat.Wie groß der Chip ist, ist überhaupt nicht klar. Davon ab sollte man nicht stumpf nur auf irgendwas bewährtes setzen, sondern auf das, was auch aus wirtschaftlicher/performancetechnischer/effizienztechnischer/whatever Sicht am meisten Sinn ergibt. Da spielt mehr als nur ein Faktor eine Rolle. Gegebenenfalls auch mit Blick auf zukünftige Produkte nach RDNA2.

[MK2]Mythos
2020-10-17, 20:38:41
Navi 21 XT
16GB GDDR6
255W TGP
~2.4 GHz (Game Clock)
https://twitter.com/patrickschur_/status/1317527480866144257


Das hier? :D
Ohje, wenn das Dural sieht, kriegt er nen Herzinfarkt. Ampere sollte RDNA2 bei Perf/watt doch "vernichten"... :(

dargo
2020-10-17, 20:41:26
Ich kann immer noch die Daten nicht glauben. Wenn die ~24,6 TFLOPs passen (~65% mehr TFLOPs als die RTX 2080TI) und RDNA2 keine Luftpumpe bei den TFLOPS wie Ampere ist dann ist die RTX 3090 geschlagen. Und das mit ~100W weniger. :O

Piefkee
2020-10-17, 20:47:14
Mythos;12464130']Ohje, wenn das Dural sieht, kriegt er nen Herzinfarkt. Ampere sollte RDNA2 bei Perf/watt doch "vernichten"... :(

Äh warum ? TGP ist doch die gesamte Grafikkarte inklusive allen drum drums oder??

MR2
2020-10-17, 20:48:15
Ja, eben deshalb...;-)

OgrEGT
2020-10-17, 20:49:03
Navi 21 XT
16GB GDDR6
255W TGP
~2.4 GHz (Game Clock)
https://twitter.com/patrickschur_/status/1317527480866144257


Das hier? :D

2,4GHz 255W TGP :O

basix
2020-10-17, 20:50:04
Holy f...?!

Jetzt wissen wir zumindest, wieso der Patrick gestern erwähnt hat, dass er heute den "Hype Train befeuern" wird :D

FLOPS scheinen also gut gesteigert worden zu sein. Und da AMD IPC improvement angekündigt hat, lässt das auf viel hoffen.

Linmoum
2020-10-17, 20:51:27
Er sagt weiter unten noch, dass sich das auf AiB (und damit nicht Referenz) bezieht.

Was im Umkehrschluss ja heißen würde, weniger Takt bei der Referenz, aber auch weniger TBP.

Hier: https://twitter.com/patrickschur_/status/1317538064034562050

horn 12
2020-10-17, 20:53:59
Jupp, 215 bis 225 Watt und vielleicht knapp/ bis auf Augenhöhe mit der 3080
für 100 Watt weniger!

dargo
2020-10-17, 20:54:10
Er sagt weiter unten noch, dass sich das auf AiB (und damit nicht Referenz) bezieht.

Was im Umkehrschluss ja heißen würde, weniger Takt bei der Referenz, aber auch weniger TBP.
Noch besser. :eek: Wobei... vielleicht. Je nachdem ob der AIB ne OC-Version bringt oder nicht. :wink:

btw.
Eine Sache verwundert mich jetzt aber doch. Die ganzen Gerüchte von wegen keine Customs von N21 zum Release sind also falsch gewesen?

OgrEGT
2020-10-17, 20:55:58
Wird aber wohl der N21XT mit 72CU sein schätz ich mal...
Aber dennoch... und wenn das der zu den 4k Benchmarks ist...
Absolut top =)

mboeller
2020-10-17, 21:01:42
wtf...

2400 x 80 / 1850 x 40 = 2,59

2.59-fache 5700XT FP-Leistung.

Ich hoffe mal, dass die Spiele-Leistung nicht auch so stark steigt ... wäre irre ;)

horn 12
2020-10-17, 21:04:15
Customs kommen so ca. 3 - 4 Hersteller dieses Jahr, einige Wochen nach AMD Referenz, aber vor 25-ten November.
Sapphire - Powercolor - XFX -
----> MSI und ASUS ungewiss


@edit
Also hatte ich doch Recht ...
und den Insider gab es wirklich!

dargo
2020-10-17, 21:07:42
wtf...

2400 x 80 / 1850 x 40 = 2,59

2.59-fache 5700XT FP-Leistung.

Ich hoffe mal, dass die Spiele-Leistung nicht auch so stark steigt ... wäre irre ;)
Wären das RDNA1 TFLOPS würde ich ganz klar sagen nein da die Skalierung oben nachlässt. Da würde ich dann eher mit 85-90% von den 2,59 rechnen. Wir wissen aber noch gar nicht ob es RDNA1 TFLOS = RDNA2 TFLOPs heißt oder eher RDNA1 TFLOPs = RDNA2 TFLOPs+X%.

Dampf
2020-10-17, 21:08:21
Wow, die Leaks klingen ja echt krass..! Diese Effizienz..
2.4 GHz bei 255 Watt.... sabber..

Hoffentlich stimmt es!

reaperrr
2020-10-17, 21:10:40
Und das SI? Ich meine man hat ~530mm^2 zur Verfügung. Da sollte man doch auf ne Technologie setzen die sich bewährt hat.
Richtig, und HBM hat sich im Desktop nicht bewährt. AMD wird das nicht grundlos machen, egal wieviel die Bandbreiten-Fetischisten drüber jammern und sich Weltuntergangsszenarien zusammenreimen.

Adam D.
2020-10-17, 21:18:24
Wow, die Leaks klingen ja echt krass..! Diese Effizienz..
2.4 GHz bei 255 Watt.... sabber..

Hoffentlich stimmt es!
TGP =! TBP

Aber gut, der Hype-Train kann jetzt eh nicht mehr gestoppt werden. Hoffentlich gibt das am Ende keine Bruchlandung.

Linmoum
2020-10-17, 21:22:11
TGP =! TBPNein, TGB und TBP ist dasselbe. Du verwechselst das mit TDP, das wäre GPU only. Die anderen beiden sind alles inklusive.

OgrEGT
2020-10-17, 21:27:30
TGP =! TBP

Aber gut, der Hype-Train kann jetzt eh nicht mehr gestoppt werden. Hoffentlich gibt das am Ende keine Bruchlandung.

Was ist der Unterschied zwischen TGP und TBP?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71821&stc=1&d=1602962742

https://itigic.com/de/tgp-of-a-graphics-card-how-is-it-different-from-tdp/

mironicus
2020-10-17, 21:28:25
Immer wenn ich Zweifel an den hohen Taktraten habe, denke ich zuerst daran das Renoir doch auch 2.1 GHz als stromsparende APU erreicht und die PS5 ja auch schon bis zu 2.23 GHz bietet. :)

Adam D.
2020-10-17, 21:30:30
Nein, TGB und TBP ist dasselbe. Du verwechselst das mit TDP, das wäre GPU only. Die anderen beiden sind alles inklusive.
Hmm, ich dachte TBP meint alle Komponenten und TGP nur Die+Speicher? Ok, dann hab ich das bisher immer falsch verwendet, verdammt :usad:

Linmoum
2020-10-17, 21:31:48
TGP ist das, was NV immer für alles angibt bzw. die Bezeichnung dafür. Bei AMD heißt es halt TBP. Und TDP ist nur die GPU.

Igor hatte das ja damals z.B. aufgeschlüssselt, als er die 320W für die 3080 in ihre Einzelteile zerlegt hat. Alles = TGB/TBP.

tEd
2020-10-17, 21:32:14
Wer knackt zuerst die 3GHZ mit flüssigem Stickstoff :freak:

patrickschur
2020-10-17, 21:35:24
@dargo Warum 5 Watt zu viel? 255 Watt TGP sind schon richtig.

Die AIBs testen gerade unterschiedliche VBIOS. Es gibt auch Karten mit einer TGP von 280 W. Aber die 255 W scheinen der Standard zu sein.

Linmoum
2020-10-17, 21:37:12
Auch, wenn es ja eigentlich klar sein sollte, aber mit TGP meinst du schon das, was AMD sonst TBP (also alles und nicht nur GPU only) nennt, oder? :D

OgrEGT
2020-10-17, 21:39:26
@dargo Warum 5 Watt zu viel? 255 Watt TGP sind schon richtig.

Die AIBs testen gerade unterschiedliche VBIOS. Es gibt auch Karten mit einer TGP von 280 W. Aber die 255 W scheinen der Standard zu sein.

Wie hoch ist dann der Takt bei 280W?

Piefkee
2020-10-17, 21:40:04
Auch, wenn es ja eigentlich klar sein sollte, aber mit TGP meinst du schon das, was AMD sonst TBP (also alles und nicht nur GPU only) nennt, oder? :D

280W ASIC only wäre naja unmöglich 😂

Kriegsgeier
2020-10-17, 21:41:47
Man darf aber auch nicht vergessen dass es extrem schwierig ist den Meister zu übertrumpfen.
Und Meister bei Grafikkarten ist immer noch NVIDIA

So realistisch muss man bei dem Sachverhalt bleiben.
Nvidia hat die Besten Köpfe in dem Bereich und 3x soviel Mitarbeiter alleine in der Softwareabteilung!

Adam D.
2020-10-17, 21:42:44
Eine Sache verwundert mich jetzt aber doch. Die ganzen Gerüchte von wegen keine Customs von N21 zum Release sind also falsch gewesen?
Die Info bezieht sich (Videocardz hat das auch gerade nochmal bestätigt) auf die ominöse XTX, über die auch die Board-Partner bisher nix wissen.

Bin mal gespannt, was die für die XTX aus dem Hut zaubern. 80 statt 72 CUs + 2,5GHz? :eek:

patrickschur
2020-10-17, 21:43:59
Ehrlich gesagt weiß ich es nicht. Die AIBs reden immer über TGP und ich bin immer davon ausgegangen, dass sie damit alles meinen. Daher habe ich auch nie nachgefragt. Macht schließlich auch am meisten Sinn oder etwa nicht?

Wie hoch der Takt bei 280 W liegt kann ich dir leider auch noch nicht sagen.

dargo
2020-10-17, 21:44:07
@dargo Warum 5 Watt zu viel? 255 Watt TGP sind schon richtig.

Ach... das war nur ein Seitenhieb in meine Richtung. Nicht weiter darüber nachdenken. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12463243&postcount=14144

Adam D.
2020-10-17, 21:50:29
Ehrlich gesagt weiß ich es nicht. Die AIBs reden immer über TGP und ich bin immer davon ausgegangen, dass sie damit alles meinen. Daher habe ich auch nie nachgefragt. Macht schließlich auch am meisten Sinn oder etwa nicht?

Wie hoch der Takt bei 280 W liegt kann ich dir leider auch noch nicht sagen.
The TGP (total graphics power) of 255W is more than likely for the custom AIB variant. Bear in mind that TGP is not equal to TBP (total board power). The TBP will be higher as it accounts for all components on the PCB. Also keep in mind that Big Navi has a USB Type-C connector, which on RTX 20 series required 30W alone.
Die interpretieren deine Angaben so wie ich - aber wie hier ja gezeigt wurde, scheint 'meine' Sichtweise nicht zu stimmen.

Linmoum
2020-10-17, 21:54:35
Ehrlich gesagt weiß ich es nicht. Die AIBs reden immer über TGP und ich bin immer davon ausgegangen, dass sie damit alles meinen. Daher habe ich auch nie nachgefragt. Macht schließlich auch am meisten Sinn oder etwa nicht?Ah, danke dafür.

Die AiB bei AMD schreiben z.B. immer

Game Clock is the expected GPU clock when running typical gaming applications, set to typical TGP(Total Graphics Power). Actual individual game clock results may vary.
und Sapphire gibt exemplarisch die 5700XT Nitro+ mit 265W an (laut CB sind es gemessen 260W). Stimmt dann also, dass TGP=TBP ist.

r3ptil3
2020-10-17, 22:12:12
Waren jetzt eigentlich die publizierten Benchmarks von AMD von der XTX oder der XT?

Die XTX verwirrt mich jetzt mit den unbekannten 2.4+ Ghz...

Screemer
2020-10-17, 22:12:41
XL

Ne im erst, dass weiß wohl noch niemand wirklich.

WedgeAntilles
2020-10-17, 23:42:28
Jupp, 215 bis 225 Watt und vielleicht knapp/ bis auf Augenhöhe mit der 3080
für 100 Watt weniger!

Das glaubst du doch selber nicht...

Nur mal als Gedankenanstoß: FALLS das stimmen würde - wieso sollte AMD die nicht mit 270W oder so betreiben und die 3080 damit leistungstechnisch ebenfalls locker schlagen? Bzw. sogar die 3090?

Dann wäre die Karte schneller UND immer noch deutlich sparsamer.

So wäre sie "nur" extrem sparsamer, aber nicht schneller -> schlecht für alle Käufer, die nur auf den Balken gucken. -> Würde AMD nie so machen.

Sorry, aber das MUSS einem doch auffallen, dass das Blödsinn ist??
Schaltet der Hypewahn ernsthaft jeglichen gesunden Menschenverstand aus?

Daredevil
2020-10-17, 23:48:08
Nur mal als Gedankenanstoß: FALLS das stimmen würde - wieso sollte AMD die nicht mit 270W oder so betreiben und die 3080 damit leistungstechnisch ebenfalls locker schlagen? Bzw. sogar die 3090?

Weil die Karte Taktmäßig am Ende sein könnte und schlicht nicht mehr skaliert nach oben hin.
Du kannst einen Ryzen 3600 mit 80w betreiben, oder mit 160w, am Ende kommt bei beiden das gleiche raus.
Wenn eine Karte schon bei 2.4Ghz läuft, dann ist die Karte ausgequetscht wie eine Zitrone. Mit 30% mehr PL kommt man dann nicht auf einmal auf 3Ghz+.
Nicht, dass das der Fall sein muss, aber das wäre ne Antwort auf deine Frage ^^
Was AMD dann tun muss, ist die Einheiten der Karte erhöhen, damit auch den Preis.

Ähnlich ist es ja auch bei der 225w 5700XT, Dargo betreibt seine unter 200w?
Wenn der die Kiste bei 350w laufen lassen würde, wäre sie auch nicht bahnbrechend schneller.
Und auch da hatte AMD den "Need", schneller zu sein.

nairune
2020-10-17, 23:56:18
Andererseits gibt man bei AMD im VBIOS die TDP / Powerlimit für Chip+Speicher an, während der Wert bei NVidia für die ganze Karte gilt. Vielleicht nennen sie es aus Bequemlichkeit bei beiden TGP, da das der Wert ist, den sie einstellen können?
255W für die ganze Karte wäre schon hart und etwas zu schön um wahr zu sein. Das wäre ja im Prinzip RTX 3070 Niveau (da sind die Partner auch eher bei 250W) bei höherer Leistung - edit: und doppeltem Speicher.

Linmoum
2020-10-17, 23:56:31
Nur mal als Gedankenanstoß: FALLS das stimmen würde - wieso sollte AMD die nicht mit 270W oder so betreiben und die 3080 damit leistungstechnisch ebenfalls locker schlagen? Bzw. sogar die 3090?Warum sollte AMD die XT unnötig (mehr) hochprügeln, wenn es gerüchteweise noch ein weiteres Model oberhalb von ihr gibt? Richtig, wie du schon sagst:
Sorry, aber das MUSS einem doch auffallen, dass das Blödsinn ist??

Daredevil
2020-10-18, 00:03:06
Andererseits gibt man bei AMD im VBIOS die TDP / Powerlimit für Chip+Speicher an, während der Wert bei NVidia für die ganze Karte gilt. Vielleicht nennen sie es aus Bequemlichkeit bei beiden TGP, da das der Wert ist, den sie einstellen können?
255W für die ganze Karte wäre schon hart und etwas zu schön um wahr zu sein. Das wäre ja im Prinzip RTX 3070 Niveau (da sind die Partner auch eher bei 250W) bei höherer Leistung - edit: und doppeltem Speicher.
Es gibt ja Bilderchen mit einer Dual Slot(?) Karte und zwei Lüftern, die könnte zu so einer Karte passen, weil die will ja auch irgendwie gekühlt werden.
Dual Slot und 300w bekommste nicht gescheit weggekühlt, gerade wenn der DIE auch noch so klein sein soll. ( Da wären wir wieder bei dem Ryzen
3600.. bzw. einer VII :D )

Alles kann, nichts muss.

Linmoum
2020-10-18, 00:14:50
rogame ist auch erwacht:
Navi21 base clock is around Navi10 boost clock
This is not even the Navi21 XTX

Navi21 clocks are insane !!

Navi21 XL depending on the model (OC & non OC)
> Base clock 1800MHz to 1950MHz
> Boost clock around 2100MHz to 2200MHz (artificially limited like RX 5700? )

I'm not sure if these are final
Navi21 XT
> Base clock 2000MHz to 2100MHz
> Boost clock around 2400MHz

https://www.audioholics.com/gadget-reviews/amd-fueling-nightmares-of-intel-nvidia/image

nairune
2020-10-18, 00:21:38
Nur ~8-10% weniger Takt für die XL spricht dann aber nicht dafür, dass die XT bereits cut down ist. Oder es gibt zwei Stufen... wäre aber wohl eher ungewöhnlich.

patrickschur
2020-10-18, 00:22:06
Damit ist meine Angabe wohl bestätigt worden. :) Er scheint hier aber die Taktraten einer anderen Karte zu haben.

Linmoum
2020-10-18, 00:29:29
Nur ~8-10% weniger Takt für die XL spricht dann aber nicht dafür, dass die XT bereits cut down ist. Oder es gibt zwei Stufen... wäre aber wohl eher ungewöhnlich.Bei der XL ein SA deaktivieren und bei der XT 4 WGP. Beides 72CU, die XT hätte aber die vollen 128 ROPs und die XL deren 112.

Dazu die XL noch (künstlich) beim Takt einbremsen und man hat genug Unterscheidungsmerkmal. Die XTX dann als voller Chip mit 80 CUs. Und 3GHz. :uexplode:

ianm
2020-10-18, 00:40:48
Oh Mann ist das spannend. Wenn das wirklich so kommen sollte, muss nicht nur Intel seine Arbeit hinterfragen. xD

Der_Korken
2020-10-18, 00:58:45
Wie auch immer die neuen GPUs aussehen: Es wäre im Nachhinein mal interessant zu erfahren, welcher Leak bzw. welches Gerücht wie entstanden ist. Allein für N21 gibt es eine große Bandbreite an Performance-Einschätzungen und Specs, dass vieles einfach heiße Luft sein muss. Aber manchmal werden Sachen vertauscht oder missinterpretiert, sodass an irgendwelchen Leaks irgendwo was wahres dran ist, aber das Gesamtbild halt nicht.

Nightspider
2020-10-18, 01:50:40
Man darf aber auch nicht vergessen dass es extrem schwierig ist den Meister zu übertrumpfen.
Und Meister bei Grafikkarten ist immer noch NVIDIA

So realistisch muss man bei dem Sachverhalt bleiben.
Nvidia hat die Besten Köpfe in dem Bereich und 3x soviel Mitarbeiter alleine in der Softwareabteilung!

Und Nvidia hat einen deutlich schlechteren Fertigungsprozess als AMD. ;D

Nazar
2020-10-18, 01:59:29
rogame ist auch erwacht:








https://www.audioholics.com/gadget-reviews/amd-fueling-nightmares-of-intel-nvidia/image

OMG... das Bild ist sowas von Böse..... ;D

Brillus
2020-10-18, 02:21:22
Oh Mann ist das spannend. Wenn das wirklich so kommen sollte, muss nicht nur Intel seine Arbeit hinterfragen. xD

Frage ist dann nur NV oder Samsung.

Nightspider
2020-10-18, 02:25:00
Nvidia liefert tolle Architekturen.

Das Samsungs Prozess so "scheiße" ist, dafür kann Nvidia nichts.
Man kann Nvidia höchstens vorhalten, das sie den HPC Markt (wo mehr Geld fließt) den Gamern vorziehen.

Aber auf der anderen Seite kann es nur gut für die Branche sein wenn TSMC langsam Konkurrenz bekommt und Firmen auch in Samsung (und vllt zukünftig) in GloFo mehr investieren.

TSMC ist die letzten Jahre ja schon zu einem kleinen Monopol geworden.

ianm
2020-10-18, 02:29:32
Nvidia natürlich. Wenn ich Preise drücke um die Marge zu maximieren und das Endergebnis davon ist ich lande bei Samsung - im schlechteren Prozess, höherer Verbrauch, aufwendigeres PCB aufgrund des Speichers, massiven Kühlerkosten und dann kann ich nicht einmal liefern?

Und Leute geben 200-300€ mehr aus für eine 699€ 10GB Karte, plus evtl. nochmal 150+ für ein 1000W Netzteil? Ich würde mich ja erschießen.

[MK2]Mythos
2020-10-18, 02:34:54
Das mit dem Netzteil ist ein richtig wichtiger Punkt. Kleine HighEnd Gehäuse sind in den letzten Jahren immer beliebter geworden. Ich verwende auch eins, mit externer Wasserkühlung. Es steckt ein 750watt Corsair SFX Netzteil drin - imo das stärkste, was man für die Bauform bekommt. Diesen Markt hat nvidia sich mit Ampere auch zerschossen.

Nightspider
2020-10-18, 02:38:34
Kleines Gehäuse mit externer Wakü? Der Markt war nie vorhanden. :D

ianm
2020-10-18, 02:41:35
Ncase M1 hat sowas schon seit Jahren. Reservoir außen z.B., der ITX Markt boomt seit Jahren, da sind 300+W schon schwieriger.

28.10.

[MK2]Mythos
2020-10-18, 02:46:48
Kleines Gehäuse mit externer Wakü? Der Markt war nie vorhanden. :D
Geht auch nicht um die WaKü, sondern darum, dass du die Klopper A) nicht mehr ins Gehäuse kriegst und B) es keine Netzteile in SFX dafür existieren. ;)

Leonidas
2020-10-18, 04:33:12
https://pbs.twimg.com/media/EkkTkgtU8AEP7bf?format=png&name=large

Nightspider
2020-10-18, 05:55:30
Bin gespannt.

Kann mir eigentlich nicht vorstellen, wie man mit doppelt so viel CUs und +20% Takt nicht wenigstens doppelte 5700XT Leistung erreichen soll.

Da fällt mir gerade auf. Navi hatte nur 10,3 Mrd Transistoren und Ampere braucht für 100% mehr Leistung schon 28 Mrd Transistoren.
Das sollte eigentlich zu schlagen sein, vor allem mit dem deutlich besseren Fertigungsprozess.

Olliver
2020-10-18, 06:29:32
Wenn das so kommt, kann Jensen seine Lederjacke an den Nagel hängen.
Und dann werden zeitnah, die Preise und Verfügbarkeiten von 3090 besser.
Aber erst mal abwarten, was am Ende an Performance hinten raus kommt.

Olliver
2020-10-18, 06:32:45
nvidia: "wir sind so überlegen, wir können es uns leisten bei Samsung zu sparen."
AMD: "hold my wafer."

Kriegsgeier
2020-10-18, 08:14:31
Ganz einfach:
Die 2,4 GHz stammen von der NAVI22 und nicht von NAVI21!

Sieht man auch an der PS5: je weniger CUs desto höher der Takt.

Ganz einfach! Oder wieso taktet XBoxX mit seinen 52 CUs bei 1,8 GHz und PS5 bei 32 CUs bei 2,2 GHz?!

Der Leaker hat einfach 21 und 22 durcheinander gebracht

Adam D.
2020-10-18, 08:19:27
Ganz einfach:
Die 2,4 GHz stammen von der NAVI22 und nicht von NAVI21!

Sieht man auch an der PS5: je weniger CUs desto höher der Takt.

Ganz einfach! Oder wieso taktet XBoxX mit seinen 52 CUs bei 1,8 GHz und PS5 bei 32 CUs bei 2,2 GHz?!

Der Leaker hat einfach 21 und 22 durcheinander gebracht
Wenn Patrick, rogame und whycry das alle melden, kannst du sehr sicher davon ausgehen, dass die Infos korrekt sind.

Dein Konsolen-Vergleich ist auch hirnrissig, weil das nichts per se über die Potentiale der Architektur sagt. Nur weil die XSX bei 1,8GHz landet, heißt das nicht, dass sie nicht auch bei 2,2GHz hätte landen können. Thermische Limits und Kostenfragen stehen hier im Vordergrund.