Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
basix
2020-08-10, 09:47:04
Nein. Das sind dann 2 extra Chips und das kostet zuviel. Zudem ist Big Navi sowieso zu fett (stromfressend) für Mobile. Nicht einmal NV bringt seine dicksten Chips ins Mobile-Segment (TU102, und später GA102).
Nun ja, 427mm2 sind verglichen mit den Turing Chips nicht fett ;) Wenn zudem HBM eingesetzt wird, ist das Ding kompakt und energieffizient. Perfekt für Mobile. 384bit GPUs benötigen aufgrund der 12 Speicher-ICs einfach sehr viel Platz.
AMD kann ausserdem den Ansatz wie bei der 5600M für Apple verwenden. Game-Takt auf minimaler GPU-Spannung und reduzierter Speichertakt und es gibt eine 100-120W mGPU, das liegt im Rahmen der heutigen High End mGPUs.
Edit:
Wozu einen Custom 5nm-Node mit 14 EUV-Layern, um dann einen 5-EUV-Layer 6nm-Prozess zu nutzen?
Ich sehe drei Möglichkeiten: Kosten, Wafer-Kapazität und IOD. Es müssen ja nicht alle Chips in 5nm hergestellt werden. Gewisse Produktkategorien sind mit 6nm mehr als gut bedient. Ein 6nm Wafer könnte ca. 0.6x so teuer wie ein 5nm Wafer sein und hat ausserdem höheren Throughput da weniger EUV-Layer. Zen 4 CCD oder RDNA3 GCD kommen eher in 5nm. Alles drum herum oder APUs wären aber ein Kandidat für 6nm.
Berniyh
2020-08-10, 10:04:34
- Warum wird AMD N6 nicht verwenden. Der Zeitplan ist dafür viel zu spät. N6 ist erst ziemlich spät eingeführt worden in der Roadmap. N6 kommt erst nach N5. AMD wird die EUV Erfahrung mit dem ominösen N7+ Prozess sammeln (Zen3 wird ziemlich sicher N7+ nutzen, genauso wie wahrscheinlich Navi2x).
N6 dürfte bei AMD ziemlich sicher irgendwann zum Einsatz kommen.
Praktisch alle Produkte die derzeit in N7 oder N7P produziert werden und auch in grob 2 Jahren noch verfügbar sein dürften dürften ziemlich sicher ein Refresh in N6 erfahren.
Dazu zählen zum Beispiel wohl die Konsolenchips, aber vermutlich auch sowas wie Renoir.
Zen3 läuft angeblich auch mit N7P vom Band, zumindest gab es damit vor 2-3 Monaten engineering samples.
Complicated
2020-08-10, 10:28:44
Praktisch alle Produkte die derzeit in N7 oder N7P produziert werden und auch in grob 2 Jahren noch verfügbar sein dürften dürften ziemlich sicher ein Refresh in N6 erfahren.
Das kann gut sein, allerdings gilt das eben nicht für die neuen Produkte die in der Roadmap sind und noch bis Ende 2021 erscheinen werden. Es wird spannend sein ob in 2 Jahren nicht auch der 5nm schon genug eingefahren/wirtschaftlich ist um 6nm auslasen zu können. Schließlich soll 3nm auch schon in Massenfertigung laufen zu der Zeit.
Piefkee
2020-08-10, 10:38:53
Das kann gut sein, allerdings gilt das eben nicht für die neuen Produkte die in der Roadmap sind und noch bis Ende 2021 erscheinen werden. Es wird spannend sein ob in 2 Jahren nicht auch der 5nm schon genug eingefahren/wirtschaftlich ist um 6nm auslasen zu können. Schließlich soll 3nm auch schon in Massenfertigung laufen zu der Zeit.
Ok ich glaube ehrlich gesagt nicht dran. Entweder man geht auf N7+ (EUV) oder auf N6. Da N6 später als N5 verfügbar ist und darüberhinaus noch N7+ bessere Density als N6 hat, sehe ich keinen Grund.
Noch etwas, was mir bei der aktuellen Diskussion auffällt.
Egal ob N7, N7+ , N6 oder N5, AMD allociert immer Tools und nicht den Prozess. Für alle Prozesse wird mehr oder weniger die selbe Toolkette verwendet. Vereinfach gesagt wenn AMD einen Chip in N7 bringt, durchläuft die fertigtung alle DUV Schritte. Wenn jetzt AMD einen anderen Chip in N7+ produziert möchte, werden nur wenige Produktionschritte mit den EUV Maschinen durchgeführt. Trotzdem wird hauptsächlich auf der normalen N7 Maschinen/Toolkette produziert. Schlussfolgerung ist das auch wenn jetzt z.b. Apple auf N5 (EUV) geht, heißt das nicht das es mehr Kapazität bei N7 gibt.
Piefkee
2020-08-10, 10:43:33
N6 dürfte bei AMD ziemlich sicher irgendwann zum Einsatz kommen.
Praktisch alle Produkte die derzeit in N7 oder N7P produziert werden und auch in grob 2 Jahren noch verfügbar sein dürften dürften ziemlich sicher ein Refresh in N6 erfahren.
Dazu zählen zum Beispiel wohl die Konsolenchips, aber vermutlich auch sowas wie Renoir.
Zen3 läuft angeblich auch mit N7P vom Band, zumindest gab es damit vor 2-3 Monaten engineering samples.
Nope, alles was aktuell auf einen Basis N7 Prozess abgebildet ist wird nicht als Refresh(Refresh im Sinne von Copy-Paste) in EUV aufgelegt. Sicherlich man spart sich Belichtungsschritte mit EUV ein, aber das ganze funktioniert nur, wenn man genügend EUV-Scanner(EUV-Kapazität) hat. Und die hat niemand.
basix
2020-08-10, 10:47:36
Ok ich glaube ehrlich gesagt nicht dran. Entweder man geht auf N7+ (EUV) oder auf N6. Da N6 später als N5 verfügbar ist und darüberhinaus noch N7+ bessere Density als N6 hat, sehe ich keinen Grund
Ihr vergesst immer, dass N6 deutlich günstiger als N7+ sein soll. Der PPA Abstand von N6 zu N7+ ist jetzt nicht sehr gross, deswegen kann sich der Aufpreis und Mehraufwand je nach Produkt halt einfach nicht lohnen.
Berniyh
2020-08-10, 11:34:52
Das kann gut sein, allerdings gilt das eben nicht für die neuen Produkte die in der Roadmap sind und noch bis Ende 2021 erscheinen werden. Es wird spannend sein ob in 2 Jahren nicht auch der 5nm schon genug eingefahren/wirtschaftlich ist um 6nm auslasen zu können. Schließlich soll 3nm auch schon in Massenfertigung laufen zu der Zeit.
Die meisten Produkte die ab 2021 neu veröffentlicht werden (Refreshes mal ausgelassen) dürften N7+, N5 oder N5+ nutzen. bzw. irgendwann dann natürlich auch N3.
Wobei man mal abwarten muss was sich TSMC bis dahin noch so ausdenkt. Von N6 wussten wir vor einem Jahr ja auch noch nichts.
Nope, alles was aktuell auf einen Basis N7 Prozess abgebildet ist wird nicht als Refresh(Refresh im Sinne von Copy-Paste) in EUV aufgelegt. Sicherlich man spart sich Belichtungsschritte mit EUV ein, aber das ganze funktioniert nur, wenn man genügend EUV-Scanner(EUV-Kapazität) hat. Und die hat niemand.
N6 ist kompatibel zu N7/N7P, es gibt also keinen wirklichen Grund das nicht zu tun.
Man spart dadurch unterm Strich Herstellungskosten und gewinnt auch noch etwas Performance/Effizienz.
robbitop
2020-08-10, 11:41:24
Okay, bin aber im Bier-Modus (sprich Horn^s). Ich fühle mich eigentlich aufgrund neuer Spekus bestätigt: RDNA2 ist nix anderes als CDNA, nur entscheidend gekappt (sprich um die Workstation Features Extrems beschnitten), was für mich für das Flagschiff bedeutet: Minimal 80CUs und HBM2! Ich denke am PC werden 84CUs ankommen und Apple bekommt 96CUs. Der Salvage-Part bekommt ebend ein 384-Bit SI mit 12 GB Gddr6
CDNA soll auf GCN aufsetzen laut AMD - nicht auf RDNA. Das sind eben zwei verschiedene Paradigmen. RDNA investiert viele Transistoren in Granularität und Kontrolllogik. Die typischen Compute Aufgaben haben eine sehr hohe Problemgröße, die dazu führt, dass Parallelisierung kein großes Problem ist. Entspechend muss man viel weniger für ILP Extrahierung tun.
Ich kann mir aber gut vorstellen, dass Aspekte, die für beide Paradigmen funktionieren auch von RDNA auf CDNA übertragen werden.
Berniyh
2020-08-10, 12:01:14
CDNA soll auf GCN aufsetzen laut AMD - nicht auf RDNA.
Das ist definitiv so. CDNA ist gfx9x (=Vega-basiert), RDNA ist gfx10x (=Navi-basiert).
Aber man wird sicher Verbesserungen in beide Architekturen übernehmen, wenn es sich lohnt, ich denke das steht außer Frage. ;)
Noch was anderes zur VRAM Diskussion bei Big Navi: wenn Nvidia wirklich zwei Versionen bei manchen Chips plant, dann kann sich AMD eigentlich Big Navi mit "nur" 12 GB VRAM nicht erlauben.
Das müssen schon 16 GB VRAM sein.
Complicated
2020-08-10, 12:10:18
N6 ist kompatibel zu N7/N7P, es gibt also keinen wirklichen Grund das nicht zu tun.
Man spart dadurch unterm Strich Herstellungskosten und gewinnt auch noch etwas Performance/Effizienz.
Den gibt es wenn man genug N5 Kapazitäten sichern kann. Ich denke N6 würde erst für AMD relevant werden, wenn Sie nicht ausreichend N7+ und N5-Wafer bekommen können. Ich stimme da Piefkee zu, da AMD seinen Fertigungsfortschritt jetzt forcieren muss und nicht den günstigsten Design-/Waferpreis nutzen muss. Warum sollte man 2 Entwicklungspfade, wo N6 eine Sackgasse darstellt, nutzen.
Das 14nm->12nm Beispiel bei GF hat das WSA als Grundlage und muss hier nicht der günstigste Weg sein insgesamt.
Piefkee
2020-08-10, 12:24:22
Ihr vergesst immer, dass N6 deutlich günstiger als N7+ sein soll. Der PPA Abstand von N6 zu N7+ ist jetzt nicht sehr gross, deswegen kann sich der Aufpreis und Mehraufwand je nach Produkt halt einfach nicht lohnen.
Ja die Design-Kosten sind wesentlich geringer als bei N7+. Das kommt aber von den Design Rules zwischen N7 und N6. Das heißt aber nicht das die Herstellungskosten geringer sind. Was ihr ehrlich gesagt bezeifle.
Beispiel aus dem unteren Artikel.
N7 und N6 haben die selben Design Rules:
- Zum Beispiele diese (siehe Quote) Einschränkung ist sowohl bei N7 als auch bei N6 vorhanden. Jedoch nicht bei N7+. Deshalb ja die Design/Entwicklungskosten sind geringer da "Design" Kompatibel zu N7. Was jedoch die Prozesskosten (Anzahl an Steps/Belichtungen) angeht glaube ich das Ehrlich gesagt nicht.
Since the lower-level metals are aggressively multi-patterned, the bidirectionality that was offered by earlier nodes is now forbidden in N7. Simple layer jogs now meant you have to climb up the stack, go to where you want to go, and then go back down. This change also introduces some stray electrical properties into the cell such as extra RC.
https://fuse.wikichip.org/news/3320/7nm-boosted-zen-2-capabilities-but-doubled-the-challenges/
Berniyh
2020-08-10, 12:31:59
Den gibt es wenn man genug N5 Kapazitäten sichern kann. Ich denke N6 würde erst für AMD relevant werden, wenn Sie nicht ausreichend N7+ und N5-Wafer bekommen können. Ich stimme da Piefkee zu, da AMD seinen Fertigungsfortschritt jetzt forcieren muss und nicht den günstigsten Design-/Waferpreis nutzen muss. Warum sollte man 2 Entwicklungspfade, wo N6 eine Sackgasse darstellt, nutzen.
Das 14nm->12nm Beispiel bei GF hat das WSA als Grundlage und muss hier nicht der günstigste Weg sein insgesamt.
Darum geht es doch gar nicht.
N6 ist eine sehr wahrscheinliche Option für Designs die Ende 2020 schon abgeschlossen sind und (teilweise nachweislich) auf N7/N7P aufbauen.
Dazu zählen eben die Konsolenchips und auch Renoir. Das sind Chips die jetzt mehrere Jahre weitgehend unverändert produziert werden und da nimmt man dann so einen quasi geschenkten Upgradeschritt wie N6 sicherlich mit. So jedenfalls wird der Prozess von Seiten TSMC promoted.
Auch für Zen 3 könnte das eine Option sein, da die Serverchips wahrscheinlich auch noch ein paar Jahre verfügbar sein sollten.
Für neue Produkte (RDNA2/3, CDNA2, Zen 4, neuere APUs) wird N6 wahrscheinlich eher nicht die bevorzugte Version sein, das ist glaube ich allen klar.
Wobei gerade bei den low-budget APUs (Lucianne?) könnte es auch wieder eine Option sein, mal sehen.
davidzo
2020-08-10, 12:32:56
N6 dürfte bei AMD ziemlich sicher irgendwann zum Einsatz kommen.
Praktisch alle Produkte die derzeit in N7 oder N7P produziert werden und auch in grob 2 Jahren noch verfügbar sein dürften dürften ziemlich sicher ein Refresh in N6 erfahren.
Dazu zählen zum Beispiel wohl die Konsolenchips, aber vermutlich auch sowas wie Renoir.
Für die Konsolenchips macht das total viel Sinn, ja.
Aber bei den Prozessoren sind die Zyklen kürzer. Wieso sollte man da einen Renoir und Vermeer Refresh bringen wenn man laut Roadmaps in kurzer Schrittfolge Warhol (Zen3+) und Raphael (Zen4) ready hat?
Momentan sieht alles bei AMD danach aus dass man den Fertigungsvorsprung gegenüber Intel unbedingt halten will um dabei Kräftig Marktanteile zu gewinnen. Nichts deutet auf irgendeine Konsolidierungsstrategie hin.
Zudem sind die Roadmaps bei AMD ja so langfristig festgelegt (3Jahre+ bei Renoir laut Lisa), dass 6nm vermutlich noch gar nicht zur Disposition stand weil das kein major node war sondern erst später von TSMC reingeschoben wurde.
Das TSMC nun für 6nm so die Werbetrommel rührt, die angeblichen Kostenvorteile und einfache Transition lobt, ist eher ein Anzeichen dass der Node bei den Verkäufen bisher underperformt. Normalerweise sind TSMCs cutting Edge Nodes so ausgebucht dass man da keine große Werbung machen muss, die Strategie bei 6nm scheint aber aktiv auch nach draußen zu promoten.
Den Gerüchten nach zufolge haben sich große 6nm Kunden erst kurzfristig ergeben, zum Beispiel Intel die jüngst gigantische Kapazitäten in 6nm gebucht haben sollen. Davon wird AMD schon frühzeitig Wind bekommen haben, man muss bei intels 10nm dilemma ja nur 1 und 1 zusammenzählen.
Trotz des verlockenden Angebots von kosteneffizientem 6nm für AMD dann die Mehrzahl der Produkte auf dem noch früher verfügbaren 5nm zu belassen, kann auch damit zusammenhängen, dass man nicht wollte das ein Großteil der cutting edge TSMC EUV Anlagen dann für Intel zur Verfügung stehen würde.
Berniyh
2020-08-10, 12:43:26
Aber bei den Prozessoren sind die Zyklen kürzer. Wieso sollte man da einen Renoir und Vermeer Refresh bringen wenn man laut Roadmaps in kurzer Schrittfolge Warhol (Zen3+) und Raphael (Zen4) ready hat?
Stichwort OEMs. Bedenke, dass AMD selbst heute noch Prozessoren in 12nm verkauft. Teilweise sogar noch Bulldozer-basiert.
Renoir scheint bei OEMs gerade sehr gut anzukommen, daher ist es durchaus möglich, dass man den noch eine Weile im Programm haben wird.
Im Endkundensegment wird N6 aber vermutlich in der Tat keine so große Rolle spielen.
Vielleicht für Navi 23 und 24 (falls es letzteren dann wirklich gibt), mal sehen.
Complicated
2020-08-10, 12:45:43
Ich bezweifle, dass AMD auf N6 designed hat, aus den Gründen die schon beschrieben wurden. Der Prozess kam zu spät und AMD hat andere Optionen.
Konsolen entscheiden die Semi-Custom-Kunden wann sie da einen Refresh und auf welchem Prozess machen wollen. Die müssen auch selber bei TSMC buchen.
Piefkee
2020-08-10, 12:50:48
Darum geht es doch gar nicht.
N6 ist eine sehr wahrscheinliche Option für Designs die Ende 2020 schon abgeschlossen sind und (teilweise nachweislich) auf N7/N7P aufbauen.
Dazu zählen eben die Konsolenchips und auch Renoir. Das sind Chips die jetzt mehrere Jahre weitgehend unverändert produziert werden und da nimmt man dann so einen quasi geschenkten Upgradeschritt wie N6 sicherlich mit. So jedenfalls wird der Prozess von Seiten TSMC promoted.
Auch für Zen 3 könnte das eine Option sein, da die Serverchips wahrscheinlich auch noch ein paar Jahre verfügbar sein sollten.
Für neue Produkte (RDNA2/3, CDNA2, Zen 4, neuere APUs) wird N6 wahrscheinlich eher nicht die bevorzugte Version sein, das ist glaube ich allen klar.
Wobei gerade bei den low-budget APUs (Lucianne?) könnte es auch wieder eine Option sein, mal sehen.
Für Konsolenchips ist sowas möglich. Aber ich versuche jetzt mal die aktuelle TSMC Situation bezüglich Prozessschritten und EUV zu verdeutlichen.
Kurzes einfach Beispiel:
Nehmen wir an ein N7 Chip hat 15 DUV Belichtungen.
Der selbe Chip geportet auf N6 hat noch 12 DUV Blichtungen und nur 1x EUV Belichtung.
Da die DUV Belichtungen auf den gleichen Tools für (N12,N7,N5 etc) hergenommen werden hast du eine Reduktion von 20% DUV Schritte. Jedoch zusätzlich eine EUV Belichtung die X-kostet.
Aktuell werden aber alle EUV Scanner für N5, N7+ N3 etc benötigt, beziehungsweise sind teuer. Aktuell sind die reinen Herstellungskosten (nicht Design) für N7 geringer als für irgendeinen EUV Prozess (egal ob N6, N7+ oder N5).
Der N6 Prozess ist mM nur entstanden um den jetzigen N7 Kunden einen EASY Upgrade Pfad hinzu EUV zu ermöglichen. Kosten spart man sich dadurch nicht ein.
Hauwech
2020-08-10, 16:41:44
Hieß es nicht mal das der Durchsatz der EUV-Belichter gemessen an DUV ziemlich / wesentlich bescheidener sein soll? :confused:
Gipsel
2020-08-10, 16:55:40
Hieß es nicht mal das der Durchsatz der EUV-Belichter gemessen an DUV ziemlich / wesentlich bescheidener sein soll? :confused:Ja. Wenn man aber z.B. drei DUV-Belichtungen durch eine einzige EUV-Belichtung sparen kann, bleibt dann doch noch ein Nettogewinn.
Skysnake
2020-08-10, 17:25:45
Vor allem sinken die Durchlaufzeiten durch die FAB. TimeToMarket ist also besser
mironicus
2020-08-10, 17:27:19
Kurze Frage. Meint ihr das AMD gleich zwei Speicherinterfaces in Big Navi einbauen könnte, so daß die GPU sowohl mit GDDR6 bzw. HBM zurecht kommt?
unl34shed
2020-08-10, 17:32:27
Können ja, ABER die Memory I/F nehmen viel zu viel Platz weg, dass es überhaupt keinen Sinn ergibt das zu tun.
amdfanuwe
2020-08-10, 17:42:03
Nehmen wir an ein N7 Chip hat 15 DUV Belichtungen.
Der selbe Chip geportet auf N6 hat noch 12 DUV Blichtungen und nur 1x EUV Belichtung.
Da die DUV Belichtungen auf den gleichen Tools für (N12,N7,N5 etc) hergenommen werden hast du eine Reduktion von 20% DUV Schritte. Jedoch zusätzlich eine EUV Belichtung die X-kostet.
Aktuell werden aber alle EUV Scanner für N5, N7+ N3 etc benötigt, beziehungsweise sind teuer.
Das Belichten ist doch nur ein kleiner Teil.
Das da mehrmals Ätzen und erneut Beschichten für nächste Belichtung wegfällt dürfte mehr Einsparen als der Aufpreis der EUV Belichtung ausmacht.
Zudem spart das Zeit.
Zusammengenommen ist N6 billiger als N7(P).
Bei N7+ bzw. N6 kann man noch mit single Pattern EUV Belichtung arbeiten.
Bei 5nm erhöht sich schon wieder der Aufwand entweder durch Verwendung einer höheren Numerischen Apertur oder durch double patterning.
Ergo wird 5nm teurer als N6.
Das gleiche bei 3nm und kleiner, wo man schon wieder bei quad patterning mit entsprechend vielen Prozessschritten ist bzw. bei GAA nochmals weiter Prozessschritte benötigt.
Und bei Verwendung einer höheren Apertur stehen die alten Belichter voll N6 und N7+ zur Verfügung.
N6 dürfte auf absehbare Zeit der günstigste Prozess sein.
Man kann nun nur das N7(P) Design auf N6 fertigen, wodurch man einen Chip mit 7nm Strukturen hat. Oder man macht einen shrink auf 6nm Strukturen, wodurch der Chip etwas kleiner und somit billiger wird (ZEN3+?).
Dass N6 rechtzeitig mit den Konsolenchips in Massenproduktion geht, halte ich nicht für Zufall. Ich denke, da hat AMD nach ersten Erfahrungen mit N7+ kräftig bei TSMC interveniert. So nach dem Motto: Wie bekommen wir unsere N7P Chips ohne großen Aufwand billiger? Lösung: die unteren Schichten mit EUV belichten bei gleichen design rules.
Und TSMC sagt: Wenn wir schon die unteren Layer mit EUV belichten, können wir auch 6nm Strukturen erlauben.
Ich denke, zur Entscheidungsphase der Konsolenchips war N7+ noch zu unsicher und AMD entschied sich für N7(P). Wäre eine Katastrophe für AMD wenn sie die Konsolenchips nicht termingerecht in Mengen liefern könnten. Also lieber auf Nummer sicher gehen. Zudem gabs da bestimmt schon Erfahrungen mit ZEN2 Kernen auf N7. Warum die auf N7+ portieren?
Bei den Konsolenchips ist man in der TDP eingeschränkt.
Für Big Navi wollte man volle Power, daher N7+ EUV.
Als N6 Spruchreif wurde war Big Navi schon zu weit fortgeschritten um da ohne Verzögerung auf N6 umzustellen bzw. hätte sich nicht gelohnt.
Für die Konsolen gibt es ein effizientes RDNA2 Design auf N7(P), das kann man bei den kleineren Navis weiterverwerten.
Ich denke die Frage ist nicht ob AMD N6 verwendet. Eher ist die Frage ob sie schon auf 6nm Strukturen geshrinkt haben oder nur ihr N7(P) Designs auf N6 weiterverwenden, also praktisch nur als N7(P)EUV Prozess verwenden.
Ich denke mal letzteres. AMD machte die letzte Zeit eher kleine Änderungen und nicht zu viel auf einmal. ZEN3+ könnte dann 6nm sein.
Für 5nm könnte ich mit gut einen RDNA2 shrink vorstellen mit noch mehr CUs als bei Big Navi. Könnte das GPU Portfolio mitte nächsten Jahres nach oben erweitern. Oder ein CDNA shrink um effizienter zu sein bzw. mehr Takt zu ermöglichen. ZEN4 und RDNA3 sind für Ende 2021/Anfang 2022 eh auf 5nm gesetzt und noch weit weg.
Akkarin
2020-08-10, 19:22:39
Die Frage ist vermutlich weniger was für TSMC billiger wäre, sondern wie viel EUV Kapazitäten vorhanden sind. N6 kann gerne billiger als N7P sein, aber wenn es einfach noch zu wenige/zu langsame EUV maschienen gibt wird TSMC die zuerst für teurere Prozesse verwenden bzw. N6 auch hoch einpreisen.
amdfanuwe
2020-08-10, 19:25:55
Klar, dass wird sich AMD auch ausrechnen ob N7(P) oder N6 für die günstiger ist.
Berniyh
2020-08-10, 19:52:57
Die Frage ist vermutlich weniger was für TSMC billiger wäre, sondern wie viel EUV Kapazitäten vorhanden sind. N6 kann gerne billiger als N7P sein, aber wenn es einfach noch zu wenige/zu langsame EUV maschienen gibt wird TSMC die zuerst für teurere Prozesse verwenden bzw. N6 auch hoch einpreisen.
Wenn nicht genug EUV Kapazitäten vorhanden sind ist N6 kein günstiger(er) Prozess.
Wenn nicht genug EUV Kapazitäten vorhanden sind ist N6 kein günstiger(er) Prozess.
Genau so sieht’s aus. Aber 505mm^2 in 6nm macht einiges möglich. Schwer vorstellbar, aber nur mal angenommen AMD hat uns alle hinters Licht geführt und es sind aufgrund der Kapazitäten sehr viel frei geworden in Bezug 5nm? Das Ding vernichtet Ampere mit 505mm^2!
Ich finde es halt äußerst seltsam, dass NV gleich auf die DAU-Schiene fährt. Sprich viel Speicher-datt Ding muss schnell sein
Linmoum
2020-08-10, 20:13:30
Nur kommt RDNA2 nicht nur wegen der Roadmap in N7(P/+), sondern auch schlicht deswegen, weil 5nm erst im April in die Massenproduktion gegangen ist. Da N21 spätestens im November launcht viel zu spät dafür.
mironicus
2020-08-10, 20:18:56
Wenn NVidia seine Karte mit 24 GB VRAM bringt, bleibt AMD gar nichts anderes übrig als die XTX-Version von Big Navi mit 32 GB HBM2-Speicher auszustatten. :D
Wenn NVidia seine Karte mit 24 GB VRAM bringt, bleibt AMD gar nichts anderes übrig als die XTX-Version von Big Navi mit 32 GB HBM2-Speicher auszustatten. :D
Wäre schön, vorzugsweise als CDNA-Ableger mit 96 CUs
Gipsel
2020-08-10, 20:25:57
Wäre schön, vorzugsweise als CDNA-Ableger mit 96 CUsKönnte schwierig werden ohne Rasterizer, ROPs und solch Kleinkram. Für Spiele dürfte sich ein RDNA2-Ableger vermutlich besser eignen. ;)
@mironicus:
Warum nicht 32GB GDDR6? Oder auch 24GB GDDR6, falls es doch ein 384bit-Interface wird? Geht ja sogar einseitig bestückt (12x 16Gbit-Chips). Mit beidseitiger Bestückung (Clamshell) bekommt man sogar 48 GB oder gar 64GB an 384bit bzw. 512bit mit GDDR6 hin.
Nur kommt RDNA2 nicht nur wegen der Roadmap in N7(P/+), sondern auch schlicht deswegen, weil 5nm erst im April in die Massenproduktion gegangen ist. Da N21 spätestens im November launcht viel zu spät dafür.
Macht Sinn, aber über ein halbes Jahr - sollte dies nicht ausreichen? Vielleicht auch ein Grund, warum die GPU erst im Dezember im Handel erscheint?
Zudem werden vorerst keine Boardpartner beliefert?
mironicus
2020-08-10, 20:30:02
Was für Speichermodule/Kapazität gibt es für GDDR6? Könnte man bei einem 16 GB-Referenzmodell einfach die Chips gegen welche mit doppelter Kapazität tauschen?
Gipsel
2020-08-10, 20:31:26
Was für Speichermodule/Kapazität gibt es für GDDR6? Könnte man bei einem 16 GB-Referenzmodell einfach die Chips gegen welche mit doppelter Kapazität tauschen?Ja. Es gibt 16 Gbit GDDR6-Chips. Damit sind 16GByte mit nur 8 Chips an einem 256bit-Interface drin.
16 GB an 512 Bit erfordert 8 Gbit. Maximum wären 64GB mit 32 Chips zu je 16 Gbit im Clamshell-Modus (beideitige Bestückung).
mironicus
2020-08-10, 20:37:12
Ups. War eigentlich eine blöde Frage von mir. Natürlich kann AMD jederzeit eine Karte mit doppelter Speichermenge veröffentlichen. Haben sie ja gerade erst wieder bei Apple gemacht, eine 5700 XT mit 16 GB.
Gipsel
2020-08-10, 20:40:50
Ups. War eigentlich eine blöde Frage von mir. Natürlich kann AMD jederzeit eine Karte mit doppelter Speichermenge veröffentlichen. Haben sie ja gerade erst wieder bei Apple gemacht, eine 5700 XT mit 16 GB.Weiß einer, ob die 16Gbit-Chips benutzt oder doppelseitig bestückt ist?
Ja. Es gibt 16 Gbit GDDR6-Chips. Damit sind 16GByte mit nur 8 Chips an einem 256bit-Interface drin.
16 GB an 512 Bit erfordert 8 Gbit. Maximum wären 64GB mit 32 Chips zu je 16 Gbit im Clamshell-Modus (beideitige Bestückung).
Hast eigentlich du Infos seitens RDNA2 welche der RMA unterliegen? Ich meine, man weiß im Endeffekt nichts, außer dass AMD auf den Highendmarkt abzielt. Gerüchte geben alles her: 2080ti (lediglich, aber wenn die RT-Performance stimmt, alles gut) - + 60% Performance. Man weiß eigentlich nichts
Weiß einer, ob die 16Gbit-Chips benutzt oder doppelseitig bestückt ist?
Einseitig
Gipsel
2020-08-10, 21:43:26
Hast eigentlich du Infos seitens RDNA2 welche der RMA unterliegen?Du meinst NDA? Nein, habe ich nicht.
====================
EinseitigGut zu wissen. Danke.
Daredevil
2020-08-10, 21:49:47
Ups. War eigentlich eine blöde Frage von mir. Natürlich kann AMD jederzeit eine Karte mit doppelter Speichermenge veröffentlichen. Haben sie ja gerade erst wieder bei Apple gemacht, eine 5700 XT mit 16 GB.
Das kann nicht nur AMD, das können auch die Boardhersteller.
Zumindest gab es ja Polaris auch mit 16GB Speicher von Sapphire.
Slipknot79
2020-08-10, 22:25:23
Nein, habe ich nicht.
Und was ist, wenn in deinem NDA genau geregelt ist, was du auf die Frage, ob du Infos hast, antworten sollst? :redface:
[MK2]Mythos
2020-08-10, 22:28:33
Und was ist, wenn in deinem NDA genau geregelt ist, was du auf die Frage, ob du Infos hast, antworten sollst? :redface:
Eigentlich steht in fast jedem NDA dass du nicht über das NDA sprechen darfst.
nordic_pegasus
2020-08-11, 06:51:07
Mythos;12388211']Eigentlich steht in fast jedem NDA dass du nicht über das NDA sprechen darfst.
Die erste Regel im NDA-Club lautet: Ihr verliert kein Wort über den NDA-Club.
Gipsel
2020-08-11, 07:47:09
Wer kommt denn auf die Idee, ich würde oder müßte NDAs unterschreiben? :freak:
[MK2]Mythos
2020-08-11, 08:20:04
Wer kommt denn auf die Idee, ich würde oder müßte NDAs unterschreiben? :freak:
Haha, ich sehe die news auf wtftech schon vor mir "...3dcforum User Gipsel seems to have more Informations, but he is restricted due to nda"
pixeljetstream
2020-08-11, 08:22:59
Wer kommt denn auf die Idee, ich würde oder müßte NDAs unterschreiben? :freak:
Willst Du lieber per RMA zurück geschickt werden?
Leonidas
2020-08-11, 09:39:54
Nun ja, 427mm2 sind verglichen mit den Turing Chips nicht fett ;)
Flächenmäßig ja. Aber zu hoher Stromverbrauch. Auch mit HBM geht es nicht unter 200W. Das ist nix, was sich lohnt extra für Mobile aufzulegen (zu geringer Absatz).
Noch was anderes zur VRAM Diskussion bei Big Navi: wenn Nvidia wirklich zwei Versionen bei manchen Chips plant, dann kann sich AMD eigentlich Big Navi mit "nur" 12 GB VRAM nicht erlauben.
Das müssen schon 16 GB VRAM sein.
Ich denke, Navi 21 wird in 3 Consumer-Grafikkarten resultieren, von denen zwei Stück 16G tragen und eine 12G. Die 12G-Version steht vermutlich gegen die 3070Ti, die 8/16G hat ... was in Ordnung geht, da ist 12G der goldene Mittelweg. Oben dürfte man wahrscheinlich generell bei 16G bleiben, da passt Deine Argumentation.
Kurze Frage. Meint ihr das AMD gleich zwei Speicherinterfaces in Big Navi einbauen könnte, so daß die GPU sowohl mit GDDR6 bzw. HBM zurecht kommt?
Hat bisher nie jemals einer getan. Kostet sinnlos Fläche, weil gleichzeitige Nutzung ist ja sowieso nicht.
davidzo
2020-08-11, 10:27:49
Da Nvidia ja etwas in der Größenordnung von T&L Ankündigt und Raytracing schon draußen ist hier meine Anlyse/Frage:
Gibt es ein Feature was wir überhaupt nicht auf den Schirm haben, was aber serh Revolutionär wäre?
Gibt es zurzeit noch Prozesse die auf der CPU ausgeüfhrt werden die einenen vielleicht eigenen Chip benötigen würden? (Darauf deutete ja T&L hin)
Wenn ich eins über Marketing gelernt habe, dann dass solche großmundigen Kampagnen gerade als Ausgleich dafür gemacht werden dass man technologisch eben wenig neue Features hat die für sich selber sprechen könnten.
RT bei Turing, das ist was zum anfassen, ausprobieren gewesen. Wenn das nur jetzt RT "in schnell" ist, dann ist das zwar auch relevant, aber nicht mehr so spannend wie als es noch gänzlich neu war. Also investiert man jede Menge Asche in aufwändige Werbespots und Sprachakrobatik um dieses manko auszugleichen.
Man könnte zum Beispiel RT in Turing als Testballon und Ampere als erste Chipgeneration mit praktisch nutzbarem RT für die Masse verkaufen.
Das ist keine Nvidia exklusive Strategie, aber eine die sie perfekt beherrschen:
Schon die Geforce 2 war eigentlich nur ein Dieshrink des Vorgängers mit der Addition einer zweiten TMU pro Pipeline. Der eigentlich große Wurf war der Vorgänger Geforce 256 mit funktionsfähiger T&L Einheit und erstmals 4 Pipelines (was bis zur GF4ti halten sollte), erstmals DDR support, der mit der TNT2 davor nichts mehr gemeinsam hatte außer die Fertigungsbreite.
In Abwesenheit von neuen bahnbrechenden Features hat sich nvidias Marketing die Abkürzung GTS ausgedacht, für Giga-texel-Shader um auf die neue Füllrate hin zu weisen und kräftig die Werbetrommel gerührt. Die Geforce 2 wurde letztendlich der Chip mit dem Nvidia zum dominanten Grafikchiphersteller der Welt wurde. Der Rest ist Geschichte.
basix
2020-08-11, 10:28:41
Flächenmäßig ja. Aber zu hoher Stromverbrauch. Auch mit HBM geht es nicht unter 200W. Das ist nix, was sich lohnt extra für Mobile aufzulegen (zu geringer Absatz).
Wieso extra auflegen? Einfach den Standardchip nehmen (wenn er mit HBM kommt und nicht GDDR6, sonst macht es keinen Sinn) und stark im Takt reduzieren. Bei mir hat eine 2080 Ti mit 150W immernoch 80-90% der Leistung einer 2080 Ti FE mit 260W. Jetzt Takt und Spannungen noch mehr reduzieren und man landet bei Highend-Notebook tauglichen 100-120W. Navi 12 in einer Radeon Pro 5600M benötigt nur 50(!) Watt. Eine 5700 XT braucht 220W. Da ist ein Faktor von 4.4x dazwischen, da sollte 2.5-3x bei 300W zu 100-120W ja wohl drin liegen ;)
Berniyh
2020-08-11, 10:35:43
Wieso extra auflegen? Einfach den Standardchip nehmen (wenn er mit HBM kommt und nicht GDDR6, sonst macht es keinen Sinn) und stark im Takt reduzieren. Bei mir hat eine 2080 Ti mit 150W immernoch 80-90% der Leistung einer 2080 Ti FE mit 260W. Jetzt Takt und Spannungen noch mehr reduzieren und man landet bei Highend-Notebook tauglichen 100-120W. Navi 12 in einer Radeon Pro 5600M benötigt nur 50(!) Watt. Eine 5700 XT braucht 220W. Da ist ein Faktor von 4.4x dazwischen, da sollte 2.5-3x bei 300W zu 100-120W ja wohl drin liegen ;)
Ja, kann man machen, aber es muss ja auch jemand bezahlen und der Markt ist dafür wohl einfach nicht da, bzw. nur in einer speziellen Nische (nämlich der von Apples hochpreisigen Spezialprodukten).
Leonidas
2020-08-11, 10:38:52
Richtig. Da legt man besser einen Mobile-Chip in Richtung 1660/2060 auf. Damit kann man Stückzahlen generieren.
basix
2020-08-11, 10:46:16
Ja klar muss es jemand bezahlen. Das ist immer so. Der Aufwand für die Mobile SKU sollte aber überschaubar sein, wenn man den Chip inkl. Interposer und Package schon hätte, oder nicht?
Wenn Big Navi ja so ein Halo Produkt ist, wäre es doch für AMD extrem nice die Performance-Krone im Mobil-Bereich zu holen und bestenfalls auch im Desktop-Bereich. Damit hätte man Nvidia so richtig vor den Bug geschossen.
Berniyh
2020-08-11, 11:28:50
Ja klar muss es jemand bezahlen. Das ist immer so. Der Aufwand für die Mobile SKU sollte aber überschaubar sein, wenn man den Chip inkl. Interposer und Package schon hätte, oder nicht?
Wenn Big Navi ja so ein Halo Produkt ist, wäre es doch für AMD extrem nice die Performance-Krone im Mobil-Bereich zu holen und bestenfalls auch im Desktop-Bereich. Damit hätte man Nvidia so richtig vor den Bug geschossen.
Natürlich wäre das nice, aber das Risiko auf den Dingern sitzen zu bleiben ist halt extrem hoch.
Sieht man doch gerade bei den Prozessoren wie langsam sich OEMs in der Hinsicht bewegen und das High-End Segment für Mobile ist halt fest in Nvidias Händen.
stinki
2020-08-11, 11:41:02
Richtig. Da legt man besser einen Mobile-Chip in Richtung 1660/2060 auf. Damit kann man Stückzahlen generieren.
Genau, AMD sollte erst einmal überhaupt wieder einen vernünftigen Mobile-Chip in der 2060/2070/3060 Performance-Klasse bringen. Der 5600XT mobile reicht da nicht gegen Nvidia.
Cyberfries
2020-08-11, 15:35:59
Es hilft nichts, einen konkurrenzfähigen mobilen Grafikchip zu haben, wenn dieser nicht verkauft wird.
Die 5600M kann durchaus mit 1660TI/2060 mithalten, trotzdem kann man die Anzahl an Notebooks an einem Finger abzählen.
ChaosTM
2020-08-11, 17:20:29
Deshalb ist es ja so wichtig, dass Navi richtig zündet. Auch ganz oben, dann können die Großen nicht mehr wegschauen. Durch bestehende Verträge ist ein Wechsel meist aber auch sehr komplex und langwierig.
Wird aber auch Zeit, das AMD generell mehr /besseres Marketing betreibt..
amdfanuwe
2020-08-11, 17:42:59
Mit zunehmenden Marktanteilen im Mobile Markt wird AMD sicherlich Bundle Verträge anbieten.
Dann verbreiten sich auch AMD GPUs in den Notebooks.
Muß allerdings auch eine attrktive GPU vorhanden sein.
Dampf
2020-08-11, 17:47:03
Es hilft nichts, einen konkurrenzfähigen mobilen Grafikchip zu haben, wenn dieser nicht verkauft wird.
Die 5600M kann durchaus mit 1660TI/2060 mithalten, trotzdem kann man die Anzahl an Notebooks an einem Finger abzählen.
Aber nicht in Sachen Featureset (machine learning, DX12 Ultimate, DXR acceleration), und das ist bei einem Notebook weit wichtiger, da man die GPU nicht austauschen kann.
dargo
2020-08-11, 17:52:45
TU116 hat weder Tensor Cores für DLSS noch RT-Cores.
Dampf
2020-08-11, 18:09:48
TU116 hat weder Tensor Cores für DLSS noch RT-Cores.
Stimmt schon, er hat aber auch die 2060 angeführt.
Aber selbst die 1660Ti hat ein besseres Featureset, denn sie unterstützt Sampler Feedback, VRS und Mesh Shading. Sollte in Zukunft also deutlich besser performen als die 5600M.
Ne du, RDNA1 würde ich um jeden Preis vermeiden. Besser auf die Laptop-Versionen der RDNA2 Karten warten, damit ist man auf der sicheren Seite.
Cyberfries
2020-08-11, 18:49:51
RTX und DLSS schön und gut.
Fakt ist: Die 5600 ist AMDs erste konkurrenzfähige "große" Mobilkarte seit 2014.
Dann nur einen(!) Anbieter vorweisen zu können ist sehr mager.
Obendrein hat Dell erst kürzlich dieses Modell vom Markt genommen.
Wenn dann hier Forderungen aufkommen, AMD soll neben dem kleinen Wunder einer Desktop-Karte an der Leistungsspitze
bitteschön auch noch im mobilen Sektor ganz oben auftrumpfen, dann schimmert hier etwas Realitätsferne durch.
Wenn ihr schon keinen Bock habt, den aktuellen 1660/2060-Konkurrent zu kaufen, weil zu rosa,
dann verlangt doch nicht nach einem Nachfolger, für den ihr euch dann neue Ausreden ausdenkt.
Dann wird mit Langlebigkeit argumentiert.
Das Dell kostete rund 1000€. Manche Leute hier kaufen jede Generation eine GraKa allein für diesen Preis.
dargo
2020-08-11, 19:03:03
Aber selbst die 1660Ti hat ein besseres Featureset, denn sie unterstützt Sampler Feedback, VRS und Mesh Shading. Sollte in Zukunft also deutlich besser performen als die 5600M.
Bis das flächendeckend zum Einsatz kommt kauft man sich eh wieder einen neuen Laptop. Als ob die Masse nach Features kaufen würde. :freak:
Leonidas
2020-08-15, 11:35:18
Das gehört zum größeren Teil eher hier hinein ... auch wenn es mit guter Chance ziemlicher Schwachsinn ist:
http://uploads.disquscdn.com/images/52628d4c5669bbc9019695e5079280c0b016fc01702c57ba9328a0e81e4de758.jpg
https://uploads.disquscdn.com/images/8a9346de22044ca5e150645caa91ddf0d5f4b8de2601d721d35cb641d2b224ee.jpg
BlacKi
2020-08-15, 11:45:06
oh leo, das hätt ich mich nicht getraut^^
dildo4u
2020-08-15, 11:51:11
Selbst wenn es von der GPU Performance her stimmt, müssten die aktuellen 8 Core am PC noch deutlich billiger werden und natürlich sind High-End 4.0 SSDs noch viel zu teuer.
r3ptil3
2020-08-15, 11:53:03
Die Leistungseinschätzung (3070 Ti) finde ich jetzt gar nicht mal so abwegig.
Das wäre etwa 2080 TI und vielleicht ein paar % obendrauf.
Dass man ausgeht, dass sich die Leistung durch die Verdopplung der Recheneinheiten ebenfalls verdoppelt (Gaming), halte ich sowieso für sehr unwahrscheinlich.
ChaosTM
2020-08-15, 11:57:54
Wir werden es bald wissen. Sollte Navi wirklich abstinken, werden keine Leaks während des NV Launches auftauchen. So einfach ist das..
Die Speichererweiterung etc. sprechen aber eine ganz andere Sprache.
Ähnliche oder leicht höhere Geschwindigkeit aber mit (großen) Vorteilen bei RTRT. (edit.: für NV)
Die puren Speedfreaks werden noch enttäuschter sein diesmal, aber NV geht den RTX weg konsequent weiter - ich bin mir da ziemlich sicher--
Complicated
2020-08-15, 12:04:24
Also dass AMD Nvidias neue GPU unterschätzt halte ich allein deshalb für ausgeschlossen, da Nvidia von 12nm auf 8nm shrinkt - da müsste AMD nur Traumtänzer beschäftigen. Wenn Nvidia nun Fläche auf dem Chip für Tensorcores wieder ALUs zuschiebt kann natürlich mehr Leistung als alleine durch den Shrink frei gemacht werden. Bedeutet dann wohl aber auch das scheitern der Tensorcores im Customer-Segment, da keine Workloads dafür gefunden wurden. Ich glaube eher Nvidia hat gemerkt, dass sie die ganze Fläche brauchen werden die sie in Performance stecken können um AMDs RDNA2 zu kontern. Was natürlich gelingen kann. Wir werden sehen was Samsungs 8nm bieten wird für das Design.
unl34shed
2020-08-15, 12:11:02
Dass man ausgeht, dass sich die Leistung durch die Verdopplung der Recheneinheiten ebenfalls verdoppelt (Gaming), halte ich sowieso für sehr unwahrscheinlich.
Naja, aber dass bei einer Verdopplung nur 50% mehr Leistung raus kommen soll ist genauso Käse.
r3ptil3
2020-08-15, 12:18:56
Naja, aber dass bei einer Verdopplung nur 50% mehr Leistung raus kommen soll ist genauso Käse.
Die AMD-Grafiktreiber würde ich nicht ausser Acht lassen.
robbitop
2020-08-15, 12:22:31
Die Leistungseinschätzung (3070 Ti) finde ich jetzt gar nicht mal so abwegig.
Das wäre etwa 2080 TI und vielleicht ein paar % obendrauf.
Dass man ausgeht, dass sich die Leistung durch die Verdopplung der Recheneinheiten ebenfalls verdoppelt (Gaming), halte ich sowieso für sehr unwahrscheinlich.
Mit 80 RDNA2 CUs nur so schnell zu sein wie 68 TU102 SMs wäre aber schon merkwürdig. Selbst ein RDNA1 CU ist taktnormiert praktisch gleichschnell wie ein Turing SM. RDNA2 sollte eher ein wenig drauflegen in Bezug auf IPC und Takt.
Ein Unterschätzen wäre unter der Führung von Lisa Su eigentlich auch ungewöhnlich. Zumindest in der CPU Branche wird das optimistischst mögliche Szenario des Gegenspielers für die Konzeption des Produktes gewählt. Zen 2 sollte ja eigentlich in AMDs Projektion gegen Icelake (Sunny Cove) antreten. Zumindest hat AMD das so öffentlich gesagt.
Ein Nextgen Produkt am Current Gen Produkt des Wettbewerbers (der dafür bekannt ist, sich nicht auszuruhen und sich offensiv das große RnD Budget zunutzemacht) einzuschätzen. Das wäre nicht koherent mit dem was in der CPU Sparte passiert.
Linmoum
2020-08-15, 12:22:48
Das gehört zum größeren Teil eher hier hinein ... auch wenn es mit guter Chance ziemlicher Schwachsinn ist:Was heißt mit guter Chance? Lest ihr sowas selbst denn gar nicht mehr und hinterfragt wenigstens?
"Performance estimates 1.5x of 5700XT"
"power consumption estimated between 330-375W"
1.5x Performance einer 5700XT aber 1.47x (330W) bis 1.67x (375W) Verbrauch einer 5700XT. Wie genau kommst du denn damit auf AMDs +50% Perf/Watt, die explizit für RDNA2 angegeben wurden? Selbst wenn du das als Marketing abtust und es meinetwegen nur +40% sind... Das ist immer noch Galaxien von dem obigen """Leak""" entfernt und damit völliger Schwachsinn.
Ehrlich jetzt, ist mir wirklich ein Rätsel, warum man derart obviousen Fake noch verbreitet. Mal ganz davon ab, dass alleine ohne architekturbedingte Verbesserungen bei den Eckdaten schlicht nicht nur +50% gegenüber einer 5700XT an Performance herauskommen können.
Genauso Schwachsinn ist übrigens "They based their targets off Turing's generation improvement" was bei GPU-Entwicklungen schlicht kompletter bs ist, weil AMD nicht erst im August 2018 damit angefangen hat, RDNA2 zu designen. Ach Leute.
"Oh, unsere Konkurrenz hat mit Turing nur 72SM bei ihrem Gaming-Chip. Da fangen wir jetzt mal an und designen unseren N21 mit 80CU gepaart mit den anderen Verbesserungen. Reicht ja." :facepalm:
BlacKi
2020-08-15, 12:24:07
Naja, aber dass bei einer Verdopplung nur 50% mehr Leistung raus kommen soll ist genauso Käse.
es sei denn es ist eine early engineering sample mit +-1,5 ghz gewesen. aber bei vega dachte man ebenfalls das die engineering samples einen niedrigen takt hätten. letztlich hat man da schon fast die finalen taktraten...
LasterCluster
2020-08-15, 12:25:32
Also dass AMD Nvidias neue GPU unterschätzt halte ich allein deshalb für ausgeschlossen, da Nvidia von 12nm auf 8nm shrinkt - da müsste AMD nur Traumtänzer beschäftigen.
Genau! Und Außerdem: AMD hat bei Intel immer damit gerechnet, dass sie liefern werden. Selbst dann als Intel schon ins Stolpern kam. Nvidia dagegen hat im Grunde immer geliefert. Also wird AMD NIEMALS mit geringer Performance bei Ampere gerechnet haben.
Leistung auf GA104 Niveau bzw leicht drüber ist sicher möglich. Aber dieser "leak" ist Unsinn und einfach geraten
@Blacki: Warum nimmst du Vega als Referenz obwohl schon die Konsolenclocks bekannt sind?
AffenJack
2020-08-15, 12:29:15
Naja, aber dass bei einer Verdopplung nur 50% mehr Leistung raus kommen soll ist genauso Käse.
Jupp, ne gute Mitte dazwischen ist erstmal in der Regel der beste Ansatzpunkt. guckt man sich so Einheitenskalierung von früheren Genereationen an, würde ich bei einem doppelten Chip erstmal ~80% erwarten. Damit wäre man 20% über der 2080TI.
Mit 80 RDNA2 CUs nur so schnell zu sein wie 68 TU102 SMs wäre aber schon merkwürdig. Selbst ein RDNA1 CU ist taktnormiert praktisch gleichschnell wie ein Turing SM. RDNA2 sollte eher ein wenig drauflegen in Bezug auf IPC und Takt.
Wenn die Gerüchte bei Gaming Ampere stimmen, kannst du CU/SM doch gar nicht mehr vergleichen. Gerade gehen die ja alle in die Richtung, dass FP32 bei Ampere verdoppelt wird.
BlacKi
2020-08-15, 12:37:27
@Blacki: Warum nimmst du Vega als Referenz obwohl schon die Konsolenclocks bekannt sind?
der satz macht keinen sinn.
vega hab ich genutzt um zu zeigen das der leak nicht passen kann. die taktraten habe ich genannt um meine einschätzung mitzuteilen wo der takt liegen müsste, damit der leak stimmt.
Linmoum
2020-08-15, 12:39:17
Achja, von kopite zu dem Leak bzw. Leaker:
I don't know who you followed up. But don't believe 'news' from USG Ishimura. USG Ishimura is an NVIDIA public relations officer. He once insisted that both PS5 and XBOX use NVIDIA GPU ,the he deleted it. He pretends to predict a lot of things when things are almost certain.
https://twitter.com/kopite7kimi/status/1294552679444692992
Aber gut, dass der Navi-Part schlicht komplett bs ist, ist ja bei kurzem überfliegen bereits so offensichtlich, wie dass Windkrafträder nur mit Wind Strom erzeugen.
Leonidas
2020-08-15, 12:39:30
Was heißt mit guter Chance? Lest ihr sowas selbst denn gar nicht mehr und hinterfragt wenigstens?
Sehe ich genauso. Nur darf speziell ich nun nicht gleich Absolutismen verteilen.
PS: Ich habe es zu Dokumentations-Zwecken reingesetzt, damit ich mit den nächsten News mich damit auseinandersetzen kann.
robbitop
2020-08-15, 12:39:36
Sehe ich auch so. 4xx sqmm sehen für mich auch nicht danach aus, als wenn man mit voller Macht unbedingt die Leistungskrone im Enthusiast Segment haben wollen würde. Damit ist man in den letzten Jahren (praktisch seit G80) immer auf der Nase gelandet. Eine Top GPU, die mit NVs 2. schnellster GPU mithalten kann (oder diese sogar leicht schlägt) - und das zu ähnlichen Kosten (so dass die Margen noch gut sind) - das wäre sicherlich ein sinnvolles Ziel für AMD.
Mit Tahitii (512 bit), Fijii (HBM und riesen Chip), Vega64 (HBM und riesen Chip), Vega 7 (HBM) war man praktisch auf dem Performancelevel des jeweiligen 104s - aber eben mit der riesen Brechstange. Entsprechend muss man da Margen lassen und ggf. ist die jeweilige TDP auch für viele Reviews eintrübend gewesen.
Seit RDNA sieht es hier viel besser aus. Navi 21 traue ich das schon zu. Nicht die absolute Leistungskrone aber gut genug um 104 zu schlagen und ggf auch um mit der xx08 non Ti auf Augenhöhe zu sein.
robbitop
2020-08-15, 12:41:00
Wenn die Gerüchte bei Gaming Ampere stimmen, kannst du CU/SM doch gar nicht mehr vergleichen. Gerade gehen die ja alle in die Richtung, dass FP32 bei Ampere verdoppelt wird.
Nochmal lesen. ;)
Er sprach davon, dass N21 nur auf Höhe der 2080Ti ist. Also TU102. Von Ampere war keine Rede.
Das wäre merkwürdig, da bereits ein RDNA CU taktnormiert auf einem Turing SM liegt und N21 mit 80 CUs ein ganzes Stück mehr CUs hat als TU102 SMs hat (68 aktive).
der satz macht keinen sinn.
vega hab ich genutzt um zu zeigen das der leak nicht passen kann. die taktraten habe ich genannt um meine einschätzung mitzuteilen wo der takt liegen müsste, damit der leak stimmt.
Exakt so habe ich es auch verstanden. Und exakt das geht mir bei AMD ES seit dem auch durch den Kopf.
Fragman
2020-08-15, 12:50:00
Die neueren Aussagen sind die andere Seite vom Pendel zu Big Navi.
Setzt man das mit den optimistischsten Prognosen zusammen, kommt man irgendwo in der Mitte raus, sprich, bei realistischen Erwartungen. Da wären dann wieder die 2080TI + 15 Prozent? Wenn AMD einen vernünftigen Preis anbieten kann, bringt das sowieso mehr, als eine GPU, die nur die Spitze der Gamer kaufen wird.
Linmoum
2020-08-15, 12:56:36
Da gibt's keine andere Seite. Nochmal:
Der Leak behauptet 1.5x Performance einer 5700XT bei 1.47x bis 1.67x Verbrauch einer 5700XT. Wie zum Teufel kommt ihr damit auch nur annähernd auf eine +50% Perf/Watt-Steigerung, die AMD für RDNA2 genannt hat?
Kann ja irgendwie keiner beantworten. Komisch.
Der_Korken
2020-08-15, 13:02:03
Ich schließe mich der Meinung an, dass "Big" Navi in punkto absolute Performance hinter GA102 liegen könnte, womöglich auch deutlich. Aber in diesem Fall würden wir nicht mehr über 400mm²+ oder 375W Verbrauch sprechen. Das wäre sowohl bei Perf/W als auch bei Perf/Fläche ein Rückschritt gegenüber RDNA1. Zudem ist bereits bekannt, dass wir in den Konsolen 52CUs@1,8Ghz und 36CUs@>2Ghz bei moderatem Verbrauch sehen werden. Ersteres ist bereits 30% über einer 5700XT, wie ein 375W-Monster dann nur +50% schaffen soll ist mir ein Rätsel. Höchstens wenn AMD weniger CUs als in der Xbox verbaut und das Ding mit 1,3V auf 2,4Ghz hochprügelt. Dann wäre aber wenigstens der Chip klein und billig.
Sunrise
2020-08-15, 13:12:10
Ich denke bei vorsichtiger Schätzung kommen wir bei min. 1,75x Rohleistung (FP32) bei N21 raus, min. 280W TDP, ggü. N10. Ansonsten könnte man sich Big Navi komplett sparen. Da bei Big Navi bzw. RDNA2 extrem viel ggü. N10 (RDNA1) verbessert wurde, ist es für mich vollkommen ausgeschlossen, dass man hier bei einer 2080Ti landet...das ergibt null Sinn und Leute die soetwas verbreiten sollte man eigentlich direkt blocken.
Mal von dem ab, die große Unbekannte ist aktuell, wie SMs (NV) und CUs (AMD) jeweils verbessert wurden, die Tensor-Cores werden sicher deutlich aufgepumpt. Das macht Schätzungen im Vergleich praktisch unmöglich.
AffenJack
2020-08-15, 13:20:44
Nochmal lesen. ;)
Er sprach davon, dass N21 nur auf Höhe der 2080Ti ist. Also TU102. Von Ampere war keine Rede.
Das wäre merkwürdig, da bereits ein RDNA CU taktnormiert auf einem Turing SM liegt und N21 mit 80 CUs ein ganzes Stück mehr CUs hat als TU102 SMs hat (68 aktive).
Ja, besser lesen wäre von Vorteil.:biggrin: Hier stimme ich zu, dass N21 natürlich schneller als TU102 werden wird. Gar keine Frage. 20% schneller ist da erstmal meine Erwartung, wie auch gerade die Steigerung der SMs. Vll durch Takt auch noch 30%. Nur die 35-50% schneller als TU102, wie immer mal wieder aufkam, halte ich für sehr optimistisch.
[MK2]Mythos
2020-08-15, 13:31:18
Ist doch auch absolut okay. Wenn Big Navi 2080Ti + 20-30% liefert, dazu noch 16 GB Ram und eine vernünftige TDP hat und dabei zu einem konkurrenzfähigen Preis (800-900 USD) verkauft wird, sind doch alle zufrieden und AMD wird die Dinger garantiert gut verkaufen.
BoMbY
2020-08-15, 14:00:45
Da gibt's keine andere Seite. Nochmal:
Der Leak behauptet 1.5x Performance einer 5700XT bei 1.47x bis 1.67x Verbrauch einer 5700XT. Wie zum Teufel kommt ihr damit auch nur annähernd auf eine +50% Perf/Watt-Steigerung, die AMD für RDNA2 genannt hat?
Der "Leak" ist vermutlich kompletter BS ...
Fragman
2020-08-15, 14:05:37
Da gibt's keine andere Seite. Nochmal:
Der Leak behauptet 1.5x Performance einer 5700XT bei 1.47x bis 1.67x Verbrauch einer 5700XT. Wie zum Teufel kommt ihr damit auch nur annähernd auf eine +50% Perf/Watt-Steigerung, die AMD für RDNA2 genannt hat?
Kann ja irgendwie keiner beantworten. Komisch.
BigNavi ist ein großes Fragezeichen. Wir wissen nur, das die mid range bis lower mid range auf dem Level einer 2070 sein soll, dank den neuen Konsolen (was aber auch nur Behauptungen sind).
Dazu die Behauptung von AMD zur Perf/Watt Steigerung, das wars dann auch schon. Läßt sich diese Optimierung aus den Konsolen ablesen? Dann wäre das zumindest im Ansatz gesichert.
r3ptil3
2020-08-15, 14:10:59
Mythos;12392509']Ist doch auch absolut okay. Wenn Big Navi 2080Ti + 20-30% liefert, dazu noch 16 GB Ram und eine vernünftige TDP hat und dabei zu einem konkurrenzfähigen Preis (800-900 USD) verkauft wird, sind doch alle zufrieden und AMD wird die Dinger garantiert gut verkaufen.
Bei 20-30% über der 2080 TI wird das Stück nicht über 799$ kosten, selbst das wäre eigentlich noch etwas zu viel.
Meine Vermutung: RTX 2080TI + 10-20% Leistung bei 699$
Nazar
2020-08-15, 14:18:18
Das gehört zum größeren Teil eher hier hinein ... auch wenn es mit guter Chance ziemlicher Schwachsinn ist:
http://uploads.disquscdn.com/images/52628d4c5669bbc9019695e5079280c0b016fc01702c57ba9328a0e81e4de758.jpg
https://uploads.disquscdn.com/images/8a9346de22044ca5e150645caa91ddf0d5f4b8de2601d721d35cb641d2b224ee.jpg
Alles was da geschrieben wurde, wurde in einer Art und Weise verfasst, dass selbst ein Laie erkennen sollte, dass das nur von einem FanBoy kommen kann.
Liest sich so, als ob ein kleines Kind grantig ist und einfach mal alles an "Wünschen" raushhaut was geht. Etwa so in der Art: "Ätsche, immer 1000 Mal mehr als wie du... deine Mudda!".
Alles was darin steht widerspricht sämtlichen Leaks und auch selbst logischen Schlüssen.
Wieso sowas hier gepostet wird, kann ich nicht nachvollziehen.. ist ja fast wie absichtliches Trolling... :freak:
BigNavi ist ein großes Fragezeichen. Wir wissen nur, das die mid range bis lower mid range auf dem Level einer 2070 sein soll, dank den neuen Konsolen (was aber auch nur Behauptungen sind).
Dazu die Behauptung von AMD zur Perf/Watt Steigerung, das wars dann auch schon. Läßt sich diese Optimierung aus den Konsolen ablesen? Dann wäre das zumindest im Ansatz gesichert.
Es wäre schön zu wissen, worauf deine Behauptung, bezüglich der Performance der kommenden AMD GPU, beruht.
Weder kann man noch sollte man die GPU Leistung der Konsolen als Referenzpunkt nehmen und insbesondere dann nicht, wenn man nicht weiß wie die GPU und mit welchen Logiken die GPU verbandelt wurde.
GPU Performance Konsole != GPU Performance PC!
Wenn man sich dann die aktuellen Konsolenports anschaut, wo Highend PC mit diffusen Problemen zu kämpfen haben, sollte sicher sein, dass der Vergleich nicht passen kann.
Es kann sogar sein, dass die AMD GPUs deutlich schlechter sind als eine 2070 aber auch genau das Gegenteil... man weiß es nicht! ;)
Blediator16
2020-08-15, 14:19:23
Alleine der Gedanke AMD würde Nvidia unterschätzen macht alles einfach nur noch absurd :D
r3ptil3
2020-08-15, 14:31:06
Alleine der Gedanke AMD würde Nvidia unterschätzen macht alles einfach nur noch absurd :D
Hast du die letzten Jahre vergessen?
Nur alleine schon was das Marketing von AMD für einen BS rausgelassen hat, ist kaum zu übertreffen an Hochmut.
Mehrmals hat AMD Nvidia unterschätzt.
Linmoum
2020-08-15, 14:33:55
BigNavi ist ein großes Fragezeichen. Wir wissen nur, das die mid range bis lower mid range auf dem Level einer 2070 sein soll, dank den neuen Konsolen (was aber auch nur Behauptungen sind).
Dann meinst du RDNA2 und nicht BigNavi, da bereits die 5700XT schneller ist als eine 2070. Davon ab wird die XSX klar schneller als diese sein.
Dazu die Behauptung von AMD zur Perf/Watt Steigerung, das wars dann auch schon.Hört sich irgendwie so an, als käme das ja "nur" von AMD und der Leaker könnte ja trotzdem recht haben. Ganz davon ab, dass AMD dieses Versprechen bereits mits RDNA abgeliefert hat: Das ist nicht nur eine Behauptung, das war auf einer offizielle Präsentation auf dem FAD primär für Investoren.
Blediator16
2020-08-15, 14:37:44
Hast du die letzten Jahre vergessen?
Nur alleine schon was das Marketing von AMD für einen BS rausgelassen hat, ist kaum zu übertreffen an Hochmut.
Mehrmals hat AMD Nvidia unterschätzt.
Erzähl mal. Meinst du die Pre Zen Ära? Seitdem deren alte Marketingabteilung bei Intel Avengers Themes an Land zieht und seit 2 Jahren über Intel XE und Odyssee redet, hören wir seit RDNA/ZEN Zeiten keine Hypes mehr ala Poor Volta o.ä.
Sunrise
2020-08-15, 14:43:32
Hast du die letzten Jahre vergessen?
Nur alleine schon was das Marketing von AMD für einen BS rausgelassen hat, ist kaum zu übertreffen an Hochmut.
Mehrmals hat AMD Nvidia unterschätzt.
Du siehst ja hoffentlich selbst, das seit RDNA1/N10 AMD immer relativ passiv war und geliefert hat, bei Big Navi gibts außer sachlichen Slides nichts, außer vielen großen Fragezeichen.
Das vorherige AMD war noch Koduri-Ära, damit sollte man mal abschließen.
Und auch nicht vergessen, die Möglichkeiten die AMD "damals" hatte, sind begrenzt gewesen, und es wurden wohl auch falsche Entscheidungen getroffen, während AMD jetzt extrem fokussiert arbeitet.
Cyberfries
2020-08-15, 14:43:53
Es ist in letzter Zeit immer stiller geworden um RDNA2, das stimmt.
Ähnlich wie es bei Vega kurz vor dem Start plötzlich sehr ruhig wurde.
Von Vorabverurteilungen würde ich dennoch abraten. Das was hier an "Leaks" herumgereicht wurde,
passt an den meisten Stellen kaum zusammen. Da ist soviel Blödsinn verzapft wurden,
es würde mich nicht wundern wenn keines der bisherigen Gerüchte zutreffen würde.
Wir hatten schon 64, 96 und 128 ROPs im Gespräch, 80,88,100 und 128CUs.
So ziemlich jedes denkbare Speicherinterface und so ziemlich jede denkbare Leistungseinstufung.
Vielleicht einfach mal diesen Monat noch die Füße stillhalten, September wird sich sicher vieles auflösen.
Linmoum
2020-08-15, 14:55:52
Es ist in letzter Zeit immer stiller geworden um RDNA2, das stimmt.
Ähnlich wie es bei Vega kurz vor dem Start plötzlich sehr ruhig wurde.Es war schon immer so still, wie es aktuell auch noch ist.
AMD hat noch nie viel über RDNA2 preisgegeben, außer "zuletzt" die 2-3 Folien auf dem FAD. Das war es. Sie haben gelernt, was kein Wunder ist, nachdem das alte Marketing-Team und Raja weg sind. Wo die gelandet sind, sieht man ja immer wieder.
mboeller
2020-08-15, 14:58:06
vielleicht kommt ja schon am Dienstag was:
hotchips 32:
Xbox Series X System Architecture
Jeff Andrews and Mark Grossman, Microsoft
17.08.2020 17:00 uhr ... also bei uns dann am Dienstag
Ist zwar "nur" XBsX, aber vielleicht kommt auch was zu RDNA2
Cyberfries
2020-08-15, 15:01:15
... nachdem das alte Marketing-Team und Raja weg sind. Wo die gelandet sind, sieht man ja immer wieder.
Ja, Raja hats echt hart erwischt.
Der Arme muss sich bei Intel den Hintern vergolden lassen, da kann man nur Mitleid haben.
mboeller
2020-08-15, 15:02:28
Ja, Raja hats echt hart erwischt.
Der Arme muss sich bei Intel den Hintern vergolden lassen, da kann man nur Mitleid haben.
mit Intel?
BlacKi
2020-08-15, 15:09:19
mit Intel?
ich glaub man hat da knowledge eingekauft, nicht kompetenz.
Blediator16
2020-08-15, 15:25:01
Ja, Raja hats echt hart erwischt.
Der Arme muss sich bei Intel den Hintern vergolden lassen, da kann man nur Mitleid haben.
Im Kontext gesehen, geht es ihm sicherlich um das Marketing. Bei Intel ist aktuell das Marketing wie es seinerzeit bei AMD war. Viel reden wenig liefern.
Linmoum
2020-08-15, 16:02:08
Ja, Raja hats echt hart erwischt.
Der Arme muss sich bei Intel den Hintern vergolden lassen, da kann man nur Mitleid haben.Man kann in der Tat nur froh sein, dass Raja seine "several months ahead"-Hypesprüche nicht mehr bei AMD zur Schau stellen kann. Hat in seiner Zeit mehr gelabert als abzuliefern.
Ist kein Zufall, dass man sich bei AMD auch seit seinem Abgang nicht mehr in jedem zweiten Interview ausführlich zu unveröffntlichten und (weit) in der Zukunft liegenden Produkten äußert. Also wie bei Nvidia halt auch. Bei Intel fängt er ja schon wieder damit an. Soll er mal.
Berniyh
2020-08-15, 16:24:03
Wir hatten schon 64, 96 und 128 ROPs im Gespräch, 80,88,100 und 128CUs.
So ziemlich jedes denkbare Speicherinterface und so ziemlich jede denkbare Leistungseinstufung.
Vielleicht einfach mal diesen Monat noch die Füße stillhalten, September wird sich sicher vieles auflösen.
So schauts aus: nichts genaueres weiß man nicht
Und dass dieser Leakdieses Statement Blödsinn ist steht ja wohl außer Frage. :freak:
Fragman
2020-08-15, 19:37:46
Es wäre schön zu wissen, worauf deine Behauptung, bezüglich der Performance der kommenden AMD GPU, beruht.
Weder kann man noch sollte man die GPU Leistung der Konsolen als Referenzpunkt nehmen und insbesondere dann nicht, wenn man nicht weiß wie die GPU und mit welchen Logiken die GPU verbandelt wurde.
GPU Performance Konsole != GPU Performance PC!
Wenn man sich dann die aktuellen Konsolenports anschaut, wo Highend PC mit diffusen Problemen zu kämpfen haben, sollte sicher sein, dass der Vergleich nicht passen kann.
Es kann sogar sein, dass die AMD GPUs deutlich schlechter sind als eine 2070 aber auch genau das Gegenteil... man weiß es nicht! ;)
Ich hab nicht die PC Performance mit Konsolen Performance verglichen, soweit bin ich garnicht gegangen sondern ich hab Spekus aufgegriffen, wonach das so sein soll.
Das ist nicht nur eine Behauptung, das war auf einer offizielle Präsentation auf dem FAD primär für Investoren.
Es bleibt eine Behauptung, solang es kein Produkt gibt, an dem man diese messen kann. Dabei ist es egal, vor wem AMD das gesagt hat, nur die Konsequenzen können andere sein.
Spekulationen werden btw heutzutage viel zu ernst genommen. :D
6800XT
2020-08-15, 21:01:49
Gibt es schon wetten? 2080 ti +10-15% im besten fall für die schellste karte mit 16 gb in schllechtesten darunter oder gleich. Ist ja nicht schlecht für amd wenn sie endlich am das 80ti modell aufholen binnen 2 jahren statt 3+ wie bei 1080ti.
Nazar
2020-08-15, 22:13:24
Gibt es schon wetten? 2080 ti +10-15% im besten fall für die schellste karte mit 16 gb in schllechtesten darunter oder gleich. Ist ja nicht schlecht für amd wenn sie endlich am das 80ti modell aufholen binnen 2 jahren statt 3+ wie bei 1080ti.
Ich schrieb schon mal, dass ich gegen jeden wetten würde, der meint, dass Big Navi kaum besser als eine 2080 Ti wird. Meine OC 2080 Ti schafft 7300+ GPU Punkte in Time Spy extrem und 15600+ GPU Punkte im normalen Time Spy. Sieht man sich die Werte einer 5700XT an, so schafft diese über 8765 GPU Punkte im normalen Time Spy und 4100+ im TS Extreme.
Alleine schon ohne irgendeine Verbesserung von Performance pro Watt und verbesserter IPC, müsste eine RDNA1 Karte mit 80 CU mit einer normalen 2080 Ti (6600 extrem Time Spy GPU Punkte) gleichziehen können.
Egal wie man das dann mit den 50% Mehrperformance pro Watt bei RDNA2 sieht und wenn man auch nur von einer IPC Verbesserung von 10% ausgeht, müsste AMD schon extrem in die Scheiße gegriffen haben, um nur 15% schneller als eine 2080 Ti zu werden.
Big Navi wurde nie designt um die jetzigen nVidia GPUs anzugreifen.
AMD wollte schon immer Ampere angreifen, weshalb ich stark davon ausgehe, dass Big Navi mindestens 30% schneller sein wird, als eine OC 2080Ti und sich damit auf dem Niveau einer 3090 bewegen wird.
Sollte alles gut laufen und das stimmen was AMD selber gezeigt hat, dann wird es ein Kopf an Kopf Rennen und die Käufer können sich freuen. :wink:
Sunrise
2020-08-15, 22:47:44
Es bleibt eine Behauptung, solang es kein Produkt gibt, an dem man diese messen kann. Dabei ist es egal, vor wem AMD das gesagt hat, nur die Konsequenzen können andere sein.
Die Slides vom FAD sind auch nicht auf ein Produkt bezogen gewesen, es bezieht sich auf RDNA2 ggü. RDNA1. Genau wie eben auf dem gleichen Slide auch +50% von GCN ggü. RDNA1 steht.
AMD schreibt dazu: "RDNA2 improvement based on AMD internal estimate". Es sind also Schätzungen, natürlich sind das auch Behauptungen, die AMD da angibt.
Nur hat AMD bei Zen(2) da eher tief gestapelt, bevor Zen(2) dann tatsächlich deutlich mehr lieferte als angegeben. Ich denke nicht, dass AMD hier großspurige Angaben nötig hat. Im Gegenteil, wenn die Konkurrenz nicht alles weiß, man aber dennoch "nahe dran" ist, passt es doch.
AMD müsste zu dem Zeitpunkt wohl auch schon relativ reifes Silizium (ein Produkt) haben, um sowas final sicher sagen zu können. Aufgrund dessen, dass N10 aber auf N7P ist, weiß AMD zumindest, mit was sie vergleichen können, und vom Prozess ausgehend muss da sehr viel von der Architektur/Layout selbst kommen.
Mich würde tatsächlich mal interessieren, wie und woher AMD (oder ein anderer IHV) solche Schätzungen herbekommt. Messen sie das anhand pre-Silizium von RDNA2-Implementation in den Konsolen-SoCs? Da ist doch sicher auch locker 10% Spielraum für "Fehler". Haben die Cadence-Simulatoren (NV benutzt Cadence, nicht sicher ob AMD die auch nutzt) auch die Fähigkeit, nicht nur den Chip zu simulieren, sondern auch die endgültige Effizienz, ist das alles vorher schon relativ fest?
Akkarin
2020-08-15, 23:04:04
Eine doppelte 5600XT@270W sollte die 2080 ti bereits eingehohlt haben. 80CUs RDNA2, vor allem wenn 512 bit als Interface kommen, sollte da noch ordentlich was drauf legen.
Digidi
2020-08-15, 23:50:01
Die Slides vom FAD sind auch nicht auf ein Produkt bezogen gewesen, es bezieht sich auf RDNA2 ggü. RDNA1. Genau wie eben auf dem gleichen Slide auch +50% von GCN ggü. RDNA1 steht.
AMD schreibt dazu: "RDNA2 improvement based on AMD internal estimate". Es sind also Schätzungen, natürlich sind das auch Behauptungen, die AMD da angibt.
Nur hat AMD bei Zen(2) da eher tief gestapelt, bevor Zen(2) dann tatsächlich deutlich mehr lieferte als angegeben. Ich denke nicht, dass AMD hier großspurige Angaben nötig hat. Im Gegenteil, wenn die Konkurrenz nicht alles weiß, man aber dennoch "nahe dran" ist, passt es doch.
AMD müsste zu dem Zeitpunkt wohl auch schon relativ reifes Silizium (ein Produkt) haben, um sowas final sicher sagen zu können. Aufgrund dessen, dass N10 aber auf N7P ist, weiß AMD zumindest, mit was sie vergleichen können, und vom Prozess ausgehend muss da sehr viel von der Architektur/Layout selbst kommen.
Mich würde tatsächlich mal interessieren, wie und woher AMD (oder ein anderer IHV) solche Schätzungen herbekommt. Messen sie das anhand pre-Silizium von RDNA2-Implementation in den Konsolen-SoCs? Da ist doch sicher auch locker 10% Spielraum für "Fehler". Haben die Cadence-Simulatoren (NV benutzt Cadence, nicht sicher ob AMD die auch nutzt) auch die Fähigkeit, nicht nur den Chip zu simulieren, sondern auch die endgültige Effizienz, ist das alles vorher schon relativ fest?
Das sind Simulationen. Die Simulieren den Chip auf einem Server. Da kann man dann den Navi10 und den Navi21 ganz gut vergleichen.
Hier das Pandant von Nvidia:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/So-emuliert-Nvidia-8-Milliarden-Transistoren-1153774/
"Die Programme, die wir auf einem emulierten Chip laufen lassen, verändern den Zustand von dessen virtuellen Transistoren", erklärt Narenda Konda. "Diese Zustandsänderungen lesen wir dann gleichzeitig aus. Das sind einige GByte an Daten, anhand derer wir vorhersagen können, wie schnell der Chip sein wird." Diese Vorhersagen sind in der Regel sehr akkurat: "Der fertige Chip weicht weniger als fünf Prozent von seiner emulierten Fassung ab."
Piefkee
2020-08-16, 01:17:18
Das sind Simulationen. Die Simulieren den Chip auf einem Server. Da kann man dann den Navi10 und den Navi21 ganz
Nicht in diesem Fall.
Auf die Folie mit den 50% perf/Watt beziehen sich auf eine RDNA Karte gegen eine RDNA2 Karte in einen Game. Also Realworld aber nur ein Spiel. Bin zu faul es raussuchen. Steht aber auf den footnotes auf der letzten Seite...
Sunrise
2020-08-16, 01:37:12
Nicht in diesem Fall.
Auf die Folie mit den 50% perf/Watt beziehen sich auf eine RDNA Karte gegen eine RDNA2 Karte in einen Game. Also Realworld aber nur ein Spiel. Bin zu faul es raussuchen. Steht aber auf den footnotes auf der letzten Seite...
Hier die Slides:
https://ir.amd.com/static-files/321c4810-ffe2-4d6c-863f-690464c033a9
Außer dem Hinweis, dass das von den AMD Performance Labs getestet wurde, einmal mit Division 2 und einmal mit Cinebench, steht da leider nichts.
Das wäre aber dennoch schonmal eindeutig besser, als eine stumpfe Behauptung...wahrscheinlich sind das Hochrechnungen, ansonsten würde man nicht "Schätzung" schreiben.
Linmoum
2020-08-16, 01:39:04
Ich bin mal so frei, footnote RX-325:
Testing done by AMD performance labs 6/1/19, using The Division 2 @ 25x14 Ultra settings. Performance may vary based on use of latest driver.
https://ir.amd.com/static-files/321c4810-ffe2-4d6c-863f-690464c033a9
Edit: ninja'd. :(
Piefkee
2020-08-16, 10:11:17
Ich bin mal so frei, footnote RX-325:
https://ir.amd.com/static-files/321c4810-ffe2-4d6c-863f-690464c033a9
Edit: ninja'd. :(
Interessant ist finde ich viel mehr der Zeitpunkt des Testes...unglaublich wie lange AMD Silikon hat bis zum Launch Q4 2020...
Complicated
2020-08-16, 10:36:06
unglaublich wie lange AMD Silikon hat bis zum Launch Q4 2020...
Hat Lisa da was machen lassen? Ist mir gar nicht aufgefallen ;)
Ich bin sicher du meintest Silizium ;D
unl34shed
2020-08-16, 10:36:18
Da steht doch ganz klar, weiß auf schwarz, "RDNA2 improvements based on AMD internal estimates". Also die 50% werden von AMD angenommen.
Linmoum
2020-08-16, 10:42:06
Die zitierte footnote, auf die AMD explizit zu Perf/Watt verweist, hast du aber auch gelesen?
unl34shed
2020-08-16, 10:59:29
Die Footnote, RX325, die auch auf Seite 8 genannt ist, wo es um GCN vs RDNA1 geht?
Die Footnoite, die auf Seite 8 in Verbindung mit RX362 genannt wird, wo eine Vega40 gegen eine Navi10 getestet wird?
Ja habe ich gelesen.
E:
Und auf allen Seiten, wo es um RDNA2 improvements geht steht "RDNA2 improvements based on AMD internal estimates"
Fragman
2020-08-16, 11:20:51
Die Footnote, RX325, die auch auf Seite 8 genannt ist, wo es um GCN vs RDNA1 geht?
Die Footnoite, die auf Seite 8 in Verbindung mit RX362 genannt wird, wo eine Vega40 gegen eine Navi10 getestet wird?
Ja habe ich gelesen.
E:
Und auf allen Seiten, wo es um RDNA2 improvements geht steht "RDNA2 improvements based on AMD internal estimates"
Dann sollte man an dem Punkt vorsichtiger sein und die 50% nicht als gegeben annehmen und in irgendwelche Performanceprojektionen reinrechnen. Oder das zumindest als Bestwert sehen und realistischerweise vielleicht mit 35 oder so rechnen?
Dann sollte man an dem Punkt vorsichtiger sein und die 50% nicht als gegeben annehmen und in irgendwelche Performanceprojektionen reinrechnen. Oder das zumindest als Bestwert sehen und realistischerweise vielleicht mit 35 oder so rechnen?
Getestet wurde doch wenigstens D2 in 1440p ultra. Hier scheinen die 50% wohl hinkommen. Je höher die Auflösung und je höher die GPU-Auslastung ist, dann werden es im Schnitt wohl eher derer mehr als 50% sein, imo.
BlacKi
2020-08-17, 12:40:56
kurze frage, ich will das nicht im ampere thread weiter diskutieren. aussage von amd, gcn vs rdna1 +50%p/w. warum zählt die radeon 7 nicht?
unl34shed
2020-08-17, 12:44:05
Weil man halt Vega10 mit 40CUs als Referenz genommen hat.
BlacKi
2020-08-17, 12:47:40
guter punkt. ich hoffe die leute merken was das im umkehrschluss bedeutet.
unl34shed
2020-08-17, 12:51:26
:confused: ja was denn?
Kommt jetzt irgendeine komische Verschwörungstheorie?
E:
Das ist ja jetzt nicht wirklich eine neue Erkenntnis, sondern war schon damals, als die slides raus kamen bekannt.
Die 50% werden dass soll-Ziel des Siliziums gewesen sein, ähnlich wie die 40% mehr IPC bei Zen vs. BD damals. Was da final bei herumkommt sehen wir dann. Ich glaube aber kaum, dass man darunter rauskommt. AMD macht solche Abschätzungen i.d.R. ja erst, wenn man auch den Chip schon in den Händen hält, nicht wie früher.
Complicated
2020-08-17, 12:58:23
Inwiefern würden diese 40CU etwas anderes ergeben als bei den 64 CUs - entscheidend ist eher welche Taktrate die Referenz hat. Wodurch die Verbesserungen entstehen sollen ist ja bekannt:
https://www.extremetech.com/wp-content/uploads/2020/07/AMD-RDNA2-Slide.jpg
IPC und Komplexitätsverbesserungen interessiert die Anzahl der CUs wenig.
Also, wie viel Taktverbesserung möglich ist entscheidet über die letztlichen Verbesserungen der Gesamteffizienz. Die CUs eher nicht.
BlacKi
2020-08-17, 13:02:48
das bedeutet im umgekehrschluss, dass das design ca 3-4x besser werden muss, als man zwischen gcn und rdna sehen konnte, weil der verbesserte prozess wegfällt und der betriebspunkt bei rdna schon besser liegt als bei v10.
zwischen einer r7 und einer 5700xt liegen knapp 16% p/w.
damit will ich sagen, amd braucht den kepler effekt und am besten gleich 2x^^
oder man regelt übers PT
robbitop
2020-08-17, 13:09:33
Einzelkarten zu vergleichen ist aufgrund der Streuung nicht wirklich sinnvoll. Wenn man das so tun wollte, müsste man relativ große Stichprobengrößen nutzen.
Auch müsste man gleiche Betriebspunkte vergleichen, um zu isolieren wie viel aus Prozess und uArch kommt.
Laut AMD kommt von den 50% nur ~25% (also 12,5%) vom Shrink.
https://www.igorslab.de/wp-content/uploads/2019/07/14.jpg
dildo4u
2020-08-17, 13:13:15
Inwiefern würden diese 40CU etwas anderes ergeben als bei den 64 CUs - entscheidend ist eher welche Taktrate die Referenz hat. Wodurch die Verbesserungen entstehen sollen ist ja bekannt:
https://www.extremetech.com/wp-content/uploads/2020/07/AMD-RDNA2-Slide.jpg
IPC und Komplexitätsverbesserungen interessiert die Anzahl der CUs wenig.
Also, wie viel Taktverbesserung möglich ist entscheidet über die letztlichen Verbesserungen der Gesamteffizienz. Die CUs eher nicht.
Ich frage mich was die dort messen Vega 56 zu 5700XT sind keine 50%+.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
dargo
2020-08-17, 13:20:25
Wie kommt jetzt eine V56 ins Spiel? :confused:
Der_Korken
2020-08-17, 13:21:23
das bedeutet im umgekehrschluss, dass das design ca 3-4x besser werden muss, als man zwischen gcn und rdna sehen konnte, weil der verbesserte prozess wegfällt und der betriebspunkt bei rdna schon besser liegt als bei v10.
zwischen einer r7 und einer 5700xt liegen knapp 16% p/w.
damit will ich sagen, amd braucht den kepler effekt und am besten gleich 2x^^
Wenn RDNA1 seine Effizienz fast ausschließlich über den Prozess bekommen hätte, würde das imho eher dafür sprechen, dass für RDNA2 mehr low-hanging fruits übrig sind, mit denen sich auf Architekturebene die Effizienz verbessern lässt. Man darf hier nicht dem Irrtum unterliegen zu sagen, wenn Firma X die letzten Gens immer +30% Effizeinz aus ihrer Architektur rausgeholt und Firma Y nur 10%, dann wird das auch in Zukunft immer so beibehalten. Es zeigt eher, dass Firma X vielleicht ein paar Jahre Vorsprung hat, aber je effizienter man schon ist, desto schwerer wird es noch effizienter zu werden. Irgendwann wird X in eine Wand rennen und kaum noch vorwärts kommen, sodass der Vorsprung schrumpft (aber eben nicht verschwindet, denn das was X so ausgebremst hat, muss Y sich auch erst erarbeiten).
Complicated
2020-08-17, 13:23:18
Weil du die Effizienz-Verbesserung 1:1 als Performanceverbesserung erwartest.
Hier hast du die Performance/W im selben Benchmark-Parcour gemessen:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt
Mit höheren Auflösungen als FullHD wird diese sogar noch besser.
BlacKi
2020-08-17, 13:35:25
Einzelkarten zu vergleichen ist aufgrund der Streuung nicht wirklich sinnvoll. Wenn man das so tun wollte, müsste man relativ große Stichprobengrößen nutzen.
Auch müsste man gleiche Betriebspunkte vergleichen, um zu isolieren wie viel aus Prozess und uArch kommt.
Laut AMD kommt von den 50% nur ~25% (also 12,5%) vom Shrink.
https://www.igorslab.de/wp-content/uploads/2019/07/14.jpg
und das glaubst du? hier im forum wurde gesagt, glofos 14nm wäre minimal schlechter als tsmcs 16nm von nv.
tsmc gibt an 55% lower power 7nm vs 16nm. hatten wird doch gerade im amp fred. und jetzt sinds 12% laut amd?
du siehst doch schon alleine die savings bei CB oben verlinkt. v20 vs v10 40% besseres P/W
6800XT
2020-08-17, 13:46:21
Kann man erahnen in welchem Preisgefüge die neuen Navi sein werden? Nicht das meine 329€ 5700XT die ich gerade erst gekauft habe mir auf die fresse fällt in 2 Monaten :D
BlacKi
2020-08-17, 13:49:46
Kann man erahnen in welchem Preisgefüge die neuen Navi sein werden? Nicht das meine 329€ 5700XT die ich gerade erst gekauft habe mir auf die fresse fällt in 2 Monaten :D
zuerst kommt big navi, der wird am preisgefüge im unteren segment nichts ändern, auch NV wird da nichts bringen.
ich rechne mit anfang nächstem jahr mit kleineren rdna2 karten die dann etwas auf die karten am unteren markt drücken werden.
[MK2]Mythos
2020-08-17, 13:51:25
Kann man erahnen in welchem Preisgefüge die neuen Navi sein werden? Nicht das meine 329€ 5700XT die ich gerade erst gekauft habe mir auf die fresse fällt in 2 Monaten :D
Wenn man kurz vor dem Generationswechsel, ohne dass vorbereitend darauf schon signifikant an der Preisschraube gedreht wurde, noch die alte Hardware kauft, sollte man sich nicht wundern wenn man nach ein bis zwei Monaten damit "auf die Fresse fällt".
Davon abgesehen sind 329 Euro für eine 5700XT natürlich ein guter Preis.
6800XT
2020-08-17, 14:09:39
also alles richtig gemacht mit dem sale ich kaufe keine karte über 350. soweit ich weis kommen ja nur karten zumindest ab 500 € und in einem halben jahr vielleicht die karten in diesem preisgefüge.
ja die 5500xt zwickt in 1440p in manchen games leider.
basix
2020-08-17, 14:14:50
Weil du die Effizienz-Verbesserung 1:1 als Performanceverbesserung erwartest.
Hier hast du die Performance/W im selben Benchmark-Parcour gemessen:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt
Mit höheren Auflösungen als FullHD wird diese sogar noch besser.
Und faktisch neutral bei Vega zu RDNA1. V56 vs. 5700 = +50% und V64 zu 5700XT = +62%, egal welche Auflösung.
horn 12
2020-08-17, 16:32:37
Big Navi XL Einsteigermodell zu 12 GB für 549 Euro
Big Navi 699/ 749 Euro
und die XTX AIO wohl 899 bis 999 Euro
So würde ich die AMD Preise erwarten.
Erste beide mit 16GB, das XL Modell zu 12 GB
Die Big Navi ohne AIO wird den doppelten Preis in etwa der 5700XT ausrufen bei ca. knapp doppelter Performance
und die AIO wird über 350 Watt liegen und nochmals knappe 15% draufpacken um Reichweite der 3090 zu erreichen!
dildo4u
2020-08-17, 18:45:58
Hinweis auf RDNA2 RT Performance?
https://live.staticflickr.com/65535/50237465696_82d1945b2a_b.jpg (https://flic.kr/p/2jxj9iE)yTqYSzDr3MGWc2QzhGR4CN-1920-80 (https://flic.kr/p/2jxj9iE) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://live.staticflickr.com/65535/50237470471_9613804e72_b.jpg (https://flic.kr/p/2jxjaHZ)SwAChQXS2JsgGPpGVJvekP-1920-80 (https://flic.kr/p/2jxjaHZ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.tomshardware.com/news/microsoft-xbox-series-x-architecture-deep-dive
Linmoum
2020-08-17, 19:08:53
Interessant, laut MS soll die XSX soviel Strom verbrauchen, wie die originale XBO. Und das, obwohl die RDNA2-GPU mal eben mit >1800MHz läuft...
https://cdn.mos.cms.futurecdn.net/w4NFnxWXdsDhUJNYpWMNYP-2560-80.jpg
Gipsel
2020-08-17, 19:12:07
Hinweis auf RDNA2 RT Performance?
https://live.staticflickr.com/65535/50237465696_82d1945b2a_b.jpg (https://flic.kr/p/2jxj9iE)yTqYSzDr3MGWc2QzhGR4CN-1920-80 (https://flic.kr/p/2jxj9iE) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf FlickrIst nichts Neues. Das war schon vorher bekannt. Was genau das in der Praxis heißt, muß man mal sehen.
dildo4u
2020-08-17, 19:12:45
Macht kein sinn da man dann das fette Kühlsystem nicht benötigen würde, außerdem wird der CPU Teil deutlich mehr fressen als die Jaguar Kerne.
Linmoum
2020-08-17, 19:13:53
Kann natürlich sein, dass MS damit nur die GPU selbst meint. Aber auch das wäre beeindruckend und ein Fingerzeig Richtung RDNA2.
Edit: rogame auf twitter
Yee
130W to 140W ish for 52CUs at 1.825GHz
That's insane
https://mobile.twitter.com/_rogame/status/1295411437423210496
:eek:
Das würde ja dazu passen, dass AMD den Takt mit RDNA2 massiv anheben konnte, wie ja schon die PS5 andeutet, und dass die 18xxMHz dann sogar nur inner-/unterhalb des Sweetspots liegen.
basix
2020-08-17, 19:52:59
130-140W für die GPU habe ich schon im Februar gesagt ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12228060&postcount=7665 :deal:
Linmoum
2020-08-17, 19:59:18
Angeber. :D
Wobei zu dem Zeitpunkt ja noch nicht klar war, wie viele CUs und bei welchem Takt. Aber wenn das verbrauchstechnisch tatsächlich so kommt, dann ist das schon beeindruckend und ich kann mir vorstellen, dass AMD für Big Navi den "Game Clock" auf die magische Grenze von 2GHz heben wird. Ist ja sogar noch mehr Luft nach oben, wenn man die PS5 sieht.
2.4GHz @Wasser anyone? :freak:
basix
2020-08-17, 20:27:34
Ist nichts Neues. Das war schon vorher bekannt. Was genau das in der Praxis heißt, muß man mal sehen.
3-10x Speedup liegt doch in etwa im Bereich von Turing vs. Pascal? 10 Gigarays einer 2080 Ti vs. 1.1 Gigarays einer 1080 Ti. In der Praxis sehen wir eher 1.5-3.5x Performance mit Ausnahme reiner Pathtracer wie Quake 2 RTX (ca. 5x):
https://www.golem.de/news/benchmarks-von-quake-2-rtx-spieglein-an-der-wand-im-raytracing-land-2001-145968.html
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Pascal-Raytracing-Benchmarks-1278592/
https://www.techspot.com/review/1831-ray-tracing-geforce-gtx-benchmarks/
Wenn es 3-10x Speedup in Games ist, wäre RDNA2 sogar deutlich überlegen ggü. Turing.
mboeller
2020-08-17, 20:29:22
das Die der XBsX ist ja 360mm² groß. Die 56(?) CU scheinen ca. 171mm² Fläche zu benötigen. Macht ca. 3,1mm pro CU incl. RT ...
Also 80CU dann 250mm². Die Fläche für GDDR6 kann man auch schön sehen. 32bit benötigen 5,7mm², eine 512bit Speicheranbindung wäre damit 91,2mm² groß
Also in Summe dann so 340mm², dazu kommen dann noch Command-Prozessor etc... Wenn ich mir das Die-Bild von der XBsX aber so anschaue, dann sind die anderen Sachen nicht wirklich groß.
Also 427mm² könnten hinkommen.
Piefkee
2020-08-17, 20:38:24
das Die der XBsX ist ja 360mm² groß. Die 56(?) CU scheinen ca. 171mm² Fläche zu benötigen. Macht ca. 3,1mm pro CU incl. RT ...
Also 80CU dann 250mm². Die Fläche für GDDR6 kann man auch schön sehen. 32bit benötigen 5,7mm², eine 512bit Speicheranbindung wäre damit 91,2mm² groß
Also in Summe dann so 340mm², dazu kommen dann noch Command-Prozessor etc... Wenn ich mir das Die-Bild von der XBsX aber so anschaue, dann sind die anderen Sachen nicht wirklich groß.
Also 427mm² könnten hinkommen.
Danke für die Rechnungen.
Wenn sich aber wirklich die PPT Gerüchte halten zu 240mm, 360mm und 505mm^2
Hat Big Navi mehr als 80CUs... da fehlen einfach mal 100mm^2
basix
2020-08-17, 20:38:52
Ich komme auf ca. 180mm2 für alles ausserhalb der CUs bei 512bit SI. Mit deinen 250mm2 für 80 CU ist man gefährlich nahe an 427mm2.
Danke für die Rechnungen.
Wenn sich aber wirklich die PPT Gerüchte halten zu 240mm, 360mm und 505mm^2
Hat Big Navi mehr als 80CUs... da fehlen einfach mal 100mm^2
120 CUs und HBM ;D Geht nach einer von mir manipulierten Rechnung und 4 HBM Stacks genau auf :)
Ist nichts Neues. Das war schon vorher bekannt. Was genau das in der Praxis heißt, muß man mal sehen.
Naja, über die Effizienz wurde lediglich gemutmaßt. Bei ner Konsole entscheident!
Piefkee
2020-08-17, 20:46:19
Ich komme auf ca. 180mm2 für alles ausserhalb der CUs bei 512bit SI. Mit deinen 250mm2 für 80 CU ist man gefährlich nahe an 427mm2.
120 CUs und HBM ;D Geht nach einer von mir manipulierten Rechnung und 4 HBM Stacks genau auf :)
Navi 10 soll ja laut Rogame einen Refresh bekommen.
Dann gibts Navi21,Naci22 und Navi23
Navi10 Refresh = 40CUs
Navi23 = 52 CUs ( 56 Full die)
Navi22 = 72 CUs ( 80 Full die)
Navi21 = 90 CUs (96 Full die)(würde theoretisch mit 300 W machbar sein da 52CUs in der XBX 140-150w brauchen)
Naja speku😂 wäre aber geiles lineup
basix
2020-08-17, 20:50:07
Navi 21 vs. 22 wäre irgendwie zu nahe beieinander, nicht?
Ich hätte eher so etwas wie 40, 64, 96 getippt oder 32, 52, 80. Dann macht ein Navi 10 Refresh aber keinen Sinn.
Navi 10 soll ja laut Rogame einen Refresh bekommen.
Dann gibts Navi21,Naci22 und Navi23
Navi10 Refresh = 40CUs
Navi23 = 52 CUs ( 56 Full die)
Navi22 = 72 CUs ( 80 Full die)
Navi21 = 90 CUs (96 Full die)(würde theoretisch mit 300 W machbar sein da 52CUs in der XBX 140-150w brauchen)
Naja speku😂 wäre aber geiles lineup
Macht Sinn :) Obwohl ich mir sicher bin, dass beide trixen werden. Zuerst die Amp Bench’s, dann Navi, dann nen optimierter Treiber und zu letzt ein Vbios-Update seitens AMD
Piefkee
2020-08-17, 20:53:52
Navi 21 vs. 22 wäre irgendwie zu nahe beieinander, nicht?
Ich hätte eher so etwas wie 40, 64, 96 getippt oder 32, 52, 80. Dann macht ein Navi 10 Refresh aber keinen Sinn.
Richtig ich dachte 80CU ist top dog.
Aber wie gesagt wenn es 3 Navi2x Dies gibt und der kleinste 260^2 hat aber es noch einen Navi10 Refesh gibt, macht es einfsch keinen Sinn. Die Chips liegen zu nah beisammen.
Könnte sein das Navi23 bei 50-56 CUs ist. Würde aber auch bedeuten das Navi23 mehr als 80CUs hat...
Berniyh
2020-08-17, 21:03:59
Navi 21 vs. 22 wäre irgendwie zu nahe beieinander, nicht?
Ich hätte eher so etwas wie 40, 64, 96 getippt oder 32, 52, 80. Dann macht ein Navi 10 Refresh aber keinen Sinn.
Mit dem Refresh ist wahrscheinlich nicht Navi 10 gemeint, sondern eher Navi 1x und davon wohl am ehesten Navi 14, damit man endlich mal Polaris beerdigen kann.
Ob ein Navi 10 Refresh kommt muss man sehen, kann es mir nicht so recht vorstellen.
Abgesehen davon, es wird wohl auch noch Navi 24 geben, wobei da auch nicht klar ist, wo der sich einordnet.
Und zu guter letzt steht ja immer noch als Option ein Apple-exklusiver Chip à la Navi 12 im Raum (angeblich Navi 22, aber evtl. ist es ja auch Navi 23 oder 24).
basix
2020-08-17, 21:08:49
Mit dem Refresh ist wahrscheinlich nicht Navi 10 gemeint, sondern eher Navi 1x und davon wohl am ehesten Navi 14, damit man endlich mal Polaris beerdigen kann.
Ob ein Navi 10 Refresh kommt muss man sehen, kann es mir nicht so recht vorstellen.
Das macht deutlich mehr Sinn.
Bezüglich RDNA2 und Anzahl CUs habe ich so ein Bauchgefühl, aber das behalte ich wohl lieber für mich. Sonst ist man wieder auf Hype Train Kurs :D
Piefkee
2020-08-17, 21:17:17
Mit dem Refresh ist wahrscheinlich nicht Navi 10 gemeint, sondern eher Navi 1x und davon wohl am ehesten Navi 14, damit man endlich mal Polaris beerdigen kann.
Ob ein Navi 10 Refresh kommt muss man sehen, kann es mir nicht so recht vorstellen.
Abgesehen davon, es wird wohl auch noch Navi 24 geben, wobei da auch nicht klar ist, wo der sich einordnet.
Und zu guter letzt steht ja immer noch als Option ein Apple-exklusiver Chip à la Navi 12 im Raum (angeblich Navi 22, aber evtl. ist es ja auch Navi 23 oder 24).
https://hardwareleaks.com/2020/05/23/exclusive-future-amd-gpu-stack-big-navi-navi10-refresh/
Naja Navi10 XTX+ ist schon eindeutig...
Berniyh
2020-08-17, 21:33:24
https://hardwareleaks.com/2020/05/23/exclusive-future-amd-gpu-stack-big-navi-navi10-refresh/
Naja Navi10 XTX+ ist schon eindeutig...
Ach das war das. Da würde ich mich nicht zu sehr drauf versteifen.
Edit: übrigens ist 731F eine Navi 10 PCI ID, nicht Navi 2x.
Navi 2x ist angeblich 737x, 73Ax und 73Bx.
Piefkee
2020-08-17, 22:23:46
Ach das war das. Da würde ich mich nicht zu sehr drauf versteifen.
Edit: übrigens ist 731F eine Navi 10 PCI ID, nicht Navi 2x.
Navi 2x ist angeblich 737x, 73Ax und 73Bx.
Natürlich ist das eine Navi 10 PCI Id weil es eben ein reiner Refresh ist also RDNA1 und nicht RDNA2.
Darum ist es ja für mich so absurd? Navi10 Refresh für den Navi14 replacement?
Wenn es wirklich den Refresh gibt dann heißt es für mich das alle 3 (4) Navi2x Karten auch Performance mäßig über Navi10 sind. Sonst macht das keinen Sinn.
Piefkee
2020-08-17, 22:25:48
Neues Linup könnte dann sowas sein.
6500XT ( Navi10 Refresh)
6700XT ( Navi 23)
6800XT ( Navi 22)
6900XT (Navi 21)
Berniyh
2020-08-17, 22:30:21
Natürlich ist das eine Navi 10 PCI Id weil es eben ein reiner Refresh ist also RDNA1 und nicht RDNA2.
Darum ist es ja für mich so absurd? Navi10 Refresh für den Navi14 replacement?
Wenn es wirklich den Refresh gibt dann heißt es für mich das alle 3 (4) Navi2x Karten auch Performance mäßig über Navi10 sind. Sonst macht das keinen Sinn.
Ich meinte damit, dass er auch bei Navi 2x 731F als PCI ID angibt und das ist halt einfach Quatsch.
Generell fand ich dieses Gerücht nicht sonderlich überzeugend (hab mich auch damals schon so geäußert).
Die Namen hätte ich mir auch ausm A**** ziehen können auf Basis der aktuellen Produkte, die PCI IDs waren Quatsch und der Rest war einfach nur zusammengewürfelt das was damals schon so an Leaks zu Navi 2x rumgeisterte.
Das einzig wirklich "neue" daran war eben dieser Navi 10 Refresh, aber das ist – wie du ja selbst schreibst – irgendwie nicht so richtig nachvollziehbar, zumindest nicht, wenn AMD mit mindestens drei Navi 2x Chips für den Consumerbereich plant (und nicht nur mit 2 wie bei Navi 1x).
Naja, schaun mer mal. Ich würde mich jedenfalls nicht zu sehr auf diese Geschichte mit dem Navi 10 Refresh versteifen.
Und zu einem Refresh von Navi 14 haben wir bislang glaube ich noch überhaupt nichts gelesen. Wobei das evtl. auch nicht zu erwarten ist, zumindest nicht in absehbarer Zeit. Würde ja vermutlich frühestens in einem 3/4 Jahr aufschlagen.
Lisa Su hat zumindest einmal selbst gesagt:
"In 2019, we launched our new architecture in GPUs, it's the RDNA architecture, and that was the Navi based products. You should expect that those will be refreshed in 2020 - and we'll have a next generation RDNA architecture that will be part of our 2020 lineup."
Das war Anfang des Jahres. Klingt als werde alles gerefresht.
basix
2020-08-17, 22:45:29
Kann ja folgendes sein: Big Navi dieses Jahr + RDNA1 Refreshes (N10, N14). Rest der RDNA2-Riege erst nächstes Jahr. Wäre aber irgendwie ungünstig, das Mittelfeld ohne Raytracing im Markt zu haben. Vor allem weil die Konsolen Ende Jahr kommen.
Berniyh
2020-08-17, 22:48:38
Lisa Su hat zumindest einmal selbst gesagt:
"In 2019, we launched our new architecture in GPUs, it's the RDNA architecture, and that was the Navi based products. You should expect that those will be refreshed in 2020 - and we'll have a next generation RDNA architecture that will be part of our 2020 lineup."
Das war Anfang des Jahres. Klingt als werde alles gerefresht.
Ja, kann man auf jeden Fall so interpretieren, es lässt aber auch Spielraum für andere Interpretationen, insbesondere muss sich "refresh" hier nicht auf das beziehen was wir hier unter einem Refresh verstehen (also Neuauflage eines Chips in neuerer Fertigungstechnologie), sondern kann auch einfach meinen, dass man das Lineup "refreshed", d.h. neue Produkte die die alten ersetzen.
Ist halt ein mehrfach verwendbares Wort.
Dazu kommt, dass 2020 nicht mehr soooo lange geht und viele Anzeichen für einen Navi 1x Refresh in 2020 gibt es bislang nicht.
Und es stellt sich eben noch die Frage was man mit einem Navi 10 Refresh will, wenn mutmaßlich Navi23 schon in etwa die Performance liefern würde.
Günstiger in der Produktion wird der Navi 10 Refresh wohl eher auch nicht sein, da vermutlich ähnliche Chipgröße.
Linmoum
2020-08-17, 22:55:10
Die Diskussion um die Aussage gab es damals schon. Die fiel im Earnings Call gegenüber Analysten/Investoren, in diesem Kontext ist nie einfach nur "Refresh" gemeint, wie wir es z.B. mit Hawaii -> Grenada verstehen.
/Locutus oB
2020-08-17, 23:51:15
Ich glaube nicht das AMD noch irgendeinen refresh ohne RayTracing bringt. NV baut alles mit RT und AMD selbst baut die Konsolen ja schließlich auch mit RT. Da macht ein refresh von Chips ohne RT doch überhaupt keinen Sinn und Frau Lisa Su hat doch bei den CPU´s schon bewiesen...
BlacKi
2020-08-18, 00:47:50
130-140W für die GPU habe ich schon im Februar gesagt ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12228060&postcount=7665 :deal:
wenn die 140w nur für die gpu stehen, dann liegen 80cu bei 215w @ 1,8 ghz. mit dem 512bit si, den 16gb ram und den wandlerverlusten bei gut 300w.
Rampage 2
2020-08-18, 01:04:58
Für mich steht jedenfalls fest, dass BigNavi (N2X-Topdog) entweder mit 512Bit GDDR6 oder HBM2(e) kommt - ich bin mir sehr sicher, dass das Topmodell mehr als 12GB Grafikspeicher, also mindestens 16GB VRAM haben wird.
Wie auch HOT, bin nunmehr auch ich eher der Meinung, dass AMD nicht den Nvidia-Weg (384Bit + Hochtakt-GDDR) gehen wird, sondern lieber ein breiteres Interface dafür aber mit deutlich niedrigeren GDDR6-Taktraten (14-16GT) oder stattdessen 2 Stacks HBM2e-Speicher mit 3.2-3.6GT einsetzt - dadurch entfällt auch das Problem der unnötigen (weil etwas übertrieben für die nächsten 1-2 Jahre) Verdopplung des Speicherausbaus auf 24GB, weil 12GB nicht genug gewesen wären...
R2
Leonidas
2020-08-18, 04:12:18
https://hardwareleaks.com/2020/05/23/exclusive-future-amd-gpu-stack-big-navi-navi10-refresh/
Naja Navi10 XTX+ ist schon eindeutig...
Sehe ich nicht so. Alles, was unter "Navi 10" läuft, ist kein Refresh auf Chip-Ebene. Der hätte dann einen eigenen, neuen Codenamen. Das hier ist maximal ein besseres Stepping oder nur eine Ausnutzung der inzwischen besseren Fertigung. Das ist ein Refresh auf Karten-Ebene - aber keiner auf Chip-Ebene.
LasterCluster
2020-08-18, 11:27:44
Das hier ist maximal ein besseres Stepping oder nur eine Ausnutzung der inzwischen besseren Fertigung. Das ist ein Refresh auf Karten-Ebene - aber keiner auf Chip-Ebene.
Matisse 2.0 lässt grüßen. Mit so etwas kann man auch mal paar Monate überbrücken bis N23 erscheint.
Der wird mMn auch nicht refresht, die Preise der Karten gehen halt etwas nach unten. Aber ich bin davon überzeugt, dass N10 nächstes Jahr durch ein N2x-Derivat ersetzt wird. Einen RX6k auf Basis von N10 sehen wir sicher nicht.
Akkarin
2020-08-18, 11:41:15
Eigentlich sind 3 Chips für RDNA2 halt viel zu wenig, gebraucht werden langfristig eher 6+. Sonst hat das Portfolio einfach zu viele löcher und/oder das Featureset und perf/$ sowie perf/W stimmen nicht.
Klar, die letzten Jahre war das Budget knapp und man konnte nicht wie früher (oder wie nVidia) regelmäßig das gesamte Lineup mit der neuen µArch refreshen. Aber wenn man den Anspruch hat wieder auf 50% Marktanteil zu kommen dann wird das einfach gebraucht, gerade auch weil das bisherige Portfolio so viele Schwächen hat.
Es gibt 4 plus N31, welcher schon RDNA3 ist. 4 reicht für ein komplettes Lineup. Es wird bei AMD eh keine neue GPU mehr geben, die sich auf dem Niveu der APUs/Tiger Lake bewegen wird, also ist N14 schon das kleinste was geht. Alles darüber wird eben RDNA2 werden.
dargo
2020-08-18, 11:42:58
Ich glaube nicht das AMD noch irgendeinen refresh ohne RayTracing bringt. NV baut alles mit RT und AMD selbst baut die Konsolen ja schließlich auch mit RT.
Du kennst schon das komplette Lineup von Ampere? TU117 und TU116 haben jedenfalls kein RT.
Der_Korken
2020-08-18, 11:50:26
EIn N10-Refresh ergibt für mich wenig Sinn, denn wenn die RDNA2-Chips mit 50% besserer Effizienz kommen, dann würde N10 wahrscheinlich mehr verbrauchen als der nächstgrößere Chip. Zumal "Refresh" bei AMD bisher immer bedeutete, dass man Verbrauch und Takt hochprügelt. Siehe RX580, die kaum 10% schneller als eine 160W-Refrenz-RX480 war, dafür aber teilweise 230W+ verbraucht hat.
Eigentlich sind 3 Chips für RDNA2 halt viel zu wenig, gebraucht werden langfristig eher 6+. Sonst hat das Portfolio einfach zu viele löcher und/oder das Featureset und perf/$ sowie perf/W stimmen nicht.
So wenig sind 3 Chips nicht. Dass Intel und Nvidia als Klassenkrösus für jede Config nochmal einen extra Chip auflegen, heißt nicht dass das nicht auch anders geht. Wenn die Chips 60% bei der Performance auseinanderliegen und man jeweils einen Salvage mit ~80% der Leistung des vollen Chips bringt, hat man einen Bereich von Faktor 3 abgedeckt und überall wengier als 30% Leistungsunterschied zwischen den Chips. Man muss nicht in 20€-Schritten jeweils ein weiteres Modell anbieten können. Wenn die Produkte gut sind, reichen auch wenige aus (vlg. Zen 2 vs den Modell-Zoo von Comet Lake z.B.).
https://www.computerbase.de/2020-08/xbox-series-x-hot-chips/
Microsoft hat sich zum Prozess geäußert und gibt an, dass AMD und TSMC offenbar einen modifizierten N7-Prozess für die AMD-Produkte nutzen. Vielleicht ist man mit der Frage N7P oder N7+ auch auf dem Holzweg, sodass hier eigentlich eher eine Art N7"A" verwendet wird (analog zum N12FFN von NV damals). Microsoft nennt das N7e. Das würde i.Ü. auch zum Gerücht passen, dass sich AMD auch 5nm customisiert hat bei TSMC. Dann würde sämtliche Produkte in diesen Prozessen gefertigt werden auf absehbare Zeit.
In dem Link sind i.Ü. noch ein paar interessante Infos und Blockschaltbilder für RDNA2 enthalten ;).
/Locutus oB
2020-08-18, 12:01:42
Du kennst schon das komplette Lineup von Ampere? TU117 und TU116 haben jedenfalls kein RT.
ja ok schlecht formuliert von mir. aber ich glaube nicht das AMD für die Zukunft alte chips neu auflegt da sie ja die Konsolen chips auch bauen und das könnten sie Marketing technisch viel besser nutzen um "moderne" karten zu verkaufen.
Akkarin
2020-08-18, 12:04:00
4 RDNA2 Chips ? Bisher dachte ich es sind nur N21/22/23 bekannt.
Und klar, man kann sich irgendwie auch mit weniger Chips durchmogeln. Aber dann leided das Portfolio doch drunter. NVidia benutzt zZ 7 Chips, zur GCN 1/2 gen benutze AMD zwischenzeitlich sogar mal 8. Im Mobile Bereich braucht man allein aufgrund der VRAM Anbindung kleine Chips, auch APUs können hier einfach nicht richtig konkurieren. 6 Chips ist da eigentlich schon eher konservativ gerechnet.
LasterCluster
2020-08-18, 12:08:13
4 RDNA2 Chips ? Bisher dachte ich es sind nur N21/22/23 bekannt.
Und klar, man kann sich irgendwie auch mit weniger Chips durchmogeln. Aber dann leided das Portfolio doch drunter. NVidia benutzt zZ 7 Chips, zur GCN 1/2 gen benutze AMD zwischenzeitlich sogar mal 8. Im Mobile Bereich braucht man allein aufgrund der VRAM Anbindung kleine Chips, auch APUs können hier einfach nicht richtig konkurieren. 6 Chips ist da eigentlich schon eher konservativ gerechnet.
Soll auch einen N24 geben
reaperrr
2020-08-18, 12:16:56
EIn N10-Refresh ergibt für mich wenig Sinn, denn wenn die RDNA2-Chips mit 50% besserer Effizienz kommen, dann würde N10 wahrscheinlich mehr verbrauchen als der nächstgrößere Chip.
Eher genauso viel, AMD wird die Effizienz bei N2x hauptsächlich in mehr CUs und mehr Takt stecken.
Einen solchen TDP-Anstieg wie bei der 580 würde ich auch nicht erwarten, eher wird der XT-Refresh nur ein kleines Update auf AnniEd-Taktraten und beim 5700-non-XT-Refresh geht halt die TDP um 20 auf ~200 hoch und der Takt steigt auf etwas unter 5700XT-Taktraten.
Außerdem ist die Frage, wann N22-24 überhaupt erscheinen. AMD hat nicht die Ressourcen von NV, das kann schon noch 6-10 Monate dauern, bis alle N2x draußen sind.
Der richtige RDNA2-Ersatz für N10, der ~gleiche Perf mit weniger Fläche/TDP erreicht, kommt wahrscheinlich erst im Frühjahr/Sommer 2021.
LasterCluster
2020-08-18, 12:23:12
Außerdem ist die Frage, wann N22-24 überhaupt erscheinen. AMD hat nicht die Ressourcen von NV, das kann schon noch 6-10 Monate dauern, bis alle N2x draußen sind.
Der richtige RDNA2-Ersatz für N10, der ~gleiche Perf mit weniger Fläche/TDP erreicht, kommt wahrscheinlich erst im Frühjahr/Sommer 2021.
Exakt. Vielleicht gibt es einfach die ominösen N7"e" Verbesserungen für N10 und das wars dann auch schon.
Berniyh
2020-08-18, 12:46:32
Matisse 2.0 lässt grüßen. Mit so etwas kann man auch mal paar Monate überbrücken bis N23 erscheint.
Eher Matisse 1.0.0.1 abbab.
Berniyh
2020-08-18, 12:52:19
Außerdem ist die Frage, wann N22-24 überhaupt erscheinen.
Navy Flounders (Navi 22) wird genauso wie Sienna Cichlid (Navi 21) bereits in Linux 5.9 (ETA: ca. 6-8 Wochen) berücksichtigt, d.h. ich würde nicht erwarten, dass Navy Flounders zu lange nach Sienna Cichlid veröffentlicht wird.
Wobei ja bei Navi 22 noch das Gerücht im Raum steht es könnte sich um einen Apple-exklusiven Chip handeln.
Complicated
2020-08-18, 13:01:25
Gar nicht so blöd, da Nvidia dazu neigt mit Ihren Top-Modellen zuerst in den Markt zu gehen bedient man alle die unter 399,-$ ausgeben wollen zu dem Zeitpunkt schon mit einem Refresh. Cleveres Marketing, da die großen ja wohl zum Konsolen Release erst kommen. OEM-Service.
Das mit Apple ist Blödsinn. Apple baut für die nächste Generation eigene CPUs und GPUs.
Leonidas
2020-08-18, 13:30:49
Du kennst schon das komplette Lineup von Ampere? TU117 und TU116 haben jedenfalls kein RT.
Laut den Gerüchten ist Ampere bis hinunter zu GA107 voll RTX.
Screemer
2020-08-18, 13:32:48
Das mit Apple ist Blödsinn. Apple baut für die nächste Generation eigene CPUs und GPUs.
Kannst du vergessen, dass die nächsten iMac pros MacBook pros mit arm CPUs kommen. Das dauert noch mind. 1+. Wenn man sich die Produktzyklen bei Apple HW so ansieht eher länger.
ChaosTM
2020-08-18, 13:33:19
Laut den Gerüchten ist Ampere bis hinunter zu GA107 voll RTX.
It just works ..
Dural
2020-08-18, 13:47:51
RT über die TMUs lol
Schon vor zwei jahren habe ich gesagt das AMD min. 4 Jahre für eine richtige Hardware RT Lösung brauchen wird.
Wer (nutzbar) RT haben möchte wird um eine Ampere Karte nicht herumkommen.
unl34shed
2020-08-18, 13:53:14
Dann erzähl doch mal, warum das so schlecht sein soll bzw dedizierte RT Corese besser sein sollen.
Auf die Erklärung bin ich sehr gespannt.
Linmoum
2020-08-18, 14:19:23
RT über die TMUs lol
Schon vor zwei jahren habe ich gesagt das AMD min. 4 Jahre für eine richtige Hardware RT Lösung brauchen wird.
Wer (nutzbar) RT haben möchte wird um eine Ampere Karte nicht herumkommen."Raytracing" bei Nvidia läuft nicht über die RT-Kerne, sondern über die SM. Der Unterschied liegt darin, dass die BVH-Abfrage bei Nvidia über die RT-Kerne läuft, bei AMD hingegen über die TMU.
Textur-Anfrage und BVH-Anfrage zum selben Zeitpunkt sind allerdings extrem unwahrscheinlich, weswegen der Nachteil, auf den du wohl hinauswolltest, theoretischer Natur ist.
Leonidas
2020-08-18, 14:33:04
Bei so was entscheidet die Praxis. Theoretisieren, warum der eine oder andere gewonnen hat, kann man danach. Vorher ist es Kaffeesatzleserei.
Der Unterschied liegt darin, dass die BVH-Abfrage bei Nvidia über die RT-Kerne läuft, bei AMD hingegen über die TMU.
Gibt es da inzwischen eine konkrete Aussage von AMD dazu? Bisher hab ich nur Intersection Tests in der TMU gesehen. FF-Traversal ohne Shader wie bei Nvidia wäre echt nett.
edit: Ach Microsoft hat auf der HotChip BVH Traversal explizit in den Shadern verortet. Das ist weniger prickelnd.
horn 12
2020-08-18, 15:01:24
So Hohe Preise nahm AMD nie bis dato
und man weiss wo NV diesmal schwächelt und fährt ihnen mitten in die Parade hinein.
Die 549 Euro Karte wird bereits knapp RTX 2080TI Performance haben mit mind. 12 GB Speicher
die 749 Karte knappe 25% drauflegen und die 899/949 Karte dazu nochmals +15%.
Die RTX Leistung ist derzeit schon über RTX 2080TI Performance mit gut möglicher Steigerung.
Cyberfries
2020-08-18, 15:09:24
Zumal "Refresh" bei AMD bisher immer bedeutete, dass man Verbrauch und Takt hochprügelt.
Nicht bei Bonaire/Tobago.
Die R7 360 gabs nur als stromsparende Salvage-Lösung.
Das halte ich auch für eine denkbare 6600 als 5600/5700-Nachfolgerin für wahrscheinlich.
Danke für die Rechnungen.
Wenn sich aber wirklich die PPT Gerüchte halten zu 240mm, 360mm und 505mm^2
Hat Big Navi mehr als 80CUs... da fehlen einfach mal 100mm^2
Die 505mm² werden doch derzeit eher Arcturus zugeordnet.
Mehr als 80CUs sind doch ziemlich unwahrscheinlich und passen auch zu gut zu den ebenfalls gemutmaßten 427mm².
Das mit Apple ist Blödsinn. Apple baut für die nächste Generation eigene CPUs und GPUs.
Bis Apple alle Geräte mit eigenen Chips ausstattet fließt noch einiges an Wasser den Rhein runter.
Mac Pro und iMac wurden ja bereits erwähnt.
Ein vollständiges Portfolio lässt sich auch bereits mit zwei neuen Chips aufbauen:
80CUs als 6900 X (N21)
72CUs als 6900 (N21)
52CUs als 6700 X (N23)
44CUs als 6700 (N23)
36CUs als 6600 (N10refresh)
24CUs als 6500 X (N14refresh)
20CUs als 6500 (N14refresh)
Der Desktop wäre damit vollständig abgesteckt, nur für Notebooks ist noch eine Lücke vorhanden.
Berniyh
2020-08-18, 15:15:05
Ein vollständiges Portfolio lässt sich auch bereits mit zwei neuen Chips aufbauen:
Und die anderen beiden Chips (Navi 22 und 24)?
Ein Apple-exclusive mag ich ja glauben, zwei eher nicht.
Von den Chips ist kein einziger Apple-Exklusiv. Vielleicht kaufen die für Macpro auch wieder N22 oder 21 ein, so bisher ja auch, aber exklsiv wird N12 der letzte Chip sein auf absehbare Zeit, denn der ist ja grade neu und V12, dessen Vorgänger, kann man jetzt nicht als Erfolgsmodell werten und der ist auch schon 2 Jahre alt. Tonga beispielsweise war ja auch nicht exklusiv, nur die voll aktivierten. Es gab nur V12 und N12 für Apple und eben P22 für Intel exklusiv. Ich denke, dass das ganze Konzept gescheitert ist. Apple wird sich exklusive Karten mit Standardchips bauen lassen für N2x, das wars dann aber auch. Dass von den 4 Chips irgendwas exklusiv ist, ist extrem unwahrscheinlich. Ich denke, es wird einfach das komplette Lineup sein, um alle bisherigen Chips zu ersetzen. Noch mal 50% mehr perf/w, das lohnt sich jetzt einfach am meisten.
https://www.techpowerup.com/269508/apple-to-develop-the-metal-family-of-gpus-dump-amd-radeon
Complicated
2020-08-18, 15:16:49
Und warum sollte das so sein?
Edit:
Nach deiner Änderung ist es noch verwirrender, da du dir selber widersprichst:
Von den Chips ist kein einziger Apple-Exklusiv.
Apple wird sich exklusive Karten mit Standardchips bauen lassen für N2x, das wars dann aber auch.
Was jetzt?
Und dass das Konzept gescheitert ist, setzt zunächst mal eine Apple GPU voraus, die das kompensieren kann - die ist noch nicht mal als Tapeout vorhanden.
Ich denke du greifst hier zu weit voraus bei Apple. Das wird vielleicht irgendwann RDNA3 GPUs betreffen.
Cyberfries
2020-08-18, 15:18:58
Und die anderen beiden Chips (Navi 22 und 24)?
Ein Apple-exclusive mag ich ja glauben, zwei eher nicht.
Ich hab an anderer Stelle schonmal geschrieben, dass ich nicht an Navi 24 glaube.
Das halte ich für eine Ente, da passt einfach der Zeitrahmen nicht.
mironicus
2020-08-18, 15:21:58
Da Apple bald wegfällt als AMD-Kunde, gibt es dann hoffentlich mehr Kapazitäten für den PC-Markt.
Ich hab an anderer Stelle schonmal geschrieben, dass ich nicht an Navi 24 glaube.
Das halte ich für eine Ente, da passt einfach der Zeitrahmen nicht.
Nene, das ist absolut wahrscheinlich. Die kleineren Produkte kommen ja gestaffelt und N24 als N14-Nachfolger wird denke ich im 2.HJ 21 dann erscheinen.
Leonidas
2020-08-18, 15:27:10
Dass von den 4 Chips irgendwas exklusiv ist, ist extrem unwahrscheinlich.
Das denke ich mittlerweise auch nicht mehr. Navi 12 war die Ausnahme, ab sofort braucht AMD jeden einzelnen Chip, denn sie wollen ein komplettes RDN2-Portfolio aufbieten. Dazu kommen vier Chips gerade recht, darunter machen es dann die Reste von Navi 14. Selbst drei würden knapp reichen, wenn man Navi 14 einbezieht.
Troyan
2020-08-18, 15:28:33
"Raytracing" bei Nvidia läuft nicht über die RT-Kerne, sondern über die SM. Der Unterschied liegt darin, dass die BVH-Abfrage bei Nvidia über die RT-Kerne läuft, bei AMD hingegen über die TMU.
Textur-Anfrage und BVH-Anfrage zum selben Zeitpunkt sind allerdings extrem unwahrscheinlich, weswegen der Nachteil, auf den du wohl hinauswolltest, theoretischer Natur ist.
Nein. TMUs und RTA benutzen bei AMD die selben Datenpfade, sind jedoch getrennte Einheiten. Und der RTA unterstützt nur Intersection-Tests. Das Durchlaufen des BVHs wird bei AMD über die Recheneinheiten gemacht.
Berniyh
2020-08-18, 15:34:41
Ich hab an anderer Stelle schonmal geschrieben, dass ich nicht an Navi 24 glaube.
Das halte ich für eine Ente, da passt einfach der Zeitrahmen nicht.
Die Info stammt von Komachi und der hat bei solchen Dingen eine ziemlich hohe Trefferquote.
Das denke ich mittlerweise auch nicht mehr. Navi 12 war die Ausnahme, ab sofort braucht AMD jeden einzelnen Chip, denn sie wollen ein komplettes RDN2-Portfolio aufbieten. Dazu kommen vier Chips gerade recht, darunter machen es dann die Reste von Navi 14. Selbst drei würden knapp reichen, wenn man Navi 14 einbezieht.
N14 ist einfach zu schlecht und zu groß und nicht im Ansatz konkurrenzfähig. Grade der Chip muss ersetzt werden. Aber sowohl N10 als auch N14 werden eh erst 2021 ersetzt, das passt also gut.
N21 (16/32GB) -> 80CUs -> kein Vorgänger
N22 (12/24GB) -> ~60CUs -> kein Vorgänger
N23 (8/16GB) -> ~40CUs -> N10 (1.HJ 21)
N24 (8GB) -> ~20CUs -> N14 (2.HJ 21)
Dino-Fossil
2020-08-18, 15:55:34
Ist er denn so schlecht?
Immerhin ein 24CU 22CU RDNA1 Chip, der die Performance eines 36CU GCN-Chips erreicht und dabei noch weniger Leistungsaufnahme hat. Eigentlich doch ganz ok.
Das Problem ist eher, dass er preislich völlig unattraktriv ist und in dem Marktsegment schon sehr viel los ist, v.a. in Form von Konkurrenz aus dem eigenen Haus.
Aber nimm Polaris aus dem Programm und N14 macht einen netten Abschluss nach unten.
Unter der Annahme, dass die Fertigung eine gewisse notwendige Preissenkung erlaubt ist er dann auch preislich brauchbar.
Leonidas
2020-08-18, 15:56:07
N14 ... Grade der Chip muss ersetzt werden.
Denkbar. Aber wir wissen leider noch nicht über die gedachte Skalierung von Navi 2X außerhalb von Navi 21.
Kimi2003
2020-08-18, 16:09:48
So Hohe Preise nahm AMD nie bis dato
und man weiss wo NV diesmal schwächelt und fährt ihnen mitten in die Parade hinein.
Die 549 Euro Karte wird bereits knapp RTX 2080TI Performance haben mit mind. 12 GB Speicher
die 749 Karte knappe 25% drauflegen und die 899/949 Karte dazu nochmals +15%.
Die RTX Leistung ist derzeit schon über RTX 2080TI Performance mit gut möglicher Steigerung.
Ich bete, das du recht hast :)
749€ für +20% Mehrleistung zur 2080ti klingt sehr verlockend!
Allerdings traue ich der ganzen Sache nicht wirklich. Anders herum, warum sollte nun alles wieder eine Etage teurer werden?! Hin und her ...;D
Berniyh
2020-08-18, 16:19:51
N14 ist einfach zu schlecht
Begründung?
Eigentlich ist das doch nur ein grob halbierter Navi 10. Warum soll der jetzt aus technischer Sicht so viel schlechter als Navi 10 sein?
Das Problem von Navi 14 ist wohl eher, dass er zu teuer in der Herstellung ist (oder die Kapazitäten nicht ausreichen oder irgendwas in der Art) und sich daher nicht günstig genug verkaufen lässt.
Inwiefern willst du jetzt am Design etwas verändern, dass sich das ändert?
Angesichts ger Größe des XBox-Chips, welcher ja 56CUs auf 360mm² mit 8 CPU-Kernen und etwa I/O verwurstet und den durch Gerüchten bekannten Chip-Größen ~200 - ~350 - ~430mm² vergleicht, müssten die 430mm² ungefähr für 80CUs gut hinkommen. Der 350mm²-Chip hätte dann 64CUs. Bei 200mm² würde ich sagen, hat der Chip (N23) eher 32CUs und den kleinsten würde ich auf 120mm² schätzen mit 20CUs. Leider passt das eigentlich nur zusammen, wenn der Große HBM hat, da man sonst die geringe Differenz von nur 16CUs schlecht verstehen kann. Allerdings ist TU106 vs. TU104 ne ähnliche Nummer.
Berniyh
guck dir Perf/W ggü. Turing an, das ist einfach Mist. Gegen GA107 kannste das mit großer Sicherheit einfach in die Tonne treten.
davidzo
2020-08-18, 16:30:51
"Raytracing" bei Nvidia läuft nicht über die RT-Kerne, sondern über die SM. Der Unterschied liegt darin, dass die BVH-Abfrage bei Nvidia über die RT-Kerne läuft, bei AMD hingegen über die TMU.
Textur-Anfrage und BVH-Anfrage zum selben Zeitpunkt sind allerdings extrem unwahrscheinlich, weswegen der Nachteil, auf den du wohl hinauswolltest, theoretischer Natur ist.
Bei RDNA1 hat AMD ja schon die TMUs aufgebohrt indem sie direkt an den L1 angebunden sind und pro Takt doppelt soviele adressen und dwords verarbeiten können. War das vielleicht schon eine Verbesserung mit Hinblick auf die neue Zusatzaufgabe der TMUs in RDNA2?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71154&stc=1&d=1597761044
Dino-Fossil
2020-08-18, 16:34:35
@Hot
Weil er mal wieder zu hoch getaktet wurde um ihn ggü Polaris und nVidia überhaupt sinnvoll platzieren zu können.
Zumal die 5500XT mit 8GB Speicher kommt, der ebenfalls ein wenig Leistung verbrät.
Aber, rein hypothetisch - mit den vollen 24CUs, minimal niedriger getaktet und mit den üblichen Fertigungsverbesserungen und schon hast du einen deutlich effizienteren Chip. Ohne Polaris im Portfolio und zu einem angemessenen Preis völlig in Ordnung.
AMD wird es sich vermutlich zweimal überlegen, ob sie in dem dann eher niedrigen Marktsegment so schnell einen weiteren Chip auflegen.
Also das Ding soll ja auch ins Notebook und hier reicht das nicht. AMD wird die 50% Perf/W grade hier auf keinen Fall liegen lassen, der Chip muss ersetzt werden, den Vorteil braucht man definitiv. Der Gegner ist GA107, warum vergisst man das immer? Als kleiner Desktop-Chip spielt das Design keine Rolle, oder besser, der Desktop wird bei der Entwicklung dieses Chips keine Rolle spielen, sondern mobil. Und grade die neue Mobilstrategie benötigt so einen Chip.
BlacKi
2020-08-18, 16:39:57
Angesichts ger Größe des XBox-Chips, welcher ja 56CUs auf 360mm² mit 8 CPU-Kernen und etwa I/O verwurstet und den durch Gerüchten bekannten Chip-Größen ~200 - ~350 - ~430mm² vergleicht, müssten die 430mm² ungefähr für 80CUs gut hinkommen. Der 350mm²-Chip hätte dann 64CUs. Bei 200mm² würde ich sagen, hat der Chip (N23) eher 32CUs und den kleinsten würde ich auf 120mm² schätzen mit 20CUs. Leider passt das eigentlich nur zusammen, wenn der Große HBM hat, da man sonst die geringe Differenz von nur 16CUs schlecht verstehen kann. Allerdings ist TU106 vs. TU104 ne ähnliche Nummer.
Berniyh
guck dir Perf/W ggü. Turing an, das ist einfach Mist. Gegen GA107 kannste das mit großer Sicherheit einfach in die Tonne treten.
also wenn du chipfläche verrechnen willst, sollstes du nicht den salvage chip nehmen mit 56 cu. die xbox hat 4 deaktivierte cu von 60, der full chip big navi nicht soweit ich weiß.
stinki
2020-08-18, 16:41:13
Ich hoffe ja immer noch auf einen Vega 2x in N5 für Laptops/Mobile für nächstes Jahr, wie damals die RV740 in 40nm ...
also wenn du chipfläche verrechnen willst, sollstes du nicht den salvage chip nehmen mit 56 cu. die xbox hat 4 deaktivierte cu von 60, der full chip big navi nicht soweit ich weiß.
52 aktiviert von 56 :D.
Ich hoffe ja immer noch auf einen Vega 2x in N5 für Laptops/Mobile für nächstes Jahr, wie damals die RV740 in 40nm ...
CDNA2 in N5e (vermutlich) in 22 ;). Mit Vega als Grafik-IP wird Cezanne die letzte Auskopplung sein.
dargo
2020-08-18, 16:46:55
Laut den Gerüchten ist Ampere bis hinunter zu GA107 voll RTX.
GA107 ist kein Ersatz für TU117, das ist eine ganz andere Leistungsklasse.
TU117 wird sicher auch auf dem Markt bleiben, der ist ja neu aufgelegt worden:
https://www.notebookcheck.com/NVIDIA-plant-einen-MX350-Nachfolger-auf-Turing-Basis-um-gegen-Intels-Tiger-Lake-Xe-DG1-iGPU-anzutreten-Die-Leistung-liegt-auf-dem-Niveau-der-GTX-1650-inklusive-PCIe-Gen4-Support.453597.0.html
Der 65x ist ja ein komplett neuer Chip.
Ghost1nTh3GPU
2020-08-18, 17:06:13
Vielleicht ein Samsung 8nm "Testchip", der nur an den Interfaces x4 Gen4 + 64-Bit angepasst wurde und sonst auf TU117 basiert. Bei Fermi gab es auch am Lebensende der Generation einen 28nm Chip für Notebooks.
Cyberfries
2020-08-18, 17:33:28
...und den durch Gerüchten bekannten Chip-Größen ~200 - ~350 - ~430mm² ... 80CUs ... 64CUs.... 32CUs und den kleinsten würde ich auf 120mm² schätzen mit 20CUs. ...
Die von dir genannten Chipgrößen entstammen unterschiedlichen Gerüchten.
Gerücht a) sprach von 240, 340 und 505mm², Gerücht b) von 427mm².
Wie du selbst anmerkst, 64CUs und 80CUs sind zu nahe beieinander. Auch 430 und 350mm² liegen mit nur 19% viel zu eng beeinander für zwei Chips.
Zwei Gerüchte mit eng beeinanderliegenden Chipgrößen - logische Schlussfolgerung wäre dass nur eines von beiden stimmt, oder?
Die 64 und 32 CUs sind dann wieder viel zu weit auseinander, wobei die 32 an sich nicht schlecht klingt.
Als RDNA1 wären die Chipgrößen für 80/52/32/20CUs wohl ca.420-450/290-310/200-210/140-150mm².
Kommt dann eben drauf an, wie groß die einzelnen Bestandteile bei RDNA2 ausfallen, ob BigNavi eher bei 430 oder eher bei 340mm² landet.
basix
2020-08-18, 17:54:38
Wie du selbst anmerkst, 64CUs und 80CUs sind zu nahe beieinander. Auch 430 und 350mm² liegen mit nur 19% viel zu eng beeinander für zwei Chips
340mm2 zu 430mm2 würde am meisten Sinn machen, wenn letzterer auf HBM setzt. Dann kann es auf 40, 60, 90+ CUs rauslaufen und es wäre jeweils +50% Performance zwischen den Chips. Mittels Salvage kann man den Zwischenbereich gut auffüllen und man hätte ein sinnvolles Lineup. Darunter fehlt dann noch N24 mit max. 150mm2
36-40CU/256bit und 56-60CU/384bit machen bei 240mm2 und 340mm2 sehr viel Sinn (anhand 56 CU und 320bit der XBSX sowie 36 CU und 256bit der PS5). Da kann man evtl. sogar Designs der Konsolen auf die diskreten Chips übertragen und nur leicht abwandeln (spart R&D Effort).
Die Frage bleibt: Was kommt darüber? 505mm2/512bit wäre ein recht grosser Brummer. 430mm2 mit 2048bit HBM wäre einiges schlanker, spart kostbare 7nm Waferkapazität und ist energieeffizienter. Kostenmässig wird sich beides bei gleich viel VRAM wohl nicht sehr viel nehmen (kleinerer Chip, geringerer Stromverbrauch, einfacheres und kleineres PCB vs. Interposer und HBM) als auch der maximale CU Ausbau wird sehr ähnlich sein. Ich würde nämlich auf 92-96 tendieren bei beiden Varianten. Ihr könnt es selbst am XBSX Chip ausmessen. Die CUs sind erstaunlich schlank und GDDR6 PHYs brauchen recht viel Platz.
Eine Alternative wäre 36, 60, 80 CU mit 256, 384 und 512 bit bei 240, 340 und 427mm2. Das fände ich aber eher schade :D
Edit:
Ich habe es mal mit 36, 60 und 80 CU durchgespielt. Könnte grundsätzlich passen.
36 CU @ 8GByte @ 150W ~ 2080 FE
60 CU @ 12 GByte @ 220W ~ 2080 Ti FE + 20%
80 CU @ 16 GByte @ 300W ~ 2080 Ti FE + 50%
Kimi2003
2020-08-18, 18:31:58
340mm2 zu 430mm2 würde am meisten Sinn machen, wenn letzterer auf HBM setzt. Dann kann es auf 40, 60, 90+ CUs rauslaufen und es wäre jeweils +50% Performance zwischen den Chips. Mittels Salvage kann man den Zwischenbereich gut auffüllen und man hätte ein sinnvolles Lineup. Darunter fehlt dann noch N24 mit max. 150mm2
36-40CU/256bit und 56-60CU/384bit machen bei 240mm2 und 340mm2 sehr viel Sinn (anhand 56 CU und 320bit der XBSX sowie 36 CU und 256bit der PS5). Da kann man evtl. sogar Designs der Konsolen auf die diskreten Chips übertragen und nur leicht abwandeln (spart R&D Effort).
Die Frage bleibt: Was kommt darüber? 505mm2/512bit wäre ein recht grosser Brummer. 430mm2 mit 2048bit HBM wäre einiges schlanker, spart kostbare 7nm Waferkapazität und ist energieeffizienter. Kostenmässig wird sich beides bei gleich viel VRAM wohl nicht sehr viel nehmen (kleinerer Chip, geringerer Stromverbrauch, einfacheres und kleineres PCB vs. Interposer und HBM) als auch der maximale CU Ausbau wird sehr ähnlich sein. Ich würde nämlich auf 92-96 tendieren bei beiden Varianten. Ihr könnt es selbst am XBSX Chip ausmessen. Die CUs sind erstaunlich schlank und GDDR6 PHYs brauchen recht viel Platz.
Eine Alternative wäre 36, 60, 80 CU mit 256, 384 und 512 bit bei 240, 340 und 427mm2. Das fände ich aber eher schade :D
Edit:
Ich habe es mal mit 36, 60 und 80 CU durchgespielt. Könnte grundsätzlich passen.
36 CU @ 8GByte @ 150W ~ 2080 FE
60 CU @ 12 GByte @ 220W ~ 2080 Ti FE + 20%
80 CU @ 16 GByte @ 300W ~ 2080 Ti FE + 50%
Das klingt irgendwie zu gut um wahr zu sein bei den ganzen Spekulationen. Die 12GB Karte wäre meine :)
Cyberfries
2020-08-18, 18:33:35
Ich möchte nochmals für einen 52CU-Chip werben, passt einfach viel zu gut zum erwarteten nvidia-Portfolio:
- N21 mit 72CU - vs - GA102 mit 68SM (jew. salvage)
- N23 mit 52CU - vs - GA104 mit 48SM
- N23 mit 44CU - vs - GA104 mit 42SM (jew. salvage)
- N10 refresh mit 36CU vs GA106 mit 30SM
Auch das CU-Verhältnis von 52/80= 0,65 passt viel besser in die gewohnte AMD-Abstufung als bei 60CU.
(Der Vollständigkeit halber: Sollte doch noch ein dritter Chip mit 32 CU kommen: 32CU vs GA106 mit 30SM sowie 32/52=0,62)
Bei 52CU ist auch noch ein höher getaktetes 256bit-Interface denkbar um die Kosten zu drücken.
edit: Darstellung
dargo
2020-08-18, 18:46:29
36 CU @ 8GByte @ 150W ~ 2080 FE
60 CU @ 12 GByte @ 220W ~ 2080 Ti FE + 20%
80 CU @ 16 GByte @ 300W ~ 2080 Ti FE + 50%
Das fände ich echt toll wenn das so kommen würde. Die 60 CUs Graka wäre genau mein Ding. 85% schneller als RX 5700XT (würde mir vollkommen reichen) und sowas könnte man noch spielend Richtung 190-200W mit UV-Optimierung drücken. :)
basix
2020-08-18, 22:22:11
Vielleicht muss man überall bei der Performance noch 10% abziehen oder etwas Verbrauch addieren, keine Ahnung. Ich bin mal von 2.2, 2.1 und 2.0 GHz und 1.1x IPC ausgegangen und habe als Basis die spekulierten 140W für 52 CU @ 1.825 GHz bei der XBSX genommen.
horn 12
2020-08-19, 10:29:06
https://www.reddit.com/r/Amd/comments/ic4bn1/amd_ray_tracing_implementation/
dildo4u
2020-08-19, 10:38:08
Vielleicht muss man überall bei der Performance noch 10% abziehen oder etwas Verbrauch addieren, keine Ahnung. Ich bin mal von 2.2, 2.1 und 2.0 GHz und 1.1x IPC ausgegangen und habe als Basis die spekulierten 140W für 52 CU @ 1.825 GHz bei der XBSX genommen.
Die Vergleiche sind komplett sinnlos wenn RDNA2 nach Ampere kommt.
reaperrr
2020-08-19, 19:16:43
Die 60 CUs Graka wäre genau mein Ding. 85% schneller als RX 5700XT (würde mir vollkommen reichen)
Ich habe gerade einen Lach-Hustanfall gekriegt.
Dir ist schon klar, dass das fast 85% mehr Perf/W wäre, während selbst AMD nur von 50% mehr Perf/W für RDNA2 spricht?
So ein Chip wäre trotz RDNA2 in 220W kaum höher zu takten als eine 5700XT, und mehr als 5-10% IPC-Anstieg würde ich auch nicht erwarten, was dann weitgehend durch die nie ganz lineare Skalierung mit der CU-Zahl aufgefressen wird.
Rechne lieber mit 56 CUs, 320bit SI und ~40-45% schneller als 5700XT. Für 85% braucht es mindestens N21 XL, das sollte eigentlich jedem, der halbwegs nüchtern und realistisch rangeht, klar sein.
Berniyh
2020-08-19, 20:32:08
Ich habe gerade einen Lach-Hustanfall gekriegt.
Dir ist schon klar, dass das fast 85% mehr Perf/W wäre, während selbst AMD nur von 50% mehr Perf/W für RDNA2 spricht?
So ein Chip wäre trotz RDNA2 in 220W kaum höher zu takten als eine 5700XT, und mehr als 5-10% IPC-Anstieg würde ich auch nicht erwarten, was dann weitgehend durch die nie ganz lineare Skalierung mit der CU-Zahl aufgefressen wird.
Rechne lieber mit 56 CUs, 320bit SI und ~40-45% schneller als 5700XT. Für 85% braucht es mindestens N21 XL, das sollte eigentlich jedem, der halbwegs nüchtern und realistisch rangeht, klar sein.
:confused:
Eine 5700 XT hat 40 CU. D.h. seine anvisierten 60 CU wären alleine schon mal 50% mehr CU. Würde man lineare Skalierung annehmen, dann wären das 50% mehr Leistung, was aber natürlich nicht stimmt.
Das kombiniert mit den 50% mehr Performance/Watt lässt 85% Mehrleistung gegenüber einer 5700 XT aber schon als realistisches Ziel dastehen, selbst wenn man annimmt, dass das natürlich nicht perfekt skaliert.
Bei perfekter Skalierung wären es wohl eher mehr.
unl34shed
2020-08-19, 20:35:05
ja aber dann nicht bei 220W.
Berniyh
2020-08-19, 20:53:37
ja aber dann nicht bei 220W.
Das mag sein, aber arg viel mehr wohl auch nicht. evtl. so 250-275W (das wären 10-20% mehr als bei der 5700 XT).
Neurosphere
2020-08-19, 21:02:44
Bei 50% Effiziensteigerung braucht man schon die 300 Watt um irgendwie auf die doppelte Leistung der 5700 XT zu kommen.
Im Raum stehen ja bis zu 300w. Aber was wäre wenn BN doch ziemlich small währe: Sprich 56CUs, der Takt bei ~2.3G und 16 GB 512-Bit GDDR6 @ 14BPS. Billig, schneller als ne 2080ti und beinahe 3080-Performance zu nem Preis von 600€. Den dicken hält Lisa halt zurück.
Zum Dicken: Man muss halt wissen wie der Markt reagiert
BTW vielleicht heißt Halo nicht die max. Performance, sondern die max. Performance pro Watt. Gemessen an der XBX sind wir hier bei 200-250W, eher weniger
Berniyh
2020-08-19, 21:22:47
Bei 50% Effiziensteigerung braucht man schon die 300 Watt um irgendwie auf die doppelte Leistung der 5700 XT zu kommen.
Bei doppelter Leistung und 300 W würde man mit Milchmädchenrechnung bei 85% Mehrleistung auf 260 W kommen.
Passt doch halbwegs mit den Annahmen oben zusammen.
basix
2020-08-19, 21:28:55
Die Vergleiche sind komplett sinnlos wenn RDNA2 nach Ampere kommt.
Wieso sind die sinnlos? Wenn es dir lieber ist, kann ich auch mit der 5700XT vergleichen, wäre genau so sinnlos nach deiner Argumentation. Ich vergleiche mit etwas wo ich Infos habe, oder soll ich relativ zu Ampere schätzen wie hoch die Performance ist? ;)
Der Vergleich zur jetzigen verbauten HW bestimmt ob gekauft wird oder nicht. Ob Ampere oder RDNA2 bestimmen dann Vorlieben, Features und der Preis. Ersteres kennt man vermutlich schon, den Rest nicht.
Wieso sind die sinnlos? Wenn es dir lieber ist, kann ich auch mit der 5700XT vergleichen, wäre genau so sinnlos nach deiner Argumentation. Ich vergleiche mit etwas wo ich Infos habe, oder soll ich relativ zu Ampere schätzen wie hoch die Performance ist? ;)
Dieses Statement habe ich auch nicht verstanden.
Bei doppelter Leistung und 300 W würde man mit Milchmädchenrechnung bei 85% Mehrleistung auf 260 W kommen.
Passt doch halbwegs mit den Annahmen oben zusammen.
Würde mich wundern wenn RDNA2 auch nur annähernd 250W verbraten würde.
mboeller
2020-08-19, 21:40:30
naja, so genau hat es AMD mit den 50% anscheinend ja nicht genommen.
RX 5700XT benötigt 225w bei max. 1900MHz (AFAIR)
bei der 5700XT soll ja, soweit ich mich erinnere die GPU selbst so 180w brauchen.
die XBsX GPU braucht nur 130-140w mit 52CU und 1825 MHz
40/52 x 130w = 100w
40/52 x 140w = 108w (ca.)
Der Effizienzgewinn wäre dann, abgesehen von dem geringen Geschwindigkeitsunterschied (1825 <-> 1900 MHz) eher bei +60% bis +80% statt nur bei +50%
Screemer
2020-08-19, 21:42:06
Würde mich wundern wenn RDNA2 auch nur annähernd 250W verbraten würde.
Bei gleicher Anzahl an cus und ähnlichem Takt sicher nicht. Bei kolorierten kolportierten 20-40% höherem Takt und 20-50% mehr cus Aber sicher. Da kommt dann aber hoffentlich auch entsprechende Leistung rum.
Complicated
2020-08-19, 21:51:44
Bei kolorierten 20-40% höherem Takt und 20-50% mehr cus Aber sicher.
YMMD ;D
Screemer
2020-08-19, 22:02:46
Das Lob gebührt leider nicht mir. Für die kolportierten kolorierten darfst du dich bei der Autokorrektur bedanken ;)
Linmoum
2020-08-20, 11:02:36
Keine Ahnung, ob Igor nicht nur spekuliert oder doch schon mehr weiß, aber da es bei GA102 ja ein 384-bit SI ist:
Der Speicher ist, auch wenn man mal die Boardpartner fragt, das eigentliche Sorgenkind, das aktuelle Luftkühler vor derartige Probleme stellen soll. Man berichtet von bis zu 98 °im heißesten Modul. Zumindest hier kann AMD aufgrund des breiteren Speicherinterfaces wohl etwas etwas ruhiger schlafen, ohne den GDDR6 auf Sterioden (in Form des GDDR6X) kühltechnisch papern zu müssen.
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
Complicated
2020-08-20, 13:18:40
Immer wenn du bei Igor "Boardpartner" und "Problem" im selben Satz liest, setzt du am besten den Wahrscheinlichkeitswert auf ca. 20% - Er bekommt da viel seltsames gefüttert.
Dino-Fossil
2020-08-20, 13:25:25
Der Effizienzgewinn wäre dann, abgesehen von dem geringen Geschwindigkeitsunterschied (1825 <-> 1900 MHz) eher bei +60% bis +80% statt nur bei +50%
Hängt aber u.U. viel vom betrachteten Betriebspunkt ab und wer weiß schon, wo der lag...
basix
2020-08-20, 14:36:18
Ich habe es mal mit 36, 60 und 80 CU durchgespielt. Könnte grundsätzlich passen.
36 CU @ 8GByte @ 150W ~ 2080 FE
60 CU @ 12 GByte @ 220W ~ 2080 Ti FE + 20%
80 CU @ 16 GByte @ 300W ~ 2080 Ti FE + 50%
Nochmals zu der Liste: Es gab doch das Gerücht, dass BigNavi nur knapp 2080 Ti Performance bis ca. +15% (https://winfuture.de/news,117378.html) darüber erreichen soll. Das würde sehr gut zur 60 CU Variante passen. Und die +40-50% an anderer Stelle (https://www.guru3d.com/news-story/amd-big-navi-would-yield-40-50-percent-more-than-the-geforce-rtx-2080-ti.html) zur 80 CU "BiggestNavi" Variante ;)
Langlay
2020-08-20, 15:59:59
Keine Ahnung, ob Igor nicht nur spekuliert oder doch schon mehr weiß, aber da es bei GA102 ja ein 384-bit SI ist:
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
Die Aussage würde allerdings sowohl bei 512Bit GDDR6 als auch HBM2e zutreffen.
Berniyh
2020-08-20, 19:17:09
Die Aussage würde allerdings sowohl bei 512Bit GDDR6 als auch HBM2e zutreffen.
Das stimmt, aber ich würde trotzdem auch ein 384 Bit Speicherinterface nicht komplett ausschließen.
Ich denke er bezieht sich einfach auf die letzten Gerüchte (in denen von 512 Bit die Rede waren), aber über die Aussagekraft dieser Gerüchte gibt es geteilte Meinungen.
Langlay
2020-08-20, 19:33:04
Ich hoffe noch auf HBM2 zu mindestens beim grössten Chip.
gas3t
2020-08-20, 20:00:17
Dieses Jahr ist es mal wieder richtig spannend, meine Einschätzung lautet:
Navi 21: 80 CU, 512Bit 16 GB GDDR6, 300W TBP, Launch Q4/20, 999 €
Navi 22: 60 CU, 384Bit 12 GB GDDR6, 225 TBP, Launch Q4/20, 699€
Navi 23: 40 CU, 256Bit 8 GB GDDR6, 150W TBP, Launch H1/21, 399 €
Navi 24: 20 CU, 128Bit 4/8 GB GDDR6, 75W TBP, Launch H2/21, 199€
Beim Navi 21 ist auch HBM2e statt GDDR6 möglich. Dann noch zu jeder Variante eine Full- sowie Salvage-Version und das RDNA2 Portfolio sieht rund aus. Die Preise sind abhängig davon, was NVIDIA preis- und performancetechnisch vorlegt.
Berniyh
2020-08-20, 20:33:51
Ich hoffe noch auf HBM2 zu mindestens beim grössten Chip.
Abgesehen vom größten Chip (Sienna Cichlid) dürfte HBM2 ziemlich ausgeschlossen sein.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.