Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Linmoum
2020-09-24, 21:22:43
Entweder das war von Anfang an Arcturus oder es gibt tatsächlich in irgendeiner Form einen riesigen Cache der Platz frisst. Plot twist wäre natürlich, wenn alle monatelang >500mm² für den großen Chip als gesetzt ansehen und AMD alles spekulierte in einen 3xxmm² Chip gequetscht hat.
https://i.gyazo.com/fe1409d68699229e35d46aac282bbeef.jpg
unl34shed
2020-09-24, 21:27:19
Wenn ich damit rechne, ergibt sich folgendes:
MM/PCIe + Core + 192b + 2 Shader Engines + 48 CU = 241.2 mm2
MM/PCIe + Core + 256b + 3 Shader Engines + 84 CU = 340.6 mm2
MM/PCIe + Core + 384b + 4 Shader Engines + 128 CU = 501.2 mm2
Sag ich schon seit ein paar Monaten, allerdings mit HBM.
Cyberfries
2020-09-24, 21:32:37
In 505mm2 hätten da auch 120 CUs mit 384b SI Platz.
Arcturus. 128CU, 4096bit HBM
Wenn ich von Hand nachrechne komme ich für 20/40/80CU-N2x auf 146mm², 221mm² und 334mm².
Aber von dem was ich so gelesen habe, müssen da noch ein paar Prozentpunkte drauf.
Gerade beim 80CU-Chip soll einiges an "non-CU-bloat" dabei sein, was auch immer das bedeuten mag.
alle monatelang >500mm² für den großen Chip als gesetzt ansehen
Dagegen rede ich seit Monaten an. Eine kurze Zeit war auch 427mm² in aller Munde.
Berniyh
2020-09-24, 21:38:04
Gerade beim 80CU-Chip soll einiges an "non-CU-bloat" dabei sein, was auch immer das bedeuten mag.
Zum Beispiel 2 Multimedia Engines. Braucht man das? Eine genügte doch bislang auch.
Und XGMI.
Dazu 4xSDMA (wobei Arcturus 8xSDMA hat).
why_me
2020-09-24, 21:40:18
Komachi ist nicht die Quelle, sondern Einer aus einem chinesischen Kommentarbereich.
Komachi versieht das mit einem zweifelnden Emoji und RetiredEngineer (Chinese) bestätigt, dass das nur "guessing" ist.
Ja, das hat er ja auch verlinkt, nur geht der Link leider nicht mehr...
Die mm² kamen von AquariusZi, der wohl schon öfters richtig gelegen ist, gerade bei Chipgrößen. Das "guessing" bezieht sich mMn. auf kein RT bei kleineren Modellen.
Nur passen die Größen und Chips von ihm halt nicht wirklich zu den CU Zahlen, die aktuell bekannt sind.
Vor Monaten gab es hitzige Diskussionen, dass 80 CUs nicht in 340mm² passen würden, aber da ist man auch von 512 bit ausgegangen.
Und mit der Xbox wurden die WGPs kleiner und nicht größer, wie damals gedacht.
Du legst etwa +150% an Leistung drauf, aber nur +80% an Bandbreite (80CU-Speku vs 5600)
Hier wird ja bereits bei 40CUs an 192bit gezweifelt, davon ausgehend mindestens ca.650GB/s für 80CU.
Außer du meinst, die 120CU-Karte wäre 3080-Konkurrenz, dann liegt die Skalierung bei +70% Leistung bei +200% CU.
Alles natürlich Milchmädchenrechnungen.
Die Zweifel von 40CUs an 192bit kann ich wie gesagt nicht verstehen, siehe 5600 XT. Die gibt es als 12 und 14 GT/s Variante. Für 4 CUs mehr kann man da locker mit 16GT kompensieren, selbst bei höherem GPU-Takt.
Und Ja, für 80 CUs + Takt wäre es sportlich, aber mMn. eben nicht unmöglich, vielleicht sehen wir ja wirklich einen stacked cache in 12 nm auf der GPU. Wäre nicht neu, wenn AMD mit einem überraschenden Design um die Ecke kommt.
Von der Leistung der Karten habe ich nicht gesprochen, ob sie die 3080 schlägt, schneller als eine 3090 ist, keine Ahnung. Wie gesagt, ich versuche
die leaks zu ordnen und was die Leistung angeht, hört man ja auch 15% auf die 3070 und schneller als die 3090, möglich, dass hier 2 Chips genannt werden.
Dagegen rede ich seit Monaten an. Eine kurze Zeit war auch 427mm² in aller Munde.
die 427mm² stammen von moore's law is dead von seiner Nvidia Quelle, wie sie BN sehen, da waren es aber auch 72 CUs etc...
Arcturus. 128CU, 4096bit HBM
Auch möglich, aber von Arcturus bekommen wir ja noch weniger mit als von Navi2x. Aber bei den Größenangaben wurde explizit N21-23 dazu genannt.
Die Frage ist auch, wie groß Arcturus überhaupt wird, der besteht ja auch aus kaum mehr als CUs + Speicher. Könnte kleiner als 500mm² sein und vielleicht ist er die 427mm² Karte von der Nvidia Quelle? :biggrin:
Berniyh
2020-09-24, 21:50:18
Könnte kleiner als 500mm² sein und vielleicht ist er die 427mm² Karte von der Nvidia Quelle? :biggrin:
Hm, 128 Vega CUs die weniger Platz einnehmen als 80 Navi CUs? ^^
(Ja, ich weiß, dass da noch anderes Zeug dazu kommt …)
Zu Arcturus hat das irgendwer mal auf meine Anregung durchgerechnet, dass das mit den 505 mm2 passen könnte auf Basis der Annahme, dass das ein doppelter Vega 20 ist mit Reduktion hier und da (weil Zeug wegfällt und das Speicherinterface ja gleich bleibt).
basix
2020-09-24, 22:19:17
Zu Arcturus hat das irgendwer mal auf meine Anregung durchgerechnet, dass das mit den 505 mm2 passen könnte auf Basis der Annahme, dass das ein doppelter Vega 20 ist mit Reduktion hier und da (weil Zeug wegfällt und das Speicherinterface ja gleich bleibt).
Ja, das war ich :D Was hier halt die grosse Unbekannte ist, sind die "Tensor Operations" (Platzbedarf?) und der Prozess. Bei mehr Packdichte verglichen zum Ur-7nm Prozess wären auch 427mm2 denkbar.
Wie gesagt, man kann Zeugs abschätzen und es scheint gut zu stimmen, aber sicher ist man sich nie. 128 CU + 4096b HBM + HPC Features @ 427mm2 vs. 128 CU + 384b GDDR + Graphics Features @ 505mm2 würden sich auf dem Papier zumindest einigermassen vertragen ;)
Irgendwie ist folgendes fast wahrscheinlicher: 80 CU + 256b in 340mm2. Ende der Geschichte.
Plot twist wäre natürlich, wenn alle monatelang >500mm² für den großen Chip als gesetzt ansehen und AMD alles spekulierte in einen 3xxmm² Chip gequetscht hat.
https://i.gyazo.com/fe1409d68699229e35d46aac282bbeef.jpg
mironicus
2020-09-24, 22:32:00
In dem neuesten "Moore's Law is Dead" Video behauptet der Sprecher, daß die Profi-Variante von Navi 21 mit 32 GB Speicher nahezu so schnell sein soll wie eine Quadro RTX A6000 (GA 102, 84 CU) von NVidia, dabei aber nur 250 Watt verbrauchen. Die Gaming-Variante von Navi 21 kann aber noch mehr TDP haben.
Iscaran
2020-09-24, 22:48:59
Wenn ich damit rechne, ergibt sich folgendes:
MM/PCIe + Core + 192b + 2 Shader Engines + 48 CU = 241.2 mm2
MM/PCIe + Core + 256b + 3 Shader Engines + 84 CU = 340.6 mm2
MM/PCIe + Core + 384b + 4 Shader Engines + 128 CU = 501.2 mm2
Hatte ich nicht schon ganz ähnliche CU Werte vor ein paar Wochen eingeworfen basierend auf den Chipgrößen ?
Übrigens 24-32 CU pro Shader engine sind praktisch das was bei der Xbox realisiert ist.
Die hat 2 Shader Engines mit je 2 Shader Arrays zu je 7 WGPs
Also 2x2x7x2 CUs = 56 CU's
wovon dann noch pro Shader Array 1 deaktiviert ist (also 2x2=4 abziehen) (vermutlich um die Ausbeute sicher zustellen macht 52 Aktive CUs. (EDIT macht pro SE dann 28 wovon 26 aktiv)
Abgesehen davon. Die aktuellen Tests weisen der neuen RTX 3080 / 3090 einen Perf/Watt Vorsprung gegenüber Navi10 (5700 XT)! von nur ca 20-30% aus
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/5/#abschnitt_energieeffizienz_in_fps_pro_watt
Wenn wir nur mal annehmen dass AMD die selbst genannten +50% Perf/Watt einhält müsste man eigentlich sogar seit langer Zeit mal wieder Perf/W über nVidia sein ?!?
Fakt ist - es wird glaub ich wirklich sehr spannend im Oktober :-)
SKYNET
2020-09-24, 22:57:55
Falls es HBM2 ist, dann sind angesichts der 16 L2 Cache Tiles ja 2048 Bit/2 Stacks wahrscheinlich (Locuza geht außerdem vom 512KB pro Tile aus, also 8MB L2). Da bräuchte AMD schon HBM2e für genug Bandbreite: Mit 3,2Gbps erreicht man zum Beispiel ca. 820GB/s und mit 3,6Gbps kommt man auf 920GB/s.
gehe eher von 1.2TB+ / sek aus... warum sollte AMD da geizen und weniger bandbreite als bei der VII reinhauen?
Berniyh
2020-09-24, 23:06:59
gehe eher von 1.2TB+ / sek aus... warum sollte AMD da geizen und weniger bandbreite als bei der VII reinhauen?
Welche Konfiguration stellst du dir da vor?
Edit: abgesehen davon: die Radeon VII war bei der Bandbreite hoffnungslos überdimensioniert, was der Tatsache geschuldet war, dass der Chip nicht für den Einsatz als GPU entworfen wurde.
Du baust keine 32 Speicherkanäle ein, wenn du die nicht brauchst, das verschwendet ja letztendlich nur sinnlos Chipfläche und verursacht Kosten.
Cyberfries
2020-09-24, 23:20:47
Die mm² kamen von AquariusZi, der wohl schon öfters richtig gelegen ist, gerade bei Chipgrößen.
Das geht noch ins Jahr 2019 zurück. Im ptt-Forum wurde vom tapeout eines großen AMD-Chips mit 505mm² berichtet.
Die Zuordnung zu N21 kam nicht vom Leaker. (aus der Erinnerung, Forum gerade unerreichbar)
5600 XT. Die gibt es als 12 und 14 GT/s Variante. Für 4 CUs mehr kann man da locker mit 16GT kompensieren, selbst bei höherem GPU-Takt.
Nicht mit CUs rechnen, +4CU wären nur +11%. Für den 40CU-N2x sollte man eher ca. +40% ansetzen.
+40% Leistung und +33% Bandbreite sind schon etwas enger, aber machbar. Doch 80CUs an 256bit? No way.
Für gestapelte Chips ist es zu früh, laut Gerüchten erst mit RDNA3.
Die Frage ist auch, wie groß Arcturus überhaupt wird, der besteht ja auch aus kaum mehr als CUs + Speicher. Könnte kleiner als 500mm² sein und vielleicht ist er die 427mm² Karte von der Nvidia Quelle? :biggrin:
Schau dir an wie groß nVidia A100 ist, soviel kann man bei V20 gar nicht streichen, dass Arcturus auf 427mm² kommt.
Irgendwie ist folgendes fast wahrscheinlicher: 80 CU + 256b in 340mm2.
Mit GDDR6 statt HBM steigt die Chipfläche wieder, da komme ich auf min. 370mm²
gehe eher von 1.2TB+ / sek aus... warum sollte AMD da geizen und weniger bandbreite als bei der VII reinhauen?
Weil die VII in der Hinsicht überdimensioniert war und aus zwei Stapeln nicht mehr als das Genannte möglich ist?
Hatte ich nicht schon ganz ähnliche CU Werte vor ein paar Wochen eingeworfen basierend auf den Chipgrößen ?
Jo, aber da zwei Chips bereits dank Linux mit 2x5WGP je SE bekannt sind....
Perf/Watt Vorsprung gegenüber Navi10 (5700 XT)! von nur ca 20-30% aus
Die 50% gelten bei vergleichbarer Konfiguration und Betriebspunkt gegenüber dem Vorgänger.
Beim 3080-Konkurrent kann das schon wieder anders sein.
Iscaran
2020-09-24, 23:37:47
Die 50% gelten bei vergleichbarer Konfiguration und Betriebspunkt gegenüber dem Vorgänger.
Beim 3080-Konkurrent kann das schon wieder anders sein.
Ja die bezogen sich auf einen 40 CU Vega den es in der Form nicht gibt.
Real ist die V64 sogar 80% "schlechter" bzw. Navi10 1.8 mal besser als V64.
Umgekehrt sind die Ampere Karten nur gerade mal 20 bis 30% besser als 5700 XT...
Nur mal angenommen AMD packt +30% Perf/W und das ganze bei verdoppelte 5700 XT...wo landet man dann ?
Und wie groß wäre so ein Chip ? Wie hoch ist eigentlich die Packdichte bei 5700 XT ? Im Vergleich mit dem 8nm Samsung Prozess von nVidia ?
Ich gehe eh davon aus dass RDNA2 nochmal 10-20% Packdichte relativ zu RDNA1 drauflegt...
Mit RDNA 1 Packdichte und 80 CUs in 4 SE @384 Bit komme ich auf 435 mm^2 mit +20% Packdichte in den CUs komm ich gar nur auf 403 mm^2@384 Bit.
Der kleine mit 40 CUs @192 bit wäre ohne Packdichtensteigerung bei 242 mm^2 und mit bessere Packung bei ca 226 mm^2
Eine mittlere 60 CU@256bit käme bei mir auf 331 mm^2 bzw 306 mm^2
Im Layout Shader Engines (SE) x Shader Arrays pro Engine x WGP pro Array x CU pro WGP
Würde dann also Navi 23 = 40 CU @192bit als 2x2x5x2 passen und je nach Packdichte zw. 226 bis 242 mm^2.
Analog Navi 22 = 60 CU @256bit 3x2x5x2 @ 306 bis 331 mm^2
Und Navi 21 = 80 CU @384bit 4x2x5x2 @403 bis 435 mm^2
Die Gerüchte zu den Chipgrößen waren ja 240, 350 und 427 bzw 505. Wobei 505 ja für Arcturus im Gespräch war, demnach könnte ide 427 gut zu einem 80 CU@384bit Navi21 passen.
Das einzige was hier dagegen spricht sind die 256bit SI Gerüchte für "Big Navi"...wobei es ja auch der "Mid Navi" sein könnte@256bit.
Wieviel mehr bräuchte ein HBM eigentlich relativ zu GDDR6 ?
Wenn man die 80 CUs in 403 bis 435 mm^2 packen kann blieben ja noch ca 100 bzw 70 mm^3 beim 505 mm^2 Chip für den HBM-Mehrbedarf zur Verfügung
unl34shed
2020-09-24, 23:44:30
Wieviel mehr bräuchte ein HBM eigentlich relativ zu GDDR6 ?
HBM ist deutlich kleiner, 1024bit sind ca 10mm² bei N12, 128b GDDR6 sind ca 30mm² bei N10.
basix
2020-09-24, 23:50:27
Wieviel mehr bräuchte ein HBM eigentlich relativ zu GDDR6 ?
64b GDDR6 PHY ~ 1024b HBM PHY, beides jeweils ca. 10mm2
Der Speichercontroller dazu wird wohl in etwa ähnlich gross sein. Ca. 5mm2.
Neurosphere
2020-09-25, 00:42:07
https://abload.de/img/ati8bjf2.jpg
https://twitter.com/AzorFrank/status/1309134647410991107
[MK2]Mythos
2020-09-25, 00:49:39
https://abload.de/img/ati8bjf2.jpg
https://twitter.com/AzorFrank/status/1309134647410991107
Hatten wir doch schon. Und davon abgesehen würde NVIDIA sicher auch nicht sagen, dass die RTX30xx ein Paperlaunch war. Deswegen erstmal abwarten wieviel Karten AMD wirklich liefern kann. :)
SKYNET
2020-09-25, 01:18:24
Mythos;12438625']Hatten wir doch schon. Und davon abgesehen würde NVIDIA sicher auch nicht sagen, dass die RTX30xx ein Paperlaunch war. Deswegen erstmal abwarten wieviel Karten AMD wirklich liefern kann. :)
würd mich nicht wundern, wenn die karten eigentlich schon lange fertig sind, und schon seit wochen hätten draussen sein können, aber AMD will -wissend um die performance = 3080 + 10%- genug produzieren weil die dinger weggehen werden wie geschnitten brot.
also das, was hätte NV eigentlich machen müssen mit der 3080...
[MK2]Mythos
2020-09-25, 01:20:45
Naja, ich denke wenn die AMD Karten schon lange überall produziert werden würden, hätten wir schon handfestere Leaks gesehen...
SKYNET
2020-09-25, 01:32:31
Gradmesser für BN vielleicht? :rolleyes:
ehhh... ich gehe davon aus BN wird die 3080 zum frühstück futtern... aber ist nur nen gefühl ;)
und mein gefühl hatte ja auch schon bei dem A64 recht, bei der VII, und zen+ :redface:
r3ptil3
2020-09-25, 01:49:58
Dem Typen von Alienware (ehemals) traue ich kein Wort.
Ich tippe sehr stark darauf dass der grosse Chip die 3070 im Griff hat, das war's dann. Die 16Gb sind auch sehr gut, da bleibt dann aber nur die Frage was man mit dem Speicher macht, wenn die Karte für 4k später zu lahm wäre.
Linmoum
2020-09-25, 02:06:17
Der große Chip wird sich bei der 3080 einordnen. Dafür mit deutlich mehr Speicher als die aktuell erhältliche Variante mit 10GiB. Da ich nicht davon ausgehe, dass AMD die Karten ootb mit deutlich über 2GHz laufen lässt, dürfte auch der OC-Headroom ganz gut ausfallen mit Blick auf die PS5. Da kackt Ampere ja leider ziemlich ab. Dazu noch effizienter, aber das ist ja keine große Kunst. Dafür muss AMD nicht einmal das 50%-Versprechen einhalten, um sich in der Hinsicht vor die 3080 oder 3090 zu schieben. Da reichen schon 35-40%.
horn 12
2020-09-25, 07:22:07
Nun gut, ab jetzt kann AMD Zug für Zug langsam die Hosen runterlassen!
Eine 20/16GB 3080 / 3070 wird NV nicht zurechtschneidern können.
Mythos;12438625']Hatten wir doch schon. Und davon abgesehen würde NVIDIA sicher auch nicht sagen, dass die RTX30xx ein Paperlaunch war. Deswegen erstmal abwarten wieviel Karten AMD wirklich liefern kann. :)
Das wirklich interessante hast du übersehen. AMD will 16k-Gaming demonstrieren. 32GB HBM incoming?
Adam D.
2020-09-25, 08:40:13
Das wirklich interessante hast du übersehen. AMD will 16k-Gaming demonstrieren. 32GB HBM incoming?
Gedi, nimm es bitte nicht persönlich, aber du brauchst dringend eine Auszeit. Du nimmst GLASKLARE, OFFENSICHTLICHE IRONIE für bare Münze und packst das hier rein, das bringt wirklich niemandem irgendwas. Ich weiß nicht genau, warum du AMD hier zum Heilsbringer hochstilisierst, aber ich glaube, das tut dir auch nicht gut. Vielleicht einfach mal eine Woche keine "Gerüchte" in den Untiefen des Internets suchen.
BigBangBacket
2020-09-25, 09:27:43
Vor allem ist diesem Thread dadurch nur noch schwer zu folgen. Wenn man die letzten Seiten grob durchliest glaubt man fast AMD baut eine Graka die ihrer Zeit 40 Jahre voraus ist.
Spekulationen hin und her...abe res sollte realistisch bleiben. Die letzten 2 Wochen waren hart für die roten Jungs hier.
Dagegen ist ja Horn 12 mittlerweile handzahm geworden
Ich hoffe auf baldige realistische Werte und Einschätzungen
Neurosphere
2020-09-25, 09:39:15
Könnte es sein das AMD NVs Strategie übernimmt und einen Gamerbereich und einen Bereich ala Titan/3090 für ihr Portfolio macht?
Die Karte die bisher gezeigt wurde dürfte mit ziemlicher Sicherheit kein HBM besitzen, evtl war aber auch das nur Navi22. NV hat bei der Präsi ja auch mehr die 3080 in den Focus für Gamer gerückt.
Evtl. macht AMD es ja auch so und bietet Navi21 in einem höheren Preispunkt mit HBM an. Wenn man es sich von der Performance erlauben kann gibt es keinen Grund deutlich günstiger als die 3090 zu sein. Zumindest würde das zu den Gerüchten passen das Navi 21 nun doch HBM haben soll.
Navi 22 wäre dann die Karte mit 256 Bit und wildert im Bereich 3070/3080. Das würde auch zu den Aussagen von einem Twitterer (ich weiß nicht mehr welcher) passen das da was vertauscht ist.
Dural
2020-09-25, 09:52:35
Hat AMD doch schon mit Vega eingeführt. Nur wollte es wohl praktisch keiner.
Teuer funktioniert nur wenn man Leistung abliefert.
Redneck
2020-09-25, 09:52:36
Das wirklich interessante hast du übersehen. AMD will 16k-Gaming demonstrieren. 32GB HBM incoming?
Das ist nun sehr sehr weit hergeholt... hast du das geträumt ?? Hoffe es gibt keine Menschen hier, die das ernst nehmen.
Dschounz
2020-09-25, 10:00:35
Könnte es sein das AMD NVs Strategie übernimmt und einen Gamerbereich und einen Bereich ala Titan/3090 für ihr Portfolio macht?
Die Karte die bisher gezeigt wurde dürfte mit ziemlicher Sicherheit kein HBM besitzen, evtl war aber auch das nur Navi22. NV hat bei der Präsi ja auch mehr die 3080 in den Focus für Gamer gerückt.
Evtl. macht AMD es ja auch so und bietet Navi21 in einem höheren Preispunkt mit HBM an. Wenn man es sich von der Performance erlauben kann gibt es keinen Grund deutlich günstiger als die 3090 zu sein. Zumindest würde das zu den Gerüchten passen das Navi 21 nun doch HBM haben soll.
Navi 22 wäre dann die Karte mit 256 Bit und wildert im Bereich 3070/3080. Das würde auch zu den Aussagen von einem Twitterer (ich weiß nicht mehr welcher) passen das da was vertauscht ist.
Das könnte man machen, wenn man voll etabliert im Markt ist und die entsprechenden Marktanteile hat.
Im Moment muss AMD raushauen was geht zu akzeptablen, aber nicht unbedingt zu Kampfpreisen.
Deswegen sehe ich die 3080 auch als Knüppel zwischen die Beine von AMD, damit die Marge der, nennen wie sie mal 6900X/XT, klein bleibt und gleichzeitig die Verschiebung der Marktanteile Richtung AMD verhindert/verzögert wird.
Allerdings sehe ich, zugebenermaßen ohne Kenntnis der genauen Daten, bei dem Aufwand/Problemen für GDDR6X (insb. Stromversorgung) keinen Fertigungskostenvorteil mehr im Vergleich zu HBM2(e).
basix
2020-09-25, 10:06:50
N22 mit 256b@16Gbps und 56CU würde am meisten Sinn machen. Das wäre ungefähr 2080 Ti + 15% bei 16GByte. Das passt einfach nicht so gut mit den vermuteten Chipflächen überein.
N21 hätte dann 80CUs bei 384b und N23 40CUs bei 192b. Wäre in sich stimmig, die Performance-Projektion stimmt, die Bandbreiten könnten passen, die vermuteten Chipgrössen passen irgendwie aber nicht. Letzteres kann aber auch sein, weil XBSX allenfalls einen anderen Prozess nutzt verglichen mit den dGPUs.
Adam D.
2020-09-25, 10:10:01
Könnte es sein das AMD NVs Strategie übernimmt und einen Gamerbereich und einen Bereich ala Titan/3090 für ihr Portfolio macht?
Die Karte die bisher gezeigt wurde dürfte mit ziemlicher Sicherheit kein HBM besitzen, evtl war aber auch das nur Navi22. NV hat bei der Präsi ja auch mehr die 3080 in den Focus für Gamer gerückt.
Evtl. macht AMD es ja auch so und bietet Navi21 in einem höheren Preispunkt mit HBM an. Wenn man es sich von der Performance erlauben kann gibt es keinen Grund deutlich günstiger als die 3090 zu sein. Zumindest würde das zu den Gerüchten passen das Navi 21 nun doch HBM haben soll.
Navi 22 wäre dann die Karte mit 256 Bit und wildert im Bereich 3070/3080. Das würde auch zu den Aussagen von einem Twitterer (ich weiß nicht mehr welcher) passen das da was vertauscht ist.
Wenn AMD mit NV im Bereich der Performance konkurrieren kann (in welche Regionen auch immer so vorstoßen, 3090 glaube ich weiterhin nicht), werden die Karten auch entsprechend kosten. Wer glaubt, dass er 3080-Performance für 499€ bekommt, ist einfach nur naiv.
Und so pauschal von 3070-3080-Region zu sprechen, ist auch etwas unpräzise angesichts der Tatsache, dass die beiden Karten gute 30% trennen wird. Nach dem ganzen Gebrabbel muss man schon erwarten können, dass AMD die 3080 angreifen kann. Am besten bedient sind sie aber IMO, wenn sie die 3070 auskontern.
Neurosphere
2020-09-25, 10:13:45
Das ist nun sehr sehr weit hergeholt... hast du das geträumt ?? Hoffe es gibt keine Menschen hier, die das ernst nehmen.
Kommt aus diesem Tweet:
https://abload.de/img/amd22ektn.jpg
Das könnte man machen, wenn man voll etabliert im Markt ist und die entsprechenden Marktanteile hat.
Im Moment muss AMD raushauen was geht zu akzeptablen, aber nicht unbedingt zu Kampfpreisen.
Naja, jeder kennt AMD. Die erste Navi Gen verkauft sich sehr gut. Am Ende gehts nur darum was die Chips auf die Straße bringen. Wenn eine Karte für 1400€ schneller als die 3090 ist wird die auch gekauft. Siehst du doch auch an den Prozessoren, AMD derzeit besser aufgestellt, Verkaufszahlen gehen hoch auch wenn die Prozzis teuer sind.
Berniyh
2020-09-25, 10:22:35
Navi 22 wäre dann die Karte mit 256 Bit und wildert im Bereich 3070/3080. Das würde auch zu den Aussagen von einem Twitterer (ich weiß nicht mehr welcher) passen das da was vertauscht ist.
Navi 22 kann kein 256 Bit Speicherinterface haben, das passt nicht mit den bekannten Daten zusammen.
Dural
2020-09-25, 10:23:03
Ja die 5700XT hat sich Super verkauft, kommt schon auf einen Marktanteil von 0,88% :wink:
Die 2070 / Super kommen auf 4% die 2060 / Super auf 4% und von den 1650/1660 sprechen wir mal nicht. Selbst die 2080Ti hat mehr Marktanteil laut Steam, und das ist eine 1000.- + Karte :freak:
https://store.steampowered.com/hwsurvey/videocard/
Redneck
2020-09-25, 10:36:51
Kommt aus diesem Tweet:
https://abload.de/img/amd22ektn.jpg
Kann man doch nicht Ernst nehmen.. der hat nen Smiley vergessen.
Die sollen erstmal 4K richtig auf den Boden bringen, bevor Sie anfangen von Traumschlössern zu reden.
Das Ding ist ja, das man wirklich Nichts faktisch weiß.. alles Spekulationen mal mit mehr Wahrscheinlichkeit mal mit weniger.
Finde so einen Kommentar von einem Angestellten eher affig.. dann lieber die Klappe halten. NV schmort auch jetzt schon im eigenen Saft.. da Bedarf es kein Öl von ausen.
Das wirkt einfach kindisch und unprofessionell.
dargo
2020-09-25, 10:38:03
Mythos;12438638']Naja, ich denke wenn die AMD Karten schon lange überall produziert werden würden, hätten wir schon handfestere Leaks gesehen...
Ohne Bios keine handfesten Leaks. ;)
Gedi, nimm es bitte nicht persönlich, aber du brauchst dringend eine Auszeit. Du nimmst GLASKLARE, OFFENSICHTLICHE IRONIE für bare Münze und packst das hier rein, das bringt wirklich niemandem irgendwas. Ich weiß nicht genau, warum du AMD hier zum Heilsbringer hochstilisierst, aber ich glaube, das tut dir auch nicht gut. Vielleicht einfach mal eine Woche keine "Gerüchte" in den Untiefen des Internets suchen.
*unterschreib*
Gedi ist mir im Bereich RDNA 2 mit seinen Spekulationen noch schlimmer als horni. :freak:
Hat AMD doch schon mit Vega eingeführt. Nur wollte es wohl praktisch keiner.
Teuer funktioniert nur wenn man Leistung abliefert.
Stimmt... deshalb gibt es Navi 12 (RDNA 1 fail nach Durals Definition ;D) mit HBM2 weil die GPU das schnellste am Markt ist. :rolleyes:
https://winfuture.de/news,116657.html
[MK2]Mythos
2020-09-25, 10:39:09
Ohne Bios keine handfesten Leaks. ;)
*in Form von Fotos etc. eben ;)
Neurosphere
2020-09-25, 10:46:34
Navi 22 kann kein 256 Bit Speicherinterface haben, das passt nicht mit den bekannten Daten zusammen.
Deswegen die Aussage das da was vertauscht ist.
Ja die 5700XT hat sich Super verkauft, kommt schon auf einen Marktanteil von 0,88% :wink:
Die 2070 / Super kommen auf 4% die 2060 / Super auf 4% und von den 1650/1660 sprechen wir mal nicht. Selbst die 2080Ti hat mehr Marktanteil laut Steam, und das ist eine 1000.- + Karte :freak:
https://store.steampowered.com/hwsurvey/videocard/
Darum ging es im Endeffekt garnicht. Wenn AMD Leistung bringt werden sich die Karten verkaufen.
Kann man doch nicht Ernst nehmen.. der hat nen Smiley vergessen.
Die sollen erstmal 4K richtig auf den Boden bringen, bevor Sie anfangen von Traumschlössern zu reden.
Das das Ironie war müssen wir wohl nicht weiter ausführen.
Cyberfries
2020-09-25, 10:48:34
Nur mal angenommen AMD packt +30% Perf/W und das ganze bei verdoppelte 5700 XT...wo landet man dann ?
5700xt liegt bei 173pt @225watt ->0,77pt/w *1,3 -> 1,0pt/w *300w ->300pt
Das wäre bei dieser Milchmädchenrechnung (!) 8% hinter der 3080.
Wie hoch ist eigentlich die Packdichte bei 5700 Die Gerüchte zu den Chipgrößen waren ja 240, 350 und 427 bzw 505. Wobei 505 ja für Arcturus im Gespräch war, demnach könnte ide 427 gut zu einem 80 CU@384bit Navi21 passen.
Die Navi-Packdichte ist miserabel: 41mioTr/mm²
Deinen Berechnungen stimme ich grundsätzlich zu, ich komme von N10 und xBx aus auf ähnliche Werte.
Zu HBM wurde ja bereits gesagt, dass das Interface kleiner wird - ähnlich 128bit GDDR.
N22 mit 256b@16Gbps und 56CU würde am meisten Sinn machen.
Das wäre 7WGP je Array, unschönes Verhältnis mit so vielen WGPs auf einem Haufen.
Die xBox wird nicht so sehr darunter leiden, da 4k-Konsole, aber N14 mit 6WGP je Array war auch nicht so grandios.
Deswegen die Aussage das da was vertauscht ist.
Jo, entweder stimmt die Zuordnung Navy Flounders = N22 nicht, oder N23 hat 60CU oder den 60CU-Chip gibts nicht.
Redneck
2020-09-25, 10:59:29
Deswegen die Aussage das da was vertauscht ist.
Darum ging es im Endeffekt garnicht. Wenn AMD Leistung bringt werden sich die Karten verkaufen.
Das das Ironie war müssen wir wohl nicht weiter ausführen.
Das das bescheuert ist, weil man
a) aktuell selber nichts im Highend zu bieten hat und man sich dann besser Kommentare zu anderer High End Hardware von anderen Anbietern sparen sollte und
b) manche Leute wie G..i drauf anspringen ,
muß man dann auch nicht erwähnen.
Dachte der Typ hätte sich mittlerweile einen Maulkorb von oben gefangen.
Dschounz
2020-09-25, 11:01:37
Siehst du doch auch an den Prozessoren, AMD derzeit besser aufgestellt, Verkaufszahlen gehen hoch auch wenn die Prozzis teuer sind.
Bei den Prozessoren hat AMD ja auch die Marktdurchdringung bereits erreicht; natürlich nur bei Selbstbauern, nicht im OEM Bereich.
Und mit akzeptabel ist natürlich in Abhängigkeit der Leistung gemeint; sprich
6900X ähnlich 3080 von der Leistung => 599,- bis 649,-
6900XTX Leistung ähnlich 3090 => 1.099,- bis 1.249,-
Als Vorteil noch der größere, und für höhere Auflösungen ausreichende, Speicher von 12/16(/32??) GB.
Wenn`s wieder erwarten nichts damit wird, muss man sich zwangsläufig nach unten orientieren was den Preis angeht, unabhängig von den Selbstkosten.
dargo
2020-09-25, 11:10:40
Ja die 5700XT hat sich Super verkauft, kommt schon auf einen Marktanteil von 0,88% :wink:
Die 2070 / Super kommen auf 4% die 2060 / Super auf 4% und von den 1650/1660 sprechen wir mal nicht. Selbst die 2080Ti hat mehr Marktanteil laut Steam, und das ist eine 1000.- + Karte :freak:
https://store.steampowered.com/hwsurvey/videocard/
Hast du dir wieder schön gecherrypiked. :uclap:
GTX 1080 = 2,45%
RX 580 = 2,15%
:rolleyes:
btw.
Wenn man Steam als Maßstab nimmt macht fast alles über GP106/107 und somit 6GB Vram keinen Sinn. :ulol:
Fragman
2020-09-25, 11:23:44
6900X ähnlich 3080 von der Leistung => 599,- bis 649,-
6900XTX Leistung ähnlich 3090 => 1.099,- bis 1.249,-
Der Grund weshalb nv sowas wie die 3090 bringen kann ist der Markt, den sie bedienen können, dank deren Ökosystem. Bei AMD seh ich Probleme, solche Preise zu verlangen, da sie kein solches System haben (Semiprofi seh ich bei AMD nicht).
Würde mehr Sinn machen, das gleich als Profikarte zu bringen von deren Seite, dann gehen auch ein paar € mehr beim Preis.
Dschounz
2020-09-25, 11:33:41
Der Grund weshalb nv sowas wie die 3090 bringen kann ist der Markt, den sie bedienen können, dank deren Ökosystem. Bei AMD seh ich Probleme, solche Preise zu verlangen, da sie kein solches System haben (Semiprofi seh ich bei AMD nicht).
Würde mehr Sinn machen, das gleich als Profikarte zu bringen von deren Seite, dann gehen auch ein paar € mehr beim Preis.
Stichwort CUDA ;) , stimmt.
Aber für die "Creator" (wie man den Begriff auch immer definiert :tongue:) kann auch die entsprechende AMD-Karte z.B. in Blender, Maya usw. interessant sein, wenn sie vergleichbare Leistung auch in diesem Bereich hat.
Dann wird sich auch herausstellen, ob der Ansatz mit 128 x FP32 bei Nvidia den RDNA2-CU's in diesem Bereich überlegen ist, also AMD voll in Richtung Gaming optmiert hat.
Redneck
2020-09-25, 11:47:46
Hast du dir wieder schön gecherrypiked. :uclap:
GTX 1080 = 2,45%
RX 580 = 2,15%
:rolleyes:
btw.
Wenn man Steam als Maßstab nimmt macht fast alles über GP106/107 und somit 6GB Vram keinen Sinn. :ulol:
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ? Ist das tatsächlich die Realität oder
unsere Sichtweise einfach zu fokussiert auf Mid+Highend . Kann mir darauf momentan keinen Reim machen... irgendwoher muß man ja Vergleichszahlen her beziehen..
gbm31
2020-09-25, 12:02:57
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ? Ist das tatsächlich die Realität oder
unsere Sichtweise einfach zu fokussiert auf Mid+Highend . Kann mir darauf momentan keinen Reim machen... irgendwoher muß man ja Vergleichszahlen her beziehen..
Viele kleine anspruchslose Spiele auf alten Notebooks und "kleinen" PCs außerhalb des reichen Deutschlands?
WedgeAntilles
2020-09-25, 12:06:27
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ? Ist das tatsächlich die Realität oder
unsere Sichtweise einfach zu fokussiert auf Mid+Highend . Kann mir darauf momentan keinen Reim machen... irgendwoher muß man ja Vergleichszahlen her beziehen..
Der Punkt ist halt, dass der Gesamtmarkt 0,0 mit dem zutun hat, was hier im Forum als "Realität" wahrgenommen wird.
Natürlich sind die großen Karten mit 8GB Ram nur ein kleiner Prozentsatz des Gesamtmarktes.
Da brauche ich inzwischen nur bei ner Lan mal zu schauen was die Leute für GraKas drin haben. Wir haben 1x im Jahr eine mit 15-20 Leuten.
Da gehörte ich letztes Weihnachten mit meiner GTX 970 zum oberen Drittel was die GraKa angeht.
Daredevil
2020-09-25, 12:08:46
btw.
Wenn man Steam als Maßstab nimmt macht fast alles über GP106/107 und somit 6GB Vram keinen Sinn. :ulol:
Machts ja auch nicht, wenn FullHD dominiert.
Berniyh
2020-09-25, 12:09:01
Kurz mal zum 512 Bit Speicherinterface, auch wenn wir das inzwischen für Navi 2x ausschließen können:
Wäre es möglich, dass das für GDDR6 ein 512 Bit Speicherinterface noch schwieriger umzusetzen ist, da man 32 Kanäle zu den Speicher-Chips benötigt und nicht 16 (wie bei GDDR5)?
Das hat AMD meines Wissens bislang erst einmal gemacht und zwar bei Vega 20, der Chip war aber auch für das hochpreisige Compute Segment vorgesehen und nicht für Consumer-Karten (wenngleich die Vega VII daraus entstanden ist).
Könnte das auch einer der Gründe sein, weshalb Nvidia lieber den (ganz sicher auch nicht optimalen) Weg über GDDR6X geht um ja ein 512 Bit GDDR6 Speicherinterface zu vermeiden?
Stichwort CUDA ;) , stimmt.
Nur nicht CUDA.
Wenn AMD in den Bereich rein will, geht das vermutlich nur jede Menge Investment und Verlusten am Anfang. Niemand wird 100 oder 200 Euro bei nem Arbeitsgerät sparen, wenn man sich damit während der Nutzungsdauer vielleicht ein paar Stunden Verlust durch Probleme einfängt. Da muss man einzelne Leute durch Preis überzeugen und sich über die nächsten Generationen einen passenden Ruf aufbauen. Zuverlässigkeit und Problemlosigkeit geht hier noch über die letzten paar Prozent Performance.
BoMbY
2020-09-25, 12:44:30
Für ein 512bit GDDR6 bräuchte man vermutlich mehr PCB-Layer als üblich, aber scheinbar braucht NVidia die auch wohl bei der 3000er-Reihe mit GDDR6X.
Poekel
2020-09-25, 12:46:56
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ?
Die Leistung selbst kleiner Karten und mittlerweile ja sogar iGPUs reicht einfach.
Die Mehrheit wird einfach 4k oder 120 Hz + nicht nutzen, weil man mittlerweile bei Auflösungen angelangt ist, wo der zusätzliche Nutzern noch höherer Auflösung gelinde gesagt den meisten nicht mehrere hundert oder gar tausend Euro wert sein wird.
Der Komplett-System-Käufer wird doch einfach ein Spiel starten, nichts mehr an den Grafikeinstellungen ändern und sich freuen, dass es flott läuft und anständig aussieht.
Ich habe diese Woche meine Graka verkauft und Borderlands 3 mit der iGPU gespielt. Auch mit niedrigen Details auf 1080p sieht es gut aus, es läuft performant und der Casual Nutzer wird da wohl keinen großen Unterschied zu 4k60 mit maximalen Details feststellen werden.
Das Verhältnis Kosten/Nutzen geht da doch bald in Richtung Hifi, wo man preislich sehr schnell in einen Bereich kommt, in dem für die Masse zusätzliche Qualität sehr viel langsamer als der Preis ansteigt.
dargo
2020-09-25, 13:00:05
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ? Ist das tatsächlich die Realität oder
unsere Sichtweise einfach zu fokussiert auf Mid+Highend . Kann mir darauf momentan keinen Reim machen... irgendwoher muß man ja Vergleichszahlen her beziehen..
Afaik hat das auch viel mit den Internetkaffees in China zu tun. Ich war allerdings noch nicht in China um das zu prüfen. ;) Wenn man sich aber die Einwohner von China anschaut könnte das schon einen Löwenanteil der GTX 1060 erklären.
Viele kleine anspruchslose Spiele auf alten Notebooks und "kleinen" PCs außerhalb des reichen Deutschlands?
Das kommt natürlich noch hinzu.
PS: ich fände es ganz nett wenn man bei Steam nach Kontinenten sortieren könnte. Damit könnte man vielleicht etwas besser differenzieren.
btw.
Ich halte die Statistik von Steam aber nach wie vor für sehr fragwürdig. Ich habe aktuell knapp 20 Steam Accounts und wurde seitdem es Steam gibt 1x nach meiner System-Konfiguration gefragt. Sogar in diesem Jahr.
Edit:
Nur so paar Gedankenspiele...
Stelle dir vor du hast so ein InternetKaffee und dort stehen 10 Rechner mit einer GTX 1060 ausgestattet. Pro Rechner hast du 5.000 Besucher im Monat (rein fiktive Zahlen, keine Ahnung wie oft sowas besucht wird). Wie erfasst jetzt Steam genau die Systemkonfigurationen und in welchen Zeitabstand? Wenn Steam pro Account und nicht pro Rechner geht hast du komplett verloren. Im schlimmsten Fall erfasst dir Steam in diesem einen Internetkaffee 50.000 GTX 1060 obwohl nur 10 verbaut sind. Der Zeitabstand ist auch so eine Sache. Ich wurde wirklich bis 2020 genau 1x gefragt ob ich an der Umfrage zur System-Konfiguration teilnehmen möchte. Wie oft ich in den ganzen Jahren schon die Konfiguration geändert habe kann ich gar nicht mehr zählen.
Dino-Fossil
2020-09-25, 13:34:38
Ich habe aktuell knapp 20 Steam Accounts
:freak:
why_me
2020-09-25, 13:43:52
Das geht noch ins Jahr 2019 zurück. Im ptt-Forum wurde vom tapeout eines großen AMD-Chips mit 505mm² berichtet.
Die Zuordnung zu N21 kam nicht vom Leaker. (aus der Erinnerung, Forum gerade unerreichbar)
Schade, dass es nicht mehr erreichbar ist, wäre wirklich interessant, woher die Zuordnung kam, denn wie gesagt passen die 505 mMn. nicht zu den 80CUs von N21.
Nicht mit CUs rechnen, +4CU wären nur +11%. Für den 40CU-N2x sollte man eher ca. +40% ansetzen.
+40% Leistung und +33% Bandbreite sind schon etwas enger, aber machbar. Doch 80CUs an 256bit? No way.
Für gestapelte Chips ist es zu früh, laut Gerüchten erst mit RDNA3.
Für RDNA3 hieß es doch MCM, also ein schritt weiter als stacked caches. Und stacking an sich ist auch nicht gerade neu, nur bei GPUs haben wir es noch nicht gesehen.
Schau dir an wie groß nVidia A100 ist, soviel kann man bei V20 gar nicht streichen, dass Arcturus auf 427mm² kommt.
A100schlepppt viel Tensor kram mit sich herum. FP64 Tensor etc. das kostet sicherlich Fläche, auch die 40MB Cache gibt es nicht umsonst.
Bei Arcturus scheint der komplette 3d kram rausgeworfen zu sein, es sind verglichen mit V20 vereinfacht gesagt also nur Alus + IO. Keine Ahnung, wie stark Arcturus auf AI ausgelegt sein wird, oder ob man eher auf "traditionelles" compute zielt.
Cyberfries
2020-09-25, 14:26:52
da man 32 Kanäle zu den Speicher-Chips benötigt und nicht 16 (wie bei GDDR5)?
Kann mir nicht vorstellen, dass es an der Kanalanzahl liegt. A100 müsste ja sogar 48 haben.
Neben Chipfläche, PCB-Fläche und Verbrauch ist da auch noch die Markteinstufung.
Vom Ursprungsplan (GA103 @10GB, erst mit Hopper 16GB) musste man abweichen, nVidias Plan B ist dennoch stark.
Ja die 5700XT hat sich Super verkauft, kommt schon auf einen Marktanteil von 0,88%
Laut Steam kommt AMD selbst mit APUs nur auf 11,3%, weit entfernt von den real ca.30% für dezidierte Grafik.
Für RDNA3 hieß es doch MCM, also ein schritt weiter als stacked caches.
Nicht stacked cache, stacked chiplet. MCMs wie bei Zen überfordern den Interposer.
Keine Ahnung, wie stark Arcturus auf AI ausgelegt sein wird, oder ob man eher auf "traditionelles" compute zielt.
Auch Vega10 hatte compute-"Ballast", wenn ich an das Gerücht von "non-CU-bloat" bei N21 denke:
Vlt. Arcturus rein HPC, N22 und N23 rein für Spiele und N21 wieder Hybrid?
dargo
2020-09-25, 14:27:29
:freak:
Was ist daran jetzt so :freak:? Wenn ich mit meinem Spiel durch bin und es nicht mehr anfassen möchte warum kann der nächste daran keine Freude haben? Ist sogar ein nettes Geschenk. Einfach den ganzen Account verschenken ist die einfachste Lösung. Das praktiziere ich nicht nur mit Steam so. :wink:
BlacKi
2020-09-25, 14:29:30
Was ist daran jetzt so :freak:? Wenn ich mit meinem Spiel durch bin und es nicht mehr anfassen möchte warum kann der nächste daran keine Freude haben? Ist sogar ein nettes Geschenk. Einfach den ganzen Account verschenken ist die einfachste Lösung.
+1
Dino-Fossil
2020-09-25, 14:37:23
Zugegeben, ein interessanter Ansatz. Klingt halt erstmal kurios, wenn die Einordnug nicht gegeben ist. ;)
Berniyh
2020-09-25, 14:46:37
Kann mir nicht vorstellen, dass es an der Kanalanzahl liegt. A100 müsste ja sogar 48 haben.
Ist aber – wie Vega 20 – auch nicht für den Endverbrauchermarkt vorgesehen.
Neben Chipfläche, PCB-Fläche und Verbrauch ist da auch noch die Markteinstufung.
Das war doch Teil meines Arguments. ;)
N21 wieder Hybrid?
Ein bisschen wohl schon, aber nicht so richtig.
Letztendlich will man halt auf der Basis wohl eine Workstationkarte anbieten.
stinki
2020-09-25, 15:50:01
Ich denke mittlerweile, dass es keinen Chip mit ca. 60 CUs geben wird.
Navi21 wird in verschiedenen Konfigurationen (SKUs) von 80CUs bis ca. 60CUs (oder vielleicht noch weiter hinunter, wenn nötig) genutzt. Vielleicht wird es auch erst einmal gar keine SKU im Vollausbau geben (oder nur in Radeon Pros).
Mit nur 256bit Interface wird er klein genug sein alles im Bereich von GA104 (und mehr oder weniger darüber) mit 8GB oder 16GB abzudecken.
Navi22 mit 40CUs wird dann gegen GA106 (und vielleicht noch GA104 based 3060) positioniert mit 6GB und 12GB in verschiedenen SKUs.
Berniyh
2020-09-25, 16:26:46
Ich denke mittlerweile, dass es keinen Chip mit ca. 60 CUs geben wird.
Navi21 wird in verschiedenen Konfigurationen (SKUs) von 80CUs bis ca. 60CUs (oder vielleicht noch weiter hinunter, wenn nötig) genutzt. Vielleicht wird es auch erst einmal gar keine SKU im Vollausbau geben (oder nur in Radeon Pros).
Mit nur 256bit Interface wird er klein genug sein alles im Bereich von GA104 (und mehr oder weniger darüber) mit 8GB oder 16GB abzudecken.
Navi22 mit 40CUs wird dann gegen GA106 (und vielleicht noch GA104 based 3060) positioniert mit 6GB und 12GB in verschiedenen SKUs.
Ich denke inzwischen auch, dass es nur Navi 21 mit 80 CU und Navi 22 mit 40 CU geben wird sowie noch was darunter (Navi 23 mit 20-24 CU).
Vermutlich macht man noch 1-2 Salvage-Modelle von Navi 21, je nachdem wie viele Kapazitäten man da verfügbar hat.
Ein 60 CU Modell von Navi 21 müsste man ggf. schon zu günstig anbieten um es am Markt positionieren zu können, mal schauen.
Da es ja scheinbar auf 256 Bit GDDR6 hinausläuft wird das aber an der Stelle schwierig Salvage Modelle einzufügen, denn viel kann man da nicht wegnehmen bis man bei zu kleinen Speichergrößen (<10 GB) im Vergleich zum Konkurrenten landet.
Evtl. kann man den Cache reduzieren, aber das könnte sich unter Umständen auch ziemlich böse auf die Performance auswirken.
Mit HBM2 hätte man an der Stelle mehr Flexibilität, da man hier bei der Speicherbestückung recht frei in der Schrittweite ist.
Navi 24 erwarte ich ehrlich gesagt als irgendein Custom-Modell, z.B. eine HBM2 Version von Navi 21, wenn dieser mit GDDR6 kommt.
Sei es nun für Apple oder irgendwen anderes.
Adam D.
2020-09-25, 16:31:09
https://twitter.com/AzorFrank/status/1309465638751137793
Man kann den Typ echt nicht mehr ernst nehmen...
why_me
2020-09-25, 16:36:58
Wieso? Er hat doch recht. Aus seinem ersten tweet (frei übersetzt) "wir versuchen unser bestes, dass es kein paperlaunch wird" wurden ihm im Artikel Worte in den Mund gelegt, die er so nie gesagt hat.
Einfach mal lesen, war er geschrieben hat und da nicht zu viel rein interpretieren....
Adam D.
2020-09-25, 16:48:46
Wieso? Er hat doch recht. Aus seinem ersten tweet (frei übersetzt) "wir versuchen unser bestes, dass es kein paperlaunch wird" wurden ihm im Artikel Worte in den Mund gelegt, die er so nie gesagt hat.
Einfach mal lesen, war er geschrieben hat und da nicht zu viel rein interpretieren....
Er hat die 10$-Wette angenommen, um dann zu sagen, es wird doch nicht KEIN Paper-Launch? WTF. Ja, wie immer hat WCCFTECH sich allen möglichen Scheiß dazugedichtet, aber das ist nicht gerade eine besonders motivierende Aussicht. Wird bei AMD wohl kaum anders aussehen als bei NV jetzt, nach dem Tweet zu schließen.
maximus_hertus
2020-09-25, 16:59:54
Natürlich ist das MAXIMAL blöd vom AMD Typen. Er erzählt was von wegen "aus der Vergangenheit gelernt". Seine Tweets beweisen das komplette Gegenteil.
Warum nicht einfach nur ein: "10/28" und fertig. Keine weiteren Kommentare. Wenn das Produkt gut ist, wird man automatisch einen Erfolg haben, gerade da nV, so wie es aussieht, quasi nichts liefern kann. Ergo ist der zeitliche Nachteil nicht so schlimm wie es hätte sein können.
Die RTG muss noch sehr viel von der CPU Sparte lernen....
stinki
2020-09-25, 17:05:06
Die RTG muss noch sehr viel von der CPU Sparte lernen....
Die CPU Sparte hat es aber auch momentan einfacher. Sehr, sehr gute Produkte auf dem Markt, wahrscheinlich sehr, sehr gute Produkte in der Pipeline und ein Competitor der aber auch gerade gar nichts auf den Markt gebracht bekommt.
Nvidia ist momentan (zum Glück für uns alle) nicht Intel...
Hasenpfote
2020-09-25, 17:07:51
Man kann den Typ echt nicht mehr ernst nehmen...Er rudert jetzt schon zurück:
https://twitter.com/AzorFrank/status/1309479671210352643
Zwischen den Zeilen:
"Hey, auch wenn unsere Karten kacke sind, immer dran denken, wie schwer es ist, sie zu machen!" :freak:
basix
2020-09-25, 17:18:37
Jo, ich habe mir auch gedacht, dass man zu jetzigen Zeitpunkt lieber nicht zu viel sagt. Wenn dann klare Statements. Zum Beispiel: "Wir werden am 28/10 liefern, Hard Launch".
Da verrät man gar nichts über das Produkt und dessen Eigenschaften aber überzeugt bei der jetzigen Situation wohl viele Leute: "Ach, ich warte noch 4 Wochen."
Auch wenn die Karte dann langsamer als Ampere ist, hat man nichts falsches gesagt / falsche Hoffnungen geschürt und allenfalls noch den ein oder anderen Unschlüssigen in sein Boot geholt.
Berniyh
2020-09-25, 17:19:32
Im Internet darf man halt keine Scherze machen, weil es immer Leute gibt die zu doof sind diese zu verstehen, wenn sie nicht mit 100 Smileys versehen sind … :rolleyes:
Unicous
2020-09-25, 17:28:46
Eure Englischkenntnisse scheinen wirklich unter aller Sau zu sein und Hasenpfote nimmt einen völlig unschuldigen und allgemein gehaltenen Tweet der sich um Design und Entwicklung von Halbleitern dreht und kehrt ihn ins Gegenteil.:facepalm:
Er hatte auf die folgenden Frage geantwortet:
Im just so curious if this generation will be good or amazing ?
Das macht einem wirklich Angst und Bange, was hier abgeht. Zudem kommen noch die völlig irrationalen Animositäten gegen eine Person, die vermutlich vor dem Einsteigen bei AMD niemand kannte.:rolleyes:
Der hat bei Alienware gearbeitet, der kann nur eine schlechte Person gewesen sein. Holy shit auf welchem Trip seid ihr eigentlich?:eek:
SKYNET
2020-09-25, 17:51:05
ehrliche Frage : woran kann das liegen, das Steam (für uns gesehen) überproportional kleine Karten listet ? Ist das tatsächlich die Realität oder
unsere Sichtweise einfach zu fokussiert auf Mid+Highend . Kann mir darauf momentan keinen Reim machen... irgendwoher muß man ja Vergleichszahlen her beziehen..
bei mir kommt die umfrage zur hardware grundsätzlich immer wenn ich am laptop sitze.... 4 kerne, 8 threads und ne uralt radeon drinne... :ulol: denke das wird bei vielen nicht anders sein, die den PC nur zum zocken nutzen und das laptop für alles andere. :smile:
SKYNET
2020-09-25, 17:53:38
Machts ja auch nicht, wenn FullHD dominiert.
ehhh... grad wieder FC5 gezockt... hat fast die 11GB belegt in 1920*1200 und max out mit high res pack ;D
direkt am start warens "nur" 9.2GB :freak:
r3ptil3
2020-09-25, 17:55:48
Der hat bei Alienware gearbeitet, der kann nur eine schlechte Person gewesen sein. Holy shit auf welchem Trip seid ihr eigentlich?:eek:
Ich habe das bei meinem letzten Post hier drin nicht negativ gemeint, dass er bei Alienware gearbeitet hat.
Aber der hat schon andere Sachen rausgelassen und dann wieder zurückgesteckt.
Ihn sollte man nicht mehr beachten auf Twitter, ganz einfach.
Complicated
2020-09-25, 18:24:14
Man sollte die Wette einfach darauf beziehen wie er es geschrieben hat. AMD macht keinen Paperlaunch. Die Behauptung Nvidia hätte einen hingelegt, hat der Vorposter gemacht und Azor hat das einfach ignoriert. Es ist echt gruselig was da rein interpretiert wird.
Frank Azor kam nach 21 Jahren Alienware zu AMD und ging dort als Geschäftsführer ab. Er ist der neue Chef für die gesamte Gaming Vermarktung und OEM Beziehungen in dem Segment.
Unicous
2020-09-25, 18:26:17
@bardh
Wenn du solche Anschuldigungen machst, solltest du wenigstens auch Beweise liefern.
Ich habe an sich nichts dagegen PR-Futzis ans Bein zu pinkeln wenn sie sich zu weit aus dem Fenster lehnen, aber Azor ist mir bislang noch nicht so negativ aufgefallen wie andere Konsorten, daher kann ich euer Lamentieren nicht nachvollziehen.
Ihr legt generell zu viel Gewicht in diese Social Media Accounts. Dass die Amis gerne Privates und Geschäftliches vermischen ist keine neue Erkenntnis.
Warum seid ihr eigentlich bei den ganzen Youtubern nicht so kritisch, wenn ihr kommentarlos die Videos hier und in anderen Threads postet. Was die so alles von sich lassen, in ihren Videos, auf Social Media das ist völlig legitim?:confused:
Full ack. Im Gegensatz zu Raja würdigt er auch den Konkurrenten. Die Spitze gegen das propagierte 8k-Gaming seitens NV fand ich auch klasse (eigentlich sollte ich mein Handy nimmer zum lesen benutzen - aber wenn man den ganzen Tag am Laptop hängt, kotzt einen der Rechner einfach nur an).
Szudri
2020-09-25, 18:52:48
https://twitter.com/AzorFrank/status/1309465638751137793
Man kann den Typ echt nicht mehr ernst nehmen...
Aus seinem, "es wird kein Paperlaunch" wurde ein "AMD hat bestätigt, dass es 1000 Millionen Karten zum Launch geben wird". Merkst du es noch?
Wenn nVidia kein Paper Launch war, reicht es, wenn AMD die gleiche Menge an Grafikkarten zum Start zu haben um der Wette gerecht zu werden. Was hier rein gedichtet wird ist echt jenseits von Gut und Böse.
Adam D.
2020-09-25, 19:05:44
Aus seinem, "es wird kein Paperlaunch" wurde ein "AMD hat bestätigt, dass es 1000 Millionen Karten zum Launch geben wird". Merkst du es noch?
Wenn nVidia kein Paper Launch war, reicht es, wenn AMD die gleiche Menge an Grafikkarten zum Start zu haben um der Wette gerecht zu werden. Was hier rein gedichtet wird ist echt jenseits von Gut und Böse.
Dann soll er auf den scheiß Tweet nicht so locker-flockig antworten. Es wird aktuell alles auf die Goldwaage gelegt, wie das immer so ist vor dem Launch. Da großspurig die Wette anzunehmen, um das gleich wieder zu relativieren, ist einfach nur dämlich.
unl34shed
2020-09-25, 19:06:19
Interpretier halt nicht einfach irgendwas da rein.
Um mal wieder zum Thema zu kommen: Es wäre schön bereits am 8.10. RDNA2 in Aktion zu sehen. Benchmarks bis 1080p sollten doch möglich sein. Heavy CPU-Limit und im Vergleich dann nen 10900k mit ner 3080/90.
Blediator16
2020-09-25, 19:17:46
Dann soll er auf den scheiß Tweet nicht so locker-flockig antworten. Es wird aktuell alles auf die Goldwaage gelegt, wie das immer so ist vor dem Launch. Da großspurig die Wette anzunehmen, um das gleich wieder zu relativieren, ist einfach nur dämlich.
Wir sind wirklich im Zeitalter, wo man sich über jeden Kack aufregen muss oder ;D
Stretcher
2020-09-25, 19:18:12
Ich halte die Statistik von Steam aber nach wie vor für sehr fragwürdig. Ich habe aktuell knapp 20 Steam Accounts und wurde seitdem es Steam gibt 1x nach meiner System-Konfiguration gefragt. Sogar in diesem Jahr.
Klingt nach einem gut durchdachten Argument, Steam wählt natürlich bevorzugt Nvidia User aus.:)
Frank Azor hat sich mit seiner albernen Wette eh wieder ins Abseits gestellt, fehlt nur noch der "poor volta" coup.
Nazar
2020-09-25, 19:20:49
Er hat die 10$-Wette angenommen, um dann zu sagen, es wird doch nicht KEIN Paper-Launch? WTF. Ja, wie immer hat WCCFTECH sich allen möglichen Scheiß dazugedichtet, aber das ist nicht gerade eine besonders motivierende Aussicht. Wird bei AMD wohl kaum anders aussehen als bei NV jetzt, nach dem Tweet zu schließen.
Natürlich ist das MAXIMAL blöd vom AMD Typen. Er erzählt was von wegen "aus der Vergangenheit gelernt". Seine Tweets beweisen das komplette Gegenteil.
Warum nicht einfach nur ein: "10/28" und fertig. Keine weiteren Kommentare. Wenn das Produkt gut ist, wird man automatisch einen Erfolg haben, gerade da nV, so wie es aussieht, quasi nichts liefern kann. Ergo ist der zeitliche Nachteil nicht so schlimm wie es hätte sein können.
Die RTG muss noch sehr viel von der CPU Sparte lernen....
Hmm... ihr seid der englischen Sprache nicht mächtig oder?
Nichts von dem was ihr schreibt hat er getwittert.
Einfach lesen und verstehen, es kann ja wirklich nicht so schwer sein... oder einfach schweigen...! :wink:
Daredevil
2020-09-25, 19:20:53
Macht ja auch Sinn, weil sonst würden Skynets Notebooks und dargos 50 Accounts das Bild ja auch verfälschen.
Dadurch, das es Random ist, kann man es halt nicht verfälschen.
Ich weiß nicht, ob man als AMD Mitarbeiter momentan ( AMD in Zugzwang, man weiß nichts über die Produkte ) überhaupt tweeten sollte.
Da wird doch schon aus einem "Hi" aus HBM integrated!!!111elf
dargo
2020-09-25, 19:21:16
Klingt nach einem gut durchdachten Argument, Steam wählt natürlich bevorzugt Nvidia User aus.:)
Trollmodus wieder "on"? In meiner "Laufbahn" hatte ich einige Geforces im Rechner, auch dort kam keine Abfrage durch Steam.
Klingt nach einem gut durchdachten Argument, Steam wählt natürlich bevorzugt Nvidia User aus.:)
Ich habe mir den Krempel nie angeschaut. Wozu auch? In Deutschland laufen auch die meisten VW vom Band, obwohl die Technik Crap ist!
Stretcher
2020-09-25, 19:27:27
"Hey, auch wenn unsere Karten kacke sind, immer dran denken, wie schwer es ist, sie zu machen!" :freak:
Ob der User dann die 10 Dollar bekommt?
In meiner "Laufbahn" hatte ich einige Geforces im Rechner, auch dort kam keine Abfrage durch Steam.
Versuchs mal mit ner Intel.^^ Der Sinn von Umfragen ist es, nicht jeden fragen zu müssen, ansonsten sitzen die in nem Jahr noch an der Auswertung.
fondness
2020-09-25, 19:27:28
Wäre ein combi si möglich bzw denkbar? Also zb 8GB 256 bit GDDR6 plus 8GB 1024 bit HBM2e für zusammen 16GB VRAM und ausreichend Bandbreite. Vorteil wäre ein wenig komplexes PCB und nur einem HBM Speicher.
Linmoum
2020-09-25, 19:30:49
Ob der User dann die 10 Dollar bekommt?Eher manche Leute hier für einen Englischkurs.
Cyberfries
2020-09-25, 19:31:22
In Deutschland laufen auch die meisten VW vom Band, obwohl die Technik Crap ist!
War auch nicht immer so. Ein guter Ruf hält sich lang.
Ich denke inzwischen auch, dass es nur Navi 21 mit 80 CU und Navi 22 mit 40 CU geben wird sowie noch was darunter (Navi 23 mit 20-24 CU).
HBM + 256bit Kombi-Interface? 80CU @ HBM und 60CU @ GDDR6?
Sind nur ca. 66mm² für ein GDDR6 Interface. Ich bleib vorerst bei nem 60CU-Chip.
Wäre ein combi si möglich bzw denkbar? Also zb 8GB 256 bit GDDR6 plus 8GB 1024 bit HBM2e
Entweder oder. Beides gleichzeitig ist nicht sinnvoll.
edit:
Was hat er denn sonst gezwitschert?
wccftech macht aus der "kein Papierlaunch"-Wette ein: Mehr Karten als bei nVidia ab 28.10. verfügbar.
Am 28. ist nicht Launch. Mehr Karten als nVidia ? Kein Papierlaunch ist mit mehr als nichts erfüllt.
Stretcher
2020-09-25, 19:34:52
Eher manche Leute hier für einen Englischkurs.
Er wettet es wird keinen "Paperlaunch" wie bei der 3090 geben, also schließen viele daraus, dass ordentlich Karten auf Lager sind, ansonsten macht seine Wette doch überhaupt keinen Sinn. Englischkurs?:redface:
Nichts von dem was ihr schreibt hat er getwittert.
Einfach lesen und verstehen, es kann ja wirklich nicht so schwer sein... oder einfach schweigen...! :wink:
Was hat er denn sonst gezwitschert?
Complicated
2020-09-25, 19:39:03
Ich weiß nicht, ob man als AMD Mitarbeiter momentan ( AMD in Zugzwang, man weiß nichts über die Produkte ) überhaupt tweeten sollte.
Welcher Zugzwang? AMD hat den größten Nutzen wenn sie noch länger nichts sagen. Dass Nvidia negative Presse wegen Lieferproblemen bekommen wird, war allen in der Branche klar. Deshalb ist die 3090 eben so teuer. Der hohe Preis reduziert die Nachfrage, nur halt nicht ausreichend. So lange Nvidia nicht die Nachfrage bedienen kann muss AMD nichts tun. Nvidia muss Bestellungen dennoch produzieren, doch wenn AMD es schafft ein gutes Produkt abzuliefern kann das auch eine Stornierungswelle nach sich ziehen wenn noch nicht ausgeliefert wurde. AMD könnte bekannt sein, dass auch das 3080 Kontingent nicht üppig genug ist um den Preis auf Dauer im Markt zu halten wenn nicht geliefert werden kann. Der gewünschte Preisdruck könnte sich schnell in Luft auflösen wenn es keine 3080 unterhalb von 700,- € zu kaufen gibt. Wenn AMD dann 100,- teurer im Listenpreis ist aber dennoch liefern kann und somit 100,- € günstiger im Handel ist, dann war das gut gespielt. Mal sehen wie es da Ende Oktober aussehen wird.
dargo
2020-09-25, 19:39:54
Versuchs mal mit ner Intel.^^
:lol:
Hatte auch einige Intels im System. :wink:
Eher manche Leute hier für einen Englischkurs.
;D :up:
WedgeAntilles
2020-09-25, 19:42:16
Trollmodus wieder "on"? In meiner "Laufbahn" hatte ich einige Geforces im Rechner, auch dort kam keine Abfrage durch Steam.
Sorry, du hast wirklich 0 Ahnung wie solche Umfragen / Hochrechnungen erstellt werden.
Macht nix, musst du auch nicht - allerdings bist du dann nicht sonderlich qualifiziert, dir ein Urteil darüber zu erlauben.
Ich wurde auch noch nie nach ner Wahl befragt. Du vermutlich auch nicht.
Und - unglaubliche Überraschung - die Wahlprognosen ab 18:00 sind doch ziemlich gut.
Natürlich reiner Zufall, denn wenn du nicht gerfragt wurdest kann es ja nicht repräsentativ sein.
Complicated
2020-09-25, 19:50:04
Ja, kann man sehen wenn dann über Nacht 1 Mrd. Chinesen mit rein genommen werden die zuvor noch nicht drin waren. Oder wenn es mehr User aus Belgien als aus Indien gibt. Oder wenn in Internet Cafes mit jedem User immer wieder ein und das selbe System erfasst wird mit 20 verschiedenen Accounts täglich. Ganz genau wie bei einer Wählerbefragung, die auch nicht mehr stimmen würde wenn Bayern mal drin ist und mal nicht oder in Bremen alle 20 mal erfasst werden bei der Befragung. Wie bei Steam funktioniert das in jedem Fall nicht wenn es korrekt gemacht wird. Steigende Windows 7 Systemzahl plötzlich gar nicht zu erwähnen...
Daredevil
2020-09-25, 19:51:53
Welcher Zugzwang?
Ihr alle hier im Thread, die jeden Schnipsel auf links drehen, weil man ein Infos haben möchte. :D
Zugzwang in dem Sinne, das jemand vorlegt ( Nvidia ) und man auf eine Reaktion wartet ( AMD ). Mit Zugzwang meinte ich nicht, dass Nvidia ein bahnbrechend gutes Produkt gebracht hat, sondern etwas.
AMD hat den größten Nutzen wenn sie noch länger nichts sagen. Dass Nvidia negative Presse wegen Lieferproblemen bekommen wird, war allen in der Branche klar.
Bis wann soll AMD denn warten, bis Karneval 2021?
Nvidia bekommt negative Presse durch den Launch, mag sein. Aber spätestens wenn die Karten dieses Jahr ( falls überhaupt ) lieferbar sind, ist den Kunden das egal, weil das Produkt kein schlechtes ist. ( Es sei denn, die Abstürze sind ein Massenphänomen ).
Das AMD "nichts" bringt haben wir btw. seit einem Jahr. Ich glaube den AMD Fans hier ist das auch.... zulang, zumindest jedem armen Menschen, der nen 4K Monitor auf dem Tisch hat oder nen 144hz WQHD Monitor. Denn die verbluten kläglich. ( Ich auch btw. )
Hier habe ich dir noch einmal Zugzwang bildlich dargestellt:
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160
https://abload.de/img/unbenanntvsks2.png
Wenn selbst die VII die "aktuelle" Generation überholt, sollte man alles tun, sich aber nicht zurücklehnen.
dargo
2020-09-25, 19:55:04
Ja, kann man sehen wenn dann über Nacht 1 Mrd. Chinesen mit rein genommen werden die zuvor noch nicht drin waren.
Ich kann mich noch an diese Zeit sehr gut erinnern. Da war Windows 10 ganz gut in Führung und plötzlich von einem Tag auf den anderen völlig abgeschlagen da Windows 7 wieder deutlich vorne lag. Was haben wir damals gerätselt. ;D
Ihr alle hier im Thread, die jeden Schnipsel auf links drehen, weil man ein Infos haben möchte. :D
Wer ist "ihr alle"? Bisher sehe ich hauptsächlich nur gedi hier hyperventilieren.
Complicated
2020-09-25, 19:56:33
Was stimmt denn nicht mit dem 28.Oktober?
Eben sind die Konsolen gelaunched an denen AMD mit verdient, am 08.Oktober kommt das wichtigere Produkt: Zen3 und 20 Tage später die neuen GPUs. Warum drehen hier alle hohl? Alle wissen wann die Infos kommen. Man kann hier echt kaum noch mitlesen bei all dem Unsinn.
Ich kann mich noch an diese Zeit sehr gut erinnern. Da war Windows 10 ganz gut in Führung und plötzlich von einem Tag auf den anderen völlig abgeschlagen da Windows 7 wieder deutlich vorne lag. Was haben wir damals gerätselt. ;D
Wer ist "ihr alle"? Bisher sehe ich hauptsächlich nur gedi hier hyperventilieren.
Ich bin wieder runter gekommen. Keine Angst, zudem finde ich deine Aussage anmaßend
WedgeAntilles
2020-09-25, 20:01:03
Ja, kann man sehen wenn dann über Nacht 1 Mrd. Chinesen mit rein genommen werden die zuvor noch nicht drin waren. Oder wenn es mehr User aus Belgien als aus Indien gibt. Oder wenn in Internet Cafes mit jedem User immer wieder ein und das selbe System erfasst wird mit 20 verschiedenen Accounts täglich. Ganz genau wie bei einer Wählerbefragung, die auch nicht mehr stimmen würde wenn Bayern mal drin ist und mal nicht oder in Bremen alle 20 mal erfasst werden bei der Befragung. Wie bei Steam funktioniert das in jedem Fall nicht wenn es korrekt gemacht wird. Steigende Windows 7 Systemzahl plötzlich gar nicht zu erwähnen...
Eine Wählerbefragung ohne Bayern wäre immer noch eine halbwegs plausible Hochrechnung. Lange nicht mehr so gut, aber meilenweit von wertlos weg.
Es geht nicht darum, dass die Steamzahlen zu 100% passen (so wie es quasi die Wahlprognosen sind). Tun sie natürlich nicht.
Hat nie einer behauptet.
Aber es gibt einen Unterschied zwischen: 100% exakt und völlig wertlos.
Euch gefällt nicht, dass eure angebetete Firma schlecht dasteht.
Und was nicht sein darf kann halt für euch nicht sein.
Complicated
2020-09-25, 20:05:05
Was soll da jemandem nicht gefallen. Es gibt korrekte Marktzahlen (AMD hat da ca. 20% Marktanteil) und die bilden nicht ab was Steam publiziert - ist halt immer wieder eine Foren-Fanboy-Quelle. Nur wenn jemand meint diese Zahlen sagen etwas aus, liegt er halt daneben. Und wenn jemand meint SO sehen Wählerbefragungen aus, dann hat er noch weniger Ahnung als derjenige dem er das Beispiel gegeben hat.
Cyberfries
2020-09-25, 20:06:00
Aber es gibt einen Unterschied zwischen: 100% exakt und völlig wertlos.
Euch gefällt nicht, dass eure angebetete Firma schlecht dasteht.
Und was nicht sein darf kann halt für euch nicht sein.
Die Steam-Umfrage ist keine Wählerbefragung. Und exakt ist sie auch nicht.
Professionelle Marktforschung spuckt für Radeon in den letzten Quartalen aus:
32,1% 27,1% 31,1% 30,8% 22%
Steam behauptet, es seien 11,3% inkl. APUs. Diese auffallende Diskrepanz hat nichts mit Fanboytum zu tun.
Abgesehen davon ist das hier nicht der Steam-HW-Umfragen-Diskussions-Thread.
Eine Wählerbefragung ohne Bayern wäre immer noch eine halbwegs plausible Hochrechnung. Lange nicht mehr so gut, aber meilenweit von wertlos weg.
Es geht nicht darum, dass die Steamzahlen zu 100% passen (so wie es quasi die Wahlprognosen sind). Tun sie natürlich nicht.
Hat nie einer behauptet.
Aber es gibt einen Unterschied zwischen: 100% exakt und völlig wertlos.
Euch gefällt nicht, dass eure angebetete Firma schlecht dasteht.
Und was nicht sein darf kann halt für euch nicht sein.
Sorry, aber das ist doch Kindergarten. Jedem Menschen in einem freien Land, sollte es doch möglich sein, das zu kaufen und zu verwenden, wozu ihm lustig ist.
Ganz ehrlich: Die Matrix 2080Ti umgebaut auf Fullcover war vielleicht die beste Grafikkarte, welche ich je besessen habe. Hat 360W gebraucht, die Leistung war aber eigentlich, da High-Asic, immer da.
Geil finde ich allerdings auch ne 5700XT Strix, ebenfalls High-Asic. Da komme ich unter Wasser bei 240W bei 2080s Performance raus, ebenfalls beeindruckend, imo.
Iscaran
2020-09-25, 20:18:12
5700xt liegt bei 173pt @225watt ->0,77pt/w *1,3 -> 1,0pt/w *300w ->300pt
Das wäre bei dieser Milchmädchenrechnung (!) 8% hinter der 3080.
Ja eben. Und die Aussage von AMD ist "wir packen +50%" relativ zu RDNA1...
0.77 pt/w *1.5 = 1.115*300 W = 346.5 Pt - wäre also eher so fast 3090 Niveau aber @300 W.
Aber wie gesagt sehr "milchig"
Die Navi-Packdichte ist miserabel: 41mioTr/mm²
Deinen Berechnungen stimme ich grundsätzlich zu, ich komme von N10 und xBx aus auf ähnliche Werte.
Bezogen auf die Packdichte von nVidia im 8nm Prozess von 60mio Tr/mm^2 könnte man also hier durchaus eine Verbesserung um bis zu 50% in TSMC (verbessertem) 7nm Prozess andenken ?
also 10-20% müssten in jedem Fall gehen. Und damit wäre man eher bei den kleinere Chipgrößeren die ich schrieb.
Das wäre 7WGP je Array, unschönes Verhältnis mit so vielen WGPs auf einem Haufen.
Die xBox wird nicht so sehr darunter leiden, da 4k-Konsole, aber N14 mit 6WGP je Array war auch nicht so grandios.
Wieso ist N14 nicht grandios ? Bist dir sicher dass der den internen Aufbau mit 6 WGP je SA hat ? In jedem Fall hat N14 nur 1 Shader Engine AFAIK, kenn micht mit dem Chip nicht so aus, 1 SE mit 2 SA zu je 6 WGP und 2CU pro WGP wären also 1x2x6x2 = 24 CUs
Aber vermutlich würde in dem Design der Chip am mangelnden Frontend "verhungern" ? Da die ROPs immer nur in der Shaderengine sitzen und 1 SE dann für die 24 CUs vielleicht unterdimensioniert ist ?
Andererseits soll RDNA2 ja gerade die ROPS pro SE verdoppeln...
Ja eben. Und die Aussage von AMD ist "wir packen +50%" relativ zu RDNA1...
0.77 pt/w *1.5 = 1.115*300 W = 346.5 Pt - wäre also eher so fast 3090 Niveau aber @300 W.
Aber wie gesagt sehr "milchig"
Bezogen auf die Packdichte von nVidia im 8nm Prozess von 60mio Tr/mm^2 könnte man also hier durchaus eine Verbesserung um bis zu 50% in TSMC (verbessertem) 7nm Prozess andenken ?
also 10-20% müssten in jedem Fall gehen. Und damit wäre man eher bei den kleinere Chipgrößeren die ich schrieb.
Wieso ist N14 nicht grandios ? Bist dir sicher dass der den internen Aufbau mit 6 WGP je SA hat ? In jedem Fall hat N14 nur 1 Shader Engine AFAIK, kenn micht mit dem Chip nicht so aus, 1 SE mit 2 SA zu je 6 WGP und 2CU pro WGP wären also 1x2x6x2 = 24 CUs
Aber vermutlich würde in dem Design der Chip am mangelnden Frontend "verhungern" ? Da die ROPs immer nur in der Shaderengine sitzen und 1 SE dann für die 24 CUs vielleicht unterdimensioniert ist ?
Andererseits soll RDNA2 ja gerade die ROPS pro SE verdoppeln...
Dazu noch die von AMD 6-8% propagierte verbesserte IPC und schon steht’s 0:0, um mal sportlich zu bleiben.
Langlay
2020-09-25, 20:28:09
Was stimmt denn nicht mit dem 28.Oktober?
Eben sind die Konsolen gelaunched an denen AMD mit verdient, am 08.Oktober kommt das wichtigere Produkt: Zen3 und 20 Tage später die neuen GPUs. Warum drehen hier alle hohl? Alle wissen wann die Infos kommen. Man kann hier echt kaum noch mitlesen bei all dem Unsinn.
Jo am 28.10. werden die Karten vorgestellt und wahrscheinlich kann ich sie dann erst Wochen später kaufen und bis ordentliche Wasserblöcke(kein EK) verfügbar sind dauerts dann nochmal 2-3-4 Wochen. Ja dann hab ich mich mit der VII durch 4k Cyberpunkgequalt da brauch ich dann auch keine 6900XT.
Bei Nvidia ist halt aktuell das Problem, dass das rundeste Produkt die 3090 für 1500 Steine ist. Also P/L Technisch scheisse, die 3080 ist von P/L geil aber mit 10GB VRAM nicht zu gebrauchen.
Iscaran
2020-09-25, 20:29:34
Dazu noch die von AMD 6-8% propagierte verbesserte IPC und schon steht’s 0:0, um mal sportlich zu bleiben.
Naja - ich denke die Verbesserte IPC braucht man um auf die +50% Perf/W zu kommen. Rechne ich die "nochmal" ein ist es doppelt gemoppelt.
Aber eine Karte mit nur 300W @ RTX 3080 bis 3090 Niveau wäre sowieso schon der Hammer.
dargo
2020-09-25, 20:35:36
Ich bin wieder runter gekommen. Keine Angst, zudem finde ich deine Aussage anmaßend
Sorry dafür, aber diese wilden Spekulationen (nicht nur von dir) jenseits jeglicher Realität in beide Richtungen sind einfach nur noch anstrengend. Dazu noch dieses Fischen bei Twitter nach jedem noch so kleinen Schnipsel ohne Substanz. Könnt ihr nicht einfach die Füsse still halten bis es was Handfestes gibt? Ist es wirklich so schwer? Bei manchen hier hat man das Gefühl die Kratzen vor 2021 ab und brauchen dringend noch eine neue Grafikkarte bis es soweit ist. :freak:
Naja - ich denke die Verbesserte IPC braucht man um auf die +50% Perf/W zu kommen. Rechne ich die "nochmal" ein ist es doppelt gemoppelt.
Aber eine Karte mit nur 300W @ RTX 3080 bis 3090 Niveau wäre sowieso schon der Hammer.
Mit nem 256-Bit SI bei lediglich 64ROPs, wie von Leo prognostiziert, schwierig. Hört sich trotz der 80CUs eher nach ner 1440p-Karte an ...
Sorry dafür, aber diese wilden Spekulationen (nicht nur von dir) jenseits jeglicher Realität in beide Richtungen sind einfach nur noch anstrengend. Dazu noch dieses Fischen bei Twitter nach jedem noch so kleinen Schnipsel ohne Substanz. Könnt ihr nicht einfach die Füsse still halten bis es was Handfestes gibt? Ist es wirklich so schwer? Bei manchen hier hat man das Gefühl die Kratzen vor 2021 ab und brauchen dringend noch eine neue Grafikkarte bis es soweit ist. :freak:
Bevor ich das zeitliche segne, kaufe ich mir ne XBOX-versprochen.
k0nan
2020-09-25, 21:19:37
https://twitter.com/AzorFrank/status/1309465638751137793
Achill
2020-09-25, 21:44:01
Ein schöner Post von Locuza auf Twitter, der es auf den Punkt bringt ...
At the very least one month of madness is still in front of some.
Of the one million *possible* options, what do you think it will be?
https://pbs.twimg.com/media/EisSihKXgAEw4ls?format=png
Linmoum
2020-09-25, 21:48:47
rogame hatte vorhin "spekuliert", dass die XTX/XT/XL-Varianten alle HBM abbekommen und die XE-Variante von N21 mit GDDR6 ausgestattet ist. Tweet hat er aber wieder gelöscht. Warum auch immer. :D
Ich bin mal so frei, um sagen zu können, dass nichts zutrifft
rogame hatte vorhin "spekuliert", dass die XTX/XT/XL-Varianten alle HBM abbekommen und die XE-Variante von N21 mit GDDR6 ausgestattet ist. Tweet hat er aber wieder gelöscht. Warum auch immer. :D
Wie immer - Fischen im trüben
basix
2020-09-25, 21:55:51
Ein schöner Post von Locuza auf Twitter, der es auf den Punkt bringt ...
:D
rogame hatte vorhin "spekuliert", dass die XTX/XT/XL-Varianten alle HBM abbekommen und die XE-Variante von N21 mit GDDR6 ausgestattet ist. Tweet hat er aber wieder gelöscht. Warum auch immer. :D
Du meinst dass: https://twitter.com/_rogame/status/1309573788116430848?s=21
Nur ne Spekulation und macht auch 0 Sinn! Man hat nen N21 auf HBM und flanscht einer GPU von N21 ein SI an? Meh
Berniyh
2020-09-25, 22:42:55
HBM + 256bit Kombi-Interface? 80CU @ HBM und 60CU @ GDDR6?
Sind nur ca. 66mm² für ein GDDR6 Interface. Ich bleib vorerst bei nem 60CU-Chip.
Denkbar ist das schon, aber ist das wirklich nur über die zusätzliche Chipfläche realisierbar?
Könnte mir vorstellen, dass auch die interne Verschaltung komplizierter werden würde.
Zudem müsste es so verdrahtet sein, dass man die gleichen Caches und Texture Channels mit beiden Interfaces verbinden kann, sonst wären es da vermutlich auch wieder zu wenig Kanäle.
Also so richtig kann ich mir das jedenfalls nicht vorstellen. Dann doch eher für 60CU einen eigenen Chip.
Das spart ja unterm Strich dann auch Wafer und wäre wohl günstiger, zumal 60CU wahrscheinlich häufiger verkauft wird als 80CU.
Mortalvision
2020-09-25, 23:20:03
Ich hoffe wirklich auf 16 GB HBM2. Die VII hatte da so gut vorgelegt, das bräuchte AMD doch nur recyceln. 1 TB/sec Durchsatz ist richtig gut! Und 16 GB wären ein Hammer Verkaufsargument gegenüber 800€ 3080er mit nur 10 GB (ich habe 4k), da würde ich für eine Leistung 5% unter 3080 auch 850-900€ zahlen, weils immer noch dicker Fortschritt zur VII wäre.
horn 12
2020-09-26, 00:18:57
Los Gehts:
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
https://www.techpowerup.com/gpu-specs/radeon-rx-6800-xt.c3694
Linmoum
2020-09-26, 00:21:06
Das ist bei TPU nie was anderes als Platzhalter und das Zusammenreimen von Gerüchten, um schön einen Eintrag in der Datenbank (=clicks) zu bekommen. Denken ja genug, dass das alles schon stimmt und Fakten sind.
Akkarin
2020-09-26, 00:21:18
TPUs pre-release specs konnte man doch schon immer in die Tonne klopfen. Die stochern genauso im dunklen wie wir.
dargo
2020-09-26, 00:22:42
Los Gehts:
https://www.techpowerup.com/gpu-specs/radeon-rx-6900-xt.c3481
https://www.techpowerup.com/gpu-specs/radeon-rx-6800-xt.c3694
Womit denn? :freak:
Ein schöner Post von Locuza auf Twitter, der es auf den Punkt bringt ...
Wollte er da einen auf die Schippe nehmen? :D
Digidi
2020-09-26, 01:46:29
Ein schöner Post von Locuza auf Twitter, der es auf den Punkt bringt ...
Wenn man bei AMD schon in Tiles denkt könnte es nicht sein, da ja alles gedoppelt wurde, das man 2x256 Bit Speicherinterface hat?
SKYNET
2020-09-26, 02:02:56
ein vögelchen hat gezwitschert das AMDs flagschiff im 20 spiele durchschnitt(ohne RT / DLSS @ 4K) 5.83% schneller ist als eine 3090... obs stimmt --> :uponder:
hardwarespezifikationen wurde leider keine gezwitschert :frown:
-=Popeye=-
2020-09-26, 02:22:54
Selbst wenn... würde ihr in 8k der Speicher ausgehen. ;) :D
crux2005
2020-09-26, 04:52:11
Womit denn? :freak:
DVI wird von AMD wiederbelebt. 111!!!
Piefkee
2020-09-26, 08:41:34
https://mobile.twitter.com/julesqinkai/status/1309706626803412992
Rumors....
Navi 21 -> eine soll schneller als 3080 sein
Navi21 -> die andere soll auf Leistung 3090 sein (TSE > 10000pkt)
horn 12
2020-09-26, 08:55:53
Nun, dies wären nur magere 8 bis max. 15%
Eine schneller als RTX 3080 wäre schon "knapp" 3090 Performance
Top Dog dann wirklich HBM² mit all seinen Vorteilen?
basix
2020-09-26, 08:57:30
Wenn die 3080 oder gar die 3090 erreicht würde, können wir zufrieden sein ;)
Screemer
2020-09-26, 09:00:30
DVI wird von AMD wiederbelebt. 111!!!
Na also. Da kann ich meinen alten Koreaner doch noch ein bisschen betreiben ;D
Redneck
2020-09-26, 09:35:52
ein vögelchen hat gezwitschert das AMDs flagschiff im 20 spiele durchschnitt(ohne RT / DLSS @ 4K) 5.83% schneller ist als eine 3090... obs stimmt --> :uponder:
hardwarespezifikationen wurde leider keine gezwitschert :frown:
Hardware ist doch egal.. die brauchen nur den Preis dieser ominösen Karte leaken. Dann bekommen einige Schnappatmung.. Ob man dann trotzdem radeon kaufen darf, obwohl die treiber ja so schlecht sind? :biggrin:
dargo
2020-09-26, 09:52:54
Selbst wenn... würde ihr in 8k der Speicher ausgehen. ;) :D
Stimmt. ;(
Aber Amd-ler sind so anspruchslos, dass die sich mit 4k zufrieden geben. :wink: Mir als Casualgamer reichen sogar 1440p. :eek:
Wenn die 3080 oder gar die 3090 erreicht würde, können wir zufrieden sein ;)
Ich bin erst zufrieden wenn AMD damit bei <300W rauskommt. :cool: Nicht, dass AMD, nachdem Lederjacke beim GA102 die Hose runtergelassen hat, in letzter Minute auf die Idee kommt den Betriebspunkt von NV21 Richtung ~350W zu schieben.
Dino-Fossil
2020-09-26, 11:13:59
Offenbar AMD-Folien zu den 6800er Karten geleaked!
(Ich hatte mehr erwartet...) :(
https://storage.hw-lab.com/gpu/hd-6800/barts/27-spec.jpg
:tongue:
dargo
2020-09-26, 11:17:47
Aaaahh... :ubash2:
[MK2]Mythos
2020-09-26, 11:37:10
Offenbar AMD-Folien zu den 6800er Karten geleaked!
(Ich hatte mehr erwartet...) :(
https://storage.hw-lab.com/gpu/hd-6800/barts/27-spec.jpg
:tongue:
:ulol:
Sack!
Achill
2020-09-26, 11:39:00
Offenbar AMD-Folien zu den 6800er Karten geleaked!
[..]
:freak: ;D ... ich erwarte von AMD diesmal etwas gleichwertiges wie mein X-Phone (https://www.youtube.com/watch?v=9-nezImUP0w) welches ich seit anno 2013 nutze, keine Kompromisse mehr für die nächsten 40 Jahre.
Gouvernator
2020-09-26, 12:25:44
Selbst wenn... würde ihr in 8k der Speicher ausgehen. ;) :D
Naja nicht überall. Meine Sichtungen in älteren Games zeigen selten 16Gb Auslastung. Erst mit 4xMSAA geht es Richtung 17Gb los. Aber unter normalen Umständen nur ca. 12-14Gb. Man kommt ohne 8xMSAA Exzesse gut mit 16Gb zurecht.
SKYNET
2020-09-26, 12:28:58
Selbst wenn... würde ihr in 8k der Speicher ausgehen. ;) :D
keine ahnung, da immer noch offen: 16GB? 24GB? 32GB?
viel mehr hätte mich ja interessiert WELCHE games das gewesen sein sollen... :confused:
weil 6% mehr ist schon denkbar knapp, heisst werden auch einige games dabei gewesen sein, wo ampere dann schneller war(und das sind dann die interessanten sachen)
Hasenpfote
2020-09-26, 12:33:06
https://mobile.twitter.com/julesqinkai/status/1309706626803412992
Rumors....
Navi 21 -> eine soll schneller als 3080 sein
Navi21 -> die andere soll auf Leistung 3090 sein (TSE > 10000pkt)Wer hat noch nicht, wer will nochmal? Und los geht die wilde Fahrt im Gerüchtekarusell! ;D
Das wird echt anstrengend bis Ende Oktober...
Dann spekulier ich einfach mal, dass AMD am Preis nach unten dreht um sich für die Jahre des Vorgeführtwerdens so bei Nvidia rächt, wie an Intel. Da kam der 8-Kerner doch zum halben(?) Preis raus, oder? D.h. also 3080 Performance zum halben Preis. :eek:
Außerdem sucht AMD gerade Rust-Entwickler für die GPU-Sparte. Somit geht's dort auch bergauf und das "Aber die Treiber und das GUI-Tool sind scheiße"-Argument greift auch nicht mehr.
*singt* The sun is shining :D
@Unicous: Hast Du mich immer noch nicht auf deiner Blockliste? Ich triggere Dich doch quasi bei jedem Thema... Das ist echt nicht gut für Dein Herz!
BlacKi
2020-09-26, 12:33:57
Naja nicht überall. Meine Sichtungen in älteren Games zeigen selten 16Gb Auslastung. Erst mit 4xMSAA geht es Richtung 17Gb los. Aber unter normalen Umständen nur ca. 12-14Gb. Man kommt ohne 8xMSAA Exzesse gut mit 16Gb zurecht.
hast du spiele mit dlss unterstützung?
kannst du mal checken wie hoch der vram verbrauch unter 8k nativ und 8k dlss quality bis ultra performance ist?
Gouvernator
2020-09-26, 12:40:49
Hätte AMD was richtig Gutes vorzuweisen, dann wären sie längst fleißig am leaken. So wie sie es aber handhaben kommt's mir vor als haben sie Angst überhaupt den Erwartungen gerecht zu werden. So macht man kein PR für ein Flaggschiff-Produkt welcher den ganzen Konzern ziehen soll/muss/kann.
Linmoum
2020-09-26, 12:44:05
Stimmt. Sie machen ja nicht einmal PR für Zen3, muss also auch Crap werden. Naja schade.
Gouvernator
2020-09-26, 12:44:27
hast du spiele mit dlss unterstützung?
kannst du mal checken wie hoch der vram verbrauch unter 8k nativ und 8k dlss quality bis ultra performance ist?
Habe ehrlich gesagt noch nie im Leben DLSS gesehen. :freak:
Ein Mechwarrior 5 soll irgendwo aber rumliegen.
dildo4u
2020-09-26, 12:47:50
Hätte AMD was richtig Gutes vorzuweisen, dann wären sie längst fleißig am leaken. So wie sie es aber handhaben kommt's mir vor als haben sie Angst überhaupt den Erwartungen gerecht zu werden. So macht man kein PR für ein Flaggschiff-Produkt welcher den ganzen Konzern ziehen soll/muss/kann.
Sie müssen auf die 3070 warten damit sie was haben was sie schlagen können.
Linmoum
2020-09-26, 12:49:50
Sie müssen auf die 3070 warten damit sie was haben was sie schlagen können.Ist schon draußen und nennt sich 3080.
dildo4u
2020-09-26, 12:51:53
Nur AMD kann Caches verbauen damit kein High-End Speicher verbauen muss logisch.
Gouvernator
2020-09-26, 12:53:42
Sie müssen auf die 3070 warten damit sie was haben was sie schlagen können.
Ja die AMD Fanboys träumen davon, wie die warten... auf ein 499€ Produkt, damit sie es mit der Performance einer 3090 für das Gleiche Geld (499€) schlagen können. :biggrin:
Linmoum
2020-09-26, 12:56:08
Ja die AMD Fanboys träumen davon, wie die warten... auf ein 499€ Produkt, damit sie es mit der Performance einer 3090 für das Gleiche Geld (499€) schlagen können. :biggrin:Davon träumt nicht einmal horn als größter Fanboy auf dem Planeten, den Quatsch kannst du also gleich stecken lassen.
SKYNET
2020-09-26, 12:57:26
Stimmt. Sie machen ja nicht einmal PR für Zen3, muss also auch Crap werden. Naja schade.
DISS! ;D
AMD behält sich derzeit in alle richtungen bedekt wie nen frigides weib... und die sind dann im bett meistens die gröbsten drecksäue, wos am meisten spass macht ;D
WedgeAntilles
2020-09-26, 12:57:31
Stimmt. Sie machen ja nicht einmal PR für Zen3, muss also auch Crap werden. Naja schade.
Weil Intel ja in den letzten Monaten neue Produkte gelauncht hat?
Handelst du im Geschäftsleben immer völlig identisch, unabhängig davon wie die tatsächliche Situation am Markt ist? :confused:
Davon ab gibt es ja schon ne Menge Hinweise, wo wir Performancetechnisch bei Zen 3 landen. Also was wir an Mehrertrag erwarten dürfen.
Klar, ob das jetzt 15% oder 20% werden ist noch unklar.
Aber die Richtung ist klar und es ist genauso klar, dass es aktuell von Intel nichts weltbewegendes gibt.
Intel ist stand jetzt auf ähnlichem Niveau wie AMD.
Doch ja, die GraKa Situation ist EXAKT so wie im CPU Bereich.
Da gibt es für AMD keinerlei Veranlassung irgend etwas anderes zu tun.
Bei dem Mangel an Verständnis für wirtschaftliche Gesichtspunkte und vor allem wie Verkauf und Kundengewinnung funktioniert kann man sich echt nur an den Kopf langen.
Ist euch nicht klar, dass die meisten Konsumenten KEINE Fanboys sind die einen Schrein von der einen oder anderen Firma anbeten?
Sondern Kunden sind die man gewinnen oder verlieren kann?
Die man aber entsprechend ansprechen muss?
Zossel
2020-09-26, 13:02:35
AMD behält sich derzeit in alle richtungen bedekt wie nen frigides weib... und die sind dann im bett meistens die gröbsten drecksäue, wos am meisten spass macht ;D
Erzähl uns mehr, wo macht es am meisten Spaß?
SKYNET
2020-09-26, 13:02:52
Weil Intel ja in den letzten Monaten neue Produkte gelauncht hat?
Handelst du im Geschäftsleben immer völlig identisch, unabhängig davon wie die tatsächliche Situation am Markt ist? :confused:
Davon ab gibt es ja schon ne Menge Hinweise, wo wir Performancetechnisch bei Zen 3 landen. Also was wir an Mehrertrag erwarten dürfen.
Klar, ob das jetzt 15% oder 20% werden ist noch unklar.
Aber die Richtung ist klar und es ist genauso klar, dass es aktuell von Intel nichts weltbewegendes gibt.
Intel ist stand jetzt auf ähnlichem Niveau wie AMD.
Doch ja, die GraKa Situation ist EXAKT so wie im CPU Bereich.
Da gibt es für AMD keinerlei Veranlassung irgend etwas anderes zu tun.
Bei dem Mangel an Verständnis für wirtschaftliche Gesichtspunkte und vor allem wie Verkauf und Kundengewinnung funktioniert kann man sich echt nur an den Kopf langen.
Ist euch nicht klar, dass die meisten Konsumenten KEINE Fanboys sind die einen Schrein von der einen oder anderen Firma anbeten?
Sondern Kunden sind die man gewinnen oder verlieren kann?
Die man aber entsprechend ansprechen muss?
zum teil magst recht haben... aber wenn AMD da wirklich liefert(ich gehe stark davon aus), und bis zum schluss nix durchkommt, haben wir für die zukunft eine sehr gute position für MAD: NV launcht neue karten, aber niemand kauft, weil dann erstmal alle wieder auf AMD warten, was die nachschieben... weil niemand will dann wieder einen fehlkauf wie mit ampere machen(ok, wenn ich mir die probleme mit den dingern anschaue, sinds eh fehlkäufe, unabhängig von AMD oder nicht).
why_me
2020-09-26, 13:03:18
Nvidia hat aktuell genug Probleme mit ihrem launch, warum sollte man die schlechte PR für NV mit leaks stören?
SKYNET
2020-09-26, 13:06:10
beschte ;D
https://mobile.twitter.com/9550pro/status/1309720838183071747/photo/4
Linmoum
2020-09-26, 13:09:05
Weil Intel ja in den letzten Monaten neue Produkte gelauncht hat?Was keine Rolle spielt. Es geht darum, wie AMD bei Produktlaunches verfährt und das ist eben nicht mehr, im Voraus im Raja-Style unendlich zu hypen. Su weiß, warum sie diese Strategie fährt und das ist goldrichtig.
Davon ab gibt es auch von Nvidia Wochen und Monate vor der offiziellen Vorstellung nichts. So, wie es sein sollte. Wo das Standard ist, ist bei Intel. Gibt halt mittlerweile eine Person, die da jetzt tätig ist.
nairune
2020-09-26, 13:14:19
Bei dem Mangel an Verständnis für wirtschaftliche Gesichtspunkte und vor allem wie Verkauf und Kundengewinnung funktioniert kann man sich echt nur an den Kopf langen.
Ist euch nicht klar, dass die meisten Konsumenten KEINE Fanboys sind die einen Schrein von der einen oder anderen Firma anbeten?
Sondern Kunden sind die man gewinnen oder verlieren kann?
Die man aber entsprechend ansprechen muss?
Für dich beanspruchst du dieses Verständnis aber, ja?
Was, wenn "die meisten Konsumenten" auch nicht ständig videocardz belauern, sondern sich maximal Tests durchlesen und Balken, Preis etc. der kaufbaren Produkte vergleichen?
Ich habe keine Ahnung was die Masse macht, Fakt ist aber, dass solche Foren wie hier Filterblasen sind.
Ein Arbeitskollege hat vor drei Wochen eine GPU für den Flight Simulator gekauft. Ich sage ihm noch "in wenigen Wochen werden jede Menge GPUs released, die das P/L-Gefüge umwerfen werden" - war ihm völlig egal, er hat halt gekauft, was kaufbar war.
Daher ist dieses Argument "sie müssten was leaken, wenn es gut wäre" mMn ein ziemlich schwaches. Die "vernünftigen", die es nicht eilig haben, wissen eh dass noch was kommt und warten ab, egal ob da vorab geleaked wird oder nicht.
Platos
2020-09-26, 13:20:56
Wenn die 3090 wirklich erreicht wird, dann wird es auch ordentlich kosten, da könnt ihr aber sicher sein ;)
dargo
2020-09-26, 13:24:30
Stimmt. Sie machen ja nicht einmal PR für Zen3, muss also auch Crap werden. Naja schade.
;D (y)
Das Forum ist wirklich unterhaltsam. :D
beschte ;D
https://mobile.twitter.com/9550pro/status/1309720838183071747/photo/4
You made my day!!! ;D ;D ;D
Das ist einfach zu gut. :biggrin:
https://pbs.twimg.com/media/Ei0P58RVkAEdcLL?format=jpg&name=large
OgrEGT
2020-09-26, 13:34:08
;D (y)
Das Forum ist wirklich unterhaltsam. :D
You made my day!!! ;D ;D ;D
Das ist einfach zu gut. :biggrin:
https://pbs.twimg.com/media/Ei0P58RVkAEdcLL?format=jpg&name=large
Hoffentlich kommt BN in die Nähe der 3080 bei humanem Stromverbrauch mit ordentlich Speicher und leisem Kühler... sonst seh ich schon Analogien mit kleinen Chihuahuas an Stelle des Leos Gepards :biggrin:
BigBangBacket
2020-09-26, 13:34:21
Wenn die 3090 wirklich erreicht wird, dann wird es auch ordentlich kosten, da könnt ihr aber sicher sein ;)
Wenn sie fast 3090 Niveau erreichen gebe ich auch gerne 1250 Credits für aus.
Allerdings bin ich mir noch nicht sicher wegen den Treibern bezüglich VR.
Im Bereich VR soll NVIDIA doch etwas Vorsprung haben. Laut diversen Forenmeinungen.
Oh Mann. Was für ein Hardwarequartal...ein Wechselbad der Gefühle. Jetzt weiss ich wie Horn 12 und Gedi sich immer fühlen
nairune
2020-09-26, 13:47:27
VR sollte nicht das Problem sein. Mit Navi habe ich alles gezockt, was es so interessantes gab (ist ja nicht viel). Es wird halt nicht besonders auf AMD optimiert (z.B. lief Alyx erst ordentlich flüssig, als ich die spielinterne Autojustierung abgeschaltet habe), aber "Treiberprobleme" gibt es nicht.
Hakim
2020-09-26, 13:52:44
Was das für dumme Werbung von Audi:), der Gepard kann sein max speed nur für paar Sekunden halten und muss dann Zwangspause einlegen während so Windhund deutlich länger aushält
Daredevil
2020-09-26, 14:02:58
Dass Leaks Teil eines guten Marketings sind, können auch nur Foristen denken die geil auf jede neue Info sind. Leaks sind wenn überhaupt ein letztes Mittel um den Launch des Konkurrenten zu stören und Presse-Präsenz zu erzeugen. Dafür hat AMD nun wirklich keinen Anlass derzeit.
Du bist letzte mal leider nicht drauf eingegangen, deswegen poste ich es noch einmal.
https://abload.de/img/unbenanntvsks2.png
Wo genau siehst du da "Keinen Druck", wo genau sollte man da aktuell den Launch nicht stören?
Wir sehen Vega64 knapp unter der "RDNA" und VegaII über der "RDNA".
Wie kommst du denn da auf die Schlussfolgerung, dass RDNA2 sich ohne Probleme verdoppelt, wenn es die beiden Karten vorher nicht einmal geschafft haben?
Nohate, ich würde es gerne wissen. Ich möchte gerne auch so optimistisch in AMDs Zukunft schauen.
Ich sehe nicht, wieso sich AMD bei so einem Graphen zurück lehnen sollte. ( Wenn man sich bereits im Fertigungsvorteil befindet. )
Complicated
2020-09-26, 14:07:06
Vielleicht weil du hier überhaupt kein Argument vorbringst, warum AMD vor dem 28.10. Leaks bringen muss - welchen Druck stellst du denn damit dar?
Was ändert sich bitte an dem Bild, ohne eine getestete GPU? Kommen dann die Gerüchte in der Balkengrafik damit das nicht noch länger online zu sehen ist?
Auf was sollte man da eingehen ausser, dass es am Thema vorbei ist? Bin ich verpflichtet auf jeden Unsinn einzugehen - ist doch noch ein Forum und meine Entscheidung was ich schreibe, oder?
Wie kommst du denn da auf die Schlussfolgerung, dass RDNA2 sich ohne Probleme verdoppelt, Zitat?
Edit: Muss man den Launch noch stören?
GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen (https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/)
Einmal Frust für 1.500 Euro, bitte! (https://www.golem.de/news/geforce-rtx-3090-ausverkauft-einmal-frust-fuer-1-500-euro-bitte-2009-151110.html)
ChaosTM
2020-09-26, 14:08:31
Wenn sich BigN bei ca 190% einordnen könnte, wäre ich schon hoch zufrieden.
Daredevil
2020-09-26, 14:20:02
Vielleicht weil du hier überhaupt kein Argument vorbringst, warum AMD vor dem 28.10. Leaks bringen muss - welchen Druck stellst du denn damit dar?
Du hast es selbst gesagt, damit man den Release des Mitbewerbers stört.
Der Hype um Ampere ist gerade riesig, die Leute stehen in Schlangen vor Geschäften in Amerika, die Teile werden weit über den UVP verkauft.
Jede verkaufte Ampere Karte ist eine AMD Karte weniger.
Deswegen, würde ich mal so behaupten.
Bin ich verpflichtet auf jeden Unsinn einzugehen - ist doch noch ein Forum und meine Entscheidung was ich schreibe, oder?
Natürlich musst du das nicht, ist halt einfach unhöflich, wenn man sich unterhält.
Oder gehst du auch einfach mitten im Gespräch, wenn du dich mit jemand anderen unterhältst?
Zitat?
Kein Zitat, das habe ich falsch ausgedrückt, sorry. :)
Mit "AMD hat keinen Druck" habe ich assoziert, das du denkst, das AMD eh spielend leicht konkurrieren kann und das man deswegen nichts leaken muss.
Das Diagramm spielt da ( Stand heute ) halt ein anderes Bild.
Complicated
2020-09-26, 14:20:50
Muss man den Launch noch stören?
GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen (https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/)
Einmal Frust für 1.500 Euro, bitte! (https://www.golem.de/news/geforce-rtx-3090-ausverkauft-einmal-frust-fuer-1-500-euro-bitte-2009-151110.html)
Kondensator-Probleme bei frühen GeForce-RTX-30-Karten führen zu Abstürzen (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/54226-kondensator-probleme-bei-fruehen-geforce-rtx-30-karten-fuehren-zu-abstuerzen.html)
why_me
2020-09-26, 14:21:27
Du bist letzte mal leider nicht drauf eingegangen, deswegen poste ich es noch einmal.
Du vergleichst hier midrange mit Highend, mehr muss man dazu denke ich nicht sagen, oder?
Daredevil
2020-09-26, 14:22:48
Da hast du nicht unrecht, aber auch da gibt es zwei Methoden.
Methode 1:
Du redest den Konkurrenten schlecht, damit dein Produkt besser dasteht
Methode 2:
Du redest dein Produkt gut, damit dein Produkt besser dasteht.
Welches hilft dir als Firma weiter?
Wenn man sich auf die Fehler der Konkurrenz verlässt, oder seine eigenen Stärken zeigt?
Letzteres ist gesünder und für den Kunden attraktiver.
Linmoum
2020-09-26, 14:23:28
Mit "AMD hat keinen Druck" habe ich assoziert, das du denkst, das AMD eh spielend leicht konkurrieren kann und das man deswegen nichts leaken muss.
Das Diagramm spielt da ( Stand heute ) halt ein anderes Bild.Und du denkst, dass es nicht so ist. So what. Wenn man das Diagramm so interpretiert und auslegt, müsste man erst einmal wissen, dass AMD keine konkurrenzfähigen Produkte in der Pipeline hat.
Aber gut, das werden spätestens unabhängige Reviews sowieso ins Reich der Fabeln verweisen.
Complicated
2020-09-26, 14:25:01
Ja, am 8.10 wird das getan und am 28.10 fortgesetzt - derzeit sind die Konsolen überall in der Presse und heisses Thema. Du versuchst ein Produkt-Marketing für wichtiger zu deklarieren als das Unternehmens-Marketing. AMD ist permanent an allen Fronten im Gespräch.
Daredevil
2020-09-26, 14:27:24
Ne, ich "denke" mir das nicht. Ich lege mir das anhand der Fakten zurecht und würde gerne wissen, wieso hier jemand einer anderen Meinung sein könnte.
Du vergleichst hier midrange mit Highend, mehr muss man dazu denke ich nicht sagen, oder?
Vega war bei 300€, Navi bei 400€, VII bei 700€. Die letzteren sind beide in 7nm.
Wo genau fängt denn Highend an, Nvidia gibt das sicherlich nicht vor, nur weil die jetzt eine unnötig teure Karte ( theoretisch ) verkaufen.
Redneck
2020-09-26, 14:28:19
Du bist letzte mal leider nicht drauf eingegangen, deswegen poste ich es noch einmal.
https://abload.de/img/unbenanntvsks2.png
Wo genau siehst du da "Keinen Druck", wo genau sollte man da aktuell den Launch nicht stören?
Wir sehen Vega64 knapp unter der "RDNA" und VegaII über der "RDNA".
Wie kommst du denn da auf die Schlussfolgerung, dass RDNA2 sich ohne Probleme verdoppelt, wenn es die beiden Karten vorher nicht einmal geschafft haben?
Nohate, ich würde es gerne wissen. Ich möchte gerne auch so optimistisch in AMDs Zukunft schauen.
Ich sehe nicht, wieso sich AMD bei so einem Graphen zurück lehnen sollte. ( Wenn man sich bereits im Fertigungsvorteil befindet. )
Lies doch endlich mal selbst und versuche zu verstehen. Ist hier zig mal durchgekaut worden, woher die Verdopplung kommen soll.
Complicated
2020-09-26, 14:28:38
D
Methode 1:
Du redest den Konkurrenten schlecht, damit dein Produkt besser dasteht
Methode 2:
Du redest dein Produkt gut, damit dein Produkt besser dasteht.
Methode 3 - du redest gar nicht. Wie du siehst ist das derzeit genau was AMD macht.
Niemand muss was sagen wenn es in Tests offensichtlich wird.
Complicated
2020-09-26, 14:33:55
Jede verkaufte Ampere Karte ist eine AMD Karte weniger.
Deswegen, würde ich mal so behaupten.
Nur ist nicht jede bestellte Karte auch eine verkaufte, wenn die Lieferzeit Wochen beträgt. Die Stornoquote wird hier nicht unerheblich sein bei den Amperes, so wie es derzeit aussieht. Zotac GeForce RTX 3080 Trinity: Aus wochenlanger Wartezeit werden Stornierungen (https://www.computerbase.de/2020-09/zotac-geforce-rtx-3080-trinity-20000-vorbestellungen-amazon/)
jagger
2020-09-26, 14:34:53
Nicht umsonst werden z.B. Gamereleases verschoben um möglichst nicht mit anderen Blockbuster Releaseterminen zu kollidieren. Der Gund ist das die Presse sich nur auf ein Produkt konzentriert und der Rest untergeht. Jetzt steht NV im Fokus und Ende Oktober gehört AMD die Bühne. Der mündige Käufer wird bis dahin warten und dann entscheiden. Abgesehen davon zerlegt sich NV mit den Problemen gerade selbst, das wird man aber bis vor dem XMas Sale sicherlich in den Griff bekommen.
Redneck
2020-09-26, 14:36:09
Ne, ich "denke" mir das nicht. Ich lege mir das anhand der Fakten zurecht und würde gerne wissen, wieso hier jemand einer anderen Meinung sein könnte.
Vega war bei 300€, Navi bei 400€, VII bei 700€. Die letzteren sind beide in 7nm.
Wo genau fängt denn Highend an, Nvidia gibt das sicherlich nicht vor, nur weil die jetzt eine unnötig teure Karte ( theoretisch ) verkaufen..
Du bekommst ja noch nicht einmal hin, die korrekten Preise zu recherchieren. Wie willst du da auch auf die richtigen schlüsse kommen *kopfschüttel*
Leonidas
2020-09-26, 14:41:39
Falls es HBM2 ist, dann sind angesichts der 16 L2 Cache Tiles ja 2048 Bit/2 Stacks wahrscheinlich (Locuza geht außerdem vom 512KB pro Tile aus, also 8MB L2). Da bräuchte AMD schon HBM2e für genug Bandbreite: Mit 3,2Gbps erreicht man zum Beispiel ca. 820GB/s und mit 3,6Gbps kommt man auf 920GB/s.
Stimmt. Automatisch viel mehr Bandbreite gibt es da nicht. Aber AMD könnte selbst mit 1.3 GHz bei 30% mehr Bandbreite landen als mit 16 Gbps GDDR6. Das entspricht fast dem Sprung auf ein 384bittiges Interface. Könnte schon ausreichend sein.
Jede verkaufte Ampere Karte ist eine AMD Karte weniger.
Eigentlich ist es noch schlimmer.
Aktuell versuchen Sony, Microsoft und Nvidia an das Geld der Gamer zu kommen. Die wenigsten werden in einem Jahr doppelt kaufen.
Während die drei momentan alles aus den Händen gerissen bekommen was sie produziert bekommen, macht AMD nichts, um jemanden von einer Investition abzubringen.
Und ja, in den Konsolen ist AMD drin, aber die Gewinnspanne bei Navi wird um ein vielfaches höher liegen.
Leonidas
2020-09-26, 15:05:22
Ja die 5700XT hat sich Super verkauft, kommt schon auf einen Marktanteil von 0,88% :wink:
https://store.steampowered.com/hwsurvey/videocard/
Nutzungsanteil, nicht Marktanteil. Auf dem Markt werden nur aktuelle Produkte verkauft, genutzt werden hingegen Produkte mehrerer Generationen. Oftmals erreicht eine Karte ihren höchsten Nutzungsgrad erst kurz vor Auslauf, wenn die allermeisten Karten verkauft sind und auch alle noch genutzt werden.
rogame hatte vorhin "spekuliert", dass die XTX/XT/XL-Varianten alle HBM abbekommen und die XE-Variante von N21 mit GDDR6 ausgestattet ist. Tweet hat er aber wieder gelöscht. Warum auch immer. :D
Weil es Preise dafür gibt, wie blöd die Idee ist. Man legt nicht denselben Chip 2x mit unterschiedlichen Interfaces auf. Das hat sich Apple im Fall von N12 zwar trotzdem geleistet, aber das war eine Auftragsarbeit und kam auch viel später.
Complicated
2020-09-26, 15:05:27
https://www.gamestar.de/artikel/massen-phaenomen-gaming-pc,3360896.html
Davon spielt fast die Hälfe auf dem PC: Wie IGN berichtet, liegt der Anteil der PC-Spieler bei 48 Prozent. Allerdings nutzt ein Teil davon mehrere Plattformen, also auch Konsolen- und Mobile-Spiele. Reine Konsolen-Spieler belaufen sich lediglich auf 8 Prozent.
Piefkee
2020-09-26, 15:20:55
Eigentlich ist es noch schlimmer.
Aktuell versuchen Sony, Microsoft und Nvidia an das Geld der Gamer zu kommen. Die wenigsten werden in einem Jahr doppelt kaufen.
Während die drei momentan alles aus den Händen gerissen bekommen was sie produziert bekommen, macht AMD nichts, um jemanden von einer Investition abzubringen.
Und ja, in den Konsolen ist AMD drin, aber die Gewinnspanne bei Navi wird um ein vielfaches höher liegen.
Also was hier einige für Gedanken Gänge haben...
AMD ist einfach noch nicht so weit irgendwas zu zeigen. Der 28.10 ist noch 5 Wochen entfernt und das ist nur das anouncment. Der Verkauf Start sicher erst irgendwann im November.
Jetzt schon Hype auszulösen bringt doch nichts...das bringt nur bitte böse Enttäuschung wenn das Produkt nicht gut ist. Die Strategie was AMD fährt ist einfach genau richtig. Man darf nicht vergessen dass die meisten eh Nvidia kaufen egal wa AMD im peto hat. Siehe Zen1 und Zen+ .
Wichtig ist:
- ordentliche validierung
- Verfügbarkeit
- Custom Design
- nicht an der kotzgrenze
- und bitte nie wieder eine Marketing ala „poor Volta“
Hasenpfote
2020-09-26, 15:56:07
Was das für dumme Werbung von Audi:), der Gepard kann sein max speed nur für paar Sekunden halten und muss dann Zwangspause einlegen während so Windhund deutlich länger aushältNee, das passt schon! Denn bei 300km/h hört man aus Richtung des Tanks "SCHLÜÜÜÜÜÜÜÜÜÜRF". Da ist so'n 50l Tank ruckzuck leer. :D
sonst seh ich schon Analogien mit kleinen Chihuahuas an Stelle des Leos :biggrin:Das ist kein Leopard, sondern ein Ozelot, Du Serval! :wink:
SKYNET
2020-09-26, 16:03:14
Hoffentlich kommt BN in die Nähe der 3080 bei humanem Stromverbrauch mit ordentlich Speicher und leisem Kühler... sonst seh ich schon Analogien mit kleinen Chihuahuas an Stelle des Leos :biggrin:
Es ist ein gepard, das schnellste landlebewesen... Dagegen sieht nen windhund aus als würd der sich in zeitlupe bewegen 😝
SKYNET
2020-09-26, 16:04:23
Was das für dumme Werbung von Audi:), der Gepard kann sein max speed nur für paar Sekunden halten und muss dann Zwangspause einlegen während so Windhund deutlich länger aushält
Wenn der nur im tempo vom windhund rennt, kann der sicher auch länger... Ist für den dann wie schnelles gehen 😁
Complicated
2020-09-26, 16:12:26
Greyhounds schaffen die übliche 480 m Rennbahnrunde in etwas mehr als 28 Sekunden, was einer Geschwindigkeit von über 61 km/h entspricht.
Geparde sind dafür bekannt, dass sie Spitzengeschwindigkeiten von bis zu 110 Kilometer pro Stunde erreichen können. „Allerdings laufen sie nur selten so schnell“, sagt Wachter. Meistens erreichten sie die hohen Geschwindigkeiten nur zu Beginn eines Sprints, weiter als 400 Meter rennen sie nicht im vollen Tempo.
Da hat er schon etwas Zeit bevor er los muss ;)
ChaosTM
2020-09-26, 16:14:58
Space Ocelot (https://giphy.com/gifs/Q7G18YHHPWGvRKmuDa/html5) ^^
OgrEGT
2020-09-26, 16:16:14
Hoffentlich kommt BN in die Nähe der 3080 bei humanem Stromverbrauch mit ordentlich Speicher und leisem Kühler... sonst seh ich schon Analogien mit kleinen Chihuahuas an Stelle des Leos Gepards :biggrin:
Habs korrigiert...
Dank an die Zoologen :massa:
Berniyh
2020-09-26, 16:18:15
Und ja, in den Konsolen ist AMD drin, aber die Gewinnspanne bei Navi wird um ein vielfaches höher liegen.
Dennoch wird AMD damit sicherlich mehr Gewinn machen als mit den Navi GPUs, denn die Stückzahlen dürften deutlich höher liegen.
Palpatin
2020-09-26, 16:28:24
Sie müssen auf die 3070 warten damit sie was haben was sie schlagen können.
Ja denk ich auch und sehe das aber gar nicht negativ. Wann konnte AMD zuletzt kurz nach NV Release die 70er Serie bzw in dem Fall sogar den TOP 104er Chip schlagen?
In den letzten 8 Jahren kam AMD entweder ~ ein Jahr zu spät (Vega Navi Fury) oder konnte sich maximal mit NVs 60er Serie messen (Polaris).
So wie es aussieht kommt Big Navi entweder mit HBM2 und wäre dann Gegner für die 3080 (in dem Fall wäre es aber unlogisch das man noch nichts durchsickern lässt)
Alternativ kommt Big Navi mit GDDR6 und 256 bit und als Gegner für die 3070 und da wäre es höchst logisch das man noch nichts durchsickern lässt. In dem Fall hätte man auch alles richtig gemacht und NV zu einem überhasteten und unguten Start der Ampere Serie getrieben.
Linmoum
2020-09-26, 16:38:25
3080 mit HBM und 3070 mit GDDR6 ergibt keinen Sinn, da zwischen den beiden Karten +-40% liegen dürften.
Gegenspieler für die 3070 wird Navy Flounders.
Edit:
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/
N23 mit 32CU und 128bit. Und:
https://i.gyazo.com/2e09d35f7c364e27b226b0ae3752ca7b.png
Piefkee
2020-09-26, 16:56:00
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=ios_app&utm_name=iossmf
**"TLDR"**:
Navi 23 has 32 CUs and 128-bit memory interface.
Navi 31 mostly has the same specs as Navi 21, but on RDNA 3 (gfx11).
Cezanne has the same GPU configuration as Renoir.
Van Gogh has 8 RDNA 2 CUs.
Rembrandt has 12 RDNA 2 CUs (btw it also has VCN 3.1).
Navi 21 and Navi 22 have significantly higher clocks than Navi1x.
Navi 22 uses 16 GT/s GDDR6 with a bus width of 192-bit for a bandwidth of 384 GiB/s.
Navi 21 supports both HBM2 and GDDR6, though I'm not really sure what it will mean in practice.
Edit: for HBM2 we need to multiply by 2 not by 4
Linmoum
2020-09-26, 17:03:48
N21 = 80CU
N22 = 40CU
N23 = 32CU
Finde die Auffälligkeit. MCM schon mit RDNA2 :freak:
dildo4u
2020-09-26, 17:07:32
Ja denk ich auch und sehe das aber gar nicht negativ. Wann konnte AMD zuletzt kurz nach NV Release die 70er Serie bzw in dem Fall sogar den TOP 104er Chip schlagen?
In den letzten 8 Jahren kam AMD entweder ~ ein Jahr zu spät (Vega Navi Fury) oder konnte sich maximal mit NVs 60er Serie messen (Polaris).
So wie es aussieht kommt Big Navi entweder mit HBM2 und wäre dann Gegner für die 3080 (in dem Fall wäre es aber unlogisch das man noch nichts durchsickern lässt)
Alternativ kommt Big Navi mit GDDR6 und 256 bit und als Gegner für die 3070 und da wäre es höchst logisch das man noch nichts durchsickern lässt. In dem Fall hätte man auch alles richtig gemacht und NV zu einem überhasteten und unguten Start der Ampere Serie getrieben.
RDNA2 hat keine Wunder Kompression MS hat schon 560 GB/Sec für ihre 52 CU GPU in der XBox verbaut, wie die Desktop Karten auf 3080 Speed kommen sollen ohne High-End Speicher ist komplett unersichtlich.
Mit gutem willen ist die XBox GPU im Bereich einer 2080S.
OgrEGT
2020-09-26, 17:11:51
N21 = 80CU
N22 = 40CU
N23 = 32CU
Finde die Auffälligkeit. MCM schon mit RDNA2 :freak:
8er CU Chiplets? :naughty:
10x8
5x8
4x8
:ucrazy2:
Ravenhearth
2020-09-26, 17:17:32
Da sind auch Taktraten und Verbrauch: "freq_table_gfx[1] (MHz)" ist 2050 bzw 2200 für Navi21 und 2500 für Navi22. "socket_power_limit_ac[0] (W)" sind 200 bzw. 238 für Navi21 und 170 für Navi22.
Der extrem hohe Takt von Navi22 könnte erklären, warum der Chip gegenüber Navi23 50% mehr Bandbreite, aber nur 25% mehr CUs hat. Navi23 könnte ähnlich wie Navi21 takten.
Edit: Falls Navi21 einmal mit 80 CUs und 2200MHz und einmal mit 72 CUs und 2050MHz kommt, hätte der 76% bzw. 47,6% mehr Rohleistung als Navi22 mit 40 CUs und 2500 MHz. Erstere Variante könnte mit HBM kommen und zweitere mit 256 Bit GDDR6 @ 16 Gbps.
Berniyh
2020-09-26, 17:18:53
Warum sollte man einen Chip mit 40 CU und einen mit 32 CU bauen? Das ist doch viel zu dicht beieinander.
Und die HBM2 + GDDR6 Geschichte wäre schon arg seltsam.
Berniyh
2020-09-26, 17:19:52
Der extrem hohe Takt von Navi22 könnte erklären, warum der Chip gegenüber Navi23 50% mehr Bandbreite, aber nur 25% mehr CUs hat. Navi23 könnte ähnlich wie Navi21 takten.
Aber warum sollte man dafür dann 2 Chips auflegen? Könnte ja einfach den Chip etwas niedriger takten und paar Teile deaktivieren.
Ravenhearth
2020-09-26, 17:29:50
Man weiß es nicht.
Wenn die Wattzahlen nur für den Chip sind und die anderen Werte passen, hat Navi21 ca. 25% mehr TFLOPs pro Watt als Navi22. Der hohe Takt macht sich bemerkbar. Navi21 wäre bezogen auf den Chip ca. 75% effizienter als Navi10 und Navi22 noch 39%.
Linmoum
2020-09-26, 17:30:18
Die PS5 hatte es ja schon angedeutet, aber das wird ja noch heftiger. Die Dinger werden unter Wasser bei niedrigen Temps abgehen wie Schmitz Katze.
https://i.gyazo.com/fe1409d68699229e35d46aac282bbeef.jpg
Warum man einen extra Chip mit 32CU auflegt obwohl N22 bereits 40CU hat und bis nach oben hin zu 80CU kein weiterer zu sein scheint? Keine Ahnung. Sieht komisch aus, aber ich lasse mich eines besseren belehren.
Berniyh
2020-09-26, 17:33:25
Ehrlich gesagt, die einzige Erklärung die mir dazu einfällt wäre, dass Navi 23 ein für Mobile Anwendungen optimierter Chip ist, während Navi 22 eine reine Desktop Version darstellt.
Aber das ist auch nur ins Blaue geraten.
Navi 24 dürfte dann wohl Navi 14 beerben, denn dafür wäre Navi 23 dann doch zu groß.
Langlay
2020-09-26, 17:34:09
Die PS5 hatte es ja schon angedeutet, aber das wird ja noch heftiger. Die Dinger werden unter Wasser bei niedrigen Temps abgehen wie Schmitz Katze.
Wäre schon cool, aber wenn ich davon ausgehe das die Verbräuche AMD typisch wieder nur die ASIC Power. Bei 238 W nur der Chip biste schon bei knapp 300W für die ganze Karte.
Linmoum
2020-09-26, 17:35:31
Wäre schon cool, aber wenn ich davon ausgehe das die Verbräuche AMD typisch wieder nur die ASIC Power. Bei 238 W nur der Chip biste schon bei knapp 300W für die ganze Karte.Rund 300W für kranke 2.2GHz? Hell yeah give me that. Mit Wasser schaffste bei dem Verbrauch dann wahrscheinlich noch mal 100MHz+ mehr.
SKYNET
2020-09-26, 17:37:58
Wäre schon cool, aber wenn ich davon ausgehe das die Verbräuche AMD typisch wieder nur die ASIC Power. Bei 238 W nur der Chip biste schon bei knapp 300W für die ganze Karte.
von mir aus kann die karte auch 400W fressen... am ende zält nur die leistung, der rest geht mir am a..... vorbei ;D
Daredevil
2020-09-26, 17:38:40
Lecker! :)
Diese hohen Taktraten sind aber echt krass.
Wird wohl dann ein Upgrade für den MacPro, wa.
BoMbY
2020-09-26, 17:38:50
Hört sich soweit jetzt alles stimmig an, inkl.:
"Navi 21 supports both HBM2 and GDDR6, though I'm not really sure what it will mean in practice."
Wie an anderer Stelle schon vermutet wurde war das GDDR6 wohl nur für die Hardware-Simulation des Chips, warum auch immer die nur GDDR6 kann.
dargo
2020-09-26, 17:39:14
3080 mit HBM und 3070 mit GDDR6 ergibt keinen Sinn, da zwischen den beiden Karten +-40% liegen dürften.
Gegenspieler für die 3070 wird Navy Flounders.
Edit:
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/
N23 mit 32CU und 128bit. Und:
https://i.gyazo.com/2e09d35f7c364e27b226b0ae3752ca7b.png
Sofern die Daten stimmen bitte bei den Frequenzen aufpassen! Das ist nur der Arbeitsbereich für die Spannungskurve. Nicht, dass gleich wieder falsche Gerüchte entstehen N21 taktet mit 2050Mhz und N22 mit 2500Mhz. :D
btw.
238W GPU-Power für den Topdog @N21 sehen imho gut aus sofern das tatsächlich stimmt. Sieht nach einer ~300W Karte aus. N22 dann ca. 200-210W.
PS: N21 und N22 dann mit 16Gbps GDDR6.
https://abload.de/img/gddr6c9ksh.jpg
Ravenhearth
2020-09-26, 17:40:21
Wäre schon cool, aber wenn ich davon ausgehe das die Verbräuche AMD typisch wieder nur die ASIC Power. Bei 238 W nur der Chip biste schon bei knapp 300W für die ganze Karte.
300W für bis zu 22,5 TFLOPs RDNA2 wäre alles andere als schlecht. Das wäre das 2,3fache der 5700XT (<1905 MHz)für ein Drittel mehr Verbrauch. Fast 75% mehr Rohleistung pro Watt.
Die Bandbreiteneffizienz hat man auch irgendwie stark gesteigert: Navi22 hat 53% mehr TFLOPs/GBs als Navi10 oder die Series X. Infinity Cache :cool:
Wobei 256Bit GDDR6 nur für den Salvage und HBM für den Top Dog auch realistischer klingen als komplett GDDR6.
unl34shed
2020-09-26, 17:44:08
Wobei 256Bit GDDR6 nur für den Salvage und HBM für den Top Dog auch realistischer klingen als komplett GDDR6.
Nicht wirklich, du machst alle Chips teurer, damit du beim Salvage ein paar Euro mit dem Speicher Sparen kannst :confused:
Ravenhearth
2020-09-26, 17:46:08
Ja gut. Ich meinte von der verfügbaren Bandbreite her :redface: Dem Top Dog könnte man immerhin mindestens 600GB/s spendieren. Dafür reicht auch normaler HBM2 mit 2,4 Gbps.
BoMbY
2020-09-26, 17:48:18
Mit der uclock von bis zu 1089 MHz wäre man mit 16 SDPs und 32B/C bei bis zu ~530 GB/s? Das würde Sinn mit 2x HBM2 @ 256 GB/s machen, also z.B. Samsung Flarebolt.
dargo
2020-09-26, 17:50:28
RDNA2 hat keine Wunder Kompression MS hat schon 560 GB/Sec für ihre 52 CU GPU in der XBox verbaut, wie die Desktop Karten auf 3080 Speed kommen sollen ohne High-End Speicher ist komplett unersichtlich.
Mit gutem willen ist die XBox GPU im Bereich einer 2080S.
Das ist noch komplett offen da niemand weiß ob die RDNA 2 TFLOPs das selbe leisten wie RDNA 1 TFLOPs. Wenn es IPC Steigerungen mit RDNA 2 gibt könnte die XBSX auch die 2080TI erreichen.
Linmoum
2020-09-26, 17:51:22
Wie schon mal gesagt, RDNA2 wird so ein Moment werden vom "Wow-Faktor" her:
ExaAYIKsDBI
:D
Ravenhearth
2020-09-26, 17:52:05
Mit der uclock von bis zu 1089 MHz wäre man mit 16 SDPs und 32B/C bei bis zu ~530 GB/s? Das würde Sinn mit 2x HBM2 @ 256 GB/s machen, also z.B. Samsung Flarebolt.
Wie passen die 1089 MHz denn zum Eintrag "freq_table_uclk[3]" mit 1000 MHz?
Da Navi22 auch 1089 MHz hat, gehört das eher zu GDDR6 oder?
dargo
2020-09-26, 17:54:20
Rund 300W für kranke 2.2GHz?
Und schon geht der Hypertrain wieder los? xD Wo kommen deine 2,2Ghz bei 300W wieder her? Nur mal zum nachdenken... Navi 10 hat einen Arbeitsbereich bei der GPU von 300-2100Mhz. Der reale GPU-Takt in Games @1440p liegt im Schnitt bei ca. 1850Mhz mit 180W GPU-Power. Wenn die 238W GPU-Power von N21 bei 2Ghz erreicht werden können wir schon froh sein. ~20,5 TFLOPs sind hier realistischer bei diesen 300W.
von mir aus kann die karte auch 400W fressen... am ende zält nur die leistung, der rest geht mir am a..... vorbei ;D
Dann bist du bei GA102 besser aufgehoben. *hust*
300W für bis zu 22,5 TFLOPs RDNA2 wäre alles andere als schlecht.
Und der Nächste... :freak:
Mit der uclock von bis zu 1089 MHz wäre man mit 16 SDPs und 32B/C bei bis zu ~530 GB/s? Das würde Sinn mit 2x HBM2 @ 256 GB/s machen, also z.B. Samsung Flarebolt.
Das ist der SoC-Takt. :tongue:
BoMbY
2020-09-26, 18:00:03
Wie passen die 1089 MHz denn zum Eintrag "freq_table_uclk[3]" mit 1000 MHz?
Da Navi22 auch 1089 MHz hat, gehört das eher zu GDDR6 oder?
Ja, ist quatsch. Die uclock ist wohl die Speicherfrequenz. Wobei die Frage ist wie das bei HMB2 oder HBM2e aussehen würde. Da wären die Vega-Werte interessant. Wobei da die werte ähnlich sind, glaube ich. Das könnte heißen 2 Gb/s bis 2.2 Gb/s HBM2.
aufkrawall
2020-09-26, 18:00:20
Wird da Ampere im Nachhinein doch noch zum Vega? :D
SKYNET
2020-09-26, 18:01:56
Dann bist du bei GA102 besser aufgehoben. *hust*
ne, mags nicht so wenn die karte beim gamen einfach abschmiert :freak:
Langlay
2020-09-26, 18:03:06
ne, mags nicht so wenn die karte beim gamen einfach abschmiert :freak:
Dafür wird sich auch ne Lösung finden. Und ist ja nich so das es ominöse Blackscreens und Abstürze bei AMD noch nicht gab.
dargo
2020-09-26, 18:03:13
ne, mags nicht so wenn die karte beim gamen einfach abschmiert :freak:
Achja... da war noch was. :D
Linmoum
2020-09-26, 18:06:27
Jensen kocht ja gerne. Hat wahrscheinlich vor ein paar Monaten dabei Stimmen gehört. "If you smell what AMD is cooking... you better hurry up with Ampere".
Wasserkühler für das Biest können gar nicht schnell genug kommen. :cool:
aufkrawall
2020-09-26, 18:08:23
Was mir gerade noch einfällt: Bei HBM kann (muss?) der Verbrauch sich nicht auf GPU-only, sondern aufs Package (GPU + HBM) beziehen. Dann wäre der Gesamtverbrauch der Karte gar nicht so viel höher.
Ravenhearth
2020-09-26, 18:09:25
Und der Nächste... :freak:
Sorry. :redface: Wenn Navi10 schon bis zu 2100MHz für die Spannungskurve hat, dürfte der reale Turbo für Navi21 eher bei 1850 bzw. 2000 MHz und der für Navi22 bei 2250MHz liegen. Grob spekuliert jetzt.
Das würde den Vorsprung bei der Rohleistung für Navi21 gegenüber Navi10 auf 2,1x bzw. 1,75x verringern. Navi22 wäre noch bei 1,18x. Die Effizienz läge bei 1,58x für Navi21 und 1,25x für Navi22. Ersteres passt gut zur AMD-Angabe.
RDNA2 hätte trotzdem massiv weniger Bandbreite pro TFLOP. Etwa 30% weniger. Was steigert die Bandbreiteneffizienz denn um 40-50%?
Cyberfries
2020-09-26, 18:09:44
Navi 23 has 32 CUs and 128-bit memory interface.
Das ergibt keinerlei Sinn.
Von N22 zu N21 eine Verdopplung, aber von N23 zu 22 gerade mal 25%?
Wenn es nicht bereits in zwei Treibern stünde würde ich behaupten dass der 40CU-N22 ein Fake ist.
Linmoum
2020-09-26, 18:11:30
Was mir gerade noch einfällt: Bei HBM kann (muss?) der Verbrauch sich nicht auf GPU-only, sondern aufs Package (GPU + HBM) beziehen. Dann wäre der Gesamtverbrauch der Karte gar nicht so viel höher.Das ist bei AMD immer GPU-only. Also bisher jedenfalls, sofern sie daran nichts geändert haben.
BoMbY
2020-09-26, 18:12:46
RDNA2 hätte trotzdem massiv weniger Bandbreite pro TFLOP. Etwa 30% weniger. Was steigert die Bandbreiteneffizienz denn um 40-50%?
Bessere Komprimierung zum Beispiel. Es gab da z.B. ein Patent mit einem Near Memory Compute Chip für sowas, glaube ich. Muss gerade nochmal suchen. Vielleicht haben die da ja was mit Samsung gebastelt?
Edit: Ach, war das neueste: https://www.freepatentsonline.com/10782918.pdf
dargo
2020-09-26, 18:14:31
Was mir gerade noch einfällt: Bei HBM kann (muss?) der Verbrauch sich nicht auf GPU-only, sondern aufs Package (GPU + HBM) beziehen. Dann wäre der Gesamtverbrauch der Karte gar nicht so viel höher.
Wenn N21 HBM2e bekommt könnte es auch mit den 275W klappen.
Sorry. :redface: Wenn Navi10 schon bis zu 2100MHz für die Spannungskurve hat, dürfte der reale Turbo für Navi21 eher bei 1850 bzw. 2000 MHz und der für Navi22 bei 2250MHz liegen. Grob spekuliert jetzt.
Das würde den Vorsprung bei der Rohleistung für Navi21 gegenüber Navi10 auf 2,1x bzw. 1,75x verringern. Navi22 wäre noch bei 1,18x. Die Effizienz läge bei 1,58x für Navi21 und 1,25x für Navi22. Ersteres passt gut zur AMD-Angabe.
RDNA2 hätte trotzdem massiv weniger Bandbreite pro TFLOP. Etwa 30% weniger. Was steigert die Bandbreiteneffizienz denn um 40-50%?
Keine Ahnung... die Bandbreite bzw. wie sie realisiert wird ist noch komplett offen.
Ravenhearth
2020-09-26, 18:17:03
Das ergibt keinerlei Sinn.
Von N22 zu N21 eine Verdopplung, aber von N23 zu 22 gerade mal 25%?
Wenn es nicht bereits in zwei Treibern stünde würde ich behaupten dass der 40CU-N22 ein Fake ist.
Ja, mir erschließt sich nicht, wieso Navi22 nicht einfach 48 CUs bekommt und man dafür den Takt auf Navi21-Niveau ansetzt. Ausgehend von Navi21 läge so ein Navi22 eher bei 140W statt 170W.
Bessere Komprimierung zum Beispiel. Es gab da z.B. ein Patent mit einem Near Memory Compute Chip für sowas, glaube ich. Muss gerade nochmal suchen. Vielleicht haben die da ja was mit Samsung gebastelt?
Edit: Ach, war das neueste: https://www.freepatentsonline.com/10782918.pdf
Interessant, danke. Oder es ist doch ein 128MB Cache drauf ;D
Das ist bei AMD immer GPU-only. Also bisher jedenfalls, sofern sie daran nichts geändert haben.
Bezieht sich bei AMD immer aus Package, sprich GPU, HBM und Interposer ;)
Linmoum
2020-09-26, 18:20:38
Bezieht sich bei AMD immer aus Package, sprich GPU, HBM und Interposer ;)Nein, ASIC ist und war immer GPU-only. Bisher zumindest, wenn sie das nicht geändert haben.
dargo
2020-09-26, 18:21:49
Bessere Komprimierung zum Beispiel. Es gab da z.B. ein Patent mit einem Near Memory Compute Chip für sowas, glaube ich. Muss gerade nochmal suchen. Vielleicht haben die da ja was mit Samsung gebastelt?
Edit: Ach, war das neueste: https://www.freepatentsonline.com/10782918.pdf
Ich fand schon die 448GB/s für die RTX 3070 beeindruckend. Und jetzt kommt AMD mit nur 512GB/s (256Bit + 16Gbps GDDR6) für eine 80CU GPU mit RTX 3080+ Performance um die Ecke? :freak: Das kann doch nicht stimmen. Da muss es noch irgendwelche secret sauce geben.
Complicated
2020-09-26, 18:23:18
RDNA2 hat keine Wunder Kompression MS hat schon 560 GB/Sec für ihre 52 CU GPU in der XBox verbaut, wie die Desktop Karten auf 3080 Speed kommen sollen ohne High-End Speicher ist komplett unersichtlich.
Mit gutem willen ist die XBox GPU im Bereich einer 2080S.
Nur muss AMD ja nicht alle seine Technologie für Semi-Custom a) bereit stellen und b) muss der Kunde auch nicht das komplette Angebot nutzen. Sony und MS haben sich auch schon in der letzten Konsolen-Generation deutlich unterschieden beim Speichersubsystem. Es ist auch auffällig wenig Architektur zu RDNA2 kommuniziert worden. Von beiden Konsolen nicht.
Langlay
2020-09-26, 18:23:19
Nein, ASIC ist und war immer GPU-only. Bisher zumindest, wenn sie das nicht geändert haben.
Es war imo noch nie anders. Bei Vega10 und Vega20 war HBM definitiv teil der ASIC Power.
Imo hatte ich das hier im Forum mittels Furmark auch schonmal gezeigt, das der ASIC Verbrauch ansteigt wenn man den HBM übertaktet.
/Edit
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11899377&highlight=furmark+hbm#post11899377
dargo
2020-09-26, 18:25:06
Interessant, danke. Oder es ist doch ein 128MB Cache drauf ;D
Ich bin hierbei völlig Noob. Kann so ein Cache fehlende Bandbreite X so gut kompensieren? Und wenn ja warum kommt das erst mit RDNA 2? Wegen guten Packdichte in 7nm? Dann hätte man das aber auch schon mit RDNA 1 bringen können.
Linmoum
2020-09-26, 18:26:05
Es war imo noch nie anders. Bei Vega10 und Vega20 war HBM definitiv teil der ASIC Power.Eine Referenz V56 hatte eine ASIC von 165W bei Realverbrauch von ~225W. Ganz sicher, dass der HBM schon bei ersterem mit bei ist?
Du hast recht, gerade ergoogelt
mboeller
2020-09-26, 18:31:10
Und schon geht der Hypertrain wieder los? xD Wo kommen deine 2,2Ghz bei 300W wieder her?
Die Navi10 Frequenzen in der Tabelle sind aber vergleichsweise niedrig. Wenn du diese Daten als Basis benutzt sind es in Wirklichkeit eher 2.5GHz+++ ;D
dargo
2020-09-26, 18:33:12
Die Navi10 Frequenzen in der Tabelle sind aber vergleichsweise niedrig. Wenn du diese Daten als Basis benutzt sind es in Wirklichkeit eher 2.5GHz+++ ;D
Hä? Wovon sprichst du?
Berniyh
2020-09-26, 18:33:18
warum auch immer die nur GDDR6 kann.
Was meinst du damit?
Langlay
2020-09-26, 18:37:04
Eine Referenz V56 hatte eine ASIC von 165W bei Realverbrauch von ~225W. Ganz sicher, dass der HBM schon bei ersterem mit bei ist?
Die Radeon VII hat 250W ASIC und 295W Realverbrauch. Ich bin mir halt schon recht sicher das der dort mit verwurstelt wird.
Die Navi10 Frequenzen in der Tabelle sind aber vergleichsweise niedrig. Wenn du diese Daten als Basis benutzt sind es in Wirklichkeit eher 2.5GHz+++ ;D
Dachte ich mir auch. Bei N10 die Baseclock in 3D Anwendungen, aber wahrscheinlich nicht vergleichbar. Die P-States wurden hoffentlich auch geändert, von daher ist die Angabe im Vergleich zu N10 irrelevant.
Berniyh
2020-09-26, 18:38:34
Das ergibt keinerlei Sinn.
Von N22 zu N21 eine Verdopplung, aber von N23 zu 22 gerade mal 25%?
Wenn es nicht bereits in zwei Treibern stünde würde ich behaupten dass der 40CU-N22 ein Fake ist.
Der Treiber dürfte mehr oder weniger der gleiche sein.
Ja, ist für MacOS, aber soweit ich das seitens AMD verstanden habe nutzen sie inzwischen die gleiche Code-Basis für mehrere (alle?) Plattformen.
Bin schon mal gespannt was AMD jetzt einführt, nachdem die discovery Binary auch decoded wurde.
Wahrscheinlich wieder zurück zu Atom Bios/Firmware o.ä. Mal sehen …
dargo
2020-09-26, 18:39:14
@gedi und mboeller
Ihr fantasiert nur wieder rum. Bitte mehr Substanz in die Diskussion bringen.
Der_Korken
2020-09-26, 18:40:16
Für mich sehen die Taktraten und CUs auch sehr komisch aus. N22 müsste eigentlich 48 CUs haben, damit die Abstände passen. Zwar wird suggeriert, dass N22 das durch höheren Takt kompensiert, aber das wirft ja direkt die nächste Frage auf: Warum kann dieser Chip so viel höher takten als die anderen? Prügelt man ihn höher, um Waferspace zu sparen? Warum macht man das dann nicht bei N23, der vermutlich ich noch größeren Stückzahlen verkauft wird? Was ist aus der Aussage von einem Dev (Mark Cerny?) geworden, dass RDNA2 konstruktionsbedingt nicht mehr als 2,25Ghz schafft? Hat N22 als einziger Chip diese Limitierung nicht? Fragen über Fragen
Ich bin hierbei völlig Noob. Kann so ein Cache fehlende Bandbreite X so gut kompensieren? Und wenn ja warum kommt das erst mit RDNA 2? Wegen guten Packdichte in 7nm? Dann hätte man das aber auch schon mit RDNA 1 bringen können.
Und bei der Frage, wie RDNA2 so viel Bandbreite einspart, sind wir auch nicht weiter :freak:. Theoretisch kann ein Cache viel kompensieren. Können 1/3 der Speicheranfragen von dem Riesencache abgefangen werden, reicht 2/3 der Bandbreite für den Chip aus bzw. man kann bei gleicher Bandbreite 50% mehr Rechenleistung verbauen als ohne den Cache. Allerdings sind GPUs keine CPUs und die Tatsache, dass bisher nur vergleichsweise winzige Caches bei GPUs verbaut wurden, spricht eher dafür, dass das hier wenig bringt. Packdichte durch 7nm ist ein Argument, das ich schon mal gebracht habe, denn vielleicht hat man durch dessen Verdopplung den Breakeven überschritten, wo der Cache mehr lohnt als den Speicherausbau zu vergrößern.
Achja, und GDDR6+HBM2 gleichzeitig finde ich immer noch bescheuert.
Edit:
Die Navi10 Frequenzen in der Tabelle sind aber vergleichsweise niedrig. Wenn du diese Daten als Basis benutzt sind es in Wirklichkeit eher 2.5GHz+++ ;D
Träum weiter, die 1,4Ghz von N10 stimmen nicht oder beziehen sich auf was anderes. Dargos Interpretation, dass das die Maxima der Frequenz-Spannungskurve sind, klingt für mich einleuchtend.
aufkrawall
2020-09-26, 18:41:26
Eine Referenz V56 hatte eine ASIC von 165W bei Realverbrauch von ~225W. Ganz sicher, dass der HBM schon bei ersterem mit bei ist?
Das stimmt, allerdings widerspricht die R9 Nano dem eigentlich: https://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_r9_nano/s10.php
Wobei auch nicht unbedingt die beste Quelle, wasserdichte Messungen wären schon Trumpf.
Daredevil
2020-09-26, 18:41:36
Die Radeon VII hat 250W ASIC und 295W Realverbrauch. Ich bin mir halt schon recht sicher das der dort mit verwurstelt wird.
Der in GPUz gezeigte Verbrauch geht so um ~10w runter, wenn man den HBM2 von 1000 auf 800Mhz taktet. Das müsste doch eher bedeuten, dass er mit zum "ASIC" zählt, oder? Oder zumindest hat es eine Verbindung.
Meine Mining Karten liefen bei ~92-98w ASIC und hatten in Real ~132w Verbrauch.
@gedi und mboeller
Ihr fantasiert nur wieder rum. Bitte mehr Substanz in die Diskussion bringen.
Bei N10 steht eine Frequenz von 1.4G, beim N21 2.05, bzw. 2.2G. Um diese Geschichte ging’s. Und nichts was man ernst nehmen müsste! Von daher bin ich mir sicher, dass MB einen Scherz gemacht hat.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.