PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 [64] 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Lawmachine79
2020-10-27, 20:57:39
Naja die VII und die 1080ti würde ich ungefähr gleichschnell einordnen und die VII kam Anfang 2019 raus.
Ja, aber sie schlägt die 1080TI eben nicht. Und - wie an anderer Stelle erwähnt - zwar ist mir die TDP egal, aber ich kann nicht nachvollziehen, wieso eine 2 Jahre neuere Karte bei gleicher Leistung mehr Strom ziehen kann. Mehr Leistung --> Mehr Strom: verstehe ich. Aber mit der umgekehrten Richtung habe ich ein "Nachvollziehbarkeitsproblem".

Ich hoffe, dass BN morgen positiv aufgenommen wird und möglichst viele Amperebestellungen gecancelt werden ;).

Langlay
2020-10-27, 21:04:59
Ja, aber sie schlägt die 1080TI eben nicht. .

Kommt aufs Spiel/Auflösung an und man sollte halt ne FE 1080ti gegen ne VII vergleichen und nicht irgendwelche Custom/OC Modelle.

Thunderburne
2020-10-27, 21:08:30
Wenn das aus dem 3DCenter Artikel stimmt das die Timespye Werte die Spiele Leistung widerspiegeln dann sehe ich die 6800XT bei 649 Euro da sieh knapp langsamer sein sollte für die schnelleren Custom dann mehr
Die XL wäre mit 479 ein harter Dämpfer gegen die 3070.
Die 6900XT(X) sehe bei 16 GB dann so bei 899-999 da diese dann auch die 3080 schlagen dürfte!

mksn7
2020-10-27, 21:14:19
Ein weiteres Detail was viele unterschlagen ist - die nVidia Archs sind in JEDER einheit skaler aufgebaut und der ganze Chip ist dann "super"skalar.

Bei RDNA (aber auch davor) sind die CUs vektor UND haben eine kleine skalar-Einheit integriert.

[...]
Etwas dass bei nVidia in der Art nicht möglich ist wegen dem rein skalaren Aufbau. Deswegen, soweit mein Verständnis, versucht man bei Ampere ja einen Teil der bei Turing und älteren Chips "Verschwendeten" INT32s in FP32 "umzuwandeln".


Es gibt diesen Unterschied zwischen NVIDIA und AMD so nicht. Es ist nicht der eine skalar und der andere vektor. Beide Architekturen tun vom Ansatz her das Gleiche, aber sie reden in ihrem technischen Marketing teilweise unterschiedlich drüber. Der Aufbau ist bei beiden identisch, da gibt es vom Prinzip und den Fähigkeiten absolut keinen Unterschied.

Nvidia hat übrigens seit Turing auch eine scalar unit, aber vermarkten sie so nicht. Die nennen sie "uniforms", tun aber genau das Gleiche.

Iscaran
2020-10-27, 21:52:07
Es gibt diesen Unterschied zwischen NVIDIA und AMD so nicht. Es ist nicht der eine skalar und der andere vektor. Beide Architekturen tun vom Ansatz her das Gleiche, aber sie reden in ihrem technischen Marketing teilweise unterschiedlich drüber. Der Aufbau ist bei beiden identisch, da gibt es vom Prinzip und den Fähigkeiten absolut keinen Unterschied.

Nvidia hat übrigens seit Turing auch eine scalar unit, aber vermarkten sie so nicht. Die nennen sie "uniforms", tun aber genau das Gleiche.


Naja - ganz identisch ist das nicht ! Klar der "Output" der hinten rausfällt sind FP32 und andere Ops.

Aber die unterschiede in der Art und Weise wie sie es aufbauen ist schon sehr verschieden.

AMD arbeitet mit SIMD. nVidia mit SIMT. Die Unterschiede sind nicht allzu groß, zumal AMD ja auch "multiple-SIMDs" parallel fährt (also im Grunde auch SIMT) aber dennoch sind kleine Unterschiede da.

Siehe den Part mit SIMD vs SIMT:
https://yosefk.com/blog/simd-simt-smt-parallelism-in-nvidia-gpus.html

Andere Erklärungsansätze findet man z.B. hier
https://www.hardwaretimes.com/simd-vs-simt-vs-smt-whats-the-difference-between-parallel-processing-models/
oder hier
https://medium.com/high-tech-accessible/an-architectural-deep-dive-into-amds-terascale-gcn-rdna-gpu-architectures-c4a212d0eb9

Allen ist aber gemeinsam, daß es Unterschiede in der Code-Abarbeitungs und Code-aufbereitungshierarchie gibt.

Aber, ich gebe ja zu, ich bin nicht wirklich "wissend" genug und vielleicht sind meine obigen Ausführungen nicht richtig.

EDIT: bzgl. der eine skalar der andere nicht.
Schon klar - denn man braucht BEIDE Arten von Operationen für das verarbeiten von Grafischen Input. Was aber im RDNA-Whitepaper und auch anderswo immer wieder erklärt wird, ist dass die CUs in RDNA die skalaren Operationen parallel ("concurrent") zu den vektor-operationen ausführen. Bei nVidia verstehe ich den Aufbau so, daß die SMs, zwar auch skalar und vektor können, aber nicht "gleichzeitig" sondern nur seriell. Was aber bei den sehr vielen Threads die eine SM ausführen kann nicht allzu stark ins Gewicht fällt.

Nakai
2020-10-27, 21:53:46
Es gibt diesen Unterschied zwischen NVIDIA und AMD so nicht. Es ist nicht der eine skalar und der andere vektor. Beide Architekturen tun vom Ansatz her das Gleiche, aber sie reden in ihrem technischen Marketing teilweise unterschiedlich drüber. Der Aufbau ist bei beiden identisch, da gibt es vom Prinzip und den Fähigkeiten absolut keinen Unterschied.

Nvidia hat übrigens seit Turing auch eine scalar unit, aber vermarkten sie so nicht. Die nennen sie "uniforms", tun aber genau das Gleiche.

Ein Nachtrag hierzu:
GCN hatte eine 64 Bit ALU und 4 SIMD16 Einheiten (welche in 4 Takten eine 64er Wavefront verarbeiten). GCN hat alle 4 Takte eine Wavefront auf eine SIMD16 geschedult, welche in 4 Takten durchgeackert wurde.

RNDA hat nun 2 32 Bit ALUs und 2 SIMD32 Einheiten (welche pro Takt eine 32er Wavefront bekommen).

Wieso hat RDNA nun keine 64 Bit ALUs mehr? Weil die ALUs hauptsächlich fürs Maskieren der SIMD-Einheiten da sind. Klar machen die auch mehr, aber der Grund für die CU-Struktur liegt inherent im Design. Die ALUs machen im Grunde keine explizite Compute-Aufgaben, sie sind in der Verarbeitung direkt involviert.

GCN und RDNA sind im Kern sehr ähnlich. Für GPU-Computing ist GCN RDNA nicht unterlegen. CDNA ist wohl im Kern immer noch GCN mit Verbesserungen. RDNA ist einfach auf schnelleres Scheduling und einer feineren Granularität ausgelegt, wodurch mehr Effizienz beim Gaming rumkommt. Beim GPU-Computing ist GCN wohl immer noch effizienter pro Transistor als RDNA.

MikePayne
2020-10-27, 22:00:04
mein Preistipp:

6800: 599€
6800 XT: 699€-749€
6900 XT(X): 999€

AMD hat nichts zu verschenken.
Vor allem wenn die Performance gleichwertig ist.

ChaosTM
2020-10-27, 22:06:10
Bei der "kleinen" XL wäre eine 8GB Version denkbar. Die könnte dann deutlich unter 500 kommen..

MikePayne
2020-10-27, 22:10:10
Bei der "kleinen" XL wäre eine 8GB Version denkbar. Die könnte dann deutlich unter 500 kommen..

Möglich, vllt auch nur für OEMs, denn die 6700XT kommt ja schon mit 12 GB für 400€ oder etwas drunter (afaik, wenn die leaks nicht völliger bullshit waren).

Daredevil
2020-10-27, 22:14:32
Ich denke das Preisgefüge wird in etwa gleich werden, wie bei Navi auch.
AMD wird die Karten ~100-150€ unter den Nvidia Pendants ansiedeln bei gleicher Performance. ( Von 3070 bis zur 3080 ).
Dann muss der Kunde am Ende zwischen Leistung und Features entscheiden, wie jetzt auch.

Man darf hoffen, dass AMD diesen Spagat auch trotz des großen Speichers aufbringen kann, das wäre nochmal ein Pluspunkt für sie. Wenn sie am Ende zu nah am Preis der Nvidia Karten rankommen, wird es schwierig. Weil am Ende hat AMD dann wieder nur das "Billo" Image und nicht das der starken Grafikkarte, womit man geil zocken kann.
Viele haben jetzt ja auch eher zu einer Nvidia Karte gegriffen unter 500€, warum auch immer. Eigentlich war da AMD ja der bessere Wurf.

PS: RT ist ja auch ein Faktor, den sich AMD erkaufen muss, das scheint ja nicht so pralle zu sein laut den Leaks.

kmf
2020-10-27, 22:23:38
mein Preistipp:

6800: 599€
6800 XT: 699€-749€
6900 XT(X): 999€

AMD hat nichts zu verschenken.
Vor allem wenn die Performance gleichwertig ist.Find ich zu hoch deine Preise. überall 100€ weniger, würde ich erwarten/wünschen.

Rincewind
2020-10-27, 22:28:43
Find ich zu hoch deine Preise. überall 100€ weniger, würde ich erwarten/wünschen.

das wäre schön, aber ich glaube wie Mike AMD wird sich sich das gut bezahlen lassen in weiser Voraussicht, dass die Grakas eh gekauft werden.

nairune
2020-10-27, 22:30:00
Bei 500€ Karten von "Billigimage" zu sprechen...
Bei den CPUs hat sich doch gerade gezeigt, wie Preisbrecher wie die [1-3]600er dabei helfen, im Markt anzukommen und überhaupt als (bessere) Alternative wahrgenommen zu werden.
Ich lasse mich absolut überraschen, wie die Strategie aussehen wird. Hier anderen den Verstand abzusprechen, weil die eigenen Theorien nicht konform gehen, ist zwar typisch, aber trotzdem völlig daneben.

WedgeAntilles
2020-10-27, 22:30:43
Viele haben jetzt ja auch eher zu einer Nvidia Karte gegriffen unter 500€, warum auch immer.
AMD könnte z.B. mal damit anfangen, dass ein uninformierter Kunde kapiert, welche Karten überhaupt besser sind als andere.
6800 XL, 6800XT - klar, die XL muss schneller sein.
Oder hat der Buchstabe dahinter etwa gar keine Bedeutung und beide sind gleich?
Auf die Idee, dass die 6800XT besser ist, kommt kein normaler Mensch.

Schon greift jemand zur Nvidia, bei der er kapiert, dass eine 3060 langsamer ist als eine 3070.
Und eine 3080 noch mal schneller ist.

Klingt doof? Sorry, genauso funktioniert Verkauf.
Klar, wenn du dich für die Materie interessierst ist es anders.
Nur sind das die meisten Käufer nicht.
Und wenn die sich erstmal damit beschäftigen müssen um überhaupt die Namensgebung zu kapieren haben die schon keinen Bock mehr und sagen. Dann behaltet doch euren Dreck, kauf ich halt wieder Nvidia.

Es sind oft Kleinigkeiten die über einen Kauf entscheiden.
Wie eben z.b. eine vermurkste Namensgebung.

Zahlen sind da toll, weil sie einfach sind.
Höhere Zahl gleich besser.
Doch halt, nicht bei AMD.
Da ist Navi 21 besser als Navi 22. Gut, mit dem Begriff kommen die meisten nie in Kontakt, daher nicht so tragisch.

Aber Nvidia hat inzwischen seit vielen Jahren eine griffige und einfache Nummerierung.

Keine Ahnung, warum AMD nicht auch sowas macht.
Aber gut, wenn man mit Gewalt Kunden vergraulen will kann man das tun.
Interessant wird es jetzt, wenn Nvidia dieses Spiel auch mit spielt und halt keine 16GB bzw. 20GB Verson anbietet. Das ist genauso ein "Kunden mit Gewalt zur Konkurrenz treiben"
"Nimm du den Kunden ich will ihn nicht" :biggrin:

nairune
2020-10-27, 22:34:08
XL steht doch in keinem Produktnamen :facepalm:
Das ist jetzt echt ein kurioser Vorwurf... Es gibt Zahlen, wo höher für besser steht und den "XT" Zusatz wie auch "Ti" oder meinetwegen "Super". Was genau wird da deiner Meinung nach falsch gemacht?

Savay
2020-10-27, 22:40:50
Die Codenamen bei AMD sind halt verwirrend wenn man sie nicht kennt. Und die selbst ausgedachten Chimären der Community noch mehr.
102-150 oder 104-200 ist da doch für Laien gleich unglaublich viel logischer. Sieht man zum ersten mal und *zack* weiß direkt was schneller ist!

MikePayne
2020-10-27, 22:41:47
das wäre schön, aber ich glaube wie Mike AMD wird sich sich das gut bezahlen lassen in weiser Voraussicht, dass die Grakas eh gekauft werden.

Exakt. Ich bin auch kein Freund von steigenden Preisen, aber es warten ja schon genug wg Nvidia auf "dicke" Karten und da wird es sicher den einen oder anderen "Abtrünnigen" geben, der nicht mehr warten möchte - bis auch die AMD Karten ausverkauft sind.
Die Nachfrage ist jedenfalls nicht klein. Warum sollte AMD, selbst wenn die z.B. 6800XT 10% langsamer ist, aber mehr Speicher bietet, die Karten wesentlich billiger als Nvidia verkaufen?

Daredevil
2020-10-27, 22:47:18
XL steht doch in keinem Produktnamen :facepalm:
Das ist jetzt echt ein kurioser Vorwurf...
Sein Beispiel ist jetzt schon kurios, aber unrecht hat er nicht.

Radeon R9 390X
Radeon R9 Fury X
Radeon RX 480
Radeon RX Vega64
Radeon VII
Radeon 5700XT

Konsequent weitergeführt wird da irgendwie keine Linie. Als Käufer hast du Null Ahnung, welche Karte was nun ist.
Aber jetzt soll ja nach 5XXX nun 6XXX kommen und das ist schon ein riesen Schritt, weil man einmal nicht alles über den Haufen geworfen hat. ( Polaris ging ja auch mit 480-580-590 )

@nairune
Dieses Image hat AMD nun einmal, da kann ich auch nichts für.
Oder andersrum, in welchem Segment steht AMD für Premium Produkte?
Also wo gibt AMD die 110%, damit man sich stark abhebt für Gamer?
Du siehst es ja auch beim Ryzen, wenn AMD seine hocheffizienten Prozessoren um 50€ teurer macht, verlässt AMD sein Billo Image und das geschrei ist groß, selbst bei den Fans.

Mit den Treibern, wobei eigentlich meine ich gar nicht die Treiber, mit dem Treibermenu macht sich AMD auch nicht viel Freunde.
AutoUV klappt heute ( vor einem Monat ) immer noch nicht auf einer VII ohne Absturz bzw. Profile speichern sich einfach regelmäßig nicht und laden auch nicht bei Start. Das war ein 699€ Produkt. Ich würde es mir wünschen, wenn es anders wäre, aber bei günstigen Preisen zieht man halt auch die Sparfüchse ran und die wollen auch bedient werden. Und die heulen sicherlich am größten, wenn der Preis nach oben geht, wird man Morgen denke ich sehen. ^^

Savay
2020-10-27, 22:51:01
Nach Hawaii wurd`s halt etwas konfus da es eigentlich nie vollständige Generationen gab...schon allein von der Auslegung.
GCN3 "HighEnd". GCN4 Mittelklasse. GCN5 "HighEnd" und noch nen exotischer GCN5 Compute Shrink und Backport aus dem Pro Markt.

Grade die ganzen "Toptier" Chips waren da sowieso gefühlt mehr irgendwelche zwischengeschobenen "Specialeditions"! ;)

Szudri
2020-10-27, 22:52:20
Du siehst es ja auch beim Ryzen, wenn AMD seine hocheffizienten Prozessoren um 50€ teurer macht, verlässt AMD sein Billo Image und das geschrei ist groß, selbst bei den Fans.

Das sind dann aber keine AMD Fans sondern billig Fans. Es war nur Zufall, dass AMD günstiger war.

Daredevil
2020-10-27, 23:02:35
Naaa, ich glaube AMD Fans und Billig Fans schauen in die selbe Richtung. Zu Nvidia/Intel schauen beide garantiert nicht. ^^
( Da nehme ich mich auch nicht raus btw., die Ryzen Sechskerner sind nicht die schnellsten Prozessoren der Welt, aber grandiose Sparbrötchen )

Und die Konsolen haben auch nicht die beste Technik der Welt verbaut, sondern die mit der besten Preis/Leistung.
Cell Zeiten sind nun auch einmal vorbei.

weisserteufel
2020-10-27, 23:04:35
Bei der "kleinen" XL wäre eine 8GB Version denkbar. Die könnte dann deutlich unter 500 kommen..

Glaube ich nicht. Ich glaube auch nicht daran, dass es überhaupt eine Navi21 mit weniger als 16GB geben wird.
Erst mit der Navi22, die vermutlich gegen die 3060 antreten wird, wird man weniger als 16GB sehen: 12 oder 8GB.
Bei Navi23 könnte es noch weiter runter gehen.

Savay
2020-10-27, 23:06:07
Diese Billigfans die 500€ CPUs und 600€+ GPUs kaufen...jojojo.

Momentan schauen die ja nun wohl doch eher Richtung Intel und ob Richtung nV muss sich eh erst noch zeigen. :rolleyes:


Cell Zeiten sind nun auch einmal vorbei.

Was war an Cell denn nun in der Retrospektive so bemerkenswert? Mit Ausnahme des Hypes. :freak:


Mit den Treibern, wobei eigentlich meine ich gar nicht die Treiber, mit dem Treibermenu macht sich AMD auch nicht viel Freunde.

Als ob das Menü von nV besser wäre...insbesondere diese Zumutung namens Experience. :redface:

SKYNET
2020-10-27, 23:06:34
zumal alle die seit jahren bei AMD "sind" wissen das AMD wenn sie leader waren, auch mehr gekostet haben als intel... athlon damals, dann der A64/FX... das hat AMD sich immer vergolden lassen, und das war auch gut so, sonst wären sie schon lange vorm fenster weg gewesen....

Nazar
2020-10-27, 23:07:10
AMD könnte z.B. mal damit anfangen, dass ein uninformierter Kunde kapiert, welche Karten überhaupt besser sind als andere.
6800 XL, 6800XT - klar, die XL muss schneller sein.
Oder hat der Buchstabe dahinter etwa gar keine Bedeutung und beide sind gleich?
Auf die Idee, dass die 6800XT besser ist, kommt kein normaler Mensch.

Schon greift jemand zur Nvidia, bei der er kapiert, dass eine 3060 langsamer ist als eine 3070.
Und eine 3080 noch mal schneller ist.

Klingt doof? Sorry, genauso funktioniert Verkauf.
Klar, wenn du dich für die Materie interessierst ist es anders.
Nur sind das die meisten Käufer nicht.
Und wenn die sich erstmal damit beschäftigen müssen um überhaupt die Namensgebung zu kapieren haben die schon keinen Bock mehr und sagen. Dann behaltet doch euren Dreck, kauf ich halt wieder Nvidia.

Es sind oft Kleinigkeiten die über einen Kauf entscheiden.
Wie eben z.b. eine vermurkste Namensgebung.

Zahlen sind da toll, weil sie einfach sind.
Höhere Zahl gleich besser.
Doch halt, nicht bei AMD.
Da ist Navi 21 besser als Navi 22. Gut, mit dem Begriff kommen die meisten nie in Kontakt, daher nicht so tragisch.

Aber Nvidia hat inzwischen seit vielen Jahren eine griffige und einfache Nummerierung.

Keine Ahnung, warum AMD nicht auch sowas macht.
Aber gut, wenn man mit Gewalt Kunden vergraulen will kann man das tun.
Interessant wird es jetzt, wenn Nvidia dieses Spiel auch mit spielt und halt keine 16GB bzw. 20GB Verson anbietet. Das ist genauso ein "Kunden mit Gewalt zur Konkurrenz treiben"
"Nimm du den Kunden ich will ihn nicht" :biggrin:


Alphabet, Reihenfolge, Logik = XT höher als XL, so würde ich mir das zusammenreimen.
Oder eXTreme und eXLower?
Ich käme nie auf die Idee, dass bei doppelten Buchstabenkombinationen, etwas was vorher kommt, also niedriger in der Abfolge ist, einen höheren Stellwert bekäme.
Aber ich glaube, dass das die geringeren Probleme der zukünftigen Käufer sein werden.
Am Ende wird der Preis ihnen zeigen, was schneller, bzw. besser sein sollte. :wink:

Daredevil
2020-10-27, 23:12:10
Diese Billigfans die 500€ CPUs und 600€+ GPUs kaufen...jojojo.

Momentan schauen die ja nun wohl doch eher Richtung Intel und ob Richtung nV muss sich eh erst noch zeigen. :rolleyes:



Was war an Cell denn nun in der Retrospektive so bemerkenswert? Mit Ausnahme des Hypes. :freak:



Als ob das Menü von nV besser wäre...insbesondere diese Zumutung namens Experience. :redface:


Als ob das Menü von nV besser wäre...insbesondere diese Zumutung namens Experience. :redface:
Ich meinte bewusst nicht das Design, sondern die Funktionalität der Funktionen.
Klar kannste jetzt sagen, was es bei Nvidia nicht gibt ( Da gibt es quasi nichts ), kann auch nicht verbuggt sein. Jap.
Aber wenn es da ist, sollte es doch funktionieren, oder nicht?
Wer genau hat heute noch den HBCC aktiviert und warum nochmal?
Es ist einem AMD Käufer auch echt scheiß egal, was es bei Nvidia gibt oder nicht, wenn eine Funktion den PC Abstürzen lässt ( Auto UV ), wie kompetent findest du die Software dann?

Wie viele haben sich eine 5700xt gekauft und keine VII?
Kostete doch nur 200€ mehr als der Speicherkrüppel. :D
AMD kostet weniger und hat viele preisbewusste Käufer, da ist ja nichts falsch dran.

Linmoum
2020-10-27, 23:16:08
AMD könnte z.B. mal damit anfangen, dass ein uninformierter Kunde kapiert, welche Karten überhaupt besser sind als andere.
6800 XL, 6800XT - klar, die XL muss schneller sein.
Oder hat der Buchstabe dahinter etwa gar keine Bedeutung und beide sind gleich?
Auf die Idee, dass die 6800XT besser ist, kommt kein normaler Mensch.Du könntest vielleicht auch mal damit anfangen, Bezeichnungen zu verstehen.

XL ist eine Chipbezeichnung und keine Produktbezeichnung, daher völlig sinnfreie Diskussion. Oder wo kaufst du deine 5700 XL, die auf N10 XL basiert? :facepalm: Dein restlicher Post ist damit viel Aufwand aber völlig am Thema vorbei. Wobei, das hier:

Höhere Zahl gleich besser.
Doch halt, nicht bei AMD.
Da ist Navi 21 besser als Navi 22. Gut, mit dem Begriff kommen die meisten nie in Kontakt, daher nicht so tragisch.

Aber Nvidia hat inzwischen seit vielen Jahren eine griffige und einfache Nummerierung. Comedy pur ist. ;D ;D ;D

Höhere Zahl besser aber nicht bei AMD also. Warum ist dann ein GA104 nicht besser als ein GA102? Schließlich 104 > 102 von der Zahl her, nicht wahr? :facepalm: Und das gilt immer, da NV 102 > 104 > 106 etc. hat als Chipbezeichnungen. Aber hey, wundert niemanden, dass du das bei AMD kritisierst und bei Nvidia von griffig sprichst, obwohl sie von den Zahlen her genau dasselbe wie AMD machen dass kleinere Zahl = größerer Chip.

Brillus
2020-10-27, 23:18:04
Mache mal mit beim fröhlichen Preisraten. 500, 700, 900 jeweils +-50.

Große Frage ist wie ist Verfügbarkeit und wielange erwartet AMD da Probleme bei NV. Optimal ist der Preis wenn man alles verkauft ohne das es Warteschlangen gibt(= schlechte Presse).

Daredevil
2020-10-27, 23:18:22
Oder wo kaufst du deine 5700 XL, die auf N10 XL basiert? :facepalm:
Kommt bald wieder. :biggrin:
https://abload.de/img/unbenanntdfjn5.png

MikePayne
2020-10-27, 23:25:12
Wenn die Argumente ausgehen kommt Fürst Daredevil mit Billo-Image & einer Lehrstunde (Wedge hat sie angestossen) über den Namen einer Graka. Echt jetzt? :ugly:

Und Vega war eher P/L als die Performer Karte und sicherlich kein Meisterstück von AMD (Raja ist ja nun weg), aber was das mit den neuen Karten zu tun haben soll erschließt sich mir nicht. Und die 5700, die ich habe, ist pflegeleicht in Sachen Treibern (zumindest bei mir).
Aber ich hatte ja schon etwas mehr "Glück" mit meiner Vega 56 von Gigabyte, die nicht wie deine ständig weggetreten ist.

Nazar
2020-10-27, 23:25:32
Das ist wirklich nicht leicht mit den spekulierten Preisen.
Zu viele unbekannte Faktoren.
Sicherlich wird sich AMD nicht in die Preisregionen der 3090 vorwagen, selbst wenn sie besser sind.
Wenn AMD wirklich den Thron besteigen kann, dann werden sie den "alten König", für alle sichtbar, erschlagen und dasselbe werden sie auch mit seinen "Gefolgsleuten" machen. Nur das Fußvolk wird verschont. ;)
Deshalb mein Tipp:
XTX = 949 (Lisa liebt die 49 irgendwie ;))
XT = 749
XL = 549
Alles unter der Voraussetzung, dass die Counterparts alle geschlagen werden.

basix
2020-10-27, 23:25:49
WTF es gabe ine 9800 XXL? :D

Und wieso sehen so viele hier N21 XL so knapp überhalb der 3070? N21 XL ist vermutlich ein gutes Stück potenter und hat doppelten(!) Speicher.

Linmoum
2020-10-27, 23:27:30
WTF es gabe ine 9800 XXL? :DNaja, vorher sind sie ja auch auf Rage Fury MAXX gekommen. ;D

SKYNET
2020-10-27, 23:32:37
WTF es gabe ine 9800 XXL? :D

Und wieso sehen so viele hier N21 XL so knapp überhalb der 3070? N21 XL ist vermutlich ein gutes Stück potenter und hat doppelten(!) Speicher.

ich war am überlegen sie zu kaufen... weil der name nicht nur zu meinem ego gepasst hätte ;D :tongue:

bin aber doch bei der 9800pro geblieben... die lief am ende mit 500/840 wie butter :cool:

das waren noch zeiten wo sich GPUs anständig übertakten liessen. :redface:

basix
2020-10-27, 23:40:39
weil der name nicht nur zu meinem ego gepasst hätte ;D :tongue: :uponder: :uban:

Savay
2020-10-27, 23:45:07
Ich meinte bewusst nicht das Design, sondern die Funktionalität der Funktionen.

Wo nix ist kann halt auch nix nicht funktionieren...das hast du echt großartig erkannt. Wie oft ändert man da nochmal die Settings? Oder wann hast du zuletzt irgendwelche MSAA oder AF Settings im Treiberpanel angefasst? Soweit her ist es mit der "Funktionalität der Funktionen" da im Panel wohl auch nicht.

Das machst du zudem an einem Button (zusammen mit einem spezifischen Modell) fest der eh ganz allgemein überflüssig wie ein Kropf ist?

Mich lassen da generell ja eher irgendwelche CVEs zweifeln (und da nehmen die sich auch nix) .
Was mich dagegen am Ende vollends Ratlos zurücklässt sind komplett überflüssige Registrierungspflichten um nur so elementare Basics wie ein integrierte Updateroutine oder Monitoring zu benutzen! :freak:


Wie viele haben sich eine 5700xt gekauft und keine VII?
Kostete doch nur 200€ mehr als der Speicherkrüppel. :D
AMD kostet weniger und hat viele preisbewusste Käufer, da ist ja nichts falsch dran.

Du meinst echt DAS war der Grund warum die VII nicht lief und nicht etwa weil das Ding einfach in der Form für den Desktop DoA und reines Kuriosum und Liebhaberstück war?! :rolleyes:

Komisch nur das die VII eigentlich sogar mehr gekostet hatte als was gleichschnelles von nV...und die Vega64 auch genauso viel bis sogar eine Idee mehr als gleichschnelle nV Karten seinerzeit :freak:

Generell ist wohl eh niemand der signifikant mehr als 400€ für ne Grafikkarte ausgibt ein "Billigkäufer".
Zumal du hier eh unter den Tisch fallen lässt das die meiste Verkäufe bei nV wohl auch eher auf die xx60er und xx70er entfallen.
Das ist am Ende doch wieder mal einfach nur arrogantes Forengesülze.

Complicated
2020-10-27, 23:46:55
Wann ist denn hier aus dem kollektiven Gedächtnis verschwunden dass AMD die Nomenklatur der Zahlen nach Release Reihenfolge (oder eher nach Design-Reihenfolge) sortiert?
N21->N22->N23 etc.

Daredevil
2020-10-27, 23:55:50
Wie oft ändert man da nochmal die Settings? oder wann hast du zuletzt irgendwelche AA Settings im Treiberpanel angefasst?


Jedes mal, wenn ich meinen Server gestartet habe, weil jedes mal für jede der sechs Grafikkarten die UV Settings nicht geladen wurden.
Und trotz gespeichertem Profil musste ich jedes mal die sechs Spannungskurven manuell einstellen, weil die weder mitgespeichert wurde, noch bei Start im Windows geladen wurden.

Das vergleichen mit anderen Treibern bringt einem User übrigens nicht weiter, wenn man eine Karte jetzt im Rechner hat.
Wenn jemand den AutoOC Button drückt und die Kiste abschmiert, hilft es ihm nicht, wenn er sich sagt "Naja, immerhin habe ich die Funktion. Bei Nvidia gäbe es die erst gar nicht." Darüber freut man sich dann nicht.

Wer nutzt eigentlich nochmal HBCC und bringt das eigentlich Performance, oder saugt das immer noch welche? :D
Ne Spaß, ist schon gut. Wir haben ja unsere Meinungen dargelegt, jeder hat seinen eigenen Geschmack.
Aber bei eins können wir uns doch einigen, dass eingebaute Funktionen funktionieren sollten, oder?
Das Nvidia ein träges Windows95 Menu hat mit dem Funktionsumfang eines Treibers aus 2000, darüber müssen wir echt nicht reden.
( Aber da muss ich nicht so oft rein, weil Profile hier mit dem AB korrekt geladen werden. ^^ )

Savay
2020-10-28, 00:00:22
Halten wir fest...du findest den AMD Treiber scheiße weil dein externes(!) Tool bei nV etwas besser für irgendwelche Nischenandwendungen funktioniert...statt ein Tool bei AMD zu nutzen. weil...halt ja...darum.

Mehr muss ich dazu echt nicht wissen.


Wer nutzt eigentlich nochmal HBCC und bringt das eigentlich Performance, oder saugt das immer noch welche? :D

Wieso ist das wichtig? Du bekommst den Speicher doch eh nicht voll genug mit Settings die die Karten noch sinnvoll stemmen.
Und was machst du eigentlich mit PhysX?! Bringt das eigentlich noch was? wieso kann der Treiber das noch? Nutzt das noch wer? :freak:

Das ist echt albern²!

Daredevil
2020-10-28, 00:07:58
Hmmm. Ne.
Ich finde weder den Treiber scheiße ( zum dritten mal ), noch AMD. Sonst hätte ich wohl kaum 4000€ für Grafikkarten ausgegeben. Ich würde mich nur freuen, wenn das Menu so funktioniert, wie es dargestellt wird. Weil sonst habe ich das Gefühl, die Entwickler geben einen fick auf Qualitätskontrolle und seine User. ( Darum ging es, die User, die solche Fehler bei Sparbrötchen hinnehmen, weil sie nichts erwarten )
Und ehm... mit externen Tools konnte man mein Problem leider nicht lösen.

Aber gut, du hast anscheinend richtig Bock auf Grabenkämpfe und sowas, weil du immer einen Vergleich ziehst, ich lass mich auf solche Lappigkeiten aber nicht ein. :) Nacht.

Uuuuuuuuuuund Morgen treibert der Treiber die Navi an. Whoop Whoop!

aufkrawall
2020-10-28, 00:18:17
Vielleicht nicht wie ein Noob unter Windows minen? :freak:

DrFreaK666
2020-10-28, 01:07:20
Habe den Thread nicht verfolgt: Was wird morgen denn vorgestellt? Nur die drei großen Karten?

[MK2]Mythos
2020-10-28, 01:12:39
Habe den Thread nicht verfolgt: Was wird morgen denn vorgestellt? Nur die drei großen Karten?
Sehr wahrscheinlich ja.

crux2005
2020-10-28, 01:25:12
Wann gibts endlich die Präsie?

Hakim
2020-10-28, 02:08:07
Heute Endlich soweit, bin echt gespannt auf BN :), am meisten wie sie das mit dem "nur" 256 Bit SI mit dem Cache gelöst haben und ob es wirklich jederzeit und immer in jedem Szenario gegen ein Breiteres SI ankommt. Und auf die RT Leistung. Könnte echt sein das ich seit Langem mal wieder eine AMD/ATI Karte hole, mal abwarten.

Wake
2020-10-28, 02:15:43
oHpgu-cTjyM

horn 12
2020-10-28, 02:42:16
https://twitter.com/Radeon/status/1321188735267033088

Mal zur Einstimmung
Kann nicht mehr schlafen, mache wohl durch :-== )))

Blediator16
2020-10-28, 03:29:36
WTF es gabe ine 9800 XXL? :D

Und wieso sehen so viele hier N21 XL so knapp überhalb der 3070? N21 XL ist vermutlich ein gutes Stück potenter und hat doppelten(!) Speicher.

In einem medion PC z. B :D
https://youtu.be/jlnqSgefdiw

tEd
2020-10-28, 04:27:00
https://twitter.com/Radeon/status/1321188735267033088

Mal zur Einstimmung
Kann nicht mehr schlafen, mache wohl durch :-== )))

Übermüdet zur Arbeit oder Schule und dann Abends vor dem Event eingepennt ;D

eratte
2020-10-28, 06:09:55
Übermüdet zur Arbeit oder Schule und dann Abends vor dem Event eingepennt

Mach uns da keine falschen Hoffnungen ;)

Korvaun
2020-10-28, 07:44:22
Heh ich freu mich auf 17:00.....wann war das letzte Mal das AMD GPUs mit nV praktisch bis ganz oben zum TopDog mithalten können? Sollte zumindest endlich wieder endlos Material für Memes und den GPU-War liefern, wer hat den längsten (Balken) :)

Bzgl. Preisen ist mMn ausschlaggebend wie die Verfügbarkeit der AMD Karten sein wird. Ich sehe keinen Grund für AMD ihre Karten "billig" zu verschleudern. Am Anfang wird auch AMD Probleme haben die komplette Nachfrage zu bedienen, da sollte AMD auch ordentlich Kohle abgreifen. Wenn dann die Nachfrage nachlässt kann man wieder mit "soften" Preisnachlässen anfangen (z.b. Gratisspiele).

Cyberfries
2020-10-28, 07:46:41
Die Vorstellung ist zwar nur noch wenige Stunden entfernt, neue Gerüchte gibts dennoch.

Im speziellen 64CUs vs 60CUs. Yuko Yoshida: (https://twitter.com/KittyYYuko/status/1321272092814315521)
Need to made a correction
RX 6800 XL → RX 6800

RX 6800
60CU (3xSE?)
Maybe
6800 XT 72CU/4SE/128ROP
6800 60CU/3SE/96ROP
21 XL & 22 XL all have 14Gbps G6 VRAM.
21 XTL/XT 16Gbps

Die Aussage zu langsamerem 14Gbps GDDR6 bei XL-Karten ist so auch neu.
Avery78 (https://mobile.twitter.com/Avery78/status/1321289234930638851) unterstützt das mit einem Chiphell-Ausschnitt.
The specification of 64CU is wrong, maybe 60CU

Dschounz
2020-10-28, 07:47:54
https://twitter.com/Radeon/status/1321188735267033088

Mal zur Einstimmung
Kann nicht mehr schlafen, mache wohl durch :-== )))

Deine Begeisterung in allen Ehren...aber ich glaube, die stellen heute nur Grafikkarten vor; nicht die Weltformel oder das Krebsheilmittel ;D

Vielleicht habe ich ja in meinem gesetzten Alter diese Begeisterungsfähigkeit verloren und sehe das ganze etwas entspannter....

Aber gespannt bin ich auch :smile:

Werde nach 6 Jahren meine 290 in Rente schicken und mir wohl eine 6800XT gönnen, wenns so kommt wie erwartet.



@Cyberfries

Hört sich plausibel an, das jede Karte absteigend weniger CUs hat; nur mit dem Takt die Karten deutlich abzugrenzen, ist imho nicht möglich/sinnvoll/ausreichend.

soLofox
2020-10-28, 07:55:56
Heh ich freu mich auf 17:00.....

Ich mich auch, wie ein kleines Kind auf die Bescherung an Weihnachten :biggrin:

Bin mega gespannt.

Odal
2020-10-28, 08:04:21
Der Hypetrain hat hier ja volle Fahrt aufgenommen. Hoffen wir mal das er nicht entgleist.
Ich persönlich kann eigentlich nur enttäuscht werden, da die Preise in den letzten Jahren völlig absurd sind.
Wir sprechen hier ja von 256bit Karten und nicht von 512Bit oder dergleichen. Die Dinger müssten eigentlich günstig zu fertigen sein.
XTX mal außen vor, gehört das für mich definitiv unter 500€. Eine 5700 ist eigentlich auch min. 100€ zu teuer.

Wird zwar so nicht kommen, aber XT für 450-499 und XL für 300-399 und 5700 für 200-250 das wären meine Vorstellungen von "normalen" Preisen.

ianm
2020-10-28, 08:14:23
Schön wärs, aber das wird so nicht kommen. Ich denke das hat schon einen Grund warum es jetzt eine X800er Serie gibt. Eine 6700XT wird vielleicht um 379€ mit Glück 349€ kommen, je nachdem wieviel IPC AMD drauf legt. 7nm würde ich nach wie vor nicht als günstig bezeichnen. Und 5nm will auch finanziert werden.

Im Abverkauf wird die 5000er vielleicht noch etwas runter gehen. Andererseits will gerade gefühlt jeder neue Hardware haben. Ich bin sehr gespannt was AMD macht.

soLofox
2020-10-28, 08:18:25
Mit einem Wunder rechne ich jetzt nun auch nicht gerade, also von 3090 Niveau auszugehen ist schon brutal. Wenn wir auf 3080 Niveau sind - vielleicht etwas darüber - wäre ich schon völlig zufrieden.

ianm
2020-10-28, 08:23:57
Naja gut, abgesehen vom RAM, 10-15% von 3080 auf 3090 sind nicht viel. Der Sprung ist diesmal viel kleiner.

JVC
2020-10-28, 08:24:59
Ich persönlich kann eigentlich nur enttäuscht werden, da die Preise in den letzten Jahren völlig absurd sind..
Die Dinger müssten eigentlich günstig zu fertigen sein.
Die "10Nm" NV Dinger, mit zu wenig Ram und zu viel Verbrauch,
müssten da ja noch mal um einiges günstiger sein :freak:
(Performance/Verbrauch nur ~+12% Fortschritt)

Ich hoffe mal, das sich mit den neuen AMD karten nicht gut minern lässt.

M.f.G. JVC

prinz_valium_2
2020-10-28, 08:25:28
Die Vorstellung ist zwar nur noch wenige Stunden entfernt, neue Gerüchte gibts dennoch.

Im speziellen 64CUs vs 60CUs. Yuko Yoshida: (https://twitter.com/KittyYYuko/status/1321272092814315521)




Die Aussage zu langsamerem 14Gbps GDDR6 bei XL-Karten ist so auch neu.
Avery78 (https://mobile.twitter.com/Avery78/status/1321289234930638851) unterstützt das mit einem Chiphell-Ausschnitt.

Und das passt auch besser mit einem 192bit interface und 12GB Speicher anstatt 256 mit 16GB
Beides jeweils 64 bit pro SE



Und das Teil soll dann $599 kosten?
$479 passt schon.

ChaosTM
2020-10-28, 08:28:53
Nach den vorab "Informationen" die wir haben ist es durchaus möglich, dass die XTX die 90er knapp(est) schlagen wird können. Mit der Ausnahme von Lichtverfolgungstiteln.

Jetzt hängt natürlich alles an der Verfügbarkeit. Die Preise könnten uns etwas Aufschluss geben. Sollte AMD für das dickste Ding Fantasiepreise wie NV bei der 90er abrufen, wissen wir was los ist ;)

dargo
2020-10-28, 08:49:18
Die Vorstellung ist zwar nur noch wenige Stunden entfernt, neue Gerüchte gibts dennoch.

Im speziellen 64CUs vs 60CUs. Yuko Yoshida: (https://twitter.com/KittyYYuko/status/1321272092814315521)

Die Aussage zu langsamerem 14Gbps GDDR6 bei XL-Karten ist so auch neu.
Avery78 (https://mobile.twitter.com/Avery78/status/1321289234930638851) unterstützt das mit einem Chiphell-Ausschnitt.
Macht aber vollkommen Sinn. Mich hätte echt gewundert wenn AMD 16Gbps für N21XL verschwendet hätte. Schließlich sollte 14Gbps GDDR6 günstiger zu beschaffen sein da absolute Massenware.

Mit einem Wunder rechne ich jetzt nun auch nicht gerade, also von 3090 Niveau auszugehen ist schon brutal. Wenn wir auf 3080 Niveau sind - vielleicht etwas darüber - wäre ich schon völlig zufrieden.
3080/3090 trennen doch bloß magere 11%. Es wäre also keine Schande wenn selbst die 6900XT die 3090 nicht knackt. ;) Zumal die 1.500+€ eh komplett absurd sind und Nische beim Gaming bleibt. Sollte die 3090 nicht geknackt werden kloppt sich die 6900XT dann halt mit der 3080TI.

gedi
2020-10-28, 08:54:05
Die Vorstellung ist zwar nur noch wenige Stunden entfernt, neue Gerüchte gibts dennoch.

Im speziellen 64CUs vs 60CUs. Yuko Yoshida: (https://twitter.com/KittyYYuko/status/1321272092814315521)




Die Aussage zu langsamerem 14Gbps GDDR6 bei XL-Karten ist so auch neu.
Avery78 (https://mobile.twitter.com/Avery78/status/1321289234930638851) unterstützt das mit einem Chiphell-Ausschnitt.

Ich dachte die Anzahl der CUs muss durch 8 teilbar sein? Zudem ist GDDR6 14GPS schon länger bekannt, allerdings ebenfalls mit 256-Bit SI und 16GB.

Vielleicht kommt ja noch ne 6800XLE mit N22 Full und ohne IF-Cache mit 14GB :redface:

Iscaran
2020-10-28, 08:55:42
60 CU wäre immer noch eine salvage Stufe von 80. Nämlich dann wenn man eine komplette Shader Array wegnimmt.

Der Chip wird also ebenfalls 256bit SI haben und dann womöglich nur 8 GB RAM ?

Leistungsmäßig passt das auch besser - das dürfte dann eigentlich fast exakt 3070 Niveau sein und der Abstand zur 72 CU Salvage Stufe wäre etwas größer und die Lücke zum "Refresh" Chip mit 40 CU wäre auch kleiner.

Würde sagen passt sich so deutlich besser als mit 64 CU.

Langlay
2020-10-28, 08:56:23
Ich dachte die Anzahl der CUs muss durch 8 teilbar sein?

Die Radeon VII zugegebenerweise GCN hatte auch 60 CU aktiv von 64 insgesamt.

basix
2020-10-28, 08:56:51
Der Chip wird also ebenfalls 256bit SI haben und dann womöglich nur 8 GB RAM ?

Eher 16 GByte (vs. 3070S 16G?) oder 12GByte @ 192b. 8 GByte definitiv nicht, wenn schon N22 12 GByte haben soll.

Redneck
2020-10-28, 08:57:27
Ich denke das Preisgefüge wird in etwa gleich werden, wie bei Navi auch.
AMD wird die Karten ~100-150€ unter den Nvidia Pendants ansiedeln bei gleicher Performance. ( Von 3070 bis zur 3080 ).
Dann muss der Kunde am Ende zwischen Leistung und Features entscheiden, wie jetzt auch.

Man darf hoffen, dass AMD diesen Spagat auch trotz des großen Speichers aufbringen kann, das wäre nochmal ein Pluspunkt für sie. Wenn sie am Ende zu nah am Preis der Nvidia Karten rankommen, wird es schwierig. Weil am Ende hat AMD dann wieder nur das "Billo" Image und nicht das der starken Grafikkarte, womit man geil zocken kann.
Viele haben jetzt ja auch eher zu einer Nvidia Karte gegriffen unter 500€, warum auch immer. Eigentlich war da AMD ja der bessere Wurf.

PS: RT ist ja auch ein Faktor, den sich AMD erkaufen muss, das scheint ja nicht so pralle zu sein laut den Leaks.

Merkst Du gar nicht , das du dir selber dermassen widersprichst, das man deinen Kommentar einfach nicht Ernst nehmen kann ? Wenn sie zu nah an NV kommen behalten sie Billo image... tsts. Aber wenn sie 100-150 drunter bleiben, dann nicht ? Verquere Sichtweise

dargo
2020-10-28, 08:58:57
60 CU wäre immer noch eine salvage Stufe von 80. Nämlich dann wenn man eine komplette Shader Array wegnimmt.

Der Chip wird also ebenfalls 256bit SI haben und dann womöglich nur 8 GB RAM ?

Was soll dieser Unsinn wieder mit 8GB? :freak: N22 kommt mit 12GB und N21XL mit 8GB... ja ne ist klar. :uattack4:

basix
2020-10-28, 08:59:16
Ich dachte die Anzahl der CUs muss durch 8 teilbar sein?

Wenn du eine komplette Shader Engine deaktivierst fallen halt 20 CUs weg ;)

dargo
2020-10-28, 09:01:40
Die 60CUs passen sogar perfekt. Eigentlich hatten wir schon ewig darüber spekuliert, dass es eine 60 CU SKU geben wird. Jetzt hat AMD halt dafür keine eigene SKU aufgelegt sondern den TopDog dafür "missbraucht".

Iscaran
2020-10-28, 09:02:07
Hmm, ihr habt recht 8GB ist unsinn wenn N22 mit 12 kommt.

Wobei - vielleicht kommt ja N22 nur mit 6GB @192 bit.

Andererseits macht das auch wenig Sinn, da die 5700XT schon 8GB hat.

Also vermutlich doch 16 GB @ 256 bit @60CUs (=3SA x 20 CUs)

EDIT: Hmm, es KÖNNTE natürlich sein daß das SI automatisch durch so einen "cut" kleiner wird, es könnte sein das das SI quasi direkt an ein SA gekoppelt ist. 4x64 =256 bit für den XT, und 3x64 Bit = 192 für den Salvage@60CUs

HOT
2020-10-28, 09:04:01
12GB für N22 und 16GB für N21 stehen doch schon seit Erwigkeiten fest und das Demoboard bestätigte dieses. Dazu passt, dass AMD 8GB lt. eigenem Bekunden als das absolute Minimum ansieht für künftige Märkte.

dargo
2020-10-28, 09:08:03
Hmm, ihr habt recht 8GB ist unsinn wenn N22 mit 12 kommt.

Wobei - vielleicht kommt ja N22 nur mit 6GB @192 bit.

Nein... der kommt mit 3GB.

Odal
2020-10-28, 09:13:16
Was soll dieser Unsinn wieder mit 8GB? :freak: N22 kommt mit 12GB und N21XL mit 8GB... ja ne ist klar. :uattack4:


Wenn man NV mit ihren 3070 richtig aufmischen will, macht eine auf Preis getrimmte XL mit 8GB schon sinn. Früher gabs ja auch 4GB u. 8GB Varianten, also warum jetzt nur eine Speichergröße?

Cyberfries
2020-10-28, 09:14:07
Hmm, es KÖNNTE natürlich sein daß das SI automatisch durch so einen "cut" kleiner wird, es könnte sein das das SI quasi direkt an ein SA gekoppelt ist.

SE, nicht SA. edit: Shader Array wird übrigens als SH abgekürzt.
Wieso sollte eine SE daran gekoppelt sein? Da liegt noch der L2$ dazwischen.
Siehe RX5600 - 192bit und trotzdem beide SE vorhanden.

Was soll dieser Unsinn wieder mit 8GB? :freak: N22 kommt mit 12GB und N21XL mit 8GB... ja ne ist klar. :uattack4:

Nicht ohne Präzedenzfall, siehe 5600xt mit 6GB und 5500xt mit 8GB.

edit:
12GB für N22 und 16GB für N21 stehen doch schon seit Erwigkeiten fest und das Demoboard bestätigte dieses.

Wurde der jeweiligen XT-Variante zugeordnet, hier gehts aber um XL.

Ich erwarte aber auch 16GB für XL.

Korvaun
2020-10-28, 09:21:27
Warum ist der Kram so teuer? Muss man sich nur die letzen Quartalszahlen ansehen, egal ob nV oder AMD, 45%+ Nettomarge! Und TSMC+Speicherhersteller wird auch noch gut verdienen obendrauf....

HOT
2020-10-28, 09:21:38
AMD wird bei allen Boards nur noch 16Gb-RAM-Verbauen. Das passt doch auch zu N23 sehr gut, der hat ja 8GB bei einem nur 128Bit-Interface, wie es aussieht.

N23 -> 128Bit -> 4x 16Gb -> 8GB
N22 -> 192Bit -> 6x 16Gb -> 12GB
N21 -> 256Bit -> 8x 16Gb -> 16GB

Iscaran
2020-10-28, 09:23:37
SE, nicht SA. edit: Shader Array wird übrigens als SH abgekürzt.


Stimmt. SE =Shader Engine
1 SE besteht (bei RDNA1) aus 2 Arrays (im Treiber wird das mit SH abgekürzt, auch korrekt, danke fürs berichtigen)


Wieso sollte eine SE daran gekoppelt sein? Da liegt noch der L2$ dazwischen.
Siehe RX5600 - 192bit und trotzdem beide SE vorhanden.


Das war nur eine spekulation - wie man das macht. Ich dachte der Aufwand ein anderes SI anzubringen würde mehr Arbeit sein als wenn man "einfach" eine SE deaktiviert (ggf. sogar nur über BIOS/Treiber).

Es könnte aber trotzdem sein, daß man damit dann auch den Speicherzugriff "reduziert" - da dieser ja über die SEs gesteuert wird.

ABER du hast Recht bei RX5600 wurden auch nur 192bit gemacht und der Chip selbst war mit 2 SEs.

Weisst du zufällig ob man da wirklich physisch ein ANDERES SI an den Chip gemacht hat oder war das SI 256bit "breit" Physisch aber nur 192 bit genutzt ?

MadManniMan
2020-10-28, 09:23:46
Bringt mich mal auf einen aktuellen Stand: Wann werden AMDs neue Grafikkarten vorgestellt - oder wissen wir das noch gar nicht?

Ich wurde gestern vom 3070-Launch ziemlich überrascht ^^

Iscaran
2020-10-28, 09:24:31
Nein... der kommt mit 3GB.

Ach komm dargo - lass mal deine Ironie wieder stecken...

dargo
2020-10-28, 09:28:42
Wenn man NV mit ihren 3070 richtig aufmischen will, macht eine auf Preis getrimmte XL mit 8GB schon sinn.
Für die 3070 ist eine 12GB N22 zuständig.


Nicht ohne Präzedenzfall, siehe 5600xt mit 6GB und 5500xt mit 8GB.

Was soll ich da jetzt genau erkennen? Kam die 5600XT mit 256BIt SI und 4GB? Ihr stellt echt manchmal komische Vergleiche an. Das einzige was denkbar bei N21XL wäre ist eine Graka mit 12GB @192Bit SI. Sie wäre dann schneller als eine N22 mit ebenfalls 12GB. Ich gehe aber nicht davon aus, dass AMD eine Graka mit 60CUs mit 12GB bringt. Genaueres erfahren wir in paar Stunden.

ChaosTM
2020-10-28, 09:32:09
Glaub ich auch. Die XL dürfte so 15% unter der 3080er rauskommen.

RitterRost
2020-10-28, 09:32:32
Bringt mich mal auf einen aktuellen Stand: Wann werden AMDs neue Grafikkarten vorgestellt - oder wissen wir das noch gar nicht?


Heute 17Uhr
Gibt überall "Live"-Streams

Edit: Dann haben wir endlich ein paar feste Spezifikationen + Preise. Die Details werden vermutlich wie bei Zen3 noch nicht bekannt gegeben. Das ist dann die Arbeit für die Tester.

Hoffentlich kommen auch Infos zu Navi22 und zu Terminen und Verfügbarkeit...

Cyberfries
2020-10-28, 09:33:12
Für die 3070 ist eine 12GB N22 zuständig.

Ziemlich optimistisch - die bisherigen Gerüchte gingen eher von 2080S-Leistung aus.

Weisst du zufällig ob man da wirklich physisch ein ANDERES SI an den Chip gemacht hat oder war das SI 256bit "breit" Physisch aber nur 192 bit genutzt ?

Bin mir nicht sicher ob ich die Frage richtig verstehe.
Es ist der gleiche Chip, also sind 256bit physisch vorhanden, von denen 64bit deaktiviert werden.
Gleichsam sinkt auch der L2$ entsprechend von 4mb auf 3mb.

Linmoum
2020-10-28, 09:37:18
Das letzte Gerücht zu N22 war zwischen 2080S und 2080Ti/3070. Passt dann auch, wenn N21 XL 10-15% vor der 3070 liegen sollte.

Der_Korken
2020-10-28, 09:39:08
Wenn N22XT 16Gbps GDDR6 bekommt und N21XL nur 14Gbps, glaube ich nicht, dass N21XL 12GB haben wird. Sonst hätte die weniger Bandbreite, was schon etwas komisch wäre. Entweder 16GB@14Gbps (also billigerer Speicher als die XT) oder 14GB mit 224bit Interface, wo man einen von acht Channel ausknipst. Spart ebenfalls Produktionskosten. Dass die XL den gleichen Speicherausbau wie die XT bekommt, glaube ich nicht, denn bei so vielen deaktivierten CUs wird AMD sicherlich auch einige "gute" Chips verwursten müssen und da will man sicherlich nicht noch teuren Speicher hinterherwerfen (siehe 5600XT, Preisreduktion durch VRAM-Einsparung).

dargo
2020-10-28, 09:41:15
Ziemlich optimistisch - die bisherigen Gerüchte gingen eher von 2080S-Leistung aus.

Meine Güte... dann landet eben ein N22 10% unter der 3070. Ist das jetzt ein Weltuntergang? Wieso muss jeder IHV exakt die gleiche Performance immer liefern? Eine absolut gleiche Punktlandung erreichst du nur sehr selten. Was ist jetzt daran schlimm wenn eine 3070 bsw. 10% schneller als N22 ist und N21XL wiederum 10-15% schneller als die 3070?

Wenn N22XT 16Gbps GDDR6 bekommt und N21XL nur 14Gbps, glaube ich nicht, dass N21XL 12GB haben wird. Sonst hätte die weniger Bandbreite, was schon etwas komisch wäre.
:confused:

N22XT + 16Gbps = 384GB/s
N21XL + 14Gbps = 448GB/s

Wenn N21 diesen ominösen Cache hat und N22 nicht erübrigt sich eh jegliche Diskussion.

Zergra
2020-10-28, 09:41:25
N22 kann man auch einfach 14Gbps spendieren und fertig, der 16Gbps dürfte eh eine Ecke teurer sein und eben dann nur N21XT /XTX vorbehalten sein.

Der_Korken
2020-10-28, 09:46:19
:confused:

N22 + 16Gbps = 384GB/s
N21XL + 14Gbps = 448GB/s

Den Satz davor auch lesen:

Wenn N22XT 16Gbps GDDR6 bekommt und N21XL nur 14Gbps, glaube ich nicht, dass N21XL 12GB haben wird. Sonst hätte die weniger Bandbreite, was schon etwas komisch wäre.

192bit@16Gbps = 384GB/s
192bit@14Gbps = 336GB/s

12GB implizieren 192bit.

Edit: Ja, N21XL wird auch den Cache haben (wobei nicht gesagt ist, dass es der volle Cache sein wird, je nachdem was dieser genau ist), aber allein aus psychologischen Gründen glaube ich nicht, dass man dem großen Modell irgendwo kleinere Specs spendieren will als dem kleinen.

Iscaran
2020-10-28, 09:47:15
Es ist der gleiche Chip, also sind 256bit physisch vorhanden, von denen 64bit deaktiviert werden.
Gleichsam sinkt auch der L2$ entsprechend von 4mb auf 3mb.

OK...genau das wollte ich wissen. Der Chip ist also im Grunde der Navi10 nur wird per LaserCut (oder wie auch immer) einfach das SI "gekillt".

Ja - so was wäre für einen Salvage 60CU N21 XL dann auch denkbar.

In dem Fall könnte er auch nur 12GB haben@192 bit.

Mal sehen was AMD bringt :-)

Rechnerisch käme ein 2.4GHZ taktender 60 CU chip (ohne IPC-Verbesserung relativ zu RDNA) auf ca 290% 4k-3DC-Index - das wäre in etwa 10-15% unter einer 3080 und damit ca 20% ÜBER einer 2080 Ti bzw da wo man aktuell die 3070 mit 46 SM @1.73GHz findet.

Da die Performance eines solchen Chips so hoch ist, glaube ich fast nicht an nur 192bit SI.

Lawmachine79
2020-10-28, 09:47:34
Gibt es eigentlich irgendeinen Termin für Review bzw. Ablauf NDA? Eigentlich ist diese Veranstaltung heute doch überflüssig, weil man eh nicht schlauer ist als vorher.

Der_Korken
2020-10-28, 09:50:39
Gibt es eigentlich irgendeinen Termin für Review bzw. Ablauf NDA? Eigentlich ist diese Veranstaltung heute doch überflüssig, weil man eh nicht schlauer ist als vorher.

Ich denke, dass man heute wie bei der Zen3-Präsi konkrete Modelle vorstellen wird, dazu eine Leistungsprognose (d.h. AMD-eigene Benches) und Preise. Reviews, insbesondere zu Custom-Modellen, bekommst du natürlich erst im November irgendwann.

Persönlich hoffe ich, dass heute auch was zur Architektur gesagt wird. Wir spekulieren uns ja hier seit Monaten Löcher in den Bauch, was nun dieser ominöse Cache sein könnte :freak:.

dargo
2020-10-28, 09:52:11
Rechnerisch käme ein 2.4GHZ taktender 60 CU chip (ohne IPC-Verbesserung relativ zu RDNA) auf ca 290% 4k-3DC-Index - das wäre in etwa 10-15% unter einer 3080 und damit ca 20% ÜBER einer 2080 Ti bzw da wo man aktuell die 3070 mit 46 SM @1.73GHz findet.

Ähm... was? 3070 = 2080TI!

MikePayne
2020-10-28, 09:52:49
https://twitter.com/Radeon/status/1321188735267033088

Mal zur Einstimmung
Kann nicht mehr schlafen, mache wohl durch :-== )))

Na noch wach?^^

"AMD RDNA 2: Lisa strikes back." (aus den Kommis vom YT Link) :D
Die Leute sind da jetzt schon hart am Spammen, 7h bevor es losgeht.
Popcorn steht bereit!

Iscaran
2020-10-28, 09:55:07
Ähm... was? 3070 = 2080TI!

Hab ich doch geschrieben: "das wäre in etwa 10-15% unter einer 3080 und damit ca 20% ÜBER einer 2080 Ti bzw. einer 3070.

ChaosTM
2020-10-28, 09:57:53
https://twitter.com/Kirby0Louise/status/1321190647274082305
"DirectML Super Resolution" - AMDs DLSS für die Xbox. Für den PC gibts sicher was ähnliches.

dargo
2020-10-28, 10:00:03
Gehen Nvidia langsam die Features aus? :whistle:

Iscaran
2020-10-28, 10:11:13
https://twitter.com/Kirby0Louise/status/1321190647274082305
"DirectML Super Resolution" - AMDs DLSS für die Xbox. Für den PC gibts sicher was ähnliches.


Dazu passend: Project Mara mit directML resolution scaling auf XBOX und selbiges wird mit RDNA2 am Desktop auch funktionieren:
https://twitter.com/architectu2/status/1316472591255826434

BlacKi
2020-10-28, 11:05:24
ob das was taugen wird? #dlss1.0

ich fänds cool.

Screemer
2020-10-28, 11:06:21
dlss 1 nutzte noch "offline"-generierte netze die pro spiel erstellt wurden . das ist hier wohl nicht der fall.

mksn7
2020-10-28, 11:11:15
AMD arbeitet mit SIMD. nVidia mit SIMT. Die Unterschiede sind nicht allzu groß, zumal AMD ja auch "multiple-SIMDs" parallel fährt (also im Grunde auch SIMT) aber dennoch sind kleine Unterschiede da.

[...]


Klassischerweise definiert Flynn's Taxonomy nur SIMD (Single Instruction Multiple Data, die anderen drei Begriffe, MIMD,SISD,MISD hört man kaum). SSE, AVX und Neon in CPUs sind klassische SIMD ISAs.

Was GPUs machen ist auch SIMD. Allerdings wollte NVIDIA sich da mehr von den CPUs abgrenzen und deutlich machen, dass ihre SIMD ISA mehr kann als die CPUs (im Detail: eingebaute hardware um control flow divergence zu behandeln, und address generation per SIMD lane, jeder load ist ein gather). Also erfanden sie den Begriff SIMT. Den verwendet AMD nicht, weil das ist ja ein NVIDIA Begriff. GCN und RDNA haben aber genau die gleichen Features, sind also nach NVIDIA Nomenklatur auch SIMT.

In GCN und RDNA könnte man die scalar unit entfernen, und es würde immer noch funktionieren. Man spart aber Ressourcen, wenn Berechnungen die identisch für alle SIMD lanes sind stattdessen von einer scalar unit ausführen lässt.


Also in kurz, laut NVIDIA Nomenklatur:
GCN, RDNA, NVIDIA: = SIMT
AVX, SSE: = SIMD

Wo kommen die Begriffe skalar und vektor? Die Hardware ist vektorhardware, aber die Softwaresicht von CUDA und OpenCL ist skalar. Man schreibt die Programme wie für einen einzelnen skalar oder thread, aber die hardware führt das als Vektoren von mehrerern skalaren oder threads aus. NVIDIA betont insbesondere diese Softwaresicht in ihrem technischen Marketing gerne, weil diese Denkweise für den Programmierer einfacher ist. Wenn man aber wirklich skalar programmiert und die Vektornatur der hardware ignoriert, funktioniert das Programm zwar, aber die performance ist schlecht.

Ich weiß ehrlich gesagt nicht, wie schnell die uniforms bei NVIDIA sind. Es gibt extra Register dafür, also ist schon irgendwo extra hardware dafür da. Im technischen Marketing werden die völlig ignoriert. Ich weiß nicht ob das daran liegt, dass das ein Konzept ist was mit AMD assoziiert wird, oder ob die eine geringere Rolle spielen als bei AMD. Ich weiß von den uniform instructions auch nur, weil Pixeljetstream mal dezent darauf hingewießen hatte dass es in der Auflistung Turing ISA etwas zu entdecken gäbe.

https://docs.nvidia.com/cuda/cuda-binary-utilities/index.html in der Tabelle ganz unten.

Brillus
2020-10-28, 11:20:02
Bringt mich mal auf einen aktuellen Stand: Wann werden AMDs neue Grafikkarten vorgestellt - oder wissen wir das noch gar nicht?

Ich wurde gestern vom 3070-Launch ziemlich überrascht ^^
Heute 17 Uhr.

Iscaran
2020-10-28, 11:34:14
@mksn7: Vielen Dank für die Erläuterungen zu SIMD.

Was ich aber meinte war genau der Punkt den du auch bringst:

In GCN und RDNA könnte man die scalar unit entfernen, und es würde immer noch funktionieren. Man spart aber Ressourcen, wenn Berechnungen die identisch für alle SIMD lanes sind stattdessen von einer scalar unit ausführen lässt.


AFAIK unterscheiden sich genau HIER nVidia und AMD im Aufbau etwas.

Und einige dieser Unterschiede sprichst du ja im weiteren Verlauf an - es geht hier vor allem darüber wie die Software mit der Hardware spricht


Die Hardware ist vektorhardware, aber die Softwaresicht von CUDA und OpenCL ist skalar. Man schreibt die Programme wie für einen einzelnen skalar oder thread, aber die hardware führt das als Vektoren von mehrerern skalaren oder threads aus.

Ja AFAIK können nVidia Chips auf den SMs / Shadern aber eben nicht BEIDES parallel sonder nur entweder 1x skalar oder 1x vektor.
AMDs CUs (zumindest seit RDNA) können aber 1x skalar Befehl CONCURRENTLY (Parallel) mit 32x vektor befehlen durchrasseln.


Ich weiß ehrlich gesagt nicht, wie schnell die uniforms bei NVIDIA sind. Es gibt extra Register dafür, also ist schon irgendwo extra hardware dafür da. Im technischen Marketing werden die völlig ignoriert. Ich weiß nicht ob das daran liegt, dass das ein Konzept ist was mit AMD assoziiert wird, oder ob die eine geringere Rolle spielen als bei AMD. Ich weiß von den uniform instructions auch nur, weil Pixeljetstream mal dezent darauf hingewießen hatte dass es in der Auflistung Turing ISA etwas zu entdecken gäbe.


Das ist doch AFAIK genau einer der Punkte die sich mit Ampere verändern - man versucht einige der skalarbefehlseinheiten die vorhanden sind so umzunutzen, daß sie sofern keine Skalarops anliegen dann für FP/vektor verfügbar sind.

|MatMan|
2020-10-28, 11:36:45
dlss 1 nutzte noch "offline"-generierte netze. das ist hier wohl nicht der fall.
Und DLSS 2 oder diese directML Lösung hier trainiert das Netz dann online? Mit Sicherheit nicht...

Screemer
2020-10-28, 11:43:01
Und DLSS 2 oder diese directML Lösung hier trainiert das Netz dann online? Mit Sicherheit nicht...
die trainieren nicht mehr pro spiel einzeln und das ist das was dlss 1 gemacht hat. kann mir nicht vorstellen, dass das in dem fall so sein wird. darauf wollte ich hinaus.

das netz wird mit jeder itteration besser und wird natürlich nicht auf der hw zuhause trainiert. offsite wäre wol der bessere ausdruck als offline, denn natürlich funktioniert das training offline. "pro spiel" trifft es besser.

Nakai
2020-10-28, 12:54:14
Klassischerweise definiert Flynn's Taxonomy nur SIMD (Single Instruction Multiple Data, die anderen drei Begriffe, MIMD,SISD,MISD hört man kaum). SSE, AVX und Neon in CPUs sind klassische SIMD ISAs.

Was GPUs machen ist auch SIMD. Allerdings wollte NVIDIA sich da mehr von den CPUs abgrenzen und deutlich machen, dass ihre SIMD ISA mehr kann als die CPUs (im Detail: eingebaute hardware um control flow divergence zu behandeln, und address generation per SIMD lane, jeder load ist ein gather). Also erfanden sie den Begriff SIMT. Den verwendet AMD nicht, weil das ist ja ein NVIDIA Begriff. GCN und RDNA haben aber genau die gleichen Features, sind also nach NVIDIA Nomenklatur auch SIMT.

In GCN und RDNA könnte man die scalar unit entfernen, und es würde immer noch funktionieren. Man spart aber Ressourcen, wenn Berechnungen die identisch für alle SIMD lanes sind stattdessen von einer scalar unit ausführen lässt.


Also in kurz, laut NVIDIA Nomenklatur:
GCN, RDNA, NVIDIA: = SIMT
AVX, SSE: = SIMD

Wo kommen die Begriffe skalar und vektor? Die Hardware ist vektorhardware, aber die Softwaresicht von CUDA und OpenCL ist skalar. Man schreibt die Programme wie für einen einzelnen skalar oder thread, aber die hardware führt das als Vektoren von mehrerern skalaren oder threads aus. NVIDIA betont insbesondere diese Softwaresicht in ihrem technischen Marketing gerne, weil diese Denkweise für den Programmierer einfacher ist. Wenn man aber wirklich skalar programmiert und die Vektornatur der hardware ignoriert, funktioniert das Programm zwar, aber die performance ist schlecht.

Ich weiß ehrlich gesagt nicht, wie schnell die uniforms bei NVIDIA sind. Es gibt extra Register dafür, also ist schon irgendwo extra hardware dafür da. Im technischen Marketing werden die völlig ignoriert. Ich weiß nicht ob das daran liegt, dass das ein Konzept ist was mit AMD assoziiert wird, oder ob die eine geringere Rolle spielen als bei AMD. Ich weiß von den uniform instructions auch nur, weil Pixeljetstream mal dezent darauf hingewießen hatte dass es in der Auflistung Turing ISA etwas zu entdecken gäbe.

https://docs.nvidia.com/cuda/cuda-binary-utilities/index.html in der Tabelle ganz unten.

Diese ganzen Diskussionen wurden hier im Forum schon vor langer, langer Zeit auch mehrfach diskutiert.

Wie schon richtig genannt SIMT ist ein falscher Begriff. Das ist nur Marketing-Speech. Und ja man liest öfter von jeder SIMD-Lane, dass es einen Thread abarbytet. Ein Thread impliziert aber einen eigenen Programcounter, was die ganzen "Threads" auf der GPU nicht haben. Eine Wavefront oder Block ist ein Thread, da gibt es auch den Programcounter dann. Und die Control-Flow-Divergence ist dann auch nötig, das alle Lanes im Programmfluss wieder auf einem Stand sind irgendwann bzw. zueinander synchronisiert sind.
Fürs Branching ist das notwendig, da eine Hälfte der SIMD-Lanes einen anderen Codepfad durchackern als die andere Hälfte. Wer meint, dass die GPU dann alles parallel macht --> Nope. Bei Branches wird immer jeglicher Pfad auf den SIMDs bearbeitet. Mit der INT-Unit wird aber dann maskiert, welche Slots aktiv sind oder nicht.

Jede SIMD-basierte GPU ist im Grunde identisch.

Was die Skalar-Unit macht, steht doch schön hier im Whitepaper:

The RDNA front-end can issue four instructions every cycle to every SIMD, which include a combination of vector, scalar, and memory pipeline. The scalar pipelines are typically used for control flow and some address calculation, while the vector pipelines provide the computational throughput for the shaders and are fed by the memory pipelines



The scalar ALU accesses the scalar register file and performs basic 64-bit arithmetic operations. The scalar ALU is used for a variety of control purposes, such as calculating values that will be broadcast across an entire wavefront, managing predicates for the wavefront, and computing branch targets.

gedi
2020-10-28, 12:56:05
https://twitter.com/elgameraustral/status/1321387247372062721?s=21

Zergra
2020-10-28, 13:01:49
Da sind viel zu viele Infos über N22 drin, das ist bestimmt kein Leak sondern nur eine Tabelle die sich jmd. zusammen geschrieben hat.

arcanum
2020-10-28, 13:02:15
https://twitter.com/elgameraustral/status/1321387247372062721?s=21

sinnlos wenige stunden vor der den offiziellen daten sowas zu kompilieren... zumal immer die rede von 64CU (60 wäre ein halber shader cluster) war und XL/XT/XTX preislich auf keinen fall so eng beeinanderliegen werden.

why_me
2020-10-28, 13:03:10
Steht doch auch drüber: "RX 6000 compiled from leaked specs" Also ein erneuter Aufguss von den Treibereinträgen. :wink:

dargo
2020-10-28, 13:06:36
Wie kommt der Typ auf die fetten 589mm² bei N21? Was soll AMD da alles reingepackt haben? :freak:

ChaosTM
2020-10-28, 13:07:15
Einen Co-Prozessor ^^

dargo
2020-10-28, 13:07:46
Der gleiche wie bei Ampere? :D

Cyberfries
2020-10-28, 13:08:14
https://twitter.com/elgameraustral/status/1321387247372062721?s=21

Normalerweise hätte ich das direkt ins Reich der Fabel geschickt.
Aber es gibt Beifall von kopite7kimi:
Good job, nearly.

zumal immer die rede von 64CU (60 wäre ein halber shader cluster)

Die letzte Seite verpasst? 3 statt 4 SE....

dildo4u
2020-10-28, 13:09:38
Cache offensichtlich wenn sie 2 X der XBox erreichen wollen.
Die GPU sollte dort ca bei 150 Watt liegen und hat 0.5 TB Bandbreite.

Hakim
2020-10-28, 13:10:28
Wie kommt der Typ auf die fetten 589mm² bei N21? Was soll AMD da alles reingepackt haben? :freak:

KI Cores, RT Cores :)

dargo
2020-10-28, 13:12:39
Cache offensichtlich wenn sie 2 X der XBox erreichen wollen.

Wieviel Cache soll es denn sein? 512MB? :freak:

Adam D.
2020-10-28, 13:13:41
Der Preis-Gap zwischen N22XT und N21XL ist viel zu groß, irgendwas stimmt da nicht. Zudem sind die Abstände zwischen den N21 zu klein - 50$ für 15% mehr Performance? Das wäre ein No-Brainer, in den Performance-Regionen zahlt man aber immer exponentiell drauf.

Ansonsten ist das alles recht einleuchtend. Wie die Performance am Ende genau aussieht, werden wir heute eh nicht erfahren. Hier mal 5% mehr oder weniger juckt keinen. Was Druck auf NV ausübt, ist die Speicherausstattung, die (wenn sie so kommt) einfach nur hart gelobt werden muss.

gedi
2020-10-28, 13:17:18
Wieviel Cache soll es denn sein? 512MB? :freak:

HBM2 ondie :freak:

dildo4u
2020-10-28, 13:17:22
Die alte Xbox One hatte 32GB für 1080p, 128GB für 4k haut hin.

dargo
2020-10-28, 13:17:47
GB? ;D

128MB hatte afaik jemand hier mit ca. 60mm² beziffert. Wofür ist dann der Rest?

arcanum
2020-10-28, 13:20:12
Die letzte Seite verpasst? 3 statt 4 SE....

tatsächlich verpasst. danke für den hinweis.

Schnitzl
2020-10-28, 13:31:26
Normalerweise hätte ich das direkt ins Reich der Fabel geschickt.
Aber es gibt Beifall von kopite7kimi:
ich hoffe die TDPs sind etwas niedriger... ich möchte unbedingt unter 200W bleiben
und hab einen 1440p Monitor :freak:

Brillus
2020-10-28, 13:42:43
https://twitter.com/elgameraustral/status/1321387247372062721?s=21

Preis passen schon nicht IMHO > +10% performance bei < +10% Preis wann gab es das jemals?.

Edit: nicht vergessen.

Brillus
2020-10-28, 13:44:55
Die alte Xbox One hatte 32GB für 1080p, 128GB für 4k haut hin.

Mit 32 GB wäre ich schon zufrieden.

ChaosTM
2020-10-28, 13:47:31
Preis passen schon IMHO > +10% performance bei < +10% Preis wann gab es das jemals?.


AMD hat selbst die Radeon7 sehr aggressive be-preist..

Ich glaub nicht mehr an Geschenke seitens AMD.

dargo
2020-10-28, 13:48:27
Ich glaub nicht mehr an Geschenke seitens AMD.
AMD verschenkt Hardware? Wo kann ich mich anmelden?

ChaosTM
2020-10-28, 13:52:58
giftsfromLisa@amd.com - Die ersten 500 kriegen einen virtuellen Keks

arcanum
2020-10-28, 13:53:08
Preis passen schon IMHO > +10% performance bei < +10% Preis wann gab es das jemals?.

wer kauft eine 6800/XT wenn es eine 6900XT für 700€ gibt? für den vollen chip würden die leute locker 100€ gegenüber der 6800XT hinlegen, wenn nicht sogar noch mehr.

r3ptil3
2020-10-28, 14:00:16
wer kauft eine 6800/XT wenn es eine 6900XT für 700€ gibt? für den vollen chip würden die leute locker 100€ gegenüber der 6800XT hinlegen, wenn nicht sogar noch mehr.

Was habe ich verpasst?

700€ wie und wo?

Redneck
2020-10-28, 14:00:29
Preis passen schon IMHO > +10% performance bei < +10% Preis wann gab es das jemals?.
6900XT für 699..
und dann zwischen 6800XL/6800XT/6900 jeweils nur $50
Fände ich für die 6900 geil aber klingt für mich sehr unwahrscheinlich

Brillus
2020-10-28, 14:01:19
AMD hat selbst die Radeon7 sehr aggressive be-preist..

Ich glaub nicht mehr an Geschenke seitens AMD.
Mist da fehlte ein nicht.

Brillus
2020-10-28, 14:03:19
6900XT für 699..
und dann zwischen 6800XL/6800XT/6900 jeweils nur $50
Fände ich für die 6900 geil aber klingt für mich sehr unwahrscheinlich

Hab mich verschrieben.

MasterElwood
2020-10-28, 14:09:32
Bin schon gespannt auf 17 Uhr da es für mich UNMÖGLICH ist eine 3080 zu bekommen - aber kein CUDA liegt mir schon schwer im Magen.

Gibt echt viele Sachen die ohne CUDA überhaupt nicht bzw. mit opengl deutlich langsamer laufen :frown:

[MK2]Mythos
2020-10-28, 14:11:16
Die Preise sind geraten, macht euch doch nicht verrückt deswegen. Mindestens die 6900 dürfte deutlich teurer werden. Was aber auch okay wäre.

Der_Korken
2020-10-28, 14:12:18
Die Tabelle ist komisch:

1. 60 CUs ergeben 240TMUs, nicht 144.
2. 24 Mrd. Transistoren auf knapp 600mm² ... also null Verbesserungen bei der Packdichte? A100 schafft dagegen 50% mehr im gleichen Prozess? Dito N22.
3. N22XT soll 225W verbrauchen, aber N21XL mit dem selben Takt aber 50% mehr CUs soll dann nur 250W verbrauchen? Wie soll das gehen? Nach den Specs müsste N22XT irgendwo bei ~175W landen.
4. Preisabstand zwischen N22XT und N22XL ist viel zu klein. Der zwischen den N21ern auch. Ich würde tippen, dass N22XTX wird locker doppelt so teuer wie N22XT sein wird. Ist ja schließlich auch ein doppelt so großer Chip. Preistipps wurden hier schon jede Menge gepostet, die wesentlich sinnvoller sind.

FD75
2020-10-28, 14:30:42
Hi, gibts schon nen Link zu dem AMD Event später?

Andron
2020-10-28, 14:32:18
Hi, gibts schon nen Link zu dem AMD Event später?

https://www.youtube.com/watch?v=oHpgu-cTjyM

FD75
2020-10-28, 14:33:46
Danke dir

[MK2]Mythos
2020-10-28, 14:37:26
Und falls es noch jemand nicht weiß. Das Event startet um:


17:00!


Uhr.

Flinx
2020-10-28, 14:38:08
MSI Radeon RX 6800XT & Radeon RX 6800

https://videocardz.com/newz/msi-lists-radeon-rx-6800-xt-and-rx-6800-at-eec

r3ptil3
2020-10-28, 14:54:19
Hoffe dass die Präsentation auch so kurzgehalten wird wie bei Zen3 - war sehr angenehm.

nairune
2020-10-28, 14:55:18
Es sind knapp 25 min laut YouTube.

Mortalvision
2020-10-28, 14:58:45
Noch 7200 mal F5 klicken :freak:

r3ptil3
2020-10-28, 15:03:51
Bin gespannt auf folgende Punkte:

- Release (Mitte November oder später)
- Preispunkt
- womit man die einzelnen Produkte vergleicht (3070, 3080...)


Die ganz wichtigen Infos, wird man wohl auch heute nicht kriegen:
- detaillierte Performance
- Verbrauch
- OC


Hat es eigentlich ein Hersteller mal geschafft kurz nach der Vorstellung auch die Karten im Handel anzubieten? Nie oder?

DrFreaK666
2020-10-28, 15:04:50
Bin schon gespannt auf 17 Uhr da es für mich UNMÖGLICH ist eine 3080 zu bekommen - aber kein CUDA liegt mir schon schwer im Magen.

Gibt echt viele Sachen die ohne CUDA überhaupt nicht bzw. mit opengl deutlich langsamer laufen :frown:

Deswegen hofft ein Freund von mir morgen eine 3070 zu ergattern, noch besser wären für ihn zwei

[MK2]Mythos
2020-10-28, 15:10:59
Bin gespannt auf folgende Punkte:

- Release (Mitte November oder später)
- Preispunkt
- womit man die einzelnen Produkte vergleicht (3070, 3080...)


Die ganz wichtigen Infos, wird man wohl auch heute nicht kriegen:
- detaillierte Performance
- Verbrauch
- OC


Hat es eigentlich ein Hersteller mal geschafft kurz nach der Vorstellung auch die Karten im Handel anzubieten? Nie oder?
Wahrscheinlich nutzt man den Vergleich mit einer 2080Ti gleich als Seitenhieb..."We wanted to bench vs a 3080, but we weren't able to get one..." ;)

Flinx
2020-10-28, 15:12:33
MSI 6800XT und Gigabyte preps Radeon RX 6800 (XT) AORUS Master

videocardz...

haben die normal AMD im Programm?

ianm
2020-10-28, 15:16:47
Natürlich.

r3ptil3
2020-10-28, 15:18:18
MSI 6800XT und Gigabyte preps Radeon RX 6800 (XT) AORUS Master

videocardz...

haben die normal AMD im Programm?

Immer schon eigentlich...

Viel interessanter finde ich bei AMD Sapphire... hoffe die bringen wieder etwas ganz feines.

Adam D.
2020-10-28, 15:19:57
MSI Radeon RX 6800XT & Radeon RX 6800

https://videocardz.com/newz/msi-lists-radeon-rx-6800-xt-and-rx-6800-at-eec
Yes, die 16GB sind bestätigt für die 6800, wuhu :D

Ex3cut3r
2020-10-28, 15:21:25
Bin Mega gespannt. Bald hat die RTX 2080 ausgedient. (Gute Karte von September 2018, davor ne 1070 im Rechner für 3440x1440)

r3ptil3
2020-10-28, 15:23:19
Bin Mega gespannt. Bald hat die RTX 2080 ausgedient. (Gute Karte von September 2018, davor ne 1070 im Rechner für 3440x1440)

So lange mit Nvidia...

Bin dann gespannt was du nach ein paar Wochen sagst mit einer AMD Karte (Treiber...), wenn du nur Nvidia hattest.

Aber sowas lernt man erst schätzen, wenn man es selber erlebt.

Ex3cut3r
2020-10-28, 15:25:18
Noch länger sogar. Von der 1070 eine 770 gehabt. Letzte AMD Karte war 2005-2006 im Rechner mit einer X600 Pro. Hatte damals aber nie Treiber Probleme mit dem 17" 1280x1024 Monitor (Schüler)

[MK2]Mythos
2020-10-28, 15:29:35
So lange mit Nvidia...

Bin dann gespannt was du nach ein paar Wochen sagst mit einer AMD Karte (Treiber...), wenn du nur Nvidia hattest.

Aber sowas lernt man erst schätzen, wenn man es selber erlebt.
Was soll mit den Treibern sein? Ich finde die AMD Software deutlich besser und hübscher als das 1990 Treibergedenkmenü bei nvidia.

Linmoum
2020-10-28, 15:29:42
So lange mit Nvidia...

Bin dann gespannt was du nach ein paar Wochen sagst mit einer AMD Karte (Treiber...), wenn du nur Nvidia hattest.

Aber sowas lernt man erst schätzen, wenn man es selber erlebt.Hatte mit der 2080 aktuell meine erste Nvidia überhaupt. Bin froh, die nächsten Wochen wieder wechseln zu können.

sven2.0
2020-10-28, 15:30:28
Hatte mit der 2080 aktuell meine erste Nvidia überhaupt. Bin froh, die nächsten Wochen wieder wechseln zu können.

Masochismus ist ja nichts schlimmes

Schnitzl
2020-10-28, 15:31:41
Mythos;12476518']Wahrscheinlich nutzt man den Vergleich mit einer 2080Ti gleich als Seitenhieb..."We wanted to bench vs a 3080, but we weren't able to get one..." ;)
sehr gut ich hoffe Lisa liest mit ;D

Wenn ich AMD wäre würde ich Cyberpunk mit RT laufen lassen, und zwar flüssig.
scheiss drauf welche Version und von mir aus ne übertaktete XTX die Luft direkt aus der Klimaanlage bekommt mit 5°C

nVidia einfach mit den eigenen Waffen schlagen ;)

r3ptil3
2020-10-28, 15:32:34
Also über das Treiberthema bei AMD erübrigt sich jegliche Diskussion: Die AMD Treiber waren deutlich fehlerhafter als die Geforce-Treiber. Einfach mal Umfragen dazu und die zahlreichen Threads auf Reddit etc. anschauen.

Aber kann ja besser werden, was ich hoffe. :)

ChaosTM
2020-10-28, 15:32:49
Hatte beide Sorten - grobe Probleme gab es weder mit NV noch mit AMD.
Einzig die Game Ready Treiber haben gelegentlich Probleme verursacht, aber das rechnet man mit ein..

Linmoum
2020-10-28, 15:34:35
Masochismus ist ja nichts schlimmesDoch, deswegen ja endlich der Wechsel wieder zurück zu AMD.

w0mbat
2020-10-28, 15:35:31
Also über das Treiberthema bei AMD erübrigt sich jeglich Diskussion: Die AMD Treiber waren deutlich fehlerhafter als die Geforce-Treiber. Einfach mal Umfragen dazu und die zahlreichen Threads auf Reddit etc. anschauen.

Aber kann ja besser werden, was ich hoffe. :)
Ja, mach das bitte mal. Dann fällt dir auch auf, dass das nicht stimm. Die AMD Treiber sind schon seit einigen Jahren nicht nur besser, sondern auch stabiler als die Nvidia Treiber.

Nur würde das der Nvidia-Fanboi, der sich ne 1200€+ GPU gekauft hat, nie zugeben :ugly:

[MK2]Mythos
2020-10-28, 15:36:22
Also über das Treiberthema bei AMD erübrigt sich jeglich Diskussion: Die AMD Treiber waren deutlich fehlerhafter als die Geforce-Treiber. Einfach mal Umfragen dazu und die zahlreichen Threads auf Reddit etc. anschauen.

Aber kann ja besser werden, was ich hoffe. :)
Natürlich stelle ich das Nachplappern von angeblichen Treiberproblemen in Frage. Ich habe Grafikkarten von nvidia und AMD und das Treibermenü von AMD ist deutlich hübscher und funktionaler. Dass es mal Probleme mit OC Einstellungen gab, ist mir bewusst, aber es wird ja immer so getan, als wären die Treiber ne Katastrophe, als könnte man nicht spielen oder hätte Abstürze etc.pp. und das trifft alles nicht zu.

Wuge
2020-10-28, 15:36:25
Ich bin auch gespannt... aktuell ne günstig geschossene 2080 TI in der Kiste und generell seit X800XL (die noch hier liegt) auf NVidia. Könnte sich jetzt ändern.

Redneck
2020-10-28, 15:37:26
So lange mit Nvidia...

Bin dann gespannt was du nach ein paar Wochen sagst mit einer AMD Karte (Treiber...), wenn du nur Nvidia hattest.

Aber sowas lernt man erst schätzen, wenn man es selber erlebt.

Verstehe das mit den Treibern auch nicht.. meine letzte NV war eine GTX970 und zumindest damals fand ich die Treiber optisch sehr unsexy (haben das gemacht was sie sollen). Die AMD Treiber sind hübscher, dafür leider etwas unübersichtlich (IMHO).. und machen auch das was sie sollen. Ergo kein Punkt für oder wider einer bestimmten Marke

dargo
2020-10-28, 15:38:30
Also über das Treiberthema bei AMD erübrigt sich jeglich Diskussion.
Stimmt... sie laufen einfach. Fast schon langweilig.

r3ptil3
2020-10-28, 15:43:01
An die AMD-Anbeter:

Konzentrieren wir uns wieder auf die Realität: 17.00 Uhr :)

DrFreaK666
2020-10-28, 15:45:46
...Einfach mal Umfragen dazu und die zahlreichen Threads auf Reddit etc. anschauen...

Zum Glück sind auf Reddit und co. keine Nvidia-Fans, die eine Umfrage verfälschen können :wink:

Dino-Fossil
2020-10-28, 15:45:52
Ich kann nur immer wieder betonen, dass ich mit beiden Herstellern Treiberprobleme hatte.
Bisweilen gibt es spezifische Probleme mit bestimmten Titeln, manchmal gibt es Hardware-spezifische Probleme. Mit beiden, wie gesagt. Meine GTX 460 (Fermi) z.B. konnte ich mal ein halbes Jahr lang nicht updaten weil es massive Probleme mit Stabilität und Artefakten gab.

Lediglich der Windows OpenGL-Treiber von AMD ist in der Tat einfach schlecht (in punkto Performance). :P

Dafür läuft er unter Linux toll...

Redneck
2020-10-28, 15:46:14
An die AMD-Anbeter:

Konzentrieren wir uns wieder auf die Realität: 17.00 Uhr :)
Ich denke es gibt andere Kälber als Grakas, um die man tanzen kann.

Möge die bessere Karte gewinnen :-)

ChaosTM
2020-10-28, 15:50:31
Wirklich spannend ist eigentlich nur mehr die 6900er. Da könnte uns eventuell eine Überraschung bevorstehen. AMD hat das sehr gut geheim halten können bisher..

w0mbat
2020-10-28, 15:52:00
Ich bin in einer anderen Zeitzone, hier ist der reveal schon in 8 Minuten! Ich werde berichten :)

So, hier in der Zukunft gehts los!

1. Infinity cache: es sind wirklich 128GB! Das wird durch eine 3nm TSM stapel-chip erreicht!
2. 6800 XT für 499€ ca. 10% vor der 3080!
3. Lisa Sue hat ihren Namen offiziell in "Sue Bae" umbenannt!
4. Jetzt wird es noch krasser: die 6800 XT ist als APU in jeder Zen3 CPU!

dargo
2020-10-28, 15:53:54
Mich verwundert eigentlich warum AMD den TopDog 6900XT nennt. Eigentlich kann das nur heißen schneller als die RTX 3090 oder zumindest Gleichstand. Oder hat jemand eine andere Erklärung für non 6800 Bezeichnung?

Redneck
2020-10-28, 15:54:46
Wirklich spannend ist eigentlich nur mehr die 6900er. Da könnte uns eventuell eine Überraschung bevorstehen. AMD hat das sehr gut geheim halten können bisher..

hmm.. alles spannend
War eigentlich geklärt, welcher Karte die Benchmarkzahlen zur Zen Präsentation
zuzuordnen sind ?
Bin mir nicht sicher ob 6800XL oder XT. Falls XL wäre das auch noch eine Überraschung.

nairune
2020-10-28, 15:55:32
Was wäre denn die Alternative gewesen? 6800 und 6800 XT sind belegt. Noch mehr Zusätze sind ja viel zu verwirrend, siehe Diskussion gestern Abend ;)

dargo
2020-10-28, 15:56:37
Ich tippe weiter auf die XL da sie etwas unter der 3080 rauskam.

Was wäre denn die Alternative gewesen? 6800 und 6800 XT sind belegt. Noch mehr Zusätze sind ja viel zu verwirrend, siehe Diskussion gestern Abend ;)
Na einfach 6800XTX. Ist ja nicht so, dass wir nicht schon mal eine X1900 XTX hatten. ;)
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/2069-ati-radeon-x1900-xtx-und-xt-im-test.html

ChaosTM
2020-10-28, 15:57:42
6800 XTX - der 9er suggeriert eine eigene "Klasse". Bald wissen wir es..

han_solo
2020-10-28, 15:57:47
Das Gelaber mit den Treiber, ey...
Ich hab jeden Treiber in den letzten 2 Jahren auf 570 und 5500XT installiert und der einzige, der mal ein Problem hatte, war 20.7.1.
Ansonsten keinerlei Abstürze, Blackscreens oder sonstiges Gedöns. Mir gehen die nvidia-F...s langsam echt auf die Eier^^

Redneck
2020-10-28, 16:01:11
Ich tippe weiter auf die XL da sie etwas unter der 3080 rauskam.


Na einfach 6800XTX. Ist ja nicht so, dass wir nicht schon mal eine X1900 XTX hatten. ;)
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/2069-ati-radeon-x1900-xtx-und-xt-im-test.html

ich tippe eher auf XT.
Falls es dennoch XL wäre : super, da noch günstiger und weniger Leistungsaufnahme

r3ptil3
2020-10-28, 16:02:43
Das Gelaber mit den Treiber, ey...
Ich hab jeden Treiber in den letzten 2 Jahren auf 570 und 5500XT installiert und der einzige, der mal ein Problem hatte, war 20.7.1.
Ansonsten keinerlei Abstürze, Blackscreens oder sonstiges Gedöns. Mir gehen die nvidia-F...s langsam echt auf die Eier^^

Man überlege:
570/5500 XT Budget Karten: Verbreitung sehr gross (in den ganzen Fertig-Rechnern usw., riesige Märkte in Indien, China...)

5700 XT: Verbreitung deutlich geringer

Was kann man daraus rückschliessen? Ich bin überzeugt du wirst jetzt selber auf eine Antwort kommen.

nairune
2020-10-28, 16:03:30
Ich tippe das war die XT vor dem von Igor genannten "10%"-Treiber.

P.S.: ich installiere ebenfalls so gut wie jeden Treiber auf der 5700 XT. Bis auf das Thema mit den Wattmanprofilen (das sich bei mir gelöst hat), null Probleme.

DrFreaK666
2020-10-28, 16:04:48
Was wäre denn die Alternative gewesen? 6800 und 6800 XT sind belegt. Noch mehr Zusätze sind ja viel zu verwirrend, siehe Diskussion gestern Abend ;)

Radeon RX6850? Wäre für AMD ja nichts Neues
http://www.amdarea51.de/vgas/vga_formular.php?ID=110

Redneck
2020-10-28, 16:05:07
Man überlege:
570/5500 XT Budget Karten: Verbreitung sehr gross (in den ganzen Fertig-Rechnern usw., riesige Märkte in Indien, China...)

5700 XT: Verbreitung deutlich geringer

Was kann man daraus rückschliessen? Ich bin überzeugt du wirst jetzt selber auf eine Antwort kommen.

Wo viele Lämmer da wird auch viel geblökt. Du wolltest wahrscheinlich etwas anderes suggerieren.

Adam D.
2020-10-28, 16:05:45
Ich tippe das war die XT vor dem von Igor genannten "10%"-Treiber.
Glaube ich auch, die (schwer vergleichbaren) Zahlen waren zu nah an der 3080 dran. Das wird die XL selbst in optimistischen Fällen wahrscheinlich nicht schaffen.

dargo
2020-10-28, 16:06:11
ich tippe eher auf XT.
Falls es dennoch XL wäre : super, da noch günstiger und weniger Leistungsaufnahme
Ich kann das ehrlich gesagt noch relativ schlecht einschätzen da ich nicht weiß ob die Referenz 255W TGP oder doch weniger haben wird. Wenn die Referenz tatsächlich irgendwo bei 230W TGP liegt dann würde ich auch eher zur XT tendieren. Keiner Stunde mehr... ;)

Glaube ich auch, die (schwer vergleichbaren) Zahlen waren zu nah an der 3080 dran. Das wird die XL selbst in optimistischen Fällen wahrscheinlich nicht schaffen.
Zwischen der schnellsten XL Custom und der langsamsten XT Custom liegen gerade mal 25 TGP Wattchen. ;) Welche Performancewunder erwartet man dabei?

r3ptil3
2020-10-28, 16:06:38
Wo viele Lämmer da wird auch viel geblökt. Du wolltest wahrscheinlich etwas anderes suggerieren.

Was bedeutet "geblökt"?

Damit meinte ich, dass eine Karte, welche in jedem 2 Budget-Gaming-Rechner steckt, entsprechend auch eine bessere Treiberqualität geniesst.

TurricanM3
2020-10-28, 16:07:06
Noch eine knappe Stunde? Ich drücke AMD die Daumen. :up:

Brillus
2020-10-28, 16:07:17
So lange mit Nvidia...

Bin dann gespannt was du nach ein paar Wochen sagst mit einer AMD Karte (Treiber...), wenn du nur Nvidia hattest.

Aber sowas lernt man erst schätzen, wenn man es selber erlebt.

Ja gute Treiber lernt man schätzen. Bin froh das ich vom NV Müll weg bin habe immernoch in 50% einen NV-Treiberinstaller drin liegen weil die es nicht geschaft haben einen einzigen Treiber raus zu bringen der auch nur 2 Spiele die mich interessierten zum laufen zu bringen. Schon super Quali wenn man ein anders Spiel spielen will den Treiber neu installieren muss. Ganz zu schweigen vom neuen Spiel erstmal 10+ Treiber durchzutesten bis man einen gefunden hat der geht.

AMD wenn man ein neuest Spiel hat das Probleme macht. Neuster Treiber laden und installieren und es geht. Und noch besser alle deine andern Spiele gehen auch.

PS: ich bin eher auf Indy/Retro Schiene unterwegs.

Zergra
2020-10-28, 16:09:51
Ich denke eher die 80CU Variante gibt es nur in geringen Stückzahlen, wenn der Chip wirklich so groß ist, dürfte das auch kein Wunder sein. Daher wird die am Ende nur AMD Exklusiv verkauft, und für 150€ mehr als die 6800XT. Ordnet sich dann etwa 5-10% über der 6800XT ein.

Könnte mir sogar vorstellen das dir heute nicht soviel von der 80CU Variante sehen, ggf nur das sie existiert.

DrFreaK666
2020-10-28, 16:11:04
Was bedeutet "geblökt"?

Damit meinte ich, dass eine Karte, welche in jedem 2 Budget-Gaming-Rechner steckt, entsprechend auch eine bessere Treiberqualität geniesst.

Waren die Treiber für die 5500 problemlos im Vergleich zu den 5700-Treibern?
Gehören doch beide zur gleichen Produktfamilie

Käsetoast
2020-10-28, 16:11:26
5700 XT: Verbreitung deutlich geringer

Was kann man daraus rückschliessen? Ich bin überzeugt du wirst jetzt selber auf eine Antwort kommen.
Naja - ich habe selber eine 5700 und außer einer kleinen Schluckauf des Releasetreibers mit langer Videowidergabe (in Folgeupdate zeitnah behoben) habe ich keine Probleme - wie auch bei zahlreichen anderen AMD Karten nicht. Mein persönlicher Eindruck auch aus Zeiten aktiverer Kaufberatungs- und Supporthilfen in Foren: Ich verdächtige die NVIDIA Treiber als oft übersehenen Problemverursacher. Warum das? Meinem Eindruck nach kamen AMD Treiberprobleme am Häufigsten von jenen, die von einer NVIDIA Karte gewechselt sind und nur die Treiber getauscht haben. Wenn bei so jemanden dann die neue Festplatte/SSD kam bzw. ich vorschlug Windows neu zu installieren waren die Probleme meistens dann nämlich "plötzlich" weg... ;)

Von daher denke ich, dass man auch AMDs 6000er Serie bedenkenlos zum Release kaufen können wird - kleinere Treiberprobleme unmittelbar zum Start können natürlich immer passieren, und waren ja jüngst auch bei NVIDIAs 3000er Serie der Fall. Aber abgesehen davon ist meine AMD Erfahrung über verschiedene GPUs hinweg: It just works... ;D

r3ptil3
2020-10-28, 16:11:33
@Brillus

Köstlich :D

Die Leaks vorhin mit Gigabyte und MSI erwähnen keine 6900... ich weiss AMD exklusiv, aber gab's irgendwo für 6900er einen Hinweis auf 16Gb?

dargo
2020-10-28, 16:13:26
Ich denke eher die 80CU Variante gibt es nur in geringen Stückzahlen, wenn der Chip wirklich so groß ist, dürfte das auch kein Wunder sein. Daher wird die am Ende nur AMD Exklusiv verkauft, und für 150€ mehr als die 6800XT. Ordnet sich dann etwa 5-10% über der 6800XT ein.

Könnte mir sogar vorstellen das dir heute nicht soviel von der 80CU Variante sehen, ggf nur das sie existiert.
Es wurde doch schon bestätigt, dass die 6900XT nur zeitexklusiv von AMD kommt.

why_me
2020-10-28, 16:14:14
Man überlege:
570/5500 XT Budget Karten: Verbreitung sehr gross (in den ganzen Fertig-Rechnern usw., riesige Märkte in Indien, China...)

5700 XT: Verbreitung deutlich geringer

Was kann man daraus rückschliessen? Ich bin überzeugt du wirst jetzt selber auf eine Antwort kommen.

Die 5700 hat ein paar Probleme gemacht, war auch eine neue Architektur. Aber sonst? Welche Probleme gab es noch? Der Großteil kommt meines Wissens nach von 3rd Party Software wie Afterburner.

Redneck
2020-10-28, 16:16:15
Was bedeutet "geblökt"?

Damit meinte ich, dass eine Karte, welche in jedem 2 Budget-Gaming-Rechner steckt, entsprechend auch eine bessere Treiberqualität geniesst.
googel das mal ;D

gibt es bei NV unterschiedliche Treiber ob 1050 oder 2060 ? Watt'n Shiet

Szudri
2020-10-28, 16:23:05
Bin mir eigentlich ziemlich sicher, dass wenn es Problem gibt es ne Asus Karte ist. 99% der Leute sagen das nur nicht sondern geben nur pauschal 5700xt an oder so.

Würde man das aufschlüsseln, würde ein Hersteller vermutlich echt mies dastehen.

Schnoesel
2020-10-28, 16:24:05
Also ich glaube nicht das man sich gerade auf Seiten Nvidias über die Treiber der Konkurrenz auslassen kann, wenn man son Bock mit Ampere geschossen hat.

Sorry aber beide haben da schon mal so richtig ins Klo gegriffen. Warum man das überhaupt noch diskutiert... keiner weiß es.

Langlay
2020-10-28, 16:26:59
Die 5700 hat ein paar Probleme gemacht, war auch eine neue Architektur. Aber sonst? Welche Probleme gab es noch? Der Großteil kommt meines Wissens nach von 3rd Party Software wie Afterburner.


Die VII war recht lange gequält vom UVD Bug und/oder nicht runtertaktenem HBM. Vega10 und Navi10 liefen aber immer recht solide. Und ja der Arschbrenner ist öfters mal für ne Überraschung gut, was Abstütze und Co angeht.

Und naja soviele VII User wirds nicht geben das die die ganzen Foren vollheulen.

Aber ich muss auch sagen dieses Windows XP Gedächtnisuserinterface vom Nvidia Treiber geht garnicht.

Muss doch irgendwie auch möglich sein das Userinterface mal in 21. Jahrhundert zu überführen.

Odal
2020-10-28, 16:31:30
Mich verwundert eigentlich warum AMD den TopDog 6900XT nennt. Eigentlich kann das nur heißen schneller als die RTX 3090 oder zumindest Gleichstand. Oder hat jemand eine andere Erklärung für non 6800 Bezeichnung?

Warum? Kann man natürlich besser die Kunden ausquetschen und den eigentlichen 5700er nachfolger (6800er) eine Preisklasse höher ansetzen.

Redneck
2020-10-28, 16:31:37
Aber ich muss auch sagen dieses Windows XP Gedächtnisuserinterface vom Nvidia Treiber geht garnicht.

Muss doch irgendwie auch möglich sein das Userinterface mal in 21. Jahrhundert zu überführen.

geht nicht, könnten sich Fehler bei einschleichen und dann wären die Treiber ja wieder schlecht.. alles schön beim alten lassen.

JuergenH
2020-10-28, 16:38:08
Meine beiden VIIer laufen prima, so schnell gebe ich die auch nicht her.

Die Treiber haben allerdings bei beiden Herstellern viel Luft nach oben.

So, 22 Minuten noch.

aufkrawall
2020-10-28, 16:39:14
Weil die Ampere-Treiber so toll sind, läuft auch HZD mit schlechteren Frametimes als auf Radeons. Nvidia DirectX 12, ständig ist irgendwas...

N0Thing
2020-10-28, 16:40:47
Die NV-Treiber haben weniger Fehler und das bestätige nicht ich, sondern Fachzeitschriften und andere bekannte Tester weltweit.

Hast du einen Link dazu?

ianm
2020-10-28, 16:42:18
Die Treiberprobleme sind aber hochgekocht. Es gab um die Jahreswende Probleme mit black screens etc., hatte ich auch. Mit dem 20.2.2 (glaube so hieß der) war das bei mir komplett vorbei. Seitdem alles gucci. Und es gab Leute die hatten gar keine Probleme, siehe Hardware Unboxed.

AMD hat sich hingesetzt und am Problem gearbeitet, wie Nvidia es auch macht. Irgendwann sollte es auch mal gut sein.

Nightspider
2020-10-28, 16:44:20
Bin schon wieder so hibbelig. :D

Da fühlt man sich gleich wieder jung. :D

Ist aber auch geil wenn man kein bettelarmer Student mehr ist, der jeden Euro umdrehen muss und sich neue Hardware auch mal zum Release leisten kann. :D

Redneck
2020-10-28, 16:44:28
Wer sagt, dass ich keine Radeon habe?

Meine Beiträge und Haltung sind immer neutral. Ich kritisiere genau so Nvidia und andere Hersteller und beziehe nie Partei.

Die NV-Treiber haben weniger Fehler und das bestätige nicht ich, sondern Fachzeitschriften und andere bekannte Tester weltweit.


Das Forum tut mir schon etwas leid, kein Wunder verliessen Leute dieses Forum, welche 3Dc eigentlich ausgemacht haben.

Stell Dir vor, ich lese auch im 3080 Thread mit und da hattest du von dir gegeben eine 3080 gekauft zu haben. in deinen Systeminfo hast du nichts hinterlegt.
Wenn Du eine Radeon hättest, wieso verweist du dann auf Reddit und Fachzeitschriften und sagst nicht klipp und klar , welche Probleme der Treiber bei dir selber verursacht hat ??
Im übrigen hat AMD vor einigen Jahren auch durch 3rd Party Unternehmen die Qualität der Treiber untersuchen lassen, die dann, oh Wunder, zu anderen Resultaten gekommen sind.
Hör doch auf immer nur von Hören sagen Urteile zu bilden. Das kommt mir immer so vor wie bei meiner kleinen Tochter zu Hause die noch nie eine bestimmte Sache gegessen hat und dann behauptet, es schmecke nicht.

Nazar
2020-10-28, 16:45:35
Die VII, war recht lange gequält vom UVD Bug und/oder nicht runtertaktenem HBM. Vega10 und Navi10 liefen aber immer recht solide. Und ja der Arschbrenner ist öfters mal für ne Überraschung gut, was Abstütze und Co angeht.

Und naja soviele VII User wirds nicht geben das die die ganzen Foren vollheulen.

Aber ich muss auch sagen dieses Windows XP Gedächtnisuserinterface vom Nvidia Treiber geht garnicht.

Muss doch irgendwie auch möglich sein das Userinterface mal in 21. Jahrhundert zu überführen.

Das hat nV schon teilweise gemacht. ;)
Das Problem ist, dass man dafür seine "Seele" verkaufen muss, denn ohne persönliche Daten und die Erlaubnis für nV deine Daten, wann, wie und mit wem, in welcher Einstellung du gespielt hast (Kondomgröße musste man glaube ich auch angeben) bleibt man eben beim alten Treiberinterface und viele Dinge kann man nicht nutzen.
Sie haben es dann immer mal wieder damit probiert extra Features exklusive nur für "That's the way it's meant to be played" rauszubringen (Sharpening) und immer dann, wenn AMD das auch für ihren Treiber, ohne "Knebelvertrag", anbot, auch allen zugänglich gemacht.
Ist schon ein "lustiger" Haufen bei nV. Erst verkaufen sie dir überteuerte Karten und danach wollen sie an deinem Leben teilhaben... wie nett.. Gell? Erinnert mich irgendwie an das abstoßende Verhalten von Erpressern. :freak:

rentex
2020-10-28, 16:45:47
Nach den vorab "Informationen" die wir haben ist es durchaus möglich, dass die XTX die 90er knapp(est) schlagen wird können. Mit der Ausnahme von Lichtverfolgungstiteln.

Jetzt hängt natürlich alles an der Verfügbarkeit. Die Preise könnten uns etwas Aufschluss geben. Sollte AMD für das dickste Ding Fantasiepreise wie NV bei der 90er abrufen, wissen wir was los ist ;)

"Lichtverfolgungstitel" süß =) Ja nicht das bösem Wort aussprechen.

Ex3cut3r
2020-10-28, 16:49:21
Selber in jedem Nvidia Thread grössten Müll ablassen und mich als Troll darstellen, weil ich die AMD Treiber kritisiere bzw. darauf hinweise?

Ihr solltet mal von eurem AMD Hype runterkommen, unerträglich, echt.

Hui, bist aber schon mächtig angekackt oder? Weil ich ihm Ampere Thread die VRAM Menge kritisiere bin ich ein Troll? Alles klar. ;D

Daredevil
2020-10-28, 16:54:03
Nein, deswegen nicht.

horn 12
2020-10-28, 16:55:30
Letzte Eilmeldung von Insider:

Extreme Verfügbarkeit so wie noch NIE zu einem AMD Launch von GPU Karten
Mitte November in Massen Lieferbar.
Diese Tage aber auch schon lieferbare Karten

Extrem was AMD da bringt und wird Gewaltig

rentex
2020-10-28, 16:56:51
aha! Woher die Infos?

Zergra
2020-10-28, 16:56:54
Letzte Eilmeldung von Insider:

Extreme Verfügbarkeit so wie noch NIE zu einem AMD Launch von GPU Karten
Mitte November in Massen Lieferbar.
Diese Tage aber auch schon lieferbare Karten

Extrem was AMD da bringt und wird Gewaltig

+20min =

Lieferbar ab Ende November.

aha! Woher die Infos?

Horn ist gerade aufgewacht und hatte einen komischen Traum der durch Schlafmangel entstanden ist.

Korvaun
2020-10-28, 16:57:25
Letzte Eilmeldung von Insider:

Extreme Verfügbarkeit so wie noch NIE zu einem AMD Launch von GPU Karten
Mitte November in Massen Lieferbar.
Diese Tage aber auch schon lieferbare Karten

Extrem was AMD da bringt und wird Gewaltig

Lol horn, hoffen wir das beste ;)

Sonst bleibt nur noch zu sagen:

Lets goooooo........

WedgeAntilles
2020-10-28, 16:57:28
Hui, bist aber schon mächtig angekackt oder? Weil ich ihm Ampere Thread die VRAM Menge kritisiere bin ich ein Troll? Alles klar. ;D
Kritisieren tust du übrigens nichts - für dich sind die Karten unbrauchbarer Müll, für die Tonne, nutzlos und ähnliches.
Wenn du zur Differenzierung nicht in der Lage bist, brauchst du dich über Troll-Einstufung doch nicht wirklich zu wundern, oder?

Asaraki
2020-10-28, 16:58:20
Letzte Eilmeldung von Insider:

Extreme Verfügbarkeit so wie noch NIE zu einem AMD Launch von GPU Karten
Mitte November in Massen Lieferbar.
Diese Tage aber auch schon lieferbare Karten

Extrem was AMD da bringt und wird Gewaltig

Klingt wie ein Tweet von Trump ^^

Hui, bist aber schon mächtig angekackt oder? Weil ich ihm Ampere Thread die VRAM Menge kritisiere bin ich ein Troll? Alles klar. ;D

Kennst du auch diese Leute, die meinen sie seien voll subtil und keiner schnallt was sie da abziehen und sobald sie aus dem Raum sind wird losgekichert? ;-)

r3ptil3
2020-10-28, 16:58:24
Stell Dir vor, ich lese auch im 3080 Thread mit und da hattest du von dir gegeben eine 3080 gekauft zu haben. in deinen Systeminfo hast du nichts hinterlegt.
Wenn Du eine Radeon hättest, wieso verweist du dann auf Reddit und Fachzeitschriften und sagst nicht klipp und klar , welche Probleme der Treiber bei dir selber verursacht hat ??
Im übrigen hat AMD vor einigen Jahren auch durch 3rd Party Unternehmen die Qualität der Treiber untersuchen lassen, die dann, oh Wunder, zu anderen Resultaten gekommen sind.
Hör doch auf immer nur von Hören sagen Urteile zu bilden. Das kommt mir immer so vor wie bei meiner kleinen Tochter zu Hause die noch nie eine bestimmte Sache gegessen hat und dann behauptet, es schmecke nicht.

Du glaubst ernsthaft ich würde behaupten ich hätte eine Radeon, obwohl ich keine hätte?

Und ich habe es nicht vorgegeben, ich habe Fotos etc. hinterlegt.
Und zwar zwei Karten: 3080er, die MSI Trio und die ASUS Strix.


Meine 5700er dient demnächst in einem neuen ITX System.

Das wird mir jetzt aber wirklich zu kindisch und mühsam.

@Exe

Du hast doch in den Threads die Leute lächerlich gemacht wegen der 3080/3090 und dann nach Empfehlungen ausgesprochen für Produkte, welche noch nicht mal veröffentlich sind.

Mir fällt da folgendes ein:
- MSI B500 Unify-X
- Big Navi

Das macht man einfach nicht, punkt.

dargo
2020-10-28, 16:58:51
Der Chat dreht gerade durch. ;D

eratte
2020-10-28, 16:59:00
Meine Beiträge und Haltung sind immer neutral

Der Lacher des Tages.

ianm
2020-10-28, 16:59:05
Ich möchte in den kommenden zwei Jahren FS2020 spielen. Da ist eine 3070 Stand heute tatsächlich schon Müll. Nur mal so...

60 seconds

Blediator16
2020-10-28, 16:59:27
Für die, die es noch nicht mitbekommen haben:

JETZT

https://www.youtube.com/watch?v=oHpgu-cTjyM

Nightspider
2020-10-28, 17:00:18
omg omg omg

dargo
2020-10-28, 17:00:30
Countdown läuft.

ianm
2020-10-28, 17:00:55
Woooop woooop

Dampf
2020-10-28, 17:00:59
Dann bin ich mal gespannt!

Korvaun
2020-10-28, 17:01:30
Hach die Pre-Musi ist immer so schön entspannend bei YouTube...

Wuge
2020-10-28, 17:01:54
Letztes Jahr noch ne GTX570 in der Kiste gehabt und jetzt guck ich mir Launch Videos an. What a Hype ;D *gespannt*

basix
2020-10-28, 17:02:04
30s noch :D

Leonidas
2020-10-28, 17:02:10
https://pbs.twimg.com/media/Ek9cxHuX0AAHqI7?format=png

MikePayne
2020-10-28, 17:03:29
https://pbs.twimg.com/media/Ek9cxHuX0AAHqI7?format=png

yeah es geht los :biggrin:

Linmoum
2020-10-28, 17:07:13
26.8 Mrd. Transistoren

Wuge
2020-10-28, 17:07:59
Die Entwicklungschefin ist auch noch viel schöner als der Lederjackentyp ;DDD

gedi
2020-10-28, 17:08:08
Warum dann? Weil ein maybe Biased-User sich nicht mehr reinlegen lassen will - nicht wirklich, oder? Wirkliche Argumente pro NV gibt es spätestens seit Ampere imo nicht mehr.

RT? Gibt keine Karte welche auch nur ansatzweise die Möglichkeiten aufdecken kann, aufgrund fehlender Performance! Upsampler im Enthusiast-Segment, so dass ich fragwürdige Effekte mittels Upsampling zum laufen bekomme? Das gilt für beide IHVs.

In 3 Generationen wird die Performance dann wohl hoch genug sein, dass RT wirklich spruchreif und performant dargestellt werden können

fondness
2020-10-28, 17:08:23
26.8 Mrd. Transistoren

Knapp weniger als GA102 mit 28 Milliarden.

Cyberfries
2020-10-28, 17:08:23
Infinity Cache .... tatsächlich. Ich glaubs nicht.

dargo
2020-10-28, 17:08:41
Infinity Cache *check

Edit:
2,17X Bandbreite bei 90% Power.

Bambuslooter
2020-10-28, 17:08:48
Infinity Cache .... tatsächlich. Ich glaubs nicht.
bin auch überrascht

Digidi
2020-10-28, 17:10:16
Infinty Cach!!!!!!!!!!!

Nightspider
2020-10-28, 17:10:25
+ 54% effizienz

basix
2020-10-28, 17:10:27
Infinity Cache *check

Edit:
2,17X Bandbreite bei 90% Power.

3x verglichen mit 256b :eek:

Freestaler
2020-10-28, 17:10:34
+54% perf per W

Ultron
2020-10-28, 17:10:42
+ 54% effizienz


mega :cool:

dargo
2020-10-28, 17:10:42
Perf/W +54%.

dreas
2020-10-28, 17:10:51
performance per watt interessiert auch wie hölle^^

ChaosTM
2020-10-28, 17:11:01
Direct Storage - check ^

Digidi
2020-10-28, 17:11:31
54% sehr schön. Dann hat man zumindest die Ziele erreicht auch wenn es nicht ganz für Nvidia reicht.


Ähh und übrigens ich hab die 3er Reihe Voll Bingo?

Wuge
2020-10-28, 17:11:54
performance per watt interessiert auch wie hölle^^

Klar, weil dann bei 400W mehr Performance bei rum kommt :biggrin:

prinz_valium_2
2020-10-28, 17:12:07
Direct Storage - check ^

Das ganze andere auch.
Wird also sehr gut skalieren alles

dreas
2020-10-28, 17:12:30
immerhin hat amd bei der präsentation einen megaschritt vorwärts gemacht!

Digidi
2020-10-28, 17:12:47
Der Längliche Chip leak hat wohl gestimmt.