PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

dildo4u
2020-01-03, 09:27:08
RDR2 läuft auf einer Konsole mit einem doppelten Kabini-Rechner mit Bonaire-Grafik, versucht das mal auf dem PC. Soviel zur Vergleichbarkeit der Hardware.
RT auf Konsolen wird eine hochoptimierte Angelegenheit, die genauestens durchgerechnet ist. Das ist nicht im Ansatz vergleichbar mit RTX-Games. Turing stinkt in der ersten Konsolen-Umsetzung für PCs richtig ab, genau wie alle pre-RDNA2-Karten und alle CPUs mit weniger als 12 Threads. Aufgrund der blöden SSD-Umsetzung wird das ganze noch schwieriger, denn auch mit 16GB RAM wird man GAR NICHTS mehr reißen können. Das muss alles durch Arbeitsspeicher substituiert werden. Auch 8GB VRAM sind dann einfach wenig. Erinnert euch an den letzten Sprung. Speicherverbrauch von 4GB auf 16GB gestiegen, VRAM von 1GB auf 6-8GB. Denkt ihr das wird dieses mal anders? Lächerlich.
Es gibt nicht das RTX Game manche Effekte sind so Harmlos das man sie auf Pascal zocken kann andere zerstören total die Performance.
Es hindert niemanden auf Konsole wieder 30fps Games zu veröffentlichen mit extrem teuren RT Effekten.

nordic_pegasus
2020-01-03, 09:31:28
endlich wieder Wettbewerb und ein Ende des schlechten P/L.

nur langsam kann man echt ungeduldig werden. Auf der einen Seite hat AMD im High-End seit 3 Generationen nicht abgeliefert (Fiji, Vega, Vega7nm), auf der anderen Seite ist der Mainstream Chip seit Polaris wirklich sehr gut. Wenn man dann noch die regelmäßigen Gerüchte zu den kommenden Konsolen-Chips liest, fragt man sich echt, was AMD davon abhält, etwas oberhalb der 5700XT zu launchen.

Ein theoretischer Navi10 Chip mit 1,5x Shadern der 5700XT (also 3840 Shadern) und 384bit/12GB Speicher müsste sich doch locker mit einer RTX2080Ti prügeln und Nvidia wieder ein gesundes Maß an Preisvorstellung geben. Stattdessen bekommt man nur Gerüchte und Launches von kleinen Navi Karten...

robbitop
2020-01-03, 09:47:20
7nm Kapazität ist beschränkt. Aktuell verdient man mit Epyc so viel wie keiner mit einer Konsumenten GPU. Also baut man lieber Epycs (jeder der gebaut wird, wird auch verkauft).
Die Kapazität steigt allerdings. Entsprechend sollte dieses Jahr was kommen.

robbitop
2020-01-03, 09:49:50
Ich glaube nicht das es eine jährliche verbesserte uArch im GPU Bereich geben wird. Dafür sind die Dinger einfach zu groß und zu komplex als das es sich von den Verkaufszahlen her lohnen würde.
Das Argument halte ich für falsch. Transistorzahl und Die Size haben wenig mit dem Designaufwand zu tun. Bei einer GPU wird vieles einfach nur enorm hochskaliert. Copy and paste. Dazu kommt automatisiertes Layout. CPU uArchs sind wahrscheinlich komplexer zu entwickeln und zu validieren.

Mangel76
2020-01-03, 09:50:32
nur langsam kann man echt ungeduldig werden. Auf der einen Seite hat AMD im High-End seit 3 Generationen nicht abgeliefert (Fiji, Vega, Vega7nm), auf der anderen Seite ist der Mainstream Chip seit Polaris wirklich sehr gut. Wenn man dann noch die regelmäßigen Gerüchte zu den kommenden Konsolen-Chips liest, fragt man sich echt, was AMD davon abhält, etwas oberhalb der 5700XT zu launchen.

Ein theoretischer Navi10 Chip mit 1,5x Shadern der 5700XT (also 3840 Shadern) und 384bit/12GB Speicher müsste sich doch locker mit einer RTX2080Ti prügeln und Nvidia wieder ein gesundes Maß an Preisvorstellung geben. Stattdessen bekommt man nur Gerüchte und Launches von kleinen Navi Karten...
Um sich mit der 2080Ti zu prügeln fehlt halt RT. Ich glaube, sie müssen erst RDNA2 fertig haben um dann bei den Features gleichzuziehen. Dann erst kann auf breiter Front angegriffen werden. Ohne RT und Co müsste der Preis deutlich niedriger liegen, sonst kauft das 2020 keiner mehr.

AffenJack
2020-01-03, 09:52:48
nur langsam kann man echt ungeduldig werden. Auf der einen Seite hat AMD im High-End seit 3 Generationen nicht abgeliefert (Fiji, Vega, Vega7nm), auf der anderen Seite ist der Mainstream Chip seit Polaris wirklich sehr gut. Wenn man dann noch die regelmäßigen Gerüchte zu den kommenden Konsolen-Chips liest, fragt man sich echt, was AMD davon abhält, etwas oberhalb der 5700XT zu launchen.

Ein theoretischer Navi10 Chip mit 1,5x Shadern der 5700XT (also 3840 Shadern) und 384bit/12GB Speicher müsste sich doch locker mit einer RTX2080Ti prügeln und Nvidia wieder ein gesundes Maß an Preisvorstellung geben. Stattdessen bekommt man nur Gerüchte und Launches von kleinen Navi Karten...

Zuerst muss erstmal die Fertigung gut funktionieren, daher ist klar, dass die kleineren zuerst kommen und jetzt wäre es auch schon zu spät dafür, weil RDNA1 kein RT kann und ein BigChip schon an die 2 Jahre halten sollte, um sich zu rentieren. Auch wenn hier so einige groß tönen, dass sie ja lieber kein RT hätten, sobald die Konsolen mit RT kommen, würden die Verkaufszahlen ins Bodenlose sinken und der Chip sich niemals rentieren. Du kannst kein High-End verkaufen mit dem Argument: Schnellster Chip auf mittleren Einstellungen, aber sorry, high geht nicht mehr da kein RT.

dildo4u
2020-01-03, 09:53:56
Big Navi hat RT es sind Träumerein das sie aus 80 CU besteht es sind deutlich weniger dafür mit mehr Funktionen.

robbitop
2020-01-03, 09:58:08
Big Navi hat RT es sind Träumerein das sie aus 80 CU besteht es sind deutlich weniger dafür mit mehr Funktionen.
Je nach Zeitfenster. Was nutzt ein 64 CU Navi 2 wenn er mit Ampere* konkurieren soll.
Wäre ich AMD würde ich mein Produkt so auslegen, dass es gut gegen Ampere* bestehen kann. Laut Gerüchten kommt Ampere* bereits Mitte 2020. Turing ist dann wirklich schon fast 2 Jahre alt. Warum also ein obsoletes Produkt bringen?



*(oder wie auch immer der Turingnachfolger heißt)

mironicus
2020-01-03, 09:58:18
Vielleicht macht es AMD wie NVidia und alles mit RDNA2 hat dann Raytracing-Unterstützung, aber halt immer nur die großen und schnellsten Chips, während Navi10 und kleiner mit RDNA1 auf dem Markt bleiben so wie sie sind.

Die neuen Karten werden sicherlich mal auf einen Event vorgestellt, vor allem dann noch mit Unterstützung von Microsoft, die dann ihre Demos zur neuen Konsole zeigen können mit dem RDNA2-Logo.

Und die neuen Karten erhalten dann als Kennzeichnung für die Raytracing-Fähigkeit einen etwas anderen Namen, also dann Radeon RTX5800XT, RTX5900XT. :D :D

AffenJack
2020-01-03, 10:21:43
Je nach Zeitfenster. Was nutzt ein 64 CU Navi 2 wenn er mit Ampere* konkurieren soll.
Wäre ich AMD würde ich mein Produkt so auslegen, dass es gut gegen Ampere* bestehen kann. Laut Gerüchten kommt Ampere* bereits Mitte 2020. Turing ist dann wirklich schon fast 2 Jahre alt. Warum also ein obsoletes Produkt bringen?


Zumindest als BigChip nicht viel, ansonsten dürfte sowas in der 60CU Region aber nach dem Big chip auch noch kommen als Ablösung von Navi im 400-500$ Bereich und um RT weiter nach unten zu bringen. Der BigChip wird ja eher was im 700$ Bereich.
Wird interessant in Q3. Von Navi21 wissen wir praktisch durch das Tapeout, dass er in Q3 kommen sollte und Nvidia dürfte etwa zum gleichen Zeitraum kommen.

dargo
2020-01-03, 10:27:27
RDNA ist noch nicht ganz auf dem Level von Turing angekommen. Sowohl Effizienz als auch Techlevel. Aber verglichen mit dem was man zuvor geliefert hat, war es ein großer Sprung.
Mit dem gesteigerten Budget wird AMD sicherlich regelmäßig Fortschritte machen. Ggf. schafft schon Navi2x den Schritt. Wenn nicht, dann der Nachfolger. Ich tippe darauf, dass AMD im GPU Bereich das gleiche tun wird wie im CPU Bereich. Regelmäßige Execution. Jedes Jahr eine geupdatete, deutlich bessere uArch. Damit werden sie den Abstand spätestens Mittelfristig reduzieren oder umkehren. Das Ergebnis sollte uns alle freuen: endlich wieder Wettbewerb und ein Ende des schlechten P/L.
So einfach ist es im GPU-Bereich nicht. Erstens müsste AMD es schaffen GPUs in Chiplets ohne Nachteile zu gießen. Das würde die Kosten erheblich senken. Zweitens steckt Nvidia nicht in solchen Fertigungsschwierigkeiten wie Intel aktuell was AMD natürlich deutlich in die Karten spielt. Mit 7nm EUV gibt es wieder Gleichstand in der Fertigung für Beide. Und da wird sicherlich die schnellste Gaming GPU von Nvidia vorne liegen. Ich finde das aber überhaupt nicht schlimm. Die Preise im oberen Bereich sind eh schon völlig absurd. Titan RTX für 2.700€. :ucrazy: Da erscheint eine 2080TI für >1.000€ schon fast günstig. ;D Reine Psychologie. ;) Und wie ich schon sagte... TU102 war u.a. nur möglich weil NV die Die-Size gesprengt hat. Das muss man über den Preis dann auch wieder rein bekommen. Ohne die extreme Die-Size wäre bei Turing bei TU104 Schluss, also max. 2080S.

Turing stinkt in der ersten Konsolen-Umsetzung für PCs richtig ab, genau wie alle pre-RDNA2-Karten und alle CPUs mit weniger als 12 Threads.
Daran glaube ich nicht. Vielleicht zum Lebensende der neuen Konsolen aber sicherlich nicht gleich 2020/2021. Für sowas brauchst du komplett neue Grafikengines. Und diese brauchen Zeit. Zudem steigt die Leistung pro Core erheblich wodurch der Ansporn für wesentlich stärkeres Multithreading nicht unbedingt da ist. Es mag sicherlich am Anfang die eine oder andere Ausnahme geben. Im Schnitt dürfte der Anteil aber eher gering sein.

Hauwech
2020-01-03, 10:39:10
Das Argument halte ich für falsch. Transistorzahl und Die Size haben wenig mit dem Designaufwand zu tun. Bei einer GPU wird vieles einfach nur enorm hochskaliert. Copy and paste. Dazu kommt automatisiertes Layout. CPU uArchs sind wahrscheinlich komplexer zu entwickeln und zu validieren.

Rein von den Stückzahlen her dürfte sich eine jährliches Update nicht lohnen. Darum geht es.

robbitop
2020-01-03, 10:41:36
Wenn man einen Haloeffekt will (der ist verkaufsfördernd) dann muss man die Performancekrone des größten Chips holen.
Allerdings: wenn man das verfehlt, kann man es auch gleich lassen. Siehe Fijii und Navi. AMD hätte wahrscheinlich besser ohne beide gelebt. Wenn sie aber den jeweiligen Gegenspieler dominiert hätten, hätte es etwas gebracht.

Damit das sinnvoll geht braucht man entweder einen uArch Vorteil (aktuell unwahrscheinlich) oder einen Fertigungsvorteil. Wenn NV auch auf 7 nm setzt, ist das wohl nicht haltbar. Wenn die Gerüchte mit Samsungs 8 nm Prozess stimmen (wir wissen alle, dass es sich dabei eher um einen 10nm+ Prozess handelt), hat man da eine Chance.

Rein von den Stückzahlen her dürfte sich eine jährliches Update nicht lohnen. Darum geht es.
Das hast du aber initial anders ausgedrückt. Aber auch bezüglich Stückzahl: hast du da Zahlen, Daten, Fakten die das untermauern?
Im Prinzip bringt AMD praktisch seit längerem jedes Jahr eine geupdatete uArch. (es geht mir nicht um neue uArchs - sondern einen jährlichen Arbeitsstand) Aber nicht für das gesamte Lineup. Und mangels Ressourcen waren die Fortschritte sehr eingeschränkt.

Monsta
2020-01-03, 10:44:47
Ich glaube RT wird sich sehr langsam druchsetzen. Die über 100mio Konsolen die aktuell in den Wohnzimmern stehen sind ne menge potentielle Kunden.

Sicher wird es ein Aushängeschild für die neue Generation geben, aber ob das auf dem PC erscheint ist noch ne anderen Frage.

Von daher könnten die nen Big Navi bringen ohne RT. Ich wäre da nicht abgeneigt. Die neuen Konsolen sind ja eh ein No Brainer, da habe ich dann RT :)

Platos
2020-01-03, 10:45:46
Hat nvidida nicht bestätigt, dass sie den Grossteil bei TSMC fertigen lassen (und nur ein kleiner Teil somit bei Samsung möglich wäre) ? Edit: Also bei Pascal haben sie ja nur die kleinen Chips bei Samsung fertigen lassen.

Bezüglich RT: Die Konsolen könnten RT schon massiv steigern, auch wenn sie bezüglich RT nicht so stark wären. Dann würde es gerade den Einsteigermarkt mitnehmen, der mit nvidida ampere und vlt. der nächsten AMD Gen bedient sein dürfte. So könnte auch der Mainstream im PC Markt etwas davon mitnehmen. Kommt natürlich alles auf die Hardware der Next-Gen und der nächsten GPU-Gen an.

Aber dauern wirds auf jeden Fall noch. Aus meiner Sicht ist ein bewusster Kauf von RT Hardware (für RT) max. frühestens ab eben ampere sinnvoll, jenachdem wie viel mehr Einheiten die da haben natürlich.

dargo
2020-01-03, 10:48:44
nur langsam kann man echt ungeduldig werden. Auf der einen Seite hat AMD im High-End seit 3 Generationen nicht abgeliefert (Fiji, Vega, Vega7nm), auf der anderen Seite ist der Mainstream Chip seit Polaris wirklich sehr gut. Wenn man dann noch die regelmäßigen Gerüchte zu den kommenden Konsolen-Chips liest, fragt man sich echt, was AMD davon abhält, etwas oberhalb der 5700XT zu launchen.

Ein theoretischer Navi10 Chip mit 1,5x Shadern der 5700XT (also 3840 Shadern) und 384bit/12GB Speicher müsste sich doch locker mit einer RTX2080Ti prügeln und Nvidia wieder ein gesundes Maß an Preisvorstellung geben. Stattdessen bekommt man nur Gerüchte und Launches von kleinen Navi Karten...
Das ist eigentlich ganz einfach.

1. Bei einer Konsole hast du eine gesicherte Abnahme von x Millionen APUs weil es dort keine Konkurrenz gibt.
2. Wie schon robbitop sagte... bei EPYC ist aktuell wesentlich mehr Marge zu holen.
3. Mit 7nm wäre ein deutlich aufgeblasener Navi 10 nur wieder eine ~350W Grafikkarte. Hier kommt man ohne 7nm EUV nicht wirklich weiter. Im besten Fall sollte RDNA2 weitere Effizienzverbesserungen bringen denn alleine mit den Vorteilen von 7nm EUV wird man auch keine Bäume ausreißen können.

danarcho
2020-01-03, 11:06:48
Das Argument halte ich für falsch. Transistorzahl und Die Size haben wenig mit dem Designaufwand zu tun. Bei einer GPU wird vieles einfach nur enorm hochskaliert. Copy and paste. Dazu kommt automatisiertes Layout. CPU uArchs sind wahrscheinlich komplexer zu entwickeln und zu validieren.
Naja, man muss nur den richtigen Vergleich machen. Schon wenn man die Transistoren einer CU mit einem CPU core vergleicht, sieht die GPU primitiv aus. Noch schlimmer, wenn man bedenkt, dass das breite SIMDs sind und dann vielleicht noch den A13 als Vergleich nimmt.
(Das ist natürlich so gewollt, dass die CUs schön schlank sind, und man dafür dann ganz viele hat. Nur dass mich keiner missversteht.)
Das einzige Gegenargument ist vielleicht die teure Maske und zu geringe Absatzzahlen.

robbitop
2020-01-03, 11:11:33
Ja also jährlich ein ganz neues Lineup wäre zu viel IMO. Aber zumindest bestimmte Elemente aus dem Lineup zu erneuern ist für AMD nichts neues. Das tut man seit Jahren.

basix
2020-01-03, 11:19:01
Das ist eigentlich ganz einfach.

1. Bei einer Konsole hast du eine gesicherte Abnahme von x Millionen APUs weil es dort keine Konkurrenz gibt.
2. Wie schon robbitop sagte... bei EPYC ist aktuell wesentlich mehr Marge zu holen.
3. Mit 7nm wäre ein deutlich aufgeblasener Navi 10 nur wieder eine ~350W Grafikkarte. Hier kommt man ohne 7nm EUV nicht wirklich weiter. Im besten Fall sollte RDNA2 weitere Effizienzverbesserungen bringen denn alleine mit den Vorteilen von 7nm EUV wird man auch keine Bäume ausreißen können.

80CU @ 1.6-1.7 GHz mit 384 Bit @ 16GT/s inkl. 7nm EUV wären mit ca. 270W möglich. Noch etwas Architektureffizienz und es sind 1.7 GHz bei 250W. Kommt noch +10% IPC obendrauf und wir bekommen 2x 5700XT bei 250W. Ist optimistisch gedacht, aber im Bereich des Möglichen.

Ampere muss +40% Energieeffizienz bei +30% Leistung auf Turing drauflegen und wir hätten Gleichstand. Ich vermute zwar, das Ampere eher stärker wird aber wir werden sehen.

dargo
2020-01-03, 11:31:36
Ich finde eure optimistischen Rechnungen immer so toll. :tongue: 7nm EUV ist offensichtlich noch nicht so weit. Ansonsten hätten wir schon GPUs in diesem Prozess am Desktop gesehen.

Mangel76
2020-01-03, 11:39:02
Ich finde eure optimistischen Rechnungen immer so toll. :tongue: 7nm EUV ist offensichtlich noch nicht so weit. Ansonsten hätten wir schon GPUs in diesem Prozess am Desktop gesehen.
Wie hängt das zusammen? Vielleicht ist er ja jetzt soweit, dass erste GPUs damit auf den Markt kommen können?

dargo
2020-01-03, 11:47:09
Wie hängt das zusammen?
Wäre 7nm EUV so weit würde AMD sicherlich Navi 14 damit schon bringen. Oder diese ominöse RX 5600XT. Einen Fertigungsvorteil lässt man doch nicht liegen wenn dieser sich lohnt. Warum dieser bei dGPUs noch nicht reif ist da können die Gründe vielfältig sein. Zu wenig Ausbeute, zu geringe Kapazitäten, zu teuer. Such dir was aus.

amdfanuwe
2020-01-03, 11:49:05
Ich würde mich nicht wundern, wenn nächste Woche eine Radeon Instinct mit Arcturus 7nm+ GPU als VEGA 20 Nachfolger vorgestellt wird.
Desktop folgt später, wenn man den Prozess besser kennt.

Mangel76
2020-01-03, 12:15:20
Wäre 7nm EUV so weit würde AMD sicherlich Navi 14 damit schon bringen. Oder diese ominöse RX 5600XT. Einen Fertigungsvorteil lässt man doch nicht liegen wenn dieser sich lohnt. Warum dieser bei dGPUs noch nicht reif ist da können die Gründe vielfältig sein. Zu wenig Ausbeute, zu geringe Kapazitäten, zu teuer. Such dir was aus.

Navi 14 ist schon älter und wurde für 7nm designt. Was die 5600XT angeht: hier weiß noch niemand, welcher Chip dazugehört, N10Lite? N12? Oder weißt du mehr? Ja, es wäre ungewöhnlich mit einem großen Consumerchip zu beginnen. Vielleicht kommt ja doch erst Arcturus in 7nm+ und N2x erst in H2.

Spekulationen: N12 ist Pipecleaner 7nm+ mit Mobile-Ausrichtung, daher auf hohe Effizienz getrimmt.

dargo
2020-01-03, 14:11:24
Navi 14 ist schon älter und wurde für 7nm designt.
Älter? Das Ding ist gerade mal 3 Wochen auf dem Markt. :uconf3: Und ja... ich weiß wie lange es vom Tapeout bis zum Release ungefähr dauert.

Mangel76
2020-01-03, 14:13:40
Älter? Das Ding ist gerade mal 3 Wochen auf dem Markt. :uconf3: Und ja... ich weiß wie lange es vom Tapeout bis zum Release ungefähr dauert.

N14 wurde doch von Anfang an zusammen mit N10 genannt, oder nicht? Nur weil die nicht gleichzeitig rauskramen, sind die nicht automatisch verschieden alt.

Brillus
2020-01-03, 14:28:08
Ich glaube nicht das es eine jährliche verbesserte uArch im GPU Bereich geben wird. Dafür sind die Dinger einfach zu groß und zu komplex als das es sich von den Verkaufszahlen her lohnen würde.

Denk ich schon, aber nicht die ganze Palette, ähnlich wie ja auch in CPU Bereich sich "normale" CPUs und APUs abwechseln.

Also ich denke das jedes Jahr was neues kommt, aber der wechsel einer Bestimmten Marktposition 2, 2,5 Jahre dauert.

(Alles meine Speku)


Ein theoretischer Navi10 Chip mit 1,5x Shadern der 5700XT (also 3840 Shadern) und 384bit/12GB Speicher müsste sich doch locker mit einer RTX2080Ti prügeln und Nvidia wieder ein gesundes Maß an Preisvorstellung geben. Stattdessen bekommt man nur Gerüchte und Launches von kleinen Navi Karten...

Da reicht ein "kann sich prügeln" aber nicht nach einen(?) Jahr muss man entweder klar mehr Performance bringen, aber einen Preis anschlagen das man non-Ti Käufer zum umrüsten bringt.

HOT
2020-01-03, 14:33:05
7nm EUV ist im Sommer in Massenproduktion gegangen, HiSilicon hat ja beispielsweise damit schon Chips draußen. Allerdings braucht AMD ja die HPC-Variante und der Vorlauf ist sehr viel länger bei GPUs/CPUs. Produkte von AMD sind hier vor Mitte 2020 kaum zu erwarten, es würde micht jedenfalls überraschen, wenn es früher wäre.
CPUs und GPUs sind in N7+ so Mitte 2019 ins Tapeout gegangen, GPU ist spätestens ein Jahr darauf auf dem Markt (V20 beispielsweise ging nur 3/4 Jahr), CPUs die berühmten 5 Quartale.

N12 wird N7P sein, nicht N7+. Die ganzen RDNA1-Designs werden für N7 gemacht sein, nicht für N7+. Man wird N12 mobil-optimiert desingt haben, das soll ja offenbar die Speerspitze im Mobilmarkt werden. Daher ist das auch ein extra Chip und ein verkleinertes Speicherinterface.
Natürlich wird AMD den auch für die 5600-Serie im Desktop und vor allem für OEMs nutzen wollen.

[...]
Daran glaube ich nicht. Vielleicht zum Lebensende der neuen Konsolen aber sicherlich nicht gleich 2020/2021. Für sowas brauchst du komplett neue Grafikengines. Und diese brauchen Zeit. Zudem steigt die Leistung pro Core erheblich wodurch der Ansporn für wesentlich stärkeres Multithreading nicht unbedingt da ist. Es mag sicherlich am Anfang die eine oder andere Ausnahme geben. Im Schnitt dürfte der Anteil aber eher gering sein.

Sicher hast du für reine neue Konsolentitel auch entsprechend neue Engineversionen am Start. Die jetzigen SMT-losen 6-Kerner werden es genauso schwer haben die die SMT-losen 4-Kerner jetzt, kack frametimes halt. Wir reden hier von reinen next-gen-Titeln, nicht von Titeln, die auch noch für die alten Konsolen erscheinen.

basix
2020-01-03, 16:28:15
Ich finde eure optimistischen Rechnungen immer so toll. :tongue: 7nm EUV ist offensichtlich noch nicht so weit. Ansonsten hätten wir schon GPUs in diesem Prozess am Desktop gesehen.

RDNA2 ist doch 7nm EUV? Zumindest sagen das die offiziellen AMD Folien. Und Navi 2x soll ja RDNA2 sein. Evtl. sehen wir ja was am 6. Januar.

dargo
2020-01-03, 16:31:04
Was verstehst du unter reinen neuen Konsolentiteln? Das sind am Anfang höchstens wenige Exklusivtitel für die PS5 um sie zu pushen. Bei Microsoft gibt es nichts mehr Exklusives für die XBox. Alle AAA-Titel kommen auch für den PC.

dargo
2020-01-03, 16:39:43
RDNA2 ist doch 7nm EUV? Zumindest sagen das die offiziellen AMD Folien. Und Navi 2x soll ja RDNA2 sein. Evtl. sehen wir ja was am 6. Januar.
Ihr solltet mal langsam zwischen Tapeout und Release unterscheiden. :freak: Laut Gerüchten war Tapeout von Navi21 im Herbst 2019. Im schlimmsten Fall kann das also sogar Dezember letzten Jahres bedeuten. Rechnen wir im optimalen Fall 9 Monate drauf haben wir August 2020. Und bis brauchbare Customs kommen vergehen nochmal 1-2 Monate. Und brauchbar ist relativ... sollte das Ding wieder Richtung 300W gehen ist man wieder gezwungen einen riesen Klotz zu nehmen. Ob ich das noch will? Eher nicht.

aufkrawall
2020-01-03, 16:41:06
"Riesige Klötze" haben die ganzen 2080 Ti-Käufer nicht abgehalten. Mir ist das völlig wumpe.

dargo
2020-01-03, 16:48:33
Ich bin mittlerweile soweit, dass ich bei Lukü bis ca. 200W ok finde. Viel mehr sollte es nicht sein wenn man es schön leise haben möchte. Eine gute AIO eignet sich wiederum für solche Späße wie ~250-300W ganz gut. Die wird man aber nach der Nutzungzeit wieder schwer los. Ich meine wer kauft nach 2-3 Jahren so eine gebrauchte Karte wenn die Neue gleiche bis bessere Performance liefert und dabei problemlos mit Luft kühlbar ist weil deutlich effizienter? Und auf Wakü habe ich keinen Bock.

aufkrawall
2020-01-03, 16:57:11
Ich bin mittlerweile soweit, dass ich bei Lukü bis ca. 200W ok finde. Viel mehr sollte es nicht sein wenn man es schön leise haben möchte.
Geht problemlos mit größeren Dies.

robbitop
2020-01-03, 16:59:08
Mit ordentlicher Kühlung sind doch die 2080ti customs relativ leise.

dargo
2020-01-03, 17:16:29
Wir haben unterschiedliche Definition von leise. :)

Grendizer
2020-01-03, 17:31:05
Eine 2080 TI bekommt man mit Undervolting auf 235 Watt. Ich denke mit einer guten Custom Lösung bekommt man das bis 1300 rpm hin, oder ?

BlacKi
2020-01-03, 17:36:33
große dies kann man noch besser runterregeln sodass sie unhörbar werden. damit ich richtig verstanden werde: ein 250mm² chip mit 200w ist wohl heiser und damit lauter als ein 500mm² chip mit 200w durch den optimaleren betriebspunkt. es stellt sich lediglich die frage des preises, nicht nach der chipgröße.

würde die 2080ti nicht den aufpreis haben würde sich niemand an dem rießigen chip stören, auch du nicht.

Vorstellung von Turing Ende August 2018 auf der Gamescom, Launch der 2000er Serie war Ende September 2018. Nix mit "bald 2 Jahre".
danke für den hinweiß. ich hab das falsch fomuliert. ich meinte eigentlich das zwischen turing und rdna2 fast 2 jahre betragen werden und ampere wohl sehr kurz danach erscheinen wird.

Odal
2020-01-03, 17:43:01
RDR2 läuft auf einer Konsole mit einem doppelten Kabini-Rechner mit Bonaire-Grafik, versucht das mal auf dem PC. Soviel zur Vergleichbarkeit der Hardware.


über 30FPS in FullHD auf einer HD7870 finde ich jetzt nicht so schlecht:

https://www.youtube.com/watch?v=ddNPsg5IqdI

Linmoum
2020-01-03, 17:50:16
Ihr solltet mal langsam zwischen Tapeout und Release unterscheiden. :freak: Laut Gerüchten war Tapeout von Navi21 im Herbst 2019. Im schlimmsten Fall kann das also sogar Dezember letzten Jahres bedeuten. Rechnen wir im optimalen Fall 9 Monate drauf haben wir August 2020. Und bis brauchbare Customs kommen vergehen nochmal 1-2 Monate. Und brauchbar ist relativ... sollte das Ding wieder Richtung 300W gehen ist man wieder gezwungen einen riesen Klotz zu nehmen. Ob ich das noch will? Eher nicht.
Tapeout für Polaris war damals Gerüchten zufolge November/Dezember 2015 (ergo 8-9 Monate vor dem Launch), bei Pascal sollen es 12 Monate vor dem Launch gewesen sein.

Bei einem vermeintlichen Tapeout im September kann das also auch problemlos noch Sommer werden. So gut, wie TSMC das alles gerade im Griff hat, würde mich ein eher früherer statt späterer Launch nicht überraschen. Das ist kein Vergleich mehr zu Failfoundries.

horn 12
2020-01-03, 19:09:57
Brauche Radeon VII Ersatz und hoffe dass uns AMD so wie bei Ryzen bereits zur CES
2020 überrascht. Aber Hoffnung habe ich geringe. Ansonsten Guthaben von Amazon gutschreiben lassen aber was mache ich bis Big Navi kommt. RX 5700XT möchte ich nicht wirklich da kein RT und geringer Ram.

robbitop
2020-01-03, 20:06:14
Wir haben unterschiedliche Definition von leise. :)
Kann nicht sein. Ich habe extra deswegen eine custom Wasserkühlung mit 2x 480er und 2x240er Radis in Push/Pull damit die Drehzahl so niedrig wie möglich ist und entsprechend das System trotz starkem OC kaum zu hören ist.

AffenJack
2020-01-03, 22:17:39
Tapeout für Polaris war damals Gerüchten zufolge November/Dezember 2015 (ergo 8-9 Monate vor dem Launch), bei Pascal sollen es 12 Monate vor dem Launch gewesen sein.

Bei einem vermeintlichen Tapeout im September kann das also auch problemlos noch Sommer werden. So gut, wie TSMC das alles gerade im Griff hat, würde mich ein eher früherer statt späterer Launch nicht überraschen. Das ist kein Vergleich mehr zu Failfoundries.

Das war nicht das Tapeout, das waren erste Chips im Labor bei Polaris im November/Dezember. Navi21 hat dagegen sein Tapeout wohl im Oktober/November gehabt, da AMD im September ja noch selber angegeben hat, dass er im Design ist. Von da an dauert es heutzutage 8-10 Wochen bis man Chips kriegt. Daher ist man eher 2,3 Monate hinter Polaris im Zeitplan. Mitte des Jahres ist da einfach nicht drin, Gamescom Vorstellung ist da deutlich realistischer. Kaufbar wahrscheinlich erst im September in nennenswerten Mengen.

dargo
2020-01-03, 22:30:32
Kann nicht sein. Ich habe extra deswegen eine custom Wasserkühlung mit 2x 480er und 2x240er Radis in Push/Pull damit die Drehzahl so niedrig wie möglich ist und entsprechend das System trotz starkem OC kaum zu hören ist.
Das Thema war Luftkühlung.

Linmoum
2020-01-03, 22:43:33
Das war nicht das Tapeout, das waren erste Chips im Labor bei Polaris im November/Dezember. Navi21 hat dagegen sein Tapeout wohl im Oktober/November gehabt, da AMD im September ja noch selber angegeben hat, dass er im Design ist. Von da an dauert es heutzutage 8-10 Wochen bis man Chips kriegt. Daher ist man eher 2,3 Monate hinter Polaris im Zeitplan. Mitte des Jahres ist da einfach nicht drin, Gamescom Vorstellung ist da deutlich realistischer. Kaufbar wahrscheinlich erst im September in nennenswerten Mengen.
wtftech sprach damals im Oktober 2015 vom Tapeout, hardwareluxx im Launch-Review der 480 von November/Dezember. Irgendwas in dem Dreh wird es also gewesen sein.

Mitte des Jahres wäre theoretisch durchaus möglich bei einem noch im Herbst erfolgten Tapeout, wenngleich ich dennoch nicht vor August einen Launch sehe. Auf jeden Fall wird es diesmal sicher nicht am Prozess bzw. unfähigem Fertiger scheitern.

davidzo
2020-01-03, 23:31:43
Es gibt nur Launches vor oder nach den Sommerferien in den USA. Also bis mitte Juli oder erst ab Ende August.

Linmoum
2020-01-03, 23:37:21
So wie Vega damals? ;)

Daredevil
2020-01-03, 23:52:49
Eine 2080 TI bekommt man mit Undervolting auf 235 Watt. Ich denke mit einer guten Custom Lösung bekommt man das bis 1300 rpm hin, oder ?
300w schaffste auch mit 1300rpm, aber das auch nur aufgrund des riesigen DIEs. ( Und Überlänge + Tri Slot = 1kg+ Karte)

Leonidas
2020-01-04, 06:20:37
Das Argument halte ich für falsch. Transistorzahl und Die Size haben wenig mit dem Designaufwand zu tun. Bei einer GPU wird vieles einfach nur enorm hochskaliert. Copy and paste. Dazu kommt automatisiertes Layout. CPU uArchs sind wahrscheinlich komplexer zu entwickeln und zu validieren.


Korrekt. Das man für die größeren Grafikchips oftmals mehr Zeit zur Validierung benötigt, hängt nicht an der Die-Size, sondern schlicht daran, das die größeren Grafikchips oftmals Architektur-technisch neu sind und daher länger geprüft werden müssen. Für die kleineren Grafikchips entfallen dann augenscheinlich solcherart Prüfschritte, womit es passieren kann, das jene auch schon mal weniger als 9 Monate zwischen Tape-Out und Release benötigen.

Und ja, bei CPUs braucht man nicht unterhalb eines Jahres zwischen Tape-Out und Release ausgehen.



Ihr solltet mal langsam zwischen Tapeout und Release unterscheiden. :freak: Laut Gerüchten war Tapeout von Navi21 im Herbst 2019. Im schlimmsten Fall kann das also sogar Dezember letzten Jahres bedeuten.


Im schlimmsten Fall Anfang November. Der konkrete Wortlaut des Leaks lautet darauf, das Navi 21 Anfang November bereits zurück vom Tape-Out war. Das ist also der späteste Termin - es kann natürlich auch schon Oktober gewesen sein:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019

basix
2020-01-04, 09:31:59
Ihr solltet mal langsam zwischen Tapeout und Release unterscheiden. :freak: Laut Gerüchten war Tapeout von Navi21 im Herbst 2019. Im schlimmsten Fall kann das also sogar Dezember letzten Jahres bedeuten.

Ich habe jetzt nicht an einen Release gedacht. Eher erste Infos zur Architektur und man hält einen Chip in die Kameras ;) Im besten Fall noch eine kleine Demo wie bei Polaris.

HOT
2020-01-04, 10:24:50
Korrekt. Das man für die größeren Grafikchips oftmals mehr Zeit zur Validierung benötigt, hängt nicht an der Die-Size, sondern schlicht daran, das die größeren Grafikchips oftmals Architektur-technisch neu sind und daher länger geprüft werden müssen. Für die kleineren Grafikchips entfallen dann augenscheinlich solcherart Prüfschritte, womit es passieren kann, das jene auch schon mal weniger als 9 Monate zwischen Tape-Out und Release benötigen.

Und ja, bei CPUs braucht man nicht unterhalb eines Jahres zwischen Tape-Out und Release ausgehen.



Im schlimmsten Fall Anfang November. Der konkrete Wortlaut des Leaks lautet darauf, das Navi 21 Anfang November bereits zurück vom Tape-Out war. Das ist also der späteste Termin - es kann natürlich auch schon Oktober gewesen sein:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-21-mit-chipflaeche-von-505mm%C2%B2-und-tape-out-im-herbst-2019


Ich glauib dass das ganz großer Quatsch ist Leo. Der wird zusammen mit Zen3 Tapeout gehabt haben, genau wie letztes Mal Zen2 ud V20.
Im Herbst dürfte N23 Tapeout gehabt haben, wenn der nächstes Jahr noch kommen soll.

dargo
2020-01-04, 10:29:05
Ich habe jetzt nicht an einen Release gedacht. Eher erste Infos zur Architektur und man hält einen Chip in die Kameras ;) Im besten Fall noch eine kleine Demo wie bei Polaris.
Ok... nur finde ich sowas halt gähn. Kennst ja immer noch nicht die wichtigsten Daten... Preis, Verbrauch, Performance, Lautstärke.

300w schaffste auch mit 1300rpm, aber das auch nur aufgrund des riesigen DIEs. ( Und Überlänge + Tri Slot = 1kg+ Karte)
Naja... was macht dann MSI falsch?
https://www.igorslab.de/msi-geforce-rtx-2080-super-gaming-x-trio-im-test-schwerer-brocken-auf-leisen-sohlen/8/

Und das sind "nur" 265W mit einem riesen Klotz von 328mm.

dargo
2020-01-04, 10:38:28
dp

Leonidas
2020-01-04, 10:54:54
Ich glauib dass das ganz großer Quatsch ist Leo. Der wird zusammen mit Zen3 Tapeout gehabt haben, genau wie letztes Mal Zen2 ud V20.
Im Herbst dürfte N23 Tapeout gehabt haben, wenn der nächstes Jahr noch kommen soll.


Was ich nicht ablehnen würde, denn dann könnte N21 etwas früher dran sein. Gegenthese hier:
https://twitter.com/KOMACHI_ENSAKA/status/1213278732317650944
Übersetzt: N21 should be considered around September

Daredevil
2020-01-04, 11:09:52
Ok... nur finde ich sowas halt gähn. Kennst ja immer noch nicht die wichtigsten Daten... Preis, Verbrauch, Performance, Lautstärke.


Naja... was macht dann MSI falsch?
https://www.igorslab.de/msi-geforce-rtx-2080-super-gaming-x-trio-im-test-schwerer-brocken-auf-leisen-sohlen/8/

Und das sind "nur" 265W mit einem riesen Klotz von 328mm.
MSI macht nichts falsch, es ist nur der falsche DIE unter dem Kühler.

AffenJack
2020-01-04, 11:21:10
Was ich nicht ablehnen würde, denn dann könnte N21 etwas früher dran sein. Gegenthese hier:
https://twitter.com/KOMACHI_ENSAKA/status/1213278732317650944
Übersetzt: N21 should be considered around September

Man weiß doch aus offiziellen Angaben, dass RDNA2, also Navi 21 nicht vor Ende September seinen Tapeout hatte, sonst hätte man im September nicht noch klar kommuniziert,dass RDNA2 in Design ist.
https://www.igorslab.de/amd-zen-3-ryzen-4000-cpus-sollen-vor-rdna-2-radeon-rx-7nm-gpus-bereits-im-jahr-2020-erscheinen/

Berniyh
2020-01-04, 11:40:09
Man weiß doch aus offiziellen Angaben, dass RDNA2, also Navi 21 nicht vor Ende September seinen Tapeout hatte, sonst hätte man im September nicht noch klar kommuniziert,dass RDNA2 in Design ist.
https://www.igorslab.de/amd-zen-3-ryzen-4000-cpus-sollen-vor-rdna-2-radeon-rx-7nm-gpus-bereits-im-jahr-2020-erscheinen/
Klar, die Folien werden sicherlich wöchentlich aktualisiert.

Daraus würde ich nun wirklich gar nichts ableiten.

HOT
2020-01-04, 14:32:15
Was ich nicht ablehnen würde, denn dann könnte N21 etwas früher dran sein. Gegenthese hier:
https://twitter.com/KOMACHI_ENSAKA/status/1213278732317650944
Übersetzt: N21 should be considered around September

Jo September klingt auch plausibel. In dem Fall hat man sich aber Zeit gelassen, um das Design optimal zu bekommen, das wäre ungewöhnlich für AMD und sehr wünschenswert, wenn man dadurch mehr Perf/Watt hinbekommt. Dafür wären die 3 Monate ein geringer Preis.

Man weiß doch aus offiziellen Angaben, dass RDNA2, also Navi 21 nicht vor Ende September seinen Tapeout hatte, sonst hätte man im September nicht noch klar kommuniziert,dass RDNA2 in Design ist.
https://www.igorslab.de/amd-zen-3-ryzen-4000-cpus-sollen-vor-rdna-2-radeon-rx-7nm-gpus-bereits-im-jahr-2020-erscheinen/

Daraus kann man leider gar nichts ableiten. Das kommt immer darauf an, wie AMD selber das benamst. Ob das RDNA2 wirklich ist oder AMD selber das RDNA 1.5 nennt, ist schlicht und ergreifend Definitionssache. Zudem muss kann man so Folienaussagen auch nicht zu 100% ernst nehmen. Die haben zwar ein Wording fürs Marketing, aber Fehler passieren auch da. Wenn es aber tatsächlich so war, dann respekt an den Marketingautor :D.

JVC
2020-01-04, 14:45:33
Wann wurden die ersten Entwickler-Konsolen der neun X-Box ausgeliefert ?
In der steckt nämlich ein "N21" ...

M.f.G. JVC

sulak
2020-01-04, 14:50:59
Naja es sind quasi die ersten richtigen Devkits für die XBox Series X, Phil Spencer himself hat es quasi verraten und ein Dev hat es auch bestätigt.
Der Tweet ist von Anfang Dezember, kannst maximal 1 Monat vielleicht abziehen:
https://twitter.com/xboxp3/status/1202354057047728128

Linmoum
2020-01-04, 14:53:04
In der steckt nämlich ein "N21" ...Und da bist du dir sicher? ;)

dargo
2020-01-04, 14:57:40
MSI macht nichts falsch, es ist nur der falsche DIE unter dem Kühler.
Wie meinst du das? Das Ding ist sogar größer als die spekulierten 505mm² von Navi 21. Oder sind mittlerweile 754mm² der Maßstab? :freak:

JVC
2020-01-04, 14:58:46
Und da bist du dir sicher? ;)
100% gibt's von mir nicht ... aber es basiert ziemlich sicher auf einem N21.

M.f.G. JVC

LasterCluster
2020-01-04, 15:12:00
"basieren" = RDNA2? Das bestreitet doch (quasi) niemand. Oder basieren = iGPU der APU ist N21?

JVC
2020-01-04, 15:47:19
@LasterCluster Zweiteres.
https://www.3dcenter.org/news/geruechtekueche-leak-legt-hardware-spezifikationen-von-playstation-5-xbox-series-x-offen
"...56 Shader-Cluster..."

Muss also größer als 5700XT (40 Shader-Cluster) sein.
Und wird eben in Entwickler-Kits schon ausgeliefert.

M.f.G. JVC

HOT
2020-01-04, 16:25:38
Wie meinst du das? Das Ding ist sogar größer als die spekulierten 505mm² von Navi 21. Oder sind mittlerweile 754mm² der Maßstab? :freak:
Die 505mm² wird schon N21 in N7+ sein.
Bei N23 denke ich eher, dass man direkt auf N5 setzen wird, daher wird das Ding auch dieses Jahr erst ins Tapeout gehen.

Und die Konsole hat mir Sicherheit keinen N21. Das Ding wird ein monolithisches Die mit 56CUs und 8 Zen Kernen in N7P haben mMn. Das hat nix mit N21 zu tun.

Linmoum
2020-01-04, 16:33:58
@LasterCluster Zweiteres.
https://www.3dcenter.org/news/geruechtekueche-leak-legt-hardware-spezifikationen-von-playstation-5-xbox-series-x-offen
"...56 Shader-Cluster..."

Muss also größer als 5700XT (40 Shader-Cluster) sein.
Und wird eben in Entwickler-Kits schon ausgeliefert.

M.f.G. JVC
Zweiteres geht aus deinem Link aber nicht hervor.
Renoir nutzt ja auch nicht einfach nur die bekannten Zen2-Chiplets, sondern da gibt's erneut einen eigens monolithischen Die für. Dasselbe erwarte ich bei den Konsolen ähnlich wie HOT, da nimmt man nicht einfach einen N21 und ab geht die Lutzi.

dargo
2020-01-04, 16:47:29
Die 505mm² wird schon N21 in N7+ sein.

Und warum zitierst du mich jetzt ohne Zusammenhang zur Diskussion?

Kriegsgeier
2020-01-04, 20:45:02
Bekannt?
https://uploads.disquscdn.com/images/51a2ea1d178b5b5650fd5fd6acf75cfcf1de6a928e84819b1c298e1127afd723.jpg

unl34shed
2020-01-04, 21:01:39
Das wäre die doppelten FLOPs einer 2080 ti?

basix
2020-01-04, 21:05:00
Bekannt?
https://uploads.disquscdn.com/images/51a2ea1d178b5b5650fd5fd6acf75cfcf1de6a928e84819b1c298e1127afd723.jpg

Riecht stark nach Fake. Aber ich lasse mich gerne in diese Richtung überraschen :freak:

Ich meine, was sollen diese LT und RXT Namen-Anhängsel?

Lehdro
2020-01-04, 21:06:23
Das wäre die doppelten FLOPs einer 2080 ti?
Ja toll. Das muss sich dann aber auch gegen den Nachfolger der 2080 Ti bewähren. 512 Bit Memory Bus hatten wir schon ewig nicht mehr, das sind tonnenweise Bandbreite mit GDDR6 - der Chip muss wahrlich riesig sein. Soviele CU und 512 Bit uff, da könnten die 300W auch mit N7+ wohl knapp werden, jedenfalls falls RDNA2 nicht nochmal massive Schritte in Richtung Effizienz macht. Ich hoffe das stimmt alles, aber irgendwie glaube ich nicht so recht daran, ist too much imo.

Linmoum
2020-01-04, 21:09:22
Ich bin immer wieder beeindruckt, wie viel Mühe sich die Leute teilweise bei sowas geben.

Unicous
2020-01-04, 21:10:07
Das lässt sich gut shoppen. Klingt für mein Dafürhalten eher nach einem feuchten Traum als nach einem realistischen Chip. Hoher Takt und hoher CU count klingt "too good to be true".

Da die Zahlen sich von den Buchstaben in der Helligkeit unterscheiden, im Gegensatz z.B. zu diesem Layout

https://www.gamersnexus.net/images/media/2019/news/amd/amd-rx-5700-vs-5700-xt-specs.jpg

gehe ich von photoshop aus.

edit:
Ach das ist ja nur ein Auschnitt, warum hast du das gecropped, Kriegsgeier?

Der Die shot sieht super weird aus, und das "EXTREME GAMING DNA" hat eine andere Artefaktbildung als der Rest.

Linmoum
2020-01-04, 21:14:18
@Unicous

Die Folie hier passt da besser als Vergleich, ist immerhin dieselbe wie auf dem Bild oben:
https://pics.computerbase.de/8/9/6/3/0/8-2160.87f3fa17.jpg

Unicous
2020-01-04, 21:18:49
https://www.amd.com/system/files/2019-05/237107-rx5700-chip-shot-angled-1260x709_0.jpg

Und dieser die shot passt zur Seriennummer.:wink:

Ganz schön lazy von dem Faker.:rolleyes:

Fragman
2020-01-04, 21:25:47
Mmh,
im ersten Moment schaut das nach Fake aus. Mal kurz nachgerechnet, könnte man so einen Chip in 7nm+ aber in unter 500mm^2 hinbekommen, oder? Wenn man den 5700XT als Reference her nimmt? Der hat 250, in 7nm+ wärens noch 200, die 40 CU's auf 100 hochgerechnet wären dann unter 500?

Daredevil
2020-01-04, 21:27:24
Wie meinst du das? Das Ding ist sogar größer als die spekulierten 505mm² von Navi 21. Oder sind mittlerweile 754mm² der Maßstab? :freak:

Ne, aber darum ging’s ja in meiner Aussage.
Msi schafft das nur aufgrund des DIEs, nicht aufgrund des Kühlers.

dargo
2020-01-04, 21:34:41
Das wäre die doppelten FLOPs einer 2080 ti?
Eine 2080TI hat 14,8-15,2 TFLOPs. Je nachdem ob 1,7Ghz oder 1,75Ghz anliegen.

Bekannt?
https://uploads.disquscdn.com/images/51a2ea1d178b5b5650fd5fd6acf75cfcf1de6a928e84819b1c298e1127afd723.jpg
Bis zu 2047Mhz GPU-Takt also mit 100 CUs, ja nee ist klar. ;D

unl34shed
2020-01-04, 21:36:49
Hab es nur schnell bei TechpowerUp nachgeschaut, die schreiben 13.45 TFLOPS https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305

dargo
2020-01-04, 21:42:57
Dann sag denen die können nicht rechnen. :) Wobei... rechnen können die. Die wissen nur nicht, dass eine 2080TI nicht nur mit 1545Mhz in Games taktet.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40

Langlay
2020-01-04, 21:48:17
Mmh,
im ersten Moment schaut das nach Fake aus. Mal kurz nachgerechnet, könnte man so einen Chip in 7nm+ aber in unter 500mm^2 hinbekommen, oder? Wenn man den 5700XT als Reference her nimmt? Der hat 250, in 7nm+ wärens noch 200, die 40 CU's auf 100 hochgerechnet wären dann unter 500?

Mit hängen und würgen eventuell. N10 ist 251mm² N7+ soll noch ~20% Flächenersparnis bringen.

Also 2x Diesize = 2.4x Transitoren. Also 40 CUx2.4 = 96CU wären dann 502mm.

In der Milchmädchenrechung wenn voll auf Flächenersparnis gegangen wird und kaum neue Transitoren für neue Funktionen verbraten wird.

Allerdings glaub ich nicht wirklich an >80 CU und erst recht nicht bei dem Takt. Ich würde sagen Fake.

Ich würde N21 mit 64 oder 80 CUs erwarten und an das 512 Bit Specherinterface glaub ich nicht auch nicht.

basix
2020-01-04, 21:59:48
Wenn so ein 100 CU Chip kommt, lache ich laut los :D

Wie schon alle sagen: Too good to be true.

Vor allem ein 2.5x Performance Sprung bei FP32? 400W? xD

Unicous
2020-01-04, 22:00:47
Habt ihr nicht aufgepasst?:confused: Die Seriennummer ist dieselbe wie beim Navi10 Bild. Es ist 101% Fake.

Linmoum
2020-01-04, 22:08:46
Die News bei PCGH gibt's morgen trotzdem. ;)

Der_Korken
2020-01-04, 22:16:00
Das Chiplayout ist vor allem auch super weird. Das ganze Frontend oben rechts in der Ecke, darunter 12 Streifen PHYs für den Speicher in einem Block angeordnet statt am Rand, wie bei allen bisherigen Chips. Eigentlich müssten es auch 8 PHYs für 512bit sein. Und die CUs alle in einem 10x10 Grid. Kurze Datenpfade werden wohl überbewertet ;D.

mironicus
2020-01-04, 22:58:16
Das die RDNA2-Karten wohl 6000er-Karten werden, klingt logisch. Aber auch die 16 GB wären notwendig um gegen NVidia zu punkten, wenn man im HighEnd mitmischen will. Und ob 80 oder 100CU liegt alles im Rahmen des Möglichen, was AMD bauen kann. Wenn NVidia schon 50% Mehrperformance verspricht, dann wäre AMD mit 100CU wohl ähnlich schnell.

basix
2020-01-04, 22:59:17
Habt ihr nicht aufgepasst?:confused: Die Seriennummer ist dieselbe wie beim Navi10 Bild. Es ist 101% Fake.

Ich amüsiere mich nur über den hypothetischen Gedanken einer solchen Big Navi GPU und dessen Implikationen.

amdfanuwe
2020-01-05, 01:54:10
Und wieso sind da 100 CU Blöcke? AMD verbaut doch 2 CUs in einem Block, sollten also nur 50 Blöcke eingezeichnet sein.
Also ich tippe mal eher auf ein Design mit 96 CUs, welches einem 4 fachem Navi 14 ähnelt.

robbitop
2020-01-05, 09:04:47
Wenn ich AMD wäre, würde ich sowas auflegen. Baubar ist das. Das würde sicherlich einen weiteren guten Halo Moment bringen, der ihre Marken weiter aufwertet. Bedeutet mittelfristig (wenn man nachlegt) bessere Margen und höherer Marktanteil.

dargo
2020-01-05, 09:17:17
Es wäre völliger Bullshit. Das wäre wieder ein komplett vermurkstes Lineup. AMD braucht sicherlich was für >399$, aber bestimmt nicht >=999$. Auch wenn man diese ominöse LT vielleicht für 799-849$ verkaufen könnte. Es gäbe wieder eine riesen Lücke zwischen Top Dog und Navi 10.

HOT
2020-01-05, 09:30:45
Naa, es gibt doch noch 3 Chips. N22 könnte durchaus ne Zwischenlösung mit 300-400mm² sein.

N10 -> 250mm² -> 40 CUs
N22 -> 350mm² -> 60 CUs
N21 -> 500mm² -> 80 CUs
N23 -> 350mm² -> 112 CUs (oder sowas)

dargo
2020-01-05, 09:37:26
Haben wir dann neuen Rekord in 7nm EUV mit 400W? :freak: Und wann soll AMD das alles in 2020 releasen neben den beiden neuen Konsolen und Zen 3? Bestimmt habe ich noch was von 2020 vergessen wie zb. die 4000-er APUs.

HOT
2020-01-05, 10:04:02
Die haben doch jüngst angekündigt, richtig zuschlagen zu wollen 2020 und angeblich wird sich das TSMC Auftragsniveau mal eben zu verdoppeln und man wird offenbar der größte Abnehmer bei TSMC. Ich denke, wie beobachten hier einen krassen Strategiewechsel im Grafikbereich, auch bei den APUs. Angeblich soll es ja jetzt 2 APUs pro Generation geben, eine kleine und eine größere. Renoir ist offensichtlich die größere.

GPUs werden jetzt offenbar zuende entwickelt (nicht wie vorher) und erst als rundes Produkt auf den Markt entlassen. Das Navi-Desaster dürfte da auch einiges in den Abläufen geändert haben. Hinzu kommen eben vollständige Lineups. Die mageren Zeiten sind vorbei, Zen sei dank.

ChaosTM
2020-01-05, 10:17:45
Auf jeden Fall werden endlich APUs Realität mit denen man auch halbwegs vernünftig Spielen kann. Zumindest in 1080p/60.
Wenn man sich die APUs der Next Gen Konsolen anschaut sollte da auch noch deutlich mehr drinnen sein.
5kg schwere und dicke Gaming Laptops werden deutlich seltener werden....

Odal
2020-01-05, 10:55:49
Die haben doch jüngst angekündigt, richtig zuschlagen zu wollen 2020 und angeblich wird sich das TSMC Auftragsniveau mal eben zu verdoppeln und man wird offenbar der größte Abnehmer bei TSMC. Ich denke, wie beobachten hier einen krassen Strategiewechsel im Grafikbereich, auch bei den APUs. Angeblich soll es ja jetzt 2 APUs pro Generation geben, eine kleine und eine größere. Renoir ist offensichtlich die größere.

GPUs werden jetzt offenbar zuende entwickelt (nicht wie vorher) und erst als rundes Produkt auf den Markt entlassen. Das Navi-Desaster dürfte da auch einiges in den Abläufen geändert haben. Hinzu kommen eben vollständige Lineups. Die mageren Zeiten sind vorbei, Zen sei dank.


Du meinst wohl Vega Desaster?
Ich glaube nicht das am 06. eine wirklich große GPU gezeigt wird, die spekulierten 80 CU oder gar 100 CU sind absolut utopisch. Die Effizienz ist viel zu schlecht dafür, und dann hapert mit der Bandbreite. Wenn dann eher der PS5 Chip als Vollausbau (also bestenfalls 56-60CU) als potentieller N10 Nachfolger mit Raytracing.

gedi
2020-01-05, 12:42:41
Du meinst wohl Vega Desaster?
Ich glaube nicht das am 06. eine wirklich große GPU gezeigt wird, die spekulierten 80 CU oder gar 100 CU sind absolut utopisch. Die Effizienz ist viel zu schlecht dafür, und dann hapert mit der Bandbreite. Wenn dann eher der PS5 Chip als Vollausbau (also bestenfalls 56-60CU) als potentieller N10 Nachfolger mit Raytracing.

Sehe ich auch so. Die GPU von der XBOX next, 16GB Vram (vielleicht HBM) und halt auf 1.8G geprügelt.

LasterCluster
2020-01-05, 13:48:13
Die Konsolen werden doch sicher wieder ne APU haben, dementsprechend haben die PC dGPUs und die Konsolen nur die Architektur gemeinsam. Falls es ne dGPU mit ähnlich CUs geben wirds, ist das einfach Zufall bzw. Koinzidenz (ähnliche Überlegungen in der Entwicklung führen zu ähnlichen Konzepten).

LasterCluster
2020-01-05, 13:50:50
Naa, es gibt doch noch 3 Chips. N22 könnte durchaus ne Zwischenlösung mit 300-400mm² sein.

N10 -> 250mm² -> 40 CUs
N22 -> 350mm² -> 60 CUs
N21 -> 500mm² -> 80 CUs
N23 -> 350mm² -> 112 CUs (oder sowas)

N22 ist der einizge Chip der einen direkten Namensvorgänger hat. Also würde ich ein relativ enges Verhältnis zwischen N12 und N22 erwarten, irgendwo bei P20/P30 und V10/V20.

Berniyh
2020-01-05, 14:49:13
Du meinst wohl Vega Desaster?
Ich glaube nicht das am 06. eine wirklich große GPU gezeigt wird, die spekulierten 80 CU oder gar 100 CU sind absolut utopisch. Die Effizienz ist viel zu schlecht dafür, und dann hapert mit der Bandbreite. Wenn dann eher der PS5 Chip als Vollausbau (also bestenfalls 56-60CU) als potentieller N10 Nachfolger mit Raytracing.
Ich wäre überrascht, wenn man überhaupt irgendwas von Navi 2x (für den Desktop) zeigt.
Der Release ist ja doch noch weiter weg als Navi 1x letztes Jahr (und da hatte man nichts zum Vorzeigen).
evtl. ist man mit Navi 2x schon weiter, da es ja schon Devkits gibt, aber evtl. enthalten die Devkits auch irgendwas Navi 1x-basiertes?
N22 ist der einizge Chip der einen direkten Namensvorgänger hat. Also würde ich ein relativ enges Verhältnis zwischen N12 und N22 erwarten, irgendwo bei P20/P30 und V10/V20.
Das Namensschema wurde offensichtlich geändert, daher würde ich da nichts hinein interpretieren.
Das zeigt auch die Zuordnung zur Generation (gfx1031 etc.).

LasterCluster
2020-01-05, 15:00:26
Aber warum landet die zweite Ziffer von N21 und N23 gerade in den Lücken von N10/N12/N14? Das sieht für mich so aus, als sollte es eine gewisse Distanz zu den N1x ausdrücken. Und N12/N22 sticht da irgendwie heraus...
Aber du hast natürlich recht. Ist im Grunde Kaffesatzleserei. Anderseits habe ich ja nur auf pure Speku geantwortet :wink:

Odal
2020-01-05, 15:38:58
Ich wäre überrascht, wenn man überhaupt irgendwas von Navi 2x (für den Desktop) zeigt.
Der Release ist ja doch noch weiter weg als Navi 1x letztes Jahr (und da hatte man nichts zum Vorzeigen).



Man hätte auch letztes Jahr im Januar schon sicher Navi zeigen können, aber dann wäre man ja Vega VII (das man als Abfallprodukt eh hatte) nicht mehr losgeworden.
Und wann genau Navi2 für den Desktop kommt ist auch unklar. Das kann durchaus ein paar Monate vor der PS5 sein. Und irgendwas zu GPUs wird schon gezeigt, um die Leute bei der Stange zu halten.

Berniyh
2020-01-05, 16:20:37
Man hätte auch letztes Jahr im Januar schon sicher Navi zeigen können, aber dann wäre man ja Vega VII (das man als Abfallprodukt eh hatte) nicht mehr losgeworden.
Umgekehrt wird ein Schuh daraus.
Die Vega VII war nur aus der Not heraus geboren, da man Navi nicht zeigen konnte, man aber zur CES nicht mit leeren Händen dastehen wollte.
Die VII war ein reiner Marketing-Coup.
(ok, ob es nun wirklich ein Coup war steht wieder auf einem anderen Blatt)
Und wann genau Navi2 für den Desktop kommt ist auch unklar. Das kann durchaus ein paar Monate vor der PS5 sein. Und irgendwas zu GPUs wird schon gezeigt, um die Leute bei der Stange zu halten.
Das halte ich für arg unwahrscheinlich. Sowohl für die Konsolen als auch Navi Desktop wird aktuell von grob Q3 ausgegangen.
Vor Q3 wird in Bezug auf Navi 2x wohl nichts kommen.

HOT
2020-01-05, 16:37:30
N22 ist der einizge Chip der einen direkten Namensvorgänger hat. Also würde ich ein relativ enges Verhältnis zwischen N12 und N22 erwarten, irgendwo bei P20/P30 und V10/V20.
Das ist ein interessanter Punkt. Es kann auch sein, dass es gar keinen Chip zwischen N10 und N21 gibt, da das Jahr darauf ja eine neue GPU-Generation ansteht, die wieder im Mainstream ansetzen könnte. Damit würde die große Lücke dann aufgefüllt werden.

Du meinst wohl Vega Desaster?
Ich glaube nicht das am 06. eine wirklich große GPU gezeigt wird, die spekulierten 80 CU oder gar 100 CU sind absolut utopisch. Die Effizienz ist viel zu schlecht dafür, und dann hapert mit der Bandbreite. Wenn dann eher der PS5 Chip als Vollausbau (also bestenfalls 56-60CU) als potentieller N10 Nachfolger mit Raytracing.

Beides. Navi soll ja angeblich massive Schwierigkeiten in der Entwicklung gemacht haben, sodass eine komplette Überarbeitung und neue Revision nötig wurde, sonst wäre er wohl auch deutlich früher erschienen. Vega ist natürlich auch ein Teil des Problems gewesen, das meine ich ja mit nicht-fertig-entwickelt. Vega ist ein klasse Beispiel dafür, dass man Potenziel liegen gelassen hat aus Kostengründen mMn. Vega braucht 64CUs um die gleiche Spieleleistung zu erreichen wie Navi mit 40CUs. Vega ist sicherlich noch mit massivem Kosten- und Personaldruck entwickelt worden, Navi ging wohl anders schief.

Odal
2020-01-05, 16:58:22
Umgekehrt wird ein Schuh daraus.
Die Vega VII war nur aus der Not heraus geboren, da man Navi nicht zeigen konnte, man aber zur CES nicht mit leeren Händen dastehen wollte.
Die VII war ein reiner Marketing-Coup.
(ok, ob es nun wirklich ein Coup war steht wieder auf einem anderen Blatt)



Radeon VII war Resteverwertung von den Radeon Instinct. Das es da viel Rest zu verwerten gibt merkt man schon allein daran das es die Full GPU MI60 schon gar nicht mehr wirklich gibt und MI50, quasi der gleiche Restechip wie "Vega" VII, verwertet wird.

Aber wenn ich es so überlege... vielleicht sehen wir auch den Mi60 Nachfolger - allerdings ist eine Consumer Messe dafür nicht passend.

Complicated
2020-01-05, 17:23:57
Achso...dann ist das wahrscheinlich eine Ente:
https://www.hpcwire.com/off-the-wire/penguin-computing-upgrades-corona-with-amd-radeon-instinct-gpu-technology/
Penguin Computing, a leader in high-performance computing (HPC), artificial intelligence (AI), and enterprise data center solutions and services, today announced that Corona, an HPC cluster first delivered to Lawrence Livermore National Lab (LLNL) in late 2018, has been upgraded with the newest AMD Radeon Instinct MI60 accelerators, based on Vega which, per AMD, is the world’s first 7nm GPU architecture that brings PCIe 4.0 support.
Und man sollte schon wissen warum MI50 neuer und besser als MI60 ist:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/51185-neue-variante-der-radeon-instinct-mi50-ersetzt-die-mi60.html
AMD hat sich nie zu Preisen der beiden GPU-Beschleuniger geäußert. Er dürfte aber signifikant gewesen sein, so dass sich viele Kunden lieber für die kleinere Variante entschieden und dabei auch den geringeren Speicherausbau in Kauf genommen haben. Die Radeon Instinct MI50 mit 16 oder 32 GB HBM2 anzubieten, macht das Modell für den Kunden nun noch einmal etwas attraktiver, allerdings zu Lasten der Radeon Instinct MI60. Wer dennoch auf die maximale Leistungsdichte angewiesen ist, bekommt das Spitzenmodell weiter von AMD – allerdings außerhalb des offiziellen Angebots.
So läuft das eben wenn man auf den Bedarf der Kunden reagiert, zumal AMD so mehr Stückzahlen anbieten kann, da mehr defekte Chips qualifiziert werden können.

Berniyh
2020-01-05, 17:29:27
Radeon VII war Resteverwertung von den Radeon Instinct. Das es da viel Rest zu verwerten gibt merkt man schon allein daran das es die Full GPU MI60 schon gar nicht mehr wirklich gibt und MI50, quasi der gleiche Restechip wie "Vega" VII, verwertet wird.
Deshalb gab es vor der CES auch niemanden der ernsthaft auf eine MI50-Abkupferung spekuliert hat.
Und ich meine wirklich Niemanden.
Ne, das Ding war ziemlich sicher aus der Not heraus geboren.
Meiner Meinung nach ähnlich zur RX5600 jetzt.

Ansonsten zu MI50/MI60, s.o. von Complicated.
Aber wenn ich es so überlege... vielleicht sehen wir auch den Mi60 Nachfolger - allerdings ist eine Consumer Messe dafür nicht passend.
Arcturus wird sicherlich eines der ersten, wenn nicht das erste 7nm+ Produkt sein.
Der Chip wird vermutlich auch eine nicht ganz unwichtige Rolle im Portfolio spielen (auch wenn wir hier selten darüber diskutieren), da er wahrscheinlich für die ganzen Supercomputer (und ähnliche Projekte) benötigt wird, welche ja hohen Prestigewert haben.

Ob das nun auf der CES auch erwähnt wird wird man sehen.

robbitop
2020-01-05, 17:42:03
Es wäre völliger Bullshit. Das wäre wieder ein komplett vermurkstes Lineup. AMD braucht sicherlich was für >399$, aber bestimmt nicht >=999$. Auch wenn man diese ominöse LT vielleicht für 799-849$ verkaufen könnte. Es gäbe wieder eine riesen Lücke zwischen Top Dog und Navi 10.

Die Topdogs sind kaum relevant von den Verkaufszahlen. Die werden in erster Linie gebaut um den Halo Effekt zu nutzen. Das stärkt die Marke und dessen Wahrnehmung und färbt auf das eigentliche Lineup ab.

Odal
2020-01-05, 17:42:59
Achso...dann ist das wahrscheinlich eine Ente:
https://www.hpcwire.com/off-the-wire/penguin-computing-upgrades-corona-with-amd-radeon-instinct-gpu-technology/

Und man sollte schon wissen warum MI50 neuer und besser als MI60 ist:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/51185-neue-variante-der-radeon-instinct-mi50-ersetzt-die-mi60.html

So läuft das eben wenn man auf den Bedarf der Kunden reagiert, zumal AMD so mehr Stückzahlen anbieten kann, da mehr defekte Chips qualifiziert werden können.

Genau und die 100% heilen chips verkauft man teildeaktiviert als MI50 oder was? Sicher nicht. Von den Teildefekten haben sich einfach ein Haufen auf Halde angesammelt, die will man nicht wegwerfen sondern loswerden.

Deshalb gab es vor der CES auch niemanden der ernsthaft auf eine MI50-Abkupferung spekuliert hat.
Und ich meine wirklich Niemanden.
Ne, das Ding war ziemlich sicher aus der Not heraus geboren.


Weils nur Resteverwertung war. AMD hat an der Vega VII sicher kaum was verdient aber immer noch besser als die Teildefekten V20 wegzuwerfen.

Man darf nicht vergessen das 7nm ein neuer sehr teurer Prozess war und V20 ein relativ komplexer Chip. Da gab es vermutlich erstmal relativ viel Ausschuss.


Meiner Meinung nach ähnlich zur RX5600 jetzt.


Was es mit der RX5600 auf sich hat ist imho sowieso noch unklar. Wenn das ein eigener Chip ist dann sicher kein RDNA1 mehr (das würde kaum Sinn ergeben).

Complicated
2020-01-05, 18:27:50
Genau und die 100% heilen chips verkauft man teildeaktiviert als MI50 oder was? Sicher nicht.
Hast wieder nur die Hälfte gelesen? MI60 werden immer noch verkauft.

dargo
2020-01-05, 19:14:38
Die Topdogs sind kaum relevant von den Verkaufszahlen. Die werden in erster Linie gebaut um den Halo Effekt zu nutzen. Das stärkt die Marke und dessen Wahrnehmung und färbt auf das eigentliche Lineup ab.
Dafür muss man erstmal ein vollständiges Lineup haben. ;) Ich halte ein gutes Lineup mit gutem P/L für viel wichtiger als die schnellste Hardware zu haben. Das vollständige Lineup sollte auch zeitnah erscheinen und nicht über 2 Jahre verteilt. Es gab Zeiten wo AMD die schnellste GPU hatte, geholfen hat es langfristig trotzdem nichts.

Linmoum
2020-01-05, 19:24:50
Ein vollständiges Lineup haben sie mit TR auch (noch) nicht, trotzdem bringen sie nach dem 32C direkt einen 64C und nicht erst was dazwischen. ;)

Lehdro
2020-01-05, 20:14:37
Es gab Zeiten wo AMD die schnellste GPU hatte, geholfen hat es langfristig trotzdem nichts.
Was für ein dummes Argument. Du weisst doch noch gar nicht wie es "ausgeht". ATi hatte zb durchaus mal mehrere Jahre in Folge sehr hohe Marktanteile (https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-und-dritten-quartal-2014) und zwar genau dann wenn die Haloprodukte und der Rest des Lineup gut zusammengepasst haben. Also zum Beispiel von der 9800er Serie bis zum unsäglichen Rohrkrepierer der HD 2x00 Serie.

AMD selbst war noch nie in der komfortablen Position die Top Modelle und die Mittelklasse mit gleichwertigen Angeboten zu versorgen, eins von beiden hat immer hinterhergehinkt. Entweder fehlt das absolute Topmodell zu einer gelungenen Mittelklasse (Hallo @ Vega/Fury & Polaris) oder man hat das Topmodell und patzt absolut bei der Mittelklasse (Hallo @ Juniper & Cape Verde). Mit RDNA hat man nun die Möglichkeit das mal richtig zu stellen, WENN man denn will.

robbitop
2020-01-05, 21:07:14
Dafür muss man erstmal ein vollständiges Lineup haben. ;) Ich halte ein gutes Lineup mit gutem P/L für viel wichtiger als die schnellste Hardware zu haben. Das vollständige Lineup sollte auch zeitnah erscheinen und nicht über 2 Jahre verteilt. Es gab Zeiten wo AMD die schnellste GPU hatte, geholfen hat es langfristig trotzdem nichts.
Wann soll das gewesen sein? Ein sauberer, klarer Sieg im Topdog - das gab‘s seit G80 nicht mehr. Zu R300 und R420 Zeiten lief es noch.
Fijii und Vega waren beide groß aber nicht schnell genug relativ zu ihren Gegnern.

Complicated
2020-01-05, 21:50:56
Entweder fehlt das absolute Topmodell zu einer gelungenen Mittelklasse (Hallo @ Vega/Fury & Polaris) oder man hat das Topmodell und patzt absolut bei der Mittelklasse (Hallo @ Juniper & Cape Verde). Mit RDNA hat man nun die Möglichkeit das mal richtig zu stellen, WENN man denn will.
Was hatte denn Juniper mit patzen zu tun? IMHO gehört gerade die HD 5xxx Generation zu den erfolgreichsten, die AMD hatte. Sowohl im Top-Bereich, wo Fermi nicht konkurrieren konnte (zu spät und zu heiss/laut) aufgrund der 40nm Probleme bei Nvidia, als auch in der Mittelklasse, wo eine HD 5770 unumstritten das beste Produkt war seinerzeit und die 5750 ein Verkaufsschlager.
Das einzige in der Serie was irgendwie schräg kam mit dem Verbrauch war die 5830 als abgespeckter Cypress. Die HD5450 (Cedar) war bei Amazon jahrelang in den Top-Ten GPU-Charts und wurde selbst noch als HD 6000, HD 7000 und sogar als HD 8000 Serie verkauft als unterstes Low-End.

Ich weiss auch nicht wo Leute jetzt ein Lineup vermissen. Navi hat in 6 Monaten alles besetzt außer eine Enthusiasten GPU. 2 Chips und 6 Modelle mit RX 5300, RX 5500, RX 5600 (XT) und RX 5700 (XT) wer möchte kann noch einen Radeon VII als 7nm über der 5700 ansetzen.

Lehdro
2020-01-05, 22:12:30
Sry 4 OT:
Was hatte denn Juniper mit patzen zu tun? IMHO gehört gerade die HD 5xxx Generation zu den erfolgreichsten, die AMD hatte. Sowohl im Top-Bereich, wo Fermi nicht konkurrieren konnte (zu spät und zu heiss/laut) aufgrund der 40nm Probleme bei Nvidia, als auch in der Mittelklasse, wo eine HD 5770 unumstritten das beste Produkt war seinerzeit und die 5750 ein Verkaufsschlager.
Die GTX 460 hat in dem Bereich dort alles rasiert und war mit Abstand das rundeste Produkt der ganzen Fermi Ära. (https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-460/zum-launch-der-geforce-gtx-460-2) Der GF100 Fermi war zwar spät dran, laut und unglaublich hungrig, allerdings auch weitaus schneller (https://www.3dcenter.org/artikel/zum-launch-von-geforce-gtx-470-480) und zukunftsfähiger (https://forums.anandtech.com/threads/hd5870-vs-gtx480-two-years-later.2224543/). Womit wir wieder bei dem Halo Produkt wären - trotz des schlechten Rufes hat sich die Fermi Generation blendend verkauft, gerade wegen der GTX 460. Man hatte die Performancekrone und das beste Produkt im 200€ Bereich - eine Erfolgsgarantie im GPU Markt.

basix
2020-01-05, 22:38:49
Krass finde ich eher, dass die GTX 460 einen 300mm2 Chip für 200$ tragen konnte. 6 Jahre später waren es eher 600-700$ für einen gleich grossen Chip (GTX 1080). Rund um RV8xx / RV9xx und Tesla / Fermi gab es extrem viel Leistung fürs Geld. Und das bei relativ grossen Chips.

Akkarin
2020-01-05, 23:03:03
[O]der man hat das Topmodell und patzt absolut bei der Mittelklasse (Hallo @ Juniper & Cape Verde). Mit RDNA hat man nun die Möglichkeit das mal richtig zu stellen, WENN man denn will.

Bitte was ? Cape Verde war zum einem einstigerklasse, die Mittelklasse wurde von dem ziemlich guten Pitcairn bedient, zum anderen auch nVidia gut überlegen. Die Cap Verde/7770 war kaum größer und teuerer als GK107/650 und das bei selber Effizienz. Die 650Ti war natürlich besser, aber musste auch den größeren GK106 benutzen. Gleichzeitig machte die 7850 von oben druck.

Ich würde sogar behaupten dass das ursprüngliche GCN Lineup von 7770 bis 7970 GHz im ganzen betrachtet eins der besten launch Lineups überhaupt war. Das nVidia hier mehr verkauft hat als AMD obwohl sie höchstens ein gleich gutes Lineup hatten waren ist genau dass was Dargo meint.

Die je nach Version 50-100€ teurere 460 mit Juniper zu vergleichen ist auch ziemlich an den Haaren herbei gezogen. In der Fermi Gen war die 460 klar die stärkste karte mit deutlichen Schwächen drüber und drunter. Und auch die 460 wurde ziemlich gut von der 5850 gekontert (hätte es keine lieferschwächen gegeben). AMD hat in der HD5000er gen vom einsteiger bereich bis in den unteren High-End Bereich ein sehr gutes Lineup geliefert, nVidia hatte neben dem GF104 nur den zu heißen GF100 und den ziemlich schwachen GF106.

Lehdro
2020-01-06, 00:48:35
Nochmal OT:
Bitte was ? Cape Verde war zum einem einstigerklasse, die Mittelklasse wurde von dem ziemlich guten Pitcairn bedient, zum anderen auch nVidia gut überlegen. Die Cap Verde/7770 war kaum größer und teuerer als GK107/650 und das bei selber Effizienz. Die 650Ti war natürlich besser, aber musste auch den größeren GK106 benutzen. Gleichzeitig machte die 7850 von oben druck.
Und was hast du vergessen? Zwischen der HD 7770 und der 7850 lagen 100€ und 50% Leistungsplus fast 1 Jahr lang. In dem Bereich hat dann erneut NV wildern können. Die HD 7770 war einfach zu schwach, zudem zum Launch preislich komisch einsortiert, aber sehr effizient. Das bringt aber nichts wenn man solch ein Loch im Portfolio hat - NV hat das einfach gleich mit 2 Karten gefüllt und Geld gescheffelt. Das wurde damals schon von den Testern bemängelt (https://www.computerbase.de/2012-02/test-amd-radeon-hd-7770-und-hd-7750/14/) (2) (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/HD-7770-vs-HD-6770-5770-vs-Geforce-868247/) (3) (https://www.anandtech.com/show/5541/amd-radeon-hd-7750-radeon-hd-7770-ghz-edition-review/24) - die HD 7770 war technisch beeindruckend, aber bei der Leistung fehlte dann doch etwas um die Lücke zu schließen. Eine Karte im Bereich der HD 7790 hätte da direkt kommen müssen - kam aber leider erst viel später. Da hatte NV schon längst wieder die Performancekrone für über ein halbes Jahr mit deutlichem Abstand gepachtet.

Ich würde sogar behaupten dass das ursprüngliche GCN Lineup von 7770 bis 7970 GHz im ganzen betrachtet eins der besten launch Lineups überhaupt war. Das nVidia hier mehr verkauft hat als AMD obwohl sie höchstens ein gleich gutes Lineup hatten waren ist genau dass was Dargo meint.
Eines der besten Launch Lineups von AMD? Auf jeden Fall. Allerdings bei weitem nicht perfekt, gerade durch das angesprochene Loch in der Mitte des Portfolios.

Die je nach Version 50-100€ teurere 460 mit Juniper zu vergleichen ist auch ziemlich an den Haaren herbei gezogen. In der Fermi Gen war die 460 klar die stärkste karte mit deutlichen Schwächen drüber und drunter. Und auch die 460 wurde ziemlich gut von der 5850 gekontert (hätte es keine lieferschwächen gegeben). AMD hat in der HD5000er gen vom einsteiger bereich bis in den unteren High-End Bereich ein sehr gutes Lineup geliefert, nVidia hatte neben dem GF104 nur den zu heißen GF100 und den ziemlich schwachen GF106.
Ich zitier einfach mal dreist (https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-460/zum-launch-der-geforce-gtx-460-nachtraege):
Damit wird das ohnehin schon gute Bild der GeForce GTX 460 im Preis/Performance-Vergleich nur noch besser: Zu Preisen von nur knapp über 200 Euro ist die GeForce GTX 460 1024MB derzeit ein nahezu unwiderstehliches Angebot in ihrem Preissegment. Die Radeon HD 5830 hat gegenüber dieser Karte von der Performance her nichts zu lachen und müsste richtig deutlich unter die 200-Euro-Marke fallen, um wieder ein Geschäft machen zu können – dann allerdings mit der GeForce GTX 768MB als Kontrahenten. Die Radeon HD 5850 hat zwar immer noch – unübertaktet gemessen – ihren Performancevorsprung von 5 bis 15 Prozent gegenüber der GeForce GTX 460 1024MB, dies allerdings zu einem Preisaufschlag von 25 Prozent, welchen die Radeon HD 5850 zudem auch noch – psychologisch ungünstig – nahe an die 300-Euro-Marke heranrückt.
5850 zu teuer, 5830 zu schwach. Die HD 5770 zu weit weg um überhaupt relevant zu sein in dem Preisbereich. Deswegen ist die Mittelklasse so wichtig: Der Markt von 200-250€ war damals der Mittelpunkt, dort musste man liefern. Das hat NV damals völlig richtig erkannt und mit den beiden GTX 460 Versionen den Markt komplett abgesteckt.
Ich bleibe dabei: Ein Halo Produkt das zumindest Parität mit NV aufweisen kann um Mindshare zu erzeugen und eine überzeugende Mittelklasse würden AMD sofort zu deutlich mehr Marktanteil verhelfen.

Akkarin
2020-01-06, 01:28:10
Cypress war genauso groß wie GF104. Das Problem war hier wohl eher AMDs Lieferschwierigkeiten und Preispolitik. Wenn überhaupt etwas fehlt dann war dass eine 500mm^2 Lösung mit 200W.

Zwischen 7770 und 7850 war tatsächlich ein Loch (wobei ich hier nur die 650Ti im loch sehe, was ist das zweite ?), aber nVidias Lineup war noch löchriger: Zwischen 650 und 650ti liegen auch fast 50%, zwischen 650ti und 660 ebenfalls. Die 650 ti boost kam erst ein halbes Jahr später, als es Bonaire auch schon gab.


Ich denke wir geben dir alle Recht dass Halo Produkte wichtig sind und dass GCN nach einem sehr guten Launch-Lineup Schwierigkeiten hatte das komplette Lineup aktuell zu halten.

Aber die HD5000 und HD7000 waren extrem gute, sehr runde Lineups, wie es sehr selten passiert, egal ob grün oder rot. Geradie diese als Beispiel aufzuführen ist recht Absurd. Sie zeigen eher welche Marktmacht und Werbefähigkeit nVidia hat. Seit G80/R600 scheint irgendwie ein Hebel umgelegt worden zu sein bei der sich nVidia einfach besser verkauft obwohl AMD ein genauso gutes oder besseres Lineup hat. Denn richtig davon gezogen ist nVidia erst mit Maxwell.

edit: Rückblickend war Tahiti doch ein gutes Stück besser, wenn auch größer, als GK104. Gebracht hats natürlich trotzdem nichts weil beim Launch die 680 deutlich näher dran war.

Complicated
2020-01-06, 11:40:55
Also das ist ja lächerlich. Du sagst Juniper war ein Fail - die HD 5770 war eine 140,.- € Karte (als Custom!) - dann erzählst du die GTX 460 hat alles rasiert in diesem Bereich - 9 Monate später und über 200,- €? Und welche von den 4 Versionen soll das gewesen sein, die zwischen Juli 2010 und September 2011 erschienen sind? Und wozu musste eine Rev. 2 mit GF114 erscheinen (2 Jahre nach Juniper) wenn die GPU so ein Hammer war?
Zumal die ganze GTX 4xx Fermi Serie mit seinem x64-Faktor Tesselation-Beschiss glänzen konnte. In Reviews der Brüller und in der Realität nur blödsinnig, was die Software-Entwickler da mit gemacht hatten.

Also Nvidia hat unbestritten ein gutes Marketing und Verkaufszahlen - nur dadurch werden gute AMD-Produkte nicht schlechter. Das Argument weil "die" sich gut verkaufen war "dort" eine schlechte GPU am Start ist wirklich reines Fanboy-Gequatsche. Mich wundert, dass du dir das zu eigen machst.

HOT
2020-01-06, 12:37:53
Die 5000er-Serie war von oben bis unten super. Die 6000er dann nicht mehr.
Erst dieser Unsinn mit dem Barts-Chip und den ganzen Refreshes und dann den eingedampften Cayman, der eigentlich 32nm werden sollte.

mironicus
2020-01-06, 12:44:21
Aus dem Grund hat AMD wahrscheinlich Navi 10 auch als "Radeon 5700" veröffentlicht, weil die 5000er-Reihe in der Vergangenheit besonders positiv in Erinnerung geblieben ist.

basix
2020-01-06, 12:47:20
Die HD5770 war sogar der 40nm Pipe Cleaner ;)

Complicated
2020-01-06, 13:32:57
Nein, der Pipecleaner für 40nm war RV740 aka HD 4770. (https://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie#Grafikprozessoren)

Ein phantastischer Artikel mit tollen Einblicken von Anandtech zu dieser Generation kann hier gefunden werden: https://www.anandtech.com/show/2937

HOT
2020-01-06, 13:45:37
AMD/ATI hatte in paar wirklich gute Lineups:
- X850-X300
- X1950-X1300 (war nur zu spät)
- HD5870-HD5450
- R9 290X-R5 240

Dazwischen war eben oft Patchwork, Refreshes und auch ein paar Fails, aber auch ein Knaller, der R300.

Man könnte 2021 sowas wie die 200er-Serie packen. N21-23 dieses Jahr, neues Mainsteam in 2021. N1x würd ich da gar nicht hinzuzählen.
Bin mal gespannt, was es heut um 23:00 zu hören gibt. Sicherlich wieder keine direkten Infos zu den Chips, aber vllt. gibts Details zur nächsten RDNA-Auskopplung.

Lehdro
2020-01-06, 15:08:13
Letztes mal zu dem Thema OT:
Also das ist ja lächerlich. Du sagst Juniper war ein Fail - die HD 5770 war eine 140,.- € Karte (als Custom!) - dann erzählst du die GTX 460 hat alles rasiert in diesem Bereich - 9 Monate später und über 200,- €?
Die GTX 460 768 war für weit unter 200€ ab Launch erhältlich: (https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-460/zum-launch-der-geforce-gtx-460-nachtraege)
Den "Braten wirklich fett" machen allerdings die im Laufe des Montags dann eingetrudelten Händlerlistungen, welche die Vorlaunch-Preise dann doch nochmal klar unterboten haben: So ist die GeForce GTX 460 768MB mit default-Taktraten schon ab 185 Euro zu bekommen
NV hat AMD im 200 € Bereich einfach überrollt mit mehr Leistung zum selben Preis. Wie gesagt: 5830 zu schwach für den Preis, 5850 etwas zu teuer aber Leistung ok und die HD 5770 völlig andere Kategorie von der Leistung her. 50% zwischen 5770 und 5850, dazwischen später eine HD 5830 die nicht Fisch und nicht Fleisch (zu schwach, zu teuer) war: Scheunentor offen für die GTX 460 Varianten und freie Fahrt im 200€ Bereich.

Und welche von den 4 Versionen soll das gewesen sein, die zwischen Juli 2010 und September 2011 erschienen sind? Und wozu musste eine Rev. 2 mit GF114 erscheinen (2 Jahre nach Juniper) wenn die GPU so ein Hammer war?
Du konntest ein GTX 460 einfach übertakten und hattest quasi einen GF114 bzw sogar eine HD 5850 - oder du hast damals eine OC Custom gekauft die dann locker 20% draufpacken konnte (https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-460/zum-launch-der-geforce-gtx-460-nachtraege). Dass AMD das immer noch nicht wirklich gekontert bekommen hat ist doch "nett" für NV, da reichte der "einfache Respin" halt auch noch aus um komplett neue GPUs zu kontern (https://www.computerbase.de/2011-01/test-nvidia-geforce-gtx-560-ti-sli/31/). Und das obwohl Fermi danach immer noch so seine Probleme mit der Effizienz hatte.

Das Argument weil "die" sich gut verkaufen war "dort" eine schlechte GPU am Start ist wirklich reines Fanboy-Gequatsche. Mich wundert, dass du dir das zu eigen machst.
Ich redete nicht von "schlecht" per se, sondern ungeeignet um den 200€ Markt zu beherrschen. Das siehst du an den Reviews damals sehr deutlich (1 (https://www.computerbase.de/2009-10/test-ati-radeon-hd-5770-crossfire/25/#abschnitt_fazit), 2 (https://www.anandtech.com/show/2856/14), 3 (https://www.tomshardware.com/reviews/radeon-hd-5770,2446-17.html), 4 (https://www.techpowerup.com/review/his-hd-5770/34.html), 5 (https://www.techspot.com/review/209-ati-radeon-hd-5770/page13.html)) schau sie dir einfach mal an: Überall wird die fehlende Leistung kritisiert weil man sich teilweise nicht mal von der HD 4870 absetzen kann. Das ist eben keine irgendwie komplett ungewöhnliche Ansicht des AMD Lineups von damals meinerseits, sondern einfach dem Fakt geschuldet dass das sonst sehr gute Lineup bei 200€ die größten Schwächen hatte - die NV dann sogar noch Monate später ohne Gegenwehr füllen durfte, wie du selber bemerkt hast. Das kann man dann durchaus AMD vorhalten dass die richtige Mittelklasse entweder zu schwach von der Leistung her war, oder einfach ein Stück zu teuer. Es nützt nichts wenn man bis 150€ super Karten hat und dann ab ca. 300€ wieder tolle Angebote, wenn doch der Großteil der User auf die 200-250€ Mittelklasse schielte.

Complicated
2020-01-06, 15:15:08
Aus der Juniper-Kritik wird jetzt Fermi Lobhuddelei ohne jeglichen Kontext zwischen den beiden GPU-Modellen. Fast 1 Jahr zwischen Release und 30% Preisunterschied.
patzt absolut bei der Mittelklasse (Hallo @ Juniper & Cape Verde)
Da wirkt deine GTX 460 sehr an den Haaren herbei gezogen und deine weitere Argumentation nur noch wie zurückrudern und Nebelkerzen. Juniper war eines der besten AMD-Produkte im GPU-Segment der letzten 10 Jahre. Ganz besonders für das Mittelklasse-Segment.

basix
2020-01-06, 15:41:18
Nein, der Pipecleaner für 40nm war RV740 aka HD 4770. (https://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie#Grafikprozessoren)

Ah stimmt, meine Erinnerung hat mich getrügt :)

Brillus
2020-01-06, 16:17:39
AMD/ATI hatte in paar wirklich gute Lineups:
- X850-X300
- X1950-X1300 (war nur zu spät)
- HD5870-HD5450
- R9 290X-R5 240

Dazwischen war eben oft Patchwork, Refreshes und auch ein paar Fails, aber auch ein Knaller, der R300.

Man könnte 2021 sowas wie die 200er-Serie packen. N21-23 dieses Jahr, neues Mainsteam in 2021. N1x würd ich da gar nicht hinzuzählen.
Bin mal gespannt, was es heut um 23:00 zu hören gibt. Sicherlich wieder keine direkten Infos zu den Chips, aber vllt. gibts Details zur nächsten RDNA-Auskopplung.

Weiß man ob und we es einen stream dazu geben soll?

basix
2020-01-06, 16:25:45
Auf dem AMD Youtube Channel:
https://www.youtube.com/user/amd/

Info dazu:
https://wccftech.com/watch-amd-ces-2020-keynote-live-stream-here/

Brillus
2020-01-06, 16:59:53
Auf dem AMD Youtube Channel:
https://www.youtube.com/user/amd/

Info dazu:
https://wccftech.com/watch-amd-ces-2020-keynote-live-stream-here/
Danke

BoMbY
2020-01-06, 17:10:05
Ehh der Direktlink ist doch schon bekannt aus AMD's Presseerklärung?

https://youtu.be/zUeo7kUzn_8

Lehdro
2020-01-06, 17:16:17
Weiß man ob und we es einen stream dazu geben soll?
zUeo7kUzn_8

Odal
2020-01-06, 23:28:16
wtf 280$ für den Speicherkrüppel 5600XT

HOT
2020-01-06, 23:39:23
Na ja, ne 1660Ti ist ebenfalls so teuer, nur langsamer. Aber das sind eben beides Speicherkrüppel. Die 5600er sind eine Zweckeentfremdung eines für Mobile optimierten Chips.

Brillus
2020-01-06, 23:52:21
Der Dell hört sich schon mal ganz interesant an für meinen nächsten Laptop.

dildo4u
2020-01-06, 23:52:36
Die TI macht kein Sinn mehr die 1660 Super ist billiger und fast genau so schnell.

Odal
2020-01-06, 23:52:56
Na ja, ne 1660Ti ist ebenfalls so teuer, nur langsamer. Aber das sind eben beides Speicherkrüppel. Die 5600er sind eine Zweckeentfremdung eines für Mobile optimierten Chips.


wenns wenigstens RDNA2 wäre oder sonst irgendwie herausragend (z.B. Perf/Watt)

aber so ist das einfach nur bitter das da nix kam bzgl. GPUs (nicht mal ein sneak seek auf Konsolen raytracing)

Einfach nur bitter AMD und GPUs

Grendizer
2020-01-06, 23:53:33
Die 1660 Ti ist jetzt aber auch schon 11 Monate alt. Etwas ernüchternd.

horn 12
2020-01-06, 23:55:00
Ja, enttäuschend Hoch ³
Muss es echt die 5700XT werden, Scheiss abgerauchte Radeon VII

Complicated
2020-01-06, 23:55:01
Sind Mainstream GPUs doch immer. Da gibt es eine die drüber ist und eine die drunter ist, nur was den Verbrauch angeht bin ich mal gespannt mit den Taktraten - da sollte die Karte gut unterwegs sein.

Linmoum
2020-01-06, 23:55:11
Die 5600 ist nix weiter als eine zweckentfremdete Mobile-GPU. Kann man problemlos auch in den Desktop werfen, weil die Leistung trotzdem passt und hat so eine Lücke ohne weiteren großen Aufwand geschlossen.

Wer hier von irgendwas enttäuscht ist, sollte mal ganz doll in sich gehen. Gerade dieses unsägliche "BIG navi!!!"-Gesülze.

Grendizer
2020-01-06, 23:57:31
Ja, das mag so sein, aber das zeigt irgendwie auch, das AMD bei den Grafikkarten nicht so richtig vom Fleck kommt. Wenigstens mal einen Ausblick Richtung 4K Karte hätte man ja mal geben können. Aber es wurde ja noch nichtmals irgendwelche Überraschungen für das Jahr angekündigt (oder ich hab es überhört)

DrFreaK666
2020-01-06, 23:58:47
Ich denke mal mehr Infos gibt's zur E3

Dino-Fossil
2020-01-06, 23:59:01
Bin mal auf Tests (und Straßenpreise) der 5600XT gespannt, aber es scheint fast, als ob die 5700 eine sinnvollere Investition darstellt, wenn einem die 5500XT zu lahm, die 5700XT aber zu teuer und durstig ist.

Die 4000er APUs sehen allerdings sehr interessant aus. Mein Laptop ist inzwischen wirklich etwas angestaubt... :D

Daredevil
2020-01-06, 23:59:41
Ich bin sehr enttäuscht von AMD, das sie die 4K Gamer im Stich lassen, kann es aber durchaus verstehen, dass sie sich erstmal Intel vorknöpften und darauf erstmal fokussieren.

Da haste halt nen 4K Screen mit Freesync und keine passende GPU dazu. :(

HOT
2020-01-07, 00:00:07
Na ja, es war ja eh nicht zu erwarten, dass so ein Chip im 1.HJ erscheint. Ich würd mal davon ausgehen, dass wir uns bis ca. September gedulden müssen. Wenn der wirklich erst im Oktober Tapeout hatte, kommt N21 mMn zusammen mit Vermeer und wird sicherlich der Start eines kompletten RDNA2-Lineups in N7+ und N5 sein.

TheGood
2020-01-07, 00:01:11
Ja, das mag so sein, aber das zeigt irgendwie auch, das AMD bei den Grafikkarten nicht so richtig vom Fleck kommt. Wenigstens mal einen Ausblick Richtung 4K Karte hätte man ja mal geben können. Aber es wurde ja noch nichtmals irgendwelche Überraschungen für das Jahr angekündigt (oder ich hab es überhört)

Warum sollten oder müssen Sie es ? Die Konkurrenz macht es genausowenig. Das Gesülze von "der Herausforderer muss mehr liefern" kann ich auch nicht hören.

Klar hätte jeder mehr Informationen gewollt, aber dann muss man sich halt weiter gedulden. DAs ist wohl das Problem der meisten hier ;)

Linmoum
2020-01-07, 00:01:29
Ich bin sehr enttäuscht von AMD, das sie die 4K Gamer im Stich lassen, kann es aber durchaus verstehen, dass sie sich erstmal Intel vorknöpften und darauf erstmal fokussieren.

Da haste halt nen 4K Screen mit Freesync und keine passende GPU dazu. :(AMD beeinflusst ja nicht deine Kaufentscheidung. Dass vor dem 2. HJ nichts kommen wird, ist ja nun wahrlich nicht erst seit gestern ein offenes Geheimnis. ;) Davon ab ist man mit FreeSync ja nicht an einen Vendor gekoppelt.

Das hat auch nichts mit Intel vorknöpfen zu tun, die Produkte sind schlicht noch nicht marktreif. Auch deswegen, weil RDNA2 auf 7nm+ setzen wird.

Dino-Fossil
2020-01-07, 00:02:16
Denke auch, dass man nicht wirklich mit Big Navi/RDNA2 auf der CES rechnen konnte.
Bisher hat eigentlich alles auf eine Vorstellung später im Jahr hingewiesen.

Brillus
2020-01-07, 00:03:31
150 Watt TPD nach AnandTech.

https://www.anandtech.com/show/15298/amd-announces-radeon-rx-5600-series-a-lighter-navi

Edit: Und Navi10 also nichts Navi12

Daredevil
2020-01-07, 00:05:42
Denke auch, dass man nicht wirklich mit Big Navi/RDNA2 auf der CES rechnen konnte.
Bisher hat eigentlich alles auf eine Vorstellung später im Jahr hingewiesen.
Mit ner kaufbaren 7nm Vega im Februar 19 hat auch niemand gerechnet und AMD hat damit die Foren geflutet.

Lisa hat am Anfang gesagt, es gibt mehr Performance für Gamer.
Irgendwie sehe ich die nicht. Aber nun gut.

horn 12
2020-01-07, 00:07:50
Und ich stehe mit meiner Defekten Radeon VII nun Alleine im Wald :-(

Eine 8GB Karte wollte ich nimmer kaufen,- und muss es nun fast Zwingend!
Bis Herbst ausharren will ich nicht!

dildo4u
2020-01-07, 00:09:52
Der Hauptpunkt der Präsentation war Intels letzten Markt wegzunehmen, Millionen Notebooks sind massiv wichtiger als ein paar Tausend 700€ GPUs zu verkaufen.

DrFreaK666
2020-01-07, 00:13:30
Und ich stehe mit meiner Defekten Radeon VII nun Alleine im Wald :-(

Eine 8GB Karte wollte ich nimmer kaufen,- und muss es nun fast Zwingend!
Bis Herbst ausharren will ich nicht!

Augen öffnen??
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-VII-Aktiv-PCIe-3-0-x16--Retail-_1296273.html

Oder eine RX570 holen und damit bis zur nächsten Generation auskommen

Linmoum
2020-01-07, 00:14:19
Lisa hat am Anfang gesagt, es gibt mehr Performance für Gamer.
Irgendwie sehe ich die nicht. Aber nun gut.Dann musst du nochmal die Keynote schauen. ;) Ich seh da dank Renoir deutlich mehr Performance im Mobile-Segment, die man demnächst als Gamer bekommt.

Und ja, viele mögen es nicht glauben, aber auch mit/auf solchen Produkten wird (sehr) viel gezockt.

zucee
2020-01-07, 00:20:18
Mal schauen wie sich die 5600 XT tweaken lässt. Bis zu 25% mehr Leistung als eine 1660 Super, die aber 50 Euro günstiger ist. Hmmm.

nordic_pegasus
2020-01-07, 00:21:21
die Folien mit 1080p, ultimate 1080p und 1440p haben trotzdem auf mehr hoffen lassen. AMD tut derzeit so, als ob die Auflösungen bei 1440p aufhören.

Bei den CPUs hauen die ein Monster nach dem anderen raus, da ist die Abstinenz im High-End Grafik-Bereich echt schmerzend...

DrFreaK666
2020-01-07, 00:22:58
die Folien mit 1080p, ultimate 1080p und 1440p haben trotzdem auf mehr hoffen lassen. AMD tut derzeit so, als ob die Auflösungen bei 1440p aufhören.

Bei den CPUs hauen die ein Monster nach dem anderen raus, da ist die Abstinenz im High-End Grafik-Bereich echt schmerzend...

Wenn sie nichts vorzuweisen haben, dann zeigen sie natürlich auch nichts

Linmoum
2020-01-07, 00:24:29
Sie könnten bestimmt irgendwas zeigen. Aber wenn die Produkte dann eh erst im September kommen, ist das doch witzlos.

DrFreaK666
2020-01-07, 00:30:44
Sie könnten eine leere Hülle zeigen :D

Daredevil
2020-01-07, 00:34:13
Und ja, viele mögen es nicht glauben, aber auch mit/auf solchen Produkten wird (sehr) viel gezockt.
Ach was, wirklich? Hätte ich gar nicht gedacht.

Blediator16
2020-01-07, 01:57:57
Zum Glück teasert AMD nicht mehr viele Monate vor launch. Das macht Intel nun bereits gut genug.

Effe
2020-01-07, 05:03:08
Zum Glück teasert AMD nicht mehr viele Monate vor launch. Das macht Intel nun bereits gut genug.

Lautsprecher Koduri arbeitet eben inzwischen dort. Der hatte den Mund immer recht voll genommen.

dargo
2020-01-07, 08:35:50
Da haste halt nen 4K Screen mit Freesync und keine passende GPU dazu. :(
Falschen Monitor gekauft. :weg:

disap.ed
2020-01-07, 08:38:43
Denkt ihr kommt noch eine 5600 non-XT?
Bspw. mit nur 32 aktivierten CUs und ähnlichem Takt mit identer Speicherausstattung wie die XT?
Wäre für den Bereich zwischen 200 und 250€ denke ich ganz interessant.

Grendizer
2020-01-07, 08:46:40
Falschen Monitor gekauft. :weg:


Ich habe hier 4 Monitore dran. 4K für Bild/Videobearbeitung, 2x 1920x1200 fürs Office und eigentlich einen 27 Zoll WQHD zum zocken. Man glaubt gar nicht, was es manchmal für Probleme gibt, Spiele ohne Rand auf dem richtigen Monitor zu bekommen. Oder wie bescheuert Windows manchmal reagiert, wenn man einen Monitor aus hat und trotzdem Fenster darauf geöffnet werden usw.

Leonidas
2020-01-07, 08:55:01
Denkt ihr kommt noch eine 5600 non-XT?
Bspw. mit nur 32 aktivierten CUs und ähnlichem Takt mit identer Speicherausstattung wie die XT?


Wird es in exakt dieser Ausführung für OEMs geben (Radeon RX 5600 OEM mit 32 CU).

dildo4u
2020-01-07, 08:57:43
Bin auf Tests gespannt ich finde den TDP hoch für 1.375Ghz.

Linmoum
2020-01-07, 09:23:09
TBP, nicht TDP. Davon ab auch irrelevant bei welchem Takt, wenn die Leistung stimmt. Wenn AMDs Benchmarks halbwegs hinhauen, dann landet die Karte immerhin grob zwischen Vega56/64.

][immy
2020-01-07, 09:27:43
Bin auf Tests gespannt ich finde den TDP hoch für 1.375Ghz.
hat eventuell was mit der Selektion zu tun. Jeder Chip der gut genug ist, wird wohl als RX5700er verwendet. RX5600xt ist dann nur noch Resteverwertung. Ist ja mehr oder minder auch der volle RX5700er Chip (abzüglich TMUs, ... usw).

dildo4u
2020-01-07, 09:31:04
Ja stimmt sie spielen ja jetzt im Mobile Bereich ich hoffe sie haben die Sahnestücke für 5600m.

robbitop
2020-01-07, 09:39:16
Ich finde die 5600 nicht enttäuschend. Sie ist in AMDs Situation ein logisches Produkt. Sie füllt die Lücke zwischen 5500 und 5700 und erhöht etwas die Ausbeute von Navi10, da die Anforderungen nicht ganz so hoch sind wie bei der 5700.
Man bekommt eine mobile GPU (in dem Bereich fehlte es bei AMD doch deutlich). Jetzt fehlt eigentlich nur eine Highend GPU - die ist aber vom Umsatz her ziemlich irrelevant - bringt potenziell einen Haloeffekt, der auf den Rest des Lineups wirkt - aber dafür muss man den Wettbewerber Topdog deutlich schlagen, ansonsten geht es nach hinten los. Mit den letzten High End Karten hat AMD schlechte Erfahrungen gemacht (da man NV nicht schlagen konnte). Fijii und Vega waren beides leider ziemliche Flops (Anteil an Gewinn vom Gesamtgewinn des Unternehmens).
Ich bin mir relativ sicher, dass AMD soetwas noch bringen wird - aber erst wenn man sich genug "erholt" hat und sicher ist, dass er einschlägt.

Im Moment hat AMD IIRC 15.000 Wafer pro Monat. Eine große GPU kostet da schnell richtig Wafer. Im Gegenzug hat man den gewinnträchtigen Epyc.
Im zweiten Halbjahr verdoppelt sich die Kapazität für AMD. Aber da kommen dann auch die Nextgen Konsolen mit wohl monolitischen dies. Gerade der Xbox Die sollte nicht gerade klein sein (56 CUs -> sicherlich noch +4 deaktivierte für Redundanz).

Die 5600 scheint ein Produkt mit besserem P/L zu sein als die 1660. Ist für sicherlich wesentlich mehr Leute interessant als es eine 5900 wäre. Wir sind in diesem Forum in einer "Elite HW Blase".

Wenn die Gerüchte stimmen, sollte dieses Jahr noch ein großer Navi kommen. Mal schauen.
AMD muss erstmal die Pflicht liefern - die Küe kommt eben später. Und man muss dieses "Erholen" etwas längerfristiger sehen in unserer Filterblase. AMD macht im Moment vieles richtig um möglichst viel Geld einzusammeln und erhöht auch wieder R&D Budgets und stellt Leute ein. Das bedeutet, dass damit die Wahrscheinlichkeit steigt, dass sie mittelfristig wieder voll Konkurrenzfähig sind. Bedeutet mittelfristig mehr Wettbewerb und somit besseres P/L.
Ein kurzfristiger Schuss auf das Highend bringt ihnen dort im Moment nichts. Sie schauen, dass sie mit dem was sie haben möglichst viel erreichen. In den relevantesten Marktsegmenten.

disap.ed
2020-01-07, 09:41:37
Wird es in exakt dieser Ausführung für OEMs geben (Radeon RX 5600 OEM mit 32 CU).

Danke, hoffe da kommt noch was, wäre für FHD eine interessante Karte als Alternative zur RX 5500 XT.

Odal
2020-01-07, 11:00:06
Mit den letzten High End Karten hat AMD schlechte Erfahrungen gemacht (da man NV nicht schlagen konnte). Fijii und Vega waren beides leider ziemliche Flops (Anteil an Gewinn vom Gesamtgewinn des Unternehmens).
Ich bin mir relativ sicher, dass AMD soetwas noch bringen wird - aber erst wenn man sich genug "erholt" hat und sicher ist, dass er einschlägt.
...
Die 5600 scheint ein Produkt mit besserem P/L zu sein als die 1660. Ist für sicherlich wesentlich mehr Leute interessant als es eine 5900 wäre. Wir sind in diesem Forum in einer "Elite HW Blase".

Wenn die Gerüchte stimmen, sollte dieses Jahr noch ein großer Navi kommen. Mal schauen.
AMD muss erstmal die Pflicht liefern - die Küe kommt eben später.

Das Problem ist doch aber das der "Big Navi" im Herbst mit der 3060 oder bestenfalls 3070 konkuriert und bestenfalls noch 5700XT Nachfolger sein kann. Wenn nvidia in 7nm kommt dann brauchen die schonmal deutlich mehr als navi10 jetzt um überhaupt noch im Performance Segment mitzuspielen und nicht komplett ins lowend abzurutschen.

Es sei denn nvidia schiebt die Karten wieder eine Ebene höher und 2080 Nachfolger wird Titan und Titan wird super duper extreme :rolleyes: dann gibts den 1050 Nachfolger für 350-400€

Linmoum
2020-01-07, 11:50:39
Das Problem ist doch aber das der "Big Navi" im Herbst mit der 3060 oder bestenfalls 3070 konkuriert und bestenfalls noch 5700XT Nachfolger sein kann. Wenn nvidia in 7nm kommt dann brauchen die schonmal deutlich mehr als navi10 jetzt um überhaupt noch im Performance Segment mitzuspielen und nicht komplett ins lowend abzurutschen.Wie kommst du auf 3060 und 3070?

Nvidias Schema ist doch mittlerweile grob bekannt. xx104 (Neue Gen) = xx102 (Vorgänger).

Eine 3080 also etwas oberhalb der 2080Ti, bei der 3070 und 3060 dann entsprechend 2070S/2080(S) respektive 2060S/2070. Und eine 5700XT ist jetzt nicht so weit von einer 2080(S) entfernt.

Ich wäre diesmal allerdings hinsichtlich der Die Size vorsichtig wenn man sieht, wie riesig Turing ist. Sowas würde die Kosten mit 7nm(+) nochmal explodieren lassen.

ChaosTM
2020-01-07, 12:19:49
Um die netten Margen halten zu können und damit auch den Kurs wird die nächste Gen wohl gegen 1500 tendieren.. beim Flagschiff.
Wann kommt jetzt eigentlich der "große" Navi ?

dildo4u
2020-01-07, 12:21:26
Mit RDNA2 im Herbst du hättest nur den absoluten AMD Fanatikern eine High-End GPU ohne Raytracing verkaufen können.

Linmoum
2020-01-07, 12:25:52
Mit RDNA2 im Herbst du hättest nur den absoluten AMD Fanatikern eine High-End GPU ohne Raytracing verkaufen können.Was Unfug ist. Eine GPU mit genug UHD-Performance würde sich heute auch ohne RT mehr als gut verkaufen. Du glaubst doch selbst nicht, dass die Leute, die in UHD zocken und sich eine 2080Ti kaufen, das wegen RT tun. Das ist mit der Auflösung völlig nutzlos.

aufkrawall
2020-01-07, 12:31:43
Die dürfte mit popeligen 12GB aber auch nicht zu teuer sein und sollte besser 16 haben, inkls. guter, lieferbarer Customs. Ein halbgares Produkt ohne Vorteile kann man gegen Nvidia gleich sein lassen.

dildo4u
2020-01-07, 12:33:35
Die Konsolen werden es für 500€ für das ganze System haben was dazu führt das Entwickler Effekte entwickeln werden,die Problemlos auf Midrange GPUs laufen.
Aber es gibt hier auch Leute die hier Vega 7 gekauft haben nicht Jeder ist Rational das stimmt.

https://live.staticflickr.com/65535/49344727816_e9043203aa_c.jpg (https://flic.kr/p/2ibqCrf)wolfenstein-youngblood-nvidia-dlss-performance-2560x1440 (https://flic.kr/p/2ibqCrf) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.nvidia.com/en-us/geforce/news/wolfenstein-youngblood-ray-tracing-nvidia-dlss-highlights/

Bucklew
2020-01-07, 12:36:10
Was Unfug ist. Eine GPU mit genug UHD-Performance würde sich heute auch ohne RT mehr als gut verkaufen. Du glaubst doch selbst nicht, dass die Leute, die in UHD zocken und sich eine 2080Ti kaufen, das wegen RT tun.
Wenn zwei Karte nahezu identisch sind und identisch kosten, nimmt man natürlich die Karte mit dem Zusatz-Feature. Völlig logisch.

Den Navi-Launch hat NVIDIA sehr gut gekontert mit der SUPER-Reihe. Offensichtlich ist RT sehr wohl ein Argument, egal wie lange ein gewisser Kreis das abstreitet und dagegen wettert.

Linmoum
2020-01-07, 12:37:59
Wenn zwei Karte nahezu identisch sind und identisch kosten, nimmt man natürlich die Karte mit dem Zusatz-Feature. Völlig logisch.
Und wenn es morgen regnet wird der Boden nass.

Bucklew
2020-01-07, 12:38:58
Und wenn es morgen regnet wird der Boden nass.
Schön, dass du es einsiehst :redface:

Linmoum
2020-01-07, 12:40:16
Dein Satz wird schon durch die Radeon VII obsolet. Ebenfalls kein RT und es existiert eine 2080, trotzdem gibt es genug Leute, die zu ersterer gegriffen haben. Also ja, natürlich "völlig logisch". Nicht.

robbitop
2020-01-07, 12:42:41
Das Problem ist doch aber das der "Big Navi" im Herbst mit der 3060 oder bestenfalls 3070 konkuriert und bestenfalls noch 5700XT Nachfolger sein kann. Wenn nvidia in 7nm kommt dann brauchen die schonmal deutlich mehr als navi10 jetzt um überhaupt noch im Performance Segment mitzuspielen und nicht komplett ins lowend abzurutschen.

Es sei denn nvidia schiebt die Karten wieder eine Ebene höher und 2080 Nachfolger wird Titan und Titan wird super duper extreme :rolleyes: dann gibts den 1050 Nachfolger für 350-400€

Ja das muss AMD berücksichtigen. Ein Topdog der nur gegen den lastgen Topdog des Wettbewerbers reicht, releast man besser nicht.

Bucklew
2020-01-07, 12:43:54
Dein Satz wird schon durch die Radeon VII obsolet. Ebenfalls kein RT und es existiert eine 2080, trotzdem gibt es genug Leute, die zu ersterer gegriffen haben.
Und wer hat das getan, außer absoluten AMD-Fanboys oder Leute, die die Karte für kleine Nischen-Anwendungen nutzen?

Komisch, niemand.

dildo4u
2020-01-07, 12:46:19
Das ganze wird eh nicht zwei mal klappen auch diese Kunden werden geheilt sein.

HOT
2020-01-07, 12:47:22
Klar releast man den, bleibt ja nix anderes übrig. Aber das ist sicherlich auch nicht so. Da ist mehr als 1 Jahr Entwicklung in RDNA2 seit RDNA1 geflossen, das müsste ja schon mit dem Teufel zu gehen, wenn es da keinen Perf/W-Fortschritt gäbe. Das ist einfach auch ein großer Architekturfortschritt. Zudem wird N21 sicherlich nur die High-End-Variante, also der Gegner des neuen 104er. N23 soll der "NV-Killer" sein. Wichtig fänd ich nur, dass man da auch wirklich ein enthusiasts-Produkt bringt.

aufkrawall
2020-01-07, 12:48:28
Das ganze wird eh nicht zwei mal klappen auch diese Kunden werden geheilt sein.
Bei mindestens einem gehe ich vom Gegenteil aus. :ulol:

Linmoum
2020-01-07, 12:49:39
Ja, die werden so sehr geheilt sein, wie von der 970. Nämlich gar nicht. ;)

Bucklew
2020-01-07, 13:50:45
Da ist mehr als 1 Jahr Entwicklung in RDNA2 seit RDNA1 geflossen, das müsste ja schon mit dem Teufel zu gehen, wenn es da keinen Perf/W-Fortschritt gäbe.
Zum Glück gibt es Perf/W Fortschritte nur bei AMD ;D

HOT
2020-01-07, 14:02:41
Hab ich nicht gesagt. Aber diese Schwarzseherei ist dämlich.

dargo
2020-01-07, 14:41:43
Ich finde die 5600 nicht enttäuschend. Sie ist in AMDs Situation ein logisches Produkt. Sie füllt die Lücke zwischen 5500 und 5700 und erhöht etwas die Ausbeute von Navi10, da die Anforderungen nicht ganz so hoch sind wie bei der 5700.
Man bekommt eine mobile GPU (in dem Bereich fehlte es bei AMD doch deutlich). Jetzt fehlt eigentlich nur eine Highend GPU - die ist aber vom Umsatz her ziemlich irrelevant - bringt potenziell einen Haloeffekt, der auf den Rest des Lineups wirkt - aber dafür muss man den Wettbewerber Topdog deutlich schlagen, ansonsten geht es nach hinten los. Mit den letzten High End Karten hat AMD schlechte Erfahrungen gemacht (da man NV nicht schlagen konnte). Fijii und Vega waren beides leider ziemliche Flops (Anteil an Gewinn vom Gesamtgewinn des Unternehmens).
Ich bin mir relativ sicher, dass AMD soetwas noch bringen wird - aber erst wenn man sich genug "erholt" hat und sicher ist, dass er einschlägt.

Im Moment hat AMD IIRC 15.000 Wafer pro Monat. Eine große GPU kostet da schnell richtig Wafer. Im Gegenzug hat man den gewinnträchtigen Epyc.
Im zweiten Halbjahr verdoppelt sich die Kapazität für AMD. Aber da kommen dann auch die Nextgen Konsolen mit wohl monolitischen dies. Gerade der Xbox Die sollte nicht gerade klein sein (56 CUs -> sicherlich noch +4 deaktivierte für Redundanz).

Die 5600 scheint ein Produkt mit besserem P/L zu sein als die 1660. Ist für sicherlich wesentlich mehr Leute interessant als es eine 5900 wäre. Wir sind in diesem Forum in einer "Elite HW Blase".

Wenn die Gerüchte stimmen, sollte dieses Jahr noch ein großer Navi kommen. Mal schauen.
AMD muss erstmal die Pflicht liefern - die Küe kommt eben später. Und man muss dieses "Erholen" etwas längerfristiger sehen in unserer Filterblase. AMD macht im Moment vieles richtig um möglichst viel Geld einzusammeln und erhöht auch wieder R&D Budgets und stellt Leute ein. Das bedeutet, dass damit die Wahrscheinlichkeit steigt, dass sie mittelfristig wieder voll Konkurrenzfähig sind. Bedeutet mittelfristig mehr Wettbewerb und somit besseres P/L.
Ein kurzfristiger Schuss auf das Highend bringt ihnen dort im Moment nichts. Sie schauen, dass sie mit dem was sie haben möglichst viel erreichen. In den relevantesten Marktsegmenten.
Hmm... warst du vor zwei Tagen erst nicht anderer Meinung? :wink:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12183819&postcount=5840

Zudem wird N21 sicherlich nur die High-End-Variante, also der Gegner des neuen 104er. N23 soll der "NV-Killer" sein.
Das glaube ich erst wenn ich es sehe. Bei RDNA 1 war die Nummer mit Navi 14 auch höher als Navi 10. Trotzdem positioniert sich Navi 14 unterhalb Navi 10. Warum sollte das plötzlich bei RDNA 2 anders sein? Navi 23 könnte genau so der Nachfolger von Navi 10 sein. Eben halt als RDNA 2 Variante und um X% schneller.

Bucklew
2020-01-07, 14:58:32
Hab ich nicht gesagt. Aber diese Schwarzseherei ist dämlich.
Nun ja, AMD sollte halt erstmal liefern, bevor man sich einen NVIDIA-Killer herbei sehnt. Bisher haben sie nur aufgeholt, weder ein- noch überholt.

Daredevil
2020-01-07, 15:09:55
AMD traut sich, 280w 4000€ Prozessoren auf den Markt zu werfen, andernfalls wäre es aber verkehrt, wenn sie nun Richtung GPU HighEnd gehen, weil RDNA zu beschissen ist für 2080ti Leistung und eh alle nur 200€ Karten kaufen? :D
AMD traut sich hier einfach weniger, das muss auch der letzte AMD Fanboy einsehen. Mit der VII haben sie wenigstens noch Fanservice geliefert, jetzt liefern sie nur mobile und Konsolen Chips.
Ich verstehe nicht, wieso die Strategie so unterschiedlich ist. Ryzen ist wohl einfach das bessere Produkt.

Hakim
2020-01-07, 15:11:37
Ist es den custom Herstellern erlaubt 12gb drauf zu packen oder erlaubt es AMD nicht? Irgendwie eigenartig das der kleinere mit 8gb zu haben ist und der mit nur 6. Vor allem soll ja laut einigen Testern NVIDIA mit knappem Speicher dank besserem speichermangemant besser umgehen können, sprich die krüpel 1660er mit 6 gb hätten bei speicherknappheit Vorteile? Dazu aber erst mal die Tests abwarten

HOT
2020-01-07, 15:13:36
Nun ja, AMD sollte halt erstmal liefern, bevor man sich einen NVIDIA-Killer herbei sehnt. Bisher haben sie nur aufgeholt, weder ein- noch überholt.
Das sehe ich auch nicht. Muss aber auch nicht sein, so bleiben die Karten wenigstens halbwegs günstig. Ich hätte überhaupt gar kein Interesse daran, dass AMD NV plötzlich überrundet bei der Preistreiberei seit Pascal. Ist ja auch absolut nicht zu erwarten.
Ich erwarte eher, dass man immer noch halbwegs am Ball bleibt, sonst nix. Und klar, machen wir uns nichts vor, ein NV-Killer ist möglich, aber nur in N5. Das würde NV zwingen, die großen Chip ohne Einschränkungen auf den Markt zu bringen. Das wäre definitiv ein Fortschritt. Und das wird mMn Anfang 21 genau so kommen. Beide Hersteller bringen jetzt 2020/21 komplette Lineups auf den Markt, das war schon ewig nicht mehr so - ich empfinde das als Fortschritt. Es gibt keinen Grund für irgendwalches Bashing und Schwarzsehen.

dargo
2020-01-07, 15:16:20
AMD traut sich, 280w 4000€ Prozessoren auf den Markt zu werfen, andernfalls wäre es aber verkehrt, wenn sie nun Richtung GPU HighEnd gehen, weil RDNA zu beschissen ist für 2080ti Leistung und eh alle nur 200€ Karten kaufen? :D
AMD traut sich hier einfach weniger, das muss auch der letzte AMD Fanboy einsehen. Mit der VII haben sie wenigstens noch Fanservice geliefert, jetzt liefern sie nur mobile und Konsolen Chips.
Ich verstehe nicht, wieso die Strategie so unterschiedlich ist. Ryzen ist wohl einfach das bessere Produkt.
Du erkennst den Unterschied zwischen mehreren kleinen Chiplets und einem riesen großen Die in der Produktion nicht? Zudem steckt Intel aktuell in Schwierigkeiten, genau das gilt es bis zum geht nicht mehr auszunutzen. Was bringt AMD aktuell ein riesen großer Die bei der GPU wenn dieser nachher eh verscherbelt werden muss weil die meisten wieder zur Geforce greifen? Ich nenne sowas R&D Verschwendung. Die Nachfrage nach diesen ~4000€ CPUs scheint groß genug zu sein, sonst würde man das nicht bringen. Und dank dem Chiplet-Design ist das Risiko bzw. der Aufwand überschaubar.

Bucklew
2020-01-07, 15:18:59
so bleiben die Karten wenigstens halbwegs günstig. Ich hätte überhaupt gar kein Interesse daran, dass AMD NV plötzlich überrundet bei der Preistreiberei seit Pascal.
Mit der Radeon VII hat AMD NVIDIA mehr als überrundet. Die Navi-Karten mussten nicht ohne Grund noch schnell nach dem SUPER-Launch überhastet im Preis gesenkt werden - und selbst das hat den starken Anstieg der NVIDIA-Marktanteile nicht stoppen können.

Ich warte mal die nächsten Jahre CPU-Dominanz von AMD ab. Mal gucken, wie vielen da ihr "AMD ist so altruistisch und sorgt für niedrigere Preise" im Halse stecken bleibt :cool:

(Sagt ein Käufer der Athlon XP1800+. Nix günstig. AMD war eben vorne -> Wucherpreise)

Ein NV-Killer ist möglich, aber nur in N5.
Warum sollte nicht NV zuerst einen N5-Chip bringen?

HOT
2020-01-07, 15:23:51
Mit der Radeon VII hat AMD NVIDIA mehr als überrundet. Die Navi-Karten mussten nicht ohne Grund noch schnell nach dem SUPER-Launch überhastet im Preis gesenkt werden - und selbst das hat den starken Anstieg der NVIDIA-Marktanteile nicht stoppen können.

Ich warte mal die nächsten Jahre CPU-Dominanz von AMD ab. Mal gucken, wie vielen da ihr "AMD ist so altruistisch und sorgt für niedrigere Preise" im Halse stecken bleibt :cool:

(Sagt ein Käufer der Athlon XP1800+. Nix günstig. AMD war eben vorne -> Wucherpreise)


Warum sollte nicht NV zuerst einen N5-Chip bringen?
Ich redete von GPUs da wird man nicht überholen, ergo geht das über den Preis.

NV kommt jetzt in N7(x). Das hält 2 Jahre. NV kommt nicht in N5, Ende. Deren nächster Stop ist N5P oder N3.

Piefkee
2020-01-07, 15:28:16
NV kommt nicht in N5, Ende. Deren nächster Stop ist N5P oder N3.


Bullshit...Quelle oder gelabber

HOT
2020-01-07, 15:29:51
Bullshit...Quelle oder gelabber

Jup, bisherige Launchlogik. Schaus dir nochmal an, was NV bisher gemacht hat, dann wirst du sehen, dass ich recht habe. Das ist auch überhaupt nicht nötig bei NV, die sind und bleiben eh vorne.

Bucklew
2020-01-07, 15:32:03
Dieser Mickymausargumentation, wen interessiert denn die VII?
Die war doch von AMD? :ugly:

Und eine Grafikkarte. Passt genau in deine Beschreibung und straft die nun mal Lügen. :freak:

NV kommt jetzt in N7(x). Das hält 2 Jahre. NV kommt nicht in N5, Ende. Deren nächster Stop ist N5P oder N3.
Was von diesen HOT-Vorhersagen zu halten ist, wissen wir ja:
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt.
:lol:

Tatsächlicher Launch war 6-9 Monate vorher :ugly:

Jup, bisherige Launchlogik. Schaus dir nochmal an, was NV bisher gemacht hat, dann wirst du sehen, dass ich recht habe. Das ist auch überhaupt nicht nötig bei NV, die sind und bleiben eh vorne.
Wenn der Prozess einen ausreichend Vorteil bietet und sich lohnt, wird NVIDIA asap wechseln und AMD überholen (s. Pascal), wenn es sich nicht lohnt, dann eben nicht - siehe 7nm. Also entweder tritt AMD mit einem schlechten N5 an - dann werden sie aber auch Probleme haben in Sachen Perf/Watt mit der N7-Variante von NVIDIA mithalten zu können. Oder beide gehen auf N5.

Daredevil
2020-01-07, 15:32:05
Du erkennst den Unterschied zwischen mehreren kleinen Chiplets und einem riesen großen Die in der Produktion nicht?.
Hat Nvidia im letzten Dungeon ein -50% Risiko Amulett gefunden, oder wieso ist die Produktion von großen Chips nur bei AMD riskant, während Nvidia erfolgreich ihre 2080ti an den Mann bringt und ein —-riesiges Problem—- der 4K Community löst?
Das Problem ist sogar so groß, dass Apple zwei Vegas zusammenkleben muss, damit sie schnelle Hardware in ihrem Next Gen MacPro anbieten können. AMD versagt hier leider total, indem sie einen fick drauf geben und nichtmal auf der CES kurz was zeigen.

Wenn sich AMD nicht scheut, 4000€ CPUs anzubieten, weil Pro User das eben brauchen, sollte sich AMD auch nicht scheuen, 1000€ GPUs anzubieten, damit die ganzen 4K/120hz Freesync Monitore/Fernseher dieser Welt auch beliefert werden können. Ist ja nicht so, als müsste AMD noch groß Marktforschung betreiben, ob so ein Preis toxisch ist für manche, ihr Gegenspieler macht das ja schon.

maximus_hertus
2020-01-07, 15:37:01
Warum sollte nicht NV zuerst einen N5-Chip bringen?

Kann passieren, aber dank 7nm Ryzen ist AMD zu einem der größten Kunden bei TSMC aufgestiegen. Das wird wohl durchaus den ein oder anderen Vorteil bringen.

Auf der anderen Seite: Stand jetzt liegt nV brutal vorne. 12nm vs 7nm und die 12er haben ein besseres Performance / Watt Verhältnis. Da muss RDNA2 einiges verbessern.

Es bringt aber nichts schon jetzt die ein oder andere Seite hochzujubeln oder zu verteufeln bzw. in den Boden zu schreiben. Warten wir es ab. Der Sommer 2020 verspricht spannend zu werden.


Kleine Spitze ;) Auf dein

Zum Glück gibt es Perf/W Fortschritte nur bei AMD

Jo, 2019 war das der Fall, nur AMD bot Fortschritte :D Ok, bei nV ist gar nichts passiert, da gibt es halt nur noch alle 2 Jahre was neues ;)

HOT
2020-01-07, 15:37:16
Die war doch von AMD? :ugly:

Und eine Grafikkarte. Passt genau in deine Beschreibung und straft die nun mal Lügen. :freak:


Was von diesen HOT-Vorhersagen zu halten ist, wissen wir ja:

:lol:

Tatsächlicher Launch war 6-9 Monate vorher :ugly:


Wenn der Prozess einen ausreichend Vorteil bietet und sich lohnt, wird NVIDIA asap wechseln und AMD überholen (s. Pascal), wenn es sich nicht lohnt, dann eben nicht - siehe 7nm. Also entweder tritt AMD mit einem schlechten N5 an - dann werden sie aber auch Probleme haben in Sachen Perf/Watt mit der N7-Variante von NVIDIA mithalten zu können. Oder beide gehen auf N5.


Die VII ist ein Verlegenheitsprodukt gewesen, das ist sowas von Ausnahme, das zählt einfach nicht. Aber bitte, wenn du das meinst.
Und genau das ist das Problem. NV hat jetzt 7nm selber angekündigt über Jensen. Also gibts auch 7nm und nicht 5. AMD agiert aufgrund des Drucks von NV und auch der Möglichkeiten des CPU-Geschäfts völlig anders. Hier kann ein N5-Chip gut als Pipecleaner dienen, da AMD N5 sowieso macht. Es ist doch jetzt schon absehbar, wie das laufen wird. NV wird Mitte gestaffelt 2020 XX106, 104 und 102 bringen und wahrscheinlich ne Profivariante in N7P oder N7+. Die kleineren Produkte kommen dann sicherlich in N6 (welcher vor allem sehr kostengünstig, aber nicht leistungsfähiger sein soll). Du wirst es sehen. N5 ist außerhalb des Launchfensters von NV.

dargo
2020-01-07, 15:42:11
Hat Nvidia im letzten Dungeon ein -50% Risiko Amulett gefunden, oder wieso ist die Produktion von großen Chips nur bei AMD riskant, während Nvidia erfolgreich ihre 2080ti an den Mann bringt und ein —-riesiges Problem—- der 4K Community löst?

Hast du dir schon mal die finanziellen Mittel bei den beiden angeschaut? :freak: Wenn die "Kriegskasse" bei AMD entsprechend gefüllt ist (was hoffentlich dank Ryzen-Weiterentwicklungen passiert) kann man sich auch wieder was trauen zu riskieren. Noch ist es nicht so weit auf mehreren Hochzeiten in der Pole-Position zu tanzen.

Daredevil
2020-01-07, 15:45:19
Doch, genau jetzt ist der richtige Zeitpunkt zum Angriff, weil Nvidia eben noch nicht zum Zug kommt in nächster Zeit.
AMD hat in den ersten Minuten der Pressekonferenz gezeigt, wo sie überall Marktführer sind, warum hier also aufhören?

„Kriegskasse“ hat AMD genug, wenn du dir mal den Aktienkurs anschaust. Investitionen werden getroffen, um Erfolg zu schaffen.

Bucklew
2020-01-07, 15:48:17
Kann passieren, aber dank 7nm Ryzen ist AMD zu einem der größten Kunden bei TSMC aufgestiegen. Das wird wohl durchaus den ein oder anderen Vorteil bringen.
Ob TSMC es sich mit NVIDIA verscherzen will....?

Jo, 2019 war das der Fall, nur AMD bot Fortschritte
Aha, die GTX1660er Modelle zwischen Februar und April boten also keine P/W Fortschritte gegenüber den Vorgänger? Na, wenn du es sagst ;D

Die VII ist ein Verlegenheitsprodukt gewesen, das ist sowas von Ausnahme, das zählt einfach nicht.
ACH SO! Alle Modelle, die deine Behauptung widerlegen, die gelten einfach nicht? ;D ;D

Kein Wunder, dass du da auf deine HOT Phantasien kommst ;D

Du wirst es sehen. N5 ist außerhalb des Launchfensters von NV.
Keine Sorge, sollte N5 signifikante Vorteile bieten, wird NVIDIA natürlich auch diesen Fertigungsnode nutzen. Wenn er keine ausreichenden Vorteile bietet - wie eben aktuell 7nm - dann eben nicht.

dargo
2020-01-07, 15:49:36
Auf der anderen Seite: Stand jetzt liegt nV brutal vorne. 12nm vs 7nm und die 12er haben ein besseres Performance / Watt Verhältnis. Da muss RDNA2 einiges verbessern.

Nicht auf ganzer Linie. Die RX 5700 liegt leicht vor zwei Turings.
https://www.computerbase.de/2019-12/grafikkarten-testparcours-2020/3/#diagramm-performance-pro-watt-2560-1440

Mich würde es auch nicht überraschen wenn die kommende RX 5600XT bei Perf/W auch vor der RX 5700 landet. Einfach weil durch die niedrigeren Taktraten ein besserer Betriebspunkt gewählt wurde. Aber keine Frage... RDNA 2 sollte da nochmal gut was drauf legen.

Bucklew
2020-01-07, 15:52:11
Nicht auf ganzer Linie. Die RX 5700 liegt leicht vor zwei Turings.
Nur leider ist die direkte Konkurrenz vorne. Dein Vergleich ist also Bullshit.

Dino-Fossil
2020-01-07, 15:53:08
Doch, genau jetzt ist der richtige Zeitpunkt zum Angriff, weil Nvidia eben noch nicht zum Zug kommt in nächster Zeit.
AMD hat in den ersten Minuten der Pressekonferenz gezeigt, wo sie überall Marktführer sind, warum hier also aufhören?

Naja.
Man schüttelt sich neue GPUs nunmal nicht eben so aus dem Ärmel, ob man nun wieder (etwas mehr) Geld hat oder nicht. Sicher wäre es toll, wenn AMD jetzt einen nVidia 2080Ti Killer hätte, haben sie aber nicht.
Eine weitere halbgare Verlegenheitslösung bringt nichts und verschwendet nur unnötig Ressourcen.

AMD hat sich zunächst auf CPUs für Server und Desktop konzentriert, nun kommt offenbar Mobile und als nächstes wird vermutlich auch wieder die GPU-Sparte zum Zug kommen - erste Anzeichen gibt es ja in Form von Navi.

Daredevil
2020-01-07, 16:03:09
AMD muss auch gar keinen 2080ti Killer haben, jede andere Navi Karte ist ja auch kein Killer, hat aber trotzdem eine Daseinsberechtigung. Nicht technisch, aber rein durch den Preis um Nvidia ans Bein zu pinkeln. ( siehe Super Karten, Nvidia musste handeln )

HOT
2020-01-07, 16:06:02
[...]


ACH SO! Alle Modelle, die deine Behauptung widerlegen, die gelten einfach nicht? ;D ;D

Also das Modell ist jedenfalls kein echtes Modell sondern eine Zweckentfremdung.

Kein Wunder, dass du da auf deine HOT Phantasien kommst ;D

Hey, man erinnert sich dran. Du hast dir sogar die Mühe gemacht eines meiner Zitate aus dem Nirvana zu suchen, war sicher mit Arbeit verbunden. Find ich gut. Es bleibt also was hängen ;D. Übrigens fangen wir jetzt lieber nicht mit Volta an, das würde peinlich für dich.

Keine Sorge, sollte N5 signifikante Vorteile bieten, wird NVIDIA natürlich auch diesen Fertigungsnode nutzen. Wenn er keine ausreichenden Vorteile bietet - wie eben aktuell 7nm - dann eben nicht.
Die Vorteile sind bekannt und einigermaßen überschaubar. Es passt nicht zu deren Launchzyklus. Ich wiederhol das gern für dich noch 1000x.

Nur leider ist die direkte Konkurrenz vorne. Dein Vergleich ist also Bullshit.
Kleiner Schönheitsfehler: NV entschied sich für zusätzliche Int-Einheiten. Das rettet die Turing ein bisschen in der Energiebilanz. AMD verzichtet darauf und liefert stattdessen eine bessere Leistungsverwertung pro Flop.

Du bist so auf "AMD-Fanboys" fixiert, dass du das große Ganze nicht siehst. Es ist doch einfach gut so wie es ist, da hat doch jeder was von. Wenns auch bessere Produkte von AMD gibt, ist das auch gut für dich.

AMD muss auch gar keinen 2080ti Killer haben, jede andere Navi Karte ist ja auch kein Killer, hat aber trotzdem eine Daseinsberechtigung. Nicht technisch, aber rein durch den Preis um Nvidia ans Bein zu pinkeln. ( siehe Super Karten, Nvidia musste handeln )

Amen.

Dino-Fossil
2020-01-07, 16:06:23
Der Punkt ist, sie haben nunmal keine GPU oberhalb von Navi10 zur Verfügung, die sie aktuell vorstellen könnten oder wollen.
Und wenn ich mir das AMD GPU-Marketing der GCN-Spätzeit bis Vega ansehe, ist es wohl besser, sich zurückzuhalten, bis man etwas spruchreifes hat.

Bucklew
2020-01-07, 16:12:47
Also das Modell ist jedenfalls kein echtes Modell sondern eine Zweckentfremdung. Wenn du das nicht so siehst, bitte. Das Produkt sollte gar nicht viel verkauft werden, aber in der Bucklew-Welt sieht das eben anders aus.
Du könntest auch einfach zugeben Bullshit erzählt zu haben :rolleyes:

Hey, man erinnert sich dran. Du hast dir sogar die Mühe gemacht eines meiner Zitate aus dem Nirvana zu suchen, war sicher mit Arbeit verbunden. Find ich gut. Es bleibt also was hängen ;D.
Jupp, es bleibt hängen, was von deinen Vorhersagen zu halten ist. Nicht ohne Grund lacht dich das Forum für deine Vorhersagen aus :lol:

Übrigens fangen wir jetzt lieber nicht mit Volta an, das würde peinlich für dich. Und keine Sorge, ich mach mir jetzt keine Mühe, hab ich keinen Bock drauf.
HOT - Große Fresse, nix dahinter :up:

Die Vorteile sind bekannt und einigermaßen überschaubar. Es passt nicht zu deren Launchzyklus. Ich wiederhol das gern für dich noch 1000x.
Ob NVIDIA einen Fertigungsnode nutzt, hat nichts mit deren Launchzyklen zu tun. Im Gegenteil, deren Launchzyklen orientieren sich logischerweise an der Verfügbarkeit von Fertigungsnodes - anders wäre es auch gar nicht möglich.

Warum NVIDIA 7nm übersprungen hat, sehen wir doch. Warum sollte man sich die Arbeit machen?

Daher ist es auch unrealistisch, dass AMD den 7nm EUV vor NVIDIA nutzt. Wenn NVIDIA sich für einen Fertigungsnode entscheidet, dann kamen deren Modelle in den letzten Generationen vor AMD heraus.

Kleiner Schönheitsfehler: NV entschied sich für zusätzliche Int-Einheiten. Das rettet die Turing ein bisschen in der Energiebilanz. AMD verzichtet darauf.
Total irrelevant. dargos Behauptung ist aus zwei Gründen falsch: a) die Modelle waren zum 5700-Launch EoL und b) keine direkten Konkurrenten.

P/W muss man schon zu einem ähnlichen Leistungspunkt vergleichen, sonst wird es sinnlos.

Du bist so auf "AMD-Fanboys" fixiert, dass du das große Ganze nicht siehst.
Ich sehe einen User, der bei seiner Pascal-Vorhersage 6-9 Monate daneben sah.

Nenne mir doch eine bessere Begründung als "AMD-Fanboy" :ugly:

HOT
2020-01-07, 16:18:53
Du könntest auch einfach zugeben Bullshit erzählt zu haben :rolleyes:

Ich erzähl hier keinen BS... Es ist eine Zweckentfremdung eines Produktes. Frag doch mal andere zu dem Thema.

Jupp, es bleibt hängen, was von deinen Vorhersagen zu halten ist. Nicht ohne Grund lacht dich das Forum für deine Vorhersagen aus ;-)

Na ja, ich nehm mich jedenfalls nicht ernst und wirke dabei lächerlich...

HOT - Große Fresse, nix dahinter :up:

...wird übrigens langsam justiziabel...

Ob NVIDIA einen Fertigungsnode nutzt, hat nichts mit deren Launchzyklen zu tun. Im Gegenteil, deren Launchzyklen orientieren sich logischerweise an der Verfügbarkeit von Fertigungsnodes - anders wäre es auch gar nicht möglich.

NV hat bislang alle 2 Jahre eine Architektur auf den Markt gebracht, mit Ausnahme von Maxwell1

Warum NVIDIA 7nm übersprungen hat, sehen wir doch. Warum sollte man sich die Arbeit machen?

Jo, sieht man bei Zen2 und Renoir. Warum sollte man sich die Arbeit machen :freak:

Daher ist es auch unrealistisch, dass AMD den 7nm EUV vor NVIDIA nutzt. Wenn NVIDIA sich für einen Fertigungsnode entscheidet, dann kamen deren Modelle in den letzten Generationen vor AMD heraus.

Ich glaub da eh nicht dran. NV wird sich mMn N7P nehmen, den wie 12FFN auf deren Bedürfnisse anpassen und diesen Prozess für die nächsten 2 Jahre verwenden.

[...]
Ich sehe einen User, der bei seiner Pascal-Vorhersage 6-9 Monate daneben sah.

Nenne mir doch eine bessere Begründung als "AMD-Fanboy" :ugly:

War ja klar, dass du dich darauf versteifst. Klar lag ich daneben, na und? Ich interessier mich halt für das Thema. Du nimmst das persönlich, aber mal im Ernst, das tu ich nicht, ist mir egal, was du da für ne Vendetta daraus machst. Ich hab einfach Spass am Schreiben.

Bucklew
2020-01-07, 16:26:28
Ich erzähl hier keinen BS... Es ist eine Zweckentfremdung eines Produktes. Frag doch mal andere zu dem Thema.
Was ändert es daran, dass AMD sehr wohl sehr teure, angesichts der Leistung deutlich teurere, Produkte als NVIDIA heraus bringt?

Na ja, ich nehm mich jedenfalls nicht ernst und wirke dabei lächerlich...
Den Bullshit den du schreibst nimmt auch niemand ernst, schön, dass du es selbst nicht tust :up:

wird übrigens langsam justiziabel...
Ui, jetzt habe ich aber Angst ;D

Mach mal ruhig, freue mich wie Bolle auf deinen Realnamen, Adresse & Co :cool:

NV hat bislang alle 2 Jahre eine Architektur auf den Markt gebracht, mit Ausnahme von Maxwell1
Und jenachdem, was an Fertigungen verfügbar war, waren es mal neue Architekturen mit neuem Fertigungsverfahren - oder eben nicht. Wie eben Turing. Nur ein leicht verbessertes Fertigungsverfahren.

Hätte 7nm mehr Vorteile versprochen, hätte man die 6 Monate gewartet mit dem Launch.

Jo, sieht man bei Zen2 und Renoir. Warum sollte man sich die Arbeit machen
Das CPU Forum ist woanders, hier geht es um GPUs.

Ich glaub da eh nicht dran. NV wird sich mMn N7P nehmen, den wie 12FFN auf deren Bedürfnisse anpassen und diesen Prozess für die nächsten 2 Jahre verwenden.
Du hast auch an einen GP104 Launch im Q4 2016 gedacht ;D

Mach dich doch nicht lächerlich mit solchen "Vorhersagen" die hinterher belegen, dass du einfach nur irgendwelchen Bullshit schreibst, der dir gerade in den Kopf kommt.

War ja klar, dass du dich darauf versteifst. Klar lag ich daneben, na und? Ich interessier mich halt für das Thema. Du nimmst das persönlich, aber mal im Ernst, das tu ich nicht, ist mir egal, was du da für ne Vendetta daraus machst. Ich hab einfach Spass am Schreiben.
Ich habe gerade auch sehr viel Spaß dich am Nasenring durch die Manege zu ziehen. Schade nur, dass du nicht lernfähig bist.

Die Volta-Zitate von mir, die du vor hattest zu liefern, kommen noch? :cool:

HOT
2020-01-07, 16:37:28
Das ist einfach zu geil ;D.

Was ändert es daran, dass AMD sehr wohl sehr teure, angesichts der Leistung deutlich teurere, Produkte als NVIDIA heraus bringt?

Ausnahmen bestätigen halt die Regel.

Den Bullshit den du schreibst nimmt auch niemand ernst, schön, dass du es selbst nicht tust :up:

Wobei wir wieder bei der Justiziabilität wären... :D

Ui, jetzt habe ich aber Angst ;D

Mach mal ruhig, freue mich wie Bolle auf deinen Realnamen, Adresse & Co :cool:


Von mir hast du nix zu befürchen. Ich mach keine Konsequenzen. Kannst mich auch ruhig beschimpfen, das berührt mich nicht.

Und jenachdem, was an Fertigungen verfügbar war, waren es mal neue Architekturen mit neuem Fertigungsverfahren - oder eben nicht. Wie eben Turing. Nur ein leicht verbessertes Fertigungsverfahren.

Hätte 7nm mehr Vorteile versprochen, hätte man die 6 Monate gewartet mit dem Launch.

Das CPU Forum ist woanders, hier geht es um GPUs.

7nm hat massive Vorteile, etliche Hersteller haben das mehr als bewiesen. Von den ganzen SoC-Leuten über AMD bis zu anderen Herstellern die das nutzen. So ein Unsinn :freak:.
Die Vorteile von 7nm sind bekannt. Dass AMD das bei GPUs nicht auf die Strasse bringt hat andere Gründe. Und GPUs oder CPUs ist dem Fertigungsprozess egal. 7nm passte nicht zu NVs Launchzyklus, womit wir wieder beim Thema wären :freak:

Du hast auch an einen GP104 Launch im Q4 2016 gedacht ;D

Mach dich doch nicht lächerlich mit solchen "Vorhersagen" die hinterher belegen, dass du einfach nur irgendwelchen Bullshit schreibst, der dir gerade in den Kopf kommt.

Ich schreibe gern was mir in den Kopf kommt, na und? I.Ü. hab ich mir nicht die Mühe gemacht extra ein Zitat von Anno dazumal wieder aufzuwärmen, das warst du.

Ich habe gerade auch sehr viel Spaß dich am Nasenring durch die Manege zu ziehen. Schade nur, dass du nicht lernfähig bist.

Ich glaube da liegt ne krasse Fehleinschätzung vor... aber egal, mach ruhig weiter. Ich hör jetzt aber auf, zu viel OT und der Unterhaltungswert nimmt ab.

Die Volta-Zitate von mir, die du vor hattest zu liefern, kommen noch? :cool:
Nö, ich mach mir doch keine Mühe mit so einem BS, der mal vor x Jahren gesagt wurde, bin ich denn bescheuert?

dargo
2020-01-07, 16:39:31
AMD muss auch gar keinen 2080ti Killer haben, jede andere Navi Karte ist ja auch kein Killer, hat aber trotzdem eine Daseinsberechtigung. Nicht technisch, aber rein durch den Preis um Nvidia ans Bein zu pinkeln. ( siehe Super Karten, Nvidia musste handeln )
Nicht ganz... denn mit der 2080S musste Nvidia gar nicht wegen Konkurrenz handeln. Man stand sich nur mit der 2080 ohne S selbst im Weg.

Bucklew
2020-01-07, 16:43:33
Ausnahmen bestätigen halt die Regel.
Na dann haben wir es ja geklärt, dass auch AMD gern mal komplett überzogen teure Produkte auf den Markt wirft :up:

Warum behauptest du das Gegenteil, wenn du selbst weißt, dass es falsch ist?

Wobei wir wieder bei der Justiziabilität wären...
Du bist süß ;D

Von mir hast du nix zu befürchen. Ich mach keine Konsequenzen. Kannst mich auch ruhig beschimpfen, das berührt mich nicht.
Das merkt man ;D

Aber warum behauptest du dann, wenn es u.A. um die Glaubwürdigkeit deiner Vorhersagen und Behauptungen geht, wieder irgendwelchen Bullshit? :confused:

7nm hat massive Vorteile, etliche Hersteller haben das mehr als bewiesen. Von den ganzen SoC-Leuten über AMD bis zu anderen Herstellern die das nutzen. So ein Unsinn
Die Vorteile von 7nm sind bekannt. Dass AMD das nicht auf die Strasse bringt hat andere Gründe. Und GPUs oder CPUs ist dem Fertigungsprozess egal. 7nm passte nicht zu NVs Launchzyklus, womit wir wieder beim Thema wären
Behaupte nicht so einen Bullshit, wenn du genau weißt, dass das nicht der Grund ist.

Den Grund hat übrigens deine eigene Bezugsquelle schon erläutert:
Nvidia zu 7 nm: "Wir wollen nicht die zusätzlichen Kosten bezahlen, sondern Vorteile erzielen"

Ich sehe nicht die HOT-Behauptung "7nm passte nicht in euren Launchzyklus" ;D

Ich schreibe was mir in den Kopf kommt, na und?
Merkt man. Genau das ist es auch, was nervt. So macht es eine sachliche Diskussion komplett unmöglich.

Ich glaube da liegt ne krasse Fehleinschätzung vor... aber egal, mach ruhig weiter. Ich hör jetzt aber auf, zu viel OT und der Unterhaltungswert nimmt ab.
Ich find es ja immer noch lustig, schade, dass deine angebliche Unterhaltung so schnell vorbei ist. Wahrscheinlich findest du es doch nicht so lustig, wie du es darstellen willst :tongue:

Nö, ich mach mir doch keine Mühe mit so einem BS, der mal vor x Jahren gesagt wurde, bin ich denn bescheuert?
Klar, weil du nix finden kannst ;D

Wie leicht zu durchschauen! :cool:

Dino-Fossil
2020-01-07, 16:51:15
Wollt ihr beiden Süßen euch nicht ein Zimmer nehmen? :P :usex:

Bucklew
2020-01-07, 16:53:19
Wollt ihr beiden Süßen euch nicht ein Zimmer nehmen? :P :usex:
Ne danke. Es wäre besser eine sachliche Diskussion führen zu können, als HOTs Luftschlösser ständig lesen zu müssen.

Egal ob NVIDIA nehme niemals N5 (damit AMD vorne liegt) oder kleineren Pascalchips kommen erst im Q4 (damit AMD vorne liegt). Ist schon sehr einfach zu durchschauen.

DrFreaK666
2020-01-07, 16:53:28
Wollt ihr beiden Süßen euch nicht ein Zimmer nehmen? :P :usex:

Find's auch mega nervig

HOT
2020-01-07, 16:55:05
[...]
Behaupte nicht so einen Bullshit, wenn du genau weißt, dass das nicht der Grund ist.

Den Grund hat übrigens deine eigene Bezugsquelle schon erläutert:


Ich sehe nicht die HOT-Behauptung "7nm passte nicht in euren Launchzyklus" ;D
[...]
Ich zitiers mal so, weil bei dem Sempf kein Informationsgehalt dran ist aber das Thema interessant bleibt.

TSMC fing tatsächlich die 7nm-Massenproduktion in etwa zum Zeitpunkt der Tapeouts von NVs Turing an. Das heisst, dass sich NV bewusst dagegen entschied. Da gibts nen ganzen Haufen Gründe, warum man das machen kann:
1.) Kosten, 12FFN ist trotz der Größen für NV sicherlich recht billig
2.) Angst vor dem Yield, seit jeher ein NV-Problem, erst recht bei großen Dies
3.) Man fing bei Volta schon mit der Entwicklung der Masken an, also Synergiegründe
4.) (und meiner Ansicht nach der Hauptgrund) N7 wurde anfangs von Qualcomm, Apple und HiSilicon belegt. AMD kam erst mit der Kleinserie V20 auf den Markt. NV wollte aber spätestens im Oktober auf den Markt, das sind lächerliche 9 Monate Verzögerung, das Ganze wäre also bei NVs Marktanteilen schlicht abenteuerlich gewesen. Man nutzte 12FFN weiter und wartet eben mit 7nm auf einen guten Zeitpunkt, der zu deren Launchzyklus passt, eben 2.HJ 2020.

Navi kam erst am 7.7. 2019. Da war der SoC-Run vorbei und TSMC hatte genug Kapazität aufgebaut. NV hätte also ebenfalls bis dahin warten müssen. Es passte nicht zum Zyklus (+ein paar andere Gründe).

NV macht ja 7nm, von daher ist deine Argumentation lächerlich.

Find's auch mega nervig

Sry

Bucklew
2020-01-07, 16:57:39
TSMC fing tatsächlich die 7nm-Massenproduktion in etwa zum Zeitpunkt der Tapeouts von NVs Turing an. Das heisst, dass sich NV bewusst dagegen entschied. Da gibts nen ganzen Haufen Gründe, warum man das machen kann
Eigentlich nicht, schließlich kennen wir den Grund.

Mit deiner Behauptung - Launchzyklus - hat es exakt null zu tun. Warum auch, im September 2018 war NVIDIA komplett konkurrenzlos, die hätten genauso gut noch Pascal verkaufen können und warten können, bis 7nm reif genug ist. Hätten auch im Frühjahr/Sommer die Turing-Reihe in 7nm ausliefern können.

Damit ist deine Behauptung eben leider Bullshit. Darfst mich gern dafür verklagen :up:

NV macht ja 7nm, von daher ist deine Argumentation lächerlich.
Bist echt ein toller Experte, dass du den Unterschied zwischen DUV und EUV nicht kennst :ugly:

btw: Ach ja, auch ne super Behauptung, NVIDIA habe doch so Angst vor dem Yield, wenn man im Frühjahr '16 im neuen 16nm Node einen Chip >600mm² launcht :ugly:

HOT
2020-01-07, 17:03:02
Eigentlich nicht, schließlich kennen wir den Grund.

Mit deiner Behauptung - Launchzyklus - hat es exakt null zu tun. Warum auch, im September 2018 war NVIDIA komplett konkurrenzlos, die hätten genauso gut noch Pascal verkaufen können und warten können, bis 7nm reif genug ist. Hätten auch im Frühjahr/Sommer die Turing-Reihe in 7nm ausliefern können.

Damit ist deine Behauptung eben leider Bullshit. Darfst mich gern dafür verklagen :up:


Bist echt ein toller Experte, dass du den Unterschied zwischen DUV und EUV nicht kennst :ugly:

btw: Ach ja, auch ne super Behauptung, NVIDIA habe doch so Angst vor dem Yield, wenn man im Frühjahr '16 im neuen 16nm Node einen Chip >600mm² launcht :ugly:
Bin kein Experte.

NV wurde nicht bei den EUV-Launch-Partnern von TSMC erwähnt, nur HiSilicon und AMD AFAIK. Ich würd wie gesagt da eher auf eine angepasste Variante von N7P ausgehen, aber das ist ja noch zu beweisen.

Als halbwegs sicher kann man bisher nur annehmen, dass N21 N7+ ist. Aber auch das ist zu beweisen. Kann ja auch sein, dass AMD hier nur N7+ für Vermeer verwendet und die GPUs auch in N7P fertigt.

DrFreaK666
2020-01-07, 17:04:09
NV hat in diesem Thread auch nichts verloren :rolleyes:

HOT
2020-01-07, 17:11:19
Hast recht. Zeit für ne HOT-Prognose :D.

Oktober 2020 -> N21 in N7+, 505mm², 80CUs (zusammen mit Vermeer)
Anfang 2021 -> RDNA2 APUs in N7+
März/April 2021 -> N23 in N5, 400mm², 100+ CUs
gestaffelt über 2021 -> N22 und N3x-GPUs (RDNA2) in N5 als Ersatz für N1x. (RT Top -> Down)

N22 ist mMn ganz schwer einzuschätzen.

Piefkee
2020-01-07, 17:31:43
Hast recht. Zeit für ne HOT-Prognose :D.

Oktober 2020 -> N21 in N7+, 505mm², 80CUs (zusammen mit Vermeer)
Anfang 2021 -> RDNA2 APUs in N7+
März/April 2021 -> N23 in N5, 400mm², 100+ CUs
gestaffelt über 2021 -> N22 und N3x-GPUs (RDNA2) in N5 als Ersatz für N1x. (RT Top -> Down)

N22 ist mMn ganz schwer einzuschätzen.

Die ersten beiden Punkte, jap glaube ich auch.
Anfang 2021 wird in 5nm erstmal garnix geben. Eher ganz zum ende oder wahrscheinlicher 2022.

GPU werden erst Ende 2020 in 7nm+ kommen. Next Gen dann sicherlich erst +12 Monate später.

HOT
2020-01-07, 17:36:06
Massenproduktion von N5 startet im April wie es aussieht. Wo ist das Problem?
Beispiel V20 -> Start Massenproduktion N7 April 2018 -> Release V20 November 2018 als Instinct und Februar 2019 als VII und Pro. Man hat also bewiesen, dass man das auch kann. Sicherlich wird man bei einem Chip, der nicht Nische ist (wie V20) etwas mehr vorproduzieren müssen, also denke ich, wirds auch später, aber nicht viel. Das wird ein klassischer Pipecleaner mMn. In N5 1 Jahr nach Start der Massenproduktion einen 400mm²-Chip zum Laufen zu bekommen dürfte gehen. Unmöglich ist jedenfalls anders. Der Chip hätte dann übrigens zusammen mit Zen4 Tapeout. Obs so kommt, sehen wir dann. Das ist halt ne strategische Einschätzung ohne Garantie auf Wahrheit.

Und das ist eine Generation in N5 und N7+ mMn. Die ersten Produkte launchen noch in N7+, spätere Chips dann in N5. Die nächste Generation (RDNA3) würde dann in 2022/3 in N5P oder gar N3 an den Start gehen.

Kann natürlich auch ganz anders kommen, dass im Sommer der Launchzyklus in N7P/+ beginnt mit N21, 22, 23 und Anfang 2021 das dann weitergeht in N6/5 im Mainstream, auch das wär möglich. Ich bin da aber eher pessimistisch.

basix
2020-01-07, 18:00:23
Die ersten beiden Punkte, jap glaube ich auch.
Anfang 2021 wird in 5nm erstmal garnix geben. Eher ganz zum ende oder wahrscheinlicher 2022.

GPU werden erst Ende 2020 in 7nm+ kommen. Next Gen dann sicherlich erst +12 Monate später.

Ich tippe eher darauf, dass wir im August/September 7nm+ Produkte (CPU und GPU) sehen werden (den momentanen Rückenwind mitnehmen) und 2021 5nm Produkte entweder wieder so oder erst in Richtung Holiday Season. Zwischen Ramp-Up 5nm und Produkt Release würden dann 15-18 Monate liegen. Zwischen den Produktgenerationen ca. 15 Monate.

Linmoum
2020-01-07, 19:16:38
Gordon Ung, PC World: Do you think that AMD has to have a high-end competitor in the discrete graphics market?

LS: [laughs] I know those on Reddit want a high end Navi! You should expect that we will have a high-end Navi, and that it is important to have it. The discrete graphics market, especially at the high end, is very important to us. So you should expect that we will have a high-end Navi, although I don’t usually comment on unannounced products.
https://www.anandtech.com/show/15344/amd-at-ces-2020-qa-with-dr-lisa-su

;D

AffenJack
2020-01-07, 19:44:23
Hast recht. Zeit für ne HOT-Prognose :D.

Oktober 2020 -> N21 in N7+, 505mm², 80CUs (zusammen mit Vermeer)
Anfang 2021 -> RDNA2 APUs in N7+
März/April 2021 -> N23 in N5, 400mm², 100+ CUs
gestaffelt über 2021 -> N22 und N3x-GPUs (RDNA2) in N5 als Ersatz für N1x. (RT Top -> Down)

N22 ist mMn ganz schwer einzuschätzen.

Ich leg ne Gegenprognose auf:

Oktober 2020 -> RDNA2 N21 in N7+, 505mm², 80CUs <-Check ~600-800$ Preisbereich
Q1 2021 -> RDNA2 N23 N7+ ~56 CUs. In etwa wie die XSX, ~350-500$
Q2 2021 -> RDNA2 N22 N7+ ~36 CUs, N10 Ersatz mit RT, 200-300$

Damit RT Top to Bottom.
5nm Mitte 2022.

An was größeres als N21 mit 505mm² glaub ich nicht und 5nm seh ich nicht so schnell bei GPUs. Ende 2021/Anfang 2022 dürfte Zen4 das erste 5nm Produkt werden.

Berniyh
2020-01-07, 20:03:23
An was größeres als N21 mit 505mm² glaub ich nicht und 5nm seh ich nicht so schnell bei GPUs. Ende 2021/Anfang 2022 dürfte Zen4 das erste 5nm Produkt werden.
Zuletzt wurden neue Prozesse immer erst mit GPUs genutzt. Dürfte bei 5nm nicht anders sein.

Ich gehe zudem davon aus, dass noch mindestens 2 der Navi 2x Chips noch dieses Jahr released werden.
Ende 2020 ist Mid Range Navi 10 ja auch schon 1.5 Jahre alt.

mironicus
2020-01-07, 20:04:10
Zum Erscheinungsdatum ist N21 wohl kein High-End mehr, wenn der direkte Gegner dann die RTX 3070 ist. :)

Linmoum
2020-01-07, 20:09:37
Warum sollte ein hypothetischer 80 CU Navi nur oberhalb einer 2080 rauskommen?

mironicus
2020-01-07, 20:20:01
Es gab auch mal andere Updatezyklen bei NVidia. Die 980Ti-Leistung wurde von der 1070 erreicht.

Eine RTX 3070 könnte dann RTX 2080 Ti-Leistung haben (oder sogar etwas mehr), wenn schon die 3080 Ti 50% schneller sein soll als die RTX 2080 Ti.

Und ein 80 CU Navi wäre dann wohl eher Gegner der 3070 / 3080 oder liegt dazwischen.

Kann natürlich auch ganz anders kommen und NVidia erfüllt die Erwartungen nicht.

Sunrise
2020-01-08, 02:27:38
Wie immer hat AffenJack seine Hausaufgaben gemacht.

5nm -> Apple und Co. (SoCs)

Denkbar ist ein baldiger HPC-Nachfolger von AMD, um Zen zu ergänzen. Benötigt rein mengenmäßig wenig Kapazität, für alles andere ist 5nm auch erstmal viel zu teuer.

Wir gehen jetzt mal davon aus, dass AMD alles bis zur 2080 Ti obsolet machen möchte (man muss in Schlagdistanz kommen) und das für wahrhaft wahnsinnige (klingt spottbillig) $699 US.

N21 wird wahrscheinlich gegen GA104 antreten (falls NV bei 7nm wieder an die Grenzen gehen solle) und dann gibt es einen ordentlichen Schlagabtausch bei $699 US und NV kassiert mit GA102 wieder ordentlich ab.

Nur wird NV dieses Mal GA102 (teil-deaktiviert) billiger in den Gaming-Desktop-Markt bringen, um absolute High-End Käufer von AMD abzuhalten, das sollte AMD aber erstmal egal sein.

Das Gesamtpaket bei AMD wird stetig besser, NV bleibt (wenn Geld keine Rolle spielt) vorne, dennoch ist endlich Konkurrenz da und so sind nicht nur wir, sondern auch Jensen glücklich, der seine Lederjacken wieder auspacken kann.

horn 12
2020-01-08, 02:51:51
Da muss ich dir absolut Recht geben :-)

Navi 21 wird sicherlich so ausgelegt werden um die RTX 2080TI zu schlagen und in Reichweite einer RTX 3080 zu kommen,- sprich wird wahrscheinlich 15 bis 20% schneller werden als RTX 2080TI und in Schlagabtausch zur RTX 3080 in etwa sein.

Wenn RTX 3080TI wirklich 50% schneller sein sollte,- dürfte 3080 ca. 20% auf eine RTX 2080TI drauflegen können.

Dies wird wohl das Ziel von AMD sein,- mit 16GB HBM² oder GDDR6 Speicher.

BlacKi
2020-01-08, 11:53:25
ob wir hbm auf gaming karten jemals wieder sehen werden?

Langlay
2020-01-08, 11:57:28
ob wir hbm auf gaming karten jemals wieder sehen werden?

Ich denke im Highend Bereich könnte sich das lohnen. Ich seh HBM jedenfall noch nicht tot.

Ich persönlich find die HBM Karten schon recht sexy.

BlacKi
2020-01-08, 11:59:48
im profibereich sehe ich noch einsatzzwecke, aber big navi wird IMO zu 99% nicht auf hbm setzen.

maximus_hertus
2020-01-08, 12:15:35
Es gab auch mal andere Updatezyklen bei NVidia. Die 980Ti-Leistung wurde von der 1070 erreicht.

Eine RTX 3070 könnte dann RTX 2080 Ti-Leistung haben (oder sogar etwas mehr), wenn schon die 3080 Ti 50% schneller sein soll als die RTX 2080 Ti.


Die aktuelle Info ist ja, dass das RTX 3000 Lineup ca. 50% schneller sein soll als die 2000er. Von einer RTX 2070 ausgehend sind es aber eher 60-65% bis zur 2080 Ti. Ergo würde eine RTX 3070 ca. 10-15% hinter der 2080 Ti landen.

Aber warten wir mal ab. Es sollte ja nciht mehr so extrem lange dauern bis es Infos gibt. Vielleicht ist es ja im Frühjahr soweit. Spätestens zur E3 sollten wir mehr wissen, sowohl von AMD als auch von nV.

gedi
2020-01-08, 12:16:09
https://www.anandtech.com/show/15344/amd-at-ces-2020-qa-with-dr-lisa-su

;D


Die Alte hats einfach drauf.

Leonidas
2020-01-08, 12:33:24
Ist es den custom Herstellern erlaubt 12gb drauf zu packen


Ganz sicher nicht. Das läßt auch NV nicht zu.




Wollt ihr beiden Süßen euch nicht ein Zimmer nehmen? :P :usex:


Gleicher Gedanke.





4.) (und meiner Ansicht nach der Hauptgrund) N7 wurde anfangs von Qualcomm, Apple und HiSilicon belegt. AMD kam erst mit der Kleinserie V20 auf den Markt. NV wollte aber spätestens im Oktober auf den Markt, das sind lächerliche 9 Monate Verzögerung, das Ganze wäre also bei NVs Marktanteilen schlicht abenteuerlich gewesen. Man nutzte 12FFN weiter und wartet eben mit 7nm auf einen guten Zeitpunkt, der zu deren Launchzyklus passt, eben 2.HJ 2020.



Ist für mich absolut nachvollziehbar. Noch dazu wo Turing vergleichsweise spät nach Pascal in den Markt kam. NV wollte endlich was neues bieten und man wollte dafür nicht auf einen Node warten.





Mit deiner Behauptung - Launchzyklus - hat es exakt null zu tun. Warum auch, im September 2018 war NVIDIA komplett konkurrenzlos, die hätten genauso gut noch Pascal verkaufen können und warten können, bis 7nm reif genug ist.


Warum denn nicht? Hersteller haben Zyklen, haben Entwicklungszeiträume und Pläne zu deren Abschluß. Irgendwas technologisch fertiges komplett liegenzulassen, nur weil ein besserer Node kommt - warum denn? Gerade als Marktführer nicht. Wer kann den bei einem neuen (ungeprüften!) Node wirklich beschwören, das der so viel besser kommt wie der alte und das dessen Startschwierigkeiten beherrschbar sind?!

Ich kann mich sehr gut an die Zeit vor Turing zurückerinnern. Wir haben schon Ende 2017 hier darüber geredet, das es doch langsam Zeit wäre und das NV nun vielleicht im Frühjahr 2018 was bringt. Es ist dann Herbst 2018 geworden. Wenn wir bis Mitte 2019 hätten warten müssen, hätte es hier Aufstände gegeben.




Dr. Lisa Su:
I know those on Reddit want a high end Navi!


Sie ist absolut goldig! Und liegt natürlich richtig. Also: Gibt uns!

Complicated
2020-01-08, 12:54:13
Ganz sicher nicht. Das läßt auch NV nicht zu.



AMD schon. Siehe RX570 16 GB
https://www.computerbase.de/2019-01/gpu-mining-sapphire-radeon-rx-570-16-gb-grin/

Also Vorsicht womit du ganz sicher bist ;)

DrFreaK666
2020-01-08, 13:01:45
AMD schon. Siehe RX570 16 GB
https://www.computerbase.de/2019-01/gpu-mining-sapphire-radeon-rx-570-16-gb-grin/

Also Vorsicht womit du ganz sicher bist ;)

Haben Mining-Karten nicht eigentlich weniger VRAM??