PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

Gouvernator
2020-08-02, 14:18:22
4K@120Hz wird so oder so sofort Mainstream. Die Leute werden aber schnell merken das sie nur 2 Klicks von 8K DSR@120Hz entfernt sind.

Grendizer
2020-08-02, 14:21:16
Ich frag mich auch immer wieder, in was für Realitäten die intensiv Nutzer hier leben. Die breite Masse krebst immer noch irgendwo bei Full-HD rum.

Laut Steam Survey von Juli 2020:

1920 x 1080 65.48%
2560 x 1080 1,89%
2560 x 1440 6,45%
3840 x 2160 2,23%

BlacKi
2020-08-02, 14:21:49
mainstream gibt keine 1000€ für monitore aus. 4k120 ist und bleibt nische, aber ist jetzt wohl wenigstens eine option, wenn man das nötige kleingeld ausgeben will.

JVC
2020-08-02, 14:27:25
Ich frag mich auch immer wieder, in was für Realitäten die intensiv Nutzer hier leben.
In der, die ich mir leisten will und auch kann :wink:

Der Monitor ist Das was ich andauernd ansehe beim PC ...
Deshalb stecke ich gerne etwas mehr in das Anzeigegerät :smile:

M.f.G. JVC

Grendizer
2020-08-02, 14:30:39
Es geht doch nicht darum, das du es dir leisten willst und kannst, sondern darum, das es noch lange dauern wird, bis 4k@60hz überhaupt mal im Mainstream ankommt.

Linmoum
2020-08-02, 14:42:21
Es geht doch nicht darum, das du es dir leisten willst und kannst, sondern darum, das es noch lange dauern wird, bis 4k@60hz überhaupt mal im Mainstream ankommt.Auf was bezieht sich Mainstream? Nur PC oder alles an Gaming? Es gibt heute gefühlt keine Fernseher mehr, die nicht UHD-fähig sind abseits der absoluten Einstiegsklasse irgendwo bei 1xx€. Alles andere als UHD ist im TV-Segment mittlerweile doch quasi tot und unter Einbeziehung der Konsolen zockt die große Mehrheit nun einmal nicht an Monitoren, sondern an Fernsehern.

Mit den neuen Konsolen wird UHD natürlich zum Standard, einfach, weil man sich auch bei Fernsehern und einer Neuanschaffung selbst für nur 250€ nichts anderes als UHD mehr holt. UHD ja, UHD@120Hz ist natürlich Quatsch. Das wird weiterhin noch eine Weile dauern.

JVC
2020-08-02, 14:43:43
Es geht doch nicht darum, das du es dir leisten willst und kannst, sondern darum, das es noch lange dauern wird, bis 4k@60hz überhaupt mal im Mainstream ankommt.
4K 60hz kann ich versorgen seit ich so ein Anzeigegerät habe.
(das klappt sogar mit der 390 8Gb !!!)

Es funktionieren auch schon 8K 60Hz! (mit 2 oder mehr Kabel)
Man muss halt Regler bedienen können...
Außerdem Zockt nicht jeder nur AAA-highFPS-Games ;)
Und einen Fernseher hat wohl fast Jeder Zuhause. (da sind 4K 60Hz schon ziemlich Standard)

M.f.G. JVC

mboeller
2020-08-02, 14:44:46
4K TV mit HDMI 2.0 oder besser gibt es aber schon einige zu kaufen. Laut heise Preisvergleich >1000 Stk im Angebot.

Grendizer
2020-08-02, 14:47:14
Auf was bezieht sich Mainstream? Nur PC oder alles an Gaming? Es gibt heute gefühlt keine Fernseher mehr, die nicht UHD-fähig sind abseits der absoluten Einstiegsklasse irgendwo bei 1xx€. Alles andere als UHD ist im TV-Segment mittlerweile doch quasi tot und unter Einbeziehung der Konsolen zockt die große Mehrheit nun einmal nicht an Monitoren, sondern an Fernsehern.

Mit den neuen Konsolen wird UHD natürlich zum Standard, einfach, weil man sich auch bei Fernsehern und einer Neuanschaffung selbst für nur 250€ nichts anderes als UHD mehr holt. UHD ja, UHD@120Hz ist natürlich Quatsch. Das wird weiterhin noch eine Weile dauern.

Natürlich PC, wenn wir hier über Navi spekulieren.:rolleyes:

JVC
2020-08-02, 14:49:42
Und natürlich Fernseher :)

Monitore sind nur teurer und auch nicht mehr besser...

Gab erst vor kurzem nen 55" 4K 60Hz Q-LED Fernseher für ~480.-

M.f.G. JVC

Edit:
https://www.mediamarkt.de/de/product/_tcl-55-c-715-4k-2643934.html?rbtc=gei|pf|2643934|gMk8W6Ni2ZNkPRkWWvb4NQ|p|standard%20feed|&dclid=CJDwk8nEuOoCFQgd4Aod5GUMkA&_knopii=1 (UVP: 899.– für 486,43.-)
https://geizhals.de/tcl-55c715-a2283479.html?hloc=at&hloc=de
60Hz nativ ! Aber wenn es reicht :) (mir reicht es noch ^^ und ich mag Samsungs Quantum Dot :up:)

"Test" zum 55" TCL ...
https://www.gamepro.de/artikel/mediamarkt-top-angebote-4k-tvs-tcl-lg-samsng-bestpreis,3359140.html
"Das erwartet euch mit dem TCL 4K TV:
Das 2020er-Modell verfügt allen voran über einen sehr guten Input-Lag. Laut Hersteller liegt dieser bei nur 10ms. Zwar kann er nicht mehr als 60 Hz, aber mit dem Input-Lag und seinen weiteren Eigenschaften erhaltet ihr hier insgesamt ein sehr gutes Preis-Leistungs-Verhältnis."

10(~16)ms... sollte für den normalen Spieler schnell genug sein ;)


Edit2:
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/Monitor-Test-1074792/3/ (28.07.2020)
"Gaming Monitore 2020: LCD-Kauftipps"
"Der Unterschied zwischen TVs und Monitoren ist eigentlich nur noch der TV-Tuner bei Fernseher und der Displayport-Anschluss bei Monitoren."

https://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/ (2018!)
"Samsung Q9FN im Test: Kann Freesync am TV überzeugen?"
"Kontrast (SDR) 5842:1" (Q-LED typisch)
"Abgesehen von der Maximalhelligkeit ist der OLED-TV dem Quantum-Dot-LCD in absoluten Zahlen nach wie vor überlegen.
Subjektiv betrachtet aber sind Unterschiede kaum bzw. nur Nuancen im direkten Vergleich zu erkennen."

Linmoum
2020-08-02, 14:55:28
Natürlich PC, wenn wir hier über Navi spekulieren.:rolleyes:Threadtitel war noch nie zu 100% gleichbedeutend mit Inhalten. Es wird aber auch am PC nicht mehr lange dauern. Mainstream der Konsolen wird auch Mainstream am PC.

Trauerspiel ist nur, dass sich die Gamer-Kiddies noch immer mit Monitoren abzocken lassen und der gesamte Markt nebst Qualität verglichen mit TVs ein Desaster ist.

Rampage 2
2020-08-02, 14:59:27
Es geht doch nicht darum, das du es dir leisten willst und kannst, sondern darum, das es noch lange dauern wird, bis 4k@60hz überhaupt mal im Mainstream ankommt.

+1

Damit 4K60fps auf dem PC (!) überhaupt die Chance hat, "Mainstream" zu werden, müssen die Leistungsprünge pro GPU-Generation mindestens zu hoch werden, wie bei Pascal (+ 70-80%). Bis zur GTX 480 hatte jede neue GPU-Generation die Leistung verdoppelt oder gar verdreifacht - vor knapp 20 Jahren war 1024x768 Mainstream, seit 2007/8 ist es 1080p und dort ist es bis jetzt so stehengeblieben.

Der Grund für den stetigen Anstieg der Auflösung bis 2007/8 lag eben daran, dass alle 18 Monate die GPU-Leistung um mindestens das Doppelte anstieg und dass selbst Refreshes alle 6-12 Monate teilweise mehr Leistungssteigerung brachten als heute eine komplett neue GPU-Generation:freak: (Beispiel: 6800 Ultra -> 7800 GTX versus Pascal -> Turing)

Mit Fermi wurde 2010 der Zenith erreicht und seitdem (Kepler) bewegen wir uns eher im Schneckentempo voran - offensichtlich ist Moore's Law schon seit Längerem tot...

Unter solchen Bedingungen kann 4K nicht zum neuen Mainstream werden; 1440p ist aber mittlerweile ziemlich nah dran an diesem Status:)

R2

Zergra
2020-08-02, 15:04:22
Diese Sprünge wird es aber nie wieder geben. Neue Fertigungsverfahren brauchen länger und sind teurer, dazu werden die Designs auch immer komplexer.

mironicus
2020-08-02, 15:09:07
Zumindest auf den Konsolen wird 4K Standard werden, auch wenn der PC hinterherhinkt, weil sich die wenigsten eine 1000 Euro Grafikkarte kaufen werden.

Linmoum
2020-08-02, 15:11:55
Du brauchst keine 1000€ GPU für UHD. Das Problem ist der Monitor-Markt und die Absurditäten der Hersteller dort. Bei TVs kriegen sie es auch geschissen.

Complicated
2020-08-02, 15:39:30
Alles andere als UHD ist im TV-Segment mittlerweile doch quasi tot und unter Einbeziehung der Konsolen zockt die große Mehrheit nun einmal nicht an Monitoren, sondern an Fernsehern
Ich habe mir das mal recherchiert und auf Realität überprüft.

2020:
Aktive Konsolenspieler: ca. 660 Mio
Aktive PC-Gamer: ca. 1,2 Mrd

Es variiert je nach Quelle etwas, jedoch ist es eindeutig, dass die Mehrheit nicht am TV zockt.

Berniyh
2020-08-02, 15:46:07
Ich habe mir das mal recherchiert und auf Realität überprüft.

2020:
Aktive Konsolenspieler: ca. 660 Mio
Aktive PC-Gamer: ca. 1,2 Mrd

Es variiert je nach Quelle etwas, jedoch ist es eindeutig, dass die Mehrheit nicht am TV zockt.
Sind da zufällig Android Smartphones dabei?

Grendizer
2020-08-02, 15:47:40
Vermutlich China und Indien :wink:

dargo
2020-08-02, 16:02:17
Und natürlich Fernseher :)

Monitore sind nur teurer und auch nicht mehr besser...

Gab erst vor kurzem nen 55" 4K 60Hz Q-LED Fernseher für ~480.-

Ansichtssache... bei mir kommt garantiert keine 60Hz Gurke beim Gaming zum Einsatz. Selbst nicht wenn es ein OLED wäre. Bei 120Hz sieht die Sache schon anders aus. Und die Pixeldichte bei 55" ist ja übel trotz 4k. Afaik kommen nicht mal die neuen 4k OLEDs mit 48" an die Pixeldichte von einem 27" 1440p Monitor ran.

Du brauchst keine 1000€ GPU für UHD. Das Problem ist der Monitor-Markt und die Absurditäten der Hersteller dort. Bei TVs kriegen sie es auch geschissen.
Die kriegen gar nichts geschissen. Wo sind denn die 27" 120Hz, 1440p OLEDs für unter 500€? :rolleyes: Mir scheint, dass nur Fliegengitter bezahlbar bzw. rentabel sind.

Complicated
2020-08-02, 16:57:16
Sind da zufällig Android Smartphones dabei?
https://innofact-marktforschung.de/studien/gamer-daten-und-fakten-zum-markt-der-computer-und-videospieler/


reine Computerspieler (42%)
reine Konsolenspieler (10%)
Gamer, die an beiden Endgeräten spielen (48%).

Etwa 70% der Computer- und Konsolenspieler sind zusätzlich auch mobile Gamer (Smartphones/Tablets).

Flusher
2020-08-02, 18:19:24
Für 4k sind heutige Grafikkarten abseits des Enthusiasten-Segments einfach nach wie vor zu gurkig. Selbst mit einer RTX 2080 ist doch 4K60FPS nicht in jedem Spiel garantiert und die Karte kostet aktuell wieviel? Über 650 € oder so. Viele PC-Gamer kaufen für das Geld einen kompletten PC.

Ich hoffe dass da Ampere und Big Navi endlich etwas reissen.

Aktuell ist meinen Beobachtungen zur Folge eher 1440p120/144 der Standard. Aber selbst dafür musste ich in meinem Bekanntenkreis aktiv werben, dass man sich bitte doch nicht mehr mit FHD blicken lässt.

Linmoum
2020-08-02, 18:28:09
Für 4k sind heutige Grafikkarten abseits des Enthusiasten-Segments einfach nach wie vor zu gurkig. Selbst mit einer RTX 2080 ist doch 4K60FPS nicht in jedem Spiel garantiert und die Karte kostet aktuell wieviel?Wenn man nicht in der Lage dazu ist, Regler zu bedienen, dann mag das stimmen. Sollte man aber.

Davon ab gilt das ja nicht nur für UHD. Wenn man mit Settings X nicht (Wunsch-)Performance Y erreicht, dann passt man die Details an. Ich verstehe diesen Zwang nicht, dass man alles stumpf aufdreht und nur daran die Performance misst.

rentex
2020-08-02, 19:36:48
Weil es nun mal ein grafisches Maximum gibt, das ich mit der entsprechenden Karte sehen möchte. Sonst kauft man sich ne günstigere Karte.
Und jetzt der allseits beliebte PKW Vergleich: Man kauft sich kein 200PS PKW, wenn man nur 120 km/h fahren möchte.
Immer diese saublöden "Regler" Sprüche.

crux2005
2020-08-02, 20:06:56
Wenn man nicht in der Lage dazu ist, Regler zu bedienen, dann mag das stimmen. Sollte man aber.

Davon ab gilt das ja nicht nur für UHD. Wenn man mit Settings X nicht (Wunsch-)Performance Y erreicht, dann passt man die Details an. Ich verstehe diesen Zwang nicht, dass man alles stumpf aufdreht und nur daran die Performance misst.

Und was wenn auch mit allen Reglern auf Low es nicht so läuft wie ich will? Bestes Beispiel CoD: Warzone. Das einzige was noch bleibt ist Auflösung (1440p). Und das mit einer High-end Grafikkarte.

gedi
2020-08-02, 20:12:16
Definiere mal Highend

dargo
2020-08-02, 20:47:13
Weil es nun mal ein grafisches Maximum gibt, das ich mit der entsprechenden Karte sehen möchte. Sonst kauft man sich ne günstigere Karte.
Und jetzt der allseits beliebte PKW Vergleich: Man kauft sich kein 200PS PKW, wenn man nur 120 km/h fahren möchte.

Doch... denn ich möchte diese 120km/h schnell erreichen. ;)

Badesalz
2020-08-02, 21:31:30
mainstream gibt keine 1000€ für monitore aus. 4k120 ist und bleibt nischeÄhmm. 4k120 ist eine Nische in der 4k(60) Nische...

crux2005
2020-08-02, 21:35:44
Definiere mal Highend

Troll woanders.

BlacKi
2020-08-02, 21:37:39
Ähmm. 4k120 ist eine Nische in der 4k(60) Nische...
ich finde 4k60 sowieso lächerlich. ohne vrr ist der fps bereich unspielbar und aber obendrauf ist der vrr bereich selbst lächerlich. da ziehe ich doch 1440p144 vor.


aber ist das hier nicht etwas viel OT?

TheGood
2020-08-02, 22:32:07
Ich kann auch mit 30fps noch problemlos zoggen und jetzt???

Badesalz
2020-08-02, 22:35:53
Wenn man klassisch Vsync halten kann, wozu braucht man VRR bei 60Hz und wenn man es halten kann, warum sind 60fps unspielbar? (abseits der highFPS Shooter)

Ne denke nicht (OT) Gehört mit zur Nutzung von Navi und Navi2 ;) Mir scheint aber ich bin von der Zockerei schon zu weit weg...

Nazar
2020-08-03, 07:36:46
Irgendwie wird es langsam lächerlich. Es geht nicht darum was man kann, sondern ab wann es definitiv keinen Spaß mehr macht.
Zu diesem Spaß gehört ein flüssiger Bildaufbau dazu, den jeder individuell wahrnimmt, die meisten Menschen nehmen diesen aber unterhalb von 60 FPS nicht mehr als flüssig wahr und natürlich die BQ.
Und Vsync ist mit Sicherheit keine adäquater Ersatz für VRR.

Aber das alles ist wirklich mehr als OT! :wink:

[MK2]Mythos
2020-08-03, 08:46:33
Zu diesem Spaß gehört ein flüssiger Bildaufbau dazu, den jeder individuell wahrnimmt, die meisten Menschen nehmen diesen aber unterhalb von 60 FPS nicht mehr als flüssig wahr
Quelle bitte.

pixeljetstream
2020-08-03, 08:53:11
Film: 24 FPS, TV 25/30 FPS... Und man denke an die Kontroverse von 48/60 FPS im Kino. Ergo die Quelle würde ich auch gern sehen

Wikipedia geht hier auf die Unterschiede ganz gut ein. Also Projektor sollte mehr Hz haben um Flicker free zu sein.
https://en.wikipedia.org/wiki/Frame_rate

dargo
2020-08-03, 08:56:54
Wenn man klassisch Vsync halten kann, wozu braucht man VRR bei 60Hz und wenn man es halten kann, warum sind 60fps unspielbar? (abseits der highFPS Shooter)

Weil der Inputlag bei 60fps mit Vsync grausam ist. Wenn ich die Wahl habe nehme ich 57-58fps mit VRR anstatt 60fps gevsynct. Ich muss aber ehrlich sagen, dass mir <60fps allgemein mittlerweile zu träge sind. So richtig wohl fühle ich mich mit 70+fps.

Thunderburne
2020-08-03, 09:12:44
vsync on limit 59 und du hast den inputlag nicht mehr bzw. nicht so wie mit vsync on.
Ich habe gerade meine 2080Ti verkauft die 1,5 Jahre die ich mit der in 4K gespielt habe liefen sehr viele Titel mit über 60 FPS auch wen es hin und wieder Titel gab die hartnäckiger waren konnte man mit ein paar wenigen Reglern schnell die 60 FPS wieder halten.
Texturen sind bei mir dabei aber immer auf Ultra .
Bei Doom habe ich maxout mit deutlich über 100 FPS Average gehalten.
DLSS 2.0 Qualität war grandios bei Young Blood und da gingen dann mit RT auch über 60 .

Ich hoffe Big Navi wird so ein richtiges Brett !

unl34shed
2020-08-03, 09:14:17
Kann es mal wieder um Navi gehen?

Berniyh
2020-08-03, 09:17:24
Film: 24 FPS, TV 25/30 FPS... Und man denke an die Kontroverse von 48/60 FPS im Kino. Ergo die Quelle würde ich auch gern sehen
Beim Film geht's aber mehr um stilistische Elemente. Man will ja da immer auch Unschärfe drin haben. Auch bei der Bewegung.
Spieler hingegen möchten (meistens) in jedem Bild ein möglichst exaktes Bild haben, frei von jeglicher Unschärfe, Schatten oder sonstigen Darstellungsartefakten.
Die Anforderungen kann man daher nicht so ohne weiteres vergleichen.

bzgl. 48 Hz vs. 60 Hz geht's auch noch mal um eine andere Problematik, das hat erst mal nichts mit der Wahrnehmung der jeweiligen Bildwiederholfrequenzen zu tun, sondern mehr damit, dass ein 60 Hz Bildschirm/Fernseher halt nicht gut 24 fps Material darstellen kann.

pixeljetstream
2020-08-03, 09:24:10
Da stimme ich voll zu. Selbst sowas wie SNES lief ja mit 50/60 FPS. Aber nazars Aussage war ja eine andere. Das inputlag bei spielen eine viel höhere Rolle spielt ist imo klar.
Bei so Aussagen wie Bewegungsunschärfe in Spielen wäre ich mir aber für die Allgemeinheit auch nicht so sicher. Da manche spiele ja bewusst "filmic" sind. Wenn ich persönlich am PC Spiele mache ich das alles aus, weil die Games halt "schnell sind" aber auf der Konsole am TV spiele ich anderes und da stört es mich nicht. Bin mir aber keiner studien dazu bewusst.

dargo
2020-08-03, 09:24:26
vsync on limit 59 und du hast den inputlag nicht mehr bzw. nicht so wie mit vsync on.

Reicht nicht... durch kleine Überschwinger in den Frametimes wirst du hier und da Tearing bekommen.

Thunderburne
2020-08-03, 09:27:06
Konnte mich über Tearing an meinem Oled nicht beschweren.
Handhabe das schon seit vielen Jahren so.
Schon zur Crossfire und SLI Zeit war es unabdingbar Vsync mit limiter zu nutzen oder hslt Gsync Freesync später.
Habe jetzt aber auch den CX von LG in 48Zoll ins Auge gefasst mit free und gsync .
Ist ja nicht schlecht wen man bis auf 41 Fps runter smooth zocken kann bis dato wollte ich das Geld aber nicht für LCDs in die Hand nehmen für mich selbst bei meiner Nutzung kommt nur noch Oled in Frage.

Bei vielen Dingen spielt halt auch der Persönliche Gusto mit rein verallgemeinern kann man das alles nicht immer.

Zu Big Navi mein Traum wäre 10-15% schneller wie schnellste Consumer HIGH End Ampere und mit 16GB.

Nazar
2020-08-03, 10:37:44
Mythos;12381499']Quelle bitte.

Google is your friend.
And, btw., wenn du mir nicht glaubst, dann widerlege mich bitte, natürlich mit Quelle ("seltsam", dass du die Quelle der andere Aussage nicht angefordert hast? ;)).
Mach dich doch einfach selber mal schlau. :wink:

Mal etwas zum Nachlesen und zum Nachdenken
http://www.100fps.com/how_many_frames_can_humans_see.htm

MXtNufcVEmE

@Thema
Angeblich soll die 3080 8600 GPU Punkte in Time Spy Extrem schaffen, das wären gerade mal 17% mehr als meine 2080Ti schafft. Das sollte doch Big Navi auch locker schaffen.... und hoffentlich gibt es auch deutlich mehr VRAM

HOT
2020-08-03, 11:38:12
Mit DLSS3 bestimmt aber nur.

Dampf
2020-08-03, 11:44:22
@Thema
Angeblich soll die 3080 8600 GPU Punkte in Time Spy Extrem schaffen, das wären gerade mal 17% mehr als meine 2080Ti schafft. Das sollte doch Big Navi auch locker schaffen.... und hoffentlich gibt es auch deutlich mehr VRAM

Ja, das ist realistisch. Wenn dann Big Navi deutlich günstiger wird als die 3080 wäre das ein sehr gutes Produkt, man muss ja nicht mit der 3090 gleichziehen. Wenn die 3080 sagen wir 700€ kostet und Big Navi für 550€ über die Ladentheke geht, dann steht AMD glorreiche GPU-Zeiten bevor.

JVC
2020-08-03, 11:47:25
Die "3090" soll aber auch nur ~15-20% auf die 3080 drauf legen ...
Es bleibt spannend ^^

Hauptsache 16Gb und HDMI 2.1 :smile:
(alte Spiele und 8K ich komme ^^ hätte einiges nach zu holen)

M.f.G. JVC

@Dampf
~590.- sind gar nicht total abwegig (für die 2t schnellste vermutlich 14Gb AMD) und wären tatsächlich geil :D
Ich hoffe aber auch, das der Maximalausbau bei um die 800.- bleibt.
Bei mehr als 1K kann NV sowieso abliefern was sie lustig sind ^^ (nicht mein Preisbereich)

HOT
2020-08-03, 11:59:35
Ja, das ist realistisch. Wenn dann Big Navi deutlich günstiger wird als die 3080 wäre das ein sehr gutes Produkt, man muss ja nicht mit der 3090 gleichziehen. Wenn die 3080 sagen wir 700€ kostet und Big Navi für 550€ über die Ladentheke geht, dann steht AMD glorreiche GPU-Zeiten bevor.
Ich glaube nicht. N21 legt mindestens 120% auf N10 drauf, das wird gerne unterschätzt. Rein rechnerisch kommt man in etwa auf das Gleiche raus, wenn man 120% auf N10XT rechnet oder 50% auf die 2080Ti.

y33H@
2020-08-03, 12:05:39
Doppelte CUs skalieren nicht linear, auch nicht bei höherem Takt.

HOT
2020-08-03, 12:07:45
Na ja, es sind ja nicht doppelte CUs, es sind weiterhin 10 CUs pro Shaderengine. Ich hab da keine Effizienzbedenken. Das müsste zu N10 in etwa gleich sein (+ zu erwartende Architekturverbesserungen).

JVC
2020-08-03, 12:11:08
Ist immerhin die (seit längerem) erste GPU die rein fürs das Gaming gemacht wurde.
(da wurde ordentlich ausgemistet und umgebaut)
Und die Zusammenarbeit mit den Konsolen sollte doch auch etwas geholfen haben.

Meine Erwartungen an ein wirklich gutes P/L Paket sind sehr hoch ^^
Und ich erwarte das RDNA länger hält als meine 1080Ti die eigentlich schon wieder veraltet ist...

Ich erwarte das die so gut altert wie die 390(X) 8Gb 512Bit ;)
(die bei mir noch immer den Beamer mit FHD versorgt ^^)

M.f.G. JVC

robbitop
2020-08-03, 12:13:55
Na ja, es sind ja nicht doppelte CUs, es sind weiterhin 10 CUs pro Shaderengine. Ich hab da keine Effizienzbedenken. Das müsste zu N10 in etwa gleich sein (+ zu erwartende Architekturverbesserungen).
Auch mit unendlich guter Granularität gibt es einfach auf der Seite der Aufgabengröße im Bereich 3D das Problem, dass die Parallelisierbarkeit begrenzt ist. Das ist der Grund, warum man nicht einfach immer mehr Shaderengines/GPCs dazuflanscht (und eher überproportional mehr Transistoren in IPC und Takt investiert).

Entsprechend kann es bei 40->80 CUs schon dazu kommen, dass die Skalierung nicht 1:1 durchschlägt.

HOT
2020-08-03, 12:36:11
wir werden sehen, was dabei rauskommt. Ich würde aber sagen, es hängt nicht zuletzt am Takt, der bei beiden erreicht werden kann.

Iscaran
2020-08-03, 13:01:28
Sorry für OT - aber die Diskussion hier wieder. Als ob InputLag ausschliesslich an FPS oder Hertz-Zahlen der Displays liegen würde.

Hier fehlt soviel grundlegendes Inputlagverständnis das man gar nicht weiss wo man anfangen soll irgendwas zu kommentieren. Die FPS der GPU sind nur ein TEIL des InputLags...auch die Hz-Zahl des Monitors gibt nur sehr bedingt Aufschluß über den real existierenden Inputlag eines Displays...
https://www.anandtech.com/show/2803/7

Können wir nun wieder zu Spekulationen über Navi zurückkehren ?

Thunderburne
2020-08-03, 13:29:19
https://www.computerbase.de/2020-08/amd-navi-21-80-cu/

[MK2]Mythos
2020-08-03, 13:34:25
550 Euro für Big Navi kann doch nur ein Scherz, oder feuchter Wunschtraum sein. Unter 700 Euro wird das Ding garantiert nicht kosten.

Dampf
2020-08-03, 13:37:37
Mythos;12381747']550 Euro für Big Navi kann doch nur ein Scherz, oder feuchter Wunschtraum sein. Unter 700 Euro wird das Ding garantiert nicht kosten.

Warum? Wenn die 3080 700€ kostet, sind 150€ weniger doch durchaus realistisch, AMD investiert deutlich weniger in AI als Nvidia und hat kein Tensor Core Äquivalent (und damit potentiell deutlich weniger Leistung wenn Spiele mehr auf ML setzen und natürlich kein DLSS). Außerdem scheint die Raytracing Leistung ungefähr auf Turing zu sein, wenn man die Xbox Series X mit einer 2080 Super vergleicht. Ampere sollte auch da etwas schneller werden.

Durch den niedrigeren Preis wäre das aber egal. Sollte sie aber so viel kosten wie die 3080 halte ich es für keinen guten Kauf. Mindestens 100€ weniger sollte es schon sein.

HOT
2020-08-03, 13:40:50
Sorry für OT - aber die Diskussion hier wieder. Als ob InputLag ausschliesslich an FPS oder Hertz-Zahlen der Displays liegen würde.

Hier fehlt soviel grundlegendes Inputlagverständnis das man gar nicht weiss wo man anfangen soll irgendwas zu kommentieren. Die FPS der GPU sind nur ein TEIL des InputLags...auch die Hz-Zahl des Monitors gibt nur sehr bedingt Aufschluß über den real existierenden Inputlag eines Displays...
https://www.anandtech.com/show/2803/7

Können wir nun wieder zu Spekulationen über Navi zurückkehren ?

Können wir mal dieses angepinkel lassen? Das ist ja albern... und dann auch noch Thema verfehlt :freak:

Berniyh
2020-08-03, 14:14:32
Warum? Wenn die 3080 700€ kostet, sind 150€ weniger doch durchaus realistisch, AMD investiert deutlich weniger in AI als Nvidia und hat kein Tensor Core Äquivalent (und damit potentiell deutlich weniger Leistung wenn Spiele mehr auf ML setzen und natürlich kein DLSS). Außerdem scheint die Raytracing Leistung ungefähr auf Turing zu sein, wenn man die Xbox Series X mit einer 2080 Super vergleicht. Ampere sollte auch da etwas schneller werden.

Durch den niedrigeren Preis wäre das aber egal. Sollte sie aber so viel kosten wie die 3080 halte ich es für keinen guten Kauf. Mindestens 100€ weniger sollte es schon sein.
Die 5700XT war zu Beginn bei 400-500€, die Radeon VII bei 700€.
Und du glaubst ernsthaft AMD wird eine High-End GPU bei 550€ ansetzen?
Solchen Träumereien sollte man sich lieber nicht hingeben, das führt nur zu Enttäuschung.

In meinen Augen wäre es schon eine Überraschung, wenn das Top Modell deutlich unter 1000€ liegt.

Zergra
2020-08-03, 14:22:28
Also bei den Vorstellung an die Performance und den 550€ wird eins von beiden ziemlich sicher nicht eintreten, wenn die Performance da landet wo einige sich das so sehr wünschen, dann wird die Karte auch 7-800€ Kosten.

Piefkee
2020-08-03, 14:35:28
Also bei den Vorstellung an die Performance und den 550€ wird eins von beiden ziemlich sicher nicht eintreten, wenn die Performance da landet wo einige sich das so sehr wünschen, dann wird die Karte auch 7-800€ Kosten.

Leute, eine 505mm^2 RDNA2 wird niemals in diesen Preiskateogrie angeboten. Siehe N10.
Big Navi wird sicherlich >1000€ sein. Genauso wird NV die 3080Ti >1200€ verkaufen.

Grendizer
2020-08-03, 14:46:18
Ja, das ist realistisch. Wenn dann Big Navi deutlich günstiger wird als die 3080 wäre das ein sehr gutes Produkt, man muss ja nicht mit der 3090 gleichziehen. Wenn die 3080 sagen wir 700€ kostet und Big Navi für 550€ über die Ladentheke geht, dann steht AMD glorreiche GPU-Zeiten bevor.

Wen die günstigste 5700 XT aktuell 349 kostet, wie realistisch sind dann 550 für die doppelte CU anzahl ?

Dino-Fossil
2020-08-03, 14:50:49
Wenn AMD Performance-mäßig mit nVidia mithalten können, werden sie auch ähnliche Preise verlangen, zumindest wenn man die aktuelle Situation betrachtet.
Sollte nVidia abseits der reinen Rohpower einige interessante exklusive Features bieten (immerhin im Rahmen des Möglichen, soweit aktuell absehbar), wäre das vielleicht noch ein Grund für AMD, Kampfpreise zu fahren.

Piefkee
2020-08-03, 14:51:25
Wen die günstigste 5700 XT aktuell 349 kostet, wie realistisch sind dann 550 für die doppelte CU anzahl ?


0%

Piefkee
2020-08-03, 14:53:17
Wenn AMD Performance-mäßig mit nVidia mithalten können, werden sie auch ähnliche Preise verlangen, zumindest wenn man die aktuelle Situation betrachtet.
Sollte nVidia abseits der reinen Rohpower einige interessante exklusive Features bieten (immerhin im Rahmen des Möglichen, soweit aktuell absehbar), wäre das vielleicht noch ein Grund für AMD, Kampfpreise zu fahren.

AMD wird keinen Preiskampf mit NV eingehen, weil sie den Verlieren. AMD besser gesagt Lisa Su hat mehrfach angedeutet das sie gerade im GPU Markt höhere Marge wollen. Daher wird Big Navi alles andere als "billig".

Ich denke auch das NV ihre 3080Ti bei 1300€ platieren wird...

BlacKi
2020-08-03, 14:56:08
die 24gb karte?

Piefkee
2020-08-03, 15:04:10
die 24gb karte?

Nö, die normale 3080Ti oder 3090, wie sie auch immer heißen mag.


Launchpreis 2080Ti --> 1.260 Euro
Launchpreis 3080Ti mehr als 2080Ti Launchpreis

Berniyh
2020-08-03, 15:07:37
Wenn AMD Performance-mäßig mit nVidia mithalten können, werden sie auch ähnliche Preise verlangen, zumindest wenn man die aktuelle Situation betrachtet.
Sollte nVidia abseits der reinen Rohpower einige interessante exklusive Features bieten (immerhin im Rahmen des Möglichen, soweit aktuell absehbar), wäre das vielleicht noch ein Grund für AMD, Kampfpreise zu fahren.
AMD fährt selbst bei der 5500 (XT) keine Kampfpreise und bietet die Karte im Grunde überteuert an.
Auch die 5700 (XT) ist selbst ein Jahr nach Erscheinen immer noch relativ stabil im Preis.
Für solche Spielereien sind die 7nm Prozesse schlicht zu teuer.

Complicated
2020-08-03, 15:31:35
Warum sollte man die Preise senken, wenn man die dadurch erhöhte Nachfrage nicht liefern kann? AMD orientiert sich an der Wafer-Menge, die Ihnen zur Verfügung steht und hat derzeit keinerlei Grund bei GPUs irgendwelche Preisschlachten zu beginnen ohne dadurch mehr GPUs zu verkaufen. Also werden Sie Margen anheben, was ja auch erklärtes Ziel der Geschäftsführung ist, um die niedrigeren Konsolenmargen besser zu kompensieren.

LasterCluster
2020-08-03, 16:04:53
Warum sollte man die Preise senken, wenn man die dadurch erhöhte Nachfrage nicht liefern kann? AMD orientiert sich an der Wafer-Menge, die Ihnen zur Verfügung steht und hat derzeit keinerlei Grund bei GPUs irgendwelche Preisschlachten zu beginnen ohne dadurch mehr GPUs zu verkaufen.

Sehe ich auch so. Letztendlich entscheidet TSMC über AMDs Preissetzung. Hier sind aber mMn durchaus Überraschungen möglich. Falls das Gerücht stimmt, dass ab September wegen Huawei enorm Kapazitäten frei werden und diese nicht hauptäschlich in Zen3 fließen, könnte es im Performance/High-end GPU Markt wirklich interessant werden.

HOT
2020-08-03, 16:08:31
Nö, die normale 3080Ti oder 3090, wie sie auch immer heißen mag.


Launchpreis 2080Ti --> 1.260 Euro
Launchpreis 3080Ti mehr als 2080Ti Launchpreis


Da AMD in ähnlichen Regionen unterwegs ist wie NV wird sich kein Hersteller über die 1000€-Marke trauen. Ausnahme wäre das 24GB-Modell denke ich, vielleicht aber auch nicht, mal sehen. Man wird 1000€ als Schmerzgrenze ansehen, ich würd dieses Mal ne 3080Ti mit 12GB auf 999€ verorten. AMD wird diese Marke nicht ankratzen, weil man sicher auch ein bisschen Masse loswerden möchte und wird denke ich mit dem Top-Produkt bei 899€ sich platzieren. Die Salvage-Parts dürften dann um die 650-750€ rauskommen. In der Vergangenheit hat man eben leicht höhere Preise veranschlagt, aber völlig konkurrenzlos eben. Da aber dieses Mal echte Konkurrenz zu erwarten ist, und man gerne Erstkäufer abgreifen möchte, da NV ja definitiv früher ist, wird man sicher eine leichte Preisreduktion als Anreiz nutzen wollen.

Mein Tipp wäre also:

NV
3090 -> 1300€
3080Ti -> 1000€
3080 -> 750€

(2080 Super bis unten bleibt bis 3070-Launch mit Preisanpassung aktuell)

AMD
6900XT -> 900€
6900 -> 650€
6800XT -> 500€
6800 -> 400€

(N10 rutscht sicher in die 300€-Region und bleibt bis zum N23-Launch aktuell, SC und NF launchen mMn zusammen)

Flusher
2020-08-03, 16:32:44
AMD muss erst mal wieder die verlorenen Marktanteile im Highend und Enthusiasten-Segement zurückgewinnen. Daher kann ich mir eine aggressive Preisstrategie durchaus vorstellen - vorausgesetzt sie haben auch ein Produkt das in diesem Bereich mitspielen kann.

Berniyh
2020-08-03, 16:46:20
Falls das Gerücht stimmt, dass ab September wegen Huawei enorm Kapazitäten frei werden und diese nicht hauptäschlich in Zen3 fließen, könnte es im Performance/High-end GPU Markt wirklich interessant werden.
Mittelfristig vermutlich schon, wobei da wohl noch genug andere Kunden anstehen.
Aber die Kapazitäten sollten ja angeblich bei N5/N5+ frei werden und soweit ist AMD noch nicht (aus Consumer-Sicht).
Das ist wohl erst für RDNA3 eine Option und damit frühestens Ende 2021 bzw. eher 2022.

RDNA2 bleibt wohl bei N7P oder N7+, an einen Refresh in N5+ mag ich nicht so richtig glauben, das hätte man wohl auf den Roadmaps zuletzt gesehen.

Relic
2020-08-03, 16:46:57
AMD muss erst mal wieder die verlorenen Marktanteile im Highend und Enthusiasten-Segement zurückgewinnen. Daher kann ich mir eine aggressive Preisstrategie durchaus vorstellen - vorausgesetzt sie haben auch ein Produkt das in diesem Bereich mitspielen kann.

Und wo genau sollen dafür die Wafer bei TSMC herkommen?

Brillus
2020-08-03, 16:50:00
Da AMD in ähnlichen Regionen unterwegs ist wie NV wird sich kein Hersteller über die 1000€-Marke trauen. Ausnahme wäre das 24GB-Modell denke ich, vielleicht aber auch nicht, mal sehen. Man wird 1000€ als Schmerzgrenze ansehen, ich würd dieses Mal ne 3080Ti mit 12GB auf 999€ verorten. AMD wird diese Marke nicht ankratzen, weil man sicher auch ein bisschen Masse loswerden möchte und wird denke ich mit dem Top-Produkt bei 899€ sich platzieren. Die Salvage-Parts dürften dann um die 650-750€ rauskommen. In der Vergangenheit hat man eben leicht höhere Preise veranschlagt, aber völlig konkurrenzlos eben. Da aber dieses Mal echte Konkurrenz zu erwarten ist, und man gerne Erstkäufer abgreifen möchte, da NV ja definitiv früher ist, wird man sicher eine leichte Preisreduktion als Anreiz nutzen wollen.

Mein Tipp wäre also:

NV
3090 -> 1300€
3080Ti -> 1000€
3080 -> 750€

(2080 Super bis unten bleibt bis 3070-Launch mit Preisanpassung aktuell)

AMD
6900XT -> 900€
6900 -> 650€
6800XT -> 500€
6800 -> 400€

(N10 rutscht sicher in die 300€-Region und bleibt bis zum N23-Launch aktuell, SC und NF launchen mMn zusammen)


Der Abstand zwischen 6900XT und 6900 find ich zu groß im Vergleich zu 6900 -> 6800XT.

Da würde ich eher 750€ ansetzen.

Sollte 6900XT an die Titan ran kommen sehe ich da auch 999€ für die. 4-Stellig denk ich nicht wegen Physiologischen Gründen.

Berniyh
2020-08-03, 16:52:42
AMD muss erst mal wieder die verlorenen Marktanteile im Highend und Enthusiasten-Segement zurückgewinnen. Daher kann ich mir eine aggressive Preisstrategie durchaus vorstellen - vorausgesetzt sie haben auch ein Produkt das in diesem Bereich mitspielen kann.
Wen interessieren denn bitte Marktanteile im Enthusiasten-Segment? Selbst High-End wird nicht soooo wahnsinnig oft verkauft, dass das entscheidend wäre.

Die Musik spielt im Bereich einer 1660 bis 2070 Super. Da sind Marktanteile deutlich wichtiger.
Da hatte AMD aber schon die letzten Jahre diverse Produkte platziert und keine aggressive Preisstrategie verfolgt, warum sollten sie es jetzt bei den höherwertigen Karten machen?

Flusher
2020-08-03, 16:59:36
Und wo genau sollen dafür die Wafer bei TSMC herkommen?

Ich denke, dass AMD zwischenzeitlich für TSMC ein sehr lukrativer Auftraggeber ist. Da wird AMD bei einer solchen Strategie durchaus einen Hebel haben und sich entsprechende Kontingente reservieren können.

Wen interessieren denn bitte Marktanteile im Enthusiasten-Segment? Selbst High-End wird nicht soooo wahnsinnig oft verkauft, dass das entscheidend wäre.

Die Musik spielt im Bereich einer 1660 bis 2070 Super. Da sind Marktanteile deutlich wichtiger.
Da hatte AMD aber schon die letzten Jahre diverse Produkte platziert und keine aggressive Preisstrategie verfolgt, warum sollten sie es jetzt bei den höherwertigen Karten machen?

Die Flagship-Produkte haben immer auch auf die kleineren Karten abgefärbt und deren Absatz angekurbelt. Ich halte die Theorie nicht für abwegig.

Berniyh
2020-08-03, 17:09:20
Natürlich haben Halo Produkte eine gewisse Strahlkraft, sonst würde man die ja nicht umsetzen (weil zu teuer und risikoreich).
Aber diese Strahlkraft entsteht ja nicht durch aggressives Preisdumping o.ä. sondern durch die Leistung der Karten.
Insofern spielt der Marktanteil bei diesen Karten wohl keine so große Rolle. Die Performance hingegen schon eher.

davidzo
2020-08-03, 17:13:55
AMD fährt selbst bei der 5500 (XT) keine Kampfpreise und bietet die Karte im Grunde überteuert an.
Auch die 5700 (XT) ist selbst ein Jahr nach Erscheinen immer noch relativ stabil im Preis.
Für solche Spielereien sind die 7nm Prozesse schlicht zu teuer.
Naja, die neuen Konsolen werden da schon für ein neues Preisniveau sorgen. Sowohl was die Konkurrenz mit dem PC als Spieleplattform angeht (da reagiert auch nvidia letztendlich drauf), als auch was process maturity angeht. Der Prozess ist mittlerweile gute 2 Jahre alt und wird gerade durch 7nm euv, 6nm und 5nm übertroffen. Das wird schon um einiges günstiger geworden sein, vor allem bei den Mengen die AMD jetzt inkl. cpus und semi custom gebucht hat.

Die preise der 5500xt werden andere Gründe haben. Zum Beispiel dass man den Chip in erster Linie als mobile chip platziert hat und man durch den Desktop eben nur die schlechten Bins los wird. Vermutlich hat man den chip einfach nicht mit vielen Masken parallel in Produktion, wozu also billiger anbieten wenn dadurch nur engpässe entstehen würden?

reaperrr
2020-08-03, 17:26:03
AMD muss erst mal wieder die verlorenen Marktanteile im Highend und Enthusiasten-Segement zurückgewinnen. Daher kann ich mir eine aggressive Preisstrategie durchaus vorstellen - vorausgesetzt sie haben auch ein Produkt das in diesem Bereich mitspielen kann.
Wenn AMD preislich zu aggressiv wird, dann wird NV auch dagegenhalten, dann haben wir bei P/L wieder Status Quo, nur mit weniger Marge pro Karte. Für uns Konsumenten wär's schön, aber von den Herstellern hätte keiner was davon, darum wird's wohl auch nicht passieren.

Flusher
2020-08-03, 17:40:18
Natürlich haben Halo Produkte eine gewisse Strahlkraft, sonst würde man die ja nicht umsetzen (weil zu teuer und risikoreich).
Aber diese Strahlkraft entsteht ja nicht durch aggressives Preisdumping o.ä. sondern durch die Leistung der Karten.
Insofern spielt der Marktanteil bei diesen Karten wohl keine so große Rolle. Die Performance hingegen schon eher.

Wer hat denn was von Preisdumping gesagt? Es reicht ja schon wenn die karte bei gleicher Leistung 10 % weniger kostet als das Nvidia Pendant.

gedi
2020-08-03, 17:41:28
Leute, eine 505mm^2 RDNA2 wird niemals in diesen Preiskateogrie angeboten. Siehe N10.
Big Navi wird sicherlich >1000€ sein. Genauso wird NV die 3080Ti >1200€ verkaufen.

Ich halte selbst 1200€ für ne Ti für Wunschdenken. Und Navi schlägt nur wenig darunter ein.

unl34shed
2020-08-03, 17:42:48
Und wo genau sollen dafür die Wafer bei TSMC herkommen?

https://www.computerbase.de/2020-08/geruechte-wafer-kaeufe-amd-apple-tsmc/

Rampage 2
2020-08-03, 17:56:31
Wenn AMD preislich zu aggressiv wird, dann wird NV auch dagegenhalten, dann haben wir bei P/L wieder Status Quo, nur mit weniger Marge pro Karte. Für uns Konsumenten wär's schön, aber von den Herstellern hätte keiner was davon, darum wird's wohl auch nicht passieren.

Wenn der N2X-Topdog wirklich auf Gleichstand (oder fast gleich) mit der 3090/3080Ti/Titan ist und 16GB VRAM hat, dann finde ich einen Preis von 800$ (umgerechnet knapp 900€) durchaus angemessen - schließlich sind die Entwicklungs- und Herstellungskosten nicht mehr so niedrig wie vor 10 Jahren. Aber 800$ sollte IMO auch die maximale Obergrenze für das Enthusiast-Segment sein - sowohl für AMD und Nvidia. Produkte mit doppelter Speicherbestückung (z.B. 24 statt 12GB) können meinetwegen 100-200$ mehr bepreist werden - also 900-1000$ als absolutes Maximum für die NonPlusUltra-Modelle. Auf keinen Fall höher.

Wenn AMD sich auf ein solches Preislevel einpendelt und eine konkurrenzfähige Leistung zum NV-Topdog bietet, dann muss Nvidia zwangsläufig reagieren (preislich), was für uns Konsumenten nur Gutes bedeuten kann...

R2

LasterCluster
2020-08-03, 18:58:05
https://www.computerbase.de/2020-08/geruechte-wafer-kaeufe-amd-apple-tsmc/

Vielen Dank für den Link. Interessant daraus:


AMD kauft unterm Strich ab dem kommenden Jahr laut Prognosen mehr Wafer für die Belichtung von Chips, allerdings noch fast ausschließlich aus der 7-nm-Fertigung [...].
Laut dem chinesischen Magazin UDN hatte AMD bei TSMC im Jahr 2019 eine Abnahmemenge von 2.000 bis 3.000 Wafern pro Monat, in diesem Jahr erhöhte sich die Menge auf bis zu 8.000 Wafer pro Monat. Im kommenden Jahr soll der Wert noch einmal verdoppelt werden: Über 16.000 Wafer pro Monat [...]


Es geht also tatsächlich erst mal um 7nm, wenn man CB bzw deren Quellen glauben will. Die Steigerung der Wafermenge ist wirklich beeindruckend, kann aber letztenlich einfach an Zen 2 und 3 liegen. Aber zumindest die Option auf eine -leicht- aggressivere Strategie ist drin. Die Preispolitik bei N10 und 14 sagt deswegen nichts aus.

Cyberfries
2020-08-03, 19:42:59
2021 endet das aktuelle Wafer Supply Agreement.
Kombiniert mit den wesentlich größeren Abnahmemengen bei TSMC deutet das daraufhin, dass AMD Globalfoundries weitestgehend aufgibt.

Glofo ist vermutlich auch ein Grund für die hohen Preise und die schlechte Verfügbarkeit von Navi 14.
Da wird noch der alte Ballast in Form von Polaris mitgeschleift, bis man nicht mehr muss.

edit: Korrektur: Bis 2021 gelten noch die aktuellen Abnahmemengen des WSA, das WSA selbst bis 2024.

Complicated
2020-08-03, 19:44:37
Nur stimmen die Zahlen halt vorne und hinten nicht. Selbst Computerbase zweifelt das an - zu Recht.
Das WSA von AMD endet im März 2024.

Daredevil
2020-08-03, 19:53:16
schließlich sind die Entwicklungs- und Herstellungskosten nicht mehr so niedrig wie vor 10 Jahren.
Also eigentlich sollte bei RDNA2 ja die Entwicklung eh schon gut gedeckt sein durch die ganzen Konsolensache, oder nicht?
AMD wird doch sicherlich den Chip grundsätzlich für die Konsolen gebastelt haben und "zufällig" bekommen wir den auch in den PC, nicht umgekehrt, mh?

gedi
2020-08-03, 20:01:30
Also eigentlich sollte bei RDNA2 ja die Entwicklung eh schon gut gedeckt sein durch die ganzen Konsolensache, oder nicht?
AMD wird doch sicherlich den Chip grundsätzlich für die Konsolen gebastelt haben und "zufällig" bekommen wir den auch in den PC, nicht umgekehrt, mh?

Auch hier halte ich mich an Lisa: Man wird in Zukunft weder Intel noch NV unterschätzen. Wenn es jemand weiß, wie es um den Entwicklungsstand aussieht, dann ist es wohl AMDs Wonderwoman

nordic_pegasus
2020-08-03, 20:20:33
Mein Tipp wäre also:

NV
3090 -> 1300€
3080Ti -> 1000€
3080 -> 750€



ist in Deiner Nomenklatur die 3090 die neue Titan oder fehlt da noch eine Titan über der 3090? Ein Preissturz von 2700€ (Titan RTX) zu 1300€ (GA102 Vollausbau) halte ich für zu schön um wahr zu sein.

Daredevil
2020-08-03, 20:22:27
Auch hier halte ich mich an Lisa: Man wird in Zukunft weder Intel noch NV unterschätzen. Wenn es jemand weiß, wie es um den Entwicklungsstand aussieht, dann ist es wohl AMDs Wonderwoman
Was hat dich denn jetzt veranlasst, diesen Text zu antworten? Also, habe ich irgendwie was gegenteiliges geschrieben? ^^

Nightspider
2020-08-03, 20:26:12
Es ist eine Kosten/Nutzen-Frage. Mehr als 12 GB VRAM ist halt nicht notwendig und würde die Kosten nur unnötig in die Höhe treiben. Es hätte null Nutzen. Dann investiert man das Geld doch lieber in eine allgemein höhere Performance oder reduziert den Endkunden-Preis.

Bei AMD vielleicht. Nvidia ist für die Preissteigerungen der letzten Jahre verantwortlich. Deren Marge ist immer weiter gestiegen.


Das kommt auch immer wieder. Die jetzige Generation der Karten ist bestens aufgestellt für diesen Umbruch. Dieser hat bereits Mitte der Konsolen-Generation stattgefunden, als wir von Maxwell zu Pascal gewechselt sind. 6 GB VRAM wurden in dieser Generation von der Elite-Klasse in die Mittelklasse degradiert, der PC hat diesen Next Gen Sprung also schon hinter sich.

Letzte Generation zu dieser, also PS3 zu PS4, hatten wir einen deutlich, deutlich größeren Anstieg an Speicher als jetzt.

Die XSX hat nur 13.5 GB Speicher für Spiele, den sie auch noch zwischen GPU und CPU teilen muss. Ein PC mit einer 3080Ti mit dediziertem 12 GB VRAM und mindestens 16 GB RAM ist da haushoch überlegen.

Es wurden schon Vergleiche von diversen Seiten gezogen und eine 2080 mit 8 GB VRAM zieht mit einer Xbox Series X in den meisten Fällen gleich und kann auch die Unreal Engine 5 mit ihrer großartigen Geometrie ohne Probleme darstellen.

Der Blödsinn den du schreibst, kommt auch immer wieder.

Microsoft hat gesagt das die Xbox Series X 10GB als VRAM nutzen kann und das der effektive VRAM durch Komprimierung und der superschnellen SSD >=3 mal so hoch sein soll.
Da dir so eine Komprimierung am PC fehlt brauchst du halt viel mehr VRAM am PC. Und eine neue SSD kannst du zum Kampfpreis auch gleich zur arschteuren Grafikkarte dazukaufen.

Bei der PS5 siehts genauso aus. Da haben wir einen Anstieg des effektiven VRAMs von knapp 3,5GB bei der PS4 auf effektiv auch ~20-30GB.

Jupiter
2020-08-03, 20:55:27
Was nützt das schnelle Laden der SSD bei volumetrischen Grafikeffekten etc., die eher gehalten werden müssen? Was hat der VRAM mit SSD zu tun? Selbst DDR3-RAM ist mit 17 GB/s schneller als die SSD der nächsten Konsolen. Seit wann ist DDR3 ein Ersatz für VRAM?

Rampage 2
2020-08-03, 20:57:42
Da dir so eine Komprimierung am PC fehlt brauchst du halt viel mehr VRAM am PC. Und eine neue SSD kannst du zum Kampfpreis auch gleich zur arschteuren Grafikkarte dazukaufen.

Eine superschnelle PCIe-Anbindung in Kombination mit HBCC (AMD) oder jetzt mit NVCache (Nvidia) an den Hauptspeicher könnte das Problem lösen - PCIe 6.0 wird über 100GB/sek. in beide Richtungen ermöglichen, aber leider ist das noch einige Jahre entfernt. Überhaupt ist es sinnvoller, die Daten aus dem Hauptspeicher zu laden statt von der SSD, da heutiger DDR4-RAM den Durchsatz aktueller NVMe-SSDs spielend um mehr als das 10fache übertrifft und Highspeed-DDR4-RAM (4000< MHz) sogar kommende PCIe 4.0-SSDs um das Zehnfache überrundet...

So hätte man am PC effektiv 40-56 GB "Grafikspeicher" für Spiele (bei angenommen 32GB RAM + 8-24GB VRAM). :naughty:

Der XDR-RAM der PS3 war seiner Zeit weit voraus, dafür war aber die Bandbreite des Grafikspeichers leider zu niedrig. Dennoch eine sehr interessante Technik:)

R2

Nightspider
2020-08-03, 21:04:52
Was nützt das schnelle Laden der SSD bei volumetrischen Grafikeffekten etc., die eher gehalten werden müssen? Was hat der VRAM mit SSD zu tun? Selbst DDR3-RAM ist mit 17 GB/s schneller als die SSD der nächsten Konsolen. Seit wann ist DDR3 ein Ersatz für VRAM?

Denk doch mal nach.

Glaubst du 8-10 GB an Daten werden ununterbrochen benutzt? Nein, werden sie nicht.
Langsame HDDs mit extrem hohen Zugriffszeiten waren bisher der Grund warum man nicht viel öfter die Daten im VRAM getauscht hat und der restlichen Hauptspeicher war bei den Konsolen auch schon immer komplett belegt.

Mit den superschnellen SSDs die effektiv 10GB/s und mehr schaffen könnte man theoretisch jede Sekunde den kompletten Datensatz tauschen und man kann viel schneller die Daten nachladen, die gleich benötigt werden und muss viel weniger Daten vorhalten.

Hast du dich überhaupt mal mit den neuen Konsolen beschäftigt oder mit der PS5 Präsentation?

Das Thema wurde schon 10 mal durchgekaut.

Mit ausreichend RAM kann man dem Problem am PC auch beikommen aber dann muss man wirlich auch genug vorhalten. Dennoch ist die Frage wie gut die Latenzen werden und wie sich das auf die Frametimes auswirken wird.
Am PC hast du einen viel größeren Overhead bei Windows, Treibern und Co. und es gibt millionen vers. Hardware Konfigurationen.

Wenn einige neue NextGen Games diese ~10GB/s SSDs + Komprimierungen der neuen Konsolen konstant nutzen werden kann es hintenrum auch eng werden am PC.

Genau wissen wir es noch nicht aber ich will keine highend Karte mit grüppeligen 8-12 GB VRAM.

Edit:

Spannend wird deshalb ob Ampere und Big Navi Hardware Einheiten zur Kompression von Texturen und Co. besitzen werden.

ChaosTM
2020-08-03, 21:18:01
Laut Intel sollten die Speicher Dank X-Point bereits unified sein, sprich kein laden mehr nötig...
Aber weit sind wird nicht mehr davon entfernt.

Jupiter
2020-08-03, 21:32:11
Denk doch mal nach.

Glaubst du 8-10 GB an Daten werden ununterbrochen benutzt? Nein, werden sie nicht.
Langsame HDDs mit extrem hohen Zugriffszeiten waren bisher der Grund warum man nicht viel öfter die Daten im VRAM getauscht hat und der restlichen Hauptspeicher war bei den Konsolen auch schon immer komplett belegt.

Mit den superschnellen SSDs die effektiv 10GB/s und mehr schaffen könnte man theoretisch jede Sekunde den kompletten Datensatz tauschen und man kann viel schneller die Daten nachladen, die gleich benötigt werden und muss viel weniger Daten vorhalten.

Hast du dich überhaupt mal mit den neuen Konsolen beschäftigt oder mit der PS5 Präsentation?

Das Thema wurde schon 10 mal durchgekaut.

Mit ausreichend RAM kann man dem Problem am PC auch beikommen aber dann muss man wirlich auch genug vorhalten. Dennoch ist die Frage wie gut die Latenzen werden und wie sich das auf die Frametimes auswirken wird.
Am PC hast du einen viel größeren Overhead bei Windows, Treibern und Co. und es gibt millionen vers. Hardware Konfigurationen.

Wenn einige neue NextGen Games diese ~10GB/s SSDs + Komprimierungen der neuen Konsolen konstant nutzen werden kann es hintenrum auch eng werden am PC.

Genau wissen wir es noch nicht aber ich will keine highend Karte mit grüppeligen 8-12 GB VRAM.

Wenn ein Spiel viel Raytrcing, volumetrische Effekte etc. hat braucht es wahrscheinlich permanent viel Speicher. Da reichen auch die 10 GB/s nicht, sonst wären die Effekte schon früher im RAM und nicht im VRAM gewesen.

Festplatten werden am PC immer schneller. PCI-Express 5.0 könnte nicht mehr so weit weg sein und 6.0, 7.0 usw. werden folgen.

Ansonsten könnten sich auch 128 GB DDR 4 gekauft werden und dagegen wären die Konsolen auch langsamer.

8 GB sind in der Tat lächerlich. 16 GB würde ich als optimal ansehen.

Zossel
2020-08-03, 21:34:13
Eine superschnelle PCIe-Anbindung in Kombination mit HBCC (AMD) oder jetzt mit NVCache (Nvidia) an den Hauptspeicher könnte das Problem lösen - PCIe 6.0 wird über 100GB/sek. in beide Richtungen ermöglichen, aber leider ist das noch einige Jahre entfernt. Überhaupt ist es sinnvoller, die Daten aus dem Hauptspeicher zu laden statt von der SSD, da heutiger DDR4-RAM den Durchsatz aktueller NVMe-SSDs spielend um mehr als das 10fache übertrifft und Highspeed-DDR4-RAM (4000< MHz) sogar kommende PCIe 4.0-SSDs um das Zehnfache überrundet...

Nur müssen die Daten via PCIe zum VRAM. PCIe3.0*16 entspricht ~15GB/sec. Da hilft auch kein superschnelles DRAM. Und die Daten müssen auch erst mal ins DRAM.

Nightspider
2020-08-03, 21:35:13
AMD wird keinen Preiskampf mit NV eingehen, weil sie den Verlieren. AMD besser gesagt Lisa Su hat mehrfach angedeutet das sie gerade im GPU Markt höhere Marge wollen. Daher wird Big Navi alles andere als "billig".


Glaubst du AMD will seine Marge verdoppeln? :ugly:

AMDs Marge ist bei GPUs recht gering, da reichen schon wenige Prozente mehr um genug auszumachen.

AMD muss vor allem gut gegenüber Nvidia dastehen. Das schafft man bestimmt nicht mit Nvidias hohen Preisen.


Man muss auch mal überlegen das der 7nm Prozess knapp 2 Jahre alt ist, wen Big Navi erscheint.

Vega 7 erschien mit damaligem, riesigen 7nm Chip (330mm²) vor 18 Monaten. Jetzt ist der Prozess viel ausgereifter.

Selbst einen 505mm² Chip müsste AMD nicht für 800€ verkaufen, meiner Meinung nach.

Die R290 hatte damals auch 512 Bit und bot ein viel besseres P/L-Verhältnis als die 780ti.

Der_Korken
2020-08-03, 21:39:07
Jaja, die magische Komprimierung und die magischen SSDs der Konsolen. Können wir das bitte im "PC vs next gen Konsolen" Thread weiter diskutieren? Da wurde schon viel drüber diskutiert und dann muss hier nicht alles nochmal durchgekaut werden.

Nightspider
2020-08-03, 21:39:13
Wenn ein Spiel viel Raytrcing, volumetrische Effekte etc. hat braucht es wahrscheinlich permanent viel Speicher. Da reichen auch die 10 GB/s nicht, sonst wären die Effekte schon früher im RAM und nicht im VRAM gewesen.

Blödsinn, weil die Konsolen ja auch noch immer massig RAM übrig hatten und VRAM am PC so knapp war oder wie? :ugly:

Einen sehr großen Anteil der Daten werden die Texturen ausmachen. Und die wird man on the fly dauernd tauschen können.

Das hat seinen Grund warum man sowas früher nicht gemacht hat.


Ansonsten könnten sich auch 128 GB DDR 4 gekauft werden und dagegen wären die Konsolen auch langsamer.

Weil auch jeder Gamer 500-600 Euro für RAM ausgeben würde. :facepalm:

Slipknot79
2020-08-03, 21:50:26
Also wenn ich mir die Comparision Vids auf youtube reinzieh, SSD vs NVME etc, sind die NVME nicht sehr viel schneller beim Laden der Levels etc...
Was soll da PCIe 5 6 7 usw noch großartig bewirken? Theoretisch verdoppelt sich die Bandbreite, in der Praxis startet das Level nach 15s (NVME) statt nach 17,5s (SATA SSD)^^

Nightspider
2020-08-03, 21:52:33
Boar Leute. Ladezeiten und NVMe vs. SATA sind hier nicht das Thema und das hat auch nix mit obiger Diskussion zu tun.

mboeller
2020-08-03, 22:03:38
AMD muss vor allem gut gegenüber Nvidia dastehen. Das schafft man bestimmt nicht mit Nvidias hohen Preisen.



IMHO: das reicht doch: Leistung wie eine 3090; Preis wie eine 3080

Da die 3080 schneller als die 2080ti sein soll und diese immer noch >1000,- Euro kostet (gerade auf idealo geschaut) wird Nvidia für die 3080 min 1100-1200,- Euro verlangen (ich gehe einfach mal davon aus, dass Nvidia wie in den letzten Jahren üblich einfach draufsatteln wird) und für die 3090 dann entsprechend mehr.

Ergo wird es eine Big Navi für <900,- Euro nicht geben... ich persönlich gehe mal von 999,- Dollar aus und dann in etwa das gleiche im Euroraum.

AMD ist nicht umsonst nach Nvidia dran. Da können sie sich entsprechend dem Preisgefüge von Nvidia ihren Preis gut aussuchen. Das Spiel mit den zu hohen ersten Preisen, die dann zum Verkauf gesenkt werden, werden sie hoffentlich nicht noch einmal spielen.

Rampage 2
2020-08-03, 22:04:09
Nur müssen die Daten via PCIe zum VRAM. PCIe3.0*16 entspricht ~15GB/sec. Da hilft auch kein superschnelles DRAM.


Ich spreche von PCIe 6.0, nicht 3.0! 6.0 bedeutet über 100GB/sek. (128GB/sek.) in beide Richtungen, also grob doppelt so schnell wie der schnellste aktuell erhältliche DDR4-RAM (DDR4-4800, 76.8GB/sek.). Und ja, ich hab' auch geschrieben, dass PCIe 6.0 noch nicht verfügbar ist...


Und die Daten müssen auch erst mal ins DRAM.


Wie meinst du das? Von der HDD/SSD? Wäre es dann nicht sinnvoller, wenn nur der RAM aus der Festplatte liest (weil er so schnell ist und eine so niedrige Zugriffzeit hat), aber nicht umgekehrt? Nachdem das geschehen ist, liest anschließend der Grafikspeicher aus dem Hauptspeicher - und genau in diesem Moment ist Transferrate (PCIe) und Speicherbandbreite/Latenz (RAM) entscheidend. Wenn das schnell genug geschieht, dann lässt sich der Grafikspeicher beliebig mit mehr Arbeitsspeicher "erweitern" bzw. semi-verschmelzen:)

Soweit meine Überlegung...

R2

Badesalz
2020-08-03, 22:35:35
Weil der Inputlag bei 60fps mit Vsync grausam ist.Ja, das könnte der Grund sein, warum highFPS Zocker Fortnite auf FHD+High spielen. Das war aber nicht des Pudels Kern.

Ich sagte, 4k120 it eine Nische, in der 4k60 Nische. Woraufhin er darüber schwadronierte, 60 macht ja garkeinen Sinn. Bei 4k, nicht aber bei 1440 oder wie?

Wenn ich die Wahl habe nehme ich 57-58fps mit VRR anstatt 60fps gevsynct.Ja, bestens. Hat aber halt nichts mit 4k zu tun.

Ja ich verstehe es auch nicht wie ich Unreal jemals auf unreal hinbekommen konnte :wink:

Neurosphere
2020-08-03, 22:51:21
Mal vom Prozess ausgehend, ist es noch so das man bei Samsungs 8nm Prozess (https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/)mit 61,2 MT/mm² ausgehen kann und bei TSMC N7P (https://semiwiki.com/semiconductor-manufacturers/samsung-foundry/8157-tsmc-and-samsung-5nm-comparison/) von 113,9 MT/mm²?

Das ist natürlich nur ein maximal möglicher Richtwert, aber hat NV dann nicht schon auf dem Papier schlechte Karten bei den geplanten Chipgrößen im Vergleich zu Big Navi? Natürlich spielen noch andere Faktoren eine Rolle, aber der Unterschied wäre schon immens, oder übersehe ich was bzw. nutzt NV doch einen anderen 8nm Prozess bei Samsung?

Linmoum
2020-08-04, 00:05:40
Wer noch ein bisschen Lektüre zur Nacht mag: Ein ganzer Haufen Patente.

https://twitter.com/Underfox3/status/1290380141693198345

Der_Korken
2020-08-04, 00:25:10
Was ist eigentlich der Zweck diese vielen Tricks und Kniffe zu patentieren? Verhindern, dass die Konkurrenz sowas nutzt oder verhindern, dass die Konkurrenz sich so ein Verfahren schützen lässt und man es dann selbst nicht nutzen kann, obwohl man unabhängig davon die selbe Idee hatte? Veröffentlicht Nvidia auch so viele Patente?

ChaosTM
2020-08-04, 00:31:47
Das ist völlig normales Verhalten. Firmen patentieren die Sachen die sie mit viel Geld entwickelt haben .. AMD ist nicht Pöse ;)

Unicous
2020-08-04, 01:06:07
Sobald man etwas als Patent schützen lassen will wird es auch veröffentlicht (durch das Patentamt). Man kann den Veröffentlichungstermin auf ein Datum in der Zukunft legen, aber das macht man eigentlich nur um die Konkurrenz eine Zeit lang im Dunkeln zu lassen. (Letzteres gilt aber nur für die USA, afaik. Man möge mich korrigieren, wenn das nicht stimmt.)

pixeljetstream
2020-08-04, 01:10:31
Was ist eigentlich der Zweck diese vielen Tricks und Kniffe zu patentieren? Verhindern, dass die Konkurrenz sowas nutzt oder verhindern, dass die Konkurrenz sich so ein Verfahren schützen lässt und man es dann selbst nicht nutzen kann, obwohl man unabhängig davon die selbe Idee hatte? Veröffentlicht Nvidia auch so viele Patente?
Patente werden immer veröffentlicht (Google etc. kannst einfach einsehen), das war früher eine Motivation des Systems um allgemein den Fortschritt dokumentiert zugänglich zu machen und auch Alternative Lösungen oder Verbesserungen anzureizen.

Es ist weniger offensiv Mittel, als defensiv Eigenschutz. Gibt ja leider genug Patenttrolle. Die großen Firmen haben meist Abkommen untereinander oder sind Teil von IP Frameworks (zum Beispiel Khronos Vulkan etc.) wo der Umgang mit Patenten geregelt wird.

Digidi
2020-08-04, 02:16:02
Wer noch ein bisschen Lektüre zur Nacht mag: Ein ganzer Haufen Patente.

https://twitter.com/Underfox3/status/1290380141693198345


Etwas spät dran du und der Junge ;)

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12335067#post12335067

@Pixeljetstream
Bei It Produkte mag das ja stimmen. Aber es gibt halt auch Dinge die Millionen an Entwicklungsgelder kosten. Wenn das jeder dann einfach kopiert verdient der Entwickler kein Geld mehr damit und lässt das nächste mal die Entwicklung sein. Patent schützen also Entwickler dafor dass sie Ihre Entwicklungskosten wieder einnehmen können. Auch werden Patente offensive genutzt um sich schmackhaft für Investoren und Übernahmen zu machen.

Unicous
2020-08-04, 04:21:14
Nur weil du Patente zusammenhangslos postest kannst du nicht ERSTER! schreien (zumal die Patente schon vor Monaten veröffentlicht wurden).:rolleyes:

Die Patente sind öffentlich zugänglich. Jeder kann nach AMD oder Advanced Micro Devices, Inc./ATI Technologies ULC suchen.
Du tust so als ob dir ein krasser scoop gelungen wäre.:freak:

Er hat allein in dem verlinkten Twitter Thread über 20 Patente verlinkt und zum Teil kommentiert/eingeordnet. Er hat die Patente vermutlich schon lange vor dir gefunden, denn er macht das seit mittlerweile vielen Jahren.

Wie im Kindergarten.:facepalm:

pixeljetstream
2020-08-04, 07:29:21
@Pixeljetstream
Bei It Produkte mag das ja stimmen. Aber es gibt halt auch Dinge die Millionen an Entwicklungsgelder kosten. Wenn das jeder dann einfach kopiert verdient der Entwickler kein Geld mehr damit und lässt das nächste mal die Entwicklung sein. Patent schützen also Entwickler dafor dass sie Ihre Entwicklungskosten wieder einnehmen können. Auch werden Patente offensive genutzt um sich schmackhaft für Investoren und Übernahmen zu machen.
Da hast Du natürlich Recht. Meine Wahrnehmung und Aussage bezieht sich da eher auf die konkrete Situation der zwei, die halt schon riesig sind und genug Material haben. Dritte müssen dann schon eher aufpassen (selbst Intel musste ja Lizenzieren).

Piefkee
2020-08-04, 09:53:51
Da AMD in ähnlichen Regionen unterwegs ist wie NV wird sich kein Hersteller über die 1000€-Marke trauen. Ausnahme wäre das 24GB-Modell denke ich, vielleicht aber auch nicht, mal sehen. Man wird 1000€ als Schmerzgrenze ansehen, ich würd dieses Mal ne 3080Ti mit 12GB auf 999€ verorten. AMD wird diese Marke nicht ankratzen, weil man sicher auch ein bisschen Masse loswerden möchte und wird denke ich mit dem Top-Produkt bei 899€ sich platzieren. Die Salvage-Parts dürften dann um die 650-750€ rauskommen. In der Vergangenheit hat man eben leicht höhere Preise veranschlagt, aber völlig konkurrenzlos eben. Da aber dieses Mal echte Konkurrenz zu erwarten ist, und man gerne Erstkäufer abgreifen möchte, da NV ja definitiv früher ist, wird man sicher eine leichte Preisreduktion als Anreiz nutzen wollen.

Mein Tipp wäre also:

NV
3090 -> 1300€
3080Ti -> 1000€
3080 -> 750€

(2080 Super bis unten bleibt bis 3070-Launch mit Preisanpassung aktuell)

AMD
6900XT -> 900€
6900 -> 650€
6800XT -> 500€
6800 -> 400€

(N10 rutscht sicher in die 300€-Region und bleibt bis zum N23-Launch aktuell, SC und NF launchen mMn zusammen)

Leg bei jeder Karte ein Delta von 200-300 drauf dann passt die HOT Prognose

Zergra
2020-08-04, 11:04:31
Sobald man etwas als Patent schützen lassen will wird es auch veröffentlicht (durch das Patentamt). Man kann den Veröffentlichungstermin auf ein Datum in der Zukunft legen, aber das macht man eigentlich nur um die Konkurrenz eine Zeit lang im Dunkeln zu lassen. (Letzteres gilt aber nur für die USA, afaik. Man möge mich korrigieren, wenn das nicht stimmt.)

Gibt auch hier Möglichkeiten das zu verzögern. Voranmeldung ist zB. erstmal ohne große Infos möglich.
Man darf nur nicht vergessen das viele Patente nur angemeldet werden, um die Konkurrenz abzulenken von den wirklich Interessanten...


Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.

Digidi
2020-08-04, 11:26:44
Nur weil du Patente zusammenhangslos postest kannst du nicht ERSTER! schreien (zumal die Patente schon vor Monaten veröffentlicht wurden).:rolleyes:

Die Patente sind öffentlich zugänglich. Jeder kann nach AMD oder Advanced Micro Devices, Inc./ATI Technologies ULC suchen.
Du tust so als ob dir ein krasser scoop gelungen wäre.:freak:

Er hat allein in dem verlinkten Twitter Thread über 20 Patente verlinkt und zum Teil kommentiert/eingeordnet. Er hat die Patente vermutlich schon lange vor dir gefunden, denn er macht das seit mittlerweile vielen Jahren.

Wie im Kindergarten.:facepalm:

Im Kindergartern ist das ich schon die ganez Zeit sage das man sich mal auf die Patente konzentrieren soll die leute aber hier immer noch gefühlt zum 1000 mal über Vram streiten und dann Postet jemand von jemanden auf Twitter die Patente die man eigentlich schonmal aufgeühfrt hat. Wenn man auf das Releasdatum schaut waren die meisten Patente die der Twitteruser raushaut schon draußen. Meine Kritik ist also berechtigt.

BlacKi
2020-08-04, 11:29:47
einfach nicht drauf eingehen. das hab ich mir mittlerweile auch angewöhnen müssen...

AffenJack
2020-08-04, 11:55:15
Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.

Das macht nur Sinn, wenn man keine Konkurrenz hat oder die Ausbeute an vollen Chips extrem schlecht ist. In einer Konkurrenzsituation kannst du schließlich für den vollen Chip mehr verlangen/den Konkurrenten schlagen. Die Ausbeute wird sowieso durch den beschnittenen Chip verbessert.

Daredevil
2020-08-04, 11:58:35
Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.
CU ist ja nicht automatisch CU. Ein Navi CU könnte leistungsfähiger sein als eine Navi2 CU, das wird man ja am Ende dann erst sehen.
Beispiel:
VegaII hat deutlich mehr CUs als Navi und trotzdem ist Navi bei hohem Takt deutlich leistungsfähiger. Bei niedrigem Takt schlägt VegaII allerdings Navi leicht. Zudem kommt VegaII besser mit 4K Content klar, vielleicht wegen der Mehrzahl an langsameren CUs?

Deswegen erstmal schauen, was ein CU kann, dann kann man das auch besser abschätzen.
Allein die Tatsache, dass eine 225w Desktop Karte 40CUs hat und in den Konsolen 50-60CUs verbaut werden sollen, könnte eine Änderung andeuten. Die Konsole wird ja sicherlich nicht deutlich weniger verbrauchen können bei 50% mehr Einheiten und dann noch bei 2Ghz+ boosten, gelle. ^^

Zergra
2020-08-04, 12:03:38
Ja klar, aber durch die deaktivierten hat man einen größeren Chip der sich besser Kühlen lässt, hat eine höhere Ausbeute und kann ggf. mehr Takt fahren und gleich damit die fehlenden CUs zum Teil wieder aus.

Vega 20 kam auch nur mit 60CUs und bei Nvidia ist das auch sehr beliebt, wieso also jetzt das gleiche Spiel ?

Daredevil
2020-08-04, 12:06:27
Macht AMD nicht sowas bereits?
Sind die Pro GPUs bzw. die, die z.B. bei Apple verbaut werden nicht mit mehr Einheiten versehen?

Apple will sich sicherlich die größte Ausbaustufe im MacPro vergolden lassen. :D

Berniyh
2020-08-04, 12:18:24
Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.
gut möglich, dass die 6900 XT (oder wie auch immer das Teil heißen wird) mit 72 CU kommt.
Aber auch dann wäre zu erwarten, dass AMD eine 6900 XTX oder irgendwas in der Richtung auflegt.
Vergleiche diverse andere Sondereditionen in der Vergangenheit (z.B. 5700 XT und XTX, wobei es im Handel im Wesentlichen die XT Version zu kaufen gibt).

LasterCluster
2020-08-04, 12:37:54
gut möglich, dass die 6900 XT (oder wie auch immer das Teil heißen wird) mit 72 CU kommt.
Aber auch dann wäre zu erwarten, dass AMD eine 6900 XTX oder irgendwas in der Richtung auflegt.
Vergleiche diverse andere Sondereditionen in der Vergangenheit (z.B. 5700 XT und XTX, wobei es im Handel im Wesentlichen die XT Version zu kaufen gibt).

Denkt man an die Binningorgien im CPU-Bereich bei AMD ist es eigentlich schwer vorstellbar, dass es den Vollausbau nicht zu kaufen gibt.

Mangel76
2020-08-04, 12:40:51
Ja klar, aber durch die deaktivierten hat man einen größeren Chip der sich besser Kühlen lässt, hat eine höhere Ausbeute und kann ggf. mehr Takt fahren und gleich damit die fehlenden CUs zum Teil wieder aus.

Vega 20 kam auch nur mit 60CUs und bei Nvidia ist das auch sehr beliebt, wieso also jetzt das gleiche Spiel ?
Die Vega VII ist doch nicht wirklich zu vergleichen, absolutes Nischenprodukt, nur in einer Konfiguration für Endkunden verfügbar. Bisher kamen von allen regulären GPUs volle Versionen auf den Markt. Als Topversion sicher auch aus Imagezwecken. Wenn die Ausbeute nicht reicht, lässt sich die Nachfrage ja über den Preis regeln wie es NVIDIA ja seit Jahren mit der Titan macht.

Leonidas
2020-08-04, 12:59:07
Was soll da PCIe 5 6 7 usw noch großartig bewirken?


Die Hersteller werden bei PCIe 5.0 anfangen, im Mainstream-Bereich Lanes einzusparen.





Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.


Gar nichts spricht dagegen. Es könnten 72 oder 76 sein. Oder 80. Alles noch offen.

Digidi
2020-08-04, 13:02:09
Die Hersteller werden bei PCIe 5.0 anfangen, im Mainstream-Bereich Lanes einzusparen.

.

Sicher das sie Lanes einsparen? Für GPUs wäre die hohe Bandbreite gut. Man könnte noch mehr Sachen aus dem Vram auslagern über schnelle verbindungen.

Leonidas
2020-08-04, 13:03:23
Im Mainstream-Bereich ... sprich bei lahmen CPUs, kleinen Gfx, auch bei einfachen SSDs.

BlacKi
2020-08-04, 13:16:01
Sicher das sie Lanes einsparen? Für GPUs wäre die hohe Bandbreite gut. Man könnte noch mehr Sachen aus dem Vram auslagern über schnelle verbindungen.
wenn du mich fragst, sollte man das über ssds oder langsameren dram like ddr4 direkt auf der gpu tun. am besten per so dimm sockel^^

Ravenhearth
2020-08-04, 13:29:18
Die 80CUs sind ja mittlerweile relativ sicher, aber was Spricht dagegen das die 72 doch das maximale kaufbare werden ? Die Ausbeute würde deutlich erhöht werden, und man hätte 1CU pro Shader Array deaktiviert... Am Ende stimmen beide Zahlen.
Zumindest historisch gesehen hatte AMDs Topmodell immer den vollen Chip. Das Argument mit der Ausbeute kann man auch bei den Chips aus der Vergangenheit vorbringen und trotzdem hat man es nicht gemacht. Außerdem ist 7nm mittlerweile ein recht reifer Prozess und hat gute Yields, da wäre es vielleicht nicht so schlau, im Kampf mit Nvidia auf 10% der Einheiten zu verzichten.

Piefkee
2020-08-04, 14:02:35
https://www.ptt.cc/bbs/PC_Shopping/M.1596348759.A.166.html

Big news...
Navi 21 PTT

"No orders for 2nd Gen Navi. Earliest launch November."

"No 2.5D type [i.e. HBM2] for 2nd Gen Navi"

"'Big sister' and 'second sister' can only use N7+"
"Only 'little sister' may be in time to use N(&*^$&^*) node."

"Now testing/examining 3rd Gen Navi, busy....
Took a look at the the layout
Erm, biggest revolution for GPUs ever"

"No one ever said 'advanced node' must be any specific number, can't it be some 'group' of numbers ?"

Keyword for RDNA3 : zen 2

--> Navi2x kein HBM2, GDDR6
--> Navi21,Navi22,Navi23 --> N7+
--> Navi3x Chiplets !

Nightspider
2020-08-04, 14:12:28
Ich hoffe ja immer noch auf kleine ~150mm² große 5nm RDNA3 Chiplets im ersten Halbjahr 2021.

Die Fertigung ist vorhanden, nur das Design muss stehen.

Infinity Fabric 3rd gen könnte ja startbereit sein und zuerst im APU (GPU?) Sektor getestet werden bevor man damit mehrere EPYCs verbindet.


https://www.extremetech.com/wp-content/uploads/2020/03/AMD-IF.jpg
https://www.extremetech.com/wp-content/uploads/2020/03/AMD-IF2.jpg

fondness
2020-08-04, 14:19:03
Gar nichts spricht dagegen. Es könnten 72 oder 76 sein. Oder 80. Alles noch offen.

Wenn der Chip 80 hat sind es 80 beim Topmodell. Für alles andere gibt es salvage Parts.

mironicus
2020-08-04, 14:21:04
Zu den Chiplets paßt auch das PS5-Patent zur Multi-Core GPU Architektur für den PS5-Nachfolger.

Mal schauen wie das abgeht, wenn AMD dann GPUs mit einem einzelnen 5 nm-Chiplet als 200-300 Euro Karte raus bringt und dann auch noch bis zu 4 Chiplets auf einer Highend-GPU ermöglicht.

unl34shed
2020-08-04, 14:21:29
https://www.ptt.cc/bbs/PC_Shopping/M.1596348759.A.166.html


Kann jemand Chinesisch? Google spuckt nur kauderwelsch aus. :confused:

Piefkee
2020-08-04, 14:22:43
Kann jemand Chinesisch? Google spuckt nur kauderwelsch aus. :confused:

Das ist die Übersetzung von von einen native sprachigen...^^

Zossel
2020-08-04, 14:28:27
Zu den Chiplets paßt auch das PS5-Patent zur Multi-Core GPU Architektur für den PS5-Nachfolger.

Gib mal nen Link.

mironicus
2020-08-04, 14:32:04
https://www.pcgameshardware.de/Playstation-5-Konsolen-265878/News/Pro-Sony-Patent-beschreibt-skalierbare-Konsole-mit-Multi-GPU-1355362/

LasterCluster
2020-08-04, 14:41:00
@Piefke: Gibt es irgendendetwas was die Seriosität der Quelle nur ansatzweise bestätigt?

Das könnte doch jeder Horst zusammenschwadronieren.

Edit: Ok, kommt von AquariusZi. Wie glaubwürdig?

Piefkee
2020-08-04, 14:48:40
@Piefke: Gibt es irgendendetwas was die Seriosität der Quelle nur ansatzweise bestätigt?

Das könnte doch jeder Horst zusammenschwadronieren.

Ja klar der User ist AquariusZi.
Arbeitet angeblich bei TSCM. Hat bisher alle AMD GPU's richtig beziffert. Von ihm kommen auch die 505mm^2 für Navi21. Auch die Die Größe von XBOX hat er Monate zuvor exakt beschrieben. Also bessere Quelle gibts nicht außer er trolled:D

HOT
2020-08-04, 14:58:54
Daran glaube ich nicht an
- N7+
- GDDR6 für N21
- Chiplets
- 505mm² für N21 (das wird Arcturus sein)

ergo BS, abgehakt. Damit meine ich nicht einen dieser Punkte (abgesehen vom Chiplet-BS), die Häufung ist das Problem.

fondness
2020-08-04, 14:59:32
Mal sehen wie das bei GPUs realisiert wird. Eigentlich nur vorstellbar mit einer enormen Bandbreite.

LasterCluster
2020-08-04, 15:07:33
Man muss fairerweise sagen, dass AquariusZi nur auf das (vermeintliche) Verwenden von mehreren Fertgungsprozessen bei RDNA3 hingewiesen hat
"No one ever said 'advanced node' must be any specific number, can't it be some 'group' of numbers ?"
Das kann auch nur eine Aufteilung I/O-Die und CU-Die sein. Aber klar, mehrere Chiplets liegen da irgendwie nahe....

HOT
2020-08-04, 15:10:22
Merkt ihr noch, was ihr da schreibt? Warum sollte AMD jetzt 3 Chips releasen, wenn es schon nächstes Jahr Chiplets gibt, das ist einfach nur BULLSHIT. Glaubt doch so ne Scheisse nicht.
Wenn Sony Chiplets für die APU vorsieht kann das allenfalls was auch andere Hintergründe haben, das ist ne APU.

Ravenhearth
2020-08-04, 15:11:23
Man muss fairerweise sagen, dass AquariusZi nur auf das (vermeintliche) Verwenden von mehreren Fertgungsprozessen bei RDNA3 hingewiesen hat

Das kann auch nur eine Aufteilung I/O-Die und CU-Die sein. Aber klar, mehrere Chiplets liegen da irgendwie nahe....
Und was ist mit dem Rest?

"Now testing/examining 3rd Gen Navi, busy....
Took a look at the the layout
Erm, biggest revolution for GPUs ever"

"No one ever said 'advanced node' must be any specific number, can't it be some 'group' of numbers ?"

Keyword for RDNA3 : zen 2
Was sollen "biggest revolution for GPUs ever" und der Hinweis "zen 2" sonst bedeuten?

LasterCluster
2020-08-04, 15:15:33
Was sollen "biggest revolution for GPUs ever" und der Hinweis "zen 2" sonst bedeuten?

Zen2 setzt auf mehere Fertigungprozesse, "biggest revolution for GPUs ever" ist einfach ne subjektive Einschätzung. Aber ich gebe Hot recht. Man muss das erst nicht breit treten. Interssant bzgl RDNA3 wird es aber falls sich der RDNA2-Kram bewahrheitet, inkl. der 505mm^2

Ravenhearth
2020-08-04, 15:19:13
Ja, ich finde man kann aus dem "Advanced Node" für RDNA 3 auch nicht die Benutzung mehrerer Fertigungsprozesse ableiten, bei Zen 2/3/4 stehen schließlich auch nur 7nm bzw. 5nm auf den Roadmaps.

Dino-Fossil
2020-08-04, 15:21:40
In der Vergangenheit (jedenfalls in den letzten Jahren) waren Aussagen bzgl. AMD-GPUs vom Kaliber eines "biggest revolution for GPUs ever" eigentlich immer Fakes. Von daher würde ich da nicht viel drauf geben, bis es mehr und bessere Hinweise gibt.
Schon aus Selbstschutz vor dem Entgleisen des Hype-Train... :D

nordic_pegasus
2020-08-04, 15:28:34
Wenn der Chip 80 hat sind es 80 beim Topmodell. Für alles andere gibt es salvage Parts.

Radeon VII ist auch nur ein Salvage mit 60 von 64 aktiven CUs. Ferner würde mich es nicht wundern, wenn AMD ein paar Shader für einen Refresh deaktiviert lässt.

Ich hoffe allerdings auf einen Vollausbau direkt zum Start, denn ich kaufe nie salvage Chips, zumindest nicht in dieser Preisklasse.

Nightspider
2020-08-04, 15:28:59
Man muss aber auch im Hinterkopf behalten das Infinity Fabric auch bei GPUs einiges an Strom fressen und die Effizienz der Karte verschlechtern wird.

Man wäre also auf einen cutting edge Fertigungsprozess angewiesen, damit sich das lohnt. Würde also eh nur mit 5nm viel Sinn ergeben meiner Meinung nach.

Merkt ihr noch, was ihr da schreibt? Warum sollte AMD jetzt 3 Chips releasen, wenn es schon nächstes Jahr Chiplets gibt, das ist einfach nur BULLSHIT. Glaubt doch so ne Scheisse nicht.
Wenn Sony Chiplets für die APU vorsieht kann das allenfalls was auch andere Hintergründe haben, das ist ne APU.

Weil nicht genügend 5nm Kapazitäten bereitstehen und AMD vor >1 Jahr erst Recht nicht wusste das sie Huaweis Kapazitäten bekommen?

Weil der Release immer noch >6 Monate nach den anderen Karten sein kann.

Piefkee
2020-08-04, 15:52:57
Daran glaube ich nicht an
- N7+
- GDDR6 für N21
- Chiplets
- 505mm² für N21 (das wird Arcturus sein)

ergo BS, abgehakt. Damit meine ich nicht einen dieser Punkte (abgesehen vom Chiplet-BS), die Häufung ist das Problem.

Chiplets ist Navi3x...
505mm^2 wurde ebenfalls von charlie "semiaccuarte" genannt für Big Navi

AffenJack
2020-08-04, 15:55:51
Merkt ihr noch, was ihr da schreibt? Warum sollte AMD jetzt 3 Chips releasen, wenn es schon nächstes Jahr Chiplets gibt, das ist einfach nur BULLSHIT. Glaubt doch so ne Scheisse nicht.
Wenn Sony Chiplets für die APU vorsieht kann das allenfalls was auch andere Hintergründe haben, das ist ne APU.

Die Frage ist in welchem Bereich es Chiplets gibt. Ich halte erstmal die Annahme für falsch, dass RDNA3 nächstes Jahr mit Chiplets kommt. Ich glaube viel mehr, dass er einfach RDNA3 mit CDNA2 vertauscht. CDNA2 dürfte genauso wie Hopper bei Nvidia auf Chiplets beruhen. Für CDNA2 passt die Timeline auch perfekt, da CDNA2 in 5nm nächstes Jahr für Frontier bereit sein muss. Chiplets sind für Datacenter GPUs auch viel einfacher zu realisieren, als für Gaming GPUs.

HOT
2020-08-04, 16:14:36
Das ist sicher wahrscheinlich. CDNA2 wäre sicherlich in 22 ein ganz heißer Kandidat für Chiplets.

Ja, ich finde man kann aus dem "Advanced Node" für RDNA 3 auch nicht die Benutzung mehrerer Fertigungsprozesse ableiten, bei Zen 2/3/4 stehen schließlich auch nur 7nm bzw. 5nm auf den Roadmaps.

Die schreiben das, weil es noch keine konkrete Siliziumplanung gibt. Nimmt man N5+, N5P, N6 oder N3? Vielleicht 4LPP? Kann alles sein. N5P ist sicherlich der wahrscheinlichste Kandidat, aber wer weiss? Tape Out ist sicherlich erst zum Ende 2021 hin zu erwarten. Bis dahin fließt noch viel Wasser den Rhein hinunter. Für Raphael ist sicherlich die Wahl bereits getroffen, da muss ja auch bald das Tape Out erfolgen. Das wird ziemlich sicher N5+ sein.

Nightspider
und wie soll das funktionieren? Mit Magie?

Berniyh
2020-08-04, 16:31:18
Das ist sicher wahrscheinlich. CDNA2 wäre sicherlich in 22 ein ganz heißer Kandidat für Chiplets.
Ich würde mit CDNA2 in 2021 rechnen.
bzw. zumindest mit der Vorstellung. Auslieferung kann man bei den Produkten ja eh nicht so richtig gut nachverfolgen. War ja auch bei Vega20 und CDNA1/Arcturus schon so.
(Bei letzteren wissen wir auch nicht, ob der schon real irgendwo eingesetzt wird oder nicht, soweit mir bekannt.)

Zudem waren die Compute Chips zuletzt immer Vorreiter und wie von AffenJack angemerkt dürfte CDNA2 die Basis kommender Supercomputer sein.
Da war zwar eine Art APU auch im Gespräch, aber das war alles sehr vage und evtl. meint man mit APU dann ja auch wirklich CPU und GPU Chiplets.

Ravenhearth
2020-08-04, 16:43:16
Radeon VII ist auch nur ein Salvage mit 60 von 64 aktiven CUs. Ferner würde mich es nicht wundern, wenn AMD ein paar Shader für einen Refresh deaktiviert lässt.
Die Radeon VII war aber auch ein ziemlicher Sonderfall, denn Vega20 war vor allem ein Chip für Server, und dort gabs durchaus den Vollausbau (MI60). Navi zielt aber auf Gaming ab, denn für Server hat man nun CDNA, und da wärs seltsam gar keinen Vollausbau zu bringen.

basix
2020-08-04, 16:43:41
Was sollen "biggest revolution for GPUs ever" und der Hinweis "zen 2" sonst bedeuten?

Macht ja massig Sinn. Schaut auch einige GPUs mal an (z.B. Navi 10), dort ist I/O ein sehr grosser Anteil der Gesamtfläche. Kann man das auftrennen, kann man wertvolle Kapazität im teuren Top Notch Node einsparen.

Was aber die Frage aufwirft: GDDR6 oder HBM? Ich wäre für letzteres (Low Cost HBM mit 512bit welche keinen Si Interposer benötigen).

Nightspider
2020-08-04, 16:55:24
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12382864&postcount=1466

Wie viele CUs kriegt man in 80mm² im 5nm Prozess unter?

~32-40 ? (je nach SI)

Selbst wenn es kein Chiplet ist: Das Ding als kleine effiziente GPU mit RDNA2 für Notebooks würden einige Hersteller sogar bei Intel CPUs verbauen.

Daredevil
2020-08-04, 16:57:57
Anscheinend kommt gleich ein neuer iMac, mal schauen ob da RDNA2 schon inkludiert ist. ( Gehe ich nicht von aus :< )

Edit: Nope ^^
Radeon Pro 5300 mit 4 GB GDDR6 Grafikspeicher
Radeon Pro 5500 XT mit 8 GB GDDR6 Grafikspeicher
Radeon Pro 5700 mit 8 GB GDDR6 Grafikspeicher
Radeon Pro 5700 XT mit 16 GB GDDR6 Grafikspeicher

mironicus
2020-08-04, 17:04:43
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12382864&postcount=1466

Wie viele CUs kriegt man in 80mm² im 5nm Prozess unter?

~32-40 ? (je nach SI)

Bestimmt 40. Und das ausgelagerte IO-Interface kann HBM und GDDR6 gleichzeitig unterstützen.

Big Navi hat 80 CU, und der Nachfolger als Flagschiff-Modell dann vielleicht 160 CU, verteilt auf 4 Chiplets.

Eine PS5 Pro könnte dann eine 72/80 CU-Version sein bestehend aus 2 Chiplets.

Somit könnte AMD seine GPU-Chiplets in jedes Produkt verbauen, von Lowend bis Highend. Macht doch Sinn, daß man genau diesen Weg geht.

Berniyh
2020-08-04, 17:13:40
Macht ja massig Sinn. Schaut auch einige GPUs mal an (z.B. Navi 10), dort ist I/O ein sehr grosser Anteil der Gesamtfläche. Kann man das auftrennen, kann man wertvolle Kapazität im teuren Top Notch Node einsparen.

Was aber die Frage aufwirft: GDDR6 oder HBM? Ich wäre für letzteres (Low Cost HBM mit 512bit welche keinen Si Interposer benötigen).
Braucht man für Chiplets dann nicht eh einen Interposer?

Berniyh
2020-08-04, 17:18:00
Man muss aber auch im Hinterkopf behalten das Infinity Fabric auch bei GPUs einiges an Strom fressen und die Effizienz der Karte verschlechtern wird.
Ja und nein.

Bei Zen2 wirkt sich der Nachteil ja hauptsächlich im Leerlauf aus. Da liegt es aber auch daran, dass die Implementierung des IO Die noch recht rudimentär ist (so scheint es zumindest, wirkt als hätte man den Teil einfach mit einem Skalpell aus Zen1+ rausgeschnitten).
Müssen mal abwarten in welche Richtung das hier geht, aber ich würde schon erwarten, dass das schon mit Zen3 besser wird.

Unter Volllast frisst der IF natürlich schon auch noch Strom, aber im Vergleich zum Gesamtverbrauch fällt das nicht so wahnsinnig ins Gewicht, das wird auch bei einer GPU mit ca. 300W nicht anders sein.

Da werden schon andere Punkte wie die Latenz ausschlaggebend sein.

reaperrr
2020-08-04, 18:19:57
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12382864&postcount=1466

Wie viele CUs kriegt man in 80mm² im 5nm Prozess unter?

~32-40 ? (je nach SI)
Das kommt ganz gewaltig darauf an, wovon wir reden, eine komplette GPU, oder rein darauf bezogen, wieviele CUs man in 5nm in 80mm² (Chiplet ohne viel I/O) unterbringen kann.

In ersterem Fall: Keine Chance. N14 mit 24 CUs ist in 7nm schon knapp 160mm², und 5nm erreicht nur im Best-Case (Logiktransistoren) bis zu 1,84fache Packdichte. I/O wie PCIe und SI werden höchstens 30% mehr Packdichte erreichen.
Selbst ein linearer N14-Shrink wäre in 5nm noch etwas über 100mm², weil die CUs schon in 7nm bei N14 nur ca. 30% der Gesamtfläche ausmachen.

Also wenn wir von einer kompletten GPU reden, die 80mm² ist: mit 64bit SI vllt 16-20 CUs.

Reden wir dagegen von einem Chiplet (laut Gerücht auf WTFTech soll RDNA3 auf Chiplets umsteigen) auf dem fast nichts außer Shader-Engines mit den CUs und ROPs sitzt, passen in 80mm² in 5nm schnell mal ~60 CUs, denn die 40 CUs haben schon bei N10 in 7nm nur 81mm² ausgemacht.


Aber zu diesem Zeitpunkt würde ich sagen, mit an Sicherheit grenzender Wahrscheinlichkeit ist der 80mm² 5nm-Chip das Zen4-Chiplet.

Zossel
2020-08-04, 18:20:05
Bestimmt 40. Und das ausgelagerte IO-Interface kann HBM und GDDR6 gleichzeitig unterstützen.

Ein Interface auf einem GPU-Chiplet mit entsprechender Bandbreite zu einen I/O Die wäre wohl ähnlich groß wie ein HBM Interface. Und Computing will auch oft Speicherbandbreite.

Berniyh
2020-08-04, 18:24:16
Also wenn wir von einer kompletten GPU reden, die 80mm² ist: mit 64bit SI vllt 16-20 CUs.
Langt doch für eine ordentliche iGPU.
Dazu gab es ja ein Gerücht seitens Komachi, dass der Vermeer-Nachfolger eine iGPU an Bord haben könnte.

Ob es stimmt … keine Ahnung. Aber die Größe wäre zumindest relativ nah am vernünftigen.

basix
2020-08-04, 18:31:57
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12382864&postcount=1466~32-40 ? (je nach SI)

Vermutlich max. 32 CUs + Shader Engine und Common Core, ohne SI ;)

Ihr müsst folgendes berücksichtigen: RDNA2 oder RDNA3 ist sehr wahrscheinlich grösser pro CU als RDNA1, wird vermutlich mehr L2 Cache tragen (siehe Turing / Ampere) und 5nm bringt ca. 1.5x Scaling (1.8x Logik, 1.3x SRAM). Nimmt man die 150mm2 von Navi 10 für ebendiese Chipteile als Ansatz, sind 40 CUs zu viel.

Braucht man für Chiplets dann nicht eh einen Interposer?

Kommt darauf an, was du als Interposer verstehst. Si oder Organic? Si ist die "beste" Lösung, aber nicht zwingend notwendig. Die Idee vom Low Cost HBM (https://www.extremetech.com/gaming/234333-hbm-everywhere-samsung-wants-hbm3-low-cost-options-to-blow-the-doors-off-the-memory-market) ist es ja, die I/O Density zu reduzieren (512bit) und man kann dafür einen "organischen Interposer" oder halt Substrat verwenden. Dann macht die Zen 2 Referenz noch mehr Sinn. Einfach alles MCM mässig auf ein Substrat knallen, I/O Die, Compute Chiplets und HBM. Das lässt sich dann günstig herstellen und ist wunderbar variierbar. Da GDDR6 recht teuer ist, wird günstigerer HBM wohl nicht extrem viel teurer sein, vor allem da man dann ein günstigeres PCB bekommt, die Stromversorgung günstiger ausfällt und man mehr Perf/Watt und somit Performance erhält und ergo höhere Preise verlangen kann.

Ausführungsmöglichkeit:
Mittels 2x verschiedenen Packages könnte man zwischen 1-4 Compute Chiplets mit ebenso vielen HBM-Stapeln verknüpfen. Jeweils 1x I/O Die für zwei Compute Chiplets. Pro Compute Chiplet 1x HBM-Stapel. Das passt perfekt zwischen Low End bis High End (75-300W, 4-16 GByte, 32-128 CUs, 256-1024 GByte/s). Ausserdem lassen sich knackige Mobile dGPUs auf der selben Basis bauen. Vielleicht sind 32 CUs pro Compute Die noch zu viel, 128 CUs mit nur 1 TB/s passt irgendwie nicht, ausser RDNA2/3 haben eine nochmals deutlich verbesserte Bandbreiteneffizienz verglichen mit RDNA1.

Edit:
Beim Vermeer Nachfolger wäre es aber nicht sinnvoll, ein 80mm2 Die mit separatem GDDR6 Speicherinterface draufzupacken. Entweder man flanscht die iGPU an den CPU-I/O Die und benutzt am besten DDR5 oder man verwendet HBM.

Edit 2:
Ach ja, Sienna Cichlid soll 4x Shader Engines tragen. Würde sich doch gut mit meinem Ausführungsbeispiel mit 4x Compute Chiplets decken, einfach mit mehr CUs pro Shader Engine. ;) 16 CUs pro Shader Array anstatt 10 wäre ebenfalls möglich, Vega hatte hier 16. Das wäre eine Art organische Weiterentwicklung von RDNA2, mit dem Zusatz der Chiplets. Wenn man sich dann noch die "Dual Pipe" des N21 Command Processors anschaut, ist so eine Zweiteilung mit 2x I/O Die ebenfalls denkbar (ich gestehe: ich habe keine Ahnung was diese Dual Pipe genau machen kann / soll).

Nightspider
2020-08-04, 19:12:58
Aber zu diesem Zeitpunkt würde ich sagen, mit an Sicherheit grenzender Wahrscheinlichkeit ist der 80mm² 5nm-Chip das Zen4-Chiplet.

Das wäre doch zu zeitig oder?

Zen 4 kommt frühestens 14 Monate nach Zen 3, mit Tendenz zu 18 Monaten nach Zen 3.

Von jetzt an gerechnet also grob 17-21 Monate.

Ich tippe ganz klar auf eine GPU oder Zen 3+ (Refresh)

Complicated
2020-08-04, 19:16:24
Ein 3D-Stacking Chiplet könnte ebenso wie ein HBM-Stapel das Interface auf einem Logic Die untendrunter haben, so dass keine Chipfläche auf dem Chiplet als SI verwendet wird. Das SI wird über die TSV direkt angebunden. So wie eben ein HBM-Stapel hier:
https://cdn.arstechnica.net/wp-content/uploads/sites/3/2015/05/hbm-stack.jpg
Setzt man alle benötigten IF-PHYs im unteren Die an, kann man dort 4, 8 oder mehr IF-Links unterbringen. Den Interposer muss man sich wegdenken und das Package wäre genauso im 2.1 Verfahren zu verarbeiten wie bei EPYC. Wenn es mit den Temperaturen passt, könnte die GPU sogar im Sandwich mit HBM2 onTop landen, wobei ich das für deutlich kostenintensiver halte als die bisherigen Verfahren.

Allerdings setze ich zu 80% auf Zen4 bei dem Die, sollte das Gerücht stimmen ;)

Das wäre doch zu zeitig oder?

Zen 4 kommt frühestens 14 Monate nach Zen 3, mit Tendenz zu 18 Monaten nach Zen 3.

Von jetzt an gerechnet also grob 17-21 Monate.

Ich tippe ganz klar auf eine GPU oder Zen 3+ (Refresh)
Ich denke AMD kann auf diese Weise das Kapazitätsproblem angehen. 5nm ist früher fertig als erwartet und die Zen4 SKUs kann man erstmal im höchstpreisigen Segment anbieten. Apple-SoCs sind größer und kommen noch dieses Jahr. Zen4 könnte für EPYC und Threadripper eine Weile Exklusiv bleiben und Zen3 mit mehr 7nm die APU/Konsolen/Ryzen Kundschaft mit der steigenden Nachfrage bedienen. Q3/2021 könnten dann erst die Zen4-Modelle in den Consumermarkt kommen.

Thunderburne
2020-08-04, 19:26:37
https://wccftech.com/amd-radeon-rx-big-navi-rdna-2-gpu-november-launch-no-hbm2-tsmc-7nm-rumor/

Linmoum
2020-08-04, 19:29:51
Verlinkst du eigentlich bewusst immer Sachen, die schon auf den letzten Seiten ausführlich(er) diskutiert wurden? :D

Thunderburne
2020-08-04, 19:46:14
Bin ja schon weg.

Digidi
2020-08-04, 21:01:56
Verlinkst du eigentlich bewusst immer Sachen, die schon auf den letzten Seiten ausführlich(er) diskutiert wurden? :D

Das schreibt der richtige XD

Cyberfries
2020-08-04, 22:08:23
In ersterem Fall: Keine Chance. N14 mit 24 CUs ist in 7nm schon knapp 160mm², und 5nm erreicht nur im Best-Case (Logiktransistoren) bis zu 1,84fache Packdichte. I/O wie PCIe und SI werden höchstens 30% mehr Packdichte erreichen.
Reden wir dagegen von einem Chiplet (laut Gerücht auf WTFTech soll RDNA3 auf Chiplets umsteigen) auf dem fast nichts außer Shader-Engines mit den CUs und ROPs sitzt, passen in 80mm² in 5nm schnell mal ~60 CUs, denn die 40 CUs haben schon bei N10 in 7nm nur 81mm² ausgemacht.

Ist diese Einschätzung nicht sehr optimistisch?
Ausgehend von 136mm² für die 40CUs in Navi10, einer maximalen Transistordichte von 114MTr/mm² für 7nm
und 173MTr/mm² für 5nm komme ich auf etwa 36CUs für ein 80mm² großes Chiplet.
Kommt natürlich auf die tatsächlich realisierbare Transistordichte an.
Und darauf wie groß eine RDNA2/RDNA3-CU wird.

zum Thema Chiplets:
Sehe ich zuerst bei CDNA, da Latenzen dort weniger kritisch und größere Chipflächen.
Da führt kein Weg dran vorbei, die 800+mm² wird man nicht mehr lange umsetzen können.

amdfanuwe
2020-08-04, 22:21:30
Dann macht man so weiter:

https://pbs.twimg.com/media/EedGPNuWAAAP4tc?format=jpg&name=small

Wer weiß, was AMD mit X3D Technik einfällt. Letztendlich begrenzt die TDP das ganze.

reaperrr
2020-08-04, 22:33:48
Ausgehend von 136mm² für die 40CUs in Navi10
Auf welcher Grundlage?

Ich hab selbst anhand von Dieshots nachgemessen und komme bei den reinen CUs bei N10 auf ca. 81mm². Lass es meinetwegen 84-85 sein, aber nicht annähernd 136.

horn 12
2020-08-04, 23:43:41
Viel Text, einige Infos und Release am 07 Oktober

https://www.tomshardware.com/news/amd-big_navi-rdna2-all-we-know?utm_source=twitter&utm_medium=social&utm_campaign=dlvr.it

basix
2020-08-05, 00:16:24
Auf welcher Grundlage?

Ich hab selbst anhand von Dieshots nachgemessen und komme bei den reinen CUs bei N10 auf ca. 81mm². Lass es meinetwegen 84-85 sein, aber nicht annähernd 136.

Die Zahl von Cyberfries stimmt in etwa, wenn man auch noch die Shader Engine inkl. L1$ und L2$ als auch den Command Processor dazuzählt. Da hat er schon recht, die müssten aufs Chiplet sonst hast du zu lange Wege und zu grosse Latenzen. Irgendwo muss ausserdem auch noch IFOP oder was auch immer und die Raytracing Funktionalität untergebracht werden. 80mm2 könnten mMn für 32 CUs reichen, mehr aber wohl nicht.

Display Controller, Multimedia Engine, PCIe und Speichercontroller könnte man auslagern. Das wären die übrigen 115mm2.

Die Video Engine und der Display Controller sind jetzt nicht so extrem riesig, die könnte man beim Zen IOD integrieren. Dann würde eine entsprechende APU auch Sinn machen, auch wenn eine 32 CU APU sehr viel Bumms hätte mit wenig Speicherbandbreite :freak: Irgendwie glaube ich nicht an solch eine APU. Zen 4 ist wirklich deutlich wahrscheinlicher.

r-or
2020-08-05, 04:10:52
Macht ja massig Sinn. Schaut auch einige GPUs mal an (z.B. Navi 10), dort ist I/O ein sehr grosser Anteil der Gesamtfläche. Kann man das auftrennen, kann man wertvolle Kapazität im teuren Top Notch Node einsparen.

Besonders, da für GPUs Latenzen eher unkritisch sind... Wenn es für CPUs reicht, sollte es für GPUs nahezu keinerlei Nachteil haben

Berniyh
2020-08-05, 08:04:00
commit 51dd9d96d465da087e29ffdb0d9a32b2a6fd3077

drm/amdgpu: enable RAS support for sienna cichlid

enabled GECC error injection and query support


diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_ras.c b/drivers/gpu/drm/amd/amdgpu/amdgpu_ras.c
index 89cb0ae9da9d..1a55f6f492fd 100644
--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_ras.c
+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_ras.c
@@ -1965,8 +1965,9 @@ static void amdgpu_ras_check_supported(struct amdgpu_device *adev,
*supported = 0;

if (amdgpu_sriov_vf(adev) || !adev->is_atom_fw ||
- (adev->asic_type != CHIP_VEGA20 &&
- adev->asic_type != CHIP_ARCTURUS))
+ (adev->asic_type != CHIP_VEGA20 &&
+ adev->asic_type != CHIP_ARCTURUS &&
+ adev->asic_type != CHIP_SIENNA_CICHLID))
return;

if (amdgpu_atomfirmware_mem_ecc_supported(adev)) {
Noch mal so eine Stelle wo sich Sienna Cichlid ein Feature mit anderen HBM-basierten Chips teilt.
Hier geht es um Fehlererkennung im Speicher.

Natürlich wäre es auch möglich, dass AMD das für GDDR6 implementiert hat, aber warum sollte man das tun?
Wäre es nicht wahrscheinlicher, dass Sienna Cichlid ein HBM2 Interface hat, für welches man das schon implementiert hat und eben für den Chip dann übernahm?

Piefkee
2020-08-05, 08:34:24
Das wäre doch zu zeitig oder?

Zen 4 kommt frühestens 14 Monate nach Zen 3, mit Tendenz zu 18 Monaten nach Zen 3.

Von jetzt an gerechnet also grob 17-21 Monate.

Ich tippe ganz klar auf eine GPU oder Zen 3+ (Refresh)

Nein, siehe diese Foli:
https://www.hartware.de/wp-content/uploads/2019/10/AMD-EPYC-7000-Seeries-Roadmap-Milan-Zen-3-und-Genoa-Zen-4.jpg

Naples Tape-Out Q1 2016 --> Launch Q3/2017
Rome Tape-Out Q1 2017 --> Launch Q3/2019
Milan Tape-Out Q1 2019 --> Launch Q4/2020

HOT
2020-08-05, 09:29:46
Milan (oder besser Zen3-Chiplet) Tape Out Q2 2019.
Das ist ja keine genaue Wissenschaft, sondern copy+paste. So genau hält das nicht. Zen4-Chiplet wird Q4 mMn Tape Out haben, von da ab 5 Monate, wäre Q2 2022, was hervorragend zur bisherigen Planung passt.

WedgeAntilles
2020-08-05, 09:39:42
Viel Text, einige Infos und Release am 07 Oktober

https://www.tomshardware.com/news/amd-big_navi-rdna2-all-we-know?utm_source=twitter&utm_medium=social&utm_campaign=dlvr.it

Ich habe den Link nicht im Detail durchgelesen, aber was mir aufgefallen ist:

Ca. in der Mitte gibt es eine Tabelle AMD Big Navi / Navi 2x Estimated Specifications

Beim VRam wird für Navi 21 + Navi 22 als Menge "nur" 12GB (natürlich mit Fragezeichen - also 12GB?) angegeben.

Andere Artikel sehen da ja 16GB als sehr wahrscheinlich an.

Ist schon erstaunlich, wie stark da auch seriöse Artikel voneinander abweichen.
Wahrscheinlich ist in den ganzen Artikeln doch mehr Unsicherheiten drin als man manchmal denkt.
(Das jetzt völlig ohne Wertung durch meine Seite, ist mir nur aufgefallen.)

Berniyh
2020-08-05, 10:22:26
Es gibt zur RAM Größe einfach keine wirklichen Infos, das ist alles nur Spekulation.

Ich persönlich wäre sehr erstaunt, wenn nicht zumindest der Vollausbau 16 GB VRAM hätte.
Mit VRAM hat AMD eigentlich noch nie wirklich gegeizt.

unl34shed
2020-08-05, 10:37:31
B4uI4_KSYZw

6:00 "To be 50% faster than a 2080Ti would mean, that this card (5700XT) has to be like 350% faster than it currently is"
:upicard: :upicard: :upicard:

WedgeAntilles
2020-08-05, 10:40:56
Ich persönlich wäre sehr erstaunt, wenn nicht zumindest der Vollausbau 16 GB VRAM hätte.
Mit VRAM hat AMD eigentlich noch nie wirklich gegeizt.

Ich würde mein Geld auch auf 16GB setzen wenn ich wetten müsste.
Das wäre für AMD ja auch ein schöner Pluspunkt gegenüber Nvidia.

Nvidia wirbt mit DLSS + Raytracing, AMD kann dagegen auf deutlich mehr VRAM verweisen.

Ich halte das Marketingtechnisch für sehr wichtig, dass AMD in einer Kategorie klar die Nase vorne hat.

Und es wäre auch merkwürdig, wenn das alte Flaggschiff Radeon VII 2019 mehr Vram hatte, als das neue Flaggschiff in 2020.

Für mich liegen die 16GB daher auch Nahe.
Wobei bei TomsHardware ja auch keine Idioten sitzen. Das, was ich oben geschrieben habe, ist ja ziemlich primitiv - schon erstaunlich, wie unterschiedlich die Prognosen sein können.
Es wird langsam Zeit, dass wir endlich mal Fakten bekommen :biggrin:

WedgeAntilles
2020-08-05, 10:48:12
6:00 "To be 50% faster than a 2080Ti would mean, that this card (5700XT) has to be like 350% faster than it currently is"
:upicard: :upicard: :upicard:

Und dieses YT Video hat 10744 likes und 216 dislikes.
Quasi ein 50:1 Rating.

Ich habe mir den Rest nicht angesehen sondern bin nur zu dem Teil von dir gesprungen.

Ich verstehe ja, dass man mit Zahlen schnell durcheinander kommt - gerade wenn man durchgehend redet.
Aber sorry, dann muss man sich bei so entscheidenden Dingen halt Notizen machen und die ablesen.
Das nimmt einem doch keiner übel.
Aber derart falsche Zahlen zu nennen?
So ist es doch einfach lächerlich.

Leonidas
2020-08-05, 11:07:45
Oh. Die 350% stammen möglicherweise von 3DC. Ist jedenfalls auffälllig, das es exakt diese Zahl ist. Aber natürlich in den falschen Hals bekommen bzw. falsch gedeutet:
https://www.3dcenter.org/news/amds-navi-21-rdna2-grafikchip-tritt-tatsaechlich-mit-80-shader-clustern

Hasenpfote
2020-08-05, 12:24:26
Oh. Die 350% stammen möglicherweise von 3DC. Ist jedenfalls auffälllig, das es exakt diese Zahl ist. Aber natürlich in den falschen Hals bekommen bzw. falsch gedeutet:
https://www.3dcenter.org/news/amds-navi-21-rdna2-grafikchip-tritt-tatsaechlich-mit-80-shader-clusternWieso schreibst Du auch nicht in einer ordentlichen Sprache, die der typische Youtuber versteht? Stattdessen diese komische europäische Sprache der Nazis. Schäm Dich ... ich mein shame on you! ;D

Nightspider
2020-08-05, 12:40:19
So einen dummen Eindruck macht der YouTuber aber auch nicht, das er die 156% bei der 5700XT einfach übersieht und 100% daraus macht.

BlacKi
2020-08-05, 13:08:34
wieso nimmt er an das dieses abchecken der lieferadresse der reviewer für navi gilt? ich meine klar, wenn sapphire sich meldet, dann ist die sache klar. aber leider sagt er das nicht direkt.

alternativ könnte er auch die nv gpus schon getestet haben...

aufkrawall
2020-08-05, 13:48:16
So einen dummen Eindruck macht der YouTuber aber auch nicht
Imho einer der dümmsten, wenn nicht der dümmste nennenswerte Tech-YTber.
"Let that sink in for a second!" :freak: ;D

Nightspider
2020-08-05, 13:52:15
Echt? Okay, dafür bin ich vielleicht zu selten bei den Tech YouTubern unterwegs.

Dant3
2020-08-05, 17:47:37
Ich bin ja eigentlich dezent Pro AMD aber wenn die mit den Karten echt erst im November kommen und dann wieder mal ohne Customs kaufe ich dieses mal, sofern die Preise nicht komplett absurd sind, eine Nvidia Karte. Cyberpunk tue ich mir nicht mehr mit der Vega an.

Dino-Fossil
2020-08-05, 18:02:45
Ich plane noch für Cyberpunk mit Polaris! :weg: :biggrin:

Dant3
2020-08-05, 18:45:03
Keine Chance, so ein Spiel kommt vielleicht mal alle 5 Jahre ums Eck und ist einer von den ganz wenigen Titeln der mich noch reizt. Da werden keine Kompromisse gemacht und die leicht rot gefärbte Brille auch mal in die Ecke gelegt :P

MR2
2020-08-05, 18:51:55
Ich brauche was für den fs2020, Cyberpunk und age4 nächstes Jahr. 4900X und bignavi, AMD mach hinne! 😁

gedi
2020-08-05, 19:23:56
Ich brauche was für den fs2020, Cyberpunk und age4 nächstes Jahr. 4900X und bignavi, AMD mach hinne! 😁

Da FS2020 final mit Dx12 erscheinen soll, reicht hier wahrscheinlich auch ne 5700xt oced in 1440p easy. Ich richte mich hier am MP, wo ich ne heavy CPU-Load erwarte. Cyberpunk interessiert hier weniger, aber auch hier würde ich an deiner Stelle die Reviews abwarten. Okay age4, bis dato sollte se draußen sein.

Langlay
2020-08-05, 20:18:25
Ich bin auch eher pro AMD. Allerdings könnte ich mir auch vorstellen ne 3080ti als nächste Karte zu holen, falls BigNavi nicht so prickelnd wird. Wobei für mich Referenzdesign bei AMD okay wäre. Kommt eh ein Wasserkühler drauf und die Referenzplatinen sind bei AMD eigentlich immer schon sehr gut.

Und ich bin auch krass Cyberpunk 2077 gehypted.

gedi
2020-08-05, 20:44:36
Ich bin auch eher pro AMD. Allerdings könnte ich mir auch vorstellen ne 3080ti als nächste Karte zu holen, falls BigNavi nicht so prickelnd wird. Wobei für mich Referenzdesign bei AMD okay wäre. Kommt eh ein Wasserkühler drauf und die Referenzplatinen sind bei AMD eigentlich immer schon sehr gut.

Und ich bin auch krass Cyberpunk 2077 gehypted.

Bei mir wird se auch unter Wasser laufen. Und ich glaube nach wie vor, dass etwas Fettes kommt. Warum musste NV so ziemlich alles aufbohren, DLSS 2 ist kaum draußen, warum dann DLSS 3, welches maybe per default aktiviert ist. Ich bin mir sehr sicher, Jensen geht der Arsch auf Grundeis.

Hoffentlich macht Lisa bei einem evtl. Angebot seitens NV dicht. Ich denke wir alle wollen nen R300

Langlay
2020-08-05, 20:53:53
Ja, ich denke auch BigNavi wird recht stark wird. Wenn die Nvidia Karte 10% schneller wäre, wäre mir das egal. Aber ich hätte schon gerne wieder HBM und 16GB VRAM. Aber BigNavi soll ja den Gerüchten nach auch nach Ampere kommen, das wäre dann schon ganz gut. Kann man nach der BigNavi Vorstellung entscheiden was für einen das interessantere Produkt ist.

Linmoum
2020-08-05, 20:59:14
Ich weiß nach den Technik-Eindrücken zu Horizon jedenfalls, dass eine Karte beider Hersteller der kommenden GPU-Gen bereits DOA ist, wenn die kolportierten Daten stimmen sollten. Und ich weiß nach den Technik-Eindrücken zu Horizon erneut, dass hoffentlich nicht beide Hersteller bei 12GiB den Speicherausbau stoppen.

Blindkauf wird sowieso nichts, sprich es werden selbstverständlich beide Vorstellungen/Launches abgewartet. Wäre ja schön dumm, das nicht zu tun. Auch, wenn es aktuell in meinem Fall bei 90/10 für Navi liegt, da mir 1 1/2 Jahre NV mittlerweile gereicht haben.

Badesalz
2020-08-05, 22:22:38
Imho einer der dümmsten, wenn nicht der dümmste nennenswerte Tech-YTber.
"Let that sink in for a second!" :freak: ;DDachte der Slapstick ist eine Art Markenzeichen und gehört zum Programm?

Also, nicht speziell überzogene gestellte, sondern natürliche Trotteligkeit (?)

SKYNET
2020-08-05, 22:26:58
Ich plane noch für Cyberpunk mit Polaris! :weg: :biggrin:


640x480 ultra low details? :freak:

genervt
2020-08-06, 06:24:23
640x480 ultra low details? :freak:

VGA Supersampling on.

Schade, falls AMD erst im November launcht. Es hätte mich auch gewundert, wenn die Produktion einen Launch von Zen3, Navi 2x und den Konsolen in nem ähnlichen Zeitraum erlaubt hätte. Das heißt dann nur leider, dass Customs erst im neuen Jahr kommen. Vorteil NV von 1 Quartal.

basix
2020-08-06, 09:54:44
Dachte der Slapstick ist eine Art Markenzeichen und gehört zum Programm?

Also, nicht speziell überzogene gestellte, sondern natürliche Trotteligkeit (?)

"natürliche Trotteligkeit" ;D Aber das beschreibt den Jay wohl ganz gut. Wenn man rein faktenbasierte und in-depth Reviews und Analysen will, ist Jay wohl nicht ganz der richtige. Aber so schlimm finde ich ihn nicht. Es gibt andere Youtuber, die deutlich mehr Bullshit erzählen und sich selber auch noch sehr seriös nehmen. Jay ist zumindest unterhaltsam.

Eldoran
2020-08-07, 00:38:10
Möglicherweise sind wie bei SIENNA_CICHLID total auf der falschen Fährte - mit dem HBM, ECC und IF Links passt das ganze viel besser zu den Instinct Karten. Könnte das vielleicht CDNA2 sein? Da wäre ein besonders grosser Die auch nicht so problematisch.

Eldoran
2020-08-07, 01:04:07
Zu dem mutmasslichen Leak von AquariusZi - normalerweise würde man ja annehmen, dass ein anderer Node des kleinsten Dies einen älteren Node impliziert. Da stellt sich aber dann die Frage, welchen. Wenn der Rest N7+ ist, gibt es eigentlich keinen offensichtlichen Kandidaten (also einen Node, der einfach portiert werden kann). Einfach weil das ganze billiger ist, ist unter den Bedingungen nicht so offensichlich, es sei denn das ist ein N6 shrink der bisherigen Navie Dies. Für N6 ist der Zeitplan aber eigentlich noch extrem optimistisch - da gibt es keim Informationen von TSMC und die Prognose ist ehr irgendwann 2021. N5 sollte eigentlich schon längst HVM sein, ich finde aber keine Pressemeldung dazu, auch wenn TSMC immer wieder betont, dass das ganze sich gut entwickelt. Möglicherweise kann man sich da einfach mit der offiziellen Freiganbe Zeit lassen.
Wenn man das aber aus einer anderen Perspektive betrachtet, könnte das vielleicht der pipe cleaner für N5 sein? Oder einen Node mit noch freier Kapazitäten nutzen. GF 14/12 nm bieten sich nicht sonderlich an, die sollten doch auch so schon ausreichend ausgelastet sein? Das könnte auch mit den ganzen Gerüchten um freie N5 Kapazitäten bei TSMC passen. Und als relativ kleiner Die sollte das auch in einem nicht ganz eingespielten Node eher funktionieren. Wenn das ganze vielleicht auch primär in Laptops verbaut werden soll und vielleicht auch eine weitere Verwendung unter 5nm bei den APUs geplant ist, könnte das so durchaus Sinn machen.

Nightspider
2020-08-07, 01:10:52
So herum hab ich das auch gehofft. Schließlich könnte man einen kleinen Chip in einem noch besseren Fertigungsprozess noch besser in mobilen Geräten (Laptops) unterbringen.

Ist aber auch nicht mehr als eine Hoffnung. ^^

amdfanuwe
2020-08-07, 03:17:19
Die werden RDNA2 nicht auf zig Nodes hin entwickelt haben.
Die Konsolen haben ja auch RDNA2 Gene. Konsolenchips müssen billig und zuverlässig produziert werden können. Da tippe ich für die Konsolenchips und den kleinen RDNA2 Navi Chip eher auf N6 in 7nm und somit fallback Option auf N7P wenn man die unteren Layer herkömmlich statt mit EUV belichtet. Später könnte AMD durch einen shrink auf 6nm die Kosten noch etwas senken.

Big Navi war anscheinend auf N7+ zu weit fortgeschritten und N6 noch zu unsicher und zu spät um da noch auf den anderen Prozess zu wechseln. Zudem zählt für Big Navi Leistung.

Für die Konsolenchips dürften eher Kosten und Verbrauch im Vordergrund stehen. Zudem existieren die ZEN2 Kerne schon für N7 und können einfach wegen der gleichen Designrules auf N7P oder N6 übernommen werden.

5nm seh ich noch nicht für kleine Navi Chips ohne ordentliche Gewinnmarge. Der Flächenvorteil dürfte die höheren Prozesskosten nicht aufwiegen bei der Größe ( relativ hoher I/O Anteil ).
Da kommt eher zuerst ein Chip, der sich auch teuer verkaufen läßt und die Performance bzw. die Effizienz Vorteile von N5 benötigt.

Leonidas
2020-08-07, 04:38:58
So einen dummen Eindruck macht der YouTuber aber auch nicht, das er die 156% bei der 5700XT einfach übersieht und 100% daraus macht.


Eigentlich nicht. Aber die 3,5fache Performance müsste ihm eigentlich schon beim Reden des Textes auffallen, oder nicht?

Berniyh
2020-08-07, 08:48:05
Möglicherweise sind wie bei SIENNA_CICHLID total auf der falschen Fährte - mit dem HBM, ECC und IF Links passt das ganze viel besser zu den Instinct Karten. Könnte das vielleicht CDNA2 sein? Da wäre ein besonders grosser Die auch nicht so problematisch.
Nein, Sienna Cichlid ist ein RDNA2 Chip und ist Navi 21, das wissen wir genauso wie wir wissen, dass Navy Flounders Navi 22 ist, da wir die jeweiligen IDs kennen.
Zu CDNA2 ist meines Wissens noch kein Codename bekannt.

HOT
2020-08-07, 09:02:04
Also das mit N7+ halte ich, genau wie die anderen "Vorhersagen" von dem Typ immer noch für totalen Unsinn. Ich halte es für viel wahrscheinlicher, dass N21 und 22 N7P sind, genau wie die CPUs, und N23 dann schon N6, deshalb passen mMn die 40 CUs auch in 200mm² rein.

Cyberfries
2020-08-07, 10:03:15
Möglicherweise ist der kleinste RDNA2-Chip auch auf einem älteren Fertigungsverfahren mangels Kapazität?
Mit den vielen Neuerscheinungen Ende 2020/Anfang 2021 lässt sich TSMC den neuesten Prozess sicher vergolden,
ob da noch ein Preisvorteil von N7+ gegenüber N7 gegeben ist?

HOT
2020-08-07, 10:06:53
Mit dem Absprung von Huawei im Herbst ist N7+ mMn einfach tot und TSMC wird die Kapazitäten alle auf N6 umrüsten, denn da herrscht ein Bedarf, der seines gleichen sucht.

Cyberfries
2020-08-07, 10:12:16
"Absprung"
Schöner Euphemismus dafür.

Wir werdens sehen. Dass Kapazitäten freiwerden ist erst seit 2,5Monaten bekannt,
da sollte die Prozessplanung bei AMD bereits abgeschlossen worden sein.

Leonidas
2020-08-07, 11:17:50
Die nächsten Fernost-Gerüchte:

Navi 21 mit 12/16 GB - sprich maximal 16 GB und als Salvage 12 GB. Wäre für AMD eher neu, die Salvage-Lösung in dieser Frage abzuspecken, wird aber eventuell gebraucht, um viel Platz im Portfolio zu füllen. Möglicherweise auch nicht bei der ersten Salvage-Lösung, sondern erst der zweiten. NV scheint aber zu kontern:
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode

Berniyh
2020-08-07, 11:51:55
Die nächsten Fernost-Gerüchte:

Navi 21 mit 12/16 GB - sprich maximal 16 GB und als Salvage 12 GB. Wäre für AMD eher neu, die Salvage-Lösung in dieser Frage abzuspecken, wird aber eventuell gebraucht, um viel Platz im Portfolio zu füllen.
Macht die 5600 XT doch auch?

Leonidas
2020-08-07, 12:00:04
Exakt. Deswegen kann es auch so kommen:
Navi 21 XTX - 16 GB
Navi 21 XT - 16 GB
Navi 21 XL - 12 GB.

... wäre ja nur positiv, dann hat auch die zweitbeste Lösung 16 GB.

Neu für AMD wäre es, wenn es das gleich beim Start für eine Salvage-Lösung gibt. 5600XT war ja gut ein halbes Jahr später gegenüber 5700/XT.

Complicated
2020-08-07, 12:02:59
Eine solche Salvage-Lösung macht IMHO GDDR6 mit einem großen SI (doch 512?) wahrscheinlicher, da das größere SI mehr Defekte abbekommt.

HOT
2020-08-07, 12:17:55
Die nächsten Fernost-Gerüchte:

Navi 21 mit 12/16 GB - sprich maximal 16 GB und als Salvage 12 GB. Wäre für AMD eher neu, die Salvage-Lösung in dieser Frage abzuspecken, wird aber eventuell gebraucht, um viel Platz im Portfolio zu füllen. Möglicherweise auch nicht bei der ersten Salvage-Lösung, sondern erst der zweiten. NV scheint aber zu kontern:
https://www.3dcenter.org/news/geruechtekueche-navi-21-mit-bis-zu-16-gb-sowie-geforce-rtx-3080-mit-wahlmoeglichkeit-auf-10-ode

Es kann aber sein, dass man je ein PCB für Retail und OEM macht. Das muss nicht salvage sein. Und klar, ein Kartenhersteller braucht länger als das Referenzdesign, deswegen Dezember/Januar, es handelt sich ja um Custom-Designs hier.

Der_Korken
2020-08-07, 12:38:57
Wenn die volle Chip 512bit bekommt und der zweite Salvage nur 384bit, würde es eigentlich Sinn machen, wenn der erste Salvage 448bit bekommt. Die Proportionen Bandbreite vs Rechenleistung würde immer noch stimmen, aber es werden zwei Speicherchips auf dem PCB gespart.

JVC
2020-08-07, 13:02:47
Darum bleibt HBM wohl wieder Erwartung noch immer im Rennen :ubeer:
(ein Defekt beim Speicherteil ist bei 4x4 eben 12)
Vielleicht wirklich einfach das 7 Speicherinterface mit etwas mehr Takt ?

Bei DDR6 würde Ich zur besseren Preis und Leistungs Einordnung 12 - 14 - 16Gb machen.
Und es sollen ja angeblich 3 Karten auf N21 basieren ;)

M.f.G. JVC

Berniyh
2020-08-07, 13:17:12
Neu für AMD wäre es, wenn es das gleich beim Start für eine Salvage-Lösung gibt. 5600XT war ja gut ein halbes Jahr später gegenüber 5700/XT.
Schon, aber ich vertrete hier weiterhin die Meinung, dass die 5600XT nicht geplant war, sondern eher der Tatsache geschuldet ist, dass man die 5500XT nicht dort positionieren konnte wo man wollte.
Also quasi eine Notlösung.
Daher auch der verkorkste Abstand zur 5700 non-XT.

HOT
2020-08-07, 13:25:28
Also das konnte man sich aber ausrechnen. Notlösung vielleicht deshalb, weil man sich einen Chip dazwischen gespart hat.

Dino-Fossil
2020-08-07, 13:28:25
Aber war dafür Navi14 nicht von Anfang an zu klein ausgelegt?
Kann natürlich sein, dass AMD mal wieder von deutlich mehr Rumms ausgegangen ist, als der Chip am Ende hatte (meist genannte Standarderklärung), aber so ganz kann ich das auch nicht glauben.

JVC
2020-08-07, 13:30:03
Ich habe langsam den Verdacht, das AMD NV mit massiver Power
(viel/Genug Ram, HBM und überraschend vielen CUs und Takt und so...)
gegen derer RT und DLSS Power, entgegentreten will.

Aber ich kann mir beim besten Willen nicht vorstellen, das AMD vn und UNS derart überrumpeln kann.

Aber kann mir ja egal sein ^^ da ich RT und DLSS ja nicht unbedingt haben will ...
Also bei Mir würde Das aufgehen.

M.f.G. JVC

Berniyh
2020-08-07, 13:36:51
Aber war dafür Navi14 nicht von Anfang an zu klein ausgelegt?
Kann natürlich sein, dass AMD mal wieder von deutlich mehr Rumms ausgegangen ist, als der Chip am Ende hatte (meist genannte Standarderklärung), aber so ganz kann ich das auch nicht glauben.
War natürlich in Relation zu Nvidia gemeint.

Evtl. war die Performance von RDNA1 etwas geringer als man erwartet hat oder Nvidias Lösung hat einfach besser performt.

Aber in meinen Augen sind die Zeichen da recht eindeutig:
Q3/Q4 19: Hin und her zwischen Nvidia und AMD, AMD zögert die 5500 XT hinaus
Dez 19: AMD legt einen halbgaren Release der 5500 XT hin
Jan 20: AMD schiebt kurze Zeit später die 5600 XT nach, von der man bis Mitte Dezember noch nie was gehört hat.
(Zur 5500 gab es monatelang vorher Gerüchte.)

Will sagen: man hat die 5600 XT hauptsächlich deshalb aufgelegt weil die 5500 XT in Relation zu Nvidia nicht das leisten konnte wofür man sie gedacht hatte.

Also ich bin mir da eigentlich recht sicher, dass die 5600 XT aus der Not heraus geboren wurde.

davidzo
2020-08-07, 13:40:51
Ich finde die Argumentation dass AMD auf 12/16GB aufteilt um ein breiteres Performancefeld mit einem Chip abzudecken nicht sehr überzeugend.

Die Speichermenge ist gerade die eine Maßnahme die sich am geringsten auf die Performance auswirkt. Einheitenzahl, Chiptakt, Boardpower, etc. schlagen alle sofort linear durch, die Speicherbandbreite zumeist weniger als Linear und die Speichermenge in Benchmarks meist überhaupt nicht weil dies eher eine Investition in die Zukunft ist oder auf relativ seltene Displaykonfigurationen abziehlt (4K@120, 6K, VR, etc.).

Momentan sind die Speicherpreise auf einem Höhenflug, daher ist das ein no-brainer für AMD dass man so die Kosten für die AIBs senken kann, neben der PCB Komplexität. Auch ohne dass man gleich bei der Stromversorgung bzw. deren Effizienz spart kann man so relativ einfach eine in den Herstellungskosten günstigere Karte auf den Markt bringen. Dafür braucht man nichtmal ein neues PCB, wenn auch die AIBs wahrscheinlich in der zweiten Welle versuchen werden bei der Karte mit dem kleineren SI auch die Layeranzahl zu reduzieren...

Früher hat man den vielen Speicher aber häufig als Unterscheidungsmerkmal gebraucht, sonst hätte man das sicher auch häufiger gemacht. Die R9 390 wäre ohne die 4GB (4,5:biggrin:) Mehrspeicher die wesentlich schlechtere value proposition gegenüber der GTX970, gewesen.

12Gb für Navi21 Salvage ist immerhin noch mehr als die 10Gb die man bei der Vanilla 3080 vermutet, damit wäre man also immer noch vorne bei der Speicherbestückung, bzw. gewinnt den Punkt in den Augen des Kunden.

Schon, aber ich vertrete hier weiterhin die Meinung, dass die 5600XT nicht geplant war, sondern eher der Tatsache geschuldet ist, dass man die 5500XT nicht dort positionieren konnte wo man wollte.
Also quasi eine Notlösung.
Daher auch der verkorkste Abstand zur 5700 non-XT.

Ja, die tatsächliche Ausrichtung der 5600xt war so ja ganz sicher nicht geplant, sieht man ja an den last minute biosänderungen. EIn weiterer salvagechip wie auch immer war aber wohl schon geplant.

JVC
2020-08-07, 13:43:55
Eventuell war die Apple 5600M Navi-12-Chip ein HBM Testlauf ?
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-Pro-5600M-fuer-MacBook-Pro-hat-HBM-Speicher-Navi-12-1352384/

M.f.G. JVC

Dino-Fossil
2020-08-07, 13:54:10
Will sagen: man hat die 5600 XT hauptsächlich deshalb aufgelegt weil die 5500 XT in Relation zu Nvidia nicht das leisten konnte wofür man sie gedacht hatte.

Also ich bin mir da eigentlich recht sicher, dass die 5600 XT aus der Not heraus geboren wurde.

Naja, die Hauptkonkurenz ist ja eigentlich schon eher der eigene Polaris10/20-Restbestand, der praktisch genauso viel Performance bietet, aber deutlich günstiger ist/war.
Vielleicht liegt da eher das Problem - das man am Ende noch viel mehr Polaris hatte, als in der N14 Design-Phase erwartet wurde.

Wo man mit Navi14 landet war AMD mMn aber schon früh klar.

Ok, vielleicht hatten sie nicht ganz damit gerechnet, dass nVidia in der Performance-Lücke zwischen N14 und N10 was bringt, aber die Lücke ist schon sehr groß.
Abgesehen von einem N10-salvage Chip wäre da eingentlich nur ein gößerer Chip als N14 möglich gewesen (28-30CU, z.B.).

Die 5600XT, oder jedenfalls das BIOS-Hickhack, war vielleicht auch einfach dem Super-Refresh geschuldet.

Digidi
2020-08-07, 16:03:16
Als ich das Video gesehen hab musste ich hier an das Forum denken wenn mal wieder Rausgehauen wird 50% mehr Performance XD

https://www.youtube.com/watch?v=_R0ywINFaOo

Es wäre mal interessant bei einem GPU die Streung anzugeben für AMD und Nvidia bei den Min FPS über verschiedene Spiele.

genervt
2020-08-07, 20:17:57
Naja, die Hauptkonkurenz ist ja eigentlich schon eher der eigene Polaris10/20-Restbestand, der praktisch genauso viel Performance bietet, aber deutlich günstiger ist/war.
Vielleicht liegt da eher das Problem - das man am Ende noch viel mehr Polaris hatte, als in der N14 Design-Phase erwartet wurde.
.

Ich möchte ergänzen, dass Polaris a) mot RX480, RX580 und RX590 lange am Markt war und zum Launch des 5500XT auch deutlich günstiger zu haben war. Der 5500 XT war imo mit seinen 229€ einfach zu teuer. Vega 56 gab es davor auch günstig.

gedi
2020-08-07, 21:00:16
Okay, bin aber im Bier-Modus (sprich Horn^s). Ich fühle mich eigentlich aufgrund neuer Spekus bestätigt: RDNA2 ist nix anderes als CDNA, nur entscheidend gekappt (sprich um die Workstation Features Extrems beschnitten), was für mich für das Flagschiff bedeutet: Minimal 80CUs und HBM2! Ich denke am PC werden 84CUs ankommen und Apple bekommt 96CUs. Der Salvage-Part bekommt ebend ein 384-Bit SI mit 12 GB Gddr6

Leonidas
2020-08-08, 00:06:07
Schon, aber ich vertrete hier weiterhin die Meinung, dass die 5600XT nicht geplant war, sondern eher der Tatsache geschuldet ist, dass man die 5500XT nicht dort positionieren konnte wo man wollte.
Also quasi eine Notlösung.
Daher auch der verkorkste Abstand zur 5700 non-XT.



Sehe ich ziemlich genauso. Deswegen ist es eben keine Regel für AMD, das man vom Start weg mit Salvage-Lösungen mit kleinerem Speicherinterface plant. Bei Navi 21 nun anscheinend doch.





Ich finde die Argumentation dass AMD auf 12/16GB aufteilt um ein breiteres Performancefeld mit einem Chip abzudecken nicht sehr überzeugend.


Es geht ja mit der Breite des Speicherinterfaces einher. Und das tastest Du nur an, wenn Du erhebliche Unterschiede in der Rohleistung hast. Eine andere Speicherbestückung deutet also erhebliche Rohleistungs-Differenzen an.





Der Salvage-Part bekommt ebend ein 384-Bit SI mit 12 GB Gddr6


Zu viel Bier. Man baut keine Grafikchips mit gleich 2 (verschiedenen) Speicherinterfaces. Und gewöhnlich auch keine zwei gleichen Grafikchips mit nur unterschiedlichem Interface (Ausnahmen bestätigen die Regel).

Leonidas
2020-08-08, 09:35:14
Neue Details von Komachi nach "Winterschlaf":

6. Navi 2X Family has Navi 24 (like the MI200, it hasn't been taped out yet).

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-7-august-2020

HOT
2020-08-08, 09:37:03
N24 würd ich mal als Ersatz für N14 einordnen. N4x könnten einfach Refreshes in N6 sein, N41 wäre also ein 6nm-Refresh von N21.

Cyberfries
2020-08-08, 12:40:11
So langsam wird das vermutete Portfolio ziemlich groß mit vielen Deutungsmöglichkeiten der einzelnen Produktcodes.
Wenn nun aber von einem Navi 24-Chip spekuliert wird, der erst Jahresende 2021 erscheinen soll,
liegt mir das aber zu nahe an Navi 3x und dem nVidia-Ampere-Nachfolger.
Neben BigNavi mit ca.80CU und dem Chip mit ca.50CU habe ich ohnehin nichts weiteres erwartet,
aber dann gleich 4 Chips? Noch mit möglicherweise 30CU und 20CU? Bin da eher skeptisch.

WENN dieses Gerücht um Navi24 wahr ist, dann glaube ich nicht, dass es sich hierbei um einen Teil des Haupt-Line-Ups handelt.
Ähnlich wie Vega 12 und Navi 12.

Leonidas
2020-08-08, 14:02:29
Navi 24 dürfte die Variante nach unten hin sein. Die benutzt man dann vergleichsweise lange und daher ist es egal, wann die kommt - sie wird wahrscheinlich Navi 3X überstehen.

Complicated
2020-08-08, 14:06:17
Bisher deutet nichts auf 6nm Fertigung bei AMD hin. Ich glaube auch nicht, dass AMD an dem Prozess wirklich interessiert ist, da sie vorher schon 5nm nutzen werden in der Breite und eher dort Kapazitäten buchen werden. Bei 6nm ist die Warteschlange lang und die Zahl der Interessenten groß und Intel soll sich auch um diese Wafer bemühen Gerüchten nach. Bei 5nm ist AMD ganz vorne dabei und Mitentwickler. 6nm ist für 7nm das 12nm der 14nm-Generation.
While TSMC's N7+ uses up to four EUVL layers, its N6 expands it up to five layers, whereas N5 expands usage of EUVL all the way to 14 layers.
Ich denke der Weg für einen schnellen Transit zu 3nm ist für AMD 7nm+-> 5nm-> 3nm. Die 6nm ergeben keine neuen Erkenntnisse, die in 7nm+ nicht gemacht werden können und der Sprung zu 14 Layern EUV ist für AMD, denke ich, oberste Priorität um den Vorsprung auch in 3-4 Jahren noch zu haben.

So lange AMD mit kleinen Chiplets alleine unterwegs ist, ist der schnellst möglich Transit auf die nächst kleinere Fertigung durch die frühen wirtschaftlichen Yields ein Vorteil der über Jahre hinweg erarbeitet wurde - warum jetzt darauf verzichten eine erfolgreiche Strategie auch umzumünzen, wo genau der Zeitpunkt gekommen ist die Früchte zu ernten?

Platos
2020-08-08, 15:43:53
Mitentwickler ist etwas übertrieben. Wohl eher "Austester"

LasterCluster
2020-08-08, 16:48:50
Bisher deutet nichts auf 6nm Fertigung bei AMD hin.

Doch, die Zen3+ Gerüchte. Also Warhol und Rembrandt.

Complicated
2020-08-08, 17:03:25
Warum sollte Zen3+ in 6nm nach Zen4 in 5nm kommen? 5nm ist 6-12 Montate vor 6nm fertig.
Ich kenne keine Äußerung bisher, die Ernst zu nehmen ist für AMD in 6nm. Hast du eine Quelle?
https://pics.computerbase.de/8/9/6/4/7/1-1080.be76cf1f.jpg

LasterCluster
2020-08-08, 17:24:42
Puh. Das Orginal finde ich auf die schnelle nicht mehr. Es wahr der gleiche Leak, der Cezanne mit Vega-iGPU und Van Gogh mit RDNA2 und <10 Watt erwähnte. Aber ich denke Igor hat sich darauf bezogen:

Die beiden Schlüsseltechnologien, die die Rembrandt-APUs prägen sollen, werden eine neue Zen 3 (Plus/Refresh)-CPU und eine RDNA 2-GPU-Architektur sein. Die Rembrandt-APUs sollen auf dem TSMC 6nm-Prozess-Knoten hergestellt werden, der eine optimierte Version des N7-Prozesses ist. Den Angaben zufolge, wird die Zen 3+-CPU-Architektur entscheidende Effizienzsteigerungen liefern und gleichzeitig eine deutliche Leistungssteigerung gegenüber der Zen 3-Architektur bieten. Sie wird der Zen+-Kernarchitektur zwar noch ähnlich sein, aber Berichte lassen vermuten, dass die Zen 3+-Architektur eine geringfügig bessere Steigerung bieten wird als das, was man mit Zen+ erreichen konnte

aus

https://www.igorslab.de/amds-ryzen-5000-cezanne-apus-mit-zen-3-7nm-vega-schon-2021-ryzen-6000-rembrandt-apus-mit-zen-3-rdna-2-im-jahr-2022-und-van-gogh-mit-zen-2-rdna-2-fuer-ultra-low-power-geraete-roadmap/

Andere Quellen sehen Warhol als 7nm:

https://www.3dcenter.org/news/amd-legt-anscheinend-eine-zen-3-zwischen-generation-zwischen-zen-3-und-zen-4-ein

Aber dies ist ja kein wirklicher Widerspruch zu 6nm, da dieser ja zu 7nm gehört wie 12nm zu 14nm. AMD scheint einfach die Nomenklatur von TSMC recht egal zu sein. Siehe 7nm+ vs N7P.

Zu deinem Link: Ich dachte immer, AMD will gleich auf N5P gehen und das kommt nach N6.

Complicated
2020-08-08, 17:31:40
Igor hat schon jede Variante in irgendeiner Weise verkündet. Da passt nichts zueinander.
AMD is going for customized 5nm at TSMC for ZEN4 and RDNA3? (https://www.guru3d.com/news-story/amd-is-going-for-customized-5nm-at-tsmc-for-zen4-and-rdna3.html)
New industry reports indicate that AMD is working with TSMC to design a 'custom version' of the 5nm node for its 2021 products. This would allow AMD to optimize the fabrication node better for its products, reducing power consumption and maximizing frequencies.
Wozu einen Custom 5nm-Node mit 14 EUV-Layern, um dann einen 5-EUV-Layer 6nm-Prozess zu nutzen?

Übrigens sagt auch keiner zu den optimierten Renoir Zen2-Kernen Zen2+. Warum sollten die Zen3 Kerne in Rembrandt dann Zen3+ sein?
Oder die Ryzen XT Modelle. Auch kein Zen2+.

LasterCluster
2020-08-08, 17:56:43
Aber allem Wissen nach kommt zumindest Warhol in 7nm wie im zweiten Link zu sehen. N6 gehört noch zu 7nm, N5(P) offensichtlich nicht. Klar könnte Warhol einfach Standard-Zen3 mit neuem I/O-Die sein. Aber warum nicht die Chance nutzen und einen verbesserten 7nm Prozess nehmen? Vor allem sollte der doch recht kompatibel sein wie 12nm zu 14nm.

Der Custom 5nm ist dann halt wie der Link sagt für Zen4+RDNA3

P.S.: Die hießen nicht Zen2+ weil der Prozess identisch ist, anders als bei Zen+.

Edit: Hier ist die Quelle die ich meinte:

https://twitter.com/9550pro/status/1265256141853884416

Oh,my God!

Cezanne= Zen 3+Vega 7(TSMC N7)

Rembrandt= Zen 3+( Zen 3 Refresh?) +RDNA 2(TSMC 6nm,DDR5/LPDDR5,USB4,PCIe 4.0)

Van Gogh= Zen 2+RDNA 2(TDP 9W)

Source:Expreview

Da steht nichts zu Warhol. Das war dann meine eigene Fantasie, sorry. Anderseits liegt es auch irgendwie nahe, dass Rembrandt die APU zu Warhol.

Complicated
2020-08-08, 19:01:32
RDNA2 kommt dieses Jahr. Da gibt es kein 6nm. 5nm wäre da eher wahrscheinlich, wenn es überhaupt ein Upgrade gab, was ich anzweifle. Und warum sollten zwei APUs hintereinander Zen3 nutzen wenn Zen4 schon längst fertig designed ist?
Der ganze Post bei Twitter passt nicht.

LasterCluster
2020-08-08, 19:39:04
Bevor du mich falsch verstehst, es ging mir ausschließlich um die Aussage:
Bisher deutet nichts auf 6nm Fertigung bei AMD hin
Ich wollte nicht behaupten, dass N6 unbedingt im GPU-Bereich kommt.

P.S.: Der Post auf Twitter scheint sich eher zu bewahrheiten. Treibereinträge haben ebenfalls CZN+Vega und vanGogh+RDNA2 gezeigt. Da es der Navithread ist will ich jetzt aber nicht weiter auf CPUs/APUs eingehen.

Complicated
2020-08-08, 21:43:42
Schon klar worum es dir geht. Aber der Twittereintrag ist an so vielen Stellen schon falsch, dass ich ihn kaum für eine Quelle für irgendetwas halte. Immer wieder schreibt einer was von 6nm bei AMD. Aber noch keiner hat anderes als eigene Spekulationen als Quelle angeboten. Es gibt 6nm. Das wissen wir. Bisher ist es nicht plausibel, dass AMD es in irgendeinem Produkt nutzen wird.

ChaosTM
2020-08-08, 22:04:39
Die 6nm AMD Fabrik am Nordpol in der Elfen produzieren ..

Flinx
2020-08-09, 16:53:57
Könnte es sich lohnen, Big Navi mit HBM-Speicher für den Mobilbereich und GDDR6-Speicher für den normalen Desktop-PC zu bringen?

Leonidas
2020-08-09, 17:55:35
Nein. Das sind dann 2 extra Chips und das kostet zuviel. Zudem ist Big Navi sowieso zu fett (stromfressend) für Mobile. Nicht einmal NV bringt seine dicksten Chips ins Mobile-Segment (TU102, und später GA102).

Piefkee
2020-08-10, 08:26:51
Doch, die Zen3+ Gerüchte. Also Warhol und Rembrandt.


Äh nein, die Bilder die es gab von der Roadmap steht eindeutig 7nm da.

https://www.hardwareluxx.de/images/cdn01/1C867AC3EB82476F9D1D2E72357AA0CE/img/1F1E9E402CF343ABBF6E823245095A21/AMD-Warhol-MebiuW-Leak_1F1E9E402CF343ABBF6E823245095A21.jpg

Zu der 6nm Thematik:
- 6nm ist mehr oder weniger ein "umgebauter" 7nm + (EUV) Process (N7+ = 17% Density / N6 15% Density)
- Warum? --> N7+ ist nicht design kompatibel zu dem Basis N7, jedoch ist N6 Design kompatibel zu N7
- Sprich er ist für Kunden gedacht die relative easy von N7 auf N6 wollen
- Warum wird AMD N6 nicht verwenden. Der Zeitplan ist dafür viel zu spät. N6 ist erst ziemlich spät eingeführt worden in der Roadmap. N6 kommt erst nach N5. AMD wird die EUV Erfahrung mit dem ominösen N7+ Prozess sammeln (Zen3 wird ziemlich sicher N7+ nutzen, genauso wie wahrscheinlich Navi2x). Zen4 und Navi3x gibt es mM nach in N5.

https://www.anandtech.com/show/14228/tsmc-reveals-6-nm-process-technology-7-nm-with-higher-transistor-density

What remains to be seen is whether chip designers will be inclined to use N6 technology given its miniscule improvements over N7 when it comes to power, performance, and area (PPA). Perhaps, companies with complex N7-based chips will prefer to go directly to N7+, or even 5 nm (CLN5FF, N5), for their next generation parts.