Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
Leonidas
2019-05-22, 06:15:06
https://twitter.com/KOMACHI_ENSAKA/status/1130765154130337792
Der Tweet wurde übrigens mittlerweile gelöscht, da hat der gute Komachi mal wohl wieder mal Quatsch erzählt.:wink:
Bei mir ist er einwandfrei zu sehen. Allerdings fehlt der hier:
https://twitter.com/KOMACHI_ENSAKA/status/1130811301574242305?s=20
Locuza
2019-05-22, 06:30:49
Scheinbar hat nach einem gelöschten Tweet ein neuer Tweet die gleiche Linkadresse, denn der genannte Inhalt von Piefkee stimmt überhaupt nicht überein und ich bin kurz durch den Tweeterfeed gescrollt und da gibt es keinen passenden Tweet.
Das soll anfangs der Inhalt gewesen sein:
"Yes. He/She said Navi 10 has 8 Shader Engines/each 5CU/2*SIMD-32 per CU. "
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12000449#post12000449
Jetzt steht im Tweet Folgendes (Google Translate):
"Ich weiß es nicht, weil ich mit der GPU-Architektur nicht vertraut bin, aber der Wechsel von 4x SIMD-16 zu 2x SIMD-32 macht einen großen Unterschied, oder?"
Adam D.
2019-05-22, 07:58:41
Was ich an den bisherigen Spekulationen unschlüssig finde ist die Positionierung von Navi im bestehenden Markt. Turing gibt es jetzt seit bald einem Jahr zu kaufen. Navi muss mehr bringen als ein paar Prozentpunkte zusätzliche Leistung. Turing hat RT, davon kann man halten was man will, aber da es aktuell so aussieht, als würde Navi technologisch nichts in der Richtung bringen, wird es halt ein Argument. Dass AMD bei Perf/W zu Nvidia aufschließt, muss man auch erst noch sehen. Navi wird keine Performance-Rekorde brechen, das ist so ziemlich das Einzige, was man sicher sagen kann. Zwei Karten mit Performance-Target zu 2060 und 2070 würden bestimmt gut tun. Aber nicht für 399/499$.
dildo4u
2019-05-22, 08:03:55
Es lohnt sich schon deshalb,weil sie dann keine HBM2 Karten für 250€ mher verkaufen müssen.
Und RT wurde von den AMD Fanboys extrem negativ aufgenommen,das sollte 2019 noch nicht vom Kauf abhalten.
Palpatin
2019-05-22, 08:12:08
Wäre Navi nah an der 2080, hätte man das sicher gesagt anstatt nur "über der 2070". Kann mir auch gut vorstellen, dass letzteres auf AMD-Angaben basiert und die Karte sich in unabhängigen Tests ein Kopf-an-Kopf-Rennen mit der 2070 liefert. Insbesondere wenn die 40 CUs stimmen sollten. Außerdem scheint AMD die teurere Radeon VII weiterzuführen, was mit einem Navi auf gleichem Niveau sinnfrei wäre.
AMD hat ja noch gar nichts gesagt. Die Infos sind ja von Sapphire.
Zwischen 2080 und 2070 ist ist halt viel Platz. Die 2080 ist gut 30% schneller als die 2070. Wenn die 399$ Version auf etwa 2070 Leistung bei gleicher oder geringerer Leistungsaufnahme kommen würde wäre das eine gut Karte zum guten Preis.
Die 499$ Karte dann 15% - 20% schneller, wäre damit immer noch gut 10-15% unter der 2080, aber klar schneller als 2070 und günstiger als 2080.
So würde ich die Karten jedenfalls positionieren wenn von der Leistung eben nicht ganz auf 2080 reicht.
Screemer
2019-05-22, 08:14:06
Es lohnt sich schon deshalb,weil sie dann keine HBM2 Karten für 250€ mher verkaufen müssen.
Und RT wurde von den AMD Fanboys extrem negativ aufgenommen,das sollte 2019 noch nicht vom Kauf abhalten.
Nicht rt sondern der preisbump bei seiner Einführung und die teils lächerlich Performance. Das du das nicht differenzieren kannst wundert mich nicht.
X.Perry_Mental
2019-05-22, 08:47:05
AMD hat ja noch gar nichts gesagt. Die Infos sind ja von Sapphire.
Zwischen 2080 und 2070 ist ist halt viel Platz. Die 2080 ist gut 30% schneller als die 2070. Wenn die 399$ Version auf etwa 2070 Leistung bei gleicher oder geringerer Leistungsaufnahme kommen würde wäre das eine gut Karte zum guten Preis.
Die 499$ Karte dann 15% - 20% schneller, wäre damit immer noch gut 10-15% unter der 2080, aber klar schneller als 2070 und günstiger als 2080.
So würde ich die Karten jedenfalls positionieren wenn von der Leistung eben nicht ganz auf 2080 reicht.
Ich würde mir wünschen, dass AMD die Karten da platziert wo der Sweetspot liegt, und dann einen angemessenen Preis dafür verlangt. Wenn man dabei jeweils knapp unter der Leistung von nVidias 2060 oder 2070 rauskommt, wäre mir das immer noch lieber, als wenn man die Karten wie in der Vergangenheit mit aller Gewalt und vermutlich 50W extra in eine Leistungsregion prügelt, wo sie vom Design her vielleicht gar nicht hingehören.
elhomomomo
2019-05-22, 09:13:24
Vielleicht spekuliert AMD auf einen neuen Miningboom und möchte die Karten einfach nicht zu billig auf den Markt werfen. Günstiger machen lässt es sich immer noch.
Zergra
2019-05-22, 09:17:12
AMD hat ja noch gar nichts gesagt. Die Infos sind ja von Sapphire.
Zwischen 2080 und 2070 ist ist halt viel Platz. Die 2080 ist gut 30% schneller als die 2070. Wenn die 399$ Version auf etwa 2070 Leistung bei gleicher oder geringerer Leistungsaufnahme kommen würde wäre das eine gut Karte zum guten Preis.
Die 499$ Karte dann 15% - 20% schneller, wäre damit immer noch gut 10-15% unter der 2080, aber klar schneller als 2070 und günstiger als 2080.
So würde ich die Karten jedenfalls positionieren wenn von der Leistung eben nicht ganz auf 2080 reicht.
Nur das die Abstände nicht so groß sind, zwischen der 2070 und der 2080 liegen ca 20%.
Thunder99
2019-05-22, 09:21:55
Die Erwähnung einer Toxic ist auch komisch, die Reihe gibts gar nicht mehr. Wirkt jedenfalls alles nicht als ob es echt wäre.
Nur weil die Serie es bei den letzten Generationen nicht gab muss es nicht heißen, dass sie für immer gestorben ist.
Polaris und Vega lassen sich halt nicht weit genug vom Werk aus takten, dass sich eine Toxic gelohnt hätte, meiner Meinung nach.
w0mbat
2019-05-22, 09:34:16
Ich würde mir wünschen, dass AMD die Karten da platziert wo der Sweetspot liegt, und dann einen angemessenen Preis dafür verlangt. Wenn man dabei jeweils knapp unter der Leistung von nVidias 2060 oder 2070 rauskommt, wäre mir das immer noch lieber, als wenn man die Karten wie in der Vergangenheit mit aller Gewalt und vermutlich 50W extra in eine Leistungsregion prügelt, wo sie vom Design her vielleicht gar nicht hingehören.
Da stimme ich voll zu, aber wir sind eben nicht die "normalen" Kunden und die kaufen anscheinend nach Balkenlänge.
Nvidia setzt ihre Karten meist in den sweet-spot, wenn sie es nicht tun (Fermi), wird es auch Scheiße.
Wenn AMD die Rohleistung ihrer Karten besser auf die Straße bekommen würde, könnten sie die Taktraten etwas senken. Eine RX 5xx mit sweet-spot Taktraten wäre nicht uneffizient.
Mangel76
2019-05-22, 09:36:15
Ich würde mir wünschen, dass AMD die Karten da platziert wo der Sweetspot liegt, und dann einen angemessenen Preis dafür verlangt. Wenn man dabei jeweils knapp unter der Leistung von nVidias 2060 oder 2070 rauskommt, wäre mir das immer noch lieber, als wenn man die Karten wie in der Vergangenheit mit aller Gewalt und vermutlich 50W extra in eine Leistungsregion prügelt, wo sie vom Design her vielleicht gar nicht hingehören.
Dafür gibt es im Wattman ein paar schöne Regler, die das ganz schnell und einfach beheben. Ich verstehe echt nicht, warum sich hier immer so viele Leute aufregen, dass die AMD-Karten zu hoch angesetzt werden und bei NVIDIA freut man sich über das große Übertaktungspotential. Echt verdrehte Wahrnehmung :freak:
Nosferatu1
2019-05-22, 09:44:20
checks auch nicht turing ist nicht effizient wenn ich mir die customs ansehe da frisst ne 2080 auch 280-300 watt.
w0mbat
2019-05-22, 09:46:50
Weil es out-of-the-box was anderes ist. UV ist immer so ne Sache, da muss man halt rumfrickeln. Und dann läuft ein bestimmtes Spiel plötzlich nicht mehr.
X.Perry_Mental
2019-05-22, 10:00:18
Dafür gibt es im Wattman ein paar schöne Regler, die das ganz schnell und einfach beheben. Ich verstehe echt nicht, warum sich hier immer so viele Leute aufregen, dass die AMD-Karten zu hoch angesetzt werden und bei NVIDIA freut man sich über das große Übertaktungspotential. Echt verdrehte Wahrnehmung :freak:
Diese manuelle Möglichkeit ist der Grund, warum ich mir überhaupt eine Polaris-Karte gekauft habe. Ich rege mich auch nicht auf, bin aber der Ansicht, dass sich AMD einen Bärendienst erweist, wenn man seine Karten mit Gewalt dahin prügelt wo sie laut Marketing hinsollen. Mit Takt, Spannung und Leistung am Sweetspot hat man vielleicht nicht den längeren Balken, aber ein sinnvolles Gesamtpaket - und ein deutlich höheres Übertaktungspotential für die, die sowas wollen.
Adam D.
2019-05-22, 10:14:30
Diese manuelle Möglichkeit ist der Grund, warum ich mir überhaupt eine Polaris-Karte gekauft habe. Ich rege mich auch nicht auf, bin aber der Ansicht, dass sich AMD einen Bärendienst erweist, wenn man seine Karten mit Gewalt dahin prügelt wo sie laut Marketing hinsollen. Mit Takt, Spannung und Leistung am Sweetspot hat man vielleicht nicht den längeren Balken, aber ein sinnvolles Gesamtpaket - und ein deutlich höheres Übertaktungspotential für die, die sowas wollen.
Vielleicht schafft es AMD ja zur Abwechselung mal, eine gänzlich funktionierende Architektur auf den Markt zu bringen, damit man die Karten ohne Gefrickel näher am Sweetspot betreiben kann. Die prügeln die Karten ja nicht aus Spaß in diese Regionen.
Daredevil
2019-05-22, 10:24:59
Ich habe letztens einen großen Bericht von AMD gesehen und da wurde gesagt, man erfreue sich kontinuierlicher, aber kleiner Sprünge bei ihren Produkten. So das man wenig Ressourcen verschwendet, eine Steigerung hat, aber gleichweg wenig Risiko eingeht.
Wenn Navi zu den alten Vega Preisen rauskommen soll, sehe ich auch die Performance genau dort + 10-20% mit weniger Verbrauch.
Vega ist zu aktuellen Preisen ebenfalls ein gutes Schiff auf dem Markt, was sich relativ gut etabliert hat. Wenn man das Produkt schneller bekommt, weniger Kosten verursacht und es für den gleichen Preis anbietet, ist das aus AMDs Sicht eine gute Steigerung.
Dann hätten wir knapp 350-400€ für die kleine Navi 450-500€ für die "große" Navi und 550-600€ für die Radeon VII.
Darunter deckt die Vega 56 noch den 250-300€ Markt ab, für 200€ gibts die RX590 und als P/L King gibt es vorerst noch die RX570/580 von 120-180€.
Sieht für mich nach einem kompletten Lineup aus, welches ( trotz Stromverbrauchs und etwaigen Schwächen ) von der Performance her konkurrieren kann.
Weniger Verbrauch, mehr Marge UND mehr Performance ist halt quadratisch schwierig.
SKYNET
2019-05-22, 10:26:37
Vielleicht schafft es AMD ja zur Abwechselung mal, eine gänzlich funktionierende Architektur auf den Markt zu bringen, damit man die Karten ohne Gefrickel näher am Sweetspot betreiben kann. Die prügeln die Karten ja nicht aus Spaß in diese Regionen.
da navi keine compute karte ist, dürfte die deutlich näher am sweetsport laufen, als polaris oder vega.
y33H@
2019-05-22, 10:27:16
Wo war/ist denn Polaris ein Compute-Chip?
Mangel76
2019-05-22, 10:31:03
Weil es out-of-the-box was anderes ist. UV ist immer so ne Sache, da muss man halt rumfrickeln. Und dann läuft ein bestimmtes Spiel plötzlich nicht mehr.
Nix UV, einfach nur Maxverbrauch verringern reicht ja schon. UV ist für Fortgeschrittene, das sehe ich ein.
Diese manuelle Möglichkeit ist der Grund, warum ich mir überhaupt eine Polaris-Karte gekauft habe. Ich rege mich auch nicht auf, bin aber der Ansicht, dass sich AMD einen Bärendienst erweist, wenn man seine Karten mit Gewalt dahin prügelt wo sie laut Marketing hinsollen. Mit Takt, Spannung und Leistung am Sweetspot hat man vielleicht nicht den längeren Balken, aber ein sinnvolles Gesamtpaket - und ein deutlich höheres Übertaktungspotential für die, die sowas wollen.
AMD steht halt vor der Frage, ob Balkenlänge oder Effizienz maximiert werden soll. Und da Balkenlänge wohl mehr Käufer überzeugt, geht man halt diesen weg. Das ist eine ökonomische Entscheidung, keine technische. Ich gehe auch davon aus, dass Effizienz und Lautstärke in anderen Ländern/Erdteilen wesentlich weniger Beachtung finden als in Deutschland. Global betrachtet ist die AMD-Strategie daher wohl einträglicher. Bei geringerer Leistung (durch geringeren Verbrauch) müsste man wohl auch den Preis reduzieren, was nochmal weniger Marge bedeuten würde.
Was ich allerdings nicht verstehe ist, warum es sowas wie Fiji Nano nicht häufiger gibt, wenn nicht von AMD dann eben von einem Partner (z.B. PC-Vega Nano). Vielleicht nur für Europa, eine Green-Edition sozusagen. Anscheinend ist aber die Nachfrage nach einer effizienten, leisen, dafür aber leicht langsameren Grafikkarte doch nicht so groß.
dargo
2019-05-22, 10:34:53
Ich würde mir wünschen, dass AMD die Karten da platziert wo der Sweetspot liegt, und dann einen angemessenen Preis dafür verlangt. Wenn man dabei jeweils knapp unter der Leistung von nVidias 2060 oder 2070 rauskommt, wäre mir das immer noch lieber, als wenn man die Karten wie in der Vergangenheit mit aller Gewalt und vermutlich 50W extra in eine Leistungsregion prügelt, wo sie vom Design her vielleicht gar nicht hingehören.
Bist du unfähig einen PT-Regler im Treiber zu bedienen?
X.Perry_Mental
2019-05-22, 10:45:02
Bist du unfähig einen PT-Regler im Treiber zu bedienen?
Vielleicht solltest du an deiner Grundhöflichkeit arbeiten und Posts ganz lesen, bevor du antwortest. Ich habe meine Karte eingestellt, aber am Sweetspot verkaufen hätte meiner Meinung nach mehr Sinn ergeben.
dargo
2019-05-22, 10:48:59
Was ich allerdings nicht verstehe ist, warum es sowas wie Fiji Nano nicht häufiger gibt, wenn nicht von AMD dann eben von einem Partner (z.B. PC-Vega Nano). Vielleicht nur für Europa, eine Green-Edition sozusagen. Anscheinend ist aber die Nachfrage nach einer effizienten, leisen, dafür aber leicht langsameren Grafikkarte doch nicht so groß.
Weil es Quatsch ist. Der Treiber bietet entsprechende Werkzeuge, da kann sich jeder der will seine eigene Nano "basteln", zumindest bezüglich Verbrauch. Dafür braucht es keine separate Grafikkarte die zusätzliche Kosten und auch gewisse Risiken verursacht.
Vielleicht solltest du an deiner Grundhöflichkeit arbeiten und Posts ganz lesen, bevor du antwortest. Ich habe meine Karte eingestellt, aber am Sweetspot verkaufen hätte meiner Meinung nach mehr Sinn ergeben.
Das sieht AMD nun mal anders, sonst hätten sie andere PTs als Referenz gelegt. Die Gründe dafür hat Mangel76 schon sehr gut zusammen gefasst.
btw.
Warum AMD die PTs so hoch ansetzt liegt auch zum großen Teil an der Software. Perf/W ist immer das Ergebnis aus Software und Hardware. Investiert man mehr Hirnschmalz in die Softwareentwicklung (Treiber, APIs, Compiler, Entwicklerunterstützung) muss man auch nicht mit der Brechstange beim Powerlimit ran. Dafür braucht man aber auch entsprechendes Budget. Und gute Leute regnet es auch nicht vom Himmel.
robbitop
2019-05-22, 10:49:19
Es geht ihm um den Gesamteindruck für viele Käufer und damit um den Markterfolg. Der wird in den Reviews erzeugt. Und da wird out of the box getestet.
Für uns Nerds ist das mit UV klar. Aber eben nicht für die Masse.
Adam D.
2019-05-22, 10:51:35
Es geht ihm um den Gesamteindruck für viele Käufer und damit um den Markterfolg. Der wird in den Reviews erzeugt. Und da wird out of the box getestet.
Für uns Nerds ist das mit UV klar. Aber eben nicht für die Masse.
Außerdem ist "stell es im Treiber ein" schlicht keine Entschuldigung für die meist miese Perf/W out of the box.
Daredevil
2019-05-22, 10:54:31
Vielleicht solltest du an deiner Grundhöflichkeit arbeiten und Posts ganz lesen, bevor du antwortest. Ich habe meine Karte eingestellt, aber am Sweetspot verkaufen hätte meiner Meinung nach mehr Sinn ergeben.
Am Sweet Spot bedeutet aber 70w Asic und Polaris Leistung. Oder wie Sweet soll dein Sweet Spot sein? ^^
Mangel76
2019-05-22, 11:30:43
Es geht ihm um den Gesamteindruck für viele Käufer und damit um den Markterfolg. Der wird in den Reviews erzeugt. Und da wird out of the box getestet.
Für uns Nerds ist das mit UV klar. Aber eben nicht für die Masse.
Aber ich glaube kaum, dass der Markterfolg größer wäre, würden sie Karten langsamer und sparsamer anbieten. Für die meisten Kunden zählt eben zu allererst die Balkenlänge ootb.
robbitop
2019-05-22, 11:37:15
Ein gesundes Maß aus beiden. Gerade die letuten Prozent werden schnell teuer bezahlt.
Idealerweise baut man die GPU einfach etwas zu breit, um nicht so sehr den Takt prügeln zu müssen, um das Performanceziel zu erreichen.
Eine mArch die viel Perf/mm2 hat ist da sicher sinnvoll.
Wo war/ist denn Polaris ein Compute-Chip?
https://geizhals.at/amd-radeon-pro-duo-polaris-100-506048-a1613593.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Klick auf *Info beim Hersteller*
https://www.amd.com/en/graphics/workstations
So als Laie, würde ich mal sagen: Ja es gab/gibt Polaris-Compute-Grakas :confused:
m.f.g. JVC
Hakim
2019-05-22, 12:03:57
Die Preise sehen schon etwas happig aus. Gabs nicht Gerüchte das man die Konkurrenz teils deutlich unterbieten wird? Jetzt sieht es in etwa gleich aus oder im Fall 2060 Konkurrent sogar ticken mehr.
dildo4u
2019-05-22, 12:11:24
Die Preise sehen schon etwas happig aus. Gabs nicht Gerüchte das man die Konkurrenz teils deutlich unterbieten wird? Jetzt sieht es in etwa gleich aus oder im Fall 2060 Konkurrent sogar ticken mehr.
Die Preisempfehlung hält eh nicht wenn sie sich nich verkaufen,Radeon 7 gabs schon für 600€.Einfach zwei/drei Monate warten.
Es gibt wenig Druck neue GPUs zu kaufen so lange es keine neuen Konsolen gibt bis dahin ist noch massig Zeit.
y33H@
2019-05-22, 12:27:30
[url]https://www.amd.com/en/graphics/workstations
So als Laie, würde ich mal sagen: Ja es gab/gibt Polaris-Compute-Grakas Wenn Compute einfach meint, es gibt Workstation-Karten, ok.
Ich dachte eher an DP-Leistung und Beschleunigung von FP16 oder INT8, beides kann Polaris nicht, weshalb es auch nur eine einzige Radeon Instinct damit gibt.
da navi keine compute karte ist, dürfte die deutlich näher am sweetsport laufen, als polaris oder vega.
Wo war/ist denn Polaris ein Compute-Chip?
Wenn Compute einfach meint, es gibt Workstation-Karten, ok.
Ich dachte eher an DP-Leistung und Beschleunigung von FP16 oder INT8, beides kann Polaris nicht, weshalb es auch nur eine einzige Radeon Instinct damit gibt.
Eine ist nicht Keine :wink:
m.f.g. JVC
y33H@
2019-05-22, 12:38:47
AMD wird sicher auch Navi - was laut SKYNET keine Compute Karte ist (was stimmt weil Navi nun mal die GPU bzw Generation ist, die Karten heißen anders) - eine WX auflegen wenn sie es als sinnvoll erachten.
Nosferatu1
2019-05-22, 12:52:06
sehe es schon jetzt haben sie in der effizienz aufgeholt undwollen nvidia preise verlangen. Ausser wie bei der Radeon 7 die ist ja mit uv sehr effizient aber stock.....mal schauen ob sie die gewohnheiten brechen.
fondness
2019-05-23, 21:15:05
AMD Radeon Navi RX 3080 Specs Leaked – 8 Shader Engines, 2560 SPs & 256-bit Bus
https://wccftech.com/amd-radeon-navi-rx-3080-specs-leaked-8-shader-engines-2560-sps-8gb-vram-256-bit-bus/
Brillus
2019-05-23, 21:48:24
AMD Radeon Navi RX 3080 Specs Leaked – 8 Shader Engines, 2560 SPs & 256-bit Bus
https://wccftech.com/amd-radeon-navi-rx-3080-specs-leaked-8-shader-engines-2560-sps-8gb-vram-256-bit-bus/
Passt ja super zu den Radeon 640 die es schon im Treiber gibt.
Ravenhearth
2019-05-23, 21:58:58
Da wurde gar nichts geleakt, die wärmen nur die Infos der letzten Tage (wie zB den gelöschten Tweet) wieder auf und ziehen sich die "RX 3080" ausm Anus, obwohl sie eigentlich gar nix wissen. Sowas muss man doch echt nicht hier posten.
Even though the company’s next generation nomenclature is still uncofirmed, for the purposes of brevity and simplicity we’re going to label this chip Navi 10 and the highest specced graphics card it powers the RX 3080.
:rolleyes:
Unicous
2019-05-23, 22:05:36
Das siehst du vollkommen falsch, denn:
According to this leak, as well as our own sources, the Navi chip features 40 compute units, each housing 64 stream processors.
If this leak is accurate,[...]
Sie haben natürlich ihre eigenen Quellen:wink::wink:, aber im übernächsten Absatz wird das Ganze wieder relativiert.
Also alles neu, denn WTF-Tech hat einen Artikel dazu gepostet und sogar eigene Quellen, denen sie dann doch nicht so richtig vertrauen, aber das ist ja nebensächlich.
Ich habe den Tweet von Komachi eher als "Was wäre wenn" Szenario verstanden, aber die Sprachbarriere verhindert eine akkurate Wiedergabe des Gesagten. Man fragt sich da immer bei so vielen chinesischen und auch japanischen Leaks, warum es niemanden zu geben scheint, der das wortgetreu übersetzen kann.:frown:
Linmoum
2019-05-27, 04:48:40
https://i.gyazo.com/9db8f36221b3aa8449e623522d2a2e7f.jpg
https://i.gyazo.com/36c6dc9f9f7e32923ff7c25481a13f81.jpg
https://i.gyazo.com/989f632a8ccf533d08cf2411e2e8d9fe.jpg
https://i.gyazo.com/4e36bf655004be2cef770d3afcdefb18.jpg
https://i.gyazo.com/ef46c2b4e93a41f5560153c5075cab39.jpg
https://i.gyazo.com/219ec96e21bd2236638359bdb34576ca.jpg
Und wie bereits im Voraus vermutet eine neue Architektur und nicht mehr GCN.
horn 12
2019-05-27, 04:52:02
RTX 2070 Performance wird angestrebt.
Wird gut aber nichts Weltbewegend werden.
Linmoum
2019-05-27, 04:54:10
Geht nicht nur um Performance, dass man hier eine neue Architektur und nicht mehr GCN bekommt ist ein großer und wichtiger Schritt. Anhand der Größe sieht man aber auch spätestens, dass das eine Midrange-GPU wird, wie vermutet.
Unicous
2019-05-27, 04:56:31
Bechdel-Test bestanden.:wink:
Ravenhearth
2019-05-27, 04:57:12
Geht nicht nur um Performance, dass man hier eine neue Architektur und nicht mehr GCN bekommt ist ein großer und wichtiger Schritt. Anhand der Größe sieht man aber auch spätestens, dass das eine Midrange-GPU wird, wie vermutet.
Nur fraglich, ob sie die auch zum Midrange-Preis verkaufen oder doch für $499.
außerdem lmao @ RX 5700. Sieht für mich bisschen so aus als hätte die ursprünglich doch RX 3080 heißen sollen ;D
Unicous
2019-05-27, 04:59:49
Das glaube ich eher nicht. AMD setzt momentan so sehr auf Symbolik und Zahlen, dass die 50(00) nicht mal eben eine Schnapsidee war nur weil Nvidia eine Ziffernfolge versucht zu trademarken.:wink:
edit:
Sagt mal gibt es wirklich keinen einzigen Senior Manager in Taiwan, die ordentliches Englisch sprechen können. Jedes Jahr dasselbe cringe fest.:redface:
Blediator16
2019-05-27, 05:00:36
RX5870 hust
horn 12
2019-05-27, 05:06:07
Nun, das Gezeigte Game lief bereits auf AMD Bombe
Man hätte ein Games zeigen sollten welches auf AMD sehr Bescheiden lief um die Neuigkeiten der Architektur aufzuzeigen.
Dies hätte den Aha Effekt weitaus mehr verstärkt bekommen.
Aber vielleicht kommt dies ja noch zum 10/11-ten Juni.
crux2005
2019-05-27, 05:33:05
Nun, das Gezeigte Game lief bereits auf AMD Bombe
Man hätte ein Games zeigen sollten welches auf AMD sehr Bescheiden lief um die Neuigkeiten der Architektur aufzuzeigen.
Dies hätte den Aha Effekt weitaus mehr verstärkt bekommen.
Aber vielleicht kommt dies ja noch zum 10/11-ten Juni.
Es musste ein Spiel her wo sie die RTX 2070 schlagen.
Eine neue Architektur ist ein guter Anfang. In 1-2 Jahren wird dann High-end angegriffen. Analog zu Zen->Zen+->Zen2.
Linmoum
2019-05-27, 05:36:26
https://images.anandtech.com/doci/14412/NaviDie_575px.jpg
https://images.anandtech.com/doci/14412/NaviBack_575px.jpg
reaperrr
2019-05-27, 05:56:25
Die Preise sehen schon etwas happig aus. Gabs nicht Gerüchte das man die Konkurrenz teils deutlich unterbieten wird? Jetzt sieht es in etwa gleich aus oder im Fall 2060 Konkurrent sogar ticken mehr.
Den Quark, den AdoredTV in Umlauf gebracht hatte, hat sich offensichtlich jemand komplett aus den Fingern gesogen (egal ob er selbst oder seine Pseudo-Quellen). War auch von Anfang an völlig unrealistisch.
Der endgültige Preis des Navi-Topmodells wird wohl davon abhängen, wie NV die wohl kommende 2070 Ti preislich platziert und ob/wie weit die 2070 dafür nach unten rutscht. AMD will offensichtlich einfach etwas mehr Performance als die 2070 zum gleichen Preis bringen.
AMD beschneidet das langsamere Modell gewöhnlich längst nicht so stark wie NV, das 399$-Modell wird daher ziemlich sicher schneller als die 2060 sein (und v.a. auch volle 256bit und 8GB VRAM bieten, was fast allein schon die 50$ mehr wert ist, da die Karte entsprechend länger "gut genug" bleiben wird).
crux2005
2019-05-27, 06:04:02
Laut neueren Strange Brigade Benchmarks würden die FPS Werte zu WQHD passen: https://www.guru3d.com/articles-pages/msi-geforce-rtx-2070-armor-8g-review,16.html
https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html
Damit wäre die RX 5700 zwischen Vega 64 und einer RTX 2080. Also knapp hinter Vega 7. Weniger VRAM, dafür besserer Preis. Passt schon.
dildo4u
2019-05-27, 06:06:26
Vega 56 für 250 scheint der Killer Deal zu bleiben,mal sehen wie Lange sie die Produzieren.
Grendizer
2019-05-27, 06:34:43
Gehen wir jetzt echt von etwas über 2070 Leistung zu 2070 Preis ohne RT aus ?
dildo4u
2019-05-27, 06:38:50
Ich schätze kein RT dafür 399$ für 500 ist sie DOA.
BoMbY
2019-05-27, 08:33:02
Geht nicht nur um Performance, dass man hier eine neue Architektur und nicht mehr GCN bekommt ist ein großer und wichtiger Schritt. Anhand der Größe sieht man aber auch spätestens, dass das eine Midrange-GPU wird, wie vermutet.
Ja, nur nutzt ist es immer noch das GCN Instruction Set (siehe LLVM-Patches). Also genau wie vermutet: Im Kern geändert, Richtung Software immer noch sehr ähnlich. Mal schauen was von den 25% IPC und 50% Efficeny am Ende tatsächlich ankommt.
Leonidas
2019-05-27, 08:39:05
Größen-Abschätzung zum gezeigten Navi-Chip?
https://www.youtube.com/watch?v=jy0Q75xCwDU&t=4175
Linmoum
2019-05-27, 08:46:54
Zu der 1.25x Performance-per-Clock:
Testing done by AMD performance labs 5/23/19, showing a geomean of 1.25x per/clock across 30 different games @ 4K Ultra, 4xAA settings. Performance may vary based on use of latest drivers. RX-327
https://www.amd.com/en/press-releases/2019-05-26-amd-announces-next-generation-leadership-products-computex-2019-keynote
AMDs GPU-Tests sind eigentlich immer recht zuverlässig, bei der VII waren die Benchmarks ja auch quasi spot on.
Der_Korken
2019-05-27, 09:05:09
Hmm, neue Architektur namens RDNA statt GCN kommt jetzt doch etwas überraschend. Ich hatte mich mental schon drauf eingestellt, dass wir noch einen letzten GCN-Nachbrenner sehen, mit Betonung auf "brennen" was Verbrauch und Temps angeht :D. 1.25x Performance pro Takt (und vermutlich auch pro CU, also insgesamt: Performance pro Flop/s) sind allerdings eine Ansage und lassen auf eine deutlich verbesserte Architektur hoffen. Wenn man mal die 40CUs aufgreift und von 1,8Ghz Takt ausgeht, wären das 9,2TF/s. Die Frage ist jetzt auf welchen Chip sich die 1.25x beziehen. Bezogen auf V64 (11,5TF@1,4Ghz) wäre schlecht, denn dann wäre Navi nur genauso schnell. Bezogen auf die VII (13,4TF@1,75Ghz) wäre es schon besser, weil Navi dann auf gute 15% an diese herankäme, also ca. 10% schneller als V64. Bezogen auf die 590 (mit 36CUs am nächsten dran) sogar noch ein Stückchen besser.
Und die 1,5x Performance/Watt beziehen sich ja wohl hoffentlich auf die VII, was auf einen Verbrauch von 150-170W hoffen lassen würde. Wenn es 1,5x auf die V64 wären, landen wir irgendwo bei 220W (300W V64@stock +10% geteilt durch 1,5), was dem Verbrauch einer 2080 entspräche. Damit wäre AMD dann trotz 7nm mit neuer Architektur ineffizienter als Nvidia ... das wäre hartes Brot.
Ex3cut3r
2019-05-27, 09:10:23
Naja, hätte da auch wieder mehr erwartet, 2070 Leistung zum 2070 Preis? Und kein RT? Wie sieht mit dem Verbrauch aus? Auch nicht viel besser? trotz 7nm? :redface:
Leonidas
2019-05-27, 09:16:27
Und die 1,5x Performance/Watt beziehen sich ja wohl hoffentlich auf die VII, was auf einen Verbrauch von 150-170W hoffen lassen würde. Wenn es 1,5x auf die V64 wären, landen wir irgendwo bei 220W (300W V64@stock +10% geteilt durch 1,5), was dem Verbrauch einer 2080 entspräche. Damit wäre AMD dann trotz 7nm mit neuer Architektur ineffizienter als Nvidia ... das wäre hartes Brot.
Leider hat AMD exakt diese Vergleiche in seinen Fußnoten nur sehr ungenau beschrieben. Alles andere wurde exakt erläutert, diese Details aber ausgelassen.
Leider hat AMD exakt diese Vergleiche in seinen Fußnoten nur sehr ungenau beschrieben. Alles andere wurde exakt erläutert, diese Details aber ausgelassen.
Wohl leider aus gutem Grund. Oder die Taktraten sind noch nicht final entschieden. Man kann davon ausgehen, dass das Topmodell eine Spannungsspritze bekommt (à la Vega 64, 290X) und die das darunter effizienter läuft.
MfG,
Raff
Dino-Fossil
2019-05-27, 09:32:51
Perf/Watt Vergleiche von AMD sind jedenfalls mit einer Prise Salz zu lesen. Ich erinnere nur an die Perf/Watt-Vergleiche vom Polaris-Launch...
Hm, ich hoffe noch immer auf einen kleineren Navi-Chip, da ich kein Interesse an TDP>150W und Preisen >300€ habe. Bis dahin tut's aber wohl die 480 noch.
dildo4u
2019-05-27, 09:33:55
Zu der 1.25x Performance-per-Clock:
Testing done by AMD performance labs 5/23/19, showing a geomean of 1.25x per/clock across 30 different games @ 4K Ultra, 4xAA settings. Performance may vary based on use of latest drivers. RX-327
https://www.amd.com/en/press-releases/2019-05-26-amd-announces-next-generation-leadership-products-computex-2019-keynote
AMDs GPU-Tests sind eigentlich immer recht zuverlässig, bei der VII waren die Benchmarks ja auch quasi spot on.
Bitte sie haben nur Games gewählt wo 7 auf Level mit der 2080 ist.
Das ist eher selten der Fall.
https://www.techspot.com/review/1848-radeon-vii-vs-geforce-rtx-2080
Bucklew
2019-05-27, 09:36:39
Leider hat AMD exakt diese Vergleiche in seinen Fußnoten nur sehr ungenau beschrieben. Alles andere wurde exakt erläutert, diese Details aber ausgelassen.
AMD hat ja einen super Trackrekord, was in der Vergangenheit die Angabe von Effizienzwerte im Vergleich zur Vorgängergeneration anging.
Wie war das noch mit dem Faktor 2,5x bei Polaris, der tatsächlich eher so bei 1,5 lag?
Relic
2019-05-27, 09:37:44
Größen-Abschätzung zum gezeigten Navi-Chip?
https://www.youtube.com/watch?v=jy0Q75xCwDU&t=4175
Package müsste ja das selbe sein wie Polaris, wenn man von einer ähnlichen Größe für das Mainstream ausgeht. Darüber könnte man ja mal ein paar Pixel zählen aber ich finde grade keine Abmessungen für das Polaris Package...
Vega hatte eigentlich ganz gute Perf/W, genau wie Fiji. Man sieht ja an Raven, dass es geht. Leider nicht auf 1,5GHz.
Mal im Ernst: So neu kann die Architektur nicht sein. Sie sprach auffallend oft von komplett neuen CUs und erwähnte den Rest des Chips aber kaum. Auffällig ist ja auch das GCN Instruction set. Ich denke, das Frontend ist immer noch erhalten mit seinen gesamten GCN-Schwächen, inklusive des Verbrauchs. Da ist GCN mit nagelneuen spar-hochtakt-CUs gekoppelt worden.
Neues gibts erst nächste Iteration.
Linmoum
2019-05-27, 09:40:27
Bitte sie haben nur Games gewählt wo 7 auf Level mit der 2080 sind.
Das ist eher selten der Fall.
https://www.techspot.com/review/1848-radeon-vii-vs-geforce-rtx-2080
Geht nicht um die 2080, sondern die Benchmarks wo sie in UHD mit der Vega64 verglichen haben. Der Abstand passte.
Mal als ungefähre Abschätzung der performance, auf techpowerup im Spiel Strange Brigade(https://www.techpowerup.com/reviews/Palit/GeForce_RTX_2070_GameRock_Premium/24.html) liegt die Vega64 ungefähr gleichauf mit der Palit Gamerock RTX2070. In der Zusammenfassung aller Spiele liegt die Vega64 18% hinter der Gamerock. Falls die gezeigte Navi die gleichen Engpässe wie die GCN Vorgänger hat nur 4 Geometry Engines etc. dann liegt man wahrscheinlich im niedrigen einstelligen %Bereich hinter der RTX2070. Sollten diese größtenteils bereinigt sein, ist es wahrscheinlich dass man wenige Prozentpunkte über den RTX2070 Custom Modellen herauskommt.
w0mbat
2019-05-27, 10:45:56
Uii, doch ne neue Architektur. Die Frage ist jetzt nur, wie neu? Lisa Su spricht bei RDNA von einem "clean slate", also alles komplett neu. Wenn es kein Reinfall wird könnte das meine neue GPU werden :)
danarcho
2019-05-27, 11:01:34
Mal im Ernst: So neu kann die Architektur nicht sein. Sie sprach auffallend oft von komplett neuen CUs und erwähnte den Rest des Chips aber kaum. Auffällig ist ja auch das GCN Instruction set. Ich denke, das Frontend ist immer noch erhalten mit seinen gesamten GCN-Schwächen, inklusive des Verbrauchs. Da ist GCN mit nagelneuen spar-hochtakt-CUs gekoppelt worden.
Neues gibts erst nächste Iteration.
Alles neu macht der Mai :)
Natürlich ist das noch GCN, aber AMD fühlte sich wohl genötigt dem Kind einen neuen Namen zu geben, damit Leute, die denken, dass die Schwächen irgendetwas mit dem instruction encoding zu tun hätten, endlich Ruhe geben.
Außerdem hat Lisa gesagt, dass das die Architektur der nächsten Dekade wird, womit ich wohl Recht hatte:
"Ihr könnt gerne die ganze Zeit von NextGen usw reden, aber am Ende des Tages werden Navi und dessen Nachfolger allesamt GCN bleiben, ich schätz mal für locker weitere 7-10 Jahre." (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11724804#post11724804)
"Meine Prognose ist: ..." (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11848912#post11848912)
w0mbat
2019-05-27, 11:10:50
Alles neu macht der Mai :)
Natürlich ist das noch GCN, aber AMD fühlte sich wohl genötigt dem Kind einen neuen Namen zu geben [...]
Also hat Lisa Su gerade in aller Öffentlichkeit die Aktionäre angelogen und Navi ist weiterhin GCN und nur der Name hat sich geändert?
Ich hab hier eine 28C 5GHz CPU die ich dir gerne verkaufen möchte (passt bestimmt sehr gut zu deinem Aluhut) :freak:
BlacKi
2019-05-27, 11:11:23
mir kommt der chip ziemlich groß vor. größer als die r7. wenn man bedenkt, das navi kein hbm speicher hat und vl nur mit 8gb kommt, dann sind die 500$ vs 700$ realistisch.
Größen-Abschätzung zum gezeigten Navi-Chip?
https://www.youtube.com/watch?v=jy0Q75xCwDU&t=4175
ich sehe da keinen navi.
w0mbat
2019-05-27, 11:18:36
Laut Angaben in etwa so groß wie Polaris 30, also +/- 230mm². Navi Vega 20 hat eine die-size von 331mm², also ca. 100mm² mehr.
BlacKi, alles OK bei dir?
Ich schätze wir sehen eine Performance etwas >Vega64 bei <200W.
dildo4u
2019-05-27, 11:20:16
https://live.staticflickr.com/65535/47941835548_3d7a568708_h.jpg (https://flic.kr/p/2g3srrw)NaviDie (https://flic.kr/p/2g3srrw) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.anandtech.com/show/14412/amd-teases-first-navi-gpu-products-rx-5700-series-in-july-25-improved-perf
Dino-Fossil
2019-05-27, 11:22:59
Also hat Lisa Su gerade in aller Öffentlichkeit die Aktionäre angelogen und Navi ist weiterhin GCN und nur der Name hat sich geändert?
Naja, Namen sind Schall und Rauch...
Wenn AMD GCN soweit überarbeitet/abändert, dass sie einen neuen Namen für die resultierende Arch für gerechtfertigt halten, dann bekommt sie halt einen neuen Namen.
Auch Polaris und Vega wurden in einigen Komponenten mit "all new" beworben, waren aber noch sehr nah am Ur-GCN.
Die bisherigen bekannt gewordenen Treiberänderungen sehen jedenfalls nach einigen größeren Änderungen aus (im Vergleich zu vorherigen Iterationen), ohne gleich die komplette GCN-Architektur über Bord zu werfen.
Es muss ja nicht der Architektursprung so groß sein wie seinerzeit Terrascale->GCN.
Siehe auch nVidia, da sind die Änderungen zw. z.B. Maxwell und Pascal auch nicht soo groß.
w0mbat
2019-05-27, 11:24:30
Sie hat ganz klar von einem "clean slate" gesprochen. Ob das so stimmt kann ich natürlich nicht sagen, aber sie war schon sehr deutlich. Zudem meinte sie ja auch, dass diese komplett neue Architektur für die kommenden Jahre genutzt wird.
aufkrawall
2019-05-27, 11:27:13
Sie hat ganz klar von einem "clean slate" gesprochen.
Das kann auch einfach nur heißen, dass man endlich mal die Schwächen der bisherigen GCN-GPUs tiefergehend angegangen ist.
robbitop
2019-05-27, 11:30:04
Naja, hätte da auch wieder mehr erwartet, 2070 Leistung zum 2070 Preis? Und kein RT? Wie sieht mit dem Verbrauch aus? Auch nicht viel besser? trotz 7nm? :redface:
Preis und Verbrauch sind doch gar nicht genannt worden. RT auch nicht. Wobei das Nichtnennen von RT es relativ wahrscheinlich macht, dass keine HW dafür vorhanden ist.
Ich tippe mal darauf, dass man das preislich so positioniert, dass es passt. Also günstiger als TU106.
Also hat Lisa Su gerade in aller Öffentlichkeit die Aktionäre angelogen und Navi ist weiterhin GCN und nur der Name hat sich geändert?
Ich hab hier eine 28C 5GHz CPU die ich dir gerne verkaufen möchte (passt bestimmt sehr gut zu deinem Aluhut) :freak:
Quatsch, wieso? Das ist ja schon eine gewaltige Neuerung mit dem neuen Backend. Und das ändert ja auch das Konzept. Das ist eben nur RDNA 0.5. Der 58x0 (und 59x0?) sind dann auch mit neuem Frontend (und neuer ISA) versehen RDNA 1.0. Das wäre jedenfalls meien Speku.
Es ist eben ein halber Maxwell-Sprung, der volle kommt dann in 2020.
BlacKi
2019-05-27, 11:35:39
Laut Angaben in etwa so groß wie Polaris 30, also +/- 230mm². Navi 20 hat eine die-size von 331mm², also ca. 100mm² mehr.
navi 20? eher vega 20^^ alles klar bei dir?^^
das bild auf der letzten seite war etwas irritierend. deshalb hab ich ja gefragt wie groß er ist, weil ich es nicht abschätzen konnte.
BoMbY
2019-05-27, 11:36:49
Wozu sollte man das ISA neu machen? Macht eigentlich überhaupt keinen Sinn - dann würde man 10 Jahre Compiler-Optimierungen komplett in den Wind schießen.
w0mbat
2019-05-27, 11:38:13
navi 20? eher vega 20^^ alles klar bei dir?^^
das bild auf der letzten seite war etwas irritierend. deshalb hab ich ja gefragt wie groß er ist, weil ich es nicht abschätzen konnte.
Klar, Vega20, da war der Wunsch Vate des Gedanken :tongue:
dildo4u
2019-05-27, 11:39:39
Das Ding soll ja auch in die neuen Konsolen daher war was im Bereich von Polaris wahrscheinlich.
Benutzername
2019-05-27, 11:47:47
Ouhauerha der Name der Navi Karte ist ja bekloppt. RX5700. Da habe Ich zuerst gedacht das ist eine RX570 mit PCIe 4.0 Schnittstelle. Total einleuchtend diese Bennnung. :crazy:
Radeon 5000 gab es auch schon einmal...
dr.denton
2019-05-27, 11:52:52
[...]
Radeon 5000 gab es auch schon einmal...
Vielleicht gerade deshalb? Das war das letzte Mal, dass AMD nV wirklich voraus war für einige Zeit - nicht, dass Navi das liefern wird, aber die Assoziation ist doch sehr positiv.
Nein, Zahlen kann man nicht schützen (frag mal Intel warum der Pentium Pentium hieß und nicht 586) und AMD hatte RX bevor NV RTX hatte.
:freak:
Nvidia meldet 3080, 4080 und 5080 als Trademark an (PCGH) (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-3080-4080-5080-Trademark-AMD-verhindern-1282797/)
Dino-Fossil
2019-05-27, 11:56:12
Namenstechnisch fände ich RX6xx auch besser, aber AMD/RTG ändert da halt gerne mal das Schema...
Hakim
2019-05-27, 12:03:54
Der Name ist doch egal solange die Dinger ordentlich sind. Mich stört es etwas das sowohl NV mit der 2060 (349$) als jetzt auch AMD die Midrange Karten ( angeblich 399$) Teuer anbieten. Polaris und GP106 gabs für unter 300 damals
w0mbat
2019-05-27, 12:04:52
AMD hat aktuell RX 4xx, RX 5xx, Vega 56 & Vega 64, Radeon VII und jetzt kommt noch die RX 5700er Serie dazu.
Also mit den Namen haben sie es wirklich nicht so drauf :ugly:
dildo4u
2019-05-27, 12:05:32
Der Name ist doch egal solange die Dinger ordentlich sind. Mich stört es etwas das sowohl NV mit der 2060 (349$) als jetzt auch AMD die Midrange Karten ( angeblich 399$) anbieten. Polaris und GP106 gabs für unter 300 damals
Sie haben doch gesagt das es mehrere Modelle gibt 299 und 399 scheint wahrscheinlich.
Der_Korken
2019-05-27, 12:08:41
Das Namensschema ist wirklich komisch. Ich frage mich immer warum man sich ein ausgefuchstes Namensschema zurechtlegt, wenn es nach spätestens zwei Generationen wieder verworfen wird. Für GCN hat AMD auch einfach mit 7000 weitergemacht, danach kam R5/R7/R9 270/280/290 mit und ohne X, dann nur noch RX ohne X am Ende, dann Vega (die VII lasse ich als Sondermodell a la Titan, Fury durchgehen) und jetzt folgt 5000 auf 500. Nennt das Teil einfach RX 680 und gut ist :redface:.
Dino-Fossil
2019-05-27, 12:09:04
Der Name ist doch egal solange die Dinger ordentlich sind. Mich stört es etwas das sowohl NV mit der 2060 (349$) als jetzt auch AMD die Midrange Karten ( angeblich 399$) anbieten. Polaris und GP106 gabs für unter 300 damals
Ja, leider sieht es im Moment so aus, als hätte AMD fürs erste nur Karten für das untere High-End, echtes Midrange wäre mMn Preisklasse 200-300€.
Mein Wünsch-dir-was Navi* wäre ca V56-Performance bei <150W TDP und ca 250€... ;)
* Vermutlich könnte das eine V56 im Angebot und mit ordentlich undervolting heute schon, aber ich hätte es gerne ootb ohne die Notwendigkeit weiterer Tweaks.
robbitop
2019-05-27, 12:10:53
Vega hatte eigentlich ganz gute Perf/W, genau wie Fiji. Man sieht ja an Raven, dass es geht. Leider nicht auf 1,5GHz.
Mal im Ernst: So neu kann die Architektur nicht sein. Sie sprach auffallend oft von komplett neuen CUs und erwähnte den Rest des Chips aber kaum. Auffällig ist ja auch das GCN Instruction set. Ich denke, das Frontend ist immer noch erhalten mit seinen gesamten GCN-Schwächen, inklusive des Verbrauchs. Da ist GCN mit nagelneuen spar-hochtakt-CUs gekoppelt worden.
Neues gibts erst nächste Iteration.
ISA ist ja für die Eigenschaften (Perf/W / Perf/mm2) erstmal nebensächlich. Und was ist schon eine neue mArch? Oft ist das mehr Evolution als Revolution. NV nutzte laut pixeljetstream (NV Entwickler) auch noch vieles von Fermi und entwickelt auf dieser Basis immer weiter.
Offenbar hat man seit Tahitii die Implementierung der mArch erstmals fundamental angefasst.
:freak:
Nvidia meldet 3080, 4080 und 5080 als Trademark an (PCGH) (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-3080-4080-5080-Trademark-AMD-verhindern-1282797/)
Ich dachte immer, dass man Zahlen nicht schützen kann? Siehe Pentium statt 5x86. Ist IMO auch lächerlich sowas zu schützen.
------
Siehe den Beitrag von der_korken:
Sehe ich auch so...
Die Bezeichnung Radeon 5700 ist leider auch wieder so inkonsistent. Radeon RX4xx/5xx dann Vega dann Vega 7 und jetzt RX5xxx? Man muss doch mal halbwegs kontinuierlich bleiben, damit man die Kunden nicht so verwirrt. Ständig wechselnde Schemata sind hier IMO nicht hilfreich.
BlacKi
2019-05-27, 12:16:52
Ich dachte immer, dass man Zahlen nicht schützen kann? Siehe Pentium statt 5x86. Ist IMO auch lächerlich sowas zu schützen.
ich kanns absolut verstehen. siehe namensgebung bei amd. als kunde wäre es mir allerdings egal.
Mir egal wie das Ding heißt ^^
Mir ist auch die "stock-Performance" ziemlich gleichgültig ...
Interessant wird was das Teil an Reserven hat!
Und wo sich dann die Custom´s mit fetter Versorgung +OC einfinden :cool:
Vielleicht wird es ja so wie bei der 1080 Ti FE ?
Da haben die guten Custom Karten auch mal 20-25%+ gebracht :wink:
Ich glaube noch immer an einen zweiten Chip im kommenden (Früh)Jahr...
m.f.g. JVC
robbitop
2019-05-27, 12:20:04
Für den Kunden sehr gut, da besser vergleichbar. Und als IHV: Die Produkte und dessen Reviews sind letzten Endes entscheidend.
Ich dachte immer, dass man Zahlen nicht schützen kann? Siehe Pentium statt 5x86. Ist IMO auch lächerlich sowas zu schützen.
Ich kenne mich damit nicht aus, hatte ja damals auch nur nachgefragt.
Es scheint mir aber erkennbarer Trend, dass US-Unternehmen jetzt zur EU rennen, wenn sie in den USA was nicht bekommen. Aber momentan wird es ja auch erstmal noch untersucht
Mr.Scott
2019-05-27, 12:31:21
Naja, hätte da auch wieder mehr erwartet, 2070 Leistung zum 2070 Preis? Und kein RT? Wie sieht mit dem Verbrauch aus? Auch nicht viel besser? trotz 7nm? :redface:
Also für Mainstream Karten ist die Leistung doch top!!
robbitop
2019-05-27, 12:32:46
Ich hoffe, dass so ein Unsinn auch hier verboten wird. Wobei in Richtung Trivialitäten Schützen das US Recht nach meiner Wahrnehmung (korrigiert mich wenn ich falsch liege) ja besser zu passen scheint. In sofern hoffe ich, dass man in der EU wenig Erfolg mit so etwas haben wird.
Andererseits würde man es ja vermutlich nicht versuchen, wenn man sich keine Erfolgschancen ausrechnen würde.
Sollte man meinen, aber gerade was "Geschmacksmuster" angeht hat man hierzulande iirc. ziemlichen Stuss gesehen. Aus den USA kommen nach meiner Auffassung auch zunehmend ueberraschende Toene, was den Verbraucherschutz angeht. Anderes Beispiel sind die Unternehmen (Banken), die TLS aufweichen wollten, dafuer abgeblitzt sind - dann sind sie nach Europa gerannt und die ETSI hat den aufgeweichten Kack als "eTLS" standardisiert. Aber das wird OT
basix
2019-05-27, 12:53:22
Wie sind eigentlich die +50% Energieeffizienz zu verstehen? Gegenüber Vega VII? Das wäre etwas entäuschend. 200W bei 2070 Leistung sind irgendwie schon vorhanden.
Der_Korken
2019-05-27, 13:01:05
Wie sind eigentlich die +50% Energieeffizienz zu verstehen? Gegenüber Vega VII? Das wäre etwas entäuschend. 200W bei 2070 Leistung sind irgendwie schon vorhanden.
Das würde implizieren, dass die VII 300W verbraucht und nur 2070-Performance liefert. Ganz so schlimm ist es dann doch nicht ;)
BlacKi
2019-05-27, 13:07:26
Wie sind eigentlich die +50% Energieeffizienz zu verstehen? Gegenüber Vega VII? Das wäre etwas entäuschend. 200W bei 2070 Leistung sind irgendwie schon vorhanden.
kommt drauf an wo die produkte takten. eine einordnung von navi wäre anhand der fehlenden details nur eine wilde spekulation, die am ende nur mit glück stimmt. ganz nach amd tradition schätze ich den verbrauch so ein wie er bei der 590 liegt. 200w+ damit man die 2070 überholt.
Grendizer
2019-05-27, 14:20:16
Wenn ich das so sehe, habe ich mit meiner 1080 Anfang 2017 für 499 Euro nichts falsch gemacht. Performance wohl nur knapp unterhalb der 2070 bzw. Navi und hat dann 3,5 Jahre im Rechner gehalten, wenn die Mitte 2020 getauscht wird. Ich kann mich nicht dran erinnern, jemals so lange eine Karte im Rechner gehabt zu haben. Blöd nur das man für einen 4K Boliden auch in 2019 viel zu tief in die Tasche greifen muss.
Ich bin gespannt, wie sich das AMD Portfolio weiterentwickelt, aber Navi ist halt auch nur eine WQHD Karte.
Der_Korken
2019-05-27, 14:22:19
Hier mal eine grobe Übersicht über die Performance/Watt von aktuellen Karten, jeweils @stock: https://www.computerbase.de/2019-05/grafikkarten-test-benchmarks-2019/2/#diagramm-performance-pro-watt-1920-1080
Legt man 50% auf Polaris drauf, liegt man quasi auf VII-Niveau. legt man die auf die VII drauf, läge man auf Turing-Niveau. Da ich selbst letzteres immer noch durchwachsen fände (7nm vs 12nm), hoffe ich mal, dass es wenigstens so eintrifft und nicht schlimmer wird. Man muss auch sagen, dass diese Art von Versprechungen zuletzt bei AMD schon gepasst haben: +40% IPC auf Bulldozer (real >50%), 10% für Zen+ auf Zen, 13% IPC für Zen2 (jetzt angeblich sogar +15%). Nur die 2.8x von Polaris waren völlig daneben und afaik 2.0x für Vega. Allerdings hat man nach dem Abgang von Raja mit der VII wieder den Nagel auf den Kopf getroffen: Knapp 30% für die VII auf die V64, 7nm=+25% Takt oder -50% Verbrauch bei gleichem Takt. Ich glaube daher nicht, dass AMD uns mit den 1.5x verarschen wird und sich den ineffizientesten Chip raussucht, den sie noch im Line-Up finden konnten, um davon ausgehend zu messen. Die wissen, dass die sich mit solchen Stunts mehr selbst schaden.
robbitop
2019-05-27, 14:51:10
Man darf, wie gesagt, den Betriebspunkt und auch die Ausnutzung der Reserven in der Spannungs/Frequenzkurve nicht unterschätzen. NV legte die Betriebspunkte spätestens seit Kepler so aus, dass man nicht das letzte MHz rausprügelte, dafür aber mit relativ wenig Spannung klar kam. Auch hat man offenbar in der Fertigung/Packaging es gut hinbekommen, die Frequenz/Spannungskurve recht nah an das zu legen, was die jeweilige individuelle GPU so hergab. Das hat AMD IIRC weniger/gar nicht gemacht.
Entsprechend war bei AMD mit UV mehr zu holen.
Wenn man wirklich normiert vergleichen würde (zwar praxisfern aber dennoch interessant), müsste man sich eine Zielperformance aussuchen, die für beide GPUs relativ einfach machbar ist und entsprechend Takt und Spannung so weit runter drehen wie möglich. Und das mit einer Stichprobengröße, die statistisch sattelfest ist (Streuung des Siliziums).
Und das bei vergleichbarem Fertigungsprozess.
Out of the box sind da einfach zu viele Variablen drin (die unabhängig von der mArch sind). Und genau diese hat NV bis dato deutlich besser im Griff.
Big Lebowsky
2019-05-27, 15:04:32
Genau so ist es, Navi wird wohl ziemlich genau auf dem energetischen Effizienzniveau von Turing landen. Von 12nm auf 7nm reduziert sich der Energieverbrauch bei Nvidia bei gleicher Performance aber um mind. 35-40%. Das dadurch gewonnene thermische Budget kann Nivdia wieder im High-end Bereich in Form von Performance oben drauf satteln.
AMD hechelt also immer noch hinterher, robbt sich aber ran, die Effizienzlücke wird deutlich geringer. :smile:
Dino-Fossil
2019-05-27, 15:10:10
Nur die 2.8x von Polaris waren völlig daneben und afaik 2.0x für Vega. Allerdings hat man nach dem Abgang von Raja mit der VII wieder den Nagel auf den Kopf getroffen:
Wenn der Weggang von Koduri eines gebracht hat, dann wohl ein besseres Marketing. Denke, man ist da vorsichtiger geworden und orientiert sich lieber wieder an realistischeren Vergleichen. Hoffe das bleibt auch so.
Aber letztlich hängt viel davon ab, ob AMD für ein bestimmtes Performance-Ziel, dass auf Biegen und Brechen geschafft werden muss, wieder zu viel Zunder gibt.
Meine RX480 ist z.B. mit ein wenig UV und Feintuning um einiges sparsamer als die Referenzkarten.
Es ist halt wie robbitop sagt - AMD optimiert seine Karten nicht wirklich auf Effizienz.
robbitop
2019-05-27, 15:11:33
Wenn man wieder versucht, über die Taktbrechstange das Performanceziel (sagen wir mal TU106 +/-X) zu erreichen, ist der Fertigungsvorteil verdammt schnell aufgebraucht. Der Fertigungsvorteil wirkt bei Perf/W idR eigentlich in der Hauptsache bei guten Betriebspunkten. Ich hoffe, dass die RX5700 GPU dieses Ziel ohne Brechstange schaffen wird.
w0mbat
2019-05-27, 15:15:37
Und die 1.5x perf/W Steigerung ist wohl eine Kombination aus der neuen Architektur und 7nm, also scheint der Vergleich entweder Polaris oder Vega10 zu sein.
Mal schaun, ich brauch dringend eine neue GPU. Wenn Navi ca. 2070 Leistung für <400€ bei <200 bringt eine Option. Sonst wirds ne 1660 Ti und dann warte ich auf Nvidias 7nm GPUs.
Der_Korken
2019-05-27, 15:17:09
Ich hoffe, dass die RX5700 GPU dieses Ziel ohne Brechstange schaffen wird.
Andersrum: Ich hoffe, dass AMD wieder ordentlich die Brechstange auspackt, aber trotzdem 50% effizienter wird. Dann wird sie mit UV nämlich noch effizienter :D.
Mangel76
2019-05-27, 15:19:51
Andersrum: Ich hoffe, dass AMD wieder ordentlich die Brechstange auspackt, aber trotzdem 50% effizienter wird. Dann wird sie mit UV nämlich noch effizienter :D.
Ich fürchte auch, dass AMD sich ein Verbrauchsziel setzt und dann halt den Takt maximiert. Schließlich verkaufen FPS-Balken mehr Grafikkarten weltweit als Effizienz-Balken.
robbitop
2019-05-27, 15:34:35
IMO war es keine schlechte Idee mit Fijii, eine verbrauchsoptimierte und eine performanceoptimierte Version zu launchen. IMO müsste man nicht mal ein anderes PCB haben.
Und zwar zu zwei leicht versetzten Zeitpunkten um mehr Aufmerksamkeit zu bekommen.
Dann kann jeder 0815 User beide Seiten der Medallie sehen. UV ist halt leider nur in Nerdforen wie unserem bekannt. :)
Der_Korken
2019-05-27, 15:41:56
AMD müsste die Reviewer nur irgendwie dazu kriegen, ein "Fast" und ein "Efficient" Preset zu testen. Neben dem Balken, den wir bereits kennen, würde dann noch ein zweiter stehen mit -5% Performance, aber -20% Verbrauch.
Mangel76
2019-05-27, 15:42:20
Aus der Die-Größe lassen sich wohl keine Rückschlüsse auf die Shader-Zahl schließen? Angeblich ja etwa so groß wie P10. Da erschienen mir die 2560 Shader aus dem letzten Gerücht aber sehr gering angesichts 7nm vs. 14nm. Eventuell gibt es aber doch größere Umbauten, so dass die nicht mehr zu vergleichen sind. Oder vielleicht doch eingebaute RT-Einheiten?
Mangel76
2019-05-27, 15:43:27
AMD müsste die Reviewer nur irgendwie dazu kriegen, ein "Fast" und ein "Efficient" Preset zu testen. Neben dem Balken, den wir bereits kennen, würde dann noch ein zweiter stehen mit -5% Performance, aber -20% Verbrauch.
Hat man ja versucht, mit 2 Bios-Versionen und 3 Einstellungen im Wattman. Und doch testet alles nur ootb.
Der_Korken
2019-05-27, 15:48:50
Hat man ja versucht, mit 2 Bios-Versionen und 3 Einstellungen im Wattman. Und doch testet alles nur ootb.
Also 6 verschiedene Kombinationen, das ist zu kompliziert für die Reviewer. Sie sollten es lieber mit zwei tun (das würde auch vollkommen ausreichen).
@Shaderzahl: Die Gerüchte deuten auf 40 CUs hin und es würde auch zu 1.25x IPC und hohem Takt (=1,8Ghz?) passen. Allerdings wären 230mm² dann tatsächlich etwas viel. Vielleicht sind es auch nur 200mm², dann passt es mit den spekulierten acht Shader Engines und den vermutlich recht großen PCIe 4.0 PHYs wieder.
Ravenhearth
2019-05-27, 15:49:03
Aus der Die-Größe lassen sich wohl keine Rückschlüsse auf die Shader-Zahl schließen? Angeblich ja etwa so groß wie P10. Da erschienen mir die 2560 Shader aus dem letzten Gerücht aber sehr gering angesichts 7nm vs. 14nm. Eventuell gibt es aber doch größere Umbauten, so dass die nicht mehr zu vergleichen sind. Oder vielleicht doch eingebaute RT-Einheiten?
Passt doch gut, wenn man mit Vega20 vergleicht. Die Shader von Vega und sicher auch von Navi sind wesentlich größer als bei Polaris, um höhere Taktraten mitzumachen.
robbitop
2019-05-27, 15:49:15
AMD müsste die Reviewer nur irgendwie dazu kriegen, ein "Fast" und ein "Efficient" Preset zu testen. Neben dem Balken, den wir bereits kennen, würde dann noch ein zweiter stehen mit -5% Performance, aber -20% Verbrauch.
Das hat aber irgendwie nicht funktioniert. Oft ist es besser, nicht zu versuchen, die Welt zu verändern sondern sich anzupassen. Klingt bescheuert, aber die Realität ist leider häufig so...
Wenn das so nicht sinnvoll getestet und publiziert wird, bringt man halt 2x SKUs an unterschiedlichen Terminen.
Passt doch gut, wenn man mit Vega20 vergleicht. Die Shader von Vega und sicher auch von Navi sind wesentlich größer als bei Polaris, um höhere Taktraten mitzumachen.
Taktrate und IPC gibt es halt nicht geschenkt.
Maxwell und Pascal und insbesondere Turing haben jeweils auch einiges mehr an Transistoren pro SM verbraucht als ihre Vorgänger.
edit: Trotzdem stieg Perf/W immer weiter. Natürlich auch z.T. durch bessere Fertigungsprozesse und wechselnde Anforderungen der Applikationen / Spiele, die den Vorteil der jeweils neuen SMs mehr in der Praxis hervorgehoben haben. Erinnert sich noch jemand an R520 vs R580? Zum R580 Launch war diese kaum schneller, wenige Jahre später durch höhere / andere Balance zwischen Texel und Aritmetiklast aber massiv schneller. 3x So viele FPUs pro Pipeline. Ähnlich stelle ich mir das mit den zusätzlichen INTs bei Turing und Volta vor
Unicous
2019-05-27, 15:51:40
Anandtech geht von 275mm² für den in die Linse gehaltenen Navi-Chip aus.
As for the Navi GPU die size, my eagle-eyed optics guru, @andreif7 took a crack at it based on some unpublished photos we have. What he came up with is 275mm2, +/- 5mm2.
But this is based on a couple of layers of relative math; so micro-calipers may come up with something else
https://twitter.com/RyanSmithAT/status/1132963794085244928
Ravenhearth
2019-05-27, 15:53:01
Das wäre in der Tat etwas viel. Aber solche Schätzungen sind oft recht ungenau und die offiziellen Angaben liegen meist darunter.
BlacKi
2019-05-27, 16:08:38
Das wäre in der Tat etwas viel. Aber solche Schätzungen sind oft recht ungenau und die offiziellen Angaben liegen meist darunter.
weil sie nur die belichtung sagen, deshalb liegt ein v10 auch offiziell unter 500mm² gemessen ist er dabei aber 500mm²+.
robbitop
2019-05-27, 16:12:59
AMD sagte ja mal was von 2x density verglichen mit dem vorherigen Prozess. 7 nm HP vs GF 14 nm?
Nvidia hat bei Turing trotz 12 nm soweit ich weiß, keine signifikante Dichtesteigerung gegenüber Pascal in 16 nm vorgenommen. Entsprechend wäre Navi normiert 2x so groß in 12 nm.
Ich weiß - sehr wackelig. Wenn man das untere Ende seiner Schätzung annimmt, wäre das in 12 nm 540 sqmm. TU106 ist 445 sqmm groß. Dazu ist noch Raytracing an Board. Zum TU116 Launch nahm IIRC man an, dass die RT Cores und die Tensor Cores in etwa 20% der Fläche kosten. Die eigentlichen Turing SMs haben auch noch signifikant zur erhöhten Größe beigetragen.
Wenn obige Annahmen stimmen, ist perf/transistor nicht so üppig. Aber noch kennt man die Die Size und die genaue Packdichte nicht und man weiß noch nicht, wie schnell genau der Chip ist und ob es überhaupt der Vollausbau ist.
Perf/W und Perf/$ ist für viele sicherlich wichtiger.
weil sie nur die belichtung sagen, deshalb liegt ein v10 auch offiziell unter 500mm² gemessen ist er dabei aber 500mm²+.
Spielt keine Rolle, solange man immer gleiches mit gleichem vergleicht. :)
MSABK
2019-05-27, 16:14:30
Wie sieht es mit dem Speicher aus? Alles beim alten oder HBM oder GDDR6?
w0mbat
2019-05-27, 16:17:10
GDDR6
Ravenhearth
2019-05-27, 16:21:34
Anandtech:
Update: Since there have been some questions about what the efficiency number is in reference to – if it's against the 7nm Vega 20 GPU or the 14nm Vega 10 GPU – I went back over AMD's keynote presentation and transcribed it. Here is what Dr. Lisa Su specifically said on the subject (emphasis mine).
And then, when you put that together, both the architecture – the design capability – as well as the process technology, we're seeing 1.5x or higher performance per watt capability on the new Navi products
So while I will hold off on calling this the definitive word until we've had a full technology briefing, at first glance it would seem that the 50% efficiency gain is a combination of architecture and the move from GloFo 14nm to TSMC 7nm.
Na das wäre aber... :redface:
Wenn man wirklich normiert vergleichen würde (zwar praxisfern aber dennoch interessant), müsste man sich eine Zielperformance aussuchen, die für beide GPUs relativ einfach machbar ist und entsprechend Takt und Spannung so weit runter drehen wie möglich. Und das mit einer Stichprobengröße, die statistisch sattelfest ist (Streuung des Siliziums).
Und das bei vergleichbarem Fertigungsprozess.
Würde es nicht genügen den V-Sync zu aktivieren ?
(min FPS müssen hald immer über dem V-Sync liegen)
Die Verbrauchsangaben bei XXX.. Fps sind m.m.n. relativ Sinn frei
und zeigen nur den maximal möglichen Verbrauch.
m.f.g. JVC
Für einen "Mainstreamchip" (welcher ja eher Performance bis HighEnd ist) macht das ja auch Sinn mit GDDR6. Mal sehen wie eine evtl. größere Variante bestückt ist.
Langlay
2019-05-27, 16:24:43
Nur die 2.8x von Polaris waren völlig daneben und afaik 2.0x für Vega.
Vega kann schon richtig effizent sein. Allerdings nicht in dem Leistungsbereich in dem sie ausgeliefert werden(wobei die Vega56 spürbar dichter am Sweetspot ist). Aber wenn man so grob RX590 Leistung anpeilt als -20% Performance geht der Effizienz spürbar nach oben und du hast ~40% Verbrauchsersparnis(bei der Vega64 etwas mehr bei der Vega56 etwas weniger).
robbitop
2019-05-27, 16:29:23
Anandtech:
Na das wäre aber... :redface:
Naja 7 nm sollte laut AMD ja 1,25 mehr Perf/W bringen. Bliebe noch ~1,2 für die mArch. Das ist doch schonmal ein ordentlicher Sprung.
basix
2019-05-27, 16:33:59
1.25x Perf/W wenn man die Frequenz um 1.25x steigert ggü. 16nm. Bei Iso-Frequenz ist die Angabe 2.0x
robbitop
2019-05-27, 16:38:08
Das hatte ich anders interpretiert. Gleicher Takt, weniger Verbrauch (1/1,25). Oder 1,25 mehr Takt, gleicher Verbrauch. Das klingt auch relativ realistisch.
Mangel76
2019-05-27, 16:38:21
And then, when you put that together, both the architecture – the design capability – as well as the process technology, we're seeing 1.5x or higher performance per watt capability on the new Navi products (Anandtech)
Ist doch klar: +25% (IPC) und +25% (Leistung in 7nm gegenüber 14nm bei gleichem Verbrauch) ergibt in etwa +50% Leistung pro Watt bei gleichem Verbrauch. Würde man sich entscheiden, lieber -50% Verbrauch bei gleicher Leistung zu wählen, könnte man wohl noch wesentlich effizienter sein (1,25/0,5=2,5x).
Ravenhearth
2019-05-27, 16:38:22
Naja 7 nm sollte laut AMD ja 1,25 mehr Perf/W bringen. Bliebe noch ~1,2 für die mArch. Das ist doch schonmal ein ordentlicher Sprung.
Hatte Maxwell nicht 2/3 mehr Perf/W auf gleichem Prozess? :redface:
Außerdem das was basix sagt.
Zudem hatte die RVII schon 37% mehr Perf/W als Vega, und das nur über Mehrtakt und ohne Undervolting. Auf die 50% hätte man auch mit Vega kommen können.
Das hatte ich anders interpretiert. Gleicher Takt, weniger Verbrauch (1/1,25). Oder 1,25 mehr Takt, gleicher Verbrauch. Das klingt auch relativ realistisch.
AMD spricht immer von 0.5x Verbrauch bei gleichem Takt für 7nm.
Weiss man was bei Perf/W gemeint war? Nach meinem Verständnis ging es da ja rein um die Architektur, nicht die Fertigung. Rein logisch müsste man das mit V20 vergleichen, weil er den gleichen Prozess nutzt.
robbitop
2019-05-27, 16:42:54
980 ti und 780 ti haben beide 250W. 980 ti war zum Launch je nach Spiel 40...50% schneller. Schon ein sehr beachtlicher Sprung.
Weiss man was bei Perf/W gemeint war? Nach meinem Verständnis ging es da ja rein um die Architektur, nicht die Fertigung. Rein logisch müsste man das mit V20 vergleichen, weil er den gleichen Prozess nutzt.
Laut der Aussage von Anandtech wohl inkl Prozessvorteil.
AffenJack
2019-05-27, 16:45:07
Weiss man was bei Perf/W gemeint war? Nach meinem Verständnis ging es da ja rein um die Architektur, nicht die Fertigung. Rein logisch müsste man das mit V20 vergleichen, weil er den gleichen Prozess nutzt.
Es geht um beides zusammen, siehe letzte Seite. Ist auch relativ klar, da man mit den Vorgängerprodukten vergleicht und das ist nicht V20. Also 1,5x Perf/W gegenüber V10 sollte es sein.
Ravenhearth
2019-05-27, 16:45:57
Weiss man was bei Perf/W gemeint war? Nach meinem Verständnis ging es da ja rein um die Architektur, nicht die Fertigung. Rein logisch müsste man das mit V20 vergleichen, weil er den gleichen Prozess nutzt.
Ja, dachte ich ursprünglich auch. Aber Sus Formulierung ist nicht so eindeutig.
980 ti und 780 ti haben beide 250W. 980 ti war zum Launch je nach Spiel 40...50% schneller. Schon ein sehr beachtlicher Sprung.
Stimmt. Bei 770 -> 980 betrug der Unterschied ebenfalls ca. 50% bei ähnlichem Verbrauch. Sowas bräuchte AMD.
Hm mal auf das Endprodukt warten.
AffenJack
2019-05-27, 16:53:54
Ja, dachte ich ursprünglich auch. Aber Sus Formulierung ist nicht so eindeutig.
Was ist daran uneindeutig? Sie sagt es ist die Kombi von beiden.
Mal abseits davon macht nix anderes Sinn. Alleine schon da AMD auch wieder höheren Takt anspricht. Hört auf hier wieder von irgendwelchen Sachen zu träumen und am Ende enttäuscht zu sein, weil man das ja nicht erwarten konnte.
1,25x IPC plus 1,15x Takt plus 2560 vs 2304 Shader bei der 590 passen ziemlich gut in die RTX2070 Region. Mit 1,2x Takt vs 590 dann eben mit nem Stück Abstand zur 2070.
w0mbat
2019-05-27, 16:57:17
Am 10. Juni, also in genau zwei Wochen, gibts ne Präsentation auf der E3. Dort werden wir sicher mehr Infos bekommen.
Ravenhearth
2019-05-27, 17:04:57
Was ist daran uneindeutig? Sie sagt es ist die Kombi von beiden.
Mal abseits davon macht nix anderes Sinn. Alleine schon da AMD auch wieder höheren Takt anspricht. Hört auf hier wieder von irgendwelchen Sachen zu träumen und am Ende enttäuscht zu sein, weil man das ja nicht erwarten konnte.
Maxwell hat vor 5 Jahren gezeigt, dass ein wesentlich größerer Sprung bei Perf/W nicht unmöglich ist. Wie gesagt, 50% mehr Perf/W ggü. 14nm Vega hätte man imo mit etwas Tuning auch mit 7nm Vega erreichen können.
robbitop
2019-05-27, 17:08:13
Ist immer eine Frage, was die Basis war. Maxwell hatte mit Kepler ja eine dankbare Basis. Bei Pascal passierte, wenn man den großen Fertigungssprung ausklammert, wesentlich weniger. Auch Turing wird zum nicht unwesentlichen Teil durch 12 nm vs 16 nm angehoben. Es gab Sprünge - aber Maxwell war schon fertigungsnormiert der größte. Gesetz des sinkenden Grenzertrags.
Der_Korken
2019-05-27, 17:25:36
Ist immer eine Frage, was die Basis war. Maxwell hatte mit Kepler ja eine dankbare Basis. Bei Pascal passierte, wenn man den großen Fertigungssprung ausklammert, wesentlich weniger. Auch Turing wird zum nicht unwesentlichen Teil durch 12 nm vs 16 nm angehoben. Es gab Sprünge - aber Maxwell war schon fertigungsnormiert der größte. Gesetz des sinkenden Grenzertrags.
Wenn Kepler eine dankbare Basis war, ist es GCN in 2019 erst Recht. GCN 1.0 und Kepler lagen effizientechnisch auf einem Level und trotzdem hat Nvidia bereits vor fast 5 Jahren >=50% Effizienz bei gleicher Fertigung rausgeholt. Das ist der Schritt, der AMD bis heute fehlt. In 14/16nm sind beide ungefähr im Gleichschritt weitermarschiert. Bei 7nm wird Nvidia vermutlich wieder ihre ~60-70% Effizienz zulegen gegenüber 16nm, d.h. AMD holt mit 1.5x aus 7nm voraussichtlich nichts auf, sondern fällt weiter zurück.
robbitop
2019-05-27, 17:31:58
Naja GCN ist schon schneller geworden pro Takt. Insbesondere, wenn man sich Polaris anschaut. Wenn man dann nochmal in den neusten Spielen nachmisst, ist die neuste GCN Iteration schon ein gutes Stück schneller als Kepler in modernen Spielen. Nicht ganz Maxwel/Pascal Level, aber schon irgendwo dazwischen.
Bei 7nm wird Nvidia vermutlich wieder ihre ~60-70% Effizienz zulegen gegenüber 16nm, d.h. AMD holt mit 1.5x aus 7nm voraussichtlich nichts auf, sondern fällt weiter zurück.
Wie viel NV aus "7nm" herausholt muss sich erst zeigen...
Man kann die Chips nicht immer größer bauen...
(vielleicht rennt ja auch mal NV in ne "TaktWall")
Man wird m.m.n. auch bei GPU´s irgendwann beim "Chipplet Design" landen.
m.f.g. JVC
robbitop
2019-05-27, 18:03:31
Chiplets sind bei GPUs wesentlich schwieriger, da das Maß an Datenaustausch zwischen den Ausführungseinheiten in Bezug auf die Anforderungen an Bandbreite und Latenz um Größenordnungen höher ist als bei CPUs. Auch kommen damit automatisch Nachteile in Bezug auf Energieeffizienz zum Tragen. Je weiter das Signal laufen muss, desto mehr Energie kostet es. Insbesondere aus einem Kern heraus. Wenn dann noch besonders hohe Datenmengen transferiert werden müssen, kostet das natürlich.
Dazu wird es sicher auch Nachteile in Bezug auf Redundanz geben.
Ggf. kommt sowas ja mal mit Stacking - dann sind die Chips räumlich näher aneinander. Allerdings gibt es dann wieder das Problem, die Wärme sinnvoll abzuführen. Silizium ist kein besonders toller Wärmeleiter. Das müsste dann ggf auch z.T. über die Verdrahtung / Vias passieren.
IMO bleibt das sicherlich noch lange eine Vision eh diese Nachteile nicht überwunden sind (bzw die Vorteile die Nachteile überwiegen).
AffenJack
2019-05-27, 18:19:48
IMO bleibt das sicherlich noch lange eine Vision eh diese Nachteile nicht überwunden sind (bzw die Vorteile die Nachteile überwiegen).
Kommt drauf an von welchem GPU Bereich du sprichst. Für Grafik bin ich bei dir, bei Compute ist das dagegen schon deutlich besser vorstellbar und ich tippe sowohl bei AMDs nächsten Computechip, als auch bei Nvidia auf Chiplets.
Linmoum
2019-05-27, 20:16:20
Laut Igor launcht Navi übrigens am 10.07. Keine Ahnung, ob AMD vor/nach der Keynote selbst ein paar Infos preisgegeben hat oder irgendjemand am plaudern war. :D
Alkibiades
2019-05-27, 20:16:24
Silizium ist kein besonders toller Wärmeleiter.
Nein. Silizium ist ein sehr guter Wärmeleiter, Stichwort Phononenschwingung. Eigentlich ist für die Wärmeabführung der Wärmeleitwert von Si nicht so ausschlaggebend. Die Wafer werden vor dem Packaging sowieso auf weniger als 100µm abgeschliffen
Allerdings gibt es dann wieder das Problem, die Wärme sinnvoll abzuführen. [...] Das müsste dann ggf auch z.T. über die Verdrahtung / Vias passieren.
Wärme über Verdrahtung bzw. der Metallisation abzuführen ist eine sehr schlechte Idee. Die Dice zeigen mit ihrer verdrahteten Seite nach unten, Richtung Leiterplatine. Die Leiterplatinen können aber kaum Wärme abführen
Ggf. kommt sowas ja mal mit Stacking - dann sind die Chips räumlich näher aneinander. Allerdings gibt es dann wieder das Problem, die Wärme sinnvoll abzuführen.
Mal ne kleine Rechnung dazu, um das zu untermauern, warum Stacking bei CPU´s und GPU´s völliger Blödsinn ist (aus dem genannten Grund der Wärmeabführung):
Kochplatte, Durchmesser 20cm (=315,14cm^2), maximale Leistung 1,5kW produziert somit 4,8 watt/cm^2
Eine RTX 2080 hat 215 Watt TDP, eine Fläche von 545 mm^2 (=5,45cm^2) und produziert somit 39,5 watt/cm^2
Hab hier schon extra Turing genommen mit seinen großen Chipflächen und trotzdem gibt die rtx 2080 8 mal mehr Wärme pro Fläche als eine Kochplatte ab.
Bei eine Vega 64 sieht es noch schlimmer aus mit 62 watt/cm^2
robbitop
2019-05-27, 20:30:22
Kommt drauf an von welchem GPU Bereich du sprichst. Für Grafik bin ich bei dir, bei Compute ist das dagegen schon deutlich besser vorstellbar und ich tippe sowohl bei AMDs nächsten Computechip, als auch bei Nvidia auf Chiplets.
Ich meine Grafik, ja. Mal schauen wann und ob jemand so etwas extra für compute releast.
Für Compute skalieren ja auch mehrere GPUs über nvlink und if bereits in jetzigen und geplanten Lösungen.
Unicous
2019-05-27, 21:10:37
Bei Reddit hat jemand das Navi Package genommen und aufs PCB "gesetzt" und kommt mit dem PCIe-Connector in Relation auf 252mm². :uponder:
https://i.imgur.com/16iL7cC.jpg
drchoi21
Since Anandtech had the photo (https://images.anandtech.com/doci/14412/NaviBack_575px.jpg) of the underside of the Navi GPU, I counted the pins and saw it basically matched the BGA pinout on the Navi PCB that was leaked few weeks ago
Using PCIe connector as base, I got the die size of roughly 252mm2
14mm*18mm is what I got from this Navi implementation, which is significantly smaller then Vega 20 (331mm2 )
deekey777
2019-05-27, 21:15:23
80 mm² sind nicht wirklich signifikant kleiner, aber drin dürften reichlich CU stecken.
w0mbat
2019-05-27, 21:17:02
Könnte hinkommen. Die Gerüchte sagen ja ca. die Größe von P30, was um die 230mm² sind. Das physikalische "die" ist immer etwas größer als der belichtete Breich der von den Herstellern angegeben wird, d.h. wenn er 250mm² misst wird das wohl in der Gegend sein.
robbitop
2019-05-27, 21:52:35
80 mm² sind nicht wirklich signifikant kleiner, aber drin dürften reichlich CU stecken.
Auf welche 80 mm2 beziehst du dich?
Linmoum
2019-05-27, 21:55:14
Warhscheinlich auf VII (331mm²) vs. Navi (spekulative 250mm²).
robbitop
2019-05-27, 22:26:47
Transistordichte ist bei Vega 7 gar nicht mal so beeindruckend. Knappe 40MTr/qmm in unm ggü Vega 64 mit rund 25 MTr/qmm. Tu106 liegt bei 24,2 MTr/qmm.
Entsprechend wäre N10 bei 252 qmm bei rund 10 Mrd Transistoren. TU106 hat 10,8 mrd.
Bei 275 qmm wären es knappe 11 Mrd.
Die Annahme war, dass RT/TC bei Turing ca 20% Fläche kosten iirc. Andererseits könnte tu106 bis zu 8% größer sein und 10% langsamer sein. Im Idealfall würden dann beide mArchs ähnlich viel pro Transistor leisten.
Ich tippe aber darauf, dass Turing noch ein Stück effizienter in dieser Metrik bleibt.
Vega 20 hat verdammt viel "Freiraum" beim I/O, wo wenige Transistoren verbaut zu sein scheinen. Bei V20 scheint die Die-Größe nicht so die Rolle gespielt zu haben, weil das ja eh mehrheitlich ein Profiprodukt ist. Das dürfte bei Navi anders sein.
reaperrr
2019-05-28, 00:05:52
Vega 20 hat verdammt viel "Freiraum" beim I/O, wo wenige Transistoren verbaut zu sein scheinen. Bei V20 scheint die Die-Größe nicht so die Rolle gespielt zu haben, weil das ja eh mehrheitlich ein Profiprodukt ist. Das dürfte bei Navi anders sein.
Das denke ich auch. V20 war ja so halb als Hawaii-Nachfolger für HPC bzgl. maximale VRAM-Größe und FP64, halb als 7nm-Testballon gedacht. Im HPC-Bereich sind die Margen gut, so dass etwas mehr Fläche kein Weltuntergang ist, und um den Chip so schnell wie möglich fertig zu kriegen um 7nm testen zu können hat man sich beim Design halt nicht großartig lang mit Flächenoptimierung aufgehalten, sondern einfach die HBM-PHYs seitlich per IF an das ShaderArray drangegklatscht, auf Kosten viel "weißer Fläche" zwischen den Interfaces.
Das wird bei Navi sicher anders aussehen, da kommt die Größe eher von dem großen Haufen Änderungen.
Ich gehe bei Navi zum Beispiel davon aus, dass allein schon ROP-Zahl (64) und L2$-Größe (4MB) auf Vega20-Niveau liegen werden, also eine Verdoppelung gegenüber P10.
Dazu noch die kolportierte Verdoppelung der ShaderEngines auf 8, wodurch das Frontend auch mindestens doppelt so groß wie bei V20 sein sollte (eher noch mehr, durch div. Verbesserungen und neue Features).
Und neben der Verdoppelung der ROPs hoffe ich ja immer noch, dass AMD irgendwann mal auch bei den Z-/Stencil-Einheiten je ROP mit NV gleichzieht, was die ROPs auch noch größer als bei V20 machen würde.
Die GDDR6-SI-PHYs dürften auch nicht weniger Fläche als das GDDR5-SI von P10 brauchen, vermutlich eher mehr.
Auch einige "Uncore"-Sachen wie Video-Encode/-Decode (VCN 2.0?) werden wahrscheinlich mehr als doppelt so viele Transistoren wie in P10 einnehmen, weil der Kram von P10 technologisch halt bestenfalls auf 2015-Niveau ist (mehr als leicht verbesserte Tonga-uArch ist es ja nicht) und schon Vega hier sicher deutlich mehr Fläche für geopfert hat.
Dazu wahrscheinlich deutlich mehr L1-Cache je CU, wahrscheinlich ggü. Vega noch mehr Masse-Transistoren für bessere Taktbarkeit (und bessere Effizienz auf niedrigeren Taktraten), und für 25% mehr IPC je CU reicht mehr L1$ allein nicht mal ansatzweise, da werden noch ne ganze Ecke mehr Transistoren für diverse andere Dinge in die CUs geflossen sein.
=Floi=
2019-05-28, 01:38:31
Am 10. Juni, also in genau zwei Wochen, gibts ne Präsentation auf der E3. Dort werden wir sicher mehr Infos bekommen.
Quatsch!
Die stellen da nur das neue RT feature und einen cloud AA modus vor, sonst niX! :freak:
deekey777
2019-05-28, 09:03:59
Auf welche 80 mm2 beziehst du dich?
Argh, das passiert, wenn man mit der Bildschirmtastatur schreibt.
Ich meine die Differenz zum Vega 20. Denn dieser ist grob 331 mm² groß und im Vergleich zum Vega 10 mit seinen 495 mm² ist er wirklich signifikant kleiner.
252 mm² ist 20 mm² größer als Polaris 10/20 und eigentlich die "normale" Größe eines Mittelklassechips.
Und jetzt kommen die interessanten Schätzungen, was AMD diesmal aus dem Silizium zaubert. Die Anzahl der CUs und die daraus resultierende Rechenleistung war nicht wirklich das Problem.
Weiß jemand auf die Schnelle, wie groß Radeon Pro Vega 20 ist?
robbitop
2019-05-28, 09:27:56
V20 is 331 mm2 groß. Kommt bei 13,2 Mrd Transistoren dann auf knappe 40 MTr/mm2. Eine Verdopplung der Dichte im Vergleich zu 16FF wären 50 MTr/mm2.
Gipsel
2019-05-28, 09:50:26
V20 is 331 mm2 groß. Kommt bei 13,2 Mrd Transistoren dann auf knappe 40 MTr/mm2. Eine Verdopplung der Dichte im Vergleich zu 16FF wären 50 MTr/mm2.Das nicht übermäßig gequetschte Layout wurde ja schon mal erwähnt. Und man sollte auch nicht die umfangreichen externen Interfaces (6 Display-Outputs, PCIe4 x16, zwei IF-Links mit je 2x16 Lanes für 25GT/s [vermutlich Multi-Protokoll-PHYs, also im Prinzip insgesamt 48 Lanes pro Richtung für 25GT/s]) vergessen, die beim Schritt zu 7nm praktisch nicht schrumpfen und auch fast keine Transistoren enthalten (also zahlenmäßig). Die Flächen- bzw. Dichteskalierung gilt im Prinzip immer nur für Logik bzw. SRAM (wobei sich dabei die Skalierung leicht unterscheiden kann). Die Gesamtchips zu vergleichen, ist da wenig sinnvoll, insbesondere, wenn es auf Äpfel vs. Birnen hinausläuft (Vega 10 hat z.B. gar keine IF-Links).
robbitop
2019-05-28, 10:27:06
Also mal abwarten, wie viele Transistoren Navi(10?) so haben wird. Wenn man von 50 MTr/mm2 ausgehen würde (also eine Verdopplung von 12/16nm - sowohl V10 als auch Pascal als auch Turing liegen bei ~25MTr/mm2), läge man bei 12,6 ... 13,75 Mrd Transistoren (252...275 mm2).
Das wäre eine ganze Menge für die Zielleistung. TU106 liegt bei 10,8 Mrd Transistoren inkl RT Cores und Tensor Cores. Letztere sollen in Summe ~20% kosten. Ein hypothetischer TU106 ohne TC/RT läge also bei rund 8,7 Mrd Transistoren.
BlacKi
2019-05-28, 10:30:26
was für monsterkarten. 300w incoming, wenigstens haben sie RGB^^ (https://videocardz.com/newz/asrock-teases-radeon-rx-5700-navi-series)genannt Polychrome sync, rgb switches direkt auf der referenzplatine.
https://cdn.videocardz.com/1/2019/05/ASRock-Navi-2-1000x668.jpg
https://cdn.videocardz.com/1/2019/05/ASRock-Navi-e1559024913151.jpeg
https://cdn.videocardz.com/1/2019/05/ASRock-Navi-3.jpg
https://cdn.videocardz.com/1/2019/05/ASROCK-Navi-1-1000x668.jpg
https://cdn.videocardz.com/1/2019/05/AMD-Navi-PCB.jpg
robbitop
2019-05-28, 10:31:57
Das klingt nach Brechstange (wenn es wahr ist). Mal wieder. :-/
Wobei es ja häufig auch 3rd Party Designs gibt, die mit großem Kühler und besserer Spannungsversorgung so ziemlich jede GPU in die hohen ungünstigen Betriebspunkte bringen. Für ein paar % mehr Leistung.
Interessant wäre auch wie das Referenzdesign ausgelegt ist, sofern es eines gibt, das anders aussieht.
dargo
2019-05-28, 10:34:49
was für monsterkarten. 300w incoming
:rolleyes:
https://geizhals.de/inno3d-geforce-rtx-2070-ichill-x3-jekyll-c20703-08d6x-1790va16-a1959802.html?hloc=at&hloc=de
https://geizhals.de/msi-geforce-rtx-2080-gaming-x-trio-v372-031r-a1870894.html?hloc=at&hloc=de
Immerhin macht sich Asrock auf den ersten Blick Gedanken über brauchbare Kühler. Bei Polaris gehörte Asrock noch zu den lauteren Kandidaten.
Edit:
Auch passend zu deinem Post.
https://geizhals.de/gigabyte-aorus-geforce-gtx-1060-6g-rev-2-0-gv-n1060aorus-6gd-a1668435.html?hloc=at&hloc=de
dildo4u
2019-05-28, 10:37:38
Ich mein Polaris sind 200 Watt Karten nicht verwunderlich macht kein Sinn Navi auf 150 zu kappen.
BlacKi
2019-05-28, 10:38:47
aber das high volume gerücht scheint sich damit zu bestätigen. natürlich wird es noch ein blower design geben für die crossfire nutzer^^ die löcher für die blower sind ja schhließlich schon vorhanden.
Linmoum
2019-05-28, 10:38:49
Sieht nach normalen Customs aus, die es bei jedem Hersteller in der Form gibt.
Der_Korken
2019-05-28, 10:42:24
Mir kommt das etwas komisch vor mit der Chipgröße. Wenn man von V20 ausgehend einfach von 64 auf 40 CUs runterrechnet und ein bisschen was draufschlägt für die 8 Shader Engines, dann sehen V20*0.75 als Die-Größe erstmal OK aus, aber wie schon geschrieben wurde, schleppt V20 jede Menge I/O mit sich rum, der für Navi größtenteils einfach wegfällt. Wenn ich mir die "schematischen Die-Shots" für V10 und V20 anschaue, dann ist dieser I/O-Teil echt groß: https://www.anandtech.com/show/13923/the-amd-radeon-vii-review/2
Das Shader-Array belegt vielleicht 200mm² von den 330. Bei V10 sind es vielleicht 400mm² von 495mm², also ist der Logikteil schon um etwa Faktor 2 geschrumpft. Wäre Navi 250mm² und dessen I/O-Teil vielleicht so 70mm², wären die CUs und SEs 180mm² groß. Das wären über 40% mehr mm²/CU. Da wären 25% IPC eigentlich ein Rückschritt bei Perf/mm². Man könnte jetzt vielleicht sagen, nagut vielleicht verbrauchen die CUs trotz 40% mehr Fläche genauso viel wie vorher, dann wären die 25% IPC wenigstens auch 25% Effizienz. Aber mit der Effizienz scheint es eben auch nicht weit her zu sein, wenn man die 50% auf die 14nm-Chips beziehen würde (und das obwohl die schon weit über Sweetspot laufen!).
][immy
2019-05-28, 10:42:25
Das klingt nach Brechstange (wenn es wahr ist). Mal wieder. :-/
Wobei es ja häufig auch 3rd Party Designs gibt, die mit großem Kühler und besserer Spannungsversorgung so ziemlich jede GPU in die hohen ungünstigen Betriebspunkte bringen. Für ein paar % mehr Leistung.
Interessant wäre auch wie das Referenzdesign ausgelegt ist, sofern es eines gibt, das anders aussieht.
Da mach ich mir keine Hoffnung mehr. Allein schon da man vor einigen Jahren angefangen hat die 300W auszuschöpfen, kann es schon fast nicht mehr bergab gehen, denn dann müsste ja die neue Architektur schon wieder um x-Prozent effektiver sein, als der Vorgänger. Im schlimmsten Fall ist man dadurch nicht schneller aber die Fertigung auch nicht günstiger. Ohne neue Features wäre das dann eine Schuss in den Ofen. Daher ist man ja fast schon gezwungen wieder auf max 300W zu gehen. Effizienzwunder erwarte ich von AMD da nicht, dafür ist deren Budget & Manpower auch einfach zu klein.
robbitop
2019-05-28, 10:43:03
Referenz (NV) liegt bei 175W. Bei MSI hat man das gemacht, was ich weiter oben beschrieben habe. Dort sind es dann 260W.
Am besten ist, wenn man einfach beides launcht.
robbitop
2019-05-28, 10:47:22
[immy;12007246']Da mach ich mir keine Hoffnung mehr. Allein schon da man vor einigen Jahren angefangen hat die 300W auszuschöpfen, kann es schon fast nicht mehr bergab gehen, denn dann müsste ja die neue Architektur schon wieder um x-Prozent effektiver sein, als der Vorgänger. Im schlimmsten Fall ist man dadurch nicht schneller aber die Fertigung auch nicht günstiger. Ohne neue Features wäre das dann eine Schuss in den Ofen. Daher ist man ja fast schon gezwungen wieder auf max 300W zu gehen. Effizienzwunder erwarte ich von AMD da nicht, dafür ist deren Budget & Manpower auch einfach zu klein.
Hm. Naja IMO investiert man lieber ein paar mehr Transistoren in Ausführungseinheiten und wählt dann einen guten Betriebspunkt. Das war am oberen Ende (Fijii/Vega) nicht möglich, da diese nicht so toll skalierten. Ist aber im Mainstream Bereich möglich.
w0mbat
2019-05-28, 10:54:05
[immy;12007246']Da mach ich mir keine Hoffnung mehr. Allein schon da man vor einigen Jahren angefangen hat die 300W auszuschöpfen, kann es schon fast nicht mehr bergab gehen, denn dann müsste ja die neue Architektur schon wieder um x-Prozent effektiver sein, als der Vorgänger. Im schlimmsten Fall ist man dadurch nicht schneller aber die Fertigung auch nicht günstiger. Ohne neue Features wäre das dann eine Schuss in den Ofen. Daher ist man ja fast schon gezwungen wieder auf max 300W zu gehen. Effizienzwunder erwarte ich von AMD da nicht, dafür ist deren Budget & Manpower auch einfach zu klein.
Sorry, aber das ist mir nicht wirklich durchdacht genug.
Schau dir mal Vega 64 an: hier gibt AMD eine offizielle TDP von 295W an und laut dem aktuellen CB GPU-Test liegt sie 7% hinter einer 2070, bzw. bei den min. FPS liegen beide sogar gleich auf. Jetzt kommt Navi mit einer neuen Architektur und in 7nm, AMD gibt 1.25x perf/clk und 1.5x perf/watt an. Und da denkst du allen Ernstes, dass Navi jetzt auch 300W braucht um mit einer 2070 zu konkurrieren? Das schafft doch schon eine Vega64 mit etwas OC & UV!
Ich erwarte von Navi auch keine Wunder, aber AMD wird mMn schon einen spürbaren Schritt nach vorne machen.
robbitop
2019-05-28, 10:55:14
Wobei UV schon einiges bringt. UV vs Non-UV ist schon ein asymetrischer Vergleich.
SKYNET
2019-05-28, 10:56:55
Mir kommt das etwas komisch vor mit der Chipgröße. Wenn man von V20 ausgehend einfach von 64 auf 40 CUs runterrechnet und ein bisschen was draufschlägt für die 8 Shader Engines, dann sehen V20*0.75 als Die-Größe erstmal OK aus, aber wie schon geschrieben wurde, schleppt V20 jede Menge I/O mit sich rum, der für Navi größtenteils einfach wegfällt. Wenn ich mir die "schematischen Die-Shots" für V10 und V20 anschaue, dann ist dieser I/O-Teil echt groß: https://www.anandtech.com/show/13923/the-amd-radeon-vii-review/2
Das Shader-Array belegt vielleicht 200mm² von den 330. Bei V10 sind es vielleicht 400mm² von 495mm², also ist der Logikteil schon um etwa Faktor 2 geschrumpft. Wäre Navi 250mm² und dessen I/O-Teil vielleicht so 70mm², wären die CUs und SEs 180mm² groß. Das wären über 40% mehr mm²/CU. Da wären 25% IPC eigentlich ein Rückschritt bei Perf/mm². Man könnte jetzt vielleicht sagen, nagut vielleicht verbrauchen die CUs trotz 40% mehr Fläche genauso viel wie vorher, dann wären die 25% IPC wenigstens auch 25% Effizienz. Aber mit der Effizienz scheint es eben auch nicht weit her zu sein, wenn man die 50% auf die 14nm-Chips beziehen würde (und das obwohl die schon weit über Sweetspot laufen!).
evtl. macht AMD nur einen DIE und der "abfall" ist das was wir jetzt bekommen, und der ganze chip(müssen sie evtl. erst sammeln, da ausbeute von voll funktionsfähigen DIEs evtl. noch nicht so dolle, so TR like, wo man auch erst die guten DIEs gesammelt hat und die schlechten für AM4 blieben) kommt entsprechend später :) würde natülich gut passen, abfallverwertung spart viel geld, und AMD muss jetzt weiter die kriegskassen füllen.
BlacKi
2019-05-28, 10:57:07
Jetzt kommt Navi mit einer neuen Architektur und in 7nm, AMD gibt 1.25x perf/clk und 1.5x perf/watt an.
die werte kannst du gepflegt in die haare schmieren wenn amd sich dazu entscheidet irgend etwas erzwingen zu wollen. vergleich v56 vs v64. komplett unterschiedliche perf./watt. einfach nur weil man was erreichen wollte mit der v64.
AffenJack
2019-05-28, 10:58:43
Sorry, aber das ist mir nicht wirklich durchdacht genug.
Schau dir mal Vega 64 an: hier gibt AMD eine offizielle TDP von 295W an und laut dem aktuellen CB GPU-Test liegt sie 7% hinter einer 2070, bzw. bei den min. FPS liegen beide sogar gleich auf. Jetzt kommt Navi mit einer neuen Architektur und in 7nm, AMD gibt 1.25x perf/clk und 1.5x perf/watt an. Und da denkst du allen Ernstes, dass Navi jetzt auch 300W braucht um mit einer 2070 zu konkurrieren? Das schafft doch schon eine Vega64 mit etwas OC & UV!
Ich erwarte von Navi auch keine Wunder, aber AMD wird mMn schon einen spürbaren Schritt nach vorne machen.
Gerade die 295W TDP der V10 sind doch ein TOP Anhaltspunkt. Das dürfte höchstwahrscheinlich der Vergleichspunkt sein. Daher 295W mit 1,5x Effizienz und etwas mehr Leistung als V10. Ich wette auf 215-225W TDP bei der Referenz, High-End OC geht dann eben auf 250W-300W und dementsprechend auch diese Designs die man sieht.
w0mbat
2019-05-28, 11:00:33
Nochmal, selbst eine Vega 64 schafft es mit etwas OC & UV eine 2070 bei <300W zu schlagen, bzw. min. gleichzuziehen. Wieso sollte Navi jetzt schlechter als Vega sein?
@AffenJack: Genau. Ich erwarte in etwa V64 Leistung +10% bei <250W TDP, mit etwas Glück sogar nur um die 200W.
Ich tipp mal als V64-Leistung + 10% bei ca. 180W als Referenzdeisgn.
][immy
2019-05-28, 11:03:49
Sorry, aber das ist mir nicht wirklich durchdacht genug.
Schau dir mal Vega 64 an: hier gibt AMD eine offizielle TDP von 295W an und laut dem aktuellen CB GPU-Test liegt sie 7% hinter einer 2070, bzw. bei den min. FPS liegen beide sogar gleich auf. Jetzt kommt Navi mit einer neuen Architektur und in 7nm, AMD gibt 1.25x perf/clk und 1.5x perf/watt an. Und da denkst du allen Ernstes, dass Navi jetzt auch 300W braucht um mit einer 2070 zu konkurrieren? Das schafft doch schon eine Vega64 mit etwas OC & UV!
Ich erwarte von Navi auch keine Wunder, aber AMD wird mMn schon einen spürbaren Schritt nach vorne machen.
überleg doch mal. Wenn man es schafft mit der neuen Architektur die effizienter sein soll bei 200W zu landen, Vega aber bis zu 300W ziehen kann, ist man in etwas wieder da wo man vorher war. Also müsste man jetzt um auch einen Vorteil der neuen Architektur zeigen zu können ebenfalls wieder in die Richtung von 300W gehen um schneller als die Vega zu sein.
UV sei mal dahin gestellt, denn AMD wird die Spannungen nicht ohne Grund so großzügig ansetzen. Wenn UV funktioniert ist das schön für den Nutzer, aber heißt leider nicht das es beim nächsten ebenfalls klappt. Hier könnte sich AMD natürlich entscheiden selektiver vorzugehen (gab ja nur Vega 56 & 64 und keine weiteren Chips die man für etwas geringeres hätte nutzen können bei weniger Verbrauch, da man dann zu nah an Polaris geraten wäre und der Chippreis vermutlich nicht ohne war).
Wenn aber Navi nur Polaris-ersatz sein soll, sieht es natürlich anders aus, dann könnte man Vega erreichen und gleichzeitig weniger Energie benötigen. Es kommt aber drauf an was man nun will.
Nochmal, selbst eine Vega 64 schafft es mit etwas OC & UV eine 2070 bei <300W zu schlagen, bzw. min. gleichzuziehen. Wieso sollte Navi jetzt schlechter als Vega sein?
@AffenJack: Genau. Ich erwarte in etwa V64 Leistung +10% bei <250W TDP, mit etwas Glück sogar nur um die 200W.
Das wäre natürlich realistisch, je nachdem für welches Segment jetzt Navi kommen soll. Aber abgesehen davon, vega64 auf 2070er Leistung … da fehlt noch einiges, es sei denn man geht sehr selektiv bei den Benches vor (bei <300W).
Aber die Chips werden kaum günstiger werden mit 7nm. Höchstens durch den Wegfall von HBM zugunsten von GDDR6 wird sich preislich vielleicht was tun.
Kann natürlich auch ein wunder passieren :)
aufkrawall
2019-05-28, 11:05:26
Nochmal, selbst eine Vega 64 schafft es mit etwas OC & UV eine 2070 bei <300W zu schlagen, bzw. min. gleichzuziehen.
Aber nicht Compute-Stable.
BlacKi
2019-05-28, 11:12:36
Nochmal, selbst eine Vega 64 schafft es mit etwas OC & UV eine 2070 bei <300W zu schlagen, bzw. min. gleichzuziehen. Wieso sollte Navi jetzt schlechter als Vega sein?
du vergleichst mit v64 @OC+UV. das sind schon v64 + 10-15% genau da wo navi liegen wird. navi kann höher takten, aber navi muss auch höher takten als v64, ergo 250-300w. mit OC+UV bei 225-250w fast an R7?
aufkrawall
2019-05-28, 11:13:58
du vergleichst mit v64 @OC+UV. das sind schon v64 + 10-15% genau da wo navi liegen wird. navi kann höher takten, aber navi muss auch höher takten als v64, ergo 250-300w.
Total sinnvolle Rechnung in Anbetracht der R VII. :freak: ;D
Linmoum
2019-05-28, 11:14:48
Interessant, wie hier schon der Verbrauch bei einigen in Stein gemeißelt ist. Immer wieder beeindruckend ohne Fakten.
w0mbat
2019-05-28, 11:15:03
[immy;12007277']überleg doch mal. Wenn man es schafft mit der neuen Architektur die effizienter sein soll bei 200W zu landen, Vega aber bis zu 300W ziehen kann, ist man in etwas wieder da wo man vorher war.
Wenn eine 200W Navi-Karte so schnell wie eine 300W Vega-Karte ist, wieso ist man dann "in etwa wieder da wo man vorher war"? Das macht keinen Sinn.
du vergleichst mit v64 @OC+UV. das sind schon v64 + 10-15% genau da wo navi liegen wird. navi kann höher takten, aber navi muss auch höher takten als v64, ergo 250-300w. mit OC+UV bei 225-250w fast an R7?
Nein, ich vergleiche V64 default mit 295W TDP. Diese liegt ca. 7% hinter einer 2070. Oder willst du sagen, dass Navi bei gleichem Verbrauch (~300W) nur 7% mehr leistet?
BlacKi
2019-05-28, 11:23:20
Nein, ich vergleiche V64 default mit 295W TDP. Diese liegt ca. 7% hinter einer 2070. Oder willst du sagen, dass Navi bei gleichem Verbrauch (~300W) nur 7% mehr leistet?
navi bei 250-300w ca. 10% auf vega. für die referenz karte, die customs gehen definitiv auf 300w und bringen kaum mehr leistung.
... die customs gehen definitiv auf 300w und bringen kaum mehr leistung.
Hab ich was verpasst :confused:
Gibt es etwa neue handfeste Leaks ?
m.f.g. JVC
Linmoum
2019-05-28, 11:34:15
Aha. "Definitiv".
Wer glaubt, dass eine Referenz Navi 250W-300W zieht und nur 10% vor einer Vega64 ist ist reichlich naiv. Aber werdet ihr (bzw. du) ja in zwei Wochen sehen.
Mangel76
2019-05-28, 11:35:13
WCCFTECH (https://wccftech.com/amd-radeon-rx-5000-navi-gpu-7nm-asrock-two-variants-report/):
In addition to the concepts, we managed to grab some more details from our insiders at Computex who told us some info on the upcoming Radeon RX 5000 graphics cards. According to our sources, the AMD Radeon RX 5000 series is said to feature two variants, a 180W TDP model with 225W TBP (Total Board Power) and a 150W TDP model with a 180W TBP (Total Board Power).
Klingt jedenfalls plausibler als 300W. Dann müsste die große Navi ca. 15% auf V64 drauflegen um mit 225W 1,5*effizienter als V64 bei 295W zu sein.
w0mbat
2019-05-28, 11:38:12
Ne, ganz sicher 300W bei <10% vor Vega64! Also schlechter als jede OC + UV Vega64 :ugly:
Mandalore
2019-05-28, 11:39:11
Es ist wirklich lustig mitzulesen, wie die Meisten ohne (Vor)wissen RDNA als GCN abklatschen.
Verwundert es wirklich, dass man 7-8 Jahre nach GCN eine neue Architektur raushaut?
Image kann über Erfolg & Untergang entscheiden, und im Gegensatz zu Nvidia ist AMD und ihre CEO stets ehrlich und auf dem Boden geblieben.
Spätestens zur Architekturvorstellung im August würde ein GCN-Umlabel auffallen und das Internet vergisst leider nie und urteilt, als wäre es die höchste Macht auf der Welt:hammer:
RDNA schleppt 100% noch die GCN ISA mit sich, aber ist das schlimm? Nein, ganz im Gegenteil (vor allem für die Konsolen).
BlacKi
2019-05-28, 11:39:31
tja, mal sehen.
dort steht auch :"The AMD Radeon RX 5700 was 10% faster in the demo shown by AMD so for the same amount of TDP"
Mangel76
2019-05-28, 11:44:26
tja, mal sehen.
dort steht auch :"The AMD Radeon RX 5700 was 10% faster in the demo shown by AMD so for the same amount of TDP"
Das Bezog sich wohl auf die RTX2070, die mit einer TDP von 180 angegeben wurde. Mir war aber so, als würde die TDP-Angabe bei NVIDIA immer das ganze Board betreffen (also =TBP), oder?
w0mbat
2019-05-28, 11:46:58
Ja, Nvidias TDP ist die ganze Graka, AMDs nur der ASIC.
Mangel76
2019-05-28, 11:56:30
Je länger ich darüber nachdenke, desto suspekter wird mir die Angabe 1,5* Leistung pro Watt. Hätte man V64 in 7nm bei gleicher Taktrate aufgelegt, hätte man die gleiche Leistung bei halbem Verbrauch, also 2*Leistung pro Watt.
Da wird AMD wohl die GPU deutlich kleiner auslegen, dafür aber wieder sehr hoch takten.
[Milchmädchenrechnung]
Wenn N10 mit 2560 Shadern die Leistung von V64 mit 4096 Shadern übertreffen will, muss der Takt auch ordentlich steigen. Bei IPC-Steigerung von 25% entsprechen 2560 N-Shader etwa 3200 V-Shader. Da fehlt dann noch ein Taktplus von 28%, um die restlichen fehlenden Shader auszugleichen, also mehr als 2GHz.
[\Milchmädchenrechnung]
Edit: AMD hat ja in der Präsentation selbst auf höher Taktraten hingewiesen: streamlined graphics pipeline - optimized for performance per clock and high clock speed
robbitop
2019-05-28, 11:59:27
180W und 225W (total Board Power) als separate Varianten sind IMO OK. Insbesondere wenn die Kühler potent sind.
Wäre interessant zu wissen, ob die 180W TBP oder die 225W TBP gegen die 2070 gemessen wurde. Und wenn gegen welche. Die Referenz 2070 hat 175W, es gibt aber auch Varianten bis 260W.
Advanced
2019-05-28, 12:02:14
Wenn ich von etwas mehr Leistung als die 2070 ausgehe dürfte ich bei einem Upgrade von meiner R9 290 etwa 80-100% mehr Performance erwarten können, oder?
Langsam wirds nötig :)
BlacKi
2019-05-28, 12:04:08
das passt sowieso nicht exakt zusammen, denn weder die rx5700 hat 175w tdp und obendrauf ist es ein schlechter vergleich der verschiedensten angabgen. ich bin gespannt was da rauskommt.
dildo4u
2019-05-28, 12:04:59
Wenn ich von etwas mehr Leistung als die 2070 ausgehe dürfte ich bei einem Upgrade von meiner R9 290 etwa 80-100% mehr Performance erwarten können, oder?
Langsam wirds nötig :)
Kommt hin die 290 sollte auf Level mit der 570 sein.
https://www.computerbase.de/2019-05/grafikkarten-test-benchmarks-2019/#diagramm-rating-99.8th-percentile-frametimes-in-fps-1920-1080
w0mbat
2019-05-28, 12:08:51
Je länger ich darüber nachdenke, desto suspekter wird mir die Angabe 1,5* Leistung pro Watt. Hätte man V64 in 7nm bei gleicher Taktrate aufgelegt, hätte man die gleiche Leistung bei halbem Verbrauch, also 2*Leistung pro Watt.
Da wird AMD wohl die GPU deutlich kleiner auslegen, dafür aber wieder sehr hoch takten.
7nm bringt aber nicht gleiche Leistung bei halbem Verbrauch wie man schön an der Radeon VII sieht. Ich glaube erst mit 7nm EUV werden wir wirklich das sehen, was wir uns von "7nm" erwartet haben. Aber ja, ich gehe auch von sehr hohen Taktraten aus. AMD typisch mal wieder deutlich über dem sweetspot :tongue:
180W und 225W (total Board Power) als separate Varianten sind IMO OK. Insbesondere wenn die Kühler potent sind.
Wäre interessant zu wissen, ob die 180W TBP oder die 225W TBP gegen die 2070 gemessen wurde. Und wenn gegen welche. Die Referenz 2070 hat 175W, es gibt aber auch Varianten bis 260W.
Ich gehe mal stark davon aus, dass es die größrere 225W Variante war. Wenn es AMD mit Navi wirklich schafft mit 225W auf Augenhöhe, bzw. vielleicht sogar leicht vor der 2070 zu liegen, wäre das eine krasse Leistung. Aktuell ist Nvidia nämlich deutlich besser was perf/W angeht.
Wenn ich von etwas mehr Leistung als die 2070 ausgehe dürfte ich bei einem Upgrade von meiner R9 290 etwa 80-100% mehr Performance erwarten können, oder?
Langsam wirds nötig :)
Geht mir genauso, ich warte auch schon sehnsüchtig. Wenn Turing nich so abartig teuer geworden wär, hätte ich wohl schon eine Nvidia im Rechner. Mal sehen wie aggressiv AMD mit den Preisen wird.
][immy
2019-05-28, 12:11:00
Wenn eine 200W Navi-Karte so schnell wie eine 300W Vega-Karte ist, wieso ist man dann "in etwa wieder da wo man vorher war"? Das macht keinen Sinn.
weil es bei 300W auch nicht mehr arg viel Spielraum gibt. Taktet man hoch zieht das unverhältnismäßig mehr. Das kommt zwar wirklich drauf an wie Navi am ende wird, aber bisher spricht ja noch alles dafür das es mehr oder minder ein überarbeiteter GCN (das muss ja nicht schlecht sein) bleibt.
Also wenn man mit 225W Vega 64 Leistung erreicht, hat man leider nicht all zu viel gewonnen. Mit mehr rechne ich aber auch nicht. Dann gibt es ja auch noch die V7, wo man ja schon sieht, das man da nicht so viel mehr rausholen konnte.
Kann natürlich sein, das man den Chip soweit umbauen konnte, das dieser nun richtig gut skaliert und effizienter ist. Da AMD hier aber nur mit Nebelkerzen um sich wirft würde ich da nicht zu viel erwarten. Bei Ryzen waren sie schon wesentlich konkreter was die Performance angeht.
Btw, auch 180W bei RTX 2070 Performance wäre schon nicht gut, da nvidia noch auf dem alten Prozess rum hängt. Spricht eigentlich auch dafür das man es wieder nicht geschafft hat einen ähnlich effizienten Chip zu entwickeln.
Letztlich wird aber wohl der Preis entscheiden. Vega 64 Performance <300€ wäre schon mal was. Bei 225W Board Power mag ich daran aber zweifeln.
180W und 225W (total Board Power) als separate Varianten sind IMO OK. Insbesondere wenn die Kühler potent sind.
Wäre interessant zu wissen, ob die 180W TBP oder die 225W TBP gegen die 2070 gemessen wurde. Und wenn gegen welche. Die Referenz 2070 hat 175W, es gibt aber auch Varianten bis 260W.
Ziemlich sicher die Referenzkarte. Man wird es sich nicht extra schwer machen um zu zeigen das man eventuell schneller als die Konkurrenz ist.
dildo4u
2019-05-28, 12:22:40
Turing ist auch komplett neu nicht vergessen das Ding ist extrem Effizient sieht man aber nicht da viele Games einfach auf zu alte Tech setzen.
Normal ist die 1660 nur 15% schneller als 1060.
Bei Wolf 2 fliegt sie auch ohne VRS.
https://youtu.be/qVl4Hg_gq08?t=548
Mangel76
2019-05-28, 12:23:54
7nm bringt aber nicht gleiche Leistung bei halbem Verbrauch wie man schön an der Radeon VII sieht.
Die Aussage zu 7nm war immer entweder +25% Leistung bei gleichem Verbrauch oder gleiche Leistung bei halbem Verbrauch. AMD hat sich bei der VII offensichtlich für ersteres entschieden. Dazu kommen noch Profi-Features (DP) und die Links, die den Verbrauch zusätzlich erhöhen. Da sich an der Architektur nichts geändert hat, bestätigt die VII die Angaben zu den Vorteilen des Prozesses ziemlich auf den Punkt.
7nm+ hat dann nochmal mehr Leistung oder weniger Verbrauch gegenüber 7nm.
Mangel76
2019-05-28, 12:29:37
[immy;12007360']
Btw, auch 180W bei RTX 2070 Performance wäre schon nicht gut, da nvidia noch auf dem alten Prozess rum hängt. Spricht eigentlich auch dafür das man es wieder nicht geschafft hat einen ähnlich effizienten Chip zu entwickeln.
Das ist aber der falsche Vergleich, da NVIDIA und AMD eben unterschiedliche Betriebspunkte wählen. Wenn NVIDIA auf 7nm umsteigen würde, stünden sie auch vor der Wahl, +25% Leistung oder halber Verbrauch. Entscheiden sie sich für ersteres, liegt man bei der Leistung wieder vorn bei gleichem Verbrauch. Der Unterschied in der Effizienz wäre aber sehr viel kleiner, als wenn sich NVIDIA für den halben Verbrauch bei gleicher Leistung entscheiden würde. Im ersten Fall wäre NVIDIA 25% in Führung bei der Effizienz, im zweiten Fall 100%. Die Betrachtung der Effizienz an einem willkürlich gewählten Betriebspunkt ist als Architekturvergleich völlig unbrauchbar.
Edit: viel aufschlussreicher wäre, dass Navi mit ähnlicher Shaderzahl auch erstmals wieder eine ähnliche Leistung erreicht. Bisher brauchte AMD ja immer breitere GPUs um vergleichbare Leistung zu erzielen. Da hilft neben einem höheren Takt auch auch eine IPC-Erhöhung. Wenn man mit ähnlicher Shaderzahl und ähnlichem Takt eine ähnliche Leistung erreicht, wäre das ein riesiger Fortschritt für AMD!
robbitop
2019-05-28, 12:44:46
Edit: viel aufschlussreicher wäre, dass Navi mit ähnlicher Shaderzahl auch erstmals wieder eine ähnliche Leistung erreicht. Bisher brauchte AMD ja immer breitere GPUs um vergleichbare Leistung zu erzielen. Da hilft neben einem höheren Takt auch auch eine IPC-Erhöhung. Wenn man mit ähnlicher Shaderzahl und ähnlichem Takt eine ähnliche Leistung erreicht, wäre das ein riesiger Fortschritt für AMD!
Hm. Eigentlich ist die Anzahl der Ausführungseinheiten doch keine relevante Metrik, oder? Ob man nun 2560 Einheiten oder 10.000 Einheiten braucht.
Interessanter ist doch eher wie viel Leistungsaufnahme und wie viel Transistoren man für eine normierte Leistung X braucht.
Wenn Ausführungseinheiten viel billiger (Transistoren) sind, ist es auch ein Weg, einfach mehr davon zu verbauen.
danarcho
2019-05-28, 13:23:27
Es ist wirklich lustig mitzulesen, wie die Meisten ohne (Vor)wissen RDNA als GCN abklatschen.
Für die meisten ist eine GPU halt eine black box: vorne kommt Spiel rein, hinten fallen Bilder raus, ohne Ahnung was dazwischen passiert - ungefähr wie bei einem Fernseher.
Die, die sich beruflich oder aus größerem Interesse mit der Architektur beschäftigen, interessiert doch sowieso nicht was sich die Marketing-Abteilung für tolle Namen ausdenkt. Und für die war auch immer schon klar, dass der GCN-Aufbau eine grundsolide, langfristige Architektur ist. Für alle anderen ist doch super, dass es "was Neues" gibt.
Aber wir drehen uns im Kreis, was ein bisschen am Begriff Architektur liegt. Aber wer den Anandtech-Artikel zur neuen G77 von ARM gelesen hat, der sieht auch, dass ARM in einer Iteration mehr über den Haufen wirft als AMD von Tahiti bis Navi an GCN geändert hat. Ergebnis: Die Valhall ISA hat starke Ähnlichkeiten mit GCN. Hätte doch bloß mal jemand den ARM Ingenieuren gesagt, dass GCN scheiße ist, weil alt.
Mangel76
2019-05-28, 14:16:09
Hm. Eigentlich ist die Anzahl der Ausführungseinheiten doch keine relevante Metrik, oder? Ob man nun 2560 Einheiten oder 10.000 Einheiten braucht.
Interessanter ist doch eher wie viel Leistungsaufnahme und wie viel Transistoren man für eine normierte Leistung X braucht.
Wenn Ausführungseinheiten viel billiger (Transistoren) sind, ist es auch ein Weg, einfach mehr davon zu verbauen.
Ich glaube aber kaum, dass GCN-Ausführungseinheiten so viel kleiner sind als die von Pascal/Turing, so dass man einfach ein paar mehr nimmt und die dann auch noch an der Kotzgrenze betreibt, damit man irgendwie mitkommt. Zumal die ja nicht richtig ausgelastet werden konnten, aber anscheinend ja trotzdem ordentlich Strom brauchten. Wenn ich die Shader besser auslasten kann ohne den Verbrauch noch deutlich weiter zu erhöhen, erhöht das natürlich die Gesamteffizienz.
AffenJack
2019-05-28, 14:54:10
Hm. Eigentlich ist die Anzahl der Ausführungseinheiten doch keine relevante Metrik, oder? Ob man nun 2560 Einheiten oder 10.000 Einheiten braucht.
Interessanter ist doch eher wie viel Leistungsaufnahme und wie viel Transistoren man für eine normierte Leistung X braucht.
Die Leistungsaufnahme könnte aber auch stark von der Anzahl der Einheiten abhängen. Wenn man sich so Präsentationen der letzten Jahre anguckt in Bezug auf Verbrauch, sieht es so aus das verschieben von Daten innerhalb des Chips mittlerweile einen sehr großen Anteil am Chipverbrauch hat. Mehr einzelne Einheiten könnten da von substantiellem Nachteil sein, da man mehr Daten von Einheit zu Einheit verschieben muss. Kann mir vorstellen, dass das energetisch schlechter ist.
dargo
2019-05-28, 15:08:26
180W und 225W (total Board Power) als separate Varianten sind IMO OK. Insbesondere wenn die Kühler potent sind.
Klar ist es ok. Wäre in etwa doppelte Performance von P20 bei vergleichbaren Verbrauch. Dummerweise nicht in ähnlicher Preisregion zum Release von P20.
7nm bringt aber nicht gleiche Leistung bei halbem Verbrauch wie man schön an der Radeon VII sieht.
Was sieht man denn da? Hat denn überhaupt schon jemand das Powerlimit einer Radeon VII so weit runter gedreht damit sie gleiche Leistung wie Vega10 liefert und den Verbrauch dabei gemessen? 150W erwarte ich jetzt zwar auch nicht, so ein Vergleich würde mich dennoch interessieren. Allerdings ist es auch etwas fraglich ob so ein Vergleich überhaupt was taugt. Schließlich ist eine Radeon VII nicht einfach nur ein V10 Shrink.
Mangel76
2019-05-28, 15:17:20
Klar ist es ok. Wäre in etwa doppelte Performance von P20 bei vergleichbaren Verbrauch. Dummerweise nicht in ähnlicher Preisregion zum Release von P20.
Sind 225W nicht eher P30-Verbrauch? Ich dachte, die RX580 hat eher 180W.
dargo
2019-05-28, 15:26:15
Da es keine RX580 Referenz gab vergleiche ich gerne mit der Nitro+, alleine schon wegen dem Kühler.
https://www.tomshw.de/2017/04/18/rx580-benchmark-leistungsaufnahme-sapphire-nitro/6/
w0mbat
2019-05-28, 15:34:48
AMDs Problem ist doch eher, dass sie ihr Karten bisher immer deutlich über den sweet-spot takten (mussten) und dadurch jegliche Effizienz aus dem Fenster fliegt.
Wenn Navi mit RDNA von Grund auf näher dort landet wo AMD die Leistung haben will, muss man den Takt vielleicht auch nicht mehr so extrem über den sweet-spot heben. Das wäre ja schonmal ein Anfang :)
SKYNET
2019-05-28, 15:48:03
AMDs Problem ist doch eher, dass sie ihr Karten bisher immer deutlich über den sweet-spot takten (mussten) und dadurch jegliche Effizienz aus dem Fenster fliegt.
Wenn Navi mit RDNA von Grund auf näher dort landet wo AMD die Leistung haben will, muss man den Takt vielleicht auch nicht mehr so extrem über den sweet-spot heben. Das wäre ja schonmal ein Anfang :)
dann lassen sich die biester vielleicht mega takten, wäre ja was wenn man an ner 2080er kratzen könnte :D
Ravenhearth
2019-05-28, 16:04:45
Wenn es AMD mit Navi wirklich schafft mit 225W auf Augenhöhe, bzw. vielleicht sogar leicht vor der 2070 zu liegen, wäre das eine krasse Leistung. Aktuell ist Nvidia nämlich deutlich besser was perf/W angeht.
Krasse Leistung? Das wäre in meinen Augen ziemlich besch...eiden. Sie haben eine neue Architektur und 7nm und schaffen es damit noch nichtmal auf das Niveau von Turing in 12nm? Ach was, das wäre noch nichtmal Pascal-Niveau. Mit 225W und etwas mehr Leistung als bei der RTX 2070 läge man auch nur ca. 25% vor der Vega 56 bei Perf/W oder 10% vor der RVII. Selbst im Vergleich mit der Vorgängerarchitektur wäre das also noch enttäuschend. 180W für die ganze Karte bei V64+10% Leistung würde ich als Minimum für Perf/W ansehen.
w0mbat
2019-05-28, 16:42:05
Ich glaub du hast anscheinend nicht so richtig aufgepasst was AMD die letzten Jahre so im GPU Markt abgeliefert hat ;)
Ravenhearth
2019-05-28, 16:51:07
Ich glaub du hast anscheinend nicht so richtig aufgepasst was AMD die letzten Jahre so im GPU Markt abgeliefert hat ;)
:confused:
Mein Punkt ist, dass sie ihren Architektur-Rückstand bei Perf/W mit so einem Ergebnis nicht aufholen.
Daredevil
2019-05-28, 16:52:52
Sie müssen auch gar nicht aufholen, wenn sie die bessere Preis/Leistung bieten.
Ravenhearth
2019-05-28, 16:57:05
Nicht jedem ist Effizienz egal ;)
(und dabei gehts mir gar nicht um mich, ich hab ne Vega...)
w0mbat
2019-05-28, 16:59:56
:confused:
Mein Punkt ist, dass sie ihren Architektur-Rückstand bei Perf/W mit so einem Ergebnis nicht aufholen.
:confused:
Wieso denkst du, dass das "dein Punkt" ist? Das sagen hier doch alle.
Ravenhearth
2019-05-28, 17:03:09
:confused:
Wieso denkst du, dass das "dein Punkt" ist? Das sagen hier doch alle.
Dann verstehe ich nicht, was daran eine "krasse Leistung" sein soll, dass sie ihren Architektur-Rückstand behalten:
Wenn es AMD mit Navi wirklich schafft mit 225W auf Augenhöhe, bzw. vielleicht sogar leicht vor der 2070 zu liegen, wäre das eine krasse Leistung. Aktuell ist Nvidia nämlich deutlich besser was perf/W angeht.
Und der letzte Satz impliziert auch, dass AMD irgendwie zu Nvidia aufholen würde, zumindest teilweise. Was sie aber nur tun, weil Nvidia halt noch bei 12nm hängt...
w0mbat
2019-05-28, 17:08:13
Eine 2070 hat ne TDP von 185W (Nvidia). Wenn jetzt AMD mit Navi leicht schneller ist und das mit nur 225W TBP schafft, wäre das richtig gut für AMD. Das wäre ja fast gleich auf.
Du tust so wie wenn AMD bei GPUs auf Augenhöhe mit Nvidia wäre. Zen hat es auch nicht auf Anhieb geschafft mit Intel gleichzuziehen, trotzdem hatte Zen eine "krasse Leistung".
Daredevil
2019-05-28, 17:14:37
Nicht jedem ist Effizienz egal ;)
(und dabei gehts mir gar nicht um mich, ich hab ne Vega...)
Mir ist das auch nicht egal, aber AMD kann nun einmal nicht drei Pferde gleichzeitig reiten.
Die einfachste Lösung ohne großartiges KnowHow ( Ressourcen, Geld, Manpower ) ist aktuell, dass man auf 7nm geht und die Komponente höher taktet, wie die Generation zuvor. Das klappt mit der Radeon VII z.B. erstaunlich gut, dafür das es "nur" eine Vega60 ist.
Die Karte ist deutlich schneller als eine Vega64 und verbraucht knapp 8% weniger bei doppeltem Speicher ( Der saugt viel Saft! ). Für die gleiche Architektur ist das doch fein.
AMD hat einen großen Fertigungsvorteil mit 7nm, damit können sie aber nur bedingt ihren Architekturnachteil ( Performance/Watt ) kaschieren, wenn sie gleichzeitig auch noch schneller werden sollen. Bei den CPUs klappt es sehr gut, weil Intel aktuell schwächelt, bei den GPUs ist Nvidia selbst in 12nm sehr Konkurrenzfähig.
Schneller werden und weniger verbrauchen ist im Quadrat schwierig. AMD ist nicht die Firma, die risikoreiche riesen Sprünge machen möchte, dafür aber lieber kleiner und halt kontinuierlich von Jahr zu Jahr.
Ravenhearth
2019-05-28, 17:19:56
Eine 2070 hat ne TDP von 185W (Nvidia). Wenn jetzt AMD mit Navi leicht schneller ist und das mit nur 225W TBP schafft, wäre das richtig gut für AMD. Das wäre ja fast gleich auf.
Das ist als würde man sagen, es wäre richtig gut für AMD, dass sie mit Polaris fast so effizient wie Maxwell waren. :freak: Mit einem ganzen Fullnode Vorsprung ist das ja auch nicht verwunderlich. Trotzdem bleibt die Architektur an sich ineffizient, was ich einfach enttäuschend finde, weil Nvidia seit mittlerweile 5 Jahren in der Hinsicht einen großen Vorsprung hat.
Du tust so wie wenn AMD bei GPUs auf Augenhöhe mit Nvidia wäre. Zen hat es auch nicht auf Anhieb geschafft mit Intel gleichzuziehen, trotzdem hatte Zen eine "krasse Leistung".
Mein Problem ist ja, dass sie es schon seit langem nicht sind und es sich bei Navi hinsichtlich der Effizienz prozess-agnostisch schon wieder nichts tut, wenn sich die 225W bewahrheiten. Das ist gar nicht mit Zen vergleichbar, der teilweise sogar effizienter als Intel war, obwohl letztere sogar einen etwas besseren Prozess hatten.
Mir ist das auch nicht egal, aber AMD kann nun einmal nicht drei Pferde gleichzeitig reiten.
Die einfachste Lösung ohne großartiges KnowHow ( Ressourcen, Geld, Manpower ) ist aktuell, dass man auf 7nm geht und die Komponente höher taktet, wie die Generation zuvor. Das klappt mit der Radeon VII z.B. erstaunlich gut, dafür das es "nur" eine Vega60 ist.
Die Karte ist deutlich schneller als eine Vega64 und verbraucht knapp 8% weniger bei doppeltem Speicher ( Der saugt viel Saft! ). Für die gleiche Architektur ist das doch fein.
AMD hat einen großen Fertigungsvorteil mit 7nm, damit können sie aber nur bedingt ihren Architekturnachteil ( Performance/Watt ) kaschieren, wenn sie gleichzeitig auch noch schneller werden sollen. Bei den CPUs klappt es sehr gut, weil Intel aktuell schwächelt, bei den GPUs ist Nvidia selbst in 12nm sehr Konkurrenzfähig.
Schneller werden und weniger verbrauchen ist im Quadrat schwierig. AMD ist nicht die Firma, die risikoreiche riesen Sprünge machen möchte, dafür aber lieber kleiner und halt kontinuierlich von Jahr zu Jahr.
Ich habe nur leider den Eindruck, dass bei Perf/W abgesehen von der Fertigung quasi überhaupt nichts passiert, und es liegt nicht daran dass sie es nicht versuchen würden. Bei der Navi-Architektur stand Perf/W ja anscheinend stark im Fokus von dem was wir wissen, und da wäre so ein Ergebnis unterhalb von dem, was man erwarten könnte.
w0mbat
2019-05-28, 17:25:39
Aktuell haben wir Vega und Polaris (Radeon VII klammer ich mal aus, da es ein Nischenprodukt ist).
Vega64 ist langsamer als die 2070 und hat ne TDP von 300W. Polaris 30 ist in einem ganz anderen Leistungsfeld und braucht ca. 220W in Form der RX 590.
Wenn jetzt Navi kommt und mit 180W TDP (bzw. 225W TBP) eine Vega64 hinter sich lässt hat sich deiner Meinung nichts bewegt?
Navi wäre mit ungefähr soviel Verbrauch wie eine RX 590 deutlich schneller, das ist ein großer Schritt für AMD. Wie kannst du das nicht sehen?
BlacKi
2019-05-28, 17:38:22
Die Karte ist deutlich schneller als eine Vega64 und verbraucht knapp 8% weniger bei doppeltem Speicher ( Der saugt viel Saft! ).
nur gddr6 wird härter saugen. das wird zusätzlich effizienz kosten gegenüber den hbm karten. war der gddr5 speicher eigentlich schon inder asic tdp?
Ravenhearth
2019-05-28, 17:41:40
Aktuell haben wir Vega und Polaris (Radeon VII klammer ich mal aus, da es ein Nischenprodukt ist).
Vega64 ist langsamer als die 2070 und hat ne TDP von 300W. Polaris 30 ist in einem ganz anderen Leistungsfeld und braucht ca. 220W in Form der RX 590.
Wenn jetzt Navi kommt und mit 180W TDP (bzw. 225W TBP) eine Vega64 hinter sich lässt hat sich deiner Meinung nichts bewegt?
Navi wäre mit ungefähr soviel Verbrauch wie eine RX 590 deutlich schneller, das ist ein großer Schritt für AMD. Wie kannst du das nicht sehen?
Natürlich sehe ich, dass Navi effizienter ist. Mit 225W und Vega64+10% wäre man ja grob 50% effizienter als die Vega64. Aber da die RVII schon auf +30-40% kommt (und das mit 16 statt 8GB!), läge das größtenteils nur am besseren Prozess und bei der Architektur hätte sich hinsichtlich Perf/w kaum etwas getan. Wie bei Vega, Polaris, usw. vorher auch schon. Darum geht es mir. Wie oft soll ich mich noch wiederholen?
Wenn Navi so schnell ist wie die RTX 2070, aber 225W statt 175W verbraucht, wäre letztere trotz 12nm fast 29% effizienter. Ich hätte mir gewünscht, dass AMD sich auch prozess-agnostisch etwas an Nvidia heranrobben kann und Navi es inkl. 7nm bei der Perf/W wenigstens auf das Level von Turing schafft. Daher mein Wunsch nach 180W für Navi. Denn wenn wir mal den Worst Case annehmen und Nvidia bei der nächsten Generation durch 7nm nur 25% drauf legt, sind sie insgesamt trotzdem wieder 60% effizienter als Navi.
Daredevil
2019-05-28, 17:41:55
@BlacKi
Hmmm da wäre ich mir nicht so sicher.
Der Wechsel von 800 auf 1000Mhz beim Speicher kosten bei der VII schon knapp ~8w laut Strommessgerät, der ist OOTB schon sehr hoch getaktet und im Vergleich zu Vega halt doppelt vertreten.
8GB GDDR6 sind da ( getippt ) deutlich sparsamer.
Vega mit der VII kann man eigentlich nicht vergleichen, weil der Speicher halt den Verbrauch arg anstiegen lässt.
Vergleich dann lieber die Frontiers 16GB mit der VII.
BlacKi
2019-05-28, 17:49:51
es hieß schon bei der fury das man mit hbm sehr viel strom einsparen kann durch hbm, es war doch eigentlich "der vorteil" von hbm. das man zu gddr wieder zurück muss bedeutet beim speicher effizienzverluste.
Ravenhearth
2019-05-28, 17:54:00
es hieß schon bei der fury das man mit hbm sehr viel strom einsparen kann durch hbm, es war doch eigentlich "der vorteil" von hbm. das man zu gddr wieder zurück muss bedeutet beim speicher effizienzverluste.
Wie viel macht das denn wirklich aus? Zum Vergleich, die RX480 hatte 110W ASIC-Power und 150W Board-Power (40W Unterschied). Die Vega 64 kommt auf 220W bzw. 295W, also 75W Unterschied, die Vega 56 auf 165W bzw. 220W, also 55W Unterschied. Laut CB gehört der HBM nicht zur ASIC-Power. Ein Teil des Unterschieds geht iirc auch für die Spannungswandler drauf, aber so sparsam scheint der HBM trotzdem nicht zu sein.
Daredevil
2019-05-28, 17:59:40
es hieß schon bei der fury das man mit hbm sehr viel strom einsparen kann durch hbm, es war doch eigentlich "der vorteil" von hbm. das man zu gddr wieder zurück muss bedeutet beim speicher effizienzverluste.
Ich kenne nicht den kompletten Wortlaut, aber das ist mir auch bekannt ja.
Die Frage ist halt, wie sich dieser Vergleich zusammensetzt, weil wenn man Strom einsparen kann bei "Vergleichsweise gleicher Performance", kann man den Vergleich nun einmal schlecht bringen, weil HBM2 halt viele Performance Vorteile hat.
Vegas HBM ist halt schneller als der GDDR6 der 2080, wenn man den HBM als nun runtertaktet bzw den GDDR6 noch weiter hoch taktet, kann das im direkten Vergleich vielleicht stimmen.
HBM ist sparsamer als alles andere würde ich als Aussage erstmal so nicht stehen lassen. Wenn man dort abliefern möchte, läuft der auch nicht mit Luft und Liebe, dafür ist er halt Arschschnell.
Mhm.
https://www.techsiting.com/gddr6-vs-hbm2/
On the other hand, due to the fact that it’s a stacked memory, the relative area of the PHY controller is much smaller for HBM2, with GDDR6 taking up as much as 1.5-1.75 x the area of HBM2’s controller. This also means that GDDR6 consumes 3.5-4.5 x the power when compared to HBM2. At the end of the day, it is up to the GPU manufacturers to choose which kind of memory fits their GPU’s intended use better and implement it in their graphics cards.
BlacKi
2019-05-28, 18:02:33
Wie viel macht das denn wirklich aus? Zum Vergleich, die RX480 hatte 110W ASIC-Power und 150W Board-Power (40W Unterschied). Die Vega 64 kommt auf 220W bzw. 295W, also 75W Unterschied, die Vega 56 auf 165W bzw. 220W, also 55W Unterschied. Laut CB gehört der HBM nicht zur ASIC-Power. Ein Teil des Unterschieds geht iirc auch für die Spannungswandler drauf, aber so sparsam scheint der HBM trotzdem nicht zu sein.
3% schlechter. etwa +-7w bei 225w
aufkrawall
2019-05-28, 18:08:08
Laut CB gehört der HBM nicht zur ASIC-Power.
Hier steht etwas anderes:
https://extreme.pcgameshardware.de/overclocking-grafikkarten/486587-amd-radeon-rx-vega-64-und-rx-vega-56-overclocking-undervolting-thread.html
Mangel76
2019-05-28, 18:24:34
Hört doch endlich auf, anhand auf völlig unterschiedlichen Betriebspunkten laufenden Grafikkarten Effizienzvergleiche der Architektur anzustellen. Das ist völlig absurd!
Linmoum
2019-05-28, 18:29:34
Ich hab keine Ahnung, ob es hier schon steht. Laut wtftech haben deren Quellen direkt von der Computex erfahren, dass es von Navi zwei SKUs mit 150W/180W TDP (also 180/225W TBP) geben wird. Das würde auch passen.
Mangel76
2019-05-28, 18:30:58
Ich hab keine Ahnung, ob es hier schon steht. Laut wtftech haben deren Quellen direkt von der Computex erfahren, dass es von Navi zwei SKUs mit 150W/180W TDP (also 180/225W TBP) geben wird. Das würde auch passen.
Über diese Werte wird doch seit 3 Seiten diskutiert!
BlacKi
2019-05-28, 18:34:05
sollen wir noch mal von vorne beginnen? ok ich mach den anfang:
300w incomming...:biggrin:
w0mbat
2019-05-28, 18:35:52
NIEMALS!
Mangel76
2019-05-28, 18:38:25
Erst mit N20 wieder :biggrin:
basix
2019-05-28, 19:34:46
Ich zitiere mich hier mal selbst:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12006663&postcount=21
Ich habe eine Fehlüberlegung gemacht. Navi hat ja weniger Shader wie Vega VII. Deswegen wird Navi deutlich höher takten. Sagen wir der grosse Navi hat 2560 Shader (40x CUs) dann hat Vega VII +50% Shadereinheiten. Bei 1.25x Perf/Clock muss Navi also 1.2x so hoch takten um die Performance der Vega VII zu erreichen. Das dreht das Bild natürlich komplett. Dann liegt man nömlich bei 2.1 GHz Takt.
Ich gehe also von >2.0 GHz Takt aus. Dann sehen die 1.5x Performance/Watt schon wieder ein wenig besser aus.
Ravenhearth
2019-05-28, 20:04:41
Ich gehe also von >2.0 GHz Takt aus. Dann sehen die 1.5x Performance/Watt schon wieder ein wenig besser aus.
Navi soll/wird die Performance der RVII aber wahrscheinlich gar nicht erreichen. Für Performance auf RTX 2070-Niveau reichen theoretisch max. 10% mehr Takt als bei der RVII aus, also ~1,9 GHz.
basix
2019-05-28, 20:17:46
Spielt ja im Detail nicht so extrem eine Rolle, aber so um die 2 GHz wird es wohl werden. Es geht vor allem um die Grössenordnung des Taktplus. Das ist +40-50% Takt gegenüber Vega. Nimmt man Polaris 10 als Referenz wären es noch mehr (soweit ich weiss hat AMD nur gegenüber dem "Vorgänger" verglichen, welchen genau weiss man ja nicht?!). Das liegt deutlich über der TSMC Angabe von +30% Taktplus des 7nm Prozesses gegenüber 16nm.
Zergra
2019-05-28, 20:26:48
Vega hat bis zu 1,7Ghz... Sind dann eher 10-15% mehr Takt.
Brillus
2019-05-28, 20:49:02
Dann verstehe ich nicht, was daran eine "krasse Leistung" sein soll, dass sie ihren Architektur-Rückstand behalten:
Und der letzte Satz impliziert auch, dass AMD irgendwie zu Nvidia aufholen würde, zumindest teilweise. Was sie aber nur tun, weil Nvidia halt noch bei 12nm hängt...
Und wie es aussieht noch einige Zeit. Daher egal.
BlacKi
2019-05-28, 20:52:38
der takt muss und kann wegen der reduzierten shader nach oben.vega 4096 vs navi 2560.
Daredevil
2019-05-28, 20:58:15
Also entweder will Asrock bald 180w/225w mit Triple Slot und fettem Kühler kühlen ( lol ) oder sehen wir hier etwa eine Radeon VII Custom Lösung? <3 <3 <3
Quelle: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Asrock-zeigt-auf-der-Computex-womoeglich-die-ersten-Custom-Designs-1282955/galerie/3018738/?fullsize
https://abload.de/img/unbenannteujza.png
basix
2019-05-28, 21:24:07
Vega hat bis zu 1,7Ghz... Sind dann eher 10-15% mehr Takt.
Referenz V64 liegt bei typ. 1.4GHz, siehe CB Test. Dass eine LE so hoch taktet spielt für den Vergleich keine Rolle.
SKYNET
2019-05-28, 21:29:43
Also entweder will Asrock bald 180w/225w mit Triple Slot und fettem Kühler kühlen ( lol ) oder sehen wir hier etwa eine Radeon VII Custom Lösung? <3 <3 <3
Quelle: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Asrock-zeigt-auf-der-Computex-womoeglich-die-ersten-Custom-Designs-1282955/galerie/3018738/?fullsize
https://abload.de/img/unbenannteujza.png
bitte bitte lasse es ne VII sein die als custom kommt... wobei, dann würde ich evtl. auf ne aorus warten, die haben meistens den fettesten kühler.... ok, seit turing ja auch nicht mehr :frown:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.