PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

nairune
2019-07-05, 08:06:36
Mir gefällt das Ding auch gut. Grob doppelte Leistung von Polaris bei ähnlichem Stromverbrauch. Schade dass man die NVidia Preise mit geht, aber warum auch nicht... 329/399 sähe mMn jedenfalls deutlich besser aus für einen 251mm² Chip und 8GB VRAM.

Mal schauen wann die Customs aufschlagen.

Loeschzwerg
2019-07-05, 08:20:46
Rocken wäre ein neuer R300. Das hier entspricht den Erwartungen, was aber völlig OK ist.

w0mbat
2019-07-05, 08:21:15
Wo siehst du da was rocken? :confused:
Das ist das was man so ungefähr erwartet hat und was NV mit den Super Karten auskontern wollte und auch geschafft hat
Wieso ist es ein "Konter" von Nvidia, wenn sie ähnliche Leistung bei mehr Verbrauch bieten :confused:

Linmoum
2019-07-05, 08:32:47
Das hier entspricht den Erwartungen, was aber völlig OK ist.
Echt? Also ausgehend davon, dass das Review überhaupt so der Realität entspricht, hätte ich mit weniger gerechnet.

dildo4u
2019-07-05, 08:46:25
Naja das sieht alles nicht gut aus wenn man bedenkt,das 2060s und 5700 Nachfolger von 250€ Karten sind.Scheint zur Zeit nicht viel zu feiern zu geben, vielleicht wirds 2020 besser.

Loeschzwerg
2019-07-05, 08:50:24
hätte ich mit weniger gerechnet.

Nach den Folien von AMD und dem "Super"-Einwurf doch nicht.

mironicus
2019-07-05, 08:56:39
Es stimmt doch optimistisch, die Karten laufen offensichtlich nicht bis zur Kotzgrenze und da ist sicherlich auch Raum nach oben mit etwas OC. Und natürlich kann AMD dann den großen Navi mit 5700XT*2 Leistung als 300 Watt-Karte bringen. Die Frage ist ob wir jetzt länger warten müssen, weil AMD die Architektur erweitert um noch Raytracing mit zu integrieren. Letztendlich werden wir dann wohl das gleiche bekommen wie in den nächsten Konsolen.

Dural
2019-07-05, 09:12:31
Sagt wer? 225Watt für einen 250mm2 Chip ist nicht gerade wenig...

Du hast dich verschrieben, du meintest wohl "durchwegs schneller" und "weniger Verbrauch". Kann passieren :smile:

Und auch nv hat kein nutzbares RT. Also alles gleich.

Was? Ich sehe keinen Benchmark wo die 5700XT schneller ist als eine 2070 Super. :rolleyes:
In Wolfenstein2, die Referenz für zukünftige Spiele drehen die Turing nach wie vor Kreise über die AMDs.

RT wird man auf der 2070 Super sicherlich in 1080 ohne Probleme laufen lassen können. Da nur das Gesamte System gemessen wurde wäre ich sehr vorsichtig mit dem Verbrauch.


Wir reden hier immer noch von 12 vs 7nm...

Wo siehst du da was rocken? :confused:
Das ist das was man so ungefähr erwartet hat und was NV mit den Super Karten auskontern wollte und auch geschafft hat

Tomaten und so ;)

Brillus
2019-07-05, 09:42:45
eben, wenn man bedenkt das es nur ein blower ist... was die customs wohl machen mit 3 slot kühler und 50% höherem PL :D

Saufen.

w0mbat
2019-07-05, 09:43:14
Naja das sieht alles nicht gut aus wenn man bedenkt,das 2060s und 5700 Nachfolger von 250€ Karten sind.Scheint zur Zeit nicht viel zu feiern zu geben, vielleicht wirds 2020 besser.
Ja, die Preise sind echt hart und etwas deprimierend. Schade, dass AMD da auch mit macht.


@Dural: die 5700 XT wird gegen die 2070 gestellt, kostet ja auch weniger als die 2070S (was eine umgelabelte 2080 ist). Und selbst die 2080 2070S ist nur etwas schneller, verbraucht aber deutlich mehr. Echt schlimm wie schlecht Turing plötzlich da steht, Nvidia ist auch nur dann gut, wenn AMD nicht liefern kann. Wie Intel. Ich glaub hier hat niemand wirklich damit gerechnet, dass Navi10 mit seinen 251mm² so nah an einen TU104 mit 545mm² kommt. Dabei hat Nvidia doch so viel R&D?

dargo
2019-07-05, 09:46:33
"Quick note on Wolfenstein 2: There is an "issue" with FPS Capture tools that read FPS within ID TECH Vulkan games (DOOM 2016, Wolf2).

Due to the way AMD GPU submits frames to the renderer, from both graphics AND compute queues (Async compute) measuring FPS using a tool (RTSS, FRAPS, etc) has to synchronise these queues together and it actually reduces FPS on GCN, by about 5%. We don't know the ins and outs of the RDNA method of this Async, so it might be to do with that.

Actually I am suspect of many major pubs tests on Wolf 2 and DOOM 2016 because of that. Its hard to read FPS in those games without hurting perf on AMD, at least GCN, idk about RDNA."

von Sashleycat auf videocardz

Ach... da war ja was. Völlig vergessen die Probleme mit externen Overlays in Wolf 2 und Erfassung der Frames. :freak: Das könnte natürlich erklären warum Navi dort zu langsam erscheint obwohl er das gar nicht ist. Naja... für mehr Klarheit müssen wir offizielle Tests in Wolf 2 abwarten.

Dural
2019-07-05, 10:00:18
Na dann müssen wir halt noch abwarten.


@Dural: die 5700 XT wird gegen die 2070 gestellt


Nein wird sie nicht, denn die 2070 ist ganz Offiziell EOL. Der Nachfolger ist die 2070 Super.

MSABK
2019-07-05, 10:10:55
Der Stromverbrauch scheint wirklich im Rahmen zu sein, so sollten auch gute mobile GPUs möglich sein.

Was ich mich frage, wie wird die Antwort von AMD sein wenn Nvidia auch auf 7nm geht? Kann AMD da noch mehr rausholen aus 7nm?

Grendizer
2019-07-05, 10:23:36
Der Stromverbrauch scheint wirklich im Rahmen zu sein, so sollten auch gute mobile GPUs möglich sein.

Was ich mich frage, wie wird die Antwort von AMD sein wenn Nvidia auch auf 7nm geht? Kann AMD da noch mehr rausholen aus 7nm?

AMD wird dann ja auch auf 7nm EUV gehen können, ich vermute aber, das nVidia dann doch wieder Vorteile haben wird.

kunibätt
2019-07-05, 10:41:47
Weiß man schon etwas zu den ganz kleinen Chips? Könnten ganz interessant werden in 7nm imo.

dildo4u
2019-07-05, 10:44:56
Der Stromverbrauch scheint wirklich im Rahmen zu sein, so sollten auch gute mobile GPUs möglich sein.

Was ich mich frage, wie wird die Antwort von AMD sein wenn Nvidia auch auf 7nm geht? Kann AMD da noch mehr rausholen aus 7nm?
Dort steht leider nicht was beim Verbrauch getestet wurde,das schwankt extrem je nach Game.Deswegen nutzt CB 3 Games für so ein Test.

Radeon 7 hier 250 Watt

https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/3/#diagramm-leistungsaufnahme-der-grafikkarte-shadow-of-the-tomb-raider

Hier 300

https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/3/#diagramm-leistungsaufnahme-der-grafikkarte-battlefield-v


Der Navi Verbrauchs Test könnte Tomb Raider sein 1080 Ti = Radeon 7.


Preisanpassung kommt:

RX 5700 XT 50th Anniversary: $449
RX 5700 XT: $399
RX 5700: $349

https://videocardz.com/newz/amd-to-lower-the-price-of-radeon-rx-5700-series-ahead-of-launch

dargo
2019-07-05, 11:12:44
Dort steht leider nicht was beim Verbrauch getestet wurde,das schwankt extrem je nach Game.Deswegen nutzt CB 3 Games für so ein Test.

Radeon 7 hier 250 Watt

https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/3/#diagramm-leistungsaufnahme-der-grafikkarte-shadow-of-the-tomb-raider

Hier 300

https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/3/#diagramm-leistungsaufnahme-der-grafikkarte-battlefield-v


Der Navi Verbrauchs Test könnte Tomb Raider sein 1080 Ti = Radeon 7.
Na das ist ja mal was ganz Neues, dass der Stromverbrauch beim daddeln keine feste Größe ist. :freak:


Preisanpassung kommt:

RX 5700 XT 50th Anniversary: $449
RX 5700 XT: $399
RX 5700: $349

https://videocardz.com/newz/amd-to-lower-the-price-of-radeon-rx-5700-series-ahead-of-launch
Haha... endlich wieder etwas Bewegung im GPU-Markt. Ich liebe Konkurrenz. :up:

Edit:
Interessante Randnotiz... aus den reinen Daten her scheint es, dass Navi weit von der Kotzgrenze arbeitet. 5700XT 50th hat bei den Taktraten 4,x% mehr als 5700XT und der Verbrauch steigt nur um 4,x% an. Natürlich müssen wir offizielle Verbrauchsmessungen abwarten wie nah bzw. weit diese von den TDP-Angaben abweichen.

KodeX
2019-07-05, 11:18:11
Naja, ich finde den geleakten Test jetzt nicht "überragend". Dieser zeigt vielmehr das, was zu erwarten war. Die RX 5700 XT ist etwas schneller als die RTX 2070, bei etwas geringerem Preis und ähnlichem Verbrauch. Selbiges trifft auf die RX 5700 im Vergleich mit der RTX 2060 zu. Für mich macht das die Navi-Karten zwar schon zu besseren Wahl, aber ich verstehe nicht, wieso sie von einigen anhand dieser zu erwartenden Testergebnisse abgefeiert werden.

Piefkee
2019-07-05, 11:19:26
https://videocardz.com/newz/amd-to-lower-the-price-of-radeon-rx-5700-series-ahead-of-launch

Update, new pricing (two confirmations):

RX 5700 XT 50th Anniversary: $449
RX 5700 XT: $399
RX 5700: $349

Linmoum
2019-07-05, 11:20:14
https://mobile.twitter.com/sherkelman/status/1146827961162711045

:D

Piefkee
2019-07-05, 11:22:26
https://twitter.com/sherkelman/status/1146827961162711045

Scott Herkelmann(AMD RTG)

Jebaited

Macht auf jedenfall Sinn, AMD hat doch NV geködert mit den E3 Preisen...

Rancor
2019-07-05, 11:26:54
Ich finde die Leistung auch richtig gut. Gut gemacht AMD. Jetzt sind sie wieder in beiden Felder konkurrenzfähig.

Grendizer
2019-07-05, 11:28:34
Für den angeblich neuen Preis sieht das fur die bisher geleakte Perfomance gut aus.

Grendizer
2019-07-05, 11:30:22
Ich finde die Leistung auch richtig gut. Gut gemacht AMD. Jetzt sind sie wieder in beiden Felder konkurrenzfähig.

Bei alle Euphorie ... es kommt eine weitere WQHD Karte dazu. Ist nett aber im Endeffekt warten doch viel mehr auf eine Preisbewegung im 4K Bereich.

Linmoum
2019-07-05, 11:30:41
Da haben sie Nvidia ja richtig auflaufen lassen. Und der Tweet von Herkelmann von gestern ergibt jetzt auch Sinn. Das alte Schlitzohr. ;D

KodeX
2019-07-05, 11:34:07
Okay, sollten sich die neuen Preise tatsächlich bewahrheiten, macht mich das tatsächlich etwas euphorischer. 399 US-Dollar für die zweitschnellste Grafikkarte im eigenen Aufgebot ist mehr als fair.

Zergra
2019-07-05, 11:36:09
Die Karten werden uns lange Erhalten bleiben und sind auch eher als Polaris Nachfolger zu sehen. In ca. einem Jahr wird es die Karten für 2-300€ geben.

Insgesamt sind die Karten viel wichtiger als eine neue High-End GPU, AMD wird damit teure Vega los und ist gleichzeitig nicht mehr auf die VII angewiesen. Navi bringt also VII Leistung (-5%) mit 8GB mit weniger Verbrauch und 50% günstiger.

Dino-Fossil
2019-07-05, 11:45:22
Wenn die 5700 für 350$ @launch kommt, könnten sie im Laufe der nächsten Monate auf ca 300€ sinken. Das wäre das Maximum, das ich aktuell bereit bin für eine GPU auszugeben.
Dann könnte es vielleicht noch was mit Navi(10) werden. Oder ich muss eben auf den nächstkleineren warten, wenn ich bei AMD bleiben will. Dann wiederum ist es aber fraglich, ob die Mehrleistung ggü. meiner 480 so groß ausfällt...

Zuli
2019-07-05, 11:45:25
Glaub der Kühler ist nicht der springende Punkt, sondern eher die DIE size.

Sehr gut der tweet :)

Der_Korken
2019-07-05, 11:49:16
Mich hatten die hohen Preise ohnehin überrascht. Die 2070 ist schon 9 Monaten auf dem Markt und schon einige Käufer gefunden. Wenn man jetzt gleiche Leistung für 10% weniger bringt (und ohne RT), haut man keinen vom Hocker. Die Ernüchterung durch die Preise war schon recht groß bei der Navi-Präsentation.

Ich werde vermutlich zuschlagen, aber erst bei den Customs. Nach knapp 3 Jahren fliegt meine Übergangskarte dann endlich mal raus ;D

L233
2019-07-05, 11:54:44
Wäre NV gieriger geblieben und hätte die SUPER Karten entsprechend der Leistung preislich leicht höher angesetzt, dann hätten AMD die ursprünglich angekündigten Preise ohne mit der Wimper zu zucken durchgezogen.

Dural
2019-07-05, 11:58:19
Vor allem war das von AMD so geplant, AMD reagiert nur auf das Preis/Leistungs Verhältnis der neuen Super Karten.

Mal schauen ob NV nachzieht, ich glaube eher weniger.

nordic_pegasus
2019-07-05, 12:24:33
Bei alle Euphorie ... es kommt eine weitere WQHD Karte dazu. Ist nett aber im Endeffekt warten doch viel mehr auf eine Preisbewegung im 4K Bereich.

sehe ich ähnlich. Navi10 ist sicherlich die Brot und Butter Karte für AMD mit der Umsatz gemacht wird. Trotzdem ist das Segment der 4K Karten seit GP102 vor 3 Jahren eingeschlafen. Und Tu102 spielt einfach in einer preislich lächerlichen Region für die meisten potentiellen Käufer. Und AMD hat seit Jahren und für noch mindestens 1 Jahr keine Alternative im Portfolio.

Screemer
2019-07-05, 12:31:32
Na das ist ja mal was ganz Neues, dass der Stromverbrauch beim daddeln keine feste Größe ist. :freak:

Ich habe bis heute nicht verstanden warum keine einzige Publikation den System/Karten-Verbrauch während der Benchmarkruns mitlogged und die als Graphen präsentiert und wegen mir noch einen Mittelwert über den kompletten Parkour bildet. Damit würde man sowohl wirst Case als auch bestcase abbilden und komplett transparent den Verbrauch aufzeigen und könnte sogar ein W/FPS für den kompletten Testumfang darstellen. Das wäre nämlich Mal endlich ne wirklich interessante Metrik.

Damit ließen sich solche Dinge wie "aber der Verbrauch in XYZ ist anders" , "der Gesamtverbrauch mit Nvidia ist aber höher da 'bekannte Behauptungen'" oder "Nvidia liefert im Verhältnis zu AMD auf einer AMD-Platfform im Verhältnis weniger Leistungen" endlich mal aus der Welt schaffen.

https://mobile.twitter.com/sherkelman/status/1146827961162711045

:D
:lol:

aufkrawall
2019-07-05, 12:34:27
Macht Phoronix.

Screemer
2019-07-05, 12:38:01
Macht Phoronix.
Leider aber in ihrer "Nische". Ich wünsch mir das schlicht und ergreifend von jedem. Ist doch nicht so schwierig die Leistungsaufnahme mitzuloggen und das dann mit den Leistungsdaten in Korrelation zu setzen. Es nicht zu tun ist einfach dumm.

Wäre NV gieriger geblieben und hätte die SUPER Karten entsprechend der Leistung preislich leicht höher angesetzt, dann hätten AMD die ursprünglich angekündigten Preise ohne mit der Wimper zu zucken durchgezogen.
Du hast aber gesehen, dass zumindest die 2060s $50 höher im UVP ist?

amdfanuwe
2019-07-05, 12:46:40
Mal schauen ob NV nachzieht, ich glaube eher weniger.
Glaub ich auch nicht. Bei dem hohem Marktanteil ist es gewinnbringender für Nvidia ein paar Karten weniger zu verkaufen als viele Karten billiger zu verkaufen.

Unicous
2019-07-05, 12:57:48
Wenn AMD tatsächlich und klugerweise die Preise senkt, dann zwingen sie Nvidia (mMn) endlich mal wieder in einen Preiskrieg, denn schlagartig hat man ein DEUTLICH besseres P/L-Verhältnis.

w0mbat
2019-07-05, 13:07:46
[...] ich verstehe nicht, wieso sie von einigen anhand dieser zu erwartenden Testergebnisse abgefeiert werden.
Weil es so aussieht, als ob wir endlich mal wieder eine AMD GPU bekommen, die sowohl von der Leistung her als auch vom Verbrauch her mit Nvidia mithalten kann.

Vega und Polaris sind gute Karten, aber vor allem wegen ihrem P/L-Verhältnis. Mit Navi scheint AMD deutlich effizienter zu sein, das war lange überfällig. Eine RX 5700 XT verbraucht so viel wie eine RX 590, wird dabei aber wohl schneller als eine Vega 64.

Seit Pascal hatte AMD Probleme mit Nvidias Architekturen mitzuhalten. Im allgemeinen bei der Efizienz und dadurch auch insbesonders bei der Leistung im high-end, da eine Vega 64 mit ihren knapp 300W eben nur GTX 1080 Leistung liefert (ja, ich weiß, UV und so...).

Mit Navi scheint AMD wieder eine echt gute Architektur zu haben. Die RX 5700 liegt wohl ca. auf dem Niveau einer 2060S und das bei weniger Verbrauch. Und einem geringerem Preis. Das hilft allen (siehe Nvidias "Super" Karten) und macht hoffnung, dass eine große Navi-GPU Nvidia wieder im high-end angreifen kann, ohne >300W zu verblasen.

Navi10 wird mit seinen 251mm², trotz 7nm Fertigung, deutlich günstiger in der Herstellung sein als der 545mm² TU104 auf einer RTX 2070S. Auch das PCB wird wohl nicht so komplex sein. AMD kann hier Nvidia wirklich angreifen, weil man viel mehr Spielraum hat. Jetzt besteht die Möglichkeit die Preise wieder auf ein pre-miningboom Niveau zu senken.

Thomas Gräf
2019-07-05, 13:11:01
Ich habe bis heute nicht verstanden warum keine einzige Publikation den System/Karten-Verbrauch während der Benchmarkruns mitlogged und die als Graphen präsentiert und wegen mir noch einen Mittelwert über den kompletten Parkour bildet. Damit würde man sowohl wirst Case als auch bestcase abbilden und komplett transparent den Verbrauch aufzeigen und könnte sogar ein W/FPS für den kompletten Testumfang darstellen. Das wäre nämlich Mal endlich ne wirklich interessante Metrik.

Damit ließen sich solche Dinge wie "aber der Verbrauch in XYZ ist anders" , "der Gesamtverbrauch mit Nvidia ist aber höher da 'bekannte Behauptungen'" oder "Nvidia liefert im Verhältnis zu AMD auf einer AMD-Platfform im Verhältnis weniger Leistungen" endlich mal aus der Welt schaffen.


:lol:

Warte mal den Test von igorsLab ab was Leistung/Verbrauch angeht.

Hakim
2019-07-05, 13:13:00
Eben, ist immer zu begrüßen. Offensichtlich hatte man ja gut Spielraum, und hat es vielleicht immer noch. Wenn man darüber nachdenkt, als Käufer von 1060 oder 480/580 bekommt man nach all den Jahren für den Preis einer 1070 von damals nur etwas mehr Leistung als diese, net so motivierend.

Mangel76
2019-07-05, 13:35:23
Warte mal den Test von igorsLab ab was Leistung/Verbrauch angeht.

Igor macht, soweit ich weiß, sehr ausführliche und fundierte Messungen zum Verbrauch der Karte selbst. Zusätzlich müsste es aber eben auch eine Messung des Gesamtsystems geben, um verschiedene Mythen endlich mal bestätigen oder wiederlegen zu können. Beide Messungen haben jeweils ihren eigenen Erkenntniswert, sind einzeln aber eben immer nur die halbe Wahrheit.

w0mbat
2019-07-05, 13:38:20
Jupp, Igor ist mMn die Referenz wenn es um den Verbrauch geht. Es misst nich nur dirkt an der Karte selber, sondern auch die Spannungsverläufe und Spannungspitzen. Sowohl 2060S als auch 2070S ziehen etwas mehr als ihre TDP (@stock) und mit OC kann es sehr schnell sehr viel mehr werden. Da werden bei der 2060S auch direkt mal die PCIe specs überfahren (kann sich hier noch jemand erinnern, wie schlimm das damals bei der RX 480 war?) und die 2070S kann in Spitzen gut über 400W ziehen.

Man merkt, dass Nvidia nicht mehr ganz am sweet-spot arbeiten kann :D

aufkrawall
2019-07-05, 13:38:38
Ich würd mich nicht zu sehr am Gesamtsystemverbrauch hochziehen, mit DX12/Vulkan gibts mit Nvidia eh keine seltsame Overhead-Verteilung auf mehrere Threads durch den Treiber mehr.

gmb
2019-07-05, 13:44:02
Weil es so aussieht, als ob wir endlich mal wieder eine AMD GPU bekommen, die sowohl von der Leistung her als auch vom Verbrauch her mit Nvidia mithalten kann.



Aber nur weil sie einen ganzen fullnode vorne sind beim Prozess. Also das ist schon ernüchternd auf die Architektur bezogen. AMD hat keinesfalls aufgeholt.

Rancor
2019-07-05, 13:48:16
Aber nur weil sie einen ganzen fullnode vorne sind beim Prozess. Also das ist schon ernüchternd auf die Architektur bezogen. AMD hat keinesfalls aufgeholt.

Ich glaube dir bricht echt nen Zacken aus der Krone, wenn du mal was positive zu AMD schreiben würdest.

So wie es bisher aussieht werden das ganz ordentliche Karten und im Bereich von 2060 - 2070S gibt es endlich Konkurrenz. Es kann dadurch nur besser für uns als Kunden werden. Das gleich gilt für die CPU Sparte.

x-force
2019-07-05, 13:49:04
Aber nur weil sie einen ganzen fullnode vorne sind beim Prozess. Also das ist schon ernüchternd auf die Architektur bezogen. AMD hat keinesfalls aufgeholt.

das ist leider der bittere boden der tatsachen, auf dem amd landen wird, sobald nv seine 7nm generation loslässt. vielleicht verzögert es sich aber noch eine generation, wenn nv rtx zu sehr pusht und abseits davon zu wenig rechenleistung bringt.

aber bis dahin ist noch etwas zeit den status quo und navi zu hypen. :freak:

aufkrawall
2019-07-05, 13:49:17
AMD hat keinesfalls aufgeholt.
Das ist eine Quatschaussage, schau dir die Effizienz von 1050 Ti vs. RX 560 an (und am besten auch nochmal, was 7nm laut der Fab verspricht)...
aufgeholt != eingeholt...

Palpatin
2019-07-05, 13:49:50
Was? Ich sehe keinen Benchmark wo die 5700XT schneller ist als eine 2070 Super. :rolleyes:

3d Mark - Firestrike (DX11) liegt bei dem Review 5700XT knapp vor der 2070 Super.

nairune
2019-07-05, 13:53:07
Noch 49 Stunden und die Nerven liegen auf allen Seiten blank :ugly:

w0mbat
2019-07-05, 13:54:25
Aber nur weil sie einen ganzen fullnode vorne sind beim Prozess. Also das ist schon ernüchternd auf die Architektur bezogen. AMD hat keinesfalls aufgeholt.
Naja, Nvidia kann nur mithalten, weil sie 10x für R&D ausgeben. Das ist schon ernüchternd auf die Architektur bezogen. Eigentlich ist Nvidia richtig schlecht, weil sie aus ihrem Vorteil nicht mehr rausholen.

Sorry, aber ich hoffe du merkst wie dämlich es ist alle andere als die finalen Produkte zu vergleichen. Firma A investiert damit man schnell auf die nächste node wechseln kann während Firma B lieber ihre R&D in den Aufbau steckt. Wie und wo man seine Prioritäten setzt ist egal, wichtig ist was hinten raus kommt.

Screemer
2019-07-05, 14:02:10
Warte mal den Test von igorsLab ab was Leistung/Verbrauch angeht.
Aber eben nicht über alle Benchmarks. Das hat er bisher noch nie gemacht.

gmb
2019-07-05, 14:04:28
Das ist eine Quatschaussage, schau dir die Effizienz von 1050 Ti vs. RX 560 an (und am besten auch nochmal, was 7nm laut der Fab verspricht)...
aufgeholt != eingeholt...


Hör doch auf dir das immer schönzureden. AMD bringt eine neue Architektur in einem neuen Prozess und kann gerade mal aufschließen. Ich kann dir sagen was passieren wird, wenn Nvidia eine neue Generation im 7nm Prozess bringt, sie werden wieder deutlich davonziehen, ja mindestens den Abstand zu vorher wiederherstellen.

dildo4u
2019-07-05, 14:05:57
Wirklich interessant wird erst 5nm,wenn Nvidia zu Samsung geht baut TSMC den High Performance Node nur noch für AMD.Es ist also fast wieder so als wenn sie wieder ihre eigene Fertigung haben.Damit dürften sie vorallem Intel keine Chance lassen wenn die wirklich erst 2021 7nm liefern können.

w0mbat
2019-07-05, 14:06:28
Und was passiert wenn AMD dann ihre neue Architektur in 7nm+ bringen? Junge, hör doch mal auf dich lächerlich zu machen...

dargo
2019-07-05, 14:06:51
Aber nur weil sie einen ganzen fullnode vorne sind beim Prozess. Also das ist schon ernüchternd auf die Architektur bezogen. AMD hat keinesfalls aufgeholt.
Für dich müssen das gerade sehr schwere Zeiten sein. Erst wird Intel mit Ryzen 2 an die Wand geklatscht und jetzt holt AMD in der GPU-Sparte (außer im Enthusiastenbereich) auf. Wenn ich das Budget von AMD im Vergleich zu Intel und Nvidia in Relation setze kann ich über die Produkte von Intel/Nvidia nur lachen.

Gebrechlichkeit
2019-07-05, 14:09:32
https://mobile.twitter.com/sherkelman/status/1146827961162711045

:D

... Shit! We trieded to scam you gullible peeps, but due leakage we has to lowerz dä prais! We dän will pretend that we never had intentions of selling our navis for that astronomical price and call this move "Jebaited!" and hope that our fans via contemporary forms of expressing their emotiongs thru memes .. yada yadablablabla.

Ich seh das eher mehr wie eine "Zugestaendnis" seitens AMD, es versucht zu haben dem AMD Fan ein paar zus. € zu stibitzen.


Nvidia haette doch einfach die Preise anpassen koennen, aber man will ja die schnellere GPU haben in den Benchmarks und nicht die "Effizientere/Peis/leistung Koenig, Queen unter den GPUs" sein.
Haette envidia nix neues rausgebracht, waers beim original Preis geblieben. €400 fuer eine Mid Range GPU fuck off! AEMDE mor laik AMENDE :wink: Und bis auf eine 6600GT hatte ich ausschliesslich ATi Karten. Isch versteh nicht ganz warum die AMDler so frohlocken... aendert sich doch nueschts.

Lät dä Mähm Woar begiin! Shots are being fired!
https://s3.gifyu.com/images/shots-fired-97084.gif

Daredevil
2019-07-05, 14:09:35
Die 5700 läutet aber eine völlig neue Ära ein, ähnlich wie Ryzen halt auch.
Das wird kein Fiji, rx580, Vega64 oder Radeon VII.
Keine Experimente mehr, das Namensschema hält sich die nächsten Generationen als feste Basis, weil offensichtlich ein Plan geschmiedet wurde.

Das Namensschema und das Selbstbewusstsein von AMD verrät einem doch schon, das sie klare Pläne für die Zukunft haben. Mit einem FirstGen Produkt Konkurrenzfähig zu sein und NVIDIA zum handeln zu bewegen ( Wir erinnern uns an den 1800x und den 9900k ) ist ein großer Erfolg.
Tick Tock (:

Mr.Scott
2019-07-05, 14:19:29
Jippie! Preissenkung!

Aber macht es sinn eine 5700 zu kaufen wenn man für weniger Geld,
eine Vega 56 bekommt, mit quasi gleicher Leistung?

:freak:

Was denkt Ihr?

5700 vs. Vega 56 in Preis/Leistung?

w0mbat
2019-07-05, 14:20:14
AMD ist pur und rein, die wollen eigentlich gar kein Geld, werden aber leider gezwingen. Sue bae ist quasi Jesus 2.0.

Dural
2019-07-05, 14:23:52
Der "Erfolg" beruht aber zu einem sehr grossen teil auf 7nm. Das hat kaum was mit AMD und ihrer Architektur zu tun.

NV hat sich bewusst gegen 7nm in erster Generation entschieden.

Auch bei den CPUs das selbe, hätte Intel nicht so extreme mühe mit ihrer Fertigung wären die Ryzen CPUs auch kaum der rede wert, ok vielleicht mit der reinen Core Anzahl.

Interessant finde ich ja das man das schon als "Erfolg" sieht wenn eine neue Architektur in einem neuen Fertigungsverfahren gleich auf ist mit einer "alten" Architektur in einem alten Fertigungsverfahren ;)

Viel interessanter würde ich da gerne wissen was Navi alleine bringt, und das sieht mit ein paar Verbesserungen jetzt nicht gerade wie der grosse Sprung aus. Auf keinem Fall so wie bei Turing.

pilzsammler2002
2019-07-05, 14:25:02
Naja der jebaited tweet war vor der "offiziellen" Preissenkung :freak:

Daredevil
2019-07-05, 14:26:49
Wenn 40Cu in 7nm sehr nah an 60cu in 7nm rankommen, ist das ein Riesen Erfolg, findest du nicht? :)

Edit: Bei bei 55w weniger Verbrauch :<
Edit2: und weniger Takt >:

Der_Korken
2019-07-05, 14:38:30
Bei der Effizienz von der Architekturseite aus scheint AMD tatsächlich aufgeholt zu haben, sofern sich ein Verbrauch <200W bestätigt. Zumindest was den Rückstand von Vega auf Turing betrifft. Absolut liegt Nvidia imho aber immer noch deutlich vorne, denn Nvidia erreicht ca. die gleiche Effizienz wie AMD aber mit 12nm statt 7nm. Also im Prinzip ähnlich wie bei Polaris, wo man ca. die Effizeinz von Maxwell erreicht hat, aber mit einem Fullnode Vorsprung (und kommt mir jetzt nicht mit Customs die sich ein race to the bottom bei der Effizienz liefern, die Referenz von 970/980/480 lagen bei ca. 145/170/165W).

Nichtsdestotrotz ist es unheimlich wichtig für AMD mal wieder den Fuß in die Tür zu bekommen, selbst wenn man nur ausnutzt, dass sich Nvidia mit 7nm Zeit lässt. Bei RDNA 2 wird bei der Effizienz sicher noch was passieren, denn man kann davon ausgehen, dass die Designer bei AMD viel Wert auf Effizienz bei ihrer neuen Architektur gelegt haben, weil man sonst nicht in den Highend- und den Mobilbereich kommt. Es wird nur ähnlich wie bei Zen sein, dass man in der ersten Version nicht direkt alle Ideen drin hat, weil sie einfach noch nicht fertig implementiert sind. Aber irgendwann muss AMD auch mal was releasen, um Geld reinzuholen.

Achim_Anders
2019-07-05, 14:38:41
D
NV hat sich bewusst gegen 7nm in erster Generation entschieden.

Und AMD bewusst für die neue, noch nicht ganz optimale Fertigung, die erst mit EUV so richtig richtig stark wird... Wo ist da jetzt genau das Problem:confused:

Dural
2019-07-05, 14:39:21
Ich habe kein Problem damit, für AMD war es sicherlich die genau richtige Entscheidung pro 7nm.


Wie gesagt, ein paar Verbesserungen wird Navi schon haben.

Und Vega ist jetzt definitiv keine Referenz, Vega hatte für die reine Rohleistung die die GPU hat, schon immer mühe.

gmb
2019-07-05, 14:40:01
Interessant finde ich ja das man das schon als "Erfolg" sieht wenn eine neue Architektur in einem neuen Fertigungsverfahren gleich auf ist mit einer "alten" Architektur in einem alten Fertigungsverfahren ;)



Ja man muss eben auch mal kleinere Brötchen backen und sich damit zufrieden geben :freak: Aber schon krass, wie weit AMD zurückgefallen ist bei den GPUs.

Adam D.
2019-07-05, 14:42:45
Und AMD bewusst für die neue, noch nicht ganz optimale Fertigung, die erst mit EUV so richtig richtig stark wird... Wo ist da jetzt genau das Problem:confused:
Auf irgendeinen BS muss er sein Getrolle ja stellen. AMD kann eigentlich gar nix, die lassen sich ihre gesamten Designs einfach von TSMC machen. Ryzen kann auch nix. Alles unnötiger Scheiß. Auf Intel und NV ist ja zum Glück Verlass!

mironicus
2019-07-05, 14:44:30
Na, spätestens in 2 Jahren wird AMD mit der dritten RDNA-Generation NVidia niederringen und Jen-Hsun Huang wird das Unternehmen inkl. seiner Lederjacke an Intel verkaufen. :)

dargo
2019-07-05, 14:44:35
Der "Erfolg" beruht aber zu einem sehr grossen teil auf 7nm. Das hat kaum was mit AMD und ihrer Architektur zu tun.

Wie kommst du eigentlich immer auf so schwachsinnige Ideen? Die 2070S ist in 12nm 545mm² groß! Warum sollte ein Navi 10 @12nm bei vergleichbarer Größe langsamer/ineffizienter sein? Bei so einer Größe hätte man das Ding auch in 12nm bringen können. Dann halt mit etwas weniger Taktrate dafür mehr CUs. Luft wäre bei der Die-Size genug vorhanden.

Korvaun
2019-07-05, 14:44:53
Noch 49 Stunden und die Nerven liegen auf allen Seiten blank :ugly:

Jo ist doch fein. Endlich mal wieder etwas Leben in der Bude. Jetzt wart aber mal Sonntag ab, wenn Navi und Ryzen Tests aufschlagen, dann gehts erst mal nen paar Tage so hoch her wie schon lange nicht mehr. Ich hoffe die Mods schlafen schon mal vor ;)

Zu den AMD Preisen könnte man fast denken die hohen Preise waren nur "Platzhalter" um Lederjacke in Sicherheit zu wiegen...

Dural
2019-07-05, 14:45:15
Wer lesen kann ist klar im Vorteil...

Fakt ist das Navi ohne 7nm nicht mal in der nähe einer Turing GPU ist, wer das abstreitet ist ein dummer Fanboy. Punkt.

Wie kommst du eigentlich immer auf so schwachsinnige Ideen? Die 2070S ist in 12nm 545mm² groß! Warum sollte ein Navi 10 @12nm bei vergleichbarer Größe langsamer/ineffizienter sein? Bei so einer Größe hätte man das Ding auch in 12nm bringen können. Dann halt mit etwas weniger Taktrate dafür mehr CUs. Luft wäre bei der Die-Size genug vorhanden.

Du weisst schon das der TU104 auf der 2070 Super ziemlich beschnitten ist?

tm0975
2019-07-05, 14:46:59
Und Vega ist jetzt definitiv keine Referenz, Vega hatte für die reine Rohleistung die die GPU hat, schon immer mühe.

man kann sich das jetzt so hindrehen wie man (du!) es brauch(s)t, oder man kann schlicht und einfach die beiden produkte vergleichen. effizienz scheint nahezu gleichauf zu sein, preis-leistung ist pro AMD, dafür gibts bei nvidia jetzt schon minimal-raytracing. kann ja jeder selbst seine entscheidung treffen. hätte, wenn etc. interessieren nicht. und wie jedes produkt seine effizienz erreicht oder nicht ist zumindest für die aktuelle version egal. rest ist sache der hersteller. nvidia hat vermutlich mehr potentiel in der herstellung, amd ggf. in der hardware. und was bringt mir das jetzt? es gibt kein navi in 12 nm, es gibt keine 2070s mit dem chip der 2070... auch wenn es dir schwer fällt.

Achim_Anders
2019-07-05, 14:49:01
Wer lesen kann ist klar im Vorteil...

Fakt ist das Navi ohne 7nm nicht mal in der nähe einer Turing GPU ist, wer das abstreitet ist ein dummer Fanboy. Punkt.
Ach Liebchen,

Fakt ist auch, dass Nvidia stand vorgestern nen Refresh gebracht hat der wohl mindestens 12 Monate bestand am Markt hat... Gegen Navi. Noch mal, wo ist dein Problem :confused:

Nvidia wird in 2019 nichts neues mehr bringen, also ist der Vergleich der Produkte für 2. Halbjahr 2019 doch vollkommen legitim. Wahrscheinlich sogar auch fürs 1. Halbjahr 2020...

Produkte am Markt ist das einzig relevante.. Nicht irgendwelche angeblichen Schubladen, die geöffnet werden müssen. ;)

Vielleicht zieht Nvidia in einem Jahr wieder davon, vielleicht aber auch nicht, das hat aber nichts, wirklich GAR NICHTS, mit der Marktsituation für die nächsten 12 Monate und Navi zu tun.. :confused:

dargo
2019-07-05, 14:49:05
Du weisst schon das der TU104 auf der 2070 Super ziemlich beschnitten ist?
Und weiter? Deswegen kriegt NV trotzdem kein Rabatt für teildefekte 545mm² Dies. :rolleyes:

Der_Korken
2019-07-05, 14:51:06
Wie kommst du eigentlich immer auf so schwachsinnige Ideen? Die 2070S ist in 12nm 545mm² groß! Warum sollte ein Navi 10 @12nm bei vergleichbarer Größe langsamer/ineffizienter sein? Bei so einer Größe hätte man das Ding auch in 12nm bringen können. Dann halt mit etwas weniger Taktrate dafür mehr CUs. Luft wäre bei der Die-Size genug vorhanden.

Man sollte aber noch bedenken, dass Nvidia die Tensor- und RT-Cores rauswerfen könnte. Hat nichtmal jemand ausgerechnet, dass das so 15-20% Diespace einsparen würde? Damit würde TU106 vielleicht bei 350-370mm² liegen. Und den TU106 im Vollausbau muss ein N10@12nm erstmal knacken, denn ohne 7nm verliert man locker 200-300Mhz Takt. Oder anders gesagt: Ein TU106@7nm könnte locker mit 2,1-2,2Ghz laufen und die 5700XT bequem auf Abstand halten.

Achim_Anders
2019-07-05, 14:53:30
Oder anders gesagt: Ein TU106@7nm könnte locker mit 2,1-2,2Ghz laufen und die 5700XT bequem auf Abstand halten.
Ein Navi@3nm würde auch alles verballern, was es heute gibt... Dumm nur: Existiert nicht.. Wird nicht existieren?! Es gibt handfeste Produkte, die man vergleichen kann... Warum kommt ihr gerade alle mit irgendwelchen nicht existierenden Hirngespinsten an?! :freak:

Was ist das Ziel dieser "Denkübungen"?

dargo
2019-07-05, 14:53:40
Wer lesen kann ist klar im Vorteil...

Fakt ist das Navi ohne 7nm nicht mal in der nähe einer Turing GPU ist, wer das abstreitet ist ein dummer Fanboy. Punkt.

Du hast mal wieder keine Ahnung wovon du sprichst. In 12nm etwas weniger Taktrate damit der Verbrauch nicht zu stark ansteigt, dafür etwas mehr in die Breite gehen. Man hätte nur etwas mehr Die-Size investieren müssen. Aber wie gesagt... wenn man 545mm² als Maßstab von Nvidia nimmt ist da mehr als genug Luft vorhanden.

Man sollte aber noch bedenken, dass Nvidia die Tensor- und RT-Cores rauswerfen könnte.
Haben sie aber nicht.

Dural
2019-07-05, 14:53:54
Wer redet hier vom Markt oder irgend welche kosten?
Ich vergleiche die ganze Zeit die Architektur mit den Fertigungen.

Und wenn ich da lese das AMD von der Architektur gleich gezogen hat ist das einfach purer Blödsinn.

Navi ist übrigens alles andere als klein, ich finde die GPU ohne RT sogar ziemlich gross. Übrigens bin ich offensichtlich der einziger der Rechnen kann... so viel zum Thema keine Ahnung ;)

Achim_Anders
2019-07-05, 14:56:05
Architekturen unabhängig von der Fertigung, für die sie konzipiert wurden, zu sehen, ist Schwachsinn, weil es keinem Konsumenten irgendetwas bringt... Damit gehörst du in die (nicht vorhandene) Esoterik Ecke des Forums, aber nicht in den Spekulatius Thread...

Bucklew
2019-07-05, 14:56:58
https://mobile.twitter.com/sherkelman/status/1146827961162711045
AMD also im Panikmodus, dass man zum gedachten Preispunkt gegen die Super-Karten dann doch nicht anstinken kann.

Das jetzt als "jebaited" zu verkaufen ist schon echt ziemlich erbärmlich :rolleyes:

Ist also also gar nicht AMD der Preissenker bei den GPUs, sondern im Gegenteil NVIDIA ;D

Dural
2019-07-05, 14:58:49
Hat AMD nicht gesagt das sie mit Navi eine 50%+ Marge anstreben? Ich glaube das hat sich gerade in Rauch aufgelöst ;)

NV hat schon immer die Preise vorgegeben, AMD richtet ihre Preise seit zig Jahren nur noch nach den NV Produkten.

Der_Korken
2019-07-05, 15:03:49
Ein Navi@3nm würde auch alles verballern, was es heute gibt... Dumm nur: Existiert nicht.. Wird nicht existieren?! Es gibt handfeste Produkte, die man vergleichen kann... Warum kommt ihr gerade alle mit irgendwelchen nicht existierenden Hirngespinsten an?! :freak:

Reden wir jetzt von Produkten oder von Architekturen? Ich von letzterem.

Haben sie aber nicht.

Dann solltest du bei deinem Vergleich berücksichtigen, dass er Turing-Chip mehr kann als der von AMD, sonst solche Die-Flächen-Vergleiche doch Äpfel vs Birnen (und wenn man zusätzlich full chip vs salvage vergleicht, erst recht). Deswegen habe ich geschrieben, dass man für einen fairen Vergleich die Die-Fläche der Tensor- und RT-Cores rausrechnen müsste, denn sie werden ja nicht benutzt.

Mangel76
2019-07-05, 15:14:03
Hat AMD nicht gesagt das sie mit Navi eine 50%+ Marge anstreben? Ich glaube das hat sich gerade in Rauch aufgelöst ;)

NV hat schon immer die Preise vorgegeben, AMD richtet ihre Preise seit zig Jahren nur noch nach den NV Produkten.

Naja, das wird mehr Auswirkungen auf die Marge von NVIDIA haben, da für die wichtige 2070s jetzt der große TU104 genutzt werden muss.

Grendizer
2019-07-05, 15:17:23
Ich glaube nicht, das sind ja defekte GPUs die bisher als Abfallprodukt auf Halde liegen.

Mangel76
2019-07-05, 15:20:20
Ich glaube nicht, das sind ja defekte GPUs die bisher als Abfallprodukt auf Halde liegen.

Wieso? Bisher gibt es doch ausschließlich Teildeaktivierte inkl. 2080?

HOT
2019-07-05, 15:21:01
AMD also im Panikmodus, dass man zum gedachten Preispunkt gegen die Super-Karten dann doch nicht anstinken kann.

Das jetzt als "jebaited" zu verkaufen ist schon echt ziemlich erbärmlich :rolleyes:

Ist also also gar nicht AMD der Preissenker bei den GPUs, sondern im Gegenteil NVIDIA ;D
NV senkt die Preise, warum sollte AMD das nicht auch tun? Da ist kein Panikmodus. Eher bei NV, weil man sich genötigt fühlte eine versteckte Preissenkung durchzuführen mit den super-Karten. Und der Panikmodus war nicht wegen AMD sondern wegen schlechter Verkäufe.

Was soll überhaupt das Geblubber? Navi gibts nur in 7nm und der ist eben auch nur für 7nm (vorerst). Man kann Navi nicht auf 12nm spekulieren, dafür ist er nicht designt. Man sieht ja gut an Vega, dass ein einfacher Shrink nicht viel bringt. Man muss die Vorteile des Prozesses auch ausnutzen.

Menace
2019-07-05, 15:26:24
gmb, Dural und Bucklew in kurzer Zeit beim Posten mit leichtem Panik-Troll-Modus? Gibt es also bald was neues von AMD? :wink:

Habe ich das übersehen oder gibt es schon Leaks zu Navi bzgl. OpenCl-Anwendungen vers Vega? Wen interessiert da schon nvidia.

Und ich glaube auch, dass AMD etwas kalt von den Super-Karten erwischt wurde. Aber schön, dass sie mir nichts Dir nichts den Preis doch massiv soweit senken können, wie von vielen früher erhofft. Das Ergebnis zählt letztlich.

mironicus
2019-07-05, 15:28:00
Genau! NVidia sah sich genötigt wegen Navi den Preis zu senken und jetzt bekommen 2060-Käufer ihre heiß ersehnten 8 GB! Und AMD kann einfach den Preis senken weil die immer noch genug Marge machen. Normales Konkurrenz-Verhalten.

In Wirklichkeit sehnen sich alle NVidia-Fans doch danach das AMD eine Karte auf Niveau der 2080Ti bringt, weil dann im High-End Bereich auch endlich die Preise sinken würden.

Daredevil
2019-07-05, 15:29:47
Ich glaube, hier wurde es schon mal verlinkt, ich hau es trotzdem nochmal raus.
Wirklich sehr interessant, wie sich AMD dort präsentiert und wie ruhig Sie die Produkte beschreiben. Die Jungs haben definitiv einen Plan in der Tasche, der sie ziemlich ruhig schlafen lässt.
Beeindruckend, wie selbstbewusst AMD aktuell ist.

Da wird unter anderem auch gesagt, das Navi offen für Virtual Link ist, PCIe 4.0 durchaus Vorteile haben kann, man nicht gegen die Referenz Nvidia Karten gebencht hat sondern extra gegen die FE und dass das Namesschema halt Teil eine großen GPU Bewegung ist, weil die vorigen Grafikartenbezeichnungen verwirrend waren, damit jeder Gamer in Zukunft vergleichen kann, was halt schneller ist.
Zudem sagt einer von denen auch, dass ihre eigenen Test so gewählt sind, dass sie überall auf der Welt nachvollziehbar gemacht werden können, sprich ihre Vergleiche sind kein Best Case, sondern der Durchschnittscase, weil sie eben so offen wie möglich korrekte Zahlen präsentieren möchten.

OY8qvK5XRgA

Wer hier wirklich bei Navi40CU und VegaII60CU im Vergleich sagt, dass sich die Effizienz nicht geändert hat, muss halt mal ein bisschen Dreisatz nachholen.
Die Karten sind nicht weltbewegend schneller als die Vega Karten ja, dafür sind sie aber auch weltbewegend kleiner geworden. Dass da noch Luft nach oben ist, die man vorher nicht hatte, sollte jedem klar sein.

dargo
2019-07-05, 15:31:06
Ich glaube nicht, das sind ja defekte GPUs die bisher als Abfallprodukt auf Halde liegen.
Irgendwann ist jede Halde leer. ;)


Dann solltest du bei deinem Vergleich berücksichtigen, dass er Turing-Chip mehr kann als der von AMD, sonst solche Die-Flächen-Vergleiche doch Äpfel vs Birnen (und wenn man zusätzlich full chip vs salvage vergleicht, erst recht).
Es ist so schon Äpfel/Birnen. Mit RT brechen die Frames dermaßen ein, dass man schon mindestens 2 Klassen höher die Graka kaufen müsste. Was willst du also da großartig vergleichen? Wenn du richtig vergleichen willst musst du warten bis AMD einen kleineren Navi bringt der in die Leistungsklasse von TU116 passt.

y33H@
2019-07-05, 15:42:41
[...]Das Markting Video hat die erhoffte Wirkung :wink:

Daredevil
2019-07-05, 15:47:32
Ich tippe also so in etwa auf 200€ für die 5700 und 300 € für die 5700XT, mal schauen was dabei rauskommt.
Customs bekommen nochmal nen Fuffi Aufschlag und gut ist.


ganz knapp:biggrin:


So weit weg sind wir dann wohl doch nicht mehr. :D
Gut, ich hatte nicht bedacht, dass die Karten nur nen 50$ unterschied machen und nicht 100$. :>

Das Markting Video hat die erhoffte Wirkung :wink:
Ja, klar doch. Am Ende zählen trotzdem die Zahlen, Daten und Fakten, ich kann das schon gut unterscheiden.
Dass AMD überhaupt mal gutes Marketing macht, ist trotzdem nett. :)

dargo
2019-07-05, 15:54:15
Gut, ich hatte nicht bedacht, dass die Karten nur nen 50$ unterschied machen und nicht 100$. :>

Die -50$ für den Salvage kommen mir auch etwas seltsam vor. Hatten wir schon mal einen so kleinen Unterschied in der Vergangenheit?

dildo4u
2019-07-05, 16:00:07
GDDR6 wird noch teuer sein daher wollte NV die 8GB Modelle nicht unter 400€ verkaufen.

Daredevil
2019-07-05, 16:00:33
Der Unterschied ist aber auch wirklich minimal.
Guck dir das doch mal an hier:
https://abload.de/img/unbenannts3je5.png
11% Stream Prozessoren und 11% Texture Units, sonst unterscheidet nichts die beiden Karten.
Den größeren Takt kann man doch locker der höheren TDP zuschreiben, wie bei Vega56 und 64 auch.
Die ROPS sind gleich, der Speicher ist gleich, der Takt ist ( vermutlich ) gleich. So what. 50$ sind da halt schon okay.

BoMbY
2019-07-05, 16:19:50
GDDR6 wird noch teuer sein daher wollte NV die 8GB Modelle nicht unter 400€ verkaufen.

Als hätte der RAM-EK effektiv was mit dem NV-VK zu tun ... die nehmen was sie kriegen können, solange die Leute es bezahlen.

prinz_valium
2019-07-05, 16:26:21
$399 ist perfekt für die 5700XT

][immy
2019-07-05, 16:31:13
Der Unterschied ist aber auch wirklich minimal.
Guck dir das doch mal an hier:
https://abload.de/img/unbenannts3je5.png
11% Stream Prozessoren und 11% Texture Units, sonst unterscheidet nichts die beiden Karten.
Den größeren Takt kann man doch locker der höheren TDP zuschreiben, wie bei Vega56 und 64 auch.
Die ROPS sind gleich, der Speicher ist gleich, der Takt ist ( vermutlich ) gleich. So what. 50$ sind da halt schon okay.
Also so richtig unter Kontrolle hat AMD die Spannungsspitzen wohl nicht. Denn da sind wieder 2 8-Pin Anschlüsse drauf. Wird also ähnlich die wie Vegas rumpieken und das Netzteil ärgern.

Und dann kommt ja noch die 50th Anniversary edition. Frage mich ob die Grundübertaktet sein wird oder einfach mit ein paar Goodies kommt.
Die aktuellen Gerüchte besagen ja
RX 5700 XT 50th Anniversary: $449
RX 5700 XT: $399
RX 5700: $349

Damit könnte man mit der XT genau im Preisbereich der 2060S landen. Wobei die geleakten Benches besagen, das die 5700 genau auf der 2060S und die 5700 XT auf der 2070 (non-s) landet.

Daredevil
2019-07-05, 16:33:57
Die Bilder sind noch verkehrt aus der Folie. ( Die Daten hoffentlich nicht :D )
Die 5700/xt haben 6+8 Pin.

Siehe hier: https://www.computerbase.de/2019-06/navi-radeon-rx-5700-xt/#bilder

dargo
2019-07-05, 16:34:18
Die ROPS sind gleich, der Speicher ist gleich, der Takt ist ( vermutlich ) gleich. So what. 50$ sind da halt schon okay.
Der Takt ist garantiert nicht gleich. ;)

Daredevil
2019-07-05, 16:35:20
Geh mir nicht gleich wieder auf den Sack, Dargo. :D
Ich habe gesagt, bei gleicher TDP.

w0mbat
2019-07-05, 16:35:56
Die 2070S hat peaks >440W. Also so richtig unter Kontrolle hat Nvidia die Spannungsspitzen wohl nicht ;)

Zudem sind die Karten 6+8-pin.

dargo
2019-07-05, 16:38:10
Geh mir nicht gleich wieder auf den Sack, Dargo. :D
Ich habe gesagt, bei gleicher TDP.
Bei gleicher TDP sollte der Takt bei Salvage höher sein. Schließlich heizen weniger CUs. ;) Es sei denn Salvage braucht für Takt X etwas mehr Spannung. In dem Fall natürlich nicht.

][immy
2019-07-05, 16:39:48
Die 2070S hat peaks >440W. Also so richtig unter Kontrolle hat Nvidia die Spannungsspitzen wohl nicht ;)

Zudem sind die Karten 6+8-pin.
^^ wer kann denn Ahnen das die Offiziellen Folien in diesem Detail falsch sind (oder veraltet).
Aber die 2070S basiert auch noch auf einem älteren Fertigungsverfahren ;) aber ja, die Peaks sind echt ekelig geworden.

Bei gleicher TDP sollte der Takt bei Salvage höher sein. Schließlich heizen weniger CUs. ;) Es sei denn Salvage braucht für Takt X etwas mehr Spannung. In dem Fall natürlich nicht.
Schätzungsweise höhere Spannungen um den Takt halten zu können bei nicht so gut gefertigten Chips, was wiederum hieße das es wohl wieder einige Undervolting-Wunder geben könnte.

MadPenguin
2019-07-05, 16:42:24
Habe ich etwas verpasst?
Der Leak sagt ausdrücklich, dass die Driver nicht final sind und trotzdem ist man auf Augenhöhe von der 2070S in bestimmten Spielen. PCGH hat den Artikel auch gepostet, dort muss ich den Hínweis mit dem Treiber überlesen haben. PCI 4.0 wurde auch noch nicht getestet, richtig?

Verbrauch ist sehr gut, mit 50% von der Die-Größe gegenüber Nvidia auch super mit dabei, leistungsmäßig.

Die oben genannten Preise schwirren im Netz rum (Preissenkung AMD). Woher kommt diese Info?

][immy
2019-07-05, 16:46:48
Habe ich etwas verpasst?
Der Leak sagt ausdrücklich, dass die Driver nicht final sind und trotzdem ist man auf Augenhöhe von der 2070S in bestimmten Spielen. PCGH hat den Artikel auch gepostet, dort muss ich den Hínweis mit dem Treiber überlesen haben. PCI 4.0 wurde auch noch nicht getestet, richtig?

Verbrauch ist sehr gut, mit 50% von der Die-Größe gegenüber Nvidia auch super mit dabei, leistungsmäßig.

Die oben genannten Preise schwirren im Netz rum (Preissenkung AMD). Woher kommt diese Info?

https://videocardz.com/newz/amd-to-lower-the-price-of-radeon-rx-5700-series-ahead-of-launch
btw, da sind ja gleich auch noch die specs der Anniversary edition
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67050&stc=1&d=1562338000

Das würde die Karten ein gutes Stück unterhalb der 2070S positionieren.

MadPenguin
2019-07-05, 16:47:47
[immy;12039987']https://videocardz.com/newz/amd-to-lower-the-price-of-radeon-rx-5700-series-ahead-of-launch
btw, da sind ja gleich auch noch die specs der Anniversary edition
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=67050&stc=1&d=1562338000

Danke!

Ravenhearth
2019-07-05, 17:01:09
RX 5700XT für 479 CHF gelistet (https://www.digitec.ch/de/s1/product/gigabyte-radeon-rx-5700-xt-8gb-grafikkarte-11322000)

Sind ~430€, was zu den $399 passen würde

reaperrr
2019-07-05, 17:10:48
[immy;12039961']Also so richtig unter Kontrolle hat AMD die Spannungsspitzen wohl nicht. Denn da sind wieder 2 8-Pin Anschlüsse drauf. Wird also ähnlich die wie Vegas rumpieken und das Netzteil ärgern.

Es sind, wie die anderen schon schrieben, bei den finalen PCBs wohl nur 6+8.

Aber auch grundsätzlich ist es weniger problematisch, den Saft nahezu komplett über die Kabel zu ziehen (selbst wenn man mal über 75W beim 6pin und 150W beim 8pin hinausgeht), als die 75W des PCIe-Slots auszureizen. Den 480-Fail werden sie jedenfalls nicht wiederholen wollen.

Birdman
2019-07-05, 18:11:49
Guck dir das doch mal an hier:
https://abload.de/img/unbenannts3je5.png
Oh mann, ist die hässlich.... (die linke mit dem Knick in der Optik)

VooDoo7mx
2019-07-05, 18:26:27
Oh mann, ist die hässlich.... (die linke mit dem Knick in der Optik)

Ob das aussehen der Grafikkarte jetzt wichtig ist sei mal dahin gestellt.
Ich sehe jedoch weiterhin einen ziemlich billigen DHE Kühler, welcher beim Spielen die angenehme Geräuschkulisse eines Haartrockners oder eine startenden Kampfjets erzeugt.

Ich sehe jetzt schon die Fazits vom Sonntag, lahm, laut, heißt bei hohen Stromverbrauch. Dazu 0 Raytracing oder sonstige besondere Fähigkeiten.

AMD kann wie immer überhaupt durch den Preis ein wenig punkten.
Nachdem die Fanboys abgefrühstückt wurden sind, werden die Karten sicher schnell wie die Vega Teile verramscht.

Mr.Scott
2019-07-05, 18:28:19
Jippie! Preissenkung!

Aber macht es sinn eine 5700 zu kaufen wenn man für weniger Geld,
eine Vega 56 bekommt, mit quasi gleicher Leistung?

:freak:

Was denkt Ihr?

AMD 5700 vs. Vega 56 in Preis/Leistung?

prinz_valium
2019-07-05, 18:30:46
Oh mann, ist die hässlich.... (die linke mit dem Knick in der Optik)

Ich find die Super.
Deutlich besser als die komplett geradlinige 5700.


Aber nichts geht über die Monster Palit Karten mit doppel Axial Lüfter

Daredevil
2019-07-05, 18:31:54
AMD 5700 vs. Vega 56 in Preis/Leistung?


Die Vega56 hat natürlich die bessere Preis Leistung, die Vega 56 ist aber halt keine WQHD Karte.
Die bessere WQHD Karte ist demnach aber dann die 5700/xt bzw. RTX2060Super/2070.

Generell von der Performance her ausgehen macht m.M. nicht immer Sinn, weil die Karten ja ein Problem lösen sollen. Genug FPS in Auflösung x Darstellen.
So gesehen hat die RX570 auch eine bessere Preis Leistung als eine Vega56, aber eine RX570 ist für manche schlicht zu langsam.

Wenn du also auch beim Monitor auf Preis/Leistung geachtet hast ( 1080p@60hz ), dann ist die RX570 deine beste Lösung. :>

dargo
2019-07-05, 18:33:57
P/L ist bei Vega trotz Abverkauf nicht wirklich besser. 5700 = ~V64. Ohne Customs ist der Vergleich aber eh schwer. Erstmal die Customs abwarten. Die Referenzkühler sind halt nicht wirklich leise.

Mr.Scott
2019-07-05, 18:39:21
P/L ist bei Vega trotz Abverkauf nicht wirklich besser. 5700 = ~V64. Ohne Customs ist der Vergleich aber eh schwer. Erstmal die Customs abwarten. Die Referenzkühler sind halt nicht wirklich leise.


Bin gespannt ob die einfache 5700 (non XT!!!) wirklich mit der Vega 64 mithalten kann, was die reine Leistung betrifft.

Preis und Strom-hunger lasse ich jetzt mal bewusst außen vor.

Sunrise
2019-07-05, 18:44:20
Also doch, $399 US direkt...wie schon erhofft. Scheint ja ziemlich sicher zu sein.

AMD macht aktuell einfach alles richtig, echt schön anzusehen.

w0mbat
2019-07-05, 18:46:04
Laut dem aktuellen CB-Test liegt die 2060S knapp 5% vor der V64 in 1440p. Die 5700 soll in etwa auf 2060S Niveau liegen, das könnte also schon hinkommen.

dargo
2019-07-05, 18:49:39
Worüber diskutiert ihr hier noch? :D Nach einem Fake sieht mir das nicht gerade aus.
https://videocardz.com/newz/amd-radeon-rx-5700-xt-and-rx-5700-review-leaks-out

Wolf 2 noch mit Vorsicht genießen, hier könnte ein externes Overlay bei Navi gebremst haben.

Ravenhearth
2019-07-05, 18:52:20
P/L ist bei Vega trotz Abverkauf nicht wirklich besser. 5700 = ~V64. Ohne Customs ist der Vergleich aber eh schwer. Erstmal die Customs abwarten. Die Referenzkühler sind halt nicht wirklich leise.
Bei der Vega 56 schon, die gibts für 250€. Die 5700 dürfte ~15% schneller sein, aber 40% teurer. Bei Vega 64 nicht, stimmt.

robbitop
2019-07-05, 18:52:42
Die Frage ist, ob Turing mit Variable Rate Shading gebencht wurde.
Ansonsten scheinen dort die INT ALUs gut zu helfen.

dargo
2019-07-05, 18:57:22
Die Frage ist, ob Turing mit Variable Rate Shading gebencht wurde.

Turing beachte ich da nicht mal. Schau dir die Abstände zwischen V10 und Navi 10 in den anderen Games im Vergleich an.

Gebrechlichkeit
2019-07-05, 19:52:55
Could Crypto Affect GPU Prices in 2019!? It is Possible... Here's Why.... (https://www.youtube.com/watch?v=OMpK8W2B1yU) hmm...

Nightspider
2019-07-05, 19:59:28
Ist schon was durchgesickert wie diese Lagreduzierung funktionieren soll?

Der_Korken
2019-07-05, 20:05:40
Ich sehe gerade, dass die 5700 auch 14Gbps-Speicher bekommt. Ich hatte irgendwie gedacht, dass die nur 12Gbps bekommt und von der Leistung her würde das auch gut passen. Da verstehe ich schon, warum der Preisaufschlag so gering ist zur 5700XT.

basix
2019-07-05, 20:32:45
Damit die Leute gleich zur XT greifen, 50$ mehr ausgeben und gleichzeitig das Gefühl haben einen guten Deal gemacht zu haben sowie das Überlegenheisgefühl die beste Karte im AMD Stall zu haben ;)

Ravenhearth
2019-07-05, 20:50:33
Das ist streng genommen wohl immer noch die Radeon VII, wenn auch nur knapp. Deren Preis müsste AMD dank Geforce Super und Navi aber eigentlich auf $499 reduzieren, um konkurrenzfähig zu sein ;D
(Schon klar dass das nicht passieren wird)

basix
2019-07-05, 21:10:39
Was? VII (7) ist doch weniger als 5700? :D

TheGood
2019-07-05, 21:25:57
Also ich glaub noch ned so recht an eine Preissenkung. Für uns Kunden wäre es gut, aber ob das notwendig.

Mal sehen was offizielle Reviews dazu sagen und dann sieht man es ja :)

SKYNET
2019-07-05, 21:32:35
RX 5700XT für 479 CHF gelistet (https://www.digitec.ch/de/s1/product/gigabyte-radeon-rx-5700-xt-8gb-grafikkarte-11322000)

Sind ~430€, was zu den $399 passen würde

sone ratten, die karten sind schon drinnen, die cpus noch nicht... ich hasse digitec manchmal(und deren apotheker preise, aber dafür muss ich nur 15 min laufen zum abholen)...

JVC
2019-07-05, 21:48:17
sone ratten, die karten sind schon drinnen, die cpus noch nicht... ich hasse digitec manchmal(und deren apotheker preise, aber dafür muss ich nur 15 min laufen zum abholen)...
Ich warte mindestens auf den größeren Navi :smile:

M.f.G. JVC

KrisNeme
2019-07-05, 21:49:40
Ich auch, die 5700(XT) juckt mich gar nicht. Die 10-20% sind einfach zu wenig zur Vega 64.

JVC
2019-07-05, 21:52:33
Ich auch, die 5700(XT) juckt mich gar nicht. Die 10-20% sind einfach zu wenig zur Vega 64.
Ich könnte heulen ...
Ich will VVR am Fernseher :motz:

M.f.G. JVC

Gipsel
2019-07-05, 22:16:20
Ist schon was durchgesickert wie diese Lagreduzierung funktionieren soll?Nachdem, was zuerst dazu zu hören war, hätte ich auf ein hartes prerender limit 0 (statt bisher minimal 1) getippt. Aber nach Interview-Fragen dazu wird das wohl mit treiberseitigem Frame Pacing kombiniert um sozusagen effektiv 0,2 Frames oder so prerender zu haben, damit die durchschnittliche Framerate nicht ganz so leidet.

w0mbat
2019-07-05, 23:00:58
Also ich glaub noch ned so recht an eine Preissenkung. Für uns Kunden wäre es gut, aber ob das notwendig.

Mal sehen was offizielle Reviews dazu sagen und dann sieht man es ja :)
Es ist offiziell: https://old.reddit.com/r/Amd/comments/c9l5es/updated_pricing_for_amd_radeon_rx_5700_series/
https://i.redd.it/jax63x74tj831.png

Mr.Scott
2019-07-05, 23:09:12
Lol... Mit etwas glück gibts wenigstens für einen Tag nen Preisrutsch bei der Vega56. Dann ist sie meine.

Ravenhearth
2019-07-05, 23:11:08
Die Vega 56 ist doch schon günstig genug, da gibts keinen Grund den Preis noch weiter zu reduzieren

DrFreaK666
2019-07-05, 23:42:31
Die Vega56 hat natürlich die bessere Preis Leistung, die Vega 56 ist aber halt keine WQHD Karte...

Danke für die Info. Werde in Zukunft in 1080p zocken

x-force
2019-07-05, 23:49:20
man sollte sich auch bewusst sein, daß eine karte nur eine einzige auflösung berechnen kann.
das macht sie unabhängig vom detailgrad des spieles und auch immer in der geschwindigkeit, die man selbst für richtig hält.
zu beachten ist auch, daß die karte das bis in alle ewigkeiten so macht. wer jetzt vega 56 kauft, spielt auch in 10 jahren damit noch auf 1080p max details mit 144fps!

und pauschalisierungen helfen grundsätzlich überall und immer ;D

Benutzername
2019-07-06, 12:29:08
Es ist offiziell: https://old.reddit.com/r/Amd/comments/c9l5es/updated_pricing_for_amd_radeon_rx_5700_series/
https://i.redd.it/jax63x74tj831.png



rockpapershotgun war so nett die Preise rauszusuchen:

The new AMD Navi prices are as follows:


AMD Radeon RX 5700: Originally $379, now $349
AMD Radeon RX 5700 XT: Originally $449, now $399
AMD Radeon RX 5700 XT 50th Anniversary Edition: Originally $499, now $449

(...)
Take a look at Nvidia’s respective US RRP prices, however, and you’ll find they’re now quite a bit more expensive:


Nvidia GeForce RTX 2060: $349
Nvidia GeForce RTX 2060 Super: $399
Nvidia GeForce RTX 2070: $499
Nvidia GeForce RTX 2070 Super: $499


https://www.rockpapershotgun.com/2019/07/05/amd-navi-rx5700-rx5700xt-price-cut/

Linmoum
2019-07-06, 13:42:53
In Euro 369€/419€, also wie erwartet.

https://www.alternate.de//product/1558141
https://www.alternate.de/product/1558134

Sind auch beide auf Lager, also wer bestellen will. :D

Zergra
2019-07-06, 13:46:59
Also bei MF dann jeweils 10-20€ billiger wie immer ?

Linmoum
2019-07-06, 13:48:28
Ich bezweifle, dass Mindfactory anfangs die UVP unterbieten wird.

w0mbat
2019-07-06, 14:21:04
Werden sie bestimmt, halt 418,99€, damit sie bei Geizhals vorne sind ;)

uweskw
2019-07-06, 15:02:09
Wenn die XT schon von Haus aus mit 1905 boosted wird mit OC wohl nicht mehr viel zu holen sein....




BezeichnungAMD Radeon RX 5700 XT
GPU KlasseAMD Radeon RX
Taktfrequenz1605 MHz
GPU Boost-Takt1905 MHz
Taktfrequenz (Gaming)1755 MHz
greetz
US

mironicus
2019-07-06, 15:06:37
Untervolten und einen konstanten Boost genießen. :)

Linmoum
2019-07-06, 15:09:34
Wenn die XT schon von Haus aus mit 1905 boosted wird mit OC wohl nicht mehr viel zu holen sein....
Warum nicht? Bei einer VII sind auch 2+GHz drin und hat 'nen offiziellen Boost von 1.8GHz.

Davon ab wird man die 1905MHz auch selten (wenn überhaupt?) in Spielen sehen, dafür gibt's ja den Game Clock.

dargo
2019-07-06, 15:14:13
Wenn die XT schon von Haus aus mit 1905 boosted wird mit OC wohl nicht mehr viel zu holen sein....

Woher willst du schon wissen wie hoch die boostet? Meine Vega hat einen max. Boosttakt von 1750Mhz, dennoch sehe ich davon nichts in Games.

uweskw
2019-07-06, 15:19:21
Untervolten und einen konstanten Boost genießen. :)

Ich wollte aufrüsten wenn ich die doppelte Performance meiner 980Ti@1350MHz unter 500,00€ bekomme

Da muss eine 5700XT sich aber schon recht gut OC lassen
Die Boostwerte der 570XT kommen aus der Beschreibung bei Alternate
https://www.alternate.de/product/1558134

greetz
US

dargo
2019-07-06, 15:21:54
Die sind auch korrekt. Das heißt aber noch lange nicht, dass du die unter "normaler" Gaminglast zu Gesicht bekommst. Außer vielleicht in starken CPU-Limits. Gehe eher davon aus, dass das Ding bei etwa 1750Mhz in Games boostet.

Nostalgic
2019-07-06, 15:50:11
Danke für die Info. Werde in Zukunft in 1080p zockenDD meint wahrscheinlich AAA Titel in Ultra. Am besten noch für 144Hz, da wird es tatsächlich arg.

DrFreaK666
2019-07-06, 15:50:44
Ich wollte aufrüsten wenn ich die doppelte Performance meiner 980Ti@1350MHz unter 500,00€ bekomme

Da muss eine 5700XT sich aber schon recht gut OC lassen
Die Boostwerte der 570XT kommen aus der Beschreibung bei Alternate
https://www.alternate.de/product/1558134

greetz
US

Eine 5700XT wird nie im Leben doppelt so schnell wie deine 980ti sein. Höchstens wenn der GeForce der Speicher ausgeht

BlacKi
2019-07-06, 16:05:19
Eine 5700XT wird nie im Leben doppelt so schnell wie deine 980ti sein. Höchstens wenn der GeForce der Speicher ausgeht
schon garnicht bei einer Oced 980ti. die dürfte leistungstechnisch bei knapp einer rtx2060 liegen. also ca 25-30% schneller.

JVC
2019-07-06, 16:05:37
rockpapershotgun war so nett die Preise rauszusuchen:


https://www.rockpapershotgun.com/2019/07/05/amd-navi-rx5700-rx5700xt-price-cut/
So gesehen passt der Preis.

Ändert nix daran, das GPU-Power momentan einfach zu viel kostet :mad:
(am gescheitesten sind noch gebrauchte Karten)

M.f.G. JVC

Daredevil
2019-07-06, 16:24:14
Danke für die Info. Werde in Zukunft in 1080p zocken

DD meint wahrscheinlich AAA Titel in Ultra. Am besten noch für 144Hz, da wird es tatsächlich arg.
https://www.computerbase.de/thema/grafikkarte/rangliste/

Empfehlungen für Full HD:
Wer wirklich sorgenfrei in Full HD spielen und auch noch Reserven für zukünftige Spiele oder ab und zu für die WQHD-Auflösung (mit reduzierten Details) haben möchte, muss etwas mehr ausgeben. Die GeForce GTX 1660 Ti (Test) (6 GB) duelliert sich dort mit der Radeon RX Vega 56 (8 GB)

Empfehlungen für WQHD:
Mindestens zur Radeon RX Vega 56 sollte gegriffen werden, wenn als Auflösung 2.560 × 1.440 genutzt wird.

Eine RX590 +20% ( = Vega56 Blower ) macht aus einer FullHD Karte halt keine richtige WQHD Karte. :whistle:
Wenn du aber Rocket League spielst, ist dir sogar 4k Gewiss.

Irgendwer hat mal die Regel aufgestellt, dass die Grafikkarte gleich viel wie der Monitor kosten soll, dann passt das schon ganz gut.

1080p60hz ~130€ - RX580 130€
1080p144hz ~200€ - Vega56 ~200€
1440p60hz ~300€ - RTX2060 300€
1440p144hz ~400€ - NaviXT/RTX2070 ~400€
4k144hz ~1000€ - RTX2080ti ~1000€

Ist keine schlechte Regel, ums harmonisch zu bekommen.

Ravenhearth
2019-07-06, 16:31:25
Ich wollte aufrüsten wenn ich die doppelte Performance meiner 980Ti@1350MHz unter 500,00€ bekomme

Da muss eine 5700XT sich aber schon recht gut OC lassen
Die Boostwerte der 570XT kommen aus der Beschreibung bei Alternate
https://www.alternate.de/product/1558134

greetz
US
Die doppelte Leistung bekommst du nur mit einer RTX 2080 Ti und die kostet noch doppelt so viel

JVC
2019-07-06, 16:56:17
Die doppelte Leistung bekommst du nur mit einer RTX 2080 Ti und die kostet noch doppelt so viel
Und gebraucht, kostet sie das 4fache ;)

Ich wollte aufrüsten wenn ich die doppelte Performance meiner 980Ti@1350MHz unter 500,00€ bekomme

greetz
US
Kauf ne gute gebrauchte 1080 Ti @2Ghz+ :wink:
Z.b.: https://www.ebay-kleinanzeigen.de/s-anzeige/gigabyte-aorus-geforce-gtx1080ti-grafikkarte/1154123554-225-21302 (499.-)

M.f.G. JVC

uweskw
2019-07-06, 17:13:37
Eine 5700XT wird nie im Leben doppelt so schnell wie deine 980ti sein. Höchstens wenn der GeForce der Speicher ausgeht


Dann muss ich wohl doch noch warten. 5800XT?

Ich hatte gehofft, dass die 5700XT mit gutem OC an die GTX2080 rankommt, und da hatte ich im Kopf dass die ungefähr 2x 980Ti ist...
Schade, dass alte Karten, von denen wohl so mancher aufrüsten möchte, in den Benchs so selten dabei sind.



greetz
US

dildo4u
2019-07-06, 17:17:39
Der Timespy GPU Wert wurde geleakt dort kannste es mit deiner Karte Vergleichen.

https://www.guru3d.com/articles-pages/geforce-rtx-2060-and-2070-super-review,24.html

https://live.staticflickr.com/65535/48213236692_96a8781bf8_b.jpg (https://flic.kr/p/2gsrrxA)AMD-Radeon-RX-5700-TimeSpy (https://flic.kr/p/2gsrrxA) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

JVC
2019-07-06, 18:22:08
Dann muss ich wohl doch noch warten. 5800XT?

greetz
US

980 Ti ~96%
1080 Ti ~153%
Meine 1080Ti bei 250W! ~178% ( https://www.userbenchmark.com/UserRun/8739664 )
2080 Ti ~195%

Quelle: https://gpu.userbenchmark.com/

M.f.G. JVC

Raff
2019-07-06, 20:42:52
Der Timespy GPU Wert wurde geleakt dort kannste es mit deiner Karte Vergleichen.

https://live.staticflickr.com/65535/48213236692_96a8781bf8_b.jpg (https://flic.kr/p/2gsrrxA)AMD-Radeon-RX-5700-TimeSpy (https://flic.kr/p/2gsrrxA) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Wirkt auf mich angesichts aktueller Mittelwerte basierend auf Spielen zu stark Nvidia-lastig. Nun, 3DMark halt.

MfG,
Raff

dildo4u
2019-07-06, 21:48:49
Scheint extrem davon abzuhängen was man Bencht bei Hitman 2(DX12) haut die Reihenfolge hin.


https://www.techpowerup.com/review/nvida-geforce-rtx-2070-super/16.html

Linmoum
2019-07-06, 21:51:12
Nur ist die Reihenfolge latte, weil Navi scheinbar anders (=besser) als bisherige AMD-GPUs "funktioniert".

dildo4u
2019-07-06, 21:55:54
Das stellt Timespy auch da 5700 schneller als vega 64,wenn man 5700 auf V64 Speed bringt sollte sie ca die Hälfte an Saft brauchen.

Spasstiger
2019-07-07, 08:33:56
Schön, dass Konkurrenz nach langer Zeit wieder das Geschäft belebt. RTX 2600 Super vs. RX 5700 XT ist das spannende Duell. Letztere vielleicht jetzt sogar einen Tick günstiger als Erstere.

Mr.Scott
2019-07-07, 10:10:20
Heute Testberichte??????

Gipsel
2019-07-07, 10:16:44
Der Timespy GPU Wert wurde geleakt dort kannste es mit deiner Karte Vergleichen.

https://www.guru3d.com/articles-pages/geforce-rtx-2060-and-2070-super-review,24.html

https://live.staticflickr.com/65535/48213236692_96a8781bf8_b.jpg (https://flic.kr/p/2gsrrxA)AMD-Radeon-RX-5700-TimeSpy (https://flic.kr/p/2gsrrxA) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
FireStrike war auch im Leak (und ein paar Spiele) und da liegt die 5700XT sogar vor der 2070 Super (und die 5700 vor der 2060 Super). Nur mal wegen Raffs "3DMark halt" und daß das nicht unbedingt sehr representativ sein muß:

https://5images.cgames.de/images/gamestar/279/amd-radeon-rx-5700-3dmark-fire-strike-dx11-gpu-score-bildquelle-videocardz_6072164.jpg

TheGood
2019-07-07, 10:34:50
EGal ob Nvidia jetzt JEbaited wurde oder AMD kalt erwischt. Fuer uns Kunden kann nichts besseres passieren und darüber sich zu streiten ist schlichtweg irrsinnig und die Leute sollten sich mal Gedanken über Ihre Ideologie machen und diese etwas "überarbeiten" :)

Ich bin gespannt auf die ersten Testberichte (15.00 Uhr???) und die 5700 non XT sieht echt spannend aus.

Mr.Scott
2019-07-07, 10:43:25
EGal ob Nvidia jetzt JEbaited wurde oder AMD kalt erwischt. Fuer uns Kunden kann nichts besseres passieren und darüber sich zu streiten ist schlichtweg irrsinnig und die Leute sollten sich mal Gedanken über Ihre Ideologie machen und diese etwas "überarbeiten" :)

Ich bin gespannt auf die ersten Testberichte (15.00 Uhr???) und die 5700 non XT sieht echt spannend aus.

15:00? Wie immer?

uweskw
2019-07-07, 11:00:37
15:00? Wie immer?


gab es das schon mal? Sonntag 15:00?

Goser
2019-07-07, 11:00:53
Bin gespannt wie laut die AMD Karten sind. Ansonsten heißt es wieder warten auf die customs.

Nostalgic
2019-07-07, 11:03:40
Ich gehöre ja nicht zu den sogenannten Early Adoptern aber wer kauf sich den ernsthaft also privat diese lauten und schlecht kühlenden Referenz-Blower? :confused:

Raff
2019-07-07, 11:10:29
gab es das schon mal? Sonntag 15:00?

Das Datum ist ja schon ewig bekannt, aber es ist definitiv neu und ein Graus für jeden, der "Werktage" ernst nimmt. Aber was tut man nicht alles für die Leserschaft. :D

MfG,
Raff

mironicus
2019-07-07, 11:19:36
@raff

Aber die Arbeit endet damit nicht. Der Spaß fängt dann erst an, wenn man erst mal forscht und ausprobiert um das maximale aus den GPUs/CPUs herauszuholen.

pilzsammler2002
2019-07-07, 11:21:02
Ich gehöre ja nicht zu den sogenannten Early Adoptern aber wer kauf sich den ernsthaft also privat diese lauten und schlecht kühlenden Referenz-Blower? :confused:
Selbst ohne Wasserkühlung haben blower Vorteile... Z.b. in nem sfx/itx sind sie bedeutend besser für das Innenleben

mironicus
2019-07-07, 11:23:02
Die Überschrift bei Computerbase für den Wochenrückblick finde ich witzig: "Noch ist alles Super für Nvidia" - als Anspielung auf den Fokus den AMD ab heute und die folgenden Tage/Wochen erhält. :)

DrFreaK666
2019-07-07, 11:28:16
https://www.computerbase.de/thema/grafikkarte/rangliste/

Empfehlungen für Full HD:
Wer wirklich sorgenfrei in Full HD spielen und auch noch Reserven für zukünftige Spiele oder ab und zu für die WQHD-Auflösung (mit reduzierten Details) haben möchte, muss etwas mehr ausgeben. Die GeForce GTX 1660 Ti (Test) (6 GB) duelliert sich dort mit der Radeon RX Vega 56 (8 GB)

Empfehlungen für WQHD:
Mindestens zur Radeon RX Vega 56 sollte gegriffen werden, wenn als Auflösung 2.560 × 1.440 genutzt wird.

Eine RX590 +20% ( = Vega56 Blower ) macht aus einer FullHD Karte halt keine richtige WQHD Karte. :whistle:
Wenn du aber Rocket League spielst, ist dir sogar 4k Gewiss.

Irgendwer hat mal die Regel aufgestellt, dass die Grafikkarte gleich viel wie der Monitor kosten soll, dann passt das schon ganz gut.

1080p60hz ~130€ - RX580 130€
1080p144hz ~200€ - Vega56 ~200€
1440p60hz ~300€ - RTX2060 300€
1440p144hz ~400€ - NaviXT/RTX2070 ~400€
4k144hz ~1000€ - RTX2080ti ~1000€

Ist keine schlechte Regel, ums harmonisch zu bekommen.

Mir egal was Computerbase oder sonst wer schreibt. Für meine Games (Grim Dawn, Shadow of War usw) reicht meine Vega56 in 1440p aus. Ich bin kein Konsolero und kann Regler betätigen.
Bei mir bremst auch eher die CPU ab, auch bei 1440p (an manchen Stellen in Grimm Dawn macht es keinen Unterschied ob 720p oder 1440p Performance-mäßig).
Außerdem spiele ich an einem 55"-OLED-TV, und soviel Geld gebe ich bestimmt nicht für eine Grafikkarte aus ;)

Daredevil
2019-07-07, 11:33:53
Ok.

Mr.Scott
2019-07-07, 11:58:57
Ab morgen Urlaub!!
Hoffe man kann die Super oder Navi Zeitnah bestellenkann und ankommen müssen die Dinger ja auch noch. :tongue:

Insgeheim spekuliere ich auch noch auf einen kurzzeitigen Preisrutsch der Vorgänger Karten :biggrin:

Raff
2019-07-07, 12:03:44
Den gibt's doch schon: Preissenkungen bei Nvidia: Custom-Karten der RTX 2070 und 2080 werden günstiger (https://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/News/nach-Super-werden-alte-Karten-guenstiger-1293862/)

Nvidia ist gerade sehr reaktiv. Das spricht für eine Bedrohung. ;)

MfG,
Raff

Mr.Scott
2019-07-07, 12:17:56
CB titelt auch:

"Noch ist alles Super für Nvidia"

Mir eigentlich egal ob NV oder Navi in meinen neuen Rechner wandert.
Die bessere Preis Leistung gewinnt!

BoMbY
2019-07-07, 13:55:57
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+5700+XT.html

https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+5700.html

horn 12
2019-07-07, 14:08:02
Weiteres Game:

https://forums.guru3d.com/threads/rx-vega-owners-thread-tests-mods-bios-tweaks-cont.426001/page-15


https://www.mindfactory.de/Highlights/AMD_Radeon_RX_5700_Grafikkarten/Badge/163x80_badge_AMD_RX_5700_Series_Launch

-----> Beworben als 1440 Gaming GPU

Nun gut, da wird die Seven schneller bleiben,- inklusive dem Treiber Update.

Digidi
2019-07-07, 14:29:42
Ich bin mal auf Benchmarks von Detroit become Human etc gespannt wenn das im Epic store auftaucht. Das kommmt ja von PS4 und wurde daraufhin ja auch optimiert. Havy Rain schlägt ja in die selbe Kerbe.

Der Sandmann
2019-07-07, 15:20:09
Die Delle sieht aber schon scheisse aus.

Als ich das PCGH Video gesehen habe dachte ich mir was die mit der Karte gemacht haben.

Klärt er dann ja aber auf. "Sieht ersteinmal kaputt aus. ist sie aber nicht!" :)

MadPenguin
2019-07-07, 15:22:53
Ich finde sie sehr geil :)

Achim_Anders
2019-07-07, 15:25:58
Krass, viel besser als ich die letzten 6 Monate erwartete! Die Architektur scheint gutes Potenzial zu haben und ist jetzt stand 2019 mit Nvidia auf Augenhöhe.
Imo sind beide trotzdem viel zu teuer...

mboeller
2019-07-07, 15:26:34
-----> Beworben als 1440 Gaming GPU

Nun gut, da wird die Seven schneller bleiben,- inklusive dem Treiber Update.

Ähh... 3% schneller ist nicht wirklich "vorne bleiben". Zumindest bei Igor

https://www.tomshw.de/2019/07/07/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/14/

Im Titel verspricht er auch 2.1GHz unter Wasser, hab aber im Text nichts gefunden.

Ach ja, RIS scheint wesentlich besser zu funktionieren als DLSS (Seite 1)

Die Nvidia-Karten sind bei den fps/watt zwar noch ca. 10% besser (XT) aber wenn man sich anschaut wie die VII und die Vega64 dagegen aussehen.... WOW! Da hat AMD wirklich sehr viel richtig gemacht.

dargo
2019-07-07, 15:34:34
Stromverbrauch sogar unter den offiziellen AMD-Angaben. :up:

5700XT = 210W
5700 = 176W

Die Customs können kommen. =)

Edit:
Das ist auch ein recht interessanter Vergleich.

AMD Navi vs. Nvidia Turing

Da staunt man nicht schlecht: Obwohl Nvidia mit Maxwell und Turing große Leistungssprünge pro Shadereinheit gemacht hat, schafft es AMD mit RDNA im Durchschnitt gar ein Prozent besser abzuschneiden – der Satz ist dementsprechend riesig und beeindruckend.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/

Linmoum
2019-07-07, 15:35:35
Igor hat 225W bzw. 185W gemessen.

https://www.tomshw.de/2019/07/07/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/11/

Dino-Fossil
2019-07-07, 15:39:47
Die Nvidia-Karten sind bei den fps/watt zwar noch ca. 10% besser (XT) aber wenn man sich anschaut wie die VII und die Vega64 dagegen aussehen.... WOW! Da hat AMD wirklich sehr viel richtig gemacht.

Die nVidianer werden sich natürlich (nicht völlig zu Unrecht) darüber auslassen, dass nVidia die Effizienz ja schon auf dem ggü 7nm alten Prozess erreicht, aber man sieht im Vergleich zur VII, dass AMD mit der neuen Architektur eben doch einen ordentlichen Sprung hingelegt hat.
Das lässt hoffen, dass es ihnen in Zukunft mit RDNA gelingen wird, noch weitere Fortschritte zu machen.

Insgesamt schneiden die Karten etwas besser ab, als ich gedacht hätte, sie liegen aber momentan außerhalb meiner Interessenlage. Ich hätte es eigentlich lieber eine Nummer kleiner - etwas weniger Verbrauch, etwas günstiger.
Mal abwarten, was da noch kommt.

MadPenguin
2019-07-07, 15:41:37
Der Launch Preis blieb bei AMD Karten nie besonders lange hoch :) Also einfach ein wenig abwarten und bei der 5700 handoptimieren (sollte das gehen)

dargo
2019-07-07, 15:48:17
Igor hat 225W bzw. 185W gemessen.

https://www.tomshw.de/2019/07/07/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/11/
Vorsicht bei solchen Quervergleichen! Afaik misst Igor nur ein Spiel durch. Oder hat sich das schon geändert? CB hat immerhin 3 Games gemessen.

Niedrigster Verbrauch bei Metro Exodus.
5700XT = 204W
5700 = 169W

Höchster Verbrauch bei BF5.
5700XT = 212W
5700 = 182W

Dann kann es durchaus noch leichte Serienstreuung geben.

Dino-Fossil
2019-07-07, 15:49:17
Ja, wenn nicht wieder ein Mining-Boom kommt ist das eine Option. Aber ich habe keine Eile, meine 480 läuft bei dem was ich aktuell so zocke noch ausreichend gut. Ist eher die Lust auf was Neues, als eine echte Notwendigkeit...

BoMbY
2019-07-07, 16:24:37
Hab mir aus Spaß mal die 50 Jahre Edition bestellt. Lohnt den Aufpreis zwar nicht, aber die sollte auf jeden Fall die besseren Dies haben. Mal schauen ob es irgendwann bessere Kühlungsoptionen zur Nachrüstung gibt, oder ob das hinterher auf eBay landen muss ... :biggrin:

Die Links auf https://www.amd.com/en/where-to-buy/promotions funktionieren übrigens nur ohne AdBlock. Und der Preis wird erst ohne Märchensteuer angezeigt.

dargo
2019-07-07, 16:27:32
Die Links auf https://www.amd.com/en/where-to-buy/promotions funktionieren übrigens nur ohne AdBlock.
Geht hier auch mit.

BoMbY
2019-07-07, 16:32:42
Geht hier auch mit.

Bei mir zeigt der mit uBlock an nicht mal die 50th-Version an, und keinen von den "add to cart" links.

[MK2]Mythos
2019-07-07, 16:50:02
Hab mir aus Spaß mal die 50 Jahre Edition bestellt. Lohnt den Aufpreis zwar nicht, aber die sollte auf jeden Fall die besseren Dies haben. Mal schauen ob es irgendwann bessere Kühlungsoptionen zur Nachrüstung gibt, oder ob das hinterher auf eBay landen muss ... :biggrin:

Die Links auf https://www.amd.com/en/where-to-buy/promotions funktionieren übrigens nur ohne AdBlock. Und der Preis wird erst ohne Märchensteuer angezeigt.
Ich hab mir auch eine bestellt, allerdings ohne sie benutzen zu wollen. Die geht dann demnächst zu ebay oder hier in den Marktplatz. :D

BoMbY
2019-07-07, 17:00:39
Okay:

NAVI10_A0:gfx101F
NAVI10:gfx1010
NAVI14:gfx1012

HOT
2019-07-07, 18:01:21
Ne 80 CU-Karte mit EUV-Prozess und HBM wär sicherlich in weniger als 300W machbar. Die wär dann mindestens 30% vor der 2080ti.

Gebrechlichkeit
2019-07-07, 19:52:11
Mythos;12041892']Ich hab mir auch eine bestellt, allerdings ohne sie benutzen zu wollen. Die geht dann demnächst zu ebay oder hier in den Marktplatz. :D

Ya got some huge ...
https://s3.gifyu.com/images/148944e9d4634c001033.jpg

Digidi
2019-07-07, 19:57:54
Auch noch mal zur Info:
Carsten von C't hat neue Infos zum Frontend:

Since NDA is lifted:
Polygon throughput with triangle strips has improved considerably compared to Vega - the more culling, the bigger the difference. Also, geometry performance with triangle lists has beend improved.

Fully drawn geometry is now faster than on GeForce and about 33% faster than on Radeon VII, fully culled geometry is still faster on GeForce still, especially with triangle strips.


https://forum.beyond3d.com/threads/benchmark-tool-like-beyond3d-suite.61013/

crux2005
2019-07-07, 20:58:35
Edit:
Das ist auch ein recht interessanter Vergleich.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/

Endlich wieder eine kompetitive uArch von AMD. :up:

Jetzt nur noch mehr CUs auf einer Karte und ich bin zufrieden.

Grendizer
2019-07-07, 21:12:19
Endlich wieder eine kompetitive uArch von AMD. :up:

Jetzt nur noch mehr CUs auf einer Karte und ich bin zufrieden.


Spricht eigentlich was gegen Navi mit 64 CUs ? Müsse ja nicht gleich 80 sein

Ravenhearth
2019-07-07, 21:15:37
Ist die Frage ob das reicht. Mit 64 CUs könnte man es ausgehend von der 5700XT mit ach und krach mit der RTX 2080 Ti aufnehmen. Ob das 2020 genug ist?

Vielleicht bringt Nvidia nächstes Jahr eine RTX 3080 raus, die die RTX 2080 Ti etwas überflügelt, analog zu GTX 1080 Ti vs. RTX 2080. Da können mehr CUs bei Navi21 nicht schaden. Wobei 72 auch eine Option wären.

Digidi
2019-07-07, 21:18:29
Ist die Frage ob das reicht. Mit 64 CUs könnte man es ausgehend von der 5700XT mit ach und krach mit der RTX 2080 Ti aufnehmen. Ob das 2020 genug ist?

Das wissen wir doch noch garnicht. AMD hat großen wert auf Skalibarkeit gewählt vielleicht langt es auch schon mit 60 Cus im Frontend sind sie gut 33% schneller im Rasterizer und das obwohl sie nur 4 haben und Nvidia 6

Grendizer
2019-07-07, 21:19:27
Ist die Frage ob das reicht. Mit 64 CUs könnte man es ausgehend von der 5700XT mit ach und krach mit der RTX 2080 Ti aufnehmen. Ob das 2020 genug ist?

Anfang 2020 für 599 Euro würde mir das gut passen :biggrin: aber du hast vermutlich Recht, wenn dann nVidia mit Samsungs 7nm EUV um die Kurve kommt, wird das definitiv zuwenig sein

Ravenhearth
2019-07-07, 21:23:35
Das wissen wir doch noch garnicht. AMD hat großen wert auf Skalibarkeit gewählt vielleicht langt es auch schon mit 60 Cus im Frontend sind sie gut 33% schneller im Rasterizer und das obwohl sie nur 4 haben und Nvidia 6
Du glaubst, mit 50% mehr Einheiten als bei der 5700XT wäre die Karte 60% schneller?

Digidi
2019-07-07, 21:31:02
Du glaubst, mit 50% mehr Einheiten als bei der 5700XT wäre die Karte 60% schneller?

Hä? Amd fehlen bei den schlechtesten Spielen 30% auf die 2080ti. Wenn Sie 50% mehr einheiten haben und davon am Ende dann 40% raushohlen kommt mehr raus als bei Nvidia.

Und wenn Nvidia dann mit der 3080ti kommt die dann 6000 Shader hat und bei der Verdopplung die Skallierung noch schlechter ist dann reichen AMD vielleicht 5000 Shader.

Blediator16
2019-07-07, 21:31:25
Die nVidianer werden sich natürlich (nicht völlig zu Unrecht) darüber auslassen, dass nVidia die Effizienz ja schon auf dem ggü 7nm alten Prozess erreicht, aber man sieht im Vergleich zur VII, dass AMD mit der neuen Architektur eben doch einen ordentlichen Sprung hingelegt hat.
Das lässt hoffen, dass es ihnen in Zukunft mit RDNA gelingen wird, noch weitere Fortschritte zu machen.

Insgesamt schneiden die Karten etwas besser ab, als ich gedacht hätte, sie liegen aber momentan außerhalb meiner Interessenlage. Ich hätte es eigentlich lieber eine Nummer kleiner - etwas weniger Verbrauch, etwas günstiger.
Mal abwarten, was da noch kommt.

Das 7nm Argument zieht auch nicht. Wen juckt es wie die GPU gebaut wird.
Wenn Nvidia eine 7nm consumer gpu auf dem Markt hat, dann kann man gerne den Mund auf machen haben sie aber nicht. Wenn die erste GPU von Samsung in 7nm kommen wird, dann kann man sich ausmalen, wann das sein wird und ob AMD bis dahin sich in den Tiefschlaf legt :freak:

just4FunTA
2019-07-07, 21:32:26
Warum nur kein HDMI 2.1?

Der_Korken
2019-07-07, 21:33:48
Die Frage ist eher, wieviel AMD überhaupt noch in 300W unterbringen kann. Bei der ganzen Effizienzdiskussion wird der Verbrauch immer runtergespielt, von wegen ist doch egal, das bisschen Strom kostet nix, etc. Was aber vom technischen Standpunkt aus gerne vergessen wird, ist, dass die Effizienz der limitierende Faktor fürs Highend ist. Ein 80CU-Chip würde - wenn er mit denselben Taktraten läuft - erstmal 450W verbrauchen. So eine Karte wäre schlicht nicht verkaufbar. Man kann jetzt vielleicht mit HBM noch 50W sparen und die GPU auf 1500Mhz untertakten und undervolten, dann landet das Teil gerade so unter 300W. Dadurch dass man aber 15% Takt geopfert hat und mehr CUs nie 1:1 skalieren, hat man trotz doppelt so großen (und teuren) Chip vielleicht nur 60% rausgeholt. Würde die 5700XT von sich aus nur 150W verbrauchen, hätte man das Teil einfach verdoppeln können und bräuchte nichtmal HBM, um <300W zu bleiben.

Ich würde eher darauf tippen, dass AMD an der Effizienz feilt und die CUs vielleicht noch etwas aufbohrt. Nvidia kann mit Turing INT+FP gleichzeitig, was eine Verdopplung der theoretischen Rohleistung entspricht. Sowas sehen wir vielleicht auch bei AMD und die "IPC" pro CPU steigt nochmal um 10-15% für relativ wenig Aufwand.

HOT
2019-07-07, 21:42:59
Das wird kein Problem sein. Wir haben es ja mit 7nm EUV zu tun und man wird das einfach näher am Sweetspot betreiben. Der HBM tut sein übriges.
Das hat ja auch schonmal geklappt mit Fiji vs. Hawaii. Da war das Verhältnis aber krasser. Ein 80CUs Chip hätte auch immer noch < 500mm². Das liegt alles noch im Rahmen.

Ravenhearth
2019-07-07, 22:05:03
Hä? Amd fehlen bei den schlechtesten Spielen 30% auf die 2080ti. Wenn Sie 50% mehr einheiten haben und davon am Ende dann 40% raushohlen kommt mehr raus als bei Nvidia.

Und wenn Nvidia dann mit der 3080ti kommt die dann 6000 Shader hat und bei der Verdopplung die Skallierung noch schlechter ist dann reichen AMD vielleicht 5000 Shader.
30%? Bei CB ist die RTX 2080 Ti 54% schneller in 4K.

Digidi
2019-07-07, 22:14:14
30%? Bei CB ist die RTX 2080 Ti 54% schneller in 4K.


Ja dann schau mal an wo sie abkackt. Zudem sind die meisten games noch nicht mal auf RDNA optimiert. Dafür das RDNA - GCN im gegensatz zu Turing - Pascal ein radikaler bruch ist, stehen die Karten erst mal nicht schlecht da.

Ravenhearth
2019-07-07, 22:20:12
Ja dann schau mal an wo sie abkackt. Zudem sind die meisten games noch nicht mal auf RDNA optimiert. Dafür das RDNA - GCN im gegensatz zu Turing - Pascal ein radikaler bruch ist, stehen die Karten erst mal nicht schlecht da.
54% ist der Durchschnitt, da ist das "Abkacken" in manchen Spielen mit eingerechnet. Oder was meinst du?

Ich hab ja auch nicht gesagt, die Karten stünden schlecht dar. Aber da die 5700 schon ordentlich performen, vermute ich mal, dass durch Optimierungen gar nicht mal so viel herauszuholen ist.

Digidi
2019-07-07, 22:33:52
Sie performen nur deshalb sehr gut weil Sie gut sind. Ich habe ja schon einen Hinweis gegeben mit den 33% besser Rasterizer Leistung als Nvidia und das trozt 2 weniger Rasterizer.

Die Karte ist für 4k nicht gemacht. Da gibt es noch einige Bottelnecks. So sinkt die Leistung (auch bei Nvidia 2070 - 2080ti) rapide mit der Auflösung wenn man es vergleicht. Deshalb können wir noch keine Schlüsse ziehen. Wie gesagt das hängt dann stark von der Skalierung ab.

Daredevil
2019-07-07, 22:40:19
Ne 80 CU-Karte mit EUV-Prozess und HBM wär sicherlich in weniger als 300W machbar. Die wär dann mindestens 30% vor der 2080ti.
Die 5700XT ist mit ihrem RAM Ausbau und dem Takt aktuell bei 5,63w pro CU.
Bei 80CU in 7nm und gleichem Takt wären das dann 450w.
150w müsste man also einsparen durch bessere Fertigung, deutlich niedrigerem Takt und den ( vermutlich ) höheren RAM Ausbau muss man auch noch mit einplanen. ( Selbst mit HBM )
40CU sind zwar weniger als bei Vega, die sind dafür aber ich fetter geworden, zumindest wenn man sie in Relation zum Verbrauch sieht.

Weil wenn wir uns mal völlig nichtssagende Watt/Cu anschauen:
Vega56, 56CU, 210w - 1CU/3,75w
5700, 36CU, 180w - 1CU/5,00w
5700XT, 40CU, 225w - 1CU/5,63w
Vega64, 64CU, 295w - 1CU/4,60w
RVII, 60CU, 280w - 1CU/4,67w ( Doppelter Speicher als bei VegaI, deswegen nicht sehr gut vergleichbar. )

Sollen se halt ne 60CU version auf den Markt schmeißen, dann passt das erstmal schon für WQHD Max und vielen 4k Spielen.

dargo
2019-07-07, 22:51:36
Ne 80 CU-Karte mit EUV-Prozess und HBM wär sicherlich in weniger als 300W machbar. Die wär dann mindestens 30% vor der 2080ti.
Ich fände die riesen Lücke wieder zu groß. Eigentlich müsste noch was dazwischen.

Langlay
2019-07-07, 22:53:46
Die 5700XT ist mit ihrem RAM Ausbau und dem Takt aktuell bei 5,63w pro CU.


Daher wird der Takt einer 64cu oder 80cu einfach niedriger sein. Je nach dem wie wie die Takt/Verbrauchskurve aussieht mehr oder weniger stark.


Extrembeispiel:

Vega56 (56cus) und die RX590(36cu)haben das quasi gleiche Powerlimit. Die Vega ist trotzdem pi mal Daumen 20% schneller.


Deine CU Verbrauchstabelle ist alles schön und gut. Allerdings stellt diese nur einen Schnappschuss dar und lässt keinen Rückschluss auf die Verbrauchkurve zu sondern stellt jeweils nur einen Punkt der Kurve dar.


Alles was sich aus deiner Tabelle ableiten lässt ist das ein deutlich grösser Navichip niedriger getaktet sein muss als die 5700XT, falls die Takt-Verbrauchskurve vergleichbar ist.

maximus_hertus
2019-07-07, 22:55:44
Nahmen wir doch das als Basis:

5700, 36CU, 180w - 1CU/5,00w


Verdoppeln wir mal nach dem Milchmädchenprinzip: 72CUs, 360W.
Gehen wir nun auf 64 CUs runter sind wir bei rund 320W bzw. bei 60 CUs bei "genau" 300W. Bessere Fertigung und Bining erlauben dann 16 statt 8 GB ohne dramatischen Mehrverbrauch.

Damit sollten 30-40% Mehrperformance bei 300W drin sein. Das würde zwar nicht ganz für eine 2080 Ti reichen, aber verdammt nahe kommen. Irgendwo zwischen der kommenden 2080 Super und der 2080 Ti. Verdoppeln wir den Preis der 5700 landen wir bei 700-800 USD. Sagen wir 749 USD für eine 64 CU Navi mit rund 10-15% weniger Performace als die 2080 Ti bei 300W und 16GB. Das wäre doch eine echte Top-Karte.

Navi21 wird ja in 2020 nicht nur die Rohleistung stumpf steigern, sondern wohl auch architektonisch einiges verbessern. Ergo könnte es alleine darüber ein paar % mehr-fps geben, ohne zusätzliche CU bzw. Watt.

Digidi
2019-07-07, 22:59:49
Irgendwo zwischen der kommenden 2080 Super und der 2080 Ti. .

Die Architektur ist neu und noch nicht in Games eingepflegt. Bei den Linux Treibern wurde dies ersichtlich. So viele Änderungen gab es noch nie. Auserdem scheint es probleme mit dem Compiler von AMD zu geben. Da sind noch so viele Baustelllen offen bei Navi.

Grendizer
2019-07-07, 23:01:28
Die Architektur ist neu und noch nicht in Games eingepflegt. Bei den Linux Treibern wurde dies ersichtlich. So viele Änderungen gab es noch nie. Auserdem scheint es probleme mit dem Compiler von AMD zu geben. Da sind noch so viele Baustelllen offen bei Navi.

Naja ... aber der Primitive Shader läuft jetzt wohl immer ..:biggrin: alles andere ist ja Peanuts.

Digidi
2019-07-07, 23:03:36
Naja ... aber der Primitive Shader läuft jetzt wohl immer ..:biggrin: alles andere ist ja Peanuts.

Ich glaube nicht das Primitive Shader on ist sondern etwas anderes implemntiert wurde. Noch immer ist die Culling Rate schlechter als bei Nvidia so wie Carsten das im Beyond 3d gesagt hat.

Bei Theoretischen 17 polygonen/clock müsste AMD hier weit führen. Außer man muss es wieder aktivieren.

Locuza
2019-07-07, 23:06:34
Ja dann schau mal an wo sie abkackt. Zudem sind die meisten games noch nicht mal auf RDNA optimiert. Dafür das RDNA - GCN im gegensatz zu Turing - Pascal ein radikaler bruch ist, stehen die Karten erst mal nicht schlecht da.
Ohne das man die Dinge völlig 1:1 vergleichen könnte, aber man kann auch argumentieren, dass Turing im Vergleich zu Pascal mehr verändert hat, als RDNA zu GCN.
Neue ISA, ebenfalls neue SIMD-Units, auch eine veränderte Cache-Hierarchie, etliche neue Features, Tensor Cores, Raytracing-Cores, Independent-Thread- Scheduling, Variable Rate Shading, Mesh-Shader, neben all den anderem Kram.

Grendizer
2019-07-07, 23:06:55
Ich glaube nicht das Primitive Shader on ist sondern etwas anderes implemntiert wurde. Noch immer ist die Culling Rate schlechter als bei Nvidia so wie Carsten das im Beyond 3d gesagt hat.

Bei Theoretischen 17 polygonen/clock müsste AMD hier weit führen. Außer man muss es wieder aktivieren.


Ok ... hatte bei Golem gelesen, das er jetzt wohl always on wäre

https://www.golem.de/news/radeon-rx-5700-xt-im-test-amds-guenstige-navi-karten-sind-auch-super-1907-141812-3.html

Eine mit Vega eingeführte, aber nie verwendete Neuerung - der Primitive Shader - wurde bei Navi laut AMD nun so umgesetzt, dass er aktiv ist: Der Primitive Shader verwirft verdeckte Dreiecke schon früher (Culling), was die Leistung unter Direct3D und Vulkan steigert.

Daredevil
2019-07-07, 23:29:24
Mich würde mal interessieren, wie schnell wohl Navi in ner APU wäre.
Richtig Wums wär da bestimmt hinter :)
1050ti Leistung so rum?

Ravenhearth
2019-07-07, 23:31:36
Die GTX 1050 Ti hat 112 GB/s Bandbreite. Wo soll die bei einer APU herkommen? Navi scheint zudem noch nicht so super effizient mit Bandbreite umzugehen.

Grendizer
2019-07-07, 23:33:58
Und selbst wenn ... es müßte schon 1060 Leistung für Full HD Geräte rauskommen, damit es endlich richtig interessant wäre :biggrin:

w0mbat
2019-07-07, 23:35:50
Das werden wir wohl erst mit DDR5 sehen, oder mit nem HBM cache.

Dino-Fossil
2019-07-07, 23:42:10
Die 5700XT ist mit ihrem RAM Ausbau und dem Takt aktuell bei 5,63w pro CU.
Bei 80CU in 7nm und gleichem Takt wären das dann 450w.
150w müsste man also einsparen durch bessere Fertigung, deutlich niedrigerem Takt und den ( vermutlich ) höheren RAM Ausbau muss man auch noch mit einplanen. ( Selbst mit HBM )

Wieviel niedriger der Takt sein muss ist eigentlich nicht ganz klar - immerhin hat AMD eine gewisse Tradition ihre GPU-Chips über dem sweet-spot zu betreiben.
Evtl. könnten schon recht zahme Taktsenkungen einiges ausmachen.
Gibt's da eigentlich schon irgendwelche Tests zu?

Und außerdem wird ja nicht der komplette Chip stupide verdoppelt, nur weil man hypothetisch die Anzahl an CUs verdoppelt (falls es so kommt) - einige Bereiche bleiben gleich (oder wachsen nicht unbedingt um den Faktor 2), entsprechend wird auch der Verbrauch nicht einfach doppelt so hoch.

Von daher sehe ich durchaus Potential für ein ordentliches Leistungsplus bei einem großen Navi mit einer TDP von 300W max.

MSABK
2019-07-07, 23:42:24
Mich würde mal interessieren, wie schnell wohl Navi in ner APU wäre.
Richtig Wums wär da bestimmt hinter :)
1050ti Leistung so rum?

Die aktuellen APUs wären glaube ich mit 3733er Ram auch schon sehr schnell. Ohne HBM im mobilen Bereich sehe ich keine Chance auf eine weitere Steigerung der Leistung. Oder der Zwischenschritt mit 70MB und mehr L4 Cache wie es Intel hat.

BoMbY
2019-07-08, 01:05:03
Warum nur kein HDMI 2.1?

Weil Navi10 fertig war bevor HDMI 2.1 finalisiert und Silizium gegossen werden konnte?

just4FunTA
2019-07-08, 01:34:11
Na super dann wohl bis nächstes Jahr warten bis wir endlich Grakas mit HDMI2.1 kriegen. :/

gmb
2019-07-08, 02:55:37
Die aktuellen APUs wären glaube ich mit 3733er Ram auch schon sehr schnell. Ohne HBM im mobilen Bereich sehe ich keine Chance auf eine weitere Steigerung der Leistung. Oder der Zwischenschritt mit 70MB und mehr L4 Cache wie es Intel hat.


Für den mobilen Bereich gibt es Potenzial bis LPDDR5-6400.

HOT
2019-07-08, 09:14:23
Na super dann wohl bis nächstes Jahr warten bis wir endlich Grakas mit HDMI2.1 kriegen. :/
Jo und die werden direkt DP2.0 mitbringen, das ist auch sinnvoller.

basix
2019-07-08, 09:23:51
Ohne das man die Dinge völlig 1:1 vergleichen könnte, aber man kann auch argumentieren, dass Turing im Vergleich zu Pascal mehr verändert hat, als RDNA zu GCN.
Neue ISA, ebenfalls neue SIMD-Units, auch eine veränderte Cache-Hierarchie, etliche neue Features, Tensor Cores, Raytracing-Cores, Independent-Thread- Scheduling, Variable Rate Shading, Mesh-Shader, neben all den anderem Kram.

Trotzdem ist es sehr erstaunlich, das RDNA in Spielen die gleiche Perf/FLOPs hat wie Turing. Das hätte ich definitiv nicht erwartet. Das deutet eine sehr effiziente Architektur an. Ich vermute, dass weiterführende Features wie AI-Beschleunigung und Raytracing dann mit RDNA 2 kommen werden. Das letztere davon ist eigentlich sicher, das erstere hatte AMD mal angedeutet. Wenn Ampere als (gerüchteweise) "Turing Shrink" keine neuen Features etc. einführt, wäre RDNA 2 dann in Schlagweite des Turing Feature-Sets. Noch etwas mehr auf die Effizienzschippe draufgelegt und AMD / Nvidia hätten ähnlich starke Produkte auf dem Markt. Uns als Kunden würde das noch mehr freuen, als Navi es jetzt schon tut.

Dural
2019-07-08, 10:06:33
Naja könnte schlimmer sein, gibt schon einige Verbesserungen in NAVI.

Der Abstand ist wenn man 7nm raus rechnet aber nach wie vor sehr gross. Ich würde jetzt mal behaupten das der Turing Nachfolger 50% effizienter wird, und wenn das eintrifft sieht das für Navi sehr düster aus. Da haben wir nämlich wider das gleiche Verhältnis wie früher.

Das was mich am meisten überrascht ist die Grösse von Navi, die GPU ist viel zu fett für ganz ohne RT und Tensor Cores.

Der Preis für ein 250mm2 Chip ist eigentlich auch der Hammer, da ist Turing mit seinen Grossen Die ja spot billig ;)

dargo
2019-07-08, 10:12:55
Navi muss ja richtig gut sein wenn schon mit Produkten von NV die Ende 2020 kommen spekuliert wird. ;D

gmb
2019-07-08, 10:39:21
Jo und die werden direkt DP2.0 mitbringen, das ist auch sinnvoller.


Dann hätte Navi auch schon HDMI 2.0 haben müssen.


HDMI 2.1 28.11.2017
DisplayPort 2.0 26. Juni 2019

tm0975
2019-07-08, 10:46:39
Gibt es schon Anhaltspunkte, wann die Custom Designs von Navi lieferbar sein werden?

HOT
2019-07-08, 11:03:26
Dann hätte Navi auch schon HDMI 2.0 haben müssen.


HDMI 2.1 28.11.2017
DisplayPort 2.0 26. Juni 2019
Navi hat HDMI 2.0 ;D.
Ich weiss was gemeint ist und nein, die werden sich gesagt haben, das lohnt eh erst HDMI 2.1 zu implementieren, wenn DP2.0 spezifiziert ist. Wird ja eh einen komplett neuen DP-Controller benötigen. Ob Navi"2" auch wirklich DP2 und HDMI 2.1 bringen wird muss sich zudem erst noch erweisen.

Ich würd vor allem erst mal gerne durchgehend DP1.4 auf dem Markt sehen, da sind wir noch weit von entfernt.

Dural
2019-07-08, 11:15:46
Navi muss ja richtig gut sein wenn schon mit Produkten von NV die Ende 2020 kommen spekuliert wird. ;D

Ja richtig gut, Gleichstand trotz 7nm vs 12nm die Architektur ist fast 1 Jahr "neuer" und hat dabei nicht mal RT / Tensor.

Der echte Wahnsinn, wie konnte das AMD nur hinkriegen :eek: :freak:

dargo
2019-07-08, 11:31:52
RT/Tensor macht die Karte nur größer, nicht schneller. :rolleyes: Und dein Geblubber mit 7nm vs. 12nm zieht bei mir überhaupt nicht. Schließlich stehen hier 251mm² vs. 545mm² bei der 2070 S. Außerdem ist es nicht AMDs schuld, dass NV zu geizig für 7nm ist.

Gibt es schon Anhaltspunkte, wann die Custom Designs von Navi lieferbar sein werden?
Afaik noch nicht, würde aber auf September tippen.

BoMbY
2019-07-08, 11:38:15
NVidia hat sich für Samsung 7nm entschieden, ob, wann und was das wird muss sich noch zeigen. Nach aktuellen Berichten sind die TSMC 7 nm Yields jedenfalls hervorragend und der Preis/Transistor ist geringer als bei TSMC 16/12 nm, und da Navi10 ein relativ kleiner Die ist dürfte die Marge entsprechend gut sein.

HOT
2019-07-08, 11:46:37
NV hat erst jetzt die Verträge über die 7nm-Produktion bei Samsung unterschrieben. Das heißt, die Arbeit an den konkreten 7nm-Chips beginnt jetzt erst. Da sind Tapeouts dann nächstes Frühjahr zu erwarten, vorher wohl kaum und Release dann wohl kaum vor 21 - und das ist absoluter Best-Case. Intels 10nm-GPUs sind früher dran als NV und AMD kann da wieder fast über die nächste Generation nachdenken (wobei es mMn eh erst mal nen 6nm-Refresh des gesamten Lineups geben wird).

AMD hat hier krass auf Risiko gespielt und gewonnen. Dass die 7nm so gut laufen hatten die selbst sicher nicht eingeplant. NV hat das Risiko und die Kosten gescheut und sicherlich mit erheblichen Chipgrößen geplant. Nur dass das witzigerweise offenbar kaum ein Problem gewesen wäre - klarer Fall von verzockt.

BlacKi
2019-07-08, 11:52:28
habt ihr das OC video von Igor gesehen? warum sind da nur +5% drin? die core clock geht um 300mhz hoch, den speicher hat er um 600mhz angehoben. ich finde das seltsam wenig.

dargo
2019-07-08, 12:00:20
NVidia hat sich für Samsung 7nm entschieden, ob, wann und was das wird muss sich noch zeigen. Nach aktuellen Berichten sind die TSMC 7 nm Yields jedenfalls hervorragend und der Preis/Transistor ist geringer als bei TSMC 16/12 nm, und da Navi10 ein relativ kleiner Die ist dürfte die Marge entsprechend gut sein.
Gibt es dafür konkrete Zahlen?

habt ihr das OC video von Igor gesehen? warum sind da nur +5% drin? die core clock geht um 300mhz hoch, den speicher hat er um 600mhz angehoben. ich finde das seltsam wenig.
Du hast auch noch nie was von einer Taktwall gehört? Irgendwann ist jedes Silizium am Ende.

BoMbY
2019-07-08, 12:07:25
Gibt es dafür konkrete Zahlen?

Es gibt zum Beispiel das:

https://pbs.twimg.com/media/D-jk4o9W4AAI3qk.jpg:large

https://twitter.com/BitsAndChipsEng/status/1146417926481874944

Edit: Und das:

https://pbs.twimg.com/media/D-pGn8qWkAEM_7n.png

https://twitter.com/BitsAndChipsEng/status/1146806732494168064