Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
BlacKi
2019-07-08, 12:15:51
Du hast auch noch nie was von einer Taktwall gehört? Irgendwann ist jedes Silizium am Ende.
die OC werte gleichen dem OC auf meiner karte. dort kommt aber das 4x herum. normalerweiße würde ich mindestens 10-15% erwarten.
dargo
2019-07-08, 12:18:04
@BoMbY
Prima, danke. :up:
Ich bin bisher davon ausgegangen, dass ein 7nm Wafer doppelt so teuer ist wie ein 16/14nm Wafer. Dabei sind es laut der Tabelle +68%. Auch sehr interessant 5nm Wafer nur 25% teuer als ein 7nm Wafer. Das gibt wieder etwas Hoffnung für nahe Zukunft.
basix
2019-07-08, 12:37:09
Bei den Preisen sind nur die Herstellungskosten enthalten. Deswegen lohnt sich ein Design auch nur bei entsprechenden Stückzahlen (siehe AMD Chiplets / Mehrfachnutzung des I/O Die ;))
Das Problem ist eher, dass anhand der Tabelle 5nm und 3nm nicht viel günstiger werden als 7nm. Dazu die nochmals höheren Design- und Maskensetkosten. Solange das sich nicht verbessert, ist der Anreiz nur gering.
Mr.Scott
2019-07-08, 12:41:54
@BoMbY
Prima, danke. :up:
Ich bin bisher davon ausgegangen, dass ein 7nm Wafer doppelt so teuer ist wie ein 16/14nm Wafer. Dabei sind es laut der Tabelle +68%. Auch sehr interessant 5nm Wafer nur 25% teuer als ein 7nm Wafer. Das gibt wieder etwas Hoffnung für nahe Zukunft.
Wafer sind doch nicht für bestimmte nm ausgelegt. Die Belichtung bzw Lihographie ist das was Geld kostet ;-)
Ich gehe eher davon aus das der fertig belichtete Wafer die Kosten ausmacht
mboeller
2019-07-08, 12:51:40
Edit: Und das:
https://pbs.twimg.com/media/D-pGn8qWkAEM_7n.png
https://twitter.com/BitsAndChipsEng/status/1146806732494168064
Danke.
7nm 251mm² <-> 14nm (=16nm) 232mm² (*)
=> pro mm² 67% teurer
251/232 x 1,67 = +81% für das Navi Die im Vergleich zum Polaris 10
Soweit weg von Faktor 2 ist das nicht.
Polaris 10 hätte nach der Tabelle ca. $30,5 gekostet, Navi kostet danach ca. US $55,- ... nicht gar so billig. Das ist vergleichbar mit einem ca. 420mm² Die in 16nm
(*) ich setze einfach mal GF 14nm mit TSMC 16nm gleich; ich hoffe die Rechnung passt so.
BoMbY
2019-07-08, 13:13:17
Nicht eher:
Navi10: 7nm: $2.65 pro 1B Transistoren * 10,3 = $27,295
Polaris10: 16nm: $4.98 pro 1B Transistoren * 5,7 = $28,386
?
Edit: Irgendwo muss da ein Fehler in der Tabelle versteckt sein.
Ravenhearth
2019-07-08, 13:39:01
Sorry, aber die Tabelle und die Grafik scheinen eh nur für 7nm Mobile zu sein, denn die Packdichte ist bei 7nm angeblich 3 mal so hoch wie bei 16nm, das passt nicht zu 7nm HP (Navi hat ja nur +60%).
uweskw
2019-07-08, 14:05:50
habt ihr das OC video von Igor gesehen? warum sind da nur +5% drin? die core clock geht um 300mhz hoch, den speicher hat er um 600mhz angehoben. ich finde das seltsam wenig.
würde mich auch mal interessieren. ca 15% OC und nur 5% Wirkung...
greetz
US
mboeller
2019-07-08, 14:17:18
Nicht eher:
Navi10: 7nm: $2.65 pro 1B Transistoren * 10,3 = $27,295
Polaris10: 16nm: $4.98 pro 1B Transistoren * 5,7 = $28,386
?
Edit: Irgendwo muss da ein Fehler in der Tabelle versteckt sein.
IMHO;
du zahlst ja für die mm² nicht für die Anzahl der Transistoren. Deshalb sollte die Rechnung über die mm² schon passen.
Und eigentlich hätte ich mir die ganze Rechnung sparen können.
251/232 x (9965/5912; Kosten pro Wafer) = 1,82 wäre zum gleichen Ergebnis gekommen. Nur der Verschnitt und Yield verändern noch das Ergebnis. Dazu steht aber nichts in der Tabelle.
würde mich auch mal interessieren. ca 15% OC und nur 5% Wirkung...
greetz
US
Ganz einfach: Da läuft noch nicht alles mit rechten Dingen, weil Beta-Treiberei. Der Afterburner scheint etwas zu machen und die Tools springen darauf an, aber ganz koscher ist das nicht. Igor schreibt selbst, dass AMD ihm Mitte Juni für einen gescheiten OC-Treiber genannt hat.
In meinen ersten Tests mit 100 Prozent Lüfterdrehzahl und 260 Watt ASIC-Power skalierte das übrigens ganz gut. Einstellung über Wattman. Der Speichertakt geht aber kaum über 7.000 (875) MHz hinaus, was kurios ist.
MfG,
Raff
BoMbY
2019-07-08, 14:37:17
Okay, wobei das natürlich auch Annahmen zum Yield enthält, was hier eine Menge Unterschied macht:
300mm Wafer: 70685 mm² absolutes max.
Sagen wir also zum Beispiel:
~265x Navi10 für $9965 = $37,60 (100% Yield) bis $50,14 (75% Yield)
~290x Polaris10 für $5912 = $20,42 (100% Yield) bis $27,81 (75% Yield)
Edit: Dagegen aber ein TU106 mit 445 mm² (10,8 Milliarden Transistoren):
~150x TU106 für $5912 = $39,41 (100% Yield) bis $52,55 (75% Yield).
Edit2: Also kostet ein 7nm Navi10 (RX 5700/RX 5700 XT) in etwa genauso viel wie ein TU106 (RTX 2060 SUPER) in 12nm.
TU104 (RTX 2070 SUPER), 545 mm², 13,6 Milliarden Transistoren:
~122x TU104 für $5912 = $48,46 (100% Yield) - $64,61 (75% Yield)
Davon abgesehen, dass die Yields mit stiegender Chipgrößer ja automatisch immer schlechter werden (die Kurve ist ja eher exponentiell), ist NV da ganz schön teuer. Das hab ich mir von Anfang an gedacht. Da versteht man auch deren extreme Vorsicht, die die Kooperation mit Samsung mit sich bringt, was die Kosten angeht.
Mandalore
2019-07-08, 17:12:38
Ohne das man die Dinge völlig 1:1 vergleichen könnte, aber man kann auch argumentieren, dass Turing im Vergleich zu Pascal mehr verändert hat, als RDNA zu GCN.
Neue ISA, ebenfalls neue SIMD-Units, auch eine veränderte Cache-Hierarchie, etliche neue Features, Tensor Cores, Raytracing-Cores, Independent-Thread- Scheduling, Variable Rate Shading, Mesh-Shader, neben all den anderem Kram.
Tensor Cores und RT Cores sind aber neue Einheiten, der Unterschied zwischen RDNA und GCN wurde ja jetzt mehrmals von Leuten die wirklich Ahnung von der Materie haben als gewaltig eingestuft bzw. Dass RDNA tatsächlich eine komplette Neuentwicklung ist.
Woher weißt du denn, dass sich die ISA bei Turing verändert hat?
Locuza
2019-07-08, 17:31:13
Tensor Cores und RT Cores sind aber neue Einheiten, der Unterschied zwischen RDNA und GCN wurde ja jetzt mehrmals von Leuten die wirklich Ahnung von der Materie haben als gewaltig eingestuft bzw. Dass RDNA tatsächlich eine komplette Neuentwicklung ist.
Woher weißt du denn, dass sich die ISA bei Turing verändert hat?
Weil Nvidia das selber gesagt hat (erster Link Seite 14) und es zwei extreme Low-Level-Analysen diesbezüglich gibt, die genau dokumentieren, dass dies auch zutrifft:
https://www.olcf.ornl.gov/wp-content/uploads/2018/12/summit_workshop_Volta-Architecture.pdf
https://arxiv.org/pdf/1804.06826.pdf
https://arxiv.org/pdf/1903.07486.pdf
RNDA ist ein massiver Umbau, ebenso Turing im Vergleich zu Pascal, was die Ursprungsbehauptung anders dargestellt hat.
BoMbY
2019-07-08, 17:33:52
Nur ist Turing nicht zwangsläufig Volta.
Locuza
2019-07-08, 18:00:45
Wenn man genug Interesse hat und sogar alle drei Links anklickt, dann erfährt man im Dritten das Turing die gleiche Grund-ISA wie Volta verwendet und beide sich im Prinzip stark ähneln:
We find that Turing uses the same instruction encoding as Volta, but it extends Volta’s instruction set; it also introduces a new register type (uniform registers) and supports more operand types on Tensor Cores.
The new instructions allow the nvcccompiler to render matrix math in fewer instructions on Turing than on Volta
Turing’s memory hierarchy is similar to that of Volta, with different sizes at certain cache levels. We provided an exhaustive examination of the differences.
When compared in terms of instruction encoding, memory hierarchy,and behavior of their processing units, the Turing and Volta generations display continuity, and together represent a significant departure from the Kepler and older generations
Turing baut auf Volta auf, hat einige Dinge weiterentwickelt (Uniform Datapath, bessere Tensor-Cores, RayTracing-Cores, neue Rendering Features wie Mesh-Shader, Variable Rate Shading, bessere Delta-Color-Compression usw.) und andere Stellen für den Zielmarkt angepasst und verändert.
Der L1$ ist 96KB$ groß und bietet nur die Hälfte der Bandbreite im Vergleich zu Voltas 128KB L1$ an.
Daneben fehlt natürlich so etwas wie Half-Rate FP64.
Sieht leider nicht gut aus für Big-Navi und volles HDMI 2.1 :|
M.f.G. JVC
BoMbY
2019-07-08, 22:40:00
Ich weiß gar nicht wofür Ihr HDMI 2.1 überhaupt braucht? Habt Ihr 8k Glotzen, oder 4k mit 120 Hz?
Ich weiß gar nicht wofür Ihr HDMI 2.1 überhaupt braucht? Habt Ihr 8k Glotzen, oder 4k mit 120 Hz?
HDMI 2.1 umfasst VRR für Fernseher ... HDMI 2.1 beinhaltet also VRR, ="Free-Sync" :smile:
M.f.G. JVC
BoMbY
2019-07-08, 23:45:10
AMD macht VRR/Freesync auch mit HDMI 2.0.
AMD macht VRR/Freesync auch mit HDMI 2.0.
Aber nicht alle Fernseher unterstützen das :(
M.f.G. JVC
just4FunTA
2019-07-09, 00:00:22
Ich weiß gar nicht wofür Ihr HDMI 2.1 überhaupt braucht? Habt Ihr 8k Glotzen, oder 4k mit 120 Hz?
ja 4k mit 120hz..
Complicated
2019-07-09, 07:33:33
Aber nicht alle Fernseher unterstützen das :(
Und gibt es mehr TVs mit HDMI 2.1 Unterstützung?
Hier dreht sich das Argument im Kreis warum die GPU Stand heute HDMI 2.1 benötigt.
basix
2019-07-09, 07:52:17
Weil die GPU vielleicht ein paar Jahre halten soll?
pixeljetstream
2019-07-09, 08:07:30
Was bei 4k 120 Hz eher unrealistisch ist oder?
AMDoderNvidia
2019-07-09, 09:03:51
Hat AMD ein Whitepaper zu Navi/RDNA veröffentlicht?
Daredevil
2019-07-09, 09:24:50
Opfert AMD somit die Peaks nach oben, damit die Peaks nach unten geflickt werden? ( Siehe z.B. Counter Strike und Vulcan im Vergleich mit der VII )
Ab 2:00
3bmQPx9EJLA
Ich weiß jetzt nicht, ob diese Darstellung im Video der Realität entspricht, ich verstehe das als Laien aber halt so, dass man von "Multithread" Stärke, die man z.B. in DX12 und Vulcan ausspielen konnte, auf weniger "Threads" geht, die halt umso schneller sind.
Deswegen ja auch der FineWine bei AMD, weil ersteres immer zukunftssicherer war.
Edit:
Quote ausm BCT Forum
It seems,
5700 come swith Micron D9WCW MT61K256M32JE-14:A they are specified to run at 1750 MHz (14 Gbps GDDR6 effective).
5700xt comes with Samsung K4Z80325BC-HC14 : they are specified to run at 1750 MHz (14 Gbps GDDR6 effective) too
Ist also nicht nur die Backplate. :D Aber das ist ja nun echt kein Beinbruch.
basix
2019-07-09, 11:02:30
Was bei 4k 120 Hz eher unrealistisch ist oder?
Gibt es nur neue Spiele? Gibt es nur High End Grafik? Gibt es auch andere Anwendungen wie Filme oder Sportübertragungen, welche höhere FPS vertragen würden? 4k 120Hz auf dem Desktop fürs Arbeiten, was sich deutlich besser anfühlt als 60Hz?
Es ist kein muss, aber es gibt definitiv einen Nutzen. Mangels Monitore ist das heutenoch eher selten, in 1 Jahr vielleicht nicht mehr.
BlacKi
2019-07-09, 11:11:50
4k120 hz halte ich für machbar, spätestens mit 2x 2080ti. aber auch mit einer, wenn man etwas details opfert. selbst wenn man nur 90fps avg hat ist das doch ein mehrwert, ggü. 60fps mit v sync und mit vrr muss man ja unter 60 fps bleiben. aussderm ist es viel einfacher die fps zwischen 60 und 120hz zu halten, als 30 oder gar 40 vs 60.
es gibt schon oleds mit 4k 120hz ab 1700€, es fehlen aber die karten dazu.
BoMbY
2019-07-09, 11:13:25
Gibt es nur neue Spiele? Gibt es nur High End Grafik? Gibt es auch andere Anwendungen wie Filme oder Sportübertragungen, welche höhere FPS vertragen würden? 4k 120Hz auf dem Desktop fürs Arbeiten, was sich deutlich besser anfühlt als 60Hz?
Ehh, und Du arbeitest an einem TV? Ein Monitor zum Arbeiten hat wenigstens einen DisplayPort welcher immer HDMI vorzuziehen ist. Und TV etc. wird mit 25 FPS übertragen, Filme eventuell mit bis zu 30 FPS.
BoMbY
2019-07-09, 15:13:59
Ein Update von CB, ein IPC-Vergleich:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/
Ein Update von CB, ein IPC-Vergleich:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/
Da es vielleicht tatsaechlich besser in die Speku-Ecke passt, zitiere ich mich mal selbst:
"IPC". Da passt doch hinten und vorne nichts zusammen. Navi wird z.B. mit 50% mehr Bandbreite getestet als Polaris und mit 40% mehr Raster-Leistung als Vega.
"IPC"-Vergleich hypothetischer Polaris GPUs mit jeweils 1/3 weniger Shadern bzw. Takt:
Polaris 10|A|B
CUs|36|24
SCLK (MHz)|844|1266
MTri/s|3.376|5.064
GFLOPs|3.889|3.889
ROTTR FPS avg. 3 runs|35,08|39,74
"IPC"|1|1,13
Demnach wuerde CB jetzt behaupten, Konfiguration B haette 13% mehr IPC, was natuerlich ziemlicher Unsinn ist. Man kann sich die "IPC"-Vergleiche mit Taktspielereien also ziemlich sparen.
BoMbY
2019-07-09, 16:01:19
Auch wenn es nur Annäherungsweise ist, aber:
Radeon RX 5700 XT @ 1.800/7.000
1800x40x128: 9,216 TFlop/s
7000x64: 448 GB/s
Radeon RX Vega 56 @ 1.300/875
1300x56x128: 9,3184 TFlop/s
875x512: 448 GB/s
1286 MHz wäre wohl besser gewesen.
Der_Korken
2019-07-09, 16:08:48
Das mit dem Taktunterschied ist schon doof, weil Vega nicht das stärkste Frontend hatte. Eventuell wäre es besser gewesen, beide gleichschnell zu takten und zu schauen, wieviel Mehrleistung durch die 40% mehr CU der V56 übrig bleiben. Sind beide Karten dann trotzdem gleichschnell, könnte man sagen, dass eine Navi-CU etwa 40% mehr leistet als eine Vega-CU.
Der Vergleich mit Polaris ist eigentlich auch Quatsch, denn 50% mehr Bandbreite kann nicht einfach beiseite wischen. Die alte 480 mit 1180 Gameclock hat schon gut auf VRAM-OC reagiert, d.h. dass die 590 mit 1500Mhz würde mit 14Ghz VRAM-Takt nochmal ordentlich abgehen.
1286 MHz wäre wohl besser gewesen.
Oder noch schlechter. S.o.
IMHO kann man so einen Vergleich einfach nicht brauchbar machen. Das geht vielleicht mit einem reinen compute-workload, weil man hier tatsaechlich nur die CUs vermisst, aber dann hoert es halt auch schon wieder auf. Wobei das dann durchaus ein interessanter Vergleich waere.
Der Vergleich mit Polaris ist eigentlich auch Quatsch, denn 50% mehr Bandbreite kann nicht einfach beiseite wischen. Die alte 480 mit 1180 Gameclock hat schon gut auf VRAM-OC reagiert, d.h. dass die 590 mit 1500Mhz würde mit 14Ghz VRAM-Takt nochmal ordentlich abgehen.
Ja, und auch die VII profitiert ja ggue. V64 noch merklich von der Bandbreite.
M4xw0lf
2019-07-09, 19:25:22
Ob man das jetzt IPC nennt oder Karl-Heinz ist doch wumpe. Fakt ist: Navi/RDNA gehen so effizient mit der zur Verfügung stehenden Rechenleistung um wie Turing, AMD hat hier also nach langem (fast) Stillstand einen gewaltigen Schritt nach vorne gemacht.
TheAntitheist
2019-07-09, 19:29:31
Ob man das jetzt IPC nennt oder Karl-Heinz ist doch wumpe. Fakt ist: Navi/RDNA gehen so effizient mit der zur Verfügung stehenden Rechenleistung um wie Turing, AMD hat hier also nach langem (fast) Stillstand einen gewaltigen Schritt nach vorne gemacht.
aber das ist doch nur dem Umstand geschuldet das Navi schon 7nm hat und Nvidia soviel mehr RT und denoiser kram reingepackt hat... wenn man das nicht mit einbezieht dann wäre das schon blöd.
Benutzername
2019-07-09, 19:30:21
Ob man das jetzt IPC nennt oder Karl-Heinz ist doch wumpe. Fakt ist: Navi/RDNA gehen so effizient mit der zur Verfügung stehenden Rechenleistung um wie Turing, AMD hat hier also nach langem (fast) Stillstand einen gewaltigen Schritt nach vorne gemacht.
Und es wird nur besser werden. Das ist ja jetzt erst RDNA Version 1.0
Rosige Zeiten, wenn AMD es nicht auf der geschäftlichen Seite vergeigt.
M4xw0lf
2019-07-09, 19:33:14
aber das ist doch nur dem Umstand geschuldet das Navi schon 7nm hat und Nvidia soviel mehr RT und denoiser kram reingepackt hat... wenn man das nicht mit einbezieht dann wäre das schon blöd.
Ironie? :uconf: Mit dem Verhältnis Performance/Rechenleistung hat das alles nix zu tun.
Screemer
2019-07-09, 19:39:41
aber das ist doch nur dem Umstand geschuldet das Navi schon 7nm hat und Nvidia soviel mehr RT und denoiser kram reingepackt hat... wenn man das nicht mit einbezieht dann wäre das schon blöd.
Und der ganze extra Kram ist powergated wenn er nicht genutzt wird. Wird er genutzt dann verbraucht der Rest weniger. Nur der 7nm Vorteil ist ein Punkt. Allerdings ist es imho wichtig was hinten raus kommt.
M4xw0lf
2019-07-09, 19:42:08
Und der ganze extra Kram ist powergated wenn er nicht genutzt wird. Wird er genutzt dann verbraucht der Rest weniger. Nur der 7nm Vorteil ist ein Punkt. Allerdings ist es imho wichtig was hinten raus kommt.
Das ist bei Energieeffizienz wichtig, aber auch das ist eine andere Baustelle als das, was im CB-"IPC"-Architekturvergleich getestet wird. Für Performance/Rechenleistung ist die Leistungsaufnahme und die Fertigung wurscht.
Ob man das jetzt IPC nennt oder Karl-Heinz ist doch wumpe. Fakt ist: Navi/RDNA gehen so effizient mit der zur Verfügung stehenden Rechenleistung um wie Turing, AMD hat hier also nach langem (fast) Stillstand einen gewaltigen Schritt nach vorne gemacht.
Nein, ist es eben nicht egal und die Werte sind falsch. Die Mehrleistung kommt aus unterschiedlichen Faktoren zusammen, die ueberhaupt nicht isoliert werden und das Ergebnis eines voellig verfaelschenden Tests wird dann einfach "IPC" genannt.
Mich wuerde aber interessieren, was Navi gerade in Gaming-Workloads schneller macht und wie gross der Fortschritt tatsaechlich ist und dazu traegt der Test von CB nichts bei. Wenn dich das nicht interessiert, kannst du dir ja nur die Performanceuebersicht anschauen.
robbitop
2019-07-09, 21:11:17
Rohleistungsnormiert ist man zumindest schon ziemlich nah dran an Turing. In der Praxis taktet die 2070 super rund 5% höher und hat im Schnitt ca 10% mehr Leistung. Sind also im Schnitt nur noch 5%
M4xw0lf
2019-07-09, 21:14:47
Nein, ist es eben nicht egal und die Werte sind falsch. Weil?
Die Mehrleistung kommt aus unterschiedlichen Faktoren zusammen, die ueberhaupt nicht isoliert werden und das Ergebnis eines voellig verfaelschenden Tests wird dann einfach "IPC" genannt.
Mich wuerde aber interessieren, was Navi gerade in Gaming-Workloads schneller macht und wie gross der Fortschritt tatsaechlich ist und dazu traegt der Test von CB nichts bei. Wenn dich das nicht interessiert, kannst du dir ja nur die Performanceuebersicht anschauen.
Die Vergleiche zu Pascal und Polaris haben Probleme mit dem Ramtakt, aber zu Turing und Vega funktioniert es sehr gut, gleiche Bedingungen (Rechenleistung+Bandbreite) herzustellen. Und dabei zeigt sich, dass Navi viel besser als Vega, auf einem Level mit Turing darin ist, die verfügbare Power auf die Straße zu bringen. Was erwartest du sonst noch von so einem Test?
Locuza
2019-07-09, 21:33:29
Also Computerbase selber spricht auf der Testseite gar nicht von der IPC, man hat folgerichtig einfach nur die praktische Leistung bei theoretisch gleicher bzw. ähnlicher Rechenleistung und Rohbandbreite verglichen.
Passt fast perfekt bei Turing (Nur 3 GPCs = 48 Pixel vom Frontend stören), weniger bei Pascal (-28% Bandbreite, GDDR5X mit 64 Byte access granularity vs. 32), Polaris (-43% Bandbreite, 32 ROPs) und bei Vega wird es arg krude dank -28% Takt, was wie iuno ja schon richtig ausgeführt hat auch zu 28% weniger Geometry-Engine-, Rasterizer- und ROP-Durchsatz führt.
Daneben gibt es mit 56 Compute Units deutlich mehr Einheiten, wo die Filltime dann schlechter für Vega ausfällt und wo auch die Threadskalierung schlechter ausfällt.
Daneben vergleicht man noch HBM2 vs. GDDR6.
Mit Polaris könnte man in Zukunft direkter vergleichen, wenn man den Speicher dann untertaktet (Wobei die Latenzen dann bei Navi leiden sollten, außer das Retraining der Timings funktioniert gut, weiß da jemand wie effektiv das bei GDDR5/6 funktioniert?
Bei Vega unter Linux mit gleicher CU-Anzahl wäre cool, aber da hätte ich auch gewisse Vorbehalte gegenüber den Treibern.
Die Vergleiche zu Pascal und Polaris haben Probleme mit dem Ramtakt, aber zu Turing und Vega funktioniert es sehr gut, gleiche Bedingungen (Rechenleistung+Bandbreite) herzustellen. Und dabei zeigt sich, dass Navi viel besser als Vega, auf einem Level mit Turing darin ist, die verfügbare Power auf die Straße zu bringen. Was erwartest du sonst noch von so einem Test?
Dass Navi besser ist als Vega weiss man auch ohne diesen Test. Er bringt also keinen Mehrwert gegenueber den uebrigen Tests, die ohnehin schon da waren. Ich erwarte mir von so einem Zusatztest, dass er ernsthaft versucht die Verbesserungen aufzuschluesseln und nicht voellig falsche Implikationen erzeugt.
Ich habe mich mit meinem Test exakt auf den Vega-Vergleich bezogen. Vega wird mit viel mehr Einheiten bei 1,3 GHz betrieben, Navi mit weniger bei 1,8. Es skaliert aber nicht alles gleich (oder ueberhaupt) und das macht den Vergleich obsolet. Nochmal: Vega rasterisiert in dem Setup 5,2 M Dreiecke, Navi 7,2 M. Navi soll die effektive Geometrie-Leistung verbessert haben, aber in diesem direkten Vergleich kommen alleine gut 38% Geometrie-Leistung ueber den Takt, was das Ergebnis voellig verfaelscht. Dazu waren kleinere (weniger CU pro SE) GCN GPUs schon immer effizienter, auch das Problem wird abgeschwaecht, indem man weniger Einheiten verbaut und den Takt hochschraubt. Das sagt dann aber rein gar nichts ueber Navi-Verbesserungen aus.
Du kannst auch nicht einfach wie du Lust hast den (Speicher-)Takt beliebig hoch und runter schrauben. Wer weiss, was alles am RAM-Takt haengt? Dazu haben AMD GPUs fuer unterschiedliche Speichertakte (logischerweise) unterschiedliche timing straps. Ich behaupte jetzt nicht, dass es so ist, aber es ist eben durchaus moeglich dass man da schnell in einen ganz unguenstigen Bereich faellt. Und jetzt schau mal, was sich mit timings mitunter holen laesst (https://www.computerbase.de/forum/threads/tahiti-memory-timings-patch-fuer-hynix-vram.1370699/).
Also Computerbase selber spricht auf der Testseite gar nicht von der IPC
OK, da habe ich mich jetzt reingesteigert :redface:
Bei meinen Aussagen bleibe ich aber natuerlich, auch wenn man es "Architektur-Vergleich" nennt, was es genausowenig wie ein "IPC-Vergleich" ist.
aufkrawall
2019-07-09, 21:49:41
Bei Vega unter Linux mit gleicher CU-Anzahl wäre cool, aber da hätte ich auch gewisse Vorbehalte gegenüber den Treibern.
Warum? radeonsi kann Vega gut vs. Polaris auslasten und für Vulkan kann man auch den proprietären Treiber mit dem gleichen Shadercompiler wie für Windows nehmen
Daredevil
2019-07-09, 22:03:19
Navi ist (aktuell) ein Totalausfall, wenn es um Streaming Qualität geht mit Low Bitrate.
Ich gehe aber sehr stark davon aus, dass AMD auch hier in Zukunft hart dran arbeiten wird. Nvidia hat einen riesen Schritt mit Turing gemacht ( Die können nicht nur Raytracing ; -) ) und wenn AMD in Konsolen bzw. Stadia verbaut wird, muss dort auch ein gescheiter Encoder rein, womit die Leute Live Streamen können.
CLqpVImLPGE
dildo4u
2019-07-09, 22:06:29
Die Konsolen können dafür taugliche ARM Chips verbauen.Der T2 Chip den Apple in Macs verbaut scheint x265 ordentlich zu beschleunigen.
Locuza
2019-07-09, 22:14:45
[...]
OK, da habe ich mich jetzt reingesteigert :redface:
Bei meinen Aussagen bleibe ich aber natuerlich, auch wenn man es "Architektur-Vergleich" nennt, was es genausowenig wie ein "IPC-Vergleich" ist.
Ich meine solange der Kontext klar ist, kann man das ja schon einen Architektur-Vergleich unter den gewählten Rahmenbedingungen nennen.
Das es außerhalb von dem Turing-Vergleich leider arg krude ausfällt, dass sehe ich genauso.
Als grobe Annäherung ganz nett, aber man muss natürlich gewisse Dinge im Hinterkopf behalten.
Warum? radeonsi kann Vega gut vs. Polaris auslasten und für Vulkan kann man auch den proprietären Treiber mit dem gleichen Shadercompiler wie für Windows nehmen
Meiner Erinnerung nach war es so, dass bei einigen Titeln die Phoronix getestet hat, Vega teils sehr schlecht skaliert hat gegenüber Polaris.
Der DSBR/Primitive Binning war bei Vega10 im Nachhinein deaktiviert worden, keine Ahnung, ob der jetzt aktiv gestellt wurde, RADV hat es laut Patchnotes Ende 2018 standardmäßig an.
Aber die CUs werden beim Kerneltreiber deaktiviert, richtig?
Insofern könnte man alle Treiber und Compiler probieren.
Die Redaktion die richtig Zeit und Lust (:freak:) hätte, könnte dann sicherlich interessante Vergleiche anstellen.
aufkrawall
2019-07-09, 22:42:47
Meiner Erinnerung nach war es so, dass bei einigen Titeln die Phoronix getestet hat, Vega teils sehr schlecht skaliert hat gegenüber Polaris.
Das Problem haben Nvidia-GPUs allerdings auch, die OGL-Ports skalieren mitunter schlecht oder laufen ins CPU-Limit. Gibt dafür im Navi Launch-Test so einige Beispiele:
https://www.phoronix.com/scan.php?page=article&item=radeon-5700-linuxgl&num=3
Das Problem scheinen bei OGL also eher die Spiele als die Treiber zu sein. Den proprietären Vulkan-Treiber testet Phoronix kaum vs. Nvidia, wobei der zumindest bei DXVK aber nicht schneller als radv sein muss (mit ACO siehts eh bald nochmal ganz anders aus).
Aber die CUs werden beim Kerneltreiber deaktiviert, richtig?
Insofern könnte man alle Treiber und Compiler probieren.
Ja, richtig.
dargo
2019-07-09, 23:53:13
Navi ist (aktuell) ein Totalausfall, wenn es um Streaming Qualität geht mit Low Bitrate.
Gestreamt wird mit einem 3900X. ;)
gravitationsfeld
2019-07-10, 00:33:00
Die Konsolen können dafür taugliche ARM Chips verbauen.Der T2 Chip den Apple in Macs verbaut scheint x265 ordentlich zu beschleunigen.
Wat. Wozu braucht man da ARM? Hardware-Encoder und fertig.
dildo4u
2019-07-10, 05:07:58
Siehe das Video oben AMDs x264 Lösung saugt.
x265 kann man laut dem Video aus Lizenzrechtlichen Gründen nicht für Streaming nutzen.
SavageX
2019-07-10, 06:37:25
Bitte nicht einen Encoder (x264) mit einem Videoformat (H.264) vertauschen.
Sowohl AMD und Nvidia erzeugen H.264 Videostreams in Hardware, keine von denen verwenden hierzu x264, einen quelloffenen Software-Encoder.
Daredevil
2019-07-10, 09:08:50
Gestreamt wird mit einem 3900X. ;)
Mit ner AMD Karte bleibt einem wohl nichts übrig. ;)
Mit extra Hardware ist es halt massiv effizienter.
deekey777
2019-07-10, 09:13:57
Mit ner AMD Karte bleibt einem wohl nichts übrig. ;)
Mit extra Hardware ist es halt massiv effizienter.
Und du hast bisher mit der Polaris/Vega gestreamt?
Kauft AMD die codecs eigentlich ein oder entwickeln sie die Hardware Bloecke selbst?
Der HEVC encoder soll ja deutlich besser sein. Irgendwie auch nachvollziehbar, dass man in AVC nicht mehr gross investieren will. Es wird Zeit, dass AV1 sich durchsetzt.
Bucklew
2019-07-10, 10:12:06
Und du hast bisher mit der Polaris/Vega gestreamt?
Ist ja nicht nur Streaming, ShadowPlay/ReLive nutzen die jeweils gleichen Encoder.
BoMbY
2019-07-10, 10:54:40
Kauft AMD die codecs eigentlich ein oder entwickeln sie die Hardware Bloecke selbst?
Der HEVC encoder soll ja deutlich besser sein. Irgendwie auch nachvollziehbar, dass man in AVC nicht mehr gross investieren will. Es wird Zeit, dass AV1 sich durchsetzt.
VCN/UVD/VCE sind prinzipiell Eigenentwicklungen soweit ich weiß, wobei es natürlich sein kann dass eine Codec-Implementierung gekauft ist.
BoMbY
2019-07-10, 10:56:05
Ist ja nicht nur Streaming, ShadowPlay/ReLive nutzen die jeweils gleichen Encoder.
Meine Güte. Nutzt den Report Wizard und melde den Bug, dann wird er vielleicht bald behoben. Da hab ich schon deutlich schlimmere Dinge bei neuer Hardware mit neuen Treibern gesehen.
Edit: Navi10 nutzt übrigens VCN 2.0 (https://lists.freedesktop.org/archives/amd-gfx/2019-June/035294.html) und nicht VCE, ist also auch eine komplett andere Schiene als Vega und Polaris.
Screemer
2019-07-10, 11:03:04
Ist ja nicht nur Streaming, ShadowPlay/ReLive nutzen die jeweils gleichen Encoder.
Relive setzt auf hevc aka h.265. Natürlich auch nur wenn man es will. Avc ist Steinzeit auch wenn Dienste wie Twitch/fblive/ect. das nutzen. Vp1 ist die Zukunft. Da hoffe ich, dass navi2/n20 schon was ordentliches bietet.
deekey777
2019-07-10, 11:20:05
Ach Leute, warum ist das jetzt wirklich ein Thema?
Ja, es kann sein, dass der Treiber noch nicht ausgereift ist. Es kann auch sein, dass AMD der Encoder einfach egal ist, weil es sich nicht lohnt, Geld in etwas zu stecken, was nicht wirklich genutzt wird.
Im Video heißt es:
H.264-Encodierung war schon auf Polaris Mist, das ist derzeit der Stand der Dinge für Navi.
Ein AMD-Mitarbeiter hat eigentlich den Code für ffmpeg geschrieben, damit der HW-Encoder benutzt werden kann.
Savay
2019-07-10, 11:40:45
Edit: Navi10 nutzt übrigens VCN 2.0 (https://lists.freedesktop.org/archives/amd-gfx/2019-June/035294.html) und nicht VCE, ist also auch eine komplett andere Schiene als Vega und Polaris.
Stimmt AFAIR nicht ganz...die VEGA APUs nutzen glaube ich schon VCN 1.0! Wobei mir bislang immernoch nicht ganz klar ist, ob das nicht mehr eine Umfirmierung von UVD und VCE ist oder tatsächlich eine komplett andere HW.
Davon abgesehen ist der Encoder bei reinem HDD Recording ziemlich unkritisch mMn.
Einfach H.265 nehmen und die Bitrate nicht verkrüppeln (20MBps+) und man war bisher auch schon ziemlich Safe!
BoMbY
2019-07-10, 11:56:34
Stimmt AFAIR nicht ganz...die VEGA APUs nutzen glaube ich schon VCN 1.0!
Nein, nur Raven nutzt VCN 1.0 IMHO.
Savay
2019-07-10, 12:02:53
Sag ich doch. Raven und Picasso...halt die APUs...sind doch auch Vegas aka "GCN Gen5" drin. ;)
deekey777
2019-07-10, 12:03:20
Nein, nur Raven nutzt VCN 1.0 IMHO.
Das sind doch Vega-APUs, oder?
Es sei denn, es gab beim Picasso wurde etwas geändert.
(Ich bekam zwischendurch einen Anruf, Savay hat sich vorgedrängt! ;D)
Bucklew
2019-07-10, 12:26:36
Meine Güte. Nutzt den Report Wizard und melde den Bug, dann wird er vielleicht bald behoben. Da hab ich schon deutlich schlimmere Dinge bei neuer Hardware mit neuen Treibern gesehen.
Polaris sieht genauso beschissen aus und hat x Treiberupdates gesehen. Da wäre erstmal zu klären, ob die HW überhaupt in der Lage ist, ne ordentliche Qualität zu liefern.
H264 ist nun mal leider immer noch Stand der Technik.
BoMbY
2019-07-10, 12:47:58
Polaris sieht genauso beschissen aus und hat x Treiberupdates gesehen. Da wäre erstmal zu klären, ob die HW überhaupt in der Lage ist, ne ordentliche Qualität zu liefern.
H264 ist nun mal leider immer noch Stand der Technik.
Wie viele Leute haben wohl den Bug ordentlich gemeldet, und wie viele Leute haben nur in irgendwelchen Foren darüber geweint?
Bucklew
2019-07-10, 13:53:14
Wie viele Leute haben wohl den Bug ordentlich gemeldet, und wie viele Leute haben nur in irgendwelchen Foren darüber geweint?
Warum sollte es ein Bug sein? Hast du dafür einen Beleg?
aufkrawall
2019-07-10, 14:01:00
Bei Nvidia gabs die bessere Qualität von Turing vs Pascal jedenfalls auch nicht direkt zum Launch, also mal wenigstens nicht mit zweierlei Maß messen...
deekey777
2019-07-10, 14:02:02
Da hat jemand ein Thema bekommen, um sich aufzuregen.
BoMbY
2019-07-10, 14:50:36
AMD hat jedenfalls gerade erst eine neue Version von AMF auf Github geschoben, welche Änderungen für Navi10 VCN 2.0 enthalten sollte:
https://github.com/GPUOpen-LibrariesAndSDKs/AMF
Die ist aber natürlich noch nicht im obs-amd-encoder-Plugin eingebaut:
https://github.com/obsproject/obs-amd-encoder
Ansonsten, ja, es scheint grundsätzlich ein Problem mit Low-Bitrate zu geben: https://github.com/obsproject/obs-amd-encoder/issues/300#issuecomment-366526682
Ob und was sich da im letzten Jahr getan hat weiß ich nicht, aber ansonsten bringt das Weinen hier definitiv nichts, da muss man sich halt mal mit z.B. Xaymar und MikhailAMD auf Github austauschen, ob man da noch was machen kann.
deekey777
2019-07-10, 15:05:31
MikhailAMD aht vor gut zwei Jahren AMF-Unterstützung in ffmpeg implementiert, er dürfte Kenntnis über die Problematik haben.
Aber:
Ich sehe immer noch kein Problem. Klar, wer livestreamt und nicht genügend Uploadbandbreite hat, ist es problematisch. Wer jedoch "beruflich" ins Netz streamt, nutzt andere Gerätschaften (externe Encoder (ganz allgemeingesagt) oder eben die interne Mehrkern-CPU.
Fürs heimische Netz jagt man die Bitrate hoch (Steam usw.), dann gibt es noch HEVC.
Davon abgesehen ist der Encoder bei reinem HDD Recording ziemlich unkritisch mMn.
Einfach H.265 nehmen und die Bitrate nicht verkrüppeln (20MBps+) und man war bisher auch schon ziemlich Safe!
20 Mbit bei einem 1080p Video nehme ich an. Deswegen traut sich keiner ein low Bitrate Video von AMD zu posten, weil dann die Schwächen ungeschönt ans Tageslicht kommen würden. Ich wäre sehr interessiert an Qualitätsvergleichen später im Jahr zwischen Turing, Navi und Gen11. Ich wäre überrascht, wenn AMD nicht abgeschlagen letzter wäre.
Daredevil
2019-07-10, 15:29:22
Ich sehe da auch kein Problem, weil jeder kleine bis mittlere Streamer nun ne Turing GPU für seinen Rechner kauft, weil es effizienter und effektiver ist.
Ich finde es allerdings sehr schade, dass AMD sich da ( noch ) keine Gedanken rum gemacht hat, weil das ist durchaus für manche kauf entscheidend.
Twitch ist nun mal Marktführer und die diktieren die Settings. Mich kotzen 6mbit auch an, weil ich 50mbit liefern könnte. Aber entweder spielst du nach den Regeln, oder du streamst halt alleine auf Youtube.
AMD entgeht da einfach etwas und das finde ich sehr schade, das ist neben RTX nun auch nochmal ein Feature, weswegen man nicht unbedingt an Stelle 1 zu AMD raten kann.
Es war einfach nur ne News, dass sich ( trotz Ankündigung "OPTIMIZED FOR TWITCH" ) noch nichts getan hat. HEVC ist toll, das kann es meinetwegen auch jetzt schon geben überall. :<
Langlay
2019-07-10, 15:29:52
Ich sehe immer noch kein Problem. Klar, wer livestreamt und nicht genügend Uploadbandbreite hat, ist es problematisch.
Das Problem ist bei Twitch kannst du als Otto Normalo nur mit 6k Bitrate streamen. Auch wenn du 10Gbit upload hast bringt dir das dann nix. Und willste gute Quali in 6k Bitrate sag Hallo zu CPU Encoding.
Daredevil
2019-07-10, 15:39:30
Ja ich weiß auch, das CPU Encoding toll ist, es ist aber halt auch arschteuer, im Geldbeutel als auch auf dem System.
Setup1:
6core Ryzen + 2070Super > 700€
Setup2:
16core Ryzen + 5700xt > 1070€
Du hast dann vielleicht sogar bessere Quali mit 16 Kernen, kannst die 300€ fürs Streamen aber in viel bessere Dinge investieren ( Greenscreen, StreamDeck, Kamera, Capture Card ) ect.
CPU Encoding ist einfach ineffektiv.
Savay
2019-07-10, 15:41:25
Also effektiv ist es eigentlich fast immer...je nach Anspruch und Einsatzzweck ggf. nur nicht so effizient.:tongue:
deekey777
2019-07-10, 15:59:00
Das Problem ist bei Twitch kannst du als Otto Normalo nur mit 6k Bitrate streamen. Auch wenn du 10Gbit upload hast bringt dir das dann nix. Und willste gute Quali in 6k Bitrate sag Hallo zu CPU Encoding.
Bis vorgestern war das kein Problem, also warum ist das jetzt ein Problem?
https://www.youtube.com/watch?v=9IyhCl--v1Y
"AMD Think Of RDNA Like Zen" (~min13)
M.f.G. JVC
=Floi=
2019-07-10, 16:42:07
Setup1:
6core Ryzen + 2070Super > 700€
eine gute 2070S kostet 650€ :rolleyes:
Bucklew
2019-07-10, 16:53:28
Bis vorgestern war das kein Problem, also warum ist das jetzt ein Problem?
Weil AMD doch Marktanteile zurück gewinnen will? War das nicht so?
Klar, die großen Streamer holen sich nen 5000€+ PC zum Gamen und da neben noch ne 5000€+ PC mit CaptureCard. Die rufen dazu aber auch - zumindest mit genug Followern - einfach nur Firma X an und kriegen das für nen 20 Minuten Video gestellt.
Otto Normalo, der vielleicht nur etwas streamen oder gar einfach nur die Highlights im Hintergrund aufnehmen will, der holt sich doch so ein Zeug nicht.
Also ich nutze Shadowplay seit es das Tool gab. Immer wieder mal ein paar lustige Clips hochgeladen, Freunden geschickt etc. Aber dafür kaufe ich mir doch keine 16-Kern CPU.
BoMbY
2019-07-10, 17:14:59
Wenn man nur lokal aufzeichnet, für Youtube oder ähnliches, gibt es überhaupt keinen Grund für so eine Grütze-Bitrate.
Birdman
2019-07-10, 18:03:12
Auf Twitch streamen sehr viele User mit 3mbit, der Anspruch auf eine gute Qualität bei tieferen Bitraten ist daher durchaus real und nachvollziehbar.
Daredevil
2019-07-10, 21:36:26
Wenn man nur lokal aufzeichnet, für Youtube oder ähnliches, gibt es überhaupt keinen Grund für so eine Grütze-Bitrate.
Aber auch da ist AMD in letzter Zeit sehr schlecht gewesen.
Wenn du im GPU Limit aufnimmst, hast du ne Ruckelorgie in deinem Video, weil AMD halt die Ressourcen nicht gescheit verteilen kann. Das geht anderswo besser.
Nochmal, kein Bashing. Ich würde mich nur freuen, wenn sich dort auch etwas tut.
Wir bewegen uns allerdings auch so langsam in ein Zeitalter, wo man 1080p60 streamen kann, oder 1080p144fps. ( Das geht auch bei Twitch. )
FullHD144fps ist für ne CPU der Tod, bei der GPU geht das ganz gut. Da man allerdings seine Bildqualität killt mit FullHD144fps anstatt FullHD60fps, ist eine maximal gute Bildqualität maximal pflicht.
aufkrawall
2019-07-10, 21:49:32
Wenn du im GPU Limit aufnimmst, hast du ne Ruckelorgie in deinem Video, weil AMD halt die Ressourcen nicht gescheit verteilen kann.
So ein Quatsch.
gravitationsfeld
2019-07-10, 21:53:16
Ich habe keine Ahnung, wie ist denn so die Qualitaet von NVIDIAs GPU-Encoder verglichen mit x264 auf einem CPU-Kern?
TheAntitheist
2019-07-10, 22:04:23
Vp1 ist die Zukunft. Da hoffe ich, dass navi2/n20 schon was ordentliches bietet.
VP1 sagt mir nichts aber AV1 wird noch eine lange Zeit brauchen.
Screemer
2019-07-10, 22:06:29
Sollte klar sein. Sorry.
Ich habe keine Ahnung, wie ist denn so die Qualitaet von NVIDIAs GPU-Encoder verglichen mit x264 auf einem CPU-Kern?
The updated NVIDIA Encoder (NVENC) on Turing-based NVIDIA GeForce GPUs (RTX 20-Series and GTX 1660/Ti) will typically produce superior quality than x264 Fast and on par with x264 Medium. While the older generation (Pascal, Kepler) are similar with veryfast/faster quality.
Das schreibt Twitch.
TheAntitheist
2019-07-10, 22:18:33
kann gelöscht werden, wurde von beantwortet.
Daredevil
2019-07-10, 22:40:26
So ein Quatsch.
Was ist denn dann das hier?
https://youtu.be/5pLXrvNOXG4?t=255
https://abload.de/img/unbenannt18kgw.png
https://abload.de/img/244jrj.png
gravitationsfeld
2019-07-10, 22:42:19
Das schreibt Twitch.
Ich hab jetzt zwei Leute auf Youtube gesehen die behaupten es gibt null Unterschied zwischen Pascal und Turing bei 264.
Zum Beispiel https://youtu.be/6fyP7kg0QAc?t=1015
Glaub das ist ein Mythos der von NVIDIAs Marketing rausgegeben wurde und alle schreiben es einfach ab.
robbitop
2019-07-10, 22:51:34
Turings GPU Encoding mit hevc (265) ist auf dem level von x264 medium (cpu). H264 @gpu ist wahrscheinlich eine andere story. Aber wozu gpu x264 wenn man auch mit hevc ohne signifikanten Leistungsverlust mit dem gpu hw encoder machen kann? Wird iirc von allen Streamingplattformen unterstützt. (Bitte korrigieren wenn ich mich irren sollte)
gravitationsfeld
2019-07-11, 00:41:21
Twitch unterstuetzt nur H.264. Das mag sich in Zukunft aendern, aber im Moment ist es 264 einfach der Standard.
robbitop
2019-07-11, 06:57:05
Hm dann ist NVs Advertising zu dem Feature ein bisschen sinnfrei, da zum Streamen irrelevant...
Danke für die Info
Screemer
2019-07-11, 07:03:41
Was ist denn dann das hier?
https://youtu.be/5pLXrvNOXG4?t=255
https://abload.de/img/unbenannt18kgw.png
https://abload.de/img/244jrj.png
Kannst du ja Mal nachstellen. Schmeiß furmark an und nehm das per relive mit h.264 auf. Niemand sonst hat das in dem Ausmaß jemals erwähnt.
BoMbY
2019-07-11, 09:22:07
Furmark ... :hammer:
Screemer
2019-07-11, 09:25:30
Soll ja nach seiner Aussage 100% ausgelastet sein. Man muss doch auf Nummer sicher gehen :ugly:
Daredevil
2019-07-11, 09:28:12
Kannst du ja Mal nachstellen. Schmeiß furmark an und nehm das per relive mit h.264 auf. Niemand sonst hat das in dem Ausmaß jemals erwähnt.
Ich weiß nicht, ob das zielführend ist, wenn ich mit einer HD5850 Videos aufnehme. :D
aufkrawall
2019-07-11, 10:08:03
Was ist denn dann das hier?
https://youtu.be/5pLXrvNOXG4?t=255
https://abload.de/img/unbenannt18kgw.png
https://abload.de/img/244jrj.png
Seit wann ist AMD für das Plug In in OBS verantwortlich?
Gebrechlichkeit
2019-07-11, 10:24:50
https://youtu.be/CLqpVImLPGE
Ich warte lieber auf outlets die davon mehr Ahnung haben. Jemand der nach 2 Saetzen mit ähs, öhs, ahems und teilweise den (eigenen) Faden verliert, seine Pausen... ; die Frau hat en richtigen Job, er faulenzt vor dem TFT bei 5k views und seinen Seitenhieb Richtung AMD? "das dauert mir zu lange, ich spuele waehrenddessen ab ..." hat eher gezeigt, wie "faul" er doch ist.
Zwei Waschbecken voll und ein Geschirrspueler der gefuettert werden will ... ; und was will hier (https://youtu.be/CLqpVImLPGE?t=523)zeigen? Quliataetsunterschiede zwischen A und B? Wo bleibt der Cut, scheint ein und das selbe Video zu sein (entweder Source A oder B, aber nicht beide).
@AMD
AMF Teil im SoC? weglassen, duerfte damit kleiner ausfallen
aRM Chip? auf die Karten kleben, chip speziell fuer des Streaming? oder
eine GPGPU Karte rausbringen, fuer den PCIx4 Slot?
Jeder Consolen Heini kann seit 2013 streamen, at 30fps aber immerhin. Kann doch nicht so kompliziert sein.
Daredevil
2019-07-11, 10:24:54
Seit dem ein Channel mit 400k Subscriber die Leistung als "even worse" bezeichnet.
Hardware funktioniert nur, wenn man die passende Software liefert, damit der Kunde sein Problem ( Lagfreies problemloses Streamen über die GPU ) gelöst bekommt.
Nvidia macht das doch auch, ganz offiziell, wieso macht AMD das nicht?
Für welche Software ist AMD denn verantwortlich, mit der man komfortabel streamen kann?
Relive? :D
Zudem war meine Aussage nicht, dass man nicht mit AMD Hardware gescheit Videos aufnehmen kann, sondern das man nicht gescheit streamen kann mit dem welt verbreitesten Third Party Tool zum streaming, weil AMD ihre Ressourcen nicht gescheit verteilt, wo es dann halt zu Rucklern kommt bei 100% Auslastung.
Das habe ich mit Vega hinter mir.
*Unter Windows
OyjeJVwKoq0
Screemer
2019-07-11, 11:15:58
Ich weiß nicht, ob das zielführend ist, wenn ich mit einer HD5850 Videos aufnehme. :D
du hast ja nicht genügend v7 rumliegen um die mal für ne halbe stunde auszubauen... du stellst behauptungen in den raum und könntest die auch belegen. willst aber schlicht nicht. also lass es bleiben.
wäre es normal, dass 99% der fps gedroppt werden wenn der gpu load bei 100% liegt, hätte man das abseits eines hwunboxed videos schon öfter gehört.
Savay
2019-07-11, 11:52:27
Kann auch ein OBS spezifisches Problem sein!?
Ist mir beim HDD Recording über ReLive noch nie in dem Maße aufgefallen.
Aber ich mach das auch nicht täglich.
aufkrawall
2019-07-11, 12:02:36
Auch mit Nvidia kann man keine ruckelfreien Videos aufnehmen bzw. erst recht nicht. Es darf gerne jemand das Gegenteil beweisen und ein ruckelfreies Capture @perfekten 60fps aufnehmen und hochladen. Und wenn es schon bei Teillast durch fps-Limit/Vsync nicht möglich ist, dann unter Vollast erst recht nicht.
Zumindest Teillast war bei mir mit ReLive schon mit der popeligen RX 560 komplett ruckelfrei, hier zuletzt mit der RX 580:
1i_QLAMPI1w
Ich würd auch nicht von der Beta-GPU Vega auf AMD allgemein schließen, die hatte teilweise selbst mit HEVC 10 Bit Decoding Probleme und PlayReady 3.0 ist ja auch im Arsch...
x-force
2019-07-11, 12:39:34
Auch mit Nvidia kann man keine ruckelfreien Videos aufnehmen bzw. erst recht nicht. Es darf gerne jemand das Gegenteil beweisen und ein ruckelfreies Capture @perfekten 60fps aufnehmen und hochladen.
f1haQ7Ojfok
was sagst du dazu?
Hier schneidet Navi gar nicht so schlecht ab.
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-vs-AMD-RX-5700-XT/4026vs4045
(2080 vs 5700XT)
Custom Karten sollten das noch etwas zu Gunsten von Navi ändern...
M.f.G. JVC
aufkrawall
2019-07-11, 12:55:59
https://youtu.be/f1haQ7Ojfok
was sagst du dazu?
Das Material taugt nicht, um kleinere Ruckler erkennen zu können. Es sollte schon eine konstante (und nicht zu schnelle) Seitwärts-Bewegung sein.
x-force
2019-07-11, 13:22:35
Das Material taugt nicht, um kleinere Ruckler erkennen zu können. Es sollte schon eine konstante (und nicht zu schnelle) Seitwärts-Bewegung sein.
ok, aber das hat dann höchstens akademische belange, wenn das in der praxis nicht zu erkennen ist :wink:
Screemer
2019-07-11, 13:57:00
kannst du dich an dargos aufregung zu "stuttering" mit relive erinnern? das war akademischer natur.
Daredevil
2019-07-11, 19:17:37
Eposvox hat Bilder nachgereicht:
Hier gibts alle: https://imgur.com/a/JVVPXbF
aufkrawall
2019-07-11, 19:26:00
Da ist offenbar etwas kaputt mit Navi vs. Polaris:
https://i.imgur.com/iEYOSKU.jpg
Screemer
2019-07-11, 19:29:11
Mehr als offensichtlich.
Da ist offenbar etwas kaputt mit Navi vs. Polaris:
https://i.imgur.com/iEYOSKU.jpg
Navi ist kaputt, die rechte Seite sieht soweit normal aus.
HarryHirsch
2019-07-11, 19:34:25
Navi ist kaputt, die rechte Seite sieht soweit normal aus.
design fehler oder kaputte einheiten oder wie
aufkrawall
2019-07-11, 19:40:18
Navi ist kaputt, die rechte Seite sieht soweit normal aus.
Das sagte ich bereits.
design fehler oder kaputte einheiten oder wie
Das kann auch am Treiber liegen. Wobei kaputt die falsche Bezeichnung ist, die Qualität ist einfach nur schlecht, besonders mit 2 Mbit. Bei den 6 Mbit Bildern sieht das lange nicht mehr so blockig aus. Es dürfte nur nicht sein, dass die Qualität unter Polaris liegt, zumal sie ja im Vorfeld noch mit einem qualitativ besseren Encoder geworben haben.
crux2005
2019-07-11, 19:50:20
Das kann auch am Treiber liegen. Wobei kaputt die falsche Bezeichnung ist, die Qualität ist einfach nur schlecht, besonders mit 2 Mbit. Bei den 6 Mbit Bildern sieht das lange nicht mehr so blockig aus. Es dürfte nur nicht sein, dass die Qualität unter Polaris liegt, zumal sie ja im Vorfeld noch mit einem qualitativ besseren Encoder geworben haben.
AMD hat auch lange Primitive Shader bei Vega beworben. ;)
Daredevil
2019-07-11, 20:13:35
https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/News/Custom-Designs-von-Asus-paeter-als-August-1294225/
Asus sagt, Customs dauern noch bis September.
Oh god why, pls no Vega Dejavu. x(
Da ist offenbar etwas kaputt mit Navi vs. Polaris:
https://i.imgur.com/iEYOSKU.jpg
Ja, sag ich doch.
Ist nur die Frage, ob es gefixt wird, oder halt nicht.
Vega sah halt auch scheiße aus und da hat sich AMD nicht drum gekümmert, vielleicht ist das gar nicht auf deren Agenda.
Gebrechlichkeit
2019-07-11, 20:26:51
Da ist offenbar etwas kaputt mit Navi vs. Polaris:
https://i.imgur.com/iEYOSKU.jpg
1º wie hat er die gleiche aktion im Spiel, zum richtigen zeitpunkt ausgefuehrt, auf den huegel rennend die waffen nachzuladen, das licht? k.a ob die immer gleich ist? frame by frame die gleiche animation mit zwei ver. gpus dann noch passender uebergang von 5700 auf 580 sprich :
2º wo bleibt der cut zwischen beiden bildern? irgendwo muessen doch Bild A von der 5700 sich von der 580 trennen, aber schaut wie ein "ganzes" bild aus ... egal wie gut der ist als editor, fuer mich schaut das gephotoshopped aus, aber viel wichtiger :
3º 2mbit? Will man das auf die PSP von Sony streamen?
Der_Korken
2019-07-11, 20:53:07
Asus sagt, Customs dauern noch bis September.
Oh god why, pls no Vega Dejavu. x(
WTF?
:mad:
Was dauert denn da bitte so lange? Bis die Customs kommen, hat AMD wahrscheinlich schon die 5800 angekündigt und ich kann wieder warten.
Screemer
2019-07-11, 21:19:54
1º wie hat er die gleiche aktion im Spiel, zum richtigen zeitpunkt ausgefuehrt, auf den huegel rennend die waffen nachzuladen, das licht? k.a ob die immer gleich ist? frame by frame die gleiche animation mit zwei ver. gpus dann noch passender uebergang von 5700 auf 580 sprich :
2º wo bleibt der cut zwischen beiden bildern? irgendwo muessen doch Bild A von der 5700 sich von der 580 trennen, aber schaut wie ein "ganzes" bild aus ... egal wie gut der ist als editor, fuer mich schaut das gephotoshopped aus, aber viel wichtiger :
3º 2mbit? Will man das auf die PSP von Sony streamen?
Die ganzen Videos und Bilder sind aus dem selben quellvideo entstanden. Er hat die Encodereinstellungen so gewählt, dass sie den obs settings entsprechen und neu codiert. Natürlich ist der framegrab mit nem Grafikprogramm zusammengesetzt aka shopped. Seit du aus dem filmthread Mal raus kommst wird jeder Beitrag von dir absurder.
nairune
2019-07-11, 21:35:17
Asus sagt, Customs dauern noch bis September.
Richtig lesen: Asus sagt, ihre Customs kommen September. MSI hat doch bereits August versprochen.
Die eigentliche Frage ist nun, wann Sapphire soweit ist :biggrin:
Daredevil
2019-07-11, 22:40:12
Das ist schon klar, das Asus nicht für alle andere spricht. :D
Aber Asus war bei Vega zumindest eine der ersten, die Customs vorgestellt haben...
Tarkin
2019-07-12, 07:44:48
https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/News/Custom-Designs-von-Asus-paeter-als-August-1294225/
Asus sagt, Customs dauern noch bis September.
Oh god why, pls no Vega Dejavu. x(
Ja, sag ich doch.
Ist nur die Frage, ob es gefixt wird, oder halt nicht.
Vega sah halt auch scheiße aus und da hat sich AMD nicht drum gekümmert, vielleicht ist das gar nicht auf deren Agenda.
QZyHBAEJTC8
bei 39:30, letzte Frage
"Mid August"
DK999
2019-07-12, 11:36:23
Wieso ändert die Auslastung überhaupt etwas an der Aufnahme, sollten das nicht eigenständige Einheiten in der GPU sein, die sich hinzuschalten lässt?
Komme aus der FPGA-Ecke, da tangiert das die anderen Komponenten halt auch nicht :freak:
Akkarin
2019-07-12, 12:24:17
Mich wundert dass RIS so wenig besprochen wurde bisher. Nach der handvoll an Tests die es gibt scheint es ja mindesten DLSS ebenbürtig zu sein. Hat das einer von euch schon mal ausprobiert und kann seinen subjektiven eindruck beschreiben ?
Gimmick
2019-07-12, 12:30:19
Da ist offenbar etwas kaputt mit Navi vs. Polaris:
https://i.imgur.com/iEYOSKU.jpg
Ich hatte das so verstanden, dass das eher ein Problem mit der aktuellen Implementierung von AMF in FFMPEG ist und kein Problem in Navi. Klang aber auch so, dass die Pflege etwas eingeschlafen ist, ich rechne eher nicht mit einer schnellen Änderung.
Dafür soll ja die HEVC-Umsetzung ziemlich gut sein.
Screemer
2019-07-12, 12:46:21
Mich wundert dass RIS so wenig besprochen wurde bisher. Nach der handvoll an Tests die es gibt scheint es ja mindesten DLSS ebenbürtig zu sein. Hat das einer von euch schon mal ausprobiert und kann seinen subjektiven eindruck beschreiben ?
im passenden thread wirst du fündig: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12046838#post12046838
BoMbY
2019-07-12, 20:21:39
Vermutlich Navi14 (DeviceID 7340:C1; gfx1012; 12 bzw. 24 CUs): https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+7340%3AC1&testgroup=info
Via Twitter (https://twitter.com/KOMACHI_ENSAKA/status/1149727775240019968)
Edit: Gut geraten bisher:
Ich würde sagen:
Renoir: 16 CUs
Navi14: 24 CUs GDDR5
Navi10: 40 CUs GDDR6
Navi12: 64 CUs GDDR6
Navi21: 96 CUs (und HBM2 oder HBM3).
So wird ein Schuh daraus.
;D
Vermutlich Navi14 (DeviceID 7340:C1; gfx1012; 12 bzw. 24 CUs): https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+7340%3AC1&testgroup=info
Via Twitter (https://twitter.com/KOMACHI_ENSAKA/status/1149727775240019968)
Edit: Gut geraten bisher:
;D
Und ? Was gibt's neues zu "NR. 21" ?
Ich will BIG-Navi :biggrin:
M.f.G. JVC
basix
2019-07-12, 21:29:37
Ich habe mir mal RIS ein wenig angeschaut. Ich bin schwer beeindruckt. Wenn die das noch für DX11 bringen wird das richtig gut. Ich hasse die Post Processing Unschärfe in heutigen Spielen. Anscheinend wiederverwertet AMD die Post Processing Infos und schärft entsprechend nach. Sieht wirklich sehr gut aus. Auch Texturen sehen deutlich schärfer und detailreicher aus. 4K + RIS sieht umwerfend aus kostet nichtmal einen Deut Leistung.
Meine nächste CPU wird ja AMD sein. Wenn sich AMD bei den GPUs den Navi Kurs weiter fahren, wird das auch bei der Grafikkarte der Fall sein :) Aber Raytracing ist für mich ein Muss, dazu ist die Technologie zu geil. RDNA 2?
Edit:
Guter Artikel zu RIS https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
gravitationsfeld
2019-07-12, 22:03:51
Wieso ändert die Auslastung überhaupt etwas an der Aufnahme, sollten das nicht eigenständige Einheiten in der GPU sein, die sich hinzuschalten lässt?
Komme aus der FPGA-Ecke, da tangiert das die anderen Komponenten halt auch nicht :freak:
Clock-Gating
BoMbY
2019-07-12, 22:10:21
Vermutlich eher weil das immer noch in so einer Art "Hybrid Mode" läuft:
https://en.wikipedia.org/wiki/Video_Coding_Engine#/media/File:AMD_VCE_hybrid_mode.svg
Fragman
2019-07-12, 22:34:13
Ich habe mir mal RIS ein wenig angeschaut. Ich bin schwer beeindruckt. Wenn die das noch für DX11 bringen wird das richtig gut. Ich hasse die Post Processing Unschärfe in heutigen Spielen. Anscheinend wiederverwertet AMD die Post Processing Infos und schärft entsprechend nach. Sieht wirklich sehr gut aus. Auch Texturen sehen deutlich schärfer und detailreicher aus. 4K + RIS sieht umwerfend aus kostet nichtmal einen Deut Leistung.
Meine nächste CPU wird ja AMD sein. Wenn sich AMD bei den GPUs den Navi Kurs weiter fahren, wird das auch bei der Grafikkarte der Fall sein :) Aber Raytracing ist für mich ein Muss, dazu ist die Technologie zu geil. RDNA 2?
Edit:
Guter Artikel zu RIS https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
Die Texturen sehen sehr gut aus, die Objektkanten allerdings nicht, die haben die typischen Artefakte.
deekey777
2019-07-13, 19:07:34
Vermutlich Navi14 (DeviceID 7340:C1; gfx1012; 12 bzw. 24 CUs): https://compubench.com/device.jsp?benchmark=compu20d&os=Windows&api=cl&D=AMD+7340%3AC1&testgroup=info
Via Twitter (https://twitter.com/KOMACHI_ENSAKA/status/1149727775240019968)
Edit: Gut geraten bisher:
;D
24 Navi-CUs, das ist schon eine Ansage, insbesondere weil seit Jahren ein riesiges Loch klafft.
Dürfte eine RX 590 zum kleinen Wattpreis gut verblasen, das Ding (sofern eine Navi-CU immer eine Navi-CU ist).
MfG,
Raff
x-force
2019-07-13, 19:15:19
Die Texturen sehen sehr gut aus, die Objektkanten allerdings nicht, die haben die typischen Artefakte.
wird beides praktisch überscharf sein... ich frage mich noch immer was es daran zu feiern gibt, jeder tv hat schärferegler und einige andere noch techniken wie reality creation o.ä.
gemeinsam haben sie alle, daß das bild maximal verschlimmbessert wird.
siemensstern als textur laden und die hose ist unten.
DrFreaK666
2019-07-13, 20:06:03
wird beides praktisch überscharf sein... ich frage mich noch immer was es daran zu feiern gibt, jeder tv hat schärferegler und einige andere noch techniken wie reality creation o.ä.
gemeinsam haben sie alle, daß das bild maximal verschlimmbessert wird.
siemensstern als textur laden und die hose ist unten.
Beim TV sorgt sowas für Input-Lag. Ich denke dass es per Software oder Treiber besser ist was das angeht.
Beim Spiele-Profil an meinem TV habe ich so gut wie alles abgeschaltet
x-force
2019-07-13, 20:08:16
Beim TV sorgt sowas für Input-Lag. Ich denke dass es per Software oder Treiber besser ist was das angeht.
Beim Spiele-Profil an meinem TV habe ich so gut wie alles abgeschaltet
schärfe und reality creation auf meinem sony nicht, der rest ist im spieleprofil eh ausgegraut
reaperrr
2019-07-13, 20:16:26
Dürfte eine RX 590 zum kleinen Wattpreis gut verblasen, das Ding (sofern eine Navi-CU immer eine Navi-CU ist).
MfG,
Raff
Da die Karte nur 4GB und damit wohl auch nur 128bit (halbe Bandbreite) hat, könnte der Vollausbau mit 5700XT-Taktraten schon etwas durch den Speicher ausgebremst werden, 590 könnte daher knapp werden (natürlich nicht in allen Spielen, aber im Durchschnitt).
Aber die 4GB-Varianten der anderen P10/P20-Modelle sollten locker machbar sein, selbst mit ggü. 570/580 halbierten TDPs.
Ist es jetzt eigentlich einhellige Meinung, dass RIS besser sein soll als DLSS?
x-force
2019-07-13, 20:29:10
Ist es jetzt eigentlich einhellige Meinung, dass RIS besser sein soll als DLSS?
ist nicht wirklich vergleichbar, je nach lager zugehörigkeit wirst du aber andere aussagen hören.
aufkrawall
2019-07-13, 20:30:24
Ich denke nicht, dass RIS ohne effektives TAA des Spiels brauchbare Ergebnisse erzielt. Metro ist mit dem guten TAA und der RS-Einstellung sicherlich der Bestcase, so ist das mit einem 4k-Gerät offenbar eine feine Sache.
DLSS finden viele Turing-Besitzer offenbar allgemein komplett nutzlos.
Daredevil
2019-07-13, 21:58:46
Auszug aus dem Interview:
https://youtu.be/QZyHBAEJTC8?t=1435
"Your DIE Size is tiny, theoretically when you go nuts with more compute Units and 384bit Memory bus with this architekture unchanged, you guys can go on the top of the market. Yes or no, maybe that can happen?"
Antwort:
https://abload.de/img/unbenannt2ckd9.png
:D
mironicus
2019-07-13, 22:10:35
Vielleicht kommt die RX 5800 ja noch in diesem Jahr raus. Kein Wunder, dass NVidia sich schon mit der 2080 Super positioniert hat.
Daredevil
2019-07-13, 22:17:55
Vielleicht im Herbst, mit dem High End Ryzen?
Ich denke auch, dass Nvidia nicht ohne Grund die 2080Super neu auflegt, die war ja letztens schon kurz bei Geizhals gelistet, hatte aber nur sehr wenige Cores mehr, sofern die Daten dort stimmten.
Es wäre ja auch nicht verkehrt, dass wenn ein HighEnd Produkt auf den Markt kommt, dass die Treiber und Zickereien in den 2-3 Monaten gefixt sind, damit sie sich maximal gut präsentieren.
Wenn AMD schon so aggressiv agiert im CPU segment und nicht nur Intel mit 12c vor sich her scheucht, sondern sie gleich mit 16c zerstören wollen, dann aber bitte doch auch im GPU Segment.
Wie Raff schon sagte, wenn der Gegner gerade strauchelt und der Energie Balken leer ist, schnell das Fatality zünden. :D
Edit:
AMD hat sich auch hier zu den x264 Encoder Problemen geäußert, die arbeiten dran
https://youtu.be/QZyHBAEJTC8?t=2420
robbitop
2019-07-13, 22:43:14
DLSS ist in den bisherigen Implementierungen nunmal nicht so überzeugend. 1800p und Schärfefilter bringt vergleichbare oder bessere Ergebnisse. Das ist IMO keine neue Erkenntnis. Der adaptive Teil von RIS scheint nochmal besser zu sein als Lumasharpen.
aufkrawall
2019-07-13, 22:55:04
Edit:
AMD hat sich auch hier zu den x264 Encoder Problemen geäußert, die arbeiten dran
https://youtu.be/QZyHBAEJTC8?t=2420
Erstmal schauen sie es sich nur an. ;)
Erschiene mir allerdings arg seltsam, falls man wirklich in Hardware den H.264-Encoder so verkackt hätte.
OgrEGT
2019-07-14, 16:58:02
RX5600 Navi14
24CU 1536SP 4Gb GDDR6
https://www.notebookcheck.com/Leak-Erste-Spezifikationen-der-AMD-Radeon-RX-5600.427407.0.html
Daredevil
2019-07-14, 17:03:47
Oh God why, pls no 4GB x(
robbitop
2019-07-14, 17:15:38
Ggf. gibt es ja 2x Varianten. 4 GB und 8 GB. Geht ja schon in die Richtung günstiges Segment.
Wenn es ein 128 bit SI sein sollte, hat man mehr Flops pro MB/s. (0,6x der Einheiten (ggf. weniger Takt) bei 1/2 der Bandbreite) Da wird sich die Bandbreiteneffizienz von Navi dann zeigen müssen. :) Wird interessant.
Ggf. ist Navi 20 dann ja eine Art dreifacher Navi 14. Also 4608 ALUs / 72 CUs und 384 bit GDDR6. Ein doppelter Navi 10 [5120 ALUs / 80 CUs / 512 bit] wäre andererseits schon brachial...
Oh God why, pls no 4GB x(
Zu den Preisen der 560
https://geizhals.eu/?cat=gra16_512&xf=132_4096%7E9809_14+2406+-+RX+560&sort=p (~120.-)
wäre das doch ok ?
M.f.G. JVC
Ghost1nTh3GPU
2019-07-14, 17:18:42
4G GDDR6 für $169 wären schon in Ordnung.
aufkrawall
2019-07-14, 17:21:18
Zu den Preisen der 560
https://geizhals.eu/?cat=gra16_512&xf=132_4096%7E9809_14+2406+-+RX+560&sort=p (~120.-)
wäre das doch ok ?
M.f.G. JVC
RX 570 8GB kostet 15€ mehr...
Daredevil
2019-07-14, 17:24:10
Zu den Preisen der 560
https://geizhals.eu/?cat=gra16_512&xf=132_4096%7E9809_14+2406+-+RX+560&sort=p (~120.-)
wäre das doch ok ?
M.f.G. JVC
Die Preise der 560 sind auch die Preise der 570.
Wenn wir jetzt 570 Leistung mit 8GB haben für 125€, wäre selbst 590 Leistung für 99€, aber mit 4GB..... irgendwie unrund.
Damit soll man ja ne 1660 6gb kontern anscheinend.
Damit soll man ja ne 1660 6gb kontern anscheinend.
Vermutlich 5600 XT :rolleyes:
Ich brenne vor Neugier auf die "5900" Reihe :freak:
(und das Machbare/Mögliche, bei egal wie vielen Watt :devil:)
Wer hat eigentlich gesagt das GPUs bei 300Watt halt machen "müssen"?
Mich "stört" doch auch ne "500Watt" CPU nicht ... :freak: (Fps/Cap und gut :wink:)
M.f.G. JVC
VooDoo7mx
2019-07-14, 22:10:06
Oh God why, pls no 4GB x(
Oh God, why pls noch ein unqualifizierter man brauchst mindestens 16 GiB Vram und überhaupt und sowieso ist alles unter Ultra Details mit UHD 120fps kein Gaming mehr, Kommentar.
Ich weiß jetzt nicht wo das Problem bei einer MSRP $169 Karte ein Problem mit 4GiB Vram geben soll. Und selbst wenn dreht man die Texturdetails eine Stufe runter was meisten selbst bei 10facher Vergrößerung absolut keinen Unterscheid macht.
Daredevil
2019-07-14, 22:12:40
Weil es ein Rückschritt ist?
4GB kannste auf ne 1050TI schrauben, aber doch auf keine ~2/3 5700.
*Es sei denn, es gibt halt Verbesserungen beim Management
SKYNET
2019-07-14, 22:42:39
4GB ist vollkommen inakzeptabel bei der leistungsklasse ab RX570... also bei der 5600er die wohl locker mit ner RX580/590 schritt halten kann, erstrecht zuwenig...
SKYNET
2019-07-14, 22:43:21
Vermutlich 5600 XT :rolleyes:
Ich brenne vor Neugier auf die "5900" Reihe :freak:
(und das Machbare/Mögliche, bei egal wie vielen Watt :devil:)
Wer hat eigentlich gesagt das GPUs bei 300Watt halt machen "müssen"?
Mich "stört" doch auch ne "500Watt" CPU nicht ... :freak: (Fps/Cap und gut :wink:)
M.f.G. JVC
bei 400W und 30% über der 2080Ti würde wohl niemand was sagen ;)
VooDoo7mx
2019-07-14, 22:48:21
Weil es ein Rückschritt ist?
4GB kannste auf ne 1050TI schrauben, aber doch auf keine ~2/3 5700.
*Es sei denn, es gibt halt Verbesserungen beim Management
Ein Rückschritt zu was?
Die Teile ersetzen RX550/RX560 und in diesen Segment reichen 4GiB vollkommen aus. Da es soweit ich weiß keine 4 Gb GDDR6 Chips gibt, bedeuten die 4GiB VRAM ein 128Bit Speicherinterface.
Und wer sich eine $169 Karte kauft erwartet auch nicht überall alles auf Ultra zu stellen.
Außerdem scheint sich bei Navi auch einiges beim Speicherinterface getan zu haben. Polaris war beim Speicherverwaltung auch im Vergleich zu Pascal extrem ineffizient. Eine GTX 1060 hat die Reduzierung von 6 auf 3GiB VRAM besser verkraftet als eine RX480 von 8 auf 4 GiB
Dein peinliches am Thema vorbei Video scheinst du ja schon selber entfernt zu haben.
Elite_Warrior
2019-07-15, 00:07:04
Kann Navi überhaupt HBCC? Habe das nirgends gelesen. Das würde den zu kleinen Speicher etwas abdämpfen und PCIe gen4 könnte da auch flotter Daten nachliefern.
amdfanuwe
2019-07-15, 00:10:46
Mal langsam.
Ne 5600 4GB mit 24CU und ~1660 Leistung geht doch in Ordnung, wenn der Preis stimmt.
8GB gibt es dann etwas teurer.
Ich hoffe aber eher auf eine 8GB 5600X 28CU mit >1660Ti Leistung zum attraktivem Preis.
Hakim
2019-07-15, 05:10:25
Wenn man schon mit der 1660 konkurrieren will hätte man auch einfach genau wie diese auf 192 Bit und 6gb setzen können. Naja mal abwarten
Das Ding ersetzt Polaris 10/20/30.
Polaris 11/21 und 12 werden als 12nm-Varianten sicherlich erhalten bleiben als 5300-5500.
deekey777
2019-07-15, 15:07:27
P10 hatte Probleme mit der damaligen 1060Ti mitzuhalten, gegen die 1050/Ti hatte AMD quasi nichts anzubieten, vielleicht mit der vollausgebauten RX 560 mit 16 CUs.
Der Hauptgegner der "5600er" wird eher die 1650/Ti sein - mit 4 GB und nicht gleich die 1660/Ti mit 6 GB. Viel wichtiger wird für AMD sein, mit dem Chip in den Laptopmarkt Fuß zu fassen, wo GP106/107 und TU116/117 das Sagen haben.
Er wird schon schneller als Polaris 10 sein. Das wird so bei 1660 und 1650 landen. Immer dran denken, dass die 1660 zwar 192 Bit hat, aber nur GDDR5. Die Speicherbandbreite ist ähnlich. Und die kleinen Polaris werden ja 12nm sein und deshalb 200MHz mehr Takt bringen können. Die Samsung Pascals sind ja auch nach wie vor aktuell, da gibts also auch bei NV keinen Fortschritt. Wenn man mit nem 12nm Polaris 11 in die Nähe der 1050 Ti kommt reicht das dicke.
Sicherlich gibts die 5600XT auch mit 8GB, das halte ich für klar. Wichtig für AMD ist halt, dass P10/20/30 aus dem Programm fleigt, dass P11 und P12 in 12nm weiterlaufen können, um GloFo auszulasten, und das Vega vom Markt kommt, das haben wir ja schon.
dargo
2019-07-15, 15:28:19
P10 hatte Probleme mit der damaligen 1060Ti mitzuhalten, gegen die 1050/Ti hatte AMD quasi nichts anzubieten, vielleicht mit der vollausgebauten RX 560 mit 16 CUs.
Was ist eine 1060TI? :confused: Zudem könnte man es auch anders formulieren... Nvidia hatte nichts gegen die RX570. ;)
][immy
2019-07-15, 16:08:56
Was ist eine 1060TI? :confused: Zudem könnte man es auch anders formulieren... Nvidia hatte nichts gegen die RX570. ;)
naja Polaris war "dank" Mining-Boom leider lange nicht in der gleichen Preiskategorie. Erst seit dem die Preise runter gegangen sind, ist die RX570 in ihrem Preissegment Konkurrenzlos. Der Mining-Boom hat leider den gesamten Markt verzerrt. Aber zum glück lohnt es ja GPU Mining inzwischen nicht mehr.
genervt
2019-07-16, 09:06:49
angenommen 15XX Shader stimmen. Klafft dann nicht eine große Lucke zwischen 5700 und 5600???
mich würde ja eher eine Karte knapp unter 5700 auf Vega 56 Niveau interessieren. ~ 250€ bei niedrigerem Verbrauch.
Die Leistung der 5700 ist gut, nur der Preis für meinen Geschmack zu hoch.
Brillus
2019-07-16, 09:12:17
angenommen 15XX Shader stimmen. Klafft dann nicht eine große Lucke zwischen 5700 und 5600???
mich würde ja eher eine Karte knapp unter 5700 auf Vega 56 Niveau interessieren. ~ 250€ bei niedrigerem Verbrauch.
Die Leistung der 5700 ist gut, nur der Preis für meinen Geschmack zu hoch.
Nicht so groß als bei P10 und P11( prozentual gesehen).
Das passt ja genau zu meinem spekulierten Lineup. 570er Leistung fällt halt weg, dafür gibts nen stärkeren P11.
12nm P12 (2-4GB GDDR5/DDR4) (schon bestätigt als P31)
12nm P11 (4GB GDDR5) (ersetzt 14nm P11/21+ 10-20% mehr Leistung, von mir spekuliert)
N14 (4-8GB GDDR6) (ersetzt Polaris 10/20/30 bis etwas unter V56)
N10 (8GB GDDR6) (ersetzt V64 und VII)
angenommen 15XX Shader stimmen. Klafft dann nicht eine große Lucke zwischen 5700 und 5600???
mich würde ja eher eine Karte knapp unter 5700 auf Vega 56 Niveau interessieren. ~ 250€ bei niedrigerem Verbrauch.
Die Leistung der 5700 ist gut, nur der Preis für meinen Geschmack zu hoch.
Hol dir doch einfach ne V56 - so hoch ist der Verbrauch doch nicht und du hast 8 GB zzgl. HBCC
amdfanuwe
2019-07-16, 11:35:56
N14 (4-8GB GDDR6) (ersetzt Polaris 10/20/30 bis etwas unter V56)
Da reichen 24CU bei Navi aber nicht. Die wären grad mal gut für etwas besser als 590 und etwa auf 1660 Niveau.
dildo4u
2019-07-16, 11:38:23
Was AMD dringst braucht 590 ziehen über 200 Watt du brauchst was was deutlich billigere PCBs/Kühler zulässt damit man bei 200€ Kohle machen kann.
Je billiger die Karte je entscheidender sind die Kosten abseits der eigentlichen GPU.
Da reichen 24CU bei Navi aber nicht. Die wären grad mal gut für etwas besser als 590 und etwa auf 1660 Niveau.
Das sehen wir dann.
Unicous
2019-07-16, 14:41:26
Da reichen 24CU bei Navi aber nicht. Die wären grad mal gut für etwas besser als 590 und etwa auf 1660 Niveau.
Wenn sich die Performanceschübe von Navi10 auf Navi14 übertragen dann dürfte man deutlich über der 590 landen. Computerbase hat die 5700 auf 1,5GHz gedrosselt und mit einer 590 verglichen, da war man im Schnitt schon knapp 40% schneller. Wenn man dann noch die kolportierten 1900MHz dazurechnet kann man die 12 CUs damit (theoretisch) locker ausgleichen.
Und warum muss man überhaupt die 590 "schlagen". Wir wissen immer noch nicht welches Preissegment angestrebt wird. Bei CB ist die 5700 53% schneller im 1080p Rating, das passt alles sehr gut zusammen. Ein Chip auf 590er Niveau, das die Polaris 10er Serie beerbt, dabei deutlich sparsamer ist, maximal einen 6Pin benötigt und wahrscheinlich auch auf den mobilen Sektor ausgelegt ist. Für 150 Dollar wäre das Ding der Knaller, auch wenn ich momentan nicht davon ausgehe, dass AMD das auch wahr macht, es werden eher 200 Dollar sein. Alles darüber würde niemanden aus der Reserve locken.
mczak
2019-07-16, 18:04:09
8GB gibt es dann etwas teurer.
Die Frage ist wie gross da der Aufpreis wird. 16gb gddr6 Chips sind noch ziemlich exotisch (werden auch nur von Samsung produziert), die verbaut noch keiner auf Consumer-Karten.
Clamshell-Mode (mit 8 8gb Chips) ginge theoretisch vielleicht auch, aber da habe ich auch meine Zweifel (gibt wohl das Standard-PCB für diese Karten nicht her?).
amdfanuwe
2019-07-16, 18:26:16
Meine Rechnung:
AMDs 40CU, 2560 Shader, sind langsamer als Nvidias 2560 Shader auf der 2070Super.
Entspechend dürften Navi mit 24CU, 1536 Shader, langsamer sein als die 1660Ti mit 1536 Shader.
Und warum muss man überhaupt die 590 "schlagen". Wir wissen immer noch nicht welches Preissegment angestrebt wird.
5700 für +$350 und 5600 für <$200? Wäre ziemlich dumm das $200 Segment Nvidia zu überlassen. V56 hält sich zwar tapfer, hat aber einen zu hohen Verbrauch.
Die Frage ist wie gross da der Aufpreis wird. 16gb gddr6 Chips sind noch ziemlich exotisch
Muß ja nicht unbedingt GDDR6 sein. 8GB sollten es aber schon werden für +150€. Sonst kann AMD gleich Nvidia das Feld überlassen.
mczak
2019-07-16, 19:01:32
Muß ja nicht unbedingt GDDR6 sein. 8GB sollten es aber schon werden für +150€. Sonst kann AMD gleich Nvidia das Feld überlassen.
16gb gddr5 Chips gibt es überhaupt nicht. Da wäre also auch Clamshell-Design gefragt.
Aber ich habe grosse Zweifel ob gddr5 da sinnvoll wäre. Das Teil sollte doch schneller werden als eine GTX 1650 (Ti), und mit gddr5 wird das schwierig. Da hätte man ja bloss die Speicherbandbreite einer RX 560 (gut etwas mehr geht noch aber nicht so viel).
Der_Korken
2019-07-16, 19:22:16
Meine Rechnung:
AMDs 40CU, 2560 Shader, sind langsamer als Nvidias 2560 Shader auf der 2070Super.
Entspechend dürften Navi mit 24CU, 1536 Shader, langsamer sein als die 1660Ti mit 1536 Shader.
Das kommt immer drauf an, wie man vergleichst. Salvage-Karten sind tendenziell etwas effizienter mit ihrer Rechenpower, da sie vom größeren Frontend und den Caches des "großen" Modells mitprofitieren. Die 5700 liegt laut CB exakt auf Augenhöhe mit der 2070 was IPC angeht, bei 5700XT vs 2070S dürfte Nvidia gewinnen.
Das Teil sollte doch schneller werden als eine GTX 1650 (Ti), und mit gddr5 wird das schwierig. Da hätte man ja bloss die Speicherbandbreite einer RX 560 (gut etwas mehr geht noch aber nicht so viel).
Wenn GDDR5, dann natürlich auch 256bit, alles andere macht keinen Sinn.
Ghost1nTh3GPU
2019-07-16, 19:27:39
Vielleicht ist es ein Single-Stack HBM2 (mit EMIB).
basix
2019-07-16, 19:29:41
GDDR5 mit 8GT/s bei 256bit auch mit genug Bandbreite und günstig. Einfach nicht so energieeffizient.
Ghost1nTh3GPU
2019-07-16, 19:34:23
GDDR5 mit 8GT/s bei 256bit auch mit genug Bandbreite
Viel zu aufwendiges PCB, erst recht für Mobile/Apple. Der Benchmarkeintrag sagt nichts über den Speichertyp aus. Mit Vega EOL werden HBM2 Kapazitäten frei.
Mit PolarisX0 hat man eine Billig-Lösung für den Midrange, Navi14 könnte andere Ziele (Mobile, LowProfile) haben.
Ebenso hat Navi10 noch Potential nach unten: 32CU+GDDR5, um die 7nm Ausbeute zu erhöhen.
amdfanuwe
2019-07-16, 19:38:55
Die 5700 liegt laut CB exakt auf Augenhöhe mit der 2070 was IPC angeht, bei 5700XT vs 2070S dürfte Nvidia gewinnen.
Genau. AMD liegt braucht 2560 Shader um auf Augenhöhe mit Nvidias 2304 Shadern auf der 2700 zu sein. AMD braucht also ~10% mehr Shaderleistung um mit Nvidia gleichzuziehen.
Naja, mal abwarten. Ich hoffe halt auf eine Alternative zu 1660(Ti).
Blediator16
2019-07-16, 19:41:38
Genau. AMD liegt braucht 2560 Shader um auf Augenhöhe mit Nvidias 2304 Shadern auf der 2700 zu sein. AMD braucht also ~10% mehr Shaderleistung um mit Nvidia gleichzuziehen.
Naja, mal abwarten. Ich hoffe halt auf eine Alternative zu 1660(Ti).
So einfach ist der Vergleich also :biggrin:
vinacis_vivids
2019-07-16, 20:04:17
Genau. AMD liegt braucht 2560 Shader um auf Augenhöhe mit Nvidias 2304 Shadern auf der 2700 zu sein. AMD braucht also ~10% mehr Shaderleistung um mit Nvidia gleichzuziehen.
:rolleyes:
RX5700 vs RTX2070, 2304SP, 448GB/s, 1,5Ghz
AMD Navi ist leicht schneller als NV Turing(1,5%)
Bei den 2560SP, spricht RX5700XT vs RTX2070S hat Nvidia derzeit einen kleinen Taktvorsprung (~1,89Ghz vs ~1,81Ghz), der mit Custom Navi ausgeglichen sein wird.
amdfanuwe
2019-07-16, 21:11:53
:rolleyes:
RX5700 vs RTX2070, 2304SP, 448GB/s, 1,5Ghz
AMD Navi ist leicht schneller als NV Turing(1,5%)
Gib mal ne Quelle. Bei den Tests, die ich gesehen hab, lag die 5700 hinter der 2060S/2070. https://www.computerbase.de/thema/grafikkarte/rangliste/
Wo ist denn Navi bei gleicher Shaderzahl schneller?
Grendizer
2019-07-16, 21:16:13
:rolleyes:
RX5700 vs RTX2070, 2304SP, 448GB/s, 1,5Ghz
AMD Navi ist leicht schneller als NV Turing(1,5%)
Bei den 2560SP, spricht RX5700XT vs RTX2070S hat Nvidia derzeit einen kleinen Taktvorsprung (~1,89Ghz vs ~1,81Ghz), der mit Custom Navi ausgeglichen sein wird.
Und die Custom Designs der 2070S werden langsamer sein als die 2070S FE ?
Locuza
2019-07-16, 22:08:28
Gib mal ne Quelle. Bei den Tests, die ich gesehen hab, lag die 5700 hinter der 2060S/2070. https://www.computerbase.de/thema/grafikkarte/rangliste/
Wo ist denn Navi bei gleicher Shaderzahl schneller?
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_amd_navi_vs_nvidia_turing
Jedenfalls indem Run von CB (15 Spiele) liegen RDNA und Turing auf einem Punkt bei gleicher Shaderanzahl, Takt und Bandbreite.
Es liegt also nicht an den Shadern, sondern am Takt, warum eine 5700 langsamer, als eine 2070 ausfällt.
Screemer
2019-07-16, 22:46:31
Oh Gott er ist wieder da.
basix
2019-07-16, 22:51:27
Und die Custom Designs der 2070S werden langsamer sein als die 2070S FE ?
Kommt drauf an, wie viel die jeweiligen Customs drauflegen werden. Bei Nvidia liegt max. +10% Takt drin, dann ist Schluss. Bei Navi müssen wir halt warten. Aber ich denke, dass auch bei Navi nicht so wahnsinnig viel drin liegen wird.
BoMbY
2019-07-17, 20:55:40
Scheint so als hätte AMD bereits einen relativ umfangreichen DXR-Pfad in den aktuellen DX12-Treiber eingebaut. Entweder für Navi14 oder eine reine Software-Implementierung die nur inaktiv ist?
Screemer
2019-07-17, 20:59:03
Und woher kommt diese Info?
BoMbY
2019-07-17, 21:54:37
Von subtilen Hinweisen wie:
DXR ACTIVE
TraceRaysRTPSO
InitRaysRTPSO
AmdTraceRayCallTriangleAnyHitShader
AmdTraceRayCallIntersectionShader
AmdTraceRay
AmdTraceRaySetTraceParams
AmdTraceRaySetHitAttributes
AmdTraceRayCallClosestHitShader
AmdTraceRayCallMissShader
AmdTraceRayWriteIntersectionAttributes
AmdTraceRaySampleGpuTimer
AmdTraceRayGetHitAttributes
AmdTraceRaySetTriangleIntersectionAttributes
AmdTraceRayGetFlattenedGroupThreadId
RAYTRACING_PIPELINE
LogCmdList::SetPipelineState1
[RayGenerationShaderRecord: StartAddress: 0x%p, SizeInBytes: %llu]
[MissShaderTable: StartAddress: 0x%p, SizeInBytes: %llu, StrideInBytes: %llu]
[HitGroupTable: StartAddress: 0x%p, SizeInBytes: %llu, StrideInBytes: %llu]
[CallableShaderTable: StartAddress: 0x%p, SizeInBytes: %llu, StrideInBytes: %llu]
%s, [type: %s, pPipelineStateObject: 0x%p]
raygeneration
intersection
anyhit
closesthit
miss
callable
und noch ein paar mehr.
BoMbY
2019-07-18, 17:22:11
[PATCH] drm/amdkfd: Add DID for Navi12 (https://lists.freedesktop.org/archives/amd-gfx/2019-July/036981.html):
+ /* Navi12 */
+ { 0x7360, &navi10_device_info }, /* Navi12 */
+ { 0x69b0, &navi10_device_info }, /* Navi12 */
Das ist mal ein wenig ungewöhnlich ... zwei komplett verschiedene Bereiche.
Ghost1nTh3GPU
2019-07-18, 18:39:54
Chiplet-Version?
Oder für Apple da es Vega12 folgt bei der ID.
Locuza
2019-07-18, 19:23:47
Scheint so als hätte AMD bereits einen relativ umfangreichen DXR-Pfad in den aktuellen DX12-Treiber eingebaut. Entweder für Navi14 oder eine reine Software-Implementierung die nur inaktiv ist?
Ganz am Anfang gab es von Anandtech diesen Absatz zum Thema:
Meanwhile AMD has also announced that they’re collaborating with Microsoft and that they’ll be releasing a driver in the near future that supports DXR acceleration.
https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing
Mir war so irgendwo gelesen zu haben, dass jemand bestätigt bekommen hat, dass DXR-Support für Navi als Softwarelösung erscheint, wie für Pascal von Nvidia.
Finde ich jetzt auf Googel ums verrecken nicht mehr.
Dural
2019-07-18, 19:56:02
:rolleyes:
RX5700 vs RTX2070, 2304SP, 448GB/s, 1,5Ghz
AMD Navi ist leicht schneller als NV Turing(1,5%)
Bei den 2560SP, spricht RX5700XT vs RTX2070S hat Nvidia derzeit einen kleinen Taktvorsprung (~1,89Ghz vs ~1,81Ghz), der mit Custom Navi ausgeglichen sein wird.
Der vergleich ist so nicht ganz richtig, und das sollte cb wissen.
Die 5700 verwendet eine teil aktive gpu, die 2070 eine voll aktive gpu. Aus der vergangenheit weiss man eigentlich das teil aktive gpus pro sp etwas schneller sind.
Ich gehe stark davon aus das turing nach wie vor leicht über navi ist. Dazu sollte man nie vergessen das man hier 7nm gegen 12nm gpus vergleicht und navi pro sp klar fetter ist.
Screemer
2019-07-18, 20:03:36
@bomby: thx.
BoMbY
2019-07-18, 20:17:55
Ganz am Anfang gab es von Anandtech diesen Absatz zum Thema:
https://www.anandtech.com/show/12547/expanding-directx-12-microsoft-announces-directx-raytracing
Mir war so irgendwo gelesen zu haben, dass jemand bestätigt bekommen hat, dass DXR-Support für Navi als Softwarelösung erscheint, wie für Pascal von Nvidia.
Finde ich jetzt auf Googel ums verrecken nicht mehr.
Hmm ja, dann haben sie ihr Versprechen ja eingehalten. Der Treiber unterstützt es jetzt, davon dass es auch aktiv ist hat ja niemand was gesagt ... :biggrin:
reaperrr
2019-07-18, 20:29:43
Die 5700 verwendet eine teil aktive gpu, die 2070 eine voll aktive gpu. Aus der vergangenheit weiss man eigentlich das teil aktive gpus pro sp etwas schneller sind.
Das war bei GCN so, aber GCN war eben auch nicht gerade ein Skalierungsmonster.
Bei Nvidia hat die Performance eigentlich seit Fermi ziemlich linear mit der SM-Zahl skaliert, wenn's mal nicht der Fall war, lag es meist eher an der Speicherbandbreite. Und die ist bei 5700 und 2070 identisch.
Dazu sollte man nie vergessen das man hier 7nm gegen 12nm gpus vergleicht und navi pro sp klar fetter ist.
Blödsinn. Navi10 hat mit 2560 SP 10,3 Milliarden Transistoren, TU106 mit 2304 SP 10,8 Mrd., im gleichen Prozess wäre TU106 immer noch leicht größer.
Dass TU106 im gleichen Prozess bei Verbrauch und Takt vermutlich klar vorn läge ist ne andere Geschichte.
Dural
2019-07-18, 20:56:47
Das ist bei jeder gpu so, ich habe noch nie was anders gesehen.
TU106 hat noch den ganzen RT und Tensor kram drin, Navi muss man mit TU116 vergleichen und da sieht es eindeutig aus.
Aber vergleiche mit 7nm gegen 12nm ist halt auch nicht so einfach, gut möglich das sie bei 7nm einfach mehr benötigen.
vinacis_vivids
2019-07-18, 21:41:22
@Dural
Deine krude Argumentation ohne Quellen ändert nichts daran, dass Navi uArch IPC-mäßig leicht schneller ist als Turing. Über 15 Spiele hinweg ist schon ganz gut aussagekräftig.
Es sieht dazu noch so aus, dass Navi generell noch taktfreudiger ist als Turing. ~2,2Ghz "Wall" während Turing bei ~2,05Ghz die Segeln streicht, was nicht schlecht ist, aber eben nicht mehr Spitze.
Zusammenfassung: IPC besser, Taktbarkeit besser, neuere Technik, preiswerter. Navi mit RDNA ist sowas wie ein "Quantensprung" und ist/wird jetzt der Goldesel bei den GPUs.
Was Hammer ist: AMD braucht für 2560SP nur 251mm², das ist eher Einsteiger-Mittelklasse was Chipgröße angeht. Nvidia muss bei gleicher SP da mit einem 545mm² Chip ankommen.
Was im Gaming nach oben ergänzt werden könnte, ist natürlich noch ein größerer Chip mit 3840/3584SP, um die VII zu ersetzen, die ja auch Stärken im Compute (fp64) hat.
Wäre geil wenn AMD noch einen Navi-Chip mit 350mm² (13,5Mrd Tr.) bringt und gegen RTX 2080Ti konkurriert. 3840SP gepaart mit 1,9Ghz Takt ist man auch oben mit dabei (14,5 Tflops)
Sunrise
2019-07-18, 21:51:33
...Was Hammer ist: AMD braucht für 2560SP nur 251mm², das ist eher Einsteiger-Mittelklasse was Chipgröße angeht. Nvidia muss bei gleicher SP da mit einem 545mm² Chip ankommen.
Ist nicht dein Ernst, oder?
Ghost1nTh3GPU
2019-07-18, 21:56:17
Wenn mit GP104 vergleicht braucht AMD eher +40% Transistoren, +40% Bandbreite und 7nm Taktbonus um ~20% schneller zu sein.
Mit Turing zu vergleichen ist, wie als wenn man die tolle UT99 Performance einer Voodoo-Karte hervorhebt, während schon UT03/04 mit HW-TnL und Highres-Texturen am Markt ist. ;)
aufkrawall
2019-07-18, 22:45:25
Kommt drauf an, was man so vergleicht. Man kann auch sagen, dass AMDs Technik von Ende 2011 schon LL-freundlicher war als Pascal 2016. Und in LL stinkt Pascal ja auch zunehmend ab (und bei anderen von den Konsolen optimierten D3D11 Renderern wie Frostbite oder RE Engine)...
Brillus
2019-07-18, 22:45:57
Wenn mit GP104 vergleicht braucht AMD eher +40% Transistoren, +40% Bandbreite und 7nm Taktbonus um ~20% schneller zu sein.
Mit Turing zu vergleichen ist, wie als wenn man die tolle UT99 Performance einer Voodoo-Karte hervorhebt, während schon UT03/04 mit HW-TnL und Highres-Texturen am Markt ist. ;)
:facepalm:
Nach allem was es aussieht bleibt Turing für NV noch 6-12 Monate erhalten mit was soll man den sonst Vergleichen als dem aktuellen Gegenangebot.
Locuza
2019-07-19, 18:26:07
Hmm ja, dann haben sie ihr Versprechen ja eingehalten. Der Treiber unterstützt es jetzt, davon dass es auch aktiv ist hat ja niemand was gesagt ... :biggrin:
Twitter hat sich als nützlich erwiesen und jemand kannte folgende Quelle:
AMD also briefly touched on its vision for real-time ray-tracing. To begin with, we can confirm that the "Navi 10" silicon has no fixed function hardware for ray-tracing such as the RT core or tensor cores found in NVIDIA "Turing" RTX GPUs. For now, AMD's implementation of DXR (DirectX Ray-tracing) for now relies entirely on programmable shaders. At launch the RX 5700 series won't be advertised to support DXR. AMD will instead release support through driver updates. The RDNA 2 architecture scheduled for 2020-21 will pack some fixed-function hardware for certain real-time ray-tracing effects
https://www.techpowerup.com/256459/amd-radeon-rx-5700-xt-confirmed-to-feature-64-rops-architecture-brief
Ich würde jetzt schon davon ausgehen, dass AMD den DXR-Support relativ bald finalisiert.
Etwas gespannt kann man auf den Zeitpunkt und die Ergebnisse sein, denn AMD hat öffentlich sich relativ defensiv geäußert und meinte man möchte Raytracing erst unterstützen, wenn das Ökosystem ready ist.
Ghost1nTh3GPU
2019-07-19, 18:56:49
:facepalm:
Nach allem was es aussieht bleibt Turing für NV noch 6-12 Monate erhalten mit was soll man den sonst Vergleichen als dem aktuellen Gegenangebot.
Ein Transistorvergleich verbietet aber sich halt, wenn AMD ein Featureset wie vor 5 Jahren bietet.
w0mbat
2019-07-19, 19:19:13
Ein Transistorvergleich verbietet aber sich halt, wenn AMD ein Featureset wie vor 5 Jahren bietet.
Ist es nicht Nvidia die kein PCIe 4.0 bieten? Also ist es anders rum :rolleyes:
Mal ein bisschen Info für dich:
HlUccQ2fRpg
gravitationsfeld
2019-07-19, 19:23:42
Es fehlt primaer Raytracing. Navi hat z.B. durchaus auch neue Instructions die neural nets beschleunigen, auch wenn das nicht explizit grossartig beworben wird. Zugegebenermassen ist der Durchsatz immer noch niedriger.
w0mbat
2019-07-19, 19:26:57
Naja, bis jetzt fehlt es noch nicht wirklich. Und wer weiß, vielleicht kommt DXR ja noch via Treiber-Update.
RTX ist aktuell noch kein wirkliches "feature", sondern eher ein gimmick.
Nosferatu1
2019-07-19, 19:28:31
Wann kommt 5800 und 5900? Auf Navi ist ja noch reichlich platz :)
Ghost1nTh3GPU
2019-07-19, 19:31:48
Ist es nicht Nvidia die kein PCIe 4.0 bieten? Also ist es anders rum :rolleyes:
Mal ein bisschen Info für dich:
https://youtu.be/HlUccQ2fRpg
Turing gibt es halt seit 10 Monaten und damit wohl das Design länger als die PCIe Spezifikation.
Ernsthaften Nutzen aus PCIe4 wird wohl kein Gamer ziehen. Im Video ist mir zu viel Unwissen.
Navi ist durchaus ein Lichtblick nach Polaris und Vega, aber zum R300 Moment fehlt noch etwas (und Nvidia hat halt mit Turing etwas geliefert, wo man mit nur NV30 gehypt hat). ;)
w0mbat
2019-07-19, 19:44:11
Naja, es gab gerade erst einen refresh, Turing muss also noch eine Weile herhalten. Gut möglich, dass AMD ne RDNA2 Karte schon früher bringt.
Und ja, PCIe 4.0 ist noch relativ nutzlos, wie RTX auch ;)
RTX bringt einem Spieler heute wesentlich mehr als PCIe 4.0.
MfG,
Raff
gravitationsfeld
2019-07-19, 21:10:37
Das ist wirklich keine Diskussion wert, stimme ich zu. RTX ist um Laengen nuetzlicher als PCIe 4.
Das Spannendste ist noch der entsprechende, neue Test des 3DMark. ~26 GByte/s und flüssige Bildraten statt ~13 GByte/s und Geruckel. Wuhu, geil! Wer sagt, dass die RTX-Spiele quasi Techdemos sind, was ist dann das? :ugly: Wen die fehlenden Prozentchen von PCIe 3.0 gegenüber 4.0 beim Spielen stören, übertaktet seinen PEG einfach um fünf Prozent (geht auf diversen Boards) und gut.
MfG,
Raff
unl34shed
2019-07-19, 21:17:03
Naja in der aktuellen Hardware gen ist aber halt zu lahm und einfach nur ein FPS Killer. Sicherlich die Effekte sind schön aber Kosten/nutzen ist nicht da.
Langlay
2019-07-19, 21:33:42
Wen die fehlenden Prozentchen von PCIe 3.0 gegenüber 4.0 beim Spielen stören, übertaktet seinen PEG einfach um fünf Prozent (geht auf diversen Boards) und gut.
NVME SSDs mögen das nicht besonders. Meine Samsung 960 EVO macht schon bei 102MHz schlapp.
Ghost1nTh3GPU
2019-07-19, 21:44:01
Naja in der aktuellen Hardware gen ist aber halt zu lahm und einfach nur ein FPS Killer. Sicherlich die Effekte sind schön aber Kosten/nutzen ist nicht da.
Glaubwürdige Reflexionen und Echtzeit GI sind nicht nur Effekte, sondern die Basis für moderne Grafik. Mit der Einstellung liefert auch eine Switch "hübsche" Shadergrafik, die ausreichend ist. Der Weg zum Fotorealismus wird halt richtig teuer.
Nosferatu1
2019-07-19, 23:11:00
Fotorealismus? Wow wie öde. Oder staunt ihr wenn ihr vor die Tür geht.
Platos
2019-07-20, 00:40:50
Wenn du nicht ständig Spiele im Comic Zeichenstil oder ähnilchem spielst, ist das Argument ziemlich lächerlich, da im Westen die meisten Spiele auf Echtdarstellung setzten. Also....
Und ein Fantasy/Siencefiction Film mit echten Menschen wie Herr der Ringe oder Star Wars bringt einem dann auch nicht zum staunen...
Nosferatu1
2019-07-20, 00:56:38
Echt wo den? Real ist da gar nix. Schon mal rausgeschaut. Warum soll es zum staunen bringen hast seit Jahren so im Tv gesehen....wie kann das beeindrucken. Nur weil du es steuerst....kannst ja pornoseitwn gehn wo du bestimmst was die machen 😂 aber jedem seine Meinung :)
Daredevil
2019-07-27, 11:39:36
Ich weiß jetzt nicht wo das Problem bei einer MSRP $169 Karte ein Problem mit 4GiB Vram geben soll.
Hier ist eins:
https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/Specials/Grafikkarten-Benchmarks-Test-1295585/2/
Ghost1nTh3GPU
2019-07-27, 11:49:42
Die GTX 970 hat nicht nur 3.5+0.5GB RAM, sondern durch die Aufteilung im Worstcase effektiv keine 100GB/s Bandbreite. Das Verhältnis zwischen 570 und 290 passt da schon eher. Und ab 1440p kommt es bei W:YB wieder auf Rechenleistung an.
tm0975
2019-07-27, 11:58:35
Das ist wirklich keine Diskussion wert, stimme ich zu. RTX ist um Laengen nuetzlicher als PCIe 4.
RTX ist mir wurscht. aber nvme-ssd's per pcie4 anzubinden ist ein ordentlicher sprung für dierenigen, die es nutzen können. so pauschal ist das also für'n ...
Daredevil
2019-07-27, 12:10:01
Die GTX 970 hat nicht nur 3.5+0.5GB RAM, sondern durch die Aufteilung im Worstcase effektiv keine 100GB/s Bandbreite. Das Verhältnis zwischen 570 und 290 passt da schon eher. Und ab 1440p kommt es bei W:YB wieder auf Rechenleistung an.
Dann hast du den Text wohl nicht gelesen.
BoMbY
2019-07-28, 10:58:41
Komachi auf Twitter scheint mittlerweile auch davon auszugehen dass es sich wahrscheinlich bei Navi12 (https://twitter.com/KOMACHI_ENSAKA/status/1155279174036148224) um eine GPU mit 4096 SP (https://twitter.com/KOMACHI_ENSAKA/status/1155375254648193024) handelt. Bis jetzt lag er jedenfalls sehr oft richtig mit dem was er geschrieben hat, woher auch immer die Informationen stammen.
Edit: Man kann übrigens den Workgroup-Modus für OpenCL ausschalten bei Navi indem man die Environment Variable "GPU_ENABLE_WGP_MODE=0" setzt, dann zeigt es 40 CUs an: https://browser.geekbench.com/v4/compute/4355420
Macht soweit aber bei der Performance kaum einen Unterschied, eventuell bei bestimmten Anwendungen.
mironicus
2019-07-28, 11:46:14
Reicht ein Navi mit 4096 SP denn aus, um die RTX 2080 Ti anzugreifen? Vielleicht knapp darunter? Der Chip wäre wohl immer noch recht klein (< 400 nm²). Gibt es bei diesem GPU-Design eigentlich eine SP-Grenze wie bei Vega (da war immer bei 4096 SP Schluss).
biohaufen
2019-07-28, 12:01:58
RTX ist mir wurscht. aber nvme-ssd's per pcie4 anzubinden ist ein ordentlicher sprung für dierenigen, die es nutzen können. so pauschal ist das also für'n ...
Da wir hier aber im Navi Thread sind und pauschal ein Verglich zwischen RTX und Navi gemacht wurde, kann jeder wahrscheinlich weitgenug denken, dass es hier darum ging, das einem RTX mehr bringt als PCIe 4.0. :freak::rolleyes:
(BEI GRAFIKKARTEN)
Wenn du mir jetzt eine NVMe mit RTX zeigst, nehme ich das natürlich zurück ;)
tm0975
2019-07-28, 12:09:09
Wenn du mir jetzt eine NVMe mit RTX zeigst, nehme ich das natürlich zurück ;)
Wäre nicht die erste Graka mit SSD für "reichlich" VRAM. PCIe4 ist halt ne investition in die zukunft. generell scheint mir die leistungsfähigkeit aktueller Karten nicht ansatzweise genug für raytracing.
biohaufen
2019-07-28, 12:12:57
Das bringt dir aber nur etwas in produktiven Anwendungen und rein gar nichts in Spielen, auf die sich Raff oben aber bezogen hat. :rolleyes:
Und PCIe 4.0 bringt dir bei der RX5700XT wahrscheinlich ähnlich viel, wie einem PCIe 3.0 bei einer HD7970 etwas gebracht hat.
dargo
2019-07-28, 12:56:56
Reicht ein Navi mit 4096 SP denn aus, um die RTX 2080 Ti anzugreifen?
Warum muss er das? Ich möchte jedenfalls keine 1.000+€ für ne Graka ausgeben.
btw.
Es sollte jedenfalls reichen um in etwa gleichzuziehen. Die 2080TI ist laut CB bei 1440p 47% schneller als 5700XT und 54% schneller in 4k.
aufkrawall
2019-07-28, 13:15:32
Wenn das noch 7nm HPC ist, ist RT wohl unwahrscheinlicher?
robbitop
2019-07-28, 14:43:53
Navi scheint pro ALU taktnormiert auf Turing Niveau zu liegen. In manchen Spielen rund 10% darunter.
Ein 4096 ALU Navi wäre schneller als die 2080 Super. Ungefähr 20% schneller. Die 2080 Ti sollte 10% in Feont liegen.
An AMDs Stelle würde ich noch einen doppelten Navi 10 bringen. Damit würde man TU102 deutlich besiegen und man hätte mal wieder ein Halo Produkt womit man die Marke stärken würde und die kleinen Geschwister besser verkaufen könnte.
Linmoum
2019-07-28, 15:20:12
Ein 4096 ALU Navi wäre schneller als die 2080 Super. Ungefähr 20% schneller. Die 2080 Ti sollte 10% in Feont liegen.
In FHD ist eine 2080Ti gerade einmal 14% (CB) bzw. 11% (TPU) schneller als eine 2080 Super. In UHD sind's 18% (TPU) bzw. 22% (CB). Bei PCGH im Gesamtindex (mit allen drei gängigen Auflösungen) ist eine Titan RTX auch nur 24% vor der Super, die Ti entsprechend also noch einmal etwas weniger.
Bei deinem Szenario wäre Navi mit 64CU problemlos auf Niveau der Ti bzw. sogar (leicht) darüber. ;) Das sollte aber an sich auch so kommen, gerade mit RDNA2 und 7nm+. Alleine letzteres bringt ja schon +10% Performance. Es sei denn AMD nimmt lieber die Effizienz mit. Ok, der war gut. :cool:
Ich hoffe aber sowieso auf einen Navi(21?) mit 5120 Shadern. Man wird ja noch träumen dürfen.
Ravenhearth
2019-07-28, 15:51:44
Ich frag mich ja, wenn Navi12 schon 4096 Shader bekommen soll, was ist dann Navi21?
Ghost1nTh3GPU
2019-07-28, 15:54:00
Wohl RDNA2. Die Lite Versionen sind aber wohl alle in anderen Chips integriert. Raytracing für den Desktop kommt vielleicht erst 2021 bei AMD.
Linmoum
2019-07-28, 15:59:07
Raytracing kommt nächstes Jahr mit RDNA2 bzw. wie AMD es ja selbst nennt "Next-Gen RDNA".
aufkrawall
2019-07-28, 16:20:20
Nur warum sollte man in näherer Zukunft noch einen dicken Navi-Chip ohne RT bringen und dann nächstes Jahr schon wieder neue damit?
robbitop
2019-07-28, 16:29:24
Ggf ist Navi21 dann ein doppelter N10 mit RT.
Ich hoffe aber sowieso auf einen Navi(21?) mit 5120 Shadern. Man wird ja noch träumen dürfen.
Mit "Software" RT auf NV Niveau und ohne mit dickem ... :ulol:
Günstig würde die bestimmt nicht werden... 999.- mit 16Gb , wenn überhaupt noch unter 1k :freak:
(Bitte Bitte... mit vollem HDMI 2.1)
M.f.G. JVC
dargo
2019-07-28, 17:37:20
Nur warum sollte man in näherer Zukunft noch einen dicken Navi-Chip ohne RT bringen und dann nächstes Jahr schon wieder neue damit?
Warum nicht? Die Lücke zwischen einem Navi 10 und Navi 21 mit 5120 CUs wäre viel zu groß. Dazwischen passt wunderbar ein Chip mit 4096 CUs rein. Völlig latte ob mit oder ohne RT.
Daredevil
2019-07-28, 18:11:16
Nur warum sollte man in näherer Zukunft noch einen dicken Navi-Chip ohne RT bringen und dann nächstes Jahr schon wieder neue damit?
Weil 99% der User brauchbares RT nicht kennen und es keinen Bedarf gibt.
AMD hat doch selbst gesagt, sie werden da sein, wenn RT praktikabel ist für jeder Mann. Das ist 2019 nicht so mit .... 5-6? Spielen und wird 2020 mit..... selbst 50 Spielen nicht der Fall sein.
Großer Chip ohne RT Balast ist m.M. nach wirkungsvoller, als sich ernsthaft mit Nvidia anlegen zu wollen in deren Gebiete.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.