PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 5600 XT Review-Thread


Leonidas
2020-01-21, 15:12:16
AMD Radeon RX 5600 XT

- Navi 10
- 2304 Shader-Einheiten an 192 Bit Interface
- 6 GB GDDR6
- Listenpreis 279$
- Release: 21. Januar 2020

Listen der Launch-Reviews:
3DCenter (https://www.3dcenter.org/news/launch-der-radeon-rx-5600-xt-erste-testberichte-gehen-online) & Videocardz (https://videocardz.com/84418/amd-radeon-rx-5600-xt-review-roundup)

Leonidas
2020-01-21, 15:34:08
Die PCGH hat etwas mehr getan als andere Seiten ... und gleich 3 Artikel zum Launch herausgehauen:

Navi XLE in Action!

AMD Radeon RX 5600 XT im Test: Effiziente, aber auf Kante genähte Gaming-Grafikkarte (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/Benchmark-Kaufen-Preis-Release-Review-1341275/)
Radeon RX 5600 XT 8 GB im Test: So schnell wäre die Karte mit 8 statt 6 GiByte Speicher - PCGH-Simulation (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/)
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/)

SKYNET
2020-01-21, 15:54:14
Ersatz-Faden bis leo den eigentlich faden wieder aufmacht... kann er dann ja zusammenfügen :)

Der_Korken
2020-01-21, 15:58:50
Ist das gewollt, dass der andere Thread zu ist? War verwirrt, hatte mich aber nicht getraut einen eigenen aufzumachen :tongue:

Ich zitiere mich mal selbst aus dem CB-Thread:
https://www.computerbase.de/forum/threads/radeon-rx-5600-xt-im-test-doch-noch-ein-konkurrent-fuer-die-geforce-rtx-2060.1919767/page-6#post-23630653

Abgsehen von der eher uninteressanten Karte, einige interessante Details bezüglich Navi: Nimmt man das 1080p-Ranking und entfernt Ghost Recon Breakpoint (hier bricht die Leistung wegen der 6GB extrem stark ein) aus der Wertung, erreicht die 5600XT Pulse im BIOS2 90% der Leistung der 5700 bei 74% der Leistungsaufnahme (130W vs 176W) und gerade mal 64% der Speicherbandbreite. BIOS1 ist 5% schneller, hat dafür aber 17% mehr Speicherbandbreite und 27% mehr Verbrauch, obwohl der GPU-Takt in Spielen laut CB fast unverändert ist (<20Mhz Differenz). Daraus folgt:

1. Navi braucht die hohe Speicherbandbreite eigentlich gar nicht. Mit 12Gbps-VRAM wären auch die 5700er vermutlich kaum langsamer
2. Der Speichercontroller säuft bei hohen Taktraten offenbar wie ein Loch. Der geringere Verbrauch der 5600XT gegenüber der 5700 kommt fast nur durch den reduzierten Speichertakt zustande.

Eventuell lässt sich der VRAM bei Navi deswegen so schlecht übertakten, weil der Speichercontroller aus dem letzten Loch pfeift und AMD nicht mehr Spannung geben will, weil der schon jenseits von gut und böse läuft. Da fragt man sich, wieviel Undervolting auf dem Speichercontroller bringen würde :D.

hlynska
2020-01-21, 15:59:06
https://www.igorslab.de/amds-bios-rochade-der-radeon-rx-5600-xt-und-die-folgen-fuer-verbraucher-und-boardpartner-bios-wirrwar-kuehlerunterschiede-und-einige-crashs/


Übrigens betrug hier der Unterschied zwischen den BIOSen satte 110 MHz:
https://www.igorslab.de/amd-radeon-rx-5600-xt-im-test-mit-dem-last-minute-bios-boost-zum-rtx-2060-killer/12/


Der offizielle Thread wurde geschlossen. Komisch...

WedgeAntilles
2020-01-21, 16:14:16
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht

Und das ist genau so ein Beispiel, warum Nvidia sich einfacher verkauft.

Man liest bei AMD ständig etwas von irgendwelchen notwendigen Bios-Updates, problematischen Treibern, Karten bei denen man "etwas Glück" haben muss und so weiter.

Sorry, darauf habe ich keinen Bock. Ich zahl zig hundert Euro für eine GraKa, die will ich einbauen und fertig.

Bei ner AMD Karte habe ich das Gefühl, ich müsste erst noch tausend Dinge tun. Ich fummel nicht an meinem Bios rum, weil ich mich nicht auskenne. Ich update das auch nicht - weil ich mich nicht auskenne.
Und ich habe keinen Bock in Treibern rumzufummeln, evt. zig ausprobieren zu müssen, irgendwelche Spannungen oder sonst was anders einzustellen.

Ich sage nicht, dass ich das bei AMD GPUs zwingend tun MUSS.
Aber es drängt sich einem der Eindruck auf.

Also kaufe ich mir halt ne Nvidia Karte.
Ob die ein paar Euro mehr oder weniger kostet ist mir da völlig schnuppe.

Ein Bundle GraKa, CPU, Ram, Board kostet 800-1000 Euro - was interessieren mich da ein paar Euro bei der GraKa?
Wenn ich beim Kauf Angst habe, dass es vielleicht nicht klappt wenn AMD drauf steht? (Bei der GPU)

Natürlich kann es bei Nvidia auch Probleme geben.
Aber gefühlt ist die Gefahr weit kleiner und ich gehe davon aus: Da klappt alles.

Und "gefühlt" ist hier (für mich) das einzig entscheidende.

a) Ich gebe 900 Euro aus mit schlechtem Gefühl. ("Oh Gott, hoffenltich funktioniert es")
b) Ich gebe 950 Euro aus mit gutem Gefühl. ("Wird sicherlich funktionieren")

Persönlich entscheide ich mich da immer für Variante b.
Und das unterstellt sogar noch eine 50 Euro teurere Nvidia Karte. (Was ja nicht mal unbedingt stimmt.)

Keine Ahnung, vielleicht WILL AMD ja gar nicht an jeden verkaufen.
So nach dem Motto: Hey, wir verkaufen vielleicht nur 1/3 so viel, aber unsere Kundschaft ist "Elite" im Sinne von hat viel mehr Ahnung von der Materie.
Während Nvidia sich halt an einen "Normalo" richtet, der keinen Bock auf rumgefummel hat. Der das Ding einbaut, den Treiber runterlädt und loszockt. Ohne eine Ahnung (oder Interesse) daran zu haben, irgendwas zu optimieren oder sonst was.

Lehdro
2020-01-21, 16:15:37
Nette Karte eigentlich und laut CB auch sehr energieeffizient. Leider sind da die 6 GiB Speicher, die sich schon heute teilweise merkbar auswirken. Der Preis ist auch nicht so knorke, schade. Ist eher so ein Stop Gap um NV zu ärgern, mehr nicht.

[x] 5700 mit UV sollte deutlich besser sein. Vorallem bei dem minimalen Preisunterschied.

Edit:

Und das ist genau so ein Beispiel, warum Nvidia sich einfacher verkauft.
Nach dem RTX 2080 Ti Debakel zum Launch sollte man sich mit solchen Verallgemeinerungen lieber zurückhalten.

Lyka
2020-01-21, 16:19:08
wie in PCGH, das hat mich schon meilenweit abgestoßen von dieser Karte

Damit einher gehen stets die gleichen Nebenwirkungen in speicherlastigen Spielen: Mitunter sichtbarer Texturschwund und mehr oder minder ausgeprägtes Ruckeln im Vergleich mit 8-GiByte-Grafikkarten.
:facepalm:

Dennoch frage ich mich, wieso die 5500-XT als Einsteiger-Full-HD-Karte und die 5600-XT als Echte-Full-HD-Karte angepriesen wird... oder gilt das erst für Spiele ab 2019? (Meine olle AMD 380 hat bisher selten Probleme mit 1080-Spielen)

Dino-Fossil
2020-01-21, 16:27:47
Eigentlich keine ganz schlechte Karte. Die erstaunlich gute Effizienz beeindruckt einigermaßen - da ist man bei deutlich mehr Performance beim gleichen Verbrauch wie eine 5500XT.
Das Haar in der Suppe ist halt der Speicher. Ich kann verstehen, dass AMD die Karte stärker von der 5700 absetzen wollte, aber eine Reduktion der Speichermenge (wenn man wiederum sogar bei der 5500XT 8GB bekommt) ist eben schon optisch nicht schön.

Davon abgesehen für FullHD mMn brauchbar, erst recht, wenn sich die Straßenpreise etwas niedriger einpendeln.

Screemer
2020-01-21, 16:41:44
Dennoch frage ich mich, wieso die 5500-XT als Einsteiger-Full-HD-Karte und die 5600-XT als Echte-Full-HD-Karte angepriesen wird... oder gilt das erst für Spiele ab 2019? (Meine olle AMD 380 hat bisher selten Probleme mit 1080-Spielen)
das gilt doch in full hd nicht mal für spiele aus 2019, wenn man den qualitäts-slider nicht grad auf vollrechts stellt. ich hatte mit meiner 980ti noch nie irgendwelche probleme mit den texturen. ja natürlich kann es mal stuttern, wenn was nachgeladen wird aber das hab ich auch bei shader-compile und anderen mist. pcgh könnte auch mal beispiele nennen wo es zu problemen kommt, anstatt so einen allgemeinplatz raus zu hauen.

HOT
2020-01-21, 16:44:46
Mit 12GB wär das Ding cool, mit 6GB ist das einfach nur bäh...

Daredevil
2020-01-21, 16:45:59
wie in PCGH, das hat mich schon meilenweit abgestoßen von dieser Karte


:facepalm:

Dennoch frage ich mich, wieso die 5500-XT als Einsteiger-Full-HD-Karte und die 5600-XT als Echte-Full-HD-Karte angepriesen wird... oder gilt das erst für Spiele ab 2019? (Meine olle AMD 380 hat bisher selten Probleme mit 1080-Spielen)
FullHD!= FullHD

Es ist ja ein Unterschied, ob man in FullHD@60fps zockt, oder eben halt in 120hz+. Spiele unterscheiden sich ja auch doch sehr stark vom Anspruch der GPU, das eine läuft super gut, das andere nicht so gut.
Die "echte" ist dann wohl eher Kompromisslos.

Lyka
2020-01-21, 16:46:55
ja, eben. Was macht eine "Einsteiger"-FullHD-Karte vs. einer "Normalo"-Full-HD-Karte aus? Das müsste irgendwann mal rational/quantitativ erklärt werden.

Ex3cut3r
2020-01-21, 16:49:37
Ist ok für FHD die nächsten 2 Jahre, danach muss/sollte man upgraden.
Das mit den neuen Konsolen und der angeblichen VRAM Explosion. Sehe ich (noch) nicht.
PS4 Pro und Xbone One werden ja mindestens bis 2022 mit unterstützt. Also die "Next Gen" Titeln kommen auch noch auf den alten Konsolen.

WedgeAntilles
2020-01-21, 17:10:53
Nach dem RTX 2080 Ti Debakel zum Launch sollte man sich mit solchen Verallgemeinerungen lieber zurückhalten.

Ich habe sehr deutlich gemacht, dass das mein persönlicher Eindruck ist, der nicht den Anspruch erhebt faktisch vollkommen korrekt zu sein.
Dachte ich jedenfalls.
Tut mir leid, wenn es für dich nicht deutlich genug war.

Leonidas
2020-01-21, 17:11:14
Ersatz-Faden bis leo den eigentlich faden wieder aufmacht... kann er dann ja zusammenfügen :)


Done. Ich hab den leider ganz unbewußt zugemacht (falscher Klick) und sehe das jetzt erst.

Screemer
2020-01-21, 17:16:51
Ich habe sehr deutlich gemacht, dass das mein persönlicher Eindruck ist, der nicht den Anspruch erhebt faktisch vollkommen korrekt zu sein.
Dachte ich jedenfalls.
Tut mir leid, wenn es für dich nicht deutlich genug war.
Du hast überhaupt nichts deutlich gemacht. Du hast einen allgemein formulierten "amd ist kacke"-post rausgeballert, der schlicht und ergreifend überhaupt nicht den Eindruck vermittelt, dass das deine höchst beschränkte eigene Meinung ist. Schon der zweite Satz enthält keinerlei Einschränkung. Man kann sich seine Absonderungen halt auch schönreden.

Daredevil
2020-01-21, 17:17:29
ja, eben. Was macht eine "Einsteiger"-FullHD-Karte vs. einer "Normalo"-Full-HD-Karte aus? Das müsste irgendwann mal rational/quantitativ erklärt werden.
Wie gesagt, die Leistung wird halt beschrieben von Auflösung und Bildrate.
Wenn du mir sagt, du spielst in WQHD, ich kenne deine Wohlfühlbildrate nicht, gibt es drei Möglichkeiten. Einmal ne 2070 für "Einsteiger" WQHD@60fps, eine 2080 für "Optimales" WQHD@90fps und ne 2080ti für "Perfektes" WQHD @120fps und selbst da muss man noch abwägen, was du spielen möchtest.
Bei Division und Control gelten z.B. diese Regeln, bei Rocket League, Diablo oder Wolfenstein z.B. nicht.

Eine glasklare Aussage gibt es nicht, es kommt immer darauf an, was du möchtest.
Deswegen klassifiziere ich in meiner Kaufberatung auch als "mindestens 60fps" und selbst da kann es nicht zu 100% sein.
https://abload.de/img/unbenannt1ljvl.png

Ontopic:
Nervt mich irgendwie, dass AMD soviel Karten anbieten muss. Mag schon richtig sein, aber es muss nicht alle 50€ ne neue Karte geben.
Ansonsten natürlich nett, aber 6GB halt... schwierig, wenn man es nicht kombiniert mit PCIe 4.0.

Screemer
2020-01-21, 17:20:28
Eine glasklare Aussage gibt es nicht, es kommt immer darauf an, was du möchtest.
Deswegen klassifiziere ich in meiner Kaufberatung auch als "mindestens 60fps" und selbst da kann es nicht zu 100% sein.
https://abload.de/img/unbenannt1ljvl.png
War das denn jemals anders?

Lyka
2020-01-21, 17:21:40
Danke für die Aufzählung.

Für mich ist alles ab 30 fps i.O. :uponder: Ich habe aber auch keinen entsprechenden Monitor (noch mit DVI, erworben 2012), der entsprechend hohe Sync anbietet...

es ging mir halt um die von PCGH gemeldeten Beschreibungen für die Klientel der Spieler. Ein 0815-Spieler, der einfach nur spielen will, wird auch keine Spezialeinstellungen am Treiber vornehmen (wie Schärfen etc.)

Daredevil
2020-01-21, 17:23:40
War das denn jemals anders?
Ja, klar.
144/240/300fps Gaming war noch nicht so sehr in Mode, als es nur 60hz LCDs gab. o0
Mit Ausnahme von CRT Gaming, aber danach ging es ja Spieletechnisch meilenweit Bergab.

maximus_hertus
2020-01-21, 17:37:27
Die deutlich bessere Energieeffizienz ist sehr interessant.

Bei 249 Euro (maximal 259) wäre sie ein echt geiler Deal (ca. 150W, sehr leise, PCIe 4.0 kompatibel, auf Niveau der kleinen RTX Karten). 299 Euro sind da aber die 50 Euro zuviel. Für 329 Euro gibt es leise 5700er mit 8GB.

Dino-Fossil
2020-01-21, 17:42:43
299 Euro sind da aber die 50 Euro zuviel. Für 329 Euro gibt es leise 5700er mit 8GB.

Sehe ich auch so, wobei Launch-Preise sich nicht unbedingt lange halten müssen.
Aktuell ist sie preislich sehr nah an der 5700, welche damit eigentlich die bessere Wahl darstellen dürfte - gibt es auch schon mal für 300€. Mit ein bisschen Tuning könnte man sich damit eine eigene 5600XT mit 8GB Speicher basteln, die dann Dank höherer Effizienz vermutlich auch leise wäre.
Wenn die 5600XT aber preislich noch ein wenig runter geht passt sie eigentlich.

Brillus
2020-01-21, 17:46:08
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht

Und das ist genau so ein Beispiel, warum Nvidia sich einfacher verkauft.

Man liest bei AMD ständig etwas von irgendwelchen notwendigen Bios-Updates, problematischen Treibern, Karten bei denen man "etwas Glück" haben muss und so weiter.

Sorry, darauf habe ich keinen Bock. Ich zahl zig hundert Euro für eine GraKa, die will ich einbauen und fertig.

Bei ner AMD Karte habe ich das Gefühl, ich müsste erst noch tausend Dinge tun. Ich fummel nicht an meinem Bios rum, weil ich mich nicht auskenne. Ich update das auch nicht - weil ich mich nicht auskenne.
Und ich habe keinen Bock in Treibern rumzufummeln, evt. zig ausprobieren zu müssen, irgendwelche Spannungen oder sonst was anders einzustellen.

Ich sage nicht, dass ich das bei AMD GPUs zwingend tun MUSS.
Aber es drängt sich einem der Eindruck auf.

Also kaufe ich mir halt ne Nvidia Karte.
Ob die ein paar Euro mehr oder weniger kostet ist mir da völlig schnuppe.

Ein Bundle GraKa, CPU, Ram, Board kostet 800-1000 Euro - was interessieren mich da ein paar Euro bei der GraKa?
Wenn ich beim Kauf Angst habe, dass es vielleicht nicht klappt wenn AMD drauf steht? (Bei der GPU)

Natürlich kann es bei Nvidia auch Probleme geben.
Aber gefühlt ist die Gefahr weit kleiner und ich gehe davon aus: Da klappt alles.

Und "gefühlt" ist hier (für mich) das einzig entscheidende.

a) Ich gebe 900 Euro aus mit schlechtem Gefühl. ("Oh Gott, hoffenltich funktioniert es")
b) Ich gebe 950 Euro aus mit gutem Gefühl. ("Wird sicherlich funktionieren")

Persönlich entscheide ich mich da immer für Variante b.
Und das unterstellt sogar noch eine 50 Euro teurere Nvidia Karte. (Was ja nicht mal unbedingt stimmt.)

Keine Ahnung, vielleicht WILL AMD ja gar nicht an jeden verkaufen.
So nach dem Motto: Hey, wir verkaufen vielleicht nur 1/3 so viel, aber unsere Kundschaft ist "Elite" im Sinne von hat viel mehr Ahnung von der Materie.
Während Nvidia sich halt an einen "Normalo" richtet, der keinen Bock auf rumgefummel hat. Der das Ding einbaut, den Treiber runterlädt und loszockt. Ohne eine Ahnung (oder Interesse) daran zu haben, irgendwas zu optimieren oder sonst was.

So unterscheiden sich die Erfahrungen echte Probleme hatte ich bis jetzt immer nur NV, wenn bei AMD/ATI was nicht ging fand man eigentlich immer eine Lösung bei NV sah man blöd aus der Wäsche. Meine Favoriten waren TV-out geht nicht und 4 Spiele die alle eine eigene Treiber Version brauchten ( Homeworld, Serious Sam, Dungeon Siege, drittes fällt mir nicht mehr ein).

Mr. Lolman
2020-01-21, 18:03:19
Radeon RX 5600 XT BIOS-Chaos: Ein Firmware-Update jagt das nächste - eine Übersicht

Und das bedeutet für den Kunden? Genau - garnix! Der muss weder Firmwareupdates machen, noch braucht er sich darum kümmern, wieviel schneller AMD das Produkt auf den letzten Drücker gemacht hat.


Ich sage nicht, dass ich das bei AMD GPUs zwingend tun MUSS.
Aber es drängt sich einem der Eindruck auf.

Liegt das jetzt an AMD, oder an der Berichterstattung?

dargo
2020-01-21, 18:06:39
Interessant... plötzlich ist Navi doch noch 20-21% effizienter als Turing laut CB. :wink:

Steffko
2020-01-21, 18:07:09
Ist das gewollt, dass der andere Thread zu ist? War verwirrt, hatte mich aber nicht getraut einen eigenen aufzumachen :tongue:

Ich zitiere mich mal selbst aus dem CB-Thread:
https://www.computerbase.de/forum/threads/radeon-rx-5600-xt-im-test-doch-noch-ein-konkurrent-fuer-die-geforce-rtx-2060.1919767/page-6#post-23630653

Sehr interessant. Aber beim Speicher kommt man nur an den Takt, aber nicht an die Spannung ran, oder?

Screemer
2020-01-21, 18:07:17
Ja, klar.
144/240/300fps Gaming war noch nicht so sehr in Mode, als es nur 60hz LCDs gab. o0
Mit Ausnahme von CRT Gaming, aber danach ging es ja Spieletechnisch meilenweit Bergab.
aha. also ich kann mich an zeiten erinnern da waren 60fps/hz das absolute ultimo. da hat man mit 15-20fps shooter gespielt und einem sind die augen rausgefalle, wenn einer mit ner highendkarte ankam und das gleich mit 60fps+höherer auflösung rausgeballert hat. bei der wahl der gpu kam es schon immer auf die eigenen ansprüche und den eigenen geldbeutel an.

Linmoum
2020-01-21, 18:10:40
Bin überrascht, dass sie doch deutlich unter den von AMD angegebenen 150W liegt. Das wäre mit 8GB eine perfekte Karte, so hat sie allerdings einen kleinen Makel.

Wobei der die 0815-Bernds sowieso nicht kümmern wird. Der Preis muss allerdings noch den ein oder anderen Euro runter.

Daredevil
2020-01-21, 18:11:52
aha. also ich kann mich an zeiten erinnern da waren 60fps/hz das absolute ultimo. da hat man mit 15-20fps shooter gespielt und einem sind die augen rausgefalle, wenn einer mit ner highendkarte ankam und das gleich mit 60fps+höherer auflösung rausgeballert hat. bei der wahl der gpu kam es schon immer auf die eigenen ansprüche und den eigenen geldbeutel an.
Ja und heute kann man Fortnite in 120fps auf nem iPad Pro spielen, während die Konsolen auf 60fps rumkrebsen.
Technik schreitet halt vorran.

Loeschzwerg
2020-01-21, 18:12:38
Bei 249 Euro (maximal 259) wäre sie ein echt geiler Deal (ca. 150W, sehr leise, PCIe 4.0 kompatibel, auf Niveau der kleinen RTX Karten). 299 Euro sind da aber die 50 Euro zuviel. Für 329 Euro gibt es leise 5700er mit 8GB.

Dem schließe ich mich an. Wer nicht bis aufs Blut jeden Euro umdrehen muss sollte in die 8GB der 5700er investieren.

MadPenguin
2020-01-21, 18:17:20
Habe ich irgendwie etwas verpasst? Die meisten Reviewer sind von der 5600XT angetan. Wenn ich hier alles si durchlese, dann scheint das Gegenteil :)

dildo4u
2020-01-21, 18:32:20
@MadPenguin Die 5700 sind zu billig,die haben ihre Preis nicht gehalten und waren schon immer billiger als 2060.
Da macht es wenig Sinn auf die 8GB zu verzichten.

anddill
2020-01-21, 18:46:48
Ich hab eigentlich auf diese Karte gewartet um einen PC fertigzustellen. Aber aktuell soll das Teil ab 350€ aufwärts kosten. Ham die ne Schraube locker? Nicht mal die RX 5500XT ist inzwischen sinnvoll bepreist.
Jetzt werde ich wohl zähneknirschend eine GTX 1660 Super kaufen müssen. Unter diesen Bedingungen sieht der überteuerte nVidia Kram auf einmal richtig gut aus.

Freestaler
2020-01-21, 18:48:21
Wieso vergleicht ihr Strassenpreise mit UVP? Wenn dann bitte uvp vs uvp, 299 vs 369. Dabei seht ihr auch gleich, das die 5600xt noch runter gehen wird. Da hat's noch Raum. Wartet einfach 2 Wochen nach guter lieferbarkeit ab.

Screemer
2020-01-21, 18:53:30
Ja und heute kann man Fortnite in 120fps auf nem iPad Pro spielen, während die Konsolen auf 60fps rumkrebsen.
Technik schreitet halt vorran.
und das ändert was an meiner frage ob es jemals anders war, dass man hardware nach seinen bedürfnissen kaufen muss und keine pauschalen aussagen treffen kann?

anddill
2020-01-21, 18:54:29
@ freestaler: Ja, nur sonst wurde der erste Schwung Karten zur UVP verhökert, der Preis stieg erst wenn die alle waren.

SKYNET
2020-01-21, 18:59:59
Ist das gewollt, dass der andere Thread zu ist? War verwirrt, hatte mich aber nicht getraut einen eigenen aufzumachen :tongue:

Ich zitiere mich mal selbst aus dem CB-Thread:
https://www.computerbase.de/forum/threads/radeon-rx-5600-xt-im-test-doch-noch-ein-konkurrent-fuer-die-geforce-rtx-2060.1919767/page-6#post-23630653


dann schau dir mal das OC der 5600XT an bei CB... nur 40MHz mehr GPU... die machen aber sicherlich keine 6% mehrleistung aus, sondern die über 400MHz mehr speicher... navi ist extrem bandbreiten hungrig, zeigt ja auch igors test mit der 5500XT, ist ja ne halbe 5700XT(halbe shaderanzahl, halbe bandbreite), und die karte kackt komplett ab wenns drauf ankommt und bandbreite gefordert wird... das kennt man auch schon von pascal, zb. die 1080Ti profitiert mehr von speicher OC als vom GPU OC... bei navi nix anderes... darum gehe ich auch davon aus das big navi entweder HBM bekommt oder nen 512er interfce mit 16Gbps speicher...

aufkrawall
2020-01-21, 19:03:02
Jetzt werde ich wohl zähneknirschend eine GTX 1660 Super kaufen müssen. Unter diesen Bedingungen sieht der überteuerte nVidia Kram auf einmal richtig gut aus.
Falls der Rechner für jemand anderen ist: Ist bei der Black Screen-Seuche Navis eh besser so.

SKYNET
2020-01-21, 19:04:12
Interessant... plötzlich ist Navi doch noch 20-21% effizienter als Turing laut CB. :wink:

ich frage mich wie das zustande kommt... weil das layout ist ja ne 5700...

anders sind nur ein speichercontroller weniger und 2 speichersteinchen die fehlen, aber das wird ja kaum soviel ausmachen? oder frisst der controller tatsächlich dermassen viel?
oder die 5600XT ist sowas wie navi 1.5, und hat schon diverse verbesserungen drinne, die bei der 5500XT und 5700er serie fehlen :uponder:

SKYNET
2020-01-21, 19:06:27
Ja und heute kann man Fortnite in 120fps auf nem iPad Pro spielen, während die Konsolen auf 60fps rumkrebsen.
Technik schreitet halt vorran.


ja, aber dann schau dir mal die details auf konsole an und auf dem ipad... :freak: ist wie der vergleich konsole zu PC... auffm ipad bekomme ich augenkrebs bei der grafik verglichen zur konsole, und auf der konsole verglichen zum PC ebenfalls...

anddill
2020-01-21, 19:08:09
Falls der Rechner für jemand anderen ist: Ist bei der Black Screen-Seuche Navis eh besser so.

Ist. Da kommt nur ein einziges 60fps Display ran, aber ja, ist definitiv etwas was man im Hinterkopf behalten sollte.

ich frage mich wie das zustande kommt... weil das layout ist ja ne 5700...

anders sind nur ein speichercontroller weniger und 2 speichersteinchen die fehlen, aber das wird ja kaum soviel ausmachen? oder frisst der controller tatsächlich dermassen viel?
oder die 5600XT ist sowas wie navi 1.5, und hat schon diverse verbesserungen drinne, die bei der 5500XT und 5700er serie fehlen :uponder:

Niedrigerer Takt, näher am Effizienzmaximum.

SKYNET
2020-01-21, 19:08:42
@ freestaler: Ja, nur sonst wurde der erste Schwung Karten zur UVP verhökert, der Preis stieg erst wenn die alle waren.

https://geizhals.de/?cat=gra16_512&xf=653_AMD%7E9809_16+5207+-+RX+5600+XT

aber für nen 10er mehr gibts ne 5700er... sollte klar sein was zu kaufen ist, weil wird sicherlich nen paar tage dauern bis die 5600XTs bei 269 angekommen sind.

SKYNET
2020-01-21, 19:10:42
Niedrigerer Takt, näher am Effizienzmaximum.

die 5600XT hat offiziel sogar nen höheren boost(1750 vs. 1705) als die 5700... dadran kanns also nicht liegen

dildo4u
2020-01-21, 19:14:22
Natürlich ist die Effizienz nur mit dem alten bios Herrausragend alles andere macht auch kein Sinn.

https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt

Wenn Turing mit 1.5Ghz läuft sollte der Verbrauch auch ordentlich sinken.

anddill
2020-01-21, 19:15:53
Lustig, die Listungen sind gerade eben aufgepoppt, vor 10min war die billigste noch 349€.

edit: Auch mit dem neuen BIOS ist die Effizienz gut. Ok, 2 RAM Chips weniger sind ca 10 Watt weniger. Aber komisch ists trotzdem.

dargo
2020-01-21, 19:19:28
Niedrigerer Takt, näher am Effizienzmaximum.
Das witzige ist ja gerade, dass der Takt eben nicht niedriger als bei der 5700 ist. Warum die 5600XT trotzdem so effizient ist da kann ich mir auch noch nichts zusammen reimen.

Natürlich ist die Effizienz nur mit dem alten bios Herrausragend alles andere macht auch kein Sinn.

https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_die_energieeffizienz_als_performance_pro_watt

Wenn Turing mit 1.5Ghz läuft sollte der Verbrauch auch ordentlich sinken.
Was für 1,5Ghz? :| Die Pulse ist mit ihrem sparsamen Bios 2 weit davon entfernt.
https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last

Langlay
2020-01-21, 19:22:00
die 5600XT hat offiziel sogar nen höheren boost(1750 vs. 1705) als die 5700... dadran kanns also nicht liegen


https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/2/

Nach der Tabelle takten die Dinger auch leicht schneller als meine Ref. 5700 non Xt in Stock liegt die meist so bei 1650-1700MHz. Meine 5700 kommt mit 1.025V @ 1750 MHz. Mit UV komm ich auf 925mV runter und dann lieg ich auch nur noch so bei ~130W ASIC Verbrauch in Witcher 3 in 1440p. Eventuell ist man mit der Spannung etwas runtergegangen wäre meine Vermutung.

Daredevil
2020-01-21, 19:24:34
ich frage mich wie das zustande kommt... weil das layout ist ja ne 5700...


Einfach mal das PT regeln, dann weißt du, wie das zustande kommt.

5700xt Stock @ 180W PT
https://abload.de/img/stockphj9v.gif

5700xt -50PT @ 90W PT
https://abload.de/img/90wxskso.gif

30% mehr Takt
( Über ) 100% mehr Verbrauch

( Ohne jegliches UV )

dargo
2020-01-21, 19:34:47
ich frage mich wie das zustande kommt... weil das layout ist ja ne 5700...

anders sind nur ein speichercontroller weniger und 2 speichersteinchen die fehlen, aber das wird ja kaum soviel ausmachen? oder frisst der controller tatsächlich dermassen viel?

Ich würde nach den bisherigen Infos die Vermutung von CB teilen. Der Speichercontroller von RDNA 1 ist ein kleiner Säufer bei 1,75Ghz. Möglicherweise musste AMD da wirklich recht hohe Spannungen anlegen um diese Frequenzen zu schaffen. Das würde auch eventuell erklären warum der 14Gbps Speicher sich so wenig bei Navi übertakten lässt. Möglicherweise limitiert hier zuerst der Speichercontroller und nicht der Speicher selbst.

SKYNET
2020-01-21, 19:52:19
Ich würde nach den bisherigen Infos die Vermutung von CB teilen. Der Speichercontroller von RDNA 1 ist ein kleiner Säufer bei 1,75Ghz. Möglicherweise musste AMD da wirklich recht hohe Spannungen anlegen um diese Frequenzen zu schaffen. Das würde auch eventuell erklären warum der 14Gbps Speicher sich so wenig bei Navi übertakten lässt. Möglicherweise limitiert hier zuerst der Speichercontroller und nicht der Speicher selbst.


das ist dann aber krass... dann wäre navi in der theorie eigentlich hyper effizient auch verglichen mit turing, wenn AMD da hand ansetzt(gehe stark von aus bei RDNA2) sollte das alleine schon nen guten batzen einsparen... dann noch 7nm+... evtl. langts dann doch mit 250W die 2080Ti oder gar RTX Titan zu knacken.

dargo
2020-01-21, 19:59:02
Mir wäre HBM noch lieber. Aber 16GB HBM würde wieder recht hohe Kosten bedeuten. :usad:

Edit:
Schade, dass es kein Tool gibt mit dem man die Spannung vom Speichercontroller bei Navi ändern kann oder übersehe ich gerade was? Dann könnte man ne 5700(XT) mal testweise mit 1,5Ghz beim Controller und Speicher betreiben und schauen wie sich das verhält. Natürlich müsste man dann aber die Spannung der 5600XT beim Controller genau kennen.

Der_Korken
2020-01-21, 20:03:14
dann schau dir mal das OC der 5600XT an bei CB... nur 40MHz mehr GPU... die machen aber sicherlich keine 6% mehrleistung aus, sondern die über 400MHz mehr speicher...

Ich meinte ich meinem CB-Post die 5700, die hat mit 256bit schon deutlich mehr "Grundbandbreite" und deswegen würde ich behaupten, dass die auf die Bandbreite nicht angewiesen ist. Aber selbst bei 192bit sieht es gar nicht so wild aus:

https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/2/#abschnitt_benchmarks_in_1920__1080

Ohne Ghost Recon Breakpoint liegt BIOS 1 5% vor BIOS 2. Der Unterschied: ~1% mehr GPU-Takt und 16,6% mehr Speichertakt. Die 5700 hat jetzt als einzigen Unterschied das 33% breitere Speicherinterface (+33,3%) und etwas weniger GPU-Takt. Auch das bringt gerade mal weitere 5%. Ich behaupte einfach mal, dass jede RTX auch um 4-5% zulegen würde, wenn die mal eben 16,6% mehr Bandbreite kriegt und da würde auch keiner sagen, dass die sonderlich stark an der Bandbreite hängen würde. Ein bisschen was bringt es natürlich immer, klar. Würde eine höhere Bandbreite wirklich gar nichts bringen, wäre das ein Zeichen dafür dass sie völlig überdimensioniert ist und der Hersteller Geld zum Fenster rausgeworfen hat.

Jetzt kommt aber das interessante: BIOS 1 und 2 takten quasi gleich, aber BIOS 1 braucht für die gesamte Karte plötzlich 27% mehr Strom (130 -> 165W). Da der Speichertakt der einzige Unterschied ist, kann es nur daran liegen. Der VRAM selbst kann es nicht sein, denn wenn man sich die 5700er anguckt, liegt die Differenz zwischen GPU und Gesamtkarte <40W. D.h. PCB, VRAM, VRMs, Lüfter brauchen zusammen <40W. Also bleibt nur der Speichercontroller (oder die PHYs?) übrig, der mit BIOS 2 anscheinend mit deutlich weniger Spannung läuft.

Jetzt zum OC: CB bekommt 4-6% (nicht 6%) mehr Leistung aus 7,3% mehr VRAM-Takt und ~2,3% mehr GPU-Takt (40Mhz sind nicht nichts!). Sieht jetzt nicht sehr verdächtig aus. Man könnte jetzt noch rumspinnen und sich überlegen, dass der VRAM beim 6000Mhz-BIOS mit schärferen Timings läuft und deswegen der Sprung auf 6440Mhz mit scharfen Timings verhältnismäßig größer ausfällt als der Sprung auf 7000Mhz mit laschen Timings. Mit anderen Worten: Der Leistungszuwachs durch VRAM-OC kommt nicht primär durch die gestiegene Bandbreite, sondern durch die besseren Latenzen ;). Bei der R7 war das afaik auch so, dass VRAM-OC noch einiges gebracht hat, obwohl der Gedanke eines Bandbreitenlimits völlig absurd war.

basix
2020-01-21, 20:35:32
30% mehr Takt
( Über ) 100% mehr Verbrauch

Das kannst du bei allen Chips beobachten. 1.3^3 ergibt nunmal in den Faktor 2.2.

Erstaunlich ist ja wirklich, dass man trotz 1.7+ GHz sehr effizient ist.

Complicated
2020-01-21, 22:53:47
Hat keiner auf einem PCIe 4.0 System getestet?

Raff
2020-01-21, 23:00:22
Hat keiner auf einem PCIe 4.0 System getestet?

Gute Frage, in diesem Fall aber wirklich nur Make-up für die letzten Prozentchen. Da Navi 10 eingesetzt wird, hat man nämlich 16 Lanes zum Host-System, PCI-E-Standard hin oder her. In den Fällen, wo die 6 GiByte platzen (die Wolfensteine) kann PCI-E 4.0 ×16 aber definitiv massiv helfen und die Karte wäre in der Praxis kaum langsamer als eine RX 5700. Speku Ende. :)

MfG
Raff

Denniss
2020-01-21, 23:14:18
Igor testet wohl neuerdings mit einem 3950X auf X570 Godlike

y33H@
2020-01-21, 23:18:16
Hat keiner auf einem PCIe 4.0 System getestet?
Ich habe auf nem Ryzen 3800X samt X570 getestet.

nairune
2020-01-21, 23:51:47
In den Fällen, wo die 6 GiByte platzen (die Wolfensteine) kann PCI-E 4.0 ×16 aber definitiv massiv helfen und die Karte wäre in der Praxis kaum langsamer als eine RX 5700. Speku Ende. :)

Soweit ich bei euch sehe, kacken Nvidia und AMD nun "gleichzeitig" ab, wenn der Speicher ausgeht? Sprich die schlechtere Speicherverwaltung ist mit Navi Geschichte?

Complicated
2020-01-21, 23:54:14
Sorry, ich hatte die Systembeschreibung bei dir nicht gefunden, Marc und bei PCGH auch nicht. CB hatte zwar das Testsystem genannt, die Testmethodik jedoch verändert, ohne die Änderungen zu nennen. Sie wollen das erst nachliefern.

@Raff
Na das wäre eben genau bei dem kleineren 6GB Speicher das interessante gewesen, ob nach dem RX5500 Test mit nur 8 lanes sich da ebenso gravierende Unterschiede bemerkbar machen, insbesondere bei den Speicher limitierten Spielen. Die RX 2060 PCIe 3.0 und RX 5600XT PCIe 4.0 mit 6GB wären genau die Kombination um die 8GB RX 5700 zu vergleichen.

SKYNET
2020-01-22, 00:16:25
Ich habe auf nem Ryzen 3800X getestet.

ohne X570 aber trotzdem kein PCIe 4.0 ;)

Kriegsgeier
2020-01-22, 06:38:45
die Ganze bessere Effizienz der 5600XT Karte entspring dem fehlenden (1 weniger als bei 5700) Stromversorgungsstufe für die 2 Gb Speicher!

Klar die 2 Speicherbausteine verbrauchen (besser: setzen die Verlustleistung um) selbst natürlich auch!

Deshalb hat AMD die Karte auch nur mit 6 statt 8 GB ausgestattet!

dildo4u
2020-01-22, 07:11:14
AMD hat die Karte so ausgestattet damit die Boardpartner nicht wie sonst immer draufzahlen gegenüber Nvidia,Effizienz sollte hier keine Rolle spielen,die Karten in dem Bereich sind alle Harmlos.
RX590 sind z.b deutlich billiger und saufen massiv mehr,der Knackpunkt bei der 5600 sind hohe GDDR6 Preise.

y33H@
2020-01-22, 07:31:36
Sorry, ich hatte die Systembeschreibung bei dir nicht gefunden, Marc und bei PCGH auch nicht.Auf Seite #3 erster Absatz ... werde den X570 noch in die Benchmark Diagramm Beschreibungen aufnehmen.

Tarkin
2020-01-22, 07:39:32
Die PCGH hat etwas mehr getan als andere Seiten ... und gleich 3 Artikel zum Launch herausgehauen:

Supa anti Radeon Framing ala PCGH...

Was kommt ins Hirn rein: eine 5600XT ist eine "AUF KANTE GENÄHTE" Grafikkarte von zweifelhafter Qualität mit zu wenig Speicher - herzlichen Glückwunsch!

Sorry, aber solche Headlines... regen meine Peristaltik rückwärts an!

Auf Kante genäht - was soll das überhaupt heißen bitteschön? Welches Produkt ist heutzutage nicht "auf Kante genäht"? Das ist echt sowas von dermaßen schwachsinnig, wahnsinn.

Wenn ich solche Reviews lese (was ich mir zum Glück nicht mehr antue, weil ich weiß was kommt wenn ich solche dämlichen Headlines sehe), dann frage ich mich, ob nicht die Gehirne gewisser Tech-Press-Redakteure "AUF KANTE GENÄHT" sind.

Anstatt die positiven Eingenschaften der Karte hervorzuheben wird eine Headline fabriziert, die schlechte Qualität impliziert. Qualitätsjournalismus sieht anders aus! Zum Glück muss man sich das nicht antun... gibt andere Publikationen, die das viel besser können - IGORs Lab und Golem zB.!

Raff
2020-01-22, 09:07:19
Wetten, dass dich die absolut zum Produkt passende Überschrift mit einer Nvidia-Karte nicht gestört hätte – im Gegenteil?

Beste Grüße aus dem Dauer-Crunch,
Raff

j4l
2020-01-22, 09:36:09
Ich finde dein Fazit vollkommen treffend. Diese Karte braucht 2020 keiner mehr. Zu schnell für 6GB und dadurch zu teuer. Anscheinend ist die Ausbeute von Navi 10 für mehr Salvage zu gut...

Der größte Haken der 5600XT durch den hohen Preispunkt wird imho noch werden, dass er niedrigere Preise für die 5700 behindern wird, weil die 5700 ja immer teurer als die 5600 bleiben muss. Es sei denn die 5600XT als Ladenhüter geht bald dahin wo sie eigentlich leistungs- und preismäßig hingehört hätte, auf 229-249€, aber da stört ja dann wieder die zu teuere 5500XT...

SKYNET
2020-01-22, 10:14:32
Wetten, dass dich die absolut zum Produkt passende Überschrift mit einer Nvidia-Karte nicht gestört hätte – im Gegenteil?

Beste Grüße aus dem Dauer-Crunch,
Raff


naja, bei der 2060 klang die überschrift nicht so clickbait mässig, sondern eher sachlich...

Geforce RTX 2060 im Test: Fazit und Problemfall VRAM

wäre wohl auch bei der 5600XT angesagt gewesen, aber als redakteur hat man ja auch so seine lieblingsmarken, gell :wink:

WedgeAntilles
2020-01-22, 10:19:17
Du hast überhaupt nichts deutlich gemacht. Du hast einen allgemein formulierten "amd ist kacke"-post rausgeballert, der schlicht und ergreifend überhaupt nicht den Eindruck vermittelt, dass das deine höchst beschränkte eigene Meinung ist. Schon der zweite Satz enthält keinerlei Einschränkung. Man kann sich seine Absonderungen halt auch schönreden.

Ich zitiere mich mal selber, Hervorhebungen jetzt:

Bei ner AMD Karte habe ich das Gefühl

Ich sage nicht, dass ich das bei AMD GPUs zwingend tun MUSS.
Aber es drängt sich einem der Eindruck auf.

Und "gefühlt" ist hier (für mich) das einzig entscheidende.

Persönlich entscheide ich mich da immer für Variante b.


Aber klar, konnte man überhaupt nicht drauf kommen, dass das meine persönliche Meinung ist, die mehr auf Gefühlen als auf Fakten beruht.
Seriously?


Liegt das jetzt an AMD, oder an der Berichterstattung?
Beides würde ich sagen, vermutlich mit größerer "Schuld" bei letzterem.
Schlussendlich sollte AMD sich aber auch überlegen, in wie fern sie zu dem "Chaos" mit beitragen.


Denn mit meinem Gefühl liege ich ja definitiv nicht alleine.
Der Marktanteil von Nvidia liegt bei ca. 70%, der von AMD bei 30%.

Das muss ja Gründe haben.

Wenn es nicht meine weichen "Gefühlsfaktoren" sind, muss Nvidia

- klar bessere Produkte anbieten
- klar günstiger sein

Aktuell ist Nvidia im High-End Segement alleine. Aber das macht prozentual im Markt nicht viel aus, ist also keine Erklärung.

Klar bessere Produkte + günstiger sehe ich jetzt auch nicht wirklich.

Also MUSS die Erklärung doch sein, dass es hauptsächlich ein "Gefühl" ist, warum die Leute primär auf Nvidia zugreifen.

Oder was habt ihr für Erklärungen?

Raff
2020-01-22, 10:21:35
naja, bei der 2060 klang die überschrift nicht so clickbait mässig, sondern eher sachlich...

wäre wohl auch bei der 5600XT angesagt gewesen, aber als redakteur hat man ja auch so seine lieblingsmarken, gell :wink:

Ja, ich ebenfalls. Meine Sympathie gehört ausschließlich einer lange toten Firma (Tipp: mein Avatar). Alle anderen Firmen sind einfach nur Aktiengesellschaften. Wenn ich etwas schreibe, dann erfolgt die Kritik lediglich am Produkt – stets aus der Sicht eines anspruchsvollen PC-Spielers, der nicht jeden Mist bejubelt. Darauf könnt ihr euch verlassen. „Farben” beim Lesen entstehen folglich nur beim Konsumenten.

MfG
Raff

SKYNET
2020-01-22, 10:46:45
Ja, ich ebenfalls. Meine Sympathie gehört ausschließlich einer lange toten Firma (Tipp: mein Avatar). Alle anderen Firmen sind einfach nur Aktiengesellschaften. Wenn ich etwas schreibe, dann erfolgt die Kritik lediglich am Produkt – stets aus der Sicht eines anspruchsvollen PC-Spielers, der nicht jeden Mist bejubelt. Darauf könnt ihr euch verlassen. „Farben” beim Lesen entstehen folglich nur beim Konsumenten.

MfG
Raff


3dfx ist aber NV :tongue::freak:

ne, ein wenig weniger clickbait mässige überschrift -einfach sachlich wie bei der 2060- hätte der sache besser getan.

Benutzername
2020-01-22, 10:50:54
Bin überrascht, dass sie doch deutlich unter den von AMD angegebenen 150W liegt. Das wäre mit 8GB eine perfekte Karte, so hat sie allerdings einen kleinen Makel.


Ich frage mich ob ein board partner nicht einfach eine mit 12 GB anbieten kann. Einfach weil und warum nicht.


Wobei der die 0815-Bernds sowieso nicht kümmern wird. Der Preis muss allerdings noch den ein oder anderen Euro runter.

Ja letzendes verkauft der Preis.

Benutzername
2020-01-22, 10:51:57
die Ganze bessere Effizienz der 5600XT Karte entspring dem fehlenden (1 weniger als bei 5700) Stromversorgungsstufe für die 2 Gb Speicher!

Klar die 2 Speicherbausteine verbrauchen (besser: setzen die Verlustleistung um) selbst natürlich auch!

Deshalb hat AMD die Karte auch nur mit 6 statt 8 GB ausgestattet!

Das Speicherinterface des beschinittenen Navichips gibt doch nicht mehr her.

SKYNET
2020-01-22, 10:55:11
Ich frage mich ob ein board partner nicht einfach eine mit 12 GB anbieten kann. Einfach weil und warum nicht.



Ja letzendes verkauft der Preis.


9GB ginge ja auch, gibt ja 1.5gb ICs bei GDDR6 :)

Benutzername
2020-01-22, 11:03:31
9GB ginge ja auch, gibt ja 1.5gb ICs bei GDDR6 :)


Na dann ihr boardpartner! Auf auf und lötet das drauf! Dann sähe die rx5600 nicht mehr so komisch aus! Für die BOardpartner ist die 5600 ja sowieso schon interessant, weil sie dieselben Platinen benutzen können wie für die 5700.

y33H@
2020-01-22, 11:22:51
9GB ginge ja auch, gibt ja 1.5gb ICs bei GDDR6.Welcher Hersteller hat die denn tatsächlich in Serie im Angebot?

Dino-Fossil
2020-01-22, 11:26:58
Gibt's die nur theoretisch in Form einer Spezifikation, oder werden die auch (vor allem für Consumer Karten bezahlbar) gefertigt?

kmf
2020-01-22, 11:27:16
Supa anti Radeon Framing ala PCGH...

Was kommt ins Hirn rein: eine 5600XT ist eine "AUF KANTE GENÄHTE" Grafikkarte von zweifelhafter Qualität mit zu wenig Speicher - herzlichen Glückwunsch!

Sorry, aber solche Headlines... regen meine Peristaltik rückwärts an!

Auf Kante genäht - was soll das überhaupt heißen bitteschön? Welches Produkt ist heutzutage nicht "auf Kante genäht"? Das ist echt sowas von dermaßen schwachsinnig, wahnsinn.

Wenn ich solche Reviews lese (was ich mir zum Glück nicht mehr antue, weil ich weiß was kommt wenn ich solche dämlichen Headlines sehe), dann frage ich mich, ob nicht die Gehirne gewisser Tech-Press-Redakteure "AUF KANTE GENÄHT" sind.

Anstatt die positiven Eingenschaften der Karte hervorzuheben wird eine Headline fabriziert, die schlechte Qualität impliziert. Qualitätsjournalismus sieht anders aus! Zum Glück muss man sich das nicht antun... gibt andere Publikationen, die das viel besser können - IGORs Lab und Golem zB.!
Was'n da dran abstößig? - die 5700xt ist ebenso auf Kante genäht und findet ihre Abnehmer.

SKYNET
2020-01-22, 11:30:27
Welcher Hersteller hat die denn tatsächlich in Serie im Angebot?

das ist dann die 2. frage X-D

Daredevil
2020-01-22, 11:41:21
"Auf Kante genäht" ist für mich auch nichts negatives, sondern das man einfach alles rausgepresst hat, was geht.
Das ganze wird nur im Zusammenhang mit der Konkurrenz negativ, weil man sich ihr gefügt hat, um mitziehen zu können.
Ein Ryzen ist auch auf "Kante genäht" mit PBO. Welten bekommt man da auch nicht raus.

Und zur 9GB oder 12GB Karte....... wer will denn ne Leistungsklasse wie die haben mit soviel Speicher?
Also 8GB wäre okay gewesen, 6GB ist verschmerzbar, aber mehr? Ist doch auch unnötig.

Dino-Fossil
2020-01-22, 11:48:51
"Auf Kante genäht" ist für mich auch nichts negatives, sondern das man einfach alles rausgepresst hat, was geht.
Ich zieh mich an der Formulierung nicht auf, aber so richtig auf Kante genäht kommt mir die Karte eigentlich nicht vor - Taktraten, Verbrauch und Kühlung sind definitiv im grünen Bereich.
Bleibt eigentlich nur der Speicher, der unter bestimmten Bedingungen knapp werden kann, wobei man das vermutlich meist schon umgehen kann, indem man Texturen von Ultra auf Very High setzt.
Eine Karte für die ich das eher sagen würde, wäre die 5500XT, v.a. in der 4GB Version.


Und zur 9GB oder 12GB Karte....... wer will denn ne Leistungsklasse wie die haben mit soviel Speicher?

:biggrin:
Wenn man hier so liest ist 6GB für viele praktisch iGPU-Klasse und 8GB das absolute Minimum, aber 9GB wären zu viel? :freak:
Naja, 12 GB wären in der Tat bisschen fragwürdig, v.a. halt aus Kostengründen.

Loeschzwerg
2020-01-22, 12:11:22
Video von Igor angucken :) Das ist schon etwas auf Kante wenn manche Karten nicht stabil laufen.

Tarkin
2020-01-22, 12:19:45
Wetten, dass dich die absolut zum Produkt passende Überschrift mit einer Nvidia-Karte nicht gestört hätte – im Gegenteil?

Beste Grüße aus dem Dauer-Crunch,
Raff

Es geht hier nicht um mich, sondern um deine Headlines :rolleyes:

Dem Lesern wird unterschwellig eine in einer bestimmten Farbe eingefärbte Botschaft in die Birne geflötet.

Ex3cut3r
2020-01-22, 12:37:19
Ist nicht meine Preisklasse, da ich immer mindestens eine GPU mit einer 7 im Namen kaufe, 770, 1070, 2080er. Aber ich checke nicht, woher eure VRAM Gier herkommt? Ich spiele seit 2015 auf 3440x1440. Und das Spiele mal an den 6GB trotz 8GB Karte kratzen ist doch ziemlich gering.

Wenn neue Konsolen und Nvidias Ampere Generation kommt, ist das sowieso alles alter Gammel. Deswegen wurde ich wenn man es nicht absolut nötig hat, gar nichts kaufen. Sondern warten.

chaospanda
2020-01-22, 12:42:14
Es ist und bleibt ne total bescheuerte Idee, "3" Tage vor Release mal eben das Bios zu pimpen. Erst recht, wenn man bedenkt, dass mindestens 1-2 Chargen mit dem alten rausgehen/raus gegangen sind und vom Endverbraucher manuell angepasst werden müssen.

Der Punkt wird zu Recht von den Testern angeprangert und ich hoffe inständig, dass wird nicht die Regel.

AMD muss dringend in der GPU-Sparte personell aufräumen. Das ist teils echt abenteuerlich, wenn man sich die jüngsten Ausgüsse so anschaut.

Zumal das Navi10-Line up nach wie vor wirkt, als hätte man alle potentiellen Kombinationen aus Chips, 4/6/8 GB VRAM, SI und UVP in nen großen Topf gekippt; kräftig umgerührt und dann geschaut, was rauskommt. Das man dabei gewinnen kann, sah man am Release der 5700/5700XT und das man dabei verlieren kann sah man bei der 5500(XT) und nun auch bei der 5600XT.

Das i-Tüpfelchen ist dann der Treiber. So zeitgemäß er auch ausschaut, so wackelig ist er nach wie vor unter der Haube...

pilzsammler2002
2020-01-22, 12:43:04
da ich immer mindestens eine GPU mit einer 7 im Namen kaufe, 770, 1070, 2080er.
:freak:

Ich bin gespannt ob es da mal Infos gibt zu dem Speichercontroller...
Hat jemand mal die RAM Chips selber mit der 5700 verglichen?

Complicated
2020-01-22, 12:43:18
Ich finde hier haben die Redaktionen keinen guten Eindruck hinterlassen. Ich habe keinen guten deutschen Test gelesen.
CB widerspricht sich, wie so oft, im Text gegenüber dem was sie in den Balken an Messwerten abbilden und wollen irgendwann die Testmethodik mal nach liefern in einem separaten Artikel...ja war ja keine Zeit die Testmethodik vor solch einem Test mal zu dokumentieren...bei mir entsteht bei so was immer der Eindruck da werde on the fly mal geschaut was zu dem gewünschten Ergebnis führt. Unseriös.

Keine PCIe 4.0 Plattform zu verwenden wenn eine GPU PCIe 4.0 als Anbindung nutzt, ist unteres Amateur Niveau. Wenn es kaum Unterschied macht dann gibt es noch weniger Gründe es nicht zu benutzen.

Vor lauter BIOS sind die meisten Basics wohl flöten gegangen die bei jedem Test Standard sein sollten.

Wenn AMD so effizient sein soll wie Nvidia, dann müssen es 6GB VRAM sein in der Klasse. Kaum etwas darüber zu lesen gewesen, dass hier ein 250 mm2 Chip gegen 540 mm2 Chip antritt.

chaospanda
2020-01-22, 12:51:59
wer ist denn bitte so "clever" und gibt 150+EUR für nen X570 Board aus, um dann, weil es langt und das Budget nicht mehr her gibt, eine 5600XT drauf zu packen, wenn es wirklich nur ums Gaming geht.

Da ist der Weg über B450 + 5700 nonXT viel viel sinnvoller...

Es ist ja schön, dass die PCIe 4.0 kann, aber das bringt aktuell den wenigsten etwas. Im Gegenteil; da bekommt man dann im Test wieder "2-5%" Mehrleistung gezeigt, die man selbst bei PCIe 3.0 aber nie sehen wird.

dargo
2020-01-22, 12:55:33
Kaum etwas darüber zu lesen gewesen, dass hier ein 250 mm2 Chip gegen 540 mm2 Chip antritt.
What? TU106 ist 445mm² groß.

[NbF]Eagle
2020-01-22, 13:05:25
Für die Sammler unter uns ist die karte mit alten Bios doch Super, die kann man dann in den Kuriositätenschrank stellen und vielleicht dann irgendwann teurer verkaufen ;)

y33H@
2020-01-22, 13:28:57
Ich habe keinen guten deutschen Test gelesen.Da fühle ich mich tatsächlich nun etwas auf den Schlips getreten ;( neues System mit Ryzen 3800X und X570 inklusive PCIe Gen4, komplett neuer Parcours mit allerhand Engines samt D3D11/D3D12 und Vulkan, von 1080p über 1440p bis 2160p, außerdem Referenz-5600-XT sowie beide vBIOS der Sapphire Pulse ... was soll denn noch alles rein in den Test?

Kaum etwas darüber zu lesen gewesen, dass hier ein 250 mm2 Chip gegen 540 445 mm2 Chip antritt.Dafür ist 7 nm DUV deutlich teurer als 12 nm DUV und bringt Vorteile bei der Effizienz, die AMD brauchte um bei Perf/Watt besser abzuschneiden.

Grindcore
2020-01-22, 13:42:50
Da fühle ich mich tatsächlich nun etwas auf den Schlips getreten ;( neues System mit Ryzen 3800X und X570 inklusive PCIe Gen4, komplett neuer Parcours mit allerhand Engines samt D3D11/D3D12 und Vulkan, von 1080p über 1440p bis 2160p, außerdem Referenz-5600-XT sowie beide vBIOS der Sapphire Pulse ... was soll denn noch alles rein in den Test?

Dafür ist 7 nm DUV deutlich teurer als 12 nm DUV und bringt Vorteile bei der Effizienz, die AMD brauchte um bei Perf/Watt besser abzuschneiden.

Aber zu keinem genehmen Ergebnis gekommen= kein guter Test. Verschtehsch?

Dino-Fossil
2020-01-22, 13:54:09
Keine PCIe 4.0 Plattform zu verwenden wenn eine GPU PCIe 4.0 als Anbindung nutzt, ist unteres Amateur Niveau. Wenn es kaum Unterschied macht dann gibt es noch weniger Gründe es nicht zu benutzen.

Lass mal die Kirche im Dorf. PCIe 3.0 ist aktuell die deutlich realitätsnähere Konfiguration. Natürlich würde ich mir durchaus auch PCIe 3 vs 4 Vergleichstests wünschen, denn interessant ist der Einfluss natürlich schon.


Video von Igor angucken Das ist schon etwas auf Kante wenn manche Karten nicht stabil laufen.

Hm, da war AMD mit dem last-minute-BIOS wohl wirklich etwas aktionistisch.

Mangel76
2020-01-22, 13:54:25
Dafür ist 7 nm DUV deutlich teurer als 12 nm DUV und bringt Vorteile bei der Effizienz, die AMD brauchte um bei Perf/Watt besser abzuschneiden.

Noch so einer ;D

Fertigungsvorteil kann man so oder so interpretieren. 7nm bringt etwa -50% weniger Verbrauch oder +25% Leistung. Alle meinen immer, NV wird dann ja die gleiche Leistung zum halben Verbrauch bringen und schon sieht AMD wieder alt aus.

Kann man auch anders sehen: 5600XT ist laut CB-Messung etwa 20% effizienter als die RTX 2060. Würde NVIDIA jetzt den Nodesprung nutzen, um die Leistung zu erhöhen, könnten sie damit wieder gleichziehen bei der Effizienz mit der 5600XT.

Ich für meinen Teil würde eher davon ausgehen, dass NVIDIA den zweiten Weg gehen wird, denn lieber kleinere GPUs mit höherem Takt/Verbrauch als wieder solche Riesendinger mit neuem teurem Prozess. Und schon ist der tolle Effekt des Fullnodesprunges von +100% bei der Effizienz auf nur noch +25% zusammengeschrumpft.

(alle Änderungen rein auf den Prozess bezogen, Architekturverbesserungen kommen natürlich noch dazu)

Complicated
2020-01-22, 14:00:27
What? TU106 ist 445mm² groß.
Stimmt die Super hat den TU104 verbaut.
Hätte das nur mal einer der Test erwähnt...😋

Complicated
2020-01-22, 14:02:32
Lass mal die Kirche im Dorf. PCIe 3.0 ist aktuell die deutlich realitätsnähere Konfiguration. Allerdings würde ich mir durchaus auch PCIe 3 vs 4 Vergleichstests wünschen, denn interessant ist der Einfluss natürlich schon.

Kirche im Dorf?
Das sollte die Standardplattform sein wenn eine GPU diese Anbindung hat...alles andere ist einfach Murks. Wer zusätzlich die langsamere Plattform testen möchte kann das ja gerne tun.

Complicated
2020-01-22, 14:03:47
Da fühle ich mich tatsächlich nun etwas auf den Schlips getreten ;( neues System mit Ryzen 3800X und X570 inklusive PCIe Gen4, komplett neuer Parcours mit allerhand Engines samt D3D11/D3D12 und Vulkan, von 1080p über 1440p bis 2160p, außerdem Referenz-5600-XT sowie beide vBIOS der Sapphire Pulse ... was soll denn noch alles rein in den Test?

Dafür ist 7 nm DUV deutlich teurer als 12 nm DUV und bringt Vorteile bei der Effizienz, die AMD brauchte um bei Perf/Watt besser abzuschneiden.
Ja wäre sicherlich ein eigener Absatz gewesen im Test...warum nicht enthalten mit diesen Bemerkungen. Mit der Fertigung?

Und du musst dir nicht auf den Schlips getreten fühlen. Deine Tests waren schon besser...hier hat mir einiges gefehlt an Vergleich PCIe3 vs PCIe4. Meine Erwartung dazu hatte ich ja schon vorab geschrieben...geliefert hat es keiner.

Raff
2020-01-22, 14:04:04
Tatsächlich findet man sich mit einem ach-so tollen Ryzen 9 39xx öfter im CPU-Limit wieder, als einem lieb ist. Gut, nicht mit einer RX 5600 XT, aber grundsätzlich. Weil die Software nicht so weit ist wie die Hardware (Kerne). Kompetitive Benchmarks von Grafikkarten sollten aber ohne CPU-Limit gemacht werden. Vielleicht klappt's final mit Reisen Viertausend. =)

MfG
Raff

Complicated
2020-01-22, 14:06:54
Du denkst ein Ryzen 3700X limitiert diese GPU?

chaospanda
2020-01-22, 14:17:28
Du denkst ein Ryzen 3700X limitiert diese GPU?
steht doch da, das er das nicht bei der 5600xt annimmt...

[...]Gut, nicht mit einer RX 5600 XT, aber grundsätzlich. [...]

Dino-Fossil
2020-01-22, 14:38:19
Kirche im Dorf?
Das sollte die Standardplattform sein wenn eine GPU diese Anbindung hat...alles andere ist einfach Murks. Wer zusätzlich die langsamere Plattform testen möchte kann das ja gerne tun.

PCI3 ist nunmal aktuell die relevante & praxisnahe Konfiguration für Käufer dieser Karte.
Als solcher will ich wissen, wie sie da läuft, inklusive Einbrüche weil anscheinend der VRAM ausgeht. Denn im Vergleich zur CPU-Konfiguration lässt sich der Einfluss der PCIe-Anbindung nicht ganz so leicht pauschal beantworten.
PCIe4 kann (und sollte) man dann halt zuschieben um v.a. in den speicherkritischen Benches nachzutesten. Ich sehe aber eben kein prinzipielles Problem, wenn der Fokus zur Zeit noch auf PCIe3 Systemen liegt.
Wichtiger wäre mir persönlich, wenn die Redaktionen auch mal den Einfluss von VRAM-fressenden Einstellungen, z.B. Texturauflösung oder AA, testen würden.

Raff
2020-01-22, 14:49:01
Wichtiger wäre mir persönlich, wenn die Redaktionen auch mal den Einfluss von VRAM-fressenden Einstellungen, z.B. Texturauflösung oder AA, testen würden.

Extrembeispiel Wolfenstein Youngblood: PCGH hat einen Vergleich von "Mein Leben!" (das das Bild-Streaming auf "Ultra" belässt) und "Wirklich maximale Details", also inklusive Bild-Streaming "Extrem":
https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/2/

Hier böte sich ein Nachtest mit PCI-E 4.0 an. Da könnte die RX 5600 XT massiv gegenüber der RX 5700 aufholen.

MfG
Raff

Ex3cut3r
2020-01-22, 14:51:33
Tatsächlich findet man sich mit einem ach-so tollen Ryzen 9 39xx öfter im CPU-Limit wieder, als einem lieb ist. Gut, nicht mit einer RX 5600 XT, aber grundsätzlich. Weil die Software nicht so weit ist wie die Hardware (Kerne). Kompetitive Benchmarks von Grafikkarten sollten aber ohne CPU-Limit gemacht werden. Vielleicht klappt's final mit Reisen Viertausend. =)

MfG
Raff

Interessant, aber ich schätze du meinst hier mit 2080Ti @ FHD? Mit Subtimings Tunen sollte es aber ab 1440p für jede GPU reichen, gut. Mit einer 3080Ti könnte es vlt. wieder eng aussehen. Egal, der Sockel bekommt ja noch Ryzen 4000 spendiert. Zwar finde ich es bescheuert jedes Jahr oder jedes zweite Jahr die CPU zu wechseln wie eine GPU, aber Ryzen User ticken da etwas anders. :freak:

MartinRiggs
2020-01-22, 14:56:12
Ist schon lustig, die Karte ist nicht Fisch, nicht Fleisch aber die bösen Redakteure sind schuld.
:biggrin:

SKYNET
2020-01-22, 14:58:20
Tatsächlich findet man sich mit einem ach-so tollen Ryzen 9 39xx öfter im CPU-Limit wieder, als einem lieb ist. Gut, nicht mit einer RX 5600 XT, aber grundsätzlich. Weil die Software nicht so weit ist wie die Hardware (Kerne). Kompetitive Benchmarks von Grafikkarten sollten aber ohne CPU-Limit gemacht werden. Vielleicht klappt's final mit Reisen Viertausend. =)

MfG
Raff


einfach mal die BCLK auf 103.5 stellen... dann limitiert auch nen 3950X nicht mehr, weil der brav bei knapp 4900MHz ackert :biggrin:
speicher auf 3733 sync mit gestrafften timings dürfte sein restliches tun als testsystem.

edit: bedarf aber mit sicherheit einer samsung 950pro NVMe, die macht auch bei 105MHz BCLK noch nicht dicht...

y33H@
2020-01-22, 15:02:57
Deine Tests waren schon besser ... hier hat mir einiges gefehlt an Vergleich PCIe3 vs PCIe4. Meine Erwartung dazu hatte ich ja schon vorab geschrieben ... geliefert hat es keiner.Puh, da ist alles drin außer PCIe Gen3 vs PCIe Gen4 ... vorab (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12194798&postcount=6279)war nur die Rede von den vBIOS-Versionen, da habe ich geliefert.

Die Relevanz von PCIe Gen4 halte ich bei der RX 5600 XT für gering, denn es gibt bisher nur eine (teure) Plattform dafür und sofern der Speicher nicht überläuft, ist PCIe quasi egal. Und eine Karte ständig am VRAM-Limit zu betreiben, ist Quatsch - in der Realität werden halt die Texturen eine Stufe runtergedreht.

dargo
2020-01-22, 15:08:09
Stimmt die Super hat den TU104 verbaut.
Hätte das nur mal einer der Test erwähnt...😋
Nö... die 2060S ist immer noch TU106.

MartinRiggs
2020-01-22, 15:27:33
einfach mal die BCLK auf 103.5 stellen... dann limitiert auch nen 3950X nicht mehr, weil der brav bei knapp 4900MHz ackert :biggrin:
speicher auf 3733 sync mit gestrafften timings dürfte sein restliches tun als testsystem.

edit: bedarf aber mit sicherheit einer samsung 950pro NVMe, die macht auch bei 105MHz BCLK noch nicht dicht...

Glaubst du den Schwachfug eigentlich wirklich den du redest?
Du redest immer von irgendwelchen Taktraten und deinen persönlichen Rekorden die bloss keiner nachstellen kann, weil sie in der Praxis nicht oder kaum möglich sind.

kmf
2020-01-22, 15:35:13
einfach mal die BCLK auf 103.5 stellen... dann limitiert auch nen 3950X nicht mehr, weil der brav ...nix mehr tut ;D

*kleiner Scherz am Rande - mein Rechner fährt ab 102 bereits nimmer hoch

dildo4u
2020-01-22, 15:43:06
Extrembeispiel Wolfenstein Youngblood: PCGH hat einen Vergleich von "Mein Leben!" (das das Bild-Streaming auf "Ultra" belässt) und "Wirklich maximale Details", also inklusive Bild-Streaming "Extrem":
https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/2/

Hier böte sich ein Nachtest mit PCI-E 4.0 an. Da könnte die RX 5600 XT massiv gegenüber der RX 5700 aufholen.

MfG
Raff
Laut DF nutzt Doom 2020 keine Megatextur bin mal gespannt wie sich das auf den Vram Verbrauch auswirkt.

https://youtu.be/ABlxGjNDZeU?t=318

Complicated
2020-01-22, 16:28:49
@Raff
Wo ist dann das Argument?

@y33
Klar, aber vor lauter BIOS die Basics ausser Acht zu lassen ist auch nicht grade toll.

@Dino-Fossil
Dann sollten wir auch PCIe 4.0 SSDs nur auf PCIe3-Board testen?
Selten so ein dämliches Argument gelesen für Hardwaretests. Da der 9900K nicht das am meisten verbreitete System ist sollte er wohl auch nicht genutzt werden...also mal schauen welche CPU am häufigsten verbaut ist? Und nur noch mit 2 Jahre alter Hardware testen, da dies schließlich ebenfalls am meisten verbreitet ist...

Praxisnah und relevant sind Ryzen Systeme deiner Meinung nach also nicht...

Dino-Fossil
2020-01-22, 16:59:21
Junge, entweder hast du kein Leseverständnis oder du drehst den Leuten hier absichtlich das Wort im Mund herum.

Complicated
2020-01-22, 17:03:04
Du argumentierst nicht sauber...Option drei.
Es interessiert Null was am weitesten verbreitet ist.

Dino-Fossil
2020-01-22, 17:08:56
Ich nehme an "sauber argumentieren" bedeutet vor allem, dir zuzustimmen, was?
Naja, ich habe gesagt, was ich dazu sagen wollte.

SKYNET
2020-01-22, 17:12:11
nix mehr tut ;D

*kleiner Scherz am Rande - mein Rechner fährt ab 102 bereits nimmer hoch


falsche SSD :tongue:

Screemer
2020-01-22, 17:13:31
pcie 4.0 hw nur mit 3.0 lanes zu testen ist halt bescheuert. die frage warum man pcie4-ssds nicht auch nur mit 3.0 testet, ist doch durchaus gerechtfertigt.

Dino-Fossil
2020-01-22, 17:18:55
pcie 4.0 hw nur mit 3.0 lanes zu testen ist halt bescheuert. die frage warum man pcie4-ssds nicht auch nur mit 3.0 testet, ist doch durchaus gerechtfertigt.

Dann lies einfach nochmal meine Beiträge, wie gesagt, ich habe alles dazu gesagt, was ich sagen wollte (kleiner Tipp - es ist nicht unbedingt das, was Complicated behauptet oder verstanden hat).

Complicated
2020-01-22, 17:19:16
Das ist eben nicht sauber argumentiert wenn das Argument bei GPUs nicht auch bei SSDs gilt. Liest mal Kant.

SKYNET
2020-01-22, 17:27:28
Glaubst du den Schwachfug eigentlich wirklich den du redest?
Du redest immer von irgendwelchen Taktraten und deinen persönlichen Rekorden die bloss keiner nachstellen kann, weil sie in der Praxis nicht oder kaum möglich sind.

realität :)

y33H@
2020-01-22, 17:29:12
Klar, aber vor lauter BIOS die Basics ausser Acht zu lassen ist auch nicht grade toll.Es gehört zu den Basics zu testen wie stark eine 6G-Karte von PCIe Gen4 profitiert, wenn man bewusst den Speicher überlastet? Das sehe ich anders, daher habe ich mich in der zur Verfügung stehenden Zeit auf die generelle Performance und die unterschiedlichen vBIOS konzentriert. Das mit PCIe Gen4 lässt sich ja später noch prüfen.

Screemer
2020-01-22, 17:29:22
Dann lies einfach nochmal meine Beiträge, wie gesagt, ich habe alles dazu gesagt, was ich sagen wollte (kleiner Tipp - es ist nicht unbedingt das, was Complicated behauptet oder verstanden hat).
wie du schon schreibst ist ein fokus ja io. aber zu argumentieren, dass der fokus ausreichen würde ist halt nonsens. btw. bezog ich allein auf die aussage zu pcie4-ssds und die frage ob ein alleiniger fokus dort auf pcie3 io ist. imho nicht und genau so ist er es nicht bei gpus mit pci4. @y33h@: hardware freiwillig und willentlich für nen test zu verkrüppeln bzw. ihre leistung nicht mal komplett abrufen zu wollen find ich schon hart.

y33H@
2020-01-22, 17:33:21
Ich habe mit PCIe Gen4 getestet ... aber eben nicht _ZUSÄTZLICH_ noch mit Gen3. Davon ab wird die Karte primär in Systemen mit Gen3 stecken.

Daredevil
2020-01-22, 17:43:43
Aber aber aber.... das ist doch AMDs Finewine Technology. :D

Screemer
2020-01-22, 17:45:27
Ich habe mit PCIe Gen4 getestet ... aber eben nicht _ZUSÄTZLICH_ noch mit Gen3. Davon ab wird die Karte primär in Systemen mit Gen3 stecken.
wollte dir auch nicht unterstellen, dass du das gemacht hättest. sorry wenns so ankam. das gibt's halt auch anders, deshalb die anmerkung.

basix
2020-01-22, 18:18:52
So, um mal wieder das Verbrauchsthema aufzugreifen (was das interessanteste an der Karte ist):
12 GT/s ist deutlich effizienter als 14 GT/s. Einige meinen, dass der Speichercontroller "säuft". Hat schonmal jemand dran gedacht, dass auch hier der on-chip Infinity Fabric mit Speichertakt läuft / laufen könnte? Oder zumindest einem ganzzahligen Teiler, dann käme bei 2x Teiler auf 1.5 sowie 1.75 GHz für den IF. Für mich macht reduzierter IF Takt viel mehr Sinn, den stark reduzierten Verbrauch zu erklären als durch effizienteren Speichercontroller und dessen PHYs.

SKYNET
2020-01-22, 18:47:54
Glaubst du den Schwachfug eigentlich wirklich den du redest?
Du redest immer von irgendwelchen Taktraten und deinen persönlichen Rekorden die bloss keiner nachstellen kann, weil sie in der Praxis nicht oder kaum möglich sind.

ist ne tatsache, wenn es das board mitmacht, die CPUs ohne probleme so laufen... ist nix weiter wie die 200MHz extra die AMD auch beworben hat. :P

Leonidas
2020-01-22, 19:42:13
Radeon RX 5600 XT Launchreviews: Die Testresultate zur FullHD-Performance im Überblick
- 20 Launchreviews & 1510 Einzelbenchmarks ausgewertet
- Vergleich von Radeon RX 5600 XT auf Referenztakt und zu beiden BIOSen der Sapphire Pulse (Silent & Performance)
- Vergleich mit GeForce GTX 1660 Super, GeForce GTX 1660 Ti, GeForce RTX 2060, GeForce RTX 2060 Super, Radeon RX Vega 64 & Radeon RX 5700
https://www.3dcenter.org/news/radeon-rx-5600-xt-launchreviews-die-testresultate-zur-fullhd-performance-im-ueberblick

Der_Korken
2020-01-23, 10:20:21
So, um mal wieder das Verbrauchsthema aufzugreifen (was das interessanteste an der Karte ist):
12 GT/s ist deutlich effizienter als 14 GT/s. Einige meinen, dass der Speichercontroller "säuft". Hat schonmal jemand dran gedacht, dass auch hier der on-chip Infinity Fabric mit Speichertakt läuft / laufen könnte? Oder zumindest einem ganzzahligen Teiler, dann käme bei 2x Teiler auf 1.5 sowie 1.75 GHz für den IF. Für mich macht reduzierter IF Takt viel mehr Sinn, den stark reduzierten Verbrauch zu erklären als durch effizienteren Speichercontroller und dessen PHYs.

Durchaus ein interessanter Gedanke. Die habe leider keine Navi mehr zum testen, sonst würde ich das selbst machen: Was passiert, wenn man den Speicher einfach auf 12Gbps untertaktet? Wird der Verbrauch dadurch spürbar geringer? Falls nein, steigt der GPU-Takt an bzw. was passiert, wenn man den z.B. auf 1,7Ghz begrenzt, damit die GPU den gesparten Strom nicht in mehr Takt reinvestieren kann?

blaidd
2020-01-23, 11:38:07
naja, bei der 2060 klang die überschrift nicht so clickbait mässig, sondern eher sachlich...

Da sich unser hauptberuflicher Grafikkarten-Tester im wohlverdienten Urlaub befindet, greifen wir stattdessen auf unseren Spiele-Tester und das aktuelle Spiele-Test-System zurück. ;)

Danke. :tongue:

dargo
2020-01-23, 12:09:29
Durchaus ein interessanter Gedanke. Die habe leider keine Navi mehr zum testen, sonst würde ich das selbst machen: Was passiert, wenn man den Speicher einfach auf 12Gbps untertaktet? Wird der Verbrauch dadurch spürbar geringer? Falls nein, steigt der GPU-Takt an bzw. was passiert, wenn man den z.B. auf 1,7Ghz begrenzt, damit die GPU den gesparten Strom nicht in mehr Takt reinvestieren kann?
Habe das gestern an meiner RX 5700XT ausprobiert. Über den AB geht nichts unter 1,75Ghz. Mit dem MPT gehts aber. Ergebnis mit 1,5Ghz Speicher... weniger Performance, keine Steigerung im GPU-Takt feststellbar und witzigerweise steigt der Sensor für den Hotspot vom Vram aus. Soll heißen es werden 0°C angezeigt.

So ein Test bringt aber nichts wenn die Spannung vom Speichercontroller bei 1,5Ghz gleich bleibt. Die könnte bei der RX 5600XT ja tiefer sein.

Der_Korken
2020-01-23, 12:16:20
Habe das gestern an meiner RX 5700XT ausprobiert. Über den AB geht nichts unter 1,75Ghz. Mit dem MPT gehts aber. Ergebnis mit 1,5Ghz Speicher... weniger Performance, keine Steigerung im GPU-Takt feststellbar und witzigerweise steigt der Sensor für den Hotspot vom Vram aus. Soll heißen es werden 0°C angezeigt.

So ein Test bringt aber nichts wenn die Spannung vom Speichercontroller bei 1,5Ghz gleich bleibt. Die könnte bei der RX 5600XT ja tiefer sein.

Ja das mit der Spannung hatte ich befürchtet. Hätte aber auch sein können, dass die automatisch gesetzt wird. Danke fürs Testen.

SKYNET
2020-01-23, 13:49:48
;)

Danke. :tongue:


:ulol: X-D

dargo
2020-01-23, 14:35:35
Ja das mit der Spannung hatte ich befürchtet. Hätte aber auch sein können, dass die automatisch gesetzt wird.
Nee... es gibt vier P-States beim Speicher. Je P-State gibt es eine definierte Spannung nehme ich an. Bei P-State 3 @1250Mhz wird die sicherlich kleiner sein als beim P-State 4 mit 1750Mhz. Ich weiß aber nicht ob es möglich ist die Karte max. in den P-State 3 zu zwingen. Denn dort könnte man die Sache weiter Richtung 1500Mhz spinnen.

Edit:
Hatte gehofft, dass bei einer starken Powerlimit-Senkung der Speichertakt eventuell max. in den P-State 3 geht. Auch nicht... selbst bei nur 75W PT geht der Speicher auf die volle Taktrate.

Edit 2:
Hatte jetzt versucht bei P4 1200Mhz und P3 1250Mhz beim Speicher zu setzen mit der Hoffnung der würde max. bis P3 gehen. Das ging dann komplett in die Hose, diese Aktion hat mir den Treiber völlig zerschossen. Der AB konnte nichts mehr überwachen. Eine Applikation ist direkt nach dem Start auf den Desktop gecrasht und die empfohlene Auflösung betrug hier plötzlich 768p. Bei der Frequenz war auch bei 64Hz Schluss. :freak: Als ob das noch nicht alles wäre konnte ich danach mit MPT nichts mehr ändern da sich das Bios-File nicht mehr aufrufen ließ. X-D Da half nur noch mit DDU durchwischen und den Treiber neu aufsetzen.

Dino-Fossil
2020-01-23, 14:51:13
Verstehe ich das richtig, dass bei Navi, anders als z.B. mit Polaris die Spannung am Speicher nicht per z.B. Wattman beeinflusst werden kann?

dargo
2020-01-23, 15:10:27
Beim Adrenalin 2020 geht das nicht. Afaik ging das aber noch beim Adrenalin 2019. Wattman im 2020-er ist eh komplett für die Mülltonne imho. Das war im 2019-er viel besser gelöst. Ich vermisse schon alleine die Spannungskurve im Wattman die es im 2019-er gab. Wenn ich jetzt Navi neu kaufen würde wüsste ich gar nicht wie ich P1 bei der GPU im AB setzen sollte beim UV. Völlig beknackt die Entscheidung von AMD was den Adrenalin 2020 angeht. Nicht nur beim Wattman.

Edit:
Wie ich gerade sehe ging im 2019-er auch nur der Takt im höchsten P-State.
https://www.overclockersclub.com/vimages/powercolor_red_devil_rx_5700/19.jpg

Sorry, habe das mit Vega verwechselt.

SKYNET
2020-01-23, 15:13:10
Verstehe ich das richtig, dass bei Navi, anders als z.B. mit Polaris die Spannung am Speicher nicht per z.B. Wattman beeinflusst werden kann?

kannst bei polaris auch nicht, da kannst nur die V-SoC einstellen...

Screemer
2020-01-23, 15:35:23
man konnte auch bei polaris die speicher spannung nicht beeinflussen, sondern nur die spannung des speichercontrollers.

edit: f5!

Dino-Fossil
2020-01-23, 15:54:27
Ok, danke für die Infos.

P.S.: Spannung "am Speicher" war von mir falsch ausgedrückt.

Freestaler
2020-01-23, 18:36:17
Ist doch such bei Vega so. Evtl findet man die Keys in der Registry?

chaospanda
2020-01-23, 19:14:47
https://www.techpowerup.com/263228/msi-says-not-all-radeon-rx-5600-xt-gpus-can-hit-14-gbps-memory-speed

war definitiv ein wirklich cleverer und von langer Hand geplanter Schachzug von AMD*

*kann Spuren von Ironie und Sarkasmus enthalten

Screemer
2020-01-23, 19:57:29
würde mich nicht wundern, wenn vorgabe von amd 14gbps chips gewesen wären und die boardpartner, um ein paar cent zu sparen und schlau wie sie sind, 12gbps chips verbaut hätten.

chaospanda
2020-01-23, 21:10:29
wenn von AMD eine Vorgabe kommt, bezweifle ich ehrlich gesagt, dass die dann einfach "nö" sagen und was anderes verbauen.

Ich gehe eher davon aus, das AMD darauf spekuliert hat, dass die alle stumpf ne 5700 kastrieren und sich alles weitere an Aufwand sparen.

blaidd
2020-01-23, 23:31:07
:ulol: X-D

Den Artikel zur RTX 2070 hier (https://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/Tests/Review-Benchmarks-Turing-TU106-GPU-1266398/) hab ich allerdings auch geschrieben (unterstützt vom El Mantel, der die Daten der Grafikkarte ausführlich ausgearbeitet hat), die (*****) Headline geht allerdings auf Cheffe's Konto. :rolleyes:

Da haben wir als Redakteure nicht immer wirklich Einfluss drauf. Die (Online!-)Headline ist wahrscheinlich das letzte, wofür man uns verdientermaßen zur Rechenschaft ziehen sollte. ;)

SKYNET
2020-01-24, 00:33:24
Den Artikel zur RTX 2070 hier (https://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/Tests/Review-Benchmarks-Turing-TU106-GPU-1266398/) hab ich allerdings auch geschrieben (unterstützt vom El Mantel, der die Daten der Grafikkarte ausführlich ausgearbeitet hat), die (*****) Headline geht allerdings auf Cheffe's Konto. :rolleyes:

Da haben wir als Redakteure nicht immer wirklich Einfluss drauf. Die (Online!-)Headline ist wahrscheinlich das letzte, wofür man uns verdientermaßen zur Rechenschaft ziehen sollte. ;)


cheffe soll mal das frühshoppen lassen :ulol:

blaidd
2020-01-24, 02:56:26
cheffe soll mal das frühshoppen lassen :ulol:

...

hlynska
2020-01-24, 14:09:12
Man muss die RX 5600 XT eigentlich gar nicht flashen... :D

https://www.igorslab.de/radeon-rx-5600-xt-mit-neuem-bios-ohne-flash-anleitung-amd-limits-und-benchmark-morepowertool-tutorial/

AMDs nettes Last-Minute-Geschenk-BIOS ist nichts anderes als der ehemalige OC-Headroom, der nun leider fehlt. Die Treiber-Limits sind offensichtlich die gleichen wie vor dem Upgrade.

BigKid
2020-01-24, 21:48:43
Kann man eigentlich schon grob abschätzen wie sich sich 5600 LAPTOP im vergleich zur 1660ti (max-q) schlagen wird? Vor allem auch was perf/watt betrifft?

dildo4u
2020-01-25, 07:04:44
W3Wz6p-kzng

Raff
2020-01-25, 10:24:58
AMDs nettes Last-Minute-Geschenk-BIOS ist nichts anderes als der ehemalige OC-Headroom, der nun leider fehlt. Die Treiber-Limits sind offensichtlich die gleichen wie vor dem Upgrade.

Zumal, und das kann man gar nicht oft genug sagen, die Referenz-Spec nicht geändert wurde. Die Partner pushen gerade ihre Dickschiffe, aber sogenannte MSRP-Modelle laufen dann eben doch so, wie es ursprünglich angekündigt wurde. Bleibt zu hoffen, dass besagte MSRP (UVP) in Kürze auf passende 249 Euro gesenkt wird und die dicken Geräte bei höchstens 300 landen.

MfG
Raff

nairune
2020-01-25, 10:28:41
Was verkauft denn Sapphire unterhalb der überall getesteten Pulse? Das lässt sich so schon mal nicht verallgemeinern.

dildo4u
2020-01-25, 11:17:41
Die Sapphire hat wohl immer 14Gbps Speicher verbaut,das hat aber nicht jeder gemacht AS Rock,XFX und MSI haben 12Gbps Karten,die müssen weit runter im Preis damit sie gegen 1660 Super Sinn machen.


https://www.xfxforce.com/gpus/xfx-amd-radeon-tm-rx-5600-xt-6gb-gddr6-thicc-ii-pro

https://www.asrock.com/Graphics-Card/AMD/Radeon%20RX%205600%20XT%20Challenger%20D%206G%20OC/

https://www.msi.com/Graphics-card/RADEON-RX-5600-XT-MECH-OC

Raff
2020-01-25, 11:24:09
Es gibt AFAIK nicht einen Boardpartner, der von AMD 12-Gbps-Chips erhält, das sind alles 14er-Bausteine. Igor hat das Gleiche gehört. Nach allem, was man so liest, liegt das am Mengenrabatt - es wäre nicht günstiger, bei den RAM-Herstellern eine kleinere Serie 12-Gbps-RAM zu ordern. Die offene Frage lautet, warum es Platinendesigns gibt, die den RAM-Spec-Takt nicht schaffen. Oder was der "heruntergebinnte" Navi 10 XLE damit zu tun hat.

MfG
Raff

dargo
2020-01-25, 11:29:36
Mal ne blöde Frage... wer ordert aktuell überhaupt 12Gbps Speicher? Also allgemein jetzt die Frage, nicht nur auf dGPUs beschränkt.

dildo4u
2020-01-25, 11:40:07
Laut dem erwartet MSI Probleme mit langzeit Nutzung@ 14 GBPS mit der Gameing X Karte,kein Plan an was das liegt vielleicht miese V-Ram Kühlung.

https://www.guru3d.com/news-story/both-msi-and-asus-will-have-one-radeon-rx-5600-xt-sku-at-gddr6-with-14-gbps-we-explain.html

SKYNET
2020-01-25, 12:08:25
Es gibt AFAIK nicht einen Boardpartner, der von AMD 12-Gbps-Chips erhält, das sind alles 14er-Bausteine. Igor hat das Gleiche gehört. Nach allem, was man so liest, liegt das am Mengenrabatt - es wäre nicht günstiger, bei den RAM-Herstellern eine kleinere Serie 12-Gbps-RAM zu ordern. Die offene Frage lautet, warum es Platinendesigns gibt, die den RAM-Spec-Takt nicht schaffen. Oder was der "heruntergebinnte" Navi 10 XLE damit zu tun hat.

MfG
Raff


sicherlich haben die karten die kein update bekommen, weniger layer = signalqualität kacke = kackt ab bei so hohem takt. :smile:

mczak
2020-01-26, 16:58:56
sicherlich haben die karten die kein update bekommen, weniger layer = signalqualität kacke = kackt ab bei so hohem takt. :smile:
Gibt doch gar keinen Hersteller der nicht dasselbe PCB wie bei der 5700 verwendet, oder irre ich mich da?
Allenfalls kann allerdings z.B. bei der VRM-Bestückung gespart werden.

Denniss
2020-01-26, 18:56:38
Soweit bekannt sind das alles schon bei der 5700 genutzte PCBs, eingespart wurde oft Phase bei den VRMs.
Andere haben noch woanders gespart, bei der Kühlung (Heatpipes, evtl RAM) oder haben 12Gbps RAM verbaut obwohl der da gar nichts drauf zu suchen hatte. Den von AMD gelieferten 14Gbps haben die wohl auf andere Karten umgeleitet.
Die Pfennigfuchser-Hersteller können den Bios-Stunt von AMD nicht mitgehen und müssen eine neue Revision rausbringen.

Screemer
2020-01-26, 22:39:08
[...]oder haben 12Gbps RAM verbaut obwohl der da gar nichts drauf zu suchen hatte. Den von AMD gelieferten 14Gbps haben die wohl auf andere Karten umgeleitet.
Die Pfennigfuchser-Hersteller können den Bios-Stunt von AMD nicht mitgehen und müssen eine neue Revision rausbringen.
die vermutung hatte ich ja auch geäußert. hast du da nen beleg für?

Stretcher
2020-01-27, 02:14:48
Keine PCIe 4.0 Plattform zu verwenden wenn eine GPU PCIe 4.0 als Anbindung nutzt, ist unteres Amateur Niveau. Wenn es kaum Unterschied macht dann gibt es noch weniger Gründe es nicht zu benutzen.


Super Beitrag, da merkt man gleich, dass ein Experte und kein Amateur in die Tasten haut. Chapeau!

Denniss
2020-01-27, 02:33:19
Laut den Quellen von Igor und anderen liefert AMD die GPU nur zusammen mit 14Gbps Speicher aus.
Wenn der plötzlich nicht die 14Gbps schafft dann ist das nicht mehr der mitgelieferte Speicher.
AFAIR läuft die Spannungsversorgung des Speichers eh nur über eine Phase und da dürfte man kaum was einsparen können was da bei leicht erhöhtem Stromverbrauch querschießt.
Da kann man nur hoffen das Redaktionen mal eine solche Karte zerlegen und nachsehen wo das was verbockt wurde.

hlynska
2020-01-27, 07:06:45
Laut den Quellen von Igor und anderen liefert AMD die GPU nur zusammen mit 14Gbps Speicher aus.
Wenn der plötzlich nicht die 14Gbps schafft dann ist das nicht mehr der mitgelieferte Speicher.Sicher nur eine Urban Legend...

Hier steht auch was zum Speicher. Bei Igor sind alle Modelle mit 14er Modulen von Micron bestückt, auch alle instabilen:
https://www.igorslab.de/grenzwertig-radeon-rx-5600-xt-vs-geforce-rtx-2060-mit-maximalem-oc-wer-gewinnt-am-meisten-dazu/

Ich denke mal, die GPU-Chips sind einfach nur Dritte Wahl :(

dildo4u
2020-01-27, 07:15:27
Mindfactory hat jetzt Platz für die 5600 gemacht,die 5700 sind teuer geworden.


Sapphire Pulse 330 zu 355€,Pulse 5600 298€.

https://geizhals.de/sapphire-pulse-radeon-rx-5700-8g-11294-01-20g-a2113389.html

https://geizhals.de/sapphire-pulse-radeon-rx-5600-xt-11296-01-20g-a2211877.html


Navi ist so viel besser als Polaris für AMD jetzt können sie 6GB Karten für 300€ verkaufen,RX480 mit 8GB waren schon 2016 deutlich billiger.

127.0.0.1
2020-01-27, 11:03:42
Ich denke mal, die GPU-Chips sind einfach nur Dritte Wahl :(

Davon gehe ich auch aus. Was für ein Chaos.

https://www.youtube.com/watch?v=sDyP9nDw_q0

Benutzername
2020-01-27, 13:13:50
Sie sollten die geflashten Karten einfach als Radeon 5600XT Rage Fury Maxx verkaufen. :biggrin:

dildo4u
2020-01-28, 09:28:12
Computerbase hat seine TDP Messungen korrigiert sie haben jetzt 147 Watt für das Silent Bios.Damit passt das alles wieder zu normalen Performance per Watt von Navi.

https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#diagramm-performance-pro-watt-1920-1080

Bei den Arbeiten am geplanten Custom-Design-Vergleichstests zur Radeon RX 5600 XT ist der Redaktion aufgefallen, dass alle dort vertretenen Partnerkarten mit Silent-BIOS mehr elektrische Leistung aufnehmen als die Sapphire Radeon RX 5600 XT Pulse im initialen Test und hat bei diesem Modell noch einmal nachgemessen. Es zeigt sich: Auch wenn Sapphire auf eine geringe Leistungsaufnahme geachtet hat, so niedrig wie in diesem Artikel zuvor verkündet, ist der Energiehunger nicht.

Die neuen Messungen bestätigen den Stromverbrauch mit dem neuen schnellen BIOS der Sapphire Radeon RX 5600 XT Pulse, den des langsameren BIOS aber nicht. Die korrekte Leistungsaufnahme beim Spielen beträgt rund 15 Watt mehr als zuvor geschrieben.

ComputerBase hat die korrigierten Messwerte im Artikel eingetragen, entsprechende Textstellen angepasst und bittet den Fehler zu entschuldigen. Die Ursache für die falsche Angabe konnte im Nachhinein nicht mehr festgestellt werden.

Der_Korken
2020-01-28, 09:39:19
Damit ist die Theorie um den saufenden Speichercontroller hin. Schade :D.

Linmoum
2020-01-28, 09:42:16
Wobei die Frage ist, inwiefern sich das Silent-BIOS der Pulse vom "alten" BIOS bei der Red Dragon unterscheidet. Bei der hat Igor nämlich auch nur <=130W gemessen.

Popeljoe
2020-01-28, 10:01:44
Cool finde ich, dass der Preis der 5600XT nicht etwa sinkt, sondern der für die 5700 ansteigt. Momentan überdenke ich grade mein AMD Fanboy Dasein. Diese Politik ist einfach nur daneben. Dazu das Release Chaos und die, immer noch zu vollen Regale mit der alten Gen und daraus resultierend, der anhaltend hohe Preis für die neue.
Ich muss nicht aufrüsten, also warte ich ab, was sich auf dem Markt tun wird.
Evtl. gibt es dann ja auch eine klimafreundliche Graka mit 50W und der leistung einer 2080 Ti... ;D

Dino-Fossil
2020-01-28, 10:45:50
Cool finde ich, dass der Preis der 5600XT nicht etwa sinkt, sondern der für die 5700 ansteigt. Momentan überdenke ich grade mein AMD Fanboy Dasein.

Fanboy-Dasein sollte man generell überdenken, bringt meist nix.
Aber soweit ich weiß, hat AMD keine neue UVP bei der 5700 kommuniziert, d.h. alle eventuellen Preisanpassungen kommen letztlich eher vom Einzelhandel oder den Kartenherstellern (oder gab's da was, das an mir vorbei gegangen ist?).
Wenn die Preise der 5600XT im Laufe der nächsten Zeit runtergehen, wird auch die 5700 wieder nachgeben.

dildo4u
2020-01-28, 10:53:45
Die EU Preise waren einfach zu billig 5700 MSRP ist 350$ ohne Steuern.
Ich vermute das kam von der riesen Lücke zwischen 5500 und 5700,die gibt es jetzt nicht mehr.
Und durch das aufpumpen des Bios kann AMD nicht wirklich billiger gehen,da die 5600 jetzt zu nah an der 5700 ist.

w0mbat
2020-01-28, 10:54:11
Wahrscheinlich haben viele auf die 5600 XT gewartet und, nach dem der Preis so nahe an den günstigen 5700er liegt, einfach zu denen gegriffen. Höhere Nachfrage = steigende Preise. Jetzt ist der preisliche Abstand wieder da und es gibt mehr Anreiz zur 5600 XT zu greifen.

anddill
2020-01-28, 11:26:18
Cool finde ich, dass der Preis der 5600XT nicht etwa sinkt, sondern der für die 5700 ansteigt. Momentan überdenke ich grade mein AMD Fanboy Dasein. Diese Politik ist einfach nur daneben. Dazu das Release Chaos und die, immer noch zu vollen Regale mit der alten Gen und daraus resultierend, der anhaltend hohe Preis für die neue.
Ich muss nicht aufrüsten, also warte ich ab, was sich auf dem Markt tun wird.
Evtl. gibt es dann ja auch eine klimafreundliche Graka mit 50W und der leistung einer 2080 Ti... ;D

Nachdem ich letztens eine nVidia Karte verbaut habe weiß ich wieder warum ich AMD Fanboy bin. Die Chips müssen so teuer sein, daß bei 250€ kein Geld mehr für einen Kühler bleibt. Da ist dann der billigste Alu-Klumpen drauf und die Lüfter fauchen wie eine wütende Katze. Dazu dann der Blödsinn daß da immer ein Tool mitlaufen muß um die angegebenen Takte zu setzen, da nVidia kein Werks-OC per BIOS zulässt.

Es gibt halt immer irgendwas zum Meckern, muss jeder selbst entscheiden was ihn aktuell mehr stört.

aufkrawall
2020-01-28, 11:52:51
Für 10€ mehr hättest du bei MSI leise Lüfter bekommen. Leider nicht mehr so leise wie bei der 1060 Gaming, aber um Welten besser als meine jetzige 570 Red Dragon.

Badesalz
2020-01-28, 12:51:24
Dazu dann der Blödsinn daß da immer ein Tool mitlaufen muß um die angegebenen Takte zu setzen, da nVidia kein Werks-OC per BIOS zulässt.Naja. Permanent per Treiber wäre auch schon ok ;)

Bucklew
2020-01-28, 13:07:59
Die Chips müssen so teuer sein, daß bei 250€ kein Geld mehr für einen Kühler bleibt. Da ist dann der billigste Alu-Klumpen drauf und die Lüfter fauchen wie eine wütende Katze.
Genau, sind ja bekanntlich - gerade in letzter Zeit - immer die NVIDIA-Karten, die total schlechte Kühler haben und laut sind

:facepalm:

dildo4u
2020-01-28, 13:10:17
Er hat schon recht die meisten Hersteller nutzen keine RTX Kühler für die GTX Karten,die 5600 bekommt aber fast immer die 5700 Kühlung ist also total überbaut fürs TDP.

aufkrawall
2020-01-28, 13:28:27
Die ganze Karte hat nur 125W TDP und der Chip ist größer als Polaris 10. Sofern der Hersteller da keinen völligen Mist baut, sollte sich das problemlos kühlen lassen.

Bucklew
2020-01-28, 15:04:51
Er hat schon recht die meisten Hersteller nutzen keine RTX Kühler für die GTX Karten
https://www.computerbase.de/2019-10/nvidia-geforce-gtx-1660-super-test/3/#abschnitt_lautstaerke__kuehlung

Benutzername
2020-01-28, 17:32:13
Cool finde ich, dass der Preis der 5600XT nicht etwa sinkt, sondern der für die 5700 ansteigt. Momentan überdenke ich grade mein AMD Fanboy Dasein. Diese Politik ist einfach nur daneben. Dazu das Release Chaos und die, immer noch zu vollen Regale mit der alten Gen und daraus resultierend, der anhaltend hohe Preis für die neue.
Ich muss nicht aufrüsten, also warte ich ab, was sich auf dem Markt tun wird.
Evtl. gibt es dann ja auch eine klimafreundliche Graka mit 50W und der leistung einer 2080 Ti... ;D

Die endpreise werden ja nicht von AMd gemacht sondern von den HErstellern und den Händlern. DIe denken sich vermutlich ,wenn AMd die 5600 zu dem Preis in den Markt tut, können sie halt mehr für die größeren nehmen.


Und zum chinesischen Neujahr, wenn sowieso mehrere Wochen Ruhe ist in den Fabriken, weil viele ihren Jahresurlaub nehmen und nach Hause in Westchina fahren ist sowieso ein seltsamer Zeitpunkt. Wer macht bitte diese strategischen Entscheidungen bei AMD's GRaka Abteilung? Dann auch noch der Hickahck mit dem VBIOS.

dildo4u
2020-01-29, 05:07:53
https://www.computerbase.de/2019-10/nvidia-geforce-gtx-1660-super-test/3/#abschnitt_lautstaerke__kuehlung
Zumindest die Pulse ist deutlich leiser als die 1660 Karten.

https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/3/#abschnitt_lautstaerke__kuehlung

Bucklew
2020-01-29, 08:23:47
Zumindest die Pulse ist deutlich leiser als die 1660 Karten.
Und die GTX1650 ist keine GTX, wie von dir behauptet? ;D

Screemer
2020-01-29, 08:45:19
Er schrieb "die meisten Hersteller" und nicht "kein Hersteller". Komm Mal wieder runter.

dildo4u
2020-01-29, 10:33:43
Und die GTX1650 ist keine GTX, wie von dir behauptet? ;D
No Shit eine Karte die 50 Watt weniger braucht ist leiser,es geht natürlich um die Konkurrenten in der selben Klasse.

Raff
2020-01-29, 14:20:08
PCGH hat die aktuellen Firmwares zusammengetragen und auch die Leistung getestet: https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/

Powerlimits, Taktraten und Fps in der Tabelle.

MfG
Raff

Screemer
2020-01-29, 14:26:28
PCGH hat die aktuellen Firmwares zusammengetragen und auch die Leistung getestet: https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Specials/BIOS-Updates-Uebersicht-1341580/

Powerlimits, Taktraten und Fps in der Tabelle.

MfG
Raff
da könnt ihr gleich noch die unzähligen xfx varianten aufnehmen: https://www.xfxforce.com/gpu/5600xt-vbios

Popeljoe
2020-01-29, 20:35:20
... Wer macht bitte diese strategischen Entscheidungen bei AMD's GRaka Abteilung? Dann auch noch der Hickahck mit dem VBIOS.
Genau das habe ich mir auch schon gedacht! AMD schießt sich momentan dermassen ins Knie, dass man es echt nicht fassen kann.
Aber wahrscheinlich haben sie geleakte Infos aus dem grünen Lager bekommen, dass NV im Mai bereits zurückschlägt und AMD gaaaanz dringend ihre Karten jetzt irgendwie auf den markt bekommen müssen... :freak:
@Anddill: das mit den Kühlern ist schon richtig, aber bei einem TDP von 100W muss NV auch nicht sonstwas an Kühlern verbauen.;) Die Treiber bei NV sind wirklich eingeschränkt.

Grendizer
2020-01-29, 20:42:49
AMD ist von der Preissenkung der 2060 kalt erwischt worden. Entweder hätten sie mit dem Preis deutlich runtergehen müssen und damit die Marge opfern (die vielleicht schon nicht so toll ist ?) oder eben die Leistung konkurrenzfähig machen.

Bucklew
2020-01-30, 10:59:57
AMD ist von der Preissenkung der 2060 kalt erwischt worden.
Genauso wie vom SUPER Launch.

Aber lieber hat man die Märchen von AMD geglaubt, die Preissenkung der 5700 wäre geplant gewesen, um NVIDIA auszubremsen ;D

aufkrawall
2020-01-30, 11:11:59
Die Treiber bei NV sind wirklich eingeschränkt.
Nö, Afterburner nutzt für OC, Lüfter und Sensoren dafür von Nvidia angebotene APIs des Treibers. Der Treiber macht hier also die Hauptarbeit, Afterburner ist im Wesentlichen nur das grafische Frontend. Im Gegensatz zu AMD seit Vega, ist die Lüftersteuerung bei NV auch nicht völliger Bullshit.
Und fast alles andere im Radeon-UI ist doch nur Gedöns. Seit dem 19.12.3-Treiber geht es auch ständig kaputt und man muss Prozesse killen, damit es wieder richtig startet...

Igzorn
2020-01-30, 16:14:28
Nö, Afterburner nutzt für OC, Lüfter und Sensoren dafür von Nvidia angebotene APIs des Treibers.

Also der Vergleich der internen Lösung mit einer externen vom Drittanbieter zu vergleichen halte ich nicht für fair.
Bei AMD gibt es auch externe Tools.

Wenn sollte man schon Hersteller Funktionen mit dem des anderen vergleichen und nicht externe Sachen hinzu ziehen.

Dino-Fossil
2020-01-30, 16:15:16
Seit dem 19.12.3-Treiber geht es auch ständig kaputt und man muss Prozesse killen, damit es wieder richtig startet...

Bisher ist bei mir nix kaputt gegangen und Prozesse musste ich auch nicht killen (wobei ich noch auf Polaris bin).

aufkrawall
2020-01-30, 18:28:26
Also der Vergleich der internen Lösung mit einer externen vom Drittanbieter zu vergleichen halte ich nicht für fair.
Bei AMD gibt es auch externe Tools.

Wenn sollte man schon Hersteller Funktionen mit dem des anderen vergleichen und nicht externe Sachen hinzu ziehen.
Nur ist die Steuerung im Wattman durch fehlende Interpolation absoluter Schrott und externe Tools sind mit Navi ebenfalls quasi unbrauchbar, weil der Treiber auch diese behindert (bis auf MPT, das halbwegs geht).

Bisher ist bei mir nix kaputt gegangen und Prozesse musste ich auch nicht killen (wobei ich noch auf Polaris bin).
Sporadisch öffnet sich das Control Panel nicht richtig, hab ich schon auf verschiedenen Systemen gesehen.

Popeljoe
2020-01-30, 21:20:58
Nur ist die Steuerung im Wattman durch fehlende Interpolation absoluter Schrott und externe Tools sind mit Navi ebenfalls quasi unbrauchbar, weil der Treiber auch diese behindert (bis auf MPT, das halbwegs geht).
Die Frage ist doch, ob man jedem User den vollen Zugriff auf die Steuerung geben sollte. Für mich reicht der Wattman vollkommen aus.

aufkrawall
2020-01-30, 21:23:03
Der Wattman erlaubt genau so wesentlich höhere Temperaturen und Spannungen..?

w0mbat
2020-01-31, 10:01:10
AMD ist von der Preissenkung der 2060 kalt erwischt worden. Entweder hätten sie mit dem Preis deutlich runtergehen müssen und damit die Marge opfern (die vielleicht schon nicht so toll ist ?) oder eben die Leistung konkurrenzfähig machen.
Die RX 5600 XT ist gleich schnell, hat eine höhere Effizienz und einen niedrigeren MSRP. Wenn, muss Nvidia hier konkurrenzfähiger werden.

Nvidia wurde so kalt erwischt, dass sie gleich ihre Preise senken mussten.

hq-hq
2020-02-01, 01:55:24
Die RX 5600 XT ist gleich schnell, hat eine höhere Effizienz und einen niedrigeren MSRP. Wenn, muss Nvidia hier konkurrenzfähiger werden.

Nvidia wurde so kalt erwischt, dass sie gleich ihre Preise senken mussten.

hm, ne RTX 2060 gibts seit Ende November 2019 für <300€

niemand wurde kalt erwischt, IMHO pari

dildo4u
2020-02-01, 11:24:52
WmsIJOKVKhA

Hakim
2020-02-01, 13:47:36
Gibt es irgendwo Tests wo man bei 2060 und 5600 versucht den Vram auszureizen? Es hieß doch das NV bei knappen Speicher besser mit umgehen kann, aber in keinem Test was gesehen

dildo4u
2020-02-01, 14:59:20
PCGH testet Wolfenstein mit maximierten Streaming dort ist 1660 Super= 5600XT und die 2060 ist ein Tick besser.
Wobei die Default Einstellungen mit 6GB sauber läuft so lange man kein Raytracing auf der 2060 nutzt.

Mit maximierten Streaming

https://i.ibb.co/hgtHCJk/Wolf.png (https://ibb.co/hgtHCJk)

https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/Benchmark-Kaufen-Preis-Release-Review-1341275/2/

Wolfenstein ohne Max Streaming.

https://www.igorslab.de/amd-radeon-rx-5600-xt-im-test-mit-dem-last-minute-bios-boost-zum-rtx-2060-killer/4/

nairune
2020-02-01, 16:30:00
Wobei die 2060 genauso abstürzt, also der Unterschied ist wahrlich nicht so gewaltig wie an der ein oder anderen Stelle behauptet wird. Wenn es auf der 5600 wegen VRAM nicht mehr spielbar ist, geht es 2060 und 1660 genauso.

Mit PCIe 4.0 könnte sich das auch umdrehen, bei CB im Forum war zu lesen, dass es da noch einen Artikel zu geben soll.

aufkrawall
2020-02-01, 17:06:46
Wobei die 2060 genauso abstürzt, also der Unterschied ist wahrlich nicht so gewaltig wie an der ein oder anderen Stelle behauptet wird.
Ist ja auch expl. API, wo es zu einem großen Teil die Anwendung selbst managen muss. Von daher ist es sowieso ziemlich schwachsinnig, sich an idTech festzubeißen (btw. ist das einfach eine Art Macke von Raff, dickköpfig an dieser Streaming-Einstellung festzuhalten, die einen feuchten Furz bringt).

Raff
2020-02-01, 17:19:59
Ist es wirklich so schwer zu verstehen, dass man Mängel nicht mit 08/15-Software aufzeigt?
Dass es hier nicht um id Tech 6.x geht, sondern darum, die Zukunft zu zeigen? Warme Worte basierend auf Erfahrungen interessieren wieder keinen, es braucht Fakten.
Der Leser profitiert von dieser Aussage, weil deutlich wird, wo die vom Hersteller eingebaute Sollbruchstelle liegt.
Der Charakter eines Menschen zeigt sich auch erst in Extremszenarien. ;)

Hier sind Benchmarks mit "Mein Leben!" und "Max" inklusive einem Vergleich 6 vs. 8 GiByte:
https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/6-gegen-8-GByte-Speicher-Benchmarks-1341307/2/

Wer das Texturploppen beim Umsehen mit "Ultra" nicht sieht, hat Glück. Dennoch ist es da. Wer anhand dessen ein besseres Produkt kleinreden will, kann das tun. Dennoch ist es besser. Es ist die Aufgabe der Tester, potenzielle Kunden über Probleme aufmerksam zu machen, anstatt den Jubelperser zu spielen. :) Das ist eine der Kernaussagen:

Wussten Sie, dass maximale Textur- und Schattendetails keine oder nur minimal Leistung kosten, sofern der Grafikspeicher ausreicht? Das ist ein großer Unterschied zu anderen Effekten. Die Oberflächenqualität hat einen großen Einfluss darauf, ob wir ein Spiel hübsch finden oder nicht. Was liegt da näher, als hier das Optimum anzustreben? Mit diesem Wissen ergibt die Idee, am Grafikspeicher zu sparen, überhaupt keinen Sinn.


MfG
Raff

aufkrawall
2020-02-01, 17:28:31
Dumm nur, dass es auch mit der höchsten Streaming-Stufe noch sichtbar nachlädt.

Denniss
2020-02-01, 18:53:59
hab gestern mal mit geizhals gesucht und da waren nur zwei 2060 unter 300€, von der 5600XT deren fünf (inklusive der Pulse). Die nächsten Modelle beider Lager waren dann ~15€ höher angesiedelt.

hq-hq
2020-02-01, 22:45:10
Dumm nur, dass es auch mit der höchsten Streaming-Stufe noch sichtbar nachlädt.


IMHO ist deine Kritik hier nicht angebracht, im Artikel steht "Spiele, die sich im Grenzbereich bewegen und einen Ausblick auf die Zukunft gewähren."

Ob es beim Zocken jetzt sinnig oder unsinnig ist alles auf max zu drehen bleibt irrelevant, da das Game hier als Benchmark-Werkzeug missbraucht wird.

Eine 5600XT mit 8Gig RAM und 20$ Aufpreis wär schön gewesen und hätte meine RX580 ablösen können :freak: (wenn es Richtung 220€ geht)
-> jetzt muss halt die RX 5700 günstig genug werden

aufkrawall
2020-02-01, 22:57:26
Jeder hier weiß, dass 6GB Crap sind. Trotzdem ist das Beispiel bescheuert. Bei RotTR von 2016 mit DX12 sieht man wenigstens einen Unterschied bei der Textur-Einstellung, und das lief btw. hier in 1440p schon mit 8GB GeForce nicht mehr uneingeschränkt, im Gegensatz zu Radeons...

Spiel starten, Savegame laden, benchen und wieder beenden ist btw. auch keine valide Testmethodik, um Performance-Probleme durch VRAM-Mangel zu triggern.

hq-hq
2020-02-01, 23:10:02
Jeder hier weiß, dass 6GB Crap sind. Trotzdem ist das Beispiel bescheuert. Bei RotTR von 2016 mit DX12 sieht man wenigstens einen Unterschied bei der Textur-Einstellung, und das lief btw. hier in 1440p schon mit 8GB GeForce nicht mehr uneingeschränkt, im Gegensatz zu Radeons...

Spiel starten, Savegame laden, benchen und wieder beenden ist btw. auch keine valide Testmethodik, um Performance-Probleme durch VRAM-Mangel zu triggern.


Man wird sich da schon ein paar beispielhafte Spiele rausgezogen haben.
RotTR hab ich nicht, nur den ungespielten Vorgänger von 2015 :frown:.
Wurde es bei PCGH nie gebencht?

Wenn der Missbrauch stets zu ähnlichen Ergebnissen führt ist das doch i.O..

aufkrawall
2020-02-01, 23:26:38
Mit 1070 ging damals nicht mal mehr GPU-Capture wegen VRAM-Mangel:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11905159&postcount=5967

Ich habe jetzt keine Lust, weiter auf das Wolfenstein-Beispiel einzugehen. Ich kann nur dazu raten, den Quatsch zu ignorieren.

Raff
2020-02-02, 00:15:16
Komisch, RotTR wurde und wird damals auch der Sinn abgesprochen. Nicht bei PCGH, btw. ;)

MfG
Raff

aufkrawall
2020-02-02, 00:39:56
Was heißt "Sinn"? Die VRAM-Kosten der höchsten Texturstufe sind zweifelsohne völlig unverhältnismäßig. Der Unterschied zu Wolf2 ist, dass der Benefit über den Placebo-Effekt hinaus geht.

JVC
2020-02-02, 10:42:52
Die VRAM-Kosten der höchsten Texturstufe sind zweifelsohne völlig unverhältnismäßig.

Da finde ich RT(X) wesentlich schlimmer :wink:

Vielleicht ist dein Monitor nur zu klein um den Unterschied gut zu sehen?
Bei 65" 4K sieht man sehr schnell unterschiede (wenn man nahe genug dran sitzt).

"Wussten Sie, dass maximale Textur- und Schattendetails keine oder nur minimal Leistung kosten, sofern der Grafikspeicher ausreicht?"
Ist einfach ein Fakt den scheinbar viele vergessen, nicht wissen wollen :confused:

M.f.G. JVC

dildo4u
2020-02-04, 12:51:46
PCI-E 3 vs 4 mit 5500,5600 und 5700.


https://www.computerbase.de/2020-02/amd-radeon-pcie-3.0-4.0-test/

JVC
2020-02-04, 14:13:39
"Nicht nur für die Frametimes, auch für die Framerate kann PCIe 4.0 ein Vorteil bei Speichermangel bringen."
"Das zeigt, dass PCIe 4.0 bei Speichermangel zwar hilfreich ist, einen größeren Speicher aber nicht ersetzen kann."
"...bringt die doppelte Transferrate über den PCIe-Bus nur bei Speichermangel einen Vorteil."

Schöner Test, wo man gut sieht, das weniger als 8Gb einfach schon schnell an ihre Grenzen stoßen.
Vermutlich noch dieses Jahr, wird man gleiches bei nur 8Gb feststellen können...

Vermutlich wird man schon nächstes Jahr 12Gb für WQHD und 16Gb für UHD gut gebrauchen können.
(für FHD wird man vermutlich aufgrund der großen Marktdurchdringung noch länger für 8Gb optimieren)

M.f.G. JVC

w0mbat
2020-02-04, 14:44:39
D.h. wer eine 5600 XT mit PCIe 4.0 betreibt könnte hier Vorteile gegenüber einer 1660Ti/2060 haben.

Hakim
2020-02-04, 15:03:16
Bei dem kleinen Preisunterschied lohnt sich mMn die 5600 einfach nicht, auch wenn es mit PCIe 4.0 besser ist. Anders sieht es leider bei nv aus, vom 2060 zu 2060s oder 2070 muss man tiefer ins Geldbeutel greifen.

zucee
2020-02-04, 20:22:25
Habe gestern eine Sapphire Pulse Radeon RX 5600 XT für 260 Euro bei Media Markt gekauft. Die anderen Karten waren leider nicht mehr verfügbar. Bin gespannt ob die Karte stabiler läuft.

Denniss
2020-02-05, 12:46:52
Guter Preis - war das eine Rabattaktion ?

DeViLFiSh
2020-02-05, 15:15:47
Guter Preis - war das eine Rabattaktion ?

https://www.mydealz.de/deals/zum-super-bowl-zwischen-4-und-5-uhr-19-rabatt-auf-das-gesamte-sortiment-1527707

zucee
2020-02-05, 19:41:48
Ja, war die Media Markt Rabatt Aktion.

Die Karte kam heute, habe sie vor einer Stunde eingebaut. Neueste Treiber installiert (20.2.1) und war gespannt wie sich die Karte im Vergleich zur Pulse 5700 XT macht, die ich um den Jahreswechsel hier hatte.

Die Pulse 5600 XT macht einen echt wertigen Eindruck. Wie schon die 5700 XT.

Als erstes habe ich das BIOS geupdatet, wer es braucht, Sapphire hat ein Video gemacht: https://www.youtube.com/watch?v=yeRvKjqwfIM

Zweitens fällt auf, auch diese Karte mag die 144Hz meines Monitors nicht, der Speicher läuft mit 1750 MHz idle. Mit 120 Hz ist alles ok und der Speicher taktet runter. Unschön, aber damit konnte ich auch schon bei der 5700 XT leben. Wirklich mehr als 120 fps wird die Karte in den meisten Spielen eh kaum liefern.

Auch den ersten black screen gab es, diesmal stürzt die ganze Kiste aber nicht ab, der Taskmanager funzt noch. Bisher aber nur einmal.

Habe momentan nur RDR2, Division 2 und Witcher 3 installiert. Meine Erwartungen waren nicht sonderlich hoch, doch ich wurde positiv überrascht.

https://abload.de/thumb/unbenannt9skr9.png (https://abload.de/image.php?img=unbenannt9skr9.png)

Wie man sieht ist der P2 bei 1780 MHz und 995 mV. Ich kann nicht beurteilen, ob das für die Karte gut oder schlecht ist. Die 5700 XT hatte ich mit 2030 MHz bei 1050 mV laufen. Dabei zog diese so 150-160 Watt.

Die 5600 XT zieht mit BIOS #1 ingame bei ~1700 MHz 100-125W. Das hat mich echt überrascht. Laut Computerbase sollen es 160W sein.
https://www.computerbase.de/2020-01/radeon-rx-5600-xt-test/

RDR2 Benchmarks: Hardware Unboxed Optimized Settings
min 31 (56), max 113 (114), average 80 fps
100-117W

Witcher 3 ingame: Ultra, Hairworks, max
~70-80 fps
~115W

The Division 2: Mischung aus Ultra/High
115-125W

5600 XT:
https://abload.de/thumb/benchmark_20200205_18p6jof.png (https://abload.de/image.php?img=benchmark_20200205_18p6jof.png)

5700 XT:
https://abload.de/thumb/benchmark_20200102_12e1kot.png (https://abload.de/image.php?img=benchmark_20200102_12e1kot.png)

Gleiche Settings, die 5700 XT hat hier ~150W benötigt. Keine Ahnung ob der neuere Patch an der Performance was geändet hat.

Das nur als erster Eindruck. Ich finde es krass. 125W maximal Verbrauch bisher. Die Karte ist flüsterleise mit 900-1050 rpm bei ~55°C und offenem Gehäuse. Jetzt werde ich erstmal die Plastikfolie abziehen. Die Karte bleibt im Rechner. Für meinen usecase mit 1080p und 120 Hz ein gutes Upgrade von einer 1060 6GB.

Die Performance ist besser als erwartet, gerade im Vergleich zur 5700 XT. Nur kostet mich die 5600 XT 125 Euro weniger als die 385 Euro, welche ich für erstere bezahlt hätte.

Wenn ihr Fragen habt nur her damit, zum Wochenende werde ich mehr zum Testen kommen.

Abschließend, ich habe nur das BIOS auf die V2 geupdatet. Ich brauche keine Zusatzsoftware wie den Afterburner oder MPT und auch nichts im Treiber. 125W max bisher. Wirklich leise. Alles ohne Silent BIOS.

dildo4u
2020-02-10, 11:19:25
Paar Benches wurden jetzt Neu mit low Level API gemacht,z.b Fortnite ,Rainbow Six und Borderlands 3.

hUpcQZ2Xrv0

aufkrawall
2020-02-10, 11:52:04
Wie man sieht haben die 6GB-Karten von sowohl Nvidia als auch AMD Probleme bei RDR2, Nvidia sogar noch verstärkt. Das bessere VRAM-Management bezieht sich nicht auf expl. API, sondern hängt dort offenbar vom Einzelfall bez. der Anwendung selbst ab. Das sollte langsam mal kapiert werden.

Aber böse, wie gekniffen 6GB-Käufer sind. Das wichtigste Spiel des letzten Jahres streicht schon deutlich unterhalb maximaler Details die Segel, in 1080p. ;D

dildo4u
2020-02-10, 11:56:06
Das sind ja auch 1080p Karten wird sogar von AMD so beworben,vorallem wenn die Anforderungen mit den neuen Konsolen weiter steigen.
Der 580 helfen z.b die 8GB zur Zeit wenig,das sie schon öfter deutlich unter 60fps fällt.

aufkrawall
2020-02-10, 12:04:48
Hast du dir das von dir verlinkte Video auch selbst angesehen bzw. angehört? Er weist explizit auf die hohe Diskrepanz zwischen avg und low schon in 1080p hin, die 1070 hat dabei fast die doppelten low fps vs. die 1060.

dargo
2020-02-10, 12:15:06
Die ganzen Diskussionen um die Karte sind eh sinnlos wenn eine brauchbare RX 5700 aktuell nur 20€ mehr kostet, zumindest in DE.

JVC
2020-02-10, 12:17:43
Paar Benches wurden jetzt Neu mit low Level API gemacht,z.b Fortnite ,Rainbow Six und Borderlands 3.

https://youtu.be/hUpcQZ2Xrv0
Wie man sieht haben die 6GB-Karten von sowohl Nvidia als auch AMD Probleme bei RDR2, Nvidia sogar noch verstärkt. Das bessere VRAM-Management bezieht sich nicht auf expl. API, sondern hängt dort offenbar vom Einzelfall bez. der Anwendung selbst ab. Das sollte langsam mal kapiert werden.

Aber böse, wie gekniffen 6GB-Käufer sind. Das wichtigste Spiel des letzten Jahres streicht schon deutlich unterhalb maximaler Details die Segel, in 1080p. ;D
6Gb sind einfach schon out für High-End und 8Gb werden es auch bald sein.
Da braucht es wie man sieht nicht einmal 4K dafür...

Ich zweifle langsam daran, das mir "nur" 12Gb noch 2Jahre+ reichen werden.
(als 4K+ User sind wohl ab dem Sommer/Herbst schon 16Gb sinnvoll)

M.f.G. JVC

dildo4u
2020-02-10, 12:23:02
Nicht wenn AMD endlich Mainstream PCI-E 4.0 bringt,es ist gut möglich das man billige B550 Boards lange vor der neuen Konsolen bekommen kann.
Da hätte man endlich ein Grund sein 2017 Board zu ersetzen.

aufkrawall
2020-02-10, 12:25:25
Falsch, VRAM-Pressure ist auch mit PCIe 4.0 16x beschissen. Erzähl keine Märchen.

dildo4u
2020-02-10, 12:37:51
Laut diesem Test kommt die 5600XT mit PCI-E 4 auf 11% an die 5700 in Vram limitierten Szenarien.Ich hoffe mit Zen 3 bauen die Tester endlich auf AMD um wenn sie GPUs Testen.

https://www.computerbase.de/2020-02/amd-radeon-pcie-3.0-4.0-test/

aufkrawall
2020-02-10, 12:46:38
Weder sehe ich dort Frametime-Graphen noch Spiel-Sessions, die länger als ein Bench-Run dauern.

dargo
2020-02-10, 12:53:35
Laut diesem Test kommt die 5600XT mit PCI-E 4 auf 11% an die 5700 in Vram limitierten Szenarien.Ich hoffe mit Zen 3 bauen die Tester endlich auf AMD um wenn sie GPUs Testen.

https://www.computerbase.de/2020-02/amd-radeon-pcie-3.0-4.0-test/
Bei diesem Test sehe ich überhaupt keine Probleme für die 6GB @PCIe 3.0, außer bei Ghost Recon: Breakpoint mit hohen Texturdetails. Meine Güte... dann nimmt man eben eine Texturstufe tiefer und schon sollte es passen. Manchmal ist selbst das nicht mal nötig, denn oft reicht es andere Details eine Stufe zu reduzieren die eh kaum ins Auge fallen wie zb. Schattenauflösung. Die Details wird man in diesem Spiel eh senken müssen da es sonst mit diesen tiefen Frameraten ziemlich zäh laufen wird.

Edit:
Der Test von CB ist mal wieder zum Brüllen. ;D

Da ist die RX 5600XT in SotTR bei den Frametimes 5% mit PCIe 3.0 schneller als mit PCIe 4.0. :ulol: Das kommt davon wenn man 0,2% percentiles nimmt und die Reproduzierbarkeit nicht garantieren kann. :wink: Oder einfach nur Werte vertauscht?

hmmm
2020-02-10, 16:21:48
Meine Güte... dann nimmt man eben eine Texturstufe tiefer und schon sollte es passen.
Was? Neee!
Man kann alles etwas runterstellen aber Texturen und mindestens native Auflösung MÜSSEN sein, da wird nicht gespart.
Sorry aber finde es bescheuert jetzt eine Karte zu kaufen bei der man schon daran denken muss eventuell an der Texture Qualität zu sparen. Meiner Meinung nach ist das dann ein totaler Fehlkauf.
Wenn du eh nur fullhd und CS usw auf ultra Low spielst ist das ok, aber sonst?
Nee wirklich nicht.

Lehdro
2020-02-12, 20:45:29
Was? Neee!
Man kann alles etwas runterstellen aber Texturen und mindestens native Auflösung MÜSSEN sein, da wird nicht gespart.
Sorry aber finde es bescheuert jetzt eine Karte zu kaufen bei der man schon daran denken muss eventuell an der Texture Qualität zu sparen. Meiner Meinung nach ist das dann ein totaler Fehlkauf.
Wenn du eh nur fullhd und CS usw auf ultra Low spielst ist das ok, aber sonst?
Nee wirklich nicht.
Jup. Du kaufst dir ne neue Karte und als Allerstes stellst du dann die einzige Option runter die normalerweise gar keine Leistung kostet: Die Texturauflösung. :freak:
Was soll dass dann in 2 Jahren werden wenn die Konsolen die durchschnittliche Texturqualität und damit den Speicherverbrauch deutlich nach oben getrieben haben?

Sorry, für den Preis kauft man sich eher ne 5700 und lässt die 5600XT den Leuten übrig die keinerlei Ansprüche haben. Ultimative 1080p Karte am Arsch.

DrFreaK666
2020-02-12, 22:41:06
Jup. Du kaufst dir ne neue Karte und als Allerstes stellst du dann die einzige Option runter die normalerweise gar keine Leistung kostet: Die Texturauflösung. :freak:
Was soll dass dann in 2 Jahren werden wenn die Konsolen die durchschnittliche Texturqualität und damit den Speicherverbrauch deutlich nach oben getrieben haben?

Sorry, für den Preis kauft man sich eher ne 5700 und lässt die 5600XT den Leuten übrig die keinerlei Ansprüche haben. Ultimative 1080p Karte am Arsch.

Ich schätze mal dass in 1080p der Unterschied zwischen einer 2048² Textur zu einer 4096² Textur nicht so gravierend ist.
Man darf mich allerdings gerne vom Gegenteil überzeugen :)

gravitationsfeld
2020-02-13, 00:34:02
Ich schätze mal dass in 1080p der Unterschied zwischen einer 2048² Textur zu einer 4096² Textur nicht so gravierend ist.
Man darf mich allerdings gerne vom Gegenteil überzeugen :)
Das kannst du nicht an der Aufloesung fest machen.

gedi
2020-02-13, 21:08:24
Das Ding ist zu langsam und zu teuer. Eigentlich ne 100€ Karte, nicht mehr eher weniger. Ne Sapphire Nitro XT für 420 Tacken fände ich das okay, da die Dinger jede Menge an OC-Potential mitbringen. Mit meiner gingen Abram 1000Mhz spielend, was performancewise je nach Game 2080s Performance bedeutet hat.

Scoty
2020-02-25, 11:22:38
Ich habe seit ein paar Wochen eine 5500 XT 8g und immer wieder kommt es vor wenn Windows startet das ich statt dem Desktop Bild erst mal der ganze Bildschirme voller kleiner bunter Punkte habe für ca. 1 bis 2 Sekunden, dann kommt das normale Bild. Es ist aber nicht immer so und bisher sah ich das nur beim Windows Start wenn das erste mal der Lockscreen kommt. Davor, also im Bios Screen oder im Bios selbst habe ich das nie. Ich bilde mir auch ein das ich das erst seit dem neuen Treiber habe, sicher bin ich mir aber nicht. Kennt das wer?

Das sieht genau so aus wie auf dem Bild:

https://www.computerbase.de/forum/attachments/display-jpg.728559/

DeadMeat
2020-02-25, 13:33:33
Ja das hab ich manchmal auf dem 2. Monitor, aber oft nur in Verbindung mit irgendwelchen Problemen wenn die VR Brille angeschlossen ist. Ist aber seit 1-2 Versionen nicht mehr aufgetreten. Kommt aber definitiv vom Treiber oder Windows (10) selber.
Bei mir übrigens auch nur beim start oder wenn eine VR Software abstürzte.

hq-hq
2020-02-25, 19:42:29
Ich habe seit ein paar Wochen eine 5500 XT 8g und immer wieder kommt es vor wenn Windows startet das ich statt dem Desktop Bild erst mal der ganze Bildschirme voller kleiner bunter Punkte habe für ca. 1 bis 2 Sekunden, dann kommt das normale Bild. Es ist aber nicht immer so und bisher sah ich das nur beim Windows Start wenn das erste mal der Lockscreen kommt. Davor, also im Bios Screen oder im Bios selbst habe ich das nie. Ich bilde mir auch ein das ich das erst seit dem neuen Treiber habe, sicher bin ich mir aber nicht. Kennt das wer?

Das sieht genau so aus wie auf dem Bild:

https://www.computerbase.de/forum/attachments/display-jpg.728559/

das hatte ich auch ab und zu mit einer GTX 980 Ti, glaube die HZ Zahl des Monitors (eigentlich ein 32" TV) war auf 59Hz und ich hab es dann auf 60Hz gestellt und dann war es verschwunden... bin mir nicht mehr ganz sicher weil es schon so lange her ist, jedenfalls war es immer nur für ein paar Sekunden dann war das normale Bild wieder da

dildo4u
2020-03-01, 10:15:30
32 Games Test 5600XT vs 2060.

https://www.techspot.com/review/1991-geforce-rtx-2060-vs-radeon-5600-xt/

Rennt erstaunlich gut in Fortnite und Star Wars unter DX11.