Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6500 XT Review-Thread
Ex3cut3r
2022-01-25, 14:00:18
Raff ist halt High Res Fetisischt. Der hatte sich schon 2014 eine 4K Möhre hingestellt. Und hat heut zu Tage ein Real 4K Display sein eigen, allerdings ohne VRR und Low HZ (60HZ, igitt)
Ist klar, dass den FHD nicht beeindruckt. Ich nehme es Ihn jedenfalls nicht übel. Sehe aber 1440p mit hoher Refreshrate in 27" und ganz wichtig VRR momentan als Optimum.
robbitop
2022-01-25, 14:27:16
Btw: Natürlich sind Switch & Co. "Low Quality", wenn die modernen Konsolen oder gar ein High-End-PC das Maß sind. Was denn sonst? Full HD war vor 15 Jahren cool, heutzutage ist das aber nur ... low quality ... Tetris ... eine Spar-Auflösung, die modernen Content frisst ... you name it.
MfG
Raff
Es müsste aber eine andere, noch niedrigere Stufe als "Low Quality" sein, Raff. Wenn 1080p60 med details = "low qaulity" ist, dann sind IGPs "very low quality" und die Nintendo Switch dann "ultra low quality"? ;)
Es geht bei dem Kommentar ein bisschen um das Spektrum und die Einordnung in ein Spektrum. "Low Quality" impliziert, dass es der unterste Bereich des Spektrums ist. Was aber nicht sein kann, da sehr sehr große Bereiche des Marktes noch deutlich darunter rangieren.
Ergibt der obige Hinweis aus deiner Sicht Sinn? :)
basix
2022-01-25, 14:32:01
Bezüglich der 1080p vs. 1440p vs. 4K Diskussion muss man auch sehen, dass Stand heute 1080p den unteren Rand des Markts darstellen. Vermutlich ein verschwindend kleiner Anteil der Spieler hat noch einen 1366x768 Monitor zu Hause stehen (Mobile ist evtl. was anderes, aber auch dort ist 1080p mittlerweile Standard). Sogar Steam Hardware Survey mit Mobile Bias untermauert das. 1080p Monitore sind seit >10 Jahren erschwinglich. Deswegen kann man 1080p am Desktop schon als "Low End" ansehen. Und kleiner als 1080p sieht am 1080p Monitor einfach nicht gut aus.
Bezüglich Settings sieht Low immer scheisse aus. Das würde ich niemandem anraten ausser es geht wirklich nicht anders (iGPUs oder ältere GPU Modelle). Medium Settings sehen in den allermeisten Fällen schon ansprechend aus, bei moderaten GPU-Anforderungen. Und mit einer neuen dGPU würde ich schon gerne einigermassen ansprechende Grafik geniessen und nicht Fliegengitter und Texturmatsch oder für jeden Spezialfall von Spiel an den optimalen Settings rumschrauben. Deswegen ist für mich 1080p/Medium so das untere Ende, ergo Low End. Und das vertrete ich auch, denn wir reden hier von einer neuen Karte für doch recht viel Geld.
Deswegen kann ich da Blaidds und Raffs Standpunkt schon verstehen. Eben weil es eine neue Karte ist und auch bei angepassten Settings zum Teil Texturmatsch auftritt. Evtl. ein wenig überspitzt formuliert aber nicht ganz unwahr. Vor allem, wenn man die Karten dann in 1-2 Jahren nochmals mit dann neuen und aktuelleren Spielen quält.
robbitop
2022-01-25, 14:45:50
Ich denke man muss Dinge im Kontext sehen. Es ist eine Einsteigergrafikkarte. Da sind 1080p medium details mit 60 fps nicht gerade schlecht. In jedem Fall gibt ein Großteil des Marktes noch deutlich weniger her: 720p30 mit der Switch und dem Steamdeck. Und gerade mal Pari mit Series S.
Aber grundsätzlich ist sie zu teuer und zu weit oben im Product Stack. Entsprechend muss AMD sich Kritik gefallen lassen.
Was aber klar sein sollte, dass Erwartungen an Bildqualität und Framerate abhängig sein sollte vom jeweiligen Produkt.
In Zeiten in denen das High End Produkt 2000 EUR plus kostet, ist es leider auch nicht ungewöhnlich, dass das Einstiegsmodell 300 EUR kostet. Den Kontext sollte man IMO nicht vergessen.
basix
2022-01-25, 15:01:31
Dann vielleicht die Frage, was eine Einsteigergrafikkarte leisten muss? Für mich ist das 1080p/Medium/60fps im Schnitt über die meisten Spiele. Wieso? Die Karte ist nigelnagelneu und mit der Zeit steigen die Anforderungen. Ergo sinken die FPS oder die Qualitätssettings müssen reduziert werden.
Dass Switch / Base PS4 usw. noch niedrigere Settings fahren tut hier nichts zur Sache. Erstens reden wir hier von Desktop, zweitens ist die Karte wie gesagt Nigelnagelneu und drittens kostet die Karte selbst mit MSRP 200$.
robbitop
2022-01-25, 15:15:17
Konsolen geben immerhin einen Referenzpunkt was Bildqualität angeht. Das Argument war, dass 1080p60 medium "low quality" ist und damit impliziert, dass es das untere Ende des Spektrums darstellt. Das ist aber gar nicht der Fall.
Was ist dann mit IGPs oder noch weiter unten existierenden Produkten wie GP108 (Geforece 1030 und entsprechende MX Pendants)?
Und warum soll ein Referenzpunkt durch Konsolen, welche einen Löwenanteil des Gamingmarktes darstellen nichts zur Sache tun? Signifikanz kann es nicht sein.
sklave_gottes
2022-01-25, 15:24:19
Hier sind noch ein paar Benchmarks mit angepassten Settings.
https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Specials/Low-Quality-Gaming-RX-6500-XT-1387811/
(https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/Specials/Low-Quality-Gaming-RX-6500-XT-1387811/)
Diesen Test finde ich sehr gelungen, die Einstellungen passen viel besser zu den Testkarten. Vielen Dank für die Mühe und die Ergebnisse.
Das Fazit ist aber nicht gut geschrieben, es gibt die Testergebnisse nur ungleich wieder.
Ganon
2022-01-25, 15:27:48
Konsolen geben immerhin einen Referenzpunkt was Bildqualität angeht.
Was mit zunehmender Nutzung von (konsolenexklusiver) variabler Auflösung auch nicht unbedingt eindeutig ist. Steht zwar 4K drauf, ist aber oft kein 4K drin. Der PC geht ja auch mehr in die Richtung gar nicht erst zu versuchen in 4K zu rendern, sondern die Suppe einfach hochzuskalieren.
pilzsammler2002
2022-01-25, 15:46:11
Diesen Test finde ich sehr gelungen, die Einstellungen passen viel besser zu den Testkarten. Vielen Dank für die Mühe und die Ergebnisse.
Jup, für den Usecase also ausreichend :)
basix
2022-01-25, 16:35:32
Konsolen geben immerhin einen Referenzpunkt was Bildqualität angeht. Das Argument war, dass 1080p60 medium "low quality" ist und damit impliziert, dass es das untere Ende des Spektrums darstellt. Das ist aber gar nicht der Fall.
Deswegen auch überall das "für mich" im Text ;) Und halt meine Begründung bezüglich Rahmenbedingungen am Desktop, Kaufpreis und der Nutzungsdauer eines neuen Produkts.
Was ist dann mit IGPs oder noch weiter unten existierenden Produkten wie GP108 (Geforece 1030 und entsprechende MX Pendants)?
Kosten diese Karten 200$ extra? Ich denke nicht. Wenn du also schon bereits die "Kontext"-Keule schwingst, dann bitte das auch beachten. Mit zum Teil <100$ Kaufpreis wird man auch eine andere Erwartungshaltung haben.
Ob man das jetzt als Low End, Ultra Low End, Entry Level, gerade fähig 2D anzuzeigen betitelt, ist eigentlich egal. Vielleicht ist es bei der 6500XT dann halt Lower Midrange oder was auch immer, weit weg von Low End kommt man aber nicht ;)
Mit beliebig alten GPUs oder iGPUs kann man das effektive Low End beliebig weit verschieben. Das ist am Desktop bei Neukauf aber nicht ein wirklich sinnvoller Ansatz. Dann kann man auch die übelst langsamen Skylake iGPUs als Low End bezeichnen. Spielspass kann ich mir damit aber nicht wirklich vorstellen.
Und warum soll ein Referenzpunkt durch Konsolen, welche einen Löwenanteil des Gamingmarktes darstellen nichts zur Sache tun? Signifikanz kann es nicht sein.
Die PS4 erschien 2013. Diese Karte 2022. Wieso soll ich dann die selbe Messlatte legen? Hier würde die XBSS deutlich mehr Sinn machen. Und hier läuft es vermutlich ziemlich genau auf 1080p/Medium raus.
Cyphermaster
2022-01-25, 17:00:18
Deswegen kann ich da Blaidds und Raffs Standpunkt schon verstehen. Eben weil es eine neue Karte ist und auch bei angepassten Settings zum Teil Texturmatsch auftritt. Evtl. ein wenig überspitzt formuliert aber nicht ganz unwahr. Vor allem, wenn man die Karten dann in 1-2 Jahren nochmals mit dann neuen und aktuelleren Spielen quält.
Will ja auch niemand die 6500XT zu etwas hochjubeln, was sie nicht ist. Ich finde deshalb ja auch richtig gut, daß man auch in den Tests die Relation zu alten Karten sieht, um die vielen vorhandenen Limitationen rauszuarbeiten. ABER:
Das, wo die Masse der Gamer aktuell einsteigt, und worauf AMD mit der 6500XT zielt, ist halt Einstiegsniveau/Low-End = der Anspruch der Karte. Und das sollte dann auch das Maß sein, nicht ein Vergleich mit der 6900XT oder 3090 oder sonst etwas. Und wenn doch, dann müßte auch IMMER dieser Maßstab angelegt werden. Bei der Kommentierung z.B. der 3050 und deren ersten Ergebnissen sieht's dann aber wieder -wie sonst- nicht so aus. Da steht dann nicht ein einziges Mal was von "low end" überhaupt, schon gar nicht in einer Überschrift, oder gar jeder Einzelnen - obwohl die Karte im Firestrike-Test auch nur auf dem Niveau der 6500XT landet, und ja wohl auch nicht grade etwas für Performance-Freaks ist.
Ich denke, daß da die (imo verständliche) persönliche Abneigung gegen die 6500XT als Produkt einfach unprofessionell stark durchkommt, was dem Ganzen nicht gut tut.
Ex3cut3r
2022-01-25, 17:18:29
Einstiegsniveau/Low-End ist aber auch schön geredet. Die Zahlen und das XT suggerieren was anderes als Low End. Low end wäre für mich irgendwas wie 6200 oder 6300 non XT.
6500XT hört sich für mich und auch für viele andere wie untere Mittelklasse an, denn die 6600 non XT kommt gleich danach im Namensschema, nur ist eine 6600 gleich doppelt so stark.
Mir ein Rätsel was AMD sich dabei gedacht hat. Die Karte ist und bleibt Dreck, bzw schrott. Da kannst du viel drum rum reden, wie du willst. ;)
Vor allem wenn das Vorgänger Modell mit gleichen Familien Namen (5500 XT) immer schneller ist. :freak:
robbitop
2022-01-25, 17:18:37
Kosten diese Karten 200$ extra? Ich denke nicht. Wenn du also schon bereits die "Kontext"-Keule schwingst, dann bitte das auch beachten. Mit zum Teil <100$ Kaufpreis wird man auch eine andere Erwartungshaltung haben.
Für 300 EUR ist das Ergebnis kritisierungswürdig. Aber in relation zur nunmal zeitgenössischen 3D Grafik ist es nicht der unterere Rand des Spektrums. Auch nicht für low end 3D Hardware als solche - was sie nunmal ist. 107 mm² die, 64 bit, 4x PCIe lanes. Das ist GP108 Territorium.
Einstiegsniveau/Low-End ist aber auch schön geredet. Die Zahlen und das XT suggerieren was anderes als Low End. Low end wäre für mich irgendwas wie 6200 oder 6300 non XT.
6500XT hört sich für mich und auch für viele andere wie untere Mittelklasse an, denn die 6600 non XT kommt gleich danach im Namensschema, nur ist eine 6600 gleich doppelt so stark.
Ja die Kritik muss AMD sich gefallen lassen. Aber man muss gleichzeitig konstatieren, dass das auch der Chipkrise Rechnung trägt. Wenn man sich die Preise der GPUs vor der Krise und nach der Krise anschaut und vergleicht, ist die Karte zumindest vom Preis nicht ungewöhnlich.
Vor der Krise hätte so eine Karte sicherlich 40-60% dessen gekostet. Aber das gilt auch für alle anderen Karten. Entsprechend fällt sie in der heutigen Zeit wahrscheinlich nicht mal da aus dem Bereich des erwartbaren.
Ob man das jetzt als Low End, Ultra Low End, Entry Level, gerade fähig 2D anzuzeigen betitelt, ist eigentlich egal. Vielleicht ist es bei der 6500XT dann halt Lower Midrange oder was auch immer, weit weg von Low End kommt man aber nicht ;)
Mit beliebig alten GPUs oder iGPUs kann man das effektive Low End beliebig weit verschieben. Das ist am Desktop bei Neukauf aber nicht ein wirklich sinnvoller Ansatz. Dann kann man auch die übelst langsamen Skylake iGPUs als Low End bezeichnen. Spielspass kann ich mir damit aber nicht wirklich vorstellen.
Das Steamdeck ist ein brandneues Produkt und muss mit einer IGP auskommen und die ganze Techwelt ist begeistert. Wird sicherlich grob 50% der Geschwindigkeit der 6500XT haben.
Ich finde man kann auch objektiv bleiben - wenn es low details im Benchmark gewesen wären, wäre die Überschrift auch objektiv gewesen. Nun sind es medium und high details. Die Erklärung, dass das für den Autor "low quality" ist, ist halt subjektiv und arbiträr. Darüber kann man sich natürlich vortrefflich streiten weil es Meinung ist. Ich finde es verwirrend (sonst hätte ich nicht gefragt) und es repräsentiert nicht unbedingt das Spektrum.
Die PS4 erschien 2013. Diese Karte 2022. Wieso soll ich dann die selbe Messlatte legen? Hier würde die XBSS deutlich mehr Sinn machen. Und hier läuft es vermutlich ziemlich genau auf 1080p/Medium raus.
Ich nannte auch die XBSS und du wolltest Konsolen generell streichen. Dazu kommt, dass
1.) die PS4 eine immer noch installierte Basis von >104 Millionen Einheiten hat
2.) praktisch alle Spiele noch für PS4 kommen
3.) wegen der Chipkrise die PS4 Produktion sogar von Sony nochmal angekurbelt wird
Entsprechend ist sie allein aus ihrer Signifikanz im Markt ein relevanter Datenpunkt auf dem Spektrum.
Ansonsten haben wir die XBSS, welche ein vergleichbares Ergebnis liefert. Ist das "low quality"?
Ansonsten wie gesagt das Steamdeck mit <50% der Leistung der 6500XT, was von allen Techseiten gefeiert wird und ausverkauft ist.
Lange Rede kurzer Sinn: man kann das als "low quality" ansehen - aber dann ignoriert man einen wahnsinnig großen Teil des Spektrums. Wenn das der Fall ist, kann man das ggf. noch in etwas Kontext setzen. Ich finde es nach wie vor ein wenig aus dem Kontext des großen Spektrums durch den breiten Markt genutzter Hardware.
Es ist eine Einstiegskarte die zu teuer ist (ggf. bedingt durch die verrückten Zeiten) aber mit der man in medium quality 1080p so ziemlich alles spielen kann. Nicht weniger aber auch nicht mehr.
basix
2022-01-25, 18:35:24
Das Steamdeck ist ein brandneues Produkt und muss mit einer IGP auskommen und die ganze Techwelt ist begeistert. Wird sicherlich grob 50% der Geschwindigkeit der 6500XT haben.
Ich finde man kann auch objektiv bleiben - wenn es low details im Benchmark gewesen wären, wäre die Überschrift auch objektiv gewesen. Nun sind es medium und high details. Die Erklärung, dass das für den Autor "low quality" ist, ist halt subjektiv und arbiträr. Darüber kann man sich natürlich vortrefflich streiten weil es Meinung ist. Ich finde es verwirrend (sonst hätte ich nicht gefragt) und es repräsentiert nicht unbedingt das Spektrum.
Hier muss ich sagen, dass man bezüglich Qualitätsvergleich und Low End Definition Mobile und Handheld nicht unbedingt mit Desktop mischen sollte. Sonst kann ich gleich noch Smartphone SoCs mit in den Topf werfen, dann entstehen noch ganz andere Low Ends ;)
Beim Steamdeck vergleicht man mit anderen Handhelds und in diesem Vergleich schneidet dieser sehr gut ab. Deswegen die Lorbeeren. Gibt halt nichts besseres in diesem Bereich. Verglichen mit einer 100W GPU ist es aber schon etwas anderes.
Es gibt auch viele GPUs (insbesondere iGPUs), welche gar nicht primär für 3D und Spiele gedacht sind. Sondern vor allem für eines: Ein Bild anzuzeigen (2D Desktop, Filme und Webbrowsing). Wenn ich jetzt all diese GPUs auch in den Vergleich einbeziehe, dann wird die Low End Definition sehr weit sinken.
Bezüglich Qualitätsanspruch: Ja, der ist subjektiv. Allerdings ist N24 auch die allerkleinste GPU dieser Generation. Prinzipiell also Lowest End und Lowest Quality Desktop GPU dieser Generation. Nur weil der Markt gerade so pervertiert ist und auch Vor-Vorgänger Lowest End GPUs (GP108) noch verkauft werden, sehe ich diese nicht als brauchbare 3D-Beschleuniger an. Insbesondere wenn man neu kauft. GP108 gehört für mich auch in die Kategorie: Bild anzeigen und gut ist. Die GT 1030 ist langsamer als Vega iGPUs. Klar kann man damit spielen. Kann man aber auch mit einer GPU von 2011. Eine Radeon HD 7770 ist etwa gleich schnell und diese war damals schon Midrange (mit sage und schreibe 123mm2 Die Size in 28nm und 159$ MSRP, nach heutiger Definition fast schon Low End ;)). Und ich rede hier von der GT 1030 mit GDDR5. Nur um das mal in Relation zu setzen. Ich glaube, damals war nur die HD 7750 und HD 7730 noch langsamer bei Ur-GCN.
Ich nannte auch die XBSS und du wolltest Konsolen generell streichen. Dazu kommt, dass
1.) die PS4 eine immer noch installierte Basis von >104 Millionen Einheiten hat
2.) praktisch alle Spiele noch für PS4 kommen
3.) wegen der Chipkrise die PS4 Produktion sogar von Sony nochmal angekurbelt wird
Entsprechend ist sie allein aus ihrer Signifikanz im Markt ein relevanter Datenpunkt auf dem Spektrum.
Ansonsten haben wir die XBSS, welche ein vergleichbares Ergebnis liefert. Ist das "low quality"?
Bei der XBSS bin ich dir entgegen gekommen ;) Wenn man schon mit den Konsolen vergleichen will, dann mit den neuen. Und klar kann man mit der PS4 spielen. Aber kann man das mit Desktop dGPUs von 2022 vergleichen? Bei gewissen Spielen in 720p/20-30fps inkl. Konsolenoptimierung? Ist das das Low End, was wir am Desktop als spielbar bezeichnen? Bei 200$ Neupreis verglichen mit einer Konsole, welche die meisten bereits 5+ Jahre besitzen? Ich hoffe nicht.
Wenn ich noch ältere GPUs habe, klar kann ich mit denen Spielen. Nur würde ich das halt nicht in die Low End Definition reinnehmen. Weil dann kann ich beliebig weit zurückgehen und beliebig langsame GPUs miteinbeziehen.
Ob jetzt XBSS Low Quality ist? Haben wir oben schon besprochen, ist subjektiv. Bei der neuen Konsolen Generation und im Vergleich mit der aktuellen Desktop GPU-Generation: Nun ja, XBSS ist halt der Bottom Feeder. Viel tiefer geht die Qualität also nicht.
Lange Rede kurzer Sinn: man kann das als "low quality" ansehen - aber dann ignoriert man einen wahnsinnig großen Teil des Spektrums. Wenn das der Fall ist, kann man das ggf. noch in etwas Kontext setzen. Ich finde es nach wie vor ein wenig aus dem Kontext des großen Spektrums durch den breiten Markt genutzter Hardware.
Low Quality und Low End sind wenn man so will zwei unterschiedliche Dinge, das ist wahr. Evtl. habe ich da an dir vorbeigeredet. Bei Low Quality kann man auch schwächere GPUs einzubeziehen (und von mir aus auch Mobile usw.). Ich persönlich würde so nicht spielen wollen aber ist ja wie gesagt subjektiv. Bei Low End Desktop GPU für Spiele und entsprechend Lowest Quality der neuen Generation hört es bei mir ab N24 aber so langsam auf ;)
Es ist eine Einstiegskarte die zu teuer ist (ggf. bedingt durch die verrückten Zeiten) aber mit der man in medium quality 1080p so ziemlich alles spielen kann. Nicht weniger aber auch nicht mehr.
Richtig, 1080p/medium ist ja OK. Und hier stimmt mMn langsam auch die Qualität für schöne Spielstunden am Rechner. Nichtsdestotrotz hat die 6500XT nicht nur eine, sondern gleich mehrere Sollbruchstellen. Und genau das wird zurecht an der Karte kritisiert.
Edit:
Will ja auch niemand die 6500XT zu etwas hochjubeln, was sie nicht ist. Ich finde deshalb ja auch richtig gut, daß man auch in den Tests die Relation zu alten Karten sieht, um die vielen vorhandenen Limitationen rauszuarbeiten. ABER:
Das, wo die Masse der Gamer aktuell einsteigt, und worauf AMD mit der 6500XT zielt, ist halt Einstiegsniveau/Low-End = der Anspruch der Karte. Und das sollte dann auch das Maß sein, nicht ein Vergleich mit der 6900XT oder 3090 oder sonst etwas. Und wenn doch, dann müßte auch IMMER dieser Maßstab angelegt werden. Bei der Kommentierung z.B. der 3050 und deren ersten Ergebnissen sieht's dann aber wieder -wie sonst- nicht so aus. Da steht dann nicht ein einziges Mal was von "low end" überhaupt, schon gar nicht in einer Überschrift, oder gar jeder Einzelnen - obwohl die Karte im Firestrike-Test auch nur auf dem Niveau der 6500XT landet, und ja wohl auch nicht grade etwas für Performance-Freaks ist.
Ich denke, daß da die (imo verständliche) persönliche Abneigung gegen die 6500XT als Produkt einfach unprofessionell stark durchkommt, was dem Ganzen nicht gut tut.
Ist alles OK, für etwas gibt es ja eine (hoffentlich offene und respektvolle) Diskussionskultur ;)
Aber auch bei der RTX 3050 ist man nicht weit weg von Low End (nach meiner Definition). Bietet aber eben 8GByte, starkes RT, DLSS und keine anderweitigen Sollbruchstellen und Limitationen. Verglichen mit dem wirkt N24 halt schon nicht so prickelnd. Und ob man das nun Low End oder Lower Midrange betitelt ist Ansichtssache.
So, nun möchte ich dem Thread hier wieder etwas Ruhe vor meinem "Spam" lassen :D
robbitop
2022-01-25, 19:59:50
Die 3050 wird aber bestimmt in einem anderen Preisgefilde sein oder? Wenn das so ist: schwierig vergleichbar.
Cyphermaster
2022-01-25, 22:18:00
Die Karte ist und bleibt Dreck, bzw schrott. Da kannst du viel drum rum reden, wie du willst. ;)Darum geht's nicht. Wenn die Karte sachlich schrottig ist, dann ist sie schrottig. Aber wenn in so einem Artikel der Eindruck entsteht, daß man bei der Karte nicht die üblichen Kriterien angelegt hat, um zu dem Fazit zu kommen, ist der Artikel schrottig... ;)
Wie schon gesagt: Am Fazit-Abschnitt zur Karte ist nichts zu deuteln, die Vergleiche mit alten Karten, um den (schechten) Eindruck auch in Relation zu setzen, finde ich super. Noch ein oder zwei Bilder mehr, um den Tradeoff in der Bildqualität noch schöner zu illustrieren - es wäre ein Träumchen.
Nur liest es sich halt bis dahin, als hätte sich jemand nicht so ganz beherrschen können, so sachlich wie sonst zu bleiben, was einen unschönen Beigeschmack gibt. Unterstelle ich nicht als Absicht, aber es wirkt so, und war nicht nötig. Bei der 6500XT schon gar nicht.
Monsta
2022-01-25, 23:48:25
Einstiegsniveau/Low-End ist aber auch schön geredet. Die Zahlen und das XT suggerieren was anderes als Low End. Low end wäre für mich irgendwas wie 6200 oder 6300 non XT.
6500XT hört sich für mich und auch für viele andere wie untere Mittelklasse an, denn die 6600 non XT kommt gleich danach im Namensschema, nur ist eine 6600 gleich doppelt so stark.
Mir ein Rätsel was AMD sich dabei gedacht hat. Die Karte ist und bleibt Dreck, bzw schrott. Da kannst du viel drum rum reden, wie du willst. ;)
Vor allem wenn das Vorgänger Modell mit gleichen Familien Namen (5500 XT) immer schneller ist. :freak:
Warum ist die Karte Schrott?
Sie funktioniert und ist der günstigste Einstieg ins PC Gaming, wenn man die günstigeste Karte kauft sollte man wohl erwarten das man Abstriche machen muss.
Sobald man eine Klasse höher geht sind die Preise sehr teuer, für Schüler und Studenten sehr schwer zu bezahlen, ich betreue seit 20 Jahren Studenten aus technischen Studiengängen bei uns in der Firma. Der Anteil der Pc spieler ist die letzten Jahre stark gesunken.
Die hätten gerne einen guten PC, greifen aber zur Konsole.
So eine Karte wäre ja ein Einstieg, sie ist ja ähnlich stark wie ne Ps4 Pro.
=Floi=
2022-01-26, 00:40:04
Die Verfügbarkeit scheint langsam zuzunehmen, die Preise beginnen aber immer noch bei abgehobenen 340€
Dann?
Die karte kannst hald für nix gebrauchen!
robbitop
2022-01-26, 07:47:57
Für 1080p medium Details schon. Sofern das als "für nix zu gebrauchen" gilt -> dann gilt das für jede Einsteiger GPU. Als solche ist sie zu bewerten.
Ich kann mir gut vorstellen, dass die 3050 deutlich besser - aber auch deutlich teurer wird.
Kontext ist stets wichtig.
fondness
2022-01-26, 08:57:40
Die Verfügbarkeit scheint langsam zuzunehmen, die Preise beginnen aber immer noch bei abgehobenen 340€
Mittlerweile ab 299 EUR sofort lieferbar:
https://geizhals.eu/?cat=gra16_512&xf=9816_02+04+12+-+RX+6500+XT
Und der Preis wird vermutlich noch weiter sinken in den nächsten Tagen.
Für 1080p medium Details schon. Sofern das als "für nix zu gebrauchen" gilt -> dann gilt das für jede Einsteiger GPU. Als solche ist sie zu bewerten.
Ich kann mir gut vorstellen, dass die 3050 deutlich besser - aber auch deutlich teurer wird.
Kontext ist stets wichtig.
Die 3050 tritt Minimum gegen die RX6600 an.
Shink
2022-01-26, 09:02:51
Meine (späte) Prognose: Die 3050 wird deutlich besser also die 6500XT und deutlich schlechter als die 6600. Die Preise werden sich entsprechend entwickeln, also ist da nix Schrott oder für die Tonne, außer man hat schon etwas in dieser Leistungsklasse - dann kann man die 6500XT ignorieren. Aufregen muss man sich darüber nicht.
basix
2022-01-26, 09:08:16
...also ist da nix Schrott oder für die Tonne, außer man hat schon etwas in dieser Leistungsklasse - dann kann man die 6500XT ignorieren. Aufregen muss man sich darüber nicht.
Naja, zusätzliche 4x PCIe Lanes hätten AMD gerade mal ~2-3mm2 gekostet (PHY + Kontrolllogik). Das ist schon einen kleinen Aufreger wert ;)
=Floi=
2022-01-26, 10:34:52
Gleich pcie 16x Gerade für ältere pcs.
Ein gescheiter und moderner en- und decoder. Das ist doch das hauptargument für so eine karte!
128bit
Ne version mit 8gb fürs zocken, ansonsten wird es eh nix mit den 4gb.
Man bekommt jetzt 1440p monitore nachgeworfen und bei den gpus schläft man komplett.
Bei 100-150€ wäre die karte so ok, aber nicht für 300€.
Shink
2022-01-26, 10:50:39
Von mir aus auch gerne 12GB Speicher, 192Bit und 65€ Marktpreis. Ich bin der letzte, der was dagegen hätte.
Monsta
2022-01-26, 11:23:42
Gleich pcie 16x Gerade für ältere pcs.
Ein gescheiter und moderner en- und decoder. Das ist doch das hauptargument für so eine karte!
128bit
Ne version mit 8gb fürs zocken, ansonsten wird es eh nix mit den 4gb.
Man bekommt jetzt 1440p monitore nachgeworfen und bei den gpus schläft man komplett.
Bei 100-150€ wäre die karte so ok, aber nicht für 300€.
Die Karte hat doch ne UVP von 200€, ohen Hype würde die sehr schnell auf 150€ fallen. Aber da die Nachfrage sehr hoch ist, ist auch der Preis hoch. Das hat aber nix mit der Positionierung der Gpu zu tun.
Und wofür braucht man den Decoder auf dem Desktop? Cpus sind doch schnell genug um ein 1080p Video abzuspielen.
DrFreaK666
2022-01-26, 12:14:11
Manche Karten gibt es unter 299€, aber immer noch zu teuer.
229€ sind bei mir die Schmerzgrenze
][immy
2022-01-26, 12:31:29
Naja, zusätzliche 4x PCIe Lanes hätten AMD gerade mal ~2-3mm2 gekostet (PHY + Kontrolllogik). Das ist schon einen kleinen Aufreger wert ;)
Verstehe da echt nicht, warum sie am PCIe Interface gespart haben. Gut das Ding ist ein Mobil-Chip auf einem eigenen Board, aber 4 zusätzliche Lanes hätten die meisten Probleme gelöst.
Der Preis ist ebenfalls etwas, was einfach überzogen ist, liegt aber nur am aktuellen Markt.
4GB Speicher finde ich nach wie vor Ok (ist halt eigentlich eine Low-End Karte) und lässt sich problemlos über die Detailschraube regeln, aber das PCIe Interface tut schon richtig weh. An sich ist der Chip ja nicht soooo schlecht. Ist halt nur der absolut falsche Preisbereich.
Das bescheuerte daran ist ja eigentlich, erst hat nvidia mit der RTX Generation richtig kräftig an der Preisschraube gedreht und im unteren Bereich gar nichts neues mehr angeboten. Dann kann AMD endlich wieder konkurrieren und schwups sind die Preise hoch, wegen Crypto-Mining (sieht man ja aktuell wieder das bei fallen Kursen auch die Preise purzeln). Nun kann AMD sich hierran wieder gesund stoßen und einfach irgendwas auf den Markt bringen, verkauft sich ja eh. Gibt wohl keinen besseren Zeitpunkt für Intel auf den Markt zurück zu kehren, selbst wenn sie ein unterirdisches Produkt haben/hätten (mal sehen wie es wird).
Manche Karten gibt es unter 299€, aber immer noch zu teuer.
229€ sind bei mir die Schmerzgrenze
Wenn man bedenkt, das vor ein paar Jahren die meist flottere RX570 den Preisbereich abgedeckt hat ...
Cyphermaster
2022-01-26, 12:40:07
nix Schrott oder für die Tonne, außer man hat schon etwas in dieser LeistungsklasseIch denke, das ist ein wichtiger Punkt bei der Beurteilung. Der Blickwinkel = Vergleich mit "früher" oder nur "jetzt" in der Chipkrise ist sehr unterschiedlich. Wie schon in einem Artikel so treffend stand: 'Die 6500XT ist ein Produkt, das es ohne die Chipkrise so gar nicht geben würde'. Aber wir haben nun mal eine Chipkrise...
Ich bin der Meinung, es ist im Moment wirklich erforderlich, für eine saubere Bewertung BEIDE Blickwinkel einzunehmen - vielleicht auch, der Vergleichbarkeit mit vorherigen Analysen wegen, sogar zwei (mit/ohne Krisen-Effekt).
Wenn man als Fazit die 6500XT in nur drei Worten beschreiben müßte, würde ICH sagen: "Nur das Nötigste."
robbitop
2022-01-26, 13:06:15
Man merkt daran, dass es ein Mobile Chip war, der kompromislos ausgeknautscht wurde, dort so wenig Waferfläche zu kosten wie möglich. Ja einzelne Bestandteile solch einer Optimierung sind nur ein paar mm². Aber wenn man komprimislos optimiert, macht viel Kleinvieh irgendwann Mist. Und jeder legt ggf. Wert auf etwas anderes.
Warum mobile Bereich:
- 4x PCIe lanes wären dort kaum ein Problem gewesen, da dort immer mit PCIe 4.0 gepaart
- dank niedrigem Powerbudget wären die Taktraten und die Leistung niedriger und somit PCIe 4.0 eh kein Problem
- von einer low cost Laptop GPU erwartet auch keiner 8 GiB VRAM
- im Laptop werden IGPs verbaut -> video de/encoder wären vorhanden
Verbockt ist also am ehesten die SKU als solches. Die hätte es so gar nicht geben sollen.
Wenn man als Fazit die 6500XT in nur drei Worten beschreiben müßte, würde ICH sagen: "Nur das Nötigste."
Dis. Meine ehemalige Biologielehrerin hatte dafür sogar nur ein Wort: Schmalspurminimalist. Wenn die wüsste, dass ich 15 Jahre später ständig nachts diverse Extrameilen gehe. :tongue:
MfG
Raff
maximus_hertus
2022-01-26, 14:30:29
Man merkt daran, dass es ein Mobile Chip war, der kompromislos ausgeknautscht wurde, dort so wenig Waferfläche zu kosten wie möglich. Ja einzelne Bestandteile solch einer Optimierung sind nur ein paar mm². Aber wenn man komprimislos optimiert, macht viel Kleinvieh irgendwann Mist. Und jeder legt ggf. Wert auf etwas anderes.
Warum mobile Bereich:
- 4x PCIe lanes wären dort kaum ein Problem gewesen, da dort immer mit PCIe 4.0 gepaart
- dank niedrigem Powerbudget wären die Taktraten und die Leistung niedriger und somit PCIe 4.0 eh kein Problem
- von einer low cost Laptop GPU erwartet auch keiner 8 GiB VRAM
- im Laptop werden IGPs verbaut -> video de/encoder wären vorhanden
Verbockt ist also am ehesten die SKU als solches. Die hätte es so gar nicht geben sollen.
Genau das.
Ohne Chipkrise würde es keine Retail "Gaming" Variante geben.
Im Prinzip ist lediglich der Name der 6500 XT SKU schlecht gewählt. 6400 XT und es passt. Durch die 400er SKU wird noch klarer ersichtlich, dass es eben die absolute Gaming-Einstiegsklasse ist und es dann keine übertriebenen Erwartungen gegeben hätte.
Da aktuell eh alles gekauft wird, verstehe ich nicht, warum man daraus eine 6500 XT gemacht hat. Das war unnötig, gerade bei einer 5500 XT mit 8GB, die auch noch schneller ist. Das war einfach nur dumm von AMD.
Schaun mer mal was die 500 Euro RTX 3050 macht ;) Oder wird es doch nur 450 Euro? ;)
OpenVMSwartoll
2022-01-26, 16:02:01
Dis. Meine ehemalige Biologielehrerin hatte dafür sogar nur ein Wort: Schmalspurminimalist. Wenn die wüsste, dass ich 15 Jahre später ständig nachts diverse Extrameilen gehe. :tongue:
MfG
Raff
Prostata, lockt der Kühlschrank oder Schlafwandeln? *G*
Ja, 6400, kleinere UVP und alles würde passen.
Shink
2022-01-28, 09:12:09
Hat schon jemand einen RX 6400 gesichtet in einem Komplettrechner?
vinacis_vivids
2022-01-28, 10:41:41
Der wahre Gegner der RX 6500XT 4GB ist die GTX 1650 4GB. Und wie dieses Duell ausgeht, weißt jeder und es sieht nicht gut aus für Grün.
y33H@
2022-01-28, 11:08:15
GTX 1650 Super wenn schon, aber hey ...
DrFreaK666
2022-01-28, 11:57:25
Naja, es gibt nur eine 1650 Super auf geizhals für 525€. Die 6500 gibt es ab 279€
dildo4u
2022-01-28, 12:05:47
Nachlese schätze mal es gibt wo anders mher Gebrauchte Angebote für sie ist jede Karte besser selbst eine 1650 Super@300$.
8xxbN0hwNo8
Denniss
2022-01-28, 12:48:14
Preistrend bei MF geht abwärts, jetzt ab 279€ verfügbar (-10)
Shink
2022-01-28, 12:57:31
Preistrend bei MF geht abwärts, jetzt ab 279€ verfügbar (-10)
Wunderbar, vielleicht ja wirklich bald unter 200€ wie von mir erhofft.
DrFreaK666
2022-01-28, 13:15:39
Skalper wollen auf eBay Kleinanzeigen mehr als 300€ :ugly:
Hakim
2022-01-28, 15:36:27
Vorhin Review vom unboxing geschaut, schon echt krass das es Szenarien gibt wo selbst eine 1050ti besser da steht
Birdman
2022-01-28, 18:00:54
Das mit dem PCIe Flaschenhals ist schon echt übel, vor allem wenn man nicht grad die allerneuste Plattform mit PCIe 4.0 hat.
Denn selbst da sind mitunter starke FPS und Frametimes Einbrüche im Vergleich zu andern 4GB Karten zu sehen....und das in 1080p ohne übertriebe Grafiksettings.
In PCIe 3.x Mainboards ist dies aber so ausgeprägt, dass die Karte schon fast zum Nepp-Angebot verkommt, egal bei welchem Preis sie sich einpendelt.
Diese 6500xt wird richtig schlecht altern, nix mit fine wine sondern das gibt cleaning vinegar.
Shink
2022-01-28, 19:28:07
Diese 6500xt wird richtig schlecht altern, nix mit fine wine sondern das gibt cleaning vinegar.
Du meinst wegen der ständig steigenden Anzahl von PCIe 3-Plattformen?
Die 6500 wird altern wie die RDNA2-APUs oder z.B. das Steamdeck. Was das heißt, kann man natürlich schwer einschätzen.
BlacKi
2022-01-30, 00:28:52
actually true^^
#oqMPtbp2WGY
Vorhin Review vom unboxing geschaut, schon echt krass das es Szenarien gibt wo selbst eine 1050ti besser da steht
Das bliebe mit 8 GiByte alles aus. Mehr Arbeit on-board, weniger PEG-Verkehr -> alles prima. Ich hoffe wirklich, dass eine 8-GiB-Variante der Radeon RX 6500 XT technisch möglich ist, dass diese schon sehr bald erscheint und damit die müßige Diskussion, bei der die Schuld mal wieder bei den Falschen gesucht wird ("Don't kill the messenger"), beendet. Dann zeigt sich nämlich, dass der Chip gar nicht übel ist. Er verhungert einfach. Da könnten im Mittel 20-30 Prozent mehr herauskommen, wenn ich mal konservativ schätze.
MfG
Raff
Ex3cut3r
2022-01-30, 23:18:44
Was zeigt eine 6500XT eigentlich hier an?
https://abload.de/img/unbenannthzjku.png
Decode und Encode ja nicht oder? ^^
Shink
2022-01-31, 07:48:52
Ich hoffe wirklich, dass eine 8-GiB-Variante der Radeon RX 6500 XT technisch möglich ist, dass diese schon sehr bald erscheint und damit die müßige Diskussion, bei der die Schuld mal wieder bei den Falschen gesucht wird ("Don't kill the messenger"), beendet. Dann zeigt sich nämlich, dass der Chip gar nicht übel ist. Er verhungert einfach. Da könnten im Mittel 20-30 Prozent mehr herauskommen, wenn ich mal konservativ schätze.
Ich denke, noch gibt's keine so großen GDDR6-Chips, oder?
Ob eine dann 20% schnellere und z.B. 20% teurere RX6500XT bei irgendjemandem besser ankommt, weiß ich nicht. Also: Der Messenger muss sterben, hilft alles nix.;D
Shink
2022-01-31, 15:59:38
@Topic:
https://www.phoronix.com/scan.php?page=article&item=radeon-rx6500xt-linux&num=1
Linux-Review.
Im Gaming irgendwo zwischen 1650 Super und 1660 Super, langsamer als die 5500XT mit den selben Problem wie unter Windows.
aufkrawall
2022-01-31, 16:02:31
langsamer als die 5500XT mit den selben Problem wie unter Windows.
Sogar noch schlimmer, weil API-Wrapper zusätzlichen VRAM benötigen.
Shink
2022-01-31, 16:25:28
Öhm... hatte ich irgendwie nicht im Kopf aber naja, im Gegenzug muss man sich nicht über die Raytracing-Performance ärgern, weil der Treiber das noch nicht kann.
Naja, als stolzer Besitzer eines Linux-Systems mit 1050Ti würd ich mich trotzdem über eine 6500XT freuen. Ist nicht so, als wären die Nvidia-Treiber so super.
aufkrawall
2022-01-31, 16:29:41
Würd ich wirklich nicht empfehlen. Wenn Spiele wie Dishonored 2 den VRAM nicht selber leeren, läuft das nach ein paar Minuten nur noch im Choking-Modus. Selbst mit deutlich reduzierten Texturdetails kann das dann halt eine gewisse Zeit später auftreten. <8GB sind da sehr schlecht, selbst die 8 sind für besagtes Beispiel schon (zu) knapp.
blaidd
2022-01-31, 20:27:54
Das Fazit ist aber nicht gut geschrieben, es gibt die Testergebnisse nur ungleich wieder.
Danke, btw. hab ich erst jetzt gesehen.
Und du hast recht, das Fazit saugt. Es ist eine minimal erweiterte Version des Print-Fazits (wo ich längst nicht soviel Platz hatte, wie ich dato wollte.). Die Online-Variante des Tests ist allerdings auch direkt nach der Print-Abgabe entstanden, ich war wohl noch ein bisschen ausgebrannt...
Ich arbeite aktuell quasi an einem Nachfolge-Artikel dazu (den muss ich ein bisschen anders aufziehen, wenn ich sowohl RX 6500 XT als auch RTX 3050 da halbwegs fair in Relation setzen möchte - ich kann nicht die gleichen Settings für beide nehmen, ohne den einen oder anderen zu benachteiligen. Also wird der Artikel definitiv in irgendeiner Weise komplexer werden müssen... wahrscheinlich zumindest bei den Benchmarks bzw. Settings). Ich schau mal zu, dass es dieses Mal besser wird. (Beim knappen Print-Fazit nicht garantiert, da muss um jedes Wort gerungen werden, aber vielleicht auch einfach so im Generellen, Online mit einbezogen.)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78266&stc=1&d=1643657402
Monsta
2022-01-31, 21:27:22
Öhm... hatte ich irgendwie nicht im Kopf aber naja, im Gegenzug muss man sich nicht über die Raytracing-Performance ärgern, weil der Treiber das noch nicht kann.
Naja, als stolzer Besitzer eines Linux-Systems mit 1050Ti würd ich mich trotzdem über eine 6500XT freuen. Ist nicht so, als wären die Nvidia-Treiber so super.
Wenn Du Linux Power user bist. Ständig den neusten Kernel installieren willst, zwei High Res Monitore hast, evtl auf einem was kompilierst und auf dem anderen nen Film guckst, oder spielst. Kann ich Dir zu einer Amd Gpu raten.
Ich habe das bis zu 10er Generation mit Nvidia probiert. Es war ein mittelschwerer Alptraum.
OpenVMSwartoll
2022-01-31, 21:39:13
Danke, btw. hab ich erst jetzt gesehen.
Und du hast recht, das Fazit saugt. Es ist eine minimal erweiterte Version des Print-Fazits (wo ich längst nicht soviel Platz hatte, wie ich dato wollte.). Die Online-Variante des Tests ist allerdings auch direkt nach der Print-Abgabe entstanden, ich war wohl noch ein bisschen ausgebrannt...
Ich arbeite aktuell quasi an einem Nachfolge-Artikel dazu (den muss ich ein bisschen anders aufziehen, wenn ich sowohl RX 6500 XT als auch RTX 3050 da halbwegs fair in Relation setzen möchte - ich kann nicht die gleichen Settings für beide nehmen, ohne den einen oder anderen zu benachteiligen. Also wird der Artikel definitiv in irgendeiner Weise komplexer werden müssen...
[...]
Mir fehlt der Unterschied zwischen PCI-E 3 und 4. Ansonsten interessant.
Denniss
2022-02-01, 00:32:01
Inzwischen ist sogar die Sapphire Pulse lieferbar für 273 beim Käsekönig, heute mittag war kurzfristig die Powercolor ITX für 259 zu haben.
Mal schauen wie lange der Abwärtstrend hält.
Rancor
2022-02-01, 08:15:33
AMD täte gut daran eine Version mit 8 GB aufzulegen.
dargo
2022-02-01, 08:35:31
AMD täte gut daran eine Version mit 8 GB aufzulegen.
Es ist noch nicht mal geklärt ob es technisch machbar ist. Und selbst das reicht nicht, in diesem Segment muss es auch billig sein.
Shink
2022-02-01, 08:40:34
AMD täte gut daran eine Version mit 8 GB aufzulegen.
Damit der Preis nicht auf 150€ fällt? Ja, das wäre ja furchtbar. Armer GPU-Hersteller.
Es ist ganz sicher technisch machbar, sobald es GDDR6-Speichermodule mit doppelter Kapazität gibt.
y33H@
2022-02-01, 10:35:04
Mir fehlt der Unterschied zwischen PCI-E 3 und 4. Ansonsten interessant.
Der ist idR erst relevant wenn der Speicher voll ist - was man tunlichst vermeiden sollte.
dildo4u
2022-02-01, 12:40:23
Computerbase Test.
https://www.computerbase.de/2022-02/amd-radeon-rx-6500-xt-review-test/
Shink
2022-02-01, 12:59:41
Computerbase Test.
https://www.computerbase.de/2022-02/amd-radeon-rx-6500-xt-review-test/
Cool, wer sich für ein paar Euro Tomaten auf die Augen klebt, kann sich mit "FSR: Quality" über RX6600-Performance freuen.;D
So gesehen eine hervorragende 720p-Grafikkarte.
Ex3cut3r
2022-02-01, 13:10:20
https://abload.de/img/unbenannt65ks8.png
:freak:
Cool, wer sich für ein paar Euro Tomaten auf die Augen klebt, kann sich mit "FSR: Quality" über RX6600-Performance freuen.;D
So gesehen eine hervorragende 720p-Grafikkarte.
Wenn das FSR wenigstens noch gut bzw. befriedigend wäre, wäre durchaus ein Argument. Aber selbst DLSS Q @ 1080p ist nur befriedigend IMO (3+)
Das hier ist natürlich auch ein tolles Argument, für PCIe 3.0 x16 User nicht zu kaufen.
https://abload.de/img/unbenanntbyj2p.png
Denniss
2022-02-01, 13:17:17
8GB wäre nur möglich mit 4GB großen GDDR6-Chips - gibt's nicht.
Oder man packt zwei zusätzliche Chips auf die Rückseite - Platine aufwändiger + teurer, Kühlung teurer da die 2 mitgekühlt werden müssen + die Kosten für die beiden Speicherbausteine
OpenVMSwartoll
2022-02-01, 17:22:08
Der ist idR erst relevant wenn der Speicher voll ist - was man tunlichst vermeiden sollte.
Ja, hast recht. Denkfehler.
VooDoo7mx
2022-02-01, 18:03:02
8GB wäre nur möglich mit 4GB großen GDDR6-Chips - gibt's nicht.
Oder man packt zwei zusätzliche Chips auf die Rückseite - Platine aufwändiger + teurer, Kühlung teurer da die 2 mitgekühlt werden müssen + die Kosten für die beiden Speicherbausteine
Sehr richtig erkannt. :up:
Eine doppelseitige Bestückung mit insgesamt 8GiB Vram würde das komplette Preisziel so einer Grafikkarte konterkarieren und aus diesen Grund wird es niemals so eine Navi 24 Grafikkarte geben.
blaidd
2022-02-02, 22:05:15
Ja, hast recht. Denkfehler.
Das gilt allerdings auch fast einzig für die RX 6500 XT in diesem Ausmaße. Vielleicht hat AMD uns allen damit sogar im Endeffekt einen Gefallen getan: Es gibt quasi kein feinfühligeres Instrument dafür, ab welchen Settings/Auflösungen nur 4 GiByte Grafikspeicher sucken...^^
Ist echt hart. Wenn man die Grenze überfährt (die viel offensichtlicher ist als bei anderen GPUs mit 4 GiByte), kastriert sich die Performance um gut 50 %. Das ist fast universell.
Bei Halo muss man die Texturen auf "niedrig" stellen. "Mittel" braucht 6, "Hoch" 8 GiByte in Full HD - Ohne(!) das HD-Texturen-Pack.
Thx AMD, in der Hinsicht ist die Karte wirklich hilfreich - selbst mit PCI-E-4.0. :)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78305&stc=1&d=1643836271
dargo
2022-02-03, 07:33:24
8GB wäre nur möglich mit 4GB großen GDDR6-Chips - gibt's nicht.
Oder man packt zwei zusätzliche Chips auf die Rückseite - Platine aufwändiger + teurer, Kühlung teurer da die 2 mitgekühlt werden müssen + die Kosten für die beiden Speicherbausteine
Öhm... wofür soll man zusätzlichen Vram auf die Rückseite packen wenn die Karte nur zwei Speicherchips hat? Also 4 Speicherbausteine bekommt man auch auf die Vorderseite noch unter. ;)
https://www.techpowerup.com/review/asus-radeon-rx-6500-xt-tuf-gaming/images/front.jpg
https://www.techpowerup.com/review/asus-radeon-rx-6500-xt-tuf-gaming/3.html
Das einzige Problem was ich sehe ist die Speicheranbindung. Afaik ist jeder Chip mit 32Bit angebunden. Insofern braucht man für 8GB 4GB Chips bei einem 64Bit SI die es noch nicht gibt.
Edit:
Wenn ich es mir recht überlege... eine RTX 3090 hat ja 24 Speicherchips mit je 1GB, ergo 12 auf der Rückseite. Das ganze hängt an einem 384Bit SI. Also geht es wohl doch aktuell nur über die Rückseite auch bei N24. Würde dann natürlich unnötig das PCB komplexer/teurer machen, wie schon erwähnt.
Thunder99
2022-02-03, 09:39:41
GDDR6 gibt es schon längst mit 2GB pro Module, GDDR6X erst seit kurzem. Hier daher nicht vergleichbar
Edit: nur 2 verbauen anstelle 4, eventuell Limitierung wegen dem Layout und Platine?
mczak
2022-02-03, 10:16:47
Öhm... wofür soll man zusätzlichen Vram auf die Rückseite packen wenn die Karte nur zwei Speicherchips hat? Also 4 Speicherbausteine bekommt man auch auf die Vorderseite noch unter. ;)
Ich glaube nicht dass das auf derselben Seite geht. Ein paar High-End Grakas nutzen ja (wie du auch erwähnst) den Clamshell-Modus (da werden im Prinzip die 32 Datenleitungen zwischen 2 Chips aufgeteilt). Signallaufzeiten, Impedanzen usw. sollten da aber möglichst identisch sein und die Kontakte so nahe wie möglich, was dann eben eine Bestückung auf der Vor- und Rückseite erfordert.
dargo
2022-02-03, 10:19:48
Ich glaube nicht dass das auf derselben Seite geht.
:confused:
PCB einer 8GB 6600XT.
https://www.techpowerup.com/review/sapphire-radeon-rx-6600-xt-pulse-oc/3.html
Denniss
2022-02-03, 12:34:59
GDDR6 gibt es schon längst mit 2GB pro Module, GDDR6X erst seit kurzem.Bitte mal das Bild anschauen. Dann zählen wir mal: 2x 2GB = 4GB
Cyphermaster
2022-02-03, 12:53:03
Mal ehrlich, was sollte denn bitte auch eine 8GB-Version an der 6500XT rausreißen? Man rettet vielleicht noch den einen oder anderen Kauf bei denen, die nach Featurelist shoppen - aber das war's dann auch. Um in der Performance umfassend und nicht nur in Ausnahmefällen auf Augenhöhe mit der 3050 zu kommen, wird's nicht reichen; und wenn man das will, launcht man eine solche Karte doch nach den desaströsen Tests tunlichst nicht als"6500XT 8GB" oder "6500XTX", sondern macht eine "R6600LE".
Thunder99
2022-02-03, 12:54:23
Bitte mal das Bild anschauen. Dann zählen wir mal: 2x 2GB = 4GB
Hab mein Kommentar korrigiert, mein Fehler, sorry :)
Shink
2022-02-03, 13:58:19
Mal ehrlich, was sollte denn bitte auch eine 8GB-Version an der 6500XT rausreißen? Man rettet vielleicht noch den einen oder anderen Kauf bei denen, die nach Featurelist shoppen - aber das war's dann auch. Um in der Performance umfassend und nicht nur in Ausnahmefällen auf Augenhöhe mit der 3050 zu kommen, wird's nicht reichen; und wenn man das will, launcht man eine solche Karte doch nach den desaströsen Tests tunlichst nicht als"6500XT 8GB" oder "6500XTX", sondern macht eine "R6600LE".
Naja, ohne den Flaschenhals könnte man mit der 6500XT wesentlich mehr "FPS/EURO" bekommen. Schneller als eine 3050 würde sie damit nicht, aber immer noch wesentlich einfacher zu fertigen.
Eine Performanceschätzung bekäme man z.B. durch Betrachten der Zahlen mit niedrigen Texturdetails. Das wär schon eine ganz andere "Performancewelt".
Denniss
2022-02-03, 14:05:31
VRAM ist 32Bit angebunden, da gehen halt nur 2 oder irgendwie ne Dopplung/Interleave mit 2 mehr direkt auf der anderen Seite vom PCB.
Shink
2022-02-03, 14:13:43
Kommt Zeit, kommt 4GB Modul imo und vorher lohnt es nicht, so etwas rauszubringen. Der Typ hat ja behauptet: "Don't assume that four gigabytes will be the only graphics memory configuration that will ever exist"
Cyphermaster
2022-02-03, 16:10:57
Das wär schon eine ganz andere "Performancewelt".Was für eine "ganz andere Performancewelt" sollte das denn sein? Die Karte würde bei ein paar Spielen/Settings weniger in die Unspielbarkeit abrutschen, und das ist es auch schon. Realistisch bekommst du über den gesamten Parcour gesehen damit aber nur einen sehr begrenzten positiven Effekt wie bei der 5500XT 4G vs. 8G. Unter dem Strich bliebe die 6500XT auch mit 8GB Speicher nicht performant genug, um mehr als die aktuellen Spiele unter FHD in mehr als nur ausreichend zu bestreiten.
Und wenn die FPS mal schon unter 30 tendieren, reißt man den Käufer mit dem Argument "mehr FPS/Euro!" doch nicht mehr wirklich vom Hocker. Ganz zu schweigen davon, daß aktuell UVP-Preise sowieso nur Schall und Rauch sind.
Shink
2022-02-03, 20:41:29
Was für eine "ganz andere Performancewelt" sollte das denn sein? Die Karte würde bei ein paar Spielen/Settings weniger in die Unspielbarkeit abrutschen, und das ist es auch schon. Realistisch bekommst du über den gesamten Parcour gesehen damit aber nur einen sehr begrenzten positiven Effekt wie bei der 5500XT 4G vs. 8G.
Siehe z.B. https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12910613&postcount=316
Wenn der Speicher mal nicht zu knapp ist, ist die 6500XT plötzlich um satte 100% schneller. Dieses Verhalten zeigt eine 5500XT nicht - die hat immerhin doppelt so viele PCIe-Lanes. Es würde also mehr bringen als bei der 5500XT 8GB.
Oder die Tests mit FSR: Kaum ist genug Speicher da, performt die 6500XT.
Reicht es dann für Raytracing? Nö, dafür sollte man RTX3060 oder 6700XT als Minimum sehen. Aber die Karte wäre plötzlich nützlicher.
Bei FSR hilft der Karte auch die doppelte FP16-Rate (zumindest ein wenig, neben den gesparten Pixeln natürlich). Da kommt dann viel zusammen.
MfG
Raff
fondness
2022-02-04, 08:09:02
Mal ehrlich, was sollte denn bitte auch eine 8GB-Version an der 6500XT rausreißen? Man rettet vielleicht noch den einen oder anderen Kauf bei denen, die nach Featurelist shoppen - aber das war's dann auch. Um in der Performance umfassend und nicht nur in Ausnahmefällen auf Augenhöhe mit der 3050 zu kommen, wird's nicht reichen; und wenn man das will, launcht man eine solche Karte doch nach den desaströsen Tests tunlichst nicht als"6500XT 8GB" oder "6500XTX", sondern macht eine "R6600LE".
Warum genau soll die Karte mit einer 3050 mithalten müssen? Völlig absurde Vorstellung. Wir reden von einer völlig anderen Performance und Preisklasse.
Cyphermaster
2022-02-04, 08:46:24
Siehe z.B. https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12910613&postcount=316
Wenn der Speicher mal nicht zu knapp ist, ist die 6500XT plötzlich um satte 100% schneller. (...) Aber die Karte wäre plötzlich nützlicher.Ich würde eher sagen: Die Karte bricht mit genügend Speicher nicht mehr um 50% ein... ;) Nützlicher wäre die Karte sicherlich. Aber: Sie würde weiterhin nicht die Karte erreichen, gegen die sie in den Köpfen der Käufer gemessen wird. Es stellt sich also die Frage, warum man eine 6500XT 8G kaufen sollten, wenn die zwar in der Leistung näher an die 3050 heranrückt, aber mindestens genausoviel beim Preis (zumindest bei aktueller Straßenpreis-Lage praktisch unausweichlich). Schlußendlich bleibt die 3050 im Vergleich doch die etwas schnellere Karte, mit mehr Features, und der besseren Aussicht, zumindest für die nähere Zukunft auszureichen.
Warum genau soll die Karte mit einer 3050 mithalten müssen? Völlig absurde Vorstellung. Wir reden von einer völlig anderen Performance und Preisklasse.Natürlich sind da technisch riesige Unterschiede. Wer also kaufwillig ist, kann die 6500XT nicht mit einem exakten technischen Gegenstück bei nVidia vergleichen, genau wie umgekehrt die 3050 nicht mit einem technischen Gegenstück bei AMD. Allerdings stellen beide das preisgünstigste Angebot für Gaming-fähige Karten im jeweiligen Portfolio dar, d.h. deswegen werden sie trotzdem weiter verglichen werden.
Daher ja auch meine Idee mit einer RX6600LE - die würde sozusagen den "Druck" von der 6500XT nehmen, indem die 3050 ein Gegenstück erhält, das man dann sogar etwas überflügeln könnte, für den win beim rot-grünen Fanboy-Schwanzvergleich.
Wer aktuell so gar kein Geld hat, nimmt doch gerade eh die massiv billigere 6500XT 4G (schon mangels einer nV-Karte auf dem Preisniveau), dreht für den satten 200€ Preisunterschied (!) zur 3050 lieber im einen oder anderen Fall die Optik runter, und hofft auf bessere Zeiten, in denen er die gesparten 200€ in eine preiswertere andere Karte investieren kann.
dildo4u
2022-02-05, 09:31:19
Dying Light 2 auf 6500XT.
https://youtu.be/0Hj0Rkhx_b0?t=3044
Test mit 1080p Low Settings
CmXntrsyKZQ
Shink
2022-02-05, 12:24:39
https://youtu.be/CmXntrsyKZQ
Öhm, und, was ist das Fazit oder sollte mir der Clickbait-Titel was sagen?
VooDoo7mx
2022-02-05, 12:43:04
Ab den Punkt wo er gezeigt hat, dass er das teil mit dem 5600G, also mit PCIe 3 testet, hab ich das Video nicht mehr weiter geschaut.
Es wird ja damit begründet man solle es mit einer Lower End CPU testen. Da hätte man ja auch einen Ryzen 3600 nehmen können...
Wenn man nur PCIe 3 zur Verfügung hat, sollte man die 6500XT auf jeden Fall meiden.
Monsta
2022-02-05, 14:23:10
Öhm, und, was ist das Fazit oder sollte mir der Clickbait-Titel was sagen?
Das macht der Dildo schon seit Jahren, irgendwelche Youtube Videos posten. Oft kommentarlos.
Kenn ich auch aus dem Freundeskreis, sowas klicke ich aus Prinzip nicht an.
DrFreaK666
2022-02-05, 14:57:39
Das macht der Dildo schon seit Jahren, irgendwelche Youtube Videos posten. Oft kommentarlos.
Kenn ich auch aus dem Freundeskreis, sowas klicke ich aus Prinzip nicht an.
Wow, anstatt dir selbst zu informieren, machst es am liebsten nicht :up:
Fazit des Videos: lieber eine gebrauchte 5500XT oder 1650 Super holen für weniger Geld (gebraucht).
Hardware Unboxed sitzt allerdings in Australien. Die Preise hier können natürlich vollkommen anders sein
Savay
2022-02-05, 16:04:08
Bei FSR hilft der Karte auch die doppelte FP16-Rate
RPM beherrscht doch eh alle RDNA CUs...N14 sogar 4x Int8 und 8x Int4 wie sonst nur RDNA2 oder worauf bezieht sich der vergleich?
Oder geht's darum, dass FSR in Relation an sich auf den GA10x ggf. theoretisch etwas langsamer ist weil FP16=FP32 entspricht...wenn man den Algo nicht so umbaut, dass er die TC und dessen FP16 Fähigkeit nutzen kann?!
johnnyGT
2022-02-08, 20:16:40
Es ist einfach nur traurig, selbst Konsolen bieten deutlich mehr Leistung fürs Geld. Pc Gaming bewegt sich mit der aktuellen Situation in eine unschöne Richtung. Zum einen das Launcherchaos und zum anderen die GPU knappheit (zumindest für den Endkunden.) es
Ein paar Hoffnungsschimmer gibt es noch, mal schauen wie die sich machen.
vinacis_vivids
2022-02-09, 14:28:56
Ihr seid hier total Offtopic.... Habt ihr mal den Titel gelesen?
DrFreaK666
2022-02-09, 14:31:09
Die 6500XT fällt leider nicht unter 259€
Tyrann
2022-02-09, 14:46:51
ich habe aufgeräumt
hier geht es um die RX 6500 XT und nicht um die RTX 3050
Die 6500XT fällt leider nicht unter 259€Gerade bei Mindfactory im MindStar für 199€ zu haben. ;)
Gruß
BUG
Shink
2022-02-26, 14:52:33
Gerade bei Mindfactory im MindStar für 199€ zu haben. ;)
Wow. Das erste unter-UVP-Angebot seit...?
Linmoum
2022-02-26, 15:04:32
Überrascht mich bei dem winzige Die nicht, dass davon Massen zu diesen Preisen in den Markt dringen. War nur eine Frage der Zeit und ging dann doch erstaunlich schnell.
BlacKi
2022-02-26, 15:25:06
Gerade bei Mindfactory im MindStar für 199€ zu haben. ;)
Gruß
BUGah, deinen post hab ich jetzt erst gesehen. habs auch im verfügbarkeits thread gepostet.
Wow. Das erste unter-UVP-Angebot seit...? naja, es gab immer wieder mal drops. aber immer gleich ausverkauft. wer jetzt will, kann jetzt gemütlich bestellen.
myMind
2022-03-20, 10:31:03
Die 6500XT fällt leider nicht unter 259€
Aktuell für 179€ im Mindstar. Sogar ein Modell mit zwei Lüftern:
4GB PowerColor Radeon RX 6500XT Fighter DDR6 (Retail) (https://www.mindfactory.de/product_info.php/4GB-PowerColor-Radeon-RX-6500XT-Fighter-DDR6--Retail-_1441053.html)
4GB Powercolor Radeon RX 6500 XT ITX DDR6 (Retail) (https://www.mindfactory.de/product_info.php/4GB-Powercolor-Radeon-RX-6500-XT-ITX-DDR6--Retail-_1442337.html)
Es ist erfreulich, dass aktuelle 4GB-Karten (https://www.heise.de/preisvergleich/?cat=gra16_512&v=k&hloc=at&hloc=de&sort=p&xf=10825_01+-+GeForce%7E10825_02+-+Radeon%7E10825_04+-+RTX%7E653_AMD%7E653_NVIDIA%7E6680_A+15+-+Turing%7E6680_A+16+-+Ampere%7E6680_C+10+-+RDNA+1%7E6680_C+11+-+RDNA+2%7E6680_C+12+-+RDNA+2) die 200€ Marke nach unten hin durchbrechen. Zwar nur tageweise, aber immerhin.
Aktuelle 8GB-Karten (https://www.heise.de/preisvergleich/?cat=gra16_512&v=k&hloc=at&hloc=de&sort=p&xf=132_8192%7E653_AMD%7E653_NVIDIA%7E9777_2020%7E9777_2021%7E9777_2022) gibt es mittlerweile gelegentlich unter 400€.
Shink
2022-03-20, 10:33:11
Sieht sogar so aus, als bliebe Mindfactory darauf sitzen - das Angebot läuft seit gestern Abend.
=Floi=
2022-03-20, 10:52:11
Wäre zu wünschen, dass solche karten floppen und gegen brauchbare modelle ersetzt werden.
Das teil ist einfach nur ein schlag ins gesicht der kunden.
fondness
2022-03-20, 11:00:04
Das Teil ist zu dem Preis absolut konkurrenzlos und zB locker 2-3 mal so schnell wie eine 680M, die von Reviewern als "erste iGPU die 1080p gaming ermöglicht" gefeiert wurden. Lächerlich waren vorallem die Reviews, die sich darüber aufgeregt haben, dass es (überspitzt formuliert) in 4K ein bisschen knapp wird mit dem VRAM und ausschließlich mit viel schnelleren GPUs verglichen haben die ein vielfaches kosten.
Shink
2022-03-20, 11:14:33
Wäre zu wünschen, dass solche karten floppen und gegen brauchbare modelle ersetzt werden.
Das teil ist einfach nur ein schlag ins gesicht der kunden.
Die Preissituation der letzten Jahre ist der Schlag ins Gesicht. Alles, was schneller ist als eine GTX1050Ti und dabei billiger als eine Konsole, ist gut für den Kunden.
Ich behaupte, ein Flop ist die 6500XT nicht. Die Herstellungskosten sollten ja sehr gering sein. Die darf schon noch billiger werden.
VooDoo7mx
2022-03-20, 11:45:46
Wäre zu wünschen, dass solche karten floppen und gegen brauchbare modelle ersetzt werden.
Das teil ist einfach nur ein schlag ins gesicht der kunden.
Warum soill das floppen wer wird denn hier wegen was ins Gesicht geschlagen?
Was soll ich für eine neue Grafikkarte kaufen wenn ich vielleicht nur 200€ Budget habe?
Woher kommen diese grenzdebilen Ansichten? Das tut schon beim lesen weh.
Das Teil ist zu dem Preis absolut konkurrenzlos und zB locker 2-3 mal so schnell wie eine 680M, die von Reviewern als "erste iGPU die 1080p gaming ermöglicht" gefeiert wurden. Lächerlich waren vorallem die Reviews, die sich darüber aufgeregt haben, dass es (überspitzt formuliert) in 4K ein bisschen knapp wird mit dem VRAM und ausschließlich mit viel schnelleren GPUs verglichen haben die ein vielfaches kosten.
Ich sag schon seit Anfang an, dass das Teil ein guter 1080p Einstieg ist wenn man ein PCIe 4 Mainboard hat und man in der Lage ist den Game Settings Slider zu bedienen und nicht alles stumpfsinnig auf Ultra stellt.
Und im Gegensatz zu dir bin ich nicht mal AMD Fanboy. :O
robbitop
2022-03-20, 12:06:16
Ich kann es auch nicht nachvollziehen. Sehe es genauso. Die 680M wird gefeiert und die deutlich schnellere 6500XT sei zu langsam. Zumal die 6000er APUs nicht gerade günstig sind.
Die 6500XT ist eine Einstiegskarte und als solche ok. Wobei ich zustimme, dass der Video Decoder nicht fehlen muss. Das ist wirklich doof. Und 8 PCIe Lanes wären jetzt auch kein Drama gewesen. Ist halt ein mibile Chip der nie als GPU für den PC gedacht war.
fondness
2022-03-20, 13:37:04
Und im Gegensatz zu dir bin ich nicht mal AMD Fanboy. :O
Ohne Seitenhieb geht's bei dir wohl nicht lieber nv Fanboy :O
myMind
2022-03-20, 14:00:14
Wäre zu wünschen, dass solche karten floppen und gegen brauchbare modelle ersetzt werden.
Das teil ist einfach nur ein schlag ins gesicht der kunden.
Phase 1: Es sind vereinzelt überhaupt Grafikkarten kaufbar - check
Phase 2: Es sind überhaupt Grafikkarten kaufbar - check
Phase 3: Es sind Grafikkarten zu zumutbaren Preisen kaufbar - check
<<<< You are here
Phase 4: Es sind alle Grafikkarten-Marktsegmente abgedeckt - da kommen wir langsam hin
Phase 5: Es sind alle Grafikkarten-Marktsegmente zu normalen Preisen abgedeckt - da ist wohl noch ein Stück zu gehen
Die 6500XT ist ein marktgetriebenes Produkt. Man schaut, was verfügbar ist und was nicht verfügbar ist und macht das Beste daraus. Im Grunde etwas, was AMD als Firma auszeichnet, dass sie aus wenigen verfügbaren Mitteln mehr herauskitzeln können, als die Konkurrenz mit quasi grenzenlosen Resourcen. Chipfläche und Speicher sind Mangelware. Die Verfügbare Bandbreite ist mit PCIe 4 massiv gestiegen. Kann man da was draus machen? Ja, kann man. Herausgekommen ist die 6500XT. Aufgrund der Chipgröße sind mehr Chips pro Wafer möglich, was bei hoher Nachfrage immens wichtig ist.
Ist das Produkt gelungen?
Das Glas ist halb voll: die hohe Nachfrage lässt sich damit befriedigen. Man kann wieder einen günstigen Gaming-PC bauen.
Das Glas ist halb leer: technisch ist die 6500XT nicht dass, was man 2022 noch sehen möchte.
Ich finde es jedenfalls ziemlich stark, wie schnell AMD so eine Anpassung der Produktlinien auf die Beine stellt. Schaut man mal in das Team Blau bei Intel - von der Entscheidung ernstzunehmende diskrete Grafikkarten zu bauen bis zur Realisierung, braucht man einiges an Zeit.
Irgendwo in Phase 5, wenn wir hoffentlich vom Verkäufermarkt wieder in einen Käufermarkt übergehen - dürfte die 6500XT entweder zum Auslaufmodell werden oder sehr niedrige Preisbereiche bedienen. Bis dahin sehe ich den Chip als marktangepasstes Produkt, bei dem man auf die Realität einfach bestmöglich und vergleichsweise schnell reagiert hat. Ist ja nicht so, dass AMD vor RDNA2 so super da stand.
Shink
2022-03-20, 14:40:04
Sieht sogar so aus, als bliebe Mindfactory darauf sitzen - das Angebot läuft seit gestern Abend.
Preiskorrektur bei MF: Die ITX-Variante ist jetzt im 169€ drin.
DerKleineCrisu
2022-03-20, 14:46:18
wenn man ein PCIe 4 Mainboard hat und man in der Lage ist den Game Settings Slider zu bedienen und nicht alles stumpfsinnig auf Ultra stellt.
Und im Gegensatz zu dir bin ich nicht mal AMD Fanboy. :O
Ich finde die Karte "nicht mal so schlecht " nur halt das die Graka nur mit einem PCIe 4 MB einigermaßen gescheit läuft ist nicht schön.
Wenn diese Einschränkung nicht wäre, wäre sie wirklich ne "gute" graka bis 1080p meine ich.
=Floi=
2022-03-20, 17:51:38
technisch ist die 6500XT nicht dass, was man 2022 noch sehen möchte.
also das argument mit der chipfläche lasse ich nicht gelten. Es kommt so viel müll auf dem markt und es werden auch genug defekte chips weggeworfen.
Man hätte sicherlich auch so einen "50%" chip bringen können. Wäre der chip größer, wären es einfach weniger 6500XT. Bei anderen chips ist die fläche auch egal.
Es ist ja auch nicht so, dass AMD nicht auch noch irgendwas aus der resterampe gehabt hätte.
Mich stört am meisten der videoprozessor. Sowas geht einfach nicht! Die karten werden auch oft in alten pcs eingesetzt und wenn der markt leer ist, muss so eine karte für alles taugen.
6GB mit 96bit wären in dem segment der kracher gewesen. Man könnte dann auch noch immer eine 4gb version bringen. AMD war mal der VRam vorreiter!
Bei der anbindung zum mainboard braucht man einfach nicht diskutieren. Das ist nur schwach und die kosten können nicht so dramatisch sein, wenn es früher auch ging.
Das heutige preisniveau würde das locker ermöglichen.
https://www.computerbase.de/2022-02/amd-radeon-rx-6500-xt-review-test/5/
Denn das auf vier PCIe-4.0-Lanes reduzierte Interface in Kombination mit einem auf 4 GB beschränkten Speicher kostet viel zu oft viel zu viel Leistung. Mit einem von beiden hätte die Radeon RX 6500 XT womöglich noch ein gutes Testergebnis erzielen können, mit beiden Einschränkungen zeigen sich aber selbst mit reduzierten Grafikdetails oft große Leistungsverluste
mczak
2022-03-20, 18:42:55
Also den Chip der 6500 XT finde ich durchaus gelungen - der ist halt (auch im Hinblick auf den Haupteinsatzzweck) auf maximal günstig getrimmt. Die 6500XT ist natürlich inkonsequent, weil AMD da genau das Gegenteil gemacht hat - schnellstmöglicher Speicher, unsinnig hohe Taktraten (was aufwendigere Stromversorgungslösungen nötig macht inklusive zusätzlichem Stromstecker), und die Hersteller garnieren das Ganze dann noch mit 2.5 Slot Triple Fan Kühllösungen (wohl damit es wirklich wie eine echte Gamingkarte aussieht). Da wäre imho weniger mehr gewesen (selbstverständlich dann auch mit weniger hoher UVP), denn eine "echte" Gaming-Karte wird das natürlich trotzdem nie.
Bei Preisen unterhalb der UVP ist die Karte jetzt aber nicht so schlecht - es fehlen auch schlicht Alternativen.
Ex3cut3r
2022-03-20, 19:39:28
Was ich bei der 6500XT schlimmer finde, als die Leistung der Karte, die ist ja oft ok für 1080p mit angepassten Settings, sind die Frametimes, irgendwie hakt und ruckelt es IMHO in fast jeden Spiel, wahrscheinlich, reichen die 4GB mit AMDs terrible VRAM Management selbst in 1080p mit angepassten Settings nicht, und die GPU muss immer über den PCIe -> normalen RAM hin und her swappen.
Das geht IMHO gar nicht, terrible experience. Das lieber eine noch langsame Karte mit 6GB oder 8GB VRAM (GTX 1060, RX 480/580) haben, aber dafür wenigstens eine saubere Bildausgabe. Schon erstaunlich, was manche hier als tolle Gaming Karte erwähnen. :uponder:
Ich bleibe dabei, die 6500XT ist nix anderes als ein 2D Windows Bildausgaben Beschleuniger. Ich hätte ja noch Media Karte hinzugefügt aber ohne De-und Encoder, geht das natürlich auch nicht. X-D
a_DZWpexJyY
myMind
2022-03-20, 20:00:11
also das argument mit der chipfläche lasse ich nicht gelten. Es kommt so viel müll auf dem markt und es werden auch genug defekte chips weggeworfen.
Man hätte sicherlich auch so einen "50%" chip bringen können. Wäre der chip größer, wären es einfach weniger 6500XT. Bei anderen chips ist die fläche auch egal.
Es ist ja auch nicht so, dass AMD nicht auch noch irgendwas aus der resterampe gehabt hätte.
Man kann nur spekulieren, warum AMD sich so entschieden hat. Es war aber mit ziemlicher Sicherheit nichts, was langfristig so geplant war. Da spielen mit Sicherheit auch die vorhandenen bzw. auslaufenden Verträge mit den Fertigungspartnern eine Rolle.
Was man auch relativ klar erkennen kann, dass AMD einige Marktsegmente im Moment gar nicht bedienen kann. Entry level Server > Fehlanzeige. Kleine Desktop CPUs > jetzt wieder nach langer Zeit. HEDT > Sehr wenige Neuauflagen. GPUs > kein Low End vorhanden. Man konzentriert sich auf die gewinnbringenden hochpreisigen Segmente, was auch dabei hilft die Reputation zu verbessern. Das ist gerade bei Servern das A und O. A prospos Server. Versuch mal einen Zen3 Epyc zu kaufen. Die Preise sind noch abgefahrener als bei GPUs. Die Hyperscaler dürften AMD gerade die Bude einrennen, wie noch nie.
Entsprechend wird man in die Entwicklung von Lowend-Produkten mit kleinen Margen grad nicht besonders viel Zeit/Geld investieren. Auf der anderen Seite will man Intel den Einstieg auch nicht zu leicht machen. Muss also doch mit "irgendwas" dagegenhalten.
Wie gesagt, Spekulation, würde aber erklären, warum man sich für eine Option entschieden hat, die einerseits nicht alle vorwärts orientierten Pläne umwirft und andererseits möglichst viel bestehendes wiederverwertet.
Mich stört am meisten der videoprozessor. Sowas geht einfach nicht! Die karten werden auch oft in alten pcs eingesetzt und wenn der markt leer ist, muss so eine karte für alles taugen.
6GB mit 96bit wären in dem segment der kracher gewesen. Man könnte dann auch noch immer eine 4gb version bringen. AMD war mal der VRam vorreiter!
Bei der anbindung zum mainboard braucht man einfach nicht diskutieren. Das ist nur schwach und die kosten können nicht so dramatisch sein, wenn es früher auch ging.
Das heutige preisniveau würde das locker ermöglichen.
https://www.computerbase.de/2022-02/amd-radeon-rx-6500-xt-review-test/5/
Denn das auf vier PCIe-4.0-Lanes reduzierte Interface in Kombination mit einem auf 4 GB beschränkten Speicher kostet viel zu oft viel zu viel Leistung. Mit einem von beiden hätte die Radeon RX 6500 XT womöglich noch ein gutes Testergebnis erzielen können, mit beiden Einschränkungen zeigen sich aber selbst mit reduzierten Grafikdetails oft große Leistungsverluste
Die drei genannten Hauptkritikpunkte Videoprozessor, RAM und Lanes teilt vermutlich jeder.
Das mit dem Videoprozessor verstehe ich gar nicht. Keine Ahnung was sie da geritten hat.
Die anderen beiden Punkte sparen einfach Material und Geld. Da geht es nur darum den kleinstmöglichen Preispunkt zu erreichen. Es ist halt einfach nicht jeder bereit 300€ für eine Grafikkarte auszugeben. Ich bin gespannt wie weit AMD mit der 6500XT runter gehen kann. 169€ für die Leistung nach dem Desaster im Grafikkartenmarkt die letzen 1,5 Jahre ist doch schon mal was. Und wenn es nicht reicht, dann ist der Verlust jetzt auch nicht so schlimm. Man kann ja upgraden.
Bin jetzt nicht mehr so informiert, aber wie sieht es mit dem VRAM incl. RSR aus? Reichen hier die 4GB eher?
=Floi=
2022-03-20, 20:59:32
Das teil wird eine BOM von 30-50€ haben!
https://de.wikipedia.org/wiki/AMD-Radeon-500-Serie
Von der RX 540 bis zur RX 560 128bit!
Lehdro
2022-03-20, 21:03:05
Man kann nur spekulieren, warum AMD sich so entschieden hat. Es war aber mit ziemlicher Sicherheit nichts, was langfristig so geplant war. Da spielen mit Sicherheit auch die vorhandenen bzw. auslaufenden Verträge mit den Fertigungspartnern eine Rolle.
[...]
Die drei genannten Hauptkritikpunkte Videoprozessor, RAM und Lanes teilt vermutlich jeder.
Das mit dem Videoprozessor verstehe ich gar nicht. Keine Ahnung was sie da geritten hat.
Ich bleibe dabei: Der Chip war nie als "normales" Desktopprodukt geplant. Das ganze war als Addon für etwas leistungfähigere Notebooks gedacht, als Konter zu Intels Entry Xe und NVs MX Serie. Daher auch der (teilweise) fehlende En/Decoding Support - das braucht man im Notebookbereich entweder nicht, oder würde von der APU des Ryzenprozessors übernommen werden - so zum Bespiel die Videocodecs.
Ohne die Miningsache und die GPU Krise hätten wir das Ding so wie es jetzt ist maximal als OEM Produkt gesehen - das ist ein reiner Notnagel weil es halt eben ging.
Ich bleibe dabei: Der Chip war nie als "normales" Desktopprodukt geplant. Das ganze war als Addon für etwas leistungfähigere Notebooks gedacht, als Konter zu Intels Entry Xe und NVs MX Serie. Daher auch der (teilweise) fehlende En/Decoding Support - das braucht man im Notebookbereich entweder nicht, oder würde von der APU des Ryzenprozessors übernommen werden - so zum Bespiel die Videocodecs.
Ohne die Miningsache und die GPU Krise hätten wir das Ding so wie es jetzt ist maximal als OEM Produkt gesehen - das ist ein reiner Notnagel weil es halt eben ging.
Von AMD wurde nie etwas anderes kolportiert. Leider ist das Ding für den Moment noch immer ~50€ zu teuer. Auch dann würde AMD noch immer genügend Geld abgraben! Kickilala PCB, 4GB 😂 und eine GPU, welche nicht der Rede wert ist😂 Eigentlich ist das Ding ein kompletter Fail, aber so seltsam es klingt, ist es die derzeit beste P/L Grafikkarte! RSR Performance auf einem 1080p Monitor, hm :confused:
DrFreaK666
2022-03-21, 06:09:53
... und eine GPU, welche nicht der Rede wert ist😂 ...
Wieso nicht? Sie hat mehr TFLOPS als eine Series S und mir dieser kann man auch spielen
Semmel
2022-03-21, 07:20:04
Preiskorrektur bei MF: Die ITX-Variante ist jetzt im 169€ drin.
Und trotzdem liegt das Ding wie Blei. Keiner kauft es.
mczak
2022-03-21, 08:32:04
Ich bleibe dabei: Der Chip war nie als "normales" Desktopprodukt geplant. Das ganze war als Addon für etwas leistungfähigere Notebooks gedacht.
Dass der Chip ausschliesslich für Notebooks gedacht war glaube ich nicht. Sonst hätte man die Displayoutputs und den Videodecoder gleich ganz weggelassen.
Ich denke schon dass auch ohne Chipkrise AMD eine Retail-Grafikkarte mit dem Chip herausgebracht hätte. Nur dann eben nicht als 200 Euro Modell sondern eher Richtung 100 Euro, etwas weniger überzüchtet. Die Einschränkungen sind fast identisch zu dem was nvidia bei GP108 gemacht hat, und das hat da niemanden gross gestört weil das eben Billig-Karten waren (gt 1030 unterstützt nur 2 Displays, kein Video-Encoder, nur 4 PCIE (3) Lanes, bloss der Video-Decoder war vollwertig).
Shink
2022-03-21, 09:02:58
Und trotzdem liegt das Ding wie Blei. Keiner kauft es.
Ja, die 2-Lüfter Variante wurde schon gekauft, die 1-Lüfter Powercolor hat echt keinen interessiert. Vielleicht weiß ich ja was nicht darüber. "Nur eine 6500XT" zu sein ist vielleicht OK, aber eine laute 6500XT ist vielleicht zu viel des Schlechten.
Semmel
2022-03-21, 09:16:45
Ja, die 2-Lüfter Variante wurde schon gekauft,
Wobei sie die anscheinend teilweise rausgenommen haben.
Ich habe den Bestand über den gestrigen Abend immer wieder verfolgt. Den ganzen Abend über wurde vielleicht noch eine Hand voll davon gekauft, aber der Farbbalken mit der Stückzahl wurde trotzdem deutlich schneller kleiner. Die haben also versucht eine Knappheit zu simulieren.
fondness
2022-07-25, 16:29:40
Radeon RX 6500 XT: Sapphire bringt AMDs Einsteiger-GPU auch mit 8 GB VRAM
https://www.computerbase.de/2022-07/radeon-rx-6500-xt-sapphire-bringt-amds-einsteiger-gpu-auch-mit-8-gb-vram/
dargo
2022-07-25, 16:33:16
Boah.... endlich. Warum nicht gleich so? :rolleyes: Etwas unschön die Brechstange und vor allem das begrenzte Angebot global. Bin gespannt auf die Analyse vom PCB wie Sapphire das mit den 8GB realisiert hat.
Shink
2022-07-25, 17:50:23
Hmm gibt es jetzt endlich (ein paar...) größere Speichermodule oder wie kommt das jetzt?
Es wurde Zeit. :up: Damit wird daraus schlagartig eine gute Karte statt Schrott, der regelmäßig von einer GTX 970 abgeledert wird.
MfG
Raff
DrFreaK666
2022-07-25, 22:49:01
ja gut, von den Minuspunkten wurde ja nur eines getilgt
Hmm gibt es jetzt endlich (ein paar...) größere Speichermodule oder wie kommt das jetzt?
Clamshell-Bestückung, vor und Rückseite. Das war von Anfang an so möglich, AMD entschied sich dagegen. Bei dem Chip wird das ein schwerer Fehler gewesen sein, wie sich jetzt zeigt.
Shink
2022-07-26, 09:33:56
Bei dem Chip wird das ein schwerer Fehler gewesen sein, wie sich jetzt zeigt.
Performancemäßig auf jeden Fall. Aber ich nehme an, man wollte etwas Neues auf den Markt werfen, wofür Miner keine Verwendung haben. Mit der Theorie würde es auch Sinn machen, dass jetzt jemand mehr RAM verbaut.
DrFreaK666
2022-07-26, 09:57:58
Die anderen Minuspunkte bleiben aber. Für alte Mobos eher nicht geeignet und viele Videocodecs werden nicht beschleunigt.
Keine Ahnung wieso die 8GB so gefeiert werden, wenn das andere nicht geändert wurde
Shink
2022-07-26, 10:15:09
Die anderen Minuspunkte bleiben aber. Für alte Mobos eher nicht geeignet und viele Videocodecs werden nicht beschleunigt.
Keine Ahnung wieso die 8GB so gefeiert werden, wenn das andere nicht geändert wurde
Wenn der Speicher nicht so knapp ist, muss die Karte nicht so oft über PCIe nachladen und zumindest ich hab mir noch nie eine Grafikkarte wegen dem Videoencoding gekauft.
Also: Der Performance-Hit durch PCIe 3.0 wird sicher um einiges reduziert und für viele Spiele sogar weg sein. Damit könnte die Karte bei nicht-RT-Spielen beinahe mit 3050 und A580 gleichziehen.
Die anderen Minuspunkte bleiben aber. Für alte Mobos eher nicht geeignet und viele Videocodecs werden nicht beschleunigt.
Keine Ahnung wieso die 8GB so gefeiert werden, wenn das andere nicht geändert wurde
Der Videoprozessor bleibt ein Problem (für die es ein Problem ist), alles andere wird durch die 8GB ausgeglichen.
DrFreaK666
2022-07-26, 10:26:08
Wenn die 5500XT 8GB an Performance zulegt wenn man PCI-E 4.0 statt PCI 3.0 nutzt, dann dürfte es auch für die 6500XT gelten. Oder gilt das allgemein?
anddill
2022-07-26, 10:41:17
Es werden ja nicht nur Texturen über den PCIe geladen. Da muss ja auch ständig die komplette Geometrie, Shaderprogramme und vermutlich noch mehr Kram von dem ich keine Ahnung habe drüber laufen. Sonst würde die Karte ja auch bei Spielen die wenig VRAM belegen mit PCIe3 und 4 gleich schnell sein. Was aber nicht so ist.
Die RX6500XT mit 8GB hat
- PCIe4 4x-Interface, das reicht für das Produkt problemlos aus, auch bei PCIe3. Wichtig wäre eben nur, dass keine Texturen ausgelagert werden müssen
- 64Bit SI + 16MB IF$, dürfte wirken wie ein 128Bit-Interface
- 8GB VRAM, dürfte für die Spiele, die darauf gespielt werden können, in dem allergrößten Teil der Fälle reichen, 4GB reicht definitiv nicht mehr
- hat nur einen rudimentären Videoprozessor, keine Encodierung, nur spärliche Decodierung von Videos
- maximal 1 HDMI und 1 DP, das wars
fondness
2022-07-26, 12:55:22
Zumal es PCIe4.0 jetzt nicht gerade erst seit gestern gibt. Wer ein altes Mobo hat muss sich eben vorher informieren, das war schon immer so.
Loeschzwerg
2022-07-26, 15:20:16
Zieht das Argument auch hinsichtlich Intel Arc und rBAR?
Shink
2024-06-14, 16:23:27
ASRock hat im Lager nachgesehen und bringt jetzt auch noch eine 6500XT 8GiB
https://www.igorslab.de/nicht-alles-was-alt-ist-ist-nicht-gleich-nicht-mehr-verwendbar-asrock-praesentiert-seine-amd-radeon-rx-6500-xt-phantom-gaming/
Gute Entscheidung, sofern der Preis stimmt. Das Ding wird mit 8 GiB schlagartig zu einer ordentlichen Grafikkarte: 8 gegen 4 GiByte VRAM im Test: Bis zu 316 Prozent höhere Leistung bereits in Full HD (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/)
MfG
Raff
mczak
2024-06-15, 17:43:22
Gute Entscheidung, sofern der Preis stimmt. Das Ding wird mit 8 GiB schlagartig zu einer ordentlichen Grafikkarte: 8 gegen 4 GiByte VRAM im Test: Bis zu 316 Prozent höhere Leistung bereits in Full HD (https://www.pcgameshardware.de/Radeon-RX-6500-XT-8GB-Grafikkarte-280279/Tests/4GB-vs-8GB-GPU-VRAM-Review-Test-Benchmarks-1443103/)
MfG
Raff
Aber am Preis wird es garantiert scheitern. Die 4GB RX 6500XT sind auch abgesehen vom Speichermangel einfach zu teuer im Vergleich mit der RX 6600 (Preis/Leistung, fehlende Features). Und sämtliche 8GB 6500XT sind keine 10% unterhalb des Preises der RX 6600 angesiedelt, da kann man es auch gleich sein lassen.
Popeljoe
2024-06-15, 18:15:25
Aber am Preis wird es garantiert scheitern. Die 4GB RX 6500XT sind auch abgesehen vom Speichermangel einfach zu teuer im Vergleich mit der RX 6600 (Preis/Leistung, fehlende Features). Und sämtliche 8GB 6500XT sind keine 10% unterhalb des Preises der RX 6600 angesiedelt, da kann man es auch gleich sein lassen.
Stimmt! Der Preisunterschied zur 6600 ist mit nicht einmal 20€ einfach zu gering.
Für 160-170€ wäre sie interessant. Aber so leider nicht. Schade! :(
Ich würde sogar noch etwas radikaler rangehen – 149 Euro wäre ein toller Preis, um sie als Einsteiger-Empfehlung zu nennen. Die RX 6600 ist um rund 60 Prozent schneller (in Full HD) (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/) und außerdem besser für PCIe-3.0-Systeme geeignet. Aber immerhin ist die RX 6500 XT 8GB kein Kernschrott (wie die 4GB-Variante).
MfG
Raff
AMDip
2024-06-15, 19:29:09
Sowas kann doch niemand seriös empfehlen.Brutal ineffektiv, zu teuer, zu wenig Leistung und im Vergleich zu einer 3050 auch deutlich schlechtere Bildqualität durch FSR, das heutzutage eigentlich die Grundvoraussetzung für so kleine Karten ist.
Wobei warte mal, wenn der potentielle Käufer das am Ende beim Freund mit einer 3050 vergleicht, wird er sich denken: „Holy moly, ich wurde veräppelt und kauf beim nächsten Mal was weniger Ineffektives…“ Ja, doch, ich bin überzeugt, beste Karte aller Zeiten.Buy Radeon 6500 XT 8GB, der Extraspeicher wird bestimmt der Gamechanger. Dazu noch der Wundertreiber, der nach 10 Jahren warten langsam kommen müsste. Und abgeht die Post. Lets go;D
Shink
2024-07-12, 17:48:54
Saphire hat eine Mini ITX-Version mit 15cm am einheimischen Markt. Wer so etwas sucht, für den ist es... nicht die schlechteste Lösung. Eine entsprechende 3050 ist tatsächlich langsamer und nicht billiger, auch wenn AMDip scheinbar anderer Meinung ist aus Gründen.
https://geizhals.de/sapphire-pulse-radeon-rx-6500-xt-itx-pure-oc-11314-06-20g-a3207271.html
E39Driver
2024-07-15, 09:41:18
Die 8GB 6500XT ist schon mal entscheidend besser als die 4GB Version und hätte gleich so raus kommen sollen. Es bleibt jedoch das Problem der nur 4 PCIe 4.0 Lanes zur Anbindung. Auf modernen Boards kein Problem. Jedoch wird dieser Preisbereich gerne von preissensiblen Aufrüstern genommen, die oftmals noch PCIe 3.0 Boards haben und hier verlierst du ziemlich Leistung. In Summe ist die 3050 die rundere Karte, da weniger beschnitten
dildo4u
2024-07-15, 09:44:47
3050 6GB scheint sinvoller da weniger Verbrauch?Gerade mit so einem Mini Kühler würde ich keine 100 Watt Kühlen wollen.
Shink
2024-07-15, 10:15:55
Natürlich ist die 3050 irgendwie die rundere Karte, auch wegen Video-Codecs und Anschlüssen. Die 6500XT war immer schon eine Resteverwertung von für Mobil gedachten Chips. Aber 6GiB sind beinahe eine böswillige Beschneidung. Gerade jetzt dürfte der Preisunterschied ja irrelevant sein.
robbitop
2024-07-15, 13:04:36
Verliert man trotz 8 GB noch viel Leistung bei der 6500xt mit pcie 3.0? Sind zwar nur 4 PCI lanes aber die Karte produziert jetzt eh nicht so viele fps so dass der Traffic auf dem PCIe sich halbwegs in Grenzen halten müsste. Wenn man Skalierungstests macht müsste man das auch mit einer kleinen Karte in einem für sie „normalen“ Umfeld tun (also der Auflösungs/Detail und fps Bereich in dem sie normal läuft und damit entsprechend „konstruierte“ Situationen meiden).
Es gibt Spiele, die viele Faxen über den PEG machen, auch wenn der Speicher nicht voll ist. Da ist Navi 24 immer langsam. Das sind Ausnahmen (und IMHO schlechter Stil), aber man sollte sich dessen bewusst sein, dass die 8 GiByte nicht gegen alle Probleme bzw. Symptome helfen. Aber gegen die meisten. :)
MfG
Raff
Shink
2024-07-15, 13:23:13
Fun fact am Rande: Meine RX6600XT läuft mit PciE 4.0 auf einem 40€ B450-Board, seit ich einen Zen 2 Prozessor hab. Irgendwie kein Wunder da die Mainboard-Chipsets ja doch "recht viel gemein haben".
w0mbat
2024-07-15, 13:37:55
Welche B450er kann den PCIe 4.0? Oder gehst du nach CPU-Z?
robbitop
2024-07-15, 13:41:40
Wurde pcie nicht von AMD verboten an bios update auf pcie4.0 für die alten Chipsets damals? Da gab es doch iirc 2019 entsprechende updates und dann wurden die zurückgepfiffen. Ggf ist jetzt genug Zeit vergangen und AMD toleriert das. :)
Da der PCIe Controller in der CPU sitzt sollte eigentlich jedes Am4 Board mit Zen 2 CPU oder neuer PCIe 4.0 können. Ist das nur über das bios bestimmt.
w0mbat
2024-07-15, 14:56:22
CPU-Z zeigt PCIe 3.0 x16 als auf theoretisch PCIe 4.0 fähigen Mobos als "4.0 x8" an, auch wenn es so nicht läuft. Daher frage ich.
Einfach die Transferrate am Slot messen, entweder mit 3DMark oder AIDA64: https://www.pcgameshardware.de/Radeon-RX-7600-XT-Grafikkarte-280117/Tests/Benchmark-Preis-RX-7600-XT-16GB-Release-Date-1438299/galerie/3837578/
Mit vier Lanes kann man sich freuen, wenn man 6 GByte/s hinbekommt.
MfG
Raff
Shink
2024-07-17, 12:19:33
Welche B450er kann den PCIe 4.0? Oder gehst du nach CPU-Z?
Einfach die Transferrate am Slot messen, entweder mit 3DMark oder AIDA64: https://www.pcgameshardware.de/Radeon-RX-7600-XT-Grafikkarte-280117/Tests/Benchmark-Preis-RX-7600-XT-16GB-Release-Date-1438299/galerie/3837578/
Mit vier Lanes kann man sich freuen, wenn man 6 GByte/s hinbekommt.
Ist ein Linux only-System.
Im CPU-Z-Klon "CPU-X" stand mit meinem Ryzen 1600X noch PCIe-3x8 und beim 3700X jetzt PCIe-4x8 bei einer RX6600XT. Ich bin nicht sicher, ob da 3DMark oder AIDA das richtige liefern - vermutlich schon? Muss ich mal testen.
Die Tools sind sich relativ einig bei der real herausspringenden Transferrate. :) Die Schritte zwischen den Lane-Configs sind auch so groß, dass es da keine Missverständnisse gibt. Bei 4.0 sieht das beispielsweise so aus:
4 Lanes: ~6 GByte/s
8 Lanes: ~13 GByte/s
16 Lanes: 25-26 GByte/s
MfG
Raff
w0mbat
2024-07-19, 13:36:32
Ist ein Linux only-System.
Im CPU-Z-Klon "CPU-X" stand mit meinem Ryzen 1600X noch PCIe-3x8 und beim 3700X jetzt PCIe-4x8 bei einer RX6600XT. Ich bin nicht sicher, ob da 3DMark oder AIDA das richtige liefern - vermutlich schon? Muss ich mal testen.
Das ist der CPU-Z Fehler. Mein Kumpel hat nen R5 3600 auf nem B450 Mobo mit einer RX 6600 und da steht zwar auch "PCI-Express 4.0" aber der "current link speed" ist nur die Hälfte, weil es eben mit PCIe 3.0 läuft.
Shink
2024-07-19, 22:23:13
Also lspci -vvv sagt "PciE 4.0". Gibt's eine nicht kostenpflichtige AMD-kompatible Alternative zu 3DMark oder AIDA64?
Shink
2024-07-22, 08:57:09
Btw: Ihr hattet recht. Auch wenn lspci und cpu-x "PciE 4.0" sagt, kommen mit der RX6600XT nur 6,5GByte/s drüber. (Das, oder es gibt nen Overhead durch Wine.)
Moin!
Tjo, dann ist's leider doch nur PCI-E 3.0 ×8.
Du könntest dieses Tool noch als "dritte Meinung" heranziehen, gibt eine Linux-Version: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613462
MfG
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.