Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
aufkrawall
2021-01-31, 16:07:05
Also zumindest ich fand die Karte bis 2000 rpm erträglich und bei 1600 rpm war sogar noch angenehm.
Es sind halt richtig gute 80er (?) Lüfter mit 0 Resonanzen bei egal welcher Drehzahl. Wenn ich kaufen würde, würde ich Stand jetzt auch am ehesten zum Referenzdesign greifen. Die Zeiten der OC-Gier liegen lange hinter mir und mit UV geht einiges.
dargo
2021-01-31, 16:08:19
Gibt den gleichen Kühler ja auf der 6900XT und die ist eigentlich immer Powerlimitiert.
Nicht @1440p, bestes Beispiel dürfte Valhalla sein.
nairune
2021-01-31, 16:12:05
@nairune Könntest du nochmal zusammenfassen, was mit der MSI problematisch war? Also
- Mit typischem UV Temps von Edge und Hotspot nach dem Aufheizen bei welcher Drehzahl und
- Lüftercharakteristik (subjektives Empfinden, Anlaufverhalten, Mindestdrehzahl)
Im Auslieferungszustand ist die Mindestdrehzahl identisch mit dem acoustic Limit, nämlich gut hörbare 1200 Umdrehungen ;D
Min-RPM lässt sich aber auf 600 senken.
Ich hatte das Temperaturziel für den Hotspot von 80 auf 85°C erhöht und den Verbrauch auf 200W beschränkt. Dennoch brauchte der Kühler knapp 1200 Umdrehungen dafür, das fand ich inakzeptabel für die riesige Kühlkonstruktion und den Preis. 1200 U/min sind schon nicht mehr "silent", so mit ~1050 hätte ich leben können. Möglicherweise war mein Modell etwas schlechter als "normal" und mit einem guten Sample hätte es mit 200W gepasst.
Höhere Drehzahlen hatten immer mal nervige Geräusche bei bestimmten Drehzahlen, mit einer Automatiksteuerung kann ich das nicht empfehlen. Wenn man sich bestimmte Drehzahlen mit besserer Charakteristik heraussucht, hätte man sich aber wohl eine entsprechende Lüfterkurve bauen können, die das berücksichtigt.
Langlay
2021-01-31, 16:19:35
Nicht @1440p, bestes Beispiel dürfte Valhalla sein.
Valhalla hab ich jetzt nicht, aber alle Spiele die ich in den letzten Woche gespielt habe, haben wenn sie nicht irgendwo FPS limitiert waren (Tarkov) immer das 255W PT ausgenutzt. Und zwar Stock und mit UV in 1440p. Ich hab ~80h Cyberpunk 2077 gespielt und die Karte war die ganze Zeit @255W.
Der Unterschied von Stock zu UV ist halt der Takt ~2.25GHz Stock vs. ~2.4 GHz UV.
dargo
2021-01-31, 16:21:54
Dann spielst du eher Games die stärker heizen. :wink:
Wiseman
2021-01-31, 16:55:42
Wow... netter Boost in Valhalla mit SAM @1440p im Benchmark. (y)
SAM Off = 93 avg.fps
SAM On = 109 avg.fps
Ist dieser Bench von dir? Dann hast du also schon deine neue SAM-taugliche CPU. 17% Boost ist IMO nicht nur nett, sondern gigantisch. Ich denke, im März/April steige ich auch auf einen SAM-tauglichen 8-Zylinder um.
dargo
2021-01-31, 16:59:50
Jo... ist mit nem 5800X.
btw.
Gigantisch ist für mich eher eine Leistungsverdoppelung. :wink:
Wiseman
2021-01-31, 17:04:45
Jo... ist mit nem 5800X.
btw.
Gigantisch ist für mich eher eine Leistungsverdoppelung. :wink:
Ich habe bewusst gigantisch gewählt, weil nett war mir denn doch viel zu bescheiden. Seufz, so sind wir vom Team Red halt, viel zu bescheiden. :biggrin:
Langlay
2021-01-31, 17:11:19
Dann spielst du eher Games die stärker heizen. :wink:
Ne, eine 6900XT heizt halt mehr als ne 6800XT. Um mit der 6900XT auf <250W GPU Power zu kommen muss man sich so richtig anstrengen. Mein läuft mit 1050mV (per MPT) und ich bin bei 250-260W im Schnitt mit 293W Powerlimit.
aufkrawall
2021-01-31, 17:14:34
Ich hatte das Temperaturziel für den Hotspot von 80 auf 85°C erhöht und den Verbrauch auf 200W beschränkt. Dennoch brauchte der Kühler knapp 1200 Umdrehungen dafür, das fand ich inakzeptabel für die riesige Kühlkonstruktion und den Preis. 1200 U/min sind schon nicht mehr "silent", so mit ~1050 hätte ich leben können. Möglicherweise war mein Modell etwas schlechter als "normal" und mit einem guten Sample hätte es mit 200W gepasst.
Ok, das ist eindeutig zu schlecht. Bei der Kühlermasse, drei größeren Lüftern und dem knappen PT sollte die Geräuschkulisse auf jeden Fall erhaben leise/angenehm sein.
Kurioserweise hat hier noch niemand etwas von störenden Resonanzen bei den 6800er Nitros berichtet. Hoffentlich liegt das wirklich an den neuen Lüftern, und nicht unempfindlicher Wahrnehmung der Besitzer. :D
Kann jemand etwas zur Mindestdrehzahl (ggf. Minimum per MPT auf 10% absenken) der Lüfter der Nitro sagen? Kann mich nicht erinnern, ob das hier schon Thema war.
horn 12
2021-01-31, 17:16:25
@Langlay
Wie sah deine Lüfterkurve und die Volt beim 6900XT Referenz aus.
Nun, 1500 bis 1600 sind nicht unangenehm.
Stören tun mich die 95 bis gerade erneut extrem Hohe 106 Grad Junction
Sah aber Lüfter war auf 50% begrenzt gewesen. Gleich auf 60% erhöht worden.
dargo
2021-01-31, 17:19:30
Ich habe bewusst gigantisch gewählt, weil nett war mir denn doch viel zu bescheiden. Seufz, so sind wir vom Team Red halt, viel zu bescheiden. :biggrin:
;D ;D ;D (y)
Ne, eine 6900XT heizt halt mehr als ne 6800XT.
Unsinn... beide Karten haben 255W PT Limit. Das einzige was möglich wäre ist, dass die 6900XT etwas schneller in ihr Powerlimit rennt als die 6800XT aufgrund von 8CUs mehr. Bisher dachte ich immer die 6900XT bekommt die Golden-Samples ab damit sowas eben nicht passiert. Also eine etwas bessere Spannungskurve als die 6800XT.
aufkrawall
2021-01-31, 17:21:48
Ich denke, im März/April steige ich auch auf einen SAM-tauglichen 8-Zylinder um.
Es könnte auch mit älteren Zens ordentliche Gewinne geben, sofern diese ein SAM-fähiges Bios haben.
Wiseman
2021-01-31, 17:29:39
Es könnte auch mit älteren Zens ordentliche Gewinne geben, sofern diese ein SAM-fähiges Bios haben.
Ich hab eine i5-8400 CPU auf einem H-370 Mainboard. Bei Intel kann man erst ab einem 470-er Mainboard per BIOS-Update Resizable BAR und somit SAM aktivieren.
vinacis_vivids
2021-01-31, 17:39:43
@dargo
wie sieht es aus bei SAM bei HZD?
Die +17%!!! bei 1440p umgemünzt auf 4K wären genial und sowas wie ein game-changer.
aufkrawall
2021-01-31, 17:44:18
Ich hab eine i5-8400 CPU auf einem H-370 Mainboard. Bei Intel kann man erst ab einem 470-er Mainboard per BIOS-Update Resizable BAR und somit SAM aktivieren.
Stimmt, mit nicht komplett neuen Intels wird das nichts. Aber auch mit Above 4G Decoding allein gewinnt man keinen Blumentopf, das scheint zumindest mit Zen und älteren Agesas ohne die zusätzliche SAM-Option im Bios mitunter (oder ausschließlich?) üble Performance-Probleme zu verursachen (warum auch immer).
Langlay
2021-01-31, 18:41:12
;D ;D ;D (y)
Das einzige was möglich wäre ist, dass die 6900XT etwas schneller in ihr Powerlimit rennt als die 6800XT aufgrund von 8CUs mehr.
Das meinte ich damit. Also zumindest meine 6900XT ist auch mit normalen UV eigentlich immer Powerlimitiert(255W). Da dies scheinbar bei den 6800XT anders ist sagte ich heizt die 6900XT halt mehr.
OgrEGT
2021-02-01, 06:44:40
Ok, das ist eindeutig zu schlecht. Bei der Kühlermasse, drei größeren Lüftern und dem knappen PT sollte die Geräuschkulisse auf jeden Fall erhaben leise/angenehm sein.
Kurioserweise hat hier noch niemand etwas von störenden Resonanzen bei den 6800er Nitros berichtet. Hoffentlich liegt das wirklich an den neuen Lüftern, und nicht unempfindlicher Wahrnehmung der Besitzer. :D
Kann jemand etwas zur Mindestdrehzahl (ggf. Minimum per MPT auf 10% absenken) der Lüfter der Nitro sagen? Kann mich nicht erinnern, ob das hier schon Thema war.
Min RPM liegt bei der Nitro 6800 nonXT bei 600 per Wattman... weiter runter war nicht nötig da unhörbar...
dargo
2021-02-01, 07:08:56
@dargo
wie sieht es aus bei SAM bei HZD?
Die +17%!!! bei 1440p umgemünzt auf 4K wären genial und sowas wie ein game-changer.
Kann ich dir noch nicht sagen da ich gestern halben Sonntag für nichts verplempert habe, siehe hier ab #12584. :mad:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=579614&page=630
Jetzt hatte ich einen Downgrade beim Bios gemacht und afaik hat das Bios 1602 kein SAM, erst das Neueste 1801 welches offenbar mit Zen3 kaputt ist. Das Bios 1602 hat auch schon SAM bzw. Resize BAR.
Asus Board hält. Was kaufst auch so einen Mist. Nach der Nummer die grad im CPU Support forum abgeht hätt ich da nen großen Bogen darum gemacht.
dargo
2021-02-01, 08:28:06
Als ob andere Hersteller besser wären. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12585424&postcount=12651
Das ist halt der Preis dafür wenn man neue Hardware zu früh kauft. Bei dem paar Tage älteren Bios 1602 mit AGESA V2 PI 1.1.9.0 sieht es jedenfalls bisher gut aus. Ich muss aber noch mehr testen um 100% sicher zu sein.
Komischerweise bekommen das die anderen aber hin. Asus bekommt AMD schon seit Pinnacle nicht mehr gebacken. Hab 2 B550 MSIs im Einsatz, bei beiden geht rezisable Bar mit unterschiedlichen Radeon-Configs völlig problemlos mit Zen+ und Zen2.
dargo
2021-02-01, 09:17:34
Keine Ahnung was du jetzt mit deinem OT @SAM willst. :rolleyes: Das war gar nicht das Problem.
Asus bekommt AMD schon seit Pinnacle nicht mehr gebacken.
Mein ASUS X370-Pro läuft blendend mit dem R5 3600. War ein erstklassiges Board.
War ja auch nur als Beispiel für schnellen und sauberen Support gedacht.
Ich will dich deswegen nicht ankacken, aber die Häufigkeit der "Ausfälle" bei Asus ist doch frappierend mMn und finde ja deren Mobo-Sparte schon seit Jahren überschätzt.
dargo
2021-02-01, 09:34:34
Ich nicht. MSI wäre für mich eh keine Option bei B550 da ich dort keinen ALC 1220 bekomme, 1220P gibts erst ab >260€. Und ob MSI bei den Spawas in vergleichbarer Preisklasse mithalten kann (Kühlung) müsste ich auch erst schauen.
Wie wärs mit ner AE5. Dieser Onboardscheiss kann dagegen eh nichts ausrichten. Und die hält auch über die nächsten Boards hinaus. Also wegen Soundcodec hätt ich aber unter Garantie kein Board ausgewählt. Und MSI ist vom VRM immer so weit over the top, dass du ne Kühlung nicht mal theoretisch bräuchtest. Das X570 Tomahawk ist mit 12 60A SPS ausgestattet. B550 EW und Tomahawk haben derer immerhin noch 10, allerdings sind die von der PCIe-Aufteilung kacke. Das Tomahawk kannst du komplett ohne VRM-Kühler betreiben mit nem 5950X, ohne dass das Probleme macht. Nicht falsch verstehen, das Strix-F ist gut bestückt, aber die VRM-Kühlung ist selbst bei dem Brett scheissegal, das würde auch ohne laufen. Wenn die Stromversorgung stimmt brauchst dir um die Kühlung keine Sorgen machen, das ist also ebenfalls kein Kaufargument. Beim X570-Edge-Wifi von MSI, das nur mit MOSFETs bestückt ist ist das was anderes aber bei 12 Phasen (S)PS? Das ist ja lächerlich.
dargo
2021-02-01, 09:41:03
Könntest du wieder zum Threadthema zurück kehren? Ich habe mich schon längst entschieden und so wird es auch bleiben. Keine Ahnung was du mir hier anzudrehen versuchst. :confused:
vinacis_vivids
2021-02-01, 09:54:53
Ist zwar etwas OT Leute, aber ich hab während des Hardwareupgrades, zuerst Intel i5 -> R9 3900X , RX480 -> RX5700XT -> RX6800 mir auch ein neues NT geholt. Mein 5 Jahre altes NT hat 1000W 80 Gold+ Zertifizierung und die Spannung war schon bei der Beobachtung im BIOS und diversen Tools etwas von den Standardspannungen auf der 3.3V, 5V und 12V Schiene abgewichen.
Ich habe auch schon mehrfache Erfahrung im mGPU Systemen, die noch mal ganz anderes reagieren als sGPU Systemen, vor allem unter Spitzenlast.
Das neue NT hat 1200W und eine noch bessere 80+ Effizienz.
Mainboard Sache: Asus MB will ich jetzt weder groß loben noch tadeln, aber ich mache einen langen Bogen um deren MBs.
Asrock, Gigabyte und MSI sind für mich die Bretter zum sicheren surften bei AMD. Bei High-End System kommts wirklich auch auf die Stromanbindung (VRMs, Layer, Layout) an und während des OCs ist alles nochmal ~10fach sensibler.
Wie auch immer, ich statte mein System ja mit zwei oder drei RX 6800 aus und denke da einfach in größeren Maßstäben, Reserven und OC Potential. Mein R9 3900X erreicht eine sCore Taktspitze von ~ 4.65Ghz und 4.05Ghz AllCore ohne große Mühe. Das ist schon deutlich mehr als die AMD-Angabe und ich bin sehr sehr zufrieden.
Wie auch immer, wenn das neue NT da ist, teste ich das mGPU System mit zwei NTs um da zu schauen was so passiert :->
Seit Ewigkeiten wieder ein mGPU System, JUHU :-D
dildo4u
2021-02-01, 11:28:28
30 Game Benchmark mit neueren und älteren Games.
dAtsqtYIF5U
Lowkey
2021-02-01, 12:01:06
Arbeitet Dildo4u für Hardwareunboxed?
vinacis_vivids
2021-02-01, 12:38:06
Habe jetzt die RX 6800 Referenz eingebaut. Ich muss schon sagen: Ist sehr hochwertig verarbeitet und braucht sich grundsätzlich vor keiner Custom verstecken.
Diesmal hat AMD & Partner sehr sehr gute Arbeit geleistet im vg. zur RX5700Xt ref. , Vega64 Ref. und RX480 Ref., die alle mit dem blower gekommen sind :freak:
Mal schauen ob der blower vllt. in verbesserter Form wieder in Umlauf gebracht wird oder nicht.
Egal, ich berichte mal was so bei meiner Karte abgeht :freak:
Allererster Run: Superposition 4k,6800 ref. @ default, max. 85°C tjunction Temperatur.
Lowkey
2021-02-01, 13:14:44
3DMark Timespy laufen lassen => 14500-15000 => alles i.O.
Dann PT auf +15% stellen und laufen lassen.
Ex3cut3r
2021-02-01, 14:25:46
30 Game Benchmark mit neueren und älteren Games.
https://youtu.be/dAtsqtYIF5U
Schon krass IMO. Gleiche Performance @ 1440p und @ 4k 6% langsamer. AMD hat einfach mal den jahrelangen hoffungslosen Abstand mit einer GPU Gen egalisiert.
Jetzt hat Nvidia nur noch das Argument DLSS und RT.
Szudri
2021-02-01, 14:39:32
Schon krass IMO. Gleiche Performance @ 1440p und @ 4k 6% langsamer. AMD hat einfach mal den jahrelangen hoffungslosen Abstand mit einer GPU Gen egalisiert.
Jetzt hat Nvidia nur noch das Argument DLSS und RT.
Was heißt nur noch? Ist bei den meisten doch der Heilige Gral als Entscheidung.
Ex3cut3r
2021-02-01, 14:45:05
Eigentlich richtig schade, dass die Liefersituation momentan so schwierig ist, eigentlich hätten die sich einen richtigen Preiskampf um jeden Kunden bieten müssen, und am ende hätten Wir davon profitiert und wahrscheinlich ne 3080 und 6800 XT für 500€ gesehen.
6800 non XT für 950€ und die wird auch noch gekauft....naja ist sag lieber nix....sonst werde ich nur gesperrt.
Lowkey
2021-02-01, 15:02:03
Es gibt keinen Preiskampf mehr. Ich kann mir sogar vorstellen, dass die Preise bei der nächsten Generation bei allen Herstellern angehoben werden. Eine 7800XT für 650 Euro wird es nicht mehr geben, wenn die Leistungssteigerung vergleichbar ist.
Eine Custom 6800XT für 850 Euro ist knapp über Listenpreis, aber der Hersteller verdient fast nichts dran (Marge des Händlers dürfte höher sein). 1000 Euro sind fast angemessen und werden aktuell auch bezahlt.
Grad freuen sich die Custom 3060Ti Käufer über Custom Karten unter 600 Euro, also rund 40% Aufpreis sind okay.
Thunder99
2021-02-01, 15:05:31
Der Markt ist verzerrt. Sowas muss nicht jede Generation passieren...
Ex3cut3r
2021-02-01, 15:08:38
Es gibt keinen Preiskampf mehr. Ich kann mir sogar vorstellen, dass die Preise bei der nächsten Generation bei allen Herstellern angehoben werden. Eine 7800XT für 650 Euro wird es nicht mehr geben, wenn die Leistungssteigerung vergleichbar ist.
Eine Custom 6800XT für 850 Euro ist knapp über Listenpreis, aber der Hersteller verdient fast nichts dran (Marge des Händlers dürfte höher sein). 1000 Euro sind fast angemessen und werden aktuell auch bezahlt.
Grad freuen sich die Custom 3060Ti Käufer über Custom Karten unter 600 Euro, also rund 40% Aufpreis sind okay.
Blödsinn. Natürlich gebe es den! Den gab es nur all die Jahre nicht, da AMD nicht konkurrenzfähig war. Die Preise auch momentan sind dem geschuldet, weil die Auswahl zu knapp ist. Händler sehen ja selber, oh ich bin der einzige der eine 6800 XT anbietet? Ok. Zak 1300€! Ganz einfach. Mal sehen, wie die Sache im September aussieht. Aber ja, dass sich die Leute tatsächlich von Konzernen so in den "Arsch ficken lassen" und 750€ für eine 3060Ti, 950€ für 6800 non XT und 1250€ für ne 3080 zahlen, hätte ich auch nicht gedacht. :freak:
Hier wurde jahrelang über APPLE's Preise gelästert und die Kunden wurden schlimme Sachen zugerufen, und was machen jetzt unter anderen diese Leute? Richtig GPUs für lächerlich Preise bezahlen.
Lowkey
2021-02-01, 15:16:46
Preiskampf bei einem Oligopol?
Ex3cut3r
2021-02-01, 15:20:14
Bist du irgendwie neu dabei oder so?
Den gab es z.B. 2013 auch noch. Und da waren es auch nur 2 Firmen. Und lass doch deine Wirtschafts Fachbegriffe stecken, du musst mir nicht zeigen, dass du gebildet bist.
aufkrawall
2021-02-01, 15:24:39
Da man Intel schwerlich mitzählen kann, ist es wohl eher ein Duopol *klugscheiß*. ^^
Mr. Lolman
2021-02-01, 15:27:25
Es gibt keinen Preiskampf mehr. Ich kann mir sogar vorstellen, dass die Preise bei der nächsten Generation bei allen Herstellern angehoben werden. Eine 7800XT für 650 Euro wird es nicht mehr geben, wenn die Leistungssteigerung vergleichbar ist.
Selbst 650€ sind für eine 6800XT schon grenzwertig. Ich seh auch nicht ein, warum Customdesignsn (deutlich) teurer sein sollten. Wegen dem RGB-Blingbling, oder dem höheren Verbrauch? Zu Nvidia sag ich hier mal nichts, was die preispolitisch abziehen, ist ja schon seit 20 Jahren ziemlich jenseitig.
Lowkey
2021-02-01, 15:32:19
Die Masse kauft Grafikkarten für 500 Euro. Wie kann man es ändern? Garnicht! Man kann es nur akzeptieren.
Richtige Angebote bei Grafikkarten gab es schon sehr lange nicht mehr.
r3ptil3
2021-02-01, 15:46:08
Die Masse kauft Grafikkarten für 500 Euro. Wie kann man es ändern? Garnicht! Man kann es nur akzeptieren.
Richtige Angebote bei Grafikkarten gab es schon sehr lange nicht mehr.
Ab Mai/Juni beruhigt sich das ganze wieder.
RoNsOn Xs
2021-02-01, 17:33:15
Ich habe noch im Juli 2016, so ziemlich als die gtx 1060 raus kam, 280€ für hin gelegt. War selbst überrascht als ich mir das vor ein paar Tagen nochmal angeschaut habe. Aktuell warten wir auf die 3060ti zu einem vernünftigen Kurs. Haben Zeit.... :)
Dass aktuell die Preise jenseits von gut und Böse sind, sollte niemand anzweifeln.
Nightspider
2021-02-01, 18:22:11
Es gibt keinen Preiskampf mehr.
Genau und deswegen ist Nvidia mit der aktuellen Gen bei der UVP drastisch im Preis runtergegangen. ;D
Wenn die PC Hardware nur noch teurer werden würde, würden viele zu den Konsolen wechseln und der PC Markt würde schrumpfen.
vinacis_vivids
2021-02-01, 18:56:37
Also, für Leute die HZD 4K@Ultimate ~ 60fps "smooth" spielen wollen, ist die RX6800@default perfekt geeignet.
Bin da ne jetzt runde rumgelaufen, um die Grafikpracht, Landschaft usw. zu bewundern. Alles sehr beeindruckend, schön scharf und detailliert.
Die Referenz RX6800 ist flüsterleise, ohne OC-Spielereien (die ich auch noch machen werde) nahezu unhörbar.
Tjunction ohne Optimierung steigt beim längeren Spielen und Aufheizen auf ~88°C.
Für mich hat sich die Aufrüstung von der RX5700XT gelohnt, weil da waren mit sehr gutem OC 35-40 fps drin und nun out of the box macht die RX6800 ~60fps, also ~50% Mehrleistung bei 4K@Ultimate.
Taktrate sind bei beiden GPUs 2.0 - 2.1 GHz.
Ja, ab da (4k) limitiert auch schon mein Monitor mit 4K@60hz. Nach 5 Jahren!!! bin ich endlich im "NextGen" angekommen.
Davor war/ist auch einiges mit der RX5700XT möglich gewesen, aber HZD@4K Ultimate war/ist eines der triftigen Gründe für die Aufrüstung gewesen.
4K Ultra verbreitet sich ja gerade als Standard und ich kann mir sehr gut vorstellen, dass das Game auf einem größeren Fernseher eine extrem geile showcase für neuere 3D-Tech ist.
Die sehr gute Luftkühlung ist im übrigen am Limit. Bin gespannt ob/was bei mir UV bringt. Geiler ist natürlich die 6900XT, aber für 800€ ne RX6800 kann man nicht meckern. So viel hab ich im übrigen noch nie für ne GPU gezahlt 😂.
HZD verbraucht sehr gut VRAM und >11GB werden da schon gut belegt. Da sind die 16GB hervorragend und haben noch Reserven für einige Spiele.
Alsolut Top Karte und jeder der ne RX6800/XT oder 6900XT sein Eigen nennt, weiß wovon ich rede.
Das Herz für ne hervorragende GPU schlägt wieder hoch, vor allem weil es von AMD ist.
Als langjähriger AMD-Käufer, der nun schon einige GPU-Generation mitgemacht hat, ist Navi21 der absolute Durchbruch für AMD.
So eine gute Leistung gepaart mit toller Bildqualität zusammen gab's das letzte Mal mit der HD5850 oder Radeon 9500.
horn 12
2021-02-01, 19:43:33
Nun, hats gleich viel Bezahlt wie ich circa für die 6800
Nun, eine 6800XT für 810 gekauft ... und nochmals Glücklicher
ausser der Hohen T-Junction mit ca. 1550 bis 1650 U/min ---- aber ist eben so!
Lurtz
2021-02-02, 14:45:20
Genau und deswegen ist Nvidia mit der aktuellen Gen bei der UVP drastisch im Preis runtergegangen. ;D
Wenn die PC Hardware nur noch teurer werden würde, würden viele zu den Konsolen wechseln und der PC Markt würde schrumpfen.
Wo sind sie denn runter gegangen? 3070 und 3080 sind spätestens als Customs teurer als die Vorgänger und schlecht mit VRAM bestückt. Irrer Preiskampf...
vinacis_vivids
2021-02-03, 14:12:06
RX 6800 Linux Performance
https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-3months&num=1
Butter
2021-02-03, 15:55:32
Was ist denn jetzt wichtiger Raytracing Performance oder Videospeicher?
/Locutus oB
2021-02-03, 17:25:13
Was ist denn jetzt wichtiger Raytracing Performance oder Videospeicher?
sollte jeder für sich selbst entscheiden...
Muc-ster
2021-02-03, 17:58:05
Reicht ein beQuit straight Power 10 600W für eine 6800(XT)?
vinacis_vivids
2021-02-03, 18:10:24
RX 6800 non XT ist sehr genügsam, also ja (250W)
RX 6800 XT braucht mehr Reserven und mehr Strom, leistet ja auch mehr (300W)
Bei 600W würde ich nicht höher gehen als die RX 6800 non XT. AMD`s Emfehlung liegt bei 650W NT.
Muc-ster
2021-02-03, 21:35:49
Ok, danke.
Preise sind eh zu hoch derzeit :)
dargo
2021-02-04, 07:34:36
Das wird auch nichts mehr mit den Preisen kurzfristig imo. Die Sapphire RX 6800 XT NITRO+ liegt aktuell bei 1189€ bei MF. Die lag schon mal bei 999€.
horn 12
2021-02-04, 19:05:45
Kommt wohl nix oder kaum mehr was nach in den nächsten 4 - 6 Wochen
Sage nur: China Neujahr.
Meine RX 6800 für 770 Euro verkauft...
Gab wohl heute wieder einen Schwung bei AMD direkt.
Edit: Falscher Thread, sorry.
aufkrawall
2021-02-05, 12:49:55
5700 XT killt 2080 Ti ^^ :
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/nioh-2-the-complete-edition-test-gpu-cpu
dargo
2021-02-07, 09:53:03
Ich habe mal ein Video von Valhalla aufgenommen wie das bei mir nun thermisch aussieht. R7 5800X @4,6GHz und 1,2V Allcore + Merc 319 RX 6800XT @220W PT und 1043mV über Wattman. Geschlossenes Gehäuse versteht sich (Delta Gehäuse offen/geschlossen liegt bei mir eh nur bei ~3°C).
P-061fqW39M
Durchgehend Boostlimit. :tongue:
horn 12
2021-02-07, 13:28:46
Nun, 1440 wohlgemerkt
Da sind die Temp weitaus BESSER als unter 4K
Dies macht locker 10+ bis gar 15 Grad Celsius aus, zumindest beim Hotspot
da sich die Karte nie ausruhen kann.
dargo
2021-02-07, 13:32:15
Ist Unsinn Horni! Bei 4k würde meine Karte gelegentlich ins Powerlimit von 220W laufen und der Hotspot würde dennoch bei unter 80°C bleiben. ;)
horn 12
2021-02-07, 13:40:41
Nun, kann gut sein...
Erhöhe mal auf das Stock PL mit Minus 6 Prozent, also max. 239 Watt wie es Stock zulässt die XT.
Ok, hast nur 203 Watt sehe ich!
Dies ist der Wert der Non XT- Also Untervoltet womöglich und PL reduziert.
Da können die Werte schon hinkommen
Interessant wäre mal 4K und Wallhalla @Aber zugegeben der Lüfter ist echt Spitze bei der Merc, vor Allem bei diesem PowerLimit.
1100 U/min quasi kaum bis so gut wie nicht hörbar.
dargo
2021-02-07, 13:55:37
Ich werde da gar nichts erhöhen, den perfekten Betriebspunkt habe ich schon längst gefunden.
btw.
In Valhalla bringt eine PT-Erhöhung sowieso nichts, da schon 220W @1440p nicht erreicht werden.
neue Linux-Benchmarks, Vergleich mit nvidia https://www.phoronix.com/scan.php?page=article&item=gpus-feb-2021&num=1
-/\-CruNcher-/\-
2021-02-09, 10:12:44
Für die 3070 einfach ~ 10 FPS auf die 3060 TI draufrechnen
Mit DLSS + 20 + 10 = + ~ 30 OC 35-40
oder einfacher einfach - 5-10 FPS von der 6800
die 2080 TI ist nicht voll vergleichbar wenn die bandbreite eine größere rolle spielt
Hardwarious
2021-02-09, 16:33:26
Würde so gerne von meiner RTX 3070 auf eine RX 6800 wechseln. Aber die Dinger sind echt rar oder sehr überteuert.
r3ptil3
2021-02-09, 16:46:02
Würde so gerne von meiner RTX 3070 auf eine RX 6800 wechseln. Aber die Dinger sind echt rar oder sehr überteuert.
Das klingt wie als ob jemand aktuell von 30fps rauf will auf 80.
Was erhoffst du dir denn davon? :confused:
vinacis_vivids
2021-02-09, 17:34:09
Doppelter Speicher, mehr Leistung, deutlich bessere Effizienz, potentere OC-Eigenschaften und längere Lebensdauer durch bessere Technik.
Einzig das fragwürdige DLSS und das überhypte Cyberpunk steht den hartgesottenen der grünen Fraktion zur Verfügung gepaart mit überteuerten Preis. Da braucht man nicht mal Sachverstand um zu erkennen, dass die RX6800 deutlich besser ist.
r3ptil3
2021-02-09, 17:43:29
Doppelter Speicher, mehr Leistung, deutlich bessere Effizienz, potentere OC-Eigenschaften und längere Lebensdauer durch bessere Technik.
Einzig das fragwürdige DLSS und das überhypte Cyberpunk steht den hartgesottenen der grünen Fraktion zur Verfügung gepaart mit überteuerten Preis. Da braucht man nicht mal Sachverstand um zu erkennen, dass die RX6800 deutlich besser ist.
Totale Verdrehung von Tatsachen.
Speicher: Bringt rein gar nichts, denn wenn man in den hohen Auflösungen und Settings irgendwas spielen will wo auch die 16Gb genutzt werden, hat man so oder so nicht genügend Leistung.
Leistung: Die RX 6800 ist da vorne, ganz klar, trotzdem die paar % merkst du real nicht.
Effizienz: 1-3% effizienter, das ist ein Gleichstand.
OC-Eigenschaften: Mit OC holt man prozentual deutlich mehr Leistung aus der RTX 3070, als aus einer RX 6800.
Lebensdauer/Technik: Ein Nachteil ist der Speicher nicht, aber technisch bzw. softwaretechnisch ist eine RTX 3070 einer RX 6800 überlegen. Raytracing, Monitor/VRAM Support...
Es geht darum, dass er von einer RTX 3070 auf eine RX 6800 umsteigen will.
Bei einem Neukauf, würde ich mir auch eine RX 6800 holen, aber ein Umstieg lohnt sich einfach nicht, ausser man macht Gewinn mit der 3070.
Ich hoffe wirklich du bekommst dafür Geld oder gratis Grafikkarten.
aufkrawall
2021-02-09, 17:54:38
Speicher: Bringt rein gar nichts, denn wenn man in den hohen Auflösungen und Settings irgendwas spielen will wo auch die 16Gb genutzt werden, hat man so oder so nicht genügend Leistung.
"Rein gar nichts" ist offensichtlich übertrieben.
Effizienz: 1-3% effizienter, das ist ein Gleichstand.
Sind laut Igor 9,4% in 1440p ohne SAM.
OC-Eigenschaften: Mit OC holt man prozentual deutlich mehr Leistung aus der RTX 3070, als aus einer RX 6800.
Der CB-Test sagt das Gegenteil.
Lebensdauer/Technik: Ein Nachteil ist der Speicher nicht, aber technisch bzw. softwaretechnisch ist eine RTX 3070 einer RX 6800 überlegen. Raytracing, Monitor/VRAM Support...
Jo, z.B. Raytracing in WoW mit mittelmäßiger Performance und Flackerschatten. Allerdings auf Nvidia...
vinacis_vivids
2021-02-09, 17:54:59
@barth
Fragt doch mal hier im Thread, ob jemand seine RX6800 16GB freiwillig weggibt für eine RTX3070 8GB.
Das ist (fast) dasselbe als ob jemand seine R9 390X 8GB gegen eine GTX 970 "4GB" tauscht.
Quote: 0,0%, niemand macht das.
Die 10bit & 12bit HDR Mega-Texturen im NextGen sehen mit 16GB nunmal deutlich besser aus als mit komprimierten 8GB, das ist ein sehr harter technischer "hard fact". Da kann Nvidia mit dem DLSS kram und RT nichts rauszaubern. Das ist ganz einfach, wieso machst du es dir so kompliziert?
r3ptil3
2021-02-09, 18:01:35
Nochmals bei einem Neukauf ist klar die RX 6800 vorzuziehen, aber bei ihm ging es darum "upzugraden".
Effizienz (Computerbase (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-performance-pro-watt-2560-1440)):
https://i.ibb.co/BKWSKcg/eff.jpg
RTX 3070 default und OC:
https://www.guru3d.com/articles_pages/geforce_rtx_3070_founder_review,31.html
RX 6800 default und OC:
https://www.guru3d.com/articles_pages/amd_radeon_rx_6800_review,33.html
Übrigens ich hatte selber sowohl eine RX 6800, als auch eine RTX 3070.
DrFreaK666
2021-02-09, 18:04:03
Wollt ihr euch wirklich wegen Overclocking streiten? Dass unterschiedliche Karten unterschiedlich gut übertakbar sind, ist euch ja wohl bekannt.
aufkrawall
2021-02-09, 18:08:33
Nochmals bei einem Neukauf ist klar die RX 6800 vorzuziehen, aber bei ihm ging es darum "upzugraden".
Effizienz (Computerbase (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-performance-pro-watt-2560-1440)):
CB testet nur drei Spiele, von denen zwei NV besser liegen als der Testdurchschnitt. Also fürn Hintern.
Die Wahrheit sieht eher so aus: https://www.techpowerup.com/review/powercolor-radeon-rx-6800-red-dragon/36.html
Ravenhearth
2021-02-09, 20:04:06
Würde so gerne von meiner RTX 3070 auf eine RX 6800 wechseln. Aber die Dinger sind echt rar oder sehr überteuert.
Du kannst deine 3070 doch für >800€ verkaufen :freak:
DrFreaK666
2021-02-09, 20:18:16
Die Wahrheit sieht eher so aus: https://www.techpowerup.com/review/powercolor-radeon-rx-6800-red-dragon/36.html
Die VII ist effizienter als eine 1060?
Danke für den Hinweis ;) Entweder Fehler oder aber 0 Performance für ein wenig Watt in dem Benchparcours.
hq-hq
2021-02-09, 21:32:59
Die VII ist effizienter als eine 1060?
im Artikel steht:
114Watt VS 264Watt
die Radeon VII muss also mindestens immer 230% der 1060 abliefern...
das schafft sie nur in 4k
23,1fps VS 53,6fps
ist also ein etwas gemeiner Verlgeich nur 4k für die Effizienz heranzuziehen :biggrin:
aber braucht die VII nur 264Watt in 4k Games ? das klingt nach so wenig ^^
-> die RX 6800 ist bissl schneller in 4k und braucht nur 3Watt mehr wie die 3070 ... naja das ist halt echt abhängig welche Games du als Vergleich nimmst
Gaming Wattangaben werden sich schon auf 4k beziehen... obwohl es schon komisch ist das die 1080Ti da nur 235Watt nuckeln soll.. das waren eher so >300Watt
Ah okay powerlimits sind 121watt 1060, 300watt VII, 250watt 1080ti. In 4k sollten die alle am limit laufen.
nairune
2021-02-11, 11:30:59
Es hat hier doch der ein oder andere eine Referenz:
Igors Tests von 6800/XT und 6900 XT verwirren mich ein wenig. Bei der 6900 wird der Speicher ziemlich warm trotz ähnlich drehender Lüfter wie bei den 6800ern. Ist der Speicher ein Problem beim Referenzdesign, wenn man die Lüfter langsamer laufen lässt? Schätze ich würde irgendwo 1000-1200 Umdrehungen landen, je nachdem wie sie klingen.
Überlege die Referenz als nächstes zu testen (wenn ich eine bekomme). Entweder die schwierig zu bekommende 6800 XT, wo dann der Preis passt, oder im Notfall eine 6900 XT - immer noch leicht billiger als 6800 XT Customs und den dicken Chip kann ich noch niedriger takten.
P.S.: ich hatte von blackscreens mit der MSI berichtet. Jetzt stellen sie ein BIOS Update dagegen bereit, hatte irgendjemand was verkackt mit der Karte. Lag also nicht an mir bzw meinem System.
vinacis_vivids
2021-02-11, 11:51:59
Die VII ist effizienter als eine 1060?
Klar, wieso denn auch nicht?
In 4K kann die 1060 zwar 120W verballern aber eben nur 4 fps auf die Straße bingen. Währenddessen macht die Radeon VII aus den 300W eben 30 fps. Da ist die Effizienz einfach höher.
1060: 120W / 4fps = 30W/frame
R VII: 300W / 30fps = 10W/frame
Die Radeon VII verbraucht nur ein Drittel für die gleiche Leistung. Das ist Effizienz pur.
vinacis_vivids
2021-02-11, 19:59:04
WYUOZE_ecFk
Die Frostbite Engine haut 120-150fps bei 4K@Ultra mit der 6800XT raus :tongue:
Langlay
2021-02-11, 22:25:47
Die Frostbite Engine haut 120-150fps bei 4K@Ultra mit der 6800XT raus :tongue:
Die Karte ist allerdings übertaktet und nicht Stock.
Prinzenrolle
2021-02-11, 22:53:07
Doppelter Speicher...
Was das einzig greifbare Argument für die AMD Karte ist, welches mal wieder erst in ein oder zwei Jahren eine Rolle spielen dürfte und dann eher vorerst Full HD /WQHD ausgenommen, zudem ist die Nvidia Karte günstiger.
Doppelter Speicher...
In Full HD und WQHD? Eher nicht, in 4K ja.
Das ist aber auch nicht das Einsatzgebiet für die 3070, wer da den Fokus drauf legt, muss den Hunni drauflegen, wobei eine 6800 für 4K auch schon etwas lahmt, da würde ich dann eher mindestens die 6800XT kaufen.
deutlich bessere Effizienz...
Die Effizienz ist je nach nach Test mal bei AMD, mal bei Nvidia besser, wobei bei aktiviertem RT und DLSS die Nvidia Effizienz schon ein großes Stück besser ist.
, potentere OC-Eigenschaften und längere Lebensdauer durch bessere Technik.
OC Eigenschaften sind vergleichbar. Technik mangels Deep Learning Super Sampling eher zurück.
Da braucht man nicht mal Sachverstand um zu erkennen, dass die RX6800 deutlich besser ist.
Sachverstand hast du nicht, das geb ich zu.;D
vinacis_vivids
2021-02-11, 23:45:10
Komm mir bloß nicht mit DLSS.
Die von Nvidia unterstützen Engines mit DLSS krebsen bei 4K@Ultra bei schlechter Grafikpracht bei 30-40fps rum und machen dann die BQ noch schlechter um auf 60 fps zu kommen.
RDNA mit Frostbite haut da mal 120-160fps bei 4K@Ultra raus. Das ist die 2-3 Fache Leistung bei besserer BQ. Nur mal so ins Verhältnis richtig gerückt.
Hitman 3 mit Glacier Engine macht ebenfalls ~140fps mit 4K@Ultra mit der 6900XT. Das ist technisch sauber programmierte Grafikpracht.
Id Tech 7 mit Doom Eternal gehört ebenfalls dazu.
Zusatzpointe: Du willst mit Nvidia`s 8GB Speicher die Texturen bei Horizon Zero Dawn doch gar nicht sehen, schön mit der Waschmaschine ausgewaschen. Nvidia-Gamer wollen jetzt schon bei Cyber-Punk den Monitor "schärfer" stellen, weil sie merken, dass das Bild durch die krasse Speicher,- und Bandbreitenkomprimierung unscharf geworden ist. :freak:
Ich mag scharfe, farblich knackige und technisch sauber gerenderte Bilder ohne Kompromisse, und da ist Nvidia`s Black-Box Rendering für mich schon sei über einer Dekade aus dem Rennen. :biggrin:
Ich meine, ich kanns ja auch verstehen, wer will schon als langjähriger NV-Marketing-Fan und Käufer mit wenig technischen Kenntnissen, und davon gibs sehr sehr viele, seine Kaufreue hier äußern und zugeben, doch in Klo gegriffen zu haben?
Zugeben, dass man falsch liegt und dazu noch zusätzlich eine schlechte finanzielle Entscheidung getroffen hat, das ist schon schwierig und braucht wahre Größe in der Persönlichkeit und eine gewisse Reife. Und das haben die allermeisten nicht, weil es bedeuten würden dass sie einen Fehler einsehen, aber das sehen sie nicht und wollen&können es auch nicht sehen.
Zum Glück bin ich mit meiner Sehschärfe sehr gut gesegnet und kann hervorragend Kontraste und Farben mit kristallklarer Klarheit unterscheiden, dafür bin ich auch sehr dankbar.
Ich wurde auch schon mal für diese Aussage gesperrt, aber ich wiederhole es gerne nochmal: Meine Augen bzw. mein Sehlicht sind mir persönlich zu schade um ausgewaschene Texturen durch Kompression und durch geheime Rederingtricks verursachte Unschärfe antun zu wollen.
Denen, die bei Nvidia (8GB superduper Kompression und Unschärfe) absolut zufrieden und überglücklich sind, denen kann ich auch nicht helfen.
Und siehe da, gucke sich das mal einer an:
Godfall mit Hardware Ray-Tracing zuerst für die RX6800/6900er Reihe mit Leistungsverlust = 0% :biggrin:
KrnYekx58TY
Szudri
2021-02-12, 07:50:57
Was das einzig greifbare Argument für die AMD Karte ist, welches mal wieder erst in ein oder zwei Jahren eine Rolle spielen dürfte und dann eher vorerst Full HD /WQHD ausgenommen, zudem ist die Nvidia Karte günstiger.
Das mit dem Speicher ist aber auch eher ein Mangel bei den Entwicklern. In RE2:Biohazard sagt der mir in den Optionen, dass 13,6GB VRAM nötigt sind mit den Einstellungen. Das Spiel geht nicht ein BYTE über 8GB. Scheint mir eh so zu sein, dass viele ein Hardcap eingebaut haben.
Prinzenrolle
2021-02-12, 19:02:06
Komm mir bloß nicht mit DLSS.
Die von Nvidia unterstützen Engines mit DLSS krebsen bei 4K@Ultra bei schlechter Grafikpracht bei 30-40fps rum und machen dann die BQ noch schlechter um auf 60 fps zu kommen.
Ich habe DLSS vollumfänglich in Spielen gegen andere Modi getestet und es ist hervorragend, wenn man den FPS Gewinn noch betrachtet.
Die Qualität ist mit der nativen Auflösung vergleichbar, somit ist es das beste und effizienteste Glättungsverfahren, welches im Moment existiert.
Du lügst dir in deine eigene Tasche, vor allem dann wenn du Engines mit Grafikkartenherstellern in Verbindung bringst, was soll das für einen Sinn haben?
RDNA mit Frostbite haut da mal 120-160fps bei 4K@Ultra raus. Das ist die 2-3 Fache Leistung bei besserer BQ.
Und mit ordentlich implementierten DLSS würde die Engine noch mehr raushauen, sofern die CPU nicht limitiert...
Hitman 3 mit Glacier Engine macht ebenfalls ~140fps mit 4K@Ultra mit der 6900XT. Das ist technisch sauber programmierte Grafikpracht
Hitmen 3 bietet ja auch eine altbakkene Grafik.:redface:
Meine Augen bzw. mein Sehlicht sind mir persönlich zu schade um ausgewaschene Texturen durch Kompression und durch geheime Rederingtricks verursachte Unschärfe antun zu wollen.
Wieso spielst du dann überhaupt aktuelle Spiele.
Bevor nicht Pathtracing einzug hält, ist alles mehr oder weniger getrickst.
Godfall mit Hardware Ray-Tracing zuerst für die RX6800/6900er Reihe mit Leistungsverlust = 0% :biggrin:
Inline Raytracing, kostet nicht so viel Leistung. Auch auf Nvidia Karten nicht.
RT habe ich mit NV nicht angemacht und tue es nun mit AMD auch nicht. Wenn jemand in einzelnen Szenen auf Klickibunti steht - okay. Normalerweise fällt es allerdings ingame kaum auf, da lediglich behutsam eingesetzt. Bis RT wirklich an Bedeutung gewinnt, dauert es imo mindestens bis 2025 - erst dann wird es die Spielegrafik sinnvoll aufwerten. Bis dann ist es nicht der Rede wert.
@Prinzenrolle. Du kannst ja gerne glauben, das DLSS in der Form und über Tensor-Kerne bleiben wird.
Ich denke nicht, das es in der Form bleiben wird.
Das ist nur eine zweit Verwendung von "überflüssigem Profizeugs" auf den eigentlichen "Gamer Karten"....
M.f.G. JVC
kleeBa
2021-02-14, 23:32:31
Division 2 krallt sich in der Startbase laut Adrenalin Overlay 13 GB VRAM in UWQHD.
Sicher auch kein Problem mit einer 3080, aber die 8GB bei einer 3070...
Wobei die 3070 wohl eher nichts für solche Auflösungen ist.
dargo
2021-02-15, 07:46:23
Bitte nicht schon wieder Adressierung mit "brauchen" gleichsetzen! :usad: Ich konnte Division 2 ohne Probleme mit der 5700XT @1440p spielen.
Ich konnte Division 2 ohne Probleme mit der 5700XT @1440p spielen.
Und woher weist du, wie oft er aus Speichermangel zu niedrigeren Texturen gegriffen hat?
Klar, das das reine adressieren nicht wirklich den benötigten Speicher zeigen muss.
Aber auch klar ist, das ein flüssiges Spiele-Erlebnis nicht heißen muss das der Ram tatsächlich für die volle Pracht reicht.
M.f.G. JVC
dargo
2021-02-15, 11:03:28
Und woher weist du, wie oft er aus Speichermangel zu niedrigeren Texturen gegriffen hat?
Bitte weniger bullshit verbreiten, danke.
Bitte weniger bullshit verbreiten, danke.
OK hast recht... Für nur WQHD reichen tatsächlich grad noch 8Gb...
Für 4K setzt man min 11Gb voraus https://support.ubisoft.com/de-DE/Article/000063997
Dachte aber eigentlich, das du auch ne Grafikhure bist... down-Sampling und so...
(ich schalte mittlerweile schon lieber auf 30Fps, als schärfe und Details zu verlieren)
"...während wir für Ultra HD mindestens 11 GiByte empfehlen, um von sporadischem Stocken und/oder Texturbrei gefeit zu sein."
https://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Benchmark-Test-1277387/2/
Bin nicht so der Zocker ^^ Aber warum meine Aussage gleich kompletter BS sein sollte... :confused:
M.f.G. JVC
vinacis_vivids
2021-02-15, 13:08:36
CB hat sich nochmal PCIe-Resize Bar AMD SAM mit der RX6800(XT) vorgenommen
https://www.computerbase.de/2021-02/amd-sam-radeon-rx-6800-xt-test/
Lowkey
2021-02-15, 13:17:35
Deren Überschrift ist irreführend. Effektiv bringt es nur was unter FHD und dann auch nur bei einem geringen Bruchteil an Spielen. Kein Musthave.
In 2 Jahren gibt es dann vermutlich größeren Support für sämtliche Spiele, da dann alle drei Hersteller SAM ab Werk supporten.
Für 360hz FHD Spieler ist dann AMD die erste Wahl :D
Daredevil
2021-02-15, 13:21:39
Scheint eher so ein Ding zu sein, um die niedrige Bandbreite des Speichers von Navi2 besser auszureizen, oder? ( Bandbreite profitiert bei hohen FPS )
Cyberpunk FHD 15%
Cyberpunk WQHD 10%
Cyberpunk UHD 5%
Darüber hinaus verschluckt sich SAM in Ultra HD aber gelegentlich mehr als in den geringeren Auflösungen. So wird die Radeon RX 6800 XT in Borderlands 3 bei WQHD und aktiviertem SAM laut Messungen kaum langsamer, in Ultra HD sind es immerhin 5 respektive 2 Prozent weniger FPS. Death Stranding verliert 1 respekive 6 Prozent Performance, einige wenige andere Spiele 1 bis 2 Prozent. Es ist nicht so viel, dass die Vorteile von SAM völlig verloren gehen, doch benötigt die hohe Auflösung offenbar noch etwas Treiber-Arbeit von AMD.
Typische AMD Umsetzung....sehr viel Potential, was da anscheinend brach liegt.
Toll, das AMD sich um sowas Gedanken gemacht hat und die letzten Prozente ausquetscht, :)
aufkrawall
2021-02-15, 13:27:32
Deren Überschrift ist irreführend. Effektiv bringt es nur was unter FHD und dann auch nur bei einem geringen Bruchteil an Spielen. Kein Musthave.
Es bringt bei Valhalla in 1440p bei den low fps 19% bzw. 60 vs 72fps. :freak:
Dein Bias-Nebel trübt mal wieder sehr deine Wahrnehmung als Intel- und Nvidia-Shill (oder du erzählst bewusst Unsinn...).
dargo
2021-02-15, 13:37:59
Für 360hz FHD Spieler ist dann AMD die erste Wahl :D
Neuerdings hört man von der grünen Fraktion 960p (1440p + DLSS-Q) wäre der heiße shit. ;D
Lowkey
2021-02-15, 13:50:27
Heeeee ich mag es maßlos zu übertreiben, wenn es 360hz Monitore für FHD gibt. Irgendwie muss man die 360fps doch halten können. AC-V ist nur ein Ausnahmetitel. :D
Die Streamer Boys mit 13-15 Jahren haben auf 1680x1050 angefangen zu zocken.
PCIe Resizable BAR im Test: AMD SAM beschleunigt die RX 6800 XT teils deutlich
Nur deutlich in FHD und nur deutlich bei wenigen Spielen.
Ravenhearth
2021-02-15, 13:58:05
Deswegen schreiben sie "teils deutlich" :freak:
Daredevil
2021-02-15, 13:58:54
5% in Cyberpunk sind zwar nicht "deutlich" mehr wie die 15% in FullHD, aber 5% für "nichts" sind eine Menge mehr, gerade in 4K wo man jedes FPS möchte.
Dieses Feature schlecht zu reden macht überhaupt keinen Sinn, da man nur gewinnen kann. ^^ ( Wenn Bugs behoben wurden )
5% sind bei 2000Mhz knapp 100Mhz mehr ( Milchmädchen ), für diese 100Mhz stecken manche Stunden rein um die letzten MHz auszuwringen.
dargo
2021-02-15, 13:59:55
Deswegen schreiben sie "teils deutlich" :freak:
;D ;D ;D
Ich habe natürlich SAM "On", gerade wo ich Valhalla spiele merkt man den Vorteil für lau schon ganz gut in 1440p. Im Benchmark hatte ich +17% bei den avgs. gemessen.
Lowkey
2021-02-15, 14:00:31
Bei der Überschrift habe ich einfach mehr erwartet, denn das Ergebnis ist nicht gerade neu. Ich bin gespannt auf Intel + AMD als Plattform oder in 4 Wochen dann Intel/AMD + nvidia.
vinacis_vivids
2021-02-15, 14:05:37
@Lowkey
Bist du irgendwie gestört oder was?
In 1440p sind 10-20% eine ganze Stufe bei der Hardwareaufrüstung. Leute wie du haben deswegen bei Nvidia schon ein Regal höher greifen müssen und mal locker 500€ mehr bezahlt.
In 2160p sind 5% der Unterschied zur Leistungskrone, wobei die RX6800XT die RTX3090 überholt hat :freak:
RX6800XT > RTX3090
Noch ein paar Updates und die Formel lautet RX6800 ~ RTX3090
Das macht übrigens Nvidia nicht langsamer, sondern ist sauberer technischer Fortschritt.
Das isses wo es lang geht. Nur jetzt im 21. Jahrhundert gehts halt schneller weil viele Augen hinschauen und viele Hände mitarbeiten.
SAM ist auch viel interessanter mit RX480 oder RX5700XT, die sich eher im 1080p und 1440p tummeln.
Ein absoluter WIN für die Gamer-Welt (außer für die Nvidia-Käufer, die jahrelang haben sich verarschen lassen).
Lowkey
2021-02-15, 14:11:14
Jetzt warst du wochenlang friedlich und fängst wieder an.
Schau dir unten die Tabelle bei WQHD an: Wie oft bringt SAM welche Vorteile bei den Durchschnitts-FPS?
Und da steht es schon 12 zu 5. Bei 12 Spielen bringt es nichts. Daher macht sich eine gewisse Ernüchterung breit. Das ist einfach nichts Neues gegenüber den ersten SAM Tests zum Release.
Megamember
2021-02-15, 14:13:58
Vivacis der olle Amd Schamane, sauputzig der Kerl.
kleeBa
2021-02-15, 15:03:55
Bitte nicht schon wieder Adressierung mit "brauchen" gleichsetzen! :usad: Ich konnte Division 2 ohne Probleme mit der 5700XT @1440p spielen.
UWQHD sind Pi mal Daumen 35 Prozent mehr Bildschirm als WQHD.
Das alte Setup mit 1080 und WQHD ging bei mir auch ohne Probleme mit Anpassungen bei den Einstellungen um konstante 60FPS zu halten.
Mit dem neuen Monitor und der alten Graka wurde es dann gelinde gesagt zäh.
dargo
2021-02-15, 15:49:30
Ups, sorry. Ich habe das "U" übersehen. Du meinst dann 3440x1440. Ok, ich habe nur Erfahrungen mir 2560x1440 in diesem Spiel mit über 1500 Spielstunden. :) Dennoch sind diese 13GB Vram Unsinn. Das krallt sich das Game nur weil 16GB vorhanden sind. Tut es auch schon in 2560x1440. 10GB müssten eigentlich für 3440x1440 reichen. Kann ja mal ein 3080 User (der Ahnung von der Materie hat!) sicherlich mehr zu sagen.
Savay
2021-02-15, 19:13:42
Deswegen schreiben sie "teils deutlich" :freak:
Verstehe auch nicht wo jetzt wieder das Problem sein soll.
Es muss zudem doch eh im Treiber je Spiel freigeschaltet werden.
Das Feature ist mir eindeutig effektiv genug selbst wenn es nur in bestimmten Fällen was bringt.
In WoW:SL beseitigt es BTW selbst mit nem 5950X das streckenweise mal sehr auffällige CPU Limit in 2160p mit ner 6900XT @10 + Raytracing! :tongue:
Soviel zur genauso irreführenden Behauptung "es bringe nur was in FHD".
Also ich finde, AMD sollte endlich mit diesem OpenSource Scheiß aufhören und selbst anfangen größere Brötchen zu backen.
Man sollte, da nun in aller Munde, in der Lage sein die Features exklusiv zu veröffentlichen und zu vermarkten - und da meine ich nicht nur (eigentlich weniger) BAR!
aufkrawall
2021-02-15, 21:49:13
Ja, bitte her mit RadSync, RadWorks, RadX, RadTX, RadSS usw.! Das würde die Branche sicherlich voran bringen, Fragmentierung ist Trumpf!
:facepalm:
Langlay
2021-02-15, 23:19:43
Man sollte, da nun in aller Munde, in der Lage sein die Features exklusiv zu veröffentlichen und zu vermarkten - und da meine ich nicht nur (eigentlich weniger) BAR!
AMD könnte nur dann Features erfolgreich launchen wenn es auch die Konsolen anbieten. Egal ob Open Source oder nicht. Features die nur neuere AMD Grafikkarten können, damit lockt man niemanden hinterm Ofen vor.
Aber ich bin auch für Opensource. Wettbewerb ist halt gut für uns Kunden.
searched4u
2021-02-15, 23:32:56
Fragmentierung von Features bei verschiedenen Studios, Engines und Herstellern kann doch nicht wirklich im Interesse von irgendjemandem sein. Opensource haftet schon immer in gewisser Beigeschmack an, aber grundsätzlich, aus meiner Sicht, der einzige richtige Weg aus Endnutzer Sicht.
SKYNET
2021-02-15, 23:45:51
bin eher gespannt wie NV es umsetzt... bei AMD gehts min. bis zur 390X zurück... wenn NV jetzt bis kepler zurück geht, wäre das schon ganz nett.
nairune
2021-02-16, 00:11:48
Der Typ mit der 390 hat keinen Plan wie man Benchmarks macht, da kann man leider nichts drauf geben.
Da es aber eh aktuelle Mainboards braucht, fragt sich wie viele das überhaupt nutzen können mit alten Karten. Ja, etwas verbitterter X370 User hier - CPU reicht mir der 3700X noch und nun fehlen halt stellenweise 10% Leistung mit der neuen Karte. Nur weil Asus kein Bock auf ein BIOS hat.
vinacis_vivids
2021-02-16, 00:18:43
Mit dem Gigabyte X470 Aeorus Ultra + R9 3900X + RX6800 habe ich jetzt das BIOS aktualisiert auf 60h und im Gerätemanager zeigt der mir "Großer Speicherbereich" an.
Habe hier noch die RX480 8GB liegen, allerdings noch nicht auf SAM Performance-Gewinn getestet.
Wiseman
2021-02-16, 07:33:18
Das Feature ist mir eindeutig effektiv genug selbst wenn es nur in bestimmten Fällen was bringt.
In WoW:SL beseitigt es BTW selbst mit nem 5950X das streckenweise mal sehr auffällige CPU Limit in 2160p mit ner 6900XT @10 + Raytracing! :tongue:
Soviel zur genauso irreführenden Behauptung "es bringe nur was in FHD".
So sehe ich das auch. Vor allem nachdem ich den SAM-Effektivitätstest, den Hardware Unboxed bereits im Januar machte, mir etwas genauer anschaute. HU hatte für diesen Test insgesamt 35 Spiele in 1080p, 1440p und 4k überprüft. Da sind schon einige interessante Ergebnisse dabei. Nicht nur wegen der überraschend hohen Effektivität in einigen Spielen - auch in 4k -, sondern auch weil SAM in einigen Spielen bisher überhaupt nicht gut ankommt. Fast schon lustig ist, dass SAM ausgerechnet bei seinem Namensvetter Serious Sam so schlecht abschneidet. Und man beachte: nicht in 4k, sondern in 1080p!
Ein paar Beispiele aus dem HU-Effektivitätstest. Macht euch selbst einen Reim darauf.
AC Valhalla:
1080p: 20% plus
1440p: 19% plus
4k: 17% plus
Horizon Zero Dawn:
1080p: 4% plus
1440p: 6% plus
4k: 5% plus
Watch Dogs Legion:
1080p: 1% plus
1440p: 3% plus
4k: 5% plus
The Witcher 3:
1080p: 4% plus
1440p: 8% plus
4k: 9% plus
Serious Sam 4 (Vulkan):
1080p: 9% minus
1440p: 7% minus
4k: 1% plus
vinacis_vivids
2021-02-17, 14:43:19
SAPPHIRE Radeon RX 6800 Nitro Plus 16GB Graphics Card Review
https://www.nikktech.com/main/articles/pc-hardware/graphics-cards/11606-sapphire-rx-6800-nitro-plus-16gb-graphics-card-review
Hardwarious
2021-03-14, 13:54:25
Du kannst deine 3070 doch für >800€ verkaufen :freak:
Das klingt wie als ob jemand aktuell von 30fps rauf will auf 80.
Was erhoffst du dir denn davon? :confused:
Es lag nicht wirklich an der erhofften Mehrleistung.
Wollte einfach ein AMD-Only System mit der 5800X. Und SAM war ein netter Gimmik, was ich ausprobieren wollte. Außerdem der doppelte Speicher, der Nutzen sei mal dahingestellt. Besser haben als brauchen:) Eher Neugier und Basteldrang statt Performancezuwachs :)
Habe mittlerweile tatsächlich von der 3070 auf die 6800 gewechselt. Aufpreis gabs keinen, teuer verkauft aber auch teuer wieder gekauft. War sozusagen ein 1:1 Tausch.
r3ptil3
2021-03-15, 22:51:12
Jemand Infos ob folgender Kühler auf die neuen RX 6000 GPUs passt?
Raijintek Morpheus 8057
Hardwarious
2021-03-16, 15:46:42
Im Zweifel immer beim Hersteller nachfragen. Ist die einfachste und sicherste Methode.
horn 12
2021-03-17, 21:30:57
Schlechte Nachrichten:
Bis Ende Jahr kommt DLSS Alternative:
https://videocardz.com/newz/amd-fidelityfx-super-resolution-fsr-to-launch-this-year-for-pcs
Screemer
2021-03-17, 23:03:09
Schlechte Nachrichten:
Bis Ende Jahr kommt DLSS Alternative:
https://videocardz.com/newz/amd-fidelityfx-super-resolution-fsr-to-launch-this-year-for-pcs
Dein Textverständnis knackt ganz schön.
The details on specific GPU support, launch timeframe, or possible future updates have not been shared.
This year kann sich übermorgen sein.
Wiseman
2021-03-17, 23:45:58
horn 12 könnte mit seiner Vermutung schon recht haben. Laut AMD mache die Arbeit an FSR zwar gute Fortschritte, aber es gäbe noch viel zu tun, um FSR qualitativ so richtig gut zu machen. Es könnte daher durchaus Ende des Jahres werden. Schließlich geht "this year" wie alle Jahre zuvor bis 31.12. Und "Gut Ding braucht Weile".
Was mir an den Ankündigungen besonders gefällt:
1. Das Kind hat endlich einen festen Namen. FSR steht für FidelityFX Super Resolution.
2. FSR braucht kein Deep Learning.
3. FSR ist in-game open und cross-platform.
DrFreaK666
2021-03-17, 23:50:37
Dein Textverständnis knackt ganz schön.
This year kann sich übermorgen sein.
Da AMD so ungenau ist, würde ich auch mit Ende 2021 rechnen.
Wenn am Ende vom Jahr nur eine Ankündigung kommt, ohne dass es gleich Spiele-Patches regnet, dann glaube ich dass AMD etwas zu spät kommt
Lurtz
2021-03-18, 08:30:35
Da AMD so ungenau ist, würde ich auch mit Ende 2021 rechnen.
Wenn am Ende vom Jahr nur eine Ankündigung kommt, ohne dass es gleich Spiele-Patches regnet, dann glaube ich dass AMD etwas zu spät kommt
Ist das Ziel nicht, eben keine Spiele-Patches zu benötigen?
Lurtz
2021-03-18, 08:48:03
Mir bietet gerade jemand eine Sapphire RX 6800 Nitro+ gegen meine RTX 3070 an. Wenn die 3070 an meinem 500W-Netzteil läuft, sollte das die 6800 auch schaffen, oder? Zumal ich eher undervolten würde.
Sapphire scheint bei Weiterverkäufen überhaupt keine Garantie mehr zu bieten. Weiß jemand wie hart die das in der Praxis auslegen?
Das muss man natürlich verstehen, AMD kann das Feature nur dann launchen, wenn es bereits Implementationen gibt, sprich, man braucht ein Launchlineup von Games dafür und da wird er Klackpunkt liegen.
Vorstellbar wäre, dass man FSR zusammen mit Farcry 6 launcht, der Titel wäre groß genug für einen Launch mMn. Oder aber man braucht einige kleinere. Es ist also klar, dass es sich hier nicht nur um den Release der Technologie per Treiber handeln kann. Wie kommt der "Volksmund" überhaupt darauf, dass das ein Treiberfeature sei? Ist doch kein Fidelity-FX-Feature. AMD kann natürlich keine Launchläne von Entwicklern kommentieren, kein Wunder also, dass man keinerlei Zeitangaben machen kann. Man dard FSR und DLSS aber auch nich überbewerten, da viele Engineentwickler eh an eigenen temporalen Rekonstuktionstechniken arbeiten oder bereits welche haben. Die brauchen schlicht beides nicht.
Screemer
2021-03-18, 09:50:50
Da AMD so ungenau ist, würde ich auch mit Ende 2021 rechnen.
Wenn am Ende vom Jahr nur eine Ankündigung kommt, ohne dass es gleich Spiele-Patches regnet, dann glaube ich dass AMD etwas zu spät kommt
Damit zu rechnen oder es als "hey Leute Bad News. Hier ein neuer Fakt" darzustellen ist halt was anderes. Seine Aussage deckt sich nun Mal nicht mit dem Inhalt des von ihm verlinkten Artikels. Ja ich rechne auch noch mit mehreren Monaten bis zum ersten Gamerelease mit fsr.
vinacis_vivids
2021-03-19, 13:36:12
Perfektes SAM Ehepaar: RX6800 + 5600X
4-BauUjclg4
Benutzername
2021-03-19, 14:51:17
Mir bietet gerade jemand eine Sapphire RX 6800 Nitro+ gegen meine RTX 3070 an. Wenn die 3070 an meinem 500W-Netzteil läuft, sollte das die 6800 auch schaffen, oder? Zumal ich eher undervolten würde.
Welche CPU? Zumindest mit einem 550W mit Ryzen 3700X plus eine RX6800 läuft das schon seit Monaten problemlos bei einem Freund. mit undervolt sollte das gut gehen vermute Ich stark. Vor allem wenn die RTX3070 noch nciht gezuckt hat bisher. Welches Netzteil genau?
Sapphire scheint bei Weiterverkäufen überhaupt keine Garantie mehr zu bieten. Weiß jemand wie hart die das in der Praxis auslegen?
Keine Ahnung. Tut mir Leid.
Lowkey
2021-03-19, 14:57:16
Sapphire scheint bei Weiterverkäufen überhaupt keine Garantie mehr zu bieten. Weiß jemand wie hart die das in der Praxis auslegen?
Im Hwluxx Sapphire Forum kann man nachfragen und bekommt eine Antwort. Denn was letzte Woche galt, dass gilt heute nicht mehr. Wegen Corona haben sich die Hersteller auch angepaßt, siehe Seasonic.
mironicus
2021-03-19, 15:27:49
Habt ihr schon mal getestet, wieviel SAM bei Timespy bringt? Ist ja 1440P, aber da sollte es ja auch helfen. Aber subjektiv meine ich auch, dass der Benchmark etwas schneller lädt.
Meine Sapphire 6900XT ist UV bei 1.037 Volt und abgeriegelt bei 2450 MHz, Speicher bei 150 Mhz+.
Timespy 19955 (durchgehend 2370-2400 MHz).
Port Royale 10600
Bin zufrieden. Mein System betreibe ich aber nur mit DDR4-3000 CL16 (Aida 67 ns mit Ryzen 5900x). Meint ihr ein RAM-Upgrade bringt noch etwas?
vinacis_vivids
2021-03-19, 15:59:58
Ja, bein Zen3 würde ich auf jeden Fall zum 3600er, 3800er oder 4000er RAM mit niedriger Latenz greifen.
OCmylife
2021-03-19, 20:26:40
Ja, bein Zen3 würde ich auf jeden Fall zum 3600er, 3800er oder 4000er RAM mit niedriger Latenz greifen.
Der 8auer meinte in einem seiner letzten Videos über die HMX3, dass nur die wenigsten Zen3 4000er RAM 1:1 laufen lassen können(jeder 20. 5950X). Somit wären 4000er RAM raus geschmissenes Geld.
vinacis_vivids
2021-03-19, 21:29:41
4000er RAM und Zen3 If im 1:1 Betrieb ist wirklich teuer, weil die Hardware viel kostet und man auch selbst selektieren und testen muss.
Aber wer eben wirklich Top-notch oben stehen will, muss den Weg eben gehen. Für alle anderen gibs halt auch 3200er/3600er RAM.
Bin auch AMD-Fan und hätte auch gerne einen Zen3 mit 4000er RAM, aber die Vernunft des Geistes in der Brieftasche ist dann doch etwas stärker als das Verlangen.
Langlay
2021-03-19, 22:16:20
4000er RAM und Zen3 If im 1:1 Betrieb ist wirklich teuer, weil die Hardware viel kostet und man auch selbst selektieren und testen muss.
Aber wer eben wirklich Top-notch oben stehen will, muss den Weg eben gehen. Für alle anderen gibs halt auch 3200er/3600er RAM.
Bin auch AMD-Fan und hätte auch gerne einen Zen3 mit 4000er RAM, aber die Vernunft des Geistes in der Brieftasche ist dann doch etwas stärker als das Verlangen.
Klaro man kauft 5 Ryzen 5000 statt einem und den zu finden der DDR4000 macht und nicht nur DDR3800. JA völlig normales Kaufverhalten.
Und mit guten Samsung B-Die ist doch sowohl DDR3800 wie auch DDR4000 kein Problem.
Bin zufrieden. Mein System betreibe ich aber nur mit DDR4-3000 CL16 (Aida 67 ns mit Ryzen 5900x). Meint ihr ein RAM-Upgrade bringt noch etwas?
Lass es wie es ist, du wirst den Unterschied nicht wirklich merken. Wenn du Lust zum Optimieren hast schau was du aus seinem RAM rausholen kannst.
mboeller
2021-04-16, 11:33:48
Speicherlatenz bei der 6800XT im Vergleich zur RTX 3090:
https://chipsandcheese.com/2021/04/16/measuring-gpu-memory-latency/
horn 12
2021-05-07, 02:17:47
FSR Launch im Juni - AMD Antwort auf DLSS
https://videocardz.com/newz/coreteks-amd-fidelityfx-super-resolution-fsr-to-launch-in-june
Fazit:
Pünktlich zu den ganzen TI Launches von Nvidia!
gnomi
2021-05-07, 12:42:48
Richtig gute Neuigkeiten.
Das dürfte den Konkurrenz Kampf weiter verstärken.
Ich bin enorm gespannt, ob die GPU's in PS5 und Xbox Series X davon auch extrem profitieren...
OpenVMSwartoll
2021-05-07, 13:07:58
Der Schluss tat mir etwas weh.
Zitat: "While it may work in its current state, it does not mean that AMD will allow NVIDIA GPUs to benefit from the technology. After all, the manufacturer has no reason to boost performance on competitor’s GPUs."
Bis auf so Unwichtiges wie Verbreitung... Und weil AMD Lösungen dem Wettbewerb nie freigibt.
Thunder99
2021-05-07, 14:43:53
Sehen wir dann. AMD hat gesagt, es wird unter GPU Open entwickelt und freigeben. Nichts von AMD exklusive.
OpenVMSwartoll
2021-05-07, 14:57:32
Sehen wir dann. AMD hat gesagt, es wird unter GPU Open entwickelt und freigeben. Nichts von AMD exklusive.
Könntest Du eine Spur von Sarkasmus wahrgenommen haben? ;-)
Achill
2021-05-07, 16:11:32
[..]
Zitat: "While it may work in its current state, it does not mean that AMD will allow NVIDIA GPUs to benefit from the technology. After all, the manufacturer has no reason to boost performance on competitor’s GPUs."
[..]
K.A. wie dieses Zitat bei videocardz.com zustande gekommen ist, man sollte dies aber mal ins richtige Licht rücken.
1. videocardz.com (https://videocardz.com/newz/coreteks-amd-fidelityfx-super-resolution-fsr-to-launch-in-june) berichtet über ein Coreteks YouTube Video (https://www.youtube.com/watch?v=1kOxGHv4Zuw)
2. Das Coreteks Video ist Community gemacht und spekuliert mittels Schnippsel an Information über eine Möglichen Entwicklung
3. Es gibt m.W. keine offizielle Aussage von AMD
=> Das Ganze Thema und die Diskussion darum gehört nicht in den Review-Thread solange es nichts "zu sehen" gibt sondern ist imho weiterhin rein Spekulativ, inkl. ob AMD von OpenSource abweicht und es nur seinen GPUs zur Verfügung stellt.
Wiseman
2021-05-07, 17:22:59
K.A. wie dieses Zitat bei videocardz.com zustande gekommen ist, man sollte dies aber mal ins richtige Licht rücken.
1. videocardz.com (https://videocardz.com/newz/coreteks-amd-fidelityfx-super-resolution-fsr-to-launch-in-june) berichtet über ein Coreteks YouTube Video (https://www.youtube.com/watch?v=1kOxGHv4Zuw)
2. Das Coreteks Video ist Community gemacht und spekuliert mittels Schnippsel an Information über eine Möglichen Entwicklung
3. Es gibt m.W. keine offizielle Aussage von AMD
=> Das Ganze Thema und die Diskussion darum gehört nicht in den Review-Thread solange es nichts "zu sehen" gibt sondern ist imho weiterhin rein Spekulativ, inkl. ob AMD von OpenSource abweicht und es nur seinen GPUs zur Verfügung stellt.
Finde ich auch. Das ist wieder mal wildeste Spekulation vom Feinsten a la videocardz. So ein hanebüchener Schmarrn wie "While it may work in its current state, it does not mean that AMD will allow Nvidia GPUs to benefit from the technology." gehört ins Spekulations-Forum.
So ganz abwegig wird die Info seitens VC wohl nicht sein. Ich denke das AMD-US wird auf NV deutlich schlechter performen als DLSS. Ob dann AMD aufschließen kann, bleibt abzuwarten. Von mir aus könnten sie sich den Krempel auch sparen ...
Thunder99
2021-05-08, 11:37:46
Könntest Du eine Spur von Sarkasmus wahrgenommen haben? ;-)
Me culpa :usad:
Sumpfmolch
2021-05-09, 16:12:20
So ganz abwegig wird die Info seitens VC wohl nicht sein. Ich denke das AMD-US wird auf NV deutlich schlechter performen als DLSS. Ob dann AMD aufschließen kann, bleibt abzuwarten. Von mir aus könnten sie sich den Krempel auch sparen ...
Deshalb macht es überhaupt keinen Sinn, dass AMD die Technik auf die eigenen GPUs beschränkt. Das Ziel soll ja sein eine sehr einfach zu implementierende Technik zu bieten, die mit allen GPUs problemlos zusammenarbeitet.
Damit schlussendlich das für die Entwickler aufwendigere proprietäre DLSS (=Mehrkosten) gar nicht mehr angeboten wird, sondern FSR für alle.
r3ptil3
2021-06-22, 18:16:20
Gigabyte Aorus 6800 XT
https://i.ibb.co/NT0MBZr/20210622-174745.jpg
https://i.ibb.co/S0DgPK2/20210622-174820.jpg
Ein Prachtstück... mal schauen was mit der Karte alles geht.
Scoty
2021-06-23, 10:07:49
Die weißen Karten haben was.
hq-hq
2021-06-23, 12:40:40
hm ja der Lötstopplack könnte gerne in weiss sein...
Denniss
2021-07-02, 07:59:41
https://www.igorslab.de/amd-radeon-pro-w6800-32-gb-im-test-schlaegt-die-workstation-karte-eine-nvidia-quadro-rtx-5000/
Test der Pro W6800 mit hübschen 32 GiB VRAM
dildo4u
2023-04-10, 13:20:28
Nachtest mit neuen Treibern/Games.
Rh7kFgHe21k
DrFreaK666
2023-04-10, 14:12:35
Anfangs haben noch alle über die Radeon-Käufer gelacht und gesagt, dass 8GB ausreichen.
Das gleiche Spiel wiederholt sich sicherlich mit den 12GB der 4070-Karten.
Wie ich damals schon sinngemäß schrieb: Kannst Raytracing aktivieren, aber die Texturen sind dann Matsch. Was sieht besser aus? Paradoxerweise wird es ja schlimmer, wenn man RT aktiviert ^^
Lurtz
2023-04-10, 15:11:39
Moving forward, 8 GB of VRAM should be reserved for sub 200$ products, or ideally sub 100$ products, neither of which appear to exist anymore.
In fact, 12 GB of VRAM should be the new entry point, with 16 GB being low end to midrange, and 24 GB beyond that.
This is what gamers should be demanding from AMD and nVidia, anything short of that should be unacceptable.
Wir sehen uns dann zum großen 4070 (Ti)-Sterben in zwei Jahren ;)
dargo
2023-04-10, 15:22:11
Wir sehen uns dann zum großen 4070 (Ti)-Sterben in zwei Jahren ;)
Egal... die Lederjackendröhnung @Raytracing scheint den meisten den Verstand geraubt zu haben. Die RTX 4060/4070 werden sicherlich wieder fleißig gekauft. :ulol:
DrFreaK666
2023-04-10, 15:25:13
Wir sehen uns dann zum großen 4070 (Ti)-Sterben in zwei Jahren ;)
Egal. Die Karten haben DLSS3. Das rettet dann 11 MIN-FPS :D
dargo
2023-04-10, 15:26:37
DLSS3 braucht aber wieder mehr Vram. X-D
DrFreaK666
2023-04-10, 15:37:59
DLSS3 braucht aber wieder mehr Vram. X-D
Ich weiß. Das war ironisch gemeint :D
Aber DLSS3 wird ja als Allheilmittel verkauft.
dildo4u
2023-04-11, 13:21:32
AMD Marketing hat jetzt selber neue Vergleiche angestellt.
https://abload.de/img/2500vv2px-1mgdip.png
https://community.amd.com/t5/gaming/building-an-enthusiast-pc/ba-p/599407
phoenix887
2023-04-11, 13:36:11
Egal... die Lederjackendröhnung @Raytracing scheint den meisten den Verstand geraubt zu haben. Die RTX 4060/4070 werden sicherlich wieder fleißig gekauft. :ulol:
Habe mir neulich noch einen CPU Kühler bei mir Vorort in Mannheim geholt. War ein Kunde vor mir, der sich über Grafikkarte informieren wollte. Der Verkäufer sagte, aus Prinzip empfiehlt er nur Nvidia. Kunde hat es sich angehört und ist wieder gegangen.
Ich dachte nur, was für ein Schwachsinn, hätte der Verkäufer wenigstens seine Meinung begründet, ok, aber einfach so Behauptungen aufstellen, facepalm in mir.
Habe mich aber nicht eingemischt, war zu geschockt von dieser Kaufberatung und der Kunde hat ja nichts gekauft^^
Ich bin zufrieden mit meiner RX 6800. Geniesse es wenn bei mir 13 GB VRAM angezeigt wird und das mit RT. So schlecht ist die RT Leistung auch nicht. Forza Horizon 5, Spiderman, RE4 laufen super mit RT. Hängt wohl auch mit zusammen, das sie es auf Xbox und PS5 nicht so aggressiv fahren können. Soll mir recht sein.
Selbst wenn, Spiegelungen, langt mir auch auch im Prinzip Screen-Space-Reflections. Ob ich die Objekte sehe im Wasser, wenn ich die Kamera drehe, da achte ich nur bewusst drauf, im Alltag ist es kein Killer Feature für mich. Mir ist Rohleistung wichtiger.
DrFreaK666
2023-04-11, 15:24:37
Also ich hätte mich da eingemischt. Wäre unangenehm für den Verkäufer geworden :D
=Floi=
2023-04-11, 15:26:40
Die müssen garantie geben und da wird es oft schon probleme mit AMD gegeben haben.
NV für viele kunden problemloser und am ende spart es dem shop zeit und geld.
AMD Marketing hat jetzt selber neue Vergleiche angestellt.
https://abload.de/img/2500vv2px-1mgdip.png
https://community.amd.com/t5/gaming/building-an-enthusiast-pc/ba-p/599407
WTF, das Timing. Die RTX 3070 Ti war schon immer konzeptioneller Schrott. Sowas ein paar Tage vor dem 4070-Release herauszubringen ... strange. Aber wirklich Angst muss AMD sowieso nicht haben. Eigentlich schlecht, denn ansonsten müssten die mit den 7800ern bisschen mehr Gas geben. ;)
MfG
Raff
DrFreaK666
2023-04-11, 15:28:37
Aber aus Prinzip nur Nvidia zu empfehlen... Da hätte ich mich schon eingemischt und nachgehakt.
dildo4u
2023-04-11, 15:38:38
WTF, das Timing. Die RTX 3070 Ti war schon immer konzeptioneller Schrott. Sowas ein paar Tage vor dem 4070-Release herauszubringen ... strange. Aber wirklich Angst muss AMD sowieso nicht haben. Eigentlich schlecht, denn ansonsten müssten die mit den 7800ern bisschen mehr Gas geben. ;)
MfG
Raff
Für den US Markt ist die 4070 vermutlich Killer aber bei uns 6800XT sind bei 570€, 4070 700€?4070 Ti Minus 200€ oder?
Rancor
2023-04-11, 16:50:01
Ich bin mit der Leistung der 6800XT auch sehr zufrieden, besonders für den Preis.
phoenix887
2023-04-12, 01:36:11
Also ich hätte mich da eingemischt. Wäre unangenehm für den Verkäufer geworden :D
Naja sind ja nur Grafikkarten^^
Die müssen garantie geben und da wird es oft schon probleme mit AMD gegeben haben.
NV für viele kunden problemloser und am ende spart es dem shop zeit und geld.
Hast du eine Quelle dafür?
Aber aus Prinzip nur Nvidia zu empfehlen... Da hätte ich mich schon eingemischt und nachgehakt.
Hast Recht, war aber an dem Tag auch nicht TopFit für Diskussionen.
Thunder99
2023-04-12, 09:03:25
AMD ist halt doch zu empfehlen, sogar langlebiger als so mancher Nvidia Käufer denkt ;D
Für mein Bedarf leider keine Option aber Navi21/22 ist einfach nach wie vor sehr gut, vor allem zu dem Preis :up:
Exxtreme
2023-04-12, 13:34:10
Aber aus Prinzip nur Nvidia zu empfehlen... Da hätte ich mich schon eingemischt und nachgehakt.
Aus Sicht des Händlers macht das durchaus Sinn. So kann man die Kunden doppelt melken. Einmal über den viel höheren Preis. Und einmal über die beträchtlich kürzere Lebensspanne weil da der RAM ausgeht. Für einen Händler gibt es schlicht nichts besseres.
vinacis_vivids
2023-05-08, 08:21:24
Die 6800er ist schneller als RTX4070 in Hogwarts 😂
Ada uArch in der Mittelklasse ist einfach Schrott, da ist die alte uArch RDNA2 deutlich besser was Preis-Leistung angeht.
https://abload.de/thumb/unnamed8qiq4.png (https://abload.de/image.php?img=unnamed8qiq4.png)
DrFreaK666
2023-05-08, 13:09:25
Cherry-Picking *gähn*
Rancor
2023-05-08, 13:23:21
Cherry-Picking *gähn*
Selbst ich als RX 6800 XT Besitzer kann da nur noch mit dem Kopf schütteln.
Taigatrommel
2023-05-08, 13:24:32
Die 6800er ist schneller als RTX4070 in Hogwarts
Ada uArch in der Mittelklasse ist einfach Schrott, da ist die alte uArch RDNA2 deutlich besser was Preis-Leistung angeht.
https://abload.de/thumb/unnamed8qiq4.png (https://abload.de/image.php?img=unnamed8qiq4.png)
Gibt genügend Titel, wo es umgekehrt ist. Ich weiß daher nicht, was das von DrFreak bereits angesprochene Cherry Picking soll.
Man kann dies auch umgekehrt machen: Im CB Test ist die 4070 in Spider Man (Raster) schlappe 43% schneller als eine 6800. Bei PCGH ist eine 4070 im Witcher 3 immerhin 36% schneller als eine 6800, bei Plaguetale sind es auch 27%.
Gibt doch immer wieder Titel, in denen mal nVidia, mal AMD deutlich besser performt.
Denniss
2023-05-08, 14:20:14
Bitte den AMD-Troll nicht füttern. Ich bin zwar auch AMD zugeneigt aber nicht komplett verblendet wie dieser hier.
Ich will auch mal "AMD-Troll" sein. Moment, ich versuch's: Radeon ist ganz klar FineWine! In Baldur's Gate 3, über das gerade alle reden und das alle spielen (während sie darüber reden), zeigt sich RDNA 2 von seiner besten Seite und auch RDNA 3 regelt wie eine wahre Next-Gen-Architektur! Seht selbst (33 Grafikkarten in 5 Auflösungen getestet):
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/
War das gut? ;) :biggrin:
Man braucht ein paar Pixel, aber dann ist jede Radeon RX 6000 und RX 7000 schneller als eine ansonsten vergleichbare RTX 3000 oder RTX 4000.
MfG
Raff
aufkrawall
2023-08-04, 23:01:59
Ganz nett, aber auch nicht so deutlich wie UE5 ohne HW-RT-Lumen. Würde grob schätzen, in Fortnite mit stark reduzierten Details vertrimmt die 6700 XT die 3060 bei irgendwas um 60%.
Fuchs
2023-08-07, 09:46:13
Ich will auch mal "AMD-Troll" sein. Moment, ich versuch's: Radeon ist ganz klar FineWine! (...)
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/
War das gut? ;) :biggrin:
Man braucht ein paar Pixel, aber dann ist jede Radeon RX 6000 und RX 7000 schneller als eine ansonsten vergleichbare RTX 3000 oder RTX 4000.
MfG
Raff
Aw yez. Das war gut. Heisst konkret für mich: Sehr informativ. Habe damals eine 7870 länger als gedacht benutzen können, da das Ding auch sehr gut alterte. Jetzt muss die 2060 aus dem Rechner und aufgrund der Gesamtsituation tendiere ich zur 6800/6800XT.
Was würdest du mir raten? UV geht scheinbar auf den non-XT etwas besser?
Langlay
2023-08-07, 19:01:13
Was würdest du mir raten? UV geht scheinbar auf den non-XT etwas besser?
Auch bei Navi21 ist je dicker um so geiler im UV. Meine alte 6900XT lief mit 2GHz @ 800mV mit ~150W GPU Power und hat dabei mehr Performance auf den Bildschirm gebracht als ne 6800 mit dick OC.
aufkrawall
2023-08-07, 20:13:53
"6800 mit dick OC" gibt es nicht, durch die maximalen 925mV ist da bei ~2.4GHz Schluss.
Fuchs, nimm direkt die große. Der Aufpreis ist mehr als okay und ein "dickerer" Chip rupft eben auch beim Tuning nach unten mehr. :up:
MfG
Raff
Langlay
2023-08-07, 21:48:05
durch die maximalen 925mV ist da bei ~2.4GHz Schluss.
1. sind es 1025mV
2. dick OC ist natürlich auf die eine 6800 bezogen, was andere Navi21 Karten da machen interressiert in dem Fall nicht, hättest dir deine Haarspalterei auch einfach sparen können.
aufkrawall
2023-08-07, 21:58:50
1. sind es 1025mV
Ah, stimmt.
2. dick OC ist natürlich auf die eine 6800 bezogen
Kann nicht nachvollziehen, auf welche "eine 6800" du dich beziehst.
Langlay
2023-08-07, 22:06:10
Kann nicht nachvollziehen, auf welche "eine 6800" du dich beziehst.
Wenn du es ganz genau wissen willst, die Karte mit der ich meine 6900XT vergleichen hab war diese hier :
https://abload.de/img/img_20230407_142945csid5.jpg
Aber sollte auch auf quasi jede andere 6800 (non-XT) übertragbar sein. Die 6900XT ist auf 2GHz ist schneller als jede 6800 (non-XT) ohne Hardwaremods/extreme Kühllösungen.
aufkrawall
2023-08-07, 22:37:37
Das hab ich auch nicht bestritten. Nur ist das, was mit dem Mini-Prügel 1025mV drin ist (2,4GHz), halt ein Furz gegen etwa 6750 XTs, die >2,8GHz schaffen. Das ist dann wirklich geprügelt. Die 6800 ist halt ootb effizienter als die größeren und so weit kann man die Effizienz durch etwas Takt- und PT-Erhöhung gar nicht verschlechtern.
Ich hatte ja auch kurz eine 6800 non-XT da und die Mehrleistung gegenüber einer "geprügelten" 6700 XT war halt auch sehr langweilig. Oft gar kaum spürbar, trotz Takt-Maximums bei 1025mV...
Stimme daher Raff zu. Seitdem die Verfügbarkeit der XT gegeben ist, ist die non-XT nicht mehr wirklich interessant.
vinacis_vivids
2023-08-07, 23:47:38
Die 6800er non XT kann man am besten über MPT modifizieren und noch mehr Bandbreite aus dem IF-CLK rausholen und in vielen Bandbreiten-limitierten Szenen mit der 6800XT aufschließen, trotz weniger (roher) Rechenleistung.
Fuchs
2023-08-08, 14:31:30
Fuchs, nimm direkt die große. Der Aufpreis ist mehr als okay und ein "dickerer" Chip rupft eben auch beim Tuning nach unten mehr. :up:
MfG
Raff
Check :D
vinacis_vivids
2023-08-08, 20:12:44
6800XT 16GB vs 4060Ti 16GB
5KZ-jY_OqUA
Die 4060Ti wird vernichtet.
vinacis_vivids
2024-01-19, 14:52:28
Ein RDNA2-Huldigung für die RX6800 16GB vs RTX3070 8GB
cAYiHUpf99I
Beide gabs zu gleichen Preisen und AMD ist Fine Wine. Die RX6800 aus dem Jahr 2020 kann locker mit neueren Mittelklasse-Karten mithalten. Für 409€ ein absolutes Schnäppchen, auch im Jahr 2024.
MAX|HASS
2024-02-21, 22:22:30
Heute ist bei Mindfactory ja auch wieder eine 6800(ohne XT) für 389€ zu haben. Ich denke, damit kommt man echt noch gut 2 Jahre hin auf 1440p.
MAX|HASS
2024-02-22, 15:51:49
..und einfach mal eine bestellt. Die erste AMD seit 24 Jahren! :eek:
Ob ich zufrieden sein werde? Mir ist bewußt, daß das erstmal wieder viel Lernerei im Umgang mit Adrenalin usw. bedeuten wird, aber was soll's. ddu ist druff, kann also losgehen. Werde dann hier sicher noch die eine oder andere Frage haben.
**edit: Ach so, apropos Treiber. Befinden wir uns hier auf dem selben level, einfach die aktuellsten saugen? Ist ja schon eine ältere Karte immerhin.
DrFreaK666
2024-02-22, 15:55:06
Einfach die aktuellste saugen und viel Spaß mit der Karte
MAX|HASS
2024-02-22, 16:11:04
Na, das kann ich ja schon mal ziehen (y).
Verspreche mir davon jetzt nicht sooo viel, einfach so 'ne Art Überbrückung bis Tag x. RT hat mir nie so richtig was gegeben, habe mich nur über den Einbruch der Bildraten gewundert bis geärgert und nun soll es einfach eine Vernunftlösung werden. 2026 schauen wir dann mal weiter.
dildo4u
2024-05-04, 09:39:43
AMD hat wieder kein Bock für RDNA2 zu optimieren bin gespannt ob wir das selbe Muster bei RDNA3 zu 4 sehen.
3080 zerschmettert 6800XT und das Game hat Null RT.
https://i.ibb.co/t4MwYR4/Screenshot-2024-05-04-093812.png (https://ibb.co/xDSKzZD)
https://www.computerbase.de/2024-05/helldivers-2-benchmark-test/#abschnitt_benchmarks_in_wqhd
][immy
2024-05-04, 10:04:22
AMD hat wieder kein Bock für RDNA2 zu optimieren bin gespannt ob wir das selbe Muster bei RDNA3 zu 4 sehen.
3080 zerschmettert 6800XT und das Game hat Null RT.
https://i.ibb.co/t4MwYR4/Screenshot-2024-05-04-093812.png (https://ibb.co/xDSKzZD)
https://www.computerbase.de/2024-05/helldivers-2-benchmark-test/#abschnitt_benchmarks_in_wqhd
???
Passt doch. Die rx7700 ist etwa gleich auf mit der 6800 xt. Die 4070 hinter der 3080. Sieht eigentlich OK aus. Da mögen vielleicht Architektur Änderungen gut ankommen. Vielleicht auch nur Zufall, weil soweit mir bekannt ist, kann man das Spiel nicht wirklich gut benchen. Oder hat es einen integrierten Benchmark bekommen?
Linmoum
2024-05-04, 10:18:34
Die 6800XT ist normalerweise ~15% schneller als die 7700XT und nur minimal hinter einer 7800XT. Aber anhand eines einzigen Spiels Rückschlüsse zu ziehen bringt auch nichts. Sowas gibt's vereinzelt immer.
dildo4u
2024-05-04, 10:51:15
War das selbe bei Dragons Dogma,Skull an Bones und Banishers in den letzten Monaten.
https://www.computerbase.de/2024-02/banishers-ghosts-of-new-eden-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
https://www.computerbase.de/2024-03/dragons-dogma-2-benchmark-test/2/
https://www.computerbase.de/2024-02/skull-and-bones-technik-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Ex3cut3r
2024-05-04, 12:21:30
AMD Fine Whine. ^^
AMD hat wieder kein Bock für RDNA2 zu optimieren bin gespannt ob wir das selbe Muster bei RDNA3 zu 4 sehen.
3080 zerschmettert 6800XT und das Game hat Null RT.
https://i.ibb.co/t4MwYR4/Screenshot-2024-05-04-093812.png (https://ibb.co/xDSKzZD)
https://www.computerbase.de/2024-05/helldivers-2-benchmark-test/#abschnitt_benchmarks_in_wqhd
Dem stellen wir dann mal die aktuellen GPU-Preise gegenüber :cool:
DrFreaK666
2024-05-04, 15:45:19
AMD hat wieder kein Bock für RDNA2 zu optimieren bin gespannt ob wir das selbe Muster bei RDNA3 zu 4 sehen.
3080 zerschmettert 6800XT und das Game hat Null RT.
https://i.ibb.co/t4MwYR4/Screenshot-2024-05-04-093812.png (https://ibb.co/xDSKzZD)
https://www.computerbase.de/2024-05/helldivers-2-benchmark-test/#abschnitt_benchmarks_in_wqhd
4k, wo die genannten Karten unter 60FPS liegen? Das sind bestimmt die Ziel-FPS bei dem Game.... :rolleyes:
In 1440p ist die 3080 17% schneller und die 7800XT 16%.
Ex3cut3r
2024-05-04, 17:47:55
Die anderen Beispiele gekonnt ausgeblendet? Geht außerdem um die 6800XT nicht 7800XT
35%+ das ist krass. Die Karten (6800XT vs RTX 3080) waren 2020 ziemlich gleich, außer es kam RT zum Einsatz. Aber AMD Fine Whine ist wohl endgültig Geschichte mit RDNA3 und dem Chiplet Design.
https://s20.directupload.net/images/240504/tk8z9suw.jpg https://s20.directupload.net/images/240504/q4t6rwia.jpg https://s20.directupload.net/images/240504/uaedfhin.jpg
The_Invisible
2024-05-04, 17:52:21
Kann auch sein das einfach die rdna3 Tech bei neueren Games mehr durchschlägt. Deswegen sag ich ja immer ich würde keine ältere Chip Generation kaufen selbst wenn's im Abverkauf ist ;-)
dildo4u
2024-05-04, 17:57:31
Ist nur auffällig da alles ordentlich auf Konsole laufen muss daher hätte ich deutlich besseren RDNA2 Support erwartet bis zur PS5 Pro.
Ex3cut3r
2024-05-04, 18:12:52
Kann auch sein das einfach die rdna3 Tech bei neueren Games mehr durchschlägt. Deswegen sag ich ja immer ich würde keine ältere Chip Generation kaufen selbst wenn's im Abverkauf ist ;-)
Was hat das damit zu tun? Wie bereits erwähnt, betrug der Unterschied zwischen 3080 und 6800 XT einst etwa +/- 5%. Nun sehen wir teilweise eine Differenz von 37%.
aufkrawall
2024-05-04, 18:16:58
Helldivers 2 hat auch auf RDNA2 vom letzten Treiber profitiert:
https://youtu.be/xsEpAdeo7yE?t=476
Ansonsten selbst schuld, wer dieses Jahr noch RDNA2 >400€ gekauft hat.
DrFreaK666
2024-05-04, 18:51:56
Die anderen Beispiele gekonnt ausgeblendet?
Welches andere Beispiele denn, die Dildo in dem von mir zitierten Kommentar genannt hat? :rolleyes:
][immy
2024-05-04, 19:02:41
Die anderen Beispiele gekonnt ausgeblendet? Geht außerdem um die 6800XT nicht 7800XT
35%+ das ist krass. Die Karten (6800XT vs RTX 3080) waren 2020 ziemlich gleich, außer es kam RT zum Einsatz. Aber AMD Fine Whine ist wohl endgültig Geschichte mit RDNA3 und dem Chiplet Design.
https://s20.directupload.net/images/240504/tk8z9suw.jpg https://s20.directupload.net/images/240504/q4t6rwia.jpg https://s20.directupload.net/images/240504/uaedfhin.jpg
Du übersiehst dabei das auch rdna3 dort nicht so doll gegenüber der 3080 steht. Insgesamt muss man sich damit anfreunden daß Treiberoptimierungen bei rdna2 fast ausgeschöpft sein sollten, bei rdna3 hingegen war von Anfang an mehr Potential. Viel Chipfläche die scheinbar nichts brachte aber jetzt eventuell was bringt. Und dann sind es noch Titel wo man nicht über den Speicher glänzen kann. Ist halt alles abhängig vom Titel.
vinacis_vivids
2024-05-04, 19:25:54
RTX 3080 Ti vs RX 6700 XT gibs hier :tongue::
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13535923&postcount=349
E39Driver
2024-05-06, 12:45:17
Die anderen Beispiele gekonnt ausgeblendet? Geht außerdem um die 6800XT nicht 7800XT
[B]35%+ das ist krass. Die Karten (6800XT vs RTX 3080) waren 2020 ziemlich gleich, außer es kam RT zum Einsatz. Aber AMD Fine Whine ist wohl endgültig Geschichte mit RDNA3 und dem Chiplet Design.
Sowas ärgert mich als Besitzer einer 6800XT ziemlich und hab ich kein Verständnis für. Hatte die letzten Jahre eigentlich fast durchweg nur Radeons verbaut. Der gefühlt länger anhaltende Treibersupport war einer der Pluspunkte für die Wahl gewesen.
Zuletzt hat man aber schon Polaris und Vega ohne Not aus dem Treibersupport gekickt, obwohl das immer noch gute FHD Gamingkarten sind. Wenn jetzt wirklich schon RDNA2 im Treiber vernachlässigt werden sollte, wars das für mich und die nächste Grafikkarte wird eben eine 5080 werden. Also mal abwarten ob sich dieses Treiberbild über weitere neue Titel so verfestigt
robbitop
2024-05-06, 14:33:35
Kaum vorstellbar, dass AMD RDNA2 aus dem Treibersupport kickt oder vernachlässigt. Immerhin verkauft AMD RDNA2 noch in hohen Stückzahlen. Nichtzuletzt bei APUs, Konsolen, und auch dGPUs werden noch viel verkauft.
Neuere Spiele nutzen ggf auch einfach mehr FP Leistung. Ampere verdoppelte die FP Leistung und auch RDNA3. RDNA2 hat das eben nicht - entsprechend kann es schon gut sein, dass RDNA3 und Ampere sich langsam absetzen.
Und wie aufkrawall's Link zeigt, brachte der letzte AMD Treiber (24.4.1) auch für RDNA2 wieder deutlich mehr Leistung in Helldivers 2.
Ex3cut3r
2024-05-06, 14:57:02
Sowas ärgert mich als Besitzer einer 6800XT ziemlich und hab ich kein Verständnis für. Hatte die letzten Jahre eigentlich fast durchweg nur Radeons verbaut. Der gefühlt länger anhaltende Treibersupport war einer der Pluspunkte für die Wahl gewesen.
Zuletzt hat man aber schon Polaris und Vega ohne Not aus dem Treibersupport gekickt, obwohl das immer noch gute FHD Gamingkarten sind. Wenn jetzt wirklich schon RDNA2 im Treiber vernachlässigt werden sollte, wars das für mich und die nächste Grafikkarte wird eben eine 5080 werden. Also mal abwarten ob sich dieses Treiberbild über weitere neue Titel so verfestigt
Das kann ich nachvollziehen. Sind halt "nur" 3 neue Games. Muss man aber definitiv weiter beobachten. Weil +35% sind auch nicht einfach mal die üblichen Schwankungen, sondern schon eine Gen oder ein Modell höher Unterschied IMHO. Und 3080 vs 6800XT war zum rls ziemlich even. Wenn es aber wie Robbitop gesagt hat, an der FP Leistung hakt, dann kann man es nachvollziehen.
][immy
2024-05-06, 15:17:47
Dazu sei auch noch mal der folgende Artikel von Computerbase empfohlen
https://www.computerbase.de/2023-08/amd-rdna-2-rdna-3-gaming-vergleich/#abschnitt_raytracing_schmeckt_rdna_3_besser_als_rdna_2
RDNA3 kann sich schon manchmal von rdna2 absetzen es kommt halt auf den Titel an. Und ich würde den ganzen wirklich noch zuschreiben, das rdna3 deutlich mehr brach liegendes Potential hat und daher Treiberoptimierungen deutlich mehr bringen als bei der vorherigen Karte. Es kommt halt auch immer darauf an, welche Spiele man testet (auch bezüglich der Nvidia GPUs).
Hier wird auch noch mal die dual issue Problematik angesprochen https://www.reddit.com/r/hardware/comments/102veop/rdna3_gpus_only_capable_of_36tflops_vs_61tflop/?rdt=64900
Also das neuere Spiele stärker von Optimierungen profitieren liegt wohl im Endeffekt dort begraben. Die TF sind halt auch aberwitzig angestiegen ohne das man die Zahlen noch vergleichen kann.
Dual issue war doch seit dem dritten Treiber für RDNA3 kein Problem mehr, außer dass die Leistung mit jedem neuem Treiber etwas verbessert wurde. Eine 7800xt für 480€ ist ein Nobrainer.
Ex3cut3r
2024-05-20, 19:05:50
Schon wieder kackt RDNA 2 vs Ampere ein. Diesmal ist eine 6950XT gegen den "kleinen" GA102 Chip mit 26% hinten dran. Gegen eine 3090 oder gar 3090 Ti sehe es noch schlimmer aus. RDNA 2 scheint bedrohlich schlecht zu altern, ob es (wieder) an der FP Leistung liegt?
https://s20.directupload.net/images/240520/dskazqwl.jpg
https://www.computerbase.de/2024-05/3dmark-steel-nomad-test/
robbitop
2024-05-20, 19:07:42
Absolut kein Verlust. 3DMark. Kann man nicht zocken. ;)
Denniss
2024-05-21, 02:02:05
Bei PCGH sieht die aber besser aus, da gabs wohl nen Schluckauf im CB system
https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Steel-Nomad-Light-Benchmark-UL-Solutions-GPU-Test-Review-Hands-on-1447596/2/
dildo4u
2024-05-21, 06:40:21
PCGH sortiert nach dem Light Test beim Heavy Test ist 6700XT langsamer als A770 wie bei CB.(2500 vs 2700 Punkte)
The_Invisible
2024-05-21, 07:27:53
Absolut kein Verlust. 3DMark. Kann man nicht zocken. ;)
Ist aber in den letzten Games schon öfter aufgefallen: https://www.computerbase.de/forum/threads/3dmark-steel-nomad-im-test-das-kann-der-neue-benchmark-und-so-schnell-laeuft-er.2196444/page-5#post-29427373
Und das gegen eine olle 10gb Karte...
dildo4u
2024-05-21, 09:15:51
Ich würde mir Gedanken machen wenn sie Heute in Hellblade nicht performt UE 5.3 mit allen Effekten da brauchts du jedes Prozent Leistung.
Der 3D Mark taugt nur um innerhalb einer Architektur zu vergleichen wie man z.b sieht überbewertet der Test ARC massiv die A770 ist in echten Raster Games deutlich langsamer.(20%)
A770 = 4060/7600
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
dargo
2024-05-21, 09:18:45
Ich würde mir Gedanken machen wenn sie Heute in Hellblade nicht performt UE 5.3 mit allen Effekten da brauchts du jedes Prozent Leistung.
Worüber du dir so Gedanken als Konsolenspieler machst ist verblüffend.
dildo4u
2024-05-21, 09:27:49
Klar ist man Konsolen Spieler wenn man die grottig PC Release sieht warum mehr Geld bezahlen für eine schlechtere Erfahrung?
DF hatte gerade erst ein Video dazu selbst mit 5.4 sind die Probleme nicht beseitigt und selbst in Fortnite vorhanden.
dargo
2024-05-21, 10:18:59
Dieses dramatisieren im Vorfeld ist einfach nur noch peinlich.
https://i.postimg.cc/jShXhNFn/Hellblade2.jpg (https://postimg.cc/tsYWq1y9)
https://www.pcgameshardware.de/Senuaxs-Saga-Hellblade-2-Spiel-72402/Specials/Release-Test-Benchmarks-1447825/2/
Sieht für mich für diese Optik völlig ok aus bei non UE 5.4. Zumal die PCGH eh immer dazu tendiert worst cases zu benchmarken. Zur Not wird halt das eine oder andere Setting nicht auf Ultra stehen um höhere Frames zu erhalten. Wie überraschend bei einer 6800XT nach bald 4 Jahren. :freak: TSR ist direkt an Board, sehr schön. (y)
DrFreaK666
2024-05-21, 10:19:19
Ist aber in den letzten Games schon öfter aufgefallen: https://www.computerbase.de/forum/threads/3dmark-steel-nomad-im-test-das-kann-der-neue-benchmark-und-so-schnell-laeuft-er.2196444/page-5#post-29427373
Und das gegen eine olle 10gb Karte...
In Hellblade 2 ist die 6800XT wieder stärker laut CB. Zufrieden?
Lolly4zomfg
2024-05-22, 19:09:47
Auf Linux sieht man gut wie viel Potenzial die RX 6800 & 6800 XT noch haben https://www.phoronix.com/review/1080p-linux-gaming-late-2023:
https://www.phoronix.com/benchmark/result/october-2023-linux-1080p-graphics-performance/geometric-mean-of-all-test-results-result-composite-o2l1gp.svgz
Da ist die 6800XT sogar ein gutes Stück vor der 7800XT und das im Durchschnitt und nicht nur in einem einzelnem Spiel. Macht ja in gewisser weiße auch Sinn, da die 6800 XT mehr Shader, TMU und ROPs hat.
Valve und CO leisten mit dem Linux RADV Grafiktreiber ganze Leistung. Die bringen teilweise sogar mehr Performance als der Windows Treiber. Nur Raytracing ist noch etwas hinterher, das ist aber bei AMD aber eh nicht das wichtigste Feature.
Wäre interessant die Ausreißer Spiele in Windows/Linux zu vergleichen um zu sehen obs wirklich an einem unoptimiertem Windows Treiber liegt, oder eher ein Hardwarelimit ist.
aufkrawall
2024-05-22, 19:16:45
Die Phoronix-Tests sind leider sehr beschränkt, weil fast gar nichts mit VKD3D-Proton getestet wird.
Ich sehe aber auch mit der 7800 XT in UE5/Talos 2 5-10% mehr Leistung im GPU-Limit als unter Windows.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.