PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8

Ex3cut3r
2020-11-18, 22:20:01
So ein Blödsinn mal wieder. Ich habe selbst 2 Jahre lange mit der 2080 RT und/oder DLSS nutzen dürfen. In und jetzt kommst grade 1 mal Spiel fällt mir ein, und zwar Control. Da sage ich, ja sieht mit RT wirklich besser aus. DLSS wiederum hat mich noch nie überzeugt. Sry. Sieht @ 21:9 schlechter aus, als nativ. In Death Stranding habe ich es aber in Verbindung mit DS genutzt und Zwar 5160x2160 und erst denn finde ich DLSS optisch gut. Das Problem ist einfach, das Nvidianer sich jetzt wieder an die letzen Strohhalme haften müssen. Weil sonst gibt es nix. Effizienz die immer früher gerne hinhalten müsste ist weg, davor was es PhysX. Es interessiert einen für die 3 Spiel im Jahr nicht, was einen aber interessieren sollte, ist der VRAM bzw. die Menge, mit neuen Konsolen Gen sollte man darauf achten, meiner Meinung nach, wer das anders sieht, darf sich gerne diese VRAM magersüchtigen Karten holen.

EinName
2020-11-18, 22:21:37
Wo ist Raytracing denn proprietär? Läuft doch auf AMD-Karten.

Nein, reine RTX Implementationen laufen eben nicht auf AMD Karten (Quake RTX, Mincraft RTX, ein oder zwei weitere Titel).

Sofern DLSS dann mal ohne Spieleoptimierung läuft, oder wenn doch, dann zumindest auch auf AMD und Intel Karten, dann melde dich nochmal. Aktuell kann es keins meiner Spiele, und davon sind mir die meisten zu lahm auf der 2080 in WQHD.

Und ja, ich habe eine Nvidia Karte. Ich find die toll. Ich finde aber nach dem Release heute auch eine Karte von AMD toll. Sogar so toll, dass ich wohl dahin updaten werde, nach 3x NVidia, weil sie für mich, ja, das ist komplett subjektiv, diesmal die besseren Karten mit besserer P/L für meinen persönlichen Einsatzzweck bauen.

Und nun trollt doch bitte woanders. Dem nächsten der hier kommt mit "aber aber aber aber RTX ON", den muss ich anbrüllen. Kauft halt NV und seid glücklich, aber macht nicht einen auf zu mitteilsame Veganer.

dargo
2020-11-18, 22:21:46
Ah und DLSS ist genau für die Leute gemacht, die 100 Minfps mit RT haben wollen.
Du meinst die min. 100fps wie in Watch Dogs? ;D

CD3YWmixnR8

#dargo
Du besitzt das Spiel noch nicht mal, bist also gar nicht qualifiziert solche Aussagen zu tätigen.
Ich habe aber Augen im Kopf.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12482997&postcount=822

Zumindest in WDL sieht DLSS nicht überall besser aus, es sieht oft genug schlechter aus. Und solange dies so ein fauler Kompromiss ist interessieren mich solche Techniken nicht. Weder bei Nvidias Lösung noch AMDs Lösung. Letzteres muss sich halt noch beweisen wenns soweit ist. Ich bin eh skeptisch ob solche Features sich bei Auflösungen wie 1080p oder 1440p überhaupt etablieren. Die Zukunft solcher Features sehe ich eher in höheren Auflösungen mit hoher Pixeldichte. Also zb. 4k auf 27" Screens und erst recht später bei 8k.

F4USt
2020-11-18, 22:21:55
Ist jetzt sicherlich Cherry Picking, aber was ist, wenn ich den Witcher in 4K spielen will? :D
https://abload.de/img/unbenanntdij3h.png
Die Karte ist eine gute Karte, bis der Punkt kommt, wo sie was zutun bekommt?
Das sind immerhin 30%, was läuft da falsch?
Denke, dass das ein Treiber regelt, gute Treiberarbeit ist das aber nicht, der Witcher ist nun mal ein Vorzeigespiel.
Die Frage ist eher, warum ich sowas veröffentliche. TPU hat den Witcher ebenfalls drin, dort liegt die XT rund 20% vor einer 2080Ti. Kann also kein (grundlegendes) Treiberproblem sein, sonst hätten es andere auch.

Liegt an den Einstellungen. Bei PCGH ist Hairworks on, bei techpowerup hingegen off.
https://www.techpowerup.com/review/amd-radeon-rx-6800/29.html

gedi
2020-11-18, 22:23:13
Sicher das du DLSS z.b in Death Stranding oder Watch Dogs Legion etc aktiviert hattest ? ;)

Jupp, allerdings spiele ich auf einem 65" Monitor und da sieht man offensichtlich doch etwas mehr ;)

Lawmachine79
2020-11-18, 22:24:53
Du meinst die min. 100fps wie in Watch Dogs? ;D

https://youtu.be/CD3YWmixnR8


Ich habe aber Augen im Kopf.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12482997&postcount=822
Nein, die in COD:Warzone. Zocke das so. Bei Watch Dogs müsste ich es wohl deaktiveren, dann sieht es eben aus wie auf AMD-Karten, nur mit ein paar FPS mehr.

Hakim
2020-11-18, 22:30:54
Ist eigentlich sonst einem Reviewer das aufgefallen was Igor in seinem Video mit dem RT auf den Radeon beschreibt? Er meint ja das es nicht so aussieht wie bei den NV Karten. Aber so ganz sicher scheint er sich auch nicht zu sein. Könnte auch einfach ein Fehler sein was beseitigt wird, zumindest bei PC-Welt meinten die das es auch Abstürze bei RT gab, daher denke ich mal das da noch was kommt.

SKYNET
2020-11-18, 22:32:07
neuer hypetrain fällig?

Ahh, before i forget, i spoke about Big Navi.... y'all think our 6900XT is Big Navi? ok, here is our real Big Navi: 96 CUs, 32GB of super fast HBM2E and 256MB of Infinity Cache, available from December 15th 2020 MSRP $1599

y33H@
2020-11-18, 22:32:36
Watch Dogs Legion zeigt Bildfehler, ja.

Savay
2020-11-18, 22:34:25
Ich hab da letztens was von nem Chip mit 128CUs und 32GB HBM gehört.

GamingArcturus incoming?! :tongue:

Neurosphere
2020-11-18, 22:35:40
neuer hypetrain fällig?

Natürlich.... Wo kommt sowas denn schon wieder her?

horn 12
2020-11-18, 22:36:05
y33H@

Sorry, aber kommen noch viele XT / 6800 Non XT Referenz Karten
oder wie es nun heisst so gut wie keine mehr.

dargo
2020-11-18, 22:58:04
Hatten wir das schon?
https://youtu.be/ZtxrrrkkTjc?t=934

Die RTX 3080 verliert 22% bei Zuschaltung von Raytracing, die RX 6800XT 20%. Mal sehen ob das ein Ausnahmefall ist oder einfach die RT-Games erstmal vernünftig an Navi21 RDNA2 angepasst werden müssen. Bei älteren Titeln wird man da eventuell kein Hirnschmalz mehr investieren. Da muss man einfach die kommenden Games mit RT-Support genauer unter die Lupe nehmen.

Robot
2020-11-18, 23:01:44
Ist eigentlich sonst einem Reviewer das aufgefallen was Igor in seinem Video mit dem RT auf den Radeon beschreibt? Er meint ja das es nicht so aussieht wie bei den NV Karten. Aber so ganz sicher scheint er sich auch nicht zu sein. Könnte auch einfach ein Fehler sein was beseitigt wird, zumindest bei PC-Welt meinten die das es auch Abstürze bei RT gab, daher denke ich mal das da noch was kommt.

Die Reviewer haben gar keine Zeit dazu auf die Bildqualität groß zu achten, da werden Benchmarks durchgekloppt, Gemessen, Bilder machen, getextet und dann is schon Launch day. Das ist Stress pur.

Und zwischendurch muss auch noch das "Unboxing" veröffentlich werden ;D

Auf PC-Welt würd ich ehrlich gestanden nix geben, das kann auch deren Installation gewesen sein. Wenn Abstürze wirklich so gängig wären, hätten das andere auch geschrieben. Wird sach dann zeigen, wenn die User den Beta-Test machen ;)

Geächteter
2020-11-18, 23:05:43
Effizienz die immer früher gerne hinhalten müsste ist weg, davor was es PhysX. Es interessiert einen für die 3 Spiel im Jahr nicht, was einen aber interessieren sollte, ist der VRAM bzw. die Menge, mit neuen Konsolen Gen sollte man darauf achten, meiner Meinung nach, wer das anders sieht, darf sich gerne diese VRAM magersüchtigen Karten holen.
Naja, ATI hat wohl immer noch den riesigen Klumpfuß, dass AF ab DX 10 nicht im Treiber forciert werden kann und man auf Gedeih und Verderb auf die Anwendung angewiesen ist. Kümmert aber ATI anscheinend einen feuchten Scheißdreck.
Performance in OpenGl ist auch nicht so prickelnd, die Wahrscheinlichkeiten auf Treiber-Schwierigkeiten mit sehr alten Games zu stoßen höher als beim Lederjackenverein und der Verbrauch bei Dual-Monitor-Setup und Videobeschleunigung immer noch nicht prickelnd.

dargo
2020-11-18, 23:08:11
Wen interessiert in fast 2021 noch der Steinzeitschrott @OpenGL? :freak: Sollen wir wieder zu DX9 zurück? Oder gleich besser DX7? X-D Auf der einen Seite wird mit Raytracing ständig rumgehämmert, auf der anderen Seite kommt jetzt einer mit OpenGL. :crazy:

Hakim
2020-11-18, 23:22:06
.....und der Verbrauch bei Dual-Monitor-Setup und Videobeschleunigung immer noch nicht prickelnd.

Eben das verstehe ich gerade auch nicht, Techpowerup die das immer stark bei AMD kritisiert haben bescheinigt jetzt das es Verdammt gut läuft, nur 7W bei Dual Moni, was sogar besser aussieht als die Konkurrenz, dem gegenüber bescheinigen andere Tester wieder vollen Ram Takt, und ob man im Idle 7W verbraucht oder knapp 40W ist schon ein unterschied. Scheint immer noch etwas Glückssache zu sein was für Moni man nutzt.

Geächteter
2020-11-18, 23:27:38
Wen interessiert in fast 2021 noch der Steinzeitschrott @OpenGL? :crazy:
Es ist schon bezeichnend, dass selbst Intel mittlerweile dort treibermäßig sehr viel besser als ATI ist.

dargo
2020-11-18, 23:30:30
Es ist schon bezeichnend, dass selbst Intel mittlerweile dort treibermäßig sehr viel besser als ATI ist.
Wenn Intel gerne Geld verpulvert. Schau dir AAA-Titel in 2020 an, was kam da mit OpenGL? id Software hat sich aus guten Gründen von dem Schrott schon länger verabschiedet und ist auf Vulkan umgeswitscht.

w0mbat
2020-11-18, 23:36:43
Es ist schon bezeichnend, dass selbst Intel mittlerweile dort treibermäßig sehr viel besser als ATI ist.
Alter, Intel und Nvidia hinken so weit hinterher wenn es um DX7 geht, das ist schon sehr bezeichnend!

Geächteter
2020-11-18, 23:38:46
Wenn Intel gerne Geld verpulvert. Schau dir AAA-Titel in 2020 an, was kam da mit OpenGL? id Software hat sich aus guten Gründen von dem Schrott schon länger verabschiedet und ist auf Vulkan umgeswitscht.
Da hast du Recht, ist halt nur ein Nachteil für einige. Aber die Krankheit besteht seit langem und ATI hat es ignoriert, auch als die Schnittstelle noch mehr genutzt wurde. Stattdessen um ihren Treiberschrott lieber 'n schönes Interface drumrum gebastelt.
Wahrscheinlich wird das mit dem AF genauso enden, also der alte Zustand bis in alle Ewigkeit. Zum Glück braucht das der Mainstream nicht und die aktuellen Karten sind sonst gut. So wird der Lederjacke endlich mal in seiner Küche Feuer gemacht.

Lawmachine79
2020-11-18, 23:43:20
Da hast du Recht, ist halt nur ein Nachteil für einige. Aber die Krankheit besteht seit langem und ATI hat es ignoriert, auch als die Schnittstelle noch mehr genutzt wurde. Stattdessen um ihren Treiberschrott lieber 'n schönes Interface drumrum gebastelt.
Wahrscheinlich wird das mit dem AF genauso enden, also der alte Zustand bis in alle Ewigkeit. Zum Glück braucht das der Mainstream nicht und die aktuellen Karten sind sonst gut. So wird der Lederjacke endlich mal in seiner Küche Feuer gemacht.
Wenn ein Spiel also kein Ingame-AF bietet, habe ich dann mit AMD Texturmatsch, also so, als hätte ich zu wenig VRAM?

dargo
2020-11-18, 23:44:43
Wenn ein Spiel also kein Ingame-AF bietet, habe ich dann mit AMD Texturmatsch, also so, als hätte ich zu wenig VRAM?
Dein Halbwissen tut nur noch weh.

grizu
2020-11-18, 23:58:04
Jupp, allerdings spiele ich auf einem 65" Monitor und da sieht man offensichtlich doch etwas mehr ;)
Okay, krass :D das wäre mir eindeutig zu gross.. Was haste denn fürn Sitzabstand ?

MikePayne
2020-11-19, 00:09:42
Da hast du Recht, ist halt nur ein Nachteil für einige. Aber die Krankheit besteht seit langem und ATI hat es ignoriert, auch als die Schnittstelle noch mehr genutzt wurde. Stattdessen um ihren Treiberschrott lieber 'n schönes Interface drumrum gebastelt.
Wahrscheinlich wird das mit dem AF genauso enden, also der alte Zustand bis in alle Ewigkeit. Zum Glück braucht das der Mainstream nicht und die aktuellen Karten sind sonst gut. So wird der Lederjacke endlich mal in seiner Küche Feuer gemacht.

Keine Ahnung was Du hier für Probleme konstruierst, aber auf den WinXP Gedächtnis-Treiber von nv habe ich wenig Lust. Kenne da jmd, mit einer 3090, der hart vom nv Treiber getriggert wird ;)

Das mehr Funktionen im AMD-Treiber drin sind sollte auch nicht vergessen werden.

Zu den Karten: Die 6800 wäre was für mich, aber die 5700 wird noch paar extra Runden drehen müssen :)
Jedenfalls hat AMD Rückstände aufgeholt, RT geht so (war aber klar bei der "ersten Version" von denen), dafür 16 GB VRAM am Start.

Hätte vor einem Jahr keiner für möglich gehalten und selbst jetzt bei min Gleichstand gibt es da die üblichen Verdächtigen die Käse zum Whine fordern.

dargo
2020-11-19, 00:10:37
Verdammt... dieses SAM wird auf längere Sicht wohl Pflicht für mich. Man achte bei HZD auf die Frametime-Varianz.
https://www.igorslab.de/wp-content/uploads/2020/11/Horizon-Zero-Dawn-FrameTimeVariance-2560-x-1440-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png

Ich hoffe nur Igor ist bei diesen Messungen besonders penibel. Sprich... mehrere Messungen plus dann den Schnitt ermitteln. Wenn das nur eine Messung je Karte war kann man es eher vergessen.

Edit:
Das ist mir auch noch gar nicht aufgefallen.
https://www.igorslab.de/wp-content/uploads/2020/11/Horizon-Zero-Dawn-AvWatt_DE-2560-x-1440-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png

Beide Nav21 Karten laufen hier offenbar ins Taktlimit in diesem Spiel (beide GA102 ins Powerlimit), die RX 6800 sogar extrem. Der max. Takt ist offenbar zu niedrig bei den Referenzkarten für manche Spiele voreingestellt (MPT ahoi :D). Oder Powerlimit zu großzügig, kann man jetzt sehen wie man möchte. :wink:

Hakim
2020-11-19, 00:11:14
Bei dem Video Review vom JayTwoCents Taktet die 6800XT bei RT (Control) teilweise um die ~570 Mhz, da sollte noch was bezüglich RT kommen in den nächsten Treiber Versionen.

DrFreaK666
2020-11-19, 00:17:14
... Der wo da keinen Unterschied zwischen nativ und Upscaler aka NV sieht, sollte dringend zum Augenarzt. Leider bringt AMD diesbezüglich ein Equivalent ...

Wieso leider?

Praktisch fast alle neuen Games unterstützen dlss ..ist für mich das beste nvidia feature überhaupt

Das Feature ist toll, aber "fast alle neuen Games"?
- Assassin´s Creed - Valhalla?
- Dirt 5?
- Horizon - Zero Dawn?
- Godfall?
- Spellforce 3?
- Need for Speed: Hot Pursuit Remastered?
- Star Wars: Squadrons?
- Aquanox: Deep Descent?
- Iron Harvest?
- Serious Sam 4?
- Mafia: Definitive Edition?
- Microsoft Flight Simulator?
- Wasteland 3?
Bleib mal bitte realistisch.

Savay
2020-11-19, 00:32:12
Alter, Intel und Nvidia hinken so weit hinterher wenn es um DX7 geht, das ist schon sehr bezeichnend!

Bezeichnend ist ja insbesondere auch, dass er die Fa. noch ATi nennt. :wink:
Das er OpenGL dann für so ne Gaming Schüssel noch irgendeine praktische Relevanz zuspricht die über das GUI von Photoshop und Lightroom hinaus geht (und dort sowieso von quasi jeder popeligen IGP auf der linken Arschbacke abgefrühstückt wird), verwundert da dann doch fast weniger. :tongue:

Um mindestens ne Dekade mit dem Post vertan?!
https://memegenerator.net/img/instances/55190283/what-year-was-it.jpg

Robot
2020-11-19, 00:32:51
Verdammt... dieses SAM wird auf längere Sicht wohl Pflicht für mich. Man achte bei HZD auf die Frametime-Varianz.
https://www.igorslab.de/wp-content/uploads/2020/11/Horizon-Zero-Dawn-FrameTimeVariance-2560-x-1440-DX12-Ultra-Settings-FoV-90-TAA-Blur-On.png

Ich hoffe nur Igor ist bei diesen Messungen besonders penibel. Sprich... mehrere Messungen plus dann den Schnitt ermitteln. Wenn das nur eine Messung je Karte war kann man es eher vergessen.


Da ich weiß wie viel Zeit man bei so einem Launch hat aus alten Zeiten, vergiss es ;) das waren sicherlich nicht viele Durchlaufe.

Frage, wieso sollte SAM die RX6800 drastisch verbessern aber die RX6800XT nicht und das so, dass die RX6800 mit SAM besser ist als die RX6800XT mit SAM?

Ergibt für mich keinen Sinn, oder übersehe ich was?

N0Thing
2020-11-19, 00:37:50
Zusammenfassung:
[...]
- In den Benchmarks ist das SAM-Feature berücksichtigt; schaltet NV bald per Treiberupdate frei, dann vergrößert sich der Abstand etwas

Computerbase, Golem und PCGH haben dieses Feature standardmäßig nicht aktiv, aber in extra Tests behandelt. Bei Igorslab hat man Messungen sowohl mit als auch ohne SAM. Von daher wird sich an den generellen Benchmark-Ergebnissen und den Abständen nichts ändern.


Hoffe mal das zieht sich nicht durch die Produktion brutal.


https://youtu.be/2fs0yByc8EA?t=376

Were the Fuck is nagus.

So nah wie das Mikrofon bei der Aufnahem gewesen sein muss, dürfte das in der Praxis keine große Relevanz haben. Die Hintergrundgeräusche in dem Video sind lauter als meine Polaris oder Vega Referenzlüfter unter Last. :freak:
Hardware Canucks sagen ja selber, dass es vor allem im offenen Aufbau störend sei.



warum ist das sonst niemandem aufgefallen? kartendefekt? sehr komisch.

Das Spulenfiepen wurden von mehreren Reviewern erwähnt, aber als weniger störend im Vergleich mit der Nvidia FE beschrieben.

bnoob
2020-11-19, 00:43:54
Die letzte meiner Karten die nicht gefiept hat war meine 260X :D

Das "ist halt so" mit modernen Karten, und wurde bisher mit den Monaten auch immer weniger.

Robot
2020-11-19, 00:46:48
So nah wie das Mikrofon bei der Aufnahem gewesen sein muss, dürfte das in der Praxis keine große Relevanz haben. Die Hintergrundgeräusche in dem Video sind lauter als meine Polaris oder Vega Referenzlüfter unter Last.

Haha jo, Laustärkemessungen sind wie Netzteiltests zu 90% BS. Die Messwerte von denen sind immer >35 dBa, jeder 200€ Voltcraft-Eimer misst ab 32 dBA teilweise bis 30 dBA, und ein vernüftiges Benchmarksystem mit Lufkühler bekommt man locker unter 28 dBA. Ist also völlig ohne Aussage der Test da irgendwie.

Das Spulenfiepen klingt für mich nach sehr hohen FPS, eventuell provoziert durch Game-Menu oder einfach Furmark im 100x100 pixel fenster ;)

Langlay
2020-11-19, 00:49:58
. Kenne da jmd, mit einer 3090, der hart vom nv Treiber getriggert wird ;)

Das mehr Funktionen im AMD-Treiber drin sind sollte auch nicht vergessen werden.

Der getriggerte mit der 3090 bin ich. Das grundsätzliche Problem ist halt was man gewohnt ist und welche Funktionen man vom Treiber den nun nutzt.

Eins vorne weg ich hatte vor der 3090 relativ lange AMD Grakas ims Rechner. Bin also den Treiber von AMD gewohnt. Und aus dieser Sichtweise ist der Nvidia Treiber einfach scheisse. Ich erkläre auch warum. Ich war durch AMD gewohnt das quasi alles was mit der Graka mache kann ich über das Treiberuserinterface erledigen und brauche dazu nicht mehrere verschiedene 3rd Party Tools mit denen ich das dann erledigen kann. Beispiele gefällig? Kein Problem fangen wir simple an, OC/UV kann ich bei AMD easy über den Wattmann machen, es gibt sogar eine gut funktionierende AutoOC und für mich wichtiger AutoUV funktion. Also kein Bedarf für den Afterburner. Ich kann mittels des Overlay vom AMD Treiber Treibereinstellungen ingame ändern ohne rauszutabben, das geht bei Nvidia nicht. Ich hab ein weiteres Overlay das mir die wichtigsten Daten anzeigt (FPS, GPU Takt, GPU Auslastung RAM Auslastung Vram Auslastung usw.) heisst ich kann zu 95% auch auf das RTSS Overlay verzichten.

Ja grundsätzlich geht das meiste davon auch bei Nvidia, allerdings brauch ich dafür extra Tools die eigene Probleme mitbringen. Und ich hatte in den letzten Jahren mehr Probleme durch den Afterburner und RTSS als mit dem AMD Treiber. Also ist für mich ist das Argument der Nvidia Treiber ist ja soviel besser nicht so wirklich nachzuvollziehen. Selbst wenn wir von dem WinXP Look absehen, der Treiber selbst wirkt für mich wie ein Relikt aus grauer Vorzeit und nicht wie State of Art 2020.

Das jemand der der ewigen Zeiten Nvidia benutzt und es gewohnt ist mit 3-10 Tools zu arbeiten, meine Kritik nicht ganz nachvollziehen kann ist mir allerdings auch klar.

dargo
2020-11-19, 00:51:38
Frage, wieso sollte SAM die RX6800 drastisch verbessern aber die RX6800XT nicht und das so, dass die RX6800 mit SAM besser ist als die RX6800XT mit SAM?

Ergibt für mich keinen Sinn, oder übersehe ich was?
Du kannst wohl meine Gedanken lesen. ;)

Robot
2020-11-19, 00:55:39
Du kannst wohl meine Gedanken lesen. ;)

Es sieht ganz so aus. Zwei D... ein Gedanke ;)


Sendung ist in der Region des Empfängers angekommen.
Do, 19.11.2020, 00:52 Uhr

Ich glaub ich hab noch nie so oft bei DHL auf F5 gespammt.
Auch wenns teuer war, ich freu mich schon dass ich eine bekommen habe, wo die GeForce der totale Reinfall war und mir 5 gecancelt wurden :(

Screemer
2020-11-19, 00:58:14
Bezeichnend ist ja insbesondere auch, dass er die Fa. noch ATi nennt. :wink:
Das er OpenGL dann für so ne Gaming Schüssel noch irgendeine praktische Relevanz zuspricht die über das GUI von Photoshop und Lightroom hinaus geht (und dort sowieso von quasi jeder popeligen IGP auf der linken Arschbacke abgefrühstückt wird), verwundert da dann doch fast weniger. :tongue:

Um mindestens ne Dekade mit dem Post vertan?!
https://memegenerator.net/img/instances/55190283/what-year-was-it.jpg
Hier stand müll

dargo
2020-11-19, 01:08:30
Ich glaub ich hab noch nie so oft bei DHL auf F5 gespammt.
Auch wenns teuer war, ich freu mich schon dass ich eine bekommen habe, wo die GeForce der totale Reinfall war und mir 5 gecancelt wurden :(
Ich hätte da schon einige Fragen an dich, hoffe du bist bereit paar Sachen für mich zu testen im Laufe der nächsten Tage. :) Das sind halt Punkte die kein Review liefern kann.

Robot
2020-11-19, 01:19:07
Ich hätte da schon einige Fragen an dich, hoffe du bist bereit paar Sachen für mich zu testen im Laufe der nächsten Tage. :) Das sind halt Punkte die kein Review liefern kann.

Wenn ich die Zeit finde gerne, mach ne Liste, sind ja auch noch andere hier die eine bekommen haben, zusammen wird man das schon raus finden ;)

Ich hab gerade noch 9 Netzteile zu testen, da muss die Grafikkarte erst mal hinten anstehen :freak:

Slipknot79
2020-11-19, 01:28:27
Von pixeljetstream war schon lange nix moar zu lesen. Wurde er bereits von Lederjacke zu crunchtime 2 Jahre vor release eingezogen damit er an der perf der 4000er Generation arbeitet? :redface:

N0Thing
2020-11-19, 01:31:25
Hier hat er doch erst vor ein paar Tagen einen neuen Thread erstellt:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603254

Hott3X
2020-11-19, 06:46:23
Ich muss echt sagen, das Referenzdesign der 6800XT gefällt mir sehr gut. Temperatur und Lautstärke passt. Jetzt juckt es mir schon in den Fingern, gut dass man die Karten im Moment
nicht bekommt. Die 70€ Aufpreis von der 6800 auf die XT wären mir schon der bessere Kühler wert.

Loeschzwerg
2020-11-19, 07:15:38
Ich muss echt sagen, das Referenzdesign der 6800XT gefällt mir sehr gut.

Mir auch. Nur schade dass die Ref-Karten wohl nur schwer zu UVP Preisen zu bekommen sein werden, wenn denn überhaupt.
Produktion der Karten nur noch "through early 2021 (https://mobile.twitter.com/sherkelman/status/1329195091794272263)", da kann man sich vorstellen wie limitiert die Verfügbarkeit sein wird. Jetzt wo AMD endlich mal ein durchweg gutes Design geliefert hat ;(

EinName
2020-11-19, 07:27:29
Hatten wir das schon?
https://youtu.be/ZtxrrrkkTjc?t=934

Die RTX 3080 verliert 22% bei Zuschaltung von Raytracing, die RX 6800XT 20%. Mal sehen ob das ein Ausnahmefall ist oder einfach die RT-Games erstmal vernünftig an Navi21 RDNA2 angepasst werden müssen. Bei älteren Titeln wird man da eventuell kein Hirnschmalz mehr investieren. Da muss man einfach die kommenden Games mit RT-Support genauer unter die Lupe nehmen.

Das ist mir gestern total entgangen, sollte aber für die RTX Jünger ein sehr beachtbarer Test und auch Forumspost sein. Die Entwickler haben ja mit AMD zusammengearbeitet, nicht mit NV für die Raytracing Implimentierung. Und siehe da, AMDs Raytracing ist genauso schnell bzw. sogar minimal schneller als von Ampere. Wahnsinn. Wenn das ein Zeichen für die "normalen" Raytracing Spiele Abseits von Nvidias eigener RTX Implimentierung ist, haben sie komplett überall aufgeholt. Man sieht es aktuell nur wegen den Spieleoptimierung hin zu NV nicht.

akuji13
2020-11-19, 07:59:28
Na das sind doch mal feine Karten geworden. :)
Schön das AMD im Oberhaus zurück ist, so steht einer Anschaffung 2021 hoffentlich nichts mehr im Wege (Stichwort Lierferfähigkeit zur UVP).
Da ich eine 2 slot Karte brauche, wird es sicher die 6800 im Referenzdesign.

Wenn sich jetzt noch die RT performance verbessert (wovon ich fest ausgehe), wird eine 3080 mMn obsolet.
Später könnte das sogar der 3090 blühen wenn die (schon zu hohe) UVP so bleibt.

Und ich hatte in den letzten Jahren mehr Probleme durch den Afterburner und RTSS als mit dem AMD Treiber.

Ich habe noch nie ein Problem mit dem AB oder RTSS gehabt...

Beispiele gefällig? Kein Problem fangen wir simple an, OC/UV kann ich bei AMD easy über den Wattmann machen, es gibt sogar eine gut funktionierende AutoOC und für mich wichtiger AutoUV funktion.

...dafür aber mit dem Wattmann, der bei spätestens jedem 5 Rechnerstart die Einstellungen vergessen hat.

Die ganzen anderen features waren für mich entweder belanglos (iChill) oder teils fehlerbehaftet (eigene Auflösung / VRR range Monitor).
Insgesamt heißt es deshalb für mich Gleichstand.

Ice-Kraem
2020-11-19, 08:10:26
Jetzt würde mich mal interessieren wie vergleichbar die Bildqualität ist. So Tests wie früher, als Nvida und ATi cheateten mit der Qualität, wären cool. Oder gibt es das bereits?

rentex
2020-11-19, 08:19:46
Da muss ich zustimmen. Der NV Treiber mag nicht alle funktionen wie der AMD Treiber zu besitzen, aber er läuft einfach stabiler und zuverlässiger. Probleme hatte ich mit dem AB ebenfalls nicht.
Ich hatte jetzt 3 Monate lang ne RX550 als Ersatzkarte, nach dem x ten Mal hab ich es aufgegeben, Einstellungen abzuspeichern, wenn sie eh nicht behalten wurden.

y33H@
2020-11-19, 08:21:28
Raff hat nicht gemeckert :biggrin:

Thunder99
2020-11-19, 08:31:35
Echt schade, wie manche die Karten zerreißen und schlechter machen als sie sind.

Die 6800er sind endlich Konkurrenzfähig! Sie haben Vor- und Nachteile. Eine 6800XT kann sogar eine 3090 schlagen, aber halt nur in wenigen Titeln. Weiter ist die 3080 bei manchen Spielen bei den FPS vorne, aber bei den 0,2% Penzil hinten. VRAM Menge ahoi ;).

Die Karten sind kein Killer aber schaffen etwas, dass es seit Hawaii nicht mehr gibt. Der Cache ist ein anderer Ansatz der aber gut funktioniert. AMD hat halt anscheinend nicht die Chance an GDDR6X zu kommen. Ergo müssen andere Lösungen her.

Wäre aber bestimmt sehr interessant geworden, wenn hypothetisch es 384bit mit dem Cache geworden wären. Halt auch mit Vor und Nachteilen.
Das zweischneidiges Schwert beim Stromverbrauch habe ich gelesen. Weiß der Geier warum sie es nicht besser machen können (YouTube, Dual Monitor)

Insgesamt finde ich tolle Karten!
Einzig RT ist pfui :freak:, war aber auch irgendwie zu erwarten. Mal schauen wie sie es mit dem Treiber und Zusatzfunktionen verbessern können :).

fondness
2020-11-19, 08:54:34
Mein Fazit: Die Karten sind sehr gut, IMHO hat AMD nur einen Fehler gemacht: Das Taktpotential hätte man heben sollen, dann wären man bei den Reviews auch Minimum auf Augenhöhe. Nachdem NV schon an die Kotzgrenze gegangen ist, hätte sich kaum jemand beschweren können wenn AMD das genauso macht. Jetzt kann man zwar mit einer besseren Perf/Watt punkten, aber die Performance in den Launchreviews wirkt IMO schwerer. Die Custom Reviews schauen sich viele dann gar nicht mehr an.

Um die RT Performance mache ich mir am wenigsten Gedanken. Diese Architektur ist Referenz, da sie in allen Konsolen drinnen streckt. Es wird kein NextGen-Spiel erscheinen, dass damit nicht gut läuft. Ganz im Gegenteil, Spiele werden darauf optimiert werden.

dildo4u
2020-11-19, 09:00:49
Um die RT Performance mache ich mir am wenigsten Gedanken. Diese Architektur ist Referenz, da sie in allen Konsolen drinnen streckt. Es wird kein NextGen-Spiel erscheinen, dass damit nicht gut läuft. Ganz im Gegenteil, Spiele werden darauf optimiert werden.
Cyberpunk hat tonnen RT und könnte sich wie Wichter 3 über 5 Jahre gut verkaufen, vielleicht sogar vergleichbar mit GTA5.

https://www.nvidia.com/de-de/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/

dargo
2020-11-19, 09:02:27
Ich muss echt sagen, das Referenzdesign der 6800XT gefällt mir sehr gut. Temperatur und Lautstärke passt. Jetzt juckt es mir schon in den Fingern, gut dass man die Karten im Moment
nicht bekommt. Die 70€ Aufpreis von der 6800 auf die XT wären mir schon der bessere Kühler wert.
Der Kühler der RX 6800XT ist nicht besser. Du musst die Randbedingungen betrachten, nicht nur reine dB.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12503540&postcount=40

Mit dem Defaultsetting ist er leiser, das ist sicher. Lässt sich aber problemlos anpassen. Ob der besser ist bezweifle ich noch stark bei 10°C Delta.

Flusher
2020-11-19, 09:06:33
Ich muss echt sagen, das Referenzdesign der 6800XT gefällt mir sehr gut. Temperatur und Lautstärke passt. Jetzt juckt es mir schon in den Fingern, gut dass man die Karten im Moment
nicht bekommt. Die 70€ Aufpreis von der 6800 auf die XT wären mir schon der bessere Kühler wert.

Frag mal GamersNexus aka TechJesus was er zum Ref-Kühler zu sagen hat.


-------------------------

Anderes Thema: hat irgendwer mal den Infinity Cache auf Herz und Nieren geprüft und unter Randbedingungen getestet? Irgendwie kann ich nicht glauben, dass einfach ein grosser Cache die geringere Speicherbandbreite ohne Nachteile so in allen Lebenslagen abfedern kann - wieso ist denn sonst niemand bereits darauf gekommen? Für APUs wäre das doch heilige Gral, da man somit die vergleichweise lächerliche Bandbreite des CPU-RAMs abfedern könnte.

WedgeAntilles
2020-11-19, 09:08:04
https://i.gyazo.com/90baf70ebdd28be4b79e6c471e6ba79c.png

Warum WQHD nehmen, wenn AMD selbst UHD als Grundlage genommen hat? Manchmal fällt einem zu unnötig lächerlichem getrolle echt nichts mehr ein.

Du willst jetzt für 4K also die 6800 als Referenz nehmen?
Jene Karte, die AMD selber als für WQHD bezeichnet?

Wieviele 4K-Spieler kaufen die 6800 und nicht die 6800XT?
Für 4K ist die 6800XT.

Du musst bei den Effizienz-Betrachtungen schon die Karte nehmen, die für jene Auflösung auch gedacht ist und gekauft wird.

Da ist die 6800XT halt 34% effizienter geworden.
Gut, aber nicht die versprochenen 50%.
Die Betrachtung einer Karte die für diese Auflösung keine große Relevanz hat ist lächerlich.

Aber das weißt du natürlich selber, so inkompetent bist du nicht.
Fragt sich also - wer trollt jetzt genau rum?


(Edit: Das die 50% nicht erreicht werden, macht die 6800XT nicht zu ner schlechten Karte - es wäre nur schön, wenn gewisse AMD-ler halt mal nicht versuchen würden die Fakten so zu verändern, dass sie zu ihrem Weltbild passen.)

dargo
2020-11-19, 09:12:37
Cyberpunk hat tonnen RT und könnte sich wie Wichter 3 über 5 Jahre gut verkaufen, vielleicht sogar vergleichbar mit GTA5.

https://www.nvidia.com/de-de/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/
Cyberpunkt, Cyberpunk, Cyyyyybeeerrpuuuunk!!! Ich kanns nicht mehr hören. Völlig überbewertetes Spiel. Zumindest was die Durchschnittsgrafik angeht. Rest kann dennoch überzeugen. So langsam frage ich mich ob CD Project mehr Geld fürs Marketing als für das Game selbst ausgegeben haben. :ulol:

Flusher
2020-11-19, 09:17:17
Cyberpunkt, Cyberpunk, Cyyyyybeeerrpuuuunk!!! Ich kanns nicht mehr hören. Völlig überbewertetes Spiel. Zumindest was die Durchschnittsgrafik angeht. Rest kann dennoch überzeugen. So langsam frage ich mich ob CD Project mehr Geld fürs Marketing als für das Game selbst ausgegeben haben. :ulol:

Das selbe könnte man auch zu deinem Avengers Paradebeispiel sagen: Billig portierter Konsolenmüll mit kaputten Texturstreaming. Ich kanns nicht mehr hören.

Das grenzt ja schon an Realitätsverweigerung.

dildo4u
2020-11-19, 09:17:42
Ist halt deutlich wichtiger als Flops wie Godfall oder Dirt.
Nvidia setzt dort an wo die Masse was zu sehen bekommt siehe Fortnite oder Call of Duty.


KkvtAP9GpIw

dargo
2020-11-19, 09:19:01
Die Masse wird nicht mal mit RT spielen können. :rolleyes:

Daredevil
2020-11-19, 09:21:43
Der getriggerte mit der 3090 bin ich. Das grundsätzliche Problem ist halt was man gewohnt ist und welche Funktionen man vom Treiber den nun nutzt.

Eins vorne weg ich hatte vor der 3090 relativ lange AMD Grakas ims Rechner. Bin also den Treiber von AMD gewohnt. Und aus dieser Sichtweise ist der Nvidia Treiber einfach scheisse. Ich erkläre auch warum. Ich war durch AMD gewohnt das quasi alles was mit der Graka mache kann ich über das Treiberuserinterface erledigen und brauche dazu nicht mehrere verschiedene 3rd Party Tools mit denen ich das dann erledigen kann. Beispiele gefällig? Kein Problem fangen wir simple an, OC/UV kann ich bei AMD easy über den Wattmann machen, es gibt sogar eine gut funktionierende AutoOC und für mich wichtiger AutoUV funktion. Also kein Bedarf für den Afterburner. Ich kann mittels des Overlay vom AMD Treiber Treibereinstellungen ingame ändern ohne rauszutabben, das geht bei Nvidia nicht. Ich hab ein weiteres Overlay das mir die wichtigsten Daten anzeigt (FPS, GPU Takt, GPU Auslastung RAM Auslastung Vram Auslastung usw.) heisst ich kann zu 95% auch auf das RTSS Overlay verzichten.

Ja grundsätzlich geht das meiste davon auch bei Nvidia, allerdings brauch ich dafür extra Tools die eigene Probleme mitbringen. Und ich hatte in den letzten Jahren mehr Probleme durch den Afterburner und RTSS als mit dem AMD Treiber. Also ist für mich ist das Argument der Nvidia Treiber ist ja soviel besser nicht so wirklich nachzuvollziehen. Selbst wenn wir von dem WinXP Look absehen, der Treiber selbst wirkt für mich wie ein Relikt aus grauer Vorzeit und nicht wie State of Art 2020.

Das jemand der der ewigen Zeiten Nvidia benutzt und es gewohnt ist mit 3-10 Tools zu arbeiten, meine Kritik nicht ganz nachvollziehen kann ist mir allerdings auch klar.
Was genau „triggert“ dich jetzt eigentlich? Ich sehe da nur Kleinigkeiten und keine richtigen Probleme.
Also ich kann das nicht ganz nachvollziehen, es sei denn man ist so empfindlich wie dargo , dann hätte ich jetzt nicht nachgefragt. Aber selbst der nutzt den AB, weil er sicherlich zuverlässiger ist und mehr Umfang bietet. ^^
Das schriebe ich als jemand, der egal ob er eine AMD oder Nvidia Karte im Rechner hat, immer grundsätzlich den Afterburner nutzt mit verschiedenen Profilen, die ich per Hotkey auch Ingame ändern kann.

Wenn man natürlich gänzlich ohne extra Programm arbeiten will, dann ist Nvidia wohl wirklich eine schlecht Wahl, aber „AutoUV“ geht halt beim Afterburner auch mit der Kombination PT Limit + AutoOC...

Aber von was im Himmel bist du getriggert oder unzufrieden? :D

dargo
2020-11-19, 09:29:55
Das selbe könnte man auch zu deinem Avengers Paradebeispiel sagen: Billig portierter Konsolenmüll mit kaputten Texturstreaming. Ich kanns nicht mehr hören.

Netter Trollversuch. ;D

Das Spiel läuft nämlich wunderbar mit 8GB Grafikkarten im Auslieferungszustand. Nur beim extra HD-Texturepack reicht der Vram nicht mehr überall. Aber auch schön zu sehen, dass du schon weißt wie Cyberpunk läuft. :uup:

dildo4u
2020-11-19, 09:32:39
Die Masse wird nicht mal mit RT spielen können. :rolleyes:
AMD behauptet was anderes ihr ganzes Argument für die Verzögerung war RT kommt erst wenn wir es in der ganzen Palette anbieten können.
Problem ist nur das sie jetzt zwei Jahre zurück hängen was die Implementierung angeht.

Hott3X
2020-11-19, 09:33:30
Der Kühler der RX 6800XT ist nicht besser. Du musst die Randbedingungen betrachten, nicht nur reine dB.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12503540&postcount=40

Mit dem Defaultsetting ist er leiser, das ist sicher. Lässt sich aber problemlos anpassen. Ob der besser ist bezweifle ich noch stark bei 10°C Delta.

Na gut, wenn wir von Stock Settings ausgehen stimmt das. Ich würde die 6800XT auch im PT auf ca. die Werte der 6800 limitieren und ein wenig UV machen. Die größere Fläche des Kühlers wird da auf jeden Fall helfen.

Da man die Karten eh nicht bekommt, ist es eh egal ^^

Stretcher
2020-11-19, 09:40:12
Die Masse wird nicht mal mit RT spielen können. :rolleyes:

Ich erinnere mich noch zurück als die AMD Boys regelmäßig die Turing GPUs wegen dem hohen Preis und der viel zu langsamen RT Leistung in den Boden gebashed haben.

Seit gestern gilt, dass eine AMD GPU mit derselben RT Leistung wie Turing (Mit DLSS klar dahinter) nun plötzlich brauchbar ist und man irgendwo bei einer RTX 2060 + DLSS liegt und die 6800 sogar noch darunter.

Dafür, dass die RTX 3080 7,5% schneller ist und unter RT deutlich schneller ist, wird hier ein ganz schöner Aufriss zelebriert, wenn man annimmt, dass durch die doppelten FP32 Einheiten der Nvidia Vorsprung sogar noch ansteigen dürfte.
Die Hitrate des Caches sinkt, je höher die Auflösung wird. Bin mal sehr gespannt wie zukünftige Spiele darauf reagieren und wie lange die Treiberliebe anhält.
PCGH_Raff hat sich mal völlig unglaubwürdig gemacht und schrieb was von "Beste Radeon Grafikkarten aller Zeiten". Die 290x war klar besser.

Cyberpunkt, Cyberpunk, Cyyyyybeeerrpuuuunk!!! Ich kanns nicht mehr hören. Völlig überbewertetes Spiel.

Warst du nicht ein User, der nur Spiele zocken wollte, die State of the Art sind?
Also neueste API, neueste Technik und Co?:redface:

dargo
2020-11-19, 09:43:25
AMD behauptet was anderes ihr ganzes Argument für die Verzögerung war RT kommt erst wenn wir es in der ganzen Palette anbieten können.

Was laberst du wieder für einen zusammenhanglosen bullshit? AMD sagte nur, dass sie RT erst bringen werden wenn das gesamte Portfolio RT-fähig ist. In diesem Fall also RDNA2. AMD hat gerade erst N21 vorgestellt. Bis das gesamte Portfoilio auf RDNA2 Basis released ist haben wir Mitte 2021. Bis genug Leute RT-fähige Hardware in ihrem Rechnern haben sind wir schon eher in 2022, wenn nicht sogar später. Hast du immer noch nichts aus der Vergangenheit gelernt? Wie lange hat es am PC gebraucht bis sich endlich mal DX12/Vulkan durchsetzen? :rolleyes: Selbst heute wird es nicht flächendeckend gemacht.


Seit gestern gilt, dass eine AMD GPU mit derselben RT Leistung wie Turing (Mit DLSS klar dahinter) nun plötzlich brauchbar ist und man irgendwo bei einer RTX 2060 + DLSS liegt und die 6800 sogar noch darunter.

Ja genau...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12504517&postcount=74

Dein Trollmodus ist voll am Anschlag.

Dino-Fossil
2020-11-19, 09:48:27
Die RT-Performance ist für den ersten Versuch, zumal auf Basis eines vermutlich Transistor-sparsamen Ansatzes, eigentlich gar nicht so schlecht, wobei es interessant sein wird, wie sich die kleineren Karten verhalten und inwieweit man da über Detaileinstellungen noch tunen kann.
Und natürlich, was die diversen cross-Plattform-Titel in den nächsten Jahren so nutzen.
Auch scheint der RT-Treiber ja alles andere als Final...

Interessant ist, dass auch nVidia eigentlich gar keinen so großen Fortschritt gemacht hat.
Vergleicht man die 2080Ti und die 3070, bieten beide eine ähnliche Rasterizing und RT Performance, d.h. RT ist auch mit Ampere nicht plötzlich deutlich stärker geworden.

Ob man RT jetzt braucht muss jeder für sich entscheiden...

Stretcher
2020-11-19, 09:48:29
Dann kannst du ja dann eine RDNA 3 GPU kaufen, während die Turing User dann weiterhin mit der ersten RT Generation noch die neusten Spiele zocken.

WedgeAntilles
2020-11-19, 09:49:18
Warst du nicht ein User, der nur Spiele zocken wollte, die State of the Art sind?
Also neueste API, neueste Technik und Co?:redface:

Cyberpunk taugt laut ihm grafisch ja überhaupt nichts.
Da gibt es Dosen mit wenig Polygonen.

Und nein, das ist jetzt keine Erfindung von mir.
Kann man im CP Thread nachlesen.

Stretcher
2020-11-19, 09:51:46
Cyberpunk taugt laut ihm grafisch ja überhaupt nichts.

Sicherlich, denn schließlich werden die AMD GPUs ohne RT und DLSS da nichts groß reißen, da muss er sich das schönreden bzw. das Spiel schlechtreden.
Die Grafik wird gut werden, so viel ist aus den Gameplayeindrücken schon klar.
Immerhin verlinkt er auch Dirt 5, wo es noch gar kein RT gibt. Im Prinzip lügt er wie der orangene Mann im weißen Haus und bastelt sich seine Realität.


Dein Trollmodus ist voll am Anschlag.

Du verlinkst nur Benchmarks die dir in den Kram passen und dazu auch noch Dirt 5, wo die Schatten gar nicht auffallen und du das selbst bemerkst.
Hardware Unboxed ist sympathisiert mit AMD, auch so ziemlich das einzige Review, welches die 3080 und 6800XT auf Augenhöhe sehen.
AMD versucht was RT angeht wohl ganz offensichtlich zu cheaten, damit sie irgendwie bis zur nächsten Generation durchhalten.

Edgecrusher86
2020-11-19, 09:56:07
Die Grafik wird gut werden, so viel ist aus den Gameplayeindrücken schon klar.

Aber nur, wenn man das unsägliche Chromatic Aberration deaktiviert [CP 77] - einfach furchtbar, wie man so etwas überhaupt einbaut - da kann ich mir gleich Butter auf die Brille schmieren. :rolleyes::biggrin:


VC: PowerColor launches Radeon RX 6800 XT Red Devil graphics card (https://videocardz.com/newz/powercolor-launches-radeon-rx-6800-xt-red-devil-graphics-card)

https://s12.directupload.net/images/201119/temp/23fmkpq7.jpg (https://www.directupload.net/file/d/6007/23fmkpq7_jpg.htm) https://s12.directupload.net/images/201119/temp/lm5d93b8.jpg (https://www.directupload.net/file/d/6007/lm5d93b8_jpg.htm) https://s12.directupload.net/images/201119/temp/hah8lm2c.jpg (https://www.directupload.net/file/d/6007/hah8lm2c_jpg.htm) https://s12.directupload.net/images/201119/temp/xpopje4o.jpg (https://www.directupload.net/file/d/6007/xpopje4o_jpg.htm)

Also bei aktueller Verfügbarkeit würde ich mit 900-1000€ für so ein Brett von Karte rechnen. Als 6900XT dann Richtung 1300€ später. :freak:

HOT
2020-11-19, 09:59:01
Dann kannst du ja dann eine RDNA 3 GPU kaufen, während die Turing User dann weiterhin mit der ersten RT Generation noch die neusten Spiele zocken.
Das glaub ich kaum, dazu fehlt Turing abseits der 2080ti einfach der Speicher ;).

EinName
2020-11-19, 10:00:29
Ok, ich glaub ich habe den ersten Forumtroll gefunden den ich auf die ignore Liste setze weil da echt überhaupt nichts sinnvolles kommt.

Turing und RTX Titel in QHD/4K, ne 2060 so schnell wie 6800xt... kA wie grün da die Fanboy Brille sein muss.

Eine vernünftige Diskussion wäre dabei doch so einfach.

Jedenfalls herzlichen Glückwunsch.

dargo
2020-11-19, 10:00:59
Die RT-Performance ist für den ersten Versuch, zumal auf Basis eines vermutlich Transistor-sparsamen Ansatzes, eigentlich gar nicht so schlecht, wobei es interessant sein wird, wie sich die kleineren Karten verhalten und inwieweit man da über Detaileinstellungen noch tunen kann.
Und natürlich, was die diversen cross-Plattform-Titel in den nächsten Jahren so nutzen.
Auch scheint der RT-Treiber ja alles andere als Final...

Imo lässt sich die RT-Performance von RDNA2 noch gar nicht richtig beurteilen da fast alle Spiele die mit RT getestet wurden nicht unter Berücksichtigung von RDNA2 entwickelt wurden. Ein besseres Bild werden erst kommende Spiele zeigen. Als nächstes erwarte ich einen Vergleich in Godfall. Leider ist der RT-Patch für Nvidia noch nicht fertig.
https://forums.gearboxsoftware.com/t/november-18-2020-godfall-quick-update-pc-2-0-95/4548737


Interessant ist, dass auch nVidia eigentlich gar keinen so großen Fortschritt gemacht hat.
Vergleicht man die 2080Ti und die 3070, bieten beide eine ähnliche Rasterizing und RT Performance, d.h. RT ist auch mit Ampere nicht plötzlich deutlich stärker geworden.

Das wurde doch schon öfter von den 3D-Gurus hier erklärt, man muss nur die richtigen Infos mitnehmen. :) Solange die Shaderpower zum großen Teil mitentscheidend für das Endresultat ist wird sich daran auch nichts ändern.


Hardware Unboxed ist sympathisiert mit AMD, auch so ziemlich das einzige Review, welches die 3080 und 6800XT auf Augenhöhe sehen.
AMD versucht was RT angeht wohl ganz offensichtlich zu cheaten, damit sie irgendwie bis zur nächsten Generation durchhalten.
Den gleichen Stempel kann ich dir bei Nvidia auf die Stirn kleben, wo ist da jetzt der Unterschied?


VC: PowerColor launches Radeon RX 6800 XT Red Devil graphics card (https://videocardz.com/newz/powercolor-launches-radeon-rx-6800-xt-red-devil-graphics-card)

https://s12.directupload.net/images/201119/temp/23fmkpq7.jpg (https://www.directupload.net/file/d/6007/23fmkpq7_jpg.htm) https://s12.directupload.net/images/201119/temp/lm5d93b8.jpg (https://www.directupload.net/file/d/6007/lm5d93b8_jpg.htm) https://s12.directupload.net/images/201119/temp/hah8lm2c.jpg (https://www.directupload.net/file/d/6007/hah8lm2c_jpg.htm) https://s12.directupload.net/images/201119/temp/xpopje4o.jpg (https://www.directupload.net/file/d/6007/xpopje4o_jpg.htm)

Was für ein Klotz. :freak: Täuscht die Perspektive im ersten Bild oder ist der rechte Lüfter hier auch am größten?

gnomi
2020-11-19, 10:13:24
Die Karten sind wirklich gelungen.
AMD war schon mit der guten 5700 (XT) wieder mit einem Bein drin, aber diese Karten sind nochmals besser.
Neben konkurrenzfähiger Performance bei traditionellen Spielen ist die Ray Tracing Performance immerhin ordentlich.
Benutzen Multi und Konsolen Spiele Ray Tracing, wird es sogar immer etwas besser noch als dort laufen.
Auch bei anderen Multi/Mainstream Spielen kann man auf äußerst gute Optimierung hoffen.
Und mit den 16 Gigabyte ist man auch sehr gesichert ausgestattet, wenn PC Versionen ein paar HD Texturen obendrauf bekommen.

Würde ich die Karte kaufen?
Nein, keinesfalls.
An nvidia vorbei gezogen ist AMD nämlich glasklar nicht.
DLSS und bessere Ray Tracing Performance sind für mich zudem sehr wichtig.
Ich sehe bereits bei der 2080 OC, dass man damit jede Menge Titel schon weit über dem Niveau der anderen Versionen spielen kann. (Next Gen Effekt vorweg genommen)
Hier wird auch weiter gepusht werden. Cyberpunk ist tatsächlich ein Millionen Seller, den ich lieber in der PC Fassung spiele.
Und ich möchte natürlich eine Karte, die hier auch 60-80% mehr abliefert und nicht 25% oder so.
Bei PCGH sieht man zudem, dass die Performance abseits von Mainstream Spielen gerade bei in die breite gehenden PC fokussierten oder älteren Games nicht so top ist.
Zudem ist UWQHD auch schon eine Auflösung, wo mir nvidia ab der 3080 stärker scheint. Und weniger Performance Sprung möchte ich auch nicht haben.
Dann benutze ich seit 2014 bereits GSync, weshalb ich auch nicht so schnell wechsle.
Insofern genieße ich die Technik erst einmal in der Series X.
Und nächstes Jahr gucke ich, ob eine 3080 TI kommt, die alle Vorteile vereint, oder wenigstens die 3080 zu angekündigten Preisen verkauft wird.
Bleibe da ganz gelassen und freue mich über die Konkurrenz , die gut für alle sein dürfte. :wink:

WedgeAntilles
2020-11-19, 10:15:06
Die RT-Performance ist für den ersten Versuch, zumal auf Basis eines vermutlich Transistor-sparsamen Ansatzes, eigentlich gar nicht so schlecht, wobei es interessant sein wird, wie sich die kleineren Karten verhalten und inwieweit man da über Detaileinstellungen noch tunen kann.
Und natürlich, was die diversen cross-Plattform-Titel in den nächsten Jahren so nutzen.
Auch scheint der RT-Treiber ja alles andere als Final...

Interessant ist, dass auch nVidia eigentlich gar keinen so großen Fortschritt gemacht hat.
Vergleicht man die 2080Ti und die 3070, bieten beide eine ähnliche Rasterizing und RT Performance, d.h. RT ist auch mit Ampere nicht plötzlich deutlich stärker geworden.

Ob man RT jetzt braucht muss jeder für sich entscheiden...

Ack.
Die RT Performance von BigNavi ist besser als ich erwartet hatte.
Die RT Performance von Ampere ist schwächer als ich erwartet hatte.

Igor warf ja die Frage auf, in wie fern BigNavis RT optisch schwächer ist.

"Ich weiß nicht, ob es nur eine Täuschung der Sinne war, aber rein subjektiv hatte ich, vor allem in Metro Exodus (Kampagne) in geschlossenen, dunklen Räumen mit vielen kleinen Lichtquellen das Gefühl, dass beim DXR-Ergebnis der Radeon-Lösung etwas fehlte bzw. die Effekte etwas einfacher ausfielen. Auch manche Reflexionen und Schatten waren nicht völlig identisch, obwohl gerade die Funktion des Raytracings als solches dies eigentlich impliziert hätte. Ob überhaupt etwas und wenn doch, was genau fehlt, müsste man noch einmal im Detail testen, denn dafür blieb leider keine Zeit mehr."

Da muss man bei den zukünftigen Titeln mit RT sicher auch drauf achten.
Falls das nur auf alte Titel zutrifft (falls es überhaupt zutrifft!) - irrelevant, was solls.


Unterm Strich bleibt bei BigNavi die RT Schwäche.
Und bei Ampere der Ram-Mangel.

Perfekt ist keine der Karten.
Gut sind alle.

Damit kann man IMO gut leben und insbesondere AMD hat zu Nvidia aufgeschlossen.
Was will man mehr?

Jetzt wird sich zeigen, was die Straßenpreise der Karten in ein paar Monaten sind.
Aktuell gibt es ja eh nix zu kaufen, von keinem.

Was mich auch nicht stört, da sich bei mir keine Karte direkt aufdrängt mit "kauf mich" - denn wie gesagt, perfekt ist keine der Karten.

Daredevil
2020-11-19, 10:15:16
Aber nur, wenn man das unsägliche Chromatic Aberration deaktiviert [CP 77] - einfach furchtbar, wie man so etwas überhaupt einbaut - da kann ich mir gleich Butter auf die Brille schmieren. :rolleyes::biggrin:


VC: PowerColor launches Radeon RX 6800 XT Red Devil graphics card (https://videocardz.com/newz/powercolor-launches-radeon-rx-6800-xt-red-devil-graphics-card)

https://s12.directupload.net/images/201119/temp/23fmkpq7.jpg (https://www.directupload.net/file/d/6007/23fmkpq7_jpg.htm) https://s12.directupload.net/images/201119/temp/lm5d93b8.jpg (https://www.directupload.net/file/d/6007/lm5d93b8_jpg.htm) https://s12.directupload.net/images/201119/temp/hah8lm2c.jpg (https://www.directupload.net/file/d/6007/hah8lm2c_jpg.htm) https://s12.directupload.net/images/201119/temp/xpopje4o.jpg (https://www.directupload.net/file/d/6007/xpopje4o_jpg.htm)

Also bei aktueller Verfügbarkeit würde ich mit 900-1000€ für so ein Brett von Karte rechnen. Als 6900XT dann Richtung 1300€ später. :freak:
Diese Heatpipe Pickel da am Ende. ;D
Gibt es eigentlich außer Gigabyte noch einen Hersteller, der überhaupt einen Designer in seiner Entwicklung hat? :D

Wird mal Zeit für ein "schönste GPU 2020" Thread, aber irgendwie ist die Auswahl nicht so groß.

Sardaukar.nsn
2020-11-19, 10:25:23
Das ist mir gestern total entgangen, sollte aber für die RTX Jünger ein sehr beachtbarer Test und auch Forumspost sein. Die Entwickler haben ja mit AMD zusammengearbeitet, nicht mit NV für die Raytracing Implimentierung. Und siehe da, AMDs Raytracing ist genauso schnell bzw. sogar minimal schneller als von Ampere. Wahnsinn. Wenn das ein Zeichen für die "normalen" Raytracing Spiele Abseits von Nvidias eigener RTX Implimentierung ist, haben sie komplett überall aufgeholt. Man sieht es aktuell nur wegen den Spieleoptimierung hin zu NV nicht.

Hier wir ein Szenario gezeigt wie man Raytracing für Schattenwurf und Beleuchtung ganz gut einsetzen kann. Na klar kein Triple-A Titel, aber genau so wird es ja auch auf den Konsolen laufen, die ja ebenfalls Raytracen können.

notjVDiZgn8

Ca. ab 1:50min

dildo4u
2020-11-19, 10:30:10
Das wurde hier schon gebencht scheint recht intensiv für die AMD Modelle.

https://live.staticflickr.com/65535/50619429973_f6acc2f259_b.jpg (https://flic.kr/p/2k84NYD)2020-11-19 (3) (https://flic.kr/p/2k84NYD) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://youtu.be/yMz-5uP8sBw?t=701

Daredevil
2020-11-19, 10:31:55
Gerade non AAA Titel sind ja dafür prädestiniert, mit RT gut zu laufen.
Da sehe ich auch deutlich mehr Zukunft als irgendwelche Monster Schinken, die dann nur bei 30fps laufen.
Die Szenen 1:50 sehen echt lecker aus, das ist mir auch positiv aufgefallen. :)

][immy
2020-11-19, 10:32:47
Ack.
Die RT Performance von BigNavi ist besser als ich erwartet hatte.
Die RT Performance von Ampere ist schwächer als ich erwartet hatte.

Igor warf ja die Frage auf, in wie fern BigNavis RT optisch schwächer ist.

"Ich weiß nicht, ob es nur eine Täuschung der Sinne war, aber rein subjektiv hatte ich, vor allem in Metro Exodus (Kampagne) in geschlossenen, dunklen Räumen mit vielen kleinen Lichtquellen das Gefühl, dass beim DXR-Ergebnis der Radeon-Lösung etwas fehlte bzw. die Effekte etwas einfacher ausfielen. Auch manche Reflexionen und Schatten waren nicht völlig identisch, obwohl gerade die Funktion des Raytracings als solches dies eigentlich impliziert hätte. Ob überhaupt etwas und wenn doch, was genau fehlt, müsste man noch einmal im Detail testen, denn dafür blieb leider keine Zeit mehr."

Da muss man bei den zukünftigen Titeln mit RT sicher auch drauf achten.
Falls das nur auf alte Titel zutrifft (falls es überhaupt zutrifft!) - irrelevant, was solls.


Unterm Strich bleibt bei BigNavi die RT Schwäche.
....
Beim Thema RT darf man wirklich nicht vergessen, das die Karten grad neu sind und AMD doch mal gern Treiberprobleme hat. Letztlich war z.B. eine RTX2060 als sie raus kam, nicht für RT in Battlefield V zu gebrauchen. Inzwischen läuft es aber ganz gut. Hier wurde seitens des Entwicklers massig optimiert.
Von daher bin ich hier guter Hoffnung das die RT Performance sich über die Zeit bessern wird.
Aber wie bei den Konsolen, sollte man halt nicht zu viel erwarten. RT ist extrem Rechenintensiv. Das nvidia dafür teils extra-Prozessoren eingesetzt haben, Zahlen sie halt mit DIE Fläche, die ansonsten auch anders hätte genutzt werden können (oder weggefallen wäre). Wir sind noch sehr weit entfernt das RT wirklich Flächendeckend genutzt wird. Es ist schon mal gut das es jetzt weitere Karten gibt dies es unterstützen, aber die Zukunft gehört nun mal den Nachfolgern ;)


Was mich eher entsetzt ist der extrem hohe Preis. Wenn das so weiter geht, wird es im <300€ Segment bald nur noch Low-End Karten geben.

Zergra
2020-11-19, 10:40:35
Bei den aktuellen Preisen und Verfügbarkeiten bin ich sehr nah dran eine gebrauchte 2080TI mit Wasserblock zu kaufen.... bei der 6800 wäre ich bei mind. 700€ mit Block bzw aktuell wohl 800€. Für 2080TI Perf. finde ich das zuviel, bei der 6800XT wohl eher 850-900€ bei der derzeitigen Verfügbarkeit. Die sich wohl die nächsten Monate nicht mehr ändern wird.

Da finde ich 5-600€ für eine 2080TI mit gutem Wasserblock angemessen.

EinName
2020-11-19, 10:41:19
Hier wir ein Szenario gezeigt...

Interessant, also ist AMD doch ein gutes Stück hinterher, allerdings auch nicht ganz so stark wie in den aktuellen RTX Titeln. Der 6800XT fehlen hier knapp 33% auf die 3900 in QHD (6800XT 104 Min FPS, 3900 138 Min FPS).

HOT
2020-11-19, 10:47:59
Wie hier von machen so getan wird, als wenn die 6800XT jetzt 35% langsamer wär als die 3080 und als ob man die RT-Performance in künftigen Games schon abschließend beurteilen könnte :freak:.
Echt ein bisschen hohl.

Momentan gibts quasi gar nichts zu kaufen. Vielleicht sollte man das doch lieber beurteilen, wenn endlich die Verfügbarkeit gegeben ist und die Treiber gereift sind. Zudem wäre es ebenfalls hilfreich, wenn NV endlich mit vernünftig RAM ausgestattete Modelle anbieten könnte. Bis April oder so wird sich die Lage nochmals fundamental verändern - das wird ja alles passieren. Wir werden bessere Treiber bekommen - RT scheint mir noch sehr beta zu sein mit den ganzen nicht laufenden Titeln, Spielepatches für Radeon-RT für beispielsweise Youndblood sind ja sicherlich auch noch ausstehend, AMDs DLSS und Geforce-Varianten mit mehr Speicher werden nächstes Jahr ja auch noch aufschlagen - das kommt ja alles, genau so, wie auf den Markt angepasste Preise und gute Verfügbarkeit. Das erfordert aber eben 1/4 Jahr Geduld.

Es ist eine Sache, dass Intel, NV und AMD dieses Jahr total failmäßig gelauncht haben. Aber eine andere, alles sofort haben zu müssen.

Daredevil
2020-11-19, 10:51:23
Wie hier von machen so getan wird, als wenn die 6800XT jetzt 35% langsamer wär als die 3080 und als ob man die RT-Performance in künftigen Games schon abschließend beurteilen könnte :freak:.
Echt ein bisschen hohl.
Hast du Fakten, die dagegen sprechen? Mir sind keine bekannt. :redface:
Jedes Spiel basiert doch auf dem freien DXR Standard dachte ich, wieso sollte AMD da nun benachteiligt sein oder auf einmal Sprünge machen?
Also nicht, dass es nicht wirklich so sein könnte, aber "Hohl" ist dahingehend nur der Inhalt deiner Spekulation, die auf nichts basiert. ( Zumindest zeigst du nichts )

Langlay
2020-11-19, 10:54:50
Wenn man natürlich gänzlich ohne extra Programm arbeiten will, dann ist Nvidia wohl wirklich eine schlecht Wahl, aber „AutoUV“ geht halt beim Afterburner auch mit der Kombination PT Limit + AutoOC...

Aber von was im Himmel bist du getriggert oder unzufrieden? :D

Wenn möglich würde ich gerne ohne 3rd Party Programme arbeiten. Normalerweise hab ich den Afterburner auch installiert, allerdings nicht im Autostart. Und ja ich bin mehr unzufrieden als getriggert. Mir fehlen halt meine Quality of Life Features aus dem AMD Treiber. Aber ich seh schon das ich scheinbar ein Sonderfall bin, aber damit kann ich eigentlich auch ganz gut leben. Untern Strich sind mir persönlich die Features mehr Wert als ne 5-10% schnellere Karte. Aber das kann natürlich auch jeder anders sehen.

Daredevil
2020-11-19, 11:00:06
Ne alles gut, ich will dir das ja gar nicht absprechen, dass es dich nervt. Jeder lebt ja in seiner eigenen Bubble, ich mach das auch. ^^
Ich fand die Taktkontrolle per AMD App ja immer ganz nett, sowas hat Nvidia auch nicht, aber -für mich- war es dann doch kein Game Changer.

Ich finde es nur bemerkenswert, dass dich diese -für mich- Kleinigkeiten auf der Software Ebene nerven, dass das diese beachtliche Hardware ( Preis mal ausgeklammert.. ) nicht wett machen kann. Ist ja jetzt auch nichts, was man nicht vorher wusste. Aber man vermisst ja meist Sachen erst, wenn man sie nicht mehr hat, wa? :)

memakr
2020-11-19, 11:00:07
Hallo,

ohne jetzt alle Review und den Threadverlauf durchforstet zu haben kurze Frage. Wie sieht die ComputeLeistung in der CreativeSuite von Adobe aus. Will mir Anfang 21 nen Workstation-Rechner zusammenbauen (Illustrator, InDesign, PS, Lightroom, Premiere). Ryzen 5900x ist schon gesetzt (sofern dann mal verfügbar), und die VRAM-Menge der AMD-Karten ist schon verlockend.
Hat jemand hier nen guten Überblick für mich. Sonst hat die 2000-S Reihe.
Hardcoregaming interessiert mich nicht. (zocke nur gelegentlich nur TW3 in 1080p und ggf. später mal in WHQL/4K)

THX
memakr

EinName
2020-11-19, 11:00:23
In Dirt5 ist sie schneller als die Grünen. Riftbreaker ist einer der AMD Titel, und wenn NV auch hier deutlich davonzieht kann man zumindest schon ein bisschen sehen wohin die Reise geht. Für mich ist RT aktuell eh noch ein Gimmik, das wird in 1-2 Generationen vielleicht richtig interessant. Aktuelle Karten sind da eigentlich alle immernoch viel zu langsam, auch ne 3090. Ich mag keine Games die auf 30 fps einbrechen.

Btw, der Vergleich in Riftbeaker ist gegen die 3090 - wieviel schneller als eine 3080 war die? 10-15%? Kann man nochmal abziehen um das Ergebnis der 3080 zu interpolieren.

Ich bin begeistert von der 6800xt, aber ich bin mir bewusst, dass die Karte nicht perfekt ist. Sonst würde sie wohl auch keine 649 UVP haben ;-)
Mit RT, und auch nur da, scheint sie halt 15-20% langsamer als eine 3080 zu sein. Für mich absolut OK, besser als erwartet. Ausnahme sind hier rein NVidia RTX optimierte Titel, da geht's in den Keller mit den FPS - aber das interessiert mich nicht.

Dino-Fossil
2020-11-19, 11:02:53
Hast du Fakten, die dagegen sprechen? Mir sind keine bekannt. :redface:
Jedes Spiel basiert doch auf dem freien DXR Standard dachte ich, wieso sollte AMD da nun benachteiligt sein oder auf einmal Sprünge machen?
Also nicht, dass es nicht wirklich so sein könnte, aber "Hohl" ist dahingehend nur der Inhalt deiner Spekulation, die auf nichts basiert. ( Zumindest zeigst du nichts )

ICh glaube die 35% bezogen sich auf Rasterization, nicht RT. Aber vielleicht täusche ich mich.
Davon abgesehen, ja DXR ist ein freier Standard, aber auch ein solcher kann in Richtung bestimmter Hardware optimiert werden. Da es bisher nur nVidia RT gab, konnte also nicht auf AMD optimiert werden.
Ich gehe nicht davon aus, dass AMD's RT Implementation damit plötzlich mit nVidia gleichziehen kann, man wird sicherlich zurückliegen, aber ein gewisses Potential dürfte vorhanden sein und kann aktuell auch nicht beurteilt werden.

Aber naja, dass die Diskussion stark hin zu RT gedrückt wird, zeigt eigentlich ganz gut, dass AMD ein Produkt hat, dass (davon abgesehen) gut mithalten kann. ;)

Beide Hersteller haben ihre Vor- und Nachteile und als Kunde kann man sich (theoretisch, wenn man die Dinger auch mal kaufen kann) entsprechend seiner Ansprüche orientieren.
Wenigstens gibt es auch im High-End nun wieder echte Auswahl, da sollten sich alle freuen.

Nazar
2020-11-19, 11:28:35
Die 4k Schwäche unter DX11 ist leider sehr deutlich zu sehen und ich glaube nicht, dass das ein Treiberproblem ist, sondern, wie auch von anderen schon geschrieben, ein Bandbreitenproblem.
Was hilft mir dann das OC Potential, wenn alles am zu schmalen SI hängt?
So wie es aussieht muss man als VR Spieler, der 4K+ Auflösungen fahren muss/will, doch zu einer 3090 greifen oder später eben zur 3080Ti.
Schade, es sah in den 4K Benchmarks von AMD so viel besser aus als es sich jetzt darstellt...

Lenny156
2020-11-19, 11:28:48
Was genau bringt es denn, wenn der mittlere Lüfter eine andere Drehrichtung hat?
Die Nitro ist so, die Red Devil und das Referenzdesign nicht.

EinName
2020-11-19, 11:34:49
Was genau bringt es denn, wenn der mittlere Lüfter eine andere Drehrichtung hat?
Die Nitro ist so, die Red Devil und das Referenzdesign nicht.

Soll Geräusche des Windstroms und der Vibrationen verringern. Leider keine Idee ob es was nützt.

nairune
2020-11-19, 11:37:03
Die 4k Schwäche unter DX11 ist leider sehr deutlich zu sehen und ich glaube nicht, dass das ein Treiberproblem ist, sondern, wie auch von anderen schon geschrieben, ein Bandbreitenproblem.


Wie kommst du darauf? Dann hat die 3080 auch ein Bandbreitenproblem?
Im CB Parcours ist der Abstand zwischen 6800 XT und 3080 in jeder Auflösung exakt 6%.
Zur 3090 erhöht sich der Abstand von 11% (FHD) über 15% (QHD) auf 18% (UHD). Da bricht nichts plötzlich ein. Auf OC reagiert die Karte zudem auch recht gut, da sehe ich absolut nicht, was mit der Bandbreite kaputt sein soll.

Dschounz
2020-11-19, 11:41:35
Was genau bringt es denn, wenn der mittlere Lüfter eine andere Drehrichtung hat?
Die Nitro ist so, die Red Devil und das Referenzdesign nicht.

Zur Vermeidung von Luftverwirbelungen (die Lüfter haben dieselbe Drehrichtung an den Punkten, wo sie sich am nächsten kommen).

Läuft der mittlere Lüfter noch mit einer anderen Drehzahl, mindern sich zusätzlich potentielle Resonanzen (insbesondere Körperschall).

Soll Geräusche des Windstroms und der Vibrationen verringern. Leider keine Idee ob es was nützt.

Bei einem durchdachten Design (z.B. optimierte Lüftergeometrie) auf jeden Fall.

HOT
2020-11-19, 11:46:19
Hast du Fakten, die dagegen sprechen? Mir sind keine bekannt. :redface:
Jedes Spiel basiert doch auf dem freien DXR Standard dachte ich, wieso sollte AMD da nun benachteiligt sein oder auf einmal Sprünge machen?
Also nicht, dass es nicht wirklich so sein könnte, aber "Hohl" ist dahingehend nur der Inhalt deiner Spekulation, die auf nichts basiert. ( Zumindest zeigst du nichts )
Hab nicht gesagt, dass AMD benachteiligt ist und es ist auch klar, dass RT langsamer ist. Das heißt doch aber nicht, dass RT-nutzende Games per se 35% langsamer sind. Watchdogs z.B. scheint ja recht schnell, aber immer noch fehlerhaft zu laufen. Es kommt also stark auf die Implementierung an. Und es ist ja keine Spekulation, dass der RT-Teil des Treibers noch kaputt ist. Wieviele dabei rumkommt, wenn das alles funktioniert und optimiert ist, wird sich zeigen. Überhaupt scheint AMD mit dem Cache noch ein großes Treiberoptimierungspotenzial offen zu haben, das ist ja alles Neuland. Hinzu käme noch, wenn Spielestudios den Cache in ihre Optimierungen explizit mit einbeziehen. Das sind so viele offene Fragen momentan, dass gar kein abschließendes Urteil möglich ist. Daher wäre es vielleicht schlau momentan, weder das Eine noch das Andere zu kaufen, bis man mehr Informationen hat. Ist ja im moment eh nicht möglich, irgendwas zu kaufen ;).
Sicherlich wird Control auf den AMDs nie besonders toll laufen, das mein ich aber auch nicht. Ich finds einfach nur hohl mit unzureichender Informationslage abschließende Urteile zu fällen, das ist alles.

yamo
2020-11-19, 11:56:32
Ich finde es schon beeindruckend, wie sich AMD hier zurückmeldet und Lederjacke Feuer unterm Hintern macht:biggrin:
Die rein RZ-Performance ist schon sehr gut. Die RT-Leistung ist aber auch, für AMD´s erste RT-Version, schon nicht schlecht + 16GB VRam!
Schön das NV da richtig unter Druck gerät, denn AMD´s SR wird ja offensichtlich nicht proprietär sein, wie es NV´s DLSS (mangels Konkurrenz) ist.
Dazu kommt noch VRS und SAM.

Es kommt endlich Bewegung in den Markt und davon profitieren wir alle!
Wenn ich keine anderen Prioritäten hätte, würde ich mir ein fettes Ryzen-Sys mit 69XT zusammen stellen:rolleyes:

Bin aber recht froh, meine 2080ti nicht verkauft zu haben. Für meinen Bias reicht´s: UHD@60Hz Gsync, kein competive Gamer:cool:

Ich hoffe, ihr bekommt eure Karten.

Gethvel
2020-11-19, 12:03:17
Die schlechte Raytracing-Performance erklärt auch warum Raytracing auf den Konsolen so schlecht aussieht. Ohne FidelityFX einfach kaum brauchbar, darauf wird man noch warten müssen.

gedi
2020-11-19, 12:10:12
2.65G unter Luft :freak:

https://www.techpowerup.com/274874/overclocked-amd-radeon-rx-6800-xt-sets-world-record-on-air

HOT
2020-11-19, 12:16:57
Die schlechte Raytracing-Performance erklärt auch warum Raytracing auf den Konsolen so schlecht aussieht. Ohne FidelityFX einfach kaum brauchbar, darauf wird man noch warten müssen.
Die Konsolen haben keinen Cache und erheblich weniger Rohleistung und arbeiten mit 4k. Das ist wohl kaum vergleichbar...

Badesalz
2020-11-19, 12:18:36
@Gethvel
Sieht es wirklich schlecht aus oder ist nur das Wuchern mit dem Effekt geringer?
Ich lieb ja diese diffuse weiche Ausleuchtung, aber stumpfsinnige Spiegelungen auch noch in einer Quali als wenn alles aus bestem Kristalglas wäre, sind für mich nervtötend. Das trägt nichts zum Realismus bei.

Allgemein: Recht ok die Teile. Ich hab mir zwar minimal mehr versprochen, aber letztendlich habem sie von mehreren, über eine, auf sozusagen eine halbe Generation verkürzt.
(manche Tests sind wirklich gra-uen-voll. unglaublich)

Selbst wenn sie das über paar Generationen jetzt nur halten könnten, wäre das schon soweit ok. Imho jedenfalls. Eine Periode erstmal, wo die RadeonGroup sich, sei es auch unaufgeregt, kleinwenig sanieren kann, wäre völlig in Ordnung.

So gegenüber dem schon wirklich guten Ampere zu stehen ist jetzt nicht wofür man sich schämen müsste (wie das eigentlich früher schon paar Mal der Fall war ;))

akuji13
2020-11-19, 12:29:38
Sieht es wirklich schlecht aus oder ist nur das Wuchern mit dem Effekt geringer?

https://www.youtube.com/watch?v=_BN_wjO2M9Q

Kurzfassung:
Weniger Effekte, mit kürzerer Reichweite und diese dann zusätzlich in schlechterer Qualität.

Ich war erschrocken das ganz neue Konsolen schon so abspecken müssen.

Aber gut, es ist nur 1 Spiel das ohnehin nicht die beste performance liefert.

yamo
2020-11-19, 12:29:59
RT Ambient Occlusion schaut aber im Riftbreaker Demo lecker aus.

Gethvel
2020-11-19, 12:42:20
@Gethvel
Sieht es wirklich schlecht aus oder ist nur das Wuchern mit dem Effekt geringer?
Ich lieb ja diese diffuse weiche Ausleuchtung, aber stumpfsinnige Spiegelungen auch noch in einer qualis als wenn alles aus bestem Kristalglas wäre, sind für mich nervtötend. Das trägt nichts zum Realismus bei.

Raytracing kein Effekt, sondern realistische Ausleuchtung und Licht-Reflektion.

Hier gibt es einen Vergleich: https://www.youtube.com/watch?v=_BN_wjO2M9Q&ab_channel=DigitalFoundry

Dino-Fossil
2020-11-19, 12:46:55
Man sieht aber, dass es teilweise durchaus für absurde Reflexionen eingesetzt wird "weil man es kann", nicht weil es an der Stelle sinnvoll oder realistisch ist.

Wie mit vielen anderen Grafikeffekten auch, wird es halt eine Weile dauern, bis sich die Entwickler ordentlich ausgetobt haben und man lernt vernünftig damit umzugehen.

Lawmachine79
2020-11-19, 12:47:47
Imo lässt sich die RT-Performance von RDNA2 noch gar nicht richtig beurteilen da fast alle Spiele die mit RT getestet wurden nicht unter Berücksichtigung von RDNA2 entwickelt wurden. Ein besseres Bild werden erst kommende Spiele zeigen. Als nächstes erwarte ich einen Vergleich in Godfall. Leider ist der RT-Patch für Nvidia noch nicht fertig.
https://forums.gearboxsoftware.com/t/november-18-2020-godfall-quick-update-pc-2-0-95/4548737


Na, dann warte mal ab bis zur "richtigen Beurteilung". Ampere hat dedizierte Einheiten, die genau auf RT-Berechnungen spezialisiert sind und nichts anderes machen. Bei den AMD-Karten machen es generalisierte Einheiten; die sind zum einen nicht darauf optimiert (weil sie eben auch anderes können müssen) und zum anderen müssen sie auch andere Aufgaben erledigen. Das ist eine Frage des gesunden Menschenverstandes, ob AMD den Abstand auf NV im Bereich RT nennenswert verkürzen können wird.

DennisO2
2020-11-19, 12:49:21
Wow. 3DC in 2020. Nur doch getrolle und Sticheleien. Völlig egal ob aus welcher Ecke.

Ist es so schwer die jeweiligen Stärken und Schwächen sauber zu diskutieren? Muss es immer Schwarz und Weiß sein („der Killer”)? Wir sind hier eigentlich in einem Technik-affinen Forum. Also lasst uns mehr vernünftig diskutieren, gerade weil man die Karten eh nicht wirklich zum UVP kaufen kann.

Lasst uns diese tolle Situation doch nutzen um sauber zu diskutieren. Es wäre viel zu Schade, wenn es nur beleidigte Leberwürste gibt die nur darauf warten, ihre Bitternis dem anderen durch Provokationen zu zeigen.

Danke, das habe ich mir die letzten 10 Seiten auch gedacht. Auch "Dominieren" ist ein lustiger Begriff bei wenigen Prozent Abstand.

Lustig aber auch: 3 Leute lästern und auf Seite 2 schreiben dann mehrer "typisch 3D-Center: ALLE lästern nur." Einfach ignorieren und die Fakten darstellen.

Ich freu mich übrigens schon riesig auf die ASUS mit Wasserkühlung. Von der Lautstärke her (1,5dbA leiser als meine 5700XT Nitro+) habe ich zwar überlegt, sie als AMD-Modell zu kaufen, aber 300W möchte ich eigentlich nicht im Rechner haben. Hoffe nur, sie wird nicht zu teuer... .

fondness
2020-11-19, 12:53:11
Na, dann warte mal ab bis zur "richtigen Beurteilung". Ampere hat dedizierte Einheiten, die genau auf RT-Berechnungen spezialisiert sind und nichts anderes machen. Bei den AMD-Karten machen es generalisierte Einheiten; die sind zum einen nicht darauf optimiert (weil sie eben auch anderes können müssen) und zum anderen müssen sie auch andere Aufgaben erledigen. Das ist eine Frage des gesunden Menschenverstandes, ob AMD den Abstand auf NV im Bereich RT nennenswert verkürzen können wird.

Nette Theorie, stimmt halt nicht.

DrFreaK666
2020-11-19, 12:57:02
Die schlechte Raytracing-Performance erklärt auch warum Raytracing auf den Konsolen so schlecht aussieht...

Welche "schlechte Raytracing-Performance"? Sicher dass du es nicht mit Mobile-RTX2060 verwechselst?

aufkrawall
2020-11-19, 12:58:40
Die schlechte Raytracing-Performance erklärt auch warum Raytracing auf den Konsolen so schlecht aussieht.
Außer, dass es in Spiderman besser aussieht als überall sonst. :freak:
RT wird auf dem PC noch sinnvoll nutzbar sein mit RDNA2. Aber auf den Implementierungen rumzureiten, für die NV maßgeblich federführend war (und die so toll auch dort nicht laufen...), ist doch ziemlich billig.

Dino-Fossil
2020-11-19, 13:05:06
Was ich, zumindest anhand des Watch Dog Videos sagen muss, ist, dass nVidia aktuell mglw. besseres denoising macht - wobei ich nicht beurteilen kann, ob das die Spiele-Engine (bzw die gewählte Einstellung) ist, oder der nVidia-Treiber.

Was aber auch nur dann wirklich auffällt, wenn jede Oberfläche ein polierter, perfekter Spiegel ist...

aufkrawall
2020-11-19, 13:08:27
Legion verwendet einen neuen Denoiser von Nvidia (der weiterhin nicht über die TCs läuft). Wär allerdings dreckig, wenn der nicht über reguläre APIs auf AMD-Hardware das gleiche Ergebnis erzielen würde, sofern es kein Treiber-Bug ist.

dargo
2020-11-19, 13:12:04
Das wurde hier schon gebencht scheint recht intensiv für die AMD Modelle.

https://live.staticflickr.com/65535/50619429973_f6acc2f259_b.jpg (https://flic.kr/p/2k84NYD)2020-11-19 (3) (https://flic.kr/p/2k84NYD) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Sieht für mich nicht so aus.

https://abload.de/img/rift1b2j7j.jpg

https://abload.de/img/rift2o6kba.jpg

Mit 1080p, wenn nicht sogar 1440p (je nach fps Anspruch) wird selbst Navi22 spielend fertig.

dargo
2020-11-19, 13:20:05
Na, dann warte mal ab bis zur "richtigen Beurteilung". Ampere hat dedizierte Einheiten, die genau auf RT-Berechnungen spezialisiert sind und nichts anderes machen. Bei den AMD-Karten machen es generalisierte Einheiten; die sind zum einen nicht darauf optimiert (weil sie eben auch anderes können müssen) und zum anderen müssen sie auch andere Aufgaben erledigen. Das ist eine Frage des gesunden Menschenverstandes, ob AMD den Abstand auf NV im Bereich RT nennenswert verkürzen können wird.
Dein Halbwissen wird immer peinlicher.

Dino-Fossil
2020-11-19, 13:21:28
Der Windows-Treiber scheint noch Probleme mit Anwendungen zu haben (laut Igor), aber RoCm unter Linux läuft schon sehr gut:

https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1 (https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1)

dildo4u
2020-11-19, 13:21:43
Sieht für mich nicht so aus.

https://abload.de/img/rift1b2j7j.jpg

https://abload.de/img/rift2o6kba.jpg

Mit 1080p, wenn nicht sogar 1440p (je nach fps Anspruch) wird selbst Navi22 spielend fertig.
Damit wäre die 3070 in 1440p schneller und billiger als 6800, die ideale Karte wäre für mich eine 3070 mit 16GB.
Mir gefällt nur nicht da dieses Segment ständig mehr Strom zieht, ich hoffe mein 400 Watt NT verträgt die Geforce.

aufkrawall
2020-11-19, 13:27:08
Der Windows-Treiber scheint noch Probleme mit Anwendungen zu haben (laut Igor), aber RoCm unter Linux läuft schon sehr gut:

https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1 (https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1)
Ist die Frage, ob der Windows-Treiber noch besser wird, denn der wird weiterhin PAL-basiert bleiben, während unter Linux jetzt auf ROCr gesetzt wird (k.A., ob PAL-OCL dort nun im Legacy-Modus ist).
Die zumindest vorletzte Version des PAL-basierten CL-Treibers für Navi unter Linux ist jedenfalls Müll, Blender rendert mit Grünstich und f@h hängt. Mit 20.11.2 Windows geht beides.

dargo
2020-11-19, 13:27:50
Damit wäre die 3070 in 1440p schneller und billiger als 6800, die ideale Karte wäre für mich eine 3070 mit 16GB.

Schon geil... auf der Preisseite argumentierst du mit einer Krüppel 3070 8GB, auf der anderen Seite mit einer 3070 16GB die es nicht gibt. :uup:

aufkrawall
2020-11-19, 13:35:10
Jetzt ist RDNA2 in den Konsolen, neue Spiele ständig expl. API only und die 3070 hat nur 8GB. Turing sieht schon vs. RDNA1 zunehmend weniger gut aus. Welche Karte könnte da nur besser altern? :uponder:

Nazar
2020-11-19, 14:13:45
Wie kommst du darauf? Dann hat die 3080 auch ein Bandbreitenproblem?
Im CB Parcours ist der Abstand zwischen 6800 XT und 3080 in jeder Auflösung exakt 6%.
Zur 3090 erhöht sich der Abstand von 11% (FHD) über 15% (QHD) auf 18% (UHD). Da bricht nichts plötzlich ein. Auf OC reagiert die Karte zudem auch recht gut, da sehe ich absolut nicht, was mit der Bandbreite kaputt sein soll.

https://www.gamestar.de/artikel/amd-radeon-rx-6800-xt-test,3364085,seite2.html

https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-control-3840-2160

6%?.. so so... :freak:

Wie ich geschrieben hatte, in DX11 Spielen sind es so eher 10%+.... Teilweise ist meine OC 2080Ti schneller als die 6800XT :wink:
DX12 scheint gut zu funktionieren, DX11 und 4K scheint es Probleme zu geben und die werden auch nicht mit GPU Treibern zu beheben sein.
Hier scheint das klein schmale SI die Engstelle zu sein.

DennisO2
2020-11-19, 14:17:43
Du willst jetzt für 4K also die 6800 als Referenz nehmen?
Jene Karte, die AMD selber als für WQHD bezeichnet?

Wieviele 4K-Spieler kaufen die 6800 und nicht die 6800XT?
Für 4K ist die 6800XT.)
Das ist genau der Punkt. Und die 5700XT ist eben eine WQHD-Karte. Die muss man mir der Karte der neuen Generation vergleichen, die auch WQHD-ausgelegt ist.

ChaosTM
2020-11-19, 14:21:16
AMD Radeon RX 6800 XT beats GeForce RTX 3090 in HWBOT Fire Strike competition (https://videocardz.com/newz/amd-radeon-rx-6800xt-breaks-hwbots-3dmark-fire-strike-world-record)

2650mhz

gedi war schneller ^^

JVC
2020-11-19, 14:27:13
2.65G unter Luft :freak:

https://www.techpowerup.com/274874/overclocked-amd-radeon-rx-6800-xt-sets-world-record-on-air
:up:
"Lucky has managed to clock the RX 6800 XT at 2650 MHz using the reference air cooler.
With that system, he managed to score 47932 points in 3DMark FireStrike."
"...higher than the NVIDIA GeForce RTX 3090 graphics card that scored 47725 points."

Ich freue mich auf die Partnermodelle :smile:

M.f.G. JVC

Linmoum
2020-11-19, 14:36:56
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-control-3840-2160

6%?.. so so... :freak:

Wie ich geschrieben hatte, in DX11 Spielen sind es so eher 10%+.... Teilweise ist meine OC 2080Ti schneller als die 6800XT :wink:Soll ich jetzt auch völlig sinnlos irgendein DX11-Spiel rauspicken?

https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-star-wars-squadrons-3840-2160

Was ist das mittlerweile für eine Diskussionsgrundlage hier, wenn man sich irgendein einzelnes Spiel rauspickt, um die Aussage eines anderen (die auf einem kompletten Index basiert, der repräsentativ ist) irgendwie widerlegen zu wollen?

nairune
2020-11-19, 14:38:37
Hier scheint das klein schmale SI die Engstelle zu sein.

Diese Schlussfolgerung ist völlig aus der Luft gegriffen. Warum soll das SI Schuld sein? Das lässt sich doch erst beweisen, wenn Speicher-OC überdurchschnittlich anschlägt oder sowas.
TPU hat eine halbwegs vernünftige Datenbasis an Spielen, um deine DirectX 11/12 Behauptung zu untersuchen. Da sehe ich sowohl DX12 Spiele, bei denen die Skalierung eher schlechter ist, als auch DX11, wo sie sehr gut ist (Project Cars 3 geht sie z.B. erst bei 4k ab).

Blediator16
2020-11-19, 15:18:16
Streiten die sich über nicht verfügbare Produkte und wenn mal was da ist, dann zu absoluten Wucherpreisen. Das kann man sich nicht ausdenken :D

Adam D.
2020-11-19, 15:51:36
Dieses Bild veranschaulicht für mich das eigentlich Sensationelle an dieser Generation. Dass sie das ohne Prozesswechsel hingekriegt haben, ist einfach sau gut.

Schnoesel
2020-11-19, 15:55:22
Sind gute Karten geworden. Ich kann also theoretisch wählen zwischen 6900XT, 6800XT und 3080. Praktisch sieht es leider anders aus. Mein Geld bekommt also derjenige der mich beliefern kann. Mal sehen welcher Hersteller mein Geld möchte.

Ravenhearth
2020-11-19, 16:47:24
Dieses Bild veranschaulicht für mich das eigentlich Sensationelle an dieser Generation. Dass sie das ohne Prozesswechsel hingekriegt haben, ist einfach sau gut.
In dem Tests sinds dann auch +50% :)

Benutzername
2020-11-19, 16:47:45
Streiten die sich über nicht verfügbare Produkte und wenn mal was da ist, dann zu absoluten Wucherpreisen. Das kann man sich nicht ausdenken :D


MEINE NICHT LIEFERBARE KARTE IST VIEL BESSER ALS DEINE NICHT LIEFERBARE KARTE!!!11!elf1!! :P



------------

Bisher sieht es für mich so aus, daß nVidia und AMD ziemlich gleich auf sind und je nach Spiel halt etwas besser oder schlechter laufen. AMD hat mehr VRAM (ausgenommen RTX3090). Was wirklich besser ist wird dann an den zukünftigen Treibern hängen und den Spielen, die man hauptsächlich spielen möchte. Oder der gewünschten "ernsthaften" Anwendungssoftware. Jetzt diesen oder jenen Extremfall rauszupicken und Ampere oder RDNA2 als Fehlschlag zu deklarieren ist ziemlich albern. Ist noch alberner bei nicht kaufbaren KArten.


-------------------


Dieses Bild veranschaulicht für mich das eigentlich Sensationelle an dieser Generation. Dass sie das ohne Prozesswechsel hingekriegt haben, ist einfach sau gut.


Äh ist RDNA2 nicht auf dem 7 nm enhanced von TSMC (quasi 7 nm+)? Ist also nicht ganz derselbe Prozess.

Zergra
2020-11-19, 17:16:26
Äh ist RDNA2 nicht auf dem 7 nm enhanced von TSMC (quasi 7 nm+)? Ist also nicht ganz derselbe Prozess.
Nein, ist derselbe Prozess.

Vergleiche sind eh schwierig da ein großer Chip meist effizienter ist. Im Grunde müssten die 3080/3090 mit GDDR6 ohne X auch wesentlich effizienter als die 3070 sein, irgendwas zerhaut das daher.

Für einen echten Vergleich braucht man am Ende die 6700XT. Dann kann man Navi 10 und N22 ganz gut vergleichen.

dargo
2020-11-19, 18:01:02
Dieses Bild veranschaulicht für mich das eigentlich Sensationelle an dieser Generation. Dass sie das ohne Prozesswechsel hingekriegt haben, ist einfach sau gut.
Dort ist übrigens die Perf/W um 51% bei der RX 6800XT vs. RX 5700XT und 64% bei der RX6800 vs. RX 5700XT gewachsen. *Hust* Richtung Blacki. ;)

Digidi
2020-11-19, 18:17:41
delete

TwoBeers
2020-11-19, 19:13:30
So, ich hab gerade mal mit der XT ein paar TimeSpy Runs gemacht, die 2,5GHz bzw. 2,6GHz schafft das Ding ja echt locker.

Habe im Wattman Takt auf 2650 gestellt, 1.025V undervolted und +15% PL.

Erster Test, da geht sicher noch so einiges.

https://abload.de/img/3dmark_run6zjk6.png

Ach ja, der Lüfter ist leiser als meine alte Red Devil (Vega 64).

dargo
2020-11-19, 19:21:50
Argh... bei der Referenz muss man ja wieder umdenken, das sind ja bloß 80mm Lüfter. Puh... da muss ich weit zurück zur R9 390 von HiS. :D Afaik empfand ich dort 1600RPM noch als sehr leise. Oder waren es 1500RPM? :uponder:

btw.
Zeigt der AB bei Navi21 nicht mehr GPU-Power sondern den Verbrauch der gesamten Karte?

TwoBeers
2020-11-19, 19:28:47
btw.
Zeigt der AB bei Navi21 nicht mehr GPU-Power sondern den Verbrauch der gesamten Karte?

Ja, scheint Gesamtverbrauch zu sein, ich hab jetzt bei angezeigten 220W ca. 50W weniger Gesamtverbrauch (an der Steckdose) als die Vega mit angezeigten 220W.

dargo
2020-11-19, 19:36:13
Witzig... denn offenbar brauchst du die +15% PT dann nicht da mit deinen Settings die Karte nahezu eine Punktlandung bei ~300W hat. Falls du Zeit und Lust hast lote bitte aus wie hoch die Karte mit UV bei 250-260W taktet inkl. Lüfterdrehzahl + GPU-Temperatur. Games wären aber echt besser.

btw.
Ich vermisse in deinem Graphen noch die Speicher und VRM Temperaturen.

Edit:
Argh... sehe gerade die max. 360W. :anonym: Die Lastschwankungen sind schon etwas merkwürdig hoch. Liegts am Time Spy?

Birdman
2020-11-19, 20:01:29
Die Lastschwankungen sind schon etwas merkwürdig hoch. Liegts am Time Spy?
Aggressives Powergating? Für die Effizienz wäre dies ja sicher hilfreich, fördert aber halt das Spulenfiepen/rasseln.

TwoBeers
2020-11-19, 20:02:54
Hier mal eine Runde SotTR Benchmark (3440x1440, Ultra), mit Standard PL. Die 2650 lagen aber nur als Spike kurz an, meistens so um die 2450-2500.

https://abload.de/img/sottr1nkiw.png

Mem und VRM Temps scheints in der Telemetrie nicht zu geben, zumindest im AB nichts zu finden.

Btw: Hatte in den Zwischensequenzen ca. 400fps, hab kein Fiepen/Rasseln gehört.

dargo
2020-11-19, 20:19:55
Mit SotTR schon besser. ;)

2,45 bis 2,5Ghz bei im Schnitt grob 280-285W(?) kann sich doch sehen lassen. Die Lüfterdrehzahl gefällt mir dabei besonders gut. Ich freue mich schon auf die Customs. :) Hatte die Karte in diesem Test eigentlich genug Zeit gehabt sich aufzuheizen? Wie lange läuft der Bench von SotTR nochmal? Sorry, bin gerade nicht am Rechner und kann es nicht überprüfen.

btw.
Gibts auch keinen Hotspot der GPU mehr bei Navi21 im Afterburner?

Robot
2020-11-19, 20:52:05
Mach doch mal bitte den TimeSpy im Dauerloop. Die kurzen Stücke sind nicht so aussagekräftig, man sieht ja das die Temp da immer noch ansteigt und dann Ende ist.

DHL ist nicht gekommen heute und meine 3080 STECKT FEST !!! ICH FLIPP AUS!

TwoBeers
2020-11-19, 21:12:33
Hmm, leider gehen jetzt SotTR und Division nicht mehr, wenn der AB an ist. Das kommt mir irgendwie bekannt vor, dass manche Games bei dem Overlay spinnen .. komisch, dass es vorher ging. Auch nach Reboot keine Änderung .. na ja, neues Zeugs halt.

Aber ich habe jetzt mal SotTR ohne AB ca. 20min laufen lassen, die ganze Zeit über 2,5GHz, meistens über 2,6GHz. Und hier ist max Temp:

https://abload.de/img/sottr_tempvdksi.png

Das Overlay vom Treiber hat zumindest noch die Tjunction mit dabei.

horn 12
2020-11-19, 21:16:13
Dies Alles in Ultra HD wäre mal interessant :-== ))
Da heizt die Karte wohl ganz Anders auf.

dargo
2020-11-19, 21:17:54
Da fehlt beim Afterburner noch der Feinschliff für N21, nichts Neues bei neuen GPUs. Ist das aber echt 3440x1440? Das Format passt irgendwie nicht und das Bild sieht mir nach dieser Auflösung auch nicht wirklich aus. Oder täusche ich mich da?

TwoBeers
2020-11-19, 21:20:44
Das Format passt irgendwie nicht und das Bild sieht mir nach dieser Auflösung auch nicht wirklich aus. Oder täusche ich mich da?

Ich hab das abgeschnitten, damit man noch halbwegs was erkennt (außerdem lässt abload.de nicht über 10MB zu).

Übrigens Gesamtverbrauch ist ca. 30W ggü. Vega 64 UV gestiegen, da gehen aber sicher 20W für die höhere CPU Auslastung drauf.

dargo
2020-11-19, 21:22:04
Ja... logisch. Bei dem GPU-Upgrade darf die CPU jetzt mehr ackern. :D

Edit:
Ah... gibt also doch den Hotspot noch, nur der AB kann den noch nicht auslesen. Hätte ich aber auch selbst drauf kommen können, dass es den gibt. Schließlich zeigte Igor paar MPT-Daten. :tongue:

TwoBeers
2020-11-19, 21:42:44
Dies Alles in Ultra HD wäre mal interessant :-== ))
Da heizt die Karte wohl ganz Anders auf.

Ich hab mal 5120x2160 für dich angeschmissen. Leider wird dann auch das Radeon Overlay nicht mehr angezeigt.:rolleyes:

https://abload.de/img/sottr_2160pyej0s.jpg

Ändert nichts am Verbrauch/Temperatur:

https://abload.de/img/sottr_2160p_tempk2kke.png

Ach ja und fühlt sich trotzdem sehr flüssig an, keine Ahnung wieviel fps das noch sind. ;)

horn 12
2020-11-19, 21:48:34
Emermax 600 Watt und da stemmst bereits alles ?
Kann ich gar nicht glauben fast ...

dargo
2020-11-19, 21:52:32
Warum denn nicht? Mein altes Bequiet E9 580W lachte auch über eine V64 LCE mit 350W. :tongue: Oder meinst du die Lastspitzen sind bei N21 extrem hoch?

Die RX 6800XT ist sogar einiges harmloser als die Radeon VII. Schau mal auf die Werte bei 1-5ms.

RX 6800XT:
https://www.igorslab.de/wp-content/uploads/2020/11/03-Peak-Power.png

Radeon VII:
https://www.igorslab.de/wp-content/uploads/2019/02/15-Peak-Power-Analysis.png

TwoBeers
2020-11-19, 21:56:31
Die Lastspitzen waren an sich nur bei den +15% PL, bei 0% ist da nicht viel Spielraum.

Ach ja, hier jetzt auch noch die fps zu den 2160p:

https://abload.de/img/sottr_2160p_fpshckx4.jpg

Wie gesagt, flüssig. :)

nairune
2020-11-19, 22:24:42
Was zieht der ganze PC beim Zocken? Schätze um die 400W? Bzw. vielleicht auch bisschen mehr mit +15%.

Ich nehme daraus erstmal mit, dass sich die Karte wohl ziemlich ähnlich / gleich zu Navi 10 verhält und dass ich "zur Not" bzw. wenn es sich preislich lohnt auch eine Referenz kaufen würde. Der Kühler reicht mir dicke, so viel Saft bekommt sie bei mir eh nicht :)

gedi
2020-11-19, 22:28:04
Die Lastspitzen waren an sich nur bei den +15% PL, bei 0% ist da nicht viel Spielraum.

Ach ja, hier jetzt auch noch die fps zu den 2160p:

https://abload.de/img/sottr_2160p_fpshckx4.jpg

Wie gesagt, flüssig. :)

Ist das maxed out (ohne RT)? 5k@71FPS sind ca. 15% mehr als ne OC 2080Ti in 4k macht. Ziemlich ordentlich imo ...

Gibts eigentlich bereits ein 6800-kompatibles MPT? Interessant wären deine Werte mit +50%, zudem könntest du dann den Vram ausfahren :) Wo du wohl mit dauerhaften 2.65GChip- und 2.2G Vram-Takt landen würdest?

DennisO2
2020-11-19, 22:46:28
Glückwunsch zu der Karte, du Glückspilz!

Könntest du einmal schauen, was die Karte nach einem Neustart aufm Desktof frisst, in FullHD und in WQHD oder 4k?

Wiseman
2020-11-19, 22:57:17
Also ich bin seit heute auch enttäuscht von diesem Launch. Vor allem von der 6800XT bin ich enttäuscht. Warum?

Nun, Chefanalyst Leonidas von 3dC hat sich die Mühe gemacht und gleich 17 Launch-Reviews ausgewertet, um sie mit den Performance-Vorhersagen von AMD zu vergleichen. Leonidas kam dabei zu einem für AMD erschröcklichem Ergebnis, das er unbedingt auf der Frontseite von 3dC verkünden musste.

Die RX 6800XT ist um sagenhafte 7% unter der RTX 3080 geblieben! OMG. "AMD ist in einem beachtlichen Maßstab unterhalb der eigenen Performance-Vorhersage herausgekommen."

Zur Erinnerung: AMDs eigene Performance-Vorhersage beruht auf dieser vor kurzem veröffentlichten Benchmark-Folie mit insgesamt 10 Games.

Leonidas, ich kann doch davon ausgehen, dass du deine Analyse äußerst gewissenhaft erstellt hast. Du hast sicher das beherzigt, was für andere Websites eine Selbstverständlichkeit ist. Ich zitiere dazu mal CB:

In den einzelnen Spielen zeigen sich große Schwankungen, was voraussichtlich zur Folge haben wird, dass je nach Testparcours der Abstand der Radeon RX 6800 XT zur GeForce RTX 3080 stark unterschiedlich ausfallen wird – und je nach Parcours auch mal die AMD-Grafikkarte vorne liegen kann.

Ich kann also davon ausgehen, dass in jedem dieser 17 Launch-Reviews exakt die gleiche Szene gebencht wurde wie in den 10 Games auf der AMD-Folie.

Ich gehe auch davon aus, dass du in den von dir benutzten 17 Launch-Reviews jeweils genau die 10 Games analysiert hast, die auch AMD benutzt hat.

Ich gehe ferner davon aus, dass du peinlich genau auf so Dinge geachtet hast wie z. B. auf den Umstand, dass AMD das Spiel Borderlands 3 nicht in Ultra, sondern in Badass getestet hat.

gedi
2020-11-19, 23:02:03
Also ich bin seit heute auch enttäuscht von diesem Launch. Vor allem von der 6800XT bin ich enttäuscht. Warum?

Nun, Chefanalyst Leonidas von 3dC hat sich die Mühe gemacht und gleich 17 Launch-Reviews ausgewertet, um sie mit den Performance-Vorhersagen von AMD zu vergleichen. Leonidas kam dabei zu einem für AMD erschröcklichem Ergebnis, das er unbedingt auf der Frontseite von 3dC verkünden musste.

Die RX 6800XT ist um sagenhafte 7% unter der RTX 3080 geblieben! OMG. "AMD ist in einem beachtlichen Maßstab unterhalb der eigenen Performance-Vorhersage herausgekommen."

Zur Erinnerung: AMDs eigene Performance-Vorhersage beruht auf dieser vor kurzem veröffentlichten Benchmark-Folie mit insgesamt 10 Games.

Leonidas, ich kann doch davon ausgehen, dass du deine Analyse äußerst gewissenhaft erstellt hast. Du hast sicher das beherzigt, was für andere Websites eine Selbstverständlichkeit ist. Ich zitiere dazu mal CB:



Ich kann also davon ausgehen, dass in jedem dieser 17 Launch-Reviews exakt die gleiche Szene gebencht wurde wie in den 10 Games auf der AMD-Folie.

Ich gehe auch davon aus, dass du in den von dir benutzten 17 Launch-Reviews jeweils genau die 10 Games analysiert hast, die auch AMD benutzt hat.

Ich gehe ferner davon aus, du peinlich genau auf so Dinge geachtet hast wie z. B. auf den Umstand, dass AMD das Spiel Borderlands 3 nicht in Ultra, sondern in Badass getestet hat.

Der gute Leo wäre gut beraten gewesen, die Fußzeile zu lesen. Hier wurden die 3xxx GPUs mit dem Release-Treiber gebencht. Weiß jetzt nicht, wieviel dies an der Performance verändert, allerdings hätte man dies sicher wenigstens anmerken sollen ...

nairune
2020-11-19, 23:04:45
Leonidas Kritik ist, dass cherrypicked und damit nicht die durchschnittliche Performance gezeigt / "versprochen" wurde.
Womit er Recht hat.
Für mich persönlich wiegt aber schwerer wohin der Trend geht und da sah es mit sehr vielen der neueren Spielen gut für RDNA aus - wie CB es auch separat herausstellte. Da wird also wieder eine Korrektur im Index fällig werden.

Wenn das für etwas weniger Nachfrage sorgt, bin ich gar nicht mal so sauer über den Rückstand in älteren Spielen :)

TwoBeers
2020-11-19, 23:05:04
Ist das maxed out (ohne RT)? 5k@71FPS sind ca. 15% mehr als ne OC 2080Ti in 4k macht. Ziemlich ordentlich imo ...

Gibts eigentlich bereits ein 6800-kompatibles MPT? Interessant wären deine Werte mit +50%, zudem könntest du dann den Vram ausfahren :) Wo du wohl mit dauerhaften 2.65GChip- und 2.2G Vram-Takt landen würdest?

Ja, das waren Ultra Settings mit SMAAT2x und 5120x2160, ohne RT.

Auf ein kompatibles MPT warte ich auch noch, das würde dargo sicher auch gefallen. ;)

DrFreaK666
2020-11-19, 23:05:48
https://www.gamestar.de/artikel/amd-radeon-rx-6800-xt-test,3364085,seite2.html

https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-control-3840-2160

6%?.. so so... :freak:
...

Es war offensichtlich dass er das Performance-Rating meint.
Aber darf ja nicht sein, weil er dann Recht hat, oder?? :rolleyes:
Um bei CB zu bleiben: Wolcen ist ein DX11-Game, da ist die 3080 1% schneller.
Hör auf zu Cherry-Picken, das können andere auch.
Akzeptiere dass die 3080 im Durchschnitt in 1080p, 1440p und 2160p 6% schneller ist.

Was ist dein Problem? Nvidia führt, reicht dir das nicht?

TwoBeers
2020-11-20, 00:11:10
Was zieht der ganze PC beim Zocken? Schätze um die 400W? Bzw. vielleicht auch bisschen mehr mit +15%.

Mein Powermeter an der Steckdose sagt ca. 510W beim Benchmarken (große Auslastung), aber da hängt auch noch ein bissel Perepherie dran (HDDs, Router, Monitor und Sound im Standby). Mit Vega 64 UV waren es 480W. Die 6800 XT ist oft nicht so ausgelastet, muss man dazu sagen, dann ist es sogar weniger.

Glückwunsch zu der Karte, du Glückspilz!

Könntest du einmal schauen, was die Karte nach einem Neustart aufm Desktof frisst, in FullHD und in WQHD oder 4k?

Bei 3440x1440 auf dem Desktop sind es ca. 20W laut WattMan.

grizu
2020-11-20, 01:40:06
Die Lastspitzen waren an sich nur bei den +15% PL, bei 0% ist da nicht viel Spielraum.

Ach ja, hier jetzt auch noch die fps zu den 2160p:

https://abload.de/img/sottr_2160p_fpshckx4.jpg

Wie gesagt, flüssig. :)

mach doch mal bitte ein Screenshots von deinen custom Einstellungen

DennisO2
2020-11-20, 02:07:19
Bei 3440x1440 auf dem Desktop sind es ca. 20W laut WattMan.

Vielen Dank! Das sind doch schon bessere Werte als bei mir. Meine 5700XT Nitro+ frisst in allem über FullHD 30W fast konstant, deswegen geht der Lüfter immer mal wieder an.
In FullHD sind es zwischen 8 und 15W, da läuft der Lüfter nie an.

Wärst du so lieb, noch einmal in FullHD nachzuschauen?

aufkrawall
2020-11-20, 02:36:51
Taktet bei dir denn der VRAM runter? Der Sensor für GPU-only meldet hier 9W für 1440p 85Hz MSI 5700 XT Gaming X.

DennisO2
2020-11-20, 02:41:41
Taktet bei dir denn der VRAM runter? Der Sensor für GPU-only meldet hier 9W für 1440p 85Hz MSI 5700 XT Gaming X.
Genau das ist das Problem, der Takt bleibt oben, solange die Auflösung oben ist. Allerdings auch über Displayport verbunden - hast du deinen Monitor über HDMI dran?

-/\-CruNcher-/\-
2020-11-20, 05:50:13
Trotzdem ist es um die insgesammte Energie Effizienz für Navi21 sichtlich besser bestellt mit dem 7N Node was man sehr deutlich am Peak verhalten sieht so gesehen fallen die 6% ins nichts gegen das Netzteil Problem Nvidias am 8N Node Limit (Nativ) und den darauf folgenden höheren investiontionskosten die im Endefekt dann nur durch das Hybrid Load verhalten gerechtfertigt werden.

Nur die 3070/TI/Super Balance kann dieses verhältnis noch kippen

Allerdings muss man hier auch komplett different mit Hybrid Load und ohne bewerten so einfach ist das nicht mehr wie sich viele Reviewer das jetzt machen.

Die Zeiten von einfachheit sind vorbei ;)

Das wird vor allem noch super spannend bei den Mobile varianten von beiden, wenn der Spielraum noch enger wird für beide Designs ;)

Nvidia sollte jedenfalls absolult keine chance mehr gegen eine hocheffiziente 7N Navi APU haben.

Ob sie das Experiment wagen 8N Samsung Mobile Discreet ins Rennen zu schicken wage ich auch noch stark zu bezweifeln, nachdem was sich hier "oben" schon abzeichnet ohne 7N keine chance Mobile irgendwo land zu sehen.

Korvaun
2020-11-20, 07:36:20
Das sich hier einige wieder um jedes % streiten ... wie immer lustig zu lesen aber nicht wirklich relevant für 99% aller Käufer.

AMD hat mit den ZEN-CPUs auch 3 "Anläufe" gebraucht um komplett mit Intel gleichzuziehen (wobei RocketLake im Frühjahr...). Das es AMD in nur 2 Anäufen bei den GPUs geschafft hat nV so nahe zu kommen, die ja auch gerade erst ihre neue Architektur releast haben, ist toll. Dazu kommen noch Treiberverbesserungen und gerade erst startende Optimierungen seitens der Spieleentwickler, die wohl noch wesentlich mehr ausmachen werden (siehe auch Konsolen). Ich denke in 1 Jahr ist der Vorsprung von nV wohl komplett weg, dann gibts aber schon wieder neue Karten zumindest bei nV, mal sehen wie es dann aussieht...

gedi
2020-11-20, 08:22:33
https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/3/

JVC
2020-11-20, 08:41:17
Morgen. Und gleich noch einmal ;)
https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/News/OC-schlaegt-Geforce-RTX-3090-OC-3DMark-Firestrike-ohne-Tesselation-1362115/
"Radeon RX 6800 XT OC schlägt Geforce RTX 3090 OC ohne Tessellation im 3DMark Firestrike"

M.f.G. JVC

dargo
2020-11-20, 08:46:52
https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/3/
Nett... ~2,5Ghz und das Ding bleibt immer noch unter 250W. :up:

Edit:
Moment mal... 8% mehr Performance (2480Mhz @108,6 avg.fps vs. Stock @100,4 avg.fps) bei +6% mehr Verbrauch (241,1W vs. 227,8W)? Igor hat die Physik ausgehebelt. ;D

Badesalz
2020-11-20, 09:05:24
Das sich hier einige wieder um jedes % streiten ... wie immer lustig zu lesen aber nicht wirklich relevant für 99% aller Käufer.99,985%? :wink:

AMD hat mit den ZEN-CPUs auch 3 "Anläufe" gebraucht um komplett mit Intel gleichzuziehen (wobei RocketLake im Frühjahr...). Das es AMD in nur 2 Anäufen bei den GPUs geschafft hat nV so nahe zu kommen, die ja auch gerade erst ihre neue Architektur releast haben, ist toll.Die GPU steht hier imho besser da als die CPU. Bei den CPUs hatte AMD Intels 2x Stolpern bei dem Prozess auf der Haben-Seite und mehrfach Intels Leistungsregressionen wegen Sicherheitsproblemen.
Das hat sehr viel Zeit verschafft.

Die GPUs hatten das alles nicht. Selbst wenn man Samsungs Prozess REALISTISCH abwertet gegenüber TSMC, hat RDNA immernoch fast doppelt so schnell aufgeholt als ZEN.

HOT
2020-11-20, 09:21:50
8LPP ist schon gut. Und wenn NV unbedingt den GA103 haben will, um die 3080 zu produzieren (Verfügbarkeit soll ja erst dann gegeben sein), dann ist der Yield sogar exzellent. Ich glaub, dass viel auf 8LPP geschoben wird und das einfach nicht stimmt. Das wird ne sehr gute Wahl gewesen sein.

TwoBeers
2020-11-20, 09:30:00
Wärst du so lieb, noch einmal in FullHD nachzuschauen?

Auch 20W, laut Wattman.

Taktet bei dir denn der VRAM runter? Der Sensor für GPU-only meldet hier 9W für 1440p 85Hz MSI 5700 XT Gaming X.

Laut Wattman bei 192MHz.

Badesalz
2020-11-20, 10:04:33
8LPP ist schon gut. Und wenn NV unbedingt den GA103 haben will, um die 3080 zu produzieren (Verfügbarkeit soll ja erst dann gegeben sein), dann ist der Yield sogar exzellent. Ich glaub, dass viel auf 8LPP geschoben wird und das einfach nicht stimmt. Das wird ne sehr gute Wahl gewesen sein.Ou... Paradigmenwechsel bei Ampere ;)

dargo
2020-11-20, 10:05:57
AMD Radeon RX 6800 Review, Best Value High-End GPU?

-Y26liH-poM

Schon witzig wie oft eine 650$ Karte die 1500$ Karte in 1440p einholt bis "rasiert". :tongue: Selbst bei Metro Exodus bin ich davon positiv überrascht denn dort liegt die 2070S einiges (~15%) über der 5700XT. Bei den schnellen Karten wird sich aber auch CPU-Limit @1440p bemerkbar machen.

Edit:
RX 6800XT vs. RX 5700XT
1080p = +50%
1440p = +67%
2160p = +86%

https://youtu.be/-Y26liH-poM?t=610

Mit Zen2 kriegt man N21 in 1440p irgendwie auch nicht voll ausgelastet. :freak:

Edit:
Bei Einzelbetrachtung gehts aber. Hängt dann immer davon ab wie stark ein Game an der CPU hängt.

Godfall @1440p = +92%
WDL @1440p = +80%
SotTR @1440p = +80%

DennisO2
2020-11-20, 10:09:31
Auch 20W, laut Wattman.

Laut Wattman bei 192MHz.
Das ist interessant. Für mich wärs ein 10W Gewinn, aber für die Full-HD-Fraktion eher ein Nachteil. Aber gut, warten wir mal auf neue Treiber.

Hast du sie per DP oder HDMI angeschlossen?

Vielen Dank fürs Testen!

TwoBeers
2020-11-20, 11:15:10
Hast du sie per DP oder HDMI angeschlossen?



DP

aufkrawall
2020-11-20, 12:12:56
Ist die Frage, ob der Windows-Treiber noch besser wird, denn der wird weiterhin PAL-basiert bleiben, während unter Linux jetzt auf ROCr gesetzt wird (k.A., ob PAL-OCL dort nun im Legacy-Modus ist).
Die zumindest vorletzte Version des PAL-basierten CL-Treibers für Navi unter Linux ist jedenfalls Müll, Blender rendert mit Grünstich und f@h hängt. Mit 20.11.2 Windows geht beides.
Hab jetzt den 20.45er Treiber via AUR installiert, ist meiner Interpretation der beinhalteten Dateien nach vermutlich ROCr-basiert. Jedenfalls sind damit die obigen Probleme weg und f@h hat gerade immerhin auf Anhieb einen neuen persönlichen Rekord mit der Navi bei 1.150.000ppd aufgestellt. :)
(Edit: Anzeige nun bei >1,2Mio. ^^)

Genau das ist das Problem, der Takt bleibt oben, solange die Auflösung oben ist. Allerdings auch über Displayport verbunden - hast du deinen Monitor über HDMI dran?
Das Problem wird das Timing fürs vertikale Blanking sein, siehe:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12506071&postcount=3793
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602832
Ist definitiv ein komisches Problem von Navi, hoffentlich hat Navi 2x das nicht geerbt. Ich kann es aber, wie den Links zu entnehmen ist, ganz einfach und offenbar ohne Nebenwirkungen beheben.

nairune
2020-11-20, 12:30:07
CB mit Nachtest... These des Bandbreitenlimits widerlegt: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_dieser_in_hohen_aufloesungen_update

Redneck
2020-11-20, 12:30:43
AMD Radeon RX 6800 Review, Best Value High-End GPU?

https://youtu.be/-Y26liH-poM

Schon witzig wie oft eine 650$ Karte die 1500$ Karte in 1440p einholt bis "rasiert". :tongue: Selbst bei Metro Exodus bin ich davon positiv überrascht denn dort liegt die 2070S einiges (~15%) über der 5700XT. Bei den schnellen Karten wird sich aber auch CPU-Limit @1440p bemerkbar machen.

Edit:
RX 6800XT vs. RX 5700XT
1080p = +50%
1440p = +67%
2160p = +86%

https://youtu.be/-Y26liH-poM?t=610

Mit Zen2 kriegt man N21 in 1440p irgendwie auch nicht voll ausgelastet. :freak:

Edit:
Bei Einzelbetrachtung gehts aber. Hängt dann immer davon ab wie stark ein Game an der CPU hängt.

Godfall @1440p = +92%
WDL @1440p = +80%
SotTR @1440p = +80%

bevor ich mir jeden einzelnen Titel ansehe , nehme ich lieber den Schnitt von 18 Spielen..
1080p : 6800XT>3090>3080
1440p : 3090>6800XT>3080
4k : 3090>3080>6800XT

kann man doch mit leben.. in 4K liegt Differenz bei 5% zwischen der 6800XT und 3080 .
Wenn man sich das schön rechnen wollte, könnte man noch die -4% bei der 3080 durch UV einbeziehen, damit die Karte stabil läuft.
Aber so what.. reicht doch.. alles schön

M4xw0lf
2020-11-20, 13:09:11
CB mit Nachtest... These des Bandbreitenlimits widerlegt: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_dieser_in_hohen_aufloesungen_update
Die "Big Navi-4k-Schwäche" (im Vergleich zu Ampere) ist imo eher einer Ampere-low-res-Schwäche. Genau so, wie AMDs frühere GPU-Architekturen von Hawaii über Fiji bis Vega ihre Rohleistung erst mit hohen Auflösungen ausspielen konnten, geht es jetzt mit Ampere.
Der CB-Test zeigt ja auch sehr schön, dass Big Navi im Vergleich zu Navi 10 trotz identischem 256bit SI auch unter 4k noch sehr gut mit mehr GPU-Takt skaliert. Ein echter SI-Flaschenhals ist hier also nicht gegeben, der Cache fängt das allem Anschein nach auf.

-/\-CruNcher-/\-
2020-11-20, 14:30:05
@Fallback

Kannst du mal The Old King anschmeisen und Project Baikal ?

Der Baikal thread ist hier noch auf 3dcenter irgendwo ;)
Defibrilator ansetz und schuss https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686 (Die Grundlage für die RA implementation)

TressFX 4.1 Fur Demo Couldron based
https://github.com/GPUOpen-Effects/TressFX


The Old King Demo
https://download.amd.com/demo/amd_theoldking_demo.zip

Pro Render Ecosystem
https://www.amd.com/de/technologies/radeon-prorender-downloads

Vor allem das Pro Render Ökosystem ignoriert Igor leider noch vollkommen

dildo4u
2020-11-20, 14:37:08
AMD Radeon RX 6800 Review, Best Value High-End GPU?

https://youtu.be/-Y26liH-poM

Schon witzig wie oft eine 650$ Karte die 1500$ Karte in 1440p einholt bis "rasiert". :tongue: Selbst bei Metro Exodus bin ich davon positiv überrascht denn dort liegt die 2070S einiges (~15%) über der 5700XT. Bei den schnellen Karten wird sich aber auch CPU-Limit @1440p bemerkbar machen.

Edit:
RX 6800XT vs. RX 5700XT
1080p = +50%
1440p = +67%
2160p = +86%

https://youtu.be/-Y26liH-poM?t=610

Mit Zen2 kriegt man N21 in 1440p irgendwie auch nicht voll ausgelastet. :freak:

Edit:
Bei Einzelbetrachtung gehts aber. Hängt dann immer davon ab wie stark ein Game an der CPU hängt.

Godfall @1440p = +92%
WDL @1440p = +80%
SotTR @1440p = +80%
Bencht HDUnboxed nicht mit einem 5950x?

Ah er erwähnt es im 6800Xt Test er will umrüsten es dauert aber noch.

BlacKi
2020-11-20, 14:39:00
da kommt die tante lisa und sagt: dududu neinneinnein mein freund^^
https://youtu.be/JEN8Bo02RHk?t=150

ChaosTM
2020-11-20, 14:48:31
Die polierten Pfützen sind auch nicht seins ;)

PingpiN
2020-11-20, 14:59:46
Unglaublich wie die 6800 Serie in manchen Spielen abgeht. jetzt muss AMD dank neuer Konsolen nur noch dafür sorgen das neue Raytracing Spiele ein wenig an Details verlieren bzw realistisch aussehen damit die Radeons nicht zuweit von Nvidia entfernt sind.

dildo4u
2020-11-20, 15:06:37
Unglaublich wie die 6800 Serie in manchen Spielen abgeht. jetzt muss AMD dank neuer Konsolen nur noch dafür sorgen das neue Raytracing Spiele ein wenig an Details verlieren bzw realistisch aussehen damit die Radeons nicht zuweit von Nvidia entfernt sind.
Man kann ordentliches RT einbauen siehe Spider-Man ist dann halt wie letzte Generation Konsole 30fps PC 60.
https://www.resetera.com/threads/siege-of-shanghai-in-battlefield-4-on-ps4-has-ray-tracing-in-it.326975/page-3#post-51689345

Man muss für alte PC GPUs eh Fallbacks einbauen, die Entwickler können das auf Konsole dann ausnutzen 60fps ohne RT und 30 mit RT.

horn 12
2020-11-20, 15:10:45
CPU RyZen 3 Modell 5600X ist verbaut seit knapper halben Stunde...
Gesamt 5 Personen in Ganz Italien haben eine der verschiedenen 5xx0-er CPU´s
und nun fehlt die Grafikkarte zum Himmel noch mal...

6800 / XT
Darf doch nicht wahr sein :-((

-/\-CruNcher-/\-
2020-11-20, 15:17:02
da kommt die tante lisa und sagt: dududu neinneinnein mein freund^^
https://youtu.be/JEN8Bo02RHk?t=150

So jetzt hat AMD auch Dicht gemacht, recht spät.
3 Generationen später als Nvidia komplett dicht gemacht hat, verwunderlich war immer das man bei AMD überhaupt so lang gewartet hat.

Jetzt ist auch der Vorteil für viele Geschichte

BlacKi
2020-11-20, 15:30:59
es gibt noch hoffnung auf bios mods oder von custom karten.

-/\-CruNcher-/\-
2020-11-20, 15:53:10
Bios mods darf es nicht geben ansonsten ist es ein security failure ihrer ARM security pipeline
Falcon (Nvidias Hardware Security ist bis jetzt noch ungebrochen)

Intel hat den größten hit erlitten praktisch alles zusammengefallen, die Russen haben es vollkommen demontiert

MR2
2020-11-20, 16:15:30
Als erstes Custom Design hat die PowerColor Radeon RX 6800 XT Red Devil die Redaktion erreicht.

https://www.computerbase.de/2020-10/powercolor-red-devil-radeon-rx-6000/

fondness
2020-11-20, 16:25:06
PowerColor Radeon RX 6800 XT Red Devil tested
https://videocardz.com/newz/powercolor-radeon-rx-6800-xt-red-devil-tested

Wuge
2020-11-20, 16:51:27
Hatf hier im forum schon jemand die Skalierung von VRAM OC/Taktreduzierung getestet? Würde mich mal interessieren, wie sehr die Karte an der Bandbreite hängt.

-/\-CruNcher-/\-
2020-11-20, 16:54:45
Key caps hau mich gerade weg man die sollen ihre PR Gamer scheisse behalten und den Preis ordentlich gestalten das ganze Gamer layout können sich alle auch mal in den hintern schieben dieser zusätzliche Energieverbrauch ist schrott für die insgesamte Design Effizienz

searched4u
2020-11-20, 17:12:50
Als erstes Custom Design hat die PowerColor Radeon RX 6800 XT Red Devil die Redaktion erreicht.

https://www.computerbase.de/2020-10/powercolor-red-devil-radeon-rx-6000/

Alter Verwalter, was ein Klopper... Da bekommt man Angst um den PCI-E Slot :freak:

Redneck
2020-11-20, 17:23:03
PowerColor Radeon RX 6800 XT Red Devil tested
https://videocardz.com/newz/powercolor-radeon-rx-6800-xt-red-devil-tested
krank die OC Möglichkeiten
Verstehe aber nicht, wieso sie RGB auf der MB Seite angebracht haben.. sieht man doch nicht. fehlkonstrukt

dildo4u
2020-11-20, 17:24:51
OCd auf 2750 mhz game, 2800mhz boost clock mit luft krank
War nicht stabil 2.6Ghz ging der 1080p Bench durch 4k kann den Takt weiter senken.

Redneck
2020-11-20, 17:28:16
War nicht stabil 2.6Ghz ging der 1080p Bench durch 4k kann den Takt weiter senken.
auch noch gelesen und dann meinen text korrigiert. bin mal gespannt, ob man mit wasser noch mehr rausholen kann oder damit das limit erreicht ist.

Der_Korken
2020-11-20, 18:03:41
Hatf hier im forum schon jemand die Skalierung von VRAM OC/Taktreduzierung getestet? Würde mich mal interessieren, wie sehr die Karte an der Bandbreite hängt.

Bei CB wurde ein kleiner Nachtest gemacht: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update

Speicher auf 8600Mhz (=+7,5%) brachte in 4K ca. 1% mehr Leistung, also fast nichts. Damit ist btw das Märchen, dass der Infinity Cache für 4K zu klein ist, für mich vorerst widerlegt.

Mit GPU-Takt skaliert die Leistung sehr gut, wenn auch nicht 1:1: https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_die_hoeheren_taktraten_bringen_gut_mehr_leistung_update

dargo
2020-11-20, 18:17:33
Habe ich das richtig verstanden? AMD verhindert bei N21 nun eine Erhöhung der Voltage? Das wird den Wakü-Freunden aber nicht gefallen. :freak:

Hakim
2020-11-20, 18:29:40
https://pics.computerbase.de/9/5/9/7/3-9090623aae686489/1-630.a68f1cef.jpg

Computerbase (https://www.computerbase.de/2020-11/cyberpunk-2077-systemanforderungen-update/)

das die nicht mal eine 6800er in den RT Anforderungen auflisten....

Edit: oder RT geht mit den FPS dermaßen den Bach runter das derzeit DLSS quasi Pflicht ist?

Der_Korken
2020-11-20, 18:31:20
Habe ich das richtig verstanden? AMD verhindert bei N21 nun eine Erhöhung der Voltage? Das wird den Wakü-Freunden aber nicht gefallen. :freak:

Solange sie das Undervolting erlauben ist alles gut. Zumindest für mich :D.

dargo
2020-11-20, 18:43:57
Für mich auch. ;) Trotzdem etwas schade, afaik ist die max. Vcore auch nur 1025mV.

dildo4u
2020-11-20, 18:48:07
https://pics.computerbase.de/9/5/9/7/3-9090623aae686489/1-630.a68f1cef.jpg

Computerbase (https://www.computerbase.de/2020-11/cyberpunk-2077-systemanforderungen-update/)

das die nicht mal eine 6800er in den RT Anforderungen auflisten....

Edit: oder RT geht mit den FPS dermaßen den Bach runter das derzeit DLSS quasi Pflicht ist?
Zusätzlicher RT Support kommt später für die neuen Konsolen und AMD, daher wird es noch nicht aufgelistet.

Hier ganz unten gibt es ein Update.

https://www.computerbase.de/2020-11/cyberpunk-2077-systemanforderungen-update/

Complicated
2020-11-20, 19:02:59
https://www.computerbase.de/2020-11/cyberpunk-2077-systemanforderungen-update/#update-2020-11-20T18:52
Die Frage der Redaktion, ob Cyberpunk 2077 Raytracing nur auf Nvidia GeForce RTX bieten wird, hat CD Projekt verneint und folgendes Statement abgegeben:

Wir arbeiten gemeinsam mit AMD daran, so schnell wie möglich Raytracing-Optionen für ihre Grafikkarten zu integrieren. Zum Launch des Spiels wird dies jedoch noch nicht der Fall sein.

Demnach wird Raytracing zur Veröffentlichung den GeForce-RTX-Systemen vorbehalten sein. Raytracing auf AMD Radeon RX 6000 wird es erst später geben.

woodsdog
2020-11-20, 19:21:00
spiele hier gerade mit der 6800 non-XT etwas rum.

Soweit echt eine nette Karte.
Haptisch 1.A. Sehr wertig, viel Metall. Dagegen stinkt mein 3090 Plaste-Bomber aber mal richtig ab.
Kühlung ist sehr gut. Mit 100% Kombustor Last kommt nur ein gleichmäßiges sanftes Säuseln unter dem Tisch her.
Offensichtlich viel UV Potenzial. Out of Box 215W GPU Load bei 1025mv oder so. Auf 925mv first-try-UV 60W weniger bei praktisch dem selben Takt - nice.

Würde ich nicht im GSync-Universum mit meinen TFTs/TV stecken - das wäre definitiv meine Karte (vermutlich dann aber die XT).

Kurzer RT test mit der DXR Demo: 1440p Maximized Window.
177 FPS 6800
240 FPS 3090

Achso:
mit 1x 1440p@144Hz säuft sie 35+W im Idle weil der Speicher auf 2GHz hängt. Uncool und nicht nachvollziehbar. Mit 120Hz sind es wieder 5W.

DennisO2
2020-11-20, 19:44:58
Achso:
mit 1x 1440p@144Hz säuft sie 35+W im Idle weil der Speicher auf 2GHz hängt. Uncool und nicht nachvollziehbar. Mit 120Hz sind es wieder 5W.
:ubeer:

Schade nur für die Karte - bleibt also spannend für mich. 75Hz würden mir ja reichen ;) .

TwoBeers
2020-11-20, 20:00:04
PowerColor Radeon RX 6800 XT Red Devil tested
https://videocardz.com/newz/powercolor-radeon-rx-6800-xt-red-devil-tested

Schick sieht so auf alle Fälle aus, was ein Monster.

Aber viel schneller als die Referenz werden die Customs also auch nicht. Also ootb vielleicht, aber die Taktraten der Red Devil kann man auch bei der Referenz per Wattman einstellen.
Nur kühler werden sie sicher sein und vielleicht etwas mehr OC Potential, aber da man ja die Voltage nicht höher setzen kann, ist das auch begrenzt.

Bin mal gespannt was Powercolor bzw. der Handel dann dafür haben will. ;)

Birdman
2020-11-20, 20:48:31
mit 1x 1440p@144Hz säuft sie 35+W im Idle weil der Speicher auf 2GHz hängt. Uncool und nicht nachvollziehbar. Mit 120Hz sind es wieder 5W.
Hat AMD keine Option um im Desktop 120Hz einzustellen und in Game geht es automatisch auf 144 bzw. max Monitor Frequenz?

aufkrawall
2020-11-20, 20:54:06
Hat AMD keine Option um im Desktop 120Hz einzustellen und in Game geht es automatisch auf 144 bzw. max Monitor Frequenz?
Nein, und es geht auch mit Nvidia spätestens mit Vulkan bescheiden bis gar nicht.

Langlay
2020-11-20, 20:57:21
Im AMD Shop gibts gerade 6800.

Hab ne 6800 für meine Frau geschossen.

M4xw0lf
2020-11-20, 21:02:19
Im AMD Shop gibts gerade 6800.

Hab ne 6800 für meine Frau geschossen.
Schon wieder weg wies scheint :D

lowkres
2020-11-20, 21:03:35
Im AMD Shop gibts gerade 6800.

Hab ne 6800 für meine Frau geschossen.

wie konntest du das so schnell sehen??? :frown:

woodsdog
2020-11-20, 21:04:27
Glück und F5 Skillzzzzzzzz
wie bei mir gestern morgen :biggrin:

lowkres
2020-11-20, 21:14:54
Glück und F5 Skillzzzzzzzz
wie bei mir gestern morgen :biggrin:

Hast du gestern morgen in der früh eine bekommen?:smile:

Langlay
2020-11-20, 21:23:29
wie konntest du das so schnell sehen??? :frown:


Glück und F5 Skillzzzzzzzz
wie bei mir gestern morgen :biggrin:


https://abload.de/img/giphyk4j3u.gif

woodsdog
2020-11-20, 21:25:27
Ja, bei Alternate.
Auf dem beigelegten Packschein des Lagers steht 8.40 Uhr, 10 minuten vorher war der "Kauf"

gedi
2020-11-20, 21:27:35
Mal was abseits der Gaming-Performance:

https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_leistungsaufnahme_desktop_youtube_und_spiele

6W Idle-Verbrauch. "Hui" denkt man sich. Dann sieht man den Verbrauch bei Youtube-Videos: 51W :down:. Kriegt AMD das wohl jemals vernünftig hin? Gefühlt wird es bei jeder Generation schlimmer. Habe zwar kein Dual-Monitor, aber da rollen gerade bestimmt auch schon einige mit den Augen.

Kann dich beruhigen - ist bei NV auch nicht besser

lowkres
2020-11-20, 21:32:04
This is the way danke leute anders geht sowieso nichts mehr :D

WedgeAntilles
2020-11-20, 22:40:40
Achso:
mit 1x 1440p@144Hz säuft sie 35+W im Idle weil der Speicher auf 2GHz hängt. Uncool und nicht nachvollziehbar. Mit 120Hz sind es wieder 5W.

Dieses Problem beschreibt die PC Games Hardware auch.
Das soll es wohl schon länger bei AMD GraKas geben.
Ziemlich ärgerlich, falls man (wie ich) zwei Bildschirme verwendet und viel Zeit vor dem PC ohne Spielelast verbringt.

Über Stunden pro Tag 20-30 Watt mehr?
Läppert sich aufs Jahr gerechnet ganz schön.

Falls man nur einen Monitor hat oder der PC eh (fast) nur zum zocken an ist, ist es natürlich irrelevant.

Hoffentlich wird das endlich mal gefixt, sonst ist mir die Karte für den Betrieb schlicht zu teuer.

Der_Korken
2020-11-20, 23:01:54
woodsdog schreibt aber von einem 1440p-Monitor mit 144Hz. Sowas habe ich hier auch, aber da hat meine 5700 von Anfang an brav runtergetaktet. Einzig bei Youtube geht es gelegentlich mal auf 35W ASIC hoch, die 6800er sogar noch ein bisschen mehr laut CB. Ich finde es nervig, dass solche Sachen bei den Herstellern keine Relevanz zu haben scheinen. In Anbetract von Entwicklungen wie Renoir oder dem M1 bei Apple wirkt das einfach nicht altbacken.

aufkrawall
2020-11-20, 23:19:34
Wird wohl weiterhin das Blanking-Problem sein:

Das Problem wird das Timing fürs vertikale Blanking sein, siehe:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12506071&postcount=3793
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602832
Ist definitiv ein komisches Problem von Navi, hoffentlich hat Navi 2x das nicht geerbt. Ich kann es aber, wie den Links zu entnehmen ist, ganz einfach und offenbar ohne Nebenwirkungen beheben.
Da hättet ihr auch von selbst drauf kommen können, so alt ist mein Post nicht.

Dino-Fossil
2020-11-20, 23:23:01
Über Stunden pro Tag 20-30 Watt mehr?
Läppert sich aufs Jahr gerechnet ganz schön.

Falls man nur einen Monitor hat oder der PC eh (fast) nur zum zocken an ist, ist es natürlich irrelevant.

Hoffentlich wird das endlich mal gefixt, sonst ist mir die Karte für den Betrieb schlicht zu teuer.

Bei 5 Stunden täglich mit 25W Mehrverbrauch, hast du nach einem Jahr ungefähr 15€ zusätzliche Kosten - in einem eher teuren Stromtarif (0,32€/kWh).
Schön ist es zwar nicht, wenn die Karten nicht ordentlich heruntertakten, aber arm wird man davon auch nicht.

dargo
2020-11-21, 00:32:34
Hat sich eigentlich bei N21 die Videoaufnahme stark gegenüber N10 verbessert? So langsam müsste es doch möglich sein eine gute Quali auch mal mit 40-50Mbit bei HEVC zu bekommen anstatt 100Mbit nehmen zu müssen.

DennisO2
2020-11-21, 03:54:30
Bei 5 Stunden täglich mit 25W Mehrverbrauch, hast du nach einem Jahr ungefähr 15€ zusätzliche Kosten - in einem eher teuren Stromtarif (0,32€/kWh).
Schön ist es zwar nicht, wenn die Karten nicht ordentlich heruntertakten, aber arm wird man davon auch nicht.

Recht hast du. Und die Spielzeit darf man sogar wieder davon abziehen.
Blöd ist das eigentlich nur im Sommer, weil da jedes Watt mehr eins zu warm ist. Jetzt im Winter hab ich die Heizung im Zockzimmer aus, kühle den Tag auf 19 Grad runter und heize dann mit Battlefield 2 am Abend. Wird Zeit, dass ich auch ne 6800XT kriege - wenns draußen kälter wird, reichen meine 230W nicht mehr :D .

r-or
2020-11-21, 05:39:21
Hat sich eigentlich bei N21 die Videoaufnahme stark gegenüber N10 verbessert? So langsam müsste es doch möglich sein eine gute Quali auch mal mit 40-50Mbit bei HEVC zu bekommen anstatt 100Mbit nehmen zu müssen.
Laut Linus' reviews ist die Quali Müll vgl. mit Nvidias:
https://youtu.be/oUzCn-ITJ_o (9:25)
Obwohl das Video an sich OBS zeigt, nicht Nvidias encoder.

dargo
2020-11-21, 08:22:47
Boah... hättest du nicht gleich die entsprechende Stelle verlinken können? Den Typen hält man doch keine 2 Minuten aus. :freak:
https://youtu.be/oUzCn-ITJ_o?t=561

So wie ich das sehe hat der nur Müll probiert. 720p + 3,5Mbit... :facepalm: Und was soll das gewesen sein? AVC oder HEVC mit ReLive?
Zudem suche ich auch keinen Vergleich zu X264 über die CPU sondern zu gleichen Settings mit Navi10. Also bsw. N10 mit 4k @20Mbit vs. N21 4k @20Mbit, beides jeweils mit HEVC.

Edit:
Kann sich einer erklären warum AMD bei der Referenz N21 den Boosttakt so konservativ gewählt hat, dass die Karten in einigen Spielen nicht ins Powerlimit sondern Taktlimit laufen?
7QwdbyVEJhY

Finde ich schon etwas komisch. Dadurch läuft die RX 6800XT hier bsw. mit "nur" 250-260W trotz sehr schnellen CPU. Da wäre doch sicherlich noch Luft bis knapp 300W für 2,3Ghz bis 2,4Ghz, zumindest bei 1440p.

fondness
2020-11-21, 09:51:27
Kann sich einer erklären warum AMD bei der Referenz N21 den Boosttakt so konservativ gewählt hat, dass die Karten in einigen Spielen nicht ins Powerlimit sondern Taktlimit laufen?


Die einzige Erklärung die mir da einfällt ist vielleicht, um die 6900XT besser dastehen zu lassen, die braucht dann vermutlich die 300W für die 80CUs.

Allerdings sollten die Customs das eh bereinigen. Für die Reviews ist es halt nicht gerade von Vorteil.

Complicated
2020-11-21, 09:58:02
Möglicherweise auch einfach kalkulierte Stückzahlen beim Binning, wegen der Nachfrage. Jetzt sind die besten Samples unterwegs wegen Reviews/OC, und man hat mit der nächsten Charge einfach etwas niedrigere max. Takte/höheren Verbrauch an der Stelle der Taktkurve.

dargo
2020-11-21, 10:00:34
Die einzige Erklärung die mir da einfällt ist vielleicht, um die 6900XT besser dastehen zu lassen, die braucht dann vermutlich die 300W für die 80CUs.

Hmm... glaube ich weniger da die RX 6900XT die gleichen Taktraten fahren soll. Und eigentlich ist die Perf/W bei der RX 6900XT noch etwas besser als bei der RX 6800XT. Ich würde davon ausgehen, dass die RX 6900XT auch ins Taktlimit in diesem Spiel läuft sofern AMD dem TopDog exakt den gleichen max. Boosttakt spendiert.

Edit:
Die Referenz RX 6800 läuft ja noch stärker ins Taktlimit.
https://www.igorslab.de/wp-content/uploads/2020/11/02d-Power-Consumption-WQHD.png

207W @1440p ist ja richtig wenig.

WedgeAntilles
2020-11-21, 10:47:32
Bei 5 Stunden täglich mit 25W Mehrverbrauch, hast du nach einem Jahr ungefähr 15€ zusätzliche Kosten - in einem eher teuren Stromtarif (0,32€/kWh).
Schön ist es zwar nicht, wenn die Karten nicht ordentlich heruntertakten, aber arm wird man davon auch nicht.
Danke fürs rechnen, ist in der Tat nicht dramatisch.

L233
2020-11-21, 11:06:19
So wie ich das sehe hat der nur Müll probiert. 720p + 3,5Mbit... :facepalm: Und was soll das gewesen sein? AVC oder HEVC mit ReLive?
Zudem suche ich auch keinen Vergleich zu X264 über die CPU sondern zu gleichen Settings mit Navi10. Also bsw. N10 mit 4k @20Mbit vs. N21 4k @20Mbit, beides jeweils mit HEVC.


Da wirst Du lange suchen können, bis Du einen Vergleich bzgl. Deiner recht speziellen Anforderung findest.

Im Gaming-Bereich ist Encoding in erster Linie für Streamer und YouTuber interessant und solange Twitch und YouTube kein HEVC schlucken, interessiert sich auch kaum jemand für die HEVC-Encoding-Performance.

Ich würde allerdings nicht damit rechnen, dass sich beim AMD-Encoder viel getan hat. Wenn AMD es für nötig hält, Non-Features wie RAGE MODE und SAM zu hypen, dann hätten sie es sicherlich erwähnt, wenn sie beim Encoder größere Fortschritte gemacht hätten.

TwoBeers
2020-11-21, 11:31:48
Kann sich einer erklären warum AMD bei der Referenz N21 den Boosttakt so konservativ gewählt hat, dass die Karten in einigen Spielen nicht ins Powerlimit sondern Taktlimit laufen?
Finde ich schon etwas komisch. Dadurch läuft die RX 6800XT hier bsw. mit "nur" 250-260W trotz sehr schnellen CPU. Da wäre doch sicherlich noch Luft bis knapp 300W für 2,3Ghz bis 2,4Ghz, zumindest bei 1440p.

Irgendwas ist bei der Justierung der 6800 XT wirklich schief gelaufen. Die hat viel zu wenig Takt im Ausgangszustand.
Ich habe gerade mal zum Spaß SotTR in 2560x1440 gebencht, ich hab da 141fps. Bei ca. 250-260W. Und alles was ich gemacht habe, war die Frequenz auf 2650 hoch und die Spannung auf 1025mV runter zu stellen. Da ist nichts fein getunt.
Außerdem war ich sehr oft im CPU Limit, aber wenn nicht, dann ging es halt bis 2,6GHz hoch.

https://abload.de/thumb/sottr_1440p_141fps_26jmkml.jpg (https://abload.de/image.php?img=sottr_1440p_141fps_26jmkml.jpg)

edit:Laut CB hat die 3090 da 121fps.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-shadow-of-the-tomb-raider-2560-1440
Ich sehe gerade, dass CB ja eine eigene Testsequenz verwendet, dann kann man das natürlich nicht vergleichen.

Aber trotzdem sieht man, dass die XT easy auf 2,6GHz gebracht werden kann.

Erinnert mich ein bisschen an die Vega, wo AMD auch viel zu viel Spannung raufgeballert hat und das Ding deswegen viel zu viel verbraucht hat und immer ins PL gelaufen ist.

Dino-Fossil
2020-11-21, 11:36:20
Irgendwas ist bei der Justierung der 6800 XT wirklich schief gelaufen. Die hat viel zu wenig Takt im Ausgangszustand.

Vielleicht möchte man den AIBs (oder den Endkunden) diesmal mehr Möglichkeiten für OC-Modelle geben, auch ohne die absolute Brechstange anlegen zu müssen?
Oder die Reserven sind im Hinblick auf RT angelegt, dass evtl. deutlich mehr Auslastung erzeugt?

Unterm Strich ist es doch toll, wenn es mal wieder eine Karte gibt, bei der man nicht im Referenzdesign schon im Limit klebt.

Sardaukar.nsn
2020-11-21, 11:48:16
Im HWLuxx Discord schwirren auch schon solche Benchmarks rum.

TimeSpy und Port Royal Grafikscore von 20 bzw. 10k sind schon mächtig Rohleistung.

https://imgur.com/a/qJuZl1J Aber auch mit sehr hohem Takt.

SKYNET
2020-11-21, 12:41:24
Irgendwas ist bei der Justierung der 6800 XT wirklich schief gelaufen. Die hat viel zu wenig Takt im Ausgangszustand.
Ich habe gerade mal zum Spaß SotTR in 2560x1440 gebencht, ich hab da 141fps. Bei ca. 250-260W. Und alles was ich gemacht habe, war die Frequenz auf 2650 hoch und die Spannung auf 1025mV runter zu stellen. Da ist nichts fein getunt.
Außerdem war ich sehr oft im CPU Limit, aber wenn nicht, dann ging es halt bis 2,6GHz hoch.

https://abload.de/thumb/sottr_1440p_141fps_26jmkml.jpg (https://abload.de/image.php?img=sottr_1440p_141fps_26jmkml.jpg)

edit:Laut CB hat die 3090 da 121fps.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-shadow-of-the-tomb-raider-2560-1440
Ich sehe gerade, dass CB ja eine eigene Testsequenz verwendet, dann kann man das natürlich nicht vergleichen.

Aber trotzdem sieht man, dass die XT easy auf 2,6GHz gebracht werden kann.

Erinnert mich ein bisschen an die Vega, wo AMD auch viel zu viel Spannung raufgeballert hat und das Ding deswegen viel zu viel verbraucht hat und immer ins PL gelaufen ist.


die testen doch max out...

dildo4u
2020-11-21, 13:05:22
Irgendwas ist bei der Justierung der 6800 XT wirklich schief gelaufen. Die hat viel zu wenig Takt im Ausgangszustand.
Ich habe gerade mal zum Spaß SotTR in 2560x1440 gebencht, ich hab da 141fps. Bei ca. 250-260W. Und alles was ich gemacht habe, war die Frequenz auf 2650 hoch und die Spannung auf 1025mV runter zu stellen. Da ist nichts fein getunt.
Außerdem war ich sehr oft im CPU Limit, aber wenn nicht, dann ging es halt bis 2,6GHz hoch.

https://abload.de/thumb/sottr_1440p_141fps_26jmkml.jpg (https://abload.de/image.php?img=sottr_1440p_141fps_26jmkml.jpg)

edit:Laut CB hat die 3090 da 121fps.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#diagramm-shadow-of-the-tomb-raider-2560-1440
Ich sehe gerade, dass CB ja eine eigene Testsequenz verwendet, dann kann man das natürlich nicht vergleichen.

Aber trotzdem sieht man, dass die XT easy auf 2,6GHz gebracht werden kann.

Erinnert mich ein bisschen an die Vega, wo AMD auch viel zu viel Spannung raufgeballert hat und das Ding deswegen viel zu viel verbraucht hat und immer ins PL gelaufen ist.
Dein Test ist massiv CPU Limitiert steht doch sogar in der Grafik.

Der Bench in 1080p Extrem sollte den Takt droppen.

https://benchmark.unigine.com/superposition?lang=en

r3ptil3
2020-11-21, 17:35:15
Ich kann mich nicht daran erinnern jemals ein solch hochwertige Grafikkarte in den Händen gehabt zu haben:

https://i.ibb.co/PZM6GGq/1.jpg (https://ibb.co/PZM6GGq) https://i.ibb.co/ZR9TBxX/2.jpg (https://ibb.co/ZR9TBxX) https://i.ibb.co/kmtPyrn/3.jpg (https://ibb.co/kmtPyrn) https://i.ibb.co/wBBP821/4.jpg (https://ibb.co/wBBP821) https://i.ibb.co/xzHVqc3/5.jpg (https://ibb.co/xzHVqc3)

Und ich habe ernsthaft bedenken wegen dem PCIe Slot - die Grafikkarte ist schwer, sehr schwer, dabei ist es noch nicht mal die XT.

Sehr schade, dass die Verpackung von ASUS und nicht auch direkt die originale von AMD ist.

TwoBeers
2020-11-21, 17:45:09
Ich kann mich nicht daran erinnern jemals ein solch hochwertige Grafikkarte in den Händen gehabt zu haben:

Und ich habe ernsthaft bedenken wegen dem PCIe Slot - die Grafikkarte ist schwer, sehr schwer, dabei ist es noch nicht mal die XT.

Sehr schade, dass die Verpackung von ASUS und nicht auch direkt die originale von AMD ist.

Die Karte ist wirklich sehr hochwertig. Ich hatte vorher die Red Devil Vega 64 und die ist sehr ähnlich und gilt ja als eine der besten Vega 64 Karten.

Um den Slot brauchst du dir keine Sorgen machen, der hält das aus.

Du hast direkt bei AMD bestellt, oder? Und dann eine ASUS Verpackung. :frown:
Aber gut, Hardware ist ja eh die gleiche bei allen.

r3ptil3
2020-11-21, 17:51:33
Du hast direkt bei AMD bestellt, oder? Und dann eine ASUS Verpackung. :frown:
Aber gut, Hardware ist ja eh die gleiche bei allen.

Nein, bei Digitec und auch richtig ausgeschrieben als ASUS RX 6800 (Referenz), dachte aber da kommt die originale AMD Verpackung, da es ja ein Referenz-Design ist.

Ich habe die Grafikkarte in den Händen und komme wirklich aus dem staunen nicht raus. Die Customs wirken, ohne zu übertreiben, wie minderwertige Ware dagegen.

Jetzt versteh ich wieso einige Leute oft eine NV FE bzw. AMD Referenzkarte deutlich bevorzugt haben, trotz geringerer Kühlleistung.

soLofox
2020-11-21, 17:58:39
Ich habe die Karte noch nicht ausgepackt, aber schon bei der Präsentation wirkte sie recht chic =)

-/\-CruNcher-/\-
2020-11-21, 18:07:38
https://pics.computerbase.de/9/5/9/7/3-9090623aae686489/1-630.a68f1cef.jpg

Computerbase (https://www.computerbase.de/2020-11/cyberpunk-2077-systemanforderungen-update/)

das die nicht mal eine 6800er in den RT Anforderungen auflisten....

Edit: oder RT geht mit den FPS dermaßen den Bach runter das derzeit DLSS quasi Pflicht ist?

So sieht es also aus nachdem man bei CDPR gute leute verliert

Hat sich eigentlich bei N21 die Videoaufnahme stark gegenüber N10 verbessert? So langsam müsste es doch möglich sein eine gute Quali auch mal mit 40-50Mbit bei HEVC zu bekommen anstatt 100Mbit nehmen zu müssen.

B-frame support macht eine reduktion jetzt möglich allerdings nur mit latenz Einschränkung

Trotzdem bleibt VCN 3.0 immernoch ein trauerspiel ausserhalb der APU was allerdings mit Xilinx demnächst ein ende haben könnte warten wir RDNA3 ab ;)

Allerdings ist da ja jetzt der Infinity cache sehr nahe quasi nur einen Katzensprung entfernt, das könnte jetzt durchaus nochmal interessant werden ;)

Bis jetzt hat auch Computerbase noch kein vergleichbares VCN 3.0 Ergebnis veröffentlicht was AV1 Hardware Decoding und zumindestens Low Complexity Web Streaming betrifft.

Sehr interessant das man bei VPX so schnell war und sich das jetzt scheinbar bei AMD Jahre hinzieht ein Ergebnis ihres Reviews zu präsentieren ;)

https://www.youtube.com/watch?v=lTRbLnWdqwk

TwoBeers
2020-11-21, 19:47:42
Dein Test ist massiv CPU Limitiert steht doch sogar in der Grafik.

Der Bench in 1080p Extrem sollte den Takt droppen.

https://benchmark.unigine.com/superposition?lang=en

Ich hab den SP Benchmark mal durchgeführt. Also der Takt ist so bei 2,4 - 2,5 GHz. 10780 Punkte.
Mir ist dabei aufgefallen, dass die Karte selbst im default mit bis zu 2,35 GHz läuft. Also mehr als die eigentlichen "2250", die z.B. in GPU-Z stehen.

Na, wie das alles richtig funktioniert wird sich sicher mit der Zeit besser herauskristallisieren. :)

pest
2020-11-21, 20:01:26
Meine letzte NV Karte war ne Geforce 4200, aber ohne (flottes) RT+DLSS sind die Karten wenig attraktiv, imo.

r3ptil3
2020-11-21, 20:05:03
RX 6800 Referenz Undervolting:
Aktuell 2425Mhz @ 925Mv

3DMark TimeSpy und Extreme laufen mal fehlerfrei.

Was mir bei AMD aber aufgefallen ist jetzt, im Gegensatz zu den Geforce Karten stürzt der Treiber nicht ab, sondern die Grafikkarte läuft weiter, jedoch mit Grafikfehlern.

M4xw0lf
2020-11-21, 20:34:47
Ich kann mich nicht daran erinnern jemals ein solch hochwertige Grafikkarte in den Händen gehabt zu haben:

https://i.ibb.co/PZM6GGq/1.jpg (https://ibb.co/PZM6GGq) https://i.ibb.co/ZR9TBxX/2.jpg (https://ibb.co/ZR9TBxX) https://i.ibb.co/kmtPyrn/3.jpg (https://ibb.co/kmtPyrn) https://i.ibb.co/wBBP821/4.jpg (https://ibb.co/wBBP821) https://i.ibb.co/xzHVqc3/5.jpg (https://ibb.co/xzHVqc3)



Sexy (y)
RX 6800 Referenz Undervolting:
Aktuell 2425Mhz @ 925Mv

Noch sexier (y)

-/\-CruNcher-/\-
2020-11-21, 20:39:27
Ich hab den SP Benchmark mal durchgeführt. Also der Takt ist so bei 2,4 - 2,5 GHz. 10780 Punkte.
Mir ist dabei aufgefallen, dass die Karte selbst im default mit bis zu 2,35 GHz läuft. Also mehr als die eigentlichen "2250", die z.B. in GPU-Z stehen.

Na, wie das alles richtig funktioniert wird sich sicher mit der Zeit besser herauskristallisieren. :)

Könntest du mal ein RTSS daten overlay hiervon zeigen mit takt ect selbe an dich bardh

https://download.amd.com/demo/amd_theoldking_demo.zip

auch hier mal schauen

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12506929#post12506929

dargo
2020-11-21, 20:45:38
@Fallback

Könntest du paar Screenshots deiner Karte mit dem MPT machen? Also welche Daten da hinterlegt sind.

TwoBeers
2020-11-21, 20:54:15
Könntest du mal ein RTSS daten overlay hiervon zeigen mit takt ect selbe an dich bardh

https://download.amd.com/demo/amd_theoldking_demo.zip

auch hier mal schauen

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12506929#post12506929

Das Ding schwankt ja mächtig zwischen 0-99% Auslastung, ich hab mal versucht was einzufangen.
https://abload.de/thumb/king50jwe.jpg (https://abload.de/image.php?img=king50jwe.jpg)

TwoBeers
2020-11-21, 21:02:37
@Fallback

Könntest du paar Screenshots deiner Karte mit dem MPT machen? Also welche Daten da hinterlegt sind.

Hmm, kann das BIOS nicht abspeichern.

https://abload.de/img/gpu-zf5jxv.png

Was kann man da machen?

dargo
2020-11-21, 21:04:46
Ops... dachte die Tools wären schon so weit. ;(

TwoBeers
2020-11-21, 21:06:29
Dachte ich auch, Igor hatte da ja auch schon Sachen im MPT gezeigt .. vielleicht hat er das BIOS irgendwo anders herbekommen.

dargo
2020-11-21, 21:08:04
Ja... Igor hatte das Bios von einem AIB, nämlich Asrock. Und das kam wieder von Patrick. Meh... da müssen wir leider noch auf die entsprechenden Tools warten.

Edit:
Dennoch danke für deinen GPU-Z Screen. Der Boosttakt von 2250Mhz ist wirklich verdammt konservativ von AMD bei der Referenz RX 6800XT gewählt. Das erinnert mich an die RX 5700 non XT die in Games taktlimitiert war. :tongue:

Irgendwas ist bei der Justierung der 6800 XT wirklich schief gelaufen. Die hat viel zu wenig Takt im Ausgangszustand.
Ich habe gerade mal zum Spaß SotTR in 2560x1440 gebencht, ich hab da 141fps. Bei ca. 250-260W. Und alles was ich gemacht habe, war die Frequenz auf 2650 hoch und die Spannung auf 1025mV runter zu stellen. Da ist nichts fein getunt.
Außerdem war ich sehr oft im CPU Limit, aber wenn nicht, dann ging es halt bis 2,6GHz hoch.

https://abload.de/thumb/sottr_1440p_141fps_26jmkml.jpg (https://abload.de/image.php?img=sottr_1440p_141fps_26jmkml.jpg)

Sind das max. Settings in SotTR mit dem SMAAT2x? 141fps wären +96% gegenüber meiner optimierten RX 5700XT. Nett... :tongue: