Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread
Seiten :
1
2
[
3]
4
5
6
7
8
TwoBeers
2020-11-21, 21:22:28
Sind das max. Settings in SotTR mit dem SMAAT2x? 141fps wären +96% gegenüber meiner optimierten RX 5700XT. Nett... :tongue:
Jo, max settings:
https://abload.de/img/sottr_settings6jjz0.png
[MK2]Mythos
2020-11-21, 21:26:40
An die RX6800XT Besitzer: Wie hoch war bei euch die default vcore? Meine ist tatsächlich auf Anschlag bei 1150mv. Hab einfach mal brutal auf 1000mV reduziert und jetzt 3 Stunden gezockt, ohne Probleme. Ich frag mich jetzt also, ob diese default Vcore normal ist, oder ob meine wegen Pech in der GPU Lotterie so eingestellt wurde.
nairune
2020-11-21, 21:29:03
Es gibt aber schon noch die Kurve im Wattman zum Editieren? Also Spannung zu Frequenz?
Ich dem Video der Red Devil hat der Typ ja nur irgendwelche "Minimum" und "Maximum"-Werte eingestellt.
Frage mich das vor allem, da der Takt ja über das Maximum drüber geht... was steht dann in der Kurve? Wie viel Spannung liegt an?
Oh Mann ich brauch ne Karte :P
Zergra
2020-11-21, 21:29:22
Ist der Takt den dadurch gefallen?
dargo
2020-11-21, 21:32:59
Jo, max settings:
https://abload.de/img/sottr_settings6jjz0.png
Das sind ja keine max. Settings. Da fehlt noch MB, Bloom und ultra Details. ;) Mit den gleichen Settings komme ich auf 80fps. Mit allen @max. 72fps. Ergo ist deine Karte 76% schneller in 1440p. Natürlich könnte bei dir die CPU etwas stärker limitieren als bei meiner Karte.
Mythos;12508519']An die RX6800XT Besitzer: Wie hoch war bei euch die default vcore? Meine ist tatsächlich auf Anschlag bei 1150mv. Hab einfach mal brutal auf 1000mV reduziert und jetzt 3 Stunden gezockt, ohne Probleme. Ich frag mich jetzt also, ob diese default Vcore normal ist, oder ob meine wegen Pech in der GPU Lotterie so eingestellt wurde.
Bist du sicher, dass diese 1150mV überhaupt anliegen? Können das der AB oder HWiNFO64 schon auslesen? Was ist mit dem eigenen Overlay von AMD?
Es gibt aber schon noch die Kurve im Wattman zum Editieren? Also Spannung zu Frequenz?
Ich dem Video der Red Devil hat der Typ ja nur irgendwelche "Minimum" und "Maximum"-Werte eingestellt.
Frage mich das vor allem, da der Takt ja über das Maximum drüber geht... was steht dann in der Kurve? Wie viel Spannung liegt an?
Oh Mann ich brauch ne Karte :P
Geht mir genau so. ;D Die wichtigen Infos bekommt man nur wenn man selbst die Karte hat. :D
[MK2]Mythos
2020-11-21, 21:38:17
Das sind ja keine max. Settings. Da fehlt noch MB, Bloom und ultra Details. ;) Mit den gleichen Settings komme ich auf 80fps. Mit allen @max. 72fps. Ergo ist deine Karte 76% schneller in 1440p. Natürlich könnte bei dir die CPU etwas stärker limitieren als bei meiner Karte.
Bist du sicher, dass diese 1150mV überhaupt anliegen? Können das der AB oder HWiNFO64 schon auslesen? Was ist mit dem eigenen Overlay von AMD?
Ja bin ich, weil der Treiber das auf dem zweiten Monitor parallel anzeigt.
Unter Time Spy Extreme boostet die Karte bei mir übrigens zwischen 2530 und 2580Mhz. :freak:
dargo
2020-11-21, 21:45:35
Hmm... Igor lag immer unter 1000mV. :uponder: Nach ca. 5 Minuten hatte sich die Karte offenbar genug aufgeheizt und der Takt stabilisiert wodurch dann eine recht konstante Spannung von ca. 965mV in 4k anlag.
https://www.igorslab.de/wp-content/uploads/2020/11/07-Voltages.png
Ich glaube die Tools inkl. dem eigenen Wert von AMD (sollte es da was geben) zeigen noch Mist an.
Als besonderen Service habe ich auch die jeweiligen Einzelspannungen VDDCR_GFX, VDDCR_SOC und VDDCI_MEM erfasst, da diese Werte doch deutlich von dem abweichen, was z.B. GPU-Z als Sensorwert ausgibt. Vorgaben und reale Werte sind in der Realität immer 2 Paar Schuhe. Auch wenn man den Wattman auf 1.15 Volt belässt oder sogar auf 1.25 Volt tweakt, die VDDC_GFX ist eh auf 1.15 Volt begrenzt und wird als Vorgabewert nie auch nur annährend erreicht, egal, was man einstellt.
[MK2]Mythos
2020-11-21, 21:51:57
Also laut Treiber liegen meisten 1100mV an, da boostet die Karte dann mit rund 2580Mhz. Sie spiked dann kurz auf 1150mV. Auch wenn ich 1000mV eingestellt habe. Sehr kurios. Die Temperaturen sind aber wirklich brutal. Die GPU klettert ziemlich schnell auf über 75°C.
Ich bin schon mega gespannt auf den Wasserkühler. Wobei ich noch versuche ne 6900 XT zu ergattern, bevor ich die 6800 XT auseinanderbaue...
dargo
2020-11-21, 21:55:15
Mythos;12508539']Also laut Treiber liegen meisten 1100mV an, da boostet die Karte dann mit rund 2580Mhz. Sie spiked dann kurz auf 1150mV.
Mit Default-Settings? Da ist doch irgendwas kaputt. Resete mal den Wattman und teste bitte nochmal. Wäre nicht da erste Mal, dass der Wattman bei einer neuen GPU rumspinnt.
Edit:
Igor kam da unter 2,2Ghz bei Witcher 3 in 4k.
https://www.igorslab.de/wp-content/uploads/2020/11/03-Clock-Rate.png
Gut... Witcher 3 und 4k könnte jetzt worst case sein.
[MK2]Mythos
2020-11-21, 21:58:39
Nein, ich hab' 1000mV // Max Frequenz 2700Mhz eingestellt. Beides scheint die Karte allerdings einigermaßen zu ignorieren.
Glückwunsch an alle, die eine 6800 oder 6800XT ergattert haben. Bin schon ein bisschen neidisch auf euch.
dargo
2020-11-21, 22:01:26
Mythos;12508550']Nein, ich hab' 1000mV // Max Frequenz 2700Mhz eingestellt. Beides scheint die Karte allerdings einigermaßen zu ignorieren.
Schreibt bitte solche Infos immer dazu. Wenn die fehlen denke ich mir... wtf? Was machen eure Karten da? :tongue:
[MK2]Mythos
2020-11-21, 22:03:52
Schreibt bitte solche Infos immer dazu. Wenn die fehlen denke ich mir... wtf? Was machen eure Karten da? :tongue:
Zumindest die UV erwähnte ich ja bereits. Aber mein Eindruck ist aktuell dass die Karte macht was sie will, egal was ich einstelle.
-/\-CruNcher-/\-
2020-11-21, 22:07:43
@Fallback
Danke kriegst das ganze auch in UHD hin ?
https://abload.de/img/theoldkingtressfx41shojkry.jpg
TwoBeers
2020-11-21, 22:08:01
Das sind ja keine max. Settings. Da fehlt noch MB, Bloom und ultra Details. ;) Mit den gleichen Settings komme ich auf 80fps. Mit allen @max. 72fps. Ergo ist deine Karte 76% schneller in 1440p. Natürlich könnte bei dir die CPU etwas stärker limitieren als bei meiner Karte.
Woops, jetzt hab ich den Benchmark noch mit "Ultra Details" und Bloom und Motion Blur gemacht. Ich würde fast vermuten, dass ich auch vorher "Ultra Details" hatte, aber nicht ganz sicher. Bloom und Motion Blur mach ich aber immer überall aus. ;)
Wie dem auch sei, 137fps. :)
TwoBeers
2020-11-21, 22:11:23
@Fallback
Danke kriegst das ganze auch in UHD hin ?
https://abload.de/img/theoldkingtressfx41shojkry.jpg
Ich hab nur UWQHD und vielfache davon. ;)
dargo
2020-11-21, 22:14:34
Woops, jetzt hab ich den Benchmark noch mit "Ultra Details" und Bloom und Motion Blur gemacht. Ich würde fast vermuten, dass ich auch vorher "Ultra Details" hatte, aber nicht ganz sicher. Bloom und Motion Blur mach ich aber immer überall aus. ;)
Wie dem auch sei, 137fps. :)
Danke trotzdem, die +90% hören sich dann besser an. :D Ich nutze Ingame auch keine max. Settings, wollte nur eine exakte Vergleichbarkeit haben. :)
btw.
Könntest du das gleiche nochmal mit 250W testen? Im Wattman müsste man entsprechend das Powerlimit senken. Oder kannst du die Prozente nicht richtig einordnen?
TwoBeers
2020-11-21, 22:32:53
Könntest du das gleiche nochmal mit 250W testen? Im Wattman müsste man entsprechend das Powerlimit senken. Oder kannst du die Prozente nicht richtig einordnen?
Also ich hab jetzt immer alles mit 0% PL getestet, was ja +/- 250W ergeben sollte.
Hab nochmal einen Run mit den Ultra Settings und 2560x1440p bei SotTR gemacht und hab mal HWInfo laufen lassen:
https://abload.de/img/sottr_1440p_0pl8gk9k.png
Das spiked manchmal bis fast 300W. Clock ist wie gesagt meistens um die 2,5GHz.
-/\-CruNcher-/\-
2020-11-21, 22:38:27
@Fallback
könntest du mal schauen um wieviel Prozent die Performance einbricht wenn du mit AMD Relive die Demo aufnimmst ?
Wie hoch steigt sie in ms von den 16ms an laut RTSS ?
dargo
2020-11-21, 22:44:04
Also ich hab jetzt immer alles mit 0% PL getestet, was ja +/- 250W ergeben sollte.
Hab nochmal einen Run mit den Ultra Settings und 2560x1440p bei SotTR gemacht und hab mal HWInfo laufen lassen:
https://abload.de/img/sottr_1440p_0pl8gk9k.png
Das spiked manchmal bis fast 300W. Clock ist wie gesagt meistens um die 2,5GHz.
Ich wollte eigentlich nur wissen wieviele fps verlierst du gegenüber den 137fps wenn du der Karte max. 250W erlaubst zu saufen. :)
aufkrawall
2020-11-21, 22:44:44
Schon mit RDNA1 hat Video-Capture via ReLive, anders als bei Polaris, fast keinen zusätzlichen Strom mehr verschlungen. Wobei es schon bei Polaris quasi gratis war, wenn das Powertune-Limit nicht drosselte.
-/\-CruNcher-/\-
2020-11-21, 22:59:44
Ja aber mich interessiert nicht primär der Stromverbrauch sondern der Latency Overhead in Betrachtung seiner gesammt Systemkonfiguration
Stromverbrauch wäre Sekundär interessant aber zu ungenau mit der machbaren messgenauigkeit, da brauch es Igors Setup.
TwoBeers
2020-11-21, 23:03:05
Ich wollte eigentlich nur wissen wieviele fps verlierst du gegenüber den 137fps wenn du der Karte max. 250W erlaubst zu saufen. :)
Gute Frage, es sieht so aus, als ob das PL kein hartes Limit wäre, sondern nur der Wert wieviel die Karte in einer bestimmten Zeit verbrauchen darf.
Mit +15% PL sieht es übrigens so aus:
https://abload.de/img/sottr_1440p_15plqajdg.png
Die spikes gehen bis 312W und halten länger, außerdem hält der GPU Clock die 2,6GHz dann viel öfter.
TwoBeers
2020-11-21, 23:07:02
@Fallback
könntest du mal schauen um wieviel Prozent die Performance einbricht wenn du mit AMD Relive die Demo aufnimmst ?
Wie hoch steigt sie in ms von den 16ms an laut RTSS ?
Das übersteigt mein Können und mein Interesse etwas, sorry. ;)
dargo
2020-11-21, 23:07:51
Ich weiß jetzt nicht ob du dazu Lust hast, du müsstest aber in die andere Richtung. ;) Also zb. PT -20% und dann schauen wo die Karte maximal rauskommt. Wenn sie immer noch weit über 250W in den Spitzen geht halt weiter runter mit dem PT.
Edit:
Versuche bitte PT -15%. Ausgehend von den 296W müsstest du dann bei ca. 250W rauskommen.
btw.
Bei deinen +15% PT limitiert dich der Takt wieder. Wenn PT 0 = 296W dann ergeben 312W nur +5% PT, ergo Taktlimit.
TwoBeers
2020-11-21, 23:36:14
Edit:
Versuche bitte PT -15%. Ausgehend von den 296W müsstest du dann bei ca. 250W rauskommen.
btw.
Bei deinen +15% PT limitiert dich der Takt wieder. Wenn PT 0 = 296W dann ergeben 312W nur +5% PT, ergo Taktlimit.
Maximal gehen leider nur -6%, das sieht dann so aus:
https://abload.de/img/sottr_1440p_-6plnokys.png
Spike bei 280W, der Rest auch geringer, Takt bei ca. 2,45GHz.
Fun fact am Rande, es sind immer 137fps, egal ob -6, 0 oder 15%. Liegt wahrscheinlich am krassen CPU Limit, oder?
Auf default sieht es übrigens so aus:
https://abload.de/img/sottr_1440p_defaultm4j7k.png
Auch da gibt es spikes, mit bis zu 295W.
Außerdem 132fps am Ende.
Edit: Aber dann sollten es eigentlich auch 137fps sein .. außer die 1,150V führen dazu, dass er stärker runtertakten muss und meine 1,025V geben der Karte immer freien Lauf, egal welches PL.
nairune
2020-11-21, 23:38:43
btw.
Bei deinen +15% PT limitiert dich der Takt wieder. Wenn PT 0 = 296W dann ergeben 312W nur +5% PT, ergo Taktlimit.
296W?
Ich dachte die Referenz hat um die 250W PT? Schließlich zieht die ganze Karte ja nur um die 300 im Schnitt.
Die 296 in hwinfo gezeigten waren doch nur irgendein Ausreißer nach oben.
Maximal gehen leider nur -6%
Wie bitte? Man kann das Powerlimit nur um 6% reduzieren, habe ich das richtig verstanden? Sprich um 15W auf 235W?
dargo
2020-11-21, 23:40:07
WTF... nur -6% PT erlaubt der Wattman? :ulol: Ok... es ist noch viel zu früh um mit der Karte rumzuspielen. Also außerhalb der Games. :wink:
296W?
Ich dachte die Referenz hat um die 250W PT? Schließlich zieht die ganze Karte ja nur um die 300 im Schnitt.
Die 296 in hwinfo gezeigten waren doch nur irgendein Ausreißer nach oben.
Öhm... nach den Infos von Fallback ging ich davon aus, dass bei N21 der AB nicht mehr die GPU-Power wie bei N10 sondern den Verbrauch der ganzen Karte anzeigt. :confused:
nairune
2020-11-21, 23:41:07
Kannst du mal einen Screenshot vom Wattman machen? Ungefähr dieser Part? Und natürlich dort auf manuell/erweitert/was so geht.
https://i.imgur.com/uqSKb9S.jpg
TwoBeers
2020-11-21, 23:45:30
Kannst du mal einen Screenshot vom Wattman machen? Ungefähr dieser Part? Und natürlich dort auf manuell/erweitert/was so geht.
https://abload.de/img/wattmanh1kfv.png
dargo
2020-11-21, 23:47:19
Ja... meh, da ist ja gar kein Curve-Editor mehr drin. :(
nairune
2020-11-21, 23:47:44
Öhm... nach den Infos von Fallback ging ich davon aus, dass bei N21 der AB nicht mehr die GPU-Power wie bei N10 sondern den Verbrauch der ganzen Karte anzeigt. :confused:
Halt´ ich jetzt für eher unwahrscheinlich. Aus hwinfo leider nicht so wirklich ablesbar, da die GPU nicht voll gefordert wird. In Igors BIOS standen aber auch 255W Powerlimit.
@Fallback: Danke. Ist ja mal enttäuschend. Hoffe das wird noch geändert, so ist das ein riesiger Rückschritt.
edit: Vielleicht bekommt man die Limits ja wieder mit dem MPT erweitert. Igor meinte zwar, da wird Takt und/oder Powerlimit nicht mehr alles zugelassen, aber nach unten vielleicht ja schon?
TwoBeers
2020-11-21, 23:51:17
Doch, muss jetzt TGP sein, ich hatte mit der Vega 64 bei angezeigter 220W ASIC Power ca. 50W mehr, als mit der 6800 XT.
Die angezeigten Watt bei HWInfo sind immer die Spikes, die ich extra markiert habe. Wie man sieht ist der durchschnittliche Verbrauch wesentlich geringer, aber es spiked halt .. Telemetrie und so.
Edit:
Es gibt nur einen Curve Editor für die Lüftersteuerung.
nairune
2020-11-21, 23:55:56
"TGP" ist dasselbe wie Powerlimit und exkludiert alles Mögliche.
Man könnte halt sehr gut sehen wo das Limit liegt, wenn du die GPU mal auf Volllast (edit: und nicht im Taktlimit!) laufen lässt... zum Beispiel TimeSpy, wo du garantiert nicht im CPU-Limit (wie in vielen Spielen) hängst. Und dabei dann den hwinfo Graphen mitlaufen lassen.
dargo
2020-11-21, 23:56:42
Also wenn ich mir diesen Artikel hier von Igor so reinziehe erinnert mich das Undervolting bei Navi21 sehr an Vega10. :uponder:
https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/
Man sucht sich beim UV eine niedrigere Spannung und lotet dann den max. Takt dabei aus. Nur, dass hier ein P-State reicht und nicht mehrere wie bei Vega10.
@Fallback
Wenn du alles Default lässt und dann die Default-Spannung reduzierst (sagen wir mal um 50mV) steigt der real anliegende GPU-Takt? Für den Vergleich müsstest du dir am besten eine Spielszene mit gleicher GPU-Last aussuchen und eine kleine Aufwärmphase einplanen.
Edit:
Stehe ich gerade auf dem Schlauch oder hat Igor gar nicht gemerkt, dass ihn der Wattman offenbar verarscht?
https://www.igorslab.de/wp-content/uploads/2020/11/Borderlands-3-FPS-2560-x-1440-DX12-Badass-Quality-1.png
https://www.igorslab.de/wp-content/uploads/2020/11/Borderlands-3-AvWatt_DE-2560-x-1440-DX12-Badass-Quality-1.png
Sowohl das Default-Setting als auch der UV-Versuch mit 930mV und 2370Mhz führen zum gleichen Verbrauch und entsprechend dann auch gleicher Performance. Also praktisch wiederum kein UV da nichts gewonnen. :| Also im Prinzip ergibt nur sein UV Setting mit 900mV und 2174Mhz Sinn... 49W weniger Verbrauch bei nur -1,5% Performance. Wenn man das weiter spinnt ergeben ca. 2250Mhz dann bei womöglich 910mV (sollten die 900mV dafür nicht reichen) exakt die gleiche Performance wie die Default RX 6800 bei dann minus ca. 40W. Im Prinzip ein ähnliches Verhalten wie bei Navi10.
Edit 2:
Irgendwas ist da im Wattman noch im Eimer imho.
2370Mhz gegenüber 2174Mhz sind 9% mehr Takt. Die Karte performt aber nur 1,8% schneller. Das widerspricht jeglichen Taktskalierung von Navi21. 2480Mhz vs. 2174Mhz ergeben 14% mehr Takt. Und hier wird die Karte plötzlich 10% schneller. Und jetzt wird es richtig kurios... 2480Mhz vs. 2370Mhz sind knapp 5% mehr Takt. Die Karte wird aber 8% schneller. Das widerspricht jeglichen Physik. :D
SKYNET
2020-11-22, 00:22:22
Woops, jetzt hab ich den Benchmark noch mit "Ultra Details" und Bloom und Motion Blur gemacht. Ich würde fast vermuten, dass ich auch vorher "Ultra Details" hatte, aber nicht ganz sicher. Bloom und Motion Blur mach ich aber immer überall aus. ;)
Wie dem auch sei, 137fps. :)
SMAA4x hat zudem keinen unschärfe effekt wie die anderen, kostet aber halt derbe performance...
TwoBeers
2020-11-22, 00:28:59
@Fallback
Wenn du alles Default lässt und dann die Default-Spannung reduzierst (sagen wir mal um 50mV) steigt der real anliegende GPU-Takt? Für den Vergleich müsstest du dir am besten eine Spielszene mit gleicher GPU-Last aussuchen und eine kleine Aufwärmphase einplanen.
Ich habe mal wieder 3440x1440 gewählt, für maximale GPU Auslastung. Die Szene im Dorf, Richtung Berge schauend.
Default, also das heißt im Wattman auf "Manual" und dann "Reset", damit ich sehe was er da macht. Weil "Automatic" --> "Default", keine Ahnung was das ist.
Default:
https://abload.de/img/sottr_3440x1440_ultramgjjo.png
-50mV:
https://abload.de/img/sottr_3440x1440_ultrac6jrw.png
Man sieht ganz klar, dass er im default bei ca. 2,35GHz landet und mit -50mV eher die 2,4GHz hält.
Aber die ASIC Power ist echt überall, obwohl ich nur still stand, das sind wohl u.a. auch die Leute, die da rum laufen.
Der_Korken
2020-11-22, 00:29:35
Warum hat AMD da irgendwelche Fake-Settings im Wattman implementiert, nachdem bei N10 da alles so gut funktioniert hat? PPT nur um 6% senkbar. Taktraten und Spannungen, die nicht direkt übernommen werden, sondern nur irgendwie indirekt um zwei Ecken das Verhalten der GPU beeinflussen. Dass AMD hohe Powerlimits sperrt, um die großen Modelle ein wenig zu pushen, kann ich verstehen, aber den Rest? Ich hoffe, dass wird in den nächsten Versionen wieder auf N10-Niveau angehoben.
nairune
2020-11-22, 00:35:21
Ja, sehr ernüchternd.
Das ergibt alles so wenig Sinn, nachdem bei N10 Ordnung und Logik eingekehrt war.
In den Screenshots oben zieht die Karte nur 120W (oder? Wenn ich das so überschlage, ganz oben in den Kästchen wären ja 350), dennoch zieht der Takt an bei gesenkter Spannung?
dargo
2020-11-22, 00:36:28
@Fallback
Danke! Also steigt der GPU-Takt beim UV wie bei Navi10. Eine Sache verstehe ich aber immer noch nicht... wieso geht die Karte @Default auf ca. 2,35Ghz hoch wenn der max. Boosttakt mit 2,25Ghz hinterlegt ist. Etwas verwirrt bin. :tongue:
TwoBeers
2020-11-22, 00:43:39
@Fallback
Danke! Also steigt der GPU-Takt beim UV wie bei Navi10.
Genau, man kann sich also wie du auch schon gesagt hast, wieder über UV rantasten.
Deswegen hatte ich als Schnellschuss einfach mal die 2650 und 1025 genommen, der sweet spot liegt sicher bei weniger MHz.
Dann gibt es wahrscheinlich auch nicht so viele spikes.
fondness
2020-11-22, 10:42:15
Spannend auf jeden Fall, dass die Karten die ohnehin schon im Vergleich zu Nvidia niedrige TDP meist nicht mal erreichen, in der Praxis also noch sparsamer sind.
Andererseits sieht es ein bisschen so aus, als hätte AMD noch ein paar Wochen investieren sollen um den TDP-Spielraum auch auszunutzen und so in den Benchs besser dazustehen.
Hier noch ein paar Bilder zu den ASUS und Gigabyte Karten:
https://videocardz.com/newz/asus-radeon-rx-6800-xt-rog-strix-lc-and-gigabyte-gaming-oc-pictured-some-more
dildo4u
2020-11-22, 10:49:40
Kommt wie immer drauf an welchen Mix an Games man testet bei CB kommt die 6800XT fast auf den Punkt an Vega 64 dran was Verbrauch angeht
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt
OgrEGT
2020-11-22, 10:52:58
Kommt wie immer drauf an welchen Mix an Games man testet bei CB kommt die 6800XT fast auf den Punkt an Vega 64 dran was Verbrauch angeht
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt
Ja das stimmt aber es gehört auch perf/W dazu, also wie wird die Leistungsaufnahme in Leistung umgesetzt:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt
Bei fast identischer Leistungsaufnahme:
perf/W (4K):
Vega 64: 100%
RX6800XT: 243%
dargo
2020-11-22, 11:01:31
Kommt wie immer drauf an welchen Mix an Games man testet bei CB kommt die 6800XT fast auf den Punkt an Vega 64 dran was Verbrauch angeht
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt
Es geht doch nicht um Spiele die diese Karte bis zum Powerlimit @4k auslasten sondern eben um Spiele die es nicht schaffen. Und davon gibt es einige, erst recht in 1440p. Und noch öfter bei den Spielern. Diese haben eben nicht immer die schnellste CPU im Rechner wie die Reviewer. Im Prinzip ist es ganz simpel... AMD hätte einfach nur einen höheren Boostclock wählen können. Bei den Games die eh schon im Setting XY ins Powerlimit rennen wäre alles so geblieben wie es ist. Bei den Games die ins Taktlimit rennen hätte es minimal mehr Performance gegeben.
Hm - in neueren Titeln steht die 6800XT doch dort wo ich sie eigentlich eingeordnet habe: Zwischen 3080 und 3090. Um mir selbst mal ein Bild zu machen ... - mal schauen, ob am 25. etwas verfügbar ist.
ChaosTM
2020-11-22, 12:29:53
https://babeltechreviews.com/vr-wars-the-rx-6800-xt-vs-the-rtx-3080-15-vr-games-performance-benchmarked/
VR benchmarks
SKYNET
2020-11-22, 12:31:57
Hm - in neueren Titeln steht die 6800XT doch dort wo ich sie eigentlich eingeordnet habe: Zwischen 3080 und 3090. Um mir selbst mal ein Bild zu machen ... - mal schauen, ob am 25. etwas verfügbar ist.
wird wie bei vega sein: um so neuer die titel um so mehr ist vega pascal davongerannt... inzwischen offenbaren sich aber schwächen im system bei vega, die ganz neuen titel mögen die karten so garnicht mehr.
Redneck
2020-11-22, 12:34:21
*deleted*
wird wie bei vega sein: um so neuer die titel um so mehr ist vega pascal davongerannt... inzwischen offenbaren sich aber schwächen im system bei vega, die ganz neuen titel mögen die karten so garnicht mehr.
Der Ansatz von Navi ist aber auch ein ganz anderer. Von daher kann es gut sein, dass je neuer das Game, desto schneller rennt Navi im Vergleich zur Konkurrenz. Zudem haben die Konsolen und die PC-Sparte nun den gleichen Unterbau. War bei Vega ja nicht der Fall
DennisO2
2020-11-22, 12:42:45
Edit 2:
Irgendwas ist da im Wattman noch im Eimer imho.
2370Mhz gegenüber 2174Mhz sind 9% mehr Takt. Die Karte performt aber nur 1,8% schneller. Das widerspricht jeglichen Taktskalierung von Navi21. 2480Mhz vs. 2174Mhz ergeben 14% mehr Takt. Und hier wird die Karte plötzlich 10% schneller. Und jetzt wird es richtig kurios... 2480Mhz vs. 2370Mhz sind knapp 5% mehr Takt. Die Karte wird aber 8% schneller. Das widerspricht jeglichen Physik. :D
Wie sieht es denn mit der Genauigkeit der Werte von Igor aus? Welche Abweichung hat er pro Messdurchgang und wie oft wurden die Werte ermittelt? Die paar Prozenz sind ja nicht viel und wenn jeder Durchgang 5%-Punkte Messungenauigkeit hat, dann sind die Werte schon logischer erklärbar.
Mr. Lolman
2020-11-22, 12:45:08
Mit einer ordentlichen Verfügbarkeit und um 599€ wär die 6800XT ja nach Nutzungsszenario doch eine Kaufempfehlung. Aber so? Tw. deutlich langsamer als die 3080, kein DLSS und mit der VR Performance fang ich erstmal besser gar nicht an... :freak:
Mit einer ordentlichen Verfügbarkeit und um 599€ wär die 6800XT ja nach Nutzungsszenario doch eine Kaufempfehlung. Aber so? Tw. deutlich langsamer als die 3080, kein DLSS und mit der VR Performance fang ich erstmal besser gar nicht an... :freak:
Warum? VR sieht endlich besser aus, DLSS-Adäquat kommt, in neueren Games schneller als 3080. Zudem heftig OC-Headroom, was man von keiner Ampere behaupten kann und angemessen viel Vram. An der RT-Performance müssen sie noch arbeiten, aber um RT nativ darzustellen, bedarf es so oder so noch min. eine weitere Generation
Savay
2020-11-22, 12:59:00
Mit ordentlicher Verfügbarkeit um die 699€ wäre evtl. sogar eine 3080 doch eine Empfehlung wert. Aber so? Und von dem Speicher fange ich erst gar nicht an.
SKYNET
2020-11-22, 13:40:49
Mit einer ordentlichen Verfügbarkeit und um 599€ wär die 6800XT ja nach Nutzungsszenario doch eine Kaufempfehlung. Aber so? Tw. deutlich langsamer als die 3080, kein DLSS und mit der VR Performance fang ich erstmal besser gar nicht an... :freak:
und in aktuellen titeln die nicht älter als nen halbes jahr sind, verprügelt sie zT sogar ne 3090... hast wohl gekonnt übersehen, gell? :freak:
kann man den troll mal aus dem 3DC-team kicken, wer sone frasen rauslässt sollte wohl nicht offizielles aushängeschild hier sein.
Lawmachine79
2020-11-22, 13:52:20
Mit einer ordentlichen Verfügbarkeit und um 599€ wär die 6800XT ja nach Nutzungsszenario doch eine Kaufempfehlung. Aber so? Tw. deutlich langsamer als die 3080, kein DLSS und mit der VR Performance fang ich erstmal besser gar nicht an... :freak:
Was ist denn mit der VR Performance?
MikePayne
2020-11-22, 16:47:39
Mit einer ordentlichen Verfügbarkeit und um 599€ wär die 6800XT ja nach Nutzungsszenario doch eine Kaufempfehlung. Aber so? Tw. deutlich langsamer als die 3080, kein DLSS und mit der VR Performance fang ich erstmal besser gar nicht an... :freak:
So eine falsche Aussage vom 3DC Team will ich nicht verstehen.
Mr. Lolman
2020-11-22, 17:04:27
Was ist denn mit der VR Performance?
Ich meinte Raytracing-Performance. Die VR-Performance hatte ich mir gerade über das verlinkte Review angesehen, fand die aber jetzt auch nicht sooo berauschend.
Konkurrenzfähig sind sie ja, zumindest in gewissen Teilbereichen, und dank des VRAM möglicherweise auch etwas zukunftssicherer. Aber der Underdogstatus, den ATi/AMD ab der 9700 Pro hatte, wo man immer wieder schöne Schnäppchen im Vergleich zu den Abzockangeboten der Konkurrenz, machen konnte - zB 7970 (GHz), 4870, 290X oder aber meinetwegen auch noch mit der Vega56 - ist nun anscheinend endgültig vorbei... ;(
Schnoesel
2020-11-22, 17:28:44
Natürlich sind die Karten konkurrenzfähig und natürlich haben sie bereits auch die Funktion erfüllt, dass man nicht nur Mondpreise verlangen kann (das ist momentan eher der Knappheit geschuldet) oder warum meinst du, dass Nvidia hier mit dem UVP teilweise massiv nach unten musste?
Ampere ist auch nicht das gelbe vom Ei. Hoher bis sehr hoher Verbrauch, geringer VRAM, Verfügbarkeit. Navi ist definitv auf einem Niveau mit Ampere und das sagt einer der sich letzen Freitag ne Ampere bestellt hat (weil diese eben gerade verfügbar war). Die Tage in der AMD aber immer nur das kleine hässliche und billige Kind war ja diese Tage sind vorbei.
Nazar
2020-11-22, 17:32:43
So eine falsche Aussage vom 3DC Team will ich nicht verstehen.
Die Aussage ist nicht falsch... leider. :(
Obwohl die AMD 6800XT teilweise sogar bessere mehr FPS liefert als die 3080, sind die Frame Times derart schlecht/hoch und die "Hick Ups" so extrem, dass selbst dort die 3080 ein flüssigeres Spielgefühl liefert wo die 6800XT deutlich mehr FPS liefert.
Das ist leider auch mein Problem derzeit. Die 6800XT liefert teilweise wirklich extrem schlechte Frame Times. Ob man das über die Treiber kompensieren kann, kann ich derzeit nicht mal vermuten.
Was auffällig ist, ist, dass die 6800 Serie von AMD bei Spielen mit hoher Core Auslastung (z.B. MSFS2020) der GPU in 4K teilweise deutlich die Puste ausgeht.
Es scheint so zu sein, dass der IC dann nicht mehr schnell genug seine Daten loswerden kann, das SI anfängt zu limitieren. :confused:
Gleichmäßig niedrige Frame Times sind einfach alles in VR und da "kackt" die 6800/XT derzeit einfach ab.... ja, hört sich hart an, ist aber so. :frown:
Ex3cut3r
2020-11-22, 17:33:02
Hää? Die 6800XT ist im CB Ranking lächerliche 7% hinter der 3080. Aber nach LOLMAN nicht konkurrenzfähig? Alles klar und ich bin der Weihnachtsmann. Vom VRAM wollen wir besser gar nicht reden, denn da hat Nvidia eh nix zu melden.
Langlay
2020-11-22, 17:33:47
Und zur Raytracingperformance. Die Performance ist auch auf na 3090 bescheiden, ergo egal ob die 6800XT jetzt noch bescheidener ist als die 3080. Wenn es dir auf Performance ankommt ist der RTX off der Weg, zumindest aktuell.
dr.denton
2020-11-22, 17:35:10
[...]Aber der Underdogstatus, den ATi/AMD ab der 9700 Pro hatte, wo man immer wieder schöne Schnäppchen im Vergleich zu den Abzockangeboten der Konkurrenz, machen konnte - zB 7970 (GHz), 4870, 290X oder aber meinetwegen auch noch mit der Vega56 - ist nun anscheinend endgültig vorbei... ;( [/I]
Was ist das denn für eine Erwartungshaltung? AMD wollen mit ihren Chips Geld verdienen, wieso sollten sie irgendwas verschenken? Zumal in der Vergangenheit selbst ein günstigeres und lange Zeit überlegenes Produkt wie RV870 gegen NVs Mindshare kaum ankam.
Mir wäre auch lieber, wir hätten wieder eine Zeit, in der Mittelklassekarten 250€ kosten statt 400, aber das ist auch nicht alleine AMDs Aufgabe. NV hätte ja auch weniger gierig sein können ;)
Ex3cut3r
2020-11-22, 17:46:45
Es sieht eher so aus, dass AMD vlt. nächstes mal die Performance Krone inne hat. Sollte Nvidia wieder solche Probleme wie bei Ampere haben. RDNA1 war quasi der Zen 1 der GPUs. RDNA2 war der Zen 2, und was nach RDNA2 kommt, ist der Zen 3. Mit Zen 3 hat AMD Intel geschlagen. Zwar ist Nvidia nicht so schläfrig wie Intel, müssen sich die kommenden Jahre aber definitiv wärmer anziehen, als das die Letzen Jahre der Fall war! Auf billigere Preise müssen wir uns aber nicht einstellen, die Zeiten sind IMO komplett vorbei. AMD ist einfach mit auf dem Teuro Zug gesprungen! Wie man hier und fast überall sieht, auch zurecht. Die Dinger werden eh gekauft.
Linmoum
2020-11-22, 17:48:14
Die Aussage ist nicht falsch... leider. :(
Obwohl die AMD 6800XT teilweise sogar bessere mehr FPS liefert als die 3080, sind die Frame Times derart schlecht/hoch und die "Hick Ups" so extrem, dass selbst dort die 3080 ein flüssigeres Spielgefühl liefert wo die 6800XT deutlich mehr FPS liefert.
Das ist leider auch mein Problem derzeit. Die 6800XT liefert teilweise wirklich extrem schlechte Frame Times. Ob man das über die Treiber kompensieren kann, kann ich derzeit nicht mal vermuten.Dafür hätte ich ja gerne mal Benchmarks. Igors Frame Time Variance Diagramme zeigen das genaue Gegenteil von dem, was du schreibst. Oder ist das jetzt ausschließlich auf VR bezogen, was du unten noch mal aufgreifst? Das ist etwas konfus geschrieben und wenig im Kontext.
Was auffällig ist, ist, dass die 6800 Serie von AMD bei Spielen mit hoher Core Auslastung (z.B. MSFS2020) der GPU in 4K teilweise deutlich die Puste ausgeht.
Es scheint so zu sein, dass der IC dann nicht mehr schnell genug seine Daten loswerden kann, das SI anfängt zu limitieren. :confused: Das kleine(re) SI limitiert nicht, ein höherer Speichertakt führt kaum zu Performancegewinnen. Der Cache federt das sehr gut ab.
Der Punkt ist, dass Ampere erst ab UHD aufwärts die Muskeln spielen lassen kann, weil in niedrigeren Auflösungen ein Auslastungsproblem besteht. Ein Problem, von dem AMD von früher ein Lied singen kann.
nairune
2020-11-22, 17:55:26
Nazar hat doch schon letztens unbelegten Kram als Fakten hingestellt. Dann wurde ihm das Gegenteil bewiesen und er fängt ein paar Tage später wieder an. An dem Punkt nennt man das wohl "Troll".
Nazar
2020-11-22, 18:00:02
Dafür hätte ich ja gerne mal Benchmarks. Igors Frame Time Variance Diagramme zeigen das genaue Gegenteil von dem, was du schreibst. Oder ist das jetzt ausschließlich auf VR bezogen, was du unten noch mal aufgreifst? Das ist etwas konfus geschrieben und wenig im Kontext.
Das kleine(re) SI limitiert nicht, ein höherer Speichertakt führt kaum zu Performancegewinnen. Der Cache federt das sehr gut ab.
Der Punkt ist, dass Ampere erst ab UHD aufwärts die Muskeln spielen lassen kann, weil in niedrigeren Auflösungen ein Auslastungsproblem besteht. Ein Problem, von dem AMD von früher ein Lied singen kann.
Die Frame Times von Igor sind während VR Spiele erfasst worden. Es ist genau das Gegenteil dessen was man auf den VR Seiten sehen kann... der Link ist eine Seite vorher.
Ich bestreite nicht, dass Ampere da besser wegkommt, aber der Einbruch in 4K, besonders beim MSFS2020, finde ich schon erschreckend. Es sind leider solche Spiele, die mich interessieren und wenn dort meine aktuelle 2080TI deutlich mehr FPS schafft, sit für mich die 6800 Serie leider aus dem Rennen.
Ich warte noch die 6900XT ab und eventuell gibt es dann auch mal einen DCS Test und einen Gegenüberstellung der 6900XT und der 3090 in VR mit Frame Times. Die restlichen Spiele kann ich auch noch locker mit meiner 2080Ti zocken, dafür benötige ich weder eine 3090 noch eine 6900XT. Mir geht es nur um DCS, VR und die Frame Times auf einer G2. :wink:
Hakim
2020-11-22, 18:13:45
Der Punkt ist, dass Ampere erst ab UHD aufwärts die Muskeln spielen lassen kann, weil in niedrigeren Auflösungen ein Auslastungsproblem besteht. Ein Problem, von dem AMD von früher ein Lied singen kann.
Aber war das nicht der Punkt der AMD Karten hat besser reifen lassen? Je aufwendiger die Spiele wurden umso besser waren später FPS gegenüber der Konkurrenz nach einiger Zeit. 4k Ist sowieso derzeit so ein Ding, da fängt so langsam die 6800xt zu verlieren und 3080 sieht besser aus, aber dem gegenüber halt 10GB vs 16GB.
Bezüglich RT, da CP77 ja meint die Anforderungswerte mit RT seien mit DLLS einbezogen gibt mir auch etwas zu denken, solange AMD noch nichts vergleichbares hat.
Dennoch hatte ich wie ein Irrer versucht eine 6800xt zu Release zu ergattern (wie damals bei der 3080). Aber solange die Verfügbarkeit und Preise scheiße sind kann ich immer noch grübeln was ich den nun hole :uponder:
Ex3cut3r
2020-11-22, 18:33:16
Ja, wirklich schwierig mit der Verfügbarkeit, und wenn was da ist, zu überteuerten Preisen, muss jeder selbst wissen, ob er bereit ist 15-30% über UVP auf den Tisch zu legen. Ich wurde ja erst ab Februar gucken, ich hoffe bis dahin hat sich die Sache entspannt, und es gibt auch etwas für Menschen die nicht 24 Std. Shops aktualisieren. und ganz wichtig zu vernünftigen Preisen.
Sardaukar.nsn
2020-11-22, 19:09:02
...
Dennoch hatte ich wie ein Irrer versucht eine 6800xt zu Release zu ergattern (wie damals bei der 3080). Aber solange die Verfügbarkeit und Preise scheiße sind kann ich immer noch grübeln was ich den nun hole :uponder:
Kann ich sehr gut nachvollziehen. Im Prinzip kannst du nur im Nvidia, AMD oder ASUS Shop zum UVP einkaufen. Alles andere ist im Moment Abzocke.
Ich meinte Raytracing-Performance. Die VR-Performance hatte ich mir gerade über das verlinkte Review angesehen, fand die aber jetzt auch nicht sooo berauschend.
Konkurrenzfähig sind sie ja, zumindest in gewissen Teilbereichen, und dank des VRAM möglicherweise auch etwas zukunftssicherer. Aber der Underdogstatus, den ATi/AMD ab der 9700 Pro hatte, wo man immer wieder schöne Schnäppchen im Vergleich zu den Abzockangeboten der Konkurrenz, machen konnte - zB 7970 (GHz), 4870, 290X oder aber meinetwegen auch noch mit der Vega56 - ist nun anscheinend endgültig vorbei... ;(
Tut mir leid, aber dein Versuch zu Relativieren nehme ich dir nicht ab und passt irgendwie auch zu Leos Darstellung in den News, welche auf der HP tagtäglich gepostet werden. Kein Wort zu den Titeln, welche im letzten halben Jahr released wurden (und wie Navi, egal ob N1x oder N2x) da dastehen, null Angaben zwecks OC (bei Ampere nicht vorhanden) und auch keine Angaben, zwecks der reinen Speicherbandbreite. Ich meine, auf letztere Frage wüsste gar ich eine plausible Antwort, obwohl ich (noch) keine N2x verbaut habe/hatte.
@Nazar: wir haben ein ähnliches Nutzungsszenario. Hab mich auch auf die 6800 XT / 6900 XT gefreuet aber offenbar sind die im FS2020 langsamer als ne 2080 TI (beide übertaktet). Hab gerade ne 3090 im Rechner, die legt auch nur 20-30% auf ne gut getaktete 2080TI drauf. Ich frag mich was die bei NV gemacht haben seit Turing...
-/\-CruNcher-/\-
2020-11-22, 20:29:05
Es sieht eher so aus, dass AMD vlt. nächstes mal die Performance Krone inne hat. Sollte Nvidia wieder solche Probleme wie bei Ampere haben. RDNA1 war quasi der Zen 1 der GPUs. RDNA2 war der Zen 2, und was nach RDNA2 kommt, ist der Zen 3. Mit Zen 3 hat AMD Intel geschlagen. Zwar ist Nvidia nicht so schläfrig wie Intel, müssen sich die kommenden Jahre aber definitiv wärmer anziehen, als das die Letzen Jahre der Fall war! Auf billigere Preise müssen wir uns aber nicht einstellen, die Zeiten sind IMO komplett vorbei. AMD ist einfach mit auf dem Teuro Zug gesprungen! Wie man hier und fast überall sieht, auch zurecht. Die Dinger werden eh gekauft.
Sehr unsicher sie werden im günstigsten fall das ganze auf 5N schrinken und einfach hochskalieren.
Bleibt AMD bei 7N haben sie es wesentlich schwerer nicht wieder zurückzufallen
Das gleiche spielchen kennt AMD mit Intel von der Tablet GPU noch, wenn man gleich darsteht und nichts extreme inovatives hat dann schrinkt deine competition dich einfach zusammen mit ihren FABS ;)
Hier siehst du auch die differenz in diesem case hat Nvidia vorgesorgt innovatives zu haben RT Dominanz + DLSS und so richtig stören tut sie es nicht kurzeitig weggeschrinkt zu werden vor allem nicht bei dem Game Ampere ;)
Sie haben ja auch noch Hardware kosten gespart während AMD alles rein buttern musste was geht um jetzt gleich zu ziehen, was aber im Endefekt aller vorausicht nach Nvidia ja sogar genauso kalkuliert hat da man noch keine richtige Gefahr gesehen hat :D
Was wir sehen ist ein Prestige Gewinn in vielen Benchmarks mehr ist es momentan noch nicht, anders würde es aussehen wenn 100% der Benchmarks auf AMDs seite stehen würden dann würde Jensen in Panik geraten so bleibt er noch sehr entspannt und backt seine nächsten Kuchen in der Küche fertig um sich die Benchmark Krone erstmal wieder zu sichern die ihm ja kurzfristig so teuflisch entrissen wurde von so pöse pöse lisa su.
Die Preise können nur mit einem dritten im Bunde wieder fallen selbst Nvidia und AMD werden sich in der jetzigen lage kein richtiges Auge auspicken gegenseitig.
Der dritte muss bereit sein (oder gezwungen) den Leuten mehr value zu geben als wie er eigentlich bräuchte und auch beim Preis muss er wie ne Bombe einschlagen um erstmal zu sagen "hier bin ich" ob das dann anhalten wird oder nur ein 1 shoot bleibt ist noch eine ganz andere Frage.
Je teurer das schrinken wird umso interessanter wird es :D
SKYNET
2020-11-22, 21:18:56
Sehr unsicher sie werden im günstigsten fall das ganze auf 5N schrinken und einfach hochskalieren.
Bleibt AMD bei 7N haben sie es wesentlich schwerer nicht wieder zurückzufallen
Das gleiche spielchen kennt AMD mit Intel von der Tablet GPU noch ;)
Die Preise können nur mit einem dritten im Bunde wieder fallen selbst Nvidia und AMD werden sich in der jetzigen lage kein richtiges Auge auspicken gegenseitig.
Der dritte muss bereit sein (oder gezwungen) den Leuten mehr value zu geben als wie er eigentlich bräuchte und auch beim Preis muss er wie ne Bombe einschlagen um erstmal zu sagen "hier bin ich" ob das dann anhalten wird oder nur ein 1 shoot ist noch eine ganz andere Frage.
du spielst wohl auf intel an.... naja, die haben jetzt mit ampere und RDNA2 ja ordentlich einen vor den bug bekommen, intel hat sicherlich nicht damit gerechnet das die beiden dermassen stark sein werden, denke intels top-dog wird max. das level bedienen was die 5700XT bedient hat in der letzten gen... also höhere mittelklasse, im highend wird intel die kommenden 3 jahre weder im CPU noch im GPU sektor irgendwas zu melden haben, die müssen erstmal ihre ganzen probleme aus der welt schaffen bevor die wieder vorne mitstreiten können... weil intel kommt mit den neuen CPUs erst wenn schon zen4 vor der tür steht, und ich glaube der %uale sprung von zen3 zu zen4 wird dicker ausfallen als jetzt mit zen3 auf zen2
-/\-CruNcher-/\-
2020-11-22, 22:10:46
Ja und währenddessen backt Jensen seinen neuen Tegra Kuchen fertig, zudem bin ich mir ziemlich sicher das Raja schon ziemlich genau wusste wo die Reise hingeht und jetzt auch noch Tom Petersen bei Intel zu sehen hat schon was (vor allem ist er ziemlich der einzige der immer COMP sagt und nicht 500000x mal AMD erwähnt, Nvidia Profi) :)
Übrigens bzg Intel er erklärt dir wie sich Intel tot optimiert hat ;)
https://www.youtube.com/watch?v=dGDxIQW0Dew
Wow, ich komme mir gerade vor wie im falschen Film. Mr. Lolman wird dafür angegangen, dass er nicht das AMD-Angebot über den grünen Klee lobt. Das verwundert mich auch, ist aber absolut korrekt. Zeiten ändern sich - evtl. bin ich doch mal wieder öfter hier. :biggrin:
MfG
Raff
Schnoesel
2020-11-22, 22:25:54
Man braucht nichts übern Klee loben, aber wenn du mir jetzt sagts es lässt dich kalt dass AMD wieder zurück ist, dann fällt mir auch nix mehr ein. AMDs Angebot ist grundsolide und keiner der Hersteller bietet die eierlegende Wollmilchsau. Ist doch was für jeden dabei.
Meine (https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/News/Radeon-RX-6800-Empfehlungen-1362258/galerie/2261954/) Rede (https://www.pcgameshardware.de/Radeon-RX-6800-XT-Grafikkarte-276951/Tests/Benchmark-Release-Review-vs-RTX-3080-1361423/5/). Was vielen AMD-Fans die Euphorie verhagelt, dürften die Nvidia'esquen Preise sein. Da ist man etwas zu selbstbewusst, ohne Lösungen anzubieten.
MfG
Raff
Blediator16
2020-11-22, 22:46:39
Man braucht nichts übern Klee loben, aber wenn du mir jetzt sagts es lässt dich kalt dass AMD wieder zurück ist, dann fällt mir auch nix mehr ein. AMDs Angebot ist grundsolide und keiner der Hersteller bietet die eierlegende Wollmilchsau. Ist doch was für jeden dabei.
Das lustige ist Nvidia galt als uneinholbar und angeblich könne AMD evtl. es mit der 3070 aufnehmen. Wenn man überlegt was bei Nvidias Präsentationen über RT geredet wurde von wegen "10years in the making" (https://www.youtube.com/watch?v=HWsYhviRpPk&feature=youtu.be&t=5748) dann kommt AMD "mal eben" in der ersten Gen mit RT um die Ecke und ist quasi so schnell wie NVs letzte Generation ohne scheinbar 10 Jahre Erfahrung zu haben und es ist dann trotzdem nicht genug, nachdem sie vor einigen Jahren kurz vor dem Bankrott waren ;D
Daredevil
2020-11-22, 23:11:22
Das lustige ist Nvidia galt als uneinholbar und angeblich könne AMD evtl. es mit der 3070 aufnehmen. Wenn man überlegt was bei Nvidias Präsentationen über RT geredet wurde von wegen "10years in the making" (https://www.youtube.com/watch?v=HWsYhviRpPk&feature=youtu.be&t=5748) dann kommt AMD "mal eben" in der ersten Gen mit RT um die Ecke und ist quasi so schnell wie NVs letzte Generation ohne scheinbar 10 Jahre Erfahrung zu haben und es ist dann trotzdem nicht genug, nachdem sie vor einigen Jahren kurz vor dem Bankrott waren ;D
Also wenn du RT in den Raum wirfst, ist diese Aussage ja richtig im Spielschnitt bei CB. Eine 6800XT ist genau da, wo eine 3070 heute ist. Wenn man DLSS noch dazu nimmt, was es in den meisten RT spielen gibt, kann man sogar soweit gehen und sagen, dass man mit AMDs Karten heute nicht mal in WQHD spielbare Framerates bekommt.
Das war aber imho abzusehen, das habe ich ja auch so geschätzt.
Entweder viel Rohperformance um Nvidia auszustechen oder den Fokus auf RT und dafür leidet die Rohperformance dann. Erster Schritt ist sicherlich der klügere aus AMDs Sicht.
Den Spagat , viel Leistung in beiden Bereichen zu erlangen, ist natürlich die Königsklasse, das schafft Nvidia aktuell ja auch nicht.
Savay
2020-11-22, 23:28:19
Ahjo...irgendwas cherrypicken kann man sich halt immer.
Die tatsächliche Relevanz von RT für Ampere, Navi21 und Co. halte ich bestenfalls für so hoch wie TnL für NV10/15 oder von Tessellation für RV870.
Hach ja...was war ich damals doch geflasht ob der zukunftsweisenden Hightech und der irrsinnigen Möglichkeiten...derartigen Vaporfeatures für die ersten 1-3 Generationen trauert man m.E. aber dann doch max. 2 mal im Leben hinterher...außer natürlich...ach lassen wir das.
Daredevil
2020-11-22, 23:36:13
Ich habe hier ja nichts gepickt, zudem ist RT ja keine Cherry.
Cherry Picking war es vor drei Monaten, weil man bei Navi1 überhaupt nichts spielen konnte, jetzt kann man das machen auf Turing Niveau, was als First Gen ziemlich gut ist.
Savay
2020-11-22, 23:37:59
Wieso kann man mit RDNA1 nichts spielen?!
BTW wenn schon RT auf 3070+ Niveau "scheiße" ist...wie ist es das dann dann bitte auf 2070 Level? Ehrlich gesagt könnte sich AMD angesichts dessen die Raytracing Accelerator in NAVI23 und Co. auch irgendwie sparen. :uup:
Ganz ehrlich...RT ist in dieser Gen ja ganz Nett...aber für mich bestenfalls ein Techdemonstrator für das was mal in 5+ Jahren tatsächlich flächendeckend machbar ist.
Daredevil
2020-11-22, 23:39:08
Alter, wir reden seit mehreren Posts über RT, jetzt stell dich doch bitte nicht so blöd, oder les dir vorher die Posts durch, worauf ich reagiert habe. ^^
PS: Ne 2070 ist in WQHD bei AAA Titeln schlicht unspielbar in RT, dafür muss man zwanghaft DLSS aktivieren. In FullHD gehts langsam los.
Armaq
2020-11-22, 23:40:10
Für mich ist das Fazit hier klar. Beide 6800 sind gute Karte für jetzt und vor allem für Auflösungen bis 4k.
Es ist klar, dass der Cache dann immer weniger auffängt. Was Frametimes usw. angeht würde ich tatsächlich mal 2 Monate warten, die werden sicherlich noch iO. Sie sind aber keine absoluten 30x0 Killer und ich denke in sehr hohen Auflösungen wird die 6900 so ihre Probleme gegen die 3090 haben, sie kostet auch deutlich weniger. Die 16 GB VRam sind gut, allerdings nur solange der IF immer gut funktioniert. Die Partnerkarten mischen sicherlich noch ein bisschen das Feld durch, inzwischen ist es sehr löblich, dass beide Chiphersteller auch gleich ein sehr gutes Design bringen.
Ansonsten ist Preis/Leistung derzeit leider kein Thema, es riecht auch schon fast nach Kartell. Bei 2 Playern war das ja leider nur eine Frage der Zeit.
TwoBeers
2020-11-22, 23:43:17
Mal zum Thema RT, ich find das ja als Technologie echt spannend und im Prinzip ist natives RT auch der nächste große Schritt, der hoffentlich irgendwann in den nächsten 10 Jahren mal kommen und Rasterizer weitgehend ablösen wird.
Aber momentan find ich die Implementationen bestenfalls schickes Beiwerk und meistens eher störend. In WD Legions z.B. sieht jede Pfütze aus wie ein Spiegel, ja is klar. In Control ist meistens auch jede Glasfläche ein kompletter Spiegel, die RT Schatten in SotTR fallen mir höchstens auf Screenshots auf, noch schlimmer in WoW Shadowlands, etc.
Und dafür dann mal eben 20-50% Performance Einbruch bei gleichem oder höherem Verbrauch?
Nope!
Mal schauen wie CP 2077 RT implementieren wird.
Aber wie gesagt, momentan ist RT zumindest für mich null Kaufgrund.
Daredevil
2020-11-22, 23:46:07
In WD Legions z.B. sieht jede Pfütze aus wie ein Spiegel, ja is klar.
Willkommen in der Wirklichkeit.
fpxJSvgHysA
Savay
2020-11-22, 23:51:39
Das ist ja nichtmal in 8K. Fail! :popcorn:
-/\-CruNcher-/\-
2020-11-22, 23:59:41
Das gößte Problem momentan es erfüllt meistens absolut nicht den Zweck den es soll und zwar Render Probleme zu vermeiden aus dem World Space heraus.
Es macht keinen Sinn es mit Screen Space zu mixen und letztendlich genau wieder dort zu landen, das ist so hirnrissig das mir die Zehen hoch stehen, wenn ich so eine Hybrid implementation sehe.
r3ptil3
2020-11-23, 00:00:21
Willkommen in der Wirklichkeit.
https://youtu.be/fpxJSvgHysA
Die Texturen wirken mir teilweise zu verwaschen, dazu noch die Überbelichtung und ein zu starker HDR Effekt eingebaut.
Das geht besser!
Savay
2020-11-23, 00:07:10
Das geht besser!
Mir hat das fast vollständige fehlen von Lensflaaaaaaaaaaaaaaaaaaares und CAAAAAAAAAAAAAAs einfach jegliche Immersion gekilled!
TwoBeers
2020-11-23, 00:08:57
Das ist ja nichtmal in 8K. Fail! :popcorn:
;D
Du musst es nur auf dem Handy .. nein, besser auf nem Gameboy gucken, dann geht's. ;)
@Daredevil: Ich weiß was du meinst, manchmal sieht das schon so aus, haste Recht. Aber wenn ich hier meine graue Berliner Straße gerade angucke, dann seh ich davon nix und ich find ein bisschen mehr grau und weniger blingbling RT hätte WDL echt gut getan. :)
Daredevil
2020-11-23, 00:11:09
Dann muss es halt in WDL weniger Regnen. :D
In RT Games regnet es nun mal statistisch mehr, da kommste nicht drum rum.... ^^
Aber btw. ich habe mir selber so ein Video zum ersten mal gerade angeschaut. Da merkt man echt erstmal wirklich, wie viele Dinge in der Welt reflektieren. ;D
Schon beindruckend, was Regen mit der Lichtstimmung macht, wenn viel beleuchtet wird.
Ujy64mYXBp8
nairune
2020-11-23, 00:19:20
Bei Watch Dogs sieht das halt auch tagsüber so aus und das ist Bullshit. Zudem werden Straßen normalerweise so gebaut, dass das Wasser nicht drauf steht...
Hier eine schöne Aufnahme wie das in der Realität aussieht :freak:
https://youtu.be/FBW9X7cz5ww
Savay
2020-11-23, 00:21:03
Da merkt man echt erstmal wirklich, wie viele Dinge in der Welt reflektieren. ;D
Wirklich spooky und wie gerendert wirkt es doch eh erst wenn Dinge mal tatsächlich nichts reflektieren! :wink:
https://www.youtube.com/watch?v=QCI2KYhC8vk
Hier eine schöne Aufnahme wie das in der Realität aussieht :freak:
Das Berlin echt nur in 320*240 Pixel vorliegt wundert mich jetzt nicht grade! :tongue:
https://www.igorslab.de/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-25-ghz-uebertaktet-dank-morepowertool-und-boardpartner-bios/2/
Zwecks RT: In WoW soll ne XT schneller als ne 3090 sein, von daher einfach Patches und neuere Spiele abwarten...
Zwecks RT: In WoW soll ne XT schneller als ne 3090 sein, von daher einfach Patches und neuere Spiele abwarten...
Glaube ich nicht. Ergibt angesichts des Rohleistungsunterschieds auch keinen Sinn. Das sind nur Schatten, keine Vollbild-Goodness.
MfG
Raff
ChaosTM
2020-11-23, 10:22:20
Bei Watch Dogs sieht das halt auch tagsüber so aus und das ist Bullshit. Zudem werden Straßen normalerweise so gebaut, dass das Wasser nicht drauf steht...
Hier eine schöne Aufnahme wie das in der Realität aussieht :freak:
https://youtu.be/FBW9X7cz5ww
Geputzte Pfützen sind doch viel schöner ;)
dildo4u
2020-11-23, 10:26:36
https://www.igorslab.de/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-25-ghz-uebertaktet-dank-morepowertool-und-boardpartner-bios/2/
Zwecks RT: In WoW soll ne XT schneller als ne 3090 sein, von daher einfach Patches und neuere Spiele abwarten...
Vermutlich CPU Limits die GPU sitzt unter 50% wenn was los ist selbst mit einem 5800X.
https://youtu.be/4HRxw9kGfvw?t=254
Kann sein. Da ich RT aber für gewöhnlich immer ausmache, da nur Klickibunti ohne Realitätsbezug und zudem Arschteuer, für mich (!) eh nicht relevant
Dino-Fossil
2020-11-23, 11:22:06
Mein Problem mit der Implementation von RT-Reflexionen aktuell ist vor allem, dass viele Oberflächen völlig glatt scheinen und dass die Reflektivität zu hoch ist.
Eine Wasserpfütze bei Nacht (oder in einer dunklen Ecke), die helle Lichter reflektiert, kann durchaus so aussehen, das passt schon.
Aber oft gibt es doch eine gewisse Struktur durch die darunterliegende Oberfläche, jedenfalls wenn es nur ein dünner Wasserfilm ist. Und sobald wir Bewegung in der Oberfläche haben, wird es sowieso unregelmäßig. In hellen Umgebungen wiederum müsste teils mehr Licht vom Untergrund durchscheinen, was dann die RT-Reflexionen überlagern würde. Könnte ich aber je nach Situation noch mit leben. ;)
Wenn man aber auf einmal überall perfekt spiegelnde Stein-Fliesen hat, jedes Stück gebürstetes Metall ebenfalls spiegelt als gäbe es kein Morgen, oder alles aussieht als hätte es einen schlimmen Unfall mit einem Klarlack-Tanklaster gegeben ist definitiv der Punkt erreicht, an dem der Entwickler nur noch zeigen will, wie toll er doch RT kann. :D
In WoW sind die RT-Schatten zweifellos gelungen, das Bild wird realistischer und breitflächiger schattiert, ergo kein "Klickibunti" - ein Vorteil, wenn man Schatten statt Reflexionen implementiert. :D
MfG
Raff
bnoob
2020-11-23, 11:26:59
Zudem werden Straßen normalerweise so gebaut, dass das Wasser nicht drauf steht...
Sei dir da bei den Amis mal nicht so sicher, am Ende ist das noch realistisch :freak:
r3ptil3
2020-11-23, 11:32:56
Die RX 6800 läuft wirklich ausserordentlich gut, was mich etwas stört sind die zwischendurch auftretenden Drops in den Taktraten.
Habe ich jetzt in mehreren Games festgestellt, Beispiel von 2385Mhz auf 1920Mhz runter und gleich wieder rauf - kein Power- oder Templimit der Grund.
Mal aus eigenem Test (RX 6800 @ 2425/925mv):
PUBG Trainingsgelände an der Rampe @WQHD Ultra:
RX 6800: 170FPS
RTX 3080: 228FPS
TimeSpy:
GPU Score: 15900
TimeSpy Extreme:
GPU Score: 7597
aufkrawall
2020-11-23, 11:39:21
PUBG Trainingsgelände an der Rampe @WQHD Ultra:
RX 6800: 170FPS
RTX 3080: 228FPS
Und das war im GPU-Limit?
Ist natürlich auch noch alte UE4 DX11.
Radeons takten insbesondere seit Vega aggressiver runter als GeForces bei 3D-Teillast. Das war imho bislang aber fast immer nur ein Symptom von Einbrüchen, nicht die Ursache.
r3ptil3
2020-11-23, 11:45:48
Und das war im GPU-Limit?
Ist natürlich auch noch alte UE4 DX11.
GPU-Auslastung: 99%
CPU-Auslastung: 28%
An der Stelle habe ich zumindest gute Erfahrungen gemacht, da bereits wenige % GPU-Takt einen Unterschied ausmachen.
Edit:
Gleiche Stelle in PUBG @ 2250Mhz
156FPS
Die RX 6800 läuft wirklich ausserordentlich gut, was mich etwas stört sind die zwischendurch auftretenden Drops in den Taktraten.
Habe ich jetzt in mehreren Games festgestellt, Beispiel von 2385Mhz auf 1920Mhz runter und gleich wieder rauf - kein Power- oder Templimit der Grund.
Mal aus eigenem Test (RX 6800 @ 2425/925mv):
PUBG Trainingsgelände an der Rampe @WQHD Ultra:
RX 6800: 170FPS
RTX 3080: 228FPS
TimeSpy:
GPU Score: 15900
TimeSpy Extreme:
GPU Score: 7597
Editiere mal deine Reg mit dem MPT+XT_VBIOS.
Laut Igor hast du dann ne TS-Score von 17K. Zudem limitiert dann die Wattage weniger, so dass Drops eigentlich ausbleiben sollten
nairune
2020-11-23, 11:58:56
Stellt er die VBIOS irgendwo zur Verfügung? GPU-Z geht ja noch nicht...
-/\-CruNcher-/\-
2020-11-23, 12:17:36
Geputzte Pfützen sind doch viel schöner ;)
Mein Problem mit der Implementation von RT-Reflexionen aktuell ist vor allem, dass viele Oberflächen völlig glatt scheinen und dass die Reflektivität zu hoch ist.
Eine Wasserpfütze bei Nacht (oder in einer dunklen Ecke), die helle Lichter reflektiert, kann durchaus so aussehen, das passt schon.
Aber oft gibt es doch eine gewisse Struktur durch die darunterliegende Oberfläche, jedenfalls wenn es nur ein dünner Wasserfilm ist. Und sobald wir Bewegung in der Oberfläche haben, wird es sowieso unregelmäßig. In hellen Umgebungen wiederum müsste teils mehr Licht vom Untergrund durchscheinen, was dann die RT-Reflexionen überlagern würde. Könnte ich aber je nach Situation noch mit leben. ;)
Wenn man aber auf einmal überall perfekt spiegelnde Stein-Fliesen hat, jedes Stück gebürstetes Metall ebenfalls spiegelt als gäbe es kein Morgen, oder alles aussieht als hätte es einen schlimmen Unfall mit einem Klarlack-Tanklaster gegeben ist definitiv der Punkt erreicht, an dem der Entwickler nur noch zeigen will, wie toll er doch RT kann. :D
Artistic Freedom und ein bischen Nvidia protzing am Power Limit ;)
aber wie gesagt man failed einfach wenn man noch zusätzlich Screen Space einsetzt Grandios mit der Hybrid Zielsetzung die man da eigentlich verfolgen sollte um Screen Space gänzlich zu vermeiden.
TwoBeers
2020-11-23, 12:20:07
Mir ist aufgefallen, das zwar oft nicht das Temp oder Power Limit zuschlägt, aber in HWInfo gibt es auch noch ein "Current Limit" und das steht öfter mal auf "Yes".
Und gerade je mehr man undervolted, desto häufiger passiert dies natürlich.
Die Takt drops könnten also was mit dem "Current Limit" zu tun haben, genauer getestet hab ich das aber auch noch nicht.
nairune
2020-11-23, 12:33:17
In Igors BIOS sind 255W Powerlimit und 300A TDC Limit angegeben.
Wenn du auf das Powerlimit +15% gibst, sind das 293,25W. Du würdest also ins TDC Limit laufen, wenn du es schaffst die 293W mit 0,978V oder weniger zu füllen.
TwoBeers
2020-11-23, 12:49:43
Jo und nicht zu vergessen sind da die spikes, die auftreten, wenn man die max Core Clock wesentlich höher setzt, als das Verhältnis mV <-> Core Clock eigentlich zulässt.
Bei der XT gehen bei 1150mV eigentlich nur 2,4GHz stabil, wenn man da 2,65GHz einträgt, dann spiked das manchmal auf die 2,6GHz, fällt dann aber sofort weit unter 2,3GHz und das geht immer so weiter.
SKYNET
2020-11-23, 13:16:47
Die RX 6800 läuft wirklich ausserordentlich gut, was mich etwas stört sind die zwischendurch auftretenden Drops in den Taktraten.
Habe ich jetzt in mehreren Games festgestellt, Beispiel von 2385Mhz auf 1920Mhz runter und gleich wieder rauf - kein Power- oder Templimit der Grund.
Mal aus eigenem Test (RX 6800 @ 2425/925mv):
PUBG Trainingsgelände an der Rampe @WQHD Ultra:
RX 6800: 170FPS
RTX 3080: 228FPS
TimeSpy:
GPU Score: 15900
TimeSpy Extreme:
GPU Score: 7597
Klingt wie cpu limit... An gewissen punkten langweilt sich die graka weil die cpu nicht nachkommt --> taktet runter
-/\-CruNcher-/\-
2020-11-23, 13:32:02
@Raff
https://www.youtube.com/watch?v=qvC5yPzncx8
6800 = ~220 Furmark ~ 43 Borderlands 3 ?
Oh man das "wirklich erstaunlich" ist es das Samsung/TSMC naja lassen wir das und freuen uns irgendwie was da noch kommt ;)
Empfehlenswert
https://www.youtube.com/watch?v=uaxnvRUeqkg
Hakim
2020-11-23, 14:22:01
@Raff ich habe eine richtige Frage :)
Wie verhält sich eigentlich mit 256bit + IC wenn du bewusst an die fast volle Kapazität der 16 GB kommst? Spikes mäßig
-/\-CruNcher-/\-
2020-11-23, 15:11:38
Wat? :D
MfG
Raff
Ja das Video zeigt nur die 6800XT was ja standard ist (erstmal den König dann den Prinzen) deswegen frage ich mich wie die 6800 dagegen stand was ihr hier rausgeschnitten habt um es dann mal irgendwann zu zeigen, oder eben garnicht auch im direkten Lautstärke vergleich ;)
Du merkst schon mein interesse an der 6800XT ist nicht sonderlich hoch die 6800 ist um einiges sexier als "real" Nerd ;)
Und der richtige Kampf findet gerade zwischen 6800 und 3070 auf jedem level statt und da ist es super interessant am limit
Die 6800XT und 3080 sind nur sehr unwichtige Nebenschauplätze auf die sich extreme zu viel konzentriert wird ;)
dargo
2020-11-23, 15:21:58
wHGPbgdx_DI
Puh... bin schon mal erleichtert, dass SPPT immer noch funktioniert. Man muss nur ein anderes überhaupt ein Bios haben. :tongue:
btw.
Die kommenden Customs der RX 6800XT werden mit 289W TGP bei 340-345W rauskommen, auch ganz schöne Säufer wie der GA102. ;(
@Fallback
Schreib mal Igor an der soll dir das XT-Bios schicken. Dann kannst du auch mehr mit dem MPT rumspielen. Wer weiß wie lange es noch dauert bis GPU-Z die Biose auslesen/abspeichern kann.
Edit:
MPT v1.3 mit RX 6800(XT) Support.
https://www.igorslab.de/red-bios-editor-bios-eintraege-anpassen-optimieren-und-noch-stabiler-uebertakten-navi-unlimited/3/
Troyan
2020-11-23, 15:40:59
Bardh,
kannst du testen, ob nVidias Astroid-Demo funktioniert?
r3ptil3
2020-11-23, 16:33:02
Bardh,
kannst du testen, ob nVidias Astroid-Demo funktioniert?
"NVIDIA Developer Program Membership Required"
Wo kann ich das noch runterladen, ausser bei Nvidia selber?
Troyan
2020-11-23, 16:40:08
Ich lade gerade hoch.
/edit: https://easyupload.io/1am0gm
TwoBeers
2020-11-23, 17:44:08
Zum Thema RT hatte dargo hier noch was schönes im Ampere thread gepostet:
Call of Duty Black Ops Cold War... Nextgen mit Raytracing. :ulol3:
https://youtu.be/w4c4ihAkVJU
Alter, wenn man das RTX Logo oben vertauschen würde, ich würde es nicht merken. :freak:
dildo4u
2020-11-23, 17:48:46
Da kommen schon Schatten hinzu Tessellation bringt auf dem Grund nicht viel wenn es keine Schatten wirft.
https://youtu.be/w4c4ihAkVJU?t=184
Ravenhearth
2020-11-23, 17:52:17
Ich finde bei Spielen die nur einen Effekt nutzen, RT für Reflexionen am sinnvollsten. Bei Schatten muss man Unterschiede meist mit der Lupe suchen (SotTR, Dirt), weil man die auch so ganz gut hinbekommt. GI lässt sich vor allem in linearen Spielen ohne Tag/Nacht-Wechsel ganz gut vorberechnen, bei Open World etc kann RT dagegen subtil was bringen, und alles sehr gut "erden", kostet aber auch viel Leistung. Von allen Sachen fallen aber Reflexionen am stärksten ins Auge und lassen sich ohne RT am schlechtesten vorberechnen oder faken.
aufkrawall
2020-11-23, 17:55:07
Wenn mich in den Szenen aus dem CoD-Video etwas aus der Immersion holt, dann sind es die hässlichen SSR-Artefakte, und nicht etwas weniger realistische Verschattung.
dargo
2020-11-23, 17:58:04
Das Schlimme an den aktuellen Implementierungen ist, dass man nur den Vergleich zwischen RT On/Off hat den die Entwickler eingebaut haben. Man müsste eigentlich Zugriff auf diverse Parameter in der Engine haben um sich das mal genauer anzuschauen inkl. Rendertime-Kosten je Setting. Mich würde es nicht überraschen, dass diverse Sachen wie zb. Schatten kein Stück schlechter ohne RT aussehen würden und immer noch performanter auf aktueller Hardware wären. Ich habe immer noch das Gefühl, dass die ganzen RT-Implementierungen bisher nur als Show Case dienen. Das wird sich wahrscheinlich erst ändern wenn die Entwickler von Anfang an an RT in einem Spiel in der Entwicklung gedacht haben. Bisher ist das imho mehr oder weniger nur Spielerei.
r3ptil3
2020-11-23, 19:33:32
Ich lade gerade hoch.
/edit: https://easyupload.io/1am0gm
https://i.ibb.co/R0nRp23/er.png
CompuJoe
2020-11-23, 21:06:48
Checkt wohl nur den vendor nicht das featureset
r3ptil3
2020-11-23, 21:09:57
Checkt wohl nur den vendor nicht das featureset
Jop, vermute ich auch. Die Meldung kam nach etwa 0.005 Sekunden nachdem ich versucht habe die Demo zu starten.
Das Schlimme an den aktuellen Implementierungen ist, dass man nur den Vergleich zwischen RT On/Off hat den die Entwickler eingebaut haben. Man müsste eigentlich Zugriff auf diverse Parameter in der Engine haben um sich das mal genauer anzuschauen inkl. Rendertime-Kosten je Setting. Mich würde es nicht überraschen, dass diverse Sachen wie zb. Schatten kein Stück schlechter ohne RT aussehen würden und immer noch performanter auf aktueller Hardware wären. Ich habe immer noch das Gefühl, dass die ganzen RT-Implementierungen bisher nur als Show Case dienen. Das wird sich wahrscheinlich erst ändern wenn die Entwickler von Anfang an an RT in einem Spiel in der Entwicklung gedacht haben. Bisher ist das imho mehr oder weniger nur Spielerei.
Der Vorteil an RT ist, dass es dem Entwickler die Arbeit unheimlich erleichtert unabhängig davon ob mit Tricks und Kniffen ein ähnliches Ergebnis erzielt werden kann
Du kannst jetzt hier gern noch weiter durch die Threads pflügen und dir einreden, dass RT+DLSS kacke ist. Fakt ist, dass die NextGen-Krone an NV geht und man mit dem Rohrohrmonster RX6800 halt 3 Jahre alte Games gut zocken kann :dafür:
dargo
2020-11-23, 21:57:58
Der Vorteil an RT ist, dass es dem Entwickler die Arbeit unheimlich erleichtert unabhängig davon ob mit Tricks und Kniffen ein ähnliches Ergebnis erzielt werden kann
Schwachsinn... aktuell ist es Mehrarbeit.
DrFreaK666
2020-11-23, 22:00:03
...
Du kannst jetzt hier gern noch weiter durch die Threads pflügen und dir einreden, dass RT+DLSS kacke ist. Fakt ist, dass die NextGen-Krone an NV geht und man mit dem Rohrohrmonster RX6800 halt 3 Jahre alte Games gut zocken kann :dafür:
Soso, das ist also Fakt. Komisch dass ich das zum ersten Mal lese. Seit der RX6800 ist das kein Fakt mehr
Spasstiger
2020-11-23, 22:17:57
In drei Jahren ist der Vorteil von 16 GB vs. 8 GB (RX 6800 vs. RTX 3070) imo größer als der Vorteil durch die dedizierte Hardware für Raytracing bei NV.
Wenn man seine Entscheidung aufgrund der Raytracing-Performance trifft, dann imo auf Basis aktueller Spiele, die auf einer RTX 3070 noch mit Raytracing spielbar sind.
Das Gleiche gilt auch für RX 6800 XT vs. RTX 3080.
Vergessen darf man nicht, dass Navi 2 die Basis der neuen Konsolen ist. Somit wird Raytracing auf Navi 2 noch viel Optimierung erfahren, von der auch der PC profitiert.
Ich persönlich würde aktuell bei CPU und GPU zu Underdog AMD greifen, man geht mit dem Paket kaum Kompromisse ein. Den Kompromiss zu nur 8 oder 10 GiB VRAM finde ich schwerer verdaulich.
Stretcher
2020-11-23, 22:18:26
... in neueren Games schneller als 3080.
Neuere Games? Welche sollen das sein?
Armaq
2020-11-23, 22:37:48
Schwachsinn... aktuell ist es Mehrarbeit.
Du hast überhaupt keine RTX Karte. Dein "Wissen" sind total biased Vergleichsvideos - und zwar bei fast jedem Thema - aber leider stimmt das überhaupt nicht. RT sieht in CoD Cold War gut aus, aber wie so oft in Bewegung und der Unterschied ist ordentlich - Aussage eines PS4 Gamers der das mal mit RT gesehen hat. Es ist absolut nicht zum aushalten wie ständig Videos herbeigezerrt werden, die selbst absolut tendenziös sind. Und Skandal: DLSS und RT sind in Cold War ne richtig gute Kombi die einfach funktioniert. Hohe FPS und eine gute Optik auf einer 2080Ti.
Linmoum
2020-11-23, 22:41:28
Er braucht auch keine RTX Karte und bevor du mit dem blamen anfängst, solltest du die fünf Wörter von ihm auch mal lesen. Denn um Qualität ging es dort nicht, von der du jetzt schreibst.
Und das, was er schreibt, ist nun einmal Realität. Genauso, wie DX12 für Entwickler mehr Aufwand im Vergleich zu DX11 bedeutet.
Er braucht auch keine RTX Karte und bevor du mit dem blamen anfängst, solltest du die fünf Wörter von ihm auch mal lesen. Denn um Qualität ging es dort nicht, von der du jetzt schreibst.
Und das, was er schreibt, ist nun einmal Realität. Genauso, wie DX12 für Entwickler mehr Aufwand im Vergleich zu DX11 bedeutet.
Am Entwicklungsprozess sind nicht nur Codemonkeys beteiligt - RT vereinfacht die Contentgenerierung
Der Effekt in linearen Shootern ist vergleichsweise gering, da dort pre-baked ein hoher Grad an Qualität erreicht werden kann
Neuere Games? Welche sollen das sein?
Star Wars Squadrons, Watch Dogs: Legion, Dirt 5, COD BOCW, AC Valhalla
Am Entwicklungsprozess sind nicht nur Codemonkeys beteiligt - RT vereinfacht die Contentgenerierung
Der Effekt in linearen Shootern ist vergleichsweise gering, da dort pre-baked ein hoher Grad an Qualität erreicht werden kann
Kannst noch so oft wiederholen, bleibt BS. RT wird Mehrarbeit bedeuten, bis Rasterizer-Alternativen nicht mehr unterstützt werden, also bestimmt noch 4-5 Jahre. Gar nix wird vereinfacht, ganz im Gegenteil.
Stretcher
2020-11-23, 23:31:27
Star Wars Squadrons, Watch Dogs: Legion, Dirt 5, COD BOCW, AC Valhalla
3 Spiele davon sind Radeon Domänen, das heißt gar nix.
3 Spiele davon sind Radeon Domänen, das heißt gar nix.
:rolleyes:
Armaq
2020-11-23, 23:34:37
Das wisst ihr weil? Achso, ihr habt es in einem YT-Video gesehen ... Deshalb hat AMD es auch gebracht und es ist in Konsolen drin. Macht Mehrarbeit und sieht immer scheiße aus. Die Qualität anhand von Videos zu beurteilen ist völlig sinnbefreit. Entweder man hat das Equipment oder nicht. Hier werden sich Urteile anhand von YT Videos mit 100 Views gebildet, na was eine Leistung.
DLSS in Cold War ist richtig gut, in Qualität bringt es viele FPS und sieht sehr gut aus. RT sieht besser aus als non RT. Man kann das in Kombination im Multiplayer spielen, ich meine warum das nicht mal als Errungenschaft annehmen? AMD bringt das ja auch, sicher nicht weil es Scheiße ist.
SKYNET
2020-11-24, 00:14:57
3 Spiele davon sind Radeon Domänen, das heißt gar nix.
AC wohl kaum, das ist normal NV gebiet... da ist die XT mal geschnmeidige 6% vor der 3090 in den frametimes...
TwoBeers
2020-11-24, 00:19:20
Sagt doch auch keiner, dass RT scheiße ist. Ganz im Gegenteil, alle wollen es.
Aber zur Zeit halten sich die grafischen Verbesserungen von RT doch sehr in Grenzen.
Wenn man sich dann noch die Performancekosten dafür anguckt, dann kann man RT zur Zeit einfach nicht als Vorteil herausstellen.
Wenn die Grafikkarten alle 400fps in UHD bringen würden und man nicht wohin wüsste mit der Power, dann wäre jedes bisschen mehr RT natürlich erwünscht. Da sind wir aber noch nicht.
Deswegen, gucken was man jetzt braucht und danach auswählen.
Und vielleicht ein bisschen den Underdog pushen, damit er den quasi Monopolisten weiter Feuer unterm Hintern macht. ;)
Stretcher
2020-11-24, 00:25:38
:rolleyes:
Ich finde es immer wieder witzig wie AMD Fans mit "aber schaut mal die modernen Spiele" argumentieren und dann nicht mal eine Hand voll zusammenbekommen. Statistisch gesehen völlig irrelevant, weil bei 3 dieser fünf Spiele Ampere GPUs nicht skalieren, ergo ein Treiber diese Probleme noch angehen wird und COD ist schon seit Jahren AMD Domäne...
AC wohl kaum, das ist normal NV gebiet... da ist die XT mal geschnmeidige 6% vor der 3090 in den frametimes...
AC, da hängt der Nvidia Treiber noch, schau auf die Skalierung von Ampere.
Dirt, COD, sind AMD Domänen, wie auch Squadron, baut auf der Frostbite Engine auf und ist eher AMD Domäne. Schau mal Battlefield Benchmarks.
Ich weiß, das hört die AMD Gemeinde nicht gerne, wenn es nach der ginge, zählen nur ein paar ausgesuchte Spiele, die dann als "neue" Spiele umetikettiert werden, das passiert bei jedem Launch und ist immer dieselbe Schallplatte.
BlacKi
2020-11-24, 02:59:40
Mal aus eigenem Test (RX 6800 @ 2425/925mv):
PUBG Trainingsgelände an der Rampe @WQHD Ultra:
RX 6800: 170FPS
RTX 3080: 228FPS
kannst du mal erläutern woher der unterschied kommt? läuft die karte denn überhaupt im gpu limit, oder sieht man hier ein cpu limit?
dildo4u
2020-11-24, 03:15:21
Treiber Overhead in DX11 mit UE4.0.
In 1080 Ultra droppt die 6800XT gern mal auf 150 Watt.
https://youtu.be/0pJKw75vFro?t=387
dargo
2020-11-24, 07:05:48
Kannst noch so oft wiederholen, bleibt BS. RT wird Mehrarbeit bedeuten, bis Rasterizer-Alternativen nicht mehr unterstützt werden, also bestimmt noch 4-5 Jahre. Gar nix wird vereinfacht, ganz im Gegenteil.
Korrekt... aber das raffen manche einfach nicht. RT bedeutet für den Entwickler weniger Arbeitsaufwand erst wenn das Spiel RT als Mindestvoraussetzung hat. Und dies wird noch paar Jährchen dauern, was ja völlig verständlich ist bei der aktuellen, mickrigen Verbreitung von RT-Hardware. Nvidia sprach mal von 2023 mit dem ersten Spiel welches RT voraussetzt. Und selbst hier bin ich mir nicht sicher ob diese Einschätzung nicht zu optimistisch ist. Zumal ein Spiel auch ziemlich unbedeutend ist.
Ich finde es immer wieder witzig wie AMD Fans mit "aber schaut mal die modernen Spiele" argumentieren und dann nicht mal eine Hand voll zusammenbekommen. Statistisch gesehen völlig irrelevant, weil bei 3 dieser fünf Spiele Ampere GPUs nicht skalieren, ergo ein Treiber diese Probleme noch angehen wird und COD ist schon seit Jahren AMD Domäne...
AC, da hängt der Nvidia Treiber noch, schau auf die Skalierung von Ampere.
Dirt, COD, sind AMD Domänen, wie auch Squadron, baut auf der Frostbite Engine auf und ist eher AMD Domäne. Schau mal Battlefield Benchmarks.
Ich weiß, das hört die AMD Gemeinde nicht gerne, wenn es nach der ginge, zählen nur ein paar ausgesuchte Spiele, die dann als "neue" Spiele umetikettiert werden, das passiert bei jedem Launch und ist immer dieselbe Schallplatte.
Ich dachte die Nvidia-Treiber sind so gut? :uponder:
Ich finde es immer wieder witzig wie AMD Fans mit "aber schaut mal die modernen Spiele" argumentieren und dann nicht mal eine Hand voll zusammenbekommen. Statistisch gesehen völlig irrelevant, weil bei 3 dieser fünf Spiele Ampere GPUs nicht skalieren, ergo ein Treiber diese Probleme noch angehen wird und COD ist schon seit Jahren AMD Domäne...
AC, da hängt der Nvidia Treiber noch, schau auf die Skalierung von Ampere.
Dirt, COD, sind AMD Domänen, wie auch Squadron, baut auf der Frostbite Engine auf und ist eher AMD Domäne. Schau mal Battlefield Benchmarks.
Ich weiß, das hört die AMD Gemeinde nicht gerne, wenn es nach der ginge, zählen nur ein paar ausgesuchte Spiele, die dann als "neue" Spiele umetikettiert werden, das passiert bei jedem Launch und ist immer dieselbe Schallplatte.
Oh, du arbeitest im NV-Treiberteam? Dann fixed doch bitte mal als erstes den Bug, dass die Karten in Idle nicht 50W verbraten :P
dargo
2020-11-24, 07:18:20
Star Wars Squadrons, Watch Dogs: Legion, Dirt 5, COD BOCW, AC Valhalla
Dazu gesellen sich Godfall, Death Stranding, MFS 2020, Rainbow Six Siege, F1 2020, Gears 5, WWZ, Metro Exodus und Hitman 2. Alles Spiele wo die RX 6800XT @1440p vor der RTX 3080 und teilweise vor der RTX 3090 liegt. Aber es sind natürlich nur 3 Spiele laut Stretcher. :facepalm:
https://youtu.be/ZtxrrrkkTjc
1440p war für mich in diesem Zusammenhang nicht wichtig. Ich wollte nur aufzeigen, was BN unter maxed out in 4K zu leisten im Stande ist. Sicher gibt es da noch mehr Spiele, wie z.B. Horizon, welches aber auch älter ist
dargo
2020-11-24, 07:40:28
1440p war für mich in diesem Zusammenhang nicht wichtig.
Kein Problem. Wer in 4k zockt schaut sich natürlich 4K Benches an. :) Da ich in 1440p zocke ist für mich persönlich nur 1440p relevant. Über kurz oder lang werde ich da aber wohl Zen3(+) kaufen müssen damit sich die RX 6800(XT) ordentlicher von der RX 5700XT absetzen kann. :tongue:
Edit:
Wie genau ist MSI bei der Wattage-Angaben?
https://de.msi.com/Graphics-Card/Radeon-RX-6800-XT-GAMING-X-TRIO-16G/Specification
Wundert mich etwas, dass die Karte mit 300W angegeben ist. Mit 289W TGP liegt die garantiert drüber. Oder hat hier MSI einfach nur die AMD-Angaben übernommen?
btw.
Morgen wird auch die MSI RX 6800XT SUPRIM vorgestellt.
z9-5jRkbW24
Da geht dann MSI wohl in die Vollen, schon die RTX 3080 säuft 377W (wobei die Verbrauchsmessungen von luxx eher fraglich sind). X-D
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54695-wuchtiger-auftritt-msi-geforce-rtx-3080-suprim-x-im-test.html?start=3
Oder bezieht sich die SUPRIM nur auf Geforce?
Armaq
2020-11-24, 09:42:33
Sagt doch auch keiner, dass RT scheiße ist. Ganz im Gegenteil, alle wollen es.
Aber zur Zeit halten sich die grafischen Verbesserungen von RT doch sehr in Grenzen.
Wenn man sich dann noch die Performancekosten dafür anguckt, dann kann man RT zur Zeit einfach nicht als Vorteil herausstellen.
Wenn die Grafikkarten alle 400fps in UHD bringen würden und man nicht wohin wüsste mit der Power, dann wäre jedes bisschen mehr RT natürlich erwünscht. Da sind wir aber noch nicht.
Deswegen, gucken was man jetzt braucht und danach auswählen.
Und vielleicht ein bisschen den Underdog pushen, damit er den quasi Monopolisten weiter Feuer unterm Hintern macht. ;)
Ich kann da nur zT. zustimmen. RT sieht es sehr viel besser aus, aber bspw. in WD Legion ist es komplett unspielbar ohne DLSS und DLSS ist sogar noch verkackt aus meiner Sicht in WD Legion. Cold War macht das deutlich besser, auch wenn es keine krassen Spiegelungen gibt, sondern punktuelle Verbesserungen - diese sind im Spiel deutlich sichtbar, auf Screenshots nicht.
Hott3X
2020-11-24, 11:17:31
Die Red Dragon sieht echt nice aus. Leider genauso lang wie die Devil.
https://videocardz.com/newz/powercolor-radeon-rx-6800-red-dragon-pictured
-/\-CruNcher-/\-
2020-11-24, 11:41:04
In drei Jahren ist der Vorteil von 16 GB vs. 8 GB (RX 6800 vs. RTX 3070) imo größer als der Vorteil durch die dedizierte Hardware für Raytracing bei NV.
Wenn man seine Entscheidung aufgrund der Raytracing-Performance trifft, dann imo auf Basis aktueller Spiele, die auf einer RTX 3070 noch mit Raytracing spielbar sind.
Das Gleiche gilt auch für RX 6800 XT vs. RTX 3080.
Vergessen darf man nicht, dass Navi 2 die Basis der neuen Konsolen ist. Somit wird Raytracing auf Navi 2 noch viel Optimierung erfahren, von der auch der PC profitiert.
Ich persönlich würde aktuell bei CPU und GPU zu Underdog AMD greifen, man geht mit dem Paket kaum Kompromisse ein. Den Kompromiss zu nur 8 oder 10 GiB VRAM finde ich schwerer verdaulich.
Wenn viele es nicht hinbekommen ordentlich zu optimieren die möglichkeiten das VRAM problem zu kompensieren stehen besser als das RT problem für die meisten in den Griff zu bekommen ;)
Es ist eine interessante Balancing Kosten Frage und es geht um Problemlösungansätze
Nvidia ist nochmals gesagt nicht dumm die meisten ihrer Entscheidungen auf die Zukunft gesehen sind sehr genau auch an ihren eigenen R&D fortschritten ausgelegt die niemand von euch bis jetzt kennt ;)
Und DLSS ist momentan das Master beispiel es gab nicht viele Entwicklungen die solch einen Impact hatten das sie plötzlich ganze Chip Design Entscheidungen gegen die Konkurenz beinflussen.
Das ist teils ein Wendepunkt an dem Nvidia ganz vorne stehen will mit sofortigen solutions in ihrem Stack.
Und zu demonstrieren das sie trotzdem mit schlechterem Node und weniger VRAM immernoch stabil stehen können das beindruckt eine menge leute momentan und wird nicht ungesehen bleiben.
Viele haben es immernoch nicht begriffen aber Nvidia hat vieler ihrer tiefsten Architekturprobleme gelöst durch interessante teils gewagte Entscheidungen.
Nvidia kompensiert alle Konsolenvorteile momentan noch Perfekt.
BlacKi
2020-11-24, 11:43:27
Treiber Overhead in DX11 mit UE4.0.
In 1080 Ultra droppt die 6800XT gern mal auf 150 Watt.
https://youtu.be/0pJKw75vFro?t=387
so hart? die differenz beträgt 34%?
ich kann mir das kaum vorstellen. das war doch mit der rx 5700xt nicht so krass und vega64 war im cpu limit sogar schneller als die pascal serie.
wenn das stimmt, dann will ich garnicht die extremstellen testen die es in pubg gibt, wo eine nv karte mit 5ghz cpu gerade so über 100fps bleibt.
r3ptil3
2020-11-24, 11:46:25
so hart? die differenz beträgt 34%?
ich kann mir das kaum vorstellen. das war doch mit der rx 5700xt nicht so krass und vega64 war im cpu limit sogar schneller als die pascal serie.
wenn das stimmt, dann will ich garnicht die extremstellen testen die es in pubg gibt, wo eine nv karte mit 5ghz cpu gerade so über 100fps bleibt.
Wir können gerne Vergleichstests machen, da du ja eine 3090 hast.
Am besten mit Screenshot+FPS (und allen anderen Angaben) aus einer beliebigen Stelle im Trainingsgelände.
BlacKi
2020-11-24, 11:53:57
Am besten mit Screenshot+FPS (und allen anderen Angaben) aus einer beliebigen Stelle im Trainingsgelände.
gerne, schaffe ich aber erst heute abend. du kannst mir aber auch deine szene mitteilen, dann teste ich dich nach. aber ist das nicht unfair? hast du nicht schon eine zen3 cpu? egal können wir trotzdem gerne machen^^
r3ptil3
2020-11-24, 12:01:20
gerne, schaffe ich aber erst heute abend. du kannst mir aber auch deine szene mitteilen, dann teste ich dich nach. aber ist das nicht unfair? hast du nicht schon eine zen3 cpu? egal können wir trotzdem gerne machen^^
Ein 8700k@5.0Ghz und ein 5600X nehmen sich wohl nicht soo viel.
Aber wir können ja mal schauen was rauskommt.
aufkrawall
2020-11-24, 12:15:30
und vega64 war im cpu limit sogar schneller als die pascal serie.
Wo soll das bei DX11 der Fall gewesen sein?
BlacKi
2020-11-24, 12:49:32
Wo soll das bei DX11 der Fall gewesen sein?ja pubg halt. ich glaub die pcgh hatte das mal getestet.
jap genauso hatte ich das in erinnerung, unter fhd war selbst die v56 schneller als die 1080ti im cpu limitierten yasnaya.
https://www.pcgameshardware.de/Playerunknowns-Battlegrounds-Spiel-60812/Specials/Playerunknowns-Battlegrounds-neue-Benchmarks-Vega-1236260/
Redneck
2020-11-24, 14:22:28
Ich finde es immer wieder witzig wie AMD Fans mit "aber schaut mal die modernen Spiele" argumentieren und dann nicht mal eine Hand voll zusammenbekommen. Statistisch gesehen völlig irrelevant, weil bei 3 dieser fünf Spiele Ampere GPUs nicht skalieren, ergo ein Treiber diese Probleme noch angehen wird und COD ist schon seit Jahren AMD Domäne...
AC, da hängt der Nvidia Treiber noch, schau auf die Skalierung von Ampere.
Dirt, COD, sind AMD Domänen, wie auch Squadron, baut auf der Frostbite Engine auf und ist eher AMD Domäne. Schau mal Battlefield Benchmarks.
Ich weiß, das hört die AMD Gemeinde nicht gerne, wenn es nach der ginge, zählen nur ein paar ausgesuchte Spiele, die dann als "neue" Spiele umetikettiert werden, das passiert bei jedem Launch und ist immer dieselbe Schallplatte.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark)
Lies doch gefälligst selber nach... 5 zu 2 bei 7 zusätzlich getesteten "neuen" Games bei Computerbase.
Sind im übrigen 5 = eine Handvoll
WedgeAntilles
2020-11-24, 14:42:59
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_zusatz_sieben_topaktuelle_spiele_im_benchmark)
Lies doch gefälligst selber nach... 5 zu 2 bei 7 zusätzlich getesteten "neuen" Games bei Computerbase.
Sind im übrigen 5 = eine Handvoll
Das sind über diese 7 Spiele im Durchschnitt 3% mehr Performance der 6800XT vs 3080.
Ohne RT.
Mit RT ist die 3080 schneller (mehr als 3%...).
Mit RT + DLSS ist die 3080 erheblich schneller.
Zufälligerweise haben aber neue Spiele tendenziell eher RT als die Alten.
Ob da jetzt ne 6800XT wirklich die bessere Karte als die 3080 ist sei deswegen mal dahingestellt.
Wie wichtig RT genau wird weiß man nicht, wie wichtig genau 16GB Ram vs 10GB Ram werden weiß man nicht.
Beides gute Karten, beide Karten nicht perfekt.
Wieso man sich jetzt wegen 3!!% einen runterholt entzieht sich mir.
Das sind über diese 7 Spiele im Durchschnitt 3% mehr Performance der 6800XT vs 3080.
Ohne RT.
Mit RT ist die 3080 schneller (mehr als 3%...).
Mit RT + DLSS ist die 3080 erheblich schneller.
Zufälligerweise haben aber neue Spiele tendenziell eher RT als die Alten.
Ob da jetzt ne 6800XT wirklich die bessere Karte als die 3080 ist sei deswegen mal dahingestellt.
Wie wichtig RT genau wird weiß man nicht, wie wichtig genau 16GB Ram vs 10GB Ram werden weiß man nicht.
Beides gute Karten, beide Karten nicht perfekt.
Wieso man sich jetzt wegen 3!!% einen runterholt entzieht sich mir.
Ohne DLSS dürfte es in 4k auch oft sehr eng werden mit dem zur Verfügung stehenden Vram und RT :tongue:
Screemer
2020-11-24, 14:48:28
Wieso man sich jetzt wegen 3!!% einen runterholt entzieht sich mir.
Das frag ich mich bei deinem Post auch. Stretchers posts hier im Thread sind alle anti-amd und der komplette bias den sie enthalten wurden mit links widerlegt. Warum musst du da jetzt noch einmal nachkarten?
Redneck
2020-11-24, 15:12:20
Das sind über diese 7 Spiele im Durchschnitt 3% mehr Performance der 6800XT vs 3080.
Ohne RT.
Mit RT ist die 3080 schneller (mehr als 3%...).
Mit RT + DLSS ist die 3080 erheblich schneller.
Zufälligerweise haben aber neue Spiele tendenziell eher RT als die Alten.
Ob da jetzt ne 6800XT wirklich die bessere Karte als die 3080 ist sei deswegen mal dahingestellt.
Wie wichtig RT genau wird weiß man nicht, wie wichtig genau 16GB Ram vs 10GB Ram werden weiß man nicht.
Beides gute Karten, beide Karten nicht perfekt.
Wieso man sich jetzt wegen 3!!% einen runterholt entzieht sich mir.
Tut ja keiner , aber das Gegenteil zu behaupten wäre falsch. Das sind nun einmal die Zahlen/Fakten .
Wollen wir wetten, das die überwiegende Mehrzahl an neu erscheinenden Spielen KEIN RT enthalten ? Eher werden die Spiele mit RT Effekten überschaubar bleiben und dann auf Konsolen hin optimiert sein und damit dürften diese Effekte auch zufriedenstellend auf 6800er laufen, ob es Dir nun paßt oder nicht. Das RT bei NV>AMD sein kann/wird , ist erstmal noch offen Da wird man erstmal sehen müssen, welchen Effekt PS5/XBX im RT auf 6800/3080 haben werden.
blaidd
2020-11-24, 16:19:06
UEFI-Update des Asus X570 Crosshair Hero VIII von Version 2402 Beta auf 2502 gemacht.
SAM goes *brrrrr*
Call of Duty Blops Cold War in Full HD (maxed, RT off)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72374&stc=1&d=1606231016
(Vorher hatte ich in Call of Duty so 2-3 % Performance-Plus mit der RX 6800 gemessen, jetzt sind's eher 10-15 % - in hohen Auflösungen allerdings merklich weniger)
Und auch im CPU-Limit sind's +9%.
(CPU-lastigere Testsequenz, 720p/66% Res-Scale, max. Detail, RT off)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72375&stc=1&d=1606231016
Damit haben wir in Zukunft bestimmt noch Spaß^^
Screemer
2020-11-24, 16:32:29
Ja lol. Machste den Vergleich bitte auch noch mal mit rt?
blaidd
2020-11-24, 18:21:36
Über kurz oder lang sicher. Ich kann aber noch nicht sagen, ob für CoD im Rahmen eines regulären Online-Tests zum jetzigen Zeitpunkt (bei uns in der Redaktion ist grad Umzug im Gange, das nimmt aktuell relativ viel Zeit in Anspruch).
Aber zumindest etwas später sicherlich. Das scheint auch bei RT ein wenig zu bringen (bzw. hat schon minimal was gebracht, mit der alten UEFI-Beta-Version) und die ganzen neuen Spiele gehören sowieso nochmal richtig durchgetestet. Also ja, das ist eingeplant. Nur die genaue Form noch nicht.
(Btw. Wen's interessiert, wir aktualisieren wohl in Kürze auch unsere Testsysteme von R9 3900X OC auf R9 5950X OC - das da sind die ersten Probeläufe mit Noch-Standard-Taktraten und zahmen Speicher-Timings... das Teil fetzt. :cool:)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72378&stc=1&d=1606243907
Ex3cut3r
2020-11-24, 18:31:55
Wow. Und dabei ist SAM noch nagelneu. Wird also kaum von Spiele Entwicklern optimiert worden sein. Geile Sache.
blaidd
2020-11-24, 18:41:30
Ist fantastisch. Jetzt kann ich immer antworten, wie ich will. Bzw. arbitär und trotzdem stimmt's (je nachdem ob SAM an oder aus) /s ;)
Wird die RTX 3080 geschlagen (GPU-Limit)? Ja und Nein.
Wird die RTX 3090 geschlagen (CPU-Limit)? Ja und Nein.
Immer muss alles komplizierter werden :freak:
Zum Glück scheint's bezüglich SAM bzw. BAR Resize oder Wie-Auch-Immer-Nvidia-Das-Nennen-wird aktuell recht gut voran zu gehen und relativ bald auch generell (zumindest mit neuer Hardware) zu funktionieren. Sonst müssten wir mit noch mehr einzelnen Tests und Plattformen rumhantieren...
erlgrey
2020-11-24, 18:42:05
(Btw. Wen's interessiert, wir aktualisieren wohl in Kürze auch unsere Testsysteme von R9 3900X OC auf R9 5950X OC - das da sind die ersten Probeläufe mit Noch-Standard-Taktraten und zahmen Speicher-Timings... das Teil fetzt. :cool:)
top, hab gehofft, dass das bald passiert. :)
-/\-CruNcher-/\-
2020-11-24, 18:50:12
Tut ja keiner , aber das Gegenteil zu behaupten wäre falsch. Das sind nun einmal die Zahlen/Fakten .
Wollen wir wetten, das die überwiegende Mehrzahl an neu erscheinenden Spielen KEIN RT enthalten ? Eher werden die Spiele mit RT Effekten überschaubar bleiben und dann auf Konsolen hin optimiert sein und damit dürften diese Effekte auch zufriedenstellend auf 6800er laufen, ob es Dir nun paßt oder nicht. Das RT bei NV>AMD sein kann/wird , ist erstmal noch offen Da wird man erstmal sehen müssen, welchen Effekt PS5/XBX im RT auf 6800/3080 haben werden.
Kein Tripple A studio kann sich das wirklich erlauben und selbst bei indies wenn sie es auf Konsole schaffen wirst du überrascht werden.
Zumal jeder will so schnell wie möglich weg von Screenspace, keiner erträgt die Render Probleme wirklich mehr.
Momentan zeichnett sich ab Shadows + Reflections weil das die größten Render problem saver sind und die gesammtkosten relativ überschaubar bleiben.
Shadows + Reflections wird allerdings schon aufwendig genug einer noch größeren Zielgruppe zu ermöglichen je nach Target requirements.
Armaq
2020-11-24, 18:54:17
Ist fantastisch. Jetzt kann ich immer antworten, wie ich will. Bzw. arbitär (je nachdem ob SAM an oder aus) /s ;)
Wird die RTX 3080 geschlagen (GPU-Limit)? Ja und Nein.
Wird die RTX 3090 geschlagen (CPU-Limit)? Ja und Nein.
Immer muss alles komplizierter werden :freak:
Zum Glück scheint's bezüglich SAM bzw. BAR Resize oder Wie-Auch-Immer-Nvidia-Das-Nennen-wird aktuell recht gut voran zu gehen und relativ bald auch generell (zumindest mit neuer Hardware) zu funktionieren. Sonst müssten wir mit noch mehr einzelnen Tests und Plattformen rumhantieren...
Oder man macht Tests mit SAM und DLSS solange es verfügbar ist. Dann wird der Spread je Anwendung höher, aber insgesamt sieht man die Vorteile von a und b deutlicher. So ist SAM ja ne richtige Waffe. :)
DennisO2
2020-11-24, 19:02:11
Über kurz oder lang sicher. Ich kann aber noch nicht sagen, ob für CoD im Rahmen eines regulären Online-Tests zum jetzigen Zeitpunkt (bei uns in der Redaktion ist grad Umzug im Gange, das nimmt aktuell relativ viel Zeit in Anspruch.
(Btw. Wen's interessiert, wir aktualisieren wohl in Kürze auch unsere Testsysteme von R9 3900X OC auf R9 5950X OC - das da sind die ersten Probeläufe mit Noch-Standard-Taktraten und zahmen Speicher-Timings... das Teil fetzt. :cool:)
Wie schauts denn mit dem nächsten Heft aus? Ist da schon was über das Update zu lesen? Kommen evtl. noch die neuen Herstellerkarten mit rein, die morgen veröffentlicht werden?
[MK2]Mythos
2020-11-24, 19:04:00
Ist fantastisch. Jetzt kann ich immer antworten, wie ich will. Bzw. arbitär (je nachdem ob SAM an oder aus) /s ;)
Wird die RTX 3080 geschlagen (GPU-Limit)? Ja und Nein.
Wird die RTX 3090 geschlagen (CPU-Limit)? Ja und Nein.
Immer muss alles komplizierter werden :freak:
Zum Glück scheint's bezüglich SAM bzw. BAR Resize oder Wie-Auch-Immer-Nvidia-Das-Nennen-wird aktuell recht gut voran zu gehen und relativ bald auch generell (zumindest mit neuer Hardware) zu funktionieren. Sonst müssten wir mit noch mehr einzelnen Tests und Plattformen rumhantieren...
Doofe Frage, gibt es irgendein Tool, welches mir anzeigt ob SAM an oder aus ist? Soweit ich weiß, habe ich alle nötigen Voraussetzungen (Windows 10 im UEFI Modus x570/Ryzen7 5800x/Radeon 6800xt) aber ich hab eben keine Ahnung ob das aktuell läuft.
blaidd
2020-11-24, 19:06:43
Oder man macht Tests mit SAM und DLSS solange es verfügbar ist. Dann wird der Spread je Anwendung höher, aber insgesamt sieht man die Vorteile von a und b deutlicher. So ist SAM ja ne richtige Waffe. :)
DLSS ist glaube ich generell und was die Performance betrifft aber immer noch im Vorteil - und eher deutlich. Bei SAM gibt's allerdings (Disclaimer: Ich habe jedenfalls bislang nichts auffälliges diesbezüglich feststellen können) keine tendenziellen Nachteile (abgesehen von einem eventuell minimal erhöhten Verbrauch, da nun das System effizienter ist und zumindest theoretisch besser ausgelastet wird, da weniger Stalls durch vermeidbare Memory-Copy-Vorgänge entstehen).
Bei DLSS hast du zumindest in einigen Bereichen und generalisiert auch eine leichte Verschlechterung bei der Bildqualität (selbst bei DLSS 2.0, das durchaus auch andere Stellen wie z.B. die Bildschärfe oder Homogenität erhöhen kann - und allein der Fps-Zugewinn bringt im temporalen Zeitalter auch optische Gewinne. Ich find DLSS mittlerweile ziemlich super, ich fänd's aber halt noch viel geiler, wenn es da eine non-hardware-gebundene Alternative gäbe)
Und bei DLSS werden die Zugewinne bei steigender Auflösung höher, bei SAM ist es andersrum. SAM bringt dann was, wenn die Zugriffzeiten auf den Speicher eine höhere Priorität einnehmen - also bei niedrigen Bildberechnungszeiten bzw. hohen Bildraten. DLSS bringt eher was bei niedrigen Bildraten und langen Bildberechnungszeiten, weil es die effektiven Pixel reduziert, die berechnet werden müssen.
Wir werden beides betrachten müssen - und das ist ja auch okay, zumindest in einem gewissen Rahmen. Wenn Spiele einfach immer und auf jeder Hardware gut funktionieren würde, hätte ich keinen Job (und wohl auch privat weniger Lust und Frust beim PC-Schrauben. Nur Gleichförmigkeit ist halt auch langweilig.) ;)
Mythos;12511884']Doofe Frage, gibt es irgendein Tool, welches mir anzeigt ob SAM an oder aus ist? Soweit ich weiß, habe ich alle nötigen Voraussetzungen (Windows 10 im UEFI Modus x570/Ryzen7 5800x/Radeon 6800xt) aber ich hab eben keine Ahnung ob das aktuell läuft.
Du musst das im UEFI zuschalten (und erstmal rausfinden, ob's für dein Board schon ein entsprechendes Update gibt).
Die Option heißt BAR Rezise oder so ähnlich (je nach UEFI).
Ich hab bei meinem Asrock X570 Pro4 daheim noch nicht installiert (das war eins von 4 Boards,die direkt zum RX 6800-Launch Support boten - offenbar nicht in jedem Fall besonders gut), sonst würd ich mal schauen, wie's da heißt.
Beim Asus Crosshair Hero sieht das so aus (Bild geklaut). Beim Asus-Brett taucht die Option erst dann auf, wenn eine SAM-fähige GPU verbaut ist UND die Option 'Above 4G Decoding' aktiviert ist!
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72376&stc=1&d=1606241742
Ich wüsste nicht, das man das bislang mit irgendeinem Tool auslesen kann. Man sieht's halt im UEFI und dann, wenn man die Performance vergleicht (zumindest in einigen Fällen, ob SAM jetzt überall nochmal so zulegt, kann ich erst sagen, wenn ich jetzt nochmal ein paar Spiele teste. CoD ist jetzt aber zumindest auf der eindrücklichen Seite)
[MK2]Mythos
2020-11-24, 19:30:18
Danke, war natürlich aus weil "Above 4G Decoding" deaktiviert war. :freak:
Jetzt sollte es aber an sein, gleich mal benchen...
Edit: Ein schneller Benchmark Firekstrike offenbarte kein Veränderung abseits der Messungenauigkeit.
Benutzername
2020-11-24, 19:47:09
Hatten wir schon Linux?
ykiU49gTNak
tl;dw: läuft wie erwartet gut und kein PCIe reset bug und PCIe passthrough läuft problemlos. Testsystem ist ein Threadripper und unter anderem ein Windows in einer VM (oder ein paar mehr). :biggrin: Dabei hat der Threadripper ja noch gar kein PCIe4.0! :eek: Kein SAM Setbonus! :wink:
bonus: Erwähnung der Matrox Millenium :love2:
-------------------
Radeon RX 6800 Series Performance Comes Out Even Faster With Newest Linux Code (https://www.phoronix.com/scan.php?page=article&item=rx6800-more-performance&num=1) (Phoronix)
horn 12
2020-11-24, 19:53:20
@Patrick Schur
Ist die Sapphire RX 6800 Pulse (Ohne XT)
fast so schnell wie die Referenz AMD XT Karte
und sogar noch leiser als die Referenz AMD 6800XT ?
Dank Dir!
blaidd
2020-11-24, 20:32:26
Mythos;12511920']Danke, war natürlich aus weil "Above 4G Decoding" deaktiviert war. :freak:
Jetzt sollte es aber an sein, gleich mal benchen...
Edit: Ein schneller Benchmark Firekstrike offenbarte kein Veränderung abseits der Messungenauigkeit.
Naja, der Benchmark läuft ja aber auch immer praktisch identisch ab und ist sehr beschränkt/spezifisch... in einigen Situationen sicherlich ein Vorteil, aber bei sowas ist es nun ja auch sehr wahrscheinlich, dass die Devs den genauen Ablauf kennen und die Speicherzugriffe optimal voraussagen bzw. extrem optimiert vornehmen können.
Ich will nicht explizit sagen, dass dem so ist, aber tendenziell würde ich bei einem synthetischen Benchmark aufgrund genau dieser Vorhersehbarkeit in Gegenüberstellung mit dynamischeren Umständen auch nur relativ geringe Zugewinne durch so etwas wie SAM erwarten (Wenn du Zugang zu sowas hast: Versuch z.B. mal den Benchmark eines Open-World-Games).
So 3080 TUF OC verkauft und übermorgen sollte die 6800XT hier eintreffen ..
Zwecks OC würde ich folgendermaßen vorgehen: Vcore soweit senken, bis es nicht mehr stabil läuft und anschließend den Takt der Vcore anpassen - richtig soweit?
[MK2]Mythos
2020-11-24, 21:20:14
So 3080 TUF OC verkauft und übermorgen sollte die 6800XT hier eintreffen ..
Zwecks OC würde ich folgendermaßen vorgehen: Vcore soweit senken, bis es nicht mehr stabil läuft und anschließend den Takt der Vcore anpassen - richtig soweit?
Da die Karte zumindest bei mir aktuell wahllos die vcore bis aufs Maximum anlegt, egal was ich eingestellt habe, ist das zwar ne charmante Idee, mehr aber auch nicht.
TwoBeers
2020-11-24, 21:25:17
Also bei mir wird die Core Voltage in HWInfo immer mit 1150mV angezeigt, aber es sind Unterschiede in MHz und Core Power zu sehen, je nach angelegter Core Voltage.
Von daher würde ich mal noch von einem Anzeigebug ausgehen.
@gedi: Wenn du den Wattman auf "default" stellst, dann hat der 1150mV und 2450MHz (man kann nur noch Pmax einstellen). Mach mal nen Lauf und du siehst, dass die Karte die 2450MHz nicht halten wird, eher so 2300-2400. Stell dann mal auf 1100 und die 2450 werden schon viel öfter gehalten (Pmax erreicht).
Ich hab momentan 2600 bei 1025mV, das führt zu relativ stabilen 2500.
Würde eine 6800XT auch auf einem B350 Board laufen?
Der_Korken
2020-11-24, 21:40:24
@Patrick Schur
Ist die Sapphire RX 6800 Pulse (Ohne XT)
fast so schnell wie die Referenz AMD XT Karte
und sogar noch leiser als die Referenz AMD 6800XT ?
Dank Dir!
Ich antworte mal stellvertretend für ihn: Nein, die Pulse wird maximal 3% schneller als die Referenz sein. Und ja, die Pulse wird leiser als die 6800XT-Referenz.
Quelle? 5700er Reviews auf CB und gesunder Menschenverstand.
Also bei mir wird die Core Voltage in HWInfo immer mit 1150mV angezeigt, aber es sind Unterschiede in MHz und Core Power zu sehen, je nach angelegter Core Voltage.
Von daher würde ich mal noch von einem Anzeigebug ausgehen.
@gedi: Wenn du den Wattman auf "default" stellst, dann hat der 1150mV und 2450MHz (man kann nur noch Pmax einstellen). Mach mal nen Lauf und du siehst, dass die Karte die 2450MHz nicht halten wird, eher so 2300-2400. Stell dann mal auf 1100 und die 2450 werden schon viel öfter gehalten (Pmax erreicht).
Ich hab momentan 2600 bei 1025mV, das führt zu relativ stabilen 2500.
Funktioniert der AB (noch) nicht mit ner 6800? Den WM würde ich nur in Ausnahmefällen benutzen wollen ... - also wenn keine Third-Party App funktioniert :freak:
TwoBeers
2020-11-24, 22:23:12
Funktioniert der AB (noch) nicht mit ner 6800? Den WM würde ich nur in Ausnahmefällen benutzen wollen ... - also wenn keine Third-Party App funktioniert :freak:
AB kann nur anzeigen, keine Voltage / Clock einstellen.
Aber hey, ich hab WM vorher auch nie benutzt, der geht aber wirklich gut. Und irgendwie macht es ja auch Sinn eher das Tool vom Hersteller zu benutzen, als ein Third Party Tool oder? ;)
Viel einstellen kann man auch nicht, max Clock, Voltage, max Mem Clock, Fan Curve, Power Limit. Das wars. Sehr einfach und schnell. :)
AB kann nur anzeigen, keine Voltage / Clock einstellen.
Aber hey, ich hab WM vorher auch nie benutzt, der geht aber wirklich gut. Und irgendwie macht es ja auch Sinn eher das Tool vom Hersteller zu benutzen, als ein Third Party Tool oder? ;)
Viel einstellen kann man auch nicht, max Clock, Voltage, max Mem Clock, Fan Curve, Power Limit. Das wars. Sehr einfach und schnell. :)
Das gabs früher schon - trotzdem hat mich der WM früher wirklich zur Verzweiflung getrieben (V64 LCE) :redface:
Die 6800XT ist aber von MSI - vielleicht habe ich Glück?!
aufkrawall
2020-11-24, 22:33:30
Der AB merkt sich halt brav die Settings bis in alle Ewigkeit, inkls. kompletter Treiber-Neuinstallationen.
Lüfterkurve via AB macht mir mit Navi 1 allerdings immer noch Ruckler. :freak:
Da bleibt nur MPT für ein gescheites Ergebnis...
TwoBeers
2020-11-24, 22:35:55
Im WM kann man die settings per .xml speichern.
Ich hab mir die defaults gespeichert und dann ein paar andere Profile.
Die kann man super auch nach einer Neuinstallation aufrufen, klick, klick, fertig.
Der AB merkt sich halt brav die Settings bis in alle Ewigkeit, inkls. kompletter Treiber-Neuinstallationen.
Lüfterkurve via AB macht mir mit Navi 1 allerdings immer noch Ruckler. :freak:
Da bleibt nur MPT für ein gescheites Ergebnis...
Der kommt eh zum Einsatz. Radeon ohne MPT - ist irgendwie wie ein Pornofilm wo keine Kamera zum Einsatz kommt :freak:
Szudri
2020-11-24, 22:46:42
Ich antworte mal stellvertretend für ihn: Nein, die Pulse wird maximal 3% schneller als die Referenz sein. Und ja, die Pulse wird leiser als die 6800XT-Referenz.
Quelle? 5700er Reviews auf CB und gesunder Menschenverstand.
Also 37db gg 37db dann oder wie?
Der_Korken
2020-11-24, 22:51:13
Also 37db gg 37db dann oder wie?
Vielleicht. Die 5700XT Pulse kommt bei CB @stock auf 37dB mit dem Silent-BIOS (und 38dB mit dem Normalen). Die 6800 verbraucht ähnlich viel, ist aber wesentlich leichter zu kühlen wegen der doppelten Chipfläche. Dazu ist der Pulse-Kühler bei der 6800 deutlich größer und hat 3 statt 2 Lüfter. Ich würde hier eine sehr leise Karte erwarten. Für max. Performance ist die Nitro da. Vermutlich hätte für die nonXT auch der alte Pulse-Kühler gereicht.
Würde eine 6800XT auch auf einem B350 Board laufen?
Klaro. Dann halt ohne SAM, auch wenn du einen Ryzen 5000 reinstopfst.
MfG
Raff
aufkrawall
2020-11-24, 23:13:58
Der kommt eh zum Einsatz. Radeon ohne MPT - ist irgendwie wie ein Pornofilm wo keine Kamera zum Einsatz kommt :freak:
Ich würde lieber drauf verzichten, unter Linux gehts auch ohne diesen Hack.
SKYNET
2020-11-24, 23:22:56
Klaro. Dann halt ohne SAM, auch wenn du einen Ryzen 5000 reinstopfst.
MfG
Raff
beta biose sind schon in arbeit... SAM wird auf B350/X370 laufen.
TwoBeers
2020-11-24, 23:30:40
Momentan kann man mit dem MPT noch wenig machen, solange man kein BIOS hat um die SPPT zu füllen.
GPU-Z kann das BIOS der 6800er (XT) noch nicht auslesen.
Bisher geht nur Wattman, um irgendwas einzustellen.
r3ptil3
2020-11-24, 23:58:25
Sapphire Nitro+ RX 6800 XT
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6800-XT-NITRO-pictured-up-close-2.jpg
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6800-XT-NITRO-pictured-up-close-1.jpg
https://videocardz.com/newz/sapphire-radeon-rx-6800-xt-nitro-pictured-up-close
Die graue Backplate müsste jetzt nicht unbedingt sein, aber mal schauen was die Karte an Kühlleistung bringt. :)
SKYNET
2020-11-25, 00:31:12
decepticon logo... uiuiui
Langlay
2020-11-25, 01:24:23
Ich find die Nitro recht sexy, gefällt mir besser als die Red Devil.
dildo4u
2020-11-25, 07:19:58
Keine Karten für Microcenter in den USA, Mal sehen wie es in der EU aussieht.
https://community.microcenter.com/discussion/5822/rx-6000-series-stock-from-aib-board-partners
dargo
2020-11-25, 07:27:02
Sapphire Nitro+ RX 6800 XT
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6800-XT-NITRO-pictured-up-close-2.jpg
https://cdn.videocardz.com/1/2020/11/Sapphire-Radeon-RX-6800-XT-NITRO-pictured-up-close-1.jpg
https://videocardz.com/newz/sapphire-radeon-rx-6800-xt-nitro-pictured-up-close
Bisher mein Favorit. Werden heute die Customs getestet?
Dschounz
2020-11-25, 07:34:01
Bisher mein Favorit. Werden heute die Customs getestet?
Die Nitro hab ich auch im Auge :up:
Die Reviews müssten um 15 Uhr online gehen bei den üblichen Verdächtigen. Igor hat gespoilert im letzten Video, er hätte da was von Sapphire....:biggrin:
Aber ich glaube nicht, dass wir heute außer Reviews was bekommen...scheint noch keine/kaum Karten im Verkauf zu geben.
dargo
2020-11-25, 07:36:48
Aber ich glaube nicht, dass wir heute außer Reviews was bekommen...scheint noch keine/kaum Karten im Verkauf zu geben.
Ich habe Zeit, die überhöhten Preise am Anfang zahle ich aus Prinzip nicht. :) Erst recht da das Speichermanagment in HZD mit dem Patch 1.08 gestern endlich repariert wurde. Zudem weiß ich immer noch nicht ob ich eine RX 6800XT @255W TGP oder eine RX 6800 @230W TGP nehmen soll. :freak: Das einzige was klar ist... eine RX 6800XT @289W TGP will ich nicht. Wobei es da mit hoher Wahrscheinlichkeit eh zwei Biose mit unterschiedlichen PTs geben wird.
Undervolten kannst du immer - Power bei Bedarf "herhaxx0rn" nicht (dito Kühlfläche). :)
MfG
Raff
Dschounz
2020-11-25, 08:13:22
Undervolten kannst du immer - Power bei Bedarf "herhaxx0rn" nicht (dito Kühlfläche). :)
MfG
Raff
+1
So seh ich das auch; die Kühlung/Lautstärke der Karte interessiert mich; den Verbrauch kann man immer noch nach Belieben per Wattman/Afterburner anpassen.
dargo
2020-11-25, 08:21:52
So seh ich das auch; die Kühlung/Lautstärke der Karte interessiert mich; den Verbrauch kann man immer noch nach Belieben per Wattman/Afterburner anpassen.
Kann man eben nicht, es gibt neue Hürden. ;)
nairune
2020-11-25, 08:24:19
Was da geht bleibt noch abzuwarten, im Wattman ja offiziell nur -6% Powerlimit.
Hoffentlich mit dem MPT weiter änderbar.
UV/Taktsenkung hat halt immer das Problem, dass ich einen relativ niedrigen Takt nehmen müsste, damit die Karte bei sehr anspruchsvollen Spielen nicht so viel verbraucht. Bei Spielen, die nicht heizen, verliert man dann aber unnötig viel Performance, da dort der Takt viel höher gehen könnte.
dargo
2020-11-25, 08:33:22
Was da geht bleibt noch abzuwarten, im Wattman ja offiziell nur -6% Powerlimit.
Hoffentlich mit dem MPT weiter änderbar.
Ich hoffe auch da 6% einfach nur ein Witz ist. Ausgehend von 255W TGP komme ich da gerade mal auf 240W runter was wiederum 281W für die ganze RX 6800XT bedeutet wenn man als Basis 299W nimmt. Auf der anderen Seite... wenn der Kühler es sehr leise schafft diese ~280W abzuführen könnte mir das reichen. :uponder: Ich brauche einfach mehr Testergebnisse.
Edit:
Kann jemand Fallback das Referenz-Bios der RX 6800XT beschaffen? Damit hätten wir schon einige UV-Ergebnisse. Igor wollte ihm das Bios nicht geben nachdem 3DC erwähnt wurde. :ubash:
Armaq
2020-11-25, 09:00:16
DLSS ist glaube ich generell und was die Performance betrifft aber immer noch im Vorteil - und eher deutlich. Bei SAM gibt's allerdings (Disclaimer: Ich habe jedenfalls bislang nichts auffälliges diesbezüglich feststellen können) keine tendenziellen Nachteile (abgesehen von einem eventuell minimal erhöhten Verbrauch, da nun das System effizienter ist und zumindest theoretisch besser ausgelastet wird, da weniger Stalls durch vermeidbare Memory-Copy-Vorgänge entstehen).
Bei DLSS hast du zumindest in einigen Bereichen und generalisiert auch eine leichte Verschlechterung bei der Bildqualität (selbst bei DLSS 2.0, das durchaus auch andere Stellen wie z.B. die Bildschärfe oder Homogenität erhöhen kann - und allein der Fps-Zugewinn bringt im temporalen Zeitalter auch optische Gewinne. Ich find DLSS mittlerweile ziemlich super, ich fänd's aber halt noch viel geiler, wenn es da eine non-hardware-gebundene Alternative gäbe)
Und bei DLSS werden die Zugewinne bei steigender Auflösung höher, bei SAM ist es andersrum. SAM bringt dann was, wenn die Zugriffzeiten auf den Speicher eine höhere Priorität einnehmen - also bei niedrigen Bildberechnungszeiten bzw. hohen Bildraten. DLSS bringt eher was bei niedrigen Bildraten und langen Bildberechnungszeiten, weil es die effektiven Pixel reduziert, die berechnet werden müssen.
Wir werden beides betrachten müssen - und das ist ja auch okay, zumindest in einem gewissen Rahmen. Wenn Spiele einfach immer und auf jeder Hardware gut funktionieren würde, hätte ich keinen Job (und wohl auch privat weniger Lust und Frust beim PC-Schrauben. Nur Gleichförmigkeit ist halt auch langweilig.) ;)
Du musst das im UEFI zuschalten (und erstmal rausfinden, ob's für dein Board schon ein entsprechendes Update gibt).
Die Option heißt BAR Rezise oder so ähnlich (je nach UEFI).
Ich hab bei meinem Asrock X570 Pro4 daheim noch nicht installiert (das war eins von 4 Boards,die direkt zum RX 6800-Launch Support boten - offenbar nicht in jedem Fall besonders gut), sonst würd ich mal schauen, wie's da heißt.
Beim Asus Crosshair Hero sieht das so aus (Bild geklaut). Beim Asus-Brett taucht die Option erst dann auf, wenn eine SAM-fähige GPU verbaut ist UND die Option 'Above 4G Decoding' aktiviert ist!
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72376&stc=1&d=1606241742
Ich wüsste nicht, das man das bislang mit irgendeinem Tool auslesen kann. Man sieht's halt im UEFI und dann, wenn man die Performance vergleicht (zumindest in einigen Fällen, ob SAM jetzt überall nochmal so zulegt, kann ich erst sagen, wenn ich jetzt nochmal ein paar Spiele teste. CoD ist jetzt aber zumindest auf der eindrücklichen Seite)
Ich gehe davon aus, dass sich das in etwa verhält wie die der Zen2 Launch. Da gab es ja auch einige Fehltritte, einfach weil bspw. das BIOS gar nicht richtig funktionierte, oder zu gut (wie in meinem Fall, wo einfach unlimited POWA auf den Chip gegeben wurde).
Ich nehme an Nachtests mit SAM machen hier Sinn, wenn man vll noch eine BIOS Version erlebt hat. Insgesamt aber ne gute Sache für alle, es gibt richtig neue Inhalte zu erschließen uvm. Zen2 war ja auch sehr spannend in seinem Taktverhalten etc, dann kam die RAM Optimierungen und jetzt haben wir halt wieder Futter. Innovation ist geil.
Redneck
2020-11-25, 09:16:59
Gibt es irgendwo eine Übersicht, welche der Partner Karten USB-C haben werden ?
Dschounz
2020-11-25, 10:02:33
Ich hoffe auch da 6% einfach nur ein Witz ist. Ausgehend von 255W TGP komme ich da gerade mal auf 240W runter was wiederum 281W für die ganze RX 6800XT bedeutet wenn man als Basis 299W nimmt. Auf der anderen Seite... wenn der Kühler es sehr leise schafft diese ~280W abzuführen könnte mir das reichen. :uponder: Ich brauche einfach mehr Testergebnisse.
Sorry und danke für die Info, dass ist komplett an mir vorbei gegangen; falls es so bleibt, wäre nur die 6% mit Undervolting möglich, was zu unruhigen Frametimes führen kann lt. Igors Messungen, wenn man es bis zur Grenze der Stabilität treibt und den Takt begrenzt.
Der Verbrauch nimmt leider bei maßvollem Undervolting ohne Taktabsenkung nicht ab :uponder:, die Karte boostet nur höher.
dargo
2020-11-25, 10:12:05
@Dschounz
Lese dir den Artikel durch.
https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/
Bei der RX 6800 konnte Igor so den Verbrauch um 39W senken (Sam Off vs. 2174Mhz @900mV) bei gleichzeitig +4,5% Performance. Bei der angeblich schlechteren Frametime-Varianz die Igor da anspricht beim UV da bin ich noch skeptisch. Ich werde mir das sicherlich auch genauer ansehen. Bei sowas muss man höllisch aufpassen. Ich weiß nicht wie genau Igor da vorgeht, aber bei solchen Geschichten sind mehrere Messungen Pflicht! Davon dann den Schnitt ermitteln.
Edit:
Schaut man sich nämlich das hier an hätte die RX 6800 @Default die schlechtesten Frametimes in seinem Test. :freak: Quatsch... hellblau ist ja 2174Mhz @900mV. Man... kann er nicht andere Farben wählen? :tongue:
https://www.igorslab.de/wp-content/uploads/2020/11/Borderlands-3-FrameTimeoB-2560-x-1440-DX12-Badass-Quality-1.png
Wie gesagt... vorerst mit Vorsicht genießen.
Dschounz
2020-11-25, 10:19:41
@Dschounz
Lese dir den Artikel durch.
https://www.igorslab.de/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt/
Bei der RX 6800 konnte Igor so den Verbrauch um 39W senken (Sam Off vs. 2174Mhz @900mV) bei gleichzeitig +4,5% Performance. Bei der angeblich schlechteren Frametime-Varianz die Igor da anspricht beim UV da bin ich noch skeptisch. Ich werde mir das sicherlich auch genauer ansehen. Bei sowas muss man höllisch aufpassen. Ich weiß nicht wie genau Igor da vorgeht, aber bei solchen Geschichten sind mehrere Messungen Pflicht! Davon dann den Schnitt ermitteln.
Edit:
Schaut man sich nämlich das hier an hätte die RX 6800 @Default die schlechtesten Frametimes in seinem Test. :freak:
https://www.igorslab.de/wp-content/uploads/2020/11/Borderlands-3-FrameTimeoB-2560-x-1440-DX12-Badass-Quality-1.png
Wie gesagt... vorerst mit Vorsicht genießen.
:up:
Danke; also nur die "Ausreißer" sind beim Undervolting höher, die gesamten Frametimes gleichmäßiger.
nochmal Phoronix: Radeon RX 6800 Series 1440p Linux Gaming Benchmarks With 15 GPUs (https://www.phoronix.com/scan.php?page=news_item&px=Radeon-RX-6800-1440p-Linux-Game) - wenig Text viele Benchmarks (https://openbenchmarking.org/result/2011248-HA-1440PRX6808&sor&sgm=1)
user77
2020-11-25, 11:33:05
Die Spikes in den Frametimes habe ich auch mit meiner Vega 56 wenn ich das Powerlimit reduziere auf zB -25%, darüber ist es mir noch nicht aufgefallen. Evtl. weil sie dann mehr regeln muss?
aufkrawall
2020-11-25, 11:38:36
Was da geht bleibt noch abzuwarten, im Wattman ja offiziell nur -6% Powerlimit.
Hoffentlich mit dem MPT weiter änderbar.
Ich kann immer noch nicht nachvollziehen, was ihr mit dem PT-Limit wollt.
Habs nun auch mit Navi getestet und bei ca. 10% Prozent geringerem GPU-only-Verbrauch gibts 5% weniger 1% low fps. Ziemlich schlechte Effizienz-Erhöhung vs. weiteres echtes UV. Die 210W der 5700 XT MSI Gaming sind genau richtig für 1,08V.
dargo
2020-11-25, 11:55:58
Die Spikes in den Frametimes habe ich auch mit meiner Vega 56 wenn ich das Powerlimit reduziere auf zB -25%, darüber ist es mir noch nicht aufgefallen. Evtl. weil sie dann mehr regeln muss?
Ich habe mit -30W + UV bei Navi10 vs. 180W GPU keine Spikes.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12139015&postcount=2767
nairune
2020-11-25, 11:56:09
Ich kann immer noch nicht nachvollziehen, was ihr mit dem PT-Limit wollt.
Das habe ich doch im zweiten, von dir entfernten, Teil des Posts erläutert. UV optimiert die Performance, der absolute Verbrauch sinkt dadurch nicht zwangsläufig, insbesondere mit Navi10.
aufkrawall
2020-11-25, 12:03:09
Das habe ich doch im zweiten, von dir entfernten, Teil des Posts erläutert. UV optimiert die Performance, der absolute Verbrauch sinkt dadurch nicht zwangsläufig, insbesondere mit Navi10.
Der sinkt aber nicht aus magischen Gründen nicht, sondern weil das PT-Limit dauerhaft zu knapp bemessen ist. :freak:
Könnte btw. auch ein Grund sein, warum Navi 1 in 4k etwas Boden vs. Turing verliert.
Zu Borderlands 3: Das ist ziemlich untauglich für Frametime-Analysen, das spiked sowieso ständig.
nairune
2020-11-25, 12:05:51
Videocardz mit Screenshots aus GPU-Z der Nitros bei furmark:
https://videocardz.com/newz/sapphire-radeon-rx-6800-xt-and-rx-6800-nitro-tested-with-furmark
Sind zwar eh nur noch 3 Stunden bis zur "Wahrheit", aber 1300 RPM bei 300W ASIC sind ja Mal nicht übel.
Dant3
2020-11-25, 12:09:43
Jop, 1300 rpm beim Furmark werden unter normalen Bedingungen bzw. spätestens mit leicht angepasster Luefterkurve und leichtem UV richtig leise sein.
r3ptil3
2020-11-25, 12:20:51
2478Mhz auf der Nitro+ 6800 ist auch nicht schlecht.
Mal schauen wie bei den Customs das Taktverhalten generell aussieht und ob daraus real wirklich "spürbar" etwas an Leistungsplus kommt.
dargo
2020-11-25, 12:48:16
Liest GPU-Z jetzt nur die GPU-Power aus oder die ganze Karte? Falls ersteres wären die 302W sportlich. :freak:
btw.
42°C Delta bei der GPU der RX 6800XT Nitro+. :uconf2: Nur 43°C bei 302W (egal ob TGP oder ganze Karte) kann bei Lukü auch nicht wirklich stimmen.
GPU-Power bei Radeons. Die dort abgebildeten Rate-Peaks sollte man nicht überbewerten.
MfG
Raff
dargo
2020-11-25, 12:54:33
GPU-Power bei Radeons.
Autsch... also 350-360W bei der Nitro+ XT incoming. X-D
Nicht verwunderlich, wo die Rafferenzkarte schon mit 300 Watt TBP arbeitet. :)
MfG
Raff
dargo
2020-11-25, 12:56:26
Ich suche aber eine Karte mit dem Bios der Referenz und dem Kühler der Nitro+. :upara: Wobei... wenn der Nitro+ Kühler so leise die enorme Hitze abführen kann dann könnte mir vielleicht der Pulse Kühler auch schon reichen. :uponder:
Savay
2020-11-25, 12:56:36
Ich suche aber eine Karte mit dem Bios der Referenz und dem Kühler der Nitro+. :upara:
Das Silent BIOS wird sicher die Referenz TGP nutzen. Vielleicht sogar drunter.
btw.
42°C Delta bei der GPU der RX 6800XT Nitro+. :uconf2: Nur 43°C bei 302W (egal ob TGP oder ganze Karte) kann bei Lukü auch nicht wirklich stimmen.
Wieso nicht? Die V64 Nitro+ ist da nicht unähnlich...und die hat im Primären BIOS ungefähr 330-340W für die ganze Karte!
https://www.igorslab.de/rx-vega64-custom-card-review/13/
dargo
2020-11-25, 13:00:23
Wieso nicht? Die V64 Nitro+ ist da nicht unähnlich...und die hat ungefähr 330-340W für die ganze Karte!
https://www.igorslab.de/rx-vega64-custom-card-review/13/
Bin ich blind? Wo siehst du da was zu Delta bei der GPU? Ich hatte übrigens selbst eine V64 LCE und nie so einen großen Unterschied bei Delta gesehen.
nairune
2020-11-25, 13:00:44
btw.
42°C Delta bei der GPU der RX 6800XT Nitro+. :uconf2: Nur 43°C bei 302W (egal ob TGP oder ganze Karte) kann bei Lukü auch nicht wirklich stimmen.
Wenn ich da genau hinschaue, ist bei genau diesem einen Wert ein grünes Dingelchen von GPU-Z. Schätze er lässt da (aus Versehen) "min" oder "avg" anzeigen.
Im OSD stehen die korrekten 68°C, also 17° Delta.
dargo
2020-11-25, 13:04:13
Wenn ich da genau hinschaue, ist bei genau diesem einen Wert ein grünes Dingelchen von GPU-Z. Schätze er lässt da (aus Versehen) "min" oder "avg" anzeigen.
Im OSD stehen die korrekten 68°C, also 17° Delta.
Ja lol... :freak:
Das Delta von 17°C bei der RX 6800 ist eher das was ich erwarte. Da die XT bei gleicher Fläche wesentlich mehr heizt erwarte ich bei dieser dann eher um die 20°C.
Im OSD stehen die korrekten 68°C, also 17° Delta.
:cop: :up:
Edit:
Meine Prognose:
Nitro+ XT = 350-360W
Nitro+ non XT = 250-260W
Jeweils Performance-Bios, mal sehen wie treffsicher das ist.
Hakim
2020-11-25, 13:07:02
Gelten die -6% pt auch für die customs?
nairune
2020-11-25, 13:12:13
Kann dir Raff vielleicht beantworten, er muss nur noch zwei Stunden warten ;)
-/\-CruNcher-/\-
2020-11-25, 13:17:50
Undervolten kannst du immer - Power bei Bedarf "herhaxx0rn" nicht (dito Kühlfläche). :)
MfG
Raff
Es ist eher schwerer die fehlenden CUs und RAs für komplexere aufgaben zu ersetzen die mit übertackten nicht kompensiert werden undervolting ist auch nur bis zu einem gewissen grad effizient danach starten die microruckler ;)
TwoBeers
2020-11-25, 14:01:14
Nicht verwunderlich, wo die Rafferenzkarte schon mit 300 Watt TBP arbeitet. :)
MfG
Raff
I see what you did there. ;)
dildo4u
2020-11-25, 15:09:39
Red Devil und Nitro+ bei Computerbase.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/
Nitro+ ist leichter als das Referenz Design.
LzjRPbSIW4I
Der_Korken
2020-11-25, 15:12:24
Aus dem CB Review: https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_lautstaerke__kuehlung
Das neue High-End-Problem: Spulenrasseln
Vor allem die Sapphire Radeon RX 6800 XT Nitro+ würde sich also hervorragend für einen Silent-PC eignen. Praktisch gilt das aber nur bedingt. Die gute Nachricht ist, dass weder die PowerColor-, noch die Sapphire-Karte großartig mit Spulenfiepen zu kämpfen haben, auch nicht bei hohen Frameraten. Jedoch leiden beide Grafikkarten wie jede andere aktuelle High-End-Karte unter einer guten Portion Spulenrasseln, das unabhängig von den FPS unter Last zu hören ist. Das betrifft nicht nur die zwei Custom-Karten und auch nicht nur die Radeon RX 6800 XT allgemein, auch die GeForce RTX 3080 und GeForce RTX 3090 von Nvidia sind betroffen.
Dabei gilt die Devise: Je höher die Leistungsaufnahme, desto ausgeprägter das Spulenrasseln. Ob AMD oder Nvidia, spielt dabei keine Rolle, und auch die verschiedenen Custom-Modelle unterscheiden sich diesbezüglich kaum. Doppelt problematisch ist das Spulenrasseln, weil die neuen Grafikkarten an sich sehr leise sind und das Lüfterrauschen so nicht das Rasseln übertrumpft. So kommt es, dass man von der Radeon RX 6800 XT Nitro+ beim Spielen zwar quasi keine Geräusche von den Lüftern hört, das Spulenrasseln aber schon. Und das fällt auch aus einem geschlossenen Gehäuse beim Spielen auf.
Wer eine neue High-End-Grafikkarte will, muss sich damit offensichtlich vorerst abfinden. Deutlich weniger ausgeprägt ist dieses Phänomen bei einer Radeon RX 6800 oder einer GeForce RTX 3070, die beide wesentlich weniger Strom verbrauchen.
Das klingt ja richtig bescheiden. Ich habe schon mehrfach das komische Zirpen unter Windows erwähnt, das ich mit allen N10-Karten in beiden System hatte (beim Scrollen im Browser oder beim Verschieben von Fenstern z.B. Unter Linux hatte ich das nicht und unter Windows auch nicht, wenn der Treiber noch nicht geladen ist). Ein anderweitiges Brummen ist mir unter Last auch aufgefallen, ich vermute dass CB damit das Spulenrasseln meint. Damit wird die 6800XT für mich umso unattraktiver, wenn man das schon aus einem geschlossenen Gehäuse aus dem Lüftergeräusch raushört ... meine Kiste steht auf dem Tisch.
Interessant aber, dass Sapphire mal wieder ein "Fliegengewicht" ins Rennen wirft und damit trotzdem eine gute Kühlleistung abliefert. 12xx Gramm vs 16xx Gramm der Red Devil und trotzdem ist die Nitro unter Last leiser bei gleichen Temps. Das war bei der 5700er Nitro auch schon ähnlich, aber da war der Gewichtsabstand nicht so krass. Ich denke mal, dass MSI auch einen 1600g-Klotz ins Rennen werfen wird. Von Asus ganz zu schweigen.
nairune
2020-11-25, 15:12:58
Sapphire ist es mal wieder. Trotz 250g weniger als Referenz die beste Kühlung. Mal schauen ob MSI noch was zu bieten hat.
Wegen den Spulen mache ich mir keine Gedanken, ich lege das Teil ja eh an die Leine. Meine N10 ist auch absolut lautlos auf dem Desktop.
r3ptil3
2020-11-25, 15:13:18
Powercolor hat's geschafft - bester Kühler. Hotspot deutlich unter der Sapphire.
Jedoch ist auch die Sapphire alles andere als schlecht, kaum hinter der Powercolor, top OC-Werte und sehr leise.
Ergänzung: Gemäss Techpowerup, bei CB liegen die sehr sehr dicht beieinander.
Blutmaul
2020-11-25, 15:32:32
Bei CB liegt die Sapphire eigentlich sogar leicht vorne, leiser, kühler, leichter, schneller, bei höherem Energieverbrauch.
Aber Strassenpreise von 950 Euro bei gleichzeitiger Nichtverfügbarkeit schrecken ab.
Bei Alternate soll die Asus ROG sogar für 1130 Euro ausverkauft sein.
Ich mach da nicht mit!
Abgesehn davon, das ich nachmessen müßte, was mein Gehäuse hergibt, in der Erinnerung sind es um die 30cm Einbaulänge, die AIB-Karten würden also eh nicht passen.
mironicus
2020-11-25, 15:41:33
UO170MOgukc
2,7 GHz unter Luft.
r3ptil3
2020-11-25, 15:50:38
Sehe ich das nicht richtig oder testet Computerbase wirklich mit einem 3900XT?
ChaosTM
2020-11-25, 15:52:04
2700 Luft und das nicht mal sonderlich laut.. nice
Blutmaul
2020-11-25, 15:53:56
Der Bauer hat auch ein Benchmarkvideo draussen und die Red Devil ist situativ schneller als die 3090 unterhalb von 4k.
https://www.youtube.com/watch?v=UO170MOgukc
r3ptil3
2020-11-25, 15:59:24
Die OC Werte sind einfach genial, aber das Problem ist folgendes:
https://i.ibb.co/PzNMY2Q/rx-rtx.png
Der Mehrtakt setzt sich nicht in einem gleichen Leistungsplus um oder übersehe ich irgendetwas?
Linmoum
2020-11-25, 16:05:48
Und was heißt "tweaked" genau?
prinz_valium_2
2020-11-25, 16:19:35
Fuck. Viel OC Spielraum ist genau das, was ich immer gut finde.
Muss es wohl doch irgendwann mal eine RX6800XT werden.
Wenn es die dann für 599€ gibt^^
-/\-CruNcher-/\-
2020-11-25, 16:21:22
Mein gott wird geschlagen geschlagen geschlagen selbst bei AMD Intel war das bei Zen 2 noch nicht der fall bei Zen 3 ja kann man sagen das war es momentan, selbst der Bauer plappert so einen dünpfiff auf ein Workload Scenario beschränkt mit besserem node gleichstand, mehr sieht man einfach noch nicht.
Und jetzt sollte man sich mal anfangen zu fragen was der Takt hunterschied hier bringt ausser schön auszusehen für jemanden wie der Bauer ;)
boah 2700 MHz ohh ich flipp aus 390W und die selbe Performance :D
Vielleicht ist jetzt das mal das beste was passieren kann zu sehen das die Workloads sich so verändert haben das Takt allein nicht mehr ausschlaggebend ist und das selbst ein besserer Node eine höhere effizienz nicht schlagen kann :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.