PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8

aufkrawall
2020-12-09, 12:57:31
Ich finde echt krass WIE sehr die 6800 einfach nur im Powerlimit hängt, das ist am Ende schon mit Ref-Kühler der einzige limitierende Faktor ab Werk.

Wo reichen die 233W nicht?

gbm31
2020-12-09, 14:12:55
Hmm...

2470MHz Target sind Portroyale Stresstest stabil.

Aber der Bright Memory Bench in der Schleife zwingt mich immer weiter runter mit der Frequenz, aber erst nach ner Stunde oder so.

Mittlerweile bin ich bei 2420MHz Target (~2360).

Muss den mal auch default laufen lassen ob der überhaupt stabil cycled oder irgendwo ein Speicherleck hat.

[edit]

Kein Speicherleck. Mit 2420MHz Target (einfach mal so ausgewählt) und 2150MHz RAM mit fast Timings läuft der seit über 3h.

bnoob
2020-12-09, 16:41:28
Wo reichen die 233W nicht?
"reichen" ist natürlich ein großes Wort, aber @4K klebe ich mit max frequency 2450 MHz auch in normalen Spielen durchaus an den 233W ohne den Chip zu grillen, also bleibt da definitiv signifikant Leistung liegen.

Wie viel? Keine Ahnung.

dargo
2020-12-09, 16:44:25
Dann verstehe ich nicht warum du vom Powerlimit sprichst. Eigentlich liegt die RX 6800 eher im Taktlimit, zumindest @Default.

aufkrawall
2020-12-09, 16:45:02
Was denn nun? "Keine Ahnung", oder doch "signifikant"? :freak:
Eine geringfügige PT-Limit-Drosselung ist überhaupt nicht zu spüren. Und dran denken, dass der ausgelesene Maximaltakt auch ohne Drosselung schon immer ~60MHz niedriger ist als eingestellt.

bnoob
2020-12-09, 16:58:02
Nein der Takt erreicht ~nie die 2450, meistens so um die 2320, das ist nur das eingestellte Maximallimit.

Und ja ich bin kein Hardcore-OCler, ich lote das genau einmal pro Karte stabil aus, also danke für eure Geduld :D

OgrEGT
2020-12-10, 06:45:35
Ok, dann bin ich nicht der Einzige. Der Trixx scheint die Karte nichtmal richtig zu erkennen. NitroGlow funktioniert nicht und Umschalten der Biose per Software-Switch auch nicht. Aber rennt sonst gut das Ding.

Welche TriXX Version hast du installiert?

Neuste Version zum Download bei Sapphire ist 7.5.0.

Wenns damit nicht geht würd ich dem Support ne Mail schicken...

support@sapphiretech.de

gbm31
2020-12-10, 10:43:12
Welche TriXX Version hast du installiert?

Neuste Version zum Download bei Sapphire ist 7.5.0.

Wenns damit nicht geht würd ich dem Support ne Mail schicken...

support@sapphiretech.de

Wir haben alle die selbe Version und sind nicht ganz blöd... ;)

Support ist bereits unterrichtet.

[update]

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72822&stc=1&d=1607623329

OgrEGT
2020-12-10, 22:55:36
Wir haben alle die selbe Version und sind nicht ganz blöd... ;)

Support ist bereits unterrichtet.

[update]

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72822&stc=1&d=1607623329

Sorry, hab ich nicht so gemeint...
Hab jetzt heute die 6800 Nitro eingebaut... und habs jetzt auch gesehen, dass man im TriXX so gut wie nix einstellen kann... Die Beleuchtung würd ich auch gern abschalten...

Folgende Settings im WattMan:
GPU Voltage: 1000mV
GPU Clock Max 2600MHz
VRAM Clock Max 2150MHz
PL 227Watt

Hab mal Superposition und Timespy damit laufen lassen

Super Position 4K Opt 12016
Timespy Graphic Score 15044

GPUZ
GPU Clock Max 2506MHz
VRAM Clock Max 2188Mhz
GPU Temp Max 68°C
TJunct Max 84°C
Fan Max 1909rpm

Also die Karte ist wirklich sehr leise mit den Einstellungen :up:

GerryB
2020-12-11, 09:13:55
Tipps zur XT:
https://www.igorslab.de/der-grosse-radeon-rx-6800-xt-overclocking-und-mod-guide-community/3/

SOC-max V kann gesenkt werden.
Die 950mV lt. Artikel werden sicher net bei Jedem klappen, aber ein Schritt von 1150 auf 1050 o.ä. wäre u.U. hilfreich bei der Hotspottemp.

Bei der Ref mit 255W lohnt sich ein UVen. (mehr W wird eh nur zu hot+laut)

bnoob
2020-12-11, 12:57:11
Hello Club3D DP 1.2 auf HDMI 2.0 Adapter my old friiiiieeeend

HDMI ist mal wieder buggy wie zu besten Vega 64 Zeiten

imprecator2000
2020-12-11, 16:46:03
Servus, hab ne Sapphire 6800 Nitro+ und das Problem das ich die RGB Beleuchtung nicht steuern kann. Mit dem Srixx tool geht es nicht (mit meiner alten 5700xt ging es darüber). Jemand ne idee wie ich das ändern kann?

mfg Imprecator

gbm31
2020-12-11, 17:26:02
Servus, hab ne Sapphire 6800 Nitro+ und das Problem das ich die RGB Beleuchtung nicht steuern kann. Mit dem Srixx tool geht es nicht (mit meiner alten 5700xt ging es darüber). Jemand ne idee wie ich das ändern kann?

mfg Imprecator

Geh mal 4-5 Posts zurück, so lang ist das nicht her... :rolleyes:

OgrEGT
2020-12-11, 20:14:18
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72822&stc=1&d=1607623329

Habe gerade folgende Antwort vom Sapphire Support erhalten.
Die neue Version ist bereits in Arbeit :)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72860&stc=1&d=1607714011

OgrEGT
2020-12-11, 20:17:11
(...)
Folgende Settings im WattMan:
GPU Voltage: 1000mV
GPU Clock Max 2600MHz
VRAM Clock Max 2150MHz
PL 227Watt

Hab mal Superposition und Timespy damit laufen lassen

Super Position 4K Opt 12016
Timespy Graphic Score 15044

GPUZ
GPU Clock Max 2506MHz
VRAM Clock Max 2188Mhz
GPU Temp Max 68°C
TJunct Max 84°C
Fan Max 1909rpm

Also die Karte ist wirklich sehr leise mit den Einstellungen :up:

@gbm31

Was meinst Du zu den Einstellungen/Werten?
Wie läuft Deine?

gbm31
2020-12-11, 23:30:36
@gbm31

Was meinst Du zu den Einstellungen/Werten?
Wie läuft Deine?

2435MHz Target GPU, 975mV, 2150MHz RAM, fast Timings, PT +10%

Timespy Grafik ~16100

Deine ist gut wenn du 2600 Target setzen kannst, aber deine Ergebnisse sind niedrig weil du zu PT limitiert fährst.

Aber 1900rpm? Meine hab ich noch nie höher als 1400rpm gesehen...

Stabilitätstest: Bright Memory RTX Bench im Loop - mind. 2h

OgrEGT
2020-12-12, 09:02:05
2435MHz Target GPU, 975mV, 2150MHz RAM, fast Timings, PT +10%

Timespy Grafik ~16100

Deine ist gut wenn du 2600 Target setzen kannst, aber deine Ergebnisse sind niedrig weil du zu PT limitiert fährst.

Aber 1900rpm? Meine hab ich noch nie höher als 1400rpm gesehen...

Stabilitätstest: Bright Memory RTX Bench im Loop - mind. 2h

Stimmt... hab das PL erst mal bei 100% gelassen... Lüfter liegt wohl an meinem kleinen Gehäuse... die Karte hat ganz knapp reingepasst... der Frontlüfter musste sogar weichen... ich warte noch auf neue Lüfter für nen vertikalen Airflow... also von unten durch die Karte nach oben raus...

dargo
2020-12-12, 09:32:41
Also wenn ich mir diesen Test hier so ansehe...
f8KdOLgZTh4

dann machen die Customs eigentlich gar keinen Sinn gegenüber der Referenz. Erst recht nicht wenn man so wie ich die Karte eher Richtung 250-260W (~220W GPU) drücken will. Sowohl Powercolor als auch Sapphire sind im Silentbios kaum leiser als die Referenz. Gut... die Sapphire säuft jetzt um die ~15W im Silentbios mehr als die Referenz wegen der etwas höheren GPU-Power. Aber irgendwelchen Aufpreis von 100-150€ sind mir die Customs dann doch nicht wert. Dafür setzen sich die Karten zu wenig bei der Kühlung von der Referenz ab. Das wäre mir dann eher max. +50€ wert.

Wobei ich zugeben muss, dass mir die Lösung mit den austauschbaren Lüftern bei Sapphire, ohne die Karte einschicken zu müssen schon recht gut gefällt.

OgrEGT
2020-12-12, 09:37:26
Hab jetzt das PL auch auf +10% gesetzt

Super Position 4K Opt 13010
Timespy Graphic Score 16031

Passt also :)
Muss wirklich sagen die Karte läuft insg. super out of the box, keine Probleme mit Installation, Treiber etc.
Jetzt muss ich nur noch die Gehäuselüftung optimieren, dann ist alles perfekt.

---------------------------------------
WattMan
GPU Voltage: 1000mV
GPU Clock Max 2600MHz
VRAM Clock Max 2150MHz FT
PL 250Watt

GPUZ
GPU Clock Max 2530MHz
VRAM Clock Max 2360Mhz
GPU Temp Max 69°C
TJunct Max 86°C
Fan Max 2132rpm

OgrEGT
2020-12-12, 09:44:52
Also wenn ich mir diesen Test hier so ansehe...
https://youtu.be/f8KdOLgZTh4

dann machen die Customs eigentlich gar keinen Sinn gegenüber der Referenz. Erst recht nicht wenn man so wie ich die Karte eher Richtung 250-260W (~220W GPU) drücken will. Sowohl Powercolor als auch Sapphire sind im Silentbios kaum leiser als die Referenz. Gut... die Sapphire säuft jetzt um die ~15W im Silentbios mehr als die Referenz wegen der etwas höheren GPU-Power. Aber irgendwelchen Aufpreis von 100-150€ sind mir die Customs dann doch nicht wert. Dafür setzen sich die Karten zu wenig bei der Kühlung von der Referenz ab. Das wäre mir dann eher max. +50€ wert.

Wobei ich zugeben muss, dass mir die Lösung mit den austauschbaren Lüftern bei Sapphire, ohne die Karte einschicken zu müssen schon recht gut gefällt.

Hab ich mir auch die ganze Zeit gedacht...
Von meinem Gehäuse her, war klar dass nur die Referenz oder die Nitro reinpassen. Ich hab mich für die Nitro entschieden weil ich glaube dass die Kühlung mehr Reserven hat, was gerade in einem kleinen Gehäuse wichtig ist. Der Preis war eigentlich schon zu hoch da haste recht... aber mei es ist Weihnachten... :freak:

dargo
2020-12-12, 10:01:25
Du musst dich doch bei mir nicht rechtfertigen. :) Wenn ich gar keine Graka oder eine viel zu langsame hätte und paar Games unbedingt spielen wöllte würde ich wahrscheinlich auch den einen oder anderen Aufpreis zahlen. Da müsste der Schuh aber schon sehr drücken. :wink: Ich vergleiche da einfach nur die UVPs.

OgrEGT
2020-12-12, 11:16:29
@dargo
Du meintest du willst die Karte auf 220W GPU d.h. auf 250-260W TBP drücken...

Wird im WattMan und GPU-Z die GPU oder TGP oder TBP angezeigt?

OgrEGT
2020-12-12, 11:24:21
Du musst dich doch bei mir nicht rechtfertigen. :) Wenn ich gar keine Graka oder eine viel zu langsame hätte und paar Games unbedingt spielen wöllte würde ich wahrscheinlich auch den einen oder anderen Aufpreis zahlen. Da müsste der Schuh aber schon sehr drücken. :wink: Ich vergleiche da einfach nur die UVPs.
War eigentlich gar nicht meine Absicht :freak:
Vlt ein wenig vor mir selbst... :D

Du hast aber völlig recht... das Referenz Design ist bei dieser Gen schon sehr gut... deshalb können die Customs das nicht viel besser machen und sich auch untereinander nicht groß unterscheiden... das macht die Entscheidung diesmal viel leichter als noch bei Navi1... ich hab mir zu Navi1 sehr viele Reviews von Customs angeschaut und konnte mich so lange nicht entscheiden dass es irgendwann für mich mehr Sinn gemacht hat auf Navi2 zu warten :)

dargo
2020-12-12, 11:26:54
@dargo
Du meintest du willst die Karte auf 220W GPU d.h. auf 250-260W TBP drücken...

Wird im WattMan und GPU-Z die GPU oder TGP oder TBP angezeigt?
TGP @GPU-Power (GPU + Speicher).

gbm31
2020-12-12, 11:37:11
... Sapphire sind im Silentbios kaum leiser als die Referenz. Gut...

Die Sapphire ist viel leiser und selbst übertaktet kaum aus einem vernünftig belüfteten Gehäuse rauszuhören. Die Referenz wird unter Last deutlich wahrnehmbar.

Keine Ahnung was der im Video macht aber ich hab meine vor der Nase...

CB sieht das auch mächtig anders. Die kleine Nitro+ ist die perfekte Karte, tut ootb was sie soll.

dargo
2020-12-12, 11:45:31
Gut... CB hat jetzt 3dB delta zur Referenz gemessen.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_lautstaerke__kuehlung

Womöglich gibts da kleine Unterschiede je nach Gehäuse. Aber wie gesagt... diese Karte wird bei mir nie mit 300W laufen. Ich sehe da einfach keinen Sinn drin, im OC schon gar nicht.

-/\-CruNcher-/\-
2020-12-12, 12:32:52
Es gibt auch keinen lasst die 3070 TI rauskommen und ihr werdet es sehen ;)

OgrEGT
2020-12-12, 13:16:27
Es gibt auch keinen lasst die 3070 TI rauskommen und ihr werdet es sehen ;)

Was denn genau?

HOT
2020-12-12, 13:37:43
Also wenn ich mir diesen Test hier so ansehe...
https://youtu.be/f8KdOLgZTh4

dann machen die Customs eigentlich gar keinen Sinn gegenüber der Referenz. Erst recht nicht wenn man so wie ich die Karte eher Richtung 250-260W (~220W GPU) drücken will. Sowohl Powercolor als auch Sapphire sind im Silentbios kaum leiser als die Referenz. Gut... die Sapphire säuft jetzt um die ~15W im Silentbios mehr als die Referenz wegen der etwas höheren GPU-Power. Aber irgendwelchen Aufpreis von 100-150€ sind mir die Customs dann doch nicht wert. Dafür setzen sich die Karten zu wenig bei der Kühlung von der Referenz ab. Das wäre mir dann eher max. +50€ wert.

Wobei ich zugeben muss, dass mir die Lösung mit den austauschbaren Lüftern bei Sapphire, ohne die Karte einschicken zu müssen schon recht gut gefällt.
Immerhin sind die Custom-Designs nicht downgecostet wie bei NV und damit langsamer als die Referenz ;).

dargo
2020-12-12, 13:40:49
Red Dragon RX 6800 Review
DwFuK5cEb6w

Geiler Titel... "Buy This IF YOU CAN". :D

Der Kühler der Red Dragon non XT ist der Hammer. ~1100RPM und die GPU ist dabei noch recht kühl. :tongue:

Edit:
Mich würde jetzt nur noch folgender Vergleich interessieren:
RX 6800XT @220W GPU vs. RX 6800 @220W GPU.

Kommt da überhaupt noch ein Delta von mehr als 5% Performance raus?

horn 12
2020-12-12, 14:08:06
@Dargo

Wichtig ist die T-Junction Temperatur
Und jene schwankt bereits bei 4K von Spiel zu Spiel enorm bei meiner RX 6800
Mafia Defin. ist da Spitzenreiten von sehr Hoher T-Junction Temperatur.
Farcry 5 und andere Games gleich mal 10 Grad kühler...

aufkrawall
2020-12-12, 14:15:46
Far Cry 5 läuft auch ständig im CPU-Limit...

horn 12
2020-12-12, 14:19:59
Ist nur eines von wenigen Spielen, aber wie Gesagt Mafia 1 -Definitive ist da Spitzenreiter
Kann gerne auch ein anderer Testen.

aufkrawall
2020-12-12, 14:23:18
Sag doch einfach, wie heiß der Hotspot bei welcher Drehzahl und ASIC-Verbrauch wird?
Ist logisch, dass diese Metrik sehr anfällig gegenüber Schwankungen ist.

dargo
2020-12-12, 14:25:34
@Dargo

Wichtig ist die T-Junction Temperatur
Und jene schwankt bereits bei 4K von Spiel zu Spiel enorm bei meiner RX 6800
Mafia Defin. ist da Spitzenreiten von sehr Hoher T-Junction Temperatur.
Farcry 5 und andere Games gleich mal 10 Grad kühler...
4k juckt mich nicht, bin und bleibe ein 1440p Zocker.

Edit:
Wenn die zukünftigen Grafikkarten die Performance in 4k von heutigen High-End Grafikkarten @1440p liefern dann steige ich erst auf 4k um. Davon sind wir aber noch viele Jahre entfernt.

gbm31
2020-12-12, 15:03:42
Gut... CB hat jetzt 3dB delta zur Referenz gemessen.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_lautstaerke__kuehlung

Womöglich gibts da kleine Unterschiede je nach Gehäuse. Aber wie gesagt... diese Karte wird bei mir nie mit 300W laufen.

Die Sapphire kann nicht mit mehr als 250W laufen (227W +10% PT)

Ootb sind das 2200MHz effektiv bei max 1200rpm und ebendiesen 227W, oder du schaltest aufs Sparbios

dargo
2020-12-12, 15:10:31
Lese nochmal genau wovon ich gesprochen hatte. Ein Tipp, es war keine non XT.

gbm31
2020-12-12, 15:30:36
Lese nochmal genau wovon ich gesprochen hatte. Ein Tipp, es war keine non XT.

Jepp hab mich verlesen. XT kriegst nicht sparsam, dazu ist die kleine da.

dargo
2020-12-12, 15:37:13
:confused:

Fallback hatte doch gezeigt wie es geht.

Edit:
Sagt mal... hat Sapphire da bei der Nitro+ non XT im Bios was verkackt? Oder warum hat Powercolor die Lüftersteuerung um Welten besser im Griff?
https://www.computerbase.de/2020-12/radeon-rx-6800-xl-sapphire-nitro-plus-powercolor-red-dragon-test/2/

Unschön wieder bei der Red Dragon wenn die Zahlen von CB stimmen... Delta zwischen GPU und Hotspot ist bei dieser Karte um 7-10°C höher als bei der Nitro+.

-/\-CruNcher-/\-
2020-12-12, 16:27:03
Immerhin sind die Custom-Designs nicht downgecostet wie bei NV und damit langsamer als die Referenz ;).

Da reden wir aber von echt minimalen differenzen die bis jetzt aufgetaucht sind, aber ja es ist teils erschütternd das überhaupt zu sehen.

Der_Korken
2020-12-12, 16:30:58
Edit:
Sagt mal... hat Sapphire da bei der Nitro+ non XT im Bios was verkackt? Oder warum hat Powercolor die Lüftersteuerung um Welten besser im Griff?
https://www.computerbase.de/2020-12/radeon-rx-6800-xl-sapphire-nitro-plus-powercolor-red-dragon-test/2/

Das ist mir beim Test auch schon aufgefallen. Eventuell bekommt man den Spike am Anfang weg, indem man Min PWM und Acoustic Limit deutlich absenkt. Dass der Lüfter danach aber teilweise unruhig weiterregelt, hatte ich bei der 5700 sowohl bei Sapphire als auch bei MSI beobachtet, also wohl eher ein generelles Navi-Problem.

DennisO2
2020-12-12, 19:40:25
Die Asus mit Wasserkühlung rede ich mir damit schön, dass da zumindest die Wärme aus dem Gehäuse geführt wird. Aber dafür fast das Doppelte bezahlen... . Wobei es über die aktuellen Nitro+-Preise ja nur 150€ Aufpreis sind.

vinacis_vivids
2020-12-12, 19:56:52
@Topic: Gibs irgendwo Artikel, die Benchmarks mit HDR-10bit 4:4:4 berücksichtigt hat?

Die Problematik des höheren Leistungsverlustes bei Nvidia scheint noch keinen Eingang ins Testbewusstsein gefunden zu haben.

Ich wäre sehr dankbar für die Verlinkung eines solchen Artikels, weil alle Testartikel unter der Prämisse des wohl minderwertigen 8bit Farbdarstellung nur mit Vorsicht zu genießen sind, insbesondere des angeblichen "Vorsprung" der 3080 gegenüber der 6800XT, die sozusagen keine ist.

-=Popeye=-
2020-12-12, 20:20:25
HDR ist out, RT ist der neuste Shit. ;D

Da Monitore die das können auch nicht billig sind hat sich damit wohl niemand ernsthaft beschäftigt.

-/\-CruNcher-/\-
2020-12-12, 20:21:50
HDR und RT ergänzen sich aber werden nur noch kostspieliger in tandem

aufkrawall
2020-12-12, 20:28:38
Das ist mir beim Test auch schon aufgefallen. Eventuell bekommt man den Spike am Anfang weg, indem man Min PWM und Acoustic Limit deutlich absenkt. Dass der Lüfter danach aber teilweise unruhig weiterregelt, hatte ich bei der 5700 sowohl bei Sapphire als auch bei MSI beobachtet, also wohl eher ein generelles Navi-Problem.
Afair ist das schon seit Vega so oder so ähnlich.
Wenn man <1000rpm bleiben kann und die Lüfter gut sind, sind diese ständigen leichten Abweichungen zum Glück quasi egal.
Dieses Aufdrehen durchs Acoustic Limit ist allerdings wirklich lächerlich blödsinnig. Hab das hier einfach auf 550rpm gesetzt, also nur minimal über den 520rpm für Idle. Es bleibt mir wirklich ein Mysterium, was ich von ständig aufdrehenden Lüftern bei geringfügigen Sprüngen der Hotspot-Temperatur haben soll...

OgrEGT
2020-12-12, 21:12:53
Ich dachte man kann ootb nur PL -6%... Ich kann -8% im Wattman einstellen...
Dann liegt TGP bei 209W...

vinacis_vivids
2020-12-12, 21:14:49
HDR und RT ergänzen sich aber werden nur noch kostspieliger in tandem

Es gibt auch Spiele mit HDR und ohne RT.

Cyberpunk als Testcase inkl RT und HDR ist wohl was nicht nur für eine RX6800 sondern eher für 2xRX6800(XT).

Ich meine wenn einige sich hinsetzen und jedes MHz rausziehen, könnten sie auch *click* HDR anmachen und die gewonnene Rohleistung in Farbdarstellungsqualität umzusetzen.

Einmal HDR und (für mich) gibs kein Zurück, die Farbdarstellung ist einfach herrlich herausragend.

OgrEGT
2020-12-12, 21:33:43
Wie kann man eigentlich die Sprache im Wattman ändern?

24p
2020-12-12, 22:34:19
Es gibt auch Spiele mit HDR und ohne RT.

Cyberpunk als Testcase inkl RT und HDR ist wohl was nicht nur für eine RX6800 sondern eher für 2xRX6800(XT).

Ich meine wenn einige sich hinsetzen und jedes MHz rausziehen, könnten sie auch *click* HDR anmachen und die gewonnene Rohleistung in Farbdarstellungsqualität umzusetzen.

Einmal HDR und (für mich) gibs kein Zurück, die Farbdarstellung ist einfach herrlich herausragend.

Kauf doch einfach eine 3090.

Wiseman
2020-12-13, 00:35:29
Wie kann man eigentlich die Sprache im Wattman ändern?

--> "Allgemein" --> runterscrollen --> "Sprache"

schmalhans
2020-12-13, 02:28:09
Hey Leute, die Frage kam bestimmt schon, aber ich will mich jetzt nicht durch den ganzen Thread wühlen.

Habe eine Sapphire 6800 Nitro+. Case ist ein 465x von Corsair, der Ryzen 5600X wird mittels einer Corsair h100i AiO WaKü gekühlt. Im Case befinden sich insgesamt 5 120er Lüfter (inkl. Radiatorlüfter, welcher in der Front installiert ist). Der Airflow sollte also eigentlich passen. Habe die Gehäuselüfter per BIOS mit der PCIe1-Temp gekoppelt. Jetzt habe ich folgende Fragen an euch:

1. PCIe1-Temp im Bios: Ist dies die Graka Temp oder gibt es da einen Sensor am Steckplatz - letztere wäre ja schon deutlich geringer als die Chiptemperatur, oder?
2. Ich habe im Idle zur Zeit eine GPU Temp von 50°-55°C (Junction entsprechend nen ticken höher). Der Lüfter ist aus, dreht ab 70° mit 30%. Unter Last (Cyberpunk) habe ich eine Junctiontemp von ca. 80°-85°, das passt soweit. Die Idle-Temperatur erscheint mir jedoch deutlich zu hoch. Woran kann das liegen? Zu wenig Frischluft im Case? Zimmertemperatur ist nicht exorbitant hoch, ca. 18-20°.

Ich danke euch schonmal für eure Meinungen.

PS: Graka läuft @2450 Mhz und 2050 Mhz VRAM, Standard Bios, Powerlimit +10%

gedi
2020-12-13, 08:18:31
@dargo

Man bekommt auch eine XT sehr sparsam. Das PT kann man per MPT ohne Probleme weiter ins Minus ziehen, ins Plus derzeit allerdings nicht. Man kann also aus -6% auch -50% machen, kein Problem. Oder man kann aus 255W auch 180W machen, auch kein Problem.

OgrEGT
2020-12-13, 08:52:19
Hey Leute, die Frage kam bestimmt schon, aber ich will mich jetzt nicht durch den ganzen Thread wühlen.

Habe eine Sapphire 6800 Nitro+. Case ist ein 465x von Corsair, der Ryzen 5600X wird mittels einer Corsair h100i AiO WaKü gekühlt. Im Case befinden sich insgesamt 5 120er Lüfter (inkl. Radiatorlüfter, welcher in der Front installiert ist). Der Airflow sollte also eigentlich passen. Habe die Gehäuselüfter per BIOS mit der PCIe1-Temp gekoppelt. Jetzt habe ich folgende Fragen an euch:

1. PCIe1-Temp im Bios: Ist dies die Graka Temp oder gibt es da einen Sensor am Steckplatz - letztere wäre ja schon deutlich geringer als die Chiptemperatur, oder?
2. Ich habe im Idle zur Zeit eine GPU Temp von 50°-55°C (Junction entsprechend nen ticken höher). Der Lüfter ist aus, dreht ab 70° mit 30%. Unter Last (Cyberpunk) habe ich eine Junctiontemp von ca. 80°-85°, das passt soweit. Die Idle-Temperatur erscheint mir jedoch deutlich zu hoch. Woran kann das liegen? Zu wenig Frischluft im Case? Zimmertemperatur ist nicht exorbitant hoch, ca. 18-20°.

Ich danke euch schonmal für eure Meinungen.

PS: Graka läuft @2450 Mhz und 2050 Mhz VRAM, Standard Bios, Powerlimit +10%

Hast du Zerofan an? Dann drehen die Lüfter der Graka gar nicht...
Schalt Zerofan mal aus dann drehen die Grakalüfter langsam und kontinuierlich mit ca 600rpm... schau mal wie hoch die IdleTemp dann ist...

Hab grad bei mir geschaut... GPU Temp/TJunct Idle ist selbst in meinem kleinen Gehäuse nur ca. 34/35°C... mit Zerofan, also Lüfter aus.
Mit Zerofan aus und Fan Speed 600rpm im Idle sind die Temps dann nochmal ca. 1-2K niedriger also 32/33°C

Dann stimmt irgendwas anderes nicht....

OgrEGT
2020-12-13, 09:04:28
--> "Allgemein" --> runterscrollen --> "Sprache"

Perfekt, Danke!

GerryB
2020-12-13, 10:40:43
HDR ist out, ...

Das denken die Macher von SW2@HDR sicher auch. Oder auch net.
Bin mal gespannt wie Evil West so wird.

https://www.youtube.com/watch?v=Su2BrsFx0xQ

dargo
2020-12-13, 10:58:45
@dargo

Man bekommt auch eine XT sehr sparsam. Das PT kann man per MPT ohne Probleme weiter ins Minus ziehen, ins Plus derzeit allerdings nicht. Man kann also aus -6% auch -50% machen, kein Problem. Oder man kann aus 255W auch 180W machen, auch kein Problem.
Ja... so habe ich das schon aus den Posts von Fallback herausgelesen. Aber danke nochmal für die Bestätigung.

btw.
Wie ist der aktuelle Stand von N21 beim Afterburner bezüglich Spannungskurve und custom Lüftersteuerung? Immer noch nichts da? Ich hätte schon gerne die gleiche Flexibilität wie bei N10.

schmalhans
2020-12-13, 11:54:43
Hast du Zerofan an? Dann drehen die Lüfter der Graka gar nicht...
Schalt Zerofan mal aus dann drehen die Grakalüfter langsam und kontinuierlich mit ca 600rpm... schau mal wie hoch die IdleTemp dann ist...

Hab grad bei mir geschaut... GPU Temp/TJunct Idle ist selbst in meinem kleinen Gehäuse nur ca. 34/35°C... mit Zerofan, also Lüfter aus.
Mit Zerofan aus und Fan Speed 600rpm im Idle sind die Temps dann nochmal ca. 1-2K niedriger also 32/33°C

Dann stimmt irgendwas anderes nicht....

Okay, Zero RPM ausgestellt, Lüfter drehen im Idle mit ~600 RPM, hier komme ich auf eine Temperatur von 33/35°. Komisch, liegt dass an der zu hohen Temp im Case?

Edit: Zerofan wieder eingeschaltet, nach ca. 3Min dann wieder 39/42, Tendenz steigend.
Edit2: Jetzt nach ca. 7Min 49/52 Grad.

gbm31
2020-12-13, 14:09:44
Ja... so habe ich das schon aus den Posts von Fallback herausgelesen. Aber danke nochmal für die Bestätigung.


Die Frage ist bloß warum man sich dann eine Xt holt?

Mit 200W bringt die dann halt auch nix mehr...

OgrEGT
2020-12-13, 14:22:29
Okay, Zero RPM ausgestellt, Lüfter drehen im Idle mit ~600 RPM, hier komme ich auf eine Temperatur von 33/35°. Komisch, liegt dass an der zu hohen Temp im Case?

Edit: Zerofan wieder eingeschaltet, nach ca. 3Min dann wieder 39/42, Tendenz steigend.
Edit2: Jetzt nach ca. 7Min 49/52 Grad.

Krass weil dein Gehäuse von der Größe her ein normaler ATX Midtower ist... du sagtest dass du 5 Lüfter verbaut hast... Hast du Richtung des Luftstroms der Lüfter gecheckt? Wenn du Staubfilter hast schau mal ob da noch Luft durchkommt :freak:

Ich denke dass es am Airflow liegt... denn bei Zerofan ist der Airflow deines Gehäuses das einzige was warme Luft abtransportieren sollte... aber nicht ausreichend macht...

Ich lass mal bei mir mit Zerofan laufen und schau mal nach ner halben Stunde...

dargo
2020-12-13, 14:59:54
Die Frage ist bloß warum man sich dann eine Xt holt?

Mit 200W bringt die dann halt auch nix mehr...
Ich habe nicht von 200W gesprochen sondern 220W. Den Leistungsverlust gleiche ich mit UV aus. Ich will mich da auch nicht penibel exakt auf 220W festnageln. Welche Wattage gefahren wird entscheidet hauptsächlich die Kühllautstärke und auch die Skalierung der Performance. Für 1-2% Performance verbrate ich keine 20-30W, nur um ein Beispiel zu nennen. Irgendwo im Bereich von 220-230W werde ich wohl landen schätze ich.

Edit:
Und das hier hat mir leider auch noch niemand beantworten können.
Mich würde jetzt nur noch folgender Vergleich interessieren:
RX 6800XT @220W GPU vs. RX 6800 @220W GPU.

Kommt da überhaupt noch ein Delta von mehr als 5% Performance raus?

aufkrawall
2020-12-13, 15:06:45
Wieso sollte die Skalierung mit Shader-Einheiten derart schlecht sein? Da passt wohl eher noch eine 1 vor die 5. Und btw. nein, AB UV geht immer noch nicht.

dargo
2020-12-13, 15:11:16
What? :freak: Die beiden Karten trennen so schon ca. 10-14% per Default bei 52W TGP-Unterschied, je nach Spiel. Mit 220W PT taktet so eine non XT auch höher als mit 203W Default und somit auch höher als die XT. Da sollte der Vorsprung der XT schrumpfen (XT auch @220W, ergo weniger Takt). Ich achte natürlich nur auf 1440p und nicht 4k. Vielleicht sind die 5% zu tief gestapelt. Aber mehr als 7-8% sollte es da kaum geben.

aufkrawall
2020-12-13, 15:26:44
Und woher kommt der Mehrverbrauch bei der XT, wenn die non-XT nicht bzw. kaum durchs PT-Limit gedrosselt wird?

dargo
2020-12-13, 16:31:43
Jetzt kann ich dir nicht folgen. :tongue: Aber ich schätze du mir auch nicht.

Nochmal... für mich kommen zwei Karten mit folgenden Betriebspunkten in Frage:
RX 6800XT @220W PT (leicht gedrosselt)
RX 6800 @220W PT (leicht entfesselt)

Wie groß ist bei diesen Betriebspunkten das Delta bei der Performance in 1440p? In beiden Fällen kein UV versteht sich da das auch etwas mit der Chiplotterie zu tun hat. Ist meine Frage wirklich so kompliziert? :freak:

Das blöde an diesem Vergleich ist halt nur, dass bei 220W PT für mich dann keine Referenz RX 6800 mehr in Frage kommt. Ich glaube nicht, dass die Karte mir leise genug ist. Und wenn ich bei den Customs 700€ auf den Tisch legen muss dann kann ich mir eigentlich gleich die Referenz RX 6800XT für ~630€ direkt bei AMD kaufen (natürlich muss man an die erstmal dran kommen :D) und die XT etwas im Powerlimit drosseln. Der RX 6800XT Referenzkühler wird mich da schon eher wegen mehr Kühlfläche überzeugen.

Edit:
Bei einem Punkt bin ich mir auch noch nicht ganz sicher bezüglich der RX 6800. Als ich die ersten RT-Benchmarks sah brach die RX 6800 überproportional stärker ein als die RX 6800XT. Das waren aber diese völlig unoptimierten RTX-Spiele. Deshalb weiß ich nicht wie ich das einordnen soll. Auf der anderen Seite könnten die +20% Shader bei hoher RT-Last durchaus helfen... Stichwort Grundlast. Das gleiche Verhalten gabs ja schon viel früher bei CPUs im niedrigen Framebereich. Da schlug die Grundlast auch überproportional zu. Schwer einzuschätzen momentan da es noch zu wenig RT-Implementierungen mit Optimierung für RDNA2 gibt. Und ob ich RT in der Lebenszeit der Karte nutzen werde ich auch eher fraglich bei den hohen Kosten. Da werde ich je nach Game schauen müssen ob dafür noch genug Overhead bei der Framerate vorhanden ist.

OgrEGT
2020-12-13, 16:45:48
Krass weil dein Gehäuse von der Größe her ein normaler ATX Midtower ist... du sagtest dass du 5 Lüfter verbaut hast... Hast du Richtung des Luftstroms der Lüfter gecheckt? Wenn du Staubfilter hast schau mal ob da noch Luft durchkommt :freak:

Ich denke dass es am Airflow liegt... denn bei Zerofan ist der Airflow deines Gehäuses das einzige was warme Luft abtransportieren sollte... aber nicht ausreichend macht...

Ich lass mal bei mir mit Zerofan laufen und schau mal nach ner halben Stunde...

So hab den Rechner mit Zerofan 2h im idle laufen lassen.
38/40°C.
D.h. es muss an deinem Airflow liegen...

OgrEGT
2020-12-13, 16:57:07
Edit:
Und das hier hat mir leider auch noch niemand beantworten können.

Mich würde jetzt nur noch folgender Vergleich interessieren:
RX 6800XT @220W GPU vs. RX 6800 @220W GPU.

Kommt da überhaupt noch ein Delta von mehr als 5% Performance raus?



Das ist in der Tat eine gute Frage, da die 6800 die 20% weniger CUs mit höherem Takt betreiben könnte bei gleichem PT.
220W GPU wären dann 240-250W TGP?
Das entspräche in etwa wenn ich bei mir das PL für TGP von 100% (227W) auf 110% (250W) anheben würde...

VaporVader
2020-12-13, 16:57:21
Vielleicht läuft auch sein VRAM Takt im Idle die ganze Zeit auf Anschlag. Hatte ich auch am Anfang. Das erzeugt dann natürlich auch mehr abzuführende Wärme.

gbm31
2020-12-13, 17:56:21
Edit:
Und das hier hat mir leider auch noch niemand beantworten können.

Wenn meine 6900XT morgen wirklich geliefert wird, setze ich die mal auf 200W via PT, ohne sonst dran rumzuspielen, und die 6800 ebenso.

Dann schauen wir mal wieviel vom Shaderplus übrig bleibt...

Wie gesagt, ich fürchte daß die 6800XT auf das PT der 6800 limitiert sich ganz schön strecken muss um mit der fast frei laufenden 6800 Bäumchen streck dich zu spielen.

schmalhans
2020-12-13, 18:29:36
Vielleicht läuft auch sein VRAM Takt im Idle die ganze Zeit auf Anschlag. Hatte ich auch am Anfang. Das erzeugt dann natürlich auch mehr abzuführende Wärme.

Problem ist dass ich nicht weiß wie ich die Gehäuselüfter an die Grafikkartentemperatur koppeln kann. Im BIOS kann ich schließlich nur "PCIe1" auswählen, und das ist glaube ich ein Sensor am Steckplatz, der zeigt nämlich im Bios auch nur 35° an.

Kennt ihr Argus Monitor? Hab das bei einem Kumpel gesehen, sieht ganz gut aus. Oder was nutzt ihr da so für Programme? Dort kann man die Lüfter an die Graka koppeln.

dargo
2020-12-13, 19:02:31
Wenn meine 6900XT morgen wirklich geliefert wird, setze ich die mal auf 200W via PT, ohne sonst dran rumzuspielen, und die 6800 ebenso.

Ist nicht ganz der Vergleich den ich suche, aber besser als nichts. :wink:

btw.
Bei der RX 6800 muss u.U. der Takt leicht angehoben werden. Wichtig ist, dass beide Karten powerlimitiert sind und die RX 6800 nicht ins Taktlimit läuft.

horn 12
2020-12-13, 20:29:28
@Schmalhans

Habe Argus Selbst am Laufen und die Version für 3 Jahre vor 2 Monaten gekauft für 12,99 Euro.
TOP Programm, nochmals Besser als Speedfan anno dazumal.

gbm31
2020-12-13, 20:47:11
So, heute hab ich mich mal mit dem Speicher beschäftigt.

Nach einigem Testen hab ich mich für den integrierten Benchmark in Ghost Recon Breakpoint entschieden, der auf die Speichertakte zu reagieren scheint, und relativ wenig schwankt (<10P).

Die 6800 läuft mit 2435MHz Target, 975mV, Fast Timings und 250W PT.

Beginnen wir mit 2000MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72927&stc=1&d=1607888539

2050MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72928&stc=1&d=1607888539

Die Punkte steigen,

2100MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72929&stc=1&d=1607888539

Eine deutliche Steigerung.

2150MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72930&stc=1&d=1607888539

Hoppla! Ein weiterer Lauf bestätigt das schlechte Ergebnis.

gbm31
2020-12-13, 20:51:20
Also takte ich den Speicher wieder niedriger. Da der Umbruch zwischen 2100 und 2150MHz passierte, genau dazwischen.

2124MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72931&stc=1&d=1607888856

Wieder besser, aber nur auf dem Niveau von 2100MHz.

Daher nochmal ca. die Mitte.

2110MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72932&stc=1&d=1607888856

Das sieht doch wieder sehr gut aus.

Um das letzte MHz feilsche ich nicht mehr, so bleibt das jetzt bis die 6900XT kommt.

Aber auch hier zeigt sich wieder, viel Takt bedeutet nicht immer auch viel Leistung.

dargo
2020-12-13, 20:58:21
@gbm31

Nichts für ungut... aber womit beschäftigst du dich da? :freak: Zwischen dem besten und dem schlechtesten Ergebnis liegen gerade mal 1%. :uconf3:

gbm31
2020-12-13, 21:01:22
@gbm31

Nichts für ungut... aber womit beschäftigst du dich da? :freak: Zwischen dem besten und dem schlechtesten Ergebnis liegen gerade mal 1%. :uconf3:

Reine Neugier. ;-)

Oder auch angeborener Spiel und Probiertrieb.

Oder kurze Pause von Cyberpunk

Such dir was aus...

[edit]

Ernsthaft?

Ich war neugierig ob der Speicher die 6800 begrenzt - was ich nicht erwartet habe. Aber bei der 6900XT bin ich gespannt.

Und weiter: Viele ziehen den Slider nach rechts solang nichts abstützt. Dass weit vorher schon der Punkt erreicht wird, an dem das kontraproduktiv ist, und der BUS mehr mit der Fehlerbereinigung als mit den Daten beschäftigt ist, wird gern vergessen. Das wollt ich genau austesten.

Ob die Zeit, das für seine eigene Karte rauszufahren, den Benefit wett macht, oder man den Speicher einfach default lässt, kann jeder selbst für sich entscheiden.

schmalhans
2020-12-13, 21:02:02
Vielleicht läuft auch sein VRAM Takt im Idle die ganze Zeit auf Anschlag. Hatte ich auch am Anfang. Das erzeugt dann natürlich auch mehr abzuführende Wärme.

Hab mal genau geschaut, der VRAM Takt läuft tatsächlich im idle durchgehend mit ~2000 Mhz. Ist das normal bzw. woran liegt das und kann man das ändern? Vielleicht erklärt das meine hohe idle Temp.

gbm31
2020-12-13, 21:05:29
Hab mal genau geschaut, der VRAM Takt läuft tatsächlich im idle durchgehend mit ~2000 Mhz. Ist das normal bzw. woran liegt das und kann man das ändern? Vielleicht erklärt das meine hohe idle Temp.

Bekannte AMD Macke.

Verfolgt mich seit Vega 56.

Inkompatibles Display, mehr als ein Display dran (auch VR-Brille), Display mehr als die 60Hz vom Desktop -> Speicher taktet nicht runter.

Bei der VII wars treiberabhängig, mal gings, mal nur bei Default-Takt, meistens nicht.

aufkrawall
2020-12-13, 21:08:19
Hab mal genau geschaut, der VRAM Takt läuft tatsächlich im idle durchgehend mit ~2000 Mhz. Ist das normal bzw. woran liegt das und kann man das ändern? Vielleicht erklärt das meine hohe idle Temp.
Siehe den Teil des Posts nach dem Edit:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12522521#post12522521

schmalhans
2020-12-13, 21:13:08
Siehe den Teil des Posts nach dem Edit:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12522521#post12522521

Okay, danke euch zwei. Habe ein 144Hz Display mit 34". Ich bin leider kein Crack und verstehe bei deinem Edit nur Bahnhof :freak: Kannst mich da etwas anleiten? Habe Fast timings im Wattman eingestellt, falls das was zur Sache tut.

aufkrawall
2020-12-13, 21:16:39
Okay, danke euch zwei. Habe ein 144Hz Display mit 34". Ich bin leider kein Crack und verstehe bei deinem Edit nur Bahnhof :freak: Kannst mich da etwas anleiten? Habe Fast timings im Wattman eingestellt, falls das was zur Sache tut.
Teste erstmal mit nur einem Display eingeschaltet. Es könnte mit beiden gleichzeitig gehen, wenn es bereits mit einem geht und beide mit exakt den gleichen Timings und Refresh Raten laufen. Aber da ja schon ein einzelnes Display mit AMD dahingehend mitunter problematisch, würd ich eher nicht drauf wetten.
Die Diskussion bitte im verlinkten Thread fortführen, ist dann übersichtlicher und besser auffindbar. Der Kram für Timings im Wattman dürfte egal sein.

schmalhans
2020-12-13, 21:33:23
Teste erstmal mit nur einem Display eingeschaltet. Es könnte mit beiden gleichzeitig gehen, wenn es bereits mit einem geht und beide mit exakt den gleichen Timings und Refresh Raten laufen. Aber da ja schon ein einzelnes Display mit AMD dahingehend mitunter problematisch, würd ich eher nicht drauf wetten.
Die Diskussion bitte im verlinkten Thread fortführen, ist dann übersichtlicher und besser auffindbar. Der Kram für Timings im Wattman dürfte egal sein.

Habe nur ein Display, glaube das hast du falsch verstanden. Alles klar, ich klink mich dort mal ein.

aufkrawall
2020-12-13, 21:47:31
Ich muss neben diesem Forum leider noch andere wirre Texte (jetzt nicht auf deinen Post bezogen :D ) nebenbei lesen, da gerät schon mal was durcheinander. :redface:

gedi
2020-12-13, 21:47:37
Also takte ich den Speicher wieder niedriger. Da der Umbruch zwischen 2100 und 2150MHz passierte, genau dazwischen.

2124MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72931&stc=1&d=1607888856

Wieder besser, aber nur auf dem Niveau von 2100MHz.

Daher nochmal ca. die Mitte.

2110MHz:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72932&stc=1&d=1607888856

Das sieht doch wieder sehr gut aus.

Um das letzte MHz feilsche ich nicht mehr, so bleibt das jetzt bis die 6900XT kommt.

Aber auch hier zeigt sich wieder, viel Takt bedeutet nicht immer auch viel Leistung.

Das Problem ist nicht der Ram-Takt, sondern die TGP. Wenn du dem Ram Beine machst, dann taktet die GPU im Schnitt nicht so hoch.

Ein PGM wo extrem auf den Ramtakt abfährt ist SotTR. Die Ergebnisse sollten anzeigen, ob und wie viel das RAM-OC wirklich bringt, oder besser, bringen kann.

vinacis_vivids
2020-12-13, 22:07:11
@gmb31

Also, seit RDNA gen. 2 ist der Infinity-Cache mit dem Fabric-Clock von größerer Bedeutung als reine Memory-Frequenz-Tuning.

Die Speicheranordnung ist komplexer geworden und nicht mehr zu vergleichen wie bei der Radeon 9500@9700Pro.

Deine VRAM-OC-Methode bringt +1% wie dargo schon schreibt, was ja lobenswert ist.

-> Der If-Clock lässt sich doch übertakten wenn du ein Ryzen System hast. If hängt mit am Arbeitsspeicher, ergo RAM Subtiming +1-3%?

-> VRAM Timings bzw. Subtimings lassen sich ebenfalls ändern - dazu braucht es BIOS-Flash, womöglich kombiniert mit dem 6900XT "unlock" BIOS für mehr Watt. +5-10%?

-> bessere WLP für die GPU und RAM +1-2%?

Wie AMD in den Folien gezeigt hat steckt die Mehrleistung auch im SAM, was ich als eine Art höhere Speicher-Synchronisation erachte. Womöglich bringt dein VRAM-OC erst mit der neuesten Plattform am meisten? (bspw. B550+5600X oder X570+5900X)

Viel Tuning Spielraum ist auf jeden Fall vorhanden.

gbm31
2020-12-13, 23:50:46
Das Problem ist nicht der Ram-Takt, sondern die TGP. Wenn du dem Ram Beine machst, dann taktet die GPU im Schnitt nicht so hoch.


Bist du dir da sicher?

GerryB
2020-12-14, 05:26:16
User bath(pcgh) hat mal im MPT seine GFX+SOC-maxV gesenkt und ein Bild gepostet, wie Es dann im Treiberpaneel aussieht: der Rest ist eh Chiplotterie
(die TDC SOC könnte evtl. ein mue höher stabiler sein, statt 30A-->35A wg. des höheren PL)

wie gewünscht= niedrige Hotspot-Temp, the way to go
Das PL wird in sup4k net ausgeschöpft, avg. ca. 200W TGP würde ich schätzen.
Man könnte vermutlich mit den 227W@PL+10 auch ne GFX=1018mV versorgen.(Nitro mit besserem Kühler)
(1025mV machen nur bei sehr schlechten Chips Sinn)

gbm31
2020-12-14, 09:10:04
Ich teste grade UV mit folgenden Einstellungen.

Bringt immerhin schon mal gute 11 Watt weniger im Vergleich zur vollen Spannung 1025mV und 975mV im Wattman.

GerryB
2020-12-14, 09:14:36
Hotspot sieht gut aus. Wenns net zu laut ist gänge also noch mehr.

Gerade im Teillastbereich könnte der Chip ja höher boosten, wenn man 1006mV im MPT frei gibt.
Das wirst Du u.U. net im PR merken, aber beim Spielen.

Ich staune nachwievor über die niedrige TDC SOC bei Deiner Nitro.
Evtl. wäre insgesamt mehr Takt stabiler mit 35A.

gbm31
2020-12-14, 09:26:09
Laut? Die ist kaum zu hören offen neben meinem Ohr!

Mehr Takt geht nicht! Macht der Chip nicht!

Und sobald ich irgendwas an den Spannungen oder Strömen ändere Richtung mehr gehts in den Failsafe Mode. 500MHz und 1018mV.


Zum Test: 1000mV sind zu wenig im Bright Memory Benchmark Loop. 1006mV laufen seit 20 Minuten...

[edit]

Ist auch fürn Arsch! 1006mV laufen nicht (33 Minuten Loop...) weil die GPU leicht höher boostet, und damit bin ich schon wieder fast beim max. PT. Kann ich gleich bei den vollen 1025 max. bleiben.

GerryB
2020-12-14, 16:19:05
Dann wünsch ich Dir mehr Glück mit der 6900!

Die Nitro wirste ja sicher an einen nonUVer gut los.

Reaping_Ant
2020-12-16, 05:23:14
Jetzt springen auch noch die Boardpartner hoechstselbst auf den Scalper-Zug mit auf: Die Gigabyte Customs kosten mal eben 30 bis knapp 40% Aufpreis auf die Referenz. (https://www.computerbase.de/2020-12/gigabyte-radeon-rx-6800-xt-preise/) In absoluten Zahlen: RX 6800 ab 720$ und RX 6800 XT ab 850$.
Zu dem Preis koennen sie die Karten auch behalten. Um so mehr bin ich froh ein leises Custom-Modell der 3070 zur UVP bekommen zu haben. Die 50$ ueber der FE sehe ich noch ein, zumal der Kuehler auf der MSI Gaming X Trio schon eine ziemliche Materialschlacht ist. Aber 140 bis 250$ ueber den ohnehin schon nicht schlechten Referenzdesigns der 6800er ist meiner Meinung nach einfach nur Abzocke.
Vielleicht ist an den Geruechten, dass die Boardpartner mit dem Referezdesign keinen Gewinn machen, doch was dran?

dildo4u
2020-12-16, 06:33:40
AMD wollte vermutlich mehr nehmen konnte aber wegen der 3080 nicht, nicht vergessen Big Navi ist AMDs Größte Die und Nvidia Chips ist kleiner geworden.


Erste Quake RT Benches mit 6800XT.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Quake-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/

Achill
2020-12-16, 08:01:38
AMD wollte vermutlich mehr nehmen konnte aber wegen der 3080 nicht, nicht vergessen Big Navi ist AMDs Größte Die und Nvidia Chips ist kleiner geworden.


Erste Quake RT Benches mit 6800XT.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Quake-2-RTX-mit-Radeon-Vulkan-Raytracing-1363692/

Quake RTX ist von Nvidia für RTX Karten entwickelt. In wie fern kann dies ein objektiver Benchmark sein?

Das entsprechende Projekt dazu: https://github.com/NVIDIA/Q2RTX

dildo4u
2020-12-16, 08:10:00
Das ist reines Path Tracing eher Vergleichbar mit einem Offline Renderer.
AMD hat z.b sein optimierten Pro Renderer in Blender und es sieht so aus.

In Blender 2.90 legt RDNA 2 mit aktuellem Treiber mit OpenCL zwar gegenüber RDNA zu, knapp 30 Prozent Leistungsvorteil gegenüber der Radeon RX 5700 XT liegen aber deutlich hinter dem Vorteil in Spielen zurück. Unter Verwendung des ProRender mit RT-Unterstützung legen alle drei Big-Navi-Grafikkarten noch einmal um ein Drittel zu, Radeon RX 6900 XT und 6800 XT sind dann mehr als doppelt so schnell wie die Radeon RX 5700 XT mit halb so viel Shadern, aber ohne RT-Kerne. Gegen GeForce RTX 3000 mit Optix-Renderer haben die Big-Navi-Grafikkarten hingegen keine Chance. Wie stark der Zuwachs durch die RT-Kerne ist, hängt auf beiden Technologien von der zu rendernden Szene ab.


https://live.staticflickr.com/65535/50725578527_da38fb774d_z.jpg (https://flic.kr/p/2khrRf8)belnder (https://flic.kr/p/2khrRf8) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

GerryB
2020-12-16, 19:47:31
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/

Wer ne Ref hat kann per MPT ruhig mal die SOC-Spannung runter nehmen, wie bei der MERC:

TwoBeers
2020-12-16, 20:41:53
Was passiert eigentlich wenn man im Wattman die Spannung senkt? Dann wird GFX und SOC gesenkt, oder?

dargo
2020-12-16, 20:58:10
Nur GFX.

Screemer
2020-12-16, 21:04:43
Das ist reines Path Tracing eher Vergleichbar mit einem Offline Renderer.
AMD hat z.b sein optimierten Pro Renderer in Blender und es sieht so aus.




https://live.staticflickr.com/65535/50725578527_da38fb774d_z.jpg (https://flic.kr/p/2khrRf8)belnder (https://flic.kr/p/2khrRf8) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Welche Version von pro renderer ist das?

TwoBeers
2020-12-16, 21:07:03
Nur GFX.

Ok, also SOC geht nur über MPT? Hmm, kann ich ja mal schauen .. später. ;)

dargo
2020-12-16, 21:08:40
Ok, also SOC geht nur über MPT?
Jepp.

Wiseman
2020-12-17, 02:41:46
Weil im 6900XT Thread von schröcklichem Rattern und Fiepen der Referenz 6900XT und 6800XT berichtet wird, hier mal Eindrücke meiner Custom 6800XT Nitro+:

Ob 60 fps oder 150 fps,
ich hör kein Rattern und kein Knattern,
ich hör kein Rasseln und kein Prasseln,
ich hör kein Fiepen und kein Piepen.

Mit Silent-BIOS läuft meine 6800XT Nitro+ flüsterleise ohne jegliche Nebengeräusche.

Im Silent-BIOS arbeiten die 3 Lüfter der 6800XT Nitro+ sogar effektiver als die 3 Lüfter der 5700XT Nitro+. Obwohl sie 70 Watt mehr (264 W vs 194 W) zu bewältigen haben, drehen sie mit 200 RPM weniger (11xx RPM vs 13xxRPM). Ich kann daher die 30 dB vom Techpowerup Review bestätigen. Im Silent-BIOS läuft die 6800XT Nitro+ absolut flüsterleise.

Im Anhang befinden sich nicht nur Screenshots der 5700XT Nitro+ und 6800XT Nitro+ aus dem Game SotTR, sondern auch ein Screenshot aus dem Game Grim Dawn, der zeigen soll, dass die 6800XT Nitro+ nicht in jedem Spiel max 264 Watt verbraucht.

-/\-CruNcher-/\-
2020-12-17, 04:33:17
Welche Version von pro renderer ist das?

denke mal schon igor nutzt die RA beschleunigte 2.0 er schreibt ja auch mit RT on damit meint er die intersection Beschleunigung, weil natürlich ist es logisch dumm von RT on zu sprechen weil es ja RT ist so oder so ;)

Korrekt wäre mit RA Core Unterstützung anstelle von RT sowie mit RT Core anstelle von RTX

dargo
2020-12-17, 11:16:15
Gibt es echt noch kein Review der Sapphire RX 6800(XT) Pulse obwohl es die Karte schon zu kaufen gibt?

Edit:
Schon Wahnsinn wie XFX in die Oberliga aufgestiegen ist.
uVCt_BdseFU

Selbst eine Nitro+ sieht schon fast alt dagegen aus.

btw.
Was ist eigentlich mit MSI los? Von denen sieht man noch gar nichts. :confused:

Birdman
2020-12-17, 12:11:30
Quake RTX ist von Nvidia für RTX Karten entwickelt. In wie fern kann dies ein objektiver Benchmark sein?
Hat ja auch (hoffentlich) niemand behauptet. (zumindest dildo hat es nicht)
Solche News/Benchmarks sind ja aber trotzdem interessant, auch wenn es sich ja mehr oder weniger eine nVidia techdemo handelt.

Ich gehe auch stark davon aus dass AMD mit Treiberoptimierung hier noch einiges wird rausholen können, ist ja nun die erste Version von Q2RTX welche überhaupt mit 3rd-Party GPUs lauffähig ist und AMD somit in die Lage versetzt, hier was zu schrauben.

dargo
2020-12-17, 12:13:52
Hatten wir den Taichi-Klopper schon als Review?

P51_ThOiHVs

TwoBeers
2020-12-17, 12:22:21
Ok, also SOC geht nur über MPT? Hmm, kann ich ja mal schauen .. später. ;)

Also ich hab mal kurz getestet.
Bei 950mV SOC verlier ich im 3DMark ca. 200 Punkte.
Bei 1025mV SOC (so wie Wattman) genau so viel wie mit ohne MPT SPPT.

Ach ja, alles bei 0% PL.

HOT
2020-12-17, 12:24:22
Das ist reines Path Tracing eher Vergleichbar mit einem Offline Renderer.
AMD hat z.b sein optimierten Pro Renderer in Blender und es sieht so aus.




https://live.staticflickr.com/65535/50725578527_da38fb774d_z.jpg (https://flic.kr/p/2khrRf8)belnder (https://flic.kr/p/2khrRf8) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Sieht man sehr deutlich, dass RDNA2 für diesen Zweck nicht gebaut wurde. Da muss man dann wohl bis N31 warten ;). Das heißt natürlich nicht, dass nicht RT-Effekte sinnvoll eingebunden werden können, die dann performant laufen. Das ist erst mal eh viel wichtiger.

Wiseman
2020-12-17, 15:55:22
Ich weiß, in diesem Thread interessiert man sich hauptsächlich für MPT, mV & Co, aber vielleicht kann ich ja zumindest den einen oder anderen 5700XT Nitro+ User ansprechen, der am Überlegen ist, ob er auf eine 6800XT Nitro+ umsteigen soll.

Ich hatte mir als notorischer LuKü-User 3 Ziele gesetzt:

1. Meine nächste Karte sollte genau so flüsterleise und frei von unangenehmen Nebengeräuschen wie meine 5700XT Nitro+ im Silent-BIOS laufen.
2. Mit war klar, dass eine Karte, die fast die doppelte Leistung bringt, mehr Watt verbrauchen wird (5700XT Nitro+ 195 Watt im Silent-BIOS). 300 Watt und mehr sollten es aber auf keinen Fall sein.
3. Mit einer Big Navi Karte möchte ich endlich alles, was ich so spiele - bin Offline-Gamer in Reinkultur - auf meinem native 4k Monitor mit mindestens 60 fps spielen können.

zu Ziel #1:

Ja, die 6800XT Nitro+ läuft im Silent-BIOS absolut flüsterleise und frei von unangenehmen Nebengeräuschen. Mehr Details dazu in meinem obigen Posting.

zu Ziel #2:

Ja, die 6800XT Nitro+ verbraucht im Silent-BIOS zwar 70 Watt mehr als meine Vorgängerkarte 5700XT Nitro+, bleibt aber mit max 264 Watt deutlich unter 300 Watt. (Im Standard-BIOS verbraucht sie übrigens 289 Watt bei 1% mehr Leistung.) Natürlich verbraucht die 6800XT Nitro+ nicht in jedem Spiel 264 Watt. In meinem Posting weiter oben habe ich einen Screenshot aus dem Spiel Grim Dawn angehängt, wo man sehen kann, dass sich die 6800XT Nitro+ selbst in 4k und selbst mit maxed-out Settings mit einem deutlich geringerem Wattverbrauch zufrieden geben kann.

zu Ziel #3:

Folgende Games hatte/habe ich im Silent-BIOS sowohl mit 5700XT Nitro+ als auch mit 6800XT Nitro+ in 4k und in Ultra getestet:

Spiel: 5700XT Nitro+ (40 CU) ---> 6800XT Nitro+ (72 CU)

The Division 2 (DX12) (Benchmark): 35 fps avg ---> 65 fps avg
SotTR (DX12) (Benchmark): 42 fps avg ---> 81 fps avg
Gears 5 (DX12) (Benchmark): 38 fps avg ---> 61 fps avg
Borderlands 3 (DX12) (Benchmark): 36 fps avg ---> 65 fps avg
Far Cry New Dawn (Benchmark): 52 fps avg ---> 83 fps avg
The Witcher 3 (Ortsrand White Orchard): 44 fps ---> 81 fps
Horizon Zero Dawn (Benchmark): 35 fps avg ---> 69 fps avg
Horizon Zero Dawn (Point of the Spear): 33 fps ---> 62 fps

Ja, Ziel #3 ebenfalls erreicht. In jedem getesteten Spiel wurden mindestens 60 fps erzielt. Und das im Sparwaschgang aka Silent-BIOS. Wobei die 6800XT Nitro+ im Silent-BIOS trotzdem 2% schneller als die 6800XT Referenz ist und nur 6% hinter der 6900XT Referenz liegen würde.

Fazit: Abgesehen von der momentanen, unverschämten Abzocke, der auch ich meinen Tribut zollen musste, weil ich nicht eventuell ein halbes Jahr noch auf eine Preisberuhigung warten wollte, bin ich vorläufig rundum zufrieden mit meiner Big Navi. 4k, ich komme.

Killeralf
2020-12-17, 16:03:25
.... aber vielleicht kann ich ja zumindest den einen oder anderen 5700XT Nitro+ User ansprechen, der am Überlegen ist, ob er auf eine 6800XT Nitro+ umsteigen soll.....

Genau das ist hier geplant, allerdings erst dann wenns die teile zum UVP gibt, bei WQHD gibts da für mich noch keinen akuten kaufdrang. Daher herzlichen dank für deinen post!

Blub
2020-12-17, 17:29:11
Spiel: 5700XT Nitro+ (40 CU) ---> 6800XT Nitro+ (72 CU)

The Witcher 3 (Ortsrand White Orchard): 44 fps ---> 81 fps



Hmm, wie waren die Hairworks-Einstellungen? Auch alles auf max? 81fps wären dafür eigentlich recht viel.

GerryB
2020-12-17, 17:51:20
Also ich hab mal kurz getestet.
Bei 950mV SOC verlier ich im 3DMark ca. 200 Punkte.
Bei 1025mV SOC (so wie Wattman) genau so viel wie mit ohne MPT SPPT.


SOC gibts im Wattman net. Das ist 1025mV GFX.

bnoob
2020-12-17, 18:52:32
Vergleich 5700XT Nitro+ vs. 6800XT Nitro+
Sehr hilfreich, danke!

Dant3
2020-12-18, 00:29:30
Das XFX so eine gute Karte raus haut haette wohl niemand vorhersagen koennen. Die 5700er Serie war ja im ersten Run eine ziemliche Katastrophe, deswegen haette ich auch keine 6800er blind von denen gekauft. Da war eine Nitro bzw. Red Devil schon die sichere Sache.
Evtl. werde ich mit der noch mal den Jump auf die XT machen, wenn der Markt sich beruhigt hat (Ho Ho Ho) und es auch wieder die Moeglichkeit auf Angebote gibt. Allgemein aber schoen zu sehen, dass es bisher noch keinen richtigen Reinfall bei den Customs gab.

Wiseman
2020-12-18, 00:56:30
Hmm, wie waren die Hairworks-Einstellungen? Auch alles auf max? 81fps wären dafür eigentlich recht viel.

Guck nochmals in meine vorherige Post. Da schrieb ich: Folgende Games hatte/habe ich im Silent-BIOS sowohl mit 5700XT Nitro+ als auch mit 6800XT Nitro+ in 4k und in Ultra getestet.

Beim Testen der 6800XT Nitro+ Nitro+ musste ich alles so belassen wie beim Testen der 5700XT Nitro+ und die hatte ich grundsätzlich in Ultra Presets und nicht in maxed-out Settings getestet. Da The Witcher 3 keinen eingebauten Benchmark hat, musste ich zudem den gleichen Speicherpunkt aufrufen und exakt den gleichen Blickwinkel einhalten. Ich hänge einen Screenshot an. "Frisur sitzt auch hoch zu Ross.", würde ich sagen, auch wenn im Ultra Preset Hairworks nur auf 4xAA und nicht auf 8xAA voreingestellt ist.

TwoBeers
2020-12-18, 00:58:05
SOC gibts im Wattman net. Das ist 1025mV GFX.

Jo, ich wollte damit nur sagen, dass ich auch 1025mV im Wattman eingestellt hatte, also beides gleich war.

Wiseman
2020-12-18, 01:22:11
Das XFX so eine gute Karte raus haut haette wohl niemand vorhersagen koennen. Die 5700er Serie war ja im ersten Run eine ziemliche Katastrophe, deswegen haette ich auch keine 6800er blind von denen gekauft. Da war eine Nitro bzw. Red Devil schon die sichere Sache.
Evtl. werde ich mit der noch mal den Jump auf die XT machen, wenn der Markt sich beruhigt hat (Ho Ho Ho) und es auch wieder die Moeglichkeit auf Angebote gibt. Allgemein aber schoen zu sehen, dass es bisher noch keinen richtigen Reinfall bei den Customs gab.

Ich war auch überrascht, als ich Reviews zur XFX Speedster MERC 319 RX 6800XT las. Positiv überrascht. Wenn am letzten Scalping Saturday nur die XFX Speedster MERC 6800XT angeboten worden wäre, hätte ich sie gekauft. War die einzige Custom 6800XT, die zusammen mit der Nitro+ 6800XT für mich in Frage gekommen wäre. Hab mich dann letztendlich - musste ja alles schnell gehen - für die Nitro+ 6800XT entschieden, weil ich mit Hilfe von TRIXX softwaremäßig zwischen Standard-BIOS und Silent-BIOS wechseln kann.

JVC
2020-12-18, 08:45:36
... 5700XT Nitro+ als auch mit 6800XT Nitro+ in 4k und in Ultra getestet:
.....
Danke :up:

Das ist hilfreicher als so manche "first Day Werbung" ;)

M.f.G. JVC

sChRaNzA
2020-12-18, 09:21:04
Die Threads sind alle so geteilt, keine Ahnung wo das am besten hinein passt.

„ASUS and MSI demonstrate Resizeable BAR (AMD Smart Access Memory) working on Zen and Zen2 CPUs“

https://videocardz.com/newz/asus-and-msi-demonstrate-resizeable-bar-amd-smart-access-memory-working-on-zen-and-zen2-cpus

NeMeth
2020-12-18, 11:25:41
weil ich mit Hilfe von TRIXX softwaremäßig zwischen Standard-BIOS und Silent-BIOS wechseln kann.

Kannst du das mit der aktuellen Trixx-Version schon?
Weil mit meiner 6800 geht es nicht.

Taigatrommel
2020-12-18, 11:35:04
Die Threads sind alle so geteilt, keine Ahnung wo das am besten hinein passt.

„ASUS and MSI demonstrate Resizeable BAR (AMD Smart Access Memory) working on Zen and Zen2 CPUs“

https://videocardz.com/newz/asus-and-msi-demonstrate-resizeable-bar-amd-smart-access-memory-working-on-zen-and-zen2-cpus

Das sind gute und gleichzeitig interessante Nachrichten. Der "passive" Bonus durch SAM wäre ein kleinerer Zusatzgrund, in absehbarer Zeit den vorhandenen Zen 2 durch die neuere Generation zu ersetzen, dies würde sich so etwas relativieren.
Bleibt die Frage: Wird dies von AMD auch offiziell abgesegnet und wenn ja: Wie sieht es mit der Performance aus? Wird diese genauso gut wie bei Zen 3 ausfallen, deutlich geringer oder haben wir vielleicht sogar mit einem möglichen Leistungsverlust zu kämpfen?

Sollte es tatsächlich mehr oder minder problemlos mit den älteren Ryzen funktionieren, dann sehe ich AMD schon ein wenig im Zugzwang, zumal die Technik ja nun nach und nach auch bei Intel und nVidia Einzug findet. Andererseits denke ich da immernoch an PCIe 4.0 auf X470 von Asus und Gigabyte zurück, es funktionierte, doch AMD machte dem Vorstoß einen Strich durch die Rechnung. Von daher bin ich eher vorsichtig, nicht das AMD hier genauso handelt.

GerryB
2020-12-18, 13:30:48
Jo, ich wollte damit nur sagen, dass ich auch 1025mV im Wattman eingestellt hatte, also beides gleich war.

User bath bei PCGH hat mal 3 Settings näher beleuchtet mit seiner 6800Nitro.
(kann sein, das Er den Vram net so sehr OCed um PL für die GPU zu sparen)
https://extreme.pcgameshardware.de/threads/amd-radeon-bignavi-rdna2-laberthread.577672/page-78#post-10606379

Ob Jeder bei der SOC-Spannung so weit runter kann weiss ich net.
Das PL=227W im MPT zzgl. PL+15% = gesamt 261W wurde als Grenze vor Notabschaltung ermittelt. Weiss net ob ne Ref evtl schon bei 255W dicht macht.

Wiseman
2020-12-18, 13:38:36
Kannst du das mit der aktuellen Trixx-Version schon?
Weil mit meiner 6800 geht es nicht.

Ging bei mir bis heute mit der Version 7.5 auch nicht. Aber ich hab gute Kunde. Sapphire hat heute eine neue Version 8.0.0 rausgebracht und die funktioniert ordnungsgemäß. Zum Downloaden einfach mit "TriXX 8.0.0" googlen.

CoolhandX
2020-12-18, 15:37:13
Mal ne Frage an die Cracks. Ich habe soweit alles im BIOS für SAM aktiviert, Windows 10 hat auch die richtige Installation dafür, aber kann man irgendwo sehen dass das Feature auch aktiv ist?

NeMeth
2020-12-18, 15:38:39
Ging bei mir bis heute mit der Version 7.5 auch nicht. Aber ich hab gute Kunde. Sapphire hat heute eine neue Version 8.0.0 rausgebracht und die funktioniert ordnungsgemäß. Zum Downloaden einfach mit "TriXX 8.0.0" googlen.

Ah danke, noch nicht mit bekommen. Hab die letzten Tage immer mal geschaut. :)

dargo
2020-12-18, 23:28:19
Igors Review zur Nitro+ RX 6800XT.

JnvauZ9PxF4

Raff
2020-12-18, 23:34:42
Mal ne Frage an die Cracks. Ich habe soweit alles im BIOS für SAM aktiviert, Windows 10 hat auch die richtige Installation dafür, aber kann man irgendwo sehen dass das Feature auch aktiv ist?

Am sichersten ist, einen Vorher-Nachher-Benchmark zu machen, anstatt sich auf Software-Readings zu verlassen. Check mal Forza Horizon 4 oder Red Dead Redemption 2, da ballert's am besten durch. :)

MfG
Raff

Wiseman
2020-12-19, 05:47:12
Ah danke, noch nicht mit bekommen. Hab die letzten Tage immer mal geschaut. :)

Und? Schon ausprobiert die neue Trixx-Version 8.0?

Ist schon eine coole Sache, wenn man softwaremäßig BIOS-Switchen kann. Ich habs heute ausprobiert. Ich hab meine Nitro+ 6800XT erst seit ein paar Tagen und hab bisher nur das Silent-BIOS verwendet. Flüsterleise, wie ich schon mehrmals erwähnte. Zu meiner Überraschung durfte ich heute feststellen, dass das Standard-BIOS auch flüsterleise ist, obwohl sich die 3 Lüfter jetzt mit mehr RPMs drehen (bis in den 14xx-er Bereich). Das war bei der Nitro+ 5700XT ganz anders. Da drehten die 3 Lüfter im Standard-BIOS bis in den 16xx-er Bereich und waren für meinen Geschmack zu laut.

Na gut, ich hab das Standard-BIOS heute nur in ein paar Benchmarks überprüft. Aber wenn es in den nächsten Tagen und Wochen beim stundenlangen Spielen weiterhin so flüsterleise bleibt, lass ich es drauf. Leistungsmäßig bringt das Standard-BIOS ja auch ein bisschen mehr.

OgrEGT
2020-12-19, 10:23:03
Ah danke, noch nicht mit bekommen. Hab die letzten Tage immer mal geschaut. :)

Super... das ging ja schnell :)
Läuft... jetzt kann man endlich die Beleuchtung reduzieren bzw. abschalten...

Wiseman
2020-12-19, 16:27:08
Liebe Freunde von Team Red, ihr erinnert euch sicher noch an das Review von ComputerBase vom 18.11.20 mit dem Titel "RDNA 2 gegen Nvidia Geforce RTX 3000".

In diesem Review konstatierte CB der 6800XT in 4k zunächst einen Rückstand von 6% auf die RTX 3080 Ref und schrieb dann weiter:

Auch wenn der aktuelle Testparcours erst wenige Monate alt ist, buhlen mittlerweile einige wichtige neue Spiele um die Gunst der Gamer. Sie haben es nicht mehr in den Parcours geschafft, sollen aber trotzdem Erwähnung finden. Benchmarks von Assassin's Creed Valhalla, Call of Duty Black Ops: Cold War, Dirt 5, Mafia: Definitive Edition, Serious Sam 4, Star Wars: Squadrons und Watch Dogs: Legion finden sich deshalb nachgelagert im Test. Das neue COD BO: CW sowie Watch Dogs Legion unterstützen auch Raytracing, was zusätzlich getestet wurde.

In neuen Spielen ist Big Navi teils richtig schnell

Jaaa, kann man so sagen. In Dirt 5 z. B. liegt die 6800XT laut CB 17% vor der 3080 Ref und 7% vor der 3090 Ref.

In Assassin's Creed: Valhalla liegt die 6800XT (47.6 fps) laut CB 6% vor der 3080 Ref (44.9 fps) und 3% hinter der 3090 Ref (49.1 fps).

Nachdem ich gestern bei Epic Games das Spiel "Assassin's Creed: Valhalla" um 1/3 günstiger kaufen konnte, habe ich es mit meiner funkelnagelneuen Nitro+ 6800XT auch mal getestet. Ich benützte den eingebauten Benchmark.

Wie CB getestet hat, weiß ich nicht genau. CB schreibt was von UltraHD also 4k, aber nichts von den Graphics Settings. Außerdem dürfte CB einen eigenen Benchmark-Parcours verwendet haben, denn ich kam im eingebauten Benchmark zu ganz anderen Ergebnissen als CB mit meiner Nitro+ 6800XT (Siehe Anhang).

Schaut doch gut aus, oder? Erneut über 60 fps. Beachtet auch den Watt-Verbrauch. Ich hab hier mit Standard-BIOS getestet. Das Standard-BIOS der Nitro+ verbraucht max 289 Watt. In Assassin's Creed: Valhalla sind es aber deutlich weniger.

Raff
2020-12-19, 16:41:35
AC Valhalla ist derzeit (aus unbekannten Gründen) der RDNA-2-Performance-Showcase (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/). Nvidia wird gerade in niedrigen Auflösungen demontiert. Ich wüsste ja gerne, woher das kommt. :)

MfG
Raff

mironicus
2020-12-19, 16:46:41
Vor allem... was ist an dem Spiel so anspruchsvoll daß keine Karte 60 FPS in 4K schafft?

Wiseman
2020-12-19, 16:55:22
Vor allem... was ist an dem Spiel so anspruchsvoll daß keine Karte 60 FPS in 4K schafft?

Na, ich hab doch 60 fps in 4k geschafft. Sind sogar 67 fps.

Raff
2020-12-19, 16:58:01
Ja, im integrierten Benchmark. Wie du u. a. bei PCGH siehst, gibt es im Spiel aber Szenen (ganz ohne Action), die die Fps deutlich droppen lassen (57 Fps avg. mit 6900 XT in UHD). Fornberg ist das Kaff, welches man nach der Befreiung der Crew kurz nach Spielstart ansteuert.

MfG
Raff

Wiseman
2020-12-19, 17:00:36
AC Valhalla ist derzeit (aus unbekannten Gründen) der RDNA-2-Performance-Showcase (https://www.pcgameshardware.de/Radeon-RX-6900-XT-Grafikkarte-276950/Specials/RX-6900-XT-oder-RX-6800-XT-OC-Vergleich-mit-RTX-3090-1363216/). Nvidia wird gerade in niedrigen Auflösungen demontiert. Ich wüsste ja gerne, woher das kommt. :)

MfG
Raff

Raff, du schreibst

Zwar handelt es sich nicht um den PCGH-Standardparcours,

Welchen Benchmark-Parcours hast du verwendet? Den gleichen wie CB? Bei dir schaut das 4k-Ergebnis der RTX 3090 (48.8 fps) genauso ernüchternd aus wie bei CB (49.1 fps).

rm-zocker
2020-12-20, 10:18:19
Die 6800 XT Red Dragon habe ich vorbestellt, aber jetzt kommen mir Zweifel ob ich Netzteil seitig stark genug aufgestellt bin.
Vielleicht könnt ihr mir da weiterhelfen.
Rechner ist derzeit so wie folgt aufgebaut:

MSI 550 Pro A
Ryzen 7 5800X
32 GB DDR 3200
Be Quiet Pure Power 700 Watt
3 Gehäuse Lüfter + Be Quiet Dark 4
Laufwerke: 2x SSD, 1x NVMe, 1x HDD, 1x Brenner
und halt wenn sie endlich irgenwann geliefert wird die oben genannte 6800XT
zukünftig soll der zweite M2 Schacht noch mit einer Pcie Gen 4 NVMe bestückt werden.
Overclocking spielt bei mir keine Rolle mehr.

Was meint ihr reicht das 700 Watt NT für die aufgelistete Hardware?

Raff
2020-12-20, 10:24:51
Welchen Benchmark-Parcours hast du verwendet? Den gleichen wie CB? Bei dir schaut das 4k-Ergebnis der RTX 3090 (48.8 fps) genauso ernüchternd aus wie bei CB (49.1 fps).

Das sind verschiedene Testszenen, aber offenbar beide anspruchsvoll(er als der integrierte Benchmark). :)

Die 6800 XT Red Dragon habe ich vorbestellt, aber jetzt kommen mir Zweifel ob ich Netzteil seitig stark genug aufgestellt bin.
Vielleicht könnt ihr mir da weiterhelfen.
Rechner ist derzeit so wie folgt aufgebaut:

MSI 550 Pro A
Ryzen 7 5800X
32 GB DDR 3200
Be Quiet Pure Power 700 Watt
3 Gehäuse Lüfter + Be Quiet Dark 4
Laufwerke: 2x SSD, 1x NVMe, 1x HDD, 1x Brenner
und halt wenn sie endlich irgenwann geliefert wird die oben genannte 6800XT
zukünftig soll der zweite M2 Schacht noch mit einer Pcie Gen 4 NVMe bestückt werden.
Overclocking spielt bei mir keine Rolle mehr.

Was meint ihr reicht das 700 Watt NT für die aufgelistete Hardware?

Da sehe ich absolut keine Probleme. Der 5800X ist nicht versoffen, die Red Dragon zieht wohl etwas mehr als 300 Watt und du willst nicht übertakten. Alles gut, wahrscheinlich sogar locker. Hättest du stattdessen eine RTX 3080/3090 bestellt, müsste man sich "Generalsorgen" machen. ;)

MfG
Raff

rm-zocker
2020-12-20, 10:32:55
Das sind verschiedene Testszenen, aber offenbar beide anspruchsvoll(er als der integrierte Benchmark). :)



Da sehe ich absolut keine Probleme. Der 5800X ist nicht versoffen, die Red Dragon zieht wohl etwas mehr als 300 Watt und du willst nicht übertakten. Alles gut, wahrscheinlich sogar locker. Hättest du stattdessen eine RTX 3080/3090 bestellt, müsste man sich "Generalsorgen" machen. ;)

MfG
Raff

danke Raff :-)


Wie würdet ihr die Karte mit dem Netzteil verbinden? Beide 8 Pin Stecker von einem 12 Volt Kabelstrang nutzen oder jeweils einen 8 Pin Stecker pro Strang?

OgrEGT
2020-12-20, 12:24:11
danke Raff :-)


Wie würdet ihr die Karte mit dem Netzteil verbinden? Beide 8 Pin Stecker von einem 12 Volt Kabelstrang nutzen oder jeweils einen 8 Pin Stecker pro Strang?
Wenn dein Netzteil für die Graka getrennte 12V Leitungen pro 8Pin Kabel nach außen führt dann getrennt. Wenn Du nicht übertaktest dann geht ggf auch ein YSplit an einem Kabel... kommt darauf an wieviel Leistung am Kabel gezogen werden soll und wieviel das Netzteil liefern kann...

Matrix316
2020-12-20, 12:51:43
Das sind verschiedene Testszenen, aber offenbar beide anspruchsvoll(er als der integrierte Benchmark). :)

Da sehe ich absolut keine Probleme. Der 5800X ist nicht versoffen, die Red Dragon zieht wohl etwas mehr als 300 Watt und du willst nicht übertakten. Alles gut, wahrscheinlich sogar locker. Hättest du stattdessen eine RTX 3080/3090 bestellt, müsste man sich "Generalsorgen" machen. ;)

MfG
Raff
Och, also bei mir läuft eine 3080 die jetzt von Haus aus nicht die langsamste ist, mit stärker stromziehender CPU und Mainboard und ähnlicher Ausstattung mit einem 650 W Netzteil. Da sollte auch ein ähnliches 700W NT für eine 6800 XT ausreichen.

Raff
2020-12-20, 12:55:30
Bis zum Ampere-Launch hätte ich das locker unterschrieben. Aber da sind so viele scheinbar "überlegene" Netzteile ausgestiegen (Over-Current Protection), dass man da vorsichtiger sein sollte. Mittlerweile wurde das ja entschärft, aber der generelle Suff mit gemeinen Spikes bleibt. RDNA 2 ist zwar auch kein Kostverächter, aber nun mal etwas zärtlicher im Zusammenspiel mit Schutzmechanismen. :)

MfG
Raff

Dschounz
2020-12-20, 13:20:43
Bis zum Ampere-Launch hätte ich das locker unterschrieben. Aber da sind so viele scheinbar "überlegene" Netzteile ausgestiegen (Over-Current Protection), dass man da vorsichtiger sein sollte. Mittlerweile wurde das ja entschärft, aber der generelle Suff mit gemeinen Spikes bleibt. RDNA 2 ist zwar auch kein Kostverächter, aber nun mal etwas zärtlicher im Zusammenspiel mit Schutzmechanismen. :)

MfG
Raff

+1

Grade Seasonic war da sehr "fix" bei der Sache, leider der Abschaltsache :freak:

Mein 530W beQuiet hat sogar die 3090 weggesteckt plus 5775c, aber was da an Abluft aus dem NT kam, war so warm, dass ich für die nächsten Wochen auf´s Ableben meines Kraftspenders gewettet hätte.

Jetzt ist sie auf 806mV bei 1800MHz festgetackert und Ruhe (was NT-Lüfter und Spulenrasseln/singen angeht) ist....bei RDNA2 ist das mit den Spikes,was Stromstärke angeht, viel unkritischer.

Also: Bei Ampere. gerne mehr :biggrin:

Bei BigNavi wird die Kombo funzen :up:

gedi
2020-12-20, 15:45:32
Zur Info: Mit dem neuesten Treiber kann man die Vcore bis auf 1.175V erhöhen :)

Raff
2020-12-20, 16:09:44
Bei der 6900 XT geht das schon immer. Nun auch bei der 6800 XT? Gewiss aber nicht bei der 6800.

MfG
Raff

gedi
2020-12-20, 16:14:22
Bei der 6900 XT geht das schon immer. Nun auch bei der 6800 XT? Gewiss aber nicht bei der 6800.

MfG
Raff

Mit dem MPT geht es bei der XT. Besser allerdings noch, dass mit dem MPT auch richtiges UV funktioniert! Gebe ich 1050mV im MPT an, dann liegen auch max. 1.05V an :) Der Verbrauch sinkt so um bis zu 80W.

Glaube mein 24/7-Setting gefunden zu haben. 1.131V bei 2.66G - läuft prima

DennisO2
2020-12-20, 19:17:39
Wie würdet ihr die Karte mit dem Netzteil verbinden? Beide 8 Pin Stecker von einem 12 Volt Kabelstrang nutzen oder jeweils einen 8 Pin Stecker pro Strang?

Schau mal ins Handbuch, da sind detaillierte Vorschläge drin. Ich hatte "damals" den Fehler gemacht, die Vega64(?) an Anschluss 1 und 2 anzuschießen - ist davor immer gelaufen, aber nun steig das Netzteil bei Last und etwas OC aus. Dachte schon, es wäre alt oder zu schwach. Der BeQuiet-Telefonsupport hat mir auch zu einem neuen geraten.

Tja, nur war die Karte damit an einem Strang gehängt, der nur eine Lastsicherung hat. Überstromschutz und aus war die Maus. richtig wäre es gewesen, die Anschlüsse 1 und 3 zu nehmen, damit hätte man pro Kabel soviel Leistung ziehen können, wie ich auf einem hatte.

Naja, dafür habe ich nun ein 750W Netzteil statt eines 650W Netzteils :D .

gedi
2020-12-20, 20:15:16
Die ASIC-Power lässt sich per MPT nu bis 320W einstellen, so dass bei PT+15% max. ~370W anliegen :biggrin:

aufkrawall
2020-12-21, 15:38:44
Wie bekommt man Shadowlands und Godfall bei Alternate? In der Produktbeschreibung waren sie zum Kaufzeitpunkt enthalten, der Saftladen meldet sich aber nicht auf meine Email...

Slipknot79
2020-12-22, 01:09:23
Mit dem Anwalt drohen.

dargo
2020-12-22, 20:53:00
Die AORUS Serie von Gigabyte hat aber schon ein spezielles Lüfterdesign. :tongue:

rVdd4qCqx7E

DennisO2
2020-12-23, 14:16:06
[...]vielleicht kann ich ja zumindest den einen oder anderen 5700XT Nitro+ User ansprechen, der am Überlegen ist, ob er auf eine 6800XT Nitro+ umsteigen soll.
Hätteste den Beitrag nicht mal ein paar Tage früher schreiben können ;) ? Du hast damit alle meine Fragen beantwortet und ich hätte nichts mehr lesen müssen. Ich hatte genau deine Problemstellung und habe "auf gut Glück" ein 6800 Nitro+ (ohne XT) gekauft, habe allerdings auch keinen 4k-Monitor, sondern "nur" 3,5k (4k-Breite, aber nur 1600 Höhe Ultra-Breitbild).
Vielen Dank aber auch im Nachhinein, es war auch mit schon erfolgtem Kauf sehr angenehm zu lesen.

Ich möchte nur noch ein paar kleine Details von mir ergänzen.


1. Meine nächste Karte sollte genau so flüsterleise und frei von unangenehmen Nebengeräuschen wie meine 5700XT Nitro+ im Silent-BIOS laufen.

Diese Anfangsbedingung war bei mir anders: Die 5700XT lief nur im höchsten Sommer im Silent-Bios, ansonsten hatte sie für mich in fast allen Spielen nie "genug" Leistung, um da Abstriche zu machen. Deswegen hat sie dann in Tropico 6, Battlefront II oder XCom2 auch mal "lauter" aufgedreht, auch wenn sie dabei noch leise, aber durch leise Spielmusik halt noch deutlich hörbar war. In Battlefront II ist mir das hingegen nie aufgefallen, viel zu beschäftigt war man vom Ballern.
Kurz gesagt: Die 6800 hat den identischen Kühler, der auch auf der 6800XT verbaut ist und der eine Verbesserung zur 5700XT darstellt. Er ist nun endlich auch im Leistungs-Bios so flüsterleise wie es die 5700XT für mich nie war - und selbst die war ja schon eine der leiseren Karten.


2. Mit war klar, dass eine Karte, die fast die doppelte Leistung bringt, mehr Watt verbrauchen wird (5700XT Nitro+ 195 Watt im Silent-BIOS). 300 Watt und mehr sollten es aber auf keinen Fall sein.


Auch hier ist mein Urteil zur 6800 noch besser als deins: Durch den Leistungsmangel der 5700XT lief sie immer mit erhöhtem Powerlimit im Leistungs-Bios und fraß da auch mal 250W - da ist die 6800 kaum hungriger, oft noch sparsamer. Außer in Gothic 3, da fraß die alte (bei schlechteren Bildraten) 30W und die 6800 nun 50W :D .


3. Mit einer Big Navi Karte möchte ich endlich alles, was ich so spiele - bin Offline-Gamer in Reinkultur - auf meinem native 4k Monitor mit mindestens 60 fps spielen können.

Vermutlich ist die 6800XT bei 4k genau das, was meine 6800 für 3,5k ist. Alles läuft traumhaft, bei alten Spielen hängt die Karte konstant in den 75Hz maximalen Wiederholrate des Monitors (VSync). Allein Tropico 6 schafft 200% Oversampling (bei allem auf Maximaleinstellung) nur unter Ruckeln, da musste ich auf 120% reduzieren ;) .


Fazit: Abgesehen von der momentanen, unverschämten Abzocke, der auch ich meinen Tribut zollen musste, weil ich nicht eventuell ein halbes Jahr noch auf eine Preisberuhigung warten wollte, bin ich vorläufig rundum zufrieden mit meiner Big Navi. 4k, ich komme.
Rechnerisch ging es bei mir sogar: Die 6800 für 570€UVP, die Nitro+ bestimmt 150€ teurer, also 720€. Ich habe jetzt 800€ gezahlt, das sind grad mal 80€ "zuviel". Aber viel mehr wirst du (auf höherem Niveau) auch nicht bezahlt haben, oder?

Mein Fazit: Eigentlich wollte ich die 6800 nur als Übergangslösung, bis eine 6900LC (vernünftig) käuflich ist. Aber momentan überlege ich wirklich, ob sich das lohnt. Alle Spiele, die ich noch spielen will (fast nur altes Zeugs, mein Rückstau ist groß) läuft mit maximalen Einstellungen mit maximaler Bildrate und bis ich Gothic 3 Addon, Risen 1-3, Elex, Ruse, XCom2+Addon durch habe, gibt es sicherlich schon die 7800XT :D .

aufkrawall
2020-12-23, 14:21:10
Außer in Gothic 3, da fraß die alte (bei schlechteren Bildraten) 30W und die 6800 nun 50W :D .

Placebo, da wirds im CPU-Limit keinen Unterschied bei den fps geben.
Mehr fps gibts da nur unter Linux mit RADV anstatt den Vulkan-Treiber von AMD selbst (amdvlk), weil Letzterer mit DXVK manchmal Overhead-Probleme hat.

DennisO2
2020-12-23, 14:39:03
Placebo, da wirds im CPU-Limit keinen Unterschied bei den fps geben.
Mehr fps gibts da nur unter Linux mit RADV anstatt den Vulkan-Treiber von AMD selbst (amdvlk), weil Letzterer mit DXVK manchmal Overhead-Probleme hat.

Mein Kopf gibt dir recht, aber die mit der 6800 wieder hochdrehbare Weitsicht spricht dagegen. Rein ins Blaue getippt: Vielleicht hat es irgendwo im Frontend gehakt, SAM entlastet die CPU ;) oder die 6800 taktet nicht mehr so weit runter und es kommt zu keinen Stromsparproblemen mehr? Jemand hatte doch den Tipp gegeben, bei Gothic 3 den Minimaltakt hochzuziehen.

Nebenbei: Auch bei meiner neuen Kombi Monitor und 6800 war dein Tipp mit den v-blanks wieder Gold wert. Ohne Anpassung taktete der Videospeicher im Desktop nicht runter.

dargo
2020-12-23, 14:59:03
Hier gibts ein türkisches Review zur XFX RX 6800XT SPEEDSTER MERC 319.
https://youtu.be/1RtFkjzPQRg?t=440

Er testet folgende Spiele - CoD, Cyberpunk 2077, Dirt 5 inkl. Raytracing und Valhalla. Ich finde solche Reviews echt interessant da man schön sehen kann wie die Kühlung ausfällt.

Edit:
Und hier etwas Werbung von Sapphire für ihre RX 6800XT Nitro+ und CP77. :tongue:
J4oJB6KIVnE

aufkrawall
2020-12-23, 15:10:14
SAM entlastet die CPU ;)
Verrückt, aber bei diesem Spiel dürfte einen ja gar nichts wundern. :freak:
Bro hatte es jedenfalls mit der 6800 + Zen 2 (ohne SAM) + DXVK auch kurz laufen und es lief bescheiden wie eh und je. Die "epische" Anfangsschlacht von außerhalb beobachtet lief so mit ~95fps im CPU-Limit mit regelmäßigen Einbrüchen/Spikes, bei mir dem 6700k + 5700 XT ebenfalls. Unter Linux mit RADV hab ich >120fps (aber auch noch die Einbrüche, wofür ich jedoch das Spiel verantwortlich mache). Konnte bisher noch keine Nachteile durchs Runtertakten feststellen (könnte unter Linux auch durchgängig Volltakt erzwingen, wenn ich wollte).

dargo
2020-12-23, 15:31:07
Auch ganz nett, obwohl die Entfernung natürlich bullshit ist. :tongue:

AMD Radeon RX 6900 XT/6800 XT/6800 Reference Design Noise/Fan Testing
cpSk1uko_AY

Würde schätzen die 1.400 RPM gehen für mich noch völlig in Ordnung (die 1.250RPM wären perfekt). Die 1.700RPM wohl eher nicht mehr. :D

btw.
Irgendwas brummt da bei ihm, finde sowas immer nervig. Die Wasserpumpe?

WedgeAntilles
2020-12-23, 15:38:36
Edit:
Und hier etwas Werbung von Sapphire für ihre RX 6800XT Nitro+ und CP77. :tongue:
https://youtu.be/J4oJB6KIVnE

Wieso bewirbt man seine Karte mit einem Spiel, dass zwar nicht schlecht, aber anderswo halt deutlich hübscher aussieht? :confused:

CP ist doch nicht alles. Da nehme ich doch eines der unzähligen anderen Spiele bei denen meine Karte dann auch die beste Optik darstellt.

IMO einfach idiotisch von Sapphire.

dargo
2020-12-23, 15:45:01
Vielleicht weil der Mehrheit der Gamer RT am Arsch vorbei geht? Schon mal daran gedacht?

Thunder99
2020-12-23, 15:52:36
Wieso?
CP77 ist einfach am angesagtetens und in allen Munde. Daher nur logisch seine Karte für das Spiel anzupreisen :)

dargo
2020-12-23, 16:10:26
In allen Munde ist es eher wegen der ganzen Bugs. ;D

Screemer
2020-12-24, 23:09:13
Mein bykski für 6800xt und 6900 ist da. Aber leider keine Karte in Sichtweite ;(

Langlay
2020-12-25, 01:10:01
Mein bykski für 6800xt und 6900 ist da. Aber leider keine Karte in Sichtweite ;(

Bei mir ist andersrum. Ich hab seit 2 Wochen die Karte und warte auf den bestellten Wasserkühler.

WedgeAntilles
2020-12-25, 11:42:27
Vielleicht weil der Mehrheit der Gamer RT am Arsch vorbei geht? Schon mal daran gedacht?

Und weil CP und RT den Gamern am Arsch vorbei geht muss ich mit dem Spiel werben?
Oder wieso soll mir RT am Arsch vorbeigehen, wenn ich CP zocken will? RT sieht bei CP super aus.


Das CP nicht alles ist sage ich ja - genau das ist ja mein Punkt.
Es gibt doch viele Leute, die CP nicht interessiert. Und es gibt tonnenweise Spiele (quasi jedes andere Spiel), das kein RT hat oder wo RT eher egal ist.
Jedes Spiel davon ist gut geeignet um die 6800XT zu bewerben.

Aber nein. Saphire sucht sich DAS EINE Spiel aus, dass auf ner AMD Karte halt - im Vergleich zu ner nVidia Karte - qualitativ deutlich schlechter aussieht.

Kannst du dir nicht ausdenken ;D

Screemer
2020-12-25, 11:44:09
Bei mir ist andersrum. Ich hab seit 2 Wochen die Karte und warte auf den bestellten Wasserkühler.
Soll ich dir den bykski schicken? Der liegt hier eh nur rum. Allerdings ohne backplate und RGB Bling. Ich wollte die BP der ref. nutzen da ich die sehr chick fand.

gedi
2020-12-25, 12:02:07
Imo die beste 6800XT: https://www.techpowerup.com/review/asrock-radeon-rx-6800-xt-taichi-x/34.html

Insbesondere der Verbrauch sticht heraus :up:

dargo
2020-12-26, 20:19:29
Hier gibts auch noch ein Lebenszeichen von der RX 6800 XT GAMING X TRIO.
0yqKhLLmefI

Leider wird die Karte selbst in 4k mit Cyberpunk 2077 nicht ausgelastet. Und im Overlay fehlen auch die Angaben zu Lüfter-RPM.

Imo die beste 6800XT: https://www.techpowerup.com/review/asrock-radeon-rx-6800-xt-taichi-x/34.html

Insbesondere der Verbrauch sticht heraus :up:
Interessant finde ich das Delta zwischen GPU und Hotspot... nur 13°C im Quiet Bios? Das sind 12°C weniger beim Hotspot als bei der Nitro+ mit Quiet Bios. :eek:

Effe
2020-12-26, 21:03:57
Igor hat die baldige Ankunft der MSI bei ihm angekündigt.

F5.Nuh
2020-12-26, 21:23:58
Habe eine AMD 6800 Standard also keine Custom. Ich habe jetzt nicht genau getestet aber sie schafft bei 0,9V durchschnittlich ca. 2460 mhz Coretakt.

Mehr wäre bestimmt möglich, keine Lust das zu testen. Leistung reicht ja ersteinmal bei 1440p locker.

Dabei ist sie sehr Kühl und die Lüfter laufen nicht ansatzweise auf vollen Touren man hört diese aber leicht.

VaporVader
2020-12-26, 22:23:03
Habe eine AMD 6800 Standard also keine Custom. Ich habe jetzt nicht genau getestet aber sie schafft bei 0,9V durchschnittlich ca. 2460 mhz Coretakt.

Mehr wäre bestimmt möglich, keine Lust das zu testen. Leistung reicht ja ersteinmal bei 1440p locker.

Dabei ist sie sehr Kühl und die Lüfter laufen nicht ansatzweise auf vollen Touren man hört diese aber leicht.

Wo hast 0,9V eingestellt? Über das Morepowertool oder im Wattman?

F5.Nuh
2020-12-26, 22:37:52
Wo hast 0,9V eingestellt? Über das Morepowertool oder im Wattman?

Bei der Standard Radeon Software von AMD

PingpiN
2020-12-27, 00:51:59
Erbärmlich AMD! Hätte gerne ne 6800 XT gekauft fur Maximal 750 Euro... Jetzt warte ich lieber auf die 3080 Ti weil sie einen mehr vorteile bietet.. DLSS Raytracing! Das muss ich leider zugeben obwohl ich AMD eher mag.;D:P

Der_Korken
2020-12-27, 01:17:06
Interessant finde ich das Delta zwischen GPU und Hotspot... nur 13°C im Quiet Bios? Das sind 12°C weniger beim Hotspot als bei der Nitro+ mit Quiet Bios. :eek:

Das scheint wohl ne ziemliche Lotterie zu sein. Bei CB haben Referenz, Nitro und Red Devil ziemlich exakt 17-18°C Delta: https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#diagramm-temperatur

Bei der 5700XT war die Nitro bei CB auffällig gut bei der Junction so wie die Taichi jetzt bei Techpowerup. Keine Ahnung wovon das abhängt.

r3ptil3
2020-12-27, 02:52:14
Offensichtlich haben in dem Fall alle Custom-Luftkühlungen eine Art "Problem".
Powercolor, Sapphire, XFX Merc... liegen alle in etwa auf der gleichen Stufe wie die Referenz, sprich kaum eine Verbesserung.

Wenn man sich nochmals vor Augen führt was die GPU-Junction-Temperatur bedeutet und zwar die höchste Temperatur, welche durch einen Sensor am Chip ermittelt wird, könnte dies folgendes bedeuten:
- Qualitätsmängel an der Kühleroberfläche
- schlechte Konstruktion (Wärmeentwicklung durch andere Bauteile in der Nähe vom Sensor)
- Anpressdruck nicht gleichmässig?

Die normale Temperatur wiederum wird durch alle am Chiprand befindlichen Sensoren ermittelt, wenn ich mich nicht irre.

Mich interessiert jetzt was eine luftgekühlte Strix 6800 XT für eine GPU-Junction-Temp rausbringt.

Wenn ich mir die ASRock-Seite anschaue, erwähnen sie auch explizit, dass der Anpressdruck optimiert wurde (Optimized mounting pressure), was vielleicht genau dem Problem der Junction-Temp entgegenwirken könnte.

Kennt da jemand ein Review der luftgekühlten Strix 6800/6900?

gedi
2020-12-27, 09:40:16
Erbärmlich AMD! Hätte gerne ne 6800 XT gekauft fur Maximal 750 Euro... Jetzt warte ich lieber auf die 3080 Ti weil sie einen mehr vorteile bietet.. DLSS Raytracing! Das muss ich leider zugeben obwohl ich AMD eher mag.;D:P

Wenn du SAM/BAR benutzen willst, dann wirst aber zur 3080Ti/3090 greifen müssen, da hier der Vram zugeschaufelt wird, wovon se ja eh viel zu wenig hat :P

HOT
2020-12-27, 10:19:42
Erbärmlich AMD! Hätte gerne ne 6800 XT gekauft fur Maximal 750 Euro... Jetzt warte ich lieber auf die 3080 Ti weil sie einen mehr vorteile bietet.. DLSS Raytracing! Das muss ich leider zugeben obwohl ich AMD eher mag.;D:P
Als wenn man die besser bekommen würde :freak:, sowas albernes, sry.

ChaosTM
2020-12-27, 10:22:32
Momentan kriegt man fast gar nix im Bereich High-End G/CPU.
Wollte gestern eine neue CPU bestellen, weil mein Brettl jetzt auch Ryzen3 unterstützt. Pustekuschen.. der billigste 5900er war um, 850!! drinnen und natürlich nicht lieferbar.

-/\-CruNcher-/\-
2020-12-27, 10:51:30
Imo die beste 6800XT: https://www.techpowerup.com/review/asrock-radeon-rx-6800-xt-taichi-x/34.html

Insbesondere der Verbrauch sticht heraus :up:


~100W für +20 UHD Frames AVG kein alzu schlechter deal aber wenn man bedenkt das DLSS fast das selbe leisten kann ;)

Aber ja die Daten der Karte sehen sehr überzeugend aus hoffentlich nimmt auch Igor die mal auseinander :)

Da kommt ja mal wieder was richtig interessantes aus den ASRock Labs "mit seinen gedanken zu seinem Low cost 939 ASRock ULI Meisterwerk Board schwelkt https://www.asrock.com/mb/ULi/939Dual-SATA2/ ohne das Nvidia wohl nie ULI weggeschnapt hätte https://www.eetimes.com/nvidia-to-acquire-taiwans-uli/" :D

vinacis_vivids
2020-12-27, 11:07:58
100W für +20 UHD Frames AVG kein alzu schlechter deal aber wenn man bedenkt das DLSS fast das selbe leisten kann ;)

DLSS-upscale kann man vergleichen mit RIS-upscale, wobei AMD die bessere BQ hat.

4K native ~ 1800p + RIS für 30% mehr fps.
Was Nvidia als Neuheit verkauft wird schon lange in Konsolen betrieben und nun seit Navi auch für PC's freigeschaltet.

Ist eine Frage der Zeit bis AMD es auch für Polaris oder Vega freischaltet.

Die Taichi hat einen extrem hochwertigen "Stromtaktcontroller", der wohl alle anderen übertrifft.

So ne Taichi 6900XT wird noch mehr aus Big-Navi rausholen können.

"GPU Chip Voltage Controller
GPU voltage is powered by an expensive Infineon XDPE132G5D running with 13 power phases."

-> 13 Phasen für die Kontrolle der GPU-Spannung ist schon geil 🙏
-> Der Controller kann 16 Phasen, AMD steuert Big Navi mit 13 Phasen, so ist richtig 😅

EDIT: bei hwluxx mit der Sapphire Nitro 6800XT wird der Controller mit 16 Phasen angegeben, bei TPU mit TaiChi 6800XT mit 13 Phasen 🤣, egal beide Aussagen richtig.

dargo
2020-12-27, 11:27:20
Momentan kriegt man fast gar nix im Bereich High-End G/CPU.
Wollte gestern eine neue CPU bestellen, weil mein Brettl jetzt auch Ryzen3 unterstützt. Pustekuschen.. der billigste 5900er war um, 850!! drinnen und natürlich nicht lieferbar.
:confused:
https://www.computeruniverse.net/de/amd-ryzen-9-5900x-box-ohne-kuehler?utm_channel=psm&utm_source=geizhals&utm_campaign=cpc&utm_medium=katalog&utm_content=artikel&agt=288

Ist natürlich dennoch weit über der UVP.

-/\-CruNcher-/\-
2020-12-27, 12:10:51
DLSS-upscale kann man vergleichen mit RIS-upscale, wobei AMD die bessere BQ hat.

4K native ~ 1800p + RIS für 30% mehr fps.
Was Nvidia als Neuheit verkauft wird schon lange in Konsolen betrieben und nun seit Navi auch für PC's freigeschaltet.

Ist eine Frage der Zeit bis AMD es auch für Polaris oder Vega freischaltet.

Die Taichi hat einen extrem hochwertigen "Stromtaktcontroller", der wohl alle anderen übertrifft.

So ne Taichi 6900XT wird noch mehr aus Big-Navi rausholen können.

"GPU Chip Voltage Controller
GPU voltage is powered by an expensive Infineon XDPE132G5D running with 13 power phases."

-> 13 Phasen für die Kontrolle der GPU-Spannung ist schon geil ��
-> Der Controller kann 16 Phasen, AMD steuert Big Navi mit 13 Phasen, so ist richtig ��

EDIT: bei hwluxx mit der Sapphire Nitro 6800XT wird der Controller mit 16 Phasen angegeben, bei TPU mit TaiChi 6800XT mit 13 Phasen ��, egal beide Aussagen richtig.

RIS scheint mir lediglich der in Treiber Name für CAS sprich Timothy Lottes Arbeit (ex Nvidia FXAA)
funktioniert aber extreme different und ist selbst Temporär nicht das gleiche wie DLSS der Successor zu RIS wird AMD-SR vielleicht dann als RIS 2.0 bezeichnet, wenn es in den Treiber wandern sollte und sich vermeintlich direkt in das TAA jeder Engine einharken könnte, was aber immernoch fraglich ist.
Da eine komplette in Treiber solution ziemlich viel auf den Kopf stellt und wegen Engine Tuning und der daraus resultierenden Komplexität sich die Frage stellt, ob das überhaupt wirtschaftlich der richtige Weg wäre vor allem bei der wachsenden Anzahl Lower Level Engines.

Ja ich habe mir schon gedacht das ASRock bessere Bauteile verbaut seit ihrem OCler Target wundert mich das nicht mehr, sie werden es ja auch zu jedem Preis los mit diesem Taichi Brand, was sich eben vor allem bei OCler Rekordsuchenden eingebrannt hat.
Wenn man sieht was man jetzt für welche Preise los wird wundert mich ehrlichgesagt überhaupt nichts mehr, ausser das es sehr beunruihgend ist.

gedi
2020-12-27, 20:32:49
RIS scheint mir lediglich der in Treiber Name für CAS sprich Timothy Lottes Arbeit (ex Nvidia FXAA)
funktioniert aber extreme different und ist selbst Temporär nicht das gleiche wie DLSS der Successor zu RIS wird AMD-SR vielleicht dann als RIS 2.0 bezeichnet, wenn es in den Treiber wandern sollte und sich vermeintlich direkt in das TAA jeder Engine einharken könnte, was aber immernoch fraglich ist.
Da eine komplette in Treiber solution ziemlich viel auf den Kopf stellt und wegen Engine Tuning und der daraus resultierenden Komplexität sich die Frage stellt, ob das überhaupt wirtschaftlich der richtige Weg wäre vor allem bei der wachsenden Anzahl Lower Level Engines.

Ja ich habe mir schon gedacht das ASRock bessere Bauteile verbaut seit ihrem OCler Target wundert mich das nicht mehr, sie werden es ja auch zu jedem Preis los mit diesem Taichi Brand, was sich eben vor allem bei OCler Rekordsuchenden eingebrannt hat.
Wenn man sieht was man jetzt für welche Preise los wird wundert mich ehrlichgesagt überhaupt nichts mehr, ausser das es sehr beunruihgend ist.

CAS-Quality hat aber mal so gar nix mit Upsampling zu tun. Auf Performance japp, hier Upsampling mit Schärfefilter - Quality: HQ nativ mit Schärfefilter - zieht dann auch etwas Performance (<2%)!

dildo4u
2020-12-28, 17:25:34
MSI 6800XT Gameing X Trio Teardown.

https://videocardz.com/newz/msi-shows-off-radeon-rx-6800-xt-gaming-x-trio-confirms-rx-6900-xt-gaming-x-trio

ChaosTM
2020-12-28, 17:30:01
:confused:
https://www.computeruniverse.net/de/amd-ryzen-9-5900x-box-ohne-kuehler?utm_channel=psm&utm_source=geizhals&utm_campaign=cpc&utm_medium=katalog&utm_content=artikel&agt=288

Ist natürlich dennoch weit über der UVP.


Danke.
Gibt Mittlerweile eine um 720.. ändert sich ständig.
https://geizhals.at/amd-ryzen-9-5900x-100-100000061wof-a2392526.html

OgrEGT
2020-12-29, 10:23:57
bitte löschen

Freestaler
2020-12-29, 12:10:12
.. Ja ich habe mir schon gedacht das ASRock bessere Bauteile verbaut seit ihrem OCler Target wundert mich das nicht mehr, sie werden es ja auch zu jedem Preis los mit diesem Taichi Brand, was sich eben vor allem bei OCler Rekordsuchenden eingebrannt hat.
Wenn man sieht was man jetzt für welche Preise los wird wundert mich ehrlichgesagt überhaupt nichts mehr, ausser das es sehr beunruihgend ist.
OT: Liegt vielleicht nicht am Brand (Marketing) selbst sondern was man erhält. Ua. Ist das x370 Taichi das erste und bissher einzige 370 Board welches 5000 Ryzen betreiben kann (wenn auch nur per inoff. Beta Bios).
Vielleicht ist die Taichi Reihe halt wirklich gut und noch immer günstiger als Asus und MSI Oc super duper Reihe ;-)

OgrEGT
2020-12-29, 12:14:11
bitte löschen

HOT
2020-12-29, 13:48:00
MSI 6800XT Gameing X Trio Teardown.

https://videocardz.com/newz/msi-shows-off-radeon-rx-6800-xt-gaming-x-trio-confirms-rx-6900-xt-gaming-x-trio
PCB Downgecostet wo es nur möglich war :freak:. Aber relativ guter Kühler offenbar. Ich mag die neue MSI-Strategie dass massiven PCB-Downcostens aber nicht. MMn ist die so klar schlechter als die XFX 319, Red Devil oder Nitro+, sondern eher auf Red Dragon bzw. Pulse-Niveau. Die Taichi ist eigentlich auch cool, die Lüfter sind aber Billigscheiss. Asrock hats da wieder geschafft ein eigentlich sehr gutes Produkt mit nem Centartikel zu versauen (Den 3. Stromstecker find ich auch total idiotisch :freak:).

-/\-CruNcher-/\-
2020-12-29, 14:00:09
@HOT
Tada Gameing X ist out Suprim ist angesagt ;)

dildo4u
2020-12-30, 11:15:28
Doppelt so viel Games gebencht wie zum Launch.


5mXQ1NxEQ1E

r3ptil3
2020-12-30, 14:35:06
Die Sapphire Rx 6800 XT Nitro OC+ wurde wohl erstmals ausgeliefert.

In der CH auf Ricardo verfügbar.
Link (https://www.ricardo.ch/de/a/sapphire-radeon-nitro-rx-6800-xt-oc-1152473808/)

dildo4u
2020-12-31, 05:10:02
Review der 6800XT Gameing X Trio.

https://www.guru3d.com/articles_pages/msi_radeon_rx_6800_xt_gaming_x_trio_review,1.html

horn 12
2020-12-31, 08:24:51
Nun, für eine Karte welche es in etwa erst 2 Monaten zu kaufen geben soll...

r3ptil3
2020-12-31, 11:24:36
Der Kühler der MSI ist wirklich gut und auch die GPU-Junction ist ok.

Was aber gar nicht geht, sind die Spikes beim Stromverbrauch: Hier wurden 538W gemessen. Das übertrumpft die 3080 und 3090, nur die 6900 XT liegt mit 619W unangefochten an der Spitze.
Könnte bei einigen mit schwächeren Netzteilen (600-700W) zu ganz nervigen Problemen führen.

https://i.ibb.co/BjmbT8N/Spikes.jpg

dargo
2020-12-31, 11:31:25
Da misst wohl einer ziemlichen bullshit. Über 200W im Peak bei der RX 6900XT Referenz mehr vs. RX 6800XT Referenz. Ja nee ist klar. :rolleyes:
https://www.guru3d.com/articles_pages/msi_radeon_rx_6800_xt_gaming_x_trio_review,6.html

RX 6900XT und RX 6800XT Referenz unterscheiden sich kaum im Peak.
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/15/
https://www.igorslab.de/greift-amd-nach-der-krone-radeon-rx-6900-xt-16-gb-im-test-mit-benchmarks-und-einer-technikanalyse/15/

Nicht einfach jeden bullshit im Netz glauben.

r3ptil3
2020-12-31, 11:39:28
Bei der 6900 XT könnte es vielleicht wirklich ein Fehler sein, trotzdem scheinen die Werte für die MSI 6800 XT richtig zu sein.

Igorslab misst bei den Custom-6800-XT-Modellen auch fast 500W Spitzen.

Linmoum
2020-12-31, 11:51:42
Ist einfach wie so oft völliger Müll, den TPU da misst und auch noch veröffentlicht.

Eine 3090 peakt laut Igor mit über 570W, bei TPU sind es nicht einmal 480W.
Bei der 3080 genau dasselbe. 490W Peak laut Igor, bei TPU nicht einmal 380W. Von der 6900XT mal ganz zu schweigen. >600W Peak, alles klar.

Mag Dinge geben, die TPU gut kann. Leistungsaufnahme messen gehört aber nicht dazu, sowas sollte man einzig Igor aufgrund des vorhandenen Equips überlassen. Zumindest, was solche Details anbelangt.

Edit: Moment, laut dem Graphen oben nutzt TPU als Grundlage für diese Spikes ernsthaft Furmark. LOL.

dargo
2020-12-31, 12:05:32
Igorslab misst bei den Custom-6800-XT-Modellen auch fast 500W Spitzen.
Das misst Igor auch schon fast bei den Referenzkarten bei <1ms. Nur... wen interessiert <1ms? :rolleyes: Unter 1ms reagiert keine Schutzschaltung im NT. Bei einer Netzteilempfehlung schaut man einfach auf den Bereich >1ms <5ms.

btw.
Die Customs laufen alle mit höherem PT-Limit. Da ist es auch nur logisch, dass die Peaks entsprechend auch etwas über einer Referenz landen werden.


Edit: Moment, laut dem Graphen oben nutzt TPU als Grundlage für diese Spikes ernsthaft Furmark. LOL.
Es ist völlig egal was die messen. Eine Differenz von 230W zwischen 6900XT und 6800XT ist kompletter Schwachfug. Ergo haben die keine Ahnung von einer Messung oder Fehler in ihren Diagrammen.

r3ptil3
2020-12-31, 12:11:51
Das misst Igor auch schon fast bei den Referenzkarten bei <1ms. Nur... wen interessiert <1ms? :rolleyes: Unter 1ms reagiert keine Schutzschaltung im NT. Bei einer Netzteilempfehlung schaut man einfach auf den Bereich >1ms <5ms.

Ich würde kein System nutzen wollen, bei dem ich wüsste, dass selbst für 1ms das maximale Limit des Netzteils überschritten wird.

aufkrawall
2020-12-31, 12:14:31
Wenn sie auch nach längerem Stresstest nicht abschalten, wird schon alles in Butter sein.
Aber man hätte ja auch nicht jahrelang erzählen brauchen, man solle nur 600W PSUs kaufen. Bin fast schadenfroh, dass das endlich mal bestraft wird. ;D

Langlay
2020-12-31, 12:29:19
Ist einfach wie so oft völliger Müll, den TPU da misst und auch noch veröffentlicht.

Eine 3090 peakt laut Igor mit über 570W, bei TPU sind es nicht einmal 480W.
Bei der 3080 genau dasselbe. 490W Peak laut Igor, bei TPU nicht einmal 380W. Von der 6900XT mal ganz zu schweigen. >600W Peak, alles klar.

Mag Dinge geben, die TPU gut kann. Leistungsaufnahme messen gehört aber nicht dazu, sowas sollte man einzig Igor aufgrund des vorhandenen Equips überlassen. Zumindest, was solche Details anbelangt.

Edit: Moment, laut dem Graphen oben nutzt TPU als Grundlage für diese Spikes ernsthaft Furmark. LOL.

Ich konnte mit der 3090 mein 650W Netzteil zum Abschalten bringen, mit der 6900XT hab ich das noch nicht geschafft auch wenn ich 350W+ in die Karte baller.

Gut ich spiele allerdings auch nicht Furmark *g

erlgrey
2020-12-31, 12:30:08
mein 600W enermax hat mit 8700k und 6800xt nicht einmal mit OC und prime+furmark abgeschalten, reicht also scheinbar doch locker. ;)
24/7 würde ich der PSU die Last aber natürlich nicht antun wollen, hab hier generell noch keine shutdowns wegen lastspitzen erlebt.

nordic_pegasus
2020-12-31, 12:53:26
ich kaper mal den Thread für eine Frage. Nutzt hier irgendwer erfolgreich eine 6800/6900 zusammen mit einem LG OLED über HDMI 2.1? Ich bekomme es nicht zum Laufen. Sobald ich den LG auf HDMI 2.1 schalte, bleibt das Bild schwarz. Es gibt einen ausführlichen Thread im Hardwareluxx. Anscheinend ist die Wahl der HDMI Kabel sehr schwierig aktuell. Kann mir irgendjemand ein mindestens 2m Kabel empfehlen, besser wäre 3m für elegante Kabelführung.

Achill
2020-12-31, 12:55:27
Der Kühler der MSI ist wirklich gut und auch die GPU-Junction ist ok.

Was aber gar nicht geht, sind die Spikes beim Stromverbrauch: Hier wurden 538W gemessen. Das übertrumpft die 3080 und 3090, nur die 6900 XT liegt mit 619W unangefochten an der Spitze.
Könnte bei einigen mit schwächeren Netzteilen (600-700W) zu ganz nervigen Problemen führen.

https://i.ibb.co/BjmbT8N/Spikes.jpg

Ich denke auch, dass dies kompletter Mist ist. Bei meinen Karten davor, also Vega64 und VII, musste ich zwei Rails vom NT kombinieren wenn ich diese gut unter Wasser ausgefahren habe (geschätzt avg. 400W und Peaks entsprechend höher) - das war aber nicht mein 24/7 Betrieb...

Jetzt mit der 6900XT unter Luft hängte diese nur noch an einem Rail und selbst das erhöhen auf 300W PPT für Benchs (also geschätzte 350W für die Karte) führt zu keinen Problem mit dem Netzteil - obwohl nur ein Rail.

Den 24/7 Betrieb darf die 6900XT jedoch mit gemütlichen 2300-2400Mhz fahren und mit entsprechend möglichen UV sind es dann laut HWInfo oft um die ~220-240W PPT die angezeigt werden (Cyberpunk aktuell).

nairune
2020-12-31, 13:03:15
Dass die Quatsch messen, ist mir schon vor ein paar Tagen bei dem Taichi Review aufgefallen:
https://www.techpowerup.com/review/asrock-radeon-rx-6800-xt-taichi-x/29.html

Die braucht mit OC ca. 40 W WENIGER beim Gaming als die Referenz, müsst ihr wissen.
Kann man sich nur an den Kopf fassen, warum die sich nicht selbst hinterfragen.

r3ptil3
2020-12-31, 14:06:05
@nairune

Übersehe ich das auf dem Handy oder wo testen sie da den Verbrauch mit OC?

Linmoum
2020-12-31, 14:25:47
Machen sie doch mit der Karte?

Wie quasi alle Customs ist das Teil werkseitig übertaktet, der Boost liegt bei 2360MHz statt der 2250MHz der Referenz.

dargo
2020-12-31, 22:11:27
Was zum Teufel macht ASUS da wieder bei der Strix? :freak:
EiZHWI204Xs

~55°C bei der GPU auf Kosten der Lautstärke anpeilen? :ubash:

dildo4u
2020-12-31, 22:21:12
Wird doch im Video erwähnt es hat ein Dual Bios 55° ist das Performance Bios.

dargo
2020-12-31, 22:27:32
Das beantwortet immer noch nicht meine Frage. Oder soll das ein spezielles Bios für die Asiaten sein? ;D

dildo4u
2020-12-31, 22:38:16
Halt für den 3DMark Run, das Quite Bios wird vermutlich brauchbar sein die Geforce Karten sind dort ok eingestellt.


3090 ist dort auf 75° eingestellt, mit einer 6800 wird der Kühler natürlich noch deutlich langsamer laufen.

https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/31.html

gedi
2020-12-31, 23:19:54
ich kaper mal den Thread für eine Frage. Nutzt hier irgendwer erfolgreich eine 6800/6900 zusammen mit einem LG OLED über HDMI 2.1? Ich bekomme es nicht zum Laufen. Sobald ich den LG auf HDMI 2.1 schalte, bleibt das Bild schwarz. Es gibt einen ausführlichen Thread im Hardwareluxx. Anscheinend ist die Wahl der HDMI Kabel sehr schwierig aktuell. Kann mir irgendjemand ein mindestens 2m Kabel empfehlen, besser wäre 3m für elegante Kabelführung.

Ich betreibe die Konfig und funktioniert einwandfrei. Kabel von Club3d und im Treiber noch Support für 10-Bit anklicken - that´s it, dann hast VRR, 10-bit bei 120Hz in 4k

Dieses funktioniert: https://www.amazon.de/Club-3D-CAC-1372-Ultra-Schwarz/dp/B07H5Y5N55/ref=sr_1_3?__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=3OSCR7LEHSI1R&dchild=1&keywords=hdmi+2.1+kabel+club+3d&qid=1609453834&sprefix=hdmi%2Caps%2C-1&sr=8-3

horn 12
2021-01-01, 09:42:59
Bitte wo bleibt das RX 6800 Pulse Review ?

dildo4u
2021-01-01, 10:41:18
Macht kein Sinn die zu bauen so lange sie 800€ für die High-End Modelle nehmen können.
Die Pulse senkt nur unnötig die Marge.

dargo
2021-01-01, 12:15:16
Dildo mal wieder mit seinen zusammenhangslosen Posts. :freak: Die Pulse gibt es schon länger zu kaufen. :rolleyes: Was fehlt ist ein vernünftiges Review.

dargo
2021-01-01, 21:57:17
Igor hat sich die XFX RX 6800XT Merc 319 angesehen.

KODdSRuLeCI

ASUS RX 6800XT TUF Gaming Review.
XD6ueWVhN6k

Bis zu 1950RPM an den Lüftern. :facepalm: ASUS verkackt es mal wieder bei AMD.

RoughNeck
2021-01-02, 11:09:31
1950 RPM bei 1080p, will gar nicht wissen wie hoch die drehen muss bei 4K und allen auf Anschlag. Lächerlich von Asus aber was anderes ist man von denen ja nicht gewohnt. Ich nix mehr kaufen und dann besinnen die sich vielleicht wieder auf alte Tugenden.
Die TUF und Strix Karten werden ja gefühlt immer schlechter, bei AMD GPUs überhaupt.

Hott3X
2021-01-02, 11:13:50
Igor hat sich die XFX RX 6800XT Merc 319 angesehen.


Das schlimmste ist, dass er sagt die Preise werden erstmal noch steigen und wenn man eine Karte wo sieht sollte man kaufen.
Für mich wäre eh nur das 6800XT Ref Model interessant, die anderen passen nicht von der Länge.

dildo4u
2021-01-02, 11:17:03
Die TUF und Strix Karten werden ja gefühlt immer schlechter, bei AMD GPUs überhaupt.
Ich würde nicht nur nach RPM gehen laut dem hat die 3070 TUF 28 DBA auf Level mit der MSI Trio.(Bei 1700 RPM)


Gaming noise levels are extremely quiet, almost inaudible, which is super impressive for this performance class. What's also important is that temperatures are very low—just 62°C. This is the best result of all the RTX 3070 cards we've tested today. The difference between both BIOSes is disappointing though, as there basically is no difference.


https://www.techpowerup.com/review/asus-geforce-rtx-3070-tuf-gaming-oc/31.html

gedi
2021-01-05, 11:42:51
MPT und UV mit Hilfe einer 6800Le erklärt: https://www.igorslab.de/der-grosse-uv-guide-untervolten-und-sparen-mit-big-navi-und-dem-morepower-tool-praxis/9/

DennisO2
2021-01-05, 18:32:23
[Gothic 3...] Verrückt, aber bei diesem Spiel dürfte einen ja gar nichts wundern. :freak:
Bro hatte es jedenfalls mit der 6800 + Zen 2 (ohne SAM) + DXVK auch kurz laufen und es lief bescheiden wie eh und je. Die "epische" Anfangsschlacht von außerhalb beobachtet lief so mit ~95fps im CPU-Limit mit regelmäßigen Einbrüchen/Spikes, bei mir dem 6700k + 5700 XT ebenfalls. Unter Linux mit RADV hab ich >120fps (aber auch noch die Einbrüche, wofür ich jedoch das Spiel verantwortlich mache). Konnte bisher noch keine Nachteile durchs Runtertakten feststellen (könnte unter Linux auch durchgängig Volltakt erzwingen, wenn ich wollte).

Ich habe jetzt noch mal ein wenig rumgespielt, mit anderer Ini und anderem Spielstand als zuvor, also bitte nicht direkt vergleichen.

AMD 280X mit Ryzen 2600X: 30 bis 31 fps
AMD 6800 mit Ryzen 2600X: 28 bis 29 fps (trotz mehrerer Neustarts und einem Rückumbau nachvollziehbar unterschiedlich)
AMD 6800 mit Ryzen 5800X und SAM ein: 40 bis 41 fps
AMD 6800 mit Ryzen 5800X und SAM aus: 38 bis 39 fps

Ein halbes fps würde ich als Messungenauigkeit sehen, also zwischen 280X und 6800 1 fps Unterschied zugunsten der 280X. Allerdings läuft die 280X mit 50% Leistung und recht lauten Lüftern, obwohl es immerhin eine Sapphire Dual X Version ist. Die 6800 hingegen langweilt sich und ist unhörbar.

Der 5800X bringt einen deutlichen Unterschied. Die Spielszene ist extra eine ausgesuchte mit hoher Belastung und besonders niedrigen fps (auf dem Burgdach Faring mit Blick über Burg und Tal).
SAM schient auch mininmal etwas zu bringen, allerdings ist es wohl wichtiger, dass es hier zumindest nicht schadet.
Interessant finde ich aber, dass der Haupt-Thread von Gothic 3 den 2600X-Kern voll an den Anschlag bringt. Beim 3700X gab es zumindest teilweise eine leicht geringere Auslastung als 100% bei dem Kern. Der 5800X hingegen ist grad mal zu 50% ausgelastet, dafür sind mehr Kerne aktiv. Man sieht aber auch, dass die GPU mehr zu tun kriegt (Wattman, oberes Diagramm) (s. Anhang). Relevant sind jeweils nur die mittleren Bereiche der Graphen, davor war teilweise Ladezeit, danach Desktopzeit.

Endlich Gothic 3 mit riesigen Sichtweiten und hohen fps zocken :) .

Wake
2021-01-06, 13:42:20
[HWU] AMD's Killer Feature? SAM, 36 Game Benchmark

GS3oY3LVKvU

dargo
2021-01-06, 17:12:47
Ein kleines Review der PCGH zu XFX Speedster Radeon RX 6800 XT Merc 319. Der Vergleich im offenen Aufbau vs. Referenz ist schon putzig, da hörst du nix. :D Was bei <1000RPM auch nicht wirklich verwundert.
https://youtu.be/YeVK9wsGWGA?t=434

ChaosTM
2021-01-06, 17:29:52
Nur 1000? Wie geht das.. nett

RoughNeck
2021-01-06, 17:33:26
Der Heatsink ist halt 1,8KG schwer, da müssen die Lüfter nicht schnell drehen sondern nur Druck aufbauen.

ChaosTM
2021-01-06, 17:36:41
Das erklärt einiges.. sollte man aber gut abstützen.

vinacis_vivids
2021-01-06, 17:38:10
Bisher kristallisieren sich so drei Top-Kandidaten heraus:

XFX Speedster Merc319, Asrock TaiChi OC+ und Sapphire Nitro+
Hab ich da was vergessen? Dass Asus so abkackt war irgendwie klar. Die haben riesen bling-bling Marketing aber keine fähigen Leute, die außerordentliche Qualität bieten können.

dargo
2021-01-06, 19:36:37
Nur 1000? Wie geht das.. nett
Offener Aufbau und 340mm lange Karte, ergo viel Kühlfläche. Dennoch erstaunlich bei ~280W Asic.

Chefkoch
2021-01-08, 00:32:40
Das erklärt einiges.. sollte man aber gut abstützen.


Als ich vorhin diese 1,8Kg Grafikkarte, in dessen Karton übrigens ganz entspannt ein C64 Platz hat, also in dem bunt bedruckten Umkarton, eingebaut habe, fragte ich mich das auch. Sollte man wirklich? Macht ihr das? Oder doch per Riser hochkant im Gehäuse befestigen? Funktioniert das Kühlkonzept dann noch? Das bißchen Blech am PCIe Sockel ist doch in erster Linie auch nur Design und wir müssen noch was auf die Feature Liste schreiben.


Und warum ist an diesen aktuellen Monsterkarten die eh 3 Slot Plätze im Gehäuse benspruchen nicht auch gleich die Befestigung für den dritten Slot mit dabei? Und noch viel wichtiger, bei diesen fetten TripleSlotKühlMonstern kommt man hervorragend an den *zensiert* PCIe Verriegelungsnubbsie heran, NICHT! Könnten die nicht mal wegspezifiziert werden?



Aber sonst, ist unter Last leiser als die Vega 64 von Asus die jetzt über ist. Und unfassbar viel schneller :eek:;D

dargo
2021-01-08, 08:24:38
PCGHs kurzes Review zu Asrock RX 6800 XT Taichi.
https://youtu.be/dbjPsvd1J-U?t=465

dargo
2021-01-11, 17:33:05
Endlich ein Review zur PowerColor RX 6800 Fighter.

fN53nFFHHb0

Hält sich schön an die 203W TGP.

horn 12
2021-01-11, 19:28:13
Kommt Leise rüber, etwas schneller als Referenz
Aber wirkt doch sehr Billig
--- dann lieber die Red Dragon nehmen!

dargo
2021-01-11, 19:47:32
Ist ja nicht gerade so als wenn man aktuell viel Auswahl hätte. ;D

OgrEGT
2021-01-12, 07:18:15
Nach den paar Tagen Zocken Wolfenstein II und Farcry5 muss ich sagen dass ich sehr mit der 6800 nonXT zufrieden bin... die Karte ist sehr leise und liegt bei max Settings in 3440x1440 und 100FPS Limit bei ca 150-170W TGP :up:

Raff
2021-01-12, 09:16:30
Bisher kristallisieren sich so drei Top-Kandidaten heraus:

XFX Speedster Merc319, Asrock TaiChi OC+ und Sapphire Nitro+
Hab ich da was vergessen? Dass Asus so abkackt war irgendwie klar. Die haben riesen bling-bling Marketing aber keine fähigen Leute, die außerordentliche Qualität bieten können.

Naja. Halte ich für übertrieben. Asus' RX 6800 XT mit AiO-Kühler ist stark und auch die RTX-30-Luftkühlermodelle der TUF- und Strix-Reihen sind prima.

MfG
Raff

dargo
2021-01-13, 10:32:23
Ein Test der Powercolor RX 6800 Red Dragon.

dOfco6Q5nJc

Ab hier die interessantesten Passagen.
https://youtu.be/dOfco6Q5nJc?t=686

Meine Fresse... das Ding läuft bloß mit 1100+RPM. :D Bei den Taktraten nehme ich an mit 203W TGP, leider hat der Reviewer die ASIC nicht im Overlay.

btw.
Ich kann mich aktuell immer noch nicht zwischen RX 6800 und RX 6800XT entscheiden. :ubash:

Problem... die überhöhten Preise. Zur Wahl stehen aktuell:
* Sapphire RX 6800 PULSE OC für 819€
* XFX RX 6800 XT Speedster MERC319 für 999€

180€ Differenz finde ich für ~14-16% mehr Speed nicht wirklich prickelnd. Zumal ich beide Karten eh mit ~260W betreiben würde, ergo eher ~8-10% Differenz? Ich rede mir die RX 6800 non XT auch schöner mit dem Argument... der Boost auf RDNA3 fällt dann auch stärker aus. :D

JVC
2021-01-13, 10:53:36
Ich warte darauf das ich ne gute 6800XT 16Gb für um die 800.- bekomme.
Die 1080Ti 11Gb verrichtet eigentlich noch zufriedenstellend ihren Dienst...
Aber "habenwollen und so :freak:" (und der 2t Rechner würgt noch mit der 390 8Gb rum..)

M.f.G. JVC

dargo
2021-01-13, 11:02:27
WTF? :D
https://www.saturn.de/de/product/_asus-radeon-rog-strix-lc-rx6800xt-16gb-90yv0fl0-m0nm00-2703460.html?utm_source=geizhals&utm_medium=psm-product%20feed&utm_term=2703460&utm_campaign=standard_feed&utm_content=R4iBIP4g5xg34Zx6uYsJg&dclid=CKTY_rfTmO4CFSPmuwgdLbkBlg

War die Karte echt zu dem Preis kurz auf Lager?

JVC
2021-01-13, 20:03:10
Preislich fast schon OK :eek:

M.f.G. JVC

dargo
2021-01-13, 20:35:56
Kleine Einstimmung.
https://www.computerbase.de/2021-01/powercolor-radeon-rx-6900-xt-6800-xt-liquid-devil-ekwb/

Screemer
2021-01-13, 21:01:45
Preislich fast schon OK :eek:

M.f.G. JVC
300€ für ne aio. :down:

Redneck
2021-01-14, 09:01:44
300€ für ne aio. :down:
die Luft varianten kosten aber aktuell gleichviel oder mehr.. daher ist der Preis schon relativ gesehen fair/gut

Zergra
2021-01-14, 09:08:09
Ich rede mir die RX 6800 non XT auch schöner mit dem Argument... der Boost auf RDNA3 fällt dann auch stärker aus. :D
Aber nur wenn du da die größere Variante kaufst und nicht die kleine :freak:

Lowkey
2021-01-14, 09:10:34
Diverse User belagern immer noch den AMD Shop und manch einer kam die letzten Wochen durch. Anders kommt man nicht an günstige Preise. AMD hat doch angekündigt deren Ref Editions für die Listenpreise zu verkaufen - mindestens bis Sommer.

Aktuell haben wir

6800 für 700 Euro
6800XT für 800 Euro
6900XT für 1150 Euro

(Bestpreise der letzten Tage)

Die Asus Liquid gilt derzeit als schnellste Karte und die Bereitschaft einen dicken Aufpreis zu bezahlen ist vorhanden.

dargo
2021-01-14, 09:32:04
Aber nur wenn du da die größere Variante kaufst und nicht die kleine :freak:
Ähm... übe das nochmal mit dem Rechnen. :)

Wo bekomme ich eine höhere Mehrleistung beim Upgrade auf RDNA3? Von einer RX 6800XT oder einer RX 6800 aus? ;)

Redneck
2021-01-14, 09:32:49
Diverse User belagern immer noch den AMD Shop und manch einer kam die letzten Wochen durch. Anders kommt man nicht an günstige Preise. AMD hat doch angekündigt deren Ref Editions für die Listenpreise zu verkaufen - mindestens bis Sommer.

Aktuell haben wir

6800 für 700 Euro
6800XT für 800 Euro
6900XT für 1150 Euro

(Bestpreise der letzten Tage)

Die Asus Liquid gilt derzeit als schnellste Karte und die Bereitschaft einen dicken Aufpreis zu bezahlen ist vorhanden.

wo gabs die 68XT denn für 800 ?
gerade auf der NBB Seite gewesen.. die führen diverse 6800er als lieferbar.
es tut sich offensichtlich etwas... leider immer noch zu teuer.

Nvidia hat gegenüber the verge geäussert, das sie doppelt so viele Ampere Karten abgesetzt haben als von der Vorgänger Generation.
Wird also doch auch maßgeblich an der Nachfrage liegen (und die an Corona), das die Bereitschaft viel Geld auszugeben da ist (sieht man ja auch an den Logitech Webcams, die zu überhöhten Preisen ausverkauft sind)

dargo
2021-01-14, 09:37:25
gerade auf der NBB Seite gewesen.. die führen diverse 6800er als lieferbar.
es tut sich offensichtlich etwas... leider immer noch zu teuer.

Wieso schaust du auch dort? MF ist da einiges billiger, billig ist es natürlich dennoch nicht.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+6800.html

Oder hast du einen fetten Gutschein den du bei NBB einlösen willst?

Zergra
2021-01-14, 10:13:48
Ähm... übe das nochmal mit dem Rechnen. :)

Wo bekomme ich eine höhere Mehrleistung beim Upgrade auf RDNA3? Von einer RX 6800XT oder einer RX 6800 aus? ;)

Kommt halt drauf an worauf du dann wechselt, ob XL oder XT. Von 6800 auf 7800 dürfte dann ähnlich viel sein wie von der 6800XT auf die 7800XT (natürlich mit kleinen Abweichung +-5%.)

dargo
2021-01-14, 12:29:18
Egal auf was ich bei RDNA3 wechsle... das + an Performance wird immer größer ausfallen von einer RX6800 kommend. :rolleyes:

Lowkey
2021-01-14, 13:02:34
Bei der 6800 gibt es Krücken und dann lohnt der Aufpreis auf die 6800 XT, aber nur wenn man Spass am OC hat. Bei Nvidia drückst du den OC Scanner und hast ein brauchbares Ergebnis. Bei AMD hast du mehr Spielraum nach oben und der OC Check hat in Sekunden einen Startpunkt. Bei <100 Euro Aufpreis nimmt man eher die 6800XT, denn mal ehrlich: wer redet bei einer Anschaffung eines Luxusprodukts weit über 500 Euro von Sparen, wenn er das kleinere Modell wählt? Die paar Euro sollte man auf jeden Fall investieren.

Ab Werk gibt es bei manchen Customs das Silentbios, dass vermutlich eine Mehrheit an Usern will. Der normale User schaut auf die Benchmarks, nimmt die schnellste Karte und stellt sie für 24/7 auf leise. Denn er habe ja die schnellste Karte gekauft und ein gutes Gewissen. :)

dargo
2021-01-14, 13:08:42
OC ist für mich komplett uninteressant (außer bei der non XT weil sie ein sehr tiefes TGP hat), es wird nur undervolted.

btw.
Momentan beträgt die Preisdifferenz zwischen XT und non XT 180€ bei den Customs die für mich in Frage kämen.

Edit:
Haben wir eigentlich schon ein vernünftiges Review zum Kühler der Powercolor RX 6800XT Red Dragon?