Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread
Seiten :
1
2
3
[
4]
5
6
7
8
Loeschzwerg
2020-11-25, 16:29:42
Red Devil und Nitro+ bei Computerbase.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/
Der Test zeigt eigentlich wie gut das Referenzmodell ist. Die beiden Custom Karten sind wesentlich größer, nicht wirklich leiser, bieten kaum mehr Leistung...
r3ptil3
2020-11-25, 16:40:07
Und was heißt "tweaked" genau?
2100Mhz für die RTX 3080
2475Mhz für die 6800 XT
dargo
2020-11-25, 16:41:46
Ich bin von dem Nitro+ Kühler fast enttäuscht. Das Ding ist kaum besser als die Referenz. :eek: Zudem säuft die Nitro+ selbst mit dem sparsamsten Bios mehr als die Referenz. ;( Kühltechnisch überzeugt mich die Red Devil mit dem Silent Bios mehr.
Edit:
Eines verwundert mich aber:
Nitro+ = 34dB @1430RPM
Red Devil = 36dB @1290RPM
Sind die Lüfter bei der Red Devil größer und somit lauter bei weniger RPM oder hat die Sapphire einfach nur höherwertigere Lüfter?
Schnoesel
2020-11-25, 16:47:08
2100Mhz für die RTX 3080
2475Mhz für die 6800 XT
Problem ist nur du musst weit über 400 Watt durch die Ampere schubsen, damit du diesen Takt stabil erreichst. Dagegen sind die AMDs ja richtige Sparbrötchen.
r3ptil3
2020-11-25, 16:49:08
Momentan gibt's wirklich nur eine Empfehlung:
6800 XT über den AMD Shop für 1/3 weniger als vergleichbare Custom-Karten kaufen, sofern die Karte irgendwann wieder erhältlich ist.
@Schnoesel
Da gebe ich dir recht, sollte auch hervorgehoben werden.
War mit meiner Referenz 6800 immer wieder erstaunt als ich in sehr GPU-fordernden Szenen locker mal 150Watt weniger Verbrauch hatte als mit einer RTX 3080.
Der_Korken
2020-11-25, 16:50:29
Der Test zeigt eigentlich wie gut das Referenzmodell ist. Die beiden Custom Karten sind wesentlich größer, nicht wirklich leiser, bieten kaum mehr Leistung...
Mehr Leistung haben auch die 5700er Customs schon nicht geboten, weil die Referenz bereits taktmäßig ziemlich outmaxed war. Dafür war die Kühlung dort natürlich wesentlich schlechter. Eigentlich ist es bei einer so guten Referenz-Kühlung schon unverschämt nochmal so viel für die Customs draufzuschlagen, wenn der Abstand zur Referenz so stark geschrumpft ist.
Ein paar andere Sachen, die mir noch aufgefallen sind:
1. Laut HWUB verbraucht die Nitro nur 10W im idle. Die großen 5700er Customs lagen eher bei 20W, was damals auf die RGB-Beleuchtung geschoben wurde. Das ist natürlich Tobak, denn mit 10W LEDs kann man ein kleines Zimmer ausleuchten. Es waren wohl irgendwelche Mikrocontroller, die so viel verbraucht haben.
2. Die Hotspots sind bei CB 95°C heiß bei 1650RPM für die Nitro @289W ASIC-Power. Damit stimmen die GPU-Z Screenshots aus dem Chiphell-Forum wohl nicht so wirklich, denn da waren es 85°C bei 1300RPM und 302W ASIC-Power im Furmark. Damit ist die Nitro zwar immer noch sehr gut, aber nicht so krass wie in dem geleakten Screenshot.
Schnoesel
2020-11-25, 16:51:26
Ja das Referencedesign ist echt gut geworden. Aber was mich stört ist, dass CB von einem Spulenrasseln bemerkt haben will bei allen derzeitigen High End Karten. Kann das jemand bestätigen? Sowas will man ja nicht haben.
"Vor allem die Sapphire Radeon RX 6800 XT Nitro+ würde sich also hervorragend für einen Silent-PC eignen. Praktisch gilt das aber nur bedingt. Die gute Nachricht ist, dass weder die PowerColor-, noch die Sapphire-Karte großartig mit Spulenfiepen zu kämpfen haben, auch nicht bei hohen Frameraten. Jedoch leiden beide Grafikkarten wie jede andere aktuelle High-End-Karte unter einer guten Portion Spulenrasseln, das unabhängig von den FPS unter Last zu hören ist. Das betrifft nicht nur die zwei Custom-Karten und auch nicht nur die Radeon RX 6800 XT allgemein, auch die GeForce RTX 3080 und GeForce RTX 3090 von Nvidia haben das Problem."
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_lautstaerke__kuehlung
Blutmaul
2020-11-25, 16:52:15
Wie kann man von einem wesentlich leichteren, deutlich leiseren und zudem kühleren Model enttäuscht sein?
Die Sapphire ist fast 300 Gramm leichter als die Referenz und fast 400 Gramm leichter als die Red Devil - die einzige mir vorstellbare Beurteilung dazu ist: Phänomenal!
Den Energieverbrauch kann man mittels Biosmodeswitch (OC/Standard) einbremsen und es gibt genug Treibereinstellungen, die das auch machen plus 3rd Party Tools.
PS: Meine Kritik ist die Größe, die Einbaulänge...bei den AIB-Karten.
nairune
2020-11-25, 16:54:26
Ich würde die Nitro schon der Referenz vorziehen, da mehr Reserven für leisen Betrieb vorhanden sind und den geringeren Materialeinsatz finde ich dabei sympathisch.
Allerdings dürfte ein Preisaufschlag zur Referenz nicht besonders hoch sein - die UVPs der Partnermodelle werden ja scheinbar nirgends genannt?!
dargo
2020-11-25, 16:54:57
Ja das Referencedesign ist echt gut geworden. Aber was mich stört ist, dass CB von einem Spulenrasseln bemerkt haben will bei allen derzeitigen High End Karten. Kann das jemand bestätigen? Sowas will man ja nicht haben.
Ich drehe hier glaube ich auch bald am Rad. Da wartest du dann mehrere Wochen bis du überhaupt eine Karte bekommst und dann ist das Teil am singen. :facepalm:
Der_Korken
2020-11-25, 16:59:59
Die Sapphire ist fast 300 Gramm leichter als die Referenz und fast 400 Gramm leichter als die Red Devil - die einzige mir vorstellbare Beurteilung dazu ist: Phänomenal!
Den Energieverbrauch kann man mittels Biosmodeswitch (OC/Standard) einbremsen und es gibt genug Treibereinstellungen, die das auch machen plus 3rd Party Tools.
PS: Meine Kritik ist die Größe, die Einbaulänge...bei den AIB-Karten.
Ersterem stimme ich zu. Hatte sich dargo nicht über die Ziegelsteine beschwert? Oder war das nur auf Einbaugröße und nicht auf Gewicht bezogen?
Was den Verbrauch angeht, gibt es tatsächlich ein Problem: AMD erlaubt aus irgendeinem Grund nur -6% beim Powerlimit, womit man bei der Nitro selbst mit dem Silent-BIOS gerade so auf das Niveau der Referenzkarte kommt. Und das MPT funktioniert im Moment nicht, weil das BIOS der Karte nicht ausgelesen werden kann. Mir persönlich ist das MPT extrem wichtig, weil man da auch die Anlauf-Temps für ZeroFan einstellen kann und vor allem auch die Anlaufdrehzahlen (war bei der 5700XT imho sehr schlecht eingestellt). Außerdem lässt sich das +15% PPT -Limit des Wattman auch mit dem MPT (sofern man Igor heißt und von irgendwo ein BIOS bekommt) nicht aushebeln. Es ist unklar, ob es nach unten vielleicht auch gelockt sein wird, was ich völlig unverständlich finde.
Zur Größe der Karten: Ich denke das ist der Trick der Nitro. Große Lüfter, weniger Lamellen, besserer Airflow. Das geht halt nicht kleiner.
Sardaukar.nsn
2020-11-25, 17:10:57
Momentan gibt's wirklich nur eine Empfehlung:
6800 XT über den AMD Shop für 1/3 weniger als vergleichbare Custom-Karten kaufen, sofern die Karte irgendwann wieder erhältlich ist.
@Schnoesel
Da gebe ich dir recht, sollte auch hervorgehoben werden.
War mit meiner Referenz 6800 immer wieder erstaunt als ich in sehr GPU-fordernden Szenen locker mal 150Watt weniger Verbrauch hatte als mit einer RTX 3080.
Sehe ich ähnlich, eigentlich kannst du nur im AMD Shop kaufen. Oder wenn Nvidia, dann z.B. bei Asus. https://webshop.asus.com/de/komponenten/grafikkarten/rtx-30-serie/?p=1&n=36 Leider nichts verfügbar.
nairune
2020-11-25, 17:11:11
Ich drücke dem GPU-Z Macher die Daumen wie sonst nichts, dass er es gebacken bekommt mit dem Export :D
In einem Video tat Igor so als könne man das Powerlimit schon über das MPT ändert. Von dem aus würden dann zwar nur -6/+15% möglich sein, aber wen juckt das, wenn ich den Basiswert ändern kann :)
Also mal abwarten, vielleicht ist doch alles nicht ganz so schlimm.
r3ptil3
2020-11-25, 17:14:48
https://webshop.asus.com/de/komponenten/grafikkarten/rtx-30-serie/?p=1&n=36 Leider nichts verfügbar.
Merkwürdig: Jedes Mal wenn jemand hier den ASUS Store verlinkt, lande ich auf der russischen ASUS Store Seite. Erst wenn ich den Link manuell kopiere und im Browser einfüge, geht's.
Edit:
Ok, jetzt weiss ich wieso: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=555220
Loeschzwerg
2020-11-25, 17:15:56
Mehr Leistung haben auch die 5700er Customs schon nicht geboten, weil die Referenz bereits taktmäßig ziemlich outmaxed war. Dafür war die Kühlung dort natürlich wesentlich schlechter. Eigentlich ist es bei einer so guten Referenz-Kühlung schon unverschämt nochmal so viel für die Customs draufzuschlagen, wenn der Abstand zur Referenz so stark geschrumpft ist.
Ja, völlig richtig. Vielleicht müssen die Boardpartner da etwas umdenken und eher versuchen das Produkt noch runder zu machen. Fokus weg von noch mehr Leistung (spezielle Karten für Wakü/LN2 mal ausgeblendet).
dargo
2020-11-25, 17:48:05
Von der Red Devil Limited Edition gibt es nur 1.000 Stück :uconf2:
https://youtu.be/FUyylqfZuB4?t=185
Blutmaul
2020-11-25, 17:53:14
Ersterem stimme ich zu. Hatte sich dargo nicht über die Ziegelsteine beschwert? Oder war das nur auf Einbaugröße und nicht auf Gewicht bezogen?
Was den Verbrauch angeht, gibt es tatsächlich ein Problem: AMD erlaubt aus irgendeinem Grund nur -6% beim Powerlimit, womit man bei der Nitro selbst mit dem Silent-BIOS gerade so auf das Niveau der Referenzkarte kommt. Und das MPT funktioniert im Moment nicht, weil das BIOS der Karte nicht ausgelesen werden kann. Mir persönlich ist das MPT extrem wichtig, weil man da auch die Anlauf-Temps für ZeroFan einstellen kann und vor allem auch die Anlaufdrehzahlen (war bei der 5700XT imho sehr schlecht eingestellt). Außerdem lässt sich das +15% PPT -Limit des Wattman auch mit dem MPT (sofern man Igor heißt und von irgendwo ein BIOS bekommt) nicht aushebeln. Es ist unklar, ob es nach unten vielleicht auch gelockt sein wird, was ich völlig unverständlich finde.
Zur Größe der Karten: Ich denke das ist der Trick der Nitro. Große Lüfter, weniger Lamellen, besserer Airflow. Das geht halt nicht kleiner.
Jap, alles hat eben seinen Preis und irgendwo muß der Lüfter ja seine Leistung hernehmen.
Mein LianLi Gehäuse ist auch schon so alt, es hat noch 3,5 Zoll Disketteneinschübe. :D
Wird beim nächsten Upgrade Zeit zum Wechsel...
dargo
2020-11-25, 17:59:29
Die Preise... ;D
https://youtu.be/g3pUHmd60bc?t=1569
TwoBeers
2020-11-25, 18:00:08
Von der Red Devil Limited Edition gibt es nur 1.000 Stück :uconf2:
https://youtu.be/FUyylqfZuB4?t=185
Deswegen ja "limited". :wink:
Aber der Unterschied zur "non limited" ist nur Spielerei.
Bei dem getesteten Modell der Red Devil handelt es sich um eine auf 1.000 Stück limitierte Ausgabe, wobei sich dies nur auf zwei mitgelieferte Keycaps im PowerColor-Design und einen Anschluss an der Slotblende bezieht: Die limitierte Version bietet einen USB-Typ-C-Anschluss statt einen dritten DisplayPort.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/
-/\-CruNcher-/\-
2020-11-25, 18:02:37
Sehe ich ähnlich, eigentlich kannst du nur im AMD Shop kaufen. Oder wenn Nvidia, dann z.B. bei Asus. https://webshop.asus.com/de/komponenten/grafikkarten/rtx-30-serie/?p=1&n=36 Leider nichts verfügbar.
Problem nur die Reference werden bewusst wenig produziert es sind Limited Edition als MSRP Köder geworden.
Damals wollte sie keiner wirklich weil jeder wusste die AIB Custom bringen mehr Value im Design headroom heute ist das OVER und wendet sich genau andersrum.
AMD und Nvidia wollen aber die AIBs (noch) nicht sterben lassen sie werden wohl eher erstmal Anfangen die masse langsam abzubauen.
Bei Nvidia ist es schon am absoluten Limit durch ihre Node Entscheidung das selbst schon QA Probleme nach dem launch kompensiert werden mussten bei einem teil der AIB Designs.
Das Problem wird AMD allerdings wohl noch erspart bleiben
dargo
2020-11-25, 18:08:00
Aber der Unterschied zur "non limited" ist nur Spielerei.
https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/
Aja... also wayne. :wink:
Meine letzte Hoffnung liegt bei der MSI Gaming X Trio bezüglich Kühlung... mal sehen.
PingpiN
2020-11-25, 18:31:15
Ist ja nicht mehr witzig für 700 Euro hätte ich sofort ne 6800 XT bestellt. Traurig ahhh. Amd soll sich beeilen sonst wird es ne 3080 mit 20 GB.
r3ptil3
2020-11-25, 18:36:56
ASUS Strix LC 6800 XT
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54728-big-navi-mit-aio-kuehlung-asus-rog-strix-lc-radeon-rx-6800-xt-oc-edition-im-test.html
Zu laut, zu teuer, zu umständlich.
Fast in jedem Game langsamer in 4k als die 3080 FE - komisches Gesamtbild, wenn man sich nur das HWLuxx Review ansieht.
dildo4u
2020-11-25, 19:04:28
Das Bild verschiebt sich wenn man die neuen von AMD promoteten Games bencht, Hardware Unboxed hat dadurch andere Werte als der Rest.
Die haben Godfall,Valhalla und Dirt 5 getestet.
Das Bild verschiebt sich wenn man die neuen von AMD promoteten Games bencht, Hardware Unboxed hat dadurch andere Werte als der Rest.
Die haben Godfall,Valhalla und Dirt 5 getestet.
Exakt - performancewise ein Nullsummenspiel - kommt halt echt drauf an was einem wichtiger erscheint: Überlegene RT-Performance oder aber 16GB (nicht nur) für die Zukunft. Preislich schenkt es sich nix, die Performance im Schnitt gleich, Verbrauch marginal besser pro AMD (dass ich so etwas mal sagen darf ;D). Scheint lediglich ne Glaubensfrage zu sein.
-/\-CruNcher-/\-
2020-11-25, 19:59:27
Überlegene RT Performance (etwas future proof) + DLSS + Scheinbar immernoch meilenweit entferntem Video Decoder/Encoder (zu wenige richtige tests allerdings)
Das Ganze in einem schlechteren Node verpackt, wie froh kann AMD nur sein das Nvidia TSMC nicht als option zur verfügung hatte oder schon strategisch vollkommen für die "Gaming" SKU von vornerein ausgeschlossen hat.
Wie gesagt man sieht sich bei RDNA3
Ehrlichgesagt können aber Nvidia user auch froh sein über Samsung ansonsten möchte ich nicht wissen wie der Preis ausgesehen hätte wenn man im selben 7N node weiter hoch skaliert hätte wohl nicht anders als wie bei Turing dieses Preis Geschenk hätten wir sicherlich nicht bekommen, sobald es denn mal realistisch wird irgendwann Q1.
Taigatrommel
2020-11-25, 20:46:18
Ist ja nicht mehr witzig für 700 Euro hätte ich sofort ne 6800 XT bestellt. Traurig ahhh. Amd soll sich beeilen sonst wird es ne 3080 mit 20 GB.
Welche dann auch lieferbar ist? Wenn ich es richtig verstanden habe, dann scheint bei der 3080/3090 vor allem der hochgezüchtete GDDR6x Speicher ein großer Flaschenhals bei der Produktion zu sein. Nimmt man nun noch größere Mengen, dann wird dies der Situation sicher kaum behilflich sein. Derzeit kann man mehr oder minder froh sein, überhaupt etwas zu bekommen, von normalen Preisen braucht man quasi gar nicht erst reden.
Derzeit ist halt überall Flaute, selbst bei den neuen Ryzen guckt man in die Röhre, dort bekommt man nicht mal den kleinsten Ryzen irgendwo ab Lager, bzw. wenn ja nur zu völlig überzogenen Preisen. Die hohe Nachfrage wird sich durch das bevorstehende Weihnachtsgeschäft wohl kaum verringern.
r3ptil3
2020-11-25, 20:52:47
Scheinbar immernoch meilenweit entferntem Video Decoder/Encoder (zu wenige richtige tests)
Kannst du das kurz erklären?
Bezüglich der Nitro+ : Gemäss Computerbase (https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_overclocking_nitro_mit_fast_27_ghz) über 400Watt Verbrauch gemessen:
..."die Leistungsaufnahme ist mit 376 Watt dann knapp 50 Watt höher als ohne Übertaktung, Spitzen gibt es bis zu 402 Watt."
nairune
2020-11-25, 22:17:31
Bezüglich der Nitro+ : Gemäss Computerbase (https://www.computerbase.de/2020-11/radeon-rx-6800-xt-sapphire-nitro-plus-powercolor-red-devil-test/2/#abschnitt_overclocking_nitro_mit_fast_27_ghz) über 400Watt Verbrauch gemessen:
..."die Leistungsaufnahme ist mit 376 Watt dann knapp 50 Watt höher als ohne Übertaktung, Spitzen gibt es bis zu 402 Watt."
Inwiefern ist das verwunderlich? Wenn das Powerlimit 40W höher liegt, sind logischerweise auch die Spitzen entsprechend höher. Igor hatte bereits bei der Referenz 462,6W "Minispitzen" (< 1 ms) gemessen.
Lurtz
2020-11-25, 22:18:52
Ehrlichgesagt können aber Nvidia user auch froh sein über Samsung ansonsten möchte ich nicht wissen wie der Preis ausgesehen hätte wenn man im selben 7N node weiter hoch skaliert hätte wohl nicht anders als wie bei Turing dieses Preis Geschenk hätten wir sicherlich nicht bekommen, sobald es denn mal realistisch wird irgendwann Q1.
Preisgeschenk, bei den Margen für nVidia und der VRAM-Ausstattung? Ja ne.
SKYNET
2020-11-25, 22:32:59
Ich finde es immer wieder witzig wie AMD Fans mit "aber schaut mal die modernen Spiele" argumentieren und dann nicht mal eine Hand voll zusammenbekommen. Statistisch gesehen völlig irrelevant, weil bei 3 dieser fünf Spiele Ampere GPUs nicht skalieren, ergo ein Treiber diese Probleme noch angehen wird und COD ist schon seit Jahren AMD Domäne...
AC, da hängt der Nvidia Treiber noch, schau auf die Skalierung von Ampere.
Dirt, COD, sind AMD Domänen, wie auch Squadron, baut auf der Frostbite Engine auf und ist eher AMD Domäne. Schau mal Battlefield Benchmarks.
Ich weiß, das hört die AMD Gemeinde nicht gerne, wenn es nach der ginge, zählen nur ein paar ausgesuchte Spiele, die dann als "neue" Spiele umetikettiert werden, das passiert bei jedem Launch und ist immer dieselbe Schallplatte.
ich kann dir sagen was passiert: genau das gleiche was schon bei vega vs. pascal war: um so neuer die games waren, um so mehr hat vega aufgedreht, das gleiche wird bei rdna2 vs. ampere passieren...
-=Popeye=-
2020-11-25, 22:44:01
Vega? Lol... du meinst sicher Navi10.
SKYNET
2020-11-25, 22:59:20
Vega? Lol... du meinst sicher Navi10.
nö, vega vs. pascal wars das gleiche, um so neuer die games waren, um so besser stand vega im vergleich da...
und navi10 interessiert wen? :freak:
nonharderware
2020-11-25, 23:00:26
Schon jemand versucht ein XT BIOS auf eine 6800 zu flashen?
:confused:
EDIT:
Geht dies eigentlich? Weil Navi XL / XT ...
Von der Red Devil Limited Edition gibt es nur 1.000 Stück :uconf2:
https://youtu.be/FUyylqfZuB4?t=185
Wird sicherlich in ne normale Version ohne Aluabdeckung und ohne Gimmick-Kleinkram überführt. Den Kühler und das PCB produziert man nicht nur für 1000 Stück ;).
Edit:
Hier ist die nicht-limitierte Version noch mal enthalten:
https://www.techpowerup.com/275159/powercolor-launches-red-dragon-and-red-devil-rx-6800-series-graphics-cards
Die limited hat Typ C statt eines DP, die non-limited verzichtet darauf. MMn wird auch die Kühlerabdeckung Kunststoff statt Alu sein, das ist aber nur ne Speku meinerseits. Die Daten sind identisch, das einzige, was ich mir noch vorstellen könnte, dass man bei der nicht-limitierten 3-4 Powerstages eingespart hat, was nicht schön, aber im Grunde auch völlig egal wäre - das Ding ist eh stark genug, aber das wäre eben typisch Powercolor. Mal sehen ob meine Annahmen zutreffen. Ich lass mir gern positiv überraschen.
Ich guck in 2-3 Monaten noch mal, wie der Markt aussieht, im Moment hat das alles keinen Sinn. Hinzu kommt noch, dass offenbar die "man braucht nicht soviel Speicher"-Fraktion leider recht behält, da Sony bis 22 offenbar die PS4 vollständig mit untersützen möchte, was echte next-gen-Spiele bis Anfang 22 quasi rundheraus ausschließen wird oder besser diese vollständig der XBox vorbehalten bleiben - witzigerweise ausgerechnet dank der Series S :freak:.
In ein paar Monaten wird man ne custom 6900XT für 750-800€ bekommen mMn, da NV mit der 3080Ti um die 1000€ kontern wird und die AMDs entsprechend im Preis fallen müssen, da sich die RT-Situation bis dahin nicht verbessert für AMD. Wer schlau ist und gut ausgestattet ist, wartet.
-=Popeye=-
2020-11-25, 23:34:34
nö, vega vs. pascal wars das gleiche, um so neuer die games waren, um so besser stand vega im vergleich da...
und navi10 interessiert wen? :freak:
Nicht wirklich, Navi10 sieht da deutlich besser aus.
Schon jemand versucht ein XT BIOS auf eine 6800 zu flashen?
:confused:
EDIT:
Geht dies eigentlich? Weil Navi XL / XT ...
Bei der mageren Verfügbarkeit hat sich die Frage schon erübrigt.
Langlay
2020-11-25, 23:53:53
Bei der mageren Verfügbarkeit hat sich die Frage schon erübrigt.
Vorallem mangelt es an funktionierenden Flashtools und BIOS von den 6800er. GPU-Z kann das BIOS der Karten noch nicht auslesen.
whtjimbo
2020-11-26, 00:01:16
hat jemand eine 6800 mit pytorch (1.6-1.7) und rocm ausprobiert?
läuft eine 6800 unter arch, oder schmierts eher ab? und wie siehts mit multi-monitor Support dort aus?
(https://github.com/aieater/rocm_pytorch_informations)
SKYNET
2020-11-26, 00:34:39
Nicht wirklich, Navi10 sieht da deutlich besser aus.
Bei der mageren Verfügbarkeit hat sich die Frage schon erübrigt.
glaub wir reden aneinander vorbei... da gabs navi noch nichtmal wo das phänomen schon aufgetreten ist... ;)
-=Popeye=-
2020-11-26, 00:49:55
Du spielst auf die Seven an ich weiß, die ist aber nicht wirklich besser.
Savay
2020-11-26, 01:09:32
Er spielt nicht auf die VII an sondern auf Vega10...und die steht im Schnitt in neueren Titeln tatsächlich besser da verglichen mit dem GP104 als zum Release.
Vor allem wenn man Sequels auf ähnlicher technischer Basis vergleicht.
Ob das aber für Navi21 vs. GA102 auch gilt mit dem argen Arithmetik Overhead bei der GF muss sich erst noch zeigen.
dildo4u
2020-11-26, 11:08:28
Powercolor sagt sie machen selbst mit dem High-End Modell nur 10% Gewinn.
Lk20IzZN-xk
Daredevil
2020-11-26, 11:19:26
ich kann dir sagen was passiert: genau das gleiche was schon bei vega vs. pascal war: um so neuer die games waren, um so mehr hat vega aufgedreht, das gleiche wird bei rdna2 vs. ampere passieren...
Das bedeutet ja, dass eine V64 jeder 1080ti jetzt den Popo versohlen muss, da Doom ja ein "Neues" Spiel war vor ein paar Jahren und V64 da gut performt hat. Jedes Spiel nach Doom ist ja dann quasi ein neues Spiel.
Oder sind drei Jahre in die Zukunft nicht "neu" ? :D
Was sind "neue" Games? Alle mit Vulcan? Das hat aber nichts mit Neu zutun, höchstens mit modern und fortschrittlich und auch dort kann bei RDR2 keiner zaubern.
GerryB
2020-11-26, 11:52:17
Wenn man denn immer nur ordentlich AC+FP16 nutzen würde:
Daredevil
2020-11-26, 11:55:17
Vega und VII sind beides starke Compute lastige Karten gewesen, die auch gerade in hohen Auflösungen anderen davon gelaufen sind im Vergleich.
An dem Chart sieht man ja sehr gut, wieso Navi das nicht mehr sein ( könnte ).
60% von ner 2080ti auf ne 3090 ist hingegen genau das, was AMD bisher war mit Vega ^^
GerryB
2020-11-26, 12:11:20
AC für Postprocessing ist State of Art.
Für die Nutzung von FP16 für HDR spricht auch Vieles, mal schauen wieviele nextGen-Games mit LPM kommen. TPU stellt sich manchmal komisch an: Mit LPM=FP16 ON hätte das Ergebnis anders ausgeschaut.
Spannend wird auf jeden Fall die Superresi-Lösung von AMD, gibt ja genug INT-Power bei RDNA2.
aufkrawall
2020-11-26, 12:42:44
An dem Chart sieht man ja sehr gut, wieso Navi das nicht mehr sein ( könnte ).
Afair gabs bei PCGH mit Navi & Doom: Et. ein VRAM-Problem, weil Raff wider besseren Wissens unbedingt die unsinnig höchste Streaming Pool-Einstellung verwenden musste.
Bei anderen Tests sieht Navi eher ziemlich gut aus in dem Spiel bzw. besser als in Wolf YB.
dildo4u
2020-11-26, 12:46:49
Jup Vram Problem 5700XT in 1440p = Vega 7 Speed in 4k bricht sie ein.
https://www.techspot.com/review/2146-amd-radeon-6800/
nonharderware
2020-11-26, 16:35:02
AMD 6800XT ist heute gekommen - siehe https://twitter.com/AloisLeiwand/status/1331962457875681283?s=20
Habe bei 3DMark 17633 Grafik und 15188 CPU Punkte.
Aber (noch!) nicht neu installiert, nur mit DDU den Nvidia Treiber entfernt.
Passt das Ergebnis soweit hierfür?
prinz_valium_2
2020-11-26, 17:37:47
Powercolor sagt sie machen selbst mit dem High-End Modell nur 10% Gewinn.
https://youtu.be/Lk20IzZN-xk
Holy shit:eek:
Gz an alle, die Referenzkarten zum MSRP bekommen konnten.
Ich werde diese Gen dann wohl doch wieder auslassen und mich mit meinen 2 Konsolen begnügen.
$799 für die Red Devil und $769 für die Nitro +
Damit werden die nicht vor ende 2021 auf $599 fallen.
nonharderware
2020-11-26, 17:46:04
Holy shit:eek:
Gz an alle, die Referenzkarten zum MSRP bekommen konnten.
Ich werde diese Gen dann wohl doch wieder auslassen und mich mit meinen 2 Konsolen begnügen.
$799 für die Red Devil und $769 für die Nitro +
Damit werden die nicht vor ende 2021 auf $599 fallen.
Kann ich echt gut nachvollziehen... :(
Thomas Gräf
2020-11-26, 18:43:24
Was geht da ab...dem 8auer seine Red Devil läuft auf 2700mhz :eek:
UO170MOgukc
Naja 1000 Stück wollen sie davon bauen. Alles gülden sampels odda was ;)
TwoBeers
2020-11-26, 18:44:59
Ich kann mir vorstellen, dass es eine "Red Devil Limited" und eine "Red Devil" geben wird.
Also, falls es überhaupt mal irgendeine davon geben wird. ;)
GerryB
2020-11-26, 18:47:16
Nichtsdestotrotz bin Ich mal auf die Kühlung+Lautstärke der TUF gespannt:
unterschiedliche Blätteranzahl
Zergra
2020-11-26, 18:48:36
Interessant, ich denke NV dürfte mit dem 8nm am Ende besser fahren, da sie wohl mehr dran verdienen können auch wenn der Chip größer ist.
Das PC nur 10% Gewinn macht, spricht am Ende dafür das 7nm immer noch eine Ecke teurer ist.
Das dürfte nur mit den nächsten Generationen nicht besser werden !
Nichtsdestotrotz bin Ich mal auf die Kühlung+Lautstärke der TUF gespannt:
unterschiedliche Blätteranzahl
Damit versucht man halt die harmonischen Schwingungen zu minimieren.
GerryB
2020-11-26, 18:51:25
Damit versucht man halt die harmonischen Schwingungen zu minimieren.
Schlechter als mit der Navi-Pulse kanns ja net werden, hoffentlich.
btw.
Wieviel Marge NV+AMD auf die Chips draufschlagen hat doch fast Nix mit dem AIB-Preis zu tun.
Klingt ja eher so als ob AMD die Chips net verschenkt und die AIB´s es selber in der Hand haben,
effiziente leichte+preiswerte Kühler zu kreieren.
Was und wie bei den PCB`s noch ggü. der Ref gespart werden kann, wird man sehen.
Prinzipiell ist der Vram bei AMD erstmal preiswerter als bei GA102-Grakas,
von der Stromversorgung mal ganz zu schweigen. (ist Alles sinnloser Overkill bei NV)
Insofern zuerst bei besseren Lü. anzusetzen kostet net viel.
Und die Nitro ist wirklich sehr "leicht" für Ihre Effizienz.
Die Devil ist mehr ein Poser.(kein Wunder das kaum Gewinn bleibt)
Langlay
2020-11-26, 19:23:52
Das PC nur 10% Gewinn macht, spricht am Ende dafür das 7nm immer noch eine Ecke teurer ist.
Das halte ich für eine gewagte These. Ich halte es für eher wahrscheinlich das AMD ihre Marge auf Kosten der AIBs vergrössert hat.
Zergra
2020-11-26, 20:19:57
Das halte ich für eine gewagte These. Ich halte es für eher wahrscheinlich das AMD ihre Marge auf Kosten der AIBs vergrössert hat.
Naja durch Hohe Kosten durch die Fertigung + eine hohe Marge und der Preis bleibt am Ende nicht viel Spielraum für die AIBs. Am Ende sind die Kosten der Fertigung entscheidend. Da dürfte man mit 8nm viel mehr Spielraum haben. Navi 21 ist ja auch nicht gerade klein.
GerryB
2020-11-26, 20:33:09
Weniger diskutieren, mehr kaufen:
https://www.toppreise.ch/preisvergleich/Grafikkarten/ASUS-TUF-RX6800XT-O16G-GAMING-OC-Radeon-RX-6800-XT-90YV0FL1-M0NM00-p634252
btw.
Das XT-Ref und LC Bios ist jetzt bei TPU verfügbar:
https://www.techpowerup.com/vgabios/
(Wer mal mit dem MPT die nonXT und evtl. die XT pimpen möchte.)
https://www.igorslab.de/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-25-ghz-uebertaktet-dank-morepowertool-und-boardpartner-bios/
dort beraten lassen
HarryHirsch
2020-11-26, 20:36:22
Was geht da ab...dem 8auer seine Red Devil läuft auf 2700mhz :eek:
https://youtu.be/UO170MOgukc
Naja 1000 Stück wollen sie davon bauen. Alles gülden sampels odda was ;)
da bekommt man bock auf die 6900xt! :O
dr.denton
2020-11-26, 20:43:58
Was die Preise der Karten angeht, frage ich mich, wie viel davon mit Corona zusammenhängt. Denn auch die kleineren Karten sind verrückt überteuert, aktuell. Meine RX570 Pulse kostet heute fast 30% mehr als vor anderthalb Jahren.
naja, stell dir vor, du gäbest sonst im Jahr 5000 EUR für nen Urlaub aus - und dieses Jahr nicht ... da ist ne Menge Geld übrig ...
dr.denton
2020-11-26, 21:00:31
Ich dachte eher an höhere Preise in der Lieferkette und weniger Verfügbarkeit. Aber klar, kommt natürlich dazu, dass sie damit durchkommen. Ausser bei denen, die sowieso nie in den Urlaub hätten fahren können :P
GerryB
2020-11-26, 21:05:59
da bekommt man bock auf die 6900xt! :O
Anscheinend geht die kleine LC bereits unter 60°C Hotspot ab wie ne Rakete: Gurdi hat wieder nen GoldenNugget
(da ging noch net mal der Lü. an; Winterzeit= Benchmarkzeit)
dargo
2020-11-26, 21:16:49
btw.
Das XT-Ref und LC Bios ist jetzt bei TPU verfügbar:
https://www.techpowerup.com/vgabios/
:up:
Fallback... übernehmen Sie bitte. :D
TwoBeers
2020-11-26, 21:30:57
Jaja, hab schon gesehen. ;)
Danke GerryB für den Link, ist ja anscheind schon seit gestern verfügbar, gar nicht bemerkt.
TwoBeers
2020-11-26, 21:58:33
Also, MPT funktioniert, hab gerade mal 300W und 200W PL eingegeben, wird übernommen. Man muss halt nur immer nach jeder Änderung neustarten.
Irgendwelche speziellen Szenarien mal durchjagen?
Ach ja, die Curve Funktion hab ich noch nicht verstanden. ;)
Edit: Nach oben hin ist schon mal alles abgeriegelt, mehr als 300W oder mehr als 1150mV gehen nicht. Dann läuft die Karte auf 500MHz.
nairune
2020-11-26, 22:11:13
Danke fürs Testen, Erleichterung!
Dann ist es vom BIOS her also doch egal, welche Karte man kauft.
Dann bin ich mal zuversichtlich, dass die Fan-Einstellungen auch noch greifen.
edit: doch nicht? Ja, dann teste mal bitte ob das Powerlimit nach unten abgeriegelt ist.
TwoBeers
2020-11-26, 22:27:13
Runter geht. Habe gerade 150W probiert, klebt dann im Furmark bei 150W und ca. 1100 MHz max. ;)
nairune
2020-11-26, 22:34:10
Immerhin.
Und bist du jetzt nach oben genauso wie die Customs begrenzt oder weniger? Also Customs haben ja 289W oder sowas glaube ich und können nochmal +15% über den Wattman. Kannst du das auch?
aufkrawall
2020-11-26, 22:38:33
edit: doch nicht? [Fan]
Wo entnimmst du das?
TwoBeers
2020-11-26, 22:50:57
Immerhin.
Und bist du jetzt nach oben genauso wie die Customs begrenzt oder weniger? Also Customs haben ja 289W oder sowas glaube ich und können nochmal +15% über den Wattman. Kannst du das auch?
Genau, das geht, 300W im MPT eintragen und dann im Wattman +15%, dann ist man bei ca. 350W max.
nairune
2020-11-26, 22:55:34
Wo entnimmst du das?
War auf "BIOS/Karte egal" bezogen.
Allerdings berichtet Fallback ja gerade, dass die Limits gleich zu sein scheinen. Mit dem MPT hat man also identische Möglichkeiten wie die Boardpartner, schlussfolgere ich daraus.
r3ptil3
2020-11-26, 22:57:23
Kann eigentlich jemand erklären wie die Custom-Karten Problemlos über 400W ziehen können, aber gemäss Spezifikationen das Limit bei 375W sein müsste mit 2x8Pin + 75W am PCIe Slot?
Ausser ASRock verbauen ja alle nur 2x8Pin Stromstecker. Nicht dass es bald wieder böse Presse gibt wie bei der RX 480.
SKYNET
2020-11-26, 23:04:52
Kann eigentlich jemand erklären wie die Custom-Karten Problemlos über 400W ziehen können, aber gemäss Spezifikationen das Limit bei 375W sein müsste mit 2x8Pin + 75W am PCIe Slot?
Ausser ASRock verbauen ja alle nur 2x8Pin Stromstecker. Nicht dass es bald wieder böse Presse gibt wie bei der RX 480.
rein technisch kann 1x 8 pin alleine schon locker 300W ohne probleme tragen... thats it.
8 Pin EPS != 8 Pin PCIe
Gibt aber bestrebungen, Grafikkarten auch mit EPS auszustatten AFAIK.
Als wenn das jemanden interessiert, ob die ein paar W mehr als 300W aus den 2 8-Pin-Steckern ziehen :freak:.
Bei der 480ern war das Problem ja, dass zu viele Verbraucher die PCIe-Power auf den Boards überlasten könnte, die ihren Strom aus dem 24-Poligen Stecker ziehen, das Problem existiert hier ja nicht. Hier gibts halt nur Probleme bei Chinaböllern, die an der Kabeldicke für den PCIe-Stecker sparen, alles, was normale Kabeldicken liefert kommt auch problemlos mit 400W++ klar.
GerryB
2020-11-27, 07:43:21
Kann eigentlich jemand erklären wie die Custom-Karten Problemlos über 400W ziehen können, aber gemäss Spezifikationen das Limit bei 375W sein müsste mit 2x8Pin + 75W am PCIe Slot?
Ausser ASRock verbauen ja alle nur 2x8Pin Stromstecker. Nicht dass es bald wieder böse Presse gibt wie bei der RX 480.
Bei den 3090ern gibts ja auch 390W-Bios@2x 8pin, k.A. ob dann 5V+3V mit dazu gezählt werden.
Böse Presse würde ich eher bei ner 3070FE@240W vermissen.(reichlich Spikes>100W)
btw.
TrixxBoost sollte auch wieder auf den Ref`s funzen.(Wiseman war damit@5700xt-Nitro ja sehr zufrieden)
https://www.sapphiretech.com/de-de/software
Als Notbehelf bis Superresi kommt.
Das sollte auch gar net so schlecht aussehen, im Vgl. dazu berechnet DLSS-Quality ja das RT nur in 1440p,
während TB@85% = 1826p nutzt.
Die Perf. in Godfall 4k wäre dann ungefähr so: 1800p getestet (ohne SAM)
https://www.youtube.com/watch?v=NhbbOp04Jds&t=883s
(nutzt mit EPIC+HDR@LPM dann im Bossfight bis zu 15GB Vram)
Genau, das geht, 300W im MPT eintragen und dann im Wattman +15%, dann ist man bei ca. 350W max.
Das Problem am MPT ist, dass man den PT-Slider nur bis 15% ziehen kann. Hast du mal probiert im MPT 350w einzutragen und den Slider auf 0% zu belassen?
@bardh
Dass was im MPT steht ist lediglich die TGP, also ASIC-Power. Im LC-BIOS stehen 289W, hinzu kommen allerdings noch Wandler, Pumpe, LED-Gedöns usw., so dass man im Endeffekt bei 400W rauskommt.
Ansonsten ist es ein sehr feines Kärtchen. Schön kompakt und sehr schnell. Leider gehen hier bei 1.025V nicht mehr als 2.4G, sonst Grafikfehler. Allerdings ist der Verbrauch in TSE dann nicht höher als 240W-ASIC, was weitaus weniger ist als ne 5700XT Nitro+ braucht. Zudem 0,0 Spulenfiepen und einen Kühler den man nicht hört-echt geil das Ding
GerryB
2020-11-27, 08:14:02
400W klingt eher nach Spitzen.
Beim zusätzlichen Verbrauch würde ich immer auf die VRM-Temps schauen.(Drehzahl bei der LC net zu weit runter!)
Bei steigenden VRM-Temps sinkt der Wirkungsgrad.
Ob man die AiO-Lü. separat an die Spannungsversorgung vom Board anschliessen kann,
wäre auch zu überlegen.
In Summe hätte man bei der LC ungefähr 382W-52..57W=325..330W ASIC nutzbar.(eher besser)
btw.
Die Pads an der Backplate der LC machen für mich auch wenig Sinn.(muss der Vram zusätzlich gekühlt werden)
Eher würde ich Pads "nur" bei den VRM`s dazukleben und nen Zusatzlü. auf die Backplate legen.
(war schon bei Navi sinnvoll)
btw.
Bzgl. VR-minFps fehlt momentan evtl. nur die Möglichkeit einen min.Powerstate festzulegen.
(war schon bei Vega sinnvoll den GPU-P3..P6 und den HBM-P3 als MIN vorzugeben)
Theoretisch könnte man in der xml die niedrigen Powerstates auf "false" setzen.(mit Notepad++)
https://notepad-plus-plus.org/
Das Profil dann nur für VR laden.
TwoBeers
2020-11-27, 08:53:56
Das Problem am MPT ist, dass man den PT-Slider nur bis 15% ziehen kann. Hast du mal probiert im MPT 350w einzutragen und den Slider auf 0% zu belassen?
Jo, hab ich.
Edit: Nach oben hin ist schon mal alles abgeriegelt, mehr als 300W oder mehr als 1150mV gehen nicht. Dann läuft die Karte auf 500MHz.
Also über die Limits kann man nicht gehen, aber man kommt zumindest mit der Referenz an das Custom PL ran.
Und man kommt mit dem MPT unter die -6% vom Wattman, indem man einfach ein niedrigeres PL einträgt.
GerryB
2020-11-27, 09:19:13
Falls das LC-Bios per MPT gänge wäre mehr möglich.
https://www.techpowerup.com/vgabios/226801/asus-rx6800xt-16384-201109
(Nachteil= net TB kompatibel?, schlecht das noch kein Nitro-Bios verfügbar ist)
btw.
Der Alphacool Fullcover kann bestellt werden:
https://www.alphacool.com/shop/grafikkarten-wasserkuehler/amd-fullsize/28387/alphacool-eisblock-aurora-acryl-gpx-a-radeon-rx-6800/6800xt-reference-mit-backplate?c=20584
edit:
Der Bykski wurde im Preis gesenkt:
https://ezmodding.com/RX6900XT-6800-6800XT-incl-Backplate
Komisch - wenn man mit dem MPT nur die Leistungsaufnahme modifiziert, dann kann man das Ding übertakten bis zum geht nimmer. Bin nun bei 2.65G bei 1.025V und 303W für die komplette Karte. Sprich das OC kostet 18W :biggrin:
Bin wirklich sehr zufrieden mit dem Ding. Dumm nur, dass man den Vram nicht richtig hernehmen kann.
Der WM ist im Vergleich zu früher echt erwachsener geworden. Der zickt so eigentlich gar nimmer rum. Der einzige Umstand der nervt ist, dass bei Systemstart der Vram wieder bei 2G und der Leistungsslider bei 0% steht. Ansonsten funktioniert er wie er soll :)
aufkrawall
2020-11-27, 13:19:11
VRAM-Takt war doch schon bei Navi 10 völlig uninteressant bez. Skalierung, wird dann wohl mit IC nicht auf einmal anders sein?
Crashes durch instabilen VRAM können erfahrungsgemäß mit Radeon richtig eklig sein, mitunter geht dann nicht mal mehr der Reset-Knopf. :freak:
VRAM-Takt war doch schon bei Navi 10 völlig uninteressant bez. Skalierung, wird dann wohl mit IC nicht auf einmal anders sein?
Crashes durch instabilen VRAM können erfahrungsgemäß mit Radeon richtig eklig sein, mitunter geht dann nicht mal mehr der Reset-Knopf. :freak:
Ist von Samsung, von daher wäre ich eigentlich guter Dinge, wenn nicht bereits nach 17200 Schluss mit lustig wäre :mad:
Ansonsten ist der Treiber zu 100% stabil. Nur als ich mit dem MPT ein paar Dinge versucht habe, hatte ich z.T. böse Grafikfehler. Im Moment kann man das MPT leider nur für die Anpassung der Leistungsaufnahme bis zu 300W (->345W) gebrauchen.
dargo
2020-11-27, 14:27:15
Und man kommt mit dem MPT unter die -6% vom Wattman, indem man einfach ein niedrigeres PL einträgt.
Sehr schön. :)
Komisch - wenn man mit dem MPT nur die Leistungsaufnahme modifiziert, dann kann man das Ding übertakten bis zum geht nimmer. Bin nun bei 2.65G bei 1.025V und 303W für die komplette Karte. Sprich das OC kostet 18W :biggrin:
Vergleicht ihr auch immer schön ob entsprechend mehr Performance dabei rumkommt oder achtet ihr nur auf schnöde Frequenzen? :)
VaporVader
2020-11-27, 14:52:59
...Bin nun bei 2.65G bei 1.025V und 303W für die komplette Karte. Sprich das OC kostet 18W :biggrin:...
Womit liest du die Leistungsaufnahme der gesamten(!) Karte denn aus?
Oder meinst du 303W ASIC Power?
TwoBeers
2020-11-27, 15:48:25
Womit liest du die Leistungsaufnahme der gesamten(!) Karte denn aus?
Oder meinst du 303W ASIC Power?
Ich musste ja auch feststellen, dass die angezeigte GPU Power (ASIC) zwar real wesentlich näher an dem dran ist was mir meine Vega 64 vorher gezeigt hat, aber trotzdem nicht der Gesamtverbrauch ist.
Also 250W ASIC = 300W gesamt und 300W ASIC = 350W gesamt.
Mit 60er fps limit ist es jetzt ganz schön kalt in der Bude. :(
erlgrey
2020-11-27, 16:16:22
mein sys will mit der 6800xt scheinbar nicht mit csm disabled booten, hat bisschen gedauert, bis ich herausgefunden hab, warum er mit dem gespeicherten bios profile nicht starten will.
referenzkühler ist beeindruckend, brauch bei so einem kühler keine custom mehr.
dargo
2020-11-27, 16:19:15
referenzkühler ist beeindruckend, brauch bei so einem kühler keine custom mehr.
Argh... ihr macht mir die Entscheidung wirklich nicht leicht. :freak: Ich kann immer noch nicht richtig einschätzen ob der Referenzkühler für mich leise genug ist. :(
@Fallback
Könntest du noch paar Tests mit deiner Karte anstellen?
Ich suche Praxiserfahrungen für folgendes Profil:
* 1440p Gaming
* UV der RX 6800XT auf 250-260W Gesamtkarte (im besten Fall kein fps Verlust zu Default dank UV, -1% nur als Beispiel bringt mich jetzt aber auch nicht um :wink:), entspricht ca. 220W ASIC
* Lüfterdrehzahlen mit einer Custom-Lüfterkurve + subjektives Empfinden ob die Lüfter noch hörbar sind bzw. störend auffallen + Infos zu Temperaturen dabei, als Target schmeiße ich mal einfach ~70°C GPU (nicht Hotspot!) in den Raum
Verlange ich zuviel? :usad:
VaporVader
2020-11-27, 16:23:15
mein sys will mit der 6800xt scheinbar nicht mit csm disabled booten, hat bisschen gedauert, bis ich herausgefunden hab, warum er mit dem gespeicherten bios profile nicht starten will.
referenzkühler ist beeindruckend, brauch bei so einem kühler keine custom mehr.
Woran lag es dass es nicht starten wollte?
Ich find den Referenzkühler auch richtig gelungen.
Werd aber trotzdem nen Wasserblock drauf machen. Aber das wird eh erst Mitte/Ende Dezember.
erlgrey
2020-11-27, 16:34:03
lag eben wohl an "csm disabled", kann aber gut mein (z370) board sein dass da probleme macht..
Langlay
2020-11-27, 17:10:10
lag eben wohl an "csm disabled", kann aber gut mein (z370) board sein dass da probleme macht..
Bei dem Rechner meiner Frau mit C8H (X570) läuft die 6800 auch mit CSM disabled.
Sardaukar.nsn
2020-11-27, 19:25:08
Bei dem Rechner meiner Frau mit C8H (X570) läuft die 6800 auch mit CSM disabled.
Braucht es dieses CSM Disabled nicht zwingend wenn man SAM nutzen möchte?
TwoBeers
2020-11-27, 19:27:13
@Fallback
Könntest du noch paar Tests mit deiner Karte anstellen?
Ich hab jetzt mal 220 im MPT eingestellt und 2400, 980mV.
Das ganze sieht dann so aus:
https://abload.de/img/sottr_2560_2400_220o0j38.png
Und bei <1000 rpm ist der Lüfter quasi nicht zu hören. Memory Clock war auf 2560 wegen irgendnem spike, eigentlich 2000.
Is halt nen bissel CPU limitiert das ganze. Aber ein paar mehr frames als mit deiner 5700 XT kriegste trotzdem. ;)
Ich könnte noch Tests mit 3440x1440 oder RT machen, aber das kannst du ja nicht nachstellen.
Gibt's irgendwas, was auch schon gut GPU limitiert in 2560x1440?
dargo
2020-11-27, 20:27:10
Hehe... danke für den Test. Also komplett lautlos muss die Karte selbst für mich beim Gamen nicht werden. :wink: Ich denke selbst 1300RPM wären für mich völlig in Ordnung.
Gibt's irgendwas, was auch schon gut GPU limitiert in 2560x1440?
Natürlich... dazu müsste ich aber erst wissen welche Games du hast. :tongue: Zur Not hau da mal bissel VSR rein... bsw. 3200x1800. Dass die Karte im Powerlimit von 220W bleibt wäre schon nicht verkehrt. Ansonsten hat sie wieder zu viel Zeit sich "abzukühlen". :)
Lurtz
2020-11-27, 20:57:48
Argh... ihr macht mir die Entscheidung wirklich nicht leicht. :freak: Ich kann immer noch nicht richtig einschätzen ob der Referenzkühler für mich leise genug ist. :(
Woher willst du überhaupt eine Refrenz nehmen? Ist ja völlige Lotterie ob man eine kriegen kann.
TwoBeers
2020-11-27, 21:19:44
Woher willst du überhaupt eine Refrenz nehmen? Ist ja völlige Lotterie ob man eine kriegen kann.
Eins nach dem anderen .. das is dann das nächste Problem. ;)
dargo
2020-11-27, 21:58:19
Woher willst du überhaupt eine Refrenz nehmen?
Ich will mich erst vergewissern ob eine Referenz meinem Anspruch an eine Grafikkarte überhaupt gerecht wird.
-=Popeye=-
2020-11-27, 22:10:33
Ich will mich erst vergewissern ob eine Referenz meinem Anspruch an eine Grafikkarte überhaupt gerecht wird.
Lol... die gezeigten Werte der Referenzkarten sind doch Top, egal ob AMD oder nVidia. Wenn du es wirklich leise haben willst musst du auf Wasser umbauen.
dargo
2020-11-27, 22:25:13
Wakü kommt für mich nicht in Frage. :)
-=Popeye=-
2020-11-27, 22:46:45
Warum eigentlich nicht? Den Kram kann man über Generationen mit sich rumschleppen und hat immer Top Temperaturen. Ok... die Kühler müssen bei einem Generationswechsel getauscht werden aber das wars dann auch schon.
dargo
2020-11-27, 22:49:06
P/L zu schlecht, zu viel Aufwand beim Umbau, zu kurzlebig bei einer Grafikarte, zu alt für solche Spielereien. :freak:
Die Referenz XT werde noch nicht einmal ich auf Tauchgang bringen. Soll heißen, der Kühler ist so gut (in Bezug auf leise), dass sich keine Wakü lohnt. Das OC-Potential ist trotzdem weitab dessen, was man z.B. von Ampere gewohnt ist. Okay, RT ist jetzt nicht der Bringer, aber abseits dessen zahlt man für Grün derzeit mehr als 2k € für die gleiche Performance (XT-OCed)!
-=Popeye=-
2020-11-27, 23:05:04
P/L bei einer Erstanschaffung ist es natürlich vorn Arsch, da teuer. Über die Jahre gesehen relativiert sich das ganze wieder, da man nur den Kühler tauschen muß.
P/L bei einer Erstanschaffung ist es natürlich vorn Arsch, da teuer. Über die Jahre gesehen relativiert sich das ganze wieder, da man nur den Kühler tauschen muß.
Ich müsste eigentlich nur den Kühler tauschen - D5, wahlweise 420x75, oder 480x55 Radi, alles da incl. Noctua Lüfter. Macht aber wirklich absolut null Sinn, da der "boxed :freak:" wirklich top funktioniert. Würde erst Sinn machen, wenn man die 2.8G-Grenze übergehen kann. Wegen ~100 Mhz mach ich jetzt kein Fass auf.
Ich glaube dargo hätte mit ner 6800 (XT) seine helle Freude, denn da wo viel OC-Potential, da auch viel UV-Potential :biggrin:
Marodeur
2020-11-27, 23:32:19
Inwieweit kann man RT jetzt aktuell überhaupt vernünftig bewerten? Alles doch auf NV konzentriert bisher und Optimierungen in Richtung der neuen Konsolen mit AMD Hardware kommen doch erst noch oder?
-=Popeye=-
2020-11-27, 23:35:57
Streite ich nicht ab. Ich werde mit einer 6900XT (falls verfügbar) sicher meinen Spaß haben.
-=Popeye=-
2020-11-27, 23:37:49
RT ist zZ nVidia Land, Game Power ausgeglichen.
dargo
2020-11-28, 00:13:35
Inwieweit kann man RT jetzt aktuell überhaupt vernünftig bewerten?
Schwer zu sagen. Spiderman zeigt mir auf der PS5 jedenfalls, dass schicke RT-Reflektionen auch mit RDNA2 performant möglich sind. Schließlich hat die PS5 nur 10 TFLOPs.
GerryB
2020-11-28, 02:57:32
Inzwischen wurde GPU-Z für die RX6000 angepasst und das Bios lässt sich auslesen.
https://www.techpowerup.com/275269/techpowerup-gpu-z-v2-36-0-released
Ich habe mich nochmals mit dem Thema Vcore auseinandergesetzt und vermute, dass AMD hier einen komplett anderen Weg eingeschlagen hat.
Und zwar liegen die 1.15V immer an, bis das ASIC-Limit erreicht ist. Wenn das Limit erreicht ist, dann reduziert der Treiber die Vcore bis max. zu jenem Wert, welcher im WM angegeben wurde, ohne die Leistung drosseln zu müssen. Der Vorteil hierbei: Immer der max. Takt innerhalb des ASICs.
dargo
2020-11-28, 08:19:42
Ich hab jetzt mal 220 im MPT eingestellt und 2400, 980mV.
Das ganze sieht dann so aus:
https://abload.de/img/sottr_2560_2400_220o0j38.png
Kurz zusammen gefasst... mit 220W GPU-Power sind es also 132fps. Default auch 132fps oder 137fps?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12508656&postcount=526
Inzwischen wurde GPU-Z für die RX6000 angepasst und das Bios lässt sich auslesen.
https://www.techpowerup.com/275269/techpowerup-gpu-z-v2-36-0-released
So langsam wirds auch mit den Tools. (y)
horn 12
2020-11-28, 09:05:35
Italien Ebay 800 Euro für die 6800
Bin dabei auch wenn ich es für weniger versuche
dargo
2020-11-28, 09:23:09
Hatten wir schon die Powercolor RX 6800 FIGHTER?
https://www.overclockers.co.uk/powercolor-radeon-rx-6800-fighter-16gb-pci-express-graphics-card-gx-19y-pc.html
TwoBeers
2020-11-28, 11:09:32
Kurz zusammen gefasst... mit 220W GPU-Power sind es also 132fps. Default auch 132fps oder 137fps?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12508656&postcount=526
Genau, default 137fps mit den settings.
dildo4u
2020-11-28, 11:10:39
Der Test ist immer noch Nutzlos da die GPU nicht ausgelastete wird.
WoW mit Raytracing - und sehr spannender Skalierung. (https://www.pcgameshardware.de/World-of-Warcraft-Shadowlands-Spiel-72321/Specials/WoW-Raytracing-Vergleich-Test-1362425/)
Niedrige Auflösungen: RX 6800 XT regelt
Hohe Auflösungen: RTX 3080 regelt
Details gibt's in der recht üppigen Abhandlung. :)
MfG
Raff
GerryB
2020-11-28, 12:21:31
Üppig wäre 4k mit CMAA+ MSAA off vs 4x vs 8x = FPS? (oder WQHD@200% +CMAA only)
und
Bildvergleich
8x für 65" TV´s wo Raff auf nen Meter rankriecht, oder?
So weiss man nur 8x MSAA liegt GA102 und CMAA only eher N21.
(und schon komisch das Raff als 3090-Owner sein "üppiges" Review nur im Rx6800-Thread verlinkt)
btw.
Zwecks VR hatte ich ja schonmal über einen höheren Minimalstatus nachgedacht.
In UK nutzen die Leute auch beim normalen Benchen in TS einen höheren MinTakt:
nairune
2020-11-28, 12:33:00
Auf den ersten Blick sieht es folglich so aus, als zahle sich die Optimierung für AMDs RDNA-2-Architektur nicht aus
Auf den ersten Blick sieht es garantiert nicht danach aus. Die 6800 XT bricht in anderen RT-Benchmarks viel stärker ein, hier wird der Abstand zur 3080 in den niedrigen Settings gewahrt und im höchsten verliert er nur noch leicht.
In welcher Welt hat sich das nicht ausgezahlt? Das sind doch extrem gute News. Ließe sich das auf andere Spiele übertragen, wäre die RT-Leistung völlig in Ordnung.
GerryB
2020-11-28, 12:41:15
Wenn 8x MSAA ein Bottleneck erzeugt lässt sich das Ergebnis überhaupt net bewerten.
(vollkommen Praxisferne Einstellung)
Das fragen auch die Leser im Forum, bis Jetzt keine Antwort vom Reviewer!?
nonharderware
2020-11-28, 12:44:30
6800XT
Speichher 2050 MHz
Min 2500 MHz
Max 2600 MHz
1100 mV
PL +15%
Pure RayTracing benchmark v1.5
https://twitter.com/AloisLeiwand/status/1332649958592417792
1080
1440
2160
jeweils Pro: Siehe Bild im Anhang bzw. Twitter-Link.
3DMark
https://www.3dmark.com/3dm/53779131?
Score 17 848
Grafik-Punkte
18 425
CPU score
15 159
UserBenchmark (ja, ich weiß ...)
https://www.userbenchmark.com/UserRun/36070266
UserBenchmarks: Game 206%, Desk 111%, Work 249% (https://www.userbenchmark.com/UserRun/36070266)
CPU: AMD Ryzen 9 5950X (https://cpu.userbenchmark.com/AMD-Ryzen-9-5950X/Rating/4086) - 109%
GPU: AMD RX 6800-XT (https://gpu.userbenchmark.com/AMD-RX-6800-XT/Rating/4089) - 192.2%
SSD: Viper M.2 VP4100 1TB (https://ssd.userbenchmark.com/SpeedTest/926342/Viper-M2-VP4100) - 501.1%
SSD: Kingston SA2000M81000G 1TB (https://ssd.userbenchmark.com/SpeedTest/874627/KINGSTON-SA2000M81000G) - 270.7%
HDD: Seagate Enterprise Capacity 8TB (https://hdd.userbenchmark.com/SpeedTest/86780/ST8000NM0055-1RM112) - 107.4%
HDD: WD Black 1TB (2013) (https://hdd.userbenchmark.com/WD-Black-1TB-2013/Rating/1822) - 92.3%
RAM: G Skill Intl F4-3600C16-16GTZNC 4x16GB (https://ram.userbenchmark.com/SpeedTest/935849/G-Skill-Intl-F4-3600C16-16GTZNC-4x16GB) - 139.7%
MBD: Asus Pro WS X570-ACE (https://www.userbenchmark.com/System/Asus-Pro-WS-X570-ACE/149205)
:eek::eek::eek:
GerryB
2020-11-28, 12:57:35
Wie war das PL?
Kommst Du mit Deinem Chip noch etwas runter in der Spannung?
1075..1062..1056mV (die 1050mV ala UK-User wird wohl net Jeder bei 2600 schaffen)
Kommt noch dazu, das gerne bei 100%Lü+openWindow gebenched wird.( in UK?)
nonharderware
2020-11-28, 12:59:56
Wie war das PL?
Kommst Du mit Deinem Chip noch etwas runter in der Spannung?
1075..1062..1056mV
Stimmt, hab ich vergessen + 15%
r3ptil3
2020-11-28, 13:05:23
@AloisLeiwand
Wie mein Vorredner bereits gefragt hat, teste bitte mal Undervolting aus.
Als Basis:
Meine RX 6800 kommt mit 2450Mhz @ 925mv klar, sind dann real ca. 2380-2430Mhz.
Stürzt bei dir die Karte bei zu hohem OC ab oder läuft sie einfach mit Grafikfehlern weiter?
Bei mir läuft die 6800 auch mit 2500+, jedoch mit Grafikfehlern (kein MEM OC).
Breche aber dann den Benchmark sofort ab.
GerryB
2020-11-28, 13:19:59
Mal z.Vgl. ein fast identisches Setting bei CB aber mit eff.1081mV : Interessant ist immer nur der Grafikscore.
btw.
Beim Vram gabs auch Versuche 2050..2060 mit "fast" Timings und
bei Manchen waren 2150 mit "langsamen" Timings im FS etwas besser.
(2070...2150 + fastT ist wohl für manchen Vram zuviel, da setzt die Fehlerkorr. ein)
-/\-CruNcher-/\-
2020-11-28, 13:34:02
Ein Joke Benchmark den Pure RayTracing zu nenen zeigt schon das verständnis dahinter.
Das Einzige was hier abgebildet wird ist Epics Hybrid Implementierung.
nonharderware
2020-11-28, 13:36:08
@AloisLeiwand
Wie mein Vorredner bereits gefragt hat, teste bitte mal Undervolting aus.
Als Basis:
Meine RX 6800 kommt mit 2450Mhz @ 925mv klar, sind dann real ca. 2380-2430Mhz.
Stürzt bei dir die Karte bei zu hohem OC ab oder läuft sie einfach mit Grafikfehlern weiter?
Bei mir läuft die 6800 auch mit 2500+, jedoch mit Grafikfehlern (kein MEM OC).
Breche aber dann den Benchmark sofort ab.
Ich muss mich da mal weiter rantasten, bisher hatte ich noch keine Abstürze.
Mal z.Vgl. ein fast identisches Setting bei CB aber mit eff.1081mV : Interessant ist immer nur der Grafikscore.
btw.
Beim Vram gabs auch Versuche 2050..2060 mit "fast" Timings und
bei Manchen waren 2150 mit "langsamen" Timings im FS etwas besser.
(2070...2150 + fastT ist wohl für manchen Vram zuviel, da setzt die Fehlerkorr. ein)
Hatte auch "fast" aktiviert.
Anbei nochmal die Eckpunkte des 3DMark als Screenshot und hier:
Score 17 848
Grafik-Punkte
18 425
CPU score
15 159
GerryB
2020-11-28, 13:40:06
Ein Joke Benchmark den Pure RayTracing zu nenen zeigt schon das verständnis dahinter.
Das Einzige was hier abgebildet wird ist Epics Hybrid Implementierung.
Dein "kleines" verständnis sagt auch viel aus.(Blubb)
Lass doch dem Alois seinen Spass.
nonharderware
2020-11-28, 13:45:55
Dein "kleines" verständnis sagt auch viel aus.(Blubb)
Lass doch dem Alois seinen Spass.
Und so ein "Joke" wird es schon nicht sein, da er auch hier in den News verlinkt worden ist: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2324-november-2020 (unter Webweite Links / Files).
GerryB
2020-11-28, 14:05:59
Mal noch ein WoW-Review incl. 1440p vs. 4k:
https://www.youtube.com/watch?v=UkCZpUxBg_0
Im Bossfight würde man eh mit RT off spielen.(nach m.E.)
nairune
2020-11-28, 14:49:58
Von Reddit geklaut:
Er hat bei einer 6800 (non-XT) einfach nur das Powerlimit mit dem MPT reduziert. Leistung gemessen mit Superposition.
https://i.imgur.com/gykwFVJ.png
Potenzial passt, nun muss AMD.com nur noch Ware bekommen (die XT bitte) - kann aber warten.
Wäre allerdings interessant, ob sie mit Default settings überhaupt ständig ins Powerlimit läuft. Eigentlich sollte Superposition aber ausreichend heizen - kann ja vielleicht jemand hier mit der Karte mal prüfen.
nonharderware
2020-11-28, 14:54:58
Wenn ich beim Takt höher gehe, wird es niedriger.
Die besten Werte bekomme ich bei den eingangserwähnten 2500/2600 und 2050 Mem (fast) und PL +15%.
Dürfte also das Optimum sein und ich bin glücklich.
Nur noch zwei Fragen:
Wie kann ich checken ob SAM wirklich aktiviert ist und wo kann man den RAGE Modus anmachen?
dargo
2020-11-28, 15:00:29
Genau, default 137fps mit den settings.
Hmm... etwas blöd. Wieviel GPU-Power brauchst du denn mit UV um die 137fps vom Default-Profil zu erreichen?
Mal noch ein WoW-Review incl. 1440p vs. 4k:
https://www.youtube.com/watch?v=UkCZpUxBg_0
Im Bossfight würde man eh mit RT off spielen.(nach m.E.)
Was ist denn da los? Ampere kaputt? :freak:
Von Reddit geklaut:
Er hat bei einer 6800 (non-XT) einfach nur das Powerlimit mit dem MPT reduziert. Leistung gemessen mit Superposition.
https://i.imgur.com/gykwFVJ.png
Potenzial passt, nun muss AMD.com nur noch Ware bekommen (die XT bitte) - kann aber warten.
Wäre allerdings interessant, ob sie mit Default settings überhaupt ständig ins Powerlimit läuft. Eigentlich sollte Superposition aber ausreichend heizen - kann ja vielleicht jemand hier mit der Karte mal prüfen.
Cool... -5% Performance bei -60W ohne UV. :tongue:
Argh... ist ja die non XT. Dann sind es nur -46W (182W gesamte Karte) für -5% Performance ohne UV.
Edit:
Moment... sind das % oder W bei Power?
Christopher_Blair
2020-11-28, 15:15:33
Weiss man weshalb die 6800XT im Flight Simulator zwischen 1440p und 4K überproportional viel FPS verliert im Gegensatz zur 3080?
Ist der Flight Simulator so viel Speicherbandreitenhungriger als andere Titel?
horn 12
2020-11-28, 15:32:17
War es leid zu warten, zu Hoffen
und immer wach zu bleiben!
Habe nun von Kunden jener welche 2 6800 Ohne XT HATTE EINE ABGEKAUFT
Zwar Sauteuer, aber ist ja Lockdown und das Geld geht sonst eh nicht weg :-= ))
nonharderware
2020-11-28, 15:34:50
War es leid zu warten, zu Hoffen
und immer wach zu bleiben!
Habe nun von Kunden jener welche 2 6800 Ohne XT HATTE EINE ABGEKAUFT
Zwar Sauteuer, aber ist ja Lockdown und das Geld geht sonst eh nicht weg :-= ))
Wie viel hast gezahlt?
Hakim
2020-11-28, 15:44:46
horn ich warte immer noch auf die x-Tausend Karten, wo bleiben die denn? :)
nairune
2020-11-28, 15:52:22
Cool... -5% Performance bei -60W ohne UV. :tongue:
Argh... ist ja die non XT. Dann sind es nur -46W (182W gesamte Karte) für -5% Performance ohne UV.
Edit:
Moment... sind das % oder W bei Power?
Es sind %. XL hat doch 200W, also sind die 95% Leistung (ohne UV) bei 160W PL.
dargo
2020-11-28, 16:06:00
Ich rechne immer mit ganzer Karte. :)
RX 6800 = 228W laut Igors Messungen. Bei 203W GPU-Power ergibt das 12,3% Verluste + den Rest. 80% von 203W sind 162,4W, ergo rund 182W für die ganze Karte.
nonharderware
2020-11-28, 16:16:29
3DMark
https://www.3dmark.com/3dm/53779131?
Score 17 848
Grafik-Punkte
18 425
CPU score
15 159
Hier nochmal zum Vergleich die Werte mit Standardtakt:
https://www.3dmark.com/3dm/53795509?
Score 17 116
Grafik-Punkte
17 538
CPU score
15 066
Rabiata
2020-11-28, 16:20:14
Auf der Linux-Seite hat sich offenbar noch mal was getan, Test von Phoronix an 23.11. (https://www.phoronix.com/scan.php?page=article&item=rx6800-more-performance&num=1) Laut Michael Larabel sind die gemittelten Gaming-Benchmarks um 7,6% schneller als in der ersten Testreihe, offenbar dank einiger Fixes für performancerelevante Bugs.
nonharderware
2020-11-28, 16:22:44
Von Reddit geklaut:
Er hat bei einer 6800 (non-XT) einfach nur das Powerlimit mit dem MPT reduziert. Leistung gemessen mit Superposition.
https://i.imgur.com/gykwFVJ.png
Potenzial passt, nun muss AMD.com nur noch Ware bekommen (die XT bitte) - kann aber warten.
Wäre allerdings interessant, ob sie mit Default settings überhaupt ständig ins Powerlimit läuft. Eigentlich sollte Superposition aber ausreichend heizen - kann ja vielleicht jemand hier mit der Karte mal prüfen.
Kann ich dir mit Tests der XT behilflich sein?
Musst nur sagen was & wie ;)
BlacKi
2020-11-28, 17:42:20
Hier nochmal zum Vergleich die Werte mit Standardtakt:
https://www.3dmark.com/3dm/53795509?
Score 17 116
Grafik-Punkte
17 538
CPU score
15 066
nur +5% durch OC? kommt mir zu wenig vor. da ist doch sicher mehr drin?
aufkrawall
2020-11-28, 18:02:18
Auf der Linux-Seite hat sich offenbar noch mal was getan, Test von Phoronix an 23.11. (https://www.phoronix.com/scan.php?page=article&item=rx6800-more-performance&num=1) Laut Michael Larabel sind die gemittelten Gaming-Benchmarks um 7,6% schneller als in der ersten Testreihe, offenbar dank einiger Fixes für performancerelevante Bugs.
Und die Mesa-Parts für AMD-Hardware werden von ein bis zwei handvoll Leuten entwickelt. :freak:
Allerdings ist mit Navi 10 hier amdvlk-pro etwas stärker als mit Polaris, da könnte man bei einigen Spielen noch ein paar % draufrechnen.
TwoBeers
2020-11-28, 18:31:15
So, hier mal zwei Tests mit RDR2 in 2560x1440, Grafik Details auf "favor quality", MSAA und einige andere Sachen sind aus bzw. nur auf "medium", hab das preset so gelassen.
2600MHz / 1025mV / 250W PL
Benchmark:
Frames Per Second (Higher is better) Min, Max, Avg
Pass 0, 46.124184, 237.659531, 85.608902
Pass 1, 76.159721, 107.326080, 99.845757
Pass 2, 76.211960, 107.372177, 97.969360
Pass 3, 62.456276, 85.576874, 80.110245
Pass 4, 32.799038, 123.568146, 94.963432
Pass 5, 78.073158, 83.973633, 80.906242
Nach 10min in Game:
https://abload.de/img/rdr2_2560_2600_1025kvk61.png
2550 / 1025mV / 220W PL
Benchmark:
Frames Per Second (Higher is better) Min, Max, Avg
Pass 0, 67.542923, 81.462418, 78.231094
Pass 1, 79.931580, 107.605553, 97.577919
Pass 2, 76.800194, 104.441910, 95.676750
Pass 3, 65.186073, 91.689285, 80.008652
Pass 4, 32.849243, 126.439827, 93.188477
Pass 5, 71.697433, 76.995926, 75.732780
Nach 10min in Game:
https://abload.de/img/rdr2_2560_2550_1025_23tkqn.png
Also die 5% Verlust bei 10% weniger PL kommen ganz gut hin.
@dargo: Hoffe die Fan RPM bei 220W gefallen dir. ;)
fondness
2020-11-28, 18:31:29
Auf den ersten Blick sieht es garantiert nicht danach aus. Die 6800 XT bricht in anderen RT-Benchmarks viel stärker ein, hier wird der Abstand zur 3080 in den niedrigen Settings gewahrt und im höchsten verliert er nur noch leicht.
In welcher Welt hat sich das nicht ausgezahlt? Das sind doch extrem gute News. Ließe sich das auf andere Spiele übertragen, wäre die RT-Leistung völlig in Ordnung.
Hab ich mir auch gedacht. Pcgh und AMD Karten das wird wohl nichts mehr.
erlgrey
2020-11-28, 18:36:54
nur +5% durch OC? kommt mir zu wenig vor. da ist doch sicher mehr drin?
da geht sicher noch mehr, ich hab ja schon 19277 graphics score.
https://www.3dmark.com/3dm/53731034
für mehr brauch ich aber ein bios mit höherem PT, aber das tu ich mir nicht an.
nonharderware
2020-11-28, 18:39:23
nur +5% durch OC? kommt mir zu wenig vor. da ist doch sicher mehr drin?
Mal sehen was das WE noch bringt ...
dargo
2020-11-28, 19:04:42
@dargo: Hoffe die Fan RPM bei 220W gefallen dir. ;)
Definitiv. :D
btw.
Kannst du schon mit dem Afterburner eine Custom-Lüfterkurve einstellen?
Also die 5% Verlust bei 10% weniger PL kommen ganz gut hin.
Falls du das von nairune meinst... dort heißt es 5% Verlust bei 20% weniger PT.
TwoBeers
2020-11-28, 19:40:56
Definitiv. :D
btw.
Kannst du schon mit dem Afterburner eine Custom-Lüfterkurve einstellen?
Also man kann mit dem AB eine erstellen, die wird aber zumindest bie mir nicht übernommen.
Custom Lüfterkurve geht aber super mit Wattman.
Falls du das von nairune meinst... dort heißt es 5% Verlust bei 20% weniger PT.
Aso, na ja .. fast. ;)
dargo
2020-11-28, 19:46:35
Also man kann mit dem AB eine erstellen, die wird aber zumindest bie mir nicht übernommen.
Custom Lüfterkurve geht aber super mit Wattman.
Danke für die Infos schon mal. Ich muss leider jedes Stückchen rauspressen. :redface:
Wärst du so nett und könntest nochmal schauen wie die Temps bei ~1300RPM mit 220W PT in RDR2 nach 10 Minuten aussehen? Ich kann mir beim besten Willen nicht vorstellen, dass mich diese Drehzahl bei 80mm Lüftern beim Gamen stört wenn meine Pulse mit ~1300RPM und 2x 95mm Lüfter kaum zu hören ist. Auch wenn die Referenz N21 drei Lüfter hat.
Edit:
Achja... und schaue bitte wieviel Powerlimit du mit UV brauchst um die gleiche Leistung wie Default zu bekommen. Das sehe ich immer noch nicht aus den Tests raus. ;(
nairune
2020-11-28, 19:51:52
Würde an deiner Stelle zur Leistungsmessung etwas reproduzierbares nehmen, das natürlich auch im GPU-Limit laufen muss.
For free z.B. Superposition oder TimeSpy. Die RDR2 Daten sind doch leider ziemlich unbrauchbar bei den Abweichungen von run zu run.
dargo
2020-11-28, 19:55:07
Ja... das stimmt leider. Für Temperaturvergleiche ist RDR2 durchaus brauchbar. Für Performancevergleiche Default vs. UV dann eher Superposition. Mein Vorschlag...
https://abload.de/img/sp5wkxl.jpg
VaporVader
2020-11-28, 20:39:52
@AloisLeiwand
Wie mein Vorredner bereits gefragt hat, teste bitte mal Undervolting aus.
Als Basis:
Meine RX 6800 kommt mit 2450Mhz @ 925mv klar, sind dann real ca. 2380-2430Mhz.
Stürzt bei dir die Karte bei zu hohem OC ab oder läuft sie einfach mit Grafikfehlern weiter?
Bei mir läuft die 6800 auch mit 2500+, jedoch mit Grafikfehlern (kein MEM OC).
Breche aber dann den Benchmark sofort ab.
Welche Spannung liegt dann bei dir real wirklich an wenn du im Wattman 925mV einstellst? Oder sind deine 925mV die real anliegende Spannung?
Wenn ich bei meiner 6800 2450MHz@925mV einstelle liegen real volle 1025mV an.
dargo
2020-11-28, 20:59:15
Sapphire RX 6800 XT Nitro+ im Test bei Igor.
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/
Endlich MPT-Daten der Nitro+. =)
Edit:
Etwas verwunderlich finde ich, dass Sapphire bei der Nitro+ für nur 9W mehr GPU-Power im sekundären Bios soviel Vcore mehr drauf haut.
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/5/
btw.
Wie kommt es, dass der Kühler bei Igor so exzellent abschneidet? 1000-1050RPM bei über 320W. :freak:
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/8/
Die Kühlperformance und die damit verbundene Geräuschentwicklung ist außergewöhnlich gut, die neuen Lüfter sind noch einmal einen Tick besser als die auf der RX 5700 XT Nitro+. Dass man sich hier selbst noch einmal getoppt hat, ist durchaus eine Extra-Erwähnung wert. So fair muss man bleiben. Dass dann bei Last die Spulen etwas hörbar werden, ist eine reine Frage der Physik und des Aufwandes, noch in vertretbarem Rahmen andere Lösungen zu finden. Das wird nämlich schon ziemlich schwierig und vor allem auch richtig teuer. Das, was hier verbaut wurde, ist schon aus dem oberen Regal.
horn 12
2020-11-28, 21:26:15
Bitte wer hat das Video von Cracki Ravioli zu den 6800 -er zur Hand
Crackys Bastelquickie
Finde im Web nix dazu....
Danke Dargo!
dargo
2020-11-28, 21:40:58
https://youtu.be/aIYiBIWhgZM
Edit:
Also die RX 6800 liegt schon mal in SotTR @1440p voll im Taktlimit. :tongue: Bis 203W ist da noch genug Luft und der 5800X ist nicht zu langsam. ;)
https://youtu.be/aIYiBIWhgZM?t=7243
Erst mit 2,4+Ghz und 2880p sieht man in F1 die ~203W. ;D
https://youtu.be/aIYiBIWhgZM?t=9621
nairune
2020-11-28, 21:58:27
Igor:
Mit einer UVP für die Sapphire RX 6800 XT Nitro+ SE von 799 Euro (das ist die mit den RGB-Luftikussen), 769 Euro für die hier getestete “normale” RX 6800 XT Nitro+ und 639 Euro für die RX 6800 Nitro+ liegt man nicht allzu weit von der UVP der Referenzkarten entfernt.
Ist das ein Scherz, den ich nicht verstehe? 120€ oder 18,5% über Referenz-UVP ist neuerdings "nicht allzu weit entfernt"? Vor allem bei der neuerlichen Qualität der Referenz. Die letzte Nitro+ war noch 30€ / 6,7% über Referenz.
Dabei ist es so eine schöne Karte, P/L passt nur einfach nicht.
Der Speicher wird übrigens eine Ecke wärmer als auf der Referenz laut Igor, kann aber auch an den niedrigen Lüfterdrehzahlen liegen. Schon bei meiner Pulse schwitzt der Speicher ganz schön, da ich sie ja nicht so hoch drehen lasse.
dargo
2020-11-28, 22:18:54
Schauen wir mal wie die Pulse abschneidet, die dürfte niedrigere UVPs haben. Die hohen Wattagen bei der Nitro+ finde ich persönlich eh Banane. Und diese zahlt man sicherlich mit. Ich hoffe die Pulse hält sich da stärker zurück. Wobei ich schon davon ausgehe, dass eins der Biose trotzdem mit 289W GPU kommen wird.
Welche Spannung liegt dann bei dir real wirklich an wenn du im Wattman 925mV einstellst? Oder sind deine 925mV die real anliegende Spannung?
Wenn ich bei meiner 6800 2450MHz@925mV einstelle liegen real volle 1025mV an.
Du kannst da eingeben was du willst. Wenn es die TGB zulässt können auch 1.15V anliegen, obwohl 0,925V eingestellt. Einzig entscheidend ist der Verbrauch und das was du eingibst ist der Wert, auf welchen Wert die GPU max. runtervolten kann.
Igor:
Ist das ein Scherz, den ich nicht verstehe? 120€ oder 18,5% über Referenz-UVP ist neuerdings "nicht allzu weit entfernt"? Vor allem bei der neuerlichen Qualität der Referenz. Die letzte Nitro+ war noch 30€ / 6,7% über Referenz.
Dabei ist es so eine schöne Karte, P/L passt nur einfach nicht.
Der Speicher wird übrigens eine Ecke wärmer als auf der Referenz laut Igor, kann aber auch an den niedrigen Lüfterdrehzahlen liegen. Schon bei meiner Pulse schwitzt der Speicher ganz schön, da ich sie ja nicht so hoch drehen lasse.
Ja die Preise der Customs finde ich echt happig dieses mal. Alles über 700€ für die 6800XT finde ich zu viel.
BlacKi
2020-11-29, 02:27:00
Ja die Preise der Customs finde ich echt happig dieses mal. Alles über 700€ für die 6800XT finde ich zu viel.
das ist das was ich als problem angeprangert habe. 650€ uvp von amd plus guter referenz kühler; amd fickt ihre AIBs hart und ungeschmiert. seth dreh den schmuh um dann wird ein schuh draus.
für alle dies noch nicht geblickt haben, 650€ uvp sind blenderpreise. die AIBs können da nicht mithalten.
Wiseman
2020-11-29, 02:56:30
Prima. Im Test von Igorslab zur Sapphire 6800XT Nitro+ erfahre ich endlich die UVPs:
UVP 6800XT Nitro+ SE 799 €
UVP 6800XT Nitro+ 769 €
UVP 6800 Nitro+ 639 €
Da kann man die Preise von Alternate und Co gleich viel besser einordnen. Und wem diese UVPs immer noch viel zu hoch sind, der kann ja auf die Sapphire Pulse Varianten der 6800-er Serie warten. Die sind leistungsschwächer, aber auch billiger.
Außerdem hat Igor gute Kunde für alle, die so wie ich auf eine Custom Karte von Sapphire warten:
Die UVP von 769 Euro ist angemessen, vor allem auch im Hinblick auf das Gesamtpaket. Das mit der Verfügbarkeit sollte aber eher nicht an Sapphire liegen, hier hat sich wohl TSMC schlicht übernommen. Zumal man ja hört, dass diverse Dinge ebenfalls knapp sein sollen, die man sonst noch so zur Chip-Produktion braucht. Eine kausale Kette mit jeder Menge an Unbekannten also. Da kann ich jedem nur gute F5-Skills wünschen, wenn die erste Batch ab nächster Woche hier in Deutschland ankommen sollte. Viele Karten werden wohl erst einmal nicht sein, aber zumindest einige.
DennisO2
2020-11-29, 03:30:55
Igor:
Ist das ein Scherz, den ich nicht verstehe? 120€ oder 18,5% über Referenz-UVP ist neuerdings "nicht allzu weit entfernt"? Vor allem bei der neuerlichen Qualität der Referenz. Die letzte Nitro+ war noch 30€ / 6,7% über Referenz..
Naja, keinen Monat nachdem die Referenz der 5700XT draußen war, ist sie auch noch 30€ im Preis gefallen. Der Unterschied zum Verkaufsstart der Nitro+ war damals also 60€, also rund 14% drüber. Ich finde 100€ für eine flüsterleise Karte super... . Die 6800XT Referenz ist nur 1 dB leiser als meine 5700XT Nitro+ ist sie für mich immer noch nicht optimal. Falls die neue Nitro da drunter kommt, wären die 100€ gut investiert - kriegte man sie überhaupt.
Eigentlich sollte es die ASUS LC werden, aber die ist unter Last ja noch lauter. Dafür haben sie sie schön kalt gekriegt - so ein Unsinn, zumindest für mich. Jetzt bin ich in der Zwickmühle: Sehr leise Nitro+, oder lauter, aber Abwärme ausm Gehäuse mit der LC. Was meint ihr?
DennisO2
2020-11-29, 03:35:13
btw.
Wie kommt es, dass der Kühler bei Igor so exzellent abschneidet? 1000-1050RPM bei über 320W. :freak:
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/8/
Laut Marketing-BlaBla: Durch den Ring außen auf den Lüfterblättern stellen die Lüfter einen Kompromiss zu Axial- und Radiallüftern da, mit mehr Luftdruck durch die Lamellen. Daher eine etwas bessere Kühlleisung.
dargo
2020-11-29, 08:10:10
das ist das was ich als problem angeprangert habe. 650€ uvp von amd plus guter referenz kühler; amd fickt ihre AIBs hart und ungeschmiert.
Das tut Nvidia schon seit Jahren, wo warst du dort?
GerryB
2020-11-29, 08:19:56
Weiss man weshalb die 6800XT im Flight Simulator zwischen 1440p und 4K überproportional viel FPS verliert im Gegensatz zur 3080?
Da würde ich erstmal auf die DX12-Version warten. (DX11 könnte noch im Drawcall-Limit o.ä. hängen)
Hoffentlich gibts dann mehr Klarheit. Ob MS auch besseres MT liefern kann, mal schauen.
edit:
Interessant wäre evtl. in der Zwischenzeit ein Versuch mit DXVK, falls Das gänge.(gerne genutzt für ältere AC: O)
https://forums.guru3d.com/threads/rdna2-rx6000-series-owners-thread-tests-mods-bios-tweaks.434911/page-12#post-5858045
Du kannst da eingeben was du willst. Wenn es die TGB zulässt können auch 1.15V anliegen, obwohl 0,925V eingestellt. Einzig entscheidend ist der Verbrauch und das was du eingibst ist der Wert, auf welchen Wert die GPU max. runtervolten kann.
Soll heissen, wenn man net gerade für VR nen hohen minTakt braucht, könnte man den minTakt-Slider und die Volt noch optimieren?
--> Dann müsste man ja vollkommen umdenken.
z.Bsp. Kitguru mit ner 6800 hätte evtl. statt min2350@1025mV auch min1800..2000@931...1006mV erreichen können?
oder z.Bsp.
Gurdi mit der LC lässt sein 24/7 ganz unten auf 0MHz@1000mV.
und
Der MAX-Takt-Wert --> eff.Takt hängt dann alleinig von der Chipgüte ab, oder?
(wobei sicher niedrige Hotspottemps helfen-die LC mit 61°C)
dildo4u
2020-11-29, 08:21:40
Das tut Nvidia schon seit Jahren, wo warst du dort?
Die FE waren teurer oder gleich teuer.
https://www.pcgamer.com/nvidia-geforce-rtx-2070-super-review
Custom 2070s für 499$ im Launch Monat.
https://www.vortez.net/articles_pages/zotac_rtx_2070_super_twin_fan_review,1.html
dargo
2020-11-29, 08:30:14
Laber kein scheiß, es geht um die Margen der AIBs.
@gerryb
Das mit dem Takt ist auch so eine Sache bei AMD. Im VBios sind mitnichten 2.25G hinterlegt. In Wahrheit sind es 2.38G. Wenn es die Temperatur, Auslastung usw. zulässt, dann taktet BN auch annähernd bis dahin.
Das Problem beim UV ist der Umstand, dass es passieren kann das der Takt situationsbedingt hoch und die Vcore in dem Fall die gesetzten 1.0V erlangt, einem das Game crasht.
Hier sollte theoretisch der Curve-Editor etwas bringen, wo man dem Treiber sagen kann, dass z.B. bei 2.65G min. 1.1V anliegen sollen.
GerryB
2020-11-29, 08:49:59
@gerryb
Das Problem beim UV ist der Umstand, dass es passieren kann das der Takt situationsbedingt hoch und die Vcore in dem Fall die gesetzten 1.0V erlangt, einem das Game crasht.
Hier sollte theoretisch der Curve-Editor etwas bringen, wo man dem Treiber sagen kann, dass z.B. bei 2.65G min. 1.1V anliegen sollen.
Eigentlich bräuchte man ähnlich Ampere auch 2 Profile, einmal für 4k-Volllast und einmal für 1440p-Teilllast.
(war ja das Hauptproblem für CTD)
Gerade Gaming mit Fps-Limit wird häufig im Teilllastbereich stattfinden.
Von Lastwechseln in Games ganz zu schweigen oder Raustabben oder spielen im Fenster, sind halt so die üblichen
Ursachen für instabil+Userverhalten.
Eigentlich bräuchte man ähnlich Ampere auch 2 Profile, einmal für 4k-Volllast und einmal für 1440p-Teilllast.
(war ja das Hauptproblem für CTD)
Gerade Gaming mit Fps-Limit wird häufig im Teilllastbereich stattfinden.
Von Lastwechseln in Games ganz zu schweigen oder Raustabben oder spielen im Fenster, sind halt so die üblichen
Ursachen für instabil+Userverhalten.
Das gute am WM ist ja, dass man sein OC einem Game separat zuweisen kann. Dem einen Game steht jenes OC und Lüfterkurve gut, dem anderen Game jenes OC + Kurve. Theoretisch können beliebig viele Profile hinterlegt werden
GerryB
2020-11-29, 09:13:31
Jo,
da kann man viel optimieren. (Manche optimieren lieber als spielen, ist gerade mit AMD auch spannend)
Dumm/ärgerlich sind dann nur Änderungen durch Treiberwechsel oder Game-Patche.
Prinzipiell würde ich in den Games mal schauen, ob es Gamemurks ala erweiterte Physik gibt.(+vol.Light/Partikel)
Wenn man Das ausschaltet (bzw./und vol. Light+Partikel 1-2 Stufen runter)kommt man schon schnell in eff. Bereiche.
Was genau bei RDR2 Waterphysics passiert ist auch net klar. Dort ist ein Runtersetzen quasi Pflicht.
(dito Grasschatten runter)
Ich habe gestern der 6800XT ein neues Anzeigegerät spendiert - nen LG OLED55CX9LA.
Die Ernüchterung war zuerst groß :( Kein HDR, lediglich 60Hz, kein DM, nur 8-Bit und kein FS.
Okay, dachte ich mir, kann nur am Kabel liegen. Also nochmals ab zu Saturn und ein gescheites Kabel von Oehlbach gekauft, nix wie heim, angeschlossen und meh - keine Verbesserung. Dann habe ich im Treiber die 10-Bit Unterstützung aktiviert, neu gestartet und bähm - nun funktioniert alles
GerryB
2020-11-29, 09:42:46
Dann kannste ja mal wieder MEA mit Half16=ON spielen.(volle Farben@HDR10+RGB 4:4:4)
btw.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Performance-auf-original-PS4-und-Xbox-One-ueberraschend-gut-fuer-die-enorme-Welt-1362593/
btw.
ColdWar RT=ON ist in 1440p spielbar an nem Freesync-Moni.(k.Angabe zu SAM)
https://www.youtube.com/watch?v=qti0IA8RBaY
https://youtu.be/aIYiBIWhgZM
Edit:
Also die RX 6800 liegt schon mal in SotTR @1440p voll im Taktlimit. :tongue: Bis 203W ist da noch genug Luft und der 5800X ist nicht zu langsam. ;)
https://youtu.be/aIYiBIWhgZM?t=7243
Erst mit 2,4+Ghz und 2880p sieht man in F1 die ~203W. ;D
https://youtu.be/aIYiBIWhgZM?t=9621
Die Verbrauchsschätzung TBP von Cracky in 1440p ist so richtig daneben:
"sooo ca. 70W zusätzlich zur angezeigten ASIC."(real eher 30..35W, da im Verh. 150/203 zu sehen, bei 203 dann 47W)
Meine Fresse: bei CB erklärt Er kürzlich das Er sich nur auf eigene Erfahrungen verlässt und jetzt bringt Er nen übertriebenen Schätzwert ala Igor (vor Launch)
Ansonsten war natürlich sein "Finding" SAM@AsRock B450 Gold wert.
https://www.computerbase.de/2020-11/amd-smart-access-memory-x470-b450-ryzen-radeon/
Demnächst können evtl. mehr User selber testen.(zu nem vernünftigen Preis)
Vergleiche zur 3080 "Heute" können wir dann also erst in 8 Wo ziehen.(der 3080 Launch liegt ähnlich weit zurück)
TwoBeers
2020-11-29, 12:48:18
Wärst du so nett und könntest nochmal schauen wie die Temps bei ~1300RPM mit 220W PT in RDR2 nach 10 Minuten aussehen?
https://abload.de/img/rdr_2560_220w_1300rpmwfjn9.png
Achja... und schaue bitte wieviel Powerlimit du mit UV brauchst um die gleiche Leistung wie Default zu bekommen. Das sehe ich immer noch nicht aus den Tests raus. ;(
default (2450MHz/1150mV/250W)
https://abload.de/img/superposition_benchma3vjj2.png
mit PL (2550MHz/1025mV/220W)
https://abload.de/img/superposition_benchmadcj5a.png
Es ist mir aber aufgefallen, dass der SP Benchmark in der Mitte nur so 60-80% GPU Auslastung hat, das könnte die Ergebnisse näher aneinander bringen, als sie eigentlich sind.
dildo4u
2020-11-29, 12:51:51
1080p Xtreme sollte unter 100fps laufen dann hast du keine CPU Limits.
r3ptil3
2020-11-29, 13:05:27
Mal ein kurzes Review von mir zur Referenz RX 6800 nach 9 Tagen Einsatz:
+ Die AMD-Grafiktreiber sind grundsätzlich wirklich gut
+ keine einzigen Abstürze oder Bluescreens
+ SAM kann im BIOS problemlos aktiviert werden und sorgt nicht selten für stabilere Frameraten
+ die Performance ist sehr zufriedenstellend
- wenn der Grafikktreiber abstürzt (zu starkes Undervolting oder ähnliches) werden die Einstellungen unter Leistung/Konfiguation komplett zurückgesetzt
- der GPU-Chiptakt in Games fällt teilweise plötzlich auf ca. 500 Mhz steigt dann wieder und fällt erneut, weiss noch nicht an was das liegt
- leider sind die Stromanschlüsse der Grafikkarte genau andersrum verbaut wie bspw. bei Nvidia und meiner MSI 5700
Weiteres:
- die GPU erreicht nach intensivem Gaming (1h+) die 80° Marke und geht maximal auf 81° rauf
- Lüfter ist deutlich wahrnehmbar und an der äussersten Grenze um noch akzeptabel zu sein
- mein Modell packt 2450Mhz @ 925Mv (bei 900mv Absturz)
- falls jemand auf ein ästhetisches Case achtet, sei erwähnt, dass die Beleuchtung der Referenzkarte einen dauerhaft rot leuchtenden Radeon Schriftzug aufweist, der nicht angepasst werden kann
- wie auch schon erwähnt, von der Verarbeitung her wirkt die Karte sehr hochwertig
https://i.ibb.co/zXKL3rP/case.png
(Mein P30 Pro versagt auf ganzer Linie beim fotografieren von leuchtender roter Farbe, das orange ist eigentlich ein richtiges rot)
aufkrawall
2020-11-29, 13:17:42
+ Die AMD-Grafiktreiber sind grundsätzlich wirklich gut
Der lange Betatest mit RDNA1 hat sich ausgezahlt. :D
horn 12
2020-11-29, 13:18:36
-Lüfter ist deutlich wahrnehmbar und an der äussersten Grenze um noch akzeptabel zu sein
Dachte der Lüfter ist wirklich leise, mit wieviel U/Min läuft jener bei Dir.
Mit UV sollte Lüfter max. mit 1350 bis 1450 U/laufen
-/\-CruNcher-/\-
2020-11-29, 13:25:57
Das tut Nvidia schon seit Jahren, wo warst du dort?
1+
Der lange Betatest mit RDNA1 hat sich ausgezahlt. :D
5700/XT solide Karte zum Erfolg
AMDs 1080 moment ;)
Klasse das du durchgehalten hast
r3ptil3
2020-11-29, 13:40:09
-Lüfter ist deutlich wahrnehmbar und an der äussersten Grenze um noch akzeptabel zu sein
Dachte der Lüfter ist wirklich leise, mit wieviel U/Min läuft jener bei Dir.
Mit UV sollte Lüfter max. mit 1350 bis 1450 U/laufen
https://i.ibb.co/wRXddz4/gpuz.png
1750Rpm sind das Maximum was ich bisher feststellen konnte.
Spiel: Star Wars Jedi Fallen Order, WQHD, EPIC
Seltsam ist aber dass die Anzeige in GPU-Z durchgehend 1025mv anzeigt.
Ich vermute dass das ein Anzeigefehler ist, denn bei 900mv stürzt der Treiber ab, das heisst die Spannung wird auch tatsächlich reduziert.
Weitere Anmerkung:
Mein Gehäuselüfter laufen mit minimaler Drehzahl (500 Rpm), ebenso die CPU (200-300Rpm).
Kann also durchaus sein, dass mit höherdrehenden Noctua-Gehäuselüfter oder ähnliches, die Temps besser aussehen.
Ich höre bei mir lediglich die Grafikkarte
@Horn
Meine Aussage mit "äussersten Grenze um noch akzeptabel zu sein" ist natürlich auch durchaus kritisch, denn ich komme von einer MSI Gaming X 3080, einer Strix 3080 und einer MSI Gaming X 5700, welche sehr leise sind.
GPU-Spannung mit Aida64 ausgelesen:
https://i.ibb.co/Rbjp7FW/aida64.png
TwoBeers
2020-11-29, 13:55:37
https://i.ibb.co/wRXddz4/gpuz.png
1750Rpm sind das Maximum was ich bisher feststellen konnte.
Da scheint der Kühler der XT echt ein wenig mehr Spielraum zu haben, bei mir läuft der selten über 1300, bei ~2500MHz.
r3ptil3
2020-11-29, 14:00:34
Da scheint der Kühler der XT echt ein wenig mehr Spielraum zu haben, bei mir läuft der selten über 1300, bei ~2500MHz.
Ist natürlich auch abhängig vom Spiel. In BF5 und Star Wars JFO werden die Grafikkarten unter max. Einstellungen besonders heiss, das kann dann in anderen Spielen auch anders aussehen, in PUBG WQHD max sind's dann 10° weniger.
laut Der8auer ist das Bios gelocked auf maximal 2800 MHz GPU-Geschwindigkeit (zumindest bei der Red Devil ...)
https://youtu.be/_1wqWKwWiL0
las aber gerade, Igor hätte das schon im Oktober erwähnt, vermutlich "Angst vor mangelnden Verkäufen der 6900"?
horn 12
2020-11-29, 14:11:12
@barth
Stelle Alle Lüfter mal auf 900 U/min und Teste bitte erneut
Sollten max. 1450 dann werden....
Langlay
2020-11-29, 14:18:04
https://i.ibb.co/wRXddz4/gpuz.png
1750Rpm sind das Maximum was ich bisher feststellen konnte.
Spiel: Star Wars Jedi Fallen Order, WQHD, EPIC
Die Karte ist aber nicht Stock, das ist zumindest ein erhöhtes Powertarget. Stock ist bei 203W GPU Power nämlich Schluss.
Linmoum
2020-11-29, 14:20:25
laut Der8auer ist das Bios gelocked auf maximal 2800 MHz GPU-Geschwindigkeit (zumindest bei der Red Devil ...)
https://youtu.be/_1wqWKwWiL0
las aber gerade, Igor hätte das schon im Oktober erwähnt, vermutlich "Angst vor mangelnden Verkäufen der 6900"?Ja, das künstliche Limit bei 2800MHz gibt's überall. Ich hoffe sehr, dass sich diese imaginäre Taktwall irgendwie/irgendwann beseitigen lässt. Oder aber der ganze Spaß bleibt der 6900XT vorbehaten.
Wenn ich sehe, dass >2700MHz schon mit schnödem Luftkühler funktionieren, dann dürfte man spätestens mit Wasser die 2800MHz problemlos knacken. Von LN2 ganz zu schweigen. Dass eigentlich noch mehr geht, ist ja offensichtlich.
-/\-CruNcher-/\-
2020-11-29, 14:22:16
Sapphire RX 6800 XT Nitro+ im Test bei Igor.
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/
Endlich MPT-Daten der Nitro+. =)
Edit:
Etwas verwunderlich finde ich, dass Sapphire bei der Nitro+ für nur 9W mehr GPU-Power im sekundären Bios soviel Vcore mehr drauf haut.
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/5/
btw.
Wie kommt es, dass der Kühler bei Igor so exzellent abschneidet? 1000-1050RPM bei über 320W. :freak:
https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/8/
Hoffe igor reist die TUL Karten auch noch ausseinander ;)
wenn TUL ihm keine schickt ist das Ergebniss eh offensichtlich ;)
Aber sobald der Gewinner feststeht würden die Händler dessen Preis wieder raufdrücken (Feind liest mit) also besser nicht und versuchen sich selbst ein Bild zu machen ohne den Händlern in die Hand zu spielen ;)
BlacKi
2020-11-29, 14:33:31
Das tut Nvidia schon seit Jahren, wo warst du dort?
das ist schlichtweg nicht wahr. die FEs waren meist teurer als die msrp preise der AIBs. und dann wurden die msrp preise zum teil noch unterboten. und das erwarte ich auch mit der 3000er serie wenn die verfügbarkeit jemals gegeben wird.
-/\-CruNcher-/\-
2020-11-29, 14:36:38
Teils Nvidia hat immer versucht genug headroom für die Partner einzukalkulieren bei Gaming Ampere war das absolut nicht möglich gegen den 7N AMD Pressure.
AMD dagegen hat headroom ohne Ende zur Verfügung für die Partner die vor allem aus takt überlegenheit die Preise rechtfertigen
Jedenfalls aus der Sicht eines "OCler" Opfers
r3ptil3
2020-11-29, 14:39:29
@barth
Stelle Alle Lüfter mal auf 900 U/min und Teste bitte erneut
Sollten max. 1450 dann werden....
Ich habe die Lüfter im AMD-Treiber mal auf das Minimum gesetzt (25%).
Läuft mit 1250-1350Rpm bei max 84°, Schnitt etwa 80-82°.
Hätte nicht erwartet, dass das so gut bzw. nur mit minimal höheren Temperaturen funktioniert - danke für den Hinweis.
aufkrawall
2020-11-29, 14:43:20
das ist schlichtweg nicht wahr. die FEs waren meist teurer als die msrp preise der AIBs. und dann wurden die msrp preise zum teil noch unterboten.
Die besseren Customs kosten trotzdem genug Schotter über der FE-UVP. Alles andere interessiert doch nicht wirklich, oder warum sollte man bei teuren Grafikkarten nur eine Variante mit mittelmäßigem Kühler kaufen?
SKYNET
2020-11-29, 14:48:23
Da scheint der Kühler der XT echt ein wenig mehr Spielraum zu haben, bei mir läuft der selten über 1300, bei ~2500MHz.
hat ja auch 25% mehr oberfläche
BlacKi
2020-11-29, 14:50:49
Die besseren Customs kosten trotzdem genug Schotter über der FE-UVP. Alles andere interessiert doch nicht wirklich, oder warum sollte man bei teuren Grafikkarten nur eine Variante mit mittelmäßigem Kühler kaufen?weil das die massenkarten sind, die die dem hersteller sein überleben sichern. hier gehts nicht um das was wir kaufen würden/wollen.
und nur so am rande, amd hat das problem anerkannt und fixt es. finde ich gut, auch wenns nicht mich betrifft.
SKYNET
2020-11-29, 14:52:20
Ja, das künstliche Limit bei 2800MHz gibt's überall. Ich hoffe sehr, dass sich diese imaginäre Taktwall irgendwie/irgendwann beseitigen lässt. Oder aber der ganze Spaß bleibt der 6900XT vorbehaten.
Wenn ich sehe, dass >2700MHz schon mit schnödem Luftkühler funktionieren, dann dürfte man spätestens mit Wasser die 2800MHz problemlos knacken. Von LN2 ganz zu schweigen. Dass eigentlich noch mehr geht, ist ja offensichtlich.
naja, 2800 langen doch wenn die durchgehend anliegen, damit ballerst jeder 3090 in die fresse, egal ob die getaktet ist oder nicht... warte darum sehnlichst auf die 6900XT, ziemlich sicher nutzt AMD dafür die platinum GPUs die extremen takt zulassen... schätze 3GHz werden bald fallen... und würd mich auch nicht wundern, wenn AMD mit RDNA3 dann 3GHz als default anlegt.
horn 12
2020-11-29, 14:52:36
Ich habe die Lüfter im AMD-Treiber mal auf das Minimum gesetzt (25%).
Läuft mit 1250-1350Rpm bei max 84°, Schnitt etwa 80-82°.
Hätte nicht erwartet, dass das so gut bzw. nur mit minimal höheren Temperaturen funktioniert - danke für den Hinweis.
Sorry, aber dachte an Alle Deine Gehäuse Lüfter mit 900-1000 U/min
Was dies bringen kann, oder sollte?
@Blacki
Welches Problem bitte hat AMD anerkannt?
-/\-CruNcher-/\-
2020-11-29, 14:59:10
weil das die massenkarten sind, die die dem hersteller sein überleben sichern. hier gehts nicht um das was wir kaufen würden/wollen.
und nur so am rande, amd hat das problem anerkannt und fixt es. finde ich gut, auch wenns nicht mich betrifft.
Man konnte bei Nvidia teils PL schnäpchen machen bei den AIBs aber ich glaube nicht das wir das diesmal sehen werden, da die händler sich auch darauf teils spezialisert haben das zu erkennen und gleich einzupreisen.
dildo4u
2020-11-29, 15:02:22
Mann konnte bei Nvidia teils PL schnäpchen machen bei den AIBs aber ich glaube nicht das wir das diesmal sehen werden, da die händler sich auch darauf teils spezialisert haben das zu erkennen und gleich einzupreisen.
NV verbaut deshalb unter der 3080 billigen und wenig Speicher, die Zeit wird es zeigen ob die 16 oder 12GB der AMD Karten genug locken wenn man dafür drauf zahlt.
-/\-CruNcher-/\-
2020-11-29, 15:07:38
Mich lockt der 8/16 GB unterschied nicht wie gesagt man kann ihn clever kompensieren Shader einheiten ist extreme schwierieger die code effizienz zu steigern.
Nvidia hatt schon immer versucht den Speicherverbrauch zu optimieren um Günstiger zu designen und es ist ihnen teils wieder gelungen allerdings mit einer härteren keule diesmal in der Gesammtbalance hier vor allem DLSS, die nicht jedem schmeckt.
Aber eben vor allem 2 fliegen mit einer klappe schlägt um auch im günstigen Design nach unten hin immernoch ordentlich value zu bieten.
Und auch einer der fortschritlichsten Lösungen darstellt,die ein Endkonsument momentan ausserhalb vieler Labs in einem Produkt sehen kann.
r3ptil3
2020-11-29, 15:10:08
Sorry, aber dachte an Alle Deine Gehäuse Lüfter mit 900-1000 U/min
Was dies bringen kann, oder sollte?
Es geht nur um die Akustik.
Sämtliche Temperaturen im System (CPU, Mainboard etc.) sind unter Volllast sehr gut.
dargo
2020-11-29, 15:10:20
https://abload.de/img/rdr_2560_220w_1300rpmwfjn9.png
default (2450MHz/1150mV/250W)
https://abload.de/img/superposition_benchma3vjj2.png
mit PL (2550MHz/1025mV/220W)
https://abload.de/img/superposition_benchmadcj5a.png
Es ist mir aber aufgefallen, dass der SP Benchmark in der Mitte nur so 60-80% GPU Auslastung hat, das könnte die Ergebnisse näher aneinander bringen, als sie eigentlich sind.
Dankö. :up:
Bei Superposition einfach VSR reinknallen. :)
https://i.ibb.co/wRXddz4/gpuz.png
1750Rpm sind das Maximum was ich bisher feststellen konnte.
Spiel: Star Wars Jedi Fallen Order, WQHD, EPIC
Seltsam ist aber dass die Anzeige in GPU-Z durchgehend 1025mv anzeigt.
Ich vermute dass das ein Anzeigefehler ist, denn bei 900mv stürzt der Treiber ab, das heisst die Spannung wird auch tatsächlich reduziert.
Ich sehe da 224W GPU Power bei dir. Die Karte hat normalerweise 203W. Wenn dein Profil mehr säuft dann ist es auch kein Wunder, dass die Karte dann lauter wird. CB hat da bei Default mit 1700RPM max. 68°C mit der Karte in Doom @4k gemessen.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#diagramm-luefterdrehzahl
Ist der Luftstrom in deinem Gehäuse optimal? Schneller drehende Gehäuselüfter muss nicht unbedingt vorteilhaft sein. Zu langsam auch nicht. Um den optimalen Luftstrom zwischen Front und Heck Gehäuselüfter zu finden muss man schon einige Tests anstellen. :)
das ist schlichtweg nicht wahr. die FEs waren meist teurer als die msrp preise der AIBs. und dann wurden die msrp preise zum teil noch unterboten.
Auch für dich nochmal... es geht um die Margen der AIBs. Nicht um irgendwelche Straßenpreise.
horn 12
2020-11-29, 15:38:34
@bardh
Und wirklich nur 2 bis 4 Grad Heisser die GPU und auch T-Junction Temperatur?
Mit 1250 bis 1350 U/min dann wirklich sauleise bis angenehm/ wirklich leise?
nonharderware
2020-11-29, 15:44:55
An alle 6000er Besitzer*innen:
Könnte ihr mal nachsehen ob ihr auch ein USB-Device namens "AMD Radeon(TM) USB LED" (siehe auch https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12517165#post12517165) habt?
Jemand eventuell eine Ahnung worum es sich dabei handelt?
r3ptil3
2020-11-29, 15:54:07
@bardh
Und wirklich nur 2 bis 4 Grad Heisser die GPU und auch T-Junction Temperatur?
Mit 1250 bis 1350 U/min dann wirklich sauleise bis angenehm/ wirklich leise?
Mit den Drehzahlen ist die GPU wirklich leise.
Die Temperatur pendelte sich nach 15 Minuten bei 81-82° ein, vereinzelt ging's auf 84° hoch. Die T-Junction war unter 100°, muss ich aber nochmals genau testen.
Als Vergleich im gleichen Gehäuse: Die MSI Gaming X Trio 3080 war von den Temperaturen her sehr ähnlich, nur halt mit dem Quiet-BIOS um einiges leiser. Die Gaming X 5700 lag bei etwa 70-72°. Die ASUS Strix 3080 war mit Abstand die kühlste Grafikkarte (unter 70°) und etwa im Mittelfeld dieser GPUs, was die Lautstärke betrifft.
@Dargo
Airflow ist mit dem Gehäuse ziemlich gut und wie erwähnt in einigen anderen Spielen werden die 80° nicht mal annähernd erreicht. Star Wars Jedi Fallen Order und BF5 haben sich da als "sehr fordernd" erwiesen, was die GPU-Temp angeht.
Und zur Klarstellung:
2400Mhz+ werden natürlich nur mit einem Powerlimit von +15% erreicht bei 925Mv. Vom Verbrauch her selbstverständlich kein typisches Undervolting mehr.
Die Grafikkarte kann natürlich auch deutlich kühler und mit noch weniger Spannung bei 2200-2300Mhz betrieben werden. Das Powerlimit soll einfach gewährleisten, dass dadurch der Takt nicht limitiert wird.
TwoBeers
2020-11-29, 16:26:38
An alle 6000er Besitzer*innen:
Könnte ihr mal nachsehen ob ihr auch ein USB-Device namens "AMD Radeon(TM) USB LED" (siehe auch https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12517165#post12517165) habt?
Also ich habe das nicht.
Habe aber ein "PCI Device" mit gelbem Ausrufezeichen, könnten aber noch Altlasten von der alten Graka sein.
dargo
2020-11-29, 16:35:24
@Dargo
Airflow ist mit dem Gehäuse ziemlich gut und wie erwähnt in einigen anderen Spielen werden die 80° nicht mal annähernd erreicht. Star Wars Jedi Fallen Order und BF5 haben sich da als "sehr fordernd" erwiesen, was die GPU-Temp angeht.
Es gibt kein sehr fordernd oder weniger fordernd. Die Temperatur bestimmt in erster Linie das Powerlimit. Mit +15% erlaubst du der Karte bis zu 233W GPU-Power. Wenn in anderen Spielen die GPU nicht so warm wird liegt deine Karte dort entweder im Taktlimit und somit unterhalb der 233W GPU oder öfter mal im CPU-Limit wodurch sie immer wieder Zeit hat sich abzukühlen. Der Referenz-Kühler der RX 6800 ist halt nicht für 30W mehr GPU ausgelegt, zumindest nicht wenn man es schön leise haben möchte ohne Richtung ~80°C bei der GPU gehen zu müssen.
r3ptil3
2020-11-29, 17:08:38
Es gibt kein sehr fordernd oder weniger fordernd.
Ich kann das jetzt nicht direkt belegen, aber einen Unterschied wird es durch die jeweilige Grafikengine wohl bestimmt geben. Du kannst trotz 100% Auslastung in diversen Games, trotzdem einen unterschiedlichen Verbrauch haben.
Die Temperatur bestimmt in erster Linie das Powerlimit.
Seltsam formuliert, aber du meinst vermutlich, wenn das PL voll ausgeschöpft wird. Dann hat es einen Einfluss, ja, aber es wird nicht nur dadurch bestimmt.
Wenn du eine RX 6800 mit 2000Mhz und einer niedrigeren Spannung laufen lässt, bei einem Verbrauch von ca. 160W, spielt es keine Rolle ob du noch die zusätzlichen 16% PL dazugibst. Aber was schreibe ich jetzt da, das weisst du bestimmt.
Mit +15% erlaubst du der Karte bis zu 233W GPU-Power. Wenn in anderen Spielen die GPU nicht so warm wird liegt deine Karte dort entweder im Taktlimit und somit unterhalb der 233W GPU oder öfter mal im CPU-Limit wodurch sie immer wieder Zeit hat sich abzukühlen.
Wie gesagt ich habe die Grafikkarte ja übertaktet. Es war ein Überblick womit man dann rechnen muss (Temps).
Der Referenz-Kühler der RX 6800 ist halt nicht für 30W mehr GPU ausgelegt, zumindest nicht wenn man es schön leise haben möchte.
Die Aussage kann man mehr oder weniger so stehen lassen. Ein Betrieb mit voll ausgeschöpftem Powerlimit ist aber, gemäss meinem Beispiel, definitiv möglich, nur halt "mässig" leise, aber wie gesagt durchaus akzeptabel.
Für richtig leisen Betrieb holt man sich ja sowieso eine Custom. Wissen wir ja beide aus der Diskussion mit den Customs.
@horn12
T-Junction ging einmalig kurz auf 100° bei minimaler Lüfterdrehzahl.
Mit mässigem OC und verringerter Spannung, wirst du aber sicher einen guten Kompromiss mit der Referenz 6800 finden.
/Locutus oB
2020-11-29, 17:15:16
An alle 6000er Besitzer*innen:
Könnte ihr mal nachsehen ob ihr auch ein USB-Device namens "AMD Radeon(TM) USB LED" (siehe auch https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12517165#post12517165) habt?
Jemand eventuell eine Ahnung worum es sich dabei handelt?
ja hab ich. Drei mal.
dargo
2020-11-29, 19:46:37
Ich kann das jetzt nicht direkt belegen, aber einen Unterschied wird es durch die jeweilige Grafikengine wohl bestimmt geben. Du kannst trotz 100% Auslastung in diversen Games, trotzdem einen unterschiedlichen Verbrauch haben.
Vergiss die Auslastungsanzeige. :) Dein wichtigster Indikator ist das Powerlimit. Rennt die Karte nicht in dein gesetztes Powerlimit (bei dir 233W GPU mit den +15%) gibt es wie gesagt nur zwei Möglichkeiten. Taktlimit oder CPU-Limit. Vsync/FPS-Limit selbstverständlich off.
aufkrawall
2020-11-29, 20:08:06
Komische Argumentation. Du kannst einen Stromfresser auch knapp unterm fps-Maximum limitieren. Dann säuft das immer noch mehr als viele andere Spiele im GPU-Limit, bist aber trotzdem nicht GPU-limitiert. Vielleicht solltest du mal die Power-Anzeige vergessen? :freak:
/Locutus oB
2020-11-29, 20:17:42
funktioniert bei euch ein vr Headset am usb der Grafikkarte? an meiner xt tut sich da garnix...
dargo
2020-11-29, 20:38:35
Komische Argumentation. Du kannst einen Stromfresser auch knapp unterm fps-Maximum limitieren. Dann säuft das immer noch mehr als viele andere Spiele im GPU-Limit, bist aber trotzdem nicht GPU-limitiert. Vielleicht solltest du mal die Power-Anzeige vergessen? :freak:
Hä? :freak:
Was soll das jetzt wieder für eine Wissenschaft werden? Weniger GPU-Power bzw. Karte bleibt unterhalb des gesetzten Powerlimits = kühlere und/oder leisere Karte. Willst du das Rad neu erfinden?
nairune
2020-11-29, 20:44:11
funktioniert bei euch ein vr Headset am usb der Grafikkarte? an meiner xt tut sich da garnix...
Gibt es überhaupt ein VR Headset, das VirtualLink unterstützt? Mir fällt keines ein. Also welches auch immer du hast: schau erstmal nach, ob es das überhaupt kann.
/Locutus oB
2020-11-29, 20:51:38
Gibt es überhaupt ein VR Headset, das VirtualLink unterstützt? Mir fällt keines ein. Also welches auch immer du hast: schau erstmal nach, ob es das überhaupt kann.
hm ok. dachte der anschluss funktioniert wie ein normal usb Anschluss... anscheinend nicht. komisch das amd einen "toten" Standard auf neue karten baut...
nonharderware
2020-11-29, 21:28:55
Also ich habe das nicht.
Habe aber ein "PCI Device" mit gelbem Ausrufezeichen, könnten aber noch Altlasten von der alten Graka sein.
Im Gerätemanager finde ich jene auch nicht...
Zum "Vorschein" kommen diese nur mit USBView.
ja hab ich. Drei mal.
Bin ich also nicht der einzige ...
hm ok. dachte der anschluss funktioniert wie ein normal usb Anschluss... anscheinend nicht. komisch das amd einen "toten" Standard auf neue karten baut...
Ich dachte ebenfalls, dass man diesen Port wie jeden anderen nutzen kann.
TwoBeers
2020-11-29, 23:06:33
Es gab da vor knapp einem halben Jahr mal so einen Hype mit Virtual Link, VR und den neuen Geforce Karten, die das unterstützen werden.
Als die 6000er designed wurden, hat man wohl gedacht, dass man auch auf diesen Zug aufspringen muss.
War dann wahrscheinlich zu spät das ganze wieder rückgängig zu machen.
SKYNET
2020-11-29, 23:18:02
Es gab da vor knapp einem halben Jahr mal so einen Hype mit Virtual Link, VR und den neuen Geforce Karten, die das unterstützen werden.
Als die 6000er designed wurden, hat man wohl gedacht, dass man auch auf diesen Zug aufspringen muss.
War dann wahrscheinlich zu spät das ganze wieder rückgängig zu machen.
naja, zu spät nen anschluss einfach nicht drauf zu löten, is wohl übertrieben, denke AMD wirds wohl noch pushen... oder sie bringen da nen eigenes VR set raus... mit lisa würd mich das nicht wundern, AMD will jetzt ALLES... und sie können, denke der nächste shoppingtrip von AMD wird richtung flash-speicher gehen, AMD SSDs... bald wirst nen komplettes AMD system sehen, mal schauen wann mobos kommen... die dürften wenn sie qualitativ an die grakas anschliessen, alle boardpartner boards gnadenlos übertreffen was bauteil qualität anbelangt und ausstattung.... und AMD arbeitet sehr eng mit MS zusammen, würd mich nicht wundern wenn da was mit denen laufen wird dann, ein komplettes geschlossenes ökosystem, windows perfekt auf die verbaute hardware abegstimmt, und 20% schneller als nen zusammengeschusterter PC nur durch die reinen optimierungen... ähnlich apple ökosystem.
Die unterstützen AFAIK gar kein Virtual Link sondern nur DP über TypC.
DennisO2
2020-11-30, 02:35:03
Vergiss die Auslastungsanzeige. :) Dein wichtigster Indikator ist das Powerlimit. Rennt die Karte nicht in dein gesetztes Powerlimit (bei dir 233W GPU mit den +15%) gibt es wie gesagt nur zwei Möglichkeiten. Taktlimit oder CPU-Limit. Vsync/FPS-Limit selbstverständlich off.
Hab ich jetzt ein paar Minuten drüber nachgedacht, weil ich die Aussage blöd fand. Aber was soll ich sagen: Du hast Recht! :D
Egal, wie blöd ein Spiel die Hardware auslastet - selbst, wenn nur ein Shader oder hauptsächlich Verwaltungseinheiten ausgelastet werden würden, die Karte könnte einfach immer schneller laufen, bis sie das Powerlimit auslastet. Oder abstürzen, aber auch dann würd man den Takt unter das Absturzlimit limitieren.
Ausnahme ist höchstens nich Temperatur: Wenn ein Spiel die GPU nur in Tempsensornähe auslastet, dann könnte es auch ein Templimit geben. Oder hab ich da nen Denkfehler?
GerryB
2020-11-30, 03:56:06
- der GPU-Chiptakt in Games fällt teilweise plötzlich auf ca. 500 Mhz steigt dann wieder und fällt erneut, weiss noch nicht an was das liegt
- die GPU erreicht nach intensivem Gaming (1h+) die 80° Marke und geht maximal auf 81° rauf
Spiel: Star Wars Jedi Fallen Order, WQHD, EPIC
Seltsam ist aber dass die Anzeige in GPU-Z durchgehend 1025mv anzeigt.
Ich vermute dass das ein Anzeigefehler ist, denn bei 900mv stürzt der Treiber ab, das heisst die Spannung wird auch tatsächlich reduziert.
GPU-Spannung mit Aida64 ausgelesen:
https://i.ibb.co/Rbjp7FW/aida64.png
Bei Jedi gibts doch Engine bedingt z.T. Nachladeruckler, könnte dort der Takteinbruch sein?
oder
Wenn Du permanent an der Obergrenze TJunction(Hotspot)=95°C läufst, wird der Treiber evtl. throtteln anweisen.
Um Das zu beweisen müsste in nem Game mit max. 90°C Junction das Throtteln weg sein.
(insofern wäre etwas mehr Gehäuselü.+50 net schlecht und etwas mehr Grakalü.+100 oder Fps-Limit)
Das mit der Spannung klingt interessant. Kannst Du mal bitte mit dem neuen GPU-Z kontrollieren?
(evtl. liest AIDA nur den voreingestellten Wert aus und net die tatsächliche Spannung, die inGame ja auch mal leicht schwanken müßte, vor Allem, wenn man mal das PL reduziert)
btw.
Control@RTmed läuft:
https://www.youtube.com/watch?v=RXTPy3-GoKE&t=140s
(Wer weiss was Gamemurks@>medium reingefuddelt hat.)
Hatten wir schon ColdWar mit RT:
https://www.youtube.com/watch?v=qti0IA8RBaY
(ohne Superresi bzw. TrixxBoost ist erstmal nur 1440p drin)
Ist euch auch aufgefallen, wenn man per MPT 300W eingibt und das PT nur leicht erhöht, dass dann das Limit von 345W ausgehebelt scheint. Ist mir in TSE aufgefallen, wo dann ständig 380W anlagen. Habe allerdings nach GT1 abgebrochen. Muss ja nicht sein unter Luft ...
dargo
2020-11-30, 08:53:18
Sagt mal... verstehe ich was falsch oder versteht Steve nichts von der Spannungskurve bei N21?
https://youtu.be/3TM6AHQ4Qd4?t=1725
Wieso dreht der an der min. Frequenz? :confused: Damit erhöht der doch nur den Takt/Spannung bei P1 und P2 (sofern N21 überhaupt noch P2 hat, dank der fehlenden grafischen Darstellung sieht man es nicht wie noch bei N10).
https://abload.de/thumb/w1x5jlp.jpg (https://abload.de/image.php?img=w1x5jlp.jpg) https://abload.de/thumb/w2zvjty.jpg (https://abload.de/image.php?img=w2zvjty.jpg)
https://abload.de/thumb/w3jmj1q.jpg (https://abload.de/image.php?img=w3jmj1q.jpg) https://abload.de/thumb/w43ukw9.jpg (https://abload.de/image.php?img=w43ukw9.jpg)
Die fehlende grafische Darstellung der Spannungskurve bei N21 ist echt Mist. Jeder dreht an den vorhandenen Reglern nach Wild-West-Manier und keiner weiß offenbar was er da überhaupt tut. :(
Ausnahme ist höchstens nich Temperatur: Wenn ein Spiel die GPU nur in Tempsensornähe auslastet, dann könnte es auch ein Templimit geben. Oder hab ich da nen Denkfehler?
Ein Temperaturlimit gibt es natürlich auch um die Hardware zu schützen. Dann bremst sich die Karte selbst. Wo der Punkt genau liegt kann ich dir aber nicht sagen. Eventuell ab 105°C Hotspot.
GerryB
2020-11-30, 11:39:07
Ist euch auch aufgefallen, wenn man per MPT 300W eingibt und das PT nur leicht erhöht, dass dann das Limit von 345W ausgehebelt scheint. Ist mir in TSE aufgefallen, wo dann ständig 380W anlagen. Habe allerdings nach GT1 abgebrochen. Muss ja nicht sein unter Luft ...
Wenn Du es bei 300=289+11 PT+5 erreichst, könnte evtl. bei Bardh`s 6800 mit 214=203+11 PT+5 dasselbe eintreten?
Ist eigentlich inzwischen klar, wie bei der nonXT die Spannung >1025mV angehoben werden kann?
Kann man dann einfach bis 1200mV im MPT freischalten?
Sollte doch bei Customs genug Kühlleistung vorh. sein.
Ein Temperaturlimit gibt es natürlich auch um die Hardware zu schützen. Dann bremst sich die Karte selbst. Wo der Punkt genau liegt kann ich dir aber nicht sagen. Eventuell ab 105°C Hotspot.
Ich finde eher die Angaben im Bios komisch, weil GPU=95°C ist viel zu hoch als Grenze, da wäre die Junction evtl. 20°C höher.
Von daher ist eigentlich nur Junction 95°C sinnvoll, wo der Treiber anfängt den Takt/Verbrauch einzubremsen.
btw.
Die 6700XT Custom kommt evtl. mit unterschiedlichen Designs.
Einmal sehr hohe Drehzahl (Radiallü.?) und einmal normal.
https://www.igorslab.de/amd-radeon-rx-6700-xt-als-echtes-takt-monster-exklusive-leaks-erster-boardpartner-biose-samt-taktraten-und-tgp/
Falls R-Lü. wäre Das net zwingend zu laut.(wie I denkt)
Die Fan-Start-Temp von 60°C kommt mir gerade für das Hochtaktdesign bei N22 etwas hoch vor.(x)
Falls man Das etwas runterstellen kann, wäre besser.
(Gemessen an der LC, die bei 60°C Junction so richtig zu Hochform aufläuft.)
(x)max 2950 GFX-Clock im Bios.(Custom-Bios)
Hakim
2020-11-30, 11:44:02
Gibt doch schon Bilder, quasi verkleinerte Version der 68er Referenz mit 2 statt 3 Lüftern
GerryB
2020-11-30, 11:45:37
2 Lü. = normal.Ref. + größere Customs
Igor hatte 2x Bios von GB.(=Customs)
Das für manche Verwendungszwecke auch mal ein Blower gebraucht wird, wäre ja net unüblich.
Macht GB auch bei A.
dargo
2020-11-30, 11:59:39
Ich finde eher die Angaben im Bios komisch, weil GPU=95°C ist viel zu hoch als Grenze, da wäre die Junction evtl. 20°C höher.
Was meinst du damit genau? Die 95°C in MPT sind der Hotspot.
GerryB
2020-11-30, 12:05:30
Ja, genau Das will ich hoffen.
Dummerweise weiss man net wie die Lü.steuerung genau funzt.
Bei Navi gings bei einigen AIB`s nur nach der GPU-Temp.
(während XFX sich stark an der Junction ausgerichtet hat)
dargo
2020-11-30, 12:07:14
Das brauchst du nicht hoffen, das ist so. :) Nach dem Hotspot regeln auch die Lüfter, was auch Sinn macht. Mit dem Hotspot hat man eine größere Temperaturspanne für die Regelung.
VaporVader
2020-11-30, 12:18:43
Das kann ich bestätigen. Die Lüftersteuerung richtet sich nach dem Hotspot.
aufkrawall
2020-11-30, 12:18:47
Bei Navi gings bei einigen AIB`s nur nach der GPU-Temp.
Klingt nach einem bescheuerten Gerücht. Schwer vorstellbar, dass die Partner sich über ein zentrales Element der Lüftersteuerung im Treiber einfach hinwegsetzen könnten...
dargo
2020-11-30, 12:35:51
Bei Navi gings bei einigen AIB`s nur nach der GPU-Temp.
(während XFX sich stark an der Junction ausgerichtet hat)
Das kann nicht sein, Beispiel?
GerryB
2020-11-30, 12:36:40
Klingt nach einem bescheuerten Gerücht. Schwer vorstellbar, dass die Partner sich über ein zentrales Element der Lüftersteuerung im Treiber einfach hinwegsetzen könnten...
Bei Navi war durch den hohen Grenzwert der Refs die Tür offen für Sowas.
Jeder hat dann nach Lust und Laune unterhalb von 105°C geregelt.
(Deswegen kann man Lautstärke eigentlich immer nur bei ner normierten Temp. vgl.)
dargo
2020-11-30, 12:37:50
Hä? Was reimst du dir da gerade für Zeug zusammen? :freak: Der reale Hotspot ist von vielen Faktoren abhängig.
* Kühler
* Anpressdruck
* WLP
* Lüfterdrehzahlen
* Powerlimit
Und natürlich bestimmt der AIB mit seinen Bioswerten nach welcher Hotspot-Temp. er seine Kühlung regelt.
Pulse (Vorsicht... mit neueren Biosen haben sich die Werte geändert):
https://www.igorslab.de/wp-content/uploads/2019/09/BIOS-1-MPT-Fans.png
https://www.igorslab.de/wp-content/uploads/2019/09/BIOS-2-MPT-Fans.png
Nitro+:
https://www.igorslab.de/wp-content/uploads/2019/09/Sapphire-RX-5700-XT-Nitro-MPT-04.png
https://www.igorslab.de/wp-content/uploads/2019/09/Sapphire-RX-5700-XT-Nitro-MPT-04-1.png
GerryB
2020-11-30, 12:46:26
Ist mir im Prinzip auch egal, Was einige Leute davon halten.
Ich hätte die RX5700xt-Experten(Strixx+GB) mit zu hohen Junction/Lü.kurve net unbesehen gekauft.
Zwecks Faktoren:
Beim Umbau auf Waterblock gibts ja erste Erfahrungen. Panthex (pcgh) hatte ne hohe Junction gemessen an der GPU-Temp.(mit Stock-Settings)
Da wäre LM ala 8auer wirklich sinnvoll.
58 zu 74@Stock ist im Vgl. zur LC@UVen mit 50 zu 60 net schön.
Wie die Regellung jetzt erfolgt kann man doch gut mit nem niedrigen FPS-Limit überprüfen.
Wann genau der Lü. anspringt und wie die GPU+Junction(Hotspot) dann aussieht.
btw.
SAM für A520-GB-Boards:
https://www.techpowerup.com/275373/gigabyte-releases-resizable-bar-support-for-amd-500-series-motherboards-via-bios-updates
https://geizhals.de/gigabyte-a520m-h-a2354286.html?hloc=de
(würde für kleine CPU`s ein preiswerter Einstieg sein)
Hä? Was reimst du dir da gerade für Zeug zusammen? :freak: Der reale Hotspot ist von vielen Faktoren abhängig.
* Kühler
* Anpressdruck
* WLP
* Lüfterdrehzahlen
* Powerlimit
Und natürlich bestimmt der AIB mit seinen Bioswerten nach welcher Hotspot-Temp. er seine Kühlung regelt.
Pulse (Vorsicht... mit neueren Biosen haben sich die Werte geändert):
https://www.igorslab.de/wp-content/uploads/2019/09/BIOS-1-MPT-Fans.png
https://www.igorslab.de/wp-content/uploads/2019/09/BIOS-2-MPT-Fans.png
Nitro+:
https://www.igorslab.de/wp-content/uploads/2019/09/Sapphire-RX-5700-XT-Nitro-MPT-04.png
https://www.igorslab.de/wp-content/uploads/2019/09/Sapphire-RX-5700-XT-Nitro-MPT-04-1.png
Dem AIB wurde die max. Hotspottemp. bei N1x bereits vorgeschrieben und es wird bei bei N2x wieder so sein.
Imo ist es auch gut so, sonst könnte jeder sein eigenes Süppchen kochen und bei der Kühlerqualität sparen. Nun ist es indirekt so, dass der Kühler auch die Performance beeinflusst und der ausgelesene Hotspot das Kärtchen länger am Leben lässt, da dann gedrosselt wird.
dargo
2020-11-30, 13:15:33
Zusammenhang? :freak:
Der max. Hotspot für die Hardware ist für jeden AIB gleich hoch. :rolleyes: Unter dem max. Hotspot kocht jeder AIB sein eigenes Süppchen für seine Lüftersteuerung und individuellen Bioswerten. Da gibt es mehr Sachen zu berücksichtigen, nicht nur die GPU. Was bringt es dir wenn der HotSpot der GPU noch im grünen Bereich liegt, der Speicher aber aufgrund von zu wenig Luftbewegung am kochen ist?
GerryB
2020-11-30, 14:11:54
Mal wieder zu etwas Interessantem zurück:
Gedi hatte ja schon die eff.Spannung vs. Treibersetting ins Spiel gebracht.(nur durch GPU-Last+PL bestimmt?)
Hier ein User bei IL Post#83:
"Je länger ich an meiner 6800XT herumdoktore, desto mehr Fragen stellen sich mir. In der Adrenaline Software waren per Slider 1.05V eingestellt aber 1.089 werden unter Spannung angezeigt. Damit nun 1.05V angezeigt werden (ich denke das ist eher der reale Wert), muss ich nun 0.98V einstellen."
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-5#post-91209
Das ist sicher hier gerade Game+Szenenabhängig, weil 1,089V net allzuhoch ist.
Genauso ist die Frage von Dargo berechtigt, ob net besser der minTakt bei Default(500?) bleibt, wenn man mal so eine Untersuchung der eff.Spannung vs. UVen im Slider anstellt.(hatte Gurdi bei der LC und nonXT so)
aufkrawall
2020-11-30, 14:15:45
Ist nicht spezifisch zu RDNA2-Karten, das war schon bei Polaris-Customs so. Da müsste man schauen, ob die ausgelesene Vcore nicht Murks ist, also auf den Verbrauch achten.
VaporVader
2020-11-30, 14:18:30
Mal wieder zu etwas Interessantem zurück:
Gedi hatte ja schon die eff.Spannung vs. Treibersetting ins Spiel gebracht.
Hier ein User bei IL Post#83:
"Je länger ich an meiner 6800XT herumdoktore, desto mehr Fragen stellen sich mir. In der Adrenaline Software waren per Slider 1.05V eingestellt aber 1.089 werden unter Spannung angezeigt. Damit nun 1.05V angezeigt werden (ich denke das ist eher der reale Wert), muss ich nun 0.98V einstellen."
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-5#post-91209
Genauso ist die Frage von Dargo berechtigt, ob besser der minTakt bei Default(500?) bleibt, wenn man mal so eine Untersuchung der eff.Spannung vs. UVen im Slider anstellt.
Da man ja effektiv nur einen Punkt in der vermutlich vorhandenen Voltage Kurve verändern kann, ist es schon möglich das real andere Werte anliegen.
Solange wir nicht die anderen Punkte der Kurve bearbeiten können ist das alles etwas schwierig.
Die Min Frequenz verschiebt, wie dargo ja schon gezeigt hat, ja nur den Anfangspunkt der Kurve. Und dadurch verändern sich natürlich auch alle Volt Werte zwischen den einzelnen Punkten.
nonharderware
2020-11-30, 14:27:32
Hallo,
hab jetzt etwas herumgespielt:
Takt:
Min 2550 MHz
Max 2650 MHz
1040mV
Mem
2100 (Standard / non fast)
3DMark: 18 134
Grafik-Punkte: 18 774
CPU score: 15 201
https://www.3dmark.com/3dm/53934649?
GerryB
2020-11-30, 14:32:12
Hallo,
hab jetzt etwas herumgespielt:
Takt:
Min 2550 MHz
Max 2650 MHz
1040mV
Kannst Du mal spassenshalber Min 500 MHz einstellen= Default (ausgegraut)
und probieren ob dann 1037...1031mV reichen.
nonharderware
2020-11-30, 14:34:45
Kannst Du mal spassenshalber Min 500 MHz einstellen= Default (ausgegraut)
und probieren ob dann 1037...1031mV reichen.
Später, muss jetzt auch mal ein wenig Geld machen (= arbeiten) ;)
Hallo,
hab jetzt etwas herumgespielt:
Takt:
Min 2550 MHz
Max 2650 MHz
1040mV
Mem
2100 (Standard / non fast)
3DMark: 18 134
Grafik-Punkte: 18 774
CPU score: 15 201
https://www.3dmark.com/3dm/53934649?
Hier noch einmal bei UserBenchmark:
https://www.userbenchmark.com/UserRun/36168574
GerryB
2020-11-30, 14:42:28
Mal wieder zu etwas Interessantem zurück:
Gedi hatte ja schon die eff.Spannung vs. Treibersetting ins Spiel gebracht.(nur durch GPU-Last+PL bestimmt?)
Hier ein User bei IL Post#83:
"Je länger ich an meiner 6800XT herumdoktore, desto mehr Fragen stellen sich mir. In der Adrenaline Software waren per Slider 1.05V eingestellt aber 1.089 werden unter Spannung angezeigt. Damit nun 1.05V angezeigt werden (ich denke das ist eher der reale Wert), muss ich nun 0.98V einstellen."
Dazu die Antwort von Gurdi:
"Der Slider verändert erst unterhalb von 1V die Maximale Spannung. Du ziehst damit quasi eine Boosttable runter die du nicht siehst und änderst nicht die maximale Spannung(diese kannst du aber mit dem MPT reduzieren indem du den maximalwert reduzierst)"
Damit würde der interessante Bereich bei 993mV anfangen, falls man net mit dem MPT arbeiten möchte.
(Das ist der erste eff.Wert unter 1V)
Man könnte vorsichtshalber 991mV einstellen, falls Es einen Vorhaltewert von 2mV ala Navi gibt.
nonharderware
2020-11-30, 15:02:00
Gibt es irgendwo ein Sapphire 6800XT BIOS zum Download?
GerryB
2020-11-30, 15:04:56
Bei TPU leider noch nicht, aber die XFX Merc`s gibt es schon.
https://www.techpowerup.com/vgabios/?architecture=&manufacturer=XFX&model=&interface=&memType=GDDR6&memSize=16384&since=
btw.
Wer sich für MemoryTimings interessiert, findet hier die Steps, in denen sich Was ändert:
https://www.overclock.net/threads/preliminary-look-at-the-rx-6800-xts-vbios.1774921/
Könnte also sein, das 2060 zu hoch für Manche ist! (sprich Es wird langsamer als 2059)
dito 2125 als nächste Stufe (langsamer als 2124)
Inwiefern dann noch "fast" ON/OFF ne Rolle spielt, steht leider net im Post.
dildo4u
2020-11-30, 16:13:48
Laut dem wird AMD Compute für sein Upscaling nutzen, Microsofts Lösung ist noch mal was Anderes und soll ML nutzen.
7QR9bj951UM
nonharderware
2020-11-30, 16:15:53
Bei TPU leider noch nicht, aber die XFX Merc`s gibt es schon.
https://www.techpowerup.com/vgabios/?architecture=&manufacturer=XFX&model=&interface=&memType=GDDR6&memSize=16384&since=
btw.
Wer sich für MemoryTimings interessiert, findet hier die Steps, in denen sich Was ändert:
https://www.overclock.net/threads/preliminary-look-at-the-rx-6800-xts-vbios.1774921/
Könnte also sein, das 2060 zu hoch für Manche ist! (sprich Es wird langsamer als 2059)
dito 2125 als nächste Stufe (langsamer als 2124)
Inwiefern dann noch "fast" ON/OFF ne Rolle spielt, steht leider net im Post.
Bzgl. "fast":
Hatte damit durchwegs miesere Ergebnisse als ohne.
Bei mir war bei 2125MHz MEM Ende - 2110 waren ohne messbare Leistungssteigerung drinnen
TwoBeers
2020-11-30, 22:37:51
Gibt es irgendwo ein Sapphire 6800XT BIOS zum Download?
Welches meinst du? Für die Referenzkarten ist das AMD BIOS genauso wie jedes andere.
https://www.techpowerup.com/vgabios/226803/amd-rx6800xt-16384-201007
Ansonsten, Nitro oder Pulse hab ich noch nicht gesehen.
nonharderware
2020-11-30, 23:11:30
Welches meinst du? Für die Referenzkarten ist das AMD BIOS genauso wie jedes andere.
https://www.techpowerup.com/vgabios/226803/amd-rx6800xt-16384-201007
Ansonsten, Nitro oder Pulse hab ich noch nicht gesehen.
Ich würde mir von einem Sapphire BIOS erhoffen, dass damit TRIXX funktioniert.
Siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603549
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.