PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 6800 & 6800 XT Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8

Lowkey
2020-11-30, 23:15:10
Konnte Gigabyte bis heute kein BAR?

GIGABYTE Releases Resizable BAR Support for AMD 500-series Motherboards via BIOS Updates (https://www.techpowerup.com/275373/gigabyte-releases-resizable-bar-support-for-amd-500-series-motherboards-via-bios-updates)

gedi
2020-11-30, 23:38:10
Ich würde mir von einem Sapphire BIOS erhoffen, dass damit TRIXX funktioniert.
Siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603549

Dafür braucht es kein Trixx, nur ein gaaanz klein wenig an Sachverstand. Computerbild-Niveau reicht dicke :)

nonharderware
2020-11-30, 23:42:49
Dafür braucht es kein Trixx, nur ein gaaanz klein wenig an Sachverstand. Computerbild-Niveau reicht dicke :)

Offensichtlich habe ich nicht einmal dieses Niveau.
Wärst du also so freundlich und würdest mein Wissen erweitern?

r3ptil3
2020-11-30, 23:47:29
Offensichtlich habe ich nicht einmal dieses Niveau.
Wärst du also so freundlich und würdest mein Wissen erweitern?

Dann gehöre ich definitiv auch dazu.

Der Beissreflex hier im Forum ist teilweise aussergewöhnlich stark ausgeprägt.

nairune
2020-11-30, 23:47:39
Da Referenzkarten alle identisch sind, funktioniert Trixx mit allen "Herstellern". War zumindest früher so.

r3ptil3
2020-11-30, 23:52:10
Da Referenzkarten alle identisch sind, funktioniert Trixx mit allen "Herstellern". War zumindest früher so.

Geht mit der aktuellen Trixx-Software und einer nicht "Sapphire" Referenzkarte (6800) definitiv nicht.

"Error: This application... requires Sapphire..."

nairune
2020-11-30, 23:56:26
Dann stellt sich die Frage, ob die 6800er Referenz von Sapphire überhaupt damit funktioniert. Die letzte Version ist vom Juli, da werden die Device IDs wohl noch nicht drin sein.

gedi
2020-11-30, 23:58:10
Kann auch nicht - um Trixx nutzen zu können braucht es den 3-Wege VBios Schalter, welcher erst auf Customs seitens Sapphire verbaut ist!

Allerdings, für was braucht man Trixx - oder was kann Trixx besser, was man nicht auch selbst bewerkstelligen kann?!

nonharderware
2020-11-30, 23:58:22
Ich habe es ja schon in dem verlinkten Thread probiert Thrixx auszuführen.
Ergebnis kann hier - https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12517470#post12517470 - nachgelesen werden...

nairune
2020-11-30, 23:59:37
Da verwechselst du was... Mit Trixx kann man das BIOS umschalten, das heißt aber nicht, dass man das für Trixx braucht. Mit meiner Pulse geht ja Trixx auch.

TwoBeers
2020-12-01, 00:21:55
Könnte sein, dass Trixx nicht mit Referenzkarten funktioniert, egal ob Sapphire, PC, AMD, Asus oder sonst wer.

gedi
2020-12-01, 00:25:43
Ich habe es ja schon in dem verlinkten Thread probiert Thrixx auszuführen.
Ergebnis kann hier - https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12517470#post12517470 - nachgelesen werden...

Bei den 68ern braucht es das Trixx VBios :frown:

r3ptil3
2020-12-01, 00:35:21
Haben nur folgende Reviewer Karten erhalten?

https://i.ibb.co/JcvktBh/vd.png (https://videocardz.com/newz/amd-radeon-rx-6800-custom-series-review-roundup)

Das sind ja erschreckend wenige...

ASUS Strix (Luftkühlung), MSI, Gigabyte und und und, davon fehlt noch jede Spur.

SKYNET
2020-12-01, 00:36:08
Haben nur folgende Reviewer Karten erhalten?

https://i.ibb.co/JcvktBh/vd.png (https://videocardz.com/newz/amd-radeon-rx-6800-custom-series-review-roundup)

Das sind ja erschreckend wenige...

ASUS Strix (Luftkühlung), MSI, Gigabyte und und und, davon fehlt noch jede Spur.


ne, igor hat doch auch ne nitro

-/\-CruNcher-/\-
2020-12-01, 01:31:04
Sagt mal... verstehe ich was falsch oder versteht Steve nichts von der Spannungskurve bei N21?
https://youtu.be/3TM6AHQ4Qd4?t=1725

Wieso dreht der an der min. Frequenz? :confused: Damit erhöht der doch nur den Takt/Spannung bei P1 und P2 (sofern N21 überhaupt noch P2 hat, dank der fehlenden grafischen Darstellung sieht man es nicht wie noch bei N10).
https://abload.de/thumb/w1x5jlp.jpg (https://abload.de/image.php?img=w1x5jlp.jpg) https://abload.de/thumb/w2zvjty.jpg (https://abload.de/image.php?img=w2zvjty.jpg)

https://abload.de/thumb/w3jmj1q.jpg (https://abload.de/image.php?img=w3jmj1q.jpg) https://abload.de/thumb/w43ukw9.jpg (https://abload.de/image.php?img=w43ukw9.jpg)

Die fehlende grafische Darstellung der Spannungskurve bei N21 ist echt Mist. Jeder dreht an den vorhandenen Reglern nach Wild-West-Manier und keiner weiß offenbar was er da überhaupt tut. :(


Ein Temperaturlimit gibt es natürlich auch um die Hardware zu schützen. Dann bremst sich die Karte selbst. Wo der Punkt genau liegt kann ich dir aber nicht sagen. Eventuell ab 105°C Hotspot.

ABM damit die OCler irgendwas haben bei Nvidia ist schon Selbstmordstimmung im OC lager ;)
Da gibt man ihnen neue Denkaufgaben damit sie schein beschäftigt bleiben an den ganzen reglern zu tunen für ihr in MHz getaktetem Ego :D

dargo
2020-12-01, 02:45:02
Was ist denn da los? ;D

53ElrPWZk8s

Generationskämpfe? :D

GerryB
2020-12-01, 06:40:27
Allerdings, für was braucht man Trixx - oder was kann Trixx besser, was man nicht auch selbst bewerkstelligen kann?!

Wärst du also so freundlich und würdest mein Wissen erweitern?

Eigentlich ist bei TrixxBoost nur das intelligente Scaling für Laien interessant.(x)
(sollte mit den Ref´s gehen, u.U. auch falls man ein Merc-Bios per MPT für die Powertable nutzt)

(x)2160p-->1836p siehe Anhang (wurde von Wiseman mit der 5700xt gern benutzt)
Das bringt ca. 28% mehr Fps.
alternativ
VSR ON sollte man auch 1800p einstellen können.
Das bringt theoretisch sogar 28%+4%=32% mehr Fps ggü. 2160p nativ.
oder
man hat nen guten TV/Moni und kann gleich eine native Auflösung von 1800p NEU kreieren.

TrixxBoost@85%=1836p oder 1800p ist gleichwertig zu DLSS1.0 in der Bildqualität.
siehe Txt von Tom`s Hardware

Zu OCen:
Wenn ich beim Takt höher gehe, wird es niedriger.
Die besten Werte bekomme ich bei den eingangserwähnten 2500/2600 und 2050 Mem (fast) und PL +15%.


Diese Beobachtung hat auch Taymoon bei IL im Forum bestätigt:
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-6
" Die Scores werden einfach schlechter und stürzt nicht umbedingt ab. Das erklärt, warum 99% der youtuber einen schlechteren OC haben als meinen. Jeden Slider auf Maximum sieht aus gut aus, aber läuft schlechter als das Standardprofil.

Die besten Ergebnisse hatte Ich bei core clock, wenn der wert zwischen 2608 und 2620 war, und der voltage zwischen 1.05 und 1.20.
(Ich hatte meine auch auf fast 2680 gestellt und ist nicht abgestürzt, die Resultate waren allerdings katastrophal)"

Am Ende zählt net ein kurzeitiger MaxClock sondern nur die Frametimes über längere Zeit!

Gynoug MD
2020-12-01, 06:50:11
Was ist denn da los? ;D

https://youtu.be/53ElrPWZk8s

Generationskämpfe? :D
Ein bißchen Daily Soap sei uns doch, neben all den trockenen dt. Hardware-Reviews, gegönnt.
:)

GerryB
2020-12-01, 07:06:33
Der 8auer kann die Spannung auf 1,35V anheben.
I kann nur Blubb.(x)

(x)Andere YTer schlecht machen ist ein NoGo.
aber
Selbst, ohne die Hardware in den Händen zu halten, sinnlose Gerüchte über heiss+laut+zuviel Verbrauch in die Welt setzen..
Der Gute sollte mal bitte seriöser agieren. (aber wahrscheinlich braucht Er jetzt als selbstständiger Unternehmer mehr Klicks um Butter aufs Brötchen zu bekommen)

btw.
Was ist der Unterschied bei der Merc Bios 1 vs 2: Rage vs. Balanced = +20MHz bei 8W mehr
(und man könnte sich einen theor. Turbo-Mode bei der 6900 abfingern=+40MHz bei 16W mehr, da ist kein Fön erf.)

woodsdog
2020-12-01, 08:09:37
Die blöde Andeutung mit dem Fön im Kontext der 6000er ist mir auch ziemlich sauer aufgestoßen. Die Ref ist super leise.

GerryB
2020-12-01, 08:16:23
Vor Allem hat I vor dem N21-Launch die 6800 sehr dunkelgrün abgeschätzt bzgl. zusätzlicher W obwohl eigentlich klar war das net groß was Anderes als bei der 5700xt-Nitro rauskommen kann.(am Ende hat die Ref sogar 10W weniger TBP als die 5700xt Nitro)
Von realen avg.Gaming-Werten ala TPU mal ganz zu schweigen.

Für einige Games evtl. interessant: Adrenalin 20.11.3 beta
https://www.techpowerup.com/275413/amd-radeon-software-adrenalin-20-11-3-released

Screemer
2020-12-01, 09:58:19
Was ist denn da los? ;D

https://youtu.be/53ElrPWZk8s

Generationskämpfe? :D
Erinnert mich an die Zeit kurz bevor er hier das Handtuch geworfen hat.

Seth
2020-12-01, 10:52:53
Ich fand Igor's Kommentare hier im Forum immer schon extrem unsympathisch. Immer überheblich und mit krampfhaft "lustigen" Sprüchen. In Videoform noch schlimmer. Jetzt noch das dazu mit Schleichwerbung usw. Geht gar nicht.

Redneck
2020-12-01, 11:03:56
*deleted*

erlgrey
2020-12-01, 11:20:12
Muss das hier diskutiert werden?

nonharderware
2020-12-01, 12:30:13
Min 2560
Max 2660
Mem 2100MHz
1037mV

Sind bei meiner Karte quasi das Ende der Fahnenstange.
Mehr Takt und/oder weniger Voltage machen einen kompletten 3DMark Durchlauf unmöglich.

3DMark Score 18 166
Grafik-Punkte 18 813
CPU Score 15 207

https://www.3dmark.com/3dm/53994756?

Ich weiß nicht warum bei manchen Tests die 6800XT so schlecht dasteht, denn diese Karte ist einfach nur genial für den Preis, der Ausstattung und dem Vergleich zur grünen Konkurrz (3080).

Wirklich eine der besten Grafikkarten mitsamt der Voodoo 1 '96 und der Fury 2015/16, die ich je hatte.

OT:
Ich fand Igor's Kommentare hier im Forum immer schon extrem unsympathisch. Immer überheblich und mit krampfhaft "lustigen" Sprüchen. In Videoform noch schlimmer. Jetzt noch das dazu mit Schleichwerbung usw. Geht gar nicht.

1. Igor ist hier im Forum? Welcher Nickname?
2. Ich finde ihn kompetent. Mich stören allgemein Videos an sich, da ich hier in der Geschwindigkeit des Produzenten Infos bekomme (zu langsam) und mit audiovisuellem Bling (Musik, Grafikeffekte etc.) belästigt werde.

Langlay
2020-12-01, 12:49:46
1. Igor ist hier im Forum? Welcher Nickname?




Igor hiesst glaub ich Format C hier im Forum. Ist aber schon seit gefühlt ewig nimmer aktiv.

nonharderware
2020-12-01, 12:57:51
Igor hiesst glaub ich Format C hier im Forum. Ist aber schon seit gefühlt ewig nimmer aktiv.


Check.
Danke dir!

Blediator16
2020-12-01, 13:44:56
Ich fand Igor's Kommentare hier im Forum immer schon extrem unsympathisch. Immer überheblich und mit krampfhaft "lustigen" Sprüchen. In Videoform noch schlimmer. Jetzt noch das dazu mit Schleichwerbung usw. Geht gar nicht.

Ich bin mir ziemlich sicher, dass der die Youtuber nur müde belächelt hat.
Stellt sich heraus er ist nun selber Youtuber. :freak:

GerryB
2020-12-01, 17:23:54
Min 2560
Min 2560
Max 2660
Mem 2100MHz
1037mV

NICE

Setz mal bitte den minTakt auf 500Mhz= Default ausgegraut und maxTakt auf 2620
und versuch dann mal 1031mV.
Mem auf 2059 sollte für 24/7 auch reichen.


btw.
Ich wundere mich, dass Raff noch net ColdWar verlinkt hat.
Wieder mal "üppig" getestet, mit "läppischen" 4x DLSS-Modi und nur 1x "üppigem" RT-Mode Ultra.

Der Luxx hat zum Glück auch mal mit RT high getestet.(Bildquali entschuldigen.passte schlecht)
Fazit: RT Ultra geht gar net, zuviel Gamemurks. In High ist die 3070 immer noch besser als die 2080Ti und die 6800xt.(x)
Die nonXT wäre wohl in Med flüssig.
(x) Vermutlich wird die Gamemurksabteilung jetzt öfter versuchen die Ti und die XT zu benachteiligen.

Ansonsten ist RT off und SAM on zu empfehlen.(high Fps-Gaming-Shooter)
PCGH benutzt i.d.R. stark OCed Custom-Modelle, ich vermisse die DEVIL.(warum wohl)

Erstaunlich, wieviel Vram ne 3090 bereits in 3440x1440 mit HD-Pack lädt.
Hätte ich net so schnell erwartet, das NV die >16GB erzwingen will.

dargo
2020-12-01, 17:28:51
Wieso ruckelt das so auf der 3090? :freak:

GerryB
2020-12-01, 18:01:52
Die Jungs streiten sich gerade übers CPU-Limit.
Der Ausschnitt war aus nem 3440x1440 Screenshot.
Der CPU-Vgl. war schon durchwachsen. - siehe Anhang

Inwiefern RT ne extreme CPU-Last zusätzlich erzeugt, who knows.
WDL@NV war ja auch schon komisch.

Mit leicht angepassten Settings läufts in 1440p auf der XT ganz gut:
https://www.youtube.com/watch?v=qti0IA8RBaY

edit:
Mal z.Vgl. noch ein anderes Review (leider ohne SAM)
https://tweakers.net/reviews/8412/4/call-of-duty-black-ops-cold-war-vermaakt-net-iets-meer-op-next-gen-pc-versie-de-benchmarks.html
(der nonXT geht in 4k etwas die Luft aus, ... von daher bin ich mal auf die 6900 gespannt)

nonharderware
2020-12-01, 19:24:34
NICE

Setz mal bitte den minTakt auf 500Mhz= Default ausgegraut und maxTakt auf 2620
und versuch dann mal 1031mV.
Mem auf 2059 sollte für 24/7 auch reichen.


Bitte sehr:

3DMark Score 18 131

Grafik-Punkte 18 781

CPU score 15 162

P.S.: Sorry, habe es gestern vergessen!

GerryB
2020-12-01, 19:30:07
Bitte sehr:
Grafik-Punkte 18 781

P.S.: Sorry, habe es gestern vergessen!
Nice, genauso schnell wie heute Nachmittag.(die Diff von 0,017 Prozent ist fast Messtoleranz)

Kannst Du im Verbrauch jetzt Unterschiede zu Stock/Default-AMD feststellen?

Der Score ist schon gut, leider gibts noch net so viele Vgl.werte:
https://www.computerbase.de/forum/threads/amd-benchmark-rangliste-nach-modellen.1833235/

edit: Man sollte auch nur nach den Ref´s schauen. weil die OCed LC von Gurdi@SAM in ner anderen Liga spielt.

nonharderware
2020-12-01, 19:34:07
Nice, fast genauso schnell wie heute Nachmittag.

Kannst Du im Verbrauch jetzt Unterschiede zu Stock feststellen?

Naja, Ablesung ist rein subjektiv.
Müsste mal mit dem Strommessgerät ans Werk gehen...

Aber wenn du die die Durchschnittstemperatur ansiehst - 60 zu 62°C - dürfte es weniger Hitzeenwicklung geben:

GerryB
2020-12-01, 19:54:07
Weiss jetzt net, Was der Kollege in der Rangliste für ein Setting hatte.(PL+15?)
aber
Seine Temp. war deutlich höher:

nonharderware
2020-12-01, 21:17:48
Weiss jetzt net, Was der Kollege in der Rangliste für ein Setting hatte.(PL+15?)
aber
Seine Temp. war deutlich höher:

Keine Ahnung, ich habe aber auch die Lüfterkurve optimiert.

nonharderware
2020-12-01, 21:45:40
Bitte sehr:

3DMark Score 18 131

Grafik-Punkte 18 781

CPU score 15 162

P.S.: Sorry, habe es gestern vergessen!

Hier noch der Link - sorry:
https://www.3dmark.com/3dm/54020223?

GerryB
2020-12-02, 03:59:17
Bei ColdWar lohnt sich ein Blick in die Galerie: Vgl. der DXR-Modi
https://www.hardwareluxx.de/index.php/galerie/software/games/call-of-duty-black-ops-cold-war.html

= Es ist eigentlich kaum Was zu sehen (Ultra braucht kein Mensch)

GerryB
2020-12-02, 04:11:39
Keine Ahnung, ich habe aber auch die Lüfterkurve optimiert.

Damit liegts Du gar net so schlecht. Nur 14°C über Waterblock@Stock.
EagleOne vom Luxx hat seinen EK auf ner nonXT verbaut: siehe Anhang

btw.
Adrenalin 11.3 ist evtl. auf manchen Grakas für Control+WOT besser geeignet.
https://www.youtube.com/watch?v=APmqpqoyLpE&feature=emb_logo
(leider wurde kein VLK-RT getestet, obs überhaupt funzt, vermutlich keine große RX verfügbar beim YTer)

versus01091976
2020-12-02, 05:17:35
GerryB

Feine Bilder.
Bin von AMD richtig begeistert was sie mit der 6800er Serie nun und den Ryzen gebracht haben.

GerryB
2020-12-02, 06:13:12
btw.
Der 3060Ti-Launch ist zumindestens für potentielle 6800 nonXT-Käufer interessant:HU+HC-Review
https://www.youtube.com/watch?v=Owrk_OnaPJo&t=437s
https://www.youtube.com/watch?v=hpXxzzLOw00
(SAM off bei Beiden)

CB ist etwas dünn geraten. Es wurden net mal alle eff. Takte der Customs in den Raster-Games vom Parcour getestet, why?
Und der RT-Score overall wird durch Control+ME verzerrt. C ist verbugged und ME mit adv.PhysX =?

Daher mal andere RT Ergebnisse/Settings.

Sumpfmolch
2020-12-02, 07:07:38
Sooo viele neue Grafikkarten, die ich nirgends kaufen kann. Schwierige Entscheidung...

GerryB
2020-12-02, 07:27:42
Da kommen bald noch Weitere dazu, falls ...
https://www.overclock3d.net/news/gpu_displays/custom_radeon_rx_6900_xt_gpus_are_reportedly_in_the_works/1

HOT
2020-12-02, 08:03:03
Da kommen bald noch Weitere dazu, falls ...
https://www.overclock3d.net/news/gpu_displays/custom_radeon_rx_6900_xt_gpus_are_reportedly_in_the_works/1

Da gab's schon vor dem Launch die Meldung, dass AMD mit den Boardpartnern wegen der 6900XT verhandelt, ab da war schon klar, dass der Quatsch mit dem nur-Referenz purer BS war. Wie soll das auch gehen, wenn die Referenz in Q1 schon wieder eingestampft wird...

dargo
2020-12-02, 08:21:03
Zur Frage was da jetzt bei 6800xt limitiert. Sieht beim 8auer ja so aus, als ob da 2800 MHz die KArte einfach Schluß macht. Egal was man sonst dreht.
Einfach die RX 6900XT abwarten und das Bios dann auf die RX 6800XT flashen. Dann sind zwar immer noch 72 CUs aktiv, aber die Taktgrenze dürfte dann ebenfalls bei 3GHz liegen.

sChRaNzA
2020-12-02, 08:24:22
Sooo viele neue Grafikkarten, die ich nirgends kaufen kann. Schwierige Entscheidung...

Ich frag mich auch schon die ganze Zeit wofür ich mein Geld nicht ausgebe. Ich meine, so viel neue Technik und nichts ist (sinnvoll) verfügbar... Schwierige Zeiten. :D

Benutzername
2020-12-02, 09:11:23
Einfach die RX 6900XT abwarten und das Bios dann auf die RX 6800XT flashen. Dann sind zwar immer noch 72 CUs aktiv, aber die Taktgrenze dürfte dann ebenfalls bei 3GHz liegen.


Muss ja in der Firmware eingetragen sein bis wohin die 6800xt geht. Würde mich nicht wundern, wenn das einfach nur ein einfacher Eintrag ist der das Limit setzt und das so ziemlich der einzige Unterschied zur 6900xt Firmware ist. Echte Männer ändern das mit dem Hexeditor. :wink:

ChaosTM
2020-12-02, 09:21:34
Momentan findet der Perfekte Anti-Sturm statt.
Erste neue Grafikgeneration von NV seit 2,5 Jahren. Die ersten wirklich brauchbaren High End(ischen) Karten von AMD seit 6 Jahren und da wäre noch eine neue ZEN Generation.

Und dann war da noch was, klang irgendwie nach Bier....

dargo
2020-12-02, 09:52:42
Muss ja in der Firmware eingetragen sein bis wohin die 6800xt geht. Würde mich nicht wundern, wenn das einfach nur ein einfacher Eintrag ist der das Limit setzt und das so ziemlich der einzige Unterschied zur 6900xt Firmware ist. Echte Männer ändern das mit dem Hexeditor. :wink:
Wer sind denn diese echten Männer? Oder sind die schon ausgestorben? Afaik wurden die max. 2,8Ghz nämlich noch nicht gesprengt bei der RX 6800XT.

Lawmachine79
2020-12-02, 13:23:29
Die neue Reverb G2 funktioniert offenbar nicht mit AMD RX-68xx GPUs. Ist schon ein geiles Stückchen Hardware, das AMD da rausgehauen hat. Aber hey, immerhin hätten sie genug VRAM :D.

Tarkin
2020-12-02, 14:02:50
Die neue Reverb G2 funktioniert offenbar nicht mit AMD RX-68xx GPUs. Ist schon ein geiles Stückchen Hardware, das AMD da rausgehauen hat. Aber hey, immerhin hätten sie genug VRAM :D.

so what? who cares? ;D

nonharderware
2020-12-02, 14:08:17
Einfach die RX 6900XT abwarten und das Bios dann auf die RX 6800XT flashen. Dann sind zwar immer noch 72 CUs aktiv, aber die Taktgrenze dürfte dann ebenfalls bei 3GHz liegen.

Yepp!
Ich bin da schon seeeeehr gespannt :D

GerryB
2020-12-02, 14:34:20
Yepp!
Ich bin da schon seeeeehr gespannt :D
Solange Du@Air net >>2600 takten kannst hilft Dir ein 6900er-Bios auch net weiter. Wenn Es genügend Erfahrungswerte für 6800@6900MPT-Powertable gibt und sich
Fullcover-Waterblocks bewähren(<60°C Hotspot mit LM), dann kannste immer noch...

Was treiben eigentlich die YTer!?
Die Kerle haben schon seit 2 Wo. die Blocks von EK.(gibt auch AiO-Sets die man nur mal zusammenstöpseln müßte)
(Lieferung zusammen mit den RX6800XT bekommen)

btw.
Hat denn Jemand schon das ASUS-Bios für Intel testen können?
Das gleich mal so SAM auf Intel funzt, finde ich recht praktisch.
(entlastet die Nachfrage nach Ryzen 5000)

Update:"ASRock und MSI ziehen nach
ComputerBase hatte im Zuge dieser Meldung bei weiteren großen Mainboard-Herstellern nachgefragt, ob diese ebenfalls Smart Access Memory auf Intel-Mainboards anbieten werden. Jetzt liegen die Antworten vor: ASRock wie auch MSI haben ähnliches geplant und wollen noch im Laufe dieser Woche nähere Informationen dazu mit der Öffentlichkeit teilen. Bei Gigabyte hieß es, dass erst noch untersucht werde, ob es sich lohne, diese Funktion anzubieten."
https://www.computerbase.de/2020-12/smart-access-memory-asus-intel-mainboards-beta-bios/

Dito ist natürlich auch Ryzen5000@B450(Asrock) interessant, falls Das Jemand nutzt.

gbm31
2020-12-02, 15:43:14
so what? who cares? ;D

Hauptsache meine alte Rift tut!

patrickschur
2020-12-02, 17:58:16
Echte Männer ändern das mit dem Hexeditor. :wink:

Das bringt dir nichts, wenn das VBIOS signiert ist.

Einfach die RX 6900XT abwarten und das Bios dann auf die RX 6800XT flashen.
Ich habe schon jemanden das 6900 XT VBIOS gegeben, damit er es auf seine 6800 flashen kann. Das funktioniert zwar, erhöht aber nicht das Taktlimit. Sobald du das Taktlimit von 2600 (6800) bzw. 2800 MHz (6800 XT) überschreitest, springt der Takt auf 500 MHz.

Wir wissen noch nicht woran das liegt. Das könnte in der Firmware implementiert sein oder auch im Treiber. Leider habe ich keine Karte mit einem Dual BIOS, sonst hätte ich es mit meiner 6800 XT und einem speziellen Tool mal versucht.

Ich versuche auch schon seit drei Tagen der8auer zu erreichen, bisher leider vergebens. ;( Mit seinem internen Tool und dem 6900 XT VBIOS könnte er das Limit von 2800 MHz vielleicht umgehen.

Edit: Zu mindestens das Taktlimit in Wattman wird nicht erhöht. Könnte daran liegen, dass Wattman die Karte immer noch als 6800 erkennt. Daher wollen wir es mal mit dem internen Tool versuchen.

dargo
2020-12-02, 18:04:27
Ok... AMD macht es einem nicht leicht. :D

sChRaNzA
2020-12-02, 18:08:52
Ok... AMD macht es einem nicht leicht. :D

Stimmt. Sie machen es einem unmöglich (etwas zu bestellen).

nonharderware
2020-12-02, 19:36:35
Das bringt dir nichts, wenn das VBIOS signiert ist.


Ich habe schon jemanden das 6900 XT VBIOS gegeben, damit er es auf seine 6800 flashen kann. Das funktioniert zwar, erhöht aber nicht das Taktlimit. Sobald du das Taktlimit von 2600 (6800) bzw. 2800 MHz (6800 XT) überschreitest, springt der Takt auf 500 MHz.

Wir wissen noch nicht woran das liegt. Das könnte in der Firmware implementiert sein oder auch im Treiber. Leider habe ich keine Karte mit einem Dual BIOS, sonst hätte ich es mit meiner 6800 XT und einem speziellen Tool mal versucht.

Ich versuche auch schon seit drei Tagen der8auer zu erreichen, bisher leider vergebens. ;( Mit seinem internen Tool und dem 6900 XT VBIOS könnte er das Limit von 2800 MHz vielleicht umgehen.

Edit: Zu mindestens das Taktlimit in Wattman wird nicht erhöht. Könnte daran liegen, dass Wattman die Karte immer noch als 6800 erkennt. Daher wollen wir es mal mit dem internen Tool versuchen.

Aber man kommt damit zu den 2800MHz?
Kannst du mir das BIOS senden? PN für E-Mail Adresse?

Freestaler
2020-12-02, 20:02:26
Patrikschur, wattman ist ja auch alles am Ende nur nen Regkey zumindest bei meiner Vega. Mitschneiden mit Regkeycomparetool bei Taktänderung und los gehts. Oder geht der weg bei rdna2 nicht mehr.

gedi
2020-12-02, 20:09:35
Die neue Reverb G2 funktioniert offenbar nicht mit AMD RX-68xx GPUs. Ist schon ein geiles Stückchen Hardware, das AMD da rausgehauen hat. Aber hey, immerhin hätten sie genug VRAM :D.

Und deine Info bezieht sich auf was (also objektiv, ohne grünen Filter)?

patrickschur
2020-12-02, 20:12:10
@Complicated Nein, ein anderer Overclocker. Ich habe aber versucht ihn zu erreichen... leider bekomme ich keine Antwort.

@AloisLeiwand Man kommt damit nicht auf 2800 MHz. Er hat es zwar irgendwie geschafft, dass es ihm angezeigt wird, aber sobald er die 2600 MHz versucht zu überschreiten, sinkt der Takt auf 500 MHz.

Habe bitte Verständnis, dass ich dir (und allen Anderen die mir eine PN geschickt haben) das VBIOS leider nicht geben kann.

patrickschur
2020-12-02, 20:18:32
Mitschneiden mit Regkeycomparetool bei Taktänderung und los gehts. Oder geht der weg bei rdna2 nicht mehr.
Ich habe keine Ahnung was Wattman im Hintergrund macht. Windows ist auch nicht mein Betriebssystem der Wahl. :tongue:

Aber danke, ich werde deinen Vorschlag mal weitergeben.

Gmax
2020-12-02, 20:33:06
Ich hab ein sehr kleines Fractal Node 202 Gehäuse und würde mich eigentlich wieder auf eine Blower Karte freuen, weiß jemand, ob es das (im 5700XT Stil)
geben wird?

horn 12
2020-12-03, 03:11:31
Heute kommt Meine 6800 Ohne XT.

Nach langem Ringen (Auch zwecks dem hohen Preis) mit mir selbst zum Schluss gekommen:
Corona ---> Geld gespart und Besser als Warten Warten und nochmals Warten und schlussendlich KEINE Referenz Karte mehr abgreifen können
und die Boardpartner überteuert auch womöglich im Jänner/ Februar 2021 noch ...
---- >>> Zugreifen solange es noch geht!

Iceman346
2020-12-03, 06:43:01
Bitte Themenbezug beibehalten

GerryB
2020-12-03, 07:24:10
und die Boardpartner überteuert auch womöglich im Jänner/ Februar 2021 noch...

Im nächsten Jahr sollte es irgendwann besser werden, wenn die Konsolen net mehr so stark
das Kontingent bei TSMC belasten.

Bei AMD wird man auch über die hohe Nachfrage in dem Preissegment der XT gestaunt haben.
(vgl. mit R7)

Das hatte wohl Keiner erwartet.(vor Allem, weil die Enthusiasten doch mehr auf RT@4k=3080/90 gesetzt haben sollten)
Anscheinend gibt es aber doch ne Menge high Fps Gamer@QHD RT=off.

btw.
Schade, das GameGPU noch keine N21 hat: Navi sieht aber gar net schlecht aus in IFR
Sollte dann auch gut mit RX6000 laufen.

Lanicya
2020-12-03, 10:05:35
Heute kommt Meine 6800 Ohne XT.

Nach langem Ringen (Auch zwecks dem hohen Preis) mit mir selbst zum Schluss gekommen:
Corona ---> Geld gespart und Besser als Warten Warten und nochmals Warten und schlussendlich KEINE Referenz Karte mehr abgreifen können
und die Boardpartner überteuert auch womöglich im Jänner/ Februar 2021 noch ...
---- >>> Zugreifen solange es noch geht!


Nein, genau das sollte man meiner Meinung nach nicht machen. Sich die überhöhten Preise schön reden und sich durch die News unter Druck setzen das man die Karten zu diesen Preisen kauft. Genau dann hat der Markt gewonnen das es Leute gibt die bereit sind solche Preise zu zahlen. Meine Meinung.





Gruß

Redneck
2020-12-03, 10:40:52
Und deine Info bezieht sich auf was (also objektiv, ohne grünen Filter)?
Wenn er vollständig informieren hätte wollen, hätte er auch mitgeteilt, das HP im selben Reddit Thread schon geschrieben haben, das sie diesbzgl. mit AMD bereits in Kontakt stehen.

Es gibt aktuell Probleme mit dem Treiber (betrifft aber nicht nur G2 sondern auch andere Headsets wie die Samsung WMR Teile).

locker bleiben.. das wird mit Sicherheit demnächst gefixt...

PS : im selben Thread schreibt übrigens ein User, das er von einer RX 3080 auf
AMD umgestiegen ist, weil es mit der NV Probleme mit SteamVR gab.

Zergra
2020-12-03, 10:43:03
Nein, genau das sollte man meiner Meinung nach nicht machen. Sich die überhöhten Preise schön reden und sich durch die News unter Druck setzen das man die Karten zu diesen Preisen kauft. Genau dann hat der Markt gewonnen das es Leute gibt die bereit sind solche Preise zu zahlen. Meine Meinung.


Gruß

Ich wollte auch eine 6800XT kaufen. Aber nachdem diese quasi nur zu unverschämten Preisen verfügbar war, und ich nicht bereit bin diesen Aufpreis zu zahlen. Habe ich mich für eine gebrauchte 2080Ti entschieden, die kostet mich am Ende mit Wasserkühler auch nur 200€ über 2 Jahre. Mit OC ist der Sprung von eine TitanX (Pascal) schon nicht ganz so schlecht.

Da ich für eine Wasserkühlung sehr wahrscheinlich das Ref. Design der 6800 XT brauche, war es mir das nicht Wert die Zeit zu warten und am Ende ggf. leer auszugehen.

sChRaNzA
2020-12-03, 10:49:12
Ich wollte auch eine 6800XT kaufen. Aber nachdem diese quasi nur zu unverschämten Preisen verfügbar war, und ich nicht bereit bin diesen Aufpreis zu zahlen. Habe ich mich für eine gebrauchte 2080Ti entschieden, die kostet mich am Ende mit Wasserkühler auch nur 200€ über 2 Jahre. Mit OC ist der Sprung von eine TitanX (Pascal) schon nicht ganz so schlecht.

Da ich für eine Wasserkühlung sehr wahrscheinlich das Ref. Design der 6800 XT brauche, war es mir das nicht Wert die Zeit zu warten und am Ende ggf. leer auszugehen.

Es muss sich ja auch niemand für seine Käufe rechtfertigen, jeder kann mit seinem Geld machen was er möchte. Aber schönreden bringt es halt auch nicht, so ehrlich sollte man da (auch zu sich) schon sein. Eine 6800XT ist auch „mein Objekt der Begierde“, aber Wucher-Preise werde ich dafür nicht bezahlen. Alleine schon um das Verhalten von z. B. Scalpern nicht zu unterstützen. Irgendwann wird eine Karte schon noch verfügbar sein, „Angst leer auszugehen“ hab ich nicht - auch wenn viele Leute es einem gerade zu einreden wollen. ;)

Lawmachine79
2020-12-03, 12:48:57
Und deine Info bezieht sich auf was (also objektiv, ohne grünen Filter)?
https://www.reddit.com/r/HPReverb/comments/k08j7b/buy_beware_6800xt/
Funktioniert halt nicht. Warum, weiß ich nicht, habe ja keine 6800XT ;).

gbm31
2020-12-03, 15:03:47
Hmm...

6800 via Treiber auf 2450MHz GPU, 1000mV, +10% PT und fast timings gestellt.

Suk4K läuft durch und ist auch schneller als default, HWInfo zeigt aber trotzdem weiter stur 1025mV...

Aber die Leistung ist auf 231W max. runtergegangen.

VaporVader
2020-12-03, 15:27:18
Ja das habe ich auch schon beobachtet und solange wir nicht einen richtigen Kurve-Editor haben, weiß man ja gar nicht genau welchen Wert man hier eigentlich anpasst.
Jemand meinte mal dass man damit nur den Minimal Wert festlegt bis zu welchem die Karte unter Last runter gehen "kann". Ob sie es wirklich tut steht auf einem anderen Blatt.

Ich denke eher man passt hier einen konkreten Wert in der Kurve an.
Die Werte vor und nach diesem Punkt richtigen sich dann dynamisch an diesem Wert aus.

Die Min Frequenz verschiebt scheinbar nur den Punkt an dem die Kurve anfängt.

Ich habe aktuell 925mV bei 2250MHz Max. Frequenz eingestellt.
Damit liegen unter Last trotzdem teilweise 936mV an.

Bei einer Min. Frequenz von 500Mhz ist die Idle-Spannung bei 768mV.
Erhöhe ich die Min. Frequenz auf 2150MHz ist die Idle-Spannung dann bei 850mV.

Die Maximal anliegende Spannung verändert sich aber nicht.

Keine Ahnung warum man nicht einfach den Kurven Editor freischaltet...

TwoBeers
2020-12-03, 15:59:19
Jup, der curve editor wäre praktisch, um die Takt-/Spannungsschritte besser zu verstehen.

aufkrawall
2020-12-03, 15:59:41
Windows ist auch nicht mein Betriebssystem der Wahl. :tongue:

Schon upp unter Linux für SPPT probiert?
https://github.com/sibradzic/upp

Hat schon jemand getestet, ob mit Afterburner (vermutlich egal, ob beta oder stable) immerhin der Curve-Editor (Strg + f) geht?
Da wird wohl auch nicht "mehr" gehen als in Wattman, aber wär trotzdem interessant.

-/\-CruNcher-/\-
2020-12-03, 17:53:14
Und deine Info bezieht sich auf was (also objektiv, ohne grünen Filter)?

Großes Problem es gibt heute weitaus mehr Windows differenzen bei Windows 10 durch die ganzen Beta test Programme das wenn einer nicht erwähnt das er z.b im Insider Programm ist das schon ein Problem darstellen kann bei der Fehlersuche.
Allerdings ist das schon echt eine Leistung die HMD interoperability mit der neuen Microsoft Mixed Reality Generation beim Start zu versemmeln, wenn diese ganzen reports mal konkret werden und reproduzierbar.
Zumal es ja durchaus geplannt sein kann das das G2 Reverb ja auch an der Xbox Series X zum Einsatz kommen könnte vor allem beim Microsoft Flight Simulator.
Vor allem da AMD momentan so verdammt nah an Microsoft ist und selbst ja jetzt ex Microsoftler direkt aus dem Core Treiber Dev Team bei AMD sitzen ist das im ersten Moment echt schockierend, so nachrichten darf es garnicht erst geben.
Auch in der Hinsicht das AMD bis in den Himmel und den höchsten rängen für ihre LiquidVR arbeit gelobt worden ja selbst den Lumiere Award für die Arbeit erhalten haben und dann solche interoperability Horror nachrichten.

Da kann man diese ganzen Probleme einfach nicht nachvolziehen Nvidia hat nicht diese engen connections und trotzdem versemmeln es die AMD RTG Treiber Devs scheinbar selbst mit noch nie engerem Microsoft support inhouse, was soll man da noch sagen.

/Locutus oB
2020-12-03, 18:48:58
meine quest läuft Butter weich mit einer 6800xt. und wenn ich mal ein bisschen Google findet man auch viele leute die vr probleme mit ihrer 3090 haben... ich versteh nicht warum man daraus so einen Aufriss machen muss... betrifft dich doch eh nicht...

-/\-CruNcher-/\-
2020-12-03, 19:00:02
Naja einfach einpluggen und BSOD das muss man erstmal hinbekommen, wie gesagt erstmal abwarten was da noch kommt wieso die G2 Reverb wie es bis jetzt ja aussieht nicht nur an RDNA1 sowie RDNA2 fehlschlägt auch an Polaris die Samsung Odessy + ja anscheinend genauso.
Kann mir gut vorstellen das wenn die hier mit Microsofts internem Video Compression interface arbeiten das der VCN hier seine beste Seite zeigt , not.

I tried with my RX470 when I got the G2 and got the BSOD when plugging in the DP cable. I received my 6800 XT a few days later thinking that will solve the issue and bam the exact same problem. I may have to switch to Nvidia soon if a solution is not found. Ideally I would like to try with any Nvidia card first to confirm it is exclusively AMD GPU cards with Radeon. It is looking that way.

gbm31
2020-12-03, 19:08:44
Ich bin grad 1h in Spa rumgekurvt mit meiner alten Rift und ACC.

-/\-CruNcher-/\-
2020-12-03, 19:16:41
Rift hat nicht diese Anforderungen das ist Kindergarten HMD

nonharderware
2020-12-03, 20:30:39
meine quest läuft Butter weich mit einer 6800xt. und wenn ich mal ein bisschen Google findet man auch viele leute die vr probleme mit ihrer 3090 haben... ich versteh nicht warum man daraus so einen Aufriss machen muss... betrifft dich doch eh nicht...

Kann ich nur bestätigen mit der Quest2 & 6800XT!

Lawmachine79
2020-12-03, 23:34:05
Naja einfach einpluggen und BSOD das muss man erstmal hinbekommen, wie gesagt erstmal abwarten was da noch kommt wieso die G2 Reverb wie es bis jetzt ja aussieht nicht nur an RDNA1 sowie RDNA2 fehlschlägt auch an Polaris die Samsung Odessy + ja anscheinend genauso.
Kann mir gut vorstellen das wenn die hier mit Microsofts internem Video Compression interface arbeiten das der VCN hier seine beste Seite zeigt , not.
Ach ist doch eh relevant, die Leute hier wollen in Ruhe FullHD zocken und mit avantgardistischen Zeug wie Featureset, Bildqualität/Framerate-Verhältnis und VR nicht belästigt werden. VR ist außerdem eh für Enthusiasten und AMD hat auf absehbare Zeit keine Enthusiastenkarte im Portfolio.

Übrigens gibt es auch USB-Probleme mit AMD Chipsätzen & Reverb G2. Bin froh, dass ich eine Thunderbolt 3-Karte im Rechner habe. Offensichtlich ist man bei AMD nicht in der Lage, einfachste Standards einzuhalten, damit "Drittanbieter"-Hardware funktioniert.

Langlay
2020-12-03, 23:42:37
Ach ist doch eh relevant, die Leute hier wollen in Ruhe FullHD zocken und mit avantgardistischen Zeug wie Featureset, Bildqualität/Framerate-Verhältnis und VR nicht belästigt werden. VR ist außerdem eh für Enthusiasten und AMD hat auf absehbare Zeit keine Enthusiastenkarte im Portfolio.

Da du das ja jetzt öft genug erwähnt hast, kannste dich doch jetzt wieder in die grünen Threads vertrollen und dort deine Leier ablassen. Damit würdeste allen einen Gefallen tun.

dargo
2020-12-03, 23:43:23
Offensichtlich ist man bei AMD nicht in der Lage, einfachste Standards einzuhalten, damit "Drittanbieter"-Hardware funktioniert.
Du bringst mich immer wieder zum lachen. ;D ;D ;D Wie lange war nochmal Nvidia nicht in der Lage A-Sync am Desktop zu unterstützen? Selbst heute noch ist es ein Flickwerk.

/Locutus oB
2020-12-04, 00:22:43
was müssen die grünen für ein armseliges leben haben. jeden thread mit ihren Weisheiten zu müllen. Das Niveau in diesem Forum sinkt immer weiter. Schade.

TwoBeers
2020-12-04, 00:26:52
Ich versuche es zu ignorieren.
Klassischer Fall von Trolling, bringt ihm anscheinend etwas, was wir nicht verstehen.
Könnte man auch löschen .. oder stehen lassen, damit andere davon lernen. :)

SKYNET
2020-12-04, 01:14:14
bringt ihm anscheinend etwas

den nächstne bann... mal wieder ;D

MikePayne
2020-12-04, 03:25:34
Ach ist doch eh relevant, die Leute hier wollen in Ruhe FullHD zocken und mit avantgardistischen Zeug wie Featureset, Bildqualität/Framerate-Verhältnis und VR nicht belästigt werden. VR ist außerdem eh für Enthusiasten und AMD hat auf absehbare Zeit keine Enthusiastenkarte im Portfolio.

Übrigens gibt es auch USB-Probleme mit AMD Chipsätzen & Reverb G2. Bin froh, dass ich eine Thunderbolt 3-Karte im Rechner habe. Offensichtlich ist man bei AMD nicht in der Lage, einfachste Standards einzuhalten, damit "Drittanbieter"-Hardware funktioniert.

Es ist soviel falsch in Deinem Posting. Und es ist so unnötig + überheblich.
Argumentativ braucht man Dir nicht zu kommen, Querdenker-Style: Fakten werden ignoriert. Hast wahrscheinlich einen intus und Bock bissl rumzutrollen, kp.

Und ja das selbst hier im 3dc kaum vertretene G2 geht nicht. Wird wahrscheinlich in einem der nächsten Treiber gefixed.
Als wären die 3080 und 3090 bugfrei auf die Welt gekommen... :rolleyes:

GerryB
2020-12-04, 08:29:33
Wer unbedingt ne 6800 möchte, für 719€:
https://www.alternate.de/XFX/Radeon-RX-6800-16GB-Grafikkarte/html/product/1694279?
(das ging fix = bereits verkauft nach ein paar Min.)

Hmm...
6800 via Treiber auf 2450MHz GPU, 1000mV, +10% PT und fast timings gestellt.
Suk4K läuft durch und ist auch schneller als default, HWInfo zeigt aber trotzdem weiter stur 1025mV...
Aber die Leistung ist auf 231W max. runtergegangen.
Wie bereits Gedi festgestellt hat, ist die einstellbare Voltage net die maxV.
(also normal)
Interessant wäre, ob sich unterhalb 1V tatsächlich die maxV und die Boosttable ändern.(991..993mV)
Oder ob, genau die 1,0V die Grenze sind.(Die weniger W bei Dir könnten Sowas bereits anzeigen.)
Memtakt mal vorsichthalber nur auf 2059 OCen.(wg. der Timings)
ansonsten kannste gut im Luxx die Ergebnisse vgl.:
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-9#post-27913065
So ca. 220W ASIC und 300A GFX mit 55A SOC scheint rund zu laufen mit der nonXT.(im MPT eingestellt)

btw.
Bzgl. SAM@Z490: die min Fps gewinnen deutlich hinzu
https://videocardz.com/newz/amd-radeon-rx-6800xt-sees-performance-boost-on-intel-z490-with-resizable-bar-enabled?fbclid=IwAR1ELjN7E-i_DNlAK8OCU29DxL-VymYn_kk2P2ZxZ3sIrdGuwi2mPZvEYF4

und mal noch ein Review der Aorus RX6800xt (Ergebnis siehe Anhang)

und mal eine minimal XL-OCed vs XT-Stock: in 1440p ist die XL eigentlich ausreichend (XL-Chip=durchschnittl.Güte)
As far as the overclock went we use Radeon Settings to add +15% to the power limit, set the memory to 2100MHz resulting in 16.8Gps memory, and moved the core frequency to a minimum of 2350MHz and the maximum to 2450MHz (anything over that become quite unstable, and we enable Smart Access Memory.
https://wccftech.com/radeon-rx-6800-overclocked-and-tuned-can-it-catch-the-rx-6800-xt/
= intelligenter Reviewer mit Advanced PhysX=off in ME --> vernünftiges Ergebnis, da kein Bottleneck durch PhysX wie
bei 99% der anderen "tollen"(dunkelgrünen) Reviewer!

dargo
2020-12-04, 10:12:44
Sorry... aber diese RDR2 Messung mit den min.fps kann nur bullshit sein. Welcher Amateur hat da wieder gemessen?

GerryB
2020-12-04, 10:21:29
Welcher
https://ascii.jp/elem/000/004/036/4036051/

btw.
Nach Asus folgt demnächst MSi bei den Intel-Boards mit dem SAM-Refresh:

bnoob
2020-12-04, 10:35:45
Funktioniert bei jemandem UV mit 6800 und 20.11.3?

Ich bekomme ums Verrecken nichts anderes hin als 1.025 V. Die Frequenz freischalten ist kein Problem, die macht wie angewiesen 2450 MHz wenn sie muss/kann

GerryB
2020-12-04, 10:53:55
Eigentlich sollte man im MPT die Spannung reduzieren können.

Mal als Bsp. statt 1025mV halt nur 998...1000mV einstellen (und im Treiber dann auf 987mV wie in dem Bsp. aus dem Luxx).

Nur zu der SOC-Spannung von 1050mV gibts momentan noch keine Experimente.
(ob man Daran etwas ändern kann/sollte)

Auf jeden Fall würde ich die Werte für die TDC auf 300A+55A anheben, weil bei weniger V halt mehr A fliessen können
bei gleicher Leistungsaufnahme W.(der Kollege hatte seine TGP von 203W auf 220W angehoben)

gbm31
2020-12-04, 10:56:21
Funktioniert bei jemandem UV mit 6800 und 20.11.3?

Ich bekomme ums Verrecken nichts anderes hin als 1.025 V. Die Frequenz freischalten ist kein Problem, die macht wie angewiesen 2450 MHz wenn sie muss/kann


Same here - recherchiere gerade.

Meine läuft mit 2450MHz Target sowohl mit 1000mV als auch mit 990mV, und es werden immer 1025mV angezeigt.

Das PPT geht beide Male bis 250W wenn entsprechende Last anliegt (Pure Raytraycing >HD z.B.)

bnoob
2020-12-04, 11:02:33
Eigentlich sollte man im MPT die Spannung reduzieren können.

Mal als Bsp. statt 1025mV halt nur 998...1000mV einstellen (und im Treiber dann auf 987mV wie in dem Bsp. aus dem Luxx).

Nur zu der SOC-Spannung von 1050mV gibts momentan noch keine Experimente.
(ob man Daran etwas ändern kann/sollte)

Auf jeden Fall würde ich die Werte für die TDC auf 300A+55A anheben, weil bei weniger V halt mehr A fliessen können
bei gleicher Leistungsaufnahme W.(der Kollege hatte seine TGP von 203W auf 220W angehoben)
Puuuh, ums MPT hatte ich mich bisher erfolgreich gedrückt :D

Aber dann mal ausprobieren, danke für die Hinweise!

dargo
2020-12-04, 11:06:25
Messt ihr überhaupt den Stromverbrauch bei euren Spannungsspielereien? Wenn die Tools aktuell Blödsinn anzeigen dann werdet ihr nie mit Rätselraten fertig.

bnoob
2020-12-04, 11:14:48
Hab hier so ein Lidl-Schätzeisen an der PC-Steckdose, mehr nicht

Ansonsten sieht man es auch gut genug am Temperaturverlauf/Taktverhalten, zumindest für den Hausgebrauch, will hier ja keine Rekorde aufstellen

GerryB
2020-12-04, 11:28:28
Messt ihr überhaupt den Stromverbrauch bei euren Spannungsspielereien? Wenn die Tools aktuell Blödsinn anzeigen..
Die Tools zeigen keinen Blödsinn an, die Spannungen sind im Boost@Teillast tatsächlich höher als im Treiber eingestellt.(weil das wahrscheinlich nur ein Lastpunkt@Volllast XYZ ist)

Die UVer wollen auch net immer primär W einsparen, sondern eher in der Nähe von 987..1000mV das PL+15 voll ausreizen.
Ist ja kein Zufall, das die Scores mit leichtem Uven am Höchsten sind.
(und angepasster TDC)
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-11

Redneck
2020-12-04, 13:15:46
Da du das ja jetzt öft genug erwähnt hast, kannste dich doch jetzt wieder in die grünen Threads vertrollen und dort deine Leier ablassen. Damit würdeste allen einen Gefallen tun.
Versucht da ne Welle zu machen... Wird wahrscheinlich gefixt sein noch bevor nennenswerte Mengen bei den Kunden gelandet sind.
Ist wahrscheinlich der Frust , das seine 3090 demnächst nicht mehr die schnellste Karte in 4K sein wird und NV sich nur noch mit RT und DLSS retten kann.

sChRaNzA
2020-12-04, 14:56:04
Versucht da ne Welle zu machen... Wird wahrscheinlich gefixt sein noch bevor nennenswerte Mengen bei den Kunden gelandet sind.
Ist wahrscheinlich der Frust , das seine 3090 demnächst nicht mehr die schnellste Karte in 4K sein wird und NV sich nur noch mit RT und DLSS retten kann.

Nein, nein. Er hat schon Recht. Das wird Millionen von Reverb-Besitzern jetzt davon abhalten. Das schon ok, dann werden die Karten vielleicht bald verfügbar sein.

Aber im Ernst. Nicht der Rede wert. Ärgerlich für die, die es betrifft, aber auch sicher kein Problem in alle Ewigkeiten.

r3ptil3
2020-12-04, 18:07:04
Folgende Glaubensfrage an alle:

Sapphire Nitro SE+ RX 6800 XT
oder
MSI Suprim X RTX 3080


Für welche würdet ihr euch entscheiden?

woodsdog
2020-12-04, 18:15:26
Folgende Glaubensfrage an alle:

Sapphire Nitro SE+ RX 6800 XT
oder
MSI Suprim X RTX 3080


Für welche würdet ihr euch entscheiden?

Da du nicht im GSync Universum gefangen bist und mMn RT zu Lebzeiten der Karte nur eine Randerscheinung bleibt (trotz Fanboy Bullshit hier) würde ich die Radeon behalten.

dargo
2020-12-04, 18:23:48
Folgende Glaubensfrage an alle:

Sapphire Nitro SE+ RX 6800 XT
oder
MSI Suprim X RTX 3080


Für welche würdet ihr euch entscheiden?
Brauchst du dafür von mir wirklich eine Antwort? Nein... ich denke nicht. ;)

btw.
Normalsterbliche kommen schon an die Nitro+ 6800XT? not bad

Megamember
2020-12-04, 18:25:36
Würde die 3080 nehmen, bessere RTX/Leistung und DLSS sind denk ich schon starke Vorteile die jetzt auch gerade bei Cyberpunk wohl deutlichen Nutzen bringen. Der kleinere Ram ist aktuell kein wirklicher Nachteil.

r3ptil3
2020-12-04, 18:25:49
Brauchst du dafür von mir wirklich eine Antwort? Nein... ich denke nicht. ;)

btw.
Normalsterbliche kommen schon an die Nitro+ 6800XT? not bad

Eine sachliche, neutrale Antwort? Immer.

Aktuell nicht, aber in etwa einer Woche. (Sapphire)


Man muss einfach bedenken, bei der Suprim 3080, rechne ich mit 2050-2100 dauerhaft anliegenden Takt, hingegen taktet die Sapphire bestimmt auch mit 2600Mhz+.
Bei der 3080 wie oben von Megamember erwähnt RT/DLSS, bei der Radeon 16Gb und vermutlich mit der Treiberreife, langsam aber stetig besser werdende Performance.

SKYNET
2020-12-04, 18:40:30
Eine sachliche, neutrale Antwort? Immer.

Aktuell nicht, aber in etwa einer Woche. (Sapphire)


Man muss einfach bedenken, bei der Suprim 3080, rechne ich mit 2050-2100 dauerhaft anliegenden Takt, hingegen taktet die Sapphire bestimmt auch mit 2600Mhz+.
Bei der 3080 wie oben von Megamember erwähnt RT/DLSS, bei der Radeon 16Gb und vermutlich mit der Treiberreife, langsam aber stetig besser werdende Performance.

DLSS ist aber zum tode verurteilt, da kein spielhersteller mehr das unterstützen wird sobald MS version final ist... 1:0 für AMD wenn NV das dann nicht via treiber nachreichen kann...

gbm31
2020-12-04, 18:44:18
Messt ihr überhaupt den Stromverbrauch bei euren Spannungsspielereien? Wenn die Tools aktuell Blödsinn anzeigen dann werdet ihr nie mit Rätselraten fertig.

990mV oder 1025mV - endet beides in 245W beim Pure Raytracing 1440p,

Megamember
2020-12-04, 18:44:38
.... bei der Radeon 16Gb und vermutlich mit der Treiberreife, langsam aber stetig besser werdende Performance.

Woher kommt eigendlich die Legende das nur AMDs per Treiber reifen können?

aufkrawall
2020-12-04, 19:01:03
Turing ist bislang jedenfalls eher schrumpelig geworden, zumindest vs. Navi.

VaporVader
2020-12-04, 19:01:08
990mV oder 1025mV - endet beides in 245W beim Pure Raytracing 1440p,
Ja hab ich auch schon festgestellt.
Von daher ist die Spannungsangabe, welche gerade anliegt, im Wattman und anderen Tools auch korrekt erst einmal.
Ohne die Kurve bearbeiten zu können, werden wir da auch wenig machen können. Meine Vermutung ist aktuell, dass die eingestellte Spannung für die 100% Frequenz ist.
Aber das nur eine Vermutung.
Ich bleib auch erstmal bei 2250MHz@930mV. Das entspricht real anliegenden 930 bis 940mV je nach Temperatur.

-/\-CruNcher-/\-
2020-12-04, 19:09:29
Yeah man ist mit TC fast auf die Schnauze gefallen jetzt aktiviert es jeder freiwilig und es wird wieder als feature verkauft so macht man das, hut ab vor allen schlauen köpfen da oben die es immer wieder schaffen die masse zu verdummen und weiter die schraube anziehen, da geht noch was. :D

Langlay
2020-12-04, 19:10:28
Da du nicht im GSync Universum gefangen bist und mMn RT zu Lebzeiten der Karte nur eine Randerscheinung bleibt (trotz Fanboy Bullshit hier) würde ich die Radeon behalten.

+1

Ich hoffe ich wechsel auch bald von wassergekühlter 3090 auf wassergekühlte 6900XT.

r3ptil3
2020-12-04, 19:22:13
+1

Ich hoffe ich wechsel auch bald von wassergekühlter 3090 auf wassergekühlte 6900XT.

Wieso wechselt man von einer 3090 auf eine 6800 XT?

Langlay
2020-12-04, 19:29:29
Wieso wechselt man von einer 3090 auf eine 6900 XT?

Ich hab das mal gefixed.

Ich will auf ne 6900XT wechseln. Falls du immernoch wissen willst wieso. Mein (Freesync) Monitor funzt besser mit AMD. Mich nervt der Nvidiatreiber und das ich drölf externe Tools brauche um Sachen zu machen die ich bei AMD einfach im Treiber machen kann. Und hinzu kommt die 3090 befriedigt meinen Spieldrang nur unzureichend.

Ich wollte nach 10 Jahren mal wieder ne Nvidia Graka im eigenen Rechner. Die 8 Wochen 3090 sollten mich jetzt wieder für 10 Jahre geheilt haben.

dargo
2020-12-04, 19:44:59
990mV oder 1025mV - endet beides in 245W beim Pure Raytracing 1440p,
Ich glaube ich hatte da einen kleinen Denkfehler. Wenn du der Karte weniger Spannung gibst taktet sie höher. Also kann es wieder passieren, dass du bei ähnlicher Power rauskommst. Am besten wäre die Spannung direkt an der Karte zu messen.

btw.
Die 1025mV bei einer RX 6800 im Defaultzustand sind sowieso Quatsch.
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/14/

Das wird höchstwahrscheinlich die max. Spannung in der Spannungskurve sein. Siehst du diese 1025mV eigentlich in jedem Workload in Games?

nairune
2020-12-04, 20:02:43
Per Steckdose würde ich nur messen, ob das stimmt, was "ASIC Power" sagt. Also ob das mit dem Powerlimit übereinstimmt und welche Änderung von letzterem an der Steckdose ankommen.
Ab da braucht man nur noch auf ASIC power und Takt achten, wenn man der Spannungsanzeige nicht vertraut.

gbm31
2020-12-04, 21:27:40
Das wird höchstwahrscheinlich die max. Spannung in der Spannungskurve sein. Siehst du diese 1025mV eigentlich in jedem Workload in Games?

Wird halt immer angezeigt sobald die Karte was machen muss.

Bei der VII ist si halt immer von der Mindestspannung (0.7irgendwas) auf das von mir gestellte Maximum hoch, bei der 6800 ist es völlig egal ob ich 990 oder 1025 oder irgendwas dazwischen einstelle.

Und der Raytracing Bench läuft immer mit ziemlich konstanten 2360-2400MHz durch, genauso wie Superposition in 4Koptimized oder 1080extreme.



Muss mal genau testen ob sich die Spannung irgendwie auf die Ergebnisse auswirkt, die Muße hatte ich noch nicht.

horn 12
2020-12-04, 21:34:44
wie hoch drehen die Lüfter
und was Stellst bitte in Wattman alles um, sprich ein?

dargo
2020-12-04, 21:35:42
@gbm31

Man könnte das ganz einfach rausfinden wenn AMD beim Powerlimit nach unten nicht den Quatsch mit max. -6% genehmigen würde. :tongue: Bei bsw. -30% würde die dann mit wesentlich weniger Takt und somit auch Spannung laufen. Dann halt die Tools beobachten. Aber so kommen wir irgendwie nicht weiter. :freak: Mit irgeneinem Powervirus kriegst du den Takt auch nicht runter Richtung ~2Ghz?

Edit:
Ähm.... moment mal. Provoziere Ingame ein so starkes CPU-Limit damit die Karte den Takt senkt, kannst auch nen Framelimiter zu Hilfe nehmen. Dann die Spannung beobachten. Wenn da bei bsw. 1,8Ghz immer noch 1025mV angezeigt werden zeigen die Tools Blödsinn an.

r3ptil3
2020-12-04, 21:38:29
@Dargo
Ich bin weiterhin gespannt auf eine Antwort von dir, zu meiner obigen Frage.

dargo
2020-12-04, 21:50:24
@Dargo
Ich bin weiterhin gespannt auf eine Antwort von dir, zu meiner obigen Frage.
Meine Antwort wird dir nicht gefallen. Eine Nvidia Karte werde ich nicht kaufen und auch niemandem mit gutem Gewissen empfehlen. Ich identifiziere mich nicht mit der Geschäftspolitik von Nvidia. Immer wieder proprietäre scheiße rausbringen inkl. Blackboxes. Den CEO finde ich auch völlig unsympatisch. Ich mag solche Menschen nicht. Ich weiß... da hängen in so einer Firma jede Menge andere Jobs dran und sicherlich auch viele schlaue Köpfe. Aber die Lederjacke repräsentiert nun mal dieses Unternehmen.

r3ptil3
2020-12-04, 22:03:06
Meine Antwort wird dir nicht gefallen. Eine Nvidia Karte werde ich nicht kaufen und auch niemandem mit gutem Gewissen empfehlen. Ich identifiziere mich nicht mit der Geschäftspolitik von Nvidia. Immer wieder proprietäre scheiße rausbringen inkl. Blackboxes. Den CEO finde ich auch völlig unsympatisch. Ich mag solche Menschen nicht. Ich weiß... da hängen in so einer Firma jede Menge andere Jobs dran und sicherlich auch viele schlaue Köpfe. Aber die Lederjacke repräsentiert nun mal dieses Unternehmen.

Und abseits der Politik, rein nur die Karten an sich?

gbm31
2020-12-04, 22:09:51
Also hier mal Timespy mit 1025-985mV:

dargo
2020-12-04, 22:11:42
@bardh

Ich sehe das ähnlich wie woodsdog. RT wird in der Lebenszeit der Karten noch keine so große Rolle spielen. Jedenfalls nicht für mich, ich verfolge aber auch eher high(er)-fps. Nicht mit den fps aus E-Sport verwechseln. Auch finde ich 10GB zu knapp bemessen. Meine Karten bleiben in der Regel 2-3 Jahre verbaut. Wenn ich in dieser Zeit @1440p in meinen Games 70+fps bekomme bin ich vollkommen zufrieden. Aber was bringen dir diese Fragen? Letztendlich musst du selbst nach deinen persönlichen Kriterien entscheiden.

@gbm31
Was sollen wir mit dem Vergleich genau anfangen? :) So auf die schnelle sehe ich nur, dass der Grafikscore sich dermaßen mickrig unterscheidet, dass es sich schon unter Messschwankung einordnen lässt.

r3ptil3
2020-12-04, 22:16:07
Also hier mal Timespy mit 1025-985mV:

Als Vergleich die Referenz 6800

5900x (PBO)
RX 6800 Referenz (2350Min./2450Max.) 925Mv
https://i.ibb.co/jVL2XV6/3d.jpg
https://www.3dmark.com/3dm/54223272?


@Dargo
Wenn du dir ein paar Posts von mir anschaust bzgl. Hardware (Monitore, GPUs, Mainboards), so kannst du feststellen, dass du diverse Infos nie in einem normalen Review lesen wirst.

Das gleiche erhoffe ich mir in etwa auch durch die Fragen hier.
Unverfälscht, unabhängig und meistens neutral.

VaporVader
2020-12-04, 22:25:52
Also hier mal Timespy mit 1025-985mV:
Und ich gehe davon aus, dass immer laut Wattman etc. die selbe Spannung angelegt wird?
Das würde ja das Ergebnis erklären.

Robot
2020-12-04, 22:26:45
Ich spiel gerade ein wenig mit meiner 6800. hat eigentlich mal irgendjemand einen Image Quality vergleich zwischen AMD 6800 Upscaling und Nvidia 3070/3080 DLSS gesehen.

Jetzt mal ganz im ernst ich sehe da absolute keinen Unterschied, wenn überhaupt sieht AMD 1800p upscaling auf 4K besser aus als 4K DLSS bei ähnlicher Performance. Das Ganze DLSS ist doch auch wieder nur ne Marktingnummer irgendwie.

gbm31
2020-12-04, 22:28:03
Was sollen wir mit dem Vergleich genau anfangen? :) So auf die schnelle sehe ich nur, dass der Grafikscore sich dermaßen mickrig unterscheidet, dass es sich schon unter Messschwankung einordnen lässt.

Eben. kein Einfluss der Spannung auf die Ergebnisse.

Also taktet die Karte mit weniger Spannung nicht anders als mit viel. So von wegen Powerlimit ausschöpfen und so...


Mit Chill begrenzt springt die Spannung trotz ~2000Mhz munter zwischen 0.768, 0.793, 0.800, 0.818, 0.893, 0.937, 0.962, 1.000, 1.025V herum. meist direkt von min auf max.

Also scheint das grundsätzliche Auslesen zu funktionieren.

dargo
2020-12-04, 22:49:56
Hast du es mal mit weniger Spannung probiert? Weil mit den 985mV bist du eigentlich immer noch über dem Defaultwert den Igor gemessen hat. Seine Karte lag ja bei um die 950mV @Default.
https://www.igorslab.de/wp-content/uploads/2020/11/07-Voltages-1.png

Probiere mal 930mV. Per Ferndiagnose ist es echt schwierig. Ich müsste die Karte selbst haben um näher ins Detail gehen zu können.

Eben. kein Einfluss der Spannung auf die Ergebnisse.

Das könnte ich mir wiederum dadurch erklären, dass die Karte sowohl mit 985mV als auch 1025mV in den Taktlimit rennt. Du erhöhst ja sogar das Powerlimit mit +10% auf bis zu 223W TGP. Mit erhöhten PT steigt ja die Chance öfter im Taktlimit zu landen wenn du nicht gleichzeitig den max. Takt erhöhst.

nonharderware
2020-12-04, 23:02:27
Kann mir jemand bzgl. Dauerbetrieb UV/OC weiterhelfen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603651

Danke :up:

dargo
2020-12-04, 23:07:35
@AloisLeiwand

Du fummelst ja auch an der min. Frequenz rum. :freak: Warum?

nonharderware
2020-12-04, 23:12:46
@AloisLeiwand

Du fummelst ja auch an der min. Frequenz rum. :freak: Warum?


Ich weiß es nicht. Es hat mir niemand gezeigt...

Was wäre dein Rat?

dargo
2020-12-04, 23:26:13
Kennst du die Spannungskurve von Navi10? Sagen dir P-States was? Falls nicht wird eine Erklärung etwas aufwendig. Verstehe mich bitte nicht falsch, aber ich habe wenig Lust ganz von vorne anzufangen. ;( Gewisse Basis-Kenntnisse sollten schon vorhanden sein.

Edit:
Ich habe mal grob im Verhältnis versucht mit meinem N10 nachzustellen was du mit der Frequenz bei deinem N21 eingestellt hast (Default vs. Custom).
https://abload.de/thumb/n10_176kk9.jpg (https://abload.de/image.php?img=n10_176kk9.jpg) https://abload.de/thumb/n10_20bjsy.jpg (https://abload.de/image.php?img=n10_20bjsy.jpg)

Das sowas nicht zielführend ist dürfte einleuchten hoffe ich. Mit deinem Setting erreichst du hauptsächlich nur, dass die Karte bei Teillast wie ein Loch säuft. Die min. Frequenz (höchstwahrscheinlich P1) sollte man gar nicht anfassen. Natürlich unter der Voraussetzung N21 verhält sich bei der Spannungskurve identisch zu N10. So ganz klar ist da ja afaik noch nicht. Alles nur Vermutungen dank fehlenden visuellen Darstellung.

horn 12
2020-12-04, 23:37:23
@gbm31

Wie hoch kommst Du beim Takt, und wie niedrig mit der Spannung!

Achtung:
Hatte gerade 106 Grad T-Junction und lasse das OC Bleiben, 2,400 Ghz mit 950mV hatte ich da eingestellt.

Der Kühler ist durch die geringeren Kühlrippen Abgabe (2 zu 2.5 Slot)im Gegenzug zur XT bereits am Ende!

PS:
Eine 6800 mit dem 2,5 Slot Kühler und den 60 CU wäre wohl eine Monster Takt GPU/
oder zumindest Unhörbar geworden!

-=Popeye=-
2020-12-04, 23:54:22
Wenn man jahrelang bei der Konkurrenz war kann man sicherlich kein OC-Basiswissen von AMD-Karten und deren Treiber haben... also seid nachsichtig.

Für mich wird es demnächst auch Neuland, obwohl man schon das eine oder andere zu dem Thema gelesen hat.

/Locutus oB
2020-12-05, 00:04:56
also hwinfo zeigt meiner Meinung nach richtig an. wenn ich auf 60 fps begrenze bleibt meine xt immer unter 0,945v.

nonharderware
2020-12-05, 00:16:28
"Dumm ist der, der Dummes tut" - ich erachte Fragen zu stellen weder für dumm noch peinlich.

Wenn man jahrelang bei der Konkurrenz war kann man sicherlich kein OC-Basiswissen von AMD-Karten und deren Treiber haben... also seid nachsichtig.

Für mich wird es demnächst auch Neuland, obwohl man schon das eine oder andere zu dem Thema gelesen hat.

Genau so ist es.
Ich habe ja auch bzgl. Ryzen einiges lernen müssen :smile:

GerryB
2020-12-05, 00:38:48
Eben. kein Einfluss der Spannung auf die Ergebnisse.

Also taktet die Karte mit weniger Spannung nicht anders als mit viel. So von wegen Powerlimit ausschöpfen und so...

Hast Du mal spassenshalber diesselben Settings im MPT probiert wie die Luxxer?
m4looney hatte ja erhöht auf 220W@PL15%+300A+55A, falls 985mV noch zu nah am Powerlimit,
und den max.Spannungswert im MPT von 1025mV auf 1000mV geändert.

Ansonsten halt tatsächlich mal <<950mV testen.(2370..2450@925..931mV ala Bardh wäre ja net schlecht für >WQHD)
Und zug. im MPT den maxV =950mV?

Bis 300A müsste man ja ungefähr zu schon getesten 881...906mV runter können.(die 900mV von Igor sind schon tief genug)
Und zug. im MPT maxV=925mV.
Wieso lt. Igor bei so niedrigen Spannungen dann Probleme bei Frametimes auftreten ist net ganz klar.(Gameabhängig?)
Der Takt im Treiberpaneel liegt natürlich tiefer als 2200..2300 ???, müsste aber auch besser in 4k bei Vollast gehalten werden,
wenn das Verhältnis W zu V x A passt.

Benchmarks <4k sind halt nur ne Teillast weil net alle Shader mitmachen. Dann laufen weniger Shader mit höherer Spannung+Takt und brauchen weniger Ampere. Entspr. ist ein Setting mit 985mV für WQHD sinnvoller, um den stabilen Takt höher zu bekommen.

Im Endeffekt braucht man eigentlich ein Setting für 4k@moderater Takt und ein Anderes für 1440p@high Takt.
(wenn man Es denn ganz genau ausklamüsern will)

-/\-CruNcher-/\-
2020-12-05, 03:19:33
Die metriken werden sich jetzt kontinuierlich ändern so schnell wird kein reviewer hinterherkommen

https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-11-3

[Fixed some intermittent crashes found in Call of Duty®: Black Ops Cold War with DirectX® Raytracing enabled.]

Es ist interessant ob das in Zusammenhang mit den Konsolen Crashes steht

Ich spiel gerade ein wenig mit meiner 6800. hat eigentlich mal irgendjemand einen Image Quality vergleich zwischen AMD 6800 Upscaling und Nvidia 3070/3080 DLSS gesehen.

Jetzt mal ganz im ernst ich sehe da absolute keinen Unterschied, wenn überhaupt sieht AMD 1800p upscaling auf 4K besser aus als 4K DLSS bei ähnlicher Performance. Das Ganze DLSS ist doch auch wieder nur ne Marktingnummer irgendwie.

Wenn etwas wie DLSS part des Chipdesigns und der Targets rundherum wird dann ist das weitaus mehr als nur das übliche Jensen Marketing.

DLSS wird zu einem Kostenfaktor in der Entwicklung über kurz oder lang könnte es komplett den jetzigen scaler ersetzen und jemand der den Vorteil für seine Kunden jetzt nicht nutzt hat einen Nachteil auf Nvidia Hardware auch gegen seine competition, es sei den er hat die Möglichkeiten selbst etwas vergleichbares dagegenzusetzen was ihn von seinen Mittbewerbern auf Nvidia Hardware differenziert.

-/\-CruNcher-/\-
2020-12-05, 05:43:42
Nicht vergessen alle eure Ergebnisse zu posten :)

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686

dargo
2020-12-05, 08:19:06
Mit Chill begrenzt springt die Spannung trotz ~2000Mhz munter zwischen 0.768, 0.793, 0.800, 0.818, 0.893, 0.937, 0.962, 1.000, 1.025V herum. meist direkt von min auf max.

Also scheint das grundsätzliche Auslesen zu funktionieren.
also hwinfo zeigt meiner Meinung nach richtig an. wenn ich auf 60 fps begrenze bleibt meine xt immer unter 0,945v.
Ok... dann hake ich es nun dabei ab... Tools zeigen die richtige Spannung an. Sicherlich wieder viel zu träge, aber immerhin.

@AloisLeiwand
Lese dich mal hier bitte für die Basics ein. :)
https://www.igorslab.de/red-bios-editor-bios-eintraege-anpassen-optimieren-und-noch-stabiler-uebertakten-navi-unlimited/
https://www.igorslab.de/extrem-tricky-wir-erweitern-amds-curve-editor-mit-dem-neuen-morepowertool/

AHRmSZLVp4g

nonharderware
2020-12-05, 11:40:20
Kennst du die Spannungskurve von Navi10? Sagen dir P-States was? Falls nicht wird eine Erklärung etwas aufwendig. Verstehe mich bitte nicht falsch, aber ich habe wenig Lust ganz von vorne anzufangen. ;( Gewisse Basis-Kenntnisse sollten schon vorhanden sein.

Edit:
Ich habe mal grob im Verhältnis versucht mit meinem N10 nachzustellen was du mit der Frequenz bei deinem N21 eingestellt hast (Default vs. Custom).
https://abload.de/thumb/n10_176kk9.jpg (https://abload.de/image.php?img=n10_176kk9.jpg) https://abload.de/thumb/n10_20bjsy.jpg (https://abload.de/image.php?img=n10_20bjsy.jpg)

Das sowas nicht zielführend ist dürfte einleuchten hoffe ich. Mit deinem Setting erreichst du hauptsächlich nur, dass die Karte bei Teillast wie ein Loch säuft. Die min. Frequenz (höchstwahrscheinlich P1) sollte man gar nicht anfassen. Natürlich unter der Voraussetzung N21 verhält sich bei der Spannungskurve identisch zu N10. So ganz klar ist da ja afaik noch nicht. Alles nur Vermutungen dank fehlenden visuellen Darstellung.

Ok... dann hake ich es nun dabei ab... Tools zeigen die richtige Spannung an. Sicherlich wieder viel zu träge, aber immerhin.

@AloisLeiwand
Lese dich mal hier bitte für die Basics ein. :)
https://www.igorslab.de/red-bios-editor-bios-eintraege-anpassen-optimieren-und-noch-stabiler-uebertakten-navi-unlimited/
https://www.igorslab.de/extrem-tricky-wir-erweitern-amds-curve-editor-mit-dem-neuen-morepowertool/

https://youtu.be/AHRmSZLVp4g


Habe mal heute bis 3:30h ein wenig mehr unter Berücksichtigung deiner und der anderen Ratschläge herumgespielt.

https://www.3dmark.com/3dm/54260660? - Time Spy Grafik-Punkte: 18 853
https://www.3dmark.com/3dm/54260660? - DirectX Raytracing feature test:: Average frame rate 29.51 fps

UserBenchmark https://www.userbenchmark.com/UserRun/36386726

Daten:

Min 500 MHz / ausgegraut
Max 2625 MHz
VRAM 2130 MHz (geht zwar bis 2150, die Ergebnisse werden aber schlechter)
1037 mV
PL +15%

Leonidas
2020-12-05, 13:01:35
https://www.3dmark.com/3dm/54260660? - Time Spy Grafik-Punkte: 18 853
https://www.3dmark.com/3dm/54260660? - DirectX Raytracing feature test:: Average frame rate 29.51 fps



Default-Werte?

SweClockers machen 17536 im TS/GPU
https://www.sweclockers.com/test/30790-amd-radeon-rx-6800-och-rx-6800-xt/6

nonharderware
2020-12-05, 13:28:29
Default-Werte?

SweClockers machen 17536 im TS/GPU
https://www.sweclockers.com/test/30790-amd-radeon-rx-6800-och-rx-6800-xt/6

https://www.3dmark.com/3dm/53795509?

Grafik-Punkte 17 538 @ default

GerryB
2020-12-05, 13:35:30
Min 500 MHz / ausgegraut
Max 2625 MHz
VRAM 2130 MHz (geht zwar bis 2150, die Ergebnisse werden aber schlechter)
1037 mV
PL +15%
Net schlecht für ne XT-Ref.!

3dM zeigt an durchschnittl. Speichertakt 2118 für Dein Setting 2130.
Das würde ungefähr zu der Grenze von 2124 für die Timings passen.(standard Timings im Treiber)

Evtl. könnte man mit exakt 2124 noch FAST im Treiber nutzen.

btw.
Für die nonXT@WQHD braucht man anscheinend doch net an der TDC rumzuspielen.(hat dadurch weniger A beim SOC=sparsamer,
sprich Es bleibt mehr PL für GFX)
Und durch die 985mV geht anscheinend die Spannung net mehr über 1018mV.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-11#post-27917923
Im Anhang-TS von EagleOne@SAM=off: PL=222W gesetzt im MPT

[MK2]Mythos
2020-12-05, 13:45:31
Hat noch jemand den Bykski Waterblock bei Aliexpress bestellt? Meine vor Wochen getätigte Bestellung bzw dessen Shipping wurde irgendwann diese Woche still und heimlich auf "cancelled" geändert, obwohl der Block angeblich längst unterwegs gewesen sein soll. Hab dann gestern einen Refund beantragt und heute erhalten. Sehr kurios, das ganze.
Also wie immer bei EKWB bestellen...

SKYNET
2020-12-05, 14:07:52
Mythos;12523901']Hat noch jemand den Bykski Waterblock bei Aliexpress bestellt? Meine vor Wochen getätigte Bestellung bzw dessen Shipping wurde irgendwann diese Woche still und heimlich auf "cancelled" geändert, obwohl der Block angeblich längst unterwegs gewesen sein soll. Hab dann gestern einen Refund beantragt und heute erhalten. Sehr kurios, das ganze.
Also wie immer bei EKWB bestellen...


kann sein dass das ding verloren gegangen ist, wenn beim tracking nix weitergeht isses irgendwo lost in space... da machen die recht unkompliziert und zahlen zurück.

nonharderware
2020-12-05, 15:08:10
Net schlecht für ne XT-Ref.!

3dM zeigt an durchschnittl. Speichertakt 2118 für Dein Setting 2130.
Das würde ungefähr zu der Grenze von 2124 für die Timings passen.(standard Timings im Treiber)

Evtl. könnte man mit exakt 2124 noch FAST im Treiber nutzen.

btw.
Für die nonXT@WQHD braucht man anscheinend doch net an der TDC rumzuspielen.(hat dadurch weniger A beim SOC=sparsamer,
sprich Es bleibt mehr PL für GFX)
Und durch die 985mV geht anscheinend die Spannung net mehr über 1018mV.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-11#post-27917923
Im Anhang-TS von EagleOne@SAM=off: PL=222W gesetzt im MPT

Dankefür diesen Hinweis!
:love3:
:ulove3:
:love4:

https://www.3dmark.com/3dm/54273873? - Damit habe ich die 19.000 jetzt geknackt!!! ;D

Grafik-Punkte 19 025

GerryB
2020-12-05, 15:31:12
Eine Sache ist mir bei den nonXT aufgefallen:
analog Navi benutzen die Leutchen im Luxx einen Vorhaltewert von 2mV, d.h. statt 987mV wird 985mV genutzt.

Dito kann Es sein das für die XT auch ein Unterschied zw. 1035mV und 1037mV auftritt.
Da bereits 1031mV mal rel. gut lief sollte 1035mV fast mit dem Takt funzen.
ggf. mal von 2625 auf 2620..2615 runter.

Lurtz
2020-12-05, 20:36:12
Wenn etwas wie DLSS part des Chipdesigns und der Targets rundherum wird dann ist das weitaus mehr als nur das übliche Jensen Marketing.

DLSS wird zu einem Kostenfaktor in der Entwicklung über kurz oder lang könnte es komplett den jetzigen scaler ersetzen und jemand der den Vorteil für seine Kunden jetzt nicht nutzt hat einen Nachteil auf Nvidia Hardware auch gegen seine competition, es sei den er hat die Möglichkeiten selbst etwas vergleichbares dagegenzusetzen was ihn von seinen Mittbewerbern auf Nvidia Hardware differenziert.
Viel schwieriger wird es das in die Spiele zu bekommen. Und da ist der Ausgang noch ungewiss, bisher hat nVidia es nie geschafft proprietäre Technologie dauerhaft am Markt zu positionieren. Bis es dann breit verfügbar war, konnten es alle GPUs nutzen.

dargo
2020-12-05, 21:18:00
Hatten wir das Flagschiff von XFX @RX 6800XT Mercury 319 schon im Review?
G8QDhRc_3K0 GWayf21EwL0

Kühler mit 7 Heatpipes, eine UVP von 799$ und ein 340mm Ziegelstein.

Robot
2020-12-05, 21:27:19
Viel schwieriger wird es das in die Spiele zu bekommen. Und da ist der Ausgang noch ungewiss, bisher hat nVidia es nie geschafft proprietäre Technologie dauerhaft am Markt zu positionieren. Bis es dann breit verfügbar war, konnten es alle GPUs nutzen.

Ich kann es mir auch nicht vorstellen, dass sich das durch setzt. Ich find zu dem Thema auch nur gehypte Markting Artikel, aber mal nichts wo es wirklich richtig gegen einen standard upscaler getestet wurde usw.

hier hab ich ein video gefunden und im ernst, es sieht für mich aus als ob das DLSS einfach ein Upscale mit Image Sharpening ist.

cSkpiBB3eP0

bei https://youtu.be/cSkpiBB3eP0?t=139 kann man das gut sehen, dass das ausgeblendet blatt einfach mit einem Schärfemuster überzogen wird.

M4xw0lf
2020-12-05, 21:37:10
War die Asus ROG Strix LC schon hier?

7DIJvNxCDec

dargo
2020-12-05, 21:55:54
Ich staune gerade etwas über die Asus ROG Strix LC. 2750Mhz bei ~290W TGP und einer GPU-Temp. von 45°C? :usweet: not bad

Edit:
19% schneller als die Referenz bei nur +17% Stromverbrauch? WTF? Bringt eine kühle GPU echt so viel?

r3ptil3
2020-12-05, 22:05:50
Hatten wir das Flagschiff von XFX @RX 6800XT Mercury 319 schon im Review?
https://youtu.be/G8QDhRc_3K0 https://youtu.be/GWayf21EwL0

Kühler mit 7 Heatpipes, eine UVP von 799$ und ein 340mm Ziegelstein.

Das Modell ist nicht schlecht, der Kühler ist sogar ziemlich gut.
Nur die plakative Aufschrift auf der Backplate schreckt ab.

Wurde bei Guru3d getestet:
https://www.guru3d.com/articles_pages/xfx_radeon_rx_6800_xt_speedster_319_review,1.html

GerryB
2020-12-05, 22:21:36
https://www.youtube.com/watch?v=DwFuK5cEb6w
(Red Dragon 6800)

Der Bedarf an XT ist anscheinend groß. die Merc war vorhin bei MF rel. schnell vergriffen.
(nur noch die nonXT lagernd)

Was bei den nonXT-Ref aufgefallen ist:
Die Nutzung des XT-Bios per MPT hat seine Grenzen, vom Kühler mal ganz abgesehen,
weil die VRM´s u.U. net dafür ausreichen.(selbst wenn man nur mal 20-30W mehr drauf gibt)
Insofern könnte ne nonXT-Custom doch Ihre Berechtigung haben.

dargo
2020-12-05, 22:27:18
Wie muss der Kühler der XFX RX 6800 Mercury 319 erst performen wenn er gleich zur XT ist? :freak: Ich finds aber super, dass XFX offenbar die Hausaufgaben gemacht hat. Die spielen jetzt ganz oben mit bei der Kühlung. :)

Langlay
2020-12-05, 22:27:41
Die Nutzung des XT-Bios per MPT hat seine Grenzen, vom Kühler mal ganz abgesehen,
weil die VRM´s u.U. net dafür ausreichen.(selbst wenn man nur mal 20-30W mehr drauf gibt)
Insofern könnte ne nonXT-Custom doch Ihre Berechtigung haben.

Die Ref. XT hat eine Phase mehr, das sollte nicht den riesen Unterschied machen.

Hatte ich falsch in Errinnerung. Die 6800 Ref. hat die gleiche VRM wie die 6800XT Ref.

https://www.techpowerup.com/review/amd-radeon-rx-6800/5.html

GerryB
2020-12-05, 22:43:16
Dann verstehe ich net, wieso Einige im Luxx Probleme hatten.(m4looney+holzmann)
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-12

Evtl. spielt der Treiber bei solchen Geschichten übers MPT net 100%ig mit!?
Kommt hinzu, das die Kollegen immer den Vram zu sehr aufdrehen und gar net exakt wissen,
wo die Säge klemmt.(Bildfehler)

Zum Teil war auch einfach der minTakt zu nah am maxTakt eingestellt.(mit etwas mehr Abstand dann OK)
Nur 100MHz Differenz ging net so gut wie 120MHz. Und den maxWert net ganz auf 2600 sondern 2580.

aufkrawall
2020-12-06, 01:04:36
Die Lüfter sind wirklich super, bis aufs Luftrauschen offenbar quasi gar keine Nebengeräusche (auch keine Heultöne etc.). Die XT mit 2,5facher Slot-Breite sollte mit UV dann so gut sein, dass man auch mit sehr hohen Ansprüchen zufrieden sein dürfte.
Das letzte Referenzdesign, was ich zuvor erleben "durfte", war die Vega 56. Was ein elendiges Teil das im Vergleich war. :freak:

Robot
2020-12-06, 01:20:47
Kann ich nur zustimmen, meine 6800 ist auch super leise. Bisl Spulenfiepen wenn FPS > 200 sonst nix. Top Karte :)

GerryB
2020-12-06, 01:28:09
Für OCer lohnen sich die nonXT-Customs trotzdem.

Wenn man sich mal den eff.Takt in den Reviews anschaut, ist Da noch so viel Luft nach oben.
https://www.comptoir-hardware.com/articles/cartes-graphiques/42876-test-amd-radeon-rx-6800-a-rx-6800-xt.html?start=6
(zumindestens in einigen Games kann man an die XT@Stock rankommen)

aufkrawall
2020-12-06, 01:34:36
Die non-XT hält mit den +15% PT eingestellte 2,4GHz 1075mV ziemlich mühelos in heizenden Spielen in 4k, so tolles OC-Potenzial wird da unter Luft nicht sein.
XT weiß ich gerade nicht, hab ich nicht selbst getestet.

Edit: Imho wird da eher mit aufgedrehten PT-Limit noch Lautstärke-Potenzial sein.

GerryB
2020-12-06, 01:41:45
Das ist soundso subjektiv, ob man die kleine nonXT-Ref mit PL+15 für 24/7 betreiben möchte.

Gute XT-Customs gehen doch >2700.
NonXT könnte ich mir auch >2600 vorstellen. Ob ne nonXT für 4k ideal ist, hängt stark von den Games ab.
(zumindestens die GoldenChips von Gurdi hatten in beiden Fällen kein Problem damit; Bilder hatte ich schon gepostet)

aufkrawall
2020-12-06, 01:46:31
Bei wie viel Spannung?

GerryB
2020-12-06, 02:16:55
Durch die GoldenChips sind seine Settings eh net ganz normal und die Ergebnisse.(x)

Er braucht halt nur den Taktregler ganz nach Rechts schieben.(vereinfacht gesagt)
Und bei der nonXT halt mehr W im MPT durchs XT-Bios.(siehe Artikel bei Igor)
https://www.igorslab.de/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-25-ghz-uebertaktet-dank-morepowertool-und-boardpartner-bios/
Es gibt leider nirgends ne ausführliche Auskunft, Was genau mit dem XT-Bios auf der nonXT eingestellt wurde.
im Forum:"Die 2,55Ghz sind stabil aber nur durch anheben der Spannung auf 1,05V."
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-3#post-89529
und
STRIXX-LC läuft ohne Anheben des PL schon an der Taktgrenze(hat aber ein mue mehr W als die Ref)
https://extreme.pcgameshardware.de/threads/amd-radeon-bignavi-rdna2-laberthread.577672/page-57#post-10582548

Takt ist vllt. auch net so alleinig aussagekräftig. Wichtiger ist die Skalierung inGame oder TS:
https://extreme.pcgameshardware.de/threads/amd-radeon-bignavi-rdna2-laberthread.577672/page-58#post-10583180
(x)nonXT=+14% und XT-LC=+18% ggü. den jeweiligen Ref´s.
Da kann man doch hoffen, das normale Chips zw. 10 und 13% schaffen.(bei guten Customs)

Die beste Ref-XT hat Phanni mit erstaunlich niedrigen V: nur zum Benchen mit 100%Lü.
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-7#post-92011
(man beachte seinen minTakt 2480 zu maxTakt 2800@1,005V, falls Es kein Schreibfehler ist, ...
denke mal das der PlatinChip fast den minTakt bei den 1005mV packen muss, damit Sowas funzt,
der maxBoost nimmt ja weiterhin die 1150mV o.ä.)

dargo
2020-12-06, 08:19:51
NonXT könnte ich mir auch >2600 vorstellen.
Habe ich was verpasst? Die non XT ist doch bei 2,6Ghz (real also etwas weniger) abgeriegelt.

GerryB
2020-12-06, 09:46:42
Hast Recht, ist aber eigentlich egal, ob 2600 glatt oder 2550..70 erreicht werden.(x)
Bei den Usern eher wichtig welcher Vram-Takt@FAST noch performant läuft.(wg.minFps)

(x)Gurdi schreibt das Er bei der nonXT den RageMode aktiviert hat, k.A. ob Ihm dadurch der Treiber noch ein paar W+MHz mehr gestattet hat ohne Das explizit im Paneel anzuzeigen.(bei Customs i.d.R. +8W=+20MHz)
Ein 255W-Bios@PL=-6% wäre ja schon 240W ASIC, um mal die Abschalt-Probleme der Luxxer zu vermeiden.

m4looney meint: "sind ja auch nur 11 von 13 GPU-VRMs aktiv auf der nicht XT", weswegen Er nur auf 215..220 ASIC mit PL+15 geht.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-7#post-27908338
(eigentlich totaler Quatsch das 255W-Bios runterzufahren auf 220W und mit PL+15 wieder mehr W zu geben.
Dann doch lieber nur die 255W ala Igor mit PL=0..-6 versuchen in den Griff zu bekommen. Falls die Einstellung angenommen wird, würde ich auch die TDC GFX+SOC auf den nonXT-Wert stellen bzw. versuchen anzunähern, so ca.
GFX=200..230A@1,025V und SOC=30..35A@1,05V, weil ja 15% mehr reichen sollten bis gesamt GFX+SOC= 275W.
Die GFX=300A+SOC=55A vom XT-Bios sind evtl. too much = Abschaltung)
TSE soll wohl am ehesten die Graka abschalten.

24/7 unter Teillast/Fps-Limit werden die guten Customs immer nah an Gurdis Takt rankommen.
Unter OCL laufen die Ref-Chips der Luxxer schon an der Taktgrenze.(bei eigentlich zu viel W für die VRM´s, falls m4looney Recht hat)

Nachtrag: lime meint Es sind doch alle VRM´s aktiv nur einige Bios`@TPU sind net i.O.
https://www.hardwareluxx.de/community/threads/offizieller-amd-rx6800-6800xt-6900xt-overclocking-und-modding-thread-wak%C3%BC-luk%C3%BC-ln2.1282285/page-13#post-27921186

Raff
2020-12-06, 12:12:22
Ich kann es mir auch nicht vorstellen, dass sich das durch setzt. Ich find zu dem Thema auch nur gehypte Markting Artikel, aber mal nichts wo es wirklich richtig gegen einen standard upscaler getestet wurde usw.

hier hab ich ein video gefunden und im ernst, es sieht für mich aus als ob das DLSS einfach ein Upscale mit Image Sharpening ist.

https://youtu.be/cSkpiBB3eP0

bei https://youtu.be/cSkpiBB3eP0?t=139 kann man das gut sehen, dass das ausgeblendet blatt einfach mit einem Schärfemuster überzogen wird.

Bitte nicht schon wieder. :) DLSS rekonstruiert Details aus sehr hochauflösendem Trainingsmaterial, während normales Upscaling keinerlei Zusatzinformationen liefert, sondern einfach grobe Blöcke vergrößert. Die Arbeitsweise lässt sich bei jedem DLSS-2.0-Spiel beobachten und ist längst von Pixelzählern belegt. Temporale Nebenwirkungen gibt wie Zittern und Wischen gibt es aber auch (und für einige Dinge braucht man einfach "echte" Auflösung), insofern ist da noch Luft nach oben. Lektüre mit vielen Bildchen dazu:

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/
https://www.pcgameshardware.de/Call-of-Duty-Black-Ops-Cold-War-Spiel-72929/Specials/COD-Cold-War-Benchmark-Release-Review-1362383/
https://www.pcgameshardware.de/Watch-Dogs-Legion-Spiel-67679/Specials/Raytracing-Benchmarks-DLSS-Test-1360745/
https://www.pcgameshardware.de/Death-Stranding-Spiel-57352/Specials/Death-Stranding-PC-Benchmark-Tuning-Tipps-1354191/

MfG
Raff

GerryB
2020-12-06, 12:39:18
Das komische Riesenrad in London hat mit DLSS ganz schön unnatürlich "fette" Streben.
(kann man bestimmt auch mit integerScaling so hinbekommen)

Ob nun DLSS schon optimal ist, sollte für diesen Thread eigentlich unwichtig sein.
Wir warten auf Superresi.

aufkrawall
2020-12-06, 12:57:22
der maxBoost nimmt ja weiterhin die 1150mV o.ä.
Und damit sollen 2,6GHz unter Luft rockstable sein? Kommt mir fragwürdig vor. Borderlands 3 4k DX12 crashte jedenfalls nach ein paar Minuten mit 2480 1075. 2420 gehen bislang.

dargo
2020-12-06, 13:01:14
Hast Recht, ist aber eigentlich egal, ob 2600 glatt oder 2550..70 erreicht werden.(x)

Natürlich ist das wurscht. :tongue: Mir gings eher darum, dass man mit der non XT nicht über 2,6Ghz kommt.

GerryB
2020-12-06, 13:02:01
Und damit sollen 2,6GHz unter Luft rockstable sein? Kommt mir fragwürdig vor. Borderlands 3 4k DX12 crashte jedenfalls nach ein paar Minuten mit 2480 1075. 2420 gehen bislang.
2,55GHz waren es, um genau zu sein

Frag halt im Thread von Igor direkt nach:
https://www.igorslab.de/community/threads/amds-radeon-rx-6800-stabil-mit-dauerhaften-2-55-ghz-und-rx-6800-xt-mit-bis-zu-2-5-ghz-%C3%BCbertaktet-dank-morepowertool-und-boardpartner-bios.3623/page-7#post-92011

btw.
net jeder Chip ist gleich und zum Benchen wird gerne der Lü. hochgeschraubt.

schmalhans
2020-12-06, 14:18:16
Mal ne Frage an die Besitzer einer Sapphire Nitro+ 6800 non-XT: Wie stellt ihr eure Lüfterkurve im Wattman ein?

Meine sieht bislang so aus, kann man das so machen?

Wiseman
2020-12-06, 14:40:51
Das komische Riesenrad in London hat mit DLSS ganz schön unnatürlich "fette" Streben.
(kann man bestimmt auch mit integerScaling so hinbekommen)

Ob nun DLSS schon optimal ist, sollte für diesen Thread eigentlich unwichtig sein.

Wir warten auf Superresi.

+1

dargo
2020-12-06, 15:07:59
Mal ne Frage an die Besitzer einer Sapphire Nitro+ 6800 non-XT: Wie stellt ihr eure Lüfterkurve im Wattman ein?

Meine sieht bislang so aus, kann man das so machen?
Wenn du einen Gehörschaden brauchst dann ja. :freak:

schmalhans
2020-12-06, 15:20:38
Wenn du einen Gehörschaden brauchst dann ja. :freak:

Komme selbst bei Timespy nicht über 85 Grad Junction Temp, also läuft sie eig die meiste Zeit mit 30-50% Lüfterdrehzahl. Immernoch zu viel? :freak: Bin da aber auch nicht so empfindlich bei der Lautstärke.

horn 12
2020-12-06, 15:33:26
So niedrig die T-Junction
War heute schon bei 98 Grad, aber auch Alles 4K und MAX

Deine eine XT oder Ohne XT?

@edit
Sehe Sapphire Nitro OC+ und 6800 Normal

schmalhans
2020-12-06, 15:36:00
So niedrig die T-Junction
War heute schon bei 98 Grad, aber auch Alles 4K und MAX

Deine eine XT oder Ohne XT?

@RDIT
sehe Sapphire Nitro OC+ und 6800 Normal

Ja, komme nicht höher. Läuft @ 2550 Mhz Takt und 2130 Mhz VRAM-Takt.

Die Spannung kann ich ja nicht verändern im Wattman...

horn 12
2020-12-06, 15:41:53
4K oder WQHD
Alles unter 4K ist Pipifatz :-)

schmalhans
2020-12-06, 15:53:36
4K oder WQHD
Alles unter 4K ist Pipifatz :-)

Wie hast du deine Lüfterkurve eingestellt?

horn 12
2020-12-06, 16:06:30
Stock, habe aber die Referenz 6800 AMD
Werde aber bis 60 Prozent Lüfter gehen,- bei moderatem OC

gbm31
2020-12-06, 16:38:09
Mal ne Frage an die Besitzer einer Sapphire Nitro+ 6800 non-XT: Wie stellt ihr eure Lüfterkurve im Wattman ein?

Meine sieht bislang so aus, kann man das so machen?

Warum willst du denn am Lüfterprofil drehen?

Meine ist selbst mit 2450MHz GPU, 2124MHz RAM, 1025mV und +10%PT kaum zu hören, der Benchtable steht neben mir. Ich höre daß die Lüfter anlaufen und dann ein leichtes Laufgeräsch, aber wirklich nur weil das Ding offen 25cm neben meinem Ohr steht.
Das Spulenrasseln ab 200fps ist deutlicher zu hören, aber auch noch auf sehr "humanem" Niveau bei meiner.
Hotspot bei 500ms Polling 85°C max. laut HWInfo.

Zur Zeit teste ich obige Takte mit 970mV...

aufkrawall
2020-12-06, 17:07:51
Der Treiber funktioniert wirklich schon anständig bei Bro, kein Vergleich zum Navi 10-Desaster von vor einem Jahr. Auch Desktop-Flackern nach Beendigung einiger Spiele mit FreeSync ist weg usw.
Jetzt wären RT-Reflexionen mit AMD-Optimierung mal nett. Was ich bisher von den anderen Effekten gesehen hab, überzeugt mich jedenfalls nicht im geringsten.

GerryB
2020-12-06, 18:28:06
Wenn der Lüfter bei den Customs noch Reserven hat, ist Das sicher net verkehrt wenns an UV/OCen geht.

Im Luxx hat EagleOne ne nonXT@h2o und dadurch sehr effiziente Settings: für min+maxTakt 2500/2600
Dazu hat Er sein nonXT-Bios in das MPT geladen und Powerlimit+TDC GFX+SOC geändert.
Dabei hat Er darauf geachtet, die 255W-Analogie vom XT-Bios net zu überschreiten.
Evtl. aus techn. Gründen (Kompatibilität ...max.W+A) wird im MPT+Treiberpaneel weiterhin PL+15% genutzt.

Falls Jemand ausprobieren möchte, vorsichthalber bei min+maxTakt ein mue weniger und dann nur versuchen über die Spannung 985..1012mV stabil zu werden.(in Blau sind schon leicht reduzierte Werte)
Mit ner Ref natürlich schwierig noch die Temps unten zu halten. >>85°C Hotspot ist sicher net hilfreich.
(bei Navi gabs zumindestens kaum Unterschiede zw. Air@85°C und ner kleinen h2o)

Vram-Takt erstmal Stock lassen und erst später auf 2059..2124..2150 testen. FAST ist wichtiger als Takt.

/Locutus oB
2020-12-06, 18:36:33
was hat min Takt hoch zu setzen für einen sinn? verbraucht doch nur sinnlos strom?

aufkrawall
2020-12-06, 18:46:51
Vielleicht hilfreich, wenn die GPU irgendwo bei mal zu stark runtertaktet. Besser haben und nicht brauchen als umgekehrt. Aber muss bzw. sollte man normalerweise offenbar nicht anrühren, ja.

GerryB
2020-12-06, 18:52:58
Sicher für VR am Wichtigsten.
(oder Benchmark-Scores)

Vllt. läuft die Graka auch stabiler, wenn net dauernd der Takt gewechselt wird, who knows.

gbm31
2020-12-06, 18:59:44
Den Min Takt hochzuziehen hab ich auch noch nicht kapiert warum das zu mehr Stabilität führen soll...

Ich hab den bisher immer auf den Default 500 gelassen.

Aktuelles Testsetting:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72712&stc=1&d=1607277637

Scheint den Takt nicht zu beeinflussen, wie mit dem Lineal durch den Bench:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72711&stc=1&d=1607277566

aufkrawall
2020-12-06, 19:10:40
Ist ja auch logisch, weil das nur tiefere PStates (wenn auch offenbar nicht den tiefsten) beeinflusst. Also Teillast oder ggf. Powertune-Limit-Drosselung.

Ravenhearth
2020-12-06, 19:24:51
Wurde das schon gepostet? Sapphire hat auf der Seite die TDPs für die Pulse Karten angepasst. Die 6800 hat demnach 280W und die XT hat 335W (Nitro 290W bzw. 350W).

gbm31
2020-12-06, 19:34:53
Ist ja auch logisch, weil das nur tiefere PStates (wenn auch offenbar nicht den tiefsten) beeinflusst. Also Teillast oder ggf. Powertune-Limit-Drosselung.

Mit 950mV gibts Flackern in Timespy Extreme und Abbsuch in Portroyale. Das ist kein tiefes PState. 960mV laufen da noch durch. Zeit für andere Tests.

Oder meintest du die Anhebung des Min Taktes?

/Locutus oB
2020-12-06, 19:40:54
is ja wie früher wo die Leute cool'n'quiet deaktiviert haben. ich glaube heutige cpus/gpus sind da deutlich intelligenter. gilt auch für die Spannungsversorgung...

aufkrawall
2020-12-06, 19:43:43
Mit 950mV gibts Flackern in Timespy Extreme und Abbsuch in Portroyale. Das ist kein tiefes PState. 960mV laufen da noch durch. Zeit für andere Tests.

Oder meintest du die Anhebung des Min Taktes?
Ja.

gbm31
2020-12-06, 19:46:45
Ja.

Passt. Das wär für mich nur relevant wenn die Karte irgendwo nicht hochtakten wollen würde.

Das Absenken der Spannung im Wattman bringt gelinde gesagt nichts.

Die GPU nimmt sich trotzdem 1025mV, brät brav die vollen 250W (PPT+10%) und rennt ~2400MHz bei Vollast.

Jetzt teste ich MPT und die Möglichkeiten der SPPT.

aufkrawall
2020-12-06, 19:51:17
Das Absenken der Spannung im Wattman bringt gelinde gesagt nichts.

Kann ich nicht bestätigen mit der non-XT. Mit 900mV statt 1075 für 2,2 anstatt 2,4GHz sank der GPU-only-Verbrauch in Hitman 2 4k locker um 40W.

gbm31
2020-12-06, 19:58:28
non-XT. ... 1075

???

Bei mir sind via Wattman 1025mV default und auch Maximum.

Und PTT -10% bis +10%.

VaporVader
2020-12-06, 20:13:52
Kann ich nicht bestätigen mit der non-XT. Mit 900mV statt 1075 für 2,2 anstatt 2,4GHz sank der GPU-only-Verbrauch in Hitman 2 4k locker um 40W.

Kann ich auch nicht bestätigen.
UV bei Navi21 bringt durchaus was. Auch um Energie zu "sparen".
Meine RX6800 läuft aktuell bei 930mv@2200. Das sind ca. 30W ASIC Power weniger.
Ist aber sicher noch nicht das Maximum was man Ersparnis rausholen kann ohne Stock-Leistung zu verlieren.
Aber irgendwann will man ja mit der Karte auch mal was machen... Spielen oder so :freak:

P.S.: Problem ist aktuell eher das man nicht im Wattman das einstellt was man vlt denkt. "Ich hätte gern Spannung bei Frequenz X" funktioniert nicht bei Frequenzen die über 100% liegen.
Da ist noch eine andere Logik am Werk, die man nicht direkt beeinflussen kann.

aufkrawall
2020-12-06, 20:16:45
???

Bei mir sind via Wattman 1025mV default und auch Maximum.

Und PTT -10% bis +10%.
Ja, stimmt. Es sind auch nur 1025mV. Powertune-Limit geht aber definitiv +15%, was offenbar 233W sind.
Hm, wieso gibts da beim Referenzdesign Abweichungen?

Edit: Ok, du hast die Nitro. UV funktioniert dann wohl mit der durch irgendeinen Bug nicht?

gbm31
2020-12-06, 20:22:04
Ja, stimmt. Es sind auch nur 1025mV. Powertune-Limit geht aber definitiv +15%, was offenbar 233W sind.
Hm, wieso gibts da beim Referenzdesign Abweichungen?

Edit: Ok, du hast die Nitro. UV funktioniert dann wohl mit der durch irgendeinen Bug nicht?

Habs grad auch gemerkt.

Laut MPT geht meine bis 227W, und die +10% ergeben dann die 250W.

aufkrawall
2020-12-06, 20:42:25
UV bei Navi21 bringt durchaus was. Auch um Energie zu "sparen".
Meine RX6800 läuft aktuell bei 930mv@2200. Das sind ca. 30W ASIC Power weniger.
Ist aber sicher noch nicht das Maximum was man Ersparnis rausholen kann ohne Stock-Leistung zu verlieren.

Schätze, bei eingestellten 2,3GHz kommt man noch geschmeidig deutlich unter 1V. Ist schon ein deutlicher Fortschritt vs. Navi 10.

dargo
2020-12-07, 07:59:52
Schätze, bei eingestellten 2,3GHz kommt man noch geschmeidig deutlich unter 1V. Ist schon ein deutlicher Fortschritt vs. Navi 10.
Bei den Taktraten ja, bei den Spannungen ist alles ziemlich gleich geblieben. Eine RX 5700 lief auch schon mit ca. 970mV.
https://www.igorslab.de/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/11/

Der Salvage N21XL dann halt ~950mV.
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/14/

Je nach Wahl vom Betriebspunkt variiert das dann halt etwas. Wähle ich einen Betriebspunkt etwas näher an der Kotzgrenze steigt entsprechend auch die Spannung.

GerryB
2020-12-07, 08:21:18
Laut MPT geht meine bis 227W, und die +10% ergeben dann die 250W.
Was mich bei der NitroXL wundert ist die niedrige SOC TDC=30A.(=Ref)
evtl. hilft ja 36A ala EagleOne oder sogar 38A.

Würde auch erstmal nur ohne Vram-OCen testen, Was so genau Alles möglich ist. Die Begrenzung des GFX-Taktes ist evtl. ne Sicherheitsmaßnahme, damit in 4k bei dem hohen PL und vgl.weise niedriger Spannung ggü. der XT die kleine XL net zu hoch boostet und instabil wird.

dargo
2020-12-07, 08:36:36
Bringt denn Speicher-OC bei der XL überhaupt nennenswert was? Das Ding hat den vollen IFC sowie die gleiche Bandbreite wie die XT. :freak:

Was mich bei der NitroXL wundert ist die niedrige SOC TDC=30A.(=Ref)

Wofür brauchst du da mehr? Das Ding läuft doch nur mit ~940mV.

GerryB
2020-12-07, 09:10:10
Bringt denn Speicher-OC bei der XL überhaupt nennenswert was? Das Ding hat den vollen IFC sowie die gleiche Bandbreite wie die XT.
Wofür brauchst du da mehr? Das Ding läuft doch nur mit ~940mV.

Gerade in 4k kann Es mehr Cache-Misses geben, dann ist more halt bessere minFps.
Mehr TDC SOC gerade, weil man sich mit dem getweakten PL zw. der Ref-XL und Ref-XT befindet. (und auch nen höheren Takt fährt)
.
.
.
nur für ne echte XT-Ref verwenden:
mal z.Vgl. wie man ungefähr mit dem 255W-Bios der XT-Ref experimentieren könnte. (habe die Settings von Alois im Treiberpaneel genommen)
Man sieht schon, das die XT viel höhere V+A hat, wobei im 255W-Bios einfach die selben Werte drin stehen wie beim 289W.
Da könnte man versuchen sparsamer zu werden.
.
.
Im Umkehrschluss sieht man natürlich wie ne hochgetaktete Nitro nonXT eigentlich vgl.weise niedrig eingestellt ist bei gbm31#1204,
deswegen sind ein paar Exp. evtl. hilfreich.(ob jetzt auch ne höhere SOC-Spannung bei gbm31 helfen tät, who knows,
eigentlich sollte wohl GFX+SOC-Spannung net allzuweit auseinanderliegen, SOC so ca. 25..50mV höher als GFX)

dargo
2020-12-07, 09:38:00
Gerade in 4k kann Es mehr Cache-Misses geben, dann ist more halt bessere minFps.

Hast du dafür auch irgendwelche Belege oder die üblichen Hirngespinste?

w0mbat
2020-12-07, 09:43:31
Je höher die Auflösung, desto mehr cache-misses. Aber ob bei der XL hier dann die Bandbreite limitiert ist ne andere Sache.

PS: dargo, was denkst du, wie Cyberpunk auf unseren Systemen laufen wird?

ChaosTM
2020-12-07, 09:47:18
Mal schaun wie sich die Karte bei 77/4k schlägt. Bei 1440p würd ich mir keinerlei sorgen machen..

add.: alles irrelevant solange man die doofen Dinger ned kaufen kann

HOT
2020-12-07, 09:53:49
Je höher die Auflösung, desto mehr cache-misses. Aber ob bei der XL hier dann die Bandbreite limitiert ist ne andere Sache.

PS: dargo, was denkst du, wie Cyberpunk auf unseren Systemen laufen wird?
Ich glaube das nicht. Den N2x wird bei 4k einfach die Rohleistung ausgehen ggü. den großen NV-Karten, das ist alles. Der Cache wird damit nix zu tun haben.

GerryB
2020-12-07, 10:12:06
Hast du dafür auch irgendwelche Belege oder die üblichen Hirngespinste?

Da wirst Du wohl mal selber suchen müssen.(x)

Die Tech-Dame von AMD hat mal in nem Interview Was zur Größe des InfinityCache erzählt und dort auch, wie mit steigender Auflösung die Misses aussehen.

(x) Da ich üblicherweise net jede "intelligente/höfliche" Frage erschöpfend beantworten muss.
(Gerade von Leuten die anscheinend nur 3dC-Forum lesen und ansonsten kein tiefergehendes techn. Interesse haben.)

edit:
Ich will mal net so unhöflich sein: ne Zahl zur Trefferquote
https://www.heise.de/hintergrund/Big-Navi-der-Grafikchip-hinter-AMDs-Radeon-RX-6800-6900-4964536.html
"In Spielen soll der IC bei 4K-Auflösung eine Trefferrate von 58 Prozent haben – beinahe sechs von zehn Speicherzugriffen können hier also abgefangen werden."

gedi
2020-12-07, 10:48:02
Bin da voll bei dir. Da wo der Cache nicht mehr ausreicht, sollte Vram OC durchdrücken

dargo
2020-12-07, 10:50:05
Da wirst Du wohl mal selber suchen müssen.(x)

Die Tech-Dame von AMD hat mal in nem Interview Was zur Größe des InfinityCache erzählt und dort auch, wie mit steigender Auflösung die Misses aussehen.

Wo ist da der Zusammenhang zu SoC (A)? :freak:

Edit:
Achso... du meintest das in Bezug auf Speicher-OC. :tongue: Mich hat eher interessiert warum du an SoC (A) fummeln willst?

gedi
2020-12-07, 10:54:46
Die SoC-Geschichte hat bei N10 nur etwas in Verbund mit Vram-OC gebracht. Und hier war weniger oft mehr. Ne Korrelation zu N2x sehe ich zwecks IC nicht unbedingt

ChaosTM
2020-12-07, 11:12:12
Ich glaube das nicht. Den N2x wird bei 4k einfach die Rohleistung ausgehen ggü. den großen NV-Karten, das ist alles. Der Cache wird damit nix zu tun haben.


Bei 5k bleibt der Abstand zur 3090er ca. der selbe wie bei 4k. Rohleistung sollte also vergleichbar sein..

GerryB
2020-12-07, 11:12:47
Mich hat eher interessiert warum du an SoC (A) fummeln willst?

Aus Sicherheits/Stabilitätsgründen. Du hast ja selber schon festgestellt, das die XL eigentlich denselben Controller+IC+Bandbreite nutzt wie die XT.

Da liegt es für mich auf der Hand, das die Diff. 55A@XT vs. 30A@XL ne potentielle Schwachstelle ist, wenn sich der Takt/Anfragen durch die GPU mit steigendem PL der Customs erhöhen.
Man würde doch normal die TDC parallel zum PL mit anheben. Die Nitro hat halt schon mehr als die Ref.

Zw. XT und XL gäbe es nur den Unterschied der Units 72/60 x 30A = 36A bei gleichem PL, weil die Anzahl der Units, die vom IC Infos bekommen sicher ne Rolle spielt. Obs deswegen 55A wie bei 80 Units der 6900 sein müssen?
D.H. ne XT könnte bei dem niedrigen PL der XL(203W) evtl. bis 36A runter.(Da sind die 50A#1206-bei 255W sehr safe gewählt)
Und andersrum sollte Custom-XL mit dem steigenden PL halt auch ein paar A mehr bekommen.

dargo
2020-12-07, 11:27:06
@GerryB

Du hast aber schon mitbekommen, dass eine XL 12CUs weniger hat? Deine Erklärungsversuche machen für mich jedenfalls keinen Sinn. Oder meinst du bei Sapphire arbeiten nur Amateure? Selbst die Nitro+ XL hat schon mehr PT als Referenz XL.

aufkrawall
2020-12-07, 11:34:45
Bei den Taktraten ja, bei den Spannungen ist alles ziemlich gleich geblieben. Eine RX 5700 lief auch schon mit ca. 970mV.
https://www.igorslab.de/amd-radeon-rx-5700-und-rx-5700-xt-im-test-der-raytracing-freie-sargnagel-von-vega-und-fast-2-1-ghz-takt-unter-wasser/11/

Ja, es geht aber um das Verhältnis Takt/Spannung. Wenn man gleichzeitig den Takt anheben und dabei noch trotz "Taktlimit" den Verbrauch spürbar senken kann, ist das schon ganz nett.

nonharderware
2020-12-07, 11:58:48
Falls jemanden die Geekbench Werte meiner OC/UV 6800XT interessieren:
https://browser.geekbench.com/v5/compute/2012117 (OpenCL)
https://browser.geekbench.com/v5/compute/2012121 (Vulkan)

SKYNET
2020-12-07, 12:30:24
Falls jemanden die Geekbench Werte meiner OC/UV 6800XT interessieren:
https://browser.geekbench.com/v5/compute/2012117 (OpenCL)
https://browser.geekbench.com/v5/compute/2012117 (Vulkan)

beides der gleiche link :freak:

GerryB
2020-12-07, 12:43:53
Du hast aber schon mitbekommen, dass eine XL 12CUs weniger hat?
Du warst zu schnell, ich hatte den Post noch net zu Ende editiert.


Deine Erklärungsversuche machen für mich jedenfalls keinen Sinn. Oder meinst du bei Sapphire arbeiten nur Amateure?

Rember Navi-Launch:
Damals waren die ersten Powercolor XT-Bios´ schnell zusammengeschustert. Die Werte für SOC-V waren viel zu hoch.(wurden später von 1200mV auf 1050mV gesenkt, wo man dann als User mit Stabilitätsproblemen halt auf 1075mV gegangen ist)
Genauso hatte Igor auch die Möglichkeit getestet die SOC-A von 14 auf 12 zu senken.
Das hatte damals den Hintergrund, die Hotspottemp. zu optimieren und ggf. ein paaar W vom PL freizuschaufeln.
https://www.igorslab.de/radeon-rx-5700-und-rx-5700-xt-mit-dem-morepowertool-sparsamer-effizienter-und-deutlich-leiser-machen-tutorial/2/

Gerade bei neuer Hardware darf rumprobiert werden.
(und auch AIB´s haben nur nen 24h-Tag, kurz vor Launch)

dargo
2020-12-07, 12:45:26
Wieder kein Zusammenhang. Du willst mit SoC (A) nach oben, nicht nach unten. ;)

aufkrawall
2020-12-07, 12:47:41
Konkrete Zahlen hatte Igor trotzdem nicht geliefert. Imho Zeitverschwendung...

nonharderware
2020-12-07, 13:24:36
beides der gleiche link :freak:

PARDON!

Hier die richtigen Links!
https://browser.geekbench.com/v5/compute/2012117 (OpenCL)
https://browser.geekbench.com/v5/compute/2012121 (Vulkan)

vinacis_vivids
2020-12-07, 14:33:57
6800XT@mGPU

https://abload.de/thumb/6800xtmgpu04jsy.jpg (https://abload.de/image.php?img=6800xtmgpu04jsy.jpg)

dargo
2020-12-07, 14:39:57
Das wäre was für Gouvernator, endlich in 8k zocken. ;D

aufkrawall
2020-12-07, 15:06:56
Mit der letzten MPC HC Nightly bzw. LAV Filters geht übrigens AV1 Hardware-Decoding offenbar schon problemlos (neben Edgium):
https://github.com/clsid2/mpc-hc/tags

GerryB
2020-12-07, 18:07:49
Deine Erklärungsversuche machen für mich jedenfalls keinen Sinn. Oder meinst du bei Sapphire arbeiten nur Amateure?
Wieder kein Zusammenhang. Du willst mit SoC (A) nach oben, nicht nach unten.

Das wird mit Dir hier genauso sinnlos wie in dem Navithread. Du liest Irgendwas halb und schreibst ne Antwort, die zu nem früheren Post passt.

Es ging um die Frage ob ein AIB-Bios bei Launch schon perfekt sein muss/kann.
=Mitnichten

Ob eine spezielle Custom-Graka dann etwas mehr oder weniger vertragen könnte muss man sehen.
(Navilaunch war nur ein Bsp., das man auch mal die grauen Zellen benutzen darf)

Die Customs sind eher langweilig, weil nur noch die Chipgüte übers Erreichen der Taktgrenze entscheidet. Insofern waren die Refs mit limitiertem Kühler+W ganz interessant beim UVen.

Ich wünsch Euch noch viel Spass.

Dant3
2020-12-07, 18:39:08
Ich habe heute eine 6800 Nitro verbaut und was ich schon mal sagen kann, die Luefter klingen bei aehnlicher Drehzahl wie mit meiner Vega 64 Nitro deutlich angenehmer. Also kein hochfrequentes Geraeusch mehr bei 1000 - 1200 ~ rpm.

OgrEGT
2020-12-07, 20:42:10
Ich habe heute eine 6800 Nitro verbaut und was ich schon mal sagen kann, die Luefter klingen bei aehnlicher Drehzahl wie mit meiner Vega 64 Nitro deutlich angenehmer. Also kein hochfrequentes Geraeusch mehr bei 1000 - 1200 ~ rpm.

Wo hast Du denn die Nitro zu welchem Preis gekauft, wenn ich fragen darf?

Die würd mich auch interessieren (da vom Platz limitiert) =)

Dant3
2020-12-07, 20:49:57
Erste Charge von caseking fuer 785,- inklusive Versand.
Der Aufpreis zur UVP von 640,- ist mir wohl bewusst, doch Cyberpunk hat mich leider in den Hintern gebissen.

gedi
2020-12-07, 20:55:38
Wenn man die TDC seitens der GFX herabsetzt, dann laufen auch 2.8G locker durch, allerdings ist die Performance meh! Habe hier 300W@315A@55A anliegen, bei -8% (=275W). Min 2.550G Max. 2.65G @1.025V - läuft prächtig. Ohne Witz - ohne RT ist das Teil schneller als ne 3090 Strix! Der pure Wahnsinn die Karte! Ein Problem habe ich allerdings: In FS2020 will se so gar nicht performen :mad: Das Spiel taste ich nun nicht mehr an, bis der DX12-Patch kommt. Grafiktechnisch allerdings das Beste was ich je auf nem PC je gesehen habe!

aufkrawall
2020-12-07, 21:06:54
Joa, das braucht sicherlich DX12. Anno 1800 läuft etwa auch hervorragend (für seine Verhältnisse), Mafia DE ist hingegen ein kleiner Ausfall nach unten.

OgrEGT
2020-12-07, 21:07:47
Erste Charge von caseking fuer 785,- inklusive Versand.
Der Aufpreis zur UVP von 640,- ist mir wohl bewusst, doch Cyberpunk hat mich leider in den Hintern gebissen.

Alles klar, Danke :up:
Mal schauen wo demnächst wieder eine verfügbar wird...

nonharderware
2020-12-07, 22:07:09
Siehe Anhang - Meint ihr diese Temps sind okay?
Vollast unter "Elite: Dangerous" in 4K.

OgrEGT
2020-12-07, 22:18:15
Siehe Anhang - Meint ihr diese Temps sind okay?
Vollast unter "Elite: Dangerous" in 4K.

Wie hoch war/ist TJunct?

Langlay
2020-12-07, 22:27:32
Wie hoch war/ist TJunct?

86°C sieht man im Bild. Übergangstemperatur heisst das im deutschen Treiber.

Sieht imo soweit gut aus. Die 3000 RPM würden mich aber übelst upfucken.

gedi
2020-12-07, 22:33:39
86°C sieht man im Bild. Übergangstemperatur heisst das im deutschen Treiber.

Sieht imo soweit gut aus. Die 3000 RPM würden mich aber übelst upfucken.

Wollt es gerade sagen: Temps gut - Ohren tot :biggrin:

Zudem: Wenn zwischen der eigentlichen Temp und tjTemp weit mehr als 20°C liegen, dann sind zu viel Wätter auf der Grafikkarte. Damit spielst du Dargos Lieblingsspiel keine 5`ohne Treiberreset oder Komplettabsturz! Verzichte lieber auf die letzten 5% und spiele in ruhiger Umgebung :)

nonharderware
2020-12-07, 22:58:41
Wollt es gerade sagen: Temps gut - Ohren tot :biggrin:

Zudem: Wenn zwischen der eigentlichen Temp und tjTemp weit mehr als 20°C liegen, dann sind zu viel Wätter auf der Grafikkarte. Damit spielst du Dargos Lieblingsspiel keine 5`ohne Treiberreset oder Komplettabsturz! Verzichte lieber auf die letzten 5% und spiele in ruhiger Umgebung :)

Also ich hab hier keinen Absturz - läuft alles echt gut ohne Drama...
Gilt auch für Death Stranding und 3DMark in der Dauerschleife.

EDIT:

Habe jetzt das PL auf 12% reduziert, die Lüfterkurve angepasst und bekomme kurzeitig 88°C als Tmax bei "Übergangstemperatur".

Die Lüfter drehen sich jetzt merklich leiser im Bereich 2000 bnis 2500.

Beim 3DMark hat mich das jetzt ca. 200 Grafikpunkte gekostet - folglich vernachlässigbar.
https://www.3dmark.com/3dm/54436991?

Geekbench:
https://browser.geekbench.com/v5/compute/2016068 (OpenCL)
https://browser.geekbench.com/v5/compute/2016074 (Vulkan)

Einstellungen - aus dem XML:


<?xml version="1.0" encoding="UTF-8"?>
<GPU DevID="73BF" RevID="C1">
<PPW Value="1"/>
<FEATURE ID="100" Enabled="0">
<STATES>
<STATE ID="0" Enabled="False" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="101" Enabled="7">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="102" Enabled="0">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="26" Enabled="True">
<STATES>
<STATE ID="0" Enabled="False" Value="0"/>
<STATE ID="1" Enabled="False" Value="0"/>
<STATE ID="2" Enabled="False" Value="0"/>
<STATE ID="3" Enabled="False" Value="500"/>
<STATE ID="4" Enabled="False" Value="2625"/>
<STATE ID="5" Enabled="False" Value="0"/>
<STATE ID="6" Enabled="False" Value="0"/>
<STATE ID="7" Enabled="False" Value="0"/>
<STATE ID="8" Enabled="False" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="12" Enabled="False">
<STATES>
<STATE ID="0" Enabled="False" Value="1037"/>
</STATES>
</FEATURE>
<FEATURE ID="5" Enabled="True">
<STATES>
<STATE ID="0" Enabled="False" Value="2124"/>
<STATE ID="1" Enabled="False" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="9" Enabled="False">
<STATES>
<STATE ID="0" Enabled="False" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="8" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
<STATE ID="1" Enabled="True" Value="0"/>
<STATE ID="2" Enabled="True" Value="12"/>
</STATES>
</FEATURE>
<FEATURE ID="17" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="1"/>
</STATES>
</FEATURE>
<FEATURE ID="18" Enabled="True">
<STATES>
<STATE ID="0" Enabled="True" Value="1"/>
<STATE ID="1" Enabled="False" Value="55"/>
</STATES>
</FEATURE>
<FEATURE ID="19" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="20" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="21" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="0"/>
</STATES>
</FEATURE>
<FEATURE ID="22" Enabled="True">
<STATES>
<STATE ID="0" Enabled="False" Value="30"/>
<STATE ID="1" Enabled="False" Value="25"/>
<STATE ID="2" Enabled="False" Value="50"/>
<STATE ID="3" Enabled="False" Value="30"/>
<STATE ID="4" Enabled="False" Value="58"/>
<STATE ID="5" Enabled="False" Value="71"/>
<STATE ID="6" Enabled="False" Value="84"/>
<STATE ID="7" Enabled="False" Value="76"/>
<STATE ID="8" Enabled="False" Value="90"/>
<STATE ID="9" Enabled="False" Value="100"/>
</STATES>
</FEATURE>
<FEATURE ID="27" Enabled="False">
<STATES>
<STATE ID="0" Enabled="True" Value="3"/>
</STATES>
</FEATURE>
</GPU>

OgrEGT
2020-12-08, 06:46:51
86°C sieht man im Bild. Übergangstemperatur heisst das im deutschen Treiber.

Sieht imo soweit gut aus. Die 3000 RPM würden mich aber übelst upfucken.
Ich kenne die Lüfter nicht und welche Frequenzen die erzeugen aber 3000rpm sind auch nahe an RPMmax / Accoustic Limit? D.h. die Lüfter sind im Grenzbereich der Karte um die Temperatur zu halten...

Generell würde ich die Lüfterkurve eher Treppen-förmig anlegen so dass man für bestimmte Temperaturbereiche konstante Drehzahlen hat. Bei der gezeigten Kurve kommt es bei kleinen Temperaturänderungen gleich zu einer Änderung der Drehzahl. Diese permanente Fluktuation der Drehzahl empfinde ich als eher störend.

Dant3
2020-12-08, 10:13:08
Nach ersten Tests mit der Nitro bin ich jetzt bei soliden 2500~ Mhz core / 2100 Ram (ingame Takt) mit rund 86 - 90 Grad Hotspot und 1150 - 1200 RPM. Als Test diente hier TW3 mit allen Reglern auf maximum in 4k ohne FPS Limit. Mit 60 Fps Limit, was ich natuerlich nutzen werde, kuehlt sich der Hotspot noch mal ein paar Grad runter und die Karte wird noch leiser.
Wenn man die GPU richtig in die Kotzgrenze treibt, z.b Resident Evil 2 gemaxed mit 200% scaling, bricht der Core auf minimal 2400~ mhz ein. Das Setting ist natuerlich sehr unrealistisch, aber nun mal ein worst case Beispiel.
4k mit 60 Fps ohne absurdes Scaling laeuft auf jeden fall immer mit 2500 Mhz durchgängig, alles andere ist fuer mich so wieso nicht von belang.

Man kann sicher noch mehr aus der Karte holen, aber ich werde diese Einstellungen jetzt erst mal im Alltag verwenden und gucken ob das alles wirklich 100% sauber laeuft. Cyberpunk wird da sicher ein netter Haertetest werden.

Ansonsten ..

- OC funktioniert ganz anders als mit der ollen Vega, min. max. Takt muss man erst mal ein wenig durchtesten

- UV bringt praktisch gar nix, die Karte zieht immer 250 Watt, auch wenn die Spannung minimal runter geht (Silent Bios ist auf 230 Watt begrenzt, auch mit Power Limit erhöhung)

- Ab Hotspot ueber 90 Grad drosselt der Takt leicht

- Die neuen Nitro Luefter haben einen sehr angenehmen Ton, aehnlich wie meine Noctua´s und sind auch bei hoeheren Drehzahlen nicht nervig.

- Keine Ahnung wie ich den RGB Kram ausstellen kann, Trixx erkennt die Karte nur rudimentaer und ein neuere Version gibt es nicht

- Custom fan Kurve mit dem Afterburner verursachte Bildflackern wo man annehmen koennte der Karte schmeckt das OC nicht (laufen darf er aber im Hintergrund).
Was man machen darf oder nicht habe ich jetzt nicht durchgetestet.

- Der Kodi Player erkennt jetzt teilweise kein HDR mehr (Windows selber schon und andere Player funktionieren, Spiele mit Fullscreen und HDR auch) bei filmen und Schriftzeichen sehen fehlerhaft aus, sicher eine Treiber Geschichte


Auch wenn die Karte viel zu Teuer war, das ist schon ein richtig geiles Stueck Hardware und ich bereue den Aufpreis (erst mal) nicht.

bnoob
2020-12-08, 10:24:14
Undervolting scheint allgemein noch nicht richtig zu funktionieren, das bist nicht nur du :)

gbm31
2020-12-08, 10:32:34
Glückwunsch!

Meine will nicht über 2470MHz Target (~2400MHz Volllast), dafür scheint der Speicher mit 2150MHz und fast Timings keine Probleme zu haben. Und mehr als 86°C Hotspot hab ich auch noch nicht protokolliert.

Als gute Tests haben sich bei mir Raytracing-Benches erwiesen, wie 3DMark Port Royale oder der Bright Memory RTX (auf Steam kostenlos). Witcher läuft bei mir z.B. noch mit 2550MHz Target. Timespy mit 2500MHz.

Magst deine Wattman-Einstellungen mal ablichten?

Trixx fängt mit der Karte echt nix an, keine RGB Steuerung (würds gern ausschalten), keine BIOS-Auswahl...

Beeindruckend ist der einfach der Kühler der Nitro+ - wie lässig der mit den 250W umgeht und die Lüfter kaum hochdrehen!

Dant3
2020-12-08, 11:20:19
https://i.ibb.co/Nx0K4sn/1.png (https://ibb.co/Nx0K4sn)

Das sind die angesprochenen Settings.
Ich muss mich bezueglich des Hotspots und runter takten noch korrigieren. Bereits bei 80 Grad haelt sich der Takt leicht zurueck. Sieht man gut bei Superposition 4k. Selbst mit 2500 min. und 2600 max. Takt komme ich nur bei 2450~ raus. Habe dann gerade mal testweise die Luefter richtig aufgedreht und siehe da, wenn der Hotspot unter 80 Grad bleibt, boostet sie bis 2550.
Deswegen wird deine @gbm31 sehr wahrscheinlich auch nicht höher boosten.

nonharderware
2020-12-08, 11:41:24
Um diesen Thread nicht zu verwässern, habe ich mal hier einen eigenen aufgemacht zu der Thematik UV/OC:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603714

bnoob
2020-12-08, 12:08:12
Beeindruckend ist der einfach der Kühler der Nitro+ - wie lässig der mit den 250W umgeht und die Lüfter kaum hochdrehen!
Das finde ich schon beim stock Kühler der 6800 so krass, NIEMALS würde ich da noch was anderes als Ref kaufen (und eigentlich auch nicht auf WaKü umrüsten, wenn ichs nicht gewohnt wäre und bis auf den GPU-Block alles da habe).

Der Nitro+ soll ja auch nicht sehr viel besser sein.

Das ist ABSOLUT unerwartet gewesen.

NeMeth
2020-12-08, 12:43:18
Trixx fängt mit der Karte echt nix an, keine RGB Steuerung (würds gern ausschalten), keine BIOS-Auswahl...


Ok, dann bin ich nicht der Einzige. Der Trixx scheint die Karte nichtmal richtig zu erkennen. NitroGlow funktioniert nicht und Umschalten der Biose per Software-Switch auch nicht. Aber rennt sonst gut das Ding.

aufkrawall
2020-12-08, 12:46:25
Das non-XT Referenzdesign dreht mit aufgedrehtem PT ohne UV schon >1700rpm hoch. Es sind halt nur 80er Lüfter, wobei eben drei ziemlich gute. Da können Untertöne mittelmäßiger Lüfter bei 1000rpm wesentlich nerviger sein. Gut, wenn das auf Sapphire nun nicht mehr zutrifft. :D

dargo
2020-12-08, 16:48:59
Was für Lawmachine79. ;)

Fixed Issues
The HP Reverb G2 VR headset may fail to sync or may have a black screen when run with Radeon RX 6800 series graphics products.
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-20-12-1

bnoob
2020-12-09, 11:01:56
Ich finde echt krass WIE sehr die 6800 einfach nur im Powerlimit hängt, das ist am Ende schon mit Ref-Kühler der einzige limitierende Faktor ab Werk.

Wie ist denn der aktuelle Stand was Powerlimit aushebeln angeht?