PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15

Olliver
2022-12-14, 20:41:17
Gibts schon Benchmarks zu The Witcher 3 Next Gen 4080 vs 7900 XTX?

Nvidia sorgt halt für Bedarf an 4090.
Der Rest kann in 1K spielen, oder vielleicht QHD mit einer 4080:rolleyes:

Ätznatron
2022-12-14, 20:43:49
"Und da sehe ich eine 3090 nicht mal ansatzweise als Konkurrenz zu den hauseigenen Lovelace-Modellen."
Das ist natürlich klar, mir ging es nur um gleichviel € für weniger Ram Menge und performance.

Weniger Ram: stimmt

Weniger Performance: eher nicht

Letztlich: Es ist nur eine Abwägung, ob es einem den persönlichen € wert ist.

Wer will, macht's halt.

dargo
2022-12-14, 20:48:12
Ich bitte dich.

Es läuft auf meiner 4080 so unrund, dass ich die Installation fast schon bereue.

Was willst du da also vergleichen?
Für Troyan ist es die neue Messlatte. ;D

Achill
2022-12-14, 20:48:13
Weil es hier im Thread noch nicht verlinkt wurde, gibt auch ein Test von phoronix (https://www.phoronix.com/review/rx7900xt-rx7900xtx-linux) für die 7900er.

In short:
- Aktueller Linux 6.0 Kernel und Mesa 22.3 Stack reicht aus
- Aktuelle Firmware ist noch nicht in https://git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git
- Zen4 läuft nicht performant, Tests daher mit 5950X bei phoronix
- ROCm/HIP soll zeitnah unterstützt werden (bzw. wird?) und Michael will alsbald testen

Gibt ein paar Syn. Tests und dann auch welche mit DXVK/Proton sowie Quake II RTX und GeexLab für RT.

--
Für Linux-User die ein OSS Stack wollen dann natürlich die aktuell schnellste GPU ..

FYI @Linuxer .. laut phoronix.com (https://www.phoronix.com/news/RDNA3-AMDGPU-Firmware-Added) gibt es jetzt auch die FW für AMDGPU im kernel GIT (https://git.kernel.org/pub/scm/linux/kernel/git/firmware/linux-firmware.git/log/) und wird dann sicher die Tage auch in den Distros bereit stehen.

Ätznatron
2022-12-14, 20:51:32
Nvidia sorgt halt für Bedarf an 4090.
Der Rest kann in 1K spielen, oder vielleicht QHD mit einer 4080:rolleyes:

Nennt sich "Halo-Produkt", irgendwas halt, vielleicht aus einem fernen Universum, aber immer massenmarktuntauglich (obwohl: die Masse der Lovelace-Käufer greift zur 4090).

Und das wird da so vermarktet. Sowohl Ver- als auch Einkäufer können damit gut leben.

Ätznatron
2022-12-14, 20:52:21
Für Troyan ist es die neue Messlatte. ;D

Gruß an Troyan.

aceCrasher
2022-12-14, 22:17:11
Blöde OT Frage: War Raytracing eigentlich eine Idee von Nvidia, weil sie ihre komischen Tensorchips übrig hatten oder war Raytracing damals aktuell ein neues Direct X Feature und Nvidia hat nur ihre Chips so entworfen um die Anforderungen zu erfüllen?

Immer wieder dieser Blödsinn... Raytracing ist seit Jahrzehnten der heilige Grahl der PC Grafik und Nvidia hat sich für die 2018 Gen entschieden dass jetzt der Zeitpunkt ist an dem es realistisch umsetzbar ist.

Timbaloo
2022-12-14, 22:20:48
Tensorchips... da spricht der Experte.

Lawmachine79
2022-12-14, 23:04:41
Tensorchips... da spricht der Experte.
Ja, die haben soviel mit Raytracing zu tun wie Fappen mit Rückenmarkschwund.

Digidi
2022-12-14, 23:25:05
Wann bekommt Ihr eure Karten? Würde gerne mal wissen was hier raus kommt.


Zitat von Digidi Beitrag anzeigen
@Raff konntet ihr das mal Benchen? bei MultiDraW indirect sollte ja das doppelte Rauskommen und beschleunigt werden. Auch Mesh Shader wäre interessant, da es ja bei 3d Mark wohl defekt ist:

Hallo wer könnte sich mal mit einer 4090 die Zip hier runterladen und das durchbenchen? Wahrscheinlich geht nur Vulkan unter Windows 11 zumindest bei mir:

aufrühren dann per cmd ins dos Fenster und dann in dem Entpackten Ordner das aufrühren:
main_vk1.exe -fov 60 -subdiv 6 -mode 2 -meshlet 0

Rechts oben gibt es dann 5 Modie. Wäre gut wenn man das mal durchtestet.
https://tellusim.com/mesh-shader-emulation/
https://tellusim.com/mesh-shader-performance/
https://tellusim.com/mesh-shader/
https://tellusim.com/compute-raster/

Wenn jemand das mit einer 6900xt noch macht wäre auch nice.

Zur info eine 3070:
Mesh Instance Tris: 9.10 B/S
Mesh Prmitive 64x84: 5.5 B/s
Mesh Indexing: 64x84: 5,26 B/s
Mult DrawIndirext 64x84: 9.09 B/s
Mesh Shader: 9.21 B/s
Compute Shader: 14,48 B/s

BlacKi
2022-12-14, 23:52:32
Wann bekommt Ihr eure Karten? Würde gerne mal wissen was hier raus kommt.14. bis 17. wegen packetversand vor weihnachten. wär hättä äs gädacht.

Nightspider
2022-12-15, 04:59:38
Habe meine Karte Mittwoch Mittag bekommen und sie jetzt gut getestet.

BF1 in 5160*2160 bei Ultra mit ~~140fps

Star Citizen mit 5160*2160 rund 40-60fps aber da hatte der 5800X3D auch schon eine Auslastung von 85-90%.

In PUBG hatte ich nur um die 160fps in 3440*1440. Habs dabei belassen und im normalen Modus erstmal ein Chicken geholt, nach 1-2 Jahren Abstinenz. ^^

Ein paar ältere Spiele zeigen auf Radeons ein komisches Verhalten, je höher die Auflösung steigt, desto mehr krachen die frames in manchen Menüs oder beim aufrufen von ingame Overlays in den Keller. Ingame 160fps aber im Menü dann so ~10-20fps :ugly:
War bei Navi21 schon genauso.

In BF4 könnte ich theoretisch 7740*XXXX laufen lassen aber da haben ich im Spawnmenü fast einstellige fps. :usad:

BFV mit minimalen Anpassungen in 5160*2160 mit rund 120-145fps spielbar. DXR Unsinn deaktiviert und sieht dank HDR sehr schön aus.

Mit fast überall durchgehend 1,5x Downsamling auf dem QD-OLED in Widescreen machen die Games echt Laune. Hab jetzt richtig Bock wochenlang zu zocken wie in alten Zeiten. ^^
Genau so eine Qualität habe ich mir früher immer gewünscht. Jetzt kann ich mal richtig eintauchen in die Games.

Bandit3644
2022-12-15, 07:31:22
Gibts schon Benchmarks zu The Witcher 3 Next Gen 4080 vs 7900 XTX?

Hab nur das gefunden.
https://www.youtube.com/watch?v=HbFNQbXDfmE

Tangletingle
2022-12-15, 08:30:46
Stuttering because of stuttering. Holy fuck. Scheint ja auch auf nv stuttering aus der hölle zu haben. Warum released man sowas?

Redneck
2022-12-15, 09:04:31
Stuttering because of stuttering. Holy fuck. Scheint ja auch auf nv stuttering aus der hölle zu haben. Warum released man sowas?

die bescheidenen Frametimes habe ich auch mit meiner 6900xt.. hat also erstmal nichts mit der 7900er an sich zu tun.
So spiele ich es jedenfalls nicht weiter oder beginne nochmal von vorne.
gestern noch ein anderes YT Video von einem Game Mag gesehen.. die haben die non RT Fassung sogar verschlechtert, was die Schatten betrifft. Die sind im Original nämlich gut ausgeprägt , in der complete Edition aber fast nicht mehr zu erkennen. Bug oder Feature ?

Tangletingle
2022-12-15, 09:07:14
Bug oder Feature ?

Dollars sind grün.

Olliver
2022-12-15, 09:33:20
Wie erwartet hat sich cdp von nvidia helfen lassen eine lovelace Grafikdemo zu produzieren.
Es sieht toll aus und bei meiner 3090 habe ich mit QHD und dlss auf balanced, um die 60 fps.
Es läuft unrund und bräuchte 4k, dlss quality & mehr FPS, sprich die Anforderungen sind auf Cyberpunk Niveau.
Aber schön ist es trotzdem.

Olliver
2022-12-15, 09:39:20
Äh, außerdem kann man gleichzeitig "schärfen" und "weichzeichnen" aktivieren.
Kommt mir vielleicht nur komisch vor.

Ätznatron
2022-12-15, 09:46:19
Wie erwartet hat sich cdp von nvidia helfen lassen eine lovelace Grafikdemo zu produzieren.
Es sieht toll aus und bei meiner 3090 habe ich mit QHD und dlss auf balanced, um die 60 fps.
Es läuft unrund und bräuchte 4k, dlss quality & mehr FPS, sprich die Anforderungen sind auf Cyberpunk Niveau.
Aber schön ist es trotzdem.

Das sind diskutable Äußerungen.

Mir bspw. hat es ohne das neue Gedöns mindestens genau so gut gefallen, wenn nicht sogar besser.

Alter Wein in neuen Schläuchen halt.

CDPR hat sich allerhöchstens einen finanziellen Gefallen damit getan.

Dural
2022-12-15, 10:04:41
A0 ist bei AMD/ATi übrigens wie A1 bei NV, die zählen anders.

Olliver
2022-12-15, 10:08:32
Das sind diskutable Äußerungen.

Mir bspw. hat es ohne das neue Gedöns mindestens genau so gut gefallen, wenn nicht sogar besser.

Alter Wein in neuen Schläuchen halt.

CDPR hat sich allerhöchstens einen finanziellen Gefallen damit getan.

Objektivität kann ich nicht beanspruchen, aber in der Natur in den RT Sonnenuntergang reiten, da werde ich spießig :smile:

Lawmachine79
2022-12-15, 10:12:18
BFV mit minimalen Anpassungen in 5160*2160 mit rund 120-145fps spielbar. DXR Unsinn deaktiviert und sieht dank HDR sehr schön aus.


Macht doch noch den AA & AF-Unsinn aus und stell' die Details auf Medium, vielleicht sieht es dann noch besser aus.

Loeschzwerg
2022-12-15, 10:42:50
A0 ist bei AMD/ATi übrigens wie A1 bei NV, die zählen anders.

Intel fängt auch mit A0 an.

dargo
2022-12-15, 12:14:59
Ein paar ältere Spiele zeigen auf Radeons ein komisches Verhalten, je höher die Auflösung steigt, desto mehr krachen die frames in manchen Menüs oder beim aufrufen von ingame Overlays in den Keller. Ingame 160fps aber im Menü dann so ~10-20fps :ugly:
War bei Navi21 schon genauso.


Nee... also bei mir definitiv noch nie. Höre ich zum ersten Mal.

dargo
2022-12-15, 15:42:04
Leider erstmal nur langweiliges Unboxing zum Nitro+ Klopper.

https://youtu.be/ymXKGv1nXpc

Es dürfte aber bald genug Videos mit eingeblendetem Overlay zur Karte von dem Typen geben, der veröffentlich regelmäßig Gameplayvideos.
Da haben wir schon was.
rW17ctbpfvs

Der Typ blendet aber die Lüfterdrehzahl gar nicht ein, nur die Prozentwerte. ;(

Dural
2022-12-15, 15:46:57
Intel fängt auch mit A0 an.

Ich wollte es nur kurz erwähnen da man schon überall "Beta Stepping" liest ;)

dargo
2022-12-15, 15:53:56
XFX RX 7900 XT Speedster MERC 310 Test

8MVWXOKhhro

Lüfterkurve offenbar vom AIB zu aggressiv eingestellt per Default.

Loeschzwerg
2022-12-15, 16:14:46
Ich wollte es nur kurz erwähnen da man schon überall "Beta Stepping" liest ;)

N31 hat auch sicherlich seine Probleme, aber AMD hat sich bewusst entschieden so ins Rennen zu gehen. Ob eine neue Revision zeitlich reingepasst und letztendlich ein besseres Gesamtbild abgeliefert hätte... keine Ahnung. Aber genau diese Geschichten und Probleme drumherum machen für mich Hardware erst so interessant :)
Je mehr Fail, je mehr Punkte aufgedeckt werden, desto besser :freak: Völlig durch, ich weiß ^^

---

https://www.cowcotland.com/news/84482/msi-ne-semble-pas-proposer-de-radeon-rx-7900-xt-et-7900-xtx-a-la-vente.html

Wirft MSI das Handtuch? Keine RX 7000 zu sehen und die RX 6000 war angeblich ein Minusgeschäft.

Troyan
2022-12-15, 16:46:45
Naja, Custom 7900XT Karten machen kein Sinn und und teure 7900XTX Karten müssen sich mit der besseren 4080 rumschlagen, wo nVidia von den AIBs verlangt mindesten eine Version zu UVP anbieten zu müssen.

dargo
2022-12-15, 16:49:04
Ist das wieder die Troyan Logik? ;D
https://hardware-helden.de/radeon-rx-7900-xtx-customs-designs-im-ueberblick/

Troyan
2022-12-15, 16:52:14
Und warum sollte man eine kaufen, wenn man zum selben Preis die 7900XTX im Referenzdesign erhält?

dargo
2022-12-15, 16:53:01
Weil nicht jeder nur auf schnöde fps schaut?

Troyan
2022-12-15, 16:57:22
Auf was sonst? Niemand zieht eine 7900XT Custom-Karte einer gleichteuren 7900XTX Referenz vor.

dildo4u
2022-12-15, 16:57:29
7900 XTX Nitro+ Test


https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/

r3ptil3
2022-12-15, 16:59:07
Sapphire Nitro+ RX 7900 XTX Review auf Techpowerup (https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/)

https://i.ibb.co/q5WGHtt/image.png

https://tpucdn.com/review/sapphire-radeon-rx-7900-xtx-nitro/images/cooler-performance-comparison.png

Sieht ok aus die Kühlleistung.
Schade dass ASUS nicht die Strix bringt. Die wäre wohl mit 1000 RPM bei 50°. :D


Mit neustem Treiber und immer noch sowas:
https://tpucdn.com/review/sapphire-radeon-rx-7900-xtx-nitro/images/power-video-playback.png

Zudem vermute ich, dass die Leistungsaufnahme gerade in WQHD und tiefer, nicht einfach mal so "gefixt" werden kann - mal schauen, ob das vielleicht sogar architekturbedingt ist.

Troyan
2022-12-15, 17:04:13
Die Karte benötigt 80W mehr für 3% mehr Leistung - hä?

BlacKi
2022-12-15, 17:08:31
Zudem vermute ich, dass die Leistungsaufnahme gerade in WQHD und tiefer, nicht einfach mal so "gefixt" werden kann - mal schauen, ob das vielleicht sogar architekturbedingt ist.


ob man mit einem profil mit reduziertem takt den verbrauch runter bekommt? z.b. absenkung auf 300mhz?

r3ptil3
2022-12-15, 17:11:07
Die Karte benötigt 80W mehr für 3% mehr Leistung - hä?

Dieses OC der AIBs kann man sowieso vergessen, ganz egal ob Nvidia oder AMD. Sieht überall gleich bescheiden aus.

Was da zählt ist letztendlich die Kühlleistung, Verbrauch möglicher verbauter Komponenten (Beleuchtung). Siehe MSI Suprim, eine reine Katastrophe was die Beleuchtung an Strom zieht.

Der normierte Kühlervergleich von Techpowerup bildet schon mal eine sehr gute Basis, welche sich andere Tester als Vorbild nehmen können.

Mich interessiert die Leistungsaufnahme der XTX mit max. UV bei ca. 250W, am besten noch mit FPS-Lock bei 120 und 240 FPS in WQHD und 4k.

ob man mit einem profil mit reduziertem takt den verbrauch runter bekommt? z.b. absenkung auf 300mhz?

Gute Frage - wenn das der Fall wäre, dann wäre das ja ein Armutszeugnis für AMD, dass man sowas nicht bemerkt, was ich aber nicht so recht glaube.

Wenn man bei Igorslab schaut, dann ist der Verbrauch im Gaming in WQHD (vermutlich auch tiefer) wirklich miserabel.
Da ist eine RTX 4080/4090 teilweise bei der Hälfte des Verbrauchs, wenn nicht sogar noch weniger.

Beispiel:
Day Gone in WQHD bei mir mit max. Settings, und FPS-Lock auf 120 FPS: oft unter 100W mit der RTX 4090.
Wie sieht das mit der XTX aus?

BlacKi
2022-12-15, 17:13:51
D
Mich interessiert die Leistungsaufnahme der XTX mit max. UV bei ca. 250W, am besten noch mit FPS-Lock bei 120 und 240 FPS in WQHD und 4k.+1


wenn ich glück habe bringt mir hermes morgen mein xtx referenzmodell, und ich kann wenigstens damit testen.

dargo
2022-12-15, 17:15:19
Sapphire Nitro+ RX 7900 XTX Review auf Techpowerup (https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/)

https://i.ibb.co/q5WGHtt/image.png

https://tpucdn.com/review/sapphire-radeon-rx-7900-xtx-nitro/images/cooler-performance-comparison.png

Sieht ok aus die Kühlleistung.

Also 1480RPM finde ich nicht leise (genug). Wenn ich dann aber sehe 72°C Hotspot... WTF? Wenn man hier die gleichen 86°C Hotspot wie bei der TUF zulässt dürften die Lüfter bei <1000RPM rauskommen. Was zum Teufel treiben die AIBs da mit ihren Lüftersteuerungen würde ich gerne wissen.

r3ptil3
2022-12-15, 17:24:31
+1


wenn ich glück habe bringt mir hermes morgen mein xtx referenzmodell, und ich kann wenigstens damit testen.

Dann bin ich mal gespannt.

Wollte mir auch die Referenz kaufen für ein kleines ITX Build, sogar auch die XT in Betracht gezogen, da ja noch kleiner, aber diese Teillast-Verbrauchswerte schockieren mich regelrecht.

Ist das Morepowertool mit RDNA3 eigentlich schon kompatibel?

Achte bitte mal auf folgendes:
- Spulenfiepen mit UV (die XTX soll ja anscheinend regelrecht lautstark kreischen / sollte mit UV bestenfalls fast komplett eliminiert werden)
- vermutlich kannst du bei unter 250W den Lüfterspeed im Treiber auf das Minimum stellen (= unhörbarer Betrieb unter Last, so lief auch meine RX 6900 durchgehend unter Last)

RoNsOn Xs
2022-12-15, 17:30:20
Neu und günstig:
https://www.equippr.de/asus-radeon-rx-7900-xt-20-gb-gddr6-retail-2109581.html

Tangletingle
2022-12-15, 19:27:47
ob man mit einem profil mit reduziertem takt den verbrauch runter bekommt? z.b. absenkung auf 300mhz?
War bei der letzten 7900er Reihe auf jeden Fall beinhöheren Bildwiederholraten auch notwendig. Hat AMD bei der 7950/70 nie gefixt. Der ramtakt ging bei wqhd >72hz nie nach unten. Mit passendem Profil war es aber überhaupt kein Problem.

Linmoum
2022-12-15, 19:32:11
Gibt's eigentlich irgendein Review, wo die XTX mit 300W gebencht wurde? Würde mich gerade vor dem Hintergrund der Perf/Watt-Angabe von AMD mal interessieren, die das ja auf der Grundlage gemacht haben.

N0Thing
2022-12-15, 19:41:27
Gibts schon Benchmarks zu The Witcher 3 Next Gen 4080 vs 7900 XTX?

Kannst ja mal bei den Community Benchmarks bei Computerbase vorbeischauen:

https://www.computerbase.de/2022-12/the-witcher-3-next-gen-update-benchmarks/#abschnitt_benchmarks_mit_preset_rt_ultra

Taigatrommel
2022-12-15, 21:26:22
Also die Berichte bezüglich des Spulenpfeifens sind jedenfalls nicht übertrieben. Meine 6900 XT (Referenz) hat ja schon ganz gut geschnattert, doch die XTX übertrifft die nochmals.

dargo
2022-12-15, 21:27:58
Tjo... ein weiterer Grund die Referenz zu meiden. :cool:

Troyan
2022-12-15, 21:44:34
Kannst ja mal bei den Community Benchmarks bei Computerbase vorbeischauen:

https://www.computerbase.de/2022-12/the-witcher-3-next-gen-update-benchmarks/#abschnitt_benchmarks_mit_preset_rt_ultra

Oder bei PurePC.pl: https://www.purepc.pl/wiedzmin-3-dziki-gon-next-gen-test-wydajnosci-kart-graficznych-potworne-wymagania-sprzetowe-z-ray-tracingiem

Ätznatron
2022-12-15, 22:03:00
Oder bei PurePC.pl: https://www.purepc.pl/wiedzmin-3-dziki-gon-next-gen-test-wydajnosci-kart-graficznych-potworne-wymagania-sprzetowe-z-ray-tracingiem

Ja genau.

Und jetzt, vorsicht: der Google-Übersetzer

Das absolute Maximum (Uber+ / HW / RT / TAUU) erfordert bereits bei 1920 x 1080 eine Karte wie NVIDIA GeForce RTX 3080, während 2560 x 1440 nur auf NVIDIA GeForce RTX 4090 problemlos funktioniert. Wenn Sie an 3840 x 2160 denken, brauchen Sie nicht nur NVIDIA GeForce RTX 4090 oder NVIDIA GeForce RTX 4080, aber vor allem die Integration von NVIDIA DLSS mit Frame Generation plus NVIDIA Reflex. Dann sind beim schwächeren Ada-Loevalce-Modell 60 Bilder pro Sekunde möglich. Leider... The Witcher 3: Wild Hunt Next Gen im DirectX 12-Modus ist launenhafter und unberechenbarer als Roach. Es gibt Artefakte, Leistungseinbrüche, zufällige Programmabschaltungen und viele andere Anomalien. Das Ganze sieht schön aus, erfordert aber eine solide Optimierung und Politur des Codes. Die Frage ist nur, ob CD Projekt RED diese Aufgabe bewältigen wird?

Does anyone know Roach?

Exxtreme
2022-12-15, 22:07:12
Płotka ist ein Fisch. In deutsch heist er "Plötze".

Ätznatron
2022-12-15, 22:12:51
Płotka ist ein Fisch. In deutsch heist er "Plötze".

Ja, wie man seine Lastesel halt nennt.

nordic_pegasus
2022-12-15, 22:19:24
Also die Berichte bezüglich des Spulenpfeifens sind jedenfalls nicht übertrieben. Meine 6900 XT (Referenz) hat ja schon ganz gut geschnattert, doch die XTX übertrifft die nochmals.

wenn ich mich daran erinnere, wie ich im Speku-Thread gebasht wurde, weil ich das 6900XT Referenz-Design genau dafür kritisiert hatte. Wenn die Dinger Schnarren, dann richtig. Genauso ist es anscheinend beim 7900XTX Design. Sicherlich bei manchen Testern / Besitzern durchaus leise, aber wenn es schnarrt, dann geht es ab. So wenig ich Nvidia mag wegen der Preispolitik, aber die FE Karten sind einfach wertiger als die MBA Karten.

Und ich bleibe dabei, dass liegt zum Großteil an der schlechten Eingangsfilterung der Phasen. Ferner hat AMD das Design mit 2x8pin an der Kante genähnt. Igor meinte dazu, dass alleine schon 3x8pin hier geholfen hätten.

Leider saufen wiederum die Custom-Karten deutlich mehr. Wobei ich auch von Asus die Finger lassen werde, hier gibt es auch schon negative Berichte zu den elektrischen Nebengeräuschen. War bei den Ada Karten auch so (siehe Review von Roman zur 4080 TUF).

Ich setze meine Hoffnung auf die Nitro. Sapphire ist zumindest bislang noch nie mit extremen Rasseln aufgefallen. Eine 6900XT Nitro, die ein Kollege vor 2 Jahren getestet hatte, war die leiseste Karte, die er jemals bezogen auf Spulen hatte.

dargo
2022-12-15, 22:25:46
Leider saufen wiederum die Custom-Karten deutlich mehr.

Da musst du immer auf das alternative Bios bei den Customs achten. Diese halten sich an die PTs der Referenz oder sind nur leicht drüber. Und -10% PT geht eh über den Treiber, später mit MPT bestimmt auch mehr.

Edit:
Bei der Nitro+ sieht man das auch ganz gut.
https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/35.html

Mit dem zweiten Bios ist der Hotspot 8°C kühler obwohl sich an der Drehzahl der Lüfter kaum was geändert hat, 44RPM Delta ist ja nichts. Ich würde grob schätzen im zweiten Bios säuft die Karte ~60-70W weniger.

MSABK
2022-12-15, 23:22:38
Da musst du immer auf das alternative Bios bei den Customs achten. Diese halten sich an die PTs der Referenz oder sind nur leicht drüber. Und -10% PT geht eh über den Treiber, später mit MPT bestimmt auch mehr.

Edit:
Bei der Nitro+ sieht man das auch ganz gut.
https://www.techpowerup.com/review/sapphire-radeon-rx-7900-xtx-nitro/35.html

Mit dem zweiten Bios ist der Hotspot 8°C kühler obwohl sich an der Drehzahl der Lüfter kaum was geändert hat, 44RPM Delta ist ja nichts. Ich würde grob schätzen im zweiten Bios säuft die Karte ~60-70W weniger.

Boah, der Steomverbrauch ist ja doch schon enorm. Da scheint mir persönlich RDNA2 aktuell noch die schlauere Wahl zu sein.

anddill
2022-12-15, 23:41:27
Hat schon jemand irgendwo das Tool für die RGB-LED Einstellungen für die 7900er Karten gesehen? Das alte Coolermaster Tool für die RX 6900 ist nicht mehr kompatibel.

dius31
2022-12-16, 00:14:06
Hat schon jemand irgendwo das Tool für die RGB-LED Einstellungen für die 7900er Karten gesehen? Das alte Coolermaster Tool für die RX 6900 ist nicht mehr kompatibel.


Hi...probiere mal folgendes
https://www.computerbase.de/downloads/systemtools/openrgb/

Winter[Raven]
2022-12-16, 01:18:09
Wieso? Das PLV beider Karten ist besser als bei der RTX 4080 (solange man Raytracing ausklammert).

MfG
Raff

Sorry Raff, aber wo enden wir, wenn wir anfangen Features auszuklammern?

Ich mein, klar, Motor, Reifen....:biggrin:

Nightspider
2022-12-16, 02:04:53
Gerade 3 Stunden mit einem alten Freund über Discord gequatscht und eben mal so einfach die Adrenalin Metrik aufgerufen und sehe die 120W Verbrauch der Karte, obwohl ich nix mache außer zu telefonieren. x)

Karte ist 66°C heiß im Windows x)

Lüfter drehen mit 570rpm

horn 12
2022-12-16, 02:55:59
Hört man die Lüfter dann mit diesen Umdrehungen
Hast die AMD RTX 7900 XTX und unter Games Spulenrasseln, Fiepen festgestellt

Bitte Revision C0 oder C8 _C9
Welche Revision hat deine Karte

PS:
Die Sapphire Nitrro+ geht ja bereits auf 3,1 Ghz hoch.

Nightspider
2022-12-16, 03:07:49
Nee ich hör da nix.

Spulenfiepen höre ich nicht aber ich bin in diesen Frequenzen auch nicht sehr empfindlich.

Selbst wenn ich beide Monitore zum Test auf 60Hz stelle, werden mir 120-125 Watt angezeigt im Idle, wenn alles Programme geschlossen sind und nur die Radeon Software Metrik angezeigt wird. :|

horn 12
2022-12-16, 03:15:59
Danke schonmal, und auch die Ersten Spiele-Minuten KEIN Spulenfiepen?
Die Revision GPU-Z - Was wird dir da bitte als Revision angezeigt?

Taigatrommel
2022-12-16, 03:40:13
Also ich höre gerade in den ersten Minuten (wobei Minuten übertrieben ist) das Spulenfiepen, da die Lüfter ja noch nicht richtig hochdrehen. Sobald diese dann mal richtig angelaufen sind, wird das Geräusch natürlich teilweise geschluckt, ist für mich jedoch noch immer wahrnehmbar. Da wird jedoch jeder Mensch unterschiedlich drauf reagieren.

Ich muss auch dazu sagen, dass ich alles andere als einen Silent-PC habe, sprich meine Gehäuselüfter fahren generell ebenfalls gut hoch. Bei wem es leise bleibt, wird natürlich mit dem Schnarren um so mehr kämpfen. Sicherlich wird es auch irgendwo wieder vom verwendeten NT abhängen.

Was mir jedoch kurioserweise sofort aufgefallen ist: Mein G8 OLED schaltet jetzt mit der XTX sofort ein, wenn ich den Rechner starte. Mit der 6900 XT ließ er sich generell immer Zeit, bis zumindest der Win 10 Login Bildschirm angezeigt wurde.

Nightspider
2022-12-16, 06:13:48
C8

Das mit dem Spulenfiepen müsste ich später nochmal testen oder besser gesagt lauschen.

horn 12
2022-12-16, 06:40:05
Danke für C8

PS: Du schläfst wohl auch kaum wie ich :-)

Nightspider
2022-12-16, 07:13:02
Ist C8 das jetzt gut oder schlecht? :D

anddill
2022-12-16, 07:19:24
Nee ich hör da nix.

Spulenfiepen höre ich nicht aber ich bin in diesen Frequenzen auch nicht sehr empfindlich.

Selbst wenn ich beide Monitore zum Test auf 60Hz stelle, werden mir 120-125 Watt angezeigt im Idle, wenn alles Programme geschlossen sind und nur die Radeon Software Metrik angezeigt wird. :|

Jo, die heizt gut, Egal ob und was man macht.
Ist immer gerade noch so anfassbar. Schön zum Gas sparen...
Ich hab mich gestern erschrocken als ich das erste mal ein Spiel gestartet habe. Da Ding fauchte los wie ein Staubsauger. War aber die alte "laut" Einstellung (Ehemals Rage Mode) in der Adrenalin-Software von der vorherigen RX 6900XT. Hat die Software übernommen und die 7900er hat da etwas komisch drauf reagiert.
Reset auf Standard hat das Problem beseitigt. Aber auch im Standard Lüfterprofil ist sie deutlich lauter als die vorherige RX 6900XT Referenz Karte, die praktisch unhörbar war. Zum Glück ist sie trotzdem nicht lauter als der ganze andere Kram der im PC und im Raum so vor sich hinsummt.

dildo4u
2022-12-16, 11:34:18
Noch ein Test der Nitro+ diesmal 3Ghz bei eingestellten 3.2.
Kann sein das der Takt real anliegt nicht 3.2 wie bei techpowerup.

https://www.guru3d.com/articles_pages/sapphire_radeon_rx_7900_xtx_nitro_review,30.html

Digidi
2022-12-16, 12:34:43
Kann das jemand mit der 7900xtx mal testen was dann hier rauskommt. Der Test ist etwas Raler

Bitte wenns geht mit den Einstellungen von Niall testen, das wir das zuer 4090 vergleichen können. Er hatte eine Auflösung von 1600x900

https://www.forum-3dcenter.org/vbull...postcount=2318

Zitat:
Jemand Interesse noch einen weiteren Benchmark ruchzuführen? Mal sehen ob die 4090 4.000.000 Asteoriden rändern kann. Werr das noch auf die Spitze heben kann verwendet LOD Bias 6 (noch mehr Polygonen). Wäre auch hier mal interessant was besser läuft. Vulkan oder DX12 ? Mesh Shader oder Compute Shader.

Zur Info. Bei Vulkan funktioniert bei Show nicht wenn man Sensor und Info auswählt. Nutzt am besten die Settings unten.

https://gravitymark.tellusim.com/

Achtung die Meldung im Hintergrund darf man nicht schließen sonst geht der Benchmark nicht.

https://www.forum-3dcenter.org/vbull...postcount=2318

r3ptil3
2022-12-16, 13:16:36
Noch ein Test der Nitro+ diesmal 3Ghz bei eingestellten 3.2.
Kann sein das der Takt real anliegt nicht 3.2 wie bei techpowerup.

https://www.guru3d.com/articles_pages/sapphire_radeon_rx_7900_xtx_nitro_review,30.html


Takt im Treiber ≠ realer Takt
Für 3200 Mhz realen Takt, brauchts ein Powerlimit von ca. 500W.
Ob die Karte das dann auch hinkriegt, hängt aber auch von anderen Dingen ab.

w0mbat
2022-12-16, 13:38:37
Ist C8 das jetzt gut oder schlecht? :D
Ich glaube alle aktuellen Karten sind C8.

Taigatrommel
2022-12-16, 13:57:02
Jo, die heizt gut, Egal ob und was man macht.
Ist immer gerade noch so anfassbar. Schön zum Gas sparen...
Ich hab mich gestern erschrocken als ich das erste mal ein Spiel gestartet habe. Da Ding fauchte los wie ein Staubsauger. War aber die alte "laut" Einstellung (Ehemals Rage Mode) in der Adrenalin-Software von der vorherigen RX 6900XT. Hat die Software übernommen und die 7900er hat da etwas komisch drauf reagiert.
Die Adrenalin Software scheint generell etwas eigen zu sein, habe gestern die Spannung reduziert, wohlgemerkt nur die Spannung. Kaum übernommen, jaulten die Lüfter direkt auf und wirbelten binnen kürzester Zeit mit über 2700 rpm. Offenbar verändert der Treiber nunmehr die Lüfterkurve, sobald man eine benutzdefinierte Einstellung vornimmt. Wenn man die Geschwindigkeit händisch wieder auf 50-60% senkt, beruhigt sie sich wieder. Ich kann übrigens schon einmal sagen, dass 1050mV zu wenig für meine Karte sind. Ein kurzer Test gestern zeigte mit 1075mV zumindest auf den ersten Blick hoffnungsvolle Ergebnisse. Betreibe sie gerade mit 1065mV, mal schauen, wie gut das funktioniert.

Das von dius31 gepostete OpenRGB Tool funktioniert leider nicht, es erkennt zwar mein Mainboard und meinen Speicher, doch nicht die Grafikkarte. AMD selbst bietet offenbar noch nichts an. Ist zwar nur eine eher nichtige Kleinigkeit, doch ich finde es schon eine schwache Leistung, dass man da zum Launch nichts bereitstellt. Man hatte ja nun mehrere Wochen Zeit dafür.

Achill
2022-12-16, 14:45:31
Noch eine Linux News zum Stand rund um ROCm und OpenCL Performance .. Laut phoronix (https://www.phoronix.com/news/Radeon-ROCm-5.4.1) ist ROCm 5.4.1 released und unterstützt die 7900er GPUs. Haben auch schon ein paar Tests (https://www.phoronix.com/review/rx7900-blender-opencl) mit einer aktuellen Blender Version gemacht.

Es gibt noch kein OptiX äquivalent auf AMD & Intel Seite, aber OpenCL unter Linux hat einen deutlichen Satz nach vorn gemacht (zumindest in Blender, gibt noch keine anderen Tests). Bzgl. OptiX äquivalent ist wohl auch schon etwas geplant, unklar natürlich wie die Performance aussehen wird bei AMD und Intel: https://devtalk.blender.org/t/2022-09-20-render-cycles-meeting/25914

Ein paar Daten, mehr im Artikel: https://www.phoronix.com/review/rx7900-blender-opencl

https://openbenchmarking.org/embed.php?i=2212153-NE-BLENDER7902&sha=144b9f776819&p=2

https://openbenchmarking.org/embed.php?i=2212153-NE-BLENDER7902&sha=5ed7652a1a0a&p=2

Mangel76
2022-12-16, 16:53:35
Meine XT ist heute gekommen. Ist klein gegen meine XFX 6800! Was mir aufgefallen ist: rBar lässt sich nicht aktivieren, angeblich nicht verfügbar. Hat noch jemand dieses Problem?

aufkrawall
2022-12-16, 16:57:42
Es gibt noch kein OptiX äquivalent auf AMD & Intel Seite, aber OpenCL unter Linux hat einen deutlichen Satz nach vorn gemacht (zumindest in Blender, gibt noch keine anderen Tests).
Das ist kein OpenCL mehr. OpenCL ist komplett aus Blender rausgeflogen.

Maestrox
2022-12-16, 16:57:51
Meine XT ist heute gekommen. Ist klein gegen meine XFX 6800! Was mir aufgefallen ist: rBar lässt sich nicht aktivieren, angeblich nicht verfügbar. Hat noch jemand dieses Problem?

Habe rbar aktiviert auf einem b350 mit der 7900xtx. Vorher DDU rüber gejagt.

Taigatrommel
2022-12-16, 17:00:22
Meine XT ist heute gekommen. Ist klein gegen meine XFX 6800! Was mir aufgefallen ist: rBar lässt sich nicht aktivieren, angeblich nicht verfügbar. Hat noch jemand dieses Problem?
Also zumindest bei meiner XTX hat die Software SAM weiterhin aktiv, Mainboard ist ein Gigabyte Aorus Gaming Master X570 mit aktuellstem BIOS.

Nuon
2022-12-16, 17:17:55
Mich würde interessieren, wie die XT(X) in dem Unreal 5.1 Bench abschneidet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=612642&page=3
Hier hat die 6900XT@2800Mhz 53fps gegenüber einer 3080 mit ~38fps und einer 4090 mit 66fps.

Achill
2022-12-16, 17:51:36
Das ist kein OpenCL mehr. OpenCL ist komplett aus Blender rausgeflogen.

Ja, das war von mir nicht gut formuliert. Der ROCm Stack umfasst u.a. HIP und OpenCL. Mit dem besagten Release von ROCm gibt es für die 7900er jetzt besagten Support unter Linux. Ja, Blender nutzt bei AMD HIP um die CUDA-Implementierung zu nutzen, im verlinkten Artikel gibt es Benchs zu Blender (mit HIP) und danach auch OpenCL Tests worauf ich mich bzgl. dem Sprung bei OpenCL bezogen habe.

BlacKi
2022-12-16, 18:52:32
gerade rechner umgebaut, denn die xtx ist da.



also, 4k 120hz idle verbrauch 28w. video playback 4k youtube 83w.


nicht gut, aber keine absolute katastrophe. bei 4k youtube liegen kaum mhz an und auch kaum voltage, wenn man der amd software trauen kann. ob amd das fixt bekommt?



Was mir aufgefallen ist: rBar lässt sich nicht aktivieren, angeblich nicht verfügbar. Hat noch jemand dieses Problem?


das problem hatte ich auch. im bios alles aktiv gestellt. windows nach dem 1 boot wars off, nach dem neustart wars immer noch off.


dann 3. boot, plötzlich aktiv. keine ahnung.

Der_Korken
2022-12-16, 19:23:15
nicht gut, aber keine absolute katastrophe. bei 4k youtube liegen kaum mhz an und auch kaum voltage, wenn man der amd software trauen kann. ob amd das fixt bekommt?

Ich glaube die Probleme kamen bisher immer vom VRAM. Die einzigen Karten, wo der 2D-Verbrauch überraschend gut war, waren die Vega-Karten mit HBM. Mit RDNA und GDDR6 gab es direkt wieder einen Rückschritt. Mit den Chiplets jetzt scheint das Power-Management ziemlich kaputt zu sein. Vermutung: Sobald die Last auf den Speicher eine gewissen Schwelle überschreitet, taktet der volle Pulle hoch, so als ob Volllast wäre und das braucht gegenüber den 6900er Kartet jetzt eben 80W statt 60W. Die kleineren RDNA2-Karten haben alle entsprechend weniger gebraucht, weil sie ein kleineres Speicherinterface hatten: https://www.computerbase.de/2021-10/amd-radeon-rx-6600-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

In Youtube 4K60:
N21 256bit -> 60W
N22 192bit -> 45W
N23 128bit -> 30W
N31 384bit -> rechnerisch 90W, praktisch leicht drunter

Dass man solche Sachen nach so vielen Jahren nicht gefixt bekommt (Nvidia ja offenbar auch nicht), kann ich nicht verstehen. Es ist doch nicht so, dass man das Rad bei jedem Chip neu erfinden müsste was Stromsparmechanismen für den VRAM und den IMC angeht. Bei den Ryzens auf Chiplet-Basis vermutet man auch, dass der IMC für die üblen Idle-Verbräuche von 20-30W verantwortlich ist.

BlacKi
2022-12-16, 20:41:21
die chiptemp macht viel aus. und bzw. oder die lüfter.

wenn der chip warm ist und die lüfter laufen sind es 89w.

das man weder das powerlimit noch den vram untertakten kann ist lächerlich. nichtmal ein bisschen geht der vram runter. wenigstens bei youtube liegt der takt nur bei 909mhz.

anddill
2022-12-16, 21:01:27
Mein VRAM ist bei 2485MHz festgenagelt. , die Karte zieht knapp 120W, egal was ich am Desktop mache. Ich habe einen 1440p 165Hz Monitor und einen 1080p 60Hz vertikal daneben.

Tangletingle
2022-12-16, 21:02:09
Kann man den vram nicht manuell untertakten?

Evtl. Funktionieren ja die Schnittstellen die clockblocker genutzt hat noch. Kann man ja mal testen.

BlacKi
2022-12-16, 21:04:14
Kann man den vram nicht manuell untertakten?weder mit dem adrenalin, noch mit dem afterburner.

dargo
2022-12-16, 21:07:59
Ohne MPT-Support ist so eine Karte eben "langweilig". ;) Hab noch nie diese überhasteten Käufe verstanden.

BlacKi
2022-12-16, 21:17:25
also ich hab mal underclocked und undervoltet. 2ghz 0,7v, geht, aber schluckt halt immernoch bis zu 265w, bei avg 220w. leider kann man das powerlimit nicht vernünftig regeln.



Ohne MPT-Support ist so eine Karte eben "langweilig". ;) Hab noch nie diese überhasteten Käufe verstanden.


kann die karte morgen bei ebay für 1400€+ reinstellen, oder innerhalb 14 tagen zurückschicken. ein fehler ist das für mich auf keinen fall, egal wie.


und testen macht spass.

Bandit3644
2022-12-16, 21:19:39
Bin mal gespannt was da noch raus kommt.

https://www.hardwaretimes.com/amd-radeon-rx-7900-gpus-have-dysfunctional-shader-prefetch-units-which-may-or-may-not-be-fixed/

raffa
2022-12-16, 21:48:00
Mein VRAM ist bei 2485MHz festgenagelt. , die Karte zieht knapp 120W, egal was ich am Desktop mache. Ich habe einen 1440p 165Hz Monitor und einen 1080p 60Hz vertikal daneben.

So recht einleuchten will mir das nicht.
haben die denn da keine Werkstudenten, die sie da mal dransetzen können?

Die Karten haben so viel Rechenleistung, die machen den Kram doch mit links. Muss doch möglich sein, halbwegs effizient auf dem Desktop zu sein.
120Watt, das ist in etwa so viel wie eine rx 6600 unter Vollast, 2x soviel wie ein Thinkpad X1 g10 (mit Bildschirm, Cpu...)

Freilich wird man immer mehr brauchen, als mit ner kleinen Karte, aber das ist hart ineffizient -
davon ab würd ich mir auch immer einen "sweetspot" Ableger wünschen, so wie bei der R9 Nano damals.
hier also etwas wie eine rx 7900 EE mit ~200W TBP

Digidi
2022-12-16, 21:57:17
@Anddill kannst du das bitte einmal benchen. Würde mir sehr helfen. Danke


Kann das jemand mit der 7900xtx mal testen was dann hier rauskommt. Der Test ist etwas Raler

Bitte wenns geht mit den Einstellungen von Niall testen, das wir das zuer 4090 vergleichen können. Er hatte eine Auflösung von 1600x900

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318
Zitat:

Zitat:
Jemand Interesse noch einen weiteren Benchmark ruchzuführen? Mal sehen ob die 4090 4.000.000 Asteoriden rändern kann. Werr das noch auf die Spitze heben kann verwendet LOD Bias 6 (noch mehr Polygonen). Wäre auch hier mal interessant was besser läuft. Vulkan oder DX12 ? Mesh Shader oder Compute Shader.

Zur Info. Bei Vulkan funktioniert bei Show nicht wenn man Sensor und Info auswählt. Nutzt am besten die Settings unten.

https://gravitymark.tellusim.com/

Achtung die Meldung im Hintergrund darf man nicht schließen sonst geht der Benchmark nicht.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318

Nightspider
2022-12-16, 21:57:56
Deine Links gehen bei mir nicht.

Digidi
2022-12-16, 21:58:59
Deine Links gehen bei mir nicht.
Benchmark gibts hier:

https://gravitymark.tellusim.com/

Und hier die Settings von Niall

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318

BlacKi
2022-12-16, 22:25:20
standard config

https://abload.de/thumb/gm1ybi12.jpg (https://abload.de/image.php?img=gm1ybi12.jpg)

Digidi
2022-12-16, 23:07:28
standard config

https://abload.de/thumb/gm1ybi12.jpg (https://abload.de/image.php?img=gm1ybi12.jpg)

Danke Blacki was bekommst du denn raus wenn du MS für Mesh Shader stats CS nimmst?

r3ptil3
2022-12-16, 23:41:28
Mein VRAM ist bei 2485MHz festgenagelt. , die Karte zieht knapp 120W, egal was ich am Desktop mache. Ich habe einen 1440p 165Hz Monitor und einen 1080p 60Hz vertikal daneben.

Stell mal den WQHD Monitor auf 120 oder 144Hz und schau nochmal auf den VRAM-Takt.

BlacKi
2022-12-16, 23:43:59
Danke Blacki was bekommst du denn raus wenn du MS für Mesh Shader stats CS nimmst?dann sagt er : mesh shader support is required

anddill
2022-12-16, 23:52:53
Benchmark gibts hier:

https://gravitymark.tellusim.com/

Und hier die Settings von Niall

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13172838&postcount=2318

Score 5692, 34,1fps, 15,6GB VRAM Auslastung
Stell mal den WQHD Monitor auf 120 oder 144Hz und schau nochmal auf den VRAM-Takt.

Ich hab am Desktop nur 60 und 165Hz zur Auswahl. für 144Hz müsste ich mit CRU was basteln, hab da aber keinen Bock drauf. Oder gibt es da noch eine einfachere Möglichkeit? In Games cappe ich den Monitor per Chill sowieso auf 144fps, da er für 164 eigentlich zu langsam ist.

Nightspider
2022-12-16, 23:57:34
Bei mir hats gestern 0 Unterschied beim Verbrauch gemacht ob ich die Displays mit 60Hz, 120Hz oder 175Hz laufen ließ.

r3ptil3
2022-12-17, 00:36:00
Score 5692, 34,1fps, 15,6GB VRAM Auslastung


Ich hab am Desktop nur 60 und 165Hz zur Auswahl. für 144Hz müsste ich mit CRU was basteln, hab da aber keinen Bock drauf. Oder gibt es da noch eine einfachere Möglichkeit? In Games cappe ich den Monitor per Chill sowieso auf 144fps, da er für 164 eigentlich zu langsam ist.

Achso, dann hast du noch die erste Revision.

Als ich mein Austauschgerät erhielt (auch S3220DGF), waren dann 120 und 144Hz ebenfalls wählbar.

Mit der RX 6900 XT hatte ich bei 165Hz auch das Problem, dass der RAM-Takt bei permament bei 2000 Mhz lag. Mit 144 Hz ging er ganz runter und der IDLE-Verbrauch der GPU lag noch bei 6W.

Digidi
2022-12-17, 00:40:31
dann sagt er : mesh shader support is required

Danke da hat AMD wohl problmme mit Mesh Shader!

Danke auch Anddill für das bestätigen der Werte!

anddill
2022-12-17, 01:11:45
Achso, dann hast du noch die erste Revision.

Als ich mein Austauschgerät erhielt (auch S3220DGF), waren dann 120 und 144Hz ebenfalls wählbar.

Mit der RX 6900 XT hatte ich bei 165Hz auch das Problem, dass der RAM-Takt bei permament bei 2000 Mhz lag. Mit 144 Hz ging er ganz runter und der IDLE-Verbrauch der GPU lag noch bei 6W.

Ja, war eines der ersten Geräte, und ein Firmwareupdate ist ja leider auch nicht möglich. Eigentlich ein Unding heutzutage, wo man bei jedem Toaster die Firmware updaten kann und ohne diese Möglichkeit leider oft angeschissen ist.
Aber irgendwann demnächst will ich mir sowieso was mit echter HDR Fähigkeit zulegen.

ianm
2022-12-17, 02:49:41
Mein VRAM ist bei 2485MHz festgenagelt. , die Karte zieht knapp 120W, egal was ich am Desktop mache. Ich habe einen 1440p 165Hz Monitor und einen 1080p 60Hz vertikal daneben.
Da mach dir keine Hoffnungen. AMD bekommt sowas nicht gebacken. Das hat schon bei RDNA1 nicht funktioniert, was mich das damals an Zeit gekostet hat. Für nichts.

Solange du keine zwei gleichen Monitore mit gleicher Auflösung und Hertz Zahl fährst, darfst du dich über exorbitanten Stromverbrauch im Desktopbetrieb "freuen".

Ich durfte mich dann entscheiden, GPU oder Monitor wechseln. So wenig ich Nvidias Politik mag, das bekommen sie besser hin.

Taigatrommel
2022-12-17, 05:12:20
Hier mal meine Vergleichswerte wenn nur ein Monitor in Betrieb ist, 3440x1440@175 Mhz:

Desktop / Browsing:
- VRAM Takt: ~109 MHz
- Verbrauch: ~36W

Youtube:
- VRAM Takt: ~909 MHz
- Verbrauch: ~90W

Übrigens laufen in beiden Fällen die Lüfter mit etwa 575 rpm, obwohl Fan-Stop in der Leistung aktiviert ist und beide Haupttemperaturen bei unter 40°C liegen.


Bezüglich UV bin ich derzeit mit 1100mV unterwegs.

anddill
2022-12-17, 10:03:32
Da mach dir keine Hoffnungen. ....

Mach ich nicht und brauch ich nicht. Den Rechner mache ich zu 95% nur zum Zocken an, für alles andere hab ich andere Geräte, zB. das Matebook an dem ich gerade sitze, einen HTPC und einen Smart TV und...und...und...

gbm31
2022-12-17, 10:26:03
Ich hab Glück, meine Powercolor 7900XTX zeigt 34-37W Board Power am 34" UWQHD @ 100Hz und mit angeschlossener Reverb G2.

Youtube Vollbild ist bei 94-97W. Urgs

Coil whine zeigt sie auch keines, ich schau mal wie ich ein Soundfile hochladen kann...

Linmoum
2022-12-17, 10:43:22
https://mobile.twitter.com/CapFrameX/status/1603810023099883520

Ist der Hot Spot bei anderen hier mit Referenz XTX auch so mies? Delta von fast 60K. :freak:

gbm31
2022-12-17, 10:54:58
gelöscht

anddill
2022-12-17, 11:09:13
https://mobile.twitter.com/CapFrameX/status/1603810023099883520

Ist der Hot Spot bei anderen hier mit Referenz XTX auch so mies? Delta von fast 60K. :freak:
Ist ein Bug im Treiber/Controllpanel. Hab ich auch (gehabt?). Nach dem ersten Start dachte ich das liegt am schnellen Lüfterprofil von der vorherigen Karte, hab das zurückgesetzt und dann war es erst mal normal. Gestern abend ging es wieder los, Lüfter wie ein Staubsauger. Aber diesmal hatte ich das Kontrollpanel offen und konnte sehen daß der Hotspot auf 102-108°C hoch ging und die Lüfter tobten. Das kühlt den restlichen Chip dann ja sehr gut runter, auf gute 65°C. Als ich dann in die Einstellungen gewechselt bin verkündetet der Treiber es wäre ein OC auf 3150MHz eingestellt. Hab den ganzen Kram dann nochmal komplett zurück gesetzt, mal sehen was dann heute Abend passiert wenn ich die Kiste wieder an mache. Vielleicht macht es auch Sinn den Treiber nochmal neu zu installieren, mit komplettem Reset oder DDU des alten Treibers.

gbm31
2022-12-17, 11:14:36
https://mobile.twitter.com/CapFrameX/status/1603810023099883520

Ist der Hot Spot bei anderen hier mit Referenz XTX auch so mies? Delta von fast 60K. :freak:


So, jetzt. Nope.

Port Royal Lauf, GPU 65°, Junction 84°, Hotspot 82°

http://www.3dmark.com/pr/1958457

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81923&stc=1&d=1671272060

Ach so, in der Adrenalin-Software hab ich beim Speicher Fast Timings und die Spannung auf 1100mV gesetzt.

BlacKi
2022-12-17, 11:18:35
hab hier beim testen eher zu warmen speicher.

selbst wenn das spiel, wie jetzt gerade, im hintergrund läuft, brennt der speicher mit 80° gpu aber nur bei 54° und 1500rpm. gestern hab ich auch max 92° auf dem speicher gesehen. alles ohne OC.

KriNemeth
2022-12-17, 11:49:36
Meine XT ist heute gekommen. Ist klein gegen meine XFX 6800!

Ja neben meiner 6800 NITRO, wirkt die neu erworbene 7900XT direkt niedlich.
Aber schöne Karte.

gbm31
2022-12-17, 13:20:20
Grrr...

WMR bringt den ganzen PC zum rebooten.

Letzte Woche mit der 6900XT lief alles.

Also alles auf default, Software frisch machen, mal schauen.

Wenn das nicht sofort läuft geht die Karte Montag wieder zurück. Auf sowas hab ich überhaupt keinen Bock!

horn 12
2022-12-17, 13:32:28
Wirklich so verbugt alles?
Dies kann ja heiter werden!

BlacKi
2022-12-17, 13:56:44
powercolor 7900xtx

ich hab mal versucht etwas rumzutesten. da man leider das powerlimit nur -10% justieren kann, sind hier meine watt werte nur geschätzt, anhand vom adrenaline overlay. die streuung von meinen angaben lag etwa jeweils ca 10w +- von meinen angaben. ich hab allerdings nicht alles beobachtet, den rest müsst ihr euch ausdenken ;)

aber sowas findet man im netz nicht, das testet ja keiner.

standard steht für alles stock. boostet etwa 2400-2500mhz.
die anderen werte sind jeweils 0,7v getestet. 2,4ghz gibts gleich nen reset, 2222mhz scheint aber stabil mit 0,7v zu laufen. natürlich kein langzeit test vorhanden.
der integrierte benchmark, nicht open world.

powercolor 7900xtx
https://abload.de/img/cp77oreqs.png

ach ja, 1500mhz wollte ich testen, geht dann aber auf +-1222mhz runter.

0,7v und dann maximalen takt finden. das ist der effizienteste betriebspunkt der karte. weiter absenken kann man die voltage nicht und die karte wird mit niedrigeren taktraten eher wieder ineffizienter.

[MK2]Mythos
2022-12-17, 14:44:00
Bringt dir halt nichts wenn du die 7900xtx soweit einbremst dass sie so schnell wie ne 6900xt ist. bei ähnlichem Verbrauch.

BlacKi
2022-12-17, 14:54:00
das schlimme ist ja, eine optimierte 6900xt bei 200-250w ist effizienter als eine 7900xtx bei 200-250w. lediglich bei 300-350w verbrauch ist eine 7900xtx wohl effizienter, aber nur weil die 6900xt schon nahe ander kotzgrenze ist.

selbst verstandlich finde ich das nicht. eine 3090 konnte vs 3080 bei 250w trotz gleicher fertigung effizienter sein.

Lanicya
2022-12-17, 15:22:31
XFX RX7900 XTX.

Mehr „X“ in einem Produktnamen geht fast nicht mehr.😂




Gruß

KriNemeth
2022-12-17, 15:25:58
Du bist der erste der den Gag bringt. ;)

Taigatrommel
2022-12-17, 17:45:07
Tom's HW berichtet über ein Statement seitens AMD bezüglich der Gerüchte um das kaputte Shader Pre-Fetching:
https://www.tomshardware.com/news/amd-addresses-controversy-rdna-3-shader-pre-fetching-works-fine

Exxtreme
2022-12-17, 17:53:48
Tom's HW berichtet über ein Statement seitens AMD bezüglich der Gerüchte um das kaputte Shader Pre-Fetching:
https://www.tomshardware.com/news/amd-addresses-controversy-rdna-3-shader-pre-fetching-works-fine

Da stellt sich langsam die Frage warum dieser Kepler_L2 so viel Aufmerksamkeit bekommt. Der Typ lag nicht ein einziges Mal auch nur halbwegs richtig was seine "Leaks"/Behauptungen angeht.

[MK2]Mythos
2022-12-17, 18:31:00
Außerdem scheint N31 ja "working as intended" zu sein. Selbst die Taktraten sind möglich, siehe Custommodelle.

gbm31
2022-12-17, 18:32:13
:mad:Ich könnt grad im Kreis ko...

Wegen der Abstürze hab ich das WMR Portal deinstalliert. Jetzt lässt sich der Dreck nicht wieder installieren, Download hängt bei 60%.

So kann ich die XTX nicht testen. :mad:

Mangel76
2022-12-17, 19:06:44
:mad:Ich könnt grad im Kreis ko...

Wegen der Abstürze hab ich das WMR Portal deinstalliert. Jetzt lässt sich der Dreck nicht wieder installieren, Download hängt bei 60%.

So kann ich die XTX nicht testen. :mad:

Ja, richtig funktioniert das noch nicht. Smart Access Memory steht auch nach DDU und Neuinstallation nicht zur Verfügung und Anno ist mir vorhin abgestürzt. Leistung ist eigentlich da und Kühlung der XT ist ziemlich leise. Ich warte wohl mal Treiber 12.2 ab.

myMind
2022-12-17, 19:19:59
XFX RX7900 XTX.

Mehr „X“ in einem Produktnamen geht fast nicht mehr.😂

https://www.youtube.com/watch?v=e7DjJR3zpCw&t=210s

dargo
2022-12-17, 19:33:30
Das Ding (Sapphire 7900 XTX Nitro+) säuft wie ein Loch bei "knapp" unter 3Ghz mit UV + OC.

xuTyyB-iW48

Stock dürfte das Performance-Bios sein.

BlacKi
2022-12-17, 19:37:57
ich finds merkwürdig das der verbrauch kaum schwankt.

dargo
2022-12-17, 19:42:47
Was soll da denn großartig schwanken wenn das Teil im Powerlimit läuft? Meine 6800XT verhält sich absolut genauso.

BlacKi
2022-12-17, 19:51:23
hast vl recht, bin anderes gewohnt.

dildo4u
2022-12-17, 19:58:29
Sieht so aus als ob der Chip auch 500 Watt nehmen würde für 3GHz.
Scaling bei Cyberpunk ist immens 43 zu 67fps min.

Lanicya
2022-12-17, 20:00:51
https://www.youtube.com/watch?v=e7DjJR3zpCw&t=210s


:lol: Genial.




gruß

Taigatrommel
2022-12-17, 20:09:56
Das Ding (Sapphire 7900 XTX Nitro+) säuft wie ein Loch bei "knapp" unter 3Ghz mit UV + OC.

Stock dürfte das Performance-Bios sein.
Stock ist meines Wissens nach das Performance BIOS, jedenfalls war dies bei meinen bisherigen Sapphire Customs immer ab Werk eingestellt. Immerhin schafft der Chip im Video sogar 1065mV, ich experimentiere ja nun mit meiner Referenz immer mal herum, unter 1100mV bekomme ich nichts stabiles hin. Manche Titel laufen stundenlang, dann startet man einen anderen und der Treiber crasht binnen Minuten. Ist nun die Frage, ob der getestete Chip nun sehr gut ist oder meiner einfach nur scheiße. :freak:

Langlay
2022-12-17, 20:29:01
Stock ist meines Wissens nach das Performance BIOS, jedenfalls war dies bei meinen bisherigen Sapphire Customs immer ab Werk eingestellt. Immerhin schafft der Chip im Video sogar 1065mV, ich experimentiere ja nun mit meiner Referenz immer mal herum, unter 1100mV bekomme ich nichts stabiles hin. Manche Titel laufen stundenlang, dann startet man einen anderen und der Treiber crasht binnen Minuten. Ist nun die Frage, ob der getestete Chip nun sehr gut ist oder meiner einfach nur scheiße. :freak:


So ein ähnliches Problem hab ich mit meiner 6900XT. Wenn ich im AMD Treiber undervolte wird die Karte bei Teillast instabil. Ich hab dann per MPT lange Zeit nur die max. Spannung auf 1.05V gecappt und fertig. In den letzten Monaten fahr ich dank Hydra die auf 1.1V gecappt und zusätzlich -50mV Offset, is halt bei Teilast etwas sparsamer aber eigentlich nicht den Aufwand wert.

Allerdings glaub ich MPT und Hydra unterstützen RDNA3 noch nicht.

r3ptil3
2022-12-18, 00:06:47
Wenn die Karte bei Teillast abstürzt, offenbart das nur, dass die Karte ja von vornerein bei dem eingestellten max. Takt nicht stabil war, denn erst bei Teillast, kann die GPU mal maximal hochtakten (was bei 99%+ GPU Auslastung durch das PL nicht möglich ist).


Per Treiber kam ich mit der 6900 XT nicht unter 1070mV.
Mit MPT und tieferem max. Takt waren dann bspw. 850mV möglich.


Ich empfehle sowieso das Powerlimit gar nicht anzufassen, eher im MPT hoch zu lassen und dann dafür den Takt runterregeln.

Mit 2250 Mhz habe ich die 6900 XT auf 850mV gekriegt.
Waren dann real 2200 Mhz, durchgehend ohne Schwankungen.

aufkrawall
2022-12-18, 00:14:28
Wenn die Karte bei Teillast abstürzt, offenbart das nur, dass die Karte ja von vornerein bei dem eingestellten max. Takt nicht stabil war, denn erst bei Teillast, kann die GPU mal maximal hochtakten (was bei 99%+ GPU Auslastung durch das PL nicht möglich ist).

Nope. Die Kurve verläuft per MPT-UV anders, mit höherer Spannung für Taktraten unterhalb des Maximaltakts. Merkt man an leicht größeren Einbußen durchs Powertune-Limit vs. Wattman-UV.

dargo
2022-12-18, 08:11:12
Jepp... ich hatte damals +4% Performance mit Wattman-UV vs. MPT-UV gemessen. Man kann in MPT zwar die Kurve mittlerweile manuell verfeinern, aber ohne eine grafische Darstellung hat das was vom kleinen Blindflug. Hätte man eine grafische Darstellung wie früher bei RDNA1 und würde sowas auch MPT im gleichen Format anbieten könnte man beide Kurven schön übereinander legen.

Rampage 2
2022-12-18, 09:24:13
Wow. Der ILP-Ansatz ohne weitere Verbesserung der Architektur ist echt ein Schuss in den Offen. Gut, konnte man schon seit 8 Jahren nach dem Kepler -> Maxwell wissen, aber es ist schon strange, dass AMD es erneut versucht.

ILP bedeutet, der Compiler muss genug Berechnungen finden, die keine Abhängigkeit haben. Aber damit läuft man eben immer hinter, weil man per Treiber für die Spiele optimieren muss. Das hat auch Kepler gekillt, weil im schlimmsten Fall 1/3 der Rechenleistung brachliegt. Bei AMD kann es bis zu 1/2 sein und dann hat man Ende nur noch 20% more CUs und mehr OnChip-Cache.

Kannst du das etwas genauer ausführen?

Bei Kepler habe ich nur in Erinnerung, dass ein SM bzw. ein GPC zu fett (192 SPs pro SM) bei zu wenig Kontrolllogik ist und deswegen nicht vollständig ausgelastet werden kann bzw. ein Teil der potentiellen Leistung deswegen brachliegt - deswegen hatte man ja seit Maxwell die SMs immer weiter verschlankt (Kepler -> Maxwell: 192 -> 128 SPs/SM, Pascal -> Turing: 128 -> 64 SPs/SM) bzw. die Kontrolllogik immer weiter erhöht, um die Auslastung zu steigern... bis man seit Ampere da wieder den Rückwärtsgang eingetreten ist:redface: (um das Transistorbudget anderweitig zu verwenden)

Aber dass bei Kepler ein Teil der potentiellen Leistung von der Compilereffizienz limitiert wurde, höre ich jetzt zum ersten Mal:| (beim Stichwort "Compilerabhängigkeit" fallen mir da ganz andere Architekturen ein: Nvidia's CineFX, AMD's GCN 1-5, AMD/ATI R600 (?) )

R2

Taigatrommel
2022-12-18, 09:42:30
Ich habe zwecks UV eigentlich seit der Radeon VII immer den Treiber verwendet, das lief auch immer recht gut, bzw. uch habe nie den Bedarf verspürt, wieder ein externes Tool zu nutzen. Vielleicht gibt es aber auch noch Probleme mit der Software. Mal schauen, wann das MPT RDNA3 unterstützt. Bis dahin werde ich noch ein wenig weiter testen.

Hat inzwischen irgendjemand eine Möglichkeit gefunden, die Beleuchtung der Karten anzupassen? Ich habe schon bei Reddit und im AMD eigenen Forum geschaut, da gibt es rein gar nichts zu dem Thema. Vielleicht ist das gar nicht vorgesehen?

horn 12
2022-12-18, 09:51:49
Red Devil 7900 XT Lieferbar in Italien bereits

https://www.techberry.it/schede-video/29639-vga-powercolor-radeon-red-devil-rx-7900-xt-20gb-gddr6.html

Germany sollte bald folgen!

dildo4u
2022-12-18, 09:58:05
Hab mir das Video jetzt angeguckt kann es nicht sein das die MCD höhere Spannung brauchen als der Chip und daher die Karte bei Teillast zu viel braucht?
Klar für AMD macht es Sinn 6nm zu nutzen da billiger aber sollten die selben Module in 5nm nicht weniger Spannung brauchen?

b411Ro2HMi4

anddill
2022-12-18, 10:01:42
Ich habe zwecks UV eigentlich seit der Radeon VII immer den Treiber verwendet, das lief auch immer recht gut, bzw. uch habe nie den Bedarf verspürt, wieder ein externes Tool zu nutzen. Vielleicht gibt es aber auch noch Probleme mit der Software. Mal schauen, wann das MPT RDNA3 unterstützt. Bis dahin werde ich noch ein wenig weiter testen.

Hat inzwischen irgendjemand eine Möglichkeit gefunden, die Beleuchtung der Karten anzupassen? Ich habe schon bei Reddit und im AMD eigenen Forum geschaut, da gibt es rein gar nichts zu dem Thema. Vielleicht ist das gar nicht vorgesehen?

Irgend einer der amerikanischen Youtuber hatte erwähnt daß man die Beleuchtung anpassen kann und hat die Karte mit roter Beleuchtung gezeigt. Die Software dafür hat er auf Nachfrage von AMD bekommen.

Mortalvision
2022-12-18, 10:19:47
Red Devil 7900 XT Lieferbar in Italien bereits

https://www.techberry.it/schede-video/29639-vga-powercolor-radeon-red-devil-rx-7900-xt-20gb-gddr6.html

Germany sollte bald folgen!

Aktueller Verleser: ScalperPay :freak:

Mortalvision
2022-12-18, 10:21:43
Mal sehen, wann mehr kommt. Zumindest ist es nicht ganz so krass wie beim Launch der 6800er/6900er

robbitop
2022-12-18, 10:34:41
Wow. Der ILP-Ansatz ohne weitere Verbesserung der Architektur ist echt ein Schuss in den Offen. Gut, konnte man schon seit 8 Jahren nach dem Kepler -> Maxwell wissen, aber es ist schon strange, dass AMD es erneut versucht.
Hm ich finde das nicht vergleichbar. Kepler hatte einfach 50% mehr fpus pro SM als Kepler. Aber die waren iirc nicht auf die gleiche Instruktion angewiesen wie RDNA3.

Außerdem hat man nach Volta und Turing in der Hinsicht FPUs pro SM mit Ampere und Ada wieder eine Role Rückwärts gemacht und schafft viel weniger pro FPU. Rohleistungsnormierte Performance.

AMDs Ansatz ist deutlich restriktiver weil pro FPU für ein dual issue tatsächlich die gleiche Instruktion notwendig ist und es auch nicht für alle Instruktionen (beim sonst effizienteren wave32) funktioniert.

Ich denke, dass da noch ne Menge Potenzial im Shadercompiler steckt.

Am Ende ist es immer eine Frage, wie viel Perf/Transistor welches Konzept kostet. Und da kann man nicht plump ganze CUs/SMs vergleichen.
Bei Ampere war es wahrscheinlich relativ günstig inder Metrik die ALU auch FP fähig zu machen ohne andere Dinge mit aufzubohren. Ich würde annehmen, dass dual issue mit mehr Restriktionen als das billiger ist als die FPUs pro CU zu verdoppeln. Das wird man schon simuliert haben.

Ich glaube, dass RDNA3 mit besserem/reiferen Shadercompiler das Potenzial hat, die delta Performance zu N21 auf grob das Level der aktuellen besser Cases in die Breite der Spiele schafft und damit die Average Performance erhöht. Ggf nutzt man das in ein paar Monaten nochmal für eine refresh SKU mit mehr tdp budget und gestackten MCDs und gesteigertem Takt.

robbitop
2022-12-18, 10:37:28
Kannst du das etwas genauer ausführen?

Bei Kepler habe ich nur in Erinnerung, dass ein SM bzw. ein GPC zu fett (192 SPs pro SM) bei zu wenig Kontrolllogik ist und deswegen nicht vollständig ausgelastet werden kann bzw. ein Teil der potentiellen Leistung deswegen brachliegt - deswegen hatte man ja seit Maxwell die SMs immer weiter verschlankt (Kepler -> Maxwell: 192 -> 128 SPs/SM, Pascal -> Turing: 128 -> 64 SPs/SM) bzw. die Kontrolllogik immer weiter erhöht, um die Auslastung zu steigern... bis man seit Ampere da wieder den Rückwärtsgang eingetreten ist:redface: (um das Transistorbudget anderweitig zu verwenden)

Aber dass bei Kepler ein Teil der potentiellen Leistung von der Compilereffizienz limitiert wurde, höre ich jetzt zum ersten Mal:| (beim Stichwort "Compilerabhängigkeit" fallen mir da ganz andere Architekturen ein: Nvidia's CineFX, AMD's GCN 1-5, AMD/ATI R600 (?) )

R2

Nein da hat Troyan etwas falsch in Erinnerung. Das Thema ist etwas anders gelagert bei Kepler.

Mortalvision
2022-12-18, 10:49:11
Ja. Mir ist auch nicht ganz klar, ob die Leistung noch so viel durch Treiber-Updates nachgeliefert werden kann. Man erinnere mal an die 290 und RX 480. Das waren nach einem Jahr 10-15% mehr FPS. Sehe ich irgendwie bei der jetzigen Generation nicht. Da ist zuviel Imbalance in der Architektur. Die einzelnen Ideen sind wirklich cool, aber sie bringen nicht genug Gaming Power.

gbm31
2022-12-18, 10:50:26
Ja, richtig funktioniert das noch nicht. Smart Access Memory steht auch nach DDU und Neuinstallation nicht zur Verfügung und Anno ist mir vorhin abgestürzt. Leistung ist eigentlich da und Kühlung der XT ist ziemlich leise. Ich warte wohl mal Treiber 12.2 ab.


Die 6900XT wieder eingebaut, 22.11.2 installiert, alles läuft 1a.

Das ist doch schei...

robbitop
2022-12-18, 10:59:23
Ja. Mir ist auch nicht ganz klar, ob die Leistung noch so viel durch Treiber-Updates nachgeliefert werden kann. Man erinnere mal an die 290 und RX 480. Das waren nach einem Jahr 10-15% mehr FPS. Sehe ich irgendwie bei der jetzigen Generation nicht. Da ist zuviel Imbalance in der Architektur. Die einzelnen Ideen sind wirklich cool, aber sie bringen nicht genug Gaming Power.

Naja bei RDNA3 ist das Thema halt extrem anders gelagert durch das dual issue. Wo es funktioniert liefert es auch richtig ordentlich mehr fps ab als Navi21 (6900xt/6950xt) und wo es (nich nicht so toll funktioniert) ist man kaum schneller. Und sas wirkt sich auf die averages aus (Spieleindex). Entsprechend ist die Aufgabe den shadercompiler einfach nur konsistenter zu machen. Die Spiele wo es gut funktioniert sind ja praktisch der showcase und Beweis dass es grundsätzlich funktioniert. Es fehlt vor allem noch Konsistenz. Da sollte sich definitiv was machen lassen.

Man hätte diesen HW Ansatz ggü dem robusten Ansatz bei rdna2 nicht gewählt wenn er nicht besser im Simulator gewesen wäre.
Bei AMD ist leider die SW historisch öfter mal hinter der HW hinterher gehinkt.

Ich vermute, dass obiges mittelfristig nicht unrealistisch sein sollte.

horn 12
2022-12-18, 11:05:19
Dann gibst die 7900XTX wirklich Retour,
dachte schon ich sollte nicht zuschlagen beim AMD Drop ...
ist auch noch nicht versendet worden.

Troyan
2022-12-18, 11:27:05
Nein da hat Troyan etwas falsch in Erinnerung. Das Thema ist etwas anders gelagert bei Kepler.

Es war exakt identisch. nVidia hat mehr Ausführungseinheiten als Scheduler in den ComputeUnits verbaut und wollte die Effizienz durch ILP steigern. Ohne unabhängige Instruktionen war die dritte Recheneinheiten-Ausführungseinheit nutzlos.

robbitop
2022-12-18, 11:33:49
Eine Schedulerlimitierung (die übrigens auch bei Ampere vorliegt) hat ähnliche Symptome ist aber was völlig amderes als die Limitationen von dual issue. Das kann nämlich unabhängig davon ein zusätzliches Problem sein.
Ein Kepler SM kann fpu seitig 6 verschiedene fp Instruktionen absetzen wenn die scheduler nicht limitieren. Maxwell, Pascal und Ampere 4x. Wenn du hier Kelper kritisierst müsstest du auch Ada und Ampere kritisieren. ;)

Bei Ampere hat man aber nur halb so viele Schedulerresources wie Pascal/Maxwell. Entsprechend hat Ampere eine Schedulerlimitierung. RDNA3 aber eine FPU fähigkeit Limitierung.

Troyan
2022-12-18, 11:45:44
nVidia ist seit Kepler den umgekehrten Weg gegangen und hat das Scheduling verfeinert, indem mehr Scheduler und Dispatcher pro Teileinheit verwendet wird. Seit Volta kann nVidia unabhängig zwei Halb-Warps verteilen, wodurch 32 Threads pro Takt weiterhin erhalten bleibt.

Eine Scheduler-Limitierung ist natürlich bei ILP nicht möglich, da die Scheduler nicht limitieren sondern der Compiler. Bei ILP limitieren nunmal die unahängigen Instruktionen und nicht die Hardware. Daher ging nVidia auch wieder weg von dem Konzept, weil es einfach viel zu aufwendig ist auf Compiler-Seite genug Instruktionen zu finden.

robbitop
2022-12-18, 11:48:19
Es ist trotzdem überhaupt nicht das gleiche. ;)

gbm31
2022-12-18, 13:59:50
Nach ein paar Updates windowsseitig grade nochmal umgebaut von 6900XT auf 7900XTX und jetzt tut der Haufen endlich wieder!



Aber jetzt gibts erstmal essen....

Lawmachine79
2022-12-18, 14:34:40
das schlimme ist ja, eine optimierte 6900xt bei 200-250w ist effizienter als eine 7900xtx bei 200-250w. lediglich bei 300-350w verbrauch ist eine 7900xtx wohl effizienter, aber nur weil die 6900xt schon nahe ander kotzgrenze ist.

selbst verstandlich finde ich das nicht. eine 3090 konnte vs 3080 bei 250w trotz gleicher fertigung effizienter sein.
Das kann doch nicht stimmen. Dann wäre die 69 ja in dem Wattbereich schneller.

Tangletingle
2022-12-18, 14:35:40
Das kann doch nicht stimmen. Dann wäre die 69 ja in dem Wattbereich schneller.
Und das ist sie nicht und genau da merkste halt, dass er Blödsinn schreibt.

r3ptil3
2022-12-18, 15:42:14
Gibt's denn irgendwo Vergleichswerte einer RX 7900 @ 200-250W?

BlacKi
2022-12-18, 15:48:44
Das kann doch nicht stimmen. Dann wäre die 69 ja in dem Wattbereich schneller.das war meine aussage und ehrlich gesagt nicht ganz knapp sondern deutlich. warum soll das nicht stimmen?

Gibt's denn irgendwo Vergleichswerte einer RX 7900 @ 200-250W?

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13191471#post13191471

der effizienteste punkt sind 0,7v bei max takt der stabil möglich ist, bei mir 2222mhz. darunter sinkt die effizienz. dabei braucht die karte grob 270w im cyberpunk bench. bei der 6900xt dürfte der effizienteste punkt deutlich darunter liegen. was ist denn mit 0,7v bei der 6900xt möglich? 1700mhz, 1800? das sind grob 500mhz mehr coreclock. und das bei, ich vermute mal 200w.

speku werte, genaue zahlen hab ich nicht.

BlacKi
2022-12-18, 17:49:14
hab das mal mit der cpu aufgenommen. settings nachträglich auf ultra minus fsr gestellt.

AVwHpqKmWtU

Ex3cut3r
2022-12-18, 18:21:30
Was ist da mit deiner CPU los? Die schmilzt ja bei 50W und knapp 4GHz.

BlacKi
2022-12-18, 18:24:05
boxed kühler, und ziemlich viel workload, modifizierte lüfterkurve, weil laut.

der kühler mit seinem plastikshroud will auch den platz haben, den der ram braucht. möglich das da der anpressdruck schlecht ist.

Ex3cut3r
2022-12-18, 18:25:19
Und? Erscheint mir mit 90 Grad teilweise trotzdem sehr hoch, vor allem da die CPU nie mit 100% läuft, Boxed Kühler? Aber naja, dein Ding.

BlacKi
2022-12-18, 18:29:35
warum? zum testen? ist doch kein fertiger build. die karte geht eh weg.


ach mir fehlt die tdp limitierung runter auf 180-200w. je nach setting und spiel zieht die karte auf dem effizientesten punkts um die 300w. ansonsten hätte ich sie gerne behalten. coilwhine ist ok, nicht brutal wie bei GN, selbst mit 1000-1700rpm hört man sie garnicht.

Matrix316
2022-12-18, 19:48:46
Hmmm...

-KvkVumbgvw

TLDR: VRAM Speed geht runter, wenn GPU übertaktet wird?

Ex3cut3r
2022-12-18, 19:53:52
Einen noch größeren "Monitor" hat er wohl nicht gefunden, oder? ;D

BlacKi
2022-12-18, 20:09:08
Einen noch größeren "Monitor" hat er wohl nicht gefunden, oder? ;Dich finde nur, den schreibtisch zu klein und zu nah. ansonsten ist der doch geil.

-=Popeye=-
2022-12-18, 20:18:33
Was für ein Kackn**b... AMD Treiber OC ist doch easy, man muß sich halt nur damit beschäftigen, wenn jetzt noch ein möglicher MPT Support dazu kommt wird es tricky.

Langlay
2022-12-18, 20:22:53
Hmmm...

https://youtu.be/-KvkVumbgvw

TLDR: VRAM Speed geht runter, wenn GPU übertaktet wird?

Powerlimit anpassen und dann ist das gefixed. Das passiert halt wenn du ihm sagt er muss die 3200 MHz um jeden Preis halten, dann wird er versuchen die 3200 MHz zu halten auch wenn das PT das nicht hergibt, dann verlierste halt RAM Takt und kriegst massiv Wartezyklen.

Der Typ hat halt keinen Plan was er tut.

dargo
2022-12-18, 20:32:49
Vor allem wozu dreht der an der min. Frequenz? :lol:

Matrix316
2022-12-18, 20:45:45
Naja, also der RAM sollte normalerweise nicht niedriger takten, wenn der GPU Takt das Power Limit ausreizt. Da sollte die CPU eigentlich abstürzen - oder mehr Power erlauben. ;) Ist die Frage was besser ist.

Langlay
2022-12-18, 20:50:56
Naja, also der RAM sollte normalerweise nicht niedriger takten, wenn der GPU Takt das Power Limit ausreizt. Da sollte die CPU eigentlich abstürzen - oder mehr Power erlauben. ;) Ist die Frage was besser ist.

Normales Verhalten ist die GPU senkt solange den Takt bis das mit dem Powerlimit wieder stimmt. Macht sie halt nicht mehr wenn ich die Minimalfrequenz auf Crazylevel stelle. Dann nimmt sie alles was sie kann damit sie den Takt erreicht.

raffa
2022-12-18, 21:12:56
is irgendwie nett, wie er sich anfangs beschwert, wie vernoobt das tool ist :)

BlacKi
2022-12-18, 22:46:11
Normales Verhalten ist die GPU senkt solange den Takt bis das mit dem Powerlimit wieder stimmt. Macht sie halt nicht mehr wenn ich die Minimalfrequenz auf Crazylevel stelle. Dann nimmt sie alles was sie kann damit sie den Takt erreicht.+1

gbm31
2022-12-19, 09:34:57
Okay, wie es scheint, hab ich die Ursache der Abstürze.

Mein Netzteil (Corsair TX850M) hat zur Zeit nur 1 Kabel für 2 6+2 Pins für die Grafikkarte.

Bisher hat das gut gereicht, jetzt mit der 7900XTX scheint der Anschluss an der Grenze zu sein und leichtes Noddeln am Stecker entscheidet ob genug Kontakt (und Saft) kommt oder nicht.:ubash3:

Am Netzteil selbst sind 2 Anschlüsse für die Grafikkartenkabel, ich hab jetzt mal auf den bisher unbenutzten gewechselt und ein zweites Kabel ist bestellt und am Dienstag da.

Ich fasse jetzt nichts weiter an und bisher funktioniert VR und die Karte mit UV auf 1100mV mit Speicher auf schnellen Timings, mehr hab ich bisher nicht getestet.

Wenn die Karte am Dienstag an 2 Kabeln auch so fickrig ist, geht sie zurück, ansonsten geb ich ihr (und den AMD-Treibern) eine Chance.

anddill
2022-12-19, 10:47:40
Das zweite Kabel sollte doch eigentlich beim Netzteil dabei gewesen sein. Ist ja eigentlich eine Binsenweisheit daß man fette Grakas nicht mit einem durchgeschleiften Kabel anschließt.

gbm31
2022-12-19, 10:50:11
@Anddill kannst du das bitte einmal benchen. Würde mir sehr helfen. Danke

Habs auch mal laufen lassen:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=81943&stc=1&d=1671443387

Das zweite Kabel sollte doch eigentlich beim Netzteil dabei gewesen sein. Ist ja eigentlich eine Binsenweisheit daß man fette Grakas nicht mit einem durchgeschleiften Kabel anschließt.

Ich schau nochmal in den Karton, aber ich meine nicht...

BlacKi
2022-12-19, 10:51:44
wenn der kontakt schlecht ist, dann riskierst du aber das die stecker anfangen zu glühen. schlechter kontakt ist nie gut. und das herabsetzen auf 1100mv ist doch kein uv? stock schwankt die voltage nur zwischen 800 und 1000mv. und selbst mit 1000mv rennst du praktisch immer ins powerlimit.

aber mir ist aufgefallen, das ein stecker recht schwierig reinging, hab den kontakt aber optisch kontrolliert.

Troyan
2022-12-19, 11:01:53
Blacki,
kannst du mal den GPU Performance Tester ausführen und hier posten: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613462

Wäre vorallem interessant zu sehen, was die Bandbreite vom Infinity Cache ist. Danke.

gbm31
2022-12-19, 11:22:33
wenn der kontakt schlecht ist, dann riskierst du aber das die stecker anfangen zu glühen. schlechter kontakt ist nie gut. und das herabsetzen auf 1100mv ist doch kein uv? stock schwankt die voltage nur zwischen 800 und 1000mv. und selbst mit 1000mv rennst du praktisch immer ins powerlimit.

aber mir ist aufgefallen, das ein stecker recht schwierig reinging, hab den kontakt aber optisch kontrolliert.


Hab ja den Steckplatz am NT gewechselt. Und bis Dienstag muss es so gehen.

Also HWInfo zeigt mir bis zu max. 1099mV...

BlacKi
2022-12-19, 11:39:02
Blacki,
kannst du mal den GPU Performance Tester ausführen und hier posten: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613462

Wäre vorallem interessant zu sehen, was die Bandbreite vom Infinity Cache ist. Danke.done

Hab ja den Steckplatz am NT gewechselt. Und bis Dienstag muss es so gehen.

Also HWInfo zeigt mir bis zu max. 1099mV...

die ingame nicht anliegen.

gbm31
2022-12-19, 12:01:24
die ingame nicht anliegen.

1000mV - Treiber Timeout in Port Royale

BlacKi
2022-12-19, 12:06:55
du musst die max taktrate natürlich reduzieren. sonst liegen viel öfter 2900mhz+ an, die dann natürlich nicht stabil sind. für mich gehen 2223mhz mit 0,7v. maximale leistung bei niedrigst möglichem verbrauch. 1000mv müsste ich mal checken.

gbm31
2022-12-19, 12:08:38
du musst die max taktrate natürlich reduzieren. sonst liegen viel öfter 2900mhz+ an, die dann natürlich nicht stabil sind.

Will ich ja nicht, die bleibt bei 3025 - und ich taste mich runter wie lange das gut geht. 1025mV lief grad durch - http://www.3dmark.com/pr/1965039

BlacKi
2022-12-19, 12:47:22
du bist bis dienstag nicht bereit leistung zu reduzieren? so wirst du den verbrauch nicht reduzieren können, da einfach mehr takt anliegt, aber immernoch in powerlimit rennt. bei 3025mhz werden die 1025 nicht stabil sein. du musst schon runter mit dem max takt.

abseits davon, komme ich auch bei 1000mv nicht über 2400mhz ohne freeze. 2300 gehen noch mit 0,7v, natürlich auch mit 1000mv, aber sobald ich mehr takt anlege schmiert der rechner ab.

das ist doch kein normales verhalten?

Matrix316
2022-12-19, 12:54:18
Normales Verhalten ist die GPU senkt solange den Takt bis das mit dem Powerlimit wieder stimmt. Macht sie halt nicht mehr wenn ich die Minimalfrequenz auf Crazylevel stelle. Dann nimmt sie alles was sie kann damit sie den Takt erreicht.
Ja aber tut das Power Limit sonst nicht nur den GPU Takt beeinflussen und nicht den vom VRAM?

BlacKi
2022-12-19, 13:06:35
ich hab mal etwas mit takt und voltage rumgespielt.

tatsächlich hat man eher beschränkten zugriff wie sich was verhalten soll. also festlegen welcher takt bei welcher voltage, wie bei nv, ist nicht so einfach drinn. man kann zb. kein overvolting betreiben, zb. 2500mhz bei 1000 oder 1150mv. geht nicht.

am besten beschreibt man es mit: man macht der karte vorschläge. und sie dreht dann bischen an den einstellung, nach ihrem gutdünken.

tkj_MBO8WTo

Ja aber tut das Power Limit sonst nicht nur den GPU Takt beeinflussen und nicht den vom VRAM?its a feature. jay hat dieses feature genutzt, ohne es zu wissen und nennt es bug. wenn er das feature nicht hätte haben wollen, hätte er den minimaltakt nicht hochziehen dürfen.

gbm31
2022-12-19, 13:33:09
du bist bis dienstag nicht bereit leistung zu reduzieren? so wirst du den verbrauch nicht reduzieren können, da einfach mehr takt anliegt, aber immernoch in powerlimit rennt.

Solange es läuft und ich keine Abstürze mehr habe mit VR warum nicht?

Womit ich nur nicht klarkomme: in HWInfo gibt es unter der Total Board Power (352W max. bisher) eine max. Leistung, die bei mir auf 460W max. steht. Was ist das?


abseits davon, komme ich auch bei 1000mv nicht über 2400mhz ohne freeze. 2300 gehen noch mit 0,7v, natürlich auch mit 1000mv, aber sobald ich mehr takt anlege schmiert der rechner ab.

das ist doch kein normales verhalten?

Ich musste jetzt wegen CP77 mit RT auf 1050mV hoch. Werd wohl bei meinen vorherigen 1100mV landen wenn ich alles durch hab :-D

Wenn 2300MHz mit 0.7V laufen und 2400 nicht mit 1V würde ich sagen, es gibt einen Spannungs-Takt Sweetspot bei um die 2300MHz und 0.7V, oder?

Wieviel Board Power genehmigt sich deine XTX dann? Du hast es bestimmt schon mal irgendwoe gepostet, aber ich habs nicht präsent...

BlacKi
2022-12-19, 13:42:39
ich finde es merkwürdig, die nv karten takten bei framecap und niedriglast nicht runter, auch die voltage liegt voll an. die müssten eigentlich einen nachteil haben, denn die amd karten gehen mit takt und voltage runter. und trotzdem sieht es dann so aus...

https://abload.de/img/screenshot2022-12-19aklcuk.png



Wenn 2300MHz mit 0.7V laufen und 2400 nicht mit 1V würde ich sagen, es gibt einen Spannungs-Takt Sweetspot bei um die 2300MHz und 0.7V, oder?

Wieviel Board Power genehmigt sich deine XTX dann? Du hast es bestimmt schon mal irgendwoe gepostet, aber ich habs nicht präsent...


etwa 250-290w. je nach spiel und spieleinstellung. je höher die settings umso niedriger der verbrauch XD


ich hab das auch nicht verstanden, der adrenalin ist scheinbar buggy. wenn ich, so wie du, langsam die voltage runterziehe, siehe video über deinem post, dann geht die voltage auch runter und das läuft dann auch stabil. aber die voltage die man einstellt, hat nur indirekt mit der voltage zu tun, die ingame anliegt. das verwirrt mich etwas. warum tut es das?

gbm31
2022-12-19, 13:50:31
ich hab das auch nicht verstanden, der adrenalin ist scheinbar buggy. wenn ich, so wie du, langsam die voltage runterziehe, siehe video über deinem post, dann geht die voltage auch runter und das läuft dann auch stabil. aber die voltage die man einstellt, hat nur indirekt mit der voltage zu tun, die ingame anliegt. das verwirrt mich etwas. warum tut es das?

Die Spannung die du im Wattman einstellst ist nur eine Referenz für die Spannungskurve, die man leider nicht mehr sieht (bei der Radeon VII war die noch sichtbar und mit 3 Spannungs/Takt-Punbkten definierbar).

Deswegen haben wir die 6000er auch alle mit dem MPT UV/OC, da war die max. Spannung wirklich auch die max. möglich anliegende Spannung.

Leider funzt MPT mit den neuen noch nicht.

BlacKi
2022-12-19, 14:00:16
es hilft halt nichts. bedienbarkeit und optik am arsch, wenn ich dann doch drittherstellersoftware für den optimalen betrieb benötige. und ich checks nicht, warum amd diese limitierungen so restriktiv einbaut.

gbm31
2022-12-19, 14:02:57
Naja, Drittanbietersoftware ist bei NV ja Pflicht sobald man auch nur irgendwas machen will, da geht im Wattman deutlich mehr.

pilzsammler2002
2022-12-19, 14:13:48
es hilft halt nichts. bedienbarkeit und optik am arsch, wenn ich dann doch drittherstellersoftware für den optimalen betrieb benötige. und ich checks nicht, warum amd diese limitierungen so restriktiv einbaut.

Man muss es nur "verstehen" (kein Hate)
Du stellst bei dir nicht den Takt sondern die "Anfangs" und "Endpunkte".

Wenn du 3100mhz und 1150mv einstellst ist es das Ende der Fahnenstange (was nie erreicht wird unter normalen Umständen")
Du landest dann bei 2400mhz@900mv

Stellst du jetzt z.B. 3100mhz und 1000mv ein, landest du am Ende bei 2400mhz@850mv (das ist nur ein Beispiel)

Stellst du 2900mhz bei 1150mv ein, landest du bei 2325mhz@900mv

Ganz Logisch :freak: :freak: :freak:

BlacKi
2022-12-19, 14:17:02
Naja, Drittanbietersoftware ist bei NV ja Pflicht sobald man auch nur irgendwas machen will, da geht im Wattman deutlich mehr.naja, man kann das powerlimit erhöhen und massiv absenken.


Du stellst bei dir nicht den Takt sondern die "Anfangs" und "Endpunkte".

Ganz Logisch

dann sollten sie das auch so beschreiben. ich dachte echt es wäre ein limit, und nicht, das man damit die ganze kurve verschiebt.

gbm31
2022-12-19, 15:03:39
naja, man kann das powerlimit erhöhen und massiv absenken.



dann sollten sie das auch so beschreiben. ich dachte echt es wäre ein limit, und nicht, das man damit die ganze kurve verschiebt.


Ja, das haben die AMDler auch lernen müssen mit den 6000ern :-)

Kabel ist übrigens schon da und verbaut, jetzt teste ich mal mit +15% PPT...

[edit] Alter! die 402W PPT (+15%) werden direkt umgesetzt...

101° Hotspot hab ich noch nicht gesehen gehabt bisher!

Und das Ergebnis bei Port Royale ist damit schlechter als mit default PPT und 1050mV.

http://www.3dmark.com/pr/1965429 - 16101P vs http://www.3dmark.com/pr/1965039 - 16501P

Aber Strom ist jetzt genug da...

Edit: Bin nicht der einzige mit solchen Problemen...
https://www.gamestar.de/artikel/absturz-problem-pc-ueberraschende-loesung,3387882.html

RoNsOn Xs
2022-12-19, 19:55:22
Hab hier einen Lauf mit in Adrenalin eingestellten 0,7v (ingame ergibt das max 0,74v lt. hwinfo) und 2250Mhz. Der Verbrauch liegt allerdings noch immer bei 270-290 Watt.
https://abload.de/thumb/unbenanntj5ipz.png (https://abload.de/image.php?img=unbenanntj5ipz.png)

Besonders derbe: im CPU-Test bei max 5%-Auslastung säuft diese noch knapp unter 100 Watt.

gbm31
2022-12-19, 20:27:50
Das zweite Kabel sollte doch eigentlich beim Netzteil dabei gewesen sein. Ist ja eigentlich eine Binsenweisheit daß man fette Grakas nicht mit einem durchgeschleiften Kabel anschließt.

Naja, das NT ist Single Rail mit 87A auf 12V.

Dachte nicht dass es dann Probleme macht mit 1 Kabel.

Jetzt sind jedenfalls 2 dran.

RoNsOn Xs
2022-12-19, 20:51:06
Hab mal den Chiptakt auf minimum 2600Mhz gestellt, zusätzlich +15% PT. Im Bench springt wild der Speichertakt rauf und runter, damit die Karte im 400w-Bereich bleibt. Das ergibt unrunde Frametimes. Fazit: Die MBA-Karte hängt total im Powerlimit.

dargo
2022-12-19, 20:56:02
Besonders derbe: im CPU-Test bei max 5%-Auslastung säuft diese noch knapp unter 100 Watt.
Ich hätte eine Frage dazu... geht in diesem Szenario der GPU-Takt deutlich nach unten vs. GPU-Limit oder nur wenig oder sogar gar nicht?

RoNsOn Xs
2022-12-19, 21:06:14
Ich hätte eine Frage dazu... geht in diesem Szenario der GPU-Takt deutlich nach unten vs. GPU-Limit oder nur wenig oder sogar gar nicht?
Der FrontEnd-Takt bleibt bei 2,5Ghz, der Shadertakt fällt deutlich runter auf 2-stellige Werte.

Btw. im idle säuft die Karte bei mir 42-60w mit 1 Monitor 1440p @144Hz (auch mehr als meine NV zuvor bei rund 30w).
60Hz geringfügig weniger.

@all
weil ich das dargo und Langlay schon via PN fragte - weiß jemand wieso ich mit der Radeon keine 170hz mehr mit dem Monitor fahren kann? Zuvor mit der 3060ti war dies problemlos möglich. Es stehen nur noch 60,120 & 144hz zur Verfügung. Egal was ich probierte half nicht. Auch CRU nicht, wobei das wohl sowieso nicht in Verbindung mit Freesync bzw VRR laufen soll, wenn ich dargo richtig verstanden habe. Anyone?

horn 12
2022-12-19, 21:08:38
Nun, lieber leiser und weniger Stromverbrauch und dafür aber 5% langsamer und das UV sollte mit Neuem Treiber wieder besser von statten gehen als derzeit.

BlacKi
2022-12-19, 21:08:54
Der FrontEnd-Takt bleibt bei 2,5Ghz, der Shadertakt fällt deutlich runter auf 2-stellige Werte.

Btw. im idle säuft die Karte bei mir 42-60w mit 1 Monitor 1440p @144Hz (auch mehr als meine NV zuvor bei rund 30w).
60Hz geringfügig weniger.


kannst du mal testen, ob nur über hdmi der idle verbrauch sinkt?

RoNsOn Xs
2022-12-19, 21:15:19
kannst du mal testen, ob nur über hdmi der idle verbrauch sinkt?
Kann ich Morgen machen. Wie siehts bei dir aus?

Schnitzl
2022-12-19, 21:21:31
Wie weit kann man denn das PT runterdrehn? Beim Afterburner geht bis -50% (bei der 3070)

BlacKi
2022-12-19, 21:24:39
bis jetzt -10%

RoNsOn Xs
2022-12-19, 21:24:58
-10 (~312w) bis +15% (~400w) nur.

Schnitzl
2022-12-19, 21:35:00
bis jetzt -10%

danke für eure schnellen Antworten! :)

"bis jetzt" heisst das ändert sich noch? Möchte auf jeden Fall unter 200W kommen...

Langlay
2022-12-19, 21:50:49
@all
weil ich das dargo und Langlay schon via PN fragte - weiß jemand wieso ich mit der Radeon keine 170hz mehr mit dem Monitor fahren kann? Zuvor mit der 3060ti war dies problemlos möglich. Es stehen nur noch 60,120 & 144hz zur Verfügung. Egal was ich probierte half nicht. Auch CRU nicht, wobei das wohl sowieso nicht in Verbindung mit Freesync bzw VRR laufen soll, wenn ich dargo richtig verstanden habe. Anyone?

Wir hatten zwar schon geschrieben und ich hatte gesagt das ich nur raten könne. Aber ist der Monitor bei dir per HDMI oder per DP angeschlossen. Falls HDMI würde ich mal DP probieren falls man ein Kabel rumfliegen hat.

dargo
2022-12-19, 21:51:13
Der FrontEnd-Takt bleibt bei 2,5Ghz, der Shadertakt fällt deutlich runter auf 2-stellige Werte.

Aha... das dürfte dann eventuell die höheren Verbräuche bei Teillast erklären. Jetzt muss sich nur noch zeigen ob das ein Treiberbug oder Designentscheidung ist.


@all
weil ich das dargo und Langlay schon via PN fragte - weiß jemand wieso ich mit der Radeon keine 170hz mehr mit dem Monitor fahren kann? Zuvor mit der 3060ti war dies problemlos möglich. Es stehen nur noch 60,120 & 144hz zur Verfügung. Egal was ich probierte half nicht. Auch CRU nicht, wobei das wohl sowieso nicht in Verbindung mit Freesync bzw VRR laufen soll, wenn ich dargo richtig verstanden habe. Anyone?
Wenn ich bsw. bei meinem 144Hz Asus Bildschirm in CRU 2560x1440 @100Hz neu erstelle funktioniert Freesync nicht mehr. Keine Ahnung warum.

danke für eure schnellen Antworten! :)

"bis jetzt" heisst das ändert sich noch? Möchte auf jeden Fall unter 200W kommen...
Mit MPT sollte wesentlich mehr Flexibilität geboten werden, dauert halt immer etwas bei neuer Hardware mit dem Support.

Wir hatten zwar schon geschrieben und ich hatte gesagt das ich nur raten könne. Aber ist der Monitor bei dir per HDMI oder per DP angeschlossen. Falls HDMI würde ich mal DP probieren falls man ein Kabel rumfliegen hat.
Ist bei ihm über DP angeschlossen, hatte ich auch schon über PN geklärt mit RoNsOn Xs. War auch zuerst meine Vermutung mit HDMi.

dargo
2022-12-19, 21:53:48
del

BlacKi
2022-12-19, 23:28:12
danke für eure schnellen Antworten! :)

"bis jetzt" heisst das ändert sich noch? Möchte auf jeden Fall unter 200W kommen...macht keinen sinn. du verlierst wahnsinnig leistung und effizienz. das wollte ich auch, habs versucht, aber du verlierst 40% leistung verglichen mit dem effizientesten punkt, der bei 250-290w liegt. einfach gaga. ich würde da auf n32 aka. 7800xt warten. dort dürfte der effizieneste punkt bei grob 200w liegen und dabei schneller sein.

€dit: die leute sind echt gaga. die xtx ist für über 1400€ nach nichtmal nem halben tag bei ebay weggegangen.

RoNsOn Xs
2022-12-20, 06:18:06
Welche? Deine oder irgendeine?

dargo
2022-12-20, 07:46:25
macht keinen sinn. du verlierst wahnsinnig leistung und effizienz. das wollte ich auch, habs versucht, aber du verlierst 40% leistung verglichen mit dem effizientesten punkt, der bei 250-290w liegt. einfach gaga.
Wie kommst du auf den Trichter wenn aktuell die XTX gerade mal um 10% beim PT verringert werden kann, was 319,5W entspricht? :| Dass man Leistung mit 200W vs. 355W verliert sollte jedem einleuchten (selbst mit dem besten UV kann man die fehlenden 155W nicht ausgleichen), aber Effizienz? Das ergibt so gar keinen Sinn. Ok... in einem Fall würde es Sinn ergeben... wenn man weiter die Frequenz senkt obwohl schon die Minimalspannung der GPU erreicht ist. Aber ist dieser Punkt schon mit 200W erreicht?

btw.
Wie hoch ist eigentlich die reale GPU-Spannung in Games wenn die Karte @Stock läuft? Leider hat dies praktisch niemand in seinem Overlay wenn ich mir so einige Gameplay-Videos anschaue.

Edit:
Da fällt mir gerade ein, bei so einem starken Einschnitt im Powerbudget müsste man noch viel mehr anpassen können um mehr Powerbudget für die GPU freizumachen. Die volle Bandbreite braucht doch keine XTX wenn sie auf 200W eingebremst wird, das ist völliger Overkill. Insofern müsste man hier Zugriff auf die Memoryfrequenz haben. Gleiches gilt für Spannungen wie SoC und eventuell auch Memory VDDCI/MVDD.

RoNsOn Xs
2022-12-20, 09:32:30
Spannung TSE schwankend bei so maximal 0,91v (ausm Kopf. Beim alten Heaven-Dx11-Bench auch gern 1,05v. Mehr hab ich aber noch nicht gesehen.
Die Leistungsaufnahme senkt man mit der Karte am besten über dem GPU-takt. Leider hat man keinen Zugriff auf den Speicher nach unten.

robbitop
2022-12-20, 10:09:04
Wie weit kann man das Powerbudget denn erhöhen mit der 7900 xtx?
Interessant wäre es schon zu wissen ob mit Wasserkühlung und ausreichend TDP (5-600W) auch die 3,2 GHz in Spielen möglich wären.

dargo
2022-12-20, 10:13:32
Die Leistungsaufnahme senkt man mit der Karte am besten über dem GPU-takt.
Schon, aber das ist imo nicht flexibel genug. Bei Games die weniger GPU-Last erzeugen verschenkst du so Takt. Mal sehen wann der MPT-Support für N31 kommt. Mich würde bsw. interessieren was so vs. Stock geht wenn man die Graka auf 250W limitiert und dann mit der Spannungskurve rumspielt mit dem Eingriff bei Voltage + max. Frequenz.

Wie weit kann man das Powerbudget denn erhöhen mit der 7900 xtx?

+15%, ergo 408W bei Referenz. Viele Customs lassen mehr zu da Default schon mehr ist.

Spannung TSE schwankend bei so maximal 0,91v (ausm Kopf. Beim alten Heaven-Dx11-Bench auch gern 1,05v. Mehr hab ich aber noch nicht gesehen.

Danke... gut, die 1,05V werden sich auf höhere Frequenzen beziehen da Heaven eher nicht stark heizt. Wenn ich die 910mV als Massstab nehme ist da noch einiges an Luft nach unten. Was ist denn das Minimum für dieses Silizium? 750mV?

robbitop
2022-12-20, 10:17:46
Also werden die Customs interessant- vor allem wenn es Wasserblocks gibt.

RoNsOn Xs
2022-12-20, 10:18:39
@blacki
über HDMI weiterhin nur die 3 Stufen 60, 120, 144hz.

HDMI, 60hz:
- zwischen 17 und 30watt Verbrauch. Ziemlich gut. Interessanterweise taktet hier der Speicher auf unter 100Mhz schwankend.

HDMI, 144Hz:
- 45-60w, Speicherfreq. 909Mhz fest.
- 120hz selbes Verhalten.
- 4k YT-Video 80-90w

edit: das galt nur im HDR-Modus. Ohne siehts nochmal anders aus.


ohne HDR:
HDMI, 60hz-144hz
- 19-33 Watt, Speichertakt weiterhin unter 100Mhz
- 4k YT-Video 70-80w, Speicher 909Mhz



edit2:
das Ganze Verhalten gilt auch für DP. Erst mit HDR+120Hz fängt die Karte an zu saufen.

dargo
2022-12-20, 10:21:05
Also werden die Customs interessant- vor allem wenn es Wasserblocks gibt.
Wenn du stärker übertakten willst kommst du eh nicht an Customs vorbei schon alleine wegen 3x 8Pin.


HDMI, 60hz:
- zwischen 17 und 30watt Verbrauch. Ziemlich gut. Interessanterweise taktet hier der Speicher auf unter 100Mhz schwankend.

Klingt nach DPM 0 wo alles passt.


HDMI, 144Hz:
- 45-60w, verhält sich wie auf DP. Speicherfreq. 909Mhz fest.
- 120hz selbes Verhalten.
Das klingt dann eher nach DPM 2 oder 3.

dargo
2022-12-20, 10:25:07
dp

RoNsOn Xs
2022-12-20, 10:31:49
Hab oben nochmal einen edit reinwerfen müssen. Lag am HDR.
edit: DP hinzugefügt.

BlacKi
2022-12-20, 10:42:38
Welche? Deine oder irgendeine?


ja

Wie kommst du auf den Trichter wenn aktuell die XTX gerade mal um 10% beim PT verringert werden kann, was 319,5W entspricht? Dass man Leistung mit 200W vs. 355W verliert sollte jedem einleuchten (selbst mit dem besten UV kann man die fehlenden 155W nicht ausgleichen), aber Effizienz? Das ergibt so gar keinen Sinn. Ok... in einem Fall würde es Sinn ergeben... wenn man weiter die Frequenz senkt obwohl schon die Minimalspannung der GPU erreicht ist. Aber ist dieser Punkt schon mit 200W erreicht? der punkt ist schon bei 250-300w erreicht. das wollte ich damit sagen.

effizienz ist fps pro watt. bei 270w vs 200w sind 26% weniger verbrauch, bei fast 41% weniger fps. der effizienteste punkt mit UV liegt sehr hoch bei der karte, etwa bei 250-300w. auch die XT wäre mir da noch zu hoch. noch dazu kommt, das NV deutlich effizienter ist, die 4070ti wird wohl nochmal effizienter undwird bei 200-240w ihren effizientesten punkt haben. ist dabei sogar wahrscheinlich günstiger. deshalb ist sie wieder weg.

Wenn ich die 910mV als Massstab nehme ist da noch einiges an Luft nach unten. Was ist denn das Minimum für dieses Silizium? 750mV?

0,7v kann man einstellen. angezeigt werden dann bei niedriger teillast so bei 1500mhz auch leicht darunter, ca. 0,69v. beim effizientesten punkt bei 2200-2300mhz und eingestellten 0,7 zeigt adrenaline auch 0,71-0,72v an. keine ahnung ob die leichten abweichungen stimmen.

dargo
2022-12-20, 10:56:18
bei 270w vs 200w sind 26% weniger verbrauch, bei fast 41% weniger fps.
Das ergibt überhaupt keinen Sinn, ist auch völlig unlogisch und widerspricht der Physik. Mit hoher Wahrscheinlichkeit veräppelt dich der Treiber bzw. Wattman weil noch buggy.

btw.
Blieb bei deinem Test der Speichertakt die ganze Zeit oben? Nicht, dass dies die Fehlerquelle ist.

BlacKi
2022-12-20, 10:59:43
Das ergibt überhaupt keinen Sinn und ist auch völlig unlogisch. Mit hoher Wahrscheinlichkeit veräppelt dich der Treiber bzw. Wattman weil noch buggy.

btw.
Blieb bei deinem Test der Speichertakt die ganze Zeit oben? Nicht, dass dies die Fehlerquelle ist.


du hast dir die antwort doch schon selbst gegeben.


Das ergibt so gar keinen Sinn. Ok... in einem Fall würde es Sinn ergeben... wenn man weiter die Frequenz senkt obwohl schon die Minimalspannung der GPU erreicht ist. Aber ist dieser Punkt schon mit 200W erreicht?

wie schon eben geschrieben, das wird schon bei 250-300w erreicht. 0,7v bei bis zu 300w. isso.

RoNsOn Xs
2022-12-20, 11:04:56
Danke... gut, die 1,05V werden sich auf höhere Frequenzen beziehen da Heaven eher nicht stark heizt. Wenn ich die 910mV als Massstab nehme ist da noch einiges an Luft nach unten. Was ist denn das Minimum für dieses Silizium? 750mV?
700mv laut Adrenalin. Ingame liegen dann trotzdem bis zu 740mv an. Siehe: https://abload.de/image.php?img=unbenanntj5ipz.png

dargo
2022-12-20, 11:07:07
wie schon eben geschrieben, das wird schon bei 250-300w erreicht. 0,7v bei bis zu 300w. isso.
900+mV @Stock, ergo 355W und bei 300W liegen schon 700mV an? Das kann ich mir wirklich kaum vorstellen, dass ~200mV weniger in nur -55W resultieren.

RoNsOn Xs
2022-12-20, 11:11:59
Jap, hatte ich aber auch schon 2 Seiten zuvor geschrieben. Habe 0,7 eingestellt, Output kommen dennoch bis zu 0,74v an. Verbrauch 270-290w. Und das war nur im TSE.
Die Karte ist, so wie sie heute ist, ineffizient.

nairune
2022-12-20, 11:17:40
Heißt doch nur, dass es viel mehr / größere Verbraucher gibt, die nicht mit der GPU-Kernspannung und -Takt skalieren.
Vielleicht schlucken die Verbindungen zu den Cache-Chiplets unendlich viel oder das, was in dieser zweiten Taktdomäne liegt, ist das Problem.

BlacKi
2022-12-20, 11:36:02
900+mV @Stock, ergo 355W und bei 300W liegen schon 700mV an? Das kann ich mir wirklich kaum vorstellen, dass ~200mV weniger in nur -55W resultieren.bis zu 300w. durschnittlich eher 70-80w weniger. auch wenn ich ab und zu auch 290w+ gesehen habe

gbm31
2022-12-20, 13:01:34
Ich retourniere meine 7900XTX, eine 4080 ist bestellt. Das ist mir zuviel Baustelle, vor allem mit meinem Schwerpunkt VR.

Linmoum
2022-12-20, 13:53:17
Wie performt sie denn grundsätzlich im Vergleich zur 6900XT? In etwa so, wie babeltech das in ihrem Review schon hatte?

Wiseman
2022-12-20, 16:18:55
Wie performt sie denn grundsätzlich im Vergleich zur 6900XT? In etwa so, wie babeltech das in ihrem Review schon hatte?

Techpowerup:

3840x2160: 7900XTX Ref vs 6900XT Ref (Rasterizer) + 47%
3840x2160: 7900XTX Ref vs 6900XT Ref (Raytracing) + 56%

CB:

3840x2160: 7900XTX Ref vs 6900XT Ref (Rasterizer) + 43%
3840x2160: 7900XTX Ref vs 6900XT Ref (Raytracing) + 56%

r3ptil3
2022-12-20, 16:47:11
Ich retourniere meine 7900XTX, eine 4080 ist bestellt. Das ist mir zuviel Baustelle, vor allem mit meinem Schwerpunkt VR.

Kannst du kurz die Punkte hier aufzeigen, welche nicht gepasst haben?

Linmoum
2022-12-20, 16:54:52
...Es ging explizit um VR. ;) Das hat bis auf babeltech glaube ich bislang kein Reviewer dabei gehabt.

gbm31
2022-12-20, 17:41:01
Kannst du kurz die Punkte hier aufzeigen, welche nicht gepasst haben?

- Unter Last deutlich zu laut, Niveau Radeon VII, kein Vergleich zu meiner Referenz 6900XT, schon gar nicht mit MPT&Wattman.
- Abstürze (auch mit 2 Kabeln am Single Rail) in Spielen, die mit der 6900XT problemlos laufen
- miese VR Performance, ACC geht gar nicht mehr, Alyx ist bei 45-70fps statt >90, selbst AM2 hat plötzlich Aussetzer

Liegt sicher an den Treibern, aber auf so einen Kindergarten hab ich keinen Bock mehr, seit Vega immer das selbe.

Es ging explizit um VR. ;) Das hat bis auf babeltech glaube ich bislang kein Reviewer dabei gehabt.

Siehe letzter Punkt oben. Teilweise 50% schneller, aber nicht so glatt laufend, teilweise schlechter als die 6900XT. Und bei der hat AMD ein halbes Jahr gebraucht, um auf 3080/3090 Niveau zu kommen, um dann von 22.5.2 bis 22.10.3 wieder komplett auszufallen VR-technisch.

horn 12
2022-12-20, 17:47:42
Gar mit UV viel zu laut gewesen?
VR nutzte ich nicht :-) :-)
Ein 650 Watt BeQuiet NT reicht dann sicherlich nicht ?

r3ptil3
2022-12-20, 17:54:56
- Unter Last deutlich zu laut, Niveau Radeon VII, kein Vergleich zu meiner Referenz 6900XT, schon gar nicht mit MPT&Wattman.
- Abstürze (auch mit 2 Kabeln am Single Rail) in Spielen, die mit der 6900XT problemlos laufen
- miese VR Performance, ACC geht gar nicht mehr, Alyx ist bei 45-70fps statt >90, selbst AM2 hat plötzlich Aussetzer

Liegt sicher an den Treibern, aber auf so einen Kindergarten hab ich keinen Bock mehr, seit Vega immer das selbe.


Laut und kühl oder laut und heiss?
Im Treiber könnte man die Lüfterdrehzahl prozentual begrenzen.

Heisst du vielleicht im Ereignislog geschaut, ob was drin stand nach den Crashs?
Die CPU wird auch etwas anders gefordert mit der GPU, könnte vielleicht auch auf eine Instabilität in die Richtung hindeuten. (So als Tipp, falls sich da mit der 4080 was wiederholen sollte)

Hoffentlich klappts mit der 4080er besser.

gbm31
2022-12-20, 18:15:28
Laut und kühl oder laut und heiss?
Im Treiber könnte man die Lüfterdrehzahl prozentual begrenzen.
...
Die CPU wird auch etwas anders gefordert mit der GPU, könnte vielleicht auch auf eine Instabilität in die Richtung hindeuten.

Der 5800X3D ist in alle Richtungen safe, der Speicher ebenso.

Und ganz am Anfang hab ich eh alles auf default laufen gehabt, um wirklich nur die neue Komponente zu isolieren.

Dass die 7900XTX ein Single Rail NT mit 70,8A in die Knie zwingt weil sie nur an einem Kabel hängt hätte ich nicht gedacht.

Laut und kühl, GPU 67°, Hotspot 82°, Memory Junction 84°. Hätte ich bissle tunen können, aber default ist die 6900XT z.B. trotzdem schon deutlich leiser.

RoNsOn Xs
2022-12-20, 19:58:38
Ein 650 Watt BeQuiet NT reicht dann sicherlich nicht ?
650w sollten gar kein problem sein. Hat selbst "Blase" unter einer 4090 laufen.
Jetzt verrate ich mal, dass ich hier die Kombi 7900xtx und nur 550w-NT (https://www.technic3d.com/review/netzteile/1247-rasurbo-real-power-550w-netzteil-im-test/1.htm) laufen habe. Da kann sicher niemand drunter.
Und? CP77 und alles andere rennt durch. Selbst mit +15% PT [400w + 120w auf der cpu schon gleichzeitig gesehen). Da gibt es bisher allerdings 1 Spiel (A Plague Tale Requiem) bei dem es nach wenigen Minuten einen Absturz gibt. Und das, obwohl der Verbrauch gar nicht höher als in anderen Szenarien ist. Schließe ich aber eindeutig aufs Netzteil, da es instant aus geht, was ich sonst noch nicht erlebt habe. Und nach massiver Untertaktung rennt es dann doch.
750w liegen allerdings schon hier.

horn 12
2022-12-20, 20:13:46
Wäre exakt ein Be Quiet Dark Power Pro 11 zu 650 Watt
gerade die 6800XT lauen lassen OHNE UV mit God of War und da war die Karte bei 254 Watt und der Rest nochmals knappe 40 Watt und dies wäre in etwa der Stromverbrauch einer @Stock 7900XT aber jene haben viel viel höhere Spikes als die 6800-er Serie!

Rolsch
2022-12-20, 20:23:11
- miese VR Performance, ACC geht gar nicht mehr, Alyx ist bei 45-70fps statt >90, selbst AM2 hat plötzlich Aussetzer

Will dich ja nicht in Versuchung führen, aber dein Kampfzwerg braucht für VR eine 4090. Die paar Scheine kratzt man auch noch zusammen und hat sehr lange seine Ruhe. :udevil:

dargo
2022-12-20, 20:36:58
Jayz hat jetzt UV bei Radeon verstanden. :tongue:

LMaCXI0179Q

gedi
2022-12-20, 20:57:38
- Unter Last deutlich zu laut, Niveau Radeon VII, kein Vergleich zu meiner Referenz 6900XT, schon gar nicht mit MPT&Wattman.
- Abstürze (auch mit 2 Kabeln am Single Rail) in Spielen, die mit der 6900XT problemlos laufen
- miese VR Performance, ACC geht gar nicht mehr, Alyx ist bei 45-70fps statt >90, selbst AM2 hat plötzlich Aussetzer

Liegt sicher an den Treibern, aber auf so einen Kindergarten hab ich keinen Bock mehr, seit Vega immer das selbe.



Siehe letzter Punkt oben. Teilweise 50% schneller, aber nicht so glatt laufend, teilweise schlechter als die 6900XT. Und bei der hat AMD ein halbes Jahr gebraucht, um auf 3080/3090 Niveau zu kommen, um dann von 22.5.2 bis 22.10.3 wieder komplett auszufallen VR-technisch.

Wenn ich mir deine Punkte so anschaue, sieht es für mich eher nach Anwenderfehler an.
Temps unter Last?

Linmoum
2022-12-20, 21:23:20
Ja klar, Anwenderfehler. Vor allem bei 2x8pin hat man ja schließlich auch sehr viele Möglichkeiten, die GPU ans Netzteil anzuschließen. ;D

Miese VR-Performance hat auch babeltech vorher schon umfangreich testen dürfen.

Beim Kühler hat man jetzt auch keine Begeisterungsstürme feststellen dürfen. Mein subjektiver Eindruck ist insgesamt auch, dass der auf N31 (etwas) schlechter wahrgenommen wird, als der auf der 6800XT/6900XT.

gbm31
2022-12-20, 21:34:26
Gedi, ich bin nicht erst seit gestern mit AMD unterwegs und auch nicht seit vorgestern hier...

Und nochmal, das NT ist komplett single rail und damit eigentlich egal ob 1 oder 4 Kabel zur Graka gehen.

Bin eher AMD biased (siehe Sig...) aber das geht echt nicht.
Ich bin mit meiner 6900XT sehr zufrieden, nur ein Tick mehr VR Leistung wär perfekt, und genau das liefert der Nachfolger nach 2 Jahren eben überhaupt nicht, noch dazu mit den Nachteilen Geräusch und Verbrauch, an denen kein Treiber der Welt was ändern können wird.
Preis/Leistung ist auf dem Niveau eh für den Popo, und für 200€ mehr nehm ich gern ordentliche VR Performance + Leise + sparsam + RT mit, auch wenn ich der Lederjacke für die Entwicklung seit der 2080 am liebsten ins Gesicht... lassen wir das.

BlacKi
2022-12-20, 21:43:36
Beim Kühler hat man jetzt auch keine Begeisterungsstürme feststellen dürfen. Mein subjektiver Eindruck ist insgesamt auch, dass der auf N31 (etwas) schlechter wahrgenommen wird, als der auf der 6800XT/6900XT.


der ist nicht schlechter. aber er ist auch nicht besser. 1100 rpm bei avg 275w 62° ist nicht schlecht. aber mit oc landet das eher bei 2000rpm. aber mit 2x 8pin? er ist gut für die größe.

Langlay
2022-12-20, 21:51:15
Ich bin mit meiner 6900XT sehr zufrieden, nur ein Tick mehr VR Leistung wär perfekt, und genau das liefert der Nachfolger nach 2 Jahren eben überhaupt nicht, noch dazu mit den Nachteilen Geräusch und Verbrauch, an denen kein Treiber der Welt was ändern können wird.
Preis/Leistung ist auf dem Niveau eh für den Popo, und für 200€ mehr nehm ich gern ordentliche VR Performance + Leise + sparsam + RT mit, auch wenn ich der Lederjacke für die Entwicklung seit der 2080 am liebsten ins Gesicht... lassen wir das.

Ja vor dem Problem steh ich eigentlich auch, in Raster is die 6900XT eigentlich schnell genug für mich. Ich hätte gerne mehr Dampf in RT und ja das bietet die 7900XTX, das RT Lvl würde mir auch erstmal reichen. Aber der Rest überzeugt halt garnet. Wenn ich den Stromverbrauch auf das drücken will was meine 6900XT(die 24/7 UV Settings) so zieht, dann ist die Karte in Raster 25-30% schneller als die 6900XT und dafür 1200€ + 150-200€ fürn Wasserkühler, ist halt irgendwie unsexy. Ja die 4080 gefällt mir allgemein auch besser, aber da muss ich mich wieder mit dem Afterburner und RTSS rumärgern, hab ich auch keinen Bock. Daher gibts Konsumverzicht. So groß ist die Not nicht.

BlacKi
2022-12-20, 21:55:59
Ja die 4080 gefällt mir allgemein auch besser, aber da muss ich mich wieder mit dem Afterburner und RTSS rumärgern, hab ich auch keinen Bock. Daher gibts Konsumverzicht. So groß ist die Not nicht.letzteres kann man machen, von einer 6900xt ausgehend. aber was stört dich am afterburner und rtss. letzteres muss man nichtmal installieren, und afterburner halt zum optimieren.(je nach hersteller gibts andere tools(die aber nicht besser sind)).

Linmoum
2022-12-20, 22:00:34
Also simpler als der Curve Editor via AB geht's ja fast schon gar nicht. Zumal AB/RTSS ja gefühlt sowieso jeder Nerd laufen hat wegen des OSD und Framelimiters.

Langlay
2022-12-20, 22:01:24
letzteres kann man machen, von einer 6900xt ausgehend. aber was stört dich am afterburner und rtss. letzteres muss man nichtmal installieren, und afterburner halt zum optimieren.(je nach hersteller gibts andere tools(die aber nicht besser sind)).

Grundsätzlich ist der Afterburner schon okay, ist halt ein Programm mehr das installiert und upgedatet werden muss. Mit RTSS gibts halt schon manchmal irgendwelche komischen Probleme (z.b. im Userbench gehen die 3D Benchmarks nicht mehr und sowas halt) und auf ein Overlay das die wichtigsten Werte anzeigt will ich nicht verzichten. Und bei AMD ist halt nice du hast das alles im Treiber und fertig, ich kann auf das ganze 3rd Party Zeug verzichten. Das war neben dem Teillaststromverbrauch einer der Gründe wieso ich von der 3090 auf die 6900XT gewechselt bin.

Also simpler als der Curve Editor via AB geht's ja fast schon gar nicht. Zumal AB/RTSS ja gefühlt sowieso jeder Nerd laufen hat wegen des OSD und Framelimiters.

OSD hat der AMD Treiber ein für mich ausreichendes und Framelimiter brauch ich nicht, dafür gibts Vsync.

aufkrawall
2022-12-20, 22:15:05
Also simpler als der Curve Editor via AB geht's ja fast schon gar nicht. Zumal AB/RTSS ja gefühlt sowieso jeder Nerd laufen hat wegen des OSD und Framelimiters.
Und seit Pascal funktioniert das einfach, und das ggf. komplett ohne Programm-Update.
Das Wattman-UV für RDNA1 war noch super, ab 2 Müll, und 3 scheint nun dem ganzen die Krone aufzusetzen...

MSABK
2022-12-20, 22:15:53
Der „hübsche“ Treiber ist auch das was mich bei Amd lässt, RDNA2 ist halt auch eine verdammt gute Gen und RDNA3 ist da leider einfach quasi wie RDNA1. Alleine wegen dem Preis wird Nvidia für mich nie eine Alternative werden.

aufkrawall
2022-12-20, 22:18:37
Der „hübsche“ Treiber ist auch das was mich bei Amd lässt
Dann hat AMD mit dem verbuggten Blender-UI alles richtig gemacht, wenn sich die Kunden derart bereitwillig verarschen lassen.
Noch im April letzten Jahres hatte die Wattman Custom-Lüfterkurve per Graph hier reproduzierbar Frame Time Spikes verursacht, wie schon zu RDNA1-Zeiten. Und das Micky-Maus-Gaga-UV war auch der Knaller, kompletter Spaghetti-Code...