PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7900 XT & XTX Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15

TheGood
2023-01-13, 22:44:06
Es wurde oft genug kritisiert und entsprechend festgestellt, dass RDNA2 bei Teillast effizienter als Ampere war. Und zwar durchaus deutlich. Der Whataboutism geht also sogar komplett ins Leere. ;)

Im Übrigen leben wir nicht in der Vergangenheit, sondern in der Zukunft. Was Fortschritt heißt. Neue Produkte müssen sich mit neuen (Konkurrenz-)Produkten messen und nicht mit irgendwelchen alten Generationen. Vor allem dann nicht, wenn hier auch noch ein neuer Fertigungsprozess zum Einsatz kommt.

AMD hat wieder irgendwelche Dinge priorisiert außer solche, die ihre eigenen Produkte zum Launch im bestmöglichen Licht darstehen lassen. Und damit ist noch nicht einmal das Desaster um die VC gemeint.

Aber hauptsache, man hat die XT kurz vorm Launch noch auf 315W hochgezogen, damit man 1,4% mehr Performance hat. Das sind schließlich die wichtigen Dinge, die die Kunden wollen und die vor allem in Erinnerung bleiben.

Geht natürlich völlig am Punkt vorbei, da ich gar nichts von einem Vergleich mit der alten Generation gesagt habe. Ist auch nicht nötig die Eregbnise pro Generation sind da eindeutig. Der Hinweis mit Fertigungstechnologie ist doch dem KUnden wurscht und ist und war schlichtweg eine unternehmerische Fehleinschätzung. Wobei das finanziell am Ende wohl wurscht und perfekt für die GEwinne war, so gut wie sich die Generation verkauft hat....

Im Generationenvergleich von r6000 und rtx 3000, in der Fachpresse hat das Thema keine Rolle gespielt. Niemand sagte dass Nvidia ihre Treiberarbeit nicht im Griff hat (offensichtlich sind sie das Problem gar nicht erst angegangen) usw.... DA hat vor 2 Jahren der Teillastbetrieb offensichtlich nicht wirklich interessiert. Ich kann mich nicht an einen "Aufruhr" in der Presse erinnern, vor allem nicht vom IGOR der das sehr polemisch dieses Jahr kritisiert hat.


Bei AMD tritt es auf und auf einmal ist dazu auch ein Aufrur da. Das ist doch der Punkt.
Beide Hersteller kochen am Ende nur mit Wasser und shit happens auf beiden Seiten. Man sieht das gut an dem Teillastvergleich.


Man muss aber auch ehrlicherweise gestehen, dass AMD/Ati sich das über Jahre erarbeitet hat, da sie immer noch einen Schritt weiter voraus sind.

Ex3cut3r
2023-01-13, 23:31:54
Persönliche Unkaufbarkeit von Radeons ist somit von 99% auf 100% gestiegen, Bugman tue ich mir dieses Leben nicht mehr an...

Ich wurde mir auch keine kaufen. Die Radeons sind alle zu teuer. Die GeForces sind nochmal teurer, ist klar. Aber, die bieten auch mehr fürs Geld. RT Leistung, DLSS, Upsampling und FG.

Was bietet mir AMD? Raster Performance vs 4080 und 4 bzw. 8gig mehr VRAM, das wars. Nie im Leben. Bei 899€ für die XTX und 699€ für die XT könnte man schwach werden, alles andere vollkommen überteuert.

horn 12
2023-01-13, 23:43:19
RT Leistung von +25% - DLSS kommt in 4 - 6 Wochen die Alternative und FG kommt ebenso zeitglich!

Megamember
2023-01-14, 00:27:17
RT Leistung von +25% - DLSS kommt in 4 - 6 Wochen die Alternative und FG kommt ebenso zeitglich!

Gott sei dank, wenn du das sagst.....

vinacis_vivids
2023-01-14, 00:40:03
Guten Abend zusammen, als stiller Mitleser seit Jahren nun auch mal angemeldet^^

Habe mir jetzt auch eine 7900 XTX Nitro+ zugelegt. Habe sie bei Alternate für 1350€ Gekauft.
Ich komme von einer 6900 XT Nitro+ und war mit dieser sehr zufrieden.

Mein Erster Eindruck von der XTX, sie sieht doch viel besser aus als ich erwartet hab. Auch von der Wertigkeit/Verarbeitung her. Kein Vergleich zu der 6900 Nitro.

Treiber Naja, hatte eig nie Große Probleme, aber bei der XTX sind die echt Beta Status. Ich nutze zb das AMD Overlay und sobald ich den anmache hab ich ca 10% weniger FPS, warum auch immer.

Meine 6900 XT lief ca mit 2.500Mhz und kam auf 10600 Punkte.
Mit der XTX kam ich Stock auf 15000, nach bisschen Rumspielerei auf 17000.

Schade das MPT noch nicht funktioniert, weiss man hier eig was neues?

Gratuliere 👌
Nitro+ 7900XTX ist bisher auch mein Favorit. Was macht die so an Taktraten mit +15% Power und etwas UV?

3,0Ghz GPU + 2,8Ghz VRAM?
Das ist ja 4090 Level.
Ein run in Superposition wäre sehr interessant.

Das BIOS der 7900XTX ist noch nicht geknackt, daher dauert das noch mit dem MPT.

r3ptil3
2023-01-14, 01:04:10
Würde mich nicht überraschen, wenn das MPT dauerhaft nicht geht mit RDNA3.

vinacis_vivids
2023-01-14, 01:25:43
MPT lohnt sich bei der 7900XT mit 3x8Pin sicherlich. Die Asrock TaiChi 7900XT hat 3x8Pin und ist ein Kandidat für 3,0-3,2Ghz. Ausgehend von 2,4-2,5Ghz MBA Stock ist das ne Steigerung von bis zu +28%. Das ist extrem gut.

Die 7900XTX mit 3x8Pin ist ja bei Standard-OC +15% und ~500W am Limit bei knapp 3,0-3,2Ghz@UHD.

RDNA3 ist derzeit bei ~500W und ~3,2Ghz @UHD limitiert. Für ein höheres MPT von 600W brauchste ne andere Hardware mit mehr VRMs. Dann schaft die erste RDNA3 Iteration vllt. 3,25-3,3Ghz bei ~600W - also völlig außerhalb der Vernunft.

Bin gespannt wie sich die Asrock 7900XTX Aqua schlagen wird. Vllt. hilft H2O etwas bei den Taktraten für 500W und 3,3Ghz.

Hier noch ein Review zur Nitro 7900XTX:
https://www.club386.com/sapphire-radeon-rx-7900-xtx-nitro-vapor-x-review-light-my-way/

FluFFy80
2023-01-14, 01:29:36
del

CriX
2023-01-14, 01:29:44
Gratuliere ��
Nitro+ 7900XTX ist bisher auch mein Favorit. Was macht die so an Taktraten mit +15% Power und etwas UV?

3,0Ghz GPU + 2,8Ghz VRAM?
Das ist ja 4090 Level.
Ein run in Superposition wäre sehr interessant.

Das BIOS der 7900XTX ist noch nicht geknackt, daher dauert das noch mit dem MPT.

Bei meinen letzen Beitrag im TimeSpy Bench hatte ich 3100-3200 Mhz GPU Frontend, und Shadertakt lag bei 2950-3000 Mhz
VRAM 2,7Ghz

Wattman Einstellungen 3100 Mhz für GPU, Max PT limit und Spannung 1040mv

Superpostion kann ich gerne machen. Welche Einstellungen?

vinacis_vivids
2023-01-14, 01:33:11
Bei meinen letzen Beitrag im TimeSpy Bench hatte ich 3100-3200 Mhz GPU Frontend, und Shadertakt lag bei 2950-3000 Mhz
VRAM 2,7Ghz

Wattman Einstellungen 3100 Mhz für GPU, Max PT limit und Spannung 1040mv

Superpostion kann ich gerne machen. Welche Einstellungen?

Besten Dank, Top 👌
4K Optimized und 8K Optimized sind gerade in Mode:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=577115&page=28

CriX
2023-01-14, 02:01:47
Im Vergleich zur 4090 ja eher mau das Ergebnis

denjudge
2023-01-14, 02:18:44
Superposition ist traditionell Geforce Territorium.

vinacis_vivids
2023-01-14, 02:30:45
Die 7900XTX ist noch sehr neu und den alten DX11 Schinken würde ich auch nicht mehr als Referenz nehmen. Bei 8k dürfte zudem die Hitrate bei IF$ sehr klein sein und fast alles über den VRAM laufen, weshalb RDNA3 hier zurück liegt.

Ich habe mit meiner 6800er über die Zeit (Treiber und OC) +20% Leistung geschafft von 11,6k auf 13,9k bei 4K Optimized (und damit die 2080Ti überholt)

Exxtreme
2023-01-14, 11:58:38
Die 7900XTX ist noch sehr neu und den alten DX11 Schinken würde ich auch nicht mehr als Referenz nehmen.

Diese "alten Schinken" machen den überwiegenden Teil der aktuell viel gespielten Spiele aus. Man solte also in sein Spielportfolio reinschauen und dann entscheiden.

Wiseman
2023-01-14, 18:09:17
RT Leistung von +25% - DLSS kommt in 4 - 6 Wochen die Alternative und FG kommt ebenso zeitglich!

Ein bisschen unglücklich ausgedrückt, aber ansonsten gebe ich dir in allen Punkten recht.

Mit Alternative zu DLSS meinst du wahrscheinlich FSR 3.0 und bei AMD wird es nicht FG heißen, sondern Fluid Motion Frames Technology.

Zitat von CB:

Auch wenn es vorerst nur wenige Details zur neuen Technologie gibt, laut AMD soll FSR 3.0 die Performance deutlich gegenüber FSR 2.x verbessern. Eine maximal verdoppelte Framerate soll es geben, unter der Bezeichnung „Fluid Motion Frames Technology“ läuft FSR 3.0.

Die Technologie hört sich genauso wie Nvidias DLSS 3.0 mit Frame Generation an, was zur Bezeichnung und zur höheren Leistung passen würde, was aber nur eine Spekulation der Redaktion ist. Wobei es sicherlich auch kein Zufall ist, dass RDNA 3 erstmals KI-Einheiten hat – wenn sinnvoll, wird AMD diese auch für Upsampling nutzen. Ob FSR 3.0 auch auf Grafikkarten abseits von RDNA 3 laufen wird, ist aktuell noch unklar.

Woher hast du die Info mit 4 bis 6 Wochen? CB hat vor ein paar Tagen geschrieben, dass FSR 3.0 laut AMD "in Kürze" rauskommt.

vinacis_vivids
2023-01-14, 18:20:12
Bei RDNA3 sind die "Mesh-Shader" noch im Beta-Stadium.

https://abload.de/img/screenshot_20230114_102cdc.jpg

r3ptil3
2023-01-14, 21:04:24
Es wurde oft genug kritisiert und entsprechend festgestellt, dass RDNA2 bei Teillast effizienter als Ampere war. Und zwar durchaus deutlich. Der Whataboutism geht also sogar komplett ins Leere. ;)

Im Übrigen leben wir nicht in der Vergangenheit, sondern in der Zukunft. Was Fortschritt heißt. Neue Produkte müssen sich mit neuen (Konkurrenz-)Produkten messen und nicht mit irgendwelchen alten Generationen. Vor allem dann nicht, wenn hier auch noch ein neuer Fertigungsprozess zum Einsatz kommt.


Den Beitrag würde ich gerne eine doppelte 10/10 geben.

Zudem muss man einfach zum 1026 Mal erwähnen, dass die Hersteller die "alte" High-End-Klasse zerstört und durch den Mid-Range ersetzt haben.

HD 7970, GTX 680 R9 290X, R9 Fury, GTX 980, 1080... alles zwischen 500-635$.

Daher wäre es eigentlich Pflicht für jeden einzelnen Tester die neuen Grafikkarten (>800$) regelrecht in den Reviews zu zerreißen und nicht annähernd irgendeine Empfehlung oder was ähnliches zu schreiben.

Es sei denn Verbrauch, Effizienz, neue Technologien, VRAM Größe etc. sind exzellent, ausreichend und fehlerfrei bei einem Produkt von 1000 Euro aufwärts (RX 7900 XT, RTX 4070 TI).
Dann könnte man das als positiven Punkt anmerken, aber natürlich trotzdem den Preis weiterhin als einer der größten Kritikpunkte stehen lassen. Von einer Kaufempfehlung darf sowieso keine Rede sein.

aceCrasher
2023-01-14, 22:22:21
Bei 8k dürfte zudem die Hitrate bei IF$ sehr klein sein und fast alles über den VRAM laufen, weshalb RDNA3 hier zurück liegt.

Blödsinn, die 4090 verlässt sich doch auch auf ihren 72MB Cache, der ist sogar kleiner als der der 7900XTX.

vinacis_vivids
2023-01-14, 22:39:10
Die 4090 hat mehr Rohleistung mit 82 Tflop/s. Bei den OC Modellen ~3Ghz sind es gar 98,3 Tflops.
Die 7900XTX mit 3,0Ghz liegt bei 73,73 Tflops. Das sind ~32% mehr Rohleistung für AD102. So gesehen ist der Vorsprung dann doch relativ moderat.

Tesseract
2023-01-14, 22:42:57
weder cache noch TFLOPS lassen sich direkt zwischen architekturen vergleichen.

=Floi=
2023-01-14, 23:44:38
Zeiten ändern sich hald auch. Die gpus sind teurer und komplexer geworden.
Es gibt einfach nicht mehr den gratis benefit einer neuen gen. Ich zahle auch lieber 5€ mehr für eine 7900XTX und bekomme dann ein rundes produkt. (vram, 384bit etc,)


Ich habe das mit dem teillastverbrauch der alten gen wirklich nirgends gelesen.

TheGood
2023-01-15, 00:02:31
Ich wurde mir auch keine kaufen. Die Radeons sind alle zu teuer. Die GeForces sind nochmal teurer, ist klar. Aber, die bieten auch mehr fürs Geld. RT Leistung, DLSS, Upsampling und FG.

Was bietet mir AMD? Raster Performance vs 4080 und 4 bzw. 8gig mehr VRAM, das wars. Nie im Leben. Bei 899€ für die XTX und 699€ für die XT könnte man schwach werden, alles andere vollkommen überteuert.

Also bei mindestens 50% Gewinnspanne, finde ich wäre der Preis für ne 4080 gerechtfertigt für ungefähr 600€. Mehr geht definitiv überhaupts ned......

TheGood
2023-01-15, 00:04:24
Blödsinn, die 4090 verlässt sich doch auch auf ihren 72MB Cache, der ist sogar kleiner als der der 7900XTX.

Was denkst du denn wo der Effizienzsprung herkam. AUch zu großen Teilen von dem Cache, das war bie AMD und RDNA2 nicht anders.

TheGood
2023-01-15, 00:07:42
Zeiten ändern sich hald auch. Die gpus sind teurer und komplexer geworden.
Es gibt einfach nicht mehr den gratis benefit einer neuen gen. Ich zahle auch lieber 5€ mehr für eine 7900XTX und bekomme dann ein rundes produkt. (vram, 384bit etc,)


Ich habe das mit dem teillastverbrauch der alten gen wirklich nirgends gelesen.

Sagt wer ? Gibst du bei allem so schnell auf? Habe gerade gelesen die Lebensmittepreise gehen in die nächste Massive Preiserhöhung, ist dir das auch so egal???
Und bitte kommt nicht mit ner arm und reich diskussion, die ist hier völlig fehl am platze...
Es geht hier um ein grundsatz diskussion, was wir uns als Gesellschaft noch alles bieten lassen wollen. MAn sieht ja schon an smartphones wie das ausgeartet ist. Keines der TOP Teile ist hier ansatzweise den Preis wert, den man dafür ausgeben muss...

Wiseman
2023-01-15, 00:42:58
Bei RDNA3 sind die "Mesh-Shader" noch im Beta-Stadium.

https://abload.de/img/screenshot_20230114_102cdc.jpg

Da kann man wirklich vom Beta-Stadium sprechen. RDNA3 wird selbst von 'ner 6800XT (RDNA2) locker überflügelt.

=Floi=
2023-01-15, 02:32:36
Sagt wer ? Gibst du bei allem so schnell auf? Habe gerade gelesen die Lebensmittepreise gehen in die nächste Massive Preiserhöhung, ist dir das auch so egal???

Es geht hier um ein grundsatz diskussion, was wir uns als Gesellschaft noch alles bieten lassen wollen. MAn sieht ja schon an smartphones wie das ausgeartet ist. Keines der TOP Teile ist hier ansatzweise den Preis wert, den man dafür ausgeben muss...

Bei smartphones fliesst sicherlich viel in die software.
Der mehrwert ist gegenüber einem günstigerem modell sicherlich sehr gering bis gering. Aber auch in dem segment zeichnet sich ab, dass immer mehr rescourcen für immer weniger merkbaren fortschritt benötigt werden.


Ich finde die 7900XTX einfach nicht zu teuer. Es wird auch nicht sichtbar alles so zusammengespart wie bei NV.

Matrix316
2023-01-15, 12:25:49
Also bei mindestens 50% Gewinnspanne, finde ich wäre der Preis für ne 4080 gerechtfertigt für ungefähr 600€. Mehr geht definitiv überhaupts ned......

Hamse ja ungefähr gemacht bei der 3080/6800XT - und was war? Konnst erst mal gar keine kaufen und dann als die Lieferbar war, stieg der Preis auf ~1100 Euro und stieg immer weiter und weiter und du kannst nicht mal heute eine 3080 zum 700 Euro UVP kaufen. :freak: Selbst eine 3090TI kostet aktuell mehr als eine 4080. Frag mich wer die noch käuft? =)

Wenn eine 4080 600 kostet, darf eine 7900XTX auch nicht mehr kosten. Sollen die dann die 6900er Karten für 400 Euro verschenken? ;)

Ist natürlich alles scheiße, aber das ist ziemlich schwer aus dem Teufelskreis zu kommen. Wir bräuchten mal eine High End Karte für max 600 Euro die auch so gut lieferbar ist, dass der Preis nicht wieder künstlich an die Decke getrieben wird. Und vorher müssten die halt die alten Modelle drastisch reduzieren - was halt auch nicht so einfach ist. Die Händler wollen ja auch kein Verlust machen.

Und genau deswegen werden die Preise erst mal so hoch bleiben.

Auf der anderen Seite sind die Grafikkarten im unteren Preissegment für Full HD und 1440p doch eigentlich auch schnell genug. Für Otto Normal League of Legends WOW Fortnite Gamer reicht eine 3060 oder 3070 oder 6600 oder 6700 doch dicke aus, oder? Und die kaufen für die dicken Games dann eine PS5 oder XBOX und können dann da für 600 Euro Cyberpunk in 4K spielen oder so ähnlich. ;)

vinacis_vivids
2023-01-15, 16:30:13
https://community.amd.com/t5/gaming/amd-radeon-rx-7900-xt-class-leading-performance/ba-p/576008

Die RX 7900XT ist eine sehr gute Karte:
Wenn man bedenkt, dass Custom OC Modelle mit 3x8Pin noch 20-30% Leistungsreserven haben, ist die RX 7900XT eine erstklassige Karte auf RTX 4080 Level.
AMD vergleicht sie in Stock Zustand mit der 4070Ti und 3090Ti.


https://abload.de/thumb/oguzhan_andic_2-16735i1cse.png (https://abload.de/image.php?img=oguzhan_andic_2-16735i1cse.png)
https://abload.de/thumb/oguzhan_andic_1-16735twck0.png (https://abload.de/image.php?img=oguzhan_andic_1-16735twck0.png)

ChaosTM
2023-01-15, 16:41:02
Ich hab normalerweise auch einen pro AMD Bias, aber diese Sheets zu verwenden macht nicht wirklich Sinn.
Momentan kann man diese Karten beim besten Willen nicht empfehlen.
In ein paar Wochen/Monaten kann es schon wieder ganz anders ausschauen.

OpenVMSwartoll
2023-01-15, 17:03:35
Momentan nur als Custom zu empfehlen. Nur kommt man preislich dann so nah an die 4080, dass diese plötzlich interessant wird.

Eigentlich schade, Potenzial für bessere Ausnutzung der Hardware scheint noch vorhanden.

Edit: Sorry, verlesen. Ihr spracht von der XT.

huey
2023-01-15, 18:06:14
Ich hab normalerweise auch einen pro AMD Bias, aber diese Sheets zu verwenden macht nicht wirklich Sinn.
Momentan kann man diese Karten beim besten Willen nicht empfehlen.
In ein paar Wochen/Monaten kann es schon wieder ganz anders ausschauen.

Hmm, verstehe diese Aussage nicht so ganz auch wenn sie zum Grundtenor im Moment gehört.
Die 7900XT spielt laut z.B. PCGH genau zwischen der 4080 und 4070Ti (dichter an der 4080), aber preislich liegt sie keine 100Euro über Letztgenannter und gute 350Euro unter der 4080. Ich gehe jetzt einfach mal davon aus das Custom-Modelle einen ähnlichen Abstand haben werden. Ich gebe zu ich zähle nicht zur Käuferschicht da ich für eine Investition ab 900Euro einfach viel zu wenig spiele, aber wenn dann wäre meine Überlegung das ich jetzt für etwa das gleiche Geld wie für eine 4070Ti eine Karte mit mehr Leistung und Speicher bekomme und zusätzlich die Hoffnung hegen darf das die in der neuen Architektur noch vorhandenen Verbesserungen in neueren Treiberversionen noch gehoben werden und der Verbrauch noch etwas runter geht wie ja zum Teil schon geschehen. Sollte das nicht geschehen ändert es auch nichts am hier und jetzt und den 8GB mehr an Speicher.

Taigatrommel
2023-01-15, 19:18:02
Momentan nur als Custom zu empfehlen. Nur kommt man preislich dann so nah an die 4080, dass diese plötzlich interessant wird.

Eigentlich schade, Potenzial für bessere Ausnutzung der Hardware scheint noch vorhanden.

Edit: Sorry, verlesen. Ihr spracht von der XT.

Der Straßenpreis der XTX ist halt zu hoch, bzw. die 4080 ist zu günstig geworden. Letztere gibt es ja teilweise schon für um die 1300,-€ und somit günstiger als so manche XTX Custom. Natürlich gibt es auch da Ausnahmen und man kann kaum sagen, dass beide Karten etwa gleich viel Kosten, doch der oft beworbene Preisvorteil der 7900 XTX ist nur noch auf dem Papier wahrnehmbar. In der Realität ist die Preisdifferenz kaum der Rede wert. Da muss man IMHO schon wirklich AMD Fan sein oder komplettes Desinteresse an Raytracing haben, um dort zur Radeon zu greifen.

Da steht meiner Meinung nach die kleinere XT inzwischen durch den deutlichen Preisverfall irgendwo attraktiver da, statt 100€ Preisdifferenz zur XTX sind es effektiv eher 300€.

ChaosTM
2023-01-15, 19:22:11
Hmm, verstehe diese Aussage nicht so ganz auch wenn sie zum Grundtenor im Moment gehört.
Die 7900XT spielt laut z.B. PCGH genau zwischen der 4080 und 4070Ti (dichter an der 4080), aber preislich liegt sie keine 100Euro über Letztgenannter und gute 350Euro unter der 4080. Ich gehe jetzt einfach mal davon aus das Custom-Modelle einen ähnlichen Abstand haben werden. Ich gebe zu ich zähle nicht zur Käuferschicht da ich für eine Investition ab 900Euro einfach viel zu wenig spiele, aber wenn dann wäre meine Überlegung das ich jetzt für etwa das gleiche Geld wie für eine 4070Ti eine Karte mit mehr Leistung und Speicher bekomme und zusätzlich die Hoffnung hegen darf das die in der neuen Architektur noch vorhandenen Verbesserungen in neueren Treiberversionen noch gehoben werden und der Verbrauch noch etwas runter geht wie ja zum Teil schon geschehen. Sollte das nicht geschehen ändert es auch nichts am hier und jetzt und den 8GB mehr an Speicher.


mir ging es hauptsächlich um die Kühler Probleme und um den hohen Dual/Multi Monitor Verbrauch.
Wenn das alles gelöst ist, überlege ich sogar die 4080er zurück zu geben..

OpenVMSwartoll
2023-01-15, 20:07:07
[...]

Da steht meiner Meinung nach die kleinere XT inzwischen durch den deutlichen Preisverfall irgendwo attraktiver da, statt 100€ Preisdifferenz zur XTX sind es effektiv eher 300€.

Das wirkliche Pfund der XT ist in meiner Rechnung der VRAM. Für den Preisbereich sind 16 GB Standard für mich.

RT-Leistung der XT ist nicht so viel geringer. Und ich würde nen Zehner wetten, dass hier noch Leistung zu holen ist. Plus Übertaktungsreserven.

Langlay
2023-01-15, 20:15:37
mir ging es hauptsächlich um die Kühler Probleme und um den hohen Dual/Multi Monitor Verbrauch.
Wenn das alles gelöst ist, überlege ich sogar die 4080er zurück zu geben..

So ähnlich isset bei mir auch, nur mir ist sogar noch der Kühler total egal, wird ja eh auf Wasserkühler umbebaut. Aber ich hätte auch mit dem Monitorverbrauch zu kämpfen und sorry 100W im Idle für die Graka, das ist halt ein Nogo. Und das MPT wahrscheinlich auf absehbare Zeit nicht mit Navi31 funzt spricht auch nicht unbedingt für einen Kauf bei mir.

Zur Zeit würde ich auch eher ne 4080 kaufen als ne 7900XTX.

Aber bevor Starfield rauskommt gibts bei mir eh noch keinen Bedarf, solange warte ich einfach noch ab wie sich das entwickelt.

GerryB
2023-01-15, 20:18:50
Der Straßenpreis der XTX ist halt zu hoch, ...

Häh? ... nehm halt die kleinere XT

989€ für ne fette Merc Black Edition im MS
@OCen gut für ca.15k Grafikscore im TSE

(bei der XTX würde ich warten, bis A wieder die Aorus für 1269€ liefern kann)

TheGood
2023-01-15, 20:51:52
Hamse ja ungefähr gemacht bei der 3080/6800XT - und was war? Konnst erst mal gar keine kaufen und dann als die Lieferbar war, stieg der Preis auf ~1100 Euro und stieg immer weiter und weiter und du kannst nicht mal heute eine 3080 zum 700 Euro UVP kaufen. :freak: Selbst eine 3090TI kostet aktuell mehr als eine 4080. Frag mich wer die noch käuft? =)

Wenn eine 4080 600 kostet, darf eine 7900XTX auch nicht mehr kosten. Sollen die dann die 6900er Karten für 400 Euro verschenken? ;)

Ist natürlich alles scheiße, aber das ist ziemlich schwer aus dem Teufelskreis zu kommen. Wir bräuchten mal eine High End Karte für max 600 Euro die auch so gut lieferbar ist, dass der Preis nicht wieder künstlich an die Decke getrieben wird. Und vorher müssten die halt die alten Modelle drastisch reduzieren - was halt auch nicht so einfach ist. Die Händler wollen ja auch kein Verlust machen.

Und genau deswegen werden die Preise erst mal so hoch bleiben.

Auf der anderen Seite sind die Grafikkarten im unteren Preissegment für Full HD und 1440p doch eigentlich auch schnell genug. Für Otto Normal League of Legends WOW Fortnite Gamer reicht eine 3060 oder 3070 oder 6600 oder 6700 doch dicke aus, oder? Und die kaufen für die dicken Games dann eine PS5 oder XBOX und können dann da für 600 Euro Cyberpunk in 4K spielen oder so ähnlich. ;)

Die Graka warena nicht zu kaufen (ist beim STart neuer Grakas, die so positiv ankommen nith unnomral) und danach ging der Cryptomining Boom los. Die hohen Preise gehen zu 100% auf den Bedarf der Miner, das ist doch die letzten Jahre ausführlichst thematisiert worden. Ist jetzt nicht bös gemeint, dies aber anzu bringen um die hohen Preise zu rechtfertig ist schon seltenst komisch.

Dass die AMD Karte auch überteuert ist, ist so korrekt. Grundsätzlich wäre der Preis OK, aber die 7900XTX spielt halt nicht in der Top Kategorie mit wie die 6900XT, daher ist der Preis zu teuer für das gebotene. Hätte sie im Rasterizing die Performance wie die 4090, wäre das ne Ansage gewesen. ABer das ist nur hätte wäre wenn.

Ansonsten sind viele der Grakas der letzten Generation im Abverkauf und drüber hinaus, drum sind da die Preise nicht mehr so der bringer.

Ich schiele gerade auf ne 6700xt, aber wie du sagst sind die guten modelle auch kaum unterhalb UVP von vor 1,5 Jahren zu bekommen.

vinacis_vivids
2023-01-15, 20:54:13
Die XFX 7900XT Merc hat nur 2x8 Pin Stromanschluss und ist damit auf 360-375W limitiert. Daher liegt auch der Max. Takt bei ~2,9Ghz.
Die Red Devil, Asrock TaiChi und Sapphire Nitro+ 7900XT haben alle 3x8Pin Stromanschluss für max. 500-525W. Leider gibs noch keine Reviews zu diesen Karten inkl PCB. Da sind 3.0-3.2Ghz drin was max. 64.5-68.8 Tflops fp32 entspricht und somit leicht höher als 7900XTX@Stock 2,5Ghz ~ 61.44 Tflops fp32.

Hoffe es kommt später noch das MPT wo man den IF-Cache per FCLK beschleunigen kann.

GerryB
2023-01-15, 21:15:56
Die XFX 7900XT Merc hat nur 2x8 Pin ...
Die Red Devil, Asrock TaiChi und Sapphire Nitro+ 7900XT haben alle 3x8Pin ....

Dafür mal ein Tipp aus der Praxis!
ne kleine XT@320bit braucht vor allem Bandbreite beim OCen (solange die teuren Modelle net besseren Vram haben = brotlose Kunst)
--> für 99% der User/OCer ist daher 2x 8pin ausreichend
(wenn mal noch ein MPT möglich wird, gehen@2x 8pin auch 500W easy+safe, ... war kein Problem bei den 6000ern)

bzgl. VRam-OCen
bei einigen Usern macht FT etwas Probleme, ... vllt. geht mit FT=off ein insgesamt runderes Setting mit etwas mehr Vram-Takt.
(am Ende entscheidet im Einzelfall die Lotterie, wann die Fehlerkorrektur einsetzt, da hilft auch keine teure 3x 8pin)

Wiseman
2023-01-15, 21:20:15
Also weil hier in einem AMD-Thread immer wieder von der 7900 abgeraten wird - schon klar, es sind immer die gleichen Envidia-Kartenbesitzer, die hier reinströmen, weil sie nicht mehr ruhig schlafen können aus Sorge um das Wohlergehen von AMD und ChaosTM, dich meine ich nicht - ist es höchste Zeit, dass sich mal ein zufriedener 7900XTX Besitzer zu Wort meldet. Manchmal habe ich wirklich den Eindruck, das ist hier gar kein AMD-Thread.

Eines vorweg, da ich eine Custom XTX habe, kann ich auch nur über Custom-Karten und nicht über Referenz-Karten reden. Ich habe mich bewusst für die Hellhound XTX von Powercolor entschieden, weil ich im Review von CB las, dass sie nicht höllisch laut, sondern ganz im Gegenteil himmlisch leise ist (31dB unter Last). Sie ist tatsächlich himmlisch leise. Ich hör beim Spielen nix von meiner Grafikkarte.

Nun hat meine Custom XTX zwei BIOSe. Eines, in dem die Lüfter defaultmäßig mit 46% Lüftergeschwindigkeit eingestellt sind, was ca. 1470 RPM ergibt und eines, in dem die Lüfter defaultmäßig mit 37% eingestellt sind, was knapp 1200 RPM ergibt. Da ich mich für ersteres BIOS entschied, aber andererseits 1470 RPM meinen empfindlichen Ohren gar nicht gefallen, kommt nun "sehr viel Arbeit" auf mich zu. Man stelle sich das vor, ich muss tatsächlich nach jedem Treiber-Update den "Max Fan Speed"-Schieber von 46% auf 37% zurückschieben. Welch schweißtreibende Arbeit. Übrigens verstellt er sich zwischen Treiber-Updates nicht.

Da mir die XTX defaultmäßig zu viel Strom verbraucht, schob ich den Power Limit-Schieber in einer schweißtreibenden Aktion auf - 10%. Mehr geht leider nicht. Damit limitiere ich den Watt-Verbrauch auf 325W. Drüber geht meine XTX nicht, höchstens drunter. Hängt halt vom jeweiligen Spiel ab. Diese Einstellung bleibt übrigens auch bei einem Treiber-Update erhalten.

Da ich von meiner Vorgängerkarte 6900XT weiß, dass ich mit UV den 10%-igen Leistungsverlust durch Bewegen des Power Limit-Schiebers nach links egalisieren kann, mache ich das bei meiner XTX genauso. Bei meiner 6900XT ging da nicht viel (1175mV --> 1130mV), aber diese 4% reichten aus, um die gleiche Leistung wie mit Power Limit auf 0% zu erzielen. Bei meiner XTX geht sogar mehr. Dort komme ich bei meiner Custom XTX auf 8% durch 1150mV --> 1062mV.

Das wars auch schon an schweißtreibenden Arbeiten in der Adrenalin-Software. Mein System läuft jetzt schon rock-stable, obwohl die Treiberentwicklung naturgemäß ganz am Anfang steht. Alles andere interessiert mich weniger.

Wichtig ist mir, dass die Karte flüsterleise und super-cool bleibt, dass mein System stabil läuft, nicht unnötig Energie verplempert und smoothes Spielen in 4k oder 6k (dank FSR) ermöglicht.

Mein Fazit lautet daher: Ich bin ein super zufriedener Custom 7900XTX Besitzer. Leuten, die in 4k oder höher spielen wollen, kann ich die Custom 7900XTX wärmstens empfehlen. Schlagt zu, sobald sich die Abzocker-Phase abgekühlt hat.

dargo
2023-01-16, 07:29:09
Kleiner Eindruck zum Kühler der Hellhound 7900XT bei 330W.
EIDBgmez7_c

Afaik verwenden alle AIBs bei ihren Customs den selben Kühler bei der XT und XTX oder hat jemand was anderes mitbekommen?

Edit:
Noch ein Review der Nitro+ XTX, leider immer noch nichts zur Pulse. :usad:
MVSk9oPg_T4

gbm31
2023-01-16, 08:12:25
@ Wiseman

Ja, den Wattman vermisse ich wirklich schmerzlich!

Kannst du nach dem Haufen Geschiebe überhaupt noch zocken? :-D

DozerDave
2023-01-16, 08:46:35
Hamse ja ungefähr gemacht bei der 3080/6800XT - und was war? Konnst erst mal gar keine kaufen und dann als die Lieferbar war, stieg der Preis auf ~1100 Euro und stieg immer weiter und weiter und du kannst nicht mal heute eine 3080 zum 700 Euro UVP kaufen. :freak: Selbst eine 3090TI kostet aktuell mehr als eine 4080. Frag mich wer die noch käuft? =)

Wenn eine 4080 600 kostet, darf eine 7900XTX auch nicht mehr kosten. Sollen die dann die 6900er Karten für 400 Euro verschenken? ;)

Ist natürlich alles scheiße, aber das ist ziemlich schwer aus dem Teufelskreis zu kommen. Wir bräuchten mal eine High End Karte für max 600 Euro die auch so gut lieferbar ist, dass der Preis nicht wieder künstlich an die Decke getrieben wird. Und vorher müssten die halt die alten Modelle drastisch reduzieren - was halt auch nicht so einfach ist. Die Händler wollen ja auch kein Verlust machen.

Und genau deswegen werden die Preise erst mal so hoch bleiben.

Auf der anderen Seite sind die Grafikkarten im unteren Preissegment für Full HD und 1440p doch eigentlich auch schnell genug. Für Otto Normal League of Legends WOW Fortnite Gamer reicht eine 3060 oder 3070 oder 6600 oder 6700 doch dicke aus, oder? Und die kaufen für die dicken Games dann eine PS5 oder XBOX und können dann da für 600 Euro Cyberpunk in 4K spielen oder so ähnlich. ;)

Du weißt schon was ne 3060, 3070, 6600 oder 6700 kostet?
Nur damit jemand Fortnite o.Ä. spielen kann.

Matrix316
2023-01-16, 09:47:25
Du weißt schon was ne 3060, 3070, 6600 oder 6700 kostet?
Nur damit jemand Fortnite o.Ä. spielen kann.
Eine 3060 gibt's schon für 300 Euro, eine 6600 ab 345, eine 3070 ab 545 und eine 6700XT ab 400. Für 430 gibt's auch eine 3060TI. ODER für 300 eine Intel Arc 750 teilweise. Ist zwar nicht billig, aber kein Vergleich zu einer 4070TI oder 7900XT.

dargo
2023-01-16, 09:59:19
Kleine Randnotiz... eine 6600XT für 345€ macht bei sowas hier gar keinen Sinn mehr.
https://geizhals.de/sapphire-pulse-radeon-6700-11321-02-20g-a2747028.html?hloc=de

Matrix316
2023-01-16, 10:17:47
Kleine Randnotiz... eine 6600XT für 345€ macht bei sowas hier gar keinen Sinn mehr.
https://geizhals.de/sapphire-pulse-radeon-6700-11321-02-20g-a2747028.html?hloc=de
Ja gut, eigentlich net. Nur wenn die den Preis reduzieren, dann macht der Händler verlust, oder? Die werden auch eine 6900XT nicht für 400 anbieten, wenn eine 7900XT 600 kosten soll.

dargo
2023-01-16, 11:06:31
Ja gut, eigentlich net. Nur wenn die den Preis reduzieren, dann macht der Händler verlust, oder?
Mir kommen gleich die Tränen nach zwei Jahren Corona, die armen Händler.

BlacKi
2023-01-16, 11:31:43
die preise sind so wie sie sind, weil die händler das für sich das für die beste option halten. und daran wird sich nichts ändern.

dargo
2023-01-16, 11:38:53
Natürlich wird sich das ändern. Erstmal müssen genug Container mit Custom-XTX in Europa ankommen. Wenn in IT eine XTX Pulse für 1189€ angeboten wird weißt du was die Händler in DE gerade versuchen abzuziehen. ;) In welche Richtung es gehen wird wenn das Angebot erstmal aufgefüllt ist siehst du jetzt schon an den Customs XT zum Teil. Ein paar sind schon unter der UVP einer Referenz hier. Der Euro legt auch vs. Dollar wieder langsam zu.

DozerDave
2023-01-16, 12:43:35
Eine 3060 gibt's schon für 300 Euro, eine 6600 ab 345, eine 3070 ab 545 und eine 6700XT ab 400. Für 430 gibt's auch eine 3060TI. ODER für 300 eine Intel Arc 750 teilweise. Ist zwar nicht billig, aber kein Vergleich zu einer 4070TI oder 7900XT.

Früher haben Grafikkarten 2xx€ UVP gekostet.
Jetzt blättere ich 300€ hin. Was für ein Schnäppchen.

Matrix316
2023-01-16, 13:14:29
Früher haben Grafikkarten 2xx€ UVP gekostet.
Jetzt blättere ich 300€ hin. Was für ein Schnäppchen.

Früher hab ich 4 Euro für eine TK Knusperente bezahlt, jetzt 6 Euro. :redface:

Da kann man nix machen. Außer eine Konsole kaufen. ;) Wobei zwischen 200 und 300 ist jetzt auch nicht so der riesen Unterschied insgesamt gesehen.

Was man vielleicht machen kann: Gebrauchte alte Karten wie 2060 und 2070 suchen. Oder 1080TIs.

dargo
2023-01-16, 18:32:58
falscher Thread

GerryB
2023-01-16, 19:06:09
im MS die Phantom XTX für 1229€
(könnte interessant werden mit Taichi oder Aqua-Bios)

Waterblocks sind ebenfalls verfügbar

dargo
2023-01-16, 19:07:37
Lol... jetzt machst du den gleichen Fehler wie ich. ;D

GerryB
2023-01-16, 19:53:58
Was macht denn eigentlich @Gedi ?

Im CB-Forum hat er schon ne Toxic in der Sig!?
(gabs die T schon irgendwo)

OgrEGT
2023-01-16, 19:58:32
Was macht denn eigentlich @Gedi ?

Im CB-Forum hat er schon ne Toxic in der Sig!?
(gabs die T schon irgendwo)
???
Das ist noch die 6900 in seiner Sig...

GerryB
2023-01-16, 20:21:01
Ok, mein Fehler.

Oberst
2023-01-16, 20:32:40
Eine 3060 gibt's schon für 300 Euro, eine 6600 ab 345, eine 3070 ab 545 und eine 6700XT ab 400.
Bei der 6600 müsste man etwas konkreter werden, welche gemeint ist: Die 6600 (ohne XT) gibt's ab 270€, die 6600XT rentiert sich nicht mehr (wohl schon im Abverkauf), die 6650XT gibt's ab 320€ (alle Preise aus Geizhals, kurzfristig lieferbar).

GerryB
2023-01-16, 20:50:12
die 6500xt ab 165€ (incl. 1x Game) wird auch Einigen reichen

Raff
2023-01-16, 20:51:55
die 6500xt ab 165€ (incl. 1x Game) wird auch Einigen reichen

Die ist immer noch Kernschrott, da an zu vielen leistungsrelevanten Stellen kastriert. Wird Zeit, dass das Ding hierzulande erscheint, das wäre eine gute Option: https://www.pcgameshardware.de/Radeon-RX-6500-XT-Grafikkarte-278119/News/Sapphire-erstes-8-GiB-Custom-Modell-mit-Haken-1399959/

Eine RX 6400 um 100 Euro ergäbe in der aktuellen Form Sinn, da keine Strombuchse, kompakt etc. :)

MfG
Raff

gedi
2023-01-16, 21:10:29
Kernschrott-nö, nur ein extem teurerer 2d-Beschleuniger!

phoenix887
2023-01-16, 21:17:25
die 6500xt ab 165€ (incl. 1x Game) wird auch Einigen reichen

bestimmt. Mir reicht auch eine 6650 XT für FullHD@75Hz auf 24Zoll. Die Zeiten das ich mir immer den Top Tier holen musste, sind vorbei. Die Preise und der Strom ist es mir nicht Wert.

Natürlich kann das jeder so machen, wir es für richtig hält und es braucht. :)

TheGood
2023-01-16, 21:37:30
bestimmt. Mir reicht auch eine 6650 XT für FullHD@75Hz auf 24Zoll. Die Zeiten das ich mir immer den Top Tier holen musste, sind vorbei. Die Preise und der Strom ist es mir nicht Wert.

Natürlich kann das jeder so machen, wir es für richtig hält und es braucht. :)
hat mein kumpel auch vof ein paar wochen geholt für 310 Euro.

vinacis_vivids
2023-01-16, 23:05:07
5800X3D + 7900XTX in Spiderman Remastered 4K+RT
https://youtu.be/oUV_y-ALGkw

Hier zeigt sich die Stärke von AMD, sowohl CPU als auch GPU. Die CPU-Utilization ist wirkliches Next-Gen. Ich kenne kein Spiel, welches die Hardware so stark auslastet.

aufkrawall
2023-01-16, 23:13:28
Soll ich ein Video mit den gleichen fps auf dem 11400F + GeForce aufnehmen?

TheGood
2023-01-16, 23:24:00
Ich bitte darum.

aufkrawall
2023-01-17, 00:01:03
Screenshot reicht eigentlich:
https://abload.de/thumb/spider-man_2023_01_16ygflh.png (https://abload.de/image.php?img=spider-man_2023_01_16ygflh.png) https://abload.de/thumb/spider-man_2023_01_16p8cqe.png (https://abload.de/image.php?img=spider-man_2023_01_16p8cqe.png)
Dippt in etwa an der Stelle oben im Video ziemlich genau so weit runter.

Läuft ganz ok auf RDNA3, aber auch nichts Besonderes:
https://gamegpu.com/action-/-fps-/-tps/marvel-s-spider-man-remastered-test-gpu-cpu-2022

Laut deren Test läuft es auf Radeons im CPU-Limit langsamer als auf GeForces. :freak:

Raff
2023-01-17, 00:02:18
Yep, tut es. Warum in die Ferne schweifen, wenn: https://www.pcgameshardware.de/Spider-Man-Miles-Morales-Spiel-72802/Specials/PC-Benchmark-Technik-Review-1407865/3? =)

MfG
Raff

aufkrawall
2023-01-17, 00:10:40
Das ist ja Miles Morales. Aber stimmt, zeigt das gleiche Bild. Ich hatte euren Test auch in Erinnerung, aber muss man erstmal finden.
Bei Bro mit GeForce + 5800X3D läuft es jedenfalls deutlich schneller, wenn man HT deaktiviert. Irgendwas mit der Thread-Verwaltung des Spiels ist mit 8C-Ryzens komplett bescheiden. Was v_v bei der hohen Last bejubelt, ist also eher ein Bug ( :freak: ). Ist aber keine Ryzen-Schwäche allgemein, auf dem 5500 lief es nicht so viel langsamer als auf dem 11400F.

Raff
2023-01-17, 00:17:34
Hat sich jemand die CPU-Last bei den Spidey-Games eigentlich mal genauer angesehen? Damit meine ich: für länger als ein paar Minuten. Soweit ich weiß, betreibt das Spiel nämlich asynchrones Shader-Compiling, sprich, da wird ein Teil zur Laufzeit im Hintergrund gemacht. Und das müsste nach Zeit X vorbei sein, bis man die Grafikkarte wechselt oder den Treiber wiped.

MfG
Raff

aufkrawall
2023-01-17, 00:22:16
Hatte bislang nicht den Eindruck, dass das länger als einige Sekunden nach dem Laden dauert. Er lässt einen ja schon vor dem Menü und während der Hauptladezeit warten, wenn die Shader noch nicht kompiliert sind.
Außer, etwas läuft auf Radeons anders, falls etwa der Treiber Shader-Cache nicht richtig funktioniert. War jedenfalls einer der Gründe, weshalb ich die 6800 abgestoßen hatte. ;D

dargo
2023-01-17, 06:33:29
5800X3D + 7900XTX in Spiderman Remastered 4K+RT
https://youtu.be/oUV_y-ALGkw

Hier zeigt sich die Stärke von AMD, sowohl CPU als auch GPU. Die CPU-Utilization ist wirkliches Next-Gen. Ich kenne kein Spiel, welches die Hardware so stark auslastet.
Da sieht man mal wieder wie leicht sich User mit paar Overlaydaten beeinflussen lassen. :lol: Erstaunlich, dass du noch nicht mitzubekommen scheinst, dass die beiden Spiderman Teile Datendekompression betreiben die auf dem PC leider auf der CPU laufen "muss" im Gegensatz zur Konsole und dies auf dem PC auch nichts an fps bringt bei einer breiteren CPU vs. schmale CPU. Im Prinzip steigt nur die Prozessorlast an, das wars dann auch schon. Mit schmaler CPU meine ich übrigens einen 12 Threader von AMD. Möglicherweise wird ein 8 Threader da schon limitieren, wird kaum noch getestet damit. Jedenfalls wird ein 32 Threader vs. 12 Threader absolut Null schneller in den beiden Teilen durch mehr Threads, trotz relativ hoher CPU-Auslastung. Das bisschen an mehr fps kommt rein durch den höheren Takt und eventuell auch größeren Cache zustande.

dildo4u
2023-01-17, 06:54:38
Spiderman scheint egal ob Intel oder AMD am Ram Speed zu hängen und X3D lahmt warum auch immer mit einem 7600 + DDR5 6000 kommt man vermutlich an die Intels dran.

https://youtu.be/Q53rT4WxCWk?t=654

Ich würde davon aber nix ableiten selten das Games diese extremen Lasten auf dem X3D zeigen.

dargo
2023-01-17, 07:39:10
Die Engine kann nicht am Ram-Speed hängen wenn ein 7600X den 5800X3D dermaßen überholt. Scheinbar hängt das Teil nur an den CPU-Frequenzen.

Exxtreme
2023-01-17, 08:33:56
Die Engine kann nicht am Ram-Speed hängen wenn ein 7600X den 5800X3D dermaßen überholt. Scheinbar hängt das Teil nur an den CPU-Frequenzen.

Nicht unbedingt. Wenn das Spiel die CPU-Caches kaum ausnutzt oder Massen an Daten schaufelt dann kann der RAM-Speed schon einen großen Unterschied machen. Das ist beim Final Fantasy 14-Benchmark ähnlich. Der Unterschied zwischen DOCP und Standard kann 10% und mehr ausmachen.

dargo
2023-01-17, 08:41:00
Stimmt auch wieder, habe die Datendekompression dabei vergessen. Durch diese könnte tatsächlich der Cache zu klein ausfallen. Müsste mal einer untersuchen ob RAM-Tuning da viel bringt.

Matrix316
2023-01-17, 10:14:33
Eine Frage: Bei MF sind bei der Power Color Red Devil und Asrock Phantom 7900XTX jeweils eine eher negativere Bewertung was die Temperatur betrifft. Haben die beiden Karten die Probleme? Oder waren das Einzelfälle? Ich dachte die Customs sollten besser als die MBAs sein...

Raff
2023-01-17, 10:17:59
Eine Frage: Bei MF sind bei der Power Color Red Devil und Asrock Phantom 7900XTX jeweils eine eher negativere Bewertung was die Temperatur betrifft. Haben die beiden Karten die Probleme? Oder waren das Einzelfälle? Ich dachte die Customs sollten besser als die MBAs sein...

Ein Kühler kann auch schlecht sein, wenn er kein bekanntes Problem hat. ;) Das Problem der MBA-Karten betrifft ausschließlich die Vapor-Chamber. Es besteht eine minimale Wahrscheinlichkeit, dass derselbe Zulieferer auch bei Powercolor versagt hat, allerdings gehe ich davon aus, dass die Bewertungen andere Ursachen haben - die müssen nicht mal am Produkt liegen.

MfG
Raff

P.S: Ihr habt immer noch nicht abgestimmt, ich fühle es! :tongue: https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/RTX-4090-Forum-Umfrage-1411535/

Taigatrommel
2023-01-17, 10:34:20
Eine Frage: Bei MF sind bei der Power Color Red Devil und Asrock Phantom 7900XTX jeweils eine eher negativere Bewertung was die Temperatur betrifft. Haben die beiden Karten die Probleme? Oder waren das Einzelfälle? Ich dachte die Customs sollten besser als die MBAs sein...

Ich habe vereinzelt über hohe Temperaturen bei der Red Devil gelesen, in einem Fall war der Nutzer selbst schuld, weil das Gehäuse bzw. die Kühlung wohl grottenschlecht konfiguriert war. Womöglich handelt es sich um Einzelfälle die immer mal in der Massenproduktion auftreten können (schlecht verteilte WLP, vergessene oder nicht zu genüge angezogene Schrauben), da fällt es schwer, hier gleich von einem generellen Problem auszugehen.

Da das Problem mit der Vapor Chamber ja inzwischen auch von AMD bestätigt wurde, die Customs jedoch eigene Designs haben, würde hier wenn ja eine andere Ursache vorliegen.

Matrix316
2023-01-17, 10:36:26
Problem ist, dass man zu den Karten im speziellen auch so gut wie nix im Internet findet. Keine Reviews, keine Youtube Videos, keine Erfahrungsberichte... nix... :\

Taigatrommel
2023-01-17, 10:52:45
Problem ist, dass man zu den Karten im speziellen auch so gut wie nix im Internet findet. Keine Reviews, keine Youtube Videos, keine Erfahrungsberichte... nix... :\

Auf Reddit gab es in den letzten Wochen immer mal wieder kürzere Berichte über die Red Devil, wobei die natürlich immer mit einer gewissen Vorsicht zu genießen sind. Gerade in Nordamerika schien die Red Devil das zu sein, was bei uns die XFX Merc ist: Die war offenbar immer wieder auf Lager und entsprechend verfügbar seit Launch, während sie hier in Deutschland ja eigentlich erst seit Januar wirklich im Handel ist. Ich weiß ja auch nicht, inwiefern die Presse noch weiterhin Interesse am Test von einzelnen Customs hat. Doch gerade bei der Red Devil ist das schon verwunderlich, da diese Reihe, zusammen mit der Sapphire Nitro, eigentlich immer zu den besten Radeon Karten überhaupt zählte.

dargo
2023-01-17, 11:02:31
Zur Red Devil gibts hier bissel was.
https://www.pcmasters.de/testbericht/133711958-powercolor-radeon-rx-7900-xtx-reddevil-test-review.html#:~:text=Was%20die%20Leistung%20angeht%2C%20so,die%20Leistung%20ist%2 0dennoch%20super.
https://en.overclocking.com/review-powercolor-rx-7900-xtx-red-devil-limited-edition/

Matrix316
2023-01-17, 11:34:21
Ich hab jetzt die XFX Merc XTX bestellt. Mal sehen was die so kann.

Taigatrommel
2023-01-17, 11:57:11
Ich hab jetzt die XFX Merc XTX bestellt. Mal sehen was die so kann.

Du musst wohl aufpassen, welches BIOS du einstellst, bzw. dann die Lüfterkurve anpassen: Im OC BIOS laufen die Lüfter wohl mit rund 2000 rpm, im Quiet BIOS hingegen mit irgendwas um die 1500 rpm.

dargo
2023-01-17, 12:10:39
Pfff... bei sowas erstellt man sich doch eh eine custom Lüfterkurve. Die default Lüfterkurven sind in der Regel eh Grütze.

Matrix316
2023-01-17, 12:14:16
Dass die etwas lauter sein soll hab ich schon gelesen. So lange die nicht ein Störgeräusch macht, sollte das aber kein Problem sein. :)

dargo
2023-01-17, 13:26:44
@Matrix316

Teste bitte unbedingt bei der Karte eine custom Lüfterkurve über den Treiber. Mich interessiert wie weit du minimal bei der Drehzahl runter kommst bevor die Lüfter stehen bleiben. Also die Minimaldrehzahl der Lüfter. Leider fehlt jetzt MPT und das kann man somit nicht mehr manuell nach unten korrigieren, was ich echt blöd finde. In Idle werden sicherlich die meisten Karten die Lüfter anhalten. Insofern müsstest du das am besten bei einer minimalen GPU-Last testen. Zum Beispiel mit GPU-Z.

btw.
Kann man über den Treiber bei N31 eigentlich Zero Fan deaktivieren wie bei N21?

Taigatrommel
2023-01-17, 13:42:47
btw.
Kann man über den Treiber bei N31 eigentlich Zero Fan deaktivieren wie bei N21?
Du kannst es deaktivieren, dazu gibt es einen Punkt im Wattman, wenn du die manuelle Lüftersteuerung aktivierst. So richtig zuverlässig funktioniert Zero-Fan, zumindest bei mir, ohnehin nicht, sobald man irgendwo in die Lüftersteuerung eingreift bzw. OC/UV betreibt. Da drehen die Lüfter dann auch auf'm Desktop noch mit ~560 rpm. Alles auf default und die Lüfter bleiben zuverlässig aus.

aufkrawall
2023-01-17, 14:15:53
Stimmt auch wieder, habe die Datendekompression dabei vergessen. Durch diese könnte tatsächlich der Cache zu klein ausfallen. Müsste mal einer untersuchen ob RAM-Tuning da viel bringt.
Diese Überlegungen sind alle für den Hintern, wenn das Spiel auf AMD 8C mit HT on vs. HT off massig Leistung verliert bzw. gewinnt...

GerryB
2023-01-17, 14:22:29
Von den Customs war die Aorus bis jetzt net schlecht. (nitro eh zu teuer)
vllt.
Ist die GamingOC auch nen Versuch wert@1179€.

edit: heute Abend auch noch andere im MS, ... da braucht @dargo net extra nach Italien fahren

gedi
2023-01-17, 19:45:33
Ich hab jetzt die XFX Merc XTX bestellt. Mal sehen was die so kann.

Die fiept nicht, genau wie die Sapphire. Sehr gute Karte, nur haben se die Lüfterkurve verhauen. Geht aber im Wattman leicht zu regeln. Glückwunsch!

gedi
2023-01-17, 19:46:45
@Matrix316

Teste bitte unbedingt bei der Karte eine custom Lüfterkurve über den Treiber. Mich interessiert wie weit du minimal bei der Drehzahl runter kommst bevor die Lüfter stehen bleiben. Also die Minimaldrehzahl der Lüfter. Leider fehlt jetzt MPT und das kann man somit nicht mehr manuell nach unten korrigieren, was ich echt blöd finde. In Idle werden sicherlich die meisten Karten die Lüfter anhalten. Insofern müsstest du das am besten bei einer minimalen GPU-Last testen. Zum Beispiel mit GPU-Z.

btw.
Kann man über den Treiber bei N31 eigentlich Zero Fan deaktivieren wie bei N21?

Japp!

OgrEGT
2023-01-18, 07:14:58
@pcgh @cb et al.
Plant ihr noch Reviews von weitern RDNA3 Custom Karten?
Merkwürdig dass es bis dato zu einigen Modellen wie der Sapphire Pulse nirgendwo Reviews gibt...

ianm
2023-01-18, 07:35:23
@pcgh @cb et al.
Plant ihr noch Reviews von weitern RDNA3 Custom Karten?
Merkwürdig dass es bis dato zu einigen Modellen wie der Sapphire Pulse nirgendwo Reviews gibt...
War bei RDNA2 genauso, hatte ewig nach einem Test der 6800er Pulse Karten gesucht, dann durch Glück eine bestellen können. Hatte vorher eine 5700xt Pulse und die Verarbeitung war klasse. Richtig gut.
Die 6800 war ein Plastikbomber, leichter als die 5700xt und hatte Spulenfiepen aus der Hölle. Ging sofort zurück.

Vielleicht ist die Qualität hier wieder nicht gut und deshalb gehen kaum Samples raus.

OgrEGT
2023-01-18, 08:23:24
Da sollten die Hersteller doch eigentlich Interesse haben ihre Kartenverkäufe zu erhöhen mit Reviews und damit guter Werbung...

Zergra
2023-01-18, 09:16:13
Die wollen doch die Top-Modelle verkaufen, wieso sollte man dann Reviews von möglichweise Preislich und eben auch Leistungsmäßig kaum schlechteren Karten fördern ?

Raff
2023-01-18, 09:23:18
Moin!

@pcgh @cb et al.
Plant ihr noch Reviews von weitern RDNA3 Custom Karten?
Merkwürdig dass es bis dato zu einigen Modellen wie der Sapphire Pulse nirgendwo Reviews gibt...

Ich denke, du findest eher Gehör, wenn du das in den entsprechenden Foren fragst. :) Doch wo ich schon mal hier bin: Da kommt auf jeden Fall noch was, allerdings keine großen Massen. Die Muster-Lage ist relativ verhalten; man kriegt nur die Brecher-Modelle, davon sind wenige im Umlauf und die Beschaffung sowie Testzeiträume sind recht zäh bzw. kurz. Daher gibt's eher solche Inhalte: https://www.youtube.com/watch?v=LWMM7UvAAsU

MfG
Raff

OgrEGT
2023-01-18, 09:25:43
Moin!



Ich denke, du findest eher Gehör, wenn du das in den entsprechenden Foren fragst. :) Doch wo ich schon mal hier bin: Da kommt auf jeden Fall noch was, allerdings keine großen Massen. Die Muster-Lage ist relativ verhalten; man kriegt nur die Brecher-Modelle, davon sind wenige im Umlauf und die Beschaffung sowie Testzeiträume sind recht zäh bzw. kurz. Daher gibt's eher solche Inhalte: https://www.youtube.com/watch?v=LWMM7UvAAsU

MfG
Raff

Danke Dir :up:

Matrix316
2023-01-18, 22:07:11
Die Merc XTX ist da und unter Last läuft der Lüfter mit ~16xx Umdrehungen und die Karte zieht so 390W. :ugly: Das müsste das Standard Bios und nicht Full Power sein laut Computerbase. Die Temperatur war jetzt garnet so schlecht. Nach ein paar Minuten 62° GPU und ~80 Hot Spot in Cyberpunk in 4K Ultra. Die Lüfter fangen relativ leise auch an zu drehen. Also nicht von 0 auf 30%. Im Idle sind die gerade bei 445 RPM und 15% bzw. 0.

Manuell kann ich den Lüfter im Afterburner nur auf 25% setzen bzw. da fängt die Kurve an. das sind aber schon ~1000 RPM. 100% sind 3500. Also automatisch dreht die Karte niedriger. Im Vergleich zur Zotac Trinity 4080 ist der Lüfter unter Last vielleicht ein bißchen lauter, aber dafür gibt's kein eeeeeeeeeeeee Störgeräusch. Im Vergleich zur Aorus 3080 ist der Lüfter unter Last sogar leiser.

Taigatrommel
2023-01-19, 02:52:11
Du kannst mal schauen, ob eine manuelle Lüfterkurve via Wattman ggf. besser funktioniert oder nicht. Zumindest bei meiner MBA kann ich die Lüfter bis 23% runterregeln, was natürlich bei der Karte eher sinnlos ist.

dargo
2023-01-19, 07:49:45
Die Merc XTX ist da und unter Last läuft der Lüfter mit ~16xx Umdrehungen und die Karte zieht so 390W. :ugly: Das müsste das Standard Bios und nicht Full Power sein laut Computerbase. Die Temperatur war jetzt garnet so schlecht. Nach ein paar Minuten 62° GPU und ~80 Hot Spot in Cyberpunk in 4K Ultra. Die Lüfter fangen relativ leise auch an zu drehen. Also nicht von 0 auf 30%. Im Idle sind die gerade bei 445 RPM und 15% bzw. 0.

Manuell kann ich den Lüfter im Afterburner nur auf 25% setzen bzw. da fängt die Kurve an. das sind aber schon ~1000 RPM. 100% sind 3500. Also automatisch dreht die Karte niedriger. Im Vergleich zur Zotac Trinity 4080 ist der Lüfter unter Last vielleicht ein bißchen lauter, aber dafür gibt's kein eeeeeeeeeeeee Störgeräusch. Im Vergleich zur Aorus 3080 ist der Lüfter unter Last sogar leiser.
445RPM in Idle sind schon mal geil. :up: Und 390W sind natürlich Mumpitz, aber das kennen wir schon von den ganzen AIBs, nicht nur XFX. ;)

btw.
Man verwendet doch keinen Afterburner für die Lüfter. Customkurve im Treiber bitte einstellen. ;)

Im Vergleich zur Zotac Trinity 4080 ist der Lüfter unter Last vielleicht ein bißchen lauter, aber dafür gibt's kein eeeeeeeeeeeee Störgeräusch. Im Vergleich zur Aorus 3080 ist der Lüfter unter Last sogar leiser.
WTF? Und ich dachte die Auros Serie wäre bei Gigabyte endlich mal brauchbar. :tongue: Oder hat die Auros einfach nur eine verhunzte Lüfterkurve von Haus aus?

vinacis_vivids
2023-01-19, 09:19:46
6900XT vs 7900XTX
CPU: 5800X3D
QXNq41gEZeQ

Man kann sehen, dass die 7900XTX mehr aus der CPU rausholt in 4K. Bin auf den 7900X3D gespannt inwieweit vllt. 20-30% mehr Performance aus RDNA3 rausgeholt werden können und wie uArch, Cache, Takt, DDR5 usw. sich durchschlägt.

Matrix316
2023-01-19, 09:42:37
Du kannst mal schauen, ob eine manuelle Lüfterkurve via Wattman ggf. besser funktioniert oder nicht. Zumindest bei meiner MBA kann ich die Lüfter bis 23% runterregeln, was natürlich bei der Karte eher sinnlos ist.

Ja bis 23% ging beim Afterburner auch. Wattman hab ich net muss ich erstmal installieren.

445RPM in Idle sind schon mal geil. :up: Und 390W sind natürlich Mumpitz, aber das kennen wir schon von den ganzen AIBs, nicht nur XFX. ;)

btw.
Man verwendet doch keinen Afterburner für die Lüfter. Customkurve im Treiber bitte einstellen. ;)
Im Treiber kenn ich mich noch net aus. ;)

Ich überleg ob ich die Einstellungen für Takt und so auf MBA standard stelle und schaue ob der Stromverbrauch dann runter geht. Macht das Sinn? Dann wäre der Kühler ja noch leiser.


WTF? Und ich dachte die Auros Serie wäre bei Gigabyte endlich mal brauchbar. :tongue: Oder hat die Auros einfach nur eine verhunzte Lüfterkurve von Haus aus?
Ich hatte die 1080 TI Aorus und die war relativ leise. Die 3080 Master ist aber relativ laut im Vergleich. Da war ich auch überrascht. Allerdings auch relativ kühl. Lüfterkurve hab ich ehrlich gesagt da nicht probiert einzustellen.

Die 40er Serie soll aber wieder leiser sein angeblich, wobei haben die nicht das Problem, dass die Lüfterkurve zu spät startet oder so? Da war doch was.

GerryB
2023-01-19, 10:05:31
umgangssprachlich "Wattman" in Foren = das Adrenalintreiberpaneel

Matrix316
2023-01-19, 10:19:27
umgangssprachlich "Wattman" in Foren = das Adrenalintreiberpaneel
Ach soooooo.... :biggrin: Das ist für mich noch Neuland. :freak:

Raff
2023-01-19, 10:55:27
"Wattman" hieß das Tuning-Menü früher ganz offiziell, abgeleitet von "Watt Manager". Ungangssprachlich waren Kosenamen wie "Wattman – Rächer der Untertakteten". ;D :biggrin:

MfG
Raff

GerryB
2023-01-19, 11:19:06
Raff untertreibt gerne ein bisschen, hat wohl zuviel an seiner 3090Ti geschraubt.

bei AMD eher UVen+OCen

Raff
2023-01-19, 11:44:48
Das geht bei jeder Karte und lohnt sich auch bei jeder Karte. =) Davon ab: Mein gammliger UV-Ampere kann beim Raytracing mit euren neuen Boliden mithalten (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/). :tongue:

MfG
Raff

GerryB
2023-01-19, 11:52:15
Du bist im falschen Thread.

mit ner 6000/7000er nutzt man i.d.R. nur Hybrid-RT in AMD-Games, ... Schwerpunkt Lighting+AO
(weil für Spiegelung der Spiegelung dann doch was ganz Anderes vonnöten wäre)

Matrix316
2023-01-19, 11:58:57
Wenn man nicht den direkten Vergleich hat, merkt man eh nicht so den Unterschied zwischen RT und nicht RT. Bei Cyberpunk muss man auch bei einer 4080 DLSS anschalten, sonst sind die FPS auch nicht so toll.

DrFreaK666
2023-01-19, 12:07:13
Du bist im falschen Thread.

mit ner 6000/7000er nutzt man i.d.R. nur Hybrid-RT in AMD-Games, ... Schwerpunkt Lighting+AO
(weil für Spiegelung der Spiegelung dann doch was ganz Anderes vonnöten wäre)

Das "RT" bei FC6 kann man ja nicht als Maßstab nehmen

Raff
2023-01-19, 12:09:09
Du bist im falschen Thread.

Ich bin in jedem Thread, da ich keinem Lager angehöre. Quasi der Elex-2-Weg im Piranha-Bytes-Universum. :D

MfG
Raff

GerryB
2023-01-19, 12:13:32
nach m.E. schaut ein 6000/7000er Käufer net auf RT sondern eher auf high-Fps-Gaming
(daher alle RT-Zwischenrufe etwas deplaziert)

Matrix316
2023-01-19, 12:42:05
nach m.E. schaut ein 6000/7000er Käufer net auf RT sondern eher auf high-Fps-Gaming
(daher alle RT-Zwischenrufe etwas deplaziert)
Und auf den Preis. :D Wobei der Stromverbrauch das am Ende wieder etwas relativiert. ;) Aber aktuell kosten die 4080 so mind. 150 Euro mehr als die Custom 7900XTXen. Zumindest mehr als die Merc, denn bei MF kosten die anderen gerade wieder mehr als gestern. Wobei bei Alternate sind noch MSI und Gigabyte unter 1200 gelistet.

Wobei ich weiß nicht ob es Einbildung ist, aber gefühlt fühlt sich Windows mit der Radeon schneller an als mit den GeForcen.

GerryB
2023-01-19, 13:36:19
Jo,
die preiswerten Customs gehen wie geschnitten Brot bei MF (imMS) weg.
... macht auch Sinn ne Custom mit besserem Kühler zu nehmen, weil Alphacool so rummehrt
(evtl. netmal ein Eiswolf2 für die XT kommt, nur für die XTX)

dargo
2023-01-19, 17:54:34
Im Treiber kenn ich mich noch net aus. ;)

Ich überleg ob ich die Einstellungen für Takt und so auf MBA standard stelle und schaue ob der Stromverbrauch dann runter geht. Macht das Sinn? Dann wäre der Kühler ja noch leiser.

Ich merks schon, du bist zu lange mit Geforce unterwegs gewesen. :freak:

Du gehst im Treiber auf Leistung und Konfiguration, dort ist deine Spielwiese. ;) Unten rechts aktivierst du Leistungs-Tuning und stellst das Powerlimit erstmal auf -10%. Damit landest du dann bei max. 351W. Unter der Lüftergeschwindigkeit aktivierst du erweiterte Steuerung und schon hast du vollen Zugriff auf die Lüftersteuerung. Da drunter unter Feintuning kannst du auch direkt Werte für die 5 Punkte setzen. Undervolting lasse ich erstmal weg, du musst dich ja erst mit den Basics vertraut machen. :tongue:

DrFreaK666
2023-01-19, 21:56:42
40 Spiele auf einer 7900XT @1440p

f2aXgRWDTyM

Matrix316
2023-01-19, 22:22:23
Ich merks schon, du bist zu lange mit Geforce unterwegs gewesen. :freak:

Du gehst im Treiber auf Leistung und Konfiguration, dort ist deine Spielwiese. ;) Unten rechts aktivierst du Leistungs-Tuning und stellst das Powerlimit erstmal auf -10%. Damit landest du dann bei max. 351W. Unter der Lüftergeschwindigkeit aktivierst du erweiterte Steuerung und schon hast du vollen Zugriff auf die Lüftersteuerung. Da drunter unter Feintuning kannst du auch direkt Werte für die 5 Punkte setzen. Undervolting lasse ich erstmal weg, du musst dich ja erst mit den Basics vertraut machen. :tongue:
Hab ich gemacht und im Speedway Benchmark nur 100 Punkte weniger. :uponder:

GPU Temp war bei 50 und Hotspot bei 63°. Fanspeed war minimal unter 1600.

Das sind die Einstellungen während der Port Royal Benchmark lief. Der Lüfter war jetzt fast silent.

https://abload.de/img/porttempsakfou.jpg (https://abload.de/image.php?img=porttempsakfou.jpg)

dargo
2023-01-20, 06:35:34
Hotspot bei 63°C und weiterhin fast 1600RPM? Was haben die bei XFX geraucht da bei N31 in Bezug auf die Lüftersteuerung? ;D

Jetzt drückst du auf "Feintuning-Steuerungen" da kannst du deine Lüfterwerte (Temp + Drehzahl in %) direkt einstellen. Wenn ich das auf deinem Bild so grob einschätze ist die letzte Stufe bei ca. 37%. Setze da erstmal 30% rein bei bzw. 70°C Hotspot (Lüfterwerte beziehen sich immer auf den Hotspot), die Punkte davor am besten auch entsprechend anpassen damit du eine gleichmäßige, konvexe Linie bekommst. Wenn 30% immer noch für dich zu laut sind dann eben 25% als Beispiel.

Arbeitshilfe... ;)
https://abload.de/thumb/luftersteuerung_n21mkdm5.jpg (https://abload.de/image.php?img=luftersteuerung_n21mkdm5.jpg)

24% = ~1165RPM bei meiner XFX 6800XT. Ich verwende auch kein Zero-Fan, das ist aber Geschmacksache.

Hab ich gemacht und im Speedway Benchmark nur 100 Punkte weniger. :uponder:

Die kriegst du später mit Undervolting spielend ausgeglichen nach der Eingewöhnungsphase mit der neuen Karte. ;)

PS: willst du weniger als 351W haben musst du das sekundäre Bios der Karte benutzen sofern XFX dort weniger als 390W verwendet.

Edit:
Vergiss es, das Bios mit 390W ist schon das "sparsame". :freak:
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/

OgrEGT
2023-01-20, 08:51:38
Hab dem Sapphire Support mal geschrieben welche TBP für die BIOSe der 7900XT Pulse hinterlegt sind... wenn ich Antwort bekomme geb ich Bescheid...

GerryB
2023-01-20, 09:59:28
Geizhals sagt 331W

Was die OCer dringend brauchen ist halt ne Möglichkeit zum Flashen, um das Nitro-Bios auf die Pulse
zu bekommen.(man kann ja trotzdem leicht UVen, damits sparsam bleibt)

btw.
Die XTX Merc hat ein Ref-PCB, ... also sollte man irgendwann die Ref damit flashen können, wenn o.g. Problem gelöst ist.

Welche Modelle gehen eigentlich mit dem Bitspower-Waterblock?
Alphacool mehrt ja noch lange rum bis es für die XTX-Ref lieferbar wird.

dargo
2023-01-20, 10:01:26
Geizhals sagt 331W
Glaube ich nicht, so tief geht kein AIB runter. Bei GH steht auch oft Blödsinn dabei.

Edit:
Sag doch gleich, dass du die 7900XT meinst. ;D

vinacis_vivids
2023-01-20, 11:34:39
Spider Man Miles Morales Very High Ray Tracing FSR 2.1 4K | RX 7900 XTX | R7 5800X 3D
45Zm48_0hRQ

FSR 2.1 + Ray Tracing auf der RX 7900 XTX in Perfektion.

Gehört mit zu den saubersten Implementierungen 2022/2023. Die Engine ist einfach gut und vorbildlich programmiert.

OgrEGT
2023-01-20, 12:48:56
Glaube ich nicht, so tief geht kein AIB runter. Bei GH steht auch oft Blödsinn dabei.

Edit:
Sag doch gleich, dass du die 7900XT meinst. ;D
Ja die XT meinte ich...
331W könnte das OC BIOS sein... beim Silent vermute ich 300W... dann könnte man mit dem WM auf 270W runter kommen... dazu etwas UV.. :cool:
Dazu die Nitro Lüfter... große Unbekannte wären dann noch die Spulen... ansonsten sollte das sehr leise sein auf ca. 3090ti Niveau...

dargo
2023-01-20, 13:07:58
die Ref im MS@899€
Du bist wieder mit sowas im falschen Thread.


331W könnte das OC BIOS sein... beim Silent vermute ich 300W... dann könnte man mit dem WM auf 270W runter kommen... dazu etwas UV.. :cool:
Dazu die Nitro Lüfter... große Unbekannte wären dann noch die Spulen... ansonsten sollte das sehr leise sein auf ca. 3090ti Niveau...
Unwahrscheinlich, nahezu niemand geht unter Referenz mit den Biosen. Und Referenz XT = 315W. Bisher geht nur die Hellhound XTX mit dem sekundären Bios minimal unter Referenz mit 351W.

Edit:
Die ASRock RX 7900 XTX Taichi OC hat wie die Sapphire Nitro+ auch 404W als PT im primären Bios.
https://www.youtube.com/watch?v=JA2J2TX2uEY

GerryB
2023-01-20, 20:59:51
Natürlich wird sich das ändern. Erstmal müssen genug Container mit Custom-XTX in Europa ankommen. Wenn in IT eine XTX Pulse für 1189€ angeboten wird weißt du was die Händler in DE gerade versuchen abzuziehen. ...

die Ref im MS@899€
7900XT

Du bist wieder mit sowas im falschen Thread.

Nur wenn Du rumbarmst ist wohl der Preis interessant.
Kann mich noch gut an das Drama mit der RX5700 Pulse bei Dir errinnern.
(vermutlich wirste wieder wochenlang hier im Thread rumeiern)

Natürlich kommt AMD in dieser Gen nur über den Preis und da ist jedes Angebot im MS für potentielle Käufer wichtig!

btw.
Die große Nitro ist gerade im Outlet für 1299€:

just4FunTA
2023-01-21, 00:00:32
Hallo ich habe in BF4 einen Bug, sobald ich post processing auf höher als Mittel stelle habe ich im Menü nur ~30fps und so einen schwarzen Hintergrund. Habt ihr das auch?

Das muss wohl mit einem der Treiber gekommen sein. Vielleicht kann das mal jemand kurz testen. Ob das ein Reines AMD Problem ist oder ein BF4 Problem.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13217895#post13217895

dargo
2023-01-21, 07:44:29
Nur wenn Du rumbarmst ist wohl der Preis interessant.

Junge, für Preise gibts hier einen separaten Thread. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613404

horn 12
2023-01-21, 16:52:08
Austausch der "Defekten Vapor Chamber" XTX Karten soll in Kürze beginnen laut Forumsuser aus dem Fdx
und wird wohl die nächsten Tage dann soweit sein.

just4FunTA
2023-01-22, 05:55:44
Eben kurztest mit R-Bar. Von 100fps auf 120fps, aber die Ruckler bleiben. CPU Werte sind gefallen, habe wohl cache takt im bios vergessen, aber keine Zeit mehr heute schaue da mal morgen rein.

https://abload.de/img/forzahorizon5_2023_01enfad.png
Schon besser, aber immer noch wenig für diese Karte. Da muss neuer Treiber her. Teste bitte noch 4k mit SAM On für besseren Vergleich wegen deiner CPU.

btw.
Jetzt mit SAM On bist du da aber heftig im CPU-Limit @1440p sofern der GPU-Prozentsatz von 81% was taugt.

bin inzwischen auf 13700k umgestiegen und zumindest bei Forza hat es absolut 0fps gebracht. :X

Etwas OC der Karte hat aber ~10fps gebracht. Ahja die Ruckler sind auch weg, Ob das an der CPU oder vielleicht am Windows lag ist jetzt schwer zu sagen..


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13218701&postcount=67

Taigatrommel
2023-01-22, 09:42:24
Austausch der "Defekten Vapor Chamber" XTX Karten soll in Kürze beginnen laut Forumsuser aus dem Fdx
und wird wohl die nächsten Tage dann soweit sein.

Der Austausch läuft bereits und die ersten Ersatzkarten sind schon bei Kunden eingetroffen. Ist zwar wohl eher langsam, doch es gibt bereits Bewegung in der Sache.

=Floi=
2023-01-23, 00:18:42
Powerlimit erstmal auf -10%.

wird da noch mehr kommen?
Ich finde die -10% ein bisschen wenig von AMD.

dargo
2023-01-23, 06:55:52
wird da noch mehr kommen?

Nein, das ist ins Bios gegossen. Dafür müssten alle Biose geändert werden.

Zergra
2023-01-23, 07:53:43
Der Austausch läuft bereits und die ersten Ersatzkarten sind schon bei Kunden eingetroffen. Ist zwar wohl eher langsam, doch es gibt bereits Bewegung in der Sache.
Ist das den überhaupt realistisch, das die neuen Karten die dort verteilt werden, eben frei von Problemen sind ? Die müssen ja entweder alle Karten vorher testen oder eben eine komplett neue Charge haben, knapp 3 Wochen sind dafür ja auch eher knapp.

IC3M@N FX
2023-01-23, 08:16:39
Spider Man Miles Morales Very High Ray Tracing FSR 2.1 4K | RX 7900 XTX | R7 5800X 3D
https://youtu.be/45Zm48_0hRQ

FSR 2.1 + Ray Tracing auf der RX 7900 XTX in Perfektion.

Gehört mit zu den saubersten Implementierungen 2022/2023. Die Engine ist einfach gut und vorbildlich programmiert.

Generell performen Sony eigene Spiele sehr sehr gut auf die Radeon´s der 6/7 Serie inklusive mit Ray Tracing, es ist aber auch nicht wirklich ungewöhnlich.
Schließlich wurden diese Spiele totoptimiert auf der PS5 GPU die ein äquivalent einer RX 6700 ist.

dildo4u
2023-01-23, 10:31:50
Sony geht schon weiter als auf Konsole.
Miles Morales hat genug RT das NV deutlich besser läuft, beim Remaster von Teil 1 gab es noch keine RT Schatten.

7900XTX zu 4090 + 60%

https://abload.de/img/milesivfzl.png

https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/4/#abschnitt_rdna_3_in_aktuellen_neuerscheinungen

7900XTX zu 4090 + 50%

https://abload.de/img/spiderr4cew.png

https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/3/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160

Exxtreme
2023-01-23, 10:48:00
Sony geht schon weiter als auf Konsole.
Miles Morales hat genug RT das NV deutlich besser läuft, beim Remaster von Teil 1 gab es noch kein RT Schatten.

7900XTX zu 4090 + 60%


Wobei das 1% Perzentil IMHO wichtiger ist. Und da sehen die Radeons absolut kein Land.

IC3M@N FX
2023-01-23, 11:01:36
Stimmt schon aber das ist damit geschuldet weil einfach die nVidia Karten einfach brachial viel Leistung haben insbesondere in Raytracing durch ihre separaten RT Kernen.
Schade das AMD/ATI mit RDNA 3 nicht das Raytracing viel weiter optimiert haben.
Einer der Schwachpunkte, der kompletten RDNA Architektur seid der RX 5000-Serie bestand, war das Fehlen von Einheiten analog zu den NVIDIA RT Kernen.
Die für die Ausführung zweier allgemeiner Aufgaben beim Ray Tracing verantwortlich sind. Die erste davon ist die Berechnung der Strahl Objekt Kreuzung, die mehrere Milliarden Mal pro Sekunde auftritt und eine große Menge an Ressourcen verbraucht.
Die zweite ist das Durchlaufen der Bild Datenstruktur, die die Szene darstellt.
AMD entschied sich für eine gemischte Lösung.
Wo der Schnittpunkt durch seine Ray Accelerator Units berechnet wird, aber sie berechnen nicht die Datenstruktur selbst. Eine Lösung, die am Ende meiner Meinung nach nicht die effizienteste Lösung war/ist.

r3ptil3
2023-01-23, 12:29:12
Der grosse Fortschritt in der RT-Performance der RDNA 3 Karten, wird halt durch die brachiale Performance einer RTX 4090 praktisch unsichtbar.

Man muss halt nur mal die RTX 4090 ignorieren und als Vergleich die RX 6900/6950 als Basis nehmen.

https://tpucdn.com/review/sapphire-radeon-rx-7900-xtx-nitro/images/relative-performance-rt_2560-1440.png

https://tpucdn.com/review/sapphire-radeon-rx-7900-xtx-nitro/images/relative-performance-rt_3840-2160.png

dargo
2023-01-23, 12:32:42
Die 1200+€ 7900XTX konkurriert gar nicht mit der 1850+€ RTX 4090, aber dildo versteht das halt nicht.

dildo4u
2023-01-23, 12:44:54
Was gibt es dort zu verstehen die liegt bei Miles Morales auch weit hinter der 4080, aber die Preise werden eh geregelt sobald alle Fanboys überbezahlt haben.

https://abload.de/img/milesivfzl.png

Linmoum
2023-01-23, 12:49:23
Der grosse Fortschritt in der RT-Performance der RDNA 3 Karten, wird halt durch die brachiale Performance einer RTX 4090 praktisch unsichtbar.Der "große Fortschritt" fällt geringer aus, als AMD ihn vorab suggeriert hat. Und er fällt deutlich geringer aus als das, was viele im Vorfeld sich erhofft haben. Jetzt kann man darüber diskutieren, ob man sich zu viel erhofft hat, aber bei dem riesigen Rückstand, den AMD hatte (bzw. immer noch hat und damit ist nicht die 4090 gemeint), sehe ich nicht unbedingt, warum zumindest ~2x RT-Performance als Erwartung vermessen waren. Das war IMO auch das, was sie hätten bringen müssen bei einer neuen uArch inkl. neuem Fertigungsprozess.

Ansonsten ist RT =! RT. Bei dem von dir verlinkten Parcours hat TPU u.a. ein Spiel mit drin, bei dem die 7900XTX in UHD mit "RT" vor einer 4090 (!) liegt. In F1 2022 liegt die 4080 laut TPU nur +17% vor der 7900XTX, bei CB sind es aber +32%.

Deswegen hab ich auch immer meine Probleme mit Benchmarks, bei denen man raten muss, was/wie/wo gebencht worden ist. Das führt zu Intransparenz und Resultaten, die man nicht für voll nehmen kann. Gerade bei TPU ist das zu oft der Fall, zumal die immer noch ihre dämlichen avg. fps als Grundlage nehmen, was gerade bei RDNA3 problematisch ist, da das P1 hier oftmals deutlich schlechter ausfällt - was aber wichtiger als die durchschnittlichen fps ist.

Es sollte eigentlich jeder so handhaben wie PCGH. Da weiß man nicht nur, was/wie/wo gebencht wurde, sondern Raff stellt auch immer die entsprechenden Savegames zur Verfügung, damit man das im Zweifel auch konkret nachvollziehen kann.

dargo
2023-01-23, 12:50:44
Was gibt es dort zu verstehen...
Reine Zeitverschwendung bei dir.

dildo4u
2023-01-23, 12:56:24
Einfach nur mal Konsistent bleiben 1200€ sind 3080 TI Preise und die waren Müll selbst als wir absurde nachfrage wegen Mining hatten.
Warum sollte man sowas zahlen wenn man gesehen hat wie die Preise der 6900XT eingebrochen sind.

Raff
2023-01-23, 13:00:13
Der "große Fortschritt" fällt geringer aus, als AMD ihn vorab suggeriert hat. Und er fällt deutlich geringer aus als das, was viele im Vorfeld sich erhofft haben. Jetzt kann man darüber diskutieren, ob man sich zu viel erhofft hat, aber bei dem riesigen Rückstand, den AMD hatte (bzw. immer noch hat und damit ist nicht die 4090 gemeint), sehe ich nicht unbedingt, warum zumindest ~2x RT-Performance als Erwartung vermessen waren. Das war IMO auch das, was sie hätten bringen müssen bei einer neuen uArch inkl. neuem Fertigungsprozess.

Ansonsten ist RT =! RT. Bei dem von dir verlinkten Parcours hat TPU u.a. ein Spiel mit drin, bei dem die 7900XTX in UHD mit "RT" vor einer 4090 (!) liegt. In F1 2022 liegt die 4080 laut TPU nur +17% vor der 7900XTX, bei CB sind es aber +32%.

Deswegen hab ich auch immer meine Probleme mit Benchmarks, bei denen man raten muss, was/wie/wo gebencht worden ist. Das führt zu Intransparenz und Resultaten, die man nicht für voll nehmen kann. Gerade bei TPU ist das zu oft der Fall, zumal die immer noch ihre dämlichen avg. fps als Grundlage nehmen, was gerade bei RDNA3 problematisch ist, da das P1 hier oftmals deutlich schlechter ausfällt - was aber wichtiger als die durchschnittlichen fps ist.

Es sollte eigentlich jeder so handhaben wie PCGH. Da weiß man nicht nur, was/wie/wo gebencht wurde, sondern Raff stellt auch immer die entsprechenden Savegames zur Verfügung, damit man das im Zweifel auch konkret nachvollziehen kann.

Beim Raytracing gilt: Navi 31 XTX = GA102-350 = AD104-400 (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/)

Davon gibt es zwar Abweichungen, aber insgesamt ist das schön einfach. :)

MfG
Raff

dargo
2023-01-23, 13:04:22
Warum sollte man sowas zahlen wenn man gesehen hat wie die Preise der 6900XT eingebrochen sind.
Weil mans kann.

=Floi=
2023-01-23, 13:07:53
Ist das den überhaupt realistisch, das die neuen Karten die dort verteilt werden, eben frei von Problemen sind ? Die müssen ja entweder alle Karten vorher testen oder eben eine komplett neue Charge haben, knapp 3 Wochen sind dafür ja auch eher knapp.


Flugfracht.
Ich denke soetwas ist heute innerhalb einer woche möglich. Das problem ist bekannt und neue karten laufen weiterhin vom band.

gedi
2023-01-23, 17:49:26
Besitzer einer Nitro sollten mal das Setting 3.2g @ 1.05v mit einem PT von -10 (was 364w entspricht) ausprobieren. Bin damit noch immer deutlich schneller unterwegs, als mit dem originalem Setting (ca. 8%), aber die Kiste ist nicht mehr hörbar. Die Temperaturen bewegen sich hier 48°C edge und ~62°C Hotspot. Ram OC in etwa 2.75g.

horn 12
2023-01-23, 18:38:54
Funkt die Karte auch nur mit 2x 8 Pin oder Zwingend 3x Pin nötig?

gedi
2023-01-23, 18:42:54
Denke es wird zwingend 3x8 benötigt, habe es allerdings nicht ausprobiert. Aber wenn man den PC startet, liegen zuerst ~403w kurz an, von daher ...

horn 12
2023-01-23, 18:48:50
Ok, danke!
Bleibe bei meiner Referenz XTX mit 316 Watt 17xx U/Min und ca. 2700 Mhz Takt.

Langlay
2023-01-23, 20:05:06
Ok, danke!
Bleibe bei meiner Referenz XTX mit 316 Watt 17xx U/Min und ca. 2700 Mhz Takt.

Rein Interesse halber gefragt welche Spanung liegt da an ?


@Allgemeinheit

Und ich nehme an die Sache mit dem Multimonitorverbrauch hat sich auch noch nicht spürbar verbessert ?

horn 12
2023-01-23, 20:20:29
1050 mV mit Wattman eingestellt, und Lüfter so um die 1720 bis 1770 U/min
316 Watt liegt an, da Powerlimit minus 10 Prozent!
aber je nach Spiel performt die Karte gut oder schlechter als man erhofft.
Der Treiber ist in Gewissen Games wirklich noch unterste Schublade!

Langlay
2023-01-23, 20:47:58
Lüfter sind mir egal, die Karte würde eh auf Wakü umgebaut.

Aber der Multimonitorverbrauch und das Fehlen vom MPT machen mich halt nicht unbedingt begeistert von der Karte.

Wiseman
2023-01-23, 21:46:51
Der grosse Fortschritt in der RT-Performance der RDNA 3 Karten, wird halt durch die brachiale Performance einer RTX 4090 praktisch unsichtbar.

Man muss halt nur mal die RTX 4090 ignorieren und als Vergleich die RX 6900/6950 als Basis nehmen.


Da ist was dran. Ich hatte in 2022 Doom Eternal mit 'ner 6900XT getestet und habe heute Doom Eternal mit meiner 7900XTX überprüft. Ich benützte dazu Raffs "Thunderstorm"-Parcours. (Ich mache anschließend einen Thread im Benchmarking Forum auf.) Getestet habe ich in 4k, Ultra Nightmare und mal mit RT on und mal mit RT off.

RT off: avg 153 fps (6900XT) vs avg 244 fps (7900XTX) = + 59% Steigerung

RT on: avg 69 fps (6900XT) vs avg 121 fps (7900XTX) = + 75% Steigerung

Wer von einer 6900XT auf 7900XTX aufsteigen will, kann also bedenkenlos Doom Eternal in 4k + Ultra Nightmare + RT spielen. Läuft smooth as butta. Mit RT on hatte ich min 101 fps. Nicht vergessen, Raff sucht sich immer Stellen aus, die besonders fordernd sind.

Da braucht man gar nicht mehr auf die brachiale Performance bzw. den brachialen Preis einer 4090 zu schielen. Die XTX tuts auch in Doom Eternal.

Und um meine Meinung zu dem permanenten RT-Marketing-Gesülze zu sagen: Ich habe beim Testen mehrmals zwischen RT on und RT off hin- und hergeschaltet und akribisch nach optischen Unterschieden gesucht. Konnte nichts finden. Wieder mal. Es bleibt dabei: Ich brauche kein RT.

Raff
2023-01-23, 22:11:04
Stell dich bei "Thunderstorm" einfach mal vor 'ne Wand, Scheibe oder 'nen Türrahmen. Klare Unterschiede sichtbar - aber nicht in den typischen High-Speed-Die-Fast-Shootouts. :D

MfG
Raff

Tesseract
2023-01-23, 23:07:44
Und um meine Meinung zu dem permanenten RT-Marketing-Gesülze zu sagen: Ich habe beim Testen mehrmals zwischen RT on und RT off hin- und hergeschaltet und akribisch nach optischen Unterschieden gesucht. Konnte nichts finden. Wieder mal. Es bleibt dabei: Ich brauche kein RT.

doom verwendet RT für (soweit ich weiß ausschließlich) reflexionen an glatten oberflächen und glas. mit RT hast du da eine reflexion, ohne hast du mehr oder weniger garnix. natürlich sieht man da einen deutlichen unterschied. dass du im restlichen spiel keinen siehst ist klar weil kein RT verwendet wird - was solltest du also auch sehen?

das problem ist nicht RT als technologie, das problem ist dass deine karten für einen isolierten, drangeflanschten RT-effekt viel zu stark einbrechen, ähnlich wie damals bei der einführung der shader karten die hauptsächlich für fixed function designt waren und shader nur als checklistenfeature konnten eingeknickt sind wenn ein ansonsten reines fixed function spiel einen drangeflanschten techdemo-wassershader hatte.

lilgefo~
2023-01-23, 23:46:18
Jo, im Prinzip kann man sagen, dass wenn RT mit RDNA2/3 gut läuft auch kaum RT-Features genutzt werden.

Ex3cut3r
2023-01-23, 23:59:12
Doom verwendet RT für (soweit ich weiß ausschließlich) Reflexionen an glatten Oberflächen und Glas. Mit RT hast du da eine Reflexion, ohne hast du mehr oder weniger gar nichts. Natürlich sieht man da einen deutlichen Unterschied. Dass du im restlichen Spiel keinen siehst, ist klar, weil kein RT verwendet wird - was solltest du also auch sehen?
Ganz genau. So schaut aus.

https://abload.de/thumb/doometernalx64vk_2023nscw8.png (https://abload.de/image.php?img=doometernalx64vk_2023nscw8.png) https://abload.de/thumb/doometernalx64vk_20234fc5m.png (https://abload.de/image.php?img=doometernalx64vk_20234fc5m.png)

Tesseract
2023-01-24, 00:03:41
Jo, im Prinzip kann man sagen, dass wenn RT mit RDNA2/3 gut läuft auch kaum RT-Features genutzt werden.

metro läuft relativ gut, selbst auf RDNA, mit deutlich mehr RT-einsatz als doom bei viel höherem visuellen nutzen. ist halt einfach eine viel bessere RT-implementierung. einbrechen tut RDNA verhältnismäßig aber trotzdem mehr, halt von einem höheren level der gebotenen bildqualität.

reflexionen sind ein häufiges hello-world-beispiel für RT weil man die schnell implementiert und mit raster sehr schlecht wirklich überzeugend fälschen kann, aber volle RT global illumination ist das was über das ganze spiel hinweg den wow-faktor erzeugt.

Wiseman
2023-01-24, 00:09:12
Stell dich bei "Thunderstorm" einfach mal vor 'ne Wand, Scheibe oder 'nen Türrahmen. Klare Unterschiede sichtbar - aber nicht in den typischen High-Speed-Die-Fast-Shootouts. :D

MfG
Raff

Ich hatte bisher auf der Plattform und mit Blick auf das sturmgepeitschte Meer gesucht und nichts gefunden. Auf deinen Tipp hin habe ich Türrahmen-Forschungen unternommen. Stimmt. Mit RT glänzen die recht schön. Nur gut, dass mich kein Monster bei meiner Forschungsarbeit erwischt hat.

vinacis_vivids
2023-01-24, 10:42:20
A Plague Tale Requiem - Performance & Optimization With Ray Tracing - Nitro+ RX 7900 XTX @ 4K
lfwzhEbBF7Y

dargo
2023-01-24, 12:28:33
Da ist was dran. Ich hatte in 2022 Doom Eternal mit 'ner 6900XT getestet und habe heute Doom Eternal mit meiner 7900XTX überprüft. Ich benützte dazu Raffs "Thunderstorm"-Parcours. (Ich mache anschließend einen Thread im Benchmarking Forum auf.) Getestet habe ich in 4k, Ultra Nightmare und mal mit RT on und mal mit RT off.

RT off: avg 153 fps (6900XT) vs avg 244 fps (7900XTX) = + 59% Steigerung

RT on: avg 69 fps (6900XT) vs avg 121 fps (7900XTX) = + 75% Steigerung

Das sieht nicht übel aus, von der RX 6800XT kommend wirds noch ein klein wenig besser. Diese Steigerungen vermisse ich halt mehr oder weniger durchgehend über alle Spiele, dann hätte ich jetzt schon direkt zugeschlagen. :wink: Mal sehen was kommende Treiber noch ausrichten können, ich hoffe da kommt noch was ansonsten wird das bei mir u.U. eine längere Durststrecke bis RDNA4. X-D

vinacis_vivids
2023-01-24, 13:46:12
7900XTX kombiniert mit dem neuen 7900X3D oder 7950X3D sind nochmals +30-50% drin. 4K UHD sind wir dann bei ~300 fps. Ich denke dann limitiert der Monitor.
Zen4 3D + RDNA3 sind dann einsam an der Spitze ohne Konkurrenz.

Langlay
2023-01-24, 13:52:09
Zen4 3D + RDNA3 sind dann einsam an der Spitze ohne Konkurrenz.


https://abload.de/img/giphyyximi.gif

Wird die 4080/4090 eingestellt oder wie soll das passieren ?

Und imo legt Zen4 3D im besten Fall 25% auf den 5800X3D drauf, also auch eher Evolution statt Revolution.

Taigatrommel
2023-01-24, 13:52:32
7900XTX kombiniert mit dem neuen 7900X3D oder 7950X3D sind nochmals +30-50% drin. 4K UHD sind wir dann bei ~300 fps. Ich denke dann limitiert der Monitor.
Zen4 3D + RDNA3 sind dann einsam an der Spitze ohne Konkurrenz.
Natürlich....;D

Adam D.
2023-01-24, 17:11:51
MPT wird RDNA3 nicht unterstützen: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/MPT-RDNA-3-Beliebtes-OC-Tool-scheitert-AMD-Sperren-1412033/

Damit ist die Generation für mich gestorben, well done AMD :ulol:

vinacis_vivids
2023-01-24, 17:18:27
hellm hat einfach keine Lust den Programmieraufwand auf sich zu nehmen, weil kaum Geld damit verdient wird. Hat doch nix mit AMD zu tun, die ihre Hardware vor Manipulationen schützen wollen.
Die Zeiten wo man bei AMD von einer Radeon 9500@9700Pro flashen kann, sind lange vorüber.
Findes es nur seltsam wie die 20GB bzw. 24GB bei RDNA3 so wenig Anklang finden aber bei Grün die teuren 8GB Speicherkrüppel hochgelobt werden.

Schnitzl
2023-01-24, 17:33:44
welche Manipulationen?
wenn ich das Powerlimit um 6% absenke... ja da kann ichs auch gleich lassen.
20 oder 25% ab da kann man wieder diskutieren.

+1 für Adam D.

Linmoum
2023-01-24, 17:37:24
hellm hat einfach keine Lust den Programmieraufwand auf sich zu nehmen, weil kaum Geld damit verdient wird. Hat doch nix mit AMD zu tun, die ihre Hardware vor Manipulationen schützen wollen.Es gibt klassische Fanboys und dann gibt es noch vinacis_vivids. :facepalm:

-=Popeye=-
2023-01-24, 18:05:22
hellm hat einfach keine Lust den Programmieraufwand auf sich zu nehmen, weil kaum Geld damit verdient wird. Hat doch nix mit AMD zu tun, die ihre Hardware vor Manipulationen schützen wollen.
Die Zeiten wo man bei AMD von einer Radeon 9500@9700Pro flashen kann, sind lange vorüber.
Findes es nur seltsam wie die 20GB bzw. 24GB bei RDNA3 so wenig Anklang finden aber bei Grün die teuren 8GB Speicherkrüppel hochgelobt werden.

Selten so einen BS gelesen... @hellm, @Veii und alle anderen Beteiligten sind ganz sicher keine Dummen was dieses Thema betrifft.

Wenn die sich alle einig sind das es bei dieser Gen nicht mehr funktioniert hat dies nichts mit Faulheit zu tun sondern mit AMD selbst, was übrigens auch absehbar war, weil man das PT nicht mehr wie bei N21 beeinflussen kann.

Und was das BIOS flashen angeht... unter Linux kann man jeder N21 XTXH Karte das Original LC BIOS verpassen.

Und noch was, wenn ich mich recht erinnere hat Veii es durch Software Hacks sogar geschafft ein KXTX BIOS auf einer XTX lauffähig zu bekommen.

Soviel zum Thema Faulheit und Unfähigkeit... den Bock hat AMD selbst geschossen.

aufkrawall
2023-01-24, 18:09:17
Geht ja schon los bei diesen absurden -6% PT als Maximal-Absenkung. Fand schon bei RDNA2 jeder kacke, warum macht man das...

dargo
2023-01-24, 18:12:31
Es sind bei N31 -10%. ;) Warum AMD das macht? Keine Ahnung. Nach oben kann ich eine sinnvolle Grenze verstehen, aber nach unten? Da hätte AMD auch bis zu -50% erlauben können. Was soll der Hardware denn passieren? Nichts. Einfach wieder eine sinnlose Entscheidung von irgendeinem BWL-er intern.

Exxtreme
2023-01-24, 18:36:09
Man kann nicht unendlich weit untertakten. :) Und ja, 30% und mehr wären sicherlich sinnvoll.

dargo
2023-01-24, 18:44:21
Man kann nicht unendlich weit untertakten. :)
Polaris hat uns das Gegenteil bewiesen mit -50% bis +50% PT. Niemand verlangt unendlich. :rolleyes:

Taigatrommel
2023-01-24, 18:46:27
MPT wird RDNA3 nicht unterstützen: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/MPT-RDNA-3-Beliebtes-OC-Tool-scheitert-AMD-Sperren-1412033/

Damit ist die Generation für mich gestorben, well done AMD :ulol:

Sprich es bewqhrheitet sich das, was bereits kurz nach Release mehrfach spekuliert wurde. Ich muss ganz ehrlich sagen, mich persönlich stört dies jetzt nicht so sehr, doch wenn ich bedenke, wie wackelig und unzuverlässig der Wattman bzw. halt die Leistungsoptimierungen im Adrenalin Treiber derzeit generell funktionieren, dann ist das schon eine unschöne Sache. Vor allem weil eben nur bis zu 10% weniger Verbrauch zugelassen sind, für mich unverständlich, warum man nicht zumindest 15% bis 20% zulässt, um den Verbrauch z.B. einer XTX im Vorfeld auf ca. 300W zu drosseln.

Ich habe ja inzwischen extra für WoW, eines der wenigen Spiele, bei welchem meine Karte problemlos UV mitzumachen scheint, ein extra Leistungsprofil im Wattman hinterlegt. Mit dem Ergebnis, das ich in anderen Titeln schon wieder Timeouts hatte, obwohl das Profil für die eigentlich nicht gilt. Reset des Wattman auf default haben alle Probleme wie von Geisterhand behoben. Schalte ich das WoW-only Profil wieder zu, crasht z.B. RDR2 oder Survive the Abyss binnen weniger Minuten.

Meine 6900 XT liegt noch immer hier, weil ich mir noch nicht sicher bin, ob ich mir die XTX da weiter antun will. Klar ist die spürbar schneller, doch die anhaltenden Probleme nerven einfach nur im Vergleich zur völlig stabilen RDNA2 Lösung.

horn 12
2023-01-24, 19:04:57
Ja, dies stimmt wirklich, dem Pflichte ich Ohne Murren bei!
aber sollte ja dieser Tage, wenn gar nicht noch Heute weiterer Treiber kommen.


23.1.2 drivers, exclusive to RDNA3 still, released.

Hier ist der Treiber:
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-1-2-kb

Fixed Issues
AMD Software: Adrenalin Edition may fail to launch with the error message “Delayed Write Failed” on Microsoft® Windows® 11 version 22H2.
Poor performance and load time may be observed while playing SpaceEngine™.
Missing or flickering textures may be observed while playing Emergency 4™.

Adam D.
2023-01-24, 19:16:54
Polaris hat uns das Gegenteil bewiesen mit -50% bis +50% PT. Niemand verlangt unendlich. :rolleyes:
Ich verlange von einem Unternehmen, dass über 1000€ von mir haben will, dass es mich wie einen Erwachsenen behandelt und mich nicht mit diesen absurden Einschränkungen bevormundet.

Ich habe meine Karten immer auf individuellen Betriebspunkten (UV, PT-Limitierungen etc.) gefahren, weil ich es gerne so effizient wie möglich habe und mir das Suchen des Sweetspot Spaß macht. Die Möglichkeit wird mir und vielen anderen jetzt aus nicht-kommunizierten Gründen verwehrt.

Es fühlt sich echt an, als würde AMD alles tun, um mich zum Kauf einer Nvidia-Karte zu zwingen :freak:

Der_Korken
2023-01-24, 19:20:55
MPT wird RDNA3 nicht unterstützen: https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/MPT-RDNA-3-Beliebtes-OC-Tool-scheitert-AMD-Sperren-1412033/

Damit ist die Generation für mich gestorben, well done AMD :ulol:

Es ist ja das eine, den Zugang zu möglicherweise kritischen Einstellungen zu erschweren, da es genug Unwissende gibt, die dann einfach irgendwie Taktraten und Spannungen sonst wie hoch schrauben ohne zu wissen, was sie da tun. Im Gegensatz zu den Wattman-Limits kann man damit sicher deutlich schneller Hardware schrotten. Wenn man aber diese Zugänge erschwert, warum erlaubt man den Usern nicht wenigstens alle unkritischen Sachen selbst verändern zu können? Die mickrigen -10% Powerlimit wurden schon genannt. Aber auch sowas wie Minimaldrehzahl der Lüfter oder ZeroFan-Einstellungen sind nützlich, weil die Standardeinstellungen da oft einfach totaler Müll sind. Sowas zu verstellen ist völlig harmlos, macht die Karte aber im Alltag angenehmer.

hellm hat einfach keine Lust den Programmieraufwand auf sich zu nehmen, weil kaum Geld damit verdient wird.

Alter, ist das wirklich dein Ernst? :facepalm:

dargo
2023-01-24, 19:24:40
Ähm... Zero-Fan kannst du im Wattman On/Off stellen. ;)

vinacis_vivids
2023-01-24, 19:26:37
How to accelerate AI apps on RDNA3 using WMMA
https://gpuopen.com/learn/wmma_on_rdna3/

Hardware-Beschleunigung durch Matrizen-Multiplikation mit 32 Threads im wave32 oder 64 Threads im wave64 Modus.

Zahlenformat fp16, bf16, int8, int4.
Im Vergleich zu 6950XT hat die 7900XTX 512 Flops/clock/CU statt 256 bei fp16.

Das wird wohl FSR 3.0 zu höheren Dimensionen führen.
Peak Leistung bei fp16-Rate sind 512 * (3.0-3.5Ghz) * 96 ~ 147-172,03 Tflops fp16 😱
Das ist eine gigantische Compute-Leistung und ermöglicht völlig neue Spielgebiete.

Der_Korken
2023-01-24, 19:36:11
Ähm... Zero-Fan kannst du im Wattman On/Off stellen. ;)

Ja, aber nicht die Temperaturschwellen. Bei der 5700 Nitro waren die z.B. bei 55°C an und 50°C aus, dazu 1500RPM Anlaufdrehzahl für die Lüfter :freak:. Das heißt, beim Youtuben geht die Turbine los bei 55°C und bis die sich wieder eingekriegt hat, ist die Karte bei 50°C und die Lüfter gehen wieder aus. Das wiederholt sich dann alle 3 Minuten :rolleyes:. Mit Schwellwerte auf 65 und 35 ist zwar die Turbine noch da, aber die Zyklen sind viel länger.

dargo
2023-01-24, 19:53:47
Wer einen AIB unterstützt der eine Anlaufgeschwindigkeit von 1500RPM benötigt dem ist eh nicht mehr zu helfen. Einfach so einen Schrott nicht kaufen.

Der_Korken
2023-01-24, 19:56:57
Wer einen AIB unterstützt der eine Anlaufgeschwindigkeit von 1500RPM benötigt dem ist eh nicht mehr zu helfen. Einfach so einen Schrott nicht kaufen.

Wenn man das immer vorher wüsste. Sowas findet man in Tests quasi nie und die meisten scheinen sich an Lautstärke (und unnötigen Verbräuchen) nicht zu stören. Prinzipiell wären die 1500RPM für mich sogar in Ordnung, wenn der Kühler dafür super ist und ich solche falschen Presets von Hand (einmalig) korrigieren kann.

dargo
2023-01-24, 20:24:06
Wenn man das immer vorher wüsste.
Kein Mitleid mit Early Adopters. ;)

Tangletingle
2023-01-24, 20:30:11
Ähm... Zero-Fan kannst du im Wattman On/Off stellen. ;)
Ihm geht's aber nicht um on and off. Es geht darum, dass die heuristik teils einfache kacke war. Da ging der Lüfter an-aus-am-aus. Das konnte man manuell beeinflussen. Jetzt ists halt Essig.

dargo
2023-01-24, 20:39:17
Dann musst du dir eben einen kompetenten AIB raussuchen, meine Güte. :rolleyes: Oder einfach den Zero-Fan Quatsch im Treiber deaktivieren und auf die Minimaldrehzahl bei den AIBs schauen. Den Rest legst du dir komfortabel über die Custom-Lüfterkurve im Wattman zusammen.

Der_Korken
2023-01-24, 21:01:43
1. Wo finde ich diese Werte ohne die Karte selber zu kaufen?
2. Was wenn jeder AIB irgendwas verkackt? Ohne das MPT kann man auch die kleinen Sachen nicht mehr fixen.

dargo
2023-01-24, 21:06:29
1. Wo finde ich diese Werte ohne die Karte selber zu kaufen?

Das ist jetzt nicht dein ernst oder? Im Netz vielleicht? :freak: Wofür gibt es Foren wie diese?

Der_Korken
2023-01-24, 21:13:11
Achso, du meinst indem man wartet bis andere User alle Custom-Modelle durch haben und man diese dann nach den Werten fragt. Und ich dachte schon irgendein Reviewer würde sowas testen.

Raff
2023-01-24, 21:56:30
23.1.2 drivers, exclusive to RDNA3 still, released.

Hier ist der Treiber:
https://www.amd.com/en/support/kb/release-notes/rn-rad-win-23-1-2-kb

Fixed Issues
AMD Software: Adrenalin Edition may fail to launch with the error message “Delayed Write Failed” on Microsoft® Windows® 11 version 22H2.
Poor performance and load time may be observed while playing SpaceEngine™.
Missing or flickering textures may be observed while playing Emergency 4™.

Warum zum Geier findet die Suche auf der AMD-Website diesen Treiber nicht? Und ist RDNA 2 schon nach zwei Jahren "legacy"? :ugly:

MfG
Raff

=Floi=
2023-01-25, 05:03:57
Man kann nicht unendlich weit untertakten. :) Und ja, 30% und mehr wären sicherlich sinnvoll.

Das trifft aber nicht auf gpus zu, weil diese karten sonst nicht diese absurden absenkungen im 2d modus/desktop haben würden.
Nebenbei sind heute ~50% desmaximalen taktes auch wesentlich sparsamer geworden als früher. Da kommt eine menge know how zusammen und ann der mobilen ableger sind treiber und chips auch teilweise extrem gut optimiert.

DozerDave
2023-01-25, 06:12:50
Wenn man das immer vorher wüsste. Sowas findet man in Tests quasi nie und die meisten scheinen sich an Lautstärke (und unnötigen Verbräuchen) nicht zu stören. Prinzipiell wären die 1500RPM für mich sogar in Ordnung, wenn der Kühler dafür super ist und ich solche falschen Presets von Hand (einmalig) korrigieren kann.

14 tägiges Rückgaberecht?

RoNsOn Xs
2023-01-25, 07:22:41
Warum zum Geier findet die Suche auf der AMD-Website diesen Treiber nicht? Und ist RDNA 2 schon nach zwei Jahren "legacy"? :ugly:

MfG
Raff
Hab ich mich gestern auch gefragt. Direkt aufgelistet wird nur der "ältere". Das Overlay findet auch nichts neueres.


Btw. gestern noch die Referenz gegen die Merc310 getauscht. Was ein Schiff! Muss aber direkt sagen, dass ich negativ über die Lüfter gestolpert bin. Die machen gefühlt mehr Krach als das MBA-Design bei gleicher Drehzahl. Noch jmd? Bin ja fast geneigt sie zurück zu schicken. :(

GerryB
2023-01-25, 07:43:04
größere Lü. machen nunmal bei gleicher Drehzahl etwas mehr Geräusche
(wie schauts denn mit 100rpm weniger aus)

dargo
2023-01-25, 07:55:09
Btw. gestern noch die Referenz gegen die Merc310 getauscht. Was ein Schiff! Muss aber direkt sagen, dass ich negativ über die Lüfter gestolpert bin. Die machen gefühlt mehr Krach als das MBA-Design bei gleicher Drehzahl. Noch jmd? Bin ja fast geneigt sie zurück zu schicken. :(
Einfachste Physik, siehe GerryB. Wie kommt man aber auch auf die Idee eine Custom XFX mit ~1750RPM laufen zu lassen? :freak: Ist ja ungefähr die Drehzahl einer MBA. Höre dir die Lüfter bei 1200RPM an.

RoNsOn Xs
2023-01-25, 08:15:08
1750rpm (um mal deine Zahl zu nennen) sind nach meinem Kopf locker nur 40% Speed. Und der Klopper soll bei 1200rpm die Karte noch gescheit gekühlt bekommen? In meinem schlecht luftdurchfluteten Gehäuse (zugegeben) hielt die Temp bei ca. 50% rpm (was schon laut ist) gerade bei 70/89°C.
Einzig der Speicher zeigt hier eine bessere Tendenz ggü. der Referenz. (80° ggü 96°) - als Nebensache.

GerryB
2023-01-25, 08:28:36
Gerade der Vram ist bei der XTX very interesting!

würde mal das ganze UV/OCen bei der Timinggrenze vom Vram näher untersuchen (da sind gute Temps nützlich)
GPU im WM UVen bei OCen Vram ca.2750MHz +/-15MHz = Timinggrenze

dargo
2023-01-25, 08:28:42
1750rpm (um mal deine Zahl zu nennen) sind nach meinem Kopf locker nur 40% Speed. Und der Klopper soll bei 1200rpm die Karte noch gescheit gekühlt bekommen? In meinem schlecht luftdurchfluteten Gehäuse (zugegeben) hielt die Temp bei ca. 50% rpm (was schon laut ist) gerade bei 70/89°C.
Einzig der Speicher zeigt hier eine bessere Tendenz ggü. der Referenz. (80° ggü 96°) - als Nebensache.
Bei gleichen PT (dafür musst du PT auf -9% bis -10% setzen, default sind es 392W) sollte er das. Ansonsten taugt das Ding imho nichts. Oder dein Gehäuse ist thermisch wirklich extrem schlecht. Dann müsste aber auch die MBA schwächeln. Eine weitere Möglichkeit wäre noch, dass XFX hier Mist gebaut hat bei manchen Karten, siehe Rancor + RDNA2.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613343

Teste mal vorsichtshalber mit offenem Gehäuse um einen fehlerhaften Kühler(kontakt) auszuschließen.

OgrEGT
2023-01-25, 08:31:23
1750rpm (um mal deine Zahl zu nennen) sind nach meinem Kopf locker nur 40% Speed. Und der Klopper soll bei 1200rpm die Karte noch gescheit gekühlt bekommen? In meinem schlecht luftdurchfluteten Gehäuse (zugegeben) hielt die Temp bei ca. 50% rpm (was schon laut ist) gerade bei 70/89°C.
Einzig der Speicher zeigt hier eine bessere Tendenz ggü. der Referenz. (80° ggü 96°) - als Nebensache.
Das hört sich aber komisch an da die Merc eigentlich zu den besseren Customs gehört... wenn die Temps bei Dir mit offenem Gehäuse deutlich besser sind dann liegts wohl daran... ansonsten scheinen mir die Temps zu hoch...
https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/

Edit... zu langsam..

RoNsOn Xs
2023-01-25, 08:41:56
Das Ding ist ja, dass ich mit offenen Gehäuse bereits die MBA getestet hatte und ca. 10°C weniger notiert hab. Aber: die Merc hat bei geschlossenem Gehäuse jetzt scheinbar die gleichen Temps, was ich seltsam fand. Ich komm da erst morgen wieder dran und werde weitersehen. Danke euch zunächst.

edit:
gefunden
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13206781&postcount=1306

OgrEGT
2023-01-25, 08:45:51
Das Ding ist ja, dass ich mit offenen Gehäuse bereits die MBA getestet hatte und ca. 10°C weniger notiert hab. Aber: die Merc hat bei geschlossenem Gehäuse jetzt scheinbar die gleichen Temps, was ich seltsam fand. Ich komm da erst morgen wieder dran und werde weitersehen. Danke euch zunächst.
Welches Gehäuse hast Du denn? Ich bspw. nutze ein Fractal Node 804 was auch relativ kompakt ist wobei da einige Silent Wings für Frischluft sorgen... nutze da zwar nur eine Nitro 6800 (PT-8% 97fps cap) aber eben auch mit nur 1200rpm...

RoNsOn Xs
2023-01-25, 09:08:04
Ein älteres mit noch 5,25" Laufwerkseinschüben vorn oben. Noname, oder ich habe den Namen an dem Ding noch nicht gefunden. Irgendwann kommt ein Upgrade. War damals nur schnell hergenommen, weil ich nicht viel vor hatte, was sich mittlerweile geändert hat.

Thunder99
2023-01-25, 09:16:24
Ein älteres mit noch 5,25" Laufwerkseinschüben vorn oben. Noname, oder ich habe den Namen an dem Ding noch nicht gefunden. Irgendwann kommt ein Upgrade. War damals nur schnell hergenommen, weil ich nicht viel vor hatte, was sich mittlerweile geändert hat.

Das Gehäuse kann einen immensen Einfluss haben auf die Kühlung der Grafikkarte uns entsprechend auf die Lüftergeschwindigkeit. Ließ Mal den den CB Test dazu. Ist nicht direkt das Gleiche aber die gleiche Art.

Matrix316
2023-01-25, 10:52:31
Also bei mir mit Fractal Design Meshify 2 hab ich mit der Merc XTX standard maximal ~1600 RPM und max so 6x° GPU und ~80° Hotspot, z.B. in Extremsituationen wie Cyberpunk in Ultra HD mit RT oder 3DM Port Royal. Sonst sind es eher weniger. Allerdings könnte es bei mir vielleicht noch weniger sein, weil ich vorne den CPU Radiador drinnen habe und so die Luft schon etwas wärmer ins Gehäuse reinkommt. Der hat leider oben im Deckel nicht reingepasst damals... (könnte ich noch mal probieren, da ich jetzt ein anderes MB hab als zu der Zeit wo ich die AIO gekauft hatte)

kmf
2023-01-25, 11:56:45
Warum zum Geier findet die Suche auf der AMD-Website diesen Treiber nicht? Und ist RDNA 2 schon nach zwei Jahren "legacy"? :ugly:

MfG
Raff
Ich glaub im Treiberteam geht's derzeit drunter und drüber.

Ein älteres mit noch 5,25" Laufwerkseinschüben vorn oben. Noname, oder ich habe den Namen an dem Ding noch nicht gefunden. Irgendwann kommt ein Upgrade. War damals nur schnell hergenommen, weil ich nicht viel vor hatte, was sich mittlerweile geändert hat.Kannst die Laufwerkseinschübe vielleicht abbauen? Festplatte, falls noch verbaut kannst am Gehäuseboden ablegen. Weil die Einschübe verhindern eine gescheite Luftzirkulation zur Grafikkarte.

vinacis_vivids
2023-01-25, 12:07:04
Forspoken Ultra High Settings, Ray Tracing FSR 4K | RX 7900 XTX | R7 5800X 3D
iO3r_KECNCU

MW2 >400fps :eek:
qVEHxzMG9XA

Der Command Prozessor taktet hier mit 3,7Ghz und die Shader mit 3,2Ghz :D

Haben die 400fps einen Vorteil ggü. 120fps bspw.?

Raff
2023-01-25, 13:12:40
Hat hier jemand den "GPUOpen Showcase" Forspoken? Voll mit AMD-Technik, also genau die Zielgruppe. Falls ja, steuert hier bitte mal ein paar Werte bei: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=613906 =)

MfG
Raff

RoNsOn Xs
2023-01-25, 17:56:59
Kannst die Laufwerkseinschübe vielleicht abbauen? Festplatte, falls noch verbaut kannst am Gehäuseboden ablegen. Weil die Einschübe verhindern eine gescheite Luftzirkulation zur Grafikkarte.
Laufwerke sind keine drin, aber ein billiger 140mm Lüfter hat dort schon seinen Platz.

@all
Wie viel bringt ein gutes Case wirklich? Habt ihr mal mit und ohne Seitenwand getestet? Täte mich intetressieren, ob trotz gutem Airflow bei euch die Temps mit offener Tür noch weiter runter gehen, oder sich sogar noch erhöhen?
Habe dazu im Netz nichts finden können.

horn 12
2023-01-25, 18:04:49
https://www.amazon.it/Gigabyte-RX7900-XT-Gaming-24GD/dp/B0BPSSZ8V5/ref=sr_1_1?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=125DDCVK5IN88&keywords=7900+XTX+Gigabyte&qid=1674666143&sprefix=7900+xtx+gigabyte%2Caps%2C83&sr=8-1

Wirklich Guter Preis!
Findet man aber kaum Berichte/ Videos dazu, ausser Privatuser bei Fdx.

Wiseman
2023-01-25, 18:16:06
Btw. gestern noch die Referenz gegen die Merc310 getauscht. Was ein Schiff! Muss aber direkt sagen, dass ich negativ über die Lüfter gestolpert bin. Die machen gefühlt mehr Krach als das MBA-Design bei gleicher Drehzahl. Noch jmd? Bin ja fast geneigt sie zurück zu schicken. :(

Stimmt. Ist in allen Dezember-Reviews so berichtet worden. Hast du kein Review vor dem Kauf studiert? Vor allem das Review von CB hätte dir zu denken geben müssen.

https://www.computerbase.de/2022-12/radeon-rx-7900-xtx-custom-design-test/2/#abschnitt_lautstaerke__kuehlung

CB:

BIOS 1: 40 dB bei 1600 RPM
BIOS 2: 48 dB bei 2000 RPM

Im Vergleich dazu die Ref 7900XTX: 39.5 dB bei 1740 RPM

Auch in den Reviews von Techpowerup und Guru3d schnitt die Merc 7900XTX von XFX in Sachen Lärm nicht gut ab.

Techpowerup:

BIOS 1: 38.3 dB bei 1596 RPM
BIOS 2: 45.4 dB bei 2006 RPM

Guru3d:

BIOS 1: 42 dB
BIOS 2: 46 dB

RoNsOn Xs
2023-01-25, 18:35:13
Doch, überflogen. Nahm jedoch an, dass die bessere Kühlung schon etwas weniger Drehzahl zulassen wird. Worüber man ja immer wieder stolpert, auch hier im Forum: die Standard Lüfterkurve ist bei vielen Modellen sowieso für die Katz. Auch bei der MBA habe ich diese sofort angepasst. Daher sind die Reviews nicht so sehr aussagend. Auch hier im forum war bislang nicht so viel schlechtes von der merc zu lesen, so wie jetzt auch von Matrix. Vllt sagtest du nochmal was zu den Drehzahlen und der Geräuschkulisse bei deinen temps, Matrix.

Matrix316
2023-01-25, 23:49:47
Doch, überflogen. Nahm jedoch an, dass die bessere Kühlung schon etwas weniger Drehzahl zulassen wird. Worüber man ja immer wieder stolpert, auch hier im Forum: die Standard Lüfterkurve ist bei vielen Modellen sowieso für die Katz. Auch bei der MBA habe ich diese sofort angepasst. Daher sind die Reviews nicht so sehr aussagend. Auch hier im forum war bislang nicht so viel schlechtes von der merc zu lesen, so wie jetzt auch von Matrix. Vllt sagtest du nochmal was zu den Drehzahlen und der Geräuschkulisse bei deinen temps, Matrix.

Ich hab mal ein paar Screenshots gemacht. Erster ist Port Royal nach ein paar Minuten. Alle anderen von Project Cars 3 Monaco, Gewitter, Ultra HD max Details. Raumtemperatur waren 20° im geschlossenen Gehäuse. Vorne der Radiator der CPU AIO.

https://abload.de/thumb/screenshot2023-01-2525afxa.jpg (https://abload.de/image.php?img=screenshot2023-01-2525afxa.jpg)https://abload.de/thumb/screenshot2023-01-252npim5.jpg (https://abload.de/image.php?img=screenshot2023-01-252npim5.jpg)https://abload.de/thumb/screenshot2023-01-2524vdwl.jpg (https://abload.de/image.php?img=screenshot2023-01-2524vdwl.jpg)https://abload.de/thumb/screenshot2023-01-2521ud5u.jpg (https://abload.de/image.php?img=screenshot2023-01-2521ud5u.jpg)https://abload.de/thumb/screenshot2023-01-2525tive.jpg (https://abload.de/image.php?img=screenshot2023-01-2525tive.jpg)

(Die Hotspot Temp war unter Umständen manchmal etwas höher, aber weil ich den Screenshot machte war ich wieder unter Windows und da sank die Temp wieder schneller runter als bei der GPU.)

Was mir aufgefallen ist: Standard Bios sind 1600 RPM immer maximal angelegt. Wenn ich manuell im Treiber die niedrigste Stellung setze sind wir bei ca. 910 RPM und zwar mehr oder weniger lautlos, aber auch etwas hoch von den Temps. Hotspot ging schon bis 90. Wobei im Vergleich zu einer kaputten Vapor Chamber ist das noch niedrig. ;) Noch lautlos war die Karte bei ca. 1186 RPM. Ab 1256 hab ich die Karte schon gehört, GPU Temp war aber auch deutlich niedriger als bei den langsameren Lüfter Einstellungen. Darüber hört man den Lüfter, aber wenn man Spielsound hat, finde ich nicht dass der sooo störend ist. Kommt aber auch drauf an a) wie laut der Rest vom Rechner ist und b) wie sehr einen das stört oder nicht.

RoNsOn Xs
2023-01-26, 08:02:42
Hey, ich danke dir. Man sieht also schon, dass das Ding auch bis 90° hoch schießen kann bei wenig Umdrehungen. Werde das heut Nachmittag nochmal austesten. Btw das "leisere" Bios war das "linke" per Schalter, oder?
Kannst du nochmal die selben Einstellungen ohne Seitenwand testen? Würde mal schauen wollen, ob trotz gutem Case, selbiges nicht auch begrenzt. Wenn deine Temps fallen, dann kann ich auch bei meinem bleiben.
Btw: nutzt du kein Overlay? Dann könnte man die die Temp exakter sehen, zudem auch mit Mem-Temp. :)

dargo
2023-01-26, 08:03:56
(Die Hotspot Temp war unter Umständen manchmal etwas höher, aber weil ich den Screenshot machte war ich wieder unter Windows und da sank die Temp wieder schneller runter als bei der GPU.)

Ähm... guckst du im Treiber unter Hotkeys. ;)
82486

Edit:
Ach du meinst bestimmt wegen GPU-Z? Das brauchst du eigentlich nicht, mit dem Treiber hast du auch alles relevante drin, außer vielleicht die GPU-Spannung.
https://abload.de/thumb/forspokendemo_2023.01exdme.jpg (https://abload.de/image.php?img=forspokendemo_2023.01exdme.jpg)

Matrix316
2023-01-26, 10:13:53
Das mit dem Treiberoverlay muss ich mal probieren. Läuft das flüssig? Bei Intel gibt's ja so Störungen durch dieses - zumindest hab ich das mal in einem Video gesehen. Ich hab sonst nur den Afterburner verwendet, aber die Ansicht im GPU-Z finde ich eigentlich ganz schön, weil man sieht wie lange die Last schon lief.

dargo
2023-01-26, 11:17:01
Das mit dem Treiberoverlay muss ich mal probieren. Läuft das flüssig?
Logisch. :)

Aber wenn du eh schon den Arschbrenner verwendest dann nutze diesen und halt Screenshots, brauchst dann nicht auf den Desktop wechseln.


Was mir aufgefallen ist: Standard Bios sind 1600 RPM immer maximal angelegt. Wenn ich manuell im Treiber die niedrigste Stellung setze sind wir bei ca. 910 RPM und zwar mehr oder weniger lautlos, aber auch etwas hoch von den Temps. Hotspot ging schon bis 90. Wobei im Vergleich zu einer kaputten Vapor Chamber ist das noch niedrig. ;) Noch lautlos war die Karte bei ca. 1186 RPM. Ab 1256 hab ich die Karte schon gehört, GPU Temp war aber auch deutlich niedriger als bei den langsameren Lüfter Einstellungen. Darüber hört man den Lüfter, aber wenn man Spielsound hat, finde ich nicht dass der sooo störend ist. Kommt aber auch drauf an a) wie laut der Rest vom Rechner ist und b) wie sehr einen das stört oder nicht.
Hehe... man könnte meinen der N31-Kühler ist identisch zum N21-Kühler. :tongue: Das ist genau die Drehzahl die mir noch unheimlich bei der N21 XFX gefällt, hier sind es dann ~1160RPM. Könntest du noch einen kleinen Test für mich machen? Zocke bitte einige Zeit ein x-beliebiges Game mit diesen max. 1186RPM und PT @-10% damit du auf ~353W runter kommst. Mich würde interessieren wie hoch der Hotspot bei dir dann ist. Nur bitte im GPU-Limit, die GPU sollte also möglichst oft im Powerlimit landen.

RoNsOn Xs
2023-01-26, 18:29:40
Das mit dem Treiberoverlay muss ich mal probieren. Läuft das flüssig? Bei Intel gibt's ja so Störungen durch dieses - zumindest hab ich das mal in einem Video gesehen. Ich hab sonst nur den Afterburner verwendet, aber die Ansicht im GPU-Z finde ich eigentlich ganz schön, weil man sieht wie lange die Last schon lief.
Das funktioniert schon. Entweder direkt übern Treiber, oder hwinfo. Sobald du aus dem Spiel raus switched, kann der Hot-Spot schon teilweise stark sinken.

Ich hab eine Messreihe gestartet, begrenze mich auf ein paar Wenige Bilder, bei 350w (-10% PT, was der Referenz entsprechen würde)

Info-Temp: Core, Mem, Hotspot
System geschlossen:
30%
https://abload.de/thumb/350w30prozentfnii6.png (https://abload.de/image.php?img=350w30prozentfnii6.png)

45%
https://abload.de/thumb/350w45prozent30ezx.png (https://abload.de/image.php?img=350w45prozent30ezx.png)

Seitenwand offen:
30%
https://abload.de/thumb/350woffen30prozentwzeox.png (https://abload.de/image.php?img=350woffen30prozentwzeox.png)

Kurve, gerade bei 41+42% gewesen:
https://abload.de/thumb/350woffenaldtt.png (https://abload.de/image.php?img=350woffenaldtt.png)

So in der Art würde mich das auch mit deinem Case interessieren, Matrix.

Wiseman
2023-01-26, 20:13:31
Das mit dem Treiberoverlay muss ich mal probieren. Läuft das flüssig? Bei Intel gibt's ja so Störungen durch dieses - zumindest hab ich das mal in einem Video gesehen. Ich hab sonst nur den Afterburner verwendet, aber die Ansicht im GPU-Z finde ich eigentlich ganz schön, weil man sieht wie lange die Last schon lief.

Und wie. Kannst ganz beruhigt sein. Ich benutze das Treiberoverlay seit Jahren.

Zum AB und XTX noch zwei Anmerkungen. Der AB zeigt für die 7900-er die GPU Power nicht mehr an. Wahrscheinlich wird es dazu nie ein Update geben. Deshalb lasse ich mir für meine XTX die GPU Power im Adrenalin-Treiberoverlay anzeigen. Den AB verwende ich nur noch zum Anzeigen der API und zum Benchen, weil er mir die exakten MIN- und AVG-Werte anzeigt.

Weißt du was, ich zeige dir mal mein Treiberoverlay. Das ist die schwarze Box am rechten Rand mit aktuell 5 Werten. Das sind die Werte, die mich am meisten interessieren.

Matrix316
2023-01-26, 20:19:49
Aaaaalso, Cyberpunk 4K Ultra ohne RT und FSR Kantenglättung Fidelity aus. PT -10 (wird hier leider gerade nicht angezeigt im Overlay, war auch bei ~350W)

Close 30%
https://abload.de/thumb/close30-1098ew9.jpg (https://abload.de/image.php?img=close30-1098ew9.jpg)
Close 45%
https://abload.de/thumb/close45-10cpc2l.jpg (https://abload.de/image.php?img=close45-10cpc2l.jpg)
Open 30%
https://abload.de/thumb/open30-10ucf4a.jpg (https://abload.de/image.php?img=open30-10ucf4a.jpg)
Open 41%
https://abload.de/thumb/open41-10kbiol.jpg (https://abload.de/image.php?img=open41-10kbiol.jpg)

Und wie. Kannst ganz beruhigt sein. Ich benutze das Treiberoverlay seit Jahren.

Zum AB und XTX noch zwei Anmerkungen. Der AB zeigt für die 7900-er die GPU Power nicht mehr an. Wahrscheinlich wird es dazu nie ein Update geben. Deshalb lasse ich mir für meine XTX die GPU Power im Adrenalin-Treiberoverlay anzeigen. Den AB verwende ich nur noch zum Anzeigen der API und zum Benchen, weil er mir die exakten MIN- und AVG-Werte anzeigt.

Weißt du was, ich zeige dir mal mein Treiberoverlay. Das ist die schwarze Box am rechten Rand mit aktuell 5 Werten. Das sind die Werte, die mich am meisten interessieren.
Das Overlay ist schön, aber bei mir wird die RPM der Lüfter nicht richtig angezeigt.

Das ist die gleiche Situationen wie bei den Benches davor nur war die Karte wieder auf default mit standard PT und Lüfter Auto.

https://abload.de/thumb/closestandard_overlayrtiir.jpg (https://abload.de/image.php?img=closestandard_overlayrtiir.jpg)

Logisch. :)

Aber wenn du eh schon den Arschbrenner verwendest dann nutze diesen und halt Screenshots, brauchst dann nicht auf den Desktop wechseln.


Hehe... man könnte meinen der N31-Kühler ist identisch zum N21-Kühler. :tongue: Das ist genau die Drehzahl die mir noch unheimlich bei der N21 XFX gefällt, hier sind es dann ~1160RPM. Könntest du noch einen kleinen Test für mich machen? Zocke bitte einige Zeit ein x-beliebiges Game mit diesen max. 1186RPM und PT @-10% damit du auf ~353W runter kommst. Mich würde interessieren wie hoch der Hotspot bei dir dann ist. Nur bitte im GPU-Limit, die GPU sollte also möglichst oft im Powerlimit landen.

Ich hab mal versucht so nah an die RPM zu kommen.

Mit -10 PT
https://abload.de/thumb/-10-1188rpmfcf56.jpg (https://abload.de/image.php?img=-10-1188rpmfcf56.jpg)
Mit standard PT
https://abload.de/thumb/-0-1188rpmcsehh.jpg (https://abload.de/image.php?img=-0-1188rpmcsehh.jpg)

Matrix316
2023-01-26, 20:39:34
wollte eigentlich das beim letzten Posting anfügen :redface:

dargo
2023-01-26, 20:48:14
Das Overlay ist schön, aber bei mir wird die RPM der Lüfter nicht richtig angezeigt.

Du musst die Sprache auf englisch im Treiber umstellen, dann passt es. ;) Die deutsche Übersetzung beim Fan ist einfach zu lang, deshalb kommts da zu einer Überlagerung.

Aaaaalso, Cyberpunk 4K Ultra ohne RT und FSR Kantenglättung Fidelity aus. PT -10 (wird hier leider gerade nicht angezeigt im Overlay, war auch bei ~350W)

Close 30%
https://abload.de/thumb/close30-1098ew9.jpg (https://abload.de/image.php?img=close30-1098ew9.jpg)
Close 45%
https://abload.de/thumb/close45-10cpc2l.jpg (https://abload.de/image.php?img=close45-10cpc2l.jpg)

Also das sind doch fantastische Werte für 350W. :up: 75°C bei 1265RPM finde ich super, da kannst du auch noch locker die 1186RPM fahren. Was ich nur strange finde, dass 1865RPM gerade mal 2°C weniger bringen. Das ist echt ein Witz, die Lautstärke dürfte deutlich höher sein.

Edit:
Kleiner Tipp am Rande... besonders in deiner ersten Testphase binde mal den VRAM-Hotspot in dein AB-Overlay mit Hilfe von HWiNFO mit ein. Nicht, dass der zu heiß läuft. Durch die recht starke Absenkung der Lüfterdrehzahl wird der VRAM auch etwas wärmer laufen. Sowas sollte man auch mal im Auge behalten.

RoNsOn Xs
2023-01-26, 21:23:19
Jap, wobei VRAM bei der Karte kühler als Hotspot bisher ist. Aber interessant wäre es. Danke bis hierhin, Matrix! :)

Matrix316
2023-01-26, 21:58:06
Irgendwie krieg ich es nicht angezeigt, aber einen Live Screenshot von HWInfo hätte ich. Jo die Speichertemperatur ist schon relativ hoch mit ~ 29% Lüfter. Wieder in Cyberpunk -10 PT.

https://abload.de/thumb/hwinfouye3v.jpg (https://abload.de/image.php?img=hwinfouye3v.jpg)

Wiseman
2023-01-26, 23:13:13
Matrix316, stell bitte die Sprache in der Adrenalin Software auf Englisch um und stell ferner das Overlay auf 200%. Da sieht man doch alles viel viel schöner auf einen Blick. Ich bin vor allem auf deine RPM gespannt. Kannst ja die Einstellungen bei Nichtgefallen später rückgängig machen.

Matrix316
2023-01-26, 23:14:43
Matrix316, stell bitte die Sprache in der Adrenalin Software auf Englisch um und stell ferner das Overlay auf 200%. Da sieht man doch alles viel viel schöner auf einen Blick. Ich bin vor allem auf deine RPM gespannt. Kannst ja die Einstellungen bei Nichtgefallen später rückgängig machen.
Kann ich machen, aber was soll ich denn testen? :)

Wiseman
2023-01-26, 23:43:53
Kann ich machen, aber was soll ich denn testen? :)

Da ich nicht weiß, welche Spiele du hast, zähle ich mal auf, was ich in den letzten Wochen mit meiner XTX getestet habe: Forspoken, AC Valhalla, Doom Eternal, God of War, Call of Duty MW II, Tombraider, RotTR, Tiny Tina's Wonderlands, ... Waren noch ein paar mehr, aber die fallen mir im Moment nicht ein. Sind aber alle in unserem Benchmarking Forum verewigt. Ist da eines dabei, das du auch hast? Wenn nicht, nimm CP77. Teste aber bitte den integrierten Benchmark, dann könnte ich schön mit meinen CP77-Overlay-Werten vergleichen. Auf meinen Screenshots sind auch die Overlay-Werte mit drauf.

Matrix316
2023-01-27, 00:13:49
Da ich nicht weiß, welche Spiele du hast, zähle ich mal auf, was ich in den letzten Wochen mit meiner XTX getestet habe: Forspoken, AC Valhalla, Doom Eternal, God of War, Call of Duty MW II, Tombraider, RotTR, Tiny Tina's Wonderlands, ... Waren noch ein paar mehr, aber die fallen mir im Moment nicht ein. Sind aber alle in unserem Benchmarking Forum verewigt. Ist da eines dabei, das du auch hast? Wenn nicht, nimm CP77. Teste aber bitte den integrierten Benchmark, dann könnte ich schön mit meinen CP77-Overlay-Werten vergleichen. Auf meinen Screenshots sind auch die Overlay-Werte mit drauf.
Ichhätte Tomb Raider, Doom und Cyberpunk. Aber welche Settings soll ich bei der GPU einstellen? Einfach nur Standard? Oder bestimmte Lüftersettings?

Beim Overlay machts ja auch nur Sinn, wenn ich während des Benchmarks den Screenshot mache, weil beim Ergebnis, sind die Taktraten und Temperaturen und so ja schon wieder anders.

Ich hab z.B. mal in Cyberpunk den integrierten Benchmark gemacht. Weiß net ob dir das was hilft? Graka war mit default Settings und CPU auch.

https://abload.de/thumb/cyberpunkohnefsrtqiju.jpg (https://abload.de/image.php?img=cyberpunkohnefsrtqiju.jpg)

EDIT: Du meinst wahrscheinlich auch in den jeweiligen Benchmarkthreads, oder? :)

Wiseman
2023-01-27, 01:40:44
Ichhätte Tomb Raider, Doom und Cyberpunk. Aber welche Settings soll ich bei der GPU einstellen? Einfach nur Standard? Oder bestimmte Lüftersettings?

Beim Overlay machts ja auch nur Sinn, wenn ich während des Benchmarks den Screenshot mache, weil beim Ergebnis, sind die Taktraten und Temperaturen und so ja schon wieder anders.

Ich hab z.B. mal in Cyberpunk den integrierten Benchmark gemacht. Weiß net ob dir das was hilft? Graka war mit default Settings und CPU auch.

https://abload.de/thumb/cyberpunkohnefsrtqiju.jpg (https://abload.de/image.php?img=cyberpunkohnefsrtqiju.jpg)

EDIT: Du meinst wahrscheinlich auch in den jeweiligen Benchmarkthreads, oder? :)

Wär nicht schlecht, wenn du reingucken würdest. Da siehst du auch die Settings meines Systems: Meine CPU ist 65W limitiert, meine XTX ist 325W limitiert, mein RAM ist default, UV = 1062mV.

Meine XTX läuft grundsätzlich mit PL - 10%, so komme ich auf 325W. Deswegen wird auch auf den meisten Benchmark-Screenshots im Overlay GPU BRD PWR 325W angezeigt. Ich spiele nur in 4k oder 6k (per FSR) und so läuft meine XTX meistens am oberen Ende, nämlich am 325W-Limit. Ohne das -10% Limit würde sie ja oft mehr Watt verbraten. Und du hast schon recht, nach Beenden des Benchmarks sinken einige der Werte aus dem Overlay. Wenn du aber schnell reagierst, d. h. sofort nach Beenden des Benchmarks auf die Tastenkombination für "Mache einen Screenshot" drückst, dann erwischst du die Werte aus der letzten Sekunde vollständig erhalten. Klappt bei mir bei den meisten Spielen mit einigen Ausnahmen. Ich glaube, Far Cry 6 ist so ein Spiel, wo sehr viele Overlay-Werte rasch sinken. Auch bei meinen CP77-Screenshots im Benchmarking-Forum ist es mir nur im ersten Screenshot (links) gelungen. Den könntest als Vergleich hernehmen. Ist dein CP77-Benchmark in 4k gemacht worden? Wenn ja, wären das super Werte.

Ich habe vor ein paar Minuten einen 8k-Benchmark in Tombraider gemacht. Ich glaube, da sieht man auch schön die wahren Overlay-Werte.

So, um zum Ende meines Romans zu kommen, die Lüftergeschwindigkeit stelle ich per "Max Fan Speed"-Schieber auf 37%. Mehr mache ich da nicht. Das ergibt bei meiner XTX ca. 1200 RPM. Mal knapp drunter, mal knapp drüber. Das wiederum ergibt eine kühle GPU. Ich habe bisher noch nie mehr als 65° gesehen. Und was besonders wichtig ist, ich höre nichts von meiner GPU.

horn 12
2023-01-27, 03:22:40
Hast die HellHound XTX und jene gibt es derzeit oder seit gut einem Monat gar nicht mehr käuflich zu erwerben!
Zudem hast ca. 2400 Mhz im Schnitt, da bin ich mit der XTX von AMD und minus 10 Powerlimit immer um die 2550 bis 2650 Mhz.

dargo
2023-01-27, 08:27:53
Kurze Info zur Sapphire Radeon RX 7900XTX Pulse... das default Bios scheint ein PT von 360W zu haben.

Hervorragende Karte, aber nicht zu diesem Preis

Hat sich gut UV lassen mit -75 und +10% Power.
HZD Benchmark praktisch konstant 3050Mhz Taktrate und 397W! Stromverbrauch. Funktioniert auch mit einem Seasonic prime TX 650W und 5900X (stock).

https://www.galaxus.de/de/s1/product/sapphire-radeon-rx-7900-xtx-pulse-24-gb-grafikkarte-23599749?utm_content=1-2&utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc

OgrEGT
2023-01-27, 09:23:02
Habe mittlerweile auch Rückmeldung vom Sapphire Support DE zu den TBPs der 7900XT Pulse erhalten... ich bin wohl der erste der seit 15J danach fragt. Auf Nachfrage vom Support im HQ in Hongkong hieß es dass man die TBP aufgrund unterschiedlicher Platinen nur bei Übermittlung der P/N ermitteln könne... habe dann nochmal nachgefragt dass wenn ich die P/N hätte oder es Reviews im Netz gäbe ich diese Frage nicht stellen müsste... hat aber nichts gebracht... Samples sind nicht wirklich verfügbar hieß es und TBP nur gegen P/N... ich könnte aber von 330W ausgehen (steht ja auch auf der Homepage)... wahrscheinlich das Default BIOS...

RoNsOn Xs
2023-01-27, 09:56:35
Kurze Info zur Sapphire Radeon RX 7900XTX Pulse... das default Bios scheint ein PT von 360W zu haben.

https://www.galaxus.de/de/s1/product/sapphire-radeon-rx-7900-xtx-pulse-24-gb-grafikkarte-23599749?utm_content=1-2&utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc
Jetzt muss ich mal nachfragen. Bei dieser - manchmal - utopisch hohen Taktzahl (gedi oder wer war das noch mit 3,3Ghz+) gehen die Leute doch vom Frontend aus, oder? Das lasse ich mir gar nicht mehr anzeigen, da die Einstellung über die Treibersoftware doch auch nur den Shadertakt angibt, bin ich der Meinung.

Matrix316
2023-01-27, 13:18:45
Wär nicht schlecht, wenn du reingucken würdest. Da siehst du auch die Settings meines Systems: Meine CPU ist 65W limitiert, meine XTX ist 325W limitiert, mein RAM ist default, UV = 1062mV.

Meine XTX läuft grundsätzlich mit PL - 10%, so komme ich auf 325W.

[..]
So, um zum Ende meines Romans zu kommen, die Lüftergeschwindigkeit stelle ich per "Max Fan Speed"-Schieber auf 37%. Mehr mache ich da nicht. Das ergibt bei meiner XTX ca. 1200 RPM. Mal knapp drunter, mal knapp drüber. Das wiederum ergibt eine kühle GPU. Ich habe bisher noch nie mehr als 65° gesehen. Und was besonders wichtig ist, ich höre nichts von meiner GPU.

Wobei die Frage ist ob das vergleichbar ist, weil auf 325 W komm ich so einfach gar nicht runter nur über das Powerlimit. Und das heißt die Temperaturen und Lüfterdrehzahlen sind gar nicht so wirklich vergleichbar - selbst wenn wir den gleichen Kühler hätten.

Aber ich schau mal in den Benchmark Threads was so geht.

=Floi=
2023-01-27, 13:34:32
https://www.techpowerup.com/gpu-specs/sapphire-pulse-rx-7900-xtx.b9966

OgrEGT
2023-01-27, 14:50:27
https://www.techpowerup.com/gpu-specs/sapphire-pulse-rx-7900-xtx.b9966

Da steht immer nur eine TBP wahrscheinlich die vom Default BIOS... die Frage ist aber wie hoch ist die TBP des 2. BIOS welches wahrscheinlich das Silent BIOS ist... dann weiß man auch wie weit maximal man mit dem Treiber -10% nach unten kommt...

vinacis_vivids
2023-01-27, 14:57:41
Jetzt muss ich mal nachfragen. Bei dieser - manchmal - utopisch hohen Taktzahl (gedi oder wer war das noch mit 3,3Ghz+) gehen die Leute doch vom Frontend aus, oder? Das lasse ich mir gar nicht mehr anzeigen, da die Einstellung über die Treibersoftware doch auch nur den Shadertakt angibt, bin ich der Meinung.

https://abload.de/img/7900xtx3.7ghz3.2ghzt8cth.png

3,7Ghz FrontEnd und 3,2Ghz Shader

Dural
2023-01-27, 16:39:37
Erfahrene PC User wissen es ja schon lange, aber jetzt ist es Offiziell.

AMD Grafikkarten haben durch die Bank eine höhere RMA Quote. Es war schon vor 15 Jahren so, und es ist offensichtlich auch heute noch so.

Quelle:
https://www.digitec.ch/de/s1/product/zotac-geforce-rtx-4070-ti-trinity-oc-12-gb-grafikkarte-23619880

vinacis_vivids
2023-01-27, 16:56:49
CONTROL - Performance With Ray Tracing + FSR 2.1 (MOD) - NITRO+ RX 7900XTX @ 4K
u_2z3XqsqD4

gedi
2023-01-27, 17:15:22
Die weit über 3g gelten natürlich für den Shadertakt.

Darüberhinaus ist die Nitro für mich die beste GPU, welche es derzeit gibt. Selbst mit 363w macht das Ding Laune ohne Ende. Egal was ich benche, bin ich immer locker über den OC-Werten von CB. Wattage ist also nicht alles. Max. UV ist angesagt.

Port Royal, neuester Treiber:

463w: 18623p
363w: 17356p

463w: Hotspot 78°C, Ram-Hotspot: 81°C
363w: Hotspot 64°C, Ram: 78°C

Settings:

463w: 1.035v 3.5g
363w: 1.027v 3.3g

Wiseman
2023-01-27, 18:13:35
Die weit über 3g gelten natürlich für den Shadertakt.

Darüberhinaus ist die Nitro für mich die beste GPU, welche es derzeit gibt. Selbst mit 363w macht das Ding Laune ohne Ende. Egal was ich benche, bin ich immer locker über den OC-Werten von CB. Wattage ist also nicht alles. Max. UV ist angesagt.

Port Royal, neuester Treiber:

463w: 18623p
363w: 17356p

463w: Hotspot 78°C, Ram-Hotspot: 81°C
363w: Hotspot 64°C, Ram: 78°C

Settings:

463w: 1.035v 3.5g
363w: 1.027v 3.3g

Come on, gedi. Teste doch bitte mal nicht Port Royal, sondern richtige Spiele. Du müsstest doch mit deiner super-duper GPU alles zerbröseln, was da kreucht und fleucht. Hast du AC Valhalla oder hast du Call of Duty MW 2? Da könntest du selbst mighty 4090 Angst machen. :biggrin:

Langlay
2023-01-27, 18:27:17
Erfahrene PC User wissen es ja schon lange, aber jetzt ist es Offiziell.

AMD Grafikkarten haben durch die Bank eine höhere RMA Quote. Es war schon vor 15 Jahren so, und es ist offensichtlich auch heute noch so.

Quelle:
https://www.digitec.ch/de/s1/product/zotac-geforce-rtx-4070-ti-trinity-oc-12-gb-grafikkarte-23619880

Dir ist aber aufgefallen das die Statistik nichts wert ist. Dell Karten gehen also nie kaputt und AMD Karten von ASRock sind abseits von Dell das Nonplus ultra.

Die Nvidia Gainward Karten sind nice, die quasi gleichen Karten von Palit sind dann nimmer so nice.

Wiseman
2023-01-27, 19:09:24
Hast die HellHound XTX und jene gibt es derzeit oder seit gut einem Monat gar nicht mehr käuflich zu erwerben!
Zudem hast ca. 2400 Mhz im Schnitt, da bin ich mit der XTX von AMD und minus 10 Powerlimit immer um die 2550 bis 2650 Mhz.

Hmm, CB sagte da im 4-Customs-XTX-Review vom 22.12.22 etwas anderes, nämlich:

Die PowerColor Radeon RX 7900 XTX Hellhound taktet am niedrigsten. Mit dem OC-BIOS liegen in God of War 2.539 MHz an, was noch 20 MHz mehr als beim Referenzdesign sind.

Aber darum geht es mir gar nicht. Ich hatte im Dezember dieses Review genau studiert. Ich habe mich für die Hellhound natürlich nicht wegen des Taktes entschieden, sondern wegen der 30 dB unter Last. War eine gute Entscheidung. Mit der Hellhound XTX habe ich eine himmlische Ruhe.

Entscheidend ist doch, "was hinten dabei rauskommt", wie unser Ex-Kanzler Helmut Kohl zu sagen pflegte. Also ich bin sehr zufrieden damit, was bei meinem kastrierten Hellhound (PL -10%) hinten so rauskommt. :biggrin: Hast du eigentlich schon meine Benchmark-Ergebnisse in unserem Benchmarking Forum angeschaut? Wahrscheinlich nicht, wie ich dich so einschätze. Ich würde dir 3 Threads besonders ans Herz legen: den AC Valhalla Thread, den Call of Duty Modern Warfare II Thread und den Doom Eternal Thread. Da würdest du nicht nur höllisch gute Ergebnisse, sondern auch den Zugewinn durch gutes UV (z. B. in Doom Eternal 12%) finden.

So, damit du siehst, dass meine Hellhound XTX nicht nur bei 2500Mhz oder weniger rumkrebst, sondern sich auch in höheren Regionen rumtreibt, Schnappschüsse aus FH5 und Doom Eternal. Wobei der Schnappschuss aus Doom Eternal nur "just for fun" ist. Im Spiel selbst liegt der Takt viel viel niedriger. Logisch, ich dreh ja grundsätzlich nicht an der Takt-Schraube.

horn 12
2023-01-27, 19:26:27
https://www.amazon.it/Gigabyte-Radeon-Express-2680MHz-20000MHz/dp/B0BPSTJZFJ/ref=sr_1_5?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=10JDX6HIN59T9&keywords=7900+XTX+GIGABYTE&qid=1674843740&sprefix=7900+xtx+gigabyte%2Caps%2C77&sr=8-5


Geiler Preis und sollte wohl zu den TOP 3 gehören
Aber eben Spulenfiepne aufweisen!

gedi
2023-01-27, 21:07:30
Come on, gedi. Teste doch bitte mal nicht Port Royal, sondern richtige Spiele. Du müsstest doch mit deiner super-duper GPU alles zerbröseln, was da kreucht und fleucht. Hast du AC Valhalla oder hast du Call of Duty MW 2? Da könntest du selbst mighty 4090 Angst machen. :biggrin:

Hab ich doch: Sottr: 96FPS maxed out zu 84FPS, cyberpunk maxed out ohne RT 78FPS zu 70FPS je 463w zu 363w. Den PR nehme ich halt gerne, da das Ding ziemlich exakt die Performance widergibt mit RT und Ras. Und es heizt ohne Ende!

=Floi=
2023-01-27, 21:57:16
Da steht immer nur eine TBP wahrscheinlich die vom Default BIOS... die Frage ist aber wie hoch ist die TBP des 2. BIOS welches wahrscheinlich das Silent BIOS ist... dann weiß man auch wie weit maximal man mit dem Treiber -10% nach unten kommt...


Bei der 310er gab es beide bios versionen.

Ich würde ganz klar dazu raten über den max takt zu gehen. Ist nicht die schönste lösung, aber so dürftest du das powerlimit brauchbar einstellen können. Finde es aber auch mega dämlich, warum nicht -50-70% geht.

Wiseman
2023-01-29, 02:17:49
Beim Overlay machts ja auch nur Sinn, wenn ich während des Benchmarks den Screenshot mache, weil beim Ergebnis, sind die Taktraten und Temperaturen und so ja schon wieder anders.

Ich hab z.B. mal in Cyberpunk den integrierten Benchmark gemacht. Weiß net ob dir das was hilft? Graka war mit default Settings und CPU auch.

https://abload.de/thumb/cyberpunkohnefsrtqiju.jpg (https://abload.de/image.php?img=cyberpunkohnefsrtqiju.jpg)


Also bei deinem Cyberpunk-Benchmark ist das Ergebnis derart gut, da kann ja nicht mal gedi mithalten. :biggrin: Welche Auflösung ist das und welcher Grafik-Preset?

Edit: Und noch was würde ich gerne wissen. Wie hoch ist dein Watt-Verbrauch mit default Settings? Ich möchte Cyberpunk auch mal so benchen wie du, denn nachdem du trotz PL -10% nicht meine 325W erreichen kannst, würde ich dir entgegenkommen und mein PL soweit erhöhen, dass ich auf deinen default Wattverbrauch komme.

Und weil ich schon beim Editieren bin, also beim Cyberpunk-Benchmark sinken die Werte wirklich rasend schnell, sobald der Result-Screen auftaucht. Wenn ich aber an dieser Stelle sofort die Tastenkombination für "Screenshot" drücke, gelingt es mir jedesmal einen Schnappschuss mit noch nicht gesunkenen Overlay-Werten zu machen. Ich hänge mal so einen Screenshot an. Power Limit war auf - 10% (= 325W bei mir) eingestellt und das zeigt dieser Screenshot korrekt an. Das gilt auch für die restlichen Overlay-Werte.

dargo
2023-01-29, 09:00:50
Ich würde ganz klar dazu raten über den max takt zu gehen. Ist nicht die schönste lösung, aber so dürftest du das powerlimit brauchbar einstellen können.
So funktioniert das nicht komfortabel genug da Games unterschiedliche Lasten erzeugen. Aber gut... wenn es keine andere Möglichkeit geben sollte bleibt dann nur das.

OgrEGT
2023-01-29, 10:27:43
Primärer Grund für mich für das Limitieren der TBP wäre die Temperatur und damit die Geräuschkulisse... Ansonsten hab ich das fps Limit von 97fps wegen Freesync...

Matrix316
2023-01-29, 11:50:03
Also bei deinem Cyberpunk-Benchmark ist das Ergebnis derart gut, da kann ja nicht mal gedi mithalten. :biggrin: Welche Auflösung ist das und welcher Grafik-Preset?

Naja 4K mit Ultra Details, aber ohne RT. Muss ich aber noch mal genau nachsehen. Die CPU spielt eventuell auch eine Rolle. Mit RT ohne FSR waren es glaube ich 55 FPS.


Edit: Und noch was würde ich gerne wissen. Wie hoch ist dein Watt-Verbrauch mit default Settings? Ich möchte Cyberpunk auch mal so benchen wie du, denn nachdem du trotz PL -10% nicht meine 325W erreichen kannst, würde ich dir entgegenkommen und mein PL soweit erhöhen, dass ich auf deinen default Wattverbrauch komme.

Default hab ich immer so 390Watt. PL-10 wären so 350.

Und weil ich schon beim Editieren bin, also beim Cyberpunk-Benchmark sinken die Werte wirklich rasend schnell, sobald der Result-Screen auftaucht. Wenn ich aber an dieser Stelle sofort die Tastenkombination für "Screenshot" drücke, gelingt es mir jedesmal einen Schnappschuss mit noch nicht gesunkenen Overlay-Werten zu machen. Ich hänge mal so einen Screenshot an. Power Limit war auf - 10% (= 325W bei mir) eingestellt und das zeigt dieser Screenshot korrekt an. Das gilt auch für die restlichen Overlay-Werte.

Da wäre es cool wenn es ein Tool gäbe was das Overlay anzeigt und am Ende vom Benchmark die Maxwerte. Also so ähnlich wie beim 3D Mark mit dem Graphen da.