Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread
sun-man
2023-09-20, 19:49:13
Wenns kein FSR3 gibt, dann kann man auch nichts zeigen. Mit deiner 4070 kannst dir übrigens selbst ein Bild von FSR2 machen, wenn du unterstütze Games hast.
Du hast selbst gesehen, dass bei den Vergleichen reingezoomt UND verlangsamt wurde um die Unterschiede zu zeigen.
Fallen die dir bei normalem Gameplay auf?
1. Das wusste ich nicht.:smile:
1.1 gleich mal ausprobiert. Einfach eingeschaltet, ohne weiteres Tuning. :smile:
Antwort: Oh je. Ja. Auf Screens kommt das überhaupt nicht rüber. Es flimmert gerade an den Pflanzen unten an der Palme wie Sau. Das zieht sich über so viele Sachen. Möglicherweise habe ich irgendeinen Qualitäts-Schalter nicht richtig bedient.
https://abload.de/thumb/dlssqm6i1z.png (https://abload.de/image.php?img=dlssqm6i1z.png) https://abload.de/thumb/fsr2lzdaq.png (https://abload.de/image.php?img=fsr2lzdaq.png)
Exxtreme
2023-09-20, 19:57:56
https://abload.de/thumb/dlssqm6i1z.png (https://abload.de/image.php?img=dlssqm6i1z.png) https://abload.de/thumb/fsr2lzdaq.png (https://abload.de/image.php?img=fsr2lzdaq.png)
Wobei auch hier sichtbar ist wie stark DLSS blurrt. So feine Strukturen liegen DLSS offenbar nicht. Man schaue sich die Textur des Stamms der Palme an. Bei DLSS ist 1/3 der Textur Matsch, mit FSR bleibt alles erhalten. Das Gleich mit der Felslandschaft im Hintergrund. Von daher, DLSS hat auch einen Preis. :)
DrFreaK666
2023-09-20, 19:58:44
1. Das wusste ich nicht.:smile:
1.1 gleich mal ausprobiert. Einfach eingeschaltet, ohne weiteres Tuning. :smile:
Antwort: Oh je. Ja. Auf Screens kommt das überhaupt nicht rüber. Es flimmert gerade an den Pflanzen unten an der Palme wie Sau. Das zieht sich über so viele Sachen. Möglicherweise habe ich irgendeinen Qualitäts-Schalter nicht richtig bedient.
https://abload.de/thumb/dlssqm6i1z.png (https://abload.de/image.php?img=dlssqm6i1z.png) https://abload.de/thumb/fsr2lzdaq.png (https://abload.de/image.php?img=fsr2lzdaq.png)
Für mich sind das nur minimale Unterschiede :freak:
Die Differenz bei den FPS ist allerdings riesig.
Was du noch testen kannst, ist XeSS. Habe gelesen, dass viele mit einer Radeon bei CP2077 eher dazu greifen
The_Invisible
2023-09-20, 20:19:22
1. Das wusste ich nicht.:smile:
1.1 gleich mal ausprobiert. Einfach eingeschaltet, ohne weiteres Tuning. :smile:
Antwort: Oh je. Ja. Auf Screens kommt das überhaupt nicht rüber. Es flimmert gerade an den Pflanzen unten an der Palme wie Sau. Das zieht sich über so viele Sachen. Möglicherweise habe ich irgendeinen Qualitäts-Schalter nicht richtig bedient.
https://abload.de/thumb/dlssqm6i1z.png (https://abload.de/image.php?img=dlssqm6i1z.png) https://abload.de/thumb/fsr2lzdaq.png (https://abload.de/image.php?img=fsr2lzdaq.png)
Was sind das für Settings, bei gleichen Quality Settings sollten ca die gleichen fps rauskommen, oder hast FG bzw DLSS auf Auto?
sun-man
2023-09-20, 20:23:00
Wobei auch hier sichtbar ist wie stark DLSS blurrt. So feine Strukturen liegen DLSS offenbar nicht. Man schaue sich die Textur des Stamms der Palme an. Bei DLSS ist 1/3 der Textur Matsch, mit FSR bleibt alles erhalten. Das Gleich mit der Felslandschaft im Hintergrund. Von daher, DLSS hat auch einen Preis. :)
Ja, ich seh was Du meinst. Dafür flimmert FSR so unfassbar. Das hatte ich lange nicht.
Was sind das für Settings, bei gleichen Quality Settings sollten ca die gleichen fps rauskommen, oder hast FG bzw DLSS auf Auto?
DLSS-Quality und FSR auf "on". Ich hab keinen Qualitätsschalter gesehen, nur Schieberegler mit Minimaler und Maximaler Auflösung/Skalierung. Wie gesagt, kann mein Fehler sein.
Ich find es Schade das FSR3 noch nicht da ist. Ich hatte einfach Lust endlich zu kaufen und die 7800XT war nach dem erscheinen durchaus symaptisch. Je mehr man liest, desto mehr Meinungen hat man. Am Ende hab ich mich quasi für RT entschieden. Kann man lächerlich finden, es kritisieren oder was auch immer. Die 16 Gig nutzen mir nicht wenn, warum auch immer, ich bei RT Spielen doch an den Details schrauben muss weil die Leistung nicht mehr reicht. Ich bin da lange lange nicht auf der Höher vieler hier die viel Wissen um das Thema haben.
DrFreaK666
2023-09-20, 20:44:42
Ist ja auch egal. Viel Spaß mit deiner 4070
aufkrawall
2023-09-20, 21:06:37
Wobei auch hier sichtbar ist wie stark DLSS blurrt. So feine Strukturen liegen DLSS offenbar nicht. Man schaue sich die Textur des Stamms der Palme an. Bei DLSS ist 1/3 der Textur Matsch, mit FSR bleibt alles erhalten. Das Gleich mit der Felslandschaft im Hintergrund. Von daher, DLSS hat auch einen Preis. :)
Übertreib noch mehr...
https://abload.de/thumb/fortniteclient-win64-scfr3.png (https://abload.de/image.php?img=fortniteclient-win64-scfr3.png) https://abload.de/thumb/fortniteclient-win64-npdo9.png (https://abload.de/image.php?img=fortniteclient-win64-npdo9.png)
Exxtreme
2023-09-20, 21:14:00
Übertreib noch mehr...
https://abload.de/thumb/fortniteclient-win64-scfr3.png (https://abload.de/image.php?img=fortniteclient-win64-scfr3.png) https://abload.de/thumb/fortniteclient-win64-npdo9.png (https://abload.de/image.php?img=fortniteclient-win64-npdo9.png)
Ich übertreibe nicht. :)
https://imgsli.com/MjA3NDkz
sun-man
2023-09-20, 21:18:07
Übertreib noch mehr...
https://abload.de/thumb/fortniteclient-win64-scfr3.png (https://abload.de/image.php?img=fortniteclient-win64-scfr3.png) https://abload.de/thumb/fortniteclient-win64-npdo9.png (https://abload.de/image.php?img=fortniteclient-win64-npdo9.png)
Also sollte das DLSS sein (fortniteclient-win64-npdo9.png)? Dann ist das im Standbild schon unscharf. Das Gras hinten und der Bambus rechts. Der grüne Busch hinter den Häuser ist hinten deutlich schärfer als in dem npdo9 Bild.
aufkrawall
2023-09-20, 21:22:44
Du siehst ja den fps-Counter. Das schärfere (und auch real detailreichere) Bild ist DLSS Q, und da ist nichts zusätzlich durch mich nachgeschärft etc. Exxtreme will ständig seine Negativbeispiele für allgemeingültig erklären...
Monsta
2023-09-20, 22:00:22
1. Das wusste ich nicht.:smile:
1.1 gleich mal ausprobiert. Einfach eingeschaltet, ohne weiteres Tuning. :smile:
Antwort: Oh je. Ja. Auf Screens kommt das überhaupt nicht rüber. Es flimmert gerade an den Pflanzen unten an der Palme wie Sau. Das zieht sich über so viele Sachen. Möglicherweise habe ich irgendeinen Qualitäts-Schalter nicht richtig bedient.
https://abload.de/thumb/dlssqm6i1z.png (https://abload.de/image.php?img=dlssqm6i1z.png) https://abload.de/thumb/fsr2lzdaq.png (https://abload.de/image.php?img=fsr2lzdaq.png)
Im Standbild gefällt mir Fsr mehr als Dlss.
Ich reagier aber auch eher empfindlich auf Vaseline look als auf Flimmern.
Und in dem Vergleich finde ich Dlss irgendwie Blurry.
sun-man
2023-09-21, 07:12:49
Im Standbild gefällt mir Fsr mehr als Dlss.
Ja, aber am Ende ist das die alte Diskussion um die Details. Die einen sagen "Unter einer 2000€ Grafikkarte mit der alles auf Ultra in 4k ist geht gar nichts" und ballern dauernd durch Doom Eternal und sehen so oder so keinen Unterschied von Ultra auf Hoch usw..
Technisch kenne ich nur ein paar Texte, DLAA gefällt mir da im Vergleich sogar besser - und dann liegt meine 4070 auf dem FSR2 Niveau.
Wie gesagt, ich mag halt RT und das will ich eigentlich auch nicht ändern. Schlimmstenfalls verkauf ich die 4070 halt wieder und lege was drauf. Jetzt will kaum noch einer meine alte 3060Ti :(
dildo4u
2023-09-22, 05:36:30
Cyberpunk 2.0 Benchmark 25% gegenüber 4070 :eek:
https://youtu.be/jSVwT8B-20o?si=8k3PezYB37r9jyNF&t=1767
Raster Optik rennt hier wirklich gut 7800XT über 6900XT.
https://abload.de/img/screenshot2023-09-220ljdff.png
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-GOG-Release-GPU-Benchmark-Test-Performance-1429500/
DrFreaK666
2023-09-23, 16:24:39
Preisdifferenz zwischen den Karten bei knapp 120€ (460€/ 577€) laut Geizhals
dargo
2023-09-23, 18:47:19
Was sind das denn wieder für seltsame Ergebnisse? N31 Salvage nur 12% vor N32 bei 40% mehr CUs? X-D Entweder hat die PCGH da Blödsinn gemessen oder die Software spinnt.
OpenVMSwartoll
2023-09-24, 14:34:40
Was sind das denn wieder für seltsame Ergebnisse? N31 Salvage nur 12% vor N32 bei 40% mehr CUs? X-D Entweder hat die PCGH da Blödsinn gemessen oder die Software spinnt.
Das Spiel skaliert wohl generell nicht besonders. Auch wenn man sich die Differenz zwischen 4080 und 4090 ansieht.
Der_Korken
2023-09-24, 14:40:02
In 4K und/oder RT werden die Abstände jeweils deutlich größer.
The_Invisible
2023-09-24, 14:52:54
So viel zu "CP2077 ist rein NV optimiert", da könnte sich Starfield mal eine Scheibe abschneiden. ;)
dargo
2023-09-24, 14:59:25
Quark... sind immer noch magere +20%. Dabei ist die RX 7900XT im Schnitt der Spiele bei CB @4k bei +33%. Und wenn ich mir eine Rosine wie CoH3 rauspicke gar +43%.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
Aber CB hat auch CP77 einzeln drin, dort sind es @4k +33%, was exakt dem Schnitt aller getesteten Games entspricht. Vielleicht hat die PCGH da eine komische Szene erwischt. Oder das Update 2.0 ist noch Murks.
Der_Korken
2023-09-24, 15:03:27
So viel zu "CP2077 ist rein NV optimiert", da könnte sich Starfield mal eine Scheibe abschneiden. ;)
RT ist nach wie vor ein Ausreißer. 50+% Performance-Shift pro NV von Raster auf RT sind deutlich mehr als in fast allen anderen Spielen. Bei Pathtracing kommt nochmal Faktor 2 oder so dazu, d.h. eine 4080 ist 3x so schnell wie eine 7900XTX. Es kann natürlich sein, dass AMD irgendein fehlendes HW-Feature da nochmal so krass einbremst, aber wer weiß ob sich CDPR überhaupt die Mühe gemacht hat den Fallback für AMD zu optimieren, wenn absehbar war, dass es auf deren Karten sowieso nicht flüssig laufen würde.
Edit: @dargo: Bei 4080 -> 4090 passt es zumindest. Bei CB profitiert die 7900XT vs 7800XT zumindest auch von mehr Auflösung. Ansonsten, ka, vielleicht abhängig von der Szene.
The_Invisible
2023-09-24, 15:19:39
RT ist nach wie vor ein Ausreißer. 50+% Performance-Shift pro NV von Raster auf RT sind deutlich mehr als in fast allen anderen Spielen. Bei Pathtracing kommt nochmal Faktor 2 oder so dazu, d.h. eine 4080 ist 3x so schnell wie eine 7900XTX. Es kann natürlich sein, dass AMD irgendein fehlendes HW-Feature da nochmal so krass einbremst, aber wer weiß ob sich CDPR überhaupt die Mühe gemacht hat den Fallback für AMD zu optimieren, wenn absehbar war, dass es auf deren Karten sowieso nicht flüssig laufen würde.
Die meisten benchen RT halt nur mit Sparsettings, auch Computerbase hat bei RT-Benches nur reduzierte Details angestellt. Desto stärker RT genutzt wird desto stärker zieht NV davon, das ist jetzt aber auch nix neues...
Kann man sich auch am neuen PCGH-RT-Benchparkour ansehen: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/#BenchmarkCollection_1428245_2818
Der_Korken
2023-09-24, 15:24:55
Guter Punkt, Desordre und Hogwarts Legacy hatte ich nicht auf dem Schirm. Im Schnitt sind es aber selbst bei PCGH "nur" knapp 30% Performance-Shift.
DrFreaK666
2023-09-24, 15:29:53
...aber wer weiß ob sich CDPR überhaupt die Mühe gemacht hat den Fallback für AMD zu optimieren...
Mit Nvidia als Tech-Partner eher unwahrscheinlich
dildo4u
2023-09-26, 05:07:41
Hardware Unboxed hat die 7800XT sogar vor der 6950XT wäre mal interessant was hier Limitiert.
https://abload.de/img/screenshot2023-09-260zzfbm.png
https://youtu.be/QBspiPJi_XI?si=ZJscam7fG4UF0XHQ&t=440
aufkrawall
2023-09-26, 05:12:15
Ggf. kann RDNA3 hier die theoretische Rechenleistung besser ausspielen, schon auf ultra haben die mies optimierten SSR und damit PP einen irrsinnig hohen Anteil an der gesamten Frame Time.
SSR in UE5 kosten fast gar nichts...
horn 12
2023-09-27, 19:33:00
https://www.techberry.it/schede-video/31547-vga-sapphire-radeon-rx-7800-xt-16gb-gaming-gddr6-uefi.html
Guter,- noch annehmbarer Preis für die 7800XT Karte.
Zudem die 7800 XT Pure in Weiß!
nur um die 15 Euro mehr kostet:
https://www.hardware-planet.it/schede-video-ati-amd/94748-vendita-schede-video-ati-amd-sapphire-pure-radeon-rx-7800-xt-16gb-gaming-oc-gddr6-uefi-11330-03-20g-4895106294455.html
sun-man
2023-09-29, 13:48:41
Morgen soll wohl FSR3 kommen
https://www.youtube.com/watch?v=Xp3x-ZyGBy0
dildo4u
2023-09-29, 14:16:04
Man kann es jetzt mit der Fospoken Demo auf Steam testen.
sun-man
2023-09-29, 14:20:26
Technisch sollte das auf Nvidia gleich AMD laufen? Mal installieren.
sun-man
2023-09-29, 16:47:35
Ich als Nicht-Profi sehe keine großen Unterschiede. Leider damit auch keinen Grund zu AMD zu wechseln. Die paar Games die ich habe sehen für mich mit RT einfach "besser" aus. Ich weiß das dies Defintionssache ist.
Schnitzl
2023-09-29, 16:59:50
Morgen soll wohl FSR3 kommen
https://www.youtube.com/watch?v=Xp3x-ZyGBy0
ja cool was ein timing ;D
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=616379
DrFreaK666
2023-10-06, 19:23:03
12GB ASRock Radeon RX 7700 XT Challenger für 429€ im Mindstar
dargo
2023-10-09, 20:14:12
Wie kommt es eigentlich, dass AMD beim N32 einen völlig anderen Betriebspunkt gewählt hat als noch bei N31? Das ist mir erst jetzt aufgefallen wo ich die Settings sehe.
https://youtu.be/83Gz_A-luXI?si=GTuyPddixsAdrmwD&t=78
Default sind es dort nur max. 2540Mhz während es bei einem N31 über 2,9Ghz max. Boost sind. Das müsste eigentlich bedeuten, dass die Karte öfter mal im Taktlimit bei weniger heizenden Gaming-Workloads läuft und somit sparsamer als die offizielle Angabe ist.
JonSnow
2023-10-15, 10:34:38
Ich habe nun seit zwei Tagen die 7800XT Hellhound. Bei knapp 560€ mit Starfield kann man nicht meckern. Eingebaut, Silent-Bios eingestellt und losgelegt. Keine Probleme bisher und für meine Ansprüche vollkommen ausreichend.
Schnitzl
2023-10-15, 13:23:17
ok, was hattest du vorher für ne Grafikkarte?
welche Auflösung?
Welche CPU?
nur damit ich deinen Kommtar irgendwie einordnen kann ;)
Wann hast du die denn bestellt bzw. warum erst 2 Tage im Rechner
Weil starfield gibts schon 2 Wochen nicht mehr dazu
30.09 war Stichtag - danach gibts nix mehr dazu
Und da muss ich ehrlich sagen ohne AAA Game bundle Sind die Karten preislich irgendwie weniger interessant- die 500€ Grenze die man so im Kopf hat stört dann
... Zudem funktioniert FG light in jedem DX11/12 Game. Klar gibt es Spiele, welche für den Moment ernüchternd aussehen, aber es gibt Spiele wo es super funktioniert incl. HDR! F1 2022 z.B.. Die Frames gehen hier maxed out ans Limit (117FPS) im Gegensatz zu vorher 65FPS! Und es sieht subjektiv exakt gleich aus, wie die native 4k Auflösung
JonSnow
2023-10-16, 07:45:12
ok, was hattest du vorher für ne Grafikkarte?
welche Auflösung?
Welche CPU?
nur damit ich deinen Kommtar irgendwie einordnen kann ;)
Habe fünf Jahre nicht mehr wirklich am PC gezockt und hatte eine professionelle CAD-Karte drin.
Build ist von 2021 mit einem Ryzen 5600X, Auflösung 3440x1440.
JonSnow
2023-10-16, 07:47:39
Wann hast du die denn bestellt bzw. warum erst 2 Tage im Rechner
Weil starfield gibts schon 2 Wochen nicht mehr dazu
30.09 war Stichtag - danach gibts nix mehr dazu
Das mit Starfield habe ich einfach mal probiert und Mindfactory hat anscheinend noch welche im Kontingent gehabt. Aktivierungsende bei AMDrewards soll glaube ich der 26.10.23 sein.
malibu_shake
2023-10-17, 19:32:36
GIGABYTE Radeon RX 7800 XT Gaming OC 16G
4K
Max Details
Scaling
Hypr-RX
FPS
Cyberpunk: 56.9
Forspoken: 52.6
Red Dead Redemption 2: 53.3
Starfield: 61.4
Schnitzl
2023-10-17, 22:36:13
Habe fünf Jahre nicht mehr wirklich am PC gezockt und hatte eine professionelle CAD-Karte drin.
Build ist von 2021 mit einem Ryzen 5600X, Auflösung 3440x1440.
Danke!
da ich die gleiche CPU drin hab: Starfield läuft fluffig? :)
JonSnow
2023-10-18, 08:53:52
Danke!
da ich die gleiche CPU drin hab: Starfield läuft fluffig? :)
Bei größeren Städten hab ich ab und zu Ruckler und Slowdowns, aber nichts wildes. Ich empfinde das Spielen schon als angenehm flüssig, aber ich kann auch erst seit der 7800XT VRR nutzen.
dildo4u
2023-10-26, 08:57:55
Gibt leider noch keine 7800XT für 500€ aber sie macht mehr sinn als 6800XT vs 400€ 6800.
Hängt vermutlich von den Games ab aber hier sie durch die Bank besser aus.
93yqpSmMIcU
dargo
2023-10-26, 09:32:16
Wow... ~10% mehr Leistung nach drei Jahren. Ich falle gleich in Ohnmacht. :lol: Wie ich schon mehrmals sagte... der Grafikkartenmarkt ist im Arsch. Stagnation on the best.
robbitop
2023-10-26, 10:19:36
Absolut! IMO wäre die Bezeichnung 7700XT für die 7800XT (und natürlich eine entsprechende Bepreisung) korrekt gewesen (gemessen am bisherigen "normal" was wir seit RDNA2 kennen).
Aber wie du sagst, der GPU Markt ist im Allerwertesten. Also macht man das was NV macht. SKUs hochlabeln und Margen hochziehen. Somit ist der Vorsprung pro SKU Tier dann bei nahezu null und der Preis ist auch nicht besser als bei der letzten Generation. Aber der Markt erlaubt anscheinend diese Abzocke. ^^
dildo4u
2023-10-26, 10:49:55
Im Gegensatz zur Zeit der 6800XT gibt es jetzt deutlich mehr Games die die Power brauchen und es gibt klein Crypto Aufschlag.
Wenn die PS5 Pro wirklich kommt kann man die Power halt jetzt kaufen im Gegensatz zu Ende 2024.
Als ich meine GTX1070 gekauft hatte hat die GPU alleine mehr als eine PS4 Pro gekostet im großen und ganzen hat sich da nicht viel geändert.
dargo
2023-10-26, 11:03:47
Absolut! IMO wäre die Bezeichnung 7700XT für die 7800XT (und natürlich eine entsprechende Bepreisung) korrekt gewesen (gemessen am bisherigen "normal" was wir seit RDNA2 kennen).
Aber wie du sagst, der GPU Markt ist im Allerwertesten. Also macht man das was NV macht. SKUs hochlabeln und Margen hochziehen. Somit ist der Vorsprung pro SKU Tier dann bei nahezu null und der Preis ist auch nicht besser als bei der letzten Generation. Aber der Markt erlaubt anscheinend diese Abzocke. ^^
Ob der Markt das erlaubt glaube ich noch nicht mal so richtig. Nüchtern betrachtet kommen praktisch keine Spiele raus die nach deutlich mehr Performance schreien. Dieses völlig überhypte Raytracing zieht nicht. Und ohne RT bzw. bei günstigen Implementierungen (gibt ja einige) kommt man noch spielend mit 2-3 Jahre alten Grafikkarten zurecht. Ich denke viele sitzen es deshalb einfach aus. Die RX 7800XT ist imho kein Totalfail mit ihren 500+€. Aber auch nichts für einen N21 Besitzer, denn das wäre praktisch nur ein Sidegrade. :freak: Selbst für einen N22 Besitzer ist eine RX 7800XT nur ein kleines Upgrade. Das wäre schon eher was für einen N23 Besitzer. Allerdings kommt der von einem ganz anderen Powerbudget. Egal wie man es dreht und wendet... die aktuellen Grafikkarten sind entweder zu teuer oder saufen zu viel. Manchmal auch beides. (no)(no)(no)
btw.
Warum ich den Preis der RX 7800XT nicht soo schlecht finde?
RX 7800XT = ~RX 6900XT Performance bei etwas weniger Verbrauch zum halben Preis (499$ UVP vs. 999$ UVP). Insofern bekommt man hier immerhin gleiche Leistung zum halben Preis, allerdings nach 3 Jahren erst. Ziemlich lange Zeit.
PS: N21 und N32 finde ich auch sehr gut vergleichbar da gleiche Speicherausstattung und SI.
Exxtreme
2023-10-26, 11:07:11
Im Gegensatz zur Zeit der 6800XT gibt es jetzt deutlich mehr Games die die Power brauchen und es gibt klein Crypto Aufschlag.
Wenn die PS5 Pro wirklich kommt kann man die Power halt jetzt kaufen im Gegensatz zu Ende 2024.
Als ich meine GTX1070 gekauft hatte hat die GPU alleine mehr als eine PS4 Pro gekostet im großen und ganzen hat sich da nicht viel geändert.
Die Ausläufer des Crypto-Aufschlages gibt es immer noch. Das wird wahrscheinlich noch so 2 - 3 Jahre geben.
Und die Games, die mehr Power brauchen, sind offenbar einfach nur mies programmiert. Sieht für mich so aus, als sitzen viele Leute diese hohen Preise einfach mal aus.
dildo4u
2023-10-26, 11:13:47
Als die 6800XT hot war lagen die nicht bei 800€+ weil 3080 für 1k weggingen?
Und die Margen sind vermutlich wirklich dünner geworden Sony hat nicht umsonst die Preise für die PS5 Refrech erhöht.
Die wollen die Dinger ja unter die Leute bringen um Geld mit der Software zu machen.
Sony Raising Price Of All-Digital PS5 By $50
https://kotaku.com/sony-playstation-ps5-slim-all-digital-disc-drive-price-1850914803#:~:text=What%20has%20changed%20is%20the,at%20%24450%20instead%20of%20 %24400.&text=The%20new%20%E2%80%9Cslim%E2%80%9D%20PS5%20with,same%20as%20the%20launch%20 model.
Slipknot79
2023-10-26, 17:56:26
Und die Games, die mehr Power brauchen, sind offenbar einfach nur mies programmiert. Sieht für mich so aus, als sitzen viele Leute diese hohen Preise einfach mal aus.
So viele, dass Lisa und Lederjacke genötigt sind die Preis dick zu dropen? ;)
Besser kann es einfach für beide nicht laufen, alles richtig gem8. (y)
aufkrawall
2023-10-26, 18:03:56
Hängt vermutlich von den Games ab
RDNA3 scheint UE5 noch besser zu liegen als 2, ist definitiv ein Argument.
Meine Red Devil 7800XT ist heute angekommen.
Ich bin positiv überrascht,dass AMD die VRAM-Takt Misere mit unterschiedlen Refreshrates bei den Displays behoben hat:eek:
Meine 5700 XT hat bis heute noch das Problem, dass der VRAM-Takt nicht runter geht.
aufkrawall
2023-11-19, 14:44:12
Hier zerlegt die 7800 XT in 1440p die 4070 zumindest ohne RT oft:
lpULjb0bpqY
Ist das normal (z.B. CP77), oder wurd da Mist gemessen?
dildo4u
2023-11-19, 15:02:59
Ja NV scheint nur auf RT Performance zu achten.
https://abload.de/img/screenshot_2023-11-19lrf07.jpg
https://abload.de/img/screenshot_2023-11-196yde0.jpg
https://www.computerbase.de/2023-09/cyberpunk-2077-phantom-liberty-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd_ohne_rt
BlacKi
2023-11-22, 12:37:39
wenn ich an meine 7900xtx zurückdenke, dann konnte ich bei 0,7v 2300-2400mhz stabil betreiben. dabei lag der verbrauch so bei 270-290w.
wenn ich jetzt die recheneinheiten runterrechne, dann müsste ich mit der 7800xt mit 60cu statt 96 müsste ich bei 170-180w raus kommen. richtig?
kann das einer mit der karte nachtesten? mein verbrauchswert stammt aus dem internen benchmark von cyberpunk.
aufkrawall
2023-11-22, 22:59:58
Mit 1V und 2750MHz zieht sie jedenfalls um die 270W bei anständiger Auslastung. 100W weniger bei -300mV sind nicht unplausibel.
Wie erwartet, ist Fortnite auf der 7800 XT deutlich besser spielbar als auf der 4070. Nvidia D3D12 mag der 5700X dabei einfach gar nicht. Für 50€ weniger als die KFA2 4070, ist die Qick nach Tuning auch akustisch wesentlich angenehmer.
Ist jetzt nicht der große Wurf, aber was will man machen. 4070 und 7800 XT sind beide überteuerter Schrott, aber letztere passt für meinen Zweck besser...
Find auch mittlerweile Linux-Gefrickel wieder spannender als RR-Ölgemälde und -wachsgesichter. :freak:
BlacKi
2023-11-23, 08:48:20
das mal zu testen hast du keinen bock oder zeit?
aufkrawall
2023-11-23, 20:11:05
Das muss dir reichen, wird mindestens genau so viel heizen:
https://abload.de/img/sbp8ydr7.png (https://abload.de/image.php?img=sbp8ydr7.png)
Die eingestellten 0,7V ergeben vermutlich deshalb 0,8V, weil Spannung und Takt nicht komplett frei regelbar sind, ergo Takt zu hoch ist. Komplette Öko-7800 XT dürftest du also vergessen können.
2750/1025:
https://abload.de/img/sbp2pefof.png (https://abload.de/image.php?img=sbp2pefof.png)
BlacKi
2023-11-23, 20:59:13
nur dass ich das richtig verstanden habe. der voltage regler war komplett links auf minimum.
bei der 7900xtx lagen bei eingestellten 0,7v auch 0,744v an. 0,811 ist allerdings nochmal ein stück höher.
ausgelotet sind die +-2300 aber nicht oder?
die fan speed ist ja mal richtig niedrig. und der kühler der 7800xt der hellhound ich deutlich kleiner als der der 7900 modelle. das ist schon krass.
aufkrawall
2023-11-23, 22:57:26
nur dass ich das richtig verstanden habe. der voltage regler war komplett links auf minimum.
Richtig.
ausgelotet sind die +-2300 aber nicht oder?
Nur für den Kurztest eingestellt.
die fan speed ist ja mal richtig niedrig. und der kühler der 7800xt der hellhound ich deutlich kleiner als der der 7900 modelle. das ist schon krass.
Das war nach wenigen Sekunden. Ist allerdings die billigste 7800 XT "Qick", nicht Hellhound. Aber ja, <70°C Edge bei <1000rpm sind bei offenem Case trotz 280W überhaupt kein Problem. Bei dem geringen Gewicht schon erstaunlich. Nur die Lüfter-Resonanzen nerven etwas, die 7900 XTX Hellhound war wesentlich besser. Dafür brummen aber die Lüfter quasi gar nicht, anders als bei dem KFA2-Schrotthaufen. 590rpm für Idle sind hier zum Glück auch ~unhörbar, da kann man prima auf ZeroFan verzichten.
Hatte noch keine XFX und war neugierig, soweit ok. Das nächste Mal werd ich aber wieder etwas mehr für eine Hellhound zahlen. Ggf. in einem Jahr, falls die RDNA4-Spekus halbwegs hinhauen (wohl eher nicht).
aufkrawall
2023-11-24, 17:30:25
Forti mit SWRT-Lumen:
38BRaIb2vTE
Die GPU-Auslastungsanzeige scheint wieder unzuverlässiger als bei RDNA2 zu sein. Beim angeblichen Verbrauch gits auch manchmal Quatsch-Spikes auf 320W.
Forti mit SWRT-Lumen:
https://youtu.be/38BRaIb2vTE
Die GPU-Auslastungsanzeige scheint wieder unzuverlässiger als bei RDNA2 zu sein. Beim angeblichen Verbrauch gits auch manchmal Quatsch-Spikes auf 320W.
Da du ja echt oft den IHV tauscht, denke ich, dass du mir echt einen Rat geben kannst. Weihnachtsüberraschung für meinen Ältesten: Konfiguration bis dato Asus b650e-e, 64GB DDR5-6000, ne 2TB NVME und 4 TB SATA mit nem 7900x. NT wird wahrscheinlich ein Corsair mit 750w, bei der GPU bin ich allerdings unentschlossen. Er kommt von einer 2070 non s von Asus auf einem 5800x. Das Maximum was ich für die GPU noch ausgeben möchte, sind 550€. Taugt die 7800XT was, oder sollte ich ihm besser ne 4060TI 16GB, oder ne Mindstar 4070 verbauen?
aufkrawall
2023-11-24, 19:55:02
Was man für sich selbst und andere kauft, sind zwei verschiedene paar Schuhe. Ich würd schon deswegen nur Nvidia empfehlen, damit man bei Problemen auf den "tollen Ruf" der Treiber verweisen kann.
Die Hardcore-Fraktion spielt Fortnite mit dem D3D11 Performance-Modus, um das Gras ohne reduzierte Objektsichtweite abschalten zu können. Der läuft auf AMD aber komplett beschissen, ist alles nicht so einfach...
Er spielt Fortnite, aber afair in DX12. Die Treiber bereiten auf meiner GPU keine Probleme, spiele allerdings auch kaum mehr. Was ich weiß ist, dass ihn das GFE extrem nervt und ihm Settings überschreibt.
Keine Ahnung ob dies stimmt, hatte ich nie benutzt.
Schaue noch ein paar Benchmarks bei TPU an und entscheide dann.
Trotzdem vielen Dank
aufkrawall
2023-11-25, 17:48:13
Wenn er D3D12 nutzt, spricht nichts gegen eine Radeon, sofern er ohne Reflex klarkommt.
Wenn er D3D12 nutzt, spricht nichts gegen eine Radeon, sofern er ohne Reflex klarkommt.
Ich glaube, er weiß noch nicht einmal, was Reflex ist. Von daher... Dann spielt er noch Overwatch und so nen Multikrempel halt.
Aber er braucht den PC auch für professionelle Berechnungen, daher dachte ich, der 7900x passt. Ist nicht zu teuer und kann Beides annehmbar schnell.
BlacKi
2023-11-25, 18:34:16
Was ich weiß ist, dass ihn das GFE extrem nervt und ihm Settings überschreibt.
ist mir noch nie passiert. aber wenn man den treiber frisch installiert, dann fragt er ob er die spiele auf dem pc optimieren soll. wenn man den haken nicht wegmacht, dann kann das schon passieren im schnell schnell klicki klicki.
aber ist die 7800xt nicht generell performancetechnisch der 4070 überlegen? von daher, ist die entscheidung doch eigentlich schon gefallen. die 4070 hat lediglich software und verbrauch auf ihrer seite.
aufkrawall
2023-11-25, 19:15:53
Ich glaube, er weiß noch nicht einmal, was Reflex ist. Von daher... Dann spielt er noch Overwatch und so nen Multikrempel halt.
OW2 hat leider nerviges Verhalten beim Überprüfen des Shader-Caches. Das dauert nach jedem Spielstart ~2min, bis es richtig läuft:
https://abload.de/thumb/overwatch_2023_11_25_ihcee.png (https://abload.de/image.php?img=overwatch_2023_11_25_ihcee.png) https://abload.de/thumb/overwatch_2023_11_25_7kcwl.png (https://abload.de/image.php?img=overwatch_2023_11_25_7kcwl.png)
Sind mal wieder alle bei AMD, Blizzard und Usern zu doof zu, das zu merken und richtig zuzuordnen...
Unter Linux mit DXVK/RADV gibts das Problem nicht, mit Nvidia D3D11 auch nicht.
aber ist die 7800xt nicht generell performancetechnisch der 4070 überlegen?
Etwas übertrieben, kommt aufs Spiel an. In Fortnite bei den 1% low oder Warzone gibts allerdings schon richtig Schläge für die 4070, ja.
Aveum macht mir ohne FG auf der 7800 auch mehr Spaß als mit auf der 4070. Der AMD-Treiber ist auch nicht gerade perfekt, aber Nvidia macht gefühlt wirklich gar nichts mehr außer PT- und FG-Klimmbimm...
Taigatrommel
2023-11-25, 19:22:29
OW2 hat leider nerviges Verhalten beim Überprüfen des Shader-Caches. Das dauert nach jedem Spielstart ~2min, bis es richtig läuft:
https://abload.de/thumb/overwatch_2023_11_25_ihcee.png (https://abload.de/image.php?img=overwatch_2023_11_25_ihcee.png) https://abload.de/thumb/overwatch_2023_11_25_7kcwl.png (https://abload.de/image.php?img=overwatch_2023_11_25_7kcwl.png)
Sind mal wieder alle bei AMD, Blizzard und Usern zu doof zu, das zu merken und richtig zuzuordnen...
Auch wenn es ein wenig OT ist:
Ist das ein neues Problem mit OW2? Ich spiele das nicht, jedoch sehr gerne WoW und dort gibt es eben dieses Verhalten seit Patch 10.2 mit so ziemlich allen Radeon Karten und DirectX 12: Startet man das Spiel, so braucht es teilweise drei Minuten, bis es mal geladen hat, ungeduldige Nutzer die klicken, bekommen den Eindruck, es sei gänzlich abgestürzt. Der Fehler existiert seit einer Testversion von 10.2 und wurde bereits von mir gemeldet, mehrfach. Inzwischen wird er, nachdem sich mit dem offiziellen Start von 10.2 immer mehr betroffene Spieler meldeten, offiziell auch untersucht. Inzwischen startet es gewohnt schnell bei mir.
Generell läuft DirectX 12 unrunder als vorher. Zudem gibt es Probleme mit FSR1 und dem Rescaling, das frisst zuviel Leistung und sorgt für unsaubere Frametimes.
aufkrawall
2023-11-25, 19:41:14
OW2 ist D3D11-only und das Problem gibts schon länger bzw. vermutlich, seitdem es den "DXNAVI"-Treiber für D3D11 gibt (Sommer 22 für RDNA2).
Zu WoW kann ich nicht sagen, es gab hier aber in noch keinem D3D12-Spiel ein vergleichbares Problem (und auch keinem anderen D3D11-Spiel).
aber ist die 7800xt nicht generell performancetechnisch der 4070 überlegen?
In etwa 7 von 10 Fällen, bezogen auf aktuelle Spiele. Bei komplexem Raytracing sieht AMD aber kein Land, da ist die RTX 4070 um circa 30 Prozent flotter - und das ist in dieser Klasse durchaus relevant. Ich habe die Karten gerade frisch geindext, die öffentliche Auflösung gibt's in ca. zwei Wochen.
MfG
Raff
aufkrawall
2023-11-26, 05:13:02
Wenn man Müll wie in Hogwarts oder JS "RT" nennt, Software-Lumen aber nicht, zeigt das ganz gut auf, wie blödsinnig diese Kategorisierung ist.
dildo4u
2023-11-26, 05:22:18
Das lustige ist das Müllige UE4 RT läuft OK schätze Raff meint neue Knüppel wie Alan Wake 2?
https://abload.de/img/screenshot_2023-11-26cfif7.jpg
J0jVvS6DtLE
aufkrawall
2023-11-26, 05:34:44
Das lustige ist das Müllige UE4 RT läuft OK
Der Shit wird gerne mal im CPU-Limit laufen. :freak:
dildo4u
2023-11-26, 05:36:53
Oh dachte dafür ist diese Klasse zu langsam.
aufkrawall
2023-11-26, 05:41:08
Hogwarts lief auf der 4070 + 5700X mit RT an vielen Stellen zu 100% im CPU-Limit. Die miesen Frame Times konnte dann auch FG nicht mehr richten. In Fortnite waren schon die Legacy-Schatten@epic mit <120fps zu viel. Merkt man natürlich nicht unbedingt, wenn man in seinem Test-Boliden noch eine RX 7600 mit einem 7800X3D paart...
dildo4u
2023-11-26, 06:10:24
Interessant hab mich gefragt warum zu Hölle Call of Duty Framegen bekommt vermutlich einzige Möglichkeit für NV auf dem Papier mitzuhalten.
The_Invisible
2023-11-26, 08:57:19
Wenn man Müll wie in Hogwarts oder JS "RT" nennt, Software-Lumen aber nicht, zeigt das ganz gut auf, wie blödsinnig diese Kategorisierung ist.
Hogwarts hat enorme Verkaufszahlen, da spielt es schon gut eine Rolle
dargo
2023-11-26, 09:46:35
Und wieder ein Rumgeeier zum einschlafen. *gähn*
Hogwarts Legacy läuft selbst auf RDNA2 mit RT ohne Probleme im nativen 1440p, selbst so durchgespielt. Man muss halt nur Optionen bedienen können und nicht nur blind auf irgendwelche Benchmarks mit max. Settings starren. :rolleyes: Die RT-Reflektionen sind relativ günstig, der Rest zu teuer.
The_Invisible
2023-11-26, 10:19:52
Raff & Co kommen so schon mit den Benchmarks nicht hinterher, jetzt sollen sie auch noch "vendor-optimized" Benchmarks einführen ;D
Heißt nicht umsonst RT-Benchmarks, sonst könnte man bei den ganzen Raster Benches auch anfangen Details zu reduzieren die unnötig sind...
dildo4u
2023-11-26, 10:35:03
Raff & Co kommen so schon mit den Benchmarks nicht hinterher, jetzt sollen sie auch noch "vendor-optimized" Benchmarks einführen ;D
Heißt nicht umsonst RT-Benchmarks, sonst könnte man bei den ganzen Raster Benches auch anfangen Details zu reduzieren die unnötig sind...
Die Masse wird die Karten auf dem selben Level sehen daher wurde die 4070 im Preis reduziert.
Und wenn sich alles Einwandfrei verkaufen würde müsste man keine Super Serie bringen.
Lurtz
2023-11-26, 10:41:35
Für den Massenmarkt ist das doch eh völlig irrelevant. Da wird nVidia gekauft, weil es nVidia ist, nicht weil jemand ein Hogwarts Legacy unbedingt mit crappy RT spielen will und am Ende eh keine Unterschiede sieht.
dildo4u
2023-11-26, 10:54:47
Laut AMD haben GPU im Q3 zugelegt dort wurden 7700XT/7800XT gelauncht.
https://abload.de/img/screenshot2023-11-261sveya.png
https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/AMD-Quartalszahlen-Q3-2023-Ryzen-Radeon-Epyc-1432756/
Im Low End gab es zu viele Optionen die 7600 hat gar nix bewegt.
dargo
2023-11-26, 12:22:38
Raff & Co kommen so schon mit den Benchmarks nicht hinterher, jetzt sollen sie auch noch "vendor-optimized" Benchmarks einführen ;D
Wo habe ich geschrieben Raffs Benchmarks wären nicht legitim oder falsch? :rolleyes:
aufkrawall
2023-11-26, 19:18:41
lol, hier läuft Hogwarts RT selbst auf einem 7800X3D mit der 4070 in 1080p komplett im CPU-Limit ;D :
https://youtu.be/60aM9wVHQbs?t=876
Dagegen ist selbst Aveum gut optimiert. :ulol:
dildo4u
2023-11-27, 06:59:00
Was eher interessant ist AMD ist bei Witcher mit RT schneller das Game sollte deutlich weniger CPU Leistung brauchen.
Was eher interessant ist AMD ist bei Witcher mit RT schneller das Game sollte deutlich weniger CPU Leistung brauchen.
Läuft deutlich besser als Cyberpunk, aber dennoch rangiert eine 7900 XTX nur zwischen 4070 Ti und 4080 (immerhin mit Tendenz zu großen).
MfG
Raff
aufkrawall
2023-11-27, 16:52:19
Was eher interessant ist AMD ist bei Witcher mit RT schneller das Game sollte deutlich weniger CPU Leistung brauchen.
An nicht fiesen Wald-Stellen sind es 60-70fps mit alles inkls. RT max und 1440p XeSS Q.
https://abload.de/thumb/witcher32023112703113rqd0z.png (https://abload.de/image.php?img=witcher32023112703113rqd0z.png)
Ist mit Anti-Lag spielbar. Anti-Lag+ wär aber noch besser. Hatte mal den 23.10.1-Treiber installiert und das hat durchaus anständig funktioniert, war noch mal fühlbar direkter und Frame Times nicht unbedingt schlechter (in Borderlands 3 ohne Shader-Compile-Ruckler sogar wohl perfekt). Voll toll, dass sie das auch für SP-Spiele entfernt haben. :freak:
Die GPU-Auslastungsanzeige scheint wieder unzuverlässiger als bei RDNA2 zu sein.
Ist mit Treiber für die PRO W7700 per Inf-Mod installiert gefixt. Offenbar hatte das auch die dynamische Skalierung in Fortnite kaputt gemacht, hält mit dem Treiber wieder zu 100% der Zeit das angegebene Limit im GPU-Limit. =)
Treiber hat btw. HAGS, aber nur für RDNA3.
dildo4u
2023-11-28, 07:38:19
Brutal wie schlecht es läuft wenn man bedenkt das es für Heutige Verhältnisse simple Geometrie hat aber hängt vermutlich damit zusammen das es nicht von Anfang an geplant war.
aufkrawall
2023-11-28, 09:27:33
War auch auf der 4070 im Skellige-Wald mit FG schon arg grenzwertig, da ertappt man sich bei DLSS B oder P...
E39Driver
2023-11-28, 09:57:30
Das lustige ist das Müllige UE4 RT läuft OK schätze Raff meint neue Knüppel wie Alan Wake 2?
https://abload.de/img/screenshot_2023-11-26cfif7.jpg
Hätte ich nicht erwartet und die 4070 in RT stärker geschätzt. Aber wenn man mal den brutal auf Nvidia optimierten Ausreißer Cyberpunk 2077 raus rechnet, sieht es ja nach einem ziemlichen Gleichstand in der RT Leistung zwischen 7800XT und 4070 aus. Mehr Speicher und mehr Raster-Leistung gibt's bei der 7800XT noch oben drauf bei etwas mehr Stromverbrauch. Eigentlich ein ziemlich guter Deal
BlacKi
2023-11-28, 10:04:50
Brutal wie schlecht es läuft wenn man bedenkt das es für Heutige Verhältnisse simple Geometrie hat aber hängt vermutlich damit zusammen das es nicht von Anfang an geplant war.rt max ist eben der hauptfaktor, der rest des spiels benötigt kaum noch rechenleistung, das geht alles für RT drauf.
RT killt sogar die performance von 20 jahre alten spiele. spielt keine rolle wie gut gut das spiel ohne RT läuft, mit RT wirds immer schlechte fps haben im verhältnis zu non RT. da ändert wohl auch eine rtx 9090 nix dran. dannn hast du vermutlich in 8k mit RT 120fps und 1000fps ohne RT in tw3.
dildo4u
2023-11-28, 10:15:51
Path Tracing ist ultra Heavy aber das gibt es in Witcher nicht oder verwechsel ich was?
Nee, du hast schon Recht - in Witcher 3 gibt's "nur" Raytracing. Pathtracing ist in Cyberpunk 2077 auch nur ein Zusatz.
MfG
Raff
The_Invisible
2023-11-28, 11:07:23
Hätte ich nicht erwartet und die 4070 in RT stärker geschätzt. Aber wenn man mal den brutal auf Nvidia optimierten Ausreißer Cyberpunk 2077 raus rechnet, sieht es ja nach einem ziemlichen Gleichstand in der RT Leistung zwischen 7800XT und 4070 aus. Mehr Speicher und mehr Raster-Leistung gibt's bei der 7800XT noch oben drauf bei etwas mehr Stromverbrauch. Eigentlich ein ziemlich guter Deal
Ist eben nicht so, ka woher das "Argument" immer kommt: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/
Das ist Hoffnung. Der Drops ist aber gelutscht, RDNA 3 ist beim Raytracing pro Einheit nicht signifikant besser als RDNA 2. Insofern bleibt's dabei: Muss mehr berechnet werden als ein paar Schatten und kaputtgesparte Reflexionen, ist Ada deutlich überlegen.
Ist eben nicht so, ka woher das "Argument" immer kommt: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/
Der finale RT-Index 2024 (https://www.youtube.com/watch?v=Gx0SJrZTEds) ist übrigens noch eine Nuance härter.
MfG
Raff
dildo4u
2023-11-28, 11:24:09
Ist eben nicht so, ka woher das "Argument" immer kommt: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/
Wenn das Argument ziehen würde hätte die 4070 ihr Preis gehalten, wenn man sieht das man selbst für 1440p Upsampling braucht und Witcher kein PT hat sieht es düster aus.
https://videocardz.com/newz/first-nvidia-geforce-rtx-4070-cards-drop-to-549-8-below-msrp
dargo
2023-11-28, 11:30:10
Hätte ich nicht erwartet und die 4070 in RT stärker geschätzt. Aber wenn man mal den brutal auf Nvidia optimierten Ausreißer Cyberpunk 2077 raus rechnet, sieht es ja nach einem ziemlichen Gleichstand in der RT Leistung zwischen 7800XT und 4070 aus. Mehr Speicher und mehr Raster-Leistung gibt's bei der 7800XT noch oben drauf bei etwas mehr Stromverbrauch. Eigentlich ein ziemlich guter Deal
Woher kommt eigentlich dieser Mythos die RX 7800XT wäre bei Raster deutlich schneller als die RTX 4070?
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
RX 7800XT und RTX 4070 sind für mich die gleiche Leistungsklasse. Wen interessieren da +/- Werte im einstelligen Bereich außer vielleicht Fanboys?
PS: du hast zwar nicht "deutlich" geschrieben, aber möchtest du dich wirklich ernsthaft an so mickrigen Vorsprüngen aufhängen?
][immy
2023-11-28, 11:55:29
Woher kommt eigentlich dieser Mythos die RX 7800XT wäre bei Raster deutlich schneller als die RTX 4070?
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing
RX 7800XT und RTX 4070 sind für mich die gleiche Leistungsklasse. Wen interessieren da +/- Werte im einstelligen Bereich außer vielleicht Fanboys?
PS: du hast zwar nicht "deutlich" geschrieben, aber möchtest du dich wirklich ernsthaft an so mickrigen Vorsprüngen aufhängen?
Keine Ahnung wo du das "deutlich" gelesen hast, aber Preis/Performance ist die 7800XT deutlich besser. Zumal der zusätzliche Speicher dann auch noch mal etwas hilft (außerhalb von den normalen Benches), auch wenn immer wieder bewiesen wird, da es auch mit weniger Speicher ginge, sind die meisten Spiele halt nicht auf weniger Speicher optimiert. Früher oder später wird daher der 4070 die Puste ausgehen. Das diese nicht mit 16GB kam ist echt eine Schande.
Ansonsten sind die Karten relativ gleich auf. Was auch nicht verwundert, ist die Karte halt auch nicht wesentlich schneller als eine 6800xt. Hätte auch ein 6800xt refresh sein können. Von den zusätzlichen Features an Bord macht AMD bislang ja keinerlei gebrauch. Da könnte man sich fragen wozu AMD die zusätzliche Hardware mit eingebaut hat, aber nvidia brauchte ja auch recht lang bis die Tensor Kernchen überhaupt einen Zweck hatten.
The_Invisible
2023-11-28, 12:15:29
[immy;13443801']Keine Ahnung wo du das "deutlich" gelesen hast, aber Preis/Performance ist die 7800XT deutlich besser. Zumal der zusätzliche Speicher dann auch noch mal etwas hilft (außerhalb von den normalen Benches), auch wenn immer wieder bewiesen wird, da es auch mit weniger Speicher ginge, sind die meisten Spiele halt nicht auf weniger Speicher optimiert. Früher oder später wird daher der 4070 die Puste ausgehen. Das diese nicht mit 16GB kam ist echt eine Schande.
.
UE5 ist speicherschonend, ka ob sich das noch ändert aber bei Techdemos & aktuellen Games kommt man in >1440p gerade mal auf 10GB
sun-man
2023-11-28, 12:18:09
Bei AMD ist immer nur von "Ja, NV hat so wenig Speicher und Ihr werdet schon sehen was Ihr davon habt".....die ist jetzt sei 9 Monaten, oder so, auf dem Markt. Ein Großteil der User dürfte das kaum bemerkt haben bisher. In 4k möglicherweise mehr, dann drehen die halt Details runter die man eh nicht sieht. Raster mag AMD besser sein und einige finden Rohleistung besser....aber am Ende ist es dann wieder bei Raytracing (jaaaa, braucht keiner, Nvidiamüll, Marketing.....) auf der Seite hinten dran.
Am Ende kaufen sich locker 50% der Besitzer genau dann eine neue Graka wenn sie das so feststellen und nicht mehr damit leben können weniger als UltraDetails in 1080p zu haben. Die haben dann aber seit 9 Monatenb (theoretisch) gar kein Problem und einfach gezockt.
aufkrawall
2023-11-28, 13:16:56
UE5 ist speicherschonend, ka ob sich das noch ändert aber bei Techdemos & aktuellen Games kommt man in >1440p gerade mal auf 10GB
Aveum und Fortnite laufen trotzdem sauberer auf Radeon, dafür müssen die 12GB gar nicht ausgehen.
vinacis_vivids
2023-11-28, 20:01:29
Witcher 3 RT = AMD Frame Generation. Das gleiche gilt für CP2077 RT. Müsste eigentlich als neue Technologie auch mit in die Benches exklusiv eingefügt werden.
Bei AMD ist immer nur von "Ja, NV hat so wenig Speicher und Ihr werdet schon sehen was Ihr davon habt".....die ist jetzt sei 9 Monaten, oder so, auf dem Markt. Ein Großteil der User dürfte das kaum bemerkt haben bisher. In 4k möglicherweise mehr, dann drehen die halt Details runter die man eh nicht sieht. Raster mag AMD besser sein und einige finden Rohleistung besser....aber am Ende ist es dann wieder bei Raytracing (jaaaa, braucht keiner, Nvidiamüll, Marketing.....) auf der Seite hinten dran.
Am Ende kaufen sich locker 50% der Besitzer genau dann eine neue Graka wenn sie das so feststellen und nicht mehr damit leben können weniger als UltraDetails in 1080p zu haben. Die haben dann aber seit 9 Monatenb (theoretisch) gar kein Problem und einfach gezockt.
Wenn es keine NV-titeled Spiele sind, dann lässt es sich auf RDNA3 easy mit RT spielen. Von daher auch meine Kritik an Raff: Selbst mit RDNA15 wirst du keine gescheiten FPS bei NV-Titeln hinbekommen. Daher würde ich mir schon wünschen, dass es bei RDNA2 und 3 praktisch keinen Unterschied gibt, zurück nimmst. Mit RT ist ne 7800XT stärker wie ne 6950! Eigentlich bewegt se sich zwischen 6800xt und 6900xt, mit Hang zur 6900XT, mit RT um immerhin 15-20% darüber!
aufkrawall
2023-11-28, 20:07:10
Eher müsste die Karte 150€ billiger sein, weil dieser Feature-Krempel rein gar nichts taugt.
Gilt für die 4070 mit dem Schrott-Treiber aber ähnlich. Jetzt gibts bei Bro mit 4090 mit Lumen in Fortnite sporadisch seltsames Geisterleuchten auf freier Fläche und die Schatten ploppen auch manchmal extrem auf.
Inflation, Ampel: Warte bis 2025 ...
The_Invisible
2023-11-28, 20:28:52
Wenn es keine NV-titeled Spiele sind, dann lässt es sich auf RDNA3 easy mit RT spielen. Von daher auch meine Kritik an Raff: Selbst mit RDNA15 wirst du keine gescheiten FPS bei NV-Titeln hinbekommen. Daher würde ich mir schon wünschen, dass es bei RDNA2 und 3 praktisch keinen Unterschied gibt, zurück nimmst. Mit RT ist ne 7800XT stärker wie ne 6950! Eigentlich bewegt se sich zwischen 6800xt und 6900xt, mit Hang zur 6900XT, mit RT um immerhin 15-20% darüber!
Klar, alle PCGH RT-Benchmarks (wo neuere noch gar nicht drinnen sind) oben von NV gesponsered. Die anderen Reviewer natürlich auch. Außerdem steht sehr wohl das RDNA3 schneller ist, aber nicht in einem Maße wo es einen Unterschied machen würde.
Und dann kommt noch v_v daher und will FSR3-FG in dem derzeitigen Status als positiven Punkt bewerben. ;D
Klar, alle PCGH RT-Benchmarks (wo neuere noch gar nicht drinnen sind) oben von NV gesponsered. Die anderen Reviewer natürlich auch. Außerdem steht sehr wohl das RDNA3 schneller ist, aber nicht in einem Maße wo es einen Unterschied machen würde.
Und dann kommt noch v_v daher und will FSR3-FG in dem derzeitigen Status als positiven Punkt bewerben. ;D
Ein Plus zur 6950 ist ein Plus. Und bei RT verhält es sich sehr ähnlich einst wie bei Batman mit dem Nebel! Die Radeons dürfen nicht performen. In Hogwards ist ne 7800XT exakt so schnell mit RT, wie ne 4070! Nur mit dem Unterschied, dass die Eine 16Gb an 256-Bit hat und die Andere 12Gb an 192-Bit und die jetzt bereits eingeht aufgrund Ram-Mangels!
Von daher auch meine Kritik an Raff: Selbst mit RDNA15 wirst du keine gescheiten FPS bei NV-Titeln hinbekommen.
Genau das stimmt übrigens nicht. Der Vergleich mit Intel zeigt: Wenn nur eine von drei Architekturen beim Raytracing auffällig einbricht, ist der Beweis erbracht, dass nur eine Architektur die falschen Schwerpunkte setzt. Und in genau diesen Benchmarks kann sich eine diesbezüglich verbesserte Architektur dann stark in Szene setzen. Hoffen wir, dass es bereits mit RDNA 4 so weit ist. Ich hoffe es wirklich, denn diese Diskussionen klarer Tatsachen nerven.
Daher würde ich mir schon wünschen, dass es bei RDNA2 und 3 praktisch keinen Unterschied gibt, zurück nimmst. Mit RT ist ne 7800XT stärker wie ne 6950! Eigentlich bewegt se sich zwischen 6800xt und 6900xt, mit Hang zur 6900XT, mit RT um immerhin 15-20% darüber!
Möglicherweise vergisst du, dass es die PCGH-Benches (https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/) waren, welche genau diese Unterschiede besonders akribisch herausgearbeitet haben (während andernorts - idR getestet mit Spar-RT - kein Sprung erkennbar war). :) Insofern: Da gibt es nichts zurückzunehmen, meine Aussage entspricht den Tatsachen. Und die jüngsten nächtlichen Benchsessions zementieren das.
MfG
Raff
aufkrawall
2023-11-28, 22:31:03
Jo, nur sind die Tatsachen bei Hogwarts in einer Bench-Szene im Wald halt andere als die für die CPU-Ruckelorgie in den NPC-Hubs. Tipp: Du hast auch kein Tatsachenmonopol.
Exxtreme
2023-11-28, 22:32:07
Die Radeons haben halt den Nachteil, dass sie sehr große Teile der RT-Berechnungen auf Shader und Textureinheiten auslagern. Und je höher die RT-Last wird desto weniger Rechenleistung bleibt für den Rest über. Ist auch der Grund warum sie gut performen wenn man mittlere RT-Stufen aktiviert.
Jo, nur sind die Tatsachen bei Hogwarts in einer Bench-Szene im Wald halt andere als die für die CPU-Ruckelorgie in den NPC-Hubs. Tipp: Du hast auch kein Tatsachenmonopol.
Stimmt. Da ich aber 40-60 Stunden pro Woche Grafikkarten teste und jedes wichtige Spiel kenne, erlaube ich mir diese ganzen scheinfrechen Fakten. Für irgendwas muss das 24/7-Nerden ja taugen, wenn es schon kein Reichtum ist. ;)
MfG
Raff
aufkrawall
2023-11-28, 22:40:35
Aha, und wenn Ergebnisse anderer Tester abweichen, sind das natürlich nicht solche Checker. :freak:
Aha, und wenn Ergebnisse anderer Tester abweichen, sind das natürlich nicht solche Checker. :freak:
Jeder Tester hat seine Schwerpunkte, etwa Strommessungen, Platinenanalysen. Meiner ist umfassende Kenntnis aller relevanten Spiele und Engines, ich bin datengetrieben und will es ganz genau wissen, während ich Elektronik gerne anderen überlasse. Da ein Tag eine begrenzte Anzahl an Stunden hat, kann kein Tester "500 Prozent" geben, sondern muss Prioritäten setzen. Das wird dir jeder seriöse Tester bestätigen. Und wer sagt, dass er in allem der Beste ist, der lügt (sich selbst und anderen etwas vor). :)
MfG
Raff
vinacis_vivids
2023-11-29, 03:50:14
Umfassene Kennnis über alle Engines 🙈
Das sagt nicht mal Camarck, Torvalds mit 128bit Linux.
Ex3cut3r
2023-11-29, 08:15:54
Mir ist Raff sympathisch und bei der PCGH weiß ich halt ganz genau die Benchstelle, kann selber nach benchen. Und wenn ich das gemacht habe, kam genau in 98% der Fälle immer dasselbe raus, wie bei Ihnen....
][immy
2023-11-29, 08:56:28
Umfassene Kennnis über alle Engines 🙈
Das sagt nicht mal Camarck, Torvalds mit 128bit Linux.
Leute, hört ihr mal auf, auf jemanden ein zu dreschen, der so etwas beruflich macht und freundlich seine Argumente hervor bringt. Schwachstellen gibt es immer und wird es immer geben, dafür ist die Materie viel zu komplex, als das ein Testbericht jede Kleinigkeit beachten könnte. Und es wird immer Szenen in engines geben welche irgendwelche Schwachstellen offenbaren (ruckler bei hohen npc Count weißt normalerweise auf ein CPU-bottleneck hin). Und raff hat nie behauptet daß er jede Zeile Code der engines kennt und versteht, sondern nur das er viele Spiele und einiges kennt und Erfahrung darin gesammelt hat wie diese sich in entsprechenden Szenen verhalten. Nicht wie jedes Bit und Befehl über die GPU "fließt", das hat er auch nie behauptet.
Ernsthaft Leute, es regt mich mittlerweile nur noch auf mit was für Ansprüchen und Unterstellungen hier auf andere eingewirkt wedern soll um die eigene Meinung durch zu setzen. Das hat nichts mit Diskussion mehr zu tun. Vielmehr zeigt es das einige hier gar nicht gewillt sind eigene Schwachstellen die sie in einer Diskussion rein bringen ein zu sehen. Wenn ihr Argumente habt, bringt diese hervor aber hört auf die Leute hier im Forum zu verscheuchen die Ahnung von der Materie haben von der sie schreiben.
PS:
Tut mir leid für den kleinen rant, aber solche haltlosen Angriffe nerven einfach nur noch und kommen gefühlt immer häufiger vor.
robbitop
2023-11-29, 09:32:32
Umfassene Kennnis über alle Engines 🙈
Das sagt nicht mal Camarck, Torvalds mit 128bit Linux.
Was er meinte ist, wie sich GPUs in ihrer Performancecharakteristik über Spiele mit allen gängigen Engines verhalten.
[immy;13444325']
PS:
Tut mir leid für den kleinen rant, aber solche Angriffe haltlosen nerven einfach nur noch und kommen gefühlt immer häufiger vor.Das muss dir überhaupt nicht Leid tun, ganz im Gegenteil. Manche sollte hier wirklich ein paar Gänge runter schalten. :smile:
maximus_hertus
2023-11-29, 11:23:07
[immy;13444325']Leute, hört ihr mal auf, auf jemanden ein zu dreschen, der so etwas beruflich macht und freundlich seine Argumente hervor bringt. Schwachstellen gibt es immer und wird es immer geben, dafür ist die Materie viel zu komplex, als das ein Testbericht jede Kleinigkeit beachten könnte. Und es wird immer Szenen in engines geben welche irgendwelche Schwachstellen offenbaren (ruckler bei hohen npc Count weißt normalerweise auf ein CPU-bottleneck hin). Und raff hat nie behauptet daß er jede Zeile Code der engines kennt und versteht, sondern nur das er viele Spiele und einiges kennt und Erfahrung darin gesammelt hat wie diese sich in entsprechenden Szenen verhalten. Nicht wie jedes Bit und Befehl über die GPU "fließt", das hat er auch nie behauptet.
Ernsthaft Leute, es regt mich mittlerweile nur noch auf mit was für Ansprüchen und Unterstellungen hier auf andere eingewirkt wedern soll um die eigene Meinung durch zu setzen. Das hat nichts mit Diskussion mehr zu tun. Vielmehr zeigt es das einige hier gar nicht gewillt sind eigene Schwachstellen die sie in einer Diskussion rein bringen ein zu sehen. Wenn ihr Argumente habt, bringt diese hervor aber hört auf die Leute hier im Forum zu verscheuchen die Ahnung von der Materie haben von der sie schreiben.
PS:
Tut mir leid für den kleinen rant, aber solche Angriffe haltlosen nerven einfach nur noch und kommen gefühlt immer häufiger vor.
Ganz klares Thumps up!
PCGH und Raff im speziellen sind maximal transparent mit ihren Ergebnissen und liefern immer ab. Selbst wenn mal (sehr selten) was schief läuft, wird das offen angesprochen und korrigiert.
Meiner Meinung nach leistet Raff exzellente Arbeit und ich bin sehr dankbar, dass er und die PCGH diese Arbeit leisten bzw. sich hier im Forum blicken lassen und darüber diskutieren.
Man muss natürlich nicht die gleiche MEinung (Fazit) haben, man kann andere Schwerpunkte haben und dadurch auch andere "Empfehlungen". Aber der anderen Seite einfach Inkompentenz vorwerfen und einfach nur reinrotzen statt sinnvoll zu diskutieren bringt niemanden weiter.
Ohne Raff und Co. würde dem Forum echt was fehlen.
Das die PCGH gefühlt einen etwas größeren Schwerpunkt bei RT sieht bzw. den Parcours nicht unbedingt "AMD-freundlich" gestaltet tut sicher einigen Fanboys weh, aber sie zeigen klar auf, was sehr wahrscheinlich in der Zukunft "Realität" sein wird.
Wie geschribeen, es gibt noch mehr als genug Leute, die von RT nichts wissen wollen, was aufgrund des Performance-Hits bzw. die Kosten auch verständlich ist, aber wenn man mal eine gute RT Implementierung erlebt hat, will man eigentlich nciht mehr ohne.
Am Ende gibt es eine ganze Menge (Einzelbenchmark) und jeder kann sich daraus machen, was er möchte.
Je nachdem, wie nV die Super Refresh Karten platziert (Preis) könnte das ein schwieriges 2024 für AMD werden. So wie es aussieht, haben sie kaum Spielräume bei den Preisen der 78XT und 77XT und eine 4070 für z.B. 500-525 Euro wäre wohl sehr sehr unangenehm für AMD.
Im Januar wissen wir dann mehr. Normalerweise würde man zudem erwarten, dass nV sich nciht groß um AMD kümmert und primär die eigenen Margen erhöhen möchte und damit wohl eher keine "aggressiven" Preise ansetzen wird.
Es kann auch sehr gut sein, dass die nV PReisliste ab JAnuar so aussieht:
4080 Super 16G - 1199 USD
4070 Ti Super 16G - 899 USD
4070 Super 12G - 699 USD
4070 12G - 549 USD (quasi der Status Quo wird offiziell und sonst passiert nichts)
Bei AMD wären dann nur NAvi 31 betroffen und müssten ggf. etwas runter, z.B. 79XTX auf 899 USD und 79XT auf 699 USD. 78XT und 77XT könnten mehr oder weniger da bleiben, wo sie sind.
In gut 5-6 Wochen sollten wir dann mehr wissen :)
aufkrawall
2023-11-29, 17:28:19
Hellhound noch mitgenommen. DL2 RT max FSR 2 Q nach 5min Aufwärmen mit Silent-Bios und maximalem PT:
https://abload.de/thumb/dyinglightgamex64rwdipacn6.png (https://abload.de/image.php?img=dyinglightgamex64rwdipacn6.png)
Lüfterkurve der Qick war unter Linux zu nervig. Die Hellhound scheint genau so gut zu sein wie bei der 7900 XTX, unschlagbar für den Preis (und eigentlich auch sonst).
Schnitzl
2023-11-29, 18:06:53
7700xt?
Edit: 271W ... wohl eher die 7800
aufkrawall
2023-11-29, 18:07:41
Huh? Natürlich 7800 XT. :freak:
redpanther
2023-11-29, 18:47:59
[immy;13444325']Leute, hört ihr mal auf, auf jemanden ein zu dreschen, der so etwas beruflich macht und freundlich seine Argumente hervor bringt. Schwachstellen gibt es immer und wird es immer geben, dafür ist die Materie viel zu komplex, als das ein Testbericht jede Kleinigkeit beachten könnte. Und es wird immer Szenen in engines geben welche irgendwelche Schwachstellen offenbaren (ruckler bei hohen npc Count weißt normalerweise auf ein CPU-bottleneck hin). Und raff hat nie behauptet daß er jede Zeile Code der engines kennt und versteht, sondern nur das er viele Spiele und einiges kennt und Erfahrung darin gesammelt hat wie diese sich in entsprechenden Szenen verhalten. Nicht wie jedes Bit und Befehl über die GPU "fließt", das hat er auch nie behauptet.
Ernsthaft Leute, es regt mich mittlerweile nur noch auf mit was für Ansprüchen und Unterstellungen hier auf andere eingewirkt wedern soll um die eigene Meinung durch zu setzen. Das hat nichts mit Diskussion mehr zu tun. Vielmehr zeigt es das einige hier gar nicht gewillt sind eigene Schwachstellen die sie in einer Diskussion rein bringen ein zu sehen. Wenn ihr Argumente habt, bringt diese hervor aber hört auf die Leute hier im Forum zu verscheuchen die Ahnung von der Materie haben von der sie schreiben.
PS:
Tut mir leid für den kleinen rant, aber solche haltlosen Angriffe nerven einfach nur noch und kommen gefühlt immer häufiger vor.
:up::up::up:
Hat jemand mit einer 7800XT irgendwelche Ausfälle nach wenigen Wochen? Sprich Blackscreens o.ä ...
Bei TPU, im Luxx und Anandtech gibt es solch vereinzelten Berichte zu lesen. Komischerweise betrifft dies lediglich die 7800XT.
Taigatrommel
2023-11-29, 20:39:27
Hat jemand mit einer 7800XT irgendwelche Ausfälle nach wenigen Wochen? Sprich Blackscreens o.ä ...
Bei TPU, im Luxx und Anandtech gibt es solch vereinzelten Berichte zu lesen. Komischerweise betrifft dies lediglich die 7800XT.
Sind es denn identische Modelle oder zieht sich das über verschiedene Versionen der 7800 XT?
Wenn es sich vor allem um Referenzkarten handelt, dann könnte hier ggf. wieder eine Art Produktionsfehler wie bei der 7900 XTX Referenz dafür verantwortlich sein. Das gleiche würde natürlich auch gelten, wenn jetzt eine bestimmte Custom soviele Ausfälle aufweisen würde.
dildo4u
2023-12-06, 20:50:26
Idle Verbrauch Verbesserungen mit neuem Treiber.
https://www.tomshardware.com/pc-components/gpus/amd-rx-7000-series-high-idle-power-draw-finally-appears-to-be-fixed-with-the-latest-23121-drivers
dildo4u
2023-12-18, 10:21:40
Neue RT Benches jetzt sieht man warum die 7700XT so teuer ist die 4060 TI ist ein Witz einziges NV Modell was mit RT schwächelt.
https://i.ibb.co/HXWDDXY/Screenshot-2023-12-18-101254.png (https://ibb.co/XVhZZVp)
https://www.computerbase.de/2023-12/nvidia-geforce-amd-radeon-benchmark-test-2024/2/#abschnitt_performancerating_mit_und_ohne_rt_in_1920__1080
Linmoum
2023-12-18, 11:22:19
Die 7700XT ist nicht deswegen teuer, die kostet grob gleich viel wie eine 4060Ti mit 16GiB. CB bencht hier mit der 8GiB-Variante, logischerweise kackt die dann ab.
dildo4u
2023-12-18, 11:26:12
4060 spricht dagegen vermutlich fehlt Bandbreite für die TI.
DrFreaK666
2023-12-18, 11:27:02
Unverständlich wieso CB nicht endlich mal die 16GB-Version testet
dildo4u
2023-12-18, 11:34:30
Die 4060 schlägt 6700xt Vram scheint kein großer Faktor.
Die Benchmarks werden oft mit Upsampling gemacht das erklärt warum 8 GB OK sind.
Die RTX 4060 Ti 16GB kann sich nicht immer von der 8GB-Variante absetzen - aber oft genug. Viel besseres Produkt. Auszug aus meinem RT-Excel, die Werte sind noch nicht publik:
39,3 vs. 34,3 Indexpunkte (Vergleichswerte (https://www.pcgameshardware.de/Radeon-RX-7900-XT-Grafikkarte-279322/Tests/Die-beste-Grafikkarte-2024-Teil-2-1440p-WQHD-Gaming-1435304/3/))
(Knüppel Raytracing 2024 - beim Rasterizing liegen die Karten fast auf Augenhöhe)
MfG
Raff
dildo4u
2023-12-18, 12:45:34
Computerbase senkt die Setting weiter als PCGH die nutzen bei Alan Wake/Cyberpunk Balanced DLSS selbst in 1080p.
6800 XT = 4060 als extrem Beispiel.
https://i.ibb.co/2vtq8ZL/Screenshot-2023-12-18-124505.png (https://ibb.co/GW27sH1)
https://www.computerbase.de/2023-12/nvidia-geforce-amd-radeon-benchmark-test-2024/3/#abschnitt_gamingbenchmarks_in_1920__1080
Unverständlich wieso CB nicht endlich mal die 16GB-Version testet
Im ComputerBase Forum hat Wolfgang auf diese Frage geantwortet: sie haben einfach keine 4060 Ti mit 16 GB im Büro ;)
DrFreaK666
2023-12-18, 13:57:20
Die PCGH hatte meines Wissens nach auch kein Test-Sample erhalten
Yep, das war bei diesem Modell erstaunlich schwierig. Das PCGH-Muster kam auch über Umwege (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/Tests/Geforce-4060-Ti-16GB-Test-Benchmark-Release-8GB-vs-16GB-1424743/).
MfG
Raff
The_Invisible
2023-12-18, 17:07:02
Computerbase senkt die Setting weiter als PCGH die nutzen bei Alan Wake/Cyberpunk Balanced DLSS selbst in 1080p.
6800 XT = 4060 als extrem Beispiel.
https://i.ibb.co/2vtq8ZL/Screenshot-2023-12-18-124505.png (https://ibb.co/GW27sH1)
https://www.computerbase.de/2023-12/nvidia-geforce-amd-radeon-benchmark-test-2024/3/#abschnitt_gamingbenchmarks_in_1920__1080
CB bencht nicht mal mit max. Details in RT, ergänzt sich dann aber gut mit PCGH RT-Benches
][immy
2023-12-18, 23:59:56
CB bencht nicht mal mit max. Details in RT, ergänzt sich dann aber gut mit PCGH RT-Benches
Also zumindest ich bin froh wenn nicht immer max Details gebenched wird. Jemand mit einer Mainstream Karte legt es für gewöhnlich eh nicht drauf an immer voll auf zu drehen und da will man einfach mal wissen ob es überhaupt mal flüssig genug läuft ;)
Beide Testmöglichkeiten haben nun mal ihre Berechtigung. Zumal max Details häufig auch extrem viel Mehrleistung erforderlich macht ohne dabei optisch viel zu bringen. Das tut der Vergleichbarkeit halt auch nicht gut. Laut so manchen Webseiten und Foren im Netz könnte man glauben das man eine 4090 braucht um überhaupt noch spielen zu können.
Letzteres trifft nur zu, wenn man die fiesen PCGH-Settings mit den wilden Fps-Wünschen einiger Nutzer kombiniert. 4K mit Raytracing "maxed out" und nativ mit 120 Fps: guter Witz. Und dann sollen die Grafikkarten auch noch höchstens 250 Euro kosten. :D
MfG
Raff
vinacis_vivids
2024-01-14, 11:22:44
Mit dem neuen AFMF-Treiber dürfte die 7800XT mit FSR + AFMF oder HYPRX bei high-settings die 4K@120hz knacken. Insbesondere bei der Verbreitung von HDR-Fernseher ein lohnenswerte Überlegung.
Taigatrommel
2024-01-14, 11:30:33
Ja super, da ist die fps Anzeige und der Balken im dreistelligen Bereich, während sich das Spiel mit hohem Input Lag und schlechten Frametimes anfühlt, als würde man eine alte, stotternde Rostlaube auf den letzten Metern bewegen.
OgrEGT
2024-01-14, 11:50:38
Mit AFMF per Treiber ist erstmal der Anfang gemacht... v.a. rückwärts kompatibel bis RDNA2... Am 24.01. kommt der erste offizielle Treiber raus... ab dann schauen wir mal wie sich das weiterentwickelt bzgl. Basis FPS und Inputlag und Kombination mit FSR etc... Avatar macht da Hoffnung auch wenn FSR3 da im Spiel integriert wurde und FMF mit Anti-Inputlag läuft... Immerhin ist der Wille da die Technik auch für eine breitere Basis und auch offen für andere GPU Hersteller zu unterstützen...
vinacis_vivids
2024-01-14, 12:01:55
Ja super, da ist die fps Anzeige und der Balken im dreistelligen Bereich, während sich das Spiel mit hohem Input Lag und schlechten Frametimes anfühlt, als würde man eine alte, stotternde Rostlaube auf den letzten Metern bewegen.
Die Konkurrenz mit der 4070 12GB schafft sicherlich 1080p@120hz mit DLSS 5.5 :tongue:
Lurtz
2024-01-14, 12:05:51
Ja super, da ist die fps Anzeige und der Balken im dreistelligen Bereich, während sich das Spiel mit hohem Input Lag und schlechten Frametimes anfühlt, als würde man eine alte, stotternde Rostlaube auf den letzten Metern bewegen.
Bei DLSS FG hat man das auch noch so gesehen, jetzt plötzlich interessieren nur noch die durch AFMF verdoppelten FPS ;D
Aber allein aus dem Grund würde ich schon erwarten, dass nVidia das ebenfalls im Treiber anbieten wird...?
Ich habe bei meinem Sohn, welcher von einer 2070 kam und anderem System von 16GB DDR4 3600 und R7 5800, auf ne 7800XT mit 64GB DDR 5 und R9 7900x upgegradet. Er ist begeistert, auch weil AFMF mit dem letzten Treiber super zu funktionieren scheint. Er ist ein Hogwards und Online-Gamer und hat in seinem Universum nun immer 120FPS mit HQ und RT bei 1440p in jedem Game!
Aber allein aus dem Grund würde ich schon erwarten, dass nVidia das ebenfalls im Treiber anbieten wird...?
Darauf würde ich nicht wetten.
MfG
Raff
Ex3cut3r
2024-01-15, 07:52:46
Er ist ein Hogwards und Online-Gamer und hat in seinem Universum nun immer 120FPS mit HQ und RT bei 1440p in jedem Game!
Der war echt gut. X-D
Der war echt gut. X-D
Eigentlich kann ich mich auf seinen Aussagen schon verlassen.
dildo4u
2024-01-15, 11:34:42
Test mit neueren Games Avatar, Alan Wake2 etc.
Fast überall ist Upsampling in 1440p Pflicht selbst für Titel ohne PT schon brutal wie schnell das ging.
ry8OJTnMhKs
UVP der Radeon RX 7700 XT wird offiziell auf 459 Euro gesenkt (https://www.pcgameshardware.de/Radeon-RX-7700-XT-Grafikkarte-279842/News/Preissenkung-in-der-RDNA-3-Mittelklasse-1441625/).
Hoffentlich nähert sie sich somit der 400er-Marke an, womit sie erstmals attraktiv wird.
MfG
Raff
Advanced
2024-02-26, 15:56:36
Ist es normal, dass die 7700 XT so wenig Infos ausgibt?
Im Overlay sehe ich nichtmal die Vram Belegung.
Wenn ich mich recht erinnere, kannst du mit Strg+Shift+X die verfügbaren Optionen durchschalten. Da kriegst du nicht alles, was Afterburner, GPU-Z, Hwinfo etc. können, aber einiges.
MfG
Raff
Dino-Fossil
2024-02-26, 16:01:40
Kann man doch im Adrenalin Treibermenü alles aktivieren, oder?
Advanced
2024-02-26, 16:03:06
Danke, wusste ich nicht, aber funzt^^
Wobei Vram auch da nicht dabei ist. Das ist doch ne Standard Info :confused:
Kann man doch im Adrenalin Treibermenü alles aktivieren, oder?
Gerade gefunden, danke. War wohl blind...
Schnitzl
2024-04-30, 17:22:01
Also ich bin immer noch blind :freak:
Wo stelle ich denn das Power Target diese hammermäßigen 10% runter?
Im Moment läufts ganz ok, Diablo2R mit max 90fps im Spiel eingestellt, im Schnitt rund 160W.
Manchmal nur 120W, dann wieder ein Spike kurzzeitig 180W (bei Shenk :D )
dargo
2024-04-30, 22:56:56
Also ich bin immer noch blind :freak:
Wo stelle ich denn das Power Target diese hammermäßigen 10% runter?
Unter Leistung/Konfiguration.
OgrEGT
2024-05-01, 08:35:06
Jupp...
Power Tuning -> Enabled
Dann wird der Slider angezeigt.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=87998&stc=1&d=1714545285
Schnitzl
2024-05-02, 10:18:19
ah danke euch beiden :up:
Dachte zuerst es wäre das links, aber das hat gefühlt eigentlich gar nichts gebracht :rolleyes:
nur ganz kurz(!) getestet:
im Schnitt rund 160W[neu:150]. Manchmal nur 120W[neu:100], dann wieder ein Spike kurzzeitig 180W[neu:200 :freak: ]
naja besser als nix ;D
Showers
2024-06-09, 15:11:50
Die 7700 XT kann man aktuell für 339€ bei Galaxus inkl. ASUS Cashback kaufen. Was besseres bekomme ich bis 400€ nicht, oder?
DrFreaK666
2024-06-09, 15:35:20
Bis 400€ gäbe es noch einen 6800 mit 16GB für 389€, wenn du nichts gegen etwas ältere Hardware hast
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6800-SWFT-319-Core-Gaming-Aktiv-PCIe-4-0-x16--Retail_1420512.html
Die 7700XT ist laut CB allerdings etwas schneller (4% ohne RT, 8% mit RT (in 1440p)), allerdings hast dann 4GB weniger, aber auch wahrscheinlich längeren Treiber-Support
Insgesamt dürfte die RX 6800 das bessere Angebot darstellen, die 16 GiB kann man schon heute hier und da gebrauchen. Das mit dem Treiber-Support ist aber ein valider Punkt, denn RDNA 2 ist nun mal 3,5 Jahre alt, RDNA 3 erst 1,5. Ob das zu Lebzeiten ein Problem wird, erfahren wir in ein paar Jahren.
MfG
Raff
Die 7700 XT kann man aktuell für 339€ bei Galaxus inkl. ASUS Cashback kaufen. Was besseres bekomme ich bis 400€ nicht, oder?
Hört sich eigentlich nach Rausverkauf an. Komisch, da RDNA4 erst 2025 an den Start gehen soll. BTW. für 340€ bekommt man wohl nix besseres angeboten.
raffa
2024-06-10, 07:38:51
ah danke euch beiden :up:
Dachte zuerst es wäre das links, aber das hat gefühlt eigentlich gar nichts gebracht :rolleyes:
nur ganz kurz(!) getestet:
im Schnitt rund 160W[neu:150]. Manchmal nur 120W[neu:100], dann wieder ein Spike kurzzeitig 180W[neu:200 :freak: ]
naja besser als nix ;D
Bessere Methode zum Stromsparen: Stabiles Offset fürs Undervolting ausloten und den maximalen Chiptakt auf einen vernünftigen Wert begrenzen. Vernünftig ist es solange, bis die GPU das Saufen anfängt : )
Das Powerlimit kann man dann eigentlich ignonieren.
OgrEGT
2024-06-10, 08:25:31
Das Problem ist dabei nur dass die RDNA3 GPUs bei festem GPU Takt je nach Auslastung / Workload unterschiedlich viel Strom verbrauchen... man müsste den Vernunfttakt eigentlich bei jedem Spiel ausloten und per WM Profil hinterlegen...
Schnitzl
2024-06-10, 11:32:37
Bessere Methode zum Stromsparen: Stabiles Offset fürs Undervolting ausloten und den maximalen Chiptakt auf einen vernünftigen Wert begrenzen. Vernünftig ist es solange, bis die GPU das Saufen anfängt : )
Das Powerlimit kann man dann eigentlich ignonieren.
danke, so langsam finde ich alles - sehr schön welche Menge an Einstellmöglichkeiten geboten wird :up:
testweise hab ich jetzt mal die max Frequenz auf 80% und die Spannung auf 95%
Jetzt komme ich selbst bei 100% GPU Auslastung nichtmal mehr in die Nähe von 200W
Sehr gut der Sommer kann kommen :freak:
/EDIT @ OgrEGT
spiele gerade sowieso nur ein Spiel d.h. zum (kennen)lernen geht das
@ all
ich finde fps Begrenzung immer noch das schnellste und effektivste um die Watt deutlich zu reduzieren - wenn das Spiel das direkt anbietet. Nur möchte ich nicht unter 90fps, das wird spätestens bei Starfield ein Problem also kann ich jetzt schon mal üben....
raffa
2024-06-10, 14:02:21
Klar hängt das von der Anwendung ab, wieviel Watt die GPU zieht, allerdings finde ich, dass bei guter GPU Auslastung durchaus auch mehr gezogen werden darf.
Wer was schafft, der darf auch fressen, oder so ähnlich.
Was das herabsetzten des Maximaltakts verhindert, ist ein Arbeiten im ineffizienten (zu) hohen Taktbereich wo der Chip dann im Vergleich zur Mehrleistung unverhältnismäßig viel mehr verbraucht.
E39Driver
2024-06-12, 16:05:13
Insgesamt dürfte die RX 6800 das bessere Angebot darstellen, die 16 GiB kann man schon heute hier und da gebrauchen. Das mit dem Treiber-Support ist aber ein valider Punkt, denn RDNA 2 ist nun mal 3,5 Jahre alt, RDNA 3 erst 1,5. Ob das zu Lebzeiten ein Problem wird, erfahren wir in ein paar Jahren.
MfG
Raff
Mutmaßlich 2 - 3 Jahre längerer Treibersupport und jetzt das neu aufgelegte Spielebundle (Suche dir 2 aus 4 aktuellen Titeln aus) sind jedoch schon gute Gründe einer 7700/7800XT den Vorzug zu geben
Der 7800 XT sowieso, das ist spätestens mit den zwei Spielen ein Kein-Hirner. :) Die 7700 XT jedoch ... ich kann sie nicht uneingeschränkt empfehlen, 16 GiB sind einfach nützlich, gerade perspektivisch.
MfG
Raff
DrFreaK666
2024-06-12, 16:58:29
Nur wenn man die Spiele auch interessant findet.
Schnitzl
2024-06-26, 10:19:14
Hallo,
ich bin irgendwie total raus, nur noch Anwender seit Jahren ...
Wie teste ich denn auf Stabilität beim Undervolting?
Hab jetzt max Frequenz auf 85%
und Spannung auf 80%
bisher läufts bei max 150W :D
dildo4u
2024-06-26, 11:53:53
Einfach mit dem Games die du zockst was anderes macht imo kein Sinn.
Diverse Lastprogramme Hämmern z.b die GPU füllen aber nicht den Vram.
Exxtreme
2024-06-26, 12:06:32
Man kann nicht auf Stabilität testen da man Stabilität nicht beweisen kann. Man kann nur Instabilität beweisen. Das ist das Problem. Was ganz gut funktioniert ist der FF14 Benchmark:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=618189
Das Ding ist eine echte Diva wenn es um Instabilität/Scheinstabilität geht.
Schnitzl
2024-06-26, 12:23:03
danke euch beiden!
Gleich mal getestet, Resultat siehe Bild ;D
DrFreaK666
2024-06-26, 14:21:38
Passiert das auch ohne UV?
Schnitzl
2024-06-26, 15:48:14
ohne jedgliches Undervolting alles gut
1.
max Frequenz auf 85%
max Spannung auf 80%
--> Absturz
2.
max Frequenz auf 90%
max Spannung auf 90%
--> kein Absturz
/Edit: bezieht sich alles auf den FF14 Benchmark
die Einstellung 1 funktioniert im "normalen" Spiel wunderbar
Exxtreme
2024-06-26, 19:05:52
/Edit: bezieht sich alles auf den FF14 Benchmark
die Einstellung 1 funktioniert im "normalen" Spiel wunderbar
Dann hast du mit Einstellung 1 ein scheinstabiles System.
aufkrawall
2024-06-26, 19:24:02
Hier gehen nicht mal -50mV stabil in Fortnite. Das Curve-UV ist vom Prinzip her kompletter Müll. Je eher man sich damit abfindet, desto mehr Crashes noch nach Tagen, Wochen und Monaten kann man sich ersparen. Wer Effizienz will, muss Nvidia kaufen. Und wer etwas anderes erzäht, erzählt Müll. Ist manchmal wirklich so einfach.
x-force
2024-06-26, 23:13:32
Das Curve-UV ist vom Prinzip her kompletter Müll. Je eher man sich damit abfindet, desto mehr Crashes noch nach Tagen, Wochen und Monaten kann man sich ersparen. Wer Effizienz will, muss Nvidia kaufen. Und wer etwas anderes erzäht, erzählt Müll. Ist manchmal wirklich so einfach.
das ist bei den cpus genauso.
will man es positiv ausdrücken: amd beherrscht den prozess bei tsmc und geht dabei mit der internen kontrolllogik an die grenze des machbaren.
aufkrawall
2024-06-27, 10:54:00
Den Zusammenhang zu CPUs kann ich nicht erkennen, CO-UV geht auf zig CPUs problemlos.
dargo
2024-06-27, 11:20:36
das ist bei den cpus genauso.
will man es positiv ausdrücken: amd beherrscht den prozess bei tsmc und geht dabei mit der internen kontrolllogik an die grenze des machbaren.
Unsinn.
Wie schon aufkrawall sagt... bei CPUs Null Probleme. Beim 5800X3D sind mir sogar die nur max. -30 CO zu wenig weil die CPU u.U. mehr schafft. Auch das UV mit MPT bei RDNA2 ist großartig. Das UV bei RDNA3 ist einfach über den Treiber Müll. Und da RDNA3 zugenagelt ist...
ohne jedgliches Undervolting alles gut
1.
max Frequenz auf 85%
max Spannung auf 80%
--> Absturz
2.
max Frequenz auf 90%
max Spannung auf 90%
--> kein Absturz
/Edit: bezieht sich alles auf den FF14 Benchmark
die Einstellung 1 funktioniert im "normalen" Spiel wunderbar
Reine Prozentwerte ist kompletter Käse, das ist stochern im Dunkeln. Die tatsächlichen Frequenzen und Spannungen sowie Power und fps mitloggen (CapFrameX) und auf dieser Basis weiter testen. Aber wie gesagt... vom Wattman @RDNA3 nicht zu viel erwarten.
PS: bei Punkt 2 hast du mit hoher Wahrscheinlichkeit nicht mal UV drin sondern bewegst dich innerhalb der Stock V/F-Kurve. Genaueres erfährst du wie gesagt mit CapFrameX.
aufkrawall
2024-06-27, 12:53:30
Zum Glück juckt die Hellhound der Verbrauch nicht, 67°C 930rpm 300W bei 28°C im Raum. :biggrin:
x-force
2024-06-27, 13:22:18
Den Zusammenhang zu CPUs kann ich nicht erkennen, CO-UV geht auf zig CPUs problemlos.
natürlich "geht" es... dank clock stretching und unterschiedlichen lasten.
es wird jedoch szenarien geben, bei denen du mit nennenswertem co ins stretching kommst, weil amds default v/f kurve unter extremen bedingungen ziemlich on point ist.
aufkrawall
2024-06-27, 13:45:57
Wo gibts bei -30 CO Clock Stretching?
Ist außerdem das Gegenteil der UV-Problematik via WM. Clock Stretching würde Instabilität vermeiden.
Schnitzl
2024-06-28, 09:40:06
Reine Prozentwerte ist kompletter Käse, das ist stochern im Dunkeln. Die tatsächlichen Frequenzen und Spannungen sowie Power und fps mitloggen (CapFrameX) und auf dieser Basis weiter testen. Aber wie gesagt... vom Wattman @RDNA3 nicht zu viel erwarten.
PS: bei Punkt 2 hast du mit hoher Wahrscheinlichkeit nicht mal UV drin sondern bewegst dich innerhalb der Stock V/F-Kurve. Genaueres erfährst du wie gesagt mit CapFrameX.
du hast sicher Recht, aber ich möchte gar nicht so viel Aufwand betreiben, mir gehts nur darum die Hitze ein wenig zu reduzieren
Kann man sich auf das Overlay verlassen?
100/100 hab ich max ~200W
90/90 hab ich max ~175W
85/85 hab ich max ~160W
Das reicht mir eigentlich, bei 80/80 fühlt sichs im Spiel manchmal etwas hakelig an, also lass ich 85/85
dargo
2024-06-28, 11:42:45
du hast sicher Recht, aber ich möchte gar nicht so viel Aufwand betreiben, mir gehts nur darum die Hitze ein wenig zu reduzieren
Gut... in diesem Fall bleibt dir bei RDNA3 nichts anderes übrig als 1:1 in der V/F-Kurve runter zu gehen da bei nur max. -10% im Powerlimit Schluss ist.
aufkrawall
2024-06-28, 12:13:16
Ggf. nicht einmal das. Man verringert ja schon die maximale Spannung dadurch, indem man den maximalen Takt absenkt (schon ohne das zusätzliche Vddgfx-Offset). Wenigstens das sollte zusammen mit der PT-Reduzierung garantiert stabil sein.
dargo
2024-06-28, 14:01:34
Stimmt auch wieder, manchmal fehlt mir die grafische Darstellung im Treiber von RDNA1, das waren noch gute Zeiten mit Wattman. :tongue:
Schnitzl
2024-06-28, 17:22:01
Gut... in diesem Fall bleibt dir bei RDNA3 nichts anderes übrig als 1:1 in der V/F-Kurve runter zu gehen da bei nur max. -10% im Powerlimit Schluss ist.
die -10% sind sowieso eingestellt ;)
Finde es immer noch total behindert und schwachsinnig das auf 10% zu begrenzen - ist nicht nachvollziehbar...
aufkrawall
2024-06-28, 17:27:18
Ist es auch nicht. Unter Linux ging auch mit RDNA3 mal mehr, wurde dann aber an Windows angeglichen. Fanden die Nutzer niedrigerer PTs ganz toll...
Scheint irgendwie komplett willkürlich festgelegt zu sein. Wahrscheinlich genau wie die heimliche OC-Sperre der 7800 XT...
dargo
2024-06-28, 17:55:42
die -10% sind sowieso eingestellt ;)
Finde es immer noch total behindert und schwachsinnig das auf 10% zu begrenzen - ist nicht nachvollziehbar...
Es ist so vieles bei RDNA3 nicht nachvollziehbar. :freak: Deshalb passe ich auch bei dieser Generation. ;)
Es ist so vieles bei RDNA3 nicht nachvollziehbar. :freak: Deshalb passe ich auch bei dieser Generation. ;)
Dann kannste auch bei 8XXX passen und direkt zu nvidia wechseln. :freak:;D
aufkrawall
2024-06-28, 18:27:36
Du kannst bei Nvidia mit manueller Lüftersteuerung nicht mal Zero Fan aktiviert lassen, das geht nur mit fachkundigem Afterburner-Gefriemel. Gibt halt auch noch ein Leben außerhalb von DLSS und Stromverbrauch. Hatte vor ein paar Wochen wieder kurz eine 4070 drin, einfach nur kompletter Ekel-Faktor im System. Ruckel, ruckel, ruckel, nerv...
"Fachkundig" ist glaube ich jeder hier, bzw. setze ich das einfach voraus. :smile:
Aber ich werde jetzt nicht den Thread hijaken um Grüne Themen zu besprechen.
dargo
2024-06-28, 19:29:20
Dann kannste auch bei 8XXX passen und direkt zu nvidia wechseln. :freak:;D
Ich kaufe nichts von Nvidia, wie oft denn noch?
Du kannst bei Nvidia mit manueller Lüftersteuerung nicht mal Zero Fan aktiviert lassen, das geht nur mit fachkundigem Afterburner-Gefriemel. Gibt halt auch noch ein Leben außerhalb von DLSS und Stromverbrauch. Hatte vor ein paar Wochen wieder kurz eine 4070 drin, einfach nur kompletter Ekel-Faktor im System. Ruckel, ruckel, ruckel, nerv...
Eigentlich läuft meine 4090 problemlos, aber es gesellt sich immer ein neuer Bug ein. Mit dem letzten Treiber ist hier YT im Vollbild komplett abgeschmiert, was reproduktiv in einem Restart endete, nun läuft F1 24 nur noch im Borderless-Modus? Die Treiber sind ein Graus!
downforze
2024-08-27, 13:20:00
Bei meiner Asus Dual 7800 XT bin ich erstaunt, wie wenig sich die Leistungsaufnahme reduzieren lässt. Spannung auf 1,05 V, Takt auf 2500 Mhz begrenzt und VRAM auf 2564 (wegen 14 Mhz Offset). Dazu die Leistungsaufnahme auf -6% (weniger lässt sich nicht einstellen).
Unter 220-225 W bekomme ich sie bei voller Auslastung trotzdem nicht. Das ist enttäuschend.
Das andere Extrem war die Übertaktung. Bei +15% Leistungsaufnahme und 2700 Mhz nahm das Ding 310 W.
aufkrawall
2024-08-27, 13:23:52
Eingestellte 2,5GHz sind mitunter noch nicht reduzierter Takt, ich hatte damit in afair diversen Spielen die gleichen angezeigten ~2,54GHz gesehen wie mit eingestellten 2,7GHz.
Auf der 7800 XT gibts offenbar eher einen Fakeman denn Wattman. :freak:
Nicht vergessen, die vom Sensor gemeldete Vddgfx im Auge zu behalten. Reduzierter Takt reduziert ja auch das Maximum, aber dafür muss ggf. der Takt auch erstmal anfangen tatsächlich (ausgelesen) zu sinken...
Schnitzl
2024-08-27, 13:49:05
Bei meiner Asus Dual 7800 XT bin ich erstaunt, wie wenig sich die Leistungsaufnahme reduzieren lässt. Spannung auf 1,05 V, Takt auf 2500 Mhz begrenzt und VRAM auf 2564 (wegen 14 Mhz Offset). Dazu die Leistungsaufnahme auf -6% (weniger lässt sich nicht einstellen).
Unter 220-225 W bekomme ich sie bei voller Auslastung trotzdem nicht. Das ist enttäuschend.
Das andere Extrem war die Übertaktung. Bei +15% Leistungsaufnahme und 2700 Mhz nahm das Ding 310 W.
ich weiss ja nicht wieviel fps du willst bzw. hast
brachte bei mir am Meisten (im Spiel einstellen wenn möglich nicht im Treiber!)
z.B. 144 oder 120 ... testweise 90 du wirst erstaunt sein
downforze
2024-08-27, 14:18:14
144 Hz hat der Monitor. 140 fps habe ich im Treiber limitiert.
Die Spannung der GPU geht in der Praxis auf maximal 980 mV. Das zeigt zumindest das Radeon Overlay an.
Schnitzl
2024-08-28, 08:01:01
hast du mal getestet ob eine Reduzierung auf 120fps max was bringt?
downforze
2024-10-22, 14:51:33
hast du mal getestet ob eine Reduzierung auf 120fps max was bringt?
Die Hz vom Monitor will ich schon nutzen. 120 fps werden sicherlich etwa 15 W ausmachen. Ich habe die GPU-Frequenz jetzt auf 2500 Mhz beschränkt und nur den VRAM übertaktet. Da bin ich in der Praxis vielleicht 10% über dem Verbrauch der 4070 non Super. Das ist absolut vertretbar.
Wenn die Presse RDNA3 nicht permanent torpediert hätte, würden die Anteile auch etwas höher liegen.
dildo4u
2024-10-22, 14:56:58
Es gab die 6800 lange für 400€, die 7700XT bietet da keine guten Argumente.
Die RX 6800 gibt’s nach wie vor bei Mindfactory für 389 Euro: https://preisvergleich.pcgameshardware.de/xfx-speedster-swft-309-radeon-rx-6800-core-gaming-rx-68xlaqfd9-a2579721.html?v=l&hloc=de
Wirklich kurios, dass die nicht längst ausverkauft ist.
MfG
Raff
downforze
2024-10-22, 15:58:39
Die RX 6800 gibt’s nach wie vor bei Mindfactory für 389 Euro: https://preisvergleich.pcgameshardware.de/xfx-speedster-swft-309-radeon-rx-6800-core-gaming-rx-68xlaqfd9-a2579721.html?v=l&hloc=de
Wirklich kurios, dass die nicht längst ausverkauft ist.
MfG
Raff
Ich hätte da auch lieber die 7700 XT genommen, 4 GB VRAM hin oder her.
raffa
2024-10-22, 22:57:57
Man will halt auch kurz vor Release der next gen kein vorletzt-gen mehr kaufen. Hätte ich ne 6800 dann würd mir die reichen, aber jetzt noch eine kaufen für ~400€, ne.
RDNA4 verspricht eine gute Raster/RT Balance, gut auf den Punkt gebautete Karten zu OKen Preisen und darauf wart ich jetzt und wahrscheins viele andre auch.
Ex3cut3r
2024-10-23, 07:09:23
Sehe ich genauso, die Arch ist von 2020. Also 4+ Jahre alt. Und stinkt oft schon in neueren Games etwas ab.
downforze
2024-10-23, 07:49:44
Man will halt auch kurz vor Release der next gen kein vorletzt-gen mehr kaufen. Hätte ich ne 6800 dann würd mir die reichen, aber jetzt noch eine kaufen für ~400€, ne.
RDNA4 verspricht eine gute Raster/RT Balance, gut auf den Punkt gebautete Karten zu OKen Preisen und darauf wart ich jetzt und wahrscheins viele andre auch.
Hast du da Infos? Ich habe quasi noch nicht mal was aus der Gerüchteküche gesehen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.