Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7700 XT & 7800 XT Review-Thread
Leonidas
2023-09-06, 14:57:38
Radeon RX 7700 XT
- Navi 32
- 54 Shader-Cluster
- 48 MB Infinity Cache
- 192 Bit Speicherinterface
- 12 GB GDDR6
- 245W TDP
- Listenpreis $449 bzw. 489€
Radeon RX 7800 XT
- Navi 32
- 60 Shader-Cluster
- 64 MB Infinity Cache
- 256 Bit Speicherinterface
- 16 GB GDDR6
- 263W TDP
- Listenpreis $499 bzw. 549€
beiderseitiger Launch & Verkaufsstart: 6. September 2023
Listen der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/amd-radeon-rx-7700-xt-7800-xt-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/162361/amd-radeon-rx-7800xt-rx-7700xt-graphics-cards-review-roundup)
#1: AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070? (https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/)
#2: AMD Radeon RX 7700 XT im Test: Besser als die RTX 4060 Ti für unter 500 Euro? (https://www.pcgameshardware.de/Radeon-RX-7700-XT-Grafikkarte-279842/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4060-Ti-1428327/)
EfiK6gCT-Js
cfcXrlcSb74
MfG
Raff
Troyan
2023-09-06, 15:12:21
7800XT finde ich in Ordnung. Aber die 7700XT? Gleicher Verbrauch, aber 15% weniger Leistung?!
Gleicher Verbrauch? Nope. Aber schwächere Effizienz.
MfG
Raff
Troyan
2023-09-06, 15:15:56
In Doom wohl schon: https://www.computerbase.de/2023-09/amd-radeon-rx-7700-xt-rx-7800-xt-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop
Hängt aber wohl auch davon ab, wie bandbreitenlimitiert die Spiele sind. Kitguru hat mehrere Messungen aus den Spielen. In AC:Valhalla wäre die 7700XT wohl deutlich effizienter: https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7800-xt-review/34/
In einigen Spielen sind es 40W bis 60W mehr für die 7800XT, in anderen gerade mal 15W oder Gleichstand.
dildo4u
2023-09-06, 15:21:30
x4TW8fHVcxw
8qBQ0eZEnbY
Exxtreme
2023-09-06, 15:22:43
Die 7800 XT ist die interessantere Karte. Die 7700 XT pfeift aus dem letzten Loch und zieht viel zu viel Strom für die gebotene Performance. Ansonsten bringt RDNA3 ggü. RDNA2 bei der RT-Leistung ~8% mehr. Das ist schon sehr wenig was AMD real auf die Straße bringen kann.
Troyan
2023-09-06, 15:25:57
Gehe ich nach Computerbase, ist die 7800XT vielleicht knapp 2x schneller als die 7600. Mit 200mm^2 5nm und 120mm 6nm ist das teurer in der Herstellung als ein ~400mm^2 6nm Chip.
Kein Wunder, dass AMD kein wirkliches Interesse hatte früher zu veröffentlichen.
Linmoum
2023-09-06, 15:30:29
Vollkommen sinnloses Produkt die 7700XT. Die 7800XT ist an sich ok, aber der "Fortschritt" vs. RDNA2 ist trotzdem einfach nur albern.
aufkrawall
2023-09-06, 15:31:49
Btw. wie schon bei der 7600 neuer Treiber-Branch nur für die neuen Karten, die alten Kernen werden also mit weniger Verbesserungen getestet...
#whiteknightamd
The_Invisible
2023-09-06, 15:34:23
Wie viele wohl von 6800XT auf 7800XT "aufrüsten" :freak:
Hakim
2023-09-06, 15:35:26
Karten die sich praktisch nicht von ihren Vorgängern absetzen können, nach über 2 Jahren, sei es die 4060ti oder wie hier die 7800xt sind mMn fail. Und eine mögliche Falle für alle die sich nicht ausgiebig informiert haben und nur nach Namen gehen
GerryB
2023-09-06, 15:35:56
Wie viele wohl von 6800XT auf 7800XT "aufrüsten" :freak:
AMDer wechseln net so oft die Schlüpper.
5700 und 5700XT - Aufrüster werden schon mit N32 klar kommen.
Ein bisschen Geduld kann beim Kauf der 7700xt net schaden.
OCing ist durchwachsen, braucht vllt. ein paar Reviews+User mehr: siehe Anhang 1
Performance ist generell vom Game abhängig, um ggü. RDNA2 gut da zu stehen. siehe Anhang2
(= 7600 reloaded)
Pumpi74
2023-09-06, 15:40:41
Das ist so als wenn sie für nen Dacia Sandero den gleichen Preis haben wollen wie für nen Polo. Haben ja beide 4 Räder, was soll bei der Preisgestaltung schon schief gehen ?
Leonidas
2023-09-06, 15:54:04
Zumindest funktioniert die Preislage: Beide Karten zur versprochenen UVP erhältlich.
Troyan
2023-09-06, 15:55:26
Starfield vs. Ratchet:
SF: https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7800-xt-review/20/
Ratchet: https://www.kitguru.net/components/graphic-cards/dominic-moass/amd-rx-7800-xt-review/26/
Ob sich AMD mit Starfield Freude gemacht hat? Wenn Low-FPS in 1080p akzeptabel sind, kann man auch gleich mit Raytracing only benchen.
DozerDave
2023-09-06, 16:00:39
Letzteres wurde doch mit RT gebencht. Das ist ja über 1080p unspielbar.
perforierer
2023-09-06, 16:03:34
Vollkommen sinnloses Produkt die 7700XT. Die 7800XT ist an sich ok, aber der "Fortschritt" vs. RDNA2 ist trotzdem einfach nur albern.
Habe bisher nur die CB und PCGH Tests gesehen. Sehe es aktuell genau andersrum: die 7700XT sieht für den Preispunkt doch recht gut aus, wenn man die 4060TIivergleicht (wobei die RT Leistung natürlich nicht das Wahre ist und ich nicht verstehe, dass CB nicht die 16GB Version gebencht hat).
Sehe keinen Grund die 7800XT zu kaufen, wenn man für 40-50 Euro mehr ne 4070 bekommen kann mit deren RT Leistung und DLSS...
Der_Korken
2023-09-06, 16:03:57
Gehe ich nach Computerbase, ist die 7800XT vielleicht knapp 2x schneller als die 7600. Mit 200mm^2 5nm und 120mm 6nm ist das teurer in der Herstellung als ein ~400mm^2 6nm Chip.
Kein Wunder, dass AMD kein wirkliches Interesse hatte früher zu veröffentlichen.
Weiß nicht, ob das wirklich so ein Problem ist. Kleinere Chips nutzen die Waferfläche besser aus und haben bessere Yields. Das Problem dürften wohl eher die Packaging-Kapazitäten sein. Und ein reiner 6nm-Chip hätte noch mehr Verbrauch, d.h. hier wäre die Effizienz gegenüber N21 schlimmstenfalls sogar rückläufig gewesen.
Vollkommen sinnloses Produkt die 7700XT. Die 7800XT ist an sich ok, aber der "Fortschritt" vs. RDNA2 ist trotzdem einfach nur albern.
Der Chip sieht halt so aus, als würde der schon über ein halbes Jahr auf Halde liegen und AMD released ihn halt erst jetzt. Null Verbesserungen gegenüber N31, die Effizienz ist sogar gesunken und das bei niedrigeren Taktraten. Das muss man auch erstmal schaffen. Es hat sich leider abgezeichnet: Erst kam die 7900GRE, die eine N32-Performance auf 6900XT-Niveau zunichte gemacht hat. Und dann die Präsi mit 263W TDP, die die Hoffnung auf einen effizienten Chip zunichte gemacht hat.
Die 7700XT ist insofern logisch, als dass sie AMD erlaubt die Herstellungskosten zu drücken. Ein kleiner 200mm²-Chip wird wohl kaum Ausschuss haben, der über 90% (=54CUs) der Recheneinheiten hinausgeht. Das kleine SI bremst zwar die GPU aus, aber die Karte wird wenigstens billiger. Mit 48CUs aber 256bit SI wäre die 7700XT auch nicht schneller, aber quasi genauso teuer in der Herstellung wie die 7800XT.
Ich hatte nach dem 7900XTX-Release noch gesagt, dass ich auf einen Pitcairn-Moment hoffe, wo eine vermeintlich kleine 7870 sich extrem gut gegen eine 7950 geschlagen hat. Vor allem, weil die Namen auch so gut gepasst hätten. Jetzt haben wir es schwarz auf weiß, dass die Generation von AMD schon lange abgehakt ist.
Edit:
Habe bisher nur die CB und PCGH Tests gesehen. Sehe es aktuell genau andersrum: die 7700XT sieht für den Preispunkt doch recht gut aus, wenn man die 4060TIivergleicht (wobei die RT Leistung natürlich nicht das Wahre ist und ich nicht verstehe, dass CB nicht die 16GB Version gebencht hat).
Sehe keinen Grund die 7800XT zu kaufen, wenn man für 40-50 Euro mehr ne 4070 bekommen kann mit deren RT Leistung und DLSS...
Preise sind letztlich nur ein Federstrich. Technisch ist die 7700XT ziemlich schwach. Dass eine 245W-Karte eine 150W-Karte schlägt sollte man erwarten können. Die knapp 3 Jahre alte 6800 ist genauso schnell, verbrauch genauso viel/wenig Strom und hat 4GB VRAM mehr. Null Fortschritt.
Troyan
2023-09-06, 16:10:02
Letzteres wurde doch mit RT gebencht. Das ist ja über 1080p unspielbar.
Ja, deswegen habe ich auf Ratchet mit Raytracing verwiesen. Die 4070 schafft 74 FPS mit Raytracing, aber nur 61 FPS in Starfield ohne Raytracing.
Die 7800XT erreicht 78 FPS in Starfield, aber nur 44 FPS in Ratchet.
Linmoum
2023-09-06, 16:21:43
Weiß nicht, ob das wirklich so ein Problem ist. Kleinere Chips nutzen die Waferfläche besser aus und haben bessere Yields. Das Problem dürften wohl eher die Packaging-Kapazitäten sein. Und ein reiner 6nm-Chip hätte noch mehr Verbrauch, d.h. hier wäre die Effizienz gegenüber N21 schlimmstenfalls sogar rückläufig gewesen.
Der Chip sieht halt so aus, als würde der schon über ein halbes Jahr auf Halde liegen und AMD released ihn halt erst jetzt. Null Verbesserungen gegenüber N31, die Effizienz ist sogar gesunken und das bei niedrigeren Taktraten. Das muss man auch erstmal schaffen. Es hat sich leider abgezeichnet: Erst kam die 7900GRE, die eine N32-Performance auf 6900XT-Niveau zunichte gemacht hat. Und dann die Präsi mit 263W TDP, die die Hoffnung auf einen effizienten Chip zunichte gemacht hat.
Die 7700XT ist insofern logisch, als dass sie AMD erlaubt die Herstellungskosten zu drücken. Ein kleiner 200mm²-Chip wird wohl kaum Ausschuss haben, der über 90% (=54CUs) der Recheneinheiten hinausgeht. Das kleine SI bremst zwar die GPU aus, aber die Karte wird wenigstens billiger. Mit 48CUs aber 256bit SI wäre die 7700XT auch nicht schneller, aber quasi genauso teuer in der Herstellung wie die 7800XT.Wenn man sich jetzt die Realität anschaut, dann wird ja auch ziemlich deutlich, warum N32 erst 9 Monate nach N31 erscheint: Zu viel N21 auf Lager, die abverkauft werden müssen und N32 wiederum kann N21 schlicht performancetechnisch nicht überbieten. Logische Folge ist dann halt, dass man N21 erst loswerden will, bevor man N32 auf den Markt wirft.
AMD wird irgendwann bei der Entwicklung schon selbst gemerkt haben, dass N32 in dieser Konfiguration ein eigentlich komplett überflüssiger Chip ist. Vielleicht hatte AMD auch vormals schlicht damit gerechnet, dass die Preise andere sind als heute. Ich finde Herkelmans Aussage in seinem Interview von vor ein paar Tagen eigentlich schon bezeichnend:
The price could always be cheaper on a GPU, but if we don’t make money, then it’s hard to make a roadmap. $50 at this level is a good price gap, and we’ll have to see how it plays out in the market. We tried to go super-aggressive on pricing, but at the same time, we’re a company and have to make money.
Ob die ganzen Entwicklungskosten für N32 (+ die reinen Fertigungskosten inkl. Packaging) am Ende günstiger sind, als wenn AMD einfach N21 im +-500€-Bereich hätte weiterlaufen lassen, wie das ja schon quasi seit >6 Monaten der Fall ist? Keine Ahnung. Frage ich mich, je mehr ich von N32 sehe, jetzt umso mehr, ob man nicht einfach N21 hätte weiterlaufen lassen sollen und sich den ganzen Aufwand komplett sparen. Wobei wir ggf. wieder bei dem anderen Thema sind, was wir ja bei N31 schon hatten: AMD hatte höhere Performanceziele (aufgrund deutlich höherem Takt, whatever), die real dann aus irgendwelchen Gründen nicht möglich waren. Und so hat man halt N32 in seiner heutigen Form bekommen.
Aber unabhängig von N32 habe ich mittlerweile immer mehr Angst und Bedenken, dass sie auch bei einem Thema wie RT komplett den Anschluss verlieren und selbst von Intel auf absehbare Zeit kassiert werden. Da brauchen die üblichen Verdächtigen auch nicht wieder mit "wen interessiert RT? Ich nutze das erst, wenn der Nutzen aus Optik/Performance passt"-Schallplatten ankommen. Bei Nvidia habe ich mit DLSS SR eine qualitativ hochwertige Technik sowie mit Frame Gen - sofern nötig - ein zusätzliches Mittel, die Performance zu steigern. Ist kein Allheilmittel, aber es funktioniert gut und wird in vielen Spielen Vorteile bringen bzw. tut es schlicht jetzt schon. Mit DLSS 3.5 RR steht schon der nächste Schritt in der Pipeline an, der zeitnah Einzug in erste Spiele finden wird.
Ich weiß echt nicht, was AMD all die Jahre gemacht hat, dass der Fortschritt bei RT (wo man schon zuvor am rumkrüppeln war) sich in lächerlichem einstelligen Prozentbereich bewegt. Haben die, statt ihre Architektur mal entsprechend fit zu machen, lieber die ganze Zeit Blackjack gespielt, oder was? :freak:
N32 macht es nicht einfacher, AMD-GPUs zu empfehlen, es sei denn, jemand will auf Teufel komm raus unbedingt eine Radeon haben. Warum auch immer man das aktuell wollte, wenn man ganz nüchtern und objektiv den Markt aktueller Grafikkarten betrachtet.
maximus_hertus
2023-09-06, 16:23:46
Im Prinzip wie erwartet.
Wenn man von der dämlichen Namenswahl absieht und nur die Zahlen sich anschaut, sieht es doch grob so aus:
Ultimative Performance, keine Kompromisse: 4090 für 1600+ Euro
Top-Performance, fast keine Kompromisse: 4080 für 1100+ Euro, imo würden 999 Euro psychologisch echt gut tun, so wirkt es etwas "meh"
Die 7900XTX ist nicht weit weg, aber overall das schwächere Produkt, trotz etwas günstigerem Preis
4070 Ti - für 900+ Euro zu viele Kompromisse (12GB für knapp 1000 Euro sind meh)
4070 für knapp 600 Euro ist solide. Sehr gute Effizienz, gute RT Performance, solide Rasterperformance, Top Featureset.
Die 7800XT führt bei Raster und hat 16GB und den besseren Preis, die 4070 hat RT, Features und Effizienz. Overall fällt es mir da echt schwer einen klaren Gewinner zu küren.
Die 4060 Ti 16GB bietet durchgehend solide Performance, auch mit RT sowie das Featureset und Effizienz. Aber 470+ Euro sind für dieses Performancelevel dann irgendwie meh.
Gerade bei Raater (immer noch recht wichtig) teils sehr deutlich hinten dran.
Die 7700XT sieht bei Raster richtig gut aus (vs 4060 Ti), aber RT dann wieder eher hinten, dazu einen dicken NEgativpunkt bei der Effizienz. Und die 490 Euro sind auch nciht attraktiv und zu nah an 7800XT und 4070 dran.
Wenn man nur 4060 Ti 8G vs 7700XT vergleicht, lautet der Sieger 7700XT
Wenn man jedoch 4060 Ti 16G vs 7700XT vergleicht, wird es etwas schwieriger. Reine fps liegt die 7700 eher vorne, aber die 16G 4060 Ti bietet konstant die LEsitung (auch bei RT) und das komplettere Featureset plus Effizienz. Tendenz 4060 Ti. Aber kein klarer Sieg, sondern Luft und Argumente für beide.
7700XT vs RTX 4070 --> beide 12GB, die 4070 ist jedoch bei den fps immer besser und bei RT teils dramatisch weit vorne. Zusätzlich die Effizienz und Features. Der Aufpreis lohnt sich also und man greift direkt zur 4070.
7700XT vs 7800XT --> Tjo, hier sieht es für die 7700XT nicht toll aus. Die 7800XT kostet nur 12% mehr, bietet aber eher 20% mehr fps, 16GB VRAM, bessere Effizienz, besseres Paket. Bei 12% PReisdifferenz spricht eigentlich nicht wirklich was für die 7700XT.
Fazit: Bei Karten im Bereich von 400 - 600 Euro muss man Kompromisse eingehen. Mal mehr, mal weniger, aber immer irgendeine größere Sache, die wurmt. Am ehesten ragt da die 4060 Ti 16G heraus, die immer noch nur beim Preis nicht gut genug aufgestellt ist.
Eigentlich wäre es so "einfach" --> 4070 mit 16GB für 649-699 Euro und es gäbe keine wirkliche Debatte.
Das es so eine KArte nicht geben konnte bzw. die Planungen für die aktuellen Specs zu weit fortgeschritten waren, um da noch was anzupassen, ist einfach schade.
JonSnow
2023-09-06, 16:23:55
Die 7800XT ist für mich, der seit Jahren keine mehr gekauft hat, optimal.
16GB, weniger Stromverbrauch wie die 6800XT und minimalst schneller.
Der_Korken
2023-09-06, 16:36:07
@Linmoum:
Sehe das ähnlich. Der Grund, warum N32 trotzdem verkauft ist, dass er nunmal entwickelt wurde. Dass er an N21 nicht vorbeikommt, hat man erst bemerkt, als man die größte Zeche schon gezahlt hat. Es macht schon Sinn N32 im Markt zu haben, weil er durch seine Matrix-Instruktionen und Dual-Issue-SPs in Zukunft mehr profitieren wird als N21, z.B. falls FSR mal auf NNs umgestellt wird und das auf RDNA2 und kleiner dann nicht mehr gewinnbringend läuft. Dass N32 dennoch so spät kam, dürfte wie du schon sagst größtenteils an N21 gelegen haben. Wäre der Chip 9 Monate später fertig geworden als N31, würde er ootb mit 3Ghz laufen und auf oder über 6950XT-Niveau laufen bei max. 250W.
Und ja, dass AMD technologisch immer weiter zurückfällt, finde ich auch bedenklich. Die fehlenden BVH-Einheiten sehe ich nicht so kritisch. Mit RDNA4 wird AMD diese liefern und zu Nvidia/Intel aufschließen. Auch Ada läuft hier nicht mit Magie, denn in den RT-Schleudern ist der relative Performance-Einbruch durch RT bei Ada und Alchemist sehr ähnlich. Und was Intel in ihren GPUs schafft, bekommt AMD auch hin.
Was viel schwerer wiegt, ist der Rückstand bei der Software. Nicht so sehr, weil AMD diese nicht irgendwann nachliefern kann, als vielmehr weil sie auf die Unterstützung der Spiele-Entwickler angewiesen sind. Würde AMD z.B. in einem Jahr einfach FG und Ray-Reconstruction per Treiber-Update liefern und es würde in allen Spielen laufen, wo es bis dahin bei Nvidia läuft, wäre ja alles gut. Aber nein, erst wenn AMD es bringt, können Spiele anfangen es zu implementieren. Alles was bis dahin erscheint, wird diese Features nur für Nvidia liefern und für AMD nicht nachreichen. Selbst danach ist fraglich wie groß der Support ausfällt, denn DLSS gibt es in gefühlt jedem Spiel, aber FSR nicht. Bei einer Marktverteilung von 80:20 entscheiden sich Entwickler eben nicht im Verhältnis 80:20 für DLSS, falls sie sich aus Zeitgründen entscheiden müssen. Sie werden eher 99:1 zu wählen, weil jeder Entwickler das Feature nimmt, was den größten Kundenkreis hat. Hier muss AMD schleunigst ein Bein auf die Erde bekommen, sonst wird der Teufelskreis immer schlimmer.
dargo
2023-09-06, 16:50:25
Die 7800XT ist für mich, der seit Jahren keine mehr gekauft hat, optimal.
16GB, weniger Stromverbrauch wie die 6800XT und minimalst schneller.
Ja... aber auch nur wenn man die beiden von AMD gewählten Betriebspunkte wählt. Beim UV und einen Powerlimit von sagen wir mal 200-225W würde es mich nicht mal überraschen wenn die 6800XT leicht vorne liegt oder zumindest Gleichstand. Was für ein Stillstand. X-D Bei Teillast dürfte die 6800XT vor der 7800XT rauskommen bei Perf/W.
perforierer
2023-09-06, 16:58:31
Preise sind letztlich nur ein Federstrich. Technisch ist die 7700XT ziemlich schwach. Dass eine 245W-Karte eine 150W-Karte schlägt sollte man erwarten können. Die knapp 3 Jahre alte 6800 ist genauso schnell, verbrauch genauso viel/wenig Strom und hat 4GB VRAM mehr. Null Fortschritt.
Bin da durchaus bei Dir: Insbesondere die Leistungsaufnahme ist in der Tat enttäuschend. Und die 6800 hat ja auch 4 GB mehr Speicher, wie man im Forza Horizon 5 Rasterizer Bench bei PCGH gut sieht: Da ist die 6800 schneller. Ansonsten sehe ich zwischen 5 und 20% Vorsprung der 7700XT im Rasterizing.
@maximus_hertus:
Schön zusammengefasst!
sun-man
2023-09-06, 17:02:27
#1: AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070? (https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/)
#2: AMD Radeon RX 7700 XT im Test: Besser als die RTX 4060 Ti für unter 500 Euro? (https://www.pcgameshardware.de/Radeon-RX-7700-XT-Grafikkarte-279842/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4060-Ti-1428327/)
MfG
Raff
Vielleicht darf ich das mal so fragen. Mich stört das Stromsaufen der AMD Karten, auch wenn mir die 7800XT gefällt. Tritt das nur auf wenn man FullScreen schaut, oder ist das ebenso vorhanden wenn man YT öffnet und Videos anklickt und diese im Kinomode schaut?
BlacKi
2023-09-06, 17:04:39
mhh, was ist wohl teurer. 200mm² 5nm+ 146mm² 6nm oder 520mm² 7nm und leicht schneller? wo ist der fortschritt?
die chips werden kleiner, aber man bekommt weder mehr leistung noch wird die karte günstiger. aber immerhin 40w weniger.
War klar, dass das in großen Tests untergeht - Next-Gen Raytracing-Benchmarks. Checkt die mal: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/#a1 :naughty:
MfG
Raff
Troyan
2023-09-06, 17:13:00
Wenn 5nm fast doppelt so teuer ist als 7nm, was erwartest du? Wenn die Architektur dann keine IPC oder Taktverbesserungen liefert, produziert die selbe Leistung bei halber Größe und bisschen weniger Verbrauch.
nVidia hat mit Lovelace 40% mehr Takt erreicht beim selben Verbrauch. Das hätte AMD eben auch schaffen oder die IPC und Takt um ca. jeweils 18% steigern müssen.
/edit:
War klar, dass das in großen Tests untergeht - Next-Gen Raytracing-Benchmarks. Checkt die mal: https://www.pcgameshardware.de/Radeon-RX-7800-XT-Grafikkarte-279841/Tests/Release-Preis-kaufen-Specs-Benchmarks-RTX-4070-1428245/3/#a1 :naughty:
MfG
Raff
Da fehlt DESCODRE mit Pathtracing. Auch ist es falsch Immortals in die selbe Kategorie zu packen, weil es kein HW-Lumen verwendet.
perforierer
2023-09-06, 17:14:57
Jo, die sind heftig. Da strahlt selbst die 4060TI mit 16GB.
Da fehlt DESCODRE mit Pathtracing. Auch ist es falsch Immortals in die selbe Kategorie zu packen, weil es kein HW-Lumen verwendet.
Da fehlt nix - der erste Pathtracing-Leistungsindex kommt dann in ~5 Jahren. ;) Bis dahin ist die Selektion das Anspruchsvollste, was geht, auch in Sachen VRAM.
MfG
Raff
aufkrawall
2023-09-06, 17:28:30
Takt soll hart bei 2,85GHz gelockt sein. Wäre ein weiterer richtiger Dick-Move dieser Firma...
Troyan
2023-09-06, 17:29:54
Da fehlt nix - der erste Pathtracing-Leistungsindex kommt dann in ~5 Jahren. ;) Bis dahin ist die Selektion das Anspruchsvollste, was geht, auch in Sachen VRAM.
MfG
Raff
Warum sollte man Pathtracing in dem Spiel nicht testen?
GerryB
2023-09-06, 17:41:29
Ich glaube net an eine feste Taktobergrenze, könnte Raff ja mal schnell in Starfield@high FSR2-50% anschauen.
Da sollte doch mehr OCen drin sein, weil das Game so sparsam ist.
ansonsten:
Man sollte net vergessen, das der 4070 beizeiten der Vram ausgehen wird.
30Games@4k siehe Anhang
sun-man
2023-09-06, 17:54:05
Man sollte net vergessen, das der 4070 beizeiten der Vram ausgehen wird.
30Games@4k siehe Anhang
Naja, das VRam Geheule....dann dreht man eben die nicht sichtbaren Schatten von Ultra auf High und das Gras evtl auch. Das kann doch eh keiner unterscheiden. Der einen geht der VRAM aus, der anderen die Leistung.
Ich möchte nochmal fragen. Ist die Stromsauferei mit YT auch vorhanden wenn man den Kinomode benutzt? Also nicht im Fullscreen.
GerryB
2023-09-06, 17:57:31
Ich spiele eher selten YT.
Ich glaube net an eine feste Taktobergrenze, könnte Raff ja mal schnell in Starfield@high FSR2-50% anschauen.
Da sollte doch mehr OCen drin sein, weil das Game so sparsam ist.
ansonsten:
Man sollte net vergessen, das der 4070 beizeiten der Vram ausgehen wird.
30Games@4k siehe Anhang
Beides keine 4K Karten. Von meiner Seite aus alles richtig gemacht. Was interessiert mich, wenn in 2+ Jahren der VRAM knapp wird. Dafür habe ich zwei Jahre mehr Spaß mit Raytracing, was mittlerweile wirklich einen Unterschied macht.
Wenn ich mir die Performance von Starfield anschaue, entfällt auch der Grund AMD zu kaufen. Hoffentlich läuft es in vier Jahren besser.
VfBFan
2023-09-06, 18:09:53
AMDer wechseln net so oft die Schlüpper.
5700 und 5700XT - Aufrüster werden schon mit N32 klar kommen.
Nope. Meine 5700 bleibt drin. Der Mehrbrauch ist einfach absurd. Effizienz zählt wohl nicht mehr.
GerryB
2023-09-06, 18:23:51
Deine 5700 käme u.U. gar net auf 144fps in WQHD beim CB-Test.
Wie willst Du da den Unterschied feststellen?
siehe Anhang
VfBFan
2023-09-06, 18:25:04
Schön. Doch auch der absolute Verbrauch zählt.
Weil die Realität beim Gaming eher dem Verhalten entspricht, dass man bei mehr vorhandener Rohleistung die Regler weiter nach rechts schiebt und sich deshalb nicht in einem sinnlosen bzw. "erfundenem" 144fps-Limit unter WQHD befindet.
Für Mittelklassekarten taugt die Spielerei mit 144fps imho nicht viel. Wie gesagt, ne Spielerei, nicht mehr.
Neuere Spiele werden mehr Leistung fordern und dann hängt man sowieso zu 95 % oder so im TDP-Limit.
DrFreaK666
2023-09-06, 18:28:09
... Da fehlt DESCODRE mit Pathtracing. Auch ist es falsch Immortals in die selbe Kategorie zu packen, weil es kein HW-Lumen verwendet.
Wie heißt DESCODRE wirklich? Google spuckt nix gescheites raus und bei Steam gibt's das auch nicht
Troyan
2023-09-06, 18:29:45
DESORDRE. Kann mir den Namen einfach nicht merken. Ist ein 10€ Indie-Game auf Basis von UE5 mit allen auf maximum gedreht, was die Engine hergibt.
DrFreaK666
2023-09-06, 18:33:31
DESORDRE. Kann mir den Namen einfach nicht merken. Ist ein 10€ Indie-Game auf Basis von UE5 mit allen auf maximum gedreht, was die Engine hergibt.
Thanks. Die Screenshots kommen mir bekannt vor.
Na wenn das keine Tech-Demo ist, dann könnte man das schon testen. Wieso nur ein fast drei Jahre altes CP2077?!
GerryB
2023-09-06, 18:38:29
Das ist im Prinzip ne Techdemo mit NV-Plugin, ... selbst RTXDI ist ein NV-Plugin.
Aber man kann damit auch LUMEN-Hardware-RT ohne RTXDI testen.
(siehe UE5-Thread)
BTT. Etwas besser als erwartet. Ne 7800XT = 6900XT mit leicht schlechterer Rasterizing-Performance allerdings leicht besserer RT-Performance. Für 499€ währe es ein richtig rundes Produkt.
Rabiata
2023-09-06, 19:05:20
Habe bisher nur die CB und PCGH Tests gesehen. Sehe es aktuell genau andersrum: die 7700XT sieht für den Preispunkt doch recht gut aus, wenn man die 4060TIivergleicht (wobei die RT Leistung natürlich nicht das Wahre ist und ich nicht verstehe, dass CB nicht die 16GB Version gebencht hat).
Sehe keinen Grund die 7800XT zu kaufen, wenn man für 40-50 Euro mehr ne 4070 bekommen kann mit deren RT Leistung und DLSS...
Die 7800 XT scheint mir sinnvoller gegenüber der 7700XT:
Mehrpreis entspricht etwa der Mehrleistung, aber die 7800 XT ist effizienter und hat 33% mehr Speicher. Bei einer GraKa > 400 Euro sollte man sich nicht mehr mit 12 GB zufrieden geben.
The_Invisible
2023-09-06, 19:07:44
Das ist im Prinzip ne Techdemo mit NV-Plugin, ... selbst RTXDI ist ein NV-Plugin.
Aber man kann damit auch LUMEN-Hardware-RT ohne RTXDI testen.
(siehe UE5-Thread)
PCGH testet ohne RTXDI
dildo4u
2023-09-06, 20:11:18
Computerbase hat schon Starfield Werte
https://www.computerbase.de/2023-09/starfield-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd_update
DozerDave
2023-09-06, 20:27:38
BTT. Etwas besser als erwartet. Ne 7800XT = 6900XT mit leicht schlechterer Rasterizing-Performance allerdings leicht besserer RT-Performance. Für 499€ währe es ein richtig rundes Produkt.
Mal sehen, wie die Preise sich entwickeln.
LOL... 47 Watt verbrät die 7800 wenn man nur ein YT Video schaut. Kann ja wohl nicht wahr sein. Ne, AMD, vielen Dank. Kannste behalten, den Schrott ;D
sun-man
2023-09-06, 20:42:23
Dahin geht ja meine Frage. Immer oder nur wenn YT im Vollbild ist
DrFreaK666
2023-09-06, 20:44:12
Dahin geht ja meine Frage. Immer oder nur wenn YT im Vollbild ist
Und meine wieso man ein YT-Video am PC anschaut
crnkoj
2023-09-06, 20:57:21
Diese 7700xt und 7800 xt errinern mich extrem an Vega 64 und 56.
Mehr Stromverbrauch als erwartet, suboptimale Performance.
Aber auch was Positives, die Karten scheinen sich exzellent zu undervolten mit gleichzeitig oc.
Warum wohl AMD wieder diese extremen Spannungen ansetzt, [berigens wie bei Vega???
GerryB
2023-09-06, 21:53:50
Warum wohl AMD wieder diese extremen Spannungen ansetzt? ...
Das hat technische Gründe damit die Kurve bis oben hin definiert ist.
... könnte ja sein wie bei den 7900xtx, das mal ein 550W-Bios mit ner liquid-Taichi kommt
Die eff.Volt/MHz sind schon normal niedrig auf der Kurve geregelt.
(tiefer als bei Ada zulässig, wo untenrum ne Grenze ist)
MD_Enigma
2023-09-06, 21:59:11
Und meine wieso man ein YT-Video am PC anschaut
Adblock. Das hälste doch am Handy gar net aus.
Lurtz
2023-09-06, 21:59:59
Ich glaube net an eine feste Taktobergrenze, könnte Raff ja mal schnell in Starfield@high FSR2-50% anschauen.
Da sollte doch mehr OCen drin sein, weil das Game so sparsam ist.
ansonsten:
Man sollte net vergessen, das der 4070 beizeiten der Vram ausgehen wird.
30Games@4k siehe Anhang
Die Grafik zeigt doch keine reine VRAM-Limitierung. Niemals sind Anno 1800 oder AC Valhalla da VRAM-limitiert.
Dahin geht ja meine Frage. Immer oder nur wenn YT im Vollbild ist
Nein, immer.
Der_Korken
2023-09-06, 22:02:54
Und meine wieso man ein YT-Video am PC anschaut
Echt mal. Ich gucke die viel lieber auf einem winzigen Smartphone-Bildschirm mit 2 Minuten Werbung vor jedem Clip mangels Adblocker.
Diese 7700xt und 7800 xt errinern mich extrem an Vega 64 und 56.
Mehr Stromverbrauch als erwartet, suboptimale Performance.
Aber auch was Positives, die Karten scheinen sich exzellent zu undervolten mit gleichzeitig oc.
Warum wohl AMD wieder diese extremen Spannungen ansetzt, [berigens wie bei Vega???
Gibt es irgendwo Tests/Berichte über Undervolting-Potenzial?
Wobei das eh so eine Sache ist, weil man das Powertarget wieder nur um 10% absenken kann. Was der scheiß soll, weiß auch nur AMD.
GerryB
2023-09-06, 22:03:39
Die Grafik zeigt doch keine reine VRAM-Limitierung. ...
Die Zeit vergeht sooo schnell und Keiner weiß wie zukünftige Games sind.
Heutige Games reagieren vllt. schon auf Bandbreite, obwohl der Vram noch nicht voll ist.
Lurtz
2023-09-06, 22:06:23
Die Zeit vergeht sooo schnell und Keiner weiß wie zukünftige Games sind.
Heutige Games reagieren vllt. schon auf Bandbreite, obwohl der Vram noch nicht voll ist.
Ich bin der letzte, der das anzweifelt, aber die Grafik ist halt keine sonderlich taugliche Beweisführung. Eher, dass es der 4070 allein schon an Bandbreite für 4k mangelt.
Oberst
2023-09-06, 22:09:19
Habe bisher nur die CB und PCGH Tests gesehen. Sehe es aktuell genau andersrum: die 7700XT sieht für den Preispunkt doch recht gut aus, wenn man die 4060TIivergleicht (wobei die RT Leistung natürlich nicht das Wahre ist und ich nicht verstehe, dass CB nicht die 16GB Version gebencht hat).
Sehe keinen Grund die 7800XT zu kaufen, wenn man für 40-50 Euro mehr ne 4070 bekommen kann mit deren RT Leistung und DLSS...
Naja, die beiden Karten werden sicher in einigen Wochen preislich merklich runter gehen (müssen).
Aber die 7700XT? Da kann man ja gleich die 6800er kaufen, die ist quasi gleich schnell und gleich effizient (laut Computerbase). Dafür gibt's dann 16GB Ram und im Abverkauf ist die meist auch merklich billiger. Also: Nein, die 7700XT empfinde ich mit Blick auf den "Vorgänger" keinen guten Deal. Die 7800XT ist immerhin ein mini Trippelschritt im Vergleich zur 6800XT, die 7700XT ist eher ein Schritt zurück im Vergleich zur 6800.
Der_Korken
2023-09-06, 22:36:04
Gibt es irgendwo Tests/Berichte über Undervolting-Potenzial?
Wobei das eh so eine Sache ist, weil man das Powertarget wieder nur um 10% absenken kann. Was der scheiß soll, weiß auch nur AMD.
Hab selber was gefunden: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/61798-amd-macht-nvidia-beine-radeon-rx-7800-xt-und-rx-7700-xt-im-test.amp.html?start=24
Undervolting um 125mV (von 1150mV auf 1025mV) ohne weitere Änderungen resultiert in ca. 3% mehr Leistung. Besser angelegt wäre es natürlich, wenn man stattdessen das PT um 20% senkt bei gleichbleibender Leistung, aber das geht natürlich nicht.
DrFreaK666
2023-09-06, 22:40:42
Adblock. Das hälste doch am Handy gar net aus.
Mit NewPipe schon
https://newpipe.net/
Matrix316
2023-09-06, 23:02:26
Also wenn ich mir die Benchmarks ansehe, dann haben ganz viele neue Radeon Karten einfach die falsche Bezeichnung.
7900XTX == 7800XT
7900XT == 7800
7800XT == 7700XT
7700XT == 7700
Und schon muss man sich nicht mehr wundern, warum eine 7800XT nicht viel schneller als eine 6800XT ist. :ugly:
DrFreaK666
2023-09-06, 23:08:27
Keine neue Erkenntnis
wandermann
2023-09-06, 23:12:13
der Idle-Verbrauch der Karten ist leider jenseits von Gut und Böse, da reicht es mir auch nicht wenn die bei Volllast bisschen was sparen gegenüber der 6800 XT. Ich bin die meiste Zeit im Desktop & Browser und das kanns einfach nicht sein, damit wäre die Karte für mich vom Strom sogar teurer als eine 6800 XT. Ich werde wohl auch diese Generation noch passen oder solange wie möglich rauszögern.
AMD ist leider bei den Grafikkarten in einer extrem schlechten Position, frag mich was die da falsch machen, dass die aus dem Fertigungsprozess nicht mehr rausholen.
perforierer
2023-09-07, 01:07:57
Naja, die beiden Karten werden sicher in einigen Wochen preislich merklich runter gehen (müssen).
Aber die 7700XT? Da kann man ja gleich die 6800er kaufen, die ist quasi gleich schnell und gleich effizient (laut Computerbase). Dafür gibt's dann 16GB Ram und im Abverkauf ist die meist auch merklich billiger. Also: Nein, die 7700XT empfinde ich mit Blick auf den "Vorgänger" keinen guten Deal. Die 7800XT ist immerhin ein mini Trippelschritt im Vergleich zur 6800XT, die 7700XT ist eher ein Schritt zurück im Vergleich zur 6800.
Verstehe die Ansicht. Preislich sehe ich die 6800 nicht im Vorteil. Im Ausverkauf kostet sie 460 Euro, das ist nicht wesentlich günstiger. Dafür hat die 7700xt das moderne Featureset. Insbesondere mit Blick auf FSR 3 würde ich da eher die modernere Karte kaufen, auch wenn die 4 GB mehr natürlich ein Argument für die 6800 sind. Ist natürlich auch Geschmacksfrage, ein Bekannter von mir hat dieses XFX 6800er-Ungetüm im Rechner...wäre glaube ich nix für mich. Da würde ich mir wohl lieber ne 2 Lüfter Variante der 7700XT holen...
AMD ist leider bei den Grafikkarten in einer extrem schlechten Position, frag mich was die da falsch machen, dass die aus dem Fertigungsprozess nicht mehr rausholen.Chiplet
sun-man
2023-09-07, 06:04:11
Und meine wieso man ein YT-Video am PC anschaut
Wo denn sonst? Am Fernseher? ;D
Aber ist das nicht egal? Ich hatte gehofft das Raff das zufällig sagen könne
dargo
2023-09-07, 06:20:28
Diese 7700xt und 7800 xt errinern mich extrem an Vega 64 und 56.
Mehr Stromverbrauch als erwartet, suboptimale Performance.
Aber auch was Positives, die Karten scheinen sich exzellent zu undervolten mit gleichzeitig oc.
Warum wohl AMD wieder diese extremen Spannungen ansetzt, [berigens wie bei Vega???
Was für extreme Spannungen? :| Ganz im Gegenteil... RDNA3 arbeitet mit sehr niedrigen Spannungen eher im unteren Bereich der V/F-Kurve. Insbesondere im Vergleich zu RDNA2.
Chiplet
Halte ich für Unsinn, sieht man an N33. Der Fehler liegt imho im GPU-Design, nicht im Chipletdesign.
horn 12
2023-09-07, 06:49:00
So schlecht ist RDNA3 gar nicht, Ja die Effizienz könnte wirklich um ein Vielfaches Besser sein aber man ist so gut wie immer bei 4080 (+)
und einige Male auch knapp an 4090 Performance dran.
Effizienz ist ein Anderes Thema, ha da stimme ich zu!
dargo
2023-09-07, 06:53:46
So schlecht ist RDNA3 gar nicht, Ja die Effizienz könnte wirklich um ein Vielfaches Besser sein aber man ist so gut wie immer bei 4080 (+)
Und was genau ist daran jetzt besonders? Die 4080 ist doch auch nur 49% schneller als eine RX 6900XT laut CB.
crnkoj
2023-09-07, 07:13:31
Das hat technische Gründe damit die Kurve bis oben hin definiert ist.
... könnte ja sein wie bei den 7900xtx, das mal ein 550W-Bios mit ner liquid-Taichi kommt
Die eff.Volt/MHz sind schon normal niedrig auf der Kurve geregelt.
(tiefer als bei Ada zulässig, wo untenrum ne Grenze ist)
Das macht keinen Sinn, die können es auch anders definieren.
Siehe Vergleich 7800xt und 4080 bei techpowerup.
https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/39.html
https://www.techpowerup.com/review/msi-geforce-rtx-4080-suprim-x/40.html
Echt mal. Ich gucke die viel lieber auf einem winzigen Smartphone-Bildschirm mit 2 Minuten Werbung vor jedem Clip mangels Adblocker.
Gibt es irgendwo Tests/Berichte über Undervolting-Potenzial?
Wobei das eh so eine Sache ist, weil man das Powertarget wieder nur um 10% absenken kann. Was der scheiß soll, weiß auch nur AMD.
https://www.techpowerup.com/review/sapphire-radeon-rx-7800-xt-nitro/40.html
15% performance mit 15% Power target Erhöhung und gleichzeitig UV.
Nur UV sollte noch besser funktionieren.
Man sieht es auch schon in den frequency/voltage Grafiken, da dies linear ansteigt, dass die 7800xt Chips noch garnicht am Limit sind.
Bei der 7700xt scheint es ja noch besser zu sein. +17% perf für +15% TDP
https://www.techpowerup.com/review/asus-radeon-rx-7700-xt-tuf/40.html
Hier sieht man hingegen im frequency/voltage chart, dass es da einen umknick gibt.
Ich bin mit besserem versorgt, aber die Karten scheinen fürs tuning recht gut zu sein ;) was dann Spaß machen würde.
Was für extreme Spannungen? :| Ganz im Gegenteil... RDNA3 arbeitet mit sehr niedrigen Spannungen eher im unteren Bereich der V/F-Kurve. Insbesondere im Vergleich zu RDNA2.
Halte ich für Unsinn, sieht man an N33. Der Fehler liegt imho im GPU-Design, nicht im Chipletdesign.
Siehe erste zwei links und den dritten. Vor allem den Text beim oc der 7800xt.
"These cards typically get unstable around 950 mV, so there's a lot of headroom (the default is 1.15 V)."
sun-man
2023-09-07, 07:30:02
Eine 4070 braucht 15W im Multimonitor und die Sapphire 34W? Früher Kleinigkeiten, heute bei den Preisen eigentlich auch. Aber.....ach mann. Aber 16GB Speicher sind natürlich wichtig ^^
GerryB
2023-09-07, 07:49:07
So schlecht ist RDNA3 gar nicht, Ja die Effizienz könnte wirklich um ein Vielfaches Besser sein aber man ist so gut wie immer bei 4080 (+)
und einige Male auch knapp an 4090 Performance dran.
Effizienz ist ein Anderes Thema, ha da stimme ich zu!
1. Was soll im 7800xt-Thread das Gelaber von 4080+4090? Das ist ne ganz andere Preisklasse!
2. Man kann mit der 7800xt gut in 4k@FSR2 spielen
Nach m.E. für Out of the Box Player besser als ne 6800xt. (net Jeder kann und will UVen oder gar mit MPT tweaken)
Verbrauch bei TPU in CP2077@raster siehe Anhang
Surprise, Surprise, das PL wird gar net ausgeschöpft@stock-Takt.
Legendenkiller
2023-09-07, 08:23:06
Naja , ihm Rahmen der Erwartung. oder so :-)
Immerhin haben alle die sich dieses Jahr eine 6800XT und 6900XT preiswert gekauft haben, jetzt kein Grund zum Ärgern.
Eignetlich ist eine 6800XT für 500€ immernoch ein guter Deal, speziell wenn der PC nur weige Stunden in der Woche mit 3D genutzt wird.
Die Effizienz wird ja erst wichtig wenn der PC täglich mehrere Stunden im Gaming benutzt wird.
Die pro AMD-Frage ist halt wann 16 vs 12 Gbyte entschiedent werden. In 1 Jahr oder erst in 5 Jahren.
Für Leute die mit AIs Bilder machen wollen und damit möglichst viel RAM in einer bezahlbaren Grafikkarte brauchen sind Intels 16Gbyte Karten mehr als ein Blick wert.
Die Effizienz wird ja erst wichtig wenn der PC täglich mehrere Stunden im Gaming benutzt wird.
Mmmm. Bei uns ist das eher umgekehrt. Bei den paar wenigen Stunden die in der Woche gespielt werden ist die Leistungsaufnahme da eigentlich egal. Der PC läuft allerdings praktisch den ganzen Tag weil Frau da lineares TV über den DVBViewer laufen hat und ne Menge YT Videos schaut. Und da sind die über 25W Mehrverbrauch gegenüber z.B. einer 4070 einfach nur ärgerlich.
Über den Daumen macht das bei 12h Betrieb am Tag zusätzliche 0.3kWh, bei einem Strompreis von ~40ct/kWh biste da im Jahr bei fast 44€. Peanuts kann man sagen aber mich stört das einfach. Wenn die 4070 16GB hätte für den Preis wäre das auf jeden Fall die bessere Wahl. Aber so ist alles einfach nur meh :cool:
GerryB
2023-09-07, 10:20:56
Da hätte ne CPU mit iGPU doch Sinn gemacht für Deine Frau.
DozerDave
2023-09-07, 10:48:30
Mit NewPipe schon
https://newpipe.net/
Nur für Android. BTT
phoenix887
2023-09-07, 10:56:52
der Idle-Verbrauch der Karten ist leider jenseits von Gut und Böse, da reicht es mir auch nicht wenn die bei Volllast bisschen was sparen gegenüber der 6800 XT. Ich bin die meiste Zeit im Desktop & Browser und das kanns einfach nicht sein, damit wäre die Karte für mich vom Strom sogar teurer als eine 6800 XT. Ich werde wohl auch diese Generation noch passen oder solange wie möglich rauszögern.
AMD ist leider bei den Grafikkarten in einer extrem schlechten Position, frag mich was die da falsch machen, dass die aus dem Fertigungsprozess nicht mehr rausholen.
So schlimm isses nicht. Siehe Screenshot
dargo
2023-09-07, 11:38:26
"These cards typically get unstable around 950 mV, so there's a lot of headroom (the default is 1.15 V)."
Wer so einen Stuss schreibt hat keine Ahnung von RDNA(3). Kein RDNA3 arbeitet mit 1,15V bei einer Gaminglast. Das ist nichts weiter als die maximale Voltage für maximalen Takt in der V/F-Kurve. Wirst du mit Stocksettings eh nie zu Gesicht bekommen da dich das Powerlimit daran hindert.
dildo4u
2023-09-07, 11:52:34
PCGH nutzt jetzt auch Hogwarts RT was mir aufgefallen ist das performt unterirdisch auf AMD war das vor dem neuesten Patch so?
Beispiel VRAM wird mit der AMD gefüllt bleibt bei der NV Karte unter 12GB.
HBn0tgKy-rk
Exxtreme
2023-09-07, 11:59:07
Beispiel VRAM wird mit der AMD gefüllt bleibt bei der NV Karte unter 12GB.
https://youtu.be/HBn0tgKy-rk
Beim VRAM muss man eine Sache beachten: es ist nicht möglich von aussen auszulesen wieviel VRAM das Spiel braucht. Man kann nur auslesen wieviel VRAM das Spiel reserviert. Ob der reservierte Speicher dann aber benutzt wird, das sieht man nicht. Das könnte nur das Spiel auslesen.
dildo4u
2023-09-07, 12:02:36
Wäre halt die einzige Erklärung warum es so abkackt Hogwarts nutzt kein Nvidia Level RT, die 7900 hatte z.b keine Probleme.
Heute muss man leider damit rechnen das Games kaputt gepatcht werden.
sun-man
2023-09-07, 12:03:58
Ist es nict aus das man spekuliert/nachweißlich sagen kann das die NVidia Speicherverwaltung deutlich effizienter ist? Ich meine Raff hat das in einem Video mal so ähnlich gesagt.
Die Karte ist, in dem Video, immer ~10 Grad kühler.
dildo4u
2023-09-07, 12:05:33
Das überbrückt vielleicht 2 aber keine 4 GB.
aufkrawall
2023-09-07, 12:06:09
Keine Ahnung, weshalb die UE4 RT-Gülle interessieren sollte. Das macht in dem Spiel immer noch Grafik-Glitches noch und nöcher.
sun-man
2023-09-07, 12:08:29
Das überbrückt vielleicht 2 aber keine 4 GB.
Möglich, dazu bin ich zu wenig Profi.
Ich frag mich immer noch AMD oder ne 4070 (non Ti). Meine 3060TI ist am Anschlag (100% Last) von meinem 3600 (der man durch einen X3d ersetzt wird). An sich find ich die 7800 ganz interessant, Freesync hat mein Monitor ebenso. Das Idle/YT Stromgesaufe in 1440p find ich einfach ungeil.
dargo
2023-09-07, 12:11:30
PCGH nutzt jetzt auch Hogwarts RT was mir aufgefallen ist das performt unterirdisch auf AMD war das vor dem neuesten Patch so?
Bei Hogwarts machen auf RDNA2 nur die RT-Reflektionen Sinn (sind recht günstig), der Rest ist viel zu teuer. Insbesondere die RT-Schatten. Wird bei RDNA3 nicht viel anders sein.
dildo4u
2023-09-07, 12:12:05
Keine Ahnung, weshalb die UE4 RT-Gülle interessieren sollte. Das macht in dem Spiel immer noch Grafik-Glitches noch und nöcher.
Leider will PCGH das für den NextGen Index nutzen ich will nur drauf hinweisen das man mit solchen Werte falsche Schlüsse zieht.
dargo
2023-09-07, 12:14:48
Leider will PCGH das für den NextGen Index nutzen ...
Soll die PCGH machen, warum soll uns das jetzt jucken?
The_Invisible
2023-09-07, 12:16:36
Naja Hogwarts Legacy ist schon sehr verbreitet, alleine 156k reviews auf Steam... genauso wie Starfield halt recht kacke läuft aber auch eine weite Verbreitung hat
dildo4u
2023-09-07, 12:17:15
Soll die PCGH machen, warum soll uns das jetzt jucken?
Bessere Beratung für Leute die nicht auf ein Hersteller festgelegt sind, Raff arbeitet noch am Index und kann ihn vermutlich noch anpassen.
CB hat es auch im Test dort sieht es so aus kommt es vielleicht extrem drauf an wo man testet?
https://abload.de/img/screenshot2023-09-0710deq2.png
Der neue RT-Index ist wohlüberlegt und bleibt so. Da ist bewusst nur ein UE4-Rest drin - die Engine ist omnipräsent und damit eigentlich wichtiger -, um zweimal UE5 als Vorreiter zu platzieren. Ziel war es, "Next-Gen"-Last zu erzeugen (ohne Pillepalle-Spiele) und dabei trotzdem mithilfe von Quality-Upsampling praxisnah zu bleiben.
Was hingegen noch im Fluss ist, ist der neue Raster-Index.
CB hat es auch im Test dort sieht es so aus kommt es vielleicht extrem drauf an wo man testet?
https://abload.de/img/screenshot2023-09-0710deq2.png
CB reduziert Details, PCGH nicht. Das dürfte die ganze Geschichte sein. Anspruchsvolle Testszenen suchen sowohl CB als auch PCGH. Alle Details zu den neuen Benchmarks gibt's, wenn ich im Herbst die 24/7/31-Benchphase abgeschlossen und auch Captures angefertigt habe. :)
MfG
Raff
M4xw0lf
2023-09-07, 12:29:52
Hab gehört dieses Starfield soll sich toll machen für sowas :ulol:
The_Invisible
2023-09-07, 12:32:07
Bessere Beratung für Leute die nicht auf ein Hersteller festgelegt sind, Raff arbeitet noch am Index und kann ihn vermutlich noch anpassen.
CB hat es auch im Test dort sieht es so aus kommt es vielleicht extrem drauf an wo man testet?
https://abload.de/img/screenshot2023-09-0710deq2.png
Computerbase hat bei Hogwarts RT nur Reflexionen an: https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/
Ansonsten auch eher Settings bei RT die Radeons mehr schmecken, eher RT Light
Hab gehört dieses Starfield soll sich toll machen für sowas :ulol:
Die Werte und Radeon-Dominanz sind echt wicked sick: Die optimale Grafikkarte für Starfield: Update mit Radeon RX 7800 XT, RX 7700 XT und vielen weiteren (https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/Starfield-Grafikkarte-Benchmark-Tuning-Tipps-1428215/)
Computerbase hat bei Hogwarts RT nur Reflexionen an: https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/
Das erklärt alles. Die RT-Schattierung knüppelt in bewaldeten Gebieten (= PCGH-Testszene) jede GPU nieder.
MfG
Raff
dildo4u
2023-09-07, 12:35:42
Computerbase hat bei Hogwarts RT nur Reflexionen an: https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/
Ansonsten auch eher Settings bei RT die Radeons mehr schmecken, eher RT Light
Oh dann ist das Heftiger als gedacht keine 60 fps mit reduziertem RT mit 4070/7800xt.
dargo
2023-09-07, 12:58:35
Bessere Beratung für Leute die nicht auf ein Hersteller festgelegt sind, Raff arbeitet noch am Index und kann ihn vermutlich noch anpassen.
CB hat es auch im Test dort sieht es so aus kommt es vielleicht extrem drauf an wo man testet?
https://abload.de/img/screenshot2023-09-0710deq2.png
Was hast du an meinem letzten Post zu Hogwarts bezüglich RT nicht verstanden? Ich habe locker die Frames der 7900XT mit meiner 6800XT und mehr solange ich nur RT-Reflektionen @Ultra anwende weil diese eben recht günstig sind. Sind die Spieler nicht mehr in der Lage Grafikoptionen zu bedienen?
Oh dann ist das Heftiger als gedacht keine 60 fps mit reduziertem RT mit 4070/7800xt.
Ist nur kompletter Bullshit. Man sieht ja wieder vorzüglich was diese ganzen Benchmarks von wenigen Sekunden mit "worst cases" von PCGH & Co bei dir bewirken. Als ob das für das gesamte Spiel repräsentaiv wäre. :rolleyes: Spiele endlich mal die Spiele anstatt sich nur schnöde Benchmarks anzusehen!
btw.
Wo siehst du hier was von "schafft keine 60fps?" Nur um ein Beispiel von vielen in Hogwarts zu nennen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13386916&postcount=457
Deine Radeon und Optimierungskünste sind generell über jeden Zweifel erhaben, das ist uns allen bekannt. :) Allerdings haben Benchmarks mit maximalen Details dennoch Gewicht. Reduzieren kann man immer.
MfG
Raff
dildo4u
2023-09-07, 13:14:46
Deine Radeon und Optimierungskünste sind generell über jeden Zweifel erhaben, das ist uns allen bekannt. :) Allerdings haben Benchmarks mit maximalen Details dennoch Gewicht. Reduzieren kann man immer.
MfG
Raff
Jup ich will wissen für was ich 500€ ausgebe selbst ohne RT wird deutlich heftiger siehe Starfield.
Genau genommen ist Hogwarts nur Cross-Gen mit angebauten RT.
dargo
2023-09-07, 13:17:44
Bleib besser bei der Konsole. Da musst du dich nicht wie solchen hochkomplexen Sachen wie Grafikoptionen beschäftigen. X-D
Bleib besser bei der Konsole. Da musst du dich nicht wie solchen hochkomplexen Sachen wie Grafikoptionen beschäftigen. X-D
Demnach wirst du nie wieder aufrüsten. Mehr Geld für andere Sachen. Cool! Aber deswegen jedem RT-Effekt die Daseinsberechtigung abzusprechen, ist Quatsch. Raytracing-Schattierung in Hogwarts Legacy verleiht Charakteren und Wäldern viel mehr Plastizität. Ja, das ist sehr teuer - vor allem auf Radeons -, aber ein Mehrwert.
MfG
Raff
dargo
2023-09-07, 13:28:36
Demnach wirst du nie wieder aufrüsten. Mehr Geld für andere Sachen. Cool! Aber deswegen jedem RT-Effekt die Daseinsberechtigung abzusprechen, ist Quatsch.
Ach Raff, jetzt wird es langsam wieder albern. Wo spreche ich die Daseinsberechtigung eines jeden RT-Effektes ab oder überhaupt eines non RT-Effektes der u.U auch teuer ist? Ich sitze vor meinem Bildschirm mit Hardware X und kein dildo, Raff oder sonst wer. Und ich entscheide welche Grafikoptionen ich verwende um für mich noch genug fps zu bekommen. Wenn du oder sonst wer meint die zusätzlichen Kosten von RT-Shadows sind es euch wert mit eurer Hardware dann verwendet es doch. Aber erzählt mir nicht was ich zu verwenden habe! Ich bin schon groß/alt genug um das selbst zu entscheiden.
Timbaloo
2023-09-07, 13:29:04
In 2023 eine Karte zu verkaufen die derart abkackt bei Video-Playback ist eigentlich eine Frechheit. Aber hauptsache 16GB ;D
Ach Raff, jetzt wird es langsam wieder albern. Wo spreche ich die Daseinsberechtigung eines jeden RT-Effektes ab oder überhaupt eines non RT-Effektes der u.U auch teuer ist? Ich sitze vor meinem Bildschirm mit Hardware X und kein dildo, Raff oder sonst wer. Und ich entscheide welche Grafikoptionen ich verwende um für mich noch genug fps zu bekommen.
Du redest aber alles klein (ziemlich aggressiv, nebenbei bemerkt), das echte Spielszenen mit voller Grafik zeigt. Ich muss in Hogwarts durch alle Jahreszeiten und fliege dabei durch Wälder. Wenn das nun mal läuft wie ein Sack Kokosnüsse, schaut man sich nach Grafikkarten-Upgrades um, die das lösen.
Ich find's ehrlich gesagt auch ein bisschen traurig, denn deine beiden Lieblingsspiele dieses Jahr scheinen Ratchet und Hogwarts zu sein. Rein zufällig ganz schicke Raytracing-Showcases. Die kannst du aber mit deiner Grafikkarte nicht in maximaler Qualität genießen.
MfG
Raff
dargo
2023-09-07, 13:35:09
Du redest aber alles klein (ziemlich aggressiv, nebenbei bemerkt), das echte Spielszenen mit voller Grafik zeigt. Ich muss in Hogwarts durch alle Jahreszeiten und fliege dabei durch Wälder. Wenn das nun mal läuft wie ein Sack Kokosnüsse, schaut man sich nach Grafikkarten-Upgrades um, die das lösen.
Ich find's ehrlich gesagt auch ein bisschen traurig, denn deine beiden Lieblingsspiele dieses Jahr scheinen Ratchet und Hogwarts zu sein. Rein zufällig ganz schicke Raytracing-Showcases. Die kannst du aber mit deiner Grafikkarte nicht in maximaler Qualität genießen.
MfG
Raff
Ich lach mich nur noch kaputt bei euch. Ich habe einen riesen Spaß an Spielen, auch ohne Raytracing oder mit reduziertem RT. Der Unterschied ist offenbar, dass ich meine Spiele nicht nach Raytracing auswähle sondern nach Spielspaß.
The_Invisible
2023-09-07, 13:36:32
Ach Raff, jetzt wird es langsam wieder albern. Wo spreche ich die Daseinsberechtigung eines jeden RT-Effektes ab oder überhaupt eines non RT-Effektes der u.U auch teuer ist? Ich sitze vor meinem Bildschirm mit Hardware X und kein dildo, Raff oder sonst wer. Und ich entscheide welche Grafikoptionen ich verwende um für mich noch genug fps zu bekommen. Wenn du oder sonst wer meint die zusätzlichen Kosten von RT-Shadows sind es euch wert mit eurer Hardware dann verwendet es doch. Aber erzählt mir nicht was ich zu verwenden habe! Ich bin schon groß/alt genug um das selbst zu entscheiden.
Spricht dir ja keiner ab deine Settings zu verwenden.
Bei RT-Benchmarks erwarte ich aber volle Details genauso wie ich bei Raster-Benchmarks volle Details erwarte, alleine schon wegen Vergleichbarkeit.
dildo4u
2023-09-07, 13:39:10
Raff ist zurecht Kritischer als die anderen Testes die Dinger haben in der EU komplett überzogene Preise.
500€ für 12GB Karten sind Absurd und macht die 4060 Ti 16GB eine Option was alles zur Preisgestaltung sagt.
dargo
2023-09-07, 13:43:41
Spricht dir ja keiner ab deine Settings zu verwenden.
Bei RT-Benchmarks erwarte ich aber volle Details genauso wie ich bei Raster-Benchmarks volle Details erwarte, alleine schon wegen Vergleichbarkeit.
Dann such dir eben solche Benchmarks aus. Wo ist jetzt das Problem? Die PCGH wird das sicherlich so praktizieren, und nicht nur die PCGH.
Raff ist zurecht Kritischer als die anderen Testes die Dinger haben in der EU komplett überzogene Preise.
500€ für 12GB Karten sind Absurd und macht die 4060 Ti 16GB eine Option was alles zur Preisgestaltung sagt.
Dann kaufe gar nichts und fertig. Das ist die einzige Sprache die IHVs verstehen. Wo ist jetzt das Problem? Ich habe schon öfter gesagt, dass die ganze GPU-Generation die Ende 2022 released wurde und über 2023 gedehnt bzw. ergänzt wird ein Witz ist. Insbesondere wenn man die Nodesprünge dabei betrachtet.
Ich lach mich nur noch kaputt bei euch. Ich habe einen riesen Spaß an Spielen, auch ohne Raytracing oder mit reduziertem RT. Der Unterschied ist offenbar, dass ich meine Spiele nicht nach Raytracing auswähle sondern nach Spielspaß.
Bei W3 waren die RT-Reflexionen schon sehr nett, das war ne deutliche Aufwertung. Bei Hogwarts allerdings hatte RT einen derartigen Impact und hat an der Grafik so wenig gerändert, das hab ich auch gelassen... Ein Showcase sieht anders aus ;).
Es gibt bisher keinen RT-Showcase, alles ist mit mehr oder weniger starken Pferdefüßen versehen - und CP77 sehe ich als reine NV-Techdemo und hat aufgrund der krassen NV-Nähe auch nichts in einem offiziellen Test verloren. Schaun mer mal, was die UE5 so zaubern wird ;). RT als Ergänzungen wie bei den RE-Remake-Teilen sind bisher die intelligenteste Integration meiner Meinung nach, hat Effekt und kostet wenig. Find ich super.
dargo
2023-09-07, 14:18:27
Bei W3 waren die RT-Reflexionen schon sehr nett, das war ne deutliche Aufwertung. Bei Hogwarts allerdings hatte RT einen derartigen Impact und hat an der Grafik so wenig gerändert, das hab ich auch gelassen... Ein Showcase sieht anders aus ;).
Es gibt bisher keinen RT-Showcase, alles ist mit mehr oder weniger starken Pferdefüßen versehen - und CP77 sehe ich als reine NV-Techdemo und hat aufgrund der krassen NV-Nähe auch nichts in einem offiziellen Test verloren. Schaun mer mal, was die UE5 so zaubern wird ;). RT als Ergänzungen wie bei den RE-Remake-Teilen sind bisher die intelligenteste Integration meiner Meinung nach, hat Effekt und kostet wenig. Find ich super.
Wenn ich mir die aktuellen RT-Implementierungen und die Kosten dabei so ansehe dann steckt das alles sowas von noch in Kinderschuhen, dass ich gar nicht mehr weiß ob ich darüber lachen oder weinen soll. Das wird noch 10+ Jahre dauern bis die DEVs sich bei RT richtig austoben dürfen. Gaming muss die Masse ansprechen. Und die Masse wird keine Grafikkarten für 3.000-5.000€ @600+W akzeptieren sofern irgendein IHV überhaupt mal Interesse daran hat solche Preise beim Gaming abzurufen um die RT-Entwicklung RT-Marktdurchdringung zu beschleunigen.
Wenn ich mir die aktuellen RT-Implementierungen und die Kosten dabei so ansehe dann steckt das alles sowas von noch in Kinderschuhen, dass ich gar nicht mehr weiß ob ich darüber lachen oder weinen soll. Das wird noch 10+ Jahre dauern bis die DEVs sich bei RT richtig austoben dürfen. Gaming muss die Masse ansprechen. Und die Masse wird keine Grafikkarten für 3.000-5.000€ @600+W akzeptieren sofern irgendein IHV überhaupt mal Interesse daran hat solche Preise beim Gaming abzurufen um die RT-Entwicklung RT-Marktdurchdringung zu beschleunigen.
Deshalb kann man trotzdem die Vorteile herausstellen, wenn es Vorteile sind ;). Lumen wird die erste echte RT-Implementierung sein, die massenfähig wird, da sieht man ja in welche Richtung das geht.
Linmoum
2023-09-07, 14:24:12
Ich finde diese Diskussion grundsätzlich schon wieder kurios. Wenn ich Benchmarks sehe, dann will ich auch welche, die mir aufzeigen, was ich schlimmstenfalls zu erwarten habe. Von Schönwetterbenchmarks kann ich mir nichts kaufen, außer, dass ich dann im Spiel negativ überrascht werde, weil mir lauter Reviewer da draußen 40% mehr Performance suggeriert haben - nur um dann festzustellen, dass das irgendeine völlig anspruchslose Szene gewesen ist.
Bei RT gibt's zur Vergleichbarkeit dann halt auch gleiches Recht für alle, also mit allen Effekten und entsprechenden Detailstufen herstellerübergreifend einheitlich.
Wer Details reduzieren will, hat alle Freiheiten dazu und kann das eigenständig machen. Natürlich sind die Kosten oftmals unverhältnismäßig hoch. Man sollte aber trotzdem nicht immer von sich auf andere schließen sondern einfach mal anerkennen, dass es eben nun einmal einen Hersteller gibt, bei dem man auch Spielspaß mit RT kombinieren kann, weil die Performance trotzdem der Leistungsklasse entsprechens in der Regel vorhanden ist. ;)
Von daher fand ich den CB-Ansatz gar nicht schlecht, die Effekte nach Wirksamkeit und Kosten zu optimieren. Aber dann brüllt ja sofort wieder jeder NEEEIIIIN RT MUSS ULTRA!!!
Dass da oft sogar ne 4090 das nicht über 90FPS bekommt scheint keinen zu stören.
dargo
2023-09-07, 14:26:10
Ich finde diese Diskussion grundsätzlich schon wieder kurios. Wenn ich Benchmarks sehe, dann will ich auch welche, die mir aufzeigen, was ich schlimmstenfalls zu erwarten habe.
Es gibt halt User die sich an Benchmarks aufgeilen und es gibt User die einfach ihre Games spielen. Du gehörst offenbar zur ersten Gruppe.
btw.
Mit einer RTX 4090 im Rechner... was jucken dich Benchmarks? Auf was willst du aktuell aufrüsten? Eher habe ich den Eindruck du suchst nur krankhaft nach dem nächsten Grabenkrieg in deinen Benchmarks mit max. Settings. Oder nach der Bestätigung hast du fein gemacht mit dem Erwerb einer RTX 4090.
aufkrawall
2023-09-07, 14:32:02
Ich finde diese Diskussion grundsätzlich schon wieder kurios. Wenn ich Benchmarks sehe, dann will ich auch welche, die mir aufzeigen, was ich schlimmstenfalls zu erwarten habe.
Natürlich. Trotzdem gehört bei einem Spiel mit so fragwürdigem RT es auch ohne RT mitgetestet.
Wenn man durch Hogwarts rennt, springen einen eher früher als später die absurdesten Denoiser-Fails und sonstige Ekel-Glitches in riesigen Bildbereichen an. Da kann man das schon erwarten. Vom CPU-Limit mit RT, das ohne 13700K+ und FG eigentlich nicht zu ertragen ist, mal noch ganz abgesehen.
sun-man
2023-09-07, 14:40:54
Es gibt halt User die sich an Benchmarks aufgeilen und es gibt User die einfach ihre Games spielen. Du gehörst offenbar zur ersten Gruppe.
Ich finde das Du Dich langsam mal zurück nehmen solltest mit den Angriffen. Ich will auch ungeschönte Benchmarks sehen um eine Entscheidung zu fällen - und eben keine "Ich hab hier und da gedreht, das Tool da umgestellt und mit dem Tool dieses umgestellt". Ich hab ne 3060ti und finde noch keinen guten Weg weg davon - und das man Details runterstellen kann ist mir nun wirklich bekannt, ohne das es mich stört. Möglicherweise liebe ich deswegen DLSS weil es mir weiter das zocken ermöglichst, wenn ich denn mal Zeit habe (in 1440p)
aufkrawall
2023-09-07, 14:50:04
DLSS ist "leider" auch mit Software-RT in Unreal Engine 5 ein riesiger Pluspunkt. Das glättet Effekte wie die Virtual Shadow Maps einfach zigfach besser als traditionelles TAA/TAAU (TSR eingeschlossen). In Fortnite und Immortals of Aveum zeichnet sich dahingehend ein exakt identisches Bild ab. Entsprechend dürfte das auch in jedem anderen UE5-Spiel mit Nanite + Lumen der Fall sein. Von daher würd ich die UE5-Stärke der Radeons auch nicht überbewerten.
dargo
2023-09-07, 15:00:20
Ich finde das Du Dich langsam mal zurück nehmen solltest mit den Angriffen. Ich will auch ungeschönte Benchmarks sehen um eine Entscheidung zu fällen - und eben keine "Ich hab hier und da gedreht, das Tool da umgestellt und mit dem Tool dieses umgestellt".
Dann lese entsprechende Reviews, es gibt genug davon. :rolleyes:
The_Invisible
2023-09-07, 15:35:56
Von daher fand ich den CB-Ansatz gar nicht schlecht, die Effekte nach Wirksamkeit und Kosten zu optimieren. Aber dann brüllt ja sofort wieder jeder NEEEIIIIN RT MUSS ULTRA!!!
Dass da oft sogar ne 4090 das nicht über 90FPS bekommt scheint keinen zu stören.
Finde den PCGH Ansatz besser, sonst müsste man auch bei Raster Details deaktivieren. Außerdem kommt sonst auch gleich die Diskussion auf das man einen IHV bevorzugt...
Fuchs
2023-09-07, 15:55:53
Hab mir noch kein abschließendes Urteil (Kaufinteresse...) gebildet. 6800XT ist es im Abverkauf nicht geworden.
Danke an die gute Begleitung des Launchs. Zocke mittlerweile sehr wenig. Gehört aber seit über 20 Jahren für mich dazu, größere Launchs im 3DC mitzuverfolgen. Highlight war damals Polaris.
Wie sieht es mit dem Idle und bspw YT-Verbrauch aus? Geht da mittels Treiberupdate noch was?
@Raff: Mach weiter so, deine Artikel und Beiträge lese ich gern, insbesondere weil du selbst bei sehr unsachlichem Gegenwind freundlich und informativ bleibst :)
VooDoo7mx
2023-09-07, 17:24:21
AMD Fanboy 2023: Raytracing ist eine sinnlose Grafikoption, ich sehe keinen Unterschied und es kostet zu viel Leistung. Den Drecl schalte ich immer ab. Ich hab auch so sehr viel Spaß in den Spielen.
Auch AMD Fanboy 2023: Nvidia bringt npch Grafikkarten mit veralteten 8GiB VRAM raus. Damit läuft ja nicht alles in 1440p auf Ultra. Was für ein Kackladen. Abzocke! Die ganze Entwicklung wird dadurch blockiert.
Antwort darauf: Du kannst ja die Texturen von "Ultra" auf "Sehr Hoch" reduzieren, dass macht keinen sichtbaren Unterschied.
AMD Fanboy: Wir haben das Jahr 2023, da sollte man überhaupt keine Regler mehr bedienen müssen. Alles auf Ultra ist Minimum überhaupt Spaß an einen Spiel haben zu können.
Merke: VRAM Menge ist auch nur dann besonders wichtig wenn AMD Grafikkarten im Verhältnis mehr davon haben.
sun-man
2023-09-07, 17:45:32
Dann lese entsprechende Reviews, es gibt genug davon. :rolleyes:
Mach Dinger. Als wenn die eindeutig wären. An sich würde mich keine 10 Pferde mehr zu AMD bekommen, aber eben nur "an sich". Aber wenn ich so pampige Antworten wie von Dir lesen bin ich unsicher im Kreis der Radeonler brauchbare Hilfe zu finden.
dargo
2023-09-07, 18:15:50
AMD Fanboy 2023: Raytracing ist eine sinnlose Grafikoption, ich sehe keinen Unterschied und es kostet zu viel Leistung. Den Drecl schalte ich immer ab. Ich hab auch so sehr viel Spaß in den Spielen.
Auch AMD Fanboy 2023: Nvidia bringt npch Grafikkarten mit veralteten 8GiB VRAM raus. Damit läuft ja nicht alles in 1440p auf Ultra. Was für ein Kackladen. Abzocke! Die ganze Entwicklung wird dadurch blockiert.
Antwort darauf: Du kannst ja die Texturen von "Ultra" auf "Sehr Hoch" reduzieren, dass macht keinen sichtbaren Unterschied.
AMD Fanboy: Wir haben das Jahr 2023, da sollte man überhaupt keine Regler mehr bedienen müssen. Alles auf Ultra ist Minimum überhaupt Spaß an einen Spiel haben zu können.
Merke: VRAM Menge ist auch nur dann besonders wichtig wenn AMD Grafikkarten im Verhältnis mehr davon haben.
Hast du wieder deinen Trolltag? Meine Güte sind hier Gestalten unterwegs.
Mach Dinger. Als wenn die eindeutig wären. An sich würde mich keine 10 Pferde mehr zu AMD bekommen, aber eben nur "an sich". Aber wenn ich so pampige Antworten wie von Dir lesen bin ich unsicher im Kreis der Radeonler brauchbare Hilfe zu finden.
Sorry, aber dieses mimimi geht mir sowas auf den Keks langsam. CB testet mal etwas außer der Reihe wird trotzdem rumgeheult. Kannst du dir nicht ausdenken. Dabei ist das mal eine nette Abwechslung zu den sonstigen 08/15 Reviews die es sonst immer gibt. Willst du Tests mit max. Settings schaust du eben wo anders. Kindergarten pur.
sun-man
2023-09-07, 18:28:26
Sorry, aber dieses mimimi geht mir sowas auf den Keks langsam. Kindergarten pur.
Genau das meine ich mit Deinem Tonfall. Wenn es nicht nach Dir geht wirst Du ausfallend. Eine brauchbare Diskussion wäre gewinnbringender als Dein Kindergarten um Deine Settings die offenbar nicht alle zu würdigen wissen. Find ich Schade.
Monsta
2023-09-07, 19:25:43
Der Test mit Max Settings hat vor und Nachteile.
Wenn ich Die Abstände der einzelen Gpus eines Herstellers sehen möchte ist er praktisch, aber wenn ich gucken möchte ob Spiel xy auf meiner Gpu rennt ist er fürn Arsch.
Da die hohen Settings evtl. die Gpu unnötig belasten und mir suggeriert wird das es nicht auf meiner Hardware läuft. Oft wird ja auch eine besonders belastenne Stelle genommen. Auch super, wenn 98% des restlichen Spiels besser laufen.
Wenn nur mit Max Settings gebencht wird, ist das einfach nur Gpu Werbung.
HarryHirsch
2023-09-07, 23:29:11
bringt die 7800 XT was wenn man nur alte Schinken spielt? aktuell ist eine 5700XT vorhanden
Exxtreme
2023-09-07, 23:35:47
bringt die 7800 XT was wenn man nur alte Schinken spielt? aktuell ist eine 5700XT vorhanden
Zu einer 5700XT ist das ein spürbares Upgrade. Da ist Faktor 2,2 drin.
Die 7800 XT hat ca 80% mehr Leistung, doppelt soviel VRAM und mehr Bandweite(620.8 GB/s vs. 448.0 GB/s) als deine 5700 XT frist aber auch ein paar Watt(263 vs. 225w) mehr.
Wenn du nur alte Schinken(was definierst du als alten Schinken?:confused:) spielst profitierst du wahrscheinlich nicht vom neuen Featureset.
HarryHirsch
2023-09-07, 23:41:12
ok cool
bist du der letzte überlebende? wasn mit alphatier und coda passiert?
dargo
2023-09-08, 06:18:48
bringt die 7800 XT was wenn man nur alte Schinken spielt? aktuell ist eine 5700XT vorhanden
Nur wenn die alten Schinken dir zu langsam laufen. :wink:
Taigatrommel
2023-09-08, 07:40:00
bringt die 7800 XT was wenn man nur alte Schinken spielt? aktuell ist eine 5700XT vorhanden
Ich wechselte damals von einer 5700 XT auf eine 6800 XT, primär wegen Cyberpunk und der Unterschied war enorm. Die 7800 XT ist ja unterm Strich noch ein wenig schneller. Ob es sich lohnt für alte Schinken lohnt ist eine andere Frage, sofern die Titel bei dir soweit laufen, profitierst du ja kaum davon.
][immy
2023-09-08, 07:47:04
Blöde Frage, aber gibt es irgendwo ne Minecraft RT Test mit den Karten?
Würde doch mal gerne wissen wie es hier aussieht, auch wenn das Thema letztlich wieder stark eingeschlafen ist.
Shink
2023-09-08, 08:10:14
Nur wenn die alten Schinken dir zu langsam laufen. :wink:
Was für ein alter Schinken ist denn zu langsam auf einer RX5700XT? Kannst ja FSR einschalten wenn du Doom 2016 auf deinem 8K-Monitor spielst.:freak:
Man könnte argumentieren, dass man ja heute Quake 2 oder Portal 2 mit Raytracing spielen kann aber ich bin nicht sicher, ob da nicht NVidia im Moment die bessere Wahl wäre. Funktioniert eigentlich Wolfenstein: Young Blood inzwischen mit Raytracing auf AMD oder gönnt ID nicht?
dargo
2023-09-08, 08:24:18
Was für ein alter Schinken ist denn zu langsam auf einer RX5700XT? Kannst ja FSR einschalten wenn du Doom 2016 auf deinem 8K-Monitor spielst.:freak:
Warum fragst du mich das und nicht HarryHirsch? Und nein... in einem Doom von 2016 wirst du kein FSR finden.
bringt die 7800 XT was wenn man nur alte Schinken spielt? aktuell ist eine 5700XT vorhanden
5700XT 8GB ($450) -> 6700XT 12GB ($480) -> 7800XT 16GB ($500)
alle gleiche Klasse und eine eindeutige Evolution. Kommt darauf an, ob die alten Schinken anspruchsvoll sind und du hohe Framerates mit einem Freesync-Monitor erleben möchtest.
Shink
2023-09-08, 08:32:51
Und nein... in einem Doom von 2016 wirst du kein FSR finden.
FSR1 aka RSR.
sun-man
2023-09-08, 12:21:55
Apropos ^^
539 mit dem Gutschein für die Pulse Radeon RX 7800 XT
https://geizhals.de/sapphire-pulse-radeon-rx-7800-xt-11330-02-20g-a3010480.html
Die Powercolore Hellhound hat hier ziemlich nett abgeschnitten.
https://www.techpowerup.com/review/powercolor-radeon-rx-7800-xt-hellhound/
https://www.techpowerup.com/review/powercolor-radeon-rx-7800-xt-hellhound/36.html
robbitop
2023-09-08, 12:28:25
So schnell wie die 6800XT und genauso teuer (trotz Gutschein).
aufkrawall
2023-09-08, 12:29:21
Die 6800 XT gabs schon für 440€.
sun-man
2023-09-08, 12:33:20
So schnell wie die 6800XT und genauso teuer (trotz Gutschein).
Ja. Die Spiele die ich mit der 3060TI in 1440 spiele sind meist im kleinen Vorteil. Der Stromverbrauch im Multimonitor und Videos ist weiter mein Bestellverhinderer. Sollte die Asus Dual 4070 dadurch im Preis fallen müsste ich weniger nachdenken als bei den Stromsäufern von AMD :(
dargo
2023-09-08, 12:34:41
Apropos ^^
539 mit dem Gutschein für die Pulse Radeon RX 7800 XT
https://geizhals.de/sapphire-pulse-radeon-rx-7800-xt-11330-02-20g-a3010480.html
Die Dinger gibts doch eh in wenigen Wochen für kleiner 500€. Jetzt den Rest vom Sommer genießen und im Herbst u.U. erst zuschlagen. ;)
robbitop
2023-09-08, 12:37:56
Die 6800 XT gabs schon für 440€.
Jo aber aktuell laut Geizhals genau 539 €. Von der Vergangenheit kann man sich leider nichts kaufen. Ansonsten hätte ich die 3080 im September 2020 zur UVP von 699€ bitte. X-D (wobei ich zugebe, dass der Vergleich übertrieben ist, denn die 6800XT gab es ja viel besser verfügbar und länger zu niedrigeren Preisen) ^^
Die Tiefspreise sind vorbei, weil die Nachfrage angezogen hat. Man kann nicht heutige Preise mit denen von vor 4 Wochen vergleichen. 6800XT und 7800XT bekommt man für ziemlich exakt den gleichen Kurs, da würd ich immer die 7800XT vorziehen. Aber ich stimme dargo zu, einfach 4 Wochen warten, dann ist das Ding eh unter 500€ gefallen.
sun-man
2023-09-08, 13:13:43
Zumindest ist bei der Ebaysache Starfield dabei. Nvidia bietet komplett uninteressantes Overwatch und 3 Monate Nv Gamepass dazu. Leider hat der Laden etwas miese Bewertungen sollte das mit der Rückgabe doch sinnvoll sein.
horn 12
2023-09-08, 13:21:44
Ja, Preise der 7900XT und 7900XTX steigen ebenso
da Sommerloch vorbei und die Leute rüsten für Herbst bis Frühling.
Da werden die Preise kaum nachlassen bis März 2024 und jener welcher sofort zugegriffen hat bezahlte max. 150 bis 200 Euro mehr und geniest die Karte bereits seit gut knappen 9 Monaten
sun-man
2023-09-08, 13:40:13
Gerade mal selbst getestet. Mein Rechner (3600, 32Gb Speicher, 3060...kaum LED Müll, wenn ja dann abgeschaltet). Nur Rechner, kein Monitor
Idle/Browsen 84W
YT....normal im Fenster (1440) Kinomode: 94W
YT....Fullscreen (1440) 96W
--------------------
kommt also hin mit den Tests und, um meine Frage selbst zu beantworten, FullScreen oder nur im Fenster macht kaum einen Unterschied. Bei 220 Tage HomeOffice mit 20W mehr und 8h Arbeit wären das immerhin 11.6€/Jahr bei 33 Cent. Ich schau zwar keine 8h YT Video, aber laut den Tests ist alles was irgendwie Arbeit macht ein Trigger. Multimonitor ist der Unterschied bei 21Watt, also auch 11.6€ (in etwa). (Verbessert weil zu dumm zum rechnen) :D
Nee, ich bleib bei NV.
Habs live aus der Shelly ausgelesen. Im Home Assi kann man das nicht so gut sehen.
Matrix316
2023-09-08, 13:46:08
Gerade mal selbst getestet. Mein Rechner (3600, 32Gb Speicher, 3060...kaum LED Müll, wenn ja dann abgeschaltet). Nur Rechner, kein Monitor
Idle/Browsen 84W
YT....normal im Fenster (1440) Kinomode: 94W
YT....Fullscreen (1440) 96W
--------------------
kommt also hin mit den Tests und, um meine Frage selbst zu beantworten, FullScreen oder nur im Fenster macht kaum einen Unterschied. Bei 220 Tage HomeOffice mit 20W mehr und 8h Arbeit wären das immerhin 116€/Jahr bei 33 Cent. Ich schau zwar keine 8h YT Video, aber laut den Tests ist alles was irgendwie Arbeit macht ein Trigger. Multimonitor ist der Unterschied bei 21Watt, also auch 116€ (in etwa).
Nee, ich bleib bei NV.
Habs live aus der Shelly ausgelesen. Im Home Assi kann man das nicht so gut sehen.
Ich hab das auch mal überlegt, aber wenn die Nvidia Karte 200 Euro mehr kostet oder so, dann sind das schon zwei Jahre Strom für die AMD Karte. ;)
sun-man
2023-09-08, 14:00:58
Naja, ich spare ja keine 2 Jahre. Das Geld liegt hier quasi rum bzw ist schlicht da. Allerdings kostet die Standard 4070 ja auch keine 200€ mehr. Die Asus Dual ist ~100€ teurer
127.0.0.1
2023-09-08, 14:01:01
Leute, für so nen Office Kram, YouTube, Social Media & Co. lohnt es sich doch fast eine extra Kiste mit iGPU hinzustellen.
B550M/R5-5600G/32GB/2xNVMe zieht idle ~17W und YouTube Fullscreen ~27W aus der Steckdose. Und das alles an einem 4K60 Display und mit einem normalen BeQuiet Netzteil (keine picopsu). Für die Anwendungen rasend schnell und schnappig. Einziger Nachteil: Als Zusatz-Raumheizung völlig ungeeignet.
sun-man
2023-09-08, 14:08:11
Leute, für so nen Office Kram, YouTube, Social Media & Co. lohnt es sich doch fast eine extra Kiste mit iGPU hinzustellen.
B550M/R5-5600G/32GB/2xNVMe zieht idle ~17W und YouTube Fullscreen ~27W aus der Steckdose. Und das alles an einem 4K60 Display und mit einem normalen BeQuiet Netzteil (keine picopsu). Für die Anwendungen rasend schnell und schnappig. Einziger Nachteil: Als Zusatz-Raumheizung völlig ungeeignet.
Schön. Und dazu noch nen KVM um zwischen PC, Laptop (verschlüsseltes SINA System) und MiniPC umzuschalten. Kann mir nix schöneres vorstellen.
Poekel
2023-09-08, 14:25:45
kommt also hin mit den Tests und, um meine Frage selbst zu beantworten, FullScreen oder nur im Fenster macht kaum einen Unterschied. Bei 220 Tage HomeOffice mit 20W mehr und 8h Arbeit wären das immerhin 116€/Jahr bei 33 Cent. Ich schau zwar keine 8h YT Video, aber laut den Tests ist alles was irgendwie Arbeit macht ein Trigger. Multimonitor ist der Unterschied bei 21Watt, also auch 116€ (in etwa).
Du hast dich um eine Nachkommastelle vertan. Für 116€/Jahr müsstest du 200 Watt 220 Tage mit 8h/Tag verbrauchen.
Wirklich merkbar wird das daher erst dann, wenn man wirklich alle Komponenten auf Stromsparen optimiert (auch abhängig davon, ob das ohne Produktivitätsverlust gemacht werden kann), also z. B. primär Laptop(Minipc mit integrierter Grafik und sparsame Monitore mit niedrigeren Auflösungen/Wiederholungsraten am besten inklusive Verwendung des Laptopmonitors anstatt eines möglichen zusätzlichem Monitors.
dildo4u
2023-09-08, 14:44:30
Anti Lag Plus Test mit 7800XT und Jedi Survivor
T8jIoW9FJrk
sun-man
2023-09-08, 14:46:38
Du hast dich um eine Nachkommastelle vertan.
Oh Gott.....:redface: :freak: :redface::redface::redface:
DrFreaK666
2023-09-08, 14:49:40
Anti Lag Plus Test mit 7800XT und Jedi Survivor
https://youtu.be/T8jIoW9FJrk
Wieso bist du immer so verdammt schnell? XD
Sieht zumindest da ganz gut aus. Muss mir das Video aber mal mit Ton später anschauen
robbitop
2023-09-08, 15:12:53
Anti Lag Plus Test mit 7800XT und Jedi Survivor
https://youtu.be/T8jIoW9FJrk
"Test". Irgendein Dulli der nix vorbereitet hat und spontan ein Presentationdeck (und einer völlig sinnlosen Facecam -> welchen Wert bringt das dem Video, wenn man die Fresse von dem Typen sieht während er ein Slidedeck querliest?) durchschaut. Richtig gut :up:
Hat er voll "getestet" X-D Das ist der "Kontent" mit dem man heute leben muss...
The_Invisible
2023-09-08, 15:17:42
[immy;13390535']Blöde Frage, aber gibt es irgendwo ne Minecraft RT Test mit den Karten?
Würde doch mal gerne wissen wie es hier aussieht, auch wenn das Thema letztlich wieder stark eingeschlafen ist.
PCGH hat den Test anscheinend rausgenommen, hier gabs noch einen Test: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/RTX-4090-Raytracing-Benchmarks-1405125/
Da war die 6900XT ca halb so schnell wie eine 3090Ti
DrFreaK666
2023-09-08, 15:48:01
"Test". Irgendein Dulli der nix vorbereitet hat und spontan ein Presentationdeck (und einer völlig sinnlosen Facecam -> welchen Wert bringt das dem Video, wenn man die Fresse von dem Typen sieht während er ein Slidedeck querliest?) durchschaut. Richtig gut :up:
Hat er voll "getestet" X-D Das ist der "Kontent" mit dem man heute leben muss...
Immer gut jemanden zu kritisieren ohne es besser gemacht zu haben. Oder wo ist der Link zu deinem Video?
robbitop
2023-09-08, 15:59:58
Das ist ein bescheuertes Argument und das macht so keinen Sinn. Ansonsten könnte man nichts auf dieser Welt kritisieren. Dann darfst du keinen Film kritisieren (wo ist dein Hollywood Blockbuster?), kein Spiel (wo ist denn dein AAA Spiel?), kein Möbelstück (wo ist denn deine selbst gebaute Couch?) und kein Auto (na? wo ist denn dein selbstgebautes Auto?).
Ich muss kein Dulli Video drehen, damit ich es kritisieren kann. Nebenher habe ich vernünftige, recherchierte Artikel und Reviews geschrieben als ich noch als voluntärer Redakteur aktiv war. Über so ein Video kann ich nur lachen. Das ist mit OBS und einer Webcam in 5 min gemacht. Das brauche ich nicht zu machen um das zu wissen.
aufkrawall
2023-09-08, 16:18:12
Es gibt jetzt von AMD offenbar Listen mit Anti-Lag+ Support, und noch eine weitere (??) Liste für "HYPR-tuned" Titel, die nicht deckungsgleich sind. In dem Owen-Video ist ansonsten keine Rede davon, dass Anti-Lag+ ohne RSR/Boost die BQ verringert.
Da kriegt man doch einen Knall bzw. das AMD Treiber-Marketing hat ihn definitiv schon. ;D
Und immer noch kein Wort darüber, weshalb Anti-Lag+ nicht auf RDNA2 funktionieren soll, während es mit Reflex da überhaupt keine Beschränkungen gibt.
"Nvidia, bitte nehmt mein Geld..."
DrFreaK666
2023-09-08, 16:27:39
... Das brauche ich nicht zu machen um das zu wissen.
Was haben wir denn gewusst? Was AMD gesagt hat. Das ist das erste (?) Video, dass die Funktion unter die Lupe nimmt. Genauere Infos folgen wie immer von HWU, DF und co.
Aber ja: Mein Argument war scheiße
Linmoum
2023-09-08, 16:43:51
Und immer noch kein Wort darüber, weshalb Anti-Lag+ nicht auf RDNA2 funktionieren soll, während es mit Reflex da überhaupt keine Beschränkungen gibt.Wahrscheinlich will man erstmal die Leute dazu bringen, noch auf RDNA3 aufzurüsten um den ganzen Chiplet-Kram loszuwerden. Wobei selbst eine Erweiterung nur auf RDNA2 lächerlich wäre, Reflex läuft selbst mit Maxwell-GPUs. Ob AMD den Support auf Hawaii ausweitet? Vermutlich nicht...
aufkrawall
2023-09-08, 16:48:37
Reflex läuft selbst mit Maxwell-GPUs.
Hatte es schon auf einer GTX 660 am Laufen. ;)
Tja, mit Anti-Lag+ für die 6700 XT würd ich mir keine neue Karte holen. So wird es wahrscheinlich eine 4070.
RoNsOn Xs
2023-09-08, 16:54:37
In Tomb Raider, Forspoken und RE4 funktionierte die Anzeige. Allerdings nur in TR konnte man mit der DEL-Taste den "Unterschied" herbei zaubern.
Es gibt jetzt von AMD offenbar Listen mit Anti-Lag+ Support, und noch eine weitere (??) Liste für "HYPR-tuned" Titel, die nicht deckungsgleich sind. In dem Owen-Video ist ansonsten keine Rede davon, dass Anti-Lag+ ohne RSR/Boost die BQ verringert.
Da kriegt man doch einen Knall bzw. das AMD Treiber-Marketing hat ihn definitiv schon. ;D
Und immer noch kein Wort darüber, weshalb Anti-Lag+ nicht auf RDNA2 funktionieren soll, während es mit Reflex da überhaupt keine Beschränkungen gibt.
"Nvidia, bitte nehmt mein Geld..."
War doch klar, dass das wieder ein Kommunikationsfail war.
aufkrawall
2023-09-08, 21:17:54
Ja, es sieht so aus, als wäre Anti-Lag+ nun so ziemlich das vergleichbare Reflex-Pendant. Allerdings Chance vertan, weil es durch den Treiber-Toggle vendorgelockt ist. Offenbar wollte AMD Intel kein Geschenk machen.
Einerseits gut, dass Reflex (hoffentlich) nicht mehr konkurrenzlos ist. Anderseits hat es mit dem RDNA3-Lock auch einen ziemlich faden Beigeschmack. Mr Nice Guy AMD ist definitiv vorbei.
The_Invisible
2023-09-08, 21:42:46
Wahrscheinlich will man erstmal die Leute dazu bringen, noch auf RDNA3 aufzurüsten um den ganzen Chiplet-Kram loszuwerden. Wobei selbst eine Erweiterung nur auf RDNA2 lächerlich wäre, Reflex läuft selbst mit Maxwell-GPUs. Ob AMD den Support auf Hawaii ausweitet? Vermutlich nicht...
Das wäre aber (mal wieder) ein schönes Fail weil AMD bei der Präsentation so getan hat das man alle Features für alle GPUs bringen will und sich noch über das RTX 40er exklusive FrameGeneration lustig gemacht hat.
robbitop
2023-09-08, 21:44:43
Ich würde sagen den Mister nice guy AMD gab es nie. AMD musste „nice“ sein aufgrund ihrer Rolle im Markt und aufgrund ihrer finanziellen Situation. Wie immer gilt: Firmen sind keine Menschen und sie sind nicht unsere Freunde. :)
Den RDNA3 Treiberlock finde ich auch unschlau. Dass man es auf Radeons lockt ist nachvollziehbar aber rdna3 only blockt den allergrößten Teil der sowieso schon in der Unterzahl befindlichen AMD User.
Ja, es sieht so aus, als wäre Anti-Lag+ nun so ziemlich das vergleichbare Reflex-Pendant. Allerdings Chance vertan, weil es durch den Treiber-Toggle vendorgelockt ist. Offenbar wollte AMD Intel kein Geschenk machen.
Einerseits gut, dass Reflex (hoffentlich) nicht mehr konkurrenzlos ist. Anderseits hat es mit dem RDNA3-Lock auch einen ziemlich faden Beigeschmack. Mr Nice Guy AMD ist definitiv vorbei.
Vielleicht gehts aber auch bei RDNA2 wirklich nicht.
BlacKi
2023-09-09, 01:09:24
Vielleicht gehts aber auch bei RDNA2 wirklich nicht.rdna2 ist nichtmal vendor lock u know? amd lernt von nv, how to make money. so traurig das ist, scheint amd wenigstens ernsthafte konkurenz zu werden.
Linmoum
2023-09-09, 01:20:45
Vielleicht gehts aber auch bei RDNA2 wirklich nicht.Reflex ist bei Nvidia selbst mit Maxwell nutzbar, also allen GPUs ab der 900er-Serie. Die sind von 2014. Ich weiß nicht, was AMD hier für eine vermeintliche Secret Sauce haben sollte, die Anti-Lag+ nur auf RDNA3 lauffähig macht (bzw. es auf älteren Architekturen erschwert, whatever). Wenn man sich seine eigenen Kunden vergraulen will, dann kann man das sicherlich auch auf andere Weise tun.
Exxtreme
2023-09-09, 01:35:36
Vielleicht gehts aber auch bei RDNA2 wirklich nicht.
RDNA2 und RDNA3 sind sich so ähnlich, dass das recht unwahrscheinlich ist.
OgrEGT
2023-09-09, 06:20:26
Und woher wissen wir dass es für immer und ewig so bleiben wird?
Kann trotzdem sein, dass RDNA2 eben Sachen nicht kann, die schon Maxwell konnte ;).
robbitop
2023-09-09, 09:22:28
Wenn der shitstorm groß genug wird, wird AMD es sicherlich möglich machen. Leider kommt man heute ohne oft nicht mehr zu einem sinnvollen Ergebnis.
aufkrawall
2023-09-09, 09:44:48
Ausgeschlossen ist das nicht, immerhin gibts noch gar nicht das HYPR-RX Profil im Treiber auswählbar für RDNA2. Was sich mit dem Treiber-FG ändern sollte, ggf. mit Anti-Lag+ im Schlepptau. Hat AMD bislang aber nicht versprochen und immer nur RDNA3 für Anti-Lag+ erwähnt.
AntiLag+, RT Boost und Treiber FG ist sicherlich ausschließlich RDNA3. Falls es einen AI-Boost für FSR noch geben sollte, dann der auch.
AlterSack
2023-09-09, 10:59:47
anti-lag lässt sich doch selbst auf meiner vega aktivieren!? :confused:
aufkrawall
2023-09-09, 11:00:17
Ich hatte es so verstanden, dass Treiber-FG für alles ab RDNA1 kommt. Gut, kann natürlich auch sein, dass das nur auf "unterstützte" GPUs für in-game FG bezogen ist und es HYPR-RX tatsächlich nur für RDNA3+ geben wird.
Ehrlich gesagt hab ich aber auch Zweifel für Q1 24 Treiber-FG, nachdem sich HYPER-RX so verspätet hat. Aber kann natürlich auch sein, dass sie gemerkt haben, dass FG ohne etwas wie Reflex Quatsch ist und sie deshalb Anti-Lag+ erstmal neu entwickeln mussten, mit entsprechenden Verzögerungen...
4070 ist btw. auf dem Weg. AMD hat mal wieder komplett verpasst, den 7800 XT-Launch für Vorstellungen der Upsampling-Verbesserungen etc. zu nutzen, während es von Nvidia schon längst zig Videos zu TC-Denoising von DLSS 3.5 gibt. Erachte ich als unendlich viel wichtiger als FG (und teilweise auch als höhere Texturdetails).
dildo4u
2023-09-09, 11:14:15
Treiber FG ist RDNA3 Exklusiv
Das Treiber-FMF soll wie HYPR-RX ausschließlich auf RDNA-3-Grafikkarten funktionieren.
https://www.computerbase.de/2023-08/amd-fsr-3-frame-generation-laeuft-offiziell-ab-rx-5000-und-rtx-2000/
aufkrawall
2023-09-09, 11:38:43
Aha, und bei in-game Implementierung sind dann die technischen Hürden für ältere GPUs natürlich nicht mehr existent. :freak:
Das ist echt absurd. Nvidia gibt wenigstens technische Gründe an, weshalb ihre FG-Implementierung (angeblich) nicht mit anderen GPUs funktioniert. AMD hingegen begründet gar nichts und baut offenbar einfach künstliche Software-Sperren auch für ihre eigenen Produkte ein. wtf. :eek:
Schnitzl
2023-09-09, 12:07:35
lesen ...? Schon im 2. Abschnitt steht:
AMDs FidelityFX Super Resolution der dritten Generation wird auf allen Grafikkarten lauffähig sein. Offiziell wird „Frame Generation“, AMD nennt die eigene Version „Fluid Motion Frames“ (FMF), ab einer Radeon-RX-5000- (RDNA 1) und ab einer GeForce-RTX-2000-Grafikkarte (Turing) lauffähig sein, generell kann diese aber auch auf allen anderen Grafikkarten von Nvidia Pascal, über AMD GCN bis hin zu Intels Arc genutzt werden. AMD garantiert aber nur auf den unterstützen GPUs das bestmögliche Erlebnis. Darüber hinaus rät AMD dazu, FSR 3 FMF erst ab einer Basis-Framerate von 60 FPS einzusetzen, nur so könne ein gutes Erlebnis gewährleistet werden. Zu ähnlichem rät auch Nvidia bei Frame Generation.
dildo4u
2023-09-09, 12:10:51
Aufpassen es gibt Unterschiede zwischen FSR 3 Game Integration und Treiber Schalter, der wird an RDNA3 gekoppelt.
aufkrawall
2023-09-09, 12:11:15
Du kannst selber nochmal ein paar Posts zurück nachlesen, es ging um Treiber-FMF. Wenn die Anwendung es mitbringt, läuft es auf allen GPUs, aber der Treiber soll es nur mit RDNA3 erzwingen können? Das ist eine komplett künstliche Limitierung, im Grunde noch offensichtlicher als bei Anti-Lag+...
DrFreaK666
2023-09-09, 12:13:36
Hauptsache sie stampfen es nicht so schnell wie Truform oder Smartshaders ein
Schnitzl
2023-09-09, 12:41:26
Du kannst selber nochmal ein paar Posts zurück nachlesen, es ging um Treiber-FMF. Wenn die Anwendung es mitbringt, läuft es auf allen GPUs, aber der Treiber soll es nur mit RDNA3 erzwingen können? Das ist eine komplett künstliche Limitierung, im Grunde noch offensichtlicher als bei Anti-Lag+...
keine Ahnung wo du das rausliest
aufkrawall
2023-09-09, 12:47:09
Du kannst ja mal versuchen, bei AMD das Gegenteil rauszulesen. Wird halt etwas schwierig, wenn sie einfach gar nichts sagen. Aber vielleicht kommt ja in ein paar Monaten wieder das Eingeständnis, dass es pure Absicht ist, wie schon bei der DLSS-Bremse...
Was für ne DLSS-Bremse, das war doch BS wie sich herausgestellt hat und was ich auch von Anfang an gesagt hab...
Ex3cut3r
2023-09-09, 13:38:18
Was für ne DLSS-Bremse, das war doch BS wie sich herausgestellt hat und was ich auch von Anfang an gesagt hab...
Quelle?
Die Mehrheit im Forum sieht es aber eher andersrum.
dildo4u
2023-09-09, 13:43:08
Jedi Survivor hat z.b grad DLSS3 bekommen und nicht 6 Monate oder 1Jahr später sondern 4 Monate klingt nicht nach einem Vertrag in Zusammenhang mit AMD sondern wie üblich wurde das Game vom Publisher zu früh auf den Markt geworfen.
Lurtz
2023-09-09, 13:47:11
Meint ihr nVidia wird eine Form von Frame Generation über den Treiber anbieten? FSR1 über den Treiber haben sie im Grunde ja auch mit NIS imitiert.
Quelle?
Die Mehrheit im Forum sieht es aber eher andersrum.
Ne, so nicht. Bringe Quellen, die das beweisen. Außer Hörensagen und einem unsäglichen HUB-Spekulationsvideo wirst aber nichts finden. Was Bethesda da macht, da kann AMD nix für. AMD hat es ja auch offiziell dementiert, DLSS zu behinden. Haben sie auch in der Vergangenheit nicht getan. Ich weiss das das im Forum immer noch herumgeistert, aber es ist eben Fakenews sonst nichts.
Du kannst selber nochmal ein paar Posts zurück nachlesen, es ging um Treiber-FMF. Wenn die Anwendung es mitbringt, läuft es auf allen GPUs, aber der Treiber soll es nur mit RDNA3 erzwingen können? Das ist eine komplett künstliche Limitierung, im Grunde noch offensichtlicher als bei Anti-Lag+...
Wenn es gleich funktionieren würde vielleicht, das tut es aber nicht ;). Du kannst den Scheiss ja gerne glauben, ich hätt da aber gern Gewissheit.
Ex3cut3r
2023-09-09, 14:07:05
Hä? Du behauptest doch das Gegenteil (zuerst), wo ist denn deine Quelle? Ja, so gehts aber nicht. ;D
Hä? Du behauptest doch das Gegenteil (zuerst), wo ist denn deine Quelle? Ja, so gehts aber nicht. ;D
Nein, ihr behauptet, dass das so wäre, also seid ihr in der Bringschuld.
aufkrawall
2023-09-09, 14:21:00
Wenn es gleich funktionieren würde vielleicht, das tut es aber nicht ;). Du kannst den Scheiss ja gerne glauben, ich hätt da aber gern Gewissheit.
Bei Anti-Lag+ ist es definitiv so. AMD hat schon gesagt, dass die Latenz-Reduktion durch die Eliminierung des CPU Prerenders kommt. Wie halt bei Reflex.
Gibt so etwas sogar als open-source Projekt, das die Reflex-Aufruhe abfängt: https://github.com/ishitatsuyuki/LatencyFleX
Einfach nur ein Schlag ins Gesicht von RDNA2-Besitzern, das so vorzuenthalten.
Jo, auch dafür hätt ich gern nen Beweis oder zumindest einen Hinweis. Das ist ne reine Vermutung von dir. Du weißt nicht, ob das so funktioniert, du behauptest das nur.
aufkrawall
2023-09-09, 16:42:43
In dem Owen-Video ist ein Slide mit Infos zu Prerender mit Anti-Lag+. Aber glaub halt lieber deiner Lieblingsmüllschleuder MLID, der wird das schon für dich irgendwie passend spinnen...
BlacKi
2023-09-09, 16:54:33
Meint ihr nVidia wird eine Form von Frame Generation über den Treiber anbieten? FSR1 über den Treiber haben sie im Grunde ja auch mit NIS imitiert.zunächst einmal gabs nis schon 1,5 jahre vor fsr. und was das FG für alle spiele angeht, wird das keine gut nutzbare lösung sein. auch nicht amds version. dazu müssen die spiele den inputlag möglichst reduziert haben, das gibts ja nicht bei allen spielen, das erlebnis wird also ziemlich dürftig sein.
aufkrawall
2023-09-09, 17:00:57
zunächst einmal gabs nis schon 1,5 jahre vor fsr.
Nein, das gabs erst danach. Nvidias Treiber-Lösung ist auch grottenschlecht umgesetzt vs. RSR.
BlacKi
2023-09-09, 17:08:23
Nein, das gabs erst danach. Nvidias Treiber-Lösung ist auch grottenschlecht umgesetzt vs. RSR.RIS war vor NIS, aber NIS war vor FSR.
und vor allem war nv freestyle.
aufkrawall
2023-09-09, 17:23:47
Wir haben beide recht: Es gab schon vor FSR 1 Lanczos-Scaling im NV-Treiber ab Turing. Das wurde aber danach nochmal überarbeitet.
Lurtz
2023-09-09, 18:23:42
zunächst einmal gabs nis schon 1,5 jahre vor fsr. und was das FG für alle spiele angeht, wird das keine gut nutzbare lösung sein. auch nicht amds version. dazu müssen die spiele den inputlag möglichst reduziert haben, das gibts ja nicht bei allen spielen, das erlebnis wird also ziemlich dürftig sein.
Aber wenn die Konkurrenz das Feature hat, kann man sich doch nicht die Blöße geben, es nicht zu haben :)
BlacKi
2023-09-09, 18:51:28
Aber wenn die Konkurrenz das Feature hat, kann man sich doch nicht die Blöße geben, es nicht zu haben :)ich denke nv wird es wegen rufschädigung des features entweder garnicht anbieten oder es zumindest anders nennen. damit man das schlechte global FG nicht mit dlss3 in verbindung bringt. das sehe ich übrigens bei amd als problematisch an, die leute werden das global FMF testen, es für schlecht befinden und FMF generell keine nutzung zusprechen. mit einem muss man immer rechnen, nämlich mit dem DAU. so wie damals mit dlss. viele haben das erste dlss getestet und danach wohl nie wieder. erst mit dem zwang durch ratched&dings wird man als DAU gezwungen es zu ntuzen. durch den zwang kann man die negative erfahrung ausmerzen. da zu dlss3 auch reflex gehört, und man das nicht global anwenden kann, wird es sicher anders heißen, falls es kommt.
DrFreaK666
2023-09-09, 19:43:58
Quelle?
Die Mehrheit im Forum sieht es aber eher andersrum.
10 von 36000 ist nicht die Mehrheit im Forum; von 1461 auch nicht
GerryB
2023-09-09, 19:51:30
Jedi Survivor hat z.b grad DLSS3 bekommen und nicht 6 Monate oder 1Jahr später sondern 4 Monate klingt nicht nach einem Vertrag in Zusammenhang mit AMD sondern wie üblich wurde das Game vom Publisher zu früh auf den Markt geworfen.
DLSS soll aber net problemlos sein.
https://www.overclock3d.net/news/software/it_doesn_t_work_-_dlss_sr_support_is_not_functional_in_star_war_jedi_survivor/1
Von daher nach m.E. verständlich das frühe Games erstmal auf der Xbox laufen müssen,
und anderer Kram erst später angeschaut werden kann.
BlacKi
2023-09-09, 21:31:09
deiner logik nach dürfte es dlss demnach noch garnicht geben. problematische einbindungen hätte man auch direkt zum release machen können. probleme nach 4 monaten klingt eher danach, das man erst jetzt druck bekommen hat es nachzuliefern.
GerryB
2023-09-09, 22:08:10
??? direkt zum Release
Was ist denn das für ne Logik?
Wie in CP2077 erstmal alle Konsolen außen vor lassen, nur damit DLSS reingepackt werden kann,
weil sonst die manpower beim Studio net reicht.(und dem Personal ne Menge unbezahlte Überstunden aufbuckeln)
Dann doch lieber gleich die Konsolen mitspielen lassen und irgendwelche PC-Gimmicks später.
Schnitzl
2023-09-11, 22:32:21
Hat denn jemand schon ne 7700 oder 7800?
wenn ja, schreibt doch mal was :)
- von welcher GK gewechselt?
- welche CPU?
- welche Spiele / sonstige Eindrücke
vinacis_vivids
2023-09-12, 00:52:24
HYPR-RX Benchmark | Call Of Duty Modern Warfare 2 | 2160P Extreme Settings | 7950X3D + 7900XTX Nitro
472unuojj5M
DrFreaK666
2023-09-12, 04:02:34
Die Bildquaität ist ja nicht so der Hammer. Wie will man so visuelle Unterschiede erkennen?
sun-man
2023-09-12, 13:47:43
https://www.computerbase.de/2023-09/rx-7800-xt-custom-design-test/
Schon AMDs Referenzdesign (MBA) der Radeon RX 7800 XT wusste zu überzeugen, doch die Custom-Designs Asus TUF Gaming OC, PowerColor Hellhound, Sapphire Nitro+ und Merc 319 kühlen noch einmal besser und bleiben trotzdem leiser. Welches Modell im Vergleich die beste Vorstellung abliefert, klärt der Test.
XFX mit nem Biosschalter ohne Wert?
Die Verkaufszahlen dürften recht eindeutig sein.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+7800+XT.html
vinacis_vivids
2023-09-12, 22:07:43
Die Sapphire Nitro+ 7800XT verspricht je nach Modell und Chipgüte eine sehr sehr gute OC-Leistung und kommt an die teuere 4070Ti ran.
https://abload.de/img/rx7800xttpuoc157xii5.png
Haken: Sapphire verlangt Geld für den sehr sehr guten Kühler.
uweskw
2023-09-13, 06:10:51
Für 600€ so schnell wie eine Geforce für 900€ ?!
Wie sieht es mit der Bildqualität aus? Ist das heute noch ein Thema?
greetz
US
GerryB
2023-09-13, 07:33:00
... und kommt an die teuere 4070Ti ran.
Lass mal die Kirche im Dorf!
(ne 4070Ti kann man auch OCen)
nur weils zufällig in einem Test so ist, machst Du alle Leute mit Deinen Theorien verrückt
nach m.E. wird die Mehrzahl der Games eher so wie TLoU@4k laufen
(NV kann viel mehr Studios unterstützen als AMD, ... da wirds nur Einzelfälle geben, wo wirklich ne 7800xt optimal ausgereizt wird)
vinacis_vivids
2023-09-13, 09:09:06
???
7800XT 48,8fps * 1,15 X ~ 56,12 fps
4070Ti ~ 54,7 fps
Der 15% Bump bei der 7800XT ist extremst mächtig und im OC Zustand ist die 7800XT in vielen Spielen auch schneller als die 4070Ti, in wenigen RT Spielen langsamer. Insgesamt sehe ich nur Vorteile für die 7800XT 16GB, weil ähnlich schnell, mehr Speicher und deutlich günstiger.
Huang muss mit dem Preis der 4070Ti 12GB runtergehen oder die 7800XT 16GB wird dauerhaft ausverkauft sein.
https://abload.de/thumb/the-last-of-us-part-1lyiey.png (https://abload.de/image.php?img=the-last-of-us-part-1lyiey.png)
7800XT OC ~ 51,52fps
4070Ti ~ 46,0fps
7800XT ~ 44,8fps
Aber euch schmecken wohl die Ergebnisse vom großen Bruder nicht? Selbst im OC wird die 4070Ti chancenlos sein, weil nur 12GB VRAM in Grenzfällen eben schlechter sind als 16GB.
Insgesamt muss man sagen, dass NV die Gaming-Sparte in der Mittelklasse einstampfen kann bei der schwachen Leistung für das viele Geld. Enttäuschung pur von Huang &Co, der nur noch in der AI-Blase lebt.
sun-man
2023-09-13, 09:23:34
Das ist doch Quatsch was Du da erzählst. Mal abgesehen das TechPowerUp selber sagt "Overclocking is pretty complicated, just like on other RDNA3 cards."
Wer natürlich nur auf einen Wert schaut freut sich ein Loch in den Bauch. Average betrachtet die die 7800XT eben das was sie ist. IMHO, wie der 4070 Ramsch, zu teuer aber ingesamt OK.
Das Bild machen die ja nicht umsonst.
https://tpucdn.com/review/sapphire-radeon-rx-7800-xt-nitro/images/average-fps-2560-1440.png
Techpowerup hat die 4070TI leider beim OC noch nicht mit dem TimeSpy gebencht. Im Schnitt gewinnt die 4070 Non Ti aber auch ganze 3 FPS im Schnitt..die TI dann vielleicht 4-5....dann ist der Abstand fast wieder da. Meine Güte, so ein Quatsch wegen 7 fps ^^
https://tpucdn.com/review/palit-geforce-rtx-4070-jetstream/images/overclocked-performance.png
][immy
2023-09-13, 09:35:00
???
7800XT 48,8fps * 1,15 X ~ 56,12 fps
4070Ti ~ 54,7 fps
Der 15% Bump bei der 7800XT ist extremst mächtig und im OC Zustand ist die 7800XT in vielen Spielen auch schneller als die 4070Ti, in wenigen RT Spielen langsamer. Insgesamt sehe ich nur Vorteile für die 7800XT 16GB, weil ähnlich schnell, mehr Speicher und deutlich günstiger.
Huang muss mit dem Preis der 4070Ti 12GB runtergehen oder die 7800XT 16GB wird dauerhaft ausverkauft sein.
https://abload.de/thumb/the-last-of-us-part-1lyiey.png (https://abload.de/image.php?img=the-last-of-us-part-1lyiey.png)
7800XT OC ~ 51,52fps
4070Ti ~ 46,0fps
7800XT ~ 44,8fps
Aber euch schmecken wohl die Ergebnisse vom großen Bruder nicht? Selbst im OC wird die 4070Ti chancenlos sein, weil nur 12GB VRAM in Grenzfällen eben schlechter sind als 16GB.
Insgesamt muss man sagen, dass NV die Gaming-Sparte in der Mittelklasse einstampfen kann bei der schwachen Leistung für das viele Geld. Enttäuschung pur von Huang &Co, der nur noch in der AI-Blase lebt.
Ich würde eher sagen, in den Preisbereichen existiert keine Mittelklasse mehr. Die wurde von Nvidia gekillt.
Und ja die 12 GB werden hier mal limitieren, aber letztendlich ist der Vergleich nur gültig wenn auch die 4070 (ti) übertaktet wird.
Und der Verbrauch ist dann auch noch mal ganz wo anders.
Hatstick
2023-09-13, 11:05:21
Die 4070Ti war doch von Anfang an nur eine "taktische Karte", um Leute zur RTX 4080 greifen zu lassen.
Die Karte war und ist P/L die schlechteste 4000er nVidia Karte, messen muss sich die 7800XT mit der RTX 4070 und ja, da ist sie konkurrenzfähig aus ABER den Überverkauf wird es jetzt Mitte September 2023 nicht mehr geben, weil sich die meisten Leute einfach eingedeckt haben und da war lange Zeit nur die RTX 4070 die Option für runde 600€.
Die 7800XT ist ansich eine rundum solide Karte, leider nur zu spät.
E39Driver
2023-09-13, 11:24:29
Finde die vorgestellte RX 7700 und 7800XT jetzt gar nicht mal so schlecht. Da hatte man in den Berichten Vorab schlimmeres erwartet. So haben wir jetzt eine Karte die ein paar Prozent schneller und sparsamer als eine 6800XT ist und zugleich etwas weniger kostet. Im direkten Vergleich zur Geforce 4070 ist die 7800XT die bessere Wahl.
Nur das Namensschema passt überhaupt nicht mehr. Die 7800XT hätte man 7700 und die 7700 hätte man 7600 nennen müssen, dann wäre alles gut gewesen. So sieht es jetzt halt sehr nach Stagnation aus
aufkrawall
2023-09-13, 12:40:46
Wie sieht es mit der Bildqualität aus? Ist das heute noch ein Thema?
Ja. Moderne Grafik mit RT funktioniert ohne Machine Learning nicht mehr richtig.
Nativ:
https://abload.de/thumb/fortniteclient-win64-k0eiy.png (https://abload.de/image.php?img=fortniteclient-win64-k0eiy.png)
TSR Q:
https://abload.de/thumb/fortniteclient-win64-fzf0k.png (https://abload.de/image.php?img=fortniteclient-win64-fzf0k.png)
DLSS Q:
https://abload.de/thumb/fortniteclient-win64-4sew3.png (https://abload.de/image.php?img=fortniteclient-win64-4sew3.png)
Und das ist noch ohne TC-Denoising.
uweskw
2023-09-13, 13:59:55
Ja. Moderne Grafik mit RT funktioniert ohne Machine Learning nicht mehr richtig.
Nativ:
TSR Q:
DLSS Q:
Und das ist noch ohne TC-Denoising.
Bin da Laie, aber anscheinend bügelt DLSS Q alles glatt und weg. Auch Details.
TSR Q ist AMD? Ich hatte beim kurzcheck gemeint das wäre von Epic Games.
DrFreaK666
2023-09-13, 15:04:56
Bin da Laie, aber anscheinend bügelt DLSS Q alles glatt und weg. Auch Details.
TSR Q ist AMD? Ich hatte beim kurzcheck gemeint das wäre von Epic Games.
Fortnite hat kein FSR. Toller Engine-Showcase :up:
Ist halt mal wieder Äpfel mit Birnen ;).
aufkrawall
2023-09-13, 15:13:31
Ist halt mal wieder Äpfel mit Birnen ;).
Eher Kuchen vs. Brot, so komplett lächerlich schlecht, wie FSR 2 in z.B. Aveum gegen DLSS aussieht. :freak:
Wenn man die UE Matrix-Demo mit FSR 2 shippen würde, wär das Ergebnis die reinste Comedy.
uweskw
2023-09-13, 15:40:21
ich bin jetzt kein bisschen schlauer...
Ist die Grafik-Qualität NV besser als von AMD?
greetz
US
DrFreaK666
2023-09-13, 15:45:58
ich bin jetzt kein bisschen schlauer...
Ist die Grafik-Qualität NV besser als von AMD?
greetz
US
Ja, immer noch
Hier ein Kurztest zu HYPR-RX
LmPsMnysdj8
aufkrawall
2023-09-13, 15:47:01
Ist die Grafik-Qualität NV besser als von AMD?
Mit Upsampling, was in vielen neuen Spielen aufgrund der Leistungskosten defakto Pflicht ist, lässt sich das eindeutig bejahen. Der Unterschied ist im Grunde viel größer als das damals mit der Texturfilterung jemals der Fall gewesen ist. FSR 2 ist mehr oder weniger gescheitert für komplexes Rendering.
Und das dürfte mit Ray Reconstruction via TCs noch viel ausgeprägter werden.
Rancor
2023-09-13, 16:25:11
AMD hängt dort leider technologisch mittlerweile viel zu sehr hinten. FSR3 kommt auch VIEL zu spät.
Meine nächste Karte wird wohl leider wieder eine Nvidia werden müssen.
sun-man
2023-09-13, 16:42:53
Leider gibts da zu wenig was wirklich auswertbar ist. Gefühlt sagt und vermutet und denkt jeder nur das FSR3 mies ist - was ja sein kann, aber SEHEN kann man irgendwie nichts.
Ich bin kein Speicher-12GB-Mimimi Heuler, aber komme da wirklich nicht weiter. Die Hellhound, oder die Nitro+ ist ne interessante Karte, einfach weil sie da ist und so viel schlechter als ne 4070 nicht ist. Ob das nun in 2023 mies ist, man seit Jahren hinter her hinkt oder man einfach A ioder B mies findet ist mir wirklich egal. Ebenso juckt mich nicht ob ich Schatten auf Mid stellen müsste.
Solche Vids zeigen eigentlich zur AMD. Beim Speicher ist das halt auch immer wieder so das NV weniger nutzt, wo (ich meine Igor wars) sagte das deren Algorithmus schlicht besser ist.
HBn0tgKy-rk
Troyan
2023-09-13, 17:10:02
Das ist ein Fake-Video.
The_Invisible
2023-09-13, 17:16:51
AMD hängt dort leider technologisch mittlerweile viel zu sehr hinten. FSR3 kommt auch VIEL zu spät.
Meine nächste Karte wird wohl leider wieder eine Nvidia werden müssen.
AMD ist halt immer am nachziehen und nvidia hat schon RayReconstruction vorgestellt das wohl noch vor FSR benutzbar sein wird, also cp2077 dlc launch.
Und spätestens hier muss AMD auch mal auf AI umschwenken weil da eh schon handoptimierte Denoiser im Einsatz sind.
sun-man
2023-09-13, 17:23:52
Das ist ein Fake-Video.
:freak:
Langlay
2023-09-13, 17:37:18
:freak:
Früher also vor 1-2 Jahren war das definitiv ein Kanal der die Videos gefaked hat, ob das allerdings immernoch der Fall ist kann ich nicht sagen.
sun-man
2023-09-13, 17:45:52
Früher also vor 1-2 Jahren war das definitiv ein Kanal der die Videos gefaked hat, ob das allerdings immernoch der Fall ist kann ich nicht sagen.
Dann wäre er wohl kaum noch da wenn das nur Fakes wären.
Am Ende gibts ja genügend Benches in 1440p (Hardware Unboxed) welche die 4080 und die 7800XT relativ gleichauf sehen - ausgenommen RT ist an. Da fehlen halt ganz schlicht diese angeblich ach so tollen FSR3 Vergleiche. Ich find es schwierig.
Langlay
2023-09-13, 17:50:31
Dann wäre er wohl kaum noch da wenn das nur Fakes wären.
Ist aber so das zumindest teilweise gefaked wurde.
Hier mal ein Extrembeispiel.
DDR4 4000MHz RAM auf einem 2700X.
HhRSvHeexv4
Grundsätzlich muss ja nicht alles gefaked sein, aber selbst wenn nur früher oder teilweise gefaked wird, ist halt die Glaubhaftigkeit dahin.
sun-man
2023-09-13, 17:55:56
Ist aber so.
Ich will den Kanal nicht verteidigen weil er mir egal ist. Aber "Ist aber so" ohen Erklärung woran man das erkennt erschließt sich dem Laien nicht.
Langlay
2023-09-13, 18:02:38
Ich will den Kanal nicht verteidigen weil er mir egal ist. Aber "Ist aber so" ohen Erklärung woran man das erkennt erschließt sich dem Laien nicht.
Wenn du einen Zen+ hast der auf DDR3800 läuft, biste der ganz grosse Gewinner in der CPU Lotterie.
Also ein Zen+ der DDR4000 stabil schafft gibt es einfach nicht.
https://i.imgur.com/FSToZgw.png
https://docs.google.com/spreadsheets/d/1dsu9K1Nt_7apHBdiy0MWVPcYjf6nOlr9CtkkfN78tSo/edit#gid=1814864213
sun-man
2023-09-13, 18:52:35
Wenn du einen Zen+ hast der auf DDR3800 läuft, biste der ganz grosse Gewinner in der CPU Lotterie.
Verstanden :idea:
Aber und mal abgesehen davon zeigen auch andere Tests mal diesen und mal jenen vorne. Das macht es, für mich, ja so kompliziert. Die RTX 4070 von KFA2 ist gerade für 585 bei Ebay zu haben - ich trau mich aber nicht, hab aber auch noch Zeit ;)
GerryB
2023-09-13, 22:48:17
HUB
https://www.youtube.com/watch?v=J0jVvS6DtLE
Warum Fortnite@DX11 verwendet wurde, who knows, ... sähe vllt. @DX12 ganz anders aus.
R+C scheint mit RT zu sein, ... Raster only wäre evtl. anders.
gefühltes Fazit:
ungefähr die Hälfte der Games ist nicht groß unterschiedlich +/-8%
bleiben die andere Hälfte der Games, wo die 7800xt@Raster deutlich besser läuft
dildo4u
2023-09-14, 06:33:35
HUB
https://www.youtube.com/watch?v=J0jVvS6DtLE
Warum Fortnite@DX11 verwendet wurde, who knows, ... sähe vllt. @DX12 ganz anders aus.
R+C scheint mit RT zu sein, ... Raster only wäre evtl. anders.
gefühltes Fazit:
ungefähr die Hälfte der Games ist nicht groß unterschiedlich +/-8%
bleiben die andere Hälfte der Games, wo die 7800xt@Raster deutlich besser läuft
Das wichtigere Fazit ist das die Karte nur in den USA überzeugt, die Preise sind ansonsten ein Witz das scheint nicht nur in der EU so zu sein.
Also macht hier weder die 7700 noch 7800 Sinn.
Und er nimmt DX11 für Fortnite weil er es im Gegensatz zu euch regelmäßig zockt und es mit der API deutlich runder läuft.
127.0.0.1
2023-09-14, 10:33:26
Die Preise in D sind im Moment einfach nur pervers. Ich wollte ja ne 7800 kaufen aber nicht zu dem Tarif, sorry.
Denniss
2023-09-14, 11:11:31
jedes mal das gleiche Gejammer, einfach mal ein paar Wochen warten bis die regelmäßigen Nachlieferungen auch die Preise stabilisieren oder gar zu Senkungen führen.
GerryB
2023-09-14, 12:34:04
Und er nimmt DX11 für Fortnite weil er es im Gegensatz zu euch regelmäßig zockt und es mit der API deutlich runder läuft.
???
mit DX12 auf ner 6800 keine Probleme
btw.
C+R sah bei CB auch ganz anders aus (obs an der Szene liegt?)
Fazit:
als 7800xt-Käufer würde ich mir keine Sorgen über die 2 vermeintlichen Ausreisser machen.
(da hat HUB nur ne seltsame Auswahl getroffen)
aufkrawall
2023-09-14, 13:30:05
Und er nimmt DX11 für Fortnite weil er es im Gegensatz zu euch regelmäßig zockt und es mit der API deutlich runder läuft.
Einfach komplett unwahr. Der einzige Grund für D3D11 ist der Performance-Mode, mit dem man das Gras ohne reduzierte Item-Sichtweite ausblenden kann.
Hat mit AMD aber kaputte CPU-Performance.
Hogwarts Legacy btw. ist hier auch auf der 4070 einer der größten RT-Fails von allen. Das läuft auch mit FG so unfassbar beschissen im CPU-Limit, dagegen ist selbst das Witcher 3 Remaster ein Vorzeige-Titel für Optimierung. ;D
DrFreaK666
2023-09-20, 18:35:19
Test von DF
MR19w6QrRM4
sun-man
2023-09-20, 19:23:01
Viel Gequatsche bei dem ich mich manchmal schwer tue wegen Englisch ;) . Insgesamt bleibt die 7800XT ein gute 4070 Gegner - bis man zum DLSS Kapitel kommt. Das sagt er selber das DLSS "a much better upscaler against FSR2....quatnivied (oder so) better than FSR2" Starfield hat 960.000 DLSS Downloads....der Shoot bei 16:23 ist hart. Ich sehe da nur Matsch bei FSR2 (und ich bin nicht verwöhnt).
Keine Ahnung ob die AMD oder NV sind, aber das ist für mich auch eines der guten Reviews und bestärkt mich darin die 4070 zu behalten. Leider gibts ja nichts von FSR3 zu sehen.
DrFreaK666
2023-09-20, 19:36:05
Wenns kein FSR3 gibt, dann kann man auch nichts zeigen. Mit deiner 4070 kannst dir übrigens selbst ein Bild von FSR2 machen, wenn du unterstütze Games hast.
Du hast selbst gesehen, dass bei den Vergleichen reingezoomt UND verlangsamt wurde um die Unterschiede zu zeigen.
Fallen die dir bei normalem Gameplay auf?
Exxtreme
2023-09-20, 19:38:40
Leider gibts ja nichts von FSR3 zu sehen.
FSR3 wird qualitativ wahrscheinlich nicht besser sein als FSR2. FSR bleibt weiterhin ein gutes TAA + Upscaler. Die TAA-Probleme kann es aber nicht komplett entfernen.
DrFreaK666
2023-09-20, 19:47:54
Die beste Spielerei kommt sowieso nächstes Jahr.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.