PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4070 Review-Thread


Seiten : [1] 2 3 4

Leonidas
2023-04-12, 14:57:04
GeForce RTX 4070
AD104-250
46 SM @ 192 Bit, 12 GB GDDR6X
$599 / 659€
Marktstart: 13. April 2023

|Chip|Hardware|TDP|Listenpreis|Release
GeForce RTX 4090|AD102-300|128 SM @ 384 Bit, 72 MB L2 24 GB GDDR6X|450W|$1599 / 1819€|12. Oktober 2022
GeForce RTX 4080|AD103-300|76 SM @ 256 Bit, 64 MB L2, 16 GB GDDR6X|320W|$1199 / 1369€|16. November 2022
GeForce RTX 4070 Ti|AD104-400|60 SM @ 192 Bit, 48 MB L2, 12 GB GDDR6X|285W|$799 / 899€|5. Januar 2023
GeForce RTX 4070|AD104-250|46 SM @ 192 Bit, 36 MB L2, 12 GB GDDR6X|200W|$599 / 659€|13. April 2023

Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/nvidia-geforce-rtx-4070-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/153734/nvidia-geforce-rtx-4070-msrp-graphics-cards-review-roundup).

Raff
2023-04-12, 15:01:06
Nvidia Geforce RTX 4070 im XXL-Test: Der neue Effizienzmeister (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/)

IEuwQ-vsUGk

Geforce RTX 4070 im Benchmark-Test: Vergleich mit 43 Grafikkarten seit GTX 1050 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/)

MfG
Raff

Troyan
2023-04-12, 15:04:54
UVP in Deutschland 659€.

Leonidas
2023-04-12, 15:05:34
UVP in Deutschland 659€.

Aktualisiert!

dildo4u
2023-04-12, 15:06:47
Das erklärt den Preis ich hatte auf 3080 12GB Performance getippt, PCGH hat sie bei Raster auf 6800XT Level. :eek:

uZHDq-LEGzw

DNX6fSeYYT8

LVovUcHnwws

Der_Korken
2023-04-12, 15:12:54
Speicherausbau finde ich für die Leistung OK. Effizienz ist gut, besser als bei der großen Karte und auch im 2D-Betrieb. Sehr solide 400€-Karte. Oh wait ...

Ex3cut3r
2023-04-12, 15:16:08
Noch ein bisschen warten, für 500€ fände ich es gut.

Der_Korken
2023-04-12, 15:17:41
Noch ein bisschen warten, für 500€ fände ich es gut.

Wenn ich den P/L-Fortschritt der letzten 2,5 Jahre hochrechne, dauert es bis 500€ noch ungefähr ... unendlich ... Jahre ;).

DeadMeat
2023-04-12, 15:18:01
659€ Midrange mit 12gb, die Lederjacke diese Preisentwicklung ja angekündigt. Schade, Abfall.

Ex3cut3r
2023-04-12, 15:22:10
Wenn ich den P/L-Fortschritt der letzten 2,5 Jahre hochrechne, dauert es bis 500€ noch ungefähr ... unendlich ... Jahre ;).

Wieso? Die 4090 ist auch auf 1679€ von 2200€+ gefallen. Die 4080 auch. Geht schon, dauert nur 6-9 Monate.

DrFreaK666
2023-04-12, 15:22:51
Im Vergleich zur gleich teuren 6950XT sprechen eigentlich nur die deutlich bessere Effizienz und DLSS.
Die AMD-Karte ist mit RZ aber schneller und mit RT laut CB in etwa gleichschnell. Die 6950 hat zusätzlich noch mehr Speicher

Taigatrommel
2023-04-12, 15:24:06
Es zeigt sich hier ja scheinbar genau das erwartete Problem der aktuellen Generation: Der Leistungssprung in einem Preissegment bleibt quasi vollkommen aus. Für ~650,-€ gibt es aktuell immer wieder eine 6900 XT oder auch 6950 XT, welche spürbar mehr Speicher bietet, deren Rasterleistung quasi durch die Bank weg besser ist, jedoch in RT halt durch die Bank weg nicht direkt die Stirn bieten kann. Hier gewinnt hauptsächlich die Effizenz, wo die 6900er immerhin eine rund 50% höhere Leistungsaufnahme haben.

Unter dem Strich bekomme ich für meine 650,-€ also kein besseres Produkt als das, was ich in dieser Form teilweise schon seit Monaten immer mal wieder bekommen kann.

Edit: Für einen hunderter weniger macht auch die 6800 XT eine ganz gute Figur.

DeadMeat
2023-04-12, 15:24:41
Die billigste 4080 ist nur um 100 gefallen im gleichem Zeitraum. Die meisten 80er sogar noch weniger. In dem Tempo passiert das wohl eher nicht.

Die 4080 auch. Geht schon, dauert nur 6-9 Monate.

Leonidas
2023-04-12, 15:26:39
Wieso? Die 4090 ist auch auf 1679€ von 2200€+ gefallen. Die 4080 auch. Geht schon, dauert nur 6-9 Monate.

Jein. Diese Karten sind wegen des besseren Euro-Kurses gefallen (und bei der 4090 wegen der besseren Lieferbarkeit). Nicht aber wegen eine substantiellen Entwicklung. In den USA kostet eine 4080 noch genauso viel wie am Launch-Tag.

Ex3cut3r
2023-04-12, 15:27:28
So stark? Wage ich zu bezweifeln, die liegen eher wie Steine in den Regalen. Die "Freaks" haben zum Launch für 2200€+ zugeschlagen, danach wurde es sehr ruhig.

Im Vergleich zur gleich teuren 6950XT sprechen eigentlich nur die deutlich bessere Effizienz und DLSS.
Die AMD-Karte ist mit RZ aber schneller und mit RT laut CB in etwa gleichschnell. Die 6950 hat zusätzlich noch mehr Speicher

Wurde niemals eine veraltete Architektur kaufen, aber das muss jeder selbst entscheiden.

Lurtz
2023-04-12, 15:29:04
Schön wie das 650€ = Mittelklasse-Narrativ von den meisten Reviewern übernommen und in den Headlines mit positiven Begriffen wie "Effizienzmonster" um sich geschmissen wird.

Naja, so ist das eben im Produkt"journalismus".

Exxtreme
2023-04-12, 15:29:57
Im Vergleich zur gleich teuren 6950XT sprechen eigentlich nur die deutlich bessere Effizienz und DLSS.
Die AMD-Karte ist mit RZ aber schneller und mit RT laut CB in etwa gleichschnell. Die 6950 hat zusätzlich noch mehr Speicher

Ja, eine ~ 2,5 Jahre alte RX 6900 ist wohl zukunftssicherer als eine aktuelle RTX 4070. :freak: Das muss man erstmal schaffen.

Linmoum
2023-04-12, 15:35:42
Tolle Effizienz, ansonsten völlige Müllkarte. Sollte maximal 450€ kosten.

Ex3cut3r
2023-04-12, 15:36:38
Tolle Effizienz, ansonsten völlige Müllkarte. Sollte maximal 450€ kosten.

Sagt der 4090 Käufer, guter Humor. :biggrin:

Linmoum
2023-04-12, 15:41:54
Sagt der 4090 Käufer, guter Humor. :biggrin:Musst du mir mal erklären, raffe ich nämlich gerade wirklich nicht, was der Vergleich soll.

Die Effizienz ist das einzige, was diese Karte auszeichnet. Wer sie zu diesem Preis aber trotzdem statt einer 6800XT/6900XT kauft, der muss absoluter Hardcore-Fanboy sein. Ist schon echt eine Leistung von Nvidia, dass Karten von der Konkurrenz 2020 deutlich attraktiver sind als das eigene Produkt.

Das Argument FG bei dem Speicherausbau ist auch kein pro-Argument.

Ex3cut3r
2023-04-12, 15:43:17
Musst du mir mal erklären, raffe ich nämlich gerade wirklich nicht, was der Vergleich soll.

Die Effizienz ist das einzige, was diese Karte auszeichnet. Wer sie zu diesem Preis aber trotzdem statt einer 6800XT/6900XT kauft, der muss absoluter Hardcore-Fanboy sein. Ist schon echt eine Leistung von Nvidia, dass Karten von der Konkurrenz 2020 deutlich attraktiver sind als das eigene Produkt.

Das Argument FG bei dem Speicherausbau ist auch kein pro-Argument.
Mal Hand aufs Herz, 2200€+ ist auch eine 4090 nicht wert gewesen, von daher sollte man vlt. sich etwas zurückhalten, in dem man andere Karten als Müll bezeichnet, aber erheblich billiger sind.

Exxtreme
2023-04-12, 15:44:07
Sagt der 4090 Käufer, guter Humor. :biggrin:

IMHO hat er recht. Für das Gebotene ist die RTX 4070 viel zu teuer. Und wird wahrscheinlich nichteinmal 1/4 solange halten dank der 12 GB VRAM im Vergleich zur RTX 4090. Also müsste sie auch nur 1/4 kosten. Und das wären so 420 EUR.

Lehdro
2023-04-12, 15:44:53
Oha, da bin ich sogar noch negativ überrascht worden. Tatsächlich unterhalb einer 3080. Effizienz ist toll, zählt aber nur als Bonuspunkt wenn der Rest stimmt.

Preislich eine echte Katastrophe imo.

w0mbat
2023-04-12, 15:45:37
Eigentlich ne ganz ordentliche Karte. Genug Leistung für 1440p, mit 12GB (noch) ausreichend VRAM, gutes RT, DLSS3, und dazu die geniale Effizienz.

Aber ist halt maximal ne 500€ Karte und keine 660€+ wert.

Linmoum
2023-04-12, 15:48:09
Wobei selbst für 500€ der Fortschritt zur 3070 für einen solch riesigen Fertigungssprung ziemlich... underwhelming ist. Immer noch grotesk, dass der größte Sprung bei der Performance (und absurderweise der kleinste beim Preis) gegenüber dem "Vorgänger" bei der 4090 kam.

Leonidas
2023-04-12, 15:48:29
Schön wie das 650€ = Mittelklasse-Narrativ von den meisten Reviewern übernommen und in den Headlines mit positiven Begriffen wie "Effizienzmonster" um sich geschmissen wird.

Fällt mir auch auf. Den Vogel schießen Tom's Hardware ab:
"Mainstream Ada Arrives"

Troyan
2023-04-12, 15:48:52
Es zeigt sich hier ja scheinbar genau das erwartete Problem der aktuellen Generation: Der Leistungssprung in einem Preissegment bleibt quasi vollkommen aus. Für ~650,-€ gibt es aktuell immer wieder eine 6900 XT oder auch 6950 XT, welche spürbar mehr Speicher bietet, deren Rasterleistung quasi durch die Bank weg besser ist, jedoch in RT halt durch die Bank weg nicht direkt die Stirn bieten kann. Hier gewinnt hauptsächlich die Effizenz, wo die 6900er immerhin eine rund 50% höhere Leistungsaufnahme haben.

Unter dem Strich bekomme ich für meine 650,-€ also kein besseres Produkt als das, was ich in dieser Form teilweise schon seit Monaten immer mal wieder bekommen kann.

Edit: Für einen hunderter weniger macht auch die 6800 XT eine ganz gute Figur.

Warum sollte man AMD kaufen? 100W mehr Verbrauch, null Leistung bei Raytracing, VRAM vollkommen belanglos.

Man muss die Karte nicht toll finden, aber ist immer noch besser als das, was als Alternative zur Verfügung steht.

maximus_hertus
2023-04-12, 15:49:20
Wenn man die mit der 4070 vergleicht:

Vorteil 6950XT:

+ Raster grob 15% schneller
+ 16 statt 12GB VRAM
+ leiser


Vorteil 4070:

+ RT wohl rund 5% schneller, wobei bei 5% kann man grob vom Gleichstand reden
+ Energieeffizienter

Außer der Energieeffizienz bleibt nicht viel bei der 4070. Bei MF bekommt man die 6950 XT aktuell für 649 Euro, also sogar minimal günstiger als die 4070 :)

Das ist schon enttäuschend für eine neue Generation.

Mit 16GB wären die 659 Euro in Ordnung. Nciht mehr, nicht weniger.
12GB sind halt "krumm" und man läuft Gefahr, dass doch in 2+ Jahren der VRAM limitiert, was so ziemlich der GAU wäre. Mangelnde Rechenleistung kann man kompensieren, mangelnden VRAM eher nicht.

Die jetzige 4070 für 499 USD / 549 Euro wäre immer noch kein überragender Deal, aber dann in Ordnung.

Irgendwie bekomme ich immer mehr das Gefühl, dass die RTX 4000 nur eine Übergangs-Gen ist und man eigentlich auf RTX 5000 warten sollte (die zwar wohl auch teuer sein werden, aber dann mit der richtigen VRAM Menge kommen würden).

Lurtz
2023-04-12, 15:53:15
Warum sollte man AMD kaufen? 100W mehr Verbrauch, null Leistung bei Raytracing, VRAM vollkommen belanglos.

Mit sub 3080-Performance macht RT eh keinen Spaß. Da rettet auch Frame Generation nichts mehr.

aufkrawall
2023-04-12, 15:53:52
12GB sind halt "krumm" und man läuft Gefahr, dass doch in 2+ Jahren der VRAM limitiert
Woher rührt denn immer dieser Optimismus, dass nicht schon vor Ablauf der kommenden zwei Jahre gewisse Details/RT/FG problematisch mit den 12GB sein könnten? Die sind schließlich Stand heute schon nur das Minimum, um alles aktivieren zu können. Da kann selbst noch dieses Jahr irgendwas erscheinen, was schon Anstalten machen könnte.

maximus_hertus
2023-04-12, 15:55:38
VRAM vollkommen belanglos.

Man muss die Karte nicht toll finden, aber ist immer noch besser als das, was als Alternative zur Verfügung steht.

Na ja, die RTX 3070 gibt es aktuell ab 499 Euro.

Ergo 4070 ist mindestens(!) 32% teurer (wahrscheinlich eher Richtung 40+%) bei gerade mal rund 20-25% mehr Performance. Ist die 3070 dann nicht die bessere Empfehlung statt der 4070?


Woher rührt denn immer dieser Optimismus, dass nicht schon vor Ablauf der kommenden zwei Jahre gewisse Details/RT/FG problematisch mit den 12GB sein könnten? Die sind schließlich Stand heute schon nur das Minimum, um alles aktivieren zu können. Da kann selbst noch dieses Jahr irgendwas erscheinen, was schon Anstalten machen könnte.

Da gebe ich die komplett recht, ich wollte das nur nicht zu "provokant" formulieren.

Raff
2023-04-12, 15:56:00
Schön wie das 650€ = Mittelklasse-Narrativ von den meisten Reviewern übernommen und in den Headlines mit positiven Begriffen wie "Effizienzmonster" um sich geschmissen wird.

Naja, so ist das eben im Produkt"journalismus".

Die Karte ist belegbar sehr effizient, sodass der Titel "Effizienzmonster" passt. Die Diskussion um "Klassen" ist hingegen subjektiv und somit endlos.

MfG
Raff

Troyan
2023-04-12, 15:56:36
Mit sub 3080-Performance macht RT eh keinen Spaß. Da rettet auch Frame Generation nichts mehr.

Äh, TLoU und Hogwarts Rennen auf einer 6900XT auch nur mit 60FPS in 1440p. Dagegen gibt es genug Spiele, die auch mit 60FPS und Raytracing in 1440p auf einer 4070 laufen.

Cyberpunk mit Raytracing und DLSS/FSR Q: https://www.purepc.pl/premiera-nvidia-geforce-rtx-4070-test-wydajnosci-karty-graficznej-czy-bedzie-szybsza-od-geforce-rtx-3080-ti?page=0,21

62 FPS zu 38 FPS.

Hogwarts nativ in 1440p: https://www.purepc.pl/premiera-nvidia-geforce-rtx-4070-test-wydajnosci-karty-graficznej-czy-bedzie-szybsza-od-geforce-rtx-3080-ti?page=0,11

58 FPS zu 64 FPS.

/edit: Mal ein älteres Spiel mit raytracing:
https://cdn.sweclockers.com/artikel/diagram/29051?key=b23a8699c9ffaf8c7fa3c55c5f1f95eb
https://www.sweclockers.com/test/36143-nvidia-geforce-rtx-4070-energieffektiv-och-kompakt/6

RDNA2 ist keine Alternative.

DrFreaK666
2023-04-12, 15:56:38
DF vergleicht mit der gleichteuren 6800XT.
Gamers Nexus vergleicht mit der gleichteuren 6950XT

Lurtz
2023-04-12, 15:58:47
Dein Posting sagt nur, dass du nicht einverstanden bist Die Fakten bleiben. ;)
Das wird jetzt ziemlich off-topic, aber der Unterschied zwischen Produktjournalismus und Journalismus ist eben, dass man auch die Hintergründe hinterfragt. Lese ich die nationale Zeitschriftenlandschaft, stellt sich da ja auch nicht jedes Blatt hin und sagt "jaja das mit den steigenden Energiepreisen und Lebensmittelpreisen muss schon so sein, wir haben ja schließlich Pandemie und Energiekrise und überhaupt", da wird analysiert und hinterfragt.

Der Produktjournalismus dagegen sagt "jaja die Waferpreise steigen ja bekanntlich und Inflation haben wir auch, das passt schon so, dass die Mittelklasse jetzt 600€ aufwärts kostet, kauft mal nVidias neues Effizienzmonster".

w0mbat
2023-04-12, 15:59:10
Woher kommt eigentlich dieses "null Leistung bei RT" her? In 1440p mit RT ist die 4070 nur 10% vor der 6900 XT und 13% hinter der 7900 XT. Eine 4070 Ti liefert auch "nur" RT Leistung auf 7900 XTX Niveau.

Sind also alle Karten, außer 4080 und 4090, für RT ungeeignet?

Raff
2023-04-12, 16:01:31
/edit: Mal ein älteres Spiel mit raytracing:
https://cdn.sweclockers.com/artikel/diagram/29051?key=b23a8699c9ffaf8c7fa3c55c5f1f95eb
https://www.sweclockers.com/test/36143-nvidia-geforce-rtx-4070-energieffektiv-och-kompakt/6

RDNA2 ist keine Alternative.

Die AMD-Werte sind nicht aktuell. Woher ich das weiß? Habe RDNA just nachgetestet. Hier die aktuellen Daten mit wesentlich besseren Min-Fps in GotG: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/4/

-> Warum in die Ferne schweifen ... ? ;)

MfG
Raff

Ex3cut3r
2023-04-12, 16:02:05
IMHO hat er recht. Für das Gebotene ist die RTX 4070 viel zu teuer. Und wird wahrscheinlich nichteinmal 1/4 solange halten dank der 12 GB VRAM im Vergleich zur RTX 4090. Also müsste sie auch nur 1/4 kosten. Und das wären so 420 EUR.

4090 Käufer, wechseln bei der 5090 eh wieder. Die behalten keine GPU länger als 2 Jahre.

Ein ursprünglicher 6800XT/6950XT Käufer hat auch schon eine 7900XTX im Rechner, siehe Dargo, Horn und die AMD Fraktion hier im Forum. Die Enthusiasten wechseln ihre GPUs, quasi wie Unterhosen, die juckt "Zukunftssicherheit" eigentlich eh nicht, da wird schlicht nur auf die FPS gekuckt, und der Preis ist eher zweitrangig, das weiß vor allem auch Nvidia.

Ein Performance/Mainstrem Käufer möchte Seine GPU eher mehr als 3 Jahre behalten, wird aber durch den knappen VRAM meistens, dazu bewegt schon eher neu zukaufen. (Die Firmen sind leider sehr schlau)

Lehdro
2023-04-12, 16:03:43
Sind also alle Karten, außer 4080 und 4090, für RT ungeeignet?
Ja, einzig gibt es Ausnahmen wenn gegen AMD verglichen wird. Dann ist generell alles rote unbrauchbar, solange grün minimal schneller ist, das wäre dann ok. Hoffe geholfen zu haben. :tongue:

Beweisführung hier. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13280161&postcount=33)

Taigatrommel
2023-04-12, 16:04:18
Sagt der 4090 Käufer, guter Humor. :biggrin:
Ich weiß auch nicht, was der Vergleich soll. Der 4090 kann man immerhin zugute halten, dass sie auch bis dato die mit Abstand schnellste Grafikkarte für Spieler ist und quasi nirgends den Rotstift angesetzt hat. Der Preis ist damit zwar sehr hoch, doch die Leistung eben außerhalb jeder Konkurrenz.

Das sieht bei kleineren Preisbereichen dann eben schnell anders aus. Und genau hier liegt doch das Problem: Für 659,-€ bietet die 4070, von der Effizienz abgesehen, quasi nichts, was man bislang nicht für ähnliche Preise bekommen konnte. Man hat also mehr oder minder eine Nullnummer wenn es um Preis/Leistung geht.

Wäre die Karte für maximal 500,-€ in den Handel gekommen, würde die Situation gleich komplett anders aussehen. Das Problem der 4070 ist IMHO weder der Speicher oder die Leistung, sondern schlichtweg der Preis und das Verhältnis zu bereits existierenden Produkten.

Troyan
2023-04-12, 16:04:55
Na ja, die RTX 3070 gibt es aktuell ab 499 Euro.

Ergo 4070 ist mindestens(!) 32% teurer (wahrscheinlich eher Richtung 40+%) bei gerade mal rund 20-25% mehr Performance. Ist die 3070 dann nicht die bessere Empfehlung statt der 4070?


12GB gegen 8GB. 500€ sind viel zu viel für eine 3070. Dann liebers irgendwo gebraucht eine 3080 kaufen.



Die AMD-Werte sind nicht aktuell. Woher ich das weiß? Habe RDNA just nachgetestet. Hier die aktuellen Daten mit wesentlich besseren Min-Fps in GotG: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/4/

-> Warum in die Ferne schweifen ... ? ;)

MfG
Raff

War noch nicht auf jeder Seite.^^

Linmoum
2023-04-12, 16:05:16
dargo hat keine XTX mehr, wenn ich mich richtig entsinne. Aber solche Kunden sind auch nicht die Zielgruppe einer 4070. Das Teil ist sogar minimal langsamer als eine 3080, kostet aber immer noch $600. Fake-UVP der 3080 hin oder her, der Vergleich ist trotzdem relevant (und ein Problem, das Nvidia selbst geschaffen hat), zumal es die 6800XT zu UVP-Preisen ja ewig gab und gibt.

Lurtz
2023-04-12, 16:06:06
Woher kommt eigentlich dieses "null Leistung bei RT" her? In 1440p mit RT ist die 4070 nur 10% vor der 6900 XT und 13% hinter der 7900 XT. Eine 4070 Ti liefert auch "nur" RT Leistung auf 7900 XTX Niveau.

Sind also alle Karten, außer 4080 und 4090, für RT ungeeignet?
Klar, weil es letztendlich bis auf Weiteres ein absolutes Highend-Feature bleiben wird, bis auf Ausnahmen (und der 4070 bald wieder der VRAM volllaufen wird mit RT).

Dass ausgerechnet die 4080- und 4090-Besitzer erzählen, wie brauchbar RT in der Mittelklasse sein soll, spricht Bände ;)

dildo4u
2023-04-12, 16:09:35
Hoffe AMD neue Karte liegt auch um 200 Watt ich muss fast eine 4070 kaufen weil ich kein neues Netzteil will.(400 Watt Be Quiet)

DrFreaK666
2023-04-12, 16:10:17
12GB gegen 8GB. 500€ sind viel zu viel für eine 3070...

Korrekt. Vor allem im Vergleich mit einer 6800 mit doppeltem VRAM

Sweepi
2023-04-12, 16:14:26
Der Produktjournalismus dagegen sagt "jaja die Waferpreise steigen ja bekanntlich und Inflation haben wir auch, das passt schon so, dass die Mittelklasse jetzt 600€ aufwärts kostet, kauft mal nVidias neues Effizienzmonster".

Mhh, im PCGH Test lese ich folgendes:

Da wäre - erneut - der Preis. Die RTX 4070 ist, ganz objektiv, das bis dato teuerste Siebziger-Modell ohne Ti-Anhängsel. Das liegt nicht nur am Euro-Kurs, tatsächlich ruft Nvidia hier den gleichen Preis (599 USD) auf wie für die RTX 3070 Ti vor knapp zwei Jahren. Der Preistrend geht somit klar nach oben, wie bei fast allen Dingen. Das ist nicht schön und wir alle wünschen uns eine Umkehr dieses Trends, realistisch ist diese Erwartung aber nicht. Erschwerend für Nvidia kommt eine andere Tatsache hinzu: Das Leistungsplus von Generation zu Generation wird stetig kleiner, was sich klar an den letzten 70er-Modellen ablesen lässt. So führte der Wechsel von RTX 2070 auf RTX 3070 zu einem mittleren Leistungsplus von über 50 Prozent, während ein Upgrade von RTX 3070 auf RTX 4070 nur 30 Prozent einbringt. Diese Entwicklung verläuft diametral zum Preis - und Nvidia weiß das. Es gibt gute Gründe dafür, dass die Kalifornier Raytracing vorantreiben und bei jeder sich bietenden Gelegenheit auf DLSS verweisen, denn nur diese Dinge erlauben es, mit ordentlichem Fortschritt zu punkten. Mittlerweile sind etwa 40 Spiele mit DLSS 3 respektive Frame Generation verfügbar. Und auch wenn die neue Technologie nicht in allen davon perfekt läuft, handelt es sich doch um einen echten Mehrwert. Das Problem: Dieser Mehrwert ist weit von einer flächendeckenden Implementierung entfernt. Somit geht Nvidias Rechnung, die Features in den Preis einzukalkulieren, nicht auf.

Hakim
2023-04-12, 16:18:49
Also für 500 bis maximal 550€ hätte ich jetzt bei der Karte zugeschlagen, aber ja. Da auch die 60ti so wie es aussieht weder beim Speicher noch bei der Performance kein Upgrade Wert wären überspringe ich mal leider Ada

Langlay
2023-04-12, 16:18:54
Woher kommt eigentlich dieses "null Leistung bei RT" her? In 1440p mit RT ist die 4070 nur 10% vor der 6900 XT und 13% hinter der 7900 XT. Eine 4070 Ti liefert auch "nur" RT Leistung auf 7900 XTX Niveau.

Sind also alle Karten, außer 4080 und 4090, für RT ungeeignet?

Ich komme ja von der 6900XT und bei RT fühlt sich die Karte nicht wirklich wohl.

In Hogwarts z.b. läuft auf der 6900XT ohne RT wirklich gut, ich hatte so ~80-100FPS in 2560x1440 und das lief auch von den Frametimes her sehr angenehm. Aber wenn du RT nutzt dann schwanken die Frametimes halt relativ stark und es fühlt sich auch stottrig an. RT kostet halt in dem Fall soviel Leistung das es vom Spielgefühl her nicht wert ist das Zeug laufen zu lassen. Die gleiche Erfahrung hab ich z.b. beim Launch von CP77 auch mit der 3090 gemacht.

Mit der 4080/4090 ist das anders. Du verlierst zwar auch Leistung aber das Spiel fühlt sich trotzdem smooth an.

Wobei ich allerdings auch sagen muss, das ich mir keine 12GB oder kleiner Karte mehr kaufen würde, egal wie toll sie sonst so wäre, zumindest nicht solange ich dafür richtig Geld(500+) aufn Tisch legen muss.

The_Invisible
2023-04-12, 16:20:19
Dass ausgerechnet die 4080- und 4090-Besitzer erzählen, wie brauchbar RT in der Mittelklasse sein soll, spricht Bände ;)

Vorige Fat-Ampere ist heutige Mittelklasse und auch damit konnte ich schon gut mit RT zocken. Nur weil eine neue Gen kommt ist die alte nicht sofort unbrauchbar so lange nicht entsprechende neue Spiele kommen.

Linmoum
2023-04-12, 16:25:07
Vorige Fat-Ampere ist heutige Mittelklasse und auch damit konnte ich schon gut mit RT zocken. Nur weil eine neue Gen kommt ist die alte nicht sofort unbrauchbar so lange nicht entsprechende neue Spiele kommen.Wie unbrauchbar etwas zeitnah wird, kann sich ganz schnell ändern. Wenn man dann keinen Puffer bei der Speicherkapazität hat, wird das schnell ungeil.

Gethvel
2023-04-12, 16:27:06
Ziemlich dumm sich über die hohen Preise zu beschweren. Die Fertigungskosten steigen exponentiell und es wird noch sehr viel teurer werden. Wir sind am Ende von Moores Law. Das ist die Realität, kommt besser damit klar.:rolleyes:

maximus_hertus
2023-04-12, 16:28:39
VRAM vollkommen belanglos.

12GB gegen 8GB.

Ja was denn nun?

Die 4070 ist eine gute Karte, da sind sich fast alle einig. In vielen Teilbereichen sogar sehr gut. Nur der Preis ist suboptimal.

Wie schon geschrieben, gegenüber der 6950XT braucht es die Energieeffizienz, sonst spricht nicht wirklich was für die 4070 (als echter Vorteil). Nach 2,5 Jahren und fast 2 Nodesprüngen ist das irgendwie underwhelming.


Es ist dabei völlig egal wie schlecht AMD ist oder ob es durch die Inflation eine Preisanpassung geben musste (das verstehen auch die meisten).

Im Vergleich zur 3070 gibt es fast gar keine Mehrperformance. 20-25% sind für eine neue Gen fast ein schlechter Scherz. Schon die grob +35-40% bei Turing war ziemlich "meh", aber nochmal deutlich weniger bei einer deutlichen Preiserhöhung?

Es ist wie gesagt egal, ob AMD gerade gut oder schlecht ist, als 4070 Käufer würde ich mich irgendwie mies fühlen. Ein wenig wie "abgezogen" worden.
Mit 16GB sehe das schon spürbar anders aus, aber so eher nicht.


Das schlime sind dann die 499 Euro Karten (also 4060er Serie). Die werden wohl dann nur 8GB haben und das wird dann extrem mies.

Warten wir mal Verfügbarkeit und "echte" Straßenpreise ab. Gehen die auf über 700 Euro, dann wird es wirklich mies, ohne wenn und aber.

Pumpi74
2023-04-12, 16:29:09
Fakt ist: Für 395€ ist die 3060Ti derzeit der absolute King of the Hill in "Price/Performance - Raytracing ". Gemittelt über alle Auflösungen (siehe PCGH). Wenn man jetzt nochmal bedenkt das man das Kärtchen eh nur bis max WQHD nutzt sieht es noch besser aus. Und wenn man des Weiteren auf die neuesten unfertigen Games verzichten kann dann kommt man gar nicht um die Karte herum. Natürlich wird die Karte nicht mehr lange halten, nur wird der Verlust beim Verkauf minimal. Ergo: 8GB sind nicht für alle tot.

Linmoum
2023-04-12, 16:32:16
Ziemlich dumm sich über die hohen Preise zu beschweren. Die Fertigungskosten steigen exponentiell und es wird noch sehr viel teurer werden. Wir sind am Ende von Moores Law. Das ist die Realität, kommt besser damit klar.:rolleyes:Damit muss man nicht klar kommen, weil es Quatsch ist. Zumindest bei 2xxmm² kleinen Dies, wir reden hier schließlich nicht über einen >600mm² AD102-Riesen in 4N.

Ex3cut3r
2023-04-12, 16:38:10
Wie unbrauchbar etwas zeitnah wird, kann sich ganz schnell ändern. Wenn man dann keinen Puffer bei der Speicherkapazität hat, wird das schnell ungeil.

Im Notfall kann man immer Textur Stufe runterstellen.

Der Zielgruppe. Dieser Karte sind IHMO Turing Besizter, ala 2070, 2070S, 2080 vlt. auch noch 2080 Ti User.

dargo
2023-04-12, 16:38:43
Ein ursprünglicher 6800XT/6950XT Käufer hat auch schon eine 7900XTX im Rechner, siehe Dargo, Horn und die AMD Fraktion hier im Forum. Die Enthusiasten wechseln ihre GPUs, quasi wie Unterhosen, die juckt "Zukunftssicherheit" eigentlich eh nicht, da wird schlicht nur auf die FPS gekuckt, und der Preis ist eher zweitrangig, das weiß vor allem auch Nvidia.

Ähm... mich bitte da rausnehmen, ich habe keine RX 7900XTX mehr, überzeugte mich nicht. ;)

Troyan
2023-04-12, 16:39:47
Ja was denn nun?

Die 4070 ist eine gute Karte, da sind sich fast alle einig. In vielen Teilbereichen sogar sehr gut. Nur der Preis ist suboptimal.


12GB gegen 16GB ist anders als 12GB und 8GB. Eine RDNA2 Karte mit 16GB lohnt sich eben nicht, weil die Karten noch viel zu teuer sind, deutlich mehr Strom benötigen und bei Raytracing einfach die Grätsche machen.

Hakim
2023-04-12, 16:41:03
Fakt ist: Für 395€ ist die 3060Ti derzeit der absolute King of the Hill in "Price/Performance - Raytracing ". Gemittelt über alle Auflösungen (siehe PCGH). Wenn man jetzt nochmal bedenkt das man das Kärtchen eh nur bis max WQHD nutzt sieht es noch besser aus. Und wenn man des Weiteren auf die neuesten unfertigen Games verzichten kann dann kommt man gar nicht um die Karte herum. Natürlich wird die Karte nicht mehr lange halten, nur wird der Verlust beim Verkauf minimal. Ergo: 8GB sind nicht für alle tot.


Vor über 2 Jahren die Karte für 399€ gekauft und kostet neu immer noch so viel und immer noch P/L Tipp, Stillstand? Ich finde es etwas traurig

Raff
2023-04-12, 16:43:02
Vor über 2 Jahren die Karte für 399€ gekauft und kostet neu immer noch so viel und immer noch P/L Tipp, Stillstand? Ich finde es etwas traurig

Du hattest viel Glück. Aber yep, Stillstand. Und wenn die kleineren Adas echt nur mit 8 GiByte antreten, wird sich das auch nicht ändern. Dann kriegt man die 3060-Ti-Leistung mit 100 Watt weniger, aber wen interessiert's, wenn der Speicher nicht reicht? Hoffen wir auf den "Return of the Speicherblender" - das waren irgendwie doch coolere Zeiten. :up:

MfG
Raff

Ex3cut3r
2023-04-12, 16:43:10
Ähm... mich bitte da rausnehmen, ich habe keine RX 7900XTX mehr, überzeugte mich nicht. ;)

Ok. Das überrascht mich jetzt. :biggrin:

Warum? Zu stark für 1440p?

fizzo
2023-04-12, 16:46:33
Ziemlich dumm sich über die hohen Preise zu beschweren. Die Fertigungskosten steigen exponentiell und es wird noch sehr viel teurer werden. Wir sind am Ende von Moores Law. Das ist die Realität, kommt besser damit klar.:rolleyes:

Die Preisfindung läuft bei NV IMHO gewaltig aus dem Ruder. Der Speicherpreise sind im Sinkflug und NV kausert weiterin. Alles zur Gewinnoptimierung :ugly:

aufkrawall
2023-04-12, 16:54:52
Die Preisfindung läuft bei NV IMHO gewaltig aus dem Ruder. Der Speicherpreise sind im Sinkflug und NV kausert weiterin. Alles zur Gewinnoptimierung :ugly:
Und selbst wenn die Wafer-Preise für GPUs so hoch wären, würde der Anteil des VRAMs am Gesamtpreis dadurch trotzdem sinken. Das ist schon richtig verkommenes Verhalten von Nvidia...

dildo4u
2023-04-12, 16:56:15
Wundert mich warum die FE so aufdreht ich hätte ein Silent Modell erwartet.
Laut CB 1700 rpm für was?

Linmoum
2023-04-12, 17:00:07
Das ganze Ada-Lineup von Nvidia unterhalb der 4090 ist ein völliges Chaos und nicht durchdacht, so wie sie die GPUs tatsächlich auf den Markt werfen. Bei Nvidia denkt man scheinbar wirklich, dass man alles mit Software bzw. konkret DLSS3 ausgleichen kann. Diese Fassade bricht aber in sich zusammen, wenn man dann ausgerechnet am Speicher spart. Das ist schon völlig konfus.

Lurtz
2023-04-12, 17:03:31
Das ganze Ada-Lineup von Nvidia unterhalb der 4090 ist ein völliges Chaos und nicht durchdacht, so wie sie die GPUs tatsächlich auf den Markt werfen. Bei Nvidia denkt man scheinbar wirklich, dass man alles mit Software bzw. konkret DLSS3 ausgleichen kann. Diese Fassade bricht aber in sich zusammen, wenn man dann ausgerechnet am Speicher spart. Das ist schon völlig konfus.
Jetzt gerade reicht es halt gerade so, um die längsten Balken zu haben, und die wenigstens Reviewer weisen auf den VRAM-Bedarf von DLSS3 hin (oder haben ihn überhaupt selbst schon realisiert).

Insofern funktioniert die Strategie ja genau wie sie soll, sie generiert jetzt Verkäufe mit größtmöglicher Marge.

Siehe zB Gamestar Fazit:
Mit der VRAM-Menge kann ich für die primär anvisierte WQHD-Auflösung gleichzeitig durchaus leben. Zudem hat Nvidia mit der Frame Generation ein echtes Ass im Ärmel - wenn auch eins, das mit Sternchen versehen ist.
https://www.gamestar.de/artikel/nvidia-geforce-rtx-4070-test,3392582.html

Hier wird die VRAM-Menge in einem Absatz quasi mit Frame Generation aufgewogen. Das Sternchen, was er meint, ist der Spielesupport, nicht der VRAM-Bedarf.
:facepalm:

Hakim
2023-04-12, 17:03:57
Wisst ihr noch wo man überproportional mehr für Mehrleistung gezahlt hat? Derzeit erscheint die 4090 die interessanteste Karte bei Ada zu sein, für 1600+ €.....

Ex3cut3r
2023-04-12, 17:30:00
Ich sehe die Panik einiger stand jetzt, einfach nicht. 12GB Geforce (effektiv eher 13-14GB) sind besser als die 8GB. Notfalls kann man immer eine Texturstufe runterstellen. In TLOU sieht high im Vergleich zu Ultra z.B. komplett gleich aus, kostet aber 1-2 Gig weniger VRAM.

Ich gehe auch davon aus, dass die PC Ports wieder zeitnah besser werden. Dieser aktueller Ist-Zustand seit Winter 22 kann IMHO nicht auf Dauer sein, wenn man mehr Spiele verkaufen will.

Wenn Nvidia öfters mit dem Geld wedelt. Haben wir immer mal wieder eine Situation wie jetzt bei CP77 mit dem Path Tracing Update. Eine 4070 Ti mit DLSS 2 und FG, ist dort 2x mal schneller als eine 7900 XTX :freak:

aufkrawall
2023-04-12, 17:33:03
12GB Geforce (effektiv eher 13-14GB)
So ein BS, mehr gibts dazu nicht zu sagen...

dargo
2023-04-12, 17:33:11
Ok. Das überrascht mich jetzt. :biggrin:

Warum? Zu stark für 1440p?
Steht alles im entsprechenden Thread. Kurz... zu wenig Performanceuplift für mich vs. RX 6800XT (auch bei 4k) bei 999€ und zu hoher Durst bei hoher bis mittlerer Shaderlast.

LukeS
2023-04-12, 17:36:28
Gratulation Nvidia! Gerade das Minimum geboten, sodass die 4070 noch OK ist für den Preis. Wird wohl viele zähneknirschende Käufer finden das Teil.

Die etwa gleichschnelle 6800XT ist neu maximal ca. 60€ günstiger, verbraucht aber ca. 100W mehr laut HUB review. Bei 30ct/kWh hat man also nach 2000h Lastbetrieb gleichviel bezahlt. Dank mehr RAM aber schlechterer RT-Performance gibts da imho keinen eindeutigen Favoriten.

dargo
2023-04-12, 17:37:44
Wenn Nvidia öfters mit dem Geld wedelt. Haben wir immer mal wieder eine Situation wie jetzt bei CP77 mit dem Path Tracing Update. Eine 4070 Ti mit DLSS 2 und FG, ist dort 2x mal schneller als eine 7900 XTX :freak:
Die Welt dreht sich aber nicht nur um CP77. Das Ding ist doch eh schon längst ausgelutscht.

Taigatrommel
2023-04-12, 17:53:19
Die etwa gleichschnelle 6800XT ist neu maximal ca. 60€ günstiger, verbraucht aber ca. 100W mehr laut HUB review. Bei 30ct/kWh hat man also nach 2000h Lastbetrieb gleichviel bezahlt. Dank mehr RAM aber schlechterer RT-Performance gibts da imho keinen eindeutigen Favoriten.
Ja aber genau hier liegt das Problem: Die Karte stellt, gemessen an den Straßenpreisen, kein wirkliches Upgrade in irgendeiner Form da. Man kann hier nicht einmal sagen, dass sie sich klar gegenüber gleichpreisiger Konkurrenz absetzen kann. Irgendwelche Abstriche müssen gemacht werden: Beim Speicher oder bei der Rasterleistung in höheren Auflösungen. Die 6950 XT ist derzeit sogar noch für 10 Euro weniger als die 4070 (UVP) zu haben und erzielt bereits bei der Rasterleistung in 1440p beinahe durch die Bank weg deutlich bessere Leistung. Bei der 6950 XT hingegen hat man halt einen Stromfresser im Gehäuse und die RT Leistung ist größtenteils spürbar geringer.

Die 6800 XT ist derzeit übrigens gut 90,-€ günstiger: Die XFX Merc Gaming gibt es bei MF derzeit für 569,-€.

Ich persönliche sah die 12 GB VRAM bereits bei der ~900 Euro teuren Ti als Frechheit an, doch auch jetzt bei der "nur" ~660 Euro teuren non-Ti ist es nach wie vor nur schwer verständlich. Erneut: Würde der Preis noch 150 Euro niedriger sein, wäre dies eher zu akzeptieren.


Edit: Die Sache sieht natürlich anders aus, wenn man (überteuerte) Restposten der RTX 30er Generation als Benchmark ansieht. Doch es kauft sich ja kaum jemand mit klarem Verstand noch eine 3080 für über 800 Euro.

Raff
2023-04-12, 17:54:40
Wundert mich warum die FE so aufdreht ich hätte ein Silent Modell erwartet.
Laut CB 1700 rpm für was?

1.800 U/min unter anhaltender Volllast – check mal die Hwinfo-Logs: https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1417027&page=5&draft=-1&rank=4 (sind damit 1,7 Sone)

MfG
Raff

dargo
2023-04-12, 18:04:49
1.800 U/min unter anhaltender Volllast check mal die Hwinfo-Logs: https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1417027&page=5&draft=-1&rank=4 (sind damit 1,7 Sone)

MfG
Raff
Was haben die da verbaut, dass das Teil so viel Radau bei nur 200W macht? Zwei Heatpipes? :freak:

Prinzenrolle
2023-04-12, 18:07:24
Musst du mir mal erklären, raffe ich nämlich gerade wirklich nicht, was der Vergleich soll.

Die Kontroversität deiner Aussage ist auf alle Fälle spitze.


Die Effizienz ist das einzige, was diese Karte auszeichnet. Wer sie zu diesem Preis aber trotzdem statt einer 6800XT/6900XT kauft, der muss absoluter Hardcore-Fanboy sein.

Unter Strich trennt eine 4070 nichts/wenig von der Performance einer 6800/69(50)XT.
Dazu gibt es noch das viel bessere Upscaling und Frame Generation.
Man kann Argumente für die eine Lösung, wie auch für die andere finden.

Ist schon echt eine Leistung von Nvidia, dass Karten von der Konkurrenz 2020 deutlich attraktiver sind als das eigene Produkt.
Geschmackssache.

Das Argument FG bei dem Speicherausbau ist auch kein pro-Argument.
Bullshit. Sieht offenbar auch AMD so.
Immerhin sieht AMD sich veranlasst die 6950XT auf schmale 650 Euro zu senken.
Die können das wohl mit mehr Neutralität bewerten, als der typische trollige AMD NATIV Upscaling ist Voodoo 4K Fanboy.


Man muss die Karte nicht toll finden, aber ist immer noch besser als das, was als Alternative zur Verfügung steht.
Leider, auch wenn ich "LoveSuckZ" inhaltlich normal nie zustimme.^^
zumal es die 6800XT zu UVP-Preisen ja ewig gab und gibt.

Ja, so ewig, dass man fast 2 Jahre darauf warten durfte.:confused:

Muskelbiber
2023-04-12, 18:15:48
Perfekter Nachfolger für meine 2070super. 200W TDP ist top, das reicht für mein 650W Netzteil und meinem 5600x. Die Karte kostet mich 450€, weil ich für meine 2070super mindestens noch 200€ bekomme. Tip Top :)

Linmoum
2023-04-12, 18:43:46
Die Kontroversität deiner Aussage ist auf alle Fälle spitze.Kontrovers ist sie erst dann, wenn man sie nicht versteht. Danke für die Bestätigung.

Unter Strich trennt eine 4070 nichts/wenig von der Performance einer 6800/69(50)XT.
Dazu gibt es noch das viel bessere Upscaling und Frame Generation.
Man kann Argumente für die eine Lösung, wie auch für die andere finden.Eben, es trennt die Karten insgesamt kaum etwas bei der Performance. DLSS3 als Pauschalargument bei 12GiB Speicher ist keines, das sollte man in der Zwischenzeit auch mal verstanden haben. Es gibt aber schlicht keine Argumente dafür, warum Nvidia permanent den Speicher knapp bemisst. Und das wiederum ist durchaus ein Argument gegen die Karte, vor allem bei diesem Preis. Würde bei 450€ anders aussehen, aber davon ist man meilenweit entfernt. Da kriegt man stattdessen irgendwann demnächst sogar nur 8GiB vor die Füße geworfen. Das ist noch viel absurder.

Geschmackssache.Dein "Geschmackssache" sagt schon alles darüber aus, wie richtig der von dir hier zitierte Teil doch ist. Bei diesem großen Fertigungssprung auf 4N und im Vergleich mit einer alten N7-Architektur darf es gar nicht erst "Geschmackssache" sein, da hat das neue und technologisch eigentlich deutlich fortgeschrittenere Produkt auf ganzer Linie den alten Schinken in die Schranken zu weisen. Aber danke für die indirekte Bestätigung. ;)

Bullshit. Sieht offenbar auch AMD so.
Immerhin sieht AMD sich veranlasst die 6950XT auf schmale 650 Euro zu senken.Für diese offizielle Preissenkung hast du sicherlich auch entsprechend handfeste Nachweise. Nicht? Gut, kommt nicht überraschend, weil es gar keine gibt. Nennt sich zum einen Abverkauf, zum anderen muss man für eine 6950XT weniger verlangen, als für eine schnellere 7900XT(X). Einleuchtend, oder?

Die können das wohl mit mehr Neutralität bewerten, als der typische trollige AMD NATIV Upscaling ist Voodoo 4K Fanboy.Keine Ahnung, was dieser gähnend langweilige Fanboy-Grabenkrieg wieder soll, den du vom Zaun brechen willst. Umso amüsanter, da ich eine 4090 im Rechner habe. Oder kommt die neuerdings von AMD? Ich kann Hersteller völlig isoliert anhand ihrer Produkte betrachten und nicht pauschal über einen Kamm scheren, wie du es offenkundig gerne machst.

Leider, auch wenn ich "LoveSuckZ" inhaltlich normal nie zustimme.^^Hier stimmst du Trollyan zu, dass die Karte ja besser als zur Verfügung stehende Alternativen ist, oben zitierst du mich noch in genau diesem Kontext mit dem Wort "Geschmackssache". Deine Beiträge wie immer zusammengefasst: Widdewiddewitt und Drei macht Neune. :cool:

Ja, so ewig, dass man fast 2 Jahre darauf warten durfte.:confused:Mittlerweile gut ein Dreivierteljahr ist in Hardware-Kreisen definitiv eine Ewigkeit. 3080er zur Fake-UVP sucht man heute noch.

Troyan
2023-04-12, 18:48:20
Ich persönliche sah die 12 GB VRAM bereits bei der ~900 Euro teuren Ti als Frechheit an, doch auch jetzt bei der "nur" ~660 Euro teuren non-Ti ist es nach wie vor nur schwer verständlich. Erneut: Würde der Preis noch 150 Euro niedriger sein, wäre dies eher zu akzeptieren.


Die Karte kostet UVP 659€ und ist schneller als eine ehemalige 6900XT für 999€. Nicht alles ist nVidias Schuld. Bei 15% Inflation reden wir von 659€ zu 1150€. Bevor die 12GB ein Problem darstellen, haben doch AMD Käufer seit Jahren schon in mehreren Spielen ein Problem gehabt. Und die haben weitaus mehr zahlen müssen als das, was heute anfällt.

Also irgendwie sollte man einfach mal abrüsten und aufhören nur zu haten.

Langlay
2023-04-12, 18:59:23
Die Karte kostet UVP 659€ und ist schneller als eine ehemalige 6900XT für 999€. Nicht alles ist nVidias Schuld. Bei 15% Inflation reden wir von 659€ zu 1150€.

2018 hat ne Titan V 3000€ gekostet, das sind locker 4000€ in heutiger Kaufkraft. Die 4070 ist schneller als die Titan V für nur 659€ also wenn überhaupt dann ist die Karte noch zu billig.

Muskelbiber
2023-04-12, 19:02:49
2018 hat ne Titan V 3000€ gekostet, das sind locker 4000€ in heutiger Kaufkraft. Die 4070 ist schneller als die Titan V für nur 659€ also wenn überhaupt dann ist die Karte noch zu billig.

Ohne Corona, Chipkrise und Ukraine Krieg, wûrde die 4070 449€ kosten.

Ex3cut3r
2023-04-12, 19:04:00
2018 hat ne Titan V 3000€ gekostet, das sind locker 4000€ in heutiger Kaufkraft. Die 4070 ist schneller als die Titan V für nur 659€ also wenn überhaupt dann ist die Karte noch zu billig.

So übel ist die Karte IMHO nicht, wie die meisten hier vorgeben. 12GB VRAM reichen stand heute für alles. Notfalls wie gesagt, kann man immer an den Schatten und/oder den Texturen drehen.

Die Panik ist hausgemacht. Und wird hochgekocht. Wer nicht kaufen will, der kauft halt nicht, der Preis sollte dann ja normal runtergehen.

Für 500-550€ wäre es eine Super-Sache. Aktuell ist es noch etwas bitter.

Lurtz
2023-04-12, 19:08:52
Ich sehe die Panik einiger stand jetzt, einfach nicht. 12GB Geforce (effektiv eher 13-14GB) sind besser als die 8GB. Notfalls kann man immer eine Texturstufe runterstellen. In TLOU sieht high im Vergleich zu Ultra z.B. komplett gleich aus, kostet aber 1-2 Gig weniger VRAM.

Ich gehe auch davon aus, dass die PC Ports wieder zeitnah besser werden. Dieser aktueller Ist-Zustand seit Winter 22 kann IMHO nicht auf Dauer sein, wenn man mehr Spiele verkaufen will.

Du willst also ernsthaft argumentieren, dass der VRAM-Bedarf wieder sinken wird, statt nicht mindestens auf hohem Niveau zu stagnieren? Gab es das überhaupt schon jemals in der Geschichte der 3D-Grafik?

Wenn Nvidia öfters mit dem Geld wedelt. Haben wir immer mal wieder eine Situation wie jetzt bei CP77 mit dem Path Tracing Update. Eine 4070 Ti mit DLSS 2 und FG, ist dort 2x mal schneller als eine 7900 XTX :freak:
Ach was, wenn ein Spiel sponsored by nVidia ist, ist die Mehrleistung von Geforce was tolles, wenn ein Spiel sponsored by AMD ist, ist hoher VRAM-Gebrauch schlechte Optimierung? :ulol:

MSABK
2023-04-12, 19:10:46
An sich passable Karte. So für 429€ Wird sie interessant werden. Die Verkäufe werden weiter einbrechen, da wird der Preis sinken.

Langlay
2023-04-12, 19:11:56
So übel ist die Karte IMHO nicht, wie die meisten hier vorgeben.

Das war eigentlich weniger auf die Karte selbst bezogen, mehr auf das Scheinargument von Troyan. Ich wollte eigentlich nur aufzeigen wie Schwachsinnig der Vergleich ist.

Ich hätte Sarkasmustags hinzufügen sollen.

maximus_hertus
2023-04-12, 19:12:12
Die Karte kostet UVP 659€ und ist schneller als eine ehemalige 6900XT für 999€. Nicht alles ist nVidias Schuld. Bei 15% Inflation reden wir von 659€ zu 1150€. Bevor die 12GB ein Problem darstellen, haben doch AMD Käufer seit Jahren schon in mehreren Spielen ein Problem gehabt. Und die haben weitaus mehr zahlen müssen als das, was heute anfällt.

Also irgendwie sollte man einfach mal abrüsten und aufhören nur zu haten.

Puuuh, keine Ahnung was man dazu sagen / schreiben soll.

Die 6950XT kostet heute 649 Euro. Es ist völlig egal, was die UVP Anno dazumal war. Hier und heute sind die 4070 und die 6950XT gleich teuer und damit muss man diese beiden Karten vergleichen, mit ihren jeweiligen Vorteilen und Nachteilen.

Es kommt selten vor (eigentlich noch nie), dass eine neue nVidia x70 Karte nicht die Vorgänger-Flaggschiffkarte von AMD durchgehend schlagen konnte.

Ja, in RT ist die 4070 overall etwas stärker, aber in RT spürbar schwächer.

Es gab noch NIE(!) so wenig an Mehr-Performance von x70 zu x70, wie bei der 4070.

Selbst die 3070 hatte immerhin 50-55% mehr fps als die 2070.
Hier sind es, je nach Review, 20-25 bis 30%. Dafür, dass es den riesen Nodesprung gab, sind die paar % echt mau. Klar, das es nich so einfach wie "früher" ist und man nicht immer 70+% fps erwarten darf ist ja in Ordnung.

Aber einfach mehr fps für mehr $ ist irgendwie nicht das, was man Weiterentwicklung nennen würde. Im Prinzip bleibt "nur" die Energieeffizienz, die wirklich gut ist. Aber das sollte nicht der Main Sellingpoint einer x70 Karte sein....


Nochmal, mit einem 256 Bit Bus und damit 16GB und besserer UWQHD bzw. 4K Performance würde es passen.

So ist es sehr underwhelming, 4070 kommt 30(!) Monate nach der 3070 für gerade mal 20-30% mehr fps. Nach so langer Wartezeit so wenig Mehrleistung. Das ist einzigartig. Völlig unabhängig von den 12GB.

Wäre es eine 4060 Ti für 449 USD / 499 Euro, würden wir von 45-55% mehr fps sprechen bei rund 80-100 Euro Aufpreis zur 3060 Ti. Das wäre dann etwas, was man richtig gut empfehlen könnte. Selbst für 549 Euro wäre es okay (nicht mehr super toll, aber okay). Alles darüber fühlt sich sehr "meh" an.

Es ist auch egal, was andere machen oder nicht machen. Wenn man sich als Käufer veräppelt fühlt, ist das sicher nicht das, was sein sollte.

Ex3cut3r
2023-04-12, 19:13:04
Du willst also ernsthaft argumentieren, dass der VRAM-Bedarf wieder sinken wird, statt nicht mindestens auf hohem Niveau zu stagnieren? Gab es das überhaupt schon jemals in der Geschichte der 3D-Grafik?


Ach was, wenn ein Spiel sponsored by nVidia ist, ist die Mehrleistung von Geforce was tolles, wenn ein Spiel sponsored by AMD ist, ist hoher VRAM-Gebrauch schlechte Optimierung? :ulol:
Natürlich. Ich mache mir doch wegen ein paar technischer Flops, welche auch immer noch im Patch Modus sind, nicht die Hosen voll.

Die 4070 12GB ist für 1440p mit DLSS und FG, zusammen mit der Performance im Raster und RT eine runde Sache. In 2 Jahren, kann man das Ding auch wieder verkaufen und sich von mir aus, eine 5070/5080 holen. Wenn der VRAM total am Limit sein sollte, was ich stand jetzt, aber nicht glaube.

Der PC ist flexibel, die Teile kann man immer wechseln.

maximus_hertus
2023-04-12, 19:16:38
Notfalls wie gesagt, kann man immer an den Schatten und/oder den Texturen drehen.


Die meisten 4070 wird es wohl nur im Bereich 700 Euro und darüber geben und da solle man nicht an Texturen drehen müssen. Nicht innerhalb einer sinnvollen Lebenszeit.
Frame Generation und RT machen es ja noch (viel) schlimmer. Beides Sachen, die mehr VRAM brauchen als ohne diese Features.

Wie schon mehrfach geschrieben, die Karte als solches ist ein gutes Produkt. Es ist der Preispunkt und das Gefühl, dass man "verarscht" wird. Selbst wenn man das schluckt und trotzdem kauft, fühlt es sich scheiße an. Und zwar so richtig. Danach hat man eigentlich schon fast keinen Bock mehr zu zocken.

Troyan
2023-04-12, 19:21:16
Puuuh, keine Ahnung was man dazu sagen / schreiben soll.

Die 6950XT kostet heute 649 Euro. Es ist völlig egal, was die UVP Anno dazumal war. Hier und heute sind die 4070 und die 6950XT gleich teuer und damit muss man diese beiden Karten vergleichen, mit ihren jeweiligen Vorteilen und Nachteilen.

Die Karten werden abverkauft, weil diese so schlecht sind. Deswegen kostet eine 4070 auch 659€. AMD Karten sind technisch komplett veraltet, deutlich langsamer, ineffizienter und bieten null Vorteile. Hier zwei ältere Spiele, die man vielleicht mit seiner neuen 650€ GPU zocken will und erst jetzt dazu kommt:
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/doom-eternal-rt-3840-2160.png


https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/deathloop-rt-3840-2160.png

Nicht jeder zockt in 4K, nicht jeder spielt AAA vom Startweg. Aber wenn ich unbedingt soviel Geld ausgeben will, kaufe ich keine RDNA2 Karte mehr. Und ob AMD mit RDNA3 was wirklich besseres liefern wird, lässt sich fast schon verneinen.

12GB, 16GB, whatever. Die Karten sind viel zu lahm für 4K in der Zukunft.

Ex3cut3r
2023-04-12, 19:22:33
Frame Generation machen es ja noch (viel) schlimmer. Beides Sachen, die mehr VRAM brauchen als ohne diese Features.

RT ist klar. Aber eine aktuelle Quelle für FG bitte? Halte für ein geschickte falsch Information, wahrscheinlich von AMD in die Welt gesetzt. :freak:

robbitop
2023-04-12, 19:23:45
Eine Karte die eigentlich 4060 heißen müsste und wie alle Adas (die einzige Ada wo es mehr Performance zum gleichen Preis gibt ist die 4090 aber da muss man auch sagen dass die 3090 Vorgängering verglichen zur 3080 auch überteuert war und dass die 4090 deutlich stärker beschnitten ist als die 3090) aus P/L Sicht überteuert sind.

Langlay
2023-04-12, 19:28:12
RT ist klar. Aber eine aktuelle Quelle für FG bitte? Halte für ein geschickte falsch Information, wahrscheinlich von AMD in die Welt gesetzt. :freak:

FG OFF :

https://abload.de/img/fgoffcpf8h.png

FG ON :

https://i.imgur.com/vLbrTHn.jpg

Also ca 10% mehr VRAM verbrauch mit FG.

Raff
2023-04-12, 19:28:31
Ebenfalls spannend für Aufrüster und Historiker, aber bitte die "Entstehungsgeschichte" beachten:

Geforce RTX 4070 im Benchmark-Test: Vergleich mit 43 Grafikkarten seit GTX 1050 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/)

RT ist klar. Aber eine aktuelle Quelle für FG bitte? Halte für ein geschickte falsch Information, wahrscheinlich von AMD in die Welt gesetzt. :freak:

Ich würde ja gerne was verlinken, aber da das hinter einer Paywall steht: Ist richtig, Frame Generation kostet in Abhängigkeit zu den Grundkosten einige Hundert Megabyte bis ein Gigabyte VRAM. Wie kann das sein? Nun, es müssen zusätzliche Informationen/Frames gepuffert werden (Triple Buffering ist auch nicht "for free"). Daher ist das bei den kommenden Adas mit 8 GiByte ziemlich nutzlos.

MfG
Raff

Taigatrommel
2023-04-12, 19:30:02
Soll man mal RT ausschalten?

Laut PCGH in 1440p Raster im Vergleich zur 6950 XT:
Forza 5: 11% langsamer
RDR2: 18% langsamer
TW3: 18% langsamer
MW2: 21% langsamer
BF2042: 12% langsamer
Uncharted: 15% langsamer
CP2077: 23% langsamer
GoW: 8% langsamer
Halo Infinite: 12% langsamer
Valheim: 1% schneller
DL2: 26% langsamer

Pumpi74
2023-04-12, 19:34:36
ich sag mal die Karte hätte auch ohne die ganzen Kriesen und der Euroschwäche sicherlich 499€ gekostet. Auch wenn sie 4060Ti geheißen hätte. Zumindest die Niedriglöhner haben aber in den letzten 3 Jahren auch gut und gerne 20% Lohnzuwachs verbucht. Mindestlohn oder hohe Tarifabschlüsse machten es möglich. Von daher wären aus meiner Sicht 600€ für die 4070 OK. Ich bin davon überzeugt das ich in der nächsten Zeit ein Angebot mit eventuell noch irgendeinem Cashback in dem Preisbereich erwischen werde. Da für mich der Vram auf absehbare Zeit passt nehm ich lieber den Spatz in der Hand als die Taube auf dem Dach. Wer weis wie lange Taiwan noch liefern kann...

Troyan
2023-04-12, 19:39:44
Soll man mal RT ausschalten?

Laut PCGH in 1440p Raster im Vergleich zur 6950 XT:
CP2077: 23% langsamer


Mach Raytracing und Upscaling an, schon ist die 4070 39% schneller und hat lustigerweise bei PCGH auch noch mehr Frames mit FSR1.0 UQ (wobei FSR 1.0 nicht mehr existiert in Cyberpunk...) gegenüber nativ 1440p ohne Raytracing.

Ist aber bei PurePC.pl genauso, 62 FPS mit RT/DLSS und 66 FPS nativ: https://www.purepc.pl/premiera-nvidia-geforce-rtx-4070-test-wydajnosci-karty-graficznej-czy-bedzie-szybsza-od-geforce-rtx-3080-ti?page=0,21

Wozu also eine AMD Grafikkarte kaufen, die mit Raytracing so dermaßen abkackt, dass man benachteiligt ist?

dargo
2023-04-12, 19:40:23
RT ist klar. Aber eine aktuelle Quelle für FG bitte? Halte für ein geschickte falsch Information, wahrscheinlich von AMD in die Welt gesetzt. :freak:
Natürlich... was sonst. :facepalm: Schon mal auf die Idee gekommen, dass einzelne Frames für wenige ms vorgehalten werden müssen damit FG überhaupt funktionieren kann? Wo willst du diese Frames vorhalten? Im lahmen Arbeitsspeicher oder noch besser bei den SSDs? :freak:

Raff
2023-04-12, 19:43:52
Mach Raytracing und Upscaling an, schon ist die 4070 39% schneller und hat lustigerweise bei PCGH auch noch mehr Frames mit FSR1.0 UQ (wobei FSR 1.0 nicht mehr existiert in Cyberpunk...) gegenüber nativ 1440p ohne Raytracing. [...]

Adlerauge! Feature-Freeze mittels GOG-Installation -> v1.60. Bleibt bis zur Komplettumstellung in ein paar Monaten so. :D

MfG
Raff

SentinelBorg
2023-04-12, 19:45:32
Das ist halt der Punkt, jeder muss das für sich selbst entscheiden.

Aber wenn ich jetzt eine 2070 hätte mit 1440p Monitor und nun um die 700 Stutz für ein Upgrade raushaue, dann wäre die 4070 mein Favorit und RT absolut relevant. Dazu ist DLSS immer noch optisch gerade bei 1440p besser als FSR2, FG läuft auch gut bei einer schnell anwachsenden Menge Games und vor allem hier in Deutschland muss man auch die Energieeffizienz sowohl bei Volllast als auch je nach Game bei Teillast mit einpreisen. Je nach dem wieviel man zockt kommen da mal schneller 50 bis 100 Euro im Jahr Differenz raus im Vergleich zu älteren Nvidia oder AMD Karten.

Pumpi74
2023-04-12, 19:51:35
Geforce RTX 4070 im Benchmark-Test: Vergleich mit 43 Grafikkarten seit GTX 1050 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/)
MfG
Raff

Die GTX 970 liegt bei 16,2 im Index und die 4070 bei 88. Das heißt ja das wir eben doch mit jeder Gen 100% mehr Leistung bekommen haben. :D

Ex3cut3r
2023-04-12, 19:51:43
FG OFF :

https://abload.de/img/fgoffcpf8h.png

FG ON :

https://i.imgur.com/vLbrTHn.jpg

Also ca 10% mehr VRAM verbrauch mit FG.

Danke schön, sehr gut. Also wegen 10% ist das Argument, kein Argument IHMO.

Krass, wie die Framerate steigt. :freak:

Also, wer da immer noch eine AMD Karte für fast genauso viel Geld bevorzugt, kann ich nicht mehr ernst nehmen sry.

FG wird wie DLSS 2, in 2 Jahren in jedem neuen Spiel drin sein!

Muskelbiber
2023-04-12, 19:55:54
Das ist halt der Punkt, jeder muss das für sich selbst entscheiden.

Aber wenn ich jetzt eine 2070 hätte mit 1440p Monitor und nun um die 700 Stutz für ein Upgrade raushaue, dann wäre die 4070 mein Favorit und RT absolut relevant. Dazu ist DLSS immer noch optisch gerade bei 1440p besser als FSR2, FG läuft auch gut bei einer schnell anwachsenden Menge Games und vor allem hier in Deutschland muss man auch die Energieeffizienz sowohl bei Volllast als auch je nach Game bei Teillast mit einpreisen. Je nach dem wieviel man zockt kommen da mal schneller 50 bis 100 Euro im Jahr Differenz raus im Vergleich zu älteren Nvidia oder AMD Karten.

Also ich hab eine 2070super, und genau deshalb hole ich mir die 4070, bin echt glücklich wegen der TDP der 4070.

basix
2023-04-12, 19:58:42
2018 hat ne Titan V 3000€ gekostet, das sind locker 4000€ in heutiger Kaufkraft. Die 4070 ist schneller als die Titan V für nur 659€ also wenn überhaupt dann ist die Karte noch zu billig.
Was für eine Argumentationskette :freak:

Eine verglichen zu den Vorgängern um Faktor 3x teurere Titan inkl. 815mm2 HPC-Chip, HBM und goldenem Kühler-Shroud mit einer 6 Jahre jüngeren Mittelklasse Karte vergleichen. Viel weiter weg könnten die Karten gar nicht sein. OK, beim Preis liegen sie ja noch fast näher zusammen ;D


Ebenfalls spannend für Aufrüster und Historiker, aber bitte die "Entstehungsgeschichte" beachten:

Geforce RTX 4070 im Benchmark-Test: Vergleich mit 43 Grafikkarten seit GTX 1050 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/)
Kann ich toppen, geht bis zur 9000 Pro zurück, siehe Anhang :D

Die relative Performance-Einordnung stimmt natürlich nur in etwa +/- 3 Generationen der GPUs, da so viele Features variieren (Shader Model, DX-Versionen, Compute, RT-Acceleration, VRAM-Menge, etc.).

Ich kann ja nochmals das unsinnige Argument von oben aufgreifen (@Langlay):
Die 8800 GTX kostete 580 Euro. Die 4070 ist ~30x schneller und RT, DLSS und FG kommen noch dazu. Die Karte dürfte 10kEuro kosten und wäre noch ein guter Deail :P

Raff
2023-04-12, 20:00:58
Nice! Ergänzend empfehle ich noch diese Lektüre (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-Vergleich-Benchmarks-GPU-Historie-1382238/) - dann haben wir alles für ein umfassendes Bild dafür, dass Grafikkarten jetzt 13.337 Euro kosten dürfen. :ulol:

MfG
Raff

Langlay
2023-04-12, 20:02:15
Krass, wie die Framerate steigt. :freak:

Also, wer da immer noch eine AMD Karte für fast genauso viel Geld bevorzugt, kann ich nicht mehr ernst nehmen sry.

FG wird wie DLSS 2, in 2 Jahren in jedem neuen Spiel drin sein!

Ich hab FG jetzt noch nicht wirklich ausgiebig getestet. Aber die FPS täuschen auch, vom Mausfeeling bzw. allgemein das Feeling der "Schwuppdiwuppdizität" ist halt kein wirklicher Unterschied zwischen FG off/on.

Aber das ist jetzt auch nur die Erfahrung aus etwas rumspielen in CP77.

Was für eine Argumentationskette :freak:

Ich kann ja nochmals das unsinnige Argument von oben aufgreifen (@Langlay):


Das war eigentlich weniger auf die Karte selbst bezogen, mehr auf das Scheinargument von Troyan. Ich wollte eigentlich nur aufzeigen wie Schwachsinnig der Vergleich ist.

Ich hätte Sarkasmustags hinzufügen sollen.

Ich werd den Post auch nochmal editieren und die Sarkasmustags hinzufügen

maximus_hertus
2023-04-12, 20:03:00
Danke schön, sehr gut. Also wegen 10% ist das Argument, kein Argument IHMO.

Krass, wie die Framerate steigt. :freak:

Also, wer da immer noch eine AMD Karte für fast genauso viel Geld bevorzugt, kann ich nicht mehr ernst nehmen sry.

FG wird wie DLSS 2, in 2 Jahren in jedem neuen Spiel drin sein!

Sorry, aber hast du dich mit FG schon ernshaft beschäftigt? Sieht (leider) nicht so aus. Die fps, die angezeigt werden, sind nciht unbedingt die fps, wie es sich anfühlt (Latenz). Die Diskrepanzen können riesig sein.

FG ist, Stand heute, eben kein Mittel, dass immer eine positive Auswirkung hat. Das war bei z.B. DLSS2 noch anders, da sind die mehr-fps 1:1 in niedrigere Latenz umgemünzt worden.

Zum VRAM: Wenn ein Game ohne RT und ohne FG schon 11-12 GB braucht, um keine Probleme zu bekommen, wird es mit FG und mit RT schnell Richtung 14-16GB gehen und schon sind die 12GB zu knapp.

Und: 2020 hat (fast) jeder gesagt, dass die 3070 eine weit überlegene RT PErformance im Vergleich zur 6800 hat. Heute sieht das teils ganz anders aus. Aber nicht wegen der Rechenleistung, sondern weil schlicht der VRAM ausgeht.

Wie schnell das bei der 4070 passieren wird, wird man sehen müssen. Aber 12GB sind ziemlich eng und könnten eher früher als später zum Schwachpunkt werden.

Und dann sind RT und FG regelrechte ANTI-Features, die man nicht sinnvoll nutzen kann.

Ex3cut3r
2023-04-12, 20:05:16
Gebe ich gern zurück.

https://static.techspot.com/articles-info/2546/bench/3-p.webp

Die Latenz steigt minimal (quelle DF), mit Reflex eigentlich gar nicht. Die sichtbare Framerate verbessert sich aber enorm. Es ist einfach ein Killer Feature.

KA, was du dir einredest.

Raff
2023-04-12, 20:06:32
Hier ein paar ganz frische Daten zu Latenzen & Co.: DLSS3 im Test: Wie gut schlägt sich die Geforce RTX 4070 in WQHD? (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/RTX-4070-DLSS-30-Frame-Generation-Raytracing-High-Fps-1417254/)

Einige der Zahlen haben mich positiv überrascht, andere negativ (etwa im Flight Simulator) - gemeint sind die fetten Tabellen.

MfG
Raff

SentinelBorg
2023-04-12, 20:06:48
Also ich hab eine 2070super, und genau deshalb hole ich mir die 4070, bin echt glücklich wegen der TDP der 4070.
Auch noch ein Punkt, die Leute haben eventuell ein Netzteil das eine 6900XT gar nicht verdauen kann oder zumindest dann anfangen würden laut zu werden.

Nvidia weiss halt schon genau wo sie die Karte platzieren vom Preis. Bei der 4080 haben sie sich imho etwas verkalkuliert, aber bei der 4070 wird das wahrscheinlich gut funktionieren.

maximus_hertus
2023-04-12, 20:07:57
Gebe ich gern zurück.

Die Latenz steigt minimal (quelle DF), mit Reflex eigentlich gar nicht. Die sichtbare Framerate verbessert sich aber enorm. Es ist einfach ein Killer Feature.

Quelle CB:

Wenn nun beide Ergebnisse inklusive Nvidia Reflex verglichen werden, was bei DLSS 3 immer aktiv ist, liefert DLSS 3 zwar 5 Prozent mehr FPS, aber dann auch gleich 76 Prozent schlechtere Latenzen.


Wenn, dann muss man überall die gleichen Bedingungen haben und nur FG on/off testen.

Ex3cut3r
2023-04-12, 20:10:32
;D Alles klar.

Typischer AMDler, irgendwie was schön reden.

maximus_hertus
2023-04-12, 20:12:36
Schade, dass man persöhnlich werden muss. Jup, hast mich erwischt, mit der RTX 3080 bin ich typisch AMDler....

Aus deinem Screenshot:

mit FG 62.6 vs ohne FG 47ms

Das ist schon ziemlich spürbar. Trotz deutlich mehr fps fühlt es sich nach weniger an als ohne FG.

SentinelBorg
2023-04-12, 20:13:23
Hier ein paar ganz frische Daten zu Latenzen & Co.: DLSS3 im Test: Wie gut schlägt sich die Geforce RTX 4070 in WQHD? (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/RTX-4070-DLSS-30-Frame-Generation-Raytracing-High-Fps-1417254/)
Mal ne Frage, wie bekommt ihr bei FH5 Reflex on wenn FG auf off steht? Bei mir kann ich Reflex dort nur aktivieren wenn FG auf on steht. Sobald ich FG off schalte wird der Reflex Menupunkt grau und geht auch wieder auf off.

Raff
2023-04-12, 20:14:15
Wenn, dann muss man überall die gleichen Bedingungen haben und nur FG on/off testen.

Quizfrage: Was ist deine Baseline für "Frame Generation aus"? :)

Diese Frage stellen sich viele, auch die Tester. Reflex an wäre naheliegend, denn Reflex ist auch bei Frame Generation immer an. Damit kann man dann optimal die Zusatzlatenz durch FG abbilden. Allerdings ist "Reflex an" eben nur eine Baseline und es geht tiefer: Reflex aus = Radeon- und Arc-Baseline. Eigentlich ist das der Ausgangspunkt, dem sich Frame Generation stellen muss. Denn wenn Arc und Radeon aus naheliegenden Gründen als spielbar angesehen werden und FG das Latenzniveau hält, passt alles und die Flames in Richtung der Technologie wirken deplatziert.

MfG
Raff

Ghost1nTh3GPU
2023-04-12, 20:18:09
Rein technisch (Chip-Größe+Binning, Features, Leistung und TDP) ein Top-Paket. Die Preis-Leistung ist leider nur marktüblich. Aber ohne >3,5GHz N32 oder Intel ARC A800/A900 Konkurrenz sieht Nvidia sich da auch keinem Druck ausgesetzt.

basix
2023-04-12, 20:20:39
Quizfrage: Was ist deine Baseline für "Frame Generation aus"? :)

Diese Frage stellen sich viele, auch die Tester. Reflex an wäre naheliegend, denn Reflex ist auch bei Frame Generation immer an. Damit kann man dann optimal die Zusatzlatenz durch FG abbilden. Allerdings ist "Reflex an" eben nur eine Baseline und es geht tiefer: Reflex aus = Radeon- und Arc-Baseline. Eigentlich ist das der Ausgangspunkt, dem sich Frame Generation stellen muss. Denn wenn Arc und Radeon aus naheliegenden Gründen als spielbar angesehen werden und FG das Latenzniveau hält, passt alles und die Flames in Richtung der Technologie wirken deplatziert.

MfG
Raff

Spielbar ist aber auch schwammig. Es würde sich mit höhere FPS immer besser spielen lassen ;) Ausserdem ein extrem subjektives Thema und je nach Setup (Monitor, Maus, Tastatur) nochmals abweichend. Schwieriges Thema.

Aber: Mit einer High End Karte und 120fps will ich nicht mindestens das Spielgefühl einer 6400XT bei 30fps erreichen, um akzeptabel zu sein (falls dies diese akzeptable Baseline sein sollte). Da müssen schon andere Kriterien her.

Ich komme auch nicht auf eine goldene Lösung. Ab besten wohl mit/ohne Reflex/AntiLag und Konkurrenzkarten vergleichen, welche ähnliche Leistung bietet. Und das habt ihr bei den Tests gemacht ;)

Nice! Ergänzend empfehle ich noch diese Lektüre (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-Vergleich-Benchmarks-GPU-Historie-1382238/) - dann haben wir alles für ein umfassendes Bild dafür, dass Grafikkarten jetzt 13.337 Euro kosten dürfen. :ulol:

MfG
Raff
Die Lektüre kenne ich. Bin ja auch treuer PCGH-Print Leser ;)

Bei 13'337 müsste eine der mittleren Zahlen wegkommen. Für das absolute High End wäre das in allen denkbaren Dimensionen der "optimale" Preispunkt ;)

Ach ja, die Karten in der Liste habe ich alle noch. Und deswegen dürfen deren Spitznamen eigentlich nicht fehlen :D

r3ptil3
2023-04-12, 20:21:09
RX 6800 XT, 16Gb (2020): 649$

RTX 4070, 12Gb (2023): 600$


Nicht kaufen, fertig.

Langlay
2023-04-12, 20:22:05
Quizfrage: Was ist deine Baseline für "Frame Generation aus"? :)

Diese Frage stellen sich viele, auch die Tester. Reflex an wäre naheliegend, denn Reflex ist auch bei Frame Generation immer an. Damit kann man dann optimal die Zusatzlatenz durch FG abbilden. Allerdings ist "Reflex an" eben nur eine Baseline und es geht tiefer: Reflex aus = Radeon- und Arc-Baseline. Eigentlich ist das der Ausgangspunkt, dem sich Frame Generation stellen muss. Denn wenn Arc und Radeon aus naheliegenden Gründen als spielbar angesehen werden und FG das Latenzniveau hält, passt alles und die Flames in Richtung der Technologie wirken deplatziert.

MfG
Raff


Baseline ist bei mir Reflex an, bei den Radeon halt Anti-lag anmachen, ist halt nicht so gut wie Reflex aber ist halt so.

Aber wo ich das Problem krieg ist ja mit FG ist die Latenz ja quasi gleich zu ohne. Das ist genau das Problem. Der FG macht es optisch smoother. Allerdings machen die mehr-FPS keinen Unterschied bei der Direktheit der Eingaben. Also wenn sich die Maus etwas gummibandmässig anfühlt wird es durch FG nicht besser wie es bei einem konventionellen FPS Gewinn ist.

Lehdro
2023-04-12, 20:22:33
Von Computerbase: (https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/4/#abschnitt_fazit)
Kein anderes Design kommt auch nur halbwegs an die beeindruckende Verarbeitungsqualität heran. Die Lüfter sind dagegen weniger gut, wenn auch nicht schlecht. Die Grafikkarte ist beim Spielen weder laut noch leise, sondern irgendwo dazwischen. Der hintere Lüfter erzeugt allerdings sowohl in der großen als auch in der kleinen Version unabhängig von der Drehzahl störende Resonanzen, die gut zu hören sind und auffallen – nicht das Luftrauschen ist die Schwachstelle des Kühlers, sondern die Resonanzen.
Wtf. Bei mir gehört die Qualität der Belüftung mit zur Verarbeitungsqualität - Resonanzen umso mehr. Eiernde Lüfter mögen noch durchgehen, sofern sie die Leistung nicht beeinflussen, aber Resonanzen bei Lüftern? No-go!

aufkrawall
2023-04-12, 20:26:28
Wtf. Bei mir gehört die Qualität der Belüftung mit zur Verarbeitungsqualität - Resonanzen umso mehr. Eiernde Lüfter mögen noch durchgehen, sofern sie die Leistung nicht beeinflussen, aber Resonanzen bei Lüftern? No-go!
War schon immer so bei Nvidia-Referenzkarten. Kann man nur komplett ignorieren (AMD bei RDNA3 aber leider auch).

DrFreaK666
2023-04-12, 20:28:32
Natürlich. Ich mache mir doch wegen ein paar technischer Flops, welche auch immer noch im Patch Modus sind, nicht die Hosen voll...

Und nimmst deswegen regelmäßig CP2077 als Beispiel :lol:

Hakim
2023-04-12, 20:33:47
Ist es nicht so, das man z.B bei einem Competitive Online Shooter Sowieso DLSS 3 + FG ausschalten würde? Ich nutze ja derzeit DLSS2 bei Warzone für mehr FPS, aber selbst da stören mich einige Sachen bei DLSS2 (Pixelbrei bei den Sachen die auf den Boden liegen), Wenn noch Latenzen verschlechtert und sich der Input nicht mehr so gut anfühlt wie nativ?

Das ist für Solo Spiele ganz Nett, aber wenn es um schnelle Competitive Multiplayer Sachen geht nicht so Pralle, oder liege ich da falsch?

basix
2023-04-12, 20:37:48
Japp, da liegst du genau richtig. Reflex ist dann allerdings nice, da das automatisch mit DLSS3 mitkommt. Das kann man via DLSS2 + Reflex tip top kombinieren.

SentinelBorg
2023-04-12, 20:39:56
Ja, für Competitive eigentlich immer da FG prinzipbedingt gegenüber der Originalframerate immer etwas Zusatzlatenz hinzufügt.

Generell ist FG primär dafür da, um von gut spielbaren flüssigen FPS (60 bis 90 je nach Game) zu super fluffigen dreistelligen FPS für aktuelle Monitore zu kommen. Und das tut es sehr gut.

Ich finde z.B. native 1440p + DLAA + FG in Hogwarts Legacy für 144 fps Cap besser als stattdessen DLSS Quality. In FH5 wäre es zukünftig eine Option wenn ich mir so einen 240 Hz LG OLED kaufen würde.

Prinzenrolle
2023-04-12, 20:42:46
Keine Ahnung, was dieser gähnend langweilige Fanboy-Grabenkrieg wieder soll, den du vom Zaun brechen willst.

Wer sie zu diesem Preis aber trotzdem statt einer 6800XT/6900XT kauft, der muss absoluter Hardcore-Fanboy sein.

Muss man da noch viel zu sagen?:rolleyes: Ich glaube das sagt bereits alles, wer hier Grabenkriege forciert.

Ich vergleiche die Karten nach Pros und Cons, möglichst neutral und nehme natürlich auch Nvidias RT Leistung und bessere Software und Bildqualität mit in die Rechnung. AMD ist sich dessen bewusst, siehe Preissenkung 7900XT, siehe Preissenkung 6950XT.


Hier stimmst du Trollyan zu, dass die Karte ja besser als zur Verfügung stehende Alternativen ist.

Ja, das sehe ich so, deswegen ist niemand der auf die Rasterleistung mehr Wert legt, RT nicht als Priorität hat und kaum Upscaling nutzt und sich für eine "veraltete" Karte mit größerem Speicher entscheidet ein "Hardcore Fanboy".

AMD hat bei dem Release von Cyberpunk Overdrive eine Marketingkampagne mit geschönten Folien an die Presse gegeben, nur um den große Vorsprung durch DLSS und FG, bzw RT in diesem Spiel zu kaschieren.
Die Bewertung der Redaktionen spiegelt auch nicht deine wieder. Von daher ist das alles reichlich undifferenzierter Fanboy Müll.

DrFreaK666
2023-04-12, 20:46:54
...
Ich vergleiche die Karten nach Pros und Cons, möglichst neutral...

Wie bitte? :ugly:

Prinzenrolle
2023-04-12, 20:50:54
Wie bitte? :ugly:

Inwiefern? Führe das doch mal genauer aus.

Schnitzl
2023-04-12, 20:52:43
Der nächste der das F-Wort schreibt bekommt hier lange Urlaub!

dargo
2023-04-12, 20:54:00
Gebe ich gern zurück.

https://static.techspot.com/articles-info/2546/bench/3-p.webp

Die Latenz steigt minimal (quelle DF), mit Reflex eigentlich gar nicht. Die sichtbare Framerate verbessert sich aber enorm. Es ist einfach ein Killer Feature.

KA, was du dir einredest.
Du musst die Grafiken auch verstehen die du verlinkst ansonsten wird es wirklich peinlich.

Raff
2023-04-12, 20:54:02
F... rame Generation :biggrin: wäre eigentlich mal 'ne Umfrage wert, oder nicht? Fühlt sich jemand berufen?

MfG
Raff

DrFreaK666
2023-04-12, 20:58:18
Inwiefern? Führe das doch mal genauer aus.

Wo warst du neutral?
"Nvidia macht alles richtig. AMD muss Preise senken, weil Nvidia alles richtig macht."
Neutral ist anders

Prinzenrolle
2023-04-12, 20:58:40
Du musst die Grafiken auch verstehen die du verlinkst ansonsten wird es wirklich peinlich.

Der 7900XTX Nutzer erklärt uns jetzt allen zusammen die Unsinnigkeit von Frame-Generation, genauso wie jahrelang die Unsinnigkeit von RT und DLSS gepredigt wurde.:smile:

Frame Generation funktioniert zwar wirklich meistens klasse, aber wir werden gleich wieder hören, dass es Schamanen-Voodo ist und ja nicht NATIV.
Bestimmt klemmst du als erstes auch den Turbolader an deinem Motor ab oder?
Wo warst du neutral?
"Nvidia macht alles richtig. AMD muss Preise senken, weil Nvidia alles richtig macht."

AMD hat doch die Preise gesenkt, oder nicht?

The_Invisible
2023-04-12, 21:04:05
Hier ein paar ganz frische Daten zu Latenzen & Co.: DLSS3 im Test: Wie gut schlägt sich die Geforce RTX 4070 in WQHD? (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/RTX-4070-DLSS-30-Frame-Generation-Raytracing-High-Fps-1417254/)

Einige der Zahlen haben mich positiv überrascht, andere negativ (etwa im Flight Simulator) - gemeint sind die fetten Tabellen.

MfG
Raff

Die 4070 Ti in FS2020 mit FG mehr als doppelt so schnell, hätte ich so auch noch nie gesehen.

Lustig auch das die 4070 Ti mehr mit FG dazugewinnt als die 4070, sind die Optical Flow Accelerator (TOPS) nicht auf allen Ada Karten gleich?

Schnitzl
2023-04-12, 21:04:16
Der 7900XTX Nutzer erklärt uns jetzt alle zusammen die Unsinnigkeit von Frame-Generation, genauso wie jahrelang die Unsinnigkeit von RT und DLSS gepredigt wurde.:smile:
wo liest du da dass Dargo FG für Unsinnig erklärt?

Einfach mal aufhören anderen immer Dinge zu unterstellen.

@ Raff: :D

dargo
2023-04-12, 21:06:00
wo liest du da dass Dargo FG für Unsinnig erklärt?

Einfach mal aufhören anderen immer Dinge zu unterstellen.

Das ist der übliche Beißreflex. Ich mag auch die Neutralität von Prinzenrolle. :popcorn:

DrFreaK666
2023-04-12, 21:08:12
...AMD hat doch die Preise gesenkt, oder nicht?

Die 7900XT war zu Release zu teuer. Jeder sagte dass die Karte zu dem Preis keinen Sinn macht. Die langsamere 6950 muss dementsprechend auch günstiger werden

Taigatrommel
2023-04-12, 21:08:59
Der 7900XTX Nutzer erklärt uns jetzt allen zusammen die Unsinnigkeit von Frame-Generation, genauso wie jahrelang die Unsinnigkeit von RT und DLSS gepredigt wurde.:smile:

Frame Generation funktioniert zwar wirklich meistens klasse, aber wir werden gleich wieder hören, dass es Schamanen-Voodo ist und ja nicht NATIV.
Bestimmt klemmst du als erstes auch den Turbolader an deinem Motor ab oder?


AMD hat doch die Preise gesenkt, oder nicht?
Dargo nutzt keine 7900 XTX mehr.

AMD hat offiziell keine Preissenkung der 6950 XT bekannt gegeben, genauso wenig 6900 XT oder 6800 XT. Die beiden dicken Karten sind seit einiger Zeit im Abverkauf, die 6900 XT konnte man bereits letztes Jahr, noch ehe RDNA3 überhaupt verfügbar war, immer mal wieder für um die 700€ abgreifen. Aktuell sind es halt 600-650€. Neu ist eigentlich nur, dass die 6950er immer mal sehr lukrative Angebote hat. Doch die springen immer von Tag zu Tag, von einer generellen Preissenkung kann also keine Rede sein, zumal sie abseits von MF quasi nicht zu finden sind.

Die 7900 XT wurde meines Wissens nach auch nicht offiziell im Preis gesenkt, bei der 7900 XTX ist man derzeit halt endlich mehr oder weniger auf oder leicht unter der UVP - was in den ersten anderthalb Monaten quasi gar nicht der Fall war. Hier in Deutschland musste man wohl auch irgendwo reagieren, weil der Aufpreis XT auf XTX viel zu gering war, als das die Karte irgendwo relevant wäre. Somit kann man auch jetzt kaum mehr eine 6950 XT mehr für 800€ verkaufen, wenn eine 7900 XT nur wenige Euro teurer ist.

In den USA z.B. gab es auch einen Abverkauf der RTX 3080 - welcher hier in Europa jedoch nie angekommen ist.

Raff
2023-04-12, 21:10:41
[...] sind die Optical Flow Accelerator (TOPS) nicht auf allen Ada Karten gleich?

Da fragst du was. Ich habe diese Frage mehrfach an Nvidia gestellt, aber nie eine eindeutige Aussage erhalten. So weit ich das gerafft habe, ist der OFA in jeder Ada-GPU gleich. Das ist halt ein kleiner Block in der GPU. Skaliert er nun mit dem Takt (wovon ich ausgehe), hat er eine eigene Domäne (eher nicht) ... oder sind die offiziellen "~305 TOPS" für diverse Ada-Karten Zufall, da alle mit um die 2,6 GHz laufen? Falls jemand harte Fakten dazu findet, wäre das schon geil.

MfG
Raff

Shink
2023-04-12, 21:11:30
Speicherausbau finde ich für die Leistung OK. Effizienz ist gut, besser als bei der großen Karte und auch im 2D-Betrieb. Sehr solide 400€-Karte. Oh wait ...
Naja 200W ist immer noch nicht wenig aber immerhin.

robbitop
2023-04-12, 21:15:04
Die Referenzpunkte für die Latenz von FG sind IMO:

1.)
Baselineframerate (zB 60 fps) FG off + reflex on
weil man reflex ja aktiviert da es Latenz verringert und praktisch nichts kostet und da es ja auch mit FG on ist. Also Birnen mit Birnen vergleichen.

2.)
native doppelte Framerate (zB 120 fps) + FG off + reflex on
einfach weil das der Referenzpunkt für die vom user erwartete Fluppdizität/Latenz ist die er kennt.

1+2) vs:
FG on - also verdoppelte Framerate (sagen wir 120 fps) FG on + reflex
Also das was man bekommt.

Und genau wegen 2.) merken viele User eben doch, dass Framerate zu fluppdizität nicht immer passt.

Wenn man natürlich biased ist vergleicht man FG on + reflex vs FG off ohne reflex und lügt sich in die Tasche. ;)

Prinzenrolle
2023-04-12, 21:17:45
Das ist der übliche Beißreflex. Ich mag auch die Neutralität von Prinzenrolle. :popcorn:

Was ist dein Erklärungsansatz? Willst du mir weißmachen, dass du die ~10 Millisekunden die Frame Generation an Overhead produziert, gegenüber dem Ergebnis des wesentlich flüssigeren Spielgefühl merkst?:tongue:

Wir hatten in der "Werkstatt" schon mehrere Blindvergleiche von competetiv spielenden Gamern angeleiert, weil die auch ganz trollig meinten, dass das nie klappen würde und siehe da, das Ergebnis mit Frame Generation war selbst bei Grund FPS von ~30 immer das viel angenehmere. Kleiner Latenz Unterschied hin oder her, war nicht spürbar.

dargo
2023-04-12, 21:20:58
Was ist dein Erklärungsansatz?
Ich verschwende doch nicht meine Lebenszeit für dich. Robbitop war es die Mühe wert, dort kannst du alles nachlesen.

Linmoum
2023-04-12, 21:21:49
Hab mir gerade mal das DF-Video zur 4070 angesehen.

- Solange AMD nicht mit irgendetwas überzeugende(re)m um die Ecke kommt, ist die 4070 das "de facto"-Upgrade für Leute, die beispielsweise noch Pascal/Turing (1070, 1080, 2070 etc.) nutzen. Dass er als Alternative nicht einmal RDNA2 bei den aktuellen GPU-Straßenpreisen erwähnt, hat mit objektivem Journalismus schon gar nichts mehr zu tun.
- Erwähnt stolz wie Bolle, dass man mit der 4070 ja rund 70-80% mehr Raster-Performance als bei einer PS5/XSX bekommt, ohne DLSS/bessere RT-Performance/FG zu berücksichtigen. Und dass mit einer aktuellen Konsole sowas wie RT-Overdrive aus CP2077 nie möglich sein wird. Jetzt hätte er nur noch sagen müssen, dass eine 5 Millionen Euro Villa luxuriöser ausgestattet ist, als eine 2-Zimmer-Wohnung in der Stadt. :eek:
- In einer Welt, wo die 3080 noch immer auf ihrem 2020-"Launchpreis" Niveau ist oder der Preis sogar wieder gestiegen ist - und jetzt kommt es, Achtung - ist der Preis der 4070 "fine if not exceptional". ;D

Noch deutlicher kann man Nvidia wirklich nicht mehr in den Arsch kriechen. :freak: Kein Wunder, dass die ständig irgendwelche exklusiven (P)Reviews vor der restlichen Weltpresse bekommen. Mit solchen Leuten würde ich als Unternehmen auch immer bevorzugt zusammenarbeiten. Unglaublich eigentlich.

Taigatrommel
2023-04-12, 21:28:34
Hab mir gerade mal das DF-Video zur 4070 angesehen.

- Solange AMD nicht mit irgendetwas überzeugende(re)m um die Ecke kommt, ist die 4070 das "de facto"-Upgrade für Leute, die beispielsweise noch Pascal/Turing (1070, 1080, 2070 etc.) nutzen. Dass er als Alternative nicht einmal RDNA2 bei den aktuellen GPU-Straßenpreisen erwähnt, hat mit objektivem Journalismus schon gar nichts mehr zu tun.
- Erwähnt stolz wie Bolle, dass man mit der 4070 ja rund 70-80% mehr Raster-Performance als bei einer PS5/XSX bekommt, ohne DLSS/bessere RT-Performance/FG zu berücksichtigen. Und dass mit einer aktuellen Konsole sowas wie RT-Overdrive aus CP2077 nie möglich sein wird. Jetzt hätte er nur noch sagen müssen, dass eine 5 Millionen Euro Villa luxuriöser ausgestattet ist, als eine 2-Zimmer-Wohnung in der Stadt. :eek:
- In einer Welt, wo die 3080 noch immer auf ihrem 2020-"Launchpreis" Niveau ist oder der Preis sogar wieder gestiegen ist - und jetzt kommt es, Achtung - ist der Preis der 4070 "fine if not exceptional". ;D

Noch deutlicher kann man Nvidia wirklich nicht mehr in den Arsch kriechen. :freak: Kein Wunder, dass die ständig irgendwelche exklusiven (P)Reviews vor der restlichen Weltpresse bekommen. Mit solchen Leuten würde ich als Unternehmen auch immer bevorzugt zusammenarbeiten. Unglaublich eigentlich.
Naja irgendwie muss man sich ja den Exklusivzugang zu Dingen wie RT Overdrive in Cyberpunk sichern und verdienen. :wink:
Noch deutlicher jedenfalls kann man es ja kaum noch aufzeigen. Das ist ja fast noch besser als die "Just buy it!"-Berichterstattung damals von Tom's Hardwareguide zur ersten RTX Reihe.

Lurtz
2023-04-12, 21:35:45
Hab mir gerade mal das DF-Video zur 4070 angesehen.

- Solange AMD nicht mit irgendetwas überzeugende(re)m um die Ecke kommt, ist die 4070 das "de facto"-Upgrade für Leute, die beispielsweise noch Pascal/Turing (1070, 1080, 2070 etc.) nutzen. Dass er als Alternative nicht einmal RDNA2 bei den aktuellen GPU-Straßenpreisen erwähnt, hat mit objektivem Journalismus schon gar nichts mehr zu tun.
- Erwähnt stolz wie Bolle, dass man mit der 4070 ja rund 70-80% mehr Raster-Performance als bei einer PS5/XSX bekommt, ohne DLSS/bessere RT-Performance/FG zu berücksichtigen. Und dass mit einer aktuellen Konsole sowas wie RT-Overdrive aus CP2077 nie möglich sein wird. Jetzt hätte er nur noch sagen müssen, dass eine 5 Millionen Euro Villa luxuriöser ausgestattet ist, als eine 2-Zimmer-Wohnung in der Stadt. :eek:
- In einer Welt, wo die 3080 noch immer auf ihrem 2020-"Launchpreis" Niveau ist oder der Preis sogar wieder gestiegen ist - und jetzt kommt es, Achtung - ist der Preis der 4070 "fine if not exceptional". ;D

Noch deutlicher kann man Nvidia wirklich nicht mehr in den Arsch kriechen. :freak: Kein Wunder, dass die ständig irgendwelche exklusiven (P)Reviews vor der restlichen Weltpresse bekommen. Mit solchen Leuten würde ich als Unternehmen auch immer bevorzugt zusammenarbeiten. Unglaublich eigentlich.
Die DF Leute schrubben sich doch schon seit Tagen einen bei Twitter darauf wie die Nvidia Technologie Demo Cyberpunk Overdrive praktisch nicht lauffähig auf RDNA und Konsolen ist. Aber wehe der VRAM in einem AMD Spiel läuft bei einer 8 GB Geforce über, dann ist das Spiel ganz böse kaputt und taugt auf keinen Fall für Hersteller Vergleiche.

Es ist nur noch ein Meme was die veranstalten, leider haben sie viel Einfluss mittlerweile.

SentinelBorg
2023-04-12, 21:35:55
Wird die 6x00XT von AMD eigentlich noch produziert? Weil wenn nicht, finde ich es durchaus legitim die nicht mehr spezifisch im Review zu erwähnen, zumal DF ja auch generell eher einen Fokus auf aktuelle Grafikkracher inkl. mit RT usw. hat. Und da steht die 4070 halt deutlich besser dar.

Bei der 4090 und 4080 wurden auch oft die Abverkaufspreise der 3090/80 von Reviewern erwähnt. Aber das war eine arg temporäre Situation die es bei uns zudem fast gar nicht gab.

Und DF hat sehr wohl zuletzt regelmäßig erwähnt dass 8 GB nicht mehr ok für aktuelle Karten sind. Aber sie erwähnen auch zu recht, dass TloU halt einfach mal miserable Medium Texturen hat, die selbst deutlich hinter jenen von Part II auf der PS4 zurück fallen.

IchoTolot
2023-04-12, 21:43:42
Es ist nur noch ein Meme was die veranstalten, leider haben sie viel Einfluss mittlerweile.

THIS!! (y)


Zum VRAM: Wenn ein Game ohne RT und ohne FG schon 11-12 GB braucht, um keine Probleme zu bekommen, wird es mit FG und mit RT schnell Richtung 14-16GB gehen und schon sind die 12GB zu knapp.

Und: 2020 hat (fast) jeder gesagt, dass die 3070 eine weit überlegene RT PErformance im Vergleich zur 6800 hat. Heute sieht das teils ganz anders aus. Aber nicht wegen der Rechenleistung, sondern weil schlicht der VRAM ausgeht.

Wie schnell das bei der 4070 passieren wird, wird man sehen müssen. Aber 12GB sind ziemlich eng und könnten eher früher als später zum Schwachpunkt werden.

Und dann sind RT und FG regelrechte ANTI-Features, die man nicht sinnvoll nutzen kann.

Und genau so sehe ich das auch. Ich bin schon auf die ersten Tests zu neueren Spielen gespannt wie die 4070 da performt. Zum Beispiel Dead Island 2. :D

dildo4u
2023-04-12, 21:45:12
Es gibt keine Leaks zu den AMD Karten um 600€, kann also sein das die noch Monate entfernt sind.
Daher werden die alten Karten noch zum Vergleich gezogen, die 6950xt scheint noch nicht abverkauft.

IchoTolot
2023-04-12, 21:59:48
"12 GB schicken für die Zukunft und dann hab ich ja noch Framegeneration und DLSS.."

Meanwhile.. Das neue Cyberpunk Pathtracing Update.

https://cdn.discordapp.com/attachments/957686950364598322/1095800292777414796/2023-04-12_21-57-28.png

Es ist schon sowas von abzusehen, dass die tollen neuen nvidia techniken überhaupt nix bringen werden, wenn die Karte am Speicher verhungert in Kürze.. ^^

Prinzenrolle
2023-04-12, 22:02:45
Die DF Leute schrubben sich doch schon seit Tagen einen bei Twitter darauf wie die Nvidia Technologie Demo Cyberpunk Overdrive praktisch nicht lauffähig auf RDNA und Konsolen ist.

Ist halt auch so, dass Nvidia den heißen Shit veröffentlicht und Pathtracing auf den Radeons auch schon bei Minecraft und Doom nicht zufriedenstellend lief, ergo ist es bei Cyberpunk schon zweimal keine Überraschung.
Dagegen ist es schon fast absurd, wenn AMD Partner von RevEvil4 ist und mal eben Folien mit ~18GB V-ram Bedarf (eig. Belegung) veröffntlicht, obwohl das Game selbst mit 10GB in 4K kein Problem hat.:rolleyes:

Thunder99
2023-04-12, 22:36:50
Tolle Karte, wäre da nicht der Preis :freak:
- Mehr VRAM
- Guter Abstand zur Ti (30er war da ja ein Witz)
- Konkurrenzlos (aktuell)
- Endlich eine Karte wieder auf 200erWatt Nivau

Nvidia, alles richtig gemacht!

Vorausschauend würde ich dennoch 2023 keine 12GB Karte mehr kaufen, sofern man die Karte länger haben möchte. Unter 16GB geht da nichts mehr um einigermassen gerüstet zu sein. Meine 4080er kommt bald :love2:

maximus_hertus
2023-04-12, 22:41:34
Quizfrage: Was ist deine Baseline für "Frame Generation aus"? :)

Diese Frage stellen sich viele, auch die Tester. Reflex an wäre naheliegend, denn Reflex ist auch bei Frame Generation immer an. Damit kann man dann optimal die Zusatzlatenz durch FG abbilden. Allerdings ist "Reflex an" eben nur eine Baseline und es geht tiefer: Reflex aus = Radeon- und Arc-Baseline. Eigentlich ist das der Ausgangspunkt, dem sich Frame Generation stellen muss. Denn wenn Arc und Radeon aus naheliegenden Gründen als spielbar angesehen werden und FG das Latenzniveau hält, passt alles und die Flames in Richtung der Technologie wirken deplatziert.

MfG
Raff

Vielleicht kam das falsch rüber, aber ich bin nicht gegen FG bzw. finde neue Techik immer spannend und freue mich, wenn sich was sinnvolles / gutes durchsetzt.

Gute Quizfrage, natürlich ist die Frage der Baseline eine berechtigte Frage. Bei FG ist es aber nunmal so, dass nur die Angabe der fps schlicht nicht ausreicht (für einen Vergleich). Im Gegensatz zu z.B. DLSS2 sind die Mehr fps nicht 1:1 "zu bewerten".
Ich bin da aber sicher nicht der große Experte und konnte leider bisher noch keine RTX 4000 Karte meinen eigen nennen um es selber zu testen.

Von daher nochmals: von miner Seite gibt es keinen Flame in Richtung FG, sondern eher die Info, dass man eben nicht nur die fps sehen sollte, sondern halt das "komplette Paket", also ach die Latenz. Das ist bei einigen (nicht bei der PCGH) zu kurz gekommen und Leser bekommen einen falschen Eindruck bzw. nicht alle Details, die wichtig sind.

IchoTolot
2023-04-12, 23:04:21
RT ist klar. Aber eine aktuelle Quelle für FG bitte? Halte für ein geschickte falsch Information, wahrscheinlich von AMD in die Welt gesetzt. :freak:

Doch wenn Sie anschließend DLSS 3.0 respektive die Frame Generation der neuen Ada-Lovelace-Generation zuschalten, steigt der Speicherbedarf wieder an - in 4K ebenfalls häufig um mehr als einen GiByte gegenüber der nativen Auflösung. Dies liegt wiederum an den zusätzlich benötigten Puffern sowie der Tatsache, dass für die Bildinterpolation ein vorheriges Bild, ein darauffolgender Frame sowie der schlussendlich aus diesen generierte KI-Frame im Grafikspeicher verweilen müssen. Mit DLSS 3.0 ist der Speicherbedarf also zumeist höher als mit nativer Auflösung ohne DLSS und Frame Generation.

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/So-viel-Grafikspeicher-brauchen-Sie-2023-1411842/

Prinzenrolle
2023-04-12, 23:43:42
Wozu also eine AMD Grafikkarte kaufen, die mit Raytracing so dermaßen abkackt, dass man benachteiligt ist?

Zum Beispiel um in 4K auch noch in 2 oder 3 Jahren die Texturen voll aufdrehen zu können.
12GB sind für WQHD oder Full HD okayisch, aber darüber hinaus nichts für ein langes Leben der GPU mit vollen Details.

@IchoTolot, es sind meist weniger als 1GB, teilweise auch nur 200mb. ;)
Du fokussierst dich aber wie schon befürchtet eher recht auf Kirschenpickereien.

IchoTolot
2023-04-12, 23:50:32
in 4K ebenfalls häufig um mehr als einen GiByte gegenüber der nativen Auflösung.

Ich geb nur wieder was PCGH schreibt und die werden wissen wovon sie reden.

Und wenn du den Artikel gekauft hast, siehste du dass es sogar mehr als 1 GB sein können mit FG.

crux2005
2023-04-13, 00:15:51
Laut MLID könnten die durchschnittlichen 4070 Preise sogar steigen weil NV gewisse Karten nicht mehr subventionieren wird. ;D;D;D
Q: https://www.youtube.com/watch?v=-RFJttxYSXg

Hoffentlich kaufen so wenige Leute wie möglich diese überteuerten Karten.

Linmoum
2023-04-13, 00:42:59
Wer lachen will, sollte mal Golem lesen. Direkt der erste Absatz:

Morgen erscheint die Nvidia Geforce RTX 4070, der erste echte Mittelklasseableger der Ada-Generation. Aus unserer Sicht hat Nvidia dabei einiges richtig gemacht, denn die Kompromisse wurden an den richtigen Stellen gemacht. Vor allem die 12 GByte-GDDR6X empfinden wir als besonders wichtig, da zunehmend Spiele auf den Markt kommen, die viel Speicher benötigen.

;D

Troyan
2023-04-13, 00:46:41
Und? Der Konkurrent liefert mit 20GB weniger Leistung. Hier mal aus Cyberpunk:
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/cyberpunk-2077-rt-1920-1080.png

50% Aufpreis, 10% weniger Leistung. Voll geil.

BlacKi
2023-04-13, 01:17:52
dass man eben nicht nur die fps sehen sollte, sondern halt das "komplette Paket", also ach die Latenz. Das ist bei einigen (nicht bei der PCGH) zu kurz gekommen und Leser bekommen einen falschen Eindruck bzw. nicht alle Details, die wichtig sind.


ich hab schon 2020 cyberpunk gezockt, ich fand die 80fps schon damals in ordnung. klar besser geht immer. auch die latenz war damals gut spielbar mit 80fps+


jetzt kommen aber leute und sagen 80fps+ mit FG und reflex sind keine echten fps weil inputlag und so.


dabei war der inputlag damals ohne reflex praktisch genauso hoch wie jetzt mit RF+FG und mit beiden modi kann man gut zocken. aber mit dem einen modi hat man fast die fps verdoppelt für bessere grafik.


wie gut reflex funktioniert um FG ausgleichen zu können hat nv in zahlen belegt. und die leute die es genutzt haben können scheinbar auch nichts negatives berichten.


deshalb fuckt mich die diskussionen von der seitenlinie jedes mal ab.

DrFreaK666
2023-04-13, 01:39:01
Und? Der Konkurrent liefert mit 20GB weniger Leistung. Hier mal aus Cyberpunk:
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/cyberpunk-2077-rt-1920-1080.png

50% Aufpreis, 10% weniger Leistung. Voll geil.

https://abload.de/img/cherry-picking-salesfpse73.png (https://abload.de/image.php?img=cherry-picking-salesfpse73.png)

Linmoum
2023-04-13, 03:21:28
Und? Der Konkurrent liefert mit 20GB weniger Leistung. Hier mal aus Cyberpunk:
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/cyberpunk-2077-rt-1920-1080.png

50% Aufpreis, 10% weniger Leistung. Voll geil.Deine Schallplatte ist immer noch kaputt. Dass dir das langsam selbst nicht unangenehm ist, ständig sämtliche Diskussionen mit denselben 1-2 Spielen auf plumpe Weise erschlagen zu wollen. Warum testen Redaktionen eigentlich so viele Spiele und haben umfangreiche Parcours? Unser Troyan braucht eh nur ein Spiel und der Rest ist völlig irrelevant.

Arbeitest du insgeheim für DF?

robbitop
2023-04-13, 06:17:52
Jeder weiß, dass er ein Propellerjunge ist. 100% NV bias. Kann man IMO nicht ernst nehmen. Keine sachlichen Diskussionen möglich. Einfach ignorieren.

sun-man
2023-04-13, 06:26:30
Hoffentlich kaufen so wenige Leute wie möglich diese überteuerten Karten.
Ich.....werde zu geringeren Preisen. Warum auch nicht. Ich sehe keine Alternativen. Ich bin kein Profi und kann auch mal mit "Mid" in Shadows oder so leben. Ich habe irgendwann vor der Pandemie ne 3060TI für unter 400 gekauft ^^
AMD? Cyberpunk ist (vermutich) eh kein guter Benchmark. Aber 15fps mit ner 6800XT? Welche AMD Karte sollte man sich denn da hingeben?

LVovUcHnwws

DozerDave
2023-04-13, 07:38:39
Wow 659€ für eine 4070.
Was wird dann eine 4060 Ti und 4060 kosten? Letztere wird doch nicht unter 499€ kosten.
Mainstream GPUs sind irgendwie tot. Da kann ich nur noch auf dem Gebrauchtmarkt kaufen.

basix
2023-04-13, 07:42:45
4060 Ti = 3070 Performance = 499 Euro?

Dorn
2023-04-13, 07:44:02
Hoffentlich kaufen so wenige Leute wie möglich diese überteuerten Karten.Das glaube ich weniger. Ich gehe eher davon aus, dass die 4070 bei Mindfactory neue Verkaufsrekorde im Jahre 2023 aufstellen wird.

robbitop
2023-04-13, 07:50:16
Wow 659€ für eine 4070.
Was wird dann eine 4060 Ti und 4060 kosten? Letztere wird doch nicht unter 499€ kosten.
Mainstream GPUs sind irgendwie tot. Da kann ich nur noch auf dem Gebrauchtmarkt kaufen.

Und dabei ist die 4070 eigentlich bereits eine umgelabelte 4060. Wenn man sich das Verhältnis aus den SMs bei dem Chip zum AD102 (full) anschaut ist es historisch eingeordnet keine 70 SKU sondern eine 60 - bestenfalls eine 60 ti. Wenn man das mit einbezieht ist die Karte in dem Kontext eigentlich un fast Faktor 2 zu teuer.

Wilkommen in Zeiten wo es durch Innovation keine Erhöhung der Performance pro Geldeinheit mehr gibt.

crux2005
2023-04-13, 08:18:28
Das glaube ich weniger. Ich gehe eher davon aus, dass die 4070 bei Mindfactory neue Verkaufsrekorde im Jahre 2023 aufstellen wird.

Dann ist den Leuten auch nicht mehr zu helfen.

sun-man
2023-04-13, 08:24:13
Dann ist den Leuten auch nicht mehr zu helfen.
"Den Leuten" oder "Den Profis". Was genau machen "die Leute" denn falsch und wo liegen die Alternativen? Meine 3060TI habe ich vor der Pandemie für unter 400 gekauft. Wenn die 4070 im laufe des Jahres auf unter 600 geht? So what.
Ich glaueb keiner der "die Leute" verurteil würde Last of Us oder Dying Light 2 in 1440 zufrieden auf dieser Karte spielen.

fizzo
2023-04-13, 08:26:58
Kann mir jetzt wirklich nicht vorstellen, dass Grafikkarten um ~ € 700,00 die größten Stückzahlen generieren werden. Ich habe vor kurzem, zähneknirschend, eine um € 500,00 erworben. Das war schon hart an meiner Schmerzgrenze, wenn ich auf die aktuellen Konsolenpreise schiele.

crux2005
2023-04-13, 08:30:57
"Den Leuten" oder "Den Profis". Was genau machen "die Leute" denn falsch und wo liegen die Alternativen? Meine 3060TI habe ich vor der Pandemie für unter 400 gekauft. Wenn die 4070 im laufe des Jahres auf unter 600 geht? So what.
Ich glaueb keiner der "die Leute" verurteil würde Last of Us oder Dying Light 2 in 1440 zufrieden auf dieser Karte spielen.

Hä?!

Einfach nicht kaufen. Und natürlich kannst du beide Spiele ohne Probleme spielen.

sun-man
2023-04-13, 08:33:04
Hä?!

Einfach nicht kaufen. Und natürlich kannst du beide Spiele ohne Probleme spielen.
Und wenn man kaufen will? Das man Last of Us auf ner 8GB Karte in 1440 spielbar spielen kann würde wohl die Profis im LoU Thread komplett verneinen ^^

maximus_hertus
2023-04-13, 08:41:26
Und? Der Konkurrent liefert mit 20GB weniger Leistung. Hier mal aus Cyberpunk:

50% Aufpreis, 10% weniger Leistung. Voll geil.

2020 vs 2024/2025/Zukunft

Was kann ich mir davon kaufen, dass ich ein 3 Jahre altes Spiel mit mehr fps zocken kann (dass eh schon fast alle durchgezockt haben)?

Viel viel wichtiger ist doch die Zukunft. Wenn ein nettes Spiel in 1-2 Jahren kommt und genau dieses Game dann wegen der nur 12GB dann in RT zusammenbricht. Siehe das HWU Video zu 3070 vs 6800.

CP2077 ist eine nette Techdemo, hat aber mittlerweile keine so große Relevanz mehr, wenn es darum geht, dass möglichst viele Spieler das Spiel noch regelmäßig zocken bzw. (Nochmal) durchzocken.

Natürlich sollte es aber Teil eines großen Parcours bleiben! Man sollte es aber als das sehen, was es ist: ein einziger Titel von vielen, dessen „Gamer-Relevanz“ eher sinkt als steigt.

Wenn man nur zu 100% Games zockt, die RT haben, dann ist nV (klar) im Vorteil. Das wird fast jeder so sehen und ist keine Überraschung.
Es gibt aber immer noch verdammt viele Games ohne RT und DLSS ist mittlerweile echt gut, aber nicht jedes Game hat es gut implementiert bzw. es funktioniert nicht in jedem Game so gut, dass man es nutzen möchte.


Bevor du weiter Schnappatmung bekommst, die RTX 4000 Karten sind richtig gute und starke Hardware.
Leider ist die Klassifizierung mies. Die 4090 suggeriert eine Next Gen, dadrunter ist es aber ziemlich mau.

Die 4080 ist eher eine 4070 Ti, die 4070 Ti eher eine 4070 und die 4070 eher eine 4060 Ti.

Dann hätte man auch den Fortschritt (+50-60%), den man erwarten würde und einen gewissen Aufpreis würde man mitgehen:

3060 Ti 399 -> 4060 Ti (also die aktuelle 4070) für 499 USD / 549 Euro
3070 499 -> 4070 (aktuelle 4070 Ti) für 699 USD / 769 Euro
3070 Ti 599 -> 4070 Ti (aktuelle 4080) für 899 USD / 989 Euro

Die „großen“ Customs dann je 100 USD mehr.

So würde die komplette Gen deutlich positiver gesehen werden.

sun-man
2023-04-13, 08:43:12
Aber nochmal. Was ist die Alternative wenn man kaufen will? 1000'er ausgeben? AMD? Die neuen kosten auch nicht viel weniger. Wieder 2-3 Jahre warten macht aus bereits 3 Jahren alten Karten auch keine Überflieger

Rancor
2023-04-13, 08:46:19
Und? Der Konkurrent liefert mit 20GB weniger Leistung. Hier mal aus Cyberpunk:
https://tpucdn.com/review/nvidia-geforce-rtx-4070-founders-edition/images/cyberpunk-2077-rt-1920-1080.png

50% Aufpreis, 10% weniger Leistung. Voll geil.
:facepalm:

Dein ernst?

maximus_hertus
2023-04-13, 08:50:29
Die Alternative? Nicht unbedingt 3 Jahre warten, aber warum muss(!) man genau heute kaufen?

Imo würde ich zumindest bis zum Sommer warten, wenn 7800XT und Co kommen. Dann gibt es Alternativen. Ob diese dann sinnvoll(er) sind ist damit nicht gesagt. Aber es gibt eine gute Chance, dass die Karten im allgemeinen dann spürbar günstiger sein könnten, statt 700+ Euro dann vielleicht die günstigsten Customs ab 580-590 Euro. Natürlich sollte der Euro kein schlechteres Niveau als aktuell haben.

Und vielleicht ist die 4060 Ti ein Geheimtipp. Nicht dramatisch langsamer als die 4070, 450-500 Euro und die Customs dürfen / können doch 16GB drauf schnallen.

Wer nicht unbedingt heute eine Karte braucht ist sicher nicht schlecht beraten noch die anderen Launches in dem kommenden 1-3 Monaten abzuwarten. Die paar Wochen sollten kein Problem sein (imo).

sun-man
2023-04-13, 08:56:21
Die Alternative? Nicht unbedingt 3 Jahre warten, aber warum muss(!) man genau heute kaufen?

Imo würde ich zumindest bis zum Sommer warten, wenn 7800XT und Co kommen. Dann gibt es Alternativen. Ob diese dann sinnvoll(er) sind ist damit nicht gesagt. Aber es gibt eine gute Chance, dass die Karten im allgemeinen dann spürbar günstiger sein könnten, statt 700+ Euro dann vielleicht die günstigsten Customs ab 580-590 Euro. Natürlich sollte der Euro kein schlechteres Niveau als aktuell haben.

Und vielleicht ist die 4060 Ti ein Geheimtipp. Nicht dramatisch langsamer als die 4070, 450-500 Euro und die Customs dürfen / können doch 16GB drauf schnallen.

Moment, zumindest bei mir gilt das "nicht heute" sondern U600€. Wie auch immer. Warten kann man dummerweise immer. Meine 3060TI pfeifft durchaus, je nach Spiel, auf dem letzten Loch. DLSS/Q rettet mir ansatzweise den Arsch in 1440p mit einem Ryzen 5 3600. Meine 3060 pfeifft bei fast allen Games auf dem letzten Loch. Und "ja", ich mag DLSS und bin zu wenig Profi das bei 500-600€ Karten bei AMD einzuschätzen.

So etwas "mag" ich halt auch.
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

Ada Lovelace kann bei Teillast besser als jede andere Architektur die Leistungsaufnahme reduzieren. In WQHD bei unlimitierter Framerate oder Ultra HD mit maximal 144 FPS ist dies in Doom Eternal nicht weit genug von voller Last entfernt, entsprechend zeigen sich dort bei der GeForce RTX 4070 anders als bei der GeForce RTX 4070 Ti keinerlei Verbesserungen, wohl aber in WQHD bei maximal 144 FPS. Dann benötigt die Nvidia-Grafikkarte anstatt 198 Watt nur noch 134 Watt und damit 64 Watt weniger. Kein anderes Modell kommt an dieses Ergebnis heran.

Sonyfreak
2023-04-13, 09:03:45
Der Listenpreis von 659€ für die RTX 4070 ist für das Gebotene definitiv zu hoch. Der Blick in der Vergangenheit zeigt aber, dass der Aufpreis nicht so hoch ist wie man vielleicht glauben würde:
GTX 470 (2010) GTX 670 (2012) GTX 970 (2014) GTX 1070 (2016) GTX 2070 (2018) GTX 3070 (2020)
Listenpreis Release 349$ 399$ 329$ 379$ 499$ 499$
Preisäquivalent 2023 477$ 528$ 421$ 478$ 617$ 598$
Kaufkraftäquivalent 2023 255$ 301$ 257$ 300$ 403$ 416$



Die 70er-Serie hat seit 2010 immer zwischen 400 und 500$ gekostet. Seit 2018 zahlt man etwa 600$. Der MSRP der RTX 4070 von 599$ sollte da niemanden verwundern.

mfg.

Sonyfreak

Linmoum
2023-04-13, 09:09:49
Moment, zumindest bei mir gilt das "nicht heute" sondern U600€. Wie auch immer. Warten kann man dummerweise immer. Meine 3060TI pfeifft durchaus, je nach Spiel, auf dem letzten Loch. DLSS/Q rettet mir ansatzweise den Arsch in 1440p mit einem Ryzen 5 3600. Meine 3060 pfeifft bei fast allen Games auf dem letzten Loch. Und "ja", ich mag DLSS und bin zu wenig Profi das bei 500-600€ Karten bei AMD einzuschätzen.

So etwas "mag" ich halt auch.
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktopWenn die schon aus dem letzten Loch pfeift, sind ~40% mehr Leistung aber jetzt auch nicht die Sensation...

... was halt auch daran liegt, dass das Nvidias erste x70 überhaupt ist, die es nicht schafft, die alte x80 zu schlagen - wohlgemerkt beim höchsten Preis aller Zeiten für eine x70.

Lurtz
2023-04-13, 09:13:16
Hey, selbst "AMD Unboxed" sagt er würde tendenziell jetzt eher die 4070 als die 6800 XT kaufen und dass er nicht noch länger warten würde mit einer älteren GPU... Mit der Einschränkung eben, dass der VRAM über kurz oder lang wieder zum Problem werden wird.
Für 200$ mehr würde er wegen des massiv größeren VRAMs aber die 7900 XT nehmen :ugly:

Ist die Karte in Cyberpunk 2077 Overdrive eigenlich signifikant schneller als die 3080? Da müssten doch die ganzen RT-Verbesserungen von Ada mal zum Tragen kommen. Oder ist das nur nVidias Variante von Fine Wine?

dildo4u
2023-04-13, 09:17:50
Ist die Karte in Cyberpunk 2077 Overdrive eigenlich signifikant schneller als die 3080? Da müssten doch die ganzen RT-Verbesserungen von Ada mal zum Tragen kommen.
Das RT kann pro Einheit schneller sein was aber nix hilft wenn sie weniger davon hat laut DF ist es ein Gleichstand.

https://youtu.be/LVovUcHnwws?t=391

Lurtz
2023-04-13, 09:18:40
Das RT kann pro Einheit schneller sein was aber nix hilft wenn sie weniger davon hat laut DF ist es ein Gleichstand.

https://youtu.be/LVovUcHnwws?t=391
Wow, also zählt auch hier nur die Ökonomie :uclap: 3080 Ti-Käufer haben wohl alles richtig gemacht.

Rush
2023-04-13, 09:19:52
Hoffentlich kaufen so wenige Leute wie möglich diese überteuerten Karten.

Die breite Masse aka Casuals kaufen was am günstigten ist.
RayTracing, 144 FPS, DLSS, etc. interessiert die nicht bzw. wissen nicht mal was es macht.

Die Hoffnung ist dann allerdings, dass die Nachfrage der 900€+ Karten noch weiter sinkt und damit auch der Preis.

Troyan
2023-04-13, 09:22:08
Deine Schallplatte ist immer noch kaputt. Dass dir das langsam selbst nicht unangenehm ist, ständig sämtliche Diskussionen mit denselben 1-2 Spielen auf plumpe Weise erschlagen zu wollen. Warum testen Redaktionen eigentlich so viele Spiele und haben umfangreiche Parcours? Unser Troyan braucht eh nur ein Spiel und der Rest ist völlig irrelevant.

Arbeitest du insgeheim für DF?

Kein Problem. Nehmen wir Returnal:
https://www.thefpsreview.com/wp-content/uploads/2023/04/returnal_rt.png
https://www.thefpsreview.com/2023/04/12/nvidia-geforce-rtx-4070-founders-edition-video-card-review/4/#ftoc-heading-13

51% schneller als eine 6800. Aber wahrscheinlich zählt das Spiel auch nicht, weil naja neu und so. ;D

sun-man
2023-04-13, 09:23:49
Wenn die schon aus dem letzten Loch pfeift, sind ~40% mehr Leistung aber jetzt auch nicht die Sensation...

... was halt auch daran liegt, dass das Nvidias erste x70 überhaupt ist, die es nicht schafft, die alte x80 zu schlagen - wohlgemerkt beim höchsten Preis aller Zeiten für eine x70.
Aber in dem Preisbereich stinkt dabei auch jede AMD Karte ab.
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Die 79** liegt preislich weit außerhalb dessen was ich als Casual Gamer zahlen würde, ebenso wie die 4070TI. DLSS/RT mag ich.

dildo4u
2023-04-13, 09:28:37
Aber in dem Preisbereich stinkt dabei auch jede AMD Karte ab.
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Die 79** liegt preislich weit außerhalb dessen was ich als Casual Gamer zahlen würde, ebenso wie die 4070TI. DLSS/RT mag ich.
Ich würde auch nicht warten die 4070 Ti hat sich kaum vom Preis her bewegt nur die 7900XT, gibt scheinbar genug Leute die auf 8GB Nvidia Karten sitzen und jetzt die Schnauze voll haben.

Exxtreme
2023-04-13, 09:29:34
Aber in dem Preisbereich stinkt dabei auch jede AMD Karte ab.
https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Die 79** liegt preislich weit außerhalb dessen was ich als Casual Gamer zahlen würde, ebenso wie die 4070TI. DLSS/RT mag ich.

Wenn dir RT und DLSS wichtig ist dann greif zu. :) Rechne aber halt damit, dass du recht zügig wieder aufrüsten darfst. AMD-Karten altern da beträchtlich besser.

fizzo
2023-04-13, 09:31:43
Der Listenpreis von 659€ für die RTX 4070 ist für das Gebotene definitiv zu hoch. Der Blick in der Vergangenheit zeigt aber, dass der Aufpreis nicht so hoch ist wie man vielleicht glauben würde:
GTX 470 (2010) GTX 670 (2012) GTX 970 (2014) GTX 1070 (2016) GTX 2070 (2018) GTX 3070 (2020)
Listenpreis Release 349$ 399$ 329$ 379$ 499$ 499$
Preisäquivalent 2023 477$ 528$ 421$ 478$ 617$ 598$
Kaufkraftäquivalent 2023 255$ 301$ 257$ 300$ 403$ 416$



Die 70er-Serie hat seit 2010 immer zwischen 400 und 500$ gekostet. Seit 2018 zahlt man etwa 600$. Der MSRP der RTX 4070 von 599$ sollte da niemanden verwundern.

mfg.

Sonyfreak

Die 4070 ist auch eigentlich eine umgelabelt 4060TI....Die size 292mm2. Zum Vergleich: 2070 - 445mm2, 3070 - 393mm2. Hat robbitop schon passend festgestellt.

Sonyfreak
2023-04-13, 09:39:38
Die 4070 ist auch eigentlich eine umgelabelt 4060TI....Die size 292mm2. Zum Vergleich: 2070 - 445mm2, 3070 - 393mm2. Hat robbitop schon passend festgestellt.Dafür war GP104 314mm² und GK104 nur 294mm² groß. Und wie haben sich die Waferpreise (https://www.techpowerup.com/301393/tsmc-3-nm-wafer-pricing-to-reach-usd-20-000-next-gen-cpus-gpus-to-be-more-expensive) seither verändert?

mfg.

Sonyfreak

sun-man
2023-04-13, 09:40:05
Wenn dir RT und DLSS wichtig ist dann greif zu. :) Rechne aber halt damit, dass du recht zügig wieder aufrüsten darfst. AMD-Karten altern da beträchtlich besser.
Wie gesagt, ich spiele auf einer etwa 2-3 Jahre alten 3060TI in 1440p. Also das nur nebenbei. Ich hab kein Problem damit, und Vorherhsagen was alles kommen wird traue ich schon seit Jahren nicht. Keine Ahnung, ob das bei der GeForce 256 oder vorher war als plötzlich Blätter "im Wind wehten" und man fotorealistische Spiele vorhersagte und das alles andere Nix wäre ;) :)

MD_Enigma
2023-04-13, 09:59:07
51% schneller als eine 6800. Aber wahrscheinlich zählt das Spiel auch nicht, weil naja neu und so. ;D

Mit so einem Satz macht man sich beliebt.

AMD Karten sind technisch komplett veraltet, deutlich langsamer, ineffizienter und bieten null Vorteile.

Wozu also eine AMD Grafikkarte kaufen, die mit Raytracing so dermaßen abkackt, dass man benachteiligt ist?

Du bist mit deinem Punkten in einer sehr subjektiven Ecke. Du kannst mir Screenshots aus Cyberpunkt vorlegen mit RT an/aus geben - ich sehs nicht. Ich hab Raytracing aus, weil ich den Unterschied praktisch weder in Doom noch in FarCry sehe - auch wenn ich darauf achte.

Ist Raytracing die Zukunft? Ja.
Ist es aktuell relevant? Nein.
Ist eine 4070 schnell genug für "richtiges" Raytracing? Höchstwahrscheinlich nicht.
Ist eine 6800 "besser" im Vergleich zur 4070? Nein
Ist eine 6800 schlecht? Nein
Lohnt sich der Aufpreis von der 6800 zur 4070? Ich würds nicht tun, die 6800 ist ne tolle Grafikkarte und alles auf dem Niveau einer PS5 wird auch damit laufen. Lieber kaufe ich in 2-3 Jahren ne "richtige" Raytracing Grafikkarte.

maximus_hertus
2023-04-13, 10:06:55
Warten kann man dummerweise immer

Nein bzw. jein.

Die neuen Gens kommen im gewissem Rhythmus, daran kann man sich grob orientieren.

Kepler 2012
Maxwell 2014
Pascal 2016
Turing 2018
Ampere 2020
Ada 2022

Die kleineren Karen jeweils einige Monate nach den großen Karten.


Wie geschrieben, die nchsten 1-3 Monate werden noch einige Launches sehen und an dessen Ende wird man wohl mehr / ein bessere Auswahl haben und die Preise werden auch eher niedriger sein. Wie viel? Keine Ahnung.

Sobald die LAunches bis Sommer durch sind, ist erstmal wieder für über 1 Jahr bzw. bis Ende 2024 / Anfang 2025 "Ruhe". Hier und da Portfolioergänzungen, ja, aber der große "Kampf" ist dann für diese GEn durch und man weiß, was alle können und was am sinnvollsten ist.

Nach diesem Sommer wird man wahrscheinlich bis 2025 warten müssen, um den nächsten größeren Sprung im Bereich 500-700 Euro zu sehen. Da macht dann warten eher keinen Sinn. Aber so kurz vor den ganzen anderen Launches (sowohl nV, als auch AMD)?

gnomi
2023-04-13, 10:11:00
Wow, also zählt auch hier nur die Ökonomie :uclap: 3080 Ti-Käufer haben wohl alles richtig gemacht.

Finde ich gar nicht.
Habe eine 3080TI seit 2021 und quasi gleich drei Fehler gemacht.

1) 3080 10GB nicht zum Launch bekommen und kein Aufpreis zahlen wollen
2) 3090 24GB stattdessen nicht zum Launch gekauft, da weit teurer
3) alte 2080 nicht im Hauptrechner weiter genutzt, da gedacht zu langsam für UWQHD

Letztendlich habe ich also Monate später fast zum Preis der 3090 eine 3080TI gekauft.
Hätte auf ne 4090 warten sollen, aber selbst die 4070er Serie ist nun quasi gleichwertig. (TI etwas besser, normal etwas schwächer)
Ich muss also auf ne bessere und günstigere 5000er Serie mit 4090 Performance mit weniger Verbrauch unter 1000€ Ende 2024/Anfang 2025 warten.
Oder doch 4090 kaufen, wenn die Preise weiter runter kommen.
Performance passt und diese Karte ist genialer als gedacht geworden.
Dann bleibe ich allerdings auf den hohen Kosten der 3080 TI sitzen.
Wahrscheinlich benutze ich sie also zwei Generationen und knapp vier Jahre.
Bis dahin wirbt nvidia für jedes neue DLSS3 Spiel bei zahlreichen Treiber Updates. Das wird noch hart. :freak:

sun-man
2023-04-13, 10:36:45
Was auch immer er damit sagen möchte
https://www.igorslab.de/wird-ada-massentauglich-geforce-rtx-4070-ti-founders-edition-12-gb-im-test-mit-200-und-220-watt-power-limit/14/

Ich habe hier Karten von MSI, PNY (seit gestern Abend) und Palit (aktuell beim Fritz für die Latenz-Tests). Die Karten haben wir bereits einem ersten Hands-On unterzogen und ich will den Einzeltests bzw. einem abschließenden Roundup nicht vorgreifen. Mal abgesehen vom fest limitierten Power Target von 200 Watt sind auch Optik, Haptik, Betriebsgeräusch und Temperaturen leider weit von NVIDIAs Founders Edition entfernt. Ja, das kann man alles machen und auch irgendwie akzeptieren, aber manchmal dürfte es dann doch sinnvoller sein, noch einmal ein paar Euro draufzulegen. Doch das werde ich heute und hier nicht klären (können), denn man muss ja jedem einzelnen Produkt objektiv gerecht werden.

ianm
2023-04-13, 10:38:43
Als jemand der eine 3070 zum Kryptohoch gekauft hat (kaufen musste/wollte, weil alte defekt), ich versuche bis 2024/5 auszuhalten. Die Preise sind einfach jenseits von gut und böse für das Gebotene.

Ich kann nur hoffen AMD kriegt die Kurve auch im GPU Segment und macht zukünftig große Fortschritte generationsübergreifend wie bei den CPUs.

robbitop
2023-04-13, 10:46:32
AMD wird uns mit den Preisen nicht helfen. Man sieht ja, dass sie ihre Produkte preislich stark an die von NV anlehnen. Mit leichten Preisabschlägen. Scheint zu funktionieren - Gewinnmaximierung. Das alte AMD mit Preiskampf gibt es offenbar so nicht mehr. Das war halt auch finanziell nicht erfolgreich.
Es braucht einfach mehr Wettbewerb im GPU Bereich - erst der zwingt alle Teilnehmer auch ihre Marge runterzuschrauben. Hoffentlich kommt Intel irgendwann mal an NV/AMD heran.
Arc war leider zu spät. A770/750 sind ja preislich nicht unattraktiv und mittlerweile die Treiber auch brauchbar. Aber nun tritt man gegen Ada an und nicht mehr gegen Ampere.
Ein Produkt was gegen die 4060/4070 antreten kann aber deutlich günstiger ist, würde ja bereits helfen. Das kann frühestens Battlemage liefern - aber auch der ist IMO viel zu spät dran (2024) und wird sich den großen Teil seiner Lebenszeit dann eher mit RDNA4 und Blackwell herumschlagen müssen.

Wäre A770 ein Jahr früher gekommen, hätte man gegen Ampere und RDNA2 angetreten und zwar zur Zeiten der Chipkrise. Da hätte man mehr Marktanteil und Mindshare einsammeln können.
Wer weiß - ggf. schafft man es ja zu Celestial oder Druid.

Der Markt ist aus Konsumentensicht leider total kaputt. Es braucht mehr Wettbewerb.

dargo
2023-04-13, 10:47:19
Was auch immer er damit sagen möchte
https://www.igorslab.de/wird-ada-massentauglich-geforce-rtx-4070-ti-founders-edition-12-gb-im-test-mit-200-und-220-watt-power-limit/14/
Er will damit sagen, dass einzelne AIB-Karten noch schlechter abschneiden als die Referenz, das muss man erstmal schaffen. :freak: Offenbar gibt Nvidia den AIBs wenig Spielraum zum "atmen" womit du gezwungen bist den Rotstift hier und da anzusetzen.

The_Invisible
2023-04-13, 11:16:24
Als jemand der eine 3070 zum Kryptohoch gekauft hat (kaufen musste/wollte, weil alte defekt), ich versuche bis 2024/5 auszuhalten. Die Preise sind einfach jenseits von gut und böse für das Gebotene.

Ich kann nur hoffen AMD kriegt die Kurve auch im GPU Segment und macht zukünftig große Fortschritte generationsübergreifend wie bei den CPUs.

Das höre ich hier im Forum schon seit der 2000er Reihe und sind die Preise seitdem runtergegangen? Nein... AMD hilft hier auch nicht, die sind ja selber bei >1k eingestiegen und würden wohl auch dort bleiben wenn es die Produkte hergeben würden.

Frag mich ob diese Forenuser alle noch eine 1000er Karte benutzen, wird langsam knapp mit der Performance ; )

@robbitop
Jap, und während AMD noch an FSR3 bastelt haut jetzt Nvidia schon wieder Pathtracing & RTX-Remix raus (https://github.com/NVIDIAGameWorks/rtx-remix), Nvidia investiert da softwaremäßig einfach viel mehr

Troyan
2023-04-13, 11:20:18
Mit so einem Satz macht man sich beliebt.





Du bist mit deinem Punkten in einer sehr subjektiven Ecke. Du kannst mir Screenshots aus Cyberpunkt vorlegen mit RT an/aus geben - ich sehs nicht. Ich hab Raytracing aus, weil ich den Unterschied praktisch weder in Doom noch in FarCry sehe - auch wenn ich darauf achte.

Ist Raytracing die Zukunft? Ja.
Ist es aktuell relevant? Nein.
Ist eine 4070 schnell genug für "richtiges" Raytracing? Höchstwahrscheinlich nicht.
Ist eine 6800 "besser" im Vergleich zur 4070? Nein
Ist eine 6800 schlecht? Nein
Lohnt sich der Aufpreis von der 6800 zur 4070? Ich würds nicht tun, die 6800 ist ne tolle Grafikkarte und alles auf dem Niveau einer PS5 wird auch damit laufen. Lieber kaufe ich in 2-3 Jahren ne "richtige" Raytracing Grafikkarte.

Die 6800 war ein Beispiel. RDNA2 lohnt sich nicht, jedenfalls nicht zu den aktuellen Preisen. Das scheint man nicht akzeptieren zu können, um faselt nun irgendwas mit 16GB*.

Hardwareluxx hat Benchmarks aus Battlefield 2042 mit RTAO (simpler Effekt): https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/60772-ab-659-euro-zwei-modelle-der-geforce-rtx-4070-im-test.html?start=7

Die 4070 ist in 1440p 40% schneller als die 6800.

In Spider-Man sind es mit den guten RT-Reflektionen (man spielt nicht ohne) 36%+ gegenüber der 6800: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/60772-ab-659-euro-zwei-modelle-der-geforce-rtx-4070-im-test.html?start=17

Sobald man auch nur irgendwas mit Raytracing aktiviert, ist einfach Schluss bei RDNA2. Die Karten sind einfach nicht zu empfehlen und müssen deutlich im Preis runter. Bei 400€ für eine 6800 und 500€ für eine 6950XT sieht die Welt dann wieder anders aus.


*Cyberpunk benötigt mit Pathtracing in 1440p 12GB an Speicher. Das Resident Evil 4 Remake benötigt mit der Billo-Grafik und dem von Wish-bestellten Raytracing ebenfalls 12GB als lineares Korridorspiel. Das ist alleine schon so absurd und passt zu den letzten Spielen, wo Entwickler null Wert auf Optimierungen legen.

DrFreaK666
2023-04-13, 11:22:12
Kein Problem. Nehmen wir Returnal:
https://www.thefpsreview.com/wp-content/uploads/2023/04/returnal_rt.png
https://www.thefpsreview.com/2023/04/12/nvidia-geforce-rtx-4070-founders-edition-video-card-review/4/#ftoc-heading-13

51% schneller als eine 6800. Aber wahrscheinlich zählt das Spiel auch nicht, weil naja neu und so. ;D


https://abload.de/img/cherry-picking-salesfpse73.png (https://abload.de/image.php?img=cherry-picking-salesfpse73.png)

Wieso nimmst du nicht einfach den Durchschnitt?

Spring
2023-04-13, 11:24:24
Ich kaufe lieber eine 16GB 6950XT (inkl UV) für 650€ anstatt eine 12 GB 4070 für 670€, weil die nämlich länger als 1-2 Jahre dann halten wird, bevor der VRAM ausbremst.

sun-man
2023-04-13, 11:25:58
Die 4070 ist in 1440p 40% schneller als die 6800. Sobald man auch nur irgendwas mit Raytracing aktiviert, ist einfach Schluss bei RDNA2. Die Karten sind einfach nicht zu empfehlen und müssen deutlich im Preis runter. Bei 400€ für eine 6800 und 500€ für eine 6950XT sieht die Welt dann wieder anders aus.
Ja, einer der Punkte die mich als Noob verunsichert zurück lassen. Mich stören die 600€ für die Karte nicht, egal von welchem Hersteller. Wenn es 650 sind, Schwamm drüber.

Er will damit sagen, dass einzelne AIB-Karten noch schlechter abschneiden als die Referenz, das muss man erstmal schaffen. Offenbar gibt Nvidia den AIBs wenig Spielraum zum "atmen" womit du gezwungen bist den Rotstift hier und da anzusetzen.
Ah, OK. Also sind die FE quasi die "besseren Karten" während man den Kundekarten ein paar (mehr) Hindernisse in den Weg gelegt hat. Schade

DrFreaK666
2023-04-13, 11:38:26
Ja, einer der Punkte die mich als Noob verunsichert zurück lassen. Mich stören die 600€ für die Karte nicht, egal von welchem Hersteller. Wenn es 650 sind, Schwamm drüber...

In diesem Beispiel vergleicht er mit der 6800 und nicht mit der gleichteuren 6950. Dann schmilzt der Vorsprung auf 14%. Kannst ja den Frame counter aktivieren um den Unterschied zwischen 131FPS und 115FPS zu sehen.

gnomi
2023-04-13, 11:42:15
@ Referenzkarten
FE Karten waren AFAIR schon immer sehr wertig.
Ab den RTX Karten sind allerdings auch die Kühllösungen sehr konkurrenzfähig.
Leider kann man die Karten schlechter und nur ohne Abschläge erwerben.
Vor den RTX Karten hatten die viele Händler und entsprechend war auch der Preis bisschen besser.
Jetzt ist das ja quasi Direktvertrieb.

Troyan
2023-04-13, 11:43:05
Die 6950XT benötigt auch nur irgendwas um 140W mehr Strom. Leider vergisst da jemand, dass bei 14h pro Woche im Jahr bei 0,35cent Mehrkosten von fast 35€ anfallen - vom Umweltaspekt mal abgesehen.

/edit: Die günstigsten Karten scheinen alle auf 200W beschränkt zu sein: https://www.techpowerup.com/review/pny-geforce-rtx-4070/41.html

Die Asus 4070 Dual sieht als beste Karte aus. Müsste man sehen, ob die zu UVP erhältlich wäre.

Lurtz
2023-04-13, 11:50:18
Die 6950XT benötigt auch nur irgendwas um 140W mehr Strom. Leider vergisst da jemand, dass bei 14h pro Woche im Jahr bei 0,35cent Mehrkosten von fast 35€ anfallen - vom Umweltaspekt mal abgesehen.

Alle zwei Jahre die Grafikkarte wegen geplanter Obsolenz zu wechseln ist natürlich wesentlich umweltfreundlicher.

Bei Ampere war Stromverbrauch plötzlich egal, jetzt ist es wieder ein stechendes Argument ;D

Rancor
2023-04-13, 11:52:25
Ist halt das übliche absurde Fanboy Gelaber, einfach ignorieren und gut.

Spring
2023-04-13, 11:53:33
Alle zwei Jahre die Grafikkarte wegen geplanter Obsolenz zu wechseln ist natürlich wesentlich umweltfreundlicher.

Bei Ampere war Stromverbrauch plötzlich egal, jetzt ist es wieder ein stechendes Argument ;D

Das Undervolting hat er auch mal wieder ignoriert. Im Westen nichts neues.

Ist halt das übliche absurde Fanboy Gelaber, einfach ignorieren und gut.

(y)

Troyan
2023-04-13, 11:54:04
Alle zwei Jahre die Grafikkarte wegen geplanter Obsolenz zu wechseln ist natürlich wesentlich umweltfreundlicher.

Bei Ampere war Stromverbrauch plötzlich egal, jetzt ist es wieder ein stechendes Argument ;D

320W gegen 300W sind wohl was anderes als 340W gegen 200W.

Langsam frage ich mich echt, ob ihr noch einen Überblick habt, über was ihr redet.

DozerDave
2023-04-13, 11:55:51
Die 6950XT benötigt auch nur irgendwas um 140W mehr Strom. Leider vergisst da jemand, dass bei 14h pro Woche im Jahr bei 0,35cent Mehrkosten von fast 35€ anfallen - vom Umweltaspekt mal abgesehen.

...

LOL "Umweltaspekt". Den PC auszuschalten oder die iGPU zu nutzen ist umweltfreundlicher als eine 4070 o.ä. zu betreiben.

Lurtz
2023-04-13, 11:57:18
320W gegen 300W sind wohl was anderes als 340W gegen 200W.

Langsam frage ich mich echt, ob ihr noch einen Überblick habt, über was ihr redet.
Wenn du bei der Produktion von Highend-Chips, die allein mehr Wasser und Strom verschluckt, als eine durchschnittliche afrikanische Stadt im Jahr verbraucht, damit ankommst, frage ich mich eher ob du noch den Durchblick hast.

dargo
2023-04-13, 11:57:56
Ah, OK. Also sind die FE quasi die "besseren Karten" während man den Kundekarten ein paar (mehr) Hindernisse in den Weg gelegt hat. Schade
FE ist wohl weniger schlimm als das was Igor da in die Hände bekommen hat. Es wird sicherlich auch gute AIB-Karten geben. Nur dürften diese stärker vom UVP nach oben abweichen. Die AIBs wollen auch von was leben.

Die 6950XT benötigt auch nur irgendwas um 140W mehr Strom. Leider vergisst da jemand, dass bei 14h pro Woche im Jahr bei 0,35cent Mehrkosten von fast 35€ anfallen - vom Umweltaspekt mal abgesehen.

;D ;D ;D

Ich verrate dir jetzt mal ein Geheimnis... die RTX 4090 verballert noch wesentlich mehr Strom. Schon seltsam, dass dir als Klimaaktivist das noch nicht aufgefallen ist. :lol: Nur noch Comedy pur hier mit dir.

Raff
2023-04-13, 12:04:35
FE ist wohl weniger schlimm als das was Igor da in die Hände bekommen hat. Es wird sicherlich auch gute AIB-Karten geben. Nur dürften diese stärker vom UVP nach oben abweichen. Die AIBs wollen auch von was leben.

Um 15 Uhr wird's Tests und Vergleiche diverser Custom-Designs geben. Da gibt's riesige Unterschiede bei Größe und Materialien.

MfG
Raff

sun-man
2023-04-13, 12:04:47
35€ Mehrkosten für Strom. Krass.....wenn die Karte 650€ kostet. Kann man sich nicht ausdenken. Am Ende wird noch mit gezogenen Games gespielt um auch ja das letzte Quäntchen Grafikpracht umsonst zu genießen ^^

dargo
2023-04-13, 12:05:47
Um 15 Uhr wird's Tests und Vergleiche diverser Custom-Designs geben. Da gibt's riesige Unterschiede bei Größe und Materialien.

Hatte nichts anderes erwartet. :) Sparbrötchen nah am UVP, Rest entsprechend über UVP.

sun-man
2023-04-13, 12:09:12
Hatte nichts anderes erwartet. :) Sparbrötchen nah am UVP, Rest entsprechend über UVP.
Mal schauen. Im Gegensatz zu NV sind die "Partner" ja auf die Verkäufe angewiesen. Verkauft es sich nicht muss man handeln, NV kann das aussitzen.

Deisi
2023-04-13, 12:19:01
Find es komisch, dass hier der Energieaspekt so relativiert wird. Ein Drittel weniger Energieverbrauch als bei vergleichbaren AMD Karten ist beachtlich und darf man schon in die Wertung mit einfließen lassen.

Exxtreme
2023-04-13, 12:27:47
Find es komisch, dass hier der Energieaspekt so relativiert wird. Ein Drittel weniger Energieverbrauch als bei vergleichbaren AMD Karten ist beachtlich und darf man schon in die Wertung mit einfließen lassen.

Das ist korrekt. Andererseits sind diese Verbrauchsangaben eher "Bis-Zu"-Angaben. Sprich, die AMD-Grafikkarten verballern nicht die ganze Zeit 1/3 mehr Strom sondern nur in künstlichen Tests bzw. in Spielen, die die ganze Zeit hart GPU-limitiert sind.

Aber ja, das ist ein sehr positiver Aspekt dieser Grafikkarte. Wird in Reviews aber auch so erwähnt.

Gumril
2023-04-13, 12:28:28
Bin ein wenig Enttäuscht von der Karte. Schafft es nicht ständig die 3080 zu schlagen. Gab es das schonmal?
Eigentlich ist nur der Stromverbrauch besser.
Und kein Wunder bewirbt Nvidia DLSS 3 so stark ohne das würde die Karte echt sch*** da stehen. Bei den 4060 usw wird man ohne es wohl nicht einmal die Leistung der Vorgänger bekommen.
Nur für Leute die noch eine Vega oder gtx 1 Serie haben.

maximus_hertus
2023-04-13, 12:30:16
vom Umweltaspekt mal abgesehen.



Also sollte man generell keine dGPU kaufen? iGPU und gut ist. Viel einfachere Boards, viel weniger Ressourcebaufwändig, Energieeffizienter, Platzsparender, Kühler usw.


Ohne dir zu Nahe zu treten, aber dein Eifer disqualifiziert dich nahezu für ernsthafte Diskusionen. Es gibt nicht nur Schwarz und Weiß. Oder Grün und Rot ;)

Ich verstehe nicht, warum man fast schon religiös versucht eine Fima zu pushen bzw. die andere zu bashen.


Zum VRAM: mir als Zocker ist der Grund doch komplett egal, warum ein Spiel so viel VRAM braucht?! Auch wenn es lächerlich für ein Spiel A ist, so viel VRAM zu benötigen, am Ende will ich es spielen und muss damit klar kommen.

Was wird einer der Haupt Pro Argumente der 5070 vs 4070 sein? Sehr wahrscheinlich der (deutlich) größere VRAM.


Noch ein paar Gedanken zur 4070:

- es ist die erste x70 Karte überhaupt, die es nicht schafft, die Vorgänger x80 zu schlagen, obwohl es die teuerste x70 aller Zeiten ist
- es ist die erste x70 Karte überhaupt, bei der es keine zusätzlichen Shadereinheiten im Vergleich zum Vorgänger gibt
- die 4070 bietet die geringste Mehrperformance zur Vorgängerkarte seit es x70 Karten gibt. Noch nie gab es so wenig Mehrperformance bei einer x70

Völlig egal wie die Karte benannt wird / wurde, sie leidet eigentlich nur am Preispunkt. So wie es aussieht, muss man zu (deutlich) teureren Customs greifen, um eine gute Kühlung zu bekommen und landet dort garantiert bei deutlich über 700 Euro.

Da kommt man dann in Bereiche, wo die 12GB noch mehr weh tun. Wenn dann die 7900XT demnächst auf 799 Euro oder vielleicht sogar 770-780 Euro runter geht siehtb es für die 4070 nicht mehr schön aus.

Klar, 200W vs 300+W. Darf man nicht vergessen, Stichwort Netzteilanforderungen bzw. verbautes Netzteil bei potentiellen Käufern. Trotzdem sind, gerade bei (deutlich) über 700 Euro die 12GB "meh" und gefühlt ein schlechter Kompromiss.

Raff
2023-04-13, 12:30:42
Bin ein wenig Enttäuscht von der Karte. Schafft es nicht ständig die 3080 zu schlagen. Gab es das schonmal?
Eigentlich ist nur der Stromverbrauch besser.
Und kein Wunder bewirbt Nvidia DLSS 3 so stark ohne das würde die Karte echt sch*** da stehen. Bei den 4060 usw wird man ohne es wohl nicht einmal die Leistung der Vorgänger bekommen.
Nur für Leute die noch eine Vega oder gtx 1 Serie haben.

Die RTX 3060 ist ziemlich schwach ausgefallen, da hat eine RTX 4060 eigentlich leichtes Spiel. Falls es doch anders, aber mit 8 GiB, kommt: :ulol: in jeder Hinsicht.

MfG
Raff

MD_Enigma
2023-04-13, 12:30:44
In Spider-Man sind es mit den guten RT-Reflektionen (man spielt nicht ohne)
Das ist deine persönliche Anspruchshaltung und RT-Brille. Das ist für mich ein eher ein belangloser Effekt und bin sogar froh, wenn nicht alles wie verrückt glänzt.

Raff
2023-04-13, 12:32:19
Das ist deine persönliche Anspruchshaltung und RT-Brille. Das ist für mich ein eher ein belangloser Effekt und bin sogar froh, wenn nicht alles wie verrückt glänzt.

Es "glänzt" ja ohne Raytracing trotzdem in den Hochhäusern - nur eben eine recht statische, blockige Cube-Map anstelle einer echten Reflexion.

MfG
Raff

sun-man
2023-04-13, 12:35:10
Find es komisch, dass hier der Energieaspekt so relativiert wird. Ein Drittel weniger Energieverbrauch als bei vergleichbaren AMD Karten ist beachtlich und darf man schon in die Wertung mit einfließen lassen.
Ich glaube das ist für mittellose Hardcoregamer die solche Karten finanzieren müssen wichtiger also für die meisten andren.

100W/h mehr an einem 8h Hardcore-UHD-RT-Spielertag bei 365 Tagen. Sind 116€ bei 40 Cent (Strompreisbremse) und damit 9,74€/Monat mehr.

Im Dualmonitorbetriebn "kacken" (nach dem Allgemeinen Sprachgebrauch hier) die RDNA2 Karten halt ab.
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/3/#abschnitt_leistungsaufnahme_spiele_youtube_desktop

DrFreaK666
2023-04-13, 12:38:59
Es "glänzt" ja ohne Raytracing trotzdem in den Hochhäusern - nur eben eine recht statische, blockige Cube-Map anstelle einer echten Reflexion.

MfG
Raff

Ja, also bei Spiderman sind RT-Reflexionen schon sinnvoll. Aber ist ja nicht so, dass das Spiel dann zur Diashow auf Radeon-Karten gerät, wenn man diese aktiviert.
Wie bei den meisten Games, gibt es auch hier mehr als nur RT on/off

...100W/h mehr an einem 8h Hardcore-UHD-RT-Spielertag bei 365 Tagen. Sind 116€ bei 40 Cent (Strompreisbremse) und damit 9,74€/Monat mehr...

Die Karte wird von NV für 1440p beworben. Und wenn man die FPS auf 144 capt, dann kommt die 6900XT auch auf ca. 200W

Troyan
2023-04-13, 12:40:31
Wenn du bei der Produktion von Highend-Chips, die allein mehr Wasser und Strom verschluckt, als eine durchschnittliche afrikanische Stadt im Jahr verbraucht, damit ankommst, frage ich mich eher ob du noch den Durchblick hast.

Irgendwie verwirrt? Hat AMD die rumliegenden RDNA2 Karten mit Luft und Liebe produziert?

Echt, langsam nimmt es absurde Züge hier an.

/edit: BTW: Die notwendigen Ressourcen für eine 4070 Karte sind auch deutlich geringer als für eine 6950XT. Also noch mehr Gründe die 4070 Karte zu kaufen. Danke für den Hinweis.

Leonidas
2023-04-13, 12:47:07
/edit: Mal ein älteres Spiel mit raytracing:
https://cdn.sweclockers.com/artikel/diagram/29051?key=b23a8699c9ffaf8c7fa3c55c5f1f95eb
https://www.sweclockers.com/test/36143-nvidia-geforce-rtx-4070-energieffektiv-och-kompakt/6

RDNA2-Karten in diesem Test gemessen mit Treiber 22.5.2
Ampere-Karten in diesem Test gemessen mit Treiber 512.95
https://www.sweclockers.com/test/36143-nvidia-geforce-rtx-4070-energieffektiv-och-kompakt/3

Leider ist SweClockers derzeit nur noch selten eine belastbare Quelle.

DrFreaK666
2023-04-13, 12:49:49
...Echt, langsam nimmt es absurde Züge hier an...

:lol:

Troyan
2023-04-13, 12:50:26
Ah, okay. Hardwareluxx hat mit 23.x.x getestet: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/60772-ab-659-euro-zwei-modelle-der-geforce-rtx-4070-im-test.html?start=14

Sind über 60% zur 6800 in Guardians mit Raytracing.

robbitop
2023-04-13, 12:53:08
Mal ein paar Zahlen bis zurück inklusive Kepler (in dem Fall 7 Series). Ich habe das Verhältnis aus FPUs der jeweiligen SKU zum vollen Top Dog bis inkl Ampere betrachtet.

Mittelwert:
**60 SKU: 36,3%
**70 SKU: 52,4%
**80 SKU: 71,3%

Minimum (schlechtester Fall):
**60 SKU: 33,3%
**70 SKU: 50,0%
**80 SKU: 63,8%

Und nun Ada SKUs:
4060: 20,8%
4070: 31,9 %
4080: 52,7%

Alle SKU Bezeichnungen haben sich um ein Level nach oben verschoben. Meint:

1.) Eine 4080 wäre eigentlich eher eine 4070.
2.) Eine 4070 wäre eigentlich eine 4060
3.) eine 4060 (unreleased) wäre eigentlich eine 4050/ti.

Und trotz dessen sind die neuen SKUs (nur auf den Namen bezogen) teurer geworden. Würde man sie einordnen mit dem was sie sind, wäre es noch schlimmer. (3060 als tatsächliche Vorgängerin der "4070" hatte eine UVP von 329 EUR zum Launch. Die 4070 hat eine UVP von 659 EUR. Also eine bisher nie dagewesene tatsächliche Preissteigerung.)

Ich will nicht sagen, dass AMD hier besser wäre - aber in die historische Einordnung der FPU Ratio ist es schon ein geschickt eingefädelte Trickery. :D
Dank der überhöhten Preise wirken die 659 € absolut (ohne Referenz) nicht mehr teuer - aber in Relation zur Historie gesetzt sieht es anders aus.

Hier die napkin math dazu:
https://abload.de/thumb/historical_overview_geaf2f.png (https://abload.de/image.php?img=historical_overview_geaf2f.png)

sun-man
2023-04-13, 12:53:42
Die Karte wird von NV für 1440p beworben. Und wenn man die FPS auf 144 capt, dann kommt die 6900XT auch auf ca. 200W

Also rechnen wir die 6900XT schön nur um besser zu sein? Aber das ist korrekt. Wenn ich mit 2 300PS Wagen, einmal 3l Allrad und einmal 1,6l Frontkatzer, 30 in der 30'er Zone fahre sind beide gleich schnell und verbrauchen annähernd gleich viel.

DrFreaK666
2023-04-13, 12:56:24
Ah, okay. Hardwareluxx hat mit 23.x.x getestet: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/60772-ab-659-euro-zwei-modelle-der-geforce-rtx-4070-im-test.html?start=14

Sind über 60% zur 6800 in Guardians mit Raytracing.

Zum Glück wird die 4070 auch nur 530€ kosten :rolleyes:
Vergleich die 4070 doch gleich mit einer 6500XT. Dann steht sie noch besser da

Also rechnen wir die 6900XT schön nur um besser zu sein? Aber das ist korrekt. Wenn ich mit 2 300PS Wagen, einmal 3l Allrad und einmal 1,6l Frontkatzer, 30 in der 30'er Zone fahre sind beide gleich schnell und verbrauchen annähernd gleich viel.

Ich rechne da nichts schön. Das sind Werte aus dem CB-Bericht, den du verlinkt hast. Reichen max. 144FPS plötzlich nicht mehr?
Dass die 4070 dann auch weniger schluckt, ist natürlich logisch

Lurtz
2023-04-13, 13:05:11
Find es komisch, dass hier der Energieaspekt so relativiert wird. Ein Drittel weniger Energieverbrauch als bei vergleichbaren AMD Karten ist beachtlich und darf man schon in die Wertung mit einfließen lassen.
Natürlich ist das ein relevanter Wert, aber nicht wenn er von überzeugten Fans eines jeweiligen Lagers mal Relevanz zugemessen bekommt, wenn der eigene Hersteller vorne liegt, um dann wieder vergessen zu werden, während man selbst auf 450 Watt-GPUs spielt.

Flusher
2023-04-13, 13:23:35
Ziemlich beunruhigender Trend. NVIDIA launcht 2.5 Jahre nach dem Launch der 3080 eine Karte die auf auf der selben Augenhöhe ist und das zu einer fast identischen UVP (660€ vs 699€).

Das ist kein Fortschritt, sondern Stagnation.

Sonyfreak
2023-04-13, 13:37:28
Ziemlich beunruhigender Trend. NVIDIA launcht 2.5 Jahre nach dem Launch der 3080 eine Karte die auf auf der selben Augenhöhe ist und das zu einer fast identischen UVP (660€ vs 699€). Das ist kein Fortschritt, sondern Stagnation.

GTX 470 (2010) GTX 670 (2012) GTX 970 (2014) GTX 1070 (2016) GTX 2070 (2018) GTX 3070 (2020)
Listenpreis Release 349$ 399$ 329$ 379$ 499$ 499$
Preisäquivalent 2023 477$ 528$ 421$ 478$ 617$ 598$
Kaufkraftäquivalent 2023 255$ 301$ 257$ 300$ 403$ 416$

Bei solchen Rechnungen bitte nicht vergessen, dass 660€ im Jahr 2023 nur etwa einem Wert von 550€ im Jahr 2020 entsprechen.

mfg.

Sonyfreak

robbitop
2023-04-13, 13:38:41
Nur muss man eigentlich die 60 SKU Preise annehmen - siehe meine obige Erläuterung. ;)

Troyan
2023-04-13, 13:50:17
Das ist deine persönliche Anspruchshaltung und RT-Brille. Das ist für mich ein eher ein belangloser Effekt und bin sogar froh, wenn nicht alles wie verrückt glänzt.

Raytracing in Spider-Man bzw. Miles Morales ist ein normaler "Ultra"-Effekt ohne übertriebende Anforderungen: https://imgsli.com/MTY5NzY3/0/1

Wenn für dich Spiegelungen und SSR-Fehler akzeptabel sind, frage ich mich, wieso eine RTX3060 dann nicht auch eine brauchbare Karte wäre: Ist eigentlich exakt eine halbe 6950XT: Halber Preis, halber Stromverbrauch, halbe Leistung.

DozerDave
2023-04-13, 13:58:35
Nur muss man eigentlich die 60 SKU Preise annehmen - siehe meine obige Erläuterung. ;)

Kannst Du Deine Übersicht um alle anderen Karten ergänzen? Die 90er, 50er sowie die Ti's fehlen für das komplette Bild.

Exxtreme
2023-04-13, 14:01:34
Ziemlich beunruhigender Trend. NVIDIA launcht 2.5 Jahre nach dem Launch der 3080 eine Karte die auf auf der selben Augenhöhe ist und das zu einer fast identischen UVP (660€ vs 699€).

Das ist kein Fortschritt, sondern Stagnation.

Mag ja sein. Aber wenn sich die Karte gut verkauft dann haben sie vieles richtig gemacht. Kann sein, dass die Leute ausserhalb der 3DC-Blase diese Karte viel positiver wahrnehmen werden.

robbitop
2023-04-13, 14:05:12
Kannst Du Deine Übersicht um alle anderen Karten ergänzen? Die 90er, 50er sowie die Ti's fehlen für das komplette Bild.
Mir ging es primär um die Einordnung der 4070 (siehe Threadtitel). :)
Kann man natürlich noch erweitern - aber die Story bleibt auch dort die gleiche.

Ex3cut3r
2023-04-13, 14:05:25
Das ist deine persönliche Anspruchshaltung und RT-Brille. Das ist für mich ein eher ein belangloser Effekt und bin sogar froh, wenn nicht alles wie verrückt glänzt.

Echt jetzt? ;D

RT OFF/ON

https://abload.de/thumb/spider-man_2023_04_13iefo7.png (https://abload.de/image.php?img=spider-man_2023_04_13iefo7.png) https://abload.de/thumb/spider-man_2023_04_1336fwj.png (https://abload.de/image.php?img=spider-man_2023_04_1336fwj.png)

OpenVMSwartoll
2023-04-13, 14:08:15
Echt jetzt? ;D

RT OFF/ON

https://abload.de/thumb/spider-man_2023_04_13iefo7.png (https://abload.de/image.php?img=spider-man_2023_04_13iefo7.png) https://abload.de/thumb/spider-man_2023_04_1336fwj.png (https://abload.de/image.php?img=spider-man_2023_04_1336fwj.png)

Ich bin alles andere als wach, aber fehlt Spidey nicht bei der Reflektion?

Wie gesagt: Bin müde.

Edit: Ah ja, bei RT natürlich nicht.

Raff
2023-04-13, 14:10:50
Ja, der fehlt natürlich – beim billigstmöglichen Raster-Fallback. ;) Bei diesem Spiel auf Raytracing zu verzichten, ergibt nur wenig Sinn (etwa, weil die CPU wegen der Zusatzlast zusammenbricht ... oder bei VRAM-Mangel. Aber sonst?).

MfG
Raff

OpenVMSwartoll
2023-04-13, 14:11:55
Ja, der fehlt natürlich – beim billigstmöglichen Raster-Fallback. ;)

MfG
Raff

Hab ich dann beim zweiten Blick erspäht. Mehr Kaffee... 😂

Ex3cut3r
2023-04-13, 14:15:44
Ja, der fehlt natürlich – beim billigstmöglichen Raster-Fallback. ;) Bei diesem Spiel auf Raytracing zu verzichten, ergibt nur wenig Sinn (etwa, weil die CPU wegen der Zusatzlast zusammenbricht ... oder bei VRAM-Mangel. Aber sonst?).

MfG
Raff

Sehe ich auch so. Läuft selbst auf RDNA 2 performant.

War außerdem, nur RT Range 6.

https://abload.de/img/screenshot2023-04-131fnf69.png

maximus_hertus
2023-04-13, 14:17:51
Bei solchen Rechnungen bitte nicht vergessen, dass 660€ im Jahr 2023 nur etwa einem Wert von 550€ im Jahr 2020 entsprechen.

mfg.

Sonyfreak

Der "Fehler" an dieser Rechnung ist die Ignoranz der günstigeren Technologie / Fertigung. Die Waferpreise steigen, aber effektiv, durch die bessere / kleinere Fertigung, ist es doch günstiger.

Beispiel: GTX 600/700 zu GTX 900
Gleiche(!) Fertigung
Chipgröße grob 1/3 größer(!)

Trotzdem ist der Preis der GTX 970 (329 USD) deutlich unter dem Preis der GTX 670 (399 USD).

Den Gewinnen hat es nicht geschadet.

dargo
2023-04-13, 14:24:24
Raytracing in Spider-Man bzw. Miles Morales ist ein normaler "Ultra"-Effekt ohne übertriebende Anforderungen: https://imgsli.com/MTY5NzY3/0/1

Deine Schallplatte wird langweilig.

Ich habe beide Games mit RX6800XT max. Details inkl. Raytracing high ohne Probleme mit hohen fps durchgespielt. Und ich hatte dafür nicht mal FSR 2 gebraucht. Lief schon @1440p nativ einwandfrei.

DrFreaK666
2023-04-13, 14:27:45
Deine Schallplatte wird langweilig.

Ich habe beide Games mit RX6800XT max. Details inkl. Raytracing high ohne Probleme mit hohen fps durchgespielt. Und ich hatte dafür nicht mal FSR 2 gebraucht. Lief schon @1440p nativ einwandfrei.

Er schrieb doch "ohne übertriebende Anforderungen"

MuLuNGuS
2023-04-13, 14:28:13
Also für 499€ täte ich ich mir eine 4070 koofen.
Aber so muss meine RTX 2070 wohl noch eine weile halten was sie verspricht :D

Raff
2023-04-13, 14:29:23
Also für 499€ täte ich ich mir eine 4070 koofen.
Aber so muss meine RTX 2070 wohl noch eine weile halten was sie verspricht :D

Wenn du deine alte Karte verkaufst, kostet dich eine neue RTX 4070 keine 499 Euro. ;)

Würde sich lohnen, ist ziemlich genau Faktor 2: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/ (mehr, wenn 8 GiB limitieren, bei RT und durch Frame Generation)

MfG
Raff

Hatstick
2023-04-13, 14:47:28
Super Test der PCGH muss ich sagen, schön aufbereitet.
Auch die "neue" Schrift macht das deutlich klarer.