PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4070 Review-Thread


Seiten : 1 [2] 3 4

Flusher
2023-04-13, 14:53:42
Mag ja sein. Aber wenn sich die Karte gut verkauft dann haben sie vieles richtig gemacht. Kann sein, dass die Leute ausserhalb der 3DC-Blase diese Karte viel positiver wahrnehmen werden.

Gamers Nexus und auch LTT haben enorme Reichweiten und auch dort wird die 4070 eher kritisch beäugt. Steve geht sogar soweit zu sagen die Karte links liegen zu lassen, so lange eine 6950 XT zu ähnlichen Preisen im Handel zu finden ist, oder gar eine gebrauchte 3080 zu kaufen.

Spring
2023-04-13, 14:59:00
Gamers Nexus und auch LTT haben enorme Reichweiten und auch dort wird die 4070 eher kritisch beäugt. Steve geht sogar soweit zu sagen die Karte links liegen zu lassen, so lange eine 6950 XT zu ähnlichen Preisen im Handel zu finden ist, oder gar eine gebrauchte 3080 zu kaufen.

Die ersten Modelle der 6950XT sind schon günstiger

OpenVMSwartoll
2023-04-13, 14:59:18
Aber wir sind hier ne kleine Blase. Ebenso schauen viele Kunden keine YT-Videos zu so vermeintlich trockenen Themen.

Wünschenswert wäre es, wenn die Kunden NV zum Umdenken bewegten, aber schauen wir mal, wie viele auch hier zuschlagen.

VRAM und der Preis sind keine schöne Kombo.

Raff
2023-04-13, 15:00:26
Gamers Nexus und auch LTT haben enorme Reichweiten und auch dort wird die 4070 eher kritisch beäugt. Steve geht sogar soweit zu sagen die Karte links liegen zu lassen, so lange eine 6950 XT zu ähnlichen Preisen im Handel zu finden ist, oder gar eine gebrauchte 3080 zu kaufen.

Reichweite hat nichts mit Kompetenz zu tun.

MfG
Raff

dildo4u
2023-04-13, 15:06:53
4070 bei Caseking


https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4070

Mindfactory

https://abload.de/img/4070gncfl.png

https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+4070.html

phoenix887
2023-04-13, 15:07:32
Wenn du deine alte Karte verkaufst, kostet dich eine neue RTX 4070 keine 499 Euro. ;)

Würde sich lohnen, ist ziemlich genau Faktor 2: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/ (mehr, wenn 8 GiB limitieren, bei RT und durch Frame Generation)

MfG
Raff

Das ist noch ne Milchmädchen Rechnung. Man bezahlt den Wertverlust mit.

Raff
2023-04-13, 15:08:04
Now it goes loose! ;)

Geforce RTX 4070: 7 Custom-Designs und die Founders Edition im Vergleichstest (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Custom-Modelle-im-Vergleich-Release-1417395/)

K2g4IGPK6Oc

Das ist noch ne Milchmädchen Rechnung. Man bezahlt den Wertverlust mit.

Das ist milchig und schöngerechnet. Und? :) Unterstellen wir den Kauf der RTX 2070 im Jahr 2018, ist das mehr als vier Jahre her. Jedes Jahr 100 Euro zur Seite gelegt + Weiterverkauf des Altsiliziums: läuft.

MfG
Raff

Ex3cut3r
2023-04-13, 15:23:45
Wenn du deine alte Karte verkaufst, kostet dich eine neue RTX 4070 keine 499 Euro. ;)

Würde sich lohnen, ist ziemlich genau Faktor 2: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/ (mehr, wenn 8 GiB limitieren, bei RT und durch Frame Generation)

MfG
Raff

Guter Tipp, quasi als Investition für die neue 4070. Ordentlich Geld bekommt man dafür immer noch. Der Wertverlust von Nvidia Karten ist im Vergleich zu AMD Karten erheblich geringer. :up:

The_Invisible
2023-04-13, 15:31:43
Also für 499€ täte ich ich mir eine 4070 koofen.
Aber so muss meine RTX 2070 wohl noch eine weile halten was sie verspricht :D

Schon die 2070er war damals "überteuert" für eine 70er Karte. ;) Die Frage ist wie lange willst oder kannst du warten, wirds jemals wieder günstiger? Manche würden wohl ewig warten :D

Ex3cut3r
2023-04-13, 15:33:55
Ich glaube, das ist alles schon seit ein paar Jahren zu "teuer" vielen ist es aber egal. Bzw. ist der Schmerzpunkt noch (lange) nicht erreicht.

phoenix887
2023-04-13, 15:42:30
Now it goes loose! ;)

Geforce RTX 4070: 7 Custom-Designs und die Founders Edition im Vergleichstest (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Custom-Modelle-im-Vergleich-Release-1417395/)



Das ist milchig und schöngerechnet. Und? :) Unterstellen wir den Kauf der RTX 2070 im Jahr 2018, ist das mehr als vier Jahre her. Jedes Jahr 100 Euro zur Seite gelegt + Weiterverkauf des Altsiliziums: läuft.

MfG
Raff

Ist ja nicht so, als würde ich das auch nicht so machen, aber es ist schön gerechnet. Allerdings war das schon 2018? Mein Gott ist auch wieder 5 Jahre her.


Guter Tipp, quasi als Investition für die neue 4070. Ordentlich Geld bekommt man dafür immer noch. Der Wertverlust von Nvidia Karten ist im Vergleich zu AMD Karten erheblich geringer. :up:

Das ist doch kein Tipp, macht doch jeder. Sonst hätte ich hier ein Museum seit meiner GTX 260 8800GTX. Ab da konnte ich mir endlich selber Karten kaufen.

The_Invisible
2023-04-13, 15:44:04
Das ist doch kein Tipp, macht doch jeder. Sonst hätte ich hier ein Museum seit meiner GTX 260. Ab da konnte ich mir endlich selber Karten kaufen.

Habs damals immer gratis in der Familie verteilt, jetzt wird der Spaß dafür aber doch zu teuer :D

phoenix887
2023-04-13, 15:46:27
Habs damals immer gratis in der Familie verteilt, jetzt wird der Spaß dafür aber doch zu teuer :D

Bin nochmal in mich gegangen hatte vorher noch eine 8800GTX in einem Fertig PC. Die GTX 260 war die 1. Karte die ich selbst eingebaut habe.


So kann man es auch machen. Aber mein Bruder ist Konsolero und mein Vater nutzt nur Officezeug. Von daher nur totes Kapital. ^^

maximus_hertus
2023-04-13, 15:47:01
Schon die 2070er war damals "überteuert" für eine 70er Karte. ;) Die Frage ist wie lange willst oder kannst du warten, wirds jemals wieder günstiger? Manche würden wohl ewig warten :D

Ich habe es schon mehrfach geschrieben, ich könnte mir gut vorstellen, das es im Sommer nochmal anders ausschaut und der Markt dann andere / mehrere und ggf. besere Alternativen bietet.

Wenn die alte Karte jetzt gerade kaputt geht, klar, dann will man nicht warten. Oder wenn man jetzt ein bestimmtes Game zocken will.
Ansonsten gibt es unr alle 2 Jahre eine neue Gen und die paar Wochen kann man sicher warten, bis alle Karten auf dem Tisch liegen.

phoenix887
2023-04-13, 15:51:06
Ich habe es schon mehrfach geschrieben, ich könnte mir gut vorstellen, das es im Sommer nochmal anders ausschaut und der Markt dann andere / mehrere und ggf. besere Alternativen bietet.

Wenn die alte Karte jetzt gerade kaputt geht, klar, dann will man nicht warten. Oder wenn man jetzt ein bestimmtes Game zocken will.
Ansonsten gibt es unr alle 2 Jahre eine neue Gen und die paar Wochen kann man sicher warten, bis alle Karten auf dem Tisch liegen.


Bis alle Karten auf dem Tisch liegen. Hat seinen Charme in dem Kontext:D

Hakim
2023-04-13, 16:07:52
Sehe ich das richtig, da werden Karten zum launch günstiger angeboten als der UVP Preis?

Raff
2023-04-13, 16:09:28
Yep, bis zu 20 Euro weniger. Surprise! :ulol: Jetzt nochmal 40 Euro und das passt (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/6/#a1).

MfG
Raff

Ex3cut3r
2023-04-13, 16:17:43
Ab 550€ bis 500€ wird es wirklich sehr interessant. Kommt sicherlich, Geduld. :smile:

Mit DLSS Upscaling und FG, sowie 12GB, dazu 200W Verbrauch, sehr leise Customs, gute Temps. IMHO gar nicht mal soooo übel.

sun-man
2023-04-13, 16:20:14
Now it goes loose! ;)

Geforce RTX 4070: 7 Custom-Designs und die Founders Edition im Vergleichstest (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Custom-Modelle-im-Vergleich-Release-1417395/)

https://youtu.be/K2g4IGPK6Oc

Hui. Da kriegst wieder die Krise. Nein, ich will heute nicht kaufen....
GeForce RTX 4070 Dual 12G, 12288 MB GDDR6X - 659€
GeForce RTX 4070 Dual O12G, 12288 MB GDDR6X - 669€
GeForce RTX 4070 TUF O12G - mit den 3 Lüftern....829€
-----------------
Da würde ich dann doch eher zur 4070 TI greifen. Gerade wenn man die 3 Lüfter sucht ^^

Ex3cut3r
2023-04-13, 16:21:30
Asus schießt leider, wie so oft, total übers Ziel hinaus. Die billigste Custom reicht eigentlich vollkommen aus (siehe PCGH Vergleich)

Die FE gibts wieder nur bei NBB?
Jap.

Lurtz
2023-04-13, 16:21:37
Die FE gibts wieder nur bei NBB?

Troyan
2023-04-13, 16:23:00
Frage ist, ob der Kühler die 140€ (lmao) Aufpreis rechtfertigen: https://www.techpowerup.com/review/asus-geforce-rtx-4070-tuf/37.html

Hat auch nur 220W Limit. Imo ist die Dual okay. Im Silent-Modus leise und immer noch kühl. Und mit 216W sollte selbst OC jetzt keine Überforderung darstellen.

/edit: Mal ein Vergleich mit Fortnite: https://youtu.be/z109Di2g5s8?t=80

Software-Lumen: 6950XT ist 12% schneller in 1440p.
Hardware-RT-Lumen: 6950XT ist nur noch 3% schneller in 1440p.

Auch hier fällt die RDNA2 Karte deutlich ab.

Exxtreme
2023-04-13, 16:32:15
Da würde ich dann doch eher zur 4070 TI greifen. Gerade wenn man die 3 Lüfter sucht ^^

Die RTX 4080 gibt es auch mit drei Lüftern. :naughty: Und ja, für 829 EUR gibt es bald schon die Ti-Version.

sun-man
2023-04-13, 16:34:47
Die RTX 4080 gibt es auch mit drei Lüftern. :naughty: Und ja, für 829 EUR gibt es bald schon die Ti-Version.
??? Quick & Dirty ?? Preisvergleich also 1300€ statt 829 oder eben 900 für die 4070TI? Dann kommt der nächste und emphielt ne 4090 ^^ :cool::biggrin:

PCGH hat es für mich als Noob gut zusammengefasst. Egal was andere Profis sagen,
Der Kauf einer Grafikkarte ist wie eine Wette. Derzeit ist nicht abzusehen, wie die Spiele in zwei bis drei Jahren aussehen, denn der Umbruch findet gerade erst statt.

Niemand kann sagen, ob eine Geforce RTX 4070 oder eine Radeon RX 6800 XT in Zukunft die bessere Wahl darstellt. Auf der einen Seite steht der VRAM-Mangel, auf der anderen eine schwache Raytracing-Leistung. Beides lässt sich gezielt entschärfen, entweder durch reduzierte Texturdetails oder durch Upsampling. Sie entscheiden, welche Grafikkarte um 600 Euro es werden soll. Wir können beide empfehlen, denn mehr Leistung gibt es in der gehobenen Mittelklasse derzeit nicht.
Mir würden reduzierte Texturen keine Kopfschmerzen bereiten. Ich tue mich mit AMD nach der Vega (damals) schwerer.

MuLuNGuS
2023-04-13, 16:44:38
Wenn du deine alte Karte verkaufst, kostet dich eine neue RTX 4070 keine 499 Euro. ;)

Würde sich lohnen, ist ziemlich genau Faktor 2: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/RTX-4070-Test-Benchmarks-Grafikkarten-Vergleich-1417376/ (mehr, wenn 8 GiB limitieren, bei RT und durch Frame Generation)

MfG
Raff

Habe ich mir auch schon gedacht, aber ich glaube ich behalte die falls meine Kinder noch mal etwas besseres brauchen.

Das mit dem Faktor 2 ist auch ziemlich genau das was ich mir für ein Upgrade vorgestellt habe. Ist nicht so eilig, mal sehen wie sich die Preise so entwickeln.

phoenix887
2023-04-13, 16:53:28
??? Quick & Dirty ?? Preisvergleich also 1300€ statt 829 oder eben 900 für die 4070TI? Dann kommt der nächste und emphielt ne 4090 ^^ :cool::biggrin:

PCGH hat es für mich als Noob gut zusammengefasst. Egal was andere Profis sagen,

Mir würden reduzierte Texturen keine Kopfschmerzen bereiten. Ich tue mich mit AMD nach der Vega (damals) schwerer.


Zum Zitat von PCGH, die bessere Nvidia RT Leistung bringt auch nichts, wenn der VRAM ausgeht.

Ich schalte fast immer RT mit meiner RX 6800 ein, oft werden auch schon 13GB VRAM belegt. Tja rennt der VRAM leer, 0 FPS oder verwaschene Texturen, dann sind mir 45 FPS lieber in Spielen wie Witcher 3.

Daher Nvidia, für mich ein No-Go und für über 1000Euro, hole ich mir keine GPU.

https://youtu.be/Rh7kFgHe21k

Ne Titan für 949 Euro, war zurückblickend schon verrückt von mir. Würde ich heute auch nicht mehr machen.

Prinzenrolle
2023-04-13, 16:57:47
Da würde ich dann doch eher zur 4070 TI greifen. Gerade wenn man die 3 Lüfter sucht ^^

Die Ventus gibt es mit 3 Lüftern für "schmale" 649 Euro.:tongue:
Aber fraglich was man bei einer 200 Watt Luftpumpe mit drei Lüftern will.
Die Fury Nano kam auch mit einem Lüfter aus.

Redneck
2023-04-13, 17:00:36
Frage ist, ob der Kühler die 140€ (lmao) Aufpreis rechtfertigen: https://www.techpowerup.com/review/asus-geforce-rtx-4070-tuf/37.html

Hat auch nur 220W Limit. Imo ist die Dual okay. Im Silent-Modus leise und immer noch kühl. Und mit 216W sollte selbst OC jetzt keine Überforderung darstellen.

/edit: Mal ein Vergleich mit Fortnite: https://youtu.be/z109Di2g5s8?t=80

Software-Lumen: 6950XT ist 12% schneller in 1440p.
Hardware-RT-Lumen: 6950XT ist nur noch 3% schneller in 1440p.

Auch hier fällt die RDNA2 Karte deutlich ab.
Alte Radeon Gen schneller als aktuelle NV Midrange GEN in RT... Ich glaube, da sollte man eher RDNA2 abfeiern, als der 4070er auf die Schultern zu klopfen.

dargo
2023-04-13, 17:06:08
Alte Radeon Gen schneller als aktuelle NV Midrange GEN in RT... Ich glaube, da sollte man eher RDNA2 abfeiern, als der 4070er auf die Schultern zu klopfen.
Man achte auch auf die Frametimes wenn es schon speziell um Fortnite gehen soll. ;) Aber dazu hatte sich aufkrawall schon genug geäußert.

Troyan
2023-04-13, 17:07:27
Ja, die 1200€ Karte ist so schnell wie die 659€. :D

Bei Caseking gibt es die Asus Dual zum UVP: https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-4070?sPartner=35

Die Dual OC zum UVP von 659€ direkt bei Asus: https://webshop.asus.com/de/90YV0IZ2-M0NA00/ASUS-Dual-GeForce-RTX-4070-OC-Edition-12GB-GDDR6X-Gaming-Grafikkarte

dargo
2023-04-13, 17:10:22
Ja, die 1200€ Karte ist so schnell wie die 659€. :D

Nimm bitte weniger was du auch immer täglich zu dir nimmst.
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6950-XT-Speedster-MERC-BLACK-GAMING-DDR6-Tri-retail_1459523.html
https://www.mindfactory.de/product_info.php/16GB-ASRock-Radeon-RX-6950-XT-Phantom-Gaming-Aktiv-PCIe-4-0-x16--Retail_1487404.html

btw.
Eine RX 6950XT würde heute für 1200€ überhaupt keinen Sinn machen wenn es eine RX 7900XT für 830+€ gibt.

Gumril
2023-04-13, 17:16:57
Die Ventus gibt es mit 3 Lüftern für "schmale" 649 Euro.:tongue:
Aber fraglich was man bei einer 200 Watt Luftpumpe mit drei Lüftern will.
Die Fury Nano kam auch mit einem Lüfter aus.

Aber Achtung das die Ventus nicht verglüht ;)
https://www.igorslab.de/geforce-rtx-4070-auf-den-preispunkt-gebracht-wenn-der-zwang-zur-uvp-die-vernunft-besiegt/

Die Bilder und das Video handeln von der Ventus auch wenn er es noch nicht sagt.

TheRealTentacle
2023-04-13, 17:19:33
Im Notfall kann man immer Textur Stufe runterstellen.

Der Zielgruppe. Dieser Karte sind IHMO Turing Besizter, ala 2070, 2070S, 2080 vlt. auch noch 2080 Ti User.

Kann ich bestätigen, ich hab mit eine besorgt, weil meine RTX 2080 bei VR echt am Ende ist. Die 4070 passt von der Performance auch gut zum Rest meines Systems. Es ist Doppelt so viel Leistung, der Preis ist allerdings echt :P

PatkIllA
2023-04-13, 17:25:52
Customs mit 2 HDMI gibt es nicht wie es aussieht oder?
Bei den anderen Karten haben die ASUS-Karten zwei HDMI und drei DP.

DrFreaK666
2023-04-13, 17:55:16
... Software-Lumen: 6950XT ist 12% schneller in 1440p.
Hardware-RT-Lumen: 6950XT ist nur noch 3% schneller in 1440p.

Auch hier fällt die RDNA2 Karte deutlich ab.

Radeon ist schneller mit RT als Geforce. Radeon taugt nix :ugly:

TheRealTentacle
2023-04-13, 17:59:58
Laut MLID könnten die durchschnittlichen 4070 Preise sogar steigen weil NV gewisse Karten nicht mehr subventionieren wird. ;D;D;D
Q: https://www.youtube.com/watch?v=-RFJttxYSXg

Hoffentlich kaufen so wenige Leute wie möglich diese überteuerten Karten.

Gibt es einen Timestamp? Der redet echt viel über Preise.

Dorn
2023-04-13, 18:05:37
Ab 550€ bis 500€ wird es wirklich sehr interessant. Kommt sicherlich, Geduld. :smile:
.Heißt, Sommer? Nächstes Jahr? oder wenn 12 GB zu wenig sind?

Ex3cut3r
2023-04-13, 18:47:51
Kann ich bestätigen, ich hab mit eine besorgt, weil meine RTX 2080 bei VR echt am Ende ist. Die 4070 passt von der Performance auch gut zum Rest meines Systems. Es ist Doppelt so viel Leistung, der Preis ist allerdings echt :P

:up:
Viel Spaß damit.Heißt, Sommer? Nächstes Jahr? oder wenn 12 GB zu wenig sind?
Sommer ende/Herbst

Troyan
2023-04-13, 19:07:45
Mal ein paar Spiele abseits der Norm:
NfS Unbound:
https://techgage.com/wp-content/uploads/2023/04/Need-for-Speed-1440p.jpg
https://techgage.com/article/mid-range-ada-lovelace-nvidia-geforce-rtx-4070-gaming-review/

Forspoken mit RT:
https://gamegpu.com/images/2023/ASUS_GeForce_RTX_4070_DUAL_OC/test/f2560.png

Dead Space Remake mit RT:
https://gamegpu.com/images/2023/ASUS_GeForce_RTX_4070_DUAL_OC/test/ds2560.png

Resident Evil 4 mit RT:
https://gamegpu.com/images/2023/ASUS_GeForce_RTX_4070_DUAL_OC/test/re2560.png
https://gamegpu.com/test-video-cards/obzor-i-testirovanie-videokarty-asus-geforce-rtx-4070-dual-oc

Sobald auch nur irgendwas mit Raytracing vorhanden ist, ist es vorbei. Und die Implementierungen in Forspoken und Dead Space sind schon das minimalste, was man machen kann...

SentinelBorg
2023-04-13, 19:12:27
Beim VRAM setzen die aktuellen Konsolen halt immer noch ein recht hartes Limit. Zumindest für 1440p denke ich werden 12 GB bis zur PS6 (oder vielleicht PS5 Pro) reichen.

Klar kann es immer wieder mal PC Versionen geben mit Super-Ultra-Texturen, die dann nicht mehr in 12 GB passen aber auch nur marginal besser aussehen. Wichtiger ist es aber eher dass genug Platz für die direkt portierten Assets der Konsolenversionen da ist, denn diese sind auch meist die am besten optimiertesten.

dildo4u
2023-04-13, 19:16:36
Du brauchst mher da du mit Lovelace sicher Mal RT anschalten willst, Konsole hat oft wenn überhaupt nur ein RT Effekt PC hingegen 2-3.

aufkrawall
2023-04-13, 19:25:45
Beim VRAM setzen die aktuellen Konsolen halt immer noch ein recht hartes Limit.
Die Xbox 360 hatte 512MB RAM, trotzdem brauchte man für BF3 mindestens 1GB VRAM für gute BQ + Performance. Ergo kann deine Begründung nicht richtig sein.

Thunder99
2023-04-13, 19:38:09
Das höre ich hier im Forum schon seit der 2000er Reihe und sind die Preise seitdem runtergegangen? Nein... AMD hilft hier auch nicht, die sind ja selber bei >1k eingestiegen und würden wohl auch dort bleiben wenn es die Produkte hergeben würden.

Frag mich ob diese Forenuser alle noch eine 1000er Karte benutzen, wird langsam knapp mit der Performance ; )

@robbitop
Jap, und während AMD noch an FSR3 bastelt haut jetzt Nvidia schon wieder Pathtracing & RTX-Remix raus (https://github.com/NVIDIAGameWorks/rtx-remix), Nvidia investiert da softwaremäßig einfach viel mehr
Ja, der bin ich mi Ada wieder eingestiegen eine Grafikkarte zu kaufen. Leider halt zu dem neuen Preisniveau aber dafür wieder längere Zeit Ruhe. Rekordhalter ist derzeit die 1080Ti. Keine Karte hatte ich länger (aber auch bedingt von nicht aktuellen Spiele die ich spiele)

dargo
2023-04-13, 19:40:28
Die Xbox 360 hatte 512MB RAM, trotzdem brauchte man für BF3 mindestens 1GB VRAM für gute BQ + Performance. Ergo kann deine Begründung nicht richtig sein.
Eigentlich ist es doch recht simpel. Am PC brauchst du ungefähr den Vram wie auf Konsole gemeinsamer Speicher. Ich erwarte auch nichts anderes sobald alles auf eine PS5 als Mindestvoraussetzung umgestellt wird (Ports von Sony die nicht für XBox erscheinen). Sie hat den doppelten Speicher wie die PS4, ergo wirds über kurz oder lang auf 16GB Vram am PC hinauslaufen. Die 12GB sehe ich demnächst eher als Mindestvoraussetzung an. Eine PS4 hatte insgesamt 8GB und zum Lebensende bzw. kurz davor dieser war/ist diese Menge an Vram am PC bereits oft zu wenig.

DrFreaK666
2023-04-13, 19:45:46
...Sobald auch nur irgendwas mit Raytracing vorhanden ist, ist es vorbei. Und die Implementierungen in Forspoken und Dead Space sind schon das minimalste, was man machen kann...

Absolut unspielbare FPS mit Radeon-Karten :ugly:

Thunder99
2023-04-13, 19:54:22
Einfach herrlich der Igor mit seinen Artikeln wenn man das Zeugs liest, insbesondere das was nicht geschrieben ist (zwischen den Zeilen) :D

@Raff: PCGH, einfach gut :up: .
Vermute mal blind, der 4070 fehlt die Rohpower um DLSS3 entsprechend zu beschleunigen, ggf Cache der Grund? Mehr Cache, grössere Effekt von FG? :confused:

Pumpi74
2023-04-13, 20:00:07
Eigentlich ist es doch recht simpel.

Nein, es ist nicht simpel. Wie sich der Vram Bedarf am PC entwickelt ist nicht vorhersehbar. Das FG circa ein GB mehr braucht hatte vor einem Jahr niemand auf dem Schirm, und was nVidia sich zur nächsten Gen an Features aus den Fingern saugt weis auch niemand. Keiner weis wie gut Spiele portiert werden, wie in dem Bereich die Motivation sein wird. Viele unberechenbare Parameter. Die einzige Phrase die in dem Zusammenhang gilt ist das man Hardware nicht auf Vorrat kaufen sollte, das geht finanziell meistens in die Hose. Das ist zumindest meine Erfahrung aus den letzten 20 Jahren.

dargo
2023-04-13, 20:07:54
Nein, es ist nicht simpel. Wie sich der Vram Bedarf am PC entwickelt ist nicht vorhersehbar.
Bist du noch so jung oder hast du die letzten Konsolen verschlafen?

Die einzige Phrase die in dem Zusammenhang gilt ist das man Hardware nicht auf Vorrat kaufen sollte, das geht finanziell meistens in die Hose. Das ist zumindest meine Erfahrung aus den letzten 20 Jahren.
Sag das mal Lurtz mit seiner RTX 3070.

TheRealTentacle
2023-04-13, 20:36:03
Das FG circa ein GB mehr braucht hatte vor einem Jahr niemand auf dem Schirm, und was nVidia sich zur nächsten Gen an Features aus den Fingern saugt weis auch niemand. Keiner weis wie gut Spiele portiert werden, wie in dem Bereich die Motivation sein wird

Prinzipiell kann man aber sagen: wenn das Spiel bei keinem läuft, weil sich nicht jeder so viel Speicher leisten kann, wird es auch keiner kaufen. Und da nVidia wenig RAM verbaut, werden auch die Spieleentwickler gezwungen sein auf den Speicherverbrauch zu achten.

Ein guter Indikator ist immer die Steam Hardware Survey, bei der haben bisher nur 16% 12 GB, der Großteil (65%) liegen zwischen 4-8 GB, wobei 8GB langsam der Standard wird.

The_Invisible
2023-04-13, 20:36:30
Einfach herrlich der Igor mit seinen Artikeln wenn man das Zeugs liest, insbesondere das was nicht geschrieben ist (zwischen den Zeilen) :D

@Raff: PCGH, einfach gut :up: .
Vermute mal blind, der 4070 fehlt die Rohpower um DLSS3 entsprechend zu beschleunigen, ggf Cache der Grund? Mehr Cache, grössere Effekt von FG? :confused:

Der OFA sollte auf allen 40er Karten gleich schnell sein, allerdings nicht sicher, Raff hat da von Nvidia auch keine wirklich Antwort bekommen.

Pumpi74
2023-04-13, 20:38:47
Sag das mal Lurtz mit seiner RTX 3070.

Wenn Lurtz sich die 3070 zu Release zum UvP gekauft hat dann verkauft er sie jetzt mit 150€ Verlust und kauft sich ne 4070. Da hat er alles richtig gemacht. Was hätte ihm die 6800@16GB in CP2077@RT gebracht ? Wie will Lurtz CP2077 heute mit Pathtracing auf einer 6800 zocken ? Lurtz ist das beste Beispiel das man Hardware nicht auf Vorrat kauft.

Ich und Millionen andere kommen mit ihrer 3060Ti/3070/3070Ti übrigens noch sehr gut zurecht. Alles eine Frage der Anwendung.

Ex3cut3r
2023-04-13, 21:08:09
Sehe ich ehrlich gesagt genau so. Er hat soweit ich weiß, die 3070 sogar zur UVP bekommen. IHMO, Briefmarke drauf, und ab damit. Geld einstecken und in eine 4070 (Ti) oder gar 4080 investieren.

Raff
2023-04-13, 21:31:51
Naja, ein Gegenbeispiel wäre die RTX 3090. Konnte man - wie die RTX 3080 - vor 2,5 Jahren für 1.499 Euro kaufen und hat jetzt immer noch die Leistung der RTX 4070 Ti (mit OC auch die 7900 XT) mit mehr als ausreichend Speicher. Es gibt durchaus Modelle, die zwar teuer, aber eine gute Investition sind.

MfG
Raff

crux2005
2023-04-13, 21:33:20
Gibt es einen Timestamp? Der redet echt viel über Preise.

Ist gleich im 1. Teil: https://www.youtube.com/watch?v=-RFJttxYSXg&t=160s

Redneck
2023-04-13, 21:33:43
Absolut unspielbare FPS mit Radeon-Karten :ugly:

dafür das das Radeon 1st gen RT gegen NV 3rd gen RT ist, sind die Differenzen geradezu lächerlich.
Anstatt sich Balken anzusehen, sollten einige auch mal die Zahlen dazu betrachten.

Redneck
2023-04-13, 21:37:22
Konnte man - wie die RTX 3080 - vor 2,5 Jahren für 1.499 Euro kaufen..
So einfach war das nicht.. Zur Hochzeit der Miner und Corona

Raff
2023-04-13, 21:43:47
Stimmt, einfach war's nicht, aber ich habe damals auch eine bekommen (IIRC bei der 2. Charge).

MfG
Raff

Lurtz
2023-04-13, 21:49:07
Nein, es ist nicht simpel. Wie sich der Vram Bedarf am PC entwickelt ist nicht vorhersehbar. Das FG circa ein GB mehr braucht hatte vor einem Jahr niemand auf dem Schirm, und was nVidia sich zur nächsten Gen an Features aus den Fingern saugt weis auch niemand. Keiner weis wie gut Spiele portiert werden, wie in dem Bereich die Motivation sein wird. Viele unberechenbare Parameter. Die einzige Phrase die in dem Zusammenhang gilt ist das man Hardware nicht auf Vorrat kaufen sollte, das geht finanziell meistens in die Hose. Das ist zumindest meine Erfahrung aus den letzten 20 Jahren.
Das lehrt die Vergangenheit. VRAM-Bedarf ist am PC auch innerhalb einer Gen immer konstant angestiegen, und jetzt gibts noch Raytracing und Co, das mehr VRAM verlangt.

Wenn Lurtz sich die 3070 zu Release zum UvP gekauft hat dann verkauft er sie jetzt mit 150€ Verlust und kauft sich ne 4070. Da hat er alles richtig gemacht. Was hätte ihm die 6800@16GB in CP2077@RT gebracht ? Wie will Lurtz CP2077 heute mit Pathtracing auf einer 6800 zocken ? Lurtz ist das beste Beispiel das man Hardware nicht auf Vorrat kauft.

Hätte Lurtz damals eine 6800 bekommen, könnte er jetzt zumindest The Last of Us noch vernünftig spielen. Und Cyberpunk ginge ja auch, nur halt nicht mit Pathtracing.
Ersterer Fall wäre für ihn deutlich relevanter als letzterer ;)

Ich und Millionen andere kommen mit ihrer 3060Ti/3070/3070Ti übrigens noch sehr gut zurecht. Alles eine Frage der Anwendung.
Das ist kein Argument. Mit mittleren Texturen kommt man in TLOU auch mit einer 3070 zurecht, man hat nur komplett unbrauchbare Matschtexturen.

Lurtz
2023-04-13, 21:51:01
Sehe ich ehrlich gesagt genau so. Er hat soweit ich weiß, die 3070 sogar zur UVP bekommen. IHMO, Briefmarke drauf, und ab damit. Geld einstecken und in eine 4070 (Ti) oder gar 4080 investieren.
Sind im günstigsten Fall immer noch 300€ mehr für 22-30% mehr Performance und grandiose 50% VRAM mehr.

crux2005
2023-04-13, 21:53:38
PC Gaming ist so wie dieser Faden. :freak:

Das ist kein Argument. Mit mittleren Texturen kommt man in TLOU auch mit einer 3070 zurecht, man hat nur komplett unbrauchbare Matschtexturen.

Es ist nur ein blödes Spiel. Nur gibt er ihm nicht so viel Gewicht wie du.
Also nicht spielen (was du ja gemacht hast) oder eine neue Grafikkarte kaufen.

Pumpi74
2023-04-13, 21:55:29
Das ist kein Argument. Mit mittleren Texturen kommt man in TLOU auch mit einer 3070 zurecht, man hat nur komplett unbrauchbare Matschtexturen.
Ich sagte nicht das es auf die Anwendungsart ankommt, sondern auf die Anwendung. Müsste ich die Texturen merklich runter drehen würde ich auch upgraden. Davon war aber keine Rede.

Du musst akzeptieren das nicht alle TLOU oder CP2077@max zocken wollen.

Ex3cut3r
2023-04-13, 21:56:40
@Lurtz Kann ich bestätigen.

Aber gehen nicht mal die High Texturen? Ich kann das kaum bewerten, bei 12GB VRAM verschlingen selbst die Medium Matsch Texturen 8,4GB VRAM Belegung.

Ultra, Medium, High Texturen.

Zwischen Ultra und High sehe ich keinen optischen Unterschied. :freak:

https://abload.de/thumb/tlou-i_2023_04_13_21_qffpl.jpg (https://abload.de/image.php?img=tlou-i_2023_04_13_21_qffpl.jpg) https://abload.de/thumb/tlou-i_2023_04_13_21_g5cmx.jpg (https://abload.de/image.php?img=tlou-i_2023_04_13_21_g5cmx.jpg) https://abload.de/thumb/tlou-i_2023_04_13_21_n1dpr.jpg (https://abload.de/image.php?img=tlou-i_2023_04_13_21_n1dpr.jpg)

Pumpi74
2023-04-13, 22:08:01
Sind im günstigsten Fall immer noch 300€ mehr für 22-30% mehr Performance und grandiose 50% VRAM mehr.

Laut CB und PCGH ist die 4070 in anspruchsvollen Spielen circa 40% schneller als die 3070. Ausserdem bekommst du neben 50% mehr Speicher auch noch bis zu 100% mehr Fps durch FG und eine bessere effiziens. Wenn dir das keine 300€ wert ist kann man es dir heutzutage leider nicht mehr recht machen. Andere würden sich über einen so geringen Wertverlust freuen ;)

Ex3cut3r
2023-04-13, 22:12:29
Habe ich alles schon, in seinem Beratungs Thread probiert

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=614585

Ist hoffnungslos. Keine Option sagt ihm zu.

Pumpi74
2023-04-13, 22:19:28
Gut, dann ist er halt ein Konsolentyp. Dafür gibt es ja bestimmt auch Anlaufstellen...

Troyan
2023-04-13, 22:25:12
Bei Mindfactory für 639€ und 649€ lieferbar: https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+4070.html

Lurtz
2023-04-13, 22:30:20
Gibts das Redfall-Bundle nicht zur 4070? :uponder:

Ich sagte nicht das es auf die Anwendungsart ankommt, sondern auf die Anwendung. Müsste ich die Texturen merklich runter drehen würde ich auch upgraden. Davon war aber keine Rede.

Du musst akzeptieren das nicht alle TLOU oder CP2077@max zocken wollen.
Ach, das kann ich schon. Erstaunlich viele schreien aber lieber was von unoptimierten Spielen, statt einfach nicht zu zocken.
Laut CB und PCGH ist die 4070 in anspruchsvollen Spielen circa 40% schneller als die 3070. Ausserdem bekommst du neben 50% mehr Speicher auch noch bis zu 100% mehr Fps durch FG und eine bessere effiziens. Wenn dir das keine 300€ wert ist kann man es dir heutzutage leider nicht mehr recht machen. Andere würden sich über einen so geringen Wertverlust freuen ;)
Ist mir schon klar dass ich wegen meines damaligen Glückskaufs in einer relativ entspannten Situation bin :)
Ist ja auch nicht dramatisch, TLOU war damals auf der PS3 zwar eins meiner Lieblingsspiele, aber ob ich jetzt noch ein Jahr (und weitere Patches) abwarte oder nicht ist dann auch relativ egal. Ich befürchte nur, es wird nicht das einzige Beispiel bleiben wo die 3070 trotz genügend Leistung ausfallen wird.

Troyan
2023-04-13, 22:33:09
Ne, ist vorbei. Gibt was mit Overwatch 2. Kein Plan, ob man das verkaufen kann...
https://www.nvidia.com/en-us/geforce/news/overwatch-2-ultimate-battle-pass-geforce-rtx-40-series-bundle/

Lurtz
2023-04-13, 22:35:03
Scheiße, dachte das würde noch länger laufen :facepalm: Und das TLOU-Bundle bei AMD läuft auch am 15. ab... FOMO intensifies :ugly:

crux2005
2023-04-13, 23:01:41
Ja, das hat NV absichtlich so gemacht. Bis 11. April lief das Redafall Bite-Back Bundle. Siehe: https://www.3dcenter.org/news/news-des-16-maerz-2023

Das neue Overwatch 2 Ultimate Battle Pass Bundle können sie echt behalten.

Scheiße, dachte das würde noch länger laufen :facepalm: Und das TLOU-Bundle bei AMD läuft auch am 15. ab... FOMO intensifies :ugly:

Verschwindet ja nicht aus Steam. :D :freak:

Lurtz
2023-04-13, 23:09:22
Ja, hätte ich mir denken können. Naja, macht einen Kauf gerade nicht attraktiver da ich mir Redfall irgendwann eh geholt hätte (wobei das sicher wieder extrem schnell im Preis sinken wird).

crux2005
2023-04-13, 23:12:01
Ja, hätte ich mir denken können. Naja, macht einen Kauf gerade nicht attraktiver da ich mir Redfall irgendwann eh geholt hätte (wobei das sicher wieder extrem schnell im Preis sinken wird).

Das denke ich auch. Aus Erfahrung kann ich nur sagen das es nicht gut ist wenn ein Spielebundle die Kaufentscheidung beeinflusst.

crux2005
2023-04-13, 23:18:16
Habe ich alles schon, in seinem Beratungs Thread probiert

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=614585

Ist hoffnungslos. Keine Option sagt ihm zu.

Ich kann ihn verstehen. Finde die Lage was Grafikkarten angeht sehr schlecht. Würde mich aktuell bei jedem Kauf wie verarscht vorkommen. Sei es 4070, 4070 Ti, 4080, 4090 oder AMD Äquivalent.

DrFreaK666
2023-04-13, 23:19:57
Laut CB und PCGH ist die 4070 in anspruchsvollen Spielen circa 40% schneller als die 3070...

Nur hat Lurtz keinen 13900K sondern 12500. Wie viel von den 40% bleiben am Ende noch übrig?

crux2005
2023-04-13, 23:26:51
pjaxUCPqqbI

Alleine die Tatsache das sie Platz für 8 RAM Chips haben macht mich sauer.

Nur hat Lurtz keinen 13900K sondern 12500. Wie viel von den 40% bleiben am Ende noch übrig?

Konnte keine genauen Benchmarks finden. Das hier hat den 13400:

_TfL4y5givE

mehr als 10% in 1440p sollten es geschätzt nicht sein.

Ex3cut3r
2023-04-13, 23:41:45
Nur hat Lurtz keinen 13900K sondern 12500. Wie viel von den 40% bleiben am Ende noch übrig?

Wtf? Ich habe damals einen R5-3600 mit einer 3080 Ti gepaart für 1440p. Und war nirgends CPU limitiert, außer in Deathloop. Was soll nun mit einem 12500 (welcher 30% schneller ist, als ein 3600) und einer 4070 (Ti) passieren?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12878486&postcount=4959

https://abload.de/img/screenshot2023-04-132ajc5o.png

SentinelBorg
2023-04-13, 23:49:56
Sie hat den doppelten Speicher wie die PS4, ergo wirds über kurz oder lang auf 16GB Vram am PC hinauslaufen. Die 12GB sehe ich demnächst eher als Mindestvoraussetzung an. Eine PS4 hatte insgesamt 8GB und zum Lebensende bzw. kurz davor dieser war/ist diese Menge an Vram am PC bereits oft zu wenig.
Wobei Games nur 12.5 GB von den 16 insgesamt nutzen können. Ziehst dann 1 bis 2 GB mindestens ab für nicht Grafik Gedöns und hast dann so 10 bis 11 GB die zur Berechnung einer Szene ins VRAM passen müssen.

Als 8 GB am PC zu wenig wurden, war das meist bereits wegen auf der PS4 nicht vorhandenen Zusatzoptionen wie RT und einer generell höheren Auflösung.
Genauso wie BF3 auf dem PC deutlich bessere Texturen hatte und mit höheren Auflösungen (Screen, Shadowmaps) gespielt wurde als auf den Konsolen.

aufkrawall
2023-04-14, 00:10:30
Als 8 GB am PC zu wenig wurden, war das meist bereits wegen auf der PS4 nicht vorhandenen Zusatzoptionen wie RT und einer generell höheren Auflösung.
Und höherer Texturdetail-Stufen wie in WD Legion. In CP77 gibts ja auf der höchsten Stufe auch nur Grütze, was manch einer hier wohl als "optimiert" bezeichnen würde. :freak:

DrFreaK666
2023-04-14, 03:11:10
Wtf? Ich habe damals einen R5-3600 mit einer 3080 Ti gepaart für 1440p. Und war nirgends CPU limitiert, außer in Deathloop. Was soll nun mit einem 12500 (welcher 30% schneller ist, als ein 3600) und einer 4070 (Ti) passieren?

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12878486&postcount=4959

https://abload.de/img/screenshot2023-04-132ajc5o.png

Keine Ahnung.
Hab auch keine Ahnung was der Benchmark genau zeigt

dargo
2023-04-14, 06:10:42
dafür das das Radeon 1st gen RT gegen NV 3rd gen RT ist, sind die Differenzen geradezu lächerlich.
Anstatt sich Balken anzusehen, sollten einige auch mal die Zahlen dazu betrachten.
Da sprichst du gerade einen sehr guten Punkt an. Aber das kommt halt davon wenn die üblichen RT-Trolle immer nur an die eigene Nase mit der schnellsten und teuersten Hardware zur jeweiligen Generation denken und argumentieren anstatt sich einen Überblick über die gesamte Gamingcommunity zu verschaffen. Vor allem mit dem Hinblick... welche RT-Performance bekomme ich aktuell im wichtigen Mainstream? Und wenn man das ganze jetzt unbedingt nur auf RT runterbrechen möchte... was bekommen wir jetzt mit der RTX 4070? Ähnliche Performance wie vor über zwei Jahren bei der RTX 3080 10GB für 100$ weniger UVP, bei Raster sieht es nicht anders aus. Wow... was für ein Fortschritt. :uclap: Zudem sind 599$ nicht mal Mainstream, dafür muss man RTX 4060 (wenn nicht sogar RTX 4050) noch abwarten um sich einen besseren Überblick zu verschaffen.

Wobei Games nur 12.5 GB von den 16 insgesamt nutzen können. Ziehst dann 1 bis 2 GB mindestens ab für nicht Grafik Gedöns und hast dann so 10 bis 11 GB die zur Berechnung einer Szene ins VRAM passen müssen.

Afaik können DEVs auf der PS5 bis zu 14,5GB für Games nutzen. Ist aber im Endeffekt egal da du das mit einem PC eh nicht vergleichen kannst. Stichwort gemeinsamer Speicher. Dadurch sparst du dir so einige Kopiervorgänge. Am PC kannst du diesen Nachteil nur mit der üblichen Brechstange erschlagen... mehr Speicher. Lustig wird das dann aber so richtig wenn eine PS5 Pro mit 32GB Speicher kommt. :D Aber das steht noch in den Sternen wann es soweit ist. Sofern es überhaupt einen "Refresh" der PS5 geben wird wird dieser schon alleine aus Abwärtskompatibilitätsgründen wohl eher wieder mit nur 16GB kommen. War glaube ich bei PS4 und PS4 Pro auch schon so. Mehr Speicher dann eher mit einer PS6, zumindest würde ich das so orakeln.

Edit:
Nee... gab doch eine kleine Änderung bei der PS4 Pro.
https://www.pcgameshardware.de/Playstation-4-Pro-Konsolen-264565/News/Besitzt-1-GByte-zusaetzlichen-DDR3-Speicher-1211157/

Durch den zusätzlichen 1GB DDR3 konnten nun die DEVs 0,5GB mehr vom schnellen GDDR5 für Games verwenden.

dildo4u
2023-04-14, 06:58:44
Aufrüst Guide vs 1070,2070,3070.


08TWw7zv5hA

Sardaukar.nsn
2023-04-14, 08:07:52
Aufrüst Guide vs 1070,2070,3070.


https://youtu.be/08TWw7zv5hA

Fand ich ganz interessant.

https://i.imgur.com/pc80uKB.jpg

Rancor
2023-04-14, 08:26:24
Ich weiß halt nicht warum hier die 4070 in RT mit der 6800XT verglichen wird. Jeder weiß das RDNA 2 Müll ist im RT Bereich, das ist doch nun nichts neues.

Wer RT will kauft ne 4070, wer VRAM und mehr Rohleistung will ne 6800XT. Eigentlich recht easy.

basix
2023-04-14, 08:55:32
https://youtu.be/pjaxUCPqqbI

Alleine die Tatsache das sie Platz für 8 RAM Chips haben macht mich sauer

Und was bringt dir das, wenn AD104 nur 192bit vom Chip her unterstützt? Nichts. 192bit = 6*32bit = 6 VRAM Chips

Für mich macht das mit den 8 VRAM Chips nur Sinn, wenn AD103 auch auf das selbe PCB passen würde. Dazu müssten AD103 und AD103 vom Package her pinkompatibel sein. Von Auge her sind sie zumindest etwa gleich gross. Und die Anordnung der VRAM Packages zusammen mit der Package-Seite, wo bei AD103 & AD104 die PCIe Lanes rauskommen, würde ebenfalls passen.
Ich nehme also an, dass man AD103 auf dieses PCB packen kann. Mit allenfalls max. 250-300W TDP.

Thunder99
2023-04-14, 08:56:09
Und höherer Texturdetail-Stufen wie in WD Legion. In CP77 gibts ja auf der höchsten Stufe auch nur Grütze, was manch einer hier wohl als "optimiert" bezeichnen würde. :freak:

Dafür gibt es ja die Mod Szene welche die Arbeit macht :freak:. HD Rework Texturen wurden schon angekündigt für CP77.

sun-man
2023-04-14, 09:00:14
Also zumindest scheint der Krempel lieferbar. Die Apotheke ARLT hat die Asus in 17 Filialen z.B., ne Asus.

dargo
2023-04-14, 09:00:24
Weiß eigentlich jemand was da bei der 4070 in Metro EE kaputt ist?
https://www.igorslab.de/wp-content/uploads/2023/04/Metro-Exodus-EE-FPS-1440p-DX12-Ultra-RT-High-Reflection-Hybrid.png

Am Speicher kann das eigentlich nicht liegen, sowohl die 3080TI als auch die 4070TI haben die gleiche Menge. Selbst die 3080 10GB kommt da besser bei P1 weg.

Exxtreme
2023-04-14, 09:04:50
Weiß eigentlich jemand was da bei der 4070 in Metro EE kaputt ist?
https://www.igorslab.de/wp-content/uploads/2023/04/Metro-Exodus-EE-FPS-1440p-DX12-Ultra-RT-High-Reflection-Hybrid.png

Am Speicher kann das eigentlich nicht liegen, sowohl die 3080TI als auch die 4070TI haben die gleiche Menge. Selbst die 3080 10GB kommt da besser bei P1 weg.

Die 1%-Minimum-FPS-Messungen sind immer recht problematisch weil es da doch recht wahrscheinlich ist, dass man durch einen Zufall schlechte FPS zusammenbekommt. Igor hätte die Messungen wiederholen sollen wenn sie so unstimmig sind.

dargo
2023-04-14, 09:05:31
P1 sind keine min.fps. Zudem kann ich mir kaum vorstellen, dass Igor nur einen Durchlauf pro Game macht, das wäre sehr unprofessionell. Möglicherweise ein Treiber-Fuckup.

Exxtreme
2023-04-14, 09:11:32
Im Grunde hat diese Messung aber diesen Zweck. Man nimmt 1% der schlechtesten FPS. Und das kann schlicht Zufall sein, dass es in dieser Messung so viele niedrige FPS gab. Also ich hätte die Messung wiederholt.

Gut, eine andere Erklärung wäre ein Treiber-Fail.

dildo4u
2023-04-14, 09:24:25
Sieht hier OK aus vielleicht ein Problem mit Rebar soll ja manchmal Probleme mit Nvidia machen.

Der nutzt ein 3950X könnte sein das es hier abgeschaltet ist.

https://overclock3d.net/reviews/gpu_displays/nvidia_geforce_rtx_4070_founders_edition_review/13

Laut GPU-Z kein Rebar

https://www.overclock3d.net/reviews/gpu_displays/nvidia_geforce_rtx_4070_founders_edition_review/3

dargo
2023-04-14, 09:31:51
Wäre dann ein Treiber Fuckup. Andere Karten mit 10-12GB haben das Problem bei Igor nicht.

dildo4u
2023-04-14, 09:33:31
Hat er alle anderen Karten mit Rebar neu gebencht das ist die Frage.

dargo
2023-04-14, 09:37:25
Verstehe die Frage nicht. Du meinst Igor macht nur Copy & Paste bei älteren Grafikkarten? Das wäre wieder sehr professionell. :freak: Und mit rBar testet nahezu jeder mit halbwegs aktuellen Unterbau.

sun-man
2023-04-14, 09:49:10
Naja, der Test bei Igor "zeigt" mir doch nur das ich keine AMD möchte.
Auch wenn das alles nur in 4k und nicht in WQHD ist....Plaque und Hogwards sehen mies aus. Vielleicht deute ich das natürlich falsch. Aber immer wieder von "In Zukunft ist VRAM der Killer, kauft Euch ne AMD" zu reden und dann brechen die bei, vermeintlich, schlechten Ports so ein? Ich weiß ja nicht wo....ne 7*** von AMD ist jetzt auch nicht billig.

dildo4u
2023-04-14, 09:54:41
Das sieht die Masse genau so wäre der Abverkauf erfolgreich hätten wir die neuen AMD Karten 600€ machen weder für Ampere noch RDAN2 Sinn da müssen dickere Rabatte her.

Das gefällt der Rest nicht 6800 für 470$.

https://videocardz.com/newz/amd-radeon-rx-6800-drops-to-469-while-rtx-4070-is-still-in-stock

StartIT27
2023-04-14, 09:59:59
Mal ein paar Zahlen bis zurück inklusive Kepler (in dem Fall 7 Series). Ich habe das Verhältnis aus FPUs der jeweiligen SKU zum vollen Top Dog bis inkl Ampere betrachtet.


Mittelwert:
**60 SKU: 36,3%
**70 SKU: 52,4%
**80 SKU: 71,3%

Minimum (schlechtester Fall):
**60 SKU: 33,3%
**70 SKU: 50,0%
**80 SKU: 63,8%

Und nun Ada SKUs:
4060: 20,8%
4070: 31,9 %
4080: 52,7%

Alle SKU Bezeichnungen haben sich um ein Level nach oben verschoben. Meint:

1.) Eine 4080 wäre eigentlich eher eine 4070.
2.) Eine 4070 wäre eigentlich eine 4060
3.) eine 4060 (unreleased) wäre eigentlich eine 4050/ti.

Und trotz dessen sind die neuen SKUs (nur auf den Namen bezogen) teurer geworden. Würde man sie einordnen mit dem was sie sind, wäre es noch schlimmer. (3060 als tatsächliche Vorgängerin der "4070" hatte eine UVP von 329 EUR zum Launch. Die 4070 hat eine UVP von 659 EUR. Also eine bisher nie dagewesene tatsächliche Preissteigerung.)

Ich will nicht sagen, dass AMD hier besser wäre - aber in die historische Einordnung der FPU Ratio ist es schon ein geschickt eingefädelte Trickery. :D
Dank der überhöhten Preise wirken die 659 € absolut (ohne Referenz) nicht mehr teuer - aber in Relation zur Historie gesetzt sieht es anders aus.

Hier die napkin math dazu:
https://abload.de/thumb/historical_overview_geaf2f.png (https://abload.de/image.php?img=historical_overview_geaf2f.png)

Vielen Dank für diesen Beitrag und die korrekte Einordnung der 4070.

Exxtreme
2023-04-14, 10:02:55
Ist halt wieder die Frage wieviele Altbestände die Händler und AMD und Nvidia noch auf Lager haben. Hat man sehr viel auf Lager und macht zu dicke Rabatte dann gibt es womöglich Verluste ohne Ende. Und das wollen sie auch nicht. Die haben halt zuviel für Cryptomining produziert.

Schade, dass Intel nicht in die Pushen kommt. Eine Grafikkarte auf 4070-Level mit 16 GB VRAM für 500 EUR wäre richtig gut gewesen. Und Intel hat das Problem nicht, dass sie auf zu vollen Lagern sitzen.

dargo
2023-04-14, 10:08:13
Naja, der Test bei Igor "zeigt" mir doch nur das ich keine AMD möchte.
Auch wenn das alles nur in 4k und nicht in WQHD ist....Plaque und Hogwards sehen mies aus. Vielleicht deute ich das natürlich falsch. Aber immer wieder von "In Zukunft ist VRAM der Killer, kauft Euch ne AMD" zu reden und dann brechen die bei, vermeintlich, schlechten Ports so ein? Ich weiß ja nicht wo....ne 7*** von AMD ist jetzt auch nicht billig.
Du hast da irgendwo einen Denkfehler. Wenn für dich vom Budget eh nur eine RTX 4070 passt dann hast du noch keinen Gegner von AMD in der neuen Gen da. Der kommt erst mit N32 (RX 7800XT/RX 7700XT) voraussichtlich im Herbst.

Ist halt wieder die Frage wieviele Altbestände die Händler und AMD und Nvidia noch auf Lager haben.
Was heißt hier Altbestände? :tongue: AMD muss weiter @7nm einige N21 und alles drunter produzieren. Oder was sollen die deiner Meinung nach unterhalb N31 anbieten? Nichts anderes macht Nvidia seit Ende 2022. Mittlerweile wird ein Release einer kompletten neuen Gen dermaßen stark über mehrere Monate gedehnt, dass dir auch keine andere Möglichkeit bleibt.

Raff
2023-04-14, 10:15:53
Verstehe die Frage nicht. Du meinst Igor macht nur Copy & Paste bei älteren Grafikkarten? Das wäre wieder sehr professionell. :freak: Und mit rBar testet nahezu jeder mit halbwegs aktuellen Unterbau.

Hier aktuelle Mexodus-EE-Werte ohne Auffälligkeiten: (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/4/)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83480&stc=1&d=1681460130

MfG
Raff

dargo
2023-04-14, 10:24:13
Hier aktuelle Mexodus-EE-Werte ohne Auffälligkeiten: (https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Tests/Preis-Release-Specs-Founders-Edition-1417027/4/)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83480&stc=1&d=1681460130

Ok... dann hat womöglich Igor da irgendwo einen Fehler drin. Der ist mir schon mit den Fantasieverbräuchen vom 5800X3D sowie 7800X3D negativ aufgefallen. :uponder:

btw.
Aus deinem Bild geklaut.

Metro EE - 1440p:
RTX 4070 --> 97,5fps avg, 78fps P1
RX 6800XT (alte Gen!) --> 81,9fps avg, 71fps P1

Fazit: RX 6800XT bei RT Schrott. :D Eine RTX 2080TI übrigens dann auch. ;)

Raff
2023-04-14, 10:34:54
Metro Exodus EE ist ein Paradebeispiel, wie man RT effizient implementiert. :) Man sollte aber dazusagen, dass PCGH mit der RT-Qualität "Normal" testet, was gerade RDNA 2 zugute kommt - das weniger rauschige "Ultra" klatscht im Vergleich recht ordentlich, wobei die RTX-GPUs schwächer einbrechen und somit die Unterschiede größer werden.

MfG
Raff

dargo
2023-04-14, 10:48:49
Schon klar... ich kann auch jeder Hardware so ganz ohne RT das Genick brechen wenn ich möchte. ;)

Troyan
2023-04-14, 10:54:11
Absolut beeindruckend, wieviel schneller die 4070 gegenüber der 6800XT ist:
Lego: +42%
Riftbreaker: +52%
Doom: +40%
Dying Light 2: +56%
F1 21: +25%
Ghostwire: +37%

Macht bei den Spielen im Schnitt +42%.

Prinzenrolle
2023-04-14, 12:43:00
Einfach herrlich der Igor mit seinen Artikeln wenn man das Zeugs liest, insbesondere das was nicht geschrieben ist (zwischen den Zeilen) :D

Ach der Igor, beschwört mal wieder irgendwelche schlimmen Qualitätsmängel, um sie dann im nächsten Schachtelsatz wieder zu relativieren.
Wenn das nicht so häufig vorkäme wäre sein süffisanter Styl ganz nett.

Absolut beeindruckend, wieviel schneller die 4070 gegenüber der 6800XT ist
Wieso bewirbst du dich nicht beim Nvidia Marketing? Ich sehe da keinen Unterschied.;)

Ich will nicht sagen, dass AMD hier besser wäre - aber in die historische Einordnung der FPU Ratio ist es schon ein geschickt eingefädelte Trickery. :D

Herzlichen Dank für den Aufwand und die Einordnung.
Bei den gestiegenen Waferkosten wird das in Zukunft noch schlimmer werden.

sun-man
2023-04-14, 13:29:17
Manchmal finde ich es ja Schade das auch Leute wie "Borsti" Lars Weinand da kaum etwas öffentlich machen.

Troyan
2023-04-14, 13:35:14
Wieso bewirbst du dich nicht beim Nvidia Marketing? Ich sehe da keinen Unterschied.;)


Zahlen nennen, ist für dich Marketing? :freak:

LEGO® Builder's Journey kostet 17€ bei Steam. Kleines Indie-game, was top aussieht. Kauft man deswegen nicht Grafikkarten für über 500€, um auch bestmögliche Grafik zu erhalten?

Langlay
2023-04-14, 13:39:32
Zahlen nennen, ist für dich Marketing? :freak:


Du machst Cherrypicking. Kein Benchmark ohne RT und dann auch gerne die starken Ausreiser.

Das Navi21/31 in RT keinen Blumentopf gewinnen sollte wohl allen klar sein.

Du gibts halt kein objektives Bild wieder, sondern es ist immer so Verzerrt das Nvidia in möglichst guten Licht steht.

Troyan
2023-04-14, 13:46:45
Na, Cherrypicking ist sowas hier:
https://gamegpu.com/images/2023/ASUS_GeForce_RTX_4070_DUAL_OC/test/t1920.png
https://gamegpu.com/test-video-cards/obzor-i-testirovanie-videokarty-asus-geforce-rtx-4070-dual-oc

Oder sowas von Digitalfoundry:
https://i.imgur.com/lvS9ewS.jpg

Ein 17€ Indie-Spiel mit Ultra-Grafikeinstellung ist dagegen einfach nur ein 17€ Indie-Spiel mit Ultra-Grafikeinstellung. Fragt man sich echt nicht, warum man bei über 500€ bei einem 17€ Indie-Spiel noch so starke Einbußen akzeptieren sollte?

Prinzenrolle
2023-04-14, 14:42:36
Oder sowas von Digitalfoundry:

Die haben ja noch 10 weitere Spiele getestet, insofern kein Cherry Picking.

Ex3cut3r
2023-04-14, 15:03:16
15 FPS mit der 6800 XT mit FSR2 ~ Brutal X-D

Auf der anderen Seite, 4070 mit DLSS 2 und FG = x5,5 zur 6800 XT. Jajaja, VRAM. ;D

DrFreaK666
2023-04-14, 15:06:58
Na, Cherrypicking ist sowas hier:
https://gamegpu.com/images/2023/ASUS_GeForce_RTX_4070_DUAL_OC/test/t1920.png
https://gamegpu.com/test-video-cards/obzor-i-testirovanie-videokarty-asus-geforce-rtx-4070-dual-oc

Oder sowas von Digitalfoundry:
https://i.imgur.com/lvS9ewS.jpg

Ein 17€ Indie-Spiel mit Ultra-Grafikeinstellung ist dagegen einfach nur ein 17€ Indie-Spiel mit Ultra-Grafikeinstellung. Fragt man sich echt nicht, warum man bei über 500€ bei einem 17€ Indie-Spiel noch so starke Einbußen akzeptieren sollte?

Du behauptest tatsächlich kein Cherry-Picking zu betreiben? :ugly:
Wo bleiben dann die Vergleiche, bei denen die 4070 schlechter abschneidet als eine günstigere 6800XT?

Lurtz
2023-04-14, 15:08:45
Man muss die Bedingungen nur genug anpassen und die 4070 gewinnt immer. Alles andere ist dann Cherrypicking und/oder schlecht optimierte Spiele.

dargo
2023-04-14, 15:09:53
Man muss die Bedingungen nur genug anpassen und die 4070 gewinnt immer. Alles andere ist dann Cherrypicking und/oder schlecht optimierte Spiele.
Ich mag deinen Humor. ;D (y)

phoenix887
2023-04-14, 15:13:45
15 FPS mit der 6800 XT mit FSR2 ~ Brutal X-D

Auf der anderen Seite, 4070 mit DLSS 2 und FG = x5,5 zur 6800 XT. Jajaja, VRAM. ;D


Wie im Kindergarten, hier geht es um RT Overdrive, wenn Nvidias Top Dogs, dafür keinen VRAM hätten wäre es echt traurig....

Bin paar Wochen hier aktiv und glaube brauche von dem Forum hier wieder ne Auszeit. ;D

Ex3cut3r
2023-04-14, 15:22:50
Wieso? Ist es nunmal mit RT (Overdrive) so. Oder nicht? Passt es dir nicht? Hast du vlt. andere Ergebnisse? Oder eine andere Realität?

Exxtreme
2023-04-14, 15:23:02
15 FPS mit der 6800 XT mit FSR2 ~ Brutal X-D

Auf der anderen Seite, 4070 mit DLSS 2 und FG = x5,5 zur 6800 XT. Jajaja, VRAM. ;D

Wobei man fairerweise sagen muss, das Spiel ist mehr eine Techdemo von Nvidia. Und dass man da die Konkurrenz nicht gut aussehen lässt sollte nicht wirklich verwundern. Ist mit Portal RTX genauso. Das wurde AFAIR von Nvidia selbst um RT erweitert.

Ex3cut3r
2023-04-14, 15:24:33
Ist in DL2 aber auch so. Ist das auch eine Nvidia Tech Demo?

DrFreaK666
2023-04-14, 15:26:46
15 FPS mit der 6800 XT mit FSR2 ~ Brutal X-D

Auf der anderen Seite, 4070 mit DLSS 2 und FG = x5,5 zur 6800 XT. Jajaja, VRAM. ;D

Die Geforce ist bei einem Nvidia-Titel mit exzessiv RT und FG schneller.
Überraschung? Nein.
Cherry-Picking? Ja, schon wieder

phoenix887
2023-04-14, 15:29:10
Wobei man fairerweise sagen muss, das Spiel ist mehr eine Techdemo von Nvidia. Und dass man da die Konkurrenz nicht gut aussehen lässt sollte nicht wirklich verwundern. Ist mit Portal RTX genauso. Das wurde AFAIR von Nvidia selbst um RT erweitert.
Die Geforce ist bei einem Nvidia-Titel mit exzessiv RT und FG schneller.
Überraschung? Nein.
Cherry-Picking? Ja, schon wieder


Das ist meine Realität.

Troyan
2023-04-14, 15:33:03
Wobei man fairerweise sagen muss, das Spiel ist mehr eine Techdemo von Nvidia. Und dass man da die Konkurrenz nicht gut aussehen lässt sollte nicht wirklich verwundern. Ist mit Portal RTX genauso. Das wurde AFAIR von Nvidia selbst um RT erweitert.

Aber AMD bezahlte Spiele mit Fake-Raytracing und absurden Speicheranforderungen sind keine Techdemos? Wo ist der Unterschied zwischen TLoU und Cyberpunk Overdrive?

Man muss die Bedingungen nur genug anpassen und die 4070 gewinnt immer. Alles andere ist dann Cherrypicking und/oder schlecht optimierte Spiele.

Bin da bei dir: Nur noch "Low" Preset. In TLoU ist "Low" 55% schneller als "Ultra": https://www.computerbase.de/2023-03/the-last-of-us-part-i-benchmark-test/#abschnitt_4_grafikpresets_mit_ziemlich_grossen_auswirkungen

DrFreaK666
2023-04-14, 15:36:08
Aber AMD bezahlte Spiele mit Fake-Raytracing und absurden Speicheranforderungen sind keine Techdemos? Wo ist der Unterschied zwischen TLoU und Cyberpunk Overdrive?

TLoU hat kein RT und die Umsetzung war miserabel. Noch anderes Beispiel parat?

Pumpi74
2023-04-14, 15:44:23
Die Geforce ist bei einem Nvidia-Titel mit exzessiv RT und FG schneller.
Überraschung? Nein.
Cherry-Picking? Ja, schon wieder

Gibt es denn auch solche Beispiele für tolle Spielerweiterungen und optimierte Anpassung für AMD Karten ? Oder ist es vielleicht so das nVidia überall locker mithalten kann bei dem was AMD unterstützt hat ? Gibt es eine AMD Hürde die von RTX Karten nicht genommen werden kann ? Ausser extrem schlecht polierte Spiele die viel Vram brauchen obwohl das die Optik gar nicht hergibt ?

AMD verdient gutes Geld, es ist völlig unverständlich das sie es nicht für nötig haben zumindest beim Thema RT auf der Höhe der Zeit zu sein. AMD hat sich bewusst bei dem Thema für die Sparbrötchen Variante entschieden. Das ist eben auch Teil der Realität. Das man bei Features wie DLSS und FG immer nur hinterher hinkt ist doch eigentlich traurig genug. Da könnten sie doch wenigstens die Basiscs liefern.

DrFreaK666
2023-04-14, 15:48:11
FSR 3 soll ja "bald" kommen. Keine Ahnung wie lange dieses bald sein könnte.
Und ich fange sicherlich nicht mit Cherry Picking an. Das überlasse ich anderen.

Spring
2023-04-14, 15:48:11
Gibt es denn auch solche Beispiele für tolle Spielerweiterungen und optimierte Anpassung für AMD Karten ? Oder ist es vielleicht so das nVidia überall locker mithalten kann bei dem was AMD unterstützt hat ? Gibt es eine AMD Hürde die von RTX Karten nicht genommen werden kann ? Ausser extrem schlecht polierte Spiele die viel Vram brauchen obwohl das die Optik gar nicht hergibt ?

AMD verdient gutes Geld, es ist völlig unverständlich das sie es nicht für nötig haben zumindest beim Thema RT auf der Höhe der Zeit zu sein. AMD hat sich bewusst bei dem Thema für die Sparbrötchen Variante entschieden. Das ist eben auch Teil der Realität. Das man bei Features wie DLSS und FG immer nur hinterher hinkt ist doch eigentlich traurig genug. Da könnten sie doch wenigstens die Basiscs liefern.

[ ] Du hast den Ansatz von AMD verstanden (via Shader = günstiger, aber nicht so schnell wie spezialisierte Einheiten von nvidia, die die Karte teurer machen)

ist ja nicht so, das dies schon von Exxtreme und co schon x mal vorgekaut wurde.

aufkrawall
2023-04-14, 16:02:36
Ist in DL2 aber auch so. Ist das auch eine Nvidia Tech Demo?
Ist es nicht, läuft seit den letzten Treibern deutlich schneller auf Radeons. Habe mit der 6700 XT mit RT max. mehr fps als mit der 3060.

DrFreaK666
2023-04-14, 16:08:41
sEJC5QDt6rA

Durchaus spielbar in 1440p. Aber spielt das heutzutage noch jemand?

Disco_STFU
2023-04-14, 16:11:52
Durchaus spielbar in 1440p. Aber spielt das heutzutage noch jemand?

Troyan 24/7 :ulol:

Exxtreme
2023-04-14, 16:20:43
AMD verdient gutes Geld, es ist völlig unverständlich das sie es nicht für nötig haben zumindest beim Thema RT auf der Höhe der Zeit zu sein. AMD hat sich bewusst bei dem Thema für die Sparbrötchen Variante entschieden. Das ist eben auch Teil der Realität. Das man bei Features wie DLSS und FG immer nur hinterher hinkt ist doch eigentlich traurig genug. Da könnten sie doch wenigstens die Basiscs liefern.

Naja, AMD respektive ATi waren schon öfter recht innovativ. Aufgenommen wurden die Features vom Markt aber nie. Sprich, die Innovationen waren am Ende rausgeworfenes Geld. Ich glaube, den Fehler machen sie so schnell nicht wieder.

Und DLSS(1, 2, 3) sind proprietäre Dinge. Da können sie nur hinter herhinken. Direkt implementieren dürfen sie es nicht. Und es kann sein, dass man diese "Features" ala FSR oder FG bei AMD nicht wirklich als Features ansieht. Da das aber von den Reviewern so extrem gehyped wird, man man was Ähnliches um eine weitere Checkbox abhaken zu können.

aufkrawall
2023-04-14, 16:26:28
Und DLSS(1, 2, 3) sind proprietäre Dinge. Da können sie nur hinter herhinken.
Nicht wirklich. FSR 2 hätte es auch schon vor zig Jahren geben können, anstatt Unfug wie Radeon Boost.

Langlay
2023-04-14, 16:28:44
Und DLSS(1, 2, 3) sind proprietäre Dinge. Da können sie nur hinter herhinken. Direkt implementieren dürfen sie es nicht. Und es kann sein, dass man diese "Features" ala FSR oder FG bei AMD nicht wirklich als Features ansieht. Da das aber von den Reviewern so extrem gehyped wird, man man was Ähnliches um eine weitere Checkbox abhaken zu können.

FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

aufkrawall
2023-04-14, 16:30:37
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.
Du meinst wohl eher FG, ansonsten wäre deine Aussage + Ableitung für den Maus-Input sinnfrei.

dargo
2023-04-14, 16:33:03
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.
Für Forumtrolle scheint es als "Waffe" zu reichen. ;) Es ist ein weiterer Marketingstunt, mehr nicht. Bei längeren Balken bekommt die Meute einen Steifen. Hauptsache mooore fps. 111elf

Exxtreme
2023-04-14, 16:35:14
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

FG wäre nicht so schlecht bei Spielen, die im CPU-Limit krebsen oder bei Budget-Grafikkarten, die nicht so die Power haben. Natürlich wenn der VRAM ausreicht. Und Letzteres könnte bei der RTX 4070 zum Problem werden. FG frisst bis zu 1,5 GB an VRAM. Sprich, aus 12 GB werden 10,5 GB.

Troyan
2023-04-14, 16:35:22
https://youtu.be/sEJC5QDt6rA

Durchaus spielbar in 1440p. Aber spielt das heutzutage noch jemand?

Laut Steam 14k Leute. TLoU nur 4K. :cool:

FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

Weil das Spielgefühl viel flüssiger ist bei 120 Frames als bei 60 Frames. Latenz ist sowas wie Phantom-Schmerzen: Du weißt, sie ist höher, also "fühlst" du sie. Aber in der Wirklichkeit merkst du nichts.
Computerbase hat bei Hogwarts die Latenz gemessen: https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/2/#abschnitt_dlss_3_in_hogwarts_legacy_auf_der_rtx_4070

Nativ + Reflex hat die selbe Latenz wie DLSS P in 4K ohne Reflex und das bei der Hälfte der Frames. DLSS Quality + Reflex + FG ist dann besser als DLSS Quality ohne Reflex.

Langlay
2023-04-14, 16:36:48
Du meinst wohl eher FG, ansonsten wäre deine Aussage + Ableitung für den Maus-Input sinnfrei.

JA mit FSR/DLSS meinte ich die nur Upscaler. Also FSR1.0 FSR 2.X und DLSS 1.X und 2.X.

Framegeneration ist für mich FG und nicht DLSS. Finde die DLSS 3.0 Bezeichung verwirrend und bescheuert.

Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

Der Teil bezieht sich nur auf Frame Generation.

aufkrawall
2023-04-14, 16:37:24
Für Forumtrolle scheint es als "Waffe" zu reichen. ;) Es ist ein weiterer Marketingstunt, mehr nicht. Bei längeren Balken bekommt die Meute einen Steifen. Hauptsache mooore fps. 111elf
Ist einfach mal Quatsch. Für langsame Spiele im CPU-Limit ist es einfach nur full of win.

Ob ein nächster Anno-Teil so etwas unterstützen wird, sei natürlich mal dahin gestellt. Das Spiel hat ja immer noch nicht mal TAA...
Viele Spiele mit DLSS 2 via StreamLine erscheinen auch immer noch ohne FG...,

Weiß eigentlich jemand was da bei der 4070 in Metro EE kaputt ist?
https://www.igorslab.de/wp-content/uploads/2023/04/Metro-Exodus-EE-FPS-1440p-DX12-Ultra-RT-High-Reflection-Hybrid.png

Am Speicher kann das eigentlich nicht liegen, sowohl die 3080TI als auch die 4070TI haben die gleiche Menge. Selbst die 3080 10GB kommt da besser bei P1 weg.
Zufall, das Spiel hat je nach Level einfach nur kaputte Frame Times auf Nvidia mit D3D12 im GPU-Limit. Läuft unter Linux mit Vulkan via VKD3D-Proton sauber...

dargo
2023-04-14, 16:55:02
Nativ + Reflex hat die selbe Latenz wie DLSS P in 4K ohne Reflex und das bei der Hälfte der Frames. DLSS Quality + Reflex + FG ist dann besser als DLSS Quality ohne Reflex.
Und wieder der übliche Äpfel/Orangen Vergleich von Troyan. :facepalm: Ich helfe dir mal auf die Sprünge damit du auch Äpfel mit Äpfel verstehst.

DLSS_P + Reflex vs. DLSS_P + FG oder DLSS_Q + Reflex vs. DLSS_Q + FG

In beiden Fällen erhöht FG die Latenz um >50%.

DrFreaK666
2023-04-14, 16:57:50
Laut Steam 14k Leute. TLoU nur 4K. :cool:...

Cool. Es ist ja gar nicht bekannt, dass Sony keine Verkaufserfolge feiert am PC. Dazu ist das Spiel verbuggt.
Man könnte meinen du betreibst Cherry Picking

Troyan
2023-04-14, 17:00:18
Ich helfe dir mal auf die Sprünge:
RTX4070 mit Reflex: 60ms bei 33FPS
6900XT: 110ms (wahrscheinlich) bei 38 FPS

RTX4070 mit Reflex und FG: 84ms bei 52 FPS

Mit welcher Karte möchte man wohl liebers spielen? Hm? Hm?

/Edit: So sieht die Realität aus, wenn Spiele Reflex unterstützen:
https://images.hothardware.com/contentimages/article/3269/content/fortnite-latency-4070-ti-perf.png
https://hothardware.com/reviews/nvidia-geforce-rtx-4070-ti-review-with-asus?page=4

Aber hey, AMD Karten sind natürlich besser. Ob sie nun halbe Frames haben oder die doppelte Latenz.

aufkrawall
2023-04-14, 17:04:43
Nur hat mir Reflex ekelhafte Stocker in Dying Light 2 verursacht und in Miles Morales gerne mal sporadisch die GPU auf 80% Auslastung gelockt. Wie FG, leider auch eine weitere Problemquelle. Kann viel bringen, im Einzelfall will man es dann ggf. doch nicht nutzen...

DrFreaK666
2023-04-14, 17:06:44
Können wir wieder auf das eigentliche Thema zurück? Ja, auch du Troyan

dargo
2023-04-14, 17:10:16
Ich helfe dir mal auf die Sprünge:
RTX4070 mit Reflex: 60ms bei 33FPS
6900XT: 110ms (wahrscheinlich) bei 38 FPS

Cool... jetzt sind wir bei Orangen und Birnen. :popcorn: Du bist besser wie jede Komödie. ;D

Langlay
2023-04-14, 17:10:51
Aber hey, AMD Karten sind natürlich besser. Ob sie nun halbe Frames haben oder die doppelte Latenz.

Wobei man den AMD Karten auch zu gute halte muss das scheinbar kein Anti-Lag benutzt wird. Der Vergleich also auch etwas Äpfel <-> Birne ist. Obwohl sich an der Rankfolge mit Antilag wohl nichts ändern wird, wäre der Abstand zumindest kleiner.

aufkrawall
2023-04-14, 17:14:59
Wobei man den AMD Karten auch zu gute halte muss das scheinbar kein Anti-Lag benutzt wird. Der Vergleich also auch etwas Äpfel <-> Birne ist. Obwohl sich an der Rankfolge mit Antilag wohl nichts ändern wird, wäre der Abstand zumindest kleiner.
Wenn du den in-game Limiter nutzt, ist der Input Lag genau so niedrig wie mit Reflex. Muss man halt zu 100% der Zeit halten, ist mit "semi-kompetitiven" Details mit TSR aber kein Problem. Lumen kann man mit der 4070 eh vergessen, will man noch irgendeinen Blumentopf treffen. Ständig <110fps sind hier auch mit Reflex völlig inakzeptabel.

Troyan
2023-04-14, 17:16:51
Wobei man den AMD Karten auch zu gute halte muss das scheinbar kein Anti-Lag benutzt wird. Der Vergleich also auch etwas Äpfel <-> Birne ist. Obwohl sich an der Rankfolge mit Antilag wohl nichts ändern wird, wäre der Abstand zumindest kleiner.

Bringt +- 10% bei nVidia und AMD. Reflex ist jedoch vorallem bei "langsameren" Karten von Bedeutung, weil das massiv einwirkt. Eine 4070 mit der halben Leistung einer 4090 ist nicht annährend im CPU-Limit. In Cyberpunk fühlen sich 30FPS mit Reflex fast besser an als 60 FPS ohne.

Reflex wird aufgrund von FrameGeneration in immer mehr Spielen kommen.

TheRealTentacle
2023-04-14, 17:24:12
https://youtu.be/sEJC5QDt6rA

Durchaus spielbar in 1440p. Aber spielt das heutzutage noch jemand?

Ich warte darauf, bis es unter 20€ fällt :biggrin:. Irgendwie hat man mehr von manchen Spielen, wenn man etwas wartet.

robbitop
2023-04-14, 17:46:09
Für Forumtrolle scheint es als "Waffe" zu reichen. ;) Es ist ein weiterer Marketingstunt, mehr nicht. Bei längeren Balken bekommt die Meute einen Steifen. Hauptsache mooore fps. 111elf

Naja es gibt höhere Bewegtschärfe. Muss man natürlich auch die Refreshrate am Monitor haben bei der das lohnt. Zb ein 240 Hz Monitor den man damit dann auch halbwegs ausfahren kann in Bezug auf Bewegtschärfe. Der Inputlag von dann halben frames ist ja trotzdem gut. IMO ist das der primäre Zweck wo es den meisten Nutzen erzeugt. Von 50 oder 60 fps heraus wäre mir der Inputlag auch nicht gut genug.

Lurtz
2023-04-14, 18:00:44
Gibt es denn auch solche Beispiele für tolle Spielerweiterungen und optimierte Anpassung für AMD Karten ? Oder ist es vielleicht so das nVidia überall locker mithalten kann bei dem was AMD unterstützt hat ? Gibt es eine AMD Hürde die von RTX Karten nicht genommen werden kann ? Ausser extrem schlecht polierte Spiele die viel Vram brauchen obwohl das die Optik gar nicht hergibt ?

Du meinst Spiele, die auf Grafikkarten mit zu wenig VRAM nicht vernünftig laufen.

Aber klar, wenn ein nVidia-Spiel besser läuft, liegt es an überlegener Technologie, wenn ein AMD-Spiel schlechter läuft, liegt es schlechter Polierung. Tolles Framing.

The_Invisible
2023-04-14, 18:01:57
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

Es gibt nicht nur Shooter am Spielemarkt, für Anno 1800, FS2020 usw bzw einfach Games wo ein CPU Limit herrscht

Troyan
2023-04-14, 18:09:00
Naja es gibt höhere Bewegtschärfe. Muss man natürlich auch die Refreshrate am Monitor haben bei der das lohnt. Zb ein 240 Hz Monitor den man damit dann auch halbwegs ausfahren kann in Bezug auf Bewegtschärfe. Der Inputlag von dann halben frames ist ja trotzdem gut. IMO ist das der primäre Zweck wo es den meisten Nutzen erzeugt. Von 50 oder 60 fps heraus wäre mir der Inputlag auch nicht gut genug.

Er ist immer geringer als nativ ohne Reflex.

Hier mal Cyberpunk mit meiner 4090 im nativen 3440x1440 mit Raytracing bei 60FPS (100% GPU Auslastung) Ausgangslage - gemessen per nVidia Overlay:
Ohne Reflex: ~44ms
Mit Reflex: ~18ms
Reflex+FG (100FPS): ~23ms
DLSS Q ohne Reflex (100FPS): ~25ms
DLSS Q mit Reflex (100FPS): ~12ms

aufkrawall
2023-04-14, 19:26:52
Mit Reflex: ~18ms
Reflex+FG (100FPS): ~23ms

Nach 1s Nachdenken würde jedem halbwegs fachkundigen Kommentator auffallen, dass dieser Wert kompletter BS sein muss. Selbst DF kamen mit Reflex-Monitor (also Hardware-Messung) auf viel stärkere Latenz-Erhöhungen durch FG im GPU-Limit:
https://youtu.be/6pV93XhiC1Y?t=1198

Aber manch einer würde einem Nvidia-Software-Overlay wohl auch 30fps für 100fps abkaufen. Namen muss ich ja nicht erwähnen...

MAX|HASS
2023-04-14, 20:57:01
Was bedeutet denn der Einlaß von diesem Igor jetzt? Sein erstmal nicht näher benanntes Modell (wahrscheinlich MSI) ist auf Kante genäht? Oder vermutlich alle vergleichbaren Modelle, weil ähnlich günstig zusammengeschustert? Müßte man sich dafür nicht mal alle Modelle ansehen nach der gleichen Messmethodik? Kann ja auch sein, daß er das wirklich gemacht hat und diese eine jetzt wirklich negativ hervorstach.

Gibt es denn generell schon mal eine brauchbare Übersicht der ganzen Modelle abseits FE?

Lurtz
2023-04-14, 21:31:26
Der hier vergleicht schön die angeblichen Problemports, die vor allem auf Karten mit zu wenig VRAM problematisch sind:
VP_aCwPzIfk

If 3070 had 12gb vram, there would be zero reasons to upgrade. They knew that very well

Eigentlich dürfte man als 3070-Käufer rein aus Prinzip keine 4070 kaufen, weil man einfach so hart von nVidia durchgenommen wurde. Es würde nicht mal Sinn ergeben überhaupt nur länger als zwei Minuten über das Upgrade nachzudenken, wenn die 3070 12 GB VRAM hätte.

Thunder99
2023-04-14, 21:42:37
Gibt es denn auch solche Beispiele für tolle Spielerweiterungen und optimierte Anpassung für AMD Karten ? Oder ist es vielleicht so das nVidia überall locker mithalten kann bei dem was AMD unterstützt hat ? Gibt es eine AMD Hürde die von RTX Karten nicht genommen werden kann ? Ausser extrem schlecht polierte Spiele die viel Vram brauchen obwohl das die Optik gar nicht hergibt ?

AMD verdient gutes Geld, es ist völlig unverständlich das sie es nicht für nötig haben zumindest beim Thema RT auf der Höhe der Zeit zu sein. AMD hat sich bewusst bei dem Thema für die Sparbrötchen Variante entschieden. Das ist eben auch Teil der Realität. Das man bei Features wie DLSS und FG immer nur hinterher hinkt ist doch eigentlich traurig genug. Da könnten sie doch wenigstens die Basiscs liefern.
Fällt mir spontan nur FarCry 6 ein :freak:

RTX4070 verkauft sich halt verhalten, ist aber für mich kein Wunder. Inflation, Angst, anscheinend noch gut eindeckt fördern nicht unbedingt ein Upgrade.:confused:

Thunder99
2023-04-14, 21:47:23
Was bedeutet denn der Einlaß von diesem Igor jetzt? Sein erstmal nicht näher benanntes Modell (wahrscheinlich MSI) ist auf Kante genäht? Oder vermutlich alle vergleichbaren Modelle, weil ähnlich günstig zusammengeschustert? Müßte man sich dafür nicht mal alle Modelle ansehen nach der gleichen Messmethodik? Kann ja auch sein, daß er das wirklich gemacht hat und diese eine jetzt wirklich negativ hervorstach.

Gibt es denn generell schon mal eine brauchbare Übersicht der ganzen Modelle abseits FE?
Bei PCGH: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Videos/Custom-Designs-1417473/

crux2005
2023-04-14, 21:51:22
Wobei Games nur 12.5 GB von den 16 insgesamt nutzen können. Ziehst dann 1 bis 2 GB mindestens ab für nicht Grafik Gedöns und hast dann so 10 bis 11 GB die zur Berechnung einer Szene ins VRAM passen müssen.

Als 8 GB am PC zu wenig wurden, war das meist bereits wegen auf der PS4 nicht vorhandenen Zusatzoptionen wie RT und einer generell höheren Auflösung.
Genauso wie BF3 auf dem PC deutlich bessere Texturen hatte und mit höheren Auflösungen (Screen, Shadowmaps) gespielt wurde als auf den Konsolen.

~2,5GB von 16GB waren (bei Release) für das OS reserviert. Den Rest können Entwickler benutzen. Das sind bei mir grob 13,5GB. Wenn das OS jetzt weniger braucht sind es fast 14GB. Dann werden 1-2GB für Spiellogik/Sound verbraucht. Also kommen wir bei 11,5 bis 13GB für Texturen an. Dazu kommt aber noch das die Konsolen schnell neue Texturen aus der SSD laden/dekodieren können. Mit garantierter Geschwindigkeit. So was gibt es leider auf PC nicht.

Thunder99
2023-04-14, 22:38:20
Noch nicht

MAX|HASS
2023-04-14, 23:19:01
Bei PCGH: https://www.pcgameshardware.de/Geforce-RTX-4070-Grafikkarte-279578/Videos/Custom-Designs-1417473/

Ich guck' mir das wohl mal an =)

DrFreaK666
2023-04-14, 23:29:27
Noch nicht

Noch lange nicht als Standard

sun-man
2023-04-15, 08:17:36
Zumindest haben die Händler
- entweder riesige Mengen gekauft
- oder zu wenige kaufen

Im Grunde ist alles und überall lieferbar oder direkt Abholbar. Mal sehen, wann die Preise durchsacken. :D

dildo4u
2023-04-15, 08:34:30
Die Asus Dual ist erstaunlich gut.

qiPTRQoF5aI

Pumpi74
2023-04-15, 08:46:38
Normalerweise werden die ersten Karten ja per Flugzeug geliefert. Zumindest wenn es einen echten Konkurrenzkampf um den Erscheinungstermin gibt. Und die Duellanten ansonsten Konkurrenzfähig sind. Ich denke das nVidia sich die Flugzeugtransportkosten diesmal gespart hat weil AMD ja eh nicht aus dem Knick kommt. Und jetzt sieht man mal wie es ist wenn gleich per Schiff großzügig angelandet wird. Dazu kommt natürlich das viele User in EU bereits ähnlich viel Leistung im Rechner haben. Allein wegen FG upzugraden scheint nicht sonderlich attraktiv. Die 600€ Mauer wird schnell fallen.

gnomi
2023-04-15, 09:15:23
Die Asus Dual ist erstaunlich gut.

https://youtu.be/qiPTRQoF5aI

Habe noch ne alte 2080 Dual.
Die ist auch schon erstaunlich gut. Selbst bis 270 Watt OC @ Super Niveau ging das locker.
Bei lediglich 200 Watt sehe ich noch weniger Notwendigkeit, die teuren Karten mit drei Lüftern zu kaufen.
Von der Wertigkeit gefällt mir nach wie vor jedoch die FE am besten...

Troyan
2023-04-15, 10:29:27
Ist die einzige UVP-Karte neben der FE, wo man das Powerlimit (+8%) erhöhen kann. Alleine das macht es eigentlich schon zum Instant-Buy, wenn man die FE nicht erhalten kann.

DrFreaK666
2023-04-15, 10:55:31
Die 4070er sind keine Instant Buys, wie man sehen kann.

robbitop
2023-04-15, 11:03:03
Lustig wie man sich heute über popelige 8% TDP Erhöhung bei einer umgelabelten 60er als 70er SKU für 659€ noch freuen darf :D
Bis vor ein paar Gens gab es gar kein Powerlimit und als es das dann irgendwann gab konnte man großzügig dieses erhöhen.

Rush
2023-04-15, 11:43:19
Die 4070er sind keine Instant Buys, wie man sehen kann.

Mindfactory hat bisher ~550 St. verkauft. Die scheinen wie Blei im Regal zu liegen und die ersten Händler reagieren. Diverse "einfachere" Modelle wurden gerade auf 639-659 angepasst.

Die Entwicklung der nächsten Monaten wird extrem spannend.

Pumpi74
2023-04-15, 12:25:39
Mindfactory hat bisher ~550 St. verkauft.

[ ] Du hast verstanden das die Daten der ausverkauften Grafikkarten bei Mindfactory Temporär nicht mehr einsehbar sind.

[X] selbst Hardwareredaktionen und Administratoren von großen Hardwareforen haben Probleme damit dies zu verstehen.

Pumpi74
2023-04-15, 13:22:51
https://www.galaxus.de/de/s1/product/msi-geforce-rtx-4070-ventus-3x-oc-12-gb-grafikkarte-25042833?utm_content=1-2&utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc

Bei Galaxus gibt es grad 6% Cashback, das heißt das es die 4070 "MSI-Ventus 3x" für 620€ inklusive Versand gibt.

Nicht schlecht für den Anfang.

Prinzenrolle
2023-04-15, 13:53:26
In beiden Fällen erhöht FG die Latenz um >50%.

Das AMD Pendant zu Troyan?
Den leicht höheren Inputlag, beispielhaft (10ms) in Cyberpunk bei 70FPS mit FG statt 40 ohne,merkst du doch gar nicht, stattdessen erhältst du ein wesentlich flüssigeres Spielgefühl. Alles längst mit Blindvergleichen überprüft.

DLSS 3 ist ein riesiger Schritt nach vorne.

DrFreaK666
2023-04-15, 13:59:29
Das AMD Pendant zu Troyan?
Den leicht höheren Inputlag, beispielhaft (10ms) in Cyberpunk bei 70FPS mit FG statt 40 ohne,merkst du doch gar nicht, stattdessen erhältst du ein wesentlich flüssigeres Spielgefühl. Alles längst mit Blindvergleichen überprüft.

DLSS 3 ist ein riesiger Schritt nach vorne.

Und was sollen die paar Blindvergleiche beweisen? Es gibt auch Menschen, die keinen Unterschied zwischen 60FPS und 120FPS bemerken und trotzdem werden hier dann viele nur den Kopf schütteln.
Ein Youtuber meinte, dass CP mit Overdrive auf der 4070 spielbar ist, aber einen schnellen Shooter würde er so nicht spielen wollen

Hakim
2023-04-15, 14:32:41
https://www.galaxus.de/de/s1/product/msi-geforce-rtx-4070-ventus-3x-oc-12-gb-grafikkarte-25042833?utm_content=1-2&utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc

Bei Galaxus gibt es grad 6% Cashback, das heißt das es die 4070 "MSI-Ventus 3x" für 620€ inklusive Versand gibt.

Nicht schlecht für den Anfang.


Bei 550€ könnte ich schwach werden :)


Schon lustig das die meisten 4070 auf 200w begrenzt sind und einige teuere overclocker Editionen gerade mal 15w zusätzlich zulassen. Bei meiner 3060ti FE geht noch 220W (200w Stock).

Slipknot79
2023-04-15, 16:55:36
12GB Palit Geforce RTX 4070 GamingPro Aktiv PCIe 4.0 x16 (Retail)
Für 679EUR bereits im Mindstar seit afaik heute morgen, nur 1 Karte verkauft. (y)

MAX|HASS
2023-04-15, 17:05:45
Also wen sollen die 20 Piepen Ersparnis jetzt auch locken? 639€ wäre mal ne andere Ansage, aber das will man sich wohl noch nicht geben, auch wegen der Wirkung einer solchen Rabattierung direkt nach Start.

Aber wenn bei deiner Mindstar-Karte Stand jetzt noch 200 Stück verfügbar sind, wurde dann eher nicht eine einzige verkauft? :freak:

Slipknot79
2023-04-15, 17:08:18
1 wurde verkauft, vor 1h war der Ring noch komplett geschlossen. (y)

=Floi=
2023-04-15, 17:12:04
die 7900xtx gehen auch nicht im mindstar.

aufkrawall
2023-04-15, 17:17:26
Das AMD Pendant zu Troyan?
Den leicht höheren Inputlag, beispielhaft (10ms) in Cyberpunk bei 70FPS mit FG statt 40 ohne
Hast du den Link zu DF nicht gesehen/kapiert?
Die testen ohne Angabe der fps mit 4k DLSS-Performance, was ohne PT 100fps oder mehr sein dürften. Und trotz der hohen fps erhöht sich der Input Lag mit FG um 23ms.
Bei 40fps werden es eher >50ms sein. Und entsprechend fühlt sich das natürlich auch komplett scheiße an, ist schon bei 60fps im GPU-Limit so. Einfach mal weniger Blödsinn mit Fantasiezahlen erzählen.

w0mbat
2023-04-15, 19:03:39
Was denkt ihr, wie viel Marge hat eine 4070 für Nvidia? Was verdienen die pro Karte?

Thunder99
2023-04-15, 19:32:09
Weniger als die Ti vor allem. Schätze so 150-200 Dollar

ianm
2023-04-15, 20:10:36
Was denkt ihr, wie viel Marge hat eine 4070 für Nvidia? Was verdienen die pro Karte?

Bei Nvidia gab es im selben Zeitraum hingegen einen Anstieg von knapp über 35 Prozent auf rund 65 Prozent.

https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Nvidia-EVGA-Trennung-Stellungnahmen-Margen-1403582/

Erster Treffer bei Google. Warum glaubst du hat sich EVGA mit 40% Marktanteil in den USA aus dem Markt verabschiedet?

65%... Selbst wenn es bei der 4070 etwas weniger sein sollte, kannst du locker von 50-60% ausgehen.

crux2005
2023-04-16, 00:10:46
Alza.sk zeigt nach ein wenig stöbern an wie viele 4070 die heute verkauft haben: 7 - davon 2x die 630€ Version und dann 5x die teureren 730€+ Versionen. Ist jetzt nicht ganz relevant und mit DE vergleichbar aber die Karten verkaufen sich nicht wie der Händler dachten, weil sie sonst nicht 5+ von jeder Karte bestellt hätten.

Alza.cz als Vergleich sagt das sie 10+ (mehr wird nicht mehr genau angezeigt) 4070 verkauft haben.

Auf der Alza.at oder Alza.de Seite werden solche Daten leider nicht angezeigt.

Was denkt ihr, wie viel Marge hat eine 4070 für Nvidia? Was verdienen die pro Karte?

Würde grob von ~40-45% ausgehen, also grob 250-300 USD verdient NVidia an jeder RTX 4070. Die dicken Margen machen sie aktuell bei 4080, 4090 und natürlich A6000 etc. Karten.

Bei Nvidia gab es im selben Zeitraum hingegen einen Anstieg von knapp über 35 Prozent auf rund 65 Prozent.

https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Nvidia-EVGA-Trennung-Stellungnahmen-Margen-1403582/

Erster Treffer bei Google. Warum glaubst du hat sich EVGA mit 40% Marktanteil in den USA aus dem Markt verabschiedet?

65%... Selbst wenn es bei der 4070 etwas weniger sein sollte, kannst du locker von 50-60% ausgehen.

Da hat Crypto stark geholfen.

dargo
2023-04-16, 09:38:53
Geht los mit dem Shitstorm.
VbQXtMtn0q4

Wenn man das bisher veröffentlichte Portfolio von Ada so betrachtet gewinnt man immer mehr den Eindruck, dass Nvidia bei der RTX 4090 auf Marge verzichtet hat und die fehlende Marge sich jetzt bei allen Produkten da drunter holen will.

dildo4u
2023-04-16, 10:23:19
Naja 3070 Ti sind 600€ und nutzen nur absoluten Schrott von Samsung und 8GB Vram.
Die Marge der 4070 ist für NV Verhältnis vermutlich schlecht.

dargo
2023-04-16, 10:42:39
Dafür ist die bei RTX 4080/4070TI extrem gut. Margen einzelner Produkte sind uninteressant. Das gesamte Portfolio zählt.

Redneck
2023-04-16, 13:19:40
Dafür ist die bei RTX 4080/4070TI extrem gut. Margen einzelner Produkte sind uninteressant. Das gesamte Portfolio zählt.
Kommt auf die Betrachtungsweise an und von wem.. Der shareholder will den gesamtgewinn wissen.. NV oder auch AMD muessen aber schon wissen, welcher Chip/Karte sich mit welcher Marge verkauft Ansonsten Butterst du blind in ein Segment und hast kein Return of investment zurück.
NV hat sicherlich keine Lust die 4080er/90er mit den Gewinnen der Mittel und entry Klasse quer zu subventionieren.
Sollten die sich nicht tragen durch enthusiastenpreise und im Profi Segment, würde NV auch nicht mehr soviel in diesen Bereich investieren. Betriebswirtschaftlich mußt Du von allen deiner Produkte wissen, was sie kosten und bringen.

basix
2023-04-16, 14:15:43
Wenn man das bisher veröffentlichte Portfolio von Ada so betrachtet gewinnt man immer mehr den Eindruck, dass Nvidia bei der RTX 4090 auf Marge verzichtet hat und die fehlende Marge sich jetzt bei allen Produkten da drunter holen will.

What? 2kEuro und auf Marge verzichtet? :freak:

Es ist eher so, dass Nvidia bei den kleineren SKUs die Marge maximiert. Ist ein Unterschied ;)

MAX|HASS
2023-04-16, 14:26:11
12GB Palit Geforce RTX 4070 GamingPro Aktiv PCIe 4.0 x16 (Retail)
Für 679EUR bereits im Mindstar seit afaik heute morgen, nur 1 Karte verkauft. (y)

Nochmal 20€ gesenkt auf 659€ und dennoch weiterhin 200 Stück rumliegend :freak:.

][immy
2023-04-16, 14:27:42
Kommt auf die Betrachtungsweise an und von wem.. Der shareholder will den gesamtgewinn wissen.. NV oder auch AMD muessen aber schon wissen, welcher Chip/Karte sich mit welcher Marge verkauft Ansonsten Butterst du blind in ein Segment und hast kein Return of investment zurück.
NV hat sicherlich keine Lust die 4080er/90er mit den Gewinnen der Mittel und entry Klasse quer zu subventionieren.
Sollten die sich nicht tragen durch enthusiastenpreise und im Profi Segment, würde NV auch nicht mehr soviel in diesen Bereich investieren. Betriebswirtschaftlich mußt Du von allen deiner Produkte wissen, was sie kosten und bringen.
Nun war es in der Vergangenheit aber eher so, das die Spitzenmodelle eher dazu dienten den Namen hoch zu halten und damit mehr von den kleineren Karten zu verkaufen. Die Marge war da eher Nebensache. Aber das scheint sich nun komplett gedreht zu haben. Mag aber auch mit der teureren Fertigung zu tun haben das es quasi kein Low- bis midrange mehr (vom Preis her) gibt.

dargo
2023-04-16, 14:37:09
What? 2kEuro und auf Marge verzichtet? :freak:

Erstens interessieren Nvidia keine Euro, sondern Dollar. Zweitens findest du das nicht ungewöhnlich, dass eine RTX 4090 nur 6,7% teurer geworden ist als der Vorgänger während eine RTX 4080 einen Aufschlag von gigantischen 71,5% vs. Vorgänger erfahren hat?

Kommt auf die Betrachtungsweise an und von wem.. Der shareholder will den gesamtgewinn wissen.. NV oder auch AMD muessen aber schon wissen, welcher Chip/Karte sich mit welcher Marge verkauft Ansonsten Butterst du blind in ein Segment und hast kein Return of investment zurück.
NV hat sicherlich keine Lust die 4080er/90er mit den Gewinnen der Mittel und entry Klasse quer zu subventionieren.
Sollten die sich nicht tragen durch enthusiastenpreise und im Profi Segment, würde NV auch nicht mehr soviel in diesen Bereich investieren. Betriebswirtschaftlich mußt Du von allen deiner Produkte wissen, was sie kosten und bringen.
Jein... mit der RTX 4090 kann sich Nvidia das leisten. Die RTX 4090 ist nur ein Abfallprodukt vom Profimarkt.

basix
2023-04-16, 15:18:21
Erstens interessieren Nvidia keine Euro, sondern Dollar. Zweitens findest du das nicht ungewöhnlich, dass eine RTX 4090 nur 6,7% teurer geworden ist als der Vorgänger während eine RTX 4080 einen Aufschlag von gigantischen 71,5% vs. Vorgänger erfahren hat?

Wie gesagt, es ist nicht ein "auf Marge verzichten bei der 4090" sondern ein "Marge erhöhen bei 4070 Ti und 4080". Das sind zwei komplett unterschiedliche Dinge.

3090:
- 1499$
- 628mm2 Die
- 24 GB G6X (24 Module), 2-seitig bestückt

4090:
- 1599$
- 608mm2 Die
- 24GB G6X (12 Module), 1-seitig bestückt

Das einzige was wirklich teurer geworden ist, ist der Chip. Der Rest wurde eher günstiger. Und nein, N4 sind bei weitem nicht 2x so teuer wie 7nm, wie die meisten "Analysten" so rumtropeten (gibt ein Video von Ian Cutress zu dem Thema). Kann sein, dass Nvidia hier geringfügig an Marge reduziert hat, andererseits ist die Marge bei 1500$ oder mehr ohnehin sehr hoch.

Die 4070 Ti und 4080 sind hier dann ganz anders gelagert. Hier hat man zwar die VRAM Menge erhöht, doch die Preissteigerung ist höher als die VRAM-Erhöhung und die Chips wurden vermutlich nicht teuerer (4080) oder nur geringfügig teurer (4070 Ti). Ergo sind hier die Margen deutlich angestiegen. Und auch wenn man die Inflation miteinbezieht sieht es hier nicht vorteilhaft aus.

Und jetzt kommt die 4070 für 599$. 1.2x verglichen zur 3070. Und hier beginnt es interessant zu werden:
- 1.5x Speicher, dafür nur 6 anstatt 8 VRAM-Packages
- 1.1(?)x Inflation
- Chip in etwa gleich teuer wie GA104 (392mm2 vs. 295mm2), evtl. etwas teurer
- Etwas günstigere Kühlung und günstigeres PCB

Hmm OK, die 4070 könnte von der Marge her geringer fallen als eine 3070 damals.

Aha, hier liegt der Hund begraben: Nvidia möchte sich die Marge bei der 4070 sichern. Das heisst: Möglichst gleich oder ähnlich wie bei der 3070 zu MSRP. Die 4070 ist eine der beliebtesten SKUs, hier Marge liegen zu lassen ist also nicht vorteilhaft. Nur möchte Nvidia die Marge lieber nach oben treiben statt liegen zu lassen. Also was macht man? Die 4070 Ti und 4080 werden preislich nach oben gehieved und mit den kleineren Chips bestückt. Deswegen auch der Versuch der 4080 12GB, welcher in die Hose gegangen ist. Das ist zum einen eine Mischrechnung übers Portfolio als auch psychologisch begründet (599$ hören sich verglichen zu den teureren SKUs "günstig" an, das hätte man selbst bei Pascal definitiv noch nicht gesagt)

Es ist also folgendes "Problem": Nvidia ist sich seit Pascal sehr hohe Margen gewohnt und will die auch halten. Und mit dem Ada Portfolio geht das nur, wenn man die Preise im Bereich 4070 - 4080 verglichen zu den Vorgängern erhöht. Gründe sind der teurere Node (N4), erhöhte Speichermengen und Inflation. Bei der 4090 fallen einige Aspekte weg: VRAM-Menge wurde nicht erhöht, Marge war eh schon sehr hoch (und die Stückzahlen sind eher gering) und via Quadro kann man die Chips zudem anderweitig teuer verkaufen (sagst du ja selbst auch). Nvidia pocht hier also ganz simpel einfach auf ihre gewohnte Marge (und mehr).

Für uns Kunden ist das jetzt doppelt und dreifach unschön:
- Preise gehen nach oben
- P/L zieht aber nicht mit, Stagnation
- Wir bekommen zwar deutlich mehr Speicher (12 >> 8), doch es zeichnen sich mittelfristig bereits Probleme ab
- Da AMD technisch nicht ganz auf Augenhöhe liegt, ensteht kein Druck hinsichtlich Preisreduktion (was ja auf Nvidias Marge gehen würde)

Aber es besteht Hoffnung:
Die 4070 verkauft sich schlecht. Die Kunden voten mit ihrem Geldbeutel ;)

dargo
2023-04-16, 15:32:47
Wie gesagt, es ist nicht ein "auf Marge verzichten bei der 4090" sondern ein "Marge erhöhen bei 4070 Ti und 4080". Das sind zwei komplett unterschiedliche Dinge.

Wozu der lange Text drunter, ich habe nichts anderes gesagt. ;D Ok... eventuell wurde es missverstanden. Natürlich verzichtet Nvidia nicht auf die komplette Marge bei der RTX 4090. WTF? ;D Ich wollte damit nur sagen, dass NV bei dieser Karte eine etwas kleinere Marge in Kauf nimmt. Dafür müssen jetzt die Kunden bei den Produkten drunter mehr bluten.


Aber es besteht Hoffnung:
Die 4070 verkauft sich schlecht. Die Kunden voten mit ihrem Geldbeutel ;)
Richtig... die Kunden haben die Macht! Das sollte immer wieder einem klar werden.

Troyan
2023-04-16, 15:38:11
Das einzige was wirklich teurer geworden ist, ist der Chip. Der Rest wurde eher günstiger. Und nein, N4 sind bei weitem nicht 2x so teuer wie 7nm, wie die meisten "Analysten" so rumtropeten (gibt ein Video von Ian Cutress zu dem Thema). Kann sein, dass Nvidia hier geringfügig an Marge reduziert hat, andererseits ist die Marge bei 1500$ oder mehr ohnehin sehr hoch.


Ampere war auf Samsung 8nm Prozess, eine Abwandlung vom 10nm Prozess. Dieser ist eine Generation hinter TSMCs 7nm DUV Prozess.

Natürlich kostet ein 4nm EUV TSMC Wafer >3x als ein 8nm Wafer von Samsung. Das eine ist "State of the Art", der andere war schon 2020 über ein Jahr in Produktion.

ChaosTM
2023-04-16, 15:45:13
Zitat von basix https://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13283589#post13283589)Da hat Nvidia also noch ein paar Stellschrauben, um künftige GPUs in die Knie zu zwingen ;) Neben dem, dass die Sichtweite der Schatten auch bei PT nicht sehr hoch ist (an dynamischen Objekten wie Autos oder Passanten).
genau das ist das geniale an der NV "RTX" Marketing Politik.
Mit der nächsten Generation gibt es wieder ein neues "Feature",
dass 50% Leistung kostet aber praktisch keinen oder nur sehr wenig Optischen Gewinn beschert.


Ich werde von AMD bezahlt und muss das tun !*



*nein, ich bin nicht Troyan und einfach nur so sauer auf diese Firma..

Thunder99
2023-04-16, 15:56:53
Bei aller Kritik an Nvidia, immerhin investieren sie in Technologie und Fortschritt. Kann man von AMD nicht behaupten!
Was man bei Nvidia erleben kann, geht bei AMD nur später.
Der Preis, unter anderem die erhöhten GPU Preise.
Wer sich das nicht leisten will verzichtet. Wenn zu viele verzichten wird Nvidia reagieren müssen. Am Ende ist der leittragende der Kunde, der auf Fortschritt verzichten muss.

Ja, die Preise sind zu hoch. Bremst das den Fortschritt, ggf. Kauft man nicht fehlt das Geld zum investieren und der Kunde hat noch weniger davon.
Ist meine Vermutung.

Zum Schluss, 4070 ist ebenfalls teuer. Aber nicht so teuer wie 4080/90. Ergo ein Angebot was man annehmen kann und beide Seiten damit leben können. Die 4080 12GB wurde nicht umsonst nicht gebracht. Nvidia hat verstanden es übertrieben gehabt zu haben.
Am Ende müssen sie so oder so die Karten günstiger verkaufen. Ist immer noch besser als abzuschreiben.

basix
2023-04-16, 16:32:17
Natürlich kostet ein 4nm EUV TSMC Wafer >3x als ein 8nm Wafer von Samsung.

Belege das bitte ;) Und nein, irgendwelche exponentiell extrapolierten Analysten-Folien mit Fantasiezahlen sind nicht die Kosten, die Nvidia bezahlt.

Bei aller Kritik an Nvidia, immerhin investieren sie in Technologie und Fortschritt. Kann man von AMD nicht behaupten!
Was man bei Nvidia erleben kann, geht bei AMD nur später.
Ja, Nvidia investiert viel in R&D. Und vieles kommt auch recht zügig beim Kunden an, darin ist Nvidia ziemlich stark. Doch sie machen sehr vieles mit einer starken "Vendor Lock-In" Tendenz, was schlussendlich den Markt hemmt. Noch Erinnerungen an GPU-PhysX? HairWorks? G-Sync? GeForce Experience? Nicht wirklich vorteilhaft für den Kunden, ausser man kauft beim nächsten Mal wieder Nvidia.

Dass man R&D zuerst über Exklusivität an den Mann bringt, damit man es monetarisieren kann, ist relativ normal und auch nicht per se zu verteufeln. Doch das Mass bei Nvidia war schon immer eher Nvidia-freundlich und kundenunfreundlich. Und das muss man - gerade als Kunde - schon auch in Betracht ziehen. AMD muss man hier definitiv zugute halten, dass ihre Lösungen quelloffen sind und keinen Vendor konkret benachteiligen. Dafür kommen sie erst etwas später.

Und auch AMD investiert viel in R&D. Nur hatten sie zwischen 2013-2020 nicht das Geld dafür (Link (https://www.statista.com/statistics/267873/amds-expenditure-on-research-and-development-since-2001/)). Seit Zen 2, RDNA und die NextGen Konsolen am Markt angekommen sind, hat AMD auch wieder deutlich mehr Geld. Und du kannst dir bei folgendem sicher sein:
- AMD wird in Zukunft weniger Verzug haben, um "Nvidia nachzuahmen"
- Die Wahrscheinlichkeit, dass AMD mit neuen Innovationen kommt welche Nvidia nicht hat, steigt deutlich


Wer sich das nicht leisten will verzichtet. Wenn zu viele verzichten wird Nvidia reagieren müssen. Am Ende ist der leittragende der Kunde, der auf Fortschritt verzichten muss.

Verzichten "müssen" leider halt mittlerweile viele. Und das ist das Grundproblem, was viele frustriert und entsprechend darüber gemotzt wird (nicht ganz ungerechtfertigt). Und verzichten muss primär der kleine Kunde (z.B. wir Gamer), während der grosse Konzern Nvidia immer noch die gleichen oder sogar noch mehr Gewinne macht. Das ist jetzt nicht ein rein Nvidia und Gaming GPU Problem. Das sieht man momentan in sehr vielen Bereichen.


Ja, die Preise sind zu hoch. Bremst das den Fortschritt, ggf. Kauft man nicht fehlt das Geld zum investieren und der Kunde hat noch weniger davon.
Ist meine Vermutung.
Nvidia will vor allem eines: Profite. Dass der Kunde davon profitiert war bislang nur eine der Grundvoraussetzungen für ihren eigenen Profit ;) Klar werden mit den Profiten langfristig echte Fortschritte für die Gesellschaft erzielt (Gaming, AI/ML, ...). Nur ist eine Firma wie Nvidia nicht der Samariter und bringt alle Neuerungen zum Selbstkostenpreis. Da gibt es viele Leute und Investoren, denen sind die technischen Fortschritte egal. Die wollen einfach mehr Geld.

Pumpi74
2023-04-16, 16:32:23
Wenn hier von Laien über die Marge schwadroniert wird sollten sie aber nicht nur die Hardwarekosten berechnen, die Softwarekosten können temporär auch richtig in's Kontor schlagen. DLSS kann AMD bis heute weder so performant noch so gut wie nVidia. Gab dazu grad ein schönes Video von HWU. Dann muss man in der ganzen Berichterstattung auch einfach mal festhalten das DLSS3 viel zu wenig gewürdigt wird. Natürlich wird das nicht jeder ständig nutzen und es werden die neuen Spiele auch nicht durchgängig zu 100% beschleunigt, aber man kann mit Sicherheit sagen das der Durchschnittliche Spieler in neuen Games von FG profitiert. Wie viel ? Ich vermute das der Gewinn im Schnitt pro Spieler irgendwo bei 20-40% liegen wird. Welche Zahl auch immer es am Ende sein wird, man muss sie irgendwie in Tests würdigen. Ganz besonders muss man sie in der Effizienzbetrachtung und in der P/L Betrachtung mit einbeziehen. Es wird leider einfach so getan als wenn da nichts wäre. Die Praxis sieht aber zum Teil massiv anders aus. Während ein 4070 User CP2077 MaxedOut mit Pathtracing im Sommer bei angenehmen 200Watt auf der Grafikkarte zocken kann, müssen 3090/7900XTX/etc.pp Besitzer 350Watt verbraten und kommen trotzdem nicht an die Leistung ran. In dem Moment wo FG für einen Wirkt haben wir eine astreine 100% bessere Effizienz mit Lovelace. Nicht nur zur Vorgänger Gen, Wir haben diese Effizienzsteigerung sogar zur aktuellen Konkurrenz Gen. Gab es das schon mal in der gesamtem PC Geschichte zwischen den Grafikkartenherstellern ? Ist das nichts ? Da sind Abertausende Ingenieursstunden in die Entwicklung geflossen und hier wird nur über Siliziumkosten gesprochen.

basix
2023-04-16, 16:39:42
FG nutzt nur Spielern mit einer 40er GPU. Und das sind aufgrund der hohen Preise nur wenige und spätestens bei der 4060 mit nur 8GB wird der VRAM mit FG überlaufen ;)

Ja, R&D ist wichtig und auch SW gehört dazu. Aber es ist nicht so, dass die anderen Mitspieler wie Intel oder AMD nichts in SW investieren.

Ach ja:
Jetzt stell dir vor, FG via FSR3 läuft bei deiner RDNA1/2, Ampere, Turing oder gar Pascal GPU? Was hilft dem Markt dann also mehr? DLSS-FG für RTX 40er only oder FSR3? Was ist besser hinsichtlich Energieffizienz? Eine neue Grafikkarte herzustellen und zu verkaufen oder die bestehenden GPUs um 2x zu beschleunigen und somit für weitere 1-2 Jahre einsetzbar zu machen ;)
Was ist mit 50 Mio. Konsoleros, die via FSR3 evtl. 2x Performance erreichen und somit deutlich bessere Grafik oder mehr FPS? Hilft denen DLSS-FG?

Troyan
2023-04-16, 16:41:22
Belege das bitte ;) Und nein, irgendwelche exponentiell extrapolierten Analysten-Folien mit Fantasiezahlen sind nicht die Kosten, die Nvidia bezahlt.


Es ist branchenweit bekannt, dass seit Jahr(zehnt)en die Kosten pro Transistor nicht mehr fallen. Die Shrinks haben keinen kostenneutralen Effekt mehr. Hier ein Artikel dazu von Ende 2021: https://www.fabricatedknowledge.com/p/the-rising-tide-of-semiconductor

Pumpi74
2023-04-16, 16:57:36
Jetzt stell dir vor, FG via FSR3 läuft bei deiner RDNA1/2, Ampere, Turing oder gar Pascal GPU?
Ich stelle mir nur realistische Dinge vor. Das Prinzip Hoffnung hab ich beim Hardwarekauf nicht nötig. Ich sehe es bei meinem Lieblingsspiel Anno1800. Leider kein DLSS vorhanden. Zum Glück gibt es aber FSR ? Pustekuchen. Checklistenfeature. Das ist so schlecht implementiert das es für umsonst noch zu teuer ist. Das kann sich AMD sonst wo hin schieben. Die Lösungen von nVidia sind auch nicht immer Perfekt, nur weit aus besser als die von AMD und vor allem viel zeitnaher zu erhalten. Ich bewerte die Gegenwart, nicht die Träume von AMD Fan's.

basix
2023-04-16, 17:10:21
Es ist branchenweit bekannt, dass seit Jahr(zehnt)en die Kosten pro Transistor nicht mehr fallen. Die Shrinks haben keinen kostenneutralen Effekt mehr. Hier ein Artikel dazu von Ende 2021: https://www.fabricatedknowledge.com/p/the-rising-tide-of-semiconductor

Trotzdem werden die Chips immer grösser und die Margen immer fetter? Das soll mir mal einer erklären ;)

Alles TSMC Prozesse:
- 40nm: HD 5870 = 6.4 MTr/mm²
- 28nm: HD 7970 = 12.3 MTr/ mm²
- 7nm: 6900 XT = 51.5 MTr/mm²
- 5nm: 7900 XTX = 109.1 MTr/mm²

Wenn die Kosten also nicht sinken würden, müsste die 7900 XTX sage und schreibe 20x teurer als die HD5870 sein (deine verlinkte Grafik berücksichtigend) oder 9x teurer als die HD7970 (OK, N31 hat etwas geringere N5 Chipfläche dafür aber noch 6x MCDs in N6 verbaut). Oder hat AMD bei er HD5870 extreme Margen eingefahren? Wohl eher nicht. Auch die 6900XT müsste 4x teurer sein als die HD7970. Die grössere Chipfläche noch nichtmal berücksichtigt. Und es ist ja nicht so, dass AMD ihre Margen in der Zwischenzeit nicht gesteigert hätten und DDR in den letzten 10 Jahren nur wenig günstiger geworden ist (https://ourworldindata.org/grapher/historical-cost-of-computer-memory-and-storage?country=%7EOWID_WRL) ;)

Hier die Kostenkurve von AMD, welche deutlich realistischer klingt (N5 = 5x 40nm; N5 = 3x 28nm):
https://semiengineering.com/enabling-cost-effective-high-performance-die-to-die-connectivity/

Nimmt man die Density Steigerung dazu, sind die Kosten pro Transistor definitiv gesunken. Und zwar deutlich.

Hier der Kommentar von Ian Cutress, dass die Wafer Preise stark vom Kunden abhängen können:
https://twitter.com/IanCutress/status/1595341824855773184

Ich stelle mir nur realistische Dinge vor. Das Prinzip Hoffnung hab ich beim Hardwarekauf nicht nötig. Ich sehe es bei meinem Lieblingsspiel Anno1800. Leider kein DLSS vorhanden. Zum Glück gibt es aber FSR ? Pustekuchen. Checklistenfeature. Das ist so schlecht implementiert das es für umsonst noch zu teuer ist. Das kann sich AMD sonst wo hin schieben. Die Lösungen von nVidia sind auch nicht immer Perfekt, nur weit aus besser als die von AMD und vor allem viel zeitnaher zu erhalten. Ich bewerte die Gegenwart, nicht die Träume von AMD Fan's.
Und wie gefällt dir FG mit deiner 3060? :rolleyes:

FSR vorhanden ist zudem besser als DLSS nicht vorhanden. Und ausserdem ist das in Anno 1800 glaube ich noch FSR 1.0 ;D

Wo ich dir zustimmen kann: Man sollte beim HW-Kauf immer die Situation Stand heute beurteilen und nicht "mögliche zukünftige" Optionen. Und das ist sicher ein Problem für AMD, wenn sie da jeweils spät dran sind (dann wird eben von vielen Nvidia gekauft). Bei meiner Aussage zu FSR3 ging es aber eher um den Punkt:
...aber man kann mit Sicherheit sagen das der Durchschnittliche Spieler in neuen Games von FG profitiert.
Da FG RTX 40er exklusiv ist, ist der Durchschnitt der Spieler relativ weit weg von FG. Und bei FSR3 potentiell bei fast jedem Gamer mit der bereits eingebauten Karte nutzbar (noch nicht ganz klar ob das bei FSR3 der Fall ist, vermutlich aber schon, siehe FSR2) als auch die Konsolen-Gemeinschaft kann davon profitieren.

Troyan
2023-04-16, 17:29:37
Trotzdem werden die Chips immer grösser und die Margen immer fetter? Das soll mir mal einer erklären ;)


Naja, nVidia gibt keine Segment-Margen an. Aber ich denke, dass hier erklärt doch die Problematik sehr gut:

https://substackcdn.com/image/fetch/w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2F505a30e4-733d-49e4-86ea-f074a170373a_684x630.png

nVidia hat GTX280 mit 576mm^2 Die für unter $500 verkaufen müssen und die hatten damals eine Marge von 42%: https://www.anandtech.com/show/3462

So ein 600mm^2 8nm Samsung Chip ist daher für $600 - $700 machbar und sollte eine bessere Marge haben. Aber eben nicht mehr, wenn man von 8nm auf 4nm TSMC geht. Dann sind es eben plötzlich 300mm^2 oder sogar weniger...

basix
2023-04-16, 17:47:31
Ich bin jetzt gnädig zu dir und nehme den GTX 285 MSRP (359$) und nicht den GTX 280 MSRP (649$) und trotzdem den 65nm Prozess vs. 8nm (was ja laut dir ein 10nm Prozess ist):
- GT200 = 1'400 MTr
- GA102 = 28'300 MTr
- 20x mehr Transistoren bei halbierten Kosten / Transistor = 10x Chipkosten
- 700$ / 359$ = 2x MSRP
- Unerklärliche Differenz = 10 / 2 = 5x

Jetzt willst du mir sagen, dass Nvidia mit diesem Kostenkonstrukt sogar noch eine bessere Marge machen kann? :freak: Diese Logik soll mal einer verstehen...

Also:
Entweder hat Nvidia mit früheren GPUs 90% Marge eingefahren (was nachweislich nicht stimmt), Nvidia legt bei neuen GPUs drauf (was nachweislich ebenfalls nicht stimmt) oder die Kosten pro Transistor sind deutlich gesunken, egal was diese Folie sagt. Such dir was aus...

Lurtz
2023-04-16, 17:49:35
Wenn hier von Laien über die Marge schwadroniert wird sollten sie aber nicht nur die Hardwarekosten berechnen, die Softwarekosten können temporär auch richtig in's Kontor schlagen. DLSS kann AMD bis heute weder so performant noch so gut wie nVidia. Gab dazu grad ein schönes Video von HWU. Dann muss man in der ganzen Berichterstattung auch einfach mal festhalten das DLSS3 viel zu wenig gewürdigt wird. Natürlich wird das nicht jeder ständig nutzen und es werden die neuen Spiele auch nicht durchgängig zu 100% beschleunigt, aber man kann mit Sicherheit sagen das der Durchschnittliche Spieler in neuen Games von FG profitiert. Wie viel ? Ich vermute das der Gewinn im Schnitt pro Spieler irgendwo bei 20-40% liegen wird. Welche Zahl auch immer es am Ende sein wird, man muss sie irgendwie in Tests würdigen. Ganz besonders muss man sie in der Effizienzbetrachtung und in der P/L Betrachtung mit einbeziehen. Es wird leider einfach so getan als wenn da nichts wäre. Die Praxis sieht aber zum Teil massiv anders aus. Während ein 4070 User CP2077 MaxedOut mit Pathtracing im Sommer bei angenehmen 200Watt auf der Grafikkarte zocken kann, müssen 3090/7900XTX/etc.pp Besitzer 350Watt verbraten und kommen trotzdem nicht an die Leistung ran. In dem Moment wo FG für einen Wirkt haben wir eine astreine 100% bessere Effizienz mit Lovelace. Nicht nur zur Vorgänger Gen, Wir haben diese Effizienzsteigerung sogar zur aktuellen Konkurrenz Gen. Gab es das schon mal in der gesamtem PC Geschichte zwischen den Grafikkartenherstellern ? Ist das nichts ? Da sind Abertausende Ingenieursstunden in die Entwicklung geflossen und hier wird nur über Siliziumkosten gesprochen.
Na dann rechnen Sie mal aus, was es kostet eine RTX 3000 ohne Support für DLSS3 deswegen gegen eine RT 4000 auszutauschen, Herr Experte. Die Ökobilanz wird sicher hervorragend sein.
Ich stelle mir nur realistische Dinge vor. Das Prinzip Hoffnung hab ich beim Hardwarekauf nicht nötig. Ich sehe es bei meinem Lieblingsspiel Anno1800. Leider kein DLSS vorhanden. Zum Glück gibt es aber FSR ? Pustekuchen. Checklistenfeature. Das ist so schlecht implementiert das es für umsonst noch zu teuer ist. Das kann sich AMD sonst wo hin schieben. Die Lösungen von nVidia sind auch nicht immer Perfekt, nur weit aus besser als die von AMD und vor allem viel zeitnaher zu erhalten. Ich bewerte die Gegenwart, nicht die Träume von AMD Fan's.
Das ist FSR 1.0, also das Äquivalent zum beerdigten DLSS1 und/oder NIS :rolleyes:

Troyan
2023-04-16, 18:02:01
Ich bin jetzt gnädig zu dir und nehme den GTX 285 MSRP (359$) und nicht den GTX 280 MSRP (649$) und trotzdem den 65nm Prozess vs. 8nm (was ja laut dir ein 10nm Prozess ist):
- GT200 = 1'400 MTr
- GA102 = 28'300 MTr
- 20x mehr Transistoren bei halbierten Kosten / Transistor = 10x Chipkosten
- 700$ / 359$ = 2x MSRP
- Unerklärliche Differenz = 10 / 2 = 5x

Jetzt willst du mir sagen, dass Nvidia mit diesem Kostenkonstrukt sogar noch eine bessere Marge machen kann? :freak: Diese Logik soll mal einer verstehen...

Also:
Entweder hat Nvidia mit früheren GPUs 90% Marge eingefahren (was nachweislich nicht stimmt), Nvidia legt bei neuen GPUs drauf (was nachweislich ebenfalls nicht stimmt) oder die Kosten pro Transistor sind deutlich gesunken, egal was diese Folie sagt. Such dir was aus...

Der Artikel beschreibt es doch, was Preise treibt:

The primary driver is not only the rising costs of tools such as EUV, but the rising number of steps to make a chip. Below is a graphic that shows the increase of steps over time.

https://substackcdn.com/image/fetch/w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fcfa276c7-737d-4895-a03e-d41275f1fc7b_778x394.png

Pumpi74
2023-04-16, 18:32:11
Und wie gefällt dir FG mit deiner 3060? :rolleyes:

Die 3060-12GB in meinem Rechner ist eine sehr günstige Backup Karte die hoffentlich die nächsten 10 Jahre kein Spiel zu Gesicht bekommen wird.

... Die Ökobilanz wird sicher hervorragend sein...

Jemand mit einem 1080p Schirm könnte die 3090 undervoltet sicherlich noch sinnvoll nutzen. Es soll ja keiner die Grafikkarte aus Frust in den Müll schmeißen =)

MAX|HASS
2023-04-16, 19:54:38
Nochmal 20€ gesenkt auf 659€ und dennoch weiterhin 200 Stück rumliegend :freak:.

Letztes update, die Karte ist aus dem Mindstar verschwunden. Brutal ausgedrückt: derzeit unverkäuflich, 1 Karte in 48h :freak:.

Nun ist eine AMD drin, 999€ statt 1099€ und davon sind rund ein Fünftel schon weg :biggrin:.

Sardaukar.nsn
2023-04-16, 20:13:40
Gaming PC inkl. 4070 für gute 1000€ https://www.mydealz.de/deals/gaming-pc-rtx-4070-12gb-ryzen-5-5600x-16gb-ddr4-ram-1tb-wd-ssd-b450-aorus-elite-v2-700w-netzteil-overwatch-2-bbb-3-cashb-2159978

mögliche Upgrades:
CPU: Ryzen 7 5700X (+42€)
CPU-Lüfter: Xilence M504D (+22,90)
Mainboard: Gigabyte B550 Gaming X (+23€)
RAM: Corsair Vengeance LPX 16GB DDR4 3600MHz RAM CL16 2x8GB (+20,80€) oder 16GB DDR4 3200MHz RAM 2x8GB (+3,90€) oder Corsair Vengeance LPX 32GB (2x16GB) DDR4 3200MHz RAM (+38,80€)
Netzteil: beQuiet! System Power 10 650W (+17,90€)

basix
2023-04-16, 20:20:10
Kein schlechter Preis. +16 GByte RAM nachstecken und bei Bedarf einen 5800X3D und das Ding ist voll auf der Höhe.

The_Invisible
2023-04-16, 20:42:14
Ach ja:
Jetzt stell dir vor, FG via FSR3 läuft bei deiner RDNA1/2, Ampere, Turing oder gar Pascal GPU? Was hilft dem Markt dann also mehr? DLSS-FG für RTX 40er only oder FSR3? Was ist besser hinsichtlich Energieffizienz? Eine neue Grafikkarte herzustellen und zu verkaufen oder die bestehenden GPUs um 2x zu beschleunigen und somit für weitere 1-2 Jahre einsetzbar zu machen ;)
Was ist mit 50 Mio. Konsoleros, die via FSR3 evtl. 2x Performance erreichen und somit deutlich bessere Grafik oder mehr FPS? Hilft denen DLSS-FG?

Naja da muss AMD erst mal liefern, da gibts weder ein konkretes Releasedatum noch welche GPUs unterstützt werden. Du hast dir quasi den BestCase rausgesucht.

Klar wäre ein offener Standard schön aber da frage ich mich warum dann die meisten dieser Leute die das fordern mit Windows herumgurken ;)

ChaosTM
2023-04-16, 20:50:45
NV hat maximal noch einen Node Sprung um bei einem Monolithischen Design zu bleiben. Dann werden die Chips einfach zu groß.
Aus Kostengründen rechne ich fast damit das, man schon in 2 Jahren AMDs Weg gehen wird.

Spätestens 2026

DrFreaK666
2023-04-16, 21:23:47
Ich stelle mir nur realistische Dinge vor. Das Prinzip Hoffnung hab ich beim Hardwarekauf nicht nötig. Ich sehe es bei meinem Lieblingsspiel Anno1800. Leider kein DLSS vorhanden. Zum Glück gibt es aber FSR ? Pustekuchen. Checklistenfeature. Das ist so schlecht implementiert das es für umsonst noch zu teuer ist. Das kann sich AMD sonst wo hin schieben. Die Lösungen von nVidia sind auch nicht immer Perfekt, nur weit aus besser als die von AMD und vor allem viel zeitnaher zu erhalten. Ich bewerte die Gegenwart, nicht die Träume von AMD Fan's.

Du bewertest die Gegenwart, nimmst als Beispiel ein Spiel von 2019, das, wie du erwähnt hast, weder FSR2 noch DLSS hat :ugly:

][immy
2023-04-16, 21:52:53
NV hat maximal noch einen Node Sprung um bei einem Monolithischen Design zu bleiben. Dann werden die Chips einfach zu groß.
Aus Kostengründen rechne ich fast damit das, man schon in 2 Jahren AMDs Weg gehen wird.

Spätestens 2026
Im Grunde haben sie ja schon kein Monolithen mehr. Denn die zusätzlichen cores sind ja mehr oder minder unabhängig und fast nur auf den Speichercontroller angewiesen.

marc-05
2023-04-17, 03:22:07
Warum sind RTX 4070 PCBS nur 6 von 8 mit Speicherchips bestückt ?
Selbst günstigen Dual Fan Karten siehe TPU
https://www.techpowerup.com/review/asus-geforce-rtx-4070-dual/4.html

https://www.techpowerup.com/review/pny-geforce-rtx-4070/images/front.jpg

16GB möglich nur will es nicht verbauen oder kommt später ?

crux2005
2023-04-17, 03:49:26
Warum sind RTX 4070 PCBS nur 6 von 8 mit Speicherchips bestückt ?

Weil der verbaute AD104 (RTX 4070) kein 256bit SI, sondern ein 6x 32bit = 192bit SI hat.

16GB möglich nur will es nicht verbauen oder kommt später ?

Dann müssten sie (aktuell) den AD103 mit 256bit SI verbauen.

basix
2023-04-17, 07:38:30
Das PCB ist der 4070/4070 Ti nicht das selbe wie bei der 4080. Der Chip von AD104 ist um 90° im Uhrzeigersinn rotiert.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/4.html

Aber ja, anscheinend kann man AD103 auf das selbe PCB schnallen (AD103 & AD104 müssten dann pinkompatibel sein). Für AD104 sind die zusätzlichen zwei VRAM Positionen sicher nicht gedacht, da max. 192bit.
Da die Karten kleiner und weniger mächtig sind, könnte es entweder günstigere 4080er geben oder es gibt irgendwann eine "4070 Super" / "4080 LE" oder so auf Basis von AD103. Mit dann wohl auch max. 250W TDP.

dargo
2023-04-17, 09:19:08
Warum sind RTX 4070 PCBS nur 6 von 8 mit Speicherchips bestückt ?
Selbst günstigen Dual Fan Karten siehe TPU
https://www.techpowerup.com/review/asus-geforce-rtx-4070-dual/4.html

https://www.techpowerup.com/review/pny-geforce-rtx-4070/images/front.jpg

16GB möglich nur will es nicht verbauen oder kommt später ?
Höchstwahrscheinlich ist es günstiger ein Layout für mehrere SKUs zu verwenden. Wie basix schon sagte irgendwas später mit 16GB auf Basis von AD103 wie zb. eine 4070 Super.

robbitop
2023-04-17, 09:19:51
Interessant, dass die 4070 bei DF im Overdrive setting nur knapp über der 3080 liegt:
https://youtu.be/cSq2WoARtyM?t=440

IIRC wurde SER erst mit dem Overdrive Patch inkludiert, oder? Bringt es dann so viel nicht?

Was ich allerdings seltsam finde sind die Zahlen auf CB:
https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160

Ohne RT liegt die 3080 gegen die 4070 in 4K 7% vorn. In RT (wird wohl das Psycho Setting - also ggf. noch ohne SER? sein) liegt die 4070 gegen die 3080 um 10% vorn.

Ggf. war SER und co doch schon vor dem release des Pathtracings aktiv und bringt auch bei Psychosettings etwas?

In anderen Spielen ist der relative Unterschied beider SKUs zwischen RT on/off viel geringer. Aber gerade bei Path Tracing (viel mehr RT Anteil an der Renderpipeline) hätte ich größere Unterschiede erwartet bei DF.

basix
2023-04-17, 12:22:41
Höchstwahrscheinlich ist es günstiger ein Layout für mehrere SKUs zu verwenden. Wie basix schon sagte irgendwas später mit 16GB auf Basis von AD103 wie zb. eine 4070 Super.

Gleiches PCB, gleiche Bauteile, gleiche Kühler, gleiche Infrastruktur in der Produktion. Macht schon Sinn. Und für AD103 eine Cost-Down Option.

Raff
2023-04-17, 12:32:50
Interessant, dass die 4070 bei DF im Overdrive setting nur knapp über der 3080 liegt:
https://youtu.be/cSq2WoARtyM?t=440

IIRC wurde SER erst mit dem Overdrive Patch inkludiert, oder? Bringt es dann so viel nicht?

Yep, SER ist neu seit Overdrive. Nvidia und CDPR haben vor einigen Monaten noch "up to 44 %" für SER genannt, aber das dürfte eine isolierte Zahl für einen bestimmten Rechenschritt gewesen sein, nicht die Bildrate. PCGH wird sich das Ding übrigens kommende Woche genau zu Brust nehmen, mit einer möglichst gemeinen Szene, dann schauen wir mal, was sich bestenfalls für Ada ergibt. AD104 ist nun mal klein, Wunder sollte man gegenüber GA102 grundsätzlich nicht erwarten - aber eine kleine "Edge" beim RT.

MfG
Raff

basix
2023-04-17, 12:51:49
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.

Ich war auch eher skeptisch und ich kann aus erster Hand sagen:
- FG ist keine Allgemeinlösung
- Ja, man spürt den zusätzlichen Input-Lag (FG-on/off mit aktiviertem Reflex)
- Je nach Spiel und insbesondere bei höheren Frameraten ist der Input Lag allerdings verschmerzbar. Bei schnellen Shootern wohl nicht zu empfehlen
- Bildflüssigkeit nimmt enorm(!) zu. Nvidia mach noch irgendeine Art Framepacing neben dem reinen FG

Gerade letzterer Punkt ist für mich persönlich sehr wichtig, da für mich je nach Spiel erst 80-90fps wirklich flüssig aussehen. Bei Witcher 3 Enhanced stellt sich mir die Frage ob FG-on/off gar nicht. FG-on ist ein grosser Gewinn, auch wenn nur von ~55...60fps auf ~90fps hoch(inter)poliert wird. Auch bei Portal-RTX lohnt sich FG, da das Gameplay eher gemächlich ist. Und in Cyberpunk Pathtraced ist es wiederum ~50 -> 80fps, wo es bei mir über die "magische FPS Schwelle" geht, was den Eindruck deutlich verbessert. Bei Cyberpunk ist der Input Lag sicher nicht ganz optimal, da man es schon merkt, unter dem Strich ist es aber dennoch ein Win. Es gibt immer mehr Spiele mit DLSS3 und auch immer mehr Spiele, wo ich FG aktiviere. Soweit ist FG für mich also ein lohnendes Feature, zumindest auf der schnellen GPU @ 4K.

Schlussendlich ist es subjektiv und jeder kann selbst entscheiden, ob man es nutzen will. Dasselbe bei DLSS 2.0 / FSR 2.0 an oder aus. Manchen gefällt, manchen nicht.

[MK2]Mythos
2023-04-17, 13:14:47
Das nächste mal wenn ich hier wegen eurer kindischen fanboywars durchwischen muss, gibts Punkte.

Raff
2023-04-17, 13:23:37
Ich war auch eher skeptisch und ich kann aus erster Hand sagen:
- FG ist keine Allgemeinlösung
- Ja, man spürt den zusätzlichen Input-Lag (FG-on/off mit aktiviertem Reflex)
- Je nach Spiel und insbesondere bei höheren Frameraten ist der Input Lag allerdings verschmerzbar. Bei schnellen Shootern wohl nicht zu empfehlen
- Bildflüssigkeit nimmt enorm(!) zu. Nvidia mach noch irgendeine Art Framepacing neben dem reinen FG

Gerade letzterer Punkt ist für mich persönlich sehr wichtig, da für mich je nach Spiel erst 80-90fps wirklich flüssig aussehen. Bei Witcher 3 Enhanced stellt sich mir die Frage ob FG-on/off gar nicht. FG-on ist ein grosser Gewinn, auch wenn nur von ~55...60fps auf ~90fps hoch(inter)poliert wird. Auch bei Portal-RTX lohnt sich FG, da das Gameplay eher gemächlich ist. Und in Cyberpunk Pathtraced ist es wiederum ~50 -> 80fps, wo es bei mir über die "magische FPS Schwelle" geht, was den Eindruck deutlich verbessert. Bei Cyberpunk ist der Input Lag sicher nicht ganz optimal, da man es schon merkt, unter dem Strich ist es aber dennoch ein Win. Es gibt immer mehr Spiele mit DLSS3 und auch immer mehr Spiele, wo ich FG aktiviere. Soweit ist FG für mich also ein lohnendes Feature, zumindest auf der schnellen GPU @ 4K.

Schlussendlich ist es subjektiv und jeder kann selbst entscheiden, ob man es nutzen will. Dasselbe bei DLSS 2.0 / FSR 2.0 an oder aus. Manchen gefällt, manchen nicht.

This. Frame Generation ist kein Ersatz für hohe Bildraten, sofern man diese wegen der kurzen Reaktionszeit fordert - also nichts sensible für High-Fps-Gamer. Es ist aber ein echter Mehrwert für Leute, die gewöhnlich mit um die 60 Fps spielen und an die korrespondierende Eingabelatenz gewöhnt sind. Für diese Spieler ergibt sich durch FG ein viel flüssigeres Bild bei ~gleich bleibendem Mausgefühl. Problematisch kann die Asynchronität zwischen Auge und Hand sein, aber das ist reine Gewöhnungssache.

MfG
Raff

basix
2023-04-17, 13:25:27
Naja da muss AMD erst mal liefern, da gibts weder ein konkretes Releasedatum noch welche GPUs unterstützt werden. Du hast dir quasi den BestCase rausgesucht.
Ja, ist Best Case. Etwas Optimismus darf aber sein ;)


Klar wäre ein offener Standard schön aber da frage ich mich warum dann die meisten dieser Leute die das fordern mit Windows herumgurken ;)
Bequemlichkeit und/oder zu wenig IT-Fachwissen (oder zu wenig Interesse, um mich da einzuarbeiten). Trifft bei mir alles zu :D

Ich arbeite viel mit Python, wo faktisch alles Open Source ist. Deswegen ist Python so weit verbreitet (neben der einfachen Usability). Windows hat in dieser Frage, ob man offene Standards begrüsst, also nicht wirklich viel Einfluss ;)

Prinzenrolle
2023-04-17, 15:26:34
Es ist aber ein echter Mehrwert für Leute, die gewöhnlich mit um die 60 Fps spielen und an die korrespondierende Eingabelatenz gewöhnt sind. Für diese Spieler ergibt sich durch FG ein viel flüssigeres Bild bei ~gleich bleibendem Mausgefühl.

Ich kann die Argumentation mit dem Iputlag nicht so ganz nachvollziehen, denn mit Reflex bleibt er ja immer noch relativ gering.
Das ist im Blindvergleich überprüft relativ marginal zu dem enorm gesteigerten Flüssigkeitsempfinden. Ich würde den Mehrwert definitiv für jedermann sehen, mit Ausnahme von competetiven Online Shootern, auch wegen den Rückmeldungen aller Arbeitskollegen im Blindvergleich.

Cyberpunk Pathtracing ist ohne FG in 4K Nativ + Reflex mit etwa 25FPS quasi unspielbar.
Mit FG merkt man den Anstieg des Inputlags nicht, aber das Spiel wird spielbar und fühlt sich schon nach kurzer Zeit genau so responsive an. Hängen tut es eher am "outputlag".


Schlussendlich ist es subjektiv und jeder kann selbst entscheiden, ob man es nutzen will. Dasselbe bei DLSS 2.0 / FSR 2.0 an oder aus. Manchen gefällt, manchen nicht.

Da muss ich klar widersprechen. Subjektiv ist daran eigentlich nichts.
Alles messbar.

Lehdro
2023-04-17, 15:42:56
Cyberpunk Pathtracing ist ohne FG in 4K Nativ + Reflex mit etwa 25FPS quasi unspielbar.
Mit FG merkt man den Anstieg des Inputlags nicht, aber das Spiel wird spielbar und fühlt sich schon nach kurzer Zeit genau so responsive an.
Mit 25 base FPS ist und bleibt es auch mit FG unspielbar - zumindest für mich. Ich habe gestern ein wenig mit FG und PT in CP2077 rumgespielt, ich komme auf um die 70-90 FPS in 1440p nativ mit FG (im Benchmark 84,x FPS) - das ist schon hart an der Grenze imo, ich würde >100 FPS mit FG präferieren. Leider zeigt DLSS selbst mit Quality an einigen Stellen sehr hässliche Artefakte (z.B. schimmert die Fahrstuhltür in der ersten Mission sehr auffällig).
Klar sehen ~80 FPS mit FG super aus ("flüssig"), aber man spürt die Zähigkeit trotzdem noch deutlich. Und da kommen wir immerhin von einer Basis FPS von ~40 - deutlich mehr als das was du als Beispiel anführst. Das mag bei Witcher 3 anders sein, da wäre ich auch mit weniger zufrieden. Habe es immerhin auf dem Steamdeck durchgespielt mit gedeckelten 30 FPS und angehobener Optik (im Rahmen des Steamdecks bzw. dessen verursachter Lautheit).

r3ptil3
2023-04-17, 16:03:04
Irgendwie schon lustig, je mehr man sich Benchmark der RTX 4070 ansieht, desto besser wird der Eindruck der anfänglich enttäuschenden RTX 4070 Ti. :D

basix
2023-04-17, 16:03:16
Da muss ich klar widersprechen. Subjektiv ist daran eigentlich nichts.
Alles messbar.

Latenzen kann man messen, ja. Doch wie du das empfindest nicht. Die Empfindsamkeit ist subjektiv und sogar von der eigenen Tagesform abhängig ;) Genau das selbe mit den Qualitäts-Aspekten von DLSS und FG. Manchen fallen Artefakte eher auf / stört eher und anderen nicht. Man kann sie objektiv beurteilen ob besser / schlechter, aber nicht ob das selbe Resultat bei der persönlichen Spielerfahrung auftritt. In der Tendenz stimmt die objektive Messung mit der subjektiven Wahrnehmung überein, doch die Standardabweichung rund um den Messpunkt ist bezüglich subjektivem Erlebnis relativ gross und stark von der Person abhängig ;) Manchen genügen 50fps, andere benötigen 80fps um zufrieden zu sein.

Zudem ist Latenz noch von anderen Dingen abhängig:
- Maus
- Tastatur
- Monitor

Auch wenn eine Messung bei PCGH oder sonst wem also stimmen würde, ist sie nicht direkt auf das persönliche Empfinden bei dir zu Hause übertragbar.

Und selbst bei rohen FPS empfindet nicht jeder z.B. 60fps gleich flüssig. Am genau gleichen PC ohne andere Variablen wie Monitor etc.

Irgendwie schon lustig, je mehr man sich Benchmark der RTX 4070 ansieht, desto besser wird der Eindruck der anfänglich enttäuschenden RTX 4070 Ti. :D
Performancemässig ist die 4070 Ti schon schick. Aber zu teuer. Die 4070 Ti als 4070 und für 599$ hätten wesentlich weniger Leute kritisiert. Chip, Board, Speicher, etc. wären sogar die selben wie bei der heutigen 4070 ;)

blaidd
2023-04-17, 17:57:46
Die Latenzen schwanken generell mehr mit FG. Da folgt auch immer ein kürzerer auf einen längeren Frame (sowohl FT als auch Latenz). Mit FG fühlen die sich generell etwas "schwammiger" an - aber dafür muss man wohl sehr feinfühlig sein (und direkt vergleichen). Das kann man allerdings trotzdem merken.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83538&stc=1&d=1681746937

Und das ist im GPU-Limit (jedenfalls FAST vollständig). Im CPU-Limit sieht es halt ganz anders aus (im Flight Sim ist das allerdings nahezu egal, weniger aber vielleicht in anderen Spielen, insbesondere Shootern):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83537&stc=1&d=1681746937

Ich find's auch deshalb sinnvoll, die Latenzen (wie die Frametimes) als Verlauf abzubilden – auch wenn es Pain-in-the-Ass ist, die auszuwerten. Nur so erkennt man Schwankungen und Ausreißer gut und die hängen natürlich auch zusammen. Gibt's einen Frametime-Spike, gibt's auch einen Latenzausreißer – auch teilweise, wenn DLSS 3.0 zum Einsatz kommt. Bei Darktide kann man das gut erkennen. Und auch fühlen. Die winzigen FT-Ausreißer (da wird's CPU-limited, daher der große Ansprung bei den Latenzen) bringen große Ausreißer in den Latenzen.

Reflex ist bei den Non-FG-Messungen aus. Diese Messungen hier sind allesamt mit DLSS Quality.
EDIT: Die Bezeichnung der Graphen oben ist auch noch WIP – so benannt, damit ich die dem Artikel zweifelsfrei zuordnen kann. Die wird anschließend noch geändert.

basix
2023-04-17, 19:24:22
Top Diagramme bastelt ihr da bei PCGH :up:

Interessant wäre da noch ohne FG aber mit Reflex (=bestmögliche Latenz) und natürlich die Konkurrenz in Form einer AMD / Intel Karte ohne Reflex & FG. Raff hat letzteres tabellarisch bei seinen letzten Tests drin gehabt, via Grafik kann man es aber besser und schneller einordnen.

Prinzenrolle
2023-04-17, 19:55:24
Die Empfindsamkeit ist subjektiv und sogar von der eigenen Tagesform abhängig ;) Genau das selbe mit den Qualitäts-Aspekten von DLSS und FG.

Ganz so unterschiedlich funktioniert das menschliche Auge mehrerer 20 und 30 Jähriger, sowie die spätere Verarbeitung nun auch nicht. (Laien-Meinung)


Manchen fallen Artefakte eher auf / stört eher und anderen nicht.
Artefakte musste man vor 6 Monaten als die 4090 gelauncht wurde durch mutwillige Drehbewegungen des Spielcharakters und das rauf und runter wischen von UI Elementen, sowie Analysen mit 3% Geschwindigkeit erst einmal erzwingen.

Und wenn man diesen Aufwand mal getrieben hat, konnte man es im Detail auch ohne Hilfsmittelchen sehen. Allerdings wurde das nochmalig verbessert und mittlerweile muss man sagen, dass diese Technik außerordentlich gut funktioniert und ich nicht in der Lage bin es zu sehen.


In der Tendenz stimmt die objektive Messung mit der subjektiven Wahrnehmung überein, doch die Standardabweichung rund um den Messpunkt ist bezüglich subjektivem Erlebnis relativ gross und stark von der Person abhängig ;) Manchen genügen 50fps, andere benötigen 80fps um zufrieden zu sein.

Sicher. Es kann sogar so stark streuen, dass man jemandem genau das gleiche Setting erneut vorführt und er zu der Erkenntnis gelangt, dass es nun viel flüssiger sei. Kann alles passieren.

Aber in der Regel würde ich stark annehmen, dass vor allem die, die hier auf 10 oder 20 ms Eingabeverzögerung herumpoltern eine durchschnittliche menschliche Reaktionsfähigkeit von etwa 200ms besitzen.

In unserer Firma traten im Blindvergleich ganz kuriose Ergebnisse zu Tage und keiner von 10 Mitarbeitern konnte den "Inputlag" fühlen.
In 5 von 10 Fällen war sogar bei gleicher FPS höhe NATIV+FG Nativ+ DLSS Q überlegen, weil die Frametimes bei FG verdammt glatt sind. Natürlich auch abhängig davon, wie ich mich bewege.
Laufe ich gerade aus durch die Landschaft und schaue mich gemütlich um, oder bin ich im Gefecht und drehe mich permanent um die eigene Achse. In langsameren Shootern wie Cyberpunk oder Metro definitiv krass.

Nvidia hat da also etwas schönes zusammengeschustert. Es ist nicht die eierlegende Wollmilchsau, aber perfektioniert das Spielerlebnis.
Jetzt fehlt noch eine Methodik das ganze mit G-sync oder Freesync in Einklang zu bringen, ohne die FPS zu begrenzen.



Zudem ist Latenz noch von anderen Dingen abhängig:
- Maus
- Tastatur
- Monitor

Die Latenz die durch FG hinzukommt ist nur ein Teil der Rechnung.


Auch wenn eine Messung bei PCGH oder sonst wem also stimmen würde, ist sie nicht direkt auf das persönliche Empfinden bei dir zu Hause übertragbar.

Eventuell lässt sich ja, nachdem AMD ihr FSR 3 herausgebracht hat eine Messmethodik ähnlich dem Unevenuess-Index von Igors Lab etablieren.
Mir kann einfach keiner erzählen, dass bei bereits niedrigschwelliger Latenz durch Reflex, die zusätzliche Latenz durch FG im Blindvergleich wahrnimmt.


Und selbst bei rohen FPS empfindet nicht jeder z.B. 60fps gleich flüssig. Am genau gleichen PC ohne andere Variablen wie Monitor etc.

Natürlich müssen die Peripheriegeräte absolut gleich konfiguriert und angeschlossen sein.


Die 4070 Ti als 4070 und für 599$ hätten wesentlich weniger Leute kritisiert. Chip, Board, Speicher, etc. wären sogar die selben wie bei der heutigen 4070 ;)

Dieser Preis war wahrscheinlich sogar von Nvidia vorgesehen, denn dazu passt der Chip auch. Dann haben sie AMD´s Rohrkrepierer gesehen und die Preise nach oben geschraubt - mit Ausnahme der 4090. :)

du kannst es nicht lassen oder? Immer muss noch irgendwie gegen AMD getreten werden.
Was dann wieder Folgeposts auslöst von der anderen Seite... LERNT IHR ES EIGENTLICH NIE???

blaidd
2023-04-17, 20:56:04
Top Diagramme bastelt ihr da bei PCGH :up:

Interessant wäre da noch ohne FG aber mit Reflex (=bestmögliche Latenz) und natürlich die Konkurrenz in Form einer AMD / Intel Karte ohne Reflex & FG. Raff hat letzteres tabellarisch bei seinen letzten Tests drin gehabt, via Grafik kann man es aber besser und schneller einordnen.

Danke. Davon hab ich auch ein paar gemacht ;)

Lang nicht für alles, was interessant wäre und das ist wahrscheinlich auch in gewissem Umfang ein noch spannendes Thema.

Ich bleib ein bisschen dran, soweit ich kinda nebenbei kann (und das kann ich wahrscheinlich auch noch gut optimieren. Zwei Mess-Tools sollten eigentlich nicht nötig sein. Und wo ist die verdammte KI, wenn man sie mal brauchen könnte...)

DrFreaK666
2023-04-17, 23:50:45
9neYEf8qoGM

crux2005
2023-04-18, 04:05:46
ASUS 4070 DUAL $599 MSRP "...aluminum backplate is nice to see on a budget card like this..." :facepalm: Ich kann echt nicht mehr.

YwdXpuTf76M

Gumril
2023-04-18, 07:35:29
Nur oft genug wiederholen dann wird aus einer 650€ eine Budgetkarte ;)
Ich bin echt auf die nächsten 2. Generationen gespannt mit den Preisen.

OpenVMSwartoll
2023-04-18, 07:47:41
ASUS 4070 DUAL $599 MSRP "...aluminum backplate is nice to see on a budget card like this..." :facepalm: Ich kann echt nicht mehr.

https://youtu.be/YwdXpuTf76M

Direkt unter dem Video:

"Thanks to ASUS sponsoring today's video!"

Keine weiteren Fragen...

dargo
2023-04-18, 07:51:49
Neumodische Fach-Reviewer. X-D Muss man leider heute mit leben. Die mediale Reichweite von heute ist jeder Marketingabteilung eines beliebigen Herstellers längst bekannt. ;)

aufkrawall
2023-04-18, 08:01:53
Gibt immerhin keinen großen Aufpreis gegenüber den "günstigsten" Modellen. Die Lüfter sind schon ganz ok hier bei der 6700 XT Dual, würde ich der seit einiger Zeit miesen Qualität von MSI immer vorziehen.

r3ptil3
2023-04-18, 10:49:00
ASUS 4070 DUAL $599 MSRP "...aluminum backplate is nice to see on a budget card like this..." :facepalm: Ich kann echt nicht mehr.

https://youtu.be/YwdXpuTf76M

Hahaha... aber 2.16 Mio Follower - WTF

Hab aber mittlerweile glaub gecheckt auf was es ankommt:
- bisschen LED und halbwegs anständige Kamera
- jemand der das Klischee des typischen Nerds erfüllt (äusserlich), alles andere ist offensichtlich egal
- und halt das Produkt

Prinzenrolle
2023-04-18, 16:06:08
Ich bin echt auf die nächsten 2. Generationen gespannt mit den Preisen.

Das Preisgenöle hat schon so einen Bart bekommen.
Wer alle 4 Jahre aufrüstet bekommt immer noch extrem geile Hardware für sein Geld. Und ob das Ding nun 550 oder 630 Euro kostet, ist mir völlig wurscht.

Lehdro
2023-04-18, 16:12:12
Ich finde das übrigens immer noch ein Unding das seitens einiger Reviewer als Standard "FG on" vs "FG off (Reflex off)" zu testen. Warum sollte irgendjemand Reflex ausschalten, wenn es verfügbar ist? Das ergibt doch überhaupt keinen Sinn, wenn man doch sonst nach möglichst geringen Latenzen strebt. Und jedes Spiel was FG hat, hat auch zwangsweise Reflex. Wenn ich Alufolie hätte, würde ich mir einen Hut basteln müssen um das zu begründen... ;)

Exxtreme
2023-04-18, 16:22:20
Das Preisgenöle hat schon so einen Bart bekommen.
Wer alle 4 Jahre aufrüstet bekommt immer noch extrem geile Hardware für sein Geld. Und ob das Ding nun 550 oder 630 Euro kostet, ist mir völlig wurscht.

Das Preisgenöle wird nie weggehen. Und es ist halt so, hohe Preise sind für viele Leute eine echt harte Mauer, die nicht ohne Weiteres überwindbar ist. Wenn man sich etwas nicht leisten kann dann kann man sich es nicht leisten und fertig. Und das zieht wieder woanders einen Rattenschwanz an Konsequenzen nach sich. Die Leute, die sich eine teure Hardware kaufen wegen RT/DLSS/FSR/whatever werden diese Features mit allerhöchster Wahrscheinlichkeit nicht nutzen können. Weil kaum ein Spielehersteller sie in Spiele einbauen wird. Weil fast niemand die passende Hardware hat weil diese Hardware zu teuer ist etc. Und dann hast du eine 1700 EUR-Grafikkarte und darfst die meisten AAA-Spiele auf PS5-Level spielen. Es sei denn natürlich AMD oder Nvidia haben sich in ein Studio eingekauft und sponsorn mehr Effekte wie bei CP2077.

Und deshalb halte ich diese Preisentwicklung für sehr sehr schädlich für den PC-Spiele-Markt.

gnomi
2023-04-18, 17:37:23
Na ja. Diese Strategie der immer höheren Preise und neuen Klassen nach Oben fährt nvidia strenggenommen bereits seit der Titan 2013 erfolgreich.
Besser paar Aktien kaufen, die die Karten über die Jahre gleich mit bezahlen.
Privat ist da nichts zu machen bei Interesse. Man bleibt Opfer. :freak:
500€ für die beste Karte ist Schnee von gestern.
Genau wie 350 für kaum schlechter oder 200€ für brauchbar Mitschwimmen im Markt.
In den ersten 5 Jahren PC 3d Gaming habe ich mir sieben Karten von drei Herstellern gekauft.
In den letzten 7 Jahren 3 Karten von einem.
Der Hersteller ist nvidia und baut seit 20 Jahren wohl immer die besten GPU's mit den besten Features ausnahmslos. (2014 GSync, 2018 Ray Tracing, 2019 DLSS 2, 2022 FG zum Beispiel)
Diese Features werden imho aber sehr gut unterstützt und angenommen.
Da ist ein lukrativer Markt entstanden. (nvidia wird aber auch für andere Zwecke GPU's los...)
Im Pionierzeitalter sind wir schon lange nicht mehr.
Aktuell ist das purer, aber eben gefragter Luxus.
Und für 300-350€ bekommt man immerhin etwa PS5 Niveau.
Leicht nachgeben kann es eventuell mit der 5000er Serie.
Eine ernstzunehmende Karte @ 4080 Niveau für 600 und 4090 Niveau unter 1k halte ich ja für möglich Ende 2024.
Das wäre doch schon gut.
Bis dahin ist eine 4070 zu 650€ bis zu einer Überarbeitung der Konsolen (falls die überhaupt kommt, denn Preis Niveau zu hoch und wahrscheinlich verkaufen die lieber einfach weiter ohne Preise zu senken) sicher auch okay. Es gibt einfach keinen Ausweg gerade. Gebraucht kommt eine 3080 denke ich auch maximal auf 500 runter. :(

Ex3cut3r
2023-04-18, 17:51:22
Die Leute, die sich eine teure Hardware kaufen wegen RT/DLSS/FSR/whatever werden diese Features mit allerhöchster Wahrscheinlichkeit nicht nutzen können. Weil kaum ein Spielehersteller sie in Spiele einbauen wird.

Was? :freak:

https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games

Wie kommt man auf so eine Aussage?

Bei meinen installierten Spielen, haben 10 von 12 Spielen, DLSS 2 und DLSS 3 (FG) drin. Und 5 haben RT drin.

https://abload.de/img/screenshot2023-04-181m5i3r.png

Pumpi74
2023-04-18, 17:55:52
im 200Watt Bereich ist die Karte ALTERNATIVLOS :D

Ganz im Ernst, die 300Watt der 4070Ti wären mir in den warmen 5 Monaten des Jahres schon zu viel. ich werd mich an der Effizienz der 4070 erfreuen und in spätestens 2 Jahren kauf ich mir eh ne neue Karte, da spielt der Vram bei meiner Anwendung überhaupt keine Rolle. Und ob es jetzt 500 oder 600 Euro sind ist mir auch Banane, obwohl ich eigentlich nichts zu verschenken hab.

DrFreaK666
2023-04-18, 18:12:05
...
Der Hersteller ist nvidia und baut seit 20 Jahren wohl immer die besten GPU's mit den besten Features ausnahmslos...

Radeon HD5870 vergessen? Zum Release deutlich schneller als NVs Karten und Nvidia konterte später mit dem berühmt-berüchtigten GTX480.
Was hatte Nvidia zu bieten außer GPU-PhysX?

Pumpi74
2023-04-18, 18:15:31
reichlich Tesselation ?

DrFreaK666
2023-04-18, 18:18:07
Und eingebaute Heizung :D
Und laut CB einen Verbrauch von bis zu 450W :ugly:

Spring
2023-04-18, 18:41:55
Das Preisgenöle wird nie weggehen. Und es ist halt so, hohe Preise sind für viele Leute eine echt harte Mauer, die nicht ohne Weiteres überwindbar ist. Wenn man sich etwas nicht leisten kann dann kann man sich es nicht leisten und fertig. Und das zieht wieder woanders einen Rattenschwanz an Konsequenzen nach sich. Die Leute, die sich eine teure Hardware kaufen wegen RT/DLSS/FSR/whatever werden diese Features mit allerhöchster Wahrscheinlichkeit nicht nutzen können. Weil kaum ein Spielehersteller sie in Spiele einbauen wird. Weil fast niemand die passende Hardware hat weil diese Hardware zu teuer ist etc. Und dann hast du eine 1700 EUR-Grafikkarte und darfst die meisten AAA-Spiele auf PS5-Level spielen. Es sei denn natürlich AMD oder Nvidia haben sich in ein Studio eingekauft und sponsorn mehr Effekte wie bei CP2077.

Und deshalb halte ich diese Preisentwicklung für sehr sehr schädlich für den PC-Spiele-Markt.


Schön zusammengefasst.

Was? :freak:

https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games

Wie kommt man auf so eine Aussage?

Bei meinen installierten Spielen, haben 10 von 12 Spielen, DLSS 2 und DLSS 3 (FG) drin. Und 5 haben RT drin.

https://abload.de/img/screenshot2023-04-181m5i3r.png

Das beweist gar nichts. Hab nur ein Game mit RT und da dürfte ich nicht der Einzige sein.
Wäre auch komisch wenn ein 3080/3090/4080/4090 Nutzer nicht einige RT Spiele in der Bibliothek hätte, für Raster braucht man die Karten nicht zwingend.

Exxtreme
2023-04-18, 19:34:57
Wie kommt man auf so eine Aussage?

Bei meinen installierten Spielen, haben 10 von 12 Spielen, DLSS 2 und DLSS 3 (FG) drin. Und 5 haben RT drin.

https://abload.de/img/screenshot2023-04-181m5i3r.png

Das ist halt deine persönliche Auswahl. :) Hier mal eine Liste der PC-Spiele 2022:
https://www.pcgamer.com/new-games-2022/

Da dürfte nur ein winzigster Bruchteil diese Features unterstützen. :)