Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4060 Ti 8 GB Review-Thread
Razor
2023-07-27, 07:50:09
Noch nicht ;)
Steam-Hard- & Softwareumfrage: June 2023 (https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam)
Ganz im Gegenteil:
- VRAM <= 6GB noch über 50%
- VRAM <= 8GB fast 80%
Alles was darüber liegt ist dann doch eher zu vernachlässigen, oder?
Razor
P.S.: und bitte... alle Varianten der 1060 zusammen zählen.
Auch ist eine 3060/12GB ab 280€ auch nicht wirklich "günstig".
Aber die Chance, dass nVidia und die AIB die Restbestände verkaufen, steigt :D
aufkrawall
2023-07-27, 07:53:06
Die 8GB-Krüppelkarte ist einfach nur ein komplettes Desaster:
https://abload.de/img/4060ti8jfnq.png (https://abload.de/image.php?img=4060ti8jfnq.png)
Razor
2023-07-27, 07:54:20
Dann ist es eine 3060 mit 12GB aber auch...
Äpfel und Birnen, gell?
Razor
dildo4u
2023-07-27, 07:57:10
Texturen maxen und DLSS anschalten?
Das Bild sollte damit besser als auf PS5 sein.(Wenn alle Gamebugs gefixt wurden)
Am geilsten fand' ich "over 9000%" bei Wolfenstein Youngblood in UHD... was war das? 10 vs 0,1 fps? ;D
Sorry, aber solche Tests sind wirklich vollkommen sinnfrei.
Schade, du hast offenbar weder den Text gelesen, noch die Grafiken aufmerksam angesehen, sondern bist direkt in den Abwehrmodus gegangen. :(
Es bleibt dabei, sogar mehr denn je: 8 GiByte sind okay - aber eben nicht bei Neuware, die über 200 oder von mir aus 250 Euro hinausgeht. Mit 25 TFLOPS kann man 12 GiByte ausfahren und 16 sind prima als Polster für die Zukunft.
Die 8GB-Krüppelkarte ist einfach nur ein komplettes Desaster:
https://abload.de/img/4060ti8jfnq.png (https://abload.de/image.php?img=4060ti8jfnq.png)
Das Spiel erschien gestern um 17 Uhr und bis auf "Edel-Influencer" gab es keine Vorabzugänge - wie zur Hölle haben die also jetzt schon so viele Werte? Man muss das ja nicht "nur" benchen, sondern vorher auch eine Szene festlegen etc. Mehr natürliches Misstrauen, das zur Abwechslung mal nicht mich oder PCGH betrifft, wäre angebracht. :D
MfG
Raff
robbitop
2023-07-27, 09:06:29
Hmmm...
Fazit ist also: Bring ordentlich was bei den Frametimes!
Ob Spielbar oder nicht ist dann doch eher zweitrangig...
Echt jetzt?
Am geilsten fand' ich "over 9000%" bei Wolfenstein Youngblood in UHD... was war das? 10 vs 0,1 fps? ;D
Sorry, aber solche Tests sind wirklich vollkommen sinnfrei.
Und was ist das mit Deiner "Anti-8GB-Kampangne"?
Die meisten Spieler wäre froh, eine 8GB Karte im Rechner zu haben!
(der Sohn eines Bekannten spielt noch immer mit 'ner GTX 960/4GB aus 2015)
Razor
Die 4060 ist aber eine Karte aus 2023. Und 8 GB gibt es seit der R390 im Midrange - also seit 8 Jahren.
Linmoum
2023-07-27, 09:21:20
Hmmm...
Fazit ist also: Bring ordentlich was bei den Frametimes!
Ob Spielbar oder nicht ist dann doch eher zweitrangig...
Echt jetzt?
Am geilsten fand' ich "over 9000%" bei Wolfenstein Youngblood in UHD... was war das? 10 vs 0,1 fps? ;D
In UHD schaffte die 16GiB 4060Ti schon beim P0.2 knapp 100fps. Wie kommst du daher darauf, dass "ob spielbar oder nicht dann doch eher zweitrangig" ist? Deinen Kommentaren nach zu Raffs Messungen hast du diese gar nicht erst gelesen, sondern rantest nur völlig unbegründet am Thema vorbei.
Und was ist das mit Deiner "Anti-8GB-Kampangne"?
Die meisten Spieler wäre froh, eine 8GB Karte im Rechner zu haben!
(der Sohn eines Bekannten spielt noch immer mit 'ner GTX 960/4GB aus 2015)Es gibt keine "Anti-8GB-Kampagne". Was es gibt, ist das Aufzeigen von Speichermangel vor dem Hintergrund des verlangten Preises seitens des (bzw. der) Hersteller. Dein Beispiel mit der 960 geht daher am Thema vorbei, der Sohn deines Bekannten (oder wer auch immer) hat für diese Karte garantiert keine 400€ gezahlt. Keiner beschwert sich über 8GiB Speicher, wenn eine solche GPU für 200€ zu haben ist. Preise ändern aber die Bewertung der Ausstattung eines Produktes und das auch völlig zurecht. Daher kann man gar nicht genug darauf hinweisen, dass 8GiB Speicher einfach zu wenig sind, wenn die Hersteller für die Grafikkarten dann trotzdem noch viel Geld haben wollen.
Niemand, der einen schmalen Geldbeutel hat und für kleines Geld eine GPU kauft, erwartet, dass er hier schon >12GiB bekommt und keine Kompromisse eingehen muss. Wenn ich aber schon 300€+ für eine GPU hinlege, dann will ich nicht auch noch mit Speicher abgespeist werden, den es 2016 (!) schon mit der 480 für weniger (!) Geld zu kaufen gab. Ganz offiziell in Form der UVP und nicht monatelang alte Straßenpreise.
aufkrawall
2023-07-27, 09:27:15
Das Spiel erschien gestern um 17 Uhr und bis auf "Edel-Influencer" gab es keine Vorabzugänge - wie zur Hölle haben die also jetzt schon so viele Werte? Man muss das ja nicht "nur" benchen, sondern vorher auch eine Szene festlegen etc. Mehr natürliches Misstrauen, das zur Abwechslung mal nicht mich oder PCGH betrifft, wäre angebracht. :D
Sollte man meinen, aber deren Werte weichen imho selten grob vom Schnitt ab. Zumindest wesentlich belastbarer als Balken in irgendwelchen YT-Videos, wo man die getestete Szene auf Hardware x inkls. Performance-Overlay nicht sieht.
Exxtreme
2023-07-27, 09:31:32
Noch nicht ;)
Steam-Hard- & Softwareumfrage: June 2023 (https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam)
Ganz im Gegenteil:
- VRAM <= 6GB noch über 50%
- VRAM <= 8GB fast 80%
Alles was darüber liegt ist dann doch eher zu vernachlässigen, oder?
Razor
Wenn man sich mit niedrigen Detailstufen zufrieden gibt dann ja. Dann braucht's aber auch keine neue Grafikkarte sondern das alte vorhanden Modell aus dem Jahre 2019 tut's auch.
Crazy_Borg
2023-07-27, 11:04:20
Die 8GB-Krüppelkarte ist einfach nur ein komplettes Desaster:
https://abload.de/img/4060ti8jfnq.png (https://abload.de/image.php?img=4060ti8jfnq.png)
Komische Benchmarkübersicht.
3060 TI langsamer als 3060 non-Ti. Liegts echt am RAM?
Keine 4060 TI mit 16 GB im Vergleich dazu.
Auch keine 3060 mit 8GB im Vergleich dazu.
aufkrawall
2023-07-27, 11:19:25
3060 TI langsamer als 3060 non-Ti. Liegts echt am RAM?
Muss ja, macht auch 11GB in 1080p voll.
Aber vielleicht hat man ja wieder Glück und es läuft nach einem halben Jahr an Patches auch mit 8GB gescheit...
Mordekai2009
2023-07-27, 11:29:01
Videospeichernutzung. Links ist Nvidia und Rechts ist AMD
Ohne RT und max:
1080p: ~9,23 GB / ~10,78 GB
1440p: ~9,94 GB / ~11,30 GB
2160p: ~11,12 GB / ~12,21 GB
Mit RT und max:
1080p: ~10,77 GB / kA
1440p: ~11,44 GB / kA
2160p: ~13,94 GB / kA
Quelle: https://gamegpu.tech/action-/-fps-/-tps/ratchet-clank-rift-apart-pc-performance-benchmarks-for-graphics-cards-and-processors
Ist klar dass die 8GB Karten wie RTX 4060 / RTX 3060 Ti und co weniger schmecken, auf maximalen Grafikeinstellungen zu spielen, egal ob mit oder ohne RT.
Hakim
2023-07-27, 18:22:16
Das Fazit vom neuen 4060Ti 16GB Test von der PCGHW und Raff finde ich diesmal deutlich besser. Beim Preis würde ich Sagen so 339€ für die 8 GB Karte und 399€ für die 16GB Version und gut ist :)
Exxtreme
2023-07-27, 18:23:34
Das Fazit vom neuen 4060Ti 16GB Test von der PCGHW und Raff finde ich diesmal deutlich besser. Beim Preis würde ich Sagen so 339€ für die 8 GB Karte und 399€ für die 16GB Version und gut ist :)
Deine genannten PReise durch 2 teilen und schon passst das.
Linmoum
2023-07-27, 18:25:32
Ich bin ja längst kein Verfechter dieser Preisgestaltung in der "Mittelklasse", aber eine GPU mit 16GiB für 200€ ist selbst in meinen Augen etwas zu rosarot. :D
Hakim
2023-07-27, 18:25:42
Deine genannten PReise durch 2 teilen und schon passst das.
Ja komm, jetzt übertreibst du etwas :D, wollte zumindest realistisch bleiben, hätte aber nichts gegen türlich
Das Fazit vom neuen 4060Ti 16GB Test von der PCGHW und Raff finde ich diesmal deutlich besser. Beim Preis würde ich Sagen so 339€ für die 8 GB Karte und 399€ für die 16GB Version und gut ist :)
:up:
Hier ist das Video übrigens:
BaguCHc5zb0
Ist quasi der ganze Test (der in Schrift- und Balkenform erst morgen früh online geht).
MfG
Raff
][immy
2023-07-27, 23:37:38
Videospeichernutzung. Links ist Nvidia und Rechts ist AMD
Ohne RT und max:
1080p: ~9,23 GB / ~10,78 GB
1440p: ~9,94 GB / ~11,30 GB
2160p: ~11,12 GB / ~12,21 GB
Mit RT und max:
1080p: ~10,77 GB / kA
1440p: ~11,44 GB / kA
2160p: ~13,94 GB / kA
Quelle: https://gamegpu.tech/action-/-fps-/-tps/ratchet-clank-rift-apart-pc-performance-benchmarks-for-graphics-cards-and-processors
Ist klar dass die 8GB Karten wie RTX 4060 / RTX 3060 Ti und co weniger schmecken, auf maximalen Grafikeinstellungen zu spielen, egal ob mit oder ohne RT.
Das sind Werte die der Treiber meldet, sagt leider nix darüber aus ob der sillauch wirklich genutzt wird. Kann gut sein das einfach der AMD Treiber anders verteilt um speicherfragmentierung zu vermeiden.
Razor
2023-07-28, 07:25:47
Schade, du hast offenbar weder den Text gelesen, noch die Grafiken aufmerksam angesehen, sondern bist direkt in den Abwehrmodus gegangen. :(
Weils eben kein richtiger Test ist... oder wenn überhaut nur einer für "Enthusiasten" (ich versuche extra, nicht so etwas wie "Experten" zu verwenden!).
Das Zielpublikum sind schlicht anspruchslose Spieler, die ja... heute deutlich tiefer in die Tasche greifen müssen, als noch vor 5 Jahren oder so.
Und wenn wir schon dabei sind... wo steht überhaupt etwas zum verwendeten Testsystem?
Passt es zum Anspruch der Spieler - also dem, was die rund 80% der Steam-User mit einer 8GB "paaren"?
Die 4060 ist aber eine Karte aus 2023. Und 8 GB gibt es seit der R390 im Midrange - also seit 8 Jahren.
Vollkommen uninteressant... wie gerade gezeigt, nutzen 50% der Steam-User - heute - nicht mal 8GB und uralte Karten.
Ansprüche von "Enthusiasten" interessieren in diesem Segment wirklich niemanden... auch wenn's mal kurz "ruckelt", nicht.
In UHD schaffte die 16GiB 4060Ti schon beim P0.2 knapp 100fps. Wie kommst du daher darauf, dass "ob spielbar oder nicht dann doch eher zweitrangig" ist?
Habe mir jetzt nochmal den "ganzen Text" (ist ja nicht viel) durchgelesen... wo hast Du bitte die "knapp 100fps" her? Für was?
Spider-Man Morales... mit RT & MaxDetails... kein Unterschied, nicht mal in den FrameTimes.
Oder meinst Du die noch realitätsfernere WQHD-Auflösung? Wo es die 16GB auch mal über die 60 minFrames schaffen?
Es wurden nur die paar Ausnahmen gezeigt, die schon bekannt waren... warum sollte ich dafür > 500 Tacken hinlegen?
Es gibt keine "Anti-8GB-Kampagne". Was es gibt, ist das Aufzeigen von Speichermangel vor dem Hintergrund
Wenn man nicht ganz "blind" ist, schaut man sich auch andere Ansichten dazu an... und mit seiner extremen, sehr populistischen Meinung ist Raff ziemlich alleine.
Klar sind 8GB nicht viel... ähnlich den 2vs4GB damals... aber es ist "ausreichend" und bei weitem nicht "ungenügend".
Wie man sieht, schafft auch die 16GB Variante nicht mal ein "befriedigend"... und kostet nochmal 100€ mehr.
Der "Mehrwert" der RTX 4060ti/16GB ist faktisch 0.
Deswegen hat nVidia für das Release wohl auch kaum Aufhebens gemacht.
Wenn man sich mit niedrigen Detailstufen zufrieden gibt dann ja. Dann braucht's aber auch keine neue Grafikkarte sondern das alte vorhanden Modell aus dem Jahre 2019 tut's auch.
Oder aus 2015, ja.
Aber das tut selbst mir schon ordentlich weh...
Trotzdem haben die Teenies Spaß daran, träumen aber trotzdem von "mehr".
Nun sitzt eben auch bei Papi das Geld nicht mehr so locker, zumal dass dieser nochmal deutlich tiefer in die Tasche greifen müsste.
Also heißt es weiter warten... und der PC-Markt schrupft.
Kein Wunder, dass die Konsolen krass wachsen, die PS5/Disc kostet grad' mal 460€ und Fernseher stehen überall rum.
Razor
P.S.: schon traurig, dass der PC-Gaming-Markt schon fast auf "Tablet"-Niveau gesunken ist :(
Crazy_Borg
2023-07-28, 09:04:53
Ich bin ja längst kein Verfechter dieser Preisgestaltung in der "Mittelklasse", aber eine GPU mit 16GiB für 200€ ist selbst in meinen Augen etwas zu rosarot. :D
200€ für die 8GB Karte.
die 16GB Karte "darf" dann ruhig 250€ kosten...
:rolleyes:
Thunder99
2023-07-28, 09:14:58
Wer den Mehrwert der 16GB nicht sieht ist nicht mir nicht begreiflich. Mag sein das 16GB Overkill sind aber 8 sind einfach zu wenig immer sorgenfrei zu spielen. Es wird da nicht besser mit der Zeit.
Einzig der Preis macht die Karte nicht empfehlenswert. Hilft nur auf AMD zu warten mit hoffentlich besseren Lösungen.
DrFreaK666
2023-07-28, 09:15:10
200€ für die 8GB Karte.
die 16GB Karte "darf" dann ruhig 250€ kosten...
:rolleyes:
Und die normale 4060 für 100€, oder was? :ugly:
Crazy_Borg
2023-07-28, 09:21:39
Nee, 150€ darf schon.
:freak:
Exxtreme
2023-07-28, 09:24:21
Und die normale 4060 für 100€, oder was? :ugly:
Wir sind mal großzügig und würden uns mit 105 EUR auch zufrieden geben :) Nee ernsthaft, 250 EUR kann sie schon kosten. 400 EUR sind aber viel zu viel.
Troyan
2023-07-28, 10:29:41
Videospeichernutzung. Links ist Nvidia und Rechts ist AMD
Ohne RT und max:
1080p: ~9,23 GB / ~10,78 GB
1440p: ~9,94 GB / ~11,30 GB
2160p: ~11,12 GB / ~12,21 GB
Mit RT und max:
1080p: ~10,77 GB / kA
1440p: ~11,44 GB / kA
2160p: ~13,94 GB / kA
Quelle: https://gamegpu.tech/action-/-fps-/-tps/ratchet-clank-rift-apart-pc-performance-benchmarks-for-graphics-cards-and-processors
Ist klar dass die 8GB Karten wie RTX 4060 / RTX 3060 Ti und co weniger schmecken, auf maximalen Grafikeinstellungen zu spielen, egal ob mit oder ohne RT.
Problem ist, dass du "maximale" Einstellungen in 1080p und 1440p kaum siehst. In 1440p mit "Medium" oder "High" Texturen hast du bei weniger Speicherverbrauch eine bessere Qualität als in 1080p mit "Very High".
Das ist ungefähr das selbe wie in Remnant 2, was absolut miserabel auf modernen nVidia-GPUs läuft. Diese Entwickler und Portierer haben jeglichen Sinn für Effizienz verloren.
The_Invisible
2023-07-28, 11:06:42
Wir sind mal großzügig und würden uns mit 105 EUR auch zufrieden geben :) Nee ernsthaft, 250 EUR kann sie schon kosten. 400 EUR sind aber viel zu viel.
Hab gedacht AMD ist der Wohlfahrtsverein, dabei kostet auch dort eine 7600 so 270EUR laut Geizhals .
Aber hast schon recht, generell zu teuer, eine xx60er sollte eigentlich nie über 400 kommen...
gnomi
2023-07-28, 13:13:08
Hat alles auch seine guten Seiten.
Alle fünf Jahre alten Karten mit 8GB VRAM so ab 2070 bleiben jetzt weiterhin brauchbar im Spiel und behalten etwas Restwert.
Paar Einstellungen anpassen und Patches abwarten und es passt zumeist noch.
Mit Texturen High oder gar Normal plus DLSS Balanced kommt man imho klar.
Troyan
2023-07-28, 18:02:13
https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/vram.png
https://www.techpowerup.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/5.html
4K hat 5,7x mehr Pixel als 900p, aber nur 18% höheren VRAM Bedarf. :rolleyes::freak:;D
/edit: Die 6GB mit Low in 900p zeigen das selbe Problem wie TLoU. Unglaublicher VRAM Grundbedarf bei miserabler Qualität. So sehen die Low-Texturen aus: https://youtu.be/rT02nhZ4BuI?t=370 und https://youtu.be/rT02nhZ4BuI?t=586
Razor
2023-07-28, 18:33:31
Raffs "richtiger" Test und er sieht sich bestätigt:
RTX 4060 Ti 16GB im Test: Preis-Leistung und Fazit (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/Tests/Geforce-4060-Ti-16GB-Test-Benchmark-Release-8GB-vs-16GB-1424743/5/)
"Diese Speicherkapazität wird auch in den folgenden Jahren einen sorglosen Betrieb in Full HD und WQHD erlauben"
Ja klar... :biggrin:
Schon jetzt zu schwach, aber "in den folgenden Jahren" wird sie voll aufdrehen!
Ich schmeiß mich wech ;D
Razor
DrFreaK666
2023-07-28, 18:37:54
Ja, kann das Fazit auch nicht verstehen. Vielleicht mit DLLS P und weil jedes Spiel FG anbieten wird
Exxtreme
2023-07-28, 18:52:22
4K hat 5,7x mehr Pixel als 900p, aber nur 18% höheren VRAM Bedarf. :rolleyes::freak:;D
Ja, ist so. Aber das predige ich die ganze Zeit, dass höhere Auflösung den VRAM-Bedarf nur marginal erhöht. Aber mir glaubt irgendwie keiner. :freak:
ChaosTM
2023-07-28, 18:55:29
Bis 1440p mit DLSS und eventuell FG hast du doppelte Entlastung. Das reicht sogar diese Gurken-Gpu, wenn sie 16GB hat. Mit 8 -> ab in die Tonne in spätestens 1-2 Jahren. Das Fazit passt schon.
Lurtz
2023-07-28, 19:45:49
/edit: Die 6GB mit Low in 900p zeigen das selbe Problem wie TLoU. Unglaublicher VRAM Grundbedarf bei miserabler Qualität. So sehen die Low-Texturen aus: https://youtu.be/rT02nhZ4BuI?t=370 und https://youtu.be/rT02nhZ4BuI?t=586
Das wird sich nicht mehr Wesentlich ändern in dieser Konsolengeneration. Kann man sich jetzt endlos darüber aufregen, oder adäquate Hardware kaufen (also keine 4070 so wie ich wieder ;D).
DrFreaK666
2023-07-28, 19:52:39
Das wird sich nicht mehr Wesentlich ändern in dieser Konsolengeneration. Kann man sich jetzt endlos darüber aufregen, oder adäquate Hardware kaufen (also keine 4070 so wie ich wieder ;D).
FG for the win :D
Troyan
2023-07-29, 09:26:33
Ja, ist so. Aber das predige ich die ganze Zeit, dass höhere Auflösung den VRAM-Bedarf nur marginal erhöht. Aber mir glaubt irgendwie keiner. :freak:
Was logisch ist, wenn das Spiel Textur-mäßig richtig dumm ist. Daher sind Aussagen ala "8GB" reichen nicht, auch vollkommen sinnbefreit.
Habe das mal mit Spider-Man Miles Morales nachgestellt:
1080p mit Very High Texturen vs 1440p mit High Texturen: https://imgsli.com/MTk0OTEz
2GB weniger Verbrauch in 1440p bei am Ende besserer Bildqualität. Einzig im Vordergrund auf dem Boden sieht man die besseren Texturen.
Würde Entwickler also endlich mal anfangen ihre Spiele zu optimieren, dann würde man locker mit 8GB auskommen.
Mordekai2009
2023-07-29, 10:05:58
RTX 4060 Ti 16GB wurde in Ratchet and Clank Rift Apart Benchmark nachgereicht:
https://www.techpowerup.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/5.html
Jetzt wird es interessant. Bin gespannt auf weitere Treiber-Releases samt Spielepatches in den nächsten Monaten.
aufkrawall
2023-07-29, 10:26:07
Wow, was ist das wieder für ein min-fps Debakel bei den GeForces? wtf. :eek:
Edit: Tippe auf DirectStorage. Würde mich gar nicht wundern, wenn das auf Radeons vom Spiel auch nicht genutzt wird...
Exxtreme
2023-07-29, 10:31:44
Was logisch ist, wenn das Spiel Textur-mäßig richtig dumm ist. Daher sind Aussagen ala "8GB" reichen nicht, auch vollkommen sinnbefreit.
Liegt nicht unbedingt an "Dummheit" des Spiels. Es ist so, das Spiel muss alle Mip-Stufen einer Textur vorhalten um nach Bedarf schnell genug wechseln zu können. Das dynamisch zu streamen und gerade nicht benötigte Mip-Stufen wieder löschen ist viel zu langsam. Dafür ist der PC schlicht nicht gemacht. Pcie hat viel zu wenig Bandbreite und viel zu hohe Latenzen für sowas. Die allerhöchste Mip-Stufe mal pauschal weglassen, das würde viel helfen. Aber das sorgt wiederum für Unschärfe.
Troyan
2023-07-29, 12:22:20
Liegt nicht unbedingt an "Dummheit" des Spiels. Es ist so, das Spiel muss alle Mip-Stufen einer Textur vorhalten um nach Bedarf schnell genug wechseln zu können. Das dynamisch zu streamen und gerade nicht benötigte Mip-Stufen wieder löschen ist viel zu langsam. Dafür ist der PC schlicht nicht gemacht. Pcie hat viel zu wenig Bandbreite und viel zu hohe Latenzen für sowas. Die allerhöchste Mip-Stufe mal pauschal weglassen, das würde viel helfen. Aber das sorgt wiederum für Unschärfe.
Wieso sollte das nicht gehen? Relevant ist einzig nur die Entfernung zur Kamera. Näher, höher aufgelöst, weiter weg weniger.
Es würde auch schon reichen, wenn Textureinstellung eben basierend auf der Auflösung die entsprechenden Texturen wählt und nicht ala Brute-Force einfach die höchste Qualität nimmt. Hier mal ein andere Vergleich aus Spider-Man zwischen 720p mit Very High und 1440p mit High: https://imgsli.com/MTk0OTUw
7,3GB gegen 6,2GB. Mit Very High reichen 6GB VRAM in 720p nicht aus, aber in 1440p mit High bei deutlich besserer Bildqualität schon.
Ja, ist so. Aber das predige ich die ganze Zeit, dass höhere Auflösung den VRAM-Bedarf nur marginal erhöht. Aber mir glaubt irgendwie keiner. :freak:
Das stimmt aber nur bedingt, denn für hohe Auflösungen brauchst du höher aufgelöste Texturen und genau da liegt der Hase im Pfeffer.
Raffs "richtiger" Test und er sieht sich bestätigt:
RTX 4060 Ti 16GB im Test: Preis-Leistung und Fazit (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/Tests/Geforce-4060-Ti-16GB-Test-Benchmark-Release-8GB-vs-16GB-1424743/5/)
"Diese Speicherkapazität wird auch in den folgenden Jahren einen sorglosen Betrieb in Full HD und WQHD erlauben"
Ja klar... :biggrin:
Schon jetzt zu schwach, aber "in den folgenden Jahren" wird sie voll aufdrehen!
Ich schmeiß mich wech ;D
Razor
Wenn man bedenkt, dass ne 4060Ti zwar nicht soviel Renderleistung hat und bei UHD@FHD (DLSS) künftig bei 40-50FPS landet mit medium Details, kannst du aber auch bei modernen Games trotzdem die volle Texturauflösung nutzen, während du solche Games mit 8GB schlichtweg vergessen kannst. Ich find das erwähnenswert.
Exxtreme
2023-07-29, 13:10:06
Wieso sollte das nicht gehen? Relevant ist einzig nur die Entfernung zur Kamera. Näher, höher aufgelöst, weiter weg weniger.
Nein, es gibt noch andere Faktoren wie Streckung etc. Wenn du eine hoch aufgelöste Textur auf ein riesiges Polygon drauflegst dann sieht das trotzdem unscharf aus trotz hoher Texturauflösung wenn die Kamera des Spielers nah rangeht. Weil die Textur stark gestreckt wurde. Dann brauchst du mit allerhöchster Wahrscheinlichkeit die höchste Mip-Stufe.
Und hier fangen die Probleme so richtig an wenn man das genau machen will. Du müsstest pro im Spiel befindliches Polygon(!!) ermitteln ob die Kamera eines Spielers jemals so nah sein kann, dass man unter Berücksichtigung der Streckung und der Bildschirmauflösung Mip-Stufen gefahrlos weglassen kann. Und da spielt das Leveldesign mit eine Rolle etc. Diese Informationen müsstest du dann in jedem Polygon irgendwie hinterlegen.
Und deswegen wird das nicht gemacht. Du bräuchtest wahrscheinlich Mannjahrhunderte um das zu machen, das Spiel wäre unbezahlbar. Man macht das viel simpler: alle Texturen, die ein Spieler aus der Nähe betrachten könnte, werden mit allen Mip-Stufen geladen. Der Rest sind Dekorationen/Hintergrund-Texturen und die lässt man relativ unscharf. Für alles andere gibt es den Detailstufen-Regler.
Troyan
2023-07-30, 20:48:11
Das geschieht aber nicht in den Spielen. Es werden Texturen in den VRAM geladen, die aufgrund der niedrigen Auflösung nicht rekonstruiert werden können. Die Perspektive spielt dabei ja keine Rolle und genau hier muss es dynamisch gehandhabt werden.
Auch darf man Bildschirmdiagonale nicht ignorieren. Vervierfachung der Auflösung ist Verdopplung der PPI.
Mal ein lustiger Extremfall aus Spider-Man: https://imgsli.com/MTk1MzE1
720p mit VeryHigh-Texturen vs. 1440p mit DLSS Performance und Low-Texturen.
Denk dir die Schärfe bei 720p dazu. Selbst mit der schlechtestens Texturqualität lassen sich viel mehr Informationen bei 1440p extrahieren. Im schlimmsten Fall ist die Qualität identisch (siehe Reklame), jedoch je weiter perspektivisch rekonstruiert werden muss, umso schwerwiegender sind die fehlenden Abtastpunkte.
Es macht daher kein Sinn stumpf den VRAM mit Texturen zu zumüllen, die jedoch beim Ausgabegerät nicht angezeigt werden können.
Exxtreme
2023-07-30, 21:56:09
Das geschieht aber nicht in den Spielen. Es werden Texturen in den VRAM geladen, die aufgrund der niedrigen Auflösung nicht rekonstruiert werden können. Die Perspektive spielt dabei ja keine Rolle und genau hier muss es dynamisch gehandhabt werden.
Also ich kenne kein einziges Spiel wo das so ist, dass ein Texel kleiner ist als ein Pixel bei gängigen Auflösungen. Und das Spiel eine Texturstufe "zuviel" lädt. Das mag eventuell auf 640x480 zutreffen aber für FHD nicht. Wenn du ein Beispiel kennst wo das definitiv so ist dann nenne es.
Wow, was ist das wieder für ein min-fps Debakel bei den GeForces? wtf. :eek:
Kann ich hier übrigens nicht bestätigen, gerade mit dem aktuellen Code getestet: RTX 4060 Ti 16GB zernichtet ;) die 8GB-Variante. Gleiches bei Arc. Testszene hier, Save kann ich auf Wunsch vorab bereitstellen (allerdings ist noch unklar, ob das ID-/Account-weit nutzbar ist):
CSOgt_vUMRY
MfG
Raff
Nach der Auswertung, hier ein kleiner Teaser - es skaliert brutal mit der VRAM-Kapazität (das ist WQHD):
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=84794&stc=1&d=1690792796
Bitte die komplette Modellauswahl und deren VRAM beachten. :) Radeon fehlt beim Raytracing aus bekannten Gründen (https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Ratchet-und-Clank-Rift-Apart-kein-Raytracing-auf-AMD-Radeon-1425302/).
MfG
Raff
dildo4u
2023-07-31, 11:39:35
3060 könnte die 4060 Ti 8GB erreichen?
PDgXoHQQZek
DrFreaK666
2023-07-31, 11:40:40
10GB sind zu wenig XD
3080-Niveau ist aber schon nice, aber leider eher die Ausnahme. Höhere Auflösungen wären interessant; werden 10GB da eher zur Bremse oder eher die 4060?
Folgt ein zweiter Teaser oder wann gibt es den kompletten Test? :)
Troyan
2023-07-31, 11:41:42
Also ich kenne kein einziges Spiel wo das so ist, dass ein Texel kleiner ist als ein Pixel bei gängigen Auflösungen. Und das Spiel eine Texturstufe "zuviel" lädt. Das mag eventuell auf 640x480 zutreffen aber für FHD nicht. Wenn du ein Beispiel kennst wo das definitiv so ist dann nenne es.
Alle Spiele der letzten Jahre?! Warum denkst du, brauchen Spiele wie TLoU und Ratchet alleine 1080p über 10GB? Dieses Brute-Force Vorgehen war ja nicht problematisch mit PS4, da hier nur 6GB VRAM zur Verfügung standen. Also in Konsolenqualität für 1440p reichte somit auf dem PC eine GPU mit 6GB aus.
Mit der PS5 hat sich das verdoppelt. Damit werden also nur noch Texturen erstellt, die für die PS5 und die 12GB VRAM gedacht sind. Wird so ein Spiel auf den PC portiert, sind also 8GB in 1080p nicht ausreichend.
Der VRAM wird einer Qualität gefüllt, die sich nicht rekonstruieren lässt. Das ist für die PS5 belanglos - man nimmt einfach die selben Texturen für 1080p bis hin zu 4K. Auf dem PC mit einer heterogenen Ausstattung ist das nun mal massiv problematisch und reine Verschwendung von Ressourcen.
Dazu kommt, dass der Grundbedarf ebenfalls deutlich angestiegen ist. Ratchet will mit Low in 1080p über 6,3GB. Spider-Man benötigt mit allen (ohne RT) knapp 7,3GB (weniger als 6GB mit High-Texturen) in 1080p und sieht massiv besser aus.
Diese Ineffizient für auch zu andere Probleme: DLSS Upscaling und FG benötigen VRAM für das Netzwerk. RT benötigt VRAM für BVH. Das alles passt dann im Worst-Case selbst nicht mehr in 12GB in 1080p. :rolleyes:
3060 könnte die 4060 Ti 8GB erreichen?
Ziemlich sicher, allerdings nur in den höheren Auflösungen (und das ist dann generell zäh). Die "Fail by design"-Ti mit 8 GiB blubbert dann so viel über den PCI-Express, dass es keinen Spaß mehr macht. Das Spiel streamt so viel über den Slot, dass die 8-Lane-Karten generell ein Problem zu haben scheinen.
10GB sind zu wenig XD
3080-Niveau ist aber schon nice, aber leider eher die Ausnahme. Höhere Auflösungen wären interessant; werden 10GB da eher zur Bremse oder eher die 4060?
Folgt ein zweiter Teaser oder wann gibt es den kompletten Test? :)
Morgen früh. :) Das wird aber kein "voller" Techniktest, sondern nur eine ausgedehnte Stichprobe. Für unfertige Spiele unzählige Manntage aufzuwenden ist nicht wirtschaftlich (daher machen wir das nachts X-D). Da ist auch CPU-mäßig einiges fragwürdig.
MfG
Raff
Exxtreme
2023-07-31, 11:49:40
Alle Spiele der letzten Jahre?! Warum denkst du, brauchen Spiele wie TLoU und Ratchet alleine 1080p über 10GB?
Sorry, aber das ist eine reine Spekulation deinerseits, dass du aus dem VRAM-Verbrauch darauf schließt, dass die Spiele Mip-Stufen ins VRAM laden, die in niedrigen Auflösungen gar nicht darstellbar sind. Es existieren aber noch sehr viele andere mögliche Gründe warum der VRAM-Verbrauch wegen Texturen sehr hoch sein kann.
Denniss
2023-07-31, 11:54:40
die 3060 8 vs 12 Gigs wäre auch interessant selbst wenn das durch die Speicheranbindung verfälscht würde, ggf 3080 10 vs 12 mit dem gleichen Problem
Razor
2023-07-31, 19:26:39
Alle Spiele der letzten Jahre?!
Bitte... "Alle (Sony-)Spiele der letzten Jahre?!" :up:
Diese Ineffizienz für auch zu andere Problemen...
Vor allem zu dem Schluss, dass ich mir doch lieber eine PS5 für 460€ (oder gut 470€ inkl. Game) kaufe, als eine Grafikkarte für > 500€, oder?
Das nennt man indirektes Marketing - "Sony-Spiele auf Midrange-PC's schlecht, aber auf PS5 der Hammer!"
Geht doch ;D
Razor
dildo4u
2023-08-01, 07:58:13
Komisch hier saugt die 6800 XT in Ratchet obwohl RT nicht aktiv ist.
p2Kk7GR0lSc
aufkrawall
2023-08-01, 10:11:14
Da hat er wohl Mist gemessen, denn ich hab auf der 6700 XT @max wesentlich höhere fps:
https://abload.de/thumb/riftapart_2023_08_01_09i18.png (https://abload.de/image.php?img=riftapart_2023_08_01_09i18.png)
Würde ich auch sagen. Hier, ganz frisch: Ratchet & Clank Rift Apart (PC) im Benchmark-Test: Riesiger VRAM-Hunger, kurioses CPU-Multithreading (https://www.pcgameshardware.de/Ratchet-und-Clank-Rift-Apart-Spiel-73185/Specials/Benchmark-Test-Review-PC-Version-1425523/)
MfG
Raff
Exxtreme
2023-08-01, 11:09:50
Jesus. Die RTX 4060 Ti mit 16 GB fast doppelt so schnell und in RT ziemlich exakt doppelt so schnell wie die 8 GB-Variante. X-D Die 8 GB-VRAM-Grafikkartenkunden freuen sich bestimmt drüber, dass sie sowas Tolles gekauft haben. :freak: Aber gut, wer nicht hören will, der zahlt doppelt.
DrFreaK666
2023-08-01, 11:27:18
Wenn die 4060 mit RT doppelt so schnell ist, dann sind beide zu langsam.
Schade dass die 4070 nicht mitgebencht wurde
Komisch hier saugt die 6800 XT in Ratchet obwohl RT nicht aktiv ist.
https://youtu.be/p2Kk7GR0lSc
Das Video zeigt aber, wieso die 6800XT die bessere Karte ist bei gleichem Preis
gnomi
2023-08-01, 12:39:42
Die Einstellungen sind imho eh viel zu hoch für sowas wie ne 4060.
Auch ohne RT würde ich DLSS und weiter angepasste Settings auf meiner 2080 nutzen.
Mit der 3080 TI und UWQHD ist RT meist auch keine Option.
CPU Coffee Lake reicht für 60fps auch noch, obwohl aktuelle Prozessoren doppelt so schnell sein können.
Ich bin echt schwer enttäuscht. Die neue überteuerte PC Hardware ist doch völlig unnütz und kostet einen Haufen Kohle.
Gleichzeitig kann man das mit den letzten Generationen angepasst oder einer PS5 im Angebot unter 500€ Perfekt spielen.
So ist PC Gaming erledigt, da zu elitär. :wink:
Troyan
2023-08-01, 12:55:47
Sorry, aber das ist eine reine Spekulation deinerseits, dass du aus dem VRAM-Verbrauch darauf schließt, dass die Spiele Mip-Stufen ins VRAM laden, die in niedrigen Auflösungen gar nicht darstellbar sind. Es existieren aber noch sehr viele andere mögliche Gründe warum der VRAM-Verbrauch wegen Texturen sehr hoch sein kann.
Und der Grund wäre? In TLoU gibt es zwischen "High" und "Ultra" Texturen keine visuellen Unterschiede, aber der VRAM-Verbrauch ist >1,5GB höher.
Exxtreme
2023-08-01, 13:06:33
Und der Grund wäre? In TLoU gibt es zwischen "High" und "Ultra" Texturen keine visuellen Unterschiede, aber der VRAM-Verbrauch ist >1,5GB höher.
Tlou habe ich nicht. Deshalb kann ich leider keine Vergleichsbilder erstellen.
Aber egal. Es gibt noch viele andere Dinge, die den VRAM-Verbrauch erhöhen können: viele Texturschichten pro Polygon, Texturen, die sich schlecht mit Texturkompression komprimieren lassen, wenig Texturenwiederverwertung etc.
dildo4u
2023-08-03, 07:30:00
Sind nicht nur PS5 Ports die 12GB wollen, Performance ist ansonsten super da kein RT. ;)
https://abload.de/img/baldurs-gate-3-geforc6keme.png
https://www.nvidia.com/en-us/geforce/news/baldurs-gate-3-and-even-more-dlss-games-this-august/
Exxtreme
2023-08-03, 08:41:54
Sind nicht nur PS5 Ports die 12GB wollen, Performance ist ansonsten super da kein RT. ;)
https://abload.de/img/baldurs-gate-3-geforc6keme.png
https://www.nvidia.com/en-us/geforce/news/baldurs-gate-3-and-even-more-dlss-games-this-august/
In UHD ist selbst die RTX 4090 weitgehend GPU-limitiert, alles unterhalb hängt voll im GPU-Limit. Deshalb skaliert DLSS2 auch so krass.
Jau. Baldur's drittes Tor allokiert ziemlich genau 8 GiByte, wenn man in Ultra HD alles aufreißt.
MfG
Raff
The_Invisible
2023-08-03, 11:13:32
4090 über 50% schneller als die 4080 in nativ UHD, sieht man auch nicht alle Tage...
DrFreaK666
2023-08-03, 14:54:33
Mal nicht NV-Tests abwarten.
Wieso nutzt NV nicht den schnellsten Prozessor für Tests? Zu teuer?
dildo4u
2023-08-03, 15:06:59
Framegen zeigt größere Gewinne wenn man nicht die schnellste CPU nutzt aber ich vermute Plattform Stabilität ist der eigentliche Grund.
Zen 4 bekommt ja jetzt noch Bios Updates die z.b besseren Ram Support bringen.
Exxtreme
2023-08-03, 15:14:04
Framegen zeigt größere Gewinne wenn man nicht die schnellste CPU nutzt aber ich vermute Plattform Stabilität ist der eigentliche Grund.
Zen 4 bekommt ja jetzt noch Bios Updates die z.b besseren Ram Support bringen.
Naja, das ist DLSS2 in den Benchmarks. Und das hat keine Framegen.
dildo4u
2023-08-03, 15:17:50
Ich meine allgemein im Link sind auch Benches mit Remnant mit DLSS3.
The_Invisible
2023-08-03, 15:21:24
Mal nicht NV-Tests abwarten.
Wieso nutzt NV nicht den schnellsten Prozessor für Tests? Zu teuer?
Was hätte NV davon bei NV-only Benches zu fälschen?
Zwischen 40-45 gabs ja schon öfter, über 50 noch net was ich weiß...
Also ich kann (bei einer deutlich anspruchsvolleren Szene) rund 121 zu 84 Fps anbieten - das sind plus 44 Prozent von 4080 auf 4090. Mehr um 17 Uhr. :)
MfG
Raff
Razor
2023-08-06, 07:38:31
Ist ja alles ganz nett... aber was hat das alles mit 'ner 4060/ti zu tun?
Das ist definitiv keine UHD-Karte, das waren auch die Vorgänger nicht.
Insofern sind diese synthetischen Betrachtungen ja ganz nett, aber dann doch sehr realitätsfern.
Razor
DrFreaK666
2023-08-06, 10:40:37
Wieso? Wenn 12FPS vs 24FPS (nur mal so als Beispiel), dann ist die 4060 Ti mit 16GB doppelt so schnell und hat noch Reserven für die Zukunft...
Ja, das war ironisch.
Ich gebe dir Recht: realitätsferne Benchmarks sind sinnlos.
Thunder99
2023-08-06, 12:21:10
Es sind halt Beispiele wie jetzt schon die 8GB zu wenig sein können. Das Risiko, dass es immer schlimmer wird ist aber da. Am Ende wird es sich zeigen.
DrFreaK666
2023-08-06, 21:37:48
besser wirds bestimmt nicht, aber deswegen ist die 16GB Karte nicht der Heilsbringer
Lurtz
2023-08-06, 21:38:43
Wenn man sich die Benchmarks zwischen 8 und 16 GB-Version so aussieht hat der Content weit mehr Einfluss auf die Frage, ob der VRAM genügt, als die Auflösung. Insofern ist das Argument, es sei ja keine 4k-Karte, eine Nebelkerze.
Ich verstehe die Diskussion nicht. Man muss sich nur mal ansehen, was mit vorherigen Speicherkrücken passiert ist und wie das jeweils bessere Modell Jahre später abschneidet - das ist der oft zitierte "No-Brainer". 8 GiB ist schon jetzt zu wenig, 16 GiB genau richtig für Leute, die eine Grafikkarte für viele Jahre suchen.
MfG
Raff
Exxtreme
2023-08-06, 21:51:27
Ich verstehe die Diskussion nicht.
Wenn man einen Lieblingshersteller hat, der seit 8 Jahren 8 GB-Karten zu exorbitant hohen Preisen bringt dann versucht man die 8 GB herunterzuspielen und sucht sich irgendwelche komischen Szenarien wo das vermeintlich nicht so durchschlägt. Mehr ist das nicht. :)
DrFreaK666
2023-08-06, 21:53:33
Ich verstehe die Diskussion nicht...
Es gibt halt ein Konkurrenz-Produkt mit der gleichen Speicher-Menge und mehr Power -> potentiell längere Lebensdauer. Und aktuell hat man schon mehr Performance in der Mehrzahl aller Games
ChaosTM
2023-08-06, 22:00:32
Es sind halt Beispiele wie jetzt schon die 8GB zu wenig sein können. Das Risiko, dass es immer schlimmer wird ist aber da. Am Ende wird es sich zeigen.
Lool, dass klingt genau so wie all die Gegner des Klimawandels.
Wir wissen genau, dass das passieren wird, aber am Ende wir es sich zeigen (wenn wir tot sind).
Wer schon eine 8GB Karte hat ist hier natürlich nicht angesprochen.
Nur die Fehlgeleiteten, die sich jetzt noch so was kaufen, obwohl man weiß, dass das nicht "zukunftssicher" ist.
Mein fast 6! Jahre alter (alter) Laptop hatte schon 8GB VRAM.
ChaosTM
2023-08-06, 22:07:22
Wenn man einen Lieblingshersteller hat, der seit 8 Jahren 8 GB-Karten zu exorbitant hohen Preisen bringt dann versucht man die 8 GB herunterzuspielen und sucht sich irgendwelche komischen Szenarien wo das vermeintlich nicht so durchschlägt. Mehr ist das nicht. :)
Jesus Christ, 8Gb Karten waren damals nicht High End. Dafür gab es die 11GB 1080TI` ;)
8 GB kann man nicht schönreden im Jahr 2023, es ist einfach .. useless
DrFreaK666
2023-08-06, 22:40:34
...Nur die Fehlgeleiteten, die sich jetzt noch so was kaufen, obwohl man weiß, dass das nicht "zukunftssicher" ist...
Nicht selten entscheidet der Inhalt des Geldbeutels über die nächste Grafikkarte
Exxtreme
2023-08-06, 22:42:06
Nicht selten entscheidet der Inhalt des Geldbeutels über die nächste Grafikkarte
Für den Preis gibt es schon lange 16 GB-Grafikkarten.
DrFreaK666
2023-08-06, 22:56:08
Für den Preis der 8GB Karte?
Exxtreme
2023-08-06, 23:01:38
Ja. Für ziemlich das exakte Geld gibt es eine Radeon 6800 Non-XT.
Altehardware
2023-08-07, 00:21:53
Die im übrigen schneller ist als die rtx4060 ti 16gb
Und wenn nvidia meint man solle dxr als vergleich nehmen zieht das auch nicht da die rx6800xt schneller in dxr ist als die rtx4060ti 16gb
Die sku dürfte nicht mehr als 429€ kosten dann könnte man es sich überlegen wenn man den vram auf 19,5gbps OC aber nur den vram was da Pt auf +12% bei 190w endet
DrFreaK666
2023-08-07, 01:02:16
Ja. Für ziemlich das exakte Geld gibt es eine Radeon 6800 Non-XT.
Wo gibt es eine 6800 für 410€?
Der günstige Preis ist gerade im Mindstar, der demnächst verfällt
vinacis_vivids
2023-08-07, 01:33:28
Die 4060Ti ist vergleichbar mit der 6700XT, wobei die 12GB bei AMD mehr sind. Preislich sind wir bei 339 - 359€ derzeit für die 6700XT 12GB. Die 4060Ti 8GB sollte sich maximal in diesem Preisbereich von 320-330€ bewegen, eher drunter, weil VRAM-Bottleneck.
Die 4060Ti 16GB ist deutlich langsamer als die RX6800 16GB (450€) und sollte sich bei max. 350-400€ bewegen.
Hacki_P3D
2023-08-08, 14:46:09
4060ti 16GB vs 6800XT
https://www.youtube.com/watch?v=5KZ-jY_OqUA
DrFreaK666
2023-08-08, 14:54:17
Wie erwartet ist die 6800XT schneller und zwar deutlich
Das wird sich in diesem Leben auch nicht mehr ändern, spezielle Raytracing-Workloads und Frame Generation ausgenommen. ;) Empfehlenswert sind beide Modelle, je nach Vorhaben.
MfG
Raff
Troyan
2023-08-08, 15:21:02
Wie erwartet ist die 6800XT schneller und zwar deutlich
Inwieweit ist die 6800XT schneller, wenn die 4060TI mit DLSS Upscaling und FrameGeneration mehr Frames bei bessere Bildqualität produziert? Wozu sollte jemand Hogwarts ohne DLSS spielen? Wie verwirrt müsste man sein?
aufkrawall
2023-08-08, 15:23:01
Vielleicht deshalb?
ObIqZhm8uhI
Gibts mit XeSS und FSR 2 jedenfalls nicht.
DrFreaK666
2023-08-08, 15:26:47
Inwieweit ist die 6800XT schneller, wenn die 4060TI mit DLSS Upscaling und FrameGeneration mehr Frames bei bessere Bildqualität produziert? Wozu sollte jemand Hogwarts ohne DLSS spielen? Wie verwirrt müsste man sein?
König des Cherrypickings... *gähn*
Troyan
2023-08-08, 15:28:12
Vielleicht deshalb?
https://youtu.be/ObIqZhm8uhI
Gibts mit XeSS und FSR 2 jedenfalls nicht.
Und das tangiert die Leute? Meine, wer ohne Raytracing spielt, interessant sich ja nicht für - warte - Grafik.
Fünf der acht Einzelbeispiel unterstützen DLSS 3. In den Spielen liefert die 4060TI also mehr Frames bei bessere Bildqualität und halber Latenz. :eek:
König des Cherrypickings... *gähn*
Dr.Doom
2023-08-08, 15:29:17
Vielleicht deshalb?
https://youtu.be/ObIqZhm8uhI
Gibts mit XeSS und FSR 2 jedenfalls nicht.Hmm, hätte das eher als Absicht angesehen, wenn die Wasseroberfläche die Sonne genau im korrekten Winkel reflektiert, sodass es dort besonders blendet/blitzt. ;)
aufkrawall
2023-08-08, 15:32:31
Hmm, hätte das eher als Absicht angesehen, wenn die Wasseroberfläche die Sonne genau im korrekten Winkel reflektiert, sodass es dort besonders blendet/blitzt. ;)
Es blitzt auch ohne DLSS, nur knallt die Intensität des Effekts ohne DLSS halt nicht unerwünscht durch die Decke. ;)
Irgendwas hat Nvidia da mächtig verkackt. Das tritt in allen möglichen Spielen auf, inkls. UE4/5 DLSS Plug-Ins. Mit XeSS/FSR 2 nirgendwo.
In CP77 wurde es durch den Entwickler selbst gefixt (nach Äonen).
Exxtreme
2023-08-08, 15:35:49
Wozu sollte jemand Hogwarts ohne DLSS spielen? Wie verwirrt müsste man sein?
Es gibt Leute, die stehen einfach nicht auf komplett verwaschene Texturen.
aufkrawall
2023-08-08, 15:40:17
Es gibt Leute, die stehen einfach nicht auf komplett verwaschene Texturen.
Sorry, das ist einfach nicht korrekt. Mit der richtigen Mip Bias-Anpassung (wie bei offenbar allen UE-Spielen mit Upsampler-Plug-Ins der Fall) sind die Texturen mit Quality 66% real eher detaillierter als mit 100% Mip Bias 0 und Matsch-TAA.
Troyan
2023-08-08, 15:59:11
Es gibt Leute, die stehen einfach nicht auf komplett verwaschene Texturen.
Auch nicht mit miserablen SSAO und Reflektionen, kaputten Schatten, fehlenden GI etc. Man gewöhnt sich an vieles im Mid-Range.
Es ist eben absurd Funktionen in Spielen für die 4060TI 16GB nicht einzustellen, die bei der 8GB Variante zu Problemen führen. Und viel absurder ist es dann noch rückständigen AMD Kram zu empfehlen, der den doppelten Verbrauch bei doppelter Eingabeverzögerung und weniger Frames hat.
DLSS 2 ist in UE4 und DLSS 3 in UE5 als PlugIn enthalten. Die Verbreitung wird also massiv werden, vorallem da die UE5 von sich auch schon hohe Anforderungen hat.
Alle meckern wegen dem Preis von Lovelace, aber wenn man die Funktionen nicht nutzt, ist man doch selbst schuld.
Exxtreme
2023-08-08, 16:13:00
Sorry, das ist einfach nicht korrekt. Mit der richtigen Mip Bias-Anpassung (wie bei offenbar allen UE-Spielen mit Upsampler-Plug-Ins der Fall) sind die Texturen mit Quality 66% real eher detaillierter als mit 100% Mip Bias 0 und Matsch-TAA.
Das ist korrekt. DLSS ist besser als TAA, welches noch mehr vermatscht. Ist aber auch der Grund warum ich Baldur's Gate 3 ohne AA spiele. DLSS/TAA/DLAA verwaschen leider alles total. Wirklich schade, dass das Spiel keine SSAA-Option hat.
Auch nicht mit miserablen SSAO und Reflektionen, kaputten Schatten, fehlenden GI etc. Man gewöhnt sich an vieles im Mid-Range.
Mag ja sein. Es ist aber trotzdem so, dass DLSS wie ein Blur-Filter über Texturen wirkt. Ist zwar viel besser als TAA. Man muss sich aber schon anstrengen um noch schlechter als TAA zu sein. Da fallen mir nur noch Quincunx-AA und FXAA ein, die noch schlechter sind.
aufkrawall
2023-08-08, 16:29:45
Dann hast du wahrscheinlich nie CAS via ReShade probiert.
Würd aber nicht ausschließen, dass XeSS bald DLSS bei der Erhaltung von Bildschärfe (ohne Sharpen) deutlich überholt. Mit XeSS 1.2 sehen einige Kanten schon wesentlich glatter aus als mit DLSS Preset C und ist dabei ähnlich scharf (anders als DLSS Preset F).
Troyan
2023-08-08, 16:47:20
Mag ja sein. Es ist aber trotzdem so, dass DLSS wie ein Blur-Filter über Texturen wirkt. Ist zwar viel besser als TAA. Man muss sich aber schon anstrengen um noch schlechter als TAA zu sein. Da fallen mir nur noch Quincunx-AA und FXAA ein, die noch schlechter sind.
Wie kommst du auf sowas? Meisten ist TAA in niedrigen Auflösungen überschärft, weil es nicht genug Informationen gibt. Erst in 4K ist es brauchbar.
Hier ist Ratchet: https://www.techpowerup.com/review/ratchet-clank-rift-apart-dlss-vs-fsr-vs-xess-comparison/
Da gibt es kein Unterschied in der Schärfe. Ist Aufgabe des Entwicklers Upscaling am nativen Bild auszurichten.
aufkrawall
2023-08-08, 17:49:14
Da gibt es kein Unterschied in der Schärfe. Ist Aufgabe des Entwicklers Upscaling am nativen Bild auszurichten.
Bloß nicht, dann kommt arger Müll wie bei Hitman 3 raus (DLSS völlig überschärft, XeSS mit Schrott-Sharpen und FSR 2 gar nicht).
Spiele-Entwickler sollten gar kein Sharpen erzwungen einschalten und einfach optional für alle CAS via Regler von 0-100 anbieten. Fertig. Vielleicht noch empfohlene Werte für die ganz Denkfaulen einstellen, die aber komplett optional sind...
Exxtreme
2023-08-08, 20:57:13
Hier ist Ratchet: https://www.techpowerup.com/review/ratchet-clank-rift-apart-dlss-vs-fsr-vs-xess-comparison/
Da gibt es kein Unterschied in der Schärfe. Ist Aufgabe des Entwicklers Upscaling am nativen Bild auszurichten.
Du vergleichst drei Unschärfefilter und meinst, da gäbe es keine Unterschiede. Vergleich das mal gegen MSAA oder SSAA. Dann siehst du Unterschiede und zwar gewaltige.
aufkrawall
2023-08-08, 21:04:34
Mit MSAA ist die BQ nur dann anderweitig noch viel größerer Müll und SSAA ist noch viel weniger eine reale Option. MSAA glättet grob geschätzt vielleicht 20% der Bildbereiche. Mit RT-Artefakten auf Geometriekanten wahrscheinlich nochmal viel weniger.
Ex3cut3r
2023-08-08, 21:51:56
MSAA? Ist das nicht irgendwo spätestens 2012 ausgestorben?
Ratchet hat doch selbstverständlich kein MSAA bei einem Deferred Renderer?
Wer will sowas noch heute? SSAA? Kostet doch immens Rechenleistung.
4K auf 27-31,5" dazu DLSS Q/DLAA und eine kleine Portion CAS. Fertig. Und überhaupt kein AA/TAA ist doch vollkommener Bullshit, überall flimmern und Kanten. Da bekomme ich die Krise.
MSAA wurde nach der Jahrtausendwende als "High Resolution AA" (HRAA) beworben, weil es als verbilligtes SSAA eben nicht so teuer war. Okay, in den ersten GPUs (wie der Geforce 3) war's immer noch teuer, aber mit den Verbesserungen der Bandbreitennutzung wurde es in den Folge-Generationen wirklich spottbillig. Und es erfüllte seinen Zweck durchaus gut, denn damals gab es wenige Shader, die von MSAA nicht erfasst werden - nur Alphatests, die stets Dornen im Auge waren. Enthusiasten haben dem 3dfx-SSAA aus guten Gründen nachgeweint, das erst mit der Radeon HD 5870 als "Killer Feature" zurückkam (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test-695285/6/) ... obwohl die klassischen AA-Modi da schon auf dem absteigenden Ast waren.
MfG
Raff
aufkrawall
2023-08-08, 22:00:29
DLSS/XeSS kommt halt SGSSAA am nächsten, was die Bearbeitung wirklich aller Bildbereiche/Effekte angeht. War mir als FSR 2 released wurde auch noch nicht so in dem Umfang klar, aber man lernt ja nie aus.
Etwa der Umrandungs-Shader in Fortnite, mit dem man Teammates durch Wände sieht, ist mit DLSS besser geglättet als mit TAA 100%. Das trifft auf diverse andere Effekte ähnlich zu. Es müssen halt nur die Nebenwirkungen (wozu auch Unschärfe gehört) noch weiter reduziert werden.
DrFreaK666
2023-08-08, 23:01:20
MSAA? Ist das nicht irgendwo spätestens 2012 ausgestorben?
FH5 bietet meines Wissens nach noch MSAA, oder tat es zumindest zu Release
Exxtreme
2023-08-09, 08:54:01
MSAA? Ist das nicht irgendwo spätestens 2012 ausgestorben?
Ratchet hat doch selbstverständlich kein MSAA bei einem Deferred Renderer?
Also WoW kann es immer noch. ;D Und ja, deferred renderer sind da nicht sehr kompatibel damit.
Wer will sowas noch heute? SSAA? Kostet doch immens Rechenleistung.
Ja, dafür sieht es geil aus. Und geiler Shit kostet. Und es hat den Vorteil, dass es die Texturschärfe nicht verschlechtert wie TAA und Ableger.
Ex3cut3r
2023-08-09, 09:32:39
Finde ich überhaupt nicht mehr geil. Bei einem 4K mit 31,5 sieht 8K oder 5K DLDSR was ja auch effktiv SSAA ist, nicht mehr so geil aus, wie das früher bei 24/27" mit 1080p oder auch 1440p der Fall war. Bei der hohen PPi bei 4K in 27-31,5" für PC Verhältnisse, brauchst du kein SSAA mehr, der optische BQ Gewinn am Monitor hält sich komplett in Grenzen, nur die FPS sinken ins Bodenlose. Nativ + DLSS Q/DLAA ist das viel bessere Gesamtpaket heutzutage, aus FPS/Optik.
Du scheinst ein bisschen aus der Zeit gefallen zu sein, nichts für ungut. Wir werden ja alle mal älter.
Troyan
2023-08-09, 09:36:43
Du vergleichst drei Unschärfefilter und meinst, da gäbe es keine Unterschiede. Vergleich das mal gegen MSAA oder SSAA. Dann siehst du Unterschiede und zwar gewaltige.
MSAA hat doch nur Polygon-Kanten erfasst. Das ist für DLSS easy peasy. Einfach mal auf einem 1080p Display Downsampling von 4K DLSS Performance machen. Du verlierst 10% Leistung und erhälst 4xSSAA Bildqualität. :cool:
Exxtreme
2023-08-09, 11:10:35
MSAA hat doch nur Polygon-Kanten erfasst. Das ist für DLSS easy peasy. Einfach mal auf einem 1080p Display Downsampling von 4K DLSS Performance machen. Du verlierst 10% Leistung und erhälst 4xSSAA Bildqualität. :cool:
Ja, richtig. MSAA hat nur Polygonkanten erfasst, hat dafür alles andere in Ruhe gelassen. Sprich, es gab eine Verbesserung des Bildes und nirgendwo eine Verschlechterung. Das war ein einseitiges Plus an Bildqualität. TAA/DLSS/DLAA/FSR verwaschen das Bild aber z.T. ziemlich stark. Du hast also keine einseitige Verbesserung mehr sondern teils eine Verbesserung und teils eine Verschlechterung der Bildqualität. Und das ist ein Grund warum ich damit unzufrieden bin und versuche es zu vermeiden wo es geht. MSAA und SSAA sind kompromisslos was das angeht.
The_Invisible
2023-08-09, 11:19:16
Hast du Vergleichsbilder was das Verwaschen angeht? Wäre mir irgendwie auch neu, scharf bedeutet halt auch meist flimmern, einen Mittelweg zu finden ist da sicher nicht einfach.
Exxtreme
2023-08-09, 11:36:55
Hast du Vergleichsbilder was das Verwaschen angeht? Wäre mir irgendwie auch neu, scharf bedeutet halt auch meist flimmern, einen Mittelweg zu finden ist da sicher nicht einfach.
Hier gibt es einen schönen Vergleich:
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1424271&page=1&draft=-1&rank=2
DrFreaK666
2023-08-09, 20:44:29
Wie erwartet: 4070 12GB schlägt 4060 Ti 16GB
NhFSlvC2xbg
aufkrawall
2023-08-09, 21:01:27
Hier gibt es einen schönen Vergleich:
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1424271&page=1&draft=-1&rank=2
Diese Screenshots sind aber auch offenbar per nearest neighbor vergrößert, was die Unterschiede wesentlich extremer erscheinen lässt als in nativer Bildgröße auf dem Monitor.
Ich finde die Methodik nicht gut und würde stattdessen Screenshots in nativen 1080p, 1440p und 2160p demonstrieren, damit auf jedem Monitor der native Eindruck dargestellt werden kann.
Diese Screenshots sind aber auch offenbar per nearest neighbor vergrößert, was die Unterschiede wesentlich extremer erscheinen lässt als in nativer Bildgröße auf dem Monitor.
Ich finde die Methodik nicht gut und würde stattdessen Screenshots in nativen 1080p, 1440p und 2160p demonstrieren, damit auf jedem Monitor der native Eindruck dargestellt werden kann.
Unterschiede zeigt man am besten mit dem Holzhammer. Dieses Motto verfolge ich spätestens seit dem Moment, als ich einen Tessellation-Vergleich (an/aus) mit einer Crysis-2-Mauer herumzeigte und jemand trotz der wie pralle Brüste hervorstehenden Steine entgegnete, keinen Unterschied zur platten Texturmauer zu sehen. :ulol: Immerhin sind das keine 400-Prozent-Zooms.
_______
Um zum Thema zurückzukommen: 8 GiByte werden noch einige Zeit funktionieren, solange sowas gängige Praxis ist.
"Das Streaming ist laut unseren Beobachtungen darauf ausgelegt, Grafikkarten mit 8 GiByte nicht zu überfordern, weshalb kleinere Objekte bei schnellen Szenenwechseln an sichtbarem Nachladen von Texturdetails kranken. Dazu passt, was unsere Messprotokolle nach stundenlangem Spielen sagen: Maximal werden gut 10 GiByte auf der zum Test verwendeten Geforce RTX 4090 adressiert - in 5K-Auflösung!"
Und da es Millionen von installierten 8-GiByte-Grafikkarten gibt, sprechen wir von Jahren, nicht Monaten.
-> Atlas Fallen im Technik-Test: Körniger Mix aus Forspoken, Gothic und Prototype (https://www.pcgameshardware.de/Atlas-Fallen-Spiel-73845/Specials/Test-Technical-Review-Release-Gameplay-Benchmark-1426157/)
MfG
Raff
DrFreaK666
2023-08-10, 00:40:10
Ja gut. Das wird (zumindest in der Testversion) mit aggressivem LOD erkauft.
"Zu den bekannten Problemen der Testversion zählt der noch etwas grobe bzw. träge Umgang mit Details."
Mal schauen ob es beim Day One Patch Verbesserungen gibt.
Bin mir gerade nicht sicher, was ich genau vom Spiel halten soll.
Die Metacritic-Wertungen sind auch in den 70ern...
Mal schauen. Spaßig sieht es ja schon irgendwie aus, und dass es kein Souls-like ist, sollte auch belohnt werden
Crazy_Borg
2023-08-10, 08:59:23
Und das tangiert die Leute? Meine, wer ohne Raytracing spielt, interessant sich ja nicht für - warte - Grafik.
Fünf der acht Einzelbeispiel unterstützen DLSS 3. In den Spielen liefert die 4060TI also mehr Frames bei bessere Bildqualität und halber Latenz. :eek:
Wer spielt Ratchet & Clank: Rift Apart auf Latenz?
Wer spielt Cyberpunk 2077 auf Latenz?
Wer spielt A Plague Tale: Requiem auf Latenz?
Wer spielt The Callisto Protocol auf Latenz?
Wer spielt Resident Evil 4 auf Latenz?
Wer spielt Marvel’s Spider-Man Remastered auf Latenz?
Wer spielt Hogwarts Legacy auf Latenz?
Wer spielt Star Wars Jedi: Survivor auf Latenz?
Wenn, ist das nur ein Fall bei Call of Duty Modern Warfare II
und Fortnite DX11. Doom Eternal lass ich vielleicht auch noch gelten.
(Aus dem Hardware unboxed video.)
Oder worauf bezogst du dich mit deiner Zahl der Spiele oben?
Mit FG Latenz extra erzeugen und dann mit Reflex wieder versuchen gegenzusteuern ist ein bisschen "Bombing for peace", oder? :freak:
dildo4u
2023-08-12, 11:20:48
Ratchet and Clank mit Raytracing.
https://www.pcgameshardware.de/Ratchet-und-Clank-Rift-Apart-Spiel-73185/Specials/Benchmark-Test-Review-PC-Version-1425523/2/
Wegen dem grottigen Preis der 4060 TI 16GB ist AMD sogar Konkurrenzfähig.
In 1440p ist 6800XT immer noch bei 60 fps auf Level mit der 3080 der geht der VRam aus die 4070 geht deutlich besser.
https://abload.de/img/screenshot2023-08-121uqi2w.png
Troyan
2023-08-12, 11:33:32
Und das ist noch ohne FrameGeneration. :freak:
Wozu hat man 16GB, wenn man nicht FG verwendet?! :cool:
DrFreaK666
2023-08-12, 12:08:47
Jo, bei den FPS wäre FG sinnvoll
Monsta
2023-08-12, 17:18:09
[QUOTE=dildo4u;13370677]Ratchet and Clank mit Raytracing.
https://www.pcgameshardware.de/Ratchet-und-Clank-Rift-Apart-Spiel-73185/Specials/Benchmark-Test-Review-PC-Version-1425523/2/
Wegen dem grottigen Preis der 4060 TI 16GB ist AMD sogar Konkurrenzfähig.
In 1440p ist 6800XT immer noch bei 60 fps auf Level mit der 3080 der geht der VRam aus die 4070 geht deutlich besser.
Da ist 7900 GRE genauso schnell wie eine 6800XT, das ist ja mal ne Glanzleistung von Amd, eigendlich müsste das Ding 7700XT heißen.
Nachfolgegeneration plus höhere Modellnummer und gleiche Geschwindigkeit ;D
Die 4060Ti ist auch nicht weit weg.
DrFreaK666
2023-08-12, 17:26:11
Neue Treiber könnten noch was richten
Thunder99
2023-08-12, 18:51:15
Das Spiel liegt AMD nicht, zumindest RDNA3
DrFreaK666
2023-08-12, 18:56:07
Es nutzt die Spiderman-Engine und dort ist der Abstand zwischen 6800XT und 7900GRE größer
War die 16GB schonmal unter 500€?
https://geizhals.de/msi-geforce-rtx-4060-ti-ventus-2x-black-16g-oc-a2986992.html
Nice! Jetzt nochmal 50 Euro weg und das PLV passt.
MfG
Raff
aufkrawall
2023-08-12, 21:52:27
Mit ein bisschen Glück gibts dann durch den niedrigen Verbrauch mit dem Ventus-Schrott keine allzu argen PCB-Hotspots und die Rassel-Lüfter müssen wenig aufdrehen. :freak:
DrFreaK666
2023-08-13, 00:18:08
ok, war nur ein Ebay-Shop
Mordekai2009
2023-08-13, 13:13:47
eBay können wir ignorieren und diese Karte landet wieder bei 529€. :D
EDIT: Für unter 450€ würde ich zuschlagen, aber kein OC-Modell.
Lord Wotan
2023-08-14, 10:12:09
Ich würde immer die ASUS Karten mit Dual Bios kaufen. Weil die auch eine BIOS Silent Lüftersteuerung haben. Wie die ASUS GeForce RTX 4070 DUAL OC oder die ASUS Dual GeForce RTX™ 4060 Ti OC Edition 16GB.
Von der MSI Verntus würde ich abraten, zumindest bei der MSI Vertus 4070 gibt es folgendes Problem mit einigen Teilen der Grafikkarte, die ungekühlt gelassen werden. An den Seiten befinden sich VRM's, die einfach absolut offen liegen und keine Verbindung zum Kühlkörper haben! Das Problem besteht übrigens auch bei der 3X.
Die Dinger werden heiß im Betrieb, auch wenn sie die Temperaturen theoretisch aushalten, schreit es bei Belastung über Jahre nur danach, dass die Karte früher den Geist aufgibt als andere. Die Backplate ist zudem nur aus Kunststoff und bietet dadurch so gut wie keine zusätzliche passive Kühlung.
Bis zu 8 TByte auf der Grafikkarte: Asus Dual Geforce RTX 4060 Ti SSD OC Edition im Test (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-8GB-Grafikkarte-279648/Tests/Asus-Dual-Geforce-RTX-4060-Ti-SSD-OC-Edition-Test-Review-Benchmark-1434441/)
"RTX 4060 Ti 8TB". ;) Leider lässt sich die SSD nicht als VRAM-Datengrab nutzen, aber trotzdem ist das Ding interessant.
MfG
Raff
][immy
2023-11-22, 15:49:54
Bis zu 8 TByte auf der Grafikkarte: Asus Dual Geforce RTX 4060 Ti SSD OC Edition im Test (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-8GB-Grafikkarte-279648/Tests/Asus-Dual-Geforce-RTX-4060-Ti-SSD-OC-Edition-Test-Review-Benchmark-1434441/)
"RTX 4060 Ti 8TB". ;) Leider lässt sich die SSD nicht als VRAM-Datengrab nutzen, aber trotzdem ist das Ding interessant.
MfG
Raff
Erinnert mich ein wenig an meine damalige ISA Soundkarte mit einem Port für das CD Laufwerk....
Ist schon nützlich, besonders wenn man von SATA wegkommen will und nur ein Brett mit einem m.2 Port hat.
Ist jetzt aber nicht unbedingt zu empfehlen wenn man noch nicht pcie 4 hat schätze ich mal. Sinnvoller wäre es aber wohl die Karten einfach mehr lanes zu gönnen. Aber scheinbar will Nvidia das nicht.
DrFreaK666
2023-11-22, 16:02:27
Das ist die 8GB-Version? :ugly:
Bin gespannt was der Spaß kosten wird
sw0rdfish
2023-11-23, 20:46:44
Scheint irgendwie mehr eine Machbarkeitsstudie zu sein, oder was für OEMs, die dann am Board sparen können?!
raffa
2024-11-08, 19:43:05
Finde ich überhaupt nicht mehr geil. Bei einem 4K mit 31,5 sieht 8K oder 5K DLDSR was ja auch effktiv SSAA ist, nicht mehr so geil aus, wie das früher bei 24/27" mit 1080p oder auch 1440p der Fall war. Bei der hohen PPi bei 4K in 27-31,5" für PC Verhältnisse, brauchst du kein SSAA mehr, der optische BQ Gewinn am Monitor hält sich komplett in Grenzen, nur die FPS sinken ins Bodenlose. Nativ + DLSS Q/DLAA ist das viel bessere Gesamtpaket heutzutage, aus FPS/Optik.
Du scheinst ein bisschen aus der Zeit gefallen zu sein, nichts für ungut. Wir werden ja alle mal älter.
Mag schon sein, das das das beste ist, was es grad gibt für aktuelle Spiele, aber schön ist der TAA (DLSS/FSR/unameit) blurmatschlook nun wirklich nicht.
Es gättet gut und kostet wenig, aber das wars auch schon an positivem
Ex3cut3r
2024-11-08, 20:03:56
Zum Nachschärfen einfach Reshade mit CAS (AMD Fidelity FX Sharpening Shader) verwenden. Bei einer Auflösung von 4K und Bildschirmgrößen von 27" oder 31,5" bei normalem Sitzabstand ist Unschärfe normalerweise kein Problem. Sollte dennoch Unschärfe mit DLSS auftreten, kann CAS aktiviert werden.
aufkrawall
2024-11-08, 20:40:40
Die Diskussion ist lächerlich. Selbst AMD arbeitet an ML-Denoiser-TAAU. Mit etwas Anderem lässt sich keine moderne Grafik darstellen, eod.
#oldmanyellingatcloud
Mit etwas Anderem lässt sich keine moderne Grafik darstellen, eod.
Der Chef hat gesprochen oder was? Bist du neuerdings Graphics Engineer?
aufkrawall
2024-11-09, 05:08:12
Du kannst ja gerne auf bessere non-ML Denoiser warten und so lange RT abschalten.
raffa
2024-11-09, 05:17:06
Ich verweise an dieser Stelle mal auf DF
WG8w9Yg5B3g
Hakim
2024-11-09, 14:34:26
Jemand der sich entschließt etwas Geld zu sparen und die 8gb Version kauft wird wenn das Spiel bei der höchsten Textur Einstellung Probleme macht es halt entsprechend einstellen. Wird immer noch zuviel Wirbel mMn darum gemacht. Als ob jemand sich das Spiel dann so durch quält. Als 4060ti Besitzer ist man sowieso daran gewöhnt die Schieber nicht ganz nach rechts zu schieben. Das 8gb nicht mehr für max ausreichen sollte sich inzwischen rumgesprochen haben
Denniss
2024-11-09, 14:41:23
Bei Preisen um 400€ würde ich aber nicht unbedingt an den Reglern drehen müssen wollen um nicht durch VRAM-Mangel gebremst zu werden.
Hakim
2024-11-09, 14:53:21
Ich persönlich würde ja sowieso keine 4060Ti für 400€ holen derzeit, aber wem das stört sollte sich ja halt für 430-450€ die 16GB Version holen wenn es denn unbedingt eine 4060Ti sein soll. Für Ticken mehr bekommt man halt eine deutlich schnellere 7800XT. Ich meine ja nur, wer wegen 30-50€ Sparen will und zu 8 GB Version greift, der sollte es verschmerzen können von Ultra auf High zu stellen.
Du kannst ja gerne auf bessere non-ML Denoiser warten und so lange RT abschalten.
Mir geht es nicht nur um die Denoiser sondern, dass temporale Techniken allgemein überhand nehmen. Das Bild verkommt mehr und mehr zu einer schmierigen und mit Ghosting behafteten Suppe. Besonders die Bewegtschärfe ist in fast jedem Spiel eine Vollkatastrophe, egal ob DLSS, RR, TAA, TSR oder sonst was zum Einsatz kommt.
aufkrawall
2024-11-09, 17:12:42
Soll das neu sein? Schon UE4 TAA war insbesondere in den ersten Jahren richtig übel. Dem gegenüber sind FSR 3.0 (3.1 eher so teilweise bzw. nicht) und DLSS/RR große Verbesserungen.
Ja, RT macht immer noch zusätzlich Probleme. Geht halt erstmal nicht anders. Es wird aber auch damit mit der PS 5 Pro + PC noch den ein oder anderen Fortschritt über die nächsten Jahre geben.
Beleidigung & Kopie der Beleidigung entfernt. Beleidigung bepunktet.
IceKillFX57
2024-11-11, 12:58:31
Für mich ist RT eine Pest.
Man gibt sich garkeine Mühe mehr.
Es kostet fett Leistung und kann optisch Probleme machen.
The_Invisible
2024-11-12, 14:31:48
Es kostet fett Leistung und kann optisch Probleme machen.
Sorry aber falscher als bei Raster kanns ja gar nicht aussehen.
Gerade erst Silent Hill 2 mit RT + DLSS-RR durchgezockt, wennst da zu Raster zurückgehst kommts dir vor wie in der Steinzeit.
Exxtreme
2024-11-12, 14:45:51
Sorry aber falscher als bei Raster kanns ja gar nicht aussehen.
Wenn die Devs unfähig sind dann kann RT insgesamt Schaden anrichten. Schau dir mal RT in Diablo 4 an. Frisst 90% Performance und man sieht praktisch keinen Unterschied. Wenn man wegen der schlechten Performance jetzt sowas wie FSR oder DLSS aktivieren muss dann hat man netto eine Verschlechterung des Bilds.
Hakim
2024-11-12, 17:10:52
Wenn die Devs unfähig sind dann kann RT insgesamt Schaden anrichten. Schau dir mal RT in Diablo 4 an. Frisst 90% Performance und man sieht praktisch keinen Unterschied. Wenn man wegen der schlechten Performance jetzt sowas wie FSR oder DLSS aktivieren muss dann hat man netto eine Verschlechterung des Bilds.
Dazu kommt das selbst auf einer langsamen 3060Ti die NV tools ab Werk RT einschalten bei D4, ich meine ja bei einer 4080-4090 würde ich ja noch verstehen.
aufkrawall
2024-11-12, 17:15:08
Wer dieses Auto-Tuning von GFE oder der neuen Schrott-App nutzt, sollte besser auf einer Konsole zocken.
Hakim
2024-11-12, 17:19:22
Wer dieses Auto-Tuning von GFE oder der neuen Schrott-App nutzt, sollte besser auf einer Konsole zocken.
Was heißt hier nutzen, hatte die neue Erweiterung VoH installiert und das Spiel einfach gestartet und da bemerkt, glaub viele Leute überprüfen das nicht mal. Zumal vorher beim Hauptspiel alles ohne RT eingestellt war.
aufkrawall
2024-11-12, 18:33:16
Da hast du wohl bei der Installation der App/GFE nicht aufgepasst, das Setzen der empfohlenen Einstellungen zu überspringen. Komplett ungefragt macht der das auch nicht.
Hakim
2024-11-12, 18:34:28
Da hast du wohl bei der Installation der App/GFE nicht aufgepasst, das Setzen der empfohlenen Einstellungen zu überspringen. Komplett ungefragt macht der das auch nicht.
Wird wohl so gewesen sein, hab vorhin GFE mit der NV App ersetzt und da mal aufgepaßt und die Option ausgestellt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.