PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel


Seiten : 1 2 3 4 [5]

Döner-Ente
2024-07-24, 09:52:21
Inwiefern der Hunger höherer Detailstufen gerechtfertigt ist, ist noch so ein "Laien bewerten von außen Dinge, die sie gar nicht bewerten können"-Ding und widerstrebt mir als Teilzeit-Wissenschaftler. ;)

MfG
Raff

Tja, und für mich als Laie ist das das eigentlich interessante, wenn Grafikkarten plötzlich nicht mehr reichen sollen für Texturen, die auch nicht besser als vorher aussehen. Oder wenn für Schlauchspiele auf einmal hochgezüchtete 8-Kerner her müssen, wo eigentlich ein Einstiegs-6-Kerner für reichen müsste.
Da interessiert mich ein "Warum ist das so, muss das wirklich so sein und ist das gerechtfertigt" sehr viel mehr als das drölftausendste Balkendiagramm, das mir sagt, das es so ist. Und sollte es gerade für einen "Teilzeit-Wissenschaftler" ein "Wieso ist das so?" nicht mit die erste Frage sein?

Und bevor das wer falsch versteht: Ich kann dank niedriger Auflösung und Regler bedienen können mit meinem Speicherkrüppel fein leben. Kauf ich mir beim nächsten Mal eine Karte mit mehr VRAM? Damm sure. Ärgere ich mich in der Zeit, dass meine jetzige nur 8 GB hat ? Nö. Werden halt die Texturen nur auf high oder mittel gestellt und fertig ist.

Raff
2024-07-24, 09:52:42
Das Hauptproblem was ich sehe ist eher das eben dieses Game mal wieder ungefragt "Dynamische Setting Anpassung" betreibt....

Das sollte man stark kritisieren.

Da stimme ich voll zu. Diese ungefragte Priorisierung von Bildate vor Bildqualität einiger Spiele & Engines ist ekelhaft. Da fehlt ein "Mach es einfach, auch wenn’s ruckelt wie Sau!"-Schalter der Fairness.

MfG
Raff

Relex
2024-07-24, 10:37:57
Du kannst halt bei jeder Karte locker 2 GB abziehen, die sich Windows und Background ziehen werden, bevor das Spiel überhaupt die Gelegenheit hat, VRAM zu nutzen. Aus einer 12-GB-Karte werden dann schnell 10, und das ist dann oft zu wenig.

Nein, das ist falsch.


Ja, wenn du z.B. die Steam Bibliothek offen hast und vielleicht noch ein Ubisoft connect, dann hast du mal eben 2 GB VRAM Auslastung alleine durch zwei Anwendungen. Soweit richtig.

Fakt ist aber, dass Windows den Speicher dynamisch managed und der Anwendung im Vordergrund immer Prio gibt und alles im Hintergrund sofort wieder aus dem VRAM rausschaufelt.

Lass mal Avatar laufen und mach im Spiel das Grafikmenü mit der VRAM Anzeige auf und mach dabei alles zu was im Hintergrund läuft. Bei meiner 16 GB Karte sieht das Spiel dann 14,9-15 GB als nutzbaren Speicher (nur maximal verfügbarer, nicht zwingend tatsächlich benötigter Speicher).

Wenn ich jetzt Steam aufmache, während das Spiel im Hintergrund läuft, sehe ich, wie die VRAM anzeige im Spiel runter geht. Das Spiel kann sich dann nur noch 14-14,5 GB nehmen. Hole ich noch uPlay oder einen anderen Launcher mit GPU beschleunigter Anzeige in den Vordergrund, gehts entsprechend weiter runter auf 13,5-14 GB.

Sobald ich dann aber ins Spiel klicke geht die Anzeige sofort wieder hoch auf 14,9-15 GB und entspricht damit exakt dem Wert den ich habe, wenn alles im Hintergrund geschlossen ist.


Auf den VRAM den das Spiel nutzen kann, hat es also keinen Einfluss, wenn was im Hintergrund läuft, das ebenfalls den VRAM nutzt.

Ich könnte mir allerdings gut vorstellen, dass es bei Multi Monitor Betrieb ganz anders aussieht. Wenn auf weiteren Monitoren was dargestellt wird, wird das wahrscheinlich dauerhaft im VRAM gehalten. Aber das kann ich nicht testen, da ich noch nie interesse an nem Multi Monitor setup hatte. Idr. mach ich nur eine Sache und nicht mehrere gleichzeitig (lenkt nur unnötig ab) - aber anderes Thema.





Es steht jedem frei, die Speicher-Eunuchen weiter schönzureden. Aber wem bringt das etwas? Vor allem im Kontext einer Geforce. "Kann eigentlich alles, hat aber nicht genug Speicher dafür" ist ein ganz mieser Zustand und des Technologieführers nicht würdig.

Ich bin allerdings dafür, auf dem Boden zu bleiben und die Sache richtig zu bewerten. Extremfälle sind Wegweiser, aber eben kein Alltag. Insofern halte ich 12-GiByte-Grafikkarten auch nicht für hoffnungslos überholt (8 GiByte schon), aber mindestens angezählt.

MfG
Raff


Wie ich schon sagte, es gibt hier zwei Betrachtungsweisen:

Erstens Kaufberatung - hier ist es absolut legitim zu sagen, 8 GB reichen nicht, kauft euch ne Karte mit mehr Speicher. Kann man so aufzeigen, wie das von dir/euch gemacht wurde, dagegen ist gar nichts einzuwenden und ich finde es auch wirklich gut, dass ihr das prüft.

Allerdings muss man im zweiten Punkt eben auch sehen, welche Info ihr damit Leuten gebt, die bereits eine 8 GB Karte haben. Es gibt zig leute, die 8 GB Karten haben, weil sie vor 2 Jahren ne Karte benötigt haben und alles im Budget nur 8 GB hatte, die Karte womöglich noch recht teuer war. Es gibt 8 GB user, weil sie idr. keine sonderlich hohen Ansprüche haben und ne Karte im lower End nutzen und es gibt 8 GB User, weil sie ehemalige High End Karten wie z.B. die RTX2080S länger nutzen. Eine RTX3080 hat z.B. auch nur 10 GB, ist aber immernoch eine recht potente Karte.

Denen jetzt zu sagen "Sorry leute, eure Karte ist trash und "SO" sieht das Spiel mit 8 GB aus - ihr könnts also vergessen" ist doch keine sinvolle Info. Die Leute wollen das Game spielen und keine neue Karte kaufen, weil das evtl. nichtmal im Budget ist oder attraktive Karten zu teuer sind oder weil sie generell keine so hohen Ansprüche haben.

Ihr sagt bzw. zeigt jetzt aber dass das Spiel mit 8 GB unspielbar ist. Aber ihr könnt doch nicht behaupten, dass das wirklich so ist, wenn nur die Ultra Settings getestet werden. Daraus kann man einfach kein sinnvolles Fazit ziehen.

Bzw. das Fazit ist für den Neukauf einer GPU sinnvoll, aber nicht um zu sehen, ob und wie das Spiel auf 8 GB Hardware läuft. Denn zu jedem Spiel gehören nunmal auch die im Menü angebotenen Einstellungesmöglichkeiten.

Ihr müsst halt verstehen, dass Leute im Internet nach Tests zu Avatar suchen, um zu sehen, wie es auf der eigenen Hardware läuft.
Jemand der ne 8 GB Karte hat und auf euren Test stößt, wird das Spiel nicht kaufen. Dabei könnt ihr noch nichtmal sicher sagen, ob das überhaupt gerechtfertigt ist.

Wer weiß, vielleicht läuft es mit Medium Settings auf 8 GB bereits einwandfrei und ohne Texturmatsch.


Und nein, ich verlange nicht, dass ihr jedes Spiel auf Budget Builds testet und optimierte Settings auslotet, das ist sicher nicht euer Ziel und die Arbeit die auch andere Machen (unterschiedlicher Content mit unterschiedlichem Ziel)
Aber wenn man wie gesagt schon das Fass auf macht und sagt dass 8 GB nicht genug sind und in Texturmatsch enden, dann sollte man schon auch so fair gegenüber den Entwicklern und den Besitzern von 8 GB Karten sein und zumindest aufzeigen, ob das Spiel mit reduzierten Settings nicht trotzdem vernünftig lauffähig ist.
Das würde ja eurem Punkt, dass 8 GB zu wenig sind nichtmal wiedersprechen. Würde das Argument ja sogar nochmal untermauern, wenn man aufzeigen kann, dass man damit nur noch auf Medium oder sogar Low Settings spielen kann, während auf der 12 oder 16 GB karte dann sogar Ultra Settings ohne Probleme laufen. Aber zumindest würde man damit die nötige Transparenz bieten und das finde ich wichtig.

Aber gut, mich persönlich tangiert der Punkt nicht. Die 16 GB meiner GPU reichen für die Settings die ich nutze. Mir bringt es also nichts, wenn ihr mit 8 GB Karten nachtestet. Daher sieh es als konstruktives feedback. Gerade bei solchen harten Thesen ist Transparenz nötig, wenn man seriöse und sinnvolle Aussagen machen will.

][immy
2024-07-24, 11:32:47
...
Und was den RAM beim PC angeht. Ich würde behaupten, dass da größtenteils auch nur die Assets liegen, die in den VRAM gestreamt werden. Was soll ein Spiel sonst großartig zur Laufzeit im RAM speichern, außer assets? Spiellogik bzw. der Code dürften doch relativ schlank sein. Aber das ist jetzt nur Halbwissen. Die meisten exe Dateien haben ja kaum mehr als 100 MB. Dazu ein paar libs geladen und fertig ist das Spiel. Der Rest sind gigabytes an Assets und Texturen.
Genau das ist ja eines der großen Probleme. Speicher wird nur für visuelle Sachen genutzt und selten für eine interaktive Spielwelt. Auch ein Grund warum der Hauptspeicher kaum eine Rolle am PC spielt. Wundere mich sowieso warum es mittlerweile minimal 16gb sein sollten bei Spielen, denn eigentlich nutzen die Spiele fast ausschließlich dem vram und den Hauptspeicher wenn's hoch kommt als Buffer um nicht von der vermeintlich langsamen HDD zu laden. Da hat sich die letzten Jahre auch nix dran geändert und MS kommt mit direct storage nicht wirklich aus dem Quark.

So oder sousd langsam eine andere Lösung her denn der vram kann nicht ewig verdoppelt werden, zumindest nicht bei den Preisen. Wir knabbern zwar schon ewig an den 8gb und das limit verschwindet hoffentlich bald (wenn Nvidia nicht wieder damit an kommt) aber jetzt ist ja schon 12 GB eng.
Wird Zeit das SSDs in spielen zum Standard werden.

MS hat ja nun einige Studios unter sich, vielleicht sollten die mal anfangen auch die Möglichkeiten die DirectX so bietet zu nutzen. Anschließend das Developer Feedback sammeln und die APIs entsprechend anpassen damit die Hürden diese Techniken zu nutzen kleiner werden.

vinacis_vivids
2024-07-24, 12:34:29
Huang hat die 6GB RTX2060 und die 6GB RTX3060 groß gemacht und die Gamer betrogen. Erst nach dem Shitstorm gegen die 6GB RTX3060, wurde der Speicher nachträglich vergrößert.

Raff
2024-07-24, 13:28:08
[...] Daher sieh es als konstruktives feedback. Gerade bei solchen harten Thesen ist Transparenz nötig, wenn man seriöse und sinnvolle Aussagen machen will.

Absolut. Gutes Feedback, wird nach Möglichkeit in künftige Gedanken und Artikel eingewoben. :up:

Huang hat die 6GB RTX2060 und die 6GB RTX3060 groß gemacht und die Gamer betrogen. Erst nach dem Shitstorm gegen die 6GB RTX3060, wurde der Speicher nachträglich vergrößert.

Du hast dein riesiges AMD-Aktiendepot ja immer noch. Wolltest du das nicht endlich gewinnbringend veräußern und damit eine Insel kaufen? :)

Auf jeden Fall wird der Gewinn reichen, um damit zwei fantastische, kein bisschen verkrüppelte Reminiszenzen an die genannten Nvidia-Grafikkarten zu kaufen: 5600 XT und 6500 XT (und evtl. noch eine Fury X für die Vitrine).

MfG
Raff

Ex3cut3r
2024-07-24, 16:49:08
Auf jeden Fall wird der Gewinn reichen, um damit zwei fantastische, kein bisschen verkrüppelte Reminiszenzen an die genannten Nvidia-Grafikkarten zu kaufen: 5600 XT und 6500 XT (und evtl. noch eine Fury X für die Vitrine).

MfG
Raff

I see what you did there. Gut gekontert. 6GB, 4GB, und 4GB. AMD hat genauso "Speicher Krüppels" in der jüngsten Vergangenheit herausgebracht. :biggrin:

sapito
2024-07-24, 19:11:34
Das Hauptproblem was ich sehe ist eher das eben dieses Game mal wieder ungefragt "Dynamische Setting Anpassung" betreibt....

Das sollte man stark kritisieren.

also dann doch lieber harte grenzen wie bei Resident Evil > zack und tschüss :tongue::tongue:

Iscaran
2024-07-24, 19:14:29
Da stimme ich voll zu. Diese ungefragte Priorisierung von Bildate vor Bildqualität einiger Spiele & Engines ist ekelhaft. Da fehlt ein "Mach es einfach, auch wenn’s ruckelt wie Sau!"-Schalter der Fairness.


Dann hoffe ich dass du das auch bei jedem Game Review / Benchmark wo dies passiert hart anprangerst. Vor allem wenn dann auch noch game intern KEIN Schalter existiert, so dass der User das entscheiden darf ob das Game das macht oder nicht.

Das stört mich ehrlich gesagt mehr als ob eine Krüppelkarte in Ultra settings nu 20 FPS schafft. Die meisten Käufer solcher Karten wissen sehr gut warum sie sich dafür entschieden haben und ob einem persönlich ein "high" statt "ultra" reicht.

Natürlich gilt es AUCH offenzulegen wieviel VRAM wirklich gebraucht wird. Das geht aber leider nur über sogennante FPS-Einbrech-Tests. Reines messen der VRAM-Belegung sagt da nix aus, leider.

Das künstliche Beschneiden der Streaming Bandbreite kann da auch helfen zu zeigen wie stark/nah eine Karte am tatsächlichen VRAM-Limit ist...

Solange nämlich die Speicherbandbreite so hoch ist dass man z.B. locker 60 FPS "streamen" kann von SSD/RAM, solange merkst du sehr wenig von "zu wenig VRAM".

Und genau diese "Einbrech-Tests" funktionieren nicht mehr mit "Dynamische BQ-Settings"...ein Traum für unsere Game Engine Verhunzer...endlich kann man getrost grottig optimierten Softwaremüll raushauen, denn die wenigsten nicht super-hardware affinen merken nämlich nicht ob ihre "Ultra settings" auch wirklich immer anliegen.

Da heisst dann am Stammtisch locker flockig, achwo - isch spiel das mit meiner 8 GB Karte auf Ultra !?! Sieht so geil aus! ;D

EDIT: also dann doch lieber harte grenzen wie bei Resident Evil > zack und tschüss

Ja im Grunde schon - wenn du in z.B. windows oder sonstwo was einstellst dann willst du doch auch nicht, dass die Einstellung "ungefragt" überschrieben wird ?!
Lieber ein Zack und Tschüss => Errormeldung "You lack sufficient VRAM for this game settings" oder sowas...oder eben die 10 FPS ruckelorgie, da weiss jeder wie man das einstellen kann. Selbst der Größte Idiot schafft es denn Preset-Schalter von "Ultra" auf "high" zu stellen um dann zu sehen obs beim 10 FPS bleibt oder doch auf 30 hochgeht.

Lurtz
2024-07-24, 21:23:04
Und wäre es zu viel verlangt, solchen Missständen mal auf den Grund zu gehen bzw. diese zu thematisieren, versuchen, heraus zu finden, ob eher Graka-Hersteller/Treiber schuld sind oder eher die Spieleprogrammiererseite, anstatt schulterzuckend nach mehr Hardware zu rufen?

Ich finde mich doch auch nicht damit ab, dass mein 300 PS-Auto nur 0-100 in 10 Sekunden macht und empfehle den Leuten, doch lieber gleich 500 PS zu kaufen, damit 8 Sekunden dann doch drin sind.
Ist als Laie bzw. ohne Zugriff auf Enginetools so gut wie unmöglich bzw. nur indirekt möglich.

Und selbst wenn die "Schuld" (wer bestimmt das, gibt es eine Norm, welche Echtzeitszene mit welchem Hardwarebedarf einhergehen darf?) beim Spieleentwickler liegt, bleibt keine andere Möglichkeit als es mit Hardware zu erschlagen.

Aber Kudos für den wie immer unpassenden Autovergleich.

Relex
2024-07-24, 21:50:25
Ja im Grunde schon - wenn du in z.B. windows oder sonstwo was einstellst dann willst du doch auch nicht, dass die Einstellung "ungefragt" überschrieben wird ?!
Lieber ein Zack und Tschüss => Errormeldung "You lack sufficient VRAM for this game settings" oder sowas...oder eben die 10 FPS ruckelorgie, da weiss jeder wie man das einstellen kann. Selbst der Größte Idiot schafft es denn Preset-Schalter von "Ultra" auf "high" zu stellen um dann zu sehen obs beim 10 FPS bleibt oder doch auf 30 hochgeht.


Ein dynamisches Setting ist 1000x sinnvoller. Das liegt doch auf der Hand.

Was, wenn Ultra Settings z.B. 8,5 GB brauchen und High Settings 6 GB aber deutlich schlechter aussehen.

Ein dynamisches Ultra Setting kann dann viel mehr Qualität rausholen.

Hat schon seinen Grund, warum es bei Avatar nichtmal mehr eine Einstellungsmöglichkeit für die Texturen gibt und alles dynamisch geregelt wird.

Ein Schalter um das ein und auszuschalten wäre natürlich auch nicht falsch.

Sowas wie Nanite in UE5 arbeitet doch nach ähnlichem Prinzip. Anstatt sämtliche Geometrie voll zu laden, wird nur das geladen, was gebraucht wird. Bei den dynamischen Texturen eben das was in den VRAM passt.
Bei Id Tech ist es ähnlich. Da Gibt es zwar Textursettings, aber da regelt man auch nur das VRAM Budget für Texturen. Geladen wird trotzdem dynamisch, was sogar dazu führt, dass man erstmal kaum bis gar keinen Unterschied zwischen Maximalen und mittleren bis Hohen Settings sieht, weil man eben nicht direkt die Texturqualität regelt.


Sämtliche Engines gehen langsam aber sicher mit immer mehr Features in die Richtung. Flexibles speichermanagement ist der einzig richtige Weg, um maximale Qualität aus der vorhandenen Hardware zu holen.

Döner-Ente
2024-07-24, 22:11:30
Ist als Laie bzw. ohne Zugriff auf Enginetools so gut wie unmöglich bzw. nur indirekt möglich.

Und selbst wenn die "Schuld" (wer bestimmt das, gibt es eine Norm, welche Echtzeitszene mit welchem Hardwarebedarf einhergehen darf?) beim Spieleentwickler liegt, bleibt keine andere Möglichkeit als es mit Hardware zu erschlagen.

Aber Kudos für den wie immer unpassenden Autovergleich.
Es sollte offensichtlich sein, aber:
Wenn Spieler schlampige Arbeit der Entwickler ohne zu murren aus dem eigenen Geldbeutel mit neuer Hardware ausbügeln, ermutigt man sie nur, so weiter zu machen.

Ich hab da noch nen unpassenden Autovergleich für dich: Als Motorenentwickler kannste auch nicht nen 500-PS-V8 auf das Fahrwerk und Reifen vom 65-PS-Polo packen und dann deine Hände in Unschuld waschen, wenn der Kunde mit der Kiste nen Abflug macht.

aufkrawall
2024-07-24, 22:13:16
also dann doch lieber harte grenzen wie bei Resident Evil > zack und tschüss :tongue::tongue:
Ob das auf AMD auch einfach so den Treiber wie bei Nvidia crasht, sei mal dahin gestellt.
Hatte ich mit der 6700 XT jedenfalls nie. Auf der 4070 in der Demo zum Dorf gelatscht, 12GB immer weiter angenähert, und zack, sofort tot...

Lurtz
2024-07-24, 22:20:35
Es sollte offensichtlich sein, aber:
Wenn Spieler schlampige Arbeit der Entwickler ohne zu murren aus dem eigenen Geldbeutel mit neuer Hardware ausbügeln, ermutigt man sie nur, so weiter zu machen.
Das ist kein Argument, sondern reines Framing:
Wenn Spieler den Speichergeiz der Grafikkartenhersteller ohne zu murren aus dem eigenen Geldbeutel mit dem Kauf besser ausgestatteter Modelle ausbügeln oder ihren Unmut auf die Spieleentwickler auszulagern, die mehr Arbeit in aufwendige PC-Anpassungen stecken müssen, weil der VRAM nicht mal für Konsolensettings reicht, ermutigt man sie nur so, so weiter zu machen.

Raff
2024-07-24, 22:23:58
Ob das auf AMD auch einfach so den Treiber wie bei Nvidia crasht, sei mal dahin gestellt.
Hatte ich mit der 6700 XT jedenfalls nie. Auf der 4070 in der Demo zum Dorf gelatscht, 12GB immer weiter angenähert, und zack, sofort tot...

Das klingt IMHO aber eher nach einem Spiel-Problem. Denn Abstürze bei Speicherüberlauf sollten nie passieren, sondern Auslagerung. Erst, wenn tatsächlich gar kein Speicher mehr vorhanden ist, wäre ein Crash die "ultima ratio". Gut, dass das nach einigen Monaten zurechtgeflickt wurde.

MfG
Raff

Döner-Ente
2024-07-24, 22:24:59
Das ist kein Argument, sondern reines Framing:
Wenn Spieler den Speichergeiz der Grafikkartenhersteller ohne zu murren aus dem eigenen Geldbeutel mit dem Kauf besser ausgestatteter Modelle ausbügeln oder ihren Unmut auf die Spieleentwickler auszulagern, die mehr Arbeit in aufwendige PC-Anpassungen stecken müssen, weil der VRAM nicht mal für Konsolensettings reicht, ermutigt man sie nur so, so weiter zu machen.
Bist du hier eher als Entwickler oder als Spieler unterwegs? So ganz eindeutig scheint mir das nicht zu sein..:O.

Das mag ja sein, dass die Hardwarehersteller zu lange mit VRAM gegeizt haben. Dann kann ich als Entwickler trotzdem nicht einfach hergehen und schulterzuckend sagen "jo, läuft halt auf einem nicht unrelevanten Anteil an Grafikkarten wien Sack Nüsse, is halt so."

aufkrawall
2024-07-24, 22:34:30
Das klingt IMHO aber eher nach einem Spiel-Problem. Denn Abstürze bei Speicherüberlauf sollten nie passieren, sondern Auslagerung. Erst, wenn tatsächlich gar kein Speicher mehr vorhanden ist, wäre ein Crash die "ultima ratio". Gut, dass das nach einigen Monaten zurechtgeflickt wurde.

Kann immer ein Spielbug sein, weiß man nicht. Es crashte aber hier der Treiber, wie Windows-Ereignislog verrät.
War im September, also lange nach Erscheinen der Demo.

Raff
2024-07-24, 22:41:01
Kann immer ein Spielbug sein, weiß man nicht. Es crashte aber hier der Treiber, wie Windows-Ereignislog verrät.
War im September, also lange nach Erscheinen der Demo.

Im Herbst konnte ich keinen einzigen Absturz mehr provozieren, nur noch Ruckeln. Allerdings getestet mit der aktualisierten Vollversion - kA, ob die Demo jemals gepatcht wurde. Das Spiel war in den ersten Wochen nach dem Start ja sehr wackelig, speziell auf 8-GiByte-Grafikkarten und Geforce generell. Möglicherweise hat die AMD-Technikpartnerschaft hier auch ungewollte Nebenwirkungen gebracht. Wir werden’s nicht erfahren. Dafür, dass der Nvidia-Treiber nicht so standhaft ist, wenn mal der VRAM überläuft, gibt’s aber noch ein Indiz: Hogwarts Legacy ist über viele Monate und Treiber auf allen Adas zuverlässig abgeflogen, wenn diese nicht über 16+ GiByte VRAM verfügten. Weitere Fälle sind mir aber nicht bekannt.

MfG
Raff

Relex
2024-07-24, 22:41:05
Ich hatte selbst mit meiner GTX980 (4GB) die ich bis Ende 2020 hatte niemals Abstürze durch Speichermangel.

Die Spiele werden langsamer oder die Frametimes schlecht oder es werden die Texturen reduziert. Mehr passiert da nicht. Egal wie stark man es übertreibt.


Ihr würdet euch wahrscheinlich wundern wie viel mit den 4 GB in 1080p damals noch lauffähig war. In 99% der Fälle waren die aus performancegründen optimierten settings (also meistens alles auf "High" statt Ultra) ausreichend, um den Speicherbedarf unter 4 GB zu drücken.

AC Valhalla war das erste Game das wirklich Probleme machte, denn da mussten die Texturen zwingend auf Medium runter, damit der VRAM nicht überläuft. Aber die Medium Texturen sahen kacke aus. Dann wars auch höchste Zeit für was neues. :)

Iscaran
2024-07-25, 00:54:48
Ein dynamisches Setting ist 1000x sinnvoller. Das liegt doch auf der Hand.

Halte ich für ein Gerücht...das dient nur dem kaschieren der Limitierung der Engine/Hardware.

Keines davon MÖCHTE ich haben wenn ich z.B. Sichtweite MAX einstelle, aber nur 50% bekomme. Kann auch in Shootern nerven.

Oder dann eben das "dynamische" Aufpoppen von Dingen...das ist ein Bug und kein Feature.
Was, wenn Ultra Settings z.B. 8,5 GB brauchen und High Settings 6 GB aber deutlich schlechter aussehen.
Der VRAM Verbrauch steigt aber typischerweise eher stärker an mit den Settings als umgekehrt...gibt nur jaaaaaanz wenige Ausnahme wo aufgrund von in der Regel "Bugs" die Performance mit High settings bet drastische BQ verlust fast genausoviel Performance saugt.

Zeig doch bitte mal ein Beispiel für deinen konstruierten Fall, dass ein Niedrigeres Setting deutlich schlechter aussieht aber praktisch genausoviel Leistung frisst.

Ein dynamisches Ultra Setting kann dann viel mehr Qualität rausholen.
Nein - es kann höchsten die Verwendung vorhander Ressourcen optimaler Nutzen. Aber mehr als Ultra kannst du nie rausholen.

Klar hilft es z.B. wenn es 90% der Szenen gibt wo Ultra mit z.B. 8 GB geht, aber 10% der Szenen halt dann nicht...

Hat schon seinen Grund, warum es bei Avatar nichtmal mehr eine Einstellungsmöglichkeit für die Texturen gibt und alles dynamisch geregelt wird.

Ja, Entmündigung der Spieler auch Settings zu wählen die sie GENAU SO haben wollen.

Ein Schalter um das ein und auszuschalten wäre natürlich auch nicht falsch.

IMHO das EINZIG sinnvolle. Der User kann ja entscheiden,

Sowas wie Nanite in UE5 arbeitet doch nach ähnlichem Prinzip. Anstatt sämtliche Geometrie voll zu laden, wird nur das geladen, was gebraucht wird. Bei den dynamischen Texturen eben das was in den VRAM passt.
Bei Id Tech ist es ähnlich. Da Gibt es zwar Textursettings, aber da regelt man auch nur das VRAM Budget für Texturen. Geladen wird trotzdem dynamisch, was sogar dazu führt, dass man erstmal kaum bis gar keinen Unterschied zwischen Maximalen und mittleren bis Hohen Settings sieht, weil man eben nicht direkt die Texturqualität regelt.

Das was du beschreibst ist "Culling" und Geometry checking...das ist nicht "dynamische BQ" Änderung.

Natürlich macht es keinen Sinn ALLE Texturen INKLUSIVE der nicht sichtbaren/verdeckten, vom Levelende usw. zu laden sondern nur das was DA ist und SICHTBAR ist und ggf. sehr bald sichtbar werden wird bzw. werden könnte.

Das ist NICHT "Dynamische Anpassung" der Bildqualität.

Dynamische BQ ist - "Fuck ich hab nicht genug VRAM - ja dann lad halt nur die Low-Res Texturen für den Sichtbaren Bereich"


Sämtliche Engines gehen langsam aber sicher mit immer mehr Features in die Richtung. Flexibles speichermanagement ist der einzig richtige Weg, um maximale Qualität aus der vorhandenen Hardware zu holen.

Flexibles Speichermanagement != Dynamische BQ-Reduktion um FPS zu halten...

Lurtz
2024-09-04, 15:23:56
DF sagt 12 GB sind nicht so schlimm, denn:
-Es kann ja auch nur ein VRAM-Leak sein.
-Man kann einfach Settings runterdrehen (auf einer 900€-GPU).
-Nixxes-Ports sind eh nicht so toll.
-Die Konsolen haben ja auch nicht mehr also muss es ja auch am PC reichen.

:uup:

EyC2o320L3Y

Ist das schon die Bargaining-Stage of Grief?

Lehdro
2024-09-04, 15:26:55
DF macht tolle Technikanalysen, scheitert aber irgendwie immer am Common Sense...

Raff
2024-09-04, 15:27:33
Das ist ja im Grunde nur eine Meinung plus Gefühle, kein handfester Test. Leider wird sich nur auf Daniel Owen bezogen, weil der viel besser fließend Englisch spricht als PCGH (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Tests/16-vs-12-GByte-Geforce-RTX-4070-Ti-Super-vs-RTX-4070-Ti-1439313/). ;)

MfG
Raff

Lurtz
2024-09-04, 15:30:06
Das ist generell so ein Ding bei DF. Sie messen einfach zu wenig (wo andere manchmal vielleicht zu viel messen und sich in den Zahlen verlieren). Ist aber sehr erfolgreich und personell wahrscheinlich deutlich schlanker, ihr Weg...

aufkrawall
2024-09-04, 15:44:51
-Nixxes-Ports sind eh nicht so toll.

Aber schön das RT bei Ratchet & Clank breitgetreten haben. :freak:
Auf einer 12GB-Karte dann halt nur mit high-Texturen und nur Reflexionen, kann man ja mal vergessen zu erwähnen. Andererseits sieht es mangels RR eh aus wie Kacke...

Fortnite SWRT-Lumen high + epic-Texturen btw. <8GB in 4k DLSS P rBAR. Aber die Engine wird ja als Bedrohung zum glorreichen Nvidia-RT wahrgenommen...

gnomi
2024-09-05, 11:24:42
Aus Enthusiasten Sicht ist mehr VRAM natürlich immer wichtig. (Haben ist besser als Brauchen)
Ansonsten finde ich gerade DF wesentlich besser als viele andere, weil sie sich eben Konsolen Fassungen und PC Einstellungen genau vornehmen und gut die aktuelle Alltagstauglichkeit der GPU's zeigen.

Ich persönlich bin auch gerne etwas voraus und würde 4070S TI Minimum mit 16GB VRAM jetzt empfehlen.
Mit der 4080S muss ich bereits auf 1/3 Performance verzichten und bei Outlaws zum Beispiel die nvidia Effekte besser abstellen. Ist für mich jedoch kein großes Problem, denn die Preisunterschiede sind auch recht heftig oben raus mittlerweile. Und diese Leistungsklasse sollte auch PS5 Pro Niveau gut überstehen. Man kann die also notfalls 3-4 Jahre einsetzen.

4070S oder andere brauchbare 12GB Karten sind dennoch auch kein Problem für diese Generation. Ich glaube nicht, dass sich da Kunden groß ärgern.
Bis zur Series S muss alles mit durchgeschleppt werden und oftmals kommen noch PS4 Versionen.
Die paar tausend Enthusiasten im Markt sind einfach unbedeutend.
Selbst die PS5 Pro wird sich nicht extrem verkaufen, da für die meisten Null Bedarf. :wink:

dildo4u
2024-09-05, 11:29:32
Kein Plan ob das über längere Laufzeit genug ist aber selbst die 3080 ist noch ok in Star Wars mit RTXDI.

https://i.ibb.co/pz6cXsC/Bildschirmfoto-vom-2024-09-05-11-35-15.png (https://ibb.co/Yk4mjKv)

https://www.pcgameshardware.de/Star-Wars-Outlaws-Spiel-74306/Specials/Review-Test-Release-Benchmark-Grafikkarte-CPU-1454951/2/

Hat mich gewundert vieleicht kann Raff was dazu sagen.

Raff
2024-09-05, 11:42:07
Jau: https://extreme.pcgameshardware.de/threads/star-wars-outlaws-im-benchmark-vergleich-20-cpus-und-25-grafikkarten-getestet.652955/#post-11684892

Bildqualität hat bei der Engine keine Prio, sondern die Bildrate.

Richtig übel wird es erst, wenn elementare Dinge nicht mehr in den VRAM passen (zu sehen in UHD auf der RTX 2060 - und mit RTXDI auch auf der RTX 3080), aber die Spanne von "Wir halten uns mit Matsch über Wasser" ist breit. Insofern ist bei der VRAM-Bewertung der optische Aspekt wichtiger als die Bildrate (und das schon eine Weile und in vielen Fällen).

MfG
Raff

gnomi
2024-09-05, 12:06:53
RTXDI muss ich mir mal ansehen.
Auf den ersten Blick sieht es mit einem Drop von 57 auf 46 in 4K 4080S tatsächlich nicht so schlecht aus.
Meine CPU ist allerdings uralt und daher immer ein Risiko. :wink:

Aber hat jetzt keine Priorität, denn a) wird RTXDI generell eher nicht empfohlen, soweit ich das sehe und b) habe ich auch selbst die Erfahrung gemacht, dass 4080S mit RT Ultra in 4K mit Upscaling (Quality, ggf. Balanced oder FG noch an) bereits sehr gut eingestellt und der VRAM Verbrauch bereits hoch ist.

Achill
2024-09-05, 12:21:05
RTXDI muss ich mir mal ansehen.
Auf den ersten Blick sieht es mit einem Drop von 57 auf 46 in 4K 4080S tatsächlich nicht so schlecht aus.
Meine CPU ist allerdings uralt und daher immer ein Risiko. :wink:

Aber hat jetzt keine Priorität, denn a) wird RTXDI generell eher nicht empfohlen, soweit ich das sehe und b) habe ich auch selbst die Erfahrung gemacht, dass 4080S mit RT Ultra in 4K mit Upscaling (Quality, ggf. Balanced oder FG noch an) bereits sehr gut eingestellt und der VRAM Verbrauch bereits hoch ist.

Der Drop ist schon etwas höher ...
1. Test: Max. Details except RTXDI (off), 67 % Res. Upsampling* -- rBAR/SAM/HAGS enabled
2. Test: Max. Details incl. RTXDI Ultra, 67 % Res. Upsampling + Frame Generation* -- rBAR/SAM/HAGS enabled

Ist also eher ein Drop von 57 fps auf ~30 fps (geschätzt, da keine Info wie gut DLSS-FG hier skaliert).

gnomi
2024-09-05, 12:29:25
Mein Fehler. PCGH haben FG im RTXDI Benchmark auch noch an.
Bei Alan Wake 2 war FG überraschend brauchbar meinen Erfahrungen nach, aber hier würde ich es bei lediglich 30fps Basis jetzt nicht gerne verwenden.

Relex
2024-09-05, 12:46:02
RTXDI kann man aktuell praktisch nichtmal verwenden, weil es heftige slowdowns gibt. Wie Digital Foundry gezeigt hat, selbst auf einer 4090.

Solange das nicht gepatcht ist kann man RTXDI komplett ignorieren.


Aber selbst wenn es perfekt laufen würde, wäre es kaum der Rede wert. Die optischen Vorteile sind die geringsten, die ich jemals mit RT gesehen habe und die Kosten mit die größten. Dazu gesellt sich auch noch der ein oder andere Kompromiss bei der Optik wie fehlende Schatten. Außerdem allgemein schlechtere Frametimes.

Tolles Feature. :freak:

aufkrawall
2024-11-18, 21:07:19
Ohne rBAR, Texturen nur high, RT aus, 4k DLSS Performance FG - 12GB Belegung + Matschtexturen direkt nach dem Laden in Ratchet & Clank:
https://s20.directupload.net/images/241118/8ynkarp5.png

Wirklich der größte Software-Schrott aller Zeiten. Fast schon überflüssig zu erwähnen, dass die Frame Times je nach Level und Traversal auch kacke sind...

vinacis_vivids
2024-11-18, 22:13:41
Das Gematsche und Matschtexturen kommen aber von Nvidia-DLSS low resolution upscaling und nicht unbedingt von der Engine. Vielleicht ist eine FSR-Implementierung in diesem Fall einfach besser.

aufkrawall
2024-11-18, 22:22:35
Das Gematsche kommt von der vermurksten DirectStorage GPU-Dekompression, kannst dich wieder hinlegen.

The_Invisible
2024-11-19, 09:35:29
Hat man das noch immer nicht gefixt? Da scheint DS ja genau das Gegenteil zu bewirken zwecks VRAM Belegung, dann lieber UE5

dildo4u
2024-11-19, 09:39:36
Einfach Direct Storage rauswerfen Spiderman nutzt es nicht und rennt fein.

J_z-_RsxpS4

Relex
2024-11-19, 09:51:51
Jap, bei Ratchet and Clank auf jeden Fall die Direct Storage dll rauswerfen.

Zumindest auf Nvidia (hab keine AMD) sehe ich vor allem microstutter wenn direct storage aktiv ist.

Und das nicht beim nachladen von assets oder beim bewegen durch die Spielwelt, sondern durchgehend und konstant. Sobald ich die kamera langsam bewege sehe ich microruckler.

Ohne direct storage dll hingegen alles perfekt smooth.

Ist jetzt aber auch schon ein paar Monate her, seit ich es das letzte mal getestet habe.
Und ja, VRAM lastig bleibt es trotzdem. 16 GB reichen in 4K mit RT und FG knapp aus. Man darf dann aber keine Grafiksettings wechseln oder zu viele Stunden am stück spielen, weil dann müllt früher oder später der VRAM zu.


Ist halt wieder einer dieser hochgelobten nixxes ports :D

][immy
2024-11-19, 10:54:47
Jap, bei Ratchet and Clank auf jeden Fall die Direct Storage dll rauswerfen.

Zumindest auf Nvidia (hab keine AMD) sehe ich vor allem microstutter wenn direct storage aktiv ist.

Und das nicht beim nachladen von assets oder beim bewegen durch die Spielwelt, sondern durchgehend und konstant. Sobald ich die kamera langsam bewege sehe ich microruckler.

Ohne direct storage dll hingegen alles perfekt smooth.

Ist jetzt aber auch schon ein paar Monate her, seit ich es das letzte mal getestet habe.
Und ja, VRAM lastig bleibt es trotzdem. 16 GB reichen in 4K mit RT und FG knapp aus. Man darf dann aber keine Grafiksettings wechseln oder zu viele Stunden am stück spielen, weil dann müllt früher oder später der VRAM zu.


Ist halt wieder einer dieser hochgelobten nixxes ports :D
Das könnte ein Indiz dafür sein, das man es mit der Implementierung etwas übertrieben hat und man zu kurzfristig assets nach lädt, auf der renderer dann wartet. Mit direct storage ändert sich ja eigentlich nicht so wahnsinnig viel, außer das der Puffer im GPU Speicher deutlich kleiner sein sollte. Wenn der Entwickler (oder die Engine) übertreibt kann das schnell passieren. Braucht wohl noch Feintuning.
Aber was will man erwarten, DX12 ist jetzt schon wie alt und immernoch gibt es Spiele die im DX12 Modus Probleme machen. Solche Adaptionen brauchen einfach ihre Zeit am PC.

Relex
2024-11-19, 11:40:24
Weiß nicht. Wenn die Direct Storage Nutzung so exzessiv wäre, dass man Assets just in time von SSD streamt (sprich VRAM wird freigegeben, sobald ein objekt nicht mehr sichtbar ist), würde das für extreme CPU Last sorgen, wenn man die dll löscht.

Dass das ohne DS über die CPU genauso gut und schnell funktioniert bei gleichbleibenden VRAM Bedarf klingt daher unlogisch.

Soweit ich das gesehen habe wird zwar GPU dekomprimierung genutzt, aber die Streaminglast ist so moderat, dass es eben ne aktuelle CPU sogar mit besseren Frametimes selbst erledigen kann.

Nur auf low end CPUs scheint das wohl Vorteile zu bringen.

Ansonsten gehe ich stark davon aus, dass die Implementierung nicht gut ist. Dafür spricht ja auch, dass der VRAM bedarf hoch ist und man eher bessere Effizienz erwarten würde.
Kann natürlich auch grundsätzlich ein Problem mit DStorage GPU dekomprimierung sein.
Hier wäre interessant zu wissen, ob es noch weitere Games mit GPU dekomprimierung gibt.

Star Wars Outlaws und Avatar nutzen z.B. Direct Storage, aber ob die GPU dekomprimierung zum einsatz kommt weiß ich nicht.

Hätte man mehr Games mit GPU dekomprimierung könnte man eher sagen, ob es am Spiel oder an der API oder ggf. sogar an den Treiber implementierungen liegt...



Abseits dessen muss man mittlerweile aber auch festhalten, dass sich die VRAM situation gefühlt immer weiter entspannt.

Die Titel der letzten Monate hatten alle auffällig moderate VRAM anforderungen. Speziell mit UE5 scheint das immer der Fall zu sein.

Aber selbst titel wie Star Wars Outlaws, die alles nehmen, was sie kriegen können haben zumindest dynamisches VRAM management und noch nichtmal mehr eine Einstellung für die Texturdetails.

Ne gewisse Bewegung ist in dem Bereich also schon zu sehen.

Ich vermute, dass die Insomniac Engine in den letzten Spielen einfach noch zu alt war.
Man sieht das ja auch an Spider-Man MM. Entweder die Texturstufe die eingestellt ist, passt in den VRAM oder es ruckelt, was gerade bei Karten mit weniger VRAM ein noch größeres Problem ist, da man Puffer vorhalten muss, um Ruckeln auch in Grenzsituationen zu vermeiden. Das heißt aber, dass man die Texturen noch weiter reduzieren muss. Ein dynamisches VRAM Management hatte hier sehr große Vorteile bzgl. Bildqualität.

Dumm ist auch, dass die Texturstufen bzw. Mip Levels viel zu grob sind. Man sieht ja gut am bild von aufkrawall, dass die Textur in der Mitte total unscharf ist und die daneben extrem detailliert. Die Balance ist komplett fürn Arsch. Das geht schon seit Jahren viel besser und spätestens mit Virtual Texturing ansätzen wie in UE5 sollte sich das Problem weiter vermindern lassen.

Raff
2024-11-19, 13:42:09
Freut euch schon mal auf morgen. :biggrin:

MfG
Raff

The_Invisible
2024-11-19, 14:00:35
Freu euch schon mal auf morgen. :biggrin:

MfG
Raff

Wieso, Stalker2 mit UE5 und exzessiver VRAM Nutzung? Wär ja mal was ganz neues :D

dildo4u
2024-11-19, 14:12:11
Flight Sim 24 wird neue Rekorde aufstellen das bekommt endlich RT.

][immy
2024-11-19, 14:25:50
Weiß nicht. Wenn die Direct Storage Nutzung so exzessiv wäre, dass man Assets just in time von SSD streamt (sprich VRAM wird freigegeben, sobald ein objekt nicht mehr sichtbar ist), würde das für extreme CPU Last sorgen, wenn man die dll löscht.

Dass das ohne DS über die CPU genauso gut und schnell funktioniert bei gleichbleibenden VRAM Bedarf klingt daher unlogisch.

Soweit ich das gesehen habe wird zwar GPU dekomprimierung genutzt, aber die Streaminglast ist so moderat, dass es eben ne aktuelle CPU sogar mit besseren Frametimes selbst erledigen kann.

Nur auf low end CPUs scheint das wohl Vorteile zu bringen.

Ansonsten gehe ich stark davon aus, dass die Implementierung nicht gut ist. Dafür spricht ja auch, dass der VRAM bedarf hoch ist und man eher bessere Effizienz erwarten würde.
Kann natürlich auch grundsätzlich ein Problem mit DStorage GPU dekomprimierung sein.
Hier wäre interessant zu wissen, ob es noch weitere Games mit GPU dekomprimierung gibt.
...


GPU dekomprimierumg heißt immer auch, das die GPU speicherbandbreite und Rechenleistung opfern muss, welche auf CPU Seite meist mehr als genug vorhanden ist.
DirectX storage wird halt erst da interessant, wo wirklich nur noch minimalste nachgeladen werden muss. Das aber in ganz vielen kleinen requests.
Aber so lange die Bandbreite und Speicher nicht limitiert, gewinnt man halt auch nichts, außer es ist halt zu extrem auf Kante genäht.
Wenn die die dll weg lässt, dürfte sich aber wohl auch das Ladeverhalten grundsätzlich ändern.

Ist aber wie bei allem in der Technikbranche. Die Idee ist super, aber die Umsetzung... DS hilft halt auch nicht weiter, wenn es grottig implementiert ist, damit es einfach nur irgendwie auf dem PC läuft.
Die alte Holzhammer Methode ist halt deutlich einfacher, aber ziemlich ineffizient.

Relex
2024-11-19, 15:07:46
Wieso, Stalker2 mit UE5 und exzessiver VRAM Nutzung? Wär ja mal was ganz neues :D

Nein, wir dürfen uns freuen, weil STALKER2 dank UE5 so wenig VRAM für ein Open World Spiel braucht und dabei auch noch exzellente Texturen bietet.
Ganz bestimmt! :freak:

Aber wenn ich raten müsste, würde ich eher auf miese Frametimes tippen (bezug Direct Storage und Ratchet and Clank).
Dass die UE5 beim VRAM reinknallt wäre schon extrem ungewöhnlich.

aufkrawall
2024-11-19, 16:48:57
Einfach Direct Storage rauswerfen Spiderman nutzt es nicht und rennt fein.

Kommt mit den 12GB mit RT auch nicht hin, obwohl schon ohne bzw. selbst auf einer 4090 entfernte Gebäude oft nur als Matsch gestreamt werden.
Bei Unreal ist das Streaming vom Virtual Texturing Terrain zwar auch ständig absurd verzögert, aber wenigstens lädt es dann nach kurzer Zeit eigentlich immer die volle Auflösung...

Bei Stalker bin ich aber nicht optimistisch. Kein Nanite für Vegetation ist technisch halt auch direkt komplett langweilig.

Lurtz
2024-11-19, 21:32:21
Hat man das noch immer nicht gefixt? Da scheint DS ja genau das Gegenteil zu bewirken zwecks VRAM Belegung, dann lieber UE5
Nein, Nixxes muss ja den nächsten halbfertigen Port für Sony hinrotzen. Da passiert nichts mehr.

Raff
2024-11-19, 23:06:32
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90260&stc=1&d=1732053965

:devil:

MfG
Raff

Relex
2024-11-19, 23:39:15
Deine Teaser sind gemein :D

dildo4u
2024-11-20, 13:12:31
Flight Sim 24 scheint doch relativ Harmlos 13GB in 4k Nativ 30fps auf 4080.

Aber man kann Details über Ultra per Hand steigern.

MzOvBLYBKF8

Raff
2024-11-20, 15:01:36
Jetzt aber. =)

Stalker 2 Tech-Test: Benchmarks von 26 CPUs und 20 GPUs in 5 Auflösungen (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/)

Die GPU-Benchmarks (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/5/) enthalten sehr viel Balken- und Textmaterial zum Thema VRAM.

v25f0ncPPG4

MfG
Raff

The_Invisible
2024-11-20, 16:49:09
Freu mich schon wenn Raff die 5060 mit 8GB testet :D

Raff
2024-11-20, 16:53:49
Sofern die nicht gerade 199 Euro kostet, wird das ein Massaker. :ugly: PCI-Express 5.0 hilft etwas ... sofern die Lanes nicht halbiert werden, was leider wahrscheinlich ist.

MfG
Raff

][immy
2024-11-20, 18:51:02
Jetzt aber. =)

Stalker 2 Tech-Test: Benchmarks von 26 CPUs und 20 GPUs in 5 Auflösungen (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/)

Die GPU-Benchmarks (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/5/) enthalten sehr viel Balken- und Textmaterial zum Thema VRAM.

https://youtu.be/v25f0ncPPG4

MfG
Raff

Noch ist AMD in den benches nicht sonderlich vertreten. Hier würde die 6800xt und 7900xt vermutlich noch am interessantesten werden, weil das eine schöne schrittweise vram Steigerung zeigen könnte.

Raff
2024-11-20, 21:18:40
[immy;13654134']Noch ist AMD in den benches nicht sonderlich vertreten. Hier würde die 6800xt und 7900xt vermutlich noch am interessantesten werden, weil das eine schöne schrittweise vram Steigerung zeigen könnte.

Ich nehme an, dass sich hier nichts oder nur bei Ultra HD nativ etwas regen wird, denn zumindest bei Geforce lässt sich eine klare Sättigung beim Schritt von 12 auf 16 GiB beobachten. Der tatsächliche Bedarf liegt irgendwo dazwischen. Selbst wenn man reinrechnet, dass Nvidia etwas mehr aus jedem MiB herausholen kann als AMD, dürften 16 GiB reichen.

MfG
Raff

aufkrawall
2024-11-20, 21:27:17
Hab mit rBAR on und FG off noch nicht mehr als 8GB Allozierung auf der 4070S in 4k DLSS P gesehen bzw. immer drunter (ok, spiked immer mal auf 8,5GB).
Das Nvidia-Schrott-FG braucht mal eben ein knappes ganzes GB...

HisN
2024-11-20, 23:39:35
Hier kommen fast 23GB zusammen. (UHD mit DLSS)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90279&stc=1&d=1732142366

Raff
2024-11-21, 00:10:05
Hatte ich nach einigen Stunden auch, aber das riecht schwer nach Speichel-Leck. ;)

MfG
Raff

Relex
2024-11-21, 00:18:47
Ich kanns eigentlich nur provozieren, wenn ich ständig Settings umstelle. Aber dass dann der VRAM zumüllt ist bei jedem Spiel so.

Beim ersten Bild bin ich gut 10 Minuten durch die Spielwelt gelaufen.
War die meiste zeit bei unter 10 GB Auslastung mit Max Settings DLSS Q und FG. Ging zwischenzeitlich auch auf unter 9 GB runter.
Erst im Dorf werden über 10 GB voll.

Beim zweiten Bild hab ich 10 minuten lang settings umgestellt. VRAM voll.
So bekommt man wahrscheinlich auch 100 GB voll...

dildo4u
2024-11-21, 10:50:39
3080 geht eher die Leistung als der Vram aus


iENj1X2Dhxc

Popeljoe
2024-11-21, 22:52:14
Jetzt aber. =)

Stalker 2 Tech-Test: Benchmarks von 26 CPUs und 20 GPUs in 5 Auflösungen (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/)

Die GPU-Benchmarks (https://www.pcgameshardware.de/Stalker-2-Spiel-34596/Specials/Release-Test-Review-Steam-Benchmarks-Day-0-Patch-1459736/5/) enthalten sehr viel Balken- und Textmaterial zum Thema VRAM.

https://youtu.be/v25f0ncPPG4

MfG
Raff
Alter Schwede!
Deswegen hast du vor Kurzem auch so vehement von 8 GB Karten abgeraten. Der Unterschied der 4060 Ti mit 8 zu der mit 16 GB ist ja oberkrass!
Von unspielbar zu gut spielbar.
Die Auswirkungen auf den Markt dürften interessant sein.
Die 4060 Ti@8GB stinkt selbst gegen eine 3060@ 12GB völlig ab... :freak::freak::freak:
Edit: was ist denn mit den AMD Kartenlos?!

Exxtreme
2024-11-21, 22:58:46
Edit: was ist denn mit den AMD Kartenlos?!

Die haben keine Game Ready-Treiber. Du kannst da aber eine RX7900XTX zuschalten mit den aktuellen Treibern.

Popeljoe
2024-11-21, 23:55:03
Die haben keine Game Ready-Treiber. Du kannst da aber eine RX7900XTX zuschalten mit den aktuellen Treibern.
WTF?! Naja, wieder der übliche "NV (oder AMD) exklusiv Titel" BS. Also warten auf den nächsten Treiber, oder?

Übrigens: sehr sympathische Sig. :D

dildo4u
2024-11-22, 08:56:27
CB hat AMD Karten getestet der Treiber wird eh nicht viel Ändern.
Das Game nutzt kein schweres Raytracing.

https://www.computerbase.de/artikel/gaming/stalker-2-heart-of-chornobyl-benchmark-test.90336/

][immy
2024-11-22, 16:41:34
CB hat AMD Karten getestet der Treiber wird eh nicht viel Ändern.
Das Game nutzt kein schweres Raytracing.

https://www.computerbase.de/artikel/gaming/stalker-2-heart-of-chornobyl-benchmark-test.90336/
Ist das eigentlich normal das die 7900xt außen vor bleibt, aber jede rtx karte vermessen wird?

AMD ist in den benches inzwischen relativ unterrepräsentiert.

gedi
2024-11-22, 21:42:03
Alter Schwede!
Deswegen hast du vor Kurzem auch so vehement von 8 GB Karten abgeraten. Der Unterschied der 4060 Ti mit 8 zu der mit 16 GB ist ja oberkrass!
Von unspielbar zu gut spielbar.
Die Auswirkungen auf den Markt dürften interessant sein.
Die 4060 Ti@8GB stinkt selbst gegen eine 3060@ 12GB völlig ab... :freak::freak::freak:
Edit: was ist denn mit den AMD Kartenlos?!

Mit FG ist 7970xtx die Schnellste derzeit... Was ist ist mit NV-Karten los?

Slipknot79
2024-11-23, 04:56:44
Warhammer Space Marine 2 ballert den VRAM gut zu, 23,5GB@4090, alles maxxed, DLDSR 2,25x. (y)

dildo4u
2024-11-23, 11:10:02
Stalker 4060TI 16GB vs 8 GB
Er testet nicht nur Epic wie der Rest :Up:
g03qYhzifd4

Popeljoe
2024-11-24, 08:52:10
Stalker 4060TI 16GB vs 8 GB
Er testet nicht nur Epic wie der Rest :Up:
https://youtu.be/g03qYhzifd4
:up: das sieht doch schon anders aus. Auch AMD Karten mitgetestet und auch bei den 7600er Karten sieht man den massiven Unterschied zwischen 8 und 16 GB.

Relex
2024-11-24, 09:12:30
Warum ist die 3070 bei High Settings im Soll, während die 4060ti mit 8 GB absäuft?

dildo4u
2024-11-24, 10:20:11
4060 Ti hat die Hälfte der PCIe Bandbreite und das Game lagert mit 8GB aus.

Popeljoe
2024-11-24, 15:12:51
4060 Ti hat die Hälfte der PCIe Bandbreite und das Game lagert mit 8GB aus.
Erinnert an alte Zeiten: TNT2 und TNT2M64.
Halbierte Bandbreite und massive Auswirkungen.

BUG
2024-11-24, 15:48:15
Braucht man nicht ganz soweit zurück, Geforce 6600 256MB (DDR1) vs. Geforce 6600 GT 128MB (GDDR3), ist quasi auch halbierte Bandbreite obwohl beide 128Bit. Aber die Empfehlung war damals recht deutlich die GT Version mit 128MB zu nehmen. :freak:

Beide Karten gab es als AGP & PCIe Version, im Prinzip hatte die AGP Version auch ein halbiertes Interface (Bandbreite) ggü der PCIe Version.

Lehdro
2024-11-24, 18:39:50
Braucht man nicht ganz soweit zurück, Geforce 6600 256MB (DDR1) vs. Geforce 6600 GT 128MB (GDDR3), ist quasi auch halbierte Bandbreite obwohl beide 128Bit. Aber die Empfehlung war damals recht deutlich die GT Version mit 128MB zu nehmen. :freak:

Wichtige Anmerkung: Sowohl 6600 als auch 6600GT gab es mit 128 MiB oder 256 MiB. Zum Launch gab es aber fast nur 128 MiB Versionen.

Popeljoe
2024-11-24, 19:22:55
Braucht man nicht ganz soweit zurück, Geforce 6600 256MB (DDR1) vs. Geforce 6600 GT 128MB (GDDR3), ist quasi auch halbierte Bandbreite obwohl beide 128Bit. Aber die Empfehlung war damals recht deutlich die GT Version mit 128MB zu nehmen. :freak:

Beide Karten gab es als AGP & PCIe Version, im Prinzip hatte die AGP Version auch ein halbiertes Interface (Bandbreite) ggü der PCIe Version.
Danke nochmals für den Hinweis auf die Bandbreite. Ich hatte das echt nicht mehr so auf dem Schirm. Naja, wenn man sich damit jahrelang nicht beschäftigt...
Diese Tricksereien zur Desinformation der Kunden ziehen sich ziemlich durch. Und nicht nur bei NVidia.
Das war damals ein Grund sich hier zu informieren und ist es auch heute noch. :up:

Sweepi
2024-11-25, 10:17:35
Bei der 6600 gings um die Bandbreite zwischen GPU und VRAM.

4060 Ti hat die Hälfte der PCIe Bandbreite und das Game lagert mit 8GB aus.

PCIe Bandbreite hingegen ist die Bandbreite zwischen GPU und CPU/RAM.

dildo4u
2024-12-06, 02:03:35
Indiana Jones zerlegt die 3080 mit maximalen Texturen.


https://www.computerbase.de/artikel/gaming/indiana-jones-und-der-grosse-kreis-benchmark-test.90500/seite-2#abschnitt_benchmarks_in_full_hd_wqhd_uwqhd_und_ultra_hd

Raff
2024-12-06, 09:32:16
Es zerlegt eigentlich alles unterhalb von 12 GiByte. ;)

MfG
Raff

dildo4u
2024-12-06, 09:36:06
Ja bin extrem gespannt ob Intel den B580 Treiber in Form hat für das Game.

Relex
2024-12-06, 09:48:27
Laut CB ist es nur eine festgelegte und fest reservierte Texturpool größe. Das kannste sicher per config variable auch auf 100GB aufblasen und dann zerlegt es die nächsten 10 Jahre alles was es gibt.
Langweilig. :tongue:

Bei harten Texturpool größen ist eigentlich nur interessant, ab welcher Poolgröße die Texturen schlechter werden. Nur so kann man den tatsächlichen Bedarf ermitteln. Und selbst das wird stark auflösungsabhängig sein bzw. davon abhängig wie häufig die Mip Stufe 0 auf dem Schirm zu sehen ist. Was bei hohen Auflösungen häufiger der Fall ist, als bei niedrigen.



Bei den letzten Wolfensteins und Dooms musste man die Texturpool Stufe schon sehr weit runterstellen (in 1440p), bis dann endlich mal Texturen tatsächlich an Qualität verlieren.
Kann hier natürlich anders sein, muss aber nicht.

dildo4u
2024-12-06, 10:27:23
Wird halt interessant was passiert wenn PT dazu kommt wäre interessant wenn man auf 4070 Performance DLSS nutzen muss damit die 12 GB reichen.

Raff
2024-12-06, 10:50:54
Meine Prognose: Alles unterhalb von 12 GiB wird komplett wegsterben. Für PT wird man sicher Frame Gen brauchen, was zusätzlichen Speicher belegt -> 16 GiB als effektives Minimum.

MfG
Raff

The_Invisible
2024-12-06, 10:53:11
Bei den letzten Wolfensteins und Dooms musste man die Texturpool Stufe schon sehr weit runterstellen (in 1440p), bis dann endlich mal Texturen tatsächlich an Qualität verlieren.
Kann hier natürlich anders sein, muss aber nicht.

Stimmt, das hatte eigentlich keine Auswirkungen, mit PT wirds aber interessant, vor allem mit ID Engine.

Troyan
2024-12-06, 10:54:39
Series X rennt in 1800p mit seinen 10GB VRAM. Da müssen die Texturen ja grottig aussehen, wenn 10GB angeblich nicht reichen würden...

Relex
2024-12-06, 11:28:47
Stimmt, das hatte eigentlich keine Auswirkungen, mit PT wirds aber interessant, vor allem mit ID Engine.

In Cyberpunk braucht pathtracing nur ca 500 MB mehr Speicher, als normales RT.

Gibt also wenig Grund, davon auszugehen, dass der Bedarf krass ansteigt. Kann sein, muss aber nicht.
Da für das normale RT bereits GI und Schatten genutzt werden und die BVH dafür entsprechend vorhanden sein muss, wüsste ich nicht, warum die BVH mit PT viel größer sein sollte. Und das ist meistens das was bei Hardware RT/PT viel Speicher frisst. Aber das sollte bereits jetzt schon ohne PT eingepreist sein.
Wenn sie das ordentlich gemacht haben dürfte der Bedarf kaum steigen.


Ansonsten müsste dann eben jemand der PT testet sich auch mit den Textur Pool Größen auseinandergesetzt haben.

Macht halt keinen Sinn, wenn man ne 8 oder 10 GB Karte testet und der Texturpool alleine schon 8 GB oder so belegt und dann sagt "höhö, die Karte kann ja gar nix, nicht spielbar!".

Man muss sich damit auseinander setzen, alles andere ist sinnfrei.


Bisher war die Engine bzgl. VRAM eigentlich sogar sehr effizient. Wolfenstein 2 und Doom Eternal lief selbst auf meiner GTX980 noch in 1080p mit max settings und angepassten Texturpool. Die Texturen waren knack scharf. Und wie gesagt, selbst mit der 4080 musste ich die Texturen schon extrem niedrig stellen, bevor man einbußen sehen kann. Ich weiß nur nicht mehr, wie niedrig genau.
Hängt halt auch von der Auflösung ab.


Aber zumindest die Screenshots von CB zum Doom Eternal Test sind ganz aufschlussreich:
https://www.computerbase.de/2020-03/doom-eternal-benchmark-test/#abschnitt_die_presets_machen_keinen_grossen_unterschied

Da werden zwar die kompletten presets (also auch alle anderen Grafikdetails) runtergeschraubt, aber offensichtlich schlechtere Texturen gibt es nur mit dem Low setting. Bei allem darüber sind erstmal keine offensichtlichen Texturänderungen erkennbar bzw. wenn dann vermutlich der reduzierten Geometrie, AF und Lighting geschuldet.
Und auch da muss man bedenken, dass die Screenshots in 4K entstanden sind. Mit 1080p oder 1440p müssen weniger Texturen in maximaler Qualität im Pool platz finden, da das LoD bzw. Mip Level meist anders ist und früher auf eine niedriger Aufgelöste Variante umgeschaltet wird.

DrFreaK666
2024-12-06, 11:31:42
Es zerlegt eigentlich alles unterhalb von 12 GiByte. ;)

MfG
Raff

Läuft eigentlich ordentlich auf Series S und dort sind die HighRes Texturen sogar optional installierbar. Da wurde dann wohl woanders gespart

dildo4u
2024-12-06, 11:35:19
Hier erklärt er die Pool Size Setting in Doom frage mich warum sie alles über Low überhaupt haben wenn es im Gameplay nicht sichtbar ist.


yZ5ZyVYlq5A

Relex
2024-12-06, 12:04:54
Das Segement über VRAM/Texture pool startet ab 16:00 Minuten.

Troyan
2024-12-06, 13:05:47
Von "Low" zu "Supreme" sind es exakt 3GB mehr VRAM-Cache. Ist auch statisch und passt sich null der Auflösung an:
1080p: 7,3Gb -> 10,3GB
2160p: 8.9GB -> 12GB

Ist also logisch, dass 10GB selbst in 1080p nicht ausreichen, weil man sinnbefreit den selben VRAM-Bereich reserviert wie in 4K, trotzdem nur 1/4 der Pixel berechnet werden.

Raff
2024-12-06, 13:31:23
Wäre es völlig sinnlos, gäbe es diese Option nicht - sollte klar sein (Stichwort: Pop-in).
Völlig sinnlos - aus Kundensicht - ist hingegen, 10 Jahre lang die gleiche Kapazität zu verlöten.

MfG
Raff

dildo4u
2024-12-06, 14:08:45
Vielleicht war das Setting Sinnvoll für HDD und Heute sind die Platten schnell genug das es nicht auffällt.
Die Engine kann man ja nicht wirklich mit was anderem vergleichen was aktuell eingesetzt wird.

Troyan
2024-12-06, 14:10:53
Dann such die Unterschiede: https://imgsli.com/MzI0NTY4

3GB weniger VRAM, null Unterschied. Das Spiel bietet nichtmal eine Texturauswahl an.

Dampf
2024-12-06, 14:36:30
Mal sehen, wie das mit der Texture Pool Option hier wird. Wenns wieder keinen bis kaum einen Unterschied macht, dann verstehe ich nicht warum man diese Option überhaupt exposed.

Es sollte automatisch eingestellt werden, je nach VRAM.

Troyan
2024-12-06, 14:58:48
In der config kann man den "poolsize" soweit erhöhen, dass am Ende insgesamt 16GB genutzt werden. Unterschiede gibt es null zu Low.

Raff
2024-12-06, 15:54:49
Es sollte automatisch eingestellt werden, je nach VRAM.

Das machen viele Spiele falsch - und dann kriegt man Brei zu Gesicht, damit es trotz drastisch überfahrenem VRAM nicht ruckelt.

MfG
Raff

Ex3cut3r
2024-12-06, 16:56:26
Für was braucht man nochmal die UE5? Die Engine vom Indina Jones (id-Tech) ist ja mal grafisch locker gleichwertig, bei höheren FPS. Wasn ein Witz diese Gott verdammte UE doch ist.

aufkrawall
2024-12-06, 17:08:50
Die Gesichtsanimationen (und andere) wirken zwar nur ca. zehn Jahre hinter Hellblade 2, aber gut. :freak:

Ex3cut3r
2024-12-06, 17:14:32
In Hellblade 2 ist halt auch meistens nicht so viel los, außer das Senuas Face in einer Nahaufnahme gezeigt wird und der Hintergrund schwarz/dunkel ist.

aufkrawall
2024-12-06, 17:17:05
Was hat das mit schlechteren Tools für Artists zu tun? In dem Spiel wirkt alles, was sich bewegt, komplett hölzern. Selbst in altem Kram wie Kena sah das besser aus.

Ex3cut3r
2024-12-06, 17:23:14
Das du so ein ziemlicher UE5 "Fan" bist, ist ja ausdrücklich bekannt, so oft wie du hier damit hausieren gehst. Nichts für ungut.

Die Engine taugt nicht viel. Grafik allein, machen keine gute Engine. Das Major Problem der UE5 ist immer noch die viel zu niedrige Performance in 95% der Games, Stuttering, schwache CPU Unterstützung/Auslastung. Games halten zu 90% nicht das ein, was die glorreichen Tech Demos alles darstellen.....Von daher, fake am Kunden.

aufkrawall
2024-12-06, 17:27:09
Wahnsinnig geistreicher Beitrag.
Hoffentlich läuft Indy dann wenigstens mit der kleinsten Pool-Einstellung überhaupt auf 8GB-Karten. ;D

Lurtz
2024-12-06, 17:34:34
Das du so ein ziemlicher UE5 "Fan" bist, ist ja ausdrücklich bekannt, so oft wie du hier damit hausieren gehst. Nichts für ungut.

Die Engine taugt nicht viel. Grafik allein, machen keine gute Engine. Das Major Problem der UE5 ist immer noch die viel zu niedrige Performance in 95% der Games, Stuttering, schwache CPU Unterstützung/Auslastung. Games halten zu 90% nicht das ein, was die glorreichen Tech Demos alles darstellen.....Von daher, fake am Kunden.
Der UE "Antifan" ist natürlich ein ganz unbekanntes Phänomen im Internet :ugly:

Also ich würde ja Spiele lieber mit 80 fps und zeitgemäßem LoD als mit 120 fps und Aufplopp-LoD spielen, aber was weiß ich schon.

Ex3cut3r
2024-12-06, 19:51:36
Also ich würde ja Spiele lieber mit 80 fps und zeitgemäßem LoD als mit 120 fps und Aufplopp-LoD spielen, aber was weiß ich schon.

Jedes UE5 Spiel hatte bisher sichtbares LOD bzw. aufploppen. Wie gesagt, Sie sind sehr gut im Marketing bzw. beim Konzipieren von Fake Tech Demos. Aber sonst hält die Engine mal wieder nicht das ein, was sie Vorfeld alles versprochen hat. Bei der UE4 und UE3 wars das selbe.

aufkrawall
2024-12-06, 20:10:23
An den größeren Pflanzen in Talos 2 ploppt mit maximalen Details gar nichts auf, du erzählst Blödsinn.

Lurtz
2024-12-07, 14:43:18
Jedes UE5 Spiel hatte bisher sichtbares LOD bzw. aufploppen. Wie gesagt, Sie sind sehr gut im Marketing bzw. beim Konzipieren von Fake Tech Demos. Aber sonst hält die Engine mal wieder nicht das ein, was sie Vorfeld alles versprochen hat. Bei der UE4 und UE3 wars das selbe.
Ich habe noch nie so ein gutes LoD wie in Hellblade oder Talos 2 gesehen.

dildo4u
2024-12-07, 15:33:37
Betrachtung der Textur Cache Settings in Indiana Jones.(9:30)

xbvxohT032E

https://www.eurogamer.net/digitalfoundry-2024-indiana-jones-and-the-great-circle-pc-impressive-performance-but-care-is-needed-with-8gb-graphics-cards

Troyan
2024-12-07, 15:39:30
Die Texturen sind so schlecht, dass es eigentlich keinen wirklichen sichtbaren Unterschied ab "High" gibt. Gleichzeitig bringen die höheren Settings auch null in 1080p, weil Auflösung die bessere Texturauflösung nicht rekonstruieren kann.

Sieht mir aus wie eine sinnlose Einstellung. Sollten eher Einstellungen für Textur-Details geben, statt den VRAM Cache einzustellen.

aufkrawall
2024-12-07, 16:03:34
Das Gesicht aus dem Thumbnail kann man schon nicht mehr uncanny nennen, so seltsam wie das aussieht. X-(

Relex
2024-12-07, 16:06:27
@Troyan
Ne, die harten Textursettings sind sinnfrei für alle GPUs auf denen Speicher gespart werden muss, weil du dann keine Chance hast, jemals gute Texturen zu sehen, weil du die maximale Qualität hart limitierst, selbst wenn nur ein Objekt in der Szene wäre. Das ist quatsch und ein völlig veraltetes Konzept.

Das über nen Texture Pool semi automatisch zu regeln und es dadurch möglich zu machen, auch bei geringer pool größe die bestmöglichen Texturen zu gesicht zu bekommen, wenn das gerade möglich ist, ist ein massiver Qualitätsgewinn für low end GPUs.

Außerdem hat man über die Pool size ja sowieso die Kontrolle, wenn man maximale Qualität will, da sich das Game den Speicher ja dann ohne Gnade reserviert und nicht mehr dynamisch reduziert.

Ich finde das ist ein guter Mittelweg aus klassischen harten Texturstufen auf der einen Seite vs. ein komplett dynamisches System in Star Wars Outlaws, wo du keine Kontrolle darüber hast, wie groß der Texturpool ist.

Ich denke ideal wäre, wenn man zusätzlich zu den aktuellen Einstellungen noch ein dynamisches setting hätte, das eben wie in Outlaws funktioniert. Denn so wie es jetzt ist, hat halt keiner nen Plan, was er auf ner 10 oder 12 GB, geschweige denn auf ner 8 GB GPU überhaupt einstellen soll, wenn er sich nicht solche Videos ansieht. Zumindest ne Empfehlung wäre hilfreich oder eben ein VRAM Meter welches das im Menü visualisiert.

aufkrawall
2024-12-07, 16:12:14
Flimmerschatten, extremes Pop-In, Texturstreaming zu schlecht für 8GB-Karten. Welch technisches Meisterwerk.

sChRaNzA
2024-12-07, 18:34:03
Betrachtung der Textur Cache Settings in Indiana Jones.(9:30)

https://youtu.be/xbvxohT032E

https://www.eurogamer.net/digitalfoundry-2024-indiana-jones-and-the-great-circle-pc-impressive-performance-but-care-is-needed-with-8gb-graphics-cards

Hab ich das richtig verstanden, dass die Unterschiede zwischen 10Gigabyte-Grafikkarten und (16?)20+Gigabyte-Grafikkarten (und ihren dementsprechenden Einstellungen) quasi nicht bis kaum vorhanden sind und man die teils nur mit der Lupe im Standbild sehen kann?

DrFreaK666
2024-12-11, 00:55:23
https://i.postimg.cc/QxnNg8Wv/grafik.png (https://postimg.cc/9rZjCjbB)

Hat keine drei Jahre mehr gedauert

SamLombardo
2024-12-11, 12:21:37
Flimmerschatten, extremes Pop-In, Texturstreaming zu schlecht für 8GB-Karten. Welch technisches Meisterwerk.
Also Flimmerschatten sind mir mit Path Tracing nicht untergekommen. Auch extremes Pop In habe ich nicht bemerkt. hab aber auch nicht speziell danach gesucht, es war mir aber keinesfalls störend aufgefallen. Hm.

Btw @topic, Das Indy Spiel gönnt sich zwischen 17 und 18gb Vram. Dabei macht es keinen Unterschied, ob ich im Dschungel oder im Unigebäude bin (weiter bin ich noch nicht:wink:).

The_Invisible
2024-12-11, 12:46:38
Im Vatikan gehts auf die 20GB zu, schwankt aber auch kaum im Level.

Troyan
2024-12-11, 15:13:03
@Troyan
Ne, die harten Textursettings sind sinnfrei für alle GPUs auf denen Speicher gespart werden muss, weil du dann keine Chance hast, jemals gute Texturen zu sehen, weil du die maximale Qualität hart limitierst, selbst wenn nur ein Objekt in der Szene wäre. Das ist quatsch und ein völlig veraltetes Konzept.


Der Textur-Cache in dem Spiel reserviert in jeder Auflösung den selben VRAM-Bereich. Das heißt also, dass du in 1080p zu viel oder in 2160p zu wenig Cache hast.

Die Texturqualität kann überhaupt nicht eingestellt werden. In 1080p also die selbe Qualität zu liefern wie in 2160p ist total sinnlos, da die Auflösung mit 1/4 deutlich geringer ist.

Exxtreme
2024-12-11, 15:23:17
Man muss so oder so alle verfügbaren Mipmap Stufen einer Texur in den VRAM laden wenn man ständige Nachladeruckler vermeiden will, egal wie die Bildschirmauflösung ist. Deshalb spart das Senken der Bildschirmauflösung auch nicht so viel VRAM wie man meinen könnte. Von UHD auf FHD geht es nicht um 75% runter. Und deshalb ist es auch relativ sinnfrei die Texturcache-Größe anhand der Auflösung festzulegen.

Edit: Um Speichplatz zu sparen würden eventuell neue Texturkompressionsalgorithmen helfen. S3TC ist jetzt bald 28 Jahre alt. Da wurde nichts gemacht in der Hinsicht.

aufkrawall
2024-12-11, 15:37:43
Hm.
Zum Zeitpunkt meines Posts gab es noch gar kein NV-RT in dem Spiel, logischerweise bezog es sich auf die spieleigenen Schatten. Und die sind nun wirklich der größte Murks.
Die Nvidia-Schatten sind super. Bis auf den kleinen Schönheitsfehler, dass es in manchen Innenräumen recht unschönes Pop-In geben kann.

Aber wirklich geil, dass man sich das auf 12GB-Karten wohl vorerst komplett abschminken kann, und es selbst auf 16GB-Karten sich nicht unbedingt antun will.
Wäre mal interessant, wie viel VRAM der PT-Branch der UE5 von Nvidia benötigt. Ggf. ja einen Bruchteil dessen. :freak:

SamLombardo
2024-12-11, 15:56:13
Zum Zeitpunkt meines Posts gab es noch gar kein NV-RT in dem Spiel, logischerweise bezog es sich auf die spieleigenen Schatten. Und die sind nun wirklich der größte Murks.
Ah ok, dann sorry. Stimmt ja, das PT kam nachträglich. Hatte ich nicht bedacht.

DrFreaK666
2024-12-11, 17:48:47
...
Edit: Um Speichplatz zu sparen würden eventuell neue Texturkompressionsalgorithmen helfen. S3TC ist jetzt bald 28 Jahre alt. Da wurde nichts gemacht in der Hinsicht.

Ich fürchte du bist nicht auf dem neuesten Stand

https://learn.microsoft.com/en-us/windows/win32/direct3d11/bc7-format

https://www.khronos.org/ktx/

https://diglib.eg.org/items/faf24457-007c-472f-8bc2-0c0ab525bb15

][immy
2024-12-11, 22:49:28
Ich fürchte du bist nicht auf dem neuesten Stand

https://learn.microsoft.com/en-us/windows/win32/direct3d11/bc7-format

https://www.khronos.org/ktx/

https://diglib.eg.org/items/faf24457-007c-472f-8bc2-0c0ab525bb15

Verwechsel jetzt nicht Algorithmen die einfach Speicherplatz auf dem Langzeitspeicher sparen mit s3tc, wo die heutigen Algorithmen quasi noch drauf aufbauen.
Das meiste was in den letzten Jahren kam, muss extra entpackt werden und dient nur zur Reduzierung der Spielgröße um die Daten schnell von der HDD/SSD lesen zu können. Soweit ich das verstanden habe geht es bei den an s3tc angelehnten Formaten halt darum, sich auch das entpacken sparen zu können. Hat leider auch zwangsweise Qualitätsverlust zur Folge.

Wie Indy aber gut demonstriert, SSD streaming steckt noch absolut in dem Kinderschuhen.

Troyan
2024-12-17, 16:48:59
Man muss so oder so alle verfügbaren Mipmap Stufen einer Texur in den VRAM laden wenn man ständige Nachladeruckler vermeiden will, egal wie die Bildschirmauflösung ist. Deshalb spart das Senken der Bildschirmauflösung auch nicht so viel VRAM wie man meinen könnte. Von UHD auf FHD geht es nicht um 75% runter. Und deshalb ist es auch relativ sinnfrei die Texturcache-Größe anhand der Auflösung festzulegen.

Warum sollte man die selben Texturen unabhängig der Auflösung in den Speicher laden? Du kannst die Details ab einer bestimmten Entfernung zur Kamera sowieso nicht mehr rekonstruieren. So können eben in 4K niedrig aufgelöste Texturen deutlich schärfer und detaillierter sein als hochaufgelöste in 1080p. Und dabei wird weniger Speicherplatz in 4K mit den niedrig aufgelösten benötigt.

Computerbase hat deren Parcour geupdatet. Und das einzige Spiel im Jahr 2024, was wirklich mit 10GB z.B. nicht auskommt, ist Indiana Jones.

aufkrawall
2024-12-17, 18:26:51
Ein Parkour nur bestehend aus Sony-Schrott würde ein "leicht" anderes Bild zeigen.

madzapp
2024-12-17, 18:58:59
Es gibt doch auch Spiele die Texturen bei zu wenig Speicher einfach reduzieren. Steht dann Ultra in den Setting zeigt aber nur High oder reduzieren die Reichweite der hohen Darstellung.

aufkrawall
2024-12-17, 20:49:57
Wukong Benchmark 4k DLSS Performance, RT max, FG, rBAR: <10GB am Ende des Runs:
https://s20.directupload.net/images/241217/temp/boxlpmh3.jpg (https://www.directupload.eu/file/d/8771/boxlpmh3_jpg.htm)

Stellt sich die Frage, wieso das Nvidia-RT in vielen anderen Engines absurde VRAM-Belegung verursacht. Marode Basis?

dildo4u
2024-12-18, 07:55:08
Das Game hat halt kleine Kontrollierte Level Stalker 2 will deutlich mehr da Open World.
Man kann also nicht sagen UE5 ist immer Sparsam.

oTVUWtQlE8E

Troyan
2024-12-18, 11:43:32
Ein Parkour nur bestehend aus Sony-Schrott würde ein "leicht" anderes Bild zeigen.

Die haben alle vier Sony-Spiele im Parkour. :biggrin:

Wukong Benchmark 4k DLSS Performance, RT max, FG, rBAR: <10GB am Ende des Runs:
https://s20.directupload.net/images/241217/temp/boxlpmh3.jpg (https://www.directupload.eu/file/d/8771/boxlpmh3_jpg.htm)

Stellt sich die Frage, wieso das Nvidia-RT in vielen anderen Engines absurde VRAM-Belegung verursacht. Marode Basis?

Weil beim Rasterizing die (komplette) Geometrie zusätzlich im BVH abgelegt werden muss. Bei UE5 wird man da wohl eher auf die reduzierte Grundform zurückgreifen, so wie es auch Lumen macht.

Dank UE5 führt es auch dazu, dass die Anforderung an den VRAM durch Nanite gesunken ist. Trotz sieben neun UE 5 Spielen, ist die 3080 nun 8% schneller als die 6800XT. :eek:

dildo4u
2024-12-18, 11:52:54
Die 3080 stirbt gerade im neuen Raytracing Parkour von CB
Meine neue 4070S ist 50% schneller :lol:

https://i.ibb.co/Xp9TYTL/Screenshot-2024-12-18-11-50-17-590-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/3WwHRHd)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/#abschnitt_21_neue_spiele_im_parcours

Mordekai2009
2024-12-18, 11:56:00
Interessant zu sehen: Ich sehe keine RTX 4060 Ti 16GB. :D

Btw: Endlich mit Videospeicherangaben!

Troyan
2024-12-18, 12:03:55
Die 3080 stirbt gerade im neuen Raytracing Parkour von CB
Meine neue 4070S ist 50% schneller :lol:

https://i.ibb.co/Xp9TYTL/Screenshot-2024-12-18-11-50-17-590-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/3WwHRHd)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/#abschnitt_21_neue_spiele_im_parcours

Ja, Meister. Wenn 1 von 6 Spielen Indiana Jones ist. Nimmt man das weg, liegt man bei 23%+.

dildo4u
2024-12-18, 12:07:18
Doom Dark Ages nutzt die selbe Engine kommt also 2025 dazu.

Troyan
2024-12-18, 12:11:17
Und UE5 Spiele werden mehr und mehr Hardware-Lumen verwenden. Dann gleicht sich das alles wieder aus.

Schlussendlich sind 10GB seit vier Jahren ausreichend und die Karten haben selbst seit 2 Jahren ihren Wert gehalten. Der Parkour zeigt ja, dass UE5 so dominant ist.

Relex
2024-12-18, 12:16:41
Na ja, dieser Ansatz bei Indiana Jones, von wegen man lässt den Spieler über völlig nichtssagende Presets eine undefinierte Poolgröße für die Texturen reservieren (welche dann auch noch hart reserviert ist und für unspielbarkeit sorgt, sobald das VRAM budget überschritten ist), und welche nur einen indirekten Einfluss auf die Texturqualität hat, ist maximal bescheuert.


Es gibt in den Foren zig leute, die sich beschweren, weil das Spiel nur noch mit 3 FPS läuft, wenn sie FullRT anschalten und checken nicht, dass sie wegen dem Texture pool den VRAM vollballern.

Sowas ist eigentlich völlig unzumutbar für die breite Masse an PC Spielern.
Ein im Grafikmenü eingeblendeter Balken, der die VRAM allokation anzeigt oder ein Warnhinweis, wenn man das VRAM Budget überschreitet und welche Settings dafür verantwortlich sind, würde Wunder bewirken.

Noch besser wäre es, die Texturqualität und Poolgröße vollständig dynamisch regeln zu lassen und evtl. trotzdem nen Warnhinweis anzuzeigen, sobald die Texturen deutlicher reduziert werden müssen.
Über ein "Expertenmmenü" könnte man dann ja trotzdem die Poolgrößen anbieten, so dass man auf Wunsch die volle Kontrolle hat.

The_Invisible
2024-12-18, 13:00:03
Indiana Jones ging gestern in Ägypten bis knapp 21gb mit 4k+dlss-q, mit dlaa wird's wohl schon knapp, zum glück hat die 5090 32gb :freak:

dildo4u
2024-12-18, 15:51:13
Mal sehen was damit gemeint ist.

FF 7 Rebirth.

"For high-spec PCs, we have prepared even richer 3D models and texture resolutions that cannot be processed on the PS5."

https://store.epicgames.com/en-US/news/final-fantasy-vii-rebirth-is-officially-coming-to-pc-and-the-epic-games-store?lang=en-US

Raff
2024-12-18, 16:15:24
Texturkompression weggelassen -> RTX-5090-Schaukäse. :biggrin:

MfG
Raff

aufkrawall
2024-12-18, 18:27:37
Das Game hat halt kleine Kontrollierte Level Stalker 2 will deutlich mehr da Open World.

Nö, das Spiel hatte vor den Patches offenbar VRAM Leaks, u.a. bei Änderungen an den Grafikoptionen.
Ist außerdem auch keine Nanite-Vegetation, also zig Mip-Stufen für alle Pflanzen im VRAM. Und die Schatten sollen angeblich auch VSM & Legacy Shadow Maps gemischt sein. Trotzdem dürfte es auf 10GB-Karten in 4k mit DLSS laufen.

Die haben alle vier Sony-Spiele im Parkour. :biggrin:

Aber nicht Ratchet & Clank oder Spiderman.
Gut, man kann konstatieren, dass die neueren Titeln wieder weniger VRAM brauchen. Haben aber auch kein RT.

Troyan
2024-12-18, 19:08:06
Computerbase hat nur 2024 Spiele verwendet.

Raff
2024-12-18, 21:46:06
Das Artikel-Update ist noch nicht public, aber das sind die Bilder, welche um die Welt gehen sollten. VRAM als Eintrittskarte – alles, was "NA" ist, darf kein Path Tracing nutzen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90607&stc=1&d=1734554754

MfG
Raff

][immy
2024-12-18, 22:14:17
Die 3080 stirbt gerade im neuen Raytracing Parkour von CB
Meine neue 4070S ist 50% schneller :lol:

https://i.ibb.co/Xp9TYTL/Screenshot-2024-12-18-11-50-17-590-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/3WwHRHd)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/#abschnitt_21_neue_spiele_im_parcours

Das ist schön merkwürdig wie gut die 6800xt da mithalten kann.

aufkrawall
2024-12-18, 22:20:11
Da fehlt halt auch einfach mal NV-RT in Wukong, Indy und Outlaws. Ob mans braucht, ist eine andere Frage.
Ansonsten ist "Heavy-RT" halt erstmal ziemlich gestorben.

vinacis_vivids
2024-12-18, 22:23:34
[immy;13668431']Das ist schön merkwürdig wie gut die 6800xt da mithalten kann.

Ampere ist einfach mies gereift:
RDNA2 ist halt die durchgehend überlegene uArch.

https://i.ibb.co/K2HnNHB/RDT-20241123-194540727175800850748143.png

Raff
2024-12-18, 22:40:12
Du hast dein Aktienpaket ja immer noch. ;)

Ampere hält sich super - zumindest die Modelle mit 12 GiByte und mehr. Vor allem die (fälschlicherweise (https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/)) belächelte RTX 3060 12GB erlebt gerade so etwas wie einen zweiten Frühling (https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/3/), während die ganzen 8-GiB-Karten drumherum wegsterben wie die Fliegen.

"Sie sehen das richtig: Im Gesamtindex liegt die Geforce RTX 3060 12GB vor ihrer Nachfolgerin. Der Grund ist altbekannt und lässt sich nicht mehr kleinreden: Das neue Modell leidet unter massivem Speichermangel, welcher sich auch (besonders deutlich) beim Vergleich der Radeon RX 7600 mit ihrer XT-Schwester zeigt."

MfG
Raff

dildo4u
2024-12-19, 05:11:54
Macht Sinn 3060 hat RT Performance über einer PS5 und genug Vram.
Da kann es keine negativen Überraschungen geben.
Die 7600XT ist einfach maßlos überteuert Vor allem das es immer mehr Games mit Zwangs RT gibt.(Avatar, Outlaws, Indiana Jones etc)

https://i.ibb.co/0QRgmX6/Screenshot-2024-12-19-052319.png (https://ibb.co/CW3kmtY)

https://www.pcgameshardware.de/Arc-B580-Grafikkarte-280998/Tests/Benchmark-Review-Preis-vs-4070-A770-Limited-Edition-kaufen-1461374/3/

Mal sehen ob Nvidia sie weiter Produziert sollte sich mit der B570 rumschlagen.

Raff
2024-12-19, 10:08:51
Eine "RTX 5060 16GB" für 350 Euro wäre die viel bessere SKU (nachdem es eine entsprechende RTX 4060 16GB nicht gibt). Schauen wir mal, ob sie noch zur Vernunft kommen.

____

Hier übrigens die volle Packung Indy, RT und PT mit zahlreichen Grafikkarten zwischen 6 und 24 GiB: Indiana Jones und der Große Kreis: Pathtracing-Benchmarks - ohne 16 GiByte VRAM hagelt's Abstürze [Update] (https://www.pcgameshardware.de/Indiana-Jones-und-der-Grosse-Kreis-Spiel-74506/Specials/Pathtracing-vs-Raytracing-Benchmarks-Test-Release-1461366/)

MfG
Raff

gnomi
2024-12-19, 11:40:44
Nach vier Jahren wird der VRAM bisschen knapp hier und da wegen neuer Konsolen und endlich ein paar moderner Games.
Überfällig, denn schon die 1070 Mitte 2016! hatte 8GB VRAM.
Ich denke trotzdem, dass ich Indi auf meinen letzten 2 GPU's (2080 und 3080TI) Ebenso gut spielen könnte wie auf Series X und unwesentlich schlechter als mit der aktuellen 4080S.
Also das sind alles total technisch spannende Diskussionen, aber brutal an dem vorbei, was außerhalb vom 3D Center so läuft.
Bei Neukauf 12 noch okay und 16 und mehr besser bis 2026/2027.
Dann mal sehen, was die nächste Generation an Konsolen bringt. :)

Joe123
2024-12-19, 11:49:28
Ich denke trotzdem, dass ich Indi auf meinen letzten 2 GPU's (2080 und 3080TI) Ebenso gut spielen könnte wie auf Series X und unwesentlich schlechter als mit der aktuellen 4080S.
Also das sind alles total technisch spannende Diskussionen, aber brutal an dem vorbei, was außerhalb vom 3D Center so läuft.
Bei Neukauf 12 noch okay und 16 und mehr besser bis 2026/2027.
Dann mal sehen, was die nächste Generation an Konsolen bringt. :)

So ist es,bei mir werkelt noch eine 2070 S im Rechner.Klar muss man in der Konfig rumschrauben damit es läuft.2560x1440 geht ganz gut bei mir.

Raff
2024-12-19, 11:56:51
Es geht bei der Erzürnung rund um "Speicherkrüppel" natürlich um Neukauf. Das ist eine reine Margenoptimierung - bringt nur den Aktionären etwas, nicht den Kunden. Und man kann niemandem guten Gewissens dazu raten, eine 8-GiByte-Grafikkarte zu kaufen, wenn die Dinger in mehr und mehr Spielen schon in Full HD auf dem Zahnfleisch gehen. Wer seit Jahren eine Grafikkarte mit dieser Speichermenge hat, der weiß, wie er damit umgeht. Aber wer rüstet für viel Geld auf, um dann direkt wieder gezielt Schwachstellen zu umschiffen?

MfG
Raff

Geldmann3
2024-12-19, 12:23:59
Margenoptimierung ist hier in meinen Augen noch gelinde ausgedrückt.

Die wollen einfach, dass die Kunden zweimal kaufen. Offensichtlich geplante Obsoleszenz.

Mir kam da gestern Abend eine Idee, wie AMD sich eventuell aus dem Loch graben könnte. Und zwar, indem sie einfach immer den doppelten VRam bieten für minimal weniger Geld. Denn DANN springen auch die AI Jünger langsam auf und ignorieren auf Dauer sogar das Ökosystem von Nvidia. Und ehrlich, viel kostet so ein bissl Vram nicht. Genau dieses Ökosystem schließt AMD in meinen Augen gerade aus.

Wenn ich bei vielen Gitlab/AI Projekten schon lese:
*Nvidia only
*Nvidia only
*Nvidia only

So wird das nichts... Ich habe gar keine Wahl, außer mir ne Nvidia Karte zu kaufen, seit einigen Jahren. Die Konkurrenz muss deutlich mehr Vram bieten für weniger Geld. Das scheint mir auch eine Low-Hanging fruit.

The_Invisible
2024-12-19, 12:29:14
Das mit "mehr VRAM" bringt doch nichts, das hat AMD schon seit 4 Jahren mit der 6800 mit 16gb zum kleinen Preis. Die Mehrheit ist VRAM egal, einfach mal nach Asien sehen, dort verkauft sich die 4060 wie blöde.

@Indy
Gestern mal mit DLAA versucht, komme dann auf knapp 22,5GB. Allerdings würde ich das Spiel nicht als Faktor sehen da der Texturpool einfach statisch ist. Die UE5 würde da gerade mal die Hälfte verlangen.

Geldmann3
2024-12-19, 12:55:25
Das mit "mehr VRAM" bringt doch nichts, das hat AMD schon seit 4 Jahren mit der 6800 mit 16gb zum kleinen Preis. Die Mehrheit ist VRAM egal, einfach mal nach Asien sehen, dort verkauft sich die 4060 wie blöde.

@Indy
Gestern mal mit DLAA versucht, komme dann auf knapp 22,5GB. Allerdings würde ich das Spiel nicht als Faktor sehen da der Texturpool einfach statisch ist. Die UE5 würde da gerade mal die Hälfte verlangen.

Wahrscheinlich hast Du Recht. Doch wenigstens im AI Bereich würde es einiges ändern und das könnte ein Anfang sein. AMD ist in meinen Augen in den letzten Jahren hier eher einen Schritt zurück gegangen und hat Nvidias Pfad beschritten. Wahrscheinlich weil sie gesehen haben, dass es ihnen nichts bringt und Nvidia damit durchkommt.

VooDoo7mx
2024-12-21, 19:31:27
Und wie lauft das wenn man bei Indy einfach die Texture Pool Größe reduziert?
Bei Doom Eternal gibt es 0 optischen Unterscheid zwischen "low" und "Ultra Nightmare"
Hab ich eben gerade selber noch einmal ausprobiert.

1ch0
2024-12-21, 21:04:35
Ich muss sagen, dass ich bei Indiana Jones Probleme mit den 16 GB VRAM der 4080 hatte. Es war ein Balancieren zwischen DLSS-Einstellung und Texture Pool. Ich habe es dann mit allem auf Max in 4K mit vollem Raytracing auf Max und DLSS Performance gespielt. Den Texture Pool musste ich dafür auf High runterstellen, um Framedrops auf 5 FPS zu vermeiden. Framegeneration war gar nicht dran zu denken, es gab direkt einen Crash, weil der VRAM dann gar nicht mehr ausreichte.

Die 16 GB bei einer 5080 finde ich daher ziemlich unpassend.

DrFreaK666
2024-12-22, 00:48:26
An den größeren Pflanzen in Talos 2 ploppt mit maximalen Details gar nichts auf, du erzählst Blödsinn.

"Ich habe hier ein cherrypicked Beispiel, das meine These stützt"

Relex
2024-12-22, 00:55:53
Ich muss sagen, dass ich bei Indiana Jones Probleme mit den 16 GB VRAM der 4080 hatte. Es war ein Balancieren zwischen DLSS-Einstellung und Texture Pool. Ich habe es dann mit allem auf Max in 4K mit vollem Raytracing auf Max und DLSS Performance gespielt. Den Texture Pool musste ich dafür auf High runterstellen, um Framedrops auf 5 FPS zu vermeiden. Framegeneration war gar nicht dran zu denken, es gab direkt einen Crash, weil der VRAM dann gar nicht mehr ausreichte.

Die 16 GB bei einer 5080 finde ich daher ziemlich unpassend.


Also ich hatte bisher noch keine Probleme mit Full RT, Texture Pool High und DLSS P + FG in 4K.

Betrifft das nur bestimmte Gebiete? Ich bin noch nicht sehr weit...

aufkrawall
2024-12-22, 07:23:46
Im Dschungel wirst du wohl freiwillig Details runterdrehen, denn da gehts mit 4090 und DLSS P + FG teilweise auf ~70fps runter. Und die Vegetation sieht in der Engine bez. Transparenz etc. trotzdem lachhaft aus...

gnomi
2024-12-22, 09:09:34
Habe von Full RT bislang die Finger gelassen, denn bei mir funktioniert Frame Generation nicht sauber. :( (Gamepass Version, 4080S)
Mit Normal RT plus 4K und DLSS Quality läuft es mit 80-90 fps im Schnitt.
Zwischensequenzen sind 60 fps.
Letztendlich spiele ich mal PC, mal Xbox.
Dort sieht es schon auch solide aus.
Und vor allem läuft es einfach ohne Neustarts und Rumtesten.
Also da hätte ich von nvidia jetzt mehr erwartet.
Muss aber auch sagen, grafisch stört mich generell das auffällige LOD System am meisten. Verstehe nicht, warum es dafür keine Ingame Einstellung gibt.

dildo4u
2024-12-22, 09:15:10
4k Medium PT sprengt 16Gb schätze die Karte wäre schnell genug?

https://youtu.be/gDgt-43z3oo?si=Q5GxQJxN6SYzNm7n&t=328

The_Invisible
2024-12-22, 09:34:26
Ich muss sagen, dass ich bei Indiana Jones Probleme mit den 16 GB VRAM der 4080 hatte. Es war ein Balancieren zwischen DLSS-Einstellung und Texture Pool. Ich habe es dann mit allem auf Max in 4K mit vollem Raytracing auf Max und DLSS Performance gespielt. Den Texture Pool musste ich dafür auf High runterstellen, um Framedrops auf 5 FPS zu vermeiden. Framegeneration war gar nicht dran zu denken, es gab direkt einen Crash, weil der VRAM dann gar nicht mehr ausreichte.

Die 16 GB bei einer 5080 finde ich daher ziemlich unpassend.

Würde ich nicht als Referenz sehen, da kommt in dem lifecycle wahrscheinlich noch ein Doom und Wolfenstein mit der engine raus.

Ue5 wird's sehr viel mehr geben und da reichen 16gb noch sehr lange.

dildo4u
2024-12-22, 09:37:18
Beschweren sich Nvidia User nich ständig das diese Games kein Hardware RT nutzen?
Wäre interessant wie viel sich das auf den Vram Verbrauch auswirkt.
Stalker 2 will z.b relativ viel Vram hat aber noch kein RT.

Relex
2024-12-22, 09:51:20
Im Dschungel wirst du wohl freiwillig Details runterdrehen, denn da gehts mit 4090 und DLSS P + FG teilweise auf ~70fps runter. Und die Vegetation sieht in der Engine bez. Transparenz etc. trotzdem lachhaft aus...


Ist der Dschungel denn später so viel fordernder als im Intro?

Im Intro kam ich kaum unter 70 FPS mit der 4080. Meist eher 80.


Ansonsten bringt Laut Digital Foundry auch das reduzieren der Animationsqualität der Vegetation mit Pathtracing nochmal 10 FPS extra. Hab ich bisher aber noch nicht genutzt.

Ich stecke halt immernoch im Vatikan :D
Ich hab erst auf den zweiten Patch gewartet, letzte Woche hatte ich keine Zeit zu spielen und der Vatikan hat viele Nebenquests und ich bin da auch recht gründlich.
Mal sehen, ob ichs heute da raus schaffe...

Bisher wie gesagt keine Probleme mit 4K, DLSS P, FG, HDR, Full RT, Max Settings außer Texturen auf High. Wobei selbst Ultra schon mehrere Stunden problemlos lief, aber ich habs einfach vorsichtshalber mal auf High gestellt, weil Computerbase das auch für 16 GB empfiehlt. Bisschen Puffer schadet ja nicht.

Aber ich will natürlich nicht ausschließen, dass sich die Situation jederzeit ändern kann.

aufkrawall
2024-12-22, 10:36:59
Stalker 2 will z.b relativ viel Vram
Will es nicht, bleibt die meiste Zeit <10GB in 4k DLSS P/FG/rBAR. Absurdes Traversal Stutter gibts auch auf einer 4090.

Ist der Dschungel denn später so viel fordernder als im Intro?

Vermutlich schon. Kenne das Spiel aber auch nur bruchstückhaft.

Dampf
2024-12-22, 14:04:44
Es geht bei der Erzürnung rund um "Speicherkrüppel" natürlich um Neukauf. Das ist eine reine Margenoptimierung - bringt nur den Aktionären etwas, nicht den Kunden. Und man kann niemandem guten Gewissens dazu raten, eine 8-GiByte-Grafikkarte zu kaufen, wenn die Dinger in mehr und mehr Spielen schon in Full HD auf dem Zahnfleisch gehen. Wer seit Jahren eine Grafikkarte mit dieser Speichermenge hat, der weiß, wie er damit umgeht. Aber wer rüstet für viel Geld auf, um dann direkt wieder gezielt Schwachstellen zu umschiffen?

MfG
Raff

So ist es. Ich komme selbst mit meinen 6 GB noch gut klar, obwohl die Kompromisse immer größer werden. Indy ist jetzt das erste Spiel, was mich performancetechnisch aufgrund der Speichermenge nicht mehr zufrieden stellt.

Bei einem Neukauf sollten es mindestens 16 GB sein. Ich persönlich würde aber nichts unter 24 GB empfehlen, denn wenn die neue Konsolen-Generation mit wahrscheinlich 32 GB unified memory schon 2026 oder 2027 kommt, werden die ganzen 5080 Besitzer in die Röhre schauen, da die höheren Next Gen Settings dann eine deutlich höhere Speichermenge fordern.

Relex
2024-12-22, 14:18:45
Warum sollte den schon 2026 eine neue Generation kommen?

Das ist angesichts der immer weiter steigenden Chipkosten aktuell völlig sinnfrei.

Die PS4 wurde Ende 2013 veröffentlicht und ende 2020 durch die PS5 ersetzt. Also 7 Jahre.
Und das obwohl es in der Zeit große Fortschritte bei der Rechenleistung gab.


Seit 2020 herrscht aber gefühlt Stagnation. Die PS5 Pro musste viel teurer verkauft werden, als die PS5 (anders als bei der PS4 Pro welche die PS4 direkt zum selben preis ersetzte).

Es ist mit weiter steigenden Chipkosten zu rechnen.

Das mindeste wäre also von ebenfalls 7 Jahren auszugehen, also Ende 2027. Aufgrund der aktuellen Lage ist aber 2028 oder 2029 deutlich wahrscheinlicher.


Und Sony hat gesagt, dass sie weiterhin an das Konzept von vollwertigen Konsolengenerationen glauben, was die These nur unterstreicht.



Ändert natürlich nichts daran, dass Nvidia mehr speicher verbauen sollte. Bei Neukauf zu den Preisen muss einfach mehr drin sein (natürlich durch die Bank von low end bis high end).

Man muss aber natürlich auch sehen, dass Nvidias festhalten an der Speicherkonfiguration auch bedeuten wird, dass sich der Markt daran orientieren wird. Spiele die in 4K mit DLSS die 16 GB sprengen werden vermutlich weiterhin die große Ausnahme bleiben. Zumal ja manche Engines längst demonstriert haben, dass es auch auf Softwareseite noch viel Optimierungspotenzial gibt. Ich denke in der Praxis wird das alles wenig Relevanz haben. Anders als 2020 zum Ampere Release ist auch kein Sprung der Anforderungen mehr durch neue Konsolen zu erwarten. Der Markt hat sich aktuell weitestgehend eingependelt.

DrFreaK666
2024-12-22, 15:26:42
In deiner Welt macht nur Sony Konsolen

Relex
2024-12-22, 18:11:56
Laut DF hat Microsoft 2020 genau deswegen zwei Konsolen veröffentlicht.

Ein Mid gen Upgrade, welches zum gleichen Preis eine stärkere Konsole ermöglicht und die standard Konsole günstiger werden lässt, so wie bei der One ist diesmal nicht drin, weil die Chipkosten steigen.

Und genau das ist eingetreten.

Von Microsoft kommt da also nichts, solange sie nicht mehr Leistung zum selben Preis anbieten können. Microsoft und Sony werden wahrscheinlich wieder zeitgleich eine neue Generation veröffentlichen.


Aber wir driften vom Thema ab. ;)

Muskelbiber
2024-12-23, 01:41:01
DF ist wie Half-Life 2, also das Beste für unsere Zielgruppe :smile:

Raff
2025-01-13, 11:42:38
8 gegen 16 GiByte VRAM im Test: Bei Radeon RX 9000 und 7000 unverzichtbar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/8-GB-VRAM-2025-ausreichend-16-GB-VRAM-Radeon-1462969/?draft=1129615&token=B914832D44B7B0CA10B43092D56C8ADC)

Eine Tonne frischer Evidenz, warum 8 GiByte aufs Altenteil gehören.

MfG
Raff

dildo4u
2025-01-13, 11:44:40
Danke ich muss sagen Snowdrop macht das sehr Elegant mir ist noch nix negativ aufgefallen in Avatar und Outlaws mit meiner 4070S jeweils 4k DLSS Performance Ultra Settings.

aufkrawall
2025-01-13, 12:18:50
Mir ebenfalls nicht in Avatar.

Btw. läuft Fortnite mit rBAR und Nanite + Lumen high/VSM medium und Rest @max bei ~60fps auf einer 8GB 5700 XT in 4k 50% TSR low. Wenn man die Auflösung auf 100% stellt, ist die GPU immer noch mit ~200W ASIC gut ausgelastet. Schaltet man dann wieder runter, dropt der VRAM auf ~6,4GB und füllt sich recht schnell wieder, und das Spiel läuft normal mit guten Frame Times weiter.
Schon bedauerlich, dass das viele andere Engines so unglaublich verkacken.

Raff
2025-01-13, 12:47:08
Mit 12 GiByte steht man massiv besser da als mit 8 GiByte, vor allem mit "Geforce-GiByte". Was sich im obigen Test zeigt, tritt auf Geforce-GPUs deutlich abgeschwächt auf (aber ähnlich stark auf Arc).

MfG
Raff

aufkrawall
2025-01-13, 13:19:10
Wo hab ich mit 12GB GeForce in 4k 50% RS keine Probleme, wo ich mit 12GB Radeon welche hätte? Habe komischerweise noch keinen solchen Fall angetroffen.
Avatar lief auch mit 16GB 7800 XT unsauber vs. GeForce, das würd ich mal ausklammern.

Geldmann3
2025-01-13, 13:56:39
Musste irgendwie gerade an den folgenden Test denken, den ich vor ein paar Jahren gemacht hatte:

https://i.ibb.co/gwQcKQf/Rise-Of-The-Tomb-Raider-Benchmarks8-KFXAA.png

Wahrscheinlich habe ich die Karten einfach nur gerne leiden gesehen. haha

Raff
2025-01-13, 15:58:29
Hrhr. Indy hat das auch drauf (Benchmark ganz unten): https://www.pcgameshardware.de/Indiana-Jones-und-der-Grosse-Kreis-Spiel-74506/Specials/Pathtracing-vs-Raytracing-Benchmarks-Test-Release-1461366/

MfG
Raff

Geldmann3
2025-01-13, 18:04:30
Freue mich schon auf Tests der RTX 5090. :D
Mit 32GB Vram sehen wir endlich mal, was sich einige Games in sehr hohen Auflösungen wirklich gerne genehmigen würden.

Relex
2025-01-13, 18:28:03
Ich glaub für 8K nativ reichen auch 32 GB nicht immer.

Geldmann3
2025-01-14, 00:52:21
Vermute ebenfalls, dass es nicht immer reicht. Doch die Ausnahme davon wird eher die Seltenheit sein. Spiele seit Jahren vieles mit der 3090/4090 in 8K und die 24GB Vram werden selten angekratzt. Es geschieht aber mit den richtigen Games durchaus, dass sie stark limitieren oder ein Game sogar unspielbar machen.

VooDoo7mx
2025-01-14, 11:44:58
Hrhr. Indy hat das auch drauf (Benchmark ganz unten): https://www.pcgameshardware.de/Indiana-Jones-und-der-Grosse-Kreis-Spiel-74506/Specials/Pathtracing-vs-Raytracing-Benchmarks-Test-Release-1461366/

MfG
Raff

So ein Pech aber auch, wegen den 8GB Vram, kann ich Indiana Jones auf meiner 3070Ti mit Max. Path Tracing, max. possible Texture Pool Size, DLSS Quality nicht in nicht in flüssigen 22fps genießen.
Diese verdammten 8GB VRAM. *hebt die rechte Faust in die Luft*

Exxtreme
2025-01-14, 11:49:36
Ich glaub für 8K nativ reichen auch 32 GB nicht immer.

Sollten dicke reichen. 8K UHD frisst knapp ein halbes GB an VRAM. Die Rechnung ist einfach:
8192 × 4608 × 3 × 4


Ergibt 432 MB. Kann zwar sein, dass da noch bissl was draufkommt wegen möglichen RT. Aber das meiste geht für Texturen drauf. Und die muss man so oder so alle laden, egal wie die Auflösung ist.

aufkrawall
2025-01-14, 12:03:16
So ein Unsinn, der Unterschied zwischen 1080p und 4k ist meist schon wesentlich größer.

Kann ich, im Gegensatz zu deiner Abakusrechnung mit staubigem Rechenheft, auch belegen:
Strange Brigade (das Spiel hat in statischer Szene nach kurzer Zeit statische Belegung) DX12 1080p: 4GB
nach sauberem Spielneustart in 4k: 4,7GB

Wird dich aber bestimmt, wie üblich, nicht davon abhalten, das in Zukunft weiterhin ständig falsch zu wiederholen...

Exxtreme
2025-01-14, 12:50:03
Man kann von aussen nicht messen wieviel VRAM wirklich genutzt werden. Das weiss nur die Anwendung. Man kann von aussen nur messen wieviel VRAM reserviert wurde.

Relex
2025-01-14, 13:11:25
Häää. Was ist denn dann der Grund, warum Spiele in 4K viel mehr VRAM brauchen und die Leute mit 8 und teilweise auch 12 GB Probleme haben?

Das wurde doch jetzt auch schon 1000x durchgekaut und von unzähligen Seiten getestet.


Also ich verstehe beim besten willen nicht, was dich bei der Aussage geritten hat.

Hier siehe Screenshots. 11 GB in 1080p nativ und 15,6 GB in 4K nativ.
Sind bissle mehr als deine 432 MB, die übrigens nur der fertige Frame unkomprimiert braucht...


Also keine Ahnung, dass man das hier überhaupt diskutieren muss find ich hart...


Manchmal hab ich den Eindruck, dass manche hier diskutieren, aber in den letzten 20 Jahren kein Spiel angerührt haben. Nix für ungut, aber ich versteh gerade die Welt nicht mehr :D

aufkrawall
2025-01-14, 13:25:56
Manchmal hab ich den Eindruck, dass manche hier diskutieren, aber in den letzten 20 Jahren kein Spiel angerührt haben.
Das würde wohl auch die Lobeshymnen auf MSAA und OGSSAA erklären.

The_Invisible
2025-01-14, 13:36:28
Ja ist einiges mehr, da wird's sicher einige mehr Buffer geben

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90971&stc=1&d=1736858120

Maorga
2025-01-14, 14:45:34
Extreme hat schon recht, das meiste geht für die Texturen drauf. Eure Vergleiche hinken, da ihr nicht sagen könnt, wo was und wie viel an Speicher verwendet wurde. Er hat auch nur angegeben, dass 32 GB für 8k reichen sollten.

Ja, sicher haben viele Probleme bestimmte Konfigurationen zu fahren. Ja, da macht es ein Unterschied, was der User einstellt.

Machen wir mal eine Umkehrrechnung bei Relex:

Von 2K auf 4K vervierfacht sich die Pixelmenge. 2 Mrd. zu 8 Mrd. Pixel - 6 Mrd. Pixel verballern nun die 4,6 GB. Dies bedeutet für 2 Mrd. Pixel benötigt die GPU dann 1,5 GB -> für 4K benötigen wir für die Auflösung VRAM von 6 GB. Nun, gehen wir mal auf 8K (32 Mrd. Picel) hoch - richtig wir benötigen dann 24 GB.

Schauen wir auf das Diagramm von The_Invisble:

Hier vergleichen wir mal die Very Low Werte mit Ultra.
Very Low 1920x1080 auf 2560x1440 ergibt ein Mehrverbrauch von 674 MB.
Ultra 1920x108 auf 2560x1440 ergibt ein Mehrverbrauch von 325 MB.
Entweder müssen beide Werte korrespondieren, sprich gleich sein, dann könnten wir explizit sagen, dass dieser Auflösungssprung so und soviel MB kostet. Hier sehen wir eine Abweichung, die uns mitteilt, nein so geht es nicht.



Es ist also Engine abhängig, wie groß der Mehrverbrauch ist und wie das Spiel läuft. Wie das Speicher-Poolmanagment läuft, das Streaming usw. Gut, dass einige Spiele dies in der Konfiguration anzeigen, wie hoch der Speicherverbrauch ist.


Wir alle sind uns bewusst, das jedes extra ein wenig Speicher benötigt. Jede Nachbearbeitung, DLSS, Raytracing, MSSA usw.

Exxtreme
2025-01-14, 15:01:20
Ja ist einiges mehr, da wird's sicher einige mehr Buffer geben

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90971&stc=1&d=1736858120

Die Problematik ist, dass diese Messungen mehr oder weniger für die Katz sind. Du kannst den realen VRAM-Verbrauch mit irgendwelchen Tools nicht messen. Das ist so als ob man versucht die Durchschnittsgeschwindigkeit eines Pferdes anhand der Futtermenge zu ermitteln. Du kannst nur messen wieviel VRAM ein Spiel angefordert und belegt hat und nicht ob dieser Speicher auch wirklich gebraucht wird. Deshalb sind auch die RAM-Verbrauch-Anzeigen im Taskmanager für die Katz. Nur die Anwendung selbst kann sehr exakt ermitteln wieviel VRAM sie grad braucht. Von aussen kommt man an diese Information nicht ran wenn die Anwendung selbst keine Schnittstelle bietet um den RAM-Verbrauch abzufragen. Beispiel: mein grad offenes Eclipse sagt, es braucht 600 MB, der Taskmanager sagt 1500 MB. Der Taskamanger liegt mit über Faktor 2 daneben.

Relex
2025-01-14, 15:04:48
Ob der VRAM benötigt wird, erkennt man spätestens dann, wenn die Performance wegbricht. Und das tut sie, wenn ich in Cyberpunk bei den oben gezeigten 15,6 GB noch Frame Generation dazuschalte, was ca 1 GB braucht.

Außerdem gibt es viele Games, die ingame ein VRAM Meter anbieten und genau zeigen, was sie brauchen. Auch da bestätigt sich das gleiche.


Die VRAM Belegung die man bei modernen Spielen auslesen kann ist schon akkurat. Ob das tatsächlich benötigt wird, varriert von Spiel zu spiel und hängt auch von der verfügbaren Speichermenge ab (je mehr speicher vorhanden, desto mehr wird häufig auch belegt). Aber wie gesagt, wenn die performance wegbricht, haste die echte Grenze ermittelt. Das ist nicht schwer...

Dorn
2025-01-14, 18:43:38
Das ist nicht schwer...Ähmm...manche Engines schalten einfach on the fly die Texturen runter oder Objekte werden weggelassen usw.

aufkrawall
2025-01-14, 19:01:25
Beispiel: mein grad offenes Eclipse sagt, es braucht 600 MB, der Taskmanager sagt 1500 MB. Der Taskamanger liegt mit über Faktor 2 daneben.
Ist nur leider, *Überraschung*, ein komplett dä.. unschlaues Beispiel.
Die Gesamt-VRAM-Belegung ist quasi vergleichbar zur Gesamtauslastung des physikalischen RAMs, und da sind die Belegungsnummern komplett eindeutig.

crux2005
2025-01-14, 20:53:59
Welche Spiele brauchen unbedingt >12GB für 1440p+RT(+DLSS/FG)?

Christopher_Blair
2025-01-14, 21:25:42
Gibt es ein Tool welches den vram befüllt, um in spielen weniger vram zu simulieren?

aufkrawall
2025-01-14, 21:27:24
Ratchet ist sicher kaputt. Miles Morales mindestens ein Wackelkandidat bei längerem Traversal, da lässt man rBAR im Inspector besser aus.

HisN
2025-01-14, 23:18:02
Gibt es ein Tool welches den vram befüllt, um in spielen weniger vram zu simulieren?

Ja, aber das ist relativ nutzlos, denn das vram ist virtualisiert.
Was passiert mit Deinem Hauptspeicher wenn er voll ist?
Genau das gleiche passiert mit dem VRAM.

Ich stopfe das Vram mit 24GB Müll zu und starte dann ein Spiel.
Dann ruckelt es kurz, und mein RAM ist um den Betrag voller, der an VRAM fehlt, und das Game läuft ohne Probleme.

Raff
2025-01-15, 00:33:24
Hier übrigens VRAM 2025: The Movie. :D

hDAGjb23Qdk

MfG
Raff

dildo4u
2025-01-15, 06:40:08
Welche Spiele brauchen unbedingt >12GB für 1440p+RT(+DLSS/FG)?
Ratcht and Clank mit RT.
Mal sehen ob Spiderman 2 besser läuft.

NhFSlvC2xbg

Geldmann3
2025-01-15, 12:24:18
Sollten dicke reichen. 8K UHD frisst knapp ein halbes GB an VRAM. Die Rechnung ist einfach:
8192 × 4608 × 3 × 4


Ergibt 432 MB. Kann zwar sein, dass da noch bissl was draufkommt wegen möglichen RT. Aber das meiste geht für Texturen drauf. Und die muss man so oder so alle laden, egal wie die Auflösung ist.

Das Problem an der Rechnung ist hauptsächlich, dass sie nur den Speicherbedarf für einen fertigen Frame berechnet. Ein Game rendert für eine Szene aber oft sehr viele Frames (Render-Passes), in unterschiedlichen Auflösungen und Formaten, welche dann übereinandergelegt oder auf sonstige Weisen miteinander verrechnet werden. Das können mal 2 sein oder im Extremfall auch mal 64. Und dann kommen erst die Texturen, Raytracing und alles Andere, wie z.b. Metainformationen für Pixel wie Depth-Buffer und Motion-Vektoren obendrauf, die ja eigentlich auch nochmal Frames für sich sind und Speicher verbrauchen.

blaidd
2025-01-15, 22:34:31
"Go buy an RTX 5090" - The Slide.^^
(und das ist nicht der einzige, und das kam DIE GANZE ZEIT so rüber!)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90993&stc=1&d=1736976757

Ich glaube, bisher hat Nvidia noch nie so sehr kommuniziert: "Ja, wir haben auch andere Grafikkarten, aber eigentlich willst du ja eine RTX 5090 :)"

Der 5080 hätten sie ja wirklich mal 24 GiByte verpassen können, oder so.

Raff
2025-01-15, 22:42:50
Aber, aber, FP4 und so!! :ulol:

In Spielen ist’s ja noch nicht so krass.

MfG
Raff

blaidd
2025-01-15, 22:48:48
"So far..."^^

Ist ja auch noch kein einziges "Blackwell-Spiel" offiziell erschienen ;)

aufkrawall
2025-01-15, 22:52:50
Na ja. Sie werben mit Neural Materials und verbessertem FG für geringeren VRAM-Bedarf.

blaidd
2025-01-15, 22:54:45
Ja, damit reicht dann der VRAM der RTX 5090^^