Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel
][immy
2023-06-19, 13:47:44
Das ist einfach Unsinn. Die PC Ports mögen nicht perfekt sein, aber sie sind sehr gut. Was kann denn der Entwickler dafür, dass beim PC so mit Speicher gegeizt wird.
MHH, also auf der einen Seite verlangst du das xbjahre alte CPUs noch Beachtung finden, aber bei Grafikkarten muss es dann die high-end Bestückung für mehr als milchige Texturen geben?
Die Technik das texturstreaming sogar mit Standard SSDs zu revolutionieren ist vorhanden und so den Speicherbedarf stark zu drücken (das geht auch schon ohne die dx12 Features oder direct storage) aber es scheitert schlicht an der Umsetzung auf dem PC, eben weil das alte gut genug ist und mit mehr Hardware erschlagen werden kann (brute force halt).
Blase
2023-06-19, 13:58:56
Gibts wirklich noch Spieler mit HDD`s ?
Ja, hier ;)
Und ich sehe bis heute keinen Nachteil - wenn man mal von vereinzelten, längeren Wartezeiten beim einmaligen Laden eines Spielstandes absieht. Es mag vereinzelt Titel da draußen geben, die von einer SSD auch in anderen Bereichen (Streaming?) beim Spielen profitieren - aber unverändert spielt das eine eher untergeordnete Rolle...
MfG Blase
Exxtreme
2023-06-19, 14:18:51
Unsinn? Aha. Komische Sichtweise. Entwickler sind leider faulpelze! Die immer wieder, gerade mal das nötigste machen wollen.
Nein, sind sie nicht. Liegt eher daran, dass da nicht so viel Budget für Optimierung drin ist dafür sehr viel Budget für neue Features.
Platos
2023-06-19, 14:22:37
Das ist alles Unsinn. Klar brauchst du weniger Daten vorhalten, wenn du mehr streamst, aber das geht doch nur beschränkt. Die Konsole ist dafür gebaut und erreicht grad mal 30-60FPS Leute. Ihr seid völlig außerhalb jedes Verhältnisses unterwegs mit den bescheuerten Einschätzungen.
Ah ja, aber deine Einschätzung ist natürlich die einzig wahre:rolleyes:
Direct Storage ist auch genau dafür gebaut. Das was du da redest ist nichts als deine persönliche Einschätzung.
Jensens Firma hatte auch mal Karten mit mehr VRAM im Angebot. Da fällt mir z.B. 980Ti vs Fury X. Lang ists her
*Hust* RTX 3060 *Hust*
The_Invisible
2023-06-19, 14:49:04
Jensens Firma hatte auch mal Karten mit mehr VRAM im Angebot. Da fällt mir z.B. 980Ti vs Fury X. Lang ists her
Die 3090 hatte auch mehr als die 69x0 von AMD
Ex3cut3r
2023-06-19, 15:18:00
Nein, sind sie nicht. Liegt eher daran, dass da nicht so viel Budget für Optimierung drin ist dafür sehr viel Budget für neue Features.
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:
Weil es auch sehr schwer und teuer ist, texturen vernünftig nach unten skalieren zu lassen, da die PS4 Versionen auch noch immer hergestellt werden, sind Texturen sowieso auch in einer schlechteren Qualität vorhanden, das Argument ist also sowieso fragwürdig.
Exxtreme
2023-06-19, 15:43:53
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:
Japp. In der Softwareentwicklung bzw. genauer: Scrum gibt es so eine Kategorie namens "non-functional requirements". Bessere Performance aber auch Skalierbarkeit oder Sicherheit fallen in diese Kategorie. Und man merkt auch schnell, dass auch diese Dinge sträflich vernachlässigt werden. Eben weil das Budget für diese "non-functional requirements" meist sehr klein ist und nur dann erhöht wird wenn die Hütte richtig brennt.
Über Budgets entscheiden aber nicht die Softwareentwickler sondern das Management.
Ah ja, aber deine Einschätzung ist natürlich die einzig wahre:rolleyes:
[...]
Na wieder einer der das jetzt erst merkt dass meine Einschätzung die allterbeste ist :D.
Meine Güte, immer dieser nonsens :freak:
Übrigens gibts mittlerweile sogar 32Gb GDDR6-RAM, nennt sich GDDR6W und ist von Samsung ;).
Ist mir total durchgegangen. Dürfte dann so Anfang 24 verfügbar werden mit 22GT/s, wär doch ein toller Zeitpunkt für einen Refresh :D.
https://www.tomshardware.com/news/samsung-gddr6w-doubles-performance-and-capacity
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:
Weil es auch sehr schwer und teuer ist, texturen vernünftig nach unten skalieren zu lassen, da die PS4 Versionen auch noch immer hergestellt werden, sind Texturen sowieso auch in einer schlechteren Qualität vorhanden, das Argument ist also sowieso fragwürdig.
Du machst es dir, wie immer wenn es um diese Frage geht, einfach viel zu einfach. Sind ja alle schlecht uind doof. Wie wärs wenn du die Ports demnächst mal durchführst?
[immy;13331411']MHH, also auf der einen Seite verlangst du das xbjahre alte CPUs noch Beachtung finden, aber bei Grafikkarten muss es dann die high-end Bestückung für mehr als milchige Texturen geben?
Die Technik das texturstreaming sogar mit Standard SSDs zu revolutionieren ist vorhanden und so den Speicherbedarf stark zu drücken (das geht auch schon ohne die dx12 Features oder direct storage) aber es scheitert schlicht an der Umsetzung auf dem PC, eben weil das alte gut genug ist und mit mehr Hardware erschlagen werden kann (brute force halt).
Du machst es dir genauso einfach. Das ist die Theorie, aber es gibt eben jetzt ne ganze Latte an Beispielen, die beweisen, dass diese Theorie in der Praxis eben nicht so einfach umgesetzt werden kann ;).
Ex3cut3r
2023-06-19, 18:14:19
Du machst es dir, wie immer wenn es um diese Frage geht, einfach viel zu einfach. Sind ja alle schlecht uind doof. Wie wärs wenn du die Ports demnächst mal durchführst?
Wieso so pampig? Habe ich dich irgendwie persönlich beleidigt? Ne, ich mache mir das einfacher -> Ich kaufe diese Spiele einfach nicht, oder nicht zum release. :biggrin:
Die meisten Entwickler, die an PC Ports schrauben, haben wenig drauf. Punkt. Und dabei bleibe ich. Das ist seit Jahren bekannt, dass der PC immer "billige" Ports bekommt und/oder von Third Party Entwickler meisten aus dem Osten (Polen, Tschechien, Rumänien etc.) abgearbeitet werden. Klar gibt es auch Ausnahmen wie Nixxes (Niederlande) oder Id Software (USA)
Ein gutes Beispiel sind die Uncharted Games und Last of Us. Während Naughty Dog persönlich die Kosolen Verfassungen mit viel Geld von Sony und intern entwickelt hat. Hat man die PC-Versionen an Iron Galaxy outgesourced, das Studio was uns schon 2015 den grandiosen Arkham Knight PC Port geliefert hat. Low Budget vom feinsten.
DX12 hat die Sache doch noch mehr verschlimmert. Da der Entwickler hier noch eigenständiger an einer sauberen Implementierung arbeiten muss. Direct Storage mit Sampler Feedback wird hoffentlich viel Arbeit und Know How, welches die meisten nun mal nicht haben, erleichtern.
Schnoesel
2023-06-19, 18:41:20
PC hat halt keine Prio mehr und das hat Gründe. Das Problem ist hausgemacht, der PC einfach unattraktiv als Gamingkiste. Komm raus aus der Blase, dann wirst sehen wie unbedeutend wir sind. Konsole und vor allem Mobile Games, da geht die Kohle hin. PC Ports? Wayne! Eigentlich kannste schon fast froh sein, wenn Games überhaupt noch für den PC erscheinen.
The_Invisible
2023-06-19, 20:14:39
Bin ja auch für schnelle Hardware und viel Speicher für alles, aber ein wenig Optimierung kann schon sein. Das letzte StarWars war zb ja ein Witz und auch bei Diablo4 fragt man sich was bei einem isometrischen Game 16GB VRAM fressen kann.
Da bin ich jedenfalls auch wer der das hinterfragt und nicht einfach meint "Haut halt >=32GB VRAM Grafikkarten raus"...
Platos
2023-06-19, 21:07:25
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:
Klar, was denkst du, wie das läuft? Solltest du doch mittlerweile wissen. Dreck auf den Markt werfen und mal abwarten, ob man noch was machen muss oder ob die Alpha doch genügt.
Aber die Leute belohnen dieses Verhalten ja, indem sie immer bei Launch kaufen.
Lurtz
2023-06-19, 23:15:24
PC hat halt keine Prio mehr und das hat Gründe. Das Problem ist hausgemacht, der PC einfach unattraktiv als Gamingkiste. Komm raus aus der Blase, dann wirst sehen wie unbedeutend wir sind. Konsole und vor allem Mobile Games, da geht die Kohle hin. PC Ports? Wayne! Eigentlich kannste schon fast froh sein, wenn Games überhaupt noch für den PC erscheinen.
Genau, deshalb gibts mittlerweile selbst japanische Entwickler wie Capcom, bei denen der PC auf einzelne Plattformen gerechnet teils vor allen Konsolenplattformen liegt.
Mehr Spiele denn je erscheinen für den PC, es gibt außer bei Nintendo praktisch keine Konsolen-Exklusivtitel mehr, aber der PC ist mal wieder tot! :ugly:
Thunder99
2023-06-20, 12:43:14
Bin ja auch für schnelle Hardware und viel Speicher für alles, aber ein wenig Optimierung kann schon sein. Das letzte StarWars war zb ja ein Witz und auch bei Diablo4 fragt man sich was bei einem isometrischen Game 16GB VRAM fressen kann.
Da bin ich jedenfalls auch wer der das hinterfragt und nicht einfach meint "Haut halt >=32GB VRAM Grafikkarten raus"...
Müsste man mal D2 Refresh D3 und D4 vergleichen wie groß die Welten sind und was dort im Detail sichtbar ist.
Könnte mir schon gut vorstellen, dass Blizzard VRAM Belegung dem Streaming vorzieht damit es wirklich flüssig ist bei einem schnellen Spiel.
Am Ende wird es dir nur der Entwickler sagen können :)
Frage mich schon wieso die Entwickler und Studios nicht schon längst gestürmt haben für mehr Speicher...
Lurtz
2023-06-20, 17:55:04
nVidia hat angeblich was am VRAM-Management im Treiber geändert, es soll jetzt früher der Shared Memory genutzt werden und damit vermehrt Performanceprobleme auftreten?
https://steamcommunity.com/app/1774580/discussions/0/5264192561410268782/#c5264193038182728393
https://github.com/vladmandic/automatic/discussions/1285
Ist da was dran oder ist das FUD?
ChaosTM
2023-06-20, 18:05:42
Ich hoffe, sie legen keinen "Cyberpunk 77" hin.
Damals wurde die maximale VRAM usage (4k) auf 10Gb beschränkt, um die 3080er nicht komplett idiotisch ausersehen zu lassen..
https://youtu.be/ylwv19lIap0
Tom hat ein paar Stimmen eingefangen genau zu dem Thema. Es ist eben nicht schlecht optimiert, das Problem ist erheblich komplexer.
eure gesamte Diskussion ist völlig bekloppt in meinen Augen. Die Speichermenge ist zu gering, kauft den Scheiss nicht und fertig oder lebt mit Low-Details. Es tut mir leid, jemand der ne 4060Ti kauft kann ich einfach nicht bedauern, eine solche Person halte ich schlichtweg für dämlich oder ein völlig uninformiertes Opfer...
aufkrawall
2023-06-20, 18:41:07
Welcher Arbeitslose guckt sich solche 2h Laber-Podcasts von irgendwelchen völlig unbekannten oder unglaubwürdigen Leuten in voller Länge an? Was wird da gesagt?
Und natürlich ist Diablo 4 schrottig optimiert, die Assets wiederholen sich die ganze Zeit komplett und Geometrie sowie Grafikeffekte sind ein Witz.
Ist nur 10min oder so, ist die erste story. Er hat eben einige Entwickler-Aussagen zu dem Thema zusammengetragen.
Aber erst mal meckern, wie immer.
aufkrawall
2023-06-21, 10:26:55
Da wird auch nur gesagt, was man sich denken kann: Entwickler kriegens innerhalb der Zeitvorgabe nicht auf die Reihe.
Also technisches Missmanagement. Meanwhile läuft Fortnite mit maximalen Details als einziges echtes NextGen-Spiel (einigermaßen) problemlos mit 10GB, inkls. rBAR, und skaliert von der PS4 (bzw. Android) bis zur RTX 4090...
Schnoesel
2023-06-21, 12:11:51
Igor hat mal was bzgl VRAM untersucht:
https://www.igorslab.de/testreihe-mit-karten-von-nvidia-und-amd-wenn-ploetzlich-der-speicher-der-grafikkarte-nicht-mehr-reicht/
AMD und Nvidia reagieren unterschiedlich, aber wenn der Speicher überläuft laufen beide Scheiße (wenn auch in anderer Form). AMD bricht zwar eher ein als Nvidia cheated aber mit reduzierten Texturdetails. Lösung ist nur eines: mehr Speicher.
So viel zum hochgelobten Speichermanagement von Nvidia. Ist klar wer Texturen weglässt braucht weniger.
Ex3cut3r
2023-06-21, 12:18:40
Hmm, das wäre mir neu. Das der Treiber da einfach Texutren weglassen kann.
Normalerweise ist das immer das Spiel/Engine, das entscheidet wie umgegangen wird, wenn VRAM überläuft. Die meisten zeigen dann einfach Matsch an, andere ruckeln sich im einstelligen FPS Zahlen rum.
Leider hat Igor, so wie ich das sehe, keine Screenshots von AMD und Nvidia, wo das angeblich passiert zum vergleich. Naja, so richtig traue dem Braten nicht, was Igor da sagt.
EDIT: Wo genau, steht das eigentlich im Text?
EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.
aufkrawall
2023-06-21, 12:23:16
Ich halte die Methodik für sehr fragwürdig bzw. offenkundig invalide, 12GB AMD-Karten kacken definitiv nicht 2GB vor voller Belegung mal eben deutlich ein...
DrFreaK666
2023-06-21, 14:00:27
... EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.
Aber mit einer 12GB-Karte sagen, dass 8GB-Karten reichen, ist völlig in Ordnung :ugly:
Hab verstanden, dass es um Workstation-Karten ging. Aber du erwähnst die Speichermenge bestimmt nicht ganz zufällig
Platos
2023-06-21, 14:05:55
EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.
Was soll denn der Unterschied sein? Game Ready Treiber? Das betrifft nur die neuesten Spiele. Der Studiotreiber läuft genau so gut, wenn es sich nicht gerade um allerneueste Spiele handelt.
aufkrawall
2023-06-21, 14:13:11
Viel problematischer dürfte sein, dass die Spiele die volle Größe des VRAMs abfragen können, der dann aber durch die OCL-Anwendung nicht zur Verfügung steht. Und komische Wechselwirkungen durch die gleichzeitige Verwaltung der OCL-Anwendung und der Spiele-Belegung durch den Treiber sind auch jedenfalls alles andere als unplausibel. Der Test ist echt für die Tonne, kann man eigentlich nur so hart sagen...
Langlay
2023-06-21, 14:13:25
Was soll denn der Unterschied sein? Game Ready Treiber? Das betrifft nur die neuesten Spiele. Der Studiotreiber läuft genau so gut, wenn es sich nicht gerade um allerneueste Spiele handelt.
Yap, ich hab auf der Radeon VII fast immer den Pro Treiber benutzt weil der weniger rumgezickt hat. Leistungsmässig gabs da keine Unterschiede.
Ex3cut3r
2023-06-22, 23:22:19
Aber mit einer 12GB-Karte sagen, dass 8GB-Karten reichen, ist völlig in Ordnung :ugly:
Hab verstanden, dass es um Workstation-Karten ging. Aber du erwähnst die Speichermenge bestimmt nicht ganz zufällig
Natürlich ist das vollkommen legitim. Denn wenn eine 12GB Karte bei Usage und Belegung unter 8GB in einem Spiel ist, dann wird eine 8GB Karte natürlich niemals mehr belegen oder brauchen. :freak:
So schwer ist das nicht zu kapieren...eigentlich.
Was Igor jetzt macht ist schon fragwürdig. Er hätte IMHO einfach eine 8GB und eine 16GB Gamer Karte aus dem aktuellen Nvidia Lager und aus dem AMD Lager genommen.
Dann hätten wir uns die Frametimes angesehen, und wenn die sich dann komplett unterscheiden...und der Rest des Systems vollkommen gleich ist, dann wurden wir wissen, ok hier in diesem Spiel, bei Auflösung XY gibt es Probleme.
Gegebenenfalls das ganze mit Screenshots abrunden, wo Textur Matsch mit 8GB auftretet und daneben dann das 16GB VRAM Bild wo die Texturen vollständig sind. DF hat das z.B. letztens sehr gut hier dargestellt.
https://youtu.be/7UwKKHmPzhg?t=900
gnomi
2023-06-24, 10:38:19
Wäre gut, wenn man immer so ne Art 60fps Konsolenmodus mit testet.
Vielleicht 1080P nativ und 1440P mit DLSS/FSR.
Dazu Hohe Einstellungen ohne überzogene Features und etwas reduzierte Textur Details. Aber eben nichts, was die Qualität sonderlich abwerten darf.
Aber wieso sollte jemand daran interessiert sein?
Es würde rauskommen, dass man mit einer 2070S bis 3060TI immer noch gut spielen kann und neue GPU's derzeit frech überteuert sind und die Spiele mit hochgezogenen Einstellungen die GPU und CPU Leistung verbrennen.
Niemand würde dann auf Hardware Seiten jeden Bericht mehr aufsaugen und ständig was Neues wollen.
8GB GPU jetzt kaufen bleibt für mich Nogo, weil auf 2-4 Jahre Anschaffung zu knapp/limitierend. Preise 60er Serie sind frech.
Mit 8GB weiterspielen geht hingegen klar.
Thunder99
2023-06-24, 11:17:38
Der Test von Igor ist doch nur logisch.
Jeweils ne 32GB Karte (die es nur im Profi Sektor gibt) und dann die Skalierung anschauen. Ja, es mag ein "Fehler" sein mit Pro Karten zu testen, aber wenn man immer den Fehler hat kann man diesen aus der Gleichung nehmen :wink:
Warum AMD früher Probleme hat, ggf nur bei dem Spiel oder "kack" Treiber die dann das Problem verursachen? Es zeigt halt schön, dass Nvidia es besser macht mit dem Speichermanagement als AMD. Letztere sollte immer genug Speicher haben, bei Nvidia kann es noch etwas besser laufen.
Gilt also immer noch die Aussage eine AMD Karte sollte 2GB mehr haben als eine Nvidia um gleich gut in Sachen Speicher zu performen?
vinacis_vivids
2023-06-24, 11:29:53
Nvidia cheatet mit low-quality Texturen. Daher greife ich Aufgrund der Bildqualität immer zu AMD.
aufkrawall
2023-06-24, 11:38:13
Es zeigt halt schön, dass Nvidia es besser macht mit dem Speichermanagement als AMD.
Nein, machen sie nicht. Nvidia schmeißt in diversen Spielen wie RDR2, Far Cry 6 oder Fortnite aggressiver Daten aus dem VRAM, was dann ggf. Probleme auf Karten mit zu wenig VRAM vermeidet oder wenigstens lindert. Dafür gibts aber schlechtere Frame Times als mit AMD, wenn der VRAM ansonsten reichen würde. Und das macht sich um so stärker bemerkbar, je voller der VRAM wird, also etwa höhere Auflösung. Mit einer Radeon mit üppig VRAM ist man dahingehend also am besten dran.
Troyan
2023-06-24, 11:40:37
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.
aufkrawall
2023-06-24, 11:42:45
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.
Dann macht es das Spiel halt auf NV-Hardware aufgrund Nvidias Empfehlungen so, das Ergebnis ist das Gleiche.
Und ist auch nicht wirklich korrekt, was du sagst. Die VRAM-Belegung mit etwa rBAR verhält sich mitunter ziemlich unterschiedlich zwischen Radeon und GeForce. Gibt sogar Treiber-Profile dafür bei Nvidia. So viel zu "Der Treiber macht nichts."...
Exxtreme
2023-06-24, 12:02:09
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.
Vulkan/Direct3D 12 sind keine APIs wo man komplett direkt auf der Hardware programmiert. Auch da hat man immer noch Abstraktionsschichten drüber. Und wo eine Abstraktionsschicht existiert da kann der Treiber was machen.
Thunder99
2023-06-24, 19:43:26
Nein, machen sie nicht. Nvidia schmeißt in diversen Spielen wie RDR2, Far Cry 6 oder Fortnite aggressiver Daten aus dem VRAM, was dann ggf. Probleme auf Karten mit zu wenig VRAM vermeidet oder wenigstens lindert. Dafür gibts aber schlechtere Frame Times als mit AMD, wenn der VRAM ansonsten reichen würde. Und das macht sich um so stärker bemerkbar, je voller der VRAM wird, also etwa höhere Auflösung. Mit einer Radeon mit üppig VRAM ist man dahingehend also am besten dran.
Hmm, ok da ist echt k...e :(. Ergo hilft nur üppig VRAM das der Treiber nicht "dazwischen" funkt :freak:
aufkrawall
2023-06-24, 20:15:38
Nope, da kannst du mit GeForce gar nichts machen. Fortnite versucht auf einer 24GB 4090 in 4k nativen unter 10GB zu bleiben. Je näher der Verbrauch an diese Marke während des Spielens hochschwappt, desto zuckeliger wird es. Wenn man im Spectator-Mode den Spieler wechselt, sieht man sogar manchmal für ein paar Sekunden nur Textur-Matsch.
Ich würd jetzt nicht sagen, dass es so ein Verhalten auf Radeons garantiert nicht gibt. Es scheint aber massiv geringer ausgeprägt zu sein.
Ausnahme ist Deathloop, das funktioniert mit der Radeon-VRAM-Verwaltung komplett nicht richtig bez. Frame Time-Varianz. Wobei man auch auf einer 4090 nach ein paar Minuten mit ausgereiztem VRAM auch nicht das Spiel minimieren kann, um mal kurz den Browser zu starten. Ist dann bis zum Level-Neustart hinsichtlich Spikes komplett gestorben, hakt alle paar Sekunden. Das ist dahingehend wirklich der größte Software-Schrott, den ich je gesehen habe.
Altehardware
2023-06-25, 23:46:18
Zuallererst muss amn wissend as die programme nur den speicher eines System als ganzes Sieht so auch die api
dx9 hat Limitierungen weswegen man kein spiel mit mehr als 4gb belegt werden kann.
dx10 ist die erste api die es ermöglicht mehr als ein thread für das rendern zu nutzen max 4
dx11 Führte die gemeinsame Speicher Nutzung ein von System RAM und video ram
dx12 ermöglich den Entwickler selber das Speichermenagdment zu gestalten insbesondere dem streaming.
Nvidia oder amd Treiber können lediglich den Speicher in der gpu managen
Läuft der buffer voll wird ausgelagert zu sehen an shared memory am pcie bus.
Folglich kann nvidia oder amd die qualität der texturauflösung der Filterung verringern.
Es sind die game engines die für eine geringere Textur Qualität sorgen wenn der vram nicht reicht
beim Erzwungenen upscaling bspw kann man vram einsparen aber das geht dann soweit bsp 1080p ultraperf mode das die native Auflösung nur noch 1024-576p ist, das sieht man deutlich da LCD nicht nativ skalieren.
zu den engines
unreal engine seit 1998 aktuell 5 meiste verwendete 4
unity engine
ID tech3 open source seit 1997
source aktuell version 2 (valve)
idtech seit 1994 aktuell 7
cry engine seit 2004 aktuell 5
gamebroy engine eol seit 2010
anvil seit 2006 aktuell 2
snowdrop seit 2016
dunia seit 2008 aktuell 2
creation engine seit 2003 aktuell 3 (letzte spiel fallout 76)
void seit 2014 /letztes spiel deathloop
iwtech seit 2002 aktuell 8
frostbyte seit 2012 aktuell 2
Engines sind immer toolsets das sind die mit komplettsets teils publisher exklusiv
Dazu kommen noch etwaige 2d engines die alle eol sind.
Die neueste ist unreal engine 5 auch wegen des lizenzmodells sehr interessant für alle publisher
Bald soll die cryengine 6 kommen und hoffentlich endlich vom abo Modell wegkommen ob es technisch besser wird ist offen
Derzeit setze ich auf die ue5 und diese hat mehrere Möglichkeiten den vram einzusparen das intrigierte upscaling tsr, sowie nanite distanz bezogene Auflösung ohne Texturen dafür Vorberechnet zu laden. Das erzeugt zwar mehr last auf die gpu aber der vram bedarf sinkt.
Dann die Möglichkeit per streaming vom ram direkt zu nutzen.
Und da derzeit kaum was von Entwicklungen an dunia anvil iwtech und co bekannt ist nehme ich an das die UE5 durchgehend zu industriestandard werden kann.
Für indi studios ist das schon so die unity engine hält dagegen aber lässt einiges vermissen
Ob valve endlich source 2 ne 3 spendiert ist offen.
valve hat angst vor der drei.
Ich könnte den verbrauch von min 50 games angeben mit der rtx3060 und gtx1060
Und etwa 350 games von der rtx3060 (eine Auswahl von games von 2004 bis 2022 ausgenommen games mit fps cap sonst wären es min 500)
Troyan
2023-06-26, 10:04:33
Vulkan/Direct3D 12 sind keine APIs wo man komplett direkt auf der Hardware programmiert. Auch da hat man immer noch Abstraktionsschichten drüber. Und wo eine Abstraktionsschicht existiert da kann der Treiber was machen.
DX12 und Vulkan sind explizierte APIs, die das komplette VRAM Management selbst verwalten. Deswegen sind diese auch so aufwendig und es benötigt viel mehr Code um überhaupt ein Dreieck rendern zu können.
Exxtreme
2023-06-26, 10:31:31
DX12 und Vulkan sind explizierte APIs, die das komplette VRAM Management selbst verwalten. Deswegen sind diese auch so aufwendig und es benötigt viel mehr Code um überhaupt ein Dreieck rendern zu können.
DirectX12/Vulkan geben dir eventuell die Illusion, dass du die totale Kontrolle über den VRAM hast. Solche Illusionen gibt es öfter. Sobald man aber eine Abstraktionsschicht hat, sollte man nicht davon ausgehen, dass man die Kontrolle hat. Die Kontrolle hat man dann wenn man direkt proprietären Maschinencode gegen die Hardware wirft. Und das ist bei DirectX12/Vulkan nicht der Fall.
Programmiert jemand in C oder C++ und meint die Kontrolle über den RAM zu haben? Da habe ich auch eine schlechte Nachricht. :)
https://lemire.me/blog/2020/03/03/calling-free-or-delete/
Troyan
2023-06-26, 10:36:56
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.
Langlay
2023-06-26, 14:06:19
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.
Ob du ein dünnes Brett vor dem Kopf hast oder 2-3 dicke macht keinen Unterschied.
Exxtreme
2023-06-26, 14:13:05
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.
Sobald du auch nur eine Abstraktionsschicht hast, kannst du nicht davon ausgehen, dass du die volle Kontrolle hast. Und die volle Kontrolle gibt es offenbar auch nicht mit DirectX12 und Vulkan. Sonst würden sich alle GPUs ziemlich exakt gleich verhalten. Das tun sie aber nicht. Sprich, man bekommt eine Art virtualisierte volle Kontrolle ähnlich RAM beim OS anfordern und wieder freigeben. Kann man sicherlich machen aber ein free/delete ist dann eher ein "hint" denn eine harte Anweisung.
DrumDub
2023-06-26, 15:06:02
Sobald du auch nur eine Abstraktionsschicht hast, kannst du nicht davon ausgehen, dass du die volle Kontrolle hast. Und die volle Kontrolle gibt es offenbar auch nicht mit DirectX12 und Vulkan. Sonst würden sich alle GPUs ziemlich exakt gleich verhalten. Das tun sie aber nicht. Sprich, man bekommt eine Art virtualisierte volle Kontrolle ähnlich RAM beim OS anfordern und wieder freigeben. Kann man sicherlich machen aber ein free/delete ist dann eher ein "hint" denn eine harte Anweisung. so isses.
Mal ein weiterer Gedanke zu Spieleoptimierung:
Spielehersteller sollten gar nicht mehr dieses low-bis-ultra-Spiel spielen. MMn reicht ne Basiseinstellung und eine advanced Einstellung (Textureinstellung hier kann sich ja automatisch an VRAM-Pool anpassen). Alles weitere sollte man dem Spieler überlassen. Man braucht keine 5 presets von denen 3 nie benutzt werden, das ist nur aufwendig in der Optimierung und fürn Arsch, weil zufrieden ist doch eh keiner. Und ich würde mir eine Sammelfunktion für Film-Features wünschen wie Chromatische Aberration, Filmkörnung, und Bewegungsunschärfe wünschen, weil ich damit alle (in meiner Empfindung) Schrottfeatures abschalten könnte mit einem Schalter :D.
Hier ein paar Werte des Stand jetzt gemeinsten Spiels (mal sehen, wie lange noch): Ratchet & Clank - Rift Apart (https://www.pcgameshardware.de/Ratchet-und-Clank-Rift-Apart-Spiel-73185/Specials/Benchmark-Test-Review-PC-Version-1425523/2/)
6 vs. 12 GiB, 8 vs. 16 GiB (und 8 vs. 10 bei Radeon), ziemlich eindrücklich.
MfG
Raff
gnomi
2023-08-01, 12:48:40
Haben ist besser als brauchen.
Wie sieht es denn mit angepassten Textureinstellungen aus?
Die 53% Lücke bei der 4060TI/Full HD kriegt man vielleicht klein mit vertretbaren Kompromissen.:confused:
6 oder 8 GB VRAM sind bei Neukauf natürlich nicht empfehlenswert, aber alles unter 4070 ist auch zu langsam irgendwie.
phoenix887
2023-08-02, 08:26:36
Den VRAM Hunger kann ich Unter Linux nicht bestätigen. In WHQD Max Out bis auf RT komme ich mit meiner RX 6800 nicht über 10 GB. Egal wie lange ich spiele.
Nach meiner meiner Meinung ist Windows und RT nichts anderes wie ein Subventionsprogramm für Grafikkarten.
Den VRAM Hunger kann ich Unter Linux nicht bestätigen. In WHQD Max Out bis auf RT komme ich mit meiner RX 6800 nicht über 10 GB. Egal wie lange ich spiele.
Das deckt sich doch gut mit den Benchmarks - WQHD ist nicht Worstcase, Rasterizing ist nicht Worstcase -> 8-GiB-Karten kämpfen, gehen aber nicht komplett ein. Erst mit Raytracing, allem und scharf braucht man mindestens 12 GiB, damit's fluffig läuft.
MfG
Raff
phoenix887
2023-08-02, 13:36:07
Das deckt sich doch gut mit den Benchmarks - WQHD ist nicht Worstcase, Rasterizing ist nicht Worstcase -> 8-GiB-Karten kämpfen, gehen aber nicht komplett ein. Erst mit Raytracing, allem und scharf braucht man mindestens 12 GiB, damit's fluffig läuft.
MfG
Raff
Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.
DrFreaK666
2023-08-02, 19:06:35
Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.
Reflexionen gabs auch auf der PS5 mit AMD-Hardware
The_Invisible
2023-08-02, 19:46:33
Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.
RT/PT ist einfach der nächste Schritt in der Spielegrafik oder willst heute noch irgendwas ohne Shader spielen... das wird in Zukunft einfach normal sein
Holundermann
2023-08-02, 23:39:09
Programmiert jemand in C oder C++ und meint die Kontrolle über den RAM zu haben? Da habe ich auch eine schlechte Nachricht. :)
https://lemire.me/blog/2020/03/03/calling-free-or-delete/
Natürlich hat man in c/c++ die volle Kontrolle über den Speicher - das wird in dem Artikel auch in den Kommentaren diskutiert - halt nicht wenn man mmalloc und free verwendet sondern die syscalls auf denen die aufsetzen.
dildo4u
2023-08-08, 06:15:10
Paar Werte von Baldursgate 3 mit DX11 und Vulkan.
https://www.techpowerup.com/review/baldur-s-gate-3-benchmark-test-performance-analysis/5.html
SimonGreen
2023-08-10, 20:18:33
Weiß jemand wie Baldur's Gate 3 auf folgendem System laufen wird?
Seit 08.08.2023 gibt es auch den neuen Nvidia v536.99 Treiber mit BG3 "Verbesserungen"
4k, full details
Ryzen 3600
RTX 2070 8GB
32GB RAM
Hat das jemand getestet? Evtl auch mit neuem Treiber?
vinacis_vivids
2023-08-10, 20:29:52
~25fps kriegste vllt.
Thunder99
2023-08-10, 20:37:01
Nimm DLSS, dann passt das.
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/
Eine RTX 2070 liegt zwischen 2060 und 2070S -> 25-30 Fps in einem GPU-lastigen Gebiet. Schaltest du DLSS Performance ein, werden daraus ~50.
Der neue Treiber ist übrigens genauso schnell wie der alte.
MfG
Raff
Razor
2023-08-11, 07:14:15
Der neue Treiber ist übrigens genauso schnell wie der alte.
Wer hätte das gedacht ;D
Razor
gnomi
2023-08-11, 11:38:58
2070-3060 TI 8GB VRAM und DLSS 2 Niveau werden wohl doch noch bisschen länger reichen.
Wer die Anforderungen überreizt, muss mit einer starken Franchise unterwegs sein und Optimierungen in Aussicht stellen.
Ansonsten bleiben PC Versionen zunehmend schlecht verkauft liegen.
BG 3 ist löblich umgesetzt. Ich bin trotzdem auch gespannt, wie die Konsolen Fassung mit COOP so rüberkommt.
Könnte mir das durchaus vorstellen schön am Fernseher, wenn die Bedienung einwandfrei ist...
Lurtz
2023-08-11, 16:04:37
Ansonsten bleiben PC Versionen zunehmend schlecht verkauft liegen.
Ist das so?
gnomi
2023-08-13, 17:45:50
Tendenziell imho schon.
Allerdings steht auch jetzt nicht immer die Technik allein im Vordergrund.
Wenn das Spiel für den PC Markt prinzipiell interessant ist und viele anspricht, dann wird ja auch vom Start weg zunächst gut gekauft.
Und ein paar Patches bei spezielleren Problemen sind auch noch keine so extreme Sache außer bei so Freaks wie in den Foren.
Auf lange Sicht denke ich allerdings, dass sich die eher schlechten technischen Umsetzungen und hohen GPU Preise unvorteilhaft auswirken können.
Es gab dazu auch schon Zahlen vom PC Markt 2022 mit schwachen Software Umsätzen. Allerdings bräuchte man da schon noch die Daten der nächsten Monate und Jahre.
Im Falle von Sony liefen aber auch einige Sachen sehr zufriedenstellend.
God of War auf jeden Fall. Horizon und Days Gone ganz okay.
Spiderman hat sich gut verkauft. Last of Us wegen paar Problemen aber dann wohl etwas unter den Erwartungen.
Returnal und Ratchet sind wohl nicht so Favoriten. Waren auf Playstation aber auch keine ganz großen Hits. Vorhandene Inhouse Engine Technologie oder UE ist aber vielleicht generell nicht so aufwendig.
Die Umsätze sind natürlich hoch, denn vorher gab es für PC Fans nichts zum Spielen. Start Bonus.
Aber da muss man einfach abwarten, ob Sony das auch durchzieht mit den Veröffentlichungen. Natürlich freue ich mich da über jedes zeitnah umgesetzte Spiel. Falls die allerdings nur billig Cash einnehmen wollen mit suboptimalen Umsetzungen, werden die schnell merken, dass der PC Markt da vielleicht etwas schwieriger ist.
Microsoft hat das auch auf die harte Tour gelernt. Mittlerweile kann man im Game Pass sehr gleichberechtigt und auf der Wunschplattform zeitgleich neue Veröffentlichungen spielen.=)
Lurtz
2023-08-13, 17:56:45
Naja, der große Trend ist recht eindeutig - es spielen mehr denn je am PC und auch die Umsatzanteile gegenüber den Konsolenplattformen sind stabil, da muss man sich eher Gedanken um die XBox machen. Hat schon seinen Grund wieso Microsoft den PC wieder so in den Fokus gesetzt hat, und dafür sogar "Strafgebühr" bei Valve zahlt statt nur Gamepass und Windows Store zu nutzen.
Und auch für viele andere Publisher hat der PC einen großen Umsatzanteil oder ist wie bei Capcom teils sogar die stärkste Plattform mitunter.
Aber klar, gewisse Dinge wie die teuren Grafikkartenpreise könnten auf Dauer problematisch sein, wobei der Konsolen-Generationssprung ja nun erstmal bewältigt wurde. Und wenn man sieht wie schlecht viele Current-Gen-Spiele abseits von Sony-Exklusivtiteln (;)) auf den Konsolen performen ist da auch nicht mehr viel Headroom für Performance-Verschlechterungen am PC über, der ja immerhin auch von Upsampling und Co profitieren kann.
Als Sparsamer VRAM-JÜnger kann man sich Starfield auf jeden Fall geben.
Nicht mal UHD ohne Upsampling lässt 8GB überlaufen.
Entsprechend matschig sieht es auch aus :-)
1. Bild nach dem Intro
https://abload.de/img/starfield_startsbe0w.png (https://abload.de/image.php?img=starfield_startsbe0w.png)
2. Nach 2h der Story folgen.
https://abload.de/img/starfield_firstraisp.png (https://abload.de/image.php?img=starfield_firstraisp.png)
Mal sehen, wann die ersten Grafikmods spawnen. :biggrin: Wundert mich ehrlich gesagt, dass da nicht direkt ein (optionales) HD-Texturen-Paket bereit steht, denn der Partner ist schließlich AMD.
MfG
Raff
latiose88
2023-09-02, 04:16:03
Villeicht hat AMD nicht genug gezahlt oder die brauchen noch ne Zeit bis das Vernünftig in das Spiel gepatcht wird ,wer weis.
Ich weis warum,weil AMD ja mehr Speicher hat als Nvidia.Damit die einen klaren Vorteil geniesen können wie der mehr an Speicher und so.
aufkrawall
2023-09-02, 04:20:07
Villeicht hat AMD nicht genug gezahlt oder die brauchen noch ne Zeit bis das Vernünftig in das Spiel gepatcht wird ,wer weis.
Die wesentlich plausiblere Variante (so ein Dünnpfiff btw.) ist, dass AMD's und Bethesda's Zusammenarbeits-Gelaber reine heiße PR-Luft ist, bis auf FSR 2 als Abfallprodukt von den Konsolen (+DLSS-Sabotage).
Lurtz
2023-09-02, 11:39:47
An die Frankenstein-Engine kann man sicher niemanden setzen, der sich nicht zuvor jahrelang eingearbeitet hat, insofern.
The_Invisible
2023-09-02, 13:50:24
Mal sehen, wann die ersten Grafikmods spawnen. :biggrin: Wundert mich ehrlich gesagt, dass da nicht direkt ein (optionales) HD-Texturen-Paket bereit steht, denn der Partner ist schließlich AMD.
MfG
Raff
Wie sehr willst AMD bei Starfield noch failen lassen? :freak:
OCmylife
2023-09-02, 14:43:58
Als Sparsamer VRAM-JÜnger kann man sich Starfield auf jeden Fall geben.
Nicht mal UHD ohne Upsampling lässt 8GB überlaufen.
Entsprechend matschig sieht es auch aus :-)
1. Bild nach dem Intro
https://abload.de/img/starfield_startsbe0w.png (https://abload.de/image.php?img=starfield_startsbe0w.png)
2. Nach 2h der Story folgen.
https://abload.de/img/starfield_firstraisp.png (https://abload.de/image.php?img=starfield_firstraisp.png)
Die Bäume erinnern mich leider an eine Morrowind Mod und das Spiel ist von ... 2002? Okay, auch von Bethesda, aber irgendwie wirkt es an so manchen Stellen doch etwas zu altbacken. Wird mich sicherlich nicht davon abhalten es nach Release zu kaufen, aber ein fader Beigeschmack bleibt bei der benötigten Hardware für das Gebotene dennoch.
][immy
2023-10-31, 15:04:54
Um das Thema mal wieder auf zu bringen, Alan wake 2 scheint aktuell zu zeigen das es auch mit "wenig" vram geht. 8gb stellt keine Limitierung dar. Allerdings ist es ansonsten auch ziemlich fordernd und wohl erst in Zukunft voll ausgefahren wirklich gut spielbar.
dildo4u
2023-10-31, 15:18:59
Kommt drauf an RT füll den Speicher nur sind die Midrange Karten zu langsam für 1440p.
4060 TI 16GB 29fps, 8GB 7fps.
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html
The_Invisible
2023-10-31, 15:42:35
[immy;13426885']Um das Thema mal wieder auf zu bringen, Alan wake 2 scheint aktuell zu zeigen das es auch mit "wenig" vram geht. 8gb stellt keine Limitierung dar. Allerdings ist es ansonsten auch ziemlich fordernd und wohl erst in Zukunft voll ausgefahren wirklich gut spielbar.
Kommt mit max Details in 4k + PT/DLSS-Q/FG auf gute 15-16GB VRAM. Aber skaliert anscheinend nicht schlecht wenn man es auch mit einer 6GB 2060 zocken kann.
][immy
2023-10-31, 15:46:57
Kommt drauf an RT füll den Speicher nur sind die Midrange Karten zu langsam für 1440p.
4060 TI 16GB 29fps, 8GB 7fps.
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html
Jep, da ist dann aber raytracing einfach wirklich zu viel ;)
War eher ein Bezug darauf das es in letzter Zeit immer wieder Spiele auch ohne RT geschafft haben den Speicher scheinbar sinnlos zu füllen und überproportional an Performance zu verlieren.
Bei AW2 ist dies erst mit Ray tracing und path tracing tatsächlich der Fall. Hier schaffen es auch die rdna2 Karten schneller zu sein als die Ampere Karten. Aber trotzdem nicht im spielbaren Bereich (3,4 vs 10 fps)
Ja dieses Spiel wird wohl das neue Crysis für eine Weile sein.
Kommt mit max Details in 4k + PT/DLSS-Q/FG auf gute 15-16GB VRAM. Aber skaliert anscheinend nicht schlecht wenn man es auch mit einer 6GB 2060 zocken kann.
Und sieht mit reduzierten Details nicht nach Matsche aus ;)
basix
2023-10-31, 22:42:34
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html
Interessant sind die 4K Raytracing Werte: 12GByte Karten von Nvidia brechen weg, AMD Karten nicht. Dito bei den 1440p Pathtracing Benches und 8 GByte Karten. Und noch extremer 4K PT wo dei 7700XT mit 12 GByte noch mithält und alle anderen AMD & Nvidia Karten mit 12 GByte nicht.
dildo4u
2023-11-01, 03:37:01
Die 7800XT läuft richtig gut in Alan Wake und die Kosten aktuell kaum mehr als 4060Ti 16GB.
Hatstick
2023-11-01, 11:06:01
* Wer möchte 4k spielen und hat nur eine 12GB im PC? Keine geeignete Kombo!
* Der Gegenspieler der 7800XT ist die RTX 4070, das sie gegen eine 4060Ti immer recht gut aussieht ist klar, diese ist auch 30% langsamer wie die RTX 4070 und wird immer schlecht gegen eine 7800XT aussehen, weil andere Leistungsklasse.
dildo4u
2023-11-01, 11:08:58
Auf die Preise achten in der EU sind 4060Ti 16GB dichter bei der 7800XT als 4070.
Hatstick
2023-11-01, 11:15:31
Will da nVidia nicht verteidigen aber sieht dann natürlich sehr wohlwollend geschönt aus, wenn man die 4060Ti gegen die 7800XT aufstellt.
Sehe die RTX 4070 klar als 7800XT Gegenspieler, egal ob die 4060Ti jetzt 20€ näher dran ist. Trotz allem bleibt ne ganz andere Leistungsklasse wie die 4070.
Thunder99
2023-11-01, 11:20:06
8GB sind nicht mehr zeitgemäß. Am Beispiel von Alan Wake 2 sieht man aber auch, der Hunger lässt sich stillen mit den Einstellungen.
Cyberpunk 2.x und Alan Wake 2 im max. Details RT Setting sind das neue Crysis :freak:
Ihrer Zeit voraus bzw nur mit Tricks möglich den Detailgrad flüssig anzuzeigen.
DrFreaK666
2023-11-01, 11:20:24
Kauft man nach Leistungsklasse oder nach Preis? 7800XT 13% teurer als 4060Ti. Die 4070 ist nochmals 10% teurer. Wenn die 4060Ti zu langsam und die 4070 zu teuer ist, dann ist die 7800XT eine gute Wahl.
Zu beachten ist natürlich, dass es bei AMD zur Zeit kein Spiele-Bundle gibt, bei der 4070 allerdings schon
vinacis_vivids
2023-11-10, 07:35:57
https://abload.de/thumb/farcryr610.11.202307grezs.webp (https://abload.de/image.php?img=farcryr610.11.202307grezs.webp)
23,5GB belegt und 20GB benutzt mit FC6 HD-Texturen (5120X2160) X 1,3 = 6656 X 2808 pixel.
gnomi
2023-11-10, 09:43:28
Far Cry ist einfach verschwenderisch.
Hatte gestern bisschen an der Auflösungsskalierung gespielt und dann auch eine Warnmeldung zum VRAM kassiert.
Letztendlich sind die Grafiken und Texturen doch ein wenig überholt.
UE5 in Immortals of Aveum bringt da ein viel schöneres Gesamtbild mit den Texturen bei überraschend gutem VRAM Verbrauch. Liegt natürlich auch am besseren Upscaling, womit man nicht auf native Auflösungen mehr angewiesen ist.
Und da werden wir ja einige Titel mit der Engine sehen.
Insofern bin ich da jetzt doch leicht entspannt, dass man mit 8GB immerhin einigermaßen Spaß in Full HD und mit 12 GB keine nennenswerten Probleme bis UWQHD hat die nächsten 1,2 Jahre.
16 sollten dann mit Upscaling bis 4K reichen.
Neue Anforderungen dann erst mit schnelleren Konsolen und bei Epic und modifizierten Settings.
Alan Wake 2 bspw. ist quasi für drei Generationen gemacht.
2080 Liga eher Raster oder wenig Auflösung. 3080 bisschen RT oder mehr Auflösung. Und 4080 dann eventuell schon mal PT probeweise oder volle Auflösung.
Wer wirklich hochauflösende Texturen haben möchte, muss verschwenderisch sein.
Lurtz
2023-11-10, 11:54:47
Sieht wie kompletter Müll aus gegenüber UE5 mit 8-10 GB VRAM-Belegung :ugly:
gnomi
2023-11-10, 11:56:58
Imho braucht es eher eine hohe Qualität für gängige VRAM Budgets. (8/12/16)
Nach Oben raus kann man sicher mehr anbieten.
Verschwenderisch wie zum Beispiel unkomprimierte Texturen wie in Doom3/Quake 4 wirken im Nachhinein allerdings lachhaft, wenn neue Spiele mit im Gesamtbild detaillierteren Grafiken und moderneren Techniken kommen. Für PC mit näherem Sitzabstand sollte man natürlich bis zu einem gewissen Grad mehr anbieten.
Wir sahen, dass es viele HD Textur Pakete gab, als die PS4/Xbox One Konsolen immer mehr limitierten und mit Pro und One X erweitert wurden.
Die Fortschritte fand ich zumeist allerdings überschaubar.
Zum Glück kommt jetzt mehr moderne Technik statt paar Extra Texturen und hochgezogene Details auf alte Engines.
dildo4u
2023-11-10, 12:26:09
Die nächsten Ubisoft Games sind zum Glück Snowdrop immer noch extrem Performant ohne massiven Vram Hunger.
Anvil und Dunia gehören beerdigt Far Cry und Assassin’s Creed sehen minimal 5 Jahre gleich aus.(Assassin’s Creed Origins ist von 2017!)
vinacis_vivids
2023-11-10, 12:33:53
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.
Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:
https://abload.de/img/farcryr610.11.202306gveuc.webp
Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.
Exxtreme
2023-11-10, 12:48:02
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.
Ob man nativ oder per Upscaler rendert ist für den VRAM-Verbrauch praktisch nicht relevant. Denn auch in niedrigerer Auflösung werden alle Mipmaps der Texturen vorgehalten. Ausnahmen sind natürlich Texturen, die höher aufgelöst sind als die Bildschirmauflösung. Das lässt sich gut wegoptimieren. Aber so hoch aufgelöste Texturen sind extrem selten.
][immy
2023-11-10, 17:13:22
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.
Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:
https://abload.de/img/farcryr610.11.202306gveuc.webp
Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.
Du merkst aber schon das da was nicht ganz stimmen kann in der engine. Trotz quasi gleichem Bildinhalt deutlich mehr Speicherverbrauch. Am Rendertarget liegt die Erhöhung des Verbrauchs jedenfalls nicht. Da kamen nur ein paar mehr MB bei rum (trotz quadratischem Wachstum bei der Auflösung). Eher an fehlenden Optimierungen der engine im Zusammenspiel mit den Textur Packs. Aber Spiele sind meist nur auf das "normale" Niveau optimiert. Alles darüber hinaus zahlt man meist mit überdurchschnittlich viel Hardware.
aufkrawall
2023-11-10, 17:24:40
Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:
https://abload.de/img/farcryr610.11.202306gveuc.webp
Das sieht aus wie komplette Rotze gegen Talos 2, das mit <10GB läuft:
https://abload.de/img/screenshot_20231108_2eee7a.png (https://abload.de/image.php?img=screenshot_20231108_2eee7a.png)
Nanite-Terrain könnte den VRAM-Verbrauch bei gleichzeitig gesteigerter Qualität auch noch weiter senken. Ggf. löst das auch das sichtbare Terrain-Streaming bei Drehungen.
Das HWRT in Dunia ist auch ein Witz schon gegen SWRT-Lumen. Gut, dass selbst Ubisoft so einen Murks mittlerweile mal beerdigt.
Relex
2023-11-12, 14:40:34
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.
Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:
https://abload.de/img/farcryr610.11.202306gveuc.webp
Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.
Ich finde FarCry 6 ein schlechtes Beispiel für das was du sagen willst. Passt nicht zu deinen Worten.
Denn das Spiel sieht für mich in nativer Auflösung aus, als hätte man irgend nen total veralteten Upscaler oder irgend ein Checkerboarding genutzt, das sich nicht abschalten lässt. Wenn mir in den letzten Jahren ein Spiel mit besonders schlechter Bildqualität aufgefallen ist, dann Far Cry 6...
Die Grafik kann man sich ohne Downsampling kaum geben, so grisselig sieht das alles aus.
Die Texturen sind jetzt auch nicht so geil.
Bin da voll und ganz bei aufkrawall.
Gegen next bzw. current gen Engines stinken die alten Spiele ziemlich ab.
Vor allem zeigen moderne Engines, dass man nicht alles mit Speicher erschlagen muss. Der VRAM Hunger eines Far Cry ist ein witz. Die UE5 schafft bei halb so viel Speicher sehr viel schärfere Texturen und geometrie darzustellen bei gleichzeitig massiv höherer Bildqualität. Und was bei gleichem Speicherverbrauch möglich wäre kann man sich jetzt noch kaum ausmalen.
basix
2023-11-12, 15:20:48
Zum Glück kommt jetzt mehr moderne Technik statt paar Extra Texturen und hochgezogene Details auf alte Engines.
Jop. Mesh Shaders in AW2 zeigen es bereits für Geometrie. Und die UE5 sowieso schon.
Bei Texturen ist es bei der UE5 stark mit Nanite und dessen Streaming verknüpft. Was auch sehr gut funktioniert. Andere Spiele sollten aber mal mit Sampler Feedback Streaming und Direct Storage antanzen.
Gegen next bzw. current gen Engines stinken die alten Spiele ziemlich ab.
Vor allem zeigen moderne Engines, dass man nicht alles mit Speicher erschlagen muss. Der VRAM Hunger eines Far Cry ist ein witz. Die UE5 schafft bei halb so viel Speicher sehr viel schärfere Texturen und geometrie darzustellen bei gleichzeitig massiv höherer Bildqualität. Und was bei gleichem Speicherverbrauch möglich wäre kann man sich jetzt noch kaum ausmalen.
Es gibt aber auch einfach schlechte oder fehlerhafte Implementierungen. TLOU1 zeigte extrem schlechte Texturdetails. Mit einem Patch wurde das behoben, bei gleichzeitig sogar deutlich weniger Speicherverbrauch: https://youtu.be/L8bg9coF6AA?t=285
The_Invisible
2023-11-19, 17:33:43
Alan Wake 2 habe ich zum Schluss hin bis zu knapp 18GB gesehen, in 4k+DLSSQ+FG+PT@max. Cache wirds wohl nicht so sein da bei Szenenwechsel der VRAM ziemlich geleert wird.
Ansonsten wäre ich jetzt bei knapp 11 Monate Nutzung noch nie an die 24GB rangekommen (jeweils auch mit DSR) bei spielbaren fps, bin ja gespannt ob die 5090 nochmals mit 24GB kommt ;)
basix
2023-11-20, 08:38:08
Die Wahrscheinlichkeit auf 24GB ist relativ hoch. Allerdings stünden bei GDDR7 endlich 24 Gbit Chips an. +50% VRAM über alle Produktsegmente wären nice, vor allem bei der unteren Hälfte des Produkt-Stacks. Nvidias 4060er kranken an 8GByte und die 12GByte der 4070er können je nach Situation nur noch wenig Reserve haben. 12GByte bzw. 18/15GByte wären hier ziemlich ideal. 36GByte bei der 5090 wäre aber eindeutig Overkill ;) Hatte zwar auch schon Situationen, wo die 24 GByte nicht ausreichten. Das waren aber allesamt 8K Experimente und das war dann auch mit der 4090 nicht spielbar. Die 5090 könnte aber in die Spielbarkeit vordringen.
Thunder99
2023-11-20, 09:40:08
11GB war ihrer Zeit voraus wie auch die 24GB. Man kann es nutzen aber das Groß der Spiele braucht man es nicht.
Finde es sehr wichtig das wieder an der Effizienz vom Speicherverbrauch gearbeitet wird.
vinacis_vivids
2023-11-20, 13:22:20
~20GB
jyUHCEoNCLQ
Bisschen Evidenz zum Thema "Tatsächlicher Bedarf": 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Tests/16-vs-12-GByte-Geforce-RTX-4070-Ti-Super-vs-RTX-4070-Ti-1439313/)
Ist ein Spin-off aus dem TiS-Test mit etwas mehr Erläuterung drumherum. Wird auch im Video thematisiert.
-> Wer alles nutzen möchte, das eine neue Geforce kann, sollte 16 GiB haben.
MfG
Raff
Lurtz
2024-03-06, 10:56:16
Why VRAM’s So Important For Gaming: 4GB vs. 8GB ('https://www.youtube.com/watch?v=Gd1pzPgLlIY')
Mit visuellen Vergleichen.
DrFreaK666
2024-03-06, 11:35:08
Deshalb hab ich mich für die 6700XT und gegen die 3060Ti entschieden
redpanther
2024-03-06, 13:52:03
Bisschen Evidenz zum Thema "Tatsächlicher Bedarf": 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Tests/16-vs-12-GByte-Geforce-RTX-4070-Ti-Super-vs-RTX-4070-Ti-1439313/)
Ist ein Spin-off aus dem TiS-Test mit etwas mehr Erläuterung drumherum. Wird auch im Video thematisiert.
-> Wer alles nutzen möchte, das eine neue Geforce kann, sollte 16 GiB haben.
MfG
Raff
Hätte es interessant gefunden, wenn bei der non super noch geprüft würde was für Auswirkungen hat, wenn man nur mal den Textur Regler in den Spielen eine oder gar 2 Stufen runter stellt.
Performance Gleichwertig wie die Super?? Bekommt man Augenkrebs wegen low res Texturen?
Mir ist klar das man nicht alle Einstellbaren Parameter Testen kann, aber Textur Auflösung liegt ja doch sehr nah und wird vermutlich beim Speicher die größten Auswirkungen haben, oder?
Crazy_Chris
2024-03-06, 16:04:26
letztens im FS2020 knapp 19Gb VRAM Verbrauch mit einer 7900XT. Und dabei ist um Grunde nüscht zu sehen. :freak:
gnomi
2024-03-08, 10:02:08
Hätte es interessant gefunden, wenn bei der non super noch geprüft würde was für Auswirkungen hat, wenn man nur mal den Textur Regler in den Spielen eine oder gar 2 Stufen runter stellt.
Performance Gleichwertig wie die Super?? Bekommt man Augenkrebs wegen low res Texturen?
Mir ist klar das man nicht alle Einstellbaren Parameter Testen kann, aber Textur Auflösung liegt ja doch sehr nah und wird vermutlich beim Speicher die größten Auswirkungen haben, oder?
Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.
Mit 12GB ist auch UWQHD bis 4k oft möglich.
Mehr Ram ist immer besser, aber die Verschwendung/Ansprüche von Ultra Einstellungen und das Testen vorwiegend Hardware lastiger Games sollte man auch im Hinterkopf haben.
Genauso, dass PCGH für unsere Blase von ein paar tausend Hardware Freaks schreibt und kein Interesse daran hat, Artikel zu bringen, dass ein fünf Jahre altes System bereits über PS5 Niveau performt und im Grunde genommen völlig ausreicht. ;)
Als Beispiel kann ich Steel Rising bringen, was ein ziemlicher Hardware Fresser ist.
Mit der 3080TI die Texturen nicht auf Ultra. Performance soweit okay in UWQHD.
Jetzt mit 4080S und 4K kann man mal alles auch ohne Frame Generation aufdrehen, da eben über 40% mehr Power und 1/3 mehr VRAM.
Letztendlich ist es auch in Sachen Bildqualität schicker.
Allerdings gingen auch 2K in die Aufrüstung GPU und Monitor, was sich dann für mich erst nach 1-2 Dutzend cooler Spiele bzw. ab 500 Spielstunden und mehr anfängt zu lohnen.
Ist schon genial soweit, wenn alles sorgenlos einstellbar ist.
Nach Oben hin bekommt man nur immer weniger. Und wenn man seine Ansprüche dann maximiert, wird man auch gut abkassiert von den Firmen.
ChaosTM
2024-03-08, 10:38:01
Das alte Thema.: "Geplante Obsoleszenz" vs."stellen wir doch einfach die Qualität runter".
Für NV ist Lösungsweg Nr. 1 natürlich wirtschaftlich gesehen der bessere, aber als Kunde hat man gsd. meist selbst die Wahl.
Wenn ich einen Tausender oder mehr ausgebe, will ich keine Kompromisse eingehen müssen.
Andere sparen lieber und verzichten auf das letzte Quäntchen.
Und der FS2020 verballert in jeder Lebenslage viel zu viel VRAM - bzw alloziert diesen (nur?).
Dort hängt die Flüssigkeit meist/oft von der Geschwindigkeit der Internet Leitung
ab.
Exxtreme
2024-03-08, 11:50:39
Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.
Richtig. Es gibt das Gesetz des abnehmenden Grenzertrages und das trifft auch auf Computerspiele zu. Man hat jetzt eine Stufe bei der Computergrafik erreicht, dass man die Grafikqualität kaum noch steigern kann, ausser man nimmt exorbitant höheren Ressourcenverbrauch inkauf.
Was jetzt noch helfen könnte wären hier und da neue Verfahren. Z.B. könnte man bessere Texturkompression einführen. Denn die Texturkompression, die in DirectX verwendet wird, hat jetzt 27 Jahre auf dem Buckel. Eventuell gibt es hier schon etwas viel besseres.
Yep. Letzteres ist schon krass. Nvidia hat vor einiger Zeit recht beeindruckende WIP-Geschichten (https://research.nvidia.com/publication/2023-08_random-access-neural-compression-material-textures) gezeigt, die alle Speicherprobleme lösen würden. Wobei, natürlich nicht - Spiele würden damit bei gleicher Allokation einfach viel hübscher. Finally. So ein Zeug gehört ohne proprietären Code in DirectX. Version 13 werden wir wohl nie sehen, weil Aberglaube und so, aber wo zum Henker bleibt DirectX 14? ;)
MfG
Raff
The_Invisible
2024-03-08, 12:10:10
Die Texturen sind meistens eh schon gut genug bzw kann UE5 diese auch gut streamen ohne den RAM vollzuballern. Lieber bessere Beleuchtung und vor allem Physik... bei letzterem ist man irgendwo bei den Physx Karten stehengeblieben bzw hat sich sogar verschlechtert...
Lurtz
2024-03-08, 13:31:57
Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.
Mit 12GB ist auch UWQHD bis 4k oft möglich.
Mehr Ram ist immer besser, aber die Verschwendung/Ansprüche von Ultra Einstellungen und das Testen vorwiegend Hardware lastiger Games sollte man auch im Hinterkopf haben.
Genauso, dass PCGH für unsere Blase von ein paar tausend Hardware Freaks schreibt und kein Interesse daran hat, Artikel zu bringen, dass ein fünf Jahre altes System bereits über PS5 Niveau performt und im Grunde genommen völlig ausreicht. ;)
Als Beispiel kann ich Steel Rising bringen, was ein ziemlicher Hardware Fresser ist.
Mit der 3080TI die Texturen nicht auf Ultra. Performance soweit okay in UWQHD.
Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss.
Avatar mit Unobtanium Setting und DLSS3 Mod in 4K DLSS Q ist definitiv zu viel für 16 GB. Da kräftig in den RAM ausgelagert.
https://cdn.discordapp.com/attachments/957686950364598322/1215399515201343518/afop_2024_03_07_20_51_47_423.jpg?ex=65fc9c01&is=65ea2701&hm=fe0026f00dd13f94414ef003bfb799486d37ed08f62c739a128fe69a69a063e3&
https://cdn.discordapp.com/attachments/957686950364598322/1215399516115705856/afop_2024_03_07_20_47_39_098.jpg?ex=65fc9c01&is=65ea2701&hm=e108e14491766719b90c4260840e07e3583835be1501d90fd4fad186f0beca75&
https://cdn.discordapp.com/attachments/957686950364598322/1215399516841185340/afop_2024_03_07_20_54_37_870.jpg?ex=65fc9c01&is=65ea2701&hm=1e82d1c7dc53a0d63a4010543a5059cbd629225097d0e60ca0e23eaab22e0a56&
Die FPS sind zwar recht stabil mit kleinen Drops hier und da, aber man merkt es schon.
gnomi
2024-03-08, 15:30:45
Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss.
Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.
Aktuelles Futter mit praxisnahen Settings:
weRqYqhA8dQ
MfG
Raff
dildo4u
2024-04-29, 09:42:30
Danke für das Video und Helldivers nutzt nicht UE sondern eine alte Engine die kein Support mehr hat.(Autodesk Stingray)
https://www.pcgamer.com/helldivers-2-engine-bitsquid-autodesk-stingray
Jo, eigentlich weiß Phil das, aber Lampenfieber macht manchmal Dinge. :D Leider hat's in der Korrektur niemand bemerkt.
MfG
Raff
blaidd
2024-04-29, 17:22:29
Danke für das Video und Helldivers nutzt nicht UE sondern eine alte Engine die kein Support mehr hat.(Autodesk Stingray)
https://www.pcgamer.com/helldivers-2-engine-bitsquid-autodesk-stingray
Jo, mein Fehler, sorry. Hab mich auch schon tüchtig geärgert^^
Da bin ich irgendeiner Falsch-Meldung aufgesessen. Normalerweise muss man da hauptsächlich bei UE4 und UE5 aufpassen, was das alle ständig durcheinanderwerfen (btw. auch Experten wie der hier – Homeworld 3 ist UE4.27 (https://youtu.be/xG5wRhFeelM?t=1753)) aber ab und an werden auch mal andere Spiele da mit reingeworfen (a lá "Plague Tale Requiem zeigt zweifelsohne die brandgeile Next-Gen-Grafik der UE5" – nein, tut es nicht. :rolleyes:). Ich sollte wohl einfach aufhören, irgendwelchen News bezüglich Spiele-Engine/Technik zu glauben ;)
Hätten wir das "richtig" in Form eines Tech-Artikels durchgetestet, hätte ich mehr Aufmerksamkeit auf die Entstehung/den Entwicklungsprozess gelegt. Hier bzw. in den Test im Heft hab ich es hauptsächlich mit reingepackt, weil es gerade erschienen war, ich eine Testversion hatte und das Spiel obendrein einige Popularität genießt (es läuft zudem gut, was außerdem sehr praktisch war, da es bei den Benchmarks nahezu das perfekte Ergebnis für "Nicht-Speichermangel" abbildet.).
Auf Autodesk Stingray hätte ich allerdings auch nicht getippt.^^
Da dachte ich auch tatsächlich mal (https://www.pcgameshardware.de/Warhammer-Vermintide-2-Spiel-61276/Specials/Direct-X-12-Benchmarks-Test-Review-1252228/), die wäre mit Vermintide 2 gestorben (ist sie aber [noch immer!] nicht. Darktide (https://en.wikipedia.org/wiki/Warhammer_40,000:_Darktide) nutzt die auch noch!)
EDIT: Und sorry für das gehäufte "basically" und "kinda". :rolleyes: Ich habe immer ein paar Füllwörter, die ich für eine Weile besonders häufig nutze, aktuell sind es die beiden. Vorher haben sich alle über "tatsächlich" oder "im Grunde" geärgert, offenbar habe ich das dann konsequent unterbewusst eingedenglischt.^^
Könnt auch für Videos "indes" auspacken, aber damit ärgere ich lieber unsere Print-Leser :cool:
Achill
2024-04-29, 20:14:26
[..]
Könnt auch für Videos "indes" auspacken, aber damit ärgere ich lieber unsere Print-Leser :cool:
Gibt noch "derweil", "sowieso" oder das gute alte "nun" ... musst nur gut mixen ;)
blaidd
2024-04-29, 23:01:21
Gibt noch "derweil", "sowieso" oder das gute alte "nun" ... musst nur gut mixen ;)
"mich dünkt...". Endgegner^^
"Mich dünkt an dieser Statt mein aufrecht strebsames Verlangen;
Ob Wahrheit Wahrheit sei, dies Urteil bleibt indes in eurer statt Belangen."
;)
Hakim
2024-05-12, 22:11:20
gerade beim yt schauen das aufgefallen:
https://s20.directupload.net/images/240512/temp/g54ljex6.jpg (https://www.directupload.eu/file/d/8552/g54ljex6_jpg.htm)
50% mehr Vram bei der 7800xt? Oder halt 1/3 Weniger als die AMD Karte, je Nachdem wie man es betrachtet. Der Unterschied ist aber dennoch irgendwie zu Groß oder nicht? Spiel ist Diablo 4
aufkrawall
2024-05-12, 22:38:20
Poste doch den Link?
https://youtu.be/IjoYGpqs7aw?t=893
Er alloziert halt mit Nvidia weniger VRAM, ggf. wegen rBAR-Limit oder was auch immer. Läuft trotzdem auf der 12GB-Karte schlechter. Finde ich irgendwie die relevantere Information als die Zahl, die laut OSD für die VRAM-Allozierung angegeben wird. :freak:
Weil die Zahl halt im Grunde wertlos ist.
Hakim
2024-05-12, 22:43:50
ja stimmt sry, hätte ich direkt machen sollen.
Exxtreme
2024-05-12, 22:45:48
Und man sollte auch bedenken, dass diese Zahl nur anzeigt wieviel VRAM angefordert und zugesichert wurde. Diese Zahl sagt aber nicht aus wieviel VRAM auch wirklich benutzt wird. Das ist von aussen nicht auslesbar.
Hakim
2024-05-12, 22:49:56
Glaube Diablo 4 mit dem Ultra Texturen, welches man sogar bei der Installation separat anklicken und installieren muß, will schon 16 GB Vram, daher auch die Spikes ab und an bei der Nvidia Karte vermutlich
aufkrawall
2024-05-12, 22:56:32
Aber zugegebenermaßen ein extremer Fall, dass er in 1080p nur 9.xGB alloziert und es trotzdem schon ruckelt. Wobei ich diesen YTber auch für unzuverlässig halte. Bei ihm ruckelte es auch schon mit Radeon in diversen Spielen seltsam, was ich nicht nachstellen konnte. Keine Ahnung, ob seine Ergebnisse für D4 stimmig sind.
Jedenfalls macht rBAR hier in Witcher 3 RT direkt mal 2GB Unterschied nach dem Laden aus. Mit GeForce ist das afaik nicht so ausgeprägt, aber die Vorteile halt auch nicht.
Weil die Zahl halt im Grunde wertlos ist.
Nee, is eben nicht nutzlos. Die Zahl die das Spiel nutzt, ist wertlos. Weil der VRAM wird dennoch belegt, ob nun vom Spiel oder dem Rest im Hintergrund. Was das Spiel nutzt, interessiert mich eigentlich am wenigsten. Was gesamt genutzt wird, das ist relevant.
Und was nun allocated ist und was nicht, siehste bei RTSS sowieso nicht. Du siehst was der process an VRAM braucht und was das gesamte System an VRAM braucht. Guck mal in Afterburner was da steht.
aufkrawall
2024-05-12, 23:44:43
Was denn nun? System-Verbrauch irrelevant oder nicht? Scheinst dir selbst zu widersprechen.
Und was einfach nur reserviert wird oder real beschreiben wird, siehst du sowieso nicht.
Womit wir wieder bei dem Punkt wären, dass nur ein Test mit einer Karte mit noch mehr VRAM Aufschluss gibt, ob genug VRAM vorhanden ist oder nicht. Was auch das Video genau zeigt, sofern die Performance-Werte nicht durch handwerkliche Fehler unbrauchbar sind.
Besser wär natürlich noch 12GB GeForce vs. 16GB GeForce.
Ahh, Missverständnis.
Ja relevant für mich ist nur noch der Hauptverbrauch und der sollte es auch sein. Weil wenn ein Game 11 GB braucht wie bei Grayzone, du hast aber nur 12, dann biste mit dem Hintergrund wie Windows, etc, bereits drüber. Die Info das Spiel braucht 11 GB ist also nutzlos.
Platos
2024-05-13, 00:06:40
Und man sollte auch bedenken, dass diese Zahl nur anzeigt wieviel VRAM angefordert und zugesichert wurde. Diese Zahl sagt aber nicht aus wieviel VRAM auch wirklich benutzt wird. Das ist von aussen nicht auslesbar.
Und trotzdem ist das die relevante Zahl. Wenn das Spiel plötzlich noch mehr anfordert, dann hat es nicht mehr zur Verfügung. Ob das nun gebraucht wird oder nicht.
Ist beim RAM übrigens genau so. Da crasht dir jede Anwendung dann, wenn dir der zugesicherte RAM ausgeht, nicht der tatsächlich "gebrauchte" (ohne Auslagerungsdatei. Sonst wird das natürlich aufgefangen).
aufkrawall
2024-05-13, 00:47:45
Natürlich ist Systemverbrauch relevanter als die per App-Metrik. Die kann auf 8GB-Karten auch 6GB anzeigen, wenn es dann schon wie völliger Mist läuft. Und "die Leute" checken es nicht und meinen, das reicht. :freak:
Die ist aber auch nicht allein relevant, wie die Stocker bei 9,xGB (mutmaßlich) Systemverbrauch mit 12GB-Karte zeigen. Klarheit gibts nur durch Test mit mehr VRAM.
Sweepi
2024-05-13, 10:05:50
Aktuelles Futter mit praxisnahen Settings:
https://youtu.be/weRqYqhA8dQ
MfG
Raff
Hi Raff,
blöde Frage:
Warum ist eigentlich den Artikel (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikspeicher-2024-1445859/) einzeln zu kaufen ein anderer Shop als das Heft digital (https://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-06-2024-Magazin-284-DVD-Download-PDF-1445847/) zu kaufen?
Blaze
2024-05-17, 22:39:24
Das hab ich auch noch nie erlebt: Ich komme mit meiner RX7800XT in 1080p ins VRAM Limit und hab heftige Nachladeruckler. WTF? Ist das Spiel echt so mies optimiert? Es handelt sich um Ghost Recon Wildlands, also auch nix wirklich aktuelles.
Edit: Ich hab bei Techpowerup Tests gefunden wo 1080p Ultra in etwa 4GB verbrauchen soll. Wieso brauche ich das vierfache? :ulol:
https://i.ibb.co/jvyb1MJ/GRW-2024-05-17-22-32-43-623.png (https://ibb.co/DD9zSCr)
Weil Du das 4k Texturpaket installiert und nicht vergessen hast die Texturen auf Ultra zu schalten?
Ich weiß ja nicht wie viele Patches ins Land gegangen sind aber 10GB hab ich damals auch gesehen^^
aufkrawall
2024-05-18, 00:24:31
Ins Blaue geraten: Spiel und Ressourcenverwaltung des Treibers mögen sich nicht.
CoD Warzone ist auch seltsam, läuft wie völliger Mist mit der VRAM-Allozierungsoption >50%. Mal sehen, ob das mit GeForce auch so ist (tippe nein).
ChaosTM
2024-05-18, 01:03:26
Avatar klettern im Unobtanium Mode (4k DLSS, FG) nach ein paar Stunden schon "nahe" an das 24GB Limit.
21GB sind keine Seltenheit. Mehr hab ich aber noch nicht gesehen..
Wie viel wirklich gebraucht wird sei dahingestellt, aber beim VRAM sparen geht nie gut aus.
Alles unter 12 für WQHD bzw 16 für UHD ist sinnfrei wenn man Neu kauft.
Blaze
2024-05-18, 06:47:22
Weil Du das 4k Texturpaket installiert und nicht vergessen hast die Texturen auf Ultra zu schalten?
Ich weiß ja nicht wie viele Patches ins Land gegangen sind aber 10GB hab ich damals auch gesehen^^
Ist das so? Ich hab es einfach nur von Ubisoft Connect installiert, da konnte man nicht mal extra was auswählen. Aber ja, Ultra ist es natürlich.
Wie viel wirklich gebraucht wird sei dahingestellt, aber beim VRAM sparen geht nie gut aus.
Alles unter 12 für WQHD bzw 16 für UHD ist sinnfrei wenn man Neu kauft.
Ich dachte eigentlich mit 16GB für 1080p wäre ich safe :ulol:
The_Invisible
2024-05-18, 09:04:55
Das hab ich auch noch nie erlebt: Ich komme mit meiner RX7800XT in 1080p ins VRAM Limit und hab heftige Nachladeruckler. WTF? Ist das Spiel echt so mies optimiert? Es handelt sich um Ghost Recon Wildlands, also auch nix wirklich aktuelles.
Edit: Ich hab bei Techpowerup Tests gefunden wo 1080p Ultra in etwa 4GB verbrauchen soll. Wieso brauche ich das vierfache? :ulol:
https://i.ibb.co/jvyb1MJ/GRW-2024-05-17-22-32-43-623.png (https://ibb.co/DD9zSCr)
Sicher das kein 4xSSAA oder so an ist? :D
Blaze
2024-05-18, 14:48:54
Muss irgendein Bug gewesen sein, bin gerade wieder ins Spiel und hatte an gleicher Stelle diesmal nur 8,5GB.
Edit: Ok, ich kann es reproduzieren. Ich hab gestern bevor ich ins Spiel bin den internen Benchmark laufen lassen, aber mit 200% Auflösungsskalierung, also 4K, da hat er mit 15,9GB am VRAM Limit gekratzt. Habe dann wieder auf 100% zurück gestellt und der allocated memory blieb aber komischerweise selbst im Menü bei über 14,5GB, als ob er in der Zwischenzeit den Speicher nicht wieder freiräumt. Wenn ich das Spiel einmal komplett neu starte ist wieder alles in Ordnung...
Lurtz
2024-05-30, 16:38:07
Zumindest mit 12 GB VRAM-GPUs läuft irgendwann der Speicher beim eigentlich sehr genügsamen Hellblade 2 voll. Nach Neustart gehts dann wieder deutlich besser.
Bei Ghost of Tsushima gibts auch schon wieder Berichte von "Memory Leaks", was halt meist "optimierte" Systeme oder RAM/VRAM-Mangel bedeutet.
Sowas merkt man halt nur wenn man auch mal spielt, nicht nur bencht. Schätze 12 GB werden nur leicht besser als 8 altern...
Zumindest mit 12 GB VRAM-GPUs läuft irgendwann der Speicher beim eigentlich sehr genügsamen Hellblade 2 voll. Nach Neustart gehts dann wieder deutlich besser. Sowas merkt man halt nur wenn man auch mal spielt, nicht nur bencht. Schätze 12 GB werden nur leicht besser als 8 altern...
Ja, und vor allem wird immer das Spiel total isoliert betrachtet, was einfach realitätsfern ist. Windows wird immer alleine mindestens einen weiteren GB oder mehr brauchen. Und keiner schließt alles und jedes, wenn er spielt. Es sind doch immer irgendwelche Apps im Hintergrund offen. Ich habe bei maximalen Details, 4K DLAA und Framegeneration maximal 10,3 GB VRAM-Bedarf vom Spiel Hellblade alleine gesehen. Mit zusätzlichen Anwendungen im Hintergrund waren es dann knapp über 13 GB – zum Beispiel Discord und ähnliches. Das ist doch der Normalfall. Und da sind dann eben die 12 GB auch schon wieder zu wenig.
Wir müssen aufhören, Spiele immer isoliert zu betrachten. Das ist einfach unrealistisch. Zumindest muss klar und deutlich gesagt werden, was der gesamte VRAM-Bedarf des Systems ist. Dieses Fokussieren auf den VRAM-Bedarf des Spiels alleine Spielen ist viel zu unrealistisch und isoliert und hilft letztendlich niemandem.
Hier hatte ich noch nicht das ganze Chromatic Aberration und Filmgrain abgeschaltet und auch noch die Balken aktiv. Und dennoch sind es auch hier direkt am Anfang vom Game 10 GB alleine und mit Browser und Discord im Hintergrund dann auch schon mehr als 12 GB.
-->
https://i.ibb.co/FBdkGZX/Hellblade2-Win64-Shipping-2024-05-21-20-33-00-318-1x-Gain-RESV3-Natural.webp
ChaosTM
2024-05-30, 17:25:43
Ist das so? Ich hab es einfach nur von Ubisoft Connect installiert, da konnte man nicht mal extra was auswählen. Aber ja, Ultra ist es natürlich.
Ich dachte eigentlich mit 16GB für 1080p wäre ich safe :ulol:
Avatar @4k Unobtanium Mode - DLSS Quality + FG (NV mode) -> immer um die 20GB
Das ist momentan so ziemlich das schlimmste was man einer Graka antuen kann. Die 4090er* macht das ohne jemals unter 60fps zu fallen..
*momentan @ 70% power..
aufkrawall
2024-05-30, 18:00:12
Zumindest mit 12 GB VRAM-GPUs läuft irgendwann der Speicher beim eigentlich sehr genügsamen Hellblade 2 voll. Nach Neustart gehts dann wieder deutlich besser.
Schon mit rBAR off probiert?
Fortnite mit neuem UE 5.5 Branch knackt mir jetzt auch mitunter mal die 11GB in nativen 1440p @max (natürlich unrealistisch niedrige fps).
Und das ist mit dem derzeitigen Streaming eigentlich auch immer noch viel zu wenig, so sichtbar, wie das Terrain bei Kameradrehungen reinstreamt.
Mal sehen, ob es im nächsten Chapter dann die 12 knackt.
dildo4u
2024-05-31, 07:51:18
Hier Hellblade zeigt wohl Artefakte wenn der Vram ausgeht aber keine Plan ob das auf High-End Karten auftaucht.
https://youtu.be/xYI96lZRb20?si=tdSQBZc5bA9Latsq&t=906
Lurtz
2024-05-31, 14:53:58
Schon mit rBAR off probiert?
Scheint besser zu laufen. Sollte man das ohne 16 GB Geforce einfach deaktivieren? :ugly:
Ich hab rBAR noch nie angerührt. Habs nun mal aktiviert im inspector.
Lurtz
2024-05-31, 15:15:46
Kann an der Stelle natürlich auch ein Memory Leak gewesen sein, der erste Patch spricht jedenfalls davon:
Fixed a few cases of memory leaks game-wide.
aufkrawall
2024-05-31, 18:32:48
Scheint besser zu laufen. Sollte man das ohne 16 GB Geforce einfach deaktivieren? :ugly:
Ist pauschal leider nicht zu beantworten. In Aveum etwa reduziert es eingeschaltet (wohl immer noch nicht Standard...) auch auf einer 4070 deutlich Ruckler bei Kameradrehungen/Traversal (auf Kosten von etwas stärker sichtbarem Terrain-Streaming). Dafür hat man ja den Inspector mit den ganz besonders gut zugänglichen Flags. :tongue:
gnomi
2024-06-01, 09:55:20
Habe nie das aller neuste Bios bei meinem I9 9900KF mehr aufgespielt.
AFAIK kam rBAR Support wohl noch...
Hatte mit 12GB VRAM bis UWQHD auf einer 3080TI allerdings auch keine Probleme bis Ende 2023.
Gerade auch die ersten UE5 Sachen wie Immortals of Aveum, Robocop Rogue City oder Jusant.
Mich wundert, dass UE5 bei Hellblade 2 VRAM seitig derart anspruchsvoll ist.
Jetzt bin ich wegen 4k auf 4080S mit 16GB gewechselt.
Das wird aber nur eine Übergangslösung. Hauptsache, ich muss nichts sonst umbauen und es reicht als Puffer für alle Sachen, die im Zuge von PS5 Pro in nächster Zeit noch so kommen.
Mich wundert, dass UE5 bei Hellblade 2 VRAM seitig derart anspruchsvoll ist.
Ganz ehrlich, ich habe das von Anfang an gesagt. Aber bei PCGH und so wurde ja immer der geringe VRAM-Bedarf gelobt und so… Alles Quatsch. Grafische Qualität und Texturen sowie Details kommen irgendwoher und brauchen VRAM.
Die meisten Games, die wir mit UE5 hatten, waren doch alle "Nieten" oder nur AA Produktionen von der grafischen Qualität her. Hellblade 2 zeigt erstmals, was in UE5 eigentlich steckt. Wenn dann Black Myth: Wukong mit Pathtracing im August kommt, wird das sicher auch ein optisches Fest werden und viel VRAM brauchen.
Jetzt bin ich wegen 4k auf 4080S mit 16GB gewechselt. Das wird aber nur eine Übergangslösung.
Ich habe es auch nur als Übergangslösung geplant. Ich denke, es wird eine 5090 werden, auf jeden Fall nicht wieder 16 GB. Die werden bald zu wenig sein.
gnomi
2024-06-01, 10:12:13
Zumindest mit 12 GB VRAM-GPUs läuft irgendwann der Speicher beim eigentlich sehr genügsamen Hellblade 2 voll. Nach Neustart gehts dann wieder deutlich besser.
Bei Ghost of Tsushima gibts auch schon wieder Berichte von "Memory Leaks", was halt meist "optimierte" Systeme oder RAM/VRAM-Mangel bedeutet.
Sowas merkt man halt nur wenn man auch mal spielt, nicht nur bencht. Schätze 12 GB werden nur leicht besser als 8 altern...
8GB VRam sind imho nicht schlecht gealtert.
Also ich kam damit 2016-2021 super klar.
Am Anfang mit 1080 WQHD alles sehr komfortabel.
Am Ende mit 2080 in UWQHD halt knapper.
Man muss allerdings Turing auch DLSS 2 und RT anrechnen.
12 GB VRAM stufe ich als etwas schwieriger jetzt ein, wenn grafisch aufwendige Games mit UE5 und im Zuge von PS5 Pro kommen.
Zum Beispiel GTA 6.
Die Karte wird das aber vermutlich genauso brauchbar hinbekommen wie eine 2080 zuletzt noch ein Watch Dogs Legion (paar Sachen anpassen)
Die RT und Rohpower ist nahezu doppelt so hoch.
Und mit Upscaling und Textur Anpassungen hat man eben sehr viele Möglichkeiten.
Ich empfehle ja auch immer einen Puffer wegen unsauber portiert/Cash In.
Und High End ist nvidia geizig.
Nur zu sagen, es funktioniert nicht, stimmt eben nicht.
Kann mich auch nicht erinnern, dass AMD 6800/7800 einen höheren Marktanteil trotz mehr VRam herausholte.
Relex
2024-06-01, 10:19:24
Mich wundert, dass UE5 bei Hellblade 2 VRAM seitig derart anspruchsvoll ist.
Warum anspruchsvoll?
Es sind maximal 10,3 GB in Hellblade laut 1ch0.
Das Spiel wird aber vermutlich auch mit deutlich weniger auskommen.
Da wo ich gerade stehe sinds 6,7 GB mit DLSS Quality in 4K mit FG und sobald ich DLAA anmache springt es auf 8,3 GB hoch.
Also alleine 4K nativ haut schon sehr ordentlich rein und Quality Upsampling spart schon sehr viel.
Wenn man rBAR aus macht könnte man sicherlich nochmal 0,5-1GB einsparen.
Das läuft wahrscheinlich selbst mit ner 8GB Karte noch ordentlich in 4K mit max Settings wenn man performance upscaling nutzt (was auf 8 GB Karten aus performancegründen eh notwendig wäre).
Aber ich denke mal, dass 8GB user eher 1440p mit DLSS Quality anvisieren und da geht der VRAM Bedarf in Hellblade dann auf 5,6 GB runter (ohne Frame Gen nach dem Neustart sogar nur 5,4 GB).
Wird natürlich mit der Spielzeit mehr, aber das sagt ja nichts aus, weil da nur die Engine Seitigen Puffer gefüllt werden, die ja nicht zwingend notwendig sind, um eine Szene ruckelfrei darzustellen.
Zumal ich jetzt gar nicht wüsste, wie sich die UE5 bei VRAM Mangel verhält.
Ob es sofort anfängt zu ruckeln oder ob Texturen verzögert geladen werden und wie viel als Puffer allokiert wird.
Warum anspruchsvoll?
Es sind maximal 10,3 GB in Hellblade laut 1ch0.
Es ist halt auch eine vergleichsweise begrenzte Spielwelt, muss man auch sagen. Mal abwarten, was passiert, wenn wir größere Spiele bekommen und Open World in dieser Qualität haben.
Relex
2024-06-01, 10:36:08
Da die UE5 Texturen Schatten und Geometrie Virtualisiert, vermute ich, dass das gar keinen wirklichen Unterschied macht ob Open World oder begrenztere Spielwelt.
Was bei einem virtualisierten Ansatz zählt ist wahrscheinlich nur der Detailgrad im aktuellen View.
Die UE5 City Demo hat doch auch nicht viel Speicher gebraucht und die UE5.2 Demo mit dem Fahrzeug im Jungel auch nicht. Auch wenn ich die genauen Werte jetzt nicht mehr weiß.
gnomi
2024-06-01, 10:55:14
Ganz ehrlich, ich habe das von Anfang an gesagt. Aber bei PCGH und so wurde ja immer der geringe VRAM-Bedarf gelobt und so… Alles Quatsch. Grafische Qualität und Texturen sowie Details kommen irgendwoher und brauchen VRAM.
Die meisten Games, die wir mit UE5 hatten, waren doch alle "Nieten" oder nur AA Produktionen von der grafischen Qualität her. Hellblade 2 zeigt erstmals, was in UE5 eigentlich steckt. Wenn dann Black Myth: Wukong mit Pathtracing im August kommt, wird das sicher auch ein optisches Fest werden und viel VRAM brauchen.
Ist eben eine Sache des Standpunktes.
Es werden hunderte Spiele kommen. Die UE5 kann möglichst alles.
Die meisten Sachen werden einfacher konzipiert sein und es nicht so krachen lassen wollen.
Hellblade 2 ist ja AFAIK 30fps Target Konsole.
Immortals 60fps Target mit notfalls Performance Upscaling.
Ersteres habe ich mir auch nicht angesehen bislang muss ich sagen.
Von letzterem kenne ich PC und Konsolen Fassung.
Letztendlich muss eben alles PS5 und PS5 Pro laufen.
Beim PC werden 8 GB Karten vom Support denke ich zunehmend liegen gelassen.
12GB bleiben erstmal drin. Bin gespannt, wie lange die 3080 dazwischen noch brauchbar ist.
Letztendlich geht aber viel über Einstellungen und die sehr vielen technischen Anpassungen und Weiterentwicklungen.
Einfach nur alles Hochziehen ist nicht die einzige Betrachtungsweise.
Ich habe es auch nur als Übergangslösung geplant. Ich denke, es wird eine 5090 werden, auf jeden Fall nicht wieder 16 GB. Die werden bald zu wenig sein.
GTA 6 kommt ja AFAIK jetzt erst einmal konsolenweit Ende 2025.
Mit der PC Fassung ab vermutlich Ende 2026 werden wir dann sehen, wie es um 4070TI/4080/4080S Performance so steht.
Bis dahin rechne ich nicht mit extremen Problemen.
Auf über 1500€ für eine GPU habe ich nicht so Lust für die letzten 30-40%.
Und dann die Uralt CPU Basis bei mir. Deshalb keine 4090.
Mal sehen, wie exklusiv die Leistung und die Features der 5090 werden.
Nur für CashIn und unsaubere (verspätete) Portierungen das noch rauszuhauen. :confused:
Andererseits. Wahrscheinlich wird das technisch trotzdem wieder genial. Warum also nicht? :wink:
Da die UE5 Texturen Schatten und Geometrie Virtualisiert, vermute ich, dass das gar keinen wirklichen Unterschied macht ob Open World oder begrenztere Spielwelt.
Da hast du recht. Mir ist es auch aufgefallen. Im Grunde wird direkt alles im Speicher abgelegt, und daher ist das recht stabil bei 10-11 GB. Also, maximal 11 GB sind es jetzt, was ich gesehen habe.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88357&stc=1&d=1717233185
dildo4u
2024-06-01, 11:16:50
Du muss im Low End massiv Upsampling nutzen daher merkt keiner was mit 8GB Karten.
Die 3060 hat massive Probleme mit 1080p kein Vorteil durch 12GB.
uNT2XNcvdNA
gnomi
2024-06-01, 11:27:23
Warum anspruchsvoll?
Es sind maximal 10,3 GB in Hellblade laut 1ch0.
Das Spiel wird aber vermutlich auch mit deutlich weniger auskommen.
Da wo ich gerade stehe sinds 6,7 GB mit DLSS Quality in 4K mit FG und sobald ich DLAA anmache springt es auf 8,3 GB hoch.
Also alleine 4K nativ haut schon sehr ordentlich rein und Quality Upsampling spart schon sehr viel.
Wenn man rBAR aus macht könnte man sicherlich nochmal 0,5-1GB einsparen.
Hab's nicht gespielt. Danke für die Infos.
Also anspruchsvoller als bisheriges, aber gut einstellbar/beherrschbar.
Würde auch eher die Einstellung teilen, dass mit UE5 alles recht gut im Rahmen bleiben sollte.
Natürlich ist die schnellste GPU immer sorgenfrei.
Aber normalerweise dann auf brauchbarer Gamer GPU ab derzeit 500€ neu ein Erlebnis klar über der schnellsten Konsole am Markt.
Ist halt die Frage jetzt. Ärgern sich 12GB Käufer überhaupt groß bei kleinen Auffälligkeiten, oder sind die nicht eh schnell nach 2-4 Jahren mit der nächsten Karte und dem Fortschritt erneut glücklich.
Es könnte tatsächlich so sein, dass die Performance bei UE5 entscheidender als VRam ist. Stehen auch weniger 4k Displays auf dem Schreibtisch wie 4k Fernseher in Wohnzimmern. Und dann die guten Upscaling Technologien und FG.
Lurtz
2024-06-01, 12:28:03
Bei DF meinten sie man braucht so eine Grafikqualität grundsätzlich nicht bei OpenWorld-Spielen zu erwarten, das wäre immer noch viel zu sehr durch manuellen Aufwand und damit hohe Kosten limitiert.
The_Invisible
2024-06-01, 12:42:46
Gestern kurz DD2 mit dem neuen FG Patch versucht, laut Menü verbraucht FG allein so 0,5gb. Bin dann vom Land in die Stadt gerennt und 16gb waren voll, das war nur in 4k+dlss-q mit über 100fps, mit DSR kommt man da wohl auch leicht über 16gb
ChaosTM
2024-06-01, 12:45:56
Wie viel "echtes" Open World mit vielen Assets und einem ähnlichen Detailgrad an VRAM frisst, sieht man schön an Avatar.
Bin schon auf die ersten Spiele dieser Art gespannt.
aufkrawall
2024-06-01, 21:58:12
Avatar ist eher ein Positivbeispiel, weil es auch mit knappem VRAM nicht einbrechen soll. Ob das nach längerer Spieldauer, inkls. rBAR, wirklich so ist, sei mal wieder dahin gestellt.
Hab btw. bei Bro auf 4090 in 4k DLSS Q + FG schon 12,xGB Belegung in Hellblade gesehen. Bin mir nicht sicher, ob ich mir den Psycho-Kram auch für 1€ im GP antun wollte...
Ich glaube, da geb ich lieber Robocop eine Chance.
Wie viel "echtes" Open World mit vielen Assets und einem ähnlichen Detailgrad an VRAM frisst, sieht man schön an Avatar.
Bin schon auf die ersten Spiele dieser Art gespannt.
Ich denke, wir werden etwas Ähnliches bei Star Wars Outlaws erleben. :) Ich bin schon gespannt. :)
ChaosTM
2024-06-01, 22:06:35
Bei Hellblade hatte ich kaum mehr als 10, aber das war in ein paar Sitzungen durch.
Robocop ist sehr genügsam. Schaut auch nicht sehr gut aus. Eher wie ein UT4 Spiel ohne viele Details, aber mit ganz guter Beleuchtung.
das sollte ich auch mal fertig spielen, aber da kamen andere Spiele dazwischen.
Ich hab nun auch mal ein Auge drauf gehabt und in Hellblade 2 nun auch nach längerer Spielzeit fast 12 GB gesehen.
dildo4u
2024-06-15, 05:27:42
Hauptsächlich neue AAA Games im Test
nrpzzMcaE5k
Das ist ein verdammt gut gemachtes Video, muss ich sagen, weil er gut erklärt, wie die Zusammenhänge sind. Jeder Gamer sollte es zuerst anschauen, bevor er über die Performance in Spielen meckert.
Ich hab nun auch mal ein Auge drauf gehabt und in Hellblade 2 nun auch nach längerer Spielzeit fast 12 GB gesehen.
Ich habe vorgestern die 20-GiB-Marke geknackt. :devil: Das Spiel scheint nicht hinter sich aufzuräumen, sodass lange Sessions mit vielen Szenenwechseln den VRAM immer weiter füllen. Mit 6K-DLDSR + DLSS Quality + Frame Generation startet's bei etwa 13 GiB und klettert dann. Aber das ist natürlich in jeder Hinsicht ein "perverses" Setting.
MfG
Raff
gnomi
2024-06-15, 11:39:05
Ob sich tatsächlich so viele mit 8GB VRam beschweren?
2016 war das noch viel und so lange noch PS4/Xbox One Versionen von Games kamen auch kein Problem.
Ab 4070 sind wir bei nvidia dann bei 12GB, was selbst für die PS5 ehemaligen Exklusivspiele langt.
Mit PS5 Pro werden wir dann mit 16GB bisschen mal gucken müssen.
Es sollte aber noch gehen.
Natürlich ist man geknickt, weil man immer mehr will und knapp VRam bekommt.
Nur die Ergebnisse finde ich jetzt nicht schlecht bei angepassten Einstellungen.
Zu 360 und PS3 Zeiten haben sich die Entwickler oft eine coole, zeitnahe PC Version geschenkt. Ein Splinter Cell Chaos Theory war die Ausnahme.
Teilweise bei UE3 nicht mal eine zugängliche Ini Datei.
Das fand ich eher schlimmer, als heutzutage bisschen im Menü einstellen oder paar Wochen mehr auf Optimierungen bei einem eh jahrealten Port warten. Okay, aber die Ansprüche sind halt auch anders. Schon klar. :D
dildo4u
2024-06-15, 11:54:10
Wäre imo weniger schlimm wenn die mit der 2020 XBox beworbene Techniken genutzt werden würden
Selbst High Tech Games in 2024 wie Hellblade 2 stocken deutlich mit 8GB und das ist so Linear wie es überhaupt nur geht.(Best Case um das Streaming zu Kontrollieren)
Hier die Sampler Feedback Demo von 2021 wäre nützlich für Serie S und Nvidia Mainstream Karten.
https://youtu.be/n0sMmt-rSzQ?si=68PjuviZtJFjEaQp&t=428
DrFreaK666
2024-06-15, 12:23:36
...Mit PS5 Pro werden wir dann mit 16GB bisschen mal gucken müssen.
Es sollte aber noch gehen...
Die PS5 Pro wird sicherlich ein Nischenprodukt. Und da es von MS keinen Konkurrenten gibt, wird es erst mit der nächsten Konsolengeneration richtig interessant
gnomi
2024-06-15, 17:04:41
Stimmt auch wieder.
Bald ein bisschen schade.
@ Hellblade 2
Auf der Konsole gibt es doch genug VRam ganz ohne Hänger.
Allerdings nur 30 fps im Gegenzug.
Auf einer 2080 aus 2018 zum Beispiel kann man nicht unbedingt erwarten, dass das alles dann 6 Jahre später mit maximalen Settings bei 60 fps passt.
Finde minimale Hänger bei Übergängen oder ein Absenken der Texturen zwar unschön, aber hinnehmbar bei so einem Game.
Stärkeres Upscaling oder dynamische Auflösung gehen ja auch noch.
Also da hätte ich von UE 5 jetzt Schlimmeres erwartet.
Hellblade 2 dürfte das aktuell vorbildlichste Game sein.
dildo4u
2024-06-15, 17:36:41
Digital Foundry weißt auf diese UE5 Fails hin da es so viele Games mit der Engine geben wird und sie auf permanente Lösungen hoffen.
Die Serie S hat z.b 10GB für das ganze System und läuft sauber was bemerkenswert ist.
gnomi
2024-06-16, 13:02:08
Mal sehen, wie das so weitergeht.
Mit der Series S hat man hier zwar mal Glück, ist aber dennoch Kunde zweiter Klasse.
Turing findet sich aktuell auch zunehmend bei den Minimal Anforderungen für High Details bei modernen Games.
Eine GPU unter 2070 kann man bald gar nicht mehr empfehlen zum Spielen.
Mit einigen kleinen Macken der Engine musste man in jeder Generation leben.
Bin da recht abgeklärt und ohne sofortige Erwartung an den nächsten Titel.
dildo4u
2024-06-24, 11:19:57
Er kann den Vram füllen die AMD Karten Krebsen dann aber unter 30fps rum nicht sonderlich Interessant.
P2qs2lLdWHY
Er kommt aber auch wieder mit dem “It’s just allocated…” Who cares. Wenn der Gesamtverbrauch über den VRAM der Karte geht, ist es egal, ob das Spiel selbst weniger braucht. Es ist zu wenig.
Relex
2024-06-24, 12:51:28
Ne, da würde ich widersprechen.
Die Spiele krallen sich fast immer mehr als sie brauchen und laufen dann auch auf Karten mit weniger Speicher 1:1 genauso schnell und smooth.
Solange die differenz sich im Rahmen des Puffers bewegt den das Spiel generiert merkt man das idr überhaupt nicht. Wahrscheinlich wird dann die I/O Last auf CPU/RAM Seite etwas höher, aber solange keine für die aktuelle Szene aktiv genutzten Daten aus dem RAM geholt werden müssen ist alles weitere nur ein Sicherheitspuffer den man ausreizen kann.
Klar für eine Kaufentscheidung würde ich sowas schon deutlich kritischer sehen. Da kauft man ungern etwas was eh schon auf Kante läuft, aber in der Praxsis ist es eben so wie geschrieben.
Kann davon selbst ein Lied singen hatte vor zwei Jahren 8 GB und vor vier Jahren 4 GB.
Die meisten Spiele haben nach dem wechsel auf was größeres deutlich mehr VRAM belegt, trotz gleicher Settings - und das bei Spielen, die null Probleme gemacht haben und saubere Frametimes hatten.
Die Gesamtauslastung ist logischerweise ein guter Indikator, aber wenns drauf ankommt eigentlich ziemlich nichtssagend, dafür sind die Streaming und Speicherverwaltungssysteme der Spieleengines einfach zu unterschiedlich.
aufkrawall
2024-06-24, 13:36:21
Die Spiele krallen sich fast immer mehr als sie brauchen und laufen dann auch auf Karten mit weniger Speicher 1:1 genauso schnell und smooth.
Nach zehn Patches vielleicht.
Ne, da würde ich widersprechen.
Naja, was gibt es da zu widersprechen. Die Gesamtauslastung ist nun mal das, was belegt ist, wodurch ist doch vollkommen egal. Ist ja nicht so, dass nur das Spiel auf dem PC läuft, sondern eben ein ganzes Betriebssystem, und das braucht auch alles Speicher. Wenn das Spiel 11 GB belegt, der gesamte Verbrauch aber auf 13-14 GB geht, dann ist das eben so. Mit einer 12 GB hast du da defacto schon Mangel.
Ex3cut3r
2024-06-24, 15:18:36
Er kommt aber auch wieder mit dem “It’s just allocated…” Who cares. Wenn der Gesamtverbrauch über den VRAM der Karte geht, ist es egal, ob das Spiel selbst weniger braucht. Es ist zu wenig.
Ne, da bist du auf dem Holzweg. Und Relex hat recht. Bei einer Karte mit mehr Speicher wird auch mehr belegt, wenn verfügbar, was tatsächlich gebraucht wird, kann wiederum ganz anders aussehen.
Relex
2024-06-24, 15:24:44
Naja, was gibt es da zu widersprechen. Die Gesamtauslastung ist nun mal das, was belegt ist, wodurch ist doch vollkommen egal. Ist ja nicht so, dass nur das Spiel auf dem PC läuft, sondern eben ein ganzes Betriebssystem, und das braucht auch alles Speicher. Wenn das Spiel 11 GB belegt, der gesamte Verbrauch aber auf 13-14 GB geht, dann ist das eben so. Mit einer 12 GB hast du da defacto schon Mangel.
Ist halt die Frage wie du Mangel definierst.
Denn ob es in dem Fall zu Performanceeinschränkungen kommt oder nicht hängt vom Spiel ab.
Manche Spiele werden völlig problemlos mit 12 GB laufen auch wenn die Auslastung auf größeren Karten bei 13-14 GB liegt. Bei manchen wirst du schlechtere Frametimes oder schlechtere avg FPS haben.
Was Spiele tatsächlich brauchen, sehen wir eh nie. Dazu müssten die Entwickler ein spieleigenes OSD anbieten, damit wir das beim Spielen sehen können.
Ich habe es bei Cyberpunk jedenfalls bemerkt, dass wenn der VRAM die 16 GB knackt, das Spiel und die Performance nachgeben. Das Spiel nimmt sich zu dem Zeitpunkt natürlich keine 16 GB, sondern eben ein paar GB weniger. Dennoch ist der VRAM dann voll und das System “gibt nach”.
aufkrawall
2024-06-24, 15:38:30
Ne, da bist du auf dem Holzweg. Und Relex hat recht. Bei einer Karte mit mehr Speicher wird auch mehr belegt, wenn verfügbar
Sehe ich nichts von nach Wechsel von 6700 XT auf 7800 XT.
Ex3cut3r
2024-06-24, 15:39:24
Dann belegen deine Spiele hat nicht mehr, sondern bewegen sich innerhalb des 8GB-Pools oder 10GB etc, mal etwas mehr und mal etwas weniger.
aufkrawall
2024-06-24, 15:41:43
8GB? Ging bei Hogwarts ohne RT nach Traversal auf 10,xGB hoch und das Spiel mistet auf beiden Karten quasi identisch bei der Marke aus.
Relex
2024-06-24, 16:23:46
Was Spiele tatsächlich brauchen, sehen wir eh nie. Dazu müssten die Entwickler ein spieleigenes OSD anbieten, damit wir das beim Spielen sehen können.
Ich habe es bei Cyberpunk jedenfalls bemerkt, dass wenn der VRAM die 16 GB knackt, das Spiel und die Performance nachgeben. Das Spiel nimmt sich zu dem Zeitpunkt natürlich keine 16 GB, sondern eben ein paar GB weniger. Dennoch ist der VRAM dann voll und das System “gibt nach”.
Jap, bei Cyberpunk stimme ich dir voll zu.
Wenn die Gesamtauslastung das VRAM Limit hittet, hast du sofort Probleme. Tendenziell sogar schon vorher.
Auf meiner 8 GB Karte hatte ich damals schon bei 7,5 GB Probleme. Da ist es dann immer kurz auf 7,9 GB hoch und dann wieder runter auf 7-7,5 und konstant performanceprobleme.
Das Problem hatte ich aber nur in 1440p nativ oder 4K. dafür war die Karte eh zu schwach.
Wie gesagt, es hängt sehr stark vom Spiel ab. Bei ich würde behaupten den meisten Spielen ist das Limit nicht so hart und du kannst selbst mit 10-20% weniger VRAM als auf einer größeren karte belegt wird genauso gut spielen.
][immy
2024-06-24, 18:59:41
Sehe ich nichts von nach Wechsel von 6700 XT auf 7800 XT.
Es gibt halt Spiele, die räumen immer auf und solche die lassen alles im Speicher solange bis dem System der Speicher quasi ausgeht und räumen dann auf. Letzteres hat den Vorteil Befehle einzusparen und eventuell kann ja doch was wiederverwendet werden. Da dient der massige Speicher dann nur als überdimensionierter Cache. Es mangelt halt nach wie vor an Techniken wirklich nur das zu laden was benötigt wird. Aber wenn es einmal geladen ist, kann man es ja trotzdem benutzen.
Hinzu kommen oft feste Quoten die Spiele nutzen. Z.b. x Prozent dafür etc und daran orientieren sich dann aufräum Tätigkeiten.
Wie so häufig kommt es auf die Implementierung an. Und besonders an Konsolenspielen sieht man, das nach wie vor der Hauptspeicher kaum genutzt wird, außer eben als puffer.l, denn Konsolen nutzen nach wie vor den größten Teil des Speichers für Grafikberechnung.
MS hatte doch mal so ein nettes Analysetool, Ei man sehen konnte, welche assets im Speicher quasi nie genutzt werden. Daher kam dann ja mehr oder minder die Idee nur zu laden was es wirklich auf den Schirm schaffen könnte.
Aber in dem Bereich ist es irgendwie komplett still geworden in den letzten Jahren und ssds werden eigentlich nur zu brute force Zwecken genutzt.
Ein anderes Problem der letzten Jahre ist natürlich, das scheinbar kein Entwickler mehr mit was anderem als einer rtx4090 zu testen scheint. Anders kann ich mir nicht erklären, warum spiele teilweise so erscheinen das eine Texturstufe runter schlechter aussieht, als Texturen von vor 15 Jahren.
VooDoo7mx
2024-06-25, 11:21:41
Hogwarts Legacy und auch Cyberpunk 2077 laufen problemlos auf meiner Notebook 4070 mit 8GiB RAM.
Beide Spiele in 1440p High Preset, DLSS Q.
Beide sogar mit locker 100fps+.
Ich weiß jetzt nicht wo das Problem sein soll.
Selbst mit Raytracing (nicht Pathtracing!) läuft Cyberpunk noch sehr gut auf der kleinen GPU.
Ich weiß jetzt nicht wo das Problem sein soll.
Jo, ich wette dir fehlen nur einige Texturen und so. ^^ Aber gut, wenn du das nicht merkst, dann kann man sicher damit gut spielen.
DrFreaK666
2024-06-25, 15:23:02
dx4En-2PzOU
aceCrasher
2024-06-25, 15:30:09
Jo, ich wette dir fehlen nur einige Texturen und so. ^^ Aber gut, wenn du das nicht merkst, dann kann man sicher damit gut spielen.
Er spielt in "high" nicht "ultra", also nur mit den zweithöchsten Texturen.
Ex3cut3r
2024-06-25, 16:09:10
Er spielt in "high" nicht "ultra", also nur mit den zweithöchsten Texturen.
CP77 verfügt nicht über Ultra-Texturen; die höchste Einstellung ist High. Es gibt jedoch verschiedene Texture Packs, die den VRAM-Verbrauch erhöhen können, teilweise aufgrund von Speicherlecks. Daher ist es schwierig, das Vanilla-Spiel mit einer modifizierten Version von CP77 zu vergleichen, zumal fast jeder hier mit einer leistungsstarken GPU ein Texturen-Paket installiert hat.
Relex
2024-06-25, 17:57:34
https://youtu.be/dx4En-2PzOU
Interessant, aber ohne Upscaling auch nicht praxisrelevant.
Wer spielt schon Cyberpunk Ultra RT in nativen 4K. Das ist auch auf einer 4090 viel zu langsam.
Und selbst bei den 12 GB Midrange karten wird man in 1440p bei solchen Settings immernoch Quality Upscaling nutzen, weil es sonst ebenfalls zu langsam ist.
Theorie und Praxsis sind hier leider ziemlich weit auseinander.
Lurtz
2024-06-25, 19:33:13
Als würde Upsampling da groß was dran ändern. 12 GB is the bare minimum. Punkt.
VooDoo7mx
2024-06-25, 19:42:03
Theorie und Praxsis sind hier leider ziemlich weit auseinander.
Vollkommen richtig.
Wenn wir mal bei der 4060Ti 8GiB (4070 Notebook) bleiben.
Ist das eine 1440p ULtra Raytracing Karte?
Ist das eine 4K Karte?
Jeder hier wird das beides mit nein beantworten. Trotzdem werden dann solche Szenarien dann herangezogen um dann auf den 8GiB Vram immer und immer wieder herum zu reiten.
Seht her, bei 4K Very High/ Ultra geht der 4060Ti der VRAM aus und die Karte stottert sich da mit 11fps ab. Und schaut mal wie toll das auf der 16GiB 4060Ti läuft. Ganze 28fps in 4K Very High. :ugly:
Man sieht es auch in den Video von Daniel Owen gut obwohl der permanent selber auf dem VRAM-Train rumreitet.
Wenn man bei Horizon Forbidden West beim High Preset bleibt, läuft das Spiel selbst bei 1440p nativ mit 60fps+ ohne Ruckler auf einer Stock 4060Ti.
Mit DLSS Q dann 80 fps+. Wenn man dann noch OC draufpackt nähert man sich dann den 100fps und hat dann immer noch die FG Option oben drauf.
Und wer sagt, dass Horizon Frobidden West mit 1440p, High Preset, DLSS Q an die 100fps ohne Stocker, keine gangbare Option wäre, hat sie einfach nicht mehr alle.
DrFreaK666
2024-06-25, 20:07:29
Vollkommen richtig.
Wenn wir mal bei der 4060Ti 8GiB (4070 Notebook) bleiben...
Die 4070 mobile ist eher eine 4060
Relex
2024-06-25, 20:26:35
Als würde Upsampling da groß was dran ändern. 12 GB is the bare minimum. Punkt.
Natürlich verändert das viel. Schau dir doch die Benchmarks an.
Habs vorhin mit Cyberpunk überprüft. Das deckt sich sehr gut mit den Werten im Video. 4K DLSS performance (also 1080p intern) 12-13 GB.
(PT und RT brauchen ca. gleich viel)
In nativ 4K unspielbar. Der VRAM ist voll, es laggt.
Ansonsten ja. 12 GB sollten absolutes Minimum sein, wenn man sich eh schon eine neue Karte kauft. Wer keine hohen Ansprüche hat, wird mit 8 GB wohl meistens noch zurecht kommen, aber das kann man auch nur gelten lassen, wenn man die Karte schon länger besitzt.
Für eine nagelneue Karte die mehr als 200€ kostet sind 8 GB die reinste Verarsche und in 2024 unzumutbar. Die Konsolen haben 16 GB und nutzen davon ca 12 GB für Grafikinhalte. Das ist die Baseline. Ähnlich wie die 6 GB der GTX1060 damals zur PS4/360 Zeit.
gnomi
2024-06-27, 10:08:19
Die 1060 6GB kam Juli 2016.
PS4/Xbox One mit 8GB bereits Ende 2013.
Xbox 360 Ende 2005.
12GB und nichts unter 4070 für Neukauf und aktuelle Spieletitel ist sicher eine gute Empfehlung. :up:
Mit 8GB kommt man dennoch klar.
Geht mir immer zu sehr unter in Nerd Foren.
Nicht jedes Spiel auch auf Konsole holt jetzt sonderlich viel raus und die Series S mit nur 10GB muss auch noch durchgeschleift werden.
Hätte ich nicht besseres, könnte ich auch auf meinen alten GPU's (2080 und 1060 im Surface Book 2) notfalls eine Menge bequem spielen.
Das macht den PC ja auch wieder sehr einzigartig.
Bis hoch zu 8K oder 360Herz und FG/RT reichen dann die Ansprüche und Möglichkeiten.
Und die mittlerweile auch auf PC verspätet kommenden Sony Exklusiv Titel sehe ich als weiteren Bonus.
Trotzdem kann Hardware prinzipiell recht langlebig mittlerweile laufen.
Lurtz
2024-06-30, 23:04:05
Cool, Avatar scheint neuerdings auch einfach zu crashen mit 12 GB Grafikkarten. 1440p DLSS Quality, größtenteils Settings auf high, Textureinstellung hat das Spiel ja nicht. VRAM ist nach zwei Minuten knallvoll und in der dritten Minute gibts CtD...
12 GB is the bare minimum...
Ex3cut3r
2024-07-03, 08:05:35
Cool, Avatar scheint neuerdings auch einfach zu crashen mit 12 GB Grafikkarten. 1440p DLSS Quality, größtenteils Settings auf high, Textureinstellung hat das Spiel ja nicht. VRAM ist nach zwei Minuten knallvoll und in der dritten Minute gibts CtD...
12 GB is the bare minimum...
Spiel einfach keinen Ubisoft Müll, dann hast du keine Probs. ^^
VooDoo7mx
2024-07-07, 20:28:18
Die 4070 mobile ist eher eine 4060
:facepalm:
https://i.postimg.cc/q7dm7q3S/Screenshot-2024-06-26-170504.png
0 Ahnung, 0 Wissen, 0 Recherche aber Hauptsache mal wieder einen komplett falschen und inhaltsleeren Post abgelassen. Manchmal sollte man sich auch einfach mal an Dieter Nuhr halten.
======================================
Ich hab mir jetzt auch mal das Video von Hardware Unboxed angesehen.
Von den getesteten Spielen habe ich da 3. Von diesen 3 wiederum ist Ratchet & Clank das Spiel mit dem laut Hardware Unboxed höchsten VRAM "Verbrauch".
https://i.postimg.cc/Kz8DKMvq/Screenshot-2024-07-04-143437.png
Laut Hardware Unboxed ist also eine 8GiB Karte schon für das 1080p Medium Preset untauglich. Da ich das Spiel aber schon problemlos auf meinen 4070M Notebook problemlos gespielt habe, hab ich es jetzt noch einmal genauer getestet.
Meine Settings: 2560x1440 nativ + DLAA + DLSS FG + Reflex normal getestet auf dem high Preset ohne RT.
https://i.postimg.cc/JmgFtz5S/Screenshot-2024-07-04-002741.png
Ich hab die ersten beiden "Level" gespielt und das alles mal überwacht.
Es läuft mit diesen Settings absolut problemlos. Kein stottern und auch keine zu spät ladende Texturen. Es wurden immer so ~6,5 GiB +/- VRAM zugewiesen.
Das was Hardware Unboxed gemessen hat, ist belangloser Datenmüll.
Es wurde mit einer 4090 einfach nur aufgeschrieben wie viel Speicher zugewiesen wird aber nicht wie viel Speicher tatsächlich verwendet oder benötigt wird. Da wäre nämlich der Aufwand deutlich höher.
Wer viel misst, misst Mist.
Wenn ich mir da die Kommentare um Bewertungen anschaue, scheint das den ihre Zuschauer 1zu1 einfach zu fressen, auch wenn es faktisch komplett falsch ist. Um so trauriger das auch Leonidas das aufgegriffen hat und auch noch auf die Hauptseite gepackt hat.
Ich kann natürlich nicht für die Kollegen sprechen, aber Ratchet & Clank ist definitiv eines der VRAM-hungrigsten Spiele. Mit reinem Rasterizing kriegt man eine 8-GiB-Karte erst in hohen Auflösungen platt. Mit Raytracing schon weit früher. Einfach mal hier die naheliegenden Modelle vergleichen (in diesem Artikel sind die neuesten Daten):
https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/2/ (RZ)
https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/3/ (RT)
Wie man sieht, kommen Geforce-GPUs mit der Unterbestückung "traditionell" am besten klar, aber der Schwund ist klar sichtbar, etwa beim Vergleich zwischen der RTX 4060 Ti 8GB und RTX 4060 Ti 16GB. Und das sind nicht mal Daten nach langer Spielzeit -> was hier angedeutet ist, wird in der Praxis, also bei Spielen über mehrere Stunden, eklig. Im Grunde alles nichts Neues.
MfG
Raff
DrFreaK666
2024-07-07, 21:02:44
:facepalm:
https://i.postimg.cc/q7dm7q3S/Screenshot-2024-06-26-170504.png
0 Ahnung, 0 Wissen, 0 Recherche aber Hauptsache mal wieder einen komplett falschen und inhaltsleeren Post abgelassen...
Ein Kollege hat vor ner Weile mit der kostenlosen Version von 3D Mark sein Notebook mit 4070 Mobile getestet.
In etwa das kam dabei heraus
https://i.postimg.cc/tJqq1fBP/grafik.png (https://postimages.org/)
Und das mit einer 6700XT, wie ich sie habe
https://i.postimg.cc/J4t89jv1/grafik.png (https://postimages.org/)
So viel zu 0 Ahnung, 0 Wissen, 0 Recherche aber Hauptsache mal wieder einen komplett falschen und inhaltsleeren Post abgelassen..., Mr. Großkotz
Dann ist die 4070 mobile eben in Time Spy auf 4060 Niveau
aufkrawall
2024-07-09, 18:31:02
Hab ständig Spikes auf >12GB in HFW in 1440p XeSS dynamic + FG. Hatte zu Release der 4070 wirklich gedacht, 12GB wären besser als damals die 8GB der 3070 gewesen. Scheint sich aber arg anzunähern. :freak:
Wenn es jetzt noch DLSS FG wäre, wollte ich mir kaum vorstellen, wie das mit ReShade für CAS um ein paar MB kämpft. X-D
(Und die Texturen in HFW sehen trotzdem auf großer Entfernung schlechter aus als im Performance-Modus von Fortnite, wtf...)
Hab ständig Spikes auf >12GB in HFW in 1440p XeSS dynamic + FG. Hatte zu Release der 4070 wirklich gedacht, 12GB wären besser als damals die 8GB der 3070 gewesen. Scheint sich aber arg anzunähern. :freak:
Ich sehe inzwischen schon 16 GB als knapp an. Mal sehen, ob eine 5080 wirklich noch mit 16 GB kommt oder 20 GB oder mehr. ^^ Ich wette aber auf 16 GB in guter Nvidia-Tradition. :D
=Floi=
2024-07-10, 02:36:06
:facepalm:
https://i.postimg.cc/q7dm7q3S/Screenshot-2024-06-26-170504.png
0 Ahnung, 0 Wissen, 0 Recherche aber Hauptsache mal wieder einen komplett falschen und inhaltsleeren Post abgelassen. Manchmal sollte man sich auch einfach mal an Dieter Nuhr halten.
======================================
NV hat doch nichts geändert bei den mobile bezeichnungen?!
Lurtz
2024-07-10, 07:52:01
Hab ständig Spikes auf >12GB in HFW in 1440p XeSS dynamic + FG. Hatte zu Release der 4070 wirklich gedacht, 12GB wären besser als damals die 8GB der 3070 gewesen. Scheint sich aber arg anzunähern. :freak:
Mit allem unter xx80 oder xx90 muss man wegen VRAM einfach jede Generation aufrüsten, natürlich nur solange man so töricht ist und bei seiner 900€-Grafikkarte nicht einfach Texturen runterdreht, wo es noch möglich ist :ugly:
Hoffe mal nVidia ist nicht so wahnsinnig und gibt der 5070 wirklich wieder nur 12 GB, sonst muss ich doch wieder zu AMD wechseln ;D
dildo4u
2024-07-10, 08:39:17
Die kommt sicherlich wieder mit 192 Bit Interface 12GB sind da sicher.
Die Reviews gerade der 4070 S waren noch viel zu Positiv kaum einer hat das Punkte abgezogen.
Man könnte mit Framegen testen um mehr Vram zu nutzen aber das werden die meisten nur mit FSR 3 tun da es überall läuft.
https://i.ibb.co/2ZgR6yj/Bildschirmfoto-vom-2024-07-10-08-36-27.png (https://ibb.co/41PCf7j)
https://www.computerbase.de/2024-01/nvidia-geforce-rtx-4070-super-review-test/3/
][immy
2024-07-10, 09:02:01
Ich sehe inzwischen schon 16 GB als knapp an. Mal sehen, ob eine 5080 wirklich noch mit 16 GB kommt oder 20 GB oder mehr. ^^ Ich wette aber auf 16 GB in guter Nvidia-Tradition. :D
Was ist aus dem nvme Hype geworden? Man braucht doch angeblich weniger Speicher.
Davon spürt man eigentlich nix, zumal es beim PC eigentlich schon immer den Hauptspeicher als Puffer gab.
Relex
2024-07-10, 09:33:36
Daten aus dem Hauptspeicher zu holen ist langsam und ineffizient. Das dekomprimieren der Daten geht auch ordentlich auf die CPU (die ja eh schon häufig das Bottleneck ist und von RT noch mehr belastet wird)
Das von der GPU machen zu lassen ist schon richtig.
Entscheidend wird das DX12 Sampler Feedback Streaming sein, das nur noch die Teile der Assets direkt von der SSD in den Grafikspeicher lädt, die auch wirklich zu sehen sind. Das soll den VRAM Verbrauch massivst reduzieren.
Problem ist nur, dass das eine Microsoft Technik ist, zu der es meines wissens auf der PS5 keinen Gegenpart gibt. Die PS5 kann schnelles SSD Streaming mit hardwaredekomprimierung, hat aber anscheinend nichts vergleichbares zum Sampler Feedback Streaming.
Die PS5 wird daher durch agressiveres Streaming zwar einiges an Puffer einsparen können, den man zu PS4 zeiten aufgrund der lahmen HDD vorhalten musste, aber die gesamte VRAM nutzung grundlegend deutlich zu verringern ist damit nicht möglich.
Unabhägig davon sollte man trotzdem mit 16 GB lange auskommen. Der anstieg auf über 8 und dann 12 GB ging jetzt nur so schnell, weil wir nen Konsolen Generationswechsel hatten und dort jetzt eben 16 statt 8 GB Gesamtspeicher zur Verfügung stehen.
Auf der PS4 und Xbox One wird man wohl ca 4-6 GB von 8 GB für die Grafik genutzt haben, auf der PS5 und Series X eben 8-12 GB von 16 GB.
Eine 16 GB Karte wäre damit in etwa äquivalent zu einer 8 GB Karte zu PS4 Zeiten. Damals haben 8 GB VRAM ziemlich dicke für alle Spiele die für die Konsole erschienen sind gereicht, wenn mans nicht völlig übertrieben hat, Selbst die GTX1060 mit ihren 6 GB ist nicht wirklich den VRAM tod gestorben. Das wird mit 12/16 GB genauso sein.
Man darf auch nicht vergessen, dass gerade Horizon noch ein cross-gen Spiel ist. Das kam für PS4 und PS5 raus. Das nutzt die Möglichkeiten der PS5 und des SSD streamings noch gar nicht konsequent und ist im Kern wohl noch viel eher ein PS4 game.
Ich denke die UE5 zeigt ganz gut, wo die Reise hinsichtlich Speicherverwaltung hingeht. Und die nutzt auch noch kein Sampler Feedback Streaming, aber zumindest mit Virtual Textures, Virtual Shadowmaps und Nanite ähnliche Ansätze.
dildo4u
2024-07-10, 09:33:57
Hängt das nicht damit zusammen das fast alles noch Cross-Gen ist?
Wäre mal interessant ob Nixxes bei Spiderman 2 anderes vorgeht.
DrFreaK666
2024-07-20, 13:32:19
ecvuRvR8Uls
Troyan
2024-07-20, 15:39:22
Aha. Weiß der Youtuber, dass es auch die 4060TI mit 16GB gibt? Problem gelöst.
ChaosTM
2024-07-20, 15:54:10
Ist auch an die Leute gerichtet, die über den Kauf einer 8GB Karte nachdenken.
dildo4u
2024-07-20, 16:12:04
https://youtu.be/ecvuRvR8Uls
AMD veröffentlicht bald ein neuen Low End Chipsatz das Video passt dazu.
B840 PCI-E 3.0 für die GPU
https://youtu.be/WnHXoSaLXuU?si=UtIeGPN-v44mpG8_&t=1565
Lehdro
2024-07-20, 17:00:52
Aha. Weiß der Youtuber, dass es auch die 4060TI mit 16GB gibt? Problem gelöst.
Bleibt immer noch das Problem dass NV für 350€+ immer noch 8 GiB anbietet. NV könnte das auch einfach lassen :confused:
The_Invisible
2024-07-20, 17:14:45
https://youtu.be/ecvuRvR8Uls
Die 8GB Karten bräuchten also den schnelleren PCIe Bus, diejenigen Leute die so eine Karte kaufen haben aber quasi immer irgendwelche Lowend oder alte Mainboards, blöde Kombi :D
aufkrawall
2024-07-20, 17:20:09
Wer seinen Rechner gezielt für VRAM-Pressure am PCIe-Interface zusammenstellt, sollte wirklich besser bei Konsolen bleiben (dildo...). Oder wird halt wie ein Idiot Nvidia das Geld wieder in zwei Jahren wieder in den Rachen werfen, weil alles nur noch kacke läuft. Vielleicht sollte man Leute nicht auch noch zu so etwas ermutigen und stattdessen vor Krüppelkarten warnen...
The_Invisible
2024-07-20, 17:39:25
Könnte man natürlich sagen man kann ja Details reduzieren bzw FG scheint auch schön zu fressen. Wobei ja selbst die 4060Ti in 1440p nicht so schlecht unterwegs ist, da scheint ja wirklich klar der VRAM vorher zu limitieren.
dildo4u
2024-07-20, 17:45:05
Preis Leistung ist schlechter als bei den Karten da drüber muss man sich halt Fragen ob ein die 16GB das Wert sind.
Troyan
2024-07-20, 18:30:22
Bleibt immer noch das Problem dass NV für 350€+ immer noch 8 GiB anbietet. NV könnte das auch einfach lassen :confused:
Gibt die 4060TI mit 16 GB für 424€: https://geizhals.de/zotac-gaming-geforce-rtx-4060-ti-twin-edge-zt-d40620e-10m-a2951637.html?hloc=de
Bezweifel, dass die 60€ Unterschied zur 8GB den Markt "zurückhält". :rolleyes:
aufkrawall
2024-07-20, 18:47:12
Es wird eher so sein, dass unbedarfte Leute trotz des geringen Aufpreises die 8GB-Variante kaufen. Auswirkung von Angebot und Nachfrage auf den Preis, und so...
Dann brauchen sich 4090-Besitzer allerdings auch nicht über AMD wegen der miserablen RT-Verbreitung beschweren, das sabotiert ihre Lieblingsfirma schon selbst...
Lehdro
2024-07-20, 19:02:37
Gibt die 4060TI mit 16 GB für 424€: https://geizhals.de/zotac-gaming-geforce-rtx-4060-ti-twin-edge-zt-d40620e-10m-a2951637.html?hloc=de
Bezweifel, dass die 60€ Unterschied zur 8GB den Markt "zurückhält". :rolleyes:
Was genau soll jetzt das Argument sein? Ich raff das nicht. Entweder NV verkauft eine 8 GiB Version unter demselben Namen und muss sich eben genau daran messen lassen, oder halt nicht. Das Argument "kauf doch 16 GiB lol" ist echt eine schwache Verteidigung - als Konter werf ich einfach erneut "NV verkauft eine 8 GiB Karte für >350€" rein. Man kann ja von den 7000er AMD Kärtchen halten was man will, aber immerhin ist der Name anders wenn die Speicherkapazität abweicht...kann echt nicht so schwer sein.
DrFreaK666
2024-07-20, 19:04:22
Aha. Weiß der Youtuber, dass es auch die 4060TI mit 16GB gibt? Problem gelöst.
Weiß der Youtuber tatsächlich, da sie auch mitgebencht wurde.
Video wohl nicht gesehen, aber "dummer Youtuber" :rolleyes:
Aber wer löst das Problem, dass eine 7800XT schneller ist bei gleichem Preis (43% in Rasterizing und gleichschnell mit RT laut PCGH)?
][immy
2024-07-20, 19:34:17
Es wird eher so sein, dass unbedarfte Leute trotz des geringen Aufpreises die 8GB-Variante kaufen. Auswirkung von Angebot und Nachfrage auf den Preis, und so...
Dann brauchen sich 4090-Besitzer allerdings auch nicht über AMD wegen der miserablen RT-Verbreitung beschweren, das sabotiert ihre Lieblingsfirma schon selbst...
Das ist korrekt. Fairererweise weise ich aber noch mal darauf hin, mit einer midrange Karte darf man nicht erwarten alle Schalter bis zum Anschlag aus zu fahren. Es liegt leider bei den Entwicklern das niedrigere Texturstufen als max nicht total schrottig aussehen. Und dann sollte der Speicher auch wieder für das meiste ausreichen.
Aber der Preis... ja, der ist viel zu hoch. Und das künstlich verkleinerte pcie Interface tut sein übriges. Bei dem Preis hätten sie zumindest eine volle 16x Breite anbinden können.
Der Test zeigt leidiglich einem breiteren Publikum, was längst bekannt war: RTX 4060 Ti 16GB vs. RTX 4060 Ti 8GB: Wo sich 16 GiByte zweifelsfrei lohnen - Test mit 11 Spielen (https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/Specials/Test-Review-Preis-Release-8GB-vs-16GB-Specs-Benchmark-1425140/)
Neu ist nur, dass die Preise gesunken sind. Das 8-GiByte-Modell hätte so einfach nicht erscheinen dürfen, sondern direkt das 16er-Gerät für 399 Euro (oder von mir aus 399 USD -> 449 Euro).
vZQ8m76Ects
MfG
Raff
Lurtz
2024-07-20, 22:00:13
Das 8-GiByte-Modell hätte so einfach nicht erscheinen dürfen, sondern direkt das 16er-Gerät für 399 Euro (oder von mir aus 399 USD -> 449 Euro).
Das ist das einzig logische Fazit. Keine Ahnung was die Nebelkerzen mit Texturstufen und Co wieder soll :ugly:
Relex
2024-07-21, 09:50:29
[immy;13581818']Es liegt leider bei den Entwicklern das niedrigere Texturstufen als max nicht total schrottig aussehen. Und dann sollte der Speicher auch wieder für das meiste ausreichen.
Ja und nein. Die Entwickler optimieren für Konsole.
Die Texturen die die Konsole darstellen kann müssen in den VRAM passen.
Aktuell ist das mit 8 GB VRAM nicht immer der Fall.
Das Problem ist eben, dass früher die Konsolentexturen so klein waren, dass man am PC deutlich bessere Texturen hätte nutzen können. Oft hats dann zumindest für weniger stark komprimierte Texturen via optionales Texturepack gereicht. Das sah dann nur ein klein wenig besser aus, hat den VRAM Bedarf aber deutlich erhöht. Meistens konnte man sich das schenken. Die Spiele sahen auch ohne gut genug aus.
Heute ist es eben umgekehrt. Die meiste PC Hardware ist so knapp bestückt, dass Konsolentexturen bereits als "Ultra" zählen.
Jetzt liegt es eben in der Hand der Entwickler, ob sie in Medium und Low texturen genauso viel arbeit stecken, wie sie es damals für eine Konsolenversion getan hätten. Meistens ist das nicht der Fall.
Man wird es sich daher wohl einfach machen und ein, zwei Mip Stufen sperren oder Texturen einfach nicht anzeigen. Soetwas wie tatsächlich optimierte Texturstufen scheint es wohl nicht mehr zu geben. Das würde aber schon viele Probleme lösen.
Die Hardware ist natürlich ein Problem. Aber vieles ist einfach ein Softwareproblem. Es gab zeiten da hat man mit 8 GB in 4K gespielt und hatte schärfere Grafik, als heute bei VRAM Mangel. Folglich primär ein Softwareproblem.
Man muss es sagen wie es ist. Wenn du nicht Hardware hast, die in wirklich allen Spezifikationen mindestens einer Konsolen ebenbürtig ist (lieber etwas mehr), hat man ein riesen Problem. 12 GB VRAM sind halt gerade so das was noch akzeptabel ist, weil es das ist, was die Konsolen für Grafik nutzen können (allerdings bei geringen Auflösungen und meist ohne RT). Eigentlich will man also 16 GB oder mehr, wenn man irgend eine Form von Puffer haben möchte bzw. nicht auf "Kante" kauft.
][immy
2024-07-21, 10:31:59
Allerdings haben die Konsolen insgesamt 12-13gb für Spiele. Das ist also nicht alles vram. Am PC gibt es noch den Hauptspeicher, der sogar erstaunlich voll ist bei Spielen am PC. Immerwieder erstaunlich das es am ende trotzdem in den Konsolenspeicher passt. Aber an Spielelogic hat sich ja seit der ps360 Generation nichts mehr fundamentales mehr geändert. Daher braucht es da wohl nur sehr wenig Speicher und der Rest ist vermutlich einfach geachtet Texturen im Hauptspeicher.
Relex
2024-07-21, 11:38:13
An Spiellogik bzw. Speicherverwaltung hat sich mit PS5 und Series X schon was geändert.
Früher musste man die meisten Daten immer im Speicher vorhalten, weil jeder Zugriff auf die HDD extrem langsam war. Das Streaming von Open Worlds musste also extrem schlank gehalten werden und die Assets die in den RAM passen entsprechend häufig wiederverwendet werden.
Heute kann man innerhalb 1-2 Sekunden das komplette level incl Texturen austauschen, braucht kaum noch was im Speicher vorhalten, weil um mehrere Größenordnungen mehr Daten gestreamt werden können. Im Verhältnis zum Speicherbedarf einer Szene ist die Bandbreite von SSD eben viel besser bestückt als früher. Das hat große Auswirkungen aus Speichermanagement.
Ändert aber nichts daran dass Speichermangel heute wie damals Mist ist. Hätte trotzdem gehofft, dass die Engines bei Speichermangel flexibler werden und das mit weniger spür- und sichtbaren einbußen kompensieren können. Aber vielleicht sehen wir das ja auch noch. Die Direct Storage und Sampler Feedback Streaming möglichkeiten wurden bisher nichtmal angekratzt.
Und was den RAM beim PC angeht. Ich würde behaupten, dass da größtenteils auch nur die Assets liegen, die in den VRAM gestreamt werden. Was soll ein Spiel sonst großartig zur Laufzeit im RAM speichern, außer assets? Spiellogik bzw. der Code dürften doch relativ schlank sein. Aber das ist jetzt nur Halbwissen. Die meisten exe Dateien haben ja kaum mehr als 100 MB. Dazu ein paar libs geladen und fertig ist das Spiel. Der Rest sind gigabytes an Assets und Texturen.
DrFreaK666
2024-07-21, 12:04:05
...Heute ist es eben umgekehrt. Die meiste PC Hardware ist so knapp bestückt, dass Konsolentexturen bereits als "Ultra" zählen...
Dafür spart man dort gern beim AF. 4xAF ist dann schon viel
Nachschlag: 8 GiByte sind nicht genug, Teil 38 (https://www.pcgameshardware.de/Avatar-Frontiers-of-Pandora-Spiel-73347/Specials/DLC-Sky-Breaker-Benchmarks-Steam-Test-Release-1451822/2/#a4)
"Dies äußert sich, je nach Grafikkarte, Einstellungen und Spieldauer, an Matschtexturen. Diese werden entweder sichtbar und zäh durch hübschere Varianten ausgetauscht oder verweilen in einem Brei-Zustand (MIP-Map)."
MfG
Raff
dildo4u
2024-07-23, 08:12:46
Interessant selbst mit den Details einsparen kackt die 3070, ab die 4060 TI 16GB mausert sich langsam schnell genug für Hybrid RT.
Relex
2024-07-23, 09:20:26
Joa, das Problem ist nicht wegzudiskutieren.
Wäre allerdings trotzdem interessant zu wissen, welche Settings denn nötig sind, um dem starken Detailverlust entgegenzuwirken.
Dass Unobtanium Settings mehr VRAM brauchen lässt darauf schließen, dass es große VRAM Fresser abseits der Texturen gibt. Folglich könnte eine Reduktion auf High oder Medium bereits ausreichen, um die 8 GB nicht zu sprengen.
Wäre zwar immernoch unschön, aber selbst eine 4060ti 16 GB schafft in Full HD mit Ultra Settings nur 38 FPS. Ultra Settings sind auf den Karten also sowieso nicht sinnvoll.
Konkret wäre also 1440p mit Quality Upsampling + High oder Medium Settings wohl ein sinnvoller usecase.
Aber gut, man kann nicht alles bis ins Detail analysieren. Trotzdem bleibt eben die Frage offen, ob 8 GB in dem Spiel überhaupt halbwegs vernünftig nutzbar sind.
Es geht ja nicht nur darum aufzuzeigen, das 8 GB auf einer aktuellen GPU Unsinn sind, es wäre ja auch für ältere Systeme mit z.B. einer 2080 Super interessant. Denn die Karten waren für damalige verhältnisse ganz ordentlich bestückt. Der Test suggeriert aber, dass die Karten so nicht mehr nutzbar sind. Performance lässt sich ja eh über Settings skalieren, aber auch der VRAM bedarf entsprechend?
dildo4u
2024-07-23, 09:36:04
Raff wird nur wieder fiese Stelle nutzen 1080p Ultra sollte ok sein mit der Klasse an Hardware ansonsten kann man sich natürlich 400€ sparen und weiter warten.
Hier Werte mit DLSS.
https://www.computerbase.de/2023-12/avatar-frontiers-of-pandora-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Döner-Ente
2024-07-23, 09:52:58
So recht sehe ich nicht, dass der gesteigerte VRAM-Bedarf von Spielen mit einem Mehr an Texturqualität einher geht.
Oder anders und polemisch und pauschal gesagt: Wo früher 4-8 GB für Texturqualität X reichten, sollens jetzt nun 12-16 GB für die selbe Qualität sein.
Mit welcher Begründung?
dildo4u
2024-07-23, 09:57:27
Avatar nutzt Raytracing was oben drauf kommt und nicht gratis ist was Vram angeht.
Ein Vorteil dieser Lösung wäre z.b ein echter Tag Nacht Zyklus ohne vorher fest "Gebackene" Beleuchtung was früher oft gemacht wurde.
Ich konnte es jetzt dank der Test Version anzocken und es ist sehr beeindruckend klar ein Schritt nach vorne und 60fps sind möglich auf Konsole.
Iscaran
2024-07-23, 19:41:17
"Dies äußert sich, je nach Grafikkarte, Einstellungen und Spieldauer, an Matschtexturen. Diese werden entweder sichtbar und zäh durch hübschere Varianten ausgetauscht oder verweilen in einem Brei-Zustand (MIP-Map)."
Toll - wieder ein Game wo man sich nicht darauf verlassen kann was man eingestellt hat. Sowas ist de-facto "unbenchbar". Zeigen ja auch die FPS-Zahlen 4060 Ti 16 GB hat praktisch identische FPS wie die 8 GB Version...
Nur das Bild sieht dann wohl anders aus.
Vielleicht solltet ihr da mal einen Rüffel aussprechen wenn Games sich so verhalten. Zumindest solange es dafür nicht auch einen "Schalter" gibt ("Dynamische Detailanpassung AN/AUS" oder so)
VooDoo7mx
2024-07-23, 22:22:36
So recht sehe ich nicht, dass der gesteigerte VRAM-Bedarf von Spielen mit einem Mehr an Texturqualität einher geht.
Oder anders und polemisch und pauschal gesagt: Wo früher 4-8 GB für Texturqualität X reichten, sollens jetzt nun 12-16 GB für die selbe Qualität sein.
Mit welcher Begründung?
Tatsächlich wird hier absolut maßlos übertrieben was den angeblichen VRAM Bedarf moderner Spiele betrifft.
Hier spielen mehrere Faktoren mit rein.
1. Haben jetzt viel mehr Spiele schon DX12 als Basis API, hier muss der Entwickler selber viel mehr optimieren was die Speichernutzung angeht.
Ich hab da sogar selber ein Beispiel mit einer Notebook 3060 mit 6GiB erlebt. Das Spiel "The Ascent" hat wie blöde gestottert, was ich so von meinen Desktop PC nicht kannte. tatsächlich ist der Speicher überlaufen. Im Menu DX11 eingestellt und Spiel neu gestartet. Läuft wie Butter mit 3-4GB Speichernutzung mit max Texturen.
2. Da gab es in der letzten Zeit einige Titel die mit enormen Speicherhunger als ultimativen Beweis für VRAM Mangel verschrien wurden. Diese wurden dann auch oftmals gepatcht und auf einmal liefen sie auch sauber mit 8GiB. Z.B. Last of Us.
3. Irgendwelche Leute meinen dies ständig beweisen zu müssen wie schlimm das doch alles mit dem VRAM ist, bringt ja Klickzahlen und besonders nVidia Hate kommt immer gut. Dann wird dann ein 4060Ti Kärtchen genommen um es mit Ultra Details + 4k + Max RT + FG + deine Mudda komplett zu überladen um dann den ultimativen Beweis zu bringen. Das dann selbst die 4060Ti 16GiB nur noch 25fps bringt, ist dann egal. Immerhin werden dann die Texturen gleich in der höchsten Stufe geladen während alles vor sich hin ruckelt.
Den Vogel schießt da ja noch Hardware unboxing ab welche dann noch künstlich irgendwelche PCIe 2.0/3.0 Szenarien erzeugen müssen um was auch immer zu beweisen.
Ok bei Horizon Forbidden West mit Very High in 1440p kackt die Karte wegen 8GiB eben ab. Das sie dann aber im High Preset was kaum schlechter aussieht jedoch wie Butter läuft interessiert eben dann keinen mehr.
4. Permanentes nachgequake von Unsinn von Leuten die keine Ahnung haben. Wer hat denn hier tatsächlich eine 4050M/4060/4060Ti 8GB/4070M hier im Einsatz und kann berichten?
Ich hab hier zusätzlich zu meinen 4090 Desktop noch ein 4070M Notebook mit 1440P Display. Callisto Protocol mit Max Texturen, Hogwarts Legacy, High Preset mit Ultra Texturen, Gears 5 mit optionalen Ultra Texturen, Remnant 2 im High Preeset + FG, Cyberpunk mit RT + FG, Ratchet und Clank High Preset + RT Reflexionen + FG, Banishers Ghosts of New Eden, High Preset + FG, Tiny Tinas Wonderlands mit High Preset, Outcast 2 Max Details, Uncharted Collection Max Details.
Alles läuft absolut problemlos auf der 8GiB VRAM GPU, keine Stotterer oder sonstiges immer über 60fps manchmal sogar 100fps+
Man kann das hier immer wieder wiederholen, irgendwann kommt dann doch wieder ein kanz kluker Mensch um die Ecke der so eine Karte nie genutzt hat und erzählt dann wieder Müll.
Es steht jedem frei, die Speicher-Eunuchen weiter schönzureden. Aber wem bringt das etwas? Vor allem im Kontext einer Geforce. "Kann eigentlich alles, hat aber nicht genug Speicher dafür" ist ein ganz mieser Zustand und des Technologieführers nicht würdig.
Ich bin allerdings dafür, auf dem Boden zu bleiben und die Sache richtig zu bewerten. Extremfälle sind Wegweiser, aber eben kein Alltag. Insofern halte ich 12-GiByte-Grafikkarten auch nicht für hoffnungslos überholt (8 GiByte schon), aber mindestens angezählt.
MfG
Raff
Ex3cut3r
2024-07-23, 23:48:36
Das Problem besteht darin, dass "Ihr" nur mit maximalen Settings testet. Dank DF und anderen nutzen Spieler heutzutage kaum noch die maximalen Einstellungen, da sie meiner Meinung kompletter Mumpitz sind. Indem man Settings reduziert, kann man nicht nur die FPS und die VRAM Usage verbessern, sondern auch gleichzeitig Geld sparen, besonders wenn man es mit DLSS und (FG Mods) kombiniert.
Steile These, dass kaum jemand maximale Einstellungen nutzt. Tatsächlich würde mich neutrale, breit aufgestellte Marktforschung dazu interessieren, aber die lässt sich nicht auftreiben.
MfG
Raff
P. S.: Der Verzicht auf Raytracing und die Nutzung von Upsampling entspricht ebenfalls "reduzierten Details".
Blase
2024-07-24, 00:01:31
So pauschal aber auch nicht richtig. Wenn genügend Leistung da ist, gehen alle Regler auf Max und gut ist. Oder anders gesagt: Wenn man nicht einen Kompromiss aus Qualität und Leistung eingehen muss, macht man es auch nicht. Warum sollte man auch.
Wobei das natürlich total individuell ist. Dem einen mögen bereits 30+ FPS reichen und das andere Ende des Spektrums sind wahrscheinlich die high FPS Zocker. Das Gros der Leute ist da irgendwo zwischen.
Und dann bin ich total bei dir. An den richtigen Reglern drehen - für ein spürbares Plus an Leistung bei gleichzeitig kaum sichtbaren Qualitätseinbußen - ist natürlich ne feine Sache.
Und es ist gut und richtig, dass es DF und Co. sich diese Mühe zusätzlich machen und aufzeigen, was diesbezüglich geht.
Umgekehrt ist Raff und Co. aber kein Vorwurf daraus zu machen, dass mehr oder minder durchgehend mit max. Qualität getestet wird. Denn das wollen ganz sicher ganz viele Leute auch sehen - was eben maximal geht und wie die jeweilige Hardware dabei abschneidet...
MfG Blase
Und es ist gut und richtig, dass es DF und Co. sich diese Mühe zusätzlich machen und aufzeigen, was diesbezüglich geht.
DF macht das ja nicht zusätzlich, sondern ausschließlich. Der Grund ist, dass man eben nicht alles stemmen kann. Jeder sucht sich seine Nische, sein Spezialgebiet. DF macht eben tolle Erklärvideos mit optimalen Settings, aber nur eine winzige Stichprobe von Benchmarks. PCGH verfolgt einen völlig anderen Ansatz und ermittelt aufwendig die anspruchsvollsten Szenen in Spielen, um damit dann tonnenweise Benchmarks anzufertigen. Beides auf einmal wäre wochenlange Arbeit, die in einem Bereich, wo Tasks schneller nachwachsen, als man sie in den längsten Nachtschichten wegboxen kann, niemand leisten kann. Spiele-Techniktests sind heutzutage unheimlich aufwendig, da muss man einfach Prioritäten setzen, damit die Sache wirtschaftlich ist.
MfG
Raff
Blase
2024-07-24, 00:08:52
Mir war nicht bewusst, dass DF das ausschließlich so macht.
Aber ich bin hier voll bei dir. Beides zu machen wäre ein unglaublicher Aufwand und bestenfalls mit einem großen Team zu stemmen, welches parallel arbeitet.
So gesehen bevorzuge ich euern Ansatz. Aber ich würde nie sagen, dass der eine besser als der andere ist. Er bedient einfach unterschiedliche Zielgruppen. Wie zuvor geschrieben: Wenn man keine individuellen Kompromisse eingehen muss, macht man das auch nicht. Und wenn man muss, sind die Videos von DF und Co. total hilfreich...
MfG Blase
Absolut, der Content kann prima koexistieren und sich ergänzen. Ich schaue das Zeugs ja auch gerne. :up:
MfG
Raff
ChaosTM
2024-07-24, 00:50:30
Man kann es drehen und wenden wie man will.
8GB Karten sollte man nicht mehr kaufen, außer im Einsteiger Bereich oder wenn man die Karte relativ oft wechselt.
Und beide Ansätze sind wichtig..
Döner-Ente
2024-07-24, 08:30:41
Es steht jedem frei, die Speicher-Eunuchen weiter schönzureden.
"Isso" und "Warum ist das so und ist das überhaupt gerechtfertigt" sind zwei verschiedene Paar Schuhe.
Sicherlich wär man mit dem Klammerbeutel gepudert, jetzt noch ne 8 GB-Karte zu kaufen und sicherlich hat insbesondere nvidia Schimpf und Schande verdient, ihre Karten teilweise mit 8 GB unnötig zu verkrüppeln.
Man kann aber gleichzeitig auch mal hinterfragen, ob bei jeder Speichergier auch ein entsprechender optischer Mehrwert dahinter steht oder ob es sich die Entwickler nicht teilweise viel zu einfach machen und eigene Faulheit mit Spielerhardware erschlagen wollen.
Nach mehr Hardware zu schreien oder diese an ihre Kotzgrenze zu bringen, ist keine Kunst, das kriegt jeder ineffiziente Trottel hin.
Lurtz
2024-07-24, 08:42:33
Tatsächlich wird hier absolut maßlos übertrieben was den angeblichen VRAM Bedarf moderner Spiele betrifft.
Wenn man sieht was man schon mit 12 GB-Karten an "unerklärlichen" Performanceeinbrüchen (trotz "freiem" VRAM), Abstürzen etc. haben kann, wird bei dem Thema noch deutlich untertrieben.
Wenn dann noch Forenkrieger dazukommen, die das ganze konstant schön reden, auch in der Kaufberatung, wirds noch dramatischer, vor allem für Unwissende, die es dann auch nicht schaffen zig Settings entsprechend anzupassen.
Du kannst halt bei jeder Karte locker 2 GB abziehen, die sich Windows und Background ziehen werden, bevor das Spiel überhaupt die Gelegenheit hat, VRAM zu nutzen. Aus einer 12-GB-Karte werden dann schnell 10, und das ist dann oft zu wenig.
Döner-Ente
2024-07-24, 09:00:36
"unerklärlichen" Performanceeinbrüchen (trotz "freiem" VRAM),
Und wäre es zu viel verlangt, solchen Missständen mal auf den Grund zu gehen bzw. diese zu thematisieren, versuchen, heraus zu finden, ob eher Graka-Hersteller/Treiber schuld sind oder eher die Spieleprogrammiererseite, anstatt schulterzuckend nach mehr Hardware zu rufen?
Ich finde mich doch auch nicht damit ab, dass mein 300 PS-Auto nur 0-100 in 10 Sekunden macht und empfehle den Leuten, doch lieber gleich 500 PS zu kaufen, damit 8 Sekunden dann doch drin sind.
DrFreaK666
2024-07-24, 09:01:05
Du kannst halt bei jeder Karte locker 2 GB abziehen, die sich Windows und Background ziehen werden, bevor das Spiel überhaupt die Gelegenheit hat, VRAM zu nutzen. Aus einer 12-GB-Karte werden dann schnell 10, und das ist dann oft zu wenig.
zu wenig wenn man keine Regler bedienen kann
Und wäre es zu viel verlangt, solchen Missständen mal auf den Grund zu gehen bzw. diese zu thematisieren, versuchen, heraus zu finden, ob eher Graka-Hersteller/Treiber schuld sind oder eher die Spieleprogrammiererseite, anstatt schulterzuckend nach mehr Hardware zu rufen?
Das Thema ist sehr komplex und es fehlen Profiling-/Analyse-Tools, um das ansatzweise wasserdicht zu machen. Und am Ende ist’s doch rein akademisch. 8 GiByte reichen in der gängigen Praxis mit all ihren Imperfektionen nicht, egal wie sauber das restliche Betriebssystem und wie zackig das Management ist. Punkt. "Textur- und Schattendetails 1-2 Stufen runter" bleibt in den meisten Fällen der Kniff, um Speicherkrücken auf die Beine zu helfen.
Inwiefern der Hunger höherer Detailstufen gerechtfertigt ist, ist noch so ein "Laien bewerten von außen Dinge, die sie gar nicht bewerten können"-Ding und widerstrebt mir als Teilzeit-Wissenschaftler. ;)
MfG
Raff
Iscaran
2024-07-24, 09:48:39
Das Hauptproblem was ich sehe ist eher das eben dieses Game mal wieder ungefragt "Dynamische Setting Anpassung" betreibt....
Das sollte man stark kritisieren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.