PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4070 Ti Review-Thread


Seiten : 1 2 [3] 4

][immy
2023-01-11, 07:43:06
Ja die Karten kenne ich natürlich, das meinte ich mit kaum. AMD hat wenig und Intel keine Relevanz. Kein Entwickler wird sich selbst mit Settings für 16GB AMD Karten ins Bein schießen. Zumal die 16GB auch erstmal besser performen müssen als 12GB Nvidia Karten.

Auf jeden Fall werden die 12GB kein Problem werden in den nächsten vier Jahren. Zur Not halt den Regler nur auf High und nicht auf Ultra.

Jep, sehe ich als 3070 Besitzer auch so. Speicher war bislang nie ein Problem in 1440p. Problem war höchstens die Leistung mit RT. Die Leute müssen sich einfach Mal angewöhnen das man nicht alles auf ultra stellt. Bei Benchmarks macht das ja zur Vergleichbarkeit noch Sinn.
An den Settingsauswirkungen hat sich halt in den letzten Jahrzehnten kaum was geändert. Die allerletzte Stufe bringt nicht viel erhöht aber stark den Aufwand.
Zudem reduzierieren high vs ultra settings gerne Mal das Ruckeln aufgrund der Shaderkompilierung die in den letzten Jahren extrem unschön geworden ist am PC.

Ätznatron
2023-01-11, 07:55:26
Ja die Karten kenne ich natürlich, das meinte ich mit kaum. AMD hat wenig und Intel keine Relevanz. Kein Entwickler wird sich selbst mit Settings für 16GB AMD Karten ins Bein schießen. Zumal die 16GB auch erstmal besser performen müssen als 12GB Nvidia Karten.

Auf jeden Fall werden die 12GB kein Problem werden in den nächsten vier Jahren. Zur Not halt den Regler nur auf High und nicht auf Ultra.

Kein Entwickler schiesst sich ins Bein, wenn er für max. Grafikpracht 24 GB VRAM benötigt. Diese Karten existieren, und deren Möglichkeiten nutzt er.

Für alle anderen Fälle baut er Regler ein. Wer nur über 12 GB verfügt, muss sich halt mit geringerer optischer Qualität begnügen, wenn er keine Ruckelorgie erleben möchte.

Das ist doch nicht schlimm.

Ätznatron
2023-01-11, 08:06:59
Dann guck dir die Kosten moderner Spiele an.

Entsprechende Grafikpracht wird in den Tests halt immer besonders gut bewertet. Das verkauft sich dann. Und darauf kommt es an.

#44
2023-01-11, 08:40:56
Dann guck dir die Kosten moderner Spiele an.

Entsprechende Grafikpracht wird in den Tests halt immer besonders gut bewertet. Das verkauft sich dann. Und darauf kommt es an.
Das skaliert aber auch nicht beliebig. Je extremer sich die Max. Grafik vom tatsächlichen Durchschnitt entfernt, desto wahrscheinlicher wird das auch irgendwann in den Tests berücksichtigt.
Synthetische Benches sind durch die Optimierungen der Hersteller auch immer weiter in den Hintergrund getreten.

Ätznatron
2023-01-11, 09:02:11
Das skaliert aber auch nicht beliebig. Je extremer sich die Max. Grafik vom tatsächlichen Durchschnitt entfernt, desto wahrscheinlicher wird das auch irgendwann in den Tests berücksichtigt.
Synthetische Benches sind durch die Optimierungen der Hersteller auch immer weiter in den Hintergrund getreten.

Das wird ja oft schon berücksichtigt, etwa bspw. dadurch, dass gegebenenfalls darauf hingewiesen wird, dass sich die max. Stufe doch nur geringfügig von der nächstniedrigeren, dafür aber weit ressourcenschonenderen Einstellung unterscheiden würde (eine Bewertung, die ja letztlich auch nur auf der subjektiven Einschätzung des jeweiligen Testers beruht, ein anderer mag das ganz anders sehen).

#44
2023-01-11, 09:18:34
Das wird ja oft schon berücksichtigt, etwa bspw. dadurch, dass gegebenenfalls darauf hingewiesen wird, dass sich die max. Stufe doch nur geringfügig von der nächstniedrigeren, dafür aber weit ressourcenschonenderen Einstellung unterscheiden würde (eine Bewertung, die ja letztlich auch nur auf der subjektiven Einschätzung des jeweiligen Testers beruht, ein anderer mag das ganz anders sehen).
Ich sag ja - wenn es extrem wird. Wenn man 12 vs 24 GB kaum merkt juckts natürlich auch nicht und ist schön für diejenigen mit viel VRAM.

Thunder99
2023-01-11, 09:21:58
@blacki
Kann man so pauschal nicht sagen, da es auf den Programmierer ankommt was er mit den Settings macht. Alles hach Rechts hat seine Berechtigung, aber wenn der optische Gewinn marginal ist und zu viel Performance kostet sollte man da den Regler bedienen, da gebe ich dir Recht.

12GB sind eine gute Größe, mehr ist immer besser. Die Frage ist halt zu welchem Preis?

Sichtweise und Texturdetails sind mir wichtig. Daher würde ich persönlich nicht daran den Regler drehen ;). Spiele aber auch kein BF und Co., Sondern Singleplayer Games.

Ampere war schlecht in Sachen angemessene VRAM Menge gegenüber deren Performance (abgesehen von der 12GB+ Karten und 3090)
AD ist da sehr viel ausgewogener, was wir derzeit aber auch bezahlen müssen...

denjudge
2023-01-11, 09:59:24
Vielen Dank für den Artikel! Sehr interessant! Kann man deine Kurven irgendwo herunterladen? :)

Ich habe gestern wieder ein bisschen Redout 2 weiter gespielt. Da ist die 4070 Ti mit 35% Powertarget immer noch mehr als doppelt so schnell wie meine bisherige auf Sparsamkeit getunte GTX 1080 und verbraucht dabei unter 100 Watt. Den Curve Editor habe ich mir zwar auch schon angeschaut, da bin ich aber noch auf keinen grünen Zweig gekommen. :D

mfg.

Sonyfreak

Zum Curve Editor einfach mal ein Video gucken. Das ist echt super simpel.

Lurtz
2023-01-11, 11:50:26
[immy;13209782']Jep, sehe ich als 3070 Besitzer auch so. Speicher war bislang nie ein Problem in 1440p. Problem war höchstens die Leistung mit RT. Die Leute müssen sich einfach Mal angewöhnen das man nicht alles auf ultra stellt. Bei Benchmarks macht das ja zur Vergleichbarkeit noch Sinn.
An den Settingsauswirkungen hat sich halt in den letzten Jahrzehnten kaum was geändert. Die allerletzte Stufe bringt nicht viel erhöht aber stark den Aufwand.
Zudem reduzierieren high vs ultra settings gerne Mal das Ruckeln aufgrund der Shaderkompilierung die in den letzten Jahren extrem unschön geworden ist am PC.
Welche Einstellungen stellt man denn runter um VRAM zu sparen? Texturen machen idR sehr viel vom Gesamteindruck aus.

VooDoo7mx
2023-01-11, 12:26:10
Welche Einstellungen stellt man denn runter um VRAM zu sparen? Texturen machen idR sehr viel vom Gesamteindruck aus.

Texturen zwischen Very High und Ultra machen optisch meist 0 Unterschied.
Optionale "HD" Texturen machen meistens 0 Unterschied.

Hier mal ein Beispiel mit den optionalen Far Cry 6 HD Texturenpack womit eine 3060Ti/3070/3070Ti in UHDund und aktivierten Raytracing einbricht. Wobei auch ohne den Einbruch die Karte vielleicht so 40fps liefern würde. Also eigentlich eh zu langsam ist Somit iszt selbst dieses Bepsiel für Vram Einbruch eigentlich komplett irrelevant und an den Haaren herbeigezogen.

https://abload.de/img/farcry_2kwi4i.png

https://abload.de/img/farcry_10ee5n.png

Ein Screenshot ist mit optionalen HD Texturen, der andere ohne. Wer sieht was?

Und wenn überhaupt, muss man im Spiel selber stehen bleiben und mit der Lupe schauen. Im normalen Gameplay also nicht ersichtlich.

Raff
2023-01-11, 12:43:15
Das Argument "sieht man erst, wenn man hinsieht" ;) gilt immer. Der Nächste sieht Raytracing nicht. Oder braucht kein Anti-Aliasing, weil scharfe Bilder so geil sind. Etc. Am Ende ist es wie immer: Eine Grafikkarte, die nicht auf Kante genäht ist, steckt höhere Datenmengen einfach weg, während ein zu stark kastriertes Modell umfällt. Es ist doch schön, wenn man sich keine Gedanken darum machen muss, weil man clever/vorausschauend gekauft hat - oder nicht?

MfG
Raff

dildo4u
2023-01-11, 12:56:01
Vielleicht spielt direct Storage irgendwann eine größere Rolle, das kann auch die Serie S und deutlich besser als RT.
Es gibt kein Zwang mit NVME SSD alles im Speicher zu halten.

readonly
2023-01-11, 12:58:26
. Es ist doch schön, wenn man sich keine Gedanken darum machen muss, weil man clever/vorausschauend gekauft hat - oder nicht?

Mehr € gibt bessere Zukunftssicherheit. Skaliert ja momentan ganz gut, die Spannbreite ist nun auch extrem gross. Von einer 3050 bis zur 4090. Zocken kann man mit ner 3050 auch. Oder halt ne AMD die sich ganz gut in das Gefüge einbringt. Den Geheimtipp gibt es aktuell nicht, mehr kostet mehr.

Wir fahren ja auch nicht alle Porsche um genug Reserven zu haben.

Raff
2023-01-11, 12:59:24
Nicht alles, was hinkt, ist ein Vergleich. :D Das einzige Problem ist meiner Meinung nach, dass man so selten die Wahl hat. Warum kann man nicht jede Grafikkarte mit zwei Speichermengen kaufen? 6/12, 8/16, 10/20, 12/24 - es wäre so einfach.

MfG
Raff

aufkrawall
2023-01-11, 13:01:14
Es gibt kein Zwang mit NVME SSD alles im Speicher zu halten.
Das ist ja bereits der Standardfall, zig Spiele schmeißen trotz <50% VRAM-Gesamtbelegung ständig Daten mit Einbrüchen raus. Würde schätzen, das machen mit D3D12 mittlerweile deutlich >50% der Spiele, wenn nicht >80%. Mehr verfügbarer VRAM ist in diesen Fällen komplett nutzlos.
Mit DirectStorage hat das dann hoffentlich keinen Einfluss mehr auf die Performance.

aceCrasher
2023-01-11, 13:04:22
https://abload.de/img/farcry_2kwi4i.png

https://abload.de/img/farcry_10ee5n.png

Ein Screenshot ist mit optionalen HD Texturen, der andere ohne. Wer sieht was?

Die HD Texturen sehen schon deutlich besser aus... Die Schrift unter dem "Mochila Furioso" Schriftzug ist ohne die HD Texturen wirklich sehr unscharf. Auch das die Holztextur des Gewehrs direkt darüber wirkt deutlich plastischer mit den HD Texturen.

War die Frage ernst gemeint? Wir sind hier doch nicht im 2Dcenter :rolleyes:

aufkrawall
2023-01-11, 13:07:25
Und wir sind im 4070 Ti Thread, auf der das HD-Paket mit 12GB läuft...

Raff
2023-01-11, 13:12:13
Ab 5K sind in Far Cry 6 selbst 12 "Geforce-GiB" zu wenig, btw. ;) Die GPU könnte es, aber der VRAM nicht.

MfG
Raff

dildo4u
2023-01-11, 13:14:56
Laut euren Werten ist die 4070ti Grad so über 60fps in 4k.
Weniger macht vielleicht in Flight Sim Sinn aber nicht für Shooter.

aufkrawall
2023-01-11, 13:18:18
Wer nach Dunia die Hardware aussucht, hat die Kontrolle über sein Leben verloren. ;D

Sonyfreak
2023-01-11, 13:27:08
Zum Curve Editor einfach mal ein Video gucken. Das ist echt super simpel.Ich weiß, wie der Curve Editor zu bedienen ist. Meine bisherige GTX 1080 läuft seit 2016 mit Kurve. Praktisch ist so eine Blaupause trotzdem. Dann weiß man wo man mit dem Testen starten kann. :) Ich werde einfach mal versuchen, Variante 3 (775 mV bei 2.400 MHz) nachzubauen.

mfg.

Sonyfreak

PHuV
2023-01-11, 13:43:07
Nicht alles, was hinkt, ist ein Vergleich. :D Das einzige Problem ist meiner Meinung nach, dass man so selten die Wahl hat. Warum kann man nicht jede Grafikkarte mit zwei Speichermengen kaufen? 6/12, 8/16, 10/20, 12/24 - es wäre so einfach.

Für Dich als Konsument mag das so sein, für Fertiger und Hersteller sieht das alles anders aus, das ist komplexer und aufwendiger, als manche hier vermuten. Da ja eh schon alle über die GPU Preise jammern, ist ist es aktuell für Hersteller sinnlos, dann sich mit noch mehr Varianten herumzuplagen und zu verzetteln, und dadurch noch mehr Geld zu verbraten, die dann in das Produkt einfließen müssen.

BlacKi
2023-01-11, 15:02:21
Ich weiß, wie der Curve Editor zu bedienen ist. Meine bisherige GTX 1080 läuft seit 2016 mit Kurve. Praktisch ist so eine Blaupause trotzdem. Dann weiß man wo man mit dem Testen starten kann. :) Ich werde einfach mal versuchen, Variante 3 (775 mV bei 2.400 MHz) nachzubauen.

mfg.

Sonyfreak


pcgh hat auf der vorherrigen seite einen artikel mit grobem ansatz was man anlegen kann.

IchoTolot
2023-01-11, 15:02:31
Wenn man schon einen Maßstab nehmen will, dann am besten die Konsolen. Die PS5 hat auch nich ohne Grund 16 GB VRAM.

Troyan
2023-01-11, 15:04:26
Und die Series X hat nur 10GB schnellen VRAM.

Linmoum
2023-01-11, 15:09:31
Die Konsolen haben auch nicht den ganzen Speicher zur Verfügung. Bei der XSX gehen iirc 2.5 GiB für das OS drauf, bleiben insgesamt maximal 13.5 GiB. Wird bei der PS5 vermutlich ähnlich sein.

Man wird sicherlich auch Spiele und Szenarien finden, wo man 16 GiB ausreizen kann. Aber ich sehe den Diskussionspunkt nicht dabei, dass 12 GiB "(zu) wenig" sind. Soll Raff noch mal 405 Spiele testen, damit man ihm glaubt?

BlacKi
2023-01-11, 15:21:00
Und die Series X hat nur 10GB schnellen VRAM.und davon kannst du nochmal ein paar gb abziehen weil nicht alles zur als vram verfügung steht.

VooDoo7mx
2023-01-11, 15:26:35
Wenn man schon einen Maßstab nehmen will, dann am besten die Konsolen. Die PS5 hat auch nich ohne Grund 16 GB VRAM.

:facepalm:

Die PS5 hat nicht 16GiB VRAM sondern 16GiB System RAM, den sich CPU und GPU teilen. Zusätzlich ist auch immer 2-2,5GiB von den RAM für das System reserviert.
Effektiv wird wohl eine PS5 weniger VRAM zur Verfügung haben als eine 8 GiB Karte im PC.

dildo4u
2023-01-11, 15:26:39
_J60fcwpvfc

SamLombardo
2023-01-11, 15:27:53
Wenn der VRam voll ist, muss das auch nicht unbedingt Nachladeruckler bedeuten. Hier im Video ab Min 14 ist das schön zu sehen, die 4070ti hat weniger VRam zur Verfügung und nutzt einfach mehr System Ram. Die Frage ist natürlich, ob diese Tatsache irgendwie Einfluss auf die Performance hat (ob die Karte mit mehr Vram schneller wäre). Krasse Stocker und Hänger sind jedenfalls nicht zu sehen. Das Speichermanagement funktioniert schon ...


https://www.youtube.com/watch?v=FgVVrmoumcw&t

aufkrawall
2023-01-11, 15:53:21
Aber ich sehe den Diskussionspunkt nicht dabei, dass 12 GiB "(zu) wenig" sind. Soll Raff noch mal 405 Spiele testen, damit man ihm glaubt?
Nur sagt er gar nicht, dass 12GB zu wenig sind, sondern "nur knapp":
Inwiefern 12 GiB für die nächste Spiele-Generation ausreichen, wird sich aber noch zeigen müssen. Ich erwarte keine großen Probleme.

Dass 12GB jetzt besser sind als 10GB Ende 2020, ist einfach ein Fakt.

Lurtz
2023-01-11, 16:07:50
Texturen zwischen Very High und Ultra machen optisch meist 0 Unterschied.
Optionale "HD" Texturen machen meistens 0 Unterschied.

Hier mal ein Beispiel mit den optionalen Far Cry 6 HD Texturenpack womit eine 3060Ti/3070/3070Ti in UHDund und aktivierten Raytracing einbricht. Wobei auch ohne den Einbruch die Karte vielleicht so 40fps liefern würde. Also eigentlich eh zu langsam ist Somit iszt selbst dieses Bepsiel für Vram Einbruch eigentlich komplett irrelevant und an den Haaren herbeigezogen.

https://abload.de/img/farcry_2kwi4i.png

https://abload.de/img/farcry_10ee5n.png

Ein Screenshot ist mit optionalen HD Texturen, der andere ohne. Wer sieht was?

Und wenn überhaupt, muss man im Spiel selber stehen bleiben und mit der Lupe schauen. Im normalen Gameplay also nicht ersichtlich.
Da hast du dir genau das Extrembeispiel rausgesucht, wo die höchste Einstellung kaum was bringt und teilweise sogar komplett kaputt performet um deine These zu untermauern.
Gibt genug Spiele wo es nur die Wahl zwischen Medium und High gibt und Medium bereits deutlich schlechter aussieht.

dargo
2023-01-11, 16:13:51
Die PS5 hat nicht 16GiB VRAM sondern 16GiB System RAM, den sich CPU und GPU teilen. Zusätzlich ist auch immer 2-2,5GiB von den RAM für das System reserviert.
Effektiv wird wohl eine PS5 weniger VRAM zur Verfügung haben als eine 8 GiB Karte im PC.
Garantiert nicht. Erstens ist ein gemeinsamer Speicher für CPU und GPU immer effizienter verwendbar. Zweitens hast du auf einer PS5 Direct Storage wo der PC immer noch hinterher hinkt.

aufkrawall
2023-01-11, 16:16:37
Ändert nichts daran, dass UE-Spiele auf dem PC trotz besserer Texturen und Effekte meist weit unterhalb vom "Konsolen-Maximum" liegen. Und das ohne GPU Decompression.

dargo
2023-01-11, 16:18:22
Es gibt also nur UE-Spiele im gesamten Spieleangebot? Interessant...

aufkrawall
2023-01-11, 16:21:18
Es gibt also nur UE-Spiele im gesamten Spieleangebot? Interessant...
Kannst natürlich auch Schrott wie Deathloop nehmen, was auf 16GB-Radeons durch schlechtere VRAM-Verwaltung schlechter als auf 12GB-GeForces läuft.
Ist halt nur komplett hirnrissig, die untersten 5% Schrott-Technik zum Maßstab zu erklären.

Die 12GB einer 4070 Ti sind massiv weniger schlimm als der fehlende DL-Upsampler einer 7900 XT. Das kann man rückblickend auf die 3080 10GB mit ziemlicher Sicherheit so sagen...

dargo
2023-01-11, 17:01:39
Keine Ahnung was du mit deinem Deathloop jetzt bezwecken möchtest, sei es drum. Eigentlich war meine Kernaussage nur, dass es da draußen viel mehr Spieleengines gibt als nur die UE. Wenn ich die erschienenen Ports der Playstation so überblicke (GoW, Days Gone, HZD, Spiderman, Uncharted, Beyond: Two Souls, Sackboy: A Big Adventure, Detroit: Become Human) verwenden afaik zwei davon die UE.

aufkrawall
2023-01-11, 17:30:39
Bis auf HZD, sind alle von dir aufgezählten Spiele trotz in house-Engine absolut human bez. VRAM-Verbrauches. Tippe bei Forbidden West auch auf keine Probleme, wenn das von Nixxes kommt.

dargo
2023-01-11, 17:37:08
Logisch... ist ja auch alles im Hinterkopf für eine <8GB Konsole (PS4) entwickelt worden. Für die PS5 und den PC nur etwas aufpoliert.

blaidd
2023-01-11, 17:41:02
Ich teste aktuell tatsächlich, wie viel Speicher nötig/sinnvoll ist - mit "normalen" Settings.

Im Prinzip sind 12 GiByte in vielen Fällen auch in UHD noch okay, es gibt aber ein paar Ausnahmen. Und was im Zusammenhang mit der RTX 4070 Ti vielleicht auch noch ganz interessant ist: DLSS 3.0 bzw. die Frame Generation benötigt auch noch mal etwa 1,5-2 GiByte Grafikspeicher, das ist dann selbst mit "DLSS 3.0 Balanced" hin und wieder gar deutlich mehr als nativ.

Der Treiber scheint dabei zu versuchen, immer 1 GiByte freizuhalten - dafür steigt dann die Streaming-Last. Gut zu sehen z.B. in Spider-Man Miles Morales, da geht der PCI-E-Transfer mit der RTX 4070 Ti auf über 10 GB/s (mit RT, das macht da sehr viel zusätzliche Bandbreitennutzung aus!) gegenüber vll. 7 GB mit einer RTX 4090. Das könnte eventuell wiederum Auswirkungen auf die Frametimes und theoretisch sogar die CPU-Performance haben, wenn die dann tatsächlich mehr Streaming-Aufwand haben sollte... (VRAM Usage in Spidy Miles Morales liegt bei knapp 11,2 GiByte in UHD mit RT und DLSS B, mit Frame Generation sind's dann aber 12,7 GiByte)

Ich bin noch am Evaluieren, genau nachmessen muss ich noch (was wahrscheinlich gar nicht so leicht ist, weil ich die Messergebnisse nicht direkt mit z.B. einer 4090 vergleichen kann, weil der Speicher der 4070 Ti ja langsamer angebunden ist - die verliert insbesondere in höheren Auflösungen also immer... aber vielleicht kann ich eine RTX 4090, 4070 Ti und RTX 3080 Ti vergleichen. Wenn beide in ähnlicher Form gegenüber der RTX 4090 einbrechen, ist die Speichermenge der Grund, nicht die Anbindung. Aber das muss ich noch ausklamüsern.)

Härtester Fall bislang ist btw. Need For Speed mit über 15 GiByte in UHD (und das noch ohne DLSS 3.0) ...^^
Far Cry 6 genehmigt sich mit Extra-Texturen und RT gerade mal knapp über 11 GiByte. Das ist aktuell schon fast normal...

Der Flight Sim mag gern viel Speicher, mit maximaler Sichtweite, Schattenauflösung und Texture-Sampling sind's über 14 GiByte, mit "nur" Ultra-Details (reduzierte Schatten, reduzierte Texturen, stark! reduzierter Detailgrad) sind es aber nur 10,5 in UHD (9,9 mit DLSS Balanced und 11,6 mit DLSS 3.0 Balanced und FG). Mit max Details versumpft allerdings der olle 12900K über Manhatten mit ~45 Fps im CPU-Limit, also wirklich "realistische Settings" sind das wohl weniger (wobei man mit DLSS 3.0 wiederum auf ~80-90 Fps käme...)

Ist natürlich fraglich, ob sich das (auch spürbar) tatsächlich auf die Performance überträgt, den Test-Teil habe ich noch vor mir - und ich nehm natürlich auch nicht nur UHD ins Visier, sondern auch WQHD und Full HD sowie viele andere Speichergrößen (und Unterschiede bezüglich Grafikspeicher-Ansprüchen bei den Grafikkarten-Herstellern).

Hab noch ein paar Testkandidaten, bin mal gespannt.

r3ptil3
2023-01-11, 17:52:43
Man muss aber auch in Betracht ziehen was für Spiele einen hohen Verbrauch haben.

Bei einem Spiel wie Need for Speed ist die ganze VRAM Diskussion aber gleich von Beginn an sinnlos.

Pumpi74
2023-01-11, 18:15:29
klingt nach 12Gb wird in kürze das neue 8GB. Zumindest wenn man das Hauptfeature DLSS3 nutzen möchte.

BlacKi
2023-01-11, 18:45:52
Ist natürlich fraglich, ob sich das (auch spürbar) tatsächlich auf die Performance überträgt, den Test-Teil habe ich noch vor mir - und ich nehm natürlich auch nicht nur UHD ins Visier, sondern auch WQHD und Full HD sowie viele andere Speichergrößen (und Unterschiede bezüglich Grafikspeicher-Ansprüchen bei den Grafikkarten-Herstellern).

Hab noch ein paar Testkandidaten, bin mal gespannt.


halte uns auf dem laufenden.

Dural
2023-01-11, 19:26:19
Bis die neuen Konsolen kommen wird sich am vmemory kaum noch was tun. Und das geht noch Jahre.

Und überhaupt, selbst die 3080ti hat 12gb, was plus / minus die gleiche Leistungsklasse ist.

Interessant finde ich eher das hier wenige lieber mehr Speicher haben möchten, aber 50% weniger RT Leistung in Kauf nehmen und von zukunft sicher sprechen. ;D

Thunder99
2023-01-11, 19:34:10
@blaidd Da kann man nur sagen :up:

Dural
2023-01-11, 20:34:30
Nö kann man nicht, die 4070ti ist keine 4k karte und wird es dank den 48mb cache auch nie sein.

Ich wette ad104 würde mit 64mb+ cache keinerlei einbrüche in 4k haben, und nach der reinen rohrleistung performen.

ChaosTM
2023-01-11, 20:37:21
Niemand mit einem 4K Monitor würde eine 4070er auch nur in Erwägung ziehen für mehr als 1 Jahr.
1440p -> Perfect

readonly
2023-01-11, 20:37:49
Nö kann man nicht, die 4070ti ist keine 4k karte und wird es dank den 48mb cache auch nie sein.

Ich wette ad104 würde mit 64mb+ cache keinerlei einbrüche in 4k haben, und nach der reinen rohrleistung performen.

Ich kann mit der Karte so ziemlich alles in 4k zocken, zur Not halt mit DLSS. Wo ist das Problem? Klar wenn ich 144hz 4k will, nicht, aber aber da gibt es auch andere Karten. Verstehe diese sinnlose Diskussion nicht.

Palpatin
2023-01-11, 21:05:47
Ich war mit der 3070 dank DLSS 2 Jahre sehr zufrieden und bin es jetzt mit der deutlich schnelleren 4070ti um so mehr. Zock aber in erster Line Paradox Game, sehr viel Turn Based und ein paar RPGs, Soulslike. Da ist der Anspruch natürlich nicht extrem hoch.

Pumpi74
2023-01-12, 02:46:23
Und überhaupt, selbst die 3080ti hat 12gb, was plus / minus die gleiche Leistungsklasse ist.

Ja, aber Ampere braucht auch keine 2GB extra in petto zu haben wenn DLSS3 nicht drauf läuft. Das der Vram knapp bei der 4070Ti bemessen ist, ist in den Tests zur Karte natürlich nicht aufgefallen, weil dort nicht mit DLSS3 gebencht wird. Die Praxis wird vermutlich anders aussehen.

Wobei ich nicht sagen will das die 4070Ti in jedem Fall schlecht ist, wenn man wie ich zum Bsp nur noch Anno zockt dann tut es auch eine 8GB Karte...

readonly
2023-01-12, 08:13:53
Das der Vram knapp bei der 4070Ti bemessen ist, ist in den Tests zur Karte natürlich nicht aufgefallen, weil dort nicht mit DLSS3 gebencht wird. Die Praxis wird vermutlich anders aussehen.

Dann sag mal ein Beispiel wo was mit Sicherheit, wie du vermutest, auffallen müsste. Ich bench da mal.

DrFreaK666
2023-01-12, 08:42:39
Dann sag mal ein Beispiel wo was mit Sicherheit, wie du vermutest, auffallen müsste. Ich bench da mal.

Bench doch allgemein mal.
Wäre interessant zu wissen wie viel DLSS3 wirklich benötigt

SamLombardo
2023-01-12, 08:47:16
Witcher 3 Next Gen @max in Novigrad nutzt mit der 4090 teilweise über 15Gb Vram mit Frame Generation. Wäre mal einen Test mit der 4070ti wert.

readonly
2023-01-12, 08:51:29
Bench doch allgemein mal.
Wäre interessant zu wissen wie viel DLSS3 wirklich benötigt

Ja, mal Vram mit und ohne FG. Mach ich später mal. Witcher3 guck ich mal. Gibt es da nen Benchmark im Spiel? Hab ich nicht nachgesehen. Cyberpunk, sollte doch auch FG haben.

SamLombardo
2023-01-12, 08:54:54
Ja, mal Vram mit und ohne FG. Mach ich später mal. Witcher3 guck ich mal. Gibt es da nen Benchmark im Spiel? Hab ich nicht nachgesehen. Cyberpunk, sollte doch auch FG haben.
@Witcher, ich glaube einen integrierten Benchmark gibt es nicht. Lauf einfach mal in Novigrad auf den belebten Plätzen ein bisschen herum, das ist speichermäßig der Worstcase.

readonly
2023-01-12, 09:46:07
Witcher 3, bin in noch nicht allzu weit, also erstmal am ersten Dorf mit der Brücke am Fluss herumgelaufen.

4k Ultra - 40er FPS - Speicher bei ca. 10GB voller wurde der erstmal nicht. Dann FG eingeschaltet, ging instant dann 1GB hoch, das sollte dann wohl der Speicherbedarf sein. FPS hoch auf Mitte 70er.

Latenz war ok (spiele mit X360 Controller), leider folgte dann ein Absturz. Hoffe das liegt nicht an der Karte. Diese Abstürze kannte ich bisher, nur wenn ich übertaktet habe in Witcher3 (das ist da am empfindlichsten) - war aber nicht.

Hott3X
2023-01-12, 10:03:52
Hat hier eigentlich schon wer die INNO3D GeForce RTX 4070 Ti?
Mich würde mal interessieren auf wieviel die Lüfter bei 75% PT laufen.

Sonyfreak
2023-01-12, 13:11:32
Hat hier eigentlich schon wer die INNO3D GeForce RTX 4070 Ti? Mich würde mal interessieren auf wieviel die Lüfter bei 75% PT laufen.Ja, die habe ich. Ich kann am Abend einen 3DMark Port Royal laufen lassen und hier die Lüfterkurve posten? Hilft dir das?

mfg.

Sonyfreak

Hott3X
2023-01-12, 14:39:44
Ja, die habe ich. Ich kann am Abend einen 3DMark Port Royal laufen lassen und hier die Lüfterkurve posten? Hilft dir das?

mfg.

Sonyfreak

Ja gerne. Wie ist Deine persönliche Meinung zu Karte und Lautstärke.
Allein durch die Größe ist es eine der Karten die für mich
in Frage kommen. Die Eagle und Tuf dürfen Milimeterarbeit bei mir werden.
Die Inno ist kürzer als 300mm und daher ohne Probleme bei mir einbaubar.

aufkrawall
2023-01-12, 17:13:27
Logisch... ist ja auch alles im Hinterkopf für eine <8GB Konsole (PS4) entwickelt worden. Für die PS5 und den PC nur etwas aufpoliert.
Plague Tale Requiem ist CurrentGen-only und braucht noch weniger VRAM als diese Sony-Ports. Und mehr Photogrammetrie-Geometrie als jedes andere Spiel nutzt es auch...

VRAM-Bedarf mit FG muss ich mir mal anschauen.

Sonyfreak
2023-01-12, 21:39:49
Ja gerne. Wie ist Deine persönliche Meinung zu Karte und Lautstärke.
Allein durch die Größe ist es eine der Karten die für mich
in Frage kommen. Die Eagle und Tuf dürfen Milimeterarbeit bei mir werden.
Die Inno ist kürzer als 300mm und daher ohne Probleme bei mir einbaubar.Bei meinem PC war 300mm auch das absolute Maximum, das ich gerade noch einbauen kann. :freak:

Ich persönlich bin ziemlich lärmempfindlich. Dementsprechend ist mein PC auf niedrige Lautstärke getrimmt. Ich empfinde die Karte als sehr leise. Besonders wenn man das Powertarget senkt.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82278&stc=1&d=1673555705

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82279&stc=1&d=1673555705

Die maximale Temperatur des Chips während des Port Royal Benchmarks liegt bei 62°C bei einer Lüfterdrehzahl von 1300rpm. Mehr als die 75% PT bringen in diesem Benchmark übrigens nur noch ein paar hundert Punkte. :)

mfg.

Sonyfreak

BlacKi
2023-01-12, 21:42:31
der adler ist gelandet. wie kann man seine lüfterkurve so verhunzen. 0rpm oder 1300, dazwischen gibts nichts. und wenn man die gigabyte software im hintergrund laufen lässt, wegen blingbling off, dann starten die spiele nicht, weil es als cheat erkannt wird...

nur unter wasser könnte ich mit der karte was anfangen...


10,4w idleverbrauch.

r3ptil3
2023-01-12, 21:49:53
Danke für den Tipp. Dann kann man die Eagle schon mal grundsätzlich disqualifizieren, egal zu welchem Preis.

Wobei mich das an der Strix 4090 auch ein bisschen störte. Unter 1000 RPM ging nix.
Es würden auch 500-600 RPM, je nach Situation/Game, locker ausreichen.

Weiss jemand wie weit runter die Suprim geht?
Edit: Genau, die MSI Suprim Modelle können auch unter 1000 RPM.

Bzgl. RGB-Steuerung: Probiers mal mit OpenRGB.

Bin mittlerweile halbwegs zufrieden damit und muss keine 25Gb Software von ASUS/MSI installieren, um ein paar LEDs steuern zu können.

Neosix
2023-01-12, 21:57:47
der adler ist gelandet. wie kann man seine lüfterkurve so verhunzen. 0rpm oder 1300, dazwischen gibts nichts. und wenn man die gigabyte software im hintergrund laufen lässt, wegen blingbling off, dann starten die spiele nicht, weil es als cheat erkannt wird...

nur unter wasser könnte ich mit der karte was anfangen...

Das wurde in den Gigabyte tests auch negativ berichtet. Die 1300 sind nämlich deren Anlauf Geschwindigkeit drunter ist einfach nix. Bei der Asus TUF sind es 1100 was für die Lautstärke deutlich angenehmer ist. Anderseits mit Quite/Silent Bios sollen sich beide nicht wirklich viel geben.

BlacKi
2023-01-12, 22:02:38
Das wurde in den Gigabyte tests auch negativ berichtet. Die 1300 sind nämlich deren Anlauf Geschwindigkeit drunter ist einfach nix. Bei der Asus TUF sind es 1100 was für die Lautstärke deutlich angenehmer ist. Anderseits mit Quite/Silent Bios sollen sich beide nicht wirklich viel geben.
kann man die tuf nicht manuell auf 500rpm runterdrehen?

Sonyfreak
2023-01-12, 22:20:59
der adler ist gelandet. wie kann man seine lüfterkurve so verhunzen. 0rpm oder 1300, dazwischen gibts nichts. und wenn man die gigabyte software im hintergrund laufen lässt, wegen blingbling off, dann starten die spiele nicht, weil es als cheat erkannt wird...

nur unter wasser könnte ich mit der karte was anfangen...


10,4w idleverbrauch.Das ist die Inno3D X3. Anlaufdrehzahl liegt bei 1200rpm.

mfg.

Sonyfreak

Neosix
2023-01-13, 01:20:54
Sorry hatte weiter oben Mist erzählt.
CB hatte die Asus TUF und die Gigabyte Eagle im Test, die 1100 waren von der Eagle, die Asus Lüfter laufen mit 800 Umdrehungen an.
https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/#abschnitt_die_asus_geforce_rtx_4070_ti_tuf_oc_im_detail
Hier link zum Nachlesen.

readonly
2023-01-13, 11:34:08
Zock gerade mal endlich Call of Duty: Infinite Warfare durch. Schon geil, alles auf max, 4k und trotzdem 120fps durchgehend. Ehrlich gesagt, sieht das zum Teil auch immer noch gut aus. Ist ja nicht mehr wie 2000 das ein 7 Jahre altes Spiel Augenkrebs verursacht.

BlacKi
2023-01-13, 16:21:46
der adler ist gelandet. wie kann man seine lüfterkurve so verhunzen. 0rpm oder 1300, dazwischen gibts nichts.


ich muss mich zum glück korrigieren. mit der gigabyte software ging das nicht. mit dem afterburner habe ich es geschafft fix 785rpm bei 52% lüfterspeed einzustellen. eine angepasste lüfterkurve war aber auch hier nicht möglich.


temp blieb bei unter 50-60° nach 10-15 min pubg bei 145-165w, 4k x 1,2 resulutioscale 115fps limit, was dann bei der karte mit uv und 2,5ghz zwischen 80 und 97% gpu last erzeugt XD


ich muss weitere spiele testen was das coilwhine angeht, aber in der runde pubg eben war es kaum feststellbar ob da wirklich coilwhine voranden ist oder nicht. vl bei 285w.



fazit, ich glaub ich behalte sie doch^^

readonly
2023-01-14, 12:14:22
Wie sieht es bei euch mit dem Übertakten aus? Welche Karte welche Ergebnisse? Welche Software.

Hatte zuerst die Inno 3d normal. Die ist aber stock schon in Witcher3 abgesemmelt. Wenn ich übertaktet habe, noch viel schneller. 3d Mark Timespy Extreme lief durch. GPU Takt über Geforce Experience Max +111mhz

Hab ich jetzt retourniert und die gleich Karte als OC Version bestellt. Teste gerade. Geforce Experience sagt Max +101mhz. Speicher scheint aber besser zu sein.

BlacKi
2023-01-14, 12:17:47
mir schmiert die karte auch stock in bf2042 ab. aber auch stock und sogar mit OV. glaub nicht dass das an der karte liegt.

ich müsste mal das windows neu machen um fehler auszuschließen. turricanm3 hatte wohl denselben fehler.

readonly
2023-01-14, 12:38:19
Bf2042 hat wohl ein Treiberproblem wie ich woanders gelesen habe. Bei mir ist Witcher3 der Worst Case. Ganz empfindlich.

r3ptil3
2023-01-14, 13:00:30
Läuft BF2042 bei euch im DX12 Mode?

BlacKi
2023-01-14, 13:01:04
naja, stock halt. und RTSS zeigt DX12.

r3ptil3
2023-01-14, 13:06:35
Schau mal unter "Dokumente/Battlefield 2042/settings" in der Datei "PROFSAVE_profile", ob der Wert "GstRender.Dx12Enabled" auf 0 oder 1 steht.

Falls auf 1, würde ich es mal mit 0 probieren.

BlacKi
2023-01-14, 13:23:46
steht auf 0

VooDoo7mx
2023-01-14, 20:43:13
Wobei mich das an der Strix 4090 auch ein bisschen störte. Unter 1000 RPM ging nix.
Es würden auch 500-600 RPM, je nach Situation/Game, locker ausreichen.

Weiss jemand wie weit runter die Suprim geht?
Edit: Genau, die MSI Suprim Modelle können auch unter 1000 RPM.


Also ich hab eine MSI 3080Ti Suprim und da laufen die 100mm Lüfter bei ca 850rpm an. Was dann auch sehr angenehm ist.

Das bei vielen Karten erst die Lüfter bei 1200rpm+ anspringen scheint wohl auch bei vielen anderen 4080 und 4090 Modellen zu bestehen, was ich so gar nicht nachvollziehen kann.
Kann man da nicht ggf. mit einer manuellen Lüfterkurve nachhelfen?

Man darf auch jedoch nicht vergessen dass ein 90mm Lüfter bei 1200rpm deutlich leiser als ein 100mm Lüfter bei der gleichen Drehzahl ist. Also sind auch diese Werte nicht immer direkt vergleichbar.

Raff
2023-01-16, 11:58:37
Grafikkarten-Rangliste Raytracing: 26 Gaming-GPUs zwischen 300 und 2.000 Euro im Vergleich (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/) (inkl. Price/Performance Rating)

Hier noch mal mit aktuellen Zahlen: Die RTX 4070 Ti weist gerade beim Raytracing ein relativ gutes Preis-Leistungs-Verhältnis (PLV) auf. Gegen Arc sieht sie alt aus, aber sie hat das beste PLV unter den schnellen Karten. ;)

MfG
Raff

Neosix
2023-01-16, 16:02:52
Hab mir zusätzlich zur Gigabyte Eagle die Asus TUF bestellt, beide waren fix da, ich wollte die Asus behalten und die Gigabyte zurückschicken, gut dass ich es noch nicht gemacht habe.

Die Asus hat das, was hier in einem der Tests als Spulenrasseln des Todes oder ähnliches betitelt wurde. Sobald die FPS >=61 erreichen geht die in einen Tornadosound des Zwitscherns und des Fiepens über, dass es nicht feierlich wird. Bei FPS oberhalb 150 Richtung 200 hab ich Angst dass mir ne Bombe unter dem Tisch platzen würde. Ich glaube würde ich in irgend einem alten Spiel ne Wand mit 1000FPS anstarren, würde die Karte sich einfach selbst durch die Kondensator Schwingungen Atomisieren. Wow, ich habe bisher die Gespräche über Spulenfiepen als leicht übertrieben abgestempelt. Auch schön das Asus sich hier als premium Hersteller gibt und der Packung ne Liste mit bestandenen Prüfungen der Karte dazu pakt, offensichtlich ist Fiepen oberhalb von 61FPS bei einer Frequenz dass einem die Zahnplomben weh tun, keins davon.

Thunder99
2023-01-16, 16:14:43
Wird Zeit eine Liste zu führen welcher Hersteller bei welchem Modell was uns ab wann für Spulen-Fiepen hat. Inkl. 4080&90...

Exxtreme
2023-01-16, 16:17:07
Wird Zeit eine Liste zu führen welcher Hersteller bei welchem Modell was uns ab wann für Spulen-Fiepen hat. Inkl. 4080&90...

So eine Liste wird trotzdem recht unzuverlässig sein. Allenfalls Tendenzen wird man da erkennen können.

PatkIllA
2023-01-16, 16:25:59
Seit wann ist es eigentlich normal, dass "Mittelklasse"-Karten 4 Slots belegen? Die scheinen alle bei 3,x zu liegen.
Da braucht man ja schon ein ATX-Board wenn man noch irgendeine Karte stecken will.

Sind die dann wenigstens leise oder gibt es da große Unterschiede zwischen den Modellen?

Razor
2023-01-16, 16:46:02
Da gibt's sogar recht deutliche Unterschiede:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=82339&d=1673883430 (https://www.techpowerup.com/review/asus-geforce-rtx-4070-ti-tuf/37.html)
Dieser Link ist nur ein Beispiel bei TechpowerUP (https://www.techpowerup.com/review/asus-geforce-rtx-4070-ti-tuf/37.html)... fasst alle getesteten RTX4070ti zusammen.
Als herausragend darf die PNY bezeichnet werden!

Ich hab' mir jetzt mal eine der günstigsten bestellt... die Palit GameRock Classic bei Mindfactory für 890€ inkl. Versan (https://www.mindfactory.de/product_info.php/12GB-Palit-GeForce-RTX-4070-Ti-GameRock-Classic-Aktiv-PCIe-4-0-x16--Ret_1478383.html)d.
Kostet mich dann knapp 750€ ohne MWSt... ziemlich genauso viel wie seinerzeit die RTX 2080 aus 08/2018 ;D

Razor

Neosix
2023-01-16, 17:09:41
So hab die Gigabyte getestet, und sie Fiept auch.
Ich würde sagen sie Fiept etwa "100FPS" weniger als die Asus. Wenn ihr versteht was ich meine. Aber halbe Fiepturbine ist halt immer noch eine Fiep Turbine. Ich bin grad "etwas" Unentspannt, es ist das erste Mal dass ich mir so ein Teueres PC Komponent kaufe, und da hab ich einfach etwas mehr "Ruhe" erwartet, vor allem bei den Riesigen Kühlern. Die Lüfter gehen auch kaum hoch, aber was bringt das, wenn ich die GPU trotz 1 Meter Abstand immer noch Fiepen höre durch die Kopfhörer.

Aber bei 2 GPUs von 2 Frage ich mich ob es etwa an meinem Rechner liegen kann? oO


ps. wenn ich alles bei 60FPS Zocke ist ja alles ok, aber ich habe mir extra einen neuen WQHD 180HZ Monitor angeschafft, ich wollte denn auch mal "ausfahren" ohne das ich angst habe mir Platzen Kondensatoren im Rechner :/

gedi
2023-01-16, 18:10:09
Sapphire 7900XTX Nitro+ = 0 Spulenfiepen!

Raff
2023-01-16, 20:24:30
Jede aktuelle High-End-Grafikkarte fiept. Wie sehr man das bemerkt, hängt nicht nur von den Bauteilen ab, sondern auch von der Auslastung, Bildrate und natürlich von der individuellen Wahrnehmung. Es soll ja auch Leute geben, die keinerlei Shader-/PSO-Stuttering haben, was aber technisch unmöglich ist. :D Einfach mal The Witcher 3 (Menüs) oder GTA 4 (Ladebildschirme) ohne Vsync/Framelimits starten, das sind die Wurstkäse-Tests. Was da nicht fiept, fiept tatsächlich nicht.

Ich habe das übrigens zum ersten Mal ~2004 bei einer NV35-Karte gehört, welche mittels TobiWahnKenobis Mod-BIOS bis über die Kotzgrenze geballert wurde. Und trotzdem war diese Geforce FX 5950 Ultra in SM2.0-Spielen langsamer als eine Radeon 9800 Pro/XT. :uup: Hier ein paar belustigende Werte, auch wenn das hart offtopic ist:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4048130&highlight=FX+5950+Ultra#post4048130
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4034107&highlight=FX+5950+Ultra#post4034107

MfG
Raff

gedi
2023-01-16, 22:10:50
Jede aktuelle High-End-Grafikkarte fiept. Wie sehr man das bemerkt, hängt nicht nur von den Bauteilen ab, sondern auch von der Auslastung, Bildrate und natürlich von der individuellen Wahrnehmung. Es soll ja auch Leute geben, die keinerlei Shader-/PSO-Stuttering haben, was aber technisch unmöglich ist. :D Einfach mal The Witcher 3 (Menüs) oder GTA 4 (Ladebildschirme) ohne Vsync/Framelimits starten, das sind die Wurstkäse-Tests. Was da nicht fiept, fiept tatsächlich nicht.

Ich habe das übrigens zum ersten Mal ~2004 bei einer NV35-Karte gehört, welche mittels TobiWahnKenobis Mod-BIOS bis über die Kotzgrenze geballert wurde. Und trotzdem war diese Geforce FX 5950 Ultra in SM2.0-Spielen langsamer als eine Radeon 9800 Pro/XT. :uup: Hier ein paar belustigende Werte, auch wenn das hart offtopic ist:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4048130&highlight=FX+5950+Ultra#post4048130
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4034107&highlight=FX+5950+Ultra#post4034107

MfG
Raff

Sorry, but nope! Die Toxic bekommst du zum sehr leichten Singen zwischen 360 und 400Fps. Anschließend ist bis 1000Fps Ruhe! Dann erst singt sie im Kanon zum NV-Krempel. Problem nur, das die NV-Karten bereits Ingame sind und sich die Soundkulisse wie deutscher Schläger anhört

Linmoum
2023-01-16, 22:23:53
Der "NV-Krempel" und "Die NV-Karten" fiept hier minimalst, wenn das Ohr direkt ans Gehäuse wandert. Also bei >=1.05V und entsprechend hohem Verbrauch und das, obwohl das Ding mittlerweile ja unter Wasser sitzt und die Spulen dementsprechend eiskalt sind. Deine Verallgemeinerung ist mal wieder Quatsch und wie man aus unzähligen Reviews und Eindrücken mittlerweile weiß, singen vor allem die MBAs auffallend stark. Und das sind keine Nvidias. ;)

Davon ab hat Raff recht. Es fiept jede Karte. Die Frage ist hier gar nicht ob, sondern in welchem Ausmaß. Und ob das so stark ist, dass du das selbst aus einem Meter Entfernung bei geschlossenem Gehäuse hörst, oder halt nur, wenn du mit dem Ohr direkt rangehst.

BlacKi
2023-01-17, 00:24:23
meine karte ist durchaus hörbar beim quitschen/zirpen bei voller tdp.

mit uv bei 2550mhz @ 0,89v ist das aber selbst bei offenem gehäuse nicht als quitschen/zirpen wahrzunehmen.

TobiWahnKenobi
2023-01-17, 06:17:44
Jede aktuelle High-End-Grafikkarte fiept. Wie sehr man das bemerkt, hängt nicht nur von den Bauteilen ab, sondern auch von der Auslastung, Bildrate und natürlich von der individuellen Wahrnehmung. Es soll ja auch Leute geben, die keinerlei Shader-/PSO-Stuttering haben, was aber technisch unmöglich ist. :D Einfach mal The Witcher 3 (Menüs) oder GTA 4 (Ladebildschirme) ohne Vsync/Framelimits starten, das sind die Wurstkäse-Tests. Was da nicht fiept, fiept tatsächlich nicht.

Ich habe das übrigens zum ersten Mal ~2004 bei einer NV35-Karte gehört, welche mittels TobiWahnKenobis Mod-BIOS bis über die Kotzgrenze geballert wurde. Und trotzdem war diese Geforce FX 5950 Ultra in SM2.0-Spielen langsamer als eine Radeon 9800 Pro/XT. :uup: Hier ein paar belustigende Werte, auch wenn das hart offtopic ist:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4048130&highlight=FX+5950+Ultra#post4048130
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=4034107&highlight=FX+5950+Ultra#post4034107

MfG
Raff

:rolleyes: ja - lange ist's her.. scheisse, bist du alt. vor knapp 20 jahren habe ich das spulenfiepen eingeführt.. jetzt sagt nicht, ihr wolltet das gar nicht haben.



(..)

mfg
tobi

Thunder99
2023-01-17, 19:03:29
Nicht jede Errungenschaft will man behalten ;D

Schade, dass es technisch nicht ganz vermeiden lässt das Spulenfiepen

Lehdro
2023-01-17, 21:13:36
Technisch lässt sich das mit dem steigenden Alter lösen. Eure Alter, nicht dass der Karte :D

aufkrawall
2023-01-18, 14:49:33
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143

Auch nochmal angeguckt, jeweils mit CAS.

Nativ:
https://abload.de/thumb/aplaguetalerequiem_x6d0cxd.png (https://abload.de/image.php?img=aplaguetalerequiem_x6d0cxd.png)

Q:
https://abload.de/thumb/aplaguetalerequiem_x6lgi93.png (https://abload.de/image.php?img=aplaguetalerequiem_x6lgi93.png)

P:
https://abload.de/thumb/aplaguetalerequiem_x6tydqc.png (https://abload.de/image.php?img=aplaguetalerequiem_x6tydqc.png)

Nativ sieht ja sooo gut aus vs. Performance. :freak:
Keine Ahnung, was manche testen. Kommen wahrscheinlich mit ihren eigenen Screenshots oder Einstellungen durcheinander...

Exxtreme
2023-01-18, 15:08:18
Nativ sieht ja sooo gut aus vs. Performance. :freak:

Die Vegetation sieht voller aus in nativer Auflösung. :) Das sieht man z.B. ganz deutlich an der Pflanze rechts neben dem Jungen und an den violetten Pflanzen vor ihm. Aber es ist in der Tat nicht so, dass das so viel schlechter aussieht. Man muss nur wissen auf was man achten muss. X-D

Schnitzl
2023-01-18, 16:30:18
Also ich persönlich finde besonders bei Perf. das Bild zu milchig. Wobei die Differenz in der Tat gering ist.

Timbaloo
2023-01-18, 16:38:49
Auch nochmal angeguckt, jeweils mit CAS.

Nativ:
https://abload.de/thumb/aplaguetalerequiem_x6d0cxd.png (https://abload.de/image.php?img=aplaguetalerequiem_x6d0cxd.png)

Q:
https://abload.de/thumb/aplaguetalerequiem_x6lgi93.png (https://abload.de/image.php?img=aplaguetalerequiem_x6lgi93.png)

P:
https://abload.de/thumb/aplaguetalerequiem_x6tydqc.png (https://abload.de/image.php?img=aplaguetalerequiem_x6tydqc.png)

Nativ sieht ja sooo gut aus vs. Performance. :freak:
Keine Ahnung, was manche testen. Kommen wahrscheinlich mit ihren eigenen Screenshots oder Einstellungen durcheinander...
Was zum Fick passiert da in nativ mit dem hinteren Baum/Busch rechts neben dem Afterburner OSD? In Q sieht das auch komisch aus.

aufkrawall
2023-01-18, 16:45:31
Was zum Fick passiert da in nativ mit dem hinteren Baum/Busch rechts neben dem Afterburner OSD? In Q sieht das auch komisch aus.
Das Spiel macht irgendwas komisch mit der Vegetation, ja. DLSS Q kann das noch irgendwie besser zusammensetzen. Aber natürlich wär es immer besser, es würde gar nicht erst so komisch kaputt aussehen.
FSR 2 Mod versagt übrigens komplett, die reinste Flimmerhölle in der Vegetation.

Weltraumeule
2023-01-18, 20:40:29
Hallo zusammen, wie ist es denn, wenn man seine fps begrenzt (bei mir sind es 120 oder 144 fps) und das Powerlimit mit Afterburner z.B. auf 95 % setzt, ist da Spulenfiepen bei allen Modellen leise?

Falls nicht, welche 4070 TI bietet ein eher leiseres Fiepen und lässt es zu, dass man ein eigene Lüfterkurve mit Afterburner einstellen kann?

Ex3cut3r
2023-01-18, 20:59:05
Auch nochmal angeguckt, jeweils mit CAS.

Nativ:
https://abload.de/thumb/aplaguetalerequiem_x6d0cxd.png (https://abload.de/image.php?img=aplaguetalerequiem_x6d0cxd.png)

Q:
https://abload.de/thumb/aplaguetalerequiem_x6lgi93.png (https://abload.de/image.php?img=aplaguetalerequiem_x6lgi93.png)

P:
https://abload.de/thumb/aplaguetalerequiem_x6tydqc.png (https://abload.de/image.php?img=aplaguetalerequiem_x6tydqc.png)

Nativ sieht ja sooo gut aus vs. Performance. :freak:
Keine Ahnung, was manche testen. Kommen wahrscheinlich mit ihren eigenen Screenshots oder Einstellungen durcheinander...

Cool. Danke für die Bilder. Hatte hier aber auch nochmal einen Vergleich mit 2.5.1 DLL gepostet:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13207283&postcount=351

Wenn ich dann noch die optimierten Settings von DF nutze, kratze ich an den 100 PFS in der Szene vor ursprünglichen 40 FPS mit Max Settings. Mit kleinen Grafischen Unterschied.

Viele haben echt Probleme, an den Settings zu drehen. Verletzt wahrscheinlich ihr Ego. :freak:

Schade, damit kann man sich oft eine neue GPU sparen.

Razor
2023-01-19, 16:09:11
Ich hab' mir jetzt mal eine der günstigsten bestellt... die Palit GameRock Classic bei Mindfactory für 890€ inkl. Versan (https://www.mindfactory.de/product_info.php/12GB-Palit-GeForce-RTX-4070-Ti-GameRock-Classic-Aktiv-PCIe-4-0-x16--Ret_1478383.html)d.
Kostet mich dann knapp 750€ ohne MWSt... ziemlich genauso viel wie seinerzeit die RTX 2080 aus 08/2018 ;D
Ein würdiger Nachfolger meiner schon betagten RTX 2080 (Gigabyte Gaming OC)!

Hatte eigentlich keine großartigen Erwartungen, wollte nur nicht meinen ganzen (Silent-)Tower auseinander reißen, um dem Teil ein neues Netzteil zu verpassen.
Ist ein Antec Performance One P-183 V3 mit Be Quiet! PurePower 700W ATX24 Netzteil und "ordentlich" Platz.
Dies allerdings gepaart mit einem X570 Mainboard (AsRock Extreme 4), einem AMD Ryzen 5900X (12c) und 64GB RAM.
Dazu noch 2x M.2, 1x SSD und 12TB HDD mit BD-Ram Laufwerk...

Könnte also knapp werden, was dann auch so war, wie ich feststellen musste.

Dummer Weise taktet die GameRock Classic nicht mit den angepriesenen 2610MHz...
...sondern im "Performance" Default mit krassen 2.880MHz (bei 1,1V)!

Nachdem ich dann bei diversen "maximal" Belastungen feststellen musste, dass die 700W bei mir nicht mehr ausreichen (Treiber schmiert ab), habe ich es "ruhiger" angehen lassen.

Was war eigentlich mein Ziel? Maximale Performance? Dann hätte ich mir eine 4090 holen müssen.
Die 4080 war nie eine Option, Netzteil, "dünnes" Speicherinterface, u.v.a.m... nicht Fisch, nicht Fleisch und viel zu teuer!
Maximale Zukunftssicherheit? Dan hätte ich mir mind. eine 3090 ziehen müssen... und auf AMD habe ich keinen Bock.

Nein, ich wollte eine bessere Effizienz, die Unzulänglichkeiten der RTX 2080 ausbügeln und die nächste Zeit (1-2 Jahre) mit WQHD verbringen.
Und natürlich die nicht mehr zeitgemäße Leistung (Performance und VRAM) der RTX 2080 mit VR begraben.

Und was soll ich sagen? All das hat die RTX 4070ti (nunmehr im "Quiet Modus" ;-) erfüllt!
Sie ist leise, schnell genug und dabei auch noch sehr effizient!
Deutlich bessere Leistung bei deutlich geringerem verbrauch.

Mit 'nem WHQL und 120Hz brauchts eben auch nicht mehr ;)

Im Idle braucht die Karte gerade mal 5W mehr, mit TV, Internet und Firmen-Zugang sogar exakt genauso viel wie die gute alte RTX 2080 (ganzes System ca. 185W).
Besonders die vorprogrammierte Lüftersteuerung hat mir gefallen... das war bei der Gigabyte wahrlich ein Graus - bei 60° hoch und auch wieder runter takten.
Wer denkt sich so etwas aus?

Brauchte also immer ein FanControl im Hintergrund, der da ordentlich nachjustiert hat - auch das ist nun Geschichte.
Zudem wurde die Gigabyte unter starker Belastung echt laut - 3000rpm mit 3 Lüftern? Das war nicht nur "hörbar", sondern brauchte schlicht Kopfhörer!

Jetzt? Gehäuse bleibt zu, die Lüfter wirbeln mit 1240 bis 1500rpm, machen keine störenden Gehäuse und sind kaum zu hören - so muss das sein!
"Spulenfiepen" gibt's nur bei 500fps und mehr, die ich zumindest im meinem Umfeld nie habe (außer bei besagten "Extrembelastungen" :D).

Langsam dämmert mir, warum nVidia dieses Konstrukt als RTX 4080 raus bringen wollte...
Das mit der "anderen" war einfach nur dumm - warum nicht als 4080ti oder "super" vermarkten?

Ich könnte jetzt weiter ausholen, tue dies an dieser Stelle aber nicht.

Die 750€ sind in heutigen Tagen sehr gut angelegt, die 2080 ist schon verpackt und wird rund 250€ wieder rein holen...
So habe ich nun für rund 500€ eine zeitgemäße Grafikkarte bekommen und bin für die nächsten Zeit gewappnet - was will ich mehr?

Razor

P.S.: übrigens cooles Zubehör bei gewesen... Grafikkarten-Stütze, ordentliches 2x8 Pol PowerCord und "GameRock" üblich, ein ARGB-Kabel dabei.
Letzteres funzt übrigens mit dem Mainboard hervorragend zusammen - macht bei einem geschlossenen Gehäuse ohne "Ausblick" aber keinen Sinn :freak:

P.P.S.: ein paar "Impressionen" dürfen natürlich nicht fehlen.
Ich empfand schon die 2080 nicht als "klein", aber die 4070ti setzt da nochmal ordentlich einen drauf!

Da fällt mir doch glatt auf, dass ich den CPU-Kühler mal wieder reinigen sollte - habe ich das überhaupt schon mal getan? ;D

Lurtz
2023-01-22, 21:25:42
Die 4060 Ti soll laut Gerüchteküche etwa so schnell wie ein 3070 werden und auch nur 8 GB VRAM haben - und ab 500$ starten, sprich auch so teuer sein. Fortschritt! Den gibts nur im Geldbeutel von nVidia und beim Stromverbrauch...

Ich überlege mir jetzt echt for the lulz eine 4070 Ti zu holen. Möglichst bevor die 4060 Ti rauskommt, dann kriege ich vielleicht noch 400€ dafür?

Es ist die einzige halbwegs runde Karte aktuell, die Karte mit dem "besten" Preis/Leistungsverhältnis und sie sollte mit einem sich hoffentlich verbreitenden DLSS Frame Generation wahrscheinlich für so ziemlich alles in dieser Konsolengeneration in WQHD reichen.

Alles darüber kostet deutlich über 1.000€ und alles darunter ist unbrauchbar.

Andererseits geht die 3070 abseits von heavy RT auch noch ganz ok. Aber obs in zwei Jahren wirklich besser wird mit den Karten, es darf bezweifelt werden...

Rampage 2
2023-01-22, 21:46:05
Die 4060 Ti soll laut Gerüchteküche etwa so schnell wie ein 3070 werden und auch nur 8 GB VRAM haben - und ab 500$ starten, sprich auch so teuer sein. Fortschritt! Den gibts nur im Geldbeutel von nVidia und beim Stromverbrauch...

Wenn das Ding wirklich nur mit 8GB VRAM kommt, dann ist es DOA. Von "Fortschritt" brauchen wir bei einem solchen Produkt eh von Anfang an nicht zu reden:ulol:

Wenn das Ding wirklich so kommt, dann ist das nicht nur purer Hohn (seitens Nvidia ggü. der Gamerschaft), sondern auch noch eine neue Dimension der Lächerlichkeit:down:

R2

BlacKi
2023-01-22, 21:51:24
Wenn das Ding wirklich nur mit 8GB VRAM kommt, dann ist es DOA. Von "Fortschritt" brauchen wir bei einem solchen Produkt eh von Anfang an nicht zu reden:ulol:

Wenn das Ding wirklich so kommt, dann ist das nicht nur purer Hohn (seitens Nvidia ggü. der Gamerschaft), sondern auch noch eine neue Dimension der Lächerlichkeit:down:

R2als ob n33 von amd mit mehr käme. die preise sind nach wie vor noch zu hoch, das ist alles.

Razor
2023-01-23, 16:05:19
Die aktuellen Preise sind wahrlich "lächerlich"... aber auch konkurrenzlos :(
Wirklich "weniger", als eine 4070ti (12GB) darf's eben nicht sein.

Übrigens habe ich nun auch die 2610Mhz "Boost"-Takt gesehen... beim Browsen und immer nur kurz.
Verstehe immer noch nicht, warum der Boost bei der "GameRock Classic" (non OC) bei 2880MHz liegt :eek:
Sind krasse 270MHz oder gute 10% Mehrtakt.

@Lurtz: Das mit Stromverbrauch ist im Sinne des maximalen Verbrauchs zwar richtig, aber eben nicht im normalen Gebrauch.
Wie ich schon schrieb, ist der Verbrauch ggü. der RTX 2080 bei deutlich mehr Leistung sogar gesunken.

Der Maximalverbrauch dürfte eher dem Marketing in Konkurrenz zu AMD geschuldet sein.

Razor

Lurtz
2023-01-23, 21:29:03
Den Stromverbrauch habe ich ja als Fortschritt genannt, war vielleicht missverständlich formuliert ;)

Rush
2023-01-24, 08:53:43
Wenn das Ding wirklich nur mit 8GB VRAM kommt, dann ist es DOA. Von "Fortschritt" brauchen wir bei einem solchen Produkt eh von Anfang an nicht zu reden:ulol:

Wenn das Ding wirklich so kommt, dann ist das nicht nur purer Hohn (seitens Nvidia ggü. der Gamerschaft), sondern auch noch eine neue Dimension der Lächerlichkeit:down:

R2

Warum sollte die Karte DOA sein?
Angesichts der Preislage ist sie erschwinglich und 8GB VRAM reichen dem Durchschnittsgamer, der sowieso nur 1080p nutzt, vollkommen aus.
Die Hersteller entwickeln für den Markt, nicht für "uns".

HOT
2023-01-24, 08:59:05
als ob n33 von amd mit mehr käme. die preise sind nach wie vor noch zu hoch, das ist alles.

Der wird aber keine 500 Eur kosten 😜

BlacKi
2023-01-26, 16:30:02
also die eagle war einfach nur dreck. die TUF hier gefällt mir wesentlich besser.

ich weiß nicht ob das mit dem neuen treiber kam, aber der idle verbrauch liegt nur halb so hoch wie bei meiner messung mit der eagle

5w ist echt ein spitzenwert.

https://abload.de/img/idle4070tiseigq.png

die lüfter springen zwar ebenfalls mit 1200rpm an und gehen dann auf 30% lüfterspeed (1000rpm) runter.

die sind dabei aber viel leiser als die von der eagle.

Sonyfreak
2023-01-27, 09:10:55
@Lurtz: Das mit Stromverbrauch ist im Sinne des maximalen Verbrauchs zwar richtig, aber eben nicht im normalen Gebrauch. Wie ich schon schrieb, ist der Verbrauch ggü. der RTX 2080 bei deutlich mehr Leistung sogar gesunken.Darüber hinaus kann man den Stromverbrauch fast ohne Leistungsverlust deutlich senken. Ich spiele aktuell Witcher 3 mit RT und allen Details. Da verbraucht die Grafikkarte etwa 235 Watt bei einem Takt von knapp über 2,8Ghz. Wenn ich das Powertarget auf 60% senke, was einem Verbrauch von 170 Watt entspricht, liegt der Takt zwischen 2,5 und 2,6Ghz. Ich habe also 92% vom Takt bei etwa 72% des Stromverbrauchs. :) Weniger fordernde Titel wie Redout 2 spiele ich mit 35% Powertarget und einem Stromverbrauch von knapp unter 100 Watt. :D Dann liegt der Takt aber auch nur noch bei etwa 1,2Ghz.

Den Afterburner Curve Editor habe ich bei mir leider immer noch nicht funktionsfähig bekommen. Sobald ich irgendwas an der Kurve ändere, liegt nur noch der 2D-Takt 645/400Mhz für GPU bzw. Speicher an an. Eine Neuinstallation des Grafiktreibers bzw. des Afterburners haben bei mir nichts geändert.

Unter Manjaro Linux läuft die Karte bisher noch nicht wie gewünscht. Die Desktopfunktionen laufen ganz normal, allerdings habe ich komische Ruckler oder Hänger, sobald ich ein Video öffne. Mit der GTX 1080 davor hatte ich dieses Problem nicht. Der neue Nvidia Treiber 525.85.05 (https://www.phoronix.com/news/NVIDIA-525.85.05-Linux) vom 19.1 hat die Situation leider nicht verbessert, obwohl das Treiberpanel die Karte mittlerweile korrekt erkennt.

mfg.

Sonyfreak

whtjimbo
2023-01-27, 15:57:14
die lüfter springen zwar ebenfalls mit 1200rpm an und gehen dann auf 30% lüfterspeed (1000rpm) runter.


kann man mit Afterburner eine Lüfterkurve festlegen, so dass die Lüfter bspw. immer mit mindestens 600rpm drehen und dann smooth rauf gehen?

BlacKi
2023-01-27, 16:05:50
kann man mit Afterburner eine Lüfterkurve festlegen, so dass die Lüfter bspw. immer mit mindestens 600rpm drehen und dann smooth rauf gehen?


nein, auch mit der asus tweak software nicht. minimum sind 30% lüfterspeed.

dargo
2023-01-27, 16:30:30
Die 4060 Ti soll laut Gerüchteküche etwa so schnell wie ein 3070 werden und auch nur 8 GB VRAM haben - und ab 500$ starten, sprich auch so teuer sein. Fortschritt! Den gibts nur im Geldbeutel von nVidia und beim Stromverbrauch...

Ich überlege mir jetzt echt for the lulz eine 4070 Ti zu holen. Möglichst bevor die 4060 Ti rauskommt, dann kriege ich vielleicht noch 400€ dafür?

Du kritisierst im ersten Teil Nvidia und im zweiten willst du NV gleich wieder für die tolle Entwicklung belohnen? Respekt an so viel Selbstreflektion. :uup: NV hat euch einfach an den Eiern und ihr merkt es nicht mal. ;D

aufkrawall
2023-01-27, 16:39:24
AMD ist halt nicht kaufbar, was will man machen. Schon ohne FG wäre die Sache im Grunde komplett gelaufen. Jetzt kommt noch FG on top, was für viele, die es selber in Aktion gesehen haben, als Killer-Feature gilt. Von den ganzen AMD-Desastern der letzten Zeit mal ganz abgesehen. :freak:

dargo
2023-01-27, 16:55:35
AMD ist halt nicht kaufbar, was will man machen.
you made my day ;D

aufkrawall
2023-01-27, 17:07:43
Was nützt mir die ganze Pseudo-Leistung, wenn ich gar kein AA zur Verfügung hab, das schon mit Uralt-Content nicht völlig überfordert ist? Nach Dutzenden eigenen BQ-Vergleichen von DLSS vs. Rest kann ich mir den anderen Schrott einfach nicht mehr geben. Da bleib ich lieber bei der 3060, als mir FSR 2- oder TAA-Fails mit RDNA3 anzutun. Um mal eines von ziemlich vielen Beispielen aufzuzählen.

So eine Szene sieht mit etwas anderem als DLSS/DLAA in Bewegung einfach immer beschissen aus:
https://abload.de/thumb/witcher3_2023_01_27_1osczw.png (https://abload.de/image.php?img=witcher3_2023_01_27_1osczw.png)
Und dieses Jahr dürfte es wieder mindestens eine neue DLSS-Version mit sichtbarem Fortschritt geben. Nun, da dieses furchtbare Sharpen gestorben ist, freu ich mich da richtig drauf. Fine Wine. :)

BlacKi
2023-01-27, 19:06:47
die TUF gerade wieder bei NBB für 899€
https://geizhals.de/asus-tuf-gaming-geforce-rtx-4070-ti-a2871181.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk

Weltraumeule
2023-01-27, 19:15:01
nein, auch mit der asus tweak software nicht. minimum sind 30% lüfterspeed.
Wie bitte? Gilt das für alle Modelle der 40070 TI?
Man meine alte 1060 lies sich nicht unter 30 % Lüfter Geschwindigkeit regeln, die 3060 ging dagegen auch auf 0.
Ist man jetzt mit der 4070 Ti einen Schritt zurück?
Welche Modelle sind denn mit 30 % leise? Ich habe es eher auf die Flache Inno 3d abgesehen mit zwei Slot Belegung, aber dies wird bei 30 % bestimmt sehr laut sein wegen des kleinen Kühlkörpers oder?

BlacKi
2023-01-27, 19:38:35
meine 3060 ging nicht unter 30% mit 1600rpm.

die eagle ging mit fest manueller einstellung auch bis 800rpm, aber die lüfter gingen nicht direkt von 0 auf 800, sondern haben nur versucht zu starten. um sicher zu starten musste man 1000-1100rpm einstellen. was recht deutlich hörbar war.
standard war aber 0 oder 1300rpm, was echt mist ist.

die TUF geht nicht unter 1000rpm auch fixiert nicht. die karte geht von 0 auf 1200, aber ist ziemlich leise dabei. und dreht dann wieder runter auf 1000rpm, kaum hörbar.

ja, ich gehe davon aus das alle günstigeren modelle, bis auf die spitzenmodelle wie aorus, strix und suprim und co., solch eine lüftersteuerung haben. vermutlich, damit man die teuren modelle kauft.

Chrisch
2023-01-27, 19:54:02
Zotac 4070Ti Trinity heute bekommen, macht nen wertigen Eindruck...

Lüfter im Desktop Betrieb aus und max. Drehzahl beim Zocken bisher 1294U/Min (68°C), jedenfalls nicht laut oder störend.

Karte taktet eig permanent mit 2820MHz beim zocken, ab und zu gehts auch auf 2835MHz.

BlacKi
2023-01-27, 20:02:04
wie weit kannst du den lüfter runterdrehen?

Chrisch
2023-01-27, 20:04:32
30% ~1050U/Min

Lurtz
2023-01-27, 22:00:20
Du kritisierst im ersten Teil Nvidia und im zweiten willst du NV gleich wieder für die tolle Entwicklung belohnen? Respekt an so viel Selbstreflektion. :uup: NV hat euch einfach an den Eiern und ihr merkt es nicht mal. ;D
Ich habe 20 Jahre bis auf eine Ausnahme AMD gekauft. Seit DLSS Super Resolution ist AMD leider keine Option mehr.

FSR2 ist schlechter, damit könnte man vielleicht noch leben, aber es verbreitet sich trotz seiner offenen Natur nicht mal schneller, sondern langsamer, und ist offenbar sogar schwieriger zu implementieren als DLSS Super Resolution.

Bei Frame Generation war ich sehr skeptisch, aber selbst das scheint ja eine sehr gelungene Technologie zu sein, und auch dem hat AMD nichts entgegen zu setzen. Da fehlt es ja noch an den grundlegenden Hardwareeinheiten.

Außerdem ist AMD kein Heilsbringer, sondern fährt die hohen Preise mit. Insofern wüsste ich nicht, wieso die eine Firma mehr mein Freund als die andere sein sollte, wenn beide ihren Profit maximieren.

dargo
2023-01-27, 22:11:42
Du machst das schon richtig, hau rein. Wir wollen doch nicht die RTX 5090 für 3.000€ verpassen.

Ex3cut3r
2023-01-27, 22:14:44
Du machst das schon richtig, hau rein. Wir wollen doch nicht die RTX 5090 für 3.000€ verpassen.

AMD ist auch nicht so viel besser, 1200€ für RT Leistung der Vorgänger Gen Ampere. ;D
Effizienz schlechter als Ada. Und noch viele Treiber Probleme sowie schwankende Game Performance. Das kann auch keine Lösung sein.

Linmoum
2023-01-27, 22:36:36
Du machst das schon richtig, hau rein. Wir wollen doch nicht die RTX 5090 für 3.000€ verpassen.Du meinst die 2500€ teure 8900XTX, oder? So sehr, wie du dich für N31 interessierst (welcher im Vollausbau deutlich teurer als eine 4070Ti ist), könnte man das fast meinen.

Ansonsten keine Ahnung, was du bezwecken willst. Nvidia ist teuer, AMD ist teuer. Keiner ist günstig und keiner ist derart billiger, dass man hier ständig mit dem Finger auf den anderen IHV zeigen muss.

Der Unterschied ist, dass bei einer 4070Ti oder 4080 "nur" der Preis stört. Leistung, Effizienz und vor allem Featureset sind hervorragend. Kann man bei AMD leider nicht behaupten. Da stört genauso der Preis, aber auch die Effizienz, das Featureset (und zwar deutlich) sowie die RT-Performance.

Warum man Leute immer doof anmachen muss, die sich eine neue GPU kaufen wollen, die nicht von AMD stammt, ist mir ein Rätsel. Wer sich für mehr als nur avg. fps aus irgendwelchen Reviews in Raster-Spielen interessiert, für den kann eine Radeon - ganz nüchtern und rational betrachtet - nicht wirklich in Betracht kommen. Es gibt keine Vorteile gegenüber der Konkurrenz, auch nicht beim Preis.

Lurtz
2023-01-27, 22:41:27
Du machst das schon richtig, hau rein. Wir wollen doch nicht die RTX 5090 für 3.000€ verpassen.
Klar, die tollen AMD-Karten für 1.300€, also nochmal 400€ mehr, die aber von jeder 4070 Ti mit DLSS3 nur noch die Rücklichter sehen, sind natürlich viel preiswerter :uup:

Aber vielleicht kaufe ich auch gar keine, sondern warte auf die nächste Generation. Mal sehen ;)

=Floi=
2023-01-28, 03:20:53
Der Unterschied ist, dass bei einer 4070Ti oder 4080 "nur" der Preis stört.

Übertreib mal nicht!
192bit und zu wenig vram. Viel zu hoher name bzw. eine stufe kleinerer chip. Das produkt ist auf maximale marge optimiert. Neue features für eine gen.
Das schmälert das ganze schon ordentlich.

Werbung nur mit dem tollen DLSS und nichts mit reiner leistung ohne bildverschlechterer.
Viel marketing und der kunde ist der depp.

dargo
2023-01-28, 07:42:25
Klar, die tollen AMD-Karten für 1.300€, also nochmal 400€ mehr, die aber von jeder 4070 Ti mit DLSS3 nur noch die Rücklichter sehen, sind natürlich viel preiswerter :uup:

Erstens sagt niemand du sollst eine 1300€ Karte kaufen, schließlich wird das Portfolio laufend innerhalb eine Gen erweitert. Zweitens kommt der Cheat @FG auch bei AMD und natürlich auch bei Intel irgendwann. Wenn einer damit anfängt haben andere gar keine andere Wahl mehr als da mitzuziehen. Zuerst fing der Cheat mit dem Upscaling an, jetzt geht es weiter mit FG, bin schon gespannt was als nächstes im Cheatuniversum passiert. :ulol:

readonly
2023-01-28, 07:51:34
Zweitens kommt der Cheat @FG auch bei AMD und natürlich auch bei Intel irgendwann. Wenn einer damit anfängt haben andere gar keine andere Wahl mehr als da mitzuziehen.

Das ist für die aktuelle Generation wie interessant? FG ist in Hardware und nicht eine reine Software Lösung. DLSS2 zu FSR ist da nur bedingt vergleichbar.

Auch ist die reine Leistung einer 4070ti knapp doppelt so hoch wie die Vorgängergeneration. FG kommt noch mal on top. Da ist nix gefaked. So ein Blödsinn.

AMD steht momentan einfach schlechter da. Sieht man an den Verkäufen, so einfach ist das. Die Karten müssten dem Nachteil entsprechend eingepreist sein, sind sie aber nicht. Für die Käufer gibt es aktuell keinen Grund ne AMD Karte zu kaufen, abseits der Fan Base.

Auch ich mag Underdogs, aber AMD ist leider aktuell einfach die schlechtere Wahl. RT und FG sind einfach ein Punkt, auch wenn hier die rote Fraktion die Themen kleinredet. Real bei den Verkäufen sieht man wo der Hase langläuft. Kann man schlecht reden, ist aber einfach die Realität.

dargo
2023-01-28, 07:55:02
Das ist für die aktuelle Generation wie interessant?
https://www.computerbase.de/2022-11/amd-fsr-3-0-auf-rdna-3-fsr-3-0-soll-die-framerate-im-jahr-2023-verdoppeln/

Intel kann natürlich erst mit der nächsten Gen damit antanzen und wird es auch müssen.


Auch ist die reine Leistung einer 4070ti knapp doppelt so hoch wie die Vorgängergeneration.

Guter Witz. :lol: Klar... wenn man eine 3070TI mit nur 8GB ausstattet funktioniert bei der nächsten Gen das Marketing umso besser. ;)


AMD steht momentan einfach schlechter da. Sieht man an den Verkäufen, so einfach ist das.
Witzig denn die Verkaufszahlen bei MF sagen genau das Gegenteil. Global mag das natürlich anders aussehen. Mag ich aber auch noch nicht so recht dran glauben denn die 7900XTX vieler AIBs ist zumindest in DE zu oft ausverkauft, trotz der hohen Preise.

dildo4u
2023-01-28, 08:32:27
Deutschland hat halt mehr Rote Fanboys daher würde ich nicht drauf warten das die XTX sinnvoll wird was Preise angeht, wie die 4090 hat sie zu gute Reviews bekommen.
Diese Tests werden später fast nie angepasst wenn das Preis/Leistung der anderen Karten besser wird.

dargo
2023-01-28, 08:58:01
Deutschland hat halt mehr Rote Fanboys daher würde ich nicht drauf warten das die XTX sinnvoll wird was Preise angeht, wie die 4090 hat sie zu gute Reviews bekommen.

Was ein Quatsch... die Preise werden logischweise runter gehen wenn die erste Welle an Interessenten gesättigt ist. Nachfrage/Angebot und so. Nichts anderes ist auch bei der RTX 4090 passiert. Eine 7900XT Referenz ist bereits 100€ unter der offiziellen UVP in Europa von 1049€. Nachfrage/Angebot und so... der etwas stärker gewordene Euro spielt da auch eine Rolle.

btw.
Aber immerhin scheint es in DE noch genug Menschen mit Hirn im Kopf zu geben wenn du meinst in DE würden Gamer stärker zur Radeon greifen. Ein guter Teil hat offenbar verstanden was eine gesunde Konkurrenz langfristig für den Endverbraucher bedeutet. Sieht man eigentlich wunderbar aktuell im Bereich Gaming-CPUs bei Intel und AMD. Mittlerweile gibt es sehr gute Gaming-CPUs schon unter 200€ in beiden Lagern.

Lurtz
2023-01-28, 09:51:41
Erstens sagt niemand du sollst eine 1300€ Karte kaufen, schließlich wird das Portfolio laufend innerhalb eine Gen erweitert. Zweitens kommt der Cheat @FG auch bei AMD und natürlich auch bei Intel irgendwann. Wenn einer damit anfängt haben andere gar keine andere Wahl mehr als da mitzuziehen. Zuerst fing der Cheat mit dem Upscaling an, jetzt geht es weiter mit FG, bin schon gespannt was als nächstes im Cheatuniversum passiert. :ulol:
Und welche Karte unter einer 7900 XT soll sich von einer 3070 lohnen, eine 7800 für dann ~800€? ;D Ohne NN-Upsampling, ohne Frame Generation?

Ist mir egal ob du das als Cheat framest, mich interessiert dass DLSS in allen Belangen die mit Abstand beste Lösung ist aktuell. Reine Raster-Performance ist so 2020er... :cool:

dildo4u
2023-01-28, 10:26:54
Das ganze erscheint mir auch wie ein Hamster Rad wo man immer mehr Bezahlen soll, wobei es selten Sinn gemacht hat direkt die näste Generation zu kaufen.
Bis dahin sollte auch klar sein ob es weiterhin so grottig PC Ports gibt und man überhaupt Geld in die Plattform investieren sollte.

IchoTolot
2023-01-28, 12:12:10
RT und FG sind einfach ein Punkt, auch wenn hier die rote Fraktion die Themen kleinredet.

FG is kein Allheilmittel. Digital Foundry hat das auch ganz klar gemacht. Wenn du niedrige FPS hast, macht DLSS keinen Sinn weil es das Bild verschandelt. Da haste dann üble Artefakte.

https://www.youtube.com/watch?v=92ZqYaPXxas&t=576s

BlacKi
2023-01-28, 12:28:28
das betrifft aber die wenigsten gamer.

und das sag ich mit meinen relativ niedrig angesetzten 115fps fps cap. man will als gamer schon mindestens 90fps haben, optimaler weiße natürlich mehr.

und im fall von flight simulator umgehst du sogar das cpu limit. dort ist FG wenn es besser wird DER gamechanger.

Ex3cut3r
2023-01-28, 13:10:05
FG is kein Allheilmittel. Digital Foundry hat das auch ganz klar gemacht. Wenn du niedrige FPS hast, macht DLSS keinen Sinn weil es das Bild verschandelt. Da haste dann üble Artefakte.


Ja, Artefakte im Millisekunden Frame. Das wirst du in real Geschwindigkeit mit dem menschlichen Auge nicht wahrnehmen.

Exxtreme
2023-01-28, 13:55:41
RT und FG sind einfach ein Punkt, auch wenn hier die rote Fraktion die Themen kleinredet. Real bei den Verkäufen sieht man wo der Hase langläuft. Kann man schlecht reden, ist aber einfach die Realität.

Die Wahrscheinlichkeit, dass du diese Features nutzen kannst ist verschwindend gering da das nur von den allerwenigsten Spielen unterstützt wird.

Und mal aus Softwareentwicklersicht gesehen: FG könnte noch ein weiteres Problem mit sich bringen: es kann passieren, dass die Spiele noch beschissener programmiert werden könnten als jetzt schon. Denn anstatt zu optimieren wird einfach FG eingebaut und die fehlende Optimierung dann per FG ausgeglichen. Und ja, wenn man BWLer auf ein Softwareprojekt loslässt dann passiert das.

Ex3cut3r
2023-01-28, 13:58:05
Die Wahrscheinlichkeit, dass du diese Features nutzen kannst ist verschwindend gering da das nur von den allerwenigsten Spielen unterstützt wird.


Das Gleiche hat man damals auch 2018 beim Turing rls. über DLSS gesagt. Schau mal hier, alle außer BF5 meiner installierten Spiele haben DLSS 2 und/oder DLSS 3 auswählbar. Soviel dazu. :freak:

https://abload.de/img/screenshot2023-01-28115dk4.png

Exxtreme
2023-01-28, 14:05:04
Das Gleiche hat man damals auch 2018 beim Turing rls. über DLSS 2 gesagt. Schau mal hier, alle außer BF5 meiner installierten Spiele haben DLSS 2 und/oder DLSS 3 auswählbar. Soviel dazu. :freak:

https://abload.de/img/screenshot2023-01-28115dk4.png

Bei mir ist es nur WoW von zig Spielen. Und WoW hat nur RT-Schatten. :mad:

Ansonsten hier reinschauen was so gespielt wird:
https://steamcharts.com/top


Und da ist es auch nur ein Bruchteil. :)

Ex3cut3r
2023-01-28, 14:08:58
Spiele keine E-Sports Titeln, nur AAA sieht man im Bild auch recht deutlich IHMO. Habe überall DLSS drin, außer in BF5.
Ich bezweifle, dass jemand der 500€ + für GPUs ausgibt, kein AAA Spiel, spielt. :freak:

Komischer Vergleich, denn du zu Rate ziehst. :uponder:

AffenJack
2023-01-28, 14:27:01
Bei mir ist es nur WoW von zig Spielen. Und WoW hat nur RT-Schatten. :mad:

Ansonsten hier reinschauen was so gespielt wird:
https://steamcharts.com/top


Und da ist es auch nur ein Bruchteil. :)

Nur dass z.b. keins der Top10 Spiele ne aktuelle Grafikkarte benötigt. Du willst also mit Games, die überhaupt nicht die Zielgruppe von diesen Grafikkarten sind, außer du willst 300-500 FPS, begründen, dass es kaum genutzt wird?
Selbst bei den Top 25 sind es nur Call of Duty und RDR2 die bessere Grafikkarten brauchen und zufällig diese 2 Games haben DLSS. Ebenso Elden Ring und Ark, wüsste nicht was da sonst noch halbwegs anfordernd an die Grafikkarte wäre. Das zeigt gerade eher, dass sogut wie jedes fordernde Game heutzutage DLSS kriegt.

readonly
2023-01-28, 14:31:17
Es ist da und wird bei nächsten grossen Releases unterstützt oder nachgereicht werden. Klar AAA, für Indie Games und alte Klopper ist selbst ne 4070ti Overkill. Da erreicht die in 4k auch so hohe FPS - ist ja auch genug Rohleistung da, ist ja nicht nur Fake ;)

Lurtz
2023-01-28, 14:43:32
Das ganze erscheint mir auch wie ein Hamster Rad wo man immer mehr Bezahlen soll, wobei es selten Sinn gemacht hat direkt die näste Generation zu kaufen.
Bis dahin sollte auch klar sein ob es weiterhin so grottig PC Ports gibt und man überhaupt Geld in die Plattform investieren sollte.
Für Konsolenniveau reicht auch eine 3060 mit DLSS. Als wären die Konsolenversionen so toll (Shader Compilation bzw. Generationswechsel ist aktuell halt bisschen problematisch, war schon immer so).

https://mobile.twitter.com/Dachsjaeger/status/1618651690617671683/photo/1

Das Gleiche hat man damals auch 2018 beim Turing rls. über DLSS gesagt. Schau mal hier, alle außer BF5 meiner installierten Spiele haben DLSS 2 und/oder DLSS 3 auswählbar. Soviel dazu. :freak:

https://abload.de/img/screenshot2023-01-28115dk4.png
Es wird bald keine (AAA-)Titel ohne Upsampling mehr geben. Man wird dann nur noch die verwendete Technologie auswählen...

Schnitzl
2023-01-28, 14:51:56
Was mich ein wenig stört, ist dass manche so tun als gäbe FG und RT bereits in jedem Spiel.
Da sind wir aber noch weit von entfernt. Sehr weit.

Dazu kommt noch, dass es sehr wahrscheinlich ist, dass z.B. DLSS 4.0 dann wieder nur für die RTX50x0-Serie angeboten wird.

Das sollte man nicht einfach ausblenden sondern sich darüber im Klaren sein wenn man jetzt eine nVidia Karte kauft.
Und nicht nachher jammern und dann trotzdem wieder eine kaufen :rolleyes:

Und dann sind da noch die Preise, bei beiden Herstellern.

tbc

readonly
2023-01-28, 14:59:47
Was mich ein wenig stört, ist dass manche so tun als gäbe FG und RT bereits in jedem Spiel.
Da sind wir aber noch weit von entfernt. Sehr weit.

Das ist irrelevant, weil die Spiele, die es nicht haben, eh schnell genug auf den Dingern sind. Sag ich doch die ganze Zeit. Wofür noch FG bei einem alten Titel, da ist das Wurst. Wird eh nicht gebraucht. RT ist halt ein neues Feature, beim Rest der Grafik muss man ja auch Abstriche machen bei alten oder einfacheren Titeln. Und ja, die Konsolen bremsen die RT Entwicklung aktuell aus, da das dort nur in homöopathischen Dosen verwendet werden kann.

Preise sind natürlich, na ja fragwürdig. Sind aber bei beiden so. Also friss oder stirb.

Thunder99
2023-01-28, 15:00:30
Spiele keine E-Sports Titeln, nur AAA sieht man im Bild auch recht deutlich IHMO. Habe überall DLSS drin, außer in BF5.
Ich bezweifle, dass jemand der 500€ + für GPUs ausgibt, kein AAA Spiel, spielt. :freak:

Komischer Vergleich, denn du zu Rate ziehst. :uponder:

Hust, wenn ich so meine aktuellen Spiele sehe sind keine AAA dabei :freak:
Mann kann dennoch die Leistung gebrauchen (Ryzen 2 mit SGSSAA zwingt eine 1080Ti in 4K+ in die Knie, WQHD geht aber gut)

Atma
2023-01-28, 15:02:51
Es wird bald keine (AAA-)Titel ohne Upsampling mehr geben. Man wird dann nur noch die verwendete Technologie auswählen...
Halte ich für eine falsche/gefährliche Entwicklung. Irgendwo ist es aber auch egal, "AAA" Games standen nie schlechter da. Bugs, Crashes, Shader Compilation Ruckler, schlechte Performance und andere Ungereimtheiten wohin das Auge reicht. Diese Games sind bis auf wenige Ausnahmen inzwischen zum Abgewöhnen und schon lange nicht mehr mein Hauptfokus.

Schnitzl
2023-01-28, 15:33:06
Das ist irrelevant, weil die Spiele, die es nicht haben, eh schnell genug auf den Dingern sind
Fortsetzung:
@readonly: bin ich mir nicht sicher. als alter Sacred2-Spieler bin ich da aber auch ne Ausnahme.
dort wird immer noch sowohl CPU als auch GPU fast durchgehend voll ausgelastet - das Spiel ist von 2009 ;D

die Nachteile der 7900 AMD-Karten muss ich glaube ich nicht nochmal wiederholen...

Tesseract
2023-01-28, 15:37:52
FG is kein Allheilmittel. Digital Foundry hat das auch ganz klar gemacht. Wenn du niedrige FPS hast, macht DLSS keinen Sinn weil es das Bild verschandelt. Da haste dann üble Artefakte.

https://www.youtube.com/watch?v=92ZqYaPXxas&t=576s


in hitman 3 sieht FG selbst mit 10fps als basis immer noch extrem gut aus und was viele (absichtlich oder unbewusst) an der technologie völlig missverstehen ist dass verlangsamte aufnahmen zwar aus akademischer sicht interessant sind aber nicht die realität abbilden. in der realität wird das spiel - ganz besonders bei niedrigen fps - völlig vom sample&hold blur dominiert. eine nahezu verdoppelung und damit halbierung des blurs ist so dermaßen dominant, so viel kann FG überhaupt nicht artefakten um nicht trotzdem wesentlich besser zu sein. für diese erkenntnis reichen schon wenige sekunden live davor. egal ob die basis 10, 30, 60 oder 80+ fps sind, so lange man nach dem FG-schritt noch innerhalb der sync-range ist (darüber tearing bzw. mit vsync höherer lag da die basis-fps indirekt gedrückt werden) ist das resultat so beeindruckend, da kann man über das artefakt-diskussions-copium nur schmunzeln. in jedem spiel in dem ich es bis jetzt gesehen habe war es ein 100% on feature ohne groß überlegen zu müssen, genauso wie bei DLSS2 auch schon.

aufkrawall
2023-01-28, 15:40:02
Fakt ist, dass man am Ende der Nutzungszeit der Grafikkarte mit hoher Wahrscheinlichkeit Spiele dutzende, wenn nicht hunderte Stunden lang mit RT, DLSS 2 & 3 oder Reflex gespielt haben wird. Damit ist jede Radeon tot, dagegen kann man nicht argumentieren.

readonly
2023-01-28, 15:45:20
Zu FG und Vsync. Ja optimal ist ein Freesync Monitor, aber auch ohne nutzbar mit Vsync. Direkt Vsync sollte man aber nicht aktivieren, sondern in den Nvidia Einstellungen unter Vsync die Option "Schnell" dann werden nur ganze Frames angezeigt und die Bilder nicht zerrissen. Mit Vsync ist der Lag extrem hoch (so meine Erfahrung in Witcher3)

aufkrawall
2023-01-28, 15:46:55
ZDirekt Vsync sollte man aber nicht aktivieren, sondern in den Nvidia Einstellungen unter Vsync die Option "Schnell" dann werden nur ganze Frames angezeigt.
FastSync ist für D3D12 und Vulkan nicht implementiert.

readonly
2023-01-28, 15:50:06
FastSync ist für D3D12 und Vulkan nicht implementiert.

Ah ok, eventuell "repariert" mein LG TV da auch das Bild. Zerrissene Bilder hab ich nicht ausmachen können.

Tesseract
2023-01-28, 15:51:54
macht auch keinen sinn zu vsyncen. zumindest mit dem treiberinternen limiter kann man FG, wie auch sonst, knapp unter dem maximalen refresh limitieren (z.B. auf 140fps auf einem 144Hz screen) und die basis-fps werden intern auf 70 limitiert.

hier muss man bei FG natürlich aufpassen weil z.B. ausgehend von 100fps basis mit FG auf 140fps limitiert die basis-fps mit ~140/2=70fps laufen was natürlich deutlich mehr lag hat als 100 ohne FG. wie gesagt: mit FG sollte die resultierende framerate in der syncrange liegen.

Ex3cut3r
2023-01-28, 15:52:28
Hust, wenn ich so meine aktuellen Spiele sehe sind keine AAA dabei :freak:
Mann kann dennoch die Leistung gebrauchen (Ryzen 2 mit SGSSAA zwingt eine 1080Ti in 4K+ in die Knie, WQHD geht aber gut)

Aha. Wusste gar nicht, dass z.B. God of War für Sony ein Ramsch Titel war, interessante Ansicht. :freak:

Thunder99
2023-01-28, 16:55:09
Aha. Wusste gar nicht, dass z.B. God of War für Sony ein Ramsch Titel war, interessante Ansicht. :freak:

Ich glaube da liegt ein Missverständnis vor :D
Meinte Risen 2 als Beispiel von Piranha Bytes :)
Leistung von heute kann man auch für Spiele von damals noch gut gebrauchen. Ist aber jetzt wirklich OT

Ex3cut3r
2023-01-28, 17:05:53
Sry, war ein Lesefehler von mir.

:facepalm: an mich selber.

aufkrawall
2023-01-28, 17:08:53
macht auch keinen sinn zu vsyncen.
Mit VRR ist da seit einem Treiber-Update ja null Unterschied vs. kein FG (bis auf etwas mehr Lag), Vsync + VRR + Reflex limitiert automatisch mit niedrigem Lag unterhalb der Range.
In Hitman 3 hats der Entwickler vergeigt, dass man mit FG kein Vsync im Spiel auswählen kann. Geht aber über den Treiber ohne Nachteile, Reflex limitiert weiterhin.

gedi
2023-01-28, 17:51:07
Sorry, aber ist FSR3 gestorben? Zudem wird hier über eine Grafikkarte geurteilt, welche 3090-Performance liefert, nur halt mit FG und 12GB. Gut an der Karte, außer dem Verbrauch - nix!

dargo
2023-01-28, 18:17:57
Und welche Karte unter einer 7900 XT soll sich von einer 3070 lohnen, eine 7800 für dann ~800€? ;D Ohne NN-Upsampling, ohne Frame Generation?

Ich hatte oben schon was zu FG bei RDNA3 geschrieben, du musst es nur lesen. Und wo genau steht was zu einer 7800 für 800€? Wie gesagt... hau rein bei Nvidia, mein :popcorn: steht schon bereit für die nächste Preisdiskussionsrunde bei der nächsten Gen Ende 2024. :cool:

Hatstick
2023-01-28, 18:32:06
Alle Karten stehen beschi**** da zur vorherigen Generation in Sachen P/L, weil es diesmal halt den UVP Sprung bis zu 100% mehr gab.
Insofern waren alle 3000er nVidia und 6000er AMD Karten ein guter Kauf, das kann man am Ende eh drehen und wenden wie man will.
Vergleichen kann man zur nächsten Gen, weil die Preise auch dort mit Sicherheit im Premium Segment angeordnet sind.

readonly
2023-01-28, 18:37:28
Sorry, aber ist FSR3 gestorben?!

Sorry ist FSR3 erschienen? Erstmal kommen

Tesseract
2023-01-28, 20:26:04
so, und jetzt ist schluss mit dem getrolle hier

Lurtz
2023-01-28, 21:23:45
Was mich ein wenig stört, ist dass manche so tun als gäbe FG und RT bereits in jedem Spiel.
Da sind wir aber noch weit von entfernt. Sehr weit.

Gefühlt erscheint mittlerweile praktisch jeder AAA-Titel bereits mit mindestens einer Upsampling-Methode, meist ist DLSS darunter. Bei älteren Spielen freut man sich ja meist schon, wenn überhaupt TAA implementiert ist, da ist eh nichts zu retten außer mit der Downsampling-Keule aus heutiger Sicht.

Wie es sich mit FG entwickelt, bleibt abzuwarten, aber grundsätzlich scheint auch das leicht zu implementieren sein. Und auch diesen Vorsprung wird AMD in den nächsten Jahren nicht aufholen.

Fakt ist, dass man am Ende der Nutzungszeit der Grafikkarte mit hoher Wahrscheinlichkeit Spiele dutzende, wenn nicht hunderte Stunden lang mit RT, DLSS 2 & 3 oder Reflex gespielt haben wird. Damit ist jede Radeon tot, dagegen kann man nicht argumentieren.
Dito. Ich spiele praktisch immer mit DLSS, wenn vorhanden, ich wüsste gerade spontan gar nicht bei welchem aktuellen Spiel das nicht möglich war.

basix
2023-01-29, 00:21:23
Mit VRR ist da seit einem Treiber-Update ja null Unterschied vs. kein FG (bis auf etwas mehr Lag), Vsync + VRR + Reflex limitiert automatisch mit niedrigem Lag unterhalb der Range.
In Hitman 3 hats der Entwickler vergeigt, dass man mit FG kein Vsync im Spiel auswählen kann. Geht aber über den Treiber ohne Nachteile, Reflex limitiert weiterhin.

Gilt das auch für externen Framelimiter z.B via Rivatuner und ohne Vsync? Oder muss man via Treiber eingreifen (Fast Sync, Frame Limit, whatever)?

ChaosTM
2023-01-29, 00:27:07
Gefühlt erscheint mittlerweile praktisch jeder AAA-Titel bereits mit mindestens einer Upsampling-Methode, meist ist DLSS darunter. Bei älteren Spielen freut man sich ja meist schon, wenn überhaupt TAA implementiert ist, da ist eh nichts zu retten außer mit der Downsampling-Keule aus heutiger Sicht.

Wie es sich mit FG entwickelt, bleibt abzuwarten, aber grundsätzlich scheint auch das leicht zu implementieren sein. Und auch diesen Vorsprung wird AMD in den nächsten Jahren nicht aufholen.


Dito. Ich spiele praktisch immer mit DLSS, wenn vorhanden, ich wüsste gerade spontan gar nicht bei welchem aktuellen Spiel das nicht möglich war.


Hab zwar GPU-Power ohne Ende, aber ich haus fast immer rein - spart Strom

und kostet kaum Bildqualität.. OK, ich bin ein schon ziemlich schasaugerter, alter sack

aufkrawall
2023-01-29, 00:46:48
Gilt das auch für externen Framelimiter z.B via Rivatuner und ohne Vsync? Oder muss man via Treiber eingreifen (Fast Sync, Frame Limit, whatever)?
Reflex limitiert nicht ohne Vsync + VRR. Externer geht auch, muss man auf die Hälfe der fps einstellen. Hat aber entsprechend mehr Lag. Da müssten die Frame Times ansonsten schon ziemlich mies sein, dass man das in Erwägung zieht.

basix
2023-01-29, 01:14:53
Ok. Es war mehr die Frage, ob das Thema FG und nicht funktionierendem VRR oberhalb der Monitor-Refreshrate gelöst wurde. Nur halbe Refreshrate einzustellen ist zwar machbar, aber wie du sagst nicht optimal. Ich würde mir da eher wünschen, dass der Framelimiter FG mitberücksichtigt. Kann ja sein, dass man je nach Szene mehr / genug FPS (oberhalb Monitor Refreshrate) hat und da will ich nicht plötzlich unnötigen Lag oder Tearing.

Momentan habe ich den Frame Limiter global eingestellt. Wäre nice, wenn das mit und ohne FG greift und ich das nicht je nach Spiel individuell anpassen muss.

aufkrawall
2023-01-29, 03:00:40
Kann diese Anwendungsfälle nicht nachvollziehen, aber jeder wie er mag.

ChaosTM
2023-01-29, 03:15:39
Ich liebe FG, aber nur beim FS2020 so far.
Wie sehr sich das auf die Bildqualität auswirkt.. I dont give a fork tbh..

Platos
2023-02-04, 13:34:21
Kann mir bitte ein 4070Ti Besitzer sagen, was die niedrigst einstellbare Spannung ist, die man z.B beim Afterburner einstellen kann?

Razor
2023-02-05, 01:27:39
Soweit ich das beurteilen kann, prozentual erhöhen, ja, aber nicht senken.
Wozu auch?
Ich liebe FG, aber nur beim FS2020 so far.
Wie sehr sich das auf die Bildqualität auswirkt.. I dont give a fork tbh..
Sehr Vorteilhaft beim kürzlich erschienenem Cyberpunk 1.61H1... damit sind auch bei Ultra-RT die 60fps min "safe" ;)

Razor

BlacKi
2023-02-05, 02:22:34
Kann mir bitte ein 4070Ti Besitzer sagen, was die niedrigst einstellbare Spannung ist, die man z.B beim Afterburner einstellen kann?https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13229622#post13229622

Lehdro
2023-02-05, 15:38:22
Reflex limitiert nicht ohne Vsync + VRR. Externer geht auch, muss man auf die Hälfe der fps einstellen. Hat aber entsprechend mehr Lag. Da müssten die Frame Times ansonsten schon ziemlich mies sein, dass man das in Erwägung zieht.
Laut PCGH 03/2023 gibt es teilweise massive Latenzunterschiede ob man Framelimit über RTSS oder Treiber/spielintern einstellt. Zumindest wenn man gleichzeitig Reflex (oder DLSS 3 - ist dann automatisch an) angeschaltet hat. Frametimes sind ok, Latenz ist aber absolut beschissen.

Königsweg wird wohl immer spielintern/Treiber sein. Zumindest wenn man die heilige Dreifaltigkeit aus VRR, kein Tearing und Reflex haben möchte. Nur so gibt es die niedrigst mögliche Latenz ohne Tearing. Allerdings ist auch das teilweise shaky, normalerweise sind in den animierten Ladescreens bei Darktide die FPS zuerst auf 60 begrenzt, mit DLSS 3.0 übersteuert er manchmal(!) auf 120 FPS, warum auch immer. Mit Treiber oder spielinternen FPS Limits setzt er das im eigentlichen Gameplay aber gut um mMn.
CapFrameX hatte sich auch schon über die FPS Limiter + DLSS 3 FG bei RTSS beschwert. Irgendetwas passt da nicht.

Schnitzl
2023-02-05, 16:53:51
(...)
Was war eigentlich mein Ziel? Maximale Performance? Dann hätte ich mir eine 4090 holen müssen.
Die 4080 war nie eine Option, Netzteil, "dünnes" Speicherinterface, u.v.a.m... nicht Fisch, nicht Fleisch und viel zu teuer!
(...)

hallo Razor
kannst du das noch etwas ausführen bitte? Warum ist die 4080 "nicht Fisch, nicht Fleisch"?
Zu teuer - ja da stimme ich zu :)
Aber sonst?

Ex3cut3r
2023-02-05, 17:10:42
Ist doch IMHO ziemlicher quatsch. Eine 4080 ist in der Summe runder als eine 4070 Ti, nur der Preis stört, aber das auch beiden Modellen IMHO.

Platos
2023-02-05, 18:15:27
Ne, die 4080 hat ein deutlich schlechteres P/L. Ist also schon korrekt, dass die 4080 ein schlechteres Produkt ist bezüglich P/L.

SamLombardo
2023-02-05, 19:26:14
Ne, die 4080 hat ein deutlich schlechteres P/L. Ist also schon korrekt, dass die 4080 ein schlechteres Produkt ist bezüglich P/L.
Das wäre noch zu belegen. Wenn man mal fps pro Euro nimmt ist die 4080 nicht schlechter als die 4070ti (und die 4090). Sie reiht sich ziemlich genau ein prozentual.

BlacKi
2023-02-05, 20:00:30
beleg
https://www.3dcenter.org/dateien/abbildungen/Grafikkarten-4K-Performance-Preis-Index-Januar-2023.png

Platos
2023-02-06, 13:25:37
Das wäre noch zu belegen. Wenn man mal fps pro Euro nimmt ist die 4080 nicht schlechter als die 4070ti (und die 4090). Sie reiht sich ziemlich genau ein prozentual.

Ja, Blackie hats ja schon belegt. Aber anyway, was stellst du dir denn im Bereich Gaming unter P/L vor, wenn nicht FPS/Euro :D ?

Schnitzl
2023-02-06, 13:34:17
ich weiss nicht ob man P/L so stark gewichten sollte.
Kaufe doch keine Intel Arc, nur weil die jetzt gerade das Beste P/L hat ;)
Für mich persönlich macht es so mehr Sinn:
Macht die Karte Sinn als upgrade, was gewinne ich dadurch -> bin ich bereit (bzw. kann ich finanztechnisch) dafür die Summe x auszugeben ja/nein -> fertig

Crazy_Chris
2023-02-06, 13:45:10
Auf Gamestar/Pc Games Hardware gibts ja einen ersten Test von Hogwarts legacy. Das Spiel hat (noch) diverse technische Probleme aber die 12Gb VRAM der 4070Ti reichen dort schon jetzt nicht mehr für 4k.

dildo4u
2023-02-06, 13:58:33
Willst du mit 20 FPS Zocken?Die Karte braucht Upscaling schon für 4k ohne RT.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13230701#post13230701

blaidd
2023-02-06, 15:06:51
Auf Gamestar/Pc Games Hardware gibts ja einen ersten Test von Hogwarts legacy. Das Spiel hat (noch) diverse technische Probleme aber die 12Gb VRAM der 4070Ti reichen dort schon jetzt nicht mehr für 4k.

Disclaimer: Laut PR-Kontakt bzw. Guide wird da aktuell noch dran rumgeschraubt. Das Shader-Compiling ist drin, das wurde bereits gepatcht, die RT-Effekte (und die ganzen anderen diversen kleinen Fehler und Bugs) aber noch nicht.

Ich gehe mal davon aus, dass es da zumindest noch kleinere Optimierungen geben wird, der passende Nvidia-Treiber (der da eventuell auch bis zu einem gewissen Grad eingreifen kann), ist bislang auch noch nicht erschienen.
Aber ja, das RT in Hogwarts ist auffallend anspruchsvoll und benötigt viel zusätzlichen Speicher (und Leistung)

Palpatin
2023-02-06, 15:18:09
Ich glaub man wird das Final in den Grafikeinstellungen schon so konfiguriert bekommen das das auf einer 4070ti in 4k dlss ordentlich läuft und man die BQ unterschiede zu all max ohne dlss 4090 mit der Lupe suchen muss.

BlacKi
2023-02-06, 15:28:00
framtimes sehen jetzt nicht katastrophal aus. und mit dlss balanced oder performance bekommt man gleictzeitig 70-100fps, was ich 60fps sowieso jederzeit vorziehe.

schlimmer wäre es, wenn ich eine amd karte hätte^^ die xtx wird so bei 40-50fps rumkrebsen bei fsr q. da helfen dir die 24gb auch nichts.

PingpiN
2023-02-06, 15:36:43
also die eagle war einfach nur dreck. die TUF hier gefällt mir wesentlich besser.

ich weiß nicht ob das mit dem neuen treiber kam, aber der idle verbrauch liegt nur halb so hoch wie bei meiner messung mit der eagle

5w ist echt ein spitzenwert.

https://abload.de/img/idle4070tiseigq.png

die lüfter springen zwar ebenfalls mit 1200rpm an und gehen dann auf 30% lüfterspeed (1000rpm) runter.

die sind dabei aber viel leiser als die von der eagle.

Hast du noch immer nur 5 Watt im idle oder war das ne Eintagsfliege? meine 4070 TI schluckt genau 20 Watt im idle immerhin 8 watt mehr als meine 1070.

Chrisch
2023-02-06, 15:46:13
5W kann doch nur nen Anzeigebug sein, weil "GPU Chip Power Draw" 0W?

Meine Zotac liegt bei ~10-11W (2 Monitore)

https://abload.de/img/gpuzcte5l.png

Joe123
2023-02-07, 20:01:38
Hallo zusammen,
kanns nicht ändern aber mir juckt der Bestellfinger :)Hab mich für die 4070 Ti von Pallit entschieden.Das Problem ist halt das meine CPU noch ein 7700K ist und ich nicht sicher bin ob der die Karte ausbremst.
Was meint ihr?

BlacKi
2023-02-07, 20:29:16
Hast du noch immer nur 5 Watt im idle oder war das ne Eintagsfliege? meine 4070 TI schluckt genau 20 Watt im idle immerhin 8 watt mehr als meine 1070.alle tools zeigen die gleichen werte. ich überprüfe mal wieviel weniger der rechner ohne dGPU zieht.

IchoTolot
2023-02-07, 20:35:28
Hallo zusammen,
kanns nicht ändern aber mir juckt der Bestellfinger :)Hab mich für die 4070 Ti von Pallit entschieden.Das Problem ist halt das meine CPU noch ein 7700K ist und ich nicht sicher bin ob der die Karte ausbremst.
Was meint ihr?

Könnte in der Tat nen Problem sein.. 7700K is altes Eisen inzwischen und die 4070 Ti is schnell. Am besten in games alles auf Anschlag drehen.

Aber ich würde wohl eher auf neue CPU aufrüsten.

gedi
2023-02-07, 20:44:25
framtimes sehen jetzt nicht katastrophal aus. und mit dlss balanced oder performance bekommt man gleictzeitig 70-100fps, was ich 60fps sowieso jederzeit vorziehe.

schlimmer wäre es, wenn ich eine amd karte hätte^^ die xtx wird so bei 40-50fps rumkrebsen bei fsr q. da helfen dir die 24gb auch nichts.

Großes Kino, kannst gleich in 720p lq spielen ...

Blase
2023-02-07, 21:03:32
Hallo zusammen,
kanns nicht ändern aber mir juckt der Bestellfinger :)Hab mich für die 4070 Ti von Pallit entschieden.Das Problem ist halt das meine CPU noch ein 7700K ist und ich nicht sicher bin ob der die Karte ausbremst.
Was meint ihr?

In welcher Auflösung mit welcher Bildwiederholfrequenz spielst du denn?

Spielst du 1080p, wird die CPU sicherlich "bremsen". Bist du eher bevorzugt in 4K unterwegs, dann wahrscheinlich eher weniger. Hängt dann natürlich auch noch vom jeweiligen Spiel ab. Unterbau aufrüsten kannst du immer noch - bau sie erst einmal ein und teste die für dich wichtigsten Spiele. Dann hast du Gewissheit ;)

MfG Blase

BlacKi
2023-02-07, 21:17:12
Großes Kino, kannst gleich in 720p lq spielen ...solange es nicht wie 720p aussieht:tongue:

5W kann doch nur nen Anzeigebug sein, weil "GPU Chip Power Draw" 0W?

Meine Zotac liegt bei ~10-11W (2 Monitore)

https://abload.de/img/gpuzcte5l.png

funny thing, die werte werden wohl auch nicht stimmen^^ wenns geht, würde ich dich bitten das mit einem watt tool mal nachzumessen. würde mich interessieren.

also 44w war das niedrigste gemessene mit 4070ti und 27w war das niedrigste mit iGPU. also 17w für die 4070ti. -.-

Joe123
2023-02-07, 21:18:23
Möcht hier jetzt keinen Fullquote machen...gehört ja eigentlich nicht hierrein..
Spiele in WQHD wo meine MSI 2070 S schon manchmal unter 30 FPS fällt und das nervt.Denke werde deinen Rat befolgen und erst mal die 4070 bestellen.
Danke für die Hilfe

Blase
2023-02-07, 22:16:10
WQHD mit 60 Hz - oder mehr? Das Ding ist halt, selbst wenn die CPU limitiert, kannst du immer noch an den Reglern drehen.

Nur als Beispiel: Angenommen du bist bezüglich Monitor eh auf 60 Hz limitiert. Dann spielt es keine Rolle, ob die 4070Ti mit deiner CPU bei angenommenen 60 Bilder pro Sekunde festgenagelt ist - und mit einer aktuellen CPU aber 100+ FPS könnte. Denn dein Monitor kann eh nicht mehr. Also drehst du alle Regler hoch und haust noch DSR rein - dann verrückst du das GPU Limit in Richtung deiner CPU und erfreust dich nochmals gesteigerter Bildqualität.

Und wenn dein Monitor zB 144 Hz kann, dann wird es sicherlich immer mal wieder so sein, dass die CPU das nicht voll ausfahren kann. Aber auch hier gilt das hier drüber Geschriebene: Limitiert die CPU bei angenommenen 80 FPS und die 4070Ti langweilt sich, dreh weiter an den Reglern. Und zwar soweit, bis du mit der GPU um/unter 80 FPS dann dort im Limit hängst. Dann hast du zwar unverändert "nur" 80 FPS - aber das bei höchstmöglicher Bildqualität.

Das einzige wirkliche "Problem" hast du dort, wo die CPU einfach nicht genügend FPS erzeugt, dass es dir insgesamt zu langsam ist - völlig unabhängig von den Grafikdetails und Einstellungen. Das dürften in Summe aber selbst mit deiner alten Gurke (bin ja auch nur eine Generation weiter - gepaart mit ner 4090 ;)) nur auf sehr wenige Spiele zutreffen.

Es stellt sich für dich also allgemein die Frage, wie schnell dein Monitor ist - und wie viel FPS du mindestens in deinen Spielen haben möchtest. Reicht dir hier der 7700K, ist es nur eine Frage der Grafikoptionen und Regler, um die 4070Ti dennoch ins Schwitzen zu bringen ;)

MfG Blase

Lurtz
2023-02-07, 22:19:24
Ein 6700k macht ja nicht mal mit einer 3070 Spaß bei WQHD >60 fps. Was will man da bei einem 7700k mit einer 4070?

Ex3cut3r
2023-02-07, 22:33:49
Sehe ich auch so, aber nja. Blase hat auch eine 4090 mit einen 8700k gepaart. Wahrscheinlich spielt er, siehe sein Comment @ 6 oder 8k um irgendwie die 4090 auf 40-60 FPS zu drücken.

Blase
2023-02-07, 22:47:13
Als ob ein auf knapp 5 GHz laufender 8700K nur für 40-60 FPS gut wäre... ;)

Wenn ich mal vom Witcher 3 Next Gen absehe, wo auch ganz andere CPUs ins Schwitzen geraten, gibt es wohl kaum ein Spiel, wo ich CPU seitig nicht an die maximale Bildwiederholfrequenz meines Fernsehers (=> 120 Hz) ran komme. "Mehr" benötige ich in der Tat nicht... Mir doch Latte, ob andere Prozessoren auch doppelt so viel könnten. Was nutzt es mir?

MfG Blase

Ex3cut3r
2023-02-07, 22:56:57
Wärst du so nett, und könntest ein paar Screenshots bereitstellen? Ich glaube dir schon, aber was "handfestes" wäre nice.

So z.B.

5700X, 3080 Ti, 32GB DDR 3800 Mhz CL16 + Subs:

Nutze immer 4K (Native Auflösung mit 144HZ und VRR) sowie Digital Foundry optimierte Settings, DLSS (2.5.1) + CAS via Reshade zum Nachschärfen.

https://abload.de/thumb/doometernalx64vk_2023qle0i.jpg (https://abload.de/image.php?img=doometernalx64vk_2023qle0i.jpg) https://abload.de/thumb/aplaguetalerequiem_x6l4ij2.jpg (https://abload.de/image.php?img=aplaguetalerequiem_x6l4ij2.jpg) https://abload.de/thumb/forzahorizon5_2023_01rfe4a.jpg (https://abload.de/image.php?img=forzahorizon5_2023_01rfe4a.jpg) https://abload.de/thumb/gow_2023_01_17_20_09_hli34.jpg (https://abload.de/image.php?img=gow_2023_01_17_20_09_hli34.jpg) https://abload.de/thumb/horizonzerodawn_2023_joi4y.jpg (https://abload.de/image.php?img=horizonzerodawn_2023_joi4y.jpg) https://abload.de/thumb/kena-win64-shipping_2bbcnc.jpg (https://abload.de/image.php?img=kena-win64-shipping_2bbcnc.jpg)

HW:

https://abload.de/thumb/neuesprojekt2ef74.png (https://abload.de/image.php?img=neuesprojekt2ef74.png)

Setup:

https://abload.de/img/df5910ff-3860-4e87-9z7ifal.png

BlacKi
2023-02-07, 23:09:48
weird flex bro

Ein 6700k macht ja nicht mal mit einer 3070 Spaß bei WQHD >60 fps. Was will man da bei einem 7700k mit einer 4070?
als ob es einen unterschied macht welche karte im system ist...

es besteht lediglich die frage, ob die cpu die fps liefert die er zb. mit 720p oder 1080p mit seiner alten gpu bekommt.

und je nach game sind das bestimmt genug. und mit FG erst recht XD

Blase
2023-02-08, 00:29:15
Wirst du so nett, und könntest ein paar Screenshots bereitstellen? Ich glaube dir schon, aber was "handfestes" wäre nice.

Bilder von meinem PC selbst werden aber nicht benötigt, ja?! ;)

Meine Computer Informationen sind gepflegt, falls da noch Fragen offen sein sollten.

Hab mal auf die Schnelle - und nur für dich ;) - 4 Titel angeschmissen.

Alles in 4K und sämtliche (!) Regler rechts (habe die Bilder lediglich um 50 Prozent verkleinert, weil ich mit dem Upload hier Probleme hatte. Und frag mich nicht, warum A Plague Tale so beschissen überbelichtet aussieht, im Spiel ist das nicht so ;))

Deathloop, FC und HZD nativ - A Plague Tale Requiem mit DLSS@Q und FG - eben so, wie ich die Spiele tatsächlich gespielt habe.

Bei FC und HZD hänge ich im CPU Limit - bei FC sogar deutlich - aber bei jeweils über 100 FPS spielt das halt keine wirkliche Rolle. Bei 117 FPS ist bei mir ohnehin "Schicht" (auf diesen Wert global limitiert). Könnte dann jeweils, wie hier auch erwähnt, halt mit DSR die Auflösung weiter hoch treiben, wenn ich wollte.

Bei A Plague Tale, wie auch beim Witcher 3 Next Gen, bin ich ebenfalls sehr deutlich im CPU Limit. Aber da beide Titel nun einmal FG unterstützen - und ich qualitativ keinen Nachteil in den Titeln sehe - spiele ich halt mit FG... und bin dann wiederum bezüglich der FPS in oder zumindest nahe der Begrenzung meines Monitors.

Also ja - der 8700K ist bei bestimmten Titeln gepaart mit der 4090 der "limitierende Faktor". Aber in meinem konkreten Anwendungsfall spielt das bisher eine eher untergeordnete Rolle. Und "dank" FG verschiebt sich das CPU Limit grade in den neueren Titeln stark nach hinten, wo ich ansonsten am meisten Probleme hätte :up:

MfG Blase

Razor
2023-02-08, 05:43:05
hallo Razor
kannst du das noch etwas ausführen bitte? Warum ist die 4080 "nicht Fisch, nicht Fleisch"?
Zu teuer - ja da stimme ich zu :)
Aber sonst?
Die Karte fühlt sich irgendwie "falsch positioniert" an... was wohl auch Microsoft so sieht und erstmals einen "03"-Chip raus gebracht hat.
GP/TU/GA/AD mit jeweils 102/104/106 Chip... nur der AD hat nun einen 103, die RTX 4080.
Dazu der Speichertakt, der höher ist, als bei AD102/104.

Die 4070ti ist die ideale (U)WQHD-Karte (und für PCVR vollkommen ausreichend), die 4090 die ideale (W)UHD-Karte... aber was ist die 4080?
Die Preise hingegen sind alle "krank", aber IMO nur, weil wieder mal "Äpfel mit Birnen" verglichen werden.
Für mich persönlich macht es so mehr Sinn:
Macht die Karte Sinn als upgrade, was gewinne ich dadurch -> bin ich bereit dafür die Summe x auszugeben ja/nein -> fertig
Korrekt... damals RTX 2080 für 850€ (10/2018), jetzt RTX 4070ti (eigentlich RTX 4080 ;)) für 890€ (01/2023).
Davon ab hätte ich für eine RTX 4080 (4080ti?) auch mein Netzteil upgraden (Aufwand/Kosten) und im MultiMon mit höherem Idle-Verbrauch leben müssen.
Hast du noch immer nur 5 Watt im idle oder war das ne Eintagsfliege? meine 4070 TI schluckt genau 20 Watt im idle immerhin 8 watt mehr als meine 1070.
Jup... obwohl ich eher 18W annehme, das im MultiMon und sie taktet im Vergleich nicht mehr hoch, wenn 3 Bildschirme "online" sind.
(bei mir normal 19"/60Hz & 32"/60-144Hz + manchmal TV 55"/24-60Hz)

Gegenüber der RTX2080 sind es etwa 3W mehr, bei "ungünstigen" Moni-Konfiguration krasse 26W weniger :up:
Aber ja, die gute, alte GTX 1060 damals brauchte gerade mal 7W im MultiMon - die Zeiten sind vorbei!

Razor

][immy
2023-02-08, 07:32:37
Auf Gamestar/Pc Games Hardware gibts ja einen ersten Test von Hogwarts legacy. Das Spiel hat (noch) diverse technische Probleme aber die 12Gb VRAM der 4070Ti reichen dort schon jetzt nicht mehr für 4k.

Das Problem dürfte nicht Mal der Speicherplatz sein (aktuell zumindest nicht) sondern eher die recht geringe Speicherbandbreite. Die ist durch das schmale Interface doch etwas arg beschnitten.

Also von der 4070ti würde ich definitiv Abstand nehmen bei dem Preis.
Ja, ich hab damals Ben ähnlichen Preis für meine 3070 gezahlt (gut waren glaub ich etwa 100€ weniger), das waren am Markt aber ganz andere Umstände.
Leider ist die AMD Lösung aber zu schwach um hier Nvidia unter Druck zu setze. Kann man nur hoffen das AMD die Problematik schnell in den Griff bekommt, sonst kommt Nvidia Mal wieder damit durch die Preise durch die Decke gehen zu lassen mangels wirklicher Konkurrenz.

dildo4u
2023-02-08, 09:06:55
Laut dem bleibt Hogwarts bei 10gb @ 4k RT und es unspielbar.

https://youtu.be/hJbSt8_yyPU?t=378

Was aber der Fall ist reines Framegeneration scheint den Vram zu sprengen und Performance fällt erst mit zusätzlichen DLSS rennt es ok.

4080 FG ohne DLSS.

https://youtu.be/PRH2eJTriUM?t=493

Schnitzl
2023-02-08, 09:52:22
Die Karte fühlt sich irgendwie "falsch positioniert" an... was wohl auch Microsoft so sieht und erstmals einen "03"-Chip raus gebracht hat.
GP/TU/GA/AD mit jeweils 102/104/106 Chip... nur der AD hat nun einen 103, die RTX 4080.
Dazu der Speichertakt, der höher ist, als bei AD102/104.

Die 4070ti ist die ideale (U)WQHD-Karte (und für PCVR vollkommen ausreichend), die 4090 die ideale (W)UHD-Karte... aber was ist die 4080?
Die Preise hingegen sind alle "krank", aber IMO nur, weil wieder mal "Äpfel mit Birnen" verglichen werden.
(...)
ja gut, mir ist eigentlich egal, wie ein Hersteller nun seine Karte "positioniert" ;)
Für mich ist die 4080 eine 4070ti mit Puffer/Reserven (für neue Spiele wie z.B. Hogwarts)
Den Fehler mit der 3070 mach ich nicht nochmal...
(hätte damals die 3080 nehmen sollen)

Lange Rede kurzer Sinn: Wenn die Karte dich glücklich macht ist doch alles gut :up:

Ex3cut3r
2023-02-08, 14:31:06
Bilder von meinem PC selbst werden aber nicht benötigt, ja?! ;)

Meine Computer Informationen sind gepflegt, falls da noch Fragen offen sein sollten.

Hab mal auf die Schnelle - und nur für dich ;) - 4 Titel angeschmissen.

Alles in 4K und sämtliche (!) Regler rechts (habe die Bilder lediglich um 50 Prozent verkleinert, weil ich mit dem Upload hier Probleme hatte. Und frag mich nicht, warum A Plague Tale so beschissen überbelichtet aussieht, im Spiel ist das nicht so ;))

Deathloop, FC und HZD nativ - A Plague Tale Requiem mit DLSS@Q und FG - eben so, wie ich die Spiele tatsächlich gespielt habe.

Bei FC und HZD hänge ich im CPU Limit - bei FC sogar deutlich - aber bei jeweils über 100 FPS spielt das halt keine wirkliche Rolle. Bei 117 FPS ist bei mir ohnehin "Schicht" (auf diesen Wert global limitiert). Könnte dann jeweils, wie hier auch erwähnt, halt mit DSR die Auflösung weiter hoch treiben, wenn ich wollte.

Bei A Plague Tale, wie auch beim Witcher 3 Next Gen, bin ich ebenfalls sehr deutlich im CPU Limit. Aber da beide Titel nun einmal FG unterstützen - und ich qualitativ keinen Nachteil in den Titeln sehe - spiele ich halt mit FG... und bin dann wiederum bezüglich der FPS in oder zumindest nahe der Begrenzung meines Monitors.

Also ja - der 8700K ist bei bestimmten Titeln gepaart mit der 4090 der "limitierende Faktor". Aber in meinem konkreten Anwendungsfall spielt das bisher eine eher untergeordnete Rolle. Und "dank" FG verschiebt sich das CPU Limit grade in den neueren Titeln stark nach hinten, wo ich ansonsten am meisten Probleme hätte :up:

MfG Blase
Super, vielen Dank. Astrein. Die Bilder sind nur ein bisschen klein, bzw. ist das OSD schwer zu lesen, aber ok.

Ich muss zugeben, dass dein 8700k gut mithalten kann, allerdings erscheinen mir deine Frameraten relativ niedrig für eine 4090. Ich habe in meinen Bespielen nur eine 3080 Ti. Aber die GPU Usage bei dir ist schon gut ausgelastet, bis auf FC New Dawn.

BlacKi
2023-02-08, 14:43:50
Ich muss zugeben, dass dein 8700k gut mithalten kann, allerdings erscheinen mir deine Frameraten relativ niedrig für eine 4090.


wie er schon geschrieben hat, bei 117 wäre eh schluss, d.h. den rest hat er in gpu settings investiert(DSR oder dldsr), sonst würde die gpu last sinken.



ich hab sogar 115fps als limit, damit ich durch vsync off niedrigere latenzen und stabilere fps habe.


nichts destotrotz, gibts halt spiele die eben nicht mehr mit 100fps laufen. ist aber persönliche meinung ob man wegen 5% der spielzeit auf die letzten fps verzichten will oder nicht. alles kann, nichts muss.

Ex3cut3r
2023-02-08, 14:49:12
Achso, 120HZ Bildschirm, mit -3 FPS Limit Global wegen VRR/V-Sync. Alles klar.

Blase
2023-02-08, 16:50:38
Achso, 120HZ Bildschirm, mit -3 FPS Limit Global wegen VRR/V-Sync. Alles klar.

Jeb - genau das.

allerdings erscheinen mir deine Frameraten relativ niedrig für eine 4090

Naja in FC und auch HZD bin ich deutlich im CPU Limit. Hier langweilt sich die 4090 also und könnte mehr - bei einer stärkeren CPU. Aber darum ging es ja durchaus bei dem Vergleich hier - zu zeigen, wo der 8700K tatsächlich steht. Und da in beiden Fällen die FPS dennoch auf oder zumindest bei dem global im Treiber eingestellten FPS Cap liegen, "passt" es noch wunderbar - trotz CPU Limit. Und wie Blacki geschrieben hat, kann ich die 4090 auf dieser Basis dann natürlich trotzdem zum Schwitzen bringen - entsprechende weiterführende Settings voraus gesetzt.

Ich habe in meinen Bespielen nur eine 3080 Ti

Korrigiere mich, aber du hast erwähnt, dass du die Settings in den Spielen "getunt" hast, ja? Ich habe ja einfach stumpf sämtliche Regler - ohne Ausnahme - einfach auf Anschlag geschoben. Das wäre sicherlich, vom CPU Limit bei mir abgesehen, eine weitere Erklärung, warum wir hier möglicherweise in den nackten FPS dichter beieinander liegen. Bisher hat es bei den von mir gespielten Titeln halt immer gut gepasst (spätestens mit DLSS@Q und ggfs. noch zusätzlich FG), dass ich mir ums Feintuning keine Gedanken machen musste...

MfG Blase

Ex3cut3r
2023-02-08, 17:00:39
Korrigiere mich, aber du hast erwähnt, dass du die Settings in den Spielen "getunt" hast, ja? Ich habe ja einfach stumpf sämtliche Regler - ohne Ausnahme - einfach auf Anschlag geschoben. Das wäre sicherlich, vom CPU Limit bei mir abgesehen, eine weitere Erklärung, warum wir hier möglicherweise in den nackten FPS dichter beieinander liegen. Bisher hat es bei den von mir gespielten Titeln halt immer gut gepasst (spätestens mit DLSS@Q und ggfs. noch zusätzlich FG), dass ich mir ums Feintuning keine Gedanken machen musste...
MfG Blase

Jap, sry. Steht auch oben "DF Settings" Zeigt aber eigentlich, wie mächtig Regler bedienen ist.

Blase
2023-02-08, 19:17:03
Dafür sind die Regler da - damit jeder für sich seinen besten Kompromiss aus Qualität und Leistung bringen kann :up:

ich hab sogar 115fps als limit, damit ich durch vsync off niedrigere latenzen und stabilere fps habe.

Magst du mir das bitte einmal kurz erklären? Dachte, man stellt global im Treiber vsync on ein und limitiert dann knapp unterhalb der max. möglichen Hz Zahl.

MfG Blase

gedi
2023-02-08, 19:57:24
Dafür sind die Regler da - damit jeder für sich seinen besten Kompromiss aus Qualität und Leistung bringen kann :up:



Magst du mir das bitte einmal kurz erklären? Dachte, man stellt global im Treiber vsync on ein und limitiert dann knapp unterhalb der max. möglichen Hz Zahl.

MfG Blase

Genau aus dem Grund kaufe ich mir eine Grafikkarte für 1000€, um Details reduzieren zu müssen? Sorry, meines Erachtens sollten Titel programmiert werden, ohne einen IHV bevorzugen zu müssen.

Ex3cut3r
2023-02-08, 20:00:11
Hätte das gar nicht erwähnt, hättest du/ihr es niemals gemerkt. Aber wenn das eigene Ego halt im Weg steht, mir soll es recht sein. ;D

Ich habe keine Probleme, Settings von DF zu nutzen, die A sowie kaum Optisch was bringen und B meistens immense Performance freischalten. So kann ich meistens meinen 144HZ, 4K Monitor wenigstens "richtig" ausfahren.

Komischerweise sehen meine Shots von der Bildqualität überragender aus, als die von Blase mit Max Settings.

BlacKi
2023-02-08, 20:21:41
Magst du mir das bitte einmal kurz erklären? Dachte, man stellt global im Treiber vsync on ein und limitiert dann knapp unterhalb der max. möglichen Hz Zahl.

MfG Blase


das stimmt ja auch. bei 117fps von 120 hättest du ohne vsync am unteren bildschirmrand tearing. wenn man nun aber mit vsync capped dann wird vsync aktiv seinen nachteilen. in dem fall eine minimale steigerung des inputlags. das mag für einige zwar irrelevant niedrige auswirkungen haben, aber IMHO kann man das auch durch 2fps weniger das gleiche ziel erreichen ohne vsync on, aber mit 2% niedrigerem verbrauch. ich finde das den besseren kompromiss, weil die latenzen wohl gleich sind, aber der verbrauch niedriger. keine nachteile, nur vorteile.

gedi
2023-02-08, 20:26:18
Hätte das gar nicht erwähnt, hättest du/ihr es niemals gemerkt. Aber wenn das eigene Ego halt im Weg steht, mir soll es recht sein. ;D

Ich habe keine Probleme, Settings von DF zu nutzen, die A sowie kaum Optisch was bringen und B meistens immense Performance freischalten. So kann ich meistens meinen 144HZ, 4K Monitor wenigstens "richtig" ausfahren.

Komischerweise sehen meine Shots von der Bildqualität überragender aus, als die von Blase mit Max Settings.

Sorry, aber du gibst so viel Schrott von dir. Such dir ne Freundin...

BlacKi
2023-02-08, 20:53:12
als ob deine sätze hier sinnvoll waren...

gedi
2023-02-08, 21:14:42
als ob deine sätze hier sinnvoll waren...

:freak::freak::freak:

Schnitzl
2023-02-08, 21:38:42
bevor das hier entgleist:

Das hier ist nicht die Lounge
BTT

BlacKi
2023-02-08, 22:11:55
wir hatten es die ganze zeit über cpu limits und ob ein 8700k reicht. und natürlich reichen 12gb vram noch für 4k dlss. anders käme ich aber auch nicht auf meine 115fps, aber nicht wegem vram XD sondern weil die grundperformance für AAA mit einer 4070ti für 4k nativ nicht ausreicht.

vorallendingen weißt du nichtmal, das man vom mod zitieren gesperrt wird...

Blase
2023-02-08, 22:34:36
Genau aus dem Grund kaufe ich mir eine Grafikkarte für 1000€, um Details reduzieren zu müssen? Sorry, meines Erachtens sollten Titel programmiert werden, ohne einen IHV bevorzugen zu müssen.

Jede jemals erschienene 1000+€ Grafikkarte wird früher oder später nur noch als Briefbeschwerer taugen. Der Lauf der Dinge :tongue: Aber was genau hat das mit einem bestimmten IHV zu tun?

das stimmt ja auch. bei 117fps von 120 hättest du ohne vsync am unteren bildschirmrand tearing. wenn man nun aber mit vsync capped dann wird vsync aktiv seinen nachteilen. in dem fall eine minimale steigerung des inputlags. das mag für einige zwar irrelevant niedrige auswirkungen haben, aber IMHO kann man das auch durch 2fps weniger das gleiche ziel erreichen ohne vsync on, aber mit 2% niedrigerem verbrauch. ich finde das den besseren kompromiss, weil die latenzen wohl gleich sind, aber der verbrauch niedriger. keine nachteile, nur vorteile.

Hmm, ok. Muss ich mir in ner ruhigen Minute mal anschauen :up:

MfG Blase

Platos
2023-02-09, 01:52:05
Wie kannst du ohne vSync das gleiche erreichen?

aufkrawall
2023-02-09, 02:23:26
ich hab sogar 115fps als limit, damit ich durch vsync off niedrigere latenzen und stabilere fps habe.

Ist inkorrekt.

OgrEGT
2023-02-09, 08:18:01
Sorry for OT
Welche VSync Stufen gibt es eigentlich heutzutage über 60Hz/60fps oder ist das von Monitor zu Monitor unterschiedlich?
Mit VRR synchronisiert man zwar die Bildausgabe mit der Monitor Refreshrate aber mit VSync würde man ja zusätzlich die Frameverteilung normalisieren also dass die Frametimes gleichmäßig sind... frage deshalb da mein Monitor Freesync 100Hz hat und ich mit 97fps cap spiele... aber ohne VSync... ich würde Vsync aktivieren wenn es auch mit 97fps läuft... oder hab ich da falsch gedacht?

aufkrawall
2023-02-09, 08:39:52
Der Treiber-Limiter kann viele Frame Time-Unregelmäßigkeiten ähnlich gut wegglätten wie ein Vsync-Limit, bei massiv weniger Input Lag. Da braucht man sich mit VRR über die Teiler-Modi von Vsync gar keine Gedanken mehr machen, von ein paar komischen Ausnahmen mal abgesehen.

BlacKi
2023-02-09, 15:29:17
Ist inkorrekt.


das bild das du mal gepostet hattest hatte niedrigere avg latencys ohne vsync on. auch wenns nicht viel war.

auch hier dasselbe

https://blurbusters.com/wp-content/uploads/2017/06/blur-busters-gsync-101-gsync-vs-vsync-off-60Hz.png

IchoTolot
2023-02-09, 15:47:21
Der Treiber-Limiter kann viele Frame Time-Unregelmäßigkeiten ähnlich gut wegglätten wie ein Vsync-Limit, bei massiv weniger Input Lag. Da braucht man sich mit VRR über die Teiler-Modi von Vsync gar keine Gedanken mehr machen, von ein paar komischen Ausnahmen mal abgesehen.

Ich limite alles auf 60 fps über RTSS ehrlich gesagt. Ich habe mal im Treiber auch getestet, aber das greift dann nicht direkt überall und das gefällt mir schon nicht.. Und Vsync is bei mir immer aus, weil ich keine Latenz will, egal wie gering sie sein mag.

Rancor
2023-02-09, 16:19:44
Ich limite alles auf 60 fps über RTSS ehrlich gesagt. Ich habe mal im Treiber auch getestet, aber das greift dann nicht direkt überall und das gefällt mir schon nicht.. Und Vsync is bei mir immer aus, weil ich keine Latenz will, egal wie gering sie sein mag.
Dann solltest du dir einen Röhrenmonitor zulegen. :rolleyes:

aufkrawall
2023-02-09, 16:31:18
Ich limite alles auf 60 fps über RTSS ehrlich gesagt. Ich habe mal im Treiber auch getestet, aber das greift dann nicht direkt überall und das gefällt mir schon nicht.. Und Vsync is bei mir immer aus, weil ich keine Latenz will, egal wie gering sie sein mag.
Ist durch Battle(non)sense widerlegt und RTSS hat deutlich mehr Lag als in-game Limiter/Reflex. War afair sogar schon Thema in genau diesem Thread...
Und nein, 0,xms mehr Lag sind nie der bessere Deal als eine Tearline am unteren Bildrand. Das sieht oft choppy aus as fuck.

Tesseract
2023-02-09, 16:45:05
weil ich keine Latenz will, egal wie gering sie sein mag.

mit einem 60Hz schirm? :confused:

Lurtz
2023-02-10, 16:32:26
Hardware Unboxed prophezeit den 12 GB der 4070 Ti eine ähnlich kurze Lebensdauer wie den 8 GB der 3070 :D

Dann wird halt erstmal gar keine Grafikkarte mehr gekauft.

IchoTolot
2023-02-10, 16:34:26
Ist ja abzusehen. 12 GB is das neue 8 GB. Unter 16 GB würde ich keine neue GPU mehr kaufen.

Crazy_Chris
2023-02-10, 17:37:53
Wäre ja auch nicht weiter schlimm würde die Karte nicht knapp 900€ kosten. :freak:

BlacKi
2023-02-10, 17:45:42
ich weiß, das ich mit 12gb 2 jahre klarkommen werde. trotz 4k bildschirm.

gnomi
2023-02-10, 18:57:48
Finde 12GB auch noch unproblematisch.
So schnell sehen wir keine "PS5 Pro oder Series X Enhanced".
Es wird schon alles laufen.
Bisschen geschluderte PC Umsetzungen gibt es leider wieder zunehmend.
Würde mich davon aber jetzt nicht verunsichern lassen. :wink:

][immy
2023-02-10, 19:08:02
Finde 12GB auch noch unproblematisch.
So schnell sehen wir keine "PS5 Pro oder Series X Enhanced".
Es wird schon alles laufen.
Bisschen geschluderte PC Umsetzungen gibt es leider wieder zunehmend.
Würde mich davon aber jetzt nicht verunsichern lassen. :wink:

Ninja, wäre da nicht der Preis. Vor 2 bzw. 3 Jahren mit den etc 3070 Preis war es nur der Mining boom weshalb die Dinger si teuer waren. Aber inzwischen ist das vorbei. Da ist der Preis einfach zu hoch um dann noch Details zu reduzieren.
Aber Nvidia hat halt aus den Hochpreisen gelernt das sich das Zeugs trotzdem gut verkauft. Die 4060er werden dann vermutlich im 500€ Bereich liegen und das wo die 60er Mal für den <200€ Bereich waren.
Das hat mit Inflation einfach nichts mehr zu tun was Nvidia da die letzten Jahre abzieht.
So langsam werden gaming PCs wieder so extrem teuer das sich das PC gaming selbst abschafft sobald die Hardwareanforderungen in diese Richtung gehen.
So gesehen sorgt wohl besonders Nvidia dafür das alte Hardware noch jahrelang für neue Spiele reichen muss, einfach weil sonst die Zielgruppe zu klein wird.

Ex3cut3r
2023-02-10, 19:29:32
Und Vsync is bei mir immer aus, weil ich keine Latenz will, egal wie gering sie sein mag.

Ist das hier dein Monitor?

https://abload.de/img/screenshot2023-02-101oscgj.png

https://abload.de/img/screenshot2023-02-101cpi1f.png

Für 60HZ ganz ok, wobei 144HZ 4K Monitore, bei 3-4ms Input Lag sind.

IchoTolot
2023-02-10, 19:45:10
Jau das is meiner. Ich wusste nicht mal , dass der so nen niedrigen Inputlag hat.. ^^ Ich hab das einfach als normal angenommen.

Lurtz
2023-02-10, 20:56:39
Finde 12GB auch noch unproblematisch.
So schnell sehen wir keine "PS5 Pro oder Series X Enhanced".
Es wird schon alles laufen.
Bisschen geschluderte PC Umsetzungen gibt es leider wieder zunehmend.
Würde mich davon aber jetzt nicht verunsichern lassen. :wink:
Braucht es gar nicht, offenbar reichen "echte" Current-Gen-Titel um den Verbrauch explodieren zu lassen.

Wobei HL ja sogar noch eine LastGen-Version bekommt und an sich bis zum Steam Deck runterskaliert.

Lurtz
2023-02-10, 20:57:45
ich weiß, das ich mit 12gb 2 jahre klarkommen werde. trotz 4k bildschirm.
Wenn man heute schon weiß, dass die Karte eh nur zwei Jahre halten muss, reichen die 12 GB sicher meist.

BlacKi
2023-02-10, 21:09:27
Wenn man heute schon weiß, dass die Karte eh nur zwei Jahre halten muss, reichen die 12 GB sicher meist.


selbst wenn ich hier und da optionen runterdrehen müsste. die 4080 kostet einfach 40% mehr und hat nur ca. 20-25% mehr leistung. no, thx. 12gb are fine:freak:

Thunder99
2023-02-11, 12:32:51
Wird nicht die 12GB hier auf die Goldwaage gelegt und HL ist die neue Referenz?
Wir sind immer noch bei Nvidia und VRAM gibt's nicht umsonst und in Hülle und Fülle.

12GB sehe ich als done Right für die 4070Ti. Glaskugel sagt 8/10 Spiele ist das mehr als üppig.

Platos
2023-02-16, 19:28:41
Habe mir jetzt auch ne 4070Ti (gebraucht) geholt.

Bin natürlich schon am UV dran. Habe festgestellt, dass bei meiner Karte eine minimale Spannung von 890mV angelegt wird, egal was man einstellt. Ich frage mich, was für maximale Übertaktung ihr bei Untervolting im Bereich ~0.9v mit einer 4070Ti so hinkriegt ? Also ich meine mit Übertaktung das Anheben der Kurve.

Die Kurve habe ich jetzt bei +202MHz und somit liegt dann schlussendlich bei mir 2490MHz an. Bei Superposition Benchmark resultiert das in einem durchschnitsverbrauch von 158.4Watt. Also 4k optimized.

Ja... hat hier jemand vlt. schon so Richtung +250MHz probiert?


@ Speicher OC: Hat das mal jemand probiert und getestet, ob die Effizienz steigt ? Also Rechenleistung pro Watt. Oder eher nicht so ?

IchoTolot
2023-02-16, 19:33:20
12GB sehe ich als done Right für die 4070Ti. Glaskugel sagt 8/10 Spiele ist das mehr als üppig.

Meanwhile..
Intel verkauft ne A770 mit 16 GB für 350.

Linmoum
2023-02-16, 19:41:22
Intel macht riesige Verluste mit seinen GPUs, Nvidia nicht. Und ewig ist das auch für Intel wirtschaftlicher Selbstmord.

=Floi=
2023-02-16, 20:17:13
Wird nicht die 12GB hier auf die Goldwaage gelegt und HL ist die neue Referenz?
Wir sind immer noch bei Nvidia und VRAM gibt's nicht umsonst und in Hülle und Fülle.

12GB sehe ich als done Right für die 4070Ti. Glaskugel sagt 8/10 Spiele ist das mehr als üppig.

Leider nur mit 192 bit. Bandbreite wird immer mehr zum thema.

aufkrawall
2023-02-16, 20:35:07
Leider nur mit 192 bit. Bandbreite wird immer mehr zum thema.
Warum sollte das so sein?

PatkIllA
2023-02-16, 20:44:20
Leider nur mit 192 bit. Wobei ich faszinierend finde, dass die 4070 ungefähr auf dem Niveau einer 3080 12 GB ist. Die hat 384 Bit und fast die doppelte Bandbreite.
Ist das alles dem größeren Cache zuzuschreiben?

raffa
2023-02-16, 21:06:32
Meanwhile..
Intel verkauft ne A770 mit 16 GB für 350.

geschenkt nimmt man trotzdem die 4070ti ;)

Andersrum wärs passender, A770 mit 12, 4070ti mit 16