Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 4090 Review-Thread
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Leonidas
2022-10-11, 13:50:43
GeForce RTX 4090
- AD102-Chip
- 128 Shader-Cluster an 384-Bit-Speicherinterface
- 24 GB GDDR6X
- $1599 MSRP bzw. 1949€ UVP
- Reviews der "Founders Edition" am 11. Oktober (Hersteller-Designs erst am 12. Oktober)
- Marktstart am 12. Oktober
Listen der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/nvidia-geforce-rtx-4090-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/140065/nvidia-geforce-rtx-4090-founders-edition-review-roundup)
Linmoum
2022-10-11, 14:50:25
Heute nur FE und Customs erst morgen. Wer hat sich den Quatsch schon wieder ausgedacht...
Heute nur FE und Customs erst morgen. Wer hat sich den Quatsch schon wieder ausgedacht...
Ergibt Sinn, um zweimal im Rampenlicht zu stehen und den Partnern eine eigene Bühne zu geben. €dit: Und los geht's!
Nvidia Geforce RTX 4090 im Test: So powerful, it's kinda ridiculous! (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/) :up:
MfG
Raff
Linmoum
2022-10-11, 14:58:34
Dann sollte man das gestern und heute machen. Erst pünktlich zum Verkaufsstart ist das witzlos. Gerade mit Blick auf beliebte Modelle.
r3ptil3
2022-10-11, 15:00:53
Nicht übel :D:
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/power-gaming.png
Nicht übel :D:
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/power-gaming.png
Da müsste "Average/Casual/CPU-bound/Low-res Gaming" drüberstehen. ;) Zahlen von 80 bis 442 Watt hier: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a2
MfG
Raff
dildo4u
2022-10-11, 15:05:05
aQklDR8nv8U
glz5B-4IlKE
3BCdTTYbibw
r3ptil3
2022-10-11, 15:09:35
Da müsste "Average/Casual/CPU-bound/Low-res Gaming" drüberstehen. ;) Zahlen von 80 bis 442 Watt hier: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a2
MfG
Raff
Ist aber weiterhin hinter einer RTX 3090 Ti FE.
Das ist für mich seit vielen Jahren die erste Grafikkarte, die als Geforce G80 (8800 GTX) Revival betitelt werden darf.
Ist gekauft.
Da wird wohl eine aktuelle CPU erstmals selbst in 4k noch ausschlaggebend sein.
Linmoum
2022-10-11, 15:14:26
Für 2700MHz+ und damit allein 800-900MHz mehr an Takt ggü. Ampere klemmt da aber irgendwo gewaltig was bei dann nur +60% in UHD.
Metro:EE beim P1 laut CB sogar nur +44% auf die 3090Ti, RT legt also nicht unbedingt deutlich(er) zu.
OC scheint nicht viel zu bringen, 450W hätte man sich eigentlich auch sparen können. Der Unterschied zu 350W ist lächerlich.
@Raff das P1 bei Witcher ist sicher kein Messfehler? :D *freu*
Dural
2022-10-11, 15:17:30
Limitiert halt oft nicht nur die reine Rohpower.
Es gibt Fälle das ist die 4090 90% schneller als eine 3090Ti.
Eine sehr dicke CPU/Ram mit viel OC dürfte Pflicht sein.
Troyan
2022-10-11, 15:18:35
Das Ding ist schneller als 60% in UHD. Sind eher 75% gegenüber der 3090TI. Sieht besser aus als erwartet. Stromverbrauch durchgehend unter 450W mit 2700MHz.
Wäre der Euro sind nicht so dermaßen scheiße, wäre das echt unglaublich gut.
/edit: Die nVidia-Zahlen waren offensichtlich so gefällt, dass es schlechter aussieht als die Karte eigentlich wäre. Spider-Man z.B. entspricht der Folie der Reviewer...
r3ptil3
2022-10-11, 15:18:44
Eine sehr dicke CPU/Ram mit viel OC dürfte Pflicht sein.
Exakt - abwarten auf 13900K + 7000Mhz+ RAM.
MSABK
2022-10-11, 15:19:27
Exakt - abwarten auf 13900K + 7000Mhz+ RAM.
Und auf Zen4 3d.
Linmoum
2022-10-11, 15:20:11
Es sind bei PCGH exakt 60% und auch das P1 bei CB exakt 60% in UHD. Das passt schon. Man konnte es anhand von Nvidias Benchmarks schon erahnen, trotzdem wirft das Fragen auf.
Dural
2022-10-11, 15:21:39
Bei CB ist sie 65% vor der 3090Ti (Und 69% mit RT)
dildo4u
2022-10-11, 15:23:27
3090 sind noch viel zu teuer :lol:
https://abload.de/img/ffgx8c37.png
https://youtu.be/aQklDR8nv8U
Dural
2022-10-11, 15:27:01
Es gibt einige Spiele die skalieren praktisch null mit der Leistung, gerade auch die Konsolen Titel :rolleyes: da haben wir nur 30-50% mehr Leistung.
Rechnet man diese raus, ist die 4090 mal eben ca. 75% schneller als eine 3090Ti. Und die 4090 ist noch massiv beschnitten, was für eine HAMMER GPU!
Das ja besser als 8800GTX, die war ja nur so gut weil die 7900GTX es nicht war.
Matrix316
2022-10-11, 15:27:19
Und führe uns nicht in Versuchung... ;)
pNhAw449PtU
Exxtreme
2022-10-11, 15:28:54
Es gibt einige Spiele die skalieren praktisch null mit der Leistung, gerade auch die Konsolen Titel :rolleyes: da haben wir nur 30-50% mehr Leistung.
Wenn das Zeugs an der CPU klebt dann kann man nichts machen. :) Wird in Strategiespielen und MMORPGs genauso sein.
Dural
2022-10-11, 15:29:44
Bei einigen wird es die CPU sein, aber ich denke nicht überall.
@Raff das P1 bei Witcher ist sicher kein Messfehler? :D *freu*
Kein Messfehler, das skaliert ungeheuerlich. Und das ist noch nicht mal das Preset "Wicked" - müsste ich mal nachtesten. Heute Nacht vielleicht? Soll ich? :D
Btw: (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/) "Nvidias Geforce RTX 4090 ist beim Raytracing durchschnittlich um 53 Prozent schneller als die RTX 3090 Ti und um 63 Prozent flotter als die RTX 3090. Rein auf Ultra HD bezogen, rangiert die RTX 4090 sogar um gut 68 Prozent vor der RTX 3090 Ti und um 81 Prozent vor der RTX 3090."
MfG
Raff
Troyan
2022-10-11, 15:32:42
Stromverbrauch in puren Rasterizing-Games liegt wohl eher bei 400W: https://www.comptoir-hardware.com/articles/cartes-graphiques/46732-test-nvidia-geforce-rtx-4090.html?start=13
Zeigt sich eben das Problem, der Aufwand für die Skalierung ist kaum mehr möglich. Raytracing und Shader-Sortierung kann nicht schnell genug kommen.
Aroas
2022-10-11, 15:34:01
Und mag die Leistung/Effizienz noch so gut sein.
Fast 2000€ für eine Grafikkarte ist einfach nur pervers teuer.
Mal sehen, was nVidia in der Mitteklasse bringen wird und was das dann kostet.
sChRaNzA
2022-10-11, 15:37:16
Nette Karte, aber für mich deutlich zu teuer.
Loeschzwerg
2022-10-11, 15:42:41
Die Architektur in Kombination mit TSMC 4N kann sich sehen lassen, das ist schon ziemlich fett. Da hätte NV auch irgendwie bei 350W für die 4090 bleiben können ^^
Troyan
2022-10-11, 15:44:03
TDP ist nicht fest bei 450W, sondern kann darüber gehen. Interessant. Damit benötigt man wahrscheinlich keine 600W.
https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/power_plus_rt.png
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/39.html
/edit: Boost-Verhalten scheint auch deutlich besser zu sein. Mit V-Sync und Frame-Limiter sinkt der Verbrauch deutlich. Sieht sehr gut für Notebooks aus.
ChaosTM
2022-10-11, 15:47:11
Nettes Kärtchen. Die vergleichsweise "geringe" Steigerung bei RTRT lässt die Konkurrenz aber nicht von vornherein chancenlos. Wird spannend !
2K ist mir aber zu viel für das was ich momentan so spiele.
Traxx
2022-10-11, 15:48:53
Gibts irgenwo schon VR-Benches?
Lehdro
2022-10-11, 15:49:53
Freut mich das NV das Teillastverhalten endlich massiv verbessert hat. Wenn die Karte jetzt noch DP2.0 hätte - ich meine die Leistung scheint ja da zu sein.
Aber erstmal abwarten was noch kommt, die RT Skalierung sieht derzeit ein bissl mager aus, selbst wenn man die Rohleistungsskalierung im Raster mit einbezieht. Ich hatte da auf mehr RT Power gehofft, auch wenn der erreichte Wert natürlich sehr gut ist. Aber NV hat sich da den Mund wohl etwas zu voll gestopft mit deren Fantasiewerten. Jetzt erst einmal schauen was die kleineren Geschwister und vor allem AMD so machen.
shane~
2022-10-11, 15:52:52
mal in den Raum geworfen:
CP2077 RTX 3080 Ti
Nvidia v 51694 [r516_87] averageFps: 67.6
Nvidia v 52206 [r521_82] averageFps: 74.7
"RootType": "worldBenchmarkSummary",
"Data": {
"gameVersion": "1.6",
"benchmarkName": "base\\streaming\\test\\benchmark\\benchmark.gamedef",
"gpuName": "NVIDIA GeForce RTX 3080 Ti",
"gpuMemory": 12108,
"gpuDriverVersion": "Nvidia v 51694 [r516_87]",
"cpuName": "11th Gen Intel(R) Core(TM) i7-11700K @ 3.60GHz",
"systemMemory": 32768,
"osName": "Windows 10 Pro",
"osVersion": "10.0.19044",
"presetName": "Custom",
"presetLocalizedName": "UI-Settings-Video-QualitySetting-Custom",
"renderWidth": 2560,
"renderHeight": 1440,
"windowed": false,
"verticalSync": false,
"averageFps": 67.63260650634766,
"minFps": 55.292301177978519,
"maxFps": 85.83690643310547,
"time": 64.2441635131836,
"frameNumber": 4345,
"DLSSEnabled": true,
"DLSSQuality": 2,
"DLSSSharpness": 0.25,
"CASSharpeningEnabled": false,
"FSREnabled": false,
"FSRQuality": 0,
"DRSEnabled": false
"RootType": "worldBenchmarkSummary",
"Data": {
"gameVersion": "1.6",
"benchmarkName": "base\\streaming\\test\\benchmark\\benchmark.gamedef",
"gpuName": "NVIDIA GeForce RTX 3080 Ti",
"gpuMemory": 12108,
"gpuDriverVersion": "Nvidia v 52206 [r521_82]",
"cpuName": "11th Gen Intel(R) Core(TM) i7-11700K @ 3.60GHz",
"systemMemory": 32768,
"osName": "Windows 10 Pro",
"osVersion": "10.0.19045",
"presetName": "Custom",
"presetLocalizedName": "UI-Settings-Video-QualitySetting-Custom",
"renderWidth": 2560,
"renderHeight": 1440,
"windowed": false,
"verticalSync": false,
"averageFps": 74.71170043945313,
"minFps": 54.162086486816409,
"maxFps": 95.74325561523438,
"time": 64.24696350097656,
"frameNumber": 4800,
"DLSSEnabled": true,
"DLSSQuality": 2,
"DLSSSharpness": 0.25,
"CASSharpeningEnabled": false,
"FSREnabled": false,
"FSRQuality": 0,
"DRSEnabled": false
Dural
2022-10-11, 15:53:03
Geringe RT Leistung?
Da fängt Ada ja erst an richtig auf zu drehen zb. CP2077 85% schneller und so.
AD102 full wird mit RT wahrscheinlich mal eben eine Verdopplung zur 3090Ti bringen.
robbitop
2022-10-11, 15:53:11
Die Architektur in Kombination mit TSMC 4N kann sich sehen lassen, das ist schon ziemlich fett. Da hätte NV auch irgendwie bei 350W für die 4090 bleiben können ^^
Naja 3x so viele Transistoren und dazu noch +50% Takt resultieren in nur 1,65-1,8x Performance. Punch pro Transistor ist jetzt nicht so berauschend für die uArch. Irgendwas frisst das richtig fettig Transistoren weg.
Troyan
2022-10-11, 15:54:49
Naja 3x so viele Transistoren und dazu noch +50% Takt resultieren in nur 1,65-1,8x Performance. Punch pro Transistor ist jetzt nicht so berauschend für die uArch. Irgendwas frisst das richtig fettig Transistoren weg.
Ding hat 16x mehr L2 Cache, neue Geometriefunktionen, neue Shader-Sortiereinheit, breitere Tensor- und RT Cores etc. Vieles sieht man doch garnicht in Rasterizing-Spielen, weil die eben veraltet sind.
Mit Raytracing in 4K fast doppelt so schnell als eine weniger beschnittene 3090. Das ist vollkommen in Ordnung.
Leonidas
2022-10-11, 15:55:23
Dann war das hier eine gute Vorhersage:
https://pbs.twimg.com/media/Fei2kPXaMAA-U1R?format=jpg
robbitop
2022-10-11, 15:57:43
Ding hat 16x mehr L2 Cache, neue Geometriefunktionen, neue Shader-Sortiereinheit, breitere Tensor- und RT Cores etc. Vieles sieht man doch garnicht in Rasterizing-Spielen, weil die eben veraltet sind.
Mit Raytracing in 4K fast doppelt so schnell als eine weniger beschnittene 3090. Das ist vollkommen in Ordnung.
Die 96 MiB L2 sind nur schlappe 5 Mrd Transistoren. Ändert wenig an der Aussage. Außerdem sind Transistoren Transistoren. Dass man sie optimal einsetzt ist natürlich vorausgesetzt. Insofern sehe ich nicht, warum man die rausrechnen sollte.
Selbst bei Faktor 2x ist Faktor 3x an Transistoren (und +50% Takt - was ja noch on top kommt) immernoch unterproportional.
dildo4u
2022-10-11, 15:58:07
Aber erstmal abwarten was noch kommt, die RT Skalierung sieht derzeit ein bissl mager aus, selbst wenn man die Rohleistungsskalierung im Raster mit einbezieht. Ich hatte da auf mehr RT Power gehofft, auch wenn der erreichte Wert natürlich sehr gut ist.
AMD ist bei 25% der 4090 in Dying Light 2 , schätze eher viele Games haben mit RT andere Bottlenecks.
https://youtu.be/glz5B-4IlKE?t=603
Du musst die Karten unter 60fps Prügeln damit sie in Open World Games keine CPU Limits zeigen.
Crazy_Borg
2022-10-11, 15:58:34
Boah, weit über 2kg schwer das Ding.
und kommt ohne Arretierungshilfen?
"Marmor, Stein und Eisen bricht, aber unser PCIe Slot nicht..."
:freak:
Naja, wers braucht.
Die 96 MiB L2 sind nur schlappe 5 Mrd Transistoren. Ändert wenig an der Aussage.
Selbst bei Faktor 2x ist Faktor 3x an Transistoren (und +50% Takt - was ja noch on top kommt) immernoch unterproportional.
AD102-300 auf der RTX 4090 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1) hat aber nun mal nicht 96 MiB Cache aktiv, sondern "nur" 72 (-25 Prozent) -> wird gefertigt, aber weggeworfen. Die Ti wird das volle Potenzial zeigen.
MfG
Raff
ChaosTM
2022-10-11, 16:01:42
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt
Wow.: - 150Watt und nur -10% Performance. Nice
hardtech
2022-10-11, 16:02:15
bin etwas enttäuscht von der effizienz. hätte mit 100% mehr effizienz gerechnet.
laut cb sind es aber nur ca. 40% mehr als eine 6800, die bisher am effizientesten war.
ist etwas über einen nachfolger der 3060ti bekannt? am liebsten unter 150W verbrauch!
Platos
2022-10-11, 16:03:35
Wow, wie unterirdisch die Perfomance unterhalb von 4k ist. Die CPUs sind alle zu langsam. 1080p und 1440p oft gleichauf oder nur wenig Unterschied.
Die Karte hat definitiv nur unter 4k (oder höher) eine Daseinsberechtigung.
Bei Computerbase sind die percentile in 4k 1.6x über der 3090Ti. Also die Karte ist genau so, wie erwartet.
Legt einiges an Mehrperfomance drauf, aber überteuert, wie hald immer der Top-Dog.
Das traurige: Die Karten darunter werden vermutlich ein schlechteres P/L haben :D
Das Powerlimit ist auch genau so sinnlos, wie erwartet. Bei 250Watt verliert man nur grob 10% an Leistung. Mit UV sollte das in den einstelligen Bereich fallen oder gar negiert werden. Diese Stromverbräuche sind eigentlich das, was früher Leute OC nannten. Absolut lächerlich.
dildo4u
2022-10-11, 16:04:20
bin etwas enttäuscht von der effizienz. hätte mit 100% mehr effizienz gerechnet.
laut cb sind es aber nur ca. 40% mehr als eine 6800, die bisher am effizientesten war.
ist etwas über einen nachfolger der 3060ti bekannt? am liebsten unter 150W verbrauch!
350 Watt sollte die Masse der Performance bringen laut dem.
https://youtu.be/RnmyrYSZENE?t=1016
Troyan
2022-10-11, 16:04:39
Die 96 MiB L2 sind nur schlappe 5 Mrd Transistoren. Ändert wenig an der Aussage. Außerdem sind Transistoren Transistoren. Dass man sie optimal einsetzt ist natürlich vorausgesetzt. Insofern sehe ich nicht, warum man die rausrechnen sollte.
Selbst bei Faktor 2x ist Faktor 3x an Transistoren (und +50% Takt - was ja noch on top kommt) immernoch unterproportional.
Es sind ~2,6x mehr Transistoren. 4090 hat 12% weniger Einheiten und 25% weniger L2 Cache als der volle Chip. Rasterizing-Spiele sind eben nicht mehr geeignet so breite GPUs auszulasten. Daher wird doppeltseitig gefahren: Transistoren für mehr Takt und Transistoren für mehr Einheiten. So kann der Chip eben bis auf 2700MHz takten, wenn irgendwo eine Limitierung in der Pipeline existiert. Gleichzeitig hat man genug Ressourcen für genug Leistung mit Raytracing und mit SER nochmal etwas in der Hinterhand, dass für Mehrleistung sorgt.
Ganz unten ist der Raytracing-Benchmark von 3DMark: https://www.comptoir-hardware.com/articles/cartes-graphiques/46732-test-nvidia-geforce-rtx-4090.html?start=5
4090 ist 2,3x schneller als die 3090.
hardtech
2022-10-11, 16:06:45
350 Watt sollte die Masse der Performance bringen laut dem.
https://youtu.be/RnmyrYSZENE?t=1016
schon klar.
ich suche aber karten um die 200w, die ich undervolte.
aktuell verbraucht meine 3070 tuf oc 100-120w mit 60fps limit in 4k und max einstellungen. das alles mit 600-800 u/min.
der nachfolger sollte dies besser machen. vielleicht mit stehendem lüfter?! ;D
r3ptil3
2022-10-11, 16:06:52
Ich freue mich schon darauf die Karte zu undervolten.
Einfach Powerlimit festsetzen ist nicht nur langweilig, sondern vergeudet auch viel Potenzial der Karte.
Bin gespannt was die Karte mit 800-900mV hergibt.
Nightspider
2022-10-11, 16:07:48
Die Rasterizer-Leistung entäuscht irgendwie, war doch zeitweise von Faktor 2 bis 2,5 die rede. :ugly:
dildo4u
2022-10-11, 16:09:16
Die Rasterizer-Leistung entäuscht irgendwie.
Oft CPU Limits Control sollte mit das Best Case sein da es kleine Level hat.
https://youtu.be/glz5B-4IlKE?t=1562
robbitop
2022-10-11, 16:09:46
AD102-300 auf der RTX 4090 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1) hat aber nun mal nicht 96 MiB Cache aktiv, sondern "nur" 72 (-25 Prozent) -> wird gefertigt, aber weggeworfen. Die Ti wird das volle Potenzial zeigen.
MfG
Raff
Ich hab die Zahlen auf die 3090 betrachtet. Ob es mit der 4090ti vs 3090ti dann so viel am Verhältnis ändert? Wohl eher marginal.
CB 4K RT:
4090 vs 3090 1,59x
CB 4K Raster
4090 vs 3090 1,73x
Zwischen Faktor 3 an Transistoren + 50% mehr Takt und den obigen Faktoren klafft schon eine gewaltige Lücke an denen die 4090 ti nichts Grundlegendes ändern wird.
Ja es ist ein adäquater Generationssprung. Aber pro Transistor nicht so beeindruckend.
Mal als Vergleich:
GA102 vs TU102: 1,55x Transistors und laut CB Leistungsindex 1,52x Performance.
hardtech
2022-10-11, 16:10:57
Ich freue mich schon darauf die Karte zu undervolten.
Einfach Powerlimit festsetzen ist nicht nur langweilig, sondern vergeudet auch viel Potenzial der Karte.
Bin gespannt was die Karte mit 800-900mV hergibt.
das ist mein mann!
vielleicht kriegst du die karte unter 150w bei 60 fps?
Cubitus
2022-10-11, 16:11:09
bin etwas enttäuscht von der effizienz. hätte mit 100% mehr effizienz gerechnet.
laut cb sind es aber nur ca. 40% mehr als eine 6800, die bisher am effizientesten war.
Joa bei Rasterizing ist die bei 40 Prozent weniger Strom in 4k auch nur 112 Prozent schneller, da darf man schon bei der Effizienz enttäuscht sein :freak:
Die Karte ist legendär sowohl als auch im Preis als auch in der Leistung.
Leonidas
2022-10-11, 16:11:50
Ob es mit der 4090ti vs 3090ti dann so viel am Verhältnis ändert?
4090Ti hat IMO deutlich mehr Potential zur 4090 als 3090Ti zur 3090 (weil: anstatt 82->84 SM nun 128->144 SM). Sofern man die 4090Ti ähnlich puscht, sind +20% Performance drin.
hardtech
2022-10-11, 16:12:40
Joa bei Rasterizing ist die bei 40 Prozent weniger Strom in 4k auch nur 112 Prozent schneller, da darf man schon bei der Effizienz enttäuscht sein :freak:
nicht immer das beste bsp raussuchen.
nimm einfach den median und komm dann mit deinen >100% mehr effizienz! :freak:
robbitop
2022-10-11, 16:13:41
Oft CPU Limits Control sollte mit das Best Case sein da es kleine Level hat.
Im CB Test defintiv kein CPU Limit in 4K. Hab mir alle Spiele die Frameraten der 4090 in 4K der Einzeltitel mit 1440p angeschaut und verglichen. In 1440p deutlich höher. Also kann es in 4K kein CPU Limit sein. Es ist wohl eher ein Problem, so viele SMs auszulasten. (bottleneck in der Kontrolllogik)
Palpatin
2022-10-11, 16:13:50
Wow, wie unterirdisch die Perfomance unterhalb von 4k ist. Die CPUs sind alle zu langsam. 1080p und 1440p oft gleichauf oder nur wenig Unterschied.
Die Karte hat definitiv nur unter 4k (oder höher) eine Daseinsberechtigung.
Ist in meinen Augen eher ein Software Problem. Gibt aktuell kaum Hardware fressende Spiele. So toll die neue Gen auch ist, was bringts ohne Spiele wie vor 2 Jahren Cyberpunk die nach neuer Hardware schreien.
Cubitus
2022-10-11, 16:16:58
4090Ti hat IMO deutlich mehr Potential zur 4090 als 3090Ti zur 3090 (weil: anstatt 82->84 SM nun 128->144 SM). Sofern man die 4090Ti ähnlich puscht, sind +20% Performance drin.
Bei der Preisgestaltung wären es dann 2500 Euro - 3000 Euro für die TI.
Ob sich dann die 20 Prozent lohnen, ich weiß nicht..
Lehdro
2022-10-11, 16:17:25
AMD ist bei 25% der 4090 in Dying Light 2 , schätze eher viele Games haben mit RT andere Bottlenecks.
Was interessiert mich AMDs Performance wenn NV von 2x spricht? Ist das jetzt plötzlich der Anspruch? :confused:
Du musst die Karten unter 60fps Prügeln damit sie in Open World Games keine CPU Limits zeigen.
Ist halt Quatsch, RT sollte deutlich besser skalieren als Raster, weil von vorneherein deutlich weniger FPS erreicht werden und Rohleistung deutlich wichtiger wird (Frontend entlastet). Das CPU Limit sollte sich deutlich verrringern. Kann man anhand der Auflösungsskalierung auch nachweisen, insofern UHD weniger FPS als WQHD hat, was der Fall ist. Wurde doch hier im Forum dauernd besungen. Ich sehe da genau teilweise nur Skalierungsdifferenzen von 10-20% zwischen Ampere und Ada.
Beispielrechnung mit 3090 Ti vs 4090 via CB
Quelle (https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_5120__2880)
DL2 Ampere Raster = 64 fps
DL2 Ampere RT = 36 fps
= 56% der FPS im RT
CP2077 Ampere Raster = 43 fps
CP2077 Ampere RT = 18 fps
= 41% der FPS im RT
DL2 Ada Raster = 100 fps
DL2 Ada RT = 63 fps
= 63% der FPS im RT = +12,5% bessere Skalierung
CP2077 Ada Raster = 67 fps
CP2077 Ada RT = 33 fps
= 49% der FPS im RT = +19,5% bessere Skalierung
Ich habe diese beiden Spiele extra wegen der Last gewählt, die FPS Werte in WQHD sind fast doppelt so hoch -> CPU Limit ausgeschlossen.
Da sollte laut Hardware deutlich mehr drin sein. Vielleicht kommt ja noch was nach, Patch oder SER oder beides.
AD102-300 auf der RTX 4090 (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/2/#a1) hat aber nun mal nicht 96 MiB Cache aktiv, sondern "nur" 72 (-25 Prozent) -> wird gefertigt, aber weggeworfen. Die Ti wird das volle Potenzial zeigen.
MfG
Raff
Bin mal auf die ersten Speicher-OC-Skalierungs-Tests gespannt....
Troyan
2022-10-11, 16:19:44
Perf/W in Rasterizing Spielen ist aufjedenfall fast bei 2x zur 3090TI und das bei fast 40% höherer Taktung. Irgendwie beeindruckend. In Forza 5 z.B. ist die Karte nicht CPU-limitierend, hat 75% mehr Frames als eine 3090 und benötigt fast 15% weniger Strom...
Legendenkiller
2022-10-11, 16:19:46
Naja sie ist 5,2x so schnell wie eine 1070FE und kostet das 5,2fache ...
Ich bekomme also pro € immer noch genau die selben FPS wie 2016... (PS: Euro lag 2016 15% höher)
Prositiv ist das sie mit 85-90% FPS bei 300W läuft. Das ist eine beeindruckende Effizienz.
TurricanM3
2022-10-11, 16:20:43
Qualitativ ist die FE scheinbar wieder durchwachsen, wenn ich mir schon bei den Reviewern die eiernden Lüfter und sonstige Geräusche anschaue. Spulenrasseln scheinbar auch wieder wie gehabt bei den FEs. Einzelfälle sind das definitiv nicht, bin ja selbst betroffen.
Leistungssprung ist abartig. :up:
Cubitus
2022-10-11, 16:23:53
Qualitativ ist die FE scheinbar wieder durchwachsen, wenn ich mir schon bei den Reviewern die eiernden Lüfter und sonstige Geräusche anschaue. Spulenrasseln scheinbar auch wieder wie gehabt bei den FEs. Einzelfälle sind das definitiv nicht, bin ja selbst betroffen.
Leistungssprung ist abartig. :up:
Beim Baur hab ich gedacht, der hätte nen F1 Boliden im Case ;D
Der Lüfter war nicht so prall.
robbitop
2022-10-11, 16:24:59
4090Ti hat IMO deutlich mehr Potential zur 4090 als 3090Ti zur 3090 (weil: anstatt 82->84 SM nun 128->144 SM). Sofern man die 4090Ti ähnlich puscht, sind +20% Performance drin.
naja 12% mehr SMs - und die scheinen ja eh schon ein Auslastungsproblem zu haben. Und ja man könnte den Takt nochmal um 11% nach oben prügeln. Aber ob da dann wirklich in Summe 20% rauskommen? 15% vielleicht.
Dann schauen wir mal CB rasterizer Index 4K:
4090 vs 3090 ti + 1,65x
4090ti vs 3090 ti +1,9x extrapoliert +15%
CB RT Index 4K:
4090 vs 3090 ti + 1,5x
4090ti vs 3090 ti +1,72x extrapoliert +15%
PCGH Gesamtindex 4K:
4090 vs 3090 ti + 1,6x
4090ti vs 3090 ti +1,84x extrapoliert +15%
Also steht ein imaginärer Vollausbau mit allen SMs und 3 GHz mit der Keule dann bei ~1,72-1,9x ggü GA102 dar. Nochmal: bei 3x Transistoren.
Ampere konnte die Performance gegenüber Turing immerhin ~ 1:1 pro Transistor steigern.
Nightspider
2022-10-11, 16:26:01
Oft CPU Limits Control sollte mit das Best Case sein da es kleine Level hat.
https://youtu.be/glz5B-4IlKE?t=1562
Sieht nicht so aus.
Resultate laut Computerbase mit 5K Auflösung:
Ghostwire Tokyo: 36% schneller als 3090ti bei 55fps
Far Cry 6: 42% schneller bei 64fps
Da ist kein CPU Limit wenn in 4K 100-130 fps geschafft werden.
Platos
2022-10-11, 16:27:15
4K ist kein CPU-Limmit vermutlich. Bei CB sind 4k und 5k von 3090Ti zu 4090 im Schnitt exakt gleich, nämlich 1.6x schneller bei percentilen.
Naja sie ist 5,2x so schnell wie eine 1070FE und kostet das 5,2fache ...
Ich bekomme also pro € immer noch genau die selben FPS wie 2016... (PS: Euro lag 2016 15% höher)
Prositiv ist das sie mit 85% FPS bei 300W läuft. Das ist eine beeindruckende Effizienz.
Ja, die Freude hier ist lächerlich. Zeigt wieder mal, wie sehr sich die meisten Nutzer hier von simplen balken täuschen lassen. Wie kleine Kinder, die umbedingt was neues haben wollen und nicht mehr klar denken können.
Traurigerweise trifft das auch die meisten deutschen hier verlinkten Tests. Die Überschriften lesen sich, als wäre das der heilige Gral. Dabei ist das P/L ziemlich miserable (wie eben zu erwarten, bei so überteuerten Karten).
Natürlich ist der deutsche Strassenpreis ein Musterbeispiel für einen Aprilscherz, aber hier wollen alle kaufen ;D
robbitop
2022-10-11, 16:27:28
Es sind ~2,6x mehr Transistoren. 4090 hat 12% weniger Einheiten und 25% weniger L2 Cache als der volle Chip. Rasterizing-Spiele sind eben nicht mehr geeignet so breite GPUs auszulasten. Daher wird doppeltseitig gefahren: Transistoren für mehr Takt und Transistoren für mehr Einheiten. So kann der Chip eben bis auf 2700MHz takten, wenn irgendwo eine Limitierung in der Pipeline existiert. Gleichzeitig hat man genug Ressourcen für genug Leistung mit Raytracing und mit SER nochmal etwas in der Hinterhand, dass für Mehrleistung sorgt.
Ganz unten ist der Raytracing-Benchmark von 3DMark: https://www.comptoir-hardware.com/articles/cartes-graphiques/46732-test-nvidia-geforce-rtx-4090.html?start=5
4090 ist 2,3x schneller als die 3090.
Es sind eher 2,7x. Und super, dass 3D Mark 2,3x so schnell ist :freak:
Reale Spiele, die man spielen kann liegen weit darunter. Ampere konnte das gegenüber Turing liefern. ;)
Alles Ausreden - Transistoren sind Transistoren und es gilt sie eben effizient einzusetzen. Ob nun in Cache oder Spezialhardware.
Sweepi
2022-10-11, 16:28:46
@5k: Computerbase sagt auch, das Ada schlechter als Ampere in 5k skaliert - unklar warum.
robbitop
2022-10-11, 16:29:41
@5k: Computerbase sagt auch, das Ada schlechter als Ampere in 5k skaliert - unklar warum.
Die Hitrate von Caches sinkt mit der Datenmenge - was hier durch die Auflösung auch mitskaliert wird. Je höher die Auflösung, desto kleiner die Hitrate des Caches.
Platos
2022-10-11, 16:31:22
@5k: Computerbase sagt auch, das Ada schlechter als Ampere in 5k skaliert - unklar warum.
Die Percentile in 4k und 5k sind im Durchschnit exakt gleich bei CB zwischen 3090Ti und 4090.
Nightspider
2022-10-11, 16:32:19
Na ich weiß ja nicht. Bei Ampere wurde noch 8K beworben und wenn ich bei der 6900XT Battlefield V in 5K gezockt habe mit paar Settings -1 dann hab ich da auch noch 100fps generiert mit extrem guter Skalierung von 4K aus gesehen.
Redneck
2022-10-11, 16:33:47
Super Karte.. Congrats an NV. Liegt im erwarteten Bereich aber die Effizienz bei Einsatz eines Framelimiters ist super.
Hubraum geht eben doch vor Umdrehung.
Gibt es irgendwo nen Test mit unterschiedlichen CPU (auch mit 5800x3d im Vergleich zu 12900k)?
Sweepi
2022-10-11, 16:34:02
Das naheliegende ist mir mal wieder nicht eingefallen - Stimmt natürlich, Ada kommt mit mehr L2 Cache, aber wenn die Hitrate sinkt, wird auf gleich langsamen/schnellen GDDR6 zurückgegriffen wie bei Ampere - schade das HMB im Consumer Bereich aktuell tot ist :/
ChaosTM
2022-10-11, 16:34:27
@Lüftergeräusche. Igor hat 1400upm bei 41! Grad. Mit gscheiten Lüfter-Kurven bringt man die Ventilatoren garantiert klar unter 1000.
hardtech
2022-10-11, 16:35:01
Die Hitrate von Caches sinkt mit der Datenmenge - was hier durch die Auflösung auch mitskaliert wird. Je höher die Auflösung, desto kleiner die Hitrate des Caches.
dann müsste die karte unter wqhd abgehen wie sonst was. tut sie aber nicht.
man kann auch gerne mit 13900ks testen bei erscheinen.
robbitop
2022-10-11, 16:36:28
dann müsste die karte unter wqhd abgehen wie sonst was. tut sie aber nicht.
man kann auch gerne mit 13900ks testen bei erscheinen.
Dort hat man wahrscheinlich ein CPU Limit. :D
Sweepi
2022-10-11, 16:36:30
@Nightspieder
Und damals wie heute hat nVidia nur DP 1.4a (=HBR3) am start, damit schafft man bei 8k ganze 31 Hz :D
https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_common_resolutions
(Mit DSC und halber Farbauflösung vll ein paar mehr...)
Rancor
2022-10-11, 16:37:57
Krankes Stück Hardware.
Redneck
2022-10-11, 16:37:59
naja 12% mehr SMs - und die scheinen ja eh schon ein Auslastungsproblem zu haben. Und ja man könnte den Takt nochmal um 11% nach oben prügeln. Aber ob da dann wirklich in Summe 20% rauskommen? 15% vielleicht.
Dann schauen wir mal CB rasterizer Index 4K:
4090 vs 3090 ti + 1,65x
4090ti vs 3090 ti +1,9x extrapoliert +15%
CB RT Index 4K:
4090 vs 3090 ti + 1,5x
4090ti vs 3090 ti +1,72x extrapoliert +15%
PCGH Gesamtindex 4K:
4090 vs 3090 ti + 1,6x
4090ti vs 3090 ti +1,84x extrapoliert +15%
Also steht ein imaginärer Vollausbau mit allen SMs und 3 GHz mit der Keule dann bei ~1,72-1,9x ggü GA102 dar. Nochmal: bei 3x Transistoren.
Ampere konnte die Performance gegenüber Turing immerhin ~ 1:1 pro Transistor steigern.
Was soll ein Vollausbau bringen, wenn die jetzige Ausbaustufe schon nicht ausgelastet werden kann...
Nightspider
2022-10-11, 16:38:03
Zwischen Faktor 3 an Transistoren + 50% mehr Takt und den obigen Faktoren klafft schon eine gewaltige Lücke an denen die 4090 ti nichts Grundlegendes ändern wird.
Ja es ist ein adäquater Generationssprung. Aber pro Transistor nicht so beeindruckend.
Mal als Vergleich:
GA102 vs TU102: 1,55x Transistors und laut CB Leistungsindex 1,52x Performance.
Das ist in der Tat strange.
Alleine durch den Takt hätte NV schon ganz leicht an +30-40% kommen können.
Da wäre ein Ampere Refresh in N4 vielleicht kaum langsamer gewesen bei winziger Chipgröße. ;D
Platos
2022-10-11, 16:38:31
Es gibt allerdings auch 4k Spiele, die komplett im CPU Limit sind (hald die Anspruchslosen).
Beispielsweise das neueste Divinty. 1440p und 2160p genau gleich auf (nicht verwunderlich bei 190FPS).
robbitop
2022-10-11, 16:39:04
Was soll ein Vollausbau bringen, wenn die jetzige Ausbaustufe schon nicht ausgelastet werden kann...
Es wird schon noch skalieren - aber wahrscheinlich unterproportional.
Sweepi
2022-10-11, 16:39:35
Die Percentile in 4k und 5k sind im Durchschnit exakt gleich bei CB zwischen 3090Ti und 4090.
"Bei der extrem hohen Auflösung von 5.120 × 2.880 sollte man eigentlich davon ausgehen, dass die GeForce RTX 4090 ihre Shader-Einheiten nochmal etwas besser als in Ultra HD auslasten kann. Dennoch kann sich die Grafikkarte in der Auflösung mit 62 Prozent etwas weniger als in Ultra HD von der GeForce RTX 3090 Ti absetzen."
und Computerbase meint in diesem Fall die AVG FPS
Linmoum
2022-10-11, 16:40:24
Kein Messfehler, das skaliert ungeheuerlich. Und das ist noch nicht mal das Preset "Wicked" - müsste ich mal nachtesten. Heute Nacht vielleicht? Soll ich? :DMuss ja nicht ausführlich sein. Wenn du eine kurze Einschätzung dazu hast, würde mir das schon reichen. :D Anhand von UHD kann ich mir aber schon denken, dass das sehr gut wuppt.
ChaosTM
2022-10-11, 16:40:42
Was soll ein Vollausbau bringen, wenn die jetzige Ausbaustufe schon nicht ausgelastet werden kann...
Wir wissen nicht, wie viele Transistoren in die Tensoren von DLSS 3 geflossen sind.
Tangletingle
2022-10-11, 16:41:36
Naja sie ist 5,2x so schnell wie eine 1070FE und kostet das 5,2fache ...
Ich bekomme also pro € immer noch genau die selben FPS wie 2016... (PS: Euro lag 2016 15% höher)
Prositiv ist das sie mit 85-90% FPS bei 300W läuft. Das ist eine beeindruckende Effizienz.
Das ist dass was seit Jahren unterm Strich übrig bleibt und es interessiert keine Sau. Ich verstehe auch nicht warum sowas in der Presse nicht jedes Mal gaaaaanz dick herausgestellt wird.
Platos
2022-10-11, 16:42:29
"Bei der extrem hohen Auflösung von 5.120 × 2.880 sollte man eigentlich davon ausgehen, dass die GeForce RTX 4090 ihre Shader-Einheiten nochmal etwas besser als in Ultra HD auslasten kann. Dennoch kann sich die Grafikkarte in der Auflösung mit 62 Prozent etwas weniger als in Ultra HD von der GeForce RTX 3090 Ti absetzen."
und Computerbase meint in diesem Fall die AVG FPS
Genau, 62% anstatt 65%. Aber AVG sind ja auch komplett irrelevant. Wichtig sind percentile und die sind genau gleich.
Dass CB (und auch viele andere) ihre Rankings und Fazit immer noch nach avg-FPS ausrichten, ist halt einfach traurig.
robbitop
2022-10-11, 16:43:05
Optical flow acceleration Hardware inklusive DX12 plugin gab es schon für Turing und Ampere. Und zwar zur Framerateverdopplung. Das Plugin ist von 2021.
IMO nicht unrealistisch, dass das (nun als DLSS 3 Frame Generation bekannte Feature) potenziell auch für Turing/Ampere lauffähig wäre man jetzt aber natürlich neue Kaufanreize braucht.
Nightspider
2022-10-11, 16:45:26
Naja sie ist 5,2x so schnell wie eine 1070FE und kostet das 5,2fache ...
Ich bekomme also pro € immer noch genau die selben FPS wie 2016... (PS: Euro lag 2016 15% höher)
Prositiv ist das sie mit 85-90% FPS bei 300W läuft. Das ist eine beeindruckende Effizienz.
Man könnte jetzt sagen: Grafikkarten sind wertstabil geworden. ;D
Wenn du im Durchschnitt jedes Jahr 100-200 Euro für eine neue Grafikkarte ausgegeben hast, konntest du dich über die 5,2 Jahre nach oben leveln weil du für die alten Karten gutes Geld bekommst. ;D
MSABK
2022-10-11, 16:46:12
Man kann schon sagen, dass einfach niemand an TSMc rankommt.
Tangletingle
2022-10-11, 16:46:41
Optical flow acceleration Hardware inklusive DX12 plugin gab es schon für Turing und Ampere. Und zwar zur Framerateverdopplung. Das Plugin ist von 2021.
IMO nicht unrealistisch, dass das (nun als DLSS 3 Frame Generation bekannte Feature) potenziell auch für Turing/Ampere lauffähig wäre man jetzt aber natürlich neue Kaufanreize braucht.
Angeblich ist die "neue" flow-engine deutlich potenter als die in Ampere. Ob das stimmt lässt sich wohl eher schlecht prüfen.
ChaosTM
2022-10-11, 16:46:56
Optical flow acceleration Hardware inklusive DX12 plugin gab es schon für Turing und Ampere. Und zwar zur Framerateverdopplung. Das Plugin ist von 2021.
IMO nicht unrealistisch, dass das (nun als DLSS 3 Frame Generation bekannte Feature) potenziell auch für Turing/Ampere lauffähig wäre man jetzt aber natürlich neue Kaufanreize braucht.
Wäre schön, wenn NV das später mal für meine 3080M nachliefern würde.
Platos
2022-10-11, 16:47:23
Das ist dass was seit Jahren unterm Strich übrig bleibt und es interessiert keine Sau. Ich verstehe auch nicht warum sowas in der Presse nicht jedes Mal gaaaaanz dick herausgestellt wird.
Jaa.. das frage ich mich auch. Z.B Raff... ?
Nvidia-Werbeartikel, mehr nicht.
Extrem mieses P/L. Gleichschlecht, wie vor vielen Jahren. Aber hoch loben. Im Fazit steht nicht ein einziges Wort zum Preis. Nur Libeleien und die Antwort auf alles liefert die 4090 sinngemäss :D
Was los mit dir, Raff? Bist du zu lange Nerd gewesen, so dass du nur noch angegeilt sein kannst von einem Produkt, dass mehr Rechenleistung liefert, als das vorherige? Mir kommt es so vor... Preis scheiss egal.
Wie ja Linus einst treffend sagte (sinngemäss): Presse ist reine Werbung. nvidia freut sich.
Troyan
2022-10-11, 16:49:44
Das ist dass was seit Jahren unterm Strich übrig bleibt und es interessiert keine Sau. Ich verstehe auch nicht warum sowas in der Presse nicht jedes Mal gaaaaanz dick herausgestellt wird.
Und mit Raytracing kostet die Karte nur 5,2x mehr und liefert 50x mehr Leistung. :eek:
Cubitus
2022-10-11, 16:50:52
Es gibt allerdings auch 4k Spiele, die komplett im CPU Limit sind (hald die Anspruchslosen).
Beispielsweise das neueste Divinty. 1440p und 2160p genau gleich auf (nicht verwunderlich bei 190FPS).
Igor sagt in seinem Review in 4K ist der Ryzen 7950X teilweise ein Flaschenhals :D
Iscaran
2022-10-11, 16:51:49
Hmmm, nVidia schneidet besser ab als ich es gedacht hätte.
ABER.
WARUM >300 W gehen? Wenn man mit 300W ja schon +65% gegenüber 3090 Ti liegt. Die 10% mehr mit 450W jucken doch keine SAU - außer natürlich, nVidia hat schon eine Vorahnung das 300W nicht lange herhalten werden. Wobei +10% es dann auch nicht rausreissen?
Warum dieser Preisanstieg??? +60% Leistung + 60%Preis.
Preisparität zur 3090 Ti wäre durchaus sinnvoll gewesen - aber vermutlich sind die Ampere Lager noch so voll, dass man erstmal den Abverkauf abwartet (und in Ruhe Karten produziert für später).
War ja auch üblich neue Generation = ~+50% gegenüber vorher zu +- gleichem Preis. (inflationsbereinigt).
Wenn das so weitergeht und man Leistungszuwächse 1:1 in € bezahlen muss dann haben wir bald GPUs die 2.000€ und mehr kosten...*uups* haben wir ja schon :rolleyes:
Also, ja Ada ist schon irgendwie beeindruckend schnell, aber ich glaube in 1 Monat werden wir sehen, dass es ein Thermi reloaded ist.
Nightspider
2022-10-11, 16:52:22
Und mit Raytracing kostet die Karte nur 5,2x mehr und liefert 50x mehr Leistung. :eek:
Ich frage mich öfter, ob es nicht besser gewesen wäre die Transistoren, anstatt für Raytracing in andere Shader zu stecken.
GI gibts zB. auch ohne Raytracing.
Raytracing ergibt manchmal -50% fps und sieht nur 5% besser aus.
Igor sagt in seinem Review in 4K ist der Ryzen 7950X teilweise ein Flaschenhals :D
Warum stellen die sich alle so doof an und testen nicht in 5K.
5K Monitore gibts doch schon Jahre und Downsampling noch länger.
Früher haben die Tester doch auch nicht bis zum Tag den jüngsten Gerichts auf der 1080p Res in Tests beharrt.
gnomi
2022-10-11, 16:52:47
Die Karte ist brachial.
Bei PCGH im Schnitt unter UWQHD 72% und 4K 81% schneller als eine 3080 TI. RT ist nicht ganz so stark darüber hinaus, aber man kann nochmal 10% drauflegen und hat dann noch DLSS 3.
Auch ist sie effizienter als gedacht. Würde die glatt mit einem 750 Watt Netzteil riskieren einzubauen. Man kann ja bei 120 limitieren und bisschen drosseln.
Der Sprung ist insgesamt eher noch etwas höher als 2080 auf 3080TI.
Dennoch- in UWQHD liefert auch die 3080TI in 90% der Spiele 60 fps und mehr.
Also ohne 4K Gaming ist das Erlebnis durch die nicht so stark hinterher kommende Software dann gefühlt etwas geringer.
Bei einer 2080 wird es mit RTX und DLSS zu knapp über 1440P. Mit der 3080TI eben noch nicht, auch wenn man langsam mal einen Regler bedienen muss.
Trotzdem könnte man für 1000€ Aufpreis wechseln. Kein so schlechtes Angebot für Enthusiasten. :freak:
Irgendwie fühle ich mich dennoch bei Ampere abgezockt.
Aber die Zeiten, wo es 60-80% bei 10% mehr Einstiegspreis gab, sind eben Geschichte.
DrFreaK666
2022-10-11, 16:53:38
Hat jemand DLSS 3 in 1080p getestet? Also hauptsächlich BQ.
Wieso hat NV die Karte auf 450W geprügelt?
Troyan
2022-10-11, 16:53:58
Ich frage mich öfter, ob es nicht besser gewesen wäre die Transistoren, anstatt für Raytracing in andere Shader zu stecken.
GI gibts zB. auch ohne Raytracing.
Raytracing ergibt manchmal -50% fps und sieht nur 5% besser aus.
GI gibt es nicht ohne Raytracing. GI ist immer eine Form von World-Space. Und viele alternative Methoden sind ineffizienter und aufwendiger zu implementieren. Andere Effekte wie Reflektionen und realistische Schatten sind kaum anders möglich.
Raytracing ist die Zukunft, auch weil es viel besser mit Geometrie skaliert.
robbitop
2022-10-11, 16:55:45
Angeblich ist die "neue" flow-engine deutlich potenter als die in Ampere. Ob das stimmt lässt sich wohl eher schlecht prüfen.
Es soll für DX12 im Plugin jedenfalls für die Verdopplung der Framerate angedacht worden sein. Wenn das Plugin ein Entwickler mal testet, hätte man Gewissheit. Für mich macht es keinen Sinn sowas für 2x Generationen zu bauen, wenn es nicht wenigstens die Bilder verdoppelt.
Ich bin hier ehrlich gesagt super skeptisch zu glauben, dass das nicht auch (zumindest für ein Teilspektrum der Einsatzfälle) für Ampere funktioniert hätte.
Ex3cut3r
2022-10-11, 16:57:12
Bin dann doch etwas überrascht von der Leistung. Sehe teilweise über 100%+ von einer 3080 Ti. Aber, ich müsste mir dazu auch noch einen 4K Monitor anschaffen, in 1440p mit Zen 3 ist man hoffnungslos am Arsch. Also entweder, neuer Monitor mit 4K + 4090. Oder 4090 + Zen 4 oder Raptor Lake für 1440p.
Nightspider
2022-10-11, 16:58:44
Bin dann doch etwas überrascht von der Leistung. Sehe teilweise über 100%+ von einer 3080 Ti. Aber, ich müsste mir dazu auch noch einen 4K Monitor anschaffen, in 1440p mit Zen 3 ist man hoffnungslos am Arsch. Also entweder, neuer Monitor mit 4K + 4090. Oder 4090 + Zen 4 oder Raptor Lake für 1440p.
4090 für 1440p ist doch bekloppt.
Ex3cut3r
2022-10-11, 16:59:29
4090 für 1440p ist doch bekloppt.
Ne, mit Zen 4 oder Raptor Lake, wären 1440p mit 240HZ richtig drin. :biggrin:
Nightspider
2022-10-11, 17:01:33
Dann vielleicht eher Zen3D oder Zen4D.
Gibt zu viele Spiele, wo auch bei Zen4 die Leistung nicht auf die Straße kommt.
ChaosTM
2022-10-11, 17:01:56
Leute die 2k für eine Graka ausgeben haben meist 4k+ Hardware und auch die schnellsten CPUs. Von daher passt das schon.
Alle anderen greifen zu den kleineren..
Voodoo6000
2022-10-11, 17:02:29
Ein guter Generationssprung und die RTX 4090 ist eine tolle Grafikkarte. Etwas kritisch sehe ich aber den Leistungsgewinn verglichen mit der Anzahl der Transistoren. Nvidias Architektur scheint da wirklich nicht mehr optimal zu sein.
Ich finde Nvidia hat wie AMD mit Zen 4 hier den falschen Weg gewählt. Mit 350 Watt wäre die RTX 4090 viel beeindruckender und kaum langsamer gewesen. Die Effizienz wäre noch deutlich besser gewesen, Nvidia hätte diesen neuen dämlichen Stecker nicht gebraucht und Nvidia hätte am Kühler und PCB sparen können um die Karte für 1500$ anzubieten.
Leute die 2k für eine Graka ausgeben haben meist 4k+ Hardware und auch die schnellsten CPUs. Von daher passt das schon.
Alle anderen greifen zu den kleineren..
Das Problem der kleiner Modelle ist aber das nicht deutlich besser Preis-Leistungs-Verhältnis.
Hatstick
2022-10-11, 17:03:09
Wenn eine RTX 4090, dann aber auch gleich ein 4k/120Hz Monitor...
4k/60Hz würde ich niemals einen 1440p/144Hz vorziehen und für 1440p scheint sie schon eher eine Verschwendung zu sein aber wer das Geld für eine Grafikkarte über hat, der sollte auch kein Problem damit haben, sich einen entsprechenden Monitor zu kaufen.
Viel Spaß an alle 4090 Besitzer! :)
why_me
2022-10-11, 17:03:44
Warum sind die Karten auf 450W hoch geprügelt? 300-350 hätten doch auch locker ausgereicht.
Ex3cut3r
2022-10-11, 17:04:23
Wenn eine RTX 4090, dann aber auch gleich ein 4k/120Hz Monitor...
4k/60Hz würde ich niemals einen 1440p/144Hz vorziehen und für 1440p scheint sie schon eher eine Verschwendung zu sein aber wer das Geld für eine Grafikkarte über hat, der sollte auch kein Problem damit haben, sich einen entsprechenden Monitor zu kaufen.
Viel Spaß aan alle 4090 Besitzer! :)
Tja, verschiedene Geschmäcker. Finde 60HZ eine Seuche. Aber jeder wie er mag. :cool:
Cubitus
2022-10-11, 17:05:12
Warum stellen die sich alle so doof an und testen nicht in 5K.
5K Monitore gibts doch schon Jahre und Downsampling noch länger.
Früher haben die Tester doch auch nicht bis zum Tag den jüngsten Gerichts auf der 1080p Res in Tests beharrt.
Naja von 1080p auf 4k ist ja schon ein krasser Schritt.
Da fehlt noch etwas dazwischen, ist halt ein Novum :D
Hatstick
2022-10-11, 17:05:34
Tja, verschiedene Geschmäcker. Finde 60HZ eine Seuche. Aber jeder wie er mag. :cool:
Das wollte ich auch in meinem Post ausdrücken, wenn eine RTX 4090, dann auch gleich 4k/120Hz oder 144Hz oder whatever, was es aktuell da so gibt.
Natürlich kein popeliger 60Hz Monitor.
robbitop
2022-10-11, 17:06:22
Bin dann doch etwas überrascht von der Leistung. Sehe teilweise über 100%+ von einer 3080 Ti. Aber, ich müsste mir dazu auch noch einen 4K Monitor anschaffen, in 1440p mit Zen 3 ist man hoffnungslos am Arsch. Also entweder, neuer Monitor mit 4K + 4090. Oder 4090 + Zen 4 oder Raptor Lake für 1440p.
Downsampling. :)
Jupiter
2022-10-11, 17:06:29
Ich frage mich öfter, ob es nicht besser gewesen wäre die Transistoren, anstatt für Raytracing in andere Shader zu stecken.
GI gibts zB. auch ohne Raytracing.
Raytracing ergibt manchmal -50% fps und sieht nur 5% besser aus.
Warum stellen die sich alle so doof an und testen nicht in 5K.
5K Monitore gibts doch schon Jahre und Downsampling noch länger.
Früher haben die Tester doch auch nicht bis zum Tag den jüngsten Gerichts auf der 1080p Res in Tests beharrt.
Manchmal kosten SSR das Gleiche wie Raytracing Reflektionen und die SSR sehen 99,99 % schlechter aus
Alles über UHD ist im Bildschirmbereich uninteressant. Nur für VR relevant.
Troyan
2022-10-11, 17:06:51
In Spider-Man mit Raytracing auch mal 2x schneller als eine 3090: https://www.kitguru.net/components/graphic-cards/dominic-moass/nvidia-rtx-4090-founders-edition-review/21/
Kitguru testet den Stromverbrauch sogar in den jeweiligen Spielen. Spider-Man liegt die Effizienz bei +83% zur 3090TI und +57% zur 3090. in Valhalla sieht man sehr schön, wieviel besser Lovelace bei Teillast ist. Dort ist die 4090 2,2x effizienter als die 3090TI. 318W stehen 450W gegenüber und 4090 liefert immer noch 63% mehr Leistung...
In Forza 5 sind es 91% zur 3090: https://www.kitguru.net/components/graphic-cards/dominic-moass/nvidia-rtx-4090-founders-edition-review/11/
ChaosTM
2022-10-11, 17:07:35
Auf jeden Fall könnte man mit dem Ding WUHD Monitore mit 120 hz beitreiben, wenn man gleich DP 2.0 eingebaut hätte. Dummes Versäumnis.
Andererseits gibts die derzeit eh nur bis 75hz, aber man wäre für die Zukunft deutlich besser gerüstet.
Mal schaun was die Konkurrenz da macht.
robbitop
2022-10-11, 17:08:10
2x Fullnodeshrinks - da sollte man besser auch deutlich energieeffizienter sein.
Troyan
2022-10-11, 17:10:01
2x Fullnodeshrinks - da sollte man besser auch deutlich energieeffizienter sein.
Ja, aber Zen4 zeigt, dass es auch anders geht.
Anscheinend kann Lovelace viel besser nicht stark ausgelastete Bereiche deaktivieren und somit deutlich Strom sparen.
Tangletingle
2022-10-11, 17:10:05
Ich bin hier ehrlich gesagt super skeptisch zu glauben, dass das nicht auch (zumindest für ein Teilspektrum der Einsatzfälle) für Ampere funktioniert hätte.
Nicht nur du.
Nightspider
2022-10-11, 17:11:09
Auch bei PCGH in Cyberpunk nativ 4K ohne Raytracing:
55% mehr Leistung als die 3090 obwohl in 1440p doppelt so hohe fps drin sind - auch hier kein CPU Limit.
BF2042 42%
God of War 46%
obwohl das CPU Limit, wie man unter den 1440p Werten sieht, weit weg liegt.
3 mal so viele Transistoren und 2000 bis 2500 Euro für manchmal nur 42-46% mehr Leistung. :uclap::uclap::uclap:
Platos
2022-10-11, 17:12:29
Downsampling. :)
Für Downsampling eine neue Grafikkarte kaufen ist jetzt aber so ziemlich das schlechteste, was man machen kann bezüglich Grafikgewinn/Preis.
Das macht man nur, wenn man ohnehin schon Leistung übrig hat.
3 mal so viele Transistoren und 2000 bis 2500 Euro für manchmal nur 42-46% mehr Leistung. :uclap::uclap::uclap:
Was interessieren Transistoren? Einzig und allein zählt der Preis bei Rechenleistung und der ist kacke.
Tangletingle
2022-10-11, 17:13:04
Ja das scaling ist manchmal komisch. Da könnt durchaus noch was mit neuen Treibern gerichtet werden.
robbitop
2022-10-11, 17:14:46
Ja, aber Zen4 zeigt, dass es auch anders geht.
Anscheinend kann Lovelace viel besser nicht stark ausgelastete Bereiche deaktivieren und somit deutlich Strom sparen.
Jetzt geht der Propellerjungenschwachsinn wieder los :rolleyes:
1.) Zen 4 verbraucht selbst out of the box trotz TDPs nicht signifikant mehr als Zen 3 in Games - Quellen sind mehrfach im Zen 4 Thread geliefert worden
2.) TDP ist konfigurierbar - bei gleicher TDP frisst Zen 4 Zen 3 zum Frühstück
3.) was hat das mit Ada Lovelace zu tun? Nichts.
Wie man Fan von einer Firma sein kann, werde ich nie verstehen. Als Endanwender kaufe ich immer das was P/L am besten ist. Egal von wem. Companies are not your friends.
robbitop
2022-10-11, 17:16:00
Für Downsampling eine neue Grafikkarte kaufen ist jetzt aber so ziemlich das schlechteste, was man machen kann bezüglich Grafikgewinn/Preis.
Jap. Heutzutage macht es sowieso selten Sinn, jede Gen aufzurüsten. :)
Wenn alles rennt - wozu?
Und, wer kauft morgen eine?
gnomi
2022-10-11, 17:18:23
Warum sind die Karten auf 450W hoch geprügelt? 300-350 hätten doch auch locker ausgereicht.
Hoffentlich wird noch eine ähnlich aufgebaute, leicht gedrosselte 4080 TI nächstes Jahr nachgeschoben. Und dann bisschen bezahlbarer wäre auch gut.=)
Sweepi
2022-10-11, 17:18:26
Alles über UHD ist im Bildschirmbereich uninteressant. Nur für VR relevant.
Ich saß schon ein paar mal vor 5k in 27".
Wenn es diese Monitore mit mehr als 60 HZ gäbe, würde ich zuschlagen.
w0mbat
2022-10-11, 17:19:27
Bin positiv überrascht, mMn die beste Generation seit Maxwell und die erste "echte" 4K Karte. Leider auch wirklich nur bei 4K (oder vielleicht 1440p UW) nützlich, sonst einfach zu schnell.
Stellt euch mal eine "4090 Ti" mit nem vollen AD102 vor, das wäre nochmal deutlich effizienter. AMD ist jetzt echt etwas unter zugzwang.
Linmoum
2022-10-11, 17:20:35
Und, wer kauft morgen eine?Hier. Wakü und los geht's. Da >450W überflüssig sind wie man sieht, wird nur geguckt, wo ein Block raufpassen wird.
MD_Enigma
2022-10-11, 17:21:36
Alter. Igor. Die ersten zwei Minuten des Videos hab ich nix mitbekommen - ich war so perplex vom Outfit und musste nur noch lachen. Respekt.
Die 4090 überzeugt auf ganzer Linie, wenn man sie als einen Titan betrachtet und in Sachen Preis/Leistung/Stromverbrauch außerhalb der Vernunftsliga spielen lässt. Es gibt offensichtlich einen Markt hierfür - jedoch verbittet es meine Erziehung einen Kauf mit gutem Gewissen. Ich bin sehr zuversichtlich dass eine kompaktere RTX 4080 basierend auf dem AD102 mit ~300W meinen Nerv treffen würde und ein paar Scheinchen locker machen würde.
Man kann das ja Linear hochrechnen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80842&stc=1&d=1665502009
Eine 4090-128SM wäre eine ideal grob eine 300W Karte, die 4080-76SM eine 160W Karte und die 4070-60SM wäre eine 130W Karte.
Die 4070-60SM scheint NVidia analog zur 600W-Version der 4090-128SM auszulegen.
VooDoo7mx
2022-10-11, 17:23:29
Tja, verschiedene Geschmäcker. Finde 60HZ eine Seuche. Aber jeder wie er mag. :cool:
100ppi Low Res 1440p Fliegengitter ist für mich eine Seuche.
UHD ist absolutes Minimum. Eigentlich hätte ich lieber 5K 5120x2880 oder am besten gleich 7680x4320
Für Single Player Games mit Pad reicht locker 60Hz.
Und, wer kauft morgen eine?
Ich warte noch auf die 4090Ti. Außerdem gehe ich davon aus das ziemlich schnell die Preise fallen werden und nVidia auch Spiele Bundles nachschiebt. ;)
Hab es nicht eilig und bin noch mit meiner 3080Ti gut versorgt.
Hat denn irgendein Reviewer mal mit den Curve Editor rumgespielt?
Ex3cut3r
2022-10-11, 17:24:47
109 PPi bitte. Ok, alles klar. 4K und bisher mit 30 FPS rumgekrebst? Respekt. Bist wohl ein Russe, dich haut so schnell nix um.
ChaosTM
2022-10-11, 17:25:50
Ich saß schon ein paar mal vor 5k in 27".
Wenn es diese Monitore mit mehr als 60 HZ gäbe, würde ich zuschlagen.
Ich will was in WUHD (5120x2160), aber das gehen keine 120hz+ mit dem steinalten DP 1.4.
MiamiNice
2022-10-11, 17:27:21
Hier. Wakü und los geht's. Da >450W überflüssig sind wie man sieht, wird nur geguckt, wo ein Block raufpassen wird.
Die ootb TDP der Karten ist eh nicht so wichtig, Bios kann man flashen. Auf Deine Werte mit WaKü bin ich gespannt :up:
dildo4u
2022-10-11, 17:30:04
gzlI9nHEIBQ
rentex
2022-10-11, 17:31:04
Faszinierend, Nvidia!
Nightspider
2022-10-11, 17:31:35
Was interessieren Transistoren? Einzig und allein zählt der Preis bei Rechenleistung und der ist kacke.
Es ist schon interessant im Vergleich.
Maxwell legte rund 12% an Transistoren zu und war 50% schneller als Kepler. ;D
Ada legt 200% zu und schafft manchmal nur 42%. ;D
Linmoum
2022-10-11, 17:31:44
Die ootb TDP der Karten ist eh nicht so wichtig, Bios kann man flashen. Auf Deine Werte mit WaKü bin ich gespannt :up:Erstmal muss ich eine kriegen. Ich hoffe, das wird was. Auch, wenn ich morgen zu der Zeit auf Arbeit Pause habe. Trotzdem anders, als das entspannt zu Hause machen zu können. :D
Ex3cut3r
2022-10-11, 17:33:59
Das dürfte kein Problem sein, bei 2200€+ werden wohl nicht allzu viele kaufen, denke ich.
Krasses Teil, Nvidia hat mich von den Leistungswerten als auch von den Verbrauchswerten positiv überrascht. Wäre da nicht der hohe Einstiegspreis... aber trotzdem dicker Daumen nach oben. (y)
Taigatrommel
2022-10-11, 17:46:16
Das dürfte kein Problem sein, bei 2200€+ werden wohl nicht allzu viele kaufen, denke ich.
Das schätze ich auch so ein, zumal die Händler sicher wieder zum Launch noch einen leichten Aufpreis einkassieren werden, wer bereits ist, 2000+€ zu zahlen, der wird dann auch noch 10% mehr bezahlen.
Ich bin jedenfalls sehr positiv von der 4090 überrascht, ich dachte sie würde nur durch brachialen Verbrauch die Leistung hochprügeln, wäre sehr heiß, sehr groß und dabei vermutlich dennoch relativ laut. Nebenher dann die größten Gewinne nur unter RT. Das ist ja alles kaum eingetreten, beeindruckend vor allem die noch übrigbleibende Leistung, wenn man die Leistungsaufnahme drosselt. Hat man anfangs noch gescherzt, Shops sollten am besten gleich Bundles mit >1000W Netzteilen anbieten, sieht die Sache jetzt doch ganz anders aus.
Bleibt der Preis und der ist halt für mich jenseits von gut und böse. Bereits die knapp über 1200€, die ich vor rund zwei Jahren für meine 6900XT hingeblättert habe, waren weit mehr, als ich jemals bereit war, für eine Graka auszugeben. Vor in Hinblick auf die derzeit herrschende Unsicherheit bezüglich der weiteren finanziellen Entwicklung, ist die Karte zumindest für mich alleine durch den Preis absolut uninteressant.
anorakker
2022-10-11, 17:47:37
Wäre da nicht der hohe Einstiegspreis. (y)
Das so mal ebenim Nebensatz.. Aber was soll man bitte bei so einem exorbitanten Preis und neuem Produkt sonst erwarten? Sollte die Karte "preiswert" sein, dann ist es aktuell die 3090 Ti auch.
Freestaler
2022-10-11, 17:52:09
Dlss3.0 interpoliert wirklich nur?
Jupiter
2022-10-11, 17:57:05
Laut DF und GN der größte leistungstechnische Generationssprung seit einigen Jahren.
Hoffentlich wird noch eine ähnlich aufgebaute, leicht gedrosselte 4080 TI nächstes Jahr nachgeschoben. Und dann bisschen bezahlbarer wäre auch gut.=)
Die 24 GB Vram der RTX 4090 brauche ich nicht.
dildo4u
2022-10-11, 17:58:13
Schätze mal das erklärt die hohen CPU Preise fast zwang sich neue zu besorgen mit der Karte.
Bis jetzt reichte wohl ein 5800 oder 9900k, jetzt am besten was man mit DDR5 6000 betreiben kann.
Gameplay mit 5800X3D.
lGwQGpxUnGg
DLSS3 Demo
_eoHguqNDqM
VooDoo7mx
2022-10-11, 18:06:27
Es ist schon interessant im Vergleich.
Maxwell legte rund 12% an Transistoren zu und war 50% schneller als Kepler. ;D
Ada legt 200% zu und schafft manchmal nur 42%. ;D
Was für ein selten dämlicher und hirnverbrannter Äpfel mit Birnen vergleich.
Der GK110 hat volle DP FP64 Einheiten und deswegen auch sehr viele Transistoren zur damaligen Zeit. Der GM200 (und nachfolgende GP102, TU102, GA102, AD102) hat wiederum diesen für Gaming wertlosen Ballast nicht, da nVidia dazu mittlerweile extra Profi Chips anbietet. Und dies hat wiederum eine Menge Transistoren gespart.
Vergleich mal den GK104 mit dem GM204. Da sieht das schon wieder ganz anders aus.
Nightspider
2022-10-11, 18:16:05
Dann sinds 42% mehr Transistoren für 50% mehr Leistung bei Maxwell.
Das Bild verändert sich nicht viel. 3 mal mehr Transistoren für teils nur 45% mehr Leistung bei Rasterisierung wirkt schwach.
blaidd
2022-10-11, 18:19:23
Hat jemand DLSS 3 in 1080p getestet? Also hauptsächlich BQ?
Bisher noch nicht (bzw. nur Full-HD-Renderauflösung mit DLSS Performance @ 4K). Habe ich aber noch vor, zumindest für einen etwas weiterführenden Print-Artikel. Ich würde mich außerdem mal interessieren, was passiert, wenn die Bildrate so hoch ist, dass die laut Nvidia 3 ms benötigenden KI-Frames langsamer als die tatsächlich berechneten sind – also bei einer Framerate höher ~333 Fps.
Schlauerweise würde sich die Framegeneration dann deaktivieren.
Wenn nicht, würde sie tatsächlich bremsen (und Bild und Eingabe verschlechtern).
Zumindest ohne FG ist DLSS 3.0 aber sehr nah an 2.0 - ähnliche Bildschärfe (ohne FG), ähnliche Artefaktbildung – Moiré, deutlich sichtbares Jittering bei DLSS Ultra-Performance @ 4K (in niedrigeren Auflösungen eventuell auch bei höheren Stufen, muss ich noch genauer checken...) und hier und da recht deutliche Schlierenbildung.
Gebrechlichkeit
2022-10-11, 18:25:19
Kann man irgendwie 8K erzwingen [via dlss?].
Wat ist mit 1440p@240hz? [very high settings z.B].
So richtig wurde die bisher nicht getestet.
Auf ULTRA kommt die nur in der 4K Stratosphere auf Hochturen.
Jupiter
2022-10-11, 18:27:25
Selbst UHD primitive leistungsverschwendung für Bildpunkte, wenn DLSS mit 1080p oder 1440p ähnlich gut oder besser aussieht. Dann lieber viel mehr Rechenleistung in fortschrittliche Grafik mit Pathtracing und volumetrische Effekte investieren. Einige Entwickler müssen umdenken, wenn die weiterhin eine zeitgemäße Präsentation bieten wollen.
why_me
2022-10-11, 18:27:27
Zumindest ohne FG ist DLSS 3.0 aber sehr nah an 2.0 - ähnliche Bildschärfe (ohne FG), ähnliche Artefaktbildung – Moiré, deutlich sichtbares Jittering bei DLSS Ultra-Performance @ 4K (in niedrigeren Auflösungen eventuell auch bei höheren Stufen, muss ich noch genauer checken...) und hier und da recht deutliche Schlierenbildung.
Der DLSS teil von 3.0 ist doch weiterhin der gleiche wie bei 2.0, eventuell eine etwas neuere Version, viel mehr würde ich da auch nicht erwarten.
Nightspider
2022-10-11, 18:31:09
Gibts irgendwo ein Test von Cyberpunk 2077 mit max settings @ 5K und DLSS ?
blaidd
2022-10-11, 18:32:54
Der DLSS teil von 3.0 ist doch weiterhin der gleiche wie bei 2.0, eventuell eine etwas neuere Version, viel mehr würde ich da auch nicht erwarten.
Ja, genau – das hat, wenn überhaupt, nur kleine Tweaks bekommen. Die FG macht aus DLSS 2.x DLSS 3.x
Gibts irgendwo ein Test von Cyberpunk 2077 mit max settings @ 5K und DLSS ?
Jo, allerdings nur hier im CMS - für den Artikel drumherum reichten die Nächte bisher nicht. Morgen Mittag, schätze ich. Kurzversion: hübsch, flüssig und fast doppelt so flott wie mit GA102.
MfG
Raff
SamLombardo
2022-10-11, 18:34:51
Zumindest ohne FG ist DLSS 3.0 aber sehr nah an 2.0 - ähnliche Bildschärfe (ohne FG), ähnliche Artefaktbildung – Moiré, deutlich sichtbares Jittering bei DLSS Ultra-Performance @ 4K (in niedrigeren Auflösungen eventuell auch bei höheren Stufen, muss ich noch genauer checken...) und hier und da recht deutliche Schlierenbildung.
Wie sieht es mit dem Inputlag aus? Gibt's da schon Erkenntnisse? Schnelle Shooter problemlos spielbar?
Nazar
2022-10-11, 18:36:01
Das Ding ist schneller als 60% in UHD. Sind eher 75% gegenüber der 3090TI. Sieht besser aus als erwartet. Stromverbrauch durchgehend unter 450W mit 2700MHz.
Wäre der Euro sind nicht so dermaßen scheiße, wäre das echt unglaublich gut.
/edit: Die nVidia-Zahlen waren offensichtlich so gefällt, dass es schlechter aussieht als die Karte eigentlich wäre. Spider-Man z.B. entspricht der Folie der Reviewer...
Average über 13 Spiele 73% in RZ schneller als eine 3090FE.
Ja, sieht deutlich besser aus als erwartet im RZ Bereich, da die Verlustleistung richtig gut aussieht, sogar im Vergleich zu einer 3090FE.
nVidia scheint da wirklich gut abgeliefert zu haben... bei der 4090. Durchschnittlich in Spielen nur 346 Watt Verlustleistung. :eek:
Wow, sollte das stimmen, dann ist das ein schönes Stück teure Hardware. :wink:
Wo wohl die Verlustleistung in Spielen bei der 4080 16GB liegt?
DrFreaK666
2022-10-11, 18:50:08
Ja, genau – das hat, wenn überhaupt, nur kleine Tweaks bekommen. Die FG macht aus DLSS 2.x DLSS 3.x
Mich interessiert FG in niedrigen Auflösungen. RTX4060 ist noch in weiter Ferne, aber wie würde die BQ aussehen?
DLSS 3 find ich deutlich interessanter als die 4090 ^^
why_me
2022-10-11, 18:52:11
Wie sieht es mit dem Inputlag aus? Gibt's da schon Erkenntnisse? Schnelle Shooter problemlos spielbar?
Nicht nur Inputlag, sondern auch das allgemeine Auge-Hand-Maus Gefühl. Lange balken bringen nichts, wenn es am Ende wie beim TV komisch ist.
Sardaukar.nsn
2022-10-11, 18:52:12
Ein guter Generationssprung und die RTX 4090 ist eine tolle Grafikkarte. Etwas kritisch sehe ich aber den Leistungsgewinn verglichen mit der Anzahl der Transistoren. Nvidias Architektur scheint da wirklich nicht mehr optimal zu sein.
Gefühlt die Hälfte der Transistoren sind ja Tensor Cores. Erst wenn die KI bzw. Deep Learning aktiviert wird zeigt sich das wahre Potenzial.
https://i.imgur.com/dTiD6nQ.jpg
Quelle: https://www.youtube.com/watch?v=RnmyrYSZENE
Ex3cut3r
2022-10-11, 18:58:21
Gefühlt die Hälfte der Transistoren sind ja Tensor Cores. Erst wenn die KI bzw. Deep Learning aktiviert wird zeigt sich das wahre Potenzial.
https://i.imgur.com/dTiD6nQ.jpg
Quelle: https://www.youtube.com/watch?v=RnmyrYSZENE
Ist das mit FG oder ohne? Wenn mit, Fake FPS/Generierte FPS.
Nightspider
2022-10-11, 19:04:06
War die Bildqualität von DLSS Performance nicht sichtbar schlechter als mit Qualiy?
Find ich bisschen Banane das jetzt überall der Performance Modus in den Tests genutzt wird.
dargo
2022-10-11, 19:04:17
Die Rasterizer-Leistung entäuscht irgendwie, war doch zeitweise von Faktor 2 bis 2,5 die rede. :ugly:
Du erwartest eigentlich bei jeder Hardware zu viel, nichts Neues. ;)
DrFreaK666
2022-10-11, 19:05:51
Nicht nur Inputlag, sondern auch das allgemeine Auge-Hand-Maus Gefühl. Lange balken bringen nichts, wenn es am Ende wie beim TV komisch ist.
Das muss jeder selbst herausfinden, denn nicht jeder findet es "beim TV komisch".
Ich weiß bis heute nicht was der Soap Opera effect sein soll
Nightspider
2022-10-11, 19:06:28
Du erwartest eigentlich bei jeder Hardware zu viel, nichts Neues. ;)
Das stand in den News und Leaks und waren nicht meine Erwartungen Spargo. :rolleyes:
Seit Turing ist Nvidia für mich eh uninteressant.
Sardaukar.nsn
2022-10-11, 19:07:48
Es haben ja auch alle Reviewer bisher geschrieben das die Bewertung von DLSS sehr komplex und auch subjektiv ist. Auf jeden Fall geht man einen Kompromiss ein. Trotzdem sind die Leistungssteigerungen enorm und die Effizienz FPS/Watt dürfte gerade zu explodieren.
lilgefo~
2022-10-11, 19:10:32
36 fps in TW WH3 :( Also noch ein zwei Generationen warten.
Ex3cut3r
2022-10-11, 19:15:39
War die Bildqualität von DLSS Performance nicht sichtbar schlechter als mit Qualiy?
Find ich bisschen Banane das jetzt überall der Performance Modus in den Tests genutzt wird.
Nein, bei 27" @ 4K ist Performance sehr gut, da siehst du ohne Lupe keinen Unterschied im Vergleich zu Q.
Problematischer wird bei den Leuten die 55" und Co. als Monitor nutzen, da stinkt Performance dann schon ab, allerdings auch Q. Die PPI ist selbst bei 4K ein Witz.
Nightspider
2022-10-11, 19:19:42
Du willlst eine 4090 mit 1440p betreiben, deine Aussagen traue ich auch nicht so ganz. :ugly:
Ex3cut3r
2022-10-11, 19:20:15
Du willlst eine 4090 mit 1440p betreiben, deine Aussagen traue ich auch nicht so ganz. :ugly:
Ja, für 240HZ/FPS. Was wären daran denn so verkehrt?
Dann glaub es halt nicht, dürfte dich als AMD Only User eh nicht wirklich jucken....
aufkrawall
2022-10-11, 19:21:24
:rolleyes: Dann glaub es halt nicht, dürfte dich als AMD Only User eh nicht wirklich jucken....
Er ist halt auch für GI via Lightmaps. ^^
Nightspider
2022-10-11, 19:26:55
Dann glaub es halt nicht, dürfte dich als AMD Only User eh nicht wirklich jucken....
Meine vorletzte CPU war Intel und meine vorletzte GPU eine Nvidia.
Wenn AMD verkackt kommt auch Nvidia wieder in Frage aber bis dahin ist mir AMD erstmal sympathischer.
Linmoum
2022-10-11, 19:26:56
Also für alles unter UHD würde ich die 4090 aber auch nicht anfassen. Da schafft selbst RTL oder ein 5800X3D keine Abhilfe, das ist viel zu häufig hoffnungsloses CPU-Limit.
Ex3cut3r
2022-10-11, 19:28:19
Meine vorletzte CPU war Intel und meine vorletzte GPU eine Nvidia.
Wenn AMD verkackt kommt auch Nvidia wieder in Frage aber bis dahin ist mir AMD erstmal sympathischer.
Ok. Weil weiter oben, stand das von dir.
Seit Turing ist Nvidia für mich eh uninteressant.
---------------------------------------------------------------------------------------------------------------------------------------------
Also für alles unter UHD würde ich die 4090 aber auch nicht anfassen. Da schafft selbst RTL oder ein 5800X3D keine Abhilfe, das ist viel zu häufig hoffnungsloses CPU-Limit.
Dafür hätte man notfalls, Downsampling, Pscho RT Settings oder sowas in der Art, 4K Monitor Anschaffung, oder die Zen 4/Raptor Lake mit DDR5 Subtimings Tuning Keule. Oder gar DLSS 3 mit Frame Generation. ^^
Nightspider
2022-10-11, 19:33:25
Nur weil mir Nvidia die letzten Jahre unsympathisch geworden ist heißt das nicht, das ich nicht auch eine NV Karte holen würde, falls AMD verkackt.
Und ich meine mich an Forenpostings erinnern zu können, das DLSS Perf schon schlechter aussieht als DLSS Quality.
Und du bevorzugst halt 1440p...klingt für mich dann schon danach das ich mehr Meinungen einholen sollte. :D
Redneck
2022-10-11, 19:33:40
Schätze mal das erklärt die hohen CPU Preise fast zwang sich neue zu besorgen mit der Karte.
Bis jetzt reichte wohl ein 5800 oder 9900k, jetzt am besten was man mit DDR5 6000 betreiben kann.
Gameplay mit 5800X3D.
https://youtu.be/lGwQGpxUnGg
DLSS3 Demo
https://youtu.be/_eoHguqNDqM
Hmmm.. Bei dem Game test hat er 180fps bei 95% gpu und 30% CPU auslastung beim MSFS. Strange
Prinzenrolle
2022-10-11, 19:33:45
Es sind bei PCGH exakt 60% und auch das P1 bei CB exakt 60% in UHD. Das passt schon. Man konnte es anhand von Nvidias Benchmarks schon erahnen, trotzdem wirft das Fragen auf.
Du laberst wie unter jedem Nvidia review wieder Mist. Unter RT hat PCGH ohne CPU Limit fast 100% auf die 3090 raus und die 4090 ist nicht Mal Vollausbau.
Die Karte leistet unter gemischten RT und Rasterworkloads ohne CPU Limit rund 60 bis 100% mehr als ne 3090 Ti, im Mittel so 75%. Besser geht es kaum.
Hier negativ rumzunörgeln zeigt einfach nur wie deppert manche sind.
Wenn AMD das toppt, dann ist es noch besser.
Ex3cut3r
2022-10-11, 19:35:04
Und du bevorzugst halt 1440p...klingt für mich dann schon danach das ich mehr Meinungen einholen sollte. :D
Du hast doch selbst einen 1440p Ultra Dingens. Sogar die PPi ist gleich. Was hat dich jetzt so viel besser als mich? :confused:
Bei dir hat man immer da Gefühl, dass du über alle anderen stehst, dabei hast du einen RT Krüppel als Karte, und willst was über BQ sagen. Zum totlachen. ;D
Sardaukar.nsn
2022-10-11, 19:37:35
_eoHguqNDqM
EDIT: Evtl. Fake
Tesseract
2022-10-11, 19:48:26
ist ja wohl klar dass man im performancemodus wo schon der upscaling-schritt allein 100% performance bringt unterschiede sehen wird.
Gebrechlichkeit
2022-10-11, 19:50:53
Dann lieber viel mehr Rechenleistung in fortschrittliche Grafik mit Pathtracing und volumetrische Effekte investieren. Einige Entwickler müssen umdenken, wenn die weiterhin eine zeitgemäße Präsentation bieten wollen.
Eher den Fokus auf eigene Stile wie in Cuphead legen, als sein Geld auf das lahme-Lametracing verwetten. Dank UE5 wird keiner sich die Muehe mehr machen [weder mit Lumen, Rumen, Numen oder Kakmen is nix]. Stylistisch gesehen, fahren die alle das gleiche Programm ab.
Und technisch liegt alles was bisher erschienen ist [mit ein paar Ausnahmen]mechanisch-spielerisch-auf-UE3-Niveau, bloss mit huebscherer Grafik [aber auch nicht wirklich].
Mir kommt die K*tze hoch, wenn ich MK11 sehe, wie alles grau-braun-zu-gesch*ssen aussieht ... obwohl das OG fast schon farbenfroh, bunt daher kam. Gleiches mit der Matrix Demo. Nach den ersten 24h war der Effekt weg.
F*ck Photorealism.
rentex
2022-10-11, 19:54:27
Das muss jeder selbst herausfinden, denn nicht jeder findet es "beim TV komisch".
Ich weiß bis heute nicht was der Soap Opera effect sein soll
Hast du den "Hobbit" mit 48Hz HFR im Kino gesehen? Das ist der Soap Opera Effect! Oder gleich ne Vorabendserie im ARD HD Kanal.
Ex3cut3r
2022-10-11, 19:56:46
Hast du den "Hobbit" mit 48Hz HFR im Kino gesehen? Das ist der Soap Opera Effect! Oder gleich ne Vorabendserie im ARD HD Kanal.
Ist das nicht eher so, weil wir seit 100 Jahren in 24 FPS gucken. Und alles andere, erstmal unnatürlich wirkt?
In schnellen Action Szenen machen 48 oder gar 60 FPS in Filmen durchaus Sinn.
Tesseract
2022-10-11, 20:05:56
Hast du den "Hobbit" mit 48Hz HFR im Kino gesehen? Das ist der Soap Opera Effect!
der hobbit hat den effekt überhaupt nicht, der wurde einfach in 48fps gedreht. :rolleyes:
Deisi
2022-10-11, 20:06:29
Hast du den "Hobbit" mit 48Hz HFR im Kino gesehen? Das ist der Soap Opera Effect! Oder gleich ne Vorabendserie im ARD HD Kanal.
Der Hobbit hat aber echte 48fps. Das wäre also quasi das Gegenbeispiel zum Soap Opera Effect.
Birdman
2022-10-11, 20:10:03
der hobbit hat den effekt überhaupt nicht, der wurde einfach in 48fps gedreht. :rolleyes:
äh ja, und es sah wie soap opera aus (daran ändert auch nix dass der in 48fps gedreht wurde)
basix
2022-10-11, 20:10:50
weiss man eigentlich schon, wann die Partner-Design Reviews kommen?
Edit: Hat sich erledigt. Morgen ;)
blaidd
2022-10-11, 20:10:52
Hmmm.. Bei dem Game test hat er 180fps bei 95% gpu und 30% CPU auslastung beim MSFS. Strange
Das ist DLSS 3.0 mit FG. Die CPU-Last bleibt gleich (die CPU-Auslastung ist im Flight-Sim eher nicht so prickelnd, insbesondere bei Vielkernern), die GPU-Last steigt auf nahezu Vollauslastung. Hier ist er btw. trotz FG CPU-Bound: https://youtu.be/lGwQGpxUnGg?t=1860
The_Invisible
2022-10-11, 20:11:12
Schon geile Karte, würde perfekt zu meinem 4k/144Hz Monitor passen, aber kostet schon gut was selbst wenn ich meine 3080 Ti gut verkaufen. Naja mal sehen was AMD bringt :D
fondness
2022-10-11, 20:15:33
Schnelle Karte, keine Frage. Aber ganz verstehe ich nicht, wo die Leistung hingeht. Schon alleine der taktanstieg ist so groß, dass er fast den gesamten Leistungsanstieg erklären könnte. Gleichzeitig gibts aber auch noch ein vielfaches mehr an Transistoren und Einheiten. Summa summarum geht Leistung pro Transistor oder pro ALU (bei selben takt) deutlich zurück, warum auch immer.
Morgenlicht
2022-10-11, 20:17:10
Linkergänzung für die Übersicht
worthplaying.com/article/2022/10/11/reviews/134143-hardware-review-nvidia-geforce-rtx-4090/ (https://worthplaying.com/article/2022/10/11/reviews/134143-hardware-review-nvidia-geforce-rtx-4090/)
...
Quake II RTX (https://worthplaying.com/article/2022/10/11/reviews/134143-hardware-review-nvidia-geforce-rtx-4090/images/574506/) ist mal richtig flott :)
Emil_i_Lönneberga
2022-10-11, 20:19:42
Ordentlicher Leistungssprung und ich bin noch auf die kleinen FE-Powerzwerge gespannt. 350W und 45°C Chiptemperatur dürften noch etwas Takt herauskitzeln:
https://www.hardwareluxx.de/community/attachments/4090fe-obl3-png.799627/
Linmoum
2022-10-11, 20:23:37
Nervt echt, dass man zu den Customs noch nichts weiß. Jetzt muss man rätseln, wo ein Referenz-PCB ggf. verbaut ist zwecks Wakü-Kompatibilität.
Wenn ich sehe, wie sinnlos >450W sind, brauche ich erst recht keine Strix. Die TUF wird bei mir vom Platz her extrem eng, das wird eine Milimeter-Angelegenheit.
Bliebe natürlich Referenz-PCB (Zotac wahrscheinlich vor allem?) oder die Gaming OC von Gigabyte. Für die hat EK schon einen Block als "soon" gelistet. Neben der Master und Strix/TUF die einzige bisher.
DrFreaK666
2022-10-11, 20:27:21
Hast du den "Hobbit" mit 48Hz HFR im Kino gesehen? Das ist der Soap Opera Effect! Oder gleich ne Vorabendserie im ARD HD Kanal.
Sah super aus. Endlich keine verwaschenen Action-Sequenzen mehr.
Hobbit hatte ganz andere Probleme
user77
2022-10-11, 20:27:32
Absolut Krank, bin gespannt was AMD zu bieten hat.
https://abload.de/img/screenshot2022-10-112kseft.png
Rolsch
2022-10-11, 20:28:42
Kauf Leute kauft es geht los:
https://www.notebooksbilliger.de/produkte/rtx%25204090?nbb=pn.&nbbct=1002_10#Q0C10#Q0C5
blaidd
2022-10-11, 20:32:48
Sah super aus. Endlich keine verwaschenen Action-Sequenzen mehr.
Hobbit hatte ganz andere Probleme
Ich mochte das tatsächlich auch - ich seh allerdings auch Ruckeln bei "normalen" Filmen. Insbesondere im Kino mit extrem großer Leinwand und bei Kameraschwenks. Fürchterlich, bei "typischen", schnellen Action-Filmen mit viel Kamera-Gehampel bekomme ich davon tatsächlich manchmal Kopfschmerzen. Früher war das definitiv nicht so schlimm, das habe ich mir wahrscheinlich im Rahmen des Jobs eingefangen...
Bei einigen Filmen auf dem Monitor sehe ich das auch, sehr störend! (Hab seit ~15 Jahren keinen Fernseher mehr, da läuft eh nur Schrott^^ - meine Bude ist außerdem zu klein ;) )
DavChrFen
2022-10-11, 20:35:39
Geht nicht: Die ROG OC ist nicht dabei.
Matrix316
2022-10-11, 20:38:29
Warum testen die hier nur mit einem 5800X? https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/5.html
Kein Wunder sind die Unterschiede nicht so groß wie bei Reviews mit z.B. einem 7950X.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/11.html
vs bei 5:29
THxkY59_xko
Linmoum
2022-10-11, 20:44:25
Bei manchen Redaktionen muss man echt auf alles achten. Mit einem 5800X eine 4090 testen... Wie inkompetent kann man sein?
Ex3cut3r
2022-10-11, 20:45:45
Sieht in Schwarz IMHO sehr nice aus.
https://abload.de/thumb/gv-n4090wf3-24gd-2_db3ldvg.png (https://abload.de/image.php?img=gv-n4090wf3-24gd-2_db3ldvg.png)
M4xw0lf
2022-10-11, 20:50:15
Halbe Größe, halber Verbrauch, Viertel des Preises, dann können wir drüber reden. Sonst ganz nice :uup:
Tesseract
2022-10-11, 20:51:34
äh ja, und es sah wie soap opera aus (daran ändert auch nix dass der in 48fps gedreht wurde)
nein, tat es nicht. der soap effekt ist eine kombination aus schlechter beleuchtung bzw. minderwertiger ausrüstung (lange blende mit viel motion blur) in kombination mit schmieriger, billiger frameinterpolation. der hobbit hatte weder das eine noch das andere und DLSS 3 hat auch das eine nicht und beim anderen (interpolation) wesentlich bessere voraussetzungen für eine ordentliche rekonstruktion.
die leute sind im kino einfach nicht mit höheren fps klargekommen weil sie nix anderen kennen und haben dann mit buzzwords um sich geschmissen.
Troyan
2022-10-11, 20:51:40
Nennt sich 4080 12GB. Die wird in Valhalla dann wohl bei 200W liegen. :eek::cool:;D
VooDoo7mx
2022-10-11, 20:52:59
Man darf auch nicht vergessen, dass dies ja noch nicht mal die Endstufe ist. Die 4090 hat ja nur 90% des AD102 Chips aktiv.
4090Ti/Titan mit full AD102 + 24gbps GDDR6X anyone? :naughty:
Si|encer
2022-10-11, 20:54:19
nein, tat es nicht. der soap effekt ist eine kombination aus schlechter beleuchtung bzw. minderwertiger ausrüstung (lange blende mit viel motion blur) in kombination mit schmieriger, billiger frameinterpolation. der hobbit hatte weder das eine noch das andere und DLSS 3 hat auch das eine nicht und beim anderen (interpolation) wesentlich bessere voraussetzungen für eine ordentliche rekonstruktion.
die leute sind im kino einfach nicht mit höheren fps klargekommen weil sie nix anderen kennen und haben dann mit buzzwords um sich geschmissen.
Also ich habe den Hobbit in unserem Kino auch gesehen und mir fällt keine andere Beschreibung dafür ein als der Soap-Effekt. Denn genau das war es.
Das hat schon sein Grund warum sich das im Kino nicht durchgesetzt hat.
Ob das technisch genaugenommen kein Soap Effekt ist interessiert nicht, die Leute haben es so wahr genommen. Und die Heimkino-Enthusiasten haben das eh gleich abgelehnt.
Ex3cut3r
2022-10-11, 20:56:29
Also ich habe den Hobbit in unserem Kino auch gesehen und mir fällt keine andere Beschreibung dafür ein als der Soap-Effekt. Denn genau das war es.
Das hat schon sein Grund warum sich das im Kino nicht durchgesetzt hat.
Ob das technisch genaugenommen kein Soap Effekt ist interessiert nicht, die Leute haben es so wahr genommen. Und die Heimkino-Enthusiasten haben das eh gleich abgelehnt.
Das liegt nur daran: Ich zitier mich mal selber.
Ist das nicht eher so, weil wir seit 100 Jahren in 24 FPS gucken. Und alles andere, erstmal unnatürlich wirkt?
In schnellen Action Szenen machen 48 oder gar 60 FPS in Filmen durchaus Sinn.
Linmoum
2022-10-11, 21:04:20
@Raff
Ihr habt nicht zufällig schon eine (P)Review-Version von Uncharted 4 zum anteasern zwecks der zu erwartenden Performance mit einer 4090? :tongue:
Ätznatron
2022-10-11, 21:08:41
Das liegt nur daran: Ich zitier mich mal selber.
Genau, der Kunde hat's nie vorher bemerkt, wie toll man es ihm nachher einreden kann.
hardtech
2022-10-11, 21:13:42
Warum testen die hier nur mit einem 5800X? https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/5.html
Kein Wunder sind die Unterschiede nicht so groß wie bei Reviews mit z.B. einem 7950X.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/11.html
vs bei 5:29
https://youtu.be/THxkY59_xko
der wird ja nicht dünner der typ!
echt eine bildliche wucht :freak:
Badesalz
2022-10-11, 21:15:37
DerBauer machte auch schonmal einen klügeren Eindruck... Der hat sich in dem kurzen Test tatsächlich mal DLSS3 angeschaut. Eine an sich gute Arbeit. Was er aber dazu erzählt hat war echt zum Fremdschämen.
Man sieht auch auf jeder Glotze (!), daß off scharf ist, Quality fast überall matschig (+ Vegetation mit weniger Blättern/Ästen?!) und Perf. stark überschärft.
Und der so: Sieht man kaum, und richtig gut, und fällt nur im direkten Vergleich auf und dann nur Neuancen... WTF Junge?? JA KLAR. Wenn man nichts miteinander vergleicht merkt man die Unterschiede auch nicht. Was ist das für ein Schwachsinn?
Linmoum
2022-10-11, 21:15:49
Wollte mir jetzt noch Igors Video anschauen. 73 Minuten. Wtf? :freak: Muss ich wohl durch als abschließende Abendlektüre. ;D
Gebrechlichkeit
2022-10-11, 21:16:55
https://youtu.be/_AXBzV3w8us
https://i.im.ge/2022/10/12/2oKOFX.BEYOND-ALL-EXPECTATIONS-and-then-some-RTX-4090-Review-YouTube-1665515735651.md.png (https://im.ge/i/2oKOFX)
Ex3cut3r
2022-10-11, 21:18:02
@Raff
Ihr habt nicht zufällig schon eine (P)Review-Version von Uncharted 4 zum anteasern zwecks der zu erwartenden Performance mit einer 4090? :tongue:
Das wird vermutlich mit einem Toaster laufen. ;)
Troyan
2022-10-11, 21:19:50
In Lego mit Raytracing ist die 4090 90% schneller als die 3090TI und 102% schneller als die 3090: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/
Und das ist erst der Anfang, wenn mal die Entwickler die restlichen Funktionen nutzen, wird das noch schneller.
Lmao. Kann mich noch errinnern, dass Leute hier was von 600W und 60% gefaselt haben. Jetzt ist man bei 450" doppelt so schnell oder wie in Valhalla bei 63% einfach mal 130W weniger durstig.
blaidd
2022-10-11, 21:20:02
@Raff
Ihr habt nicht zufällig schon eine (P)Review-Version von Uncharted 4 zum anteasern zwecks der zu erwartenden Performance mit einer 4090? :tongue:
Ghnihihihi ;)
(Total spekulativ: Du brauchst wahrscheinlich keine RTX 4090 für sehr flüssige Bildraten)
Linmoum
2022-10-11, 21:21:18
Das wird vermutlich mit einem Toaster laufen. ;)Anhand der bisherigen PS-Ports auf den PC würde ich das nicht unbedingt so unterschreiben. ;)
@blaidd
Fies! :frown: Ich halte mich extra schon zurück, nicht die hier rumliegende PS5-Version auszupacken. :D
Cubitus
2022-10-11, 21:21:20
Schnelle Karte, keine Frage. Aber ganz verstehe ich nicht, wo die Leistung hingeht. Schon alleine der taktanstieg ist so groß, dass er fast den gesamten Leistungsanstieg erklären könnte. Gleichzeitig gibts aber auch noch ein vielfaches mehr an Transistoren und Einheiten. Summa summarum geht Leistung pro Transistor oder pro ALU (bei selben takt) deutlich zurück, warum auch immer.
Joa schau mer mal ob es AMD mit ihrem neuen monolistischen Design besser hinbekommt. Oder ob sich der n31 mit der AD104 prügelt ...
Ex3cut3r
2022-10-11, 21:22:15
Anhand der bisherigen PS-Ports auf den PC würde ich das nicht unbedingt so unterschreiben. ;)
@blaidd
Fies! :frown:
HZD läuft mit 150 FPS in WQHD, kein DLSS.
God of War läuft in 4K mit DLSS Q mit 100-110 FPS
Days Gone läuft in 1440p nativ mit 160 FPS
Platos
2022-10-11, 21:23:32
Dlss3.0 interpoliert wirklich nur?
Es ist quasi DLSS 2.x plus Interpolation. Aber nein, es interpoliert nicht "nur", es interpoliert bombastisch gut. Quasi die erste Interpolation, die nicht überall an Artefakten leidet.
Nein, bei 27" @ 4K ist Performance sehr gut, da siehst du ohne Lupe keinen Unterschied im Vergleich zu Q.
Problematischer wird bei den Leuten die 55" und Co. als Monitor nutzen, da stinkt Performance dann schon ab, allerdings auch Q. Die PPI ist selbst bei 4K ein Witz.
Jaa... sagte der, der einen 1440p Monitor hat und (wahrscheinlich?) noch nie einen 4k Monitor längere Zeit benutzt hat... :freak:
Cubitus
2022-10-11, 21:24:26
In Lego mit Raytracing ist die 4090 90% schneller als die 3090TI und 102% schneller als die 3090: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/
Und das ist erst der Anfang, wenn mal die Entwickler die restlichen Funktionen nutzen, wird das noch schneller.
Lmao. Kann mich noch errinnern, dass Leute hier was von 600W und 60% gefaselt haben. Jetzt ist man bei 450% doppelt so schnell oder wie in Valhalla bei 63% einfach mal 130W weniger durstig.
Ja die 4090 hätte ja noooch viel mehr Performance liefern müssen und der Stromverbrauch ist zwar besser aber allg ist die karte kastriert und zu teuer und überhaupt die 4090TI wird ja dann der bessere Chip usw .. ich amüsiere mich echt gut hier xD
Linmoum
2022-10-11, 21:24:43
HZD läuft mit 150 FPS in WQHD, kein DLSS.
God of War läuft in 4K mit DLSS Q mit 100-110 FPS
Days Gone läuft in 1440p nativ mit 160 FPS
Und was will ich mit UHD+DLSS und vor allem WQHD? :D
Mit interessiert gerade ersteres ohne DLSS, einfach, weil die 4090 dafür ja augenscheinlich genug Power hat. Und Uncharted 4 ja auch kein RT-Titel ist.
The_Invisible
2022-10-11, 21:27:41
Kauf Leute kauft es geht los:
https://www.notebooksbilliger.de/produkte/rtx%25204090?nbb=pn.&nbbct=1002_10#Q0C10#Q0C5
Die GigaByte noch immer verfügbar, das hätts vor einem Jahr nicht gegeben :D
aufkrawall
2022-10-11, 21:27:45
Mit interessiert gerade ersteres ohne DLSS, einfach, weil die 4090 dafür ja augenscheinlich genug Power hat.
Das wird sich sicherlich in dem ein oder anderen Spiel ändern, wenn du DLSS 2.4.6 ohne DLSS-Sharpen in Aktion gesehen hast. Etwa in Kena. :cool:
120fps sind auch geiler als 90.
DrFreaK666
2022-10-11, 21:28:06
...
Jaa... sagte der, der einen 1440p Monitor hat und (wahrscheinlich?) noch nie einen 4k Monitor längere Zeit benutzt hat... :freak:
Ich glaube du hast den Inhalt nicht wirklich verstanden
Prinzenrolle
2022-10-11, 21:29:19
Nennt sich 4080 12GB. Die wird in Valhalla dann wohl bei 200W liegen. :eek::cool:;D
Eher 250.Also die 4080 12G ist etwa 5% vor der 3090 Ti und die 4080 16G 30%, ohne CPU Limit versteht sich.
Die Titan soll Anfang Januar mit 48GB und goldenem Design für 2499 Dollar launchen, mit +8% zur 4090.
Bei den Mikrorucklern bzw.svhwachen Frametimes und Varianzen der neuen AMD Gen wird Nvidia eh zum Selbstläufer.
siegemaster
2022-10-11, 21:35:36
Die GigaByte noch immer verfügbar, das hätts vor einem Jahr nicht gegeben :D
Na dann versuch mal zu kaufen :ulol:
Troyan
2022-10-11, 21:42:06
Eher 250.Also die 4080 12G ist etwa 5% vor der 3090 Ti und die 4080 16G 30%, ohne CPU Limit versteht sich.
Die Titan soll Anfang Januar mit 48GB und goldenem Design für 2499 Dollar launchen, mit +8% zur 4090.
Bei den Mikrorucklern bzw.svhwachen Frametimes und Varianzen der neuen AMD Gen wird Nvidia eh zum Selbstläufer.
Kein Plan bzgl. Stromverbrauch der 4080 12GB. Die 4090 liegt unter 350W in Valhalla in 4K. Soll laut nVidia auch ca. 70% schneller als die 4080 12GB sein. Kann mir nicht vorstellen, dass die 4080 12GB jedoch die vollen 285W nimmt...
/edit:
https://img2.quasarzone.com/editor/2022/10/10/9608a67267e1877e67331bb88f3b5724.png
https://quasarzone.com/bbs/qc_bench/views/82226
Wäre der Euro nur auf dem Stand von 2020. Wäre ein absoluter irrer Sprung zur 3090 für 100€ mehr...
hardtech
2022-10-11, 21:57:28
Wäre der Euro nur auf dem Stand von 2020. Wäre ein absoluter irrer Sprung zur 3090 für 100€ mehr...
ich weiss net wie lange du dich mit gpus beschäftigst, aber früher waren solche sprünge "normal".
Troyan
2022-10-11, 21:59:34
ich weiss net wie lange du dich mit gpus beschäftigst, aber früher waren solche sprünge "normal".
"Früher" - ja, vor 20 Jahren. Wobei das stimmte auch nicht immer. GF3 war arschteuer und nicht immer deutlich schneller als GF2 Ultra. :cool:
r3ptil3
2022-10-11, 22:00:26
ich weiss net wie lange du dich mit gpus beschäftigst, aber früher waren solche sprünge "normal".
Definitiv nicht... G80 war in den letzten 15 Jahren die letzte Generation die auf Anhieb einfach alles extrem dominiert hat.
basix
2022-10-11, 22:13:15
Hängt aber auch damit zusammen, dass oftmals die 80er zuerst kam und erst später die 80 Ti / 90er. Dann hattest du 2x 30% Sprünge anstatt 1x 60-70%
Definitiv nicht... G80 war in den letzten 15 Jahren die letzte Generation die auf Anhieb einfach alles extrem dominiert hat.
G80 hat mit dem eigenen Vorgänger den Boden aufgewischt - im Vergleich mit der nicht so gehandicapten Konkurrenz (X1950 XTX) sah es aber "nur" noch sehr gut aus. Es ist zu lange her, aber ausgehend von einem starken Vorgänger (welcher der G71 damals nicht war) performt AD102 wirklich herausragend. Man darf nur nicht den Fehler begehen - damals wie heute -, die Karte nach ihrer Leistung im CPU-Limit zu bewerten.
MfG
Raff
Redneck
2022-10-11, 22:27:28
G80 hat mit dem eigenen Vorgänger den Boden aufgewischt - im Vergleich mit der nicht so gehandicapten Konkurrenz (X1950 XTX) sah es aber "nur" noch sehr gut aus. Es ist zu lange her, aber ausgehend von einem starken Vorgänger (welcher der G71 damals nicht war) performt AD102 wirklich herausragend. Man darf nur nicht den Fehler begehen - damals wie heute -, die Karte nach ihrer Leistung im CPU-Limit zu bewerten.
MfG
Raff
werdet ihr denn noch einen Nachtest mit verschiedenen CPUs nachreichen ? bietet sich ja förmlich an um zu sehen welche CPU mit der grande dame wie harmoniert.
Definitiv. Zuerst ist Raptor Lake auf dem Tisch - direkt im Anschluss finden die CPU-Tester dann Zeit für solche Späße. :)
MfG
Raff
Blase
2022-10-11, 22:33:10
Mal ne ganz doofe Frage in die Runde:
Ich denke darüber nach, mit meinem System (siehe meine Computerinformation - Kurzform: i7-8700K und nen 600er Enermax 80+ Platinum - aktuell mit ner 3080) die nVidia eigene 4090 zu betreiben.
Zwei Fragen:
1. Spielt das CPU Limit in 4K mit allen Reglern @Max wirklich eine Rolle?
2. Wenn die 4090 undervolted wird - sollte doch das "alte" Enermax trotzdem genügend Leistung haben, oder?
Grundsätzlich ist spätestens Anfang 23 ein neues System geplant - aber es juckt mich halt jetzt schon in den Fingern bezüglich 4090 :freak:
Raff? :)
MfG Blase
Ex3cut3r
2022-10-11, 22:35:42
1. Ja, siehe XD3, selbst der Limitiert die 4090 in 4K teilweise siehe YouTube Video von "zWORMz Gaming" auf YT
2. Wurde ich nicht machen, kauf dir lieber ein neues NT, bei 2200€+ sind 250€ für ein neues NT ein klacks.
Redneck
2022-10-11, 22:38:19
Sah super aus. Endlich keine verwaschenen Action-Sequenzen mehr.
Hobbit hatte ganz andere Probleme
Verschmieren hast du auch bei FI nicht, dafür ist FI oftmals Artefakt behaftet.
ein China TV bekommt auch interpolierte 480 hz hin.. frag aber nicht nach der Güte (und das Ding hat nicht einmal Ansatzweise einen Bruchteil der Rechenleistung von Ada). Vorsichtig ausgedrückt denke ich nicht das DLSS 3.0 etwas ist, was RDNA nicht auch stemmen könnte.. da wird bestimmt auch was ähnliches kommen.
finde die 4090 ne richtig schnieke Karte bis auf die 2 Dinge : Größe+Gewicht und Preis. Irgendwie stimmt die Abstufung auch nicht zu den 4080ern. Da ist noch soviel Luft , das sie mehrere 4080er Varianten einfügen könnten (imo).. 4080 super, 4080 TI, 4080 Super TI.. usw
Mal ne ganz doofe Frage in die Runde:
Ich denke darüber nach, mit meinem System (siehe meine Computerinformation - Kurzform: i7-8700K und nen 600er Enermax 80+ Platinum - aktuell mit ner 3080) die nVidia eigene 4090 zu betreiben.
Zwei Fragen:
1. Spielt das CPU Limit in 4K mit allen Reglern @Max wirklich eine Rolle?
2. Wenn die 4090 undervolted wird - sollte doch das "alte" Enermax trotzdem genügend Leistung haben, oder?
Grundsätzlich ist spätestens Anfang 23 ein neues System geplant - aber es juckt mich halt jetzt schon in den Fingern bezüglich 4090 :freak:
Raff? :)
MfG Blase
Der Prozessor wird auf jeden Fall bremsen. Die Frage ist nur, ob das relevant ist, denn für die meisten Spiele ist so ein 8700K schnell genug. Spaßfakt dabei: Raytracing erhöht auch die CPU-Last - und das merkt man erst bei einem Renderbiest wie der RTX 4090 richtig. Da kann's schon mal vorkommen, dass UWQHD wegen des Prozessors schlechter läuft als WQHD, weil das periphere Sichtfeld größer ist (Objekte -> CPU-Last). :ugly: Was das Netzteil angeht, kann ich kein seriöses, also wasserdichtes Statement abgeben. Ich gehe aber schwer davon aus, dass das auch mit der RTX 4090 laufen wird - immerhin hast du schon eine RTX 3080 am Laufen und da waren gerade die ersten Revisionen ganz schlimme "Piekser". Mit Undervolting ist eine RTX 4090 relativ zahm und man kriegt sie manuell noch deutlich zahmer (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a3). Also ich würde es riskieren, für 4K/UHD. :)
MfG
Raff
VooDoo7mx
2022-10-11, 23:00:33
Mit Undervolting ist eine RTX 4090 relativ zahm und man kriegt sie manuell noch deutlich zahmer (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a3). Also ich würde es riskieren, für 4K/UHD. :)
Oh das sieht schon richtig gut aus. Kannst du auch mal so richtig niedrige Spannungen wie 0,7V und/oder 0,75V testen? =)
Daredevil
2022-10-11, 23:03:17
Sehr lecker. :D
Also DLSS 3.0 ist schon ein leichter Witz. V-Sync disabled... Tearing? No way heutzutage. Damit ist das Feature für mich schon gestorben!
Ansonsten macht die Karte n guten Eindruck. Was interessant wäre @Raff wie Eure FE so von den Lüftern her ist. Hat die auch so komische Geräusche und wabbelt?
Blase
2022-10-11, 23:15:32
1. Ja, siehe XD3, selbst der Limitiert die 4090 in 4K teilweise siehe YouTube Video von "zWORMz Gaming" auf YT
2. Wurde ich nicht machen, kauf dir lieber ein neues NT, bei 2200€+ sind 250€ für ein neues NT ein klacks.
Ich habe mich durch sein Testvideo geskippt und sein Fazit gesehen - wo genau geht er denn darauf ein, dass da ein CPU Limit vor liegt? Oder woran machst du das fest?
Bezüglich Netzteil wäre doch das "Schlimmste", dass das System instabil wird und notfalls aus geht. Könnte ich mit Leben :freak: Nein, dann ist klar, dass da ein größeres rein muss. Wobei ich mit der 3080@Stock ja auch schon gut dabei bin (bisher null Probleme bezüglich Netzteil) und die getunte 4090 hier wohl nur unwesentlich mehr verbrauchen würde :redface:
Der Prozessor wird auf jeden Fall bremsen. Die Frage ist nur, ob das relevant ist, denn für die meisten Spiele ist so ein 8700K schnell genug. Spaßfakt dabei: Raytracing erhöht auch die CPU-Last - und das merkt man erst bei einem Renderbiest wie der RTX 4090 richtig. Da kann's schon mal vorkommen, dass UWQHD wegen des Prozessors schlechter läuft als WQHD, weil das periphere Sichtfeld größer ist (Objekte -> CPU-Last). :ugly: Was das Netzteil angeht, kann ich kein seriöses, also wasserdichtes Statement abgeben. Ich gehe aber schwer davon aus, dass das auch mit der RTX 4090 laufen wird - immerhin hast du schon eine RTX 3080 am Laufen und da waren gerade die ersten Revisionen ganz schlimme "Piekser". Mit Undervolting ist eine RTX 4090 relativ zahm und man kriegt sie manuell noch deutlich zahmer (https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/5/#a3). Also ich würde es riskieren, für 4K/UHD. :)
MfG
Raff
Ich wäre wirklich an einem Test mit verschiedenen CPUs in 4K@Max interessiert. Dann sieht man ja, ob und in welchem Umfang hier wirklich die Balken variieren :)
Wenn ich morgen den Erwerb einer 4090 immer noch für eine gute Idee halte, muss ich wohl bei NBB mal vorbei schauen - ist ja hier in der Nähe :freak:
MfG Blase
Nightspider
2022-10-11, 23:16:28
Offtopic:
Du hast doch selbst einen 1440p Ultra Dingens. Sogar die PPi ist gleich. Was hat dich jetzt so viel besser als mich? :confused:
Von dir kommt heute echt viel Müll.
Schon seit Jahren erzähl ich das Auflösungen oberhalb von 4K noch ein gutes Stück geiler aussehen und mit der 6900XT hab ich Battlefield 5 und andere Games in 5K gezockt und die Optik/Performance von dieser Kombination hier gefeiert.
Das erzähl ich bestimmt nicht wenn ich in 1440p spielen würde. :rolleyes:
Vor 11 Jahren habe ich in 1440p gespielt Dude.
dabei hast du einen RT Krüppel als Karte, und willst was über BQ sagen. Zum totlachen. ;D
Und mit Raytracing sieht das Bild weniger verpixelt aus in 1440p oder was? :facepalm:
Wie viele Spiele gibt es nochmal, die deutlich besser mit Raytracing aussehen? 3? 4? 5? ;D
Ich glaube da gibts 20 mal mehr Spiele die von HDR und OLED profitieren.
Wenn es schnelle OLEDs ohne BurnIn auch in 4K oder 5K gibt bin ich sofort dabei, am besten in ultrawidescreen.
Solange gebe ich mich mit dem Alienware QD-OLED zufrieden. Die 175Hz würde ich sofort für 4K mit 120Hz eintauschen.
Weil alles oberhalb von 120Hz nur noch marginale Zugewinne sind. Die Qualität von 4K ist aber massiv besser als von 1440p.
Ex3cut3r
2022-10-11, 23:22:39
Es ging auch nicht um deinen Alienware oder so. Sondern dein Argument war, ich will eine 4090 für 1440p 240HZ Gaming. Und wäre deswegen nicht in der Lage, die BQ von DLSS Performance in 4K zu beurteilen.
Als ob ich irgendwie kein DownSampling wie du einstellen könnte? Ist das nur eine Sache, die man mit AMD GPU einschalten kann? Wer sagt, dass ich SP Games immer stur in WQHD zocke?
:facepalm: gebe ich gerne wieder zurück. Und noch einen ;D oben drauf.
Ravenhearth
2022-10-11, 23:29:55
naja 12% mehr SMs - und die scheinen ja eh schon ein Auslastungsproblem zu haben. Und ja man könnte den Takt nochmal um 11% nach oben prügeln. Aber ob da dann wirklich in Summe 20% rauskommen? 15% vielleicht.
Dann schauen wir mal CB rasterizer Index 4K:
4090 vs 3090 ti + 1,65x
4090ti vs 3090 ti +1,9x extrapoliert +15%
CB RT Index 4K:
4090 vs 3090 ti + 1,5x
4090ti vs 3090 ti +1,72x extrapoliert +15%
PCGH Gesamtindex 4K:
4090 vs 3090 ti + 1,6x
4090ti vs 3090 ti +1,84x extrapoliert +15%
Also steht ein imaginärer Vollausbau mit allen SMs und 3 GHz mit der Keule dann bei ~1,72-1,9x ggü GA102 dar. Nochmal: bei 3x Transistoren.
Ampere konnte die Performance gegenüber Turing immerhin ~ 1:1 pro Transistor steigern.
Wie kommst du bei CB mit RT auf +1,5x? Da sind es 1.69x, extrapoliert also eher 1.94x. Ich denke auch nicht, dass man den höheren Takt additiv zu den zusätzlichen Transistoren sehen kann; viele Transistoren werden stattdessen in den höheren Takt geflossen sein, ähnlich wie bei Vega. Davon abgesehen stimme ich dir aber zu, das Scaling ist schon etwas enttäuschend.
Warum sind die Karten auf 450W hoch geprügelt? 300-350 hätten doch auch locker ausgereicht.
Vielleicht lautet die Antwort RDNA3 ;)
Ex3cut3r
2022-10-11, 23:34:31
Ich habe mich durch sein Testvideo geskippt und sein Fazit gesehen - wo genau geht er denn darauf ein, dass da ein CPU Limit vor liegt? Oder woran machst du das fest?
An der GPU Auslastung, siehe Spider-Man Teil z.B.
Nightspider
2022-10-11, 23:35:11
Offtopic
...
Du schreibst doch hier Unsinn, das ich nur AMD kaufen würde, das ich in 1440p spiele, obwohl ich 4K/5K will. Du willst in 1440p spielen. Ich nicht. Merkste was?
Also wenn jemand die Leistung hat für >=4K aber es vorzieht in 1440p zu spielen - ja, dann ist meine persönliche Meinung, das dir die Bildqualität scheinbar nicht so wichtig ist.
Musst dich ja nicht gleich angegriffen fühlen.
Cubitus
2022-10-11, 23:35:43
Von dir kommt heute echt viel Müll.
Nur Heute xD
Zumindest hat es einen teilweise milden Unterhaltungswert..
Also wenn jemand die Leistung hat für >=4K aber es vorzieht in 1440p zu spielen - ja, dann ist meine persönliche Meinung, das dir die Bildqualität scheinbar nicht so wichtig ist.
3440p×1440p bei 240Hz ist glaube ich gemeint..
Da schlägt aber auch das CPU Limit zu.
Ex3cut3r
2022-10-11, 23:39:24
Du schreibst doch hier Unsinn, das ich nur AMD kaufen würde, das ich in 1440p spiele, obwohl ich 4K/5K will. Du willst in 1440p spielen. Ich nicht. Merkste was?
Also wenn jemand die Leistung hat für >=4K aber es vorzieht in 1440p zu spielen - ja, dann ist meine persönliche Meinung, das dir die Bildqualität scheinbar nicht so wichtig ist.
Musst dich ja nicht gleich angegriffen fühlen.
Wie willst du denn nativ in 4K Spielen Wenn dein Monitor dich darin limitiert?
4K bzw. 5120x2160 ist bei deinem UW Shit per Downsampling entspricht vlt. 50% von richtigen 4K Bildqualität. ;D
KA, was du dir da vorstellst.
Nightspider
2022-10-11, 23:43:21
Offtopic
Wie willst du denn nativ in 4K Spielen Wenn dein Monitor dich darin limitiert?
Sag mal siehst und ließt du heute hier irgendwie Wörter und Sätze die gar nicht dastehen oder zitierst du falsch? ;D
4K DS kommt nie im Leben an richtiges 4K ran, ist das neu für dich?
Hab ich heute irgendwas dazu geschrieben? Ich glaube nicht. Was willst du von mir? :freak:
4K DS kommt nie im Leben an richtiges 4K ran, ist das neu für dich?
Du kannst jetzt nochmal kurz in dich gehen und überlegen warum ich gerne einen 4K / 5K OLED hätte.
Dann kannst du dir hier nochmal selbst antworten.
Und jetzt schluss mit dem Getrolle, wir sind meilen entfernt vom Thema und das geht sicherlich nicht nur mir auf den Sack.
3440p×1440p bei 240Hz ist glaube ich gemeint..
Er hat einen 2560*1440er Monitor.
Oliver_M.D
2022-10-11, 23:53:23
Meine Güte, was für ein hin und her mit euch zwei heute ;D
Bin ziemlich erstaunt wie effizient das teil sein kann, macht mich sehr gespannt auf die 4080 12GB!
Troyan
2022-10-12, 00:04:09
Ja, da scheint nVidia so ein Sleeper-Feature umgesetzt zu haben, was ziemlich gut funktioniert. PCGH hat in AC:Valhalla auch nur 335W in 4K gemessen. Macht die Karte mehr als 2x effizienter als die 3090TI.
Oder hier von hardwarecooking.fr:
https://www.hardwarecooking.fr/test-nvidia-rtx-4090-founders-edition/test-nvidia-rtx-4090-founders-consommation-jeu/
https://h3v2h5f6.rocketcdn.me/wp-content/uploads/2022/10/test-nvidia-rtx-4090-founders-call-of-duty-cold-war-2160p.jpg
https://www.hardwarecooking.fr/test-nvidia-rtx-4090-founders-edition/6/
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.