PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

horn 12
2022-09-20, 17:29:22
Nun, Geile Vorstellung ABER die Preise gehen mal gar nicht, da bei uns in Euro rechnet!

Rechne AMD sticht Nv komplett aus

Meine! Angenommenen AMD Preise:
699 - 849 und 1149 Dollar!

Troyan
2022-09-20, 17:29:48
;D;D

Das Ding wird wie Blei in den Läden liegen für 2000 Euro, wenn die erste Welle der "Muss unbedingt das neuste und beste haben" Fraktion gekauft hat.

Warten wir ab, wo der Europreis liegen wird. Unsere Preise werden alle steigen durch den Euro.

HOT
2022-09-20, 17:29:52
Auf absehbare Zeit das Lineup:

4090
4080 16
4080 12

3080
3070
3060

Cubitus
2022-09-20, 17:30:54
Die Deutsche Bahn ist ja hard modern.. ;D

aufkrawall
2022-09-20, 17:30:59
Wobei du in FS 2020 nicht genug F(P)S haben kannst. In VR gilt das doppelt.
Artefakte der interpolierten Frames abwarten. Nvidia hatte auch gesagt, DLSS 2.3 hätte alle Bewegtbildartefakte gefixt.

Zum dem ganzen Software-Modding-Kram: Es wird irgendwelche Haken geben, wie bei jeder NV-Software...

Grendizer
2022-09-20, 17:31:17
Auf absehbare Zeit das Lineup:

4090
4080 16
4080 12

3080
3070
3060


Wobei die 4080 12 Gb halt schon stark beschnitten ist, was Speicherinterface und Shader angeht. Finde ich auch schon wieder grenzwertig das unter der gleichen Nummer zu vermarkten

TheCounter
2022-09-20, 17:31:47
Die Deutsche Bahn ist ja hard modern.. ;D

Wahrscheinlich ein Projekt der Azubis :ugly:

DrFreaK666
2022-09-20, 17:32:04
So ist es, Stichwort "unverbindlich".

Das 16Gb Modelle wird sich ziemlich sicher bei knapp unter 1000 Euro einordnen nach einer Weile.

Wieso sollte NV das tun? Dann wird die Lücke zur 4090 ja noch größer

Grendizer
2022-09-20, 17:32:15
Artefakte der interpolierten Frames abwarten. Nvidia hatte auch gesagt, DLSS 2.3 hätte alle Bewegtbildartefakte gefixt.

Zum dem ganzen Software-Modding-Kram: Es wird irgendwelche Haken geben, wie bei jeder NV-Software...

Ich bin mir gar nicht sicher, wie das so mit dem Urheberrecht aussieht, wenn man da einfach das Zeug klaut und aufpoliert.

crux2005
2022-09-20, 17:32:20
https://i.imgur.com/kLp07bC.jpg

Hat MLID nicht gesagt die Tensor cores würden nicht für DLSS benutzt werden?

Wieso würde dann NV sie von 320 auf 1400 erhöhen? :freak:

HOT
2022-09-20, 17:32:50
Wobei die 4080 12 Gb halt schon stark beschnitten ist, was Speicherinterface und Shader angeht. Finde ich auch schon wieder grenzwertig das unter der gleichen Nummer zu vermarkten

Jo, das lässt sich noch präzisieren nach neuesten Gerüchten:

3080 12GB (die 10er wird mMn wegfallen. Die 12er ist ja wieder extra angefahren worden)
3070Ti 16GB
3070 8GB
und ne 3060 mit 8GB soll auch in der Pipeline sein.

Adam D.
2022-09-20, 17:32:53
Wobei die 4080 12 Gb halt schon stark beschnitten ist, was Speicherinterface und Shader angeht. Finde ich auch schon wieder grenzwertig das unter der gleichen Nummer zu vermarkten
Grenzwertig? Das ist einfach nur Verarsche und dient alleine dem Zweck, absurde Preise zu rechtfertigen.

BlacKi
2022-09-20, 17:33:01
So ist es, Stichwort "unverbindlich".

Das 16Gb Modelle wird sich ziemlich sicher bei knapp unter 1000 Euro einordnen nach einer Weile.


was ich nicht verstehe, ist die offizelle folie die 4080 wahnsinning schnell einordnet. 2-4x 3080ti. d.h. die 4080 wäre, laut CB differenz zwischen 3080ti und 3090ti nur 12%, auch nur 12% langsamer als die 4090?`


das passt nicht zu den spekulierten daten.

Troyan
2022-09-20, 17:33:06
nVidias eigene Benchmarks: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/?nvid=nv-int-bnr-376150#cid=dt005_nv-int-bnr_en-us

Grenzwertig? Das ist einfach nur Verarsche und dient alleine dem Zweck, absurde Preise zu rechtfertigen.

Naja, die Karten ersetzen die 3080 12GB und 3080TI. Sind im Grunde die selben Preise.

HOT
2022-09-20, 17:34:03
Hat MLID nicht gesagt die Tensor cores würden nicht für DLSS benutzt werden?

Wieso würde dann NV sie von 320 auf 1400 erhöhen? :freak:
Die nutzen die Tensorleistung um noch einen berechneten Frame zu erzeugen.

r3ptil3
2022-09-20, 17:34:18
Wieso sollte NV das tun? Dann wird die Lücke zur 4090 ja noch größer

Dieses Mal ist ja auch die Leistungslücke zwischen der RTX 4080 und der RTX 4090 massiv höher als bei RTX 30.

Und nicht ohne Grund gibt Nvidia lediglich als Release den November an.
Das ist ganz klar so gesetzt, um zuerst zu sehen, was AMD da bringt.

Man könnte jetzt die RTX 4090 so deuten, dass AMD in dieser Liga nichts hat.

Tesseract
2022-09-20, 17:34:23
Hat MLID nicht gesagt die Tensor cores würden nicht für DLSS benutzt werden?

MLID hat scheinbar gute quellen aber absolut keine ahnung wovon er redet. solche aussagen einfach ignorieren.

Linmoum
2022-09-20, 17:35:01
1.949,00 €
1.469,00 €
1.099,00 €

Inflation und sonstiges hin oder her, aber der Preis für eine umbenannte xx70 mit 104-Chip. ;D

crux2005
2022-09-20, 17:35:38
nVidias eigene Benchmarks: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/?nvid=nv-int-bnr-376150#cid=dt005_nv-int-bnr_en-us

Kommt noch ein RT Update für CP77?

Cyberpunk 2077 (New RT Overdrive)

Naja, die Karten ersetzen die 3080 12GB und 3080TI. Sind im Grunde die selben Preise.

Bitte was? Du meinst die Miningpreise. :freak:

BlacKi
2022-09-20, 17:37:04
was ich nicht verstehe, ist die offizelle folie die 4080 wahnsinning schnell einordnet. 2-4x 3080ti. d.h. die 4080 wäre, laut CB differenz zwischen 3080ti und 3090ti nur 12%, auch nur 12% langsamer als die 4090?`


das passt nicht zu den spekulierten daten.keiner hier, der die 4080 performance angaben komisch findet? die sind doch viel zu hoch vs 4090

HOT
2022-09-20, 17:37:19
1.949,00 €
1.469,00 €
1.099,00 €

Inflation und sonstiges hin oder her, aber der Preis für eine umbenannte xx70 mit 104-Chip. ;D

Ich glaub, dass das ne Notlösung ist, weil die kleineren Chips entweder komplett gecancelt wurden oder erst sehr spät erscheinen werden.

Ex3cut3r
2022-09-20, 17:37:25
Wo ist Troyan und Blacki?

Die meinten vor paar Tagen noch 699$ für die 4080. ;D

Es sollte klar sein, die 699 UVP für die 3080 waren ein Fake damals.

Bitte DLSS 3 für meine 3080 Ti. Ansonsten kein Interesse an Ada. Danke Jensen, kannst du behalten. Ich schau in 2 Jahren wieder rein.

Wake
2022-09-20, 17:37:45
AV1 via NVENC wird wohl auch unterstützt.

Troyan
2022-09-20, 17:37:55
Bitte was? Du meinst die Miningpreise. :freak:

3080 12GB hatte keinen offiziellen Preis. $200 Aufpreis zur 3080 ist doch typisch nVidia. Die 3080TI war dann Abzocke.

Platos
2022-09-20, 17:38:32
Also bei den Preisen für die 4080 und die "4080" ist klar, dass AMD nicht dagegen ankommt. Ausser natürlich, die kommen auch mit solchen Preisen.

Einfach nur lächerlich und das gehört ordentlich angeprangert von den Medien. Wenn das beim Test nicht angeprangert wird, muss man wohl gekauft sein von nvidia. Dann kann man die Seite nicht mehr ernst nehmen.

Echt eine Frechheit!

Das P/L dürfte auch nicht sonderlich gestiegen sein. Ich ging anfangs von 40-60% aus. Jetzt eher noch von 30-40% ohne DLSS. Hat ja schliesslich nicht jedes Spiel DLSS.

Die "echte" 4070 kostet jetzt also 899$ und die dann noch kommende 4070 wird vermutlich 699$ kosten. Also quasi der Preis einer 3080 bzw. früher mal noch 80ti. Da die Karte mit 899 aber eigentlich eine 4070 ist, wird dann die "4070" eine eigentliche 4060 sein für 699$ :D

Wird ja immer lächerlicher...

DLSS schön und gut... Mal sehen, was AMD bringt.


4k DLSS 2 = 62 FPS

4k DLSS 3 = 101 FPS

Ist das so aus der Präsentation?

Wo ist Troyan und Blacki?

Die meinten vor paar Tagen noch 699$ für die 4080. ;D

Im Nachherein kann man immer sagen "ich habs gewusst" oder "war ja klar".

Grendizer
2022-09-20, 17:38:36
Irgendwie bin ich gerade schon extrem entäuscht.

Wollte meine 1080 endlich tauschen, hatte aber irgendwie auf eine 4080 mit 12 Gb bei 699$ und die 16Gb bei 899$ gehofft, was auch noch teuer gewesen wäre. So ist es aber irgendwie absurd.

DeadMeat
2022-09-20, 17:38:56
falls übersehen wegen den 23fps :

Aufgenommen mit GeForce RTX 4090 bei 3840 x 2160, New Max Ray Tracing Mode, DLSS 3, Pre-Release-Build.

unl34shed
2022-09-20, 17:39:06
keiner hier, der die 4080 performance angaben komisch findet?

doch ich, 2-4x vs 3080Ti im Bild und dann erzählt er was von 3x in dem Benchmark, dass bei der 4090 noch für 4x gut war. Müsste es mir aber noch mal genau anhören.

crux2005
2022-09-20, 17:39:44
keiner hier, der die 4080 performance angaben komisch findet? die sind doch viel zu hoch vs 4090

Sie benutzen DLSS Perf.

Siehe:



3840x2160 Resolution, Highest Game Settings, DLSS Super Resolution Performance Mode, DLSS Frame Generation on RTX 40 Series, i9-12900K, 32GB RAM, Win 11 x64. All DLSS Frame Generation data and Cyberpunk 2077 with new Ray Tracing: Overdrive Mode based on pre-release builds.

https://www.nvidia.com/en-eu/geforce/graphics-cards/40-series/

dargo
2022-09-20, 17:39:45
Ich frage mich gerade wo der langsamste Ada (RTX 4060?) liegen wird? Bei 449-499$? :D

Andron
2022-09-20, 17:40:33
Artefakte der interpolierten Frames abwarten. Nvidia hatte auch gesagt, DLSS 2.3 hätte alle Bewegtbildartefakte gefixt.

Artefakte sind eine Sache, das andere Problem ist, dass Zwischenbildinterpolation (im VR Bereich ja schon seit Jahren Standard) lediglich optisch die Framerate anhebt. Spielmechaniken, Physik und Eingaben bleiben auf dem Niveau der Ausgangsframerate. Letztere können rudimentär per Motion Reprojection Einflus auf das interpolierte Bild nehmen, eine relativ hohe Grundperformance dürfte dennoch Voraussetzung für gute Ergebnisse sein. Lasse mich da aber gerne positiv überraschen.

aufkrawall
2022-09-20, 17:41:10
falls übersehen wegen den 23fps :
"New Max Ray Tracing Mode", also noch größere Leistungsverschwendung als die Psycho-GI. Was ein Beschiss...

Dural
2022-09-20, 17:41:28
Alles ausser die 4090 ist uninteressant, jedenfalls zu den Preisen.

Ada ist maximal beeindruckend, Hammer Chip.

crux2005
2022-09-20, 17:41:29
Ich frage mich gerade wo der langsamste Ada (RTX 4060?) liegen wird? Bei 449-499$? :D

Nein, die 4050 wird so viel kosten.

3x so schnell mit RT wie eine 3060. You heard it here first.

HOT
2022-09-20, 17:41:29
Ich frage mich gerade wo der langsamste Ada (RTX 4060?) liegen wird? Bei 449-499$? :D
Nirgendwo ab absehbare Zeit. Gibts nämlich nicht.

BlacKi
2022-09-20, 17:41:32
doch ich, 2-4x vs 3080Ti im Bild und dann erzählt er was von 3x in dem Benchmark, dass bei der 4090 noch für 4x gut war. Müsste es mir aber noch mal genau anhören.der performance unterschied zwischen 4080 und 4090 laut letzten leaks müsste 50% und größer sein. aber nv gibt einen unterschied von 12% zwischen 4080 und 4090 an? dann ist die 4080 P/L besser als die 4090.

Sie benutzen DLSS Perf.

Siehe:

das ändert doch nichts an ihren angaben. die 4090 ist kaum schneller als die 4080.

AffenJack
2022-09-20, 17:41:53
keiner hier, der die 4080 performance angaben komisch findet? die sind doch viel zu hoch vs 4090

Doch, die ergeben für mich auch keinerlei Sinn. Gräbt an bei der 4090 tief oder CPU Limit?

DrFreaK666
2022-09-20, 17:42:27
Dieses Mal ist ja auch die Leistungslücke zwischen der RTX 4080 und der RTX 4090 massiv höher als bei RTX 30.

Und nicht ohne Grund gibt Nvidia lediglich als Release den November an.
Das ist ganz klar so gesetzt, um zuerst zu sehen, was AMD da bringt.

Man könnte jetzt die RTX 4090 so deuten, dass AMD in dieser Liga nichts hat.

Es macht keinen Sinn den Preis der 4080 schnell zu senken. Die NV-Fanboy-Base ist riesig und für die ist Gaming-Grafikkarte=Geforce.
Und wenn die 4090 zu teuer ist, dann greift man zur 4080, auch wenn sie über 1000€ liegt

prinz_valium_2
2022-09-20, 17:42:31
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-partner-graphics-cards.jpg

Ex3cut3r
2022-09-20, 17:42:35
Ok DLSS 3 Only for Ada. :redface:
Dann halt nicht.

https://abload.de/img/unbenannte9cuu.png

Sardaukar.nsn
2022-09-20, 17:42:35
keiner hier, der die 4080 performance angaben komisch findet? die sind doch viel zu hoch vs 4090

Stimme ich dir absolut zu, das passt mit den 60% mehr Cores der 4090 ggü 4080 überhaupt nicht zusammen

https://i.imgur.com/ZINb7Lu.jpg

https://i.imgur.com/vPgzE3R.jpg

r3ptil3
2022-09-20, 17:42:51
Bevor man es noch vergisst: Am 12. Oktober ist die RTX 4090 im Handel.

Neurosphere
2022-09-20, 17:42:55
"New Max Ray Tracing Mode", also noch größere Leistungsverschwendung als die Psycho-GI. Was ein Beschiss...

Die Gefahr ist groß das NV solche "künstlichen" Szenarien für ihre 3-4x RT Performance als Maßstab nimmt.

HOT
2022-09-20, 17:43:20
Es macht keinen Sinn den Preis der 4080 schnell zu senken. Die NV-Fanboy-Base ist riesig und für die ist Gaming-Grafikkarte=Geforce.
Und wenn die 4090 zu teuer ist, dann greift man zur 4080, auch wenn sie über 1000€ liegt

Glaub ich nicht. Da oben wird die Luft einfach zu dünn für die allermeisten Spieler.

dargo
2022-09-20, 17:44:41
Dieses Mal ist ja auch die Leistungslücke zwischen der RTX 4080 und der RTX 4090 massiv höher als bei RTX 30.

Ja... aber diesmal hat die 4080 16GB vs. 4090 mit 24GB. Bei Ampere hieß es noch 3080 10GB vs. 3090 24GB. Die 16GB der 4080 lässt sich Lederjacke vergolden. ;)

prinz_valium_2
2022-09-20, 17:44:45
Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Grendizer
2022-09-20, 17:45:25
Glaub ich nicht. Da oben wird die Luft einfach zu dünn für die allermeisten Spieler.

Ich denke auch, das das Geld in diesem Jahr bei vielen nicht ganz so locker sitzt, wenn man sich nicht sicher sein kann, ob man sich das Gas bis März leisten kann.

Grendizer
2022-09-20, 17:46:22
Ja... aber diesmal hat die 4080 16GB vs. 4090 mit 24GB. Bei Ampere hieß es noch 3080 10GB vs. 3090 24GB. Die 16GB der 4080 lässt sich Lederjacke vergolden. ;)


Naja ... sie hat ja auch mehr Shader und ein anders SI. Die Mehrperformance wird da schon da sein. Aber es rechtfertig keine 300$

r3ptil3
2022-09-20, 17:46:41
Die Performancewerte sind in dieser Präsi für die Tonne. Kann man nichts logisch einordnen mit den älteren Produkten.
Er wirft nur DLSS Werte raus.

Reviews gibt's dann wohl in zwei Wochen.

HOT
2022-09-20, 17:47:52
Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Der Flugsimulator ist 100% CPU-Limitiert und läuft ja auf der Ada dank DLSS3 mit der Hälfte der CPU-Frames, das ist der Trick dabei.
Ansonsten sind die Werte ehrlichgesagt ganz schön bescheiden. Da konzentriert sich alles auf DLSS3, das wars im Grunde. Ansonsten bekommt man einen Ampere on Steroids.

Linmoum
2022-09-20, 17:48:33
Bei dieser Fokussierung auf DLSS3 schwant mir bei der Performance ohne übles...

unl34shed
2022-09-20, 17:49:13
Die Performancewerte sind in dieser Präsi für die Tonne, um logisch etwas einordnen zu können mit den älteren Produkten.
Er wirft nur DLSS Werte raus.

Und wenn die wirklich mit Zwischenbildberechnung kommen, kann man die FPS halbieren.

Irgendwie ernüchternd für 8nm -> 4nm :confused:

why_me
2022-09-20, 17:49:14
Die Performancewerte sind in dieser Präsi für die Tonne. Kann man nichts logisch einordnen mit den älteren Produkten.
Er wirft nur DLSS Werte raus.

Wie schon die letzte Gen. Hier kommt halt noch dazu, dass die Leistung von DLSS2 vs DLSS3 mit Zwischenbildberechnung kommt.

arcanum
2022-09-20, 17:50:14
Bei dieser Fokussierung auf DLSS3 schwant mir bei der Performance ohne übles...

sieht man ja auf den folien von nvidia - ohne DLSS und ggf. RT ist die 4090 50-70% schneller als 3090ti

Atma
2022-09-20, 17:50:19
DLSS 3.0 nur für Ada. Ganz großes Fuck You, Lederjacke :mad:

prinz_valium_2
2022-09-20, 17:50:29
Der Flugsimulator ist 100% CPU-Limitiert und läuft ja auf der Ada dank DLSS3 mit der Hälfte der CPU-Frames, das ist der Trick dabei.
Ansonsten sind die Werte ehrlichgesagt ganz schön bescheiden. Da konzentriert sich alles auf DLSS3, das wars im Grunde. Ansonsten bekommt man einen Ampere on Steroids.

Meiner eher, dass "4070", 4080 und 4090 bei Warhammer quasi linear skalieren, aber bei den anderen beiden alten Spielen nicht.

Denke in der Regel wird die 4080 12GB also schwächer als eine 3090Ti sein.
eine 3080 16GB dann leicht drüber.

crux2005
2022-09-20, 17:50:43
Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Meine These. Entweder CPU Limit oder dank dem DLSS 3.0 Perf verlieren die 4080 im Vergleich zu 4090 weniger Leistung. Die Anzahl der Tensor cores sollte verhältnismäßig zum Rest sein aber evtl. ist das bei Ada nicht mehr so.

Wuge
2022-09-20, 17:50:47
Nuja, die Preisgestaltung find ich super. Da bleibt die 3090 gut verkaufbar, ohne dass die neue total durch die Decke geht. Mal sehn ob das Upgrade für nen Tausender funktioniert :)

mr coffee
2022-09-20, 17:50:53
Irgendwie unausgewogen. Die kleine 4080 ist sinnlos, wenn dann die große. Und dann kann man auch gleich zur 4090 greifen.
Also ich bin mal gespannt was AMD bringt. Das Angebot von nVidia finde ich irgendwie unvernünftig.

Sardaukar.nsn
2022-09-20, 17:50:59
Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Die linke Seite (Today´s Games) spiegelt ja die echte Steigerung der Rohleistung dar. Sieht nicht so prall aus und wahrscheinlich noch ordentlich Cherry picked. :rolleyes:

Platos
2022-09-20, 17:51:25
Glaub ich nicht. Da oben wird die Luft einfach zu dünn für die allermeisten Spieler.

Über 1000 kann man einfach die wenigsten abholen. Da spielt es auch keine Rolle ob nun dollar oder Euro. Das ist einfach eine Grenze, die die meisten (zum Glück) nicht überschreiten.

Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png


Was ist denn das bitte? Bei dem einen Spiel ist die 4080 schlechter wie die 3090 TI? Ah ne, ist ja die Fake 4080. Die 4080 ist aber auch nur ~~25 schneller. Was ein Witz :D

Diese Benches schreien nach Cherrypicking und ähnlichem.

Ex3cut3r
2022-09-20, 17:51:35
DLSS 3.0 nur für Ada. Ganz großes Fuck You, Lederjacke :mad:

;D

Habe ich mir auch gedacht. Habe aber wirklich kein Interesse schon wieder sehr viel Geld auszugeben. Mir reicht tatsächlich meine RTX 3080 Ti noch zu genüge.

DLSS 3 wäre wirklich toll gewesen.

Dampf
2022-09-20, 17:51:59
Die Preise sind gesalzen... Aber Mann, diese Racer RTX Demo sieht überkrass aus.

Sunrise
2022-09-20, 17:52:05
Ganz schön aufgeblasen…

Das Marketing hat wirklich Überstunden gemacht…

Ja, die Demo sah wirklich gut aus.

crux2005
2022-09-20, 17:52:35
DLSS 3.0 nur für Ada. Ganz großes Fuck You, Lederjacke :mad:

War doch von Anfang an klar das es so kommt. :D

r3ptil3
2022-09-20, 17:53:38
https://cdn.wccftech.com/wp-content/uploads/2022/09/MSI-GeForce-RTX-40-Series.png

https://cdn.wccftech.com/wp-content/uploads/2022/09/40_1920x900.jpg

Ich will die ASUS sehen. :D

Atma
2022-09-20, 17:53:59
War doch von Anfang an klar das es so kommt. :D
Anhand welcher Fakten war es das? :rolleyes:

Es war doch nicht mal klar, ob DLSS 3.0 überhaupt vorgestellt wird.

arcanum
2022-09-20, 17:54:03
;D

Habe ich mir auch gedacht. Habe aber wirklich keine Interesse schon wieder sehr viel Geld auszugeben. Mir reicht tatsächlich meine RTX 3080 Ti noch zu genüge.

DLSS 3 wäre wirklich toll gewesen.

wenn DLSS 3 auf ampere genauso funktionieren würde, könnte sich außer der 4090 keine der neuen karten merklich absetzen.

Grendizer
2022-09-20, 17:54:21
Der Stream war ja nur FHD ... stand irgendwo, welche Auflösung die Racer Demo hatte ?

horn 12
2022-09-20, 17:54:26
Euro Preise wurden genannt

1949 Euro RTX 4090 24GB

1469 Euro RTX 4080 16GB

1069 Euro RTX 4080 12 GB

hardtech
2022-09-20, 17:55:03
Wahnsinnig teuer!

HOT
2022-09-20, 17:55:16
Meiner eher, dass "4070", 4080 und 4090 bei Warhammer quasi linear skalieren, aber bei den anderen beiden alten Spielen nicht.

Denke in der Regel wird die 4080 12GB also schwächer als eine 3090Ti sein.
eine 3080 16GB dann leicht drüber.

Raff wird die 12GB-Version eh in der Luft zerfetzen.
Vor allem schwafelt Jensen da was von Mods - Mods und 12-16Gb? Darf ich mal laut lachen?

Troyan
2022-09-20, 17:55:29
Der Stream war ja nur FHD ... stand irgendwo, welche Auflösung die Racer Demo hatte ?

Wahrscheinlich wie Cyberpunkt: 1080p/60FPS und dann mit DLSS 3 hochskaliert.

Ex3cut3r
2022-09-20, 17:55:52
War doch von Anfang an klar das es so kommt. :D

Wieso? Turing hat ja auch noch DLSS 2.0 bekommen.

Meiner Meinung nach scheinen die Argumente für 30er GA102 Besitzer etwas dünn zu wechseln, das weiß auch Nvidia und hat DLSS 3.0 promt Ada Only gemacht.

Platos
2022-09-20, 17:56:37
Der Euroraum tut mir ja leid bei diesen Preisen. Autsch. P/L Fortschritt für Euroraum genau 0. Die 408012Gb, die manchmal sogar schwächer ist wie die 3090Ti kostet 1100 Euro. Customs dann vermutlich 1200 Euro. Tja, EVGA hätte vlt. doch nicht abspringen sollen ;D

DLSS 3.0 nur für Ada. Ganz großes Fuck You, Lederjacke :mad:

Vlt. komtms ja in einem halben Jahr, wenn die Ampere-Bestände endlich verkauft sind dann noch nach :freak:

Die linke Seite (Today´s Games) spiegelt ja die echte Steigerung der Rohleistung dar. Sieht nicht so prall aus und wahrscheinlich noch ordentlich Cherry picked. :rolleyes:

Ja, die "echte" 4080 ist da gerade mal ~25% schneller wie die 3090Ti. Kostet dabei aber mehr, wie jetzt eine 3090 im Handel.

Bei dieser Fokussierung auf DLSS3 schwant mir bei der Performance ohne übles...

Ja siehe die Folie hier:https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13112600#post13112600

Linke Seite die fake 4080 ist schwächer wie die 3090Ti in vielen Titeln und die echte 4080 gerade mal ~25% besser. Der Rest wird Cherrypicking sein.

HOT
2022-09-20, 17:56:52
Wieso? Turing hat ja auch noch DLSS 2.0 bekommen.
Die Tensorleistung wird schlichtweg nicht reichen. Die faken einen kompletten Frame in Echtzeit!

dargo
2022-09-20, 17:56:58
Euro Preise wurden genannt

1949 Euro RTX 4090 24GB
1469 Euro RTX 4080 16GB
1069 Euro RTX 4080 12 GB
Und ich hatte 999€ für die 4080 (16GB) getippt, voll daneben im negativen Sinne. ;D Mit den 2000€ für die 4090 lag ich gar nicht mal so verkehrt. :tongue:

Sardaukar.nsn
2022-09-20, 17:57:33
https://cdn.wccftech.com/wp-content/uploads/2022/09/MSI-GeForce-RTX-40-Series.png

https://cdn.wccftech.com/wp-content/uploads/2022/09/40_1920x900.jpg

Ich will die ASUS sehen. :D

Es kann eh nur eine mit zwei 1/4 Zoll Wasseranschlüssen sein :freak:

Sunrise
2022-09-20, 17:58:01
Euro Preise wurden genannt

1949 Euro RTX 4090 24GB
1469 Euro RTX 4080 16GB
1069 Euro RTX 4080 12 GB
Die 4090 is echt nicht viel teurer, die kauf ich mir!

Ex3cut3r
2022-09-20, 17:58:09
Die Tensorleistung wird schlichtweg nicht reichen.

Die werden garantiert gar nicht benutzt. ^^

Ist selbst heute der Fall mit Ampere und Turing.

why_me
2022-09-20, 17:58:14
Linke Seite die fake 4080 ist schwächer wie die 3090Ti in vielen Titeln und die echte 4080 gerade mal ~25% besser. Der Rest wird Cherrypicking sein.

Aber, die soll doch 2x-4x schneller sein als eine 3080ti :eek:;D:freak:

HOT
2022-09-20, 17:59:30
Die werden garantiert gar nicht benutzt. ^^

Ist selbst heute der Fall mit Ampere und Turing.
Für den Frame, den man da in Echtzeit rendert wird das nicht anders gehen und da hast du auch schon deine Antwort.

Neurosphere
2022-09-20, 17:59:51
Bin gespannt wieviel Watt die Customs durch die Platine jagen mit den Kühlern.

Ich gehe mal stark davon aus das die da merklich nach oben gehen und das nachher bei den Reviews bei der Performance gut aussieht, wo wieder kaum ein Tester eine FE bekommen wird.

DrFreaK666
2022-09-20, 17:59:53
Glaub ich nicht. Da oben wird die Luft einfach zu dünn für die allermeisten Spieler.

AMD hatte mit der 6000er Serie konkurrenzfähige Karten. Was hats gebracht?

Platos
2022-09-20, 18:00:34
Diese Generation gehört abgeschraft und von den Medien zerpflückt!

Diese Generation zeigt sich, welche Medien für die Kunden berichten und welche von nvidia gekauft sind und/oder einfach so totale Nerds sind, dass sie eigentlich am falschen Ort arbeiten.

AMD hatte mit der 6000er Serie konkurrenzfähige Karten. Was hats gebracht?

Not really. DLSS Konter FSR 2.0 kam ein Jahr später und RT können die auch nicht. Ist halt für viele ein Kaufargument gewesen. Ich hoffe, das ändert sich jetzt. Wenn ich mir die Preise ansehe, bezweifle ich das aber stark.

Daredevil
2022-09-20, 18:00:44
DLSS ist DER Grund, wieso man nicht mehr Strom verbrauchen muss in 2022 und es wird hier verrissen. I don’t get it. :D
Raw Performance ist aus dem Jahr 2010, AI basiertes Rendering ist seit Anfang von DLSS die Zukunft. Das weiß Nvidia, weswegen sie es krass pushen! Das weiß auch AMD, indem sie es nachbauen. :)

Ex3cut3r
2022-09-20, 18:01:51
Diese Generation gehört abgeschraft und von den Medien zerpflückt!

Diese Generation zeigt sich, welche Medien für die Kunden berichten und welche von nvidia gekauft sind und/oder einfach so totale Nerds sind, dass sie eigentlich am falschen Ort arbeiten.

;D

Jetzt beruhige dich. Niemand wird gezwungen eine 40er Karte zu kaufen. :freak:

Bei den ganzen Remastern und PS4/PS5 Spiele auf die ich aktuell warte, brauche ich keine 40er Karte. Notfalls kann ich Regler bedienen und DLSS und FSR bringen FPS für umsonst.

Platos
2022-09-20, 18:02:51
;D

Jetzt beruhige dich. Niemand wird gezwungen eine 40er Karte zu kaufen. :freak:

Nein, aber deswegen gehört sie trotzdem abgestraft. Und die Medien müssen den unwissenden Kunden auch vermitteln, was für eine bodenlose Frechheit nvidia sich hier leistet.

Also bleibe bei meiner Aussage.

Gott1337
2022-09-20, 18:03:11
AMD hatte mit der 6000er Serie konkurrenzfähige Karten. Was hats gebracht?
Nur weil Raster, wenn man mehr wollte eben nicht. Der ganze CUDA bumms wird doch von vielen benutzt, oder OBS, zum encoden, der greenscreen kram. Jeder der rendert, RTX in spielen will oder RTX Voice.

Ada macht einen riesen Sprung, AMD wird über den Preis gehen müssen, was aber relativ leicht ist weil die 4080 auch zu teuer ist. 4090 versteh ich ja, aber die 4080 ist 300€ zu teuer


@Platos geh mal zum Arzt, nur weil AMD nicht so einen riesen Sprung machen wird ist das kein Grund hier so auszuflippen, der Markt wird die Preise Regeln, wenn die Nachfrage gering ist und AMD ein relativ gutes Produkt bringen wird, dann werden die Preise auch sinken. ADA ist doch einfach nur eine Krank gute Gen, bis auf den Preis.

DrFreaK666
2022-09-20, 18:04:21
...DLSS 3 wäre wirklich toll gewesen.

Musst wohl mit FSR/XeSS Vorlieb nehmen :biggrin:

Ex3cut3r
2022-09-20, 18:04:51
Musst wohl mit FSR/XeSS Vorlieb nehmen :biggrin:

Wieso? Ist DLSS 3 nicht abwärtskompatibel?

Sunrise
2022-09-20, 18:05:18
Das weiß auch AMD, indem sie es nachbauen. :)
Ja, für alle verfügbar… lessons not learned?

DavChrFen
2022-09-20, 18:05:56
Wenn man über DLSS 3 wirklich bei jedem Spiel eine KI-generierte Zwischenbildberechnung einschalten kann, dann sieht das für Simulationen und Aufbauspiele echt interessant aus.

Neurosphere
2022-09-20, 18:05:57
Wieso? Ist DLSS 3 nicht abwärtskompatibel?

Nein.


https://pbs.twimg.com/media/FdHFaQsaUAY1khn?format=jpg&name=large

Dural
2022-09-20, 18:06:02
Also das war die merkwürdigste Vorstellung die ich je gesehen habe.

Weder Preise noch Technische Daten machen Sinn, und die eigenen Perf. Angaben von NV noch viel weniger zu den Rohdaten.

Es bleiben nur :confused::confused::confused: übrig.

dargo
2022-09-20, 18:06:24
Diese Generation gehört abgeschraft und von den Medien zerpflückt!

Diese Generation zeigt sich, welche Medien für die Kunden berichten und welche von nvidia gekauft sind und/oder einfach so totale Nerds sind, dass sie eigentlich am falschen Ort arbeiten.

Du übertreibst völlig... der Preis der 4090 ist sogar recht human mit 1599$ ausgefallen. Das sind nur 100$ mehr als bei der 3090 damals. In Anbetracht der Inflation sogar eine Preiserhöhung unter meinen Erwartungen. Bei den Preisen der 4080 mag das schon etwas anders aussehen. Ich würde sagen das ist Marketing on the best, kluge Mischkalkulation. ;)

lowkres
2022-09-20, 18:06:36
UVP 3080 in D 699€
UVP 4080 in D 1469€

Mehr als eine Verdopplung des Preises!! Ich bin echt sprachlos

Meridian12
2022-09-20, 18:06:41
Die stellen also nur neue Karten vor, die 4stellig kosten?

Also in dem Preisbereich, wo nur 6-7% der Leute laut einem Voting in einem PC Forum, kaufen?

Aja.

horn 12
2022-09-20, 18:06:42
Was meint ihr die 4070 ist RTX 3090 (Max. 3090TI)
7684 Shader

und die 4080 12/16 max. 35% über einer RTX 3090 TI
97xx Shader

und erst die 4090 um die 75 bis 100% doppelt so schnell wie die 3090TI
164xx Shader


Schaut euch bitte einfach den Takt und die Shaderanzahl an ...

Ex3cut3r
2022-09-20, 18:06:57
Nein.



Quelle? :confused:
UVP 3080 in D 699€
UVP 4080 in D 1469€

Mehr als eine Verdopplung des Preises!! Ich bin echt sprachlos

Der 3080 UVP Preis, war Fake. Oder wer könnte mit dem Bullshit Bingo bzw. gegen Bots entspannt so eine Karte zu dem Preis kaufen? ^^

BlacKi
2022-09-20, 18:07:19
Aber, die soll doch 2x-4x schneller sein als eine 3080ti :eek:;D:freak:cyberpunk ist aber auch schon fast 2 jahre auch dem markt.


generell werden viele spiele auf RTX setzen und dort werden die gains massiv sein.

Neurosphere
2022-09-20, 18:08:26
Quelle? :confused:

https://twitter.com/CapFrameX/status/1572249100388601859

https://www.nvidia.com/en-gb/geforce/news/dlss3-supports-over-35-games-apps/

Platos
2022-09-20, 18:09:01
Du übertreibst völlig... der Preis der 4090 ist sogar recht human mit 1599$ ausgefallen. Das sind nur 100$ mehr als bei der 3090 damals. In Anbetracht der Inflation sogar eine Preiserhöhung unter meinen Erwartungen. Bei den Preisen der 4080 mag das schon etwas anders aussehen. Ich würde sagen das ist Marketing on the best, kluge Mischkalkulation. ;)

Ja die 4090, darum ging es mir nicht. Ob ich übertreibe? Dazu siehe einfach das Zitat von unten:

UVP 3080 in D 699€
UVP 4080 in D 1469€

Mehr als eine Verdopplung des Preises!! Ich bin echt sprachlos

Grendizer
2022-09-20, 18:09:46
cyberpunk ist aber auch schon fast 2 jahre auch dem markt.


generell werden viele spiele auf RTX setzen und dort werden die gains massiv sein.


Ja soviele Spiele, das nVidia mit dem Mod Support selber aktiv wird, damit die Durchdringung steigt.

Bei den Preisen ist RTX On für mich leider immer noch kein Verkaufsargument.

HOT
2022-09-20, 18:09:55
Was meint ihr die 4070 ist RTX 3090 (Max. 3090TI)

und die 4080 12/16 max. 35% über einer RTX 3090 TI

und erst die 4090 um die 75 bis 100% doppelt so schnell wie die 3090TI

Schaut euch bitte einfach den Takt und die Shaderanzahl an ...
Ich glaube, dass es AD106 und 107 nie gegeben hat oder gecancelt wurden. Für Desktop braucht man sie nicht, da sie zu teuer sind, für DLSS3 könnte die Tensorleistung nicht gut genug sein und aus Notebooks fliegt NV eh raus außer im absoluten High-End. Dafür reicht dann der 104er und 103er.
AMD und Intel werden bei Notebooks eh dazu übergehen ihre GPUs mit den Mobil-CPUs zu bündeln in Zukunft.

Ex3cut3r
2022-09-20, 18:11:18
https://twitter.com/CapFrameX/status/1572249100388601859

https://www.nvidia.com/en-gb/geforce/news/dlss3-supports-over-35-games-apps/

Was soll die Verarschung? Da steht doch gar nichts von?

Natürlich wird DLSS 3.0 auf Ampere und Turing in den 2.0 Mode wechseln. Sonst ist DLSS Geschichte für 90% der RTX User.

Komiker vom Beruf?

Troyan
2022-09-20, 18:11:26
UVP 3080 in D 699€
UVP 4080 in D 1469€

Mehr als eine Verdopplung des Preises!! Ich bin echt sprachlos

Ja, vorallem, wenn man überlegt, dass es damals nur 16% Mwst. gab und der Euro fast 20% stärker war.

4080 16GB ist $1199 in Amerika. Mit 19% Mwst. sind es eben 1.426€ + Umrechnungsaufschlag.

lowkres
2022-09-20, 18:12:37
Quelle? :confused:


Der 3080 UVP Preis, war Fake. Oder wer könnte mit dem Bullshit Bingo bzw. gegen Bots entspannt so eine Karte zu dem Preis kaufen? ^^

In meinem Umkreis haben die Leute bei NBB eine 3080 für UVP bekommen. Warum sollte das fake sein :freak:

HOT
2022-09-20, 18:12:40
Was soll die Verarschung? Da steht doch gar nichts von?

Natürlich wird DLSS 3.0 auf Ampere und Turing in den 2.0 Mode wechseln. Sonst ist DLSS Geschichte für 90% der RTX User.

Komiker vom Beruf?

Umgekehrt. DLSS3 läuft überall da wo DLSS2 läuft. Das ist komplett transparent für die Software (hat er erwähnt in der Präsi), sonst wäre das Feature komplett sinnlos.

horn 12
2022-09-20, 18:12:47
1469 Euro laut Nvidia für 4080 16GB

Platos
2022-09-20, 18:13:02
Ja, vorallem, wenn man überlegt, dass es damals nur 16% Mwst. gab und der Euro fast 20% stärker war.

4080 16GB ist $1199 in Amerika. Mit 19% Mwst. sind es eben 1.426€ + Umrechnungsaufschlag.

Ah, jetzt ist Troyan da. Jetzt gehts los.

Grendizer
2022-09-20, 18:13:08
16% war der reduzierte Satz

aufkrawall
2022-09-20, 18:13:13
Hier sieht die Performance noch komischer aus
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png
Nvidias GCN? :freak:

Ex3cut3r
2022-09-20, 18:14:56
Nvidias GCN? :freak:
Was sagts du denn zu Ada Krawall?

Enttäuscht das DLSS 3.0 Only auf Ada läuft?

Tomahawk
2022-09-20, 18:15:02
Wurde schon was zum Stromverbrauch gesagt?

450W (4090), 320W (4080 16GB), 285W (4080 12 GB)

https://www.nvidia.com/de-de/geforce/graphics-cards/compare/

Sardaukar.nsn
2022-09-20, 18:15:56
1469 Euro laut Nvidia für 4080 16GB

https://i.imgur.com/kDZuVPR.png

Für eine anständige 4090 wirst du zwei Riesen auf den Tisch legen müssen. Von den 80er Karten würde ich zu diesem Preis generell abraten.

BlacKi
2022-09-20, 18:16:23
die 699€ waren nur 2020, heute würde die bereinigte uvp bei 749-799€ liegen. danach war die mwst. ab 2021 wieder drauf, und auch für den anderen wechselkurs interessiert jensen nicht.

Neurosphere
2022-09-20, 18:16:29
Was soll die Verarschung? Da steht doch gar nichts von?

Natürlich wird DLSS 3.0 auf Ampere und Turing in den 2.0 Mode wechseln. Sonst ist DLSS Geschichte für 90% der RTX User.

Komiker vom Beruf?

Jain, meist lache ich und verdiene dabei mehr Geld.

Aber was war deine Frage, ob es abwärtskompatibel ist? Ist es nicht, DLSS 3.0 läuft nur auf Ada, thats it. Auf Ampere bleibt halt 2.0, man hat also von den neuen Features rein garnichts mit den alten Karten.

Das wolltest du so?

Ex3cut3r
2022-09-20, 18:17:36
https://i.imgur.com/kDZuVPR.png
Alter Schwede, das ist echt heftig. :biggrin:
Langsam wird eine GPU zum Porsche. 2030 sind wird dann bei 3500€
Jain, meist lache ich und verdiene dabei mehr Geld.

Aber was war deine Frage, ob es abwärtskompatibel ist? Ist es nicht, DLSS 3.0 läuft nur auf Ada, thats it. Auf Ampere bleibt halt 2.0, man hat also von den neuen Features rein garnichts mit den alten Karten.

Das wolltest du so?

Vergessen wir das. :smile:

HOT
2022-09-20, 18:18:00
Die Preise sind schon arg komisch. Wetten, dass das erst
2199$ für die 4090, 1599$ für die 4080 16 und 899 für die 4070 (jetzt 4080 12) werden sollte?

DrFreaK666
2022-09-20, 18:19:55
Die Preise sind schon arg komisch. Wetten, dass das erst
2199$ für die 4090, 1599$ für die 4080 16 und 899 für die 4070 (jetzt 4080 12) werden sollte?

Ich wette dagegen :D

Platos
2022-09-20, 18:20:18
Preise sind scheisse, man muss nicht mehr spekulieren.

Ganon
2022-09-20, 18:20:38
Ich frag mich gerade wie DLSS 3 ohne erhöhten Input-Lag funktionieren soll. Ohne Berechnung einfach neue Bilder erzeugen klingt für mich genau nach dem was mein TV auch schon machen kann.

dargo
2022-09-20, 18:21:15
Alter Schwede, das ist echt heftig. :biggrin:
Langsam wird eine GPU zum Porsche. 2030 sind wird dann bei 3500€

Ich weiß gar nicht was du hast. Du hast doch für eine RTX 3080TI 1800€ ausgegeben. :freak:

Neurosphere
2022-09-20, 18:21:27
Vergessen wir das. :smile:

:ulove4:

Die Preise sind schon arg komisch. Wetten, dass das erst
2199$ für die 4090, 1599$ für die 4080 16 und 899 für die 4070 (jetzt 4080 12) werden sollte?

Alles nicht unmöglich. Nvida würfelt die Zahlen ja scheinbar bis kurz vor der Präsi wie man ja nun auch bei der EVGA Story gehört hat.

Die 4090 ist bei der Preisgestaltung (schlimmerweise) echt die vernünftigste Karte.

Ich warte RDNA3 ab und schaue dann mal. Die Frage ist ja auch ob die Customs bei dem Preis bleiben oder zB. eine Strix mal eben ne ordentliche Schippe drauflegen wird.

HOT
2022-09-20, 18:22:04
Ich frag mich gerade wie DLSS 3 ohne erhöhten Input-Lag funktionieren soll. Ohne Berechnung einfach neue Bilder erzeugen klingt für mich genau nach dem was mein TV auch schon machen kann.
Ich sags dir: Gar nicht :D. Das wird GEIL.

Ex3cut3r
2022-09-20, 18:22:30
Ich weiß gar nicht was du hast. Du hast doch für eine RTX 3080TI 1800€ ausgegeben. :freak:

Stimmt schon. Was meinst du warum ich auf Ada verzichte? :biggrin: :wink:

crux2005
2022-09-20, 18:22:35
Wieso? Turing hat ja auch noch DLSS 2.0 bekommen.

Meiner Meinung nach scheinen die Argumente für 30er GA102 Besitzer etwas dünn zu wechseln, das weiß auch Nvidia und hat DLSS 3.0 promt Ada Only gemacht.

Einfach Bauchgefühl und zwischen den Zeilen lesen was so gesagt wird.

dargo
2022-09-20, 18:23:15
Ich warte RDNA3 ab und schaue dann mal. Die Frage ist ja auch ob die Customs bei dem Preis bleiben oder zB. eine Strix mal eben ne ordentliche Schippe drauflegen wird.
Natürlich legen die guten Customs noch ordentlich drauf, was habt ihr denn erwartet? :tongue:

M4xw0lf
2022-09-20, 18:23:21
Ich frag mich gerade wie DLSS 3 ohne erhöhten Input-Lag funktionieren soll. Ohne Berechnung einfach neue Bilder erzeugen klingt für mich genau nach dem was mein TV auch schon machen kann.
Vor allem auch losgelöst von der Spieleengine :confused:
Dann bekommt man im besten Fall etwas, das flüssig aussieht, aber trotzdem nur im Stottertempo die Spielereingaben verarbeitet? Wie soll sich das am Ende wirklich flüssig(er) anfühlen?

Grendizer
2022-09-20, 18:23:51
Hehe... wenn dann eine Asus 4080 16 gb bei 1599 Euro liegt wird es lustig.

Ex3cut3r
2022-09-20, 18:24:23
Natürlich legen die guten Customs noch ordentlich drauf, was habt ihr denn erwartet? :tongue:

;D

RTX 4090 Custom von ASUS, MSI, dann bei 2200€+

RTX 4080 16GB Custom " " dann bei 1600€+

prinz_valium_2
2022-09-20, 18:24:32
Quelle? :confused:


Der 3080 UVP Preis, war Fake. Oder wer könnte mit dem Bullshit Bingo bzw. gegen Bots entspannt so eine Karte zu dem Preis kaufen? ^^

Ich. Also hätte. Aber habe nicht zugeschlagen bei dem Zotac Amazon angebot zur UVP.


Da die Stimmung so negativ ist, DLSS3 ist grandios. Extrem viel Mehrleistung für wenig zusätzliche Hardware Einheiten.


Ist aber leider der einzige Lichtblick.
Ich finde das sollte dann einfach in den kleinen Karten Einzug halten. Dann kann man auch wieder günstige, stromsparende Karten vermarkten. Die sind dann halt nur noch unter DLSS3 mit RTX leistungsstärker als die Generationen davor.

BlacKi
2022-09-20, 18:24:40
die ersten 35 games und apps die dlss3 support bekommen
https://cdn.videocardz.com/1/2022/09/nvidia-dlss3-geforce-rtx-games.jpg





Stimmt schon. Was meinst du warum ich auf Ada verzichte? :biggrin: :wink:kein geld mehr

Neurosphere
2022-09-20, 18:24:46
Natürlich legen die guten Customs noch ordentlich drauf, was habt ihr denn erwartet? :tongue:

Kommt halt auf das Verhältniss an, nvidia macht ja meist Sandbagging bei den Preisen, abwarten was die reale Marktlage sein wird.

An einer FE habe ich kein Interesse.

crux2005
2022-09-20, 18:26:25
Wenn die 12GB 4080 in Village sogar langsamer ist als die 3090 dann wird sie in vielen aktuellen (ohne RT und DLSS) nicht viel schneller sein als eine 3090 (Ti). Unter 1000€ wird die 3090 (Ti) also nicht fallen. Erinnert mich an 1080 Ti vs 2080 bei Release. Erst in neueren Titeln und mit DLSS konnte sich Turing absetzen. Wird jetzt auch so kommen. Weil es aktuell keine "must play" Titel gibt, werde ich warten. Viel Spaß mit den neuen Karten falls ihr die kauft. :)

Ex3cut3r
2022-09-20, 18:26:42
kein geld mehr

Ziemlich frech. Aber so kennen wir dich als ungehorsamen Banausen. :biggrin:

Nichts das was dich angehen sollte, aber nein. An Geld mangelt es nicht. Aber ich sehe stand heute gar keinen Grund mir was neues zu kaufen.

Troyan
2022-09-20, 18:27:15
Ah, jetzt ist Troyan da. Jetzt gehts los.

Geh doch einfach in die AMD Threads. Weißt du, Trolle wie du nerven nur noch. Spiel in 1080p mit 30FPS und freu dich. Aber nerve doch einfach andere.

BlacKi
2022-09-20, 18:28:21
was mich am meisten stört: keine news zur 4070.

Spring
2022-09-20, 18:28:25
Geh doch einfach in die AMD Threads. Weißt du, Trolle wie du nerven nur noch. Spiel in 1080p mit 30FPS und freu dich. Aber nerve doch einfach andere.

Bissl sauer über die Abzockpreise von nVidia?

Das wäre ich auch :ugly:

Troyan
2022-09-20, 18:30:47
Bissl sauer über die Abzockpreise von nVidia?

Das wäre ich auch :ugly:

Nein. Weil mich Preise einfach nicht mehr interessieren. Einfach nicht kaufen. Aber man muss doch hier nicht rumheulen, dass eine RTX4080 12GB 4x schneller als eine 6950XT ist. :cool:

4nm kostet. Habe ich hier schon öfters erwähnt. Und das nVidia hohe Preise nimmt, weiß auch jeder.

prinz_valium_2
2022-09-20, 18:32:23
Ist schon traurig wie nVidia alte "loyale" Kunden aus seinen Produkten rauspreist.
DLSS3 interessiert mich sehr, aber wenn der einstig erst bei 1000€ anfängt.

dargo
2022-09-20, 18:32:46
;D

RTX 4090 Custom von ASUS, MSI, dann bei 2200€+

RTX 4080 16GB Custom " " dann bei 1600€+
Ja... so in etwa dürfte es aussehen.

btw.
Preislich ist die 4090 wirklich noch am besten aufgestellt, wären da nur nicht die absurden min. 450W (Customs überschreiten die 500W locker). Die 320W der 4080 16GB sind auch schon etwas übers Ziel hinaus geschossen (Customs werden auch hier höher liegen), hier könnte man mit UV aber wohl noch in akzeptable 250-260W kommen. Eigentlich sieht mir die 4080 12GB mit ihren 285W bisher am besten aus, zumindest beim Verbrauch. Nur sind die Preise bei den 4080-ern wieder für den Popo. Wie gut, dass ich keine Geforce mehr kaufe. :ulol:

Grendizer
2022-09-20, 18:33:04
Ist schon traurig wie nVidia alte "loyale" Kunden aus seinen Produkten rauspreist.
DLSS3 interessiert mich sehr, aber wenn der einstig erst bei 1000€ anfängt.

Wird es auch bei der 4070 und 4060 geben. Die werden aber erst 2023 kommen.

Wobei dann aber die Frage ist, ob man dann noch "günstig" eine 3090 ersteht im Abverkauf, die Preise für eine 4070 dürften nicht soweit weg sein

aufkrawall
2022-09-20, 18:34:15
Was sagts du denn zu Ada Krawall?

Enttäuscht das DLSS 3.0 Only auf Ada läuft?
Falls keine 2.x Updates mehr kommen: Ja.
Man hätte ja auch erstmal die Artefakte von 2.x weiter reduzieren können, und jetzt gibt es direkt 3.0? Das wird bei realistischer Erwartungshaltung mit der Zwischenbildberechnung wohl eher (massiv?) mehr Artefakte haben als 2.x. Bin deswegen nicht sonderlich gehyped.

Ich frag mich gerade wie DLSS 3 ohne erhöhten Input-Lag funktionieren soll. Ohne Berechnung einfach neue Bilder erzeugen klingt für mich genau nach dem was mein TV auch schon machen kann.
Sie haben ja Reflex erwähnt, was ich so interpretieren würde, dass das den erhöhten Lag wieder ausgleichen soll. Aber natürlich nur vs. DLSS 2.x Reflex off.
Dein TV dürfte aber deutlich mehr Artefakte produzieren, weil es keine Ahnung hat, was im Frame vorgeht.

Platos
2022-09-20, 18:34:33
Mal so spekuliert: 4070 699$ und 4060 499$

Jensen hat doch gesagt, er fände, ne Mittelklasse-GPU wäre eigentlich so viel Wert wie ne Konsole :freak::D

Also passt gut 499$ für ne 4060.

Edit: Und 4050 349$

Grendizer
2022-09-20, 18:35:56
Mal so spekuliert: 4070 699$ und 4060 499$

Jensen hat doch gesagt, er fände, ne Mittelklasse-GPU wäre eigentlich so viel Wert wie ne Konsole :freak::D

Also passt gut 499$ für ne 4060.

dann eher 549$

Linmoum
2022-09-20, 18:36:08
Je öfter ich diese "Today's Games" Balken sehe, desto mehr bekomme ich mehr und mehr den Eindruck, dass Ada eine noch größere Luftpumpe bzgl. Perf/TFLOP ist, als Ampere.

DrFreaK666
2022-09-20, 18:36:40
Gab es Angaben zum Verbrauch?

DavChrFen
2022-09-20, 18:37:00
OT-Getrolle
Geh doch einfach in die AMD Threads. Weißt du, Trolle wie du nerven nur noch. Spiel in 1080p mit 30FPS und freu dich. Aber nerve doch einfach andere.
Ich würde ja gerne in 1080p mit 30FPS spielen, aber bei bestimmten Aufbauspielen hängt die Engine im CPU-Limit. Deswegen finde ich die Zwischenbildberechnung auch recht interessant

Karten mit Wasserkühler wurden noch nicht vorgestellt? Oder kommt das bis zum 12.10 nach und nach?

dargo
2022-09-20, 18:37:52
Je öfter ich diese "Today's Games" Balken sehe, desto mehr bekomme ich mehr und mehr den Eindruck, dass Ada eine noch größere Luftpumpe bzgl. Perf/TFLOP ist, als Ampere.
Beim Rasterizer ohne DLSS definitiv, wenn das schon die eigene grüne Folie zeigt. :freak:

Spring
2022-09-20, 18:38:24
Nein. Weil mich Preise einfach nicht mehr interessieren. Einfach nicht kaufen. Aber man muss doch hier nicht rumheulen, dass eine RTX4080 12GB 4x schneller als eine 6950XT ist. :cool:

4nm kostet. Habe ich hier schon öfters erwähnt. Und das nVidia hohe Preise nimmt, weiß auch jeder.

Stark, die überteuerte Karte mit einer (dagegen absolut günstigen) last-Gen Karte zu vergleichen.

Heute hat nv imho den Vogel abgeschossen, da sind sogar einige Hardcore Fans wach geworden. Bei Energiekrise und Co wird so eine Karte wie die 4080 sicherlich reißenden Absatz finden. :rolleyes:

Das nv höhere Preise nimmt ist bekannt, aber das ist reines melken.

Platos
2022-09-20, 18:39:11
dann eher 549$

Warum? PS5 kostet in USA 499$.

Grendizer
2022-09-20, 18:40:24
Warum? PS5 kostet in USA 499$.

Ah ok mein Fehler, dachte der wäre auch auf 549$ erhöht worden

Ex3cut3r
2022-09-20, 18:40:55
Falls keine 2.x Updates mehr kommen: Ja.
Man hätte ja auch erstmal die Artefakte von 2.x weiter reduzieren können, und jetzt gibt es direkt 3.0? Das wird bei realistischer Erwartungshaltung mit der Zwischenbildberechnung wohl eher (massiv?) mehr Artefakte haben als 2.x. Bin deswegen nicht sonderlich gehyped.


Sie haben ja Reflex erwähnt, was ich so interpretieren würde, dass das den erhöhten Lag wieder ausgleichen soll. Aber natürlich nur vs. DLSS 2.x Reflex off.
Dein TV dürfte aber deutlich mehr Artefakte produzieren, weil es keine Ahnung hat, was im Frame vorgeht.
Laut Nvidia ist DLSS 2.3 schon perfekt. Also ja, ich gehe davon aus, dass DLSS 2.0+ keine Entwicklung mehr sieht. :freak:

Sardaukar.nsn
2022-09-20, 18:42:59
Wurde schon was zum Stromverbrauch gesagt?

450W (4090), 320W (4080 16GB), 285W (4080 12 GB)

https://www.nvidia.com/de-de/geforce/graphics-cards/compare/

Mal ein flotter Dreisatz zur Watt-Leistung...

4090 450W 24GB = 100%
3080 320W 16GB = 71%
3080 285W 12GB = 63%

Vergleich zum Preis
4090 24GB 1949€ = 100%
4080 16GB 1469€ = 75%
4080 12GB 1099€ = 56%

Sicher wird es noch Custom Modelle vielleicht mit über 600Watt geben die oben noch ein paar Prozent zulegen können. Aber es sollte sich die Watt/Leistung im gleichen Fertigungsprozess grob vergleichen können.

Meridian12
2022-09-20, 18:43:36
Doppelt.War noch im Cache.

Troyan
2022-09-20, 18:44:07
Stark, die überteuerte Karte mit einer (dagegen absolut günstigen) last-Gen Karte zu vergleichen.

Heute hat nv imho den Vogel abgeschossen, da sind sogar einige Hardcore Fans wach geworden. Bei Energiekrise und Co wird so eine Karte wie die 4080 sicherlich reißenden Absatz finden. :rolleyes:

Das nv höhere Preise nimmt ist bekannt, aber das ist reines melken.

Gehe eine Woche zurück. Da findest du auch meine Aussage, dass die 4080 12GB so heißt, so dass nVidia irgendwas unter $1000 mit dem Namen anbieten kann. Jeder wusste hier, dass die 4080 nicht günstig sein wird, wenn zwei Varianten bekommt.

Grendizer
2022-09-20, 18:44:42
Die stellen also nur neue Karten vor, die 4stellig kosten?

Also in dem Preisbereich, wo nur 6-7% der Leute laut einem Voting in einem PC Forum, kaufen?

Aja.

Vermutlich werden sie bei dem Prozess und Bauteilverfügbarkeit auch gar nicht für viel mehr Leute liefern können.

aufkrawall
2022-09-20, 18:45:31
Laut Nvidia ist DLSS 2.3 schon perfekt.
Nur hatten bis 2.3.9. alle 2.3-Versionen unter fiesem Smearing und Ghosting zu leiden vs. 2.2.6. :uup:
Das ganze Gespacke um DLSS-Sharpen stimmt mich auch nicht optimistischer, dass mit 3.0 jetzt plötzlich alles super-duper ist...

Ex3cut3r
2022-09-20, 18:45:41
Mein Beileid an die Leute, bis die heute auf "normale" Preise warten. Ich denke eine 3060 für 400€ ist bei Nvidia das höchste der Gefühle für Normalos. :redface:

dabad1
2022-09-20, 18:45:51
df hat bereits eine RTX 4090:

https://www.youtube.com/watch?v=qyGWFI1cuZQ

mr coffee
2022-09-20, 18:47:28
Gehe eine Woche zurück. Da findest du auch meine Aussage, dass die 4080 12GB so heißt, so dass nVidia irgendwas unter $1000 mit dem Namen anbieten kann. Jeder wusste hier, dass die 4080 nicht günstig sein wird, wenn zwei Varianten bekommt.
Hat ja dann leider nicht geklappt mit irgendwas unter 1000 und dem Namen.

crux2005
2022-09-20, 18:48:33
Was soll die Verarschung? Da steht doch gar nichts von?

Natürlich wird DLSS 3.0 auf Ampere und Turing in den 2.0 Mode wechseln. Sonst ist DLSS Geschichte für 90% der RTX User.

Komiker vom Beruf?

Nein. Er hat recht.

Schau dir einfach die Erklärung wie DLSS 3.0 ggü. DLSS 2.x funktioniert und es ist gleich klar wieso es nicht Abwärtskompatibel ist.
Wobei das natürlich auf den Shadern berechnet werden könnte. Dann wäre DLSS 3.0 auf Turing aber langsamer als DLSS 2.x (meine Annahme).

prinz_valium_2
2022-09-20, 18:49:15
Mal so spekuliert: 4070 699$ und 4060 499$

Jensen hat doch gesagt, er fände, ne Mittelklasse-GPU wäre eigentlich so viel Wert wie ne Konsole :freak::D

Also passt gut 499$ für ne 4060.

Edit: Und 4050 349$


Jo. Damals gabs die 70er für den Preis. Jetzt musst du dich mit der 50er zufrieden geben.
Mal sehen, was AMD macht

Grendizer
2022-09-20, 18:49:41
Hat ja dann leider nicht geklappt mit irgendwas unter 1000 und dem Namen.


Unter 1000$ schon. Wie gesagt, die Europreise sind unser persönliches Pech.

Aber ja die Preise sind zu hoch. Punkt, Ende.

Mal schauen, was AMD bringt. Als Davinci Resolve Nutzer bringt mir im schlimmsten Fall aber auch eine 3060 gebraucht von ebay einen Nutzen und dann eine AMD Karte zum zocken.

Neurosphere
2022-09-20, 18:50:02
spq0jSWRCqI

Allerdings auch kein Vergleich zu den alten Modi, nur on/off.

Ex3cut3r
2022-09-20, 18:50:04
Nein. Er hat recht.

Schau dir einfach die Erklärung wie DLSS 3.0 ggü. DLSS 2.x funktioniert und es ist gleich klar wieso es nicht Abwärtskompatibel ist.
Wobei das natürlich auf den Shadern berechnet werden könnte. Dann wäre DLSS 3.0 auf Turing aber langsamer als DLSS 2.x (meine Annahme).

Und was sollen man dann noch mit DLSS auf Turing und Ampere? Die fallen einfach hinten runter? Kann ich nicht glauben.

Meridian12
2022-09-20, 18:50:34
Wurde dort jetzt alles mit DLSS3.0 und RT gezeigt??

Oder gabs auch Ergebnisse mit reiner 4K Auflösung?
Ich brauche kein RT und verzichte gerne drauf. Somit sind mir Ergebnisse mit RT wurscht.

Platos
2022-09-20, 18:50:47
Jo. Damals gabs die 70er für den Preis. Jetzt musst du dich mit der 50er zufrieden geben.
Mal sehen, was AMD macht

Ja, bin gespannt, ob AMD schlechter ist und der Preis dann nachgeben muss oder was da läuft. Ich denke nicht, dass sie auch ein FSR 3.0 aus dem Ärmel zaubern (bei Launch). Daher dürfte es wohl schwierig werden. Hoffen kann man ja immer, aber das habe ich auch bei den Ada-Preisen ^^

dildo4u
2022-09-20, 18:51:17
Ich sehe das Argument für 400Watt Karten nicht wenn DLSS3 wirklich das kann was versprochen wird.
Eine 4060 spielt damit alles was von Konsole auf PC Portiert wurde das ist 90% vom AAA Markt.

Grendizer
2022-09-20, 18:51:46
Und was sollen man dann noch mit DLSS auf Turing und Ampere? Die fallen einfach hinten runter? Kann ich nicht glauben.


Du kennst doch nVidia.... wenn DLSS 3 das Argument für die 4xxx ist, dann wird es weniger Support für DLSS 2 geben

Ex3cut3r
2022-09-20, 18:52:21
Also beschneidet man sich einfach 90% der RTX User? Das traut sich nicht mal Nvidia.

Troyan
2022-09-20, 18:53:02
Ich sehe das Argument für 400Watt Karten nicht wenn DLSS3 wirklich das kann was versprochen wird.
Eine 4060 spielt damit alles was von Konsole auf PC Portiert wurde das ist 90% vom AAA Markt.

Wo ist der Unterschied zu Turing und Ampere? 3060 mit 12GB und DLSS Performance schafft fast durchgehenden mindesten 1080p/70FPS und ist somit für 4K Monitore gut genug.

Ansonsten skaliert es eben wie immer - Cyperpunk:
4090 -> 100 FPS
4060 -> 40 FPS

mr coffee
2022-09-20, 18:53:32
Unter 1000$ schon. Wie gesagt, die Europreise sind unser persönliches Pech.

Achso, ja, klar in Dollar ohne Steuern schon.

Platos
2022-09-20, 18:55:01
Als Davinci Resolve Nutzer bringt mir im schlimmsten Fall aber auch eine 3060 gebraucht von ebay einen Nutzen und dann eine AMD Karte zum zocken.

Das ist der Scheiss. Sobalds um Video geht, ist man mit AMD hald pootentiell Scheisse aufgestellt.

Ernsthafte Frage: Warum gibts da keine Konkurrenz von AMD?

dildo4u
2022-09-20, 18:56:48
Wo ist der Unterschied zu Turing und Ampere? 3060 mit 12GB und DLSS Performance schafft fast durchgehenden mindesten 1080p/70FPS und ist somit für 4K Monitore gut genug.

Ansonsten skaliert es eben wie immer - Cyperpunk:
4090 -> 100 FPS
4060 -> 40 FPS
Das Skaling war bisher oft Mist vermutlich da es teilweise CPU Limits gab.
Flight Sim gewinnt z.b kaum mit DLSS2 das ist der ideal Kandidat für 3.0.

crux2005
2022-09-20, 18:58:19
Und was sollen man dann noch mit DLSS auf Turing und Ampere? Die fallen einfach hinten runter? Kann ich nicht glauben.

Ahso, warte. Jetzt verstehe ich dich (vielleicht).

Ich glaube wenn ein Spiel DLSS 3.0 Unterstützt wird es automatisch auch einen DLSS 2.x Fallback haben wenn Ampere oder Turing im System sind.

Hoffe ich mal. :D

Neurosphere
2022-09-20, 18:58:37
Ich sehe das Argument für 400Watt Karten nicht wenn DLSS3 wirklich das kann was versprochen wird.
Eine 4060 spielt damit alles was von Konsole auf PC Portiert wurde das ist 90% vom AAA Markt.

Welche 4060?:rolleyes:;)

Also beschneidet man sich einfach 90% der RTX User? Das traut sich nicht mal Nvidia.

Ah, du hast also nur deine Wut darüber das deine teure GPU nun zum "alten" Eisen gehört und neue Features nicht mehr bekommt auf mich übertragen.

Die Frage ist halt ob DLSS 3.0 wirklich ein Kaufgrund ist. Zum einen haben wir die Interpolierten Frames, die wie schon erwähnt Lag bringen könnten oder auch andere Probleme. Optische Vorteile wird es vermutlich nicht unbedingt geben. Die ganzen anderen gezeigten Features abseits von DLSS (Omniverse) gibts auch auf den alten Karten.

davidzo
2022-09-20, 18:58:52
Ja, die "echte" 4080 ist da gerade mal ~25% schneller wie die 3090Ti. Kostet dabei aber mehr, wie jetzt eine 3090 im Handel.

Linke Seite die fake 4080 ist schwächer wie die 3090Ti in vielen Titeln und die echte 4080 gerade mal ~25% besser. Der Rest wird Cherrypicking sein.

Und die echte 3090 ist immerhin mit 24Gb VRAM deutlich zukunftsfähiger als ne 16gb oder 12gb karte.

Was meint ihr die 4070 ist RTX 3090 (Max. 3090TI)
7684 Shader

und die 4080 12/16 max. 35% über einer RTX 3090 TI
97xx Shader

und erst die 4090 um die 75 bis 100% doppelt so schnell wie die 3090TI
164xx Shader


Schaut euch bitte einfach den Takt und die Shaderanzahl an ...

Laut den Benchmarkleaks skaliert Lovelace aber noch schlechter mit der Shaderzahl als Ampere ohnehin schon. In Tflops ist die 4090 sogar 2,25x stärker als die 3090 (90Tflops vs 40Tflops), in realen Spielen sieht es aber nach 50-70% aus. Das ist richtig mickriges Scaling.

Nvidia GCN incoming... :freak:

Die fake-Frame Generierung wird doch in dem Marktsegment einer 4090 eh niemand benutzen. Das ist was für midrange und performance um auf Labtops oder günstigen GPUs trotzdem ein schickes Bild zu haben. Aber interpolierte Frames sind für kompetitive Spiele ein NoNo und ich glaube kaum dass die generierten Keyframes in Bewegung besser aussehen als DLSS 2.0 oder native Auflösung.

Man kauft ich doch keine 2000€ GPU um damit Frames zu interpolieren. ;D

Grendizer
2022-09-20, 18:59:57
Das ist der Scheiss. Sobalds um Video geht, ist man mit AMD hald pootentiell Scheisse aufgestellt.

Ernsthafte Frage: Warum gibts da keine Konkurrenz von AMD?


Kokurrenz gibt es ja. AMD nutzt OpenCL, nVidia CUDA. Es gibt vermutlich auch Programme mit mit OpenCL so gut wie mit CUDA laufen. Davinci tut das leider nicht. Ist eher ein Problem der Entwickler, das sie das nicht sauber untertstützen/optimieren.

Ex3cut3r
2022-09-20, 19:01:12
Ahso, warte. Jetzt verstehe ich dich (vielleicht).

Ich glaube wenn ein Spiel DLSS 3.0 Unterstützt wird es automatisch auch einen DLSS 2.x Fallback haben wenn Ampere oder Turing im System sind.

Hoffe ich mal. :D

Genau. Das mein ich. Natürlich was denn sonst? :biggrin:

Wenn jedes (neue) Game mit DLSS kommt, ist vermutlich automatisch 3.0 ist ja klar, aber einen Fallback auf 2.0 für Ampere und Turing muss es doch einfach geben! Sonst fallen 90% der RTX User aus dem DLSS Support raus. ^^


Ah, du hast also nur deine Wut darüber das deine teure GPU nun zum "alten" Eisen gehört und neue Features nicht mehr bekommt auf mich übertragen.

Nein überhaupt nicht, aber egal.

crux2005
2022-09-20, 19:03:03
Genau. Das mein ich. Natürlich was denn sonst? :biggrin:

Wird jedes (neue) Game mit DLSS kommt, ist vermutlich automatisch 3.0 ist ja klar, aber einen Fallback auf 2.0 für Ampere und Turing muss es doch einfach geben! Sonst fallen 90% der RTX User aus dem DLSS Support raus. ^^

Ja, ja. Davon gehe ich stark aus. Haben uns (inkl. du und Neurosphere) erst einfach nicht verstanden. :)

Edit: Und ich habe einen deiner Beiträge nur übersprungen.

mboeller
2022-09-20, 19:03:23
Vor allem auch losgelöst von der Spieleengine :confused:
Dann bekommt man im besten Fall etwas, das flüssig aussieht, aber trotzdem nur im Stottertempo die Spielereingaben verarbeitet? Wie soll sich das am Ende wirklich flüssig(er) anfühlen?

Motion Smoothing - Why Your New TV Looks So Bad:

https://www.youtube.com/watch?v=sor5qTTsOOQ

Ich hoffe doch DLSS3 ist was anderes. Ansonsten wird der Input-lag extrem. Du brauchst ja 2 Bilder um die mittleren Bilder zu interpolieren. Input-lag also >2 Frames. Bei 23fps ohne DLSS3 hast du dann Inputlag wie bei 23fps + Verarbeitungszeit (wenn ich jetzt nicht komplett falsch liege) und eine optische Framerate von 100fps ...

https://www.rtings.com/tv/tests/motion/motion-interpolation-soap-opera-effect#:~:text=Motion%20interpolation%20is%20a%20feature,there%20are%20a%20few%2 0downsides.

So kann das aber nicht funktionieren, oder??? Wäre sehr seltsam wenn Nvidia auf Technologie aus den 90er Jahren setzt.

Neurosphere
2022-09-20, 19:05:13
Genau. Das mein ich. Natürlich was denn sonst? :biggrin:

Wird jedes (neue) Game mit DLSS kommt, ist vermutlich automatisch 3.0 ist ja klar, aber einen Fallback auf 2.0 für Ampere und Turing muss es doch einfach geben! Sonst fallen 90% der RTX User aus dem DLSS Support raus. ^^

Vermutlich ja, du hast dann halt einfach weniger FPS. Wobei des den Fall bisher mit DLSS 1 und 2 nicht gibt weil keine HW Abhängigkeit besteht.

Ja, ja. Davon gehe ich stark aus. Haben uns (inkl. du und Neurosphere) erst einfach nicht verstanden. :)

:up:

dargo
2022-09-20, 19:05:55
Wurde dort jetzt alles mit DLSS3.0 und RT gezeigt??

Oder gabs auch Ergebnisse mit reiner 4K Auflösung?
Ich brauche kein RT und verzichte gerne drauf. Somit sind mir Ergebnisse mit RT wurscht.
Du Sündiger! Wie kannst du bloß ohne RT spielen?! :eek: ;)
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

crux2005
2022-09-20, 19:05:58
qyGWFI1cuZQ

Natürlich haben die schon eine 4090.

Troyan
2022-09-20, 19:06:21
nVidia beschreibt DLSS 3.0: https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/


So kann das aber nicht funktionieren, oder??? Wäre sehr seltsam wenn Nvidia auf Technologie aus den 90er Jahren setzt.

Raytracing stammt aus den 60ziger. :D

aufkrawall
2022-09-20, 19:06:53
https://youtu.be/qyGWFI1cuZQ

Natürlich haben die schon eine 4090.
Brace yourself for unbiased DLSS 3.0 reviews! ;D

Platos
2022-09-20, 19:07:59
Kokurrenz gibt es ja. AMD nutzt OpenCL, nVidia CUDA. Es gibt vermutlich auch Programme mit mit OpenCL so gut wie mit CUDA laufen. Davinci tut das leider nicht. Ist eher ein Problem der Entwickler, das sie das nicht sauber untertstützen/optimieren.

Ja ok, das stimmt. Aber dann gibts ja auch encoden. Ich habe ja keine AMD, kann das nicht beurteilen, aber da war doch nvidia immer besser bisher? Oder ist das mittlerweile nicht mehr so? Also mit besser meine ich bessere Bildqualität. CPU ist ja am besten schlussendlich.

why_me
2022-09-20, 19:08:09
So kann das aber nicht funktionieren, oder??? Wäre sehr seltsam wenn Nvidia auf Technologie aus den 90er Jahren setzt.

Nein, die kleben AI und Tensor Core drauf und dann ist das neu und hipp und viel besser. :freak:

Mal abwarten, wie das mit artefakten, mikrorucklern, inputlag etc. aussieht. Vielleicht gibts dann auch den "soap opera" effekt in spielen.... gruselig

Nazar
2022-09-20, 19:09:24
Bisher habe ich nur RTX Spiele gesehen, mit diesen Einstellungen:
3840 x 2160 Auflösung, bestmögliche Spieleinstellungen, DLSS Super Resolution, Performance-Modus, DLSS Frame Generation auf RTX 40-Serie, i9-12900K, 32 GB RAM, Win 11 x64. Alle DLSS-Daten zur Frame-Erstellung und Cyberpunk 2077 mit dem neuen Max Ray Tracing Mode basieren auf Pre-Release-Builds.
Die Aussagekraft gegenüber einer 3090Ti mit DLSS 2.X tendiert gegen 0.

Gibt es auch Benchmarks ohne DLSS und/oder RTX?
Kann die 40XX überhaupt noch RZ? ;D

crux2005
2022-09-20, 19:09:44
Brace yourself for unbiased DLSS 3.0 reviews! ;D

Ahand der kurzen CP77 Clips sieht DLSS 3.0 auf den ersten Blick nicht besser oder schlechter aus als DLSS 2.x. Wird primär nur um die Leistungssteigerung gehen. Finde ich zwar schade, aber ist wohl der einfachere Weg als die Qualität zu erhöhen.

Gibt es auch Benchmarks ohne DLLS und/oder RTX?

Aktuell nicht, nein.

BlacKi
2022-09-20, 19:10:00
Die Frage ist halt ob DLSS 3.0 wirklich ein Kaufgrund ist. Zum einen haben wir die Interpolierten Frames, die wie schon erwähnt Lag bringen könnten oder auch andere Probleme. Optische Vorteile wird es vermutlich nicht unbedingt geben. Die ganzen anderen gezeigten Features abseits von DLSS (Omniverse) gibts auch auf den alten Karten.


doch, optisch wird dlss3 auch besser. und der punkt mit dem extra lag, ist wohl nur bei fehlendem reflex und 60hz display ein problem. für die 120hz spieler wird das wohl weniger ein problem.


es ist schade dass das neue COD nicht direkt auf dlss3 geht. vermutlich im nachhinein. dafür steht direkt witcher 3 auf der liste XD

Wuge
2022-09-20, 19:10:52
Das sieht echt meh aus... kann mal bitte einer ne Brutforce GPU für extreme Auflösung bauen? Oder direkt für VR? :-/

Grendizer
2022-09-20, 19:11:32
Das sieht echt meh aus... kann mal bitte einer ne Brutforce GPU für extreme Auflösung bauen? Oder direkt für VR? :-/


Vermutlich ist gerade das einfach nicht mehr technisch möglich. Mal schauen, was AMD mit der neuen Architektur leisten kann.

Thunder99
2022-09-20, 19:11:50
Hut ab, Nvidia bringt eine 4080 mit 12 und 16GB auf zwei verschiedene Chips. Damit wollen sie anscheinend Namen sparen für Refresh Karten.
Spricht für längere Laufzeit der Serie.

Weiter um den Mehrpreis abzufedern nennt man die Karten so.
Der Aufschlag ist bitter bei der 80er aber angesicht der Lage zu erwarten. Preise werden wohl nachhaltig immer höher werden...

Bin gespannt was die Karten ohne DLSS können, da das die Referenz ist wie Effizient sie mit der Power umgehen.
Was hier schon geschrieben wurde verheißt nichts gutes. Theoretisch viel Power, praktisch kaum auf die Straße zu bringen. Trotz den hohen Cache scheint es schwierig zu sein.

Sardaukar.nsn
2022-09-20, 19:13:14
Man kauft ich doch keine 2000€ GPU um damit Frames zu interpolieren. ;D

Genau, und zum Glück gibt es ja noch gut vergleichbare DX12 Benchmarks welche den Gewinn in Rohleistung einpreisen. Wenn es dort annähernd eine Verdopplung gibt, bin ich z.B. bereit eine neue GPU zu kaufen.

Ex3cut3r
2022-09-20, 19:13:26
Brace yourself for unbiased DLSS 3.0 reviews! ;D

Oh Gott, deren Ampere/RTX 3080 Preview war damals genauso so ein Bullshit Marketng, ohne FPS, dafür mit toller % Angabe.

Linmoum
2022-09-20, 19:13:34
Ist die 4090 eigentlich gar keinen 8K GPU mehr, obwohl es die 3090 noch war?

Na mal schauen. Das ist alles so konfus und undurchsichtig, sowas hab ich schon lange nicht mehr erlebt. Erweckt den Eindruck, dass man alles abseits von DLSS am liebsten schweigend unter den Teppich kehren würde.

Bei dem massiven Anstieg an FP32-ALUs und Takt ist es mir aber immer noch ein Rätsel, wie sie da nur auf <=50% Performancezuwachs klassisch kommen wollen.

BlacKi
2022-09-20, 19:13:55
Ahand der kurzen CP77 Clips sieht DLSS 3.0 auf den ersten Blick nicht besser oder schlechter aus als DLSS 2.x. Wird primär nur um die Leistungssteigerung gehen. Finde ich zwar schade, aber ist wohl der einfachere Weg als die Qualität zu erhöhen.



Aktuell nicht, nein. hast du dein video nicht gesehen? https://youtu.be/qyGWFI1cuZQ?t=77

Ex3cut3r
2022-09-20, 19:17:36
hast du dein video nicht gesehen? https://youtu.be/qyGWFI1cuZQ?t=77
Und was soll mir das jetzt sagen? Natürlich sehen 120FPS flüssiger aus, als 60 FPS. :confused:

BlacKi
2022-09-20, 19:17:40
Bei dem massiven Anstieg an FP32-ALUs und Takt ist es mir aber immer noch ein Rätsel, wie sie da nur auf <=50% Performancezuwachs klassisch kommen wollen.


scheinbar hat man bei alten spielen probleme die hardware einheiten auszulasten. wahrscheinlich liegt dort wohl auch nicht die volle tdp an.

Und was soll mir das jetzt sagen? Natürlich sehen 120FPS flüssiger aus, als 60 FPS.
hab nicht umsonst gequoted.

Thunder99
2022-09-20, 19:17:49
Ist die 4090 eigentlich gar keinen 8K GPU mehr, obwohl es die 3090 noch war?

Na mal schauen. Das ist alles so konfus und undurchsichtig, sowas hab ich schon lange nicht mehr erlebt. Erweckt den Eindruck, dass man alles abseits von DLSS am liebsten schweigend unter den Teppich kehren würde.

Bei dem massiven Anstieg an FP32-ALUs und Takt ist es mir aber immer noch ein Rätsel, wie sie da nur auf <=50% Performancezuwachs klassisch kommen wollen.

Tippe auf der Cache macht gleicht es nicht so aus wie gewünscht und ansonsten Treiber oder generell schwierig eine gute Auslastung hin zu bekommen.
Eventuell gibt es aber Situationen wo die Rohrleistung auf die Straße gebracht werden kann, wie damals GNC

just4FunTA
2022-09-20, 19:17:57
ach du scheise: :X


RTX 4080 (16GB) ab 1.469 €
RTX 4080 (12GB) ab 1.099 €

Verfügbar ab November

https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4080/

Meridian12
2022-09-20, 19:18:00
Vermutlich werden sie bei dem Prozess und Bauteilverfügbarkeit auch gar nicht für viel mehr Leute liefern können.
Du Sündiger! Wie kannst du bloß ohne RT spielen?! :eek: ;)
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png


Die Maske ist mit RT und DLSS3.
Zumal die Werte 4 fach usw auch für den Arsch sind.

Was bringt es mir, wenn die 3090ti 5 Frames in den Settings bringt und die 4090 4 fache Geschwindigkeit? Dann habe ich 20 Frames.

Zumal DLSS für mich halt auch immer dafür steht, dass man ohne zu langsam ist und deswegen DLSS braucht.

Oder warum sollte man DLSS benutzen,wenn man ohne zB 100 Frames hat?

aufkrawall
2022-09-20, 19:20:02
hast du dein video nicht gesehen? https://youtu.be/qyGWFI1cuZQ?t=77
Würde ohne Video-Kompression sicherlich noch stärker ins Auge springen. Für mich ist das nichts, mich nervt selbst das reguläre DLSS Smearing immer noch...

Exxtreme
2022-09-20, 19:20:27
Die Preise sind jenseits von gut und böse. Ich hoffe, AMD ist hier vernünftiger.

r3ptil3
2022-09-20, 19:21:29
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.

Linmoum
2022-09-20, 19:22:11
Ich glaube ja vor allem auch, dass die Chips sogar größer sind als bisher vermutet. Das wird nicht nur Gier bei NV sein, N5 ist einfach (auch) extrem teuer. Deswegen geht AMD einen komplett anderen Weg.

Ex3cut3r
2022-09-20, 19:22:33
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.
Da sahen die 30er Versionen IHMO besser aus. Aber gut, im Gehäuse sieht man eh nur einen Ziegelstein stecken. ^^

Sardaukar.nsn
2022-09-20, 19:22:34
@bardh: Ich hatte es bei deinem ersten Screenshot schon befürchtet, ist mir aber auch direkt negativ aufgefallen.

Zusammen mit dem Cooling Exoskelet bla-bla wenn ich mich recht erinnere. Erster Eindruck halt echt mies.

BlacKi
2022-09-20, 19:24:27
Die Preise sind jenseits von gut und böse. Ich hoffe, AMD ist hier vernünftiger.ich hab da so eine vermutung, das der refresh günstiger wird. vl sind doch noch zuviele ampere karten auf der halde und die 4080 super kommt als full chip für 999$ und 4080ti für 1199$ in einigen monaten nach dem amd lineup.

Nazar
2022-09-20, 19:24:37
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.

Jetzt fehlen nur noch die alten Föhn-Witze dazu.
Was für riesige Klopper das sind. :eek:

DeadMeat
2022-09-20, 19:27:23
Wer kauft schon 2022 noch eine GPU ohne Cooling Exoskelet.

Neurosphere
2022-09-20, 19:29:18
Was ich auch schade finde, kein PCIe 5.0, was nicht so schlimm ist weil der Mehrwehrt halt gering ist.


Aber warum kein DP 2.0?!?!?

So kann man die Karte bei zukünftigen Monitoren auch wieder vergessen.

horn 12
2022-09-20, 19:29:36
DLSS 3.0
Wird immer und dauernd erwähnt.

Ist kein RT / und DLSS 3.0 aktiv kläfft die 4080 12 GB wohl nicht mal an der 3080TI
und die 4080 16GB wird maximal 10% schneller sein als RTX 3090TI

PS:
Wo sind bitte die NV Eigenen Benchmarks Ohne RTX RT oder DLSS 3.0
Da setzt man sich wohl kaum bis nicht ausreichend von der RTX 3000 er Serie ab.

@Linmoum sollte Recht behalten was er aufzeigte.

Linmoum
2022-09-20, 19:30:15
Ja, DP1.4 Ende 2022 ist noch lächerlicher als Intels Arc ohne richtiges HDMI 2.1.

AffenJack
2022-09-20, 19:31:29
Die Benchmarks machen einfach vorne und hinten keinerlei Sinn:

https://pbs.twimg.com/media/FdHHOKXWYAUmIH1?format=jpg&name=4096x4096

Mit der 30er Serie vergleiche ich nichtmal, weil komplett sinnlos mit DLSS3, aber selbst die 40er haut komplett nicht hin. Cyberpunk 4090 vs 4080 +30%, die anderen RTX Spiele noch weniger. Alte Games nicht groß anders. Dabei müsste die 4090 mit 60% mehr Shader und Bandbreite mehr können, wenn man den Boosttaktraten glauben darf. Sonst muss die 4080 deutlich höher takten.

Exxtreme
2022-09-20, 19:31:37
Wie ich schon befürchtet habe, das wird eine Bruteforce Generation.

prinz_valium_2
2022-09-20, 19:32:09
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.
Die Tuf sieht doch ganz gut aus

Ex3cut3r
2022-09-20, 19:32:31
DLSS 3.0
Wird immer und dauernd erwähnt.

Ist kein RT / und DLSS 3.0 aktiv kläfft die 4080 12 GB wohl nicht mal an der 3080TI
und die 4080 16GB wird maximal 10% schneller sein als RTX 3090TI

PS:
Wo sind bitte die NV Eigenen Benchmarks Ohne RTX RT oder DLSS 3.0
Da setzt man sich wohl kaum bis nicht ausreichend von der RTX 3000 er Serie ab.

@Linmoum sollte Recht behalten was er aufzeigte.
Da wird man abwarten müssen auf unabhängige Benches. Aber 10%+ für die 4080 gegenüber der 3090 Ti, ist absurd. Nvidia Hate und alle machen mit mal ausgeklammert.

Grendizer
2022-09-20, 19:32:54
Ja, DP1.4 Ende 2022 ist noch lächerlicher als Intels Arc ohne richtiges HDMI 2.1.

Ohje ... ja das ist eigentlich übel. Was soll so ein Mist eigentlich.

Neurosphere
2022-09-20, 19:34:15
Ohje ... ja das ist eigentlich übel. Was soll so ein Mist eigentlich.


Da dürfte es eigentlich keinen rationalen Grund für geben. DP 2.0 sollte doch schon vollständig in HW Anwendbar sein oder gibt es da noch Hindernisse?

Zwischen HDMI 2.1 und DP 2.0 liegt immerhin die knapp vierfache Bandbreite!


Burner::biggrin:

https://pbs.twimg.com/media/FdHOpbJaIAActus?format=jpg&name=large!

Linmoum
2022-09-20, 19:35:57
Die Benchmarks machen einfach vorne und hinten keinerlei Sinn:

https://pbs.twimg.com/media/FdHHOKXWYAUmIH1?format=jpg&name=4096x4096

Mit der 30er Serie vergleiche ich nichtmal, weil komplett sinnlos mit DLSS3, aber selbst die 40er haut komplett nicht hin. Cyberpunk 4090 vs 4080 +30%, die anderen RTX Spiele noch weniger. Alte Games nicht groß anders. Dabei müsste die 4090 mit 60% mehr Shader und Bandbreite mehr können, wenn man den Boosttaktraten glauben darf. Sonst muss die 4080 deutlich höher takten.Ja, nach der Präsentation ist man mit mehr Fragezeichen im Gesicht zurückgeblieben als es eigentlich der Fall sein sollte.

Ich hoffe nicht, dass es bei den Reviews dann das böse Erwachen gibt, weil die Benchmarks von NV hier... nunja.

Neurosphere
2022-09-20, 19:36:57
Da dürfte es eigentlich keinen rationalen Grund für geben. DP 2.0 sollte doch schon vollständig in HW Anwendbar sein oder gibt es da noch Hindernisse?

Zwischen HDMI 2.1 und DP 2.0 liegt immerhin die knapp vierfache Bandbreite!


Burner::biggrin:

https://pbs.twimg.com/media/FdHOpbJaIAActus?format=jpg&name=large!


Noch besser:

https://twitter.com/9550pro/status/1572272657760153600

https://twitter.com/i/status/1572272657760153600




:freak::biggrin::eek:

Ex3cut3r
2022-09-20, 19:37:40
Ohje ... ja das ist eigentlich übel. Was soll so ein Mist eigentlich.

Und warum genau? DP 1.4 mit DSC reicht für 4K mit 240HZ. :freak:

X-Bow
2022-09-20, 19:39:38
nVidia beschreibt DLSS 3.0: https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

Ah ok, also nVidia mach bei DLSS 3.0 aus einem berechneten Frame mehrere und gibt die Zeitversetz aus bis der nächste echte berechnete Frame kommt damit einfach nur die FPS Anzeige höher ist? Mega beschiss, aber scheinbar braucht nVidia das... Da hatten sie die GPU auch Lance Armstrong nennen können:rolleyes:

Meridian12
2022-09-20, 19:39:41
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.

Soll die Karte eigentlich IN den Rechner oder so wie der MORA Radiator ausserhalb :D

Grendizer
2022-09-20, 19:41:25
Und warum genau? DP 1.4 mit DSC reicht für 4K mit 240HZ. :freak:


War da nicht dann eine Begrenzung wegen HDR schon gegeben ? Bei 120 fps ?

Edit: Nein, war es nicht... ok mein Fehler

Dural
2022-09-20, 19:42:15
Vom Cache wurde nichts gesagt?

BlacKi
2022-09-20, 19:43:23
ich bin etwas verwirrt. ist jetzt dlss sr(Deep learning super samplingsuper resolution) was neues? und im performance mode wundern mich 4x+ nicht wirklich.

L233
2022-09-20, 19:44:41
Noch besser:

https://twitter.com/9550pro/status/1572272657760153600

https://twitter.com/i/status/1572272657760153600

:freak::biggrin::eek:

In ein paar Jahren werden wir die Grafikkarte nicht mehr in den PC einbauen, sondern den PC in die Grafikkarte.

Meridian12
2022-09-20, 19:44:52
Also im Endeffekt weiß keiner,wie die normale 4K Leistung der Karten sind ohne irgendwelchen Firlefranz?

AffenJack
2022-09-20, 19:46:00
Ja, nach der Präsentation ist man mit mehr Fragezeichen im Gesicht zurückgeblieben als es eigentlich der Fall sein sollte.

Ich hoffe nicht, dass es bei den Reviews dann das böse Erwachen gibt, weil die Benchmarks von NV hier... nunja.

Es ist klar, dass Nvidia mit den Benches eher verschleiert, als wirklich die Performance zu zeigen.

Ich frag mich gerade, ob Nvidia nicht fast alle Benches im CPU Limit gemacht hat. Man muss sehen, dass wir hier überall von DLSS Performance reden. All die Benches sind also bei 1080p gerendert?

Ach nee, Valhalla und Resident Evil haben doch gar kein DLSS.

Dural
2022-09-20, 19:46:05
Also im Endeffekt weiß keiner,wie die normale 4K Leistung der Karten sind ohne irgendwelchen Firlefranz?

Nein.

Ich habe ja langsam den Verdacht das da nix gross mit Cache ist.

mboeller
2022-09-20, 19:46:36
Die Benchmarks machen einfach vorne und hinten keinerlei Sinn:

https://pbs.twimg.com/media/FdHHOKXWYAUmIH1?format=jpg&name=4096x4096



links = die fps die du jetzt schon bekommst (Cherry picking beachten)

rechts = das was du mit neuen Games so in 3-4 Jahren bekommen kannst (die Spieleentwicklung dauert halt immer länger) ;)

Ex3cut3r
2022-09-20, 19:46:50
Also im Endeffekt weiß keiner,wie die normale 4K Leistung der Karten sind ohne irgendwelchen Firlefranz?

Nein, aber das war immer so. Man kann nur schätzen. Richtige Reviews werden aufklären.

gedi
2022-09-20, 19:46:59
Die bewerben die neue Generation mit einem verbesserten Upscaler? Größter fail ever!

dargo
2022-09-20, 19:47:15
Da wird man abwarten müssen auf unabhängige Benches. Aber 10%+ für die 4080 gegenüber der 3090 Ti, ist absurd. Nvidia Hate und alle machen mit mal ausgeklammert.
Nur mal langsam... die 3090TI säuft 450W, die 4080 "nur" 320W obwohl sie schneller ist. Das ist kein schlechtes Ergebnis! Bei gleicher Performance dürfte die 4080 unter 300W rauskommen.

Jupiter
2022-09-20, 19:47:16
"New Max Ray Tracing Mode", also noch größere Leistungsverschwendung als die Psycho-GI. Was ein Beschiss...

Psycho-GI ist das beste GI, da es einen enormen Unterschied ausmacht. Nicht das DF-Video gesehen?

Cyberpunk 2077 zu nehmen ist logisch, da es grafisch das absolute Maß aller Dinge ist.


Das DLSS3 nur für Ada-karten kommt gefällt mir hingegen gar nicht.

dargo
2022-09-20, 19:51:19
Also im Endeffekt weiß keiner,wie die normale 4K Leistung der Karten sind ohne irgendwelchen Firlefranz?
Kannst du die NV-Folie nicht lesen? :freak:

Troyan
2022-09-20, 19:51:44
Es ist klar, dass Nvidia mit den Benches eher verschleiert, als wirklich die Performance zu zeigen.

Ich frag mich gerade, ob Nvidia nicht fast alle Benches im CPU Limit gemacht hat. Man muss sehen, dass wir hier überall von DLSS Performance reden. All die Benches sind also bei 1080p gerendert?

Passen doch. Die 4080 12GB hat genauso viel Rechenleistung wie die 3090TI und performt in den drei Spielen auf dem Niveau. Ist immer noch eine Grafik-Pipeline dazwischen. Die 4090 hat zwar fast doppelt soviel Rechenleistung und Bandbreite, aber ich glaube nicht, dass alles verdoppelt wurde (GA104 hatte 6 Rasterizer). Außerdem gibt es noch die API, die bei Rasterizing ineffizient ist.

Und am Ende weiß auch niemand, wo der reale Takt anliegt.

/edit: Siehe Computerbase - https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
In Doom Eternal ist die 3090TI 73% schneller, in Valhalla nur 50%.

Ex3cut3r
2022-09-20, 19:51:48
Psycho-GI ist das beste GI, da es einen enormen Unterschied ausmacht. Nicht das DF-Video gesehen?

Cyberpunk 2077 zu nehmen ist logisch, da es grafisch das absolute Maß aller Dinge ist.


Das DLSS3 nur für Ada-karten kommt gefällt mir hingegen gar nicht.

Soso.

Ganz ehrlich alles andere als Medium RTGI ist Verschwendung.

Wo ist der Unterschied hier zwischen Psycho und Medium? Ich sage es dir. Im FPS Verlust.
Jetzt mal im ernst, was bildest du dir da eigentlich ein mit Psycho Setting? Da ist kein visueller Unterschied, bzw. muss er sehr sehr klein sein.

https://abload.de/thumb/cyberpunk2077_2022_09ovi7e.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09ovi7e.jpg) https://abload.de/thumb/cyberpunk2077_2022_09dxepj.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09dxepj.jpg)

Dural
2022-09-20, 19:52:00
Na die Leistung wird schon da sein, die reinen Rohdaten sprechen doch für sich.

Aber irgend wie macht halt doch alles keinen Sinn.

dargo
2022-09-20, 19:52:56
Cyberpunk 2077 zu nehmen ist logisch, da es grafisch das absolute Maß aller Dinge ist.

Jo... insbesondere beim LOD absolut Next-Gen. ;D ;D ;D

Jupiter
2022-09-20, 19:54:01
Das ist fast das Einzige. Grafisch vergleichbare Spiele existieren aktuell nicht, weil alles andere viel schlechter ist.

Soso.

Ganz ehrlich alles andere als Medium RTGI ist Verschwendung.

Wo ist der Unterschied hier zwischen Psycho und Medium? Ich sage es dir. Im FPS Verlust.
Jetzt mal im ernst, was bildest du dir da eigentlich ein mit Psycho Setting? Da ist kein visueller Unterschied, bzw. muss er sehr sehr klein sein.

https://abload.de/thumb/cyberpunk2077_2022_09ovi7e.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09ovi7e.jpg) https://abload.de/thumb/cyberpunk2077_2022_09dxepj.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09dxepj.jpg)


Siehe ab 16:30 Minuten

https://youtu.be/pC25ambD8vs?t=990

Wuge
2022-09-20, 19:54:27
Und warum genau? DP 1.4 mit DSC reicht für 4K mit 240HZ. :freak:

Aber nicht für 2x4kx120Hz für meine Pimax 8kx. Und für die 12k schon gleich gar nicht. Grrr....

Linmoum
2022-09-20, 19:54:45
Na die Leistung wird schon da sein, die reinen Rohdaten sprechen doch für sich.Wenn es nach "reinen Rohdaten" geht, hätte Vega alles von NV in Grund und Boden stampfen müssen.

Die paar Spiele ohne DLSS(+RT) zeigen doch, dass es da irgendwo massive Probleme zu geben scheint. Wenn in UHD teilweise nur +50% herauskommen, dann limitert da irgendwas extrem hart.

Dural
2022-09-20, 19:56:14
Zwischen Ampere und ada dürfte nicht viel liegen, und Ampere ist in Sachen Rohrleistung / fps durchaus bekannt.