PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33 34 35 36 37 38 39 40 41

Neurosphere
2022-10-06, 20:12:57
Du hast das Prinzip von UV nicht verstanden.
Natürlich kannst du mit 3000 Mhz und 400 Watt OC unterwegs sein.

Oder du spielst mit den Voltages rum und erreichst bei möglichst niedriger Voltage z.b 2800 dauerhaft unter Vollastlast, dann drosselst du die Karte vielleicht noch 5 oder 10 Prozent im PT runter und fällst bei Vollast z.b auf 2750 Mhz. Dann hast eben anstatt 407 Watt, 366 Watt, durch gutes UV sogar vielleicht nur 300-350 Watt, je nachdem wie gut der Sweetspot bei den Voltages sein wird. Bei 2750 Mhz sind das dann in der Szene anstatt 229 FPS eben 209 FPS.

Bei den hohen FPS ist das aber Shice-Egal, für dein Auge spielt es keine Rolle ob du jetzt 209 FPS oder 229 FPS hast.

Nimm an die 4090 liefert z.b auch in 3K Auflösungen, hohe FPS welche am CPU Limit kratzen.
Dann ist es egal ob du bei 3K und 100 HZ eben 185 FPS erreichst oder 165, eben weil viel Grundpower da ist.

Aber die 60-100 Watt weniger merkst du deutlicher, sowohl im Verbrauch, Wärme als auch letztendlich bei der Stromrechnung.
Falls ein Spiel trotzdem maximal fördert, kannst auch zusätzlich ein OC-Profil fahren.

Das OC Profil kannst auch mit UV ausloten, vielleicht brauchen auch die 3000 Mhz nicht die hohen Voltages wie angegeben.
Hier gilt es ausprobieren und rantasten, also PT hoch und Voltages runter und dann schauen, ob 3000 Mhz jederzeit gehalten werden können.
Vielleicht schaffst du auch nur mit deutlicher niedriger Voltage 2900 Mhz dauerhaft, spiegelt sich aber kaum in den FPS, dafür im Verbrauch und im Temp-Target.

Nur meistens lohnt sich OC erst dann wirklich, wenn du an der 60 FPS Grenze oder so kratzt, Quake 2 RTX, oder Serious Sam RTX sind so Beispiele.

Hier ein Beispiel für UV bei meiner 3090

DL2 --> maxxed out 3440p

850 MV
1890 Mhz
https://abload.de/thumb/voltagetzeuu.png (https://abload.de/image.php?img=voltagetzeuu.png)

OC-UV
1890 MHZ 351 Watt, 75 FPS
https://abload.de/thumb/uv-oc0vfg2.png (https://abload.de/image.php?img=uv-oc0vfg2.png)

UV
-20% PT. 277 Watt, 64 FPS
https://abload.de/thumb/uv-uv9qdlq.png (https://abload.de/image.php?img=uv-uv9qdlq.png)


merkst selber ;)

Erstmal abwarten wie gut das wirklich klappt mit den drei GHz bei 450 Watt...

https://videocardz.com/newz/nvidia-geforce-rtx-4090-spotted-reaching-3-0-ghz-and-616-watts-with-gpu-stress-tool

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-1.jpg

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-2.jpg

Thunder99
2022-10-06, 20:14:25
"nur" +70% ist aber schwach, finde ich...

dargo
2022-10-06, 20:19:17
Erstmal abwarten wie gut das wirklich klappt mit den drei GHz bei 450 Watt...

https://videocardz.com/newz/nvidia-geforce-rtx-4090-spotted-reaching-3-0-ghz-and-616-watts-with-gpu-stress-tool

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-1.jpg

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-2.jpg
Die 3Ghz liegen offensichtlich nur an bei schwächerer Last und/oder kalter GPU.

Gott1337
2022-10-06, 20:19:53
Ich versteh gar nicht waurm die NT Hersteller die Kabel kostenlos rausgeben sollten. Die Adapter liegen der Graka bei Ende. Wer mehr möchte soll halt für etwas neues zahlen.

Snoopy69
2022-10-06, 20:23:02
War 2020 bei Seasonic eben so. Dem Beispiel könnten Andere ruhig auch mal folgen

Snoopy69
2022-10-06, 20:24:22
"nur" +70% ist aber schwach, finde ich...
Stimmt - der "Sprung" von der 2.000er-Serie zur 3.000er-Serie, war "höher" mit ~33% :freak:

basix
2022-10-06, 20:41:08
Fun Facts:
|Nvidia AD102|Intel 4004|Faktor / Differenz
Release|2022|1971|51 Jahre
Prozess|4nm|10um|~221
Die Size|608mm2|12mm2|~50.7x
Transistoren|76 Mrd.|2250|~33.8 Mio.
Density|125 MTr/mm2|0.188 kTr/mm2|~665'000x
Taktfrequenz|~3.0 Ghz|740 kHz|~4000x
INT4 OPS|1472 TOPS|92 kOps|~16 Mrd.


We have come a long way in 50 Years :D

Intel 4004:
https://en.wikichip.org/wiki/intel/mcs-4/4004
https://en.wikipedia.org/wiki/Intel_4004

Thunder99
2022-10-06, 20:49:17
Stimmt - der "Sprung" von der 2.000er-Serie zur 3.000er-Serie, war "höher" mit ~33% :freak:

Bezogen auf die Prognosen 2x bis 2.2x so schnell wie 3090(Ti) ;)

Outsider82
2022-10-06, 20:59:07
Bezogen auf die Prognosen 2x bis 2.2x so schnell wie 3090(Ti) ;)

Tausche die 3090 gegen eine 3080 und dann passt die Prognose mit 2x

Komment von einer 3080 is der Sprung zur 4090 schon ordentlich und eben
zumindest nun bezogen auf den Nvidia Overwatch 2 Bench zweimal so schnell wie eine 3080

Und ne 3080 Strix ballert auch bis zu 450 Watt raus genau wie ne 4090.
und für genau die selben 450 Watt bekommt man nun aber die doppelte Leistung ... Was berechtigt ist ist die Preis Kritik die is halt leider echt überzogen.... aber nunja ... 2022 hat sich halt etwas geändert in der Welt.

Thunder99
2022-10-06, 21:00:26
Bei 450W, einfach zu viel (selbst die 300W+)
Bin dennoch gespannt was die wirklich drauf haben die Karten :)

Neurosphere
2022-10-06, 21:10:01
Tausche die 3090 gegen eine 3080 und dann passt die Prognose mit 2x

Komment von einer 3080 is der Sprung zur 4090 schon ordentlich und eben
zumindest nun bezogen auf den Nvidia Overwatch 2 Bench zweimal so schnell wie eine 3080

Und ne 3080 Strix ballert auch bis zu 450 Watt raus genau wie ne 4090.

Wenn die 3080 Strix mit 450 Watt und entsprechenden Taktraten läuft ist der Unterschied auch nicht mehr Faktor 2.

Outsider82
2022-10-06, 21:16:28
Wenn die 3080 Strix mit 450 Watt und entsprechenden Taktraten läuft ist der Unterschied auch nicht mehr Faktor 2.

Laut 3D Center sinds 204 % von 3080 auf 4090 .. nunja .. dann lass es halt 195 % sein mit ner 3080 Strix oder so um den dreh ... das is schon ordentlich aber auch ordentlich teuer vorallem bezogen auf eben ne 3080 strix
Performance mässig geht die 4090 klar find ich nur der Preis nunja

https://abload.de/img/9999bbf7g.png

BlacKi
2022-10-06, 21:19:03
Stimmt - der "Sprung" von der 2.000er-Serie zur 3.000er-Serie, war "höher" mit ~33% :freak:immer diese urban legends...

Neurosphere
2022-10-06, 21:23:54
Laut 3D Center sinds 204 % von 3080 auf 4090 .. nunja .. dann lass eshalt 195 % sein mit ner 3080 Strix oder so um den dreh ... das is schon ordentlich aber auch ordentlich teuer vorallem bezogen auf eben ne 3080 strix
Performance mässig geht die 4090 klar find ich nur der Preis nunja

https://abload.de/img/9999bbf7g.png

Generell, erstmal Tests abwarten.

Das ist von einem Nvidia Slide von einem Game....

Ist ja kommende Woche soweit.

Snoopy69
2022-10-06, 21:33:42
Bei 450W, einfach zu viel (selbst die 300W+)
Bin dennoch gespannt was die wirklich drauf haben die Karten :)
Steht ja Jedem frei, wie er das PL seiner 4090 einstellt...
Stell das PL der 3080 und der 4090 auf zb 350W ein, dann kannst du die Effizienz, der 4090 ermitteln.

Outsider82
2022-10-06, 21:39:05
Generell, erstmal Tests abwarten.



Wenn das alle machen würden hätte dieser Thread 0 Beiträge :biggrin:

Ich denke aber auch das dieser Overwatch 2 Bench eher Best Case war
aber eben dennoch erreichbar unter bestimmten Spielen.

Und dann stellt sich eben noch die Frage wie das dann unter 4K aussieht und bei Ray Games .. naja .. dienstag is ja nich mehr so lange hin.

nordic_pegasus
2022-10-06, 21:59:38
Fun Facts:
|Nvidia AD102|Intel 4004|Faktor / Differenz
Release|2022|1971|51 Jahre
Prozess|4nm|10um|~221
Die Size|608mm2|12mm2|50.7x
Transistoren|76 Mrd.|2250|33.8 Mio.
Taktfrequenz|~3.0 Ghz|740 kHz|~4000x
INT4 OPS|1472 TOPS|92 kOps|16 Mrd.



ich verstehe Deine Berechnung zum Prozess nicht. 4 nm entsprechen 0,000000004 m, 10 µm entsprechen 0,00001 m. Das ergibt den Faktor 2500.

2^21 sind 2097152 ?!?

Thunder99
2022-10-06, 22:16:12
Steht ja Jedem frei, wie er das PL seiner 4090 einstellt...
Stell das PL der 3080 und der 4090 auf zb 350W ein, dann kannst du die Effizienz, der 4090 ermitteln.
Naja, einfach runter stellen ist nicht oder ging zumindest früher nicht ohne Nebenwirkungen. Der Test bei Ampere hat da die Problem aufgezeigt.
Mal schauen.

Monsta
2022-10-06, 22:28:38
Was wurde hier vorher hier vorher erzählt das wird der größte Sprung aller Zeiten. Mindestens Faktor 2 bla bla.
Im ungüstigen Fall von der 3080 10gb auf die 4080 12gb sind es in Oberwatch sage und schreibe 19%. Das ist ja wirklich Wahnsinn. Unglaubliche Leistungsexplosion. Da wechseln bestimmt viele von der 3080 auf die 4080.

Die vergleiche ja aber die 4090 ist doppelt so schnell wie die 3080, das ist eine ganz andere Preisklasse. Dämlicher Vergleich.

Ex3cut3r
2022-10-06, 22:33:56
Was wurde hier vorher hier vorher erzählt das wird der größte Sprung aller Zeiten. Mindestens Faktor 2 bla bla.
Im ungüstigen Fall von der 3080 10gb auf die 4080 12gb sind es in Oberwatch sage und schreibe 19%. Das ist ja wirklich Wahnsinn. Unglaubliche Leistungsexplosion. Da wechseln bestimmt viele von der 3080 auf die 4080.

Die vergleiche ja aber die 4090 ist doppelt so schnell wie die 3080, das ist eine ganz andere Preisklasse. Dämlicher Vergleich.

Dazu kommt noch das der Full AD102 aka RTX 4090 Ti nochmal um einiges schneller ist, da er nochmal gigantischer ist. Die 3090 Ti war für 3090 Besitzer nix dolles (+10-15%) aber die 4090 Ti wird nochmal mindestens 30% schneller sein, als die 4090. Bestimmt mit einer UVP von 2.999€ :freak:

bbott
2022-10-06, 22:36:44
Was wurde hier vorher hier vorher erzählt das wird der größte Sprung aller Zeiten. Mindestens Faktor 2 bla bla.
Im ungüstigen Fall von der 3080 10gb auf die 4080 12gb sind es in Oberwatch sage und schreibe 19%. Das ist ja wirklich Wahnsinn. Unglaubliche Leistungsexplosion. Da wechseln bestimmt viele von der 3080 auf die 4080.

Die vergleiche ja aber die 4090 ist doppelt so schnell wie die 3080, das ist eine ganz andere Preisklasse. Dämlicher Vergleich.
Irgend wie müssen es die FB es sich ja schön reden.
Ich bin der Meinung NV hat diesmal einfach DLSS 3.0 mit ein gepreist, dann sin die RTX 4000er doch ein Schnäppchen :freak:

Auch soll ja noch eine 4090 Ti (600-800W) kommen mit ~2,0x Performance und dann für 3000 € - 5000 €. ;D

Wenn doch die Gehälter auch so steigen würden :rolleyes:

Ex3cut3r
2022-10-06, 22:41:01
Erstmal abwarten wie gut das wirklich klappt mit den drei GHz bei 450 Watt...

https://videocardz.com/newz/nvidia-geforce-rtx-4090-spotted-reaching-3-0-ghz-and-616-watts-with-gpu-stress-tool

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-1.jpg

https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-4090-2.jpg

450W? Ich sehe im dritten Bild 615W.

Viel Spaß, bei den Strompreisen, ein neues Gehäuse, ein neues NT. Vermutlich 2500€ für ein paar Remaster Titel....Also irgendwann muss man da auch mal einen Schlussstrich ziehen. Hobby hin oder her, das ist einfach obszön.

basix
2022-10-06, 22:43:00
ich verstehe Deine Berechnung zum Prozess nicht. 4 nm entsprechen 0,000000004 m, 10 µm entsprechen 0,00001 m. Das ergibt den Faktor 2500.

2^21 sind 2097152 ?!?

21 Prozesssprünge mit jeweils ideal ~2x Verdopplung der Density: 10u -> 7u -> 5u -> 3u -> ... -> 5nm (~4N Prozess)
https://3dnews-ru.translate.goog/assets/external/illustrations/2022/08/08/1071797/14.png?_x_tr_sl=ru&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=sc

Snoopy69
2022-10-06, 23:00:56
450W? Ich sehe im dritten Bild 615W.

Viel Spaß, bei den Strompreisen, ein neues Gehäuse, ein neues NT. Vermutlich 2500€ für ein paar Remaster Titel....Also irgendwann muss man da auch mal einen Schlussstrich ziehen. Hobby hin oder her, das ist einfach obszön.
Da ist noch viel Luft nach oben. Schliesslich kostete mal ein Brot mehr als 100 Mrd. Reichsmark :freak:

Ex3cut3r
2022-10-06, 23:02:27
Da ist noch viel Luft nach oben. Schliesslich kostete mal ein Brot mehr als 100 Mrd. Reichsmark :freak:

Soll das jetzt witzig sein? Natürlich war Deutschland nach dem WW1 und den anschließen Sanktionen + Kriegsreparationen am Ende.

FastAndy
2022-10-06, 23:02:52
Es wird doch wieder dieses auto OC geben oder?
Was schätzt ihr wann die Ti denn kommt? Frage für einen freund ;D

Sardaukar.nsn
2022-10-06, 23:10:17
Es wird doch wieder dieses auto OC geben oder?
Was schätzt ihr wann die Ti denn kommt? Frage für einen freund ;D

Bestimmt, ansonsten kannst du das auch fix selber machen.

Die 3090 Ti kam ewig spät. Erst im März 2022 und ist jetzt im Oktober schon wieder Alteisen da DLSS 3 fehlt. Wird sicher auch für die 4090 kommen, aber mindestes noch ein ganzes Jahr würde ich schätzen.

Vergleich der ASUS TUF 3090 / 4090 fand ich sehr deutlich. https://www.youtube.com/watch?v=0UbJRIXiPdQ

https://i.imgur.com/ZJtcBDP.jpg

https://i.imgur.com/rmpLn2y.jpg

Und was damit gemacht wird...

https://i.imgur.com/eh3jBe9.png

https://i.imgur.com/xFGbZpk.png :freak:

FastAndy
2022-10-06, 23:22:49
Tuf ist ja glaube eher die abgespeckte "billig" serie und kleiner (?), aber trotzdem heftiger unterschied :eek:

iamthebear
2022-10-06, 23:24:44
ich verstehe Deine Berechnung zum Prozess nicht. 4 nm entsprechen 0,000000004 m, 10 µm entsprechen 0,00001 m. Das ergibt den Faktor 2500.

2^21 sind 2097152 ?!?

1.) Der Prozess heißt 4N, was an "4nm angelehnt ist". Das ist aber ein reiner Marketingname. Seit Finfet istdie Gatelänge nicht mehr sinnvoll mess/vergleichbar. Bezogen auf die Transistordichte entspricht 4N ca. einem planaren Transistor mit 8nm Gatelänge.

2.) Real ist eine Verkleinerung um 1250x pro Seite d.h. die Transistordichte ist ca. 1.5 Mio. wenn man die 2 Prozesse vergleicht.

Outsider82
2022-10-06, 23:33:41
450W? Ich sehe im dritten Bild 615W.


aber im 3ten Bild siehst du keine 3ghz sondern 2640 mhz ... Neurosphere sprach aber von 3 ghz und 450 Watt und er sprach somit vom 2ten Bild und nich vom 3ten .... und das is halt Furmark im 3ten Bild und Furmark is eben ne Hausnummer für sich je nach Einstellung dort


https://abload.de/img/nvidia-rtx-4090-2mae1b.jpg


Aber beim 2ten Bild sieht man eben 425 Watt mit 3 Ghz

https://abload.de/img/nvidia-rtx-4090-184esw.jpg


Und ob das alles Echt is steht eh noch in den Sternen das könnte auch alles Fake sein genau wie die immer wieder kurz vor Release aufkommenen Youtube Benchmaks die auch Fake sind.
Fand das zur RTX 3000er Release Zeit schon witzlos diese Angeblichen Benchmark Youtube Videos .. die versuchen einfach nur Easy Clicks zu generieren



Viel Spaß, bei den Strompreisen, ein neues Gehäuse, ein neues NT. Vermutlich 2500€ für ein paar Remaster Titel....Also irgendwann muss man da auch mal einen Schlussstrich ziehen. Hobby hin oder her, das ist einfach obszön.


Wie schonmal erwähnt verbraucht meine 3080 Strix auch schon 450 Watt und is somit even mit der 4090 @Stock Watt .. und somit is das nun 2022 nich neu das ne Karte 450 Watt verbrätt .. die 2020er AMD Karten waren doch zum teil auch schon bei so 380 - 400 Watt glaub ich... da geht die Reise halt leider grad hin.

Ich geb dir zwar recht das es generell gesehen viel is zu dem was wir noch vor 4 oder 6 Jahren für normal hielten aber das war eben bei Ampere auch schon nich anders.

Und niemand wird gezwungen 600 Watt draufzuballern man kann das Powertarged auch einfach @Stock lassen und is dann beim selben Verbrauch wie bei einer 3080 Strix mit 121 % PT was eben auch 450 Watt waren und hat dann aber wohl so die Doppelte Performance zur 3080.

Einzig der preis der 4090 is sehr ungünstig gewählt... nunja und eben der 4080ger auch ( aber die 4080ger haben ja noch ganz andere Probleme .. diese 12 GB 4080 Nummer is schon dreist das kann man nich anders sagen )

Daredevil
2022-10-06, 23:56:56
https://abload.de/img/bildschirmfoto2022-10lndwm.png

;D

Platos
2022-10-06, 23:58:59
Sieht aus wie ein fetter Radiator.

Deisi
2022-10-06, 23:59:45
Und was damit gemacht wird...

https://i.imgur.com/eh3jBe9.png

https://i.imgur.com/xFGbZpk.png :freak:



1. Tag benchen, dann wieder Web Browsing :freak:

So wie es aussieht, bekomm ich mein Gehäuse mit der Strix nicht zu bis der Block da ist :redface:

[MK2]Mythos
2022-10-07, 00:06:59
Das ist einfach nur noch absurd und sieht nach kompletter Brechstange aus. Vor noch 3 Jahren wäre jeder Hersteller für solche Klopper völlig zerrissen worden.

Und das zurecht. Und damals hatten wir noch keine Energiekrise. Wenn das so weiter geht, bietet nvidia mit der RTX 5x Gen ein Gehäuse mit inkludierter Grafikkarte an in das die Käufer dann ihre restliche Hardware einbauen können. :freak:
Ich wette sie würden selbst das verkauft kriegen. Und die Fans würden feiern weil nv nun das Gehäuse gleich mitliefert.

Sardaukar.nsn
2022-10-07, 00:22:53
@Deisi: Oder so. Bei mir aktuell Monkey Island, 30 Watt, aber Ada muss her!

@Mythos: Ist halt gerade der Zeitgeist: Höher, schneller, weiter wie bei den Elektroautos. Der neue Smart wiegt jetzt 1,9 Tonnen Smart #1: Als 428-PS-Brabus ist das E-Auto richtig schnell (https://www.autobild.de/artikel/smart-1-kompaktwagen-brabus-e-auto-fortwo-geely-22168311.html) :freak:

Snoopy69
2022-10-07, 00:26:13
Mythos;13130137']Das ist einfach nur noch absurd und sieht nach kompletter Brechstange aus. Vor noch 3 Jahren wäre jeder Hersteller für solche Klopper völlig zerrissen worden.

Und das zurecht. Und damals hatten wir noch keine Energiekrise. Wenn das so weiter geht, bietet nvidia mit der RTX 5x Gen ein Gehäuse mit inkludierter Grafikkarte an in das die Käufer dann ihre restliche Hardware einbauen können. :freak:
Ich wette sie würden selbst das verkauft kriegen. Und die Fans würden feiern weil nv nun das Gehäuse gleich mitliefert.
Aber herbeigeführt (wie viele "Krisen" zuvor auch)

[MK2]Mythos
2022-10-07, 00:27:35
@Deisi: Oder so. Bei mir aktuell Monkey Island, 30 Watt, aber Ada muss her!

@Mythos: Ist halt gerade der Zeitgeist: Höher, schneller, weiter wie bei den Elektroautos. Der neue Smart wiegt jetzt 1,9 Tonnen Smart #1: Als 428-PS-Brabus ist das E-Auto richtig schnell (https://www.autobild.de/artikel/smart-1-kompaktwagen-brabus-e-auto-fortwo-geely-22168311.html) :freak:
Völlig bescheuerter Vergleich. Elektrofahrzeuge sind um ein vielfaches energieeffizienter als Verbrenner. Weißt du selber. Nvidia macht gerade das Gegenteil davon, effizienter zu werden.

Sardaukar.nsn
2022-10-07, 00:29:54
Der eine gönnt sich hier, der andere da. FastAndy sogar beides. Strom kommt aus der Steckdose und alles wird gut.

Snoopy69
2022-10-07, 00:34:03
So siehts aus...
Kann ja nicht "so schlimm" sein, wenn ein 428PS-Elektro-Smart vorgestellt wurde :ulol:

Linmoum
2022-10-07, 00:40:37
https://abload.de/img/bildschirmfoto2022-10lndwm.png

;D
Was zum Fick einfach nur. Das sieht real ja noch mal absurder aus als auf bisherigen Produktbildern.

FastAndy
2022-10-07, 00:45:27
Ich vermute mal in echt ist das noch viel viel beeindruckender. Sowas kommt auf pics nie rüber :)

aufkrawall
2022-10-07, 00:46:39
Weiß gar nicht, was du meinst.
https://forums.guru3d.com/attachments/xcodgyr-jpg.13698/
(von woanders geklaut)

Sardaukar.nsn
2022-10-07, 00:47:23
Was zum Fick einfach nur. Das sieht real ja noch mal absurder aus als auf bisherigen Produktbildern.

Klassiker. Ich komme ja aus der Branche und das fällt mir gerade dazu ein: https://www.spiegel.de/auto/fahrkultur/mercedes-s-klasse-w140-zu-dick-fuer-den-autozug-a-99f9000e-dd56-4470-833f-e589cf615564

Snoopy69
2022-10-07, 01:01:19
Bin mal gespannt, ob die 5090 das noch toppen kann :freak:

Tangletingle
2022-10-07, 01:04:19
Weiß gar nicht, was du meinst.
https://forums.guru3d.com/attachments/xcodgyr-jpg.13698/
(von woanders geklaut)

Ohne Login bei Guru nicht zu sehen.

Snoopy69
2022-10-07, 01:21:09
Interessant - die Strix ist „kleiner“ als die TUF :eek: :freak:
(war das bei der 3090 auch so?


4090 ASUS Strix OC = 3,743 Liter
4090 ASUS TUF = 4,045 Liter
4090 Gigabyte Aorus Master = 4,383 Liter

Sagt natürlich nichts über die Kühlleistung der TUF aus
Und krass, dass die Strix 0,64 Liter kleiner ist, als der Mega-Trümmer Aorus Master ;D

BlacKi
2022-10-07, 04:24:51
Mythos;13130150']Völlig bescheuerter Vergleich. Elektrofahrzeuge sind um ein vielfaches energieeffizienter als Verbrenner. Weißt du selber. Nvidia macht gerade das Gegenteil davon, effizienter zu werden.smart war schon vorher elektrisch und leichter. smart baut jetzt größere leistungsstärkere mehr verbrauchende autos als zuvor.


und was habt ihr gegen große kühler? hätte ich 2020 die wahl gehabt, zwischen der 3090 mit dem 3090 tuf kühler für 1499$ und dem kühler der 4090 mit 450w powertarget für 1599$, wer würde dann noch die mit 3090 tuf kühler kaufen?;D er wäre sogar besser als der strix 3090 kühler, die viel mehr gekostet hat als die 4090 tuf.


das ist wahrer hate...

wolik
2022-10-07, 07:02:44
Leider ist das Internet heute voll von Youtube-Clowns, die nur über Größe 4090 Witze reißen.
Für mich wichtig wie die Karte in der norm. Betrieb leise ist und mit wieviel Grad und bis zu wieviel MHz (3000?) kann ich die Übertakten.
Wie lang und wie schwer die ist so von egal...
Preis mit 1600$ mehr als ok.

DrFreaK666
2022-10-07, 07:04:39
Wohnst du in den USA oder wieso nennst du den Dollar-Preis?

Sardaukar.nsn
2022-10-07, 07:53:09
UVP 2020 - 3090 $1,499
UVP 2022 - 4090 $1,599

dargo
2022-10-07, 08:05:49
Dazu kommt noch das der Full AD102 aka RTX 4090 Ti nochmal um einiges schneller ist, da er nochmal gigantischer ist. Die 3090 Ti war für 3090 Besitzer nix dolles (+10-15%) aber die 4090 Ti wird nochmal mindestens 30% schneller sein, als die 4090. Bestimmt mit einer UVP von 2.999€ :freak:
Ersteinmal ist es Unsinn, dass eine 3090TI 10-15% schneller ist als eine 3090. Die 3090TI ist gerade mal 12% schneller als eine 3080TI.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen

Zweitens... eine 4090TI wird niemals 30% oder gar mehr schneller sein als eine 4090. Wie kommt man bloß auf so einen Unsinn? Die 4090TI wird im Vollausbau 11% mehr Shader haben, diese skalieren nie 1:1 mit. Da müsste Nvidia bei der 4090TI noch die Taktraten anheben um überhaupt +10-15% zu erreichen. Was letztendlich natürlich den Verbrauch noch ordentlich nach oben treibt.

https://abload.de/img/bildschirmfoto2022-10lndwm.png

;D
Der Gesichtsausdruck dabei, zu geil. ;D

Cubitus
2022-10-07, 08:16:31
Zudem wird die 4090 nur von einer TI selbst geschlagen werden aber joa aus 11 Prozent mehr kannst keine 30 Prozent Leistung aus dem Hut zaubern.

Zudem werden die 4090 Käufer so zufrieden mit der Leistung sein das eine TI nicht mehr gekauft werden muss.
Von dem was ich bisher gelesen und gehört habe wird die 4090 die brachialeste Brechstange der letzen Jahre werden. Auch in hohen Auflösungen kratzt diese am CPU Limit sodass man anfangs nicht wissen wird, wohin mit der Leistung. Die RT Performance ist durch die Parallelisierung und dem DLSS 3 Kniff bis zu 4 mal schneller als bei der vorherigen Gen. Nvidia scheisst uns einen fetten Ziegel auf den Tisch..

Dann kommen wir noch zum 104er, der ja richtig "madig" geredet wird.
Vielleicht ist die kleine 4080 GTX ja noch für eine Überraschung gut ;)

basix
2022-10-07, 08:19:50
Zweitens... eine 4090TI wird niemals 30% oder gar mehr schneller sein als eine 4090. Wie kommt man bloß auf so einen Unsinn? Die 4090TI wird im Vollausbau 11% mehr Shader haben, diese skalieren nie 1:1 mit. Da müsste Nvidia bei der 4090TI noch die Taktraten anheben um überhaupt +10-15% zu erreichen. Was letztendlich natürlich den Verbrauch noch ordentlich nach oben treibt.

- 72 -> 96 MByte L2
- 128 -> 142 SMs
- 450 -> 600W TDP

Es werden garantiert >15% ;)

Cubitus
2022-10-07, 08:26:06
- 72 -> 96 MByte L2
- 128 -> 142 SMs
- 450 -> 600W TDP

Es werden garantiert >15% ;)

und selbst wenn, vielleicht wirds ja auch keine TI sondern eine Titan. :wink:

Der "kleine" 102er ist ja schon nahe am Profisegment.
Den Vollausbau mit 48 GB VRAM würde ich schon zu den Profi-Karten zählen..

Die Frage ist, ob es Nvidia überhaupt nötig hat eine "Gaming" TI zu platzieren ;)
Für eine Titan kannst dann auch 2500 Doller ausrufen, damit sind wir bei 3000 Euro im Profisegment angekommen.

HOT
2022-10-07, 08:57:04
So, hab den Thread in Igors Forum mal verfolgt zu dieser "Ada war in 8LPP geplant"-Geschichte und ich bin jetzt geneigt ihm zu glauben, aber nicht mit 8LPP. Er hat mehrere Quellen für seine Aussage und wenn man sich den zeitlichen Ablauf anschaut, wird das auch stimmen.

Man muss wissen, dass man nicht die Transistoren als Grundlage nehmen darf, um auf einen anderen Prozess hochzurechnen, das ist ja von Prozess zu Prozess unterschiedlich, von daher kann man die Transistordichte nicht als Maßstab nehmen, zumal die 4N Adas auch etwas anders aussehen werden, mehr Hopper eben.
NV hat ja auch eine automatische, "KI"-basierte Chipgenerierung, wie AMD ja auch, damit geht es natürlich deutlich einfacher, konkrete Chipdesigns zu entwerfen und man hatte ja schon das Desing für Hopper.

Wenn man sich den Zeitstrahl anschaut wird das deutlich:

Ursprünglicher Plan (in etwa, passt auch absolut zu den Leakern)

Q4 2021 -> Tapeout 3 Ada-Chips in 5LPP
Q1 2022 -> Validierung und Sampling
Q2 2022 -> Kartenentwicklung
Q3 2022 -> Release (kolporitert wurden ja Juli und August von den üblichen Leakern)

Mit dem Shift auf 4N:

Q3 2021 -> Cancel der Chips in 5LPP
Q4 2021 -> Aquise der zusätzlichen TSMC-Fertigung: https://wccftech.com/nvidia-spends-big-money-to-acquire-tsmcs-5nm-wafers-for-next-gen-geforce-rtx-40-ada-lovelace-gpus/
Q3 bis Q1 2022 -> Entwicklung der neuen Chips auf Hopper-Basis
Q2 2022 -> Tapeout der neuen Chips
Q3 2022 -> Validierung und Sampling und Kartenentwicklung anhand der extra dafür geschaffenen 3090Ti
Q4 2022 -> Release

Erinnert ihr euch an die ganzen Meldungen, dass sich AD auf Anfang 24 verschieben würde? Wäre der Yield schlecht gewesen, wär genau das passiert, aber NV hatte hier einfach riesiges Glück.

Edit: Korrektur falscher Annahmen.

Fragman
2022-10-07, 09:03:44
Für eine Titan kannst dann auch 2500 Doller ausrufen, damit sind wir bei 3000 Euro im Profisegment angekommen.

Den Preisrahmen hat nv nach oben gezogen.
Mit 3K kommt man in dem Segment ab Ampere nicht mehr weit.
Hopper ist dann nochmal eine andere Hausnummer.

https://www.tomshardware.com/news/nvidia-hopper-h100-80gb-price-revealed

robbitop
2022-10-07, 09:30:10
So, hab den Thread in Igors Forum mal verfolgt zu dieser "Ada war in 8LPP geplant"-Geschichte und ich bin jetzt geneigt ihm zu glauben. Er hat mehrere Quellen für seine Aussage und wenn man sich den zeitlichen Ablauf anschaut, wird das auch stimmen.

Man muss wissen, dass man nicht die Transistoren als Grundlage nehmen darf, um auf einen anderen Prozess hochzurechnen, das ist ja von Prozess zu Prozess unterschiedlich, von daher kann man die Transistordichte nicht als Maßstab nehmen, zumal die 4N Adas auch etwas anders aussehen werden, mehr Hopper eben.
NV hat ja auch eine automatische, "KI"-basierte Chipgenerierung, wie AMD ja auch, damit geht es natürlich deutlich einfacher, konkrete Chipdesigns zu entwerfen und man hatte ja schon das Desing für Hopper, Ada implementiert ja sehr viel von Hopper, die Tensorkerne sind sogar identlisch (wären sie auf dem 8LPP-Design mMn i.Ü. nicht gewesen, die wären viel kleiner ausgefallen mMn). AD102 wäre sicherlich um die 900mm² groß geworden, was mMn auf dem Prozess auch möglich gewesen wäre.

Wenn man sich den Zeitstrahl anschaut wird das deutlich:

Ursprünglicher Plan (in etwa, passt auch absolut zu den Leakern)

Q4 2021 -> Tapeout 3 Ada-Chips in 8LPP
Q1 2022 -> Validierung und Sampling
Q2 2022 -> Kartenentwicklung
Q3 2022 -> Release (kolporitert wurden ja Juli und August von den üblichen Leakern)

Mit dem Shift auf 4N:

Q3 2021 -> Cancel der Chips in 8LPP
Q4 2021 -> Aquise der zusätzlichen TSMC-Fertigung: https://wccftech.com/nvidia-spends-big-money-to-acquire-tsmcs-5nm-wafers-for-next-gen-geforce-rtx-40-ada-lovelace-gpus/
Q3 bis Q1 2022 -> Entwicklung der neuen Chips auf Hopper-Basis
Q2 2022 -> Tapeout der neuen Chips
Q3 2022 -> Validierung und Sampling und Kartenentwicklung anhand der extra dafür geschaffenen 3090Ti
Q4 2022 -> Release

Das ist und bleibt Schwachsinn. Man kann leicht per Dreisatz ermitteln, dass AD102 in 8 nm 1600 mm² groß gewesen wäre und somit nicht herstellbar gewesen wäre. Völlig egal was er für Quellen hat - dann wurden die eventuell auch verarscht oder man wollte mal wieder ein Leck finden und man schaut intern mal wo was aufpoppt.

Mit 8 nm war man bereits mit GA102 an der Kotzgrenze (628 mm² bei 28 Mrd Transistoren). Da hätte man kaum Transistorbudget nach oben gehabt. Entsprechend hätte es praktisch kein speedup geben können.

Auch wäre es mehr als naiv gewesen in dieser Generation dann damit noch durchzukommen wo klar absehbar ist, dass next gen Produkte auf 4/5 nm gehen vom Wettbewerb aus. Man wäre ohne deutlich gesteigertes Transistorbudget durch 8 nm überhaupt nicht wettbewerbsfähig geblieben. Allein dieser Part ist schon extrem naiv.

Ja KI als Implementation tool hilft sicherlich. Aber auch die stellt nicht mal eben ein existierendes design auf einen neuen Prozess um. Sowas ist nie und nimmer erst Q3 2021 (also vor einem Jahr) entschieden worden.

Ich finde diese Vorstellung wirklich naiv und ich wundere mich, dass Igor so einen offensichtlichen Schwachsinn auch nur annähernd ernst nehmen kann. Egal von wem das kommt - es ist und bleibt Schwachsinn.

Cubitus
2022-10-07, 09:31:04
Den Preisrahmen hat nv nach oben gezogen.
Mit 3K kommt man in dem Segment ab Ampere nicht mehr weit.
Hopper ist dann nochmal eine andere Hausnummer.

https://www.tomshardware.com/news/nvidia-hopper-h100-80gb-price-revealed

Ein AD102-450-A1 ist schon nahe an H100 dran, wie gesagt die Titan könnte da die perfekte Brücke zwischen den Segmenten sein.

HOT
2022-10-07, 09:33:35
Das ist und bleibt Schwachsinn. Man kann leicht per Dreisatz ermitteln, dass AD102 in 8 nm 1600 mm² groß gewesen wäre und somit nicht herstellbar gewesen wäre. Völlig egal was er für Quellen hat - dann wurden die eventuell auch verarscht oder man wollte mal wieder ein Leck finden und man schaut intern mal wo was aufpoppt.

Mit 8 nm war man bereits mit GA102 an der Kotzgrenze (628 mm² bei 28 Mrd Transistoren). Da hätte man kaum Transistorbudget nach oben gehabt. Entsprechend hätte es praktisch kein speedup geben können.

Auch wäre es mehr als naiv gewesen in dieser Generation dann damit noch durchzukommen wo klar absehbar ist, dass next gen Produkte auf 4/5 nm gehen vom Wettbewerb aus. Man wäre ohne deutlich gesteigertes Transistorbudget durch 8 nm überhaupt nicht wettbewerbsfähig geblieben. Allein dieser Part ist schon extrem naiv.

Ja KI als Implementation tool hilft sicherlich. Aber auch die stellt nicht mal eben ein existierendes design auf einen neuen Prozess um. Sowas ist nie und nimmer erst Q3 2021 (also vor einem Jahr) entschieden worden.

Ich finde diese Vorstellung wirklich naiv und ich wundere mich, dass Igor so einen offensichtlichen Schwachsinn auch nur annähernd ernst nehmen kann. Egal von wem das kommt - es ist und bleibt Schwachsinn.

Man kann das natürlich auch total ablehnen, aber es wird was dran sein. Das kann man nicht einfach wegdiskutieren. Und es ist kein Schwachsinn, wenn man den ursprünglichen Chip nicht 1:1 geshiftet hat. Und die Kotzgrenze liegt deutlich höher als 620mm². Das ist Schwachsinn. Und man hat ja trotzdem 3 Monate gebraucht um die neuen Designs auf den Weg zu bringen. Und was ist bitte unplausibel daran, dass NV alles den hohen Kosten unterordnet? Man wär ja trotzdem vorne gewesen, zu einem gewissen Preis natürlich - wie jetzt auch. Wir reden hier übrigens nicht von 8LPP sondern 5LPP.

basix
2022-10-07, 09:35:38
und selbst wenn, vielleicht wirds ja auch keine TI sondern eine Titan. :wink:

Der "kleine" 102er ist ja schon nahe am Profisegment.
Den Vollausbau mit 48 GB VRAM würde ich schon zu den Profi-Karten zählen..

Die Frage ist, ob es Nvidia überhaupt nötig hat eine "Gaming" TI zu platzieren ;)
Für eine Titan kannst dann auch 2500 Doller ausrufen, damit sind wir bei 3000 Euro im Profisegment angekommen.

Es wird eher keine Titan mehr geben. Zumindest nicht auf Basis von AD102. Das wird eine 4090 Ti.

Den Titan Brand hat Nvidia einfachauch nicht mehr nötig. Die 90er nehmen diesen sehr hohen Preisbereich ein.

Das ist und bleibt Schwachsinn. Man kann leicht per Dreisatz ermitteln, dass AD102 in 8 nm 1600 mm² groß gewesen wäre und somit nicht herstellbar gewesen wäre. Völlig egal was er für Quellen hat - dann wurden die eventuell auch verarscht oder man wollte mal wieder ein Leck finden und man schaut intern mal wo was aufpoppt.

Mit 8 nm war man bereits mit GA102 an der Kotzgrenze (628 mm² bei 28 Mrd Transistoren). Da hätte man kaum Transistorbudget nach oben gehabt. Entsprechend hätte es praktisch kein speedup geben können.
Ja, da hat der Igor den Kopf nicht eingeschaltet. Das Kühlerdesign wurde vor ein paar Monaten in die Wege geleitet. Den Chip in 4N zu designen deutlich, deutlich früher. Dass es nun 600W Kühler-Trümmer sind, ist auf was anderem begründet. Evtl. sind die Chips wirklich etwas besser als erwartet und man konnte die TDP runtersetzen. Aber die Idee, dass da Samsung irgendeine Rolle gespielt hat, ist sehr weit hergeholt. Auch seine Korrektur am Schluss des Artikels, wo nur noch von "einem Samsung Prozess" gesprochen wird und nicht mehr 8nm (er hat wohl selbst gemerkt, das Samsung 8nm Dünnpfiff ist), ist nicht schlüssig. Wie gesagt, das Chipdesign wurde deutlich früher in TSMC 4N aufgelegt als dass man Designvorgaben für den Kühler an die Partner verteilt hat.

Chris Lux
2022-10-07, 09:54:05
https://abload.de/img/bildschirmfoto2022-10lndwm.png

;D
Jay ist so ein Idiot geworden. Hauptsache Clicks generieren mit Rant Videos.

Eine solche Karte baut man auch nicht in einem Midi-Gehäuse ein. Kann man, aber macht halt keinen Sinn für die Beatmung der Karte. Seine Wasserkühlungen baut er ja auch immer ich riesige Gehäuse.

Wie gesagt... hauptsache kontrovers erscheinen und Clicks generieren. Deswegen habe ich seine Videos seit Ewigkeiten nicht mehr angeschaut. NV böse, AMD gut. Dann trotzdem überall die NV Karten verbauen. Grrr... /rant

HOT
2022-10-07, 09:57:50
[...]


Ja, da hat der Igor den Kopf nicht eingeschaltet. Das Kühlerdesign wurde vor ein paar Monaten in die Wege geleitet. Den Chip in 4N zu designen deutlich, deutlich früher. Dass es nun 600W Kühler-Trümmer sind, ist auf was anderem begründet. Evtl. sind die Chips wirklich etwas besser als erwartet und man konnte die TDP runtersetzen. Aber die Idee, dass da Samsung irgendeine Rolle gespielt hat, ist sehr weit hergeholt. Auch seine Korrektur am Schluss des Artikels, wo nur noch von "einem Samsung Prozess" gesprochen wird und nicht mehr 8nm (er hat wohl selbst gemerkt, das Samsung 8nm Dünnpfiff ist), ist nicht schlüssig. Wie gesagt, das Chipdesign wurde deutlich früher in TSMC 4N aufgelegt als dass man Designvorgaben für den Kühler an die Partner verteilt hat.


Naaa, ne. Das ist nicht richtig.
Er meint ja, wenn die Prozesse mal in Gang gebracht werden wäre es teurer sie zu stoppen, als sie mit neuen Erkenntnissen neu zu starten und da hat er recht. NV wird das den Kartenherstellern ja erst dann offenbart haben, als klar war, dass das mit den 4N auch wirklich funktioniert. Und das wird schlichtweg zu spät gewesen sein, um die Industrieprozesse noch anzupassen. Dafür wirds halt mehr Marge für die AIB-Partner geben. Das ist bei den abgerufenen Preisen ja auch kein Problem, selbst wenn man sie 20% nach unten anpassen werden muss. Und es ist ja nicht so, dass die Karten bei 450W gedrosselt sind, die Kühler können ja problemlos auf 600W gefahren werden, was viele Hersteller auch machen werden.

Übrigens:
https://youtu.be/QrBc_Bq848M

Und ich lag falsch :D.
Zitat von Igor:
Planung war wohl 5nm [Samsung a.v.mir] mit Hochrechnung basierend auf dem 8nm-Yield. Ich habe mich vielleicht unklar ausgedrückt. Taktskalierung und Power Estimation basierten auf Samsungs Datenschatz

Troyan
2022-10-07, 09:59:13
Der Typ von gestern hat nun auch Timespy (1440p) gebencht: https://videocardz.com/newz/nvidia-geforce-rtx-4080-16gb-reaches-3-0-ghz-in-3dmark-timespy

3000GHz wird erreicht. Macht Sinn in 1440p. Vorsprung ist gegenüber Extreme angewachsen, macht auch Sinn mit dem Cache und den hohen Takt.

basix
2022-10-07, 10:15:13
Naaa, ne. Das ist nicht richtig.
Er meint ja, wenn die Prozesse mal in Gang gebracht werden wäre es teurer sie zu stoppen, als sie mit neuen Erkenntnissen neu zu starten und da hat er recht. NV wird das den Kartenherstellern ja erst dann offenbart haben, als klar war, dass das mit den 4N auch wirklich funktioniert. Und das wird schlichtweg zu spät gewesen sein, um die Industrieprozesse noch anzupassen. Dafür wirds halt mehr Marge für die AIB-Partner geben. Das ist bei den abgerufenen Preisen ja auch kein Problem, selbst wenn man sie 20% nach unten anpassen werden muss. Und es ist ja nicht so, dass die Karten bei 450W gedrosselt sind, die Kühler können ja problemlos auf 600W gefahren werden, was viele Hersteller auch machen werden.

Genau das habe ich doch gesagt: Der Chip kam wohl etwas besser aus der Fab zurück als erwartet (Igor sagt übrigens etwas ähnliches). Und deswegen konnte man die TDP senken. Kühler sind dann halt so wie sie sind: Überdimensioniert für 450W.

Dass Samsung damit was zu tun hat ist einfach nicht logisch. Die 600W waren von Anfang an für den TSMC 4N Prozess abgeschätzt worden. Klar kann man irgendwelche Hochrechnungen auf Basis von Samsungs Prozessen machen, aber wäre das seriöses Engineering? Nvidia fertigt GA100 und H100 immer noch bei TSMC und weiss wohl sehr genau, was der TSMC Prozess leistet. Wieso hier die Samsungs-Prozesse miteinbeziehen? Das wäre viel ungenauer in der Abschätzung des Energieverbrauchs. Macht keinen Sinn. Insbesondere, da man den Verbrauch anhand des Prozesses extrem intensiv durchsimuliert und optimiert. Das dann irgendwie von einem anderen Design in einem anderen Prozess bei einem andere Hersteller zu extrapolieren? Sehr fragil ;)

Dural
2022-10-07, 10:17:55
Leute, wenn NV den Board Partner sagt die Karten bis 600Watt auslegen, bedeutet das ja noch lange nicht dass die Karten 600Watt auch verbrauchen. :rolleyes:

NV wollte damit vielleicht auch nur gewisse Vorkehrungen treffen damit es keine Probleme gibt, mit Stromversorgung, mit zu Warmen Karten, zu lauten Karten etc. oder einfach nur genug Spielraum für eine Titan Xy Ultra mit full ad102… die Gründe dazu sind vielfältig!

Heute werden solche Chips und die Fertigungen komplett durch berechnet und Simuliert, die wissen um wenige Prozentpunkte genau was aus der Fabrik kommen wird.

basix
2022-10-07, 10:19:10
Dem kann ich beipflichten ;)

Nur nicht, dass Samsung irgendwas damit zu tun hat ;)

Sardaukar.nsn
2022-10-07, 10:22:35
4080 16GB Benchmarks kommen auch langsam durch. Timespy mit 3 Ghz, 333 Watt und guten Temperaturen.

https://cdn.videocardz.com/1/2022/10/RTX4080-3DMARK-1-1.jpg

Quelle: https://videocardz.com/newz/nvidia-geforce-rtx-4080-16gb-reaches-3-0-ghz-in-3dmark-timespy

r3ptil3
2022-10-07, 10:32:43
Seltsamer Taktverlauf für CPU und GPU...

So gleichmäßig habe ich das fast noch nie gesehen.

Exxtreme
2022-10-07, 10:36:46
Genau das habe ich doch gesagt: Der Chip kam wohl etwas besser aus der Fab zurück als erwartet (Igor sagt übrigens etwas ähnliches). Und deswegen konnte man die TDP senken. Kühler sind dann halt so wie sie sind: Überdimensioniert für 450W.



Dann müsste es aber bald Modelle geben mit kleineren Kühlern wenn die jetzigen überdimensioniert sind.

r3ptil3
2022-10-07, 10:40:40
Dann müsste es aber bald Modelle geben mit kleineren Kühlern wenn die jetzigen überdimensioniert sind.

Nicht für die RTX 4080 16Gb, die ist mit 1200$ sowieso extrem überteuert und daher bekommt man zumindest einen ordentlichen Kühler.

Das komische 12Gb Modell hingegen wird, trotz der extremen Preislage, abgespeckt wo es nur geht.

Cubitus
2022-10-07, 10:52:00
Seltsamer Taktverlauf für CPU und GPU...

So gleichmäßig habe ich das fast noch nie gesehen.

Bekommst du mit gutem UV hin.
Oder bzw. die GPU hat mehr Luft zum Atmen, und läuft auch nicht in ein Powertarget.



Das komische 12Gb Modell hingegen wird, trotz der extremen Preislage, abgespeckt wo es nur geht.

ich würde die 12GG mit dem 104er noch nicht ganz abschreiben.
Der Chip wird von der Leistung über der 3090TI liegen, und in RT besser performen.

So gesehen ist der 104er, ohne den 102 zu betrachten, schon stark.

robbitop
2022-10-07, 10:54:12
Man kann das natürlich auch total ablehnen, aber es wird was dran sein. Das kann man nicht einfach wegdiskutieren. Und es ist kein Schwachsinn, wenn man den ursprünglichen Chip nicht 1:1 geshiftet hat. Und die Kotzgrenze liegt deutlich höher als 620mm². Das ist Schwachsinn. Und man hat ja trotzdem 3 Monate gebraucht um die neuen Designs auf den Weg zu bringen. Und was ist bitte unplausibel daran, dass NV alles den hohen Kosten unterordnet? Man wär ja trotzdem vorne gewesen, zu einem gewissen Preis natürlich - wie jetzt auch. Wir reden hier übrigens nicht von 8LPP sondern 5LPP.
Es stand überall 8 nm. Wenn er jetzt natürlich im Nachhinein die Meldung auf 5 nm Samsung ändert - ja das ändert natürlich alles. Das könnte möglich sein.

Und ja die Kotzgrenze ist sicherlich höher als 600 mm² - aber zumindest bei Serien Gaming GPUs fiel noch nicht mal die 7xx mm². Machbar ist sicherlich auch 1000 mm2. Aber nicht mehr bezahlbar aufgrund der ganzen Nachteile. 1600 mm² wären dann auch nicht mehr machbar gewesen. Aber ja wenn man jetzt natürlich zurückrudert und 5 nm nennt, ist das was ganz anderes. Das könnte schon sein. Wobei ich auch da Q3 2021 für ein cancle des 5 nm Chips für sehr optimistisch halten würde, wenn bereits Karten seit Juli 2022 produziert wurden. 2020 könnte das ggf gewesen sein.
Ein Prozesswechsel und eine komplett neue Implementation dauern auf jeden Fall Größenordnungen länger als Board und Kühlerdesign. Selbst wenn's so war hat das ganz sicherlich jetzt nicht dazu geführt, dass Kühler und Boards größer dimensioniert sind. Wenn es so war, wusste man das LAAAANGE vor dem Start des PCB und Kühler Designs. So ein Schwachsinn.

Außerdem: warum wird unbedingt was dran sein? Welche zwingenden Grund gibt es da? Ich sehe noch keinen. Igor ist IMO der einzige, der das sagt (die abgezogen, die es von ihm abschreiben).

robbitop
2022-10-07, 10:57:15
Genau das habe ich doch gesagt: Der Chip kam wohl etwas besser aus der Fab zurück als erwartet (Igor sagt übrigens etwas ähnliches). Und deswegen konnte man die TDP senken. Kühler sind dann halt so wie sie sind: Überdimensioniert für 450W.

Dass Samsung damit was zu tun hat ist einfach nicht logisch. Die 600W waren von Anfang an für den TSMC 4N Prozess abgeschätzt worden. Klar kann man irgendwelche Hochrechnungen auf Basis von Samsungs Prozessen machen, aber wäre das seriöses Engineering? Nvidia fertigt GA100 und H100 immer noch bei TSMC und weiss wohl sehr genau, was der TSMC Prozess leistet. Wieso hier die Samsungs-Prozesse miteinbeziehen? Das wäre viel ungenauer in der Abschätzung des Energieverbrauchs. Macht keinen Sinn. Insbesondere, da man den Verbrauch anhand des Prozesses extrem intensiv durchsimuliert und optimiert. Das dann irgendwie von einem anderen Design in einem anderen Prozess bei einem andere Hersteller zu extrapolieren? Sehr fragil ;)

Das macht schon viel eher Sinn.

HOT
2022-10-07, 11:18:27
Es stand überall 8 nm. Wenn er jetzt natürlich im Nachhinein die Meldung auf 5 nm Samsung ändert - ja das ändert natürlich alles. Das könnte möglich sein.

Und ja die Kotzgrenze ist sicherlich höher als 600 mm² - aber zumindest bei Serien Gaming GPUs fiel noch nicht mal die 7xx mm². Machbar ist sicherlich auch 1000 mm2. Aber nicht mehr bezahlbar aufgrund der ganzen Nachteile. 1600 mm² wären dann auch nicht mehr machbar gewesen. Aber ja wenn man jetzt natürlich zurückrudert und 5 nm nennt, ist das was ganz anderes. Das könnte schon sein. Wobei ich auch da Q3 2021 für ein cancle des 5 nm Chips für sehr optimistisch halten würde, wenn bereits Karten seit Juli 2022 produziert wurden. 2020 könnte das ggf gewesen sein.
Ein Prozesswechsel und eine komplett neue Implementation dauern auf jeden Fall Größenordnungen länger als Board und Kühlerdesign. Selbst wenn's so war hat das ganz sicherlich jetzt nicht dazu geführt, dass Kühler und Boards größer dimensioniert sind. Wenn es so war, wusste man das LAAAANGE vor dem Start des PCB und Kühler Designs. So ein Schwachsinn.

Außerdem: warum wird unbedingt was dran sein? Welche zwingenden Grund gibt es da? Ich sehe noch keinen. Igor ist IMO der einzige, der das sagt (die abgezogen, die es von ihm abschreiben).

5nm ist schon was anderes. Ich sage dir, das ist eben nicht nur purer BS. Die 8nm waren halt unplausibel, aber wenn er sich einfach falsch ausgedrückt hat? Ich hab auch direkt gedacht, 8nm geht nicht und hab selbst mit 6LPP spekuliert. Dass es dann 5LPP war, geschenkt.

Ich wiederhole das in korrigierter Form nochmal

Wenn man sich den Zeitstrahl anschaut wird das deutlich:

Ursprünglicher Plan (in etwa, passt auch absolut zu den Leakern)

Q4 2021 -> Tapeout 3 Ada-Chips in 5LPP
Q1 2022 -> Validierung und Sampling
Q2 2022 -> Kartenentwicklung
Q3 2022 -> Release (kolporitert wurden ja Juli und August von den üblichen Leakern)

Mit dem Shift auf 4N:

Q3 2021 -> Cancel der Chips in 5LPP
Q4 2021 -> Aquise der zusätzlichen TSMC-Fertigung: https://wccftech.com/nvidia-spends-big-money-to-acquire-tsmcs-5nm-wafers-for-next-gen-geforce-rtx-40-ada-lovelace-gpus/
Q3 bis Q1 2022 -> Entwicklung der neuen Chips auf Hopper-Basis
Q2 2022 -> Tapeout der neuen Chips
Q3 2022 -> Validierung und Sampling und Kartenentwicklung anhand der extra dafür geschaffenen 3090Ti
Q4 2022 -> Release

Erinnert ihr euch an die ganzen Meldungen, dass sich AD auf Anfang 24 verschieben würde? Wäre der Yield schlecht gewesen, wär genau das passiert, aber NV hatte hier einfach riesiges Glück.

Wir werden auch bald wissen, ob das alles so stimmt oder nicht, da dann ja AD106 und 107 in 5LPP kommen dürften.

Fragman
2022-10-07, 11:23:46
Und ja die Kotzgrenze ist sicherlich höher als 600 mm² - aber zumindest bei Serien Gaming GPUs fiel noch nicht mal die 7xx mm². Machbar ist sicherlich auch 1000 mm2. Aber nicht mehr bezahlbar aufgrund der ganzen Nachteile.

Als Anmerkung vielleicht noch, GV100 hatte in 12nm über 800mm² und der Kartenpreis in der Produktion wurde mit 1k Dollar gehandelt.

1000mm² wäre aktuell nochmals fast 3(?) mal größer in 4N als AD102.
Könnte man sicher bauen, aber preislich als Consumerkarte nicht mehr vermittelbar (auch wenn es interessant ist drüber nachzudenken ala "Könnte man einen 1000mm² ADA 101 eigentlich richtig auslasten?").

HOT
2022-10-07, 11:25:42
1000mm² ist vom Tisch. In 5LPP wären die Dinger sicherlich >700mm², das war Turing aber auch.

Troyan
2022-10-07, 11:31:40
Turing war 754mm^2 groß. 12/16nm war 2018 deutlich billiger als 2016, da vorallem Apple schon zu 10nm weitergezogen ist.

wolik
2022-10-07, 11:35:41
Jay ist so ein Idiot geworden. Hauptsache Clicks generieren mit Rant Videos.

Eine solche Karte baut man auch nicht in einem Midi-Gehäuse ein. Kann man, aber macht halt keinen Sinn für die Beatmung der Karte. Seine Wasserkühlungen baut er ja auch immer ich riesige Gehäuse.

Wie gesagt... hauptsache kontrovers erscheinen und Clicks generieren. Deswegen habe ich seine Videos seit Ewigkeiten nicht mehr angeschaut. NV böse, AMD gut. Dann trotzdem überall die NV Karten verbauen. Grrr... /rant

wie ich schon sagte... Youtube-Clowns.

basix
2022-10-07, 11:54:26
Seltsamer Taktverlauf für CPU und GPU...

So gleichmäßig habe ich das fast noch nie gesehen.

OC + Fixe Taktraten ;)

Sardaukar.nsn
2022-10-07, 12:00:49
OC + Fixe Taktraten ;)

Mit max. 333 Watt wurde ja auch kein Powerlimit erreicht.

basix
2022-10-07, 12:43:38
Das ist doch gut, oder nicht? Oder was willst du damit sagen?

robbitop
2022-10-07, 12:43:40
Als Anmerkung vielleicht noch, GV100 hatte in 12nm über 800mm² und der Kartenpreis in der Produktion wurde mit 1k Dollar gehandelt.

1000mm² wäre aktuell nochmals fast 3(?) mal größer in 4N als AD102.
Könnte man sicher bauen, aber preislich als Consumerkarte nicht mehr vermittelbar (auch wenn es interessant ist drüber nachzudenken ala "Könnte man einen 1000mm² ADA 101 eigentlich richtig auslasten?").
GV100 war aber ein HPC Chip - kein Gaming Chip. Den gab es auch als Titan zu kaufen aber es war nie ein Serien Gaming chip.
Aber TU102 hab ich übersehen.

-------------------------------------------------------

Trotzdem: Die timeline von Q3 2021 ist viel zu eng für Boardproduktion im Juli 2022 (die Entscheidung hätte wohl eher ein Jahr weiter vorn stattfinden müssen) und man hätte es so oder so deutlich vor Entwicklungsstart der Boards und Kühler gewusst, dass man bei 4N angelangen wird. Die Schlussfolgerung war einfach Blödsinn.

TurricanM3
2022-10-07, 12:50:57
Gerade auf CB gelesen, dass da wohl Taktraten von 3GHz geleakt sind. Wenn das echt stimmt dürfte die Leistung der 4090 absolut bestialisch werden. Ich fand den Sprung von der 2080 Ti auf 3090 schon krass, aber was uns jetzt erwartet ist dahingehend ja noch mal eine ganz andere Hausnummer. Nur schade, dass ich nichts zu zocken habe schon Monate.

Badesalz
2022-10-07, 12:51:49
Von dem was ich bisher gelesen und gehört habe wird die 4090 die brachialeste Brechstange der letzen Jahre werden.Falls du den Ausdruck auch so meinst wofür der Rest der Bevölkerung es immer nutzt, dann meinst du wohl die boardpower damit?

Sardaukar.nsn
2022-10-07, 13:40:57
Falls noch jemand schicke 12VHPWR Kabel für Corsair, Seagate, Asus oder EVGA Netzteile sucht: https://eustore.cablemod.com/product-category/pro-series/12vhpwr-pci-e-cable/

BiG OnE
2022-10-07, 14:10:08
Sehe ich das richtig, das die Kabel von Cablemod aus China verschickt werden und ganze 2-3 Wochen dauert?

r3ptil3
2022-10-07, 14:16:19
Falls noch jemand schicke 12VHPWR Kabel für Corsair, Seagate, Asus oder EVGA Netzteile sucht: https://eustore.cablemod.com/product-category/pro-series/12vhpwr-pci-e-cable/

Habe ich gestern auch gesehen. :D

Übrigens wer mit einem Seasonic TX-1300/TX-1600 plant für RTX 4090, noch eine Info hierzu:
Gemäss Kitguru erfüllen diese beiden Netzteile die ATX 2.53 Norm, d.h. konkret:

Seasonic TX-1300 (1300W) = ATX 3.0 850W
Seasonic TX-1600 (1600W) = ATX 3.0 1000W


Die ASUS SFX-L Loki 850W/1000W (ATX 3.0) Modelle, werden anscheinend ab dem 17.10 verfügbar sein.

Ich wollte zuerst das Loki 1000W, jedoch dürfte mit dem ATX 3.0 Anforderungen, selbst das 750W Modell ausreichen.

Cubitus
2022-10-07, 14:24:39
Falls du den Ausdruck auch so meinst wofür der Rest der Bevölkerung es immer nutzt, dann meinst du wohl die boardpower damit?

Sowohl als auch, ich schließ mich Turri an.
Ich glaube wir werden eine Karte sehen, welche natürlich hungrig werden kann.

Nur hält sich das dann doch auf einem Niveau, welches bei der Komplexität des Chips vertretbar ist.
Die 102er bei TSNMC verhalten sich wohl doch besser als erwartet. Wenn die Karten aus dem Stand 3GHz, bei super Temps rausprügeln ist das wirklich beindruckend.

Mit Brechstange meinte ich, dass man auch mit dem 103er zufrieden sein könnte. Aber Jensen zog dieses Biest mit dem 102er aus seiner Lederjacke.

Ich würde behaupten das aktuell kein "konventionelles" Spiel eine Herausforderung für die 4090 sein wird. Und das CPU-Limit auch in 4k ein Thema wird.

Ex3cut3r
2022-10-07, 14:26:03
Gerade auf CB gelesen, dass da wohl Taktraten von 3GHz geleakt sind. Wenn das echt stimmt dürfte die Leistung der 4090 absolut bestialisch werden. Ich fand den Sprung von der 2080 Ti auf 3090 schon krass, aber was uns jetzt erwartet ist dahingehend ja noch mal eine ganz andere Hausnummer. Nur schade, dass ich nichts zu zocken habe schon Monate.

Dying Light 2 schon gezockt? Nettes RT, leider keine Waffen, eine Armbrust ist das höchste der Gefühle.

Sardaukar.nsn
2022-10-07, 14:38:42
@BiG OnE: Caseking, Alternate usw. haben auch CableMod Artikel. Leider aber noch nicht den 16pin für die GPU. Daher aktuell nur direkt über den Shop. Die Karten haben natürlich auch alle einen 3- oder 4-in-1 Adapter dabei und wird schon irgendwie funktionieren.

=Floi=
2022-10-07, 14:41:48
wie ich schon sagte... Youtube-Clowns.

Sollen wir alle alles kritiklos hinnehmen? DIE channel sind unsere stimme und eventuell kommt es mal bei NV an, was der kunde will und braucht. NV geht komplett gegen die kunden. (1630, die niemand braucht und sich jeder über eine 1670ti gefreut hätte.)

Der stecker ist abfuck und murks zusammen. Wie viele leute biegen das kabel in nem radius größer 30mm? 5%? Der rest biegt es im 90 grad winkel weg...

--
edit
nebenbei nervt es mich auch, wenn ich bei EVGA 10 jahre garantie dazukaufen konnte und jetzt nach zwei jahren und viel glück ne kaputte 2000€ karte abschreiben kann.
Das kann doch nicht euer ernst sein?!
Ich möchte als kunde gute produkte kaufen und aktuell steuern wir eher auf billige einheitskarten hin.

Ex3cut3r
2022-10-07, 14:48:56
Hatten wir das schon?
Die 3090 TUF sieht aus wie ein Zwerg im Vergleich, dabei ist die Ampere Karte schon "Fett" gewesen. X-D

https://abload.de/img/technotice-thisisthennadiw.png

why_me
2022-10-07, 14:53:47
Kann mich noch an meine ASUS R9 290X DIRECTCU II erinnern, damals ein Klopper, heute haben Mittelklasse Karten einen größeren Kühler.

robbitop
2022-10-07, 15:11:48
Gerade auf CB gelesen, dass da wohl Taktraten von 3GHz geleakt sind. Wenn das echt stimmt dürfte die Leistung der 4090 absolut bestialisch werden. Ich fand den Sprung von der 2080 Ti auf 3090 schon krass, aber was uns jetzt erwartet ist dahingehend ja noch mal eine ganz andere Hausnummer. Nur schade, dass ich nichts zu zocken habe schon Monate.
Naja die Frage ist, wie gut sie skaliert. Betrachtet man den Mehrtakt und die Mehrmenge an SMs müsste sie 2,4x so schnell wie eine 3090ti sein - und zwar nicht nur in speziell optimierten RT Titeln sondern überall (sofern im GPU Limit).
Was man so hört ist aber eher 1,6-1,8x so schnell. Mal schauen was stimmt. Wenn es stimmen sollte, dann wäre es anhand der Rohdaten etwas wenig.

DavChrFen
2022-10-07, 15:29:21
Der stecker ist abfuck und murks zusammen. Wie viele leute biegen das kabel in nem radius größer 30mm? 5%? Der rest biegt es im 90 grad winkel weg...


Gibt auch Leute die kein Kabelmanagement machen. Ich würde das schon deutlich größer als 5% sehen.

Was mir fehlt: Es gibt keine Modelle mit dem 8-Pin PCI-e-Stromanschluss.

Cubitus
2022-10-07, 15:36:05
Was man so hört ist aber eher 1,6-1,8x so schnell. Mal schauen was stimmt. Wenn es stimmen sollte, dann wäre es anhand der Rohdaten etwas wenig.

Kommt auf das Szenario an und auch mit welcher CPU das Ding befeuert wird.
Wie gesagt ich bin fast überzeugt das alle gängigen CPUs der Karte nicht gerecht werden können.

Vermutlich wird die beste Kombo für diese Karte ein Raptor Lake System sein, können die ganzen Tester die AMD CPUs wieder rauswerfen ;D

dargo
2022-10-07, 15:39:01
Vermutlich wird die beste Kombo für diese Karte ein Raptor Lake System sein, können die ganzen Tester die AMD CPUs wieder rauswerfen ;D
Und kurz nach Release von Raptor Lake wird dieser wieder wegen Zen4X3D rausgeschmissen. :ulol:

DavChrFen
2022-10-07, 15:39:35
Mit AntiAliasing und Downsampling bekommt man die Karte schon klein.

wolik
2022-10-07, 15:56:09
Der stecker ist abfuck und murks zusammen. Wie viele leute biegen das kabel in nem radius größer 30mm? 5%? Der rest biegt es im 90 grad winkel weg...


Naklar. ATX 3.0 hat auch Nvidia erfunden. :rolleyes:

Ex3cut3r
2022-10-07, 16:00:45
Mit AntiAliasing und Downsampling bekommt man die Karte schon klein.

:confused: Anti-Alasing? Ist doch seit 2013 mit der PS4 Geschichte, TAA, und jetzt IMHO eher DLSS und Co.

Und kurz nach Release von Raptor Lake wird dieser wieder wegen Zen4X3D rausgeschmissen. :ulol:

Typischer Cubi, leider ist er Nvidia/Intel Fanatiker.

Troyan
2022-10-07, 16:03:15
Naja die Frage ist, wie gut sie skaliert. Betrachtet man den Mehrtakt und die Mehrmenge an SMs müsste sie 2,4x so schnell wie eine 3090ti sein - und zwar nicht nur in speziell optimierten RT Titeln sondern überall (sofern im GPU Limit).
Was man so hört ist aber eher 1,6-1,8x so schnell. Mal schauen was stimmt. Wenn es stimmen sollte, dann wäre es anhand der Rohdaten etwas wenig.

Das Ding taktet an die 3GHz, weil die GPU nicht ausgelastet ist. Das ist normales Verhalten. In Spielen mit Raytracing und vorallem SER wird es deutlich niedriger sein und die Leistung deutlich höher.

robbitop
2022-10-07, 16:57:08
Kommt auf das Szenario an und auch mit welcher CPU das Ding befeuert wird.
Wie gesagt ich bin fast überzeugt das alle gängigen CPUs der Karte nicht gerecht werden können.

Vermutlich wird die beste Kombo für diese Karte ein Raptor Lake System sein, können die ganzen Tester die AMD CPUs wieder rauswerfen ;D
Ich schrieb im GPU Limit. Alles andere ist natürlich Schwachsinn. Man kann ja einfach auf 8K / 4x4 DSR drehen. GPU Limit bekommt man mit jeder Karte hin egal wie schnell sie ist.

robbitop
2022-10-07, 16:58:58
Das Ding taktet an die 3GHz, weil die GPU nicht ausgelastet ist. Das ist normales Verhalten. In Spielen mit Raytracing und vorallem SER wird es deutlich niedriger sein und die Leistung deutlich höher.
Müssen wir mal abwarten. Bis dato scheint SER vor allem für RT interessant zu sein. Intel's ARC und IMGTec RT Hardware (Voraussetzung für Level 4 Status der RT Hardware) haben übrigens ein entsprechendes Äquivalent. NVidia vermarktet es nur besser.

Dovregubben
2022-10-07, 17:03:29
Müssen wir mal abwarten. Bis dato scheint SER vor allem für RT interessant zu sein.
So lange wir nicht mehr Informationen dazu haben und es ja irgendeinen expliziten Support braucht, halte ich die These gewagt.
Die exponentiell wachsenden Shaderpermutationen sind auch in Non-RT Anwendungen ein Krebsgeschwür. Wenn man da durch Reorderung in der Hardware anders an das Problem rangehen könnte, wäre das eine enorme Hilfe. Aber dafür müsste man erstmal genau wissen, was es ist.

Badesalz
2022-10-07, 17:07:28
Sowohl als auch, ich schließ mich Turri an.
Ich glaube wir werden eine Karte sehen, welche natürlich hungrig werden kann.

Nur hält sich das dann doch auf einem Niveau, welches bei der Komplexität des Chips vertretbar ist.
Die 102er bei TSNMC verhalten sich wohl doch besser als erwartet. Wenn die Karten aus dem Stand 3GHz, bei super Temps rausprügeln ist das wirklich beindruckend.
Der Topdog ist für mich komplett überfahren. Das ist TSMC N4, was sich da auch mal nen halben Kilowatt aus dem Netzteil zieht.

Und den Löwenanteil der Speedups präsentiert man mit - oder dank (?) - DLSS3. Wofür es keine Vergleichbarkeit gibt, weil RT30 das nicht kann (was für ein Pech aber auch...)
Also mir fällt es da nicht ganz so einfach Einschätzungen abzugeben wie gut oder schlecht die Hardwareabteilung diesmal gearbeitet hat...

Die Temperaturen sind das Ergebnis der 2x bis 3x so großen Kühler als bei 3090 ;) Das würd ich jetzt nicht gleich Adas Chefarchitekt andichten.

Feste Eckdaten sind dagegen die Preise und eben der Verbrauch. Bei den Preisen hängt vielen im Hinterkopf, daß sie damit auch noch die stadteilgroßen Lagerflächen für unverkaufte RT30 mitbezahlen und das "bitte bitte bitte" beim späten Wechseln zu TSMC. Beides ist offensichtliches Missmanagement.

Abseits der nicht relevanten Forenblasen macht das alles der RT40 schon ziemlich schwer. Ihr wirtschaftlicher Erfolg wird kaum von der 4090 abhängen können. Der des Golfs, den man jetzt Passat nennt, hängt mehr von DLSS3 ab als von allem anderen. Imho natürlich.

Eigentlich wäre die Welt halbwegs in Ordnung, wenn dem Ganzen jetzt schöne Angebote für neue RT30 folgen würden (die wären ja auch immer noch schön, wenn NV noch was daran verdienen würde). Da kommt aber bisher nicht viel ->

-> Ich vermute fast schon, daß sie das als Waffe und Munition für den Start von RDNA3 zurückhalten :tongue:
Der absolute Groß der Kundschaft (nicht: Fanboys) mit älteren Modellen ausgestattet (1000 und 2000 oder AMD 5000), der dann in der Abwägung ist nun endlich entweder auf die gelaunchte RX7000 oder RT40 zu gehen... und dann tun sich die Pforten auf und es kommen all die 3080(ti) und 3090 Angebote die man kaum ablehnen kann...

Nvidia verkauft dann immernoch GPUs. AMD nicht. Ja ich weiß. Das ist alles trotzdem auch bisschen schwierig mit den Partnern... Ging mir grad eben nur durch den Kopf ;)

Troyan
2022-10-07, 17:49:21
Müssen wir mal abwarten. Bis dato scheint SER vor allem für RT interessant zu sein. Intel's ARC und IMGTec RT Hardware (Voraussetzung für Level 4 Status der RT Hardware) haben übrigens ein entsprechendes Äquivalent. NVidia vermarktet es nur besser.

Bei Intel ist es (angeblich) automatisch. Bei nVidia will man eher dem Entwickler überlassen, das Umsortieren zu aktivieren. Trotzdem ändert es ja nichts, dass durch SER die Auslastung der GPU ansteigt, weil das Shading effizienter geschieht.

Thunder99
2022-10-07, 19:48:18
Also von den vorgestellten Hersteller Karten finde ich die Supreme X von MSI bisher die beste, hat halt auch AIO :freak:
So 3,5 Slot Karten im Gehäuse? No way ;D (bei mir)

ChaosTM
2022-10-07, 19:51:16
Meine wird zu 90% eine AIO. Hab noch Platz für 2x 3er Raddis.

450+ Watt bleiben sicher nicht im Gehäuse..

Thunder99
2022-10-07, 20:06:16
Meine wird zu 90% eine AIO. Hab noch Platz für 2x 3er Raddis.

450+ Watt bleiben sicher nicht im Gehäuse..
Viel Spaß dann in der Sauna :freak:

ChaosTM
2022-10-07, 20:18:42
Viel Spaß dann in der Sauna :freak:


Im Winter perfekt, im Sommer spiel ich dann wieder vermehrt am 200W/MAX Schlepptop ;)

Thunder99
2022-10-07, 21:07:14
Im Winter perfekt, im Sommer spiel ich dann wieder vermehrt am 200W/MAX Schlepptop ;)

:up:

BlacKi
2022-10-07, 21:19:28
Der Topdog ist für mich komplett überfahren. Das ist TSMC N4, was sich da auch mal nen halben Kilowatt aus dem Netzteil zieht. ^




kundschaft erwartet nichts anderes. mich wundert es, das leute das noch schockiert. die 3090 gabs auch schon mit 500w bios+. das ihr das noch anmerkt zeigt nur wie lächerlich die leute sind die das schockiert. get real!

Thunder99
2022-10-07, 21:32:39
kundschaft erwartet nichts anderes. mich wundert es, das leute das noch schockiert. die 3090 gabs auch schon mit 500w bios+. das ihr das noch anmerkt zeigt nur wie lächerlich die leute sind die das schockiert. get real!

Kundschaft erwartet hohe Leistung, kein mega Stromverbrauch, also die Mehrheit. Hersteller reizen den Prozess aus, damit sie Erwartung 1 auf jeden Fall erfüllen kann auf Kosten der Leistungsaufnahme.

Raff
2022-10-07, 21:41:23
Der Verbrauch mag pervers sein, aber die Effizienz ist ziemlich geil - ausgehend von GA102, der erst nach Handoptimierung eine gute Bilanz erzielt.

MfG
Raff

BlacKi
2022-10-07, 22:00:13
Der Verbrauch mag pervers sein, aber die Effizienz ist ziemlich geil - ausgehend von GA102, der erst nach Handoptimierung eine gute Bilanz erzielt.

MfG
Raffdas war noch nie anders. das open pwr target war immer ein feature für wassergekühlte overclocker. das diese gruppe ihre sparte aufgeben sollen ist lächerlich. ich erwarte nicht weniger als 800w maxed out für den fullchip ad102 und das ist gut so. lasst doch die leute unter wasser ihre leistung rauskitzeln. was stört mich das?

Kundschaft erwartet hohe Leistung, kein mega Stromverbrauch, also die Mehrheit. Hersteller reizen den Prozess aus, damit sie Erwartung 1 auf jeden Fall erfüllen kann auf Kosten der Leistungsaufnahme.

du kennst niemand in dessen kundschaft. die wenigsten hier sind noch kundschaft. die angesprochene kundschaft hat hier keinen stand. 3dc hat sich quasi abgeschafft, weil sie lieber ihr geld in ebikes und sonstige sinnlose hobbies investieren.

Sardaukar.nsn
2022-10-07, 22:05:06
Bei der Rohleistung macht die 4090 wohl vieles richtig. Was wohl in der Zukunft eine immer größere Rolle spielen wird ist die künstliche Intelligenz. Also durch KI geschaffene Auflösung oder sogar ganze Frame Generation. Ich finde das total schwer zu bewerten. Ignorieren ist aber auch keine echte Option.

ChaosTM
2022-10-07, 22:51:53
QrBc_Bq848M

hab nix gefunden, wenn schon mal war, sorry

crux2005
2022-10-07, 22:55:50
Wieso sind die Karten so groß? Weil der Kühler für 600W+ ausgelegt wurden.

g4lHgSMBf80

ChaosTM
2022-10-07, 22:59:17
@Igor - Schneller als erwartet, effizienter als erwartet :)

Outsider82
2022-10-07, 23:14:29
Gibt wieder mal n neuen "Leak" :

https://abload.de/img/44444444nadev.png

https://abload.de/img/7777774qiju.png

https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090

ChaosTM
2022-10-07, 23:23:38
Das ist ungefähr das, was man erwartet, auch wenn es nur 3Dmark ist

Outsider82
2022-10-07, 23:29:49
Yepp .. also ich finds ok .. alles über 70 % mehr geht für mich klar ich brauch da nun nich zwingend die 100 % mehr auch wenn ich dazu natürlich auch nich nein sagen würde ... auch gut das diesmal auch @Stock Werte dabei sind ( 450 Watt ) da ich auch nich über 450 Watt gehen werde sollte ich mir eine holen.
Denke mal die AIBs wahren auch @Stock nur dann halt mit den von Haus aus +mhz der jeweiligen Karte ohne aber das PT anzuheben.

Sie schreiben auch das sie wohl schon niedrigere als auch schon höhere 3D Mark Scores gesehen haben :

https://abload.de/img/0gkdq8.png

Ex3cut3r
2022-10-07, 23:33:30
Gibt wieder mal n neuen "Leak" :

https://abload.de/img/44444444nadev.png

https://abload.de/img/7777774qiju.png

https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090

Die 4080 16GB ist echt nur eine 4070 Ti, und die 12GB eine 4070 non Ti.

Richtig schwach imho, für GA102 Besitzer lohnt sich nur die 4090er.

r3ptil3
2022-10-07, 23:34:56
@Outsider82

Man gewöhnt sich halt sehr schnell an etwas.

Fun-Fact nebenbei: Eine Custom RTX 2080 Ti ist keine 35% langsamer als ein RTX 3090 Ti.

Outsider82
2022-10-07, 23:40:06
Richtig schwach imho, für GA102 Besitzer lohnt sich nur die 4090er.

Jepp die 4080 ( egal ob mit 12 oder 16 GB ) is zu schwach auf der Brust um meine 3080 Strix ( 450 Watt ) abzulösen. Ne 4080 Ti könnte interessant sein aber die is noch zu weit weg .. also bleibt nur die 4090 ( auch mit 450 Watt )

Bei AMD muss man schauen aber ich glaub nich das die an die 4090 rankommen und was RT angeht muss man bei AMD auch abwarten.... Für mich hat RT nen hohen Stellenwert bekommen als eben auch 4K Leistung sowie DLSS .. und nunja Preislich is die 4090 halt nich der bringer aber dafür wohl beim Rest

Mal schauen was dann so im Dezember bei mir in meinem PC stecken wird..

Ex3cut3r
2022-10-07, 23:44:39
Jep. So schauts in der Tat gerade aus. Irgendwie blöd. Ich bin ehrlich, ich habe momentan keine 2500€ + Für eine Custom 4090 und ein neues NT.

Das wäre die erste GPU Gen seit Pascal die ich auslasse, sry Nvidia.

Slipknot79
2022-10-07, 23:49:08
@Outsider82

Man gewöhnt sich halt sehr schnell an etwas.

Fun-Fact nebenbei: Eine Custom RTX 2080 Ti ist keine 35% langsamer als ein RTX 3090 Ti.


Die (Meine) 2080 Ti ist schon gute 50% langsamer als die 3090 Ti.War dann aber eben immer noch zu langsam um nen Umstieg zu rechtfertigen, ob nen Spiel nun 40 oder 60fps abliefert, beides gähn. (y)
Oder anders gerechnet, die 4090 müsste 3x so schnell sein wie die (meine) 2080 Ti. :love2: Also 40 vs 120fps ist schon eine andere Ansage. MOAR! (y)

-=Popeye=-
2022-10-07, 23:52:04
Also wenn ich mir die 3DMurks HOF so ansehe konkurriert die 4080 16GB mit einer 3090 Ti, die 4080 12GB dagegen könnte sogar einer 3080 TI unterlegen sein. Na ja DLSS 3 wird es wohl richten.

Outsider82
2022-10-07, 23:53:56
Jep. So schauts in der Tat gerade aus. Irgendwie blöd. Ich bin ehrlich, ich habe momentan keine 2500€ + Für eine Custom 4090 und ein neues NT. Das wäre die erste GPU Gen seit Pascal die ich auslasse, sry Nvidia.

Also ich hätte das Geld parat ... muss aber noch abwägen ob es das mir Wert ist. Und wie ich so ein Monster in meinem PC bekomme ohne das ich mein AGB umsetzen muss. ( für ne 33cm Karte hab ich Platz aber die 4090 Strix is 36cm lang .. und es soll halt eine sein mit 2 x HDMI 2.1 und die TUF is auch nich viel kürzer )
aber was nich passt wird einfach passent gemacht bin da prakmat.

Und ich warte wohl noch ab was AMD uns so Präsentieren wird auch wenn ich nich glaube das sie an die 4090 rannkommen.

Watt mässig is ne 4090 @Stock ja even zu meiner Akutellen 3080 Strix mit 450 Watt.

Ich kauf normalerweise immer nur alle 4 Jahre bzw jede 2 Gen. ( 275 , 570 , 780 Ti , 1080 , 3080 )

Aber ich mach diesmal ne Ausnahme weil ich mehr RT sowie 4K Power brauch für mein 4K OLED und unter DLSS Qualität geh ich nich.

r3ptil3
2022-10-07, 23:54:36
Die (Meine) 2080 Ti ist schon gute 50% langsamer als die 3090 Ti.War dann aber eben immer noch zu langsam um nen Umstieg zu rechtfertigen, ob nen Spiel nun 40 oder 60fps abliefert, beides gähn. (y)
Oder anders gerechnet, die 4090 müsste 3x so schnell sein wie die (meine) 2080 Ti. :love2: Also 40 vs 120fps ist schon eine andere Ansage. MOAR! (y)

https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/average-fps_3840-2160.png

Die besten Custom-RTX 2080 Ti Modelle schlagen noch fast 10% an Leistung drauf. Das sind dann gerade mal 25% weniger als die RTX 3090 Ti.

Ex3cut3r
2022-10-07, 23:56:12
Also ich hätte das Geld parat ... muss aber noch abwägen ob es das mir Wert ist. Und wie ich so ein Monster in meinem PC bekomme ohne das ich mein AGB umsetzen muss.

Und ich warte wohl noch ab was AMD uns so Präsentieren wird auch wenn ich nich glaube das sie an die 4090 rannkommen.

Watt mässig is ne 4090 @Stock ja even zu meiner Akutellen 3080 Strix mit 450 Watt.

Ich kauf normalerweise immer nur alle 4 Jahre bzw jede 2 Gen.
( 275 , 570 , 780 Ti , 1080 , 3080 )

Aber ich mach diesmal ne Ausnahme weil ich mehr RT sowie 4K Power brauch
für mein 4K OLED und unter DLSS Qualität geh ich nich.

:up: Ich gönne es dir, wenn du später einen 4090 kauf tätigst. Für 4K High Refresh Rate IHMO auch ein muss. Ich bin mit 1440p 27, 240HZ Monitor flexibler. 4K DSR sieht besser aus, klar, aber 1440p, ist in nativer Auflösung immer noch gut genug.

Platos
2022-10-08, 00:01:48
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/average-fps_3840-2160.png

Die besten Custom-RTX 2080 Ti Modelle schlagen noch fast 10% an Leistung drauf. Das sind dann gerade mal 25% weniger als die RTX 3090 Ti.

Die 3090Ti ist da 57% schneller. Und selbst wenn man auf die 2080Ti dort noch 10% oben drauf haut, ist die 3090Ti trotzdem noch 43% schneller. Und selbst wenn es von der 2080Ti aus gesehen rechnet, sind es 30% und nicht 25% weniger.

33% weniger sind hald das gleiche wie von der anderen Seite 50% schneller ;)

r3ptil3
2022-10-08, 00:03:09
Die 3090Ti ist da 57% schneller. Und selbst wenn man auf die 2080Ti dort noch 10% oben drauf haut, ist die 3090Ti trotzdem noch 43% schneller.

Nicht wenn du von 100% = RTX 3090 Ti ausgehst.

TurricanM3
2022-10-08, 00:03:36
Die 4090 wirkt von der Perf. eher wie eine Gen weiter. Wenn das stimmt, heftig.
DLSS hingegen lässt mich relativ kalt. In den Games die ich damit testen konnte, war das nichts. Zu viel Quali Verlust oder eigenartige Effekte.

Slipknot79
2022-10-08, 00:07:37
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/average-fps_3840-2160.png

Die besten Custom-RTX 2080 Ti Modelle schlagen noch fast 10% an Leistung drauf. Das sind dann gerade mal 25% weniger als die RTX 3090 Ti.

Die 3090Ti canst auch noch etwas hochballern, ist ja ned nur 2080 Ti exclusive.

https://www.gamestar.de/artikel/rtx-3090-ti-test,3380114.html
(3070 ist ca 2080 Ti)

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Es fehlt zwar die 3090 Ti, aber die kannst du dir über der 3090 dazudenken.

Von raytracing 2080 Ti vs 3090 Ti noch gar nicht angefangen, da räumt Ampere sowieso noch extra auf. (y)

Outsider82
2022-10-08, 00:09:47
:up: Ich gönne es dir, wenn du später einen 4090 kauf tätigst. Für 4K High Refresh Rate IHMO auch ein muss. Ich bin mit 1440p 27, 240HZ Monitor flexibler. 4K DSR sieht besser aus, klar, aber 1440p, ist in nativer Auflösung immer noch gut genug.

Jo dank dir ... aber wie gesagt lass ich mir erstmal zeit selbst wenn die erste Fuhre ausverkauft sein sollte is das erstmal nich weiter wild für mich.
Jeh nach dem wann ich dieses Jahr Urlaub machen kann hab ich noch Zeit.
Denke mal vor Mitte November kauf ich nix bis dahin sollte AMD ja auch was Messbares geliefert haben und spätestens dann haben diese ewigen Leaks und Spekulationen ja dann entlich ein Ende und das Essen steht auf dem Tisch und daneben dann die Rechnung :-)

Ja für 1440p is man teils mit ner 3080 auch noch gut aufgestellt aber bei 4K + RT wirds da halt leider schon langsam eng wenn man nich unter DLSS Qualität will. 120 FPS brauch ich nun nich zwingend auch wenn ich nen 4K 120hz OLED hab aber so 60 - 90 FPS sollten es schon sein. Und da bin ich bei Cyberpunk 2077 eben schon drunter mit meiner 3080 Strix da hab ich so 40-55 FPS

r3ptil3
2022-10-08, 00:12:12
Die 3090Ti canst auch noch etwas hochballern, ist ja ned nur 2080 Ti exclusive.

https://www.gamestar.de/artikel/rtx-3090-ti-test,3380114.html
(3070 ist ca 2080 Ti)

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Es fehlt zwar die 3090 Ti, aber die kannst du dir über der 3090 dazudenken.

Von raytracing 2080 Ti vs 3090 Ti noch gar nicht angefangen, da räumt Ampere sowieso noch extra auf. (y)

lol, machts nicht besser:

https://i.ibb.co/xXPQF7X/image.png

Und das ist ist noch ein Custom-OC Modell der RTX 3090 Ti.

Badesalz
2022-10-08, 00:14:16
kundschaft erwartet nichts anderes. mich wundert es, das leute das noch schockiert. die 3090 gabs auch schon mit 500w bios+. das ihr das noch anmerkt zeigt nur wie lächerlich die leute sind die das schockiert. get real!Einerseits bin halt kein Bot. Ich bin bereits real ;)
Andererseits hast du einen seltsamen Ansatz zum Thread. Verstehst du das hier als eine Fanboyparade? Leute die sich für die Technik interessieren, für sie begründet auch mal begeistern, reden über diese Technik. Deal with it.

Eine 4090 bekommt man nicht fürs Taschengeld. Man denkt also, eine Diskussion über jene hat einen recht geringen Anteil an Heranwachsenden. Vom Geiste her scheint das aber nicht so. Na dann: Sorry, aber trotz der Erkenntnis werde ich keine besondere Rücksicht auf deine Gefühle nehmen. Ich will mich ja über das Ding unterhalten und nicht über dich. Wenn man mit "30" auf eine der Clowncards (nicht technisch, optisch) heiß ist, dann wäre ich sowwieso überfordert.

Stör also nicht und erzähl mir erst recht nicht was über "lächerlich" :usweet:

Slipknot79
2022-10-08, 00:14:25
lol, machts nicht besser:

https://i.ibb.co/xXPQF7X/image.png

Und das ist ist noch ein Custom-OC Modell der RTX 3090 Ti.


Du "lol", nimm mal 4k und nicht overall wo 1080p drinnen steckt.
Außerdem, halte die Mouse auf die 3070. (y)

Ex3cut3r
2022-10-08, 00:15:42
Jo dank dir ... aber wie gesagt lass ich mir erstmal zeit selbst wenn die erste Fuhre ausverkauft sein sollte is das erstmal nich weiter wild für mich.
Jeh nach dem wann ich dieses Jahr Urlaub machen kann hab ich noch Zeit.
Denke mal vor Mitte November kauf ich nix bis dahin sollte AMD ja auch was Messbares geliefert haben und spätestens dann haben diese ewigen Leaks und Spekulationen ja dann entlich ein Ende und das Essen steht auf dem Tisch und daneben dann die Rechnung :-)

Ja für 1440p is man teils mit ner 3080 auch noch gut aufgestellt aber bei 4K + RT wirds da halt leider schon langsam eng wenn man nich unter DLSS Qualität will. 120 FPS brauch ich nun nich zwingend auch wenn ich nen 4K 120hz OLED hab aber so 60 - 90 FPS sollten es schon sein. Und da bin ich bei Cyberpunk 2077 eben schon drunter mit meiner 3080 Strix da hab ich so 40-55 FPS

Also bei 4K kannst du auch DLSS Performance wählen. Das ist bei 4K minimaler Unterschied zu DLSS Q, den merkst du ohne direkten Bildvergleich niemals. Bringt nochmal bis zu 15% Leistung. Dann wärst du bei CP77 wohl bei 55 FPS avg. Aber eine 4090 wäre natürlich die bessere Wahl.

r3ptil3
2022-10-08, 00:18:05
Du "lol", nimm mal 4k und nicht overall wo 1080p drinnen steckt.
Außerdem, halte die Mouse auf die 3070. (y)

Hahaha... so fallen wohl viele auf die Marketingmasche rein.

67% mehr wirkt besser als 60 vs. 100.

Mit einer ebenfalls gleichwertigen Custom-RTX 2080 TI, sinds dann 70 vs. 100.

Das ist einfach weak.



In einer normalen Welt aber bildet das stärkste Produkt 100% und nicht 167.4563456%.

Slipknot79
2022-10-08, 00:22:24
In einer normalen Welt Upgrade ich aber von 100% auf.... das was eben mit der neuen Graka geliefert wird. (y)

r3ptil3
2022-10-08, 00:23:53
In einer normalen Welt Upgrade ich aber von 100% auf.... das was eben mit der neuen Graka geliefert wird. (y)

Na dann sind Herstellerfolien genau das richtige für dich.

Slipknot79
2022-10-08, 00:25:19
Wusste gar nicht, dass gamestar, PCGH usw benchmarken und daraufhin die Ergebnisse auf Herstellerfolien rausballern. oO Am besten ich meide all diese Magazine, thx für den Hinweis. (y)

Outsider82
2022-10-08, 00:28:58
Also bei 4K kannst du auch DLSS Performance wählen. Das ist bei 4K minimaler Unterschied zu DLSS Q, den merkst du ohne direkten Bildvergleich niemals. Bringt nochmal bis zu 15% Leistung. Dann wärst du bei CP77 wohl bei 55 FPS avg. Aber eine 4090 wäre natürlich die bessere Wahl.

Bei einem 48" OLED ( LG 48CX ) und 100 - 120cm Sitzabstand erkennt man da schon nen unterschied .. selbst bei DLSS Qualität gibts nen Unterschied zu Nativ bei der Schärfe aber da hilft Nvidias Sharpening Tool etwas aber alles unter DLSS Qualität sieht mir Persönlich nich mehr gut genug aus.
Aber das mag auf nem 27" natürlich anders sein.

r3ptil3
2022-10-08, 00:30:23
Wusste gar nicht, dass gamestar, PCGH usw benchmarken und daraufhin die Ergebnisse auf Herstellerfolien rausballern. oO Am besten ich meide all diese Magazine, thx für den Hinweis. (y)

Die genannten Magazine bieten ja genau die Möglichkeit das neue Produkt als 100% zu betrachten, Herstellerfolien nicht.

Zwischen sehen und verstehen liegt aber eben noch ein Unterschied. :tongue:

Troyan
2022-10-08, 00:32:15
Schon ironisch, dass die 4090 im ältesten 3DMark am schnellsten ist und im jüngsten, wo eigentlich auch die Stärke liegen sollte, am "langsamsten".

70%+ sind ein ziemlich gutes Ergebnis, wenn man überlegt, dass die beste Leistung mit Raytracing erreicht wird. Sollte dann auch die 4080 12GB eigentlich immer vor die 3090TI spülen...

Ex3cut3r
2022-10-08, 00:36:10
Bei einem 48" OLED ( LG 48CX ) und 100 - 120cm Sitzabstand erkennt man da schon nen unterschied .. selbst bei DLSS Qualität gibts nen Unterschied zu Nativ bei der Schärfe aber da hilft Nvidias Sharpening Tool etwas aber alles unter DLSS Qualität sieht mir Persönlich nich mehr gut genug aus.
Aber das mag auf nem 27" natürlich anders sein.

Argh. Sry, die Größe deines Bildschirms kurz ausgeblendet. Ja, hast natürlich völlig recht. Die PPi ist selbst bei 4K nix besonders mehr.

Slipknot79
2022-10-08, 00:39:26
Die genannten Magazine bieten ja genau die Möglichkeit das neue Produkt als 100% zu betrachten, Herstellerfolien nicht.

Zwischen sehen und verstehen liegt aber eben noch ein Unterschied. :tongue:

Es gibt keinen Unterschied. Ob du von oben runter rechnest, oder von unten nach oben, das Ergebnis ist das selbe. (y)

dildo4u
2022-10-08, 00:40:06
Die 4080 12 GB wird bei 50% der 4090 landen was anderes geben die Specs nicht her.
Sie wird in Games besser aussehen als in 3D Mark, da die dickeren Karten eher in CPU Limits laufen.

Outsider82
2022-10-08, 00:41:47
Argh. Sry, die Größe deines Bildschirms kurz ausgeblendet. Ja, hast natürlich völlig recht. Die PPi ist selbst bei 4K @ 48" nix besonders mehr.

Die PPI eines 4K 48" is gleich zu 24" 1080 ( 92 PPI )

Aber es is nich nur die PPI sondern eben auch die Größe des Gerätes ansich.
Man erkennt bei 48" mehr Details als bei zb 24" und daher fällt einem das auch stärker auf wenn man DLSS nutzt wie die Details mit DLSS matschiger werden.
Das Sharpening Tool hilft da zwar einiges aber bei DLSS Performance gehen mir zuviele Details in der Entfernung flöhten daher geh ich max auf DLSS Qualität

Und da währen eben noch die 10 GB VRAM meiner 3080 Strix .. bis heute kamm ich damit noch gut aus aber zukünftig wird das zum Problem werden .. von daher muss halt so oder so ne neue Karte her... es steht halt nur noch nich fest welche es werden wird.

Badesalz
2022-10-08, 00:43:12
aber alles unter DLSS Qualität sieht mir Persönlich nich mehr gut genug aus.Korrekt.

Aber das mag auf nem 27" natürlich anders sein.
Nein. Das war schon immer so.

Sonst ist das wie mit dem Steinschlag auf der Seite einer Windschutzscheibe. Verigsst man auch mal. Dann sieht man es 1x kurz nach 4 Tagen und die ganze Fahrt schielt man da irgendwie immer wieder mal hin.

Das Studio hat Monate und Jahre Arbeit in bestmöglichen Content gesteckt und dann kauft man sich eine superduper Graka und preist die Geschwindikteit beim eingeschalteten RQR (render quality regress).

So ist das aber wohl jetzt in der Endzeit. "Und es folgt eine Zeit der großen Verwirrtheit"... :usweet:

Troyan
2022-10-08, 00:43:26
Die 4080 12 GB wird bei 50% der 4090 landen was anderes geben die Specs nicht her.
Sie wird in Games besser aussehen als in 3D Mark, da die dickeren Karten eher in CPU Limits laufen.

TDP der 4090 ist nur 58% höher. Wie soll die 4090 hier doppelt so schnell sein?!

dildo4u
2022-10-08, 00:46:09
80 vs 40TFs oder sind die Werte Fantasie, der dickere Chip ist natürlich effizienter da er nicht mit 2.6Ghz läuft.

Atma
2022-10-08, 00:46:31
Überall wo Ampere seine doppelten FP32 Shader ausfahren kann, sieht Turing kein Land. Also Games wie Doom Eternal, so ziemlich alle UE 4 Titel, Sniper Elite 5 und viele andere moderne Titel. In Zukunft mit der UE 5 dürfte die Kluft nur noch größer werden. Kommt noch RT dazu, fällt Turing ohnehin weit zurück.

Die 2080 Ti war eine sehr gute Karte, man sollte sich ohne sinnlos darüber zu diskutieren aber eingestehen, dass Ampere besonders in hohen Auflösungen so gut wie immer klar überlegen ist.

Troyan
2022-10-08, 00:48:21
Spiele skalieren nicht 1:1. Und die 4090 ist wesentlich breiter als Chip.
Selbst in den Raytracing-Benchmarks von nVidia ist die 4090 nicht doppelt so schnell. Sieht viel mehr nach etwas zwischen 60% und 70%.

Outsider82
2022-10-08, 00:52:02
Korrekt.
Nein. Das war schon immer so.


Das sehen viele anders ( ich halt nich ) aber ich glaub die es anders sehen nutzen meisst kleinere Monitore so das ihnen der Qualitätsverlust bei DLSS Perfomance bzw DLSS allgemein weniger oder garnicht auffällt als Leuten die ein Großen über 40" Monitor / TV nutzen


Sonst ist das wie mit dem Steinschlag auf der Seite einer Windschutzscheibe. Verigsst man auch mal. Dann sieht man es 1x kurz nach 4 Tagen und die ganze Fahrt schielt man da irgendwie immer wieder mal hin.


Ja Steinschlag is unbequem und lenkt auch ab beim Fahren wenn man dahin schielt wen es in der Fahrer sicht ist.


So ist das aber wohl jetzt in der Endzeit. "Und es folgt eine Zeit der großen Verwirrtheit"... :usweet:

Nunja .. ich hoffe mal nich das wir schon in der Endzeit sind .. die Atom Raketten hat der Kollege drüben ja noch nich abgeschossen ... Fallout 5 is also nich noch released :-)

Aber "die Große Verwirrtheit" herscht ja immer kurz vor Release der neuen Karten :-)

wolik
2022-10-08, 00:54:54
Die PPI eines 4K 48" is gleich zu 24" 1080 ( 92 PPI )

Aber es is nich nur die PPI sondern eben auch die Größe des Gerätes ansich.
Man erkennt bei 48" mehr Details als bei zb 24" und daher fällt einem das auch stärker auf wenn man DLSS nutzt wie die Details mit DLSS matschiger werden.
Das Sharpening Tool hilft da zwar einiges aber bei DLSS Performance gehen mir zuviele Details in der Entfernung flöhten daher geh ich max auf DLSS Qualität


Bei 64" (4K) sieht man Detailverlust noch stärke. Hilft nur eins. Spielen mit 8K bzw. DLDSR 4K x 2,25 Auflösung.

Ex3cut3r
2022-10-08, 00:57:32
Wie nah sitzt ihr alle da dran? Wird man nicht blind bzw. bekommt eine Nackenstarre? Wie muss man sich das vorstellen? Liegt ihr alle im Bett oder so? Die eine Hand am Schwanz, die andere an der Tastatur/Maus? :freak: ;D

Outsider82
2022-10-08, 01:01:32
Bei 64" (4K) sieht man Detailverlust noch stärke. Hilft nur eins. Spielen mit 8K bzw. DLDSR 4K x 2,25 Auflösung.


Für 64" 4K hab ich nich den Platz und die PPI is dann auch nich mehr grad feierlich aber da sitzt man dann natürlich noch weiter von weg sodass die PPI wieder ausgeglichen wird

Monsta
2022-10-08, 01:01:53
TDP der 4090 ist nur 58% höher. Wie soll die 4090 hier doppelt so schnell sein?!

Nvidia hat die Overwatch 2 Fps in 1440p angegeben.
Die 4080 12 gb hat 58% der Leistung der 4090.
Die 3080 10gb ist genau auf 50%.
Evtl. war die 4090 mit Ihren 507 Fps auch mal im Cpu Limit.

https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/

Outsider82
2022-10-08, 01:04:27
Wie nah sitzt ihr alle da dran? Wird man nicht blind bzw. bekommt eine Nackenstarre? Wie muss man sich das vorstellen? Liegt ihr alle im Bett oder so? Die eine Hand am Schwanz, die andere an der Tastatur/Maus? :freak: ;D

Monitor Breite = Augenabstand zum Gerät

Mein 48" CX is 107cm Breit und ich sitz 100 - 120 cm vom Gerät weg ( je nach sitz posi ) Auf dem PC Schreibtisch meine PC Tasta und Maus und vor dem PC Schreibtisch hab ich mir noch ein kleines Regal hingestellt wo der 48" draufsteht

Da bekommt man auch keine Nackenstarre und man muss auch nich sein Kopf hin und her bewegen um alles zu sehen sondern kann alles mit seinen Augen abdecken ohne seinen Kopf bewegen zu müssen weil die Entferntung passt... sitzt man aber zu nah dann kann es natürlich zu Probs kommen die Entfernung zum Gerät muss halt passen... Nunja und man wird auch nich Blinder als wenn man bei 40cm abstand vor einem 24" sitzt

Aber das is nun auch recht Off Topic hier.

wolik
2022-10-08, 01:04:53
Wie weit bist du entfernt, wenn du ein Buch liest oder etwas auf einem Laptop ansiehst? Wie sollte es "anders" sein, auf einem 65-Zöller zu spielen? Hauptsächlich stört das Pixel-Gitter.
1.2- 1.5 m.

Tesseract
2022-10-08, 01:04:55
da wird vieles teilweise CPU-limitiert sein, das war bei der 1080Ti damals auch so wo leute reihenweise geschrieben haben die karte ist sinnlos weil kaum schneller als die 1080 weil die karte einfach "zu schnell" für viele spiele war.
ohne 3rd party reviews führen diese diskussionen zu nix.

ChaosTM
2022-10-08, 01:06:23
Die 1080ti war immer schneller als die 80er..
Wo kommt der blödfug her ?

ok falsch gelesen..

Snoopy69
2022-10-08, 01:50:31
Wie nah sitzt ihr alle da dran? Wird man nicht blind bzw. bekommt eine Nackenstarre? Wie muss man sich das vorstellen? Liegt ihr alle im Bett oder so? Die eine Hand am Schwanz, die andere an der Tastatur/Maus? :freak: ;D
80-90cm von Auge zum 48CX :freak:

Nackenstarre??? :ulol:
Die habe ich beim 27“ Predator noch gehabt. Seit dem hab ich ihn nicht mehr benutzt. Nur noch den 48CX. Man guckt „dynamischer“ (Kopf geht mit). Kann vielleicht auch jmd Anderes bestätigen

Gerade beim Snipen war mir der 27“ zu klein. Gesicht war nahe am Panel = Kopf im Nacken = Verspannungen im Nacken (bei mir zumindest)

Warum 80-90cm und nicht 100-120cm?
Bin kurzsichtig und die Brille macht alles etwas kleiner

Badesalz
2022-10-08, 02:15:45
Die eine Hand am Schwanz, die andere an der Tastatur/Maus? :freak: ;DEine Idee ist das schon... Egal welches Vid mit welcher Milf auch erwischt, mit DLSS Perf. sehen alle Schnuten durchgeglättet als wenn 21...

ChaosTM
2022-10-08, 02:18:37
..del

Thunderburne
2022-10-08, 07:27:23
Bei einem 48" OLED ( LG 48CX ) und 100 - 120cm Sitzabstand erkennt man da schon nen unterschied .. selbst bei DLSS Qualität gibts nen Unterschied zu Nativ bei der Schärfe aber da hilft Nvidias Sharpening Tool etwas aber alles unter DLSS Qualität sieht mir Persönlich nich mehr gut genug aus.
Aber das mag auf nem 27" natürlich anders sein.
Jup ich Spiele auf einem 77C1 OLED.
Bei einem Abstand von ca.220-235cm und empfinde das auch so alles unter DLSS Qualität ist ein no Go auf so einem 4K Monitor /TV !
Der Oled bestraft aber auch sofort schlechtes Quellmaterial durch seinen hohen Kontrast Umfang so mein Gefühl wenn ich mir das selbe Material manchmal auf dem Philips 4K 43 Zoll ansehe .

dargo
2022-10-08, 08:42:12
PS5 vs. RTX 4090 Custom. ;D

https://abload.de/img/4090yliq9.jpg

Sardaukar.nsn
2022-10-08, 08:48:01
https://i.imgur.com/Z1xbyQm.jpg

Das Video von Moore's Law Is Dead fand auch generell ganz interessant. In den USA scheint es 4-5x die Stückzahlen im Vergleich zum 3090 Launch zu geben. Deckt sich auch mit den Eindrücken wie die Youtuber mit Karten zu gebombt wurden. Verfügbarkeit wird wohl gegeben sein.

_Wih0h8ps44

Raff
2022-10-08, 09:14:18
da wird vieles teilweise CPU-limitiert sein, das war bei der 1080Ti damals auch so wo leute reihenweise geschrieben haben die karte ist sinnlos weil kaum schneller als die 1080 weil die karte einfach "zu schnell" für viele spiele war.
ohne 3rd party reviews führen diese diskussionen zu nix.

Wahr. Solche Diskussionen und Probleme sind übrigens uralt, die gab's schon in den 90ern, als alle paar Monate ein neuer Brutalo-Chip mit den vorherigen den Boden aufwischte. Die RTX 4090 erinnert mich schon ziemlich daran, was ich den "V5-6000-Effekt" nenne: die Grundleistung von Prozessoren steigt einfach nicht schnell genug, um die jeweils neueste GPU-Generation beim Pixel-Tetris auszulasten. Aber dieses Problem lässt sich ja einfach - damals wie heute - durch eine Erhöhung der Bildqualität lösen. =) Dann ist das zwar nicht "for free", praktisch aber eben schon.

MfG
Raff

Platos
2022-10-08, 09:27:51
Also m.M.n ist 8k 120Hz so das "Endziel" und von daher ist da noch etwas Zeit für die CPUs und so.

Framegeneration entlastet die CPU ja Grunde enorm bezogen auf die Framerate. Die hat dann ja im Endeffekt nur noch jedes 2. Bild berechnet (gibt natürlich auch keine Daten mehr, wie Input).

r3ptil3
2022-10-08, 09:45:09
Framegeneration entlastet die CPU ja Grunde enorm bezogen auf die Framerate. Die hat dann ja im Endeffekt nur noch jedes 2. Bild berechnet (gibt natürlich auch keine Daten mehr, wie Input).

Und das gute, es sind so viele Spiele davon betroffen.

Interessant wird es, wenn dies in abgewandelter Form für die CPU selber auch Anwendung finden würde. Ein CPU-Limit wäre dann Geschichte.

The_Invisible
2022-10-08, 09:51:08
Monitor Breite = Augenabstand zum Gerät

Mein 48" CX is 107cm Breit und ich sitz 100 - 120 cm vom Gerät weg ( je nach sitz posi ) Auf dem PC Schreibtisch meine PC Tasta und Maus und vor dem PC Schreibtisch hab ich mir noch ein kleines Regal hingestellt wo der 48" draufsteht

Da bekommt man auch keine Nackenstarre und man muss auch nich sein Kopf hin und her bewegen um alles zu sehen sondern kann alles mit seinen Augen abdecken ohne seinen Kopf bewegen zu müssen weil die Entferntung passt... sitzt man aber zu nah dann kann es natürlich zu Probs kommen die Entfernung zum Gerät muss halt passen... Nunja und man wird auch nich Blinder als wenn man bei 40cm abstand vor einem 24" sitzt

Aber das is nun auch recht Off Topic hier.

Nur was ist dann der Unterschied wenn man bei einem großen Monitor weiter weg sitzt und bei einem Kleinen näher dran? Außer das man vor dem Schreibtisch noch einen Schrank stehen hat :D Empfinde da meine 4k auf 32" mit normalen Sitzabstand als ziemlich ideal...

@Raff
Ja eh, vor allem wenn man mit dem alten Cyperpunk Psycho Setting nicht mal 4k/60 erreicht was sich ja abzeichnet, das wäre ja ziemlich nice gewesen. Eventuell ein Fall für FullFat Ada mit schnellsten G6X :D

Raff
2022-10-08, 10:13:35
Ja eh, vor allem wenn man mit dem alten Cyperpunk Psycho Setting nicht mal 4k/60 erreicht was sich ja abzeichnet, das wäre ja ziemlich nice gewesen. Eventuell ein Fall für FullFat Ada mit schnellsten G6X :D

4K/60 mit allen Details am Anschlag ist aus der heutigen Perspektive für keine Ada-Karte realistisch. Ich habe erst gestern (m)eine RTX 3090 Ti "cranked up" durch Kabuki gescheucht. Oft 25, manchmal nur gut 20 Fps - also ohne DLSS. AD102 müsste sich ganz schön strecken, um das zu knacken. Aber möglicherweise reißt es dann SER heraus, welches Stand jetzt nicht implementiert ist.

MfG
Raff

Cubitus
2022-10-08, 10:24:41
Wahr. Solche Diskussionen und Probleme sind übrigens uralt, die gab's schon in den 90ern, als alle paar Monate ein neuer Brutalo-Chip mit den vorherigen den Boden aufwischte. Die RTX 4090 erinnert mich schon ziemlich daran, was ich den "V5-6000-Effekt" nenne: die Grundleistung von Prozessoren steigt einfach nicht schnell genug, um die jeweils neueste GPU-Generation beim Pixel-Tetris auszulasten. Aber dieses Problem lässt sich ja einfach - damals wie heute - durch eine Erhöhung der Bildqualität lösen. =) Dann ist das zwar nicht "for free", praktisch aber eben schon.

MfG
Raff

:D:D


Wie gesagt ich bin fast überzeugt das alle gängigen CPUs der Karte nicht gerecht werden können.



Ich würde behaupten das aktuell kein "konventionelles" Spiel eine Herausforderung für die 4090 sein wird. Und das CPU-Limit auch in 4k ein Thema wird.

Geforce 8800 GTX, habs iwie im Urin das die 4090 also der kleine 102er schon in die Fußstapfen des legendären G80 treten kann :)

Klar wird man dieses Monster schon ausgelastet bekommen :)
Die 4090 wird oben ziemlich alleine dar stehen.

Und ich bleib außerdem dabei das man den kleinen 104er noch nicht ganz abschreiben sollte ;)

Dieser wird sich mit der 3090(TI) messen können bzw etwas schneller sein, sonst wäre es keine 4080er geworden.
Der 104er Chip ist in Nvidias Augen stark genug um den vorherigen HighEnd Versionen Paroli zu bieten.
Spätestens bei RT mit DLSS3 wird auch die "kleine" 4080, die 3090 deutlich hinter sich lassen..

Der 103 bildet dann die Brücke zum größeren 102er..

Ich bin wirklich so gespannt was dann mit RDNA3 passieren wird.
Würde mich wundern wenn der Navi31 näher an dem 104er Chip dran wäre :biggrin:

horn 12
2022-10-08, 10:27:26
@raff

SER ?

Raff
2022-10-08, 10:31:41
@raff

SER ?

Shader Execution Reordering (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665913/?fullsize). Ein Feature, das, vereinfacht formuliert, die ziemlich unvorhersehbaren Arbeitsanweisungen beim Raytracing so sortiert, dass sie effizient abgearbeitet werden können. Laut Nvidia muss das Feature von Spiele-Entwicklern implementiert werden. Intels Alchemist hat das Feature auch, dort wird es aber von der Hardware übernommen und nennt sich Thread Sorting Unit (TSU) (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Tests/A770-A750-Test-Benchmarks-Preis-Release-1404382/galerie/3670388/?fullsize). Man weiß nicht, was in welcher Ausprägung effizienter ist.

MfG
Raff

Troyan
2022-10-08, 10:33:11
Nicht das Feature, sondern die Funktion. Funktioniert auch bei nVidia "automatisch". Wird interessant sein, wie sich gegenüber Intel verhält. Vielleicht ist auch Intels Ansatz in einigen Spielen ineffizient, weil man immer die Sortierung durchführt.

Cubitus
2022-10-08, 10:34:03
Ja eh, vor allem wenn man mit dem alten Cyperpunk Psycho Setting nicht mal 4k/60 erreicht was sich ja abzeichnet, das wäre ja ziemlich nice gewesen. Eventuell ein Fall für FullFat Ada mit schnellsten G6X :D

Genau, dann nimmst noch das 128 Mal tessellierte Wasser hinzu, was ebenso nutzlos ist ;D Nvidia wird den Devs schon sagen, hey baut eine Option ein die wenig bringt und viel kostet, einfach weil "wir" es können

Psycho ist über Ultra :freak:

ChaosTM
2022-10-08, 10:59:17
4K/60 mit allen Details am Anschlag ist aus der heutigen Perspektive für keine Ada-Karte realistisch. Ich habe erst gestern (m)eine RTX 3090 Ti "cranked up" durch Kabuki gescheucht. Oft 25, manchmal nur gut 20 Fps - also ohne DLSS. AD102 müsste sich ganz schön strecken, um das zu knacken. Aber möglicherweise reißt es dann SER heraus, welches Stand jetzt nicht implementiert ist.

MfG
Raff


So um die 40 scheinen möglich zu sein. Das ginge zur Not auf einem 120hz Monitor.
2k+ für eine AIW Version wird halt zach ;)

Dovregubben
2022-10-08, 11:12:11
Shader Execution Reordering (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665913/?fullsize). Ein Feature, das, vereinfacht formuliert, die ziemlich unvorhersehbaren Arbeitsanweisungen beim Raytracing so sortiert, dass sie effizient abgearbeitet werden können.
Da wird auch schnell für Rasterisierung damit experimentiert werden. Sobald AMD sowas auch supportet, wird man, falls es sich lohnt, überall Änderungen in den Implementierungen sehen. Nicht nur bei Raytracing.

Ramius
2022-10-08, 11:14:03
Shader Execution Reordering (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/RTX-4090-RTX-4080-1403773/galerie/3665913/?fullsize). Ein Feature, das, vereinfacht formuliert, die ziemlich unvorhersehbaren Arbeitsanweisungen beim Raytracing so sortiert, dass sie effizient abgearbeitet werden können. Laut Nvidia muss das Feature von Spiele-Entwicklern implementiert werden. Intels Alchemist hat das Feature auch, dort wird es aber von der Hardware übernommen und nennt sich Thread Sorting Unit (TSU) (https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Tests/A770-A750-Test-Benchmarks-Preis-Release-1404382/galerie/3670388/?fullsize). Man weiß nicht, was in welcher Ausprägung effizienter ist.

MfG
Raff

Wie kann man unvorhersehbare Arbeitsanweisungen so sortieren, dass sie effizient abgearbeitet werden können? Gibt es dazu irgendwo nähere Informationen?

Troyan
2022-10-08, 11:20:36
Nicht unvorhersehbar. Die Shading-Arbeit ist ja bekannt und wird als zusätzlicher Arbeitsschritt für die Recheneinheiten vorsortiert, um wesentlich effizienter abgearbeitet zu werden.

Badesalz
2022-10-08, 11:58:24
Die RTX 4090 erinnert mich schon ziemlich daran, was ich den "V5-6000-Effekt" nenne: die Grundleistung von Prozessoren steigt einfach nicht schnell genug, um die jeweils neueste GPU-Generation beim Pixel-Tetris auszulasten.Wenn man für mehr Takt und Watt die Kühlungsmaßnahmen am X3D so steigert wie sie von 3090 auf 4090 gestiegen sind, kann man dem CPU-Limit doch wieder entfliehen. Wenn man die CPU auf die gleiche Wattzahl bringt wäre sie imho mehr als nur gleichwertig... :usweet:
1:1 Technologie, sozusagen.

Wie oft gab es eigentlich schon den "Effekt"? Wenn man jetzt nicht total falsch einkauft war man doch jetzt Jahre über Jahre im GPU-Limit. Oder hab ich das verkehrt vernommen die ganze Zeit?

Timbaloo
2022-10-08, 12:40:04
Wie kann man unvorhersehbare Arbeitsanweisungen so sortieren, dass sie effizient abgearbeitet werden können? Gibt es dazu irgendwo nähere Informationen?
Siehe Ada Whitepaper:

https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf

Stark vereinfacht dargestellt: Du sammelst Strahlen und sortierst sie so, dass du möglichst große Batches an Strahlen bekommst die alle potentiell auf dasselbe Object treffen (laut BHV-Tree), dann kannst du diese Strahlen abarbeiten ohne das gleiche Objekt mehrmals aus dem Speicher lesen zu müssen. Wie gesagt, stark vereinfacht...

dildo4u
2022-10-08, 13:09:21
9Ryc4Gz0X3s

fondness
2022-10-08, 13:15:16
Gibt wieder mal n neuen "Leak" :

https://abload.de/img/44444444nadev.png

https://abload.de/img/7777774qiju.png

https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090

Das sieht schon deutlich realistischer aus, wenn auch nur 3dmark. Wir sprechen nach wie vor von zwei full node shriks. Selbst ohne Architektur Anpassung sollte da Faktor 2 allemal realistisch sein. Je nach takt auch mehr.

Outsider82
2022-10-08, 13:23:45
Nur was ist dann der Unterschied wenn man bei einem großen Monitor weiter weg sitzt und bei einem Kleinen näher dran? Außer das man vor dem Schreibtisch noch einen Schrank stehen hat :D Empfinde da meine 4k auf 32" mit normalen Sitzabstand als ziemlich ideal...


Wie gesagt die schiere Größe des Bildes lässt dich bei einem Großen über 40" Monitor mehr und leichter Details erkennen vorallem eben die die in der Entfernung sind wo man eben dann wesentlich leichter die Matsche erkennt die DLSS verursacht die man aber mit dem Nvidia Sharpening Tool wieder etwas ausgleichen kann. Das ist wie mit dem Kino ... im Kino erkennt man auch wesentlich mehr Details pro Bild als wenn man sich den Film zuhause auf nem 55" TV anschaut wo man so 2 - 3 Meter von weg sitzt.

Was da nun wem besser gefällt usw kann ja dann jeder für sich entscheiden ... Menschen sind nunmal unterschiedlich und haben unterschiedliche wahrnehmungen sowie Wünsche an Monitor Größen .. ein 32" währe mir nun wiederrum zu klein ich bleibe nun im Bereich über 40" .. wie gesagt Menschen sind
eben unterschiedlich.


Gibt wieder was neues : ( ich weiss leider noch nich wie ich hier die Bilder kleiner machen kann ) ... wird aber sicherlich nur eine leichte Last auf der GPU gewesen sein ... in 4K + Max Details und mit ner schwereren Last wird man diesen Takt dann denk ich nich mehr sehen und auch generell denk ich mal mit 450 PT nicht.
Aber wer weiss und wer weiss ob das alles überhaupt echt ist was wir da sehen auf dem Bild.

https://abload.de/img/117herw.png

https://abload.de/img/2218i2a.jpg

https://videocardz.com/newz/nvidia-geforce-rtx-4090-goes-up-to-3135-mhz-with-493w-peak-power-consumption

Thunder99
2022-10-08, 13:36:13
Die 4080 16GB ist echt nur eine 4070 Ti, und die 12GB eine 4070 non Ti.

Richtig schwach imho, für GA102 Besitzer lohnt sich nur die 4090er.

Wie schon mehrmals gesagt, die Bezeichnung zur Leistung ist für den "Arsch" bzw "bricht" damit Nvidia mit ihrem Anspruch oder Modell welches die 70er mit dem TopDog der vorherigen Gerneration schlägt.

Die 4080 ist halt so genannt, damit man den größeren Preis durchdrücken kann. Wie lange das geht werden wir sehen.

Für Pascal Besitzer ist eigentlich jede Karte interessant, wenn die VRAM Menge passt.

Nebenbei die Chipkrise ist nicht mehr so präsent wie zu Ampere Zeiten, da bessere Produktionsstätten und weniger Bedarf. Ergo deutlich entspannterer Release werden wir haben.

Je länger die Karten im Regal sind, desto mehr wird der Preis fallen. Und wenn AMD ihre Karten bringt und sie Konkurrenzfähig sind wird der Preis auch etwas nachgeben (müssen).

Neurosphere
2022-10-08, 13:46:43
Laut Twitter soll die Lieferlage wohl deutlich entspannter sein, müsste die Tweets nochmal raussuchen.

Dazu dürfte der Preis dafür sorgen das die Nachfrage entsprechend ist. Außerdem kein Ausgangsverbot und generell geringere Nachfrage nach HW + kein Zugpferd ala 2077 auf Softwareseite die den Bedarf wecken.

ChaosTM
2022-10-08, 13:52:47
Angeblich 4-5x so viele Karten wie beim letzten Launch. Laut dem Moore`s Law Heini.

r3ptil3
2022-10-08, 13:57:47
Klingt gut.

Ich empfehle das letzte Video von "Igorslab" anzuschauen.
Er erklärt wie es zu den Riesenkühlern kam und dass diese anscheinend für die dann schlussendlich bei TSMC gefertigten Chips, überdimensioniert sind.

Wir erleben vielleicht nächste Woche die leiseste Nvidia-Grafikkartengeneration.

Thunder99
2022-10-08, 14:06:11
Klingt gut.

Ich empfehle das letzte Video von "Igorslab" anzuschauen.
Er erklärt wie es zu den Riesenkühlern kam und dass diese anscheinend für die dann schlussendlich bei TSMC gefertigten Chips, überdimensioniert sind.

Wir erleben vielleicht nächste Woche die leiseste Nvidia-Grafikkartengeneration.

Finde es dennoch komisch, dass die Hersteller nicht entsprechende Tests gefahren haben um dann die entsprechenden Kühler zu entwickeln. Sodass nicht nur sehr Fette Kühler verbaut werden sondern auch nicht so Fette.

Wird dann auch bei der 4080 16GB intersannt wie fett der Kühler dort wird. Wenn es wie bei der 90er ist dann kann man nur den Kopf schütteln da es unnötig ist (abgesehen von den Spezialmodell(en) aka Noktua Edition der 3080

r3ptil3
2022-10-08, 14:10:06
Wird dann auch bei der 4080 16GB intersannt wie fett der Kühler dort wird. Wenn es wie bei der 90er ist dann kann man nur den Kopf schütteln da es unnötig ist (abgesehen von den Spezialmodell(en) aka Noktua Edition der 3080

Aber doch nicht über exzellente Kühler beschweren?

Wäre dir ein 2 Slot Kühler mit 3000 RPM auf Last lieber?

ChaosTM
2022-10-08, 14:14:01
Klingt gut.

Ich empfehle das letzte Video von "Igorslab" anzuschauen.
Er erklärt wie es zu den Riesenkühlern kam und dass diese anscheinend für die dann schlussendlich bei TSMC gefertigten Chips, überdimensioniert sind.

Wir erleben vielleicht nächste Woche die leiseste Nvidia-Grafikkartengeneration.


Find ich gut und man hat gleich noch Spielraum für die unvermeidliche ti/Titan

dildo4u
2022-10-08, 14:18:36
Klingt gut.

Ich empfehle das letzte Video von "Igorslab" anzuschauen.
Er erklärt wie es zu den Riesenkühlern kam und dass diese anscheinend für die dann schlussendlich bei TSMC gefertigten Chips, überdimensioniert sind.

Wir erleben vielleicht nächste Woche die leiseste Nvidia-Grafikkartengeneration.
Das ergibt Imo null sinn es wird einfach billiger sein das Board/Kühlung jetzt schon für den vollen Chip vorzubereiten als in 12 Monaten was komplett Neues zu bringen.

Neurosphere
2022-10-08, 14:28:27
Das Video von Igor ist nonsens. Wurde doch hier auch schon besprochen und er hats teilweise in seinem eigenen Forum schon korrigiert.

Thunder99
2022-10-08, 14:41:46
Aber doch nicht über exzellente Kühler beschweren?

Wäre dir ein 2 Slot Kühler mit 3000 RPM auf Last lieber?
Kommt auf die TDP an. Bei 450W ist die Größe des Kühlers ja absehbar gewesen. Bei der 4080 wäre es Overkill.

Und hier wurde ja auch gesagt die Kühler wären bei der 4090 auch überdimensioniert was sich aber natürlich erst zeigen muss.

HOT
2022-10-08, 14:45:32
Das Video von Igor ist nonsens. Wurde doch hier auch schon besprochen und er hats teilweise in seinem eigenen Forum schon korrigiert.
Ist es nicht, wurde hier schon besprochen. Es war nur ein Missverständnis darin.

r3ptil3
2022-10-08, 15:06:37
Das Video von Igor ist nonsens. Wurde doch hier auch schon besprochen und er hats teilweise in seinem eigenen Forum schon korrigiert.

Dann bitte wenigstens kurz erläutern.

Tomahawk
2022-10-08, 15:15:15
@bardh

Das steht direkt auf der 3dcenter-Homepage. Hauptgrund ist, dass Ada von der Spezifikation (Chipgröße) überhaupt nicht in Samsung 8nm-Prozess darstellbar gewesen wäre.

DrFreaK666
2022-10-08, 15:18:29
Das steht auf seiner Homepage dazu:
"Ergänzung und Korrektur: Auf nochmalige Nachfrage bei meiner Quelle wurde mir Samsungs aktueller Node als Bezug für die 600 Watt genannt, nicht aber explizit der alte 8-nm Prozess."

Tomahawk
2022-10-08, 15:27:04
So ist es.

Ansonsten ist noch das Argument, dass das Kühldesign in relativ kurzer Zeit spezifiziert und gefertigt werden können. Das Chipdesign (inkl. Festlegung auf den Fertigungsprozess) passiert deutlich früher und dauert länger.

TheCounter
2022-10-08, 15:27:58
Gibt es auch Karten mit "nur" Wasserkühler (1 Slot)? Also ohne den ganzen AIO Dreck.

Wuge
2022-10-08, 15:38:30
Von inno3d soll wohl eine kommen.
Bekommt man so ein AIO Ding eigentlich ab? Also Pumpe und Radi? Dann könnte man so eine ja ins eigene Loop einbauen.

Neurosphere
2022-10-08, 15:40:32
Was auch immernoch im Raum steht und was eigentlich Blödsinnig ist, warum ist der große 600 Watt Kühler auch auf der 4080 16GB?

Die Platinen sind nach derzeitigem Wissen gleich, also auch kompatibel zu der 3090 TI. Man hätte also auch deren Kühler nehmen können die vermutlich günstiger wären als auch massiv ausreichen um die 320 Watt regulär und deutlich mehr falls OC wegkühlen zu können.

Morgenlicht
2022-10-08, 15:46:45
das ist zwar schon ein paar Tage alt, aber naja:
opendata.blender.org (https://opendata.blender.org/)
opendata.blender.org - benchmarks - 171-Modelle im Vergleich (https://opendata.blender.org/benchmarks/query/?compute_type=OPTIX&compute_type=CUDA&compute_type=HIP&compute_type=METAL&compute_type=ONEAPI&group_by=device_name&blender_version=3.3.0)

The_Invisible
2022-10-08, 16:36:26
Das sind ja dann fast die doppelten Punkte

Bin ja echt gespannt auf die Reviews und ob sich die 4090 dann erst ab 4k wirklich absetzen kann, Stichwort Auslastung...

BiG OnE
2022-10-08, 16:36:37
Von inno3d soll wohl eine kommen.
Die ist aber 2 Slot breit.

robbitop
2022-10-08, 16:58:25
Ist es nicht, wurde hier schon besprochen. Es war nur ein Missverständnis darin.

Die Timeline bleibt trotzdem Blödsinn und auch das als Grund für die groß dimensionierten PCBs und Kühler. Naiver Blödsinn.
Was bleibt ist ein großes maybe für den 5 nm Samsung Prozess. Aber selbst das ist äußerst fragwürdig.

Bis dato wurden alle 24 Monate neue Generationen vorgestellt. Und ein Prozesswechsel soll trotz massiv komplexerem Chip keine Verspätung in der Timeline gebracht haben (bzw wäre Ada ohne Prozesswechsel ansonsten schon grob 1 Jahr eher gekommen)?

Selbst dieses Maybe ist super zweifelhaft. Wäre Ad102 nächstes Jahr releast worden wären weniger Zweifel angebracht.

Emil_i_Lönneberga
2022-10-08, 17:08:19
Gibt es auch Karten mit "nur" Wasserkühler (1 Slot)? Also ohne den ganzen AIO Dreck.

Wasserkühler mit einem Slot Platzverbrauch gab es bei der 3090 über eine Kooperation von EKWB und Asus. Von einer 4090 habe ich noch nichts gehört, müsste aber wieder machbar sein.


80791


https://www.ekwb.com/news/asus-partners-up-with-ek-to-deliver-water-cooler-geforce-rtx-30-series-gpus/

https://www.asus.com/Motherboards-Components/Graphics-Cards/ASUS/RTX3090-24G-EK/

https://geizhals.de/asus-geforce-rtx-3090-ekwb-90yv0f80-m0nm00-a2420163.html

Snoopy69
2022-10-08, 17:22:20
26mm ist schon 2-Slot. Allerdings weiß ich grad nicht, ob beim BykSky die Backplate mitgemessen wurde. Dann könnte es doch 1-Slot sein
https://de.aliexpress.com/wholesale?trafficChannel=main&d=y&CatId=0&SearchText=4090+water+block&ltype=wholesale&SortType=total_tranpro_desc&groupsort=1&page=1

https://ezmodding.com/de/waterblocks/GPU/zotac/N-ST4090TQ-X

07.07.2007
2022-10-08, 17:31:45
Wird ein Seasonic TX 1600 Probleme mit der 4090 haben?

Der 12VHPWR hat anscheinend nur 12+2 Pins und es fehlen 2 Sensing Pins.

Snoopy69
2022-10-08, 17:38:30
Glaube ich nicht...
Mein AX1600i kommt mit 2x 8Pin vom NT zum 12VHPWR. Also werden da max 2 Sense verlangt, die Masse von den 2x 8Pin abgreifen

Andere Hersteller kommen mit 3x 8Pin daher (mit kleinerem Querschnitt pro Lane)

Emil_i_Lönneberga
2022-10-08, 17:43:57
26mm ist schon 2-Slot. Allerdings weiß ich grad nicht, ob beim BykSky die Backplate mitgemessen wurde. Dann könnte es doch 1-Slot sein
https://de.aliexpress.com/wholesale?trafficChannel=main&d=y&CatId=0&SearchText=4090+water+block&ltype=wholesale&SortType=total_tranpro_desc&groupsort=1&page=1

https://ezmodding.com/de/waterblocks/GPU/zotac/N-ST4090TQ-X

Die 26mm sind nur der eigentliche Kühler, die Backplate ist da nicht dabei.

80792

80793

davidzo
2022-10-08, 18:07:32
Die 26mm sind nur der eigentliche Kühler, die Backplate ist da nicht dabei.

80792

80793

Scheint ja nur der Schlauchadapter zu sein der so dick ist. Der steht sowieso über eine normale PCIe-Karte hinaus, im wesentlichen Bereich ist der Kühler also "single-Slot".

Thunder99
2022-10-08, 18:22:39
Was bisher gezeigt worden ist wird selbst bei Wasserkühler 2-Slot gebraucht. Sind ja mindestens 450W abzuführen + Reserve auf bis zu 600W.
Ob es aber mit Voll-Kupfer auf 1-Slot gehen würde bin ich überfragt. :confused:

Si|encer
2022-10-08, 18:26:25
Wenn die Karten so schnell sind, wieso erzählt man das dann nicht bei so einer Präsi ?

Um den Markt der alten Karten doch vorsichtshalber nicht zu zerstören ?

ChaosTM
2022-10-08, 18:27:25
Das nehme ich auch an..

The_Invisible
2022-10-08, 18:28:50
Wird ein Seasonic TX 1600 Probleme mit der 4090 haben?

Der 12VHPWR hat anscheinend nur 12+2 Pins und es fehlen 2 Sensing Pins.

Dürfte selbst mit guten 800W Netzteilen rennen, selbst mein Uralt (12 Jahre) Enemerax Gold 800W kommt mit einer OC 3080Ti + 5950x zurecht, die 4090 soll ja noch weniger Spitzen haben als die 3090Ti und die war in diesem Bereich schon massiv besser als die alten 3000er

Sardaukar.nsn
2022-10-08, 18:40:16
Feiner Zug von Seasonic. Für Kunden der 1000W+ Netzteile gibt es ein 12VHPWR Kabel gratis: https://seasonic.com/cable-request/

Für die Wakü-Fraktion vielleicht interessant. Firma Optimus aus Chicago bietet wohl recht früh Kühler für die Asus Karten an. Diesmal auch bei Caseking in Deutschland. In der Vergangenheit waren dies mit Abstand die besser Kühler.

https://twitter.com/Optimus_WC/status/1578510971244449792

https://i.imgur.com/MQKVqxS.jpg

https://i.imgur.com/4XVUG1S.png

https://i.imgur.com/OC6Gry9.jpg

Emil_i_Lönneberga
2022-10-08, 19:43:16
Die Unterstützung der Asus TUF und Strix habe ich auf der Optimus Homepage und Twitter auch schon gelesen. Woher hast du die Meldung mit dem Vertrieb über Caseking Deutschland? Mit 400€ für den Fullcover zwar nicht mal ansatzweise mein Preisbereich ...

https://optimuspc.com/products/absolute-gpu-block-strix-3080-3090

https://optimuspc.com/products/absolute-gpu-block-ftw3-3080-3090

... aber ein neuer Mitspieler in den kommenden Testberichten zu den Wasserkühler macht das Lesen auf jeden Falll unterhaltsamer. Die Kühlleistung wird wie immer bei keinem Block ein Problem darstellen. Wobei der Vorsprung des Optimus gegenüber Watercool und EKWB bei der Chiptemperatur schon größer als üblich ausgefallen ist. 8-10K bei 100l/h sieht man nicht alle Tage.

Ampere 3090: Optimus & passive Backplate vs Heatkiller & wassergekühlte Backplate vs EKWB & wassergekühlte Backplate

https://www.hardwareluxx.de/community/threads/rtx-30x0-wasserk%C3%BChlervergleich-gpu-block-comparison.1286430/page-25#post-29272802

Aquacomputer vs. Watercool vs 2x EKWB

https://hardware-helden.de/rtx-3080-3090-wasserkuehler-von-aqua-computer-ek-und-watercool-im-test/

just4FunTA
2022-10-08, 19:44:54
PS5 vs RTX4090. :D

https://abload.de/img/unbenanntjyif0.jpg

MiamiNice
2022-10-08, 19:54:51
Dafür das das rechte Teil gut 10x mehr Power hat, ist die Größe doch erstmal OK :biggrin:

ChaosTM
2022-10-08, 19:58:20
Wenn die die Größe mit dem in der PS5 verbauten Soc + Kühler vergleichst relativiert sich das etwas. ;)
Aber lieber schön groß als laut.

DrFreaK666
2022-10-08, 20:00:30
Dafür das das rechte Teil gut 10x mehr Power hat, ist die Größe doch erstmal OK :biggrin:

Die Grafikkarte alleine bringt dir keine Power ;)

MiamiNice
2022-10-08, 20:07:04
Ihr Klugbesserwisser :p

Linmoum
2022-10-08, 20:09:14
Gibt's die FE wieder bei NBB? Die haben zwar schon über ein Dutzend Karten gelistet, die ist aber noch nicht dabei.

Da Watercool dieses Mal auch für die FE einen Block bringt (+ die Strix), ist es schlicht sinnbefreit, für letztere 400€ Aufpreis zu zahlen. Zumal das PT bei der FE dieses Mal ja auch nicht mehr so stark eingeschränkt wird.

BlacKi
2022-10-08, 20:10:32
Die Grafikkarte alleine bringt dir keine Power ;)ehrlich gesagt frage ich mich, wann der cpu teil endlich auf die gpu geht. also apple hat schon gezeigt, wie performant man arm machen kann.

Thunder99
2022-10-08, 20:17:50
ehrlich gesagt frage ich mich, wann der cpu teil endlich auf die gpu geht. also apple hat schon gezeigt, wie performant man arm machen kann.

Haben wir doch schon längst, APU ;D

FastAndy
2022-10-08, 20:21:54
und immer noch nichts vorbestellbar. das nervt mich am allermeisten:rolleyes:

Badesalz
2022-10-08, 20:57:17
Gibt wieder mal n neuen "Leak" :

https://abload.de/img/44444444nadev.png

https://abload.de/img/7777774qiju.png

https://videocardz.com/newz/nvidia-geforce-rtx-4090-3dmark-scores-leaked-at-least-82-faster-than-rtx-3090So ein Mist. Die 12GB wieder nicht dabei :tongue:

Raff
2022-10-08, 21:05:42
So ein Mist. Die 12GB wieder nicht dabei :tongue:

Die ist völlig überteuert, warum juckt sie dich? 12 GiB kriegst du schon jetzt in gemeinen Spielen voll - ja, auch mit Nvidias zackiger Speicherverwaltung -, also würde ich das nicht als valide Option für ungetrübten Spaß 2023 sehen. Es ist eben eine vom Marketing aufgelevelte 70er-SKU.

MfG
Raff

Badesalz
2022-10-08, 21:11:11
Die ist völlig überteuert, warum juckt sie dich?Um zu sehen wie so eine 4080 gegenüber einer 4090 abschneidet... :tongue: :wink:

Es ist ja wohl klar, daß ich lieber mit iGPU zocken würde als für diese Peinlichkeit zu zahlen

Linmoum
2022-10-08, 21:11:48
Sexy(ger) ist die 16GiB aber auch nicht. Das sind beides SKUs, die für diese Preise völlig lächerlich sind und die kein Mensch braucht. Egal ob jetzt $ oder €.

Wann hatten wir das schon mal, dass der Top-Dog das attraktivste Gesamtpaket darstellt?

ChaosTM
2022-10-08, 21:13:17
Die 16er ist bestenfalls eine 4070(ti?) aber das hatten wir schon..

Ex3cut3r
2022-10-08, 21:14:07
Weiß gar nicht, was Badesalz mit einer neuen GPU wollte, bei seinem Unterbau wurde höchstens, eine GTX 1080 bzw. RTX 2060 in Frage kommen. Ein E5-1630V4 - 4C/8T CPU kommt man heute nicht mehr weit, und der Unterbau (Sockel) ist ja sowieso steinalt und kann kein PCIe 4.0

Naja, manche hier im Forum wollen eine RTX 4090 ja auch mit einem Haswel 6C/12T für 3440x1440 paaren. :freak:

Badesalz
2022-10-08, 21:17:40
Sexy(ger) ist die 16GiB aber auch nicht. Das sind beides SKUs, die für diese Preise völlig lächerlich sind und die kein Mensch braucht. Egal ob jetzt $ oder €.

Wann hatten wir das schon mal, dass der Top-Dog das attraktivste Gesamtpaket darstellt?Es soll ja auch keiner die 4080er kaufen. Die Leute sollen die 4090 kaufen und sich sonst endlich - angesichts der dürftigen 4080 - die RT30 besorgen. Gibts mit dem RDNA3-Launch zu recht attraktiven Konditionen.
Verstehst... Its a Trap! :usweet:

@Ex3cut3r
Unterbau... Ich hab doch schonmal gefragt, ob man an so einer Diskussion nur teilnehmen darf, wenn man ggf. eine Kaufbasicht verfolgt. Hat sich aber keiner gemeldet. Dachte also es geht :usad: Sorry.

Jetzt muss ich nächste Woche erstmal nen 5800X3D aufbauen bis ich wieder schreiben kann :frown: Diese Threadteilnahmen sind immer so ein teurer Spaß... Gut daß dies im Ryzen-Thread noch keinem aufgefallen ist :upara:

Raff
2022-10-08, 21:22:00
Sexy(ger) ist die 16GiB aber auch nicht. Das sind beides SKUs, die für diese Preise völlig lächerlich sind und die kein Mensch braucht. Egal ob jetzt $ oder €.

Der Unterschied zwischen RTX 4080 16GB und RTX 4080 12GB ist, dass es schon jetzt Karten gibt, die mehr auf dem Kasten haben als die RTX 4080 12GB. Die 16G-Variante ist hingegen die erste Geforce mit dieser Speichermenge, kann sie in hohen Settings gebrauchen und erklimmt voraussichtlich ein Leistungsniveau jenseits der RTX 3090 Ti. Wäre AD104 eine ehrliche RTX 4070 Ti für einen entsprechenden Preis, würde das passen.

MfG
Raff

Linmoum
2022-10-08, 21:22:35
Naja, manche hier im Forum wollen eine RTX 4090 ja auch mit einem Haswel 6C/12T für 3440x1440 paaren. :freak:Ada wird sicher selbst in UHD in fps-kritischeren Spielen (also beispielsweise MMOs, Simulatoren oder Aufbau(strategie)spiele wie Anno, womöglich auch VR) sehr gerne mal im CPU-Limit hängen, wenn man nicht gerade einen 5800X3D oder RTL verbaut hat.

Das wird sicherlich auch noch für lustige Diskussionen sorgen, weil die Leute sich wundern, warum die fps-Zuwächse so gering sind, obwohl die 4090 laut Review XY ja eigentlich 70% schneller sein müsste, bei ihnen aber nur 30% ankommen.

Badesalz
2022-10-08, 21:37:17
Oder DLSS off? :wink:

unl34shed
2022-10-08, 21:38:23
Es soll ja auch keiner die 4080er kaufen. Die Leute sollen die 4090 kaufen und sich sonst endlich - angesichts der dürftigen 4080 - die RT30 besorgen.

Wenn es zum Launch keine 12GB Tests gibt, werden sich sicher auch genug Trottel finden, die sich die 12GB kaufen werden, ist ja gleich schnell (beides 4080) und nur 4GB weniger...

Wäre AD104 eine ehrliche RTX 4070 Ti für einen entsprechenden Preis, würde das passen.


Verglichen mit den früheren Leistungsklassen (Leistung und Chipgröße im Verhältnis zum 102er Chip) ist die 16GB eigentlich eine 4070 und die 12GB eine 4060Ti und dafür sind beide viel zu teuer (2.4-2.7x).

ChaosTM
2022-10-08, 21:39:53
Der Unterschied zwischen RTX 4080 16GB und RTX 4080 12GB ist, dass es schon jetzt Karten gibt, die mehr auf dem Kasten haben als die RTX 4080 12GB. Die 16G-Variante ist hingegen die erste Geforce mit dieser Speichermenge, kann sie in hohen Settings gebrauchen und erklimmt voraussichtlich ein Leistungsniveau jenseits der RTX 3090 Ti. Wäre AD104 eine ehrliche RTX 4070 Ti für einen entsprechenden Preis, würde das passen.

MfG
Raff


meiner "3080"M hat auch schon 16Gb.. ist natürlich keine 3080er

Raff
2022-10-08, 21:40:04
Verglichen mit den früheren Leistungsklassen (Leistung und Chipgröße im Verhältnis zum 102er Chip) ist die 16GB eigentlich eine 4070 und die 12GB eine 4060Ti und dafür sind beide viel zu teuer (2.4-2.7x).

Das ist eine von vielen Betrachtungsweisen. Ich bleibe vorerst bei RTX 4070 Ti, weil der AD104 immerhin als Vollausbau antritt.

MfG
Raff

Ex3cut3r
2022-10-08, 21:40:40
@Ex3cut3r
Unterbau... Ich hab doch schonmal gefragt, ob man an so einer Diskussion nur teilnehmen darf, wenn man ggf. eine Kaufbasicht verfolgt. Hat sich aber keiner gemeldet. Dachte also es geht :usad: Sorry.

Jetzt muss ich nächste Woche erstmal nen 5800X3D aufbauen bis ich wieder schreiben kann :frown: Diese Threadteilnahmen sind immer so ein teurer Spaß... Gut daß dies im Ryzen-Thread noch keinem aufgefallen ist :upara:
;D Hahaha. Guter Sarkasmus. :up:

Du darfst natürlich deine Meinung frei äußern.

unl34shed
2022-10-08, 21:42:41
Das ist eine von vielen Betrachtungsweisen. Ich bleibe vorerst bei RTX 4070 Ti, weil der AD104 immerhin als Vollausbau antritt.


Nur gibt es diesmal ein 103er Chip, der GA104 beerbt ;)

Chipgrößen:
AD102 ca. GA102
AD103 ca. GA104
AD104 ca. GA106

E: Siehe auch: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13124788&postcount=6515

Badesalz
2022-10-08, 21:44:34
:up:

@unl34shed
An sich hast du schon recht.

Nazar
2022-10-08, 21:52:00
Wenn die Karten so schnell sind, wieso erzählt man das dann nicht bei so einer Präsi ?

Um den Markt der alten Karten doch vorsichtshalber nicht zu zerstören ?

Das wäre eine Möglichkeit, die aber nur die dümmsten der dummen Käufer erreichen würde.
Die meisten Personen, die kaufen wollen, werden aktuell von den immer noch rechte hohen Preisen der alten Gen abgehalten. Die Preise sind einfach immer noch nicht so extrem attraktiv.
Egal was nVidia vorhat, es wirkt nicht und wird erst recht nicht mehr nach dem 11.10.2022 wirken.
Ich glaube nicht, dass die meisten Kunden nicht die Leistung pro Watt im Blick haben werden. Zusätzlich zum Preis, ist das heute eine Überlegung wert.
Wieso sollte man sich eine 3090(Ti) kaufen, wenn man mit viel weniger Verlustleistung, ein ähnliches oder sogar unter DLSS 3 viel besseres Ergebnis erzielen könnte und das für 200$ mehr?
Die 200$, die man dann dort mehr investiert hat, werden sich mit Sicherheit in einem Jahr wieder amortisiert haben.

Was für mich ein Grund sein könnte, wenn dieser aber auch richtig bescheuert wäre, dass man mit den Händlern vereinbart hat, diese Angaben so lange wie möglich zu verheimlichen, um die Restbestände unter das Volk zu bringen. Das Problem ist halt, dass die meisten Kunden mittlerweile vor dem Kauf Informationen einholen. Besonders wenn die 1K Marke locker geknackt wird, ist das für die meisten Käufer Pflicht geworden.
Erfolg wird das bei den aktuellen Preisgestaltungen aber nicht bringen.

Wenn eine 4080 12 GB einem Kunden zu teuer sein wird, dann wird er keinen ähnlichen Betrag für eine 3090 oder 3090Ti hinblättern. Die Kunden sind derzeit geradezu trainiert worden, dass nur das Neuste vom Neuen zukunftssicher ist.
Viel Geld in Zeiten einer Finanz- und Energiekrise in ein veraltetes Produkt zu investieren, kann man dann nicht mal mehr der Hausregierung schönreden. ;)

Ich sehe dieses Verhalten, wenn überhaupt, als maximales Zugeständnis seitens nVidias gegenüber deren Händlern an, auch wenn das eine reine Luftnummer sein wird.

Am 11.10 werden wir mehr wissen.