Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
robbitop
2022-07-07, 16:49:45
Man muss kein Nerd sein um zu merken, dass ein Spiel nicht butterweich / smooth läuft. Und genau das passiert wenn frametimes nicht konsistent sind. Ich würde behaupten das frustriert jeden der es spürt (aber ggf nicht benennen kann) der neue, teure Hardware kauft. Die Erwartung an neue (nicht low end) Hardware ist doch, dass die Spiele butterweich laufen mit genug Reserven, dass das eine gewisse Zeit so bleibt.
Ex3cut3r
2022-07-07, 19:05:27
Klar, gibt IHMO nix schlimmeres, als wenn ein Spiel aufgrund Frametimes einfach unrund läuft. Allerdings reicht es schon in Wolfenstein, den Texture Pool eine Stufe runterzustellen, die Texturen ändern sich nicht mal, man sieht nur ein bisschen mehr aufpoppen hier und da.
mironicus
2022-07-07, 19:25:54
Der Youtuber JayzTwoCents behauptet in seinem neuesten Video daß die RTX 4090 angeblich 3000 Dollar kosten soll. Das paßt ja gut zu der Tatsache, daß es noch so viele 30er-Karten auf dem Markt gibt, die man dann nicht im Preis senken muß.
CbgryNNFrAI
ChaosTM
2022-07-07, 20:04:29
Wird halt als eine Semi-Pro Karte vermarktet werden. Immer noch billiger als die dicken Profi Dinger.
Da werden einige NV Käufer auch andere Alternativen in Betracht ziehen, wenn das so kommen sollte. Die Enthusiasten zahlen aber eh fast alles und das weiß Jensen :)
Thunder99
2022-07-07, 20:12:05
Immerhin, je weniger Spieler eine High End Grafikkarte haben, desto weniger schnell steigen die Anforderungen in Spielen.
Ein Spiel was nirgends flüssig läuft kann wohl nicht mehr sich verkaufen wie damals (Stichwort Crysis)
Gott1337
2022-07-07, 20:14:50
Wird halt als eine Semi-Pro Karte vermarktet werden. Immer noch billiger als die dicken Profi Dinger.
Da werden einige NV Käufer auch andere Alternativen in Betracht ziehen, wenn das so kommen sollte. Die Enthusiasten zahlen aber eh fast alles und das weiß Jensen :)
leider ist für die meisten AMD keine Alternative weil kein soft oder hardware support für sehr viele Programme.
ChaosTM
2022-07-07, 20:22:12
Wer Cuda etc. braucht wird natürlich bei NV bleiben, aber so viele sind das auch wieder nicht.
Für reine Gamer unterscheiden sich die 2 Firmen immer weniger seit FSR2.0 und vorausgesetzt AMD kann bei RTRT halbwegs aufschließen, wäre die "Lücke" praktisch geschlossen.
Merkor
2022-07-07, 20:56:16
Der Youtuber JayzTwoCents behauptet in seinem neuesten Video daß die RTX 4090 angeblich 3000 Dollar kosten soll. Das paßt ja gut zu der Tatsache, daß es noch so viele 30er-Karten auf dem Markt gibt, die man dann nicht im Preis senken muß.
Und vor Monaten gab es mal die Aussage, dass man die Serien parallel anbieten wolle:
https://www.tomshardware.com/news/nvidia-rtx-40-series-ada-gpus-will-likely-coexist-with-rtx-30-series
So kann man die Cash Cow 30er-Serie weiter melken, Bestände abbauen und für die 40er Mondpreise aufrufen, während man versucht, die Chip-Verfügbarkeit künstlich zu verknappen. Alles keine schönen Aussichten. Ich hoffe, dass AMD hier ein wettbewerbsfähiges Gegengewicht am Start hat, um den Druck auf die Preise aufrecht zu erhalten.
Gott1337
2022-07-07, 21:00:29
Und vor Monaten gab es mal die Aussage, dass man die Serien parallel anbieten wolle:
https://www.tomshardware.com/news/nvidia-rtx-40-series-ada-gpus-will-likely-coexist-with-rtx-30-series
So kann man die Cash Cow 30er-Serie weiter melken, Bestände abbauen und für die 40er Mondpreise aufrufen, während man versucht, die Chip-Verfügbarkeit künstlich zu verknappen. Alles keine schönen Aussichten. Ich hoffe, dass AMD hier ein wettbewerbsfähiges Gegengewicht am Start hat, um den Druck auf die Preise aufrecht zu erhalten.
weil die Nachfrage größer war als das Angebot... das hat sich ja jetzt geändert. Sollte man schon verstehen.
Linmoum
2022-07-07, 21:09:22
Um zu wissen, dass es mindestens oben herum deutlich teurer werden wird als aktuell, braucht man kein Prophet sein. Das ist logischer Menschenverstand. Wenn Nvidia vorne noch die 1 stehen lässt, kann man sich freuen.
Das ist halt der Preis dafür, wenn du u.a. ein TSMC N5-Devirat statt Samsungs 8nm nutzt und keine kleinen Dies fertigen kannst, weil du immer noch auf monolithische und große Dies setzen tust. Von Inflation mal ganz zu schweigen. $3000 halte ich aber trotzdem für albern.
Slipknot79
2022-07-07, 21:58:46
Der Youtuber JayzTwoCents behauptet in seinem neuesten Video daß die RTX 4090 angeblich 3000 Dollar kosten soll. Das paßt ja gut zu der Tatsache, daß es noch so viele 30er-Karten auf dem Markt gibt, die man dann nicht im Preis senken muß.
https://youtu.be/CbgryNNFrAI
Die Shice wird Lederjacke um 3k kaum los. Es liegt ja jetzt schon die 3090 rum wie Blei, warum sollte man dann die 4090 um 3k checken?
Merkor
2022-07-07, 21:59:48
weil die Nachfrage größer war als das Angebot... das hat sich ja jetzt geändert. Sollte man schon verstehen.
Verstehen sollte man, warum Nvidia versucht, mit geringeren Bestellungen beim Chip-Lieferanten die Preise für die neue Generation künstlich zu erhöhen. Ich kann mir sehr gut vorstellen, dass man 6-9 Monate diese Parallel-Strategie fährt, um eine Zweiklassen-Gesellschaft zu etablieren. Die jetzigen 30er-Käufer sind die 40-Käufer von morgen. 40er-Käufer steigen vielleicht erst später wieder ein. Dieses potenziell ausgelassene Upgrade lässt man sich dann gleich richtig von den Early-Adoptern bezahlen. Das bedeutet aber auch, dass die 30er-Serie noch deutlich im Preis sinken wird. Dazu kommt, dass die 4090 wohl erstmal die einzige neue Karte sein wird. Der Rest folgt erst sukzessive. So bewegt man viele (irrationale non-homo oeconomicus) Käufer aus Ungeduld zum Erwerb einer Karte, die man nicht gekauft hätte, wenn die gesamte Range zum Start verfügbar gewesen wäre. Dann gibt es nämlich immer eine vernünftige Alternative. Und da es die zum Start offenbar nicht gibt, bleibt eine günstige 30er-Serie noch ein paar Monate die Vernunftsoption, aber natürlich nicht zu heutigen Preisen.
Beispiel aus der Industrie: Bei Apple gibt es schon lange noch immer die alten iPhone-Geräteserien zu kaufen, wenn die neue Generation veröffentlicht wurde.
Gott1337
2022-07-07, 22:32:50
Verstehen sollte man, warum Nvidia versucht, mit geringeren Bestellungen beim Chip-Lieferanten die Preise für die neue Generation künstlich zu erhöhen. Ich kann mir sehr gut vorstellen, dass man 6-9 Monate diese Parallel-Strategie fährt, um eine Zweiklassen-Gesellschaft zu etablieren. Die jetzigen 30er-Käufer sind die 40-Käufer von morgen. 40er-Käufer steigen vielleicht erst später wieder ein. Dieses potenziell ausgelassene Upgrade lässt man sich dann gleich richtig von den Early-Adoptern bezahlen. Das bedeutet aber auch, dass die 30er-Serie noch deutlich im Preis sinken wird. Dazu kommt, dass die 4090 wohl erstmal die einzige neue Karte sein wird. Der Rest folgt erst sukzessive. So bewegt man viele (irrationale non-homo oeconomicus) Käufer aus Ungeduld zum Erwerb einer Karte, die man nicht gekauft hätte, wenn die gesamte Range zum Start verfügbar gewesen wäre. Dann gibt es nämlich immer eine vernünftige Alternative. Und da es die zum Start offenbar nicht gibt, bleibt eine günstige 30er-Serie noch ein paar Monate die Vernunftsoption, aber natürlich nicht zu heutigen Preisen.
Beispiel aus der Industrie: Bei Apple gibt es schon lange noch immer die alten iPhone-Geräteserien zu kaufen, wenn die neue Generation veröffentlicht wurde.ist kein gutes Beispiel weil die neuen Produkte ja keine Komplementär sondern Substitutionsgüter sind. Würden sie nur die 4090 releasen würde ich dir Recht geben, wenn Nvidia ein Monopol hätte.
prinz_valium_2
2022-07-07, 22:42:37
Der Youtuber JayzTwoCents behauptet in seinem neuesten Video daß die RTX 4090 angeblich 3000 Dollar kosten soll. Das paßt ja gut zu der Tatsache, daß es noch so viele 30er-Karten auf dem Markt gibt, die man dann nicht im Preis senken muß.
https://youtu.be/CbgryNNFrAI
4090TI
Merkor
2022-07-08, 06:20:04
ist kein gutes Beispiel weil die neuen Produkte ja keine Komplementär sondern Substitutionsgüter sind. Würden sie nur die 4090 releasen würde ich dir Recht geben, wenn Nvidia ein Monopol hätte.
Absolut treffendes Beispiel: Ein iPhone 13 ist genauso ein Substitut für ein iPhone 14 wie eine 3090 für eine 4090. Und ja, die 4090 wird zunächst ja mit etwas Abstand vom restlichen Line-up released. Die anderen folgen erst sukzessive.
Und dann ist da noch die preisliche Positionierung, die dem gleichen Muster wie bei Apple folgen könnte: UVP für Top-Modell hoch, für die alte Serie dagegen runter. Wenn es ein 4090/4080/4070 Line-up mit bspw. 1999/1499/999 geben sollte, müssen die Plätze darunter entsprechend besetzt werden, um alle Zielgruppen bespielen zu können oder gar neue Käuferschichten zu adressieren.
Wir müssen uns wohl aus diversen Gründen von einem harten Cut beim Generationswechsel (wie dagegen in der Autoindustrie) verabschieden: Strategie, Verfügbarkeit, Opportunismus, Gier. Denn je langsamer die Release-Strategie, desto gemächlicher schöpft man sukzessive die Nachfrage angefangen beim Top-Modell ab. Mit gefallenen Preisen für die alten Modelle wird man dagegen auch den Gebrauchtmarkt torpedieren (müssen). Erst, wenn den alten Plunder wirklich niemand mehr haben möchte (was mir gar nicht schnell genug passieren kann), kommt irgendwann eine 4060, die dann die 3080 auf ebenbürtiger Performance-Stufe für 599 ersetzt und damit obsolet macht. ;-)
Thunder99
2022-07-08, 06:30:43
Das sind Äpfel mit Birnen die ihr da vergleicht.
Apple hat keine günstigen Produkte, außer das SE.
Nvidia und Co haben immer die ganze Serie oder größtenteils.
Erwarte da nichts anderes jetzt
Also ich erwarte Großes, auch im Preis. :cool:
Thunder99
2022-07-08, 11:16:20
Preisanstieg ist obligatorisch :freak:
Höhere Fertigungskosten, mehr RAM, komplexeres Board, ...
Neosix
2022-07-08, 11:37:56
"mehr Ram" die 4070 Lacht :/
basix
2022-07-08, 11:40:55
Preisanstieg ist obligatorisch :freak:
Höhere Fertigungskosten, mehr RAM, komplexeres Board, ...
Nur, wenn Nvidia ihre Marge halten will ;) Und die sind von Maxwell über Pascal, Turing und Ampere nur eines: Gestiegen.
Mehr RAM ist ein Argument, da war Nvidia bei 3080 (Ti) und 3070 (Ti) sowie 3060 Ti aber knauserig.
Und für alles <AD102 werden die Speicherinterfaces und Chips sogar kleiner, nur die TDPs gehen nach oben:
- 3080 = 628mm2, 320bit --> 4080 = ~480mm2, 256bit
- 3070 = 392mm2, 256bit --> 4070 = ~350mm2, 192bit
Wie ich auf die Chipflächen gekommen bin: 1.5x Scaling von Samsung 8nm -> TSMC N5HPC & 1mm2 pro 1MByte SRAM (L2$) --> mMn eher konservative Schätzung, AD102 käme da bei ~700mm2 oder sogar noch mehr raus!
Und: RDNA3 wird vermutlich nochmals mehr Druck als RDNA2 ausüben.
Ergo: Mondpreise erhoffe ich mir zumindest keine. Und was ich damit meine: 4090 wird nicht teurer als die 3090. Nur "moderate" Preissteigerungen bei 4080 und 4070 (z.B. 849$ und 599$). Nvidia kommt hier jetzt sehr zu Gute, dass zwischen 3090 und 3080 preislich so viel Platz liegt. Das sind aber MSRPs, die 3070 und 3080 gab es faktisch ja nie auch nur in der Nähe des offiziellen MSRPs.
Das mit den 10GB passt nicht, wie man sieht. Das sind nur 360GT/s, das ist VIEEL zu wenig für die Leistungsklasse des 4070. Das passt so definitiv nicht zusammen. Das ist jetzt mit 18GT/s gerechnet, man könnte noch 20 nehmen, das wird aber nicht viel bringen.
AMDs N33 hat offenbar 128MB IF$ um die insgesamt angenommenen 320GT/s abzufedern, das hat AD104 jedoch nicht mal im Ansatz, sondern nur einen etwas vergrößerten L2$, das heißt, das Ding braucht definitiv Bandbreite. Mit 192Bit und 20GT/s würde man auf 480GT/s landen, das passt schon eher. AD103 hat, nach bisherigen Angaben, 672GT/s.
Also ich zweifle ganz stark daran, dass die 4070 mit 10GB kommt, die kommt mit hoher Sicherheit mit den vollen 12GB.
iamthebear
2022-07-08, 15:21:52
Schwer zu sagen. Verglichen mit der 3070 hat die 4070 pro TFlop noch ca. die Hälfte der effektiven Bandbreite genauso wie Navi33.
Mit 48MB L2 wären es laut der Grafik von AMD gerade einmal 30% Hitrate bei 4K. Ich frage mich jedoch, ob diese Werte jedoch überhaupt auf Nvidia übertragbar sind bzw. ob das sich die Anforderungen nicht in den letzten 2 Jahren etwas verändert habe. RT wird dabei wahrscheinlich auch nicht berücksichtigt.
Es ist jedoch gut möglich, dass die kleineren GPUs auf Grund der schwächeren Hitrate in 4K stärker wegbrechen als in niedrigeren Auflösungen. Im Endeffekt ist es jedoch alles eine Frage des Preises.
basix
2022-07-08, 15:55:49
Wie gesagt: Die 4070 ist eine 1440p Karte. Da ist die Hitrate bei 48 MByte eher im Bereich ~45%. Und bereits AMD hat bei RDNA3 angetönt: Man kann den Infinity Cache noch besser nutzen, wenn man nur die richtigen / nötigen Dinge cached.
Bandbreite sehe ich vorerst noch nicht als Problem an.
BlacKi
2022-07-08, 15:57:16
die ist auch jetzt schon zu hoch. das herabsenken des takts bringt fast nirgends nachteile.
Dural
2022-07-08, 16:03:38
Ihr diskutiert doch jetzt nicht wirklich ernsthaft an den 10GB rum? Das ist nur mit 160 oder 320Bit möglich... Weder das eine noch das andere werden wir doch bei einer 4070 sehen.
In der Preisklasse sind die 256Bit doch ziemlich fix, sprich 16GB (Oder 8GB) ich könnte mir allerhöchstens noch 192Bit / 12GB oder was ganz krummes von 224Bit / 14GB vorstellen.
10GB wohl eher für 4050-4060.
maximus_hertus
2022-07-08, 16:20:41
Das ist nur mit 160 oder 320Bit möglich... Weder das eine noch das andere werden wir doch bei einer 4070 sehen.
In der Preisklasse sind die 256Bit doch ziemlich fix,
Bisher, sicherlich, aber wenn es wirklich solch gigantische Caches (L2) geben soll, wäre ich mir nicht so sicher (mit den gesetzten 256 Bit).
Ich warte da erstmal das Launch Event ab mit den ganzen Details. Siehe IF Cache. Der sorgt ja auch dafür, dass man mit einem deutlich kleinerem Interface klar kommt.
Ich würde zum aktuellen Zeitpunkt weder nV, noch AMD als "verzockt" bezeichnen. Erstmal die Launches und unabhängien Reviews abwarten. Und dann die Verfügbarkeit und den Preis ;)
Die meisten interessiert der Preisbereich 300 - 500/600 Euro.
AD102 und N31 sind daher für über 80% der User keine Kaufoption. Wahrscheinlich sogar für über 90%.
AD104 + AD106 und N33 sind die eigentlich spannenden GPUs und (in kleinerem Rahmen), AD103 und N32.
Allerdings wohl erst zum Jahreswechsel oder gar erst 2023.
Bis dahin kann sich viell ändern...
Thunderburne
2022-07-08, 16:44:43
Das mit den 10GB passt nicht, wie man sieht. Das sind nur 360GT/s, das ist VIEEL zu wenig für die Leistungsklasse des 4070. Das passt so definitiv nicht zusammen. Das ist jetzt mit 18GT/s gerechnet, man könnte noch 20 nehmen, das wird aber nicht viel bringen.
AMDs N33 hat offenbar 128MB IF$ um die insgesamt angenommenen 320GT/s abzufedern, das hat AD104 jedoch nicht mal im Ansatz, sondern nur einen etwas vergrößerten L2$, das heißt, das Ding braucht definitiv Bandbreite. Mit 192Bit und 20GT/s würde man auf 480GT/s landen, das passt schon eher. AD103 hat, nach bisherigen Angaben, 672GT/s.
Also ich zweifle ganz stark daran, dass die 4070 mit 10GB kommt, die kommt mit hoher Sicherheit mit den vollen 12GB.
Ich glaub ich bin da mit recht nah dran wie es kommen wird!
64Bit =4GB 4050
96Bit =6GB 4050Ti
128Bit =8GB. 4060
160Bit =10GB 4060Ti
192Bit =12GB 4070
224Bit =14GB 4070Ti
256Bit =16GB 4080
320Bit =20GB 4080Ti
352Bit =22 GB ???
386Bit =24GB 4090/4090 Ti
384Bit =48GB Titan/4090Ti
BlacKi
2022-07-08, 17:24:20
dann wäre eine 4060ti mit 300w +-20% schneller als eine 3090? XD
ich leg mich da garnicht fest. bin aber gespannt wie es dann wirklich kommt.
ChaosTM
2022-07-08, 19:53:14
https://www.hardwaretimes.com/nvidia-rtx-4080-4090-may-get-delayed-to-end-of-2022-paper-launch-likely-in-sept-or-october-report/amp/
Grade drüber gestolpert. K.a. ob da was dran ist.
Troyan
2022-07-08, 19:56:04
"Moores Law" - Danke.
Linmoum
2022-07-08, 20:07:24
Hat Digitimes letzte Woche schon berichtet, insofern nichts neues.
ChaosTM
2022-07-08, 20:12:10
Hab ich nicht mitbekommen. Thx.
Thunder99
2022-07-08, 21:14:31
So viele krumme Speicherinterface Varianten gab es noch nie. Bin da sehr skeptisch.
Nebenbei 384bit, nicht 386 :D
Thunderburne
2022-07-08, 22:36:11
So viele krumme Speicherinterface Varianten gab es noch nie. Bin da sehr skeptisch.
Nebenbei 384bit, nicht 386 :D
Jo vertippt!
Ja die Speicher Interfaces kann man nun so wählen wegen dem höheren L2 Cache.
Krumm sind sie aber nicht da immer +32Bit
iamthebear
2022-07-09, 06:16:26
Ich glaub ich bin da mit recht nah dran wie es kommen wird!
64Bit =4GB 4050
96Bit =6GB 4050Ti
128Bit =8GB. 4060
160Bit =10GB 4060Ti
192Bit =12GB 4070
224Bit =14GB 4070Ti
256Bit =16GB 4080
320Bit =20GB 4080Ti
352Bit =22 GB ???
386Bit =24GB 4090/4090 Ti
384Bit =48GB Titan/4090Ti
Also ich fange an mit meinen Erwartungen:
384 Bit, 24GB 4090 Ti 144SM 600W 2500 Euro
384 Bit, 24GB 4090 128SM 450W 2000 Euro
256 Bit, 16GB 4080 80SM 420W 1200 Euro
160 Bit, 10GB 4070 56SM 300W 700 Euro
128 Bit. 8GB 4060 Ti 48SM 250W 550 Euro
128 Bit, 8GB 4060 36SM 200W 400 Euro
64 Bit, 4GB 4050 Ti 24SM 75W (mobile)
64 Bit, 4GB 4050 16SM 55W (mobile)
Preise sind Straßenpreise. Die UVPs von Nvidia nehme ich generell nicht mehr ernst. Bitte dabei auch bedenken, dass der Euro in den letzten 2 Jahren um 15% gefallen ist.
Thunderburne
2022-07-09, 07:18:55
Bei den Preisen ist halt wirklich schwierig da was voraus zu sagen .
Denke so Ende August Anfang Mitte September wird man das etwas besser zu ordnen können wen man sieht wo die 3000ne Karten dann stehen !
Gruss
Also ich fange an mit meinen Erwartungen:
384 Bit, 24GB 4090 Ti 144SM 600W 2500 Euro
384 Bit, 24GB 4090 128SM 450W 2000 Euro
256 Bit, 16GB 4080 80SM 420W 1200 Euro
160 Bit, 10GB 4070 56SM 300W 700 Euro
128 Bit. 8GB 4060 Ti 48SM 250W 550 Euro
128 Bit, 8GB 4060 36SM 200W 400 Euro
64 Bit, 4GB 4050 Ti 24SM 75W (mobile)
64 Bit, 4GB 4050 16SM 55W (mobile)
Preise sind Straßenpreise. Die UVPs von Nvidia nehme ich generell nicht mehr ernst. Bitte dabei auch bedenken, dass der Euro in den letzten 2 Jahren um 15% gefallen ist.
4090 -> 24GB (450W 1600€)
4080Ti -> 20GB (450W 1200€)
4080 -> 16GB (420W 750€)
4070Ti -> 16GB (350W 650€)
4070 -> 12GB (300W kann auch AD103 sein) (550€)
4060Ti -> 12GB (250W 450€)
4060 -> 10GB (sicherlich auch noch AD104) (200W 350€)
4050Ti -> 8GB 150W
4050 -> 8GB 120W
Darunter ist eh egal. In dem anstehenden Marktumfeld sind hohe Preise unmögich.
Thunderburne
2022-07-09, 08:57:48
4090 -> 24GB (450W 1600€)
4080Ti -> 20GB (450W 1200€)
4080 -> 16GB (420W 750€)
4070Ti -> 16GB (350W 650€)
4070 -> 12GB (300W kann auch AD103 sein) (550€)
4060Ti -> 12GB (250W 450€)
4060 -> 10GB (sicherlich auch noch AD104) (200W 350€)
4050Ti -> 8GB 150W
4050 -> 8GB 120W
Darunter ist eh egal. In dem anstehenden Marktumfeld sind hohe Preise unmögich.
Die Preise wären nice ich mache mir da aber nicht viel Hoffnung!
Ich hab ehr das Gefühl das NV diesesmal am Anfang versuchen wird nix zu verschenken !
Ich glaub NV hat gekotzt im Kreis wo die gesehen haben um wieviel teurer sie ihre Karten an die Partner hätten verkaufen können!
3090Ti UVP war glaub ich 2199 ca da seh ich auch die 4090 am Anfang !
Die 4080 sehe ich so im Bereich 1000€ zwischen der 3080-3080Ti vom Preis !
Da wird der NV Chef auf der Bühne stehen Karte hochhalten und brüllen 16 GB of Ram !!!More than the 3080Ti !!! and this only for 999 $
Und schon werden die Stulen verkauft !
1500 sehe ich die 4080Ti mit 1500+
Mit 3090 Ti hat man die Latte wieder um ein Paar hunis nach oben verschoben und tauscht die Plätze mit der nächsten Gen!
Glaube ich nicht. NV hat auch Leute, die das kalkulieren könnten. Wenn die hohe Preise machen, werden die fast nix verkaufen im Rezessionsumfeld.
Thunderburne
2022-07-09, 09:04:12
Glaube ich nicht. NV hat auch Leute, die das kalkulieren könnten. Wenn die hohe Preise machen, werden die fast nix verkaufen im Rezessionsumfeld.
Bei der 3000ner Serie haben die sich verkalkuliert!
Später wurden die Preise leicht korrigiert man wollte den Mob ja nicht verärgern!
Hätte Nv gewusst was da passiert dann hätte eine 3080 gleich knapp 1000 Euro gekostet !
Und eine 3090 2000!
Die 3080Ti dann 1500
So haben sich halt andere ihre Taschen so richtig voll gesteckt!
Zu dem Zeitpunkt war der Markt ja noch relativ Stabil dann Lockdown die Leute hatten zumindest hier in DE noch Geld das hätte funktioniert!
Jetzt zwei Jahre Später Krieg usw noch mehr Arbeitslose gestiegene Kosten das könnte zumindest jetzt für DE nicht mehr funktionieren!
Da bin ich bei dir !
Gerade wen die Yield jetzt am Anfang nicht groß ist kann man hohe UVPs ansetzen und erstmal die early Birds zur Kasse beten dann nach und nach den Preis senken !
Sieht man z.n Gut gerade bei der 3090 Ti!
AffenJack
2022-07-09, 09:21:08
4090 -> 24GB (450W 1600€)
4080Ti -> 20GB (450W 1200€)
4080 -> 16GB (420W 750€)
4070Ti -> 16GB (350W 650€)
4070 -> 12GB (300W kann auch AD103 sein) (550€)
4060Ti -> 12GB (250W 450€)
4060 -> 10GB (sicherlich auch noch AD104) (200W 350€)
4050Ti -> 8GB 150W
4050 -> 8GB 120W
Darunter ist eh egal. In dem anstehenden Marktumfeld sind hohe Preise unmögich.
In etwa so würde ich es auch erwarten, bei uns allerdings höher. Das wären meine Erwartungen an die Dollarpreise. Wenn es aber bald unter 1$ für nen Euro geht kommt da bei uns noch einiges obendrauf. Die Euroschwäche interessiert Nvidia ja nicht, da man global die Preise festsetzt und wir werden drunter leiden müssen.
Thunderburne
2022-07-09, 09:29:45
Die Karte ist ein gutes Beispiel das man erstmal hoch im Preis starten kann !
https://www.mindfactory.de/product_info.php/24GB-MSI-GeForce-RTX-3090-TI-GAMING-X-TRIO-GDDR6X-HDMI-3xDP_1450838.html
Die Karte ging bei um die 2350Euro los und ist in 3 Monaten auf 1900 runter!
Ich sag dazu den Markt den Preis regulieren lassen nach dem man höchst möglich angesetzt hat!
Das ist halt schlecht für die Händler !
Man sieht das oft bei TVs !
Ich find es schwierig in der jetzigen Situation NV ein zu schätzen !
UVP sind natürlich keine Strassenpreise. UVP kann man spekulieren, aber das ist natürlich was völlig anderes, wieviel das hinterher tatsächlich kostet. Ich dachte, das wäre obligatorisch.
Thunder99
2022-07-09, 12:29:17
Jo vertippt!
Ja die Speicher Interfaces kann man nun so wählen wegen dem höheren L2 Cache.
Krumm sind sie aber nicht da immer +32Bit
Ist halt ungewöhnlich, da bisher nicht so die Option genutzt worden ist.
Wobei, die 970 damals war ja ein Parade Beispiel, 224bit+32bit :freak:
Thunderburne
2022-07-09, 12:57:03
Haben die nicht zwei Speicher an an einen Controller geklebt bei der 970???
iamthebear
2022-07-09, 18:06:48
Bei der 3000ner Serie haben die sich verkalkuliert!
Später wurden die Preise leicht korrigiert man wollte den Mob ja nicht verärgern!
Hätte Nv gewusst was da passiert dann hätte eine 3080 gleich knapp 1000 Euro gekostet !
Und eine 3090 2000!
Die 3080Ti dann 1500
So haben sich halt andere ihre Taschen so richtig voll gesteckt!
Die 3080 hat real 1000 Euro gekostet. Du glaubst doch nicht etwa, dass Nvidia hier nicht mitverdient hat?
Nvidias 700 Euro für die 3080 haben real nie existiert. Selbst wenn die AIBs wieder auf den normalen Hungerlohn gequetscht werden und die Regale voll sind wie zu normalen Zeiten sind die nicht erreichbar. Dasselbe Spiel wird jetzt schon die 3. Generation hintereinander gespielt.
Zu den gierigen AIBs:
Zu normalen Zeiten haben diese eine Marge von ca. 10%. Davon muss die gesamte Produktion, Entwicklung/Validierung von Karten, Marketing, Vertrieb, Garantierücksendungen etc. bezahlt werden und offiziell schlägt Nvidia bei Ampere 5% vor. Am Ende steigen die AIBs mit +/- 0 aus, wenn es gut geht mit 2-3% Gewinn.
Nvidia hat eine Marge von 65% d.h. Chips werden um 35Euro eingekaut und um 65Euro verkauft und das ohne eigene Produktion. Am Schluss kommen nach allen Kosten knapp 40% Gewinn raus.
Im Jahr 2021 am Beispiel von PC Partner (Zotac):
Marge: 27.73%
Gewinn: 15.36%
Zum Vergleich 2019:
Marge: 6.8%
Gewinn: 0.13%
Das ist zu Miningzeiten nicht einmal die Hälfte von dem, was Nvidia die ganze Zeit verdient.
Bei AMD sieht es nicht viel anders aus, hier bekommt man aber schwer an genaue Zahlen, da CPU + GPU nicht getrennt ausgewiesen wird.
Thunder99
2022-07-10, 13:43:05
So langsam denke ich wird es die folgenden Karten und Speicherausbau Varianten geben. Es sind maßvolle Steigerung der Speichermenge, was Nvidia typisch wäre. Damit auch Platz für ein Refresh und Ti Variante:
4070@10GB (AD104 Sav)
4070Ti@12GB (AD104 Full/AD103 Sav)
4080@16GB (AD103 Sav)
4080Ti@16/20GB (AD103Full/AD102 Sav)
4090@24GB (AD102 Sav)
4090Ti@24GB (AD102 Sav)
TitanA@48GB (AD102 FULL/MAX)
Und alles schön über die TDP/TGP gesteuert damit der Abstand gewahrt bleibt (300 - 600W).
Meridian12
2022-07-10, 16:11:09
UVPs sind ja eh nur Preise für die Verkäufer.
Damit die sich gemeinsam orientieren können.
Bei einigen Produkten (Samsung Fernseher,Backöfen Bosch/Siemens usw) sind die eh nur dazu da, dass man denkt ein Schnäppchen zu machen. 2500 UVP und an Tag 2 kann man die Geräte für 1500 Euro kaufen.
Bei einer 1500 Euro UVP geht sicherlich 1000 Euro an NVIDIA/AMD.
Wenn NVIDIA die Preise zu hoch setzt, dann bleiben die Karten liegen.
10 Karten mit je 200 Euro Gewinn verkauft ist nunmal besser als 2 Karten mit 500 Euro Gewinn verkauft.
Wenn die 4090 für 1300 Euro keiner kaufen würde, wäre sie schnell zu 1200 oder gar 1100 Euro zu haben (bis zur Grenze wo es finanziell nicht mehr lohnt sie zu produzieren).
Wenn die Karte für 1500 Euro direkt die 10fache Bestellmenge zur Verfügbarkeit verursacht, dann gehts dann halt auf 1700+ Euro hoch. Sowars ja letztes Jahr mit den 3xxx Karten.
Einfache Marktwirtschaft. Angebot und Nachfrage.
w0mbat
2022-07-10, 17:55:02
Bei einer 1500 Euro UVP geht sicherlich 1000 Euro an NVIDIA/AMD.
Ganz sicher nicht.
RoNsOn Xs
2022-07-10, 19:31:16
So ne schlechte Milchmädchenrechnung habe ich auch noch nicht gesehen.
Early Adopter werden sicher mit bis zu 100% über normal anfangs abgecasht, vor allem wenn die Karte wirklich so gut sein sollte, wie viele befürchten.
prinz_valium_2
2022-07-10, 22:06:14
Heute werden nicht mehr Early Adopter abgecasht, sondern GPU Käufer überhaupt.
Deshalb einfach keine mehr kaufen.
Slipknot79
2022-07-10, 22:57:12
Statt nichtkaufen can man auch überspringen.
Wenn man für 50% MOAR Leistung 1500EUR ausgeben muss, wird man sich vorher hoffentlich überlegen ob das Sinn m8. Oder ob man erst ab +100% Kohle rüberwachsen lässt. (y)
iamthebear
2022-07-11, 03:02:54
Das Problem ist: Übersprungen habe ich bereits Turing und mir übergangsweise eine 1070 Ti geholt.
Bei Ampere wollte ich beim Launch bei einer 3080 zugreifen ist aber dann nichts draus geworden.
Noch 2 Jahre will ich aber sicher nicht mehr warten d.h. ich brauche etwas Neues.
Thunder99
2022-07-11, 08:20:54
Preis wird dann normal sein, wenn es kein Mining gibt. Ansonsten wird es werden wie Ampere...
iamthebear
2022-07-11, 08:43:44
Selbst wenn die Kurse wieder steigen: Mit Ethereum PoS laufen alle Tests derzeit nach Plan. Ich würde derzeit Ende August bis Anfang September schätzen.
Aber Miningende bedeutet nicht automatisch niedrige Preise. Wir sind jetzt genau in derselben Situation wie kurz vor dem Turing Launch nur dass Nvidia sich diesmal eine neue Fertigung geleistet hat und AMD konkurrenzfähig ist.
Na das ist ja total vergleichbar dann :D. Leichter Widerspruch in einem Posting.
Auch damals fluteten Mining-Karten den Gebrauchtmarkt - nur heute ist der Maßstab ein ganz anderer.
Nein, es ist rein gar nichts wie beim Turing-Launch.
BlacKi
2022-07-11, 11:55:41
ach, wer eine karte wollte, der hat auch eine bekommen. ich denke, es wird nun wesentlich einfacher eine zu bekommen. schon alleine weil die stückzahlen der neuen karte deutlich höher sein werden.
OgrEGT
2022-07-11, 12:46:10
ach, wer eine karte wollte, der hat auch eine bekommen. ich denke, es wird nun wesentlich einfacher eine zu bekommen. schon alleine weil die stückzahlen der neuen karte deutlich höher sein werden.
Wenn es stimmt dass NV sogar gebuchte Wafer Kontingente an TSMC zurückgeben will dann kann es bei Ada eigentlich nicht zu knapper Verfügbarkeit kommen... es sei denn das gehört zum Plan dazu um höhere Preise zu rechtfertigen und Ampere länger abverkaufen zu können...
aceCrasher
2022-07-11, 12:49:37
Wenn es stimmt dass NV sogar gebuchte Wafer Kontingente an TSMC zurückgeben will dann kann es bei Ada eigentlich nicht zu knapper Verfügbarkeit kommen... es sei denn das gehört zum Plan dazu um höhere Preise zu rechtfertigen und Ampere länger abverkaufen zu können...
Das wird TSMC aber nicht mit sich machen lassen.
OgrEGT
2022-07-11, 12:54:17
Das wird TSMC aber nicht mit sich machen lassen.
Es kommt auf die Kompensation an und ob es andere Interessenten gibt...
BlacKi
2022-07-11, 12:55:02
das problem ist vermutlich nicht alleine das man zuviel karten hätte, sondern, das die wafer zu viel kosten um sie günstig loszuwerden. tsmc hatte ja die preise deutlich erhöht.
von den hohen preisen muss tsmc sowieso wieder abrücken.
OgrEGT
2022-07-11, 12:57:34
Was auch spannend sein wird wie konkurenzfähig RDNA3 ist und wie sich NV und AMD entscheiden ob sie mehr auf Marge oder Marktanteil setzen werden... wenn der Konkurent auf Marktanteil setzt dann muss man mit günstig(er)en Preisen reagieren was aber nur mit Volumen gedeckt werden kann da die Nachfrage hoch geht... alles ggf ein Schachspiel derzeit :)
NV kann nicht jetzt einfach unendlich verschieben, um die 30x0-Karten abzuverkaufen. AMD kommt ja auch irgendwann auf den Markt. Und NV kann nicht wirklich viel Produktion drosseln, ein paar % vielleicht, aber ansonsten verliert man u.U. doch Marktanteile an AMD. Deshalb sehe ich diese Argumentationen etwas skeptisch.
basix
2022-07-11, 16:04:06
Was auch spannend sein wird wie konkurenzfähig RDNA3 ist und wie sich NV und AMD entscheiden ob sie mehr auf Marge oder Marktanteil setzen werden... wenn der Konkurent auf Marktanteil setzt dann muss man mit günstig(er)en Preisen reagieren was aber nur mit Volumen gedeckt werden kann da die Nachfrage hoch geht... alles ggf ein Schachspiel derzeit :)
Was ich gerne mache: Marge usw. anhand der Vorgängergeneration abschätzen.
Nehmen wir die 6900XT, die SKU mit wohl der höchsten Marge von AMDs Portfolio:
- 521mm2
- 16 GByte
- 300W
Jetzt N31 als Nachfolger:
- 24 GByte = 1.5x
- 450W = 1.5x
- 1x GCD + 6x MCD = ~1.5x so teuer
--> N31 Kosten = ~1.5x N21
--> Ganz grob kann Big N31 bei ~1499$ MSRP die gleiche Marge wie bei einer 6900XT erreichen, evtl. sogar etwas mehr (PCB, Kühler, Lagerung, Lieferung wird vermutlich nicht 1.5x kosten). Mehr Marge muss AMD eigentlich nicht haben, da auf Niveau der "höchstmargigen" SKU von RDNA2. Sie können natürlich höher gehen, mit attraktiven Preisen bekommt man aber folgendes: Mindshare bei Kunden und Marktanteile. Die Marge wird dabei ja nicht wirklich vernachlässigt, die ist bei RDNA2 ganz OK, insbesondere bei der 6900XT.
Wenn Lovelace nun gleich schnell oder gar langsamer als N31 ist, kann Nvidia ausserhalb einer Titan nicht wirklich mehr als das verlangen. Wenn Lovelace schneller ist, werden die Preise auch höher als bei RDNA3 liegen.
- 1x GCD mit 400mm2 in N5: ~1.5x teurer als N7 damals, aber bessere Yields (kleineres Die) --> ~so teuer wie N21
- 6x MCD mit 40mm2 in N6: Total 240mm2. Da Chiplets extrem hoher Yield und pro Fläche einiges günstiger als N21
- GCD + MCD Packaging: Nicht extrem teuer. Nehmen wir an 6x MCD + Packaging = 0.5x N21
- Total haben wir also ganz grob bei N31 mit 1x GCD + 6x MCD + Packaging = (1.0 + 0.5) * N21 = 1.5x N21 Kosten
Troyan
2022-07-11, 16:08:19
Was auch spannend sein wird wie konkurenzfähig RDNA3 ist und wie sich NV und AMD entscheiden ob sie mehr auf Marge oder Marktanteil setzen werden... wenn der Konkurent auf Marktanteil setzt dann muss man mit günstig(er)en Preisen reagieren was aber nur mit Volumen gedeckt werden kann da die Nachfrage hoch geht... alles ggf ein Schachspiel derzeit :)
Und wie soll die Firma mit der unterlegenden RDNA Architektur das machen? Da nVidia pro Fläche mehr Transistoren unterbringt, muss AMD also mehr Fläche nutzen. Da die Wafer von TSMC bei 5nm richtig teuer sind, bleibt AMD nichts übrig als ebenfalls Mondpreise zu nehmen.
Rate doch mal, wieso AMD die 6800 aus dem Programm genommen hat. nVidia hat mit 8nm einfach mal AMD aus dem Markt gequetscht.
Nazar
2022-07-11, 16:11:53
*hust* Nicht "abgesprochene" Preisabsprachen *hust*.
Es gibt einfach eine stille Vereinbarung, dass man nicht !!unter!! einem gewissen Preis anbietet, für einen festgelegten Zeitraum. Anders sind die dauerhaft hohen Preise, selbst nach der Flutung des Marktes mit Produkten, kaum noch zu erklären.
Bei der Menge an "alter" HW kurz vor dem Start der neusten Generation, sollte man selbst mit Verlusten verkaufen, alles andere kostet nur Geld. Ich sehe das aber derzeit nicht mal im Ansatz.
Bin mal gespannt, ob sich nicht wirklich alles auf Ende dieses Jahres (Vorstellung) und Anfang nächsten Jahres (Verkaufsstart) verschiebt.
basix
2022-07-11, 16:12:02
Und wie soll die Firma mit der unterlegenden RDNA Architektur das machen? Da nVidia pro Fläche mehr Transistoren unterbringt, muss AMD also mehr Fläche nutzen. [...]
Was du nicht bereits alles über Lovelace und RDNA3 weisst :rolleyes:
Lehdro
2022-07-11, 16:45:13
Und wie soll die Firma mit der unterlegenden RDNA Architektur das machen? Da nVidia pro Fläche mehr Transistoren unterbringt, muss AMD also mehr Fläche nutzen.
Du hast da sicherlich schon belastbare Werte für die Beiden, oder?
Rate doch mal, wieso AMD die 6800 aus dem Programm genommen hat. nVidia hat mit 8nm einfach mal AMD aus dem Markt gequetscht.
Für eine aus dem Programm genommene Karte ist sie erstaunlich gut verfügbar. (https://geizhals.de/?cat=gra16_512&xf=9816_02+04+12+-+RX+6800)
davidzo
2022-07-11, 17:07:35
Da nVidia pro Fläche mehr Transistoren unterbringt, muss AMD also mehr Fläche nutzen.
Ist das so?
Die benutzen doch beide quasi denselben TSMC N5(HP) Prozess von TSMC.
Auch wenn Lederjacke den vollmundig 4N nennt (4 nvidia) ist das dieselbe Prozessbasis und auch AMD und andere Kunden customizen ihren Prozess bei TSMC.
Der Compute Teil wird also von der Density sehr ähnlich sein, wenn nicht sogar mit Vorteilen für AMD, da NV bei "N4"wie wir von Hopper wissen auf die größten 3-fin HP Zellen gegangen ist die TSMC anbietet, mit der geringsten packdichte von ca. 92 MTr/mm². Das mag minimal besser sein bei den Consumerchips, aber ein neues "N4" wird man dafür nicht auflegen.
Und abseits von Compute: SRAM skaliert in N5 eh kaum, zumal Amperes L2 sowieso massive Skalierungsprobleme hat im vergleich zu AMDs Infinitycache, die man wohl nicht gänzlich von heute auf morgen lösen wird.
Bei der Cache Density wird AMD also trotz N6 noch vorne liegen.
Und i/o und SOC sind viel Analog krams, was schon seit etlichen Nodes nicht mehr skaliert. Da ist N5 einfach nur eine Verschwendung des teuren Prozesses ohne Benefits bei der Density.
Es muss also in dieser Generation gar nicht passieren dass Nvidia trotz monolithischem N4 DIE die höhere Density hat. AMD könnte trotz Prozessmix gleichauf liegen.
Zumal das für die DIEfläche für Preis eh nicht so eine wichtige Rolle spielt, sind die älteren Nodes doch erheblich günstiger.
Wenn ich 50% mehr Cache in N6 für dasselbe Geld bekomme oder dadurch einen größeren DIE fürs gleiche Geld haben kann, dann kann ich den bei einer günstigeren v/f betreiben weil die Leistung durch die Breite kommt, nicht durch die Brechstange.
Man kann es darauf eindampfen: beide verwenden eine customisierte Variante von TSMCs N5.
basix
2022-07-11, 18:54:33
Bei Lovelace bin ich hinsichtlich Density schon gespannt, wie dicht ihr L2$ gepackt werden wird. Ein normaler L2$ wie auf Ampere oder auch RDNA2 ist relativ fett. Die 6 MByte von GA102 sind ~10-12 SMs schwer. Bei N21 sind 4MByte etwa so gross wie ~6-7 CUs
AD102:
https://twitter.com/Locuza_/status/1338265403022323713/photo/1
N21:
https://www.reddit.com/r/Amd/comments/sjqb08/navi_21_die_shot_and_annotation_from_nemes/
Packen sie den L2$ auf Lovelace nicht dichter (ausserhalb des 4N Process Scalings), wären 96 MByte L2$ auf AD102 fast gleich gross / leicht grösser wie die 144 SMs. Und nimmt man das Process Scaling dazu, wären die 144 SMs einiges kleiner als der L2$, da Logik besser shrinked :freak:
iamthebear
2022-07-12, 21:15:51
Das ist in der Tat eine interessante Frage. semianalysis und Locuza haben in diesem Artikel (ca. 2/3 unten) einen Vergleich:
https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications
Navi22 hatte 24x4=96MB auf 1.9mm² pro Slice oder 0.475mm²/MB
GA102 hatte 48x0.125=6MB auf 0.95mm² pro Slice oder 7.6mm²/MB
GA100 hatte 80x0.5=40MB auf ca. 1.29mm² pro Slice oder 5.2mm²/MB
Theoretische SRAM Größe für TSMC 7nm: 0.226mm²/MB
Der Infinity Cache ist pro MB deutlich kompakter, dafür hat der L2 Cache von Nvidia deutlich mehr Bandbreite, da es eben ein L2 ist und speziell GA100 benötigt viel Bandbreite, damit gegenüber dem schnellen HBM nicht der L2 zum Flaschenhals wird.
Ich denke Nvidia wird bei Ada auf 48x2MB Slices setzen d.h. im Vergleich zu GA102 einfach nur die Slices vergrößern. Ob das reicht um in etwa auf die Dichte von AMD zu kommen ist fraglich. Ich erwarte für die 96MB ca. 100mm².
basix
2022-07-13, 13:04:56
Wie gross sind eigentlich die Cache Slices bei RDNA2?
- 128 kByte? Die Cache Blocks des V-Caches sind 128kB gross
- 1 MByte? Auf den CPU CCD Die Shots direkt zusammenhängende SRAM-Arrays
Dovregubben
2022-07-13, 13:23:06
Und abseits von Compute: SRAM skaliert in N5 eh kaum, zumal Amperes L2 sowieso massive Skalierungsprobleme hat im vergleich zu AMDs Infinitycache, die man wohl nicht gänzlich von heute auf morgen lösen wird.
Bei der Cache Density wird AMD also trotz N6 noch vorne liegen.
Warten wir erstmal ab. Die Entscheidung, dass Lovelace einen solch großen Cache bekommt, wird sicherlich schon vor locker 3-4 Jahren gefallen sein. Die hatte jede Menge Zeit die anstehenden Probleme zu lösen. Ein nicht kleiner Teil des Wissens für die Caches dürfte bei TSMC liegen und ansonsten gibt es zwischen AMD und Nvidia auch regen Personalaustausch, so dass auf keiner Seite magisches Wissen und Personal gibt.
iamthebear
2022-07-14, 03:32:56
Wie gross sind eigentlich die Cache Slices bei RDNA2?
- 128 kByte? Die Cache Blocks des V-Caches sind 128kB gross
- 1 MByte? Auf den CPU CCD Die Shots direkt zusammenhängende SRAM-Arrays
Ich glaube 256KB beim L2 und 4MB beim Infinity Cache.
Auch wenn AMD etwas kompakteren Cache hat: Den Großteil scheint die Größe der Slices aus zu machen wobei mehr kleinere Slices dann einen Vorteil bei der Bandbreite ergibt.
BlacKi
2022-07-14, 14:35:57
funny, 3090 mit 20gb 320bit SI 16,67% wenigerbandbreite, nur 3,6% verlust.
eine geringere bandbreite würde schon bei ampere nicht schaden.
https://abload.de/thumb/screenshot2022-07-14aukk0j.png (https://abload.de/image.php?img=screenshot2022-07-14aukk0j.png)
Lehdro
2022-07-14, 15:26:01
funny, 3090 mit 20gb 320bit SI 16,67% wenigerbandbreite, nur 3,6% verlust.
eine geringere bandbreite würde schon bei ampere nicht schaden.
https://abload.de/thumb/screenshot2022-07-14aukk0j.png (https://abload.de/image.php?img=screenshot2022-07-14aukk0j.png)
Ist das auch abseits von RT so? RT sollte ja primär auf die Rechenwerke und nicht den Speicher gehen...
ZomBy7
2022-07-14, 15:32:28
Wie wahrscheinlich wird es sein das Ada Samsungs 24 Gbps GDDR6-Speicher bekommt?
Dovregubben
2022-07-14, 15:34:13
Ist das auch abseits von RT so? RT sollte ja primär auf die Rechenwerke und nicht den Speicher gehen...
Das eigentliche Raytracing ist hochgradig abhängig von der Speicherlatenz.
Die Beschleunigungsstrukturen sind recht einfache Bäume, die du traversieren musst und dabei wilde Sprünge im Speicher verursachst. Deswegen bekommt man auch enorme Zuwächse, wenn man es schafft koheränte Strahlen beim Tracing zu bündeln.
davidzo
2022-07-14, 15:46:01
Wie wahrscheinlich wird es sein das Ada Samsungs 24 Gbps GDDR6-Speicher bekommt?
Unwahrscheinlich.
Die 4090 wird mit großer Wahrscheinlichkeit 21Gbps GDDR6x bekommen. PCB Leaks sind draußen, wie auch der Kühler: Das Speicherlayout ist dasselbe wie bei der 3090ti, setzt also weiterhin auf G6X, was auch alle bisherigen leaks so sehen.
Spätere mainstream Adas könnten zwar auf den neuen Samsung Speicher setzen, aber da nvidia in der Regel eng gestaffelt launcht, halte ich auch das für unwahrscheinlich. Zumal für alles unterhalb mainstream auch entsprechende Stückzahlen da sein müssen und günstiger 16 oder 18gt/s GDDR6 von der Geschwindigkeit locker ausreicht.
Zudem kann man auch in Frage stellen ob Nvidias GDDR6 Speichercontroller mittlerweile 24gt/s packt. Ampere hatte lediglich 14gt/s normalen GDDR6 dabei war 16gt/s gut verfügbar (siehe AMD). Man wird sicher nicht ohne Not PAM4 eingeführt haben und Karten wie die 3070ti mit G6X gebaut haben wenn man auch einfach normalen GDDR6 mit 16 oder 18gt/s verwenden hätte können.
Bei RDNA3 halte ich es für etwas wahrscheinlicher. Man hat schon bei RDNA2 fast ausschließlich von samsung gesourced und braucht auch nicht die großen Mengen wie NV. Mit 20% Marktanteil ist man halt weniger schwerfällig und muss viel kleinere Stückzahlen vorhalten, also reichen auch kürzere Vorproduktionszeiten oder kleinere production ramps. Nvidia versucht als Marktführer immer mindestens Dual sourcing zu machen, also solange Hynix und Micron noch keinen 24gbits GDDR6 verfügbar haben, wird das wohl nichts.
Lehdro
2022-07-14, 16:01:00
Das eigentliche Raytracing ist hochgradig abhängig von der Speicherlatenz.
Die Beschleunigungsstrukturen sind recht einfache Bäume, die du traversieren musst und dabei wilde Sprünge im Speicher verursachst. Deswegen bekommt man auch enorme Zuwächse, wenn man es schafft koheränte Strahlen beim Tracing zu bündeln.
Speicherlatenz sollte aber recht unabhängig von der Bandbreite und Größe sein? Und genau das wurde ja in dem Test beschnitten.
lt. Webseite ist SKHynix bei 20GT/s angekommen mittlerweile, aber nicht 24. Das wird mMn aber nicht lange auf sich warten lassen nach dem Samsung launch. Nur Micron steckt nach wie vor bei 16GT/s fest.
The_Invisible
2022-07-14, 17:15:33
funny, 3090 mit 20gb 320bit SI 16,67% wenigerbandbreite, nur 3,6% verlust.
eine geringere bandbreite würde schon bei ampere nicht schaden.
https://abload.de/thumb/screenshot2022-07-14aukk0j.png (https://abload.de/image.php?img=screenshot2022-07-14aukk0j.png)
Wie kommt man bitte auf eine 3090 20GB und 12GB? Hat letzere hier nur 192bit?
davidzo
2022-07-14, 17:31:36
Wie kommt man bitte auf eine 3090 20GB und 12GB? Hat letzere hier nur 192bit?
Ja, 192bit. Custom BIOSse
https://videocardz.com/newz/nvidia-geforce-rtx-3090-has-been-tested-with-custom-20gb-320b-and-12gb-192b-memory-bioses
Es ist schon stark usecase abhängig. Manche Benchmarks skalieren auch überhaupt nicht mit Speicher-OC, mache schon. Zu viel Bandbreite hat eine 3090 nicht, das ist ausgewogen.
basix
2022-07-15, 15:21:39
Es ist schon stark usecase abhängig. Manche Benchmarks skalieren auch überhaupt nicht mit Speicher-OC, mache schon. Zu viel Bandbreite hat eine 3090 nicht, das ist ausgewogen.
Sag das einer 3070 ;) Eine 3090 hat (für Spiele) zu viel Bandbreite. Wenn eine 3090 mit Speicher-OC skaliert, wird es eher die Latenz sein, welche den Unterschied macht.
aufkrawall
2022-07-15, 15:26:44
Der Speichertakt skaliert völlig witzlos mit einer 3060, ergo hätte GDDR6 für die 3080 an 384 Bit wunderbar funktioniert. Direkt akzeptable 12GB Bestückung wäre eine weitere Folge gewesen...
BlacKi
2022-07-15, 15:42:59
Es ist schon stark usecase abhängig. Manche Benchmarks skalieren auch überhaupt nicht mit Speicher-OC, mache schon. Zu viel Bandbreite hat eine 3090 nicht, das ist ausgewogen.
sag das mal meinen spielen. keines skaliert 1zu1. und nur wenige bringen auch nur 1-2 fps.
3dmark oder heaven benchmark sind keine spiele, nur dort skaliert vram oc vernünftig.
Rampage 2
2022-07-15, 15:52:53
Sag das einer 3070 ;) Eine 3090 hat (für Spiele) zu viel Bandbreite. Wenn eine 3090 mit Speicher-OC skaliert, wird es eher die Latenz sein, welche den Unterschied macht.
Es ist doch klar, dass mehr FP32-Throughput auch mehr Bandbreite braucht - bei geschätzt 1.5-1.6x "effektiver" Leistung pro SM vgl. mit Turing muss auch die Bandbreite entsprechend mitwachsen. Da sind ~ 1000GB/sek. genau richtig!
R2
madshi
2022-07-15, 18:59:22
Greymon55 hat heute geschrieben, daß nur AD102 (4090) in 2022 kommt (Announcement in Sep, Release in Okt), und alles andere wahrscheinlich auf 2023 verschoben ist.
> AD102:2022
> AD103/104/106:2023
> Yes, most likely only 4090 will be launched this year,
> because there are too many stocks, 4090Ti depends
> on AMD.
> I can't guarantee this information, but it's very likely.
Linmoum
2022-07-15, 19:13:13
Man erinnere sich noch an kimis "Ada launcht ja im Juli!!!11einself". ;D Zu geil einfach nur.
Ich glaube mittlerweile, dass an dem Digitimes-Report tatsächlich etwas Wahres dran ist. Dass man zumindest noch irgendwie einen AD102 in Q4 bringen möchte, halte ich aber ebenso für plausibel. Allein schon nur, um was gegen die Konkurrenz zu haben, die auch dank des N5/N6-Mixes deutlich flexibler sein wird. Das werden spannende Monate.
BlacKi
2022-07-15, 19:29:35
Man erinnere sich noch an kimis "Ada launcht ja im Juli!!!11einself". ;D Zu geil einfach nur.
Ich glaube mittlerweile, dass an dem Digitimes-Report tatsächlich etwas Wahres dran ist. Dass man zumindest noch irgendwie einen AD102 in Q4 bringen möchte, halte ich aber ebenso für plausibel. Allein schon nur, um was gegen die Konkurrenz zu haben, die auch dank des N5/N6-Mixes deutlich flexibler sein wird. Das werden spannende Monate.
igor hat bestätigt, das kimi definitiv interne infos postet. und genau deshalb will man solche infos für sich behalten, weil obwohl sie derzeit den korrekten informationsstand haben, noch lange nicht auch so kommen müssen.
die infos waren korrekt, obwohl sie nicht eingetroffen sind. das ist kein widerspruch.
und genau deshalb muss man auch korrekte infos immer mit einem grain of salt betrachten. aka medienkompetenz. sich darüber lustig zu machen zeugt wenig von medienkompetenz.
was den release der karten angeht, so wird man, denke ich, zumindest noch die 4080 releasen, denn auch diese karte steht in keiner konkurenz zu den altkarten.
Linmoum
2022-07-15, 19:34:56
igor hat bestätigt, das kimi definitiv interne infos postet. und genau deshalb will man solche infos für sich behalten, weil obwohl sie derzeit den korrekten informationsstand haben, noch lange nicht auch so kommen müssen.
die infos waren korrekt, obwohl sie nicht eingetroffen sind. das ist kein widerspruch.
und genau deshalb muss man auch korrekte infos immer mit einem grain of salt betrachten. aka medienkompetenz. sich darüber lustig zu machen zeugt wenig von medienkompetenz.Igor ist auch nicht allwissend, wie niemand hier. Lagerbestände sind kein Problem von wenigen Wochen, sodass sich ein Launch erst kurzfristig verschiebt. Das zeichnet sich ab. Schon gar nicht verschiebt sich der Launch dann mal eben um derart viele (>=3) Monate. Zu behaupten, dass tatsächlich diesen Monat gelauncht werden sollte, halte ich für stark abstrus.
was den release der karten angeht, so wird man, denke ich, zumindest noch die 4080 releasen, denn auch diese karte steht in keiner konkurenz zu den altkarten.Die 4080 wird mit ziemlicher Sicherheit nicht schon wieder auf dem xx102 basieren. Das kann bzw. konnte man bei Samsungs 8nm machen, aber nicht TSMC N5. Denn dann muss man bei einem potentiellen >=600mm² Die enorm mit dem Preis runter verglichen mit einer 4090 und das kostet heftigst Margen. Mal ganz unabhängig von den 4080 = AD103 Gerüchten.
BlacKi
2022-07-15, 19:52:07
mitte juli wäre sowieso nur ein paperlaunch gewesen. das wurde ja nicht im juli abgeblasen. das waren interna vermutlich aus dem april/mai. demnach hätte es nämlich noch einen run auf die karten gegeben. der eth kurs ist erst mitte mai abgestürzt, was dann die releaseplanung noch im mai geändert hat.
igor hat kontakte, er hat die infos gegengecheckt, seine infos gehen ins nv headquarter zurück. hat er seinen videos so gesagt.
wie gesagt, die 4080 ist keine konkurenz für die altkarten.
Linmoum
2022-07-15, 20:06:18
Die 4090 ist auch keine Konkurrenz. Trotzdem wurde ja nach deiner Meinung der Launch von Juli auf >=Oktober verschoben. Warum denn, obwohl AD102 keine Konkurrenz zu aktuellen Karten darstellt? ;)
Leistung ist dafür nicht relevant, entscheidend ist die preisliche Positionierung am Markt. Eine potentielle 4080 kostet sicherlich nicht 500€ mehr als aktuell eine 3090(Ti). Damit ist sie sehr wohl Konkurrenz dafür, den Abverkauf der alten Karten zu verhindern. ;)
Thunder99
2022-07-15, 20:07:56
Einfach entspannt zurück lehnen
Bleibt mehr Zeit für die alten Karten und Spiele zu genießen :) 😎
Unicous
2022-07-15, 20:11:11
die infos waren korrekt, obwohl sie nicht eingetroffen sind.
:rolleyes:
Solche Sätze liebe ich ja.;D Du kannst gar nicht beweisen, dass irgendetwas korrekt war, wenn es keine unabhängige zweite Quelle für diese Info gab.
Und der angebliche Launch im Juli ist doch bitte das geringste Problem. Die Specs ändern sich seit Wochen und Monaten, dabei hatten die Chips ihren tape out vermutlich schon Anfang des Jahres, wenn nicht gar Ende letzten Jahres, Infos darüber kommen ja meist mit ein paar Wochen bis Monaten Verspätung.
Das heißt die Specs zu den Chips sind bereits in Stein gemeißelt. Aus 15 Myriaden Shadereinheiten werden über Nacht nicht 25. Auch beim Speicherinterface ändert sich nichts. Natürlich kann sich Nvidia entscheiden die Chips zu beschneiden, das ändert aber nichts am Chip selbst.
Gute Quellen/Informanten können ganz schnell zu schlechten/unzuverlässigen Quellen werden. Wenn ihnen selbst falsche Informationen zugespielt werden (solche Leaks wandern zum Teil durch mehrere Hände, ich bezweifle, dass Kopite die "Primärquelle" ist), zum Beispiel weil Nvidia oder der AIB oder sonstige Zulieferer/Entwickler/etc. als Leaker enttarnt wurden.
Es ist auch nicht das erste Mal, dass Quellen auf einmal selbst Informationen fälschen, entweder aus Egogründen oder aus Groll und diese Falschinformationen dann weitergeben. Ist nicht das erste Mal, dass ein Leaker sich auf eine Quelle verlässt und die dann ab einem bestimmten Zeitpunkt nur noch Nonsens liefert. Passiert afaik ständig in chinesischen Foren.
Quellen versiegen auch. Wenn Leaker nur diese eine Quelle haben, dann wird es etwas eng für sie und sie beginnen sich "Leaks" auszudenken. Auch das ist nichts Neues. Und nicht zuletzt geben "prominente" Leaker gerne ihre eigenen Spekulationen oder auch Wunschdenken als echte Leaks aus um sich zu profilieren oder um damit Geld zu verdienen (siehe die unzähligen Youtube-Hansel mit ihren 30min+ Videos und einem Informationsgehalt der in zwei Tweets passt).
Was und wer "korrekt" ist entscheidest also nicht du per Augenmaß und "Trust me, bro", das entscheidet am Ende immer noch was in der Realität wirklich geschehen ist. :uup:
BlacKi
2022-07-15, 20:42:14
der korrekte wahrheitsgehalt eines leaks, bemisst sich nicht an dem was wirklich beim release erscheint. der wahrheitsgehalt misst man an dem, ob er zu dem zeitpunkt echt ist. wenn nv im juli plant die neuen karten anzukündigen, kimi leakt diesen termin, und nv verschiebt herbst, dann ist der leak korrekt, weil der termin so geplant war. fertig. da gibts nichts zu diskutieren. leaker können nicht in die zukunft sehen, sondern lediglich mitteilen was aktuell geplant ist.
und sich im nachhinein über leaker lustig zu machen, weil am ende nicht korrekt liegen, das ist einfach hirnrissig. kimi hinterlässt keine verbrannte erde, weil die leaks echt waren. so einfach ist das.
Leistung ist dafür nicht relevant, entscheidend ist die preisliche Positionierung am Markt. Eine potentielle 4080 kostet sicherlich nicht 500€ mehr als aktuell eine 3090(Ti). Damit ist sie sehr wohl Konkurrenz dafür, den Abverkauf der alten Karten zu verhindern.
dem argument kann ich durchaus was abgewinnen.
Linmoum
2022-07-15, 20:56:23
der wahrheitsgehalt misst man an dem, ob er zu dem zeitpunkt echt ist.
...
kimi hinterlässt keine verbrannte erde, weil die leaks echt waren. so einfach ist das.kimi hat Mitte Mai von dem Juli-Launch geschrieben. Laut dir also zu dem Zeitpunkt echt.
Igor hat am 02.06. (!) - nach Adam Riese rund zwei Wochen nach Kimis Juli-Posaune - seinen von früher bekannten, üblichen Zeitablauf in den Monaten vor dem Launch dargelegt. Bereits in diesem hat er für Ada vom Start (!) der Massenproduktion für August/September (!) gesprochen.
Mal davon ab, dass ich diese Vehemenz nicht mal ansatzweise verstehe, mit der du das, was Leaker von sich geben, hier verteidigst, hat Nvidia sich also von Mitte Mai (geplant im Juli zu launchen) bis zum 02.06. (da dann schon Oktober) innerhalb von zwei Wochen spontan (!) entschieden, den Launch mal eben um >= drei Monate (!) zu verschieben.
Liest du dir das eigentlich auch mal selbst durch, was du hier schreibst? :freak:
Unicous
2022-07-15, 21:06:12
@BlacKi
:rolleyes:
Ich zitiere mich einfach mal selbst:
Du kannst gar nicht beweisen, dass irgendetwas korrekt war, wenn es keine unabhängige zweite Quelle für diese Info gab.
Dein Gottvertrauen in einen Twitterer scheint wohl nichts zu erschüttern. Ob die Info korrekt ist kann nicht einmal Kopite selbst zu 100% wissen, außer Jensen selbst ist seine Quelle.:freak:
Ich mache mich nicht über Kopite lustig, ich mache mich eher über dein völlig unangebrachtes und unkritisches Verhalten gegenüber einer Person die vollkommen anonym auftritt lustig.
Kopite's Reaktion wenn man ihn mit dem Falschinformationen konfrontiert spricht im Übrigen auch Bände. Eine eingeschnappte Leberwurst die nicht akzeptiert wenn sie Fehler macht oder sich die angeblichen Leaks dann als inkorrekt oder, um es um deinetwillen etwas diplomatischer auszudrücken (:rolleyes:) angeblich "veraltet" sind.
Niemand hat hier den Anspruch auf die volle Wahrheit gepachtet. Kopite hat nicht immer recht, genauso wenig wie andere Leaker. Darauf zu bestehen, dass er recht hat, die Pläne sich nur geändert haben, ist einfach nur lächerliches Apologetentum. Und dann noch Igor als Kronzeugen hinzuziehen macht das Ganze am Ende wirklich nur noch zur Posse.:rolleyes:
iamthebear
2022-07-15, 21:06:48
Igor ist auch nicht allwissend, wie niemand hier. Lagerbestände sind kein Problem von wenigen Wochen, sodass sich ein Launch erst kurzfristig verschiebt. Das zeichnet sich ab. Schon gar nicht verschiebt sich der Launch dann mal eben um derart viele (>=3) Monate. Zu behaupten, dass tatsächlich diesen Monat gelauncht werden sollte, halte ich für stark abstrus.
Das mit dem Juli war tatsächlich eine Ente, aber ich gehe davon aus, dass September für AD102 geplant war.
Was die Lagerbestände angeht, so ist dies in erster Linie durch den Abverkauf der Miningkarten bedingt.
Dass es diesen Abverkauf mit dem PoS Merge Anfang September geben wird war klar und ich gehe einmal davon aus, dass Nvidia hier wohl etwas besser informiert sein dürfte wann dieser nun wirklich über die Bühne geht außer dem was die ETH Entwickler in ihren wöchentlichen Meetings diskutieren (die sind öffentlich einsehbar).
Was jedoch nicht absehbar war ist, dass:
a) Sich die Energiepreise so stark nach oben entwickeln
b) Kryptowährungen so stark fallen
Diese 2 Punkte haben dazu geführt, dass ca. 20% der aktiven Miningkarten schon bereits vor dem PoS Merge außer Betrieb genommen wurden und diese gelangen nun als Gebrauchtkarten in Umlauf je nach vorherigem Besitzer relativ schnell über Ebay oder eher langsamer als Refurbed Modelle über den regulären Handel.
Die 4080 wird mit ziemlicher Sicherheit nicht schon wieder auf dem xx102 basieren. Das kann bzw. konnte man bei Samsungs 8nm machen, aber nicht TSMC N5. Denn dann muss man bei einem potentiellen >=600mm² Die enorm mit dem Preis runter verglichen mit einer 4090 und das kostet heftigst Margen. Mal ganz unabhängig von den 4080 = AD103 Gerüchten.
Ich denke, dass der Plan von Nvidia ursprünglich war GA103 als 3080 zu vermarkten. Die 80er Karten sind normalerweise die Modelle, die sich relativ gut verkaufen während es von 80 Ti und 90 nur deutlich weniger gibt. Deshalb wird für diese ein relativ vollständiger Die verwendet. So viele Dies wo wirklich 20% defekt sind gibt es nicht.
Aber als sie realisiert haben wie stark AMD ist hatten sie keine andere Wahl als GA102 zu verwenden.
die 4080 releasen, denn auch diese karte steht in keiner konkurenz zu den altkarten.
Der Großteil der Kunden hat noch nichts davon mitbekommen, dass bald eine neue Generation mit deutlich mehr Leistung kommt. Die werfen bevor sie eine Karte kaufen einmal schnell Google an und suchen sich das erstbeste Review heraus und schauen in der Endwertung was wie schnell ist.
Jetzt stell dir vor Nvidia bringt die 4080 um 900$ UVP heraus und die steht in jedem Review 50% vor der 3090.
Wie viele Kunden werden dann wohl noch bereit sein 1000$ für eine 3080 Ti zu zahlen. Selbst wenn die 4080 nicht verfügbar bzw. im Handel deutlich teurer ist wird niemand die 3080 Ti nehmen.
Und selbst die 3080 wird sich nicht mehr verkaufen weil jeder denkt "ich nehme gleich die 4080".
Bei der 4090 um z.B. 2000$ wird der Effekt relativ gering sein. Da denkt sich der typische Käufer "Klar die kostet das Doppelte und ist auch doppelt so schnell aber so viel Geld werde ich nicht ausgeben".
DSD512
2022-07-15, 21:51:35
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59115-geruecht-rtx-4080-4070-und-4060-sollen-erst-im-jahr-2023-auf-den-markt-kommen.html
Also dieses Jahr nur die 4090. Alles andere next Year.
Im Januar passiert eh nix, da noch alle von Sylvester besoffen sind und ihren Rausch auspennen müssen..
Dann Februar\März. LOL.
Dann wohl wieder nur in Kleinstmengen verfügbar.
Dann geht es wieder los.
Bots\Drops ... alle hacken wieder in die Tasten, um eine zu ergattern.
Köstlich.
BlacKi
2022-07-15, 22:24:05
Im Januar passiert eh nix, da noch alle von Sylvester besoffen sind und ihren Rausch auspennen müssen..
die chinesen? die feiern nicht ende dezember.
2023 beginnt Chinese New Year am 22. Januar und endet am 7. Februar.
die karten werden davor oder danach in massen produziert.
kimi hat Mitte Mai von dem Juli-Launch geschrieben. Laut dir also zu dem Zeitpunkt echt.
Igor hat am 02.06. (!) - nach Adam Riese rund zwei Wochen nach Kimis Juli-Posaune - seinen von früher bekannten, üblichen Zeitablauf in den Monaten vor dem Launch dargelegt. Bereits in diesem hat er für Ada vom Start (!) der Massenproduktion für August/September (!) gesprochen.
Mal davon ab, dass ich diese Vehemenz nicht mal ansatzweise verstehe, mit der du das, was Leaker von sich geben, hier verteidigst, hat Nvidia sich also von Mitte Mai (geplant im Juli zu launchen) bis zum 02.06. (da dann schon Oktober) innerhalb von zwei Wochen spontan (!) entschieden, den Launch mal eben um >= drei Monate (!) zu verschieben.
Liest du dir das eigentlich auch mal selbst durch, was du hier schreibst?
du machst dich echt lächerlich. als ob die karten direkt mitte mai im regal stehen bleiben, natürlich, und so hab ich das gemeint, hat man ende mai oder danach die pläne geändert.
Kopite hat nicht immer recht, genauso wenig wie andere Leaker. Darauf zu bestehen, dass er recht hat, die Pläne sich nur geändert haben, ist einfach nur lächerliches Apologetentum. Und dann noch Igor als Kronzeugen hinzuziehen macht das Ganze am Ende wirklich nur noch zur Posse.
das kannst du nicht beweißen. ich nehme nur das naheliegendste an.
ihr macht euch über jemanden lächerlich, der entweder einer ente oder nachträglichen änderungen zum opfer gefallen ist. seine reaktion auf den gefallenen termin ist nicht wirklich angebracht gewesen. das ändert nichts daran, das die quellen echt waren. sei es ob die echten quellen der quelle absichtlich falschinfos waren, oder tatsächlich so in der planung waren. ich nehme grundsätzlich leaker nicht für 100%, weil sie entweder falschinfos aus echten quellen aufliegen, sich pläne ändern, oder falsche quellen falsche infos bringen. letzteres würde ich ausschließen. bei den anderen beiden gründen gehört wie immer der " grain of salt" dazu. da ist igor auch immer mit seinem spekulatius unterwegs.
Sunrise
2022-07-15, 22:24:29
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/59115-geruecht-rtx-4080-4070-und-4060-sollen-erst-im-jahr-2023-auf-den-markt-kommen.html
Also dieses Jahr nur die 4090. Alles andere next Year.
Im Januar passiert eh nix, da noch alle von Sylvester besoffen sind und ihren Rausch auspennen müssen..
Dann Februar\März. LOL.
Dann wohl wieder nur in Kleinstmengen verfügbar.
Dann geht es wieder los.
Bots\Drops ... alle hacken wieder in die Tasten, um eine zu ergattern.
Köstlich.
War ja hier schon vermutet worden, IMHO perfekt um maximale Margen zu generieren. Die Masse muss warten…
basix
2022-07-15, 22:45:39
Es ist doch klar, dass mehr FP32-Throughput auch mehr Bandbreite braucht - bei geschätzt 1.5-1.6x "effektiver" Leistung pro SM vgl. mit Turing muss auch die Bandbreite entsprechend mitwachsen. Da sind ~ 1000GB/sek. genau richtig!
R2
Eine 3090 hat 2.1x so viel Bandbreite wie eine 3070. Zeig mir ein Spiel, wo die 3090 2x so schnell wie eine 3070 ist oder wo eine 3070 stark bandbreitenlimitiert ist (siehe 3070 Ti).
Oder eine 3070 vs. 2080 Ti, wo letztere 1.38x Bandbreite hat und trotzdem in den meisten Fällen nicht schneller ist.
iamthebear
2022-07-15, 23:14:14
Am Besten sieht man das Ganze bei den Karten die es in 2 Ausführungen gibt.
a) Für ein 20% dickeres Speicherinterface und 30W + 2SM mehr gab es ganze 4% mehr Performance. Der Effekt des SI sollte also gegen 0 gehen.
b) Die 3070 Ti vs. 3070 mit 18Gbit/s GDDR6X vs. 14GBit/s GDDR6 und 2SM mehr:
Bei gleicher TDP sind beide exakt gleich schnell. Hier dürfte sich GDDR6X sogar negativ ausgewirkt haben und man ist besser dran den langsameren aber sparsameren GDDR6 zu verbauen und die gesparte Verlustleistung stattdessen der GPU zu geben.
Ich sehe das mit der Bandbreite also nicht so tragisch solange es sich im Rahmen von 20-30% bewegt.
Falls jedoch auf einmal nur die halbe effektive Bandbreite zur Verfügung stehen sollte dann wird das vermutlich jedoch ganz anders aussehen.
Es stellt sich also primär die Frage wie hoch die Hitrate des größeren L2 denn nun wirklich ist. Die Werte von AMD müssen hier nicht unbedingt genauso zutreffen allerdings kann man schon die eindeutige Tendenz erkennen, dass es mit höheren Auflösungen massiv schlechter wird d.h. die fetten Karten mit 8K Eignung brauchen mehr Cache und Bandbreite, die kleineren 1080p Karten brauchen weniger.
basix
2022-07-16, 10:54:02
Es stellt sich also primär die Frage wie hoch die Hitrate des größeren L2 denn nun wirklich ist. Die Werte von AMD müssen hier nicht unbedingt genauso zutreffen allerdings kann man schon die eindeutige Tendenz erkennen, dass es mit höheren Auflösungen massiv schlechter wird d.h. die fetten Karten mit 8K Eignung brauchen mehr Cache und Bandbreite, die kleineren 1080p Karten brauchen weniger.
Für 2x Pixel benötigt man ~2x Cache um die selbe Hitrate zu erreichen, also mehr oder minder lineare Skalierung mit der Anzahl Pixel. Es ist in Realität anhand der Folien von AMDs Infinity Cache etwas weniger als 2x, evtl. 1.8-1.9x, aber als Faustformal passt 2x ganz gut. Und bei selber Auflösung und unterschiedlich grossem Cache ist es dann ein ~sqrt(2) Verhältnis, doppelter Cache führt also zu 1.4...1.5x höherer Bandwidth Amplification.
>4K als Rendering-Auflösung sehe ich in Zeiten von DLSS & FSR nicht als notwendig an. 8K DLSS/FSR Performance mit dann Render-Auflösung auf 4K sollte den Job auch erledigen ;)
Rampage 2
2022-07-17, 00:06:05
Eine 3090 hat 2.1x so viel Bandbreite wie eine 3070. Zeig mir ein Spiel, wo die 3090 2x so schnell wie eine 3070 ist oder wo eine 3070 stark bandbreitenlimitiert ist (siehe 3070 Ti).
Oder eine 3070 vs. 2080 Ti, wo letztere 1.38x Bandbreite hat und trotzdem in den meisten Fällen nicht schneller ist.
Du solltest die 3090 eher mit der 2080 Ti vergleichen, das ergibt mehr Sinn: Erstere hat die 2.4fache Shaderleistung wie Letztere, ist aber dennoch nur 1.5-1.6x schneller - ich kann mir nicht vorstellen, dass weniger Bandbreite eine solche Rohleistung ausreichend füttern könnte. Dass ein Erhöhen bzw. Verringern der Bandbreite nur so wenig Leistungsunterschied macht, liegt IMO eher daran, dass Ampere einen beträchtlichen Teil seiner theoretischen Shaderleistung nicht auf die Strasse bringen kann - wegen anderer Flaschenhälse in den SMs.
Dennoch muss ich zugeben, dass ich erstaunt darüber war, dass die 3070 trotz massivem Bandbreiten-Nachteil gleich schnell wie die 2080 Ti war und dass die später folgende 3070 Ti trotz 36% mehr Bandbreite nur relativ wenig Mehrleistung erbrachte - insbesondere bei Letzterer hatte ich im Vorfeld angenommen, dass durch den schnelleren GDDR6X-Speicher eine "Handbremse" gelöst werden würde, welche zuvor das vermeintlich maximale Potential blockiert habe. Nach dem Release der 3070 Ti wurde klar, dass dem nicht so gewesen ist - Ampere ist allgemein keine besonders effiziente Architektur (damit meine ich das Verhältnis Rohleistung zu Realleistung;)), daher könnte das der Grund dafür sein, warum die Bandbreite so wenig Unterschied macht...
Für 2x Pixel benötigt man ~2x Cache um die selbe Hitrate zu erreichen, also mehr oder minder lineare Skalierung mit der Anzahl Pixel. Es ist in Realität anhand der Folien von AMDs Infinity Cache etwas weniger als 2x, evtl. 1.8-1.9x, aber als Faustformal passt 2x ganz gut. Und bei selber Auflösung und unterschiedlich grossem Cache ist es dann ein ~sqrt(2) Verhältnis, doppelter Cache führt also zu 1.4...1.5x höherer Bandwidth Amplification.
Weiß man, wie groß bei einem 128MB Cache die Hitrate in 1440p (nativ, kein DLSS) ist? Und ändert das Zuschalten von RT irgendwas daran?
Anhand dessen könnte man dann rechnerisch herleiten, wie groß die Hitrate in 1440p bei nur halb so großem Cache (64MB) sein wird - wie es bei der RTX 4080 der Fall sein wird;)
R2
basix
2022-07-17, 00:19:29
Weiß man, wie groß bei einem 128MB Cache die Hitrate in 1440p (nativ, kein DLSS) ist? Und ändert das Zuschalten von RT irgendwas daran?
Ja, weiss man ungefähr:
https://mobile.twitter.com/locuza_/status/1399148639440670722
Ob RT was daran ändert? Weiss keiner.
Anhand dessen könnte man dann rechnerisch herleiten, wie groß die Hitrate in 1440p bei nur halb so großem Cache (64MB) sein wird - wie es bei der RTX 4080 der Fall sein wird;)
R2
Bei 64 MByte hat man in 1440p in etwa die gleiche Hitrate wie N21 mit 128MByte bei 4K. So ca. ~55-60%. Unter der Annahme, dass das Caching bei Nvidia sehr ähnliche Bandwidth Amplification bringt wie bei RDNA2. Als Daumen*Pi Wert wird es vermutlich nicht so schlecht stimmen.
robbitop
2022-07-17, 08:17:53
Ampere hat trotz 128 FPs pro SM nur 1/2 der scheduling resources (Ampere single issue pro scheduler und Pascal dual issue) von Pascal (auch 128 FPs pro SM). Das führt je nach Code auch zu einer etwas geringeren Auslastung pro FPU. Das Aufbohren der INT FPU ggü Turing war halt (aus Transistorsicht) billig und hat mehr Performance gebracht als es gekostet hat. Lovelace wird mMn die Schedulerresources (und was sonst an Kontrolllogik skaliert werden muss) auch aufbohren und damit die Auslastung der SMs wieder erhöhen.
The_Invisible
2022-07-17, 10:05:02
Wurde ja 2 Seiten vorher die simulierte 3090 20GB gepostet mit knapp 160GB/s weniger, da hat sie jeztzt nicht so viel verloren. Die A6000 mit nur 16Gbps/384bit Speicher kommt da auf ähnliche Werte. Wenn das G6x Interface wirklich so viel frisst wie man zwischen 3070 und 3070Ti sieht frag ich mich ob es nicht besser gewesen wäre auf Standard G6 zu setzen und dafür das PowerBudget der GPU zu geben.
basix
2022-07-18, 10:51:56
Wurde ja 2 Seiten vorher die simulierte 3090 20GB gepostet mit knapp 160GB/s weniger, da hat sie jeztzt nicht so viel verloren. Die A6000 mit nur 16Gbps/384bit Speicher kommt da auf ähnliche Werte. Wenn das G6x Interface wirklich so viel frisst wie man zwischen 3070 und 3070Ti sieht frag ich mich ob es nicht besser gewesen wäre auf Standard G6 zu setzen und dafür das PowerBudget der GPU zu geben.
Sehe ich auch so. 320bit @ 19.5Gbps entsprechen ziemlich genau 16Gbps @ 384bit. Und genau diese 16Gbps waren ja verfügbar, siehe RDNA2 Launch. GDDR6X war nicht zwingend nötig und hat zu dem sehr hohen Stromverbrauch beigetragen. Und dazu deutlich aufwändigere PCBs usw. erfordert.
Jetzt, wo es normalen GDDR6 mit bis zu 24Gbps gibt (Samsung (https://www.computerbase.de/2022-07/fuer-rtx-4000-und-rx-7000-samsungs-gddr6-speicher-beschleunigt-auf-24-gbps/)), empfinde ich G6X als noch unnötiger. Klar, G6X könnte prinzipiell energieffizienter (https://www.anandtech.com/show/15978/micron-spills-on-gddr6x-pam4-signaling-for-higher-rates-coming-to-nvidias-rtx-3090) sein. Ampere hat dieses Argument allerdings nicht untermauert. Und Samsungs GDDR6 soll mit normalen Spannungen operieren können (1.35V). Mit 20Gbps sogar mit nur 1.1V, was Joule/Bit nochmals deutlich verbessern sollte, die 16/18Gbps Module auf RDNA2 liefen noch alle mit 1.35V. Bei 20Gbs @ 1.1V sind die Umladeverluste in den GDDR6-Leiterbahnen exakt gleich gross wie bei 16Gbps @ 1.35V (C*U). Dazu noch potentiell ~1.2x stromsparendere PHYs auf den Chips (U^2*f). Mit den neuen 20Gbps Chips steigt der Stromverbrauch verglichen mit RDNA2 also nicht, auch wenn man nicht wirklich was grundlegendes an den Speichercontrollern und am PCB ändern muss. Erst mit 24Gbps muss man optimieren (auf Chip Ebene effizienter sein, reduzierte PCB Kapazitäten und Impedanzen)
prinz_valium_2
2022-07-18, 17:37:11
NVIDIA GeForce RTX 4090 reportedly 66% faster than RTX 3090 Ti, 82% faster than RTX 3090
https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test
Hoffen wir mal, das Ding ist günstig.
crux2005
2022-07-18, 17:39:29
https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test
Hoffen wir mal, das Ding ist günstig.
Was ist für dich günstig?
Nein, im Ernst. Billig wird das Ding sicher nicht.
prinz_valium_2
2022-07-18, 18:00:51
Was ist für dich günstig?
Nein, im Ernst. Billig wird das Ding sicher nicht.
Ich bin mir sicher nVidia wird knapp jedes % Mehrleistung zur alten Generation, mit einem % Mehrkosten belegen. Also genau 0 Fortschritt
BlacKi
2022-07-18, 18:05:43
naja, soviel sagt der bench jetzt auch nicht aus. zum einen ist unklar ob das mit einer guten oder schlechten cpu gemacht wurde, oder ob das grafic score werte sind.
zum anderen sind 11k punkte sowohl als gearscore und kombiniert nicht mal ganz mit wakü und shunt mod zu erreichen.
https://youtu.be/WfYdwO_-GTQ?t=291
damit sind +100% auf die stock 3090 gegeben, wenn die leaks stimmen.
es gab damals auch leaks zu tse mit der 3090 und 9k punkten.
Ich bin mir sicher nVidia wird jedes knapp jedes % Mehrleistung zur alten Generation, mit einem % Mehrkosten belegen. Also genau 0 Fortschritt
dein nv bashing kannste stecken lassen, die 3080 hat 30% mehrperformance gehabt ggü. der 2080ti und dabei den uvp preis um 30% reduziert.
ich erwarte wieder sehr attraktive karten unterhalb des topmodells.
-=Popeye=-
2022-07-18, 18:35:33
Kann mir nur vorstellen das sich dieser Leak auf den TSE GrafikScore bezieht.
Weil siehe HOF.
https://www.3dmark.com/hall-of-fame-2/timespy+graphics+score+extreme+preset/version+1.0/1+gpu
prinz_valium_2
2022-07-18, 18:38:52
dein nv bashing kannste stecken lassen, die 3080 hat 30% mehrperformance gehabt ggü. der 2080ti und dabei den uvp preis um 30% reduziert.
ich erwarte wieder sehr attraktive karten unterhalb des topmodells.
Nachdem die 2000er Series maßlos überteuert war.
Ich lobe nVidia wieder, wenn es mal wieder Leistungssprünge wie von der 9er zur 10er Serie bei entsprechenden Preisen gibt.
Troyan
2022-07-18, 19:02:53
Meine 3090@375W schafft nur 9504 Punkte im GPU-Score. Damit wären die >19.000 Punkte wohl eine Verdopplung und 66% effizienter.
Platos
2022-07-18, 19:04:14
Kann mir nur vorstellen das sich dieser Leak auf den TSE GrafikScore bezieht.
Weil siehe HOF.
https://www.3dmark.com/hall-of-fame-2/timespy+graphics+score+extreme+preset/version+1.0/1+gpu
Ist es. Im Twitter-Post nach unten scrollen, da wird genau das gefragt und von Kopite dann bestätigt.
Meine 3090@375W schafft nur 9504 Punkte im GPU-Score. Damit wären die >19.000 Punkte wohl eine Verdopplung und 66% effizienter.
Ja, es ging aber um die 3090Ti bei den 66%.
aufkrawall
2022-07-18, 19:23:47
Meh. Das dürfte in etwa 1080 Ti vs. 980 Ti entsprechen, aber das war in erster Linie Full Node-Sprung + höherer Takt. Von den großen Architekturänderungen würde man dann bei Lovelace wenig sehen. :confused:
-=Popeye=-
2022-07-18, 19:26:12
Wenn es stimmt sieht es doch gar nicht so schlecht aus, da man einen Weg gefunden hat den Chip besser auszulasten.
BlacKi
2022-07-18, 19:36:17
Meine 3090@375W schafft nur 9504 Punkte im GPU-Score. Damit wären die >19.000 Punkte wohl eine Verdopplung und 66% effizienter.eigentlich mehr als eine verdoppelung, meinst du nicht? weil standard sind immernoch 350w.
Nachdem die 2000er Series maßlos überteuert war.
Ich lobe nVidia wieder, wenn es mal wieder Leistungssprünge wie von der 9er zur 10er Serie bei entsprechenden Preisen gibt.
weiß nicht was du meinst. 1080 hat 800€ gekostet, die 2080 hat 800€ gekostet, und der gesalvagete große chip der 3080 war sogar für 700€ dank reduzierter mwst. zu haben.
die 1080ti kann man nicht als vergleich herziehen, weil sie später kam als die 1080.
wenn jetzt die 4080 mit 16gb kommt für 800€ darf man sich eigentlich nicht beschweren. alles über 1000€ fände ich allerdings nichtmehr so prickelnd.
Troyan
2022-07-18, 20:00:37
Gerade nochmal laufen lassen mit meiner 3090:
Standard mit 350W: 9.600 Punkte
Übertaktet mit 375W: 10.200 Punkte
Die Mehrleistung ist schon ziemlich gut für einen ewig alten Benchmark. Mit Raytracing wird da wohl locker mehr gehen und ~2,5x wäre bestimmt drin.
aufkrawall
2022-07-18, 20:04:10
Nur ist "RT" nicht neue Spiele mit RT, sondern die mod-artigen Pathtracer-Projekte. Es wird immer übersehen, dass bei Spielen mit RT + Raster die Denoiser-Anteile an der Frame Time gigantisch sind...
dargo
2022-07-18, 21:23:20
Wenn es stimmt sieht es doch gar nicht so schlecht aus, da man einen Weg gefunden hat den Chip besser auszulasten.
Für diese immer wieder rausposaunten zwei Full-Node-Sprünge finde ich die +~80% eher etwas schwach (was in Games tatsächlich davon ankommt ist eh noch recht offen). Zumal hier die Leistungsaufnahme um mindestens 100W angehoben wird, wenn nicht sogar mehr. Noch sind die 450W für die RTX 4090 afaik nicht bestätigt.
prinz_valium_2
2022-07-18, 21:24:50
weiß nicht was du meinst. 1080 hat 800€ gekostet, die 2080 hat 800€ gekostet, und der gesalvagete große chip der 3080 war sogar für 700€ dank reduzierter mwst. zu haben.
die 1080ti kann man nicht als vergleich herziehen, weil sie später kam als die 1080.
wenn jetzt die 4080 mit 16gb kommt für 800€ darf man sich eigentlich nicht beschweren. alles über 1000€ fände ich allerdings nichtmehr so prickelnd.
die 1070 kam für $379 auf den Markt
die 1080 kam für $599 (schlechter deal im Vergleich zur 1070)
Damals gab es noch die $100 extra für eine Founders Edition mit absolut beschissener Kühllösung und schlechten Taktraten. Das waren dann $449 oder $699
Meine 1070 war dann auch eine Game Rock für 450€ UVP mit 15% Rabatt.
Also 380€
Aber ja, die guten Karten waren die 1070 und später 1060. Die 1080 war als Top Modell natürlich wie immer überteuert. Trotzdem noch weit von den $799 der 2080 entfernt. Und ab da konnte sich nVidia dann auch nicht mehr den Founders Edition Aufschlag Leisten, bei dem was sie geboten haben.
Nachdem ein Jahr später dann die 1080Ti und 1070Ti kamen, hat man ja gesehen, dass die Preise zwischen der 1070 und 1080 nur knapp auseinander lagen. Da wo sie von der Leistung her auch hingehört hätte. Sowohl Gebrauchtmarkt, als auch Handel.
die 1070 hatte die Leistung einer 980Ti für weniger al 60% des Preises.
Linmoum
2022-07-18, 21:31:42
Wenn man mal allein berücksichtigt, was man durch den NV Leak sicher weiß (massiver L2 increase, 144SM im Vollausbau) und den angeblichen Taktraten irgendwo leicht unterhalb von 3GHz, dann würde es mich stark wundern, wenn da ggü. der 3090Ti nur <+80% herumkommen. Auch mit einem Salvage AD102.
crux2005
2022-07-18, 21:39:29
weiß nicht was du meinst. 1080 hat 800€ gekostet, die 2080 hat 800€ gekostet, und der gesalvagete große chip der 3080 war sogar für 700€ dank reduzierter mwst. zu haben.
Eine GTX 1080 hat nie 800€ gekostet. Evtl. eine Premium 1080 Ti.
mr coffee
2022-07-18, 21:46:53
Doch eine GTX 1080 hat 800€ gekostet, z.B. meine MSI. Siehe:
https://www.gamestar.de/artikel/msi-geforce-gtx-1080-gaming-x-8g-besser-als-die-founders-edition,3273510,fazit.html
Linmoum
2022-07-18, 21:58:23
Eine single 3090Ti @2850MHz schafft übrigens ~14600 Graphics Score im TSE.
Das wären dann nur noch >=+30% für eine 4090 mit vermutlich allein schon +50% SM. Das erscheint mir irgendwie nicht ganz schlüssig.
https://www.3dmark.com/spy/28434969
BlacKi
2022-07-18, 22:00:26
zum release der 1080 hast du keine karte deutlich unter 800€ bekommen.
und selbst wenn,einen massiven preisaufschlag musst du bei anderen karten suchen. ich will nicht sagen, das es den nie gab. selbst wenn die 1080ti 2016, also früher gekommen wäre und damit 1000-1100€ gekostet hätte, dann wäre die 3080ti immernoch teurer.
die großen karten sind dabei eigentlich noch gut weggekommen, die kleineren karten haben aufgeschlagen. aber auch da ist die uvp nur marginal gestiegen wenn man die inflation rausrechnet. am schlimmsten hats die x070 karten getroffen. hoher preis, wenig speicher. ich würde aber nicht das ganze portfolio am aufpreis der x070er karten vertäufeln.
nv verkauft oft karten unter der uvp, weil dort marge bleibt, was dank des mangels wegen div. gründen diesmal nicht passiert. naja, jetzt vl.
-=Popeye=-
2022-07-18, 22:19:35
Eine single 3090Ti @2850MHz schafft übrigens ~14600 Graphics Score im TSE.
Das wären dann nur noch >=+30% für eine 4090 mit vermutlich allein schon +50% SM. Das erscheint mir irgendwie nicht ganz schlüssig.
https://www.3dmark.com/spy/28434969
Die MINUS 40°C haste nicht gesehen... oder.
Mit WaKü und kalten Aussentemperaturen ist im Schnitt mit 2200-2250 MHz bei 12k +/- Schluß. ;)
Linmoum
2022-07-18, 22:23:00
Geht nicht um die Kühlung, sondern was eine 3090Ti bei dem Takt schafft, da dieser in dem Fall - den Gerüchten nach - mit Ada vergleichbar wäre.
Dann reden wir eben von >=+30% Performance bei +50% SM. Dann würde da irgendwas limitieren. Bandbreite ggf?
BlacKi
2022-07-18, 22:39:13
taktrate? versuchs mal mit 2520mhz zu erklären? oh, wait, plötzlich passts.
450W, base 2235 boost 2520 actual max >2750;
wenn man den vram oc abzieht, weil diese gaming benchmarks damit gut skalieren, dürfte sogar mehr als +50% pro shader bei selbem takt rauskommen.
Linmoum
2022-07-18, 22:49:57
Und heute schrieb kimi davon, dass 3GHz und mehr mit Ada "einfach" zu schaffen sind. Eine niedriger taktende 4090 ja. Aber es ist NV, gerade beim zunächst vorhandenen Top Dog lässt man >20% Performance nicht brach liegen.
Gerade, da man womöglich zuerst launchen wird. Wenn die Konkurrenz das dann ausnutzt, steht man mit heruntergelassener Hose da.
dargo
2022-07-18, 22:55:43
Und heute schrieb kimi davon, dass 3GHz und mehr mit Ada "einfach" zu schaffen sind. Eine niedriger taktende 4090 ja. Aber es ist NV, gerade beim zunächst vorhandenen Top Dog lässt man >20% Performance nicht brach liegen.
Gerade, da man womöglich zuerst launchen wird. Wenn die Konkurrenz das dann ausnutzt, steht man mit heruntergelassener Hose da.
Nicht wenn die 4090 ein Salvage ist, mit ner später erscheinenden 4090TI kann man immer noch im Rahmen kontern.
BlacKi
2022-07-18, 22:59:11
und eine 3090 schafft auch 2 ghz unter wasser sogar mehr, hat dann aber realistisch eher 1700-1800 mhz boost. sie wird genau wie die 4090 im powerlimit eingebremst. wenn du die 4090 ohne powerlimit fliegen lässt, erwarte ich verbräuche von 600, mit moderatem OC eher 800w. und der full chip wird dann mit 1000w peak verbräuchen unterwegs sein.
Linmoum
2022-07-18, 22:59:43
Später ist dann aber später. Das ist N5, da bringt NV nicht vermeintlich riesige 600mm2 Dies erst mit einem Salvage nur um zwei Monate später mit einem potentiellen Vollausbau zu kontern. Das wäre schon komplett bescheuert.
BlacKi
2022-07-18, 23:03:19
die 4090ti kommt mit amd. je nach dem wie stark amd wird, mit 600 oder 800w.
basix
2022-07-18, 23:04:59
Und heute schrieb kimi davon, dass 3GHz und mehr mit Ada "einfach" zu schaffen sind. Eine niedriger taktende 4090 ja. Aber es ist NV, gerade beim zunächst vorhandenen Top Dog lässt man >20% Performance nicht brach liegen.
Gerade, da man womöglich zuerst launchen wird. Wenn die Konkurrenz das dann ausnutzt, steht man mit heruntergelassener Hose da.
Anhand der Spezifikationen sollte klar sein, dass eine 4090 Ti oder Titan A/L noch Platz hat. Dann ist man eben nicht mit runtergelassenen Hosen dort, sondern kann reagieren (oder nicht, wenn nicht nötig). Folgendes sind die Vorteile:
- Yield Vorteile, da initial nur 1x SKU mit AD102 rauskommt. Die 4090 ist dann die "0815" AD102 Karte, während der Vollausbau weniger oft verkauft wird
- Falls Lovelace schneller als RDNA3, muss man nichts machen
- Falls Loveleace gleich wie RDNA3, kann man kontern. Mit einer noch teureren SKU. Und mit genau den Eckdaten, um +5% vor RDNA3 zu liegen, nicht mehr. Nochmals Publicity für Nvidia
- Falls leicht langsamer, kann man versuchen auf Augenhöhe kontern (AD102 @ Limit) und allenfalls noch den Preis anpassen, je nach RDNA3 Preislagen (z.B. 4090 Ti steigt bei 4090 Preis ein, Chips darunter können dann im Preis runterwandern ohne gleich das Gesicht zu verlieren)
- Falls deutlich langsamer: Man macht einfach nichts und nimmt die guten AD102 Yields mit. Im schlimmsten Fall (für Nvidia, nicht uns ;)) reduzierte Preise.
Geht man gleich All-In kann hat man nur folgende Optionen:
- RDNA3 ähnlich schnell oder langsamer = Nichts machen
- RDNA3 deutlich schneller und allenfalls günstiger = Preise senken
- Yield Probleme
dargo
2022-07-19, 06:54:02
die 4090ti kommt mit amd. je nach dem wie stark amd wird, mit 600 oder 800w.
So würde ich das auch erwarten da NV sicherlich einen sehr starken RDNA3 erwartet. Das würde dann auch zu den 450W der Referenz 4090 passen und gleichzeitig zu den beim Powerlimit "freigelassenen" 600+W Karten in Form einer 4090TI. Klingt für mich jedenfalls nicht ganz so abwegig. Wobei letzteres natürlich auch zu AIB-Karten der 4090 passen würde. Schwierig.... ist ja nicht mehr lange hin. :)
Anhand der Spezifikationen sollte klar sein, dass eine 4090 Ti oder Titan A/L noch Platz hat. Dann ist man eben nicht mit runtergelassenen Hosen dort, sondern kann reagieren (oder nicht, wenn nicht nötig). Folgendes sind die Vorteile:
- Yield Vorteile, da initial nur 1x SKU mit AD102 rauskommt.
Ist auch ein guter Punkt bei einem monolithischen, großen Die. Nvidia hat noch nicht den Luxus wie AMD mit mickrigen MCDs zu fahren.
Nazar
2022-07-19, 08:38:45
Und heute schrieb kimi davon, dass 3GHz und mehr mit Ada "einfach" zu schaffen sind. Eine niedriger taktende 4090 ja. Aber es ist NV, gerade beim zunächst vorhandenen Top Dog lässt man >20% Performance nicht brach liegen.
Gerade, da man womöglich zuerst launchen wird. Wenn die Konkurrenz das dann ausnutzt, steht man mit heruntergelassener Hose da.
Ich kann mich da nur wiederholen: Kimi schreibt nie in welchem Zusammenhang er das "Einfach" einordnet.
Natürlich könnten 3 GHz einfach zu erreichen sein, wenn man dafür dann eventuell 600Watt+ verbraten muss? Das Wort "einfach" benutzt er leider vollkommen losgelöst von allen möglichen Variablen. Auffällig ist für mich, dass er nie alle Faktoren in einem Zusammenhang bringt.
Wenn er es wirklich weiß, warum schreibt er dann nie, dass es bei 450 Watt einfach sei, eine 4090 auf 3 GHz zu ziehen und das bei Luftkühlung? Wäre doch mal eine Aussage. ;)
Das sind die wirklich wichtigen Informationen, nämlich die, die alle Faktoren gegenüberstellen, um sich ein Bild machen zu können, und genau da kommt rein gar nichts. Es wird ständig um den heißen Brei herumgeschrieben.
Sunrise
2022-07-19, 09:16:21
Selbst wenn er wollte, dürfte er es wohl nicht, um seine Leak-Quellen nicht zu strapazieren.
Zudem macht es bessere Schlagzeilen, wenn du immer nur Informationshäppchen preisgibst, bzw. dir alles für mehrere getimte Beiträge aufhebst.
Die BILD und Konsorten perfektionieren das, denn es generiert Sensation, Klicks und im Endeffekt Geld. Um was es dabei nicht geht, ist technische Sachlichkeit.
Was aber tatsächlich nicht funktioniert, ist die genauen technischen Daten inkl. Takt schon Monate im Voraus zu kennen, die kennt nämlich nichtmal der IHV selbst, da Takte relativ am Ende teilweise noch gewürfelt werden. Dennoch ergibt sich hier ja ein klares Bild, dass AD102 wohl sehr viel Optimierungsspielraum hat, wenn man nach oben, oder (sehr wahrscheinlich) auch nach unten optimieren möchte.
Er könnte natürlich Informationen bzgl. des PCBs preisgeben, aber auch das ist wohl zuviel des Guten.
Er reitet aktuell viel auf der Cachegröße rum, ich denke das wird ein sehr netter Chip werden, der gut ausbalanciert sein wird. Und der wird deshalb garantiert auch nicht billig werden, da die Mehrleistung schon inherent im Chip vorhanden ist. Wird sicher dann interessant was passiert, wenn man AD102 weit runtertaktet.
robbitop
2022-07-19, 10:05:14
weiß nicht was du meinst. 1080 hat 800€ gekostet, die 2080 hat 800€ gekostet, und der gesalvagete große chip der 3080 war sogar für 700€ dank reduzierter mwst. zu haben.
Für einige wenige vielleicht. Aber in signifikanter Stückzahl, so dass sie jeder haben konnte: nope das gibt es bis heute (2 Jahre nach Release) nicht. Die UVPs die 2020 vorgestellt waren, waren nie in repräsentativen Stückzahlen real.
Daredevil
2022-07-19, 10:27:58
Das war aber keine Frage des Angebots, sondern der Nachfrage.
Man kann jetzt natürlich Nvidia unterstellen, dass sie mit 700€ nur Fake Angebote erstellt haben, es kann aber auch einfach daran liegen, dass manche Menschen einfach 20 Stück davon gekauft haben und demnach das Angebot so dezimiert wurde, dass die Nachfrage höher war und demnach die Karte über 1000€ gehandelt wurde.
Die Frage ist also am Ende, wurden wirklich zu wenig Ampere Kärtchen produziert, oder sind sie einfach nur nicht beim "einfacher Gamer" gelandet?
Due Quartalszahlen sprechen zumindest dafür, dass es diese Karten gab. ^^
https://www.computerbase.de/2022-02/quartalszahlen-nvidia-schliesst-rekordjahr-mit-9.6-mrd.-usd-gewinn-ab/
Neurosphere
2022-07-19, 10:29:17
Ich kann mich da nur wiederholen: Kimi schreibt nie in welchem Zusammenhang er das "Einfach" einordnet.
Natürlich könnten 3 GHz einfach zu erreichen sein, wenn man dafür dann eventuell 600Watt+ verbraten muss? Das Wort "einfach" benutzt er leider vollkommen losgelöst von allen möglichen Variablen. Auffällig ist für mich, dass er nie alle Faktoren in einem Zusammenhang bringt.
Wenn er es wirklich weiß, warum schreibt er dann nie, dass es bei 450 Watt einfach sei, eine 4090 auf 3 GHz zu ziehen und das bei Luftkühlung? Wäre doch mal eine Aussage. ;)
Das sind die wirklich wichtigen Informationen, nämlich die, die alle Faktoren gegenüberstellen, um sich ein Bild machen zu können, und genau da kommt rein gar nichts. Es wird ständig um den heißen Brei herumgeschrieben.
So würde das was bislang so umgeht auch interpretieren. Es ist viel drin, aber nicht innerhalb einer vernünftigen Leistungsaufnahme. Die Frage wird halt sein was Nvidia dem Markt zumutet und wie weit die OC Varianten der Hersteller gehen beim Verbrauch.
Troyan
2022-07-19, 10:50:54
Nur ist "RT" nicht neue Spiele mit RT, sondern die mod-artigen Pathtracer-Projekte. Es wird immer übersehen, dass bei Spielen mit RT + Raster die Denoiser-Anteile an der Frame Time gigantisch sind...
Raytracing ist reines Brute-Force. Denoising ist noch mehr Aufwand zum Raytracing. Das skaliert einfach viel besser als Rasterizing, weil die Umsetzung viel einfacher ist.
Wenn eine 4090 schon in einem reinen Rasterizing Benchmark bei 450W doppelt so schnell ist als eine 3090 mit 350W, dann wird dies bei Hybrid-Spielen ja nicht schlechter werden. Eher wird es noch besser aussehen, da Lovelace mehr auf Raytracing optimiert sein wird. Da ist die doppelte Effizienz gegenüber Ampere machbar und auch das, was von zwei Full Node Sprüngen zu erwarten ist.
Thunder99
2022-07-19, 11:36:04
Viel interessanter finde ich wie sich die kleineren Karten gegenüber ihren Vorgänger verhalten. Wie schnell bei welchem Verbrauch.
Z.B. 4080 zu 3080 xx% schneller erwartet zu yy% Mehrverbrauch
BlacKi
2022-07-19, 11:43:43
wenn die leaks stimmen, wird die 4080 deutlich ineffizienter. aber wenn der preis passt, dann kann man ja nachträglich am tdp regler drehen.
basix
2022-07-19, 11:46:24
Du, ich bin gespannt was am Ende dabei rumkommt. 2x Performance bei 450W sind mal OK aber jetzt nicht eine extreme Bombe. 2x bei 350W wäre deutlich attraktiver (oder halt 2.5x bei 450W). RT und DLSS Performance werden ebenfalls spannend.
ChaosTM
2022-07-19, 12:06:42
2x Performance bei 450w wäre schön, aber ich rechne eher mit +70-80%, so wie sehr oft bisher.
Ok, der Sprung von Samsung 8 auf TSMC 5 ist diesmal doch recht groß. Möglich ist es schon..
Leonidas
2022-07-19, 12:29:49
RTX4090 AIB/OC-Version @ TimeSpy Extreme (Anahme):
https://twitter.com/kopite7kimi/status/1549329666682413056
Full AD102 @ Control:
https://twitter.com/XpeaGPU/status/1549277074241687552
BlacKi
2022-07-19, 12:39:29
Full AD102 @ Control:
https://twitter.com/XpeaGPU/status/1549277074241687552
das ist aber sehr schwammig:biggrin:
Meridian12
2022-07-19, 12:43:35
Bin mal auf die Preise gespannt.
Ob NVIDIA eine kleine Lektion gelernt hat, nachdem die Miner nicht mehr kaufen und ihre Karten loswerden wollen und somit die Dinger wie blei in den Läden liegen bei den aktuellen Preisen und die Preise "human" ansetzt, oder ob sie denken, neue Generation, die Deppen zahlen schon jeden Preis für die "Neue".
Dovregubben
2022-07-19, 12:46:06
Sie werden ja nicht eine Karte weniger verkaufen wegen verschobenem Releasedatum. Es entstehen nur Kosten durch gebundenes Kapital.
Thunder99
2022-07-19, 12:46:07
Eher nicht, da die Inflation eine entsprechende Wirkung entfallen wird.
Erhöhung erwarte ich schon aber bis auf das Top Modell keine Mondpreise.
Möglicherweise 749 für die x80?
AffenJack
2022-07-19, 12:51:16
Eher nicht, da die Inflation eine entsprechende Wirkung entfallen wird.
Erhöhung erwarte ich schon aber bis auf das Top Modell keine Mondpreise.
Möglicherweise 749 für die x80?
Kann ich mir vorstellen, aber 749$ werden trotzdem bitter für uns. Da sind wir bei fast 900€ für die x80. :rolleyes: Verdammter Euro.
robbitop
2022-07-19, 12:53:04
Das war aber keine Frage des Angebots, sondern der Nachfrage.
Man kann jetzt natürlich Nvidia unterstellen, dass sie mit 700€ nur Fake Angebote erstellt haben, es kann aber auch einfach daran liegen, dass manche Menschen einfach 20 Stück davon gekauft haben und demnach das Angebot so dezimiert wurde, dass die Nachfrage höher war und demnach die Karte über 1000€ gehandelt wurde.
Die Frage ist also am Ende, wurden wirklich zu wenig Ampere Kärtchen produziert, oder sind sie einfach nur nicht beim "einfacher Gamer" gelandet?
Due Quartalszahlen sprechen zumindest dafür, dass es diese Karten gab. ^^
https://www.computerbase.de/2022-02/quartalszahlen-nvidia-schliesst-rekordjahr-mit-9.6-mrd.-usd-gewinn-ab/
Die 700 EUR waren wahrscheinlich nie real. Selbst mit jetzt überquillenden Lagern am Ende der Lebenszeit haben wir die UVP(!!!) von vor 2 Jahren (!!!) noch nicht erreicht.
Normalerweise gibt es an dem Punkt (kurz vor einer neuen Gen) fette Discounts wo man 20...40% unter UVP lag.
RTX4090 AIB/OC-Version @ TimeSpy Extreme (Anahme):
https://twitter.com/kopite7kimi/status/1549329666682413056
Full AD102 @ Control:
https://twitter.com/XpeaGPU/status/1549277074241687552
Alles BS. Es gibt keinen Treiber. Das muss wenn dann aus NVs Treiberteam direkt kommen und daran habe ich extreme Zweifel. Wir wissen ja, dass die Treiber erst zum Launch releast werden und man auch da erst die Performance erfährt. Ergo: Diese Werte sind purer BS und sollten direkt wieder vergessen werden.
robbitop
Das gilt nur für die 3080. Aber auch die kommt unter die UVP, wirst schon sehen. Nur bei uns grätscht der superschwache EUR dazwischen. Die kommen alle unter die Räder. Momentan weigern sich die Kartenhersteller rauszuhauen, was NV gerne möchte, die Zeiten der Erpressung durch NV sind hier auch vorbei, das bremst derzeit den Verfall etwas. Aber die kommen alle runter, spätestens, wenn die Rezession voll durchschlägt, dann kauft nämlich niemand mehr Grafikkarten.
Leonidas
2022-07-19, 13:00:40
Moment: Zu Kopite ist bereits bekannt, dass er *vor* den AIBs (in der Kette) sitzt.
Zudem kann jeder einzelne Wert schließlich auch eine Verkündung NVs an die Board-Partner sein. Gebencht bei NV, aber den Board-Partnern dann mitgeteilt. Ich würde da keine voreiligen Schlüsse ziehen.
Moment: Zu Kopite ist bereits bekannt, dass er *vor* den AIBs (in der Kette) sitzt.
Zudem kann jeder einzelne Wert schließlich auch eine Verkündung NVs an die Board-Partner sein. Gebencht bei NV, aber den Board-Partnern dann mitgeteilt. Ich würde da keine voreiligen Schlüsse ziehen.
Glaub ich keine Sekunde, die Werte sind BS, garantiert. Er könnte halt zufällig richtig liegen, aber das ist ziemlich sicher geraten. Vielleicht hat er über die Zielsetzungen des Chipdesigns aus der frühen Entwicklung mitbekommen und verkauft das halt jetzt.
fondness
2022-07-19, 13:05:37
Die 700 EUR waren wahrscheinlich nie real. Selbst mit jetzt überquillenden Lagern am Ende der Lebenszeit haben wir die UVP(!!!) von vor 2 Jahren (!!!) noch nicht erreicht.
Haben wir schon, nur der Euro ist abgekackt bzw. wurde zwischendurch ja mal der Preis erhöht.
ChaosTM
2022-07-19, 13:08:23
Wäre ja schön wenn es so kommen würde..
Allerdings wird das Ding sicher 2k+ kosten.
BlacKi
2022-07-19, 13:12:14
Glaub ich keine Sekunde, die Werte sind BS, garantiert. Er könnte halt zufällig richtig liegen, aber das ist ziemlich sicher geraten. Vielleicht hat er über die Zielsetzungen des Chipdesigns aus der frühen Entwicklung mitbekommen und verkauft das halt jetzt.wenn du meinst. ich glaub schon das es stimmen könnte, wie gesagt, igor ist auch der meinung, welcher noch kontakt hat zu der industrie.
Haben wir schon, nur der Euro ist abgekackt bzw. wurde zwischendurch ja mal der Preis erhöht.
$ - € kurs lag damals bei +- 1,2 damit läge eine neu uvp der 3060 von damals 329€ heute wirklich bei knapp 400€, wo sie heute steht.
Wäre ja schön wenn es so kommen würde..
Allerdings wird das Ding sicher 2k+ kosten.
eine 3090 würde heute eine andere uvp haben, von 1800€+ von daher wäre der aufpreis nichtmal gewaltig.
Leonidas
2022-07-19, 13:14:28
Glaub ich keine Sekunde, die Werte sind BS, garantiert. Er könnte halt zufällig richtig liegen, aber das ist ziemlich sicher geraten. Vielleicht hat er über die Zielsetzungen des Chipdesigns aus der frühen Entwicklung mitbekommen und verkauft das halt jetzt.
Ist niemals auszuschließen. Nur würde ich mir auch in diese Richtung lieber nicht sicher sein. Gerade nicht bei jemanden, der detaillierte Hintergrund-Infos hat.
RainingBlood
2022-07-19, 13:17:36
Wie soll der Produkttest denn funktionieren, ohne das Produkt testen zu können?
prinz_valium_2
2022-07-19, 13:25:14
Kann ich mir vorstellen, aber 749$ werden trotzdem bitter für uns. Da sind wir bei fast 900€ für die x80. :rolleyes: Verdammter Euro.
Wenn das die x80 kostet, kann die 4090 aber nicht mehr als $1499 kosten. Viele erwarten $1999 und die alte Generation wird nebenher halt "günstig" angeboten.
robbitop
2022-07-19, 13:28:40
robbitop
Das gilt nur für die 3080. Aber auch die kommt unter die UVP, wirst schon sehen. Nur bei uns grätscht der superschwache EUR dazwischen. Die kommen alle unter die Räder.
Haben wir schon, nur der Euro ist abgekackt bzw. wurde zwischendurch ja mal der Preis erhöht.
Auch bei Newegg erreicht die 3080 nicht ihre UVP in USD. Nochmal: im Ausverkaufszeitraum wo sie eigentlich 20-40% drunter liegen müsste. Die UVP war einfach nicht real.
BlacKi
2022-07-19, 13:41:40
samsung hat die wafer nachträglich verteuert. gut möglich dass das zusätzliche auswirkungen hatte. ausserdem scheint man die herstellung einzustelle, wenn sogar die 12gb version günstiger zu haben ist als die 10gb version, auch bei newegg. du siehst also, wenn eine 12gb 3080 für 770$ zu haben ist, dann wäre eine 3080 im angebot nochmals günstiger. die 10gb version läuft wohl aus.
robbitop
2022-07-19, 13:48:40
Spielt gar keine Rolle weil es sie für 700 USD nicht gibt und der tatsächliche Preis müsste jetzt mit brechend vollen Lagern kurz vor der neuen Gen (historisch gesehen) deutlich drunter liegen.
Die UVP war einfach bis heute nie real. Und selbst wenn sie es in 2 Wochen wird: dann haben wir ein Produkt zur UVP 2 Monate bevor die nächste Gen kommt. Also in unter 10% des Zeitraums in dem es das Produkt gab.
BlacKi
2022-07-19, 13:51:13
damals war sie real, heute nichtmehr. samsung.
preissteigerung zwischen 5 und 15%
https://min.news/en/economy/f81ee4e4ce1b168f44c87e49d69a9220.html
robbitop
2022-07-19, 13:54:58
Sie war nie real. Es gab nie repräsentative Mengen für den Preis zu kaufen. Es gab ein paar vereinzelte Glückspilze die bei NBB Glück hatten (oder gute bots nutzten).
BlacKi
2022-07-19, 13:57:59
das ist halt deine meinung, sehe ich anders, kann ich respektieren, schönen tag noch.
Linmoum
2022-07-19, 14:05:35
Preise am Markt und die für ein Produkt ausgerufene UVP sind doch keine Meinung. :freak: Das sind ziemlich leicht nachzuprüfende Fakten.
BlacKi
2022-07-19, 14:14:48
er schwurbelt doch rum. ich hab doch fakten genannt. es wurden karten für 699$ verkauft, und jetzt sind die preise für die wafer höher und die verfügbarkeit der karte geht zurück, und wird durch eine andere mit mehr speicher ohne uvp ersetzt.
UVP ist auch ein reiner Kunstwert. Wichtig ist EK-Preis und Handelspreis. Aber es wird eben aufgrund der zusammengebrochenen Nachfrage dazu kommen, dass die Handelspreise sich dem EK-Preis annähren werden. Die Preissenkung von NV ist das beste Beispiel dafür. Und die werden sinken. NV macht jetzt alles dafür, dass NV den besten Schnitt daran macht, also möchst viele Karten für die derzeitigen Preise abzusetzen. Das würde dann letztendlich auf dem Rücken der Kartenhersteller und der Händler geschehen. Jetzt sind aber plötzlich die Kartenhersteller nicht mehr bereit, sich in diese Abwärtsspirale zu legen und drosseln die Produktion, was NV überhaupt nicht recht sein kann, die nehmen einfach weniger Chips ab. Jetzt ist NV in der Falle, die Preise müssen weiter sinken, es ist ganz einfach.
Sunrise
2022-07-19, 14:45:31
er schwurbelt doch rum. ich hab doch fakten genannt. es wurden karten für 699$ verkauft, und jetzt sind die preise für die wafer höher und die verfügbarkeit der karte geht zurück, und wird durch eine andere mit mehr speicher ohne uvp ersetzt.
Es ist schön, dass ein paar Karten für NVs MSRP von $699 verkauft wurden. Für normale Endkunden gab es dennoch nur eine sehr überschaubare Anzahl, was wahrscheinlich einem Produktionsvolumen von X entsprach, also der Vorproduktion, damit man auch was zeigen konnte. Danach kam man entweder nie wieder hinterher mit der Produktion oder Samsungs Yields waren beschissen, oder ..... jeder darf sich hier seine Erklärung selbst aussuchen.
Sofort als die erste Charge jedoch abverkauft war, war der UVP nichtmehr realistisch. Es gab immer mal wieder ein paar zum Anfüttern, unter "Verfügbarkeit" versteht man aber gemeinhin etwas anderes. Und diskutieren braucht man darüber eigentlich auch nicht, denn die Straßenpreise ergeben sich aus Angebot und Nachfrage und die waren gesalzen und fernab von $699. Insofern ist das auch keine Meinung.
Wenn jetzt AD102 kommt (aka. 4090) "sollten" laut Aussagen von Huang beträchtliche Mengen an Wafern bei TSMC bestellt worden sein. Dreimal darfst du aber raten, warum es trotz dessen keine 4080 direkt zum Start geben wird.
Leonidas
2022-07-19, 14:55:07
Die Straßenpreise der RTX3080 gingen sofort nach Launch nach oben. Seinerzeit dachte man noch, das wäre der übliche EarlyAdoper-Aufschlag. Dann kam der Cryptomining-Boom ...
robbitop
2022-07-19, 14:56:08
das ist halt deine meinung, sehe ich anders, kann ich respektieren, schönen tag noch.
Meinung ist irrelevant. Fakten sind relevant. Fakt ist, es gab sie nie in signifikanten Mengen für den Preis zu kaufen. Das ist Schönrederei.
er schwurbelt doch rum. ich hab doch fakten genannt. es wurden karten für 699$ verkauft, und jetzt sind die preise für die wafer höher und die verfügbarkeit der karte geht zurück, und wird durch eine andere mit mehr speicher ohne uvp ersetzt.
Du schwurbelst rum. Es gab nie signifikante Mengen zu dem Preis. Ich habe keine gültigen Fakten dazu in deinen Posts gesehen und auch keine Belege dafür. Ich habe selbst diese Karte verfolgt (und wollte sie seit Launch zum UVP haben und habe sie auch ziemlich stark verfolgt - aber nicht wie ein Verrückter mit Bots und Dauercampen auf NBB) und ohne Bot und dauercamplen auf NBB war nichts zu machen. Klar wenn man mal Glück hatte, dass es mal an einem Tag einen drop gab. Aber das sind nicht breite Stückzahlen. Das ist sind Kleinstmengen. Ich würde es sogar Alibi-Mengen nennen.
Es ist schön, dass ein paar Karten für NVs MSRP von $699 verkauft wurden. Für normale Endkunden gab es dennoch nur eine sehr überschaubare Anzahl, was wahrscheinlich einem Produktionsvolumen von X entsprach, also der Vorproduktion, damit man auch was zeigen konnte. Danach kam man entweder nie wieder hinterher mit der Produktion oder Samsungs Yields waren beschissen, oder ..... jeder darf sich hier seine Erklärung selbst aussuchen.
Sofort als die erste Charge jedoch abverkauft war, war der UVP nichtmehr realistisch. Es gab immer mal wieder ein paar zum Anfüttern, unter "Verfügbarkeit" versteht man aber gemeinhin etwas anderes. Und diskutieren braucht man darüber eigentlich auch nicht, denn die Straßenpreise ergeben sich aus Angebot und Nachfrage und die waren gesalzen und fernab von $699. Insofern ist das auch keine Meinung.
This :up:
Die Straßenpreise der RTX3080 gingen sofort nach Launch nach oben. Seinerzeit dachte man noch, das wäre der übliche EarlyAdoper-Aufschlag. Dann kam der Cryptomining-Boom ...
Genau so war es. Und bis heute gab es den UVP nicht mehr auch in Phasen als es wieder Supply gab (letzten Sommer kurzzeitig und jetzt seit die aktuelle Kryptominingblase geplatzt ist).
Thunderburne
2022-07-19, 15:45:09
4K Killer
https://wccftech.com/nvidia-geforce-rtx-4090-graphics-card-allegedly-delivers-over-160-fps-in-control-with-rt-dlss-at-4k-2x-performance-gain-over-rtx-3090/
BlacKi
2022-07-19, 16:37:01
Sofort als die erste Charge jedoch abverkauft war, war der UVP nichtmehr realistisch. Es gab immer mal wieder ein paar zum Anfüttern, unter "Verfügbarkeit" versteht man aber gemeinhin etwas anderes. absolute zustimmung. einen realen uvp preis aufrecht zu erhalten war nicht möglich, die karte hatte dennoch marge über, um nachhaltig geld zu verdienen, nicht nur nv, nicht nur die aibs, sondern auch die händler. auf letzteres wollte ich hinaus.
Dovregubben
2022-07-19, 17:22:18
4K Killer
https://wccftech.com/nvidia-geforce-rtx-4090-graphics-card-allegedly-delivers-over-160-fps-in-control-with-rt-dlss-at-4k-2x-performance-gain-over-rtx-3090/
3 Jahre altes Spiel mit DLSS.
Das sollte nun nicht die Messlatte sein.
robbitop
2022-07-19, 17:58:51
absolute zustimmung. einen realen uvp preis aufrecht zu erhalten war nicht möglich, die karte hatte dennoch marge über, um nachhaltig geld zu verdienen, nicht nur nv, nicht nur die aibs, sondern auch die händler. auf letzteres wollte ich hinaus.
Bei 700 EUR? Was zu beweisen bleibt. Die Karte gibt es bis heute nicht für 700 EUR und auch nicht 700 USD (ohne Sales Tax). Bei einer mikroskopisch kleinen Menge tut es auch kaum weh, wenn man an denen nicht viel (oder auch nichts verdient), sofern das für die Masse der Karten gilt. Das ist kein Beleg dafür, dass diese kleine Population an Karten die Margen aller getragen hat.
Die Story mit den "Rebates" von NV zu den AIBs (damit sie da für kurze Zeit mitmachen) ist zwar nie bewiesen worden ist aber zumindest schlüssig. Und das war mit "Ansage". MLID hat das Wochen vorher angesagt und dann kam es auch genauso. Der Fakt, dass es zu Abverkaufszeiten mit prall vollen Lagern (so dass man die nächste Generation sogar verschiebt!!) immer noch nicht annähernd UVP (aus im USD!) gibt (wo es sonst 20-40% günstiger sind) ist auch ein starkes Indiz.
Die UVP war bis dato nie real. Nicht zu guten und nicht zu schlechten Zeiten. Insofern halte ich obige Behauptung für mehr als zweifelhaft.
BlacKi
2022-07-19, 18:17:48
hätte es den crypto boom nie gegeben, wäre die uvp vom 699$ real gewesen. das ist fakt.
Mit RT hui, ohne lediglich okay. Sind aber alles 600w Benches, wenn ich es richtig verstanden habe. Bei 450w, bleiben lediglich 1.5-1.7x zur 3090Ti.
Dovregubben
2022-07-19, 18:27:33
Sind aber alles 600w Benches, wenn ich es richtig verstanden habe.
Dazu gibts keinerlei Aussage.
Troyan
2022-07-19, 18:28:10
3 Jahre altes Spiel mit DLSS.
Das sollte nun nicht die Messlatte sein.
Welches Spiel sieht denn besser aus als Control mit Raytracing? :confused:
@Dovregrubben (whatever)
Doch, gibt es:) und zwar genau von der Person, welche die Ergebnisse veröffentlicht hat!
Welches Spiel sieht denn besser aus als Control mit Raytracing? :confused:
M$ Flight Simulator
ChaosTM
2022-07-19, 18:31:42
Welches Spiel sieht denn besser aus als Control mit Raytracing? :confused:
Control ist neben Metro und 77 das einzige Spiel, welches mit RTRT wirklich sofort sichtbar besser ausschaut. Von daher stimmt das. :)
BlacKi
2022-07-19, 18:34:20
€dit: ach du meinst den full chip
Ex3cut3r
2022-07-19, 18:59:24
Control ist neben Metro und 77 das einzige Spiel, welches mit RTRT wirklich sofort sichtbar besser ausschaut. Von daher stimmt das. :)
CP77 nicht vergessen.
https://abload.de/img/maxresdefaultyiktm.jpg
Thunderburne
2022-07-19, 19:00:17
3 Jahre altes Spiel mit DLSS.
Das sollte nun nicht die Messlatte sein.
Nu ja eine 3090 macht dort mit DLSS halt 72 Fps ohne wohl etwas um die 50 !
Eine 4090 da wohl Butterweich ohne DLSS laufen!
reaperrr
2022-07-19, 19:20:11
CP77 nicht vergessen.
https://abload.de/img/maxresdefaultyiktm.jpg
Wie du zitiert hast:
Control ist neben Metro und ->77<- das einzige Spiel, welches mit RTRT wirklich sofort sichtbar besser ausschaut. Von daher stimmt das. :)
Muss man es jetzt schon zwei Mal zählen, um auf genug Titel zu kommen? :wink::tongue:
ChaosTM
2022-07-19, 19:42:32
redundant..
aufkrawall
2022-07-19, 19:58:43
Control ist neben Metro und 77 das einzige Spiel, welches mit RTRT wirklich sofort sichtbar besser ausschaut. Von daher stimmt das. :)
Die Liste ist nun wirklich nicht vollständig, habe deutlich mehr Spiele mit der 3060 mit RT gespielt.
bbott
2022-07-19, 21:15:45
Eher nicht, da die Inflation eine entsprechende Wirkung entfallen wird.
Erhöhung erwarte ich schon aber bis auf das Top Modell keine Mondpreise.
Möglicherweise 749 für die x80?
Der Euro da. Dollar ist schwach da sind 15-20% mehr UVP zwangsweise einzukalkulieren, hinzukommen wahrscheinlich. Inflation, Rohstoffmangel,... ich glaube nicht das NV bereit ist auf Marge verzichten.
Sorry, das ich einigen jetzt die Träume habe platzen lassen.
BlacKi
2022-07-19, 23:09:43
ich glaube nicht das NV bereit ist auf Marge verzichten.entweder das, oder strafzahlungen weil man die kapazitäten nicht auslastet.
maximus_hertus
2022-07-19, 23:45:11
hätte es den crypto boom nie gegeben, wäre die uvp vom 699$ real gewesen. das ist fakt.
Yep, allerdings dann wieder mit ewigen Lieferzeiten. Es gab doch direkt zum Launch diverse Berichte, dass die Hersteller eine 3080 für 699 nciht verkaufen können bzw. diese quersubventioniert wird und als solche sogar Verluste einbringt. Mit Inflation und Co. sieht es 2022 nicht besser aus.
Dazu die angeblichen 400+W bei der 4080, das macht es auch nicht billiger.
Ich persöhnlich würde auf 799 USD UVP tippen.
Die "Medium" Customs dann bei rund 850-890 USD und die Flagschiffe bei rund 920-950 USD.
Das würde, mit dem aktuellen Kurs, folgende (grobe) Euro Preise in D ergeben:
799 USD => rund 960 Euro
850-890 USD => rund 1020-1070 Euro
920-950 USD => rund 1100-1140 Euro
Das wird von so vielen noch maßlos unterschätzt, da werden sich noch einige über die Europreise wundern. Und zwar bei allem: neue Grafikkarten, iPhones, CPUs etc.
Eine 4070 für z.B. 549 / 599 USD würde dann bei rund 660 bzw. 720 Euro landen.
Selbst wenn es bei 499 USD bleiben würde (was ich nicht glaube), wären das mindestens 600 Euro.
Einigermaßen gute Customs sind in der Regel immer etwas oberhalb der UVP zu finden, also bei einer 70er, selbst bei 499 USD UVO, dann bei den 549-599 USD, ergo bei den rund 700 Euro.
Aber vielleicht gibt es die große Euro Erholung und es wird nicht ganz so düster ;)
ChaosTM
2022-07-20, 00:04:28
Die Liste ist nun wirklich nicht vollständig, habe deutlich mehr Spiele mit der 3060 mit RT gespielt.
Natürlich gibt es (viel) mehr Spiele die RT unterstützen, aber meistens sticht der Unterschied nicht sofort ins Auge.
aufkrawall
2022-07-20, 00:14:10
Aha.
https://abload.de/thumb/dyinglightgame_x64_rwimj80.png (https://abload.de/image.php?img=dyinglightgame_x64_rwimj80.png) https://abload.de/thumb/dyinglightgame_x64_rwmdk01.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmdk01.png)
w0mbat
2022-07-20, 00:24:48
Er schreibt "meistens" und du bringst ein Beispiel. Merkte selber, oder?
Fakt ist doch, das viele Spiele der "ersten RT-Generation" nicht wirklich besser aussehen, dafür viel schlechter laufen. Neue Spiele zeigen da oft mehr und in Zukunft wird der Unterschied noch größer. Aber jetzt gerade sind es eben noch nicht die meisten Spiele.
DrFreaK666
2022-07-20, 04:56:16
hätte es den crypto boom nie gegeben, wäre die uvp vom 699$ real gewesen. das ist fakt.
Wie kann sowas Fakt sein? Hat es dir deine Glaskugel gesagt?
Was-wäre-wenn-Geschichten sind nie Fakt
Gott1337
2022-07-20, 08:21:30
Wie kann sowas Fakt sein? Hat es dir deine Glaskugel gesagt?
Was-wäre-wenn-Geschichten sind nie Fakt
es gab die auch zu diesem Preis zu kaufen. Ich hab die 3090 auch für die 1499 bekommen, also UVP
Nazar
2022-07-20, 10:02:38
Aha.
https://abload.de/thumb/dyinglightgame_x64_rwimj80.png (https://abload.de/image.php?img=dyinglightgame_x64_rwimj80.png) https://abload.de/thumb/dyinglightgame_x64_rwmdk01.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmdk01.png)
Hatten dazu. 4 Personen befragt und alle sagten, dass Bild 1 deutlich besser und >>natürlicher<< ausschaut als Bild 2. Alle Befragten spielen weder an der Konsole, noch am PC oder mit dem Handy.
Ich schließe mal aufgrund der FPS, dass Bild 1 reines RZ und Bild 2 RT ist?#
Sollte es genau andersherum sein, dann muss ich allerdings zugeben, dass RT wirklich deutlich natürlicher in diesem Fall aussieht als das RZ Produkt.
dargo
2022-07-20, 10:17:39
Hatten dazu. 4 Personen befragt und alle sagten, dass Bild 1 deutlich besser und >>natürlicher<< ausschaut als Bild 2. Alle Befragten spielen weder an der Konsole, noch am PC oder mit dem Handy.
Ich schließe mal aufgrund der FPS, dass Bild 1 reines RZ und Bild 2 RT ist?#
Sollte es genau andersherum sein, dann muss ich allerdings zugeben, dass RT wirklich deutlich natürlicher in diesem Fall aussieht als das RZ Produkt.
Hehe... ich muss da jetzt wieder schmunzeln. :tongue: Mir gefällt übrigens auch das linke Rasterizer-Bild besser. Allerdings nur in Teilbereichen, die Rasterizer-Szene könnte hier besseres AO vertragen. Ich mag einfach nicht diese komischen RT-Schatten an der Wand. Dabei ist es mir völlig latte ob das realistischer ist. Wenn ich Realismus überall will gehe ich nach draußen. ;) Beim RT-Bild rechts finde ich den Bereich unter dem Brückenstück viel zu dunkel. Das wird dann insbesondere interessant in einem Multiplayerspiel. :D Wer mit RT spielt ist in diesem Beispiel definitiv im Nachteil, jetzt mal unabhängig von weniger fps. ;)
AffenJack
2022-07-20, 10:25:51
Hatten dazu. 4 Personen befragt und alle sagten, dass Bild 1 deutlich besser und >>natürlicher<< ausschaut als Bild 2. Alle Befragten spielen weder an der Konsole, noch am PC oder mit dem Handy.
Ich schließe mal aufgrund der FPS, dass Bild 1 reines RZ und Bild 2 RT ist?#
Sollte es genau andersherum sein, dann muss ich allerdings zugeben, dass RT wirklich deutlich natürlicher in diesem Fall aussieht als das RZ Produkt.
Das zweite Bild sieht deutlich natürlicher aus, nur bewerten Leute in der Regel nicht nach natürlichkeit, selbst wenn du sie danach fragst. Das RT Bild dürfte etwas zu dunkel sein, wegen zu wenigen Rays per Pixel, aber das Rasterisierungsbild lässt das GI fast komplett weg und es ist alles gleich ausgeleuchtet. Die Leute finden das dann toll, weil es heller ist. Das ist das gleiche wie bei Samsung Handys mit der Übersättigung der Farben. Das fanden auch immer viele ganz toll, natürlich ist es aber nicht.
Thunder99
2022-07-20, 10:35:58
Der Euro da. Dollar ist schwach da sind 15-20% mehr UVP zwangsweise einzukalkulieren, hinzukommen wahrscheinlich. Inflation, Rohstoffmangel,... ich glaube nicht das NV bereit ist auf Marge verzichten.
Sorry, das ich einigen jetzt die Träume habe platzen lassen.
Könnte so passieren, aber bringt am Ende Nvidia nicht wenn die Karten nicht in der Menge gekauft werden wie sie es wollen. Ohne Mining funktioniert der Markt, mit ist er verzerrt aus meiner Sicht.
Langfristig dürften die Preise immer weiter steigen da die Kosten immer höher werden. Nur ob der Kunde das mitmacht ist eine andere Frage.
Linmoum
2022-07-20, 10:39:08
Das zweite Bild sieht deutlich natürlicher aus, nur bewerten Leute in der Regel nicht nach natürlichkeit, selbst wenn du sie danach fragst. Das RT Bild dürfte etwas zu dunkel sein, wegen zu wenigen Rays per Pixel, aber das Rasterisierungsbild lässt das GI fast komplett weg und es ist alles gleich ausgeleuchtet. Die Leute finden das dann toll, weil es heller ist. Das ist das gleiche wie bei Samsung Handys mit der Übersättigung der Farben. Das fanden auch immer viele ganz toll, natürlich ist es aber nicht.Man braucht bei solch dunkleren Bildinhalten halt eigentlich auch einen passenden Monitor bzw. Fernseher. Das zweite Bild wird man schon deswegen alleine mit IPS/TN/VA-Schrott (auch, wenn der Schwarzwert bei VA nicht ganz so mies ist, trotzdem Meilen von OLED weg) nicht geil finden.
Aber ja, Übersättigung ist auch ein gutes Beispiel. Oder Bass bei Lautsprechern. Da finden Leute dann das 250€ Logitech 5.1 geiler als 1000€ Nuberts, weil ersteres fetter bumm bumm macht.
robbitop
2022-07-20, 11:05:57
hätte es den crypto boom nie gegeben, wäre die uvp vom 699$ real gewesen. das ist fakt.
Das ist Spekulation, kein Fakt. Ich vermute eher, dass es sie auch nicht gegeben hätte. Dass es bis heute nichts für 700 USD (ohne Steuern) gibt bei vollsten Lagern ist ein starker Indiz.
Das ist Spekulation, kein Fakt. Ich vermute eher, dass es sie auch nicht gegeben hätte. Dass es bis heute nichts für 700 USD (ohne Steuern) gibt bei vollsten Lagern ist ein starker Indiz.
Ihr habt beide unrecht. Ich hab schon 3x erklärt, warum der Preisverfall bei NV-Karten sich verzögert. Und der Abverkauf der Miningfirmen ist noch nicht eingepreist, der kommt aber!
Thunderburne
2022-07-20, 11:18:09
Wen das hier in Deutschland so weiter geht wird der Großteil der Leute noch maximal auf einer Konsole weiter zocken weil das Geld in allen Bereichen im Leben knapp wird!
Bin mal gespannt was das dann für die Luxxussparte Pc bedeutet!
prinz_valium_2
2022-07-20, 11:51:19
Wen das hier in Deutschland so weiter geht wird der Großteil der Leute noch maximal auf einer Konsole weiter zocken weil das Geld in allen Bereichen im Leben knapp wird!
Bin mal gespannt was das dann für die Luxxussparte Pc bedeutet!
Jup. Eine 250€ Konsole ist was anderes als für 250€ nicht mal eine Einsteiger GPU zu bekommen.
Der PC Markt in Deutschland ist ja um eine Millionen Spieler geschrumpft, während Konsole und Mobile wachsen.
Das wird noch exlatanter werden.
https://www.gameswirtschaft.de/wirtschaft/smartphone-meistgenutzte-games-plattform-2021/
Slipknot79
2022-07-20, 12:05:20
Ich finde auch das 2te Bild und Welten bessser. Finde es auch nicht "zu dunkel", gibt eben auch dunkle Ecken in der Welt. Offensichtlich wird der Bereich zusätzlich durch Bäume abgedunkelt (y).
Noobs finden das helle Bild "natürlicher", in Wirklichkeit wirkt es freundlicher, so wie Postkartenmotive eben auch hell sein müssen, sonst kauft niemand den Shice. Marketing wirkt eben bei Noobs. Genau aus dem Grund ist es nicht natürlicher, man braucht sich auch nur die Gegenden der Postkartenmotive real life ansehen. (y)
RT hat eben auch Auswirkung auf das Ganeplay. In dunklen Stellen muss man eben genauer nachschauen, ob nicht dort etwas versteckt ist. Dreht man aber RT ab um sich aber das Leben leichter zu machen, was cheaten wäre, so kann man auch gleich die Gamma hochdrehen um dunkle Bereiche "auszuleuchten". Naja wers braucht... Enthusiasten und Genießer spielen lieber RTon. (y)
maximus_hertus
2022-07-20, 12:30:24
Ihr habt beide unrecht. Ich hab schon 3x erklärt, warum der Preisverfall bei NV-Karten sich verzögert. Und der Abverkauf der Miningfirmen ist noch nicht eingepreist, der kommt aber!
Abverkauf ist aber eben kein "regulärer" Preis.
Stand jetzt sieht es so aus, dass es eben auch ohne Mining kaum Karten unter 800 Euro gegeben hätte.
Die 699 hätte man wahrscheinlich 1-2 x im Monat für 2 Minuten gesehen, bis die wieder ausverkauft wären.
Von daher, ja, die 699 wären "Wirklichkeit" geworden, aber wohl nur so wie die Radeon Karten bei AMD direkt. Theoretisch kaufbar, praktisch ging man immer leer aus.
Ok, zum 100sten Mal jetzt: NV versuchte die Karten in den Markt zu pressen und den Abverkauf zu starten, aber das wäre wie zum x-ten Mal in der Vergangenheit vor allem zulasten der Kartenhersteller gegangen, da NV die Preise gleich gehalten hätte und die Kartenhersteller dann auf dem Zahnfleisch kriechen indem sie die Preissenkung getragen hätten. Die spielen das Spiel aber dieses Mal nicht mit und halten das Angebot knapp. Wie oft soll ich das noch wiederholen? Das ist doch kein Hexenwerk.
NV muss jetzt selbst die Preise senken, das wird auch passieren und ist ja auch schon passiert, so ist auch die neuerliche Preissenkung zu erklären.
UVPs sind vollkommen scheiss egal und oft nur ein reines Marketing-Tool, wie ja auch bei der 3080 damals. Die Partnerkarten waren alle erheblich teurer, aber NV hatte den Ruf die Preise immer weiter zu erhöhen, daher die 700$ bei der 3080. Das Mining verhinderte dann ja eh, dass der Stunt aufflog. Mit der UVP kann man sich den Allerwertesten abwischen, nur EK-Preis und der letztendliche Marktpreis haben Aussagekraft.
robbitop
2022-07-20, 13:11:47
UVPs sind vollkommen scheiss egal und oft nur ein reines Marketing-Tool, wie ja auch bei der 3080 damals. Die Partnerkarten waren alle erheblich teurer, aber NV hatte den Ruf die Preise immer weiter zu erhöhen, daher die 700$ bei der 3080. Das Mining verhinderte dann ja eh, dass der Stunt aufflog.
Ich denke auch dass es aufgeflogen wäre, dass 700 USD nicht gereicht hätten. Man hatte von Igor, MLID und Co gehört, dass die BOM dafür viel zu hoch war, so dass NV mit internen rebates arbeiten musste. Die 700 USD waren Marketing aber wären und sind nie real gewesen.
Hatten dazu. 4 Personen befragt und alle sagten, dass Bild 1 deutlich besser und >>natürlicher<< ausschaut als Bild 2.
Dann sollten die Leute wieder mal öfters rausgehen und sich ansehen, wie echte Schatten aussehen, und nicht dauernd vorm Fernseher sitzen.
Alle Befragten spielen weder an der Konsole, noch am PC oder mit dem Handy.
Sorry, dann haben diese Leute definitiv alle Sehstörungen. Wie gesagt, geh raus ins Freie, und da wirst Du sehen, daß das 2. Bild wesentlich näher an der Realität ist als 1., wo die Schatten und Reflexionen viel zu hart und überbetont sind.
Beim RT-Bild rechts finde ich den Bereich unter dem Brückenstück viel zu dunkel.
Was aber so zutrifft, wenn kein Licht hinkommt. Man darf ja nicht vergessen, das RT nur ein Buchteil der Lichtstrahlen errechnen kann, in der Realität gibt es ja noch viel mehr Lichtstrahlen und Hintergrundhelligkeit, dazu kommt noch die Anpassung der Augen, die draußen anders ausfällt, als wenn wir auf eine sehr eingeschränkte 2D-Fläche wie einen Bildschirm schauen. Nichtsdestotrotz ist das rechte Bild in fast allen Belangen besser und realistischer als das Linke.
w0mbat
2022-07-20, 15:49:28
Warte, Bild nummer zwei ist mit RT? Ich hatte das jetzt direkt anders rum eingeschätzt.
Nach nochmaligem Anschauen sind viele Bereiche in Bild zwei wirklich natürlicher, aber die Bereiche unter der Brücke sind viel zu dunkel. Wenn es Tag ist, gibt es keine so dunklen Stellen in echt, man würde alles unter der Brücke sehen wenn man durch ein menschliches Auge schaut (Bilder/Videos können durch komische Belichtung täuschen).
Das Licht fällt realistischer, aber es ist insg. zu dunkel. Gerade das sollte doch ein Vorteil von RT sein, da das Licht doch hüpft, oder nicht?
aufkrawall
2022-07-20, 15:49:54
Manchen Leuten könnte man auch ein Foto unterjubeln und sie hätten was zu motzen. Einfach nur eine traurige Geschichte von mentaler Selbstverkümmerung, was soll man sonst noch dazu sagen...
ChaosTM
2022-07-20, 15:59:10
Wenns mit einer billig Klugfon Kamera aufgenommen ist, kann man gelegentlich schon auch motzen. :)
Den meisten ist es schlichtweg egal ob das jetzt akkurat ist oder nicht. Die spielen halt um zu spielen..
aufkrawall
2022-07-20, 16:18:44
Wenns mit einer billig Klugfon Kamera aufgenommen ist, kann man gelegentlich schon auch motzen. :)
Oder mit dem Auge, was in der Dämmerung in verschatteten Bereichen auch nicht viel sieht.
Mit BT.1886 Gammakurve nimmt die Sichtbarkeit in dunklen Bereichen jedenfalls massiv zu, entsprechend wäre das auch mit OLED und gewöhnlicher Pure Power 2.4 Kurve der Fall. Und mit HDR anzunehmenderweise noch stärker. Aber wenn man halt in seinem mentalen 800:1-Kontrast-Raster-Gefängnis eingesperrt ist...
ChaosTM
2022-07-20, 16:22:25
Klar, aber dann sieht man je den Gegner in Shootern in dunklen Arealen nicht mehr sofort. Erinnere mich noch mit Schrecken an die Q2/UT/Q3 Zeiten, wo alle Helligkeit und Gamma hochprügelten.
Add.: Gewohnheiten spielen da ein große Rolle..
dargo
2022-07-20, 16:38:46
Was aber so zutrifft, wenn kein Licht hinkommt.
Der Bereich unter der Brücke ist aber offen und nicht mit vier Wänden komplett verschlossen. ;) Ich muss aber meine Bewertung wieder zurücknehmen. Vorher hatte ich mir das auf Arbeit auf einem billigen TN-Bildschirm angesehen, da konnte ich in den dunklen Bereichen praktisch nichts mehr erkennen. Am IPS zu Hause ist das eine ganz andere Hausnummer. Hier erkenne ich wieder Details in diesen Bereichen. Insofern passt das RT-Bild wieder. Vielleicht nur noch ein klein wenig zu dunkel. Ich bleibe aber bei meiner Meinung... beim Rasterizerbild haben sich die DEVs wenig Mühe beim Faken gegeben, da geht wesentlich mehr. Das ist dann womöglich der Tradeoff wenn beides ins Spiel gelangt.
PS: die häßlichen RT-Schatten an der Wand bleiben natürlich weiter erhalten.
aufkrawall
2022-07-20, 16:45:09
Die Bäume stehen locker >50m, wenn nicht >100m von der Wand weg, und dann sieht das durch die Lichtstreuung in der Realität ziemlich ähnlich aus. Soo lächerlich, aber wahrscheinlich fallen viele Leute tatsächlich auf deine pseudo-objektive Verarschungsmasche rein...
dargo
2022-07-20, 16:54:17
Realität? :lol: Da sind wir noch Lichtjahre von entfernt.
https://i0.web.de/image/438/37015438,pd=1,f=sdata169/baeume-stadt.jpg
https://www.dresden.de/media/bilder/gruenflaechen/Wassersaecke_am_Dr.-Kuelz-Ring_Foto_Steffen_Loebel_2018.JPG
Ich beneide dich jedes Mal wie du es schaffst bei deinem RT-Gedöns (da hat das Marketing ja volles Rohr bei dir eingeschlagen, nicht nur bei dir) die lächerlichen Lastgen-Assets völlig auszublenden.
btw.
Und wo wir schon beim Thema sind... wer sagt denn, dass ich in jedem Spiel Realität haben möchte? Spiele haben auch was mit Kunst zu tun. Da ist die künstlerische Ader der DEVs mir viel wichtiger.
aufkrawall
2022-07-20, 17:00:07
1. Auf dem Screenshot sind gar nicht die schattenwerfenden Bäume zu sehen, was sollen also Bilder von Bäumen mit Schatten 1m daneben aussagen?
2. Ergibt es überhaupt keinen Sinn, wegen der "komprimierten" Assets nicht trotzdem die Qualität von Beleuchtung etc. zu verbessern.
Einfach nur jegliche Logik ins Fanatische und Abstruse abgedriftet, wenn das kein "Haten" ist...
dargo
2022-07-20, 17:05:53
Es ist mit dir eh sinnlos darüber zu diskutieren da du dich jedes Mal auf irgendeinen Teilaspekt insbesondere im Technikkram krampfhaft versteifst anstatt ein "Kunstwerk" als Ganzes zu betrachten.
Ex3cut3r
2022-07-20, 17:22:30
Aha.
https://abload.de/thumb/dyinglightgame_x64_rwimj80.png (https://abload.de/image.php?img=dyinglightgame_x64_rwimj80.png) https://abload.de/thumb/dyinglightgame_x64_rwmdk01.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmdk01.png)
KA, wie man das nicht besser finden kann, allein schon das AO RT macht das zweite Bild soviel geiler (Unter der Brücke). Ohne das RT sieht das Game wie ein Last Gen Spiel aus. So eine flache Beleuchtung ohne RT kann ich seit RT AO nicht mehr sehen. Ekelhaft.
Aber ey, komischerweise finden die meisten RDNA 2 Besitzer RT nicht gut bzw. angeblich sieht man keinen Unterschied. Muss man sich vermutlich einreden, wenn eine 3070 schon besser ist als eine 6900XT dafür. Schließlich hat man auch über 1200€ für so eine miserable RT Leistung gezahlt. ;)
Mein Tipp sobald RDNA 3 auf Ampere + Niveau ist, ist RT auch bei AMDlern plötzlich soviel besser, wirst sehen.
Tesseract
2022-07-20, 17:25:55
RT berechnet in welcher intensität das licht wo hinkommt, wie hell das pixel am ende ist hängt vom tone mapping, den materialeigenschaften usw. ab. RT aufgrund des kontrastes zu beurteilen ist themenverfehlung.
tatsache ist, dass ein reiner RT workflow für den developer deutlich billiger sein kann (geld, das man anders sinnvoller investieren kann) und dass die beleuchtung prinzipiell realistischer sein kann.
ich habe jedenfalls noch kein spiel gesehen in dem sich objekte so natürlich in die umgebung einfügen wie in metro mit RT:
https://abload.de/thumb/20220215210155_1jnjxh.jpg (https://abload.de/image.php?img=20220215210155_1jnjxh.jpg)
dargo
2022-07-20, 17:33:16
tatsache ist, dass ein reiner RT workflow für den developer deutlich billiger sein kann (geld, das man anders sinnvoller investieren kann) und dass die beleuchtung prinzipiell realistischer sein kann.
Breaking News, wäre da bloß alte Hardware über mehrere Jahre nicht im Weg die man unterstützen muss sofern man sich als Dev nicht selbst zerstören will. :rolleyes:
Mein Tipp sobald RDNA 3 auf Ampere + Niveau ist, ist RT auch bei AMDlern plötzlich soviel besser, wirst sehen.
Du hast das Kernproblem immer noch nicht verstanden. Nein, du versuchst hier sogar krankhaft jedes Mal deinen billigen Grabenkrieg anzukurbeln. Junge, Junge macht doch mal endlich die Augen auf wie eine Milliardenschwere Gamingbranche funktioniert. Deinen hier genannten Punkt würde ich übrigens nicht mal ausschließen wollen. 2023 bis 2024 dürften vermehrt Games mit RT-Support kommen die dann auch hübscher aussehen als das was man heute vorgesetzt bekommt. Das ist der Lauf der Natur in kleinen Schritten. Auch lernen DEVs immer mehr mit neuen Techniken effizienter umzugehen.
aufkrawall
2022-07-20, 17:45:06
ich habe jedenfalls noch kein spiel gesehen in dem sich objekte so natürlich in die umgebung einfügen wie in metro mit RT:
https://abload.de/thumb/20220215210155_1jnjxh.jpg (https://abload.de/image.php?img=20220215210155_1jnjxh.jpg)
Ist in DL2 RT ähnlich:
https://abload.de/thumb/dyinglightgame_x64_rwgejhm.png (https://abload.de/image.php?img=dyinglightgame_x64_rwgejhm.png) https://abload.de/thumb/screenshot60qpjsj.png (https://abload.de/image.php?img=screenshot60qpjsj.png)
Diese ganzen Nuancen, wie Oberflächen Umgebungslicht reflektieren, hat man ohne RT einfach komplett gar nicht. Wer das nicht sieht, muss wohl etwas analog zu einer Farbenblindheit haben.
Ex3cut3r
2022-07-20, 17:53:21
Das ist keine Farbenblindheit, dass die Radeon Krankheit. Diese Leute mit den teuren RDNA 2 Karten, haben sich so ne Art Schutzwall ins Gehirn gesetzt, alles was mit RT zu tun hat, ist A entweder unnötig, B sieht gar nicht viel besser aus, oder C ist extra "angeblich" auf Geforce optimiert. ;D
Schau dir das CB Forum an, jedes mal werden von AMDlern diese Punkte von oben auch angeführt. Taugt nix. GeForce zu teuer wird auch oft genannt.
Dampf
2022-07-20, 18:07:29
Hehe. Hier gehts ja mal wieder ab XD
Ist in DL2 RT ähnlich:
https://abload.de/thumb/dyinglightgame_x64_rwgejhm.png (https://abload.de/image.php?img=dyinglightgame_x64_rwgejhm.png) https://abload.de/thumb/screenshot60qpjsj.png (https://abload.de/image.php?img=screenshot60qpjsj.png)
Diese ganzen Nuancen, wie Oberflächen Umgebungslicht reflektieren, hat man ohne RT einfach komplett gar nicht. Wer das nicht sieht, muss wohl etwas analog zu einer Farbenblindheit haben.
Sieht sehr gut aus. DY2 mit RT kommt Fotorealismus manchmal erstaunlich nahe!
ChaosTM
2022-07-20, 18:56:29
Das ist keine Farbenblindheit, dass die Radeon Krankheit. Diese Leute mit den teuren RDNA 2 Karten, haben sich so ne Art Schutzwall ins Gehirn gesetzt, alles was mit RT zu tun hat, ist A entweder unnötig, B sieht gar nicht viel besser aus, oder C ist extra "angeblich" auf Geforce optimiert. ;D
Schau dir das CB Forum an, jedes mal werden von AMDlern diese Punkte von oben auch angeführt. Taugt nix. GeForce zu teuer wird auch oft genannt.
Nope, ich hab eine 3080er und spiele viele verschiedene Sachen, wenn auch oft nicht sehr lange.
RT schaut sehr nett aus wenn richtig eingesetzt, nur passiert das leider viel zu selten. Meist ist der Unterschied auf "Linus" Niveau, also kaum vorhanden.
Das ist nun mal die traurige Realität momentan.
Aja, man kann sich auch als AMD User RT anschauen, wenngleich man dann mit grausamen Bildraten leben muss. Dank FSR2 ist es aber nicht mehr soo schlimm. :)
iamthebear
2022-07-20, 19:07:44
Aha.
https://abload.de/thumb/dyinglightgame_x64_rwimj80.png (https://abload.de/image.php?img=dyinglightgame_x64_rwimj80.png) https://abload.de/thumb/dyinglightgame_x64_rwmdk01.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmdk01.png)
Also ich muss zugeben, dass ich hier von RT echt beeindruckt bin was die Optik angeht.
Allerdings bin ich mir nicht sicher, ob ich nicht in der Praxis lieber ist, wenn die Grafik kacke aussieht, ich aber alles problemlos erkennen kann. Ich denke da ist gutes Leveldesign gefragt, dass wichtige Items nicht in dunklen Schatten verschwinden.
Ein weiteres Problem: Selbst wenn man einen OLED mit perfekten Schwarztönen hat hipft das alles nichts wenn gerade die Sonne vom Fenster gegenüber rein knallt und man jeden Fingerabdruck sieht nur nicht den Content.
Jup. Eine 250€ Konsole ist was anderes als für 250€ nicht mal eine Einsteiger GPU zu bekommen.
Der PC Markt in Deutschland ist ja um eine Millionen Spieler geschrumpft, während Konsole und Mobile wachsen.
Das wird noch exlatanter werden.
https://www.gameswirtschaft.de/wirtschaft/smartphone-meistgenutzte-games-plattform-2021/
Früher hatte man in der Regel sowieso einen Desktop PC daheim d.h. man musste sich nur die GPU dazu kaufen und hatte um 200-300 Euro ein fertiges Gaminggerät.
Heute haben viele nur mehr ein Handy oder bestenfalls ein Notebook bzw. wenn es einen PC gibt, dann oft nur eine alte Gurke oder ein billiger Quad Core mit 8GB RAM und einer kleinen SSD.
Mainboard, 16-32GB RAM, 6 Kern CPU, 500GB SSD+Platte oder gleich 2TB SSD, Gehäuse, Netzteil. Da ist man schnell mal 1000 Euro los noch ohne GPU und da hat man schon die Sparvariante.
Ich denke auch dass es aufgeflogen wäre, dass 700 USD nicht gereicht hätten. Man hatte von Igor, MLID und Co gehört, dass die BOM dafür viel zu hoch war, so dass NV mit internen rebates arbeiten musste. Die 700 USD waren Marketing aber wären und sind nie real gewesen.
Das ist bereits die 3. Generation in Serie. Ich erinnere hier an die 2080 Ti. Diese hat es mit Ausnahme der letzten 3 Monate auch nie um 1000 Euro gegeben und das war nach dem ersten Miningcrash als der Release wegen zu viel Lagerbeständen verschoben wurde und selbst zum UVP die Generation ziemlich enttäuschend war.
Der einzige Unterschied beim RTX 3000 Launch war, dass die Founders Edition Karten auch zum UVP angeboten wurden und ich muss zugeben, dass ich selbst darauf rein gefallen bin, da ich dachte wenn die AIB Karten zu teuer sind hole ich mir eine FE direkt von Nvidia. Dass die so weit sinken würden, dass sie bei den FE einen reinen Paperlaunch machen und diese real nie verfügbar waren damit hatte ich nicht gerechnet.
Aber gut dieser Vertrauensvorschuss ist nun auch verbraucht und nun weiß jeder, dass er UVP Angaben generell ignorieren soll und sich nur nach den Geizhals Preisen richten darf.
AffenJack
2022-07-20, 19:12:36
Der Bereich unter der Brücke ist aber offen und nicht mit vier Wänden komplett verschlossen. ;) Ich muss aber meine Bewertung wieder zurücknehmen. Vorher hatte ich mir das auf Arbeit auf einem billigen TN-Bildschirm angesehen, da konnte ich in den dunklen Bereichen praktisch nichts mehr erkennen. Am IPS zu Hause ist das eine ganz andere Hausnummer. Hier erkenne ich wieder Details in diesen Bereichen. Insofern passt das RT-Bild wieder. Vielleicht nur noch ein klein wenig zu dunkel. Ich bleibe aber bei meiner Meinung... beim Rasterizerbild haben sich die DEVs wenig Mühe beim Faken gegeben, da geht wesentlich mehr. Das ist dann womöglich der Tradeoff wenn beides ins Spiel gelangt.
Kann ich nur bestätigen. Ich hab vorher auch den Billigmonitor auf Arbeit gehabt und fand es deshalb zu dunkel. Zuhause sieht das in Ordnung aus. Das ganze ist ein wunderbarer Test um Kackmonitore zu entlarven. Mit OLED würde ich mir das gerne noch angucken.
dargo
2022-07-20, 19:31:57
Nope, ich hab eine 3080er und spiele viele verschiedene Sachen, wenn auch oft nicht sehr lange.
RT schaut sehr nett aus wenn richtig eingesetzt, nur passiert das leider viel zu selten. Meist ist der Unterschied auf "Linus" Niveau, also kaum vorhanden.
Das ist nun mal die traurige Realität momentan.
Du hast doch gar keine Ahnung. Du hast dich einfach mit deiner Geforce irgendwo unterwegs von einem Radeon-User mit der Radeon-Krankheit angesteckt. X-D
w0mbat
2022-07-20, 19:59:50
Ich spiele gerade Guardians of the Galaxy und das hat ne ganz nette RT Implementierung. Läuft auch ordentlich.
ChaosTM
2022-07-20, 20:10:53
Guardians hab ich vor mal zu spielen, aber erst als Budget Titel. Da hört man viel gutes bezüglich RT.
Was mit auf Videos sehr gut gefällt ist der Spinnenmann auf der 5er.
Add.: allerdings sieht man da die geringe Strahlen Anzahl und die Auflösung ist reduziert. Gibt auch keine Reflexion in der Reflexion iirc.
lilgefo~
2022-07-20, 20:52:01
Kommen hier wieder die Leute mit ihren Radeons samt Mäusekinomonitor mit Glow um die Ecke und meinen sie können RT Beleuchtung beurteilen eiei.
ChaosTM
2022-07-20, 21:01:35
Der Monitor hat eine Auflösung von 2160p, aber nur in 28 Zoll, und die Graka ist eine 3080er (wlkikiv).
Der TV ist ein 55er PVA mit 5000:1 Kontrast. Leider kein OLED. :)
Thunderburne
2022-07-20, 21:54:52
Guardians spiele ich gerade mit RT auf der PS5 .
Nazar
2022-07-20, 22:49:17
Dann sollten die Leute wieder mal öfters rausgehen und sich ansehen, wie echte Schatten aussehen, und nicht dauernd vorm Fernseher sitzen.
Sorry, dann haben diese Leute definitiv alle Sehstörungen. Wie gesagt, geh raus ins Freie, und da wirst Du sehen, daß das 2. Bild wesentlich näher an der Realität ist als 1., wo die Schatten und Reflexionen viel zu hart und überbetont sind.
Was aber so zutrifft, wenn kein Licht hinkommt. Man darf ja nicht vergessen, das RT nur ein Buchteil der Lichtstrahlen errechnen kann, in der Realität gibt es ja noch viel mehr Lichtstrahlen und Hintergrundhelligkeit, dazu kommt noch die Anpassung der Augen, die draußen anders ausfällt, als wenn wir auf eine sehr eingeschränkte 2D-Fläche wie einen Bildschirm schauen. Nichtsdestotrotz ist das rechte Bild in fast allen Belangen besser und realistischer als das Linke.
Wenn man im Glashaus sitzt, sollte man nicht.... :wink:
Ein paar Postings weiter, kannst du deutlich (als Spoiler hinterlegt) sehen, wie echte Schatten wirken.
Und noch 1000 weitere Male, derzeit ist die Hardware nicht in der Lage, mit RT bewegte Bilder mit hoher Hz Zahl auch nur annähernd realistisch darzustellen. Das Bild von Metro zeigt deutlich, dass die indirekte Beleuchtung weiterhin nicht funktioniert, da >>>>viel<<<<< zu wenige Rays genutzt werden können.
Die Schatten der Bäume an der Wand sind in den Beispielbildern viel zu hell, wenn man dann wiederum die Überdachung auf dem Brückenstück betrachtet. Das Verhältnis von Helligkeit (Reflexion der Rays von der hellen Wand) wirkt vollkommen falsch. Wenn der Schatten der Bäume so diffus und hell ist, dann deutet das auf einen sehr lichten Baum hin und eine starke Reflexion der Wand. Dann muss aber allgemein alles bei der Brücke deutlich heller sein.
Es geht um die "Stimmung", die jeder (der auch mal vor die Tür geht ;)) Mensch sofort als falsch, nicht passend wahr nimmt.
Das sieht man eben auch deutlich in dem Beispielbild von Metro, wo die Füße und Hose der Person nicht mehr deutlich oder gar nicht mehr vom Boden zu unterscheiden sind. Bei den beiden großen Fenstern, fällt so viel Licht in diesen Raum, dass die indirekte Beleuchtung den Boden so erhellen würde, dass man sogar das Muster des Bodens erkennen könnte. Das kann jeder zu Hause bei sich testen (man muss nicht mal ins RL gehen ;)).
Das Gesamtbild bei RT ist derzeit einfach nie passend und wirkt alleine deswegen für die meisten Menschen als falsch, da stimmt etwas nicht.
Ob der Schattenwurf an der Wand dabei realistischer wäre, ist so lange irrelevant, solange der Rest dann vollkommen unpassend wirkt.
Und ja, einfach mal wieder vor die Tür gehen und sich mit dem Thema Beleuchtung/Reflexionen auseinandersetzen. Da bin ich voll bei dir. ;)
Was für ne dämliche RT-Diskussion wieder. Letztendlich lässt sich über Geschmack nicht streiten und um nichts anderes geht es hier. Einige meinen hier "Fororealismus" zu verorten, was für ein grandioser Unsinn. Es wird noch seeeeehr lange dauern bis zum Fotorealismus und ich persönlich hoffe auch, dass niemand so dämlich ist das jemals umzusetzen, denn das sind Spiele und nicht die Realität. Gute Grafik ist mit Sicherheit kein Fotorealismus sondern letztendlich Kunst und liegt im Auge des Betrachters. Ich würde es doch arg langweilig finden, Spiele spielen zu müssen, die wie die Realität aussehen. Warum solte man das tun? Die Realität hat man doch draußen... Seit Jahren wissen alle in der Filmbranche genau, dass die Realität langweilig ist und setzen Filme und Serien ziemlich losgelöst von der realen Optik in Scene und bei Spielen will man das andersherum haben? Nein, nicht mit mir. Das ist Fiktion und das soll auch Fiktion bleiben.
Noch vor 4 Jahren hätte ich genau dieses Plädoyer für die Kunst gegen RT genutzt um gegen RT in Spielen zu argmumentieren, selbst, als RT für die Konsolen angekündigt wurde, war ich immer noch skeptisch. Aber jetzt erkenne ich, dass RT durchaus ein Gewinn sein kann, nicht weil es Realität bringen würde, nein, weil es glaubhaftere Darstellung erzeugen kann. Ich bin nach wie vor davon überzeugt, dass wir in Spielen niemals reines RT nutzen werden, weil das purer Realismus wäre, das wird kein Designer, der bei Verstand ist, wollen. Es wird immer ne Mischform bleiben, aber RT ist halt ein Tool, um Grafik besser zu machen und so sollte man es auch verstehen. Nicht alles, was mit RT gemacht ist, ist gut, nicht alles, was mit RT gemacht ist ist schlecht. Es liegt schlichtweg im Auge des Betrachters.
basix
2022-07-20, 23:37:58
Primary Rays sind mit Raster viel effizienter. Nur schon deswegen wird Raster vermutlich niemals ganz verschwinden. Hybrid ist ja kein dummer Ansatz. Path Tracing only hätte nur den Vorteil, dass die Grafik-Pipeline weniger komplex wird.
iamthebear
2022-07-21, 00:22:35
Das Problem wenn man dem Realismus zu sehr hinterher jagt ist, dass die Monitore noch meilenweit davon entfernt sind das ganze sichtbare Helligkeitsspektrum abzubilden. Man kann die Helligkeit nicht so darstellen wie sie realistisch ist. Dann würde im freien alles clippen weil der Monitor nicht mal in der Lage ist die dunklen Schatten darzustellen.
Umgekehrt wird man auch nicht in der Lage sein Dunkelheit darzustellen weil das kein Mensch mehr sehen wenn es 8m Raum aktuell Tag ist.
Es muss die Szene so gestaltet werden, dass sie an die Bandbreite des Monitors angepasst ist, was beim Szenenwechsel etwas kompliziert wird wenn man z.B. ein Gebäude verlässt. Da ist es oft einfacher wenn innen und außen alles gleich beleuchtet ist, selbst wenn es in der Realität ganz anders aussieht.
Klassischer Fall sind hier auch Nachtszenen. In wie vielen Spielen ist es in der Nacht wirklich finster?
basix
2022-07-21, 07:58:18
Klassischer Fall sind hier auch Nachtszenen. In wie vielen Spielen ist es in der Nacht wirklich finster?
Das genau gleiche sieht man ja auch in Filmen. Ist ein generelles Thema bei Bildschirminhalten.
ChaosTM
2022-07-21, 08:07:34
Da gehts zu 90% um Budget Beschränkungen. Nachtszenen sind viel billiger :D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.