Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
basix
2022-09-18, 13:42:26
Das Problem mit der 80er ist: Das wird seit 20 Jahren mit High End verbunden. Entsprechend auch hohe Preise. Deswegen: Es ist ein Indiz, dass Nvidia die Karten teuer verkaufen will, was schlecht für den Kunden ist. Ich meine, P/L ist seit Pascal nur noch marginal gestiegen (Papierpreise zählen nicht, Mining war halt die Realität).
Und wenn Chip-Größe egal ist, wieso behauptet dann unl34shed, dass eine angeblich 4080 12GB keine richtiger 80er Karte wäre? Woran macht man das fest? Stromverbrauch?! Mehrleistung gegenüber der schnellsten aus der letzten Generation?!
Siehe meinen Kommentar oben: 80er = High End. Eine 80er mit <50% SMs wie der Top Dog ist halt einfach kein High End.
Wir als Kunden müssen halt einfach schlauer sein: Namen sind Schall und Rauch. Schaut einfach auf das was ich oben geschrieben habe (Performance, Energieverbrauch, Features und der Preis) verglichen mit dem was ihr habt oder braucht. Und entscheidet dann.
unl34shed
2022-09-18, 13:44:22
Ach Troyan, lern doch erstmal das geschriebene zu lesen und auch zu verstehen, dann können wir gerne eine Diskussion führen, wie Erwachsene Menschen. Bis dahin bleibt bei deinen Kommentaren leider nur ... :facepalm: .
robbitop
2022-09-18, 13:45:21
Erst deutlich später. Die GTX 1080 kostete 699$ 599$ (789 Euro UVP in DE), was damals noch der High End Spot war.
Später aber es gab sie. Und bis dahin gab es die Titan X (Pascal).
robbitop
2022-09-18, 13:46:16
Siehe meinen Kommentar oben: 80er = High End. Eine 80er mit <50% SMs wie der Top Dog ist halt einfach kein High End.
This :up:
basix
2022-09-18, 13:51:15
Noch interessanter wird es bei der 4090 Ti vs. 4080 12GB: 144 vs. 60 SMs. Oder 41.7% SMs für die letztere :freak:
Tomahawk
2022-09-18, 13:55:05
This :up:
Und, wenn es keinen Top dog im Conumerbereich geben würde?
basix
2022-09-18, 13:56:20
Einer muss immer der Top Dog sein ;)
Wenn es AD102 nicht für Consumer gäbe: Dann wäre es halt so. Kann ich als Kunde ja nichts daran ändern (ausser eben sehr hohe Preise dafür zu bezahlen, wenn ich solch eine SKU haben will). Man könnte ja auch argumentieren, wieso es V100 nicht als Consumer Karte überhalb von GP102 gab. War halt einfach so. Titan V gab es dann irgendwann mal, ja. Aber zu extremen Preisen.
robbitop
2022-09-18, 13:56:50
Und, wenn es keinen Top dog im Conumerbereich geben würde?
Dann hätte AMD wohl mit N31 freie Bahn. Hätte hätte Fahrradkette.
Aber auch dann gäbe es Relationen die verglichen werden würde . 80 zur 70 oder 70 zur 60 usw
Tomahawk
2022-09-18, 13:59:49
Es geht darum, dass es möglich ist, dass Chips >600 mm2 künftig nur bei Grafikkarten > 1.000 Euro (oder gar nicht) zu realisieren sind. Ob man das Ding Titan xx90 oder anders nennt spielt keine Rolle.
xx80 Grafikkarten sind viel mehr durch einen Preispunkt vorgegeben, nicht durch eine Geschwindigkeitsrelation zum technischen Maximum.
robbitop
2022-09-18, 14:12:36
Vielleicht keine 600 mm2 GPUs aber so dass man grob 65-70% der SMs hat, wie es seit langem der Standard ist.
Die Margen sind fettiger als fett - wenn das „nicht geht“, liegt es eher am mangelnden Wettbewerb.
Tomahawk
2022-09-18, 14:24:43
Der mangelnde Wettbewerb ist eine Möglichkeit. Aber andere Geschäftszweige für nVidia (Tesla-Karten) eine andere. Wenn nVidia aber kaum Leistungsgewinne für Spieler liefert, dann verkaufen sie auch keine Karten. Es fällt mir schwer diese Fixierung auf die Chipgröße nachzuvollziehen.
robbitop
2022-09-18, 14:35:10
Ich spreche nirgends von Chipfläche sondern von SPs. Es ist eher Preis/Leistung, die interessant sind. Je mehr SPs die SKU hat, desto mehr Leistung gibts für den Preis einer 80. ;)
BlacKi
2022-09-18, 14:42:31
ohne die preise zu kennen sich über die namensgebung zu stören find ich bescheuert. die 3080ti war lächerlich, es gab keine abstand zur 3090. jetzt hat man den nötigen abstand zur 4090 um eine 4080ti ordentlich zu platzieren. und wenn die mit 10% weniger rechenleistung als 4090 mit 20gb bei 350w für 999$ kommt ist der kunde glücklich und die 4080 kann dann bei 699$ bleiben. die xx080er generation war viel zu stark für ein ordentliches portfolio.
Meridian12
2022-09-18, 14:44:34
Vielleicht keine 600 mm2 GPUs aber so dass man grob 65-70% der SMs hat, wie es seit langem der Standard ist.
Die Margen sind fettiger als fett - wenn das „nicht geht“, liegt es eher am mangelnden Wettbewerb.
Die Frage ist halt auch, ob große GPUs nicht eh ein Auslaufmodell ist.
Mir kommt die AMD Variante deutlich sinnvoller vor. Wobei sich das auch erst bei der nächsten Version richtig bemerkbar macht, weil aktuell noch alles Neuland.
Bei Fahrzeugen haben die Supersportler auch nicht 1 fetten Elektromotor.Sondern 4 kleinere. Wenn ein fetter Elektromotor effektiver wäre, dann würde das gemacht werden.
Die legendärste Grafikkarte aller Zeiten :D ,die Voodoo 5 6000 hatte ja auch das 4 GPU Modell und hätte alles vernichtet damals, wenn 3dfx die Probleme hinbekommen hätte.
Troyan
2022-09-18, 14:44:36
Chipfläche ist die einzige relevante Metrik. Und Chipfläche kostet Geld. Das Leute die Realität weiterhin ignorieren, ist ja nichts neues.
Wenn TSMC für 4nm den 3x Preis verlangt als Samsung, dann kostet die selbe Größe nunmal 3x mehr. Also gibt es für den selben Preis wie bei der Vorgängergeneration nunmal nicht die selbe Größe.
Simpel ausgedrückt: Um das selbe Geld zu verdienen, müsste die Chipgröße sich mindesten halbieren.
Dazu kommen noch die Forschungs- und Entwicklungskosten für die neue Architektur sowie Anpassungen für den Prozess.
Die Frage ist halt auch, ob große GPUs nicht eh ein Auslaufmodell ist.
Mir kommt die AMD Variante deutlich sinnvoller vor. Wobei sich das auch erst bei der nächsten Version richtig bemerkbar macht, weil aktuell noch alles Neuland.
Huh? AMD gliedert nur Speichercontroller und Cache aus. Die sind fast genauso groß, nur wird nVidia erheblich mehr Transistoren pro Fläche unterbringen, was dann auch mehr Leistung bedeuten wird.
fondness
2022-09-18, 14:50:22
Vielleicht keine 600 mm2 GPUs aber so dass man grob 65-70% der SMs hat, wie es seit langem der Standard ist.
Die Margen sind fettiger als fett - wenn das „nicht geht“, liegt es eher am mangelnden Wettbewerb.
Also die Margen sind im letzten Quartal erheblich eingebrochen und wären ohne den Datacenter-Bereich wohl sogar an der Gewinnschwelle. Man sollte schon realistisch bleiben. Ohne den Mining-Boom sieht es so rosig auch nicht aus.
AffenJack
2022-09-18, 14:51:38
Ich spreche nirgends von Chipfläche sondern von SPs. Es ist eher Preis/Leistung, die interessant sind. Je mehr SPs die SKU hat, desto mehr Leistung gibts für den Preis einer 80. ;)
Du sagst es doch selbst, am Ende kann uns alles außer Preis/Leistung egal sein. Es ist völlig egal, wenn Nvidia SLI mit Chips ersetzt, die evtl unter 1000€ nicht mehr ökonomisch machbar sind. Auch AMD wird nach aktuellen Gerüchten bei N31 jetzt nicht wirklich groß werden, weil sonst die Kosten wohl zu hoch werden dürften. Du störst dich nur am großen Chip, weil du es nicht magst, dass es Leute gibt, die sich das leisten wollen. Aber das gibts bei Luxus immer.
Was zählt ist der Performancegewinn zum jeweiligen Preispunkt. Daran wird man die Konkurrenz in Relation eben messen.
OgrEGT
2022-09-18, 14:51:42
Chipfläche ist die einzige relevante Metrik. Und Chipfläche kostet Geld. Das Leute die Realität weiterhin ignorieren, ist ja nichts neues.
Wenn TSMC für 4nm den 3x Preis verlangt als Samsung, dann kostet die selbe Größe nunmal 3x mehr. Also gibt es für den selben Preis wie bei der Vorgängergeneration nunmal nicht die selbe Größe.
Simpel ausgedrückt: Um das selbe Geld zu verdienen, müsste die Chipgröße sich mindesten halbieren.
Dazu kommen noch die Forschungs- und Entwicklungskosten für die neue Architektur sowie Anpassungen für den Prozess.
Huh? AMD gliedert nur Speichercontroller und Cache aus. Die sind fast genauso groß, nur wird nVidia erheblich mehr Transistoren pro Fläche unterbringen, was dann auch mehr Leistung bedeuten wird.
Wieviele Tr/mm2 hat N31?
Und wieviele Tr/FLOP haben beide? Wie gut werden beide die Recheneinheiten bei welcher Leistungsaufnahme auslasten können?
Und wieviel Perf kommt da am Ende bei RZ und RT dabei raus?
robbitop
2022-09-18, 14:53:00
@fondness
Das lag aber am Zusammenbruch des Minings und den entsprechenden Abschreibungen brechend vollen Inventars. Das hat null mit einer regulären Situation zu tun.
fondness
2022-09-18, 14:54:25
@fondness
Das lag aber am Zusammenbruch des Minings und den entsprechenden Abschreibungen brechend vollen Inventars. Das hat null mit einer regulären Situation zu tun.
Das stimmt zwar, ebenso richtig ist aber, dass es auf absehbare Zeit keinen Mining-Boom mehr geben wird. Die fetten Jahre also auch nicht mehr kommen werden.
Wieviel der GPU-Markt hergibt ohne Mining wird man sehen. Die Zeit der absurd hohen Preise und der beinahe beliebig hohen Nachfrage ist jedenfalls vorbei.
robbitop
2022-09-18, 14:56:39
Du sagst es doch selbst, am Ende kann uns alles außer Preis/Leistung egal sein. Es ist völlig egal, wenn Nvidia SLI mit Chips ersetzt, die evtl unter 1000€ nicht mehr ökonomisch machbar sind. Auch AMD wird nach aktuellen Gerüchten bei N31 jetzt nicht wirklich groß werden, weil sonst die Kosten wohl zu hoch werden dürften. Du störst dich nur am großen Chip, weil du es nicht magst, dass es Leute gibt, die sich das leisten wollen. Aber das gibts bei Luxus immer.
Was zählt ist der Performancegewinn zum jeweiligen Preispunkt. Daran wird man die Konkurrenz in Relation eben messen.
Jepp und mit der Namensgebung ist ein gewisser Preisbereich historisch praktisch schon vorgegeben. Die 80er Serie Brand hat NV lange genug als Brand für einen gewissen Preisbereich entwickelt.
Mein Tipp: unter 700 USD wird es keine 4080 geben - auch nicht die 12 GB Version mit 192 bit.
robbitop
2022-09-18, 14:57:29
Das stimmt zwar, ebenso richtig ist aber, dass es auf absehbare Zeit keinen Mining-Boom mehr geben wird. Die fetten Jahre also auch nicht mehr kommen werden.
Wieviel der GPU-Markt hergibt ohne Mining wird man sehen. Die Zeit der absurd hohen Preise und der beinahe beliebig hohen Nachfrage ist jedenfalls vorbei.
Glaubst du dass NV andere Margen pro GPU ansetzen wird als bis dato? Halte ich für illusorisch.
OgrEGT
2022-09-18, 14:58:55
Jepp und mit der Namensgebung ist ein gewisser Preisbereich historisch praktisch schon vorgegeben. Die 80er Serie Brand hat NV lange genug als Brand für einen gewissen Preisbereich entwickelt.
Mein Tipp: unter 700 USD wird es keine 4080 geben - auch nicht die 12 GB Version mit 192 bit.
Zum Glück schauen wir hier nicht nur auf den Marken und Modellnamen :ugly:
robbitop
2022-09-18, 14:59:53
Ist völlig banane was wir tun. Wir sind irrelevant gemessen am Gesamtmarkt. Relevant ist nur Preis/Leistung.
fondness
2022-09-18, 15:02:55
Glaubst du dass NV andere Margen pro GPU ansetzen wird als bis dato? Halte ich für illusorisch.
Du tust so, als ob NV in einem luftleeren Raum operieren würde. Selbst wenn sie die selben Margen pro GPU ansetzen, werden sie bei weitem nicht mehr die Stückzahlen verkaufen und damit abzüglich Fixkosten zwangsläufig weniger Margen einstreifen. Bzw. sieht man ja auch jetzt schon, dass die Preise erheblich gesunken sind, was auch logisch ist, da seit längeren wieder mal das Angebot die Nachfrage übersteigt.
why_me
2022-09-18, 15:04:07
Chipfläche ist die einzige relevante Metrik. Und Chipfläche kostet Geld. Das Leute die Realität weiterhin ignorieren, ist ja nichts neues.
Das ist nicht unser Problem als Kunde. Wenn Nvidia meint um Leistung X erreichen zu können einen Chip mit 800mm² herstellen zu müssen. Ja, dann müssen sie einen Gewissen Preis verlangen, doch das können sie auch nicht immer so weiter machen. Die Karten werden nicht um jeden Preis gekauft (gut bei manchen schon).
Und interessiert doch nur, wie unl34shed schon schrieb: Preis, Leistung, Leistungsaufnahme.
Sind dafür große Chips notwendig, dann sieht man das in diesen 3 Punkten und muss das dann auch nicht versuchen mit der Chipgröße in 10 Jahre alten prozessen schön zu reden.
mehr Transistoren
BINGO ;D
BlacKi
2022-09-18, 15:05:17
Ist völlig banane was wir tun. Wir sind irrelevant gemessen am Gesamtmarkt. Relevant ist nur Preis/Leistung.aber nicht der name;)
AffenJack
2022-09-18, 15:05:21
Jepp und mit der Namensgebung ist ein gewisser Preisbereich historisch praktisch schon vorgegeben. Die 80er Serie Brand hat NV lange genug als Brand für einen gewissen Preisbereich entwickelt.
Mein Tipp: unter 700 USD wird es keine 4080 geben - auch nicht die 12 GB Version mit 192 bit.
Joa, das werden wir dann sehen. Für mich ergibt die 4080 12Gb immernoch keinen Sinn, denn ich glaube dass wir bei der 4090 1500$ sehen werden, 2000$ erst bei einer 4090TI. Sonst wird Nvidia nach dem Mining kaum verkaufen.
Dann hätte ne 4080 12Gb für 699$ aber nur ein minimal besseres Preis/Leistungsverhältnis als ne 4090. Das ergibt einfach keinen Sinn.
robbitop
2022-09-18, 15:05:37
@fondness
Abwarten. Das Geschäft lief auch ohne Mining schon prächtig.
Sie agieren nicht im Luftleeren Raum aber unter Druck werden sie vom einzigen Wettbewerber auch nicht gerade gesetzt. Die Machfrage war bis dato hoch genug für beide so dass kein Preiskampf nötig war. Ein dritter Mitspieler wäre langfristig gut für mehr Wettbewerb und damit für ein besseres P/L.
robbitop
2022-09-18, 15:09:28
aber nicht der name;)
Die Kausalkette ist: Die 80 wurde als Brand für einen gewissen Preisbereich im Massenmarkt aufgebaut. Entsprechend sind es mindestens 700 usd für die Krüppelvariante. 70 Produkt zum 80 Preis. Klar abwarten ob es wirklich so kommt - aber es sieht stark danach aus. Und wenn es so kommt dann heisst das nichts gutes für: das P/L.
Das Gleiche zieht sich in den Klassen darunter auch ab. Relativ wenig SPs in Relation zum Topdog im historischen Vergleich.
robbitop
2022-09-18, 15:10:53
Joa, das werden wir dann sehen. Für mich ergibt die 4080 12Gb immernoch keinen Sinn, denn ich glaube dass wir bei der 4090 1500$ sehen werden, 2000$ erst bei einer 4090TI. Sonst wird Nvidia nach dem Mining kaum verkaufen.
Dann hätte ne 4080 12Gb für 699$ aber nur ein minimal besseres Preis/Leistungsverhältnis als ne 4090. Das ergibt einfach keinen Sinn.
Tja ich sehs so kommen. Wenn es nicht so ist: wäre toll. Aber die Namensgebung für den 192 bit Krüppel spricht IMO schon eine recht eindeutige Sprache. 4080. Das macht man nicht ohne Grund.
Meridian12
2022-09-18, 15:11:21
Huh? AMD gliedert nur Speichercontroller und Cache aus. Die sind fast genauso groß, nur wird nVidia erheblich mehr Transistoren pro Fläche unterbringen, was dann auch mehr Leistung bedeuten wird.
Ja,da hast du Recht. Wobei diese Ausgliederung ja nur der Anfang ist und sollte nicht eine mögliche 7950xt 2 GPUs haben? (oder habe ich bei den vielen Meldungen was falsch verstanden?).
So oder so, denke ich werden Multi GPUs die Zukunft sein.
robbitop
2022-09-18, 15:12:48
Der ausgegliederte Kram skaliert sowieso nicht so toll mit Shrinks. I/O und Cache. Entsprechend ist es keine schlechte Idee das nicht im bleeding edge Prozess zu machen.
Meridian12
2022-09-18, 15:14:42
@fondness
Abwarten. Das Geschäft lief auch ohne Mining schon prächtig.
Sie agieren nicht im Luftleeren Raum aber unter Druck werden sie vom einzigen Wettbewerber auch nicht gerade gesetzt. Die Machfrage war bis dato hoch genug für beide so dass kein Preiskampf nötig war. Ein dritter Mitspieler wäre langfristig gut für mehr Wettbewerb und damit für ein besseres P/L.
Sicher?
Woher kam denn der Megaabsturz als der Mining Boom dem Ende entgegen ging?
Warum wurden die 3090 und ti auf einmal so billig? Bestimmt nicht weil sie den Händlern aus den Händen gerissen wurden.
Zumal ich in den letzten Monaten immer nur was von "vollen Lagern" hörte. Niemals die Leute kaufen aktuell wie blöd.
Meridian12
2022-09-18, 15:18:06
Die Kausalkette ist: Die 80 wurde als Brand für einen gewissen Preisbereich im Massenmarkt aufgebaut. Entsprechend sind es mindestens 700 usd für die Krüppelvariante. 70 Produkt zum 80 Preis. Klar abwarten ob es wirklich so kommt - aber es sieht stark danach aus. Und wenn es so kommt dann heisst das nichts gutes für: das P/L.
Das Gleiche zieht sich in den Klassen darunter auch ab. Relativ wenig SPs in Relation zum Topdog im historischen Vergleich.
Ich habe eventuell die mledung überlesen,nachdem die 4070 zur 4080 wurde.
Aber was wird denn jetzt die 4070?? Das was vorher als 4060 (ti?) geplant war?
Wird es überhaupt noch eine 4070ti geben? Leistungsmässig dürfte da ja ziemlich dünn werden zwischen der neuen 4080 12GB und einer 4070.
Oder macht NVIDIA dann einfach die 4070 mit 8GB und die 4070ti mit 12GB und fertig :D
robbitop
2022-09-18, 15:19:22
Sicher?
Woher kam denn der Megaabsturz als der Mining Boom dem Ende entgegen ging?
Warum wurden die 3090 und ti auf einmal so billig? Bestimmt nicht weil sie den Händlern aus den Händen gerissen wurden.
Zumal ich in den letzten Monaten immer nur was von "vollen Lagern" hörte. Niemals die Leute kaufen aktuell wie blöd.
Davon wird doch genug berichtet. Die Lager sind voll, weil eben mit der durch Mining erhöhten Nachfrage kalkuliert wurde. Und gleichzeitig überschwemmen Gebrauchtkarten den Markt.
Es wird gekauft - aber das Angebot ist weit größer als die Nachfrage. Schau dir die Preise an. EVGA hat hunderte von USD im Topbereich verloren weil die Preise gesenkt worden und sie noch Inventar aus der teuren Zeit hatten.
Die Medien sind voll mit Hintergrundinformationen dazu.
Das ganze ist halt eine Art Singularität sie nicht repräsentativ zu einer normalen Marktphase ist.
Meridian12
2022-09-18, 15:23:13
Aber warum dann der große Verlust von NVIDIA? Die Bordpartner haben doch alles schon gekauft und die haben das Problem den Kram loszuwerden. Oder müssen die Firmen NVIDIA erst bezahlen wenn sie die Karte an den Endkunden verkauft haben?
robbitop
2022-09-18, 15:24:55
Wertverluste des Inventar muss abgeschrieben werden und sie haben wohl ordentlich rebates und buyback mit den Kartenherstellern machen müssen.
basix
2022-09-18, 15:55:03
Ich habe eventuell die mledung überlesen,nachdem die 4070 zur 4080 wurde.
Aber was wird denn jetzt die 4070?? Das was vorher als 4060 (ti?) geplant war?
Wird es überhaupt noch eine 4070ti geben? Leistungsmässig dürfte da ja ziemlich dünn werden zwischen der neuen 4080 12GB und einer 4070.
Oder macht NVIDIA dann einfach die 4070 mit 8GB und die 4070ti mit 12GB und fertig :D
Die 4080 12GB soll AD104 im Maximalausbau tragen. Ergo wird eine z.B. 52 SM Variante davon zur 4070 und dazu etwas geringerer Takt. Vermutlich mit 10GByte, um sich noch ein wenig Abstand zur 4080 zu schaffen. Eine 4070 Ti sehe ich hierbei nicht. In dem Sinn hast du recht, 4060 Ti -> 4070.
Je nach Boost Takt ist die Leistungssteigerung zur 3070 ja nicht schlecht:
- 1.9 vs. 2.6 GHz
- 46 vs. 52 SM
- 8 vs. 10 GByte
- Total ~1.5...1.6x Performance --> ~3090 Niveau
- Chipfläche ~300mm2
Diese 4070 wird vermutlich auf dem 499$ Preispunkt der 3070 landen.
- 4080 12GB entsprechend auf ~649$
- 4080 16GB bei ~879$
- 4090 24GB bei ~1499$
P/L steigt um etwa 1.5x verglichen mit Ampere (3070, 3080 10GB). Bei der 4090 kurioserweise allenfalls sogar mehr.
Edit:
Wenn AD104 wirklich noch auf einer 4080 kommt, wird AD104 mMn noch auf einer 4060 (Ti) landen. Mit z.B. 46 SM und 10 GByte. Für z.B. 429$. Wann hatten wir das je? Selber Chip auf 60er, 70er und 80er :freak:
AD106 dann auf der 4050 Ti mit 34-36 SM und 8 GByte.
robbitop
2022-09-18, 16:06:59
Mal schauen aber ich fürchte es wird bei der 4090 und 4080 12 gb (wenn nicht sogar auch der 16 gb) etwas mehr sein.
Ich tippe auf 700 usd für die 12 gb - wenn nicht gar 8-10% mehr. Logik: ist eine 80er und es gab Inflation.
Dann die 16 gb in etwa un das teurer was sie mehr leistet und die 4090 sicherlich mindestens Inflationsnormiert zur Basis von 1500 usd. Ggf mehr weil der Performancesprung so groß ist. Ich hoffe es nicht und hoffe, du hast Recht.
basix
2022-09-18, 16:16:18
Stimmt, Inflation ist so eine Sache. Alle Preise um +10% nach oben korrigieren zu müssen kann gut sein. Wäre allerdings das allererste Mal, dass eine 70er den 500$ Preispunkt überschreitet. Gut, früher bekam man eine 70er für ~400$. Das hat sich mit Pascal und spätestens Turing aber nach oben verschoben.
robbitop
2022-09-18, 16:24:52
Unglücklicherweise scheinen Start UVPs nur zu steigen. Deshalb und wegen der Inflation vermute ich eine UVP >700 usd für die kleinste 4080 mit 12 gb.
Meridian12
2022-09-18, 16:43:31
Wobei die UVP Preise aktuell eh das Papier nicht wert sind, auf dem sie stehen.
Da kommt nämlich dann noch AMD ins Spiel.
Eine zB 800 Euro UVP 4080 12 GB wird ruckzuck im Strassenpreis weit unter UVP fallen, wenn eine AMD 7600 für 400 Euro 30% schneller wäre (fiktive Zahlen nur als Beispiel).
Wobei AMD natürlich in dem Beispielfall auch sagen könnte, NVIDIA verkauft ihren Müll für 800 Euro, also machen wir unsere schnellere 400 Euro Karte doch 250 Euro teurer und verkaufen sie für 650 statt 400.
robbitop
2022-09-18, 16:56:43
Momentan ist leider kein Maßstab wegen des Miningcrashs. Das geht schnell wieder vorbei.
Ravenhearth
2022-09-18, 17:52:10
Edit:
Wenn AD104 wirklich noch auf einer 4080 kommt, wird AD104 mMn noch auf einer 4060 (Ti) landen. Mit z.B. 46 SM und 10 GByte. Für z.B. 429$. Wann hatten wir das je? Selber Chip auf 60er, 70er und 80er :freak:
GK104 war in der GTX 690, 680, 670, 660 Ti und später sogar 660.
crux2005
2022-09-18, 18:00:25
4080 12GB ist eigentlich perfekt, um die eigentliche 4070er deutlich im Preis anzuheben - dumm sind die Burschen nun nicht.
Das passiert aber schon länger.
Erst war die 80 topdog, dann titan oder 80 ti, jetzt 90er. Und die Karten darunter werden auch immer "passend für NV" angepasst. Alles fürs Marketing. Die meisten (in USA evtl. mehr) schauen keine Reviews sondern kaufen einfach.
Sardaukar.nsn
2022-09-18, 18:49:39
Wann findet morgen eigentlich die Präsentation statt?
Im HLuxx Forum hat ein Alphacool Mitarbeiter privat geschrieben das sie die Wasserblöcke schon fertig hätten. Dann kanns ja hoffentlich bald losgehen.
iamthebear
2022-09-18, 19:02:28
Aber warum dann der große Verlust von NVIDIA? Die Bordpartner haben doch alles schon gekauft und die haben das Problem den Kram loszuwerden. Oder müssen die Firmen NVIDIA erst bezahlen wenn sie die Karte an den Endkunden verkauft haben?
Das Problem haben mehrere:
a) Die AIBs haben volle Lager mit Karten, die sie von Nvidia überteuert gekauft haben und jetzt deutlich unter Selbstkostenpreis abverkaufen müssen mit der Angst, dass die Preise mit Lovelace Launch und gebrauchten Mining Karten komplett verfällt.
b) Nvidia hat selbst noch einige Dies auf Lager, die ihnen nun kein AIB mehr abnimmt, da jeder volle Lager hat. Nvidia hat laut MLID versucht die AIBs damit zu erpressen, dass sie sonst kein Ada Kontingent mehr bekommen aber diese haben Nvidia anscheinend kollektiv den Stinkefinger gezeigt.
Laut Gerüchten ist folgender Kompromiss heraus gekommen:
.) Nvidia hat sich verpflichtet einen Teil der unverbauten GA102 Dies von den AIBs zurück zu nehmen und verkauft diese nun umgelabelt als 3070 Ti
.) Zusätzlich setzt Nvidia den Lovelace Preis zuerst einmal extrem hoch an, damit die AIBs die Chance haben die bereits fertigen GA102 Karten auch loszuwerden.
.) Bei GA104/6 gibt es hingegen keine Hilfe von Nvidia. Hier muss jeder AIB selbst schauen, wie er das Zeugs los wird bzw. möglicherweise haben sie sich auch verpflichtet die restlichen Dies von Nvidia abzunehmen.
Was Nvidias Bilanzen angeht so erleidet diese gleich 4 starke Dämpfer:
1.) Man macht wesentlich weniger Umsatz und somit auch Gewinn
2.) Man musste die GA102 Dies zurück nehmen und nun deutlich billiger verkaufen
3.) Da der Verkaufspreis der GA102 Dies stark gesunken ist musste man einen Teil des Lagerwertes abschreiben, da die 3080 eben nun keine 1000$ sondern nur mehr 700$ Karte ist.
4.) Man musste um die 600 Mio. $ (genauen Wert habe ich nicht mehr im Kopf sorry) Pönale an Samsung zahlen, da man weniger als die vereinbarte Anzahl an Wafern abgenommen hat.
Für die kommenden Quartale stellt sich dann ein weiteres Problem:
Man hat Unmengen an Kapazität für TSMC 5nm bestellt und zum Großteil auch schon im Voraus bezahlt. Diese ist auf Grund des Marktrückgangs auch nicht stornierbar sondern nur um maximal 3 Monate verschiebbar.
Gleichzeitig kann man Ada aber nicht zu massentauglichen Preisen launchen, da sonst Ampere liegen bleibt.
Da man die Miningumsätze wieder einmal gut verschleiert hat gibt es auf der anderen Seite wieder überzogene Erwartungen der Aktionäre. Dasselbe Problem hatte man auch schon mit Turing.
Ich denke Nvidia hat mit einem deutlich stärkeren Investitionsrückstau der Gamer gerechnet aber es sieht so aus als hätte der Großteil mittlerweile das Interesse verloren, was auch mit Inflation und Lockdown Ende zusammenhängt. Das Freizeitbudget ist kleiner und muss nun wieder mit Outdoor Aktivitäten geteilt werden.
Troyan
2022-09-18, 19:06:41
Wann findet morgen eigentlich die Präsentation statt?
Im HLuxx Forum hat ein Alphacool Mitarbeiter privat geschrieben das sie die Wasserblöcke schon fertig hätten. Dann kanns ja hoffentlich bald losgehen.
Dienstag, 17 Uhr.
Radeonfreak
2022-09-18, 19:47:13
.) Zusätzlich setzt Nvidia den Lovelace Preis zuerst einmal extrem hoch an.
Na hoffentlich nicht. ;(
iamthebear
2022-09-18, 19:56:54
Na hoffentlich nicht. ;(
Wenn ein AD104 Die mit nur halbem SI und 2.4x weniger SMs als 4080 bezeichnet wird, dann steht doch außer Frage, was Nvidia da preismäßig vor hat. Wohl kaum eine 300$ Karte damit bauen.
Edgecrusher86
2022-09-18, 20:14:26
Die RTX 4080 16GB wird dann wohl als Preiskracher gegen die RTX 3080 Ti gestellt - zu $999.
Slipknot79
2022-09-19, 00:23:13
Momentan ist leider kein Maßstab wegen des Miningcrashs. Das geht schnell wieder vorbei.
Dann einfach mal die Zeit vor Ampere checken, kein Corona, kein Mining, kein Chipmangel etc..:
Gingen die 2080Ti weg wie warme Semmeln? War der Preisbereich um 1200EUR damals attraktiv? Ich can mich noch an -10 bis -20% an den scalpernate outlet erinnern.
iamthebear
2022-09-19, 00:46:30
Ich darf hierbei nochmals daran erinnern, dass der UVP des 2080 Ti Referenzdesigns 999€ war. Nur die 2080 Ti FE hat 1199€ gekostet. Realer Straßenpreis aller AIB Modelle war jedoch durchgehend um die 1200€ bis kurz vor Ampere Launch.
Das hat aber absolut 0 damit zu tun, ob sich die Karten nun verkaufen oder nicht, sondern hängt nur davon ab welchen Preis Nvidia für seine BOM Kits an die AIBs verlangt. Bei üblichen Margen um die 10% wird kein AIB gewillt sein auf Dauer mit Verlust zu verkaufen (und unter 10% Marge bedeutet schon Verlust nach Berücksichtigung aller Kosten). Das wird nur jetzt bei Ampere widerwillig geschluckt, da man gerade noch fette Gewinne mit dem Mininggeschäft gemacht hat und somit einen kleinen Polster hat.
Rampage 2
2022-09-19, 01:17:17
Die RTX 4080 16GB wird dann wohl als Preiskracher gegen die RTX 3080 Ti gestellt - zu $999.
Wohl eher 799 USD - das Ding ist erheblich beschnitten und es klafft eine gewaltige Lücke zum naechsthöheren Modell RTX 4090, welche fast 70% mehr Shadereinheiten und fast 60% mehr GPCs hat. Und dazu noch deutlich mehr Bandbreite.
Ich hoffe sehr, dass spaeter noch eine "RTX 4080 Super" für 899 USD mit vollem GA103-Chip (84 SMs), höherem TDP und Boosttakt sowie schnellerem Speicher (24Gbps GDDR6X oder 28Gbps GDDR7) nachfolgen wird.
Ausserdem muss Nvidia auch die Euro-Preise berücksichtigen: bei dem aktuellen miserablen EUR-USD-Kurs würden 999 USD hier in Europa satte 1200 Euro ergeben - und das für einen kastrierten Chip (RTX 4080), dem die 4090 performancemaessig um 40-50% davonrennen wird:crazy2:
Sogar die von mir genannten "nur" 799 USD würden hier in Europa 950-1000 Euro ergeben!
R2
crux2005
2022-09-19, 01:27:55
MLID meint Lovelace ist teuer (für AIBs). Die Episode ist mit Marc (https://www.forum-3dcenter.org/vbulletin/member.php?u=23862) von Golem (ex-PCGH). :P
5uK_VUxi5Zo
Wann findet morgen eigentlich die Präsentation statt?
Twitch.tv/Nvidia
oder Youtube
mYuRDB65Evw
läuft der 40 Stunden Countdown :freak:.
Edgecrusher86
2022-09-19, 05:28:00
VC: NVIDIA confirms GeForce 40 series based on Ada architecture and new GeForce RTX logo (https://videocardz.com/newz/nvidia-confirms-geforce-40-series-based-on-ada-architecture-and-new-geforce-rtx-logo)
https://abload.de/img/screenshot2022-09-190c0d8d.png https://abload.de/img/screenshot2022-09-19013fz8.png
Aus der morgigen Präsentation - na mal sehen, ob die Ti nicht doch schon zeitnah kommt oder das nur ein Gag war....;)
Wohl eher 799 USD - das Ding ist erheblich beschnitten und es klafft eine gewaltige Lücke zum naechsthöheren Modell RTX 4090, welche fast 70% mehr Shadereinheiten und fast 60% mehr GPCs hat. Und dazu noch deutlich mehr Bandbreite.
Ich hoffe sehr, dass spaeter noch eine "RTX 4080 Super" für 899 USD mit vollem GA103-Chip (84 SMs), höherem TDP und Boosttakt sowie schnellerem Speicher (24Gbps GDDR6X oder 28Gbps GDDR7) nachfolgen wird.
Ausserdem muss Nvidia auch die Euro-Preise berücksichtigen: bei dem aktuellen miserablen EUR-USD-Kurs würden 999 USD hier in Europa satte 1200 Euro ergeben - und das für einen kastrierten Chip (RTX 4080), dem die 4090 performancemaessig um 40-50% davonrennen wird:crazy2:
Sogar die von mir genannten "nur" 799 USD würden hier in Europa 950-1000 Euro ergeben!
R2
Man wird sehen - oder doch erstmal $999 und später die 4080 Ti zum gleichen Preis oder wieder $1199.
basix
2022-09-19, 08:37:15
MLID meint Lovelace ist teuer (für AIBs)
MLID hat es in einem anderen Video gut gesagt: Da man noch viel Ampere Stock hat, muss man bei Lovelace mit einem hohen Preis einsteigen. Sonst drückt man den Preis der eigenen GPUs. Evtl. auch ein Grund, wieso das Ding 4080 12GB heisst: Um den hohen Preispunkt zu rechtfertigen. Ich denke Nvidia würde das Ding schon gerne als 4070 rausbringen (siehe 2080 Ti -> 3070 oder hier 3090 -> "4070" / 4080 12GB). Mit der "8" im Namen versucht man aber, den Preis möglichst hoch zu halten.
Wird interessant, was RDNA3 macht. N33 wurde vor langem ja mit 6900XT als Performance-Ziel angegeben. Das wird mMn schwierig zu erreichen sein (6800 non-XT hören sich realistischer an), aber falls AMD es doch schaffen würde, wäre eine 4080 12GB nicht viel schneller. Und andernfalls wäre eine 4070 10GB das nächste "Opfer" von N33. AMD würde Nvidia damit ziemlich unter Druck setzen können (die 128bit und vermutlich 8GByte VRAM von N33 machen mir hier aber noch etwas Bauchweh)
Sonyfreak
2022-09-19, 08:48:59
Ich hoffe sehr, dass spaeter noch eine "RTX 4080 Super" für 899 USD mit vollem GA103-Chip (84 SMs), höherem TDP und Boosttakt sowie schnellerem Speicher (24Gbps GDDR6X oder 28Gbps GDDR7) nachfolgen wird.Mhm, diese Karte würde mir auch gefallen. Mal sehen ob Nvidia tatsächlich irgendwann einen unbeschnittenen GA103-Chip ins Desktopsegment bringt.
mfg.
Sonyfreak
iamthebear
2022-09-19, 09:19:23
Wird interessant, was RDNA3 macht. N33 wurde vor langem ja mit 6900XT als Performance-Ziel angegeben. Das wird mMn schwierig zu erreichen sein (6800 non-XT hören sich realistischer an), aber falls AMD es doch schaffen würde, wäre eine 4080 12GB nicht viel schneller. Und andernfalls wäre eine 4070 10GB das nächste "Opfer" von N33. AMD würde Nvidia damit ziemlich unter Druck setzen können (die 128bit und vermutlich 8GByte VRAM von N33 machen mir hier aber noch etwas Bauchweh)
Wenn die 200mm² N6 von Angstronomic stimmen, dann kann 6900 XT Performance eigentlich ausgeschlossen werden. Selbst 6800 non XT halte ich für unrealistisch. Wenn man die 6700 XT packt hat man schon eine erstaunliche Arveit geleistet: Von 337mm² auf 200mm² mit nur 1.1x Shrink. Selbst wenn man nur auf 6600 XT landet und mehr RT/IO Features bietet wäre das immer noch eine Verbesserung.
Um ehrlich zu sein sehe ich eher N32 auf einer Augenhöhe mit N21 weshalb dieser auch deutlich später kommt und N31 etwas über Full AD103.
Nazar
2022-09-19, 09:35:08
Der GCD Teil von N21 hatte um die 400mm², auf N5 geshrinked wären das ca. 250mm² bei 1.6x Skalierung.
Das N31 GCD hat angeblich nur 300mm². Da auch nur annähernd 3x Performance zu erwarten halte ich für komplett realitätsfremd. Normalerweise bewegen sich Verbesserungen bei Performance/Transistor im Bereich von maximal 30% aber da muss die Architektur schon echt mies sein siehe Vega vs. RDNA.
Laut Semianalysis (bzw. Locuza) sind es 75mm² für 384bit bei GA102 für die PHYs (12.5mm²/64 Bit) + 6*2mm² für die Memory Controller.
Bei N22 unter N7P sind es schon nur mehr
Bei AMD sind es nur 9.7mm² für 64Bit PHYs also shrinken die Teile anscheinend sehr wohl noch etwas.
Aber ja kann sein, dass es keine 60mm² sondern 80mm² sind. Ist ja nur eine grobe Schätzung.
Ich würde Nvidia einmal unterstellen, dass sie nicht komplett unfähig sind. Ja der L2 bei A100 war von der Dichte deutlich niedriger. Das liegt aber daran, dass dessen Bandbreite auch viel höher ist damit die L2 Bandbreite den schnellen HBM dahinter nicht ausbremst. Für eine Gaming GPU denke ich, dass das ganz anders gemacht wird.
Einmal davon abgesehen: Die 96MB SRAM selbst haben bei N5 nur 17mm². Der Rest der L2 Fläche ist Ansteuerungslogik und die shrinked mit N5 sehr gut.
In der Gesamtansicht ist das für mich nicht schlüssig, wenn ich dann auch noch die extreme Steigerung der Verlustleistungen der Ada Serie ansehe.
Würde man rein von der Größe der GPU bei nV ausgehen und von da aus auf die mögliche Leistung spekulieren, und dazu die enorme Steigerung der Verlustleistung noch oben draufpacken, plus des Doppel-Shrinks, müsste nV bei !!!!mindestens!!!! 3-facher Performance herauskommen, wenn man den Foren-Spekulationen zu Ada so folgen würde. :wink:
Es ergibt derzeit überhaupt keinen Sinn, alleine von der Größe auf eine mögliche Leistung zu schließen, dazu sind die Konzepte beider Hersteller viel zu unterschiedlich.
Wenn AMD wirklich so schlecht ist, wie derzeit vermutet wird, und "bigger is better" stimmen sollte, dann muss die Frage gestattet sein, warum nV die Verlustleistung, !!!!vollkommen!!!! unnötig (wenn die Vermutungen stimmen), so extrem in die Höhe prügelt?
AMD hat damit also angeblich nur maximal 1.6 Mehrleistung overall (spekuliert über die kolportierte Chipgröße).
nV angeblich über den Doppelschritt zu 5nm und der Chipgröße dann schon so, bei identischer Verlustleistung !!!!mindestens!!!! eine Mehrleistung von Faktor 2.
Warum zur Hölle sollte nV (denen das EU-Energiedesaster bestimmt nicht entgangen ist) dann ohne Not die Verlustleistung ist Sphären heben, die (sollte die aktuelle These auch nur im Ansatz stimmen) so vollkommen unnötig wäre? :confused:
Viele der Forenspekulationen sehen Ada schon bei mindestens 2-facher Performance per Watt, alleine wegen der derzeitigen Benchmarks.
Es mag ja alles nachher so kommen, nur fehlt mir dann der Glaube dazu, dass:
1. die Verlustleistung bei nV so hoch ist
oder
2. AMD wirklich so "schlecht" ist, wie es einige "vorrechnen".
Dass die Verlustleistung bei Ada exorbitant ist, kann man aber gut an den Kühlern erkennen (4090, 5 Slotdesign (inkl. Lüfter auf der Rückseite)).
Hier passt einfach so vieles nicht zusammen, sind so viele offensichtliche Widersprüche vorhanden, dass ich diese Spekulation, zur möglichen Leistung von Ada oder RDNA3 schon sehr an den Haaren herbeigezogen sehe.
Aber man wird es morgen sehen. ;)
Nazar
2022-09-19, 09:51:43
Stimmt, Inflation ist so eine Sache. Alle Preise um +10% nach oben korrigieren zu müssen kann gut sein. Wäre allerdings das allererste Mal, dass eine 70er den 500$ Preispunkt überschreitet. Gut, früher bekam man eine 70er für ~400$. Das hat sich mit Pascal und spätestens Turing aber nach oben verschoben.
Die Preise einfach nur um 10% nach oben hin anzuheben, wird nicht reichen, da der Euro auch gewaltig gegenüber dem Dollar verloren hat.
Es sind jetzt schon ungefähr 20% Mehrkosten und der Euro fällt rasant weiter.
Die Frage, die sich die Händler derzeit stellen müssen (und EVGA wahrscheinlich schon gemacht hat), ob das nicht ein gewaltiges Verlustgeschäft wird.
Man darf auch nicht vergessen, dass Deutschland mit Abstand der größte Abnehmer von GPUs und CPUs im EU Gaming-Markt war. Während weltweit eher Zurückhaltung (Mining außen vor) herrschte, "boomte" es in "Good old Germany".
Sind die Preise zu hoch, bleiben die Karten in den Regalen liegen.
Gerade nVidia hat ein gewaltiges Problem mit den Margen, die sie den Händler noch übrig lassen. Es könnte für nVidia ein Desaster werden, wenn sie versuchen das so weiter zu handhaben wie bisher.
Eventuell gibt es jetzt mehr Marge für die Händler (das wäre dann auch eine mögliche Begründung für die Korrektur nach unten der zu erwartenden Gewinne).
Ich bin gespannt, wie Sie die Preise gestalten werden.
Viele Menschen zahlen jetzt so viel mehr für die Energierechnung, dass ich nicht glaube, dass dieses Jahr ein gutes Jahr für AMD und nV wird.
mboeller
2022-09-19, 11:44:07
upps...
robbitop
2022-09-19, 12:09:43
Dann einfach mal die Zeit vor Ampere checken, kein Corona, kein Mining, kein Chipmangel etc..:
Gingen die 2080Ti weg wie warme Semmeln? War der Preisbereich um 1200EUR damals attraktiv? Ich can mich noch an -10 bis -20% an den scalpernate outlet erinnern.
Es ist nicht unnormal, dass kurz vor dem Ende einer Generation ein Abverkauf stattfindet. Die Verkaufszahlen sind weder aktuell noch damals für uns einsehbar insofern kann man das wohl hier schwer vergleichen.
Platos
2022-09-19, 12:28:01
Wobei die UVP Preise aktuell eh das Papier nicht wert sind, auf dem sie stehen.
Da kommt nämlich dann noch AMD ins Spiel.
Eine zB 800 Euro UVP 4080 12 GB wird ruckzuck im Strassenpreis weit unter UVP fallen, wenn eine AMD 7600 für 400 Euro 30% schneller wäre (fiktive Zahlen nur als Beispiel).
Wobei AMD natürlich in dem Beispielfall auch sagen könnte, NVIDIA verkauft ihren Müll für 800 Euro, also machen wir unsere schnellere 400 Euro Karte doch 250 Euro teurer und verkaufen sie für 650 statt 400.
Keiner der beiden Teilnehmer wird eine Karte anbieten, die enorm viel besser im Preisleistungsverhältnis ist. Sowas wie 400 und 800 wirds nicht geben. Nicht mal 600 und 800 bei gleicher Leistung. Vergiss es.
Ergo wird, wenn der Listenpreis bei 800 wäre, auch nicht "ruckzuck" irgendwas im Preis fallen.
Wann bitte gab es in den letzten 10 Jahren Grafikkartengeschichte jemals eine Grafikkarte von nvidia, die im Preis "ruckzuck" gefallen ist ? Meines Wissens nach keine einzige. Nicht mal solche Krüppel wie die 970.
Deine Idee ist also ziemlich realitätsfremd.
davidzo
2022-09-19, 13:07:58
Wenn AMD wirklich so schlecht ist, wie derzeit vermutet wird, und "bigger is better" stimmen sollte, dann muss die Frage gestattet sein, warum nV die Verlustleistung, !!!!vollkommen!!!! unnötig (wenn die Vermutungen stimmen), so extrem in die Höhe prügelt?
Es kann schon sein dass Nvidia dort die Weichen schon gestellt hatte bevor man wusste wie "mainstreamig" AMD an die nächste Gen herangeht. Und damit meine ich nicht die SKU Taktraten, sondern das prozess-Feintuning und das power delivery Design.
Es gibt ja Leute die munkeln dass Nvidias "N4" ein verkappter N5HPC Prozess ist, optimiert auf hohe drive currents, nicht auf mehr Density als N5.
Es gab doch auch dieses Interview kurz nach dem Ampere Launch wo ein Technical marketing Manager bei Nvidia erklärte dass man mit Samsung zusammen den 8nm Prozess auf maximales Scaling mit Current und Voltage ausgelegt hat. Also höherer Verbrauch als notwendig, dafür aber besseres Scaling mit mehr Voltage.
Und in der Tat ist der Zuwachs an performance zwar nicht linear bei Ampere, wenn man das PPT einer 3080 von 320 auf 350 erhöht, aber wesentlich besser als wenn man dasselbe bei einer 6900xt tut.
Könnte sein dass wir das bei Ada einfach wieder haben und es daher nicht lohnt die karten in einem niedrigen Sweetspot zu takten, wenn man damit soviel potential auf dem Tisch liegen lässt.
Wann bitte gab es in den letzten 10 Jahren Grafikkartengeschichte jemals eine Grafikkarte von nvidia, die im Preis "ruckzuck" gefallen ist ? Meines Wissens nach keine einzige. Nicht mal solche Krüppel wie die 970.
Deine Idee ist also ziemlich realitätsfremd.
Da muss man vielleicht etwas länger zurück gucken, aber mir fällt aus dem Kopf die FX5900 / NV35 ein.
Gelauncht für 399$ und nur wenige Wochen später für 200$ als 5900xt verramscht, da die nvidia dringend etwas besseres als die 5700Ultra gegen die starke 9600xt stellen musste.
Der Preisverfall ist noch heftiger wenn man bedenkt dass der ursprüngliche NV30 Chip nur 3 Monate früher für ebenfalls 399$ gelauncht ist und rund 25% langsamer war. Schon der Nv35 der 5900 war also 25% billiger innerhalb von nur 3 Monaten, obwohl es ein größeren chip ist der ein komplexeres 256bit PCB benötigte. Das nenne ich mal eine goldene Zeit für Consumer!
Cine-FX hat aber genau deswegen auch einen ganz besonderen Spot in der nvidia Historie. Denke kaum dass sich sowas wiederholt.
Tomahawk
2022-09-19, 13:30:19
Keiner der beiden Teilnehmer wird eine Karte anbieten, die enorm viel besser im Preisleistungsverhältnis ist. Sowas wie 400 und 800 wirds nicht geben. Nicht mal 600 und 800 bei gleicher Leistung. Vergiss es.
Ergo wird, wenn der Listenpreis bei 800 wäre, auch nicht "ruckzuck" irgendwas im Preis fallen.
Wann bitte gab es in den letzten 10 Jahren Grafikkartengeschichte jemals eine Grafikkarte von nvidia, die im Preis "ruckzuck" gefallen ist ? Meines Wissens nach keine einzige. Nicht mal solche Krüppel wie die 970.
Deine Idee ist also ziemlich realitätsfremd.
Das gab es bei der GTX 280, siehe z.B. https://www.zdnet.de/39193479/nvidia-senkt-preise-fuer-gtx-280-grafikchips/
Weniger als 1 Monat nach Release ging der Preis von 700 USD auf 500 USD nach unten. Wieso sollte sich das nicht wiederholen? Wenn ein Hersteller technisch deutlich vorne liegt, dann kann er den Wettbewerber deutlich unterbieten. In den letzten Jahren ist das nicht passiert, da nVidia technisch sehr deutlich vorne lag. Jetzt ist der Unterschied aber deutlich geringer.
Die GTX 970 kostete doch knapp über 300 Euro - wieso (und wie) hätte nVidia da den Preis um mehrere Hundert Euro senken sollen?
Platos
2022-09-19, 13:50:21
Das gab es bei der GTX 280, siehe z.B. https://www.zdnet.de/39193479/nvidia-senkt-preise-fuer-gtx-280-grafikchips/
Weniger als 1 Monat nach Release ging der Preis von 700 USD auf 500 USD nach unten. Wieso sollte sich das nicht wiederholen? Wenn ein Hersteller technisch deutlich vorne liegt, dann kann er den Wettbewerber deutlich unterbieten. In den letzten Jahren ist das nicht passiert, da nVidia technisch sehr deutlich vorne lag. Jetzt ist der Unterschied aber deutlich geringer.
Warum ? Weil es keine Hinweise darauf gibt, dass nvidia besonders viel schlechter ist, wie AMD.
Die GTX 970 kostete doch knapp über 300 Euro - wieso (und wie) hätte nVidia da den Preis um mehrere Hundert Euro senken sollen?
Wo habe ich was von mehreren hundert Euro gesagt? Es ging um Preisverfall. Das betrachtet man prozentual, nicht absolut.
Tomahawk
2022-09-19, 13:57:21
Warum ? Weil es keine Hinweise darauf gibt, dass nvidia besonders viel schlechter ist, wie AMD.
Es ist schon passiert - wie mein Beispiel gezeigt hat. Auch bei CPUs hat AMD in den letzten Jahren viel Druck auf Intel ausgeübt. Der Ryzen 1800 war kaum schlechter als der 6900X und deutlich günstiger. Der 3950X bzw. 5950X sind auch "Schnäppchen" im Vergleich zum 9980XE/10980XE.
Man kann darüber sprechen, wie wahrscheinlich eine sehr aggressive Preisgestaltung von AMD ist - aber "realitätsfremd" ist es sicherlich nicht.
Edit: Falls du dich fragst, wieso AMD deutlich bessere Preise bieten sollte: Marktanteilgewinnung bzw. Faktoren, die damit zusammenhängen (z.B. Folgeverkäufe, Effekte auf Reputation usw).
Platos
2022-09-19, 14:02:03
Das es schon passiert ist, sagt doch gar nichts :D
Das könnte man anmerken, wenn es zusätzliche Argumente gibt, aber doch nicht, wenn es bisher gar keine gibt.
Wenns einmal passiert ist, ist es also wahrscheinlich, dass es genau jetzt wieder passiert? Darum gehts doch. Warum sollte es genau jetzt passieren? Weils schonmal passiert ist, beantwortet diese Frage nicht.
Tomahawk
2022-09-19, 14:09:40
Es ist ein spekulativer Eiertanz - warum sollte es jetzt passieren? Weil AMD mit Lisa Su gerade im Highend-CPU-Markt den Konkurrenten durch deutlich bessere Preise sehr stark unter Druck gesetzt hat (und es immer noch tut). Es ist doch möglich, dass diese Strategie auch auf Grafikkarten übertragen wird. Zum Teil hat man das auch gemacht (RTX 3900 vs. 6900 XT) - hier kann man aber sicherlich darüber streiten, ob die AMD-Karte wirklich gleichwertig war.
Dural
2022-09-19, 14:14:42
AMD hat günstig CPU Preise? Die Erhöhung nicht mitbekommen? So das Intel jetzt auch rauf geht?
Das Märchen das AMD billig ist gibt es seit 20 Jahren, Fakt ist sie richten die Preise seit jeher dem Markt aus, wie zu 99,9% alle anderen Firmen auch.
AMD musste eine Zeitlang ihre Hardware zu Spotpreisen verkaufen, weil es keiner haben wollte, so einfach ist das.
Edit:
Der Abverkauf der NV Karten hat vor Monaten begonnen! Bei uns sind praktisch keine 3090 mehr ab Lager lieferbar, es sind nur noch bis ca. 3070 Karten gut lieferbar, also genau der Bereich der dieses Jahr Leistungstechnisch ziemlich sicher nicht mehr abgedeckt wird.
DrFreaK666
2022-09-19, 14:18:35
Naja, AMD dürfte sich mit 20% Marktanteil sicher nicht zufrieden geben
Tomahawk
2022-09-19, 14:21:24
@Dural
Ich spreche explizit von Highend-Chips. Der Ryzen 1800 war das DEUTLICH bessere Angebot als Intels 6900K. Und auch Intel HEDT-CPUs (9980XE/10980XE) sind mit AMDs 16-Kernen quasi obsolet geworden. AMD hat Intel den ganzen HEDT-Markt abgegraben.
In einem Punkt sind wir uns aber einig: Das wird nicht aus Nächstenliebe, sondern weil sie Marktanteile gewinnen wollen. Und im Highend-Bereich sind die Margen größer.
robbitop
2022-09-19, 14:23:07
Ging es hier nicht um Grafikkarten?
Cubitus
2022-09-19, 14:25:44
AMD wird sicher gute Karten auf den Markt bringen.
Die RT-Leistungskrone wird aber weiterhin bei Nvidia liegen.
Sollte die 4090 für 2000 Euro UVP angeboten
und für bis 2,5k-3K gehandelt werden.
Dann hält AMD für 1,5k die Hand auf.. (Sofern der Abstand zu der 4090 nicht so groß ist) der Handel will dann 1700 Euro.
Das AMD altruistisch unterwegs ist, vergesst es ;D
Pumpi74
2022-09-19, 14:39:46
Die Preise einfach nur um 10% nach oben hin anzuheben, wird nicht reichen, da der Euro auch gewaltig gegenüber dem Dollar verloren hat.
Es sind jetzt schon ungefähr 20% Mehrkosten und der Euro fällt rasant weiter.
Also erstmal, der Euro fällt nicht rasant weiter. Seit dem EZB Zinsschritt nach oben hat er sich stabilisiert. Des weiteren muss man bedenken das der Euro nicht nur schwächer geworden ist, sondern der Dollar im Weltvergleich deutlich zugelegt hat. Die chinesische Währung und der taiwanesische Dollar hat gegenüber dem Euro nicht mal 10% gewonnen. Wenn man bedenkt das die Grafikkarten aus diesem Raum kommen dann muss man feststellen das nVidia die Preise aus Währungsgründen nicht um 20% anheben muss. Es reichen eigentlich auch 7-8% Aufschlag.
davidzo
2022-09-19, 15:55:19
Das Märchen das AMD billig ist gibt es seit 20 Jahren, Fakt ist sie richten die Preise seit jeher dem Markt aus, wie zu 99,9% alle anderen Firmen auch.
Das bezieht sich auch nicht auf jedes Segment, sondern vor allem auf Highend.
Nimm es aus den Worten von Bob Swan, Intel CEO der die Beziehung von Matisse zu coffee lake refresh beschreibt:
AMD offers high performance CPUs, posing direct competition to Intel in both our core client and datacenter CPU businesses.
und sein competitive expert steve collins dazu:
And on price, we expect their pricing to be significantly below ours. So they'll likely get good performance-per-dollar.
Aber eben auch folgendes:
While the press often likes to focus on Intel's top price points being higher than AMD's top price, few people recognize that Intel also offers lower entry pricing than AMD.
Es macht daher keinen Sinn eine Preisführerschaft in allen Segmenten zu erwarten. AMD hatte bisher gar nicht vor bei CPUs im Lowend zu konkurrieren. Das wird sich in Zukunft ändern, da man dieses Jahr auch Ryzen 7100, 7200 etc. series mit Zen1 und Zen2 mit ins Portfolio aufnimmt.
Ein Segment wo die Preisführerschaft besonders sichtbar ist ist im Mobile.
Man bekommt 5800U Labtops mit 8C/16T zum einem Preis (650€) bei dem es bei Intel lediglich veraltete 1035G7 CPUs it 4C/8T gibt.
Dasselbe beim 5800/5900H, in dieser Klasse wird weiterhin der olle 10750h angeboten, selbst in kombi mit rtx3000er Karten, weil Alderlake-P/H die Systemkosten einfach zu sehr nach oben treibt.
Btw, mit 4Ghz sehe ich absolut keinen Grund wieso Navi31 nicht mit AD102 direkt konkurrieren können sollte. Das ist sogar von der Rechenleistung in Tflops absolut vergleichbar mit Full-AD102 @2,7Ghz.
Sollte an dem 4Ghz Gerücht etwas dran sein natürlich...
basix
2022-09-19, 17:30:21
Wenn die 200mm² N6 von Angstronomic stimmen, dann kann 6900 XT Performance eigentlich ausgeschlossen werden. Selbst 6800 non XT halte ich für unrealistisch. Wenn man die 6700 XT packt hat man schon eine erstaunliche Arveit geleistet: Von 337mm² auf 200mm² mit nur 1.1x Shrink. Selbst wenn man nur auf 6600 XT landet und mehr RT/IO Features bietet wäre das immer noch eine Verbesserung.
Um ehrlich zu sein sehe ich eher N32 auf einer Augenhöhe mit N21 weshalb dieser auch deutlich später kommt und N31 etwas über Full AD103.
Dann begründe uns bitte, wieso 32 CU mit >3.0 GHz und verdoppelten ALUs nur an 40 CUs der alten Generation mit ~2.5 GHz heranreichen sollen (oder alternativ nur 1.3x schneller als 32 CUs von N23). Die Steigerung pro CU wäre in diesem Fall faktisch Null, obwohl man verdoppelte Compute Ressourcen hat. Wieso sollte 6700XT also realistisch sein? Und dann noch das Nachtreten, es wäre gut nur schon 6600XT Niveau zu erreichen? :freak: Wir reden hier von 1080p Gaming und 1440p als Option und nicht 4K.
Edit:
Nur zum präzisieren: N33 @ 3.2 GHz Takt hätte doppelt so viele TFLOPS wie eine 6700XT
Btw, mit 4Ghz sehe ich absolut keinen Grund wieso Navi31 nicht mit AD102 direkt konkurrieren können sollte. Das ist sogar von der Rechenleistung in Tflops absolut vergleichbar mit Full-AD102 @2,7Ghz.
Sollte an dem 4Ghz Gerücht etwas dran sein natürlich...
Habe ich was verpasst? :freak:
Edit:
OK, habs im RDNA3 Thread vorhin gesehen. Wäre extrem krass, glauben tue ich es noch nicht. Zumindest nicht mit normaler Kühlung.
Platos
2022-09-19, 17:54:22
Im RDNA3 Thread gibts ein Post zu nem Twitterer, der behauptet, RDNA3 kann "almost 4Ghz GPU".
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13111454#post13111454
Vlt. ist das ja möglich, aber dann sicherlich nicht unter normalen Bedingungen. Was dann "fast 4GHZ" heisst, weiss auch niemand. 3.8GHz ? 3.9? 3.95?
Aber ich meinte es gab schon früher Gerüchte zu ~3.5GHz bei RDNA3. Also könnte schon sein, wird nur nie ein normalsterblicher sehen vermutlich. Vlt. ja sogar unter Stickstofkühlung. Der Bauer hat auch 3.2GHz mit ner 6900XT geschafft.
basix
2022-09-19, 17:55:19
@Platos:
Danke
Meridian12
2022-09-19, 18:00:16
AMD wird sicher gute Karten auf den Markt bringen.
Die RT-Leistungskrone wird aber weiterhin bei Nvidia liegen.
Sollte die 4090 für 2000 Euro UVP angeboten
und für bis 2,5k-3K gehandelt werden.
Dann hält AMD für 1,5k die Hand auf.. (Sofern der Abstand zu der 4090 nicht so groß ist) der Handel will dann 1700 Euro.
Das AMD altruistisch unterwegs ist, vergesst es ;D
Und dann verkauft NVIDIA 100 000 Karten für 2,5 bis 3000 Euro und AMD 50 000 Karten für 1700 Euro. Pro Monat versteht sich natürlich :rolleyes::rolleyes:
Ja, Millionen Spieler warten nur drauf 1500 Euro+ für Grafikkarten auszugeben :wink:
r3ptil3
2022-09-19, 18:26:08
Eine RTX 4090 wird zu diesem Zeitpunkt auf keinen Fall für 2000$ UVP vorgestellt werden.
Wenn die Leaks tatsächlich stimmen mit der Leistung, dann wirds 1400-1600.
Wobei selbst das nicht klug ist, da dann der Wertverfall auch bei diesem Modell hoch sein wird, was gerade für eine Marke wie Nvidia alles andere als gut ist.
Sinnvoll wäre 1000-1200$.
Platos
2022-09-19, 18:28:41
Eine RTX 4090 wird zu diesem Zeitpunkt auf keinen Fall für 2000$ UVP vorgestellt werden.
Wenn die Leaks tatsächlich stimmen mit der Leistung, dann wirds 1400-1600.
Wobei selbst das nicht klug ist, da dann der Wertverfall auch bei diesem Modell hoch sein wird, was gerade für eine Marke wie Nvidia alles andere als gut ist.
Sinnvoll wäre 1000-1200$.
Was hat der Werteverfall damit zu tun? Kann doch nvidia egal sein?
Die 1080Ti hat die Titan auch alt aussehen lassen. Nur die Leute mit künstlichem Zwang zum Vollausbau hätten das noch der 1080Ti vorgezogen. Also dass nvidia nicht kümmert, haben sie genug oft bewiesen.
Linmoum
2022-09-19, 18:29:05
Nvidia wird die 4090 nicht billiger bepreisen als die 3090. Die Produktionskosten sind nicht nur wegen der aktuellen globalen Lage deutlich höher, sondern allein schon die Prozesskosten selbst.
Selbst bei ebenfalls $1499 wie die 3090 dürfte die Marge niedriger sein als dank Samsungs 8nm.
r3ptil3
2022-09-19, 18:32:06
@Platos
Ein derart starker Wertverfall führt nachweislich zu einer starken Zurückhaltung der Kaufbereitschaft.
@Linmoun
Das spielt bei solchen astronomischen Preise praktisch keine Rolle.
Die RTX 3090 Ti hats vorgemacht. Bei solchen verkauften Stückzahlen, würde die RTX 4090 ein Desaster werden. Darum, der Preis wird gleich bleiben bzw. sinken.
Linmoum
2022-09-19, 18:34:01
Natürlich spielt das eine Rolle, zumal es zwischen 3090 und 3090Ti UVP auch noch mehrere hundert Dollar Spielraum gibt.
Jensen und Nvidia werden ganz sicher nicht den Preis niedriger ansetzen und damit die Margen gefährden. Einfach Nein.
AffenJack
2022-09-19, 18:48:08
@Platos
Ein derart starker Wertverfall führt nachweislich zu einer starken Zurückhaltung der Kaufbereitschaft.
@Linmoun
Das spielt bei solchen astronomischen Preise praktisch keine Rolle.
Die RTX 3090 Ti hats vorgemacht. Bei solchen verkauften Stückzahlen, würde die RTX 4090 ein Desaster werden. Darum, der Preis wird gleich bleiben bzw. sinken.
Wieso sollte der Wertverfall bei der 4090 für 1500$ so hoch werden?
Das Ding wird mehr oder weniger 2 Jahre auf dem Preis bleiben und danach erst ordentlich runter gehen mit der nächsten Gen. Wenn du glaubst, dass N31 den Preis stark runter drücken wird, dann bist du glaube naiv. Auch AMD guckt, dass man seine Margen steigert und wird preislich in die gleiche Liga gehen, wenn man es von der Leistung kann.
Ist denn am Dienstagabend eine umfassende Vorstellung (4070-4090) zu erwarten oder, wie es auch schonmal war, ein Architekturvorstellung ohne nennenswertes zu konkreten Modellen?
iamthebear
2022-09-19, 19:20:40
AMD bleibt keine andere Wahl als ihre Preise an Nvidia auszurichten. AMD hat eine bestimmte Kapazität bestellt und genau diese steht zur Verfügung. Sind die Preise zu niedrig holen sich die Differenz die Scalper weil sowieso nicht mehr als der geplante Marktanteil geliefert werden kann.
basix
2022-09-19, 20:18:19
AMD bleibt keine andere Wahl als ihre Preise an Nvidia auszurichten. AMD hat eine bestimmte Kapazität bestellt und genau diese steht zur Verfügung. Sind die Preise zu niedrig holen sich die Differenz die Scalper weil sowieso nicht mehr als der geplante Marktanteil geliefert werden kann.
Momentan ist der dGPU Markt eh am taumeln. Ethereum bricht ein und Gebraucht-GPUs kommen wohl demnächst viele auf den Markt. Nvidias Lovelace konkurriert vor allem mit einem: Ampere (volle Lager, Gebrauchtmarkt). Lovelace GPUs >Ampere konkurrieren nicht bei der Performance aber im Preis.
AMD kann das entspannter angehen, da sie die Kapazität auch auf Zen 4, Mobile GPUs (Efficiency wins, wo RDNA3 gut sein soll), Rembrandt oder bereits sehr bald Phoenix umlagern können. Ich kann mir gut vorstellen, dass RDNA3 dGPU für Desktop die ersten paar Monate ein wenig auf Sparflamme gefahren wird (keine Höchststückzahlen). Welche Preise bei dieser Strategie aufruft ist ungewiss. Alternative: Man hat hohe Stückzahlen, macht sehr gute Preise und killt Ampere und Lovelace gleichzeitig.
r3ptil3
2022-09-19, 20:19:49
Wieso sollte der Wertverfall bei der 4090 für 1500$ so hoch werden?
Das Ding wird mehr oder weniger 2 Jahre auf dem Preis bleiben und danach erst ordentlich runter gehen mit der nächsten Gen. Wenn du glaubst, dass N31 den Preis stark runter drücken wird, dann bist du glaube naiv. Auch AMD guckt, dass man seine Margen steigert und wird preislich in die gleiche Liga gehen, wenn man es von der Leistung kann.
Weil wir in diesem Jahr gesehen haben was der durchschnittliche Hardware-Enthusiast bereit ist zu zahlen und das sind keine 2000$ für eine absolute High-End GPU, sondern diese Kundschaft hat ihre Grenze ganz klar bei ca. 1000 Euro klar gemacht.
Hätten auch die Gamer die RTX 3090 Ti weitergekauft nach den Minern, dann würde man hier im Forum für 2000 Euro bereits von einem Schnäppchen reden für die RTX 3090 Ti.
Im Klartext: bei 1500$+ bleibt das schöne Stück Hardware einfach in den Regalen liegen. Die paar Kunden, welche zu Beginn zu jedem Preis zuschlagen und die kurze Zeit in der Nvidia gezielt kurzzeitig Lieferengpässe vermeldet, ist komplett gleichgültig, weil der Umsatz dann auf ein Quartal aus einfach fehlt. Die Folge: RTX 4090 Modelle mit drastischen Preissenkungen.
Cubitus
2022-09-19, 20:20:10
Eine RTX 4090 wird zu diesem Zeitpunkt auf keinen Fall für 2000$ UVP vorgestellt werden.
Wenn die Leaks tatsächlich stimmen mit der Leistung, dann wirds 1400-1600.
Wobei selbst das nicht klug ist, da dann der Wertverfall auch bei diesem Modell hoch sein wird, was gerade für eine Marke wie Nvidia alles andere als gut ist.
Sinnvoll wäre 1000-1200$.
Eine 4090 wird niemals 1500 Euro kosten, weil die 3090 schon diesen Preispunkt hatte...
Das Ding wird 2k kosten, wenn nicht sogar 2200 Euro hierzulande.. wartet mal ab. :freak:
Und liegen bleiben wird diese auch nicht, es wird immer verrückte geben die Kaufen, zudem kommt es stark auf die Stückzahlen an.
Diese werden geringer sein, damit man den Preis halten kann..
Es ist jedes Mal doch das gleiche Spiel, so langsam solltet ihr das doch wissen :)
Das Ding wird wieder ein halber Papiertiger, am besten man versucht morgen, sobald Jensen den Backofen aufmacht, zu kaufen sonst darfst/kannst bis nächstes Jahr warten..
aufkrawall
2022-09-19, 20:21:17
Die guten Customs liegen halt sowieso immer über den UVPs von Nvidia...
Ex3cut3r
2022-09-19, 20:22:40
Das kommt auch noch oben drauf, stimmt. Ich glaub es sollte mittlerweile jeder kapiert haben, dass Hardware, egal ob von Intel, AMD oder Nvidia, teuer bzw. noch teurer wird. Da hilft auch jegliches beschweren nicht, entweder geht man da mit, oder halt nicht. Bzw. wartet man auf ein Schnäppchen was sowieso nicht kommt. Siehe RDNA2, Ampere.
Cubitus
2022-09-19, 20:25:36
Das kommt auch noch oben drauf, stimmt. Ich glaub es sollte mittlerweile jeder kapiert haben, dass Hardware, egal ob von Intel, AMD oder Nvidia, teuer bzw. noch teurer wird. Da hilft auch jegliches beschweren nicht, entweder geht man da mit, oder halt nicht. Bzw. wartet man auf ein Schnäppchen was sowieso nicht kommt. Siehe RDNA2, Ampere.
Joa, wobei dieses Mal der Corona Bonus fehlt.
Aber die FE haben schon ordentlich gute Platinen verbaut, die Dinger lüppen auch gut.. Von dem her machst nichts falsch, vorausgesetzt man bekommt eine...
r3ptil3
2022-09-19, 20:27:46
Bezüglich steigenden Preisen:
Das stimmt einfach nicht.
Grafikkarten wurden und werden günstiger auf die letzten zwei Jahre betrachtet. Und ich rede hier von realen Preisen (Strassenpreisen).
Auch Nvidia kann sich den elementaren Gesetzen der freien Marktwirtschaft nicht entziehen.
Sunrise
2022-09-19, 20:28:33
…Und liegen bleiben wird diese auch nicht, es wird immer verrückte geben die Kaufen, zudem kommt es stark auf die Stückzahlen an.
Diese werden geringer sein, damit man den Preis halten kann..
Es ist jedes Mal doch das gleiche Spiel, so langsam solltet ihr das doch wissen :)
Das Ding wird wieder ein halber Papiertiger, am besten man versucht morgen, sobald Jensen den Backofen aufmacht, zu kaufen sonst darfst/kannst bis nächstes Jahr warten..
Davon gehe ich auch aus.
Es wird wie immer vorab wieder rumgeschriehen:
“Ist doch viel zu teuer!”
“Wir haben Inflation, das kann sich keiner leisten!”
“Braucht doch kein Mensch!”
“Mein rechter Zeh juckt!”
…und wenn die Dinger dann offiziell kaufbar sind, dauert es keine 5 Minuten und die Karten sind weg, siehe Apple.
Die Preisspirale wird deshalb auch nicht enden…
Zudem gibts auch immer Tricks, wie man solche Preise künstlich hochhält, da kann nur Konkurrenz helfen und beim Top Dog bin ich nicht überzeugt dass AMD da bei den letzten paar Prozent mithalten kann. Das Ding wird dann außer Konkurrenz bepreist und die anderen Karten kann man relativ teurer machen, sofern AMD nicht absolut brachial einschlägt.
Cubitus
2022-09-19, 20:31:08
Bezüglich steigenden Preisen:
Das stimmt einfach nicht.
Grafikkarten wurden und werden günstiger auf die letzten zwei Jahre betrachtet. Und ich rede hier von realen Preisen (Strassenpreisen).
Auch Nvidia kann sich den elementaren Gesetzen der freien Marktwirtschaft nicht entziehen.
UVP für eine 3090 war 1499 Dollar.
Daran hat sich über Jahre nichts geändert..
Karten sind seit Jahren teurer als Ihre Vorgänger.. Kannst gerne googlen.
Ich hab damals für ne Titan 1000 Euro hingelegt und ein paar Jahre später für ne 3090 1580 Tacken, so ist das halt. die jetzige 4090 wird um die 2k+ kosten die Frage ist, wer möchte sich das leisten.. und wozu.. eine 3090 wäre ja heutzutage ebenfalls noch schnell genug...
Davon gehe ich auch aus.
Es wird wie immer vorab wieder rumgeschriehen:
“Ist doch viel zu teuer!”
“Wir haben Inflation, das kann sich keiner leisten!”
“Braucht doch kein Mensch!”
“Mein rechter Zeh juckt!”
…und wenn die Dinger dann offiziell kaufbar sind, dauert es keine 5 Minuten und die Karten sind weg, siehe Apple.
Die Preisspirale wird deshalb auch nicht enden…
Zudem gibts auch immer Tricks, wie man solche Preise künstlich hochhält, da kann nur Konkurrenz helfen und beim Top Dog bin ich nicht überzeugt dass AMD da bei den letzten paar Prozent mithalten kann.
Jepp entweder das Iphone Pro Max mit 512 GB für 2k oder eben eine schöne 4090...
Bei Smartphones ist es finde ich sogar noch krasser..
Radeonfreak
2022-09-19, 20:32:39
wer möchte sich das leisten.. und wozu.
Totale Zukunfsicherheit für die nächsten ähhmmm...4 Jahre. :freak:
Rampage 2
2022-09-19, 20:40:52
Eine 4090 wird niemals 1500 Euro kosten, weil die 3090 schon diesen Preispunkt hatte...
Das Ding wird 2k kosten, wenn nicht sogar 2200 Euro hierzulande.. wartet mal ab. :freak:
Über 2000 Euro (nicht Dollar) kauft dann Niemand mehr die RTX 4090 oder nur SEHR wenige Idioten, weil es nichtmal das absolute Maximum ist (im Gegensatz zur im April 2022 erschienenen RTX 3090 Ti), sondern doch recht stark abgespeckt wurde: L2-Cache mutwillig um -25% (!!) kastriert und der gesamte Chip an sich um -11% gestutzt. Dazu "nur" 21 statt 24Gbps GDDR6X.
Für die 4090 erwarte ich 1499 USD oder höchstens 1649 USD - das würde im Euroland bereits knapp 2000 Euro ergeben:crazy:
Einen Stunt mit 1999 USD (= 2400 Euro!!!) kann sich Nvidia nur wieder mit einem vollen AD102 (4090 Ti) leisten:P
R2
Cubitus
2022-09-19, 20:41:10
Totale Zukunfsicherheit für die nächsten ähhmmm...4 Jahre. :freak:
Wenn du 4 Jahre am Rechner hängst und 2k ausgibst sind das pro Jahr 500 Euro und pro Monat 41 Euro kosten..
41 Euro sind weniger als ein Wocheneinkauf... für ein Hobby was einen 1-2 Stunden Täglich an den Bildschirm fesselt.. Sagen wir mal du sitzt 2 Stunden am Tag am PC sind in der Woche 14 Stunden... Dann bezahlst du für eine Zockerstunde mit geiler Grafik 3 Euro..
Eine Stunde Lasertag kostet z.b 35 Euro die Stunde...
Sogar das Parken in der Innenstadt kostet 5 Euro usw..
Wenn es ums Schönrechnen geht, ask me :usad:
Über 2000 Euro (nicht Dollar) kauft dann Niemand mehr die RTX 4090 oder nur SEHR wenige Idioten, weil es nichtmal das absolute Maximum ist (im Gegensatz zur im April 2022 erschienenen RTX 3090 Ti), sondern doch recht stark abgespeckt wurde. (L2-Cache mutwillig um -25% (!!) kastriert und der gesamte Chip an sich um -11% gestutzt)
Für die 4090 erwarte ich 1499 USD oder höchstens 1649 USD - das würde im Euroland bereits knapp 2000 Euro ergeben:crazy:
Einen Stunt mit 1999 USD kann sich Nvidia nur wieder mit einem vollen AD102 (4090 Ti) leisten:P
R2
Nur intressiert das keinen, wenn die 4090 80+ Prozent schneller ist als eine 3090 dann ist es egal ob kastriert oder Vollausbau.. Eine 4090TI wird dann für 2,5K angeboten... für die ganz harten Enthusiasten..
Radeonfreak
2022-09-19, 20:42:56
Das sind sogar mehr als 1-2 Stunden, also voll des Gewinns. :freak:
Also bis 1800 € würd ich vielleicht mitgehen, bei über 2k muss ich heftige Debatten mit dem inneren Schweinehund führen.
Cubitus
2022-09-19, 20:48:08
Das sind sogar mehr als 1-2 Stunden, also voll des Gewinns. :freak:
Also bis 1800 € würd ich vielleicht mitgehen, bei über 2k muss ich heftige Debatten mit dem inneren Schweinehund führen.
;D
Geht mir genauso... :)
Radeonfreak
2022-09-19, 20:55:07
Du hast ja schon ne super Karte, wenn du die verkaufst ist es ja gar nicht so schlimm. Ich fang ja quasi bei Null an.
Ex3cut3r
2022-09-19, 21:28:38
Wieso? Ne 2080 Ti kannst du im Luxx jetzt noch für 400€ verticken. :ulol:
Ist doch ganz nett, so als Taschengeld für eine Ada Karte. 4080 oder 4080 Ti (die wohl später kommt)
Meridian12
2022-09-19, 21:52:10
Natürlich spielt das eine Rolle, zumal es zwischen 3090 und 3090Ti UVP auch noch mehrere hundert Dollar Spielraum gibt.
Jensen und Nvidia werden ganz sicher nicht den Preis niedriger ansetzen und damit die Margen gefährden. Einfach Nein.
Welche Mage hat man denn bei einer nichtverkauften Karte??
0 Dollar/Euro.
15 Karten verkauft bei 200 Dollar Marge sind halt deutlich besser als 2 Karten bei 500 Euro.
wolik
2022-09-19, 21:58:27
Wenn du 4 Jahre am Rechner hängst und 2k ausgibst sind das pro Jahr 500 Euro und pro Monat 41 Euro kosten..
41 Euro sind weniger als ein Wocheneinkauf... für ein Hobby was einen 1-2 Stunden Täglich an den Bildschirm fesselt.. Sagen wir mal du sitzt 2 Stunden am Tag am PC sind in der Woche 14 Stunden... Dann bezahlst du für eine Zockerstunde mit geiler Grafik 3 Euro..
Eine Stunde Lasertag kostet z.b 35 Euro die Stunde...
Sogar das Parken in der Innenstadt kostet 5 Euro usw..
Wenn es ums Schönrechnen geht, ask me :usad:
Nur intressiert das keinen, wenn die 4090 80+ Prozent schneller ist als eine 3090 dann ist es egal ob kastriert oder Vollausbau.. Eine 4090TI wird dann für 2,5K angeboten... für die ganz harten Enthusiasten..
Es ist noch besser... :wink:
TUF 3090 für 1560 Euro gekauft. Nach 21 Monate für 1000 Euro verkauft.
560 / 21 = 26 Euro in Monat.
Sardaukar.nsn
2022-09-19, 22:19:21
Nur intressiert das keinen, wenn die 4090 80+ Prozent schneller ist als eine 3090 dann ist es egal ob kastriert oder Vollausbau.. Eine 4090TI wird dann für 2,5K angeboten... für die ganz harten Enthusiasten..
Wenn man die Rohleistung einer 3090 annähernd verdoppeln kann, gibt es sicher genug Kunden die auch weitere Preissteigerungen mitgehen. Als 1080ti bzw. 3080 Kunde schrecken mich die Gerüchte (4080 nur mit 103er Chip usw.) etwas ab. Tendenz ist aktuell 4090 oder wie bei bei Turing eine Generation aussetzen.
Nazar
2022-09-19, 22:24:57
Also erstmal, der Euro fällt nicht rasant weiter. Seit dem EZB Zinsschritt nach oben hat er sich stabilisiert. Des weiteren muss man bedenken das der Euro nicht nur schwächer geworden ist, sondern der Dollar im Weltvergleich deutlich zugelegt hat. Die chinesische Währung und der taiwanesische Dollar hat gegenüber dem Euro nicht mal 10% gewonnen. Wenn man bedenkt das die Grafikkarten aus diesem Raum kommen dann muss man feststellen das nVidia die Preise aus Währungsgründen nicht um 20% anheben muss. Es reichen eigentlich auch 7-8% Aufschlag.
Gerade die EZB kann nur noch verlieren. Die Zinsanhebung war ein kurzer Push, dem ein noch rasanterer Abrutsch folgen wird, da er viel zu spät und !!vollkommen unkontrolliert!! gekommen ist und nun für viele Pleiten sorgen wird.
Man muss einfach mal das große Ganze im Auge haben. Der Euro ist von einer
Erholung noch eine brutale Rezession entfernt.
https://www.finanzen.net/devisen/eurokurs
Immer auf das große Ganze schauen und dann verstehen, was passiert ist, passiert und passieren wird. Kann ja nicht so schwer sein. :wink:
Wie ich schon schrieb; nVidia hat seine Anleger vorgewarnt. Ich vermute sogar, dass es deutlich mehr wird, als die angekündigten Werte (Prognose nur noch halb so viel Gewinn?). Ich vermute sogar, dass es noch deutlich weniger werden wird. Als Besitzer von Aktien (egal ob AMD oder nVidia) sollte man entweder kurz nach dem Release verkaufen oder sich darauf einstellen, die Aktien sehr lange halten zu müssen.
Die Leute von EVGA sind doch nicht komplett Banane und geben einfach mal so eine Produktion mit 40% Anteilen komplett auf. Das sind vermutlich Millionen, die das EVGA kosten wird. Mit einfach "kein Bock mehr" ist das nicht abgetan.
Mindestens 1 Jahr noch für Garantie der Karten, Support, Abfindungen, Verkauf der Anlagen, etc. pp.
Hätte ich jetzt viele Werte bei nV, würde ich unmittelbar nach den ersten Verkäufen, alles abstoßen. Bei AMD ist eben das Geschäftsfeld viel breiter aufgestellt, weshalb ich mir da nicht so viele Gedanken mache. Die verkraften eine eGPU-Flaute besser.
Ex3cut3r
2022-09-19, 22:31:16
Natürlich, deine Glaskugel hätte ich auch gerne. :biggrin:
Slipknot79
2022-09-19, 23:41:10
Es ist nicht unnormal, dass kurz vor dem Ende einer Generation ein Abverkauf stattfindet. Die Verkaufszahlen sind weder aktuell noch damals für uns einsehbar insofern kann man das wohl hier schwer vergleichen.
Die scalpernate outlet price gab auch schon vor dem Abverkauf, irgendwann zur Halbzeit der Produktlebensdauer. Worauf ich hinaus wollte: Du vermisst "normale" Zeiten, so dass man auf Ada keine Rückschlüsse ziehen can. Dann meinte ich eben, dass du an die 2080Ti denken sollst. Ging sie weg wie warme Semmeln zu Normalzeiten? Oder blieb sie liegen? Nachdem sogar scalpernate teilweise 20% off im outlet rausgeballert hat, nehme ich an, dass die Region um 1200EUR eher solala war.
Jetzt wird sich Lederjacke vermutlich 1700-1800EUR vorstellen? Wenn schon 1200EUR der 2080 Ti eher solala waren, warum sollten dann 1700-1800EUR attraktiv sein zu Normalzeiten?
Aber ja, Lederjacke wird es trotzdem erst mal hochpreisig probieren.
Meridian12
2022-09-20, 00:06:48
Zum Start wird die 4090 sicherlich schnell ausverkauft sein für 2000Euro. Da greifen dann alle zu, die immer die schnellste Karte brauchen und jeden Preis zahlen.
Aber dann dürfte die große Flaute kommen,weil der Markt für die Leute,die die Kohle für eine Grafikkarte nur so raushauen seeeehr,sehr klein ist.
Ich hoffe ja ,das AMD seine Chance nutzen wird und massiv Marktanteile sich krallen will. Dafür müssten sie einfach nur die gleichen Preise wie bei der 6xxx Generation verlangen.
Denn eine 2000 Euro 4090 wird ganz schnell wie Blei in den Läden liegen,wenn man zB 90% Speed für 1000 bekommt bei AMD.
(Alle Zahlen Beispiele und nicht gesichert)
Leonidas
2022-09-20, 04:38:41
nVidia is ready for GeForce RTX 40 announcement
https://pbs.twimg.com/media/FcWoJkcaQAEACV3.jpg
PS: 4090 FE pictured
https://twitter.com/VideoCardz/status/1572040452341403649
BlacKi
2022-09-20, 05:09:21
nVidia is ready for GeForce RTX 40 announcement
https://pbs.twimg.com/media/FcWoJkcaQAEACV3.jpg
PS: 4090 FE pictured
https://twitter.com/VideoCardz/status/1572040452341403649
also heute um 17 uhr lässt nv die bombe platzen?
basix
2022-09-20, 06:50:48
nVidia is ready for GeForce RTX 40 announcement
https://pbs.twimg.com/media/FcWoJkcaQAEACV3.jpg
PS: 4090 FE pictured
https://twitter.com/VideoCardz/status/1572040452341403649
;D
Hott3X
2022-09-20, 07:30:21
Denn eine 2000 Euro 4090 wird ganz schnell wie Blei in den Läden liegen,wenn man zB 90% Speed für 1000 bekommt bei AMD.
(Alle Zahlen Beispiele und nicht gesichert)
Naja selbst die Kundschaft die bereit ist 1000€ für eine GPU zu zahlen ist nicht wirklich groß. Ich kenne keinen und das liegt nicht nicht am Einkommen.
RoNsOn Xs
2022-09-20, 07:42:04
Für die breite Kundschaft ist der TopDog ja sowieso nicht gedacht, ja nicht mal die 80er.
Und mit der Preisgestaltung der kleineren kann sich Nvidia noch bis nächstes Jahr zurückhalten und abwarten.
Die 90er wird sicher für 2k und mehr weg gehen und auch nur zu nvidia-kontrollierten Dosen, sodass es nie zu viele gibt, bin ich mir sicher.
Leonidas
2022-09-20, 07:48:37
also heute um 17 uhr lässt nv die bombe platzen?
Korrekt. Twitch & YouTube:
https://www.twitch.tv/nvidia
https://www.youtube.com/channel/UCL-g3eGJi1omSDSz48AML-g
Mal schauen, ob auch die 4080er Serie vorgestellt wird bzw. wieviele Infos es zu dieser gibt.
Korvaun
2022-09-20, 07:49:38
Klar wird die erste Charge 4090er FE komplett ausverkauft sein innerhalb von ein paar Minuten. Egal was sie kosten. Sieht man doch schon hier im thread die Leute die bereit sind 2k € rauszuhauen. Die würden auch 2,5k € zahlen ("ach was solls, 2 oder 2,5 ist eh schon egal..."). Was ok ist, keiner wird gezwungen bei Lederjacke zu kaufen.
Die Frage ist eher was danach kommt. Wer soll die Dinger kaufen nachdem die üblichen "Verrückten" zugeschlagen haben. Strom wird ja nicht nur bei uns teurer, Inflation und Reszession drücken weltweit auf die Stimmung, das wird nicht schön diesen Winter (auch nicht für nV).
Nvidia will doch sowieso das die Leute noch 3000 Serie kauft.
Sardaukar.nsn
2022-09-20, 07:55:29
Diese Beitrag aus dem CB Forum fand ich ganz interessant. Es geht im Vergleich um Preis $/mm² Chipfläche
https://i.imgur.com/3P5nEZc.jpg
Auffallend ist, dass es mit Maxwell günstiger wurde, die Teuerung mit Pascal hielt sich dann im Rahmen, bis auf die 1070 und die Titan, die wurden deutlich teurer. Die 1080ti war im Vergleich zur Leistung viel zu günstig und die 1070 und 1080 waren immer noch günstiger als die 770/780.
Mit Turing wurde es dann durch die Bank signifikant teurer, besonders ganz oben bei 2080 ti und Titan, aber auch die $120 mehr für die 2070 waren schon ein kräftiger Schluck aus der Pulle, allerdings bekam man auch mehr Silizium für das Geld, die Dies waren viel größer als bei Pascal.
Mit Ampere wurde es dann bei der 3080ti nochmal deutlich teurer, ganz oben wurde der Preis dann wieder etwas gesenkt.
Wenn die 4080 12GB jetzt eigentlich eine 4070 ist, sie aber den Preis der 80er Klasse von ca. $699 aufruft, wäre das schon eine sehr große Preiserhöhung. Aber warum sollte Nvidia nicht auch auf die Idee mit der Mogelpackung, wo weniger drin ist als vorher, kommen.
Die Preise der Ada Karten sind natürlich nur grob geschätzt, machen aber imho Sinn, da ist dann noch viel Platz für eine 4080 ti für $1.299 und eine 4090 ti fuer $1.999. Die "neue" 4070 kann dann wieder bei $499 anfangen, ist aber eigentlich eine 4060.
Kudos an HerrRossi https://www.computerbase.de/forum/threads/gpu-geruechte-erste-geforce-rtx-4090-von-partnern-in-bildern.2102809/page-17
PatkIllA
2022-09-20, 07:56:37
Korrekt. Twitch & YouTube:
https://www.twitch.tv/nvidia
https://www.youtube.com/channel/UCL-g3eGJi1omSDSz48AML-g
Mal schauen, ob auch die 4080er Serie vorgestellt wird bzw. wieviele Infos es zu dieser gibt.
Das ist dann aber nur die Ankündigung des Releases? Wirkliche Tests gibt es erst später mit der Veröffentlichung? Liegen in den Redaktionen schon Karten und es wird auf das Ablaufen des NDA gewartet?
y33H@
2022-09-20, 08:13:17
Das NDA ist das NDA ist das NDA.
Troyan
2022-09-20, 08:27:22
AMD bekommt schon muffensausen: https://community.amd.com/t5/gaming/advancing-performance-per-watt-to-benefit-gamers/ba-p/545586
Diese Beitrag aus dem CB Forum fand ich ganz interessant. Es geht im Vergleich um Preis $/mm² Chipfläche
Kudos an HerrRossi https://www.computerbase.de/forum/threads/gpu-geruechte-erste-geforce-rtx-4090-von-partnern-in-bildern.2102809/page-17
Preise sind auch nur ein künstliches Konstrukt. Die 2080TI war z.B. deutlich besser gegenüber der 2080 als die 3090 gegenüber der 3080. Maxwell war ein ziemlicher P/L Hammer, Pascal hat das dann am Anfang wieder negativ korrigiert.
The_Invisible
2022-09-20, 08:40:22
Das ist dann aber nur die Ankündigung des Releases? Wirkliche Tests gibt es erst später mit der Veröffentlichung? Liegen in den Redaktionen schon Karten und es wird auf das Ablaufen des NDA gewartet?
Kommt mir auch so vor, Raff ist hier auch schon länger verdammt ruhig ;)
r3ptil3
2022-09-20, 09:18:05
Kommt mir auch so vor, Raff ist hier auch schon länger verdammt ruhig ;)
Er weiss wohl schon was er demnächst sicher verkaufen wird.
Hoffentlich dauert es nicht zu lange nach der Vorstellung bis die Tests veröffentlicht werden.
RoNsOn Xs
2022-09-20, 09:19:07
Das NDA ist das NDA ist das NDA.
wohl der Hinweis schlechthin, dass bereits eins existiert, also ja, alle am testen.
Leonidas
2022-09-20, 09:21:11
Das ist dann aber nur die Ankündigung des Releases? Wirkliche Tests gibt es erst später mit der Veröffentlichung? Liegen in den Redaktionen schon Karten und es wird auf das Ablaufen des NDA gewartet?
Es ist die Ankündigung des Releases. Damit wird ein Marktstart festgesetzt, welcher auch der späteste Termin für den NDA-Fall ist. Letzterer kann natürlich auch früher stattfinden (doch nicht schon jetzt).
RTX40 Tests jetzt gibt es noch nicht. Woran die Tester derzeit arbeiten, wird Zen 4 sein.
Cyberfries
2022-09-20, 09:22:40
AMD bekommt schon muffensausen
Das übliche Störfeuer, das beide Hersteller regelmäßig abziehen.
Kommt mir auch so vor, Raff ist hier auch schon länger verdammt ruhig ;)
Bei einem Marktstart Mitte/Ende Oktober würde ich frühestens in drei Wochen mit Testberichten rechnen.
Aber oftmals wird für neue Grafikkarten auch ein neuer Testparcours eingeführt den die "alten" Karten nochmal durchlaufen.
Diese Beitrag aus dem CB Forum fand ich ganz interessant. Es geht im Vergleich um Preis $/mm² Chipfläche
Die Betrachtung mag ja eine ganz nette Beschäftigungsmaßnahme sein, greift ohne externe Einflüsse viel zu kurz.
Auffallend ist, dass es mit Maxwell günstiger wurde, die Teuerung mit Pascal hielt sich dann im Rahmen,
Maxwell war eben die dritte 28nm-Generation, dass auch große Chips in bekannten Verfahren günstig sind überrascht nicht.
Mit Turing wurde es dann durch die Bank signifikant teurer,
Bei Turing war die Konkurrenz auf dem absoluten Tiefpunkt.
Mit Ampere wurde es dann bei der 3080ti nochmal deutlich teurer,
Mining?
]Die Preise der Ada Karten sind natürlich nur grob geschätzt, machen aber imho Sinn,
Wozu wenige Stunden vor Vorstellung Preise schätzen wenn geschätzte Chipgrößen fehlen?
Wozu Refresh-Karten aufführen? Die Betrachtung ergibt so keinen Sinn, dann kann man Lovelace auch gleich weglassen.
Leonidas
2022-09-20, 09:39:35
Richtig, die Zeit der Spekulationen ist für Lovelace vorbei. Jetzt braucht es auch keine Leaks mehr, weil jetzt will man offizielles sehen. Darauf aufbauend kann man dann neue Spekulationen ansetzen - über das restliche Portfolio, was NV nicht nennt. Aber zu 4090 (und potentiell 4080) will man nun Fakten sehen.
Das ist dann aber nur die Ankündigung des Releases? Wirkliche Tests gibt es erst später mit der Veröffentlichung? Liegen in den Redaktionen schon Karten und es wird auf das Ablaufen des NDA gewartet?Da es noch keine China-Leaks mit Benchmark Parcour gibt, vermute ich, dass heute Abend eher eine Ankündigung erfolgt.
why_me
2022-09-20, 09:52:04
Was mir noch etwas spanisch vorkommt ist der spekulierte hohe Preis. Es ist Nvidia, dass es teurer wird, steht da nicht wirklich zur Debatte.
Aber auf der anderen Seite gibt es die Gerüchte zu 11 4090 von Gigabyte alleine. Die müssen zwar nicht alle am Markt ankommen. Passen mMn. aber nicht zu einer teuren GPU von der dann wenig verkauft werden, oder es wird so teuer, dass es sich wieder lohnt so viele verschiedene Variante herzustellen.
Neurosphere
2022-09-20, 10:03:17
Angebot und Nachfrage.
Hätte sich die 3090 nicht verkauft, hätte sie den Preis nicht. Corona und die Folgen haben es natürlich etwas schwerer gemacht das ganze zu bewerten, aber auch die 2080ti war nach erscheinen bis Ampere ziemlich Preiskonstant. Es gab einen "Early Adopter" Aufschlag, danach gings ein bisschen runter aber dann blieb es konstant. Es muss also Nachfrage da sein.
Na ja, der 3090Ti-Preis hat jedenfalls nicht funktioniert.
Slipknot79
2022-09-20, 10:09:14
PS: 4090 FE pictured
https://twitter.com/VideoCardz/status/1572040452341403649
Je mehr von Lederjackes Zähnen zu sehen ist, desto höher der Preis. Man sollte eine Price-Scala darauf markieren. Es sieht nach 2000EUR+ aus. :redface:
Die Frage ist, wie lange, denn die Marktteilnehmer bestimmen die Preise letztendlich.
y33H@
2022-09-20, 12:55:51
Kommt mir auch so vor, Raff ist hier auch schon länger verdammt ruhig.Der hat Urlaub vor dem Sturm ^^
davidzo
2022-09-20, 13:11:23
Die gemutmaßten Speichergeschwindigkeiten sind enttäuschend und merkwürdig zugleich:
Speicherausstattung:
- Ursprünglich war mal von 24gbps die Rede und das wird wohl auch verlötet statt 23gbps. Entweder Nvidia hat immer noch nicht die besten Speichercontroller, oder man lässt bewusst Platz für einen Refresh.
- Die 4090 bekommt nur 21Gbps G6X also genau wir die 3090ti. Hätte man hier nicht auch sparsameren GDD6 nehmen können der ja mittlerweile von mehreren Anbietern verfügbar ist?
- Die 16GB 4080 ist die einzige SKU mit 23Gbps G6X. Dabei ist AD103 der am niedrigsten taktende Chip im Lineup obwohl er als salvage verwendet wird. 70% weniger Rechenleistung resultiert in nur 36% weniger Bandbreite. Hat AD103 wirklich so schlechte yields im vergleich zu AD102 und AD104 dass man bei einem Salvage nur Taktraten unterhalb der beiden anderen Chips herausholen kann?
- Die 12GB 4080 bekommt wieder nur 21Gbps G6X, dabei wäre auch hier G6 eine Option. Durch das 192bit IF wäre hier der 23Gbps Speicher aber viel sinnvoller. Zudem bekommt AD104 hier den höchsten Takt im Lineup und ist von der Rechenleistung gar nicht weit weg von der AD103 basierten 4080 Schwester. Hoher Takt obwohl der Chip voll genutzt wird ist ungewöhnlich. Alle Chips die also Takt und Vollausbau nicht schaffen muss man zurückhalten und sammeln für zukünftige Salvageprodukte wie die 4070, 4070ti.
In Zahlen:
4090
82.575 Tflops
1008gb/s
= 12,2gb/s pro Tflop
4080 16g
48.737 Tflops
736gb/s
= 15,1gb/s pro Tflop
4080 12g
40.089 Tflops
504gb/s
= 12,6 gb/s pro Tflop
Das macht doch keinen Sinn, die 4080 16g tanzt eindeutig aus der Reihe. Sinnvoller wäre es gewesen der 4090 als Top Dog auch den teuersten Speicher zu geben, zumal sie auch das größte TDPbudget hat um das auszufahren.
Alternativ kann man argumentieren der 4080 12g den 23gbps Speicher geben um den Abstand zwischen beiden 4080s geringer zu machen und gleichzeitig bei der 4090 noch Platz für eine 4090ti zu lassen.
Die Verwendung des schnellsten Speichers bei der AD103 16G Karte verbaut auch die Chancen einer AD103 basierten 4080ti. Klar, man kann noch ein paar weniger Shader dazu packen und eventuell etwas Takt, aber einen sinnvollen Sprung macht man erst wenn sich auch die Bandbreite unterscheidet. Ds bedeutet man muss für eine 4080ti den teuren, bereits bei der 4090 stark geschröpften AD102 verwenden was die Kosten für Chip, PCB und Speicher unnötig nach oben treibt.
Die Karte bei der der schnelle Speicher am schlechtesten passt ist ausgerechnet die 4080 16g.
Dural
2022-09-20, 13:22:32
Die Bandbreite war schon bei Ampere nicht das Problem, und jetzt mit 96mb Cache dürfte das locker reichen.
drmaniac
2022-09-20, 13:36:42
N00b-Frage ;D
Bei mir steht ein neues Gamingnotebook an. Gibt es schon Gerüchte zu mobilen 4000'er NVIDIA GPUs, genauer: Wann die kommen könnten?
Ich kann über ein besonderes Firmenprogramm im Dezember 22 oder im April 23 "zuschlagen" und für mich bietet es sich an wenn dann die neuste Version an CPU und GPU direkt mitzunehmen. Ein Core 13Gen Intel mit einer 3000er Nvidia macht für mich keinen Sinn
Merci :)
Linmoum
2022-09-20, 13:39:41
Werden wahrscheinlich auf der CES im Januar vorgestellt.
Leonidas
2022-09-20, 14:39:33
Werden wahrscheinlich auf der CES im Januar vorgestellt.
... was aber auch bedeutet für den vorgenannten April 2023: Daumendrücken, dass es dann Ada auch schon real im Notebook gibt - und nicht nur als Vorstellung oder Testobjekt der Reviewer. Lieferungen im Notebook-Segment kommen oftmals verdammt viel später als die offizielle Vorstellung an. NBC haben kürzlich ein Notebook mit Radeon RX 6850M XT getestet - als erstes seiner Art. Die Vorstellung der Chip-Sere war zur CES im Januar 2022.
PS: Letzter Leak vor Ultimo:
https://twitter.com/kopite7kimi/status/1572197729761374213
RTX 4080 16G.
-22.5Gbps
-start from 320W
FastAndy
2022-09-20, 15:18:34
Kann man abschätzen wie viel schneller die 4090 als eine 3090 Ti wird? Eine neue Ti ist nicht angekündigt oder?
Hoffentlich kann man nachher schon irgendwo vorbestellen =)
r3ptil3
2022-09-20, 15:36:33
Kann man abschätzen wie viel schneller die 4090 als eine 3090 Ti wird? Eine neue Ti ist nicht angekündigt oder?
Hoffentlich kann man nachher schon irgendwo vorbestellen =)
In den Benchmarks bis zu 90% schneller, real würde ich von guten 50-60% ausgehen.
Eine Ti kommt den Gerüchten nach (noch) nicht.
Nein, heute, morgen, diese Woche... wird man ganz sicher nichts vorbestellen können.
Troyan
2022-09-20, 16:07:17
PS: Letzter Leak vor Ultimo:
https://twitter.com/kopite7kimi/status/1572197729761374213
RTX 4080 16G.
-22.5Gbps
-start from 320W
Also sind wir von 450W auf 320W gefallen. Beeindruckend. :cool:
Leonidas
2022-09-20, 16:14:00
Im Fall der 4080 von 420W auf 320W. Trotzdem nicht übel.
Ravenhearth
2022-09-20, 16:17:36
420W hätten bei der Leistung überhaupt keinen Sinn ergeben. Wie viel schneller wird die 4080 als die 3080 ungefähr? 50%? Dann wäre die Effizienz kaum gestiegen, und das beim Sprung von 8nm auf 4nm. Das wäre wirklich übel gewesen.
Linmoum
2022-09-20, 16:21:11
Die 3070Ti ergibt auch keinen Sinn und trotzdem existiert sie. Daran würde ich sowas nicht festmachen.
[dzp]Viper
2022-09-20, 16:24:45
420W hätten bei der Leistung überhaupt keinen Sinn ergeben. Wie viel schneller wird die 4080 als die 3080 ungefähr? 50%? Dann wäre die Effizienz kaum gestiegen, und das beim Sprung von 8nm auf 4nm. Das wäre wirklich übel gewesen.
Moment.. die 3080 hat doch auch eine TGP von 320 Watt
Wenn die 4080 also 50% schneller bei gleicher TGP wäre, wäre das dann nicht eine gute Steigerung? Oder übersehe ich da gerade was?
/edit: Ah oder du beziehst dich auf den vorher umherfliegenden Wert von 420Watt... ja das würde Sinn ergeben
Lehdro
2022-09-20, 16:32:14
Viper;13112379']
Wenn die 4080 also 50% schneller bei gleicher TGP wäre, wäre das dann nicht eine gute Steigerung? Oder übersehe ich da gerade was?
Du übersiehst dass dann sämtliche Effizienzsteigerung rein von der Fertigung kommt - u.U. sogar weniger weil man die Taktrate stark nach oben gezogen hat. Die Architektur hätte da quasi keinerlei Effizienzgewinn gebracht.
Irgendjemand hier hatte doch mal die theoretischen Verbrauchswerte für einen hypothetischen Ampere auf N7/N5 extrapoliert?
Redneck
2022-09-20, 16:36:30
Also sind wir von 450W auf 320W gefallen. Beeindruckend. :cool:
Ohne die Performance dagegen zu stellen sagt das allein nichts aus.
Vor 6 Monaten hieß es in den "leaks" auch noch 1.9 bis 2.x Performance Zuwachs (was ja immer noch stimmen kann, wenn man raytr.perf. isoliert betrachtet)
[dzp]Viper
2022-09-20, 16:37:51
Die Architektur hätte da quasi keinerlei Effizienzgewinn gebracht.
Architektur und Fertigung gehen aber Hand in Hand. Vielleicht musste man bei der Architektur ein paar Abstriche machen um die neue Fertigung erst möglich zu machen.
Vielleicht war es technisch einfach nicht möglich in beiden Bereichen gleichzeitig größere Fortschritte zu machen.
Die Architektur der 3080 kannst du ja auch nicht einfach auf die neue Fertigung portieren. Dafür hätte es genauso kleinere und größere Änderungen der Architektur gebraucht welche vielleicht der Effizienz nicht zuträglich gewesen wären.
Das Thema ist viel komplexer als "nur" eine Verkleinerung der Fertigung.
Leonidas
2022-09-20, 16:38:11
Die 4080-16G dürfte um die +60% Performance bringen, auch auf 320W. Das ist wahrscheinlich genau die echte Effizienz-Steigerung. Die 4090 wird (zur 3090) einen höheren Perf-Sprung bringen (Richtung +80-90%), hat dafür aber auch mehr Watt.
crux2005
2022-09-20, 16:40:28
Naja selbst die Kundschaft die bereit ist 1000€ für eine GPU zu zahlen ist nicht wirklich groß. Ich kenne keinen und das liegt nicht nicht am Einkommen.
:lol:
Lehdro
2022-09-20, 16:44:34
Viper;13112385']
Das Thema ist viel komplexer als "nur" eine Verkleinerung der Fertigung.
Sicher. Aber ein "simpler" Shrink sollte immer die schlechtestmögliche Effizienzsteigerung darstellen, denn architekturtechnisch feilt man sowieso immer an der Effizienz. Da das Beispiel aber eh rein hypothetisch ist (420W statt 320W) ist das eben auch nur ein rein theoretisches Fallbeispiel was so noch nie in der Praxis auftrat und hoffentlich auch nie Realität wird.
dargo
2022-09-20, 16:52:13
Viper;13112379']Moment.. die 3080 hat doch auch eine TGP von 320 Watt
Wenn die 4080 also 50% schneller bei gleicher TGP wäre, wäre das dann nicht eine gute Steigerung? Oder übersehe ich da gerade was?
Jein... immerhin gehts hier um 4nm vs. 8nm + neue GPU-Generation. Zudem wird hier offenbar übersehen, dass diesmal der Abstand zwischen 4090 vs. 4080 größer ausfallen wird als es dies der Fall noch bei 3090 vs. 3080 war in Bezug auf Performance.
Sardaukar.nsn
2022-09-20, 17:02:10
LIVE
Uo8rs5YfIYY
crux2005
2022-09-20, 17:03:35
Grünes und rotes RC buggy. Wie subtil. Fehlt noch blau. Oder? ;D
Edit: Ah, da ist es.
Grendizer
2022-09-20, 17:04:32
Sieht aber nicht schlecht aus.
crux2005
2022-09-20, 17:05:11
Sieht aber nicht schlecht aus.
Ja, extrem gut.
Auf dem grünen RC stand "Jensen". ;D ;D ;D
crux2005
2022-09-20, 17:07:03
Nur 90 TFLOPs. Wow. Wie hat Jensen das erlaubt? Dachte er wollte 100...
Sardaukar.nsn
2022-09-20, 17:07:13
76 Milliarden Transistoren
BlacKi
2022-09-20, 17:07:20
2-3x RT performance?
naja, bei 2x performance mit normalem rasterizing vermutlich.
Sardaukar.nsn
2022-09-20, 17:08:36
Nur 90 TFLOPs. Wow. Wie hat Jensen das erlaubt? Dachte er wollte 100...
+200 RT TFLOPs und + 1400 Tensor TFLOPs
Grendizer
2022-09-20, 17:08:38
Shader Execution Reordering (SER) scheint schonmal +25% Game Performance zu bringen
TheCounter
2022-09-20, 17:08:54
DLSS 3. Goil.
crux2005
2022-09-20, 17:09:17
DLSS 3
Sardaukar.nsn
2022-09-20, 17:09:33
DLSS 3
BlacKi
2022-09-20, 17:10:18
neues DLSS.
DLSS 3?
müsste aber auch mit ampere laufen
ChaosTM
2022-09-20, 17:10:39
Nur 90 TFLOPs. Wow. Wie hat Jensen das erlaubt? Dachte er wollte 100...
Die kriegt dann der Refresh/volle Chip mit ein paar Watt mehr.
Sardaukar.nsn
2022-09-20, 17:11:23
4k DLSS 2 = 62 FPS
4k DLSS 3 = 101 FPS
TheCounter
2022-09-20, 17:11:52
Krasse scheiße, wenn das wirklich so funktioniert :O
crux2005
2022-09-20, 17:12:45
DLSS 3 ist quasi DLSS 2 + DLSS 1
Triniter
2022-09-20, 17:12:56
FS mit RTX, auch nicht verkehrt.
Sardaukar.nsn
2022-09-20, 17:13:45
Cyberpunk RT ohne DLSS ~ 23 FPS, mit DLSS 3 ~ 100 FPS. Das wäre schon krass. MS Flight Simulator auch doppelte Leistung.
r3ptil3
2022-09-20, 17:14:03
So sieht Innovation aus, Hut ab.
BlacKi
2022-09-20, 17:14:09
dlss boostet jetzt cpu limit, ich packs nicht. hypetrain?
Daredevil
2022-09-20, 17:14:28
DLSS3 = scheiß auf 450w ;)
TheCounter
2022-09-20, 17:14:39
Portal RTX, geil!
Grendizer
2022-09-20, 17:14:43
Aber es braucht halt immer noch die Unterstützung des Games durch nVidia. Wird halt nicht jedes Spiel haben.
Sardaukar.nsn
2022-09-20, 17:14:53
DLSS3 = scheiß auf 450w ;)
:cool:
crux2005
2022-09-20, 17:14:59
Cyberpunk RT ohne DLSS ~ 23 FPS, mit DLSS 3 ~ 100 FPS. Das wäre schon krass.
Habe mich gefragt in welcher Auflösung. Wenn in 4K mit 4090 dann sind die 23 FPS sehr wenig.
Aber DLSS 3 ist das killer feature.
Triniter
2022-09-20, 17:15:45
OK, das ist auch nicht übel. Per Mods RTX rein bringen.
Neurosphere
2022-09-20, 17:16:22
Habe mich gefragt in welcher Auflösung. Wenn in 4K mit 4090 dann sind die 23 FPS sehr wenig.
Aber DLSS 3 ist das killer feature.
Genau das hab ich in dem Moment auch gedacht.
BlacKi
2022-09-20, 17:17:00
omg, ich hab voll die chills
y33H@
2022-09-20, 17:17:11
Morrowind RTX und sie haben mich :ulove:
TheCounter
2022-09-20, 17:17:27
RTX Remix ist ja auch krass. Wahnsinn. Meine RTX3080 muss weg ;D
Sardaukar.nsn
2022-09-20, 17:17:29
RTX Remix für Mods klingt auch super.
Korvaun
2022-09-20, 17:17:44
RTX Remix & Morrowind... wow :)
Grendizer
2022-09-20, 17:17:48
Ada über 3 Ghz in nVidia Labs.
crux2005
2022-09-20, 17:17:51
Genau das hab ich in dem Moment auch gedacht.
Lässt hoffen das DLSS 3 auch mit Ampere und Turing läuft. Nur langsamer.
RTX Remix ist auch interessant. Ältere Spiele dank AI verbessert. Jetzt geht Jensen in die ganzen.
Ada 2x Ampere in REndering, 4x in RT
Grendizer
2022-09-20, 17:18:09
12.10 4090 1599 Dollar
Sardaukar.nsn
2022-09-20, 17:18:14
Über 3 Ghz
r3ptil3
2022-09-20, 17:18:20
Was habe ich gesagt!!!!!! :D
crux2005
2022-09-20, 17:18:24
1600 USD ;D da hatten die Leute recht.
BlacKi
2022-09-20, 17:18:31
1599$ 2-4x schneller als 3090ti
Korvaun
2022-09-20, 17:18:38
4090.. 1599$.. geht ja geradezu...
Cubitus
2022-09-20, 17:18:42
Joa :freak:
prinz_valium_2
2022-09-20, 17:18:47
$1599
WoW
TheCounter
2022-09-20, 17:19:18
1599, also bei uns gut 1900?
davidzo
2022-09-20, 17:19:21
WTF?
Wieso ist GA102 so billig und GA103 so teuer?
1599$ 4090 24G
1199$ 4080 16G
899$ 4080 12G
Ich hatte ja vor 5-10Seiten schon auf 799$ für die AD104 4080 getippt. Ist immerhin schneller bzw. ersetzt eine 3080ti. Gar nicht so schlecht getippt, nicht?
crux2005
2022-09-20, 17:19:29
1200 USD 4080 FE :down:
arcanum
2022-09-20, 17:19:38
da haben die zweifler die preise :lol:
leider landet die 4090 dank umrechnung bei ~2k... für 1500€ hätte ich es mir überlegt.
Sardaukar.nsn
2022-09-20, 17:19:49
3080 16GB 1199$
3080 12GB 899$
Adam D.
2022-09-20, 17:20:01
Die Preise sind doch wirklich einfach nur Banane :ulol:
dildo4u
2022-09-20, 17:20:07
1300€ 4080?
Korvaun
2022-09-20, 17:20:09
4080.. lol.. die dinger sind sauteuer...
Linmoum
2022-09-20, 17:20:10
Die Preise der 4080er. ;D
Blediator16
2022-09-20, 17:20:33
Steuern nicht vergessen :D
Radeonfreak
2022-09-20, 17:20:38
Ach je. :freak:
Grendizer
2022-09-20, 17:20:46
Puhh .... eine 4080 16Gb könnte dann bei 1.500 Euro liegen
prinz_valium_2
2022-09-20, 17:20:53
WTF?
Wieso ist GA102 so billig und GA103 so teuer?
1599$ 4090
1199$ 4080
Habe ich mir auch gedacht.
Dachte die kleine 4080, was eigentlich eine 4070 ist, gibt es für $499 bei dem günstigen 4090 Preis,
Sardaukar.nsn
2022-09-20, 17:20:55
https://i.imgur.com/kLp07bC.jpg
crux2005
2022-09-20, 17:21:09
4080 ab 899 USD = wird die 12GB Version sein. Ja, NV ist sich ziemlich sicher AMD hat nichts dagegen zu setzten.
Adam D.
2022-09-20, 17:21:22
Die 4800 12 GB aka 4700 für 1000€, die haben doch nen kompletten Schaden.
MSABK
2022-09-20, 17:21:23
1300€ 4080?
Nvidia sticht die scalper aus und kassiert das Geld direkt selber.
Lol, da rutscht die 3080 einfach in den Mainstream :D. Die Preise sind echt geil, da lohnt doch eh nur die 4090.
BlacKi
2022-09-20, 17:21:42
4080 12gb? 899$? mhh. nicht so geil, das sind immer noch fast 1100€
Santini
2022-09-20, 17:21:49
in $ sieht die 4090 gut aus, die anderen nicht :biggrin:
DavChrFen
2022-09-20, 17:21:51
$1599 ist für die 4090 Founders Edition oder eh?
why_me
2022-09-20, 17:21:55
Doofe Frage, aber ist das bei DLSS3 nicht zwischenbildberechnung, wenn das ohne Game engine Bilder berechnet (glaube ich hab das so richtig verstanden).
Sind das dann überhaupt richtige FPS?
Grendizer
2022-09-20, 17:22:06
Die kleine 4080 liegt auch dann bei 1069 Euro
Meridian12
2022-09-20, 17:22:20
1599$ 2-4x schneller als 3090ti
Nach welcher Rechnung?
1 mal schneller ist doppelte Speed.2 mal schneller dreifache Speed.
Oder denke ist bei 2x doppelt so schnell gemeint,oder?
r3ptil3
2022-09-20, 17:22:22
Bei dem gewaltigen Unterschied, gebe selbst ich zu, dass mich die RTX 4080 kaum interessiert.
Da geht man direkt auf die RTX 4090, wenn man das braucht.
Neurosphere
2022-09-20, 17:22:49
Damit ist die 4090 100$ teurer als die 3090 zum Release.
Die Preise der 4080 gehen aber garnicht.
Grendizer
2022-09-20, 17:23:10
Sind dann halt auch fast 2000 Euro
Grendizer
2022-09-20, 17:23:49
Damit ist die 4090 100$ teurer als die 3090 zum Release.
Die Preise der 4080 gehen aber garnicht.
Ahhh.... ja, nein... für uns in Europa wird es wegen dem schwachen Euro deutlich teurer werden.
crux2005
2022-09-20, 17:23:54
MLID meinte NV will auch eine Ada Titan bringen. Wenn sie sich nicht sicher wären AMD hat keine Chance würden sie das IMHO nicht machen.
Linmoum
2022-09-20, 17:23:57
Die versteckte Preiserhöhung gerade bei der 12GiB ist echt an Dreistigkeit nicht zu überbieten.
AffenJack
2022-09-20, 17:24:36
Die Technik sieht geil aus, vor allem auch mit dem reordering für raytracing, aber die Preise sind einfach nur kacke.
Da schaue ich dann, was die 4070 und AMD bringt.
crux2005
2022-09-20, 17:24:47
Omniverse hat auch Siemens JT plugin
Die Preise der Kleinen sind eh untragbar und werden recht schnell purzeln. Das funktioniert schlichtweg nicht.
Triniter
2022-09-20, 17:25:04
Von einer 3090 brauch ich eh nicht aufrüsten auch wenn die 4090 natürlich reizen würde.
Meridian12
2022-09-20, 17:25:17
Bei den Preisen werden sich die Quartalszahlen aber nicht bessern. Wird nicht viele geben die soviel geld für ne 4080 raushauen werden.
Auch die 2000 Euro für die 4090 geben nur die wenigsten aus.
Saugbär
2022-09-20, 17:25:17
Am 3.November wird die RX 7000 mit RDNA-3 vorgestellt, hat Scott Herkelman auf Twitter bekanntgegeben
Troyan
2022-09-20, 17:25:35
So, wird die 4090 die meistverkaufste Karte aller Zeiten?! Schade, dass der Euro so abgekackt ist, aber der Preis der 4090 ist schon nett. :eek::cool:
Von einer 3090 brauch ich eh nicht aufrüsten auch wenn die 4090 natürlich reizen würde.
??? Das ist doch die einzige Karte, wo preislich nicht wirklich nach oben ging.
r3ptil3
2022-09-20, 17:25:35
Die Preise der Kleinen sind eh untragbar und werden recht schnell purzeln.
So ist es, Stichwort "unverbindlich".
Das 16Gb Modelle wird sich ziemlich sicher bei knapp unter 1000 Euro einordnen nach einer Weile.
davidzo
2022-09-20, 17:26:30
AD102 braucht 2750mhz um die versprochenen 90Tflops der 4090 zu erreichen. Boostclock?
BaseClk sollen ja 2520mhz sein. Das sind dann aber nur 82Tflops.
Am 3.November wird die RX 7000 mit RDNA-3 vorgestellt, hat Scott Herkelman auf Twitter bekanntgegeben
Launch, nicht Vorstellung.
Neurosphere
2022-09-20, 17:26:54
Was Nvidia merken wird, es fehlt ein Titel der die Leute dazu bringt eine neue GPU zu kaufen.
2077 war für Ampere schon ein Zugpferd, das zieht nun nicht nochmal und man merkt das man sonst nichts zum zeigen hat.
Grendizer
2022-09-20, 17:27:07
Schauen wir mal. Ich war auch mal der Meinung, das die Preise der 3080 mit 10 Gb nach pruzeln werden. Wir wissen, was dann kam. Ich hoffe, das wir so einen Mininghype und Cornaverknappung nicht nochmal erleben.
Aber fest auf sinkende Preise setzen kann man heute einfach nicht mehr.
BlacKi
2022-09-20, 17:27:30
Nach welcher Rechnung?
1 mal schneller ist doppelte Speed.2 mal schneller dreifache Speed.
Oder denke ist bei 2x doppelt so schnell gemeint,oder?
25 fps 3090ti -> 50-100fps 4090 von rasterizing bis RT
Sardaukar.nsn
2022-09-20, 17:27:52
Bei dem gewaltigen Unterschied, gebe selbst ich zu, dass mich die RTX 4080 kaum interessiert.
Da geht man direkt auf die RTX 4090, wenn man das braucht.
Das war vorab ja schon zu befürchten, 4080er für Enthusiasten echt weniger interessant.
Grendizer
Die Preise werden purzeln, das Ding wird ja einfach in den Mainstream abgeschoben.
Meridian12
2022-09-20, 17:28:01
So, wird die 4090 die meistverkaufste Karte aller Zeiten?! Schade, dass der Euro so abgekackt ist, aber der Preis der 4090 ist schon nett. :eek::cool:
??? Das ist doch die einzige Karte, wo preislich nicht wirklich nach oben ging.
;D;D
Das Ding wird wie Blei in den Läden liegen für 2000 Euro, wenn die erste Welle der "Muss unbedingt das neuste und beste haben" Fraktion gekauft hat.
Korvaun
2022-09-20, 17:28:20
Die "richtige 80er" mit 4 stelligem Preis ist einfach nur schwachsinnig.. das wird nicht lange gutgehen.
crux2005
2022-09-20, 17:28:30
Was Nvidia merken wird, es fehlt ein Titel der die Leute dazu bringt eine neue GPU zu kaufen.
Ja, das ist richtig.
Wobei du in FS 2020 nicht genug FPS haben kannst. In VR gilt das doppelt.
prinz_valium_2
2022-09-20, 17:28:34
https://pbs.twimg.com/media/FdG9Ah9WQAIqwrp?format=png&name=large
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.