PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24

dargo
2025-01-01, 16:26:33
in den interviews von mark cerny hört man ziemlich deutlich raus dass RT für die PS6 ein zentrales thema werden wird.
Also 10 Jahre nach Turing. :freak:

ChaosTM
2025-01-01, 16:33:00
Die guten RT Spiele der Turing Ära kann man an einem Finger abzählen.
Und RT ist noch nicht mal am PC Massenmarkt richtig angekommen.
Sowas dauert.. :)

Linmoum
2025-01-01, 16:42:47
Also 10 Jahre nach Turing. :freak:Also ganz normale Entwicklung wie bei allem, was irgendwann mal den ersten Schritt im Massenmarkt gemacht hat.

dildo4u
2025-01-01, 16:43:18
Echt ein geiler Sprung wenn die Zahlen so stimmen. Leider weiter mit nur 8gb VRam

Das ist was lange überfällig war lag daran das 4060TI und 3060TI die selbe Performance haben die 4060 war ein Witz.

AffenJack
2025-01-01, 17:14:52
Mobile 5060 ist 32% schneller im Timespy als die mobile 4060 (entspricht 1:1 Desktop) und auch schneller als die 4060TI Desktop: https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

TDP soll 115W sein. Wären also 30% Effizienzgewinn.

Klingt erstmal ganz gut, wenn wahr. Interessant wäre es, welcher Chip es ist. Einerseits wäre GB107 möglich, dann wären das 30% mehr Leistung mit 2560 Shadern vs 3072 Shader mit AD107 bei der 4060. Das würde auf nen nette IPC Steigerung deuten, da durch Takt alleine soviel nicht drin ist ohne Nodesprung.

Alternative wäre ein GB106 Salvage, da wäre man bei maximal 3584 Shadern, da der volle GB106 in der 5070 Mobile stecken soll. Hier würde das meiste von der Shadererhöhung kommen und man bräuchte nur noch 10% Takt plus minimalen Architekturvorteil.

robbitop
2025-01-01, 17:17:52
Bei den mobile GPUs muss man aufpassen. Da kann ganz schnell eine zu enge TDP einen großen Unterschied machen.

BlacKi
2025-01-01, 17:18:05
Mobile 5060 ist 32% schneller im Timespy als die mobile 4060 (entspricht 1:1 Desktop) und auch schneller als die 4060TI Desktop: https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

TDP soll 115W sein. Wären also 30% Effizienzgewinn.woher stammen die 115w? nicht dass mich das groß wundern würde, die anderen modelle sollen ja auch nicht im verbrauch steigen.


dann frag ich mich trotzdem, warum die 5080 angeblich 400w brauchen sollte. die 320w der 4080 müsste demnach ja auch ausreichen für +32%. wird die 5080 doch schneller als die 4090? das sind schon krasse werte. und die ableitungen auf den desktop wären noch krasser.


au mann, das hat echt hypetrain material.

Klingt erstmal ganz gut, wenn wahr. Interessant wäre es, welcher Chip es ist. Einerseits wäre GB107 möglich, dann wären das 30% mehr Leistung mit 2560 Shadern vs 3072 Shader mit AD107 bei der 4060. Das würde auf nen nette IPC Steigerung deuten, da durch Takt alleine soviel nicht drin ist ohne Nodesprung.

Alternative wäre ein GB106 Salvage, da wäre man bei maximal 3584 Shadern, da der volle GB106 in der 5070 Mobile stecken soll. Hier würde das meiste von der Shadererhöhung kommen und man bräuchte nur noch 10% Takt plus minimalen Architekturvorteil.

naja, die speicherbandbreite hat sich hier massiv erhöht. das hat sicherlich ebenfalls hier massiv mit reingespielt.

Bei den mobile GPUs muss man aufpassen. Da kann ganz schnell eine zu enge TDP einen großen Unterschied machen.
gddr7 soll ja strom sparen, was eben tdp für den chip freimacht.

dildo4u
2025-01-01, 17:29:24
Die 5060 könnte auch einfach 140TDP nutzen viele Laptops wurden wegen der 4070 darauf ausgelegt.

https://laptopmedia.com/de/analysis/comparing-all-rtx-4070s-whats-the-real-difference-between-65w-105w-120w-and-140w-tgp-and-should-you-invest-more-money/

Troyan
2025-01-01, 17:34:12
Auch die 4060 können bis zu 140W gehen.

Aber der Vergleich mit der mobile RTX4070 ist doch ganz gut: Die hat 29% mehr Recheneinheiten (4608 zu 3584) und liefert fast 10% weniger Leistung. Die Desktop RTX4060TI ist minimal langsamer bei 160W.

Gut, könnte auch Fake sein bei der mobilen 5060.

ChaosTM
2025-01-01, 17:40:53
Mein Laptop erlaubt der GPU bis zu 165Watt, aber das bringt nichts außer noch mehr Lärm..

Troyan
2025-01-01, 17:43:50
4060 und 4070 cappen sowieso bei <=110W. nVidia lässt nicht mehr zu. Bezweifel jedoch, dass die das bei der 5060 ändern, weil dann die ganzen Design angepasst werden müssten.

Mortalvision
2025-01-01, 17:48:59
dann bist du falsch informiert. RT ist auf lange sicht viel einfacher und billiger für developer. bei raster ist alles "mixed" wo zig verschiedene algorithmen zig verschiedene probleme lösen, und das für jede ecke im spiel per hand.

Das ist ganz korrekt so. Aber Du musst halt ein paar sehr viele Punkte berechnen. Quasi nicht die Geometrie füllen, die Texturen drauf, die Beleuchtung drauf, irgendein paar Mesh-/Murks-/Pups-Effekte an diese Stelle oder in diesen Bereich. Nein, du gehst vom Auge des Betrachters quasi pro Bildpunkt (oder mehrere virtuelle Bildpunkte, um das nachher abzumischen) in die Geometrie hinein, triffst auf eine Textur mit Effekt x, lässt den Blickpfeil weiter wandern und schaust, ob Du z.B. auf eine helle Wand dahinter, eine Lampe, oder schlicht ne dunkle Nacht triffst (ja, die Dunkelheit hat Textur in der Berechnung :freak:). Dann gehst Du noch x-mal weiter und mischst das in die Berechnung von Helligkeit und Farbe mit ein. Das Ergebnis: Du siehst eine aus einzelnen Bildpunkten zusammengesetzte Welt. Nicht das alte Ergebnis des Rasterizers: „Stelle Tisch xy an Stelle +100,2/-15-/+19,7 dar, in Farbe x beleuchtet aufgrund von Textur 67a3, berechnet aus Entfernung 65m“

Jetzt wirst Du Dich vielleicht fragen: „Warum kann ich denn nicht klassisch in die erstellte Welt hineinschauen?“ Na, ganz einfach. Sonst musst Du anfangen, von jedem Punkt der Welt zu jedem anderen sichtbaren Punkt das Raytracing zu erledigen. Wenn Du dann alle Pfeile, die zum Auge der Spielfigur führen, als ein Bild darstellen würdest, hättest Du die ideale Sicht, die wir Menschen im Prinzip auch haben. Nur das kriegst Du nie und nimmer berechnet.

Raytracing bedeutet im Grunde, dass die Welt in dich hineinprojeziert. So wie das mit unseren Augen auch ist. Nur tut man es der Einfachheit halber umgedreht berechnen.

Raff
2025-01-02, 09:17:25
Echt ein geiler Sprung wenn die Zahlen so stimmen. Leider weiter mit nur 8gb VRam

Nvidia, wir müssen reden: Schluss mit dem VRAM-Geiz! (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/8-GByte-VRAM-RTX-5060-Kommentar-1462224/)

MfG
Raff

robbitop
2025-01-02, 09:34:34
Da hilft nur nicht kaufen. Aber leider gibt’s immer genug Lemminge die es doch tun ^^

Relex
2025-01-02, 10:23:53
Nicht kaufen würde aber bedeuten GAR KEINE neue GPU zu kaufen.

Kauft man teurere Karten mit mehr VRAM bestätigt man Nvidia ja trotzdem darin, beim Speicher zu sparen.

Nvidia kann nur gewinnen. Entweder wirst du von den 8 GB abgeschreckt und kaufst teurer ein. Tech enthusiasten werden dann auch von 12 oder sogar 16 GB abgeschreckt und kaufen noch teurer und wer sich tatsächlich ne 8 GB Karte kauft, wird eben entsprechend schnell wieder ne neue brauchen.

Ist halt relativ simples Upselling. 12 GB für ne 5060, welche mindestens RTX4070 performance bringt und 400€ kostet. 16 GB für ne 5070, welche 4080 performance liefert und 24 GB für ne 5080 welche 4090 performance liefert. Das würde die meisten zufrieden stellen.
Nvidia würde aber viel weniger 5090 und 5080 verkaufen, wenn sie das so machen würden...
Also warum sollten sie?


Solange sie dadurch nicht nennenswert Marktanteile verlieren wird Nvidia das weiter durchziehen. Und hey, warum sollte man denn nicht auf einer 5060 mit low settings spielen, mit ner 5070 auf medium, mit ner 5080 auf high und mit ner 5090 auf ultra?
Insgeheim wäre das doch der Traum von nvidia. Wo kommen wir denn hin, wenn man ne einsteiger Grafikkarte kauft und dann ultra settings nutzen könnte???!!
Zum Glück gibt es Konsolen, die durch ihre Existenz und große Zielgruppe dafür sorgen, dass sowas praktisch unmöglich wird. Ohne Konsolen würden die GPU Hersteller völlig frei drehen und es wäre wahrscheinlich wirklich so wie beschrieben.

Lawmachine79
2025-01-02, 10:28:36
Da hilft nur nicht kaufen. Aber leider gibt’s immer genug Lemminge die es doch tun ^^
Ich helfe, indem ich die 3090 und die 4090 gekauft habe. Mit gaaaaanz viel VRAM. Und was ist die Alternativlösung? AMD kaufen, Karten die technisch auf dem Stand von 2020 sind?

DrFreaK666
2025-01-02, 10:28:47
Also wenn die Leaks stimmen, dann wird die 5080 mal richtig teuer

FyJYPX0LHj0

Troyan
2025-01-02, 10:29:47
Und wie sollten die das schaffen, wenn es keine günstigeren Prozesse und Speicher gibt? Die verbrauchen jetzt sogar GDDR7 Speicher, weil man eben keine Transistoren aufbringen will.

Angeblich soll die mobile 5090 24GB bekommen. Könnte ein Testrun für 3GB Chips sein: https://videocardz.com/newz/nvidia-geforce-rtx-5090-laptop-gpu-rumored-to-feature-24gb-gddr7-memory-thanks-to-new-3gb-modules

Lawmachine79
2025-01-02, 10:32:50
Also wenn die Leaks stimmen, dann wird die 5080 mal richtig teuer


Dann nehme ich lieber eine 5090.

VooDoo7mx
2025-01-02, 10:34:53
Das ist was lange überfällig war lag daran das 4060TI und 3060TI die selbe Performance haben die 4060 war ein Witz.
Das lag einfach nur daran, dass nViida bei Ada den kleineren Chips einfach einen höheren Marketingnamen gegeben hat.
Eine 4060Ti ist eigentlich eine 4060 und eine 4060 müsste eigentlich 4050Ti heißen wenn man das selbe Namensschema der Vorgänger-Generation anwendet.
Wenn man dies mit einbezieht, gab es auch bei dieser Generation einen guten Leistungssprung pro Chip.
Klingt erstmal ganz gut, wenn wahr. Interessant wäre es, welcher Chip es ist. Einerseits wäre GB107 möglich, dann wären das 30% mehr Leistung mit 2560 Shadern vs 3072 Shader mit AD107 bei der 4060. Das würde auf nen nette IPC Steigerung deuten, da durch Takt alleine soviel nicht drin ist ohne Nodesprung.

Alternative wäre ein GB106 Salvage, da wäre man bei maximal 3584 Shadern, da der volle GB106 in der 5070 Mobile stecken soll. Hier würde das meiste von der Shadererhöhung kommen und man bräuchte nur noch 10% Takt plus minimalen Architekturvorteil.

Bisher ist es ja nur ein Gerücht, dass GB107 auf 20SM reduziert wird.
Ansonsten kann auch deine Annahme korrekt sein, dass GB107 diesmal nur als RTX5050 verkauft wird und 5060 ein Salvage GB106 ist.
Wenn dieses Ergebnis von einen 20SM GB107 stammt, dann wäre der Leistungs-Generationensprung ja gewaltig.

woher stammen die 115w? nicht dass mich das groß wundern würde, die anderen modelle sollen ja auch nicht im verbrauch steigen.


dann frag ich mich trotzdem, warum die 5080 angeblich 400w brauchen sollte. die 320w der 4080 müsste demnach ja auch ausreichen für +32%. wird die 5080 doch schneller als die 4090? das sind schon krasse werte. und die ableitungen auf den desktop wären noch krasser.

115W (+25W Boost) sind genau das was die 4060 heute hat und die TDP im Notebook sollen sich wohl nicht ändern.

Und wie du zur 5080 selber schreibst "angeblich", also sind alles nur Gerüchte und keine bestätigten Informationen.
Mein Tipp; die 5080 wird weiter bei 320W bleiben. Sie hat auch kaum mehr Recheneinheiten als die 4080 Super und diese erreicht ja auch nur sehr selten die TDP Grenze.
Auch die 5090 wird bei 450W bleiben. ;)
4060 und 4070 cappen sowieso bei <=110W. nVidia lässt nicht mehr zu. Bezweifel jedoch, dass die das bei der 5060 ändern, weil dann die ganzen Design angepasst werden müssten.
Nöö.
Ich hatte nen 4070 Laptop und mit dieser kann man locker die max 140W sprengen und die GPU ins Power Limit Throttling bekommen.
Nvidia, wir müssen reden: Schluss mit dem VRAM-Geiz! (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/8-GByte-VRAM-RTX-5060-Kommentar-1462224/)

MfG
Raff
https://i.imgflip.com/9fg82q.jpg

BlacKi
2025-01-02, 10:38:47
Da hilft nur nicht kaufen. Aber leider gibt’s immer genug Lemminge die es doch tun ^^die kleinen 8gb karten wandern meist in fertig pcs. leute, die kaum wissen was sie da kaufen. also wird sich daran nichts ändern. aber ich denke, es wird wie bei der 4060ti im besten fall die option auf 16gb geben. möglicherweise durch druck aus der community und den reviewern. insofern schon mal dank an raff.

robbitop
2025-01-02, 10:41:31
Nicht kaufen würde aber bedeuten GAR KEINE neue GPU zu kaufen.

Und wo ist das Problem? Dann hat man halt keine neue GPU. Gibt genug andere interessante Dinge außer im Zimmer zu hängen und zu zocken. Da geht die Welt nicht unter. Also ich bin da jedenfalls nicht abhängig.
Ich behalte alte HW bis angemessene HW zum angemessenen Preis vorhanden ist. Zur Not auch gebraucht.

rentex
2025-01-02, 10:44:03
Und wo ist das Problem? Dann hat man halt keine neue GPU. Gibt genug andere interessante Dinge außer im Zimmer zu hängen und zu zocken. Da geht die Welt nicht unter. Also ich bin da jedenfalls nicht abhängig.
Ich behalte alte HW bis angemessene HW zum angemessenen Preis vorhanden ist. Zur Not auch gebraucht.

+1

MiamiNice
2025-01-02, 10:46:42
Ich behalte alte HW bis angemessene HW zum angemessenen Preis vorhanden ist. Zur Not auch gebraucht.

-1 ;D

Relex
2025-01-02, 11:06:02
Und wo ist das Problem? Dann hat man halt keine neue GPU. Gibt genug andere interessante Dinge außer im Zimmer zu hängen und zu zocken. Da geht die Welt nicht unter. Also ich bin da jedenfalls nicht abhängig.
Ich behalte alte HW bis angemessene HW zum angemessenen Preis vorhanden ist. Zur Not auch gebraucht.


Gebraucht kauf ich zwar nicht, aber so handhabe ich es auch. Die 4080 wird noch sehr lange bleiben dürfen.

Doppelte Leistung bei 250W wäre z.B. das mindeste was es braucht, um mich zu einem Upgrade zu bewegen. Und unter 32 GB VRAM werde ich wahrscheinlich ebenfalls nicht aufrüsten. Bisher hab ich immer verdoppelt.
Zur Not warte ich halt noch 5 Jahre.

gnomi
2025-01-02, 11:09:02
Wird ähnlich wie bei der 4000er Serie.
Also die 80er Karte schon teuer.
Wer keinen Aufschlag bezahlt, wird denke ich leer ausgehen.
Ein Jahr später kommt dann vermutlich wieder Super.
Ein ernsthaftes Produkt zwischen 80er und 90er wird es nur geben, wenn die Karten allgemein bei den Gamern liegenbleiben.
Nur durch Druck und dann auch in Folge sehr schlechte Software Verkäufen, wird sich ein wenig ändern.
Auf Playstation wird es ähnlich sein. Wenn nur 20% eine Pro kaufen und die Software weiter passabel läuft trotz Einsparungen bei den Budgets und kreativen Ideen, wird die PS6 trotzdem kein Laufwerk haben und preislich eher Hoch positioniert.
Die große Masse wird einfach rausgekegelt in diesen Zeiten. :(

DrFreaK666
2025-01-02, 11:13:33
Irgendein exklusives Feature wird die Hardware dann schon verkaufen, weil es die alte Generation angeblich nicht kann, bzw. es Nvidia nicht umsetzen will

Troyan
2025-01-02, 11:16:22
Wird ähnlich wie bei der 4000er Serie.
Also die 80er Karte schon teuer.
Wer keinen Aufschlag bezahlt, wird denke ich leer ausgehen.
Ein Jahr später kommt dann vermutlich wieder Super.
Ein ernsthaftes Produkt zwischen 80er und 90er wird es nur geben, wenn die Karten allgemein bei den Gamern liegenbleiben.
Nur durch Druck und dann auch in Folge sehr schlechte Software Verkäufen, wird sich ein wenig ändern.
Auf Playstation wird es ähnlich sein. Wenn nur 20% eine Pro kaufen und die Software weiter passabel läuft trotz Einsparungen bei den Budgets und kreativen Ideen, wird die PS6 trotzdem kein Laufwerk haben und preislich eher Hoch positioniert.
Die große Masse wird einfach rausgekegelt in diesen Zeiten. :(

Der Spielemarkt wird in absehbarer Zeit von UE5 dominiert. Da reichen auch 8GB aus, weil die Engine so lahm ist, das mehr als 1080p kaum machbar ist.

Neosix
2025-01-02, 11:28:43
Schaltet man eben eine dlss Stufe runter, dann passt das schon :/

Lurtz
2025-01-02, 11:31:15
Als würde Voting with your Wallet bei der wertvollsten Firma der Welt, die mit Datacenter und AI Geld druckt, was bringen :rolleyes: Ist das dieser Fiebertraum, man hätte im ach so freiheitlich, individuellen Kapitalismus als kleiner Gamer-Konsument was zu melden? ;D

The_Invisible
2025-01-02, 11:33:31
Und wo ist das Problem? Dann hat man halt keine neue GPU. Gibt genug andere interessante Dinge außer im Zimmer zu hängen und zu zocken. Da geht die Welt nicht unter. Also ich bin da jedenfalls nicht abhängig.
Ich behalte alte HW bis angemessene HW zum angemessenen Preis vorhanden ist. Zur Not auch gebraucht.

Ist doch jeden selbst überlassen, als ob man in anderen Bereichen nicht abgezockt wird. AMD spielt jetzt auch nicht den Samariter indem sie ihre neue Midrange 9070xt für ~300EUR anbieten wie früher...

gnomi
2025-01-02, 11:34:09
Irgendein exklusives Feature wird die Hardware dann schon verkaufen, weil es die alte Generation angeblich nicht kann, bzw. es Nvidia nicht umsetzen will

Kann gut sein. So war es ja bei Frame Generation.
Man muss nvidia lassen, dass es tatsächlich funktioniert mit dem Fortschritt.
Der Sprung von 2080 auf 3080TI fühlte sich bei mir nicht unbedingt besser als 3080TI auf 4080S an wegen 4K DLSS Performance plus FG bei Full RT Titeln.
Spiele ohne Schnickschnack sind eher gar keine Herausforderung auf beiden Karten.
Was nvidia bei Hardware Preisen und Software Features macht, ist auch ihr Ding und ein konkurrenzloses Produkt ist eben nicht überteuert streng genommen.

Der Spielemarkt wird in absehbarer Zeit von UE5 dominiert. Da reichen auch 8GB aus, weil die Engine so lahm ist, das mehr als 1080p kaum machbar ist.

Wieso ist die lahm? Sie benötigt ein gewisses Tech Niveau. Etwa PS5 oder 2070/2080 Performance.
PS5 hat mehr Puffer beim VRAM, nvidia das bessere Upscaling.
PS5 wird imho länger durchhalten mit Optimierungen, aber die Bildqualität bei 60 fps Target ist schon ein Problem. (Immortals zum Beispiel)
Da wird man sich schon etwas ärgern die nächsten Jahre bzw. eine Pro wäre doch nicht so schlecht abseits des Preises.
Ich persönlich bin bei modernen UE5 Spielen auch beruhigt, 4080S Performance zu haben.
In 4K mit FG und selbst nur DLSS Performance sieht es top aus.
Und ohne DLSS/FG Support hat man immerhin mehr Performance für 60 fps Minimum in 4K. Mit Ampere ist bei UWQHD auch mit limitierten Upscaling immer öfter mal Schluss.

Neosix
2025-01-02, 11:34:47
Als würde Voting with your Wallet bei der wertvollsten Firma der Welt, die mit Datacenter und AI Geld druckt, was bringen :rolleyes: Ist das dieser Fiebertraum, man hätte im ach so freiheitlich, individuellen Kapitalismus als kleiner Gamer-Konsument was zu melden? ;D


Bei der 4080 hat es aber was gebracht. Die war so unbeliebt, dass der Preis tatsächlich runter ging. Dann auch bei der 80super. Von 1400 auf 1100€. Vereinzelt gab es auch Angebote knapp über 1k. So viel Preis Bewegung gab es bei dem 40 Portfolio sonst nicht. Das könnte sich hier wiederholen. Weswegen die 5080s dann ein deutliche runderes Produkt wird. Nur eben 1 Jahr später.

Troyan
2025-01-02, 11:36:43
PS5 ist jetzt schon überfordert mich UE5 Spielen. Die Spiele laufen hier nichtmal im nativen 1080p...

Auf dem PC benötigt man mindestens eine 4070, um in den meisten UE5 Spielen auf 60 FPS in 1080p zu kommen. Da bringen 12GB/16GB bei einer 5060 überhaupt nichts, wenn diese weiterhin 25% oder so langsamer ist.

gnomi
2025-01-02, 11:40:05
Als würde Voting with your Wallet bei der wertvollsten Firma der Welt, die mit Datacenter und AI Geld druckt, was bringen :rolleyes: Ist das dieser Fiebertraum, man hätte im ach so freiheitlich, individuellen Kapitalismus als kleiner Gamer-Konsument was zu melden? ;D

Die Gesamtentwicklung kannst Du nicht beeinflussen.
Meine Empfehlung. Kaufe etwas kleiner und später, als du müsstest und erwerbe ein paar Firmen Anteile parallel.
Es gibt überhaupt kein Recht, sich da als Opfer aufzuspielen.
Die Firma ist seit Jahrzehnten überragend und unser Markt ist unter den besten weltweit mit hoher Kaufkraft. Bisschen fair einordnen mal alles.

MiamiNice
2025-01-02, 11:40:13
Bei der 4080 hat es aber was gebracht. Die war so unbeliebt, dass der Preis tatsächlich runter ging. Dann auch bei der 80super. Von 1400 auf 1100€. Vereinzelt gab es auch Angebote knapp über 1k. So viel Preis Bewegung gab es bei dem 40 Portfolio sonst nicht. Das könnte sich hier wiederholen. Weswegen die 5080s dann ein deutliche runderes Produkt wird. Nur eben 1 Jahr später.

Die 80iger Karten sollen sich imho nicht verkaufen, ist reines upselling. Mit der S soll dann der Bestand an Chips schrumpfen eher die neue Gen ansteht. So zumindest stelle ich mir das vor. Das bedeutet auch, dass die 5080 extra teuer wird, wie schon die 4080.

@Troyan:

BTW: Auf der Switch gibt es idr. mehr Gameplay und Spielspaß als auf dem PC in den üblichen RT/PT Spielen. Ich mache an dieser Stelle keine Witze.

robbitop
2025-01-02, 11:40:45
Als würde Voting with your Wallet bei der wertvollsten Firma der Welt, die mit Datacenter und AI Geld druckt, was bringen :rolleyes: Ist das dieser Fiebertraum, man hätte im ach so freiheitlich, individuellen Kapitalismus als kleiner Gamer-Konsument was zu melden? ;D
Es gibt auch Prinzipien. Das gleiche Argument: ich allein kann nichts ändern gibt es in so vielen Fällen und es trifft oft nicht unbedingt zu. Und nur weil ich als Einzelner sehr eingeschränkten Einfluss habe muss ich etwas was mir misfällt trotzdem nicht unterstützen. ;)

Ist doch jeden selbst überlassen, als ob man in anderen Bereichen nicht abgezockt wird. AMD spielt jetzt auch nicht den Samariter indem sie ihre neue Midrange 9070xt für ~300EUR anbieten wie früher...

Der Kommentar ist IHV agnostisch. Bzw sogar Produktagnistisch. Wenn P/L nicht passt muss ich nicht kaufen. Egal was egal von wem. Und ich evaluiere auch Gebrauchtkäufe. Sobald es egal von wem und egal ob neu oder gebraucht einen guten Deal gibt: kaufe ich.

Aber ja kann natürlich jeder machen wie er will. Prinzipien sind optional. ;)

00-Schneider
2025-01-02, 12:01:26
Geht das Preisgeheule schon wieder los?

MiamiNice
2025-01-02, 12:05:16
Ne, das ist ein alter Hut. Heute gibt es Level 2 vom Preisgeheule -> Verzicht auf die Karten. Morgen proben wir dann den Aufstand, nächsten Montag planen wir dann das Attentat auf NV :D

Fragman
2025-01-02, 12:08:51
Mehr Sinn würde es machen, bei der Konkurrenz zu kaufen.
Damit man an den Verkaufszahlen erkennen kann das der Bedarf da ist, die eigenen Produkte aber unattraktiv sind.

BlacKi
2025-01-02, 12:15:14
Mehr Sinn würde es machen, bei der Konkurrenz zu kaufen.
Damit man an den Verkaufszahlen erkennen kann das der Bedarf da ist, die eigenen Produkte aber unattraktiv sind.genügend vram ist keine lösung für alle probleme. amd ist für die meisten keine option, sonst würden sie gekauft werden. zumal es bei nv optionen gibt, um nicht amd kaufen zu müssen. 16gb halte ich für ausreichend, alternativ gebrauchte 30 gen kaufen.

Relex
2025-01-02, 12:18:53
Die 80iger Karten sollen sich imho nicht verkaufen, ist reines upselling. Mit der S soll dann der Bestand an Chips schrumpfen eher die neue Gen ansteht. So zumindest stelle ich mir das vor. Das bedeutet auch, dass die 5080 extra teuer wird, wie schon die 4080.



Schon komisch und für mich war die 4080 das perfekte Produkt.

Für meinen Geschmack zwar auch zu viel Geld für ne GPU, ich hätte gern der hälfte ausgegeben, aber andere Zeiten und so...
Zum Kaufzeitpunkt immerhin fast 700€ günstiger als ne 4090. Alleine der Preisunterschied war schon deutlich größer als ich früher für GPUs ausgegeben habe... Irgendwann endet für mich dann auch die Verhältnismäßigkeit.

Mit 250W Limit vergleichsweise extrem sparsam und ohne Leistungsverlust zu betreiben.

16 GB VRAM mit immerhin 256 Bit. Was so viel Speicher ist, wie die Konsolen an Gesamtspeicher haben, was bedeutet, dass es garantiert reicht, um bis zur PS6 damit auszukommen. (nein, es muss nicht immer alles in 4K nativ, Pathtracing, Hyper super mega texturen usw. laufen)

DLSS und Frame Generation

Genug Leistung und mit DLSS und FG genug Spielraum um damit ein 4K Display ordentlich zu befeuern.

Mehr als doppelte Konsolen Leistung (was meine Mindestanforderung ist) tatsächlich sogar 2,5x (Raster) und mind. 3 fache leistung mit RT sind ebenfalls genug um den Anforderungen kommender Spiele gerecht zu werden und deutlich bessere Grafik und Frameraten als auf Konsole zu genießen.

Für mich war es die perfekte "xx70er" Karte. :biggrin:


Ich hatte eben ziemlich genaue Vorstellungen und die 4080 hat das perfekt erfüllt.
Günstiger hätte sie natürlich sein dürfen, mir widerstreben die Preise, weil man das Gefühl hat, sie können jeden Preis verlangen. Aber wenn ich genau das Produkt bekomme, das ich will und keine Alternativen in Sicht sind, passe ich auch das Budget bis zu nen gewissen Rahmen an. Mir tut das nicht weh, aber sinnlos schmeiß ich denen auch kein Geld hinterher.
Die 4090 war mir zu stromhungrig (Abwärme) und hat im Vergleich viel zu wenig Mehrleistung für den Aufpreis geboten. Und notwendig, war es für mich eh nicht, da die 4080 ja bereits alles erfüllt hat, was ich in Sachen Speicher und Performance wollte.

Hätte es damals die 4070ti Super mit 16 GB schon gegeben, hätte ich wahrscheinlich zu der gegriffen, da es praktisch die selbe Konfiguration nur mit ein wenig geringerer Performance ist.



Wenn ich mich zwischenzeitlich nicht zu was neuem hinreißen lasse, ist das nächste Ziel mindestens doppelte PS6 Performance, mindestens so viel VRAM wie die PS6 als Gesamtspeicher hat oder 32 GB bei max 250W. Meinetwegen auch wieder 320W TDP, wenn die sich ohne Leistungsverlust auf 250W eindrosseln lassen.

robbitop
2025-01-02, 12:29:29
Mehr Sinn würde es machen, bei der Konkurrenz zu kaufen.
Damit man an den Verkaufszahlen erkennen kann das der Bedarf da ist, die eigenen Produkte aber unattraktiv sind.

Aber auch nur wenn die Konkurrenz ein gutes Produkt für einen guten Preis hat. Ansonsten hat man ja selbst nicht viel vom Kauf. RDNA2 hat das abgeliefert. RDNA3 eher nicht. Das muss man halt immer neu bewerten.

Raff
2025-01-02, 12:47:57
Geht das Preisgeheule schon wieder los?

Howling since 2013. Wir haben es kollektiv verkackt, die Titan (https://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Alte-Enthusiast-GPU-vs-neue-Einsteiger-Grafikkarte-1421016/) war zu verführerisch. :ugly:

MfG
Raff

Fragman
2025-01-02, 12:59:32
Aber auch nur wenn die Konkurrenz ein gutes Produkt für einen guten Preis hat. Ansonsten hat man ja selbst nicht viel vom Kauf. RDNA2 hat das abgeliefert. RDNA3 eher nicht. Das muss man halt immer neu bewerten.

Das ist die Voraussetzung und noch habe ich Hoffnung das wir das auch bekommen.

MiamiNice
2025-01-02, 13:07:55
Schon komisch und für mich war die 4080 das perfekte Produkt.

Was ich geschrieben habe, muss ja nicht heißen, dass niemand etwas mit der 4080 anfangen konnte. Wie man sieht, hat es ja z.b. bei Dir gut gepasst. Kollidiert aber nicht mit dem Argument, dass die 4080 nitial so teuer war, damit man eher zu 4090 greift. Um den Chipbestand zu verringern, kam dann die 4080S (wobei das meine Speku ist).

Mal am Rande, weil Du der Relex bist :biggrin: Ich würde, als reiner AAA(A) Gamer gar keine 80 oder 90iger Karte kaufen. DLSS regelt und zusätzlich gibt es Grafikoptionen. Für die guten Spiele heute, zu 99% Indie Games, braucht man lange keine 40/5090. Da reicht auch eine 3090, vor allem wenn man straight RT ausmacht :wink:
Ich kaufe eine 5090 nur wegen VR, nicht wegen Spielchen am altertümlichen Oled Guckloch. Wenn ich das nicht hätte, gäbe es max. eine 5070TI.

Matrix316
2025-01-02, 13:22:20
Howling since 2013. Wir haben es kollektiv verkackt, die Titan (https://www.pcgameshardware.de/Geforce-GTX-Titan-Grafikkarte-256920/Specials/Alte-Enthusiast-GPU-vs-neue-Einsteiger-Grafikkarte-1421016/) war zu verführerisch. :ugly:

MfG
Raff
Ich glaube ja immer noch, wenn man den Namen Titan für die 3090 und 4090 beibehalten hätte, dass die sich gar nicht so gut verkauft hätten. Aber nee, es sind ja plötzlich "Gamer Geforce Karten" für weit über 1000 Euro da. Und die "doofen Gamer" müssen ja jeden Scheiß haben, egal wie teuer... :rolleyes:

Wir sind Schuld bzw. die, die so viel Geld für eine Grafikkarte bezahlt haben.

Kriegsgeier
2025-01-02, 14:25:50
Es existieren schon die 3GByte GDDR7 Chips?!
Angeblich soll die 5090 Mobile mit 24GB diese nutzen.

Prinzenrolle
2025-01-02, 14:28:05
Da hilft nur nicht kaufen. Aber leider gibt’s immer genug Lemminge die es doch tun ^^

Dann lässt man die 8GB Varianten eben weg. Problem gelöst.
Verkauft sich die 5060 8GB nicht, erhöht Nvidia auf die 16GB Variante.
Und mehr wie 16GB zu wollen, ist momentan eher ein Luxusproblem.

Da bringen 12GB/16GB bei einer 5060 überhaupt nichts, wenn diese weiterhin 25% oder so langsamer ist.

Ist das dein Ernst? Die 8GB sind ein Witz und einfach zu wenig. Wenn die Karte wenigstens 10GB hätte.

horn 12
2025-01-02, 14:33:41
Deswegen kommen die 5090 - auch Mobil erst im Februar womöglich auf den Markt
und sollen recht Rar sein,-daher auch künstliche Verknappung.
Bis sich dies Bessert wohl Ende Frühling denk ich mal.

Troyan
2025-01-02, 14:42:10
Ist das dein Ernst? Die 8GB sind ein Witz und einfach zu wenig. Wenn die Karte wenigstens 10GB hätte.

Ja, voller ernst. UE5 Spiele sind nicht VRAM hungrig. Der Rest ist unoptimierter Müll von den Konsolen, die aus welchen Gründen >10GB in 1080p benötigen. :freak:

Prinzenrolle
2025-01-02, 14:48:57
Ja, voller ernst. UE5 Spiele sind nicht VRAM hungrig.

Stalker ist V-RAM hungrig. 8GB laufen in jedem zweiten Spiel ans Limit, also wer das für passend hält, muss schon in einer sehr speziellen Welt leben.

J
Der Rest ist unoptimierter Müll von den Konsolen, die aus welchen Gründen >10GB in 1080p benötigen. :freak:

8GB gab es standardmäßig schon 2014, vor 11 Jahren.

Raff
2025-01-02, 14:50:03
Ja, voller ernst. UE5 Spiele sind nicht VRAM hungrig. Der Rest ist unoptimierter Müll von den Konsolen, die aus welchen Gründen >10GB in 1080p benötigen. :freak:

"Unoptimierter Müll" ist in unserer imperfekten Welt eher Regel denn Ausnahme. Um es mit dem unvermeidlichen Autovergleich zu sagen: Würdest du eine Karre kaufen, die nur auf frisch geteerten Autobahnen rollt, obwohl die Straßen des ganzen Landes marode Schlaglochpisten sind?

MfG
Raff

basix
2025-01-02, 14:56:56
Es existieren schon die 3GByte GDDR7 Chips?!
Angeblich soll die 5090 Mobile mit 24GB diese nutzen.

Scheint so, ja:
https://videocardz.com/newz/nvidia-geforce-rtx-5090-laptop-gpu-rumored-to-feature-24gb-gddr7-memory-thanks-to-new-3gb-modules

Troyan
2025-01-02, 14:58:10
Stalker ist V-RAM hungrig. 8GB laufen in jedem zweiten Spiel ans Limit, also wer das für passend hält, muss schon in einer sehr speziellen Welt leben.

Laut dem hier reichen 8GB für 1080p vollkommen aus: https://gamegpu.com/action-/-fps-/-tps/s-t-a-l-k-e-r-2-heart-of-chornobyl-test-gpu-cpu-2024

Ob man sich dagegen mit 48 FPS (3070) zu frieden geben würde, ist eine andere Frage...

8GB gab es standardmäßig schon 2014, vor 11 Jahren.

1080p von 2005. Ohne intelligentes Upscaling wäre alles über 1080p für die Masse kaum erreichbar, da die UE5 dermaßen ineffizient ist.

"Unoptimierter Müll" ist in unserer imperfekten Welt eher Regel denn Ausnahme. Um es mit dem unvermeidlichen Autovergleich zu sagen: Würdest du eine Karre kaufen, die nur auf frisch geteerten Autobahnen rollt, obwohl die Straßen des ganzen Landes marode Schlaglochpisten sind?

MfG
Raff

Nun, vielleicht macht er mehr sinn sich für bessere Straßen einzusetzen als für Autos, mit denen man durch Schlaglöcher fahren kann...

Raff
2025-01-02, 15:01:26
Laut dem hier reichen 8GB für 1080p vollkommen aus: https://gamegpu.com/action-/-fps-/-tps/s-t-a-l-k-e-r-2-heart-of-chornobyl-test-gpu-cpu-2024

Da hat deren Benchmark-KI nicht mit den Eigenheiten des Spiels gerechnet. :ugly:

-> https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/2/#a2
-> Reicht nicht, zackige NV-Speicherverwaltung hin oder her.
-> RTX 4060 Ti 16GB macht hier übrigens fesche ~29/44,2 Fps.

Nun, vielleicht macht er mehr sinn sich für bessere Straßen einzusetzen als für Autos, mit denen man durch Schlaglöcher fahren kann...

Da bin ich ausnahmsweise voll bei dir – aber realistisch genug, das als Utopie abzuhaken.

MfG
Raff

The_Invisible
2025-01-02, 15:01:34
Mehr Sinn würde es machen, bei der Konkurrenz zu kaufen.
Damit man an den Verkaufszahlen erkennen kann das der Bedarf da ist, die eigenen Produkte aber unattraktiv sind.

Gerne wenn sie mal in die Nähe des technischen Levels von NV kommen würden. Aber warum für einen 1000er eine 79xtx kaufen wenn man für bisschen mehr schon eine 4080s bekommt.

madzapp
2025-01-02, 15:04:41
Wenn alles voller Bauarbeiten ist, kann auch keiner mehr fahren.

Sardaukar.nsn
2025-01-02, 15:37:39
MSI 5080 Gaming Trio
https://videocardz.com/newz/msi-geforce-rtx-5080-gpu-has-been-leaked-16gb-gddr7-and-256-bit-confirmed

https://i.imgur.com/E9S2kQ0.png

MiamiNice
2025-01-02, 15:40:42
GB203, fehlt nur noch der Preis von 1500$ ;D

Tomahawk
2025-01-02, 15:47:25
Zur MSI 5080 -> Mich wundert, dass das PCI-Express-Interface nicht angegeben ist. Mit PCIe 5.0 würde man doch vermutlich werben

Neurosphere
2025-01-02, 16:35:24
Zur MSI 5080 -> Mich wundert, dass das PCI-Express-Interface nicht angegeben ist. Mit PCIe 5.0 würde man doch vermutlich werben

Stimmt. Zum Vergleich die 4080 Box:

https://pbs.twimg.com/media/GgSonsybMAEpnBQ?format=jpg&name=large

Allerdings muss das nicht die finale Box sein, wer weiß wo die Bilder her kommen, oder MSI hat es einfach weg gelassen.

Raff
2025-01-02, 16:37:21
Sieht für mich auch unvollständig aus - als warte man auf die finalen Claims & Specs.

MfG
Raff

Matrix316
2025-01-02, 16:43:56
So "normal" wie die Packung aussieht, kann die nicht mehr wie 1000$ ohne Steuern kosten. ;)

Die können doch nicht einen 4090 Preis dafür verlangen? Ich will nicht so viel bezahlen! :ugly:

Mortalvision
2025-01-02, 16:44:35
Interessiert nicht. Kriegste so nicht ausgelastet…

Viel wichtiger ist die Anbindung und die Taktung vom VRAM

Thunderburne
2025-01-02, 17:26:16
Kühler von 3,5 Slots 4080 Trio auf 2,2 Slot 5080Trio ????+80W???


https://wccftech.com/first-nvidia-geforce-rtx-5080-gpu-custom-model-leaks-out-16-gb-gddr7-memory-confirmed/

Catrovacer
2025-01-02, 17:52:51
Möglicherweise gibt es die erste pixelige Aufnahme des Nvidia Referenzdesigns: https://videocardz.com/newz/new-geforce-rtx-50-design-teased-by-nvidia-dual-front-fans-and-led-strip

Der Stromstecker wäre demnach vertikal anstatt horizontal an der Seite der Karte angebracht.

Neurosphere
2025-01-02, 18:48:49
Möglicherweise gibt es die erste pixelige Aufnahme des Nvidia Referenzdesigns: https://videocardz.com/newz/new-geforce-rtx-50-design-teased-by-nvidia-dual-front-fans-and-led-strip

Der Stromstecker wäre demnach vertikal anstatt horizontal an der Seite der Karte angebracht.

Hatte die 3090 auch schon. Kann also auch wieder irgendein Fake Render sein.

https://www.igorslab.de/wp-content/uploads/2020/09/ISO-Back-1.jpg

PS.: Sorry für die Mega-Bilder, kann man bei direkt Links die Größe irgendwie begrenzen?

Catrovacer
2025-01-02, 18:56:32
Ah das habe ich gar nicht mehr auf dem Schirm gehabt!

Sardaukar.nsn
2025-01-02, 21:25:01
...Allerdings muss das nicht die finale Box sein, wer weiß wo die Bilder her kommen, oder MSI hat es einfach weg gelassen.

Ist doch nicht so wichtig. Hauptsache das Day-1 Box im Auto Bild knallt im social network. :freak:

Bald geht's wieder los...

https://i.imgur.com/KSZBYtp.jpeg

The_Invisible
2025-01-02, 21:31:21
Ist doch nicht so wichtig. Hauptsache das Day-1 Box im Auto Bild knallt im social network. :freak:

Bald geht's wieder los...

https://i.imgur.com/KSZBYtp.jpeg

Bin gespannt wer das erste Foto hier liefert :D

Kriegsgeier
2025-01-02, 21:33:29
Und genau deswegen will ich krasse Preise sehen! Noch höher als es NVIDIA selbst macht!
Denn erst dann wird der Stock in den Läden immer voll sein und jeder kann sich eine Karte besorgen.

2200€ für 5080
3888€ für 5090

Der Euro hat ja auch schon fast die Parität mit dem USD erreicht.

Die Zutaten für einen 1A Start sind wieder mal gegeben.

AffenJack
2025-01-02, 21:51:24
Kühler von 3,5 Slots 4080 Trio auf 2,2 Slot 5080Trio ????+80W???

https://wccftech.com/first-nvidia-geforce-rtx-5080-gpu-custom-model-leaks-out-16-gb-gddr7-memory-confirmed/

Das haut für mich auch nicht hin. Wenn das ein echtes Bild ist, dann bleibt man wohl eher bei 320W TDP. Selbst wenn der Kühler besser funktioniert bei weniger Platz kriegst du damit 400W nicht mehr ordentlich weg.

nordic_pegasus
2025-01-02, 22:00:51
Und genau deswegen will ich krasse Preise sehen! Noch höher als es NVIDIA selbst macht!
Denn erst dann wird der Stock in den Läden immer voll sein und jeder kann sich eine Karte besorgen.


die Verfügbarkeit hängt nicht (nur) am Preis, weil dies die Nachfrage reguliert. Entscheidend ist das Angebot, hier hat Nvidia alles selbst in der Hand. Wenn man den AIB einen großen Packen Chips liefert, können auch genug Karten produziert werden.

Darum finde ich Deinen "Wunsch" nach hohen Preisen verfehlt. Stattdessen soll Jensen den Backofen über Nacht durchlaufen lassen und mehr Wafer backen ;-)

[MK2]Mythos
2025-01-02, 22:24:23
Bei dem AI Hype könnte ich mir auch vorstellen dass eine AI Version von Jensen die Karte präsentiert.

Radeonfreak
2025-01-02, 22:25:10
Früher oder später lädt der sich eh hoch.

monstar-x
2025-01-02, 23:12:05
Das haut für mich auch nicht hin. Wenn das ein echtes Bild ist, dann bleibt man wohl eher bei 320W TDP. Selbst wenn der Kühler besser funktioniert bei weniger Platz kriegst du damit 400W nicht mehr ordentlich weg.

Ich glaube nicht dass es ein echtes Foto ist.
Sonst hätte sicherlich noch die Zeit gehabt um den Karton kurz auf zu machen und die Karte zu zeigen.

Thomas Gräf
2025-01-03, 01:02:30
Und genau deswegen will ich krasse Preise sehen! Noch höher als es NVIDIA selbst macht!
Denn erst dann wird der Stock in den Läden immer voll sein und jeder kann sich eine Karte besorgen.

2200€ für 5080
3888€ für 5090

Der Euro hat ja auch schon fast die Parität mit dem USD erreicht.

Die Zutaten für einen 1A Start sind wieder mal gegeben.

Das glaubst Du?
Wenn die 5090 abliefert wie der Gerät, dann hats da sofort eine Kundschaft die würden auch 8000€ hinlegen. Oder noch mehr.
Dann ist selbst der solventeste Gamer Schach matt.
Was nordic_pegasus geschrieben hat ist die einzig brauchbare Variante.

Ich seh aber so oder so schwarz.
Egal wie sie abgepreist wird, egal was sie leistet, egal wieviel Jensen in den Gamermarkt abgibt, ein mormaler Shop User wird keine bekommen.
Da brauch man nur eins und eins zusammen zählen.

prinz_valium_2
2025-01-03, 01:14:34
LOL alles unter 10k ist doch Pillepalle.
Zu den Preisen kaufen doch erst richtige Gamer und nur dann gibt es auch welche zu gemütlich zu kaufen

Thomas Gräf
2025-01-03, 01:21:23
Früher oder später lädt der sich eh hoch.

Dann ist es aber vorbei mit der Lederjacke. :biggrin:

cYdpOjletnc

davidzo
2025-01-03, 03:22:12
Das haut für mich auch nicht hin. Wenn das ein echtes Bild ist, dann bleibt man wohl eher bei 320W TDP. Selbst wenn der Kühler besser funktioniert bei weniger Platz kriegst du damit 400W nicht mehr ordentlich weg.

Das PCB ist wohl deutlich kürzer und rechteckig. Dadurch kann der Flow Through erheblich anwachsen und das macht den Kühler effektiver.. Soviel bringen die dickeren Kühler eh nicht, da dort auch nicht mehr Heatpipes drin sind als in dünneren und dementsprechend zwar mehr Lamellenoberfläche aber relativ eine weniger gute Wärmeverteilung in den Lamellen. Die Heatpipes werden ja mehr oder weniger zweidimensional gereoutet, daher passt da einfach nicht mehr. Das Referenzdesign wird eh wieder eine Vaporchamber haben.

Was die 400Watt angeht kann das auch wieder nur die Vorgabe von nvidia sein für was die VRMs der partner engineered sein sollen. Bei der 4090 hat man ja auch von 600W gesprochen und in der Tat hätte das Referenzdesign diese power liefern können. Heißt aber noch lange nicht dass man das Limit voll ausreizt. Genaue TDP & Taktraten spart sich nvidia wie üblich bis zum Schluss auf. Die haben meist aber nur wenig mit der viel höheren maxTBP zutun.

Relex
2025-01-03, 04:31:33
Und genau deswegen will ich krasse Preise sehen! Noch höher als es NVIDIA selbst macht!
Denn erst dann wird der Stock in den Läden immer voll sein und jeder kann sich eine Karte besorgen.

2200€ für 5080
3888€ für 5090

Der Euro hat ja auch schon fast die Parität mit dem USD erreicht.

Die Zutaten für einen 1A Start sind wieder mal gegeben.

Sorry, aber das ist doch totaler Quatsch.
Wenn du bereit bist jeden beliebigen Preis zu zahlen, dann wirst du über Scalper auch garantiert jede beliebige Karte zum Release bekommen. Das wird also das kleinste Problem sein.

Bin mir ganz sicher, das jemand, der hier ne Karte ergattern kann, sie für 5-10K gerne an dich abgibt. Also passt doch.

Kriegsgeier
2025-01-03, 06:37:19
wieso soll ich bei jemanden eine Karte abkaufen? Hallo? Ich will direkt bei NVIDIA eine 5090 bestellen. Alles andere kommt bei mir nicht in Frage.

Ach ja und noch was: ist es hier jedem bewusst, dass es SEHR viele Spiele geben wird, die NUR mit einer 5090 über 60FPS inkl. RT haben werden? Und das gute 2-3 Jahre?
Alleine das sagt mir, dass wir keine Preise unter 3000€ sehen werden.

Langlay
2025-01-03, 06:41:50
wieso soll ich bei jemanden eine Karte abkaufen? Hallo? Ich will direkt bei NVIDIA eine 5090 bestellen. Alles andere kommt bei mir nicht in Frage.


Dann macht Nvidia vielleicht doch besser 4999€ nicht das du leer ausgehst.

Kriegsgeier
2025-01-03, 06:44:07
das wäre für mich schon zu viel. aber bis 3500€ würde ich gehen.

Neurosphere
2025-01-03, 07:57:38
das wäre für mich schon zu viel. aber bis 3500€ würde ich gehen.

Dann kostet sie sicher mehr. Nicht das du sie noch jemanden wegschnappst:rolleyes:

2025.1.3 update
next gen 90 ->575W

And RTX 5080 360W.

https://x.com/kopite7kimi/status/1875006034890395657

00-Schneider
2025-01-03, 09:22:07
Hmm, die 4090 war offiziell 450W. Meine Karte frisst mit OC und erhöhtem Powertarget in Extremszenarien z.b. Quake 2 RTX deutlich mehr, eher Richtung 550W.

Bin mal gespannt wie hoch man die 5090 treiben kann. ~700W in Extremszenarien? :eek:

OgrEGT
2025-01-03, 09:27:53
Hmm, die 4090 war offiziell 450W. Meine Karte frisst mit OC und erhöhtem Powertarget in Extremszenarien z.b. Quake 2 RTX deutlich mehr, eher Richtung 550W.

Bin mal gespannt wie hoch man die 5090 treiben kann. ~700W in Extremszenarien? :eek:
Und das über den einzelnen 12V2x6?
575W ist schon sehr auf Kante für einen Stecker... mgl. dass es Customs mit 2x12V2x6 geben wird...

aceCrasher
2025-01-03, 09:29:30
Ich hab mich immer als "Enthusiast" bezeichnet, aber ich glaube bei 575W TDP bin ich raus :redface:

Die 450W TDP meiner 4090 reichen mir schon Dicke was die Abwärme angeht, es geht mir gar nicht so sehr darum das kühlen zu können (-> Wakü), sondern eher um die Menge an Wärme die am Ende im Raum landet.

Andererseits wäre eine auf 450W begrenzte 5090 garantiert auch extrem effizient.

Troyan
2025-01-03, 09:35:54
Hmm, die 4090 war offiziell 450W. Meine Karte frisst mit OC und erhöhtem Powertarget in Extremszenarien z.b. Quake 2 RTX deutlich mehr, eher Richtung 550W.

Bin mal gespannt wie hoch man die 5090 treiben kann. ~700W in Extremszenarien? :eek:

Die 4090 FE hat doch schon 600W Powerlimit. Mehr wird es bei der 5090 wahrscheinlich auch nicht geben.

aceCrasher
2025-01-03, 09:39:28
Die 4090 FE hat doch schon 600W Powerlimit. Mehr wird es bei der 5090 wahrscheinlich auch nicht geben.
Wieso? Die 4090 FE hat als maximal einstellbares Powerlimit 600W, default sind 450W. Bei der 5090 FE sollten es jetzt default 575W sein, es wird wohl mehr als 25W einstellbaren Spielraum nach oben geben.

Außerdem soll das 5090 PCB mehr Spannungswandlerphasen haben, das spricht auch dafür dass es ein höheres maximales Powerlimit geben wird: https://videocardz.com/newz/nvidia-geforce-rtx-5090-to-feature-1667-power-design-and-14-layer-pcb

Troyan
2025-01-03, 09:41:55
Die müssten dann über die Spezifikation des Steckers gehen. Kein Plan, ob man sich das mit dem Stecker antun will...

/edit: Im Grunde hätte man auch gleich 600W nehmen können. Die Karte nimmt sich dann soviel Strom, wie sie lustig ist.

OgrEGT
2025-01-03, 09:43:38
Wäre aber nicht unmöglich dass es Customs mit 2 Steckern geben wird...

aceCrasher
2025-01-03, 09:47:53
Wäre aber nicht unmöglich dass es Customs mit 2 Steckern geben wird...
Wird es denke ich auf jeden Fall geben. Bei der 4090 gab es ja auch schon Exoten mit 2 Steckern (Galax HOF), dieses Mal wird es 100%ig auch ein paar mehr geben.

dargo
2025-01-03, 09:58:03
Dann kostet sie sicher mehr. Nicht das du sie noch jemanden wegschnappst:rolleyes:

https://x.com/kopite7kimi/status/1875006034890395657
Einfach nur noch krank die angeblichen 575W. :ucrazy2: Bin schon gespannt wie viele Exemplare fiepen wie blöde oder ob die AIBs die Heizöfen mit genügend hochwertigen Bauteilen bestücken damit es kein unangenehmes Konzert wird.

Relex
2025-01-03, 10:16:53
wieso soll ich bei jemanden eine Karte abkaufen? Hallo? Ich will direkt bei NVIDIA eine 5090 bestellen. Alles andere kommt bei mir nicht in Frage.

Ach ja und noch was: ist es hier jedem bewusst, dass es SEHR viele Spiele geben wird, die NUR mit einer 5090 über 60FPS inkl. RT haben werden? Und das gute 2-3 Jahre?
Alleine das sagt mir, dass wir keine Preise unter 3000€ sehen werden.


Gut, ich schreib dazu jetzt nichts mehr. Deine Kommentare klingen dermaßen polemisch und trollig, dass ich dich auf ignore setzen muss, sonst halte ich das nicht aus.

Voodoo6000
2025-01-03, 10:51:38
Nachdem Nvidia weithin bei 5/4 nm bleibt, war dies leider abzusehen. Noch ein Grund mehr, diese Generation zu überspringen.

BlacKi
2025-01-03, 11:05:05
wenn man den pcie slot mit reinnimmt könnte man laut spec auch 666w auf 12v bringen mit nur einem stecker. auch wenn icht nicht daran glaube, dass nv das nutzen würde.

und das die neuen revisionen der neuen stecker wohl die probleme größtenteils beheben, würde mir das weniger bauchweh machen.

ich denke, das OC limit wird bei 600w bleiben.

AffenJack
2025-01-03, 11:08:48
wenn man den pcie slot mit reinnimmt könnte man laut spec auch 666w auf 12v bringen mit nur einem stecker. auch wenn icht nicht daran glaube, dass nv das nutzen würde.

und das die neuen revisionen der neuen stecker wohl die probleme größtenteils beheben, würde mir das weniger bauchweh machen.

ich denke, das OC limit wird bei 600w bleiben.

25W Limit für OC? Auf keinen Fall. Vielleicht 650W, weil man dann an die Grenze mit PCIE kommt. Aber 25W ist zu wenig.

Ansonsten zeigt sich vor allem bei der 5090, dass die Karte einfach die Ablösung von SLI als Single Chip ist. Wer früher mit 2x 275/300W klar kam, der kauft auch das Ding. Für mich und andere dagegen ist das einfach zuviel.
So passt auch der verdoppelte Chip der 5080 dazu.

Troyan
2025-01-03, 11:24:17
Willkommen in der Realität. Kein neuer Prozess in Reichweite, Architekturen die bis zum letzten designmäßig ausgequetscht werden müssen.

Eigentlich machen neue GPUs null Sinn und man kan das ganze F&Es Geld in bessere Software stecken.

Relex
2025-01-03, 11:36:17
Übrigens ist die TDP der 5080 um 12,5% höher als bei der 4080.
Das heißt, man braucht folglich auch 12,5% mehr FPS, damit FPS/W überhaupt auf Ada Lovelace Niveau wären. Aber damit wäre es bereits ne komplette Nullnummer und nicht mehr als ne 4080ti oder sowas.

Damit die Karte als RTX5000 dann überhaupt ne Daseinsberechtigung hat, müsste auf die 12,5% nochmal entsprechend mehr Leistung on Top kommen. Also meinetwegen nochmal 20-30% on top.

Das wäre dann insgesamt 35-45% mehr performance als eine 4080 bei 12,5% höherem Verbrauch.

Das wäre wünschenswert, bereits das wäre für eine neue Generation ziemlich wenig aber selbst das scheint ja wohl unrealistisch zu sein.

Die erhöhte TDP ruiniert irgendwie alles und deutet darauf hin, dass man Designtechnisch nicht so viel reißen konnte, aber auf dem Papier unbedingt längere Balken will.


Ich hab jetzt absichtlich die 4080 und 5080 als beispiel genommen, weil sie ne ähnliche Konfiguration mit 256 bit und 16 GB hat und weil die performance und Leistungsaufnahme der 4090 sowieso viel zu stark nach Workload variiert. Das macht einen Vergleich zur 5090 mit erhöhter TDP aber auch 512 bit nur schwieriger.

AffenJack
2025-01-03, 11:38:56
Willkommen in der Realität. Kein neuer Prozess in Reichweite, Architekturen die bis zum letzten designmäßig ausgequetscht werden müssen.

Eigentlich machen neue GPUs null Sinn und man kan das ganze F&Es Geld in bessere Software stecken.

Es ist langweiliger und man muss weniger aufrüsten, aber es hat auch Vorteile, GPUs bleiben lange aktuell. Früher wurde ne GPU alle paar Jahre erneuert und man wusste, dass die nächste Konsolengeneration die GPu einholen wird.

Die 5090 wird bis ~2035 mit der PS7 leistungstechnisch vor den Konsolen bleiben. Ne PS6 wird da auf keinen Fall in die Nähe kommen. Es ist nen Enthusiastding, um sich die normale Leistung in nem Jahrzent anzuschauen.

Relex
2025-01-03, 11:44:47
Du glaubst, dass es 10 Jahre dauern wird, bis eine 400-500€ GPU (welche dann in eine Konsole wandern könnte) so schnell wie eine RTX5090 wird?

Das ist aber extrem pessimistisch. Falls das so kommen sollte wäre der Hardware markt in den nächsten 10 Jahren für 99% der Spieler völlig uninteressant. Das wird nicht passieren. Falls doch wäre das der SuperGAU für die gesamte Industrie.
Dass ne PS6 die 5090 nicht schlagen wird ist selbstverständlich. Aber ne PS7? Das sind ja noch zwei Konsolengenerationen in der Zukunft. Da erwarte ich mindestens doppelte 5090 Leistung.

Troyan
2025-01-03, 11:47:00
Es ist langweiliger und man muss weniger aufrüsten, aber es hat auch Vorteile, GPUs bleiben lange aktuell. Früher wurde ne GPU alle paar Jahre erneuert und man wusste, dass die nächste Konsolengeneration die GPu einholen wird.

Die 5090 wird bis ~2035 mit der PS7 leistungstechnisch vor den Konsolen bleiben. Ne PS6 wird da auf keinen Fall in die Nähe kommen. Es ist nen Enthusiastding, um sich die normale Leistung in nem Jahrzent anzuschauen.

Naja, bringt dir nichts, wenn die UE5 gerade mal 100 FPS in 1080p auf einer 4090 schafft.

Die komplette Softwareentwicklung steckt noch im "Moore's law" Denken fest.

AffenJack
2025-01-03, 11:54:06
Du glaubst, dass es 10 Jahre dauern wird, bis eine 400-500€ GPU (welche dann in eine Konsole wandern könnte) so schnell wie eine RTX5090 wird?

Das ist aber extrem pessimistisch. Falls das so kommen sollte wäre der Hardware markt in den nächsten 10 Jahren für 99% der Spieler völlig uninteressant. Das wird nicht passieren. Falls doch wäre das der SuperGAU für die gesamte Industrie.

Das ist einfach die Realität der Fertigungsprozesse. Die Kosten pro Transistor fallen nicht mehr. Die Transistorgrößen werden kaum kleiner. 2nm bringt 15% mehr Transistordichte, statt 2x wie früher und das bei deutlich erhöhten Waferkosten. Du kannst größere GPUs nur noch zu höheren Herstellkosten produzieren. Perf/$ wird da höchsten 20% alle 2 Jahre steigen. Einzig Features/Software können zu großen Sprüngen führen.


Dass ne PS6 die 5090 nicht schlagen wird ist selbstverständlich. Aber ne PS7? Das sind ja noch zwei Konsolengenerationen in der Zukunft. Da erwarte ich mindestens doppelte 5090 Leistung.

Die PS7 würde ich 2035 erwarten, dass sie die 5090 schlägt. Bis dahin wird sie aber über den Konsolen sein. aber 2x 5090 würde ich dann auch nicht erwarten. Schau dir die PS5 Pro an, die schafft 1,5x PS5 nach 4 Jahren. Zur PS6 dann vielleicht nochmal Faktor 1,5 (außer bei RT, da wird es mehr). Also 2,25 von PS5 zu PS6, außer man will gleich bei 800€ Grundpreis starten. Selbst bei gleichbleibenden Fortschritt kommst du mit den Steigerungsraten gerade so zur 5090, abgesehen von Features halt.

Edgecrusher86
2025-01-03, 11:56:38
575W und 360W TGP also. Zumindest die RTX 5080 ist dann relativ effizient ausgelegt für vermutlich >= RTX 4090 Leistung ausgelegt und bei der RTX 5090 Brechstange.
Gut, vermutlich wird quasi die volle Leistung mit UV auch mit um die 500W und 90% dieser um die 450W herum möglich sein oder zum Beispiel RTX 4090 Leistung bei grob 315W.

Raff
2025-01-03, 11:59:45
Das hohe Powerbudget sichert dem Biest die Entfaltung - wir wollen ja keine zweite Titan Classic, oder? ;) Vermutlich nähern sich Board Power und tatsächliche Average Power diesmal näher an, da der Prozess keine deutliche Effizienzsteigerung bringt.

MfG
Raff

basix
2025-01-03, 11:59:46
Einfach nur noch krank die angeblichen 575W. :ucrazy2: Bin schon gespannt wie viele Exemplare fiepen wie blöde oder ob die AIBs die Heizöfen mit genügend hochwertigen Bauteilen bestücken damit es kein unangenehmes Konzert wird.
Das hohe Powerbudget sichert dem Biest die Entfaltung - wir wollen ja keine zweite Titan Classic, oder? ;) Vermutlich nähern sich Boardpower und Average Power diesmal näher an, da der Prozess keine deutliche Effizienzsteigerung bringt.


575W ist mMn zu nah an den max. 600W des PCIe Gen 5 Connectors. Und wie viele Netzteile hätten denn für z.B. allfällige Partnerkarten überhaupt 2x Stromstecker geschweige denn 6x PCIe 8p wenn man Adapter verwendet?

Meines Erachtens also unwahrscheinlich, dass die FE so hoch geht. Partnerkarten sind ein anderes Thema, aber max. 600W ist für mich bei allen Karten sicher. Alles andere macht nur wenig Sinn.

Gut, vermutlich wird quasi die volle Leistung mit UV auch mit um die 500W und um die 450W herum möglich sein oder zum Beispiel RTX 4090 Leistung bei grob 315W.
Die 4090 Leistung habe ich bereits jetzt mit 315W. Mit der UV 4090 ;)

DrFreaK666
2025-01-03, 12:08:27
ASUS’s Custom RTX 5080 Variant Listed For €1699
https://wccftech.com/nvidia-geforce-rtx-50-gpus-dlss-4-asus-custom-rtx-5080-variant-1699-euros/

Edgecrusher86
2025-01-03, 12:20:22
Das hohe Powerbudget sichert dem Biest die Entfaltung - wir wollen ja keine zweite Titan Classic, oder? ;) Vermutlich nähern sich Board Power und tatsächliche Average Power diesmal näher an, da der Prozess keine deutliche Effizienzsteigerung bringt.

MfG
Raff

Damals hatten wir aber zumindest noch Herrn Orbmu2k - wobei ich das nicht wirklich brauchte dank Bi-Turbo und Custom SLI-Bits. Bei Maxwell GTX X hab ich den Karten dann mal 325W gegönnt, aber naja - bin kurz mal 1400/8000 MHz gefahren, aber hab die Taktraten dann schnell wieder herunter gedreht; es war halt kein Game Changer. :cool:

Die früheren Zeiten sind auch lange herum, wo man mal eben über 25% Mehrleistung durch GPU-OC erreicht hat. 3 GHz bei Ada sind halt auch nur grobe 5%, aufgrund der Tatsache, dass nicht mehr alle Domains mit Offset mittakten wie bei Ampere.
Es lohnt einfach nicht mehr. Hauptsache natürlich, dass auch in Highres wie 8K die Taktraten gehalten werden können - anders als bei meiner damaligen Zotac RTX 3090 Trinity, die dann etwa in DOOM Eternal nur noch glaube 1,5-1,6 GHz bei 350W in 5160x2160 DL-DSR oder 6880x2880 DSR gesehen hatte.
Aber das GB GAMING OC BIOS half diesbezüglich. ^^

MiamiNice
2025-01-03, 12:30:03
Hoffentlich kommt die Asus Strix 5090 mit 2x 12V-2×6. Sonst wird es wohl eng mit OC ;D

prinz_valium_2
2025-01-03, 12:31:15
https://wccftech.com/nvidia-geforce-rtx-50-gpus-dlss-4-asus-custom-rtx-5080-variant-1699-euros/

Best Case Szenario ist also $1299 / 1499€ bei den günstigen Modellen und damit nur marginal teurer als die 4080. Das wäre also gerade mal Inflationsbereinigt der selbe Preis.


Aber es könnten auch $1499 / 1699€ sein, wo die Preise starten.

Edgecrusher86
2025-01-03, 12:32:57
Ich tippe auf letzterem für Customs. Die quasi wohl wieder nicht verfügbare FE dürfte wohl bei etwa 1499€ inkl. liegen.

MiamiNice
2025-01-03, 12:35:41
Bei dem 5080 Preis wird es eine Menge lange Gesichter geben zur Vorstellung.

Edgecrusher86
2025-01-03, 12:38:14
Hoffentlich kommt die Asus Strix 5090 mit 2x 12V-2×6. Sonst wird es wohl eng mit OC ;D

660W kann der Standard auch mit einem. Zumindest die MATRIX PLATINUM wird dann wohl zwei bekommen - gefühlt ein Jahr später - zeitig ähnlich wie HoF oder KP. :D

https://www.youtube.com/watch?v=aI-soO7_l_M
645W waren es dort im Test.

Bei dem 5080 Preis wird es eine Menge lange Gesichter geben zur Vorstellung.

STRIX OC, AORUS MASTER / XTREME oder SUPRIM OC etwa werden wohl eine 2 vorne sehen.

MiamiNice
2025-01-03, 12:44:35
Sind in Deinen 660 Watt die 60 Watt aus dem PCI Slot? Imo ist der 12V-2×6 nur mit 600 Watt spezifiziert.
Ich werde noch ein neues Netzteil mit 2x 12V-2×6 bestellen müssen, meines hat nicht einem davon.

Edgecrusher86
2025-01-03, 12:52:10
Sind in Deinen 660 Watt die 60 Watt aus dem PCI Slot? Imo ist der 12V-2×6 nur mit 600 Watt spezifiziert.
Ich werde noch ein neues Netzteil mit 2x 12V-2×6 bestellen müssen, meines hat nicht einem davon.

Es sieht nach 645W nur über den Stecker alleine aus bei 46,5 Grad (55A) - jedenfalls ist der Test ja nur über eine Testplatine ohne Slot. Anscheinend kann der Stecker sogar 100A ab, meint er zumindest - vielleicht zur Schmelze. :freak:


Ich werde noch ein neues Netzteil mit 2x 12V-2×6 bestellen müssen, meines hat nicht einem davon.

Es wird auch schon Modelle wie das Seasonic Prime PX-2200 2200W ATX 3.1 (https://geizhals.de/seasonic-prime-px-2200-2200w-atx-3-1-srp-ppx222-a5a22s-prime-px-2200-atx30-a3294338.html) geben - da haste dann gleich vier davon - RTX 7090 OC ready. :biggrin:

E: Schade - hat wohl doch nur 2x 16 nativ - der Rest dann über Kabelpeitschen-Adapter. xD

Aber es ist entsprechendes in Planung.


Naja, offiziell dann wohl 600W über den Stecker, aber anscheinend gibt es nicht mehr das 60W Limit über den Slot.

Matrix316
2025-01-03, 12:59:09
Die können und dürfen die 5080 nicht so teuer wie eine 4090 machen.

Dann können sie den Release auch ganz sein lassen und sich ihre Karten in die Haare schmieren. Pffft... :P

Eine abgespeckte 4090 im 5080 Mantel zum fast gleichen Preis wie die 4090 ist totaler Humbug.

Die 5080 darf unter keinen Umständen teurer sein als die 4080 Super zum Release.

Troyan
2025-01-03, 13:01:56
Warum sollte ein Produkt mit höheren Fertigungskosten nicht teurer sein? Was das für eine absurde Logik. Die 5080 wird einen größeren Die mit den schnellsten Grafikkartenspeicher (der auch gerade mal jetzt veröffentlicht wird) haben.

dargo
2025-01-03, 13:02:10
https://wccftech.com/nvidia-geforce-rtx-50-gpus-dlss-4-asus-custom-rtx-5080-variant-1699-euros/
Zu geil. :popcorn:

Die können und dürfen die 5080 nicht so teuer wie eine 4090 machen.

Dann können sie den Release auch ganz sein lassen und sich ihre Karten in die Haare schmieren. Pffft... :P

Eine abgespeckte 4090 im 5080 Mantel zum fast gleichen Preis wie die 4090 ist totaler Humbug.

Die 5080 darf unter keinen Umständen teurer sein als die 4080 Super zum Release.
Du lebst wohl noch in deiner Traumwelt. :tongue:

horn 12
2025-01-03, 13:05:11
Weniger Speicher
15% unter 4090
DLSS 4. 0 auf NEUE Generation beschränkt und somit 20% über 4090

So wird man die 5080 bepreisen und Ihre Berechtigung sehen!
Kompletter FAIL - und AMD zieht mit der 5080 dann eh fast gleich bei den OC Modellen - (Komplettes Wunschdenken)

AffenJack
2025-01-03, 13:08:36
Die können und dürfen die 5080 nicht so teuer wie eine 4090 machen.

Dann können sie den Release auch ganz sein lassen und sich ihre Karten in die Haare schmieren. Pffft... :P

Eine abgespeckte 4090 im 5080 Mantel zum fast gleichen Preis wie die 4090 ist totaler Humbug.

Die 5080 darf unter keinen Umständen teurer sein als die 4080 Super zum Release.

Wird auch nicht passieren. Es sind wie immer Fakepreise. Ich versteh nicht, wieso Leute bei den ausgedachten Preisen überhaupt reagieren, wo jeder weiß, dass die ausgedacht sind.

Durchaus mögliche 1200$ sind hier allerdings dank schlechtem Eurokus auch schon 1400€. Billig wird es also sowieso nicht.

Matrix316
2025-01-03, 13:09:18
Warum sollte ein Produkt mit höheren Fertigungskosten nicht teurer sein? Was das für eine absurde Logik. Die 5080 wird einen größeren Die mit den schnellsten Grafikkartenspeicher (der auch gerade mal jetzt veröffentlicht wird) haben.

Dann ist der Name falsch und die 5080 sollte eigentlich 5090 heißen und die 5090 dann 5090TI oder Titan XXL.

Wenn ich in einer Produktkategorie den Nachfolger eines bestimmten Produktes rausbringe, dann sollte der auch im gleichen Preisbereich sein und nicht in dem des Produktes was eigentlich eine Kategorie drüber liegt.

Also sprich ein neuer Golf sollte als Basis nicht so viel kosten wie der alte Passat. Oder ein neuer 3er BMW sollte als Basis nicht so viel kosten wie der alte 5er.

Wobei Vergleich mit Fahrzeugen ist eh doof, weil es bei der Grafikkarte ja nicht drum geht, dass man den Verbrauch optimiert oder die Bequemlichkeit des Fahrens oder so, sondern es geht nur um Leistung.

Und mehr Geld für mehr Leistung ist keine Kunst. Das ist doch Stagnation. Technik muss für das gleiche Geld heute mehr leisten können als vor 2 Jahren. SOO VIEL kann man doch erwarten, oder? :confused:

Wenn heute eine 5080 nicht mal oder gerade so an eine 4090 rankommt und aber so viel kostensoll wie eine 4090 vor zwei Jahren, dann ist das keine 5080 sondern eine 4090SE oder so.

Eine 5080 ist nach meiner Definition von Grafikkarten eine Karte im Preissegment der 4080 oder 4080 Super mit etwas mehr Leistung.

Alles andere ist Betrug und Abzocke. Ob der GDDR7 Speicher jetzt mehr kostet oder brandneu ist, ist mir eigentlich Furzegal. Dann verbau ich den halt nicht auf der 5080, wenn die dafür so teuer wird. GDDR6 hätte es doch auch getan.

Troyan
2025-01-03, 13:11:28
Alles andere ist Betrug und Abzocke. Ob der GDDR7 Speicher jetzt mehr kostet oder brandneu ist, ist mir eigentlich Furzegal. Dann verbau ich den halt nicht auf der 5080, wenn die dafür so teuer wird. GDDR6 hätte es doch auch getan.

Logik? Ohne GDDR7 müsste man einen noch viel größeren Die produzieren, um die selbe Bandbreite zu erreichen. Damit steigen die Kosten noch viel weiter und die Endkundenpreise müsste noch höher ausfallen.

davidzo
2025-01-03, 13:13:42
Die 5080 darf unter keinen Umständen teurer sein als die 4080 Super zum Release.

Sie verkauft sich automatisch sobald die FPS/$ und musthave features gleich oder besser sind als die 4080super. Es geht um Gewinnmaximierung. Nvidia macht nur mehr Gewinn, wenn sie Kunden die derzeit mit einer 4080super liebäugeln eine teurere Karte andrehen können. Wenn sie die gleiche Leistung für gleiches Geld bieten stagniert der Markt. Auch eine geringfügig bessere Marge bringt nur wenig mehr Gewinn. Die beste Strategie ist daher immer Upselling, da dann die Leute mehr Geld ausgeben als sie eigentlich geplant haben. Aber das geht nur über ein besseres P/L und bessere Features.

Mehr Leistung für das gleiche oder gar weniger Geld wird kein profitorientiertes Unternehmen jemals anbieten, es sei denn sie versuchen Marktanteile zu erobern. Da nvidia mit rund 90% des add-in GPUmarkts bzw. sogar 100% ab 4080super aufwärts aber ein eindeutiger Monopolist ist, geht es nicht mehr um Marktanteile. Es geht darum den Markt maximal zu melken, aber ohne dass man sich den für die Zukunft kaputt macht.

Genau aus diesem Grund kommen die 5070ti und darunter erst viel später, da diese vermutlich die 4080super in ihrer performanceklasse beerbt.


Warum sollte ein Produkt mit höheren Fertigungskosten nicht teurer sein? Was das für eine absurde Logik. Die 5080 wird einen größeren Die mit den schnellsten Grafikkartenspeicher (der auch gerade mal jetzt veröffentlicht wird) haben.

Wieso größerer DIE? Der wird garantiert nicht größer als bei der 4090.
Ich schätze der Chip wird nichtmal größer als der AD103 der 4080 und 4080super. Ich denke nvidia hat bei der Density des TSMC N5/" nvidia 4N" Prozesses noch ein bisschen was auf dem Tisch gelassen.

Wenn das Gerücht mit den 744mm2 für GB202 stimmt ist die Density per SM um ca. 19% besser. GB202 hat 192SM auf 744mm2 während AD102 nur 144 auf 609mm schafft. Und da sind schon das 512bit breite Speicherinterface und alle Architekturverbesserungen mit drin.

Die GB202 Densityproportional skaliert auf 84sm wären lediglich 325mm2. Allerdings skalieren ja Dinge wie PCIe Interface und Videoblock nicht mit.
Aber auch verglichen zu AD103 dürfte GB203 bei 19% besserer Density nur auf 322mm2 kommen. Außerdem bleibt bei einem 256bit Interface.
Auch kann ich mir gut vorstellen dass man beim Cache etwas zurückrollt weil man ja den 30gbps schnellen GDDR7 hat.
Also selbst wenn Gb203 der Chip mit dem höchsten Takt und der geringsten Density im Lineup wird, ist es extrem unwahrscheinlich dass er größer als AD103 wird.

Ich glaube der DIE ist eher billiger, da TSMC N4 weniger Belichtungsschrittte und Masken braucht, einen besseren Yield hat und nicht mehr so cutting Edge ist wie vor zwei jahren der TSMC N5/"nvidia 4N" Prozess war. Der GDDR7 wird ähnlich bepreist sein wie damals GDDR6X.
Die BOM wird ähnliche Gesamtkosten haben wie eine 4080super, ggf. mit etwas günstigerem Chip und etwas teurerem Speicher.

MiamiNice
2025-01-03, 13:16:36
Die können und dürfen die 5080 nicht so teuer wie eine 4090 machen.


Doch NV kann das. Ist doch ganz logisch, wenn eine 5080 mehr leistet als eine 4090, muss die 5080 auch mehr kosten :freak: Das nennt man das Lederjacken Konjunkturprogramm :)

Es sieht nach 645W nur über den Stecker alleine aus bei 46,5 Grad (55A) - jedenfalls ist der Test ja nur über eine Testplatine ohne Slot. Anscheinend kann der Stecker sogar 100A ab, meint er zumindest - vielleicht zur Schmelze. :freak:



Es wird auch schon Modelle wie das Seasonic Prime PX-2200 2200W ATX 3.1 (https://geizhals.de/seasonic-prime-px-2200-2200w-atx-3-1-srp-ppx222-a5a22s-prime-px-2200-atx30-a3294338.html) geben - da haste dann gleich vier davon - RTX 7090 OC ready. :biggrin:

E: Schade - hat wohl doch nur 2x 16 nativ - der Rest dann über Kabelpeitschen-Adapter. xD

Ich denke Du musst das seperat betrachten. Der Stecker kann bis 100A, das war imo Vorgabe wegen der Geschichte mit dem alten Stecker. Was über die Kabel geht ist aber eine ganz andere Sache. Der Querschnitt ist relevant, je dicker desto teurer. Mehr Querschnitt = mehr Strom möglich. NV hat das komplette Ding mit 600 Watt spezifiziert. Wie viel Querschnitt die NT Hersteller verbauen müssen, lässt sich easy ausrechnen. Hersteller wie Seasonic verbauen gerne mehr, manch anderer Hersteller, baut es an der Kante.
Ich würde unbedingt vermeiden wollen, mehr als 600 Watt durch so ein Kabel zu schieben. Mir ist der 2. Stecker daher sehr wichtig.

Es wird hier ein Seasonic mit ATX 3.1 und 1200 Watt. Vielleicht eines aus der neuen Vertex Reihe. Mal schauen.

Edgecrusher86
2025-01-03, 13:26:41
Mit einem besseren P/L Verhältnis als eine RTX 4090 wird sich die RTX 5080 wohl gar nicht so schlecht verkaufen - auch mit 16GB.

Die DIE-Size müsste bei GB203 eigentlich doch unter 350mm² betragen (379mm² sind es bei AD103).


Ich denke Du musst das seperat betrachten. Der Stecker kann bis 100A, das war imo Vorgabe wegen der Geschichte mit dem alten Stecker. Was über die Kabel geht ist aber eine ganz andere Sache. Der Querschnitt ist relevant, je dicker desto teurer. Mehr Querschnitt = mehr Strom möglich. NV hat das komplette Ding mit 600 Watt spezifiziert. Wie viel Querschnitt die NT Hersteller verbauen müssen, lässt sich easy ausrechnen. Hersteller wie Seasonic verbauen gerne mehr, manch anderer Hersteller, baut es an der Kante.
Ich würde unbedingt vermeiden wollen, mehr als 600 Watt durch so ein Kabel zu schieben. Mir ist der 2. Stecker daher sehr wichtig.

Es wird hier ein Seasonic mit ATX 3.1 und 1200 Watt. Vielleicht eines aus der neuen Vertex Reihe. Mal schauen.

So wird es wohl sein - einfach roßzügiger ausgelegt, als die Spec verlangt. 300W über einen alten 6+2 Pol. PEG waren ja auch kein Problem - der Querschnitt ließ es zu.

Ja, das wäre mir auch nichts - dann lieber einen zweiten Stecker dran. :)

Matrix316
2025-01-03, 13:34:28
Sie verkauft sich automatisch sobald die FPS/$ und musthave features gleich oder besser sind als die 4080super. Es geht um Gewinnmaximierung. Nvidia macht nur mehr Gewinn, wenn sie Kunden die derzeit mit einer 4080super liebäugeln eine teurere Karte andrehen können. Wenn sie die gleiche Leistung für gleiches Geld bieten stagniert der Markt. Auch eine geringfügig bessere Marge bringt nur wenig mehr Gewinn. Die beste Strategie ist daher immer Upselling, da dann die Leute mehr Geld ausgeben als sie eigentlich geplant haben. Aber das geht nur über ein besseres P/L und bessere Features.

Mehr Leistung für das gleiche oder gar weniger Geld wird kein profitorientiertes Unternehmen jemals anbieten, es sei denn sie versuchen Marktanteile zu erobern. Da nvidia mit rund 90% des add-in GPUmarkts bzw. sogar 100% ab 4080super aufwärts aber ein eindeutiger Monopolist ist, geht es nicht mehr um Marktanteile. Es geht darum den Markt maximal zu melken, aber ohne dass man sich den für die Zukunft kaputt macht.

Genau aus diesem Grund kommen die 5070ti und darunter erst viel später, da diese vermutlich die 4080super in ihrer performanceklasse beerbt.

Nvidia macht doch auch schon mit der 4080 (Super) einen mega Reibach.

3080 $699 vs 4080 $1,200

Es kann mir doch keiner erzählen, dass die Bauteile für eine 4080 fast doppelt so teuer waren wie für eine 3080.
Es kann mir auch keiner erzählen, dass man mit $699 MSRP für die 3080 nicht auch eine Menge Gewinn gemacht hätte, oder?

Die Herstellungskosten der 3080 waren sicher nicht mehr als 699$. Und die einer 4080 nicht 1200$. Und die einer 5080 nicht 1500$ oder so.

Die 5080 Herstellungskosten sind vielleicht etwas teurer als die einer 4080 Super - aber das dürfte IMO weit unter 700$ sein.

Du hast eine Platine. Etwas Stromversorgung. Eine GPU und ein paar Speicherchips.


Btw.:
https://tech4gamers.com/nvidia-geforce-rtx-4080-cost/
According to @daohentai, the GeForce RTX 4080 die AD103 costs roughly $150; the same goes for the expensive 16GB of GDDR6X memory and PCB that combined costs $150 as well. So the total manufacturing cost for one GeForce RTX 4080 would be $300.

Der_Korken
2025-01-03, 13:39:33
Nvidia kann für ihre 5080 erstmal verlangen, was sie will. Die 4080 hatte gemäß UVP ein schlechteres P/L-Verhältnis als die 3080. Das kann Nvidia mit der 5080 problemlos fortsetzen, indem sie die alten Karten einfach nicht mehr produzieren und dort die Preise auch ansteigen lässt. Jedem steht frei den Zirkus nicht mitzumachen.

Edgecrusher86
2025-01-03, 13:40:07
Die reinen Herstellungskosten einer RTX 5090 werden wohl auch 699 USD nicht überschreiten (ich schätze mal, eher 499-599 mit einem aufwendigen Kühler) - natürlich kommen noch jede Menge weitere Kosten hinzu und dann will man sicher auch noch mindestens 60% Marge erziehlen. ^^
So werden dann schnell 2000+ USD daraus.

basix
2025-01-03, 13:42:18
Das Problem sind nicht die Herstellungskosten. Klar sind die gestiegen, aber so stark auch nicht wieder nicht. Elektronikkomponeten sind generell immer noch etwas teurer als vor Covid aber das ist nicht mehr stark spürbar. Die überall erhöhten Margen obendrauf sind das Problem. Nvidia greift mehr ab als früher, Kompnentenhersteller greifen mehr ab, AIBs greifen mehr ab, die Lieferkette greift mehr ab, der Handel greift mehr ab. Dieser multiplikative Effekt macht die Karten so teuer, nicht die Herstellungskosten.

Edgecrusher86
2025-01-03, 13:43:37
So sieht es aus, Jeder will mehr verdienen, wenn es der Markt her gibt.

VooDoo7mx
2025-01-03, 13:48:33
Blablablah

Bisher null bestätigte Informationen, alles nur Gerüchte. Und alles wird sofort für bare Münze genommen.

Jedes mal der selbe Dreck.
Erinnert sich noch wer an den RDNA3 der 2,5 mal so schnell wie RDNA2 ist.
Oder an irgendwelche ünerhöhten Power Budgets bei Ada Lovelace die am Ende alle nicht eingetreten sind?

Man könnte echt meinen die Leute hier sind von gestern und schlucken sofort jeden Mist der ihnen aufgetischt wird.

Und selbst wenn die 5090 575W TDP hat (was ich nicht glaube), heißt das nicht, dass dies auch immer verbraucht wird.
Wenn man nich komplett an Hirnfäule leidet, müsste man das eigentlich wissen. Da es schon seit Jahren bei der 4090 auch so ist. Aber warum was nachprüfen oder sich wissen aneignen, wenn man grenzdebile Onliner raushauen kann.

Z.b. bei Stalker 2 zieht eine 4090 bei UHD nativ und Max Settings so maximal 370W. Das ist weniger als eine 7900XTX bei 30-40% mehr FPS.

ZYinKxZn0cs

Und Selbst wenn 575W TDP stimmen würden, wäre das bei der prognostizierten leistungssteigerung immer noch energieeffizienter als eine 4090.
De facto wäre das die energieffizienteste Karte für UHD welche die Vorgängergeneration schlägt und die versammelte Konkurrenz komplett deklassiert.

Matrix316
2025-01-03, 13:54:03
Nvidia kann für ihre 5080 erstmal verlangen, was sie will. Die 4080 hatte gemäß UVP ein schlechteres P/L-Verhältnis als die 3080. Das kann Nvidia mit der 5080 problemlos fortsetzen, indem sie die alten Karten einfach nicht mehr produzieren und dort die Preise auch ansteigen lässt. Jedem steht frei den Zirkus nicht mitzumachen.
Natürlich! Aber nehmt das doch nicht alle so achselzuckend hin "ist halt so"! Da muss man sich doch mehr aufregen drüber! :freak:

Troyan
2025-01-03, 13:54:03
DIe 5090 hat 80% mehr Bandbreite. Stromverbrauch sollte deutlich über der 4090 sein. Kein Plan, wie das in UE5 hilft, aber vielleicht gibt es auch noch andere Verbesserungen, die speziell für UE5 Leistung bringt.

davidzo
2025-01-03, 14:00:19
Es kann mir doch keiner erzählen, dass die Bauteile für eine 4080 fast doppelt so teuer waren wie für eine 3080.

Der Herstellungspreis hat in einer Marktwirtschaft genau gar nichts zutun mit dem Marktpreis.

Nvidia hat derzeit eine durchschnittliche Marge von 74.56%. Bei einem 1399$ Produkt würde der Herstellungspreis also bei durchschnittlich 350$ liegen.
Und das ist der Wert den man mit Lovelace etabliert hat, mit Blackwell wird man sicher versuchen das noch zu optimieren.


Es kann mir auch keiner erzählen, dass man mit $699 MSRP für die 3080 nicht auch eine Menge Gewinn gemacht hätte, oder?
Genau, es geht um den Gewinn. Und da spielt die Marge nur noch eine untergeordnete Rolle wenn du auf so hohem Niveau operierst. Sagen wir du kannst eine 3070 mit 200$ Herstellungspreis für 499$ verkaufen oder eine 3080 mit 300$ Herstellungspreis für 699$, dann ist die Marge zwar bei letzterer etwas schlechter, aber du machst trotzdem 100$ mehr Gewinn.

Das ist jetzt ein ausgedachtes Beispiel, zeigt aber wie ausgereifte Monopolmärkte ticken. Die Zahl der Käufer ist endlich und liegt fast komplett außerhalb des Einflusses von nvidia. Wenn du einen 5080 Käufer konvertieren kannst künftig 90er Serie Käufer zu sein, dann steigt der Profit.

Gleichzeitig muss nvidia aber vorsichtig sein dass nicht alle eine 3090, 4090 oder 5090 kaufen und dann 10Jahre nicht mehr im Markt mitspielen. Hier liegt der Grund für die starken Generationen-Zuwächse im Highend, denn eine 4090 ist sehr viel schneller als eine 3090 und eine 5090 ist mit 32GB, DLSS4 und mehr als 50% Leistungszuwachs auch eine starke value proposition für jeden 3090 und 4090 Besitzer. Der Gebrauchtmarkt spielt für nvidia kaum eine Rolle und lässt sich außerdem über den Treibersupport bekämpfen. Die alten Highend-Karten sind aktuell wegen AI scalpern noch teuer und auch aufgrund ihrer Größe und Leistungsaufnahme keine echte Gefahr für zukünftige Mainstreamlösungen.


Das Problem sind nicht die Herstellungskosten. Klar sind die gestiegen, aber so stark auch nicht wieder nicht. Elektronikkomponeten sind generell immer noch etwas teurer als vor Covid aber das ist nicht mehr stark spürbar. Die überall erhöhten Margen obendrauf sind das Problem. Nvidia greift mehr ab als früher, Kompnentenhersteller greifen mehr ab, AIBs greifen mehr ab, die Lieferkette greift mehr ab, der Handel greift mehr ab. Dieser multiplikative Effekt macht die Karten so teuer, nicht die Herstellungskosten.
Die Entwicklungskosten sind aber auch extrem gestiegen. Und zwar in fast jeder Stufe der Entwicklung, sogar dem PCB Design, GDDR7-Validierung, Zertifizierung, Kühlung, etc.
Selbst wenn also die Stückkosten stagnieren, explodieren die nötigen R&D Investitionen. Da Markt aber zunehmen global unsicherer wird (Trump, Russland, China-US Handelskrieg, Regression in der EU, etc.), stimmt das Risiko/Ertrags Verhältnis nur überein wenn gleichzeitig die Marge extrem steigt. Ich will das Verhalten damit nicht rechtfertigen, aber nur erklären wie Investoren und Anleger halt ticken.
Letzendlich bleibe ich aber dabei: Die Nachfrage bestimmt den Preis, nicht die Herstellungskosten. Und die Nachfrage ist ja leider noch da. Solange wird sich nichts ändern.

DrFreaK666
2025-01-03, 14:00:42
...
Wenn ich in einer Produktkategorie den Nachfolger eines bestimmten Produktes rausbringe, dann sollte der auch im gleichen Preisbereich sein und nicht in dem des Produktes was eigentlich eine Kategorie drüber liegt...

Hast die letzten Generationen verschlafen? Und dass Preise allgemein gestiegen sind, ist dir wohl auch noch nicht aufgefallen

Troyan
2025-01-03, 14:02:33
Der Herstellungspreis hat in einer Marktwirtschaft genau Zero zutun mit dem Marktpreis.

Nvidia hat derzeit eine durchschnittliche Marge von 74.56%. Bei einem 1399$ Produkt würde der Herstellungspreis also bei durchschnittlich 350$ liegen.
Und das ist der Wert den man mit Lovelace etabliert hat, mit Blackwell wird man sicher versuchen das noch zu optimieren.


Ja, ignorieren wir einfach die 17 Mrd. zusätzlichen Einnahmen aus dem >90% Geschäftsbereich...


Wieso größerer DIE? Der wird garantiert nicht größer als bei der 4090.
Ich schätze der Chip wird nichtmal größer als der AD103 der 4080 und 4080super. Ich denke nvidia hat bei der Density des TSMC N5/" nvidia 4N" Prozesses noch ein bisschen was auf dem Tisch gelassen..

Jeder, der für 1500€ eine Karte kaufen würde, hat schon längst eine 4090. Es gibt ergo kaum einen Markt für eine 5080 für 1500€.

Kriegsgeier
2025-01-03, 14:03:09
Plus: bitte nicht vergessen, dass die 5090 auch höher takten soll als 4090! Das kommt noch hinzu.
Und ein 14 Layer PCB! Das ist auch krass!

Der_Korken
2025-01-03, 14:06:46
Natürlich! Aber nehmt das doch nicht alle so achselzuckend hin "ist halt so"! Da muss man sich doch mehr aufregen drüber! :freak:

Ich rege mich schon maximal darüber auf, indem ich generell weniger Hardware kaufe und nur noch alte günstige Spiele zocke. Was besseres kann man als Kunde nicht machen, wenn einem die Produkte nicht zusagen. So wirklich gespannt bin ich eigentlich nur auf die 5070 Ti. Wenn die schneller als die 4080s wird und brauchbare Customs unter 1000€ bleiben, könnte es interessant werden.

The_Invisible
2025-01-03, 14:08:13
Mir echt unverständlich wie man so hart über Preisspekulationen spekulieren kann aber über technische Neuerungen wie zb dlss4 gar nichts.

Bin ich froh wenn die Karten endlich vorgestellt werden...

Relex
2025-01-03, 14:11:07
Weil über DLSS4 viel weniger bekannt ist, als über die Hardware specs?

Troyan
2025-01-03, 14:11:48
Ich rege mich schon maximal darüber auf, indem ich generell weniger Hardware kaufe und nur noch alte günstige Spiele zocke. Was besseres kann man als Kunde nicht machen, wenn einem die Produkte nicht zusagen. So wirklich gespannt bin ich eigentlich nur auf die 5070 Ti. Wenn die schneller als die 4080s wird und brauchbare Customs unter 1000€ bleiben, könnte es interessant werden.

Man kann auch nichtmal auf Konsolen ausweichen. Die PS5 Pro kostet 920€. Das sind 420€ mehr als meine Launch-PS5.

Aktuell ist Markt eben aufgrund der fehlenden Alternativen zu den Herstellungsmöglichkeit einfach uninteressant.

Matrix316
2025-01-03, 14:16:38
Hast die letzten Generationen verschlafen? Und dass Preise allgemein gestiegen sind, ist dir wohl auch noch nicht aufgefallen
Der UVP der 4080 war schon 70% höher als der von der 3080. Das wären keine Ahnung 100 Jahre Inflation. Den darf man einfach jetzt nicht noch mehr steigern, weil man einfach die Zielgruppe verprellt. Mal abgesehen davon, dass wenn ich 1800~2000 Euro oder so ausgeben wolllen würde, ich bestimmt nicht NUR eine 80er Karte haben will. DANN will ich auch eine 90er.

Es gab doch damals schon den Aufschrei als man die 4070 mit 16 GB 4080 nennen wollte, oder so ähnlich.

davidzo
2025-01-03, 14:18:57
Jeder, der für 1500€ eine Karte kaufen würde, hat schon längst eine 4090. Es gibt ergo kaum einen Markt für eine 5080 für 1500€.

1. Die 4090 ist kaum noch lieferbar und kostet wenn dann 2500€ aufwärts: https://geizhals.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4090
Und ja, es gibt Kunden die sich jetzt erst entscheiden eine Highendkarte zu kaufen, und vor 2 Jahre nicht im Markt dafür waren und das sind icht nur alles AI tinkerer.

2. Die 5080 ist nicht für 4090 Besitzer gedacht.

3. 1399 sind nicht 1500€. Die 4090 launchte außerdem zu 1599$. Da ist ein großer Abstand zwischen 1399 und 1599.

4. Ich kann mir aber auch gut 1299 oder 1199$ als Launchpreis vorstellen. Praktisch alles was teurer ist also die 4080super (derzeit ab 1050€).

5. Die Karte muss deutlich schneller als die 4080 super sein und attraktive Features bieten. Dann kaufen Leute die bisher auf eine 4080super gespart haben die 5080 selbst wenn sie geringfügig teurer ist.

Troyan
2025-01-03, 14:22:24
Richtig lesen. Wer 1500€ ausgeben hätte wollen, hätte sich schon längst eine 4090 gekauft - oder eine 4080 zum Start, die ebenfalls irgendwo bei 1300€ lag. Da die 4080 sich kaum verkaufte und die 4090 der Renner war, gibt es kein Markt für eine 5080 zu (jedenfalls $ Preis) von $1399+.

Wir hier in Europa sind sowieso aktuell wieder am Arsch, da der Euro fast Parie erreicht hat...

Matrix316
2025-01-03, 14:23:01
1. Die 4090 ist kaum noch lieferbar und kostet wenn dann 2500€ aufwärts: https://geizhals.de/?cat=gra16_512&xf=9816_03+05+17+-+RTX+4090
Und ja, es gibt Kunden die sich jetzt erst entscheiden eine Highendkarte zu kaufen, und vor 2 Jahre nicht im Markt dafür waren.

2. Die 5080 ist nicht für 4090 Besitzer gedacht.

3. 1399 sind nicht 1500€. Die 4090 launchte außerdem zu 1599$. Da ist ein großer Abstand zwischen 1399 und 1599.

4. Ich kann mir aber auch gut 1299 oder 1199$ als Launchpreis vorstellen. Praktisch alles was teurer ist also die 4080super (derzeit ab 1050€).

1399$ - wobei es werden ja schon 1499$ gemunkelt - sind schon 1456,12 Euro umgerechnet. + Märchensteuer sind wir schon bei 1732,78 Euro. PLUS das was Firmen wie Asus und Co draufrechnen mit OC und Super OC und Strix und sonstwas Modellen, sind wir schon da wo die 4090 mal gelauncht ist.

Mir echt unverständlich wie man so hart über Preisspekulationen spekulieren kann aber über technische Neuerungen wie zb dlss4 gar nichts.

Bin ich froh wenn die Karten endlich vorgestellt werden...

DLSS ist eh nur Betrug. Deswegen will ich ja eine schnellere Karte, damit ich kein DLSS brauch. ;) ;) ;)

Hakim
2025-01-03, 14:37:26
Ich finde irgendwie FG Betrug und sehe es als Fake Fps, aber DLSS finde ich gut wenn es den gut implementiert ist :)

Edgecrusher86
2025-01-03, 14:45:41
Der reale Verbrauch der 5090 dürfte sich wohl auch wieder unterhalb der TGP einpendeln - ich schätze diesen auf zwischen 520-550W im Mittel ein.

Zumindest aktuelle Titel werden mit Blackwell dann auch bis 4K60+ mitsamt PT möglich sein samt DLSS exklusive FG. Aber manches ist natürlich so hart, dass es mindestens eine RTX 6090 braucht, wenn man Upscaling weglässt -
etwa 4K CP 2077 Overdrive + DLAA, Alan Wake II PT + DLAA oder ein Wukong mit diesen Settings, damit 60 fps in UHD möglich sein werden. Alles Titel, wo eine RTX 4090 derweil nur 20er fps abliefern kann. ;)

dargo
2025-01-03, 14:49:11
Z.b. bei Stalker 2 zieht eine 4090 bei UHD nativ und Max Settings so maximal 370W.

https://youtu.be/ZYinKxZn0cs

Cool... Rosinentime. (y)
https://youtu.be/2NqohUu4qwc?si=qTy-o8mu8y_B0hs3

Edgecrusher86
2025-01-03, 14:59:57
Remedy konnte schon immer gut HW grillen - vor allem, wenn man gerne all in ging/geht - das erinnert mich an Alan Wake DX9 im SLI mit OGSSAA + SGSSAA drauf - immer so knapp an der 90 Grad Marke die beiden 580 3GB gewesen.
Wenn eine RTX 5090 Alan Wake II in 4K PT DLAA mit über 40 fps schafft, ist sie gut. :D

w0mbat
2025-01-03, 16:22:52
Und ein 14 Layer PCB! Das ist auch krass!
Die 4090 FE hatte auch schon ein 14 layer PCB.

Emil_i_Lönneberga
2025-01-03, 16:27:09
Das hohe Powerbudget sichert dem Biest die Entfaltung - wir wollen ja keine zweite Titan Classic, oder? ;) Vermutlich nähern sich Board Power und tatsächliche Average Power diesmal näher an, da der Prozess keine deutliche Effizienzsteigerung bringt.

MfG
Raff

Dass die 5090 wie schon die 4090 in kein Korsett gepresst wird, finde ich nur positiv, weil es wie bei der 4090 spannend zu lesende Kühlervergeiche ermöglicht.

4090 FE 580W Board Power Draw (Powerlimit = 600W):

https://hardware-helden.de/vergleichstest-3-wasserkuehler-fuer-die-geforce-rtx-4090-founders-edition/#Temperaturergebnisse_bei_ca_580W_Board_Power_Draw_Powerlimit_600W

4090 TUF 550W Board Power Draw (Powerlimit = 600W):

https://hardware-helden.de/vergleichstest-4-wasserkuehler-fuer-die-geforce-asus-rtx-4090-tuf-strix/#Temperaturergebnisse_bei_ca_550W_Board_Power_Draw_Powerlimit_600W

lilgefo~
2025-01-03, 16:52:32
Hätte nix gegen 600W TDP (/=TGP) wenn es auch genutzt werden kann. Bei der 4090 warens einige irrelevante Dutzend MHz die man (sehr guten Chip vorrausgesetzt) so gewinnen konnte vs 450W. Bei der 5090 könnte es tatsächlich relevant werden. Hab schon vor einiger Zeit auf ein V3000+ mit 3x420 + 1x280er Radiator umgebaut um physischen und thermischen Raum für eine unhörbare (nicht das was Lukü Leute als unhörbar bezeichnen mit 3x 1300rpm/90mm Lüftern ;) ). Das Leistungsplus wird dringend gebraucht auch für ältere Spiele wie AW2 etc.

mironicus
2025-01-03, 16:57:46
Mit den neuen Informationen neige ich dazu meine RTX 4090 noch zwei Jahre zu behalten.

w0mbat
2025-01-03, 16:59:07
Mir ist alles Recht, so lange die 5090 zusammen mit meinem 5800X3D/B550-System mit meinem Corsair SFX750 Netzteil noch läuft. Den neuen Stecker hat es schon.

lilgefo~
2025-01-03, 17:00:13
Mit den neuen Informationen neige ich dazu meine RTX 4090 noch zwei Jahre zu behalten.

Wozu? 5090 wird die nächsten 2-2,5 Jahre deutlich über der 4090 sitzen. 4090 bringt gute Gebrauchtpreise. Man gewinnt gar nix damit 2 Jahre mit der 4090 abzugammeln weil der Wiederverkaufswert entsprechend sinkt und man dazu Leistung verschenkt.

Mir ist alles Recht, so lange die 5090 zusammen mit meinem 5800X3D/B550-System mit meinem Corsair SFX750 Netzteil noch läuft. Den neuen Stecker hat es schon.

Glaub selbst mit so einem relativ schwachen Platinum NT wirds in Kombo mit dem alten 5800x3d kein Problem geben.

w0mbat
2025-01-03, 17:14:18
Ist auch brandneu. Hatte davor den Vorgänger (auch 750W Plat.), aber der Lüfter hat vor ein paar Wochen angefangen zu ratteln. Austausch ging super fix, obwohl es 5 Jahre alt war. Ich hab eine Sicherheitszahlung geleistet, Corsair hat das neue geschickt, ich hab es gewechselt und das alte zurück geschickt und dann mein Geld wieder bekommen. Top Support!

SamLombardo
2025-01-03, 17:22:06
Ich bin bei der kommenden Generation auch nicht sicher. Ich meine vor zwei Jahren als die 4090 vor der Tür stand gab es wenigstens Spiele wie Cyberpunk die mit Raytracing und DLSSQ um die 40 fps mit ner 3090 hatten. Von Pathtracing ganz zu schweigen. Da war eine 4090 schon geil - als sowas auf einmal mit guten Frameraten möglich war. FG und der brachialen Leistung der 4090 sei Dank. Aber jetzt? Wenn ich von der 4090 auf dir 5090 upgrade, was hab ich dann? Die Genugtuung, dass Indy, Cyberpunk und Co mit Pathtracing nicht mehr 75 sondern 130 fps ausspucken? Mal abgesehen davon, dass mein Bildschirm auf 120hz begrenzt ist. Hmmm. Die 4090 war ein Gamechanger. Die 5090 wird der reine Luxus, den bei den derzeitigen Spielen eigentlich kaum einer braucht. Aber mal sehen ob da mehr kommt als DLSS 4. Mir reichen die derzeitigen 75 fps bei Pathtracing Spielen völlig (Cyberpunk, Alan Wake 2, Indy usw mit DLSSQ und FG). Den Drang, 2500€+ auszugeben, damit es 120 oder 130 werden verspüre ich gerade gar nicht. Aber mal schauen ob noch sonstige Features dabei sind.

Wuge
2025-01-03, 17:33:03
Jemand Interesse an einer selektierten 4090 FE mit LM-Alphacool-WaKü Umbau? :P
So langsam steigt die Spannung.

Wann sind die neuen Babys kaufbar?

y33H@
2025-01-03, 17:33:17
Ich wiederum will kein FG (in seiner derzeitigen Form), weil mir die Latenzel zu hoch ist bei 120 fps/Hz ... mehr Power für 1440p ohne Q- sDLSS/FG schadet ergo nicht.

Nightspider
2025-01-03, 17:33:44
das wäre für mich schon zu viel. aber bis 3500€ würde ich gehen.
Dann kostet sie sicher mehr. Nicht das du sie noch jemanden wegschnappst:rolleyes:

;D

lilgefo~
2025-01-03, 17:37:11
Ich bin bei der kommenden Generation auch nicht sicher. Ich meine vor zwei Jahren als die 4090 vor der Tür stand gab es wenigstens Spiele wie Cyberpunk die mit Raytracing und DLSSQ um die 40 fps mit ner 3090 hatten. Von Pathtracing ganz zu schweigen. Da war eine 4090 schon geil - als sowas auf einmal mit guten Frameraten möglich war. FG und der brachialen Leistung der 4090 sei Dank. Aber jetzt? Wenn ich von der 4090 auf dir 5090 upgrade, was hab ich dann? Die Genugtuung, dass Indy, Cyberpunk und Co mit Pathtracing nicht mehr 75 sondern 130 fps ausspucken? Mal abgesehen davon, dass mein Bildschirm auf 120hz begrenzt ist. Hmmm. Die 4090 war ein Gamechanger. Die 5090 wird der reine Luxus, den bei den derzeitigen Spielen eigentlich kaum einer braucht. Aber mal sehen ob da mehr kommt als DLSS 4. Mir reichen die derzeitigen 75 fps bei Pathtracing Spielen völlig (Cyberpunk, Alan Wake 2, Indy usw mit DLSSQ und FG). Den Drang, 2500€+ auszugeben, damit es 120 oder 130 werden verspüre ich gerade gar nicht. Aber mal schauen ob noch sonstige Features dabei sind.

Wer sich mit 33fps Latenz und störenden Artefakten besonders mit dem UI zufrieden gibt ist auch nicht wirklich die Zielgruppe für eine 5090 oder 4090. Das kannst auch mit einer 4070/5070 haben. Die 4090 war damals dringend notwendig um ~2 Jahre alte Spiele (zu der Zeit z.B. Control) gut spielbar zu machen in 4k. Die 5090 wird das Selbe für Spiele der letzten Jahre liefern, für alles was an AAA rauskommt die kommenden Jahre wirds halt wieder die Frage ob man 4k DLSS-Q oder auf DLSS-B runtermuss um wenigstens auf 60fps (avg nicht min, leider; siehe AW2) zu kommen. Grafikkarten sind einfach immer zu langsam egal ob meine rage3d pro von anno 1997, r200, nv20, r300, nv40, ad102 oder gb202.

Thunder99
2025-01-03, 17:55:50
Als ich die Meldung über die TDP und Boardpower gelesen hatte dachte ich mir, alles richtig gemacht mit der RTX40er Serie. Klar, die 4080 ist jetzt zu teuer gewesen für die Leistung aber dafür saugt sie "nur" bis zu 320W.

Blackwell würde wahrscheinlich sehr krass werden bei 3nm. Aber da nur 4nm zur Verfüng gestellt wird wird halt mal wieder das max. aus dem Prozess geprügelt damit noch ein + da steht (ausserhalb der 5090).

Erhlich gesagt, ich denke mittlerweile es wird nur noch über mehr Power gehen da der Prozess immer mehr limitiert was Speed bei gleichem Powerbudget angelangt. Keine gute Entwicklung :(. Haben wir dann bei der RTX6 oder 7 dann bis zu 1000W?

Nightspider
2025-01-03, 18:02:08
Ich hoffe es wird mehr 5090 Karten mit einem Wasserkühler wie früher bei EVGA geben, die man direkt an seine vorhandene Wakü anschließen kann.

w0mbat
2025-01-03, 18:04:01
Als ich die Meldung über die TDP und Boardpower gelesen hatte dachte ich mir, alles richtig gemacht mit der RTX40er Serie. Klar, die 4080 ist jetzt zu teuer gewesen für die Leistung aber dafür saugt sie "nur" bis zu 320W.

Blackwell würde wahrscheinlich sehr krass werden bei 3nm. Aber da nur 4nm zur Verfüng gestellt wird wird halt mal wieder das max. aus dem Prozess geprügelt damit noch ein + da steht (ausserhalb der 5090).

Erhlich gesagt, ich denke mittlerweile es wird nur noch über mehr Power gehen da der Prozess immer mehr limitiert was Speed bei gleichem Powerbudget angelangt. Keine gute Entwicklung :(. Haben wir dann bei der RTX6 oder 7 dann bis zu 1000W?
Gibt ja noch mehr als nur den Fertigungsprozess. Zen 2 und Zen 3 waren bei 7nm, Zen 3 aber deutlich schneller und effizienter. Mit einer besseren Architektur, einem breiteren Chip, eine optimierten Fertigung und GDDR7 kann da schon was dabei rum kommen.

dargo
2025-01-03, 18:08:39
Erhlich gesagt, ich denke mittlerweile es wird nur noch über mehr Power gehen da der Prozess immer mehr limitiert was Speed bei gleichem Powerbudget angelangt. Keine gute Entwicklung :(. Haben wir dann bei der RTX6 oder 7 dann bis zu 1000W?
So schnell wird es sicherlich nicht gehen, aber der Trend ist natürlich erkennbar. Es geht immer weiter nach oben mit den Heizöfen. Wird interessant zu sehen wo die IHVs die Schmerzgrenze im Gaming Sektor sehen.

SamLombardo
2025-01-03, 18:28:35
Wer sich mit 33fps Latenz und störenden Artefakten besonders mit dem UI zufrieden gibt...

Ja ist legitim. Ich sehe sowas mittlerweile kaum noch, da haben sich die Algorithmen signifikant verbessert während der letzten zwei Jahre. Bei mir ist es mittlerweile sogar so, dass ich FG anschalte selbst wenn ich es fps technisch gar nicht brauche, einfach um Energie zu sparen. Aber ich verstehe auch, wenn Puristen das ablehnen. Für die ist dann die 5090:wink:.

Sardaukar.nsn
2025-01-03, 20:26:09
Ich hoffe es wird mehr 5090 Karten mit einem Wasserkühler wie früher bei EVGA geben, die man direkt an seine vorhandene Wakü anschließen kann.

Inno3D hat schon eine Frostbite für die CES angekündigt. Der Wasserblock könnte auch wieder von Alphacool sein. Wäre auch meine Wunschkarte.

OCmylife
2025-01-03, 21:11:42
Inno3D hat schon eine Frostbite für die CES angekündigt. Der Wasserblock könnte auch wieder von Alphacool sein. Wäre auch meine Wunschkarte.
Ein Grafikkarte mit einem Block von Watercool wäre fein. Aber wahrscheinlich bekommt man die wieder nur für die kaum erhältliche Founders Edition und überteuerten Strix Modelle.

OgrEGT
2025-01-03, 21:12:23
https://videocardz.com/newz/fan-made-geforce-rtx-50-founders-edition-mockup-highlights-possible-design-changes
Angeblich hat kopite gemeint die 5090FE könnte Dualslot sein... dann muss da aber ne AIO noch dran sein bei 575W...

Kriegsgeier
2025-01-03, 21:16:57
Das wäre genial! Bitte aber auch mit der Option eine Custom WaKü anzuschließen :-)
An eine Mo-Ra z.B.

monstar-x
2025-01-03, 21:33:56
https://videocardz.com/newz/fan-made-geforce-rtx-50-founders-edition-mockup-highlights-possible-design-changes
Angeblich hat kopite gemeint die 5090FE könnte Dualslot sein... dann muss da aber ne AIO noch dran sein bei 575W...

Niemals wird die RTX 5090 mit >500 Watt nur einen kleiner Dual-Slot.
Es sei den die wird laut wie Hölle, so wie damals die GeForce FX 5800.

Sardaukar.nsn
2025-01-03, 21:40:29
Bei Asus waren die Strix und TUF PCBs mit einem Kühler kompatibel. Meine 4090 TUF non-oc kam damals für 1950€ aus dem Asus Webshop. Den Weg würde ich bei Blackwell auch wieder gehen, oder halt direkt Inno3D falls die direkt was anbieten können.

Linmoum
2025-01-03, 21:43:21
https://videocardz.com/newz/fan-made-geforce-rtx-50-founders-edition-mockup-highlights-possible-design-changes
Angeblich hat kopite gemeint die 5090FE könnte Dualslot sein... dann muss da aber ne AIO noch dran sein bei 575W...Das ist ein alter Tweet aus Mai 2024. Davon ab sind Verbrauch und Preis sowieso zwei Faktoren, die Jensen erst auf der Bühne finalisieren kann.

Neurosphere
2025-01-03, 22:26:13
Gab es nicht mal die Info von EKWB das man schon an Wasserkühlern für die nächste Gen arbeitet vor ein paar Monaten?

Wenn die 5090 AIO ist, würde das passen und entweder man beliefert direkt NV oder die AIBs für die Costums.

https://videocardz.com/newz/ek-hints-at-next-gen-gpu-launches-this-year

Thomas Gräf
2025-01-04, 00:07:54
Denkemal das beim Thema AIO die AIBs selbst ihren Schrott verbauen würden.
Außerdem was soll ne 4090/5090 mit ner AIO?
Bei fast 600w wird die ganze Platte warm und nicht nur der Chip.

Neurosphere
2025-01-04, 00:14:57
Hä? Gibts doch alles schon.

https://media.icdn.hu/product/GalleryMod/2024-01/956475/resp/3143444_asus-rog-matrix-rtx4090-p24g-gaming-rog-matrix-platinum-geforce-rtx-4090-24gb-gddr6x-dlss3.webp

Lawmachine79
2025-01-04, 00:31:54
Das Ding ist luftgekühlt, dann wird wohl auch eine AIO gehen.

Thomas Gräf
2025-01-04, 05:15:04
Jadoch, wenn diese AIO's einen fullcover Wasserblock das "Wasser" reichen können und wirklich besser sind als gute LuKü's...
Nur ich galub das nicht.
Allein das Foto der Asus ROG Matrix Platinium enthaucht mir maximal ein mitleidiges kichern.
Keine Kontrolle über den Füllstand des Wassers, keine Luftblasen Sichtung möglich zb direkt am Chip.
Was für'ne China Pumpe is da drin die nichmal 20cm heben können muss.
Wieviel Dreck is im Radi von der China Herstellung noch drin.
Wieviel Luft hat der Hersteller in dem Wassekreislauf eingebaut...

Aber ja die YT Influencer Testberichte werden alle klasse sein ;)
Nur das Teil was bei Dir zu Hause ankommt is ne Zeitbombe.
Achte auf das glucksen nach hartem zokken in der Wasseleitung.

Achja da sind ja dannoch die Temps die angezeigt werden und die Temps die
keiner kennt und das ganze Design zum Drosseln bringen.
Bei Igor kann mann das gerade nachschauen.

basix
2025-01-04, 09:37:03
Angeblich hat kopite gemeint die 5090FE könnte Dualslot sein...

Ach, der Jensen verkauft uns nun GB203 als 5090 :D

Altehardware
2025-01-04, 15:25:46
Da am Dienstag Morgen alle schlauer sind freue ich mich auf das whitepaper zur Architektur
Derweil warum ich mich dagegen entschieden habe auf diese gen zu warten
Laufbahn.
2006 gf6600 8Pshader 3Vshader theoretisch 0,066tf 50w
2007 gf 8800gts 320mb 0,38tf 100w (defekt gegangen) 100%
2009 gf 9800gtx+ 0,57tf 120w (fristet im retro pc mit xp sein leben) +70%
2011 gtx460 0,95tf 110w +65%
2013 gtx760 2,7tf 130w +180%
2016 gtx1060 4,9tf 120w +82%
2021 rtx3060 12gb 9,2tf 170w +84%
2024 rtx4070 21,8tf 200w (meist cpu limitiert) +99%/ effektiv +136%

vermutet 2025 rtx5060ti (38sm) 18tf 180w tbp +- 499€ +95%
hab für ne rtx4070 499€ gezahlt
Zukunft also rubin wird nix werden da alles auf apu gehen wird.
Es ist im Gespräch das nvidia auf Samsung sf2 gehen könnte zum node ist nix bekannt. Ich ahne das es ne intel Sache wird womit völlig offen ist was man erwarten kann.
technisch liegt intel auf level von Samsung sf3 node hat aber die deutlich bessere packaging Methode.
Die folge ist das nicht klar wird was man mit gr205 sofern dieser kommt zu erwarten ist.
Jetzt hat man die Wahl ok'ish rtx5070ti 300w oder alte gen rtx4070ti super 285w oder ne rtx4070 im Abverkauf
Die rtx5060 ist meh, vermutlich 8gb und nur so schnell wie die rtx4060ti -10%
Sicher ist das mit Samsung es maximal so effizient wird wie ada bei fasst gleicher Leistung
rtx5060 150w statt 130w
rtx5060ti 180w statt 160w
rtx5070 240w statt 200w
Deswegen habe ich auf blackwell verzichtet, da auch nicht mehr vram kommt eventuell kommt mit dem refresh mehr vram dazu das aber würde mich nicht dazu bewegen die sku zu Wechseln und ein Nachfolger ist nicht in Sicht
Die Konsequenz ist neuer pc 2028 mit allem außer ssd und hdd inklusive os das wird teuer.
+- 1000€
zumindest werden sie Spiele nicht weniger 2025 hat alleine schon 20 Titel die Pflicht werden.
2026 Bahnt sich mit gta6 ein Schwergewicht an danach ist offen sicher ist auch das PT vermehrt verwendet wird.

Ex3cut3r
2025-01-04, 15:39:36
GTA 6 - 2026? Wenn überhaupt, dann aber nur für die Konsolen. Rechne mal lieber 2027 oder gar 2028 mit einem PC rls. bis dahin ist Blackwell auch nur noch ein laues Lüftchen.

horn 12
2025-01-04, 15:49:09
und die rtx 5080 (5080 Super/ TI in Zukunft)
rtx 5090

wo bitte siehst du jene Karten bei Verbrauch und Leistung im Raser, Raytracing - Pathracing dann bitte?

Catrovacer
2025-01-05, 17:52:01
Angeblich erster Blick auf ein Customdesign der 5090: https://videocardz.com/newz/exclusive-first-look-at-geforce-rtx-5090-with-32gb-gddr7-memory

rentex
2025-01-05, 18:07:01
Also nur ein Stromanschluss?

Sardaukar.nsn
2025-01-05, 18:13:09
Ja, ich denke auch das Inno3D das Referenzdesign PCB mit der kurzen, aber hohen Platine verwendet was ja schon geleakt wurde.

BlacKi
2025-01-05, 18:30:37
livestream (wohl vorstellung der 50er gen) ist am :

Dienstag, 7. Jan. | 3.30 Uhr MEZ

also deutsche winterzeit.

schade, ist mir etwas zu früh um live dabei zu sein.

k82RwXqZHY8

The_Invisible
2025-01-05, 18:44:58
Ja echt bescheuerte Zeit, zumindest AMD/Intel kann man normal sehen. Obwohl, um diese Zeit herum verlangt unsere Kleine auch immer Fläschchen, vielleicht passt es zusammen :freak:

rentex
2025-01-05, 18:57:16
Mir reicht die Zusammenfassung in der Früh um 5 ;-D
Danke im Voraus an alle Redaktionen für das Durchmachen.

Troyan
2025-01-05, 19:02:03
Oder man sich das zum Frühstück relive an.

monstar-x
2025-01-05, 19:46:39
Bild der RTX 5090 iChill von INNO3D
Damit sind die 32GB GDDR7 wohl zu 100% bestätigt.

https://cdn.videocardz.com/1/2025/01/INNO3D-GEFORCE-RTX-5090-HERO.jpg

Link: https://videocardz.com/newz/exclusive-first-look-at-geforce-rtx-5090-with-32gb-gddr7-memory

Radeonfreak
2025-01-05, 19:48:24
Low Noise, 2.5-3 Slots und 600W passen nicht wirklich zusammen. :confused:

monstar-x
2025-01-05, 19:50:45
Low Noise, 2.5-3 Slots und 600W passen nicht wirklich zusammen. :confused:

Wieso die INNO3D iChill hat 3.5 Slot, dürfte das selbe sein wie dass der 4090 und die Kühlt auch die 33% mehr Chips weg.

HOT
2025-01-05, 20:07:28
Die Karte ist riesig.

RoNsOn Xs
2025-01-05, 20:19:17
Mit was für ner Mehr-Performance wird jetzt zur 4090 gerechnet?

Troyan
2025-01-05, 20:21:28
Meiner Meinung nach mindesten 60%. Der Die ist >20% größer und mit 80% Bandbreite wäre alles andere schon sehr schlecht.

Sardaukar.nsn
2025-01-05, 20:37:38
Mit was für ner Mehr-Performance wird jetzt zur 4090 gerechnet?

Wie immer in den den letzten 10 Jahen: +50-70%

Hier ist allerdings eher Brechstange angesagt, aber das Ding wird schon liefern. Keine Frage.

Tesseract
2025-01-05, 20:38:28
mehr als +50% würde mich eher wundern.

Troyan
2025-01-05, 20:40:31
Also bei 25% größeren Die und 80% mehr Bandbreite?! Wie sollen da erst die anderen Karten abschneiden, die deutlich weniger zulegen...

Tesseract
2025-01-05, 20:42:25
die haben durch die kleinere konfiguration einen auslastungsvorteil, außerdem würde ich auch da nicht zu viel hypen. ich denke nach wie vor nicht dass die 5080 an die 4090 kommt, außer in bestimmten extremfällen.

Ex3cut3r
2025-01-05, 20:45:50
Ja echt bescheuerte Zeit, zumindest AMD/Intel kann man normal sehen. Obwohl, um diese Zeit herum verlangt unsere Kleine auch immer Fläschchen, vielleicht passt es zusammen :freak:
Mir reicht die Zusammenfassung in der Früh um 5 ;-D
Danke im Voraus an alle Redaktionen für das Durchmachen.

Schade, dass hier im Forum nichts los sein wird. Es war schon legendär, wie viele bei Pascal, Turing, Ampere, etc. am durchdrehen waren bezüglich Comments.

Sardaukar.nsn
2025-01-05, 20:51:17
Mit den Jahren kommt halt die Routine, alle 2 Jahre eine neue GPU einzutüten.

rentex
2025-01-05, 20:57:21
die haben durch die kleinere konfiguration einen auslastungsvorteil, außerdem würde ich auch da nicht zu viel hypen. ich denke nach wie vor nicht dass die 5080 an die 4090 kommt, außer in bestimmten extremfällen.

Damit wäre sie einfach DOA, wenn sich die Preise in etwa bewahrheiten.

basix
2025-01-05, 21:03:07
+50% würde ich bei der 5090 schon erwarten und vorsichtig optimistisch noch etwas mehr. Die 5080 dürfte in etwa auf 4090 Niveau landen. Je nach Spiel liegt die eine oder andere vorne.

Für mich die fast grössere Frage ist, wie viel die Energieffizienz steigen wird. Momentan sieht das noch eher lauwarm aus (oder heiss, je nachdem von welcher Seite man es betrachtet ;)).

BlacKi
2025-01-05, 21:15:39
Mit was für ner Mehr-Performance wird jetzt zur 4090 gerechnet?im gpu limit 70%. es wird aber nicht in jedem bench ein gpu limit vorliegen.
genauswenig wirds in der vorstellung konkret werden.

würde mich nicht wundern, wenn nv wieder benchmarks mit 2-4x in einzelnen benchmarks bringen wird. marketing at its best.


erst die unabhängigen benchmarks werden die reale performance zeigen können, aber auch dort muss man aufpassen welche benchmarks nicht verkorkst sind.

Lehdro
2025-01-05, 21:32:46
Diese Bandbreitenexplosion macht mich schon richtig neugierig, bin gespannt.

The_Invisible
2025-01-05, 21:33:29
Schade, dass hier im Forum nichts los sein wird. Es war schon legendär, wie viele bei Pascal, Turing, Ampere, etc. am durchdrehen waren bezüglich Comments.

Ja mir kommt auch vor früher war noch alles viel enthusiastischer. Aber gut, freu mich schon auf die ersten Fotos wenn die ersten ihre 5090 wieder heimkutschieren :D

@Performance
eigentlich interessiert mich nur die Performance von PT und UE5 Games @4k, das andere läuft dann eh sowieso :freak:

Thomas Gräf
2025-01-05, 22:13:26
im gpu limit 70%. es wird aber nicht in jedem bench ein gpu limit vorliegen.
genauswenig wirds in der vorstellung konkret werden.
....

Jede neuere VR Brille sorgt für das GPU Limit ohne mit der Wimper zu zucken.
Gespannt bin wie ein Flitzebogen auf diese 5090...

r3ptil3
2025-01-05, 22:23:36
70% stehen bisher im Raum.

Dürfte aber bei der Nvidia Präsentation noch extremer wirken.

Jeder 4090 Besitzer wird wechseln wollen.

[MK2]Mythos
2025-01-05, 22:29:57
50% wären ein fail in Anbetracht der Größe, der Speicherbandbreite, des Verbrauchs und des Verhältnisses zur 5080. Wenn die 5080 wirklich auf 4090 Niveau landet, sollten die 70% 5090->4090 tatsächlich "average" sein, denk ich.

Lawmachine79
2025-01-05, 22:36:04
Jede neuere VR Brille sorgt für das GPU Limit ohne mit der Wimper zu zucken.
Gespannt bin wie ein Flitzebogen auf diese 5090...
Absolut, das wird ein Kinderspiel. Würde man sogar noch mit der Crystal Light hinkriegen. Wahrscheinlich müssten man nicht mal die Renderauflösung erhöhen sondern einfach mal in DCS alles hochfahren. In AMS2 dürfte es aber nicht funktionieren, da muss die Crystal Super ran, damit die 5090 nötig wird.

Thomas Gräf
2025-01-05, 22:58:28
Jo man, einfach nur die Daumen drücken.
Wird nich einfach sein eine 5090 zum Launch Preis verhaften zu können.
Und bei mir muss sie ja noch unter Wasser. :biggrin:

Der_Korken
2025-01-05, 23:07:42
Schade, dass hier im Forum nichts los sein wird. Es war schon legendär, wie viele bei Pascal, Turing, Ampere, etc. am durchdrehen waren bezüglich Comments.

Das Forum wird älter und der Hype lässt nach. Und wer noch jung genug für den Launch-Hype ist, hätte eh nicht genug Kohle, um sich den Zirkus zu leisten. Wer Opernpreise verlangt, kriegt auch nur Opernpublikum.

Damit wäre sie einfach DOA, wenn sich die Preise in etwa bewahrheiten.

Warum? Nvidia könnte, wie ich schon sagte, einfach die alten Karten auslaufen lassen und die neuen für mehr Geld und weniger Leistung anbieten. Bisher haben die treuen Fans jede Kröte geschluckt, warum nicht auch die? Die 4090er sind längst nicht mehr zur UVP verfügbar, sondern weit drüber, also könnte eine 5080 ohne Probleme die alte 4090er UVP erben bei weniger Leistung und VRAM. DOA ist es erst, wenn keiner kauft.

Mythos;13677396']50% wären ein fail in Anbetracht der Größe, der Speicherbandbreite, des Verbrauchs und des Verhältnisses zur 5080. Wenn die 5080 wirklich auf 4090 Niveau landet, sollten die 70% 5090->4090 tatsächlich "average" sein, denk ich.

Die 4090 hatte auch 68% mehr SMs als die 4080, aber selten mal mehr als 40% auf die 4080 draufgelegt. Dazu 50% mehr Bandbreite, mehr Cache und 50% mehr TDP. Imho hat AD102 ein Auslastungsproblem. Nur dadurch ist es auch nur im entferntesten denkbar, dass eine 5080 mit ihren popeligen 84 SMs an die 128 SMs der 4090 rankommen könnte, sonst wäre das völlig hoffnungslos.

Jetzt könnte man natürlich entgegnen, dass die 5090 diesmal bei +100% SMs und auch +100% Bandbreite liegen wird. Man darf aber nicht vergessen, dass die TDP bei weitem nicht um 100% steigt (wenn die 400W der 5080 stimmen, wären es nichtmal +50%). Und ich sehe nicht, warum Nvidia die Auslastung des Riesenchips groß verbessern sollte. Der Käuferkreis von GB102 ist super klein und eigentlich scheint mir der Chip ohnehin auf Compute-Anwendungen im Profi-Bereich ausgelegt zu sein. Da gibt es keine Auslastungsprobleme und den Abfall mit vielen defekten SMs kann man wunderbar noch als 5090 verkaufen, die die 5080 durch reine Masse schlägt.

Troyan
2025-01-05, 23:12:44
TDP steigt um 27,8%, bei der 5080 nur um 12,5%.

Alles spricht dafür, dass der Abstand (deutlich) größer wird als es bei Lovelace der Fall war.

nordic_pegasus
2025-01-05, 23:37:32
Und ich sehe nicht, warum Nvidia die Auslastung des Riesenchips groß verbessern sollte. Der Käuferkreis von GB102 ist super klein und eigentlich scheint mir der Chip ohnehin auf Compute-Anwendungen im Profi-Bereich ausgelegt zu sein. Da gibt es keine Auslastungsprobleme und den Abfall mit vielen defekten SMs kann man wunderbar noch als 5090 verkaufen, die die 5080 durch reine Masse schlägt.

für mich fehlt im Portfolio von Nvidia irgendwie ein Blackwell-Chip mit 384bit, 24GB und ca. 128 SMs... quasi ein GB202.5

Die Performance-Lücke zwischen GB202 und GB203 macht für mich für die Segmentierung schwierig. Entweder ist der Abstand zwischen 5080 und 5090 deutlich geringer als die Preislücke vermuten lässt (dann wäre für mich die 5090 keine Option) oder Nvidia kann trotz engen TDP-Korsetts die 5090 auf deutlichen Abstand zur 5080 zaubern.

Wenn aber die TDP-Differenz zwischen 5080 und 5090 wirklich 400Watt zu 575Watt betragen sollte und davon einiges für das doppelte SI plus VRAM draufgehen wird, wie soll dann der riesige GB202 voll ausgefahren werden können?

Ich bin echt gespannt, was Jensen am Dienstag in der Früh aus dem Backofen rausholt.

Der_Korken
2025-01-05, 23:51:04
für mich fehlt im Portfolio von Nvidia irgendwie ein Blackwell-Chip mit 384bit, 24GB und ca. 128 SMs... quasi ein GB202.5

Die Performance-Lücke zwischen GB202 und GB203 macht für mich für die Segmentierung schwierig. Entweder ist der Abstand zwischen 5080 und 5090 deutlich geringer als die Preislücke vermuten lässt (dann wäre für mich die 5090 keine Option) oder Nvidia kann trotz engen TDP-Korsetts die 5090 auf deutlichen Abstand zur 5080 zaubern.

Ich würde darauf tippen, dass GB102 durch Spielecode so "schlecht" ausgelastet wird, dass der tatsächliche Abstand zu GB103 deutlich kleiner ausfällt als er anhand der Specs zu erwarten wäre. Dann passt auch die TDP wieder ins Bild, denn bereits Ada hat bei suboptimaler Auslastung sehr gut den Verbrauch gedrückt. Bei einem Powervirus würde im Vergleich zur 5080 der Takt natürlich deutlich fallen, aber das sind Spiele halt nicht.

Ob es noch ein Modell mit 24GB und 384bit geben wird, hängt sicherlich davon ab wie gut die Yields von GB102 sind, wenn man die bereits ordentlich beschnittene 4090 einbezieht. Ich würde aber vorsichtig davon ausgehen, dass zwischen der 5080 und 5090 zu wenig Platz für einen weiteren ganzen Chip wäre. Einzig die Frage, warum GB103 nicht wenigstens 96SMs und vielleicht noch 320bit SI bekommen hat, könnte man sich stellen. Wir werden wohl bis Dienstagmorgen warten müssen :D.

Lawmachine79
2025-01-06, 00:52:59
Jo man, einfach nur die Daumen drücken.
Wird nich einfach sein eine 5090 zum Launch Preis verhaften zu können.
Und bei mir muss sie ja noch unter Wasser. :biggrin:
Bei mir auch. Wobei ich sie auch mit Luft betreiben kann. Aber ich will Wasser. Werde diesmal wohl eine Karte mit vormontiertem Block nehmen.

Ex3cut3r
2025-01-06, 06:53:56
Das Forum wird älter und der Hype lässt nach.

Ja, eben nicht. Wenn die Keynote zu einer "normalen" Zeit stattfinden würde, wäre hier auch wieder extrem viel los bezüglich neuer Kommentare. Aber um 3 Uhr Morgens an einem normalen Arbeitstag werden sich die wenigsten hier versammeln.

madzapp
2025-01-06, 07:34:25
Ja, eben nicht. Wenn die Keynote zu einer "normalen" Zeit stattfinden würde, wäre hier auch wieder extrem viel los bezüglich neuer Kommentare. Aber um 3 Uhr Morgens an einem normalen Arbeitstag werden sich die wenigsten hier versammeln.

Dein "Gegenargument" beschreibt älter und Hype lässt nach eigentlich ganz gut.:smile:

Nightspider
2025-01-06, 08:09:36
The same procedure as every (two) year(s).

00-Schneider
2025-01-06, 08:20:37
für mich fehlt im Portfolio von Nvidia irgendwie ein Blackwell-Chip mit 384bit, 24GB und ca. 128 SMs... quasi ein GB202.5.


Nvidia macht es den Käufern leicht. Will man die nächsten zwei Jahre ~kompromisslos in 4K spielen, braucht man eine 5090.

Die 5080 wäre dann die Karte für 1800p-1440p, bzw. 4K, wenn man Regler bedienen will/kann.

Kriegsgeier
2025-01-06, 09:51:47
auch nicht vergessen: die 16GB mehr an GDDR7 Speicher müssen auch mit Strom versorgt werden --> mehr Phasen als bei der 5080
Speicherinterface ist breiter --> also mehr Transistoren auf dem Chip --> Strom!
Und die 8 GDDR7 Schpeicherbausteine auf der PCB müssen auch noch MEHR Strom haben --> Leistungsumsatz von den Chips selbst!

Ach ja, die PCB wird auch komplexer wegen diesen 8 mehr Plätze für die GDDR7 Chips.

In der Summe müssten es gute 60-80 Watt mehr an Leistungsumsatz auf die Waage legen.

Plus: die Taktung von der 5090 wird wohl geringer ausfallen als von 5080!

The_Invisible
2025-01-06, 10:18:40
Bin gespannt ob man die enorme Bandbreite bei der 5090 wirklich braucht. Muss aber wohl irgendwas dran sein sonst hätte man auch wieder ein 384bit Interface verbauen können bzw hätte auch ein einfacheres Platinenlayout.

dildo4u
2025-01-06, 10:28:15
Bin gespannt ob man die enorme Bandbreite bei der 5090 wirklich braucht. Muss aber wohl irgendwas dran sein sonst hätte man auch wieder ein 384bit Interface verbauen können bzw hätte auch ein einfacheres Platinenlayout.
Die 5080 hat doch schon 1TB Bandbreite da sind 1.8TB nicht wirklich überflüssig für die Doppelte Rechenleistung.

5080 soll schneller Speicher nutzen.

reaperrr
2025-01-06, 10:31:52
TDP steigt um 27,8%, bei der 5080 nur um 12,5%.

Alles spricht dafür, dass der Abstand (deutlich) größer wird als es bei Lovelace der Fall war.
Was grundsätzliches Leistungsvermögen angeht, ja.

Wenn NV nix gravierendes am Scheduling geändert hat (z.B. Rückkehr zu Hardware-Scheduling statt Driver-Scheduling, oder deutliche Verbesserung des Treiber-Multithreadings, AMD ist hier tatsächlich besser), hängt das Ding aber in vielen Spielen selbst in 4K im CPU-Limit.

Also was FPS-Vorsprung in Auflösungen bis 4K angeht, kann es auch ähnlich oder noch schlechter als bei der 4090 aussehen.

Bin gespannt ob man die enorme Bandbreite bei der 5090 wirklich braucht. Muss aber wohl irgendwas dran sein sonst hätte man auch wieder ein 384bit Interface verbauen können bzw hätte auch ein einfacheres Platinenlayout.
Für Spiele sieht die Bandbreite etwas nach Overkill aus, ja.

Ich glaube aber, denen ging es mehr darum, über den größeren Speicher a) generell höhere Preise zu rechtfertigen, und b) auch die KI-Kundenlandschaft stärker anzusprechen, indem größere Modelle in den VRAM passen.

Dass die 5090 dadurch für manche Gamer unerschwinglich wird und die deshalb zur viel billiger herzustellenden 5080 greifen müssen, um das nächstbeste zu kriegen, woran NV dann je mm² (Chip nur halb so groß) und je GB VRAM (nur halb so viel) sogar noch mehr verdient (da Preis etwas mehr als halb so hoch), ist für NV da die Kirsche on top.

Relex
2025-01-06, 11:08:16
Dass die 5090 dadurch für manche Gamer unerschwinglich wird und die deshalb zur viel billiger herzustellenden 5080 greifen müssen, um das nächstbeste zu kriegen, woran NV dann je mm² (Chip nur halb so groß) und je GB VRAM (nur halb so viel) sogar noch mehr verdient (da Preis etwas mehr als halb so hoch), ist für NV da die Kirsche on top.


Die Rechnung geht wahrscheinlich nicht auf.

Die 4080 soll in der Produktion ja 300$ kosten.

Sagen wir die 5080 kommt auf 350$ und die 5090 auf meinetwegen 700$.


Wenn die 5080 1500$ kostet und die 5090 2500$, dann hätte Nvidia mit der 5080 1150$ eingenommen und mit der 5090 1800$
Bei 2000$ sind es immer noch 1300$ und wahrscheinlich wird die 5090 auch keine 700$ in der Produktion kosten, sondern wahrscheinlich eher Richtung 500 oder so.


Egal wie mans dreht, wenn der Kaufpreis der 5090 in richtung 2000$ oder mehr geht, ist die Marge richtig fett und garantiert sehr weit über der 5080. Nvidia wäre auch völlig bekloppt bei Enthusiasten, die sowieso jeden Preis zahlen und denen auch völlig egal ist, ob sie 2000 oder 3000 zahlen auf Marge zu verzichten. Da wird ausgepresst, was möglich ist.

Troyan
2025-01-06, 11:15:23
GB202 wird eher das 3x bis 4x kosten. Doppelte Größe bedeutet erheblich schlechtere Yields.

Matrix316
2025-01-06, 12:04:42
[...]
Wenn die 5080 1500$ kostet und die 5090 2500$, dann hätte Nvidia mit der 5080 1150$ eingenommen und mit der 5090 1800$
Bei 2000$ sind es immer noch 1300$ und wahrscheinlich wird die 5090 auch keine 700$ in der Produktion kosten, sondern wahrscheinlich eher Richtung 500 oder so.


Egal wie mans dreht, wenn der Kaufpreis der 5090 in richtung 2000$ oder mehr geht, ist die Marge richtig fett und garantiert sehr weit über der 5080. Nvidia wäre auch völlig bekloppt bei Enthusiasten, die sowieso jeden Preis zahlen und denen auch völlig egal ist, ob sie 2000 oder 3000 zahlen auf Marge zu verzichten. Da wird ausgepresst, was möglich ist.

Das bescheuerte ist ja, dass die Fanboys als Argument für die Preissteigerungen dann u.a. Inflation und teurere Bauteile und so vorschieben, aber dabei verschweigen, dass die Marge monstermäßig hoch ist und das ÜBERHAUPTNICHTS mit den Herstellungskosten zu tu hat, warum der Preis so hoch ist oder steigt.

Kriegsgeier
2025-01-06, 12:07:56
FREIE Marktwirtschaft - der Preis kann egal wie hoch sein, wenn es gekauft wird, dann macht der Hersteller alles richtig!

Troyan
2025-01-06, 12:12:09
Das bescheuerte ist ja, dass die Fanboys als Argument für die Preissteigerungen dann u.a. Inflation und teurere Bauteile und so vorschieben, aber dabei verschweigen, dass die Marge monstermäßig hoch ist und das ÜBERHAUPTNICHTS mit den Herstellungskosten zu tu hat, warum der Preis so hoch ist oder steigt.

Dann eröffene doch deine eigenen Fabs, designe deine eignenen GPUs, erfinde deinen eignenen GDDR8 Speicher und bring das alles auf den Markt.

Warum glaubst du, gibt es keine wirklichen Firmen mehr außer nVidia und AMD? Ja, weil es arschschwer und arschteuer ist eine vernünftige GPU zu designen.

Hakim
2025-01-06, 12:16:40
Das Ding ist, Leute werden wegen einigen Modellen bezüglich VRam meckern, deshalb werden die nach einem Jahr einige Modelle mit 3GB Modulen bringen glaube ich. Eine 5070 mit 18GB würde mich halt schon ärgern nach einem Jahr. Zumal ich es halt auch nicht mehr jede Gen Upgrade

basix
2025-01-06, 12:17:40
Nur weil es schwer ist, muss man nicht zwingend sehr hohe Margen abgreifen. Das hat keinen direkten Kausalzusammenhang ;) Anscheinend kann man jedoch hohe Preise verlangen, die Leute kaufen es noch. Nicht alle, aber noch genug viele.

Das Ding ist, Leute werden wegen einigen Modellen bezüglich VRam meckern, deshalb werden die nach einem Jahr einige Modelle mit 3GB Modulen bringen glaube ich. Eine 5070 mit 18GB würde mich halt schon ärgern nach einem Jahr. Zumal ich es halt auch nicht mehr jede Gen Upgrade
Upselling-Strategie zur 5070 Ti ;)

Troyan
2025-01-06, 12:19:25
Doch, weil es schwer ist, gibt es die Margen. Das ist in jedem Markt so, je schwerer die Fertigung eines Produktes ist, umso weniger Konkurrenz existiert.

Bazos hat mal gesagt: Deine Marge, meine Möglichkeiten. Da aber seit über 20 Jahren keine andere Firma mehr möglich in den Markt eingestiegen ist, ist es eben kein Markt, wo man mit weniger Mitteln ein ähnliches Ergebnis erzielen könnte.

madzapp
2025-01-06, 12:20:36
Evtl. kommt dann dazu, dass einige der neuen AI-Gamigfeatures mit dem grösseren Speicher erst richtig nutzbar sind.

Relex
2025-01-06, 12:22:18
GB202 wird eher das 3x bis 4x kosten. Doppelte Größe bedeutet erheblich schlechtere Yields.


Das hab ich ja bereits mit einbezogen. Der Chip selbst waren doch nur 150$ bei der 4080, das board selbst wird sicher nicht so viel teurer sein. Da würde es für mich also Sinn ergeben, dass man in Summe für die gesamte Karte dann max. beim doppelten preis im vgl. zu einer 5080 landet.
Und wie gesagt, warum sollte Nvidia bei der 5090 auf Marge verzichten?

Der Clou ist doch, dass man bei den Enthusiasten die eh alles zahlen und bei einem Halo produkt ohne Konkurrenz nicht auf jeden Cent achten muss. Bzw. jeden Cent, den man in der Produktion investiert kann man am Ende vielfach auf den Verkaufspreis aufschlagen. Das ist der einzige Sinn dieser Karte.
Nvidia würde kein Upselling betreiben, wenn sie dann auf Marge verzichten müssten, wenn die Leute zu den teureren Modellen greifen. Nvidia wäre völlig bescheuert. Es ergibt in keiner Welt Sinn, dass die 5090 weniger Marge abwirft als die 5080.

dildo4u
2025-01-06, 12:28:07
Nutzt NV nicht 4nm die Yields sollten gut sein selbst Sony nutzt es für PS5 Pro.
Logischerweise sind die Margen massiv ohne Konkurrenz unter 1000€ wird es deutlich interessanter.

basix
2025-01-06, 12:30:06
Doch, weil es schwer ist, gibt es die Margen. Das ist in jedem Markt so, je schwerer die Fertigung eines Produktes ist, umso weniger Konkurrenz existiert.

Falsch. Es sind Consumer Produkte, die niemand kaufen muss. Sie sind nicht lebensnotwendig. Die Margen sind also nicht hoch, weil es schwer ist, sondern weil es genug Leute gibt die zu diesen Preisen kaufen. Eine gewisse Preissteigerung aufgrund steigender Kosten für Komponenten und R&D ist OK, doch bei Nvidia liegt die Marge eindeutig überhalb dieser Kostensteigerungen. Oder wieso kann AMD ihre GPUs regelmässig zu geringeren Preisen verkaufen und sie machen immer noch GPUs?

Die Tendenz zu hohen Margen bei Märkten mit wenigen Teilnehmern ist überall zu finden. Aber nicht unbedingt, weil es inhaltlich/technologisch schwer ist (=teuer). Können auch andere Begleitumstände sein wie Zertifizierung, Zulassung, Normen, Politik, effektive Notwendigkeit ohne Alternativen, ....

Troyan
2025-01-06, 12:30:39
Das hab ich ja bereits mit einbezogen. Der Chip selbst waren doch nur 150$ bei der 4080, das board selbst wird sicher nicht so viel teurer sein. Da würde es für mich also Sinn ergeben, dass man in Summe für die gesamte Karte dann max. beim doppelten preis im vgl. zu einer 5080 landet.
Und wie gesagt, warum sollte Nvidia bei der 5090 auf Marge verzichten?

Der Clou ist doch, dass man bei den Enthusiasten die eh alles zahlen und bei einem Halo produkt ohne Konkurrenz nicht auf jeden Cent achten muss. Bzw. jeden Cent, den man in der Produktion investiert kann man am Ende vielfach auf den Verkaufspreis aufschlagen. Das ist der einzige Sinn dieser Karte.
Nvidia würde kein Upselling betreiben, wenn sie dann auf Marge verzichten müssten, wenn die Leute zu den teureren Modellen greifen. Nvidia wäre völlig bescheuert.

Forschung und Entwicklung. Selber Prozess heißt, dass viel mehr über die Architektur kommen muss. Das erhöht massiv die Entwicklungskosten.

Falsch. Es sind Consumer Produkte, die niemand kaufen muss. Sie sind nicht lebensnotwendig. Die Margen sind also nicht hoch, weil es schwer ist, sondern weil es genug Leute gibt die zu diesen Preisen kaufen. Eine gewisse Preissteigerung aufgrund steigender Kosten für Komponenten und R&D ist OK, doch bei Nvidia liegt die Marge eindeutig überhalb dieser Kostensteigerungen. Oder wieso kann AMD ihre GPUs regelmässig zu geringeren Preisen verkaufen und sie machen immer noch GPUs?

Die Tendenz zu hohen Margen bei Märkten mit wenigen Teilnehmern ist überall zu finden. Aber nicht unbedingt, weil es inhaltlich/technologisch schwer ist (=teuer). Können auch andere Begleitumstände sein wie Zertifizierung, Zulassung, Normen, Politik, effektive Notwendigkeit ohne Alternativen, ....

Kannst dir eine 4060 für 299€ kaufen. Problem gelöst. Ist günstiger als das günstige Snapdragon 8 Gen3 Handy, was es am Markt gibt. Fläche ist ja ähnlich.

Relex
2025-01-06, 12:32:21
Und was hat das mit der Marge 5090 vs 5080 zu tun?

Ist beides Blackwell nur in unterschiedlicher Config. Das was du ansprichst hätte eher was mit der Marge Ada vs Blackwell zu tun. Die kann natürlich anders ausfallen, falls der Entwicklungsprozess teurer war. Aber darum ging es ja nicht.

Matrix316
2025-01-06, 12:33:35
Wie kann Intel z.B. die B580 deutlich unter vergleichbaren Nvidia und AMD GPUs verkaufen? Gerade Intel, die sonst nicht beim Preis geizen?

basix
2025-01-06, 12:35:02
Kannst dir eine 4060 für 299€ kaufen. Problem gelöst. Ist günstiger als das günstige Snapdragon 8 Gen3 Handy, was es am Markt gibt. Fläche ist ja ähnlich.

Mit 8GB sicher nicht ;)

Aber generell schlechter Vergleich. Ein Smartphone kommt mit Akku, SSD, Mobilfunk, Display, Betriebssystem und Apps daher und hat einen deutlich weiteren und öfters genutzten Anwendungsbereich als eine dGPU die du daheim im Desktop PC montierst.

Ohne Smartphone ist es im modernen Leben schwierig geworden. Auch nicht lebensnotwendig, aber es wird umständlich. Ohne 4060? Kein Problem.

lilgefo~
2025-01-06, 12:36:37
Das bescheuerte ist ja, dass die Fanboys als Argument für die Preissteigerungen dann u.a. Inflation und teurere Bauteile und so vorschieben, aber dabei verschweigen, dass die Marge monstermäßig hoch ist und das ÜBERHAUPTNICHTS mit den Herstellungskosten zu tu hat, warum der Preis so hoch ist oder steigt.

Man bezahlt die intellektuelle Arbeit die da investiert wurde. Ist doch ganz einfach.

Wie kann Intel z.B. die B580 deutlich unter vergleichbaren Nvidia und AMD GPUs verkaufen? Gerade Intel, die sonst nicht beim Preis geizen?

Weil Arc kostendeckend oder sogar mit Marge nicht wettbewerbsfähig ist.

Sardaukar.nsn
2025-01-06, 12:53:31
Heute Nacht wissen wir mehr. Aber eigentlich ist es doch relativ egal wie viel die 5090 kostet. Wichtig ist der (mangels Konkurrenz) sehr geringe Wertverlust innerhalb der nächsten zwei Jahre.

basix
2025-01-06, 12:55:25
Wenn du vor Release der nächsten Generation verkaufst, wird der Wertverlust sicher gering sein.

Matrix316
2025-01-06, 12:59:44
Man bezahlt die intellektuelle Arbeit die da investiert wurde. Ist doch ganz einfach.



Weil Arc kostendeckend oder sogar mit Marge nicht wettbewerbsfähig ist.

1. Ach so. Die intellektuelle Arbeit bei einer 5090 ist viel teurer als bei einer 5080 oder 5070 oder 5060? :rolleyes:

2. Also wettbewerbsfähig ist die schon. Zumindest in dem Preisbereich. Würde Intel 2000 Euro dafür verlangen, natürlich nicht.

monstar-x
2025-01-06, 13:10:08
Wenn das so stimmt, sind das gute Nachrichten für uns 5090 Käufer.
Dann wird die 5090 im Verhältnis recht günstig.

Aus Asien gibt es auch Preisinformationen, die eine Spanne von 8.000 bis 9.000 chinesischen Renminbi nennen und damit den Rahmen der RTX 4080 einhalten könnten.

Der Preis der RTX 5080 sollte demnach unterhalb der 9.000-RNB-Marke aber oberhalb der 8.000 RNBs liegen, heißt es aus Asien. Ersteres entspricht gemäß aktuellen Euro-Tageskurs umgerechneten 1.188 Euro, letzteres 1.056 Euro. Die Preisspanne lässt einiges an Luft, gemäß den Informationen via X soll sich die Preisgestaltung der RTX 5080 aber am Auftakt der RTX 4080 orientieren.
https://x.com/zhilongzhong23/status/1876182767828107402

Der_Korken
2025-01-06, 13:14:16
Wenn das so stimmt, sind das gute Nachrichten für uns 5090 Käufer.
Dann wird die 5090 im Verhältnis recht günstig.


https://x.com/zhilongzhong23/status/1876182767828107402

19% Mwst nicht vergessen. Da werden aus 1100 schnell 1300 Taler und schon sieht das nicht mehr so geil aus. Bei der 5090 könnte es zudem viele Scalper geben, bei der 5080 eher nicht.

The_Invisible
2025-01-06, 13:26:02
19% Mwst nicht vergessen. Da werden aus 1100 schnell 1300 Taler und schon sieht das nicht mehr so geil aus. Bei der 5090 könnte es zudem viele Scalper geben, bei der 5080 eher nicht.

Wieso, der Tweet hört sich nicht nach $ UVP an, ist ja schon landeswährung

Sardaukar.nsn
2025-01-06, 13:26:22
@Der_Korken: 1300€ für ca. 4090 Leistung + neue Features wäre kein Schnäppchen, aber ginge auch noch klar.