PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24

robbitop
2024-12-27, 14:10:29
Ich hab gesehen dass zumindest aus der Ada Serie der Gebrauchtmarkt (Kleinanzeigen) ganz brauchbar geworden ist (zumindest in der 70er Serie).
Ggf muss man das ab jetzt so machen. Zum release der next gen halt last gen gebraucht kaufen.
Hab ich beim Ada Release mit der 3080 auch so gemacht und da gab es ganz gutes P/L.

Das Blöde als 3080/6800xt Besitzer ist allerdings dass ein sinnvolles Upgrade auch mit der Strategie teuer bleibt (4080/4090 bleiben auch gebraucht teuer). Ggf also erst zum release der 6000er Reihe dann eine 5070/ti kaufen.

Angiesan
2024-12-27, 14:11:02
Haha... deswegen wird auch von 4090 auf 5090 aufgerüstet weil man es nicht muss. :tongue:

Nimm von mir aus 4070 --> 5060. Das wird dann auch ein riesen "Upgrade". ;D Was ich damit sagen will... innerhalb eines vergleichbaren Preises und Powerbudgets wird eine neue Generation immer langweiliger. Da braucht es schon zwei bis drei neue Generationen.


Viel zu wenig!

Ne muss man nicht, braucht man nicht, will man kann ich für mich mit ja beantworten. Es ist halt wieder ein neues Spielzeug und wird mir hoffentlich wieder 2 Jahre gute Dienste leisten. Den zu erwartenden Wiederverkaufswert eingerechnet sind das ca. 50,- EUR im Monat. Ich kenne genug, die verqualmen das in der Woche oder versaufen das Doppelte an einem Abend mit den Kumpels :freak:

Und natürlich wäre ich froh wenn ich weniger zahlen darf, nicht das ich da falsch verstanden werde. Sollte das Ding nur um die 2.000,- EUR kosten oder weniger, werde ich sicherlich nicht betteln mehr zahlen zu dürfen:biggrin:

dildo4u
2024-12-27, 14:18:53
5070 TI Super wäre 2X zur 3080 bei gleichem verbrauch und Preise ich meine 3080 waren locker 1k in 2021.

https://i.ibb.co/3S0hqRp/Screenshot-2024-12-27-105955.png (https://ibb.co/F8B7MH5)

https://www.techpowerup.com/review/gpu-test-system-update-for-2025/

basix
2024-12-27, 14:24:04
Also im Vergleich zu 2014 sollte VRAM aber mehr als 4x günstiger sein.

Nur mal so aus 2023

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR6-RAM-Spottpreis-8-GiB-27-US-Dollar-1421668/

Du müsstest die Preise von GDDR5 nehmen und zudem sind das Spot-Preise und nicht die Preise, die die grossen Player wie AMD und Nvidia zahlen. Oder hast du das Gefühl, dass GDDR6(X) 2022 für Nvidia wirklich 13$/Gigabyte gekostet hat? Ausserdem waren 2022 noch Corona Nachwehen zu spüren (=Liefermangel), was Spot-Preise hochtreibt aber weniger Vergragspreise.

Viel aussagekräftiger sind da langfristige Trends sowie das Scaling der Zell-Grösse. Dort sieht man eindeutig, dass sich seit ~2012 die Kostenreduktion von DRAM deutlich verlangsamt hat. Anhand diesen Grafiken kann man ~2x Kostenreduktion zwischen 2024 und 2014 abschätzen. Definitiv nicht 4x. Schweinzyklusschwankungen können mehr als diese 2x ausmachen, wenn man im ungünstigen Zeitpunkt DRAM kaufen will (Vertragspreise sind weniger stark von dem betroffen).

But in this last decade, scaling has slowed so much that density has increased just 2x.

2x Kostenreduktion bei VRAM sind nicht 4x und VRAM ist zwar ein relevanter Bestandteil der BOM, aber nicht so extrem wie viele meinen. Nehmen wir die ~2.5$/GByte die es aktuell für GDDR6 am Spot-Markt gibt. Bei 16GByte wären das gerade mal 40$ für die BOM. Bei einer 1000$ Karte also nicht wahnsinnig viel. Ergo: Nvidia verlangt zu viel Geld ;) OK, bei weitem nicht so schlimm wie Apple aber mit diesen Kostenrelationen sieht man, dass z.B. +100$ Preisaufschlage bei einer 4060 Ti 8GB vs. 16GB völliger Wucher sind und waren. AMD hat bei der 7600XT +60$ verlangt und dazu war die Karte schneller. Das ist immer noch viel für +20$ Speicher aber deutlich, deutlich besser als bei der 4060 Ti.


https://i0.wp.com/semianalysis.com/wp-content/uploads/2024/11/https3A2F2Fsubstack-post-media.s3.amazonaws.com2Fpublic2Fimages2Fcab4be20-9507-47a5-95b2-13544883eb66_1872x922.png?ssl=1

https://thememoryguy.com/wp-content/uploads/2019/11/2019-11-20-DRAM-Spot-2006-19.jpg

https://lh3.googleusercontent.com/D1tZNSvoc5MzwnXxmoq3_cqAU1GnNRN5J2Xh9z931OC29ffEY9r8sz5EpD_lZldnw9T9hgiym9phkeW2 ao4I4mqU8vbrOD--2m2JVUHBvWtIimahHP4LAcDJMpa3Dphi_p1Jk0jo

https://static.seekingalpha.com/uploads/2017/9/24/9577541-1506299131998721_origin.png

https://www.techinsights.com/sites/default/files/2022-06/Figure-1-1024x615.jpg

https://www.semiconductor-digest.com/wp-content/uploads/2019/09/F1.jpg


Möchte ich so, als Asus Käufer, nicht stehenlassen.
Asus hat, meines Wissens nach, als einziger Hersteller eine voll automatische Bestückungsanlage. Verbaut auf den dicken Karten immer beste Bauteile und, last but not least, immer das beste eigene Platinenlayout. Und der letzte Punkt wäre, nicht für jeden relevant, für die Asus Karten im Asus Layout bekommt man immer einen hochwertigen Wasserkühler.

Was habe ich davon, wenn ich den Luftkühler drauf lasse? Und wie gesagt, wenn die Karte fiept und bei einer non-ASUS Karte nicht oder zumindest deutlich weniger, dann ist das ein handfester Nachteil. Ob ich jetzt 1000A oder 1200A aus dem VRM ziehen kann ist da im Vergleich ziemlich egal.

Was man bei ASUS zumindest sagen kann ist, dass sich deren Produkt sehr wertig anfühlt. Die Herstellungsqualität sowie Materialwahl war bei meinen letzten ASUS Karten jeweils gut, da habe ich nichts zu meckern.

Edit:
Ach ja, eine vollautomatische Bestückungsanlage sollte die Herstellung sogar günstiger machen ;)

aufkrawall
2024-12-27, 14:41:06
Meine 4070S Evo fiept/summt mit UV quasi überhaupt nicht, massiv besser als damals die Dual 6700 XT. Also mal Blackwell-Designs abwarten.

Slipknot79
2024-12-27, 15:15:18
1400 USD wären bei der 5080 eine Frechheit.


Nein, wieso? Die UVP-Preise sind doch schon bekannt:
4080-Preis zu release + Inflation (15%) + Technologiezuschlag ca 100EUR....

Die Formel gilt auch für die 4090.
4090-Preis zu release + Inflation (15%) + Technologiezuschlag (GDDR7, 512bit, ....) ca 150EUR....

Ich sehe da keine Überraschung und genau so wird es kommen. (y)

Für die Straßenpreise wird jeodch gelten: :popcorn:

Exxtreme
2024-12-27, 15:22:01
Kann man nicht, wenn man mehr Performance will.


Grafikkartenperformance ist nicht überlebensnotwendig. Ergo ist das ein Angebot, welches man ablehnen kann. Und deshalb ist das keine Abzocke. Und ich gehe davon aus, dass man 20% preislich drauflegen muss bei Blackwell. Und die Leute werden es zahlen.

gnomi
2024-12-27, 15:23:31
Titan und die große TI gingen wie die Geforce 2 Ultra noch Irgendwie als Extra Produkte durch.
Seit 5 Jahren ist da Null Konkurrenz und unter 500€ braucht man gar nicht mitspielen. Das ist etwa der Preis, wo man vorher die i.d.R. schnellste Karte bekam.
So als Spieler nervt mich das einfach, wenn die letzten beiden GPU's mehr als alle anderen im Jahrzehnt vorher zusammen kosten.
Das System ist nur nicht zu ändern, denn das Gaming Hobby war quasi zu revolutionär in Sachen Grafik, Technologie und Kreativität.
Heute wird so richtig verdient. :freak:

Ex3cut3r
2024-12-27, 15:25:44
Was willste machen? Alles ist teurer geworden. Selbst der Döner um die Ecke.

Entweder macht man mit, oder man lässt es sein. Eine High End GPU ist nicht überlebenswichtig. Der Döner um die Ecke vlt. schon. :tongue:

Slipknot79
2024-12-27, 15:38:21
Meine 4090 ging im Dezember für gute 1,7k an den zweiten Besitzer. Hole ich mir für 1-1,4k eine 5080 mit ähnlicher Leistung, frischer Garantie und evtl. neuen Features wäre ich fein raus.


Das weißt du erst, wenn du die 5080 verkauft haben wirst.
Mit der 4090 bist du fein raus. Damit ist das Thema erledigt. Was dann mit der 5080 sein wird, wirst du sehen. Habe aber keine Zweifel, dass auch die 5080 in 2,5 Jahren gebraucht gut gehen wird. (y)

Matrix316
2024-12-27, 15:48:52
Grafikkartenperformance ist nicht überlebensnotwendig. Ergo ist das ein Angebot, welches man ablehnen kann. Und deshalb ist das keine Abzocke. Und ich gehe davon aus, dass man 20% preislich drauflegen muss bei Blackwell. Und die Leute werden es zahlen.
Zum PC Spielen ist es schon überlebensnotwendig. :freak:

Wenn Spiele rauskommen, die selbst eine 4090 jetzt schon mit DLSS vorrausetzen...

Man kann nicht genug Performance haben. Und wir brauchen endlich dringend eine echte Konkurrenz im High End Bereich. Intel sollte eine B780 für 500 Euro bringen der 4080 Super Speed und einen B880 für 750 Euro, der 4090 Speed zum Kampfpreis liefert. :D Da würde ich auch drüber hinwegsehen, dass es hier und da mal etwas Texturflackern gibt. ;)

fizzo
2024-12-27, 15:55:40
Die RTX 5080 wird sich locker bei 1500€ einpendeln, je nach Modell. Quelle: Arbeit 😄

Wurde ja schon vor Weihnachten hier gepostet. Wird so kommen, ob wir wollen oder nicht :ugly:

gnomi
2024-12-27, 15:56:25
Was willste machen? Alles ist teurer geworden. Selbst der Döner um die Ecke.

Entweder macht man mit, oder man lässt es sein. Eine High End GPU ist nicht überlebenswichtig. Der Döner um die Ecke vlt. schon. :tongue:

Muss halt mehr reinkommen. :wink:
Den Döner verstehe ich denke ich besser.
Mich würde interessieren, wie viele GPU's denn im Highend Bereich auch wegen Gaming speziell laufen?
Diese großen Kürzungen schon beim zweitschnellsten Chip sind heftig in den letzten zwei Serien.
Klar, in der Vergangenheit hatten wir auch schon immer weniger bei der 60er und dann der 70er Reihe.
Habe früher gerne auch die dritt oder viertbeste GPU gekauft. Gar kein Thema. Oft alles eng zusammen und 50-100% Zugewinn auf zwei Jahre normal.
Es ist halt krass, denn wahrscheinlich wächst der Markt eben nur auf Gaming bezogen von den Stückzahlen recht moderat.
Aber das Ökosystem und die Software sind zusammen mit dem AI Thema obendrauf unschlagbar.
Das ist tatsächlich genau wie beim Iphone dann. Nicht überlebenswichtig, aber für eine spezielle Zielgruppe alternativlos.
Ich bin ja mal gespannt, wann man dann mit einem Budget von 1k beim Gamen raus ist. Die Spirale dreht sich ja immer weiter. :freak:

DrFreaK666
2024-12-27, 15:58:52
Kann man nicht, wenn man mehr Performance will...

Natürlich kann man. In diesem Fall gezwungenermaßen. Wem die 4090 zu langsam ist, hat sowieso andere Probleme

Slipknot79
2024-12-27, 16:02:37
Was willste machen? Alles ist teurer geworden. Selbst der Döner um die Ecke.

Entweder macht man mit, oder man lässt es sein. Eine High End GPU ist nicht überlebenswichtig. Der Döner um die Ecke vlt. schon. :tongue:


Warum gehen die 3dc member nicht täglich zum Mäci oder Burger King fressen? :redface: Da bekommt man für den EUR die meisten kcal. Fürs 3dc übersetzt: Beste EUR/Watt-Performance. (y)

wolik
2024-12-27, 16:05:41
Ja die ASUS Karten sind relativ zu anderen AIBs zu teuer. Und beiten keine relevanten Vorteile.

Wie bitte? Ich kaufe wenn Möglich nur ASUS. 3 Jahre Garantie ist sehr Wichtig.

Slipknot79
2024-12-27, 16:06:10
Habe früher gerne auch die dritt oder viertbeste GPU gekauft. Gar kein Thema. Oft alles eng zusammen und 50-100% Zugewinn auf zwei Jahre normal.


Einfach bei den 100% bleiben. Wenn Lederjacke keine +100% liefert, gibts eben keine Kohlen.

DrFreaK666
2024-12-27, 16:06:51
Du meinst 3080?Niemand hat die für 700€ gekauft das korrekte Upgrade ist die 5070 TI Super ohne Gefahr das der Vram bis zur PS6 ausgeht.

https://i.ibb.co/WzdfcVL/Screenshot-2024-12-27-134737.png (https://imgbb.com/)

Manchen kribbelt es in den Fingern, sobald neue GPUs am Horizont zu sehen sind.
Wer sich eine 5090 kauft, dem ist sie bei Erscheinen von der PS6 doch wieder viel zu langsam :ugly:

Altehardware
2024-12-27, 16:13:49
Das problem das wir haben nennt sich cpu limit
Der Großteil der Spieler ist noch auf 1080p unterwegs (56%) das wird weniger laut steamhs aber das dauert noch was 1440p (20%) kommt in fahrt und steht an zweiter stelle
Die Beliebteste dgpu ist die rtx3060 12gb (4,9%) die habe ich gerade getauscht zur rtx4070
Die beliebteste cpu ist ein 6kern cpu dürfte alles zwischen ci5 8600 bis 13600 sein und amd von r5 2600 bis r5 7600

Die perf. die mit rtx5060 oder rx9060 zu erwarten ist liegt bei grob 14tf
Diese haben 12gb 288gb/s und 16gb 336gb/s
Diese werden noch gut ausgelastet von cpu ab der ci5 8th gen bis r5 2600x
Zwischen den cpu gen liegt aber ein ipc Differenz von 57%

ci5 8th gen 180 cb15 sore
ci13th gen 285 cb15 score

bei amd sieht es ähnlich aus +69%.. Nice
r5 2600 170
r5 7600 288

ne rtx3060 hat 9,2tf effektiv genau ist das zwischen 6,7-10,1tf
ne rtx5060 dürfte effektiv 13,1tf haben genau ist das zwischen 9,5tf bis 14,3tf
Also ein plus von 55%

Aus meinen test weis ich das ein zen2 chip mit 210 ipc der cpu diese gerade die rtx5060 auslasten kann.
gehe ich linear weiter müsste es maximal dann 18tf sein mit der aktuellen gen sein
Wohl gemerkt auf 1080p in raster In dxr verschiebt sich das um 50% auf 27tf
1440p hilft da, da das nochmal um die 20% load bringt auf die gpu
also 18*1,5*1,2 =32tf mit eine r5 7600 das entspräche der rx9070xt oder rtx4070ti
Die folgende gen muss min ne cpu haben die min in der ipc um 50% schneller wäre damit man die kommenden gen an gpu überhaupt auf 1440p auslasten kann.
2160p ist aufgrund der zu kleinen rop und Bandbreite nicht umsetzbar.
Also was tun
warten auf zen6 das dürfte min 15% an Takt zulegen wird aber abseits dem kaum schneller werden was dann 36tf auf 1440p in dxr möglich macht

natürlich ist das in etwa extreme cpu limit situation meist ue5 ist aber ne Tendenz die man beachten muss 2160p hilft da ungemein aber wie erwähnt fehlt da die rop perf.
Mit den 48 rop einer rtx5060 bei 2,67ghz wird man kaum über die 16fps kommen in 2160p auf 1440p sind es grob 32fps und 1080p das zuhause dieser gpu bei 64fps
Ein Nachfolger müsste doppelt so viele rop haben um überhaupt Sinnvoll zu sein das aber wird aus design gründen nicht gehen und höherer Takt geht auch nicht.
Die Lösung ist eine deutlich schnellere cpu bis 2027 kommen muss.
Womit der stillstand bis dahin bei grob 30tf bleiben wird bis die apu alles übernehmen und mit doppelt so viele fp32 händeln können auf 1440p was dann grob 54-60tf sind
Die arch Verbesserungen habe ich mit grob 20% geschätzt wird aber vermutlich wegen dem x3d mehr sein der rest sind 40% mehr Takt vs zen5

2160p Wird in Zukunft bestimmend sein und da lohnen sich nur dicke chips für da mehr rop verbaut sind ich gehe von 288 rop aus bei 3,0ghz das entspricht etwa 864gpixel oder grob 108fps
Daher wird rubin was dann die nächste gen wird nur high end geben können
gr203 96sm a256alu 288rop 1152tmu 3,0ghz
Daraus 3 sku
96sm 288rop, 80sm 240rop , 60sm 192rop.
Kleineres macht kein Sinn da die cpu zu stark limitieren.
amd indes ist nix bekannt udna ist noch ohne jegliche infos


mein plan auf r7 5700x3d wechseln, dann warten und auf ein apu system setzen ab 2028
natürlich kann ich die Anforderungen bei den spielen nur schätzen aber das was bisher so gekommen ist 2024 hat entweder massives cpu limit oder war so stark gpu limitiert das es ohne upscaler gar nicht lief zuletzt indi j tgc das aber mit Anpassung beim vram buffer sauber läuft und das ist einer der best optimierten Titel.

mein rig
r7 3800xt rtx4070 oft zwischen 50-70% gpu load 32gb ram ddr4 2666 1080p
War selber überrascht das es so stark limitiert

Matrix316
2024-12-27, 16:17:33
Natürlich kann man. In diesem Fall gezwungenermaßen. Wem die 4090 zu langsam ist, hat sowieso andere Probleme
Die 4090 war schon von Anfang an zu langsam als die Spielentwickler auf die Idee kamen unbedingt Pathtracing oder sowas in Spiele einzubauen. :freak:

DrFreaK666
2024-12-27, 16:21:53
Ich glaube da kam eher Nvidia auf die Idee. Alle PT-Games sind NV-gesponsert.
Man muss aber PT nicht nutzen, wenn es zu langsam ist. Das ist der Trick :D

Altehardware
2024-12-27, 16:22:57
Die 176rop limitieren hier etwas PT hebt quasi die pixel sperre auf womit wirklich 8 Millionen pixel gerendert werden was dann 475gpixel nur maximal 59fps werden können

dargo
2024-12-27, 16:33:32
Die 4090 war schon von Anfang an zu langsam als die Spielentwickler auf die Idee kamen unbedingt Pathtracing oder sowas in Spiele einzubauen. :freak:
Das kommt nicht von den Spieleentwicklern sondern von Nvidia um die eigenen Topdogs zu pushen. Die Strategie scheint ja bei dir zu funktionieren bzw. reicht um dich genug zu triggern, NV hat dich voll an den Eiern. :D

basix
2024-12-27, 16:37:10
Wie bitte? Ich kaufe wenn Möglich nur ASUS. 3 Jahre Garantie ist sehr Wichtig.

3 Jahre haben mittlerweile alle GPU-Hersteller. Zumindest bei denen, wo ich geguckt habe (Asus, MSI, Gigabyte, Palit). Dort wo ich kaufe habe ich bei allen Herstellern 36 Monate Bring-In Garantie. Bei Gigabyte gibt es ein 4. Jahr kostenlos obendrauf, wenn man sich bei denen registriert.

gnomi
2024-12-27, 16:51:28
Einfach bei den 100% bleiben. Wenn Lederjacke keine +100% liefert, gibts eben keine Kohlen.

Ist denke ich tatsächlich die richtige Strategie.
Bei den CPU's bin ich auch schon eher so weit.
Liegt aber auch dran, weil man da mehr tauschen und basteln/einstellen muss.

Bei nvidia ist es etwas schwieriger wegen so Sachen wie RT, DLSS und FG.
3080TI kann bei RT 2x so schnell wie 2080 sein.
4080S kann bei PT plus DLSS FG 2x so schnell sein wie 3080TI.
Die Preise sind zwar zu hoch, aber die technische Entwicklung immer noch super pro Generation.
Wegen UWQHD und jetzt 4K war Aussitzen auch keine Option.
Ich muss jetzt mal sehen. Wenn ich hier so lese oder die Steam Verbreitung sehe.
Einfach die höchste Karte und Ruhe scheinen tatsächlich weit mehr Spieler zu machen, als ich das vermutet hätte. :freak:

Ex3cut3r
2024-12-27, 16:53:56
Das traurige ist, RTX 3080+ bzw. ab Radeon 6800XT Besitzer macht es nur Sinn auf eine RTX 5070 Ti aufwärts zu wechseln. AMD fällt automatisch raus, das Sie nicht höheres anbieten.

Das wird kosten, Herr Präsident. :freak: :D

Slipknot79
2024-12-27, 17:05:52
Ist denke ich tatsächlich die richtige Strategie.
Bei den CPU's bin ich auch schon eher so weit.
Liegt aber auch dran, weil man da mehr tauschen und basteln/einstellen muss.

Bei nvidia ist es etwas schwieriger wegen so Sachen wie RT, DLSS und FG.
3080TI kann bei RT 2x so schnell wie 2080 sein.
4080S kann bei PT plus DLSS FG 2x so schnell sein wie 3080TI.
Die Preise sind zwar zu hoch, aber die technische Entwicklung immer noch super pro Generation.
Wegen UWQHD und jetzt 4K war Aussitzen auch keine Option.
Ich muss jetzt mal sehen. Wenn ich hier so lese oder die Steam Verbreitung sehe.
Einfach die höchste Karte und Ruhe scheinen tatsächlich weit mehr Spieler zu machen, als ich das vermutet hätte. :freak:


Bei dem CPUs mache ich das schon seit dem 2600k so. Weil Intel und AMD nichts geliefert haben, war der 9900k erst der Nachfolger. Nun der 9800X3D weil Lisa geliefert hat. (Bei CPUs setze ich +50% Leistungsplus an damit die Kohle locker sitzt, dann merkt man auch im GPU-limit, dass die CPU bremst)

Wenn Lederjacke mit der 5090 tatsächlich lächerliche +50% liefert, bin ich sowieso raus, viel zu weit weg von meiner Anforderung +100%. Was soll ich mit 40 auf 60fps? Ich kaufe mir auch nicht die 4070 um dann auf die 4090 umzusteigen. Nüchtern betrachtet howt sowas einfach nicht vom Hocker, tut sich nix in der Hose.
Die dicke pile of shame muss auch noch durch und dazu reicht die 4090. (y)

Angiesan
2024-12-27, 17:21:31
3 Jahre haben mittlerweile alle GPU-Hersteller. Zumindest bei denen, wo ich geguckt habe (Asus, MSI, Gigabyte, Palit). Dort wo ich kaufe habe ich bei allen Herstellern 36 Monate Bring-In Garantie. Bei Gigabyte gibt es ein 4. Jahr kostenlos obendrauf, wenn man sich bei denen registriert.
Bei Gigabyte stimmt das aber nur für die AERO und AORUS Linie. Die preiswerteren Karten haben nur die Standardgarantie und diese ist auch mit einer Registrierung nicht verlänger- oder erweiterbar.

gnomi
2024-12-27, 17:34:50
Das traurige ist, RTX 3080+ bzw. ab Radeon 6800XT Besitzer macht es nur Sinn auf eine RTX 5070 Ti aufwärts zu wechseln. AMD fällt automatisch raus, das Sie nicht höheres anbieten.

Das wird kosten, Herr Präsident. :freak: :D

Die nicht zur UVP erhältliche 3080 nervt mich heute noch. Hätte gut gepasst und Geld gespart. 3080TI war Abzocke, wenngleich 12GB VRam jetzt schon ein großer Vorteil sind.
4080S geht mit 4K halbwegs, wenn sie die Generation bis zur PS6/Xbox Next übersteht und die 5070TI sie nicht wegen 1,2 Features zerlegt. :freak:

Bei dem CPUs mache ich das schon seit dem 2600k so. Weil Intel und AMD nichts geliefert haben, war der 9900k erst der Nachfolger. Nun der 9800X3D weil Lisa geliefert hat. (Bei CPUs setze ich +50% Leistungsplus an damit die Kohle locker sitzt, dann merkt man auch im GPU-limit, dass die CPU bremst)


War bei mir ähnlich. 2600k auf 8700k.
Dann 9900KF im Abverkauf wegen Zweitrechner und Ersatzteile.
Mit Intel bin ich denke ich vorerst auch fertig.
Ohne die Probleme und Bastelei wären 50% Power mit altem Ram vielleicht noch ganz nett gewesen wegen der GPU.
Aber werde jetzt tatsächlich warten, bis es als SP Spieler nicht mehr geht.
In Indi habe ich noch 110fps etwa im Limit.
Dragon Age genial optimiert und reicht auch.
SW Outlaws auch top.
UE5 alt Stalker läuft auch nicht so schlimm und die Engine bekommt weiter Updates.
UE4 unoptimiert ist am schlimmsten, aber Vergangenheit.
CPU's sind überraschend unwichtig als Casual SP Gamer.


Wenn Lederjacke mit der 5090 tatsächlich lächerliche +50% liefert, bin ich sowieso raus, viel zu weit weg von meiner Anforderung +100%. Was soll ich mit 40 auf 60fps? Ich kaufe mir auch nicht die 4070 um dann auf die 4090 umzusteigen. Nüchtern betrachtet howt sowas einfach nicht vom Hocker, tut sich nix in der Hose.
Die dicke pile of shame muss auch noch durch und dazu reicht die 4090. (y)

4090 wird auch als eine der besten GPU's in die Geschichte eingehen.
Aber eben auch die teuerste bislang.
5090 jetzt sicher noch teurer.
Kann mir aber vorstellen, dass nvidia schon 50-100% landet mit neuen Features.
Ich fand den Sprung von 2080 auf 3080TI ähnlich groß wie 3080TI auf 4080S. Finde FG und DLSS Performance in 4K auch überraschend gut.
Geht ja auch nicht nur um Balken, sondern was ich dann tatsächlich an Spielen und Grafik Features flüssig laufend erleben kann.

HOT
2024-12-27, 19:44:56
Von der Bandbreite her ist die 5070Ti 20% schneller als ne 4080 und die 5080 40% schneller, was ziemlich exakt der 4090 entspricht. Die Leistung kann man also anhand dessen relativ sicher vorhersehen. Die 5080 hat allerdings etwas weniger Rohleistung als die 4090, dennoch wird das sicherlich mit Effizienzsteigerungen auf 4090-Niveau landen.

5070 (48SMs, 250W) ca.= 4070Ti (60SMs, 285W)
5070Ti (70SMs, 350W) ca. 20% > 4080S (80SMs, 300W)
5080 (84SMs, 400W) ca. 40% > 4080S (80SMs, 300W)
5090 (170SMs, 600W) ca. 80% > 4090 (128SMs, 450W) (gewaltig), allerdings mit nur 150W mehr und 200W mehr als die 5080, in der Praxis wird man wohl eher bei >60% rauskommen, mehr lässt der Stromverbrauch nicht zu. Außerdem ist das Ding in sehr vielen Fällen CPU-Limitiert.

Aufgrund der offenbar extrem hohen Taktraten (>3,5GHz mMn) und des nur wenig besseren Prozesses (N4P(NVs "4NP") vs. N5P(NVs "4N")) wird die Effizienz pro W kaum besser als bei Ada (ca. 10-20% Perf/W).

Man kann die ganzen Karten dann gegen Ende 2025 oder Anfang 26 aufsupern mit 24Gbit Modulen und ich würde sagen, das wird man auch tun.

5060 Super -> 12GB
5070 Super (<300W?) -> 18GB
5080 Super (450W?) -> 24GB

AffenJack
2024-12-27, 20:07:29
Titan und die große TI gingen wie die Geforce 2 Ultra noch Irgendwie als Extra Produkte durch.
Seit 5 Jahren ist da Null Konkurrenz und unter 500€ braucht man gar nicht mitspielen. Das ist etwa der Preis, wo man vorher die i.d.R. schnellste Karte bekam.
So als Spieler nervt mich das einfach, wenn die letzten beiden GPU's mehr als alle anderen im Jahrzehnt vorher zusammen kosten.
Das System ist nur nicht zu ändern, denn das Gaming Hobby war quasi zu revolutionär in Sachen Grafik, Technologie und Kreativität.
Heute wird so richtig verdient. :freak:

Es ist einfach Ultra-Highend wie damals die X2 Karten. Die normalen Karten enden bei der 4080/5080. Stört mich überhaupt nicht.

Ich kann auch das Preisargument im Vergleich zu früher kaum verstehen, ich gebe genauso viel für Gaming aus wie vor 10 Jahren. Mit 20€ pro Monat für Gaminghardware kommt man aus. Im Gegensatz zu früher ist ne Karte nach 2- 4 Jahren nicht absolut wertlos, wie es früher der Fall war. Die Hardware hält viel länger und ist massiv mehr wertstabil.

Einzig für neue Nutzer sind die Einstiegshürden höher, da muss man sich am Anfang mit etwas kleineren Karten begnügen. Aber die Kosten für ne PS5Pro zeigen, dass die Produktionskosten auch völlig anders sind als früher.

basix
2024-12-27, 20:08:04
Von der Bandbreite her ist die 5070Ti 20% schneller als ne 4080 und die 5080 40% schneller, was ziemlich exakt der 4090 entspricht. Die Leistung kann man also anhand dessen relativ sicher vorhersehen. Die 5080 hat allerdings etwas weniger Rohleistung als die 4090, dennoch wird das sicherlich mit Effizienzsteigerungen auf 4090-Niveau landen.

5070 ca. 20% > 4070Ti
5070Ti ca. 20% > 4080
5080 ca. 40% > 4080
5090 ca. 80% > 4090 (gewaltig), allerdings mit nur 150W mehr und 200W mehr als die 5080, in der Praxis wird man wohl eher bei >60% rauskommen, mehr lässt der Stromverbrauch nicht zu. Außerdem ist das Ding in sehr vielen Fällen CPU-Limitiert.

Aufgrund der offenbar extrem hohen Taktraten (3,2-3,3GHz mMn) und des nur wenig besseren Prozesses (N4P(NVs "4NP") vs. N5P(NVs "4N")) wird die Effizienz pro W kaum besser als bei Ada.

Man kann die ganzen Karten dann gegen Ende 2025 oder Anfang 26 aufsupern mit 24Gbit Modulen und ich würde sagen, das wird man auch tun.

5060 Super -> 12GB
5070 Super -> 18GB
5080 Super -> 24GB

Ich glaube deine Performanceprognosen sind am eher oberen Ende des Erwartungsbereichs ;)

5060 8GB wird aber ein Rohrkrepierer werden, falls es das geben sollte. Lieber gleich als 5060 12GB releasen. Platz für eine 5060 Super mit 12GB gibt es immer noch, nämlich einen GB206 mit mehr SM (5060 Ti läuft dann aus, 5060 Ti Super bekommt dann GB205 mit z.B. 40 SM und 192bit / 12GByte). Die 5060 Ti 16GByte ist mMn nur eine Notlösung. Sobald es 24Gbit VRAM-Chips gibt, wird sicher eine 5060 Ti 12GB released werden und die 5060 Ti 16GB läuft leise und still aus.

Wenn ich Nvidias Portfolio aufstellen müsste, sähe das so aus:
2025|2026
5090, 170SM, 32GB|5090, 170SM, 32GB
5080, 82SM, 16GB|5080 Super, 84SM, 24GB, +5%
5070 Ti, 68SM, 16GB|5070 Ti Super, 72SM, 21GB, +10%
5070, 48SM, 12GB|5070 Super, 50SM, 18GB, +5%,
5060 Ti, 36SM, 12GB & 16GB|5060 Ti Super, 40SM, 15GB, +15%
5060, 30SM, 12GB|5060 Super, 34SM, 12GB, +15%
|5050 Ti, 28 SM, 9GB
5050, 20SM, 8GB|5050, 20SM, 8GB

HOT
2024-12-27, 20:39:45
Egal machen die trotzdem mit der 5060. Ist für den Markt auch irrelevant, die wird eh gekauft werden, gibt ja auch etliche, die das Ding nicht primär zum Zocken kaufen. Ich bezweifele ernsthaft, dass du 24Gbit-Module vor November 25 sehen wirst.
Und ich glaub nicht, dass ich eher am oberen Ende bin mit der Leistungseinschätzung sondern eher mittendrin (die Fehlannahme bei der 5070 hab ich korrigert), denn ich hab mit nur sehr wenig mehr Perf/W-Steigerung gerechnet. Und ich hab nur Rasterleistung gerechnet. Der Trick bei der Blackwell-Architektur wird mMn die Taktsteigerung über 30% sein bei allerdings 10-15% mehr Leistungsaufnahme mMn. Auch wird die 5060Ti nicht einfach auslaufen, entweder wird die durch ne teurere GB205-basierte 5060Ti Super ersetzt oder die bleibt einfach im Markt. Die doppelseitige Bestückung lässt man sich ja fürstlich entlohnen, warum sollte man das ändern.

5050 8GB -> 259$
5060 8GB -> 319$
5060S 12GB ->379$
5060Ti 16GB -> 449$
(5060TI Super?)
5070 12GB -> 599$
5070S 18GB -> 699$
5070Ti 16GB -> 849$
5080 16GB -> 1199$
5080S 24GB -> 1399$
5090 32GB -> 1999$ mit Option auf erheblich mehr

The_Invisible
2024-12-27, 20:46:18
Die 5060 wird genauso wie die 4060 ein Schlager für die asiatischen Internetcafés werden bzw allgemein Asia Raum.

Troyan
2024-12-27, 23:29:10
Vielleicht sollten einige auch endlich begreifen zu verstehen, was für absurde Leistungen Nvidia mit GB202 liefert - 722mm^2, ~100 Milliarden Transistoren, 1,8TB/s Bandbreite. Das sind Zahlen, die von der Fläche auf Hopper Niveau und von der Bandbreite auf A100 liegt.

Sowas für den Privatbereich zu verkaufen, ergibt null Sinn. Prozesse werden nicht mehr billiger. Jeder mm^2 kostet.

Umso wichtiger wird einfach bessere Software, dass das komplette Potential aus einer GPU herausgeholt wird.

Exxtreme
2024-12-27, 23:32:39
Umso wichtiger wird einfach bessere Software, dass das komplette Potential aus einer GPU herausgeholt wird.

Wird zumindest bei Spieleentwicklern eher schwierig. Da kommt die Optimierung noch hinter dem Bugfixing.

Troyan
2024-12-27, 23:39:20
Da müssen die Spiele eben verstärkt auf den Kauf verzichten. Aber über absurde GPU-Preise heulen und dann PC-Spiele kaufen, die miserabel optimiert sind, funktioniert einfach nicht.

Blackwell wird immer höhere Produktionskosten als Lovelace haben, außer nVidia versetzt wirklich jede Stufe eins höher, weil man durch GDDR7 das Speicherinterfache einsparen kann.

Slipknot79
2024-12-28, 00:20:01
Glaube, das Problem sind nicht die mm2-Kosten, sondern die Margen. (y)
Ob nen Chip nun 120 oder 140 Dollar kostet. -> gähn.

basix
2024-12-28, 00:21:20
Blackwell wird immer höhere Produktionskosten als Lovelace haben, außer nVidia versetzt wirklich jede Stufe eins höher, weil man durch GDDR7 das Speicherinterfache einsparen kann.

Solange man nicht mehr Speicher draufpackt wird Blackwell nicht wirklich teurer sein. Es werden wohl alle Chips etwas kleiner als ihre direkten Vorgänger, mit Ausnahme von GB202.

dildo4u
2024-12-28, 08:01:34
Muss Nvidia nicht bei Samsung einkaufen da Micron noch keine finalen Chips hat?
Idealerweise willst du Auswahl es gibt z.b 4070 mit GDDR6, ansonsten kann man keine AMD Preise erreichen.(9700XT ist GDDR6?)

Tomahawk
2024-12-28, 10:33:16
Bei Ada hat man gesehen, dass das Preis-/Leistungsverhältnis - trotz des deutlich besseren Fertigungsprozesses - kaum besser geworden ist. bei Ada war es zum Launch 0-20% beim Preis-/Leistungsverhältnis. Solange die Tranistorpreise nicht zurückgehen, werden auch Grafikkarten nicht günstiger bzw. man bekommt nicht bzw. kaum mehr (Roh)leistung zum gleichen Preis

https://www.3dcenter.org/news/news-des-14-september-2023

5080 wird irgendwo bei 1.200 - 1.400 Euro liegen. 5070 Ti bei 900 - 1.100 Euro. Alles andere wäre eine große Überraschung.

In einigen Jahren könnte es für nVidia zum Problem werden: Wenn Transistorpreisen nicht fallen, kann man keine (sinnvollen) neuen Grafikkarten auf den Markt bringen. Und so wird nicht mehr aufgerüstet.

basix
2024-12-28, 10:55:39
Die Transistorkosten gehen zurück ;) Ein N4P Chip wird aber mehr kosten als ein gleich grosser N6 Chip.

Das ist aber nicht das Hauptproblem. Nvidia steigert seit Pascal die Marge, die haben im Crypto- und ML/AI-Boom Blut geleckt und denken, dass es die Gamer sind die so hohe Preise zahlen. Das ist aber nur teilweise richtig. Wir Gamer haben uns mittlerweile einfach an die Preise gewöhnt und deswegen fällt es uns nicht mehr so stark auf. Nvidia könnte sicher 25% geringere Preise verlangen und hätte immer noch sehr anständige Margen. 25% wäre der Unterschied zwischen 50% und 60% Bruttomarge, was für Gaming GPUs in etwa realistisch sein könnte.

TheGood
2024-12-28, 11:19:50
Bei Ada hat man gesehen, dass das Preis-/Leistungsverhältnis - trotz des deutlich besseren Fertigungsprozesses - kaum besser geworden ist. bei Ada war es zum Launch 0-20% beim Preis-/Leistungsverhältnis. Solange die Tranistorpreise nicht zurückgehen, werden auch Grafikkarten nicht günstiger bzw. man bekommt nicht bzw. kaum mehr (Roh)leistung zum gleichen Preis

https://www.3dcenter.org/news/news-des-14-september-2023

5080 wird irgendwo bei 1.200 - 1.400 Euro liegen. 5070 Ti bei 900 - 1.100 Euro. Alles andere wäre eine große Überraschung.

In einigen Jahren könnte es für nVidia zum Problem werden: Wenn Transistorpreisen nicht fallen, kann man keine (sinnvollen) neuen Grafikkarten auf den Markt bringen. Und so wird nicht mehr aufgerüstet.#
Sorry aber schalte mal deinen Realitätsscheck ein. Bei den MArgen die Nvidia draufpackt, wäre genug Luft etwas für die Kundeschaft zu tun, wie auch bei Apple usw. aber das tun sie nicht, weil es genug leute gibt, die die produkte akufen. WEnn das keiner tun würde, dann würden die preise auch rapide fallen und es würde immer noch ne MEnge Gewinn abfallen.
Die nächste Preisrunde wird mit der 5000 Serie eingeläutet und hier wird wie immer von den FAnboys alles schöngeredet. Im Gegenzug bei AMD aber am Preis gemäkelt. Einfach lachhaft. Es wird halt so argumentiert wie es einem in die eigene zu verkaufende Story passt...

Anmerkung: Die Preise sind auf beiden Seiten inzwischen aus Absurdistan...

Troyan
2024-12-28, 11:47:53
Glaube, das Problem sind nicht die mm2-Kosten, sondern die Margen. (y)
Ob nen Chip nun 120 oder 140 Dollar kostet. -> gähn.

5nm kostet locker 4x mehr als 16nm. Ein Blackwell 744mm^2 Chip liegt also irgendwo bei 200€+ pro funktionierenden Chip.

Wenn man überhaupt begreift, wie absurd die aktuelle Situation ist, wird man dann auch verstehen, dass die guten Zeiten vorbei sind. AD106 mit 188mm^2 hat einfach gesagt die selben Chipkosten wie TU102 mit 722mm^2 auf 16nm.

Wenn Herstellungskosten kaum sinken, aber die Entwicklungskosten massiv steigen durch die Produktionskomplexität, dann können selbst Produkte mit deutlich kleineren Dies kaum sinnvoll verkauft werden.

spotz
2024-12-28, 11:58:51
Das Eine schließt das Andere ja nicht aus. Ja, die Fertigung ist teurer geworden, aber eine Bruttomarge von zuletzt 75% bei Nvidia ist schon extrem. Zum Vergleich: AMD hatte zuletzt 54% und der Billigheimer Apple zuletzt nur 45%.

Die Spitzenpreise bei NVIDIA kommen aus einer teuren Fertigung und einer extrem hohen Marge.

basix
2024-12-28, 12:04:20
5nm kostet locker 4x mehr als 16nm. Ein Blackwell 744mm^2 Chip liegt also irgendwo bei 200€+ pro funktionierenden Chip.

~200$ könnte hinkommen (vermutlich etwas weniger), die 4x sind aber zu hoch gegriffen ;)

AMD hat mal ~2.5x angegeben:
https://dl.acm.org/cms/attachment/html/10.1145/3495562/assets/html/f1.jpg


Wenn man überhaupt begreift, wie absurd die aktuelle Situation ist, wird man dann auch verstehen, dass die guten Zeiten vorbei sind. AD106 mit 188mm^2 hat einfach gesagt die selben Chipkosten wie TU102 mit 722mm^2 auf 16nm 754mm^2 auf 12FFN.


Definitiv nein ;) Habe dir noch die TU102 Chipfläche korrigiert, die ist noch etwas grösser als von dir angegeben.

Wie gesagt, 4x ist deutlich zu hoch gegrifffen und du vergisst den Defective & Parametric Yield, der mit steigender Chipfläche abnimmt.

Ich kann dich auch fragen, ob Nvidia mit AD106 zu den Samaritern gegangen ist? Das Produkt im Ada-Lineup, welches neben der 4080 den schlechtesten P/L-Sprung im gesamten Portfolio hingelegt hat. Ich meine, sie verkaufen einen gleich teuren Chip wie TU102 (RTX 2080 Ti) neu für 399$ anstatt 999...1199$? Ach wie herrlich, gibt es das gutmütige und grosszügige Nvidia ;D

Ja, die Fertigung ist teurer geworden, aber eine Bruttomarge von zuletzt 75% bei Nvidia ist schon extrem.
Das ist zum grössten Teil wegen Datacenter und nicht Gaming. Gaming hatte historisch gesehen ~55% Marge und mittlerweile sind es sicher >60%. Die absurden 75% Marge sind aber nicht wegen Gaming.

prinz_valium_2
2024-12-28, 12:14:39
Es wird erst wieder humanere Preise geben, wenn die Industrie einen downturn hat. Dazu muss die AI bubble dann schon platzen.

spotz
2024-12-28, 12:30:23
Das ist zum grössten Teil wegen Datacenter und nicht Gaming. Gaming hatte historisch gesehen ~55% Marge und mittlerweile sind es sicher >60%. Die absurden 75% Marge sind aber nicht wegen Gaming.
Naja, da wäre ich mir bei den dicken Flaggschiffen wie der 4090 oder der kommenden 5090 nicht sicher, ob da die Bruttomarge nicht deutlich über 65% liegt.
Die Bruttomarge ist ja nur ein Durchschnittswert. Wenn NVIDIA bei der 4060 oder der Switch nur eine kleine Marge hat müssen die an einer anderen Stelle deutlich über 75% liegen, um dann über alles gesehen auf diesen Schnitt zu kommen. Bestimmt hast du recht das dies hauptsächlich aus dem Datacenter Bereich kommt, aber meinst nicht das NVIDIA auch bei ihren GeForce Flaggschiffen richtig zulangt? Ich traue denen das zu. Haben ja keine Konkurrenz.

Troyan
2024-12-28, 12:35:53
AMD hat mal ~2.5x angegeben:
https://dl.acm.org/cms/attachment/html/10.1145/3495562/assets/html/f1.jpg

Kosten sind deutlich höher. Liegt vorallem an AI und den Rush zu kleineren Fertigungsprozessen. Alleine von TSMC 10nm -> 5nm liegt man irgendwo bei 4x.


Ich kann dich auch fragen, ob Nvidia mit AD106 zu den Samaritern gegangen ist? Das Produkt im Ada-Lineup, welches neben der 4080 den schlechtesten P/L-Sprung im gesamten Portfolio hingelegt hat. Ich meine, sie verkaufen einen gleich teuren Chip wie TU102 (RTX 2080 Ti) neu für 399$ anstatt 999...1199$? Ach wie herrlich, gibt es das gutmütige und grosszügige Nvidia ;D

Nennt sich Preiselastizität. Nehmen wir doch einfach ein gleichteures Produkt von damals: RTX2070 für $499. Selber Preis zur RTX4060 TI mit 16GB.

+-Marge zu damals. Was bekommt man? 10W weniger Verbrauch und ~60% mehr Leistung. Da zwischen liegen 3(!) Full-Node Sprünge.

Hübie
2024-12-28, 13:20:55
Eine 4090 dürfte so bei $420 mit allem drum und dran liegen.
Wenn es nicht die Krypto Blase ist, dann die KI Blase und wenn es die nicht ist, dann irgend eine andere. Gewöhnt euch dran.
Eine Menge Leute warten auf die Blackwell Chips um eigene Modelle trainieren zu können. Die werden also so oder so abverkauft. Ob ihr euch darüber aufregt, darüber diskutiert oder die Situation einfach ignoriert. Es wird geschehen. So oder so. Die Teile sind sauteuer fürs Gaming, aber saugünstig für Training und Inference. :smile :

Übrigens ist es beachtlich, dass so viele Kontakte nebeneinander auf dem PCB sind. Bei Ada waren da noch so einige Abstände bzw. Lücken dazwischen. Technisch also wieder eine absolute Meisterleistung von nVidia.

basix
2024-12-28, 13:21:21
Bestimmt hast du recht das dies hauptsächlich aus dem Datacenter Bereich kommt, aber meinst nicht das NVIDIA auch bei ihren GeForce Flaggschiffen richtig zulangt? Ich traue denen das zu. Haben ja keine Konkurrenz.

Doch, Nvidia langt sicher zu. Vielleicht sind es die 65% die du genannt hast aber 75% könnte eng werden, auch bei den Flaggschiffen.

Beispiel:
- 200$ Herstellungskosten für GB202
- 75% Bruttomarge -> 800$ Verkaufspreis für den Chip
- Da kommt noch VRAM, PCB, Elektronikomponenten, Kühler, Fertigungskosten, Lagerung und Versand, AIB Marge, Händlermarge, Steuern etc. oben drauf

Wird eng mit 75% Bruttomarge, auch bei 2000 MSRP. Nicht unmöglich, aber eng. Man muss verstehen, dass zwischen 70% und 75% Bruttomarge 1.2x höhere Verkaufspreise liegen. 70% und 75% scheinen nahe beieinander zu liegen, aber beim Verkaufspreis macht es einen grossen Unterschied.

Kosten sind deutlich höher. Liegt vorallem an AI und den Rush zu kleineren Fertigungsprozessen. Alleine von TSMC 10nm -> 5nm liegt man irgendwo bei 4x.

Dann belege das bitte mit Quellen ;)

Und hier wäre es noch wichtig, dass es die Wafer-Preise zum Produktrelease sind und nicht die 12/16nm Wafer-Preise von heute.

Bei TSMC gab es mal Waferpreis-Erhöhungen von ~10% und AMD hat die fast gleiche Folie 2022 nochmals gezeigt, wo 5nm Produkte kurz vor dem Release standen. So weit weg von der Wahrheit wird es also nicht sein. Und das sind Werte "direkt von der Quelle", jemandem der effektiv Produkte designed, die Prozesse nutzt und bezahlt. Nicht irgendwelche Analysten-Reports.


Nennt sich Preiselastizität. Nehmen wir doch einfach ein gleichteures Produkt von damals: RTX2070 für $499. Selber Preis zur RTX4060 TI mit 16GB.

+-Marge zu damals. Was bekommt man? 10W weniger Verbrauch und ~60% mehr Leistung. Da zwischen liegen 3(!) Full-Node Sprünge.
Sorry, du argumentierst hier mit etwas, was keinen Zusammenhang hat (z.B. Anzahl Node Sprünge ist völlig egal) und widerlegst zum Teil sogar deine eigenen vorangegangenen Aussagen.

- N4 soll 4x teurer als 12FFN
- AD106 (188mm2) soll gleich teuer wie TU102 sein (754mm2)
- TU106 hat 445mm2, die 2070 kostet das selbe wie eine AD106 Karte und hat die gleiche Marge

Hä? Wie soll das aufgehen? Ein angeblich fast doppelt so teurer Chip wie TU106 soll für 400$ (500$ mit 16GB) anstatt 500$ verkauft werden und hat die gleiche Marge? Preiselastizität? Na klar doch....

nordic_pegasus
2024-12-28, 14:20:18
Wenn es nicht die Krypto Blase ist, dann die KI Blase und wenn es die nicht ist, dann irgend eine andere. Gewöhnt euch dran.
Die Teile sind sauteuer fürs Gaming, aber saugünstig für Training und Inference. :smile :


genau diese anhaltende Zweckentfremdung regt mich auf. Geforce ist der Brand für Gaming-Grafikkarten und keine Prosumer-Anwendungen.

Früher gab es Quadro. Das waren exakt die gleichen Chips, aber durch andere Treiber waren die Teile in professionellen Anwendungen um ein vielfaches schneller. Warum ist so eine Sperre für non-Gaming Anwendungen bei Geforce-Karten aktuell nicht mehr möglich. Speziell mit dem ganzen AI-Gedöns könnte man doch im Hintergrund die GPU kontrollieren lassen, ob ein Game oder etwas anderes ausgeführt wird.

Und wenn jemand eine Highend Geforce für etwas anderes als Gaming nutzen will, der kann dann gerne eine Freischaltcode bei Nvidia kaufen ;-) Aber den Preis der aktuellen Geforce-Karten mit der Möglichkeit der Nutzung für professionelle bzw. kommerzielle Zwecke zu relativieren finde ich nicht gut.

basix
2024-12-28, 14:27:16
Professionelle Anwendungen hat man viel besser im Griff als AI/ML. Letzteres kann irgendwas sein, auch Games. Ob es ein Siemens NX ist weiss man anhand des Applikationsnamens.

Aber ich stimme dir zu, den GeForce Preis mit Semi-Professionellen Anwendungen zu rechtfertigen ist nicht so schön. Ich hatte da aber auch eine Story gehört, dass man in Elektronikläden z.B. die 5090 für "professionelle Nutzung" anpreisen soll. Das ist nicht ganz dumm, da dann viele sagen "ah, ist eh nicht mein Nutzungsgebiet" und man gibt sich eher mit einer 5080 "fürs Gaming" zufrieden. Das verhindert, das unwissende Leute schlecht beraten werden und eine viel zu teure 5090 einkaufen, weil ihnen das vom Verkäufer aufgeschwatzt wird. Potentiellen Interessenten der 5090 (z.B. mir) hilft das natürlich nicht.

00-Schneider
2024-12-28, 14:31:23
Eine 4090 dürfte so bei $420 mit allem drum und dran liegen.


Inklusive Forschungs- und Entwicklungskosten?

BlacKi
2024-12-28, 15:15:48
puh, die 5090 46% teurer als ihr vorgänger und die 5080 5%?

https://videocardz.com/pixel/early-pricing-for-nvidia-geforce-rtx-5080-and-rtx-5090-surfaces-in-china

so richtig geil ist das nicht. es sorgt eigentlich wie erwartet dafür, das die preise oben bleiben, selbst für die gebrauchten.

wenn es denn so stimmen würde;)

ChaosTM
2024-12-28, 15:32:40
NV kann für die 5090er verlangen was so wollen. Abhängig davon, wie schnell sie wirklich sein wird.
Die 5080er wird preislich deutlich unter der 4090er bleiben, da sie bestenfalls gleich schnell oder bestenfalls einen hauch schneller - und nebenbei ein Speicherkastrat ist.

add.: die Chipkosten sind im oberen Marktsegment ein fast vernachlässigbarer Faktor, obwohl uns die Jacke was anderes erzählen wird..

MSABK
2024-12-28, 15:52:42
NV kann für die 5090er verlangen was so wollen. Abhängig davon, wie schnell sie wirklich sein wird.
Die 5080er wird preislich deutlich unter der 4090er bleiben, da sie bestenfalls gleich schnell oder bestenfalls einen hauch schneller - und nebenbei ein Speicherkastrat ist.

add.: die Chipkosten sind im oberen Marktsegment ein fast vernachlässigbarer Faktor, obwohl uns die Jacke was anderes erzählen wird..

Jep, gibt keinen Grund die Preise niedrig zu halten. Gerade die zwei Top-Chips sind konkurrenzlos.

rentex
2024-12-28, 16:01:19
Dann kauft halt einfach nicht...als ob das Gott gegeben wäre.

Troyan
2024-12-28, 16:06:32
puh, die 5090 46% teurer als ihr vorgänger und die 5080 5%?

https://videocardz.com/pixel/early-pricing-for-nvidia-geforce-rtx-5080-and-rtx-5090-surfaces-in-china

so richtig geil ist das nicht. es sorgt eigentlich wie erwartet dafür, das die preise oben bleiben, selbst für die gebrauchten.

wenn es denn so stimmen würde;)

5090 kommt nicht offiziell nach China.

ChaosTM
2024-12-28, 16:31:32
Dann kauft halt einfach nicht...als ob das Gott gegeben wäre.


Wenn man in der blöden Situation ist alt zu sein und noch etwas Geld übrig hat, haut man das für überteuerte Grafikkarten raus.
Wer weiß wie lange man noch zitterarm spielen kann..

BlacKi
2024-12-28, 16:34:23
die haben meinen link downgenommen XD ist das nun ein zeichen das der leak stimmt, oder das er fake war? XD

Kriegsgeier
2024-12-28, 16:42:50
Leute, regt euch doch nicht wegen dem Preis auf: der Markt regelt das schon und das sehr effektiv!

Für einen sind die 2500€ für eine RTX 5090 die Schmerzgrenze für einen anderen 3500€
Und es wird auch sehr viele geben die "NUR" 2000-2300€ bereit sind zu zahlen!

Und das alles wird der Markt regeln. Die, die die Karte maximal für 2500€ kaufen würden ERMÖGLICHEN doch erst den Kauf für die Anderen, die auch 3200€ bereit sind zu zahlen. Sollte NVIDIA auch diesen Preis ausrufen!

Sardaukar.nsn
2024-12-28, 16:45:52
Ist da eigentlich noch was dran das die 5080 vor der 90er erscheinen soll? https://videocardz.com/newz/nvidia-tipped-to-launch-rtx-5080-mid-january-rtx-5090-to-follow-later

Kriegsgeier
2024-12-28, 16:53:36
und vergleicht doch bitte die 4090 nicht mit 5080!
Keiner, der eine 4090 hat wird je eine 5080 kaufen! Aber einer, der eine 4080 hat kann locker auf eine 5080 wechseln. 16Gb hin oder her!

mczak
2024-12-28, 17:02:48
Professionelle Anwendungen hat man viel besser im Griff als AI/ML. Letzteres kann irgendwas sein, auch Games. Ob es ein Siemens NX ist weiss man anhand des Applikationsnamens.
IIRC hat man das früher nicht über den Applikationsnamen geregelt (zumindest nicht alles). Ein sehr beliebtes Unterscheidungsmerkmal war z.B. die anti-aliased wireframe Geschwindigkeit - braucht ausser für die CAD Anwendungen kein Mensch (und falls doch wenn man bloss ein paar Linien hat ist die Performance ziemlich egal), deswegen wurde das Feature dann bloss im Quadro-Treiber freigeschaltet ansonsten wurde das emuliert (und war darum viel langsamer). Keine Ahnung aber welche Features heutzutage mit den Quadros schneller sind. Möglich dass da mittlerweile auch bloss spezielle Optimierungen für gewisse Pro-Apps drin sind (deren Code ist häufig ziemlicher Müll was effiziente Nutzung von 3D APIs angeht also kann man da im Treiber durchaus was rausholen).

ChaosTM
2024-12-28, 17:04:54
natürlich kauft niemand der eine 4090er besitzt eine 50980er und niemand der halbwegs bei Verstand ist kauft sich 2025 einen 2 Jahre alten 16Gb Kastraten, der gerade mal 30-40% schneller ist..

Matrix316
2024-12-28, 17:38:22
Leute, regt euch doch nicht wegen dem Preis auf: der Markt regelt das schon und das sehr effektiv!

Für einen sind die 2500€ für eine RTX 5090 die Schmerzgrenze für einen anderen 3500€
Und es wird auch sehr viele geben die "NUR" 2000-2300€ bereit sind zu zahlen!

Und das alles wird der Markt regeln. Die, die die Karte maximal für 2500€ kaufen würden ERMÖGLICHEN doch erst den Kauf für die Anderen, die auch 3200€ bereit sind zu zahlen. Sollte NVIDIA auch diesen Preis ausrufen!

Der Markt hat eigentlich alles nur schlechter gemacht. Seit der 2080Ti wurde alles teurer - und selbst wenn Nvidia selbst die UVP niedrig ansetzt wie bei der 3080 machte der Markt die wieder teurer weil Skalper alles kaufen und kaum verfügbar und kaum Konkurrenz.

Exxtreme
2024-12-28, 17:39:07
Der Markt hat eigentlich alles nur schlechter gemacht. Seit der 2080Ti wurde alles teurer - und selbst wenn Nvidia selbst die UVP niedrig ansetzt wie bei der 3080 machte der Markt die wieder teurer weil Skalper alles kaufen und kaum verfügbar und kaum Konkurrenz.

Angebot und Nachfrage bestimmen den Preis.

Kriegsgeier
2024-12-28, 17:54:19
so ist es! Was bring mir persönlich eine 5090 für 2000€ wenn ich diese Karte sagen wir mal 6-9 Monaten nicht kaufen kann?

GENAU NICHTS!

Dann lieber für 3500€ in den ersten 2-3 Monaten aber dafür permanent auf Lager!

Viele verstehen den Marktprinzip nicht - bitte nachschlagen und die Überkreuzung der Angebot-Nachfrage Geraden anschauen ;)

Ach ja, noch was: der Preis einer 5090 von sagen wir mal 1800-2000€ würde nur dann funktionieren wenn NVIDIA es schaffen würde z.B. 10-20 Millionen Stück sofort am ersten Tag vorrätig zu haben.

So und jetzt versteht man wieso ein Preis von 2000€ nicht nur sehr unwahrscheinlich ist sondern auch völlig UNREALISTISCH ist.

Alleine 10 Millionen FE-Kühler zu produzieren ist nahe zu unmöglich!

BlacKi
2024-12-28, 18:00:57
so ist es! Was bring mir persönlich eine 5090 für 2000€ wenn ich diese Karte sagen wir mal 6-9 Monaten nicht kaufen kann?

GENAU NICHTS!

Dann lieber für 3500€ in den ersten 2-3 Monaten aber dafür permanent auf Lager!




es wäre marketing technischer selbstmord. die reviewer würden jedem vom kauf abraten. man könnte auch keine tollen folien präsentieren. absolut nicht machbar.

Kriegsgeier
2024-12-28, 18:05:45
warum das denn?
Dann lieber wie der Start einer 3080Fe für 800$?! Das war ein purer Selbstmord!

mit einem zu niedrigen Preis setzt man potentielle Käufer in FRUST - weil KEINER was kaufen kann!
Keiner - die, die sich freuen, dass die Karte 2000€ kostet und die die auch mehr bezahlt hätten.

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5080-mit-hohen-Preisen-1462552/

Endlich! Endlich! Der Markt hat gesprochen! JUHU! Hoffentlich sind die Gerüchte wahr!

Wie aus der Liste, die dem Tech-YouTuber so von einem australischen Einzelhändler zugespielt worden sein soll, hervorgeht, soll eine Asus Prime Geforce RTX 5080 OC bereits im Einkauf mehr als 2.500 australische Dollar, also umgerechnet mehr als 1.550 US-Dollar kosten. Der MSRP (Manufacturer's Suggested Retail Price), den Endkunden entrichten müssen, beträgt demnach 2.799,00 australische Dollar, umgerechnet also 1.739 US-Dollar, und würde sogar eine Geforce RTX 4090 übertreffen, die 2022 einen MSRP von 1.599,00 US-Dollar erhalten hatte.

BlacKi
2024-12-28, 18:09:27
warum das denn?
Dann lieber wie der Start einer 3080Fe für 800$?! Das war ein purer Selbstmord!

mit einem zu niedrigen Preis setzt man potentielle Käufer in FRUST - weil KEINER was kaufen kann!
Keiner - die, die sich freuen, dass die Karte 2000€ kostet und die die auch mehr bezahlt hätten.das war der genialste schachzug ever. da hat nvidia gezeigt, wie genial ihr marketing ist. sry, aber es sieht so aus, als hättest du keine ahnung vom marketing... selbst amd jünger verneigen sich vor nvidias marketing.

Kriegsgeier
2024-12-28, 18:11:32
Bitte jetzt noch die RTX 5090 Fe für min. 3500€ und ich bin glücklich! DANN KANN MAN EINE KAUFEN! Gute 10-30s. lang

basix
2024-12-28, 18:14:54
warum das denn?
Dann lieber wie der Start einer 3080Fe für 800$?! Das war ein purer Selbstmord!

mit einem zu niedrigen Preis setzt man potentielle Käufer in FRUST - weil KEINER was kaufen kann!

Die 3080 hatte ein ganz anderes Problem und das nannte sich Mining. Vielleicht hätte es ohne Mining die 3080 zu beworbenen Preis gegeben, alle hätten das gefeiert.

Und hey, es ging nicht nur der 3080 so, ALLE GPUs waren damals nur hoffnungslos überteuert zu bekommen. Alle Ampere Karten und auch alle RDNA2 Karten. Das hat also nichts mit dem niedrigen MSRP der 3080 zu tun, dort war der relative Unterschied zum Marktpreis einfach am grössten.
Turing war P/L technisch nicht gut und Leute hofften auf eine günstige Ampere Generation. Die 3070 und 3080 wären das theoretisch gewesen. Dass man noch in der Covid Situation gehangen ist, hat die Kaufbereitschaft sicher zusätzlich erhöht aber der Grund für die hohen Preise war primär Mining.
Also, wie du siehst waren da gleich mehrere Sondereffekte gleichzeitig aktiv und Mining (oder anders gesagt die Geldgier) war der schlimmste davon.

Kriegsgeier
2024-12-28, 18:16:52
und jetzt? Hallo? 99% der Waferfläche wird von KI beansprucht. Und jetzt rechne mal wieviel wir - GAMER abbekommen?

Jetzt ist die Situation wesentlich krasser als beim Mining-boom damals - wesentlich!

Deshalb 3500€ für solch ein riesen Chip wie bei der 5090 wären eigentlich sogar viel zu moderat.

Eher 3999$ wären ok

monstar-x
2024-12-28, 18:17:08
puh, die 5090 46% teurer als ihr vorgänger und die 5080 5%?

https://videocardz.com/pixel/early-pricing-for-nvidia-geforce-rtx-5080-and-rtx-5090-surfaces-in-china

so richtig geil ist das nicht. es sorgt eigentlich wie erwartet dafür, das die preise oben bleiben, selbst für die gebrauchten.

wenn es denn so stimmen würde;)


Dein Link geht nicht (Error 404)
Was stand den da drinnen? Kurze Zusammenfassung.


Und "The more you buy, the more you save"

Radeonfreak
2024-12-28, 18:18:59
Also bei 3000 € bin ich irgendwie raus.

2400 würd ich mir ja noch gefallen lassen wenn Performance und Features stimmen. Aber über 3K? :frown:

Kriegsgeier
2024-12-28, 18:20:25
und genau das ist es! Da du raus bis - kann ich eine kaufen. Ab 3999$ bin ich raus! Dann kann anderer kaufen.

Aber das wichtigste: man wird kaufen können - und das ist das wichtigste!

basix
2024-12-28, 18:22:01
Holy moly, was ist das für eine Einstellung. Ich schneide mir ins eigene Fleisch und der andere bekommt gar nichts mehr zu fressen. Heureka!

nordic_pegasus
2024-12-28, 18:22:14
Und das alles wird der Markt regeln. Die, die die Karte maximal für 2500€ kaufen würden ERMÖGLICHEN doch erst den Kauf für die Anderen, die auch 3200€ bereit sind zu zahlen. Sollte NVIDIA auch diesen Preis ausrufen!

für Nvidia ist Gaming nurnoch ein kleines Zubrot dank Krypto und AI. Gleichzeitig fehlt im Highend eine Konkurrenz. Darum KANN Nvidia in der Tat jeden Preis aufrufen. Wenn die Karten nicht gekauft werden, wird halt die Produktion zu AI-Beschleunigern umgeleitet.

Aber der Kollateralschaden ist PC-Gaming. Darum verstehe ich die Kurzsicht viele Kommentare hier nicht. Natürlich gehören die meisten User hier im Forum zum harten Kern an Nerds, die fast jeden Preis zahlen würden. Allerdings kommen wir an eine Grenze mit den Preissteigerungen pro Generation, wo auch hier immer mehr Leute aussteigen. Sei es wegen fehlender finanzieller Mittel oder weil man sich selbst eine Schmerzgrenze gesteckt hat.

Aber auch bei den Leistungsklassen unterhalb von Highend steigt der Preis. Vielleicht nicht so extrem wie beim Topdog, aber auch erheblich. Gleichzeitig ist der Leistungszuwachs mau, dazu noch das Drama mit dem geringen VRAM.

Das Ende vom Lied kann sein, dass zum einen Gaming am PC Momentum verliert und wir den "PC Gaming ist bald tot" Thread wieder häufiger sehen. Auf der anderen Seite wird doch kaum ein Spiele-Entwickler noch für Highend Karten die neusten Features implementieren. Stattdessen bekommen wir, wenn überhaupt, 1:1 Konsolenports. Wobei die Entwicklung mit Sony und Microsoft auch eher Richtung Quasi-Monopol entwickelt.

BlacKi
2024-12-28, 18:23:56
Dein Link geht nicht (Error 404)
Was stand den da drinnen? Kurze Zusammenfassung.


Und "The more you buy, the more you save"war auch nur kurz eine marketingfolie(echt oder nicht) die eine chinesische preisangabe für die 5080 und 5090 beinhielt. 9999rmb für die 5080 und die 5090 für 18999rmb. also die uvp der 5080 leicht teuerer als die ursprüngliche 4080. aber die 5090 46% teurer als die uvp der 4090.

Langlay
2024-12-28, 18:26:31
und jetzt? Hallo? 99% der Waferfläche wird von KI beansprucht. Und jetzt rechne mal wieviel wir - GAMER abbekommen?

Jetzt ist die Situation wesentlich krasser als beim Mining-boom damals - wesentlich!

Deshalb 3500€ für solch ein riesen Chip wie bei der 5090 wären eigentlich sogar viel zu moderat.

Eher 3999$ wären ok


Eigentlich könnten Nvidia GB202 auch einfach als 5090 Elon Editon für 999'999$ verkaufen, wenn sie dann 100 Karten zum Launch haben reicht. Und der das nicht bezahlen kann/will soll halt warten bis er schwarz wird.

basix
2024-12-28, 18:28:53
Eigentlich könnten Nvidia GB202 auch einfach als 5090 Elon Editon für 999'999$ verkaufen, wenn sie dann 100 Karten zum Launch haben reicht. Und der das nicht bezahlen kann/will soll halt warten bis er schwarz wird.

;D

und jetzt? Hallo? 99% der Waferfläche wird von KI beansprucht. Und jetzt rechne mal wieviel wir - GAMER abbekommen?

Jetzt ist die Situation wesentlich krasser als beim Mining-boom damals - wesentlich!
GDDR6/7 als auch N4-Wafer sind nicht Supply constraint. H100/B100 benötigen ganz andere VRMs als Consumer GPUs, CoWoS ist bei Gaming auch kein Thema. Es gibt also keinen Lieferengpass. Zumindest nicht per se. In Europa könnte es trotzdem zu Lieferengpässen kommen aber das liegt primär daran, dass am 20. Januar Trump als Präsident antritt und es dann in den USA stark erhöhte Einführzölle für Güter aus China geben könnte. Deswegen priorisiert man bei der Erstlieferung anscheinend die USA. Du musst deine GPU dann halt aus den USA liefern lassen ;)

fizzo
2024-12-28, 18:29:10
Ach ja, noch was: der Preis einer 5090 von sagen wir mal 1800-2000€ würde nur dann funktionieren wenn NVIDIA es schaffen würde z.B. 10-20 Millionen Stück sofort am ersten Tag vorrätig zu haben.

So und jetzt versteht man wieso ein Preis von 2000€ nicht nur sehr unwahrscheinlich ist sondern auch völlig UNREALISTISCH ist.

Alleine 10 Millionen FE-Kühler zu produzieren ist nahe zu unmöglich!

Ich glaube du überschätzt die Nachfrage in diesem Preissegment signifikant :ugly:

Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)

Lurtz
2024-12-28, 18:30:43
für Nvidia ist Gaming nurnoch ein kleines Zubrot dank Krypto und AI. Gleichzeitig fehlt im Highend eine Konkurrenz. Darum KANN Nvidia in der Tat jeden Preis aufrufen. Wenn die Karten nicht gekauft werden, wird halt die Produktion zu AI-Beschleunigern umgeleitet.

Aber der Kollateralschaden ist PC-Gaming. Darum verstehe ich die Kurzsicht viele Kommentare hier nicht. Natürlich gehören die meisten User hier im Forum zum harten Kern an Nerds, die fast jeden Preis zahlen würden. Allerdings kommen wir an eine Grenze mit den Preissteigerungen pro Generation, wo auch hier immer mehr Leute aussteigen. Sei es wegen fehlender finanzieller Mittel oder weil man sich selbst eine Schmerzgrenze gesteckt hat.

Aber auch bei den Leistungsklassen unterhalb von Highend steigt der Preis. Vielleicht nicht so extrem wie beim Topdog, aber auch erheblich. Gleichzeitig ist der Leistungszuwachs mau, dazu noch das Drama mit dem geringen VRAM.


+++

Das Ende vom Lied kann sein, dass zum einen Gaming am PC Momentum verliert und wir den "PC Gaming ist bald tot" Thread wieder häufiger sehen. Auf der anderen Seite wird doch kaum ein Spiele-Entwickler noch für Highend Karten die neusten Features implementieren. Stattdessen bekommen wir, wenn überhaupt, 1:1 Konsolenports. Wobei die Entwicklung mit Sony und Microsoft auch eher Richtung Quasi-Monopol entwickelt.
Wobei die beiden "klassischen Konsolen" auch ordentlich unter Druck sind. Die Konsolengenerationen, wie man sie die längste Zeit kannte, sind im Grunde hinfällig und der Markt wächst nicht mehr. Von den immer teurer werdenden Spieleproduktionen zu schweigen. Könnte sein, dass der Zenit für unsere Form des Gamings bereits überschritten wurde.

basix
2024-12-28, 18:32:57
Ich glaube du überschätzt die Nachfrage in diesem Preissegment signifikant :ugly:

Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)

Ich glaube Nvidia hat aus dem Ada Release gelernt und wird die Stückzahlen entsprechend planen. Alles andere tut nicht dem Kunden weh sondern Nvidia. Die verkaufen weniger GPUs oder man läuft zur Konkurrenz. OK, letzteres ist bei der 5090 nicht wahrscheinlich aber genug GPUs führen zu mehr Geld für Nvidia. Geld, was Nvidia offensichtlich ja ziemlich gerne hat.

00-Schneider
2024-12-28, 18:37:22
Wer über die zu hohen Preise rumheult: Bedankt euch bei AMD, dass die kein ~Konkurrenzprodukt geschissen bekommen.

basix
2024-12-28, 18:41:16
AMD ist schuld am sich stark verlangsamenden Moore's Law (ergo Physik), Mining und ML/AI Boom (welcher primär von Nvidia und Microsoft befeuert wird) und sich daraus ergebenden Nvidia Preisen? OK, verzerrte Wirklichkeit.

Wobei die beiden "klassischen Konsolen" auch ordentlich unter Druck sind. Die Konsolengenerationen, wie man sie die längste Zeit kannte, sind im Grunde hinfällig und der Markt wächst nicht mehr. Von den immer teurer werdenden Spieleproduktionen zu schweigen. Könnte sein, dass der Zenit für unsere Form des Gamings bereits überschritten wurde.

Hier hat man halt auch die Probleme von steigenden Kosten und abnehmendem Grenzertrag bei Features, Grafik usw.

Und dazu hat man das Problem, das viele Spiele auch einfach nicht sehr gut sind und trotzdem 80 Euro kosten. Immer das gleiche Schema F. Die Spielwelten etc. sind oftmals atemberaubend aber das Gameplay oft nicht.

Ich vermute, dass die PS6 Generation nochmals eine schöne HW- und Grafik-Generation werden wird. Mit vollem Einsatz von RT-Acceleration, ReSTIR/MegaLights mässigen RT-Algorithmen, FSR4+ Upscaling, Frame Extrapolation, ML/AI Enhacements, Meshlets/Nanite, Neural Texture Compression, ... gibt es viele Features, die auf der PS5 nicht oder nur halbherzig laufen. Die Leistung fehlt. Die PS6 sollte bei allem genug Leistung bieten. Was dann noch fehlt sind gute Spiele. Bei PS6 und auch dem Nachfolger sollte man hoffentlich in folgende Richtung weiterentwickeln: Spiele sollen günstiger werden. Für den Spieler wie auch die Entwickler. Das gleiche Schema F sowie Sequel um Sequel ist eine Konsequenz aus den grossen Investitionssummen. Risiken eingehen und etwas ausprobieren ist dann finanziell "gefährlich".

TheGood
2024-12-28, 18:51:07
und jetzt? Hallo? 99% der Waferfläche wird von KI beansprucht. Und jetzt rechne mal wieviel wir - GAMER abbekommen?

Jetzt ist die Situation wesentlich krasser als beim Mining-boom damals - wesentlich!

Deshalb 3500€ für solch ein riesen Chip wie bei der 5090 wären eigentlich sogar viel zu moderat.

Eher 3999$ wären ok

Nur wenn es darum geht eine maximale Gewinnmaximierung zu betreiben. Aus Unternehmenssicht mag das richtig sein und auch daran, damit seinen Machtanspruch zu erhöhen. Gesellschaftsgedanklich ist das aber schlichtweg eine Katastrophe... Aber schön dass du das hier mit einer Vielzahl von Postings massivst verteidigst.... Lässt tief blicken... Danke dafür.

TheGood
2024-12-28, 18:52:49
Eigentlich könnten Nvidia GB202 auch einfach als 5090 Elon Editon für 999'999$ verkaufen, wenn sie dann 100 Karten zum Launch haben reicht. Und der das nicht bezahlen kann/will soll halt warten bis er schwarz wird.
Ne der kauft die Karte einfach generell nicht, da ist man ganz locker und freut sich noch das gesparte Geld sinnvoll ausgeben zu können ;)

TheGood
2024-12-28, 18:53:54
Ich glaube du überschätzt die Nachfrage in diesem Preissegment signifikant :ugly:

Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)
weltfremd trift es gut oder doch influencing?

HOT
2024-12-28, 18:54:53
Wer über die zu hohen Preise rumheult: Bedankt euch bei AMD, dass die kein ~Konkurrenzprodukt geschissen bekommen.

So ein Unsinn.

Es ist aber genauso unsinnig auf Chinesischen Preisen herumzureiten. Da können noch Steuern drauf sein und zack landet man wieder auf normalen $ Preisen. Daraus kann man gar nichts ableiten - ganz abgesehen davon, dass Vorabpreise eh oft nur placeholder sind.

monstar-x
2024-12-28, 19:08:11
Viele verstehen den Marktprinzip nicht - bitte nachschlagen und die Überkreuzung der Angebot-Nachfrage Geraden anschauen ;)

Genau so!

Vor fünf Jahren waren wir zu fünft in Disney World (Florida) und haben 630 $ Eintritt plus 50 $ für das Parken bezahlt, wohlgemerkt für nur einen Tag!

Ich war ziemlich verärgert darüber und habe meinem Unmut beim Personal Luft gemacht. Auf meine Frage, "Warum ist das so verdammt teuer?", antwortete ein Mitarbeiter: "Schauen Sie sich um. Was glauben Sie, wie voll der Park wäre, wenn wir nur 80 $ Eintritt verlangen würden?"

Er hatte recht, der Park war selbst bei diesen hohen Preisen schon extrem voll.

Das Prinzip Angebot und Nachfrage: Höhere Preise regulieren die Nachfrage, um ein gewisses Maß an Exklusivität und Komfort sicherzustellen, auch wenn es für manch dann unerschwinglich wird.

Genau so war es bei der 4090 es bei der 5090 sein.

Ex3cut3r
2024-12-28, 19:09:44
So ein Unsinn.

Es ist aber genauso unsinnig auf Chinesischen Preisen herumzureiten. Da können noch Steuern drauf sein und zack landet man wieder auf normalen $ Preisen. Daraus kann man gar nichts ableiten - ganz abgesehen davon, dass Vorabpreise eh oft nur placeholder sind.
Wieso Unsinn? Durch AMD gibt es mal wieder kein Konkurrenzprodukt ab 5070 (Ti).

Von daher, kann Nvidia Preise machen, wie Sie es für richtig halten. Also, danke AMD. :freak:

monstar-x
2024-12-28, 19:15:36
Ich glaube du überschätzt die Nachfrage in diesem Preissegment signifikant :ugly:

Nvidia-CFO: 100.000 RTX 4090 in zwei Wochen verkauft (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-100000-RTX-4090-in-zwei-Wochen-verkauft-Lieferungen-sollen-ab-Q1-2023-stabil-sein-1408777/)

Das war vor dem EY EI Boom.
Mach dir mal keine Sorgen die 5090 wird sich besser verkaufen als die 4080.

Die ganzen KI Bros und China (Schwarzmarkt) werden es aufkaufen, den rest schnappen sich die Gaming Enthusiasten, Stream und Youtuber.



Wieso Unsinn? Durch AMD gibt es mal wieder kein Konkurrenzprodukt ab 5070 (Ti).

Von daher, kann Nvidia Preise machen, wie Sie es für richtig halten. Also, danke AMD. :freak:
Häää, was für eine komisch Logik ist das bitte?
Dann könnte ich auch sagen, ihr könnt euch alle bei Ex3cut3r und 00-Schneider über die Nvidia Preise bedanken, die haben keine Grafikkarten Firma gegründet um Nvidia Konkurenz zu bieten. Wäre doch genau so absurd :-)

rentex
2024-12-28, 19:17:23
Genau so!

Vor fünf Jahren waren wir zu fünft in Disney World (Florida) und haben 630 $ Eintritt plus 50 $ für das Parken bezahlt, wohlgemerkt für nur einen Tag!

Ich war ziemlich verärgert darüber und habe meinem Unmut beim Personal Luft gemacht. Auf meine Frage, "Warum ist das so verdammt teuer?", antwortete ein Mitarbeiter: "Schauen Sie sich um. Was glauben Sie, wie voll der Park wäre, wenn wir nur 80 $ Eintritt verlangen würden?"

Er hatte recht, der Park war selbst bei diesen hohen Preisen schon extrem voll.

Das Prinzip Angebot und Nachfrage: Höhere Preise regulieren die Nachfrage, um ein gewisses Maß an Exklusivität und Komfort sicherzustellen, auch wenn es für manch dann unerschwinglich wird.

Genau so war es bei der 4090 es bei der 5090 sein.

Das ist ja schön und gut, nur wollen aktuelle AAA Titel schon exorbitante Leistung...

basix
2024-12-28, 19:19:21
Mach dir mal keine Sorgen die 5090 wird sich besser verkaufen als die 4080.

Die 4080 wird jede GPU leicht schlagen können. Vermutlich hat das sogar die 6500XT/6400 geschafft :D

Ex3cut3r
2024-12-28, 19:19:23
Das ist ja schön und gut, nur wollen aktuelle AAA Titel schon exorbitante Leistung...
Wenn man Regler nicht bedienen kann und meint auf Upscaling sowie FG verzichten zu müssen, ja. Sonst gar kein Problem.

basix
2024-12-28, 19:22:07
Wenn man Regler nicht bedienen kann und meint auf Upscaling sowie FG verzichten zu müssen, ja. Sonst gar kein Problem.

Da stimme ich dir zu. FG ist allerdings etwas, was man nicht bei allen Spielen einschalten kann, ohne dass das Spielgefühl leidet.

Deswegen hoffe ich inständig, dass Nvidia wie auch AMD eine Frame Extrapolation bringen werden (DLSS4, FSR4). Dann erübrigt sich diese Diskussion, FG kann dann immer genutzt werden da die Latenz nicht leidet. Mehr FPS am Schirm sind immer besser als weniger.

Sardaukar.nsn
2024-12-28, 19:50:31
und vergleicht doch bitte die 4090 nicht mit 5080!
Keiner, der eine 4090 hat wird je eine 5080 kaufen! Aber einer, der eine 4080 hat kann locker auf eine 5080 wechseln. 16Gb hin oder her!

Sag das nicht. Wenn die 5080 etwa die Leistung der 4090 bringt. Aktuell sind die Leute auch gebraucht bereit dafür einiges zu zahlen. Meine TUF ging für 1750€ an den nächsten Besitzer.

Wenn mir der Preis der 5090 komplett zu abgehoben wird. Dann halt gleiche Leistung wie 4090 mit einer 5080, neue Features, neue Garantie und noch Geld raus bekommen. :cool:

The_Invisible
2024-12-28, 20:19:01
Ist doch Unsinn das Nvidia jeden Preis verlangen kann. 1. Ist es ein reines Luxusprodukt das man nicht kaufen muss und 2. braucht man eine gewisse käuferanzahl damit sich die GPU tendiert. Und für ein paar tausend Leute legt man sicher keinen gb202 auf, kriegt euch Mal ein mit den Preisen, jetzt sind wir schon bei 4k lol

TheAntitheist
2024-12-28, 20:24:04
Nur wenn es darum geht eine maximale Gewinnmaximierung zu betreiben. Aus Unternehmenssicht mag das richtig sein und auch daran, damit seinen Machtanspruch zu erhöhen. Gesellschaftsgedanklich ist das aber schlichtweg eine Katastrophe... Aber schön dass du das hier mit einer Vielzahl von Postings massivst verteidigst.... Lässt tief blicken... Danke dafür.
AMD verkauft CPUs mit 90mm² für 500€ also wer da eine größere Gewinnspanne hat und auf die Gesellschaft scheißt sei mal dahin gestellt...

TheGood
2024-12-28, 20:36:15
AMD verkauft CPUs mit 90mm² für 500€ also wer da eine größere Gewinnspanne hat und auf die Gesellschaft scheißt sei mal dahin gestellt...
Danke dass die beweisst, dass du mein Post gar nicht verstanden hast :D

Thunderburne
2024-12-28, 20:40:55
Leider ja nur mit 16GB die 5080.
Die Große Lücke zwischen 5080 sowie 5090 schreit nach einer 5080TI mit 384Bit und 24GB

Ex3cut3r
2024-12-28, 20:42:47
Häää, was für eine komisch Logik ist das bitte?
Dann könnte ich auch sagen, ihr könnt euch alle bei Ex3cut3r und 00-Schneider über die Nvidia Preise bedanken, die haben keine Grafikkarten Firma gegründet um Nvidia Konkurenz zu bieten. Wäre doch genau so absurd :-)

AMD ist nun mal da, und dafür da, eine GPU Alternative in jeder Leistungsklasse zu stellen, tun sie aber nicht, ergo hohe Preise ab 5070 (Ti)
Ergo, danke AMD.

Mercedes kommt ja auch nicht an, ne, also mit dem Ferrari können wir nicht mit halten, ergo dieses mal kein neuer SLS.

Kriegsgeier
2024-12-28, 20:56:53
Erstens: wie viel hat eine 5090 mit allgemeinen Gamingmarkt zu tun?
Richtig, nahezu NULL!
Wenn 5-10% der PC-Gamer eine XX80 im Rechner haben.
Erst 5070-5070ti spielt eine Rolle! Und die GROSSE Mehrheit hat eine XX60 Leistung!

PS: der Beispel mit dem Eintrittsgeld bei Disneyland trifft es 1A

Und seien wir mal ehrlich: eine RTX 5090 zu besitzen statt z.B. eine 5080 ist nicht nur purer Luxus sondern im höchsten Maße überhaupt nicht notwendig. Also kann man hier jeden Preis ausrufen. Ich wäre z.B bei 3450€ wohl raus und würde somit eine Karte frei machen für einen Anderen.

PS: es gibt auch Leute, die keine AMD Geaka im System haben wollen. Ich zum Beispiel zähle mich dazu!
Obwohl ich AMD und vor allem Lisa Su bewundere. Hatte auch AMD Aktie fast 8 Jahre lang gehalten!
Aber eine Radeon kommt nicht in mein PC rein - wahrscheinlich auch nicht kostenlos. Will einfach Nvidia und nur NVIDIA! Weil Treiber und Futures!

rentex
2024-12-28, 21:28:23
Dazu kommt noch der Verbrauch...

monstar-x
2024-12-28, 21:44:53
AMD ist nun mal da, und dafür da, eine GPU Alternative in jeder Leistungsklasse zu stellen, tun sie aber nicht, ergo hohe Preise ab 5070 (Ti)
Ergo, danke AMD.

Mercedes kommt ja auch nicht an, ne, also mit dem Ferrari können wir nicht mit halten, ergo dieses mal kein neuer SLS.

Ich verstehe nicht wieso du der Meinung bist das AMD mit allen GPU Klassen mithalten muss, wenn die Entwicklung für, Forschung, Herstellung unrentable ist, weil
A) das Geld
B) die Ingenieure
fehlen, dann müssen die doch nicht auf biegen und brechen versuchen d mit zu halten, nur um alles in diese Sparte zu investieren. Sie haben es versucht und mit Sicherheit genau berücksichtigt wieso, das unwirtschaftlich ist.

Slipknot79
2024-12-28, 21:47:37
Wenn mir der Preis der 5090 komplett zu abgehoben wird. Dann halt gleiche Leistung wie 4090 mit einer 5080, neue Features, neue Garantie und noch Geld raus bekommen.

Mit dem Argument canst du dir eine 5090 holen. Wie deine 4090 wird auch die 5090 einen dicken Wiederverkaufswert haben.
So viel can man finanziell nicht falsch machen mit einer 5090.

Im Grunde spielt der Preis keine Rolle, wenn man den Prügel "richtig" wiederverkauft, und selbst wenn man das Teil 500EUR unter Einkauf rausgeht. Dann hat die 5090 eben 500EUR gekostet und nicht 2400EUR. Da war meine 2080Ti sogar toirer: 980EUR Einkauf und 400EUR Verkauf = 580EUR. Für 4 Jahre Ballerei. Gibt schlimmeres. (y)

ChaosTM
2024-12-28, 21:56:52
Leider ja nur mit 16GB die 5080.
Die Große Lücke zwischen 5080 sowie 5090 schreit nach einer 5080TI mit 384Bit und 24GB


Die Lücke ist diesmal erschreckender als je zuvor.


Als zweitbeste Karte bekommt man diesmal technisch genau die Hälfte vom Flaggschiff.
Der Unterschied bezüglich Performance wird im Bereich von 40-50% liegen wenn überhaupt.
Blackwell ist vom Konzept her eine reine AI GPU, die im Spielebereich auch ganz gut performen könnte.


Wissen wir noch nicht, aber meine Erwartungen sind nicht besonders hoch.

nordic_pegasus
2024-12-28, 22:12:27
braucht man eine gewisse käuferanzahl damit sich die GPU rentiert.

Nvidia verbaut die GPUs nicht nur in Geforce Karten sondern auch als "Quadros" oder wie man die heutzutage nennt.

AD102 (also der Chip der 4090) wird mit nahezu Vollausbau (142 von 144 SM aktiv) in der "RTX 6000 Ada Generation" verbaut. Dann aber für 7000€ pro Karte und 48GB VRAM.

Genauso wird Nvidia GB202 in ein entsprechends Profi-Produkt packen (mit mehr als den 170 aktiven SM der 5090). Wenn tatsächlich der Gaming-Markt wegen zu hoher Preise einknicken sollte, würden halt mehr GB202 als "RTX 7000 Blackwell Generation" an die Kundschaft gehen.

Nvidia fährt keinerlei Risiko, während die Preisschraube gedreht wird.

Hübie
2024-12-28, 22:19:27
Inklusive Forschungs- und Entwicklungskosten?

Nein. Die kannst du schwer im Vorfeld auf die Stückkosten umlegen. ;)

BlacKi
2024-12-28, 23:02:24
Und seien wir mal ehrlich: eine RTX 5090 zu besitzen statt z.B. eine 5080 ist nicht nur purer Luxus sondern im höchsten Maße überhaupt nicht notwendig. Also kann man hier jeden Preis ausrufen. Ich wäre z.B bei 3450€ wohl raus und würde somit eine Karte frei machen für einen Anderen.


also nur menschen, die anderen menschen möglichst viel geld kosten, dürfen sich eine 5090 leisten können?

DrFreaK666
2024-12-29, 05:16:55
... Mercedes kommt ja auch nicht an, ne, also mit dem Ferrari können wir nicht mit halten, ergo dieses mal kein neuer SLS.

Du vergleichst AMD mit Mercedes?
Und Mercedes hat Kunden, die den SLS auf jeden Fall haben wollen. Das galt in der letzten Vergangenheit aber kaum für AMDs Top-Modelle.
Ich glaube das passiert erst, wenn Projekt Amethyst Früchte trägt

OgrEGT
2024-12-29, 08:07:07
https://videocardz.com/newz/asus-geforce-rtx-5080-and-radeon-rx-9070-xt-custom-gpu-names-leaked-16gb-memory-confirmed
Asus Produktnamen...
Bei NV wirds jetzt "Astral" :ulol:

Sardaukar.nsn
2024-12-29, 08:48:09
Du vergleichst AMD mit Mercedes?
Und Mercedes hat Kunden, die den SLS auf jeden Fall haben wollen. Das galt in der letzten Vergangenheit aber kaum für AMDs Top-Modelle.
Ich glaube das passiert erst, wenn Projekt Amethyst Früchte trägt

Mercedes SLS ist doch ein schönes Beispiel für Geldanlage. 2010 neu für 190k€ ist der Preis nur noch gestiegen: https://www.pkw.de/preistrends/mercedes-benz/sls-amg

Nach der Erfahrung mit Kauf und Verkauf der 4090 kann ich bei Blackwell nur raten am Day-1 direkt gut einzukaufen, zwei Jahre nutzen und wieder in den Gebrauchtmarkt zu geben. Das Teil läuft eh außer Konkurrenz und wird preisstabil sein wie nur was.

Radeonfreak
2024-12-29, 09:37:01
https://videocardz.com/newz/asus-geforce-rtx-5080-and-radeon-rx-9070-xt-custom-gpu-names-leaked-16gb-memory-confirmed
Asus Produktnamen...
Bei NV wirds jetzt "Astral" :ulol:


Nur weil der Stromstecker an der Wand dann ein magisches Glühen hat würd ich jetzt nicht unbedingt von Astral reden.

OgrEGT
2024-12-29, 09:39:31
Nur mal als Gedanke... mir scheint dass es in den Speku Threads zu neuer Hardware oft um 2 Themenbereiche geht... Technik/Features/Leistung auf der einen Seite und Preise/Marktanteile/Marketing auf der anderen Seite... lohnt es sich da ggf Speku Threads aufzuteilen?
Ich würde gerne mehr zur Technik und Leistung lesen als seitenweise Diskussionen über Preise und ab wann sich wer was leisten oder nicht leisten möchte...

Dimon
2024-12-29, 10:03:33
Nur weil der Stromstecker an der Wand dann ein magisches Glühen hat würd ich jetzt nicht unbedingt von Astral reden.


Magisches Glühen ;D;D

Ich hoffe das diese Problematik mit den "Astralen" Leistungsaufnahmen nicht wieder auftritt :rolleyes:

Tomahawk
2024-12-29, 10:16:00
Ist PCIe 5.0 für Blackwell 'bestätigt'? Zuletzt war es da stiller geworden

Troyan
2024-12-29, 10:19:33
Bestätigt ist nichts, aber selbst Hopper hatte schon PCIe 5.0. Gehe davon aus, dass die Gaming-GPUs nun vollständig 5.0 sind.

Sardaukar.nsn
2024-12-29, 10:23:01
Dazu vielleicht auch noch HDMI 2.2 https://www.netzwelt.de/news/237287-hdmi-kabel-bald-ueberfluessig-alter-standard-januar-abgeloest-2712.html

monstar-x
2024-12-29, 10:39:05
Ist PCIe 5.0 für Blackwell 'bestätigt'? Zuletzt war es da stiller geworden

Ja die Bilder aus dem letzten leak (PCB) zeigen PCI 5 Lanes

Thunder99
2024-12-29, 10:39:12
Nur mal als Gedanke... mir scheint dass es in den Speku Threads zu neuer Hardware oft um 2 Themenbereiche geht... Technik/Features/Leistung auf der einen Seite und Preise/Marktanteile/Marketing auf der anderen Seite... lohnt es sich da ggf Speku Threads aufzuteilen?
Ich würde gerne mehr zur Technik und Leistung lesen als seitenweise Diskussionen über Preise und ab wann sich wer was leisten oder nicht leisten möchte...
Wenn das eine ausgeschöpft ist geht's halt zum anderen Bereich :D

Finde die Preisgestaltung spiegelt das wieder, was der Markt wohl bereitet ist zu zahlen. Sollten die 5090 und 5080 wie Blei in den Regalen liegen bleiben wird erst dann was sich ändern.

Wenn es mehrheitlich Spiele gibt mit abnormale RT Leistungshunger werden es immer weniger Leute genießen können und das den Gaming PC Markt schaden.

The_Invisible
2024-12-29, 11:35:09
Finde die Preisdiskussionen auch immer ziemlich lame, vor allem bei NV wo die Preise quasi erst am Vorstellungstag festgelegt werden...

basix
2024-12-29, 12:17:08
Dazu vielleicht auch noch HDMI 2.2 https://www.netzwelt.de/news/237287-hdmi-kabel-bald-ueberfluessig-alter-standard-januar-abgeloest-2712.html

Wäre cool, wenn man ein Vermögen für die neue Karte ausgibt ;)

Ist noch die Frage, wie schnell HDMI 2.2 wird. 80Gbps? Oder gleich 96/120Gbps?

x-force
2024-12-29, 12:38:45
was glaubt ihr mit welcher generation limitieren die rt cores endlich nicht mehr?
also wann kostet rt/pt keinen abartigen performanceverlust mehr?

für mich ist klar:
es braucht mindestens 4x so viele rt cores, wenn man den rest unangetastet lässt.

basix
2024-12-29, 12:43:08
RT/PT wird immer Performance kosten. Rastergrafik wird aber niemals so gut aussehen wie PT-Grafik. Wo ziehen wir nun den Strich? ;)

Und ich glaube nicht, dass es viel mehr RT-Cores braucht. Die Grafik wird ja nicht nur von den RT-Cores berechnet, auch die SMs rund herum sind wichtig. Viel sinnvoller finde ich aber sind intelligente Algorithmen wie DLSS/FSR, ReSTIR & SHaRC, MegaLights und Ray Reconstruction. Mit roher Gewalt ist PT noch sehr, sehr lange eine Utopie. Mit etwas Gehirnschmalz und Trickserei liegt deutlich mehr drin. Und zwar deutlich mehr als reine HW-Upgrades.

AffenJack
2024-12-29, 12:44:41
was glaubt ihr mit welcher generation limitieren die rt cores endlich nicht mehr?
also wann kostet rt/pt keinen abartigen performanceverlust mehr?

für mich ist klar:
es braucht mindestens 4x so viele rt cores, wenn man den rest unangetastet lässt.

Die RT Cores limitieren bei Nv schon jetzt kaum. 4xmehr RT Cores würde dir nur wenig Mehrperformance bringen. Das wäre komplett sinnlos. Es wird immer ein großer Performanceverlust sein, weil es haufenweise Belastung der Shader und Caches zusätzlich erzeugt. Es läuft nur ein Teil auf den RT-Cores, genauso wie mehr TMUs nicht ne GPU sonst wieviel schneller machen. Es verschiebt sich nur die limitierende Einheit.

Hübie
2024-12-29, 13:31:04
Ist PCIe 5.0 für Blackwell 'bestätigt'? Zuletzt war es da stiller geworden

Ja.

00-Schneider
2024-12-29, 13:37:08
Dazu vielleicht auch noch HDMI 2.2 https://www.netzwelt.de/news/237287-hdmi-kabel-bald-ueberfluessig-alter-standard-januar-abgeloest-2712.html

Wäre cool, wenn man ein Vermögen für die neue Karte ausgibt ;)

Ist noch die Frage, wie schnell HDMI 2.2 wird. 80Gbps? Oder gleich 96/120Gbps?


Das wird erst zur CES vorgestellt. Kommt daher nicht zeitgleich mit den neuen Karten.

dargo
2024-12-29, 14:03:36
was glaubt ihr mit welcher generation limitieren die rt cores endlich nicht mehr?
also wann kostet rt/pt keinen abartigen performanceverlust mehr?

Frage das nochmal in 10-15 Jahren. Das was da heute an RT/PT Genauigkeit verwendet wird ist Spielzeug. Und selbst dieses Spielzeug ist schon auf heutigen, teuren Heizöfen sehr teuer bezüglich Rendertime.

Hakim
2024-12-29, 14:42:19
Nur mit Hardware erschlagen wird schwer in den kommenden Jahren. Glaube das sich Software auch anpassen wird, irgendein neues Feature was bei RT Leistungsschonender ist oder direkt die engine selber schonender mit umgeht ohne an Qualität zu verlieren

Kriegsgeier
2024-12-29, 14:49:27
Spielecode muss "einfach" besser werden. Die neue Entwicklergeneration muss mit Hilfe von KI einfach besseren Code hinbekommen und nicht immer nur auf MEHR Speicher und Rechen-Ressourcen hoffen.

ManuelCalavera
2024-12-29, 15:41:39
Als IT'ler muss ich dir leider sagen das KI vielleicht schneller Code erzeugt - aber von besserem Code kann (bisher zumindest) wirklich keine Rede sein....

Das ganze KI Zeug ist höchstens auf dem Niveau eines Junior-Entwicklers.

Tesseract
2024-12-29, 16:05:39
was glaubt ihr mit welcher generation limitieren die rt cores endlich nicht mehr?

wenn es so weiter geht wahrscheinlich 1-2 generationen nach BL. der grund warum RT so viel langsamer als raster ist liegt nicht unbedingt daran dass der rest der GPU idle/stalled wäre sondern dass RT einfach was anderes macht. die eintrittsschwelle für ein halbwegs rauschfreies bild ist mit RTGI viel höher als aktuelles raster, die "renderqualität" deckt dann aber auch schon viel mehr ab. äpfel und birnen.

The_Invisible
2024-12-29, 16:16:58
Frage das nochmal in 10-15 Jahren. Das was da heute an RT/PT Genauigkeit verwendet wird ist Spielzeug. Und selbst dieses Spielzeug ist schon auf heutigen, teuren Heizöfen sehr teuer bezüglich Rendertime.

4070 ist ein teurer heizofen? PT ist gut schon nutzbar, noch mehr seitdem es dlss-rr gibt. Mit RTX5000 wird's sicher nicht schlechter werden.

Ex3cut3r
2024-12-29, 17:08:15
Er ist ein Radeon Fan. Was erwartest du da?

dargo
2024-12-29, 17:34:41
4070 ist ein teurer heizofen?
Ich rede von einer 4090, die selbst für ernsthaftes RT/PT viel zu langsam ist. Und du kommst mir mit dem Spielzeug @4070 um die Ecke. Jesus...

HOT
2024-12-29, 17:43:59
Vor allem PT mit 12GB :freak:

Tesseract
2024-12-29, 17:58:24
Ich rede von einer 4090, die selbst für ernsthaftes RT/PT viel zu langsam ist. Und du kommst mir mit dem Spielzeug @4070 um die Ecke. Jesus...

was ist "ernsthaft"? das RTGI von metro exodus EE sieht besser aus als nahezu alle rasterlösungen und läuft problemlos auf mid-tier turing. CP2077 PT läuft auf der 4090 mit entsprechenden settings mit >100fps in 4k.

dargo
2024-12-29, 18:11:39
was ist "ernsthaft"?
Alles außer dem Kinderkram in heutigen Implementierungen. Also das was du in ca. 10 Jahren erst in Games sehen wirst.

Tesseract
2024-12-29, 18:21:35
inhaltsleeres blah blah. RT bietet seit jahren lösungen für verschiedene rasterprobleme und es gibt einige sehr gut nutzbare implementierungen die brauchbare fps liefern.

Ex3cut3r
2024-12-29, 18:22:30
Dargo hat die Weisheit mit Löffeln gegessen, er weiß heute schon, was Spiele in 10 Jahren brauchen werden. Ob es in 10 Jahren noch AMD GPUs geben wird? :uponder:

robbitop
2024-12-29, 18:34:32
Wenn nicht wird es noch schlimmer für alle die GPUs haben wollen. Ohne Wettbewerb kein Fortschritt.

Ex3cut3r
2024-12-29, 18:36:05
Welcher Wettbewerb? AMD ist seit mindestens zehn Jahren nicht konkurrenzfähig. Ihre Leistung ist zu inkonstant, und sie schaffen es nicht, 1-3 Generation hinweg solide Produkte auf den Markt zu bringen. Es ist immer ein ständiger Wechsel bei ihnen.

robbitop
2024-12-29, 18:45:10
Sie halten nicht mit aber sie bieten Produkte die im Wettbewerb sind die Nvidia zwingen nicht komplett durchzudrehen mit dem Preis. Und so schlecht war RDNA2 nicht. RDNA3 ist aus P/L Sicht auch so schlecht nicht. Glaube mir ohne wären wir noch viel mehr am Arsch. Aber ja: ein deutlich stärkeres AMD würde deutlich mehr helfen.

AtTheDriveIn
2024-12-29, 18:50:48
Welcher Wettbewerb? AMD ist seit mindestens zehn Jahren nicht konkurrenzfähig. Ihre Leistung ist zu inkonstant, und sie schaffen es nicht, 1-3 Generation hinweg solide Produkte auf den Markt zu bringen. Es ist immer ein ständiger Wechsel bei ihnen.

Du musst den Begriff "Wettbewerb" nochmal nachschlagen. Der entsteht schlicht dadurch das verschiedene Player um die Gunst buhlen. Nur weil eine Partei seit längerer Zeit die Krone auf hat, ändert es daran nix.


Der PC Hardware-Markt ist außerdem nicht homogen, sondern in Klassen unterteilt. In allen außer dem Top-Tier hat AMD konkurrenzfähige Produkte im Portfolio. Das nicht sehen zu wollen ist trollen. Geh mal vor die Tür ;)

Nvidia schröpft ihre Kundschaft für die bessere Tech schon sehr. Wie man das nicht sieht und den Zusammenhang bilden kann ist erschreckend. 5070 mit 12Gbyte für 699€ incoming...

Ex3cut3r
2024-12-29, 19:03:38
Sobald RT angemacht wird. Können AMD Karten nur noch mit der Vorgängergeneration mithalten. Teilweise nicht mal das. DLSS (Upscaling) ist 1-2 Generationen weiter. Stromverbrauch war seit Ada auch wieder auf Nvidias Seite. Geschicktes Marketing. PC Gaming wird teilweise automatisch mit Nvidia assoziiert. AMD wird diese Gen kein High End Produkt auf den Markt bringen...dürfte noch mehr zum angekratzten (Prestige) Image beitragen.

dargo
2024-12-29, 19:16:39
inhaltsleeres blah blah.
Mach die Augen auf. :) RT-Reflexionen sind nicht selten nur auf wenige Meter beschränkt, danach geht es mit den konventionellen Mitteln weiter. RT-GI wird oftmals ebenfalls sparsam verwendet. Von den katastrophalen Denoisern @RT reden wir lieber nicht. Das sind alles Sparmaßnahmen damit der größte Heizofen noch einigermaßen in der Übergangsphase überlebensfähig ist. Wir sind noch sehr weit am Anfang von RT/PT Gehversuchen in Echtzeit. Erst recht wenn man das noch in eine normale Grafikkarte von ~150-200W packen will und nicht den neuen, noch heißeren Heizofen.

AtTheDriveIn
2024-12-29, 19:33:54
Sobald RT angemacht wird. Können AMD Karten nur noch mit der Vorgängergeneration mithalten. Teilweise nicht mal das. DLSS (Upscaling) ist 1-2 Generationen weiter. Stromverbrauch war seit Ada auch wieder auf Nvidias Seite. Geschicktes Marketing. PC Gaming wird teilweise automatisch mit Nvidia assoziiert. AMD wird diese Gen kein High End Produkt auf den Markt bringen...dürfte noch mehr zum angekratzten (Prestige) Image beitragen.
Du überschätzt die Rolle die RT heute spielt. Wenn du dir die Steam Hardware Survey anschaust, sind die Gamer mit Karten die "RT tauglich" sind (>=3080,>=4070) doch sehr gering vertreten, vielleicht 15% wenn es hochkommt. Es ist (noch) die Realität, dass abseits von Hardware Enthusiasten Foren, RT eine sehr untergeordnete Rolle im Gameralltag spielt. Viel wichtiger als RT ist Midrange. Wenn AMD mit der 9070 was RT fähigeres liefert, das preislich attraktiv ist, haben sie ein sehr interessantes und konkurrenzfähiges Produkt, das Nvidia kontern muss. Der Marktbereich ist wirklich entscheidend. Mit guten Karten ausschließlich in der 800€+ Liga wird PC-Gaming mit unser Generation aussterben.

Troyan
2024-12-29, 20:38:06
Mach die Augen auf. :) RT-Reflexionen sind nicht selten nur auf wenige Meter beschränkt, danach geht es mit den konventionellen Mitteln weiter. RT-GI wird oftmals ebenfalls sparsam verwendet. Von den katastrophalen Denoisern @RT reden wir lieber nicht. Das sind alles Sparmaßnahmen damit der größte Heizofen noch einigermaßen in der Übergangsphase überlebensfähig ist. Wir sind noch sehr weit am Anfang von RT/PT Gehversuchen in Echtzeit. Erst recht wenn man das noch in eine normale Grafikkarte von ~150-200W packen will und nicht den neuen, noch heißeren Heizofen.

Du spielst doch nichts mit Raytracing. Woher willst du wissen, wie Raytracing implementiert ist? :freak:

Indiana Jones rennt mit >40 FPS in nativen 4K auf einer 4090 mit Pathtracing.

Tesseract
2024-12-29, 20:45:29
RT-Reflexionen sind nicht selten nur auf wenige Meter beschränkt, danach geht es mit den konventionellen Mitteln weiter. RT-GI wird oftmals ebenfalls sparsam verwendet. Von den katastrophalen Denoisern @RT reden wir lieber nicht.

erstens ist das nicht zwingend der fall, zweitens löst es trotzdem rasterprobleme die allein mit raster kaum oder sogar mit noch größeren performanceeinbrüchen als RT gelöst werden könnten. die rasteralternative ist in den meisten fällen dass reflexionen von objekten die den screenspace verlassen wegradiert werden als hätte sich die halbe welt in luft aufgelöst. dagegen ist kritik an denoisern lächerlich. abgesehen davon macht RR einern sehr beeindruckenden job.

fakt ist dass gut implementiertes RT auf aktueller hardware schon einen deutlichen mehrwert bieten kann. dass software der hardware, je nach engine bzw. studio, jahre hinterherhinkt ist dann wieder ein anderes thema.


Das sind alles Sparmaßnahmen
im echtzeitrendering ist ALLES sparmaßnahme und RT "spart" weniger als jede andere renderingtechnik der letzten 30+ jahre. der grund warum du die letzten jahrzehnte spiele spielen konntest ist weil raster 99,99...% von allem was die physik macht einspart.

The_Invisible
2024-12-29, 21:22:13
Ich sehe es eher andersrum und bin beeindruckt was mit heutiger Hardware in Sachen RT/PT schon in Echtzeit möglich ist. Vor nicht allzu langer Zeit war das quasi noch völlig Utopie. Heute können wir live als Pioniere dabei sein, ich finds spannend

Palpatin
2024-12-30, 07:24:08
Indiana Jones rennt mit >40 FPS in nativen 4K auf einer 4090 mit Pathtracing.
Hier sind es: https://www.computerbase.de/artikel/gaming/indiana-jones-und-der-grosse-kreis-full-raytracing-benchmark-test.90638/#abschnitt_die_rtpresets_im_benchmark AVG: 33 FPS.

Troyan
2024-12-30, 09:10:07
Die Dschungel-Abschnitte killen die 4090. Aber in meinen 20h Spielzeit, war das erstmal nur in der 1h relevant.

Ansonsten Animationsqualität der Vegetation reduzieren und man kommt wieder auf 40 FPS.

Ich sehe es eher andersrum und bin beeindruckt was mit heutiger Hardware in Sachen RT/PT schon in Echtzeit möglich ist. Vor nicht allzu langer Zeit war das quasi noch völlig Utopie. Heute können wir live als Pioniere dabei sein, ich finds spannend

Das macht alles auch so lächerlich. Ein Control lief in 1080p/60FPS+ auf einer 2080TI. Heute kann man das Spiel mit einer 4090 in 4K/90FPS+ zocken. Metro Exodus EE rennt ebenfalls mit 90+ FPS in 4K, Battlefield 5 hängt an den 120 FPS in 4K.

SamLombardo
2024-12-30, 09:19:33
Die Frage ist doch warum sollte man Nativ 4k spielen? Mit DLSSQ und Framegen bin ich in den Dschungelabschnitten bei 70-75 Fps. Das ist mit der 4090 perfekt spielbar und sieht genau Null anders aus als Natives 4K.

[dzp]Viper
2024-12-30, 09:52:07
Die Frage ist doch warum sollte man Nativ 4k spielen? Mit DLSSQ und Framegen bin ich in den Dschungelabschnitten bei 70-75 Fps. Das ist mit der 4090 perfekt spielbar und sieht genau Null anders aus als Natives 4K.
Grundsätzlich bin ich bei dir bei der Aussage aber dass es "Null anders aussieht als nativ 4K" halte ich für falsch.

Ja auf einem 4K Monitor ist der Unterschied mit oder ohne DLSS deutlich kleiner als z.b. auf einem 2K Monitor aber er ist da. Auf einem Full-HD Monitor sieht DLSS schrecklich aus ;)

Und jetzt muss man schauen wieviele Gamer wirklich einen 4k Monitor in Verbindung mit einer 4080 oder 4090 haben. Auf die Gesamtmenge der Gamer gesehen sind das wohl unter 5%...

Matrix316
2024-12-30, 09:59:08
Die Frage ist doch warum sollte man Nativ 4k spielen? Mit DLSSQ und Framegen bin ich in den Dschungelabschnitten bei 70-75 Fps. Das ist mit der 4090 perfekt spielbar und sieht genau Null anders aus als Natives 4K.
Wenn ich eine 4090 hätte, würde ich doch nicht mit DLSS spielen wollen. Das will ich ja mit meiner 7900XTX nicht mal. Ich geb doch nicht 1000 Euro+ für eine Grafikkarte aus, nur um dann Spiele abgespeckt zu spielen.

Aber das meinte ich ja, dass die 4090 eigentlich auch schon zu langsam ist.

Troyan
2024-12-30, 10:00:22
Mir ging es nur darum aufzuzeigen, dass ein Indiana Jones mit Pathtracing auf dem Heizofen in nativen 4K absolut spielbar ist. Und die Worst-Case Settings lassen sich mit einer Option deutlich beschleunigen.

Das lustig ist, dass UE5 spiele ja nicht besser laufen. Also das rumheulen wegen Hardware-RT bzw. heute ja Pathtracing in einer Welt mit UE5 Spielen und dem ineffizienten Lumen-Kram keinen Sinn ergibt.

SamLombardo
2024-12-30, 10:08:08
@Viper und Matrix, ich sehe wirklich keinen Unterschied auf einem 4k Monitor, das ist nicht mal übertrieben. Selbst wenn ich mich noch so bemühe. Die Algorithmen sind anscheinend inzwischen so gut, dass DLSSQ nativem 4k in nichts mehr nachsteht.

Edit: gab es nicht mal Analysen, die gezeigt haben, dass DLSS in manchen Fällen sogar Nativ schlägt? Ich meine mich zu erinnern, dass Watch Dogs Legion so ein Fall war. Und nicht der Einzige.

dildo4u
2024-12-30, 10:15:48
Das kann man nicht verallgemeinern das neue TAA in Zero Dawn Remaster ist ziemlich Gut und du kannst Entwickler nicht dazu zwingen das neuste DLSS zu nutzen.
Nvidia hat 90% Marktanteil aber Fortnite nutzt bis Heute DLSS2.2.

Troyan
2024-12-30, 10:16:44
DLSS Q in 4K kommt sehr nah an nativ ran. Oder ist auch mal besser. In Indiana Jones hat man jedoch das mipmap bias nicht angepasst und wohl auch das Level of Detail auf der nativen Auflösung belassen. Jedoch ist Indiana Jones ein eher ruhiges Spiel und da habe ich kein Problem in nativ 4K mit DLAA und FG zu spielen.

[dzp]Viper
2024-12-30, 10:18:32
Wenn ich eine 4090 hätte, würde ich doch nicht mit DLSS spielen wollen. Das will ich ja mit meiner 7900XTX nicht mal. Ich geb doch nicht 1000 Euro+ für eine Grafikkarte aus, nur um dann Spiele abgespeckt zu spielen.
Wieso nicht?
Auf 4K ist der Unterschied zu 4k Nativ wirklich fast nicht mehr zu sehen. Dafür hast du 40-50% mehr fps und das Bild wird extrem ruhig.

Ich habe ja 3440x1440 und da sieht man den Unterschied zwischen DLSS On/Off schon noch stärker. Da muss ich schon abwägen ob ich es aktiviere oder nicht. Oftmals aktiviere ich es aber trotzdem da der Performancegewinn deutlich den Qualitätsverlust übertrifft.

Matrix316
2024-12-30, 10:31:21
Viper;13673706']Wieso nicht?
Auf 4K ist der Unterschied zu 4k Nativ wirklich fast nicht mehr zu sehen. Dafür hast du 40-50% mehr fps und das Bild wird extrem ruhig.

Ich habe ja 3440x1440 und da sieht man den Unterschied zwischen DLSS On/Off schon noch stärker. Da muss ich schon abwägen ob ich es aktiviere oder nicht. Oftmals aktiviere ich es aber trotzdem da der Performancegewinn deutlich den Qualitätsverlust übertrifft.
Ich finde da geht es ums Prinzip! :ugly:

Bei Beamern z.B. können die "preiswerteren" unter 5000 Euro 4K nur durch dieses Pixel-Shift darstellen. Die sind nativ nur Full HD.

Würdest du 5000 oder mehr für einen Beamer ausgeben, der kein natives 4K kann, sondern nur Pixel Shift hat? Selbst wenn es fast so gut aussieht wie natives 4K?

Und so ähnlich ist es doch auch hier. Die teuerste Spiele Grafikkarte sollte doch die Spiele in der höchsten "normalen" Auflösung mit der besten Qualität darstellen können. Oder das Spiel ist schlecht programmiert. ;)

Relex
2024-12-30, 10:34:36
Siehe hier: https://imgsli.com/Mjk5Mjgz/0/3

Die Bilder sind in Bewegung entstanden.

Da ist DLSS Q schärfer und detaillierter, als TAA nativ.
FSR Q fällt deutlich ab und muss sich teilweise sogar DLSS Performance geschlagen geben.


Ich würde DLSS Q daher alleine schon aus Qualitätsgründen immer aktivieren. Selbst DLSS P sieht kaum schlechter aus. Insgesamt etwas weniger knackig, das wars dann aber auch schon. Dafür nur 1/4 der Pixelllast.

Mag zwar sein, dass eine gute TAA implementierung hier und da manchmal etwas sauberer ist und DLSS mal ein paar Problemstellen zeigt, aber unterm Strich ist die Bildqualität spätestens seit DLSS3.7 mit Preset E im Quality Modus immer besser.

Absoluter No-Brainer für mich. DLAA würde ich erst aktivieren, wenn ich das 240 Hz Limit meiners Monitors erreicht hätte. Und selbst dann würde ich wahrscheinlich lieber etwas Energie sparen, als sie so sinnfrei zu verheizen.

BlacKi
2024-12-30, 10:35:31
Wenn ich eine 4090 hätte, würde ich doch nicht mit DLSS spielen wollen. Das will ich ja mit meiner 7900XTX nicht mal. Ich geb doch nicht 1000 Euro+ für eine Grafikkarte aus, nur um dann Spiele abgespeckt zu spielen.

Aber das meinte ich ja, dass die 4090 eigentlich auch schon zu langsam ist.
je nach spiel, hast du nativ eine schlechtere bildqualität. denn dlss bietet ein besseres AA. nicht umsonst sind viele an dlaa und dldsr interessiert, wenn die performance vorhanden ist.

Troyan
2024-12-30, 10:37:38
Ich finde da geht es ums Prinzip! :ugly:

Bei Beamern z.B. können die "preiswerteren" unter 5000 Euro 4K nur durch dieses Pixel-Shift darstellen. Die sind nativ nur Full HD.

Würdest du 5000 oder mehr für einen Beamer ausgeben, der kein natives 4K kann, sondern nur Pixel Shift hat? Selbst wenn es fast so gut aussieht wie natives 4K?

Und so ähnlich ist es doch auch hier. Die teuerste Spiele Grafikkarte sollte doch die Spiele in der höchsten "normalen" Auflösung mit der besten Qualität darstellen können. Oder das Spiel ist schlecht programmiert. ;)

Ergibt kein Sinn. Was interessiert es mich als Spieler, wie meine Grafikkarte einen Pixel berechnet? Das sind alles nur mathematische Berechnungen. Relevant ist am Ende, ob das Ergebnis stimmt.

Diese Diskussion ist auch absurd. Wenn du wirklich "nativ" haben willst, müsstest du auf Sub-nativer Effektberechnungen vollständig verzichten. Denn 1/4 SSRs auf eine nativ in 4k berechnete Fläche zu packen, wäre ein Paradoxon für dich...

The_Invisible
2024-12-30, 10:42:43
Wenn ich eine 4090 hätte, würde ich doch nicht mit DLSS spielen wollen. Das will ich ja mit meiner 7900XTX nicht mal. Ich geb doch nicht 1000 Euro+ für eine Grafikkarte aus, nur um dann Spiele abgespeckt zu spielen.

Aber das meinte ich ja, dass die 4090 eigentlich auch schon zu langsam ist.

Native ist doch schon lange tot, wie oft will man das noch aufwärmen? Da nehme ich lieber mehr pixeldetails und FPS mit ohne das es wirklich schlechter aussieht, mit dlss kannst auch immer öfter dlss-p mit 4k nutzen.

[dzp]Viper
2024-12-30, 10:52:17
Ich finde da geht es ums Prinzip! :ugly:
Darum sollte es nie gehen sondern um das Ergebnis unterm Strich...


Bei Beamern z.B. können die "preiswerteren" unter 5000 Euro 4K nur durch dieses Pixel-Shift darstellen. Die sind nativ nur Full HD.

Würdest du 5000 oder mehr für einen Beamer ausgeben, der kein natives 4K kann, sondern nur Pixel Shift hat? Selbst wenn es fast so gut aussieht wie natives 4K?
Wenn ein Nativ-4K Beamer 10 000€ und mehr kostet aber die Bildqualität zum 5000€ Beamer nur 2-3% besser ist.. ja würde ich.
Wieso? Weil es mir nicht ums "Prinzip" geht sondern darum so viel "Bang for the Bucks" rauszubekommen ohne dabei keine oder fast keine Einbußen in der Qualität zu haben.


Und so ähnlich ist es doch auch hier. Die teuerste Spiele Grafikkarte sollte doch die Spiele in der höchsten "normalen" Auflösung mit der besten Qualität darstellen können. Oder das Spiel ist schlecht programmiert. ;)
Nein du machst es dir zu einfach.
Natürlich gibt es viele nicht gut optimierte Spiele. Aber es gibt mittlerweile auch viel Grafikfeatures die einfach extrem Leistung fressen selbst wenn sie gut optimiert sind (RT, PathTracing, ..).

Beispiel Cyberpunk 2077. Das sieht mit Pathtracing um Welten besser aus als mit der normalen Beleuchtung oder gar der einfachen RT Imprementation.

Da habe ich lieber ein aktiviertes Pathtracing mit DLSSQ als eine Native Auflösung, die nur minimal besser aussieht als das DLSSQ Bild, ohne PathTracing.

Sardaukar.nsn
2024-12-30, 10:59:20
5K2K OLED Monitor für die 5090: https://www.computerbase.de/news/monitore/oled-monitore-lg-praesentiert-biegbaren-5k2k-oled-mit-45-zoll-vorab.90814/

Tesseract
2024-12-30, 11:28:14
Ich finde da geht es ums Prinzip! :ugly:

welches prinzip soll das sein? RT+upscaling ist deultich näher an der physikalischen realität als "native" raster. dazu kommt dass DLSS oft besser als native aussieht, und wenn man mit den DLSS-stufen auf 4k nach unten geht bekommt man extrem viel mehr fps für kaum schlechtere spatiale bildqualität, also die bessere gesamtbildqualität im spielfluß.
ich habe seit meiner ersten karte mit tensorcores kein spiel ohne DLSS gespielt weil es immer die bessere experience ist und schalte auf der 4090 am 4k/240Hz-monitor ohne mit der wimper zu zucken auch DLSS-P ein wenn das gesamtresultat (inkl. bewegung) damit besser ist als alle anderen einstellungen.

nochmal: native raster ist fakery ohne ende und war es schon immer. daran ist überhaupt nix prinzipientreu.

monstar-x
2024-12-30, 12:14:44
Ich spiele auf meiner 4090 (4K) auch nicht mehr Native, wozu auch, sehe in bewegt Bildern keinen Unterschied, und ich habe das in sehr vielen Spielen immer und immer wieder vergleichen (Tuning, Optimierung ist ja auch ein Teil unseres Hobbys und macht Spaß)

Zu dem spart es Strom, und damit vor allem im Sommer Abwärme, macht nämlich schon einen Unterschied ob die Grafikkarte 330 watt oder nur 170 Watt rausknallt.

Altehardware
2024-12-30, 12:24:00
Tut es nicht das liegt auch daran das die meisten in treiber nicht 16af an haben den das bring deutlich mehr schärfe
Ein spiel OHNE TAA ist definitiv schärfer als dlss oder fsr.
anti Alaising wird nur deswegen genutzt um bei Texturen die ecken zu runden um eine kleinere Auflösung auf einem größeren Bild zu pressen.
Das Ergebnis ist je nach Textur design mal gutes aa oder schlechtes.
Das beste ist smaa gefolgt von den sehr teuren sgssaa 32x
Das glättet das ganze Bild und ist wegen der hohen Auflösung (intern 32 mal der Grundauflösung) schärfer
Im Grund e ist alaising auch nur deswegen da um damit die kanten rund zu machen af verhindert das flimmern.
Was dlss und co besser macht als sgssaa ist weniger zu kosten an vram und perf.
Gänzlich sind diese Bildglätter nur dann Sinnvoll wenn die game engine das auch nutzt sind die Texturen dagegen nativ auf die Auflösung design flimmert nix und es ist alles scharf sieht man deutlich in vielen unitiy und ue spielen die ne einfache Grafik haben mit klarem Klötzchen design.
Wenn da Unschärfe gibt dann ist das gewollt.
Anderes bsp wie man es nicht macht far cry 3 im original hatte ein extrem mieses taa was man aber in der config file abstellen kann.
Dann sgssaa drauf und es sah sehr gut aus.
Würde jetzt schon 24zoll oled mit gefixten blauen led geben mit 1080p das ist möglich dann würde keiner die upscaler nutzen wo mane s nicht muss der Grund der Unschärfe liegt am LCD Trägheit
Ohne diese Unschärfe von den lcd screens würde man immer nativ bevorzugen nur gibt es derzeit nur mla lcd oled die ein hybrid aus lcd und oled sind und leider nicht unter 1440p und viel zu teuer sind.
ich rechen aber spätestens 2027 das man nur noch mla oled bekommt auch zu normalen preisen um die 200€
Der blauen oled fix kann man quasi sprühen daher ist die Fertigung solcher display deutlich billiger geworden selbst vs dem klassischen ips oder va und wird daher komplette monitor markt übernehmen.
Das gute ab 2028 kauft man ein oled screen 24 1080p für 150e und braucht sich über die specs keine Gedanken machen nur wegen der Haltbarkeit den oled sterben nach ner zeit und werden immer dunkler.
Dann ist es wieder so wie einst mit den crt röhren zwischen 3-5 Jahren muss dieser ersetzt werden.
Ein tn va ips läuft dagegen bis dieser ausfällt.
Um auf aa zurückzukommen ja der Monitor macht viel aus interpoliert der nicht gut fällt es einem stärker auf wenn kein gutes aa vorhanden ist

Matrix316
2024-12-30, 12:32:36
Auf was ich eigentlich hinaus will:

Wenn selbst die stärkste Karte nur mit Tricks bestimmte Grafikfeatures spielbar darstellen kann, sollte man die im Spiel überhaupt verwenden? Sollte man nicht damit warten, bis die Hardware nachgezogen hat? Außerdem benachteiligt man damit Spieler, die eben keine NVidia Hardware haben. Das wundert mich eh, weil die Konsolen ja alle AMD Chips haben. Warum geht man beim PC dann so sehr auf Features ein, die vor allem Nvidia HW bevorzugen?

Braucht man unbedingt noch die stärkste Karte, wenn man eh nur mit DLSS spielt? ;) Man könnte auch Strom sparen, wenn man statt eine 4090 eine 4080 oder 4070 fährt. ;)

fulgore1101
2024-12-30, 12:41:11
Ich finde es inzwischen fast schon tragisch wie DLSS Verfechter beide Augen zu drücken wenn es um Bildqualität geht. Vermatschte Optik und Ghosting sind auch in aktuellen Spielen keine Seltenheit.

dargo
2024-12-30, 12:48:38
Die Frage ist doch warum sollte man Nativ 4k spielen? Mit DLSSQ und Framegen bin ich in den Dschungelabschnitten bei 70-75 Fps. Das ist mit der 4090 perfekt spielbar und sieht genau Null anders aus als Natives 4K.
70-75fps mit FG sind also schon perfekt spielbar. Unfassbar wie tief der Anspruch mittlerweile liegt.

BlacKi
2024-12-30, 12:55:55
Braucht man unbedingt noch die stärkste Karte, wenn man eh nur mit DLSS spielt? ;) Man könnte auch Strom sparen, wenn man statt eine 4090 eine 4080 oder 4070 fährt. ;)tut man nicht. aber wenn man das geld hat, so setzen manche das in die schnellste gpu, und wenn die performance vorhanden ist, dann nutzt man sie auch.
es gibt auch leute, die nicht wollen, das ihre gpu im limit läuft. die wollen stabile fps. keine schwankungen haben.


es gibt viele szenarien und viele davon darfst du als sinnlos betrachten.

SamLombardo
2024-12-30, 12:57:54
70-75fps mit FG sind also schon perfekt spielbar. Unfassbar wie tief der Anspruch mittlerweile liegt.
Für dieses Spiel definitiv. Ist schließlich kein Doom.

Tesseract
2024-12-30, 13:00:48
Braucht man unbedingt noch die stärkste Karte, wenn man eh nur mit DLSS spielt? ;) Man könnte auch Strom sparen, wenn man statt eine 4090 eine 4080 oder 4070 fährt. ;)

was hat DLSS damit zu tun? wenn die 4090 20%, 30%, 40% - oder wieviel auch immer - schneller als eine andere karte ist muss jeder für sich entscheiden ob einem die fps das geld wert sind. auch eine 5090 wird noch weit davon entfernt sein einen 4k/240Hz monitor auszulasten.

warum hast du eine 7900XTX und keine 7600 wenn die 7600 weniger verbraucht?

Thunderburne
2024-12-30, 13:30:26
https://videocardz.com/pixel/gigabyte-teases-aorus-geforce-rtx-5090-xtreme-waterforce

[MK2]Mythos
2024-12-30, 14:02:43
Hier gehts um Spekulationen zu Blackwell. Es geht nicht um Ray oder Pathtracing, DLSS, AMD vs NV oder sonstige Grabenkämpfe. Dafür gibt es andere Threads.

x-force
2024-12-30, 14:15:01
wenn es so weiter geht wahrscheinlich 1-2 generationen nach BL. der grund warum RT so viel langsamer als raster ist liegt nicht unbedingt daran dass der rest der GPU idle/stalled wäre sondern dass RT einfach was anderes macht. die eintrittsschwelle für ein halbwegs rauschfreies bild ist mit RTGI viel höher als aktuelles raster, die "renderqualität" deckt dann aber auch schon viel mehr ab. äpfel und birnen.

welche anderen bereiche der gpu werden denn noch durch rt/pt belastet? speicherinterface und cache ist klar und muss natürlich passen.
guck mal auf den stromverbrauch. für mich siehts aus, als wäre die gpu weit von vollauslastung entfernt. man kommt schon mit klassischer rastergrafik ins powerlimit.

bleibt nach zuschalten auf ada von rt nur noch 25% leistung übrig, brauche ich 4x so viele rt cores+anhang.
es ist ein bisschen wie zu zeiten als die shader sich stark entwickelt haben.
am anfang haben bessere schatten auch mit raster abartig performance gekostet, bis nv ein passendes verhältnis aus rop/sm/alu/textur gefunden hat.
nun müssen sie noch massiv rt und tensor leistung aufbauen.

es bleibt abzuwarten, ob blackwell ebenfalls auf 1/4 einbricht.

Tesseract
2024-12-30, 14:37:06
RT units unterstützen die shader mit speziellen funktionen ähnlich wie texture mapping units das auch tun. wenn die GPU mit RT 400W zieht ist das fast alles shaderarbeit.

bleibt nach zuschalten auf ada von rt nur noch 25% leistung übrig, brauche ich 4x so viele rt cores+anhang.

nein, RT macht einfach was anderes als raster. wenn die RT units schlecht designt sind verhungern die shader. shader execution reorderung, beispielsweise, was von nvidia as "RT feature" beworben wird erhöht den auslastungsgrad der shader bei divergenten workloads, was RT oft ist.

es bleibt abzuwarten, ob blackwell ebenfalls auf 1/4 einbricht.

wenn BL RT die shader weniger stallt wird er weniger einbrechen, aber BL mit ähnlicher shaderleistung wie ADA wird nicht in einem grundlegend anderem performancebereich landen weil die shader trotzem alle laufen müssen.

Exxtreme
2024-12-30, 14:42:17
Man sollte auch bedenken, dass PT auch noch ordentlich an der CPU nuckelt. Sprich, PT macht Spiele tendenziell CPU-limitiert. Und wenn man ein CPU-Limit hat dann zieht die Grafikkarte auch nicht mehr so viel.

Troyan
2024-12-30, 14:47:25
Zum Pathtracing gehört zwangsläufig auch Denoising. Und das ist reine Rechenleistung. Zum Einbruch in Indiana Jones kommen daher ~30% vom Denoising. Tracen der Rays ist spätestens mit Lovelace verdammt günstig und schnell.

dargo
2024-12-30, 15:45:48
Angeblich ca. 2.600$ für die 5090 und ca. 1.600$ für die 5080. Mein :popcorn: steht schon bereit wenn diese Preise tatsächlich so kommen. :D

o3AvYAhTDQs

Hakim
2024-12-30, 15:50:51
Nvidia tut eben alles damit sie als Monopolist mit 90% Marktanteil nicht zerschlagen wird :). So langsam sollte AMD es mal etwas ausnutzen

horn 12
2024-12-30, 16:05:50
Todgeburt
Beide Karten!

BlacKi
2024-12-30, 16:16:05
Todgeburt
Beide Karten!ich nehm dich beim wort:biggrin::biggrin::biggrin:

Matrix316
2024-12-30, 16:16:24
1600$ wären dann wohl 2000 € Straßenpreis für eine 5080. Da lohnt sich ja jetzt noch eine 4080 Super zu kaufen. Die kostet nur die Hälfte... :ulol:

Wenn das so kommt ist Nvidia die bekloppteste Firma neben Sony. Selbst Apple hat vernünftigere Preise für neue Produkte. Da kostet das standard iPhone statt 900 nicht plötzlich 1400 Euro oder so.

Vielleicht sollte man die Preise noch 1000 Euro höher machen, damit gar keiner mehr eine Nvidia Karte kauft.

[MK2]Mythos
2024-12-30, 16:27:06
Kann auch einfach wieder geniales Marketing sein. Im Vorfeld werden Gerüchte gestreut dass die Karten schweineteuer werden. Bei der Vorstellung werden dann vergleichsweise humane Preise genannt und zack - die Leute rennen denen die Bude ein um das "Schnäppchen" zu bekommen.

konkretor
2024-12-30, 16:32:42
Für Preise, Diskussion und jammern bitte hier entlang

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620224

Matrix316
2024-12-30, 16:34:02
Mythos;13673972']Kann auch einfach wieder geniales Marketing sein. Im Vorfeld werden Gerüchte gestreut dass die Karten schweineteuer werden. Bei der Vorstellung werden dann vergleichsweise humane Preise genannt und zack - die Leute rennen denen die Bude ein um das "Schnäppchen" zu bekommen.
Stören würde es mich nicht. Zumindest so lange ich eine bekomme. :D

Wenn der Preis zu hoch ausfällt, dann wäre das so wie mit Clark Griswold, der ein Schwimmbad bauen will und davon ausgeht, dass er wie üblich eine Weihnachtsgratifikation bekommt. :redface:

dargo
2024-12-30, 16:35:01
Mythos;13673972']Kann auch einfach wieder geniales Marketing sein. Im Vorfeld werden Gerüchte gestreut dass die Karten schweineteuer werden. Bei der Vorstellung werden dann vergleichsweise humane Preise genannt und zack - die Leute rennen denen die Bude ein um das "Schnäppchen" zu bekommen.
Möglich ist vieles. :)

Allerdings eher unwahrscheinlich, dass die 5090 nur geringfügig teurer wird als die 4090. Das Ding ist mit 744mm² richtig fett geworden und immer noch TSMC und nicht "ramsch" Samsung. Zudem haben wir hier einen völlig neuen GDDR7 der wohl kaum günstiger am Anfang ist als GDDR6X. Würde mich jedenfalls überraschen wenn das nicht so wäre. Und dann haben wir hier gleich einiges mehr mit 32GB von diesem neuen Speicher. Ich wäre schon sehr überrascht wenn der Preis der Referenz bei der UVP unter 1999$ liegt.

Radeonfreak
2024-12-30, 16:38:41
Das Ding ist mit 744mm² richtig fett geworden

Turing war sogar leicht größer und hat auch keine 2000 Euro gekostet.

dargo
2024-12-30, 16:39:56
Turing war 12nm mit 11GB Vram. Was auch gerne vergessen wird... die Inflation über die letzten Jahre. In praktisch allen Lebenslagen ist alles erheblich teurer geworden. Das kann man nicht mehr mit 2018 vergleichen.

Ex3cut3r
2024-12-30, 16:43:47
Nicht schon wieder diese dämliche Preisdiskussion, wen juckt es? Haben wohl alle einen anständigen Job hier. Es gibt ja auch noch AMD, wer 7900 GRE Leistung haben möchte, für 600€ kann sich eine Radeon 8070 oder so ähnlich kaufen. Und gut ist. Muss sich aber mit minderwertigen Upscaling zufriedengeben.

dargo
2024-12-30, 16:46:42
Nicht schon wieder diese dämliche Preisdiskussion, wen juckt es?
Alle die was von den Mechanismen einer Gamingindustrie verstehen. Spiele sind ein Massenprodukt.

Ex3cut3r
2024-12-30, 16:48:15
Und? Warum juckt es gerade dich so stark? Nvidia kommt für dich doch sowieso nicht in Frage. Also? Kauf dir deine 8070 und erfreue dich an 7900 GRE oder XT Leistung bei 200W und verschone uns mit deinen Sticheleien.

Kriegsgeier
2024-12-30, 16:57:22
Also 3000€ für RTX 5090! Passt soweit - dafür wird man eine kaufen können - wenn auch nicht lange: vielleicht 2-3 Stunden dann wird alles ausverkauft sein. Neue Karten dann in 2 Monaten...

dargo
2024-12-30, 16:58:43
Und? Warum juckt es gerade dich so stark?
Ich finde diese Preise einfach amüsant und bin gespannt wo die Schmerzgrenze für den letzten Dödel erreicht ist. :D Bei Blackwell gehe ich aber noch nicht davon aus, da geht bestimmt noch Einiges. Wobei ich gerade am überlegen bin wie man den Preis beim Nachfolger nochmal spürbar nach oben treiben könnte? Mal abseits der höheren Kosten @3nm. Mehr als 512Bit SI geht nicht und mit 744mm² ist NV auch schon nah dran am technischen Limit was Die-Size angeht.

Ex3cut3r
2024-12-30, 17:08:41
Es gibt keine Schmerzgrenze für den "Dödel" Ist den meisten hier total Wumpe. Nicht jeder ist Mittelklasse Käufer von AMD GPUs. Bzw. gibt sich mit minderwertigen AMD Produkten zufrieden. Ansonsten kann auch eine 5070Ti für 800? 900€ ganz okay sein.

TheGood
2024-12-30, 21:17:02
Es gibt keine Schmerzgrenze für den "Dödel" Ist den meisten hier total Wumpe. Nicht jeder ist Mittelklasse Käufer von AMD GPUs. Bzw. gibt sich mit minderwertigen AMD Produkten zufrieden. Ansonsten kann auch eine 5070Ti für 800? 900€ ganz okay sein.
Realitätscheck: Failed :D

ianm
2024-12-30, 21:20:12
Vor allem PT mit 12GB :freak:
Hast du solch eine Karte und kannst das beurteilen? Mobil sehe ich eure Systemconfigs nicht.

Meiner Erfahrung nach sind die 12GB Nvidia 40er Karten auch für Pathtracing zu gebrauchen. Gerade bei Single Player Games mit DLSS (+ vereinzelt FG). Man muss ja nicht alles auf Max drehen. Natürlich nicht in 4K, aber 1440p sind kein Problem.

Da bringt mir das mehr an RAM bei Radeon Karten gar nichts, weil die RT Performance unterirdisch ist.

Mehr ist immer besser, aber das muss man mittlerweile bezahlen wollen.

Monsta
2024-12-30, 22:53:50
Es gibt keine Schmerzgrenze für den "Dödel" Ist den meisten hier total Wumpe. Nicht jeder ist Mittelklasse Käufer von AMD GPUs. Bzw. gibt sich mit minderwertigen AMD Produkten zufrieden. Ansonsten kann auch eine 5070Ti für 800? 900€ ganz okay sein.

Hat Dir mal ein AMD Mitarbeiter die Frau ausgepannt oder warum drehst Du wegen der Firma so frei?

x-force
2024-12-30, 23:11:15
Meiner Erfahrung nach sind die 12GB Nvidia 40er Karten auch für Pathtracing zu gebrauchen. Gerade bei Single Player Games mit DLSS (+ vereinzelt FG). Man muss ja nicht alles auf Max drehen. Natürlich nicht in 4K 1440p, aber 1440p 1080p sind kein Problem.


so stimmt es für die 4070ti, wenn man alles auf max dreht, je nach spiel sind trotzdem fg/dlss nötig und fg braucht selbst nochmal speicher.

prinz_valium_2
2024-12-31, 01:31:58
Wenn die 5080 bei 1500€ ist, wird es die 5070TI niemals für 800€ geben.

reaperrr
2024-12-31, 02:20:41
Wenn die 5080 bei 1500€ ist, wird es die 5070TI niemals für 800€ geben.
Jup.

$899/~1000€ wäre schon ein "Erfolg", weil das "nur" der 4070Ti-Launchpreis wäre.
Solange die 9070 XT nicht genug Druck ausübt, wird man eher noch mit $100/€150 mehr planen müssen. Vermutlich hauzart über 4080S in Raster und ne Schippe drauf in RT/PT, dazu größerer Chip und mehr Speicher als ne 4070Ti, geht ja nicht dass Nvidia an so ner Karte weniger verdient als damals an der 4070Ti :freak:

Es gibt keine Schmerzgrenze für den "Dödel" Ist den meisten hier total Wumpe. Nicht jeder ist Mittelklasse Käufer von AMD GPUs. Bzw. gibt sich mit minderwertigen AMD Produkten zufrieden. Ansonsten kann auch eine 5070Ti für 800? 900€ ganz okay sein.
Wenn ich sowas lese frage ich mich, wie Nvidia so dumm sein konnte, der 5090 mehr als 384bit/24GB zu geben.
Sie wären die 5090 offensichtlich auch mit 160SM,384bit,24GB zu diesem Preis losgeworden, und hätten dann noch ne 5090Ti mit 170SM,448bit,28GB @ 3500 und ne Titan mit 180SM,512bit,32GB für 5000 bringen können.
Einigen Leuten geht's offensichtlich zu gut, das muss abgeschöpft werden.

Thomas Gräf
2024-12-31, 03:20:47
Wartet doch erstmal die Tests ab.
Oder meint Ihr die Entscheider von nV wollten nur die 32GB weil die 5090 ansonsten scheizze is und man trotzdem einen höheren Preis will?
Ich denke die werden sich dagegen rumgewindet haben wie sonstwas.
Aber die Ing's von nV haben das durchgesetzt.
Das einzig logische dabei...

The_Invisible
2024-12-31, 07:10:29
lol geht die Preisdiskussion jetzt wieder los, gibt ja einen anderen Thread, dort könnt ihr jammern

ChaosTM
2024-12-31, 11:15:42
Was mich zu einem Kauf ermutigen könnte wäre zb. ein (fast) perfekter Denoiser, der ohne die nervige Verzögerung arbeitet.
Die 32GB passen schon. Eine TI oder Titan bringen deutlich weniger Profit als die AI Dinger oder professionelle Karten im Allgemeinen.
Dann lieber gleich was richtig fettes, wenn auch abgespeckt.

Das Abmelken der Gamer findet im Einsteigerbereich statt, wo man unbedarften Spielen 8GB Karten verhökert, die quasi jetzt schon obsolet sind. Da machts dann die Masse...

robbitop
2024-12-31, 11:29:28
Den demoliert hast du doch mit DLSS RR bereits.

Altehardware
2024-12-31, 11:56:32
nein RR sortiert lediglich die dxr bvh Zuweisung

The_Invisible
2024-12-31, 11:58:59
Hä klar macht dlss-rr was Chaos meint, muss halt extra implementiert werden. Wobei India Jones auch ohne gut aussieht, Ka ob idtech hier einen besseren/schnelleren denoiser hat

BlacKi
2024-12-31, 11:59:58
sieht so aus, als käme die 5070ti doch schon zum release der 50 gen., wenn schon fertigpc anbieter die schon im programm haben und das leaken.

ist die 5070ti doch auf gb205 basierend? da man sonst recht früh schon einen relativ starken salvage chip anbietet, wenn man gb203 nehmen würde

Neurosphere
2024-12-31, 12:01:17
Den demoliert hast du doch mit DLSS RR bereits.

Ich nehme mal an das demoliert ist Denoiser.

Ja, der ist da, aber auch nicht problemlos, Siehe hier:

K3ZHzJ_bhaI

Ich denke ebenfalls das da noch einige Verbesserungen kommen in dem Bereich bis RT soweit ist das die Denoiser nicht mehr so gefordert werden.

Troyan
2024-12-31, 12:05:22
Hä klar macht dlss-rr was Chaos meint, muss halt extra implementiert werden. Wobei India Jones auch ohne gut aussieht, Ka ob idtech hier einen besseren/schnelleren denoiser hat

Due benutzen nVidia's NRD. Also hochperformanter Denoiser über den normalen Recheneinheiten.

Altehardware
2024-12-31, 12:07:59
man kann faktisch nicht ohne Latenz denoisen das ist physisch nicht möglich wichtiger wäre das mehr compute und mehr strahlen das Bild schärfer und weniger noisy wird. Das geht nur mit mehr alu dafür müsste nvidia und amd deutlich mehr alu in den sm cu setzen und dann mit schnelleren rt cores beschäftigen.
Das sehe ich nicht vor rubin und udna 2027
Brauchbar ist pathtracing, aber es muss massiv viel angepasst werden damit die perf. passt

robbitop
2024-12-31, 12:20:52
nein RR sortiert lediglich die dxr bvh Zuweisung


The Digital Foundry article discusses Nvidia's DLSS 3.5 and its new "Ray Reconstruction" feature, which replaces traditional hand-tuned denoisers with an AI-trained model. This innovation enhances ray tracing quality by recognizing good pixels, discarding bad ones, and retaining high-frequency details that standard denoisers often blur. Unlike multiple denoisers for different effects, this unified approach improves fidelity and can slightly boost performance in some cases1.

https://www.eurogamer.net/digitalfoundry-2023-nvidia-announces-dlss-35-with-ray-reconstruction-boosting-rt-quality-with-an-ai-trained-denoiser

ChaosTM
2024-12-31, 12:25:31
War auch eher als Beispiel für ein "Killerfeature" gedacht, dass Blackwell interessanter machen würde.
Verbessertes DLSS setzte ich voraus und eventuell mehrere zwischenberechnete Bilder.
Dass man für Denoising (derzeit) ein paar Sampels braucht, was zwangsläufig zu einer Verzögerung führt, hab ich schon mitbekommen. Also bleiben nur mehr Strahlen oder ein völlig neuer Ansatz.
Irgendwas mit "AI" ;)

Ein entsprechendes Trinkspiel bei der Präsentation ist definitiv nicht empfehlenswert. Würde jeden ins Koma verfrachten..

MiamiNice
2024-12-31, 13:10:36
So können die Ansprüche differieren :D. Für mich wäre das Killerfeature, wenn NV alle Ai, Cuda, RT, whatever Features entfernt und die freie Fläche für mehr Raster Power verwenden würde.
Letztlich brauchen meine VR Träume nur Rasterpower ohne Kompromisse.

x-force
2024-12-31, 13:17:24
Letztlich brauchen meine VR Träume nur Rasterpower ohne Kompromisse.

träumst du ausschließlich mit künstlicher beleuchtung? ;D

Thunderburne
2024-12-31, 13:29:36
Einen neuen Qualitätsmodus für DLSS könnte ich mir mit der neuen 5000 Serie vorstellen.
Wo z.b mit weniger Bildinformationen mit 720P oder 1080P ein gleich gutes Bild oder gar besser als DLSSQ 4K über Ki/Neural Rendering erzeugt wird .
Das wäre ein großer Schritt für Pathtracing um die Perfomance bereit stellen zu können die man da für benötigt.

Bin sehr gespannt was uns da erwartet und wie die Features da am Ende aussehen werden.

AffenJack
2024-12-31, 13:29:39
sieht so aus, als käme die 5070ti doch schon zum release der 50 gen., wenn schon fertigpc anbieter die schon im programm haben und das leaken.

ist die 5070ti doch auf gb205 basierend? da man sonst recht früh schon einen relativ starken salvage chip anbietet, wenn man gb203 nehmen würde

Das Ding kann nicht auf GB205 basieren mit 16GB. Ist einfach Produktsegmentierung.

Wuge
2024-12-31, 14:34:47
So können die Ansprüche differieren :D. Für mich wäre das Killerfeature, wenn NV alle Ai, Cuda, RT, whatever Features entfernt und die freie Fläche für mehr Raster Power verwenden würde.
Letztlich brauchen meine VR Träume nur Rasterpower ohne Kompromisse.

Jain. Seit DLSS in MSFS2020 und DLAA in DCS bin ich nicht mehr der Meinung. In DCS von 4x MSAA auf DLAA hat bei gleicher Raster-Power eine erheblich bessere Bildqualität und 20-30% Performance-Uplift gebracht.

BlacKi
2024-12-31, 15:07:52
Das Ding kann nicht auf GB205 basieren mit 16GB. Ist einfach Produktsegmentierung.ja, das hätte ich vorher checken sollen. tatsächlich sind dort aber 2 angaben gemacht worden, 5070ti und in den specs ist von einer 5070ti super die rede. eine super zum release start? sehr komisch. naja, könnte auch alles fake sein und oder fehler beinhalten.

reaperrr
2024-12-31, 18:00:29
sieht so aus, als käme die 5070ti doch schon zum release der 50 gen., wenn schon fertigpc anbieter die schon im programm haben und das leaken.

ist die 5070ti doch auf gb205 basierend? da man sonst recht früh schon einen relativ starken salvage chip anbietet, wenn man gb203 nehmen würde
Die 5080 ist anders als die 4080 Vollausbau, insofern wird der Prozentsatz an GB203, die die 5080-Spec nicht schaffen, auch höher sein.

Außerdem braucht man ne einigermaßen erschwingbare 16GB+-Karte, was mit GB205 nicht geht, solange keine 3GB-G7-Chips breit verfügbar sind.

Thomas Gräf
2025-01-01, 06:08:55
So können die Ansprüche differieren :D. Für mich wäre das Killerfeature, wenn NV alle Ai, Cuda, RT, whatever Features entfernt und die freie Fläche für mehr Raster Power verwenden würde.
Letztlich brauchen meine VR Träume nur Rasterpower ohne Kompromisse.

Bin da voll bei Dir. AAAber wie schon gesagt wurde, es nimmt den Entwicklern viel Arbeit ab wenn die Beleuchtung nicht in endloser Handarbeit erstellt werden muss.
Du weißt das selbst CIG die einen Top Grafik Job machen, siehe Pyro,
auf erstes Raytracing setzen und mit Vulkan implementieren werden.
Und nV weiß das es Methoden braucht um gerade für VR das noch zu berechnen.
Ein Killerfeature wär für mich wenn es möglich wär jedes VR Display mit einer GPU anzusteuern.
Dannoch mit Gf-Kabel Ausgang statt dicke DP Kabel...puhh

Troyan
2025-01-01, 10:09:23
5080 angeblich am 21.01: https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-january-21st

Wenn die Karte als erstes kommt, sollte die schneller sein als eine RTX4090.

MiamiNice
2025-01-01, 10:56:12
Jain. Seit DLSS in MSFS2020 und DLAA in DCS bin ich nicht mehr der Meinung. In DCS von 4x MSAA auf DLAA hat bei gleicher Raster-Power eine erheblich bessere Bildqualität und 20-30% Performance-Uplift gebracht.
Bin da voll bei Dir. AAAber wie schon gesagt wurde, es nimmt den Entwicklern viel Arbeit ab wenn die Beleuchtung nicht in endloser Handarbeit erstellt werden muss.
Du weißt das selbst CIG die einen Top Grafik Job machen, siehe Pyro,
auf erstes Raytracing setzen und mit Vulkan implementieren werden.
Und nV weiß das es Methoden braucht um gerade für VR das noch zu berechnen.
Ein Killerfeature wär für mich wenn es möglich wär jedes VR Display mit einer GPU anzusteuern.
Dannoch mit Gf-Kabel Ausgang statt dicke DP Kabel...puhh

OkOk :)
Trotzdem darf der ganze Ai Käse gerne raus und Raster Power sollte deutlich mehr steigen statt RT Power. Abseits der AAA Games, die von immer weniger Menschen gespielt werden laut Statistik, braucht niemand diese enormen RT Möglichkeiten. Raster Power ist noch immer deutlich wertvoller als RT Power.

Tesseract
2025-01-01, 11:19:33
RT macht den job für developer einfacher, unabhängig davon wie hoch das budget ist.

MiamiNice
2025-01-01, 11:57:55
Ja, und wegen DLSS braucht es weniger Optimierungen. Wegen Ai muss bald niemand mehr eine Story schreiben oder NPCs Texte vorgeben. Vielleicht brauchen wir bald gar keine Entwickler mehr und die Ki übernimmt alles. Dann gibt es noch mehr generischen Bullshit zum spielen. Als hätten wir noch nicht genug davon.
Mein Tip wäre einfach weniger Optik zu produzieren. Wir sind schon lange auf einem Stand, der für Spiele mehr als nur ausreicht. So lange VR in der Masse nicht ankommt, wird es Richtung Holo Deck auf nicht weiter gehen. Also einfach grafisch bissel zurück drehen und wieder mehr Spielinhalte liefern. Das macht den Job für die Devs auch einfacher und günstiger und alle haben was davon :D

ChaosTM
2025-01-01, 12:24:11
Ja, und wegen DLSS braucht es weniger Optimierungen. Wegen Ai muss bald niemand mehr eine Story schreiben oder NPCs Texte vorgeben. Vielleicht brauchen wir bald gar keine Entwickler mehr und die Ki übernimmt alles. Dann gibt es noch mehr generischen Bullshit zum spielen. Als hätten wir noch nicht genug davon.



Das ist die Zukunft!
Es wird noch viel schlimmer, bevor es wieder besser wird und AGI`s wieder gute Sachen produzieren. ;)

Nein - RT ist der einzige Weg nach vorne

00-Schneider
2025-01-01, 12:53:09
5080 angeblich am 21.01: https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-january-21st

Wenn die Karte als erstes kommt, sollte die schneller sein als eine RTX4090.


Boah, hoffentlich ist der zeitliche Abstand zur 5090 nicht zu groß. Kein Bock, dass die erst Ende Februar oder noch später kommt.

prinz_valium_2
2025-01-01, 13:01:00
Wichtig ist, dass die 5080 länger vor der 5070TI kommt, weil dort der Abstand am geringsten ist.
Gerade mit Undervolting sollte die 5070TI sehr nach an die 5080 ran kommen, falls das Power Budget doch mal limitiert.

Ansonsten ist der Abstand zwischen den einzelnen Klassen diese Generation (zumindest auf dem Papier) so groß wie noch nie. Also kommt man sich da nicht in die Queere.

dildo4u
2025-01-01, 13:07:40
Der Preis Unterschied ist auch immens 4070s zu TI Super sind nur 15% Leistung für 30% Aufpreis, das wird sich nicht ändern bei der 5000 Serie wenn die TDP stimmen.
Nvidia weiß das Leute in der Klasse für 16GB draufzahlen.

Sardaukar.nsn
2025-01-01, 13:08:16
Die TI und Super Modelle kommen doch immer erst deutlich später auf den Markt. Darauf zu warten hat mmn noch nie wirklich Sinn gemacht, da sie schneller wieder veraltet sind.

BlacKi
2025-01-01, 13:14:50
sieht so aus, als kämen die 5070ti und die 5080 zuerst. nicht umsonst wurden genau diese pcs geleakt. die sind wohl als erstes ready zum verkauf. so zumindest meine interpretation der leaks.

dildo4u
2025-01-01, 13:16:20
Es gibt Leaks zu 5070TI die wird recht Bald kommen, da Nvidia vermutlich erwartet das dort AMD RDNA4 Landet.

Tesseract
2025-01-01, 13:18:54
Also einfach grafisch bissel zurück drehen und wieder mehr Spielinhalte liefern.

genau das bekommt man mit RT aus entwicklersicht. :rolleyes:

wenn ein großer teil des budgets in eine horde mitarbeiter geht die den ganzen tag nix anderes machen als für raster händisch sekundärlichtquellen zu plazieren weil der algorithmus zu "dumm" dafür ist muss alles andere zurückstecken... oder wird einfach teurer.

MiamiNice
2025-01-01, 14:16:16
Das ist genau das, was ich auch immer sage. Zu viele Entwicklern kümmern sich um belangloses, halt Grafik. Meines Wissen nach, macht es RT aber mur noch schlimmer. Es soll ein großer Aufwand sein dieses mixed Rendering stimmig zu bekommen. Der Effekt den Du beschreibst tritt, imo, ein, wenn wir komplett auf Strahlen sind und nicht mehr gerastert wird. Der Rechenaufwand dafür ist allerdings derart hoch, dass wir noch wir einige NV Gens bis dahin sehen werden. Haben wir bis dahin weiterhin miese Games, weil kein Geld mehr über bleibt wegen RT/PT?
Die nächste Frage darauf folgt dann instant: Meinst Du wirklich wenn dann irgendwann Geld gespart werden kann, fließt dieses Geld/Zeit in das Spiel oder bleibt es eher auf dem Konto des Studios?

Relex
2025-01-01, 14:20:17
Hä? Mit z.B. UE5 Lumen tritt der Effekt doch längst ein, dass keine Fake Lichtquellen mehr platziert werden müssen, um das Level auszuleuchten. Und das läuft nicht erst „morgen“, sondern seit „gestern“ auf Konsolen…

ChaosTM
2025-01-01, 14:23:54
Die Strahlen müssen nicht einzeln verlegt werden. Das machen Engines wie die UE5 (Lumen) ganz von alleine..
Ist noch nicht perfekt und kostet oft massig Rechenleistung, keine Frage, aber erspart definitiv Arbeit.

x-force
2025-01-01, 14:25:40
Das ist genau das, was ich auch immer sage. Zu viele Entwicklern kümmern sich um belangloses, halt Grafik. Meines Wissen nach, macht es RT aber mur noch schlimmer.

soll es gerade mit ue und den ganzen tools nicht immer einfacher werden?

Troyan
2025-01-01, 14:43:11
Das ist genau das, was ich auch immer sage. Zu viele Entwicklern kümmern sich um belangloses, halt Grafik. Meines Wissen nach, macht es RT aber mur noch schlimmer. Es soll ein großer Aufwand sein dieses mixed Rendering stimmig zu bekommen. Der Effekt den Du beschreibst tritt, imo, ein, wenn wir komplett auf Strahlen sind und nicht mehr gerastert wird. Der Rechenaufwand dafür ist allerdings derart hoch, dass wir noch wir einige NV Gens bis dahin sehen werden. Haben wir bis dahin weiterhin miese Games, weil kein Geld mehr über bleibt wegen RT/PT?
Die nächste Frage darauf folgt dann instant: Meinst Du wirklich wenn dann irgendwann Geld gespart werden kann, fließt dieses Geld/Zeit in das Spiel oder bleibt es eher auf dem Konto des Studios?

Kauf dir eine Switch. Dann ist Grafik nicht mehr relevant.

robbitop
2025-01-01, 14:50:18
genau das bekommt man mit RT aus entwicklersicht. :rolleyes:

wenn ein großer teil des budgets in eine horde mitarbeiter geht die den ganzen tag nix anderes machen als für raster händisch sekundärlichtquellen zu plazieren weil der algorithmus zu "dumm" dafür ist muss alles andere zurückstecken... oder wird einfach teurer.

Muss man für die Current Gen Ports ohnehin machen. Das wird erst was bringen wenn es zur Minimum Requirement für alle Plattformen wird. PS6/Switch 3…?
Solche Arbeiten kann man bestimmt aber auch ein trainiertes NN machen lassen ^^

Tesseract
2025-01-01, 14:58:08
Zu viele Entwicklern kümmern sich um belangloses, halt Grafik. Meines Wissen nach, macht es RT aber mur noch schlimmer.

dann bist du falsch informiert. RT ist auf lange sicht viel einfacher und billiger für developer. bei raster ist alles "mixed" wo zig verschiedene algorithmen zig verschiedene probleme lösen, und das für jede ecke im spiel per hand. hybride renderer vereinfachen das etwas und reines RT noch mehr. kompliziert ist das nur für eine handvoll leute die low level an der engine arbeiten.

Das wird erst was bringen wenn es zur Minimum Requirement für alle Plattformen wird. PS6/Switch 3…?

in den interviews von mark cerny hört man ziemlich deutlich raus dass RT für die PS6 ein zentrales thema werden wird.

Troyan
2025-01-01, 15:26:09
Mobile 5060 ist 32% schneller im Timespy als die mobile 4060 (entspricht 1:1 Desktop) und auch schneller als die 4060TI Desktop: https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

TDP soll 115W sein. Wären also 30% Effizienzgewinn.

Wex
2025-01-01, 16:11:48
Mobile 5060 ist 32% schneller im Timespy als die mobile 4060 (entspricht 1:1 Desktop) und auch schneller als die 4060TI Desktop: https://videocardz.com/newz/nvidia-geforce-rtx-5060-laptop-gpu-3dmark-leak-shows-33-increase-over-rtx-4060

TDP soll 115W sein. Wären also 30% Effizienzgewinn.

Echt ein geiler Sprung wenn die Zahlen so stimmen. Leider weiter mit nur 8gb VRam