PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Radeonfreak
2024-10-20, 13:54:13
War doch von vornherein klar. :rolleyes:

ChaosTM
2024-10-20, 14:04:35
Ja, aber trotzdem enttäuschend. Dachte schon ich könnte im Winter völlig auf die Heizung verzichten..

Wake
2024-10-20, 15:05:27
Welche Lüfter (https://cdn.videocardz.com/1/2024/10/SEGOTEP-COLORFUl-768x536.jpg) sind das?

Segotep HQ-12 Pro MEOW passend zum Case.

Gouvernator
2024-10-20, 16:59:23
Da Nvidia knausrig mit VRAM umgeht:
Wenn IMC & PHY von Blackwell die 40-42Gbps packen (was ich nicht erwarte), könnte ich mir ein paar Stunts vorstellen ;D
- Wer will eine 192bit 5080 Super mit 18GByte? (GB203)
- Wer will eine 160bit 5070 Super mit 15GByte? (GB205)
- Wer will eine 128bit 5060 Ti Super mit 12GByte? (GB206)
- Wer will eine 96bit 5060 Super mit 9GByte? (GB207)
Wenn Preis\Stromverbrauch stimmen, würde ich 18GB nehmen. Habe gerade festgestellt, man kann diese Dinger per Thunderbolt als eGPU an jedes mobile Gerät anschließen. So ein KI-Powerhouse einfach per USB Kabel ist schon sweet.

ashantus
2024-10-22, 22:11:10
Löschen.

Raff
2024-10-22, 22:24:21
Doch, hat es. Spiele mit UE brauchen fast immer weniger als Spiele mit vergleichbarer Grafik mit anderer Engine.
Andere lernen aber auch dazu. Forbidden West etwa kam zum Start mit weniger VRAM besser zurecht als Zero Dawn. Trotzdem ist man mit 12GB natürlich weit von sorglos in der Breite der Titel entfernt, da Müll wie Diablo 4 oder Ratchet & Clank halt auch zur Realität zählt.

Nicht alles, was eine Speichermenge der Vergangenheit sprengt, ist ineffizient oder gar Müll. Nach ein paar Jahren muss sich die Hardware einfach weiterentwickeln. Am Rande bemerkt: Die erste Grafikkarte mit 12 GiByte Speicher wird in wenigen Monaten 10 Jahre alt! Wenn Nvidia wirklich wieder eine Mittelklasse mit 8 GiByte bringt, wäre das eine fatale Bremse, die hoffentlich von AMD und Intel kassiert wird. Wir sollten alle verfügbaren Daumen drücken, dass SKUs mit 3-GiByte-Chips kommen.

MfG
Raff

aufkrawall
2024-10-22, 22:44:16
Nicht alles, was eine Speichermenge der Vergangenheit sprengt, ist ineffizient oder gar Müll.
Die genannten Beispiele sind es garantiert. Das kaputte GPU DirectStorage hat Nixxes ja deshalb auch schon beerdigt.
Ratchet & Clank braucht auf Sargasso auch ca. ohne RT so viel Leistung wie Fortnite @Lumen/VSM high, mit lächerlicher Geometrie, grütziger Beleuchtung, und braucht dabei auch noch locker kranke 50% mehr VRAM. ;D

bbott
2024-10-22, 22:49:46
Nicht alles, was eine Speichermenge der Vergangenheit sprengt, ist ineffizient oder gar Müll. Nach ein paar Jahren muss sich die Hardware einfach weiterentwickeln. Am Rande bemerkt: Die erste Grafikkarte mit 12 GiByte Speicher wird in wenigen Monaten 10 Jahre alt! Wenn Nvidia wirklich wieder eine Mittelklasse mit 8 GiByte bringt, wäre das eine fatale Bremse, die hoffentlich von AMD und Intel kassiert wird. Wir sollten alle verfügbaren Daumen drücken, dass SKUs mit 3-GiByte-Chips kommen.
Die 3GB kommen hoffentlich nicht, das bedeutet nämlich, daß NV weiterhin am RAM sparen kann. Nun nur etwas flexibler, aber immer noch auf der Bremse stehend. Der Druck endlich auf 4 GB sinkt wieder deutlich...

Intel und AMD können mit ~15% Marktanteil auch nichts mehr bewegen. Die Würfel sind gefallen. Solange AMD feature mäßig nicht ein Patt oder besser erreicht, bei besserer Performance, solange wird es eher schlimmer. Das Szenario halte ich für sehr unwahrscheinlich. Der Martanteil wird nur steigen wenn AMD wieder mehr bietet als NV.

BlacKi
2024-10-23, 09:10:21
sieht so aus, als wäre gddr7 sogar sparsamer als gddr6 nicht nur sparsamer als gddr6x.
https://videocardz.com/newz/nvidia-blackwell-gb203-gpu-allegedly-pictured-expected-to-power-the-rtx-5090-5080-laptop-series

generell sieht es danach aus, als wäre blackwell ne ecke sparsamer als ada. ob man davon was auf den desktop übertragen kann? zumindest wenn man bedenkt, das nv scheinbar keine not sieht den verbrauch im notebook zu erhöhen um die gewünschte performance zu erhalten, stattdessen sogar senkt..

dildo4u
2024-10-23, 09:26:27
Laut dem Mooers Law Video nimmt die 5080 weiterhin 175 da ändert sich nix.

Das Modell auf der Clevo Tabelle ist die 5070 ? mit 12GB 192 Bit.

Zossel
2024-10-25, 07:07:30
Ein Designfehler bei Nvidias Blackwell führte zu mangelhafter Chipausbeute bei der Produktion und monatelangen Verzögerungen. Jetzt gibt der CEO Entwarnung.

https://www.heise.de/news/Blackwell-Nvidias-Designfehler-bei-KI-Beschleunigern-wurde-dank-TSMC-behoben-9992469.html

basix
2024-10-25, 09:04:42
Die 3GB kommen hoffentlich nicht, das bedeutet nämlich, daß NV weiterhin am RAM sparen kann. Nun nur etwas flexibler, aber immer noch auf der Bremse stehend. Der Druck endlich auf 4 GB sinkt wieder deutlich...

Du denkst da falsch. Wenn 3GB Module nicht kommen, gibt es einfach weiterhin 8GB (128bit) & 12GB (192bit) Karten. Die 3GB Module werden 8GB zu 12GB machen und 12GB zu 15/18GB. Genau dort, wo es am meisten benötigt wird. 16GB auf einer 128bit Karte sind Overkill. 16 GByte Highend Karten gehen auf 21/24 GByte, was auch in 4K und VRAM-Fresser-Spielen sorglos ist.

3GB Module sind das beste, was dem Kunden hinsichtlich VRAM-Menge passieren kann. Auch sehr schwer bei Mobile, wo man kein Clamshell verbauen kann/will. 4GB Module hätte ich zwar auch gerne, aber das würde nur zu noch höheren GPU-Verkaufspreisen führen.

gnomi
2024-10-25, 09:15:31
12 GB in der 70er Serie dürften bis zum Refresh (2026) auch noch reichen.
Benutzt ja eh bald jeder UE5 und die PS5 Pro hat mengenmäßig auch kein VRam Update verpasst bekommen.

Zossel
2024-10-29, 20:21:22
Das ist das Ende von NV, Gartner hat KI in den "falschen" Quadranten geworfen:
[l] Oh, da dreht aber der Wind gerade! Gartner (!) warnt vor "KI"-Projekten.

“The truth is that you’ve been in the mud for the last year, working hard to find all those benefits that were promised by AI,” said Hung LeHong, distinguished VP analyst and Gartner Fellow, during the keynote session. “It hasn’t been easy.”

Hätte uns doch nur rechtzeitig jemand gewarnt!1!!
https://blog.fefe.de/?ts=99de1b4c

Thomas Gräf
2024-10-29, 21:28:38
Könnte mir vorstellen das da die ihre "Geschäftsmodelle" wiedermal einer verklärten Fantasie entspringen.
In der Wissenschaft und Forschung ist KI sicherlich gut untergebracht,
aber da ist kein schnelles Geld zu machen.

Daredevil
2024-10-29, 21:45:17
Die Roboter der Zukunft benötigen eine gewisse Intelligenz und somit ist hier natürlich der erste derjenige, der gewinnt. Elon wirft doch nicht für Grok aber Milliarden in Jensens Rachen und damit am Ende Bildchen zu generieren. Vielleicht muss man auch einfach ein paar Jahre in die Zukunft schauen.

Sicher ist aber natürlich, das nach dem Cloudzeitalter das Clientzeitalter kommt, wenn die Consumer Chips schnell genug für simple Aufgaben sind ( Neural Engine ). Die dicken Berechnungen kommen aber nicht vom iPhone, sondern von z.B. xAI, wo quasi unendlich Geld zur Verfügung steht.
100k H100 sind ja bereits lauffähig, man will jedoch die Kapazitäten nochmal verdoppeln.

https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/64758-colossus-ki-supercomputer-nvidia-und-xai-loben-gegenseitig-zusammenarbeit.html
Jf8EPSBZU7Y

Spannend allerdings, dass die die komplette Kiste in nur knapp 4 Monaten hochgezogen haben. Die H100 Lager bei Supermicro sind also offenbar voll? :D
Elon hätte sicherlich auch gerne Blackwell genommen. Ihr wisst ja, the more you buy the more you save.

Slipknot79
2024-10-29, 23:32:01
Wäre ein Quantencomputer nicht schneller und billiger gewesen? Oo

Thomas Gräf
2024-10-30, 03:59:22
Mit Sicherheit. :biggrin:
Wer als erster mit popliger Silizium Technik dank KI mit Quantencomputer statistisch gute Ergebnisse erzielt wird King sein.
Alle anderen guggen dann blöd aus der Wäsche.

@Daredevil auf Consumer Chips würde ich mich nicht mehr verlassen.
Sollte China ernst machen gibt es TSMC für uns nicht mehr.
Und das wir nicht wieder gut zu machen sein.

Troyan
2024-11-05, 10:25:46
"Soon":
https://videocardz.com/pixel/geforce-rtx-50-blackwell-to-be-unveiled-soon-claims-leaker

Kriegsgeier
2024-11-05, 10:59:19
Ja, der Jensen soll endlich mal die Katze aus dem Sack lassen, denn die Leute müssen ja anfangen zu sparen ;)

Je mehr man kauft desto mehr spart man, oder?

Prinzenrolle
2024-11-05, 11:14:04
"Soon":
https://videocardz.com/pixel/geforce-rtx-50-blackwell-to-be-unveiled-soon-claims-leaker

Ja, am 27.11, vielleicht.

The_Invisible
2024-11-05, 11:18:11
Ja, der Jensen soll endlich mal die Katze aus dem Sack lassen, denn die Leute müssen ja anfangen zu sparen ;)

Je mehr man kauft desto mehr spart man, oder?

Im Dezember kommt eh Weihnachtsgeld, was macht man sonst mit der Kohle :freak:

Leonidas
2024-11-05, 11:47:41
Frage ist, ob wir soon Vorab-Daten zu den Karten bekommen - oder eine offizielle Vorstellung. Differenz: 1-2 Monate beim realen Launch-Termin.

Will sagen: Eventuell gibt es "soon" auch nur die vollständigen Karten-Daten, aber rein inoffiziell und ohne Änderung am 2025er Termin.

maximus_hertus
2024-11-05, 12:03:52
Imo könnte das so ausgehen:

Ende November (vor dem Black Friday): Keynote / Launch der RTX 5000 (allgemeine Infos) und Vorstellung RTX 5090

Black Friday / Holiday Season: Entweder indirekt über die Partner oder offiziell - Sonderangebote / Abverkauf 4080S / 4070 / 4070 Ti S / 4070 Ti (keine riesigen Rabatte, die Zeit ist vorbei, jedoch hier und da ggf. ca. 50 Euro weniger). Ggf. Ankündigung auf dem 5090 "Event".

Irgendwann Dezember (ca. 2 Wochen nach dem Event): Reviews der 5090 und Verkaufsstart der 5090 FE

Ende Dezember / Anfang Januar: Verkaufsstart Custom 5090 (ASUS und Co können dann die CES als Bühne nehmen um ihre Customkarten anzupreisen)

CES: "Launch" 5080 und 5070

Mitte Januar: Review und Verkaufsstart 5080

Ende Jan / Anfang Feb: Review und Verkaufsstart 5070


So bleibt nV von Ende Nov bis Feb mehr oder weniger durchgängig Thema bei den "Gamern".

BlacKi
2024-11-05, 12:06:36
So bleibt nV von Ende Nov bis Feb mehr oder weniger durchgängig Thema bei den "Gamern".
naja, ich sehe das kontraproduktiv, solange man nicht vom konkurenten ablenken will. in diesem fall ist das thema hochzuhalten schlecht für die aktuellen grafikkartenverkäufe. zumindest tendenziell.

Thomas Gräf
2024-11-05, 12:06:52
Das dauert weil ein KI Cluster noch die Preise berechnen muss...

Lurtz
2024-11-05, 12:08:52
Mich interessiert eigentlich nur die nächste KI-Wunder-Technologie und ob sie RTX 5000 exklusiv wird oder nicht.

Kriegsgeier
2024-11-05, 12:13:15
Jensen muss unbedingt ALLE mögliche und unmögliche KI-Berechnungsmöglichkeiten auf den Gaming-GPUs deaktivieren und das am besten in Hardware. Sonst kaufen die Serverfarmen uns die Gamingkarten weg!

Sardaukar.nsn
2024-11-05, 12:18:00
Mich interessiert eigentlich nur die nächste KI-Wunder-Technologie und ob sie RTX 5000 exklusiv wird oder nicht.

Sehe ich ähnlich. Rein von der Leistung her steht die 4090 einfach noch zu gut im Saft und auch eine 5080 wird da wahrscheinlich nicht dran kommen. Blackwell steht und fällt damit wohl mit seinen möglichen Features.

Radeonfreak
2024-11-05, 12:20:26
+1

Im Dezember kommt eh Weihnachtsgeld

Was fürn Ding? :confused:

MiamiNice
2024-11-05, 12:26:14
Ist was hochdeutsches ;)

rentex
2024-11-05, 15:30:16
+1



Was fürn Ding? :confused:

13tes Monatsgehalt...kommt bei mir Ende November schon.

bbott
2024-11-05, 23:17:26
Jensen muss unbedingt ALLE mögliche und unmögliche KI-Berechnungsmöglichkeiten auf den Gaming-GPUs deaktivieren und das am besten in Hardware. Sonst kaufen die Serverfarmen uns die Gamingkarten weg!
Also auch DLSS?! :freak:

Thomas Gräf
2024-11-06, 01:38:32
Also auch DLSS?! :freak:

Na klar :biggrin:
Ein richtiger Pixelschubser braucht sowas nicht.
Fährt Lederjacke nich ne Harley?
Also Hubraum rein in die 5090, dat muss Kesseln sacht man in DE. :freak:

Wuge
2024-11-06, 14:04:39
Haha Hubraum statt Beinfreiheit ;)
Aber DLSS macht schon was her. Das darf bleiben...

Hakim
2024-11-06, 14:48:44
Ich würde ein FG ohne den Input lag begrüßen. In der jetzigen Form ist es für mich irgendwie Fake Fps, was hab ich von der höheren fps die man insbesondere in Schnellen online spielen haben will wenn der Input dennoch kacke ist

Sardaukar.nsn
2024-11-06, 16:52:53
Bei diesen High-FPS competitive Shootern reden wir doch eh schon über mehrere hundert FPS. Da braucht es keine Frame Generation. Triple-A singleplayer Spiele wie CP2077 oder Wukong inkl. RT da ist es schon der Gamechanger wenn du statt 50 jetzt 80 FPS hast.

The_Invisible
2024-11-06, 16:59:18
13tes Monatsgehalt...kommt bei mir Ende November schon.

In Österreich ist es das 14. :freak:

Aber ja, Lederjacke soll endlich mit Infos rausrücken :D

Nightspider
2024-11-08, 12:37:37
Kurze Frage:

Hopper gab es jetzt exclusiv nur mit Intel Xeon Plattform oder?

Oder betraf das jetzt nur die DGX Variante?

Nvidia entscheidet sich beim kommenden Serversystem DGX H100 gegen Prozessoren von AMD und für Intel. Zum Einsatz kommen zwei CPUs aus der Xeon-SP-Baureihe Sapphire Rapids, die im Laufe dieses Jahres nach reichlich Verspätung erscheinen soll und das benötigte PCI Express 5.0 mitbringt.

Gibts schon Infos ob Nvidia bei Blackwell auf Xeons oder EPYC setzen wird?

Die neuen Xeons sind ja sehr solide aber gegen Turin und Turin Dense sehen sie schon wieder etwas veraltet aus.

basix
2024-11-08, 12:46:43
Es ist nicht so, dass AMD dort raus ist: HGX und MGX Systeme können schon mit AMD CPUs gekoppelt werden. Das ist eine Sache der OEM-Partner und Kundennachfrage, weniger eine Entscheidung von Nvidia.
https://pics.computerbase.de/1/1/4/4/5/3-faafd222cf09b201/30-2160.b3702578.png

DGX ist mir nicht ganz klar bei Blackwell, das scheint auf mittlerweile veraltete Xeon Platinum 8570 zu setzen und Nvidia will wohl eh Grace basierte Systeme pushen.
https://www.nvidia.com/en-us/data-center/dgx-b200/

Nightspider
2024-11-08, 13:07:41
Okay, danke.

Zossel
2024-11-13, 10:45:44
Jetzt ist auch Gartner (Nein! - Doch! - Ohh!) darauf gekommen das KI durch Strommangel gebremst werden wird, sicherlich wird sich das auch auf die Absätze entsprechender Chips auswirken.

https://www.derstandard.at/story/3000000244641/energieverbrauch-von-ki-fuehrt-zu-hoeheren-strompreisen-und-engpaessen

YeahBuoy!
2024-11-13, 11:13:54
Interessanterweise ist das nicht nur in Europa ein Problem (@Stromverbrauch) sondern auch in den USA wo die überwältigende Mehrheit der Kernkraftwerke aus den 60-70er Jahren stammt und bislang zwar immer wieder die Betriebserlaubnis verlängert wurden, aber es eigentlich sofort Zeit würde neu zu bauen (--> Stichwort Versprödung von Bauteilen) was wiederum aus Profitabilitätsgründen der Energieversorger nicht passiert. Vor dem Hintergrund versteht man dann auch warum bspw. Microsoft oder Amazon mit MikroAKWs liebäugeln um die Datacenter zukünftig am Laufen zu halten.

Zossel
2024-11-13, 15:37:40
Interessanterweise ist das nicht nur in Europa ein Problem (@Stromverbrauch) sondern auch in den USA wo die überwältigende Mehrheit der Kernkraftwerke aus den 60-70er Jahren stammt und bislang zwar immer wieder die Betriebserlaubnis verlängert wurden, aber es eigentlich sofort Zeit würde neu zu bauen (--> Stichwort Versprödung von Bauteilen) was wiederum aus Profitabilitätsgründen der Energieversorger nicht passiert. Vor dem Hintergrund versteht man dann auch warum bspw. Microsoft oder Amazon mit MikroAKWs liebäugeln um die Datacenter zukünftig am Laufen zu halten.

Die im Bericht genannten "500 Terawattstunden pro Jahr" entsprechen ungefähr der Jahresstromproduktion Deutschlands.
Allerdings werden dann hoffentlich schneller als gedacht Advanced Packaging Kapazitäten für sinnvolle Dinge frei :-)
Kein Mensch wird Chips kaufen für es keinen Strom gibt.

Gouvernator
2024-11-14, 01:56:59
Ich bin am meisten auf AI Modelle gespannt. Für eine lokale Llama Version von NotebookLM braucht man etwa 140GB. Quasi das wirklich usable Modell mit 70B = 140GB.
https://github.com/meta-llama/llama-recipes/tree/main/recipes/quickstart/NotebookLlama

konkretor
2024-11-14, 20:55:45
https://github.com/exo-explore/exo das verteilt es über alle deine Geräte.

Wir haben doch für so etwas einen extra Thread.

DrFreaK666
2024-11-18, 10:27:35
NVIDIA To End Production of GeForce RTX 4070, 4070 Ti & 4070 SUPER By End of 2025 To Make Room For RTX 5070
https://wccftech.com/nvidia-end-production-geforce-rtx-4070-4070-ti-4070-super-end-of-2025-for-rtx-5070/

Dauert wohl noch etwas bis 5070

basix
2024-11-18, 11:06:01
Ich würde auf einen Typo tippen. Ende 2025? GB205 wird kleiner als AD104 werden und gleiche und evtl. sogar etwas mehr Performance bieten. GDDR7 vs. GDDR6 ist allenfalls noch ein Sourcing-Thema aber da die alten (und damit schlecht verkaufbaren) Karten noch 1 Jahr weiter zu produzieren? Unwahrscheinlich.

Im Artikel-Text wird von Ende Dezember gesprochen und dass die 5070 im Februar kommen wird. Deutet also eher auf Ende 2024 anstatt 2025 hin ;)

HOT
2024-11-18, 11:32:44
Sicher einfach ein Schreibfehler.

BlacKi
2024-11-18, 12:14:43
ja, aber warum soll man die 4070 aus dem markt nehmen die kein konkurent zur 5070 ist?

die 4070ti schon eher, aber bei der karte werden verkaufszahlen eh schon kaum vorhanden sein.

wenn man die 4070- 4070ti aus dem markt nehmen will, dann ersetzt man sie mit 5060er modellen. die 5070 wird eher 4080 performance haben, und dort scheint man noch genug zu produzieren.

also typo + falsche annahme...

basix
2024-11-18, 12:57:43
ja, aber warum soll man die 4070 aus dem markt nehmen die kein konkurent zur 5070 ist?

Weil GB205 ein kleineres Die aufweist und entsprechend günstiger sein wird?

Ich sehe es so: GB205 wird 4070 bis 4070 Ti ersetzen. Ähnliche Performance wie AD104 (48 vs. 60 SM), gleich viel VRAM, kleineres Die, weniger Verbrauch, allenfalls einfacheres PCB (GDDR7 vs. GDDR6X?), allenfalls Blackwell only Features (who knows), erweiterte Tensor-Cores (je nach Datenformat mehr AI-Bumms als AD104)

Die 4070 macht da keinen Sinn mehr oder eben AD104 generell nicht mehr.

HOT
2024-11-18, 15:28:13
Leute, die GB205 kommt im Februar für Notebooks (wie alle SKUs), der kommt auch für Desktop dann eben im März. Und die 5070Ti ist ja GB203-Basis, wird also auch kurz nach der 5080 erscheinen, wahrscheinlich Februar.

AffenJack
2024-11-18, 16:13:16
ja, aber warum soll man die 4070 aus dem markt nehmen die kein konkurent zur 5070 ist?

die 4070ti schon eher, aber bei der karte werden verkaufszahlen eh schon kaum vorhanden sein.

wenn man die 4070- 4070ti aus dem markt nehmen will, dann ersetzt man sie mit 5060er modellen. die 5070 wird eher 4080 performance haben, und dort scheint man noch genug zu produzieren.

also typo + falsche annahme...

Natürlich ist die 4070 ein Konkurrenz der 5070. der Preisbereich wird da jetzt nicht riesig von abweichen. Vielleicht 650$, statt 600$.

Nvidia senkt seit Generationen schon keine Preise mehr beim Abverkauf. Die 4070 läuft aus und drunter ist die 4060Ti solange, bis die 5060 kommt. Wenn die 5070 nen besseres Preis/L als die 4060TI hat, dann nutzt das Nvidia nur fürs Upselling, um die Nutzer zu den teureren Karten zu treiben.

Wie Basix schon schreibt, hat man mit GB205 jetzt sogar extra nen kostengünstiges Die, was für eine 5070Ti nicht mehr genutzt werden kann, wie bei der 4070Ti.



Ich sehe es so: GB205 wird 4070 bis 4070 Ti ersetzen.


4070Ti sehe ich GB203 als Ersatz mit der 5070Ti. Das wird GB205 nicht schaffen. Mit GB203 hat man ne bessere Segmentierung.

GB203: 5080, 5070Ti
GB205: 5070, 5060Ti?
GB206: 5060TI? 5060

HOT
2024-11-18, 16:41:47
Konkurrenz ist das falsche Wort, das ist eben die nächste Generation. Ne 5070 wird der 4070 folgen und ein paar % mehr Leistung zu gleichem Preis bringen. GB205 hat ja auch nur 50SMs während der AD104 60SMs auf die Waage bringt. Mehr als 4070 Super-Leistung wäre also eher verwunderlich für die 5070.

mocad_tom
2024-11-18, 18:01:04
Bei nvidia beginnt das Geschäftsjahr im Februar.
Und ab Februar sind sie dann praktisch in ihrem Wirtschaftsjahr 2026.
Weil sie am 31. Januar 2026 das Geschäftsjahr 2026 abschließen.
Die Quartale laufen bei ihnen auch anders.

Von 01.02.2025 bis 30.04.2025 ist Quartal 1 2026

Sie sind jetzt im Q4 2025 und schließen dieses Quartal am 31.01.2025 ab.

basix
2024-11-18, 18:51:39
4070Ti sehe ich GB203 als Ersatz mit der 5070Ti. Das wird GB205 nicht schaffen.

Mit ersetzen meinte ich gleiche Performance. Nicht als Generationen-Nachfolger. GB205 wird AD104 Performance liefern. 50 vs. 60 SM wird man wohl schaffen und mit GDDR7 hat man allenfalls noch einen Vorteil bei der Bandbreite. Eine 4070 Ti sollte man also schon ersetzen können.

Leonidas
2024-11-22, 17:26:46
GB202 soll 744mm² groß sein:
https://x.com/Zed__Wang/status/1859979651206303884

lilgefo~
2024-11-22, 18:33:35
GB202 soll 744mm² groß sein:
https://x.com/Zed__Wang/status/1859979651206303884

Hallo Pathtracing mit spielbaren fps.

mczak
2024-11-22, 18:34:25
GB202 soll 744mm² groß sein:
https://x.com/Zed__Wang/status/1859979651206303884
Da bleibt man ja locker unter dem Reticle Limit :-). Für einen x02 Chip aber schon sehr gross, nur TU102 war da noch (minim) grösser.

Altehardware
2024-11-22, 18:55:13
Das lässt aber nur den Schluss zu das die 512bit nicht stimmen können das Si wird seit n6 nicht mehr kleiner
Es müsste dann 256bit sein die irgendwie per dual channel angebunden sind das frisst bei cpu auch weniger chipfläche
Wäre aber ziemlich gewagt

aceCrasher
2024-11-22, 20:25:23
Das lässt aber nur den Schluss zu das die 512bit nicht stimmen können das Si wird seit n6 nicht mehr kleiner
Es müsste dann 256bit sein die irgendwie per dual channel angebunden sind das frisst bei cpu auch weniger chipfläche
Wäre aber ziemlich gewagt
Wieso sollte kein 512bit gehen?

HOT
2024-11-22, 22:16:26
GB202 soll 744mm² groß sein:
https://x.com/Zed__Wang/status/1859979651206303884

Hab ich mir schon lange gedacht, dass das Ding gewaltig wird.

ChaosTM
2024-11-22, 22:21:09
Wie groß war ADA im Vergleich?

aceCrasher
2024-11-22, 22:23:50
Wie groß war ADA im Vergleich?

AD102 war 608mm2 groß.

The_Invisible
2024-11-22, 22:27:13
Nice, nice, bekommt man wenigstens was für sein Geld :D

Slipknot79
2024-11-23, 03:21:49
Man kann damit bald den Badezimmerboden auskleiden (und bekommt sogar eine Fußbodenheizung geliefert). (y)

Altehardware
2024-11-23, 05:45:37
nun ad102 hat 609mm² davon sind 55% Si Anteil grob 334mm² das ist Si mit analog Anteil (pcie lanes)
daraus folgt das man maximal bei 216 alu block und L2 cache mit skaliert etwa 780mm² bis 823mm chip wird. bei ner alu Si Anteil von 40-60
Die 744mm² sagen eindeutig 384bit +pcie5x8 oder 256bit pcie5 x8 mit dual channel
Das es ein monolith wird ist überraschend den mit mcm wären 744mm² zu groß ein 512bit mit si Die wären bei 480mm² und der alu chip grob 430mm²
Damit habe ich eigentlich fest gerechnet
Den cache zu kürzen bringt nix da dieser mit skaliert vom node und die Einsparung zu gering wäre.
Und n4p spart kaum chipfläche ein maxed gibt tsmc 6% an für den alu Anteil das Si skaliert gar nicht mehr
Das sieht man auch vs turing in n12 node 45% des 754mm² chip ist Si +- 339mm²
Die turing arch ist aber anders designt da teile des Si in der Mitte liegen (pcie3 x16 crossbar)

horn 12
2024-11-23, 08:57:46
Und welche Performance kann man somit bitte anpeilen:
4080 plus ... 20%
4090 plus ... 30%

Kann dies hinkommen oder komplett daneben?

dildo4u
2024-11-23, 09:28:37
Und welche Performance kann man somit bitte anpeilen:
4080 plus ... 20%
4090 plus ... 30%

Kann dies hinkommen oder komplett daneben?
Nein die 5080 legt gar nicht zu die 5090 wird deutlich größer 10 vs 21k Cuda Cores.

https://videocardz.com/newz/nvidia-geforce-rtx-5090-gb202-gpu-die-reportedly-measures-744-mm2-20-larger-than-ad102

Ich Tippe auf +10% für 5080 und +50% für 5090.
Daher nimmt man an das wir von 1k vs 2k Euro sprechen.

rentex
2024-11-23, 10:50:42
Welche Basis? Kommend von der 4090, +10% für die 5080 und +50% für die 5090?

Prinzenrolle
2024-11-23, 10:55:37
Etwa 30% für die 5080 vs 4080 und rund 70% für die 5090 vs 4090.:eek:

fondness
2024-11-23, 10:55:52
GB202 soll 744mm² groß sein:
https://x.com/Zed__Wang/status/1859979651206303884

In welchem Fertigungsprozess?

ChaosTM
2024-11-23, 10:56:06
Die 5080er wird imho knapp unter der 4090er liegen und die 5090er 30-40% drüber. Sollte es mehr sein, wird das wieder teuer ;)

Relex
2024-11-23, 11:08:16
50% vs 4090 wäre schon etwas utopisch. Die Skalierung mit den CUDA cores liegt bei der 4080 vs 4090 bei ca 1:2. Und das obwohl die 4090 über ein breiteres SI verfügt, glaube also nicht, dass das bei der 4090 limitiert.

Doppelte Cuda cores würden also ca 50% mehr performance liefern. (die 4090 schafft mit 70% mehr cores ca 35% mehr performance)
Wenn die Skalierung weiterhin gleich ist, dann würde es in etwa so aussehen:

4080 100%
5080 110%
4090 135%
5090 165% (= +50% vs 5080)

In dem Fall wäre die 5090 ca 22% schneller als die 4090 und eben 50% schneller als die 5080.


Na ja, am Ende ist es glaskugel lesen.

Daredevil
2024-11-23, 11:15:51
... allerdings hat Jensen Blackwell für den Data Market auch immens aufgepumpt, damit man die Marge nochmal ins endlose steigern kann. Preis entscheidet ja am Ende bei Stückzahlen von 100k+ nicht, sondern TCO. Als Gamer ist TCO jetzt nicht soooo wichtig, aber einen aufgeblähten Blackwell hätte ich natürlich auch gerne. :ulove:
Der Preiskampf mit AMD ist ja eh vorbei, entweder lehnt man sich zurück oder holt allgemein zur Zerschlagung der Konkurrenz aus. AMD macht das Spielchen mit Intel ja auch gerade. :D

dildo4u
2024-11-23, 11:18:46
50% vs 4090 wäre schon etwas utopisch. Die Skalierung mit den CUDA cores liegt bei der 4080 vs 4090 bei ca 1:2. Und das obwohl die 4090 über ein breiteres SI verfügt, glaube also nicht, dass das bei der 4090 limitiert.

Doppelte Cuda cores würden also ca 50% mehr performance liefern. (die 4090 schafft mit 70% mehr cores ca 35% mehr performance)
Wenn die Skalierung weiterhin gleich ist, dann würde es in etwa so aussehen:

4080 100%
5080 110%
4090 135%
5090 165% (= +50% vs 5080)

In dem Fall wäre die 5090 ca 22% schneller als die 4090 und eben 50% schneller als die 5080.


Na ja, am Ende ist es glaskugel lesen.
Die 4090 ist an der Bandbreite gestorben wir haben diesmal GDDR7 und 512Bit.
Nvidia hat bisher nur schnelleren Vram verbaut aber das Interface nicht massiv vergrößert.

ChaosTM
2024-11-23, 11:22:57
... allerdings hat Jensen Blackwell für den Data Market auch immens aufgepumpt, damit man die Marge nochmal ins endlose steigern kann. Preis entscheidet ja am Ende bei Stückzahlen von 100k+ nicht, sondern TCO. Als Gamer ist TCO jetzt nicht soooo wichtig, aber einen aufgeblähten Blackwell hätte ich natürlich auch gerne. :ulove:
Der Preiskampf mit AMD ist ja eh vorbei, entweder lehnt man sich zurück oder holt allgemein zur Zerschlagung der Konkurrenz aus. AMD macht das Spielchen mit Intel ja auch gerade. :D


NV hätte AMD schon mehrfach töten können, aber das wird man nicht tun wegen der Anti-Trust Gesetze (auch unter dem Orangen). Genauso wenig wie AMD Intel killen will/wird/kann.

Relex
2024-11-23, 11:25:06
@dildo4u
Skaliert die 4090 denn so krass mit dem Speichertakt? Ich weiß es nicht. Falls ja, dann hast du natürlich nen Punkt.

Ich kanns mir zumindest auf Basis der Benchmarks nicht vorstellen, da die 4090 eben im Schnitt 35% schneller als die 4080 ist aber die Werte z.B. in 4K nativ wo mehr bandbreite gebraucht wird nach oben richtung 40, manchmal sogar 50% gehen.

Wenn die Bandbreite limitiert und deswegen "nur" 35% mehr performance im schnitt zusammen kommen, sollte das Verhalten doch so nicht sichtbar sein. Dann würde die 4090 doch nicht genau in den bandbreitenlastigen Szenarien so performen. Oder täusche ich mich?

00-Schneider
2024-11-23, 11:32:09
@dildo4u
Skaliert die 4090 denn so krass mit dem Speichertakt? Ich weiß es nicht. Falls ja, dann hast du natürlich nen Punkt.


Jup, kann dir jeder bestätigen, der die Karte übertaktet hat. Übertaktung des Speichers skaliert sehr gut bei der Karte.

Prinzenrolle
2024-11-23, 11:35:46
In dem Fall wäre die 5090 ca 22% schneller als die 4090 und eben 50% schneller als die 5080.

Du glaubst doch nicht, dass Nvidia eine 5080 bringt, die nur 10% schneller als die 4080 ist? Die Leistung kommt hauptsächlich von besserer Auslastung der Einheiten und "FFG".

ChaosTM
2024-11-23, 11:40:47
Jup, kann dir jeder bestätigen, der die Karte übertaktet hat. Übertaktung des Speichers skaliert sehr gut bei der Karte.


Ja, daher läuft der VRAM auch im Untervoltetem Zustand immer auf Anschlag.

Relex
2024-11-23, 11:49:11
Jup, kann dir jeder bestätigen, der die Karte übertaktet hat. Übertaktung des Speichers skaliert sehr gut bei der Karte.

In 4K nativ PT Szenarien oder auch in Szenarien mit Upscaling bei hohen FPS?


Für mich ergibts halt keinen Sinn.

Wenn die 4090 vom 384 bit SI limitiert wird und z.B. 135 FPS schafft, wie kann dann eine 4080 mit nur 256 bit SI 100 FPS schaffen?

Das SI der 4090 ist 50% breiter. Wenn es bereits im durchschnittlichen 35% Szenario limitiert, müsste das der 4080 noch viel stärker limitieren und der Abstand wäre im Schnitt viel größer.


Rein aus dieser logik heraus würde das 512 bit interface der 5090 einfach nur dem bedarf der zusätzlichen Rechenleistung gerecht werden, aber eben nicht zusätzlich noch eine Bremse lösen, welche die 4090 in nennenswertem Maße limitiert hätte.

basix
2024-11-23, 12:11:47
Die 4090 hat einfach Skalierungsprobleme gegenüber AD103 und kleiner. Die Bandbreite wird hier aber nicht das Problem sein. Wenn dann ist es irgendwas in der Kontrollogik und/oder Latenz.

Für mich wäre das einer der grössten Stellschrauben für GB202: Bessere Skalierung mit den SMs. Dann könnten 170SM vs. 128SM mehr Bumms rausholen als der SM-Unterschied suggerieren würde.

Jup, kann dir jeder bestätigen, der die Karte übertaktet hat. Übertaktung des Speichers skaliert sehr gut bei der Karte.
Wie gesagt, das wird nicht die Bandbreite sein. Ein paar interne Clocks hängen am Speichertakt und gehen mit UV runter. Mit UV skaliert die Karte besser mit Speicher-OC als ohne UV. Macht eigentlich keinen Sinn, wenn es die Bandbreite wäre, da der GPU-Clock z.B. bei meinem Setting geringer ist. Deswegen geht meine Vermutung stark in Richtung Latenz. Die Daten sind einfach nicht schnell genug bei den SMs. Und umso breiter die GPU, desto grösser das Problem. Bis und mit AD103 scheint das noch gut aufzugehen. Bei AD102 nicht mehr.

BlacKi
2024-11-23, 12:35:08
Du glaubst doch nicht, dass Nvidia eine 5080 bringt, die nur 10% schneller als die 4080 ist? Die Leistung kommt hauptsächlich von besserer Auslastung der Einheiten und "FFG".ich denke, er versucht sowas wie einen antihype aufzubauen, damit man beim release umso begeisterter sein kann.

@dildo4u
Skaliert die 4090 denn so krass mit dem Speichertakt? Ich weiß es nicht. Falls ja, dann hast du natürlich nen Punkt.

bandbreite passt man an die benötigte performance an, abgesehen von einzelnen karten, um die löcher im portfolio zu stopfen.

damit kannst du davon ausgehen, das die steigerung der speicherbandbreite der next gen auch grob in dieser performance mündet.

nvidia bringt die viele speicherbandbreite der 5090 nicht umsonst. die ist da, weil sie benötigt wird.

das einzigste szenario das ich mir noch irgendwie vorstellen könnte das es anders kommt wäre, wenn nvidia am cache spart. was aber komplett gegen die leaks sprechen würde, was also sehr abwegig wäre.

also sind konservativ wohl 70% anzunehmen. ich wäre enttäuscht, wenn die 5090 nicht 70% schneller wäre. also grob doppelt so schnell wie die schnellste rdna 4 karte, beim 3 fachen preis^^

und in ausgewählten spielen wird die 5080 wohl schneller sein als die 4090.

Die 5080er wird imho knapp unter der 4090er liegen und die 5090er 30-40% drüber. Sollte es mehr sein, wird das wieder teuer

die 4090 hat 40% mehr bandbreite als die 4080 und ist grob 35% schneller, und die 5090 soll bis zu 100% mehr bandbreite bieten. da kommst du dann mit nur 50% um die ecke? und bandbreite ist teuer, die verbaut man nur wenn man sie braucht. daher ist sie für mich ein starker indikator für die performance einschätzung.

du auch? warum sollte 5090 so langsam sein? schau dir mal den performance und den bandbreiten unterschied zwischen 4080 ->4090 und 5080->5090 an. 5090 nur 50% schneller als die 5080? dann würde rechenleistung und bandbreite nur sehr schwach skalieren, ich meine abartig schlecht.

AffenJack
2024-11-23, 12:49:15
Die 4090 hat einfach Skalierungsprobleme gegenüber AD103 und kleiner. Die Bandbreite wird hier aber nicht das Problem sein. Wenn dann ist es irgendwas in der Kontrollogik und/oder Latenz.

Für mich wäre das einer der grössten Stellschrauben für GB202: Bessere Skalierung mit den SMs. Dann könnten 170SM vs. 128SM mehr Bumms rausholen als der SM-Unterschied suggerieren würde.


Ich gehe auch davon aus, dass gerade an dem Punkt gearbeitet wurde. Irgendwas hakt da an AD102.

Noch interessanter wird aber die Architektur an sich. Ich bin sehr gespannt wie das Ding aussieht. Blackwell könnte nen komplettes Redesign sein, was den Grundstein für die nächsten Architekturen legen wird. Nvidia verheimlicht nicht ohne Grund schon den Aufbau von HPC Blackwell. Wenn das einfach nur der gleiche Aufbau wie Hopper wäre, würde man da nicht so ein Geheimnis draus machen.

reaperrr
2024-11-23, 13:00:37
Die 4090 hat einfach Skalierungsprobleme gegenüber AD103 und kleiner.
In vielen Spielen ist sie einfach selbst in 1440p noch einigermaßen stark und ein wenig sogar in 4K CPU-limitiert. Es ist extrem auffällig, dass sich die 4090 gerade in CPU-lastigen Titeln immer extrem schlecht absetzen kann, das ist sogar noch ausgeprägter ggü. RDNA3 als ggü. den kleineren Adas.

Die Bandbreite wird hier aber nicht das Problem sein. Wenn dann ist es irgendwas in der Kontrollogik und/oder Latenz.
In Fällen wo es nicht am CPU-Limit liegt, dürfte es zumindest zum Teil am teildeaktivierten L2 liegen, und das hieße "sowohl Bandbreite als auch Latenz".

Die 4090 kann verglichen mit der 4080 ja nur 12,5% mehr Daten im L2 ablegen, bevor auf den langsameren Speicher zugegriffen werden muss.
Und der Speicher selbst ist je Kanal/Chip auch noch etwas niedriger getaktet als bei der 4080(S), d.h. es kann zwar fast 50% mehr parallel passieren, aber die einzelnen Speicherzugriffe sind nicht schneller bzw. sogar etwas langsamer.

rentex
2024-11-23, 13:47:27
5080 = 4090 sonst wird es peinlich für NV und die Gen ein Fail = Vorlage für AMD 2026/27

ChaosTM
2024-11-23, 13:53:59
NV ist das momentan egal.
Gamer sind (derzeit) irrelevant für die vierteljährlichen Berichte an die Aktionäre.

HOT
2024-11-23, 14:00:27
Wird die Leistung der 4090 nicht erreichen die 5080, dafür bekommt man das Teil sicherlich "schon" für 1200$.

AffenJack
2024-11-23, 14:01:11
5080 = 4090 sonst wird es peinlich für NV und die Gen ein Fail = Vorlage für AMD 2026/27

Wir haben keinen Nodesprung, ich glaube nicht dran, dass man mit der 5080 auf die 4090 aufschließt.Man wird nicht weit entfernt sein, aber denke eher +20-25%. Wobei mit der TDP Steigerung, vielelicht prügelt man den Takt so hoch, dass 5080 = 4090.

Welche Vorlage für AMD? AMDs Next Gen wird in 3nm mit Nvidias 3nm Nachfolgerkonkurieren. Das wird ebenso Ende 26/Anfang 27 passieren.

Abseits von der 5090 für Enthusiasten wird Blackwell für alle Besitzer der 4000 Serie nix.

rentex
2024-11-23, 14:01:17
NV ist das momentan egal.
Gamer sind (derzeit) irrelevant für die vierteljährlichen Berichte an die Aktionäre.

Ich weiß :wink:

The_Invisible
2024-11-23, 14:58:14
Alle Spekus hier gehen halt immer davon aus wenn alles bei Ada Arch bleibt. Ich denke es wird vor allem große Fortschritte bei RT & AI geben, beim Geforce Logo wurde nicht umsonst "Powering Advanced AI" eingefügt.

Davon wird man aber vor Release nix erfahren, genauso wie bei der Software, die Boardpartner bekommen ja gerade mal einen 3dmark/furmark treiber. Die sollen endlich einen offiziellen Teaser machen :D

Hakim
2024-11-23, 15:07:50
Die 5070 war ja eigentlich ganz oben bei mir in der Liste aber wenn so eine Karte mit etwa der Leitung irgendwo um den Bereich 4070Ti super ist und dann wieder mit nur 12 GB kommt, ne.

Könnte der Grund sein mal nach einer Ewigkeit mit der rx8800 AMD wieder eine Chance zu geben. Aber erst mal die Tests abwarten

Fragman
2024-11-23, 16:18:16
Könnte der Grund sein mal nach einer Ewigkeit mit der rx8800 AMD wieder eine Chance zu geben

Stand heute mit dem was wir wissen kann die AMD Karte nicht so gut sein.
Sonst könnte nv nicht so einen Stunt hinlegen.

Vielleicht ist der gleichzeitige Release der 5070 TI aber auch genau als Konter auf AMD ausgelegt.

Aber allgemein glaub ich mittlerweile auch wieder, das Richtung nv wieder zu tief gestapelt wird. Aber so sind die Spekulationen zumindest nicht langweilig.

BlacKi
2024-11-23, 22:41:10
Abseits von der 5090 für Enthusiasten wird Blackwell für alle Besitzer der 4000 Serie nix.ich denke schon, das featureseitig dinge kommen werden, die ein upgrade rechtfertigen werden. FG ist ein feature das sinnvoll sein kann, vl bringt nv ein feature das noch stärker sein wird.

Daredevil
2024-11-23, 23:34:16
+1
Selbst eine 3090 nur mit ADA KI-Features wäre ein "Update" ( Nicht Upgrade ^^ ) Wert gewesen.
Je besser die Features werden bzw. je mehr Wert die für den Spieler bringen, desto höher kann auch der Preis angesetzt werden. Wichtig ist immer noch, was am Ende auf dem Screen ankommt und was man dem Spieler zumuten kann. Ob das nun durch 450w erkauft wird oder durch FG 2.0 ist ziemlich egal, solange es den Nutzer überzeugt und man keine gravierenden Nachteile hat.
Uns Nerds fallen die Nachteile natürlich eher auf, wenn es denn welche gibt, dem 0815 Zombie der den Unterschied zwischen 60 und 120hz bzw. Nativ und FSR2 und IPS/OLED nicht sieht, dem halt nicht.
Und wenn RT nun mit jeder Generation weniger Performance kostet, sofern Nvidia nicht jedes Jahr einen neuen Modus aus dem Hut zieht, der immer besonders fordernd ist, her damit.

Gouvernator
2024-11-24, 09:19:54
Alle Spekus hier gehen halt immer davon aus wenn alles bei Ada Arch bleibt. Ich denke es wird vor allem große Fortschritte bei RT & AI geben, beim Geforce Logo wurde nicht umsonst "Powering Advanced AI" eingefügt.

Davon wird man aber vor Release nix erfahren, genauso wie bei der Software, die Boardpartner bekommen ja gerade mal einen 3dmark/furmark treiber. Die sollen endlich einen offiziellen Teaser machen :D
DER Fortschritt wäre richtig großer VRAM 64GB+. "Advanced AI" beherrscht auf einer Gaming-GPU,oder sollte zumindest... sogenannte Multimodal-LLMs. Sprich wenn mehrere verschiedenartige LLMs zu einer Einheit verschmolzen werden. Wie ein Pixtral Modell, wo du eine Bilderkennungs-LLM mit einem Text-LLM kombinierst. Bilderkennung+Spracherkennung+Texterkennung knallen jeden Speicher voll. Da kann man pro Modul mit 15GB rechnen + normale Grafik 15GB+. Ohne mindestens 48GB kann sich NV ihren Blackwell für 2500€ sonst wohin schieben...

Wuge
2024-11-24, 13:17:57
@dildo4u
Skaliert die 4090 denn so krass mit dem Speichertakt? Ich weiß es nicht. Falls ja, dann hast du natürlich nen Punkt.

Ich hatte das seinerzeit nach dem launch mal gebencht. Speicherübertaktung skalierte bei der 4090 genauso wie Shader-Übertaktung. Natürlich je nach Benchmark etwas unterschiedlich aber auf jeden Fall stark überdurchschnittlich. Hab meine Karte auch nach Speicher-OC selektiert.

Sardaukar.nsn
2024-11-30, 07:12:41
Ich hab die Übersicht von Tom Hardware mal etwas erweitert. Da die 4090 in 4K immer noch deutlich über allen anderen Karten steht, wirken sich die zusätzlichen +50% im Vergleich natürlich noch mal stärker aus.

https://i.imgur.com/DkbK4JV.png

Im Rückblick waren +50-70% immer drin.

4K Raster Leistung (Steel Nomad)

980ti +75% = 1080ti
1080ti +51% = 2080ti
2080ti +74% = 3090ti
3090ti +78% = 4090

Quelle: https://www.pcgameshardware.de/3DMa...Solutions-GPU-Test-Review-Hands-on-1447596/2/

horn 12
2024-11-30, 08:58:38
Ja, aber dies kam immer zustande durch erweiterten, Neuen Node Sprung

Diesmal eben nicht

5080 ca. 4080 plus 20%
5090 4090 Plus max. 35%

Dies wird die Leute diesmal nicht abholen,
vor Allem wenn FSR 4.0 von AMD kommt zusammen mit FG 2.0

Dimon
2024-11-30, 11:40:52
Ich hab die Übersicht von Tom Hardware mal etwas erweitert. Da die 4090 in 4K immer noch deutlich über allen anderen Karten steht, wirken sich die zusätzlichen +50% im Vergleich natürlich noch mal stärker aus.

https://i.imgur.com/DkbK4JV.png

Wurde die RTX 2080ti nicht noch schneller nach ihrer "reifungszeit" als die kolporierten 51%, hatte die PCGH nicht irgendwas getestet?


Grüsse

Cubitus
2024-11-30, 12:48:04
Dies wird die Leute diesmal nicht abholen,
vor Allem wenn FSR 4.0 von AMD kommt zusammen mit FG 2.0

DLSS 4 kommt auch.. und irgend ein neues Fancy Feature... was AMD dann halt wieder nicht hat..

BlacKi
2024-11-30, 12:51:56
FG2.0 das ich nicht lache. die sollen erstmal antilag2 oder entsprechendes breit verfügbar machen.

ich frage mich wirklich, wie diese leute das meinen mit nur 35% auf die 4090... mit 384bit SI oder wie?

aceCrasher
2024-11-30, 13:02:36
Ja, aber dies kam immer zustande durch erweiterten, Neuen Node Sprung
Stimmt nicht. Der 12FFN Prozess (2080ti) war nur ein optimierter N16 (1080ti), deswegen war TU102 auch so groß, weil der Prozess schon ausgereift war. Nichts anderes ist TSMC 4nm vs TSMC 5nm, ersterer ist auch nur eine "Optimierung", kein richtiger neuer Prozess. Auch hier kommt folglich wieder ein riesen >700mm² Chip.

boxleitnerb
2024-11-30, 13:03:15
Ja, aber dies kam immer zustande durch erweiterten, Neuen Node Sprung

Diesmal eben nicht

5080 ca. 4080 plus 20%
5090 4090 Plus max. 35%

Dies wird die Leute diesmal nicht abholen,
vor Allem wenn FSR 4.0 von AMD kommt zusammen mit FG 2.0

Ohne Bias entgleist der Hypetrain nicht so sehr. So schürst du wieder nur Erwartungen, die AMD wie so oft enttäuscht.
Alle Jahre wieder…und ihr lernt gar nichts.

Hakim
2024-11-30, 13:30:54
Kommt mir das so vor oder ist es diesmal noch ruhiger als sonst bezüglich Performance leaks und evtl Features? Bis auf vermutliche Daten der Chips gab es nix oder?

Radeonfreak
2024-11-30, 13:40:10
Kommt mir das so vor oder ist es diesmal noch ruhiger als sonst bezüglich Performance leaks und evtl Features? Bis auf vermutliche Daten der Chips gab es nix oder?

Nein. Hab mich auch schon gewundert.

00-Schneider
2024-11-30, 13:45:45
Es kommt wie es kommt und gekauft wirds aus Mangel an Alternativen eh.

Relex
2024-11-30, 14:05:15
So sieht's aus.

Ich bleib dabei, der Sprung wird diesmal relativ klein. Die 5090 wird ausreichend drauflegen zu entsprechend erhöhtem Preis und hohem "Materialaufwand", aber wahrscheinlich auch weniger, als man erwartet.

Für mich sind die voraussichtlichen Powertargets sowieso uninteressant. Ich brauch ne GPU um 250W oder eben ne GPU die ich so weit drosseln kann ohne dass man spürbar performance verliert. Die 4080 war ideal dafür, die 5080 oder 5090 fallen da komplett raus. Die 5070(ti) könnte interessanter werden, aber die wird eh erstmal wieder mit 12 GB kommen und so wie ich Nvidia kenne wird der Sprung gerade in der Mittelklasse wieder nur minimal ausfallen. Das Upselling soll ja schließlich funktionieren. Und ohne node sprung erwarte ich auch erstmal keine nennenswerten Steigerungen bei der Energieeffizienz.

Das einzige worauf ich sehr gespannt bin sind die üblichen DLSS features. Was gibts an der Front neues. DLSS4? Das spannendste wäre aus meiner Sicht gesteigerte Frame Gen performance.

+100% mehr FPS durch Frame Gen auch in 4K wäre sehr geil. Aktuell liegt man da je nach Framerate gerne auch mal bei +50% in hohen Auflösungen und +70-80% in niedrigen Auflösungen. Das geht besser. Selbst AMD macht das besser, allerdings auf Kosten von etwas Bildqualität. Aber von dedizierter Hardware bei nvidia würde man deutlich mehr erwarten. Gerne auch +200% wenn man zwei Frames generiert.

Nvidia wird hier sicher den nächsten Schritt gehen. Würde mich wundern, wenn nicht.
Aber ich denke das wird man sich genau aufteilen. Erstmal die Frame Gen Performance soweit steigern, dass man sich der +100% in allen Szenarien annähert und dann mit RTX6000 in zwei Jahren zwei Zwischenbilder erzeugen. Man braucht ja Gründe für das Upgrade. Die Balken in den Nvidia Folien werden mit gesteigerter Frame Gen performance bis 100% auch jetzt schon deutlich länger sein, als bisher.


Ich schätze, wenn man verbesserte FG performance und reale Leistungssteigerung zusammenrechnet, wird ne 5090 in den Nvidia Folien durchaus 80-100% schneller als eine 4090 sein können. Erstrecht, wenn man vielleicht hier und da noch etwas mehr RT performance durch ein paar Architekturänderungen herauskitzelt.

FG performance wird dann auch das sein, worüber man die Mittelklasse Karten gegenüber RTX4000 besser aussehen lassen kann, obwohl sich an der realen performance kaum was getan hat. 4070 vs 5070 vielleicht 10-20% schneller, aber mit FG dann eben 40-50% schneller.

Mark my words :D

AffenJack
2024-11-30, 14:07:04
Kommt mir das so vor oder ist es diesmal noch ruhiger als sonst bezüglich Performance leaks und evtl Features? Bis auf vermutliche Daten der Chips gab es nix oder?

Mit jedem Launch von Nvidia sind die geleakten Infos weniger geworden. Niemand weiß die Performance, bis Nvidia die Treiber an die Partner gibt und das passiert nach dem Softlaunch auf der CES, bei welchem die Performance angekündigt wird. Jegliche andere Spekulation basiert nur auf den technischen Daten.

Sardaukar.nsn
2024-11-30, 14:07:23
Kommt mir das so vor oder ist es diesmal noch ruhiger als sonst bezüglich Performance leaks und evtl Features? Bis auf vermutliche Daten der Chips gab es nix oder?

Kommt sicher noch, aber mit DDR7, 512bit Interface, 700+mm die und viel TDP wird am Ende schon einiges an Leistung rumkommen.

TheAntitheist
2024-11-30, 16:35:35
Ja, aber dies kam immer zustande durch erweiterten, Neuen Node Sprung

Diesmal eben nicht

5080 ca. 4080 plus 20%
5090 4090 Plus max. 35%

Dies wird die Leute diesmal nicht abholen,
vor Allem wenn FSR 4.0 von AMD kommt zusammen mit FG 2.0
wen interessiert FSR4 wenn es nur für die neuen GPUs funktioniert und immer noch weit hinter DLSS sein wird? dann fehlt immer noch RR... Antilag 2 ist auch ein joke und über den ganzen Rest reden wir lieber nicht.

basix
2024-11-30, 16:51:29
Wie gut FSR4 wir wissen wir noch nicht und auch nicht wie es auf älteren GPUs skaliert. Meine Vemutung ist, dass es ganz anständig auf älteren Karten laufen wird aber inkl. Matrix-Beschleunigung läuft es besser.

Bezüglich FSR4 habe ich aber eine optimistischen Einstellung, auch was RR angeht:
https://gpuopen.com/learn/neural_supersampling_and_denoising_for_real-time_path_tracing/

Sardaukar.nsn
2024-11-30, 20:30:42
Wurde die RTX 2080ti nicht noch schneller nach ihrer "reifungszeit" als die kolporierten 51%, hatte die PCGH nicht irgendwas getestet?


Grüsse

Der Benchmark mit "Steel Nomad" ist schon recht aktuell. 4K Raster Rohleistung passt da schon. Ich hab die Karte aber damals ausgelassen und bin noch länger bei der 1080ti geblieben da mir RTX noch suspekt war.

mocad_tom
2024-12-02, 10:41:36
MSFT scheint 40% der GB200 Bestellungen storniert zu haben:


https://x.com/dnystedt/status/1863407215396491576


Ich denke die sind einfach mehr interessiert an B200.
GB200 für inferencing ist zu teuer.

Und für training ist B200 mit x86-Server-CPU der Gold-Standard.

Nvidia macht so Force-Feeding am Bedarf vorbei und erste Player scheinen da aber nicht mitzumachen.

AffenJack
2024-12-02, 11:30:11
Es ist wohl eher, weil man direkt zu GB300 springt, wenn die Lieferzeiten für GB200 zu lang werden.

https://www.computerbase.de/news/wirtschaft/geruechte-zu-nvidia-gb200-racks-technische-probleme-mit-rueckseitigem-interconnect-geloest.90498/

GB200 ist für nächstes Jahr ausgebucht und wenn du gleich zur besseren Lösung greifen kannst, dann gehst du in H2 25 auf GB300.

Zossel
2024-12-05, 00:45:58
Palim, Palim:
Die Basis für beide bildet Trainium2. Das ist Amazons aktueller hauseigner KI-Chip. Dieser soll, verglichen mit GPU-basierten KI-Chips (wie die von Nvidia), eine 30 bis 40 Prozent bessere Preis-Leistung bieten.
https://futurezone.at/b2b/amazon-supercomputer-nvidia-rainier-ultracluster-ultraserver-ki-trainium2/402984065

Troyan
2024-12-05, 09:16:56
Naja, Amazon cuttet in die Marge. Wird sich AMD aber freuen, wenn die noch weniger Kunden haben.

nVidia verkauft einfach an andere. Das ist ja das schöne an nVidia: Die müssen nicht an Großkunden verkaufen, weil deren Softwarestack eine Lösung für jede Branche hat.

basix
2024-12-07, 10:59:38
Was meint ihr, wird man bei Blackwell endlich DSC inkl. DSR nutzen können?

redpanther
2024-12-07, 11:20:36
ist imho eher eine Treiber Sache.
Bei den Roten Funktioniert es ja auch.

basix
2024-12-07, 11:29:03
Würde ich zwar auch meinen, aber soweit ich verstanden habe können Nvidias Display Controller das je nach Bedingung nicht, ist also ein HW Issue.

Hier eine Info dass es geht, solange man nur 1x Kabel verwendet, welches damit Chip intern auf einen einzelnen "Display Head" gemapped ist:
https://www.tomshardware.com/pc-components/gpus/nvidia-dsr-and-dldsr-tech-can-work-on-some-dsc-monitors
"NVIDIA DSR, NVIDIA DLDSR, and NVIDIA Image Scaling are supported when DSC mode is enabled if the pixel rate needed to drive the display mode does not exceed the GPU’s single head limit. If GPU uses two or more internal heads to drive the display, NVIDIA DSR, NVIDIA DLDSR, and NVIDIA Image Scaling are not supported"

Was mir damit allerdings nicht klar ist, ob das auf die Output-Auflösung am Display bezogen ist oder die interne Auflösung vor dem Downsampling. Ich würde mal behaupten es müsste ersteres sein.

Tesseract
2024-12-07, 12:20:46
ist ziemlich sicher eine kombination aus soft- und hardware. die display engines haben einen gewissen throughput, wenn der überschritten wird müssen 2 zusammengeschalten werden um einen physischen DP oder HDMI zu betreiben. man kann z.B. auch weniger monitore gleichzeitig betreiben wenn einer oder mehrere bestimmte auflöungen überschreiten. das ist seit ewigkeiten so. die softwarearchitektur vom downscaling ist wahrscheinlich nicht darauf ausgelegt mit mehr als dem trivialfall mit einer engine klar zu kommen und das feature zu sehr nische um das zu ändern.
wenn die engines auf DP 2.1 überarbeitet werden gehe ich aber davon aus dass das problem indirekt enteder gelockert oder behoben wird weil sich throughput und features ändern.

Troyan
2024-12-13, 10:08:59
https://www.nvidia.com/en-us/geforce/special-event/

3 1/2 Wochen bis zur Keynote.

Raff
2024-12-13, 10:10:38
Die Schweinchen schüren bereits die Erwartungen mit Witcher-4-Goodness rendered on Blackwell, der/die/das nahende Release der Geforce RTX 5090 ist absolut sicher. Ich bin ja immer noch für "PTX", weil RT kann ja mittlerweile jeder und sein Hund. :D

MfG
Raff

=Floi=
2024-12-13, 10:12:08
News von der NV presseabteilung ;D

Sardaukar.nsn
2024-12-13, 10:38:38
Oh, der Hype-Train hat soeben zügig den Bahnhof verlassen...

Sechs-Minuten-Trailer stellt Ciri in The Witcher 4 vor

Gerendert auf unangekündigter Geforce-GPU, Unreal Engine 5: CD Projekt Red zeigt The Witcher 4 mit Ciri als neuer Hauptfigur.

3hrQSmB3hHo

The_Invisible
2024-12-13, 10:56:31
Die sind immer so geizig mit Infos, hätte man zumindest dazuschreiben können "Full Pathtraced in 4k/60" oder so :D

Radeonfreak
2024-12-13, 11:03:36
Das war doch nur pre rendered und nicht in Echtzeit.

Steht sogar im Trailer.

Das gleiche kann ich auch auf der 4090 Prerendern.

Sardaukar.nsn
2024-12-13, 11:38:58
@Radeonfreak: Witcher 4 wird sicher auch auf einer 4090 oder PS5 laufen.

Ich gehe aber davon aus das Jenson Lederjacke im Januar auf der CES Witcher 4 als Zugpferd für Blackwell bringen wird.

Radeonfreak
2024-12-13, 11:46:13
Ich dachte eigentlich das es wieder mal die RTX Racer Demo wird. :frown:

Diesmal aber wirklich.

Sardaukar.nsn
2024-12-13, 12:13:41
RTX Racer, oh weia.

Ich habe damals Micro Machine (https://www.youtube.com/watch?v=JUBRP3XL2VY)s geliebt und mich wirklich auf den Titel gefreut.

Das Marketing wird aber sicher wieder zuschlagen. GTA6 confirmed?

00-Schneider
2024-12-13, 16:38:07
https://images-ext-1.discordapp.net/external/hFd9Z8nPXCgDxVOtAiaJcLlcyPaVtc0DKioOiM2oGAw/https/pbs.twimg.com/media/Ger5pv3XsAAJoW3.jpg%3Alarge?format=webp&width=1200&height=675

NVIDIA is preparing to launch its next-generation GeForce RTX 50 series graphics cards at the upcoming Consumer Electronics Show in 2025. The company has started its promotional activities through the GeForceGreats event and the GeForce LAN 50 physical events. To mark the 25th anniversary of its first GPU, the GeForce 256, NVIDIA released a GeForceGreats video on YouTube. The video detailed the plans for the GeForce LAN 50 Lan Party and NVIDIA’s keynote speech at CES 2025, scheduled for January 6, 2025, in the United States.

-------------

Wie erwartet. Kommt die 5090 noch im Januar?

BlacKi
2024-12-13, 16:52:43
eher die frage, ob man sie bestellen können wird und wann sie dann ankommt.

Exxtreme
2024-12-13, 16:53:45
eher die frage, ob man sie bestellen können wird und wann sie dann ankommt.

Und vor allem, was das Ding kostet. :freak: Hoffentlich keine 3k EUR oder so.

Radeonfreak
2024-12-13, 16:55:14
2499 €.

Unverbindliche Preisempfehlung. Kaufen Sie jetzt.

w0mbat
2024-12-13, 16:56:55
Würde ich tatsächlich sofort. Die Frage ist, ob mein 750W NT ausreicht.

Nightspider
2024-12-13, 16:58:21
Ich hätte nie gedacht das Blackwell gleichzeitig mit RDNA4 erscheinen wird. ^^

Thunder99
2024-12-13, 21:24:07
Würde ich tatsächlich sofort. Die Frage ist, ob mein 750W NT ausreicht.

Mit UV sicher ;D

Aber was soll schon schief gehen. ;)

monstar-x
2024-12-14, 02:10:09
2499 €.

Unverbindliche Preisempfehlung. Kaufen Sie jetzt.

Glaube ich nicht.

2099 € oder 2199 € mehr wird die FE nicht kosten.
AIB 2199 - 2399€

Thomas Gräf
2024-12-14, 02:57:39
Die spannende Frage wird auch sein wieviele von den Chips in den
Gaming Markt entlassen werden dürfen.

Wenn das Stückzahlmässig so abläuft wie bei dem Prinz von Ryzen na dann gute Nacht.

Nightspider
2024-12-14, 04:14:39
Die spannende Frage wird auch sein wieviele von den Chips in den
Gaming Markt entlassen werden dürfen.

Wenn das Stückzahlmässig so abläuft wie bei dem Prinz von Ryzen na dann gute Nacht.
Prinz von Ryzen kostet aber auch nur 20-25% von einer 5090 und muss viel mehr Bauern beglücken, vor allem da die Intel Hofnarren jetzt auch noch vor dem AMD Hof niederknien.

Sardaukar.nsn
2024-12-14, 10:14:36
Kann man schlecht vergleichen. Der Ryzen CPU bringt vielleicht +8-10% bei den relevanten Spielen. In 4K wohl eher noch weniger.

Von nVidia konnte in der Vergangenheit alle zwei Jahre immer immer +50-70% Rohleistung liefern. Dazu oft noch ganz neue Features.

Blase
2024-12-14, 11:13:10
Dank des Witcher 4 Trailers ist mein Hype-O-Meter gleich nochmals angestiegen :tongue: Ich bin echt gespannt auf den Preis. Ich bin noch nicht sicher, wo meine Schmerzgrenze liegt, aber ich habe zumindest noch eine - irgendwo... :freak:

MfG Blase

The_Invisible
2024-12-14, 11:27:37
Und vor allem, was das Ding kostet. :freak: Hoffentlich keine 3k EUR oder so.

Lasst euch doch nicht immer von diesen Clickbait-News blenden, das Ding wird höchstens 1999USD kosten + Deppenaufschlag für die EU halt

@Blase
Naja so lange durfte man noch nie auf eine neue Gen warten, die nächste wird sicher nicht früher kommen, man hat also wieder >2Jahre Ruhe ;)

Nightspider
2024-12-14, 13:21:47
Kann man schlecht vergleichen. Der Ryzen CPU bringt vielleicht +8-10% bei den relevanten Spielen. In 4K wohl eher noch weniger.

Die meisten Käufer kommen ja auch von deutlich älteren CPUs.

CPUs werden deutlich seltener gewechselt.

BlacKi
2024-12-14, 14:00:02
dennoch hat er ein gutes argument. ausreichend cpu leistung gab es bereits die ganze zeit schon mit intel oder amd prozessoren. die grafikkarten leistung gabs bisher einfach nicht genug. ich glaube das wirds nie geben.

Neurosphere
2024-12-14, 14:08:11
dennoch hat er ein gutes argument. ausreichend cpu leistung gab es bereits die ganze zeit schon mit intel oder amd prozessoren. die grafikkarten leistung gabs bisher einfach nicht genug. ich glaube das wirds nie geben.

Naja, ohne RT wäre das mit der benötigten Leistung so ne Sache. Auch muss man sagen das der Anspruch bei neuen Spielen auf Optimierung stark nachgelassen hat.

Vorteil bei schnellen CPUs sind die minimum Frames oder einfach das gewählte Genre. Da es aber derzeit einfach keine Grafikkracher bei den RTS oder vergleichbaren Genres die auch mal was von der CPU wollen gibt, bleibst halt beim Egoshooter-Einheitsbrei mit Grafikpracht.

reaperrr
2024-12-14, 14:14:14
Naja so lange durfte man noch nie auf eine neue Gen warten
Das täuscht etwas ;)

Kepler - März 2012
Maxwell 1.0 (nur GTX 750) - Februar 2014
Maxwell 2.0 (GTX 9x0) - September 2014
Pascal - Mai 2016
Turing - August 2018
Ampere - September 2020
Ada - Oktober 2022

Also Turing hat genauso lange gedauert, und wenn man Maxwell 1.0 ignoriert und nur die "volle" Maxwell-Spec der größeren Chips berücksichtigt, Maxwell sogar noch länger.
Die anderen waren auch eher bei 25 Monaten.
Der einzige deutlich kürzere Abstand war Pascal, aber Pascal war auch eher Maxwell 3.0 geshrinkt auf 16FF+.

Linmoum
2024-12-14, 14:33:06
dennoch hat er ein gutes argument. ausreichend cpu leistung gab es bereits die ganze zeit schon mit intel oder amd prozessoren. die grafikkarten leistung gabs bisher einfach nicht genug. ich glaube das wirds nie geben.Es gab und gibt keine "ausreichende CPU-Leistung", zumindest nicht, wenn man das so pauschalisiert. Schon eine 4090 hängt (zu) oft im CPU-Limit (selbst in UHD, falls jetzt wieder diese leidige Diskussion von vorne beginnen sollte...), mit Blackwell wird das "Problem" noch deutlich größer im High-End-Segment.

Hatstick
2024-12-14, 19:08:16
Ich denn Witcher 4 schon in den Startlöchern bzgl. Release?
Habe jetzt noch mit ein paar Jahren Entwicklung gerechnet oder habe ich da was verpennt? :freak:

dildo4u
2024-12-14, 19:13:22
5070 Ti angeblich mit 350 TDP

https://wccftech.com/nvidia-geforce-rtx-5070-ti-16-gb-gddr7-gb203-300-gpu-350w-tbp

00-Schneider
2024-12-14, 19:28:25
Ich denn Witcher 4 schon in den Startlöchern bzgl. Release?


Nah, Ende 26 frühestens.

Zwischendurch kommt W1 Remake.

rentex
2024-12-14, 19:36:11
5070 Ti angeblich mit 350 TDP

https://wccftech.com/nvidia-geforce-rtx-5070-ti-16-gb-gddr7-gb203-300-gpu-350w-tbp

Blackwell Gaming entwickelt sich jetzt wohl wirklich zu "Ampere II"...ernüchternd.

Linmoum
2024-12-14, 20:07:49
Sinnlose Spekulationen, ohne die Effizienz zu kennen.

Lurtz
2024-12-14, 20:40:21
Ich denn Witcher 4 schon in den Startlöchern bzgl. Release?
Habe jetzt noch mit ein paar Jahren Entwicklung gerechnet oder habe ich da was verpennt? :freak:
Das kommt frühestens 2027, wenn nicht erst 2028, keine Ahnung wo die Panik herkommt.

Exxtreme
2024-12-14, 20:51:46
Blackwell Gaming entwickelt sich jetzt wohl wirklich zu "Ampere II"...ernüchternd.

Framelimiter rein und schon passt der Stromverbrauch.

Neosix
2024-12-14, 21:40:26
Blackwell Gaming entwickelt sich jetzt wohl wirklich zu "Ampere II"...ernüchternd.

Hast du ohne Node sprung irgend wie ein anderes "Wunder" erwartet?`

Ernstgemeinte Frage, klar wird es paar % verbesserungen geben die halt so jede Generation mitbringt, aber gleicher node, breiter, mehr SM geht eben nur mit mehr Strom.

Angiesan
2024-12-14, 21:50:51
Oh, der Hype-Train hat soeben zügig den Bahnhof verlassen...



https://youtu.be/3hrQSmB3hHo

und ich bin eingestiegen :-)

Thunder99
2024-12-14, 22:24:51
Sinnlose Spekulationen, ohne die Effizienz zu kennen.

Wenn's stimmt, der Preis wird immer absurder was man als Energie einsetzen muss.

@exxtreme: hilft auch nicht wenn man die Geschwindigkeit haben möchte bzw braucht.

Wenn die 5070Ti mehr verbraucht als die 4080 dann sollte schon deutlich mehr Speed da sein. Ansonsten wird es lächerlich...

Sardaukar.nsn
2024-12-14, 22:28:39
Hast du ohne Node sprung irgend wie ein anderes "Wunder" erwartet?`

Ernstgemeinte Frage, klar wird es paar % verbesserungen geben die halt so jede Generation mitbringt, aber gleicher node, breiter, mehr SM geht eben nur mit mehr Strom.

Für die Raster-Rohleistung mag das stimmen, aber das ist nicht die Zukunft.

Ein Cyberpunk 2077 Phantom Liberty in 4K Pathtracing läuft auch auf einer 3 GHz 4090 erbärmlich. Mit Lovelace kam aber der große KI Sprung inkl. Upscaling und Frame Generation so das nur noch 1 von 8 Pixel herkömmlich gerendert werden müssen. 7 von 8 kommen aus der KI-Zauberhand. Hörte sich nach krassem Bullshit an, aber ich habe es selbst mit meiner Hardware hier erlebt und empfand das als den besten Kompromiss.

Hatstick
2024-12-14, 22:35:39
@ 00-Schneider & Lurtz!

Danke, das hätte mich jetzt auch gewundert, das der Release ansteht.

Schauen wir mal, leisten kann ich sie mir sowieso nicht aber trotz allem immer spannend zu sehen, was da oben so passiert.^^

BlacKi
2024-12-14, 23:04:40
Es gab und gibt keine "ausreichende CPU-Leistung", zumindest nicht, wenn man das so pauschalisiert. Schon eine 4090 hängt (zu) oft im CPU-Limit (selbst in UHD, falls jetzt wieder diese leidige Diskussion von vorne beginnen sollte...), mit Blackwell wird das "Problem" noch deutlich größer im High-End-Segment.absolut richtig bei einem standard system ohne jegliche optimierungen. da kann die 4090 auch ab und zu je nach game mal ohne fps limitierung ins cpu limit laufen. das ist aber lediglich ein problem für cpu tester. bei real world limitiert mit der 4090 und optmiertem system zu 99% nichts.

Blackwell Gaming entwickelt sich jetzt wohl wirklich zu "Ampere II"...ernüchternd.

naja, die 5070ti ist eher ein 4070ti super nachfolger. und die hatte auch schon 285w. aber ja, das ist wohl zu erwarten gewesen, da sich der prozess selbst kaum verbessert hat. ich denke auch, das bei der 5090 gut power rauszuholen sein wird mit der erhöhung des powerlimits.

reaperrr
2024-12-14, 23:16:57
5070 Ti angeblich mit 350 TDP

https://wccftech.com/nvidia-geforce-rtx-5070-ti-16-gb-gddr7-gb203-300-gpu-350w-tbp
Da schon die 5090 mit 500W, 5080 mit 400W und 5070 mit 250W TDP/TBP genannt wurden, passt das ins Bild.

Blackwell Gaming entwickelt sich jetzt wohl wirklich zu "Ampere II"...ernüchternd.
Die Chips werden im nahezu gleichen Prozess hergestellt wie Ada und haben außer dem Top-Modell sehr ähnliche SM-Zahlen wie der Vorgänger.
Die holen die Performance bei Gaming-BW also primär über IPC-Verbesserungen je SM (kostet meistens Transistoren und damit auch etwas Saft) + höhere Taktraten (gibt's auch nicht kostenlos, wobei die Transitoren zum Teil in Takt-/Effizienz-Optimierungen gegangen sein werden).

Nvidia kocht halt auch nur mit Wasser bzw. den gleichen Prozessen.

Den letzten großen Perf/W-Sprung ohne gleichzeitigen FullNode-Shrink gab es mit Maxwell.
Pascal und Ada waren auch nur wegen massiv besserer Prozesse so große Fortschritte gegenüber dem jeweiligen Vorgänger.
Hast du ohne Node sprung irgend wie ein anderes "Wunder" erwartet?`

Ernstgemeinte Frage, klar wird es paar % verbesserungen geben die halt so jede Generation mitbringt, aber gleicher node, breiter, mehr SM geht eben nur mit mehr Strom.
So ist es.
Wobei eben nur GB202 wirklich breiter als der Vorgänger wird, weshalb die Chips darunter wohl zusätzlich auch noch auf Takt gehen müssen.

Für die Raster-Rohleistung mag das stimmen, aber das ist nicht die Zukunft.
Mag sein, aber es ist noch immer größtenteils die Gegenwart.

Natürlich ist davon auszugehen, dass Nvidia mit Blackwell im Bereich PT/RT, DLSS, FG usw. irgendwelche überproportionale Verbesserungen bringen wird.

Müssen sie allerdings auch, weil große Fortschritte auf herkömmliche Art prozessbedingt immer schwerer werden.

Slipknot79
2024-12-15, 00:40:53
Weiß ned, mich lässt die Shice kalt. Ich muss dann immer an diese krückenhafte +50% fps denken. :confused:
Einem 4070-Besitzer wird die 4090 präsentiert, gibt spannenderes.

Altehardware
2024-12-15, 01:14:15
350w klingen nach Samsung sf4 node und ans maximum getaktet was dann 2,67ghz wären
dann wird es ein hybrid Si mit ddr5 camm2 und gddr7 vram
Specs dann
gb205 70sm fasst Vollausbau 4gpc a17sm +2sm von 2gpc 2,67ghz boost clock 350w tbp 8gb gddr7 +8gb ddr5 grob 32,8tf 672gb/s oder knapp an der rtx4070ti super dran mit 16gb vram

Kann man vergessen, ineffizienter als Vorgänger und problematisches Si daher wird nvidia vermutlich auf 650$ schielen da die sku direkt mit der rx8800xt konkurriert

Damit wird nvidia genau 2 sku aus zwei tsmc chips haben
rtx5090 170sm 2,7ghz
rtx5080 84sm 3,0ghz
Da lässt sich Nvidia platz für super modelle ne ti und ne titan.

Das wird nix in entry mid class mit nvidia und man fährt besser mit ada sku.
Einzig das vram problem wurde angegangen
Ich ahne das die rtx4070ti super Massiv gefragt wird sobald diese eingestellt wird vermutlich Januar dürfte der preis steigen.
Der Samsung sf4 node hat genau 40% mehr Takt vs ampere und spart grob 10% Energie ein
Das ist grob so schlecht wie n5
Dazu skaliert samsung node schlecht mit vcore 1,08v sind das maximum
Zu den kleinen dann
gb205 2sku a70sm 50sm 16gb= 8+8
gb206 2sku a36sm a28sm 12gb= 4+8
preise
5060 145w 329$
5060ti 170w 399$
5070 250w 509$
5070ti 350w 649$

Meine Entscheidung auf blackwell nicht zu warten war richtig nur der knappe vram ist ein problem

BlacKi
2024-12-15, 02:03:10
ich glaube die 5070ti könnte die beste karte werden, wenn man unter 1000€ bleiben will. IMHO auch besser als die 4080(S). die wird bestimmt ordentlich was auf die 4080 drauflegen, aber recht spät kommen. also vor april wird die nicht bestellbar sein. wenn das feature set passt, würde ich sogar die 4080s verkaufen um so eine karte zu bekommen. das muss dann aber überzeugen.

DrFreaK666
2024-12-15, 09:57:36
... wenn das feature set passt, würde ich sogar die 4080s verkaufen um so eine karte zu bekommen. das muss dann aber überzeugen.

Nvidias Taktik scheint aufzugehen

dildo4u
2024-12-15, 10:48:36
Wenn die Karte die klassischen 15% bringt kann er doch die 4080 für ordentlich Kohle los werden.

DrFreaK666
2024-12-15, 11:20:44
Kann er das dann?
Und wegen 15% lohnt sich meiner Meinung nach kein Update

dildo4u
2024-12-15, 11:32:54
Wer aufgepasst hat Nvidia verkauft sich über Software Features Hardware Unboxed hat gerade erst wieder die Miese Bildqualität in RT Games bemängelt und Ray Rekonstruktion lässt noch zu wünschen übrig.

The_Invisible
2024-12-15, 11:34:34
Jap (Software-)Features sind gerade das interessante wo noch gar nix bekannt ist. Und hoffentlich mehr RT-Leistung. In 3 Wochen sind wir schlauer

Troyan
2024-12-15, 12:13:19
Jap (Software-)Features sind gerade das interessante wo noch gar nix bekannt ist. Und hoffentlich mehr RT-Leistung. In 3 Wochen sind wir schlauer

Die meiste Software ist Pathtracing. Das sollte deutlich schneller werden. In Indiana Jones und Black Myth ist Lovelace >2x schneller als Ampere.

Skaliert einfach viel besser als Rasterizing.

Kriegsgeier
2024-12-15, 12:44:21
man hat quasi noch einen guten Monat um seine 4080, 4090 oder 3090 los zu werden.
In 1,5 Monaten wird man ca. 30-50% weniger dafür bekommen.
Versuche meine 3090Fe @ Wakü auch gerade zu verkaufen. Jetzt noch 800€ - wahrscheinlich ist das auch zu viel.

PS: mit der 5090Fe @ 3440 x 1440p wird man endlich Cyberpunk 2077 mit FULL Raytracing mit über 60 FPS spielen können. Aber auch andere Spiele werden endlich butterweich in der besagten Auflösung laufen - freue mich drauf!

basix
2024-12-15, 13:57:51
man hat quasi noch einen guten Monat um seine 4080, 4090 oder 3090 los zu werden.
In 1,5 Monaten wird man ca. 30-50% weniger dafür bekommen.

Ich habe auch überlegt, die 4090 vor Blackwell Release zu verkaufen. Aber jetzt ist Winterzeit und ich bin mehr am PC und wer weiss, wie gut die Verfügbarkeit der 5090 sein wird. Und wie gut sie wirklich wird (wenn nicht gut genug bleibe ich bei der 4090). Ich lasse das also in Ruhe auf mich zu kommen und sehe dann wie es kommt ;)

Die 5080 wird wenn es gut kommt auf Niveau 4090 zu liegen kommen. Wird etwas weniger verbrauchen aber hat nur 16GByte. Und da Nvidia teueres Geld für die 5080 verlangen wird, sollte sich der Wertverlust auch bei der 4090 in Grenzen halten. Man könnte heute sicher mehr verlangen, aber dafür hat man zusätzlichen Stress und im schlimmsten Fall auch nach Blackwell Release keine neue Karte (oder nur zu überteuerten 1st Release Preisen).

The_Invisible
2024-12-15, 14:17:03
Jap hab auch keinen Stress, jetzt über die Feiertage ohne GPU geht gar nicht. Und mit den 24GB ist die 4090 auch außerhalb des Gamings interessant, die wird man auch dann noch für gutes Geld los. Zuerst muss die 5090 im Rechner sein und dann wird verkauft.

konkretor
2024-12-15, 14:33:06
NVIDIA Blackwell Architecture
Technical Brief
Powering the New Era of Generative AI and Accelerated
Computing

https://nvdam.widen.net/s/xqt56dflgh/nvidia-blackwell-architecture-technical-brief


Seite 11 gibts ein paar Specs

Relex
2024-12-15, 14:41:02
Bei den hohen TDP Werten hab ich persönlich bedenken, dass ich eine Karte bekomme, die mit 250W limit überhaupt nennenswert schneller ist.

Und selbst wenn, für das bisschen mehr Leistung mach ich mir keinen Stress.

Zumal ich mit meiner Karte gerade extrem happy bin, was so Dinge wie Spulenfiepen und Lüfterverhalten angeht. Ich brauch nichtmal ne eigene Lüfterkurve erstellen, weil die endlich mal jemand erstellt hat, der keinen Lack konsumiert... :freak:


Ich schätze die 4080 bleibt bei mir mindestens bis zur 6080.
Und selbst dann würden mich DLSS features mehr locken, als Rohleistung.

Denn für die ganzen Konsolenports reicht mir die Leistung dicke. Bevorzugt würde ich eh erst dann aufrüsten, wenn eine neue Konsolengeneration erscheint und da dann mindestens doppelte GPU Leistung im Vergleich zu diesen konsolen kaufen. Dann wäre für meine Ansprüche wieder ausgesorgt.
Ach ja, unterhalb +100% mehr leistung würde ich sowieso nicht aufrüsten. Hab ich noch nie und selbst +100% fand ich manchmal sogar etwas langweilig. Mein größtes Upgrade waren bisher 3-fache Leistung und selbst das hat mich "nur" von Medium Settings auf Ultra Settings bei gleichzeitig doppelten FPS gebracht.
45 FPS Medium auf 90 FPS ultra. Auflösung blieb gleich. War ganz okay... Aber auch weniger wow, als sich 3-fache leistung auf dem Papier anhört. (Weswegen ich auch niemals verstehen werde, warum Leute den letzten 10, 20 oder 30% so hinterher gieren.)

Altehardware
2024-12-15, 14:47:17
Das ist schon älter und hat keine details zur Architektur worauf es ankommt sondern lediglich ne perf. Prognose
das echte tech brief mit gb202 wird wichtig aber die tbp und die Ankündigung beim gleichen node zu bleiben sagt alles was man wissen muss das sich abseits der gpc Zuordnung nichts ändert
Daher ist der gewinn der perf. gering maxed sehe och bei 84 70 50 36 sm nur zwischen 5-15%
Die einzige sku die merklich schneller wird ist die rtx5090 mit 170sm
ich gehe davon aus das man das Si mit nen camm2 Modul addiert um das vram problem endlich zu lösen.
Den gddr7 speicherpreise machen Konkurrenzfähige sku unmöglich.

BlacKi
2024-12-15, 15:49:29
man hat quasi noch einen guten Monat um seine 4080, 4090 oder 3090 los zu werden.
In 1,5 Monaten wird man ca. 30-50% weniger dafür bekommen.
Versuche meine 3090Fe @ Wakü auch gerade zu verkaufen. Jetzt noch 800€ - wahrscheinlich ist das auch zu viel.
daran glaub ich überhaupt nicht. wahrscheinlich kommen lediglich 2 karten, und diese sind dermaßen teuer, das alles darunter praktisch keinen werverlust hat. in 5 monaten könnte ich mir vorstellen, dass das wieder anders ist. aber direkt zum release passiert eher wenig. die 5070 kommt deutlich später in den markt, um dort deutlichere preiskorrekturen auszulösen.

auch amd wird mit nur 2 karten kommen und mit diesen nicht ihre restliche aufstellung preislich zerstören. das wird sich wohl auch bei denen noch ziehen, bis man das portfolio komplettiert hat und auf angriff geht.

Blase
2024-12-15, 16:04:20
Ich käme auch nicht auf die Idee, meine 4090 jetzt vorzeitig zu verkaufen. Ich glaube auch nur bedingt an einen deutlichen Preisrutsch. Der käme nur dann, wenn die 5080 hier vergleichbare Performance (zumindest "dicht dran") zu deutlich geringeren Kosten bringen würde. Schauen wir mal...

MfG Blase

Hübie
2024-12-15, 20:38:46
Ich erwarte schon ein ordentliches Plus pro SM bei gleichem Takt, da wohl vieles am Frontend verändert wurde, aber ich kann mich da irren. Irgendwann plapperte nVidia auch mal was von AI Scheduler, aber wie das gelöst werden soll wissen wohl nur die. Könnte eine reiner Software-Geschichte sein. Geforce interessiert da sowieso kaum noch jemanden...

basix
2024-12-15, 21:24:42
AI-Scheduler hört sich nach "viel" an. So extrem besonderes erwarte ich davon nicht. Falls da was dran ist, wird es vermutlich so eine Art adaptiver Scheduler sein, welcher sich auf die optimale Chipauslastung "antrainiert". Je nachdem, welcher Workload oder welches Spiel gerade am laufen ist. Ich kann mir schon vorstellen, dass das was bringt. Aber wohl keine Quantensprünge.

monstar-x
2024-12-15, 21:39:47
Ich habe auch überlegt, die 4090 vor Blackwell Release zu verkaufen. Aber jetzt ist Winterzeit und ich bin mehr am PC und wer weiss, wie gut die Verfügbarkeit der 5090 sein wird. Und wie gut sie wirklich wird (wenn nicht gut genug bleibe ich bei der 4090). Ich lasse das also in Ruhe auf mich zu kommen und sehe dann wie es kommt ;)


Ging mir auch so, ich habe dazu von zwei KI eine Auswertung machen lassen, wo viele Variablen Berücksichtig wurden, z.B das ich die RTX 4090 aktuell bei ca. 75% Powerlimit betreibe.

Fazit ist: RTX 4090 behalten und RTX 5090 überspringen um die RTX 6090 zu kaufen. Würde auch den kleines finanziellen Verlust bedeuten selbst wenn ich jetzt 1800€ für die 4090 bekomme.



Jap hab auch keinen Stress, jetzt über die Feiertage ohne GPU geht gar nicht. Und mit den 24GB ist die 4090 auch außerhalb des Gamings interessant, die wird man auch dann noch für gutes Geld los. Zuerst muss die 5090 im Rechner sein und dann wird verkauft.

Ja, die 24GB machen es aus, dei 3090TI gehen aktuell für 800-900€ bei Ebay weg.

Lurtz
2024-12-15, 22:09:42
Hm, jetzt noch eine 4080 Super holen, wenn man sie gebraucht und drei Monate alt zu vernünftigen Konditionen bekommen würde, wenn man maximal eine 5070 Ti anpeilt?

Leistung dürfte die 4080 Super mehr bieten, VRAM bestenfalls gleich, bliebe höchstens noch irgendein Blackwell-exklusives Super-AI-Feature ;)

Slipknot79
2024-12-15, 22:59:14
Jap hab auch keinen Stress, jetzt über die Feiertage ohne GPU geht gar nicht. Und mit den 24GB ist die 4090 auch außerhalb des Gamings interessant, die wird man auch dann noch für gutes Geld los. Zuerst muss die 5090 im Rechner sein und dann wird verkauft.

Niemand muss auf eine GPU verzichten. Man can die 4090 noch für gutes Geld rausballern und sich die Miet-GPU Gefurz Now für z.B. 2 Monate nehmen.

monstar-x
2024-12-15, 23:48:34
Niemand muss eine GPU verzichten. Man can die 4090 noch für gutes Geld rausballern und sich die Miet-GPU Gefurz Now für z.B. 2 Monate nehmen.

Ich glaube nicht dass du in 2-3 Monaten eine 5090 zu UVP bekommen wirst.

Die "Founder Editions" werden im Homöopathischen Stückzahlen vorhanden sein, die in 0,1 Sekunden von ScalperBots und Bots in Auftrag der Chinesischen Firmen ausverkauft sind.

Die Partner Karten von ASUS, MSI... werden die ersten 3-6 Monate auch gut ausverkauft sein, wieso sollte es dieses mal anders sein.

Da gehört schon sehr viel Glück dazu eine 5090 in 2-3 Monaten zu UVP in den Händen zu halten.

Diesen ganzen Stress mit jeden Tag alle Online Shopps abklappern etc. für nur 200-400€ na ich weis nicht, muss jeder für sich entscheiden ob es das Wert ist.
- Abzüglich 22€ pro Monat für Geforce Now, wo noch nicht mal alle Spiele Enthalten sind.

Zu dem, sind so viele Unbekannte Variable wie.
Je nach Preis der 5080 und 5090 wird die 4090 nicht viel im Preis sinken.

The_Invisible
2024-12-16, 00:01:50
Ist halt sicher ein Lotteriespiel am Anfang eine 5090er zu bekommen. Hatte beim 9800x3d schon Glück, glaub daher nicht das ich erneut Glück habe.

Gönne es aber jeden hier, freu mich schon auf die Poser-Fotos :D

Hakim
2024-12-16, 01:49:54
Ist halt sicher ein Lotteriespiel am Anfang eine 5090er zu bekommen. Hatte beim 9800x3d schon Glück, glaub daher nicht das ich erneut Glück habe.

Gönne es aber jeden hier, freu mich schon auf die Poser-Fotos :D

Naja ich weiß ja nicht, eine 500-600€ CPU ist noch was anderes wie eine 2000-2500€ GPU, das will nicht jeder für eine PC Komponente ausgeben. Ich glaub evt nur die ersten zwei Wochen wenn es in geringen Stückzahlen geliefert wird. Aber wer weiß vielleicht hast du doch Recht damit.

TheAntitheist
2024-12-16, 06:23:07
Ich erwarte schon ein ordentliches Plus pro SM bei gleichem Takt, da wohl vieles am Frontend verändert wurde, aber ich kann mich da irren. Irgendwann plapperte nVidia auch mal was von AI Scheduler, aber wie das gelöst werden soll wissen wohl nur die. Könnte eine reiner Software-Geschichte sein. Geforce interessiert da sowieso kaum noch jemanden...
also verglichen mit der Konkurrenz gibt Nvidia immer Vollgas... deine Behauptungen sind einfach schwach.
Bevor überhaupt das Produkt draußen ist oder ohne interne Verbindungen. wirklich schwach solche Aussagen

Troyan
2024-12-16, 10:24:42
RTX5060 TI angeblich mit 16GB, normale mit 8GB: https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb

Frage mich bei der Bandbreite, wieso man die normale nicht auf 96bit stutzt und dann 12GB verbaut. Die GPUs sollten ja niemals bandbreitenlimitiert sein.

AffenJack
2024-12-16, 10:58:35
RTX5060 TI angeblich mit 16GB, normale mit 8GB: https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb

Frage mich bei der Bandbreite, wieso man die normale nicht auf 96bit stutzt und dann 12GB verbaut. Die GPUs sollten ja niemals bandbreitenlimitiert sein.

Ohh mann, wenn man sich gezwungen sieht so spät noch 16GB Clamshell zu verbauen kommen die 3GB Chips von GDDR7 wohl erst im zweiten Halbjahr. Wegen nem Monat oder 2 hätte würde man nicht zu solchen Lösungen greifen. Absolut nervig, dass die Speicherhersteller hier nix hinkriegen.

aceCrasher
2024-12-16, 11:25:23
Ich verstehe nicht wieso Nvidia bei der 4060 nicht einfach auf ein 96bit interface gegangen ist um die 12GB zu realisieren. Mit den 28gbps+ GDDR7 Modulen ist doch trotzdem noch wesentlich mehr Bandbreite da als bei der 4060 mit 128bit GDDR6. Gleichzeitig spart man dann auch noch ein bisschen Die-Fläche.

8GB waren bei der 4060 schon grenzwertig, bei der 5060 ist es einfach nur noch lächerlich. Wer kauft bitte eine Karte für >300€ die JETZT schon deutlich zu wenig Speicher für ihre eigenen Features (DLSS3) hat?

Naja vermutlich schätze ich den Mainstream-Markt da aber falsch ein. In 24 Monaten toppt die 5060 dann die Steam Charts. Ich persönlich werde Leuten aber konsequent davon abraten noch 8GB Gaming Karten zu kaufen. Dann lieber eine Alternative von AMD/Intel oder direkt eine 5060ti mit angeblich (Link (https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb)) 16GB.

x-force
2024-12-16, 11:28:44
Ich verstehe nicht wieso Nvidia bei der 4060 nicht einfach auf ein 96bit interface gegangen ist um die 12GB zu realisieren.

geplante obsoleszenz.
ist das wirklich neu für dich?

basix
2024-12-16, 11:53:07
RTX5060 TI angeblich mit 16GB, normale mit 8GB: https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-to-feature-16gb-vram-rtx-5060-reportedly-sticks-to-8gb

Frage mich bei der Bandbreite, wieso man die normale nicht auf 96bit stutzt und dann 12GB verbaut. Die GPUs sollten ja niemals bandbreitenlimitiert sein.

Für die 5060 Ti ist 16GB ja cool (wenn auch etwas overkill). Aber bei der 5060 sehe ich 96bit mit Clamshell als gute Variante. 8GB ist heutzutage einfach ein Hemmschuh (für eine nigelnagelneue Karte). Aber es sind nur mal Gerüchte. Evtl. gibt es ja trotzdem 12GB für die 5060. B580 macht es vor ;)

Was dem allem ein wenig im Weg steht: 5070 mit 12GB.

Troyan
2024-12-16, 12:04:00
Wieso? 4060 TI hat auch 16GB gegenüber den 12GB der 4070. Sehe da kein Problem.

basix
2024-12-16, 12:15:54
Das ist mehr so ein Portfolio / Psychologie Ding.

Ich kaufe eine fast doppelt so teuere 5070 und die hat "nur" gleich viel Speicher wie eine 5060. Gibt natürlich mit der 4060 Ti 16GB und 3060 12GB bereits Fälle in der Vergangenheit, wo das so krumm war. Für uns Kunden wäre eine 5060 12GB in jedem Fall besser. Den 5060 Super Refresh kann man dann ja mit 3Gbit Module machen, dann bleibt es bei 12GB und hat etwas mehr Bandbreite.

Troyan
2024-12-16, 12:21:59
Hatte vor zwei 2 Jahren den iPhone-Vergleich gebracht:
Ein iPhone 14 mit 512GB ist auch günstiger als ein iPhone 14 Pro mit 128GB.

Die 5700 ist deutlich schneller, daher kostet diese Karte mehr.

dildo4u
2024-12-16, 12:25:11
NV will natürlich die zusätzlichen 150$ daher sind 5060 8GB und 5070 12 GB unattraktiv.
Ich tippe drauf das die 5070 TI für 750 und 5600TI bei 450 kommen.
5060 TI hat 4070 Performance mit genug Vram.

Hatstick
2024-12-16, 12:35:09
750€ für eine 5070Ti 16GB? (Oder habe ich das mit den 16GB bei einer 5070Ti falsch verstanden?)
Das wäre ja fast zu schön, um wahr zu sein!

Ich denke, um die völlig absurden Preise der 5080+ besser abzurunden, wird die 5070Ti 16GB um die 900-999€ positioniert und dann kann man auch wieder seine 1400 - 1500€ für die 5080 ansetzen.
So entsteht der Eindruck, das es eine aktuelle Oberklasse Gen von nVidia mit 16GB "schon" für unter 1000 gibt! :wink:

Die Karte passt perfekt rein, um knapp einen Tausender abzuschöpfen.

Troyan
2024-12-16, 12:36:45
Naja, ist ja der selbe Prozess. Sollte also kaum höhere Fertigungskosten geben. Ich kann mir vorstellen, dass man bei den aktuellen Preisen bleibt.

dildo4u
2024-12-16, 12:39:41
750€ für eine 5070Ti 16GB? (Oder habe ich das mit den 16GB bei einer 5070Ti falsch verstanden?)
Das wäre ja fast zu schön, um wahr zu sein!

Ich denke, um die völlig absurden Preise der 5080+ besser abzurunden, wird die 5070Ti 16GB um die 900-999€ positioniert und dann kann man auch wieder seine 1400 - 1500€ für die 5080 ansetzen.
So entsteht der Eindruck, das es eine aktuelle Oberklasse Gen von nVidia mit 16GB "schon" für unter 1000 gibt! :wink:

Die Karte passt perfekt rein, um knapp einen Tausender abzuschöpfen.
Sorry ich meinte US Preise bei uns natürlich mehr.
Wobei 750$ natürlich nur ohne die Trump Steuern möglich sind.

BlacKi
2024-12-16, 13:10:39
750€ für eine 5070Ti 16GB? (Oder habe ich das mit den 16GB bei einer 5070Ti falsch verstanden?)
Das wäre ja fast zu schön, um wahr zu sein!

Ich denke, um die völlig absurden Preise der 5080+ besser abzurunden, wird die 5070Ti 16GB um die 900-999€ positioniert und dann kann man auch wieder seine 1400 - 1500€ für die 5080 ansetzen.
So entsteht der Eindruck, das es eine aktuelle Oberklasse Gen von nVidia mit 16GB "schon" für unter 1000 gibt! :wink:

Die Karte passt perfekt rein, um knapp einen Tausender abzuschöpfen.die karte wird recht spät kommen. und kaum langsamer als die 5080(vl 10-15%). es ist ja nur eine salvage karte des 5080 models. ich denke, die wird schneller als die 4080 und deshalb einen 999$ preis haben die 5080 die kaum schneller ist dann für 1199$. dann kannst du 50-100€ nochmal als europreis draufschlagen.

dildo4u
2024-12-16, 13:33:11
Der Große Unterschied scheint das TDP zu sein ist halt die Frage wie viel OC NV zulässt, 285 vs 400 Watt würde deutlich mehr Takt erlauben.

x-force
2024-12-16, 14:13:34
Die Karte passt perfekt rein, um knapp einen Tausender abzuschöpfen.

genauso wirds kommen. weniger drin, gleicher preis, alte masche.

bei 350w tpd bleibt nur noch luft für eine 5080. 5090 wird unter umständen ausfallen und 5080 irgendwo bei 1500 den platz einnehmen.

reaperrr
2024-12-16, 16:21:58
genauso wirds kommen. weniger drin, gleicher preis, alte masche.

bei 350w tpd bleibt nur noch luft für eine 5080. 5090 wird unter umständen ausfallen und 5080 irgendwo bei 1500 den platz einnehmen.
Für die 5090 schwirren 550-600W im Raum.

Die wird wohl schon kommen, bloß halt noch krasser in Sachen Verbrauch und Kühlung, sowie Preis.

999$/1199€ - 5070 Ti
1299$/1549€ - 5080
2199$/2649€ - 5090

Sowas in der Richtung.

Außer die 8800XT schafft ein massiv besseres P/L und schlägt außerdem die 5070 klar in Raster, dann wird die 5070 Ti vielleicht nen Tick günstiger.

Hakim
2024-12-16, 16:34:27
5070 mit 12 GB ware halt echt der Grund warum ich diesmal evtl die roten nehme. Denke 5070ti für 800+ mache ich nicht mit. Und vermutlich wird die 5060ti wieder nur einen kleinen Sprung bei der Performance zum Vorgänger machen. Ich sehe es schon kommen, nach dem Aufschrei über die 12 GB bei der 5070 bringt NV nach Monaten die super Version mit 24 GB, ähnlich wie 4060ti damals. Aber erst mal die ungeduldigen melken

MSABK
2024-12-16, 16:45:44
Unter $2499 würde ich nicht ausgehen bei der 5090.

prinz_valium_2
2024-12-16, 17:22:10
750€ für eine 5070Ti 16GB? (Oder habe ich das mit den 16GB bei einer 5070Ti falsch verstanden?)
Das wäre ja fast zu schön, um wahr zu sein!

Ich denke, um die völlig absurden Preise der 5080+ besser abzurunden, wird die 5070Ti 16GB um die 900-999€ positioniert und dann kann man auch wieder seine 1400 - 1500€ für die 5080 ansetzen.
So entsteht der Eindruck, das es eine aktuelle Oberklasse Gen von nVidia mit 16GB "schon" für unter 1000 gibt! :wink:

Die Karte passt perfekt rein, um knapp einen Tausender abzuschöpfen.

So wird es wohl sein.
Außer AMD überrascht und die 8800XT wird gut und günstig. Denn die 5070TI ist die Karte, mit der man diese auf jeden Fall in allem schlagen will und wahrscheinlich auch wird. Die 5070 könnte dafür zu schwach sein, falls RDNA4 ausnahmsweise gut wird.

699€ (3080 release Preis) wäre wirklich okay. Aber ob das zu erwarten ist?

reaperrr
2024-12-16, 17:58:46
5070 mit 12 GB ware halt echt der Grund warum ich diesmal evtl die roten nehme. Denke 5070ti für 800+ mache ich nicht mit. Ich sehe es schon kommen, nach dem Aufschrei über die 12 GB bei der 5070 bringt NV nach Monaten die super Version mit 24 GB, ähnlich wie 4060ti damals. Aber erst mal die ungeduldigen melken
Wahrscheinlich wird irgendwann ne 18GB-Variante kommen, wenn es genug 3GB GDDR7 Chips gibt.

Und vermutlich wird die 5060ti wieder nur einen kleinen Sprung bei der Performance zum Vorgänger machen.
Ich hätte gedacht, dass die 5060 Ti diesmal vielleicht der GB205-Salvage wird, weil die 5070 vermeintlich den Vollausbau von GB205 bekommt.

Aber neueste Gerüchte besagen, die 5060 Ti wird wieder 128bit (also wohl GB206), bloß diesmal immer mit 16GB.

GB206 soll wie AD106 nur 36 SM im Vollausbau haben, dann wären für die Ti maximal 2 SM mehr als bei der 4060 Ti möglich, also in dem Fall ja, wieder nur ein kleiner Sprung.

rentex
2024-12-16, 19:09:57
https://wccftech.com/nvidia-geforce-rtx-5090-along-with-other-rtx-50-series-gpus-sleaked-on-zotac-website/

Hatten wir das schon?

00-Schneider
2024-12-16, 19:46:00
D.h. ein 512bit SI ist damit(32GB VRAM) gesichert?

Thomas Gräf
2024-12-16, 20:04:32
Ich glaube nicht dass du in 2-3 Monaten eine 5090 zu UVP bekommen wirst.

Die "Founder Editions" werden im Homöopathischen Stückzahlen vorhanden sein, die in 0,1 Sekunden von ScalperBots und Bots in Auftrag der Chinesischen Firmen ausverkauft sind.

Die Partner Karten von ASUS, MSI... werden die ersten 3-6 Monate auch gut ausverkauft sein, wieso sollte es dieses mal anders sein.

Da gehört schon sehr viel Glück dazu eine 5090 in 2-3 Monaten zu UVP in den Händen zu halten.

Diesen ganzen Stress mit jeden Tag alle Online Shopps abklappern etc. für nur 200-400€ na ich weis nicht, muss jeder für sich entscheiden ob es das Wert ist.
- Abzüglich 22€ pro Monat für Geforce Now, wo noch nicht mal alle Spiele Enthalten sind.

Zu dem, sind so viele Unbekannte Variable wie.
Je nach Preis der 5080 und 5090 wird die 4090 nicht viel im Preis sinken.

Gegen diese ChinaBots muss doch was gehen.
Vielleicht mal den nV Support mit solchen Hinweisen nerven...

https://datadome.co/learning-center/how-to-stop-scalper-bots-and-prevent-scalping/

Nach China darf die Karte nicht dachte ich.
Außerdem können die ja auch nicht hunderte Lieferadressen haben, jeder max eine 5090 und gut is. ;)

monstar-x
2024-12-16, 21:54:47
2199$/2649€ - 5090

Sowas in der Richtung.


Glaube ich auf keinen Fall.
1999US / 2099€ mehr wird die 5090 Founders Edition nicht kosten.

Unter $2499 würde ich nicht ausgehen bei der 5090.

Das wäre je nach Bundesland 2700-2900$ an der Kasse, glaube ich nicht.

Hübie
2024-12-16, 22:03:37
Es wäre naiv zu glauben, die Chinesen hätten nicht weiterhin Zugriff auf Equipment von ASML oder High-end Produkte von nVidia. ;-)

Thema Bots: Viele von denen gehen über das Backend vom Browser, laufen headless
und sind somit bedeutend schneller, als jeder Mensch es je sein könnte. Aber genau da könnte man Algorithmen implementieren, die erkennen, wenn ein Bestellprozess unmenschlich schnell ist.
Captcha könnte man zusätzlich einbauen und dann noch Ablehnung von Kreditkarten. Debitkarten sind für Verbraucher eh die bessere Wahl.
Ansonsten ist es schwierig, da Geofencing mega simpel zu umgehen ist und man aus einem VPN heraus ebenfalls nicht immer identifizierbar ist. Am besten du nutzt selbst einen BAAS, wenn du schnell eine Karte brauchst. :D

Sardaukar.nsn
2024-12-16, 22:08:05
Glaube ich auf keinen Fall.
1999US / 2099€ mehr wird die 5090 Founders Edition nicht kosten.
...
Das wäre je nach Bundesland 2700-2900$ an der Kasse, glaube ich nicht.

https://uploads.disquscdn.com/images/561840afe5ea05e2e56bee60a64c4438499065dc1cb69a80a68cbcea7631e3b1.gif

MSABK
2024-12-16, 22:19:44
Glaube ich auf keinen Fall.
1999US / 2099€ mehr wird die 5090 Founders Edition nicht kosten.



Das wäre je nach Bundesland 2700-2900$ an der Kasse, glaube ich nicht.

Von Amd wird kein Konkurrent kommen und Nvidia wird das ausnutzen und die Menschen werden es zu jedem Preis kaufen.

The_Invisible
2024-12-16, 22:23:58
Diese wilden Preisdiskussionen mit >2500+ gabs zur 4090 auch schon, was rausgekommen ist weiß man eh und da war der EUR auch gerade im Keller. Bleib auch dabei, max 1999USD + Deppenaufschlag EU. Am Anfang natürlich teuer wegen Hype, Verknappung & Co.

Hab aber eh keinen Stress. Mal abwarten was für Modelle kommen und dann wieder eins finden das kein nerviges Spulenfiepen und/oder Lüfter hat, wird wieder ein Spaß :freak:

x-force
2024-12-16, 22:35:23
Mal abwarten was für Modelle kommen und dann wieder eins finden das kein nerviges Spulenfiepen und/oder Lüfter hat, wird wieder ein Spaß :freak:

5090 auf luft wäre sehr unvernünftig

Sardaukar.nsn
2024-12-16, 23:15:02
5090 auf luft wäre sehr unvernünftig

Ich hoffe da wieder etwas auf Inno3D die mit Alphacool ne gute Kollaboration hatten. Gerne auch direkt als zero-Bullshit, 1-Slot, Pro Version: https://geizhals.de/inno3d-geforce-rtx-4090-ichill-frostbite-pro-c4090-246x-1833fbp-a3009693.html

monstar-x
2024-12-16, 23:19:27
Hab aber eh keinen Stress. Mal abwarten was für Modelle kommen und dann wieder eins finden das kein nerviges Spulenfiepen und/oder Lüfter hat, wird wieder ein Spaß :freak:

Ja, darauf hab ich auch gar keine Lust, das ist so nervig.

Ich bin froh deine meine MSI Suprim so leise ist, das erste mal das ich keinen einzigen Gedanken verschwendet hab das Ding unter Wasser zu setzten.

Raff
2024-12-17, 02:03:22
D.h. ein 512bit SI ist damit(32GB VRAM) gesichert?

Der GB202 scheint unfassbar fett zu sein und mit dem derzeit verfügbaren GDDR7 (GT/s) an 256 Bit könnte man das Biest nicht füttern. Insofern würde ich das mal als gesetzt ansehen. Aber warum zum Geier gibt es keinen 384-Bit-Chip für den "Zwischenraum"? :confused:

MfG
Raff

Neosix
2024-12-17, 02:49:30
Schreit wieder alles nach der "Super Zwischengeneration" die dann deutlich ausgewogener, und wahrscheinlich viel besseres Preisleistung haben wird. UND MEHR RAM.
Bin echt am überlegen den 50er Kauf 1 Jahr zurück zu stecken und dann auf die Super zu warten. Dann kriegt man wahrscheinlich auch in der 70ti/80 Klasse vernümpftig Ram fürs Geld.

ps. ja sorry ich bin immer noch butthurt mit meiner 4070ti, die super ti, war günstiger, schneller und hatte 16vs12 ram. wir sind uns ja hier hoffentlich alle einig, das die 70ti hätte von anfang an so aussehen sollen. Und hier scheint sich die Geschichte 1:1 zu wiederholen. (und bevor einer ankommt, und sagt, hättest dir doch ne 4080 holen sollen, nein budget war irgend wann alle, mehr ging nicht. Nicht jeder kann sich ne 90 in den Rechner stecken und sich zurücklehnen).

Kriegsgeier
2024-12-17, 06:24:35
Es kommt drauf an von welcher Karte man kommt.
Die Wahrscheinlichkeit, dass ein Besitzer einer RTX 4090 auf RTX 5090 upgradet ist eher gering, oder?

3090 --> 5090 eher

Dennoch, sollte die Karte wirklich für 2000 USD starten dann sehe ich schwarz: es wird in 2-5 s. ALLES ausverkauft sein. Und dann dieser Zustand gute 6 Monate andauern. Es werden Karten ab und zu mal vorhanden sein aber immer nur für 2-5 s. und das ist für einen normalen Menschen quasi nicht kaufbar!

Also, bitte 2599-2999€ und dann kriegt man eine!

Hübie
2024-12-17, 06:46:45
Wie war das denn beim Launch der 4090? Ich habe das als nicht so schlimm wahrgenommen und es gab relativ viele zum MSRP am launchday...

Kriegsgeier
2024-12-17, 06:53:59
Hört auf bitte die RTX 5080 mit RTX 4090 zu vergleichen! Die RTX 5080 könnte 2x RayTracing Leistung der RTX 4090 haben und dann rutscht die RTX 4090 locker unter 1000€ Straßenpreis. Die 24GB helfen da auch nicht - sieht man bei der RTX 3090 --> kostet jetzt auch keine 700€ mehr.

Und bei der RTX 5090 erwarte ich locker 3,5x RT-Leistung einer RTX 4090. Vielleicht auch genau das war der Grund hier 32GB zu spendieren? Und nicht nur Ai?

Preislich wäre die RTX 4090 dann für die "Sparfüchse" interessant!

RTX 4090 (RT=1x) --> 800€ (Straße)
RTX 5080 (RT=2x) --> 1299€
RTX 5090 (RT=3,5x) --> min. 2499€

Erst mit dieser neuen Generation und das mit RTX 5090 wird RT erst so richtig interessant! CP 2077 wäre dann wirklich flüssig spielbar mit RT!

In einem Monat haben die NCIHT-Nutzer von RayTracing ein super Angebot auf der Straße: 800€ für RTX 4090 mit ihren 24GB!
Voraussetzung: die Backwell Generation bringt signifikante RT-Leistungsboost von min. 2-3x gegenüber der Hopper Modellen.

dargo
2024-12-17, 07:28:51
Der GB202 scheint unfassbar fett zu sein und mit dem derzeit verfügbaren GDDR7 (GT/s) an 256 Bit könnte man das Biest nicht füttern. Insofern würde ich das mal als gesetzt ansehen. Aber warum zum Geier gibt es keinen 384-Bit-Chip für den "Zwischenraum"? :confused:

Upselling

basix
2024-12-17, 08:42:10
5090 auf luft wäre sehr unvernünftig

Die absurd fetten Kühler der 4090 haben auch ihre Vorteile. Meine Karte läuft <300W und ist damit flüsterleise. Spulenfiepen habe ich, das ist aber Modell-bedingt (Asus).

Wie war das denn beim Launch der 4090? Ich habe das als nicht so schlimm wahrgenommen und es gab relativ viele zum MSRP am launchday...

Dort wo ich herkomme gab es definitiv keine zu MSRP und sehr bald keine mehr (waren ausverkauft).

Hört auf bitte die RTX 5080 mit RTX 4090 zu vergleichen! Die RTX 5080 könnte 2x RayTracing Leistung der RTX 4090 haben und dann rutscht die RTX 4090 locker unter 1000€ Straßenpreis. Die 24GB helfen da auch nicht - sieht man bei der RTX 3090 --> kostet jetzt auch keine 700€ mehr.

Und bei der RTX 5090 erwarte ich locker 3,5x RT-Leistung einer RTX 4090. Vielleicht auch genau das war der Grund hier 32GB zu spendieren? Und nicht nur Ai?

Preislich wäre die RTX 4090 dann für die "Sparfüchse" interessant!

RTX 4090 (RT=1x) --> 800€ (Straße)
RTX 5080 (RT=2x) --> 1299€
RTX 5090 (RT=3,5x) --> min. 2499€

Das ist absolut unrealistisch. Auch wenn ich mir es wünschen würde, die "locker 3.5x" werden nicht passieren. Blackwell wird relativ gesehen in RT vermutlich etwas schneller sein als Ada aber bei weitem nicht 2x von einer 5080 auf eine 4090. Wir können froh sein wenn die 5090 2x so schnell in RT wird wie die 4090.

Nvidia hat bei Turing -> Ampere -> Blackwell ihre RT-Cores jeweils doppelt so schnell gemacht. Sieht man das in Games? Nö. Lovelace ist nur bei reinem Pathtracing überproportional schneller (mit z.B. Shader Execution Reordering) und auch dort ist es meistens weit weg von 2x. Nur in einigen wenigen PT Games ist eine 4090 2x schneller als z.B. eine 3090 aber das sind nicht viele.

Upselling

Naja, eine 5080 Ti dazwischen mit 24 GByte wäre Upselling. Zwischen einer 5080 und 5090 wird auch preislich eine so grosse Lücke klaffen, wo nicht viele bereit sein werden darüber zu springen. Das kann man nicht mehr Upselling nennen.
Eine 5080 ist aber ziemlich lukrativ für Nvidia. 16GB und ein relativ moderat grosser Die zu ~1000...1200$? Da macht man viel Marge. Wohl eben mehr Marge als mit einer 5080 Ti auf GB202 Basis.

GB202 gibt es in dieser Form nur wegen AI und (Semi)professionellen Anwendungen. Die Gamer können sich mit bis und mit 5080 anfreunden und die 5090 ist für ML/AI User und die Enthusiasten, die einfach das beste wollen.

robbitop
2024-12-17, 08:49:29
Eine 40 ti gabs bei Ada nicht. Ich fürchte es wird auch keine zu Blackwell geben. Mit der 80 wird man wahrscheinlich wie letztes mal mit einem ~ halben Topdog (gemessen an dessen Vollausbau) bekommen und alles wird noch teurer. Yay. X-D

basix
2024-12-17, 08:55:47
Da die Lücke diesmal noch grösser sein wird und die 5080 so wie es aussieht mit dem Maximalausbau vo GB203 kommen wird: Beim (Super) Refresh könnte es schon eine 5080 Ti mit 24GB geben.

OgrEGT
2024-12-17, 08:57:02
Bin mir nicht sicher ob CP2077 oder AW2 PT noch als Zugpferde für Blackwell ziehen da ausgelutscht...
Auch ein W4 nicht da das wohl noch viel zu weit entfernt ist... Welche PT Titel gibt es denn sonst noch?

Thunder99
2024-12-17, 09:04:59
Nvidia wird verlangen was sie wollen. Die 5090 wird bis dahin teuerste nicht Profikarte.
Alles wird teuerer weil es ja eh gekauft wird. Weiter unten nur maßvoll, weiter oben exponentiell.

Und woher soll die massive RT Leistung kommen? Wäre das skeptisch was da außerhalb der theoretischen Tests wirklich ankommt.

Kriegsgeier
2024-12-17, 09:05:49
was bei RTX 5090 zum Problem werden könnte ist, dass der Chip zum ersten Mal quasi zusammengeklebt aus 2 RTX 5080 Chips sein wird.

Dieser Umstand könnte relativ schlecht bei Gaming auswirken. Vielleicht nicht bei RT aber im klassischen Rendering?

aceCrasher
2024-12-17, 09:18:51
Der GB202 scheint unfassbar fett zu sein und mit dem derzeit verfügbaren GDDR7 (GT/s) an 256 Bit könnte man das Biest nicht füttern. Insofern würde ich das mal als gesetzt ansehen. Aber warum zum Geier gibt es keinen 384-Bit-Chip für den "Zwischenraum"? :confused:

MfG
Raff
Upselling. Genau deswegen wird der Abstand zwischen der größten und der zweitgrößten Karte immer größer. Ich wollte damals eigentlich eine ~1200€ Karte (4080), am Ende ist es aber eine 4090 geworden weil der Chip einfach massiv größer war. Bei der 3090 vs 3080 hat das nicht gezogen.

Hier ist es jetzt noch schlimmer. Die 5090 hat ungefähr doppelt so viele Shader und ein doppelt so breites Speicherinterface. Als Enthusiast ist es schwer mit dem Gedanken zu leben eine Karte zu kaufen die nur halb so viele Shader hat wie das Top-Modell. Das tut einfach weh. Also werden viele dann lieber mit zusammengebissenen Zählen die 90er kaufen.

Und für die die stoisch ausharren gibt es dann nach einem Jahr eine 5080 Super oder 5080ti auf GB202 Basis mit einem 384bit interface. Das ist zumindest meine Vorhersage.

mironicus
2024-12-17, 09:21:11
Mich interessiert die Spieleleistung nicht wirklich. Wie schnell die Chips in Stable Diffusion oder Topaz Gigapixel sind dagegen schon. Aber Benchmarks die das bequem für einen machen, gibt es wohl leider nicht?

Fragman
2024-12-17, 10:13:21
Und für die die stoisch ausharren gibt es dann nach einem Jahr eine 5080 Super oder 5080ti auf GB202 Basis mit einem 384bit interface. Das ist zumindest meine Vorhersage.

Es ist wie bei der aktuellen Generation genauso möglich das man die xx90 als Leuchtturmprojekt da oben stehen lässt und die Lücken nicht füllt.

In dem Fall wäre es besser die 5090 gleich zu kaufen weil man länger etwas davon hat.
Was zusätzliche Würze in die Kaufentscheidung bringt. :D

wolik
2024-12-17, 10:15:39
was bei RTX 5090 zum Problem werden könnte ist, dass der Chip zum ersten Mal quasi zusammengeklebt aus 2 RTX 5080 Chips sein wird.

Dieser Umstand könnte relativ schlecht bei Gaming auswirken. Vielleicht nicht bei RT aber im klassischen Rendering?

MCM? Warten wir ab.

BlacKi
2024-12-17, 10:23:36
Upselling+1

Upselling. Genau deswegen wird der Abstand zwischen der größten und der zweitgrößten Karte immer größer. Ich wollte damals eigentlich eine ~1200€ Karte (4080), am Ende ist es aber eine 4090 geworden weil der Chip einfach massiv größer war. Bei der 3090 vs 3080 hat das nicht gezogen.

Hier ist es jetzt noch schlimmer. Die 5090 hat ungefähr doppelt so viele Shader und ein doppelt so breites Speicherinterface. Als Enthusiast ist es schwer mit dem Gedanken zu leben eine Karte zu kaufen die nur halb so viele Shader hat wie das Top-Modell. Das tut einfach weh. Also werden viele dann lieber mit zusammengebissenen Zählen die 90er kaufen.

Und für die die stoisch ausharren gibt es dann nach einem Jahr eine 5080 Super oder 5080ti auf GB202 Basis mit einem 384bit interface. Das ist zumindest meine Vorhersage.+1

das war so erfolgreich, man muss das mit BW eben noch mal auf die spitze treiben...

ich glaube, das geht irgendwann soweit, das die leute einfach keine highend+mehr kaufen. was nv ebenfalls wieder freut, denn dann kann man billige karten ebenfalls teuer verkaufen. 128bit SI karten für 600€ incomming. wenigstens mit 16gb. richtig?

Kriegsgeier
2024-12-17, 10:25:22
also, ich habe mit RTX 3090Fe gute 4 Jahre "überlebt" und das relativ gut!

Die RTX 5090 nicht zuletzt wegen 32GB sollte dann gute 6 Jahre aushalten: RTX 5090 wird meine GTA6-Karte... Da werden wahrscheinlich die 32GB sehr passend werden.
Ach ja: meine Auflösung bleibt für die nächste 6 Jahre bei 3440x1440p - habe mir gerade erst ein schönen 240Hz-WOLED-Monitor gegönnt ;)
Ja, richtig - gute 2 Generationen überspringen will ich mit der Karte.

Dann direkt auf RTX 8090 mit 64GB in TSMC 1,6nm Prozess

basix
2024-12-17, 10:27:38
was bei RTX 5090 zum Problem werden könnte ist, dass der Chip zum ersten Mal quasi zusammengeklebt aus 2 RTX 5080 Chips sein wird.

Die Chipdaten passen aber nicht (192 SM vs. 84 SM). Wenn die Gerüchte korrekt sind, ist GB202 immer noch monolithisch.

MiamiNice
2024-12-17, 10:35:27
Um auch mal eine Zahl in den Raum zu werfen, ich rechne mit ca. 3500€ bis die Karte in meiner Kiste ist. Ca. 3000€ für die Karte, 400-500€ für den Wasserkühler.
Und nochmal 500€ für ein neues Netzteil :freak:

Kriegsgeier
2024-12-17, 10:36:01
klar monolitisch aber dennoch 2x von GB203: ist ja ein Riesen Spalt in der Mitte.
aus 192 SM werden ja nur 170 SM in RTX 5090 schaffen - man hat ja quasi einen verunreinigten Chip wo die verunreinigte SM-Blöcke einfach abgeschaltet worden sind... Binnig

Kriegsgeier
2024-12-17, 10:37:39
Um auch mal eine Zahl in den Raum zu werfen, ich rechne mit ca. 3500€ bis die Karte in meiner Kiste ist. Ca. 3000€ für die Karte, 400-500€ für den Wasserkühler.
Und nochmal 500€ für ein neues Netzteil :freak:

Das wäre einfach krass!

400-500€ für einen WaKü? Wow. Bin bereit 250€ auszugeben, aber direkt 400€? Krass.

basix
2024-12-17, 10:38:17
Wenn Nvidia hier mitliest, wird sie wohl 3000$ sein :freak:

Ich erwarte eher sowas wie 1999$ als MSRP (die 4090 war bei 1599$). Es ist immer noch eine 5090 und keine Titan. Verkaufs- / Strassenpreise sehen wir dann.

Relex
2024-12-17, 10:39:44
Ich sollte wohl doch versuchen zu scalpen. Gibt ja wohl genug leute, die jeden beliebigen preis zahlen würden. Sehr geil. Den gewinn dann gleich wieder in nvidia aktien investieren. :D

basix
2024-12-17, 10:40:01
:D

Vielleicht ist sie dann 1899$ und alle denken "das ist ja sooo günstig" und stürzen sich darauf ;)

Kriegsgeier
2024-12-17, 10:42:09
also für 2000€ kaufe ich min. 2 Stück eher 3 sogar!

Relex
2024-12-17, 10:42:39
Na ja, das Hauptargument wird dann sein "wenn sie mehr performance bietet, darf sie auch mehr kosten".... ;D

basix
2024-12-17, 10:44:28
Ist grundsätzlich auch so. Wenn ich mehr dafür bekomme, bin ich auch bereit mehr zu zahlen. Bei Lovelace war P/L ziemlich neutral über den gesamten Produkt-Stack. Früher(TM) war das noch anders, da waren die High-End SKUs deutlich schlechter hinsichtlich P/L. Für mich ist das einer der Hauptgründe, wieso bei Lovelace so viele Leute eher etwas teurer eingekauft haben als früher.

Aber irgendwo sollte man auch noch den absoluten Preis in betracht ziehen und nicht nur den relativen ;)

Relex
2024-12-17, 11:04:45
Na ja, die Leistung steigt ja über die Jahre exponentiell. Schon seit Jahrzehnten. (zumindest bisher)

Wenn man dafür quasi linear mehr Geld ausgeben würde, dann würde ne einzelne GPU, keine Ahnung, zig Milliarden oder noch viel mehr kosten.

Das Argument kann also niemals funktionieren.

Man könnte vielleicht damit argumentieren, dass man mit einer besonders teuren Grafikkarte sich besonders weit von den Konsolen absetzen kann und damit besonders hohe Frameraten in Spielen erreichen kann, die früher zu geringeren Preisen nicht möglich waren.

Aber auch das ist ja praktisch falsch. Im Gegenteil.

Zu PS4 Zeiten hatte man mit einer GTX1070 oder 1080 VIEL mehr performance relativ zu den Konsolen als man heute selbst mit einer 5090 hätte. Und die Karten gabs damals für nen Appel und ein Ei...

Dazu kommt, dass man heute noch viel stärker als früher auf Upscaling setzen muss.


Auch das VRAM Thema war früher nie so präsent wie heute, wo man sich selbst bei 1000+€ karten noch Gedanken darüber machen muss und nur die teuerste Karte VRAM bietet, den man als wirklich in jeder lage als ausreichend bezeichnen kann.


Also gefühlt bekommt man trotz steigender Preise immer weniger und mit der teuersten GPU eher das was ich erwarten würde. Gefühlt laufen wir bei der Chipfertigung gegen eine Wand. Den leistungssprung den die 5090 vielleicht machen wird (gegen höhere Kosten) würde man in einem funktionierenden Chipmarkt eigentlich durch die Bank bei jeder GPU erwarten. Zu gleichen preisen.
Aber das wird halt nicht passieren, weil die Chipfertigung momentan komplett im Arsch ist und effektiv kein Fortschritt mehr stattfindet.

basix
2024-12-17, 11:20:42
Beim P/L meinte ich eher innerhalb einer einzelnen Generation. Dort war Highend doppelt so teuer aber auch fast doppelt so schnell. Das war früher anders. Da bekam man 70-80% Performance für den halben Preis. Deswegen tendieren die Leute eher dazu, etwas weiter oben einzukaufen, weil die P/L Regression eben nur noch schwach vorhanden ist.

P/L ist historisch bei einer neuen Generation typischerweise deutlich verbessert worden. Deswegen haben wir keine "Millionen-Dollar" GPUs. Diese P/L Verbesserung gab es bei Lovelace aber nicht wirklich.

Das Thema VRAM usw. ist schon ziemlich arg. Eine 4070 Ti kostete 799$ und in Euro noch mehr. Doch die 12GB werden die Karte relativ schlecht altern lassen.