Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias GB202-Chip doppelt so groß wie der GB203-Chip
Leonidas
2024-03-11, 13:17:21
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-gb202-chip-doppelt-so-gross-wie-der-gb203-chip
MiamiNice
2024-03-11, 13:34:36
Wie wäre es wenn NV die 5090 gar nicht bringt? Sondern eine Titan mit GB202 und bei den normalen Karten bei 5080 mit GB203 Ende ist? Die 5090 ist eigentlich überflüssig, ist quasi nur ein Halo Produkt. Das kann auch eine Titan übernehmen, die überall mitgestet wird, aber kaum jemand in der Kiste hat, weil 4000€+. Einen GB202 Chip auf einer 5090 zu 1900€ zu verschleudern, wenn NV auch das 5 fache dafür bekommen kann, sehe ich nicht.
Dafür kann die 5080 und das restliche Portfolio im Preis steigen :D
Wenn die 5080 dann um 1600€ kostet, würde das Huang sicherlich gut gefallen. Und da keine Konlurrenz weit und breit, kommt er sicherlich auch damit durch.
Du hast eindeutig zu viele Nvidia-Aktien. :wink:
Die RTX 4080 hat gezeigt, dass der Bogen überspannt ist. Hoffen wir, dass das auch gilt, wenn es keine Konkurrenz gibt. Die Preisentwicklung der letzten Dekade ist jetzt schon pervers (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfrage-Vergleich-Grafikkarten-1442702/).
MfG
Raff
Leonidas
2024-03-11, 13:45:24
Sehe ich nicht, das NV mit 1600€ für 5080 und 4000€ für Titan durchkommt. Das kann man machen, wenn man dick an Performance-Plus bietet. Aber bei einer vermutlich mageren Generation wäre das arg riskant. Stichwort "überspannter Bogen" ;)
MiamiNice
2024-03-11, 14:10:22
Wenn ich Dich richtig verstehe, ist es noch gar nicht sicher ob die nächste Gen mager wird oder nicht. NV könnte an den Einheiten basteln, deren Auslastung noch deutlich verbessern, gut 500 Mhz Takt drauf packen und / oder diverse andere Dinge tun, die mir mangels tieferen Wissens nicht in den Kopf kommen.
NV "rettet" sich auch gerne über Features die die Welt nicht braucht aber den Balken deutlich länger erschienen lassen.
Ich würde sagen, die Karten liegen noch nicht auf dem Tisch. Wir können uns nur bei einer Sache sicher sein: Huang wird versuchen die Marge noch weiter zu steigern. Und da er konkurrenzlos ist, wird das noch bitterer für uns Spieler als bisher schon bitter gewesen ist.
GerryB
2024-03-11, 14:22:29
Denn nVidia muß faktisch erst jetzt zur finalen Design-Zielsetzung bei den kleineren Blackwell-Chips schreiten, kann sich somit bereits vom nahezu sicher bekannten Wissen leiten lassen, dass AMDs RDNA4 und Intels Blackwell eher nur Midrange-Territorium besetzen werden. Demzufolge dürfte nVidia-intern durchaus die Überlegung existieren, bei den kleineren Blackwell-Chips nur so hoch zu springen, wie man springen muß.
GB205 nur +7% klingt ganz danach
Das könnte interessant werden, zumindestens beim Preis.
(wenn RDNA4 tatsächlich <500€ bleibt)
Ob RDNA5 dann auch kleinere Midrange haben wird, ... macht wenig Sinn, solange RDNA4 läuft.
bad_sign
2024-03-11, 16:02:25
Wenn ich Dich richtig verstehe, ist es noch gar nicht sicher ob die nächste Gen mager wird oder nicht.
Ist ein einfacher Node shrink, da ist nicht sooo viel zu holen. Kein Vergleich zu den 2 von Ampere zu Ada
Fliwatut
2024-03-11, 16:08:06
Das kann man machen, wenn man dick an Performance-Plus bietet.
Das Plus macht man mit DLSS4, das nur auf den neuen Karten funktioniert und evtl. mit besserer Raytracingleistung oder man macht die alten Karten im neuen Treiber langsamer. Viele Wege führen nach Rom. In dem Sinne: non olet.
MiamiNice
2024-03-11, 16:56:55
... oder man macht die alten Karten im neuen Treiber langsamer.
Hat Nvidia schon getan mit der 4090. Die wurde erst gar nicht ganz ausgefahren, damit man mehr Luft hat zu der nächsten Gen. Imo hat NV da schon gezielt vorgesorgt.
Platos
2024-03-11, 17:00:32
Klar, sie produzieren einen riesen Chip um ihn dann künstlich per Treiber zu drosseln.
MiamiNice
2024-03-11, 17:10:25
Nö, sie fahren den Chip einfach nicht aus. So wie es bei der 4090 bittere Realität ist.
Platos
2024-03-11, 17:39:05
Nö, sie fahren den Chip einfach nicht aus. So wie es bei der 4090 bittere Realität ist.
Ok, dann hast du aber den falschen Satz zitiert bzw. falsch darauf geantwortet.
Aber warum sollten sie bei der teuren Fertigung stark abspecken, dann aber mit der noch teureren Fertigung auf einmal nicht abspecken?
Die Annahme halte ich für gewagt. Du willst einfach so sehr, dass das Ding nicht abgespeckt wird, gibts zu :tongue::freak:
Fliwatut
2024-03-11, 18:12:26
Nö, sie fahren den Chip einfach nicht aus.
Was heißt das genau?
Prinzenrolle
2024-03-11, 19:18:53
Nö, sie fahren den Chip einfach nicht aus. So wie es bei der 4090 bittere Realität ist.
Viel mehr als 10% mehr Leistung sind mit halbwegs kommoden Powerlimits auch nicht mehr drin.
The_Invisible
2024-03-11, 20:03:18
Was heißt das genau?
Der AD102 Chip auf der 4090 ist recht viel beschnitten (18xxx -> 16xxx)... im Endeffekt aber auch völlig egal wenn die 5090 trotzdem viel schneller ist.
lilgefo~
2024-03-11, 20:11:32
Der AD102 Chip auf der 4090 ist recht viel beschnitten (18xxx -> 16xxx)... im Endeffekt aber auch völlig egal wenn die 5090 trotzdem viel schneller ist.
Das schon richtig aber der Quote bezog sich auf die Behauptung Nvidia hätte die 4090 im Treiber beschnitten.
Daredevil
2024-03-11, 20:12:37
512bit und GDDR7 wäre natürlich wahnsinnig für alle Speicherrelevanten Anwendungen.
Am besten noch 24-36-48GB und ab geht SDXL ;D
Ich könnte mir auch gut vorstellen, dass es mal bald Zeit für eine dicke Titan Karte ist.
Eine TitanV war auch für HPC Klasse und unnormal teuer, aber offensichtlich gibt es dafür einen Markt. Zur Mining Zeit sind auch 3090 für über 2000€ an Prosumer gegangen, insofern ist in Zeiten von 5000€ MacBooks sicherlich Luft nach oben. Und für 4K+RT/8K haben wir immer noch keine Lösung. :D
Und die Lücke zwischen "5080" und "5090/Titan" könnte halt auch einfach ne 4090 füllen, man will die alten Karten ja auch noch verkloppen.
wolik
2024-03-11, 20:35:33
Sehe ich nicht, das NV mit 1600€ für 5080 und 4000€ für Titan durchkommt. Das kann man machen, wenn man dick an Performance-Plus bietet. Aber bei einer vermutlich mageren Generation wäre das arg riskant. Stichwort "überspannter Bogen" ;)
Zur Erinnerung. Es gab bereits eine goldene Titan für 2,5K. Lag wie Blei bei Händler.
Zum 512 wird 48Gb gut passen. Und Preis 2K. -2,5K
Daredevil
2024-03-11, 21:01:26
Wenn man einen Use Case findet für ne GPU und damit Geld verdienen kann, dann werden die Karten auch gekauft.
#MiningHype
https://i.pinimg.com/originals/95/0f/c3/950fc32b7dc8531e549bbf0b7a3bc18e.jpg
Am Ende ist der Preis egal, insofern man damit mehr Geld machen kann, als man reinsteckt.
The more you buy, the more you save, right? :D
maximus_hertus
2024-03-11, 21:12:15
dass AMDs RDNA4 und Intels Blackwell
Battlemage ;)
Ansonsten kann nVidia selbst wenn AMD gar nicht existieren würde nicht jeden Preis verlangen. Die höchstmögliche Marge und trotzdem viele Karten verkaufen - das ist das Ziel.
Übertreibt man es, sind zwar die Margen hoch bzw. höher, aber mangels Stückzahlen dann doch weniger Gewinn. Die 4080 ist wohl ziemlich katastrophal gelaufen. Die 999 USD für die 4080 Super sind imo ein fetter Fingerzeig, dass hier wohl eine Grenze erreicht worden ist.
Wenn man die 4090 nicht erreicht (mit der 5080) dann sehe ich keinen MSRP oberhalb der 999 USD.
Fliwatut
2024-03-11, 21:45:00
Der AD102 Chip auf der 4090 ist recht viel beschnitten (18xxx -> 16xxx)...
Danke!
iamthebear
2024-03-11, 23:32:49
Klar, sie produzieren einen riesen Chip um ihn dann künstlich per Treiber zu drosseln.
Zu dem Zeitpunkt als die Entscheidung für die 4090 gefallen ist hat man wohl noch mit deutlich mehr Performance von Navi31 gerechnet und wie dann dirchgesickert ist, dass es nur ein 300mm² GCD wird hat man versucht mit aller Kraft zurück zu rudern.
Was Blackwell angeht: Die Konkurrenz heißt hier nicht AMD, sondern 4090. Man muss beim Topmodell mehr bieten sonst wird kein 4090 Besitzer upgraden.
Und auch die 5080 wird sich nicht verkaufen wenn sie nicht mehr Performance/€ bietet als die Vorgängerkarten. Jeder der zu dem aktuellen Preis upgraden wollte hat das bereoits getan.
Ab den 70er Karten abwärts word der Markt dann eher von der Anforderung der Spiele getrieben und von 3070er Besitzern denen der VRAM nun doch zu knapp wird oder 5700 XT Besitzern die meinen "nun ruckt selbst schon 1080p Medium, Zeit für ein Upgrade".
Dies läßt natürlich neue Spekulationen ins Kraut schießen, dass der GB202-Chip vielleicht doch ein MultiChip-Konstrukt darstellt, ergo schlicht aus zwei GB203-Chips besteht.
Bei einem MCM Konstrukt (sofern das für Spiele überhaupt möglich ist) wird einiges an Silizium dafür verbraucht um die Daten von einem Die zum Anderen zu befördern. Das würde man bei GB203 auch alles mitschleppen während man umgekehrt bei GB202 am 2. Die den gesamten I/O Block wie 16x PCIe, Display Ausgänge usw. mitschleppt.
Das Ganze macht meiner Meinung nach nur Sinn wenn man es so aufbaut wie AMD bei Ryzen:
Es gibt einen I/O Die für die Kommunikation auf einem alten Node und dazu dann einen Compute Die der nur Logic enthält und von dem kann man dann einfach 1 oder 2 verbauen.
Die RTX 4080 hat gezeigt, dass der Bogen überspannt ist.
Sehe ich auch so.
BlacKi
2024-03-12, 01:14:32
Viel mehr als 10% mehr Leistung sind mit halbwegs kommoden Powerlimits auch nicht mehr drin.nicht wegen des takts, sondern der künstlichen beschneidung. der 4090 fehlen 11,111% der shader. die karte könnte also 12,5% mehr rechenleistung bieten wenn alle shader aktiv wären. zb. bei einer 4090ti.
Leonidas
2024-03-12, 02:28:57
Nö, sie fahren den Chip einfach nicht aus.
Sie fahren den sicherlich aus. Bei den Quadro-Nachfolgern für weit über 2000$. Vielleicht auch deswegen das große Interface - weil es dort gebraucht wird bzw. weil man nett viel Speicher dranhängen kann.
Battlemage ;)
Uff. Gefixt :)
Bisher hat sich im Forum noch niemand kompetent bzgl. Hardware(anforderungen) für KI aus dem Fenster gelehnt.
Oder nähere Infos zu den angeblichen Umbauten von 4090 in China geliefert.
Das wäre nötig, um dem ganzen - z.T. offensichtlichen - Unfug fundiert entgegen treten zu können.
wolik
2024-03-12, 21:12:14
Du hast eindeutig zu viele Nvidia-Aktien. :wink:
Ich werde lieber nicht in Aktien umrechnen, das Geld was ich Nvidia für Grafikkarten bezahlt habe. :redface:
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.