Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Rampage 2
2022-05-14, 22:29:30
Nein nach dem Entwurf zu urteilen können die INT Einheiten nur INT ausführen. Ich kann mir allerdings vorstellen, dass zumindest die Hälfte der FP Einheiten auch INT kann. Das kostet ja relativ wenige Transistoren zusätzlich.
Es wäre doch viel besser gewesen, wenn ALLE Recheneinheiten in den SMs, also auch die INT32-Units, FP32-fähig wären - dann könnten sie zusätzlichen FP32-Throughput liefern (im Extremfall, also wenn 0 INT32-Ops anstehen, wären das 192 FP32-Ops pro SM), denn ansonsten würden sie nur nutzlos rumstehen, falls in Ausnahmefällen (oder rein theoretisch) *gar keine* INT32-Ops anfallen.
Was die ROPs angeht:
Der Vergleich wurde mit GA102 gemacht. GA102 hat bereits weniger ROPs/SM als GA104 oder Turing zuvor. Im Prinzip ist es dasselbe Verhältnis wie bei Turing oder GA104.
Das liegt aber hauptsächlich daran, dass die GPCs von GA104 schlanker (1024 CUDA-Cores statt 1536) sind als bei GA102 und Nvidia deswegen im Endeffekt mehr GPCs bei weiterhin identischer Gesamtzahl an CUDA-Cores (6144) beim GA104 verbauen konnte - also fast exakt dasselbe Spiel wie bei TU104 (2080/Super) vs. TU102 (2080 Ti). *Aber* im Gegensatz zu Turing sind bei Ampere die ROPs den GPCs zugeordnet - deswegen hat GA104 mehr ROPs als TU104 trotz gleicher Anzahl GPCs und trotz gleich breitem Speicherinterface. Da bei TU104 bzw. Turing im Allgemeinen die ROPs an den Memory-Controller zugeordnet sind, hat TU104 trotz 6 GPCs weiterhin nur 64 ROPs, da 256Bit-Interface.
Will sagen: GA102 mangelt es massiv an GPCs - sie hat nur wenig mehr ROPs als GA104, weil sie nur wenig mehr GPCs (7 statt 6) hat. Das Verhältnis ist also nicht der Grund.
Bei Lovelace hingegen hat AD102 immerhin 12 GPCs und hätte bei gleichbleibendem Verhältnis (16 ROPs/GPC) immerhin 192 ROPs - und damit ordentlich mehr (+71%) als jetzt GA102. Von daher verwundert es mich, warum bei LL das Verhältnis nochmal verdoppelt wurde auf 32 ROPs. Und selbst der nächstkleinere Chip AD103 hätte bei gleichbleibendem Verhältnis einen gesunden Abstand von 112 ROPs zu AD102, da nur 7 GPCs. (exakt gleiche Konfiguration wie GA102)
R2
iamthebear
2022-05-15, 03:28:48
Es wäre doch viel besser gewesen, wenn ALLE Recheneinheiten in den SMs, also auch die INT32-Units, FP32-fähig wären - dann könnten sie zusätzlichen FP32-Throughput liefern (im Extremfall, also wenn 0 INT32-Ops anstehen, wären das 192 FP32-Ops pro SM), denn ansonsten würden sie nur nutzlos rumstehen, falls in Ausnahmefällen (oder rein theoretisch) *gar keine* INT32-Ops anfallen.
Das würde jedoch auch erheblichen zusätzlichen Transistoreinsatz bedeuten. Von Turing auf Ampere wurden hier ca 50% mehr Transistoren gebraucht. Für Ampere hat das noch einigermaßen Sinn ergeben, da bei einem INT Anteil von ca. 26% fast die Hälfte der INT Einheiten brach liegt.
Nun mit 128+64 sind es im Schnitt noch 18 INT Einheiten die brach liegen. 25% Transistoreinsatz für 14% mehr Performance rentiert sich nicht wirklich.
Das liegt aber hauptsächlich daran, dass die GPCs von GA104 schlanker (1024 CUDA-Cores statt 1536) sind als bei GA102 und Nvidia deswegen im Endeffekt mehr GPCs bei weiterhin identischer Gesamtzahl an CUDA-Cores (6144) beim GA104 verbauen konnte - also fast exakt dasselbe Spiel wie bei TU104 (2080/Super) vs. TU102 (2080 Ti). *Aber* im Gegensatz zu Turing sind bei Ampere die ROPs den GPCs zugeordnet - deswegen hat GA104 mehr ROPs als TU104 trotz gleicher Anzahl GPCs und trotz gleich breitem Speicherinterface. Da bei TU104 bzw. Turing im Allgemeinen die ROPs an den Memory-Controller zugeordnet sind, hat TU104 trotz 6 GPCs weiterhin nur 64 ROPs, da 256Bit-Interface.
Das ist schon klar, dass es an den zusätzlichen SM/GPC liegt, dass sich das Verhältnis verschoben hat.
Bei Lovelace hingegen hat AD102 immerhin 12 GPCs und hätte bei gleichbleibendem Verhältnis (16 ROPs/GPC) immerhin 192 ROPs - und damit ordentlich mehr (+71%) als jetzt GA102. Von daher verwundert es mich, warum bei LL das Verhältnis nochmal verdoppelt wurde auf 32 ROPs. Und selbst der nächstkleinere Chip AD103 hätte bei gleichbleibendem Verhältnis einen gesunden Abstand von 112 ROPs zu AD102, da nur 7 GPCs. (exakt gleiche Konfiguration wie GA102)
R2
Bei AD102 hast du vermutlich Recht allerdings gibt es ja nicht nur den Top Die.
AD106 wird in etwa dieselbe Performance wie die 3070 bzw. 2080 Ti davor haben. Beide hatten bisher 96 ROPs. Da finde ich 72 für AD106.nicht überdimensioniert
iamthebear
2022-05-15, 14:03:53
Q3 early
https://twitter.com/kopite7kimi/status/1525797225657696257?s=20&t=19xuTRD5bIpBrzUQls-VWQ
Das bedeutet wohl Juli oder August
horn 12
2022-05-15, 14:48:42
Vorstellung Anfang bis Mitte August, Release im September
Alles beim Alten :-)
AffenJack
2022-05-15, 15:51:49
Q3 early
https://twitter.com/kopite7kimi/status/1525797225657696257?s=20&t=19xuTRD5bIpBrzUQls-VWQ
Das bedeutet wohl Juli oder August
Passt aber nicht zu seinen genannten Zeiten für Labortests. So schnell ist das nicht möglich. Also entweder nur Paperlaunch oder Lovelace ist schon länger im Labor. Einzig die Vorstellung auf der Siggraph kann ich mir wieder vorstellen.
Platos
2022-05-15, 19:35:08
Wann gabs eig. bei Ampere die ersten Benchmarks ? Weiss da noch jemand, wie viele Wochen vor Launch die kamen?
Wenn es Juli oder August launcht, müssten bald Benchmark-Leaks kommen.
Linmoum
2022-05-15, 19:42:25
Für "early Q3" müssten davon ab die AiB schon längst glühen bis zum geht nicht mehr. Aus der Richtung hört man bisher aber noch gar nichts durchsickern. Das passt nicht zusammen.
The_Invisible
2022-05-15, 20:33:29
Vorstellung Anfang bis Mitte August, Release im September
Alles beim Alten :-)
Release im Sommer wäre eh cool, kaufen die wenigsten Leute Grafikkarten (war auch voriges Jahr der beste Zeitpunkt) und man hätte wahrscheinlich gute Verfügbarkeit. Bin aber auch eher für Sep/Okt Release...
rentex
2022-05-16, 07:25:40
Release im Sommer wäre eh cool, kaufen die wenigsten Leute Grafikkarten (war auch voriges Jahr der beste Zeitpunkt) und man hätte wahrscheinlich gute Verfügbarkeit. Bin aber auch eher für Sep/Okt Release...
Auf die gleiche Idee, kämen ebenfalls, andere Käufer...
Es wird September bleiben und wenns blöd läuft, wird es wie bei Ampere laufen!
Leonidas
2022-05-16, 08:50:28
Für "early Q3" müssten davon ab die AiB schon längst glühen bis zum geht nicht mehr. Aus der Richtung hört man bisher aber noch gar nichts durchsickern. Das passt nicht zusammen.
AIBs werden wahrscheinlich noch kürzer gehalten. Warum? Weil Leaks dort unvermeidbar sind.
Linmoum
2022-05-16, 09:23:12
Warum sollte man sich gegenüber den AiB plötzlich anders verhalten? Early Q3 wären nur noch rund 8-9 Wochen. So kurz kannst du die Boardpartner gar nicht (mehr) halten.
BlacKi
2022-05-16, 10:18:22
Wann gabs eig. bei Ampere die ersten Benchmarks ? Weiss da noch jemand, wie viele Wochen vor Launch die kamen?
Wenn es Juli oder August launcht, müssten bald Benchmark-Leaks kommen.
es wird kein bios geben um die karte zu benchen. die funktionstests werden mit einem bios gemacht, das nur ein stresstestprogramm zulässt, damit man die abwärme und co. testen kann. also echte leak benches 3 monate vor dem release kannst du knicken. das bios wird erst kurz vor dem launch rausgegeben. ca. 2-4 wochen vorher. alle performance angaben die kimi und die anderen machen werden errechnet und nicht von internen benchmarks berichtet.
AffenJack
2022-05-16, 10:40:52
Wann gabs eig. bei Ampere die ersten Benchmarks ? Weiss da noch jemand, wie viele Wochen vor Launch die kamen?
Wenn es Juli oder August launcht, müssten bald Benchmark-Leaks kommen.
Es gab praktisch keine Benchmarkleaks. Einzig Aussagen zu Timespy etc, aber das auch nur 1 Monat vor Launch. Die Boards und Kühlerdesigns sind nur geleakt.
Troyan
2022-05-16, 12:02:30
Solange kein Bild des Kühler geleakt wird, existiert nichts. :D
Ansonsten, wird Lovelace mit jeden Tag besser: https://videocardz.com/newz/nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090
aceCrasher
2022-05-16, 12:11:33
Ansonsten, wird Lovelace mit jeden Tag besser: https://videocardz.com/newz/nvidia-geforce-rtx-4090-with-16128-cuda-cores-and-450w-tdp-is-allegedly-twice-as-fast-as-rtx-3090
Aber wird laut diesem Leak Lovelace nicht eher langsamer? Bisher war die Rede von einer 2,5x Steigerung gegenüber der 3090, jetzt ist "nur" noch die Rede von 2x.
Troyan
2022-05-16, 12:14:02
Vergess die 600W oder gleich 900W nicht.
Das wäre ~80% effizienter als die 3090TI. Das sollte sich dann auf alles nach unten durchschieben.
WedgeAntilles
2022-05-16, 12:15:31
Furthermore, kopite7kimi provided a new estimate on RTX4090’s TDP. It is no longer 600W, but 450W instead. That said, the 600W spec might refer to the 4090 Ti model, while 450W is exactly the same metric as RTX 3090 Ti, which was considered a ‘test vehicle’ for AD102 GPU. The RTX 3090, to which RTX 4090 is being compared to as ‘twice as fast’ has a TDP of 350W.
Oh nein, dabei wurde doch Zeitweise schon eine 4070 mit 400W und noch mehr prognostiziert.
Welch riesen Enttäuschung diese neue Prognose ;D
Linmoum
2022-05-16, 12:19:59
Kopite wechselt seine Unterhosen neuerdings aber auch stündlich. Erst soll Ada ganz plötzlich doch mehr als nur ein simpler Ampere-Refresh sein, dann kommen plötzlich noch ganz neue Performanceprognosen. Jetzt sollen es plötzlich auch 150W weniger sein, nachdem sich 600W permanent wiederholt hatten.
Amüsant zu sehen.
Das entspannt die Lage aber enorm. Sicher sind 450W immer noch zu viel, aber in der klasse kauf ich ja auch nicht ;). Mal gucken wie die 4080 wird.
Ich geh sowieso davon aus, dass die 4080 auch ein AD102-Produkt wird mit irgendwo zwischen 92 und 120 SMs. GA103 ist für die 4080 schlicht zu klein, der Abstand zur 4090 wär einfach zu groß.
AD102 -> 4090(Ti), 4080(Ti) evtl. Titan, oder GH100 Titan
AD103 -> 4070(Ti)
AD104 -> 4060(Ti)
AD106 -> 4050(Ti) (Könnte auch anderes als 4N gefertigt sein)
AD107 -> kleiner (Könnte auch anderes als 4N gefertigt sein)
boxleitnerb
2022-05-16, 12:37:25
Selbst das wäre etwas enttäuschend. Doppelte Performance bei 30% mehr Saft sind nicht die doppelte Perf/W, die ich mir erhofft hatte.
Kriegsgeier
2022-05-16, 12:41:35
es wurde aber auch nicht von 2x FPS 3090 vs. 4090 gesprochen!
Eher Rohleistung bei 32bit?
Also Rohrleitung ist ungleich FPS auf der Straße - bitte das nicht vergessen!
Aber die 450Watt erfreuen einen schon!
Somit wird meine 3090 inkl. WaKü Ende 2022 - Anfang 2023 für gute 1000€ verkauft und die 4090 inkl. WaKü gekauft ;)
Troyan
2022-05-16, 12:44:02
Kopite wechselt seine Unterhosen neuerdings aber auch stündlich. Erst soll Ada ganz plötzlich doch mehr als nur ein simpler Ampere-Refresh sein, dann kommen plötzlich noch ganz neue Performanceprognosen. Jetzt sollen es plötzlich auch 150W weniger sein, nachdem sich 600W permanent wiederholt hatten.
Amüsant zu sehen.
Ja, da stimme ich dir zu. Vorallem, weil dir das bei negativen Gerüchten vollkommen egal war:
Nimmt man bisherige Gerüchte/Specs/Leaks (u.a. 240CU vs. 144SM) und geht davon aus, dass diese zutreffend sind, wird Nvidia auch bei 600W gegen N31 abstinken. RT außen vor, wobei der Abstand da IMO auch deutlich kleiner sein wird.
Von 350W auf potentiell 600W gehst du nicht aus Spaß an der Freude. Das wäre Brechstange pur.
Lmao.
WedgeAntilles
2022-05-16, 12:45:26
Das entspannt die Lage aber enorm. Sicher sind 450W immer noch zu viel, aber in der klasse kauf ich ja auch nicht ;). Mal gucken wie die 4080 wird.
Wer weiß ob es jetzt bei den 450W bleibt.
Evt. sehen wir am Ende doch wieder 500W oder 550W.
Die 450W sind genausowenig sicher wie es die 600W (oder die 400W für die 4070) waren.
Wir sollten die heutige Prognose aber im Kopf behalten - nicht mit dem was sie aktuell sagt, sondern einfach, dass die angeblich sicheren Prognosen schon ein paar Tage später ziemlich anders aussehen können.
Pauschal würde ich sagen:
Klingt es zu gut um wahr zu sein ist es nicht wahr.
Klingt es zu schlecht um wahr zu sein ist es ebenfalls nicht wahr.
Edit: Vor einigen Wochen habe ich "prognostiziert", dass man deren damaligen Watt-Zahlen mit 0,7 Multiplizieren muss. (Auf die Zahl kam ich von Hopper Leak vs Realität)
Damals galt mind. 600W für eine 4090 und 400W für eine 4070.
Witzig, ich habe 0 Quellen und auch recht wenig Ahnung von der technischen Materie - aber Stand heute scheint meine "Prognose" sehr viel näher an der Realität zu sein als die der ganzen "Experten" und gut informierten "Leaks" *g*
Linmoum
2022-05-16, 12:51:51
Ja, da stimme ich dir zu. Vorallem, weil dir das bei negativen Gerüchten vollkommen egal war:Was war mir bei negativen Gerüchten egal? Kannst du auch vollständig lesen und vor allem - was noch deutlich wichtiger ist - verstehen? Offenkundig leider nicht. ;D
BlacKi
2022-05-16, 13:03:35
mid july ist zum glück nichtmehr weit.:biggrin:
Platos
2022-05-16, 13:03:37
Ist doch normal. Die Unterhosen werden doch immer in der Gerüchteküche gewechselt, was das Zeug hält. Speziell jetzt in der Phase, wo eben langsam mehr durchsickert. Da gibts zuerst das eine Brösel an Information, dann das nächste, was dann aber vieles wieder umwirft etc.
Zu den Zeiten mit 600W etc. waren das sehr ungenaue Gerüchte, höchst wahrscheinlich basierend auf irgendwelchen Stecker-Specs und keinen Grafikkarten-Specs (die gibts da vor allem auch nicht). Und Konzeptionsdesigne sind sowieso keine feste Sache.
Bei AMDs Leaker wird genau so "gewürfelt" wie bei nvidias Leaker. Erstaunlich ist eig. nur, dass sich manche hier immer wieder so drauf festfressen und irgendwann manche Leaks schon als absoluter 99% Fakt ansehen, dabei ist es nur ein Leak, weit weg von "finalen" Leaks (spezifische Grafikkartenspecs kurz vor Launch).
Leonidas
2022-05-16, 13:42:03
Warum sollte man sich gegenüber den AiB plötzlich anders verhalten? Early Q3 wären nur noch rund 8-9 Wochen. So kurz kannst du die Boardpartner gar nicht (mehr) halten.
Doch. Initiale Generation ist nicht späteres Produkt oder Refresh. Es gab Launches, da hat NV die Boardpartern in der Woche vor dem Launch informiert - die durften dann Referenzdesigns mit eigenem Logo verkaufen und deren eigene Karten kamen 4-5 Wochen später.
r3ptil3
2022-05-16, 14:04:15
Interessante Entwicklungen hier...
Da könnte man meinen da wurden ja absichtlich Falschmeldungen mit 600-900W TDP verbreitet, um die Akzeptanz von 450W zu erhöhen. ;D
Und ja, es funktioniert, mit 450W wäre ich bei der prognostizierten Leistung (2x 3090) sehr zufrieden.
Wie der schlaue Nv-User weiss, ist sein bester Freund der MSI Afterburner, mit dem er ein solches Monster im Verbrauch um 100-150W tiefer laufen lassen kann, bei kaum mal 10% Leistungsverlust.
basix
2022-05-16, 14:08:26
Ist doch normal. Die Unterhosen werden doch immer in der Gerüchteküche gewechselt, was das Zeug hält. Speziell jetzt in der Phase, wo eben langsam mehr durchsickert. Da gibts zuerst das eine Brösel an Information, dann das nächste, was dann aber vieles wieder umwirft etc.
Zu den Zeiten mit 600W etc. waren das sehr ungenaue Gerüchte, höchst wahrscheinlich basierend auf irgendwelchen Stecker-Specs und keinen Grafikkarten-Specs (die gibts da vor allem auch nicht). Und Konzeptionsdesigne sind sowieso keine feste Sache.
Bei AMDs Leaker wird genau so "gewürfelt" wie bei nvidias Leaker. Erstaunlich ist eig. nur, dass sich manche hier immer wieder so drauf festfressen und irgendwann manche Leaks schon als absoluter 99% Fakt ansehen, dabei ist es nur ein Leak, weit weg von "finalen" Leaks (spezifische Grafikkartenspecs kurz vor Launch).
In der Vergangeheit gab es schon ein paar Beispiele, wo man erstaunlich viel schon vor dem Launch wusste / richtig geraten hatte. Bei Lovelace und RDNA3 sieht man aber eindeutig, dass alle im Trüben fischen. Das einzig einigermassen belastbare sind die gehackten Nvidia Infos.
Bestätige ich. Es gab übrigens schon 460W auf einer GPU anno 2014. Nannte sich Radeon R9 295.
Mit der 3.Q-Geschichte würd ich darauf tippen, dass im Juli die Massenproduktion der Chips beginnen soll.
Lehdro
2022-05-16, 14:39:14
Bestätige ich. Es gab übrigens schon 460W auf einer GPU anno 2014. Nannte sich Radeon R9 295.
Das waren aber zwei GPUs, in einer Grafikkarte. Bitte nicht zusammenschmeißen die Begrifflichkeiten.
Jaaaa Goldwaage ;). War mir ÜBERHAUPT NICHT BEWUSST :freak:
Bald sind auch wieder 2 - oder 6 :D. Trotzdem hatte die Grafikkarte 450W ;). Das ist auch nicht wirklich was neues.
Lehdro
2022-05-16, 14:52:47
Jaaaa Goldwaage ;). War mir ÜBERHAUPT NICHT BEWUSST :freak:
Bald sind auch wieder 2 - oder 6 :D. Trotzdem hatte die Grafikkarte 450W ;). Das ist auch nicht wirklich was neues.
Wo wir beim Thema sind, so etwas wie die 600W AD102 kann auch von so etwas kommen: https://www.tomshardware.com/news/rare-geforce-gtx-480-with-512-cuda-cores-emerges-10-years-later-pulls-644w
Wer weiß was für Testboards die da hatten, von denen die 600W Gerüchte ausgingen. Kann durchaus ein "mal schauen was die GPU so kann wenn man ihr richtig Zunder gibt"-Testboard gewesen sein.
Interessant. Also bei der nächsten Generation: Man kann evtl. die Chipspecs glauben, aber keine W, keine Einordnung auf Produkte und erst recht keinen Preis. Selbst Speicherinterface ist offensichtlich schwierig. Speichermenge ist auch oft BS.
r3ptil3
2022-05-16, 15:03:19
Ist eigentlich die Möglichkeit einer Dual-GPU bei der RTX 4090 ausgeschlossen?
Mir kommt da gerade die 9800 GX2 in den Sinn.
Außerhalb von Chiplets, die sich einen Commandprozessor teilen, ist das heutzutage Wahnsinn.
maximus_hertus
2022-05-16, 15:17:09
https://twitter.com/kopite7kimi/stat...6914952486912?
Mid July.
und
https://twitter.com/kopite7kimi/stat...5149246976001?
OK, let's do a new summary.
RTX 4090, AD102-300, 16128FP32, 21Gbps 24G GDDR6X, 450W, ~2x3090.
I am disappointed with RDNA3.
That's all.
Also könnte es anfangs grob so aussehen (3090 = 100%):
4090, AD102, 16.000FP32, 24GB, 450W, 200%
4080, AD103, ca. 10.000FP32, 16GB, 350W, 140%
4070, AD104, ca. 7.000FP32, 12GB, 300W, 100%
Preislich dann 1499 USD, 999 USD, 649 USD
allerdings, durch den miesen Eurokurs, würde das für und in EU / Deutschland für ca. 1700 Euro, 1150 Euro sowie ca. 750 Euro sorgen.
Navi 33 soll ja grob/knapp 6900XT Performance erreichen und nur 8GB VRAM haben. Ergo etwas unter der 4070 raus kommen. Mit der Ersparniss beim RAM könnten dann 579 oder 549 USD als UVP kommen. Also rund 650-700 Euro.
Später würde eine RTX 4060 Ti, AD104, 10GB, mit ca. 3080 Leistung kommen. Ca. 250W. Diese könnte dann eine UVP von 499 USD haben. Also rund 550-580 Euro.
Eine 4060, AD106 und ca. 3070 / 3070 Ti Leistung bei 8GB VRAM und 200W könnte dann bei 399 USD bzw. rund 450 Euro landen.
Und fertig ist das Weihnachtsportfolio von nVidia. Abgerundet durch eine 3050 oder vielleicht 3050 Ti für den 300 USD Markt.
AD103 ist nicht die 4080. Der Abstand ist zu groß zur 4090.
Ich sage:
AD102 4090 und 4080
AD103 4070
AD104 4060
anders klappt das nicht. Die Specs sind ja bekannt: AD102 144SMs, AD103 84SMs, AD104 60SMs.
Troyan
2022-05-16, 15:25:38
Ist eigentlich die Möglichkeit einer Dual-GPU bei der RTX 4090 ausgeschlossen?
Mir kommt da gerade die 9800 GX2 in den Sinn.
Splittet nVidia wie bei Hopper den L2 Cache, dann ist Lovelace wie eine "Dual-GPU". Bei HPC-Ampere und Hopper werden nur die ComputeUnits an den L2 Cache verbunden, denen sie lokal zugeordnet sind. Der zweite L2-Cache wird per Crossbar untereinander angesprochen.
WedgeAntilles
2022-05-16, 15:26:21
AD103 ist nicht die 4080. Der Abstand ist zu groß zur 4090.
Ich sage:
AD102 4090 und 4080
AD103 4070
AD104 4060
anders klappt das nicht. Die Specs sind ja bekannt.
Wieso ist der Abstand zu groß?
Nur weil bisher zwischen xx80 und xx90 relativ wenig war, muss das doch nicht zwingend so sein?
Zwischen xx60 und xx70 ist auch immer ein ordentlicher Sprung.
Auch zwischen xx70 und xx80.
Bei seinem Beispiel passt es mathematisch sogar fast exakt:
Die 4080 ist 40% schneller als die 4070.
Die 4090 ist 40% schneller als die 4080.
Da wären also zwischen allen Kategorien die gleichen Leistungsdifferenzen.
Ich sage nicht, dass das so kommt (auch deine Variante ist plausibel) - aber warum sollte es grundsätzlich nicht möglich sein?
Je größer der Leistungsabstand zwischen der 4080 und der 4090 ist, desto mehr greifen außerdem zu der 4090.
Und pro Stück verdient Nvidia da am meisten.
Warum also gerade zwischen der 4080 und 4090 die kleinste Leistungsdifferenz sein MUSS verstehe ich nicht.
Ja, es war historisch so - aber es gibt in der Praxis doch keinerlei Gründe das quasi als Naturgesetz zu sehen, oder?
Das passt einfach nicht. Das sind nur 58% von 144SMs. Wie du es drehst und wendest, selbst wenn du 200MHz mehr Takt auf den kleineren Chips gibts, das geht nicht auf. Außerdem wird das Ding ja eh wieder 600mm² und die Defektrate ist da sehr sicher wieder ein Problem. Daher brauchst du ne Menge Chips, die etwas mehr deaktiviert haben. Ich halte hier eine 4080 mit 110SMs, 80MB L2$ und 320Bit für sehr wahrscheinlich, einfach dem Yield des AD102 geschuldet.
Der 103 wird mMn 103 heißen, weil das wieder der Top-End-Mobilchip wird.
basix
2022-05-16, 15:54:23
Naja, AD103 wäre die perfekte Grösse für eine 4080. Oben hat es noch Platz für eine 4080 Ti, 4090 und allenfalls noch 4090 Ti.
- AD102 = 4080 Ti (20GB), 4090 (24GB), optional 4090 Ti
- AD103 = 4080 (16GB), Mobile
- AD104 = 4060 Ti (10GB), 4070 (12GB), 4070 Ti (12GB), Mobile
- AD106 = 4060 (8GB), Mobile
- AD107 = 4050 (6GB), 4050 Ti (8GB), Mobile
Absurd ist aber, das die 4060 weniger Speicher als die 3060 hat :D
Für Nvidia würde sich AD103 = 3080 lohnen, da nur etwa 2/3 der Die Size von AD102. Und als Spieler hätte man eine Karte mi 16GB (was genug ist), welche deutlich schneller als eine 3090 Ti sein sollte.
Passt nicht.
AD102
4090 Ti 144SMs 384Bit 24GB 24GT/s (irgendwann Sommer23 bis 24, je nach Notwendigkeit)
4090 138SMs 384Bit 24GB 21GT/s -> N31 Full
4080 Ti 132SMs 320Bit 20GB 24GT/s (frühestens Frühjahr 2023)
4080 110SMs 320Bit 20GB 21GT/s -> N32 Full
darunter
4070 Ti 84SMs 16GB 21GT/s 256Bit (Frühjahr 23)
4070 72-80SMs 16GB non-X 18GT/s 256Bit
4060 Ti 60 SMs 12GB 18GT/s 192Bit
4060 48SMs 192Bit 12GB (AD104 auf jeden Fall erst mal) o.Ä. (x060 ist ja fast immer 1/3 des Dickschiffs)
Alles darunter 128Bit mit 8GB
maximus_hertus
2022-05-16, 16:04:38
Das passt einfach nicht. Das sind nur 58% von 144SMs.
Die 4090 wird aber "nur" 126SMs nutzen, laut dem aktuellen Leak.
Mich würde es zudem nicht wundern, wenn man Takt-technisch beim 4090 nicht auf dem letzten Zahnfleisch geht, um eine 90 Ti als Konter in der Hinterhand zu haben. 144 vs 126 SM (+14%), dazu 5+% beim Takt und schnelleren Speicher. Fertig ist ein 20+% Konter.
84 SM vs 126 SM sind dann 66,6%. Dazu etwas mehr Takt bei dem 84er und man landet bei 70-75% der Leistung einer 4090. Oder die üblichen 30-35% mehr fps, siehe die Auflistung unten.
Historisch gesehen:
GTX 980, 204er Chip, 2048 Shader
980 Ti, 200er Chip, 2816 Shader (+37,5%, kein Vollausbau)
rund +30% Performance
GTX 1080, 104er Chip, 2560 Shader
1080 Ti, 102er Chip, 3584 Shader (+40%, kein Vollausbau)
rund +35-40% Performance
RTX 2080, 104er Chip, 2944 Shader
2080 Ti, 102er Chip, 4352 Shader (+48%, beides kein Vollausbau)
rund +30-35% Performance
Die RTX 3000 ist da die große Ausnahme. Historisch gab es eigentlich +30-40% von der jeweiligen 80 zur nächsten Karte (damals 80 Ti, nun Marketing technisch 90).
basix
2022-05-16, 16:09:05
Wenn die 4090 mit nur 126 SMs kommt, dann scheint sich Nvidia doch recht sicher zu sein, das AD102 schnell genug ist.
Dural
2022-05-16, 16:09:46
Die Verkäufe von Grafikkarten und auch CPUs fallen ins Bodenlose.
Die Nachfrage sinkt, Mining mit der aktuellen Hardware ist vorbei.
Natürlich hat NV Interesse daran schnellst möglich was neues auf den Markt zu werfen. Nur mit Ampere könnte das H2 ziemlich düster werden.
basix
2022-05-16, 16:12:12
Düster, wenn man mal kein Rekordquartal hinlegt? ;)
BlacKi
2022-05-16, 16:16:16
Passt nicht.
AD102
4090 Ti 144SMs 384Bit 24GB 24GT/s (irgendwann Sommer23 bis 24, je nach Notwendigkeit)
4090 138SMs 384Bit 24GB 21GT/s -> N31 Full
4080 Ti 132SMs 320Bit 20GB 24GT/s (frühestens Frühjahr 2023)
4080 110SMs 320Bit 20GB 21GT/s -> N32 Full
darunter
4070 Ti 84SMs 16GB 21GT/s 256Bit (Frühjahr 23)
4070 72-80SMs 16GB non-X 18GT/s 256Bit
4060 Ti 60 SMs 12GB 18GT/s 192Bit
4060 48SMs 192Bit 12GB (AD104 auf jeden Fall erst mal) o.Ä. (x060 ist ja fast immer 1/3 des Dickschiffs)
Alles darunter 128Bit mit 8GB
ich hoffe du wirst hier recht behalten, denn die speicher config gefällt mir deutlich besser als die zuletzt vermutete.
maximus_hertus
2022-05-16, 16:18:16
Wenn die 4090 mit nur 126 SMs kommt, dann scheint sich Nvidia doch recht sicher zu sein, das AD102 schnell genug ist.
Alle Gerüchte / Leaks gehen ja in die Richtung, dass es in 2022 "nur" Navi 33 geben soll. Navi 31 soll erst Anfang 23, vielleicht Dezember kommen. Navi 32 erst Q1 2023, vielleicht auch erst Q2.
Ergo ist man mindestens bis zum Jahreswechsel (so die Karten wirklich im Juli / Anfang August kommen) rund 5 Monate "alleine". Vielleicht sogar 6+ Monate.
Man kann dann super auf AMD reagieren bzw. AMD muss ein wenig im dunkeln "stochern", wie der nV Konter aussehen wird. Je mehr Einheiten bei der initialen 90 "fehlen", desto flexibler ist man beim Konter.
Dazu sind die ersten KArten (also das Initial Portfolio) erstmal eher "Stromsparend" und bekommen das Label "Energieeffizienteste Karten aller Zeiten". Das hängt dann in den Köpfen und wenn dann Konter / Refreshes kommen, die auf Energieeffizienz pfeiffen, ist das nicht mehr desaströs, da ja einmal RTX 4000 = energieeffizient in den Köpfen drin ist.
Ergo zu Beginn im Sommer 2022:
AD102, cut down, 4090
AD103, 4080 (Voll oder nur minimal cut down)
AD104, 4070 (Voll oder nur minimal cut down)
Als Konter dann irgendwann:
4090 Ti, mehr Einheiten, evtl. Vollausbau
4080 Ti, AD102 mit mehr deaktivierten Einheiten oder eingechränkten Powertarget, passend zum AMD Gegenstück
4070 Ti, Cut Down 103er passend zum AMD Gegenstück
MAn wird wohl mit Full Fat 102 den NAvi 31 angreifen wollen und mit einem cut down 102 bzw. Full 103er den Navi 32 in die Zange nehmen wollen.
104 kümmert sich um Navi 33.
BlacKi
Vielleicht ändert sich an den Shadern noch was, das ist ja nur wild spekuliert. Aber ich glaube einfach nicht, dass 84SMs non-Salvage genutzt werden wird für die 4080, schon gar nicht zu Anfangs, wo eigentlich alles gesalvaged werden muss, wenn man nicht so ein riesen Glück wie AMD bei N22 hatte, bei dem der Yield extrem gut zu sein schien, so gut, dass man den erst mal nur als Full-Chip geliefert hat und später erst salvage für mobil. Für einen Top-Chip halte ich aber 2 salvage Stufen für das Minimum. Beim GA102 sind es 3. Bei N21 sinds 2.
maximus_hertus
Halte ich für Blödsinn. N33 wird zusammen mit N31 erscheinen, N32 dann später. Nur N33 ergibt einfach keinen Sinn. Man wird auf jeden Fall ein Lineup launchen wollen. Bei N31 wirds glaube ich einfach, weil ich da alle Spekus für falsch halte, nur die 7 Chips für Valide. Aber ich gehe sehr stark davon aus, dass es nur ein einziges GCD geben wird, aber 2 MCDs, nämlich N31 und N32. Jeder GCD hat mMn eine Shaderengine und wird auf N3x per X3D gestapelt. Das ist was ich denke was da kommt.
AwesomeSauce
2022-05-16, 16:27:38
Wieviel zieht eigentlich ein GDDR6X Modul? Gibt es dazu konkrete Messungen?
WedgeAntilles
2022-05-16, 16:28:11
ich hoffe du wirst hier recht behalten, denn die speicher config gefällt mir deutlich besser als die zuletzt vermutete.
Mir auch, ich fände eine 4070 mit 16GB schön rund.
Für eine Nutzungsdauer von 5 Jahren+ wäre ich da schön aufgestellt.
12GB reicht zunächst, ist aber schon an der unteren Grenze. 16 klingt für mich einfach perfekt. Nicht völlig übertrieben, aber mit genug Reserven für die nächsten Jahre.
Ich hoffe sehr, dass Hot recht hat :)
BlacKi
2022-05-16, 18:24:47
Wieviel zieht eigentlich ein GDDR6X Modul? Gibt es dazu konkrete Messungen?igor hat es in seinem video mit den 600w erwähnt. schau doch da mal rein.
maximus_hertus
2022-05-16, 18:26:12
Man wird auf jeden Fall ein Lineup launchen wollen.
Bei RDNA 2 wurden ja auch nur die einzelnen Chips gelauncht:
Herbst 20 => Navi 21
Frühling 21 => Navi 22
Sommer 21 => Navi 23
Das selbe mit RDNA 1.
Navi 10 (5700) im Sommer 2019
Navi 14 (5500) zum Jahreswechsel 19/20
Ich würde jedoch "mitgehen", dass es unüblich wäre, mit dem vermeintlich kleinsten / langsamsten Chip anzufangen. Aber ich gebe da nur den aktuellen "Leak-Stand" wieder, der sich jedoch gefühlt Stündlich im Wind dreht... ;)
Thunder99
2022-05-16, 18:33:26
AD102 nur 126SM? Sau gut für Nvidia.
1. mal melken mit 4090
2. mal mit 4090 Ti (NICHT Vollausbau)
3. mal mit Titan (Vollausbau)
;D ;D ;D
Ampere ist in der Tat in der Aufteilung nicht so gut wie Pascal oder Turing. Das kann Nvidia mit AD wieder ins rechte Licht rücken um maximale Flexibilität zu haben. So geht Business.
davidzo
2022-05-16, 18:46:52
Wieviel zieht eigentlich ein GDDR6X Modul? Gibt es dazu konkrete Messungen?
Ich glaube das wird weniger nach Modul gezählt, als nach tatsächlich genutzter Bandbreite. Page refresh ist nicht so teuer energetisch, ein Modul im idle ist noch relativ sparsam. Wenn du nun eine Last auf 12 oder 24 Module verteilst gibt es herzlich wenig Unterschied, solange es dieselben 384bit Speicherinterface sind. Jedes Modul überträgt im 24x Fall ja nur halb so viele Daten wie wenn es nur 12x Module sind, selbst wenn der VRAM doppelt so groß ist.
Es ist also die Speicherbandbreite interessant und die Energie pro übertragenem byte, für die TDP. pJ/byte ist die richtige Einheit. Es gab da Angaben von Micron zu, die G6X als besser als G6 darstellten. Also entweder st das netto, also berücksichtigt nicht den Massiven energieverbrauch der Speichercontroller auf dem DIE, oder Micron hat ein wenig geschönte Zahlen gezeigt. Das war vllt. mal so geplant/designed, mittlerweile haven hynix und samsung aber effizienteren G6 vorgestellt als das mit dem sich Micron verglichen hat.
Bei RDNA 2 wurden ja auch nur die einzelnen Chips gelauncht:
Herbst 20 => Navi 21
Frühling 21 => Navi 22
Sommer 21 => Navi 23
Das selbe mit RDNA 1.
Navi 10 (5700) im Sommer 2019
Navi 14 (5500) zum Jahreswechsel 19/20
Ich würde jedoch "mitgehen", dass es unüblich wäre, mit dem vermeintlich kleinsten / langsamsten Chip anzufangen. Aber ich gebe da nur den aktuellen "Leak-Stand" wieder, der sich jedoch gefühlt Stündlich im Wind dreht... ;)
Richtig. N21 und N10. Aber nicht N22 und N11. Das ist der Punkt, so wird man das einfach nicht machen.
iamthebear
2022-05-16, 20:39:37
Ich glaube bei der 3090 Ti war der Verbrauch des RAMs trotz höheren Taktraten um ca. 20W niedriger da nur halb so viele Chips verbaut wurden.
iamthebear
2022-05-16, 23:20:15
Kopite wechselt seine Unterhosen neuerdings aber auch stündlich. Erst soll Ada ganz plötzlich doch mehr als nur ein simpler Ampere-Refresh sein, dann kommen plötzlich noch ganz neue Performanceprognosen. Jetzt sollen es plötzlich auch 150W weniger sein, nachdem sich 600W permanent wiederholt hatten.
Amüsant zu sehen.
Dass Ada von der Architektur mehr ist als Ampere muss ja nicht unbedingt IPC Verbesserungen bedeuten. Das mit den 128FP+64INT hat er ja klar als Vermutung dargestellt anhand von ein paar Daten die er bekommen hat. Aber er kennt offensichtlich noch nicht die gesamte Architektur.
Was die restlichen Daten angeht war mir eigentlich relativ klar, dass die normale 4090 keine 600W haben wird und etwas abgespeckt ist. Ich vermute einmal:
Full Die: 144SM
4090 Ti: 140SM 600W
4090: 126SM 450W
Die geleakten 850W dürften dann wohl die Lastspitzen gewesen sein oder ein paar Testboards zum Hochprügeln.
Die 450 bzw. 600W sind aber immer noch die Referenzdesigns. Ich kann mir gut vorstellen, dass die ein paar AIBs noch etwas drauf legen.
Ich geh sowieso davon aus, dass die 4080 auch ein AD102-Produkt wird mit irgendwo zwischen 92 und 120 SMs. GA103 ist für die 4080 schlicht zu klein, der Abstand zur 4090 wär einfach zu groß.
Ich denke es wird noch eine 4080 Ti geben um die 110-120 SMs und eventuell 20GB/320Bit.
Eine 4080 mit 100 SMs wäre jedoch extrem dämlich. Da kann man dann fast ein Drittel von einem guten AD102 Die wegschneiden bei den besten Yieldraten seit langem. Und die 4080 ist noch dazu die Karte, die wohl am Meisten gekauft wird.
Was den großen Abstand angeht:
Angenommen die 4080 kommt mit 80 SMs und die 4080 Ti mit 112 SMs: Das sind dann 1.4
Zum Vergleich die vorherigen Generationen:
3000: 1.2x (aus Angst vor AMD, geplant war vorher wohl GA103 mit 1.4x)
2000: 1.48x
1000: 1.4x
900: 1.375x
Davor war das Topmodell meist Dual GPU mit 2 (fast) max Chips.
Wer weiß ob es jetzt bei den 450W bleibt.
Evt. sehen wir am Ende doch wieder 500W oder 550W.
Die 450W sind genausowenig sicher wie es die 600W (oder die 400W für die 4070) waren.
450W wird die 4090 sein, 600W die 4090 Ti und die AIBs werden sich irgendwo dazwischen positionieren mit ihren Designs, ein paar wohl auch etwas über den 600W (z.B. Suprim X, Kingpin etc.) aber ca. in diesen Bereich wird es sich abspielen. 600W für eine normale 4090 halte ich für realitätsfern. Da muss das gesamte Gehäuse darauf ausgelegt sein, dass man die H8tze auch wieder raus bekommt. Sind 450W schon schwer grenzwertig. Die 4090 Käuferschicht sind zu einem großen Teil einfach Durchschnittsuser mit viel Geld. Die werden kaum stundenlang den Luftstrom optimieren. Die kaufen sich ein fettes Netzteil und irgendein ein 200€+ Gehäuse mit viel Geblinke und dann muss das laufen ohne dass M.2 SSD und VRMs des Mainboards weggeschmort werden.
Damals galt mind. 600W für eine 4090 und 400W für eine 4070.
Das war doch relativ eindeutig, dass sich kopite hier lediglich beim Aprilscherz von Greymon angehängt hat.
Einmal ernsthaft? 400W für 60 SMs in 4N?
Was man bei der ganzen Sache nicht vergessen darf: Jensen ist vielleicht unsere Stromrechnung nicht egal aber nicht die Kosten der BOM Kits und die Kühlerkosten. Eine 400W Karte bringt man nicht für 500$ auf den Markt selbst wenn die Chips noch so günstig sind.
Doch. Initiale Generation ist nicht späteres Produkt oder Refresh. Es gab Launches, da hat NV die Boardpartern in der Woche vor dem Launch informiert - die durften dann Referenzdesigns mit eigenem Logo verkaufen und deren eigene Karten kamen 4-5 Wochen später.
Ich kann mich da noch gut an den Ampere Launch und die Debatte um doe MLCCs erinnern. Da war auch die Ursache des Problems, dass die AIBs nie lauffähige Grafiktreiber in die Hand bekommen haben. Den Stresstest liefen alle brav durch aber die Lastspitzen bei echtem Gaming haben sie nicht vertragen bis Nvidia dann das Ganze mit den Grafiktreibern ausgebügelt hat.
BlacKi
Vielleicht ändert sich an den Shadern noch was, das ist ja nur wild spekuliert. Aber ich glaube einfach nicht, dass 84SMs non-Salvage genutzt werden wird für die 4080, schon gar nicht zu Anfangs, wo eigentlich alles gesalvaged werden muss, wenn man nicht so ein riesen Glück wie AMD bei N22 hatte, bei dem der Yield extrem gut zu sein schien, so gut, dass man den erst mal nur als Full-Chip geliefert hat und später erst salvage für mobil. Für einen Top-Chip halte ich aber 2 salvage Stufen für das Minimum. Beim GA102 sind es 3. Bei N21 sinds 2.
Einfach 82 statt 84 SMs und fertig. Alles was mehr Defekte hat kommt aufs Lager und wird irgendwann mal eine 4070 Super.
Ich darf hier mal an doe 2080 Ti erinnern:
.) Riesiger Chip (vergleichbar mit Full AD102)
.) Um Welten schlechtere Yieldraten
.) Nur 2 deaktivierte SMs
.) Keine sonstige Verwertungsmöglichkeit
Und das hat auch funktioniert. Für die 3080 gab es nur einen Grund: Nvidia wusste dass GA103 zu schwach wäre gegen die 6800 XT.
Halte ich für Blödsinn. N33 wird zusammen mit N31 erscheinen, N32 dann später. Nur N33 ergibt einfach keinen Sinn. Man wird auf jeden Fall ein Lineup launchen wollen. Bei N31 wirds glaube ich einfach, weil ich da alle Spekus für falsch halte, nur die 7 Chips für Valide. Aber ich gehe sehr stark davon aus, dass es nur ein einziges GCD geben wird, aber 2 MCDs, nämlich N31 und N32. Jeder GCD hat mMn eine Shaderengine und wird auf N3x per X3D gestapelt. Das ist was ich denke was da kommt.
N33 ist monolithisch. Das ist klar, denn für MCM ist der zu klein. Das macht keinen Sinn.
N31/32 sind im Prinzip auch noch monolithisch nur mit dem Cache+SI auf eigenen Dies.
N32 bekommt 4 MCDs (256MB/Bit), N31 dann eben 6 davon (384 MB/Bit).
Ich denke, dass die Performanceprognose von Navi33 falsch ist. Diese wird in 4K nicht die Performance einer 6900 XT haben, sondern nur einer 6800 non XT.
WedgeAntilles
2022-05-17, 09:56:16
Die 4090 Käuferschicht sind zu einem großen Teil einfach Durchschnittsuser mit viel Geld. Die werden kaum stundenlang den Luftstrom optimieren. Die kaufen sich ein fettes Netzteil und irgendein ein 200€+ Gehäuse mit viel Geblinke und dann muss das laufen ohne dass M.2 SSD und VRMs des Mainboards weggeschmort werden.
Da bin ich bei dir - weswegen ich auch eine 4070 mit 350W, 400W oder gar noch mehr immer für Unsinn gehalten habe.
Das war doch relativ eindeutig, dass sich kopite hier lediglich beim Aprilscherz von Greymon angehängt hat.
Einmal ernsthaft? 400W für 60 SMs in 4N?
Das hast du falsch im Kopf - es kam zwar am 1. April, es war explizit aber kein Aprilscherz!
Jedenfalls hatte er einen Tweet nachgeschoben in dem er explizit schrieb, es wäre keiner.
Thunder99
2022-05-17, 10:08:35
Nvidia hält sich offenbar alle Optionen offen je nachdem wie sie AMD einschätzen auf ihre Stärke. Erst hieß es, AMD ist deutlich stärker mit N31 als AD102, dann etwa gleich, dann langsamer von den HW Daten.
Und schon kommt ein "downgrade" der TDP. Für mich ist da alles noch offen. Selbst die 450W sind zu viel für ein Standard Gehäuse. Ohne Wasser wird das nicht leise.
BlacKi
2022-05-17, 10:56:39
Ich glaube bei der 3090 Ti war der Verbrauch des RAMs trotz höheren Taktraten um ca. 20W niedriger da nur halb so viele Chips verbaut wurden.
das macht kein sinn, denn wir wissen, das der traffic die hauptwärme erzeugt. und der traffic bleibt ja gleich. wenn da viel weniger als 5w eingespart werden, fress ich nen besen. sieht man auch schön 3090 vs 3080ti, im idle 2w, low load 4w.
Troyan
2022-05-17, 13:03:32
Mal was von Twitter: https://twitter.com/ashrising_x/status/1526481265230172160?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1526481 265230172160%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.redditmedia.com%2Fmediaembed%2Furjmld%3Fresponsive%3Dt rueis_nightmode%3Dfalse
Kann stimmen, muss nicht.
r3ptil3
2022-05-17, 14:45:09
Angeblicher RTX 4090 Kühler:
https://cdn.videocardz.com/1/2022/05/NVIDIA-RTX-40-heatsink-1.jpg
https://cdn.videocardz.com/1/2022/05/NVIDIA-RTX-40-heatsink-2.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-4090-cooling-heatsink-has-allegedly-been-pictured
Ich hab hier einige Kommentare bzgl. einem Juli Release gelesen.
Kann das kurz jemand zusammenfassen, sprich ist da was dran?
Kann nicht sein, die Pads sind für ein 16GB-Modell.
r3ptil3
2022-05-17, 14:51:50
Kann nicht sein, die Pads sind für ein 16GB-Modell.
Gut erkannt, zähle auch 8 Chips.
Den 4090Ti-Rahmen kann ich mir nicht zum Start der Reihe vorstellen, das ist starker Fake-Verdacht. Da hat mMn einer die 3 durch ne 4 ersetzt. Wenn man genau hinschaut hat die 4 ne andere Farbe als der Rest der Zahlen. Die Ti mit ihren 600W wird mMn sowieso wassergekühlt daherkommen.
Der Kühler könnte ein 4080-Kühler sein, wenn man einen AD103 voraussetzt. Würde auch zu den 350W passen das Modell.
Nazar
2022-05-17, 17:19:51
Furthermore, kopite7kimi provided a new estimate on RTX4090’s TDP. It is no longer 600W, but 450W instead. That said, the 600W spec might refer to the 4090 Ti model, while 450W is exactly the same metric as RTX 3090 Ti, which was considered a ‘test vehicle’ for AD102 GPU. The RTX 3090, to which RTX 4090 is being compared to as ‘twice as fast’ has a TDP of 350W.
Oh nein, dabei wurde doch Zeitweise schon eine 4070 mit 400W und noch mehr prognostiziert.
Welch riesen Enttäuschung diese neue Prognose ;D
3090 = 350 Watt
4090 = 450 Watt
Anstieg des Verbrauchs in den Spielen ist nun mal nicht linear. Davon ausgehend sind 450 Watt zwar deutlich besser als 600 Watt, aber auch genau das, was wir jetzt lesen, wurde vorhergesagt.
Erst kommen sie mit selbst geleakten fetten Zahlen, um zu sehen, was der Kunde will und dann reagiert man darauf.
Schaut man sich die Reduktion im Gesamtpaket an (min. 2.5-fache, eher 3-fache Performancesteigerung, ab 600 Watt... jetzt nur noch 2-fache Leistungssteigerung ab 450 Watt), dann wird diese Mutmaßung damit schön umrahmt.
Mutmaßlich hält man erneut ein paar Pfeile im Köcher, trotzdem sind die 450 Watt (eventuell sogar nur für eine 4080?) eine deutliche Erhöhung, besonders im Verhältnis zum Shrink.
Es ist das Gesamtbild, welches zählt. :wink:
BlacKi
2022-05-17, 17:37:42
tatsache bleibt, die coldplate des gezeigten kühlers sieht anders aus als bei der 3070, 3080 und 3090. Edit: der satz macht so keinen sinn XD, ich meinte, früher waren vram und gpu keine ganze fläche, sondern getrennt.
und wenn wir bei ad103 als 4070 bleiben, müsste das der kühler der 4070 sein ;)
Edit: ist das trippleslot höhe?
Das Ding ist komisch. Sieht nach Triple Slot aus, es ist sicherlich ein 16GB-Modell, aber schaut mal wie groß der Die-Abdruck ist. Sieht nach 500mm²+ aus, wird also ein 102er sein.
Sieht das Teil in Wirklichkeit so aus:
Geforce 4080
AD102, ~96 CUs, 350W, 256Bit RAM-Anbindung, 16GB GDDR6X 21GT/s
?
Sehr interessant. Durch die starke Reduktion des X-Speicherinterfaces spart man u.U. gut Strom um auf die 350W zu kommen.
4070Ti -> GA103 full
4070 -> GA103 salvage
Rampage 2
2022-05-17, 19:17:23
Sieht das Teil in Wirklichkeit so aus:
Geforce 4080
AD102, ~96 CUs, 350W, 256Bit RAM-Anbindung, 16GB GDDR6X 21GT/s
?
Das ist absurd! Nvidia (und auch sonst Niemand) würde niemals einen so großen und sauteuren Chip so brutal (-33% !!!) kastrieren - erst Recht nicht, wenn der nächstkleinere Chip (AD103) nur geringfügig weniger SMs hat!
Es wird wohl eher so aussehen:
Titan = AD102, 144 SM, 384Bit, 48GB (kommt später oder auch gar nicht)
4090 Ti = AD102, 144 SM, 384Bit, 24GB (kommt erst später???)
4090 = AD102, 140 SM, 384Bit, 24GB (kommt bei Launch)
4080 Ti = AD102, 128 SM, 384Bit, 24GB (kommt wohl erst später)
4080 Super = AD103, 84 SM, 256Bit, 16GB (kommt später???)
4080 = AD103, 80 SM, 256Bit, 16GB (kommt schon bei Launch)
4070 Ti = AD104, 60 SM, 192Bit, 12GB (kommt später???)
4070 = AD104, 56 SM, 192Bit, 12GB (kommt bei Launch)
R2
OgrEGT
2022-05-17, 19:43:15
Ist es möglich dass die SMs je nach Chip anders aufgebaut sind also bspw. eine unterschiedliche Anzahl an Recheneinheiten haben um bspw. die Auslastung ab einer gewissen Anzahl an SMs sicherzustellen?
ChaosTM
2022-05-17, 19:50:08
Eine 4700er mit 12GB können sie sich behalten.
16 ist meine untere Schmerzgrenze - 11 hab ich seit 5 Jahren. Soll wieder 4-5 Jahre halten, wenn geht so schnell wie eine 3090(ti) sein und nicht viel mehr als 250 Watt saufen.
Fromme Wünsche, ich weiß.. :)
basix
2022-05-17, 22:47:00
4080 mit AD103 macht einfach am meisten Sinn. 16GB auch. Aber wir werden ja allenfalls schon bald sehen.
Vielleicht kommt man auch wieder mit AD103 zuerst und AD102 kommt später.
Linmoum
2022-05-17, 22:51:07
Mit AD103 wird man sich aber nicht deutlich genug von GA102 absetzen können, zumal man dann auch noch sehr wahrscheinlich weniger Speicher hätte.
Vielleicht zusammen mit AD102, aber das muss man schon alleine aus Performancegründen im Vergleich zu GA102 bringen.
basix
2022-05-17, 23:01:42
Wieso nicht? Stimmen die Gerüchte bezüglich höherem Takt und höherer IPC (128 FP32 + 64 INT?), dann sollte das (deutliche) schlagen von GA102 nicht schwer sein. Sind ja gleich viele SMs. 16GB werden auch nicht das Problem sein, da 3080/Ti max. 12GB haben.
Linmoum
2022-05-17, 23:04:42
"Schlagen" ist dann aber auch relativ. Beim Sprung von Samsung 8nm auf TSMC N5 samt neuer Architektur wird keiner begeistert sein, wenn du am Ende 20-30% auf das vorherige Top-Modell drauflegst und das dann auch noch mit deutlich weniger Speicher. Unabhängig davon davon, dass das nichtmal der größte Chip wäre. Aber das bringt mir ja wenig, wenn nur der zweitgrößte verfüg- und kaufbar ist.
16GiB wären auch kein Problem, sind aber halt trotzdem 33% weniger als bei der 3090(Ti). ;)
iamthebear
2022-05-18, 00:20:15
Das hast du falsch im Kopf - es kam zwar am 1. April, es war explizit aber kein Aprilscherz!
Jedenfalls hatte er einen Tweet nachgeschoben in dem er explizit schrieb, es wäre keiner.
Er schrieb so viel ich mich erinnern kann "no fake". Das kann so ziemlich alles bedeuten.
das macht kein sinn, denn wir wissen, das der traffic die hauptwärme erzeugt. und der traffic bleibt ja gleich. wenn da viel weniger als 5w eingespart werden, fress ich nen besen. sieht man auch schön 3090 vs 3080ti, im idle 2w, low load 4w.
Im Idle greifen auch die Energiesparmaßnahmen. Da taktet der VRAM kaum mit demselben Takt. Klar die Speicherzellen an sich brauchen keine 20W aber das Interface auf Chipseite für die Kommunikation mit der GPU. Ist im Prinzip nichts Anderes als bei der CPU: Dort brauchen auch 4 Riegel mehr als 2.
Schau mal hier ab 3:25. Da rechnet igor das alles zusammen:
https://youtu.be/OAYjf9NModE
Geforce 4080
AD102, ~96 CUs, 350W, 256Bit RAM-Anbindung, 16GB GDDR6X 21GT/s
Ja klar Nvidia schneidet bei jedem guten Die grundlos ein Drittel weg damit das Ding ganze 14% vor AD103 ist.
Die 4080 ist AD103. Um ehrlich zu sein würde es mich nicht einmal überraschen wenn es nur ein cut down AD103 wäre und der (fast) volle Die dann die 4080 Ti wird[/quote]
Das ist absurd! Nvidia (und auch sonst Niemand) würde niemals einen so großen und sauteuren Chip so brutal (-33% !!!) kastrieren - erst Recht nicht, wenn der nächstkleinere Chip (AD103) nur geringfügig weniger SMs hat!
Sehe ich genauso
Titan = AD102, 144 SM, 384Bit, 48GB (kommt später oder auch gar nicht) - 48GB gibt es nur wenn es 4GB Chips gibt. Das Desaster mit dem VRAM auf der Rückseite tut sich Nvidia nicht noch einmal an.
4090 Ti = AD102, 144 SM, 384Bit, 24GB (kommt erst später???) - Denke 140 oder 142 SMs damit man etwas schnipseln kann
4090 = AD102, 140 SM, 384Bit, 24GB (kommt bei Launch) - hat laut kopite 126 SMs
4080 Ti = AD102, 128 SM, 384Bit, 24GB (kommt wohl erst später) - ich tippe hier auf 118 SMs und 20GB
4080 Super = AD103, 84 SM, 256Bit, 16GB (kommt später???) - möglich aber ist die Frage ob notwendig/sinnvoll
4080 = AD103, 80 SM, 256Bit, 16GB (kommt schon bei Launch) - kommt gut hin
4070 Ti = AD104, 60 SM, 192Bit, 12GB (kommt später???) - denke eher die 4070 Ti/Super wird ein cut down AD103 siehe Turing sonst ist der Abstand zu gering
4070 = AD104, 56 SM, 192Bit, 12GB (kommt bei Launch) - macht Sinn
Eine 4700er mit 12GB können sie sich behalten.
16 ist meine untere Schmerzgrenze - 11 hab ich seit 5 Jahren. Soll wieder 4-5 Jahre halten, wenn geht so schnell wie eine 3090(ti) sein und nicht viel mehr als 250 Watt saufen.
Fromme Wünsche, ich weiß.. :)
Für 16GB wirst du etwas tiefer in die Tasche greifen müssen und eine 4080 holen. Die wird vermutlich etwas drüber liegen (z.B. 300/350W) aber die kann man ja runtertakten/Powerlimit begrenzen
"Schlagen" ist dann aber auch relativ. Beim Sprung von Samsung 8nm auf TSMC N5 samt neuer Architektur wird keiner begeistert sein, wenn du am Ende 20-30% auf das vorherige Top-Modell drauflegst und das dann auch noch mit deutlich weniger Speicher. Unabhängig davon davon, dass das nichtmal der größte Chip wäre. Aber das bringt mir ja wenig, wenn nur der zweitgrößte verfüg- und kaufbar ist.
16GiB wären auch kein Problem, sind aber halt trotzdem 33% weniger als bei der 3090(Ti). ;)
30% schneller als eine 4090 Ti und um 700$ statt 2000$ und das in den nächsten 3 Monaten. Ich finde da gibt es Schlimmeres.
Ich kann mich noch gut an Turing erinnern (das war übrigens auch direkt nach einem Mining Crash):
2080 8% mehr Performance als die 1080 Ti, DLSS und RT damals noch sinnlos. Listenpreis: gleich, Straßenpreis 20% teurer.
Was den RAM angeht:
Ja klar die 3090 hatte mehr aber das ist auch eine komplett andere Preisklasse.
BlacKi
2022-05-18, 01:04:39
Im Idle greifen auch die Energiesparmaßnahmen. Da taktet der VRAM kaum mit demselben Takt. Klar die Speicherzellen an sich brauchen keine 20W aber das Interface auf Chipseite für die Kommunikation mit der GPU. Ist im Prinzip nichts Anderes als bei der CPU: Dort brauchen auch 4 Riegel mehr als 2.
Schau mal hier ab 3:25. Da rechnet igor das alles zusammen:
https://youtu.be/OAYjf9NModE
die 3090ti hat schon 2gb module verbaut. ich hab nicht davon mitbekommen, das der speicher dadurch sparsamer wurde.
=Floi=
2022-05-18, 02:41:27
Ist es möglich dass die SMs je nach Chip anders aufgebaut sind also bspw. eine unterschiedliche Anzahl an Recheneinheiten haben um bspw. die Auslastung ab einer gewissen Anzahl an SMs sicherzustellen?
Es ist egal, was verbaut wird. Die aktuellen chips ab der 20XX Serie skalieren nach den watt und nicht nach den einheiten.
Für NV wäre es zu viel arbeit und man macht das nichtmal mehr für spezielle sachen wie FP64 oder mehr AI leistung.
@HOT
Die analyse des kühlers war echt genial!
Timbaloo
2022-05-18, 11:59:44
Ist GDDR6X überhaupt sicher?
BlacKi
2022-05-18, 12:50:52
die frage an sich ist unnötig. vermutlich willst du nur darauf hinweißen, das man noch ncihts weiß. letztlich ist es wohl am wahrscheinlichsten. das passt zum spekulierten cache und SI.
was mich stutzig macht, wäre wirklich der softlaunch mitte juli. ist mir terminlich zu nah an der 3090ti. sept. vorstellung und verfügbarkeit im oktober hätte da besser gepasst.
iamthebear
2022-05-18, 13:02:36
Beim Sprung von Samsung 8nm auf TSMC N5 samt neuer Architektur wird keiner begeistert sein, wenn du am Ende 20-30% auf das vorherige Top-Modell drauflegst und das dann auch noch mit deutlich weniger Speicher.
Habe nochmal nachgeschaut:
Die GTX 1080 war im CB Review damals ganze 9% schneller als 980 Ti. Eine 90er Serie gab es damals gar nicht. War Pascal nun wirklich so ein großer Fail?
Speicher ist ein anderes Thema. Das wird durch den aktuellen Marktpreis des VRAM bestimmt.
ChaosTM
2022-05-18, 13:10:14
Titan Pascal vs Titan Maxwell waren immerhin + 60-70%
Linmoum
2022-05-18, 13:11:55
Die 9% sind aber Custom (980Ti) vs. Stock (1080).
Stock vs. Stock waren es 30% und Customs haben auch noch mal 15-20% beide der 1080 draufgelegt. Dazu gab es mehr Speicher und nicht weniger.
WedgeAntilles
2022-05-18, 13:25:10
Die 9% sind aber Custom (980Ti) vs. Stock (1080).
Stock vs. Stock waren es 30% und Customs haben auch noch mal 15-20% beide der 1080 draufgelegt. Dazu gab es mehr Speicher und nicht weniger.
Noch mal zum Mitschreiben - du glaubst also ernsthaft, dass die Käufer ein Problem damit haben, wenn sie 3090TI Leistung + 30% für unter 1000 Euro bekommen, weil sie nur 16GB statt 24GB bekommen? :confused:
basix
2022-05-18, 18:58:23
Wenn das mit IPC Verbesserungen so kommt und voll einschlägt können es auch deutlich mehr als +30% werden. Alleine der Takt könnte bereits 30% höher liegen.
AD103 wird nur ca. 450mm2 gross sein und noch nicht wie AD102 an die TDP-Grenze anschlagen, da sollte hoher Takt drin liegen.
Dural
2022-05-19, 14:29:40
wie so eigentlich nicht 256Bit für die 4080? Wird hier ja ausgeschlossen, der Kühler sieht für mich aber so wie so nach 384Bit aus.
Der Cache wird ja massiv erhöht, mit GDDR6X und 256Bit dürften aktuell sicher um die 700GB/s drin liegen + Cache dürfte locker reichen. Eine 3090TI hat 1000GB/s mit 6MB L2 Cache.
In der Vergangenheit waren die 384Bit immer ein Problem, wegen der Speicherbestückung. Und die Vergangenheit hat auch klar gezeigt das wir pro Flops immer wie weniger Bandbreite haben.
Troyan
2022-05-20, 14:15:56
Qualcomm portiert den Gen1 Chip von Samsungs auf TSMCs 4nm Prozess und behauptet, dass trotz 10% höherer Taktung die Effizienz um bis zu 30% steigen kann:https://www.anandtech.com/show/17395/qualcomm-announces-snapdragon-8-gen-1-moving-to-tsmc-for-more-speed-lower-power
Nur mal so, wenn die Leute hier meinen dass nVidia mit Lovelace keine deutlichen Verbesserungen von Samsungs 8nm Prozess erreichen könnte. ;D
basix
2022-05-20, 14:25:33
Qualcomm portiert den Gen1 Chip von Samsungs auf TSMCs 4nm Prozess und behauptet, dass trotz 10% höherer Taktung die Effizienz um bis zu 30% steigen kann:https://www.anandtech.com/show/17395/qualcomm-announces-snapdragon-8-gen-1-moving-to-tsmc-for-more-speed-lower-power
10% / 30% sind entweder / oder. Nicht gleichzeitig...
Troyan
2022-05-20, 14:26:27
Habe mir nur die Folien angesehen. Laut Computerbase sind es 15% weniger Verbrauch bei 10% mehr Takt.
basix
2022-05-20, 14:32:20
15% sind nicht bei max. Load sondern average für Mobile Use Cases. Also viel Idle und so und temporäres hochtakten:
Overall, the company is touting a 15% reduction in SoC power usage under “practical usage patterns” versus the original 8 Gen 1, which in turn should lead to improved battery lifetimes in handsets that adopt the new SoC.
Konkret sagt der Samsung vs. TSMC Vergleich nur eines:
- +10% Takt bei selbem Verbrauch
- Oder +30% Effizienz bei selber Performance
Edit:
Wenn ich ehrlich bin: Ich hatte irgendwie einen deutlicheren Unterschied erwartet. +30% Effizienz sind nicht wenig aber eine ganz andere Liga ist es auch nicht.
Troyan
2022-05-20, 14:36:03
Quatsch:
https://cdn.videocardz.com/1/2022/05/SPandragon-8-GEN1-3.jpg
GPU und CPU sind laut Qualcomm 30% effizienter. Der komplette SoC verbraucht ca. 15% weniger.
basix
2022-05-20, 14:37:52
...bei Iso-Frequenz stimmen die 30% (selbe FPS oder Performance = selbe Frequenz)....und die 15% höhere Effizienz im typischen Anwendungsfall. Letzteres sieht bei einem Mobile Chip aber etwas anders aus, als wenn man damit die Energie-Effizienz einer einer Desktop-GPU ermitteln will ;)
Edit:
Fixed typos
Troyan
2022-05-20, 14:42:52
Wären die Folien annährend realistisch, ist 8+ deutlich effizienter bei höherer Taktung.
basix
2022-05-20, 14:46:30
Mein Gott, versuche doch bitte nicht krampfhaft das ganze schöner zu reden als es ist. +30% Effizienz sind gut, aber mehr sind es auch nicht.
Und ausserdem ist eine Ableitung der Energieffizienz für Ada aus den zwei 4nm Prozessen eh nicht direkt möglich. Nur dass man etwas weniger effizient oder performant wäre, wenn man bei Samsung geblieben wäre.
AffenJack
2022-05-20, 14:47:14
...bei Iso-Frequenz stimmen die 30% (selbe FPS oder Performance = selbe Frequenz)....und die 15% höhere Effizienz im typischen Anwendungsfall. Letzteres sieht bei einem Mobile Chip aber etwas anders aus, als wenn man damit die Energie-Effizienz einer einer Desktop-GPU ermitteln will ;)
Edit:
Fixed typos
Nein, nicht 15% höhere Effizienz, 15% niedrigere Power beim typischen Anwendungsfall. Das ist ein Unterschied. Ein typischer Anwendungsfall ist bei Mobile auch schnelles hochtakten auf maxtakt, task erledigen und wieder runter. Insgesamt mehr oder weniger +10% Takt bei -15% Verbrauch.
Das passt auch zu den -30% Efficiency bei Iso Takt.
basix
2022-05-20, 14:51:22
Insgesamt mehr oder weniger +10% Takt bei -15% Verbrauch.
Das stimmt ja für den Mobile Use Case (Verbrauch vs. Effizienz habe ich bei den 15% übersehen). Aber nicht für eine dGPU, welche unter Dauerlast betrieben wird. Das ist das, was eben nicht übertragbar ist. Für eine GPU kann man nur ableiten, dass eine TSMC N4 GPU +30% effizienter wäre als die selbe GPU in Samsung 4nm. That's it.
Sunrise
2022-05-20, 14:54:03
Sagen wirs mal so, diejenigen, welche damals behauptet hatten, dass Samsung NICHT schlechter als TSMC wäre, dürfen jetzt gerne mal eine Gedenksekunde einlegen.
NV hat hier die erstbeste Möglichkeit direkt genutzt… und wahrscheinlich bei TSMC auf die Knie gegangen, mit ordentlichen Vorauszahlungen.
Ich bin nur mal gespannt, wie die Verfügbarkeitssituation ist, wenn jetzt soviel auf den neuen Nodes parallel nur von einer Foundry kommt. Das wird sicher übel.
Troyan
2022-05-20, 14:54:35
Sagen wirs mal so, diejenigen, welche damals behauptet hatten (wahrscheinlich Troyan, wie immer halt), dass Samsung NICHT schlechter als TSMC wäre, dürfen jetzt gerne mal eine Gedenksekunde einlegen.
Das bezug sich auf 7nm DUV gegen 8nm.
Lehdro
2022-05-20, 14:56:21
Nur mal so, wenn die Leute hier meinen dass nVidia mit Lovelace keine deutlichen Verbesserungen von Samsungs 8nm Prozess erreichen könnte. ;D
Bist du nicht derjenige (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12392466#post12392466) der damals zum Ampere Launch behauptet hatte, dass der größte Unterschied zwischen 8nm Samsung und 7nm TSMC eben nicht die Effizienz, sondern nur die theoretische Packdichte ist?
Na was denn nun? Kriegt NV jetzt doch einen erheblicheren Nodesprung über die Fullnode von TSMC hinaus, oder bleibst du bei deiner damaligen Aussage? Ist 8nm nun schlecht und deine damalige Aussage falsch, oder redest du jetzt Unsinn? :P
@Sunrise
Mein Reden ;D
Troyan
2022-05-20, 15:01:44
Bist du leicht verwirrt? Was hat TSMCs 4nm Prozess mit dem 7nm DUV Prozess von 2018 zu tun?
Aber gut, dann muss man sagen: RDNA2 ist schon absurder Schrott, wenn man selbst mit einem Fullnode Vorsprung und 30%+ Effizienz durch die Fertigung 10%+ ineffizienter ist.
Lehdro
2022-05-20, 15:18:13
Bist du leicht verwirrt? Was hat TSMCs 4nm Prozess mit dem 7nm DUV Prozess von 2018 zu tun?
Du hast damals doch behauptet das Samsungs DUV 8nm bis auf die theoretische Packdichte kaum schlechter als TSMCs DUV 7nm ist. Also ist 8nm Samsung auf 7nm TSMC für dich ein kleiner Sprung. Jetzt kommt 7nm TSMC auf 5nm TSMC (Werte sind bekannt) und dazu der 4nm Optimisierungsschritt. Also ein wenig mehr als nur ein kompletter Nodeshrink salopp gesprochen. Woher du nun aber 4nm Samsung mit 4nm TSMC Vergleiche einbringst um Steigerungen von 8nm anzunehmen, wo wir doch gar keine Vergleiche haben, da Samsung nach DUV 8nm (also: EUV 7nm/5nm/4nm) schlichtweg nie für Desktop GPUs benutzt wurde, weisst nur du. Der logische Schritt ist doch eher die Differenz von Samsungs 8nm auf TSMCs 7nm zu nehmen und dann komplett über TSMCs Datenwerte für alle folgenden Iterationen bis 4N zu gehen. Wo passt da Samsung 4nm -> TSMC 4nm rein?
Aber gut, dann muss man sagen: RDNA2 ist schon absurder Schrott, wenn man selbst mit einem Fullnode Vorsprung und 30%+ Effizienz durch die Fertigung 10%+ ineffizienter ist.
Da hast du sicherlich Quellen parat.
robbitop
2022-05-20, 15:29:27
Ich erinnere mich an die Vermessung von A55 mit Samsungs 5nm vs TSMC 7nm und 5nm auf Anandtech. Ergebnis war iirc dass die Energieeffizienz vom Samsung 5nm dem 7nm von TSMC entspricht. Ist zwar nur ein Datenpunkt aber rein intuitiv würde ich auch sagen, dass Samsungs 8nm ein gutes Stück schlechter war als TSMCs 7nm.
basix
2022-05-20, 15:33:48
Der logische Schritt ist doch eher die Differenz von Samsungs 8nm auf TSMCs 7nm zu nehmen und dann komplett über TSMCs Datenwerte für alle folgenden Iterationen bis 4N zu gehen. Wo passt da Samsung 4nm -> TSMC 4nm rein?
Es wäre evtl. einfacher, von Samsung 8nm -> 4nm zu gehen und dann rüber zu TSMC. Da hat man allenfalls bessere Vergleichswerte, da alles Mobile Chips mit ähnlicher CPU usw.
Troyan
2022-05-20, 16:39:03
Ich erinnere mich an die Vermessung von A55 mit Samsungs 5nm vs TSMC 7nm und 5nm auf Anandtech. Ergebnis war iirc dass die Energieeffizienz vom Samsung 5nm dem 7nm von TSMC entspricht. Ist zwar nur ein Datenpunkt aber rein intuitiv würde ich auch sagen, dass Samsungs 8nm ein gutes Stück schlechter war als TSMCs 7nm.
Es wurde doch auf mein Posting verwiesen. Darüber ist der Link zu Anandtech: https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/10
SD855 hatte 50% mehr Einheiten bei 20% weniger Takt. Wäre der 7nm Prozess zuviel besser als 8nm LPP (oder auch 10nm LPP von Samsung), dann hätte der Vorsprung in der Effizienz massiv sein müssen.
basix
2022-05-20, 16:57:34
Kann ich damit also behaupten, dass Ampere auf einen fast gleichwertigen Prozess wie RDNA2 setzt? Laut deiner Aussage wären 8LPP und N7 bei Packdichte und Energieeffizienz nahe beieinander.
BlacKi
2022-05-20, 17:10:34
tatsache ist, mit 4n wird nv fertigungstechnisch keinen nachteil mehr haben wie mit dem samsung prozess bei ampere. gepaart mit gddr6 wird das sicher ziemlich schnell und effizient. vl auch mit gddr6x wenn man hier noch optimiert.
Troyan
2022-05-20, 17:31:57
Kann ich damit also behaupten, dass Ampere auf einen fast gleichwertigen Prozess wie RDNA2 setzt? Laut deiner Aussage wären 8LPP und N7 bei Packdichte und Energieeffizienz nahe beieinander.
Die Packdichte ist 50% oder so besser bei 7nm. Einzig die Transistoreffizienz liegt irgendwo bei ca. 10% also in einem Bereich, der ggfs. messbar aber nicht wirklich relevant ist.
Man muss ja nur mal überlegen, was eure Ansichten für Auswirkungen hätten: nVidia bekäme einen kostenlosen 30% Effizienzboost geschenkt. :eek:
Es ist ja gleichzeitig auch ein Respin. Keine Ahnung was das bei solchen SoCs bringt oder ob es heut zu Tage nach dem ersten "fehlerfrein" Stepping nichts mehr zu holen gibt aber wenn ich zurück denke an die Zeiten in denen Intel noch Steppings gemacht hat, da waren 10-20% Effizienzverbesserung im selben Prozess schon auch mal möglich ein halbes Jahr nach Launch.
Ich find 30% jedenfalls super. Hätte jetzt gernen nen 8+ in meinem Phone :J
Thunder99
2022-05-20, 20:01:58
Die ach so tolle bessere Effizienz von TSMC wird aber aufgefressen von dem ineffizienten Betreiben der Chips oder Speicher.
Am Ende im Vergleich zu Samsung ist die Frage wie viel normiert TSMC auf gleicher Technologie Stufe besser ist.
Eventuell sehen wir es beim Snapdragon und können dann was ableiten vom Potential.
Zu viel würde ich nicht erwarten...
Platos
2022-05-21, 03:03:47
Verschiedene Techs kann man eig. nur mit ner Kurve vergleichen. Also ne Kurve mit Rechenleistung und Watt (und das ganze noch mit verschiedener Spannung).
Anders sind solche "xyz-fertigung ist Effizienter" eig. ziemlich nutzlos. Vor allem, wenn es auch noch von 2 verschiedenen Herstellern kommt und/oder 2 verschiedene Architekturen sind.
Rampage 2
2022-05-21, 17:58:48
Sind die Yields bei 4N TSMC gut genug, dass Nvidia auch die größeren Chips (AD103, AD104) mit Ausnahme des AD102 gleich im Vollausbau releasen kann - so wie noch zu Pascal-Zeiten? (GP104/GTX 1080 gleich vollaktiviert, GP102/Titan am Anfang nur Salvage)
R2
reaperrr
2022-05-21, 20:19:18
Sind die Yields bei 4N TSMC gut genug, dass Nvidia auch die größeren Chips (AD103, AD104) mit Ausnahme des AD102 gleich im Vollausbau releasen kann - so wie noch zu Pascal-Zeiten? (GP104/GTX 1080 gleich vollaktiviert, GP102/Titan am Anfang nur Salvage)
R2
Schwer zu sagen.
Ich würde eher auf "nein" tippen, jedenfalls bei AD103.
Aber man muss an dieser Stelle halt auch erwähnen: Dadurch, dass AD103/104 deutlich mehr SM als ihre jeweiligen GA10x-Vorgänger haben, hat die Deaktivierung von 1-2 SM prozentual auch weniger Einfluss auf die Leistung je MHz, als bei den Ampere-Vorgängern, insofern ist Vollausbau für die Leistung im Prinzip auch etwas weniger wichtig.
Zumal wenn das Powergating bei deaktivierten SM gut ist und der gesparte Strom in einige zusätzliche MHz fließt.
BlacKi
2022-05-21, 22:55:26
Die ach so tolle bessere Effizienz von TSMC wird aber aufgefressen von dem ineffizienten Betreiben der Chips oder Speicher.
Am Ende im Vergleich zu Samsung ist die Frage wie viel normiert TSMC auf gleicher Technologie Stufe besser ist.
Eventuell sehen wir es beim Snapdragon und können dann was ableiten vom Potential.
Zu viel würde ich nicht erwarten... leute mit 300w grafikkarten ist es praktisch egal ob sie 25-50w mehr verbrauchen. ausser im notebooksegment, weshalb dort auch bei der 3080ti nur gddr6 non x verbaut wird.
ich finde es erstaunlich wie wenig die 3060 hier verbraucht. gerade bei 0,8v sind das gerade mal +-100w bei 1700-1800mhz, also praktisch ohne performance verlust.
die 4070 wird bestimmt auf 200-225w(stock bestimmt275-300w)2,5x auf die 3060 bieten, ohne das doppelte zu kosten.
iamthebear
2022-05-22, 02:29:24
Wenn ich die Werte dieser News ausgehe:
https://www.3dcenter.org/news/news-des-18-mai-2022
Dann hat die 4090 die 3 fache Rohleistung einer 3090 bei nur 1.3x Verlustleistung ist also 2.3x so effizient. Beide Karte dürften auch im selben Bereich der Spannungskurve liegen.
Ich weiß nicht was sich einige hier erwarten aber 2.3x halte ich für sehr effizient. Ich kann mich nicht erinnern wann wir das letzte Mal so einen Sprung hatten.
Platos
2022-05-22, 03:22:10
In etwa so eine Steigerung der Effizienz gabs ja auch mit Hopper. Seit das bekannt ist, frage ich mich sowieso immer wieder, wie manche glauben, dass diese Generation ineffizient wird.
Dabei ist doch schon lange klar, wohin es mit der Effizienz geht. Wie der Endzustand ist (Takt/Spannung) der Karten, spielt dann nicht mehr so eine Rolle (für "uns" als Leute, die einfach selbst Hand anlegen können) - einfach dementsprechend runter takten.
Solange die grundlegende Effizienz um solche Werte steigt, ist mir der Auslieferungszustand (fast) egal. Zumindest so lange, bis mein Netzteil nicht mehr fürs Booten etc. genug stabil ist (bis die Software das Spannungsprofil starten kann).
BlacKi
2022-05-22, 04:18:44
also bei 850w kannst du die effizienz über board werfen. ansonsten werden ampere wie ada etwas über dem effizienten bereich takten. weils einfach leistung bringt, die man verkaufen kann.
die 3060 hier kann man auch super unter 100w betreiben ohne nennenswerte verluste. klar kann man auch 2,1 ghz+ mem oc bei 190w boosten lassen. das sind dann eben +25% über dem effizienten bereich die man verkaufen könnte. aber 100% mehr verbrauch für 25% leistung? höchstens zum benchen...
Platos
2022-05-22, 13:12:42
Ja also wie gesagt, es ist mir "fast" egal. 850W würde mein Netzteil vermutlich nicht packen beim simplen Booten
Gibt da sicherlich mal kurz nen Peak, könnte ich mir vorstellen. Die Grenze dürfte (bei mir) so bei ~ 400-450W sein. Aber wie gesagt, ich betreibe die Karte dann einfach mit einem Bruchteil der Karte.
Und ja, die Karten werden bei Lovelace mit Sicherheit nicht im Sweetspot betrieben, das meinte ich aber auch nicht. Ich meinte, dass viele davon ausgehen, dass Lovelace nur durch die Brechstange (mehr Power) diese Rohleistung hinkriegt und keinerlei (oder fast keine) Effizienzvorteile bieten wird. Nachdem wir Hopper gesehen haben, sollte eig. jeder vernünftig denkende Mensch das Gegenteil behaupten. Eben wie gesagt: Vlt. nicht beim Auslieferungszustand, abeer mit ein biaschen Handhabung.
Und ja, man kann jede Grafikkarte Effizienter machen normalerweise, aber mit Ampere wird man trotzdem niemals auch nur annähernd die Effizienz einer Lovelace-Karte erreichen (die man auch getuned hat), weil diese eben hich sein werden. Warum? Siehe Hopper...
robbitop
2022-05-22, 13:47:32
Es wäre auch schlimm, wenn eine neue uArch und quasi 2x fullnodesprünge nicht deutlich effizienter wären. Energieeffizienz hat mit absoluter Leistungsaufnahme nichts zu tun. Es ist Performance pro Watt. Pro TFLOP wird es sicherlich deutlich weniger verbrauchen bzw bei gleicher Leistungsaufnahme deutlich mehr Performance bringen. Am Ende ist das nur eine Frage der Skalierung und des Betriebspunktes. Selbst wenn es eine SKU mit 850 W gibt - wenn die entsprechend mehr Performance liefert ist es immernoch effizient.
BlacKi
2022-05-22, 14:14:47
früher hat mit mit 50w mehr die letzten % rausgekitzelt, jetzt sind es 500w mehrverbrauch für ganz wenige % performance +.
robbitop
2022-05-22, 14:20:01
500W delta für ein paar Prozent? Das höchste was ich an Serien SKUs gesehen habe waren vielleicht 100 W. Was Ada angeht: Abwarten. Da fliegt auch viel Unsinn durch den Äther.
Und am Ende kann ja jeder selbst Hand anlegen. ;)
iamthebear
2022-05-22, 14:44:20
In etwa so eine Steigerung der Effizienz gabs ja auch mit Hopper. Seit das bekannt ist, frage ich mich sowieso immer wieder, wie manche glauben, dass diese Generation ineffizient wird.
Gibt es von Hopper überhaupt schon unabhängige Reviews? Alles was ich bisher gesehen habe waren Artikel, die die technischen Spezifikationen runterbeten. Das mit den 3x FP32 Rohleistung ist dieselbe Sache wie mit Gaming Ampere bzw. 3080 vs. 2080.
Was die Tensor Performance angeht: Die Zahlen sehen toll aus aber wie es in der Praxis läuft keine Ahnung.
Ich erwarte von Hopper ehrlich gesagt auch nicht so viel Effizienzsteigerung. GA100 war ja bereits auf 7nm.
Thunder99
2022-05-22, 15:51:40
Effizienz hin oder her. Nützt nichts, wenn die Karte standardmäßig 300W bis 600W braucht. Die Nachteile in Kühlung, Aufwand, etc überwiegen, sodass es für mich nicht Wert ist. Hand anlegen kann man, aber dann muss man wieder ein Tool mitlaufen lassen oder es ist nicht überall stabil oder es macht mehr Probleme.
Die Skalierung nach unten muss funktionieren, ansonsten ist es aussichtslos.
Warum machen dann die Hersteller nicht von sich aus zumindest die Option, Eco BIOS mit z.B
200W und Performance BIOS mit 400W+. AMD hat es ja so halbwegs vorgemacht...
robbitop
2022-05-22, 15:58:28
Wenn die Gesamtleistungsaufnahme zu hoch ist, kauft man halt eine kleinere SKU. Solange die Performance und Perf/W passt kann man doch die Skalierung der SKU nach monetären und TDP Budget tätigen.
MiamiNice
2022-05-22, 16:42:31
Hat NV wirklich die 600Watt 4090 gegen eine 450Watt 4090 ersetzt weil AMD nicht mithalten kann? Fänd ich ja schon massiv blöd.
iamthebear
2022-05-22, 16:46:11
Wenn es nur darum geht die Stromkosten zu deckeln bzw. im Sommer den Raum nicht zu viel aufzuheizen dann ist die Lösung kein eigenes BIOS sondern einfach ein simpler Regler im Treiber wo man zwischen Silent und Performance hin und her wechseln kann.
Ich sehe das aber bei Weitem nicht so dramatisch. AD102 wird sowieso im Bereich von mindestens 1500€ aufwärts liegen. Das will ich sowieso nicht bezahlen.
In Frage kommt dann ein Top AD103 Die wenn dieser um knapp 1000 Euro zu haben ist.
Wenn die 4090 mit 450W kommt, dann wird der Top AD103 Die wohl bei ca. 300W bei gemäßigten Taktraten liegen bzw. 350W wenn er hochgetrieben wird.
Den dann etwas runter takten und man ist wiederrum bei denselben 250W, die es früher bei der 1080 Ti gegeben hat.
BlacKi
2022-05-22, 17:47:22
500W delta für ein paar Prozent? Das höchste was ich an Serien SKUs gesehen habe waren vielleicht 100 W. Was Ada angeht: Abwarten. Da fliegt auch viel Unsinn durch den Äther.
Und am Ende kann ja jeder selbst Hand anlegen. ;)es ging doch um die getesteten 850w. das ist ja kein unsinn was da verbreitet wird, sondern das sind interne tests, ob 850w möglich wären. wenn diese 850w dann erfolgreich abgeschlossen werden, dann stehen sie als reale option dem entwickler zur verfügung. das die 850w dann kommen oder nicht, liegt nicht daran, ob sie unsinn sind oder nicht, sondern ob der entwickler sich für die option entscheidet.
die 850w tests sind kein fake leak. das sind echte tests. genau wie die 450w und die 600w tests.
iamthebear
2022-05-22, 20:03:30
Das sind einfach interne Belastungstests wie weit man theoretisch gehen könnte. Kann gut sein, dass manche AIBs einfach ausprobiert haben was theoretisch möglich wäre. Das heißt noch lange nicht, dass irgendjemand vor hat. dass das in den regulären Handel kommt. Wenn ich mir ansehe wie schon heute GPUs mit LN2 hochgeprügelt werden glaube ich kaum dass die sehr viel weniger verbrauchen werden.
robbitop
2022-05-22, 20:35:04
Abwarten was wirklich kommt. Das mit den 600-850W - da bin ich noch sehr skeptisch wie repräsentativ das für Ada sein wird. Ggf eine Sonder SKU oder FUD. Muss man sehen.
Leonidas
2022-05-22, 21:05:06
Ich gehe derzeit davon aus, dass die 450W für die 4090 eine recht solide Info sind. 600W bleibt offen für eine Max-SKU in Richtung Titan - womöglich wird nicht einmal eine 4090Ti dies erreichen. Die 900W dürften eher das Limit der ganze Plattform sein, sprich ein theoretischer Wert, nur für professionelle OCer interessant.
bbott
2022-05-22, 21:26:29
Ich gehe derzeit davon aus, dass die 450W für die 4090 eine recht solide Info sind. 600W bleibt offen für eine Max-SKU in Richtung Titan - womöglich wird nicht einmal eine 4090Ti dies erreichen. Die 900W dürften eher das Limit der ganze Plattform sein, sprich ein theoretischer Wert, nur für professionelle OCer interessant.
Wenn das so weiter geht ist es doch nur eine Frage der Generation 5000 oder 6000er. Ich fürchte das Ende kommt erst wenn die EU eingreift, der Markt regelt hier nichts.
Nightspider
2022-05-22, 21:36:31
Hat NV wirklich die 600Watt 4090 gegen eine 450Watt 4090 ersetzt weil AMD nicht mithalten kann? Fänd ich ja schon massiv blöd.
Nein weil Raptor Lake 450W ziehen soll und NV Angst bekam, weil die wenigstens Gamer so große Netzteile haben.
iamthebear
2022-05-22, 22:31:40
Das sind einfach interne Belastungstests wie weit man theoretisch gehen könnte. Kann gut sein, dass manche AIBs einfach ausprobiert haben was theoretisch möglich wäre. Das heißt noch lange nicht, dass irgendjemand vor hat. dass das in den regulären Handel kommt. Wenn ich mir ansehe wie schon heute GPUs mit LN2 hochgeprügelt werden glaube ich kaum dass die sehr viel weniger verbrauchen werden.
iamthebear
2022-05-22, 22:48:25
Ich gehe derzeit davon aus, dass die 450W für die 4090 eine recht solide Info sind. 600W bleibt offen für eine Max-SKU in Richtung Titan - womöglich wird nicht einmal eine 4090Ti dies erreichen. Die 900W dürften eher das Limit der ganze Plattform sein, sprich ein theoretischer Wert, nur für professionelle OCer interessant.
Das kann vieles gewesen sein. Eventuell hat es sich hierbei auch nur um die Lastspitzen gehandelt.
Was die 600W angeht:
Die 4090 Ti hat dann wohl 140SM also ca. 10% mehr. Dann sind wir schon bei 500W und dann werden noch mal 20% drauf gelegt.
Von der 3090 auf die 3090 Ti wurde viel mehr drauf gelegt wenn man den Verbrauch für SI und VRAM raus rechnet. Da ist der Verbrauch ja sogar um 20W gefallen auf Grund der 2GB Chips.
Wenn das so weiter geht ist es doch nur eine Frage der Generation 5000 oder 6000er. Ich fürchte das Ende kommt erst wenn die EU eingreift, der Markt regelt hier nichts.
Die Frage ist was das bringen soll. Dann ist der Verkauf der High End GPUs in Zukunft verboten. Inwoefern soll das den Käufern nutzen. Optionen für niedrige Verlustleistung gibt es ja genug genauso für vertretbares Budget nur kann man dann eben nicht mit 120fps in 4K Ultra zocken.
Hat NV wirklich die 600Watt 4090 gegen eine 450Watt 4090 ersetzt weil AMD nicht mithalten kann? Fänd ich ja schon massiv blöd.
Die 450W sind auch nur für die 4090. Denkst du wirklich, dass Nvidia extra 6 Monate vorher eine 3090 Ti raus bringt und diese dann nicht weitergeführt wird?
3090 350W 4090 450W
3090 Ti 45W 4090 Ti 600W
Dass AMD nicht mithalten kann muss sich erst zeigen. Ich glaube jetzt nicht, dass Navi31 so ein großer Fail wird. Viel mehr wurde wohl die 4090 unterschätzt.
The_Invisible
2022-05-23, 07:25:31
Wenn das so weiter geht ist es doch nur eine Frage der Generation 5000 oder 6000er. Ich fürchte das Ende kommt erst wenn die EU eingreift, der Markt regelt hier nichts.
Warum sollte die EU eingreifen? Die macht das ja net mal bei Autos und den irrsinnigen PS-Schleudern bzw "Klein-LKW" SUVs usw die da immer mehr rumfahren...
Außerdem braucht man Grakas nicht nur zum zocken, obwohl ich mir nicht wirklich sicher bin ob das die Leute dort wissen. Zudem die Highendmodelle eh nur einen geringen Absatzmarkt haben.
So oder so setzen sich die meisten eh das Limit darunter weil man es mit Luftkühlung einfach nicht mehr gekühlt bekommt und auch die Raumtemperatur merklich ansteigt, vor allem wenn man nur ein kleines Hobby/Officebüro hat.
600W hat unser Heizstrahler am Wickeltisch in der 2. Stufe und das hält man fast nicht aus, sieht man erst wie krank das ist :D
Computex Keynote-Stream:
icEa4c9USS4
rentex
2022-05-24, 08:48:10
Warum sollte die EU eingreifen? Die macht das ja net mal bei Autos und den irrsinnigen PS-Schleudern bzw "Klein-LKW" SUVs usw die da immer mehr rumfahren...
Außerdem braucht man Grakas nicht nur zum zocken, obwohl ich mir nicht wirklich sicher bin ob das die Leute dort wissen. Zudem die Highendmodelle eh nur einen geringen Absatzmarkt haben.
So oder so setzen sich die meisten eh das Limit darunter weil man es mit Luftkühlung einfach nicht mehr gekühlt bekommt und auch die Raumtemperatur merklich ansteigt, vor allem wenn man nur ein kleines Hobby/Officebüro hat.
600W hat unser Heizstrahler am Wickeltisch in der 2. Stufe und das hält man fast nicht aus, sieht man erst wie krank das ist :D
Schon der Heizstrahler über dem Wickeltisch, ist nicht wirklich notwendig...habe selber Kinder und sprech aus Erfahrung.
Troyan
2022-05-24, 09:58:45
Fernseher werden doch auch bald auf 350W beschränkt oder so: https://www.computerbild.de/artikel/avf-News-Fernseher-EU-Energielabel-neu-TV-Geraete-Monitore-Stromverbrauch-Sparsamkeit-27486803.html
Grafikkarten werden bestimmt auch irgendwann in den Fokus rücken...
Platos
2022-05-24, 12:22:38
Die Diskussion hatten wir schonmal irgendwo. Es ist bei Grafikkarten viel schwieriger zu bestimmen. Bei TVs kann man simple sagrn: Pro Fläche max. so viel Strom. Ein TV leistet aber etwas sehr subjektives (Bildqualität) während dem eine Grafikkarte aber eine Rechenleistung liefert, die je nach Anwendungsfall in der Effizienz ganz unterschiedlich sein kann (Beispiel: Game vs. Anwendungen).
Aber ich habe schon damals geschrieben: Man könnte den Hersteller (AMD, Nvidia) dazu auffordern, dass sie eine Effizienzkurve (pro Grafikkarte oder pro Architektur) erstellen müssen (Watt-Rechenlesitung) und dann wird vorgeschrieben, dass innerhalb dieser Kurve nicht mehr wie XX-Prozent vom Sweetspot abgewichen werden darf. So gäbe es keinen "Zwang" bzw. keine Möglichkeit für einen Hersteller, seine Grafikkarten extrem ineffizient zu betreiben.
Das wäre eine faire Methode und sie müsste auf den Hersteller bezogen sein, nicht auf den Markt. Wir kennen alle die Situation, die beide Hersteller manchmal hatten mit der Effizienz. Solche Regelungen könnten in einem Duopol sehr empfindlich den Markt stören, wenn die Regelung nicht für jede Architektur seperat gilt (wenn man beispielsweise einfach sagt, bei Rechenleistung xyz darfs max. so und so viel Watt sein). Wobei wie gesagt, das ginge sowieso nicht, da man Rechenleistung nicht so einfach definieren kann. FLOPs-Angaben sind bekanntlich (gerade Architekturübergreifend) nutzlos.
Troyan
2022-05-24, 12:44:21
Oder du beschränkst einfach die maximale Leistungsaufnahme. Und verteuerst damit die Produkte, da mehr Leistung nur über mehr Fläche zu realisieren ist. Dann werden aus einer 1000€ Karte mit 350W eben 2000€, da der Chip deutlich größer sein muss.
Gipsel
2022-05-24, 13:21:52
Aber ich habe schon damals geschrieben: Man könnte den Hersteller (AMD, Nvidia) dazu auffordern, dass sie eine Effizienzkurve (pro Grafikkarte oder pro Architektur) erstellen müssen (Watt-Rechenlesitung) und dann wird vorgeschrieben, dass innerhalb dieser Kurve nicht mehr wie XX-Prozent vom Sweetspot abgewichen werden darf. So gäbe es keinen "Zwang" bzw. keine Möglichkeit für einen Hersteller, seine Grafikkarten extrem ineffizient zu betreiben.Doch, man würde im Zweifelsfall einen Anreiz dafür schaffen, den Stromverbrauch der GPUs "im Sweetspot" hochzutreiben (z.B. einfach durch unnötig hohe Spannungen bei abgesenkter Frequenz), damit in der gemessenen Effizienzkurve der Betrieb an ungünstigeren Betriebspunkten (sehr hoher Takt) im Vergleich weniger ungünstig erscheint.
Was hat man denn davon? Genau: Einen höheren Stromverbrauch in der Praxis.
Sweepi
2022-05-24, 13:30:52
Grafikkarten werden bestimmt auch irgendwann in den Fokus rücken...
Halte ich für unwahrscheinlich, außer es kommt eher zufällig bei eine Krypto-/PoW Regulierung mit rein.
10% der verkauften GPUs sind steckbare Karten, davon wieder nur ein kleiner Anteil HighEnd/Enthusiast.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2021
Neurosphere
2022-05-24, 14:13:22
Es werden wohl eher ganze Computer in den Fokus rücken. Das wäre sogar relativ simpel indem man die maximale Netzteilgröße beschränkt.
Platos
2022-05-24, 14:27:55
Doch, man würde im Zweifelsfall einen Anreiz dafür schaffen, den Stromverbrauch der GPUs "im Sweetspot" hochzutreiben (z.B. einfach durch unnötig hohe Spannungen bei abgesenkter Frequenz), damit in der gemessenen Effizienzkurve der Betrieb an ungünstigeren Betriebspunkten (sehr hoher Takt) im Vergleich weniger ungünstig erscheint.
Was hat man denn davon? Genau: Einen höheren Stromverbrauch in der Praxis.
Gut, das stimmt. Ich habe ja nicht behauptet, dass das eine perfekte Methode ist. Die Spannung müsste man natürlich miteinbeziehen. Also müsste man vlt. mehrere Kurven mit verschiedenen Spannungen machen. Eine absolute Obergrenze für Consumerprodukte könnte man dann ja trotzdem erheben. Würde aber für die unteren Modelle quasi nicht wirksam sein bzw. diese nicht zwingend effizient machen.
Aber das ist ja nur eine Idee. Eine Genaue umsetzung müsste natürlich dann entsprechende Ausnutzungspotenitale miteinbeziehen. Ich habe ja nur eine Idee in den Raum geworfen, in welche Richtung man denken könnte, nicht behauptet, das sei genau so 100% frei von Missbrauchsmöglichkeiten.
Aber: Was würdest du denn machen, wenn du es machen müsstest ? Wie würdest du das technisch umsetzen, so dass es aber noch "fair" bleibt und trotzdem die Effizienz gefördert wird (und nicht einfach eine simple Obegrenze).
Platos
2022-05-24, 14:32:24
Es werden wohl eher ganze Computer in den Fokus rücken. Das wäre sogar relativ simpel indem man die maximale Netzteilgröße beschränkt.
In Kalofornien gibts irgendwelche Regelungen dazu, aber ich glaube das gilt nicht dem maximalen verbrauch, eher sowas wie Idle usw. Aber ich glaube, das betrifft auch nur Firmen und keine Privatpersonen.
Ist grundsätzlich eine Idee, aber im Diy-Markt nicht möglich, da ja dort niemand einen Komplett-PC verkauft. Natürlich ist dieser auch der kleinste Markt vermutlich und somit auch der unwichtigste, aber trotzdem.
Aber wie gesagt: Es bleibt dabei: Man kann es nicht quantifizieren. Ein maximalverbrauch wird nicht die Effizienz fördern (maximal bei den Top-Dogs). Bei TVs gilt ja auch nicht einfach stur "xyz Watt für jeden TV" sondern das ist auf die Fläche bezogen. Bei PC's muss dass natürlich auch irgendwo "fair" sein, also die Rechenleistung. Nur bei einem kompletten PC ist das noch viel schwieriger festzustellen, als bei einem einzelnen Bauteil (Mainboard, Grafikkarte, RAM, CPU usw.).
Technisch gesehen halte ich es für klüger einzeln anzusetzen. Aber vlt. hat jemand ja auch eine technisch bessere Möglichkeit, wie man das "fair" umsetzen kann, so dass aber die Effizienz gefördert wird.
Gipsel
2022-05-24, 14:37:26
Gut, das stimmt. Ich habe ja nicht behauptet, dass das eine perfekte Methode ist. Die Spannung müsste man natürlich miteinbeziehen. Also müsste man vlt. mehrere Kurven mit verschiedenen Spannungen machen.Wie soll das gehen? Der Hersteller sagt, daß er unter der von ihm vorgesehenen Spannung den stabilen Betrieb nicht gewährleisten kann und das ist es dann.
Aber: Was würdest du denn machen, wenn du es machen müsstest ? Wie würdest du das technisch umsetzen, so dass es aber noch "fair" bleibt und trotzdem die Effizienz gefördert wird (und nicht einfach eine simple Obegrenze).Bei einem hohen Strompreis regelt der Markt das alleine? Dem Konsumenten müssen einfach nur ehrlich die Auswirkungen klar gemacht werden.
Dural
2022-05-24, 14:53:00
War doch von Anfang an klar dass Ada relativ stark wird.
Schon nur der Sprung von 8/10nm Samsung auf 4/5nm TSMC muss beziehungsweise ist für die heutige Zeit doch gewaltig. Da wird mal eben ein ganzer Fullnode (7nm) übersprungen. Auch wenn die Unterschiede in der heutigen Fertigung nicht mehr so gross wie früher sind, aber schon alleine das ist eine Ansage.
Dazu 3. Generation RT und wahrscheinlich auch 3. Generation GDDR6X und jetzt noch die Testkarte 3090Ti... da müsste NV schon einen ziemlichen Bock schiessen wenn sie das in den Sand setzen.
Dazu rechne ich mit deutlich mehr Takt als noch mit Ampere. Die Packdichte von Hopper scheint mir relativ grosszügig zu sein, da wäre sicher mehr möglich und das spricht ja schon das man eher auf Takt geht.
Dovregubben
2022-05-24, 15:55:23
Dazu 3. Generation RT und wahrscheinlich auch 3. Generation GDDR6X und jetzt noch die Testkarte 3090Ti... da müsste NV schon einen ziemlichen Bock schiessen wenn sie das in den Sand setzen.
Vermutlich auch die erste Generation an RT Cores bei denen man Erkenntnisse aus realen Spielen zur Verbessung nutzen konnte.
ChaosTM
2022-05-24, 16:02:16
Heute hab ich wieder irgendwo gelesen, dass die Linda CPU schon im Juli kommen soll. Hab den Link leider verschwitzt.
Weiß man da was ?
Und der Markt wird da genau nichts regeln, weil scheinbar viele solche hochwattigen CPU/GPUs brauchen zwecks Penisverlängerung/Replacement.
Da wird die Politik früher oder später eingreifen müssen. ;)
add.: das kam jetzt etwas blöd rüber. Was mich stört ist das sinnfreie aussaugen der letzten 5-15% Leistung für 100-200 Watt nur des Balkens willen. Sieh 3090ti.
Daher liebe ich auch den Namen Lovelace für die Next Gen so sehr. Bei Linda kommts auch nur auf die Größe der Latte an - a Match made in heaven! Allerdings "unfreiwillig".. :)
Vorausgesetzt die 4090(ti) sauft wirklich 600 Watt, obwohl 400 für eine "sehr ähnliche" Leistung gereicht hätten.
iamthebear
2022-05-25, 00:32:05
Mit den aktuellen Strompreisen wird das der Markt sehr schnell selbst regeln. Mag sein, dass es 600W GPUs gibt aber die breite Masse kauft diese nicht.
Als sinnvolle gesetzliche Regelung kann ich mir bei GPUs einen verpflichtenden Schieberegler Im Grafiktreiber vorstellen mit dem man die TDP begrenzen kann. Dann kann jeder selbst entscheiden ob er mehr Performance oder eine niedrigere Stromrechnung haben will
Neurosphere
2022-05-25, 07:39:01
In Kalofornien gibts irgendwelche Regelungen dazu, aber ich glaube das gilt nicht dem maximalen verbrauch, eher sowas wie Idle usw. Aber ich glaube, das betrifft auch nur Firmen und keine Privatpersonen.
Ist grundsätzlich eine Idee, aber im Diy-Markt nicht möglich, da ja dort niemand einen Komplett-PC verkauft. Natürlich ist dieser auch der kleinste Markt vermutlich und somit auch der unwichtigste, aber trotzdem.
Ich beziehe das schon auch auf den Komponentenmarkt oder DIY Markt. Sagen wir, die EU beschließt das Netzteile für Computer maximal 600 Watt Leistungsabgabe haben dürfen, dann werden Hersteller schon mehr darauf achten das die Komponenten im Rahmen bleiben. Wer kauft eine 450 Watt GPU wenn für den Rest nur noch langsame Komponenten in Frage kommen?
Vom Prinzip würde ich das schon als Möglichkeit sehen. Klar könnte man dann wieder Netzteil zusammenschalten usw., aber das Signal wäre da.
The_Invisible
2022-05-25, 08:21:08
Schon der Heizstrahler über dem Wickeltisch, ist nicht wirklich notwendig...habe selber Kinder und sprech aus Erfahrung.
Ich auch, ist sicher nützlicher als 200W für einstellige mehr fps zu verbraten. ;)
rentex
2022-05-25, 09:29:52
Ich auch, ist sicher nützlicher als 200W für einstellige mehr fps zu verbraten. ;)
Sinnvoller als für ne handvoll fps, auf jeden Fall ;-)
Platos
2022-05-25, 18:07:57
Ich beziehe das schon auch auf den Komponentenmarkt oder DIY Markt. Sagen wir, die EU beschließt das Netzteile für Computer maximal 600 Watt Leistungsabgabe haben dürfen, dann werden Hersteller schon mehr darauf achten das die Komponenten im Rahmen bleiben. Wer kauft eine 450 Watt GPU wenn für den Rest nur noch langsame Komponenten in Frage kommen?
Vom Prinzip würde ich das schon als Möglichkeit sehen. Klar könnte man dann wieder Netzteil zusammenschalten usw., aber das Signal wäre da.
Das ändert immer noch nix an der Effizienz. Dann wird der Top-Dog einfach kleiner gebaut und ineffizient betrieben und sicher nicht einen grossen Chip gebaut und dieser dann effizient betrieben.
Das ganze betrifft aber mit deiner Strategie (wenn überhaupt) macimal die High-End Karten. Die, die in deutlich höherer Stückzahl verkauft werden (also deutlich wichtiger sind), sind davon genau 0 betroffen. Die kann man weiterhin extrem ineffizient betreiben.
Platos
2022-05-25, 18:17:22
Wie soll das gehen? Der Hersteller sagt, daß er unter der von ihm vorgesehenen Spannung den stabilen Betrieb nicht gewährleisten kann und das ist es dann.
Bei einem hohen Strompreis regelt der Markt das alleine? Dem Konsumenten müssen einfach nur ehrlich die Auswirkungen klar gemacht werden.
Und warum sollte es einen hohen Strompreis allein durch Grafikkarten geben? Oder hoffst du bei deiner Idee darauf, dass er von alleine ansteigt? Der Strompreis müsste schon auf 50cent oder so steigen, damit das die Masse kümmert. Abgesehen davon wissen doch die Durchschnittskäufer gar nicht, wie viel ihr PC an Strom verbraucht. Eoher auch? Hat ja nicht jeder ein Messgerät hinter dem Netzteil oder geht den Zähler anschauen.
Und naja, die Hersteller müssen nachweisen, dass niedrigere Spannungen eine Instabilität zur Folge haben. Das könnte man z.B machen. Ist zwar streng, aber eine Möglichkeit. Es muss einfach so ausgerichtet sein, dass der Hersteller den kompletten Aufwand hat und nicht der Staat.
Aber ganz ehrlich: Deine Idee ist schon ziemlich naiv. Und was meinst du mit ehrlich den Leuten die Auswirkungen klar machen? Stromkosten? Umwelt ? Das ist ein Witz oder? Würde das funktionieren, ständen wir heute nicht mit 2Tonnen Autos da sondern würden mit dem Fahrrad fahren, wo es geht usw. Und vor allem: Wer bitte sagt das denn "einfach" den Leuten?
Das ist schon alles ziemlich naiv. Und die "Markt regelt schon" Idee funktioniert auch nicht. Vlt. im Lehrbuch.
BlacKi
2022-05-25, 18:22:07
Und warum sollte es einen hohen Strompreis allein durch Grafikkarten geben? Oder hoffst du bei deiner Idee darauf, dass er von alleine ansteigt? Der Strompreis müsste schon auf 50cent oder so steigen, damit das die Masse kümmert. Abgesehen davon wissen doch die Durchschnittskäufer gar nicht, wie viel ihr PC an Strom verbraucht. Eoher auch? Hat ja nicht jeder ein Messgerät hinter dem Netzteil oder geht den Zähler anschauen.
bist ein querdenker? XD er meint umgekehrt MMD:biggrin: die leute kaufen gpus mit niederer tdp wenn der strompreis nach oben geht. allerdings auch nur wenn man es sich nichtmehr leisten kann oder will.
*ironie an*
dann ziehe ich nach frankreich, dort wird der hohe strompreis auf alle umgelegt, auch auf die, die strom sparend unterwegs sind XD
*ironie aus*
Troyan
2022-05-25, 22:47:34
Was von nVidia:
“We are gearing up for the largest wave of new products in our history with new GPU, CPU, DPU and robotics processors ramping in the second half. Our new chips and systems will greatly advance AI, graphics, Omniverse, self-driving cars and robotics, as well as the many industries these technologies impact,” he [Huang] said.
https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2023
Bestätigt jedenfalls Release in diesem Jahr.
Neurosphere
2022-05-26, 00:18:03
Das ändert immer noch nix an der Effizienz. Dann wird der Top-Dog einfach kleiner gebaut und ineffizient betrieben und sicher nicht einen grossen Chip gebaut und dieser dann effizient betrieben.
Das ist prinzipiell egal. Es gibt immernoch den Wettbewerb und es muss versucht werden aus den gegebenen Möglichkeiten das Maximum zu erreichen.
Ob etwas effizient oder ineffizient ist ergibt sich aus was rauskommt zu dem was ich reinstecke. Wie groß der Chip dabei ist spielt direkt erstmal keine Rolle.
Das ganze betrifft aber mit deiner Strategie (wenn überhaupt) macimal die High-End Karten. Die, die in deutlich höherer Stückzahl verkauft werden (also deutlich wichtiger sind), sind davon genau 0 betroffen. Die kann man weiterhin extrem ineffizient betreiben.
Es betrifft ja auch nur die High-End Staubsauger. Dein Aussage ist ja gerade das sowas keinen Sinn ergibt weil nicht alles dabei berücksichtigt werden kann. Das ist aber nicht der Sinn eines Gesetzes bzw. einer Richtlinie.
Platos
2022-05-26, 00:27:37
bist ein querdenker? XD er meint umgekehrt MMD:biggrin: die leute kaufen gpus mit niederer tdp wenn der strompreis nach oben geht. allerdings auch nur wenn man es sich nichtmehr leisten kann oder will.
*ironie an*
dann ziehe ich nach frankreich, dort wird der hohe strompreis auf alle umgelegt, auch auf die, die strom sparend unterwegs sind XD
*ironie aus*
Weiss ich doch und das ist ja die aus meiner Sicht naive Argumentation. "Wenn der Strompreis steigt"... Ja wenn...
Das das nicht funktioniert, beweisen ja viele anderen elektronische Geräte, unter anderem TVs. Da wäre gar nix geregelt, hätte man nicht eingegriffen.
Sorry, aber "Markt regelt" ist ein sehr schlechtes Argument. Wenn es überhaupt regelt, dann zu spät. Ansonsten wären wir ja niemals bei 450W GPUs gelandet, denn der Markt regelt ja so gut...
Platos
2022-05-26, 00:34:46
Das ist prinzipiell egal. Es gibt immernoch den Wettbewerb und es muss versucht werden aus den gegebenen Möglichkeiten das Maximum zu erreichen.
Ob etwas effizient oder ineffizient ist ergibt sich aus was rauskommt zu dem was ich reinstecke. Wie groß der Chip dabei ist spielt direkt erstmal keine Rolle.
Es betrifft ja auch nur die High-End Staubsauger. Dein Aussage ist ja gerade das sowas keinen Sinn ergibt weil nicht alles dabei berücksichtigt werden kann. Das ist aber nicht der Sinn eines Gesetzes bzw. einer Richtlinie.
Zum 1: Hast du vlt. falsch verstanden oder ich verstehe dich falsch, aber wenn es nur noch 600W Netzteile gäbe oder Grafikkarten nur noch xyz Watt verbrauchen würden, dann wären deswegen die Gragikkarten nicht effizient betrieben. Es würde die Effizienz auch kein bisschen fördern. Man würde nur erreichen, dass man nicht mehr so grosse Chips bauen kann. Solange es kein Verlangen auf Effizienz gibt, wird man Chips immer ineffizient betreiben.
Beispiel RTX 3090Ti: Man wird dann bei einem Limit von 300W nicht auf 300W limitieren (bei gleichem Chip), sondern man wird einen viel kleineren Chip bauen und den bei 300W betreiben - in einer höchst uneffizienter Weise.
Zum 2: Du vergleichst Äpfel mit Birnen, eigentlich ja Staubsauger mit PCs/Grafikkarten :D
Spielt auch keine Rolle, was irgendwo anders im Markt geschieht. Schlussendlich bringts nicht viel, wenn es nur bei High-End Grafikkarten einen Effekt hätte.
BiG OnE
2022-05-26, 06:52:17
Was sollte einen Netzteilhersteller daran hindern ein 1000W Model als 600W zu deklarieren und es auf den Markt zu werfen und die Beschränkung so zu umgehen?
basix
2022-05-26, 08:59:04
Beispiel RTX 3090Ti: Man wird dann bei einem Limit von 300W nicht auf 300W limitieren (bei gleichem Chip), sondern man wird einen viel kleineren Chip bauen und den bei 300W betreiben - in einer höchst uneffizienter Weise.
Die Leistungskrone kriegst du aber dann nur mit dem effizienzesten Design oder Chip. Und das wird der am Sweetspot bei 300W sein und nicht der hochgeprügelte Chip. Im Falle der 3090 Ti macht 450W->300W was aus? 10-15% Performance?
Die Konkurrenz um die Leistungskrone ist hier der springende Punkt. Durch die Maximalbegrenzung der Energieaufnahme würde das Rennen zu einer reinen Effizienzfrage.
Was schwieriger ist, ist alles darunter. Entweder die Hersteller ziehen dort den Takt wieder hoch oder man hätte noch weitere Gewichtsklassen: 220W, 160W, 120W, 90W, 70W. In jeder der Klassen gäbe es dann einen eigenen "Sieger". Klar kann man die Chips immer noch höher Takten. Die Klassensieger sind aber immer die effizientesten Chips.
Edit:
Bei Mobile wäre dieses Gewichtsklassen- Ranking noch nützlicher als am Desktop und auch bei CPUs wäre sowas hilfreich ;)
Troyan
2022-05-26, 10:08:33
Höre mir gerade den Conference Call an und Lovelace kommt sicher in diesem Jahr:
[...]as we prepare for a new architectural transistion later in the year we projecting gaming revenue[...]
However, we started seeing softness in parts of Europe related to the war in the Ukraine and parts of China due to the COVID lockdowns. As we expect some ongoing impact as we prepare for a new architectural transition later in the year, we are projecting Gaming revenue to decline sequentially in Q2.
https://seekingalpha.com/article/4514532-nvidia-corporation-nvda-ceo-jensen-huang-on-q1-2023-results-earnings-call-transcript
AffenJack
2022-05-26, 19:51:43
Interessant fand ich noch den Part:
We are still on track to grow our non-GAAP operating expenses in the high 20s range this year. we expect sequential increases to level off after Q2 as the first half of the year includes a significant amount of expenses related to the bring-up of multiple new products, which should not reoccur in the second half.
Was sind denn alles so Bring-up Kosten? Boards, Teststationen? Das sollten doch nur Peanuts sein bei so einer Firma, wie Nvidia. Was kann sich spürbar auswirken? Oder einfach ein deutlich höherer Workload der Mitarbeiter inkl. bezahlter Überstanden im Testzeitraum, damit das möglichst schnell in die Massenproduktion geht?
Dann würde das auf jeden Fall darauf deuten, dass der Großteil der Produkte spätestens Q3 in Massenproduktion ist, manches evtl früher, wie an den AD102 Gerüchten zu sehen.
iamthebear
2022-05-26, 20:10:40
Ich beziehe das schon auch auf den Komponentenmarkt oder DIY Markt. Sagen wir, die EU beschließt das Netzteile für Computer maximal 600 Watt Leistungsabgabe haben dürfen, dann werden Hersteller schon mehr darauf achten das die Komponenten im Rahmen bleiben. Wer kauft eine 450 Watt GPU wenn für den Rest nur noch langsame Komponenten in Frage kommen?
Vom Prinzip würde ich das schon als Möglichkeit sehen. Klar könnte man dann wieder Netzteil zusammenschalten usw., aber das Signal wäre da.
Ich denke das werden auch zusätzliche Marketingausgaben sein. Was den erhöhten Personalaufwand angeht: Ich denke da weniger an Überstunden sondern an externe Dienstleister. Man wird wohl auch wieder einen Shop mit FE Karten haben.
Nazar
2022-05-27, 01:56:20
Mittlerweile zwei komplette Seiten, vollkommen am Thema vorbei. Respekt, meine Damen und Herren, Respekt. ;)
DSD512
2022-05-30, 18:10:31
Und diesmal die XX90 zuerst ... da will NV mal wieder ordentlich $$$ abschöpfen.
https://www.computerbase.de/2022-05/gpu-geruechte-die-geforce-rtx-4090-kommt-vor-rtx-4080-und-rtx-4070/
r3ptil3
2022-05-30, 18:28:48
Und diesmal die XX90 zuerst ... da will NV mal wieder ordentlich $$$ abschöpfen.
https://www.computerbase.de/2022-05/gpu-geruechte-die-geforce-rtx-4090-kommt-vor-rtx-4080-und-rtx-4070/
Genau deswegen würde ich eher was anderes vermuten.
Gott1337
2022-05-31, 00:36:44
Und diesmal die XX90 zuerst ... da will NV mal wieder ordentlich $$$ abschöpfen.
https://www.computerbase.de/2022-05/gpu-geruechte-die-geforce-rtx-4090-kommt-vor-rtx-4080-und-rtx-4070/
Es ist ein Unternehmen, die immer das Ziel haben maximalen Profit zu machen, genauso wie AMD, die haben die GPU Produktion gesenkt und lieber CPUs hergestellt, weil die deutlich mehr Gewinn abwerfen.
Du arbeitest doch auch nicht für 5€ die Woche...
€dit: desweiteren spricht gegen deine Argumentation, da sich Leute die sowieso eine 4090 holen wollten, dann keine 4080 zur Überbrückung holen. Das gibt es auch oft...
prinz_valium_2
2022-05-31, 18:36:48
Und diesmal die XX90 zuerst ... da will NV mal wieder ordentlich $$$ abschöpfen.
https://www.computerbase.de/2022-05/gpu-geruechte-die-geforce-rtx-4090-kommt-vor-rtx-4080-und-rtx-4070/
Lager sind halt noch voll mit den überteuerten 30X0 resten.
Da kannst du nicht sofort die neuen Karten bringen. Bei der 90er interessiert die Kundschaft Geld nicht, also ist das kein Problem.
Ghost1nTh3GPU
2022-05-31, 18:46:32
Die Lieferketten waren ja in den letzten Wochen auch so gut, dass man da große Menge von 70/80er Karten herstellen und verschiffen konnte...
Da AMD doch mit Navi2x nicht so schlecht dasteht, wie vielleicht noch mit Navi1x, macht es schon Sinn mit einem Flagschiff wie AD102 die >100 TFLOP Ära fulminant einzuleiten.
Danach kommt für die kleinen Karten mit nochmals gehobenem UVP ein vernünftiges Pre-Order-Programm, sodass der Löwenteil bei Nvidia und den Boardpartner hängen bleibt.:D
Sunrise
2022-06-01, 21:50:47
4090 -> 4080 -> 4070
Da wir dieses Mal drei unterschiedliche GPUs bekommen, wundert mich das jetzt weniger.
1) Man will wohl erstmal den Enthusiast-/High-End-Markt abgrasen und lässt sich die teure Fertigung fürstlich bezahlen.
2) Für ausreichende Mengen von AD102 wird weniger Vorlauf benötigt, als bei den anderen beiden, da der Preis viel höher ist (->relativ gesehen natürlich immens geringere Nachfrage)
Meridian12
2022-06-01, 22:19:20
Ist doch logisch,die Leute sollen erstmal bei der 4090 zuschlagen.
Wenn keiner weiß, dass die zB 4080 nur 2/3 der 4090 kostet aber vielleicht nur 10% langsamer ist, würden vielleicht viel weniger die 4090 kaufen.
Slipknot79
2022-06-01, 22:41:13
Wir wissen das aber jetzt schon. :redface:
AwesomeSauce
2022-06-01, 23:55:50
https://abload.de/img/ced26904-a8d7-48d2-blcj1d.jpeg (https://abload.de/image.php?img=ced26904-a8d7-48d2-blcj1d.jpeg)
Bei diesen Specs? Nein, das glaube ich nicht, Tim…
Kriegsgeier
2022-06-02, 06:53:39
PS: Rohleistung von 2x bedeutet keine 100% Plus bei FPS! Eher 50-70% Plus
RTX 4090 Straßenpreis bis ca. Mitte 2023 --> 2500 - 2900 USD
RTX 4080 Straßenpreis bis ca. Mitte 2023 --> 1500 - 2100 USD
RTX 4070 Straßenpreis bis ca. Mitte 2023 --> 1000 - 1300 USD
dildo4u
2022-06-02, 07:23:48
Nicht vergessen 4090 ist nicht der volle Chip gut möglich das die 4090 "nur" für 450 Watt ausgelegt ist und erst die 4090 Ti für 600.
Wenn die 4080 350 Watt nimmt kann sich die 4090 nicht massiv absetzen.
ChaosTM
2022-06-02, 07:49:54
Wir Zeit für eine neue Titan - 48GB - 4k+ :)
Gott1337
2022-06-02, 07:54:24
Wir Zeit für eine neue Titan - 48GB - 4k+ :)
48 GB zum zocken? Da sind wir noch lange von entfernt, gerade wenn Sampler Feedback kommt, wird das den VRAM Verbrauch nochmal zusätzlich stark senken.
Die Content Creator würden sich darüber aber sicherlich freuen, die hatten ja mit der 3090 ein Geschenk bekommen, halber Preis und doppelte Performance
ChaosTM
2022-06-02, 08:07:06
Ja, da verkaufen sie lieber ihre Profi-Karten. Die kosten jetzt schon soviel oder deutlich mehr. Bis zu 18k für die GV100 von PYN.
Die 3090er war für Content Creator ein "Geschenk", das stimmt.
Würde nur gerne wieder einen Titanen sehen. Und vielleicht lässt UE5 solche Textur-Mengen/Größen zu in den nächsten Jahren, um auch 48 gut zu befüllen, wer weiß.
AwesomeSauce
2022-06-02, 09:37:48
PS: Rohleistung von 2x bedeutet keine 100% Plus bei FPS! Eher 50-70% Plus
Strohmann. Bei 50% mehr Rohleistung (innerhalb derselben uArch) wären 10% mehr Perf absolut lächerlich.
Nicht vergessen 4090 ist nicht der volle Chip gut möglich das die 4090 "nur" für 450 Watt ausgelegt ist und erst die 4090 Ti für 600.
Wenn die 4080 350 Watt nimmt kann sich die 4090 nicht massiv absetzen.
Mit einem deutlich breiteren Design (wie es von 3DC ja derzeit spekuliert wird) kann 450W vs 350W einen erheblich grösseren Unterschied machen als wir es bei Ampere gesehen haben.
r3ptil3
2022-06-02, 12:11:34
PS: Rohleistung von 2x bedeutet keine 100% Plus bei FPS! Eher 50-70% Plus
RTX 4090 Straßenpreis bis ca. Mitte 2023 --> 2500 - 2900 USD
RTX 4080 Straßenpreis bis ca. Mitte 2023 --> 1500 - 2100 USD
RTX 4070 Straßenpreis bis ca. Mitte 2023 --> 1000 - 1300 USD
Davon sind wir zum Glück in der Realität weit weg. Es gibt keinen Miningboom mehr und Nvidia hat auch selber eine Umsatzwarnung ausgesprochen. Die Mining-Entwicklung kann man natürlich nur bedingt einschätzen, Ethereum jedoch ist sicherlich nicht der richtige Weg mehr für grosse GPU Investitionen.
RTX 4090: 1799-1899 $
RTX 4080: 899-1199 $
RTX 4070: 649-749 $
UVP versteht sich, Strassenpreise sind nochmals eine ganz andere Sache.
Die Preise sind viel zu hoch mMn.
Das riesige Problem dieser neuen Generation ist, es gibt kein Crysis. Und ob RT so ziehen wird in der jetzigen Situation, ist ein bisschen die Frage, denn das ist auch ein bisschen nerdig und nicht unbedingt relevant für die Masse. Man bedenke außerdem: die ganz große Masse spielt in FHD und WQHD.
Dural
2022-06-02, 15:00:22
Gerade im Mining Bereich sehnt man sich doch nach mehr Leistung pro Watt...
Sobald der Kurs nach oben geht, und Ada beim Minnen abliefert geht das doch alles mal wieder von vorne los.
WedgeAntilles
2022-06-02, 15:19:17
Gerade im Mining Bereich sehnt man sich doch nach mehr Leistung pro Watt...
Sobald der Kurs nach oben geht, und Ada beim Minnen abliefert geht das doch alles mal wieder von vorne los.
So wie Ethereum sich in den letzten Monaten entwickelt hat wird es keinen MiningBoom 3.0 geben.
Falls das aber wieder deutlich nach oben geht sieht es anders aus.
Aber die Unsicherheit hat definitiv zugenommen und wurde vor allem jedem deutlich vor Augen geführt. Das ist abschreckend.
Selbst wenn Ether wiederkommt wird das nicht gehen, zumal die PoS-Transformation ja bevorsteht. Mining mit GPUs ist vorbei.
https://www.igorslab.de/ad102-und-ad104-warum-es-zu-nvidias-neuen-geforce-karten-noch-gar-keine-echten-informationen-geben-kann/
Übrigens hat Igor die Leaker-Zeitpläne mal eben gekillt.
https://www.igorslab.de/ad102-und-ad104-warum-es-zu-nvidias-neuen-geforce-karten-noch-gar-keine-echten-informationen-geben-kann/
Es wird keine Geforce im Juli oder August geben, auch September dürfte sehr knapp werden. Und wenn sich NV dazu entschließen sollte, die 102 und 104 gleichzeitig zu lauchen wirds Ende des Jahres.
WedgeAntilles
2022-06-02, 15:46:16
Übrigens hat Igor die Leaker-Zeitpläne mal eben gekillt.
https://www.igorslab.de/ad102-und-ad104-warum-es-zu-nvidias-neuen-geforce-karten-noch-gar-keine-echten-informationen-geben-kann/
Es wird keine Geforce im Juli oder August geben, auch September dürfte sehr knapp werden. Und wenn sich NV dazu entschließen sollte, die 102 und 104 gleichzeitig zu lauchen wirds Ende des Jahres.
Falls sich das bewahrheitet wird es allmählich wirklich Zeit, diese ganzen Leaker auf den Müll zu werfen.
Der bis vor kurzem prognostizierte Stromverbrauch passt 0 zu dem aktuell prognostizierten.
Der Erscheinungszeitraum, der vor kurzem ja erst als angeblich sicher beschrieben wurde ist nix.
Und so weiter.
Da kann ich ja besser die nächste Generation - also 5xxx "leaken" -
Ich sage September 2024, 5070 mit 300W, 5080 mit 420W und 5090 mit 490W.
Damit werde ich vermutlich besser liegen als den Großteil der Twitterer die in 1,5-2 Jahren anfangen werden, über die 5xxx Generation zu twittern...
DSD512
2022-06-02, 19:17:29
Selbst wenn Ether wiederkommt wird das nicht gehen, zumal die PoS-Transformation ja bevorsteht. Mining mit GPUs ist vorbei.
https://www.igorslab.de/ad102-und-ad104-warum-es-zu-nvidias-neuen-geforce-karten-noch-gar-keine-echten-informationen-geben-kann/
Übrigens hat Igor die Leaker-Zeitpläne mal eben gekillt.
https://www.igorslab.de/ad102-und-ad104-warum-es-zu-nvidias-neuen-geforce-karten-noch-gar-keine-echten-informationen-geben-kann/
Es wird keine Geforce im Juli oder August geben, auch September dürfte sehr knapp werden. Und wenn sich NV dazu entschließen sollte, die 102 und 104 gleichzeitig zu lauchen wirds Ende des Jahres.
Da die Lager noch mit 30XX voll sind, gehe ich davon aus, dass es zum Start ein kleine :rolleyes::biggrin: Menge an 40X0-FE geben wird.
Die sind dann sowieso sofort weg. Kennt man ja. Anschließend ziehen die Preise wieder richtig an.
Und täglich grüßt das Murmeltier.
4090\80\70-Customs kommen wahrscheinlich erst im November\Dezember.
iamthebear
2022-06-02, 19:49:28
Wenn der August Termin für PoS hält dann wird es eine enorme Menge an gebrauchten GPUs im Markt geben und zwar sehr viel mehr als beim Crash 2018 und zwar egal ob Nvidia nun weiter etwas produziert oder nicht.
BlacKi
2022-06-02, 19:56:08
Da die Lager noch mit 30XX voll sind, gehe ich davon aus, dass es zum Start ein kleine :rolleyes::biggrin: Menge an 40X0-FE geben wird.
Die sind dann sowieso sofort weg. Kennt man ja. Anschließend ziehen die Preise wieder richtig an.
Und täglich grüßt das Murmeltier.
4090\80\70-Customs kommen wahrscheinlich erst im November\Dezember.
die 3000er serie wird weiterproduziert werden, vl nicht alle modelle, aber genauso wie die rtx 2060 heute noch produziert wird. das ist also kein indikator für verfügbarkeiten.
wenn sie die 4000er serie produzieren können, dann werden sie das auch tun. da wirds keine absichtliche zurückhaltung geben, das ist sicher.
iamthebear
2022-06-02, 20:06:38
Laut MLID war der Plan die Ampere Produktion bereits im Mai 2022 zu stoppen. Keine Ahnung ob das passiert ist. Man muss dabei aber bedenken dass von der Produktion der Chips bis zum Verkauf im Handel es ja eine gewisse Vorlaufzeit gibt.
Und nein alte Serien werden üblicherweise bei Nvidia nicht weiter produziert oder nur bestimmte Modelle. Die 2060 wurde ja extra wieder neu aufgelegt mit 12GB.
BlacKi
2022-06-02, 20:52:19
ich bin mir sicher das die 3090ti eingestellt wird, welche modelle weiter produziert werden ist ungewiss. das sie alle karten sofort in der produktion einstellen ist unfug. die 3050 und andere günstigere karten werden locker noch bis nächstes jahr produziert. kein wunder, die preise sind noch nichtmal bei der uvp angekommen. so kann nv gleichzeitig mit 2 fertigungslinien geld einfahren.
und mining ist doch dank LHR aushebelung doch immernoch, bzw. wieder attraktiv. break even liegt bei 41cents die kw, bei einer ausgehebelten 3060.
selbst ohne eth, es gibt auch andere rentable coins.
Rampage 2
2022-06-02, 21:02:43
ich bin mir sicher das die 3090ti eingestellt wird, [...]
Warum sollte sie das?
R2
BlacKi
2022-06-02, 21:26:15
zu unattraktiv nach dem erscheinen der ersten neuen karten. vermutlich wird auch die normale 3090 verschwinden. 3080 bin ich mir nicht sicher, die ist hart gesalvaged. die karten darunter werden zum großen teil weiter verkauft werden.
r3ptil3
2022-06-02, 22:20:18
Jop, die RTX 3090 Ti wird bestimmt als aller erstes verschwinden.
Die 3070er und darunter, werden wohl noch eine Weile verfügbar sein. Vielleicht sehen wir noch, dass die 3070 für unter 400 Euro neu angeboten wird.
Alle GA102 dürften sehr schnell eingestellt werden.
Rampage 2
2022-06-03, 19:01:38
zu unattraktiv nach dem erscheinen der ersten neuen karten. vermutlich wird auch die normale 3090 verschwinden.
Mag ja sein, dass deine Schlussfolgerung logisch ist, aber warum sollte Nvidia so kurz vor Lovelace noch ein Modell in den Markt werfen, nur um es dann nach nichtmal einem halben Jahr später wieder abrupt einzustellen? :|
Die 3090 Ti sollte doch schon "etwas" mehr als nur eine Testumgebung für die Stromsäufer der kommenden Generation (Lovelace) sein, oder etwa nicht?
R2
BlacKi
2022-06-03, 20:26:30
naja, die 3090ti kam zu spät. wir erinnern uns an die planung im januar? dann wäre der august nicht abwegig als ablösung. wir erinnern uns an die starwars editionen der pascal titan, halbes jahr vor der next gen? nichts abnormales, alles standard. und wie gesagt. selbst die 4080 wird die 3090ti abziehen, und die würde ich sub 1k€ einordnen, auch mit 450w^^ wer soll da die 3090ti kaufen? wegen 24gb statt 16gb? die 4090 ist vermutlich auch schon etwas hart gesalvaged den gerüchten zufolge. ich würde sie unter 2k€ einordnen. 4090 ti dann für 2,5-3k€. imho.
iamthebear
2022-06-03, 20:31:35
ich bin mir sicher das die 3090ti eingestellt wird, welche modelle weiter produziert werden ist ungewiss. das sie alle karten sofort in der produktion einstellen ist unfug. die 3050 und andere günstigere karten werden locker noch bis nächstes jahr produziert. kein wunder, die preise sind noch nichtmal bei der uvp angekommen. so kann nv gleichzeitig mit 2 fertigungslinien geld einfahren.
Wenn Nvidia die Produktion von Ampere einstellt bedeutet das noch lange nicht, dass keine Karten mehr verkauft werden. Das Ganze hat eine lange Vorlaufzeit und Nvidia hat sicher auch noch genug Dies gehortet. Selbst zu Spitzenzeiten April 2021 denke ich, dass mehr VRAM und sonstige elektrische Komponenten der limitierende Faktor waren und weniger die Dies selbst.
und mining ist doch dank LHR aushebelung doch immernoch, bzw. wieder attraktiv. break even liegt bei 41cents die kw, bei einer ausgehebelten 3060.
LHR hat noch nie eine Rolle gespielt. Das war für große Miningfarmen noch nie ein ernsthaften Hindernis. Es ging dabei rein darum, dass die Gamer nicht minen und den Minern den Ertrag wegnehmen.
Das sieht man gut an der global Hashrate. Diese ist mit dem Aufheben der Miningbremse nicht nennenswert gestiegen trotz Unmengen an LHR Karten im Handel.
Und Mining endet voraussichtlich im August.
selbst ohne eth, es gibt auch andere rentable coins.
Der Ertrag ist immer an die Global Hashrate gebunden. Sobald mehr Miner in eine kleine Währung einsteigen steigt die Global Hashrate und diese wird sofort unprofitabel.
Warum sollte sie das?
R2
Weil niemand eine 2K 3090 Ti mit 450W kauft wenn eine 4070 um 500 Euro und 200W dieselbe Performance bietet.
Das 3090 Ti Clientel kauft dann die 4090.
Mag ja sein, dass deine Schlussfolgerung logisch ist, aber warum sollte Nvidia so kurz vor Lovelace noch ein Modell in den Markt werfen, nur um es dann nach nichtmal einem halben Jahr später wieder abrupt einzustellen? :|
Die 3090 Ti hatte 2 Aufgaben zu erfüllen:
a) Sicherstellen, dass AMDs 6950 XT nicht an Nvidia vorbei zieht. Das ist eine reine Imagesache.
b) Die Karte war ein Testprojekt, damit sich die AIBs schon etwas an Lovelace gewöhnen können. Hier ging es weniger um die Kühlung sondern um die Stromversorgung bzw. Boostlogik. Hier hat Nvidia einiges geändert sodass die 3090 Ti zwar im Durchschnitt mehr verbraucht, die Lastspitzen jedoch nicht höher werden.
Beide Aufgaben hat die Karte erfüllt.
OgrEGT
2022-06-03, 20:41:28
Die 3090 Ti sollte doch schon "etwas" mehr als nur eine Testumgebung für die Stromsäufer der kommenden Generation (Lovelace) sein, oder etwa nicht?
R2
Die relativ geringe Mehrleistung bei relativ hohem Mehrverbrauch kann es nicht sein. Hat die schlechteste perf/W von allen GA102.
4K
3090 rog strix oc (92,5%)
3090ti (97,3%) (+5%)
3090 rog strix oc (392W)
3090ti (473W) (+18%)
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt
Wenn die Prognosen stimmen und die 4070 mit 300W 1,6-2,0 mal so schnell wie eine 3070 sein soll und somit vor 3090, wozu dann noch die 3090ti?
https://www.3dcenter.org/news/news-des-18-mai-2022
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3080-12gb-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
Thunder99
2022-06-03, 20:51:25
The TGP of RTX 4090 is still a mystery. PG139-SKU330 still has the opportunity to achieve 600W.
Possible RTX 4080, PG139-SKU360 has the opportunity of 450W TGP.
If RTX 4070 uses GDDR6X instead, it has opportunity to reach 400W TGP.
Quelle: Kopite7kimi @ Twitter am 2. Juni 2022
Jetzt wird schon wieder vermutet, die 4070 könnte an die 400W gehen :freak:, no Way da es ein Armutszeugnis wäre so schnell wie eine 3090(Ti) zu sein und kaum weniger zu verbrauchen ;D
Selbst 300-350W sind zu viel, es muss darunter sein um nicht lächerlich zu sein.
OgrEGT
2022-06-03, 20:56:01
Also ich fände 300W schon OK für +3090 Leistung.
iamthebear
2022-06-03, 21:37:39
Ein AD104 Die wird nie 400W verbrauchen und einen AD103 Die wird Nvidia nie um 500-600$ verkaufen.
Mehr als 300W für eine 4070 kann ich mir also nur vorstellen wenn Nvidia sich wie bei Turing dazu entscheidet das Lineup um eine Stufe nach oben zu schieben d.h. 4070 ist ein AD103 um 700-800$ und 4080 ist ein AD102 um 1200-1500$.
ChaosTM
2022-06-03, 21:52:38
Ich denke auch, dass AD104 300W nicht überschreiten wird und eher drunter bleiben wird.
Man (Jensen) hat glaub ich die Zeichen der Zeit erkannt und verkneift sich solche Blödheiten im unteren "Highend" Bereich und vielleicht auch allgemein.
Generell wird der Verbrauch der neuen NV Karten massiv überschätzt.
Die 3090ti war imho kein Versuchsballon, sondern eher die Ausreizung des derzeit machbaren.
Die Verzögerungen der neuen Generation könnten ein Hinweis darauf sein , neben den "vollen" Lagern an Altkarten, mal abzuwarten was AMD vorher bringt und nicht mit Brute Force vorzulegen.
Das hoffe ich zumindest :)
Thunder99
2022-06-03, 22:09:33
Dennoch ist nicht unmöglich, siehe 3070 220W -> 3070Ti 300W sowie 3090 350W -> 3090Ti 450W
GDDR6X hat so seinen Anteil mit dem versoffenen Speicherinterface...
Gott1337
2022-06-04, 03:04:10
Also ich fände 300W schon OK für +3090 Leistung.
die 3090ti verliert bei 300 watt gerade mal 12% Leistung (hat Igor getestet). Wäre also sehr einfach zu realisieren. Würde eher davon ausgehen das man mit 300 Watt +40% Leistung erhalten wird (Sweetspot)
ChaosTM
2022-06-04, 03:08:32
Darauf hoffe ich auch.. sogar mit etwas mehr
OgrEGT
2022-06-04, 08:07:53
Die 4070 bei +40% ggü. 3090 wäre das obere Ende der 3DC Prognose... Das Ganze bei 300W wäre schon ziemlich gut...
robbitop
2022-06-04, 09:02:29
f~P^3. Man kann jede SKU in beliebig ineffiziente Betriebspunkte prügeln.
vinacis_vivids
2022-06-04, 09:51:19
Ampere ist auch so ineffizient wegen dem Stromhungrigen SI, den vielen Stromleitungen und der veralteten (billigen) 8nm-Fertigung. Wird mit 5nm bei TSMC sicherlich besser, aber NV ist eh gerade auf dem Brute-Force Pfad um überhaupt noch Vorsprung zu haben vor AMD. Erinnert schon an die verzweifelten Versuche bei Intel um an der Spitze zu bleiben.
Brute-Force ist an sich ja nicht schlecht, wie die 6 Jahre alte Vega uArch von AMD gezeigt hat :biggrin:
Bei der Hopper uArch sieht alles nach Single-Chip Brute-Force aus gegen AMD MCD bzw. mGPU Ansatz. Hopper muss hier liefern, und zwar bis zur Kotzgrenze während RDNA3 moderat/effizient getaktet werden kann.
Die 600W Leistungsaufnahme bei NV klingen schon sehr nach Verzweiflung.
=Floi=
2022-06-04, 10:22:12
hör mit deiner laberei auf. Auch interessiert keinen die 8nm fertigung, wenn der sweet spot nicht eingehalten wird. Die karten könnten viel sparsamer sein, wenn man es wollte!
BlacKi
2022-06-04, 10:57:58
die 3090ti verliert bei 300 watt gerade mal 12% Leistung (hat Igor getestet). Wäre also sehr einfach zu realisieren. Würde eher davon ausgehen das man mit 300 Watt +40% Leistung erhalten wird (Sweetspot)dennoch säuft gddr6x. eine 3060 verbraucht bei den taktraten nur 1/3 hat aber immernoch 1/2 die leistung.
kurz gesagt, im sweetspot könnte eine 3090ti mit gddr6 mit knapp 200w auskommen.
OgrEGT
2022-06-04, 11:39:27
Ampere ist auch so ineffizient wegen dem Stromhungrigen SI, den vielen Stromleitungen und der veralteten (billigen) 8nm-Fertigung. Wird mit 5nm bei TSMC sicherlich besser, aber NV ist eh gerade auf dem Brute-Force Pfad um überhaupt noch Vorsprung zu haben vor AMD. Erinnert schon an die verzweifelten Versuche bei Intel um an der Spitze zu bleiben.
Brute-Force ist an sich ja nicht schlecht, wie die 6 Jahre alte Vega uArch von AMD gezeigt hat :biggrin:
Bei der Hopper uArch sieht alles nach Single-Chip Brute-Force aus gegen AMD MCD bzw. mGPU Ansatz. Hopper muss hier liefern, und zwar bis zur Kotzgrenze während RDNA3 moderat/effizient getaktet werden kann.
Die 600W Leistungsaufnahme bei NV klingen schon sehr nach Verzweiflung.
Wenn auch für RDNA3 die Prognosen stimmen, dann hören sich bis zu 3Ghz auch nicht nach moderat getaktet an, sondern eher nach Obergrenze und nicht Sweetspot mit noch Luft nach oben. Wieviel Leistungsaufnahme N31 bei 3GHz haben wird steht auch noch in den Sternen...
Ob NV an die 600W Leistungsaufnahme gehen wird, welche der Stromanschluss theoretisch zulässt oder ob das nur den KingPin Versionen vorbehalten sein wird wissen wir auch nicht.
Lehdro
2022-06-04, 11:53:11
Also ich fände 300W schon OK für +3090 Leistung.
Also fast null Effizienzfortschritt? Wow, mit was man sich heute schon zufrieden gibt...
Wenn auch für RDNA3 die Prognosen stimmen, dann hören sich bis zu 3Ghz auch nicht nach moderat getaktet an, sondern eher nach Obergrenze und nicht Sweetspot mit noch Luft nach oben. Wieviel Leistungsaufnahme N31 bei 3GHz haben wird steht auch noch in den Sternen...
Dasselbe hat man für Navi2x auch behauptet - dabei gibt es eben doch trotz deutlich >2 GHz sehr effiziente Karten. Hätte man vorher auch nicht gedacht.
Ansonsten auf CPUs schauen, deren "Sweetspotzone in MHz" geht auch stetig nach oben.
OgrEGT
2022-06-04, 12:05:11
Also fast null Effizienzfortschritt? Wow, mit was man sich heute schon zufrieden gibt...
Die 300W stehen ja im Raum für 3090 +x Leistung... je nach dem wie groß das +x ist... Weiter vorne wurde gesagt, dass alles was nicht unter 300W bei diesen Leistungsregionen ist sogar lächerlich wäre...
Dasselbe hat man für Navi2x auch behauptet - dabei gibt es eben doch trotz deutlich >2 GHz sehr effiziente Karten. Hätte man vorher auch nicht gedacht.
Ansonsten auf CPUs schauen, deren "Sweetspotzone in MHz" geht auch stetig nach oben.
Wollte damit die Übertreibung dass 3GHz bei RDNA 3 moderat(!) und effizient getaktet ist relativieren, da das bei einem so breiten Chip nicht selbstverständlich und momentan auch noch überhaupt nicht bekannt ist.
basix
2022-06-04, 13:08:32
~200W mit 3090 Performance. Das ist das, was ich erwarte. Alles drüber kann man sich nun selbst herleiten ;) Mit effizientem Betriebspunkt (händisch) kann man das wohl auf ~150W drücken. Oder nach oben skaliert ~2x 3090 bei 300W.
Rampage 2
2022-06-05, 03:11:12
Wenn die Prognosen stimmen und die 4070 mit 300W 1,6-2,0 mal so schnell wie eine 3070 sein soll und somit vor 3090, wozu dann noch die 3090ti?
Eine 4070 wird im besten Fall (Full-Chip/60SM, durchschnittlich 25% höhere SM-Effizienz bzw. Leistung) nur 5-10% schneller als eine 3090 Ti sein und im schlimmsten Fall (Salvage/56SM, nur 15% höhere SM-Effizienz) nur 90-95% der Leistung Letzterer erreichen.
Also mehr oder weniger Gleichstand - aber mit nur halb so viel (12GB) Grafikspeicher wie Letztere;)
Insofern ist die 3080 Ti der eigentliche Konkurrent bzw. die 3080 Ti gerät in Gefahr, sobald die 4070 rauskommt.
Was den Stromverbrauch angeht: Ich glaube auch, dass sich der Verbrauch bei 250-300W einpendeln wird - mehr braucht ein AD104-Chip bei einem Zieltakt von 2.5 GHz nicht:)
R2
robbitop
2022-06-05, 06:16:47
Ich erwarte, dass Lovelace pro SM deutlich schneller wird. Ampere lastet die SMs nicht immer so gut aus. Mehr Kontrolllogik (dual issue sheduler ports), ggf mehr Register. Wenn wirklich noch zusätzliche INT resources kommen, kommt pro SM sicher in Summe schon signifikant was drauf. Dazu hört man ja auch von höheren Taktraten. Meine Erweiterung aus diesen beiden Gründen wäre, dass pro SM Ada einen Ampere mit Haut und Haaren verspeist.
rentex
2022-06-05, 07:51:48
Fragt sich nur, warum NV mit Ada, erst jetzt zustande bringt, die Auslastung zu optmieren?
robbitop
2022-06-05, 08:07:26
Das kostet eben Transistoren und war bei Ampere nicht (im Transistor budget) drin. Man hat die INT ALU von Volta/Turing FP fähig gemacht. Das hat die theoretische FP Leistung verdoppelt und war billig. Das war seiner Zeit eine sehr transistoreffiziente Maßnahme. Jetzt hat man von 8 nm auf 4 nm zwei Fullnodesprünge und ein viel größeres Transistorbudget. Jetzt kann man die SMs halt schneller machen.
vinacis_vivids
2022-06-05, 10:32:47
Wird immer kranker bei NV:
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Geruecht-neue-Titan-Klasse-mit-48-GiB-und-900-Watt-schneller-als-4090-Ti-1396475/
900 Watt bei 2x16 Pin Anschlüsse stehen jetzt zur Debatte.
Ghost1nTh3GPU
2022-06-05, 10:41:26
Solange bei AMD keine Gerüchte über eine Kilo-Watt-Karte mit externem Kompressor erscheinen, sieht das wohl für Navi3x und das Chiplet-Design sehr gut aus, wenn Nvidia intern sich mit solchen Designs "absichert". ;)
OgrEGT
2022-06-05, 10:48:16
Wird immer kranker bei NV:
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Geruecht-neue-Titan-Klasse-mit-48-GiB-und-900-Watt-schneller-als-4090-Ti-1396475/
900 Watt bei 2x16 Pin Anschlüsse stehen jetzt zur Debatte.
Ich glaube nicht dass man von den Anschlüssen auf Testboards auf kommerzielle Produkte (und das wäre eine Titan auch) schließen kann.
Selbst wenn so eine Karte mit einer theoretisch möglichen 900W Leistungsaufnahme kommen würde, dann aber nur mit speziellem BIOS für LN2 OC...
vinacis_vivids
2022-06-05, 11:18:48
Anschlüsse dienen wohl als Attrappe?
DrFreaK666
2022-06-05, 11:46:19
War das hier schon Thema??
"NVIDIA RTX xx60 series now requiring more than 220W?"
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Sunrise
2022-06-05, 11:50:41
~200W mit 3090 Performance. Das ist das, was ich erwarte. Alles drüber kann man sich nun selbst herleiten ;) Mit effizientem Betriebspunkt (händisch) kann man das wohl auf ~150W drücken. Oder nach oben skaliert ~2x 3090 bei 300W.
Ich hab mich gerade fast verschluckt…denn nur weil du die 150W verdoppelst, hast du noch lange nicht 2x 3090 bei 300W, so funktioniert die Rechnung leider nicht.
Wenn du nochmal 100W hinzurechnest, können wir darüber reden.
vinacis_vivids
2022-06-05, 12:17:12
War das hier schon Thema??
"NVIDIA RTX xx60 series now requiring more than 220W?"
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
220W bei der 4060 und ähnliche Leistung wie RX6800 bei 220W. Damit liegt NV mehrere Generationen zurück bei der Effizient trotz zwei Nodes besserer Fertigung.
WedgeAntilles
2022-06-05, 12:35:07
Wird immer kranker bei NV:
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Geruecht-neue-Titan-Klasse-mit-48-GiB-und-900-Watt-schneller-als-4090-Ti-1396475/
900 Watt bei 2x16 Pin Anschlüsse stehen jetzt zur Debatte.
Aha. Weil ein LEAKER einen Müll schreibt - den er sogar selber relativiert - wird es also bei NV immer kranker ;D
LEAK von Wedge: RDNA3 mit +30% Performanceplus, dafür aber +400% Verbrauch.
Eine 7800 wird gerüchteweise 3090TI + 10% erreichen, dafür aber atemberaubende 1000W benötigen.
So, ist jetzt AMD immer kranker nur weil ich so einen Dreck geleakt habe?
Du WÜNSCHT dir, dass Nvidia plötzlich irre schlecht wird, das hat aber 0 mit der Wirklichkeit zu tun.
Und falls der "LEAKER" auf irgendwelche Profi-Lösungen schielt - ja, Hopper gibt es in diesem Verbrauchssegment. Ist aber etwas komplett anderes.
Cyberfries
2022-06-05, 12:39:54
220w oder mehr für eine 4060? Für die derzeit kleinste diskutierte Lösung mit gerüchtehalber 34sm?
Das ist... krass.
34sm @ 3ghz bei 220w ergibt etwa 8,4w pro TFlop. Die gute Nachricht: Im Vergleich zur 3060 mit 13w pro TFlop klar besser.
Die schlechte: Ins Verhältnis gesetzt sind das für die größeren 4070,4080 und 4090 mindestens 350w,450w und 660w.
Und dann spricht kopite7kimi auch noch ausdrücklich nicht nur von gleicher Leistungsaufnahme, sondern gar einer höheren.
Plötzlich klingen 800w für die Spitzenlösung auf AD102 gar nicht mehr so abwegig.
Ich hoffe wirklich darauf, dass sich diese Gerüchte als unwahr herausstellen.
basix
2022-06-05, 12:40:12
Ich hab mich gerade fast verschluckt…denn nur weil du die 150W verdoppelst, hast du noch lange nicht 2x 3090 bei 300W, so funktioniert die Rechnung leider nicht.
Wenn du nochmal 100W hinzurechnest, können wir darüber reden.
Meine 2080 Ti bringe ich bei ~180W auf ~100% Performance einer Referenzkarte. Das sind 2/3 der Default Leistungsaufnahme. Jetzt nehme ich eine 4090, welche je nach Gerücht "easy >2x" Performance erreicht. Easy heisst für mich: 450W (oh mein Gott, wieso nur...). Jetzt das selbe Spiel wie bei der 2080 Ti, voilà, 300W mit 2x 3090 Performance. Und wie gesagt: Händisch optimiert und nicht Default. Ist das nun so weit weg von realistisch? 600W oder gar 800W TDP bei 2x 3090 Performance sind da mMn deutlich unrealistischer, zumindest bei Referenzkarten. Partnerkarten gehen eh immer drüber.
Und um da noch ein bisschen Kontext zu geben: Mit 2x 3090 Performance bei Default 450W wäre man gerade mal 1.5x effizienter unterwegs als die 3090. Und Ampere galt nicht gerade als Leuchtturmbeispiel hinsichtlich Effizienz. Das noch zusammen mit Samsung 8nm vs. TSMC N5, neuer Architektur usw...
Keine Ahnung, wieso jetzt alle 3090 Performance mit 300W erwarten und das schon fast gut finden. Mindestens 1.5x Effizienzsteigerung muss man erwarten (Default vs. Default). Sonst wäre TSMC N5, die Lovelace Architektur und der Betriebspunkt der Karten ziemlich schlecht geraten. Selbst wenn der Betriebspunkt so schlecht wie bei GA102 Karten gewählt wird und GDDR6X immer noch so säuft, müssten mMn 1.5x Effizienzsteigerung drin liegen. Alles andere wäre für mich eine Entäuschung.
Ghost1nTh3GPU
2022-06-05, 12:51:13
Schlussendlich geht es halt auch darum, dass die Infrastruktur für 1kW Grafikkarten geschaffen wird: Kühlung, Stromversorgung,... .
Mit dem MCM-Konzepten stehen da interessante Lösungen vor der Tür, die dann wohl doch recht einfach das Silizium im PCI-E skalieren lassen können.
Da ist so ein Turbo-Charged-AD102 halt eine Übergangslösung(/Testballon.
In den SLI/CF-Hochzeiten vor bald einem Jahrzehnt, konnte man dem Enthusiasten auch schon mal >1kW an Grafikleistung für weit über Tausend USD/€ verkaufen. Nachdem jetzt mit dem Crypto-Boom und dem gleichzeitigen Gaming-Boom durch Corona, die Zahlungsbereitschaft bei fast 3000 USD/€ für eine Einzelkarte liegt, ist da halt reichlich Potential.
nordic_pegasus
2022-06-05, 13:06:23
Nachdem jetzt mit dem Crypto-Boom und dem gleichzeitigen Gaming-Boom durch Corona, die Zahlungsbereitschaft bei fast 3000 USD/€ für eine Einzelkarte liegt, ist da halt reichlich Potential.
Crypto-Boom ist erstmal vorbei, Lockdown ist vorbei, Inflation ist da und Gefahr von Rezession steht vor der Tür. Man kann derzeit problemlos Grafikkarten aller Preissegmente zur UVP ab Lager kaufen. Der Nachfrage-Boom scheint als gebrochen.
Für mich ist die Frage, ob Nvidia / AMD die mutmaßlichen Preis/Leistungs/Verbrauchs-Monster wirklich so absetzen werden können wie geplant. Ich habe eine gewisse Hoffnung, dass sich der Markt wieder etwas nach unten regulieren wird.
Ich persönlich bin nicht bereit in die Infrastruktur für 600W+ Karten zu investieren. Das fängt ja bei der Gehäuse-Lüftung an, geht über das NT bis hin zu einer Klimaanlage, wenn man in einem Zimmer samt dem PC sich aufhalten will.
Würde die Verknappung bei der PS5 endlich vorbei sein, sähe es für High-End PCs nochmal schlechter aus.
BlacKi
2022-06-05, 13:07:42
ziemlich viel neues. u.a. titan 600w als prosumer, und 450w für die geforce modelle.
Lenh_2kZ3lo
Ghost1nTh3GPU
2022-06-05, 13:27:07
Crypto-Boom ist erstmal vorbei, Lockdown ist vorbei, Inflation ist da und Gefahr von Rezession steht vor der Tür. Man kann derzeit problemlos Grafikkarten aller Preissegmente zur UVP ab Lager kaufen. Der Nachfrage-Boom scheint als gebrochen.
Für mich ist die Frage, ob Nvidia / AMD die mutmaßlichen Preis/Leistungs/Verbrauchs-Monster wirklich so absetzen werden können wie geplant. Ich habe eine gewisse Hoffnung, dass sich der Markt wieder etwas nach unten regulieren wird.
Ich persönlich bin nicht bereit in die Infrastruktur für 600W+ Karten zu investieren. Das fängt ja bei der Gehäuse-Lüftung an, geht über das NT bis hin zu einer Klimaanlage, wenn man in einem Zimmer samt dem PC sich aufhalten will.
Würde die Verknappung bei der PS5 endlich vorbei sein, sähe es für High-End PCs nochmal schlechter aus.
Cloud-Gaming sollte man auch nicht vergessen, da verschwindet so eine 900W Karte im gut gekühlten Rack und verbesserte die Performance pro Rack-Space halt deutlich.
Der stationäre Gaming-Markt hat trotz aller Rezensionsgefahren trotzdem eine gute Prognose. In schweren Zeiten muss man sich halt trotzdem beschäftigen. Und da ist so eine blinkende RGB-Grafikkarte, die dann ihren Prestige-Gewinn in der eigenen Peer-Group bringt, halt ein Ausgleich wenn man keine Immobilien, Sport-KFZ oder sonstige teurere Konsumausgaben mehr tätigen kann.
Für Asien und Afrika/Naher Osten gibt es ja enorme Zuwachsraten-Prognosen, wo die neuen Mittelschichten halt am PC spielen wollen. Und dort ist auf Grund von Geographie oder allgemeinen Energiepolitik Stromverbrauch egal und die Klima-Anlage Standard.
basix
2022-06-05, 13:39:46
ziemlich viel neues. u.a. titan 600w als prosumer, und 450w für die geforce modelle.
https://youtu.be/Lenh_2kZ3lo
Schon eher plausibel. 450W für die "normale" Karte (immer noch wahnsinnig viel) und 600W um einfach möglichst das Maximum aus dem Chip zu holen (Kampf um die Leistungskrone vs. N31).
450W sind immer noch viel (mMn zu viel) aber bei 2x+ Performance ist wenigstens ein signifikanter Gewinn der Energieffizienz vorhanden. Dann hoffe ich mal auf 2.5x Performance :D
BlacKi
2022-06-05, 13:53:57
ob man dann wieder zum schema wie bei turing zurückkehrt? also titan->4080ti->4080->... und xx90 weglässt?
ob die 3080ti dann wieder 12gb bekommt? oder bekommt die titan 48gb? XD
robbitop
2022-06-05, 14:07:08
Also die 3080 gibt es noch nicht zur UVP. Und dazu ist Ampere bald end of life. Normalerweise werden GPUs weit unter uvp zum Ende einer Generation verramscht. Jetzt jubeln alle dass eine 3080 nur 120€ über der ursprünglichen UVP liegt.
nordic_pegasus
2022-06-05, 14:09:06
ob man dann wieder zum schema wie bei turing zurückkehrt? also titan->4080ti->4080->... und xx90 weglässt?
ob die 3080ti dann wieder 12gb bekommt? oder bekommt die titan 48gb? XD
Nvidia wird sich den Umsatz der xx90 Klasse nicht mehr entgehen lassen.
Ich wette, dass es am Anfang die 4090 geben wird (AD102 salvage), dann kommt (noch vor Weihnachten) die "Titan A" (AD102 Vollausbau oder nur sehr knapp beschnitten). Vielleicht noch eine 4090Ti dazwischen irgendwann.
Dovregubben
2022-06-05, 14:26:40
220W bei der 4060 und ähnliche Leistung wie RX6800 bei 220W. Damit liegt NV mehrere Generationen zurück bei der Effizient trotz zwei Nodes besserer Fertigung.
https://i.imgflip.com/6inibt.gif
BlacKi
2022-06-05, 14:51:01
Nvidia wird sich den Umsatz der xx90 Klasse nicht mehr entgehen lassen.
Ich wette, dass es am Anfang die 4090 geben wird (AD102 salvage), dann kommt (noch vor Weihnachten) die "Titan A" (AD102 Vollausbau oder nur sehr knapp beschnitten). Vielleicht noch eine 4090Ti dazwischen irgendwann.ich hatte genau den gegenteiligen eindruck, also das die 3090, das topmodell zu günstig war, wenn man die 3090 als titan modell ansieht, weil es keine titan gab.
ein titan modell wieder einzuführen, würde also nv eher mehr margen abgreifen könnte. und eine 4080ti könnte man immernoch recht stark gesalvaged mit 450w limit für 1200-1500€ verkaufen.
basix
2022-06-05, 14:58:37
Die 3090 hat sich in Stückzahlen aber viel häufiger verkauft als die RTX Titan und wohl auch nicht wirklich schlechter als die 2080 Ti. Nvidia hat hier sicher gut genug oder mehr verdient als mit den Vorgängern, auch ohne Titan.
Aber wie du sagst: 4090 / 4080 Ti für 1500$ und die Titan für 2.5k. Damit hat man die Stückzahlen der 3090 aber gleichzeitig noch etwas darüber für Leute, denen Geld egal ist. 126SM vs. 140SM sowie 450W vs. 600W würden reichen, um die Karte ordentlich genug abzusetzen (~20%), damit es nicht völlig sinnlos ist. Und man lässt zwischendrin Platz für eine 4090 Ti @ 450-500W.
Andererseits: 1500$ für eine GPU sind immer noch wahnsinnig viel Geld. Ich würde mir ja erhoffen, dass es eher auf 1000$ runtergeht und die Titan für 1700$ oder so. Die Hoffnung stirbt zuletzt ;)
OgrEGT
2022-06-05, 16:01:12
Anschlüsse dienen wohl als Attrappe?
Nein :freak: aber ob die kommerzielle Version die Anschlüsse des Testboards hat ist nicht sicher... und selbst wenn ist nicht gesagt dass auf der Karte ein BIOS ist, welches ootb volle Lotte 900W zulässt.
iamthebear
2022-06-05, 23:18:05
Dennoch ist nicht unmöglich, siehe 3070 220W -> 3070Ti 300W sowie 3090 350W -> 3090Ti 450W
GDDR6X hat so seinen Anteil mit dem versoffenen Speicherinterface...
Bei der 3070 Ti ist die hohe TDP nur aus dem Zwang heraus entstanden, dass man die 100$ mehr UVP irgendwie rechtfertigen musste bzw. wollte man den GDDR6 deswegen gegen GDDR6X ersetzen, da dieser zu der Zeit gerade billiger war.
f~P^3. Man kann jede SKU in beliebig ineffiziente Betriebspunkte prügeln.
Theoretisch ja. Ob es sinnvoll ist, das ist wieder eine andere Sache. Spätestens wenn die zusätzlichen Kosten für VRMs und Kühler mehr ausmachen als gleich den nächstgrößeren Die zu nehmen ist es ziemlich sinnlos.
Nvidia hat 10 Mrd. für Wafer angezahlt. Da wird die Verfügbarkeit auch nicht das Problem sein.
Und dass die Energiekosten eher steigen statt fallen das dürfte auch Jensen schon mitbekommen haben.
Fragt sich nur, warum NV mit Ada, erst jetzt zustande bringt, die Auslastung zu optmieren?
Das ist immer eine Frage wie man Auslastung definiert.
Die Scheduler sind bei Ampere voll ausgelastet, die FP Einheiten nicht.
Bei Ada sind dann die FP Einheiten voll ausgelastet, die Scheduler aber nicht.
Was zählt ist eigentlich die Performance pro Transistor und da dürften bisher alle Lösungsansätze von Pascal bis Ada ziemlich gleichwertig sein.
Wird immer kranker bei NV:
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Geruecht-neue-Titan-Klasse-mit-48-GiB-und-900-Watt-schneller-als-4090-Ti-1396475/
900 Watt bei 2x16 Pin Anschlüsse stehen jetzt zur Debatte.
Solange es nur eine fette Karte ganz oben wegen dem Ego ist muss das nicht unbedingt viel für das restliche Lineup bedeuten.
Solange bei AMD keine Gerüchte über eine Kilo-Watt-Karte mit externem Kompressor erscheinen, sieht das wohl für Navi3x und das Chiplet-Design sehr gut aus, wenn Nvidia intern sich mit solchen Designs "absichert". ;)
Ein richtiges MCM Design wird Navi31 nicht werden. Nach aktuellen Stand sind nur Cache und SI oben drauf gestacked. Der Kern an sich ist aber monolithisch.
Es scheint jedoch so, dass RDNA 3 vom Design her deutlich energieeffizienter sein wird als RDNA 2.
Ich glaube nicht dass man von den Anschlüssen auf Testboards auf kommerzielle Produkte (und das wäre eine Titan auch) schließen kann.
Selbst wenn so eine Karte mit einer theoretisch möglichen 900W Leistungsaufnahme kommen würde, dann aber nur mit speziellem BIOS für LN2 OC...
Laut kopite sieht es derzeit so aus als könnte tatsächlich eine 800W+ Titan kommen.
War das hier schon Thema??
"NVIDIA RTX xx60 series now requiring more than 220W?"
https://videocardz.com/newz/nvidia-geforce-rtx-4060-reportedly-consumes-more-power-than-rtx-3070-220w
Ich habe mir heute auch schon den Kopf darüber zerbrochen.
Meine Vermutung:
Die 4060 wird ein abgespeckter AD104 Die und sowohl preislich als auch performancetechnisch der Nachfolger der 3060 Ti.
Wenn man sich die letzten Generationen ansieht gab es immer einen odere mehrere Dies der für 2 Modelle verwendet wurde:
3000: 102 für 3080/90
2000: 106 für 2060/70
1000: 104 für 1070/80
900: 204 für 970/80, 206 für 950/60
Cloud-Gaming sollte man auch nicht vergessen, da verschwindet so eine 900W Karte im gut gekühlten Rack und verbesserte die Performance pro Rack-Space halt deutlich.
Also ich glaube gerade bei Cloud Gaming wo die Karten 24/7 laufen und Kühlung richtig Geld kostet wird man versuchen den Verbrauch zu optimieren. Abgesehen davon stehen die Rechenzentren hier in der Nähe der Kunden, nicht in einem Bunker in Kasachstan.
Für Asien und Afrika/Naher Osten gibt es ja enorme Zuwachsraten-Prognosen, wo die neuen Mittelschichten halt am PC spielen wollen. Und dort ist auf Grund von Geographie oder allgemeinen Energiepolitik Stromverbrauch egal und die Klima-Anlage Standard.
Die Frage ist ob gerade Cloudstreaming mit den völlig überzogenen Kosten ideal für den 3. Welt Markt ist. Da wird man eher grafisch leichtere F2P Onlinespiele und gecrackte Singleplayer Spiele sehen.
Wenn Ethereum Mining in die Luft fliegt wird es in Asien genug günstige gebrauchte GPUs am Markt geben...
mironicus
2022-06-06, 12:47:01
Ich persönlich bin nicht bereit in die Infrastruktur für 600W+ Karten zu investieren. Das fängt ja bei der Gehäuse-Lüftung an, geht über das NT bis hin zu einer Klimaanlage, wenn man in einem Zimmer samt dem PC sich aufhalten will.
So sehe ich das auch. Macht NVidia das mit den 600 Watt wird es dann halt wieder eine AMD-Karte. Ich mag die RTX 3070 im Laptop mit ihren 125 Watt aber eine Desktop-Karte mit 600 Watt ist ein No-Go. Das gleiche gilt für mich auch für Desktop-CPUs mit 250 Watt Verbrauch wie momentan bei Intel.
Ende Spetember:
AD102 Vorstellung 4090 (450W) und Titan A (600W), Kaufbar und Launch ab Oktober
AD103 Vorstellung 4080 (350W) und 4070 (300W), Kaufbar und Launch ab November
Ende Oktober:
AD104 Vorstellung 4060Ti (250W) und 4060 (200W), Kaufbar und Launch ab Dezember perfekt für Weihnachten
CES:
AD106 Vorstellung 4050Ti und 4050
weit später
AD107 4040Ti und 4030
GA107 4010
Alles bisherige darunter fliegt aus der Produktion, da die APUs auf beiden Seiten immer stärker werden.
Auf der anderen Seite:
Kompettes N3x Lineup Vorstellung Ende Oktober und Launch N31 und 32 im Dezember, N33 CES, N22S und N23S gegen Ostern würd ich tippen.
reaperrr
2022-06-06, 13:16:48
Meine Vermutung:
Die 4060 wird ein abgespeckter AD104 Die und sowohl preislich als auch performancetechnisch der Nachfolger der 3060 Ti.
Gut möglich.
Nvidia scheint generell relativ viel Schiss vor RDNA3 zu haben, sonst würden sie nicht trotz Architektur-Verbesserungen und 1,5-Nodes-Shrink so krass die TDPs hochschrauben (riecht nach Taktraten mit Gewalt so hoch wie möglich prügeln).
Die Performance-Schmach der 3060 gegen die 6600XT wollen sie wohl nicht nochmal erleben und nehmen dafür lieber hohe TDPs und mglw. Chancenlosigkeit bei Perf/W in Kauf.
robbitop
2022-06-06, 13:30:58
Warum eigentlich Titan? Seit Turing gibt es keine Titan mehr - warum soll es jetzt wieder eine geben?
———————
Jetzt wo es bei rdna3 nicht mehr 2x gcds sind, ist die halbe Aufregung raus IMO. 2x dicke gcds wären kaum schlagbar gewesen mit einem monolithischen Chip. Jetzt ist es aber nur einer - ja mit ausgelagertem Cache und IO aber dafür ist ad102 in 4nm mit leichtem Dichtevorteil und wohl sehr großer die size dabei.
16.000 fpus (die jetzt besser ausgelastet sein sollen als bei ampere) und wenn es stimmt nochmal gut 8000 ints sind durch 12000 fpus auch mit hohem Takt schwierig souverän zu schlagen. Ich würde mich über ein grobes Unentschieden nicht wundern. Und auch nicht wenn Ada in RT schneller ist (nicht so brachial wie ampere vs rdna2).
vinacis_vivids
2022-06-06, 13:43:29
16.000 fpus auszulasten brauchst du einen hohen Takt. NV hat seit 6 Jahren keine uArch Taktsprünge gezeigt und stagniert bei 1.8-2.0 Ghz. Wüsste nicht woher die Magie kommen soll die Einheiten plötzlich krass hoch takten zu können.
BlacKi
2022-06-06, 13:50:30
Warum eigentlich Titan? Seit Turing gibt es keine Titan mehr - warum soll es jetzt wieder eine geben?
der begriff prosumer ist bei igor gefallen. für mich heißt das titan.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.