Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
robbitop
2022-06-06, 14:21:47
16.000 fpus auszulasten brauchst du einen hohen Takt. NV hat seit 6 Jahren keine uArch Taktsprünge gezeigt und stagniert bei 1.8-2.0 Ghz. Wüsste nicht woher die Magie kommen soll die Einheiten plötzlich krass hoch takten zu können.
Takt hat mit Auslastung nichts zu tun. Unabhängig davon: Laut aktuellen Gerüchten soll Ada deutlich höhere Taktraten fahren als Ampere.
der begriff prosumer ist bei igor gefallen. für mich heißt das titan.
Naja die Rolle hat seit Ampere die x090 übernommen.
nordic_pegasus
2022-06-06, 14:31:38
der begriff prosumer ist bei igor gefallen. für mich heißt das titan.
die 3090 wird von Nvidia sogar als "Titan-Klasse-Leistung" beschrieben. Nur hat man die Prosumer Features im Treiber deaktiviert, welche die echten Titanen vorher hatten. Neben dem nicht Vollausbau des GA102 und den beidseitigen Speicherchips war diese halbgare Titan-Einstufung der dritte Punkt gewesen, warum ich diese Generation bei Navi21 gelandet bin.
BlacKi
2022-06-06, 14:33:53
@rob
das ist richtig, aber wiederum auch nicht. denn das fehlen der titan macht aus einer 3090 keine prosumer karte. die 3090 ist keine prosumerkarte. die preisdifferenz macht keine prosumerkarte aus. ich rate hier, aber ich denke man will hier wieder eine abgrenzung einrichten. vl mit AI support. alles nur geraten, aber anders kann ich mir den begriff nicht erklären.
Thunder99
2022-06-07, 09:25:42
Turing war der letzte "normale" Generation bezüglich Stromverbrauch.
Dann kam Ampere um die Krone 👑 zu halten.
Mit 3090Ti wurde die Möglichkeit geprüft weiter den Stromverbrauch zu erhöhen damit man gerüstet ist die 👑 zu halten.
Ada wird dort ansetzen nach meiner Meinung und weiterhin steigen, wenn es notwendig ist. Das gilt auch für die kleineren Modellen, das sollte man als realistische Option in Betracht ziehen.
Wenn Ada nicht deutlich schneller ist bei gleichem Verbrauch wie Ampere läuft was gehörig schief. Daran kann ich nicht glauben, da ist Nvidia einfach zu erfahren und gut.
Was am Ende raus kommt werden wir sehen. Hand anlegen geht zwar immer aber wie praktikabel ohne integriert im Treiber mag das sein für die breite Masse?
aceCrasher
2022-06-07, 10:00:42
16.000 fpus auszulasten brauchst du einen hohen Takt. NV hat seit 6 Jahren keine uArch Taktsprünge gezeigt und stagniert bei 1.8-2.0 Ghz. Wüsste nicht woher die Magie kommen soll die Einheiten plötzlich krass hoch takten zu können.
Höhere Auslastung wird mit besserer Kontrolllogik erzielt, nicht mit höherem Takt.
Die "Magie" die die Takterhöhung ermöglichen wird ist der Wechseln von Samsung 8nm auf TSMC 5nm.
Dovregubben
2022-06-07, 10:48:43
16.000 fpus auszulasten brauchst du einen hohen Takt. NV hat seit 6 Jahren keine uArch Taktsprünge gezeigt und stagniert bei 1.8-2.0 Ghz. Wüsste nicht woher die Magie kommen soll die Einheiten plötzlich krass hoch takten zu können.
Wie soll sich die Auslastung ändern, wenn das Gesamtsystem einfach schneller läuft? Das genau ergibt nicht den geringsten Sinn.
Also auch hier wieder
https://i.imgflip.com/6inibt.gif
basix
2022-06-07, 11:18:25
Wenn man einen bestehenden Chip hat ist es ja eher so, dass mit höherem Takt die Auslastung sinkt. Egal welche Architektur und welcher Chip ;)
Das könnte man nur umgehen, wenn man in diesem Fall das Speicherinterface um den gleichen Anteil im Takt anhebt. Wenn man den Takt um 2x anhebt, müsste der Speicher 2x höher takten (oder anders gesagt die Latenz um 50% sinken). Und genau hier kommen Infinity Cache und nun bei Lovelace der grosse L2$ zum Zug: Die effektiven Latenzen sinken drastisch, womit man auch die IPC Degradation bei hohem Takt stark verringert. Zusätzlich steigt die effektiv verfügbare Bandbreite. 2.5GHz+ ist anscheinend nur gangbar, wenn man einen grossen LLC auf dem Chip hat.
Thunder99
2022-06-08, 18:03:46
Der Sprung von der Geforce RTX 4080 auf die RTX 4090 ist bei der TGP lediglich 30 Watt - nach letztem Stand für das Referenzdesign. Das legt auch einen baugleichen Kühler nahe. Dafür bekommt man, so heißt es, etwa die Leistung der RTX 3090.
Quelle: Twitter für die Spekulation über 400-420W und PCGH für den Text selber
Das kann nicht sein, 3090 Leistung bei mehr Verbrauch :ugly::ucrazy::ucrazy2::ucrazy3: No way
basix
2022-06-08, 18:24:38
Jepp, das stimmt sicher nicht. Nur schon, dass eine 4080 auf 3090 Niveau erwartet ist bereits Unsinn (egal was die restlichen Metriken wie z.B. TDP sind). Das wäre gerade mal 10-15% schneller wie eine 3080......bei 1.3...1.4x Verbrauch
Was bei der 4080 mit AD103 vergessen geht:
- Gleiche Anzahl SMs, ja
- IPC? Kann deutlich höher sein, wenn 2x FP32 + 1x INT32 kommen sollte. ~1.4x im Maximum
- Takt? Kann ebenfalls deutlich höher sein. Man sah schon 2.6+ GHz Gerüchte. Wäre ebenfalls 1.4x zur 3090
Zählt man das zusammen, kann eine 4080 im besten Fall auch 2.0x so schnell wie eine 3090 sein.
iamthebear
2022-06-08, 19:36:56
Warum eigentlich Titan? Seit Turing gibt es keine Titan mehr - warum soll es jetzt wieder eine geben?
Damit Nvidia dem Käufer signalisieren kann, dass es sich um eine Erweiterung des Portfolios nach oben handelt.
Damit verhindert man den großen Shitstorm wenn UVP und Verlustleistung höher sind.
Bei Turing hat man das versäumt. Hätte man damals die 2080 als 2090 vermarktet und die 2080 als 2080 Ti wäre es viel besser angekommen.
Jetzt wo es bei rdna3 nicht mehr 2x gcds sind, ist die halbe Aufregung raus IMO. 2x dicke gcds wären kaum schlagbar gewesen mit einem monolithischen Chip. Jetzt ist es aber nur einer - ja mit ausgelagertem Cache und IO aber dafür ist ad102 in 4nm mit leichtem Dichtevorteil und wohl sehr großer die size dabei.
Was mir mehr Gedanken macht ist Navi33. Dieser soll ja in etwa folgende Daten haben:
.) 6900 XT Performance
.) ca. 400mm² in N6 (davon grob geschätzt 220mm² Shader und skalierbarer Teil, 100mm² Cache + SI, 80mm² nicht skalierbarer Rest z.B. IO)
.) 200W
Wenn das stimmt ist das ein riesiger Fortschritt auf Architekturseite was Performance/Transistor, Energieeffizienz und Speicherbandbreiteneffizienz angeht.
Von da aus braucht man Navi31 nur mehr hochrechnen:
.) 3x 6900 XT Rohleistung, entspricht ca. 2x Gaming fps
.) 3*220mm² / 1.5 + 80mm² (Density N6-> N5 1.5x für Logic, 1x für IO) = 520mm²
.) 3 * 100mm² für 384 Bit/384MB auf die MCDs verteilt (vermutlich 64Bit/MB pro MCD)
.) 3 * 200 / 1.3 = 460W
Ich denke nicht, dass der 520mm² GCD zu groß ist als dass man ihn unbedingt teilen müsste. Die Masse ist sowieso Navi32 mit 370mm².Mit beidem bewegt man sich im Bereich von Navi21+22.
@rob
das ist richtig, aber wiederum auch nicht. denn das fehlen der titan macht aus einer 3090 keine prosumer karte. die 3090 ist keine prosumerkarte. die preisdifferenz macht keine prosumerkarte aus. ich rate hier, aber ich denke man will hier wieder eine abgrenzung einrichten. vl mit AI support. alles nur geraten, aber anders kann ich mir den begriff nicht erklären.
Die klassischen Features hat die 3090 nicht mehr. Allerdings bietet diese weiterhin den doppelten VRAM und hat keine Miningbremse.
Aber in Wahrheit hatte das Ganze ein Ziel:
Die 3090 soll nicht als 3080 Ti inkl. Preiserhöhung wahrgenommen werden sondern als Sonderkarte.
Das eigentliche Lineup war zum Launch bei der 3080 zu Ende was den Eindruck einer Preissenkung vermitteln sollte und hätte es diese zum UVP gegeben wäre das auch ein super Deal gewesen:
35% mehr Performance als die 2080 Ti um ein Drittel billiger.
Bzw. 70% mehr Performance als die 2080 Super um dasselbe Geld mit mehr VRAM.
Die "Magie" die die Takterhöhung ermöglichen wird ist der Wechseln von Samsung 8nm auf TSMC 5nm.
Wir reden hier von mehr als 30%. Das lässt sich unmöglich nur durch die Fertigung erklären. Ich denke da gab es auch einige Änderungen auf Architekturseite Bei RDNA3 ist es ähnlich: Von 2.3GHz mit der 6900 XT auf deutlich über 3GHz bei Navi33 geht sicher nicht von N7P auf N6.
Das kann nicht sein, 3090 Leistung bei mehr Verbrauch :ugly::ucrazy::ucrazy2::ucrazy3: No way
Die 4080 sollte auch deutlich mehr Performance als die 3090 haben.
Wenn die 2x Gaming fps in 4K stimmen (und die wurden sowohl von kopite als auch von MLID genannt), dann sind dafür in etwa 3x theoretische Performance notwendig.
4090 vs. 3090 in 4K dürfte sich in etwa so verhalten wie 3090 vs. 3060 in 1080p:
4x Pixel = 3x theoretische Performance = 2x fps
Daraus ergibt sich relativ grob gerundet folgendes:
2 Ampere SMs = 1 Ada SM bei Performance (bestehend aus 1.4x Takt und 1.4x IPC)
1 Ampere SM = 1 Ada SM bei Energieverbrauch wenn bei gleich weit hochgetrieben wurden
1 Ampere SM = 1.5 Ada SM bei Flächenbedarf
1.5 SM = 1 Ada SM bei Transistoren/SM
Ich denke mittlerweile, dass das AD102 Topmodell vor Navi31 liegen wird.
Nvidia versucht aber trotzdem raus zu holen was geht damit sie ein klares Zeichen setzen wer technologisch noch vorne ist.
Ich denke aber, dass man das Duell AD102 vs. Navi31 erstmalig anhand der RT Performance beurteilen muss, denn für 4K Raster reicht auch AD103/Navi32 locker aus und 8K ist noch nicht spruchreif.
basix
2022-06-08, 21:15:18
AD102 kann vor N31 liegen. Aber bei Lovelace wie auch RDNA3 streuen die Gerüchte so stark, dass die Unsicherheit bei dieser Abschätzung sehr gross ist.
Ich als Kunde wünsche mir folgendes:
- Lovelace wird möglichst gut
- RDNA3 wird möglichst gut
- RDNA3 ist +10% schneller als Lovelace oder gleichauf bei +20% Energieffizienz (Raster wie auch RT)
- Verbesserte DLSS 3.0 und FSR 3.0 Varianten
Stretch Goals:
- DLSS 3.0 mit Fallback Mode via DP4a (wie XeSS)
- DLSS 3.0 mit Rückwärtskompatibilität zu DLSS 2.0 Spielen (Marketing: Oh Danke, du liebes Nvidia!)
- DLSS 3.0 Rückwärtskompatibilität funktioniert auch mit non-RTX Karten (Marketing: Oh Danke, du barmherziges Nvidia!)
Damit bekommen wir als Kunde folgendes:
- Maximal mögliche Performance und Energieeffizienz
- Games mit besseren Features
- Da AMD mal wieder seit 10 Jahre vorne ist: Bessere Konkurrenz und hoffentlich Preise
Wenn die 4090 nicht schneller als N31 ist aber eine Titan Lovelace, OK. Längste Balken für Nvidia. Wenig Relevanz für Käuferschaft.
robbitop
2022-06-08, 21:43:38
Man wird noch träumen dürfen. :D
basix
2022-06-08, 22:27:16
Richtig. Bis man hart auf dem Boden der Realität aufschlägt :D
Rampage 2
2022-06-09, 00:13:43
Was bei der 4080 mit AD103 vergessen geht:
- Gleiche Anzahl SMs, ja
Unklar. Man weiß nicht, ob es Salvage (80 oder 82 SMs?) oder doch ein Full-Chip mit 84 SMs wird.
- IPC? Kann deutlich höher sein, wenn 2x FP32 + 1x INT32 kommen sollte. ~1.4x im Maximum
1.4x (genauer 1.36x) finde ich etwas zu hoch gegriffen - nur weil jetzt 36% INT32-Ops freistehen, heißt das ja nicht automatisch, dass auch die IPC pro SM um 36% bzw. 1.36x ansteigt;) Ich finde 1.25x bzw. 25% realistischer.
- Takt? Kann ebenfalls deutlich höher sein. Man sah schon 2.6+ GHz Gerüchte. Wäre ebenfalls 1.4x zur 3090
Sind es jetzt ~ 2.5 GHz, oder doch 2.7-2.8 GHz:confused: Ich halte Ersteres für realistischer.
Zählt man das zusammen, kann eine 4080 im besten Fall auch 2.0x so schnell wie eine 3090 sein.
Zu übertrieben. Geht man von mindestens 25% mehr Takt (2.5 GHz) und 25% höherer Effizienz pro SM (also Leistungseffizienz, nicht Verbrauchseffizienz;)) bei vollen 84 SMs aus, dann ergibt das einen Performance-Plus von 55-60% ggü. einer 3090 Ti. Ist es ein Salvage mit "schlimmstenfalls" nur 80 SMs, sind es immerhin noch knappe 50% Plus zur 3090 Ti;)
R2
Leonidas
2022-06-09, 04:39:57
Für den Vergleich Vorgänger-xx90 zu Nachfolger-xx80 wäre dies aber immer noch gut. Selbst in der wirklich guten Maxwell-Generation hat die 980 die 780Ti nur maßvoll überrundet (+13%) - und nicht gleich um +50%.
robbitop
2022-06-09, 06:36:56
Die 980ti ist der Nachfolger zu 780 /ti. Beides 102 Chips. Die 980 ohne ti war nur ein 104 Chip.
Thunder99
2022-06-09, 08:24:23
Daher auch die Erwartungshaltung 70er schlägt die 90(Ti) und 80er dann deutlich schneller :)
basix
2022-06-09, 08:25:23
Unklar. Man weiß nicht, ob es Salvage (80 oder 82 SMs?) oder doch ein Full-Chip mit 84 SMs wird.
...
1.4x (genauer 1.36x) finde ich etwas zu hoch gegriffen - nur weil jetzt 36% INT32-Ops freistehen, heißt das ja nicht automatisch, dass auch die IPC pro SM um 36% bzw. 1.36x ansteigt;) Ich finde 1.25x bzw. 25% realistischer.
...
Sind es jetzt ~ 2.5 GHz, oder doch 2.7-2.8 GHz:confused: Ich halte Ersteres für realistischer.
Deswegen sagte ich ja, dass all die Gerüchte noch recht schwammig sind.
Aber 1.4x "IPC" ist nicht undenkbar. Du kannst auch 1.5x sagen. Wieso? Du kannst Turing als Ausgangslage nehmen und 2x Throughput pro SM für Lovelace annehmen, da 2x FP32 pro SM. Ampere ist nur ca. 1.33x schneller als Turing (2080 Ti vs. 3080, beide 68 SMs) bei sogar noch etwas höherem Takt (https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3080-ti-review-test/2/#abschnitt_benchmarks_in_3840__2160). 2/1.33=1.5x ;)
Zu übertrieben. Geht man von mindestens 25% mehr Takt (2.5 GHz) und 25% höherer Effizienz pro SM (also Leistungseffizienz, nicht Verbrauchseffizienz;)) bei vollen 84 SMs aus, dann ergibt das einen Performance-Plus von 55-60% ggü. einer 3090 Ti. Ist es ein Salvage mit "schlimmstenfalls" nur 80 SMs, sind es immerhin noch knappe 50% Plus zur 3090 Ti;)
Was ich bei +60% bei 420W einfach sehe: Nur geringe Steigerung der Energieeffizienz verglichen zur saufenden 3090. Gerade mal 1.33x. Trotz 384bit -> 256bit und Samsung 8nm --> TSMC 4N/5HPC.
Leonidas
2022-06-09, 08:25:35
Die 980ti ist der Nachfolger zu 780 /ti. Beides 102 Chips. Die 980 ohne ti war nur ein 104 Chip.
In der Tat. Aber hier ging es ja vorstehend genau um diesen Vergleich: 80er neu gegen 90er alt.
PS: Kopite7kimi geht von seinem Juli-Termin ab und nennt die WCCF-Angaben "korrekt".
https://twitter.com/kopite7kimi/status/1534773498656477184
Linmoum
2022-06-09, 14:22:35
Kann man mittlerweile leider auch nicht mehr ernst nehmen.
War aber sowieso klar, dass er da Stuss geschrieben hat. Wie gesagt, Juli hätte bedeutet, dass da schon längst Gerüchte von Seiten der AiB gekommen wären. Bis auf irgendwelche Twitter-Leaks gibt es aber weiterhin gar nichts.
Aber hey, er hat sich ja dann nur um drei Monate vertan. Oktober statt Juli ist ja fast dasselbe. /s
davidzo
2022-06-09, 15:42:54
Genau, Juli war noch nie ein guter Monat um Consumerprodukte zu launchen.
Völlig unrealistisch dass jemand sowas absichtlich plant für die Sommermonate. Da sind nicht nur die Konsumentem im Urlaub, draußen oder am Strand, sondern auch die ganzen Tech-Redaktionen. Beste Zeit für burying von unbequemen News aus Politik und Lobbyismus.
Der beste Zeitpunkt war schon immer Anfang Q3, also back to school Periode, wenn die Leute viel online präsent sind und wenig anderes zutun haben. Bzw. kann man auch in Q3 dann mindshare ergattern um dann rechtzeitig zu Q4 volle Lager zu präsentieren.
Q4 Launches sind eigentlich nie geplant, sondern meistens reine Verschiebungen. Für ernsthaftes Weihnachsgeschäft müssen die Lager voll sein, da ist ein Q4 Launch zeitlich zu knapp.
Ein Launchzeitpunkt in Q1 bzw. Verfügbarkeit in Q2 passt aber auch gut zu den OEM-zyklen, deshalb gibt es viele März und April Launches historisch gesehen (Cebit anybody?).
Der letzte GPU-Launch der annähernd in die Sommerperiode gefallen ist war der von GT200. Das ergibt sich aber wohl daraus dass der Chip auch als Tesla entwickelt wurde (GT=Geforce Tesla) und deshalb nicht direkt in den gaming release zyklus passte.
WedgeAntilles
2022-06-09, 16:05:41
Kann man mittlerweile leider auch nicht mehr ernst nehmen.
War aber sowieso klar, dass er da Stuss geschrieben hat. Wie gesagt, Juli hätte bedeutet, dass da schon längst Gerüchte von Seiten der AiB gekommen wären. Bis auf irgendwelche Twitter-Leaks gibt es aber weiterhin gar nichts.
Aber hey, er hat sich ja dann nur um drei Monate vertan. Oktober statt Juli ist ja fast dasselbe. /s
Vor allem hat er sich in der Relation extrem vertan.
3 Monate kann viel sein oder wenig (bei einem Ereignis, dass in 5 Jahren erwartet wird, ist eine Abweichung von 3 Monaten fantastisch.)
Er hat im Mai geschrieben, es solle Juli (spätestens August) beginnen.
D.h. 2-3 Monate nach seiner Aussage.
Jetzt wird es was, Oktober? November?
Also 5-6 Monate.
D.h. er hat sich mal locker um den Faktor 2 bis 3 vertan.
Bei seinen "wieviel mehr Strom braucht Lovelace gegenüber Ampere" werden wir ähnliches sehen denke ich.
Und was nachher von seiner Performanceeinschätzung übrig bleibt? Keiner weiß es.
Ich bin immer noch dafür, dass wir uns für die nächste Generation ein Tierorakel zulegen und damit die ganzen Twitterer und Leaker ersetzen.
Ein Freund von mir ist dieses Jahr nach Zypern ausgewandert, da gibt es viele Katzen - vielleicht können wir über das Schnorrverhalten dieser Katzen eine Prognose für die 5xxx Generation erstellen ;D
Ex3cut3r
2022-06-09, 16:27:45
Wer nimmt den diese Twitter "Heinis" wirklich ernst? Ich kann auch Morgen so einen Account erstellen und angebliche Infos (aus meiner Fantasie zusammengereimt) "leaken" Fertig.
Das es alle 2 Jahre neue GPUs gibt, ist jetzt auch kein Geheimnis, von daher liegt man meistens mit seiner Fantasie so halb richtig. ^^
Dural
2022-06-09, 17:02:34
Jep da kommt ja gar nichts mehr Sinnvolles dabei raus, und jede Woche neue "Leaks"
Meine Theorie:
Die Grafikkarten Verkäufe gehen runter, die Gründe dazu sind mehr oder weniger bekannt. Ampere werden durch eine hohe und billige Produktion reichlich Verfügbar sein. Der 5nm Prozess ist teuer und sehr Nachgefragt, NV + AMD + Apple etc. alle wollen ihn. Die Menge bei 5nm Wafer dürfte noch überschaubar sein, Nachfrage + geringe Verfügbarkeit = Hoher Preis, war und ist schon immer so gewesen.
Ampere wird man ab verkaufen können, dazu oben drauf eine "Titan" mit AD102 und relativ grossem beschnitt. AMD wird wohl auch nicht im Q3-Q4 liefern können... Hat man bei Kepler genauso gemacht, sprich die erste Titan.
Rampage 2
2022-06-14, 20:41:06
Der 5nm Prozess ist teuer und sehr Nachgefragt, NV + AMD + Apple etc. alle wollen ihn. Die Menge bei 5nm Wafer dürfte noch überschaubar sein, Nachfrage + geringe Verfügbarkeit = Hoher Preis, war und ist schon immer so gewesen.
Wie gut sind denn die Yields bei 5nm bzw. 4N? Bei Turing und Ampere waren die Yields anscheinend anfangs so schlecht, dass die höherklassigen Chips (xx102, xx104) zunächst nur als Salvage-Varianten rauskamen.
R2
BlacKi
2022-06-14, 20:55:19
Wie gut sind denn die Yields bei 5nm bzw. 4N? Bei Turing und Ampere waren die Yields anscheinend anfangs so schlecht, dass die höherklassigen Chips (xx102, xx104) zunächst nur als Salvage-Varianten rauskamen.
R2full chips gehen sowieso zuerst in den pro markt. und die 3090ti kam nicht erst als man genug full chips hatte, denn die karte geht wohl als aller erste in rente. die 3090ti hatte nichts mit den yields zu tun.
iamthebear
2022-06-14, 21:20:44
5nm Yields sind grob im Bereich von 1 Defekt pro 1000mm².
Dass bedeutet, dass bei 680mm² im Schnitt 50% der Dies keinen einzigen Defekt aufweisen.
5nm ist hier sogar noch etwas besser als 7nm das eigentlich schon die besten Yields der letzten 15 Jahre hatte.
Nvidia wird eher das gegenteiligen Problem haben: Sie werden die AD102 Dies künstlich beschneiden müssen um eine Marktsegmentierung zu schaffen. Zwischen AD102 und AD103 liegen 1.7x d.h. man hat eine riesige Lücke.
Ich kann mir jedoch auch gut vorstellen, dass ein Teil lder Segmentierung über die Verlustleistung passieren wird z.B.:
Titan mit 144SM 48GB und 800W
4090 Ti mit 140SM 24GB und 600W
4090 mit 128SM 24GB und 450W
4080 Ti mit 112SM, 20GB und 400W
Weniger TDP heißt die AIBs können auch schwächere Kühler und VRMs verbauen.
OgrEGT
2022-06-15, 06:52:14
5nm Yields sind grob im Bereich von 1 Defekt pro 1000mm².
Dass bedeutet, dass bei 680mm² im Schnitt 50% der Dies keinen einzigen Defekt aufweisen.
5nm ist hier sogar noch etwas besser als 7nm das eigentlich schon die besten Yields der letzten 15 Jahre hatte.
Nvidia wird eher das gegenteiligen Problem haben: Sie werden die AD102 Dies künstlich beschneiden müssen um eine Marktsegmentierung zu schaffen. Zwischen AD102 und AD103 liegen 1.7x d.h. man hat eine riesige Lücke.
Ich kann mir jedoch auch gut vorstellen, dass ein Teil lder Segmentierung über die Verlustleistung passieren wird z.B.:
Titan mit 144SM 48GB und 800W
4090 Ti mit 140SM 24GB und 600W
4090 mit 128SM 24GB und 450W
4080 Ti mit 112SM, 20GB und 400W
Weniger TDP heißt die AIBs können auch schwächere Kühler und VRMs verbauen.
Schwächere Kühler und v.a. Komponenten der Stromversorgung wäre keine gute Idee bei diesen hohen Leistungsaufnahmen... da werden viele die Übertakten und nicht wissen was sie tun ihre Karten grillen wenn es bis auf 800W geht... sind ja alles im Grunde die gleichen GPUs...
Thunder99
2022-06-15, 09:04:21
Wobei es nicht klar ist ob 4080 102 oder 103 ist.
Könnte mir vorstellen, dass die 80er 103 ist und später die Ti 102
Rampage 2
2022-06-15, 17:12:17
full chips gehen sowieso zuerst in den pro markt. und die 3090ti kam nicht erst als man genug full chips hatte, denn die karte geht wohl als aller erste in rente. die 3090ti hatte nichts mit den yields zu tun.
Das war bei Pascal aber nicht so... die GTX 1080 erschien gleich zu Beginn mit vollem GP104-Chip.
Ich sage ja auch nicht, dass gleich der größte Chip (AD102) full-fat erscheinen muss - aber die kleineren Chips (AD102 hat über 70% mehr SMs/Shadereinheiten als AD103... folglich muss der AD103-Die massiv weniger Die-Fläche beanspruchen) eignen sich mMn durchaus für einen Full-Release, wenn die Yields bei 4N gut genug sind;)
Ich kann mir jedoch auch gut vorstellen, dass ein Teil lder Segmentierung über die Verlustleistung passieren wird z.B.:
Titan mit 144SM 48GB und 800W
4090 Ti mit 140SM 24GB und 600W
4090 mit 128SM 24GB und 450W
4080 Ti mit 112SM, 20GB und 400W
Das ist etwas zu pessimistisch. Eher so:
Titan (Full-AD102, 144SM, 48GB, 800-900W, Profi-Features)
4090 Ti (Full-AD102, 144SM, 24GB, 600W)
4080 Ti (AD102, 120SM, 24GB, 500W)
Die 4090 ist bereits bestätigt auf 126SM, also nix 128;) Ich denke, wenn die 4080 Ti in obiger Form später erscheint, wird die reguläre 4090 obsolet.
R2
Cyberfries
2022-06-15, 17:43:12
Das war bei Pascal aber nicht so... die GTX 1080 erschien gleich zu Beginn mit vollem GP104-Chip.
Alle Generationen von 500 bis 1000 sind direkt im Vollausbau erschienen.
Mittlerweile hat man eben im Kunden melken zugelernt. Mit Fertigungsausbeute hat das nicht zu tun.
aber die kleineren Chips ... eignen sich mMn durchaus für einen Full-Release
Bei Ampere erschien kein einziger Chip im Vollausbau, vom dicken GA102 bis hin zum kleinen GA106.
Die 4090 ist bereits bestätigt auf 126SM, also nix 128;)
Bestätigt von? Offiziell ist noch nichts.
Und der 126SM Leaker hat erst vor kurzem seine Einschätzung auf 128 korrigiert.
Linmoum
2022-06-15, 17:46:01
Ich brauche keine Einschätzung eines Leakers, wenn man entsprechend offizielle Dokumente hat(te). Dank dem NV-Leak kennt man die einzelnen Konfigurationen ziemlich genau.
Cyberfries
2022-06-15, 18:57:52
Ich brauche keine ... Leakers,... Dank dem NV-Leak ...
Darf man fragen um welche Dokumente es geht? Meine Suchmaschine spuckt keine sinnvollen Ergebnisse aus.
Mir wäre nicht bekannt, dass finale Konfigurationen einzelner Modelle geleakt worden wären,
geschweige denn zu diesem Zeitpunkt überhaupt feststehen. Die Daten der Vollausbauten zweifelt wohl keiner an.
Troyan
2022-06-15, 19:22:41
Schau mal bei Twitter. Es gab den Leak aus den Treibern. Aber die waren bei Hopper nicht 100% genau (z.B. 48MB L2 Cache statt 60 MB bzw. 50 MB L2 Cache).
OgrEGT
2022-06-15, 19:24:09
Darf man fragen um welche Dokumente es geht? Meine Suchmaschine spuckt keine sinnvollen Ergebnisse aus.
Mir wäre nicht bekannt, dass finale Konfigurationen einzelner Modelle geleakt worden wären,
geschweige denn zu diesem Zeitpunkt überhaupt feststehen. Die Daten der Vollausbauten zweifelt wohl keiner an.
https://videocardz.com/newz/nvidia-geforce-rtx-40-ada-gpu-architecture-specs-allegedly-leaked-up-to-144-streaming-multiprocessors
Wobei das dann die maximalen Specs sind. Wie das dann salvaged wird...
iamthebear
2022-06-16, 00:44:10
Schwächere Kühler und v.a. Komponenten der Stromversorgung wäre keine gute Idee bei diesen hohen Leistungsaufnahmen... da werden viele die Übertakten und nicht wissen was sie tun ihre Karten grillen wenn es bis auf 800W geht... sind ja alles im Grunde die gleichen GPUs...
Tja wenn man meint ohne Plan herumschrauben zu müssen, dann ist das Ding eben nachher platt und man ist um eine Erfahrung reicher.
Und ich verstehe nicht was daran anders sein soll als bei Ampere. Eine 3090 würde mit 1.4V auch locker 800W schlucken. Aber trotzdem siegt in den meisten Fällen die Vernunft bzw. lassen die AIBs so Wahnsinnsaktionen im BIOS gar nicht zu.
Das war bei Pascal aber nicht so... die GTX 1080 erschien gleich zu Beginn mit vollem GP104-Chip.
Ich sage ja auch nicht, dass gleich der größte Chip (AD102) full-fat erscheinen muss - aber die kleineren Chips (AD102 hat über 70% mehr SMs/Shadereinheiten als AD103... folglich muss der AD103-Die massiv weniger Die-Fläche beanspruchen) eignen sich mMn durchaus für einen Full-Release, wenn die Yields bei 4N gut genug sind;)
Bei hat man alle leicht defekten Dies gesammelt um später einen Refresh mit der 1070 Ti bzw. 1080 Ti zu machen. Ist die Frage ob das Nvidia so bald vor hat.
Das ist etwas zu pessimistisch. Eher so:
Titan (Full-AD102, 144SM, 48GB, 800-900W, Profi-Features)
4090 Ti (Full-AD102, 144SM, 24GB, 600W)
4080 Ti (AD102, 120SM, 24GB, 500W)
Ich glaube ehrlich gesagt nicht, dass die 4080 Ti und 4090 so hoch getrieben werden.
Es gibt einen sehr großen Kreis an Kunden, die zwar das Geld für eine High End Karte haben, jedoch nicht solche Technikfreaks sind wie hier im Forum.
Bei 500-600W muss man schon etwas Ahnung vom Airflow im Gehäuse haben sonst geht das schief. Einfach nur irgendwo ein paar LED Lüfter hinschrauben reicht da nicht mehr. Die GPU hat damit kein Problem aber Mainboard, CPU, SSD etc. werden dann gegrillt.
Die 4090 ist bereits bestätigt auf 126SM, also nix 128;) Ich denke, wenn die 4080 Ti in obiger Form später erscheint, wird die reguläre 4090 obsolet.
Die 4080 Ti (sofern sie überhaupt existiert) wird sicher etwas niedriger positioniert sein.
Und die 4090 hat 128SM. Das wurde von kopite korrigiert.
R2[/QUOTE]
Ich brauche keine Einschätzung eines Leakers, wenn man entsprechend offizielle Dokumente hat(te). Dank dem NV-Leak kennt man die einzelnen Konfigurationen ziemlich genau.
Der Leak enthält Daten des Full Die.
Die Daten zu den SKUs sind nicht enthalten weil die gerade erst festgelegt werden.
Und auch die Daten aus dem Leak sind nicht unfehlbar. Der Leak bestätigt nur was irgendwann von Nvidia einmal geplant war. Ob die Dies dann auch so umgesetzt wurden davon wissen wir nichts.
Abgesehen davon: Ich habe keine Originalfiles aus dem Leak und ich vermute einmal du auch nicht. Deshalb sind wor hier auch auf Leaker angewiesen, die uns berichten was sie alles gesehen haben.
BlacKi
2022-06-16, 10:16:45
Alle Generationen von 500 bis 1000 sind direkt im Vollausbau erschienen.
Mittlerweile hat man eben im Kunden melken zugelernt. Mit Fertigungsausbeute hat das nicht zu tun.
hä? das stimmt doch garnicht. das die kleinen chips oft full fat sind mag ja sein, aber full fats zum release gabs noch nie bei den großen.
780
980ti
1080ti
2080ti
3090
und jetzt auch die 4090.
titan könnte vorbereitet werden, glaub ich aber nicht zum release.
die full fats gingen entweder immer auf halde oder in die pro karten.
OgrEGT
2022-06-16, 10:26:09
Tja wenn man meint ohne Plan herumschrauben zu müssen, dann ist das Ding eben nachher platt und man ist um eine Erfahrung reicher.
Und ich verstehe nicht was daran anders sein soll als bei Ampere. Eine 3090 würde mit 1.4V auch locker 800W schlucken. Aber trotzdem siegt in den meisten Fällen die Vernunft bzw. lassen die AIBs so Wahnsinnsaktionen im BIOS gar nicht zu.
(...)
Der Unterschied ist der, dass Ampere mit 1,4V und 800W wohl nur mit LN2 und speziellem BIOS zu erreichen sind.
Bei Ada soll es ja jetzt bis zu 800W ootb raufgehen... Der Aufwand erscheint somit geringer, also BIOS einer Titan Karte auf eine andere AD102 Karte mit billigen Komponenten aufgespielt und ab gehts...
Cyberfries
2022-06-16, 10:55:49
Wobei das dann die maximalen Specs sind. Wie das dann salvaged wird...
Jo, das ist bekannt.
Passt nur nicht zur Aussage von Linmoum, der offizielle Dokumente zu allen Karten gesehen haben will.
hä? das stimmt doch garnicht. das die kleinen chips oft full fat sind mag ja sein, aber full fats zum release gabs noch nie bei den großen.
780
980ti
1080ti
2080ti
3090
und jetzt auch die 4090.
Zum einen habe ich meine Aussage auf 500 bis 1000 begrenzt, drei deiner Nennungen sind also irrelevant.
Bei den übrigen dreien erschien jeweils die Titan mehrere Monate vor der x80/x80ti.
Wobei mir tatsächlich ein Fehler unterlaufen ist, bei Pascal und Kepler gabs jeweils zwei Titanen.
Erst die jeweils zweite Titan war im Vollausbau, insofern muss ich meine Aussage tatsächlich revidieren.
GrimReaper85
2022-06-17, 23:14:11
https://www.youtube.com/watch?v=c--1_0HqB3w&t=1428s
Das ist wahrscheinlich großer Blödsinn, oder?
Weil AD103 420W nur +10-30% 3090 350W. Das ist genau die gleiche Effizienz von 5nm im Vergleich zu 10nm. AMD hat eine Effizienz von >50% erreicht und sie gingen von 7nm auf 5nm, sodass wir mit Sicherheit sagen können, dass Nvidia mindestens +40% erreicht hat. Und angesichts einer höheren Wattzahl bedeutet dies mindestens +60% Leistung, genau wie von 3DCenter vorhergesagt.
Gleiches gilt für AD104 300W, MLID sagt wie 3080 320W, das würde nur 7% bessere Effizienz bedeuten. In Wirklichkeit sollte es mindestens 30% schneller sein als 3080 10GB.
AD102 ist richtig. Und AD106 sollte mindestens 3070 Ti sein, wenn nicht zwischen 3070 Ti und 3080.
GrimReaper85
2022-06-17, 23:37:03
Eine weitere gute Frage ist, was Nvidia tun wird, um N32, AD102 4080 Ti 20 GB 13-14.000 CU entgegenzuwirken? Aber 450-500W (AD103 wird bei 420W bestätigt) im Vergleich zu 300-350W, keine große Konkurrenz.
BlacKi
2022-06-17, 23:47:35
Eine weitere gute Frage ist, was Nvidia tun wird, um N32, AD102 4080 Ti 20 GB 13-14.000 CU entgegenzuwirken? Aber 450-500W (AD103 wird bei 420W bestätigt) im Vergleich zu 300-350W, keine große Konkurrenz.
ich verstehe nicht.
Linmoum
2022-06-17, 23:57:45
Irgendwo ist eine versteckte Kamera.
iamthebear
2022-06-18, 00:19:28
Der Unterschied ist der, dass Ampere mit 1,4V und 800W wohl nur mit LN2 und speziellem BIOS zu erreichen sind.
Bei Ada soll es ja jetzt bis zu 800W ootb raufgehen... Der Aufwand erscheint somit geringer, also BIOS einer Titan Karte auf eine andere AD102 Karte mit billigen Komponenten aufgespielt und ab gehts...
Wenn man meint ein 800W auf eine 450W Karte zu flashen, dann muss man damit rechnen, das diese nachher platt ist. Da kann ich nur sagen: Selbst Schuld.
Und für Ampere gibt es auch ein GA102 BIOS mit >600W. Das nutzen gerade die AIBs, um ihre 4090 Kühllösungen zu testen. Dreimal darfst du raten was wohl passieren wird, wenn du das auf eine normale 350W 3090 spielst und diese dann voll belastest. Dann grillst du deinen VRAM schön auf 170 Grad. Das passiert normalerweise nur wenn Onkel Jensen die Temperatur für GPU und Tiefkühlpizza verwechselt.
https://www.youtube.com/watch?v=c--1_0HqB3w&t=1428s
Das ist wahrscheinlich großer Blödsinn, oder?
Weil AD103 420W nur +10-30% 3090 350W. Das ist genau die gleiche Effizienz von 5nm im Vergleich zu 10nm. AMD hat eine Effizienz von >50% erreicht und sie gingen von 7nm auf 5nm, sodass wir mit Sicherheit sagen können, dass Nvidia mindestens +40% erreicht hat. Und angesichts einer höheren Wattzahl bedeutet dies mindestens +60% Leistung, genau wie von 3DCenter vorhergesagt.
Gleiches gilt für AD104 300W, MLID sagt wie 3080 320W, das würde nur 7% bessere Effizienz bedeuten. In Wirklichkeit sollte es mindestens 30% schneller sein als 3080 10GB.
AD102 ist richtig. Und AD106 sollte mindestens 3070 Ti sein, wenn nicht zwischen 3070 Ti und 3080.
Das Problem mit MLID ist, dass er zwar relativ gute Quellen hat und sich zeitweise auch wirklich bemüht qualitativen Content zu produzieren aber ihm fehlt einfach das technische Verständnis. Vor allem hat er noch nicht verstanden, dass fps nicht linear mit der theoretischen GPU Performance skalieren. Seine Quellen sagen ihm "die AD102 hat +100%" und er rechnet sich die Performance der kleineren Dies dann selbst zusammen, was natürlich hinten und vorne nicht stimmt.
Aktueller Kenntnisstand ist:
.) Die 4090 mit 128SM auf 450-600W (wieviel ist noch unsicher) hat um die 2x fps in 4K. Die Info kommt sowohl von kopite als auch von MLID.
.) Das bedeutet, dass die Rohleistung in etwa 3x sein muss.
.) Wir wissen, dass die Taktraten ca. im Bereich von 2,6-2,7GHz liegen werden.
.) Das bedeutet, dass die IPC ca. 30% höher liegen muss. Das würde sich durch die von kopite vermuteten zusätzlichen INT Einheiten erklären lassen.
Oder anders gesagt:
Ada hat pro SM ca. 1.8x mehr theoretische Performance als Ampere. Das bedeutet:
Ada mit 82/1.8 = 45SM (also zwischen AD106 und AD104) wird in etwa die Performance einer 3090 haben.
Ada mit 82SM wird in etwa 50-60% mehr Performance als die 3090 haben.
MLID hat hier einfach 2/1.7 = 1.18x gerechnet aber das ist natürlich Schwachsinn. Das Gleiche gilt für die 3080.
Falls MLID doch mit den 1.2x für AD103 Recht haben sollte, dann bedeutet dies, dass die 2x 4K fps für die 4090 wiederrum nicht stimmen können.
Einmal abgesehen davon:
Die Informationen von MLID stammen noch aus den theoretischen Simulationen. Zu der Zeit sind von Nvidia noch keine Tests mit realem Silizium geleaked. Dadurch können die Performanceprognosen sowieso schon etwas veraltet sein. AMD hat am Schluss auch deutlich höhere Taktraten geschafft als ursprünglich vermutet.
Eine weitere gute Frage ist, was Nvidia tun wird, um N32, AD102 4080 Ti 20 GB 13-14.000 CU entgegenzuwirken? Aber 450-500W (AD103 wird bei 420W bestätigt) im Vergleich zu 300-350W, keine große Konkurrenz.
Also ich bin mir nicht sicher, ob Navi32 hier wirklich so ein Problem werden wird für Nvidia. Die 2.5-2.7x Angaben für Navi31 waren im Gegensatz zu Ada immer die theoretische Performance.
Auch die Einschätzung, dass Navi31 Ada klar schlagen wird stammt denke ich auch noch aus einer Zeit wo AMD dachte sie könnten die Dual GCD Variante mit 15-16K FP32 im Gamingbereich bringen. Daraus dürfte allerdings nichts geworden sein, da AMD hier auf technische Probleme gestoßen ist.
Aus dem Bauch heraus würde ich schätzen:
.) AD103 vs. Navi32 werden in etwa gleich auf liegen bei gleichem Verbrauch
.) Die 4090 mit 128SM wird in etwas auf dem Niveau von Navi31 liegen bei gleichem Verbrauch
.) Der Full AD102 Die mit 800W legt dann noch einmal um die 20% oben drauf
Und die 420W der 4080 sich nicht "bestätigt". Es gab Gerüchte über 3 Ecken, dass eine solche Variante von Nvidia getestet wurde. Das heißt noch lange nicht, dass das auch so kommen wird.
BlacKi
2022-06-18, 00:41:14
was die wattage angeht, ihr müsst verstehen das die 3090 als salvage modell mit oc schon 800w verbraucht hat. eine titan mit oc wird die 1000w locker knacken. werden wir mit shunt mod definitiv sehen, vermutlich nicht gleich zu release.
was sollen da 450w oder 600w sein? das sind gegenüber der titan, die reinsten eco modelle, eingebremst vom bios.
Rampage 2
2022-06-18, 02:05:43
Laut den neuesten Gerüchten soll LL ja doch erst im Spätsommer/Herbst released werden - besteht allerdings die Möglichkeit, dass wenigstens die Vorstellung (also nicht der Verkaufsstart) noch im September oder gar im August stattfindet? :)
R2
BlacKi
2022-06-18, 02:08:05
klar, gamescom oder halt im september ist drin. oktober dann der verkauf von 1-2 modellen.
OgrEGT
2022-06-18, 08:41:25
https://www.youtube.com/watch?v=c--1_0HqB3w&t=1428s
Das ist wahrscheinlich großer Blödsinn, oder?
Weil AD103 420W nur +10-30% 3090 350W. Das ist genau die gleiche Effizienz von 5nm im Vergleich zu 10nm. AMD hat eine Effizienz von >50% erreicht und sie gingen von 7nm auf 5nm, sodass wir mit Sicherheit sagen können, dass Nvidia mindestens +40% erreicht hat. Und angesichts einer höheren Wattzahl bedeutet dies mindestens +60% Leistung, genau wie von 3DCenter vorhergesagt.
Gleiches gilt für AD104 300W, MLID sagt wie 3080 320W, das würde nur 7% bessere Effizienz bedeuten. In Wirklichkeit sollte es mindestens 30% schneller sein als 3080 10GB.
AD102 ist richtig. Und AD106 sollte mindestens 3070 Ti sein, wenn nicht zwischen 3070 Ti und 3080.
Die +50% perf/W bei RDNA3 werden durch verschiedene Veränderungen erreicht. Der Fertigungsprozess ist nur ein Teil davon...
- 5nm process
- advanced chiplet packaging
- rearchitected compute units
- optimized graphics pipeline
- next gen IF$
Bei NV kommt auch ein großer Anteil vom neuen Fertigungsprozess... die prognostizierten Leistungsaufnahmen von Ada bei sicherlich hoher Zusatzleistung lässt allerdings vermuten dass architektonisch ggf nicht soviel verändert wurde... mehrere und breitere Rechenwerke einzubauen steigert die Leistung aber perf/W nicht zwangsläufig...
robbitop
2022-06-18, 09:06:55
Ich würde Ada da nicht unterschätzen. Wann war der letzte major Cycle bei NV wo es keine signifikante uArch Änderungen gab? Meine Vermutung ist, dass die SMs überarbeitet worden sind und deutlich mehr Schedulerresources haben und ihre Rohleistung besser auslasten können.
iamthebear
2022-06-18, 11:14:05
Der Verbrauch kommt halt stark auf die Performance an. Wenn Ada die 3 fache Rohleistung hat und die doppelte Energieeffizienz, dann steigt der Verbrauch immer noch um 50%.
Thunder99
2022-06-18, 11:57:20
Und das ist schon zu viel mehr an Verbrauch
Exxtreme
2022-06-18, 12:04:47
Der Verbrauch kommt halt stark auf die Performance an. Wenn Ada die 3 fache Rohleistung hat und die doppelte Energieeffizienz, dann steigt der Verbrauch immer noch um 50%.
Ja. Aber das gilt auch nur dann wenn man die größte oder zweitgrößte Version haben will. Nimmt man eine Mainstreamkarte dann freut man sich über mehr Leistung und weniger Verbrauch.
BlacKi
2022-06-18, 12:05:10
Und das ist schon zu viel mehr an Verbrauch
niemand zwingt dich, einfach tiefer kaufen. sparst sogar geld. die +100% werden eben durch mehr power erreicht. wenn dir die 60% pro gen. reichen, welche ein normaler sprung bedeutet, dann bleibt der verbrauch gleich, sinkt sogar leicht.
scheinbar will nv eine neue kundschaft damit erschließen, denen der stromverbrauch egal sind. die mussten bisher alle in die röhre kucken. die wurden alle eingebremst, lediglich ein paar AIBs haben hier die kunden mit custom bios verwöhnt, die erweiterte tdps zum download angeboten haben.
Thunder99
2022-06-18, 14:18:04
niemand zwingt dich, einfach tiefer kaufen. sparst sogar geld. die +100% werden eben durch mehr power erreicht. wenn dir die 60% pro gen. reichen, welche ein normaler sprung bedeutet, dann bleibt der verbrauch gleich, sinkt sogar leicht.
scheinbar will nv eine neue kundschaft damit erschließen, denen der stromverbrauch egal sind. die mussten bisher alle in die röhre kucken. die wurden alle eingebremst, lediglich ein paar AIBs haben hier die kunden mit custom bios verwöhnt, die erweiterte tdps zum download angeboten haben.
Ist mir schon klar :). Doch sind die Vorzeichen bei Ada nicht wirklich rosig was tiefe TDP anbelangt, auch in den unteren Klassen.
Wenn z.B. eine 06er Karte 200 TDP hat sind das nur 50 weniger als meine 1080Ti bei vielleicht +60%. Das zwischen 16nm und 4nm... Wäre ziemlich schlecht...
Schnitzl
2022-06-18, 14:46:56
@iamthebear
danke für deine Erklärung und Darlegung :up:
hier im 3DCenter Forum lernt man noch was hehehehe ... ;)
Aus dem Bauch heraus würde ich schätzen:
.) AD103 vs. Navi32 werden in etwa gleich auf liegen bei gleichem Verbrauch
.) Die 4090 mit 128SM wird in etwas auf dem Niveau von Navi31 liegen bei gleichem Verbrauch
.) Der Full AD102 Die mit 800W legt dann noch einmal um die 20% oben drauf
Und die 420W der 4080 sich nicht "bestätigt". Es gab Gerüchte über 3 Ecken, dass eine solche Variante von Nvidia getestet wurde. Das heißt noch lange nicht, dass das auch so kommen wird.
genauso würde ich das als Laie auch vermuten, vor allem jetzt nach deinem Post ^^
allerdings fällt mir immer noch schwer zu glauben, dass die wirklich auf 800W gehn
auf ne 4070 mit 300W+ hab ich auch kein Bock im Dachgeschoß. ebensowenig auf ne 4060, ich will den Unterschied schon merken, warte ich eben auf die 5070.. oder 5060 :(
BlacKi
2022-06-18, 15:04:33
Ist mir schon klar :). Doch sind die Vorzeichen bei Ada nicht wirklich rosig was tiefe TDP anbelangt, auch in den unteren Klassen.
Wenn z.B. eine 06er Karte 200 TDP hat sind das nur 50 weniger als meine 1080Ti bei vielleicht +60%. Das zwischen 16nm und 4nm... Wäre ziemlich schlecht...
hört sich nicht schlecht an. das ist eine effizienzsteigerung um x3,2
das entspricht sogar den fake zahlen der prozesse custom 5nm vs custom 16nm. exakt 3,2.
und das obwohl die speichercontroller und der speicher selbst nicht mitskaliert. dafür ab ada eben der l2 cache, der die effizienz gut steigern wird.
Platos
2022-06-18, 16:19:03
niemand zwingt dich, einfach tiefer kaufen. sparst sogar geld. die +100% werden eben durch mehr power erreicht. wenn dir die 60% pro gen. reichen, welche ein normaler sprung bedeutet, dann bleibt der verbrauch gleich, sinkt sogar leicht.
scheinbar will nv eine neue kundschaft damit erschließen, denen der stromverbrauch egal sind. die mussten bisher alle in die röhre kucken. die wurden alle eingebremst, lediglich ein paar AIBs haben hier die kunden mit custom bios verwöhnt, die erweiterte tdps zum download angeboten haben.
Wenn ein Produkt schlecht ist (in dem Fall nicht bekannt), dann einfach sagen: "Zwingt dich ja niemand, es zu kaufen" ;D
Top Argument, um nicht auf Kritik einzugehen. Hat irgendwie so die Züge von einem Fanboy-Argument, weils einem nicht passt, dass man etwas kritisiert.
KarlKastor
2022-06-18, 16:26:20
Ein Produkt welches dir nicht gefällt, einfach als schlecht zu bezeichnen ist genauso stumpf.
Wenn die Effizienz stimmt, einfach einen Etage tiefer ins Regal greifen.
Platos
2022-06-18, 16:47:19
Ein Produkt welches dir nicht gefällt, einfach als schlecht zu bezeichnen ist genauso stumpf.
Wenn die Effizienz stimmt, einfach einen Etage tiefer ins Regal greifen.
Nicht wirklich, solange es mit Argumenten begründet wird.
AffenJack
2022-06-18, 16:53:18
scheinbar will nv eine neue kundschaft damit erschließen, denen der stromverbrauch egal sind. die mussten bisher alle in die röhre kucken. die wurden alle eingebremst, lediglich ein paar AIBs haben hier die kunden mit custom bios verwöhnt, die erweiterte tdps zum download angeboten haben.
Das ist doch nichtmal neue Kundschaft. Das ist einfach der SLI Ersatz in einem Chip. SLI Nutzer haben 600W auch nie geschert. Nvidia hat gemerkt, dass genug Nutzer da sind, die soviel zahlen und bringt deshalb ne Karte dafür. Deshalb auch der Abstand AD102/AD104 der viel größer ist als sonst.
Interessant wird es bei der 4080 und tiefer. Abwarten, was da wirklich mit Verbrauch passiert.
Thunderburne
2022-06-18, 21:02:10
https://wccftech.com/nvidia-ada-lovelace-geforce-rtx-40-gpus-power-limits-detailed-ad102-800w-ad103-450w-ad104-400w-ad106-260w/
BlacKi
2022-06-18, 21:44:22
Wenn ein Produkt schlecht ist (in dem Fall nicht bekannt), dann einfach sagen: "Zwingt dich ja niemand, es zu kaufen" ;D
Top Argument, um nicht auf Kritik einzugehen. Hat irgendwie so die Züge von einem Fanboy-Argument, weils einem nicht passt, dass man etwas kritisiert.
inwiefern ist das schnellste produkt auf dem markt ein schlechtes produkt.
das ist wie zu behaupten. ps starkes auto ist ein schlechtes produkt, weil es nicht besonders effizient ist.
rentex
2022-06-18, 22:37:23
inwiefern ist das schnellste produkt auf dem markt ein schlechtes produkt.
das ist wie zu behaupten. ps starkes auto ist ein schlechtes produkt, weil es nicht besonders effizient ist.
Wenn ein Produkt im Jahr 2022, Unmengen an Energie verballert, um auf Biegen und Brechen, Performance zu generieren und dazu (sehr wahrscheinlich) nicht gerade günstig, ist es ineffizient und einfach nicht mehr ein gut gemachtes Produkt.
Platos
2022-06-19, 01:36:47
inwiefern ist das schnellste produkt auf dem markt ein schlechtes produkt.
das ist wie zu behaupten. ps starkes auto ist ein schlechtes produkt, weil es nicht besonders effizient ist.
Ja, es ist ein schlechtes Produkt, weil es so extrem ineffizient ist. Wenn ein sehr schnelles Auto doppelt so viel säuft, wie ein gleich schnelles bzw. offensichtlicherweise ineffizient betrieben wird, ist es ein schlechtes Auto.
Oder siehe auch rentex' Antwort.
Du kannst das natürlich anders sehen. Aber es ging ja mehr darum, dass der Spruch "musst halt nicht kaufen" Blödsinn ist und nicht darum, ob und was nun ein schlechtes Produkt ist. Wobei Effizienz eigentlich bei fast jedem Menschen ein wichtiger Punkt ist (wenn auch unbewusst). Natürlich gibts hier (vor allem hier) auch Leute wie z.B Raff, der seine 3090 verkauft, um sich ne 3090Ti zu kaufen... (nichts gegen dich Raff).
BlacKi
2022-06-19, 01:39:38
nö, das ist nur dein persönliches empfinden. nur euer persönliches, ohne aussagekraft generell gesehen. was cool ist, wenn ihr es nicht als allgemein schlechtes produkt bezeichnet.
ein porsche mit 15 liter verbrauch ist nur weil er ineffizient ist, kein schlechtes produkt. scheinbar ist die gleichung nicht angekommen.
Platos
2022-06-19, 02:27:41
nö, das ist nur dein persönliches empfinden. nur euer persönliches, ohne aussagekraft generell gesehen. was cool ist, wenn ihr es nicht als allgemein schlechtes produkt bezeichnet.
ein porsche mit 15 liter verbrauch ist nur weil er ineffizient ist, kein schlechtes produkt. scheinbar ist die gleichung nicht angekommen.
Was ein gutes und ein schlechtes Produkt ist, entscheidest sicherlich nicht du, sondern jeder für sich. Ein Porsche mit 15 Liter Verbrauch würden sehr wohl sehr viele Leute als schlechtes Produkt ansehen. Aber anscheinend verstehst du es nicht. Du denkst wohl, was gut ist und was schlecht ist, kann nicht unterschiedlich bewertet werden.
Genau so gut kann ich deine Aussage als ohne Aussagekraft bezeichnen :D Witzig daran ist ja, dass du anderen vorwirfst, ohne Aussagkraft zu argumentieren, selbst aber mit "nö" Antwortest und keine Gegenargumente bringst :D
Wert wird individuell bestimmt. Das ist quasi die Grunddefinition von Wert. Natürlich wird auch als Gesellschaft, Gruppe oder sonstiges einen gemeinsamen Wert bestimmt. Aber ich kann dir mal eins sagen, dass das im Falel der 800W GPU nicht die Masse ist, sondern maximal das Nerd-Trüppchen im 3D-Center Forum :D
Gott1337
2022-06-19, 03:49:23
Ein Porsche mit 15 Liter Verbrauch würden sehr wohl sehr viele Leute als schlechtes Produkt ansehen.
Den Vollidioten will ich jetzt aber schon kennen lernen xD
Nein niemand der sich mit Autos auskennt würde DAS behaupten.
dargo
2022-06-19, 07:24:12
https://wccftech.com/nvidia-ada-lovelace-geforce-rtx-40-gpus-power-limits-detailed-ad102-800w-ad103-450w-ad104-400w-ad106-260w/
AD102 bei 800-900W? Hat Lederjacke jetzt komplett den Verstand verloren? X-D
Thunderburne
2022-06-19, 07:55:19
AD102 bei 800-900W? Hat Lederjacke jetzt komplett den Verstand verloren? X-D
Ist schon ziemlich Krass aber so eine 48 GB Vollausbau Karte würde ich mir eh nicht kaufen die wird bestimmt bei um die 3000-4000 Euro liegen und somit für viele Spieler völlig bedeutungslos sein.
Ich befürchte aber das die 4090 die 600W ankratzt !
Ich mein ich bin das von früher gewohnt in Form von 580 SLI oder Quadfire und solcher Spielchen heute sieht das aber halt alles etwas anders aus !
AMD kommt ja mit dem Chiplet Design vielleicht können die da Punkten so wie ich das jetzt gesehen habe werden es auch um die 16*** shader dort ist in etwa von 400W die Rede .
Alles in Ruhe anschauen und für sich Abwegen was man nimmt oder auch nicht!
Was ich zur Zeit viel schlimmer finde sind die schlechten Spiele die man raus bringt !
Auch die ganzen Verschiebungen das hat da zu geführt das ich jetzt schon meine 3080 Ti FE vor kurzem noch für 1150 Euro verkauft habe!
Jetzt leg ich mir bis zum Herbst noch ein Paar Hunis dazu mal sehen was ich mir dann kaufen werde !
Jetzt genieße ich erstmal den Sommer gerade ein neues E-Bile Fully gegönnt macht mehr Spaß als bei dem Wetter am Rechner rum zu hängen!
boxleitnerb
2022-06-19, 08:45:54
Wie schon oft gesagt:
Wenn es nur ein zusätzliches Tier obendrauf wäre, würde es keine Sau jucken. Aber es ist genau das, was ich gesagt und befürchtet habe: Die Leistungsaufnahme steigt über das komplette Portfolio hinweg, egal ob 102 oder 107.
Das ist mMn in Zeiten von immer heftigeren und häufigeren Hitzewellen und explodierenden Energiekosten der falsche Weg. Es ist leider wie Wettrüsten - wenn einer anfängt Verbrauch und auch Leistung hochzuziehen, entsteht eine Spirale, in der keiner zurückstehen will, um nicht auf Platz 2 zu landen.
Aber gut, es ist müßig zu diskutieren - der Kunde wird wählen mit dem Geldbeutel, wenn er die Stromrechnung sieht und schwitzend vor seiner lauten Kiste sitzt. Wer will 400+W ohne Wakü leise abführen?
Felixxz2
2022-06-19, 09:55:23
Autovergleiche mal außen vor, eine 800W GPU ist in jedem Fall ein schlechtes Produkt, denn bei Chips (und das sollte doch hier eig jeder wissen) steigt die Leistung im Grenzbereich nicht linear mit dem Stromverbrauch, sondern das genaue Gegenteil.
Wenn es von AMD eine 300W Karte gibt die 5-10% langsamer ist, ist diese natürlich in beinahe allen Lagen die bessere Wahl.
Aber echt mal die Frage: Wie soll denn das gekühlt werden in einem Referenzdesign?
Troyan
2022-06-19, 09:56:58
Autovergleiche mal außen vor, eine 800W GPU ist in jedem Fall ein schlechtes Produkt. Vor allem wenn es Konkurrenz gibt die deutlich weniger verbraucht.
Aber echt mal die Frage: Wie soll denn das gekühlt werden in einem Referenzdesign?
Mal davon abgesehen, dass es keine 800W geben wird: Wenn man 5x schneller als die 450W Konkurrenz ist, ist man mehr als doppelt so effizient. :freak:
OCmylife
2022-06-19, 11:29:05
AD102 bei 800-900W? Hat Lederjacke jetzt komplett den Verstand verloren? X-D
Die 800 Watt halte ich genauso übertrieben wie die doppelte Leistung, von der teilweise ausgegangen wird. Abwarten und Tee trinken.
Troyan
2022-06-19, 11:38:28
Warum sollte doppelte Leistung nicht drin sein? nVidia macht einen 2 Fullnode Sprung. Hopper ist ca. 1,9x effizienter als HPC-Ampere und Gaming-Ampere liegt bei 1,4x bei Rasterizing und 1,6x bei Raytracing.
Neurosphere
2022-06-19, 11:41:28
Die 800 Watt halte ich genauso übertrieben wie die doppelte Leistung, von der teilweise ausgegangen wird. Abwarten und Tee trinken.
Das ist vom Referenzplatinendesign die maximale TDP die NV zulässt. Das sagt erstmal rein garnichts aus, wenn man es wirklich vergleichen möchte, müsste man wissen wo dieses Limit bei der 3090 Ampere-Referenzplatine gelegen hat.
Auf die Schnelle finden konnte ich nichts, aber das ganze wird vermutlich auch schon bei 600 Watt+ gelegen haben. Bei dem Board der 3090 TI würde es mich nicht wundern wenns auch schon die 800 Watt sind.
Generell kann man davon ausgehen das NV mit der Leistunsgaufnahme nach oben geht, aber nicht so weit wie die Zahlen die grad rum gehen. Das sind irgendwelche Werte von den Fertigern usw.. Wir wissen nicht was dahinter steckt und es wird ohne Bewertung in die Welt posaunt.
BlacKi
2022-06-19, 11:48:55
Autovergleiche mal außen vor, eine 800W GPU ist in jedem Fall ein schlechtes Produkt, denn bei Chips (und das sollte doch hier eig jeder wissen) steigt die Leistung im Grenzbereich nicht linear mit dem Stromverbrauch, sondern das genaue Gegenteil.
Wenn es von AMD eine 300W Karte gibt die 5-10% langsamer ist, ist diese natürlich in beinahe allen Lagen die bessere Wahl.
Aber echt mal die Frage: Wie soll denn das gekühlt werden in einem Referenzdesign?
die 800w karte wird schon noch skalieren. mehr als nur 5-10%.
betrachtet es mal von der seite aus. die 3080 hatte nur ca 10% weniger verbrauch, aber 20% weniger rechenleistung als die 3090. die 3090 taktet effizienter bei 350w. selbst 400w tdp haben bei der karte eine powerlimitierung gehabt. das ging einigen so weit auf den keks, das man 500w bios rausgebracht hat. und dann mit guter wakü, war immernoch eine powerlimiterung vorhanden. es gab einen bencher der mit shunt mod die karte mit 800w+ betrieben hat. eine salvage karte.
ich finde nicht, das ein noch leistungsstärkerer chip, stärker durch ein power limit gebunden werden sollte.
wie gesagt, wenn die leistungsverdoppelung stimmt, dann kann man mit einer leistungsklasse darunter immernoch gute leistungssprünge machen, ohne das die tdp steigt. statt 4070 kauft man halt eine 4060 oder 4060ti, mit der tdp von ungefähr einer 3070, aber mit 50-60% mehr leistung.
OCmylife
2022-06-19, 12:05:06
Warum sollte doppelte Leistung nicht drin sein? nVidia macht einen 2 Fullnode Sprung. Hopper ist ca. 1,9x effizienter als HPC-Ampere und Gaming-Ampere liegt bei 1,4x bei Rasterizing und 1,6x bei Raytracing.
Also wenn ich gerade nicht auf dem Schlauch stehe(davon will ich mich nicht frei sprechen), dann liegt der Performance Gewinn von einer auf die nächste Generation immer so bei 30-40% grob über den Daumen gepeilt. Da dann von doppelter Leistung auszugehen klingt einfach viel zu gut um wahr zu sein(wenn man den Stromverbrauch jetzt mal außer Acht lässt). Man lässt sich ja auch immer etwas Spielraum für die kommende Generation. Und dann ist noch die Frage, ob die Leistung auch auf die Straße gebracht werden kann, oder an einem Bottleneck wie Temperatur, Bandbreite oder ähnlichem krankt.
Ich bin einfach nur skeptisch und würde mich freuen, wenn wir vom Gegenteil überzeugt werden.
Nightspider
2022-06-19, 12:10:24
Du stehst nicht nur auf dem Schlauch, du hast ihn um die Füße gewickelt.
Neurosphere
2022-06-19, 12:43:53
Du stehst nicht nur auf dem Schlauch, du hast ihn um die Füße gewickelt.
Generell unrecht hat er aber nicht das die derzeitigen Leistungsdaten die so kursieren sehr hoch gegriffen sind und man erstmal abwarten muss was wirklich bei rum kommt. Sowohl bei NV als auch bei AMD!
Linmoum
2022-06-19, 12:46:05
Was ist denn da zu hoch gegriffen? Der SM-Count sämtlicher Ada-Chips ist durch den Leak bei NV bereits bekannt. Die einzige Frage ist nur, wie stark NV die Chips anfangs beschneidet.
Redneck
2022-06-19, 12:49:17
Sollte die Info zum Verbrauch stimmen, ist es eine Fehlkonstruktion.. Da gibt es nichts zu beschönigen.
Das Produkt muss möglichst maximal kompatibel sein mit bestehender Hardware. Bei den kolportierten Watt Angaben, ist eine einwandfreie Funktionen in einem Großteil der User Gehäuse wahrscheinlich nicht mehr gegeben. So einen Fail wird es imho nicht geben. Daher zweifle ich die Gerüchte auch stark an.
ChaosTM
2022-06-19, 12:55:04
Sollte die Info zum Verbrauch stimmen, ist es eine Fehlkonstruktion.. Da gibt es nichts zu beschönigen.
Das Produkt muss möglichst maximal kompatibel sein mit bestehender Hardware. Bei den kolportierten Watt Angaben, ist eine einwandfreie Funktionen in einem Großteil der User Gehäuse wahrscheinlich nicht mehr gegeben. So einen Fail wird es imho nicht geben. Daher zweifle ich die Gerüchte auch stark an.
Bei 2,5k Neupreis spricht man eh nur mehr ein ganz kleine Gruppe von Spielern an und die ist bereit schnell mal ein 1500Watt Netzeil zu kaufen. Auch schon wurscht.
Neurosphere
2022-06-19, 12:58:59
Was ist denn da zu hoch gegriffen? Der SM-Count sämtlicher Ada-Chips ist durch den Leak bei NV bereits bekannt. Die einzige Frage ist nur, wie stark NV die Chips anfangs beschneidet.
Der SM Count alleine sagt aber nicht wirklich viel über die Endleistung aus. Erstmal steht es da auf dem Papier 128 SC für Ada gegen 84 SC für Ampere. Das sind rund 50% mehr. Wieviel hat NV an den SC letzten endes geändert, wie gut sind sie auszulasten? Welchen Takt schafft der Chip und wie gut skaliert er? Was bringt der große L2 in Games? Wieviel Power gibt NV dem Chip und wie gut skaliert er mit der Leistungsaufnahme? usw. usw.
Schwierig ist halt gerade hier die Leistungsaufnahme zu bewerten da NV von Samsung kommt und keiner wirklich sagen kann wie schlecht deren Prozess nun wirklich gegen TSMC 7nm war.
Von daher, alles im Bereich des Möglichen, aber was letzten Endes dabei in FPS rum kommt muss man abwarten.
OgrEGT
2022-06-19, 13:00:51
(...)
es gab einen bencher der mit shunt mod die karte mit 800w+ betrieben hat. eine salvage karte.
(...)
Hast Du da einen Link dazu? Wie hat er die 800W gekühlt? Mit Kompressor oder LN2?
Was soll das gejammer die ganze Zeit? Es wird doch genug gute kleine Karten mit 300W TDP oder geringer geben. Dann bleibt wenigstens ein 800W Exemplar für mich alten weißen Mann, der gerne seine 35 Megapixel mit 90 FPS gerendert hätte :P
Redneck
2022-06-19, 13:20:36
Bei 2,5k Neupreis spricht man eh nur mehr ein ganz kleine Gruppe von Spielern an und die ist bereit schnell mal ein 1500Watt Netzeil zu kaufen. Auch schon wurscht.
Geht nicht nur ums NT.. Die Abwärme wird die restlichen Komponenten mit stressen und das Gehäuse muss auch mitspielen. Denke Kopi irrt sich hier genauso wie mit den vorher von ihm genannten release dates
Redneck
2022-06-19, 13:24:43
Was soll das gejammer die ganze Zeit? Es wird doch genug gute kleine Karten mit 300W TDP oder geringer geben. Dann bleibt wenigstens ein 800W Exemplar für mich alten weißen Mann, der gerne seine 35 Megapixel mit 90 FPS gerendert hätte :P
Eben.. Dann brauchst du auch keine Angst haben vor den Gaspreis Erhöhungen. Du heizt dann ja indirekt mit Strom.
In einer Zeit, in der diskutiert wird welche Raumtemperatur Mietern zuzumuten ist, muss man unfreiwillig über so ein Gebaren schmunzeln.. Muss am Ende jeder selber wissen.
AffenJack
2022-06-19, 13:25:18
Sollte die Info zum Verbrauch stimmen, ist es eine Fehlkonstruktion.. Da gibt es nichts zu beschönigen.
Das Produkt muss möglichst maximal kompatibel sein mit bestehender Hardware. Bei den kolportierten Watt Angaben, ist eine einwandfreie Funktionen in einem Großteil der User Gehäuse wahrscheinlich nicht mehr gegeben. So einen Fail wird es imho nicht geben. Daher zweifle ich die Gerüchte auch stark an.
Mal abgesehen davon, dass ich bei den Infos gerade sehr vorsichtig wäre. Gerade sind 2x 3090 Leistung bei 450W im Gespräch, das ist zwar ne Menge, aber eben auch ein verdammt großer Leistungssprung. ne Fehlkonstruktion sehe ich da nicht.
Die 800W usw, die rumschwirren sind sogar laut Leaker irgendwelche Chip Limits, wo niemand weiß, wie hoch die bei Ampere waren. Sicherlich niedriger, aber man kann da viel zu wenig Aussagen treffen.
ChaosTM
2022-06-19, 13:25:45
Was soll das gejammer die ganze Zeit? Es wird doch genug gute kleine Karten mit 300W TDP oder geringer geben. Dann bleibt wenigstens ein 800W Exemplar für mich alten weißen Mann, der gerne seine 35 Megapixel mit 90 FPS gerendert hätte :P
Das ist auch legitim. Ich bleib da weil bei meinen 12 8 Megapixels. Das geht auch mit einer 165 Watt mobilen Karte ganz anständig dank DLSS und FSR.
@ redneck - ja. Aber wie gesagt.: High End Gamer kratzt das nicht.
Redneck
2022-06-19, 14:02:37
Mal abgesehen davon, dass ich bei den Infos gerade sehr vorsichtig wäre. Gerade sind 2x 3090 Leistung bei 450W im Gespräch, das ist zwar ne Menge, aber eben auch ein verdammt großer Leistungssprung. ne Fehlkonstruktion sehe ich da nicht.
Die 800W usw, die rumschwirren sind sogar laut Leaker irgendwelche Chip Limits, wo niemand weiß, wie hoch die bei Ampere waren. Sicherlich niedriger, aber man kann da viel zu wenig Aussagen treffen.
Wenn ich etwas kaufe, habe ich auch die bescheidene Anforderung, das das Teil mit den offerierten Specs läuft, ohne das ich den computer erst noch darum herum bauen oder modifizieren muß. Plug and play und nicht build and play. Das mag im obersten Enthusiasten odrr Oclocker Klientel machbar sein, die meisten wollen aber nicht alles vorher gebaute über den Haufen werfen, weil eine neue Komponente damit nicht stabil betreibbar ist.
Linmoum
2022-06-19, 14:18:28
Wenn jemand eine 3090 (Ti)/4090 kauft, dann gehe ich aber trotzdem auch mal davon aus, dass das nicht unbedingt ein 0815-Otto und DAU ist, der absolut Null Plan von der Materie hat. Das wäre erst einmal meine Anforderung in dieser Preis- und Leistungsklasse.
Sieht nach unten dann entsprechend anders aus, aber da sind wir auch weit, weit entfernt von den (kolportierten) Verbräuchen einer 4090 oder aktuell 3090 Ti und da "muss" man dann auch selbst rumbasteln.
Nvidia weiß, dass die absoluten Enthusiasten nach oben hin Leistung wollen. Und noch mehr Leistung. Die kriegen sie mit höherem Verbrauch und es stört sie nicht. Ganz davon ab, dass die Effizienz halt trotzdem deutlich besser wird.
Thunderburne
2022-06-19, 14:24:26
Was soll das gejammer die ganze Zeit? Es wird doch genug gute kleine Karten mit 300W TDP oder geringer geben. Dann bleibt wenigstens ein 800W Exemplar für mich alten weißen Mann, der gerne seine 35 Megapixel mit 90 FPS gerendert hätte :P
Ich glaub da brauchst du dir keine Sorgen machen keine Karte von ab zu bekommen.
Da hier von der Titan Variante mit 48GB auszugehen ist werden da nur die wenigsten bei über 3000 Euro zu greifen!
Auch die 4090 sollte mit um die 2000+ gut erhältlich sein aber da bekommst die 800W wohl möglich nur als Custom hin mit OC bzw Shunt Mod oder anderem Bios.
BlacKi
2022-06-19, 14:39:33
also wenn die 800w ada karte kommt, dann wohl mit AIO. und wenn man eine AIO so montiert, das die lüfter die wärme rausblasen bevor die wärme, ja auch 800w, sich im gehäuse verteilen können. dann ist das durchaus auch bei schlechten gehäusen möglich 800w problemlos zu betreiben.
man braucht dafür dann keinen big tower mit 10 lüfter und mehr.
Hast Du da einen Link dazu? Wie hat er die 800W gekühlt? Mit Kompressor oder LN2?
ln2 spart strom. klar willst du dort auch keine limitierung, aber eine 3090 bei 2190mhz unter wasser braucht mehr als eine 3090 bei 2300mhz unter ln2, weil auch die benötigte voltage niedriger ist.
hier zeigt er die karte und den umbau auf wasser
https://youtu.be/RyZM3fSrSn8
hier zeigt er benchmarks und erklärt einiges zum scaling von takt und power.
https://youtu.be/srPXcaH0zNQ
hatte ich falsch abgespeichert, er hat ein 800w mod und die karte zieht selbst 700w, wie er es sagt.
ChaosTM
2022-06-19, 14:42:19
Skaliert super mit den extra 250 Watt. 5% :D
Redneck
2022-06-19, 14:52:21
Wenn jemand eine 3090 (Ti)/4090 kauft, dann gehe ich aber trotzdem auch mal davon aus, dass das nicht unbedingt ein 0815-Otto und DAU ist, der absolut Null Plan von der Materie hat. Das wäre erst einmal meine Anforderung in dieser Preis- und Leistungsklasse.
Sieht nach unten dann entsprechend anders aus, aber da sind wir auch weit, weit entfernt von den (kolportierten) Verbräuchen einer 4090 oder aktuell 3090 Ti und da "muss" man dann auch selbst rumbasteln.
Nvidia weiß, dass die absoluten Enthusiasten nach oben hin Leistung wollen. Und noch mehr Leistung. Die kriegen sie mit höherem Verbrauch und es stört sie nicht. Ganz davon ab, dass die Effizienz halt trotzdem deutlich besser wird.
Genau.. Und die meisten, die sich einen Supersportwagen kaufen sind auch ausgebildete Rennfahrer..
Die karten werden an jeden verkauft, der die Scheine dafür auf den Tisch legt und wenn die dann nicht out of the Box funktionieren ist das Geschrei und der Frust groß.
Daher gehe ich nicht von so einem Szenario aus. Kein Hersteller möchte sich den Ruf so kaputt machen.
Weltraumeule
2022-06-19, 14:55:35
Bekomme ich eine 4060 mit max. 200 w? Und wird sie im Vergleich zur jetzigen 3060 spürbar schneller sein?
Möchte auf 1440p mit DSLLS /FSR gerne 60fps in modernen Spielen haben. Eigentlich 120fps aber dass muss ich wohl vergessen :(
Mit Leuten welche sowas wie die 3090/4090 und 400 w oder höher kaufen, habe ich privat keinen Kontakt. Ist das selbe wie Corona-Leugner etc. Sowas meide ich im privaten Umgang.
WedgeAntilles
2022-06-19, 14:57:53
Mit Leuten welche sowas wie die 3090/4090 und 400 w oder höher kaufen, habe ich privat keinen Kontakt. Ist das selbe wie Corona-Leugner etc. Sowas meide ich im privaten Umgang.
Naja, ich meide eher den Umgang mit Leuten wie dir.
Linmoum
2022-06-19, 15:02:55
Genau.. Und die meisten, die sich einen Supersportwagen kaufen sind auch ausgebildete Rennfahrer..Ich setze zumindest voraus, dass sie in der Lage sind, einen solchen Wagen auch bei entsprechend hohem Tempo und ggf. herrschenden Witterungsbedingungen unter Kontrolle zu halten, ja.
Die karten werden an jeden verkauft, der die Scheine dafür auf den Tisch legt und wenn die dann nicht out of the Box funktionieren ist das Geschrei und der Frust groß.Und was "funktioniert" bei einer 4090 mit möglichen >=450W nicht out of the box? :confused: Verhindert der Verbrauch einen reibungslosen Betrieb?
Daher gehe ich nicht von so einem Szenario aus. Kein Hersteller möchte sich den Ruf so kaputt machen.Erst einmal hast du bei 450W und - nehmen wir es mal an - doppelter Performance ggü. einer 3090 mit 350W einen massive Effizienzsprung. Der absolute Verbrauch ist nur eine Seite der Medaille.
Mit immer noch sehr gutem Perf/Watt-Verhältnis (was der Fall wäre) macht sich davon ab doch kein Hersteller seinen Ruf kaputt. Das sieht vielleicht etwas anders aus, wenn die Konkurrenz dasselbe bei dann nur <350W schafft. Aber das kann man ins Reich der Fabeln verweisen.
Redneck
2022-06-19, 15:15:25
Ich schaue auf die 800er Linmoum.. Da habe ich meine starken Zweifel, ob das ootb so funktioniert.
450 ist auch viel, aber sicherlich besser beherrschbar als 800.
Mir geht es auch nicht um die Effizienz, sondern um die garantierte Einsatzfähigkeit.
Gott1337
2022-06-19, 15:27:57
Mit Leuten welche sowas wie die 3090/4090 und 400 w oder höher kaufen, habe ich privat keinen Kontakt. Ist das selbe wie Corona-Leugner etc. Sowas meide ich im privaten Umgang.
ganz schön asoziale Aussagen, eigentlich schon sehr extrem. Es geht hier um Grafikkarten und du sortierst diese Menschen in deinem Umfeld aus? WEGEN EINER GPU? ;D das ist nicht normal, GANZ weit weg davon.
Und das soll keine Beleidigung sein, einfach die Wahrheit.
Weltraumeule
2022-06-19, 15:38:03
ganz schön asoziale Aussagen, eigentlich schon sehr extrem. Es geht hier um Grafikkarten und du sortierst diese Menschen in deinem Umfeld aus? WEGEN EINER GPU? ;D das ist nicht normal, GANZ weit weg davon.
Und das soll keine Beleidigung sein, einfach die Wahrheit.
Ich bin auch nicht normal das weiß ich, bin Misanthrop. Es geht nicht nur um eine GPU, sondern das sind Leute mit einer ganz egoistischen, hedonistischen Einstellung. Egal ob GPU, Sportwagen oder was auch immer. Immer nur ich ich ich, Umwelt, Klimawandel, alles egal, Hauptsache die haben ihren Spaß. Und mit sowas meide ich jeglichen Kontakt.
Thunderburne
2022-06-19, 15:55:21
Ich frag mich warum die Leute sich so über den Verbrauch aufregen ?
Ihr redet hier über 2000-4000 Euro Karten .
Mit der 4080 und 4070 bekommt ihr auch weniger hungrigere Karten !
Und selbst wen FPS Limit bei gewünschter Average FPS setzen undervolting da geht einiges um weniger zu verbrauchen !
Da stellt man den Monitor bei einem Single Player halt mal auf 60HZ mit FPS Limit man muss ja nicht zwingend die 80-1000FPS fahren .
Da gibt es schon Paar Möglichkeiten das ein zu bremsen !
AffenJack
2022-06-19, 16:07:39
Ich schaue auf die 800er Linmoum.. Da habe ich meine starken Zweifel, ob das ootb so funktioniert.
450 ist auch viel, aber sicherlich besser beherrschbar als 800.
Mir geht es auch nicht um die Effizienz, sondern um die garantierte Einsatzfähigkeit.
SLI User haben vor Jahren schon 2x 300W im Gehäuse gehabt und das mit OC auch auf mehr W getrieben. Selbst, wenn irgendwelche völlig überzüchteten Karten mit OC also in die Region kommen, dann ist das nix neues für die Komponenten im Gehäuse für die Gruppe, die damit angesprochen wird. Und das sind nunmal die User die vorher eh schon 600W mit SLI hatten. Dann muss sich der User eben ein Gehäuse für 500€ kaufen. Als wenn das jemand der 2000€ und mehr für die GPU ausgibt noch groß interessieren würde.
Thunderburne
2022-06-19, 16:14:25
SLI User haben vor Jahren schon 2x 300W im Gehäuse gehabt und das mit OC auch auf mehr W getrieben. Selbst, wenn irgendwelche völlig überzüchteten Karten mit OC also in die Region kommen, dann ist das nix neues für die Komponenten im Gehäuse für die Gruppe, die damit angesprochen wird. Und das sind nunmal die User die vorher eh schon 600W mit SLI hatten.
Jup mein Quadfire hat es bei BF3 auf 1200 W gebracht !
Oder 2*580 mit Oc knapp 1000W das gesamt System.
Aber es stimmt schon wen der Strom auf 60 Cent geht muss das heute nicht mehr sein aber es gibt halt Alternativen das zu minimieren oder gar zu unterbinden wen einem das zu teuer wird!
Da wie schon erwähnt die 4090/TI Titan wohl möglich eh im Bereich von 2000-4000 Euro liegen gibt es da eh erstmal Finanzielle Hürden die man erstmal nehmen muss das macht es schon mal für viele einfacher nicht ganz oben ins Regal zu greifen !
Denke mal so eine 4080 wird bestimmt bei knapp 900-1000 Euro starten das ist für viele schon hart!
nordic_pegasus
2022-06-19, 16:17:20
Ich bin auch nicht normal das weiß ich, bin Misanthrop. Es geht nicht nur um eine GPU, sondern das sind Leute mit einer ganz egoistischen, hedonistischen Einstellung. Egal ob GPU, Sportwagen oder was auch immer. Immer nur ich ich ich, Umwelt, Klimawandel, alles egal, Hauptsache die haben ihren Spaß. Und mit sowas meide ich jeglichen Kontakt.
offtopic
nur mal als Denkanstoss. Vielleicht nicht immer nur den ökologischen Impact eines Gegenstandes auf den Verbrauch bei der Nutzung reduzieren.
Egal ob ich eine GTX1660Super oder eine RTX3090Ti kaufe, beide benötigen Rohstoffe und Energie bei der Produktion, Transport zum Kunden, Verpackung, etc. Und am Ende muss ist beides Elektroschrott, wobei eine jetzt Low-End Karte mutmaßlich schneller oboslet sein wird als eine heutige High-Ende Karte. Ob jetzt ein paar mehr Spannungswandler und RAM-Module auf einer 3090Ti den Kohl fett machen, sei mal dahingestellt.
Das hingegen eine High-End Karte unter Last (wieviele Stunde werden Gaming-Karten tatsächlich im Schnitt pro Tag unter Volllast betrieben?) mehr verbraucht, spielt in der Gesamt-Ökobilanz kaum eine Rolle. Zumal man hier auch mit regenerativen Energien arbeiten kann.
Es ist viel mehr die Frage, ob man jedes Jahr ein neues Smartphone, jede Generation eine neue GPU/CPU/Boaord/RAM benötigt und jedes Jahr in Urlaub fliegen muss. Dazu noch billige Kleidung mit Mikroplastik, Stein-Wüsten als Hausgärten, jeden Tag Fleisch, etc.
Am ökologischten ist die Grafikkarte, die gar nicht gebaut wurde, weil keine Nachfrage vorhanden war. Danach steht dann in der Hierarchie die längst-mögliche Nutzung. Erst dann sollte man sich fragen, ob man beim Neukauf ein Modell aus ökologischen Gründen dem anderen vorziehen sollte.
Aber letztlich sind wir hier in einem Enthusiasten-Forum. Viele User hier sehen den PC/Gaming/Technik als Hobby. Wir sind alle nur Menschen, darum muss man jedem sein Laster bzw. Hobby zugestehen. Nur sollte nicht jeder danach streben, alles gleichzeitig haben zu müssen.
Mit Deiner missionierenden Haltung und Predigt von oben herab stößt man nur mehr Menschen vor den Kopf und erzeugt Trotz als das man durchkommt und Verhalten ändert.
Hott3X
2022-06-19, 16:47:33
Das Problem ist doch, das es so wie es aussieht durch die gesamte Palette über die letzten Jahre erhöhten Stromverbrauch gibt. Ich will meine Wohnung nicht mit noch mehr Abwärme aufheizen. Selbst die 2070s hat mir eigentlich schon 50w zuviel.
bbott
2022-06-19, 17:33:53
Das Problem ist doch, das es so wie es aussieht durch die gesamte Palette über die letzten Jahre erhöhten Stromverbrauch gibt. Ich will meine Wohnung nicht mit noch mehr Abwärme aufheizen. Selbst die 2070s hat mir eigentlich schon 50w zuviel.
Der Trend geht zur zweit Klimaanlage. What ever it takes! Mad Max are coming... very soon.
Mangel76
2022-06-19, 18:12:39
Ich frag mich warum die Leute sich so über den Verbrauch aufregen ?
Ihr redet hier über 2000-4000 Euro Karten .
Mit der 4080 und 4070 bekommt ihr auch weniger hungrigere Karten !
Und selbst wen FPS Limit bei gewünschter Average FPS setzen undervolting da geht einiges um weniger zu verbrauchen !
Da stellt man den Monitor bei einem Single Player halt mal auf 60HZ mit FPS Limit man muss ja nicht zwingend die 80-1000FPS fahren .
Da gibt es schon Paar Möglichkeiten das ein zu bremsen !
Und warum 2000-4000 ausgeben, wenn die dann auf die Leistung einer sehr viel günstigeren Variante eingebremst wird?
Aber im Ernst, warum immer mehr Verbrauch? Technischer Fortschritt scheint nicht mehr zu reichen, um die übertriebenen Erwartungen dekadenter Luxusklientel zu befriedigen, die dann für die standesgemäße Penisverlänverung auch diese Preise bezahlen. Klar sind GPUs nur ein "Randphänomen", aber eben auch Ausdruck eines völlig entarteten Kapitalismus. In diesem Sinne verstehe ich die Kritik durchaus. Auf der anderen Seite bin ich mir aber auch ziemlich sicher, dass wir keine Grafikkarte mit 800W sehen werden. Das sind theoretische Maximalwerte, die wohl nicht annähernd erreicht werden. Bei rund doppeltem Verbrauch wird die Leistung sich deutlich mehr als verdoppeln, wenn man die Nodeschritte einbezieht.
Platos
2022-06-19, 18:16:21
Ich bin auch nicht normal das weiß ich, bin Misanthrop. Es geht nicht nur um eine GPU, sondern das sind Leute mit einer ganz egoistischen, hedonistischen Einstellung. Egal ob GPU, Sportwagen oder was auch immer. Immer nur ich ich ich, Umwelt, Klimawandel, alles egal, Hauptsache die haben ihren Spaß. Und mit sowas meide ich jeglichen Kontakt.
Ja, du bist wirklich nicht normal. Ein Extremist, nennt man das. Stolz bist du wahrscheinlich auch noch, dass du dich selbst Misanthrop nennst(?).
Ein Merkmal, das Extremisten wirklich (fast) immer gemein haben, ist, dass sie absolut nicht fähig dazu sind, mit Menschen die andere Ansichten haben zusammenzuleben/umzugehen. Macht sich dann unter anderem so wie bei dir bemerkbar. Hilft der Gesellschaft kein bisschen weiter aber das spielt bei denen ja auch keine Rolle.
Die geilsten sind auch die, die bei WG-Zimmer nur Veganer erlauben. Da passt du 1A in dieses Verhaltensschema.
GrimReaper85
2022-06-19, 18:22:05
3080 12 GB 390W ist überschaubar. Mit 775 mV Undervolt erhalte ich in RT Spielen 250-290W und verliere bis zu 10% gegenüber Stock. Aber das Problem ist jetzt, dass ich kaum die 75 FPS bekomme, also macht Vsync 75Hz nicht viel, 60Hz ein wenig.
Mit 4080, wenn es 60% schneller ist, könnte ich in den derzeit anspruchsvollsten Spielen auf 160-180W herunterkommen.
Im Cyberpunk immer noch nur 60 FPS wenn ich jetzt 40 FPS habe, also nochmal um die 275W. Und das ist nur 1440p und sie werden diese Karte wahrscheinlich als 4K vermarkten. Vielleicht kann 5080 es 4K 60FPS laufen lassen.
Platos
2022-06-19, 18:27:58
Oder du wirfst mal DLSS Quality an. Abgesehen kannst du ja dann beim Afterburner mehrer Profile machen. Beim einen hast du eben 200W und beim anderen 250W oder so. Für Spiele mit mehr Rechenlast dann eben das mit 250W. Man kann auch 3-4 Profile machen.
Ich denke 60 FPS sind mit einer 4080 kein Problem unter 300W. Und wie gesagt, falls es doch mal nicht anders klappt, kann man ja auch mal den einen oder anderen Regler runter drehen bzw. DLSS nutzen.
Aber: Von einer 3080 auf ne 4080 wechseln ist vlt. an sich eine eher ertragslose Aktion (je nach Ansicht). Hängt aber natürlich davon ab, wie gut die dann wird.
Weltraumeule
2022-06-19, 18:29:06
Hilft der Gesellschaft kein bisschen weiter aber das spielt bei denen ja auch keine Rolle.
Die geilsten sind auch die, die bei WG-Zimmer nur Veganer erlauben. Da passt du 1A in dieses Verhaltensschema.
Den Konsum etwas zu beschränken, ob beim Fleischkonsum, Stromverbrauch, Umweltschutz half der Gesellschaft und dem Kampf gegen den Klimawandel bestimmt weiter.
Bzw. meine Einstellung hilft bestimmt weiter als das was WedgeAntilles in seiner Signatur hat. Wohl zu viel Ayn Rand gelesen :rolleyes:
"Der Akt, durch den ein Individuum seiner Güter beraubt wird, heisst Raub, wenn ihn ein anderes Individuum begeht. Und soziale Gerechtigkeit, wenn eine ganze Gruppe plündert" - Nicolas Gomez Davila
"Die perfekte Gleichheit liegt nur im Tod. Deshalb ist der Genozid die Lieblingsbeschäftigung der Gleichmacher." - Roland Baader
"Es ist egal, ob die Wissenschaft der globalen Erwärmung komplett an den Haaren herbeigezogen ist, gibt uns der Klimawandel doch die größte Möglichkeit Gerechtigkeit und Gleichheit in die Welt zu tragen." Christine Stewart
"Nimm das Recht weg – was ist dann ein Staat noch anderes als eine große Räuberbande" - Heiliger Augustinus
"Socialists cry "Power to the people", and raise the clenched fist as they say it. We all know what they really mean—power over people, power to the State." - Margaret Thatcher
Platos
2022-06-19, 18:46:43
Jaja, zuerst von Personen meiden reden und jetzt "etwas Fleischkonsum beschränken".
Ganz unterschiedliche Sachen. Aber ganz schnell weichst du deiner vorherigen Aussagen aus ;)
Und nein, deine Einstellung hilft der Gesellschaft gar nicht weiter. Was andere treiben ändert genau gar nichts daran. Leute wie du treiben genau einen Keil zwischen die Gesellschaft und tragen nichts bei. Das ist aber bei Extremisten (ideologen) immer der Fall. Denken, sie retten die Welt, tun aber genau das Gegenteil.
Du musst auch gar nicht weiter auf Klimwandel, Fleisch usw eingehen. Das spielt nämlich gar keine Rolle bei deiner vorherigen Aussage und Einstellung (um die es ging).
AffenJack
2022-06-19, 18:59:56
Das Problem ist doch, das es so wie es aussieht durch die gesamte Palette über die letzten Jahre erhöhten Stromverbrauch gibt. Ich will meine Wohnung nicht mit noch mehr Abwärme aufheizen. Selbst die 2070s hat mir eigentlich schon 50w zuviel.
Abwarten, wieviel es wirklich wird. Ampere liegt bis auf einige Ausreißer (3070Ti) ja insgesamt von der Architektur grob in einem Effizienzbereich +-10%. Nun wird 450W bei 2x 3090 Geschwindigkeit spektuliert. 3090 hat 350W, also sind wir bei +55% Perf/W.
Ganz grob auf andere Karten übertragen, bei 350W für eine 4080 sollte diese also auch +50-55% Geschwindigkeit gegenüber der 3090 erhalten. Ne 4070 mit 300W sollte +40-45% schneller als eine 3080 mit 320W TDP sein.
Glaubwürdig? Ich glaube nicht dran. Mit AD104 werden das nur 192 Bit Speicherinterface, dazu hieß es dann, dass nur GDDR6 und nicht GDDR6X verwendet wird. Ich erwarte weniger TDP und weniger Geschwindigkeitssteigerung für die 4070.
The_Invisible
2022-06-19, 19:00:06
Oder du wirfst mal DLSS Quality an. Abgesehen kannst du ja dann beim Afterburner mehrer Profile machen. Beim einen hast du eben 200W und beim anderen 250W oder so. Für Spiele mit mehr Rechenlast dann eben das mit 250W. Man kann auch 3-4 Profile machen.
Ich denke 60 FPS sind mit einer 4080 kein Problem unter 300W. Und wie gesagt, falls es doch mal nicht anders klappt, kann man ja auch mal den einen oder anderen Regler runter drehen bzw. DLSS nutzen.
Aber: Von einer 3080 auf ne 4080 wechseln ist vlt. an sich eine eher ertragslose Aktion (je nach Ansicht). Hängt aber natürlich davon ab, wie gut die dann wird.
Problem ist die Anforderungen der Games steigen auch bzw hätte man das Argument auch bei der 3080er bringen können. Wenn die 4080er "nur" 350W verbrät und dafür >50% mehr liefert als 3090Ti wäre ich auch schon zufrieden, am besten wären so 300W.
Platos
2022-06-19, 19:46:35
Ja aber das Argument kann man ja auch schon bei der 3080 bringen, nur wird es (spätestens mit RT On) hald dann nicht bei allen Spielen funktionieren bzw müsste man neben DLSS auch die Grafiksettings (noch) stärker runter drehen.
Aber klar, wenns einem zu wenig Mehrleistung ist, dann sollte man nicht kaufen. Ich würde z.B niemals nach nur einer Generation schon umsteigen. Aber wenn man ja jetzt schon mit ner 3080 leben kann, dann geht das bestimmt auch mit einer 4080, wenn ein 2 Jahresrhytmus normal ist in seinem Kaufverhalten.
Ich meinte mehr, das man sich (für sich selbst) eher von dem "Zwang" immer alle auf oberster Stufe zu spielen verabschieden sollte. Das führt nur zu dem Gefühl, dass man nie "das beste" Erlebnis hat und überdeckt dann das eigentliche Spielerlebnis. Weil man wird auf (in dieser Zeit) hohen Auflösungen nie alles auf Anschlag bei 60FPS spielen können.
Und wie gesagt: Wenn man jetzt mal bei ein paar wenigen Ausnahmen die GPU hald auf 250-300W hochdreht, ist das auch nicht soo schlimm, wenn es nur bei einzelnen Ausreisser-Spielen vorkommt.
Hott3X
2022-06-19, 19:56:38
Früher gab es Karten die Overclockingspielraum hatte und im sweetspot liefen. Jetzt sind alle Karte nur noch extrem ineffizient.
Ich habe ja nicht mal ein Problem 1000€ für eine Karte zu zahlen. Aber dann selber noch Zeit zu investieren und hoffen, dass ich die Karte gut undervolten kann. Nein Danke.
Diese ganze Situation finde ich halt sehr fragwürdig. Ich hatte die gtx1080 die lief default mit 180w, dann bin ich jetzt auf die 2070s welche trotz einer Stufe kleiner schon nur mit uv auf unter 200w läuft und bei der 4060 bin ich nicht mal sicher ob die unter 200w kommen wird. Super Entwicklung.
ChaosTM
2022-06-19, 20:32:05
Problem ist die Anforderungen der Games steigen auch bzw hätte man das Argument auch bei der 3080er bringen können. Wenn die 4080er "nur" 350W verbrät und dafür >50% mehr liefert als 3090Ti wäre ich auch schon zufrieden, am besten wären so 300W.
300 Watt für 150% 3090er Leistung wäre schon fein, kommt mir aber etwas viel vor.
Slipknot79
2022-06-19, 21:36:50
Ich bin auch nicht normal das weiß ich, bin Misanthrop. Es geht nicht nur um eine GPU, sondern das sind Leute mit einer ganz egoistischen, hedonistischen Einstellung. Egal ob GPU, Sportwagen oder was auch immer. Immer nur ich ich ich, Umwelt, Klimawandel, alles egal, Hauptsache die haben ihren Spaß. Und mit sowas meide ich jeglichen Kontakt.
Soweit ich weiß, kostet so nen Lambo dicke Kohle und somit auch dicke Steuern die dran hängen.
Weiß jetzt ned, wo es eogistisch ist, wenn durch den Lambo das ein oder andere Studium eines jungen Menschen finanziert wird. oO
Außerdem, was soll das Problem an Hedonismus sein? Finde nix schlechtes daran, dass es Menschen gibt, die keine Probleme mit Zugang zu ihren Emotionen haben.
RTX 4090 all-in und gut ist. (y)
Gott1337
2022-06-19, 22:09:35
300 Watt für 150% 3090er Leistung wäre schon fein, kommt mir aber etwas viel vor.
die 3090ti ist mit 300 watt nur 12% langsamer, dazu kommen 2 fullnodes und noch optimierungen...
Rancor
2022-06-20, 14:33:54
https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/Videos/Pcgh-News-1397281/
....Videocardz berichtet, dass die Geforce RTX 4000 verschoben wird. Nvidia habe Nachrichten an die Partner versandt, in denen der Release auf unbestimmte Zeit ausgesetzt ist
:uponder:
Troyan
2022-06-20, 14:49:36
Kann nur das hier sein: https://videocardz.com/newz/nvidia-geforce-gtx-1630-delayed-rtx-40-series-launch-slips-by-a-month
Und da bezieht man sich auf die GTX1630.
Platos
2022-06-20, 15:01:09
Das bezieht sich einfach auf die Verschiebung von August auf September. Also eine schon lange bekannte Info.
Linmoum
2022-06-20, 15:31:48
Das bezieht sich eindeutig auf die 1630. PCGH ist nur mal wieder zu unfähig, richtig abzuschreiben.
Platos
2022-06-20, 23:51:41
Das bezieht sich eindeutig auf die 1630. PCGH ist nur mal wieder zu unfähig, richtig abzuschreiben.
Ich meinte das hier: Furthermore, an update to RTX 40 series launch dates has been issued. Although we have already reported after Wccftech that the launch date has been pushed back by a month, we wanted to confirm this information with as many sources as possible first. According to the latest information, the launch has indeed been delayed by a month for RTX 4090 from August to September, RTX 4080 to October and RTX 4070 to November. Importantly, this does not rule out a possible announcement sooner.
Ist wie gesagt ja schon länger bekannt (steht da ja auch).
Linmoum
2022-06-21, 00:15:18
Ich meinte auch das Zitat von Rancor. PCGH schreibt dort eindeutig im Zusammenhang mit Ada, dass dies auf unbestimmte Zeit verschoben würde. Davon war nur und ist nur nie die Rede. Das schreibt VCZ nämlich explizit für die 1630.
Aber Qualität gibt's bei PCGH sowieso nicht mehr in Bezug auf 99,9% der Newsartikel.
Gott1337
2022-06-21, 04:41:45
Ich meinte auch das Zitat von Rancor. PCGH schreibt dort eindeutig im Zusammenhang mit Ada, dass dies auf unbestimmte Zeit verschoben würde. Davon war nur und ist nur nie die Rede. Das schreibt VCZ nämlich explizit für die 1630.
Aber Qualität gibt's bei PCGH sowieso nicht mehr in Bezug auf 99,9% der Newsartikel.
dazu wird auch noch geschrieben das die Titan mehr als 800 Watt saufen soll, obwohl 800 Watt die absoluten Lastspitzen sind, ergo die TDP gar nicht in der nähe von 800 Watt sein dürfen. Ist schon wirklich meh
BlacKi
2022-06-21, 10:36:57
die tdp limits werden schon so gewählt, das sie einen zweck haben.
ich denke zwar, das es einzelne spiele geben wird, die die tdp nicht ausschöpfen können werden. aber andere spiele dagegen schon. und zwar dauerhaft.
ich kenne auch spiele, die meine 3060 mit stock voltage und clocks die 170w nicht ausreizen. call of duty gammelt bei 150w von 170w herum. pubg dagegen braucht das powertarget so stark auf, das selbst die anhebung auf 190w nicht reicht um die boost clocks des boost tables auszufahren.
ich gehe stark davon aus, das die 800w ohne tdp erweiterung in einigen spielen nicht ausreichen werden um den boosttable auszufahren, d.h. die 800w werden die gpu drosseln. dafür ist das powerlimit da.
dargo
2022-06-21, 10:45:56
Nicht gleich übertreiben, die 800-900W beziehen sich auf die max. Power die das Board verkraften muss. Das Boarddesign muss logischerweise immer X% stärker ausgelegt sein. Wenn NV aber so hoch gehen muss denke ich schon, dass das PT bei AD102 durchaus 500-600W betragen kann. Tendenz eher zu den 600W.
Edit:
Die MSI GeForce RTX 3090 Ti SUPRIM X erreicht in der Spitze 600W, säuft aber im Schnitt 466W (4k). Könnte ein guter Anhaltspunkt sein.
https://www.igorslab.de/msi-geforce-rtx-3090-ti-suprim-x-im-test-heisses-eisen-oder-nur-ein-testlauf-fuer-die-geforce-rtx-4090/13/
Wir wissen auch nicht auf was genau sich diese Lastspitzen beziehen. Eine 3090FE säuft auch mal 574W wenn das Pooling sensibel genug eingestellt ist. ;)
https://www.igorslab.de/nvidia-geforce-rtx-3090-founders-edition-review-zwischen-mehrwert-und-vermeintlicher-dekadenz-wenn-der-preis-nicht-alles-ist/16/
Im besten Fall beziehen sich also diese 800-900W auf <1ms.
BlacKi
2022-06-21, 11:00:22
nö, das sind 800w dauerlast weil tdp. zumindest bei den testboards, die 800w waren sicherlich im bios hinterlegt. was dann tatsächlich wirklich kommt weiß nur nv.
dargo
2022-06-21, 11:02:54
Dann bleibe ich dabei... Lederjacke hat völlig den Verstand verloren. ;D
Linmoum
2022-06-21, 11:17:51
Er weiß, dass die Leute da oben nur Leistung interessiert. Mehr und noch mehr. Solange man das PL selbst aufdrehen kann, ist das halb so wild. Wer dann mehr Leistung will nutzt das, wer nicht halt nicht.
Optionen zu haben ist immer besser als keine zu haben. Hat mich bei AMD schon genervt, dass man nicht mehr ohne Umwege die +50% einstellen kann.
Cubitus
2022-06-21, 11:24:05
Er weiß, dass die Leute da oben nur Leistung interessiert. Mehr und noch mehr. Solange man das PL selbst aufdrehen kann, ist das halb so wild. Wer dann mehr Leistung will nutzt das, wer nicht halt nicht.
Optionen zu haben ist immer besser als keine zu haben. Hat mich bei AMD schon genervt, dass man nicht mehr ohne Umwege die +50% einstellen kann.
Das ist halt so wie seinen Ferrari mit 10 Liter auf der Autobahn zu fahren.
Aber ja, ich habe mir das schon bei meiner 3090er angewöhnt.
Die ist sowieso uv, aber bei älteren Games oder mit DLSS-Support habe ich ein Profil mit 80% PT.
Wird dann je nach Bedarf nach oben oder unten verschoben, falls das Spiel nicht wie gewünscht läuft bzw. zu viel Leistung will.
Also die Wahl zu haben ist immer besser.
Preislich wird eine 4090 halt komplett over the Top sein, wer 2600-3000 Euro für ne GPU ausgeben will.. RockOn :freak:
Nicht gleich übertreiben, die 800-900W beziehen sich auf die max. Power die das Board verkraften muss. Das Boarddesign muss logischerweise immer X% stärker ausgelegt sein. Wenn NV aber so hoch gehen muss denke ich schon, dass das PT bei AD102 durchaus 500-600W betragen kann. Tendenz eher zu den 600W.
Edit:
Die MSI GeForce RTX 3090 Ti SUPRIM X erreicht in der Spitze 600W, säuft aber im Schnitt 466W (4k). Könnte ein guter Anhaltspunkt sein.
https://www.igorslab.de/msi-geforce-rtx-3090-ti-suprim-x-im-test-heisses-eisen-oder-nur-ein-testlauf-fuer-die-geforce-rtx-4090/13/
4K ja ist nice, aber man muss sich halt auch fragen ob es nicht auch 3K tun.
Ich bin eher für einen Monitor mit niedrigerer Auflösung, dafür die Möglichkeit DS zu nutzen, bei Bedarf.
Witcher 3 z.b sieht mit Nvidias optimierten, 5k auf 21:9 einfach sehr geil aus. Meine Karte nimmt sich dabei ~320 Watt, aber so ists nun mal.
rentex
2022-06-21, 11:50:19
Dann bleibe ich dabei... Lederjacke hat völlig den Verstand verloren. ;D
Zeit, für ne ablöse an der Firmenspitze, solange der Laden noch gut läuft;D
dargo
2022-06-21, 12:08:00
Vielleicht ist es Taktik? Erstmal paar Fehlinformationen mit 800-900W streuen. Dann säuft das Teil "nur" 600W und alle sind am jubeln... och ist ja gar nicht so durstig. :biggrin:
BlacKi
2022-06-21, 12:21:08
Dann bleibe ich dabei... Lederjacke hat völlig den Verstand verloren. ;Dein normalo user ist er auf jeden fall nicht.
davon abgesehen ist es keine normale karte. und davon ab, niemand muss eine abnormale karte normal betreiben:biggrin: ich glaub auch nicht das raff die 3090ti mit ihren vollen 450w betreibt.
lederjacke is pushing boundries. keine ahnung, vl wegen konkurenz, oder und wegen moar money? oder weil ein kleiner teil der user danach giert?
Langlay
2022-06-21, 12:24:43
Optionen zu haben ist immer besser als keine zu haben. Hat mich bei AMD schon genervt, dass man nicht mehr ohne Umwege die +50% einstellen kann.
Das ging/geht supereasy per MPT, bei Vega10/20 konnteste einfach den +X% Wert ändern, bei RDNA1 & 2 musste halt Powerlimit hochsetzen.
BlacKi
2022-06-21, 12:35:50
100tf sind bythe way 2,5x 3090ti
w0mbat
2022-06-21, 13:02:10
nö, das sind 800w dauerlast weil tdp. zumindest bei den testboards, die 800w waren sicherlich im bios hinterlegt. was dann tatsächlich wirklich kommt weiß nur nv.
Woher hast du ein Testboard? Bzw. was ist deine Quelle?
BlacKi
2022-06-21, 13:07:27
igor kennt das prinzip wie die testboards getestet werden. hat er mal, oder sogar mehrere male in videos erklärt.
w0mbat
2022-06-21, 13:20:27
Kannst du mal die Quelle verlinken, auf die du dich beziehst? Igor meinte mal was von 600W, woher kommen die 800W TDP?
Linmoum
2022-06-21, 15:00:36
Das ging/geht supereasy per MPT, bei Vega10/20 konnteste einfach den +X% Wert ändern, bei RDNA1 & 2 musste halt Powerlimit hochsetzen.Ich weiß, ich mach das ja selber so bei meiner 6900XT. Früher gingen aber direkt +50%, bis AMD der Meinung war, sie müssten das künstlich auf +15% beschränken.
Rampage 2
2022-06-21, 16:57:39
Bis zu 2.8 GHz und das beim größten Chip (AD102), WTF?? :freak::O
R2
rentex
2022-06-21, 17:29:47
Bis zu 2.8 GHz und das beim größten Chip (AD102), WTF?? :freak::O
R2
Erklärt dann wohl den vermuteten Verbrauch.
dargo
2022-06-21, 18:49:03
Bis zu 2.8 GHz und das beim größten Chip (AD102), WTF?? :freak::O
Brechstange ahoi. :D
w0mbat
2022-06-21, 19:33:42
Ist BlacKi jetzt in der Versenkung verschwunden? Ich wäre an dieser "800W = TDP" Quelle wirklich interessiert!
ChaosTM
2022-06-21, 19:51:23
Wenn er ohne Brechstange nur mit ~ 2,5 läuft und 200+ Watt weniger verbraucht wär mir das auch egal. Die 3090ti lässt sich ja auch zur Not mit halbwegs vernünftigen Verbräuchen betreiben, sollten es das Netzteil oder die Hitze nicht zulassen. Im Winter kann man dann immer noch voll aufdrehen.
Gott1337
2022-06-21, 20:16:20
Wenn er ohne Brechstange nur mit ~ 2,5 läuft und 200+ Watt weniger verbraucht wär mir das auch egal. Die 3090ti lässt sich ja auch zur Not mit halbwegs vernünftigen Verbräuchen betreiben, sollten es das Netzteil oder die Hitze nicht zulassen. Im Winter kann man dann immer noch voll aufdrehen.
halbwegs vernünftiger Verbrauch? die ist mit 300 Watt deutlich effizienter als eine 6900XT und das mit einem älteren Prozess
dargo
2022-06-21, 20:58:00
halbwegs vernünftiger Verbrauch? die ist mit 300 Watt deutlich effizienter als eine 6900XT und das mit einem älteren Prozess
Was ist das denn wieder für ein kruder Vergleich? X-D Du klaust der Karte 150W und dann behauptest du die wäre effizienter als die 6900XT? Was glaubst du denn wie effizient eine 6900XT ist wenn du sie nur noch mit 67% PT (200W) betreibst? :lol:
Gott1337
2022-06-21, 21:21:48
Was ist das denn wieder für ein kruder Vergleich? X-D Du klaust der Karte 150W und dann behauptest du die wäre effizienter als die 6900XT? Was glaubst du denn wie effizient eine 6900XT ist wenn du sie nur noch mit 67% PT (200W) betreibst? :lol:
naja sie ist immernoch schneller und verliert nur 12% leistung, der Vergleich ist von Igor, also beschwer dich bei ihm, danke.
300Watt vs 300 Watt ist Vergleichbar, egal was DU willst.
BlacKi
2022-06-21, 21:23:52
Kannst du mal die Quelle verlinken, auf die du dich beziehst? Igor meinte mal was von 600W, woher kommen die 800W TDP?die 800w kommen vom leaker, der informationen zu den testboards hat. igor hat mal erläutert, wie testboards aussehen und funktionieren. testboards sind im prinzip heizelemente mit fester tdp.
ChaosTM
2022-06-21, 21:24:25
halbwegs vernünftiger Verbrauch? die ist mit 300 Watt deutlich effizienter als eine 6900XT und das mit einem älteren Prozess
Das habe ich niemals bestritten. Es ging auch nicht um AMD vs NV.
Mein 3080m ist effizienz-technisch grandios.
add.: die 3070er ist vom Preis/Leistung Strandpunkt her nochmals deutlich besser, aber ich wollte keine 8GB Krücke.
Rampage 2
2022-06-22, 00:18:24
Was kann man denn über Nvidia's Preisgestaltung der RTX 4xxx-Serie spekulieren?
Mein Spekulatius:
RTX 4090 (GA102): 1500$
RTX 4080 (GA103): 800$
RTX 4070 (GA104): 600$
R2
ChaosTM
2022-06-22, 00:26:57
Kommt drauf an, wie weit sich Krypto bis dann entwickelt hat..
Rampage 2
2022-06-22, 00:38:19
Kommt drauf an, wie weit sich Krypto bis dann entwickelt hat..
Krypto ist doch so gut wie erledigt - Bitcoin liegt am Boden und auch Ethereum ist im freien Fall. Es sieht nicht danach aus, dass PoS noch weiter verschoben wird - und das wird dem GPU-Mining den Rest geben:)
R2
Gratzner
2022-06-22, 01:04:03
Ich bin da nicht so optimistisch, das Krypto so gut wie erledigt ist. Der Bitcoin hat schon viele Crashes gehabt und sich bisher immer erholt. Hier (https://finance.yahoo.com/news/7-biggest-bitcoin-crashes-history-180038282.html) sind mal 7 aufgezählt, leider ist der Artikel nicht neutral geschrieben. Im Spoiler mal eine Grafik zu btc-crashes:
https://cdn.howmuch.net/articles/bitcoin5-fa98.png
Slipknot79
2022-06-22, 01:06:30
2 Möglichkeiten in der Kryptowelt:
Sammelphase gestartet bis wieder gehypt wird. Dann gibt auch wieder dick Mining.
Oder es wird "bald" ein anderer Coin anstelle von Ether von der Community auserwählt zum Mining. (y)
Mining ist aber sicher nicht dauerhaft tot. Vorerst werden wir aber erst mal eine Ruhe haben und Lovelace zu normalen Preisen checken können. Krieg, Krise, Corona mal abgesehen, aber wird schon cool sein. (y)
ChaosTM
2022-06-22, 01:54:43
Krypto ist doch so gut wie erledigt - Bitcoin liegt am Boden und auch Ethereum ist im freien Fall. Es sieht nicht danach aus, dass PoS noch weiter verschoben wird - und das wird dem GPU-Mining den Rest geben:)
R2
Krypto will be back.. als klassischer Pyramid Scheme wird der Blödsinn bald wieder aufleben.
Wir sollten das beste daraus machen bis es wieder los geht.
dargo
2022-06-22, 06:12:23
300Watt vs 300 Watt ist Vergleichbar, egal was DU willst.
Ein Vergleich mit GPU X im absoluten Sweetspot zu betreiben während GPU Y mit "Brechstange" betrieben wird ist kompletter Bullshit, sieht man auch schon am Vergleich vs. 3080(TI) @Default. :rolleyes: Zudem hat Igor an den Frequenzen und Voltages gedreht und nicht nur das PT eingebremst. Nichts weiter als Äpfel/Birnen Vergleich.
PZ46znr9tNs
Auch hat er dort keine Referenz RDNA2 drin sondern Customs die mehr saufen.
Andere Coins sind winzig ggü Ether von der Bedeutung her und für Massenmining total uninteressant, Bitcoin ist egal für GPUs und PoS killt das massenhafte GPU-Mining und macht Ether im Vergleich noch wichtiger für den Kryptomarkt. Das war das letzte Mal dass sowas ablief. Die Miner sind mittlerweile im Abverkauf und killen Grad die Gebrauchtmärkte. Das bringt die Neuwarenmärkte jetzt zusätzlich unter Druck. Hab ich schon vor nem Jahr prophezeit, dass das so kommt und dass Intel genau da rein launcht. Auch die Neupreise der nächsten Generation dürften eher moderat ausfallen.
ChaosTM
2022-06-22, 09:50:32
@rampage
Sollte die Marktsituation incl. Krypto so wie jetzt sein, könnte deine Preisprognose passen.
Der Dreck wird sich aber zwangsläufig wieder erholen. Da ist einfach zu viel Geld* damit zu machen von den Leuten ganz oben in der Pyramide.
*Das ist quasi unvermeidlich..
Slipknot79
2022-06-22, 09:58:52
Ist auch die Frage, wie groß der Teil jener ist, die notgeil auf eine neue GPU sind, wie ich es bin, die die Ampere Generation u.a. wegen der Preise übersprungen hat und darauf wartet, dass Lovelace zu "normalen" Preisen rausgeballert wird um zuzugrapschen. (y)
ChaosTM
2022-06-22, 10:08:56
Meine Notgeilheit endet bei einem k für Grakas. Mehr kriegt die Jacke (oder Lisa wenn ihre GPUs gut genug performen) sicher nicht.
Slipknot79
2022-06-22, 10:13:42
K, Lederjackes Programm:
4080 um 999,99EUR
4090 um 1000EUR und +100% moar fps vs 4080.
Du nimmst die 4080 :redface:
prinz_valium_2
2022-06-22, 13:13:37
Crypto am leben und Mining tot schließen sich nicht aus.
Das wäre natürlich der absolute Traum.
Denke wir sehen Humane Preise.
$999 für die 4090
$699 für die 4080
$499 für die 4070
Alles drüber ist sowieso DoA.
$200 bis $350 ist immer noch da, wo wirklich Millionen von Gamern kaufen würden.
Darüber sind es deutlich weniger. Sieht man ja sehr gut an der Steam Hardware Survey.
Dank Inflation geht aber auch etwas drüber bis zu $500, wenn die Leistung und das Produkt stimmt. Sehe nicht, dass das bei Ada der Fall sein wird. Also muss es über den Preis kommen.
Die 1600/1650 war der letzte Kassenschlager von nVidia (der wirklich and Endkunden, die eine GPU kaufen, gegangen ist)
Ich werde wahrscheinlich wieder keine neue GPU kaufen diese Generation, weil es nur überteuerten Müll gibt.
dargo
2022-06-22, 13:15:05
Denke wir sehen Humane Preise.
$999 für die 4090
$699 für die 4080
$499 für die 4070
Träum weiter. ;)
Linmoum
2022-06-22, 13:17:45
Warum sollte NV den Preis mal eben um 1/3 senken, obwohl allein die Fertigungskosten mit N5 (4N whatever) deutlich über denen von Samsungs 8nm liegen werden? :freak: Von Inflation mal ganz zu schweigen.
RoNsOn Xs
2022-06-22, 13:22:43
Warum sollte NV den Preis mal eben um 1/3 senken, obwohl allein die Fertigungskosten mit N5 (4N whatever) deutlich über denen von Samsungs 8nm liegen werden? :freak: Von Inflation mal ganz zu schweigen.
This!
Why? Weil viele nicht akzeptieren wollen, dass das auf lange Zeit die Normalität sein wird.
Meridian12
2022-06-22, 13:30:14
Ein Vergleich mit GPU X im absoluten Sweetspot zu betreiben während GPU Y mit "Brechstange" betrieben wird ist kompletter Bullshit, sieht man auch schon am Vergleich vs. 3080(TI) @Default. :rolleyes: Zudem hat Igor an den Frequenzen und Voltages gedreht und nicht nur das PT eingebremst. Nichts weiter als Äpfel/Birnen Vergleich.
Auch hat er dort keine Referenz RDNA2 drin sondern Customs die mehr saufen.
Naja, ist bei Autos in der Regel auch nicht viel anders. Da braucht das 200PS Auto bei 150km/h nicht viel weniger oder gleichviel Sprit wie das 600PS Auto.
Das 200PS Auto muss halt mehr % seiner Maximalkraft aufwenden als das 600PS Auto.
prinz_valium_2
2022-06-22, 15:15:53
Warum sollte NV den Preis mal eben um 1/3 senken, obwohl allein die Fertigungskosten mit N5 (4N whatever) deutlich über denen von Samsungs 8nm liegen werden? :freak: Von Inflation mal ganz zu schweigen.
Weil sie es hoffentlich werden müssen und das Zeug sonst nicht loswerden.
Die beste Marge bringt nichts, wenn du das Produkt nicht verkauft bekommst.
RNDA3, Cryptocrash mit mehr Used Inventory und Inflation könnte der perfekte Sturm dafür sein.
Denn Inflation sieht so aus:
https://www.reddit.com/r/dataisbeautiful/comments/vhciop/oc_inflation_and_the_cost_of_every_day_items
Das ist niemals alles wird immer teuer. Manches muss dann zwangsläufig auch billiger werden, weil es sonst nicht gekauft wird.
Consumer Electronics werden da einen ganz schweren Stand haben, nachdem es die $1000 checks der Regierung nicht mehr gibt, die für Spielzeuge ausgegeben wurden, man sie heute aber viel dringender für Nahrungsmittel, Energie und Wohnraum bräuchte.
Hoffen wir mal es wird nicht so schlimm wie in Argentinien, wo die Mittelschicht komplett ausradiert wurde. Klar die "Reichen", werden sich solche Sachen immer noch kaufen können. Aber bei der Gruppe kann nVidia dann ein paar Millionen GPUs verkaufen und nicht dutzende Millionen, wie die ganzen bulk Käufer oder eben normale Endkunden.
Linmoum
2022-06-22, 15:21:13
Man bekommt aber schon jetzt eine 3090 wunderbar für $1500 verkauft.
Es gibt keinen Grund, den Preis derart stark zu senken. Schon gar nicht, wenn sich die Performance tatsächlich auch noch verdoppeln sollte.
Nazar
2022-06-22, 16:30:26
Man bekommt aber schon jetzt eine 3090 wunderbar für $1500 verkauft.
Es gibt keinen Grund, den Preis derart stark zu senken. Schon gar nicht, wenn sich die Performance tatsächlich auch noch verdoppeln sollte.
Momentan ist noch Geld vorhanden, und wer schlau ist, der kauft jetzt, was er noch länger einsetzen will.
Die Inflation wird weiter steigen und wer Produkte verkaufen möchte, muss am Ende dieses Jahres vorsichtig sein, dass er nicht zu teuer verkaufen möchte. Selbst bei "hardwaregeilen" Personen wird am Ende des Jahres die Münze zweimal umgedreht werden müssen. Zusätzlich kommen die Energiekosten noch obendrauf.
Eine 600 Watt+ GPU, wird es schwer haben, 800 Watt Dauerlast für einen Rechner beim Spielen, werden sich nicht viele leisten wollen, besonders dann nicht, wenn die Grafikkarte 2000€+ kosten wird, + neuem Netzteil, + Wasserkühlung, + Klimagerät.
Ich bin schon sehr gespannt auf den Winter. Eventuell ist ja die GPU dann doch ein Verkaufsschlager, weil dann mit Strom geheizt werden kann, anstatt mit Gas... wer weiß das schon. ;)
dargo
2022-06-22, 16:53:46
Wenn ich mit Strom heizen will dann kaufe ich sowas. ;)
https://de.trotec.com/shop/konvektor-tch-18-e.html
Troyan
2022-06-22, 17:41:04
Für Mitte September plant nVidia ihre nächste GTC in diesem Jahr: https://www.nvidia.com/de-de/gtc/
Omniverse ist ja Raytracing und Lovelace ist Raytracing. Wer weiß, vielleicht kommt hier die Vorstellung als Quadro oder wenigsten ein Teaser.
The_Invisible
2022-06-22, 17:45:35
Wenn ich mit Strom heizen will dann kaufe ich sowas. ;)
https://de.trotec.com/shop/konvektor-tch-18-e.html
Unser Heizstrahler am Wickeltisch hat bei Stufe 1 weniger Verbrauch als meine 3080Ti :D
@Nazar
Naja wenn ich sehe was die Leute noch für ihre Autos & Benzin ausgeben kann es so schlimm noch nicht sein, vor allem quasi wenn es das einzige Hobby ist sind 1k alle 2 Jahre jetzt auch net so schlimm
Neurosphere
2022-06-22, 17:50:02
"800 watt devices will be very very common", said Jerry Tzou at #tsmc 2022 technology symposium. We're on the verge of 1kW, with 2 kW just around the bend. Sadly, no photos of the slides allowed.
https://twitter.com/CarstenSpille/status/1538866218689609730
Wird also noch besser. Man darf ja prinzipell auch nicht vergessen das, mit den bisherigen Wattangaben die so rumschwirren, betrifft erstmal nur die Referenz-Boards.
Schnitzl
2022-06-22, 21:15:17
Ohje, wird wohl doch worst case werden, hm... :mad:
Lurtz
2022-06-22, 22:22:27
wnRyyCsuHFQ
Dürfte mit Lovelace wohl aktueller denn je werden :whistle:
BlacKi
2022-06-22, 22:38:40
https://youtu.be/wnRyyCsuHFQ
Dürfte mit Lovelace wohl aktueller denn je werden :whistle:
steve ist da auf dem holzweg. die 3090ti mit dem neuen boostverhalten das mit ada kommt, reduziert die spikes um 10% bei 28% höherem stromverbrauch ggü. der 3090. hat igor auch ein video dazu gemacht.
und der news von carsten spilles twitter tweet about tsmc bezog sich wahrscheinlich auf die serverkarten aka H100. genau wie die titan karten mit 800w. auch nicht für consumer gedacht.
Gott1337
2022-06-23, 00:54:11
steve ist da auf dem holzweg. die 3090ti mit dem neuen boostverhalten das mit ada kommt, reduziert die spikes um 10% bei 28% höherem stromverbrauch ggü. der 3090. hat igor auch ein video dazu gemacht.
und der news von carsten spilles twitter tweet about tsmc bezog sich wahrscheinlich auf die serverkarten aka H100. genau wie die titan karten mit 800w. auch nicht für consumer gedacht.
laut den graphen von steve sind die spikes sogar noch viel besser worden bei der 3090ti. von 493 auf 65x nur, also 50+% reduziert.
wüsste gerne mal wie die spikes sind, wenn man die mit 300 watt laufen lässt.
BlacKi
2022-06-23, 01:02:38
laut den graphen von steve sind die spikes sogar noch viel besser worden bei der 3090ti. von 493 auf 65x nur, also 50+% reduziert.
wüsste gerne mal wie die spikes sind, wenn man die mit 300 watt laufen lässt.die spikes skalieren nicht mit der tdp einstellung. sie skalieren mit der voltage die man zulässt, und der aktualisierungsgeschwindigkeit des boosttakts. das, was bei der 3090ti eben neu ist.
ich konnte mit meiner 3090 die tdp auf 200 stellen, aber mit stock voltage curve(welche 1,025v zulässt), ging das netzteil trotzdem aus.
hab ich die voltage auf 0,8v oder darunter limitiert, konnte ich ohne probleme 400w stabil betreiben.
steve hat ja direkt am anfang des videos gesagt, das die spikes für die netzteile mit ada nochmals schlimmer werden. abgesehen von dem 800w modell, das für mich kein consumer modell ist, reduzieren sich tatsächlich aber die anforderungen gegenüber ampere.
Zossel
2022-06-23, 07:50:38
Dürfte mit Lovelace wohl aktueller denn je werden :whistle:
Werden da eigentlich schon die Impedanzen die Stromversorgungsleitungen relevant?
Besser wäre es die Stromversorgung auf 48 Volt umzustellen und fette Elkos auf die Grafikkarten zu packen, ggf. hinter einer Diode.
So ist das einfach nur komplett broken by design.
basix
2022-06-23, 09:14:00
Besser wäre, bei Grafikkarten fürs Spielen das Power Limit auf 300W zu begrenzen ;)
ChaosTM
2022-06-23, 09:40:15
Solche Sperren werden prinzipiell immer geknackt. Wenn jemand zb. eine PV Anlage mit Speicher hat geht es absolut niemendem etwas an, wie viel er von seinem eigene Strom verbratet.
Auch wenn es aus dem Netz kommt muss das jeder für sich selbst entscheiden.
Es ist zwar nicht klug, aber das sind 4Tonne E-Hummers auch nicht :D
DrFreaK666
2022-06-23, 10:17:51
Neue Gerüchte
"Finally, RTX 4070 sees a rumored spec update. The card is no longer expected with 12GB memory but 10 GB instead"
https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory
ChaosTM
2022-06-23, 10:32:32
Eh gleich ganze 10. Das glaube ich nicht..
BlacKi
2022-06-23, 10:40:43
Besser wäre, bei Grafikkarten fürs Spielen das Power Limit auf 300W zu begrenzen ;)
und neue autos dürfen nur noch 100kw haben?;)
Meridian12
2022-06-23, 10:44:15
und neue autos dürfen nur noch 100kw haben?;)
Leider komplett falscher Vergleich.
Wenn dann müsstest du schreiben ,dürfen nur noch 10 Liter verbrauchen.
Zossel
2022-06-23, 10:58:09
Wenn jemand zb. eine PV Anlage mit Speicher hat geht es absolut niemendem etwas an, wie viel er von seinem eigene Strom verbratet.
Jein.
nordic_pegasus
2022-06-23, 11:05:54
Leider komplett falscher Vergleich.
Wenn dann müsstest du schreiben ,dürfen nur noch 10 Liter verbrauchen.
Die Leistung gibt man in Watt [W] an, die (verbrauchte) Energie in Joule [J] bzw. [kWh]. Wobei man über den Brennwert ein Äquivalent der Energie in "Liter Benzin" berechnen kann.
Auch ein sparsamer PC kann, wenn er 24/7 auf Dauerlast läuft, über einen langen Zeitraum betrachtet viel Energie verbrauchen.
Es ist wohl gemeint, die maximale Leistung zu begrenzen, was in der Folge den Spitzenverbrauch unter Last limitiert.
BlacKi
2022-06-23, 11:10:21
Leider komplett falscher Vergleich.
Wenn dann müsstest du schreiben ,dürfen nur noch 10 Liter verbrauchen.
100kw und 5 liter verbrauch;)
uuuuund wenn wir schon dabei sind tempo 120 max.^^
Rampage 2
2022-06-23, 11:29:22
Neue Gerüchte
"Finally, RTX 4070 sees a rumored spec update. The card is no longer expected with 12GB memory but 10 GB instead"
https://videocardz.com/newz/nvidia-geforce-rtx-4090-4080-4070-get-new-rumored-specs-rtx-4070-with-7168-cores-and-10gb-160-bit-memory
Dann werde ich meine 3080 Ti mit 12GB ja doch noch teurer verkaufen können:ulol:
TLDR: :upicard: @ Nvidia
R2
GrimReaper85
2022-06-23, 11:52:19
Viele Leute auf Videocardz in diesen letzten 4070 10GB News können nicht verstehen, warum 4080 420W hat, aber 4090 nur 450W. Wer hat hier die beste Antwort darauf? Ich glaube, es wurde schon vor einem Monat diskutiert.
P/W wird sicherlich auf 4090 Seite sein, aber P/P auf 4080.
Why would the gigantic AD102 with more power hungry G6X be fed with 450w, while a roughly 40% smaller AD103 with G6 gets 420w? Either the AD102 card is heavily power starved or the AD103 card is pushed insanely far into diminishing returns. But why would they push the much smaller die this hard, but not the actual flagship? This die should be about the size of GA104, imagine pushing 420w into a 3070.
Does anyone actually believe that both large dies get fully enabled memory buses, but they have to cut down the AD104 from 192 to 160 bit? This would be highly unusual and again: 300w for a cut down AD104 version? With both cores and memory bus cut down? With a die that's going to be the size of old GA106?
dargo
2022-06-23, 12:20:16
Viele Leute auf Videocardz in diesen letzten 4070 10GB News können nicht verstehen, warum 4080 420W hat, aber 4090 nur 450W. Wer hat hier die beste Antwort darauf?
Ist doch bei Ampere auch nicht viel anders mit 320W vs. 350W. Würde darauf hinauslaufen, dass auch die 4080 den AD102 abbekommt. Sollte die 4080 AD103 abbekommen wird die 4080 einfach nur bei den Frequenzen hochgeprügelt, die berühmte Brechstange. Siehe RX 6700 XT vs. RX 6800 non XT.
PS: das einzige was mir hier nicht passt... die 4090 kann kein voller AD102 sein. Aber das ist bei Nvidia schon länger Tradition, kein TopDog sondern direkt Salvage.
BlacKi
2022-06-23, 12:33:21
Viele Leute auf Videocardz in diesen letzten 4070 10GB News können nicht verstehen, warum 4080 420W hat, aber 4090 nur 450W. Wer hat hier die beste Antwort darauf? Ich glaube, es wurde schon vor einem Monat diskutiert.
P/W wird sicherlich auf 4090 Seite sein, aber P/P auf 4080.
wenn es wirklich bei gddr6 non x bei der 4080 bleibt, dann hat die 4090 einen effizienznachteil beim vram. allerdings einen effizienzvorteil beim takt. warum man das macht? damit die performance unterschiede nicht zu groß werden. klar kann man eine 4080ti dazwischen schieben, aber die wäre dann ganz ganz hart gesalvaged.
ich glaube man will mit dem hohen PT der 4080 möglichst nah an die 4090 aufschließen. laut tabelle hat die 4090 über grob 50% mehr shader? das wäre zuviel performanceunterschied beim selben takt.
Troyan
2022-06-23, 12:35:33
Viele Leute auf Videocardz in diesen letzten 4070 10GB News können nicht verstehen, warum 4080 420W hat, aber 4090 nur 450W. Wer hat hier die beste Antwort darauf? Ich glaube, es wurde schon vor einem Monat diskutiert.
P/W wird sicherlich auf 4090 Seite sein, aber P/P auf 4080.
Ja, macht kein Sinn. GDDR6X ist knapp 50W bei Ampere. Eine Quadro RTX A6000 liegt bei 300W mit 48GB und 16Gbit/s: https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/quadro-product-literature/proviz-print-nvidia-rtx-a6000-datasheet-us-nvidia-1454980-r9-web%20(1).pdf
Die 4080 müsste >2x schneller sein als die A6000, um eine vernünftige Effizienz zu haben.
basix
2022-06-23, 14:53:25
und neue autos dürfen nur noch 100kw haben?;)
Es macht mMn keinen Sinn, dass man für +10...20% Performance 450W anstatt 300W verbraucht. Die paar weniger FPS merkt man meistens nicht oder reduziert 1-2 Settings mit minimalem visuellem Unterschied. Die 450W wird man in Form von Wärme, Lautstärke und im Geldbeutel(teurer Kühler, teures PCB, teurer Chip) definitiv spüren.Immer mehr und mehr wird uns zwangsläufig Probleme machen. Energieveebrauch, Wärmeabgabe und Lautstärke ist eine Seite. Teure GPUs die andere.
Wenn einzelne ihre Karte mit 500W betreiben ist mir das egal. Aber wenn die ganze Masse mitzieht ist das nicht sinnvoll. Deswegen: Default Setting einer Graka sollte nur leicht oberhalb des Sweetspots liegen. Power Limit Slider mit +100%. Alle sind zufrieden.
Dazu auch eine Buchempfehlung: "Unberechenbar" von Harald Lesch und Thomas Schwartz. Spätestens seit Corona sollte man das "mehr und mehr" hinterfragen. Alles auf Kante genäht ist langfristig ungesund.
rentex
2022-06-23, 15:01:44
@basix +1
w0mbat
2022-06-23, 16:24:58
Es wird sicher eine 600W AD102 Version geben, alleine schon weil man sicher stellen will, dass AMD nicht doch schneller wird.
Weltraumeule
2022-06-23, 16:49:16
GTX 4070 mit 10 GB wäre eine richtige Enttäuschung. Hätte eher mit 16 GB gehofft und bei der 4060 dann mit 12.
Falls 4070 10 GB wird 4060 dann erneut 8 GB haben? :rolleyes:
reaperrr
2022-06-23, 16:55:46
Es wird sicher eine 600W AD102 Version geben, alleine schon weil man sicher stellen will, dass AMD nicht doch schneller wird.
Das war auch mein Gedanke. Die 600W hebt man sich für die 4090 Ti auf.
Gleiches mit der 4070 mit 10GB/300W.
Wenn AMD hier vom P/L Druck machen kann (N32XL ?), kommt garantiert noch ne 4070 Ti mit 330-375W, 12GB und 7424-7680 ALUs.
Aber erstmal geht es wohl nur darum, N33XT-8GB zu schlagen, dafür werden die 4070-Specs wohl reichen.
Man bringt jedenfalls mMn bewusst nicht gleich die besten SKUs je Chip, um etwaige schnellere AMD-Karten kontern zu können.
GTX 4070 mit 10 GB wäre eine richtige Enttäuschung. Hätte eher mit 16 GB gehofft und bei der 4060 dann mit 12.
Falls 4070 10 GB wird 4060 dann erneut 8 GB haben? :rolleyes:
AD106 hat wie N33 nur ein 128bit-SI, damit gehen nur 16 oder eben 8GB.
Denke, hier wird Nvidia gern die Steilvorlage nutzen und auch wieder auf 8GB bei der 4060 zurückgehen.
Die 3060 hatte mMn auch nur 12GB, weil die Alternative bei 192bit 6GB gewesen wären und das inzwischen nun wirklich zu wenig für das Performance-Segment gewesen wäre, dann wär man selbst gegen die 6600-non-XT chancenlos gewesen.
RoNsOn Xs
2022-06-23, 17:34:59
Finde die 12gb für die Rechenleistung over the top. Dort wo die 12gb mal voll werden könnten, zieht die 3060 sowieso keine Wurst mehr vom Teller. 6gb hätten ihr auch nicht schlecht gestanden, dazu einen kleineren uvp, schick.
Sehe diese Speicherdebatte gar nicht eng, denn meist wechselt man nach 2-3 Jahren sowieso wieder. Man sehe sich mal die 24gb der 3090 an. Mehr wird es auch nicht bei der 4090 werden. Ehe stoßen die Leute diese wieder ab, als das sie von dem riesigen Speicher profitieren könnten.
Klar, sie wird gut altern, das ist aber auch schon alles.
DrFreaK666
2022-06-23, 18:08:32
Wenn man eine Karte drei Jahre behält, wieso sind dann 10GB bei der 4070 in Ordnung? Weil die 4090 wieder "nur" 24GB hat?
Hä?
crux2005
2022-06-23, 18:33:55
GTX 4070 mit 10 GB wäre eine richtige Enttäuschung. Hätte eher mit 16 GB gehofft und bei der 4060 dann mit 12.
Falls 4070 10 GB wird 4060 dann erneut 8 GB haben? :rolleyes:
Ich auch. Bleibt nichts anderes als zu hoffen das AMD abliefert und Nvidia evtl. mit einer 4070 Super mit mehr VRAM kontern wird.
Linmoum
2022-06-23, 19:18:28
Kopite hat doch die letzten Wochen wahrlich genug Anlass dazu gegeben, dass man ihn ignorieren sollte. Alle zwei Tage um 180° seine Meinung wechseln erweckt irgendwann kein Vertrauen mehr und das bezieht sich jetzt nicht nur auf seinen riesigen Juli-Fail bzgl. des Launches.
Wo auch immer er seine Infos mittlerweile her hat, es scheint anderswo zu sein als noch damals bei Ampere. Und das merkt man im negativen Sinne.
iamthebear
2022-06-23, 19:36:19
Leider komplett falscher Vergleich.
Wenn dann müsstest du schreiben ,dürfen nur noch 10 Liter verbrauchen.
Der korrekte Vergleich wäre "Autos dürfen bei Maximalgeschwindigkeit nur mehr 10 Liter pro Stunde verbrauchen", was dazu führt, dass jeder Hersteller je nach Effizienz bei 100-150km/h zwangsdrosseln muss.
Einmal abgesehen davon: Es steht jedem frei seine GPU runter zu takten bzw. die TDP zu begrenzen. Ist dieselbe wie bei ADL: Jeder jammert dass 240W viel zu viel sind aber die 35/65W Modelle kauft sich auch keiner weil das ist ja langsamer.
Unicous
2022-06-23, 20:23:50
Kopite steigt auf jeden Fall seine Rolle als Sprachrohr für die Leaker zu Kopf. Er reagiert gereizt und arrogant auf Nachfragen und Infragestellen seiner Quellen und seine eigenen Vermutungen ähneln auch eher einem scatter plot als einem durchdachten Produktportfolio.:wink:
Sieht aber auf AMD-Seite nicht wirklich anders aus. Ich gehe davon aus, dass sich hier jemand einen Scherz erlaubt und absichtlich Müll verbreiten lässt. Am Ende könnte es Nvidia selbst sein, die falsche Gerüchte in Umlauf bringen um Leaker zu enttarnen.
Kopite und andere Leaker machen sich jedenfalls gerade extrem lächerlich. Nicht nur mit ihrem Verhalten sondern auch weil sie nicht stillhalten können und so gut wie alles was ihnen so zugetragen wird in die Welt posaunen. Twitter ist eh ein dämliches Medium für Leaks.
BlacKi
2022-06-23, 20:40:43
Finde die 12gb für die Rechenleistung over the top. Dort wo die 12gb mal voll werden könnten, zieht die 3060 sowieso keine Wurst mehr vom Teller. 6gb hätten ihr auch nicht schlecht gestanden,
das ist blödsinn. klar hätten es vl noch 8gb getan. aber 6gb ist schon mit reduzierung von texturen hier und da bei 1440p verbunden.
in der vergangenheit war die auflösung hauptnutzer von vram. das hat sich geändert. die auflösung ist nur noch ein kleiner teil des speicherverbrauchs. von fhd auf 1440p steigt der vram verbrauch kaum an. vermutlich weniger als 1gb mehr. auf 4k sinds dann vl 2-3 gb mehr als fhd. der rest sind die texturen. und seit dem streaming von texturen steigen cpu last und pcie bandwith massiv an, damit man zwischen 8gb bei fhd und 10gb bei 4k alle texturen laden kann.
Kopite steigt auf jeden Fall seine Rolle als Sprachrohr für die Leaker zu Kopf.
das stimmt. ich würde ihn noch nicht ignorieren, aber seine leaks gehen mittlerweile abseits von dem was wirklich leaks sind. er dichtet dazu. das merkt man.
Wenn man eine Karte drei Jahre behält, wieso sind dann 10GB bei der 4070 in Ordnung? Weil die 4090 wieder "nur" 24GB hat?
Hä?
wir leben in einer anderen zeit, mit vram muss man heute sparsam umgehen. wenn eine 4050 mit 8gb und ultra texturen nicht gut läuft, ist das spiel schlecht optimiert, überspitzt formuliert. deswegen könnten 10gb für 1440p reichen, und 12gb selbst für 4k.
iamthebear
2022-06-23, 20:42:05
Die Aufgabe der Leaker ist, dass sie Informationen sie die Gerüchte, die in Industriekreisen zirkulieren an die Allgemeinheit weitergeben. OK mit Juli lag er daneben aber sonst sind es ja nur kleinere Details. Ob nun 126 SM oder 128 SM bei der 4090 sehe ich jetzt nicht so weltbewegend an.
Dass die TDP Angaben ständig variieren ist klar. Er gibt uns ja nur die Information weiter wann eine Karte getestet wird. Ob es die dann in den Handel schafft ist eine andere Sache.
Bei den TDP Werten gestern hat er ja auch noch extra dazu geschrieben, dass das die Maximalwerte sind und diese wahrscheinlich nicht erreicht werden. Dass einige das jetzt als "jede Ada Karte wird 800W haben" interpretieren ist ja nicht seine Schuld.
Aber es ist natürlich klar: Wenn man 100% korrekte Informationen haben will, dann muss man warten bis Nvidia selbst die Karten ankündigt.
Linmoum
2022-06-23, 20:46:50
Von mir aus können sie so viel verbreiten, wie sie wollen. Twitter halt. Das hier ist auch das passende Unterforum für Spekulationen, auch, wenn man mittlerweile gerade bei Kopite einfach mal zurückhaltend sein sollte bei dem, wie er sich mittlerweile permanent umentscheidet. So oft cancelt kein Unternehmen der Welt intern seine Produkte bzw. entschließt sich fünfzig Mal wenige Monate vor dem tatsächlichen Launch, die Konfiguration(en) zu ändern. Das ist einfach nur albern.
Was alleredings noch nervtötender ist, sind dann diese permanenten "Jetzt aber wirklich: NEUE Spezifikationen für Ada und RTX4000 geleaked"-Artikel, die jeden Fuzzel von diesem Twitter-Kosmos direkt für Clicks verarbeiten müssen. Und das jeden (zweiten) Tag, weil sich so schnell aktuell die Gerüchte im Kreis drehen. Ja, ich meine vor allem eure groteske Berichterstattung dazu, PCGH. Lernt einfach mal dazu.
Davon ab ist alles andere als Spekulationen über irgendwelche (finalen) Konfigurationen von AD102 zur aktuellen Zeit sowieso völlig sinnbefreit, weil die kleineren Chips erst später kommen. Ob man dort dann ggf. noch kurzfristig etwas anpasst, wird man näher zum Launch hin sehen, wenn man auch mehr von der Konkurrenz mutmaßen kann. Ist ja schließlich relevant, was die tut. Ansonsten hätte NV auch niemals GA102 so absurd an die Kotzgrenze geprügelt und sogar die 3080 gleich mit dem großen Chip gebracht.
Wir haben erst Ende Juni, da ist noch Zeit für die Entscheidung(en), ob das jetzt final 10GiB oder 12GiB werden oder ob man den Chip für SKU XY nicht doch weniger stark beschneidet.
Unicous
2022-06-23, 21:00:31
Kopite ist an sich kein Leaker (imo). Er bekommt die Dinge von jemandem zugesteckt und verbreitet sie dann als Mittelsmann. Ist ja nichts Neues und auch nichts Verwerfliches. Früher haben die Leute das in Foren oder persönlichen Blogs kommuniziert heute eben über Twitter, weil man dadurch mehr Menschen erreicht. Das Problem ist, dass er das dann versucht einzuordnen und daran dann oft scheitert und dann verschnupft reagiert wenn es Gegenwind gibt.
Es gibt auch positive Beispiele. Patrick Schur und ExecutableFix fallen mir spontan ein. Die melden sich fast nur wenn sie harte Leaks haben und sie lagen afaik noch nicht falsch. Weitere ausschweifende Spekulationen zu den geteilten Informationen sparen sie sich meist. Das ist eben auch eine Ego-Frage. Was will ich mit dem geteilten Wissen erreichen?
Alles in allem ist es mit dieser Generation sehr frustrierend was Leaks angeht, von daher wäre es klug einen Gang zurückzuschalten. Das ist natürlich schwierig wenn jeden Tag ein neuer clickbait-Artikel auf Basis eines einzelnen Tweets erscheint, aber man kann ja aktiv die Anstrengung unternehmen der Versuchung zu klicken zu widerstehen.:wink:
BlacKi
2022-06-23, 22:06:01
Die Aufgabe der Leaker ist, dass sie Informationen sie die Gerüchte, die in Industriekreisen zirkulieren an die Allgemeinheit weitergeben.
ja, aber ab dem punkt, ab dem er selbst informationen generiert, macht er sich unglaubwürdig. das mit dem mitte juli termin ist eine sache, wenn der termin so echt intern festgehalten wurde. aber nachedem rauskam das der termin nicht stimmte zu sagen, das ihn der echte termin nicht interessiert, dann macht man sich zum gespött.
DrumDub
2022-06-24, 10:20:39
Kopite ist an sich kein Leaker (imo). Er bekommt die Dinge von jemandem zugesteckt und verbreitet sie dann als Mittelsmann. Ist ja nichts Neues und auch nichts Verwerfliches. Früher haben die Leute das in Foren oder persönlichen Blogs kommuniziert heute eben über Twitter, weil man dadurch mehr Menschen erreicht. Das Problem ist, dass er das dann versucht einzuordnen und daran dann oft scheitert und dann verschnupft reagiert wenn es Gegenwind gibt.
Es gibt auch positive Beispiele. Patrick Schur und ExecutableFix fallen mir spontan ein. Die melden sich fast nur wenn sie harte Leaks haben und sie lagen afaik noch nicht falsch. Weitere ausschweifende Spekulationen zu den geteilten Informationen sparen sie sich meist. Das ist eben auch eine Ego-Frage. Was will ich mit dem geteilten Wissen erreichen?
Alles in allem ist es mit dieser Generation sehr frustrierend was Leaks angeht, von daher wäre es klug einen Gang zurückzuschalten. Das ist natürlich schwierig wenn jeden Tag ein neuer clickbait-Artikel auf Basis eines einzelnen Tweets erscheint, aber man kann ja aktiv die Anstrengung unternehmen der Versuchung zu klicken zu widerstehen.:wink: genau so siehts aus!
aufkrawall
2022-06-24, 10:54:15
6gb hätten ihr auch nicht schlecht gestanden
Dafür hätte es keine 3060 gebraucht, als gediegene 1080p-Karte gab es schon die 2060.
6GB sind kacke, die werden in 1440p selbst mit Upsampling häufig geknackt. Damit läuft schon Diablo 2 Resurrected mit Browser offen wie Müll...
Es macht mMn keinen Sinn, dass man für +10...20% Performance 450W anstatt 300W verbraucht. Die paar weniger FPS merkt man meistens nicht oder reduziert 1-2 Settings mit minimalem visuellem Unterschied.
Für 10% vielleicht nicht. Reden wir über 20-25% würde ich schon sagen najaaa...
50 oder 60 FPS ist ein Unterschied. Antialiasing low oder High ist auch ein Unterschied.
BlacKi
2022-06-24, 11:07:34
ob es sinn macht oder nicht, ist letztendlich persönliche preferenz. tatsache bleibt, die karten haben schon in der vergangenheit performance mit powerlimit versucht auszugleichen. aka 3080, 3070ti und 3090ti.
das ampere linup boostet in sehr unterschiedlichen effizienzbereichen.
das kannst du ziemlich einfach hier ablesen.
https://www.3dcenter.org/abbildung/grafikkarten-4k2160p-performanceverbrauch-index-mai-2022
Platos
2022-06-24, 12:39:04
Genau, und die meisten würden sagen, dass es völlig gaga ist, 450W Geräte zu betreiben, damit man 20% mehr Rechenistung hat bei 50% mehr Leistung(W). Spätestens dann, wenn sie eine Watt/Takt-Kurve sehen.
Selbst hier im Nerdforum ist es ier noch die Mehrheit, die das so sieht. Die Masse da draussen weiss das nur nicht. Die wissen nicht mal, dass die Karte xyz 450W (oder was auch immer) verbraucht. Wenns zu viel ist und sie das merken, denken sie sowas wie: "Scheiss Media Markt, kaufe da nie mehr".
Platos, frag mal die Zielgruppe, die sich 3090iger Strix etc. einbauen. Da gibts auch welche die Undervolten aber es ist nicht mal mehr die Hälfte. So ein ding ist per se Gaga, weil 100% Preisaufschlag für 20% mehr Leistung.
Niemand bestreitet, dass der Grenzertrag mit höherer Power irgendwann unvernünftig klein wird. Aber es gibt nun mal Enthusiasten und/oder Leute, die nach den letzen 10% Leistung streben warum auch immer. Und für die sind solche Karten. Dass die Karten auch gekauft werden, ist der Beweis dafür. Die Masse der User nimmt was kleineres. Zu kritisieren wäre ehr, dass man einen kleinen Chip auf unnötig hohe Power treibt, wo man doch einen größeren im Sweetspot betreiben könnte.
PS: wenn ich bei den Antinerds (Familie, Freunde) frage wie viel Strom der PC, die Grafikkarte oder sonst was zieht und ob das gut oder schlecht ist schauen die mich an wie ein Boot. Die Fragen ehr, ob man nun ne 3080 zum zocken braucht oder ob ne 3060 reicht.
PPS: wären wir mal so richtig energiebewusst würden wir zum Spaß überhaupt keine Unterhaltungselektronik mehr betreiben und vor allem nicht fliegen. Und uns nicht weiter vermehren...
Ich will endlich 45 FPS / 90 Hz stabil in DCS auf der 8kx mit 1,5x Super Sampling. Ob 350 oder 450W egal. Sorry.
iamthebear
2022-06-24, 18:36:25
ja, aber ab dem punkt, ab dem er selbst informationen generiert, macht er sich unglaubwürdig. das mit dem mitte juli termin ist eine sache, wenn der termin so echt intern festgehalten wurde. aber nachedem rauskam das der termin nicht stimmte zu sagen, das ihn der echte termin nicht interessiert, dann macht man sich zum gespött.
Dass ihn der Releasetermin nicht interessiert bezog sich auf die 4060 nächstes Jahr. Das hat mit dem Juli nichts zu tun.
Wie er auf den Juli kam: Keine Ahnung aber ich würde ihm jetzt nicht unterstellen, dass er absichtlich Falschinformationen verbreitet (abgesehen von Aprilscherzen). Entweder waren es veraltete Informationen und Nvidia hatte ursprünglich wirklich einmal Juli geplant oder es hat irgendwo in der Kette den Releasetermin mit einem anderen Milestone verwechselt (z.B. Datum für erste AIB Testsamples).
Dafür hätte es keine 3060 gebraucht, als gediegene 1080p-Karte gab es schon die 2060.
6GB sind kacke, die werden in 1440p selbst mit Upsampling häufig geknackt. Damit läuft schon Diablo 2 Resurrected mit Browser offen wie Müll...
Was hat denn ein offener Browser mit dem VRAM Verbrauch zu tun?
Ich denke es wäre wesentlich sinnvoller gewesen die 3060 mit 6GB um 300 Euro zu verkaufen als mit 12GB um 500 Euro. VRAM ist bei den aktuellen GPUs teurer als die Wafer.
Für 10% vielleicht nicht. Reden wir über 20-25% würde ich schon sagen najaaa...
50 oder 60 FPS ist ein Unterschied. Antialiasing low oder High ist auch ein Unterschied.
Man sieht das ja relativ gut bei der 3090 vs. 3090 Ti. Für 28% mehr TDP gibt es ca. 10% mehr Performance und das obwohl auch noch 2 SMs mehr mitarbeiten, die 3090 Ti stark gebinned sind und die 3090 noch 20W durch die zusätzlichen Speicherchips schleppen muss.
Der sinnvollste Weg wäre es, wenn die AD102 Karten alle zwar für 450-600W ausgelegt sind, dem Anwender im Treiber aber ein einfach verständlicher Schieberegler in die Hand gedrückt wird, wo sie dann innerhalb des möglichen Bereichs selbst bestimmen können ob sie lieber den stromsparenden Silentmodus haben wollen oder den Powermodus. Dann kann man je nach Jahreszeit und Spiel auch schnell mal umstellen. Wenn Notebooks das schaffen warum auch nicht Desktopkarten?
The_Invisible
2022-06-24, 19:13:22
Was hat denn ein offener Browser mit dem VRAM Verbrauch zu tun?
Seitdem quasi alles 3d beschleunigt ist nicht zu unterschätzen, wenn mans übertreibt schafft man es sogar bei einer 12GB Karte so viel VRAM mit Browserfenster vollzumachen das kein Game mehr startet: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607364 :D
BlacKi
2022-06-24, 20:41:41
sry, aber die 3060 war nicht die einzigste low budged 12gb karte. ausserdem stammt die karte aus den mining zeiten. und miner brauchen keine 12gb. d.h. die karte wäre nie billiger gewesen. ausserdem hat die 3060 einen uvp preis nach leistung und nicht nach vram. nv hat hier vram verschenkt. die karte wäre nicht billiger gewesen mit 6gb.
es ist einfach nur lächerlich wie die leute sich über die 12gb aufregen;D jetzt macht nv einmal was richtig, und dann sowas...
ihr habt echt eine 4070 mit 10gb verdient!
ich nehm dann wieder die 4060 mit 12gb ;)
The_Invisible
2022-06-25, 08:06:45
Mit der 4060 wirds wahrscheinlich nur 8GB geben da dank verbesserten Cache die Speicherbandbreite von 128bit wieder ausreicht :D Nvidias Problem war von Anfang an das es einfach keine 2GB G6X Chips gab und musste improvisieren. Obwohl dann der Abstand von 4070 10GB und 4080 16GB schon fast zu groß wäre, außer sie verpassen der 4080 auch wieder nur 12GB ;D
Rancor
2022-06-25, 11:49:26
Also sollte das zutreffen wären das alles mehr als ernüchtert
AD102 -> 384Bit -> 24GB
AD103 -> 256Bit -> 16GB
AD104 -> 192Bit -> 12GB
AD106 -> 128Bit -> 8GB
AD107 -> 128Bit -> 8GB
Streiten kann man sich über die Verwendung im Lineup. Was ich für beachtenswert halte: Wenn NV klar ist, dass eine 7800XT klar schneller ist als jede Ausbauform des AD103, wird man für die 4080 den AD102 verwenden. Das bedenken viele nicht und wehren sich mit Klauen und Füßen dagegen, weil die 4080 ja unbedingt der AD103 sein muss. Ich sag ja nicht, dass das so ist, ich sag ja nur, dass man dafür offen bleiben sollte. Das Lineup ist noch nicht in Stein gemeißelt.
basix
2022-06-25, 12:29:52
AD107 ist mMn ein reiner Mobil-Chip oder in Form der Lowest End Desktop Karte nur als 4GB Variante verfügbar.
Beim Rest: Wird vermutlich so passen.
Man muss hier auch sehen, dass der AD103 den Platz der früheren Gx104 einnimmt. AD104 ist der neue Gx106er. Passt schon so. AD103+ sind für 4K mit genug Speicher bestückt und AD104 ist für 1440p ideal ausgelegt und AD106 ist für 1080p gedacht.
BlacKi
2022-06-25, 12:36:40
ich hoffe ja, das wenn die 4080 mit ad102 kommt, das man hier den weg über 256bit SI geht, und nicht bei 384bit und 12gb bleibt, oder noch schlimmer, 10gb an 320bit.
aber zu dieser zeit wussten wird schon, das es 10/20gb geben wird, letzteres kam nie, aber 320bit waren von anfang an bei den testboards dabei.
das scheint nun nicht der fall zu sein. die specs scheinen schon fest zu stehen. und eine 3080ti kann man ja auch jederzeit nachträglich bringen.
Es gab ja auch letztes Mal diesen Hochschaukeln-Effekt beim Marketing. Die Annahmen für die Leistung der Produkte wurden immer weiter nach oben korrigiert und letztendlich kam ne 3080 dabei raus, die nah am Maximalprodukt war. Man hat den ursprünglichen GA103 ja sogar gekippt deswegen. Das ist ja diesmal nicht mehr der Fall, aber die Frage ist, ob man da zuversichtlich war ob das reicht, oder ob man diesen Chip, genau wie den GA103S, unbedingt benötigt für mobil. Es gibt da noch einige Unwärbarkeiten. Und NV hat ja noch Zeit, das endgültige Lineup festzulegen, bis die Karten und die Kartons in Massenproduktion gehen. Vorher weiss man schlichtweg nicht, wie NV das Lineup fertigstellt, das wissen sie selbst bis heute noch nicht mMn, da wird sicherlich auf Leaks bis zu letzten Sekunde gewartet beim Marketing. Man kann jetzt Wetten abschließen und schauen, wer hinterher am besten spekuliert hat. Man muss bei NV eben vorher nur vorsichtig sein, wiviele AD102 man vorproduzieren muss.
BlacKi
2022-06-25, 13:35:07
deswegen die 420w. wenn ad102 fullfat bis 800w noch skaliert, dann könnte das auch der 103. dann spart man sich den brutalen salvage wie bei der 3080.
Rampage 2
2022-06-25, 13:37:16
es ist einfach nur lächerlich wie die leute sich über die 12gb aufregen;D jetzt macht nv einmal was richtig, und dann sowas...
Die 12GB 3060 & 2060 war eine absolut richtige und begrüßenswerte Entscheidung seitens Nvidia - fast RTX2080-Leistung (3060), aber dieses Mal mit ausreichend Speicher. Also die Menge an Speicher, die die 2080/2080 Super von Anfang an hätte haben sollen! (12 statt 8GB VRAM)
Wer hat also gegen die 12GB 3060 gemeckert?
ihr habt echt eine 4070 mit 10gb verdient!
Sollte NV eine 4070 rausbringen, die trotz schneller als 3080Ti nur 10GB Speicher hat, dann wäre das eine Frechheit, eine Verarsche, Geiz/Gier und eine Katastrophe! AD104 hat ein 192Bit-SI, also sind 12GB *ohne* krumme Lösungen (660 Ti, 970) möglich - dagegen gibt es dann keinerlei Rechtfertigung mehr!
R2
BlacKi
2022-06-25, 13:42:44
Wer hat also gegen die 12GB 3060 gemeckert?
na hier.
Finde die 12gb für die Rechenleistung over the top. Dort wo die 12gb mal voll werden könnten, zieht die 3060 sowieso keine Wurst mehr vom Teller. 6gb hätten ihr auch nicht schlecht gestanden, dazu einen kleineren uvp, schick.
Sehe diese Speicherdebatte gar nicht eng, denn meist wechselt man nach 2-3 Jahren sowieso wieder. Man sehe sich mal die 24gb der 3090 an. Mehr wird es auch nicht bei der 4090 werden. Ehe stoßen die Leute diese wieder ab, als das sie von dem riesigen Speicher profitieren könnten.
Klar, sie wird gut altern, das ist aber auch schon alles.
aber nicht nur er. ich glaub im verfügbarkeitsthread wurde ebenfalls über zuviel vram gemeckert:freak:
ChaosTM
2022-06-25, 13:43:32
Die original 3080er war schon ein schlechter Witz. ;)
iamthebear
2022-06-25, 14:03:47
Das Problem beim VRAM im Midrangebereich ist, dass zwar jeder meckert er hätte gerne mehr VRAM aber keiner bereit ist diesen auch zu bezahlen. Wer würde z.B. 900 Euro für eine 3070 16GB bezahlen, wenn daneben im Regal eine 3080 10GB um dasselbe Geld steht.
Wer ist bereit für eine 3060 12GB dasselbe zu bezahlen wie für eine 3070 8GB? Ich habe bisher noch keinen einzigen Benchmark mit spielbaren Frameraten gesehen wo eine 3060 schneller ist als eine 3070.
VRAM ist nur solange beliebt wie es diesen gratis oben drauf gibt.
Im High End Bereich wo es keine sinnvollen Alternativen mehr darüber gibt (z.B. 3080 Ti, 6900 XT etc.)
Generell sollten wir uns damit abfinden, dass VRAM Kapazitäten die nächsten Generationen nicht nennenswert steigen werden. Moores Law gilt für RAM nicht mehr.
robbitop
2022-06-25, 14:14:37
GPUs waren diese Runde einfach zu teuer IMO. Daher sicherlich auch das Gegeize mit dem Speicher. Aber ich fürchte es wird nicht mehr günstiger in den nächsten Generationen.
dargo
2022-06-25, 14:55:02
AD102 -> 384Bit -> 24GB
AD103 -> 256Bit -> 16GB
AD104 -> 192Bit -> 12GB
AD106 -> 128Bit -> 8GB
AD107 -> 128Bit -> 8GB
Streiten kann man sich über die Verwendung im Lineup. Was ich für beachtenswert halte: Wenn NV klar ist, dass eine 7800XT klar schneller ist als jede Ausbauform des AD103, wird man für die 4080 den AD102 verwenden. Das bedenken viele nicht und wehren sich mit Klauen und Füßen dagegen, weil die 4080 ja unbedingt der AD103 sein muss. Ich sag ja nicht, dass das so ist, ich sag ja nur, dass man dafür offen bleiben sollte. Das Lineup ist noch nicht in Stein gemeißelt.
Nicht unbedingt... 4080 kann weiterhin AD103 bleiben und NV bringt eine 4080TI mit AD102.
Meridian12
2022-06-25, 15:44:38
Habe noch die 1080ti mit 11GB Ram.
Meine nächste Karte hat 16GB oder mehr.
Die neue Karte soll lange halten (soll min 4080 werden).
Kurzum,wenn mir NVIDIA die 4080 mit 12 GB anbietet und die 4090 zu teuer ist, dann gehts zu AMD.
Keine Ahnung wieviele das so sehen wie ich, aber ich kaufe mir keine Karte, wo ich nachher diese ersetzen muss wegen zu wenig RAM drauf,obwohl sie mit mehr Ram schnell genug wäre.
prinz_valium_2
2022-06-25, 16:17:01
Wenn die 4080 wirklich nur 12GB hat, dann ergibt es auch Sinn, dass die 4070 mit nur 10GB kommt
Ist natürlich beides ziemlich meh, wenn man von einer 1070 oder 1080Ti kommt
Thunder99
2022-06-25, 18:02:19
...
Sollte NV eine 4070 rausbringen, die trotz schneller als 3080Ti nur 10GB Speicher hat, dann wäre das eine Frechheit, eine Verarsche, Geiz/Gier und eine Katastrophe! AD104 hat ein 192Bit-SI, also sind 12GB *ohne* krumme Lösungen (660 Ti, 970) möglich - dagegen gibt es dann keinerlei Rechtfertigung mehr!
R2
Würde aber astrein zu Nvidia passen. Beim Speicher haben sie schon immer gegeizt.
AD103 mit 16GB ist gesetzt, ansonsten bekommt die Firma nicht mein Geld. Ausgehend von einer 1080Ti muss es zwingend mehr werden als 11/12GB, ohne dass man Mondpreise zahlen muss (3090/Ti)
BlacKi
2022-06-25, 18:12:57
es wird haufenweiße karten geben die schneller sind als die ampere karten aber mit weniger speicher. das ist schon lange abgekoppelt. das wird auch so weitergehen, ist auch nichts neues. hat auch nichts mit nv zu tun, macht amd auch so.
iamthebear
2022-06-25, 18:24:54
Das ist auch vollkommen logisch. Die Transistordichte hat sich seit Pascal vervierfacht bei annähernd selben Preis pro Wafer (5nm heute vs. 16nm 2016).
Das GB GDDR6X ist nun jedoch knapp doppelt so teuer wie 2016. Wir können als froh sein wenn der Speicher nicht weniger wird.
Lehdro
2022-06-25, 19:30:54
Ich habe bisher noch keinen einzigen Benchmark mit spielbaren Frameraten gesehen wo eine 3060 schneller ist als eine 3070.
VRAM ist nur solange beliebt wie es diesen gratis oben drauf gibt.
FPS bei zuwenig VRAM eben nicht alles, denn was bringen mir die tollen FPS wenn das Game aussieht wie PS2 Grütze von 2001 weil das Texturstreaming komplett am ausrasten ist? Oder man dann sogar selber eines der wenigen Settings runterdrehen muss was eigentlich gar keine Leistung kostet -> Texturen. Bei >400€ GPUs am Speicher zu sparen ist eigentlich schon immer schief gegangen, siehe GTX 780 (Ti) mit 3 GiB, GTX 680 2 GiB und Fury sowie 5870 1 GiB. Oder anders herum ausgedrückt: Mir fällt keine Karte ein die zu viel Speicher für ihre Leistungsklasse zu ihrer Lebzeit hatte. Dir?
Während das absolute Leistungsniveau auf Höhe älterer Oberklasse-Grafikkarten im Dunstkreis der RTX 2070 liegt und somit den einen oder anderen Aufrüstwilligen enttäuscht, verdient der angenehme Alltag mit der Geforce RTX 3060 12GB eine Erwähnung: Egal, was man der Karte zu tun gibt, speicherbedingtes Nachladeruckeln oder Texturschwund sind selbst mit aktivem Raytracing absolut kein Thema. Ganz anders sieht das bei den großen Geschwistern mit nur 8 GiByte aus, welche zwar schneller rechnen, aber hier und da die unschönen Begleiterscheinungen einer zu knappen Kapazität zeigen. Diese Souveränität zeigt die Geforce RTX 3060 12GB auch unter Ultra HD - selten mit flüssigen Bildraten, aber stets mit tadellosem Streaming, sogar in den gefürchtetsten Tests Minecraft RTX und Wolfenstein Youngblood. Wir haben mittlerweile eine Spezialmessreihe mit Raytracing in den speicherintensivsten Spielen durchgeführt, welcher das Potenzial aufzeigt und der RTX 3060 12GB den einen oder anderen Sieg gegenüber der RTX 3060 Ti einbringt.
Quelle (https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Tests/12GB-Release-Date-Kaufen-Benchmark-Founders-Edition-1367318/4/)
Hier mal zum Nachlesen (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/) + hier mit RT. (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/)
mac_skull
2022-06-25, 20:05:57
Hieß es nicht mal, dass der zusätzliche Level2 Cash die Speicherausnutzung deutlich effektiver gestaltet, oder so was in der Art? War das nicht bei AMDs Infinity Cash der Fall? Könnte es dann nicht sein, dass 10GB mit Level2 Cash am Ende deutlich besser funktionieren, als 12GB bei der aktuellen Generation? Oder habe ich da was falsch verstanden?
Rampage 2
2022-06-25, 20:14:52
Das Problem beim VRAM im Midrangebereich ist, dass zwar jeder meckert er hätte gerne mehr VRAM aber keiner bereit ist diesen auch zu bezahlen. Wer würde z.B. 900 Euro für eine 3070 16GB bezahlen, wenn daneben im Regal eine 3080 10GB um dasselbe Geld steht.
Wer ist bereit für eine 3060 12GB dasselbe zu bezahlen wie für eine 3070 8GB? Ich habe bisher noch keinen einzigen Benchmark mit spielbaren Frameraten gesehen wo eine 3060 schneller ist als eine 3070.
Das stimmt so nicht. Für eine 16GB 3070 Ti (voller GA104 mit 16GB Speicher) wäre ich sogar bereit gewesen 1000€ auszugeben - genau darauf hatte ich bis Ende März diesen Jahres gewartet und deswegen sogar im August 2021 meine 3080Ti-Bestellung im letzten Moment doch noch storniert - um sie dann nach über ein halbes Jahr Umsonstwarten zu wiederholen:mad: (endgültiger Cancel der 16GB 3070 Ti im Februar/März 2022 und 3090 Ti zu teuer)
Eine 10GB 3080 würde ich nichtmal gratis annehmen!! (Nein, das ist kein Scherz!)
Das Ding war eine Totgeburt von der allerersten Stunde an - DOA. Hat Nvidia leider nur viel zu spät (12GB 3080) gemerkt:rolleyes:
VRAM ist nur solange beliebt wie es diesen gratis oben drauf gibt.
Ich (und wohl auch die meisten anderen informierten Zeitgenossen) wäre bereit, einen Aufschlag von 100-300€ zu zahlen für dieselbe GPU mit doppeltem Speicher;)
R2
BlacKi
2022-06-25, 20:35:26
Könnte es dann nicht sein, dass 10GB mit Level2 Cash am Ende deutlich besser funktionieren, als 12GB bei der aktuellen Generation? Oder habe ich da was falsch verstanden?
haha, 10gb cache wäre geil^^
cache kostet viel geld. aber ab einem gewissen punkt, wenn die bandbreite und auch latenz nicht reicht, dann kann cache eine alternative zur schnellerem, breiterem vram interface sein.
wenn man aber massiv schnellere bandbreite, latenz bentötigt, dann wird irgendwann cache vergrößerung, als alternative, interessant.
beide hersteller, scheinen den ausbau des caches für sich gefunden zu haben, wobei amd den stärksten ausbau schon hinter sich hatte. auch wenn nv 96mb vs amd 384mb mb größer erscheint, musst du in relation stellen wo sie herkommen. von 4mb auf 96mb ist prozentual wesentlich größer als 128mb zu 384mb.
nv versechsehnfacht die cache größe und amd verdreifach "nur". obendrauf kommt noch, das sich mit der menge, die hitrate, also der vorteil reduziert.
deshalb sind die 10gb cache zwar nice, aber nicht umsetzbar, wenn man noch geld verdienen will. auch technisch sind die 10gb nicht wirklich möglich, auf einer grafikkarte wie wir sie heute kennen, wohl auch nicht für 1mio €.
Thunder99
2022-06-25, 21:12:30
Hieß es nicht mal, dass der zusätzliche Level2 Cash die Speicherausnutzung deutlich effektiver gestaltet, oder so was in der Art? War das nicht bei AMDs Infinity Cash der Fall? Könnte es dann nicht sein, dass 10GB mit Level2 Cash am Ende deutlich besser funktionieren, als 12GB bei der aktuellen Generation? Oder habe ich da was falsch verstanden?
Cache ersetzt nicht RAM Menge sondern Bandbreite zu einem bestimmten Teil. Mit viel Cache kannst du auf Gddr6x verzichten und dennoch fast keine Nachteile haben, siehe Navi 2x
mac_skull
2022-06-25, 22:00:50
Ah...ok! Danke euch beiden für die Klarstellung:)
iamthebear
2022-06-26, 09:59:28
Das stimmt so nicht. Für eine 16GB 3070 Ti (voller GA104 mit 16GB Speicher) wäre ich sogar bereit gewesen 1000€ auszugeben - genau darauf hatte ich bis Ende März diesen Jahres gewartet und deswegen sogar im August 2021 meine 3080Ti-Bestellung im letzten Moment doch noch storniert - um sie dann nach über ein halbes Jahr Umsonstwarten zu wiederholen:mad: (endgültiger Cancel der 16GB 3070 Ti im Februar/März 2022 und 3090 Ti zu teuer)
Eine 10GB 3080 würde ich nichtmal gratis annehmen!! (Nein, das ist kein Scherz!)
Das Ding war eine Totgeburt von der allerersten Stunde an - DOA. Hat Nvidia leider nur viel zu spät (12GB 3080) gemerkt:rolleyes:
Ich (und wohl auch die meisten anderen informierten Zeitgenossen) wäre bereit, einen Aufschlag von 100-300€ zu zahlen für dieselbe GPU mit doppeltem Speicher
Jetzt sag mir ein Spiel wo eine 3080 12GB auf Grund des VRAMs mehr als 25% Leistung verliert sodass eine 3070 16GB schneller wäre...
Selbst bei der 10GB fällt mir nur Far Cry 6 unter 4K mit RT ein.
Hieß es nicht mal, dass der zusätzliche Level2 Cash die Speicherausnutzung deutlich effektiver gestaltet, oder so was in der Art? War das nicht bei AMDs Infinity Cash der Fall? Könnte es dann nicht sein, dass 10GB mit Level2 Cash am Ende deutlich besser funktionieren, als 12GB bei der aktuellen Generation? Oder habe ich da was falsch verstanden?
Die Idee des größeren Caches (ob größerer L2 oder zusätzlicher L3 ist egal) ist, dass bei 96MB und 4K ca. die Hälfte der Zugriffe aus dem L2 bedient werden können. Das hat folgende Vorteile:
.) Die effiektive Bandbreite verdoppelt sich
.) Die Latenz ist zumindest für die 50% der Zugriffe deutlich niedriger
.) Wenn man stattdessen dann ein schmäleres Speicherinterface verbaut (z.B. 256 Bit statt 512Bit bei der 6900 XT), dann sinkt damit der Energiebedarf deutlich
Auf die benötigte Speichermenge hat dies jedoch keinen Einfluss.
Will man geringere Speichermenge kompensieren, muss man für ein schnelleres PCIe Interface sorgen, damit Texturen schnell ein/ausgelagert werden können. Das war z.B. das Problem mit der 6500 XT: VRAM zu klein und PCIe stark beschnitten. Wenn das Board dann auch nur PCI 3.0 kann wird es ein Desaster.
Oder allgemeiner formuliert:
Die Größe eines Cachelevels wird immer mit der Geschwindigkeit des nächstgrößeren Levels kompensiert bzw. umgekehrt.
mac_skull
2022-06-26, 10:13:59
Danke dir! Also bleibt es dabei: Speicher ist nur durch mehr Speicher zu ersetzen. Schade, dass man bei der 4070 dann wieder einen Flaschenhals hat wie bei der 3080. Mal schauen, ob das Nvidia im direkten Vergleich mit AMD nicht um die Ohren fliegt. Bei der jetzigen Generation war es ja nicht so tragisch...gab ja eh keine Karten:rolleyes:
aufkrawall
2022-06-26, 10:49:57
Jetzt sag mir ein Spiel wo eine 3080 12GB auf Grund des VRAMs mehr als 25% Leistung verliert sodass eine 3070 16GB schneller wäre...
Selbst bei der 10GB fällt mir nur Far Cry 6 unter 4K mit RT ein.
Wer denkt, dass sich VRAM-Knappheit zwingend in ausgeprägten Prozentwerten für fps widerspiegelt, hat das Problem leider nicht verstanden.
Viel typischer sind kurze Slowdowns/Spikes, Texturstreaming-Aussetzer, Verschärfung der Problematik mit längerer Spieldauer und kein Polster mehr für Hintergrundanwendungen mit VRAM-Verbrauch (und seien es nur wenige hundert MB, reicht schon für hässliches Auslagern im Ressourcen-Wettkampf).
Die 10GB sind in 4k in Diablo 2 Ressurected zu wenig, Deathloop, CyberPunk mit RT + DLSS, Horizon Zero Dawn usw. Wer etwas anderes erzählt, hat schlicht keine Ahnung und betet einfach irgendwelche Balken runter, die er im Internet gefunden hat und glauben will. Die 2GB mehr der 12GB-Karten verschaffen da schon merkbar Luft.
<12GB sind ab 1440p einfach nur noch völliger Schrott für Highend, sofern nicht wider Erwarten noch irgendeine Wunder-Kompression auftaucht. Spiele, die weniger brauchen, helfen in den Problemfällen null, auch falls diese noch in der Minderheit bleiben sollten.
Rancor
2022-06-26, 10:52:38
Also 4070 mit 10 GIB wäre einfach ein riesen Fail. Dann würde ich mir lieber ne 3080TI holen, falls man die dann zu gleichen Preisen bekommen sollte.
r3ptil3
2022-06-26, 11:18:03
Also von dem Leaker der die 10Gb in Umlauf gebracht hat, halte selbst ich kaum noch was. Der wurde jetzt die letzten paar Monate mehrmals ordentlich in die Irre geführt.
Würde absolut nichts auf den 10Gb Leak geben. 12Gb sind da deutlich wahrscheinlicher.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.