Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
iamthebear
2021-09-11, 20:21:35
Dass seit Pascal beim Start einer neuen Generation von Nvidia zwar ein UVP angegeben wird, nachdem die Reviews eine Karte bewerten, die Chips jedoch zu einem Preis verkauft werden, zu dem es für die Boardpartner und Händler nicht möglich ist die Referenzdesigns um den UVP zu verkaufen. Dieser Preis wird dann erst nach einigen Monaten bzw. einem Jahr erreicht wenn Nvidia die Rabatte erhöht.
Beispiel dafür: Die 2080 Ti von der kein einziges Modell um den Listenpreis von 999 Euro erhältlich war und das über den gesamten Zeitraum den diese am Markt war bis auf die letzten 3-4 Monate vor Ampere Launch. Das war zu einer Zeit als ein keine Engpässe gab nach dem Miningcrash.
=Floi=
2021-09-12, 01:04:29
Können eigentlich den kompletten Elektronikmarkt reinlegen. Für große Bevölkerungsteile von Europa wird in 25 Jahren vieles der Infomationstechnologie nicht mehr leistbar sein und auch die Verfügbarkeit schlechter als in der DDR am Ende ihrer Lebenszeit sein, wenn nicht gegengesteuert werden. Damit geht es dann auch wieder back to the roots ins Vorzeitinformationszeitalter.
Die "Budget"phones haben heute weniger Rechenpower als High-End vor 7 Jahren
Was für ein nonsens!
Für 250€ gibt es den SD860 und für 370€ den 870er. Da bleibt niemand zurück. Highend wird weiter sehr teuer bleiben. Nachdem sich ebikes für 5000€ wie blöd verkaufen, werden sich auch 1000€ handys verkaufen.
Schau mal, was es vor 7!!! jahren gab, das kann man absolut nicht vergleichen! ARM hat richtig große sprünge gemacht. Dann kommt noch der RAM dazu und der UFS speicher.
Badesalz
2021-09-12, 10:10:12
Also meiner Meinung nach entsteht das subjektive Gefühl der hohen Preislage zum Großteil durch 2 Dinge:
Warum nur wiederholte sich diese Diskussion nicht schon seit der TNT2? Irgendwas ist diesmal wohl anders oder?
BlacKi
2021-09-12, 15:21:36
Beispiel dafür: Die 2080 Ti von der kein einziges Modell um den Listenpreis von 999 Euro erhältlich war und das über den gesamten Zeitraum den diese am Markt war bis auf die letzten 3-4 Monate vor Ampere Launch. Das war zu einer Zeit als ein keine Engpässe gab nach dem Miningcrash.
das mag auf die 2080ti zwar zugetroffen haben. aber für die meisten anderen karten nicht. ebenso für ampere nicht wirklich. es gab und gibt immerwieder dropps zur uvp. daraus einen vorwand zu basteln ist schon arg weit hergeholt.
allerdings spielt es keine rolle mehr. die fertigungskapazitäten bleiben auch nach dem mininghype nächstes jahr gefragt. ob es wirklich uvp preise gibt, hängt wohl eher daran wie hoch man die uvp preise hängt, denn die situation bleibt ganz generell angespannt.
robbitop
2021-09-12, 15:33:10
Die drops mit UVP sind mikroskopisch - in einer so kleinen Anzahl, dass es nicht praxisrelevant war. Fakt ist es gab die Karten nie in vernünftiger Verfügbarkeit zur UVP. Die Story zur gelogenen UVP und den rebate deals zwischen den Kartenherstellern und NV ist doch schon ewig bekannt.
Ex3cut3r
2021-09-12, 15:42:41
Also eine 2080Ti hat in DE ganz ohne Mining Wahn und Shortage schon 1200€ bei den Händlern gekostet, und da tat sich nie was im Preis, war Bombenstabil 2 Jahren lang so. Warum? Wahrscheinlich wurde Sie auch für 1200€ wie verrückt gekauft. :redface:
999$ UVP waren jedenfalls praktisch nie der Fall, war wohl "verarsche"
BlacKi
2021-09-12, 15:44:14
Die drops mit UVP sind mikroskopisch - in einer so kleinen Anzahl, dass es nicht praxisrelevant war. Fakt ist es gab die Karten nie in vernünftiger Verfügbarkeit zur UVP. Die Story zur gelogenen UVP und den rebate deals zwischen den Kartenherstellern und NV ist doch schon ewig bekannt.
darum gehts nicht. es geht darum, ob die ware zur uvp fertigbar ist oder nicht. alles was ich sagen wollte: ja es geht.
wäre die nachfrage nicht so rießig, dann gäbe es die karten zum uvp preis und darunter.
https://www.pcgameshardware.de/Geforce-RTX-2070-Super-Grafikkarte-275183/News/Bessere-Verfuegbarkeit-Preise-zum-Teil-unter-UVP-1295415/
Platos
2021-09-12, 16:01:29
Die drops mit UVP sind mikroskopisch - in einer so kleinen Anzahl, dass es nicht praxisrelevant war. Fakt ist es gab die Karten nie in vernünftiger Verfügbarkeit zur UVP. Die Story zur gelogenen UVP und den rebate deals zwischen den Kartenherstellern und NV ist doch schon ewig bekannt.
Also redest du jetzt von Turing abseits der RTX 2080Ti? Und inwiefern ist das schon ewig bekannt? Gibts da ne Quelle dazu? Also ich meine abseits von irgendwelchen beweislosen Verschwörungstheorien.
robbitop
2021-09-12, 16:11:46
Ampere. Das komplette Lineup.
darum gehts nicht. es geht darum, ob die ware zur uvp fertigbar ist oder nicht. alles was ich sagen wollte: ja es geht.
wäre die nachfrage nicht so rießig, dann gäbe es die karten zum uvp preis und darunter.
https://www.pcgameshardware.de/Geforce-RTX-2070-Super-Grafikkarte-275183/News/Bessere-Verfuegbarkeit-Preise-zum-Teil-unter-UVP-1295415/
Fertigbar zu quasi null Marge für die Boardpartner und damit nicht wirklich praxisrelevant denn die Boardpartner brauchen auch Marge.
Thunder99
2021-09-12, 16:14:57
Turing war auch speziell, quasi keine Konkurrenz mit dem RT Feature. Wieso sollte da auch die Preise extrem fallen?
Aktuell muss man einfach abwarten bis sich die Lage normalisiert hat. Ansonsten wird man nie Preise sehen, die in der Nähe der UVP sind oder darunter.
Wann das der Fall sein wird weiß keiner. Und wenn es sich normalisiert, werden die höheren Produktionskosten weitergeben.
Unter dem Schnitt werden die Preise steigen oder höher sein, als zu Pascal/Turing Zeiten :wink:
BlacKi
2021-09-12, 16:31:11
Ampere. Das komplette Lineup.
Fertigbar zu quasi null Marge für die Boardpartner und damit nicht wirklich praxisrelevant denn die Boardpartner brauchen auch Marge.
eine der besten custom karten wurde zum uvp preis verkauft, wenn auch nur kurz. da war selbst scheinbar bei einem hochwertigen produkt genug marge voranden. im gegensatz zu amds karten.
TheAntitheist
2021-09-12, 16:34:35
Also meiner Meinung nach entsteht das subjektive Gefühl der hohen Preislage zum Großteil durch 2 Dinge:
a) Nvidias gelogene UVP Angaben, durch die unrealistische Erwartungen geschürt werden
sorry aber ich hab meine 3090 zum UVP bekommen, also ich würde dich jetzt als Lügner deklarieren, rein "subjektiv".
Die Boardpartner heulen nur rum weil sie noch mehr Marge wollen. 100$ reichen denen nicht mehr, es muss immer mehr werden.
Platos
2021-09-12, 18:24:21
@Robbitop: Ja gut, Die Grafikkarten sind nicht zu UVP zu haben, das ist nichts neues. Aber wo ist der Beweis, dass die UVP nur Trug ist?
Die Strassenpreise, die wir haben, haben nichts damit zu tun.
robbitop
2021-09-13, 07:48:10
eine der besten custom karten wurde zum uvp preis verkauft, wenn auch nur kurz. da war selbst scheinbar bei einem hochwertigen produkt genug marge voranden. im gegensatz zu amds karten.
Wenn es nur kurz war, dann ist das nicht zwangsläufig der Fall. Kurzfristige Effekte wie Aktionen oder doch mal ein kleiner Drop von Karten als Alibi, damit keiner behaupten kann, dass die UVP gelogen ist. Eine UVP ist normalerweise etwas was mindestens im Verkauf landet. Häufig sogar darunter.
Wenn eine UVP nicht nachhaltig haltbar ist, stimmt da etwas nicht.
@Robbitop: Ja gut, Die Grafikkarten sind nicht zu UVP zu haben, das ist nichts neues. Aber wo ist der Beweis, dass die UVP nur Trug ist?
Die Strassenpreise, die wir haben, haben nichts damit zu tun.
Ich schätze für die aktuellen GPUs werden wir wohl vernünftige Verfügbarkeit abwarten müssen, um das zu bewerten. Die Pandemie macht - da hast du Recht - die Randbedingungen völlig anders.
dargo
2021-09-13, 07:56:44
Die Boardpartner heulen nur rum weil sie noch mehr Marge wollen. 100$ reichen denen nicht mehr, es muss immer mehr werden.
Witzig das gerade von dir zu lesen. Bei Lederjacke stört dich das ja nicht. ;D
BlacKi
2021-09-13, 09:38:02
Wenn eine UVP nicht nachhaltig haltbar ist, stimmt da etwas nicht.
alles eine frage der nachfrage. die 3080 tuf hätte man auch direkt für 750€ anbieten können, weil sie deutlich besser ist als die FE und andere basismodelle. stattdessen hat man sie für 699€ angeboten und auch verkauft, incl. marge.
die marge bei nv karten war schon immer höher als bei amd karten. deshalb lagen die customs der amd karten auch deutlich über dem ref. modell. bei nv ist das ref. modell eigentlich die FE und die basis varianten sind die ref. modelle. welche günstiger sind als die FE modelle. deshalb bleibt auch genug marge hängen.
robbitop
2021-09-13, 10:25:41
Ich denke wir alle wissen, dass es eine 3080 niemals (zumindest vor Release der 4080 zumindest) dauerhaft für den UVP von 719 EUR (die UVP war IIRC mal 699 EUR - hat man sogar angehoben?) geben wird. Selbst wenn die Nachfrage sich einpegelt.
Die UVP war IMO offensichtlich absichtlich zu niedrig für die Wirkung in der Öffentlichkeit.
BlacKi
2021-09-13, 10:26:55
das sehe ich anders.
Badesalz
2021-09-13, 10:31:05
@blacki
Kann man machen. Wenn aber Herbst2021 schon SOVIEL drumherum bekannt ist, und man es trotzdem tut, dann muss man eben damit rechnen periodisch ausgelacht zu werden.
robbitop
2021-09-13, 10:32:53
Fakt ist es gibt nicht eine Karte zu den UVPs dauerhaft verfügbar. Das liegt aktuell an der Nachfrage - da kann man nichts sagen. Aber das Angebot wächst sukzessive und es ist absehbar bis beides wieder in Waage ist. Spätestens dann werden wir sehen, ob man zur UVP kommt. Wenn nicht -> war's eine Lüge. Und ich vermute, dass es dazu nicht kommen wird.
BlacKi
2021-09-13, 10:33:29
ihr nehmt irgendwelche gerüchte mischt sie in einen topf dreht einmal rum und dann werden damit fakten zunichtegemacht? das ich nicht lache...
robbitop
2021-09-13, 10:37:32
Royales "ihr"? Ich schaue auf das Verhältnis UVP zu echten Preisen. Natürlich erst dann wenn Angebot und Nachfrage eingepegelt sind.
Es heißt im Übrigen "Dass ich nicht lache". ;)
Wirklich faktenreich waren deine Posts bisher zu dem Thema nicht.
-/\-CruNcher-/\-
2021-09-13, 12:03:52
Ich denke wir alle wissen, dass es eine 3080 niemals (zumindest vor Release der 4080 zumindest) dauerhaft für den UVP von 719 EUR (die UVP war IIRC mal 699 EUR - hat man sogar angehoben?) geben wird. Selbst wenn die Nachfrage sich einpegelt.
Die UVP war IMO offensichtlich absichtlich zu niedrig für die Wirkung in der Öffentlichkeit.
Jensen ist nichtmal rot geworden nicht eine miene hat er verzogen wissentlich das es niemals so kommen würde :D
Platos
2021-09-13, 12:13:48
Es ist trotzdem eine reine Behauptung, die nicht auf irgendwelchen Fakten beruht.
Thunder99
2021-09-13, 13:18:13
Niemand kann es wissen oder wahrscheinlich auch abschätzen, wie die Preise sich entwickelt hätten wenn es die Pandemie nicht gegeben hätte. Die Nachfrage wäre wohl eine andere gewesen ohne Pandemie. Oder liege ich da total falsch?
Je später die 4xxx Generation kommt, desto eher werden wir bessere Preise sehen als jetzt. Zwar teuerer in der UVP, aber günstiger auf der Straße, als was wir jetzt sehen :).
Meine Spekulation :).
Slipknot79
2021-09-13, 22:06:24
Fakt ist es gibt nicht eine Karte zu den UVPs dauerhaft verfügbar. Das liegt aktuell an der Nachfrage - da kann man nichts sagen. Aber das Angebot wächst sukzessive und es ist absehbar bis beides wieder in Waage ist. Spätestens dann werden wir sehen, ob man zur UVP kommt. Wenn nicht -> war's eine Lüge. Und ich vermute, dass es dazu nicht kommen wird.
Wo wächst das Angebot? Jetzt gibts erst mal wieder dicke Lockdowns in China bis März 2022, in Häfen, in Produktionsbetrieben, in RnD, bei den Zulieferern, und das abwechselnd. (y)
iamthebear
2021-09-13, 23:06:54
darum gehts nicht. es geht darum, ob die ware zur uvp fertigbar ist oder nicht. alles was ich sagen wollte: ja es geht.
wäre die nachfrage nicht so rießig, dann gäbe es die karten zum uvp preis und darunter.
https://www.pcgameshardware.de/Geforce-RTX-2070-Super-Grafikkarte-275183/News/Bessere-Verfuegbarkeit-Preise-zum-Teil-unter-UVP-1295415/
Nur weil ein Händler mal kurz sein Lager leer räumen muss oder irgendeine Sonderrabattaktion läuft bedeutet das nicht, dass dies für die Masse realistisch ist, besonders nicht für Händler mit einem physischen Laden mit Verkaufsfläche.
Ja Refreshgenerationen sind von dieser Regel ausgenommen. Die übliche Vorgehensweise von Nvidia ist die:
.) Beim Launch einer neuen Generation sind die Preise so dimensioniert, dass sie ca. 20% über UVP landen
.) Nach ca. einem Jahr werden zusätzliche Rabatte an AIBs vergeben und damit der UVP erreicht
.) Die Refreshgenerationen (z.B. 2060/2070/2080 Super bekommen dann einen Preis ohne diesen Aufschlag.
Aktuellere Beispiele dafür:
3070 Ti (20% mehr UVP ohne zusätzliche Performance außer dem, was durch Hochsetzen der TDP erreicht wurde)
3080 Ti
Weitere Ausnahmen sind in der Regel alle Karten wie Titan, 3090 etc. die ohnehin schon mit mehr Marge kalkuliert wurden. Diese bekommen schon bei Release den korrekten UVP.
Also redest du jetzt von Turing abseits der RTX 2080Ti? Und inwiefern ist das schon ewig bekannt? Gibts da ne Quelle dazu? Also ich meine abseits von irgendwelchen beweislosen Verschwörungstheorien.
Es reicht, wenn man regelmäßig die Geizhals Preise verfolgt hat.
Die 2070 bzw. 2080 waren in den ersten Monaten immer ca. zum Preis der FE zu haben, die auch 20% über dem UVP des Referenzmodells angesetzt waren.
Erst kurz vor Abkündigung und Release der Super Karten sind diese auf im Handel auf UVP gefallen.
Turing war auch speziell, quasi keine Konkurrenz mit dem RT Feature. Wieso sollte da auch die Preise extrem fallen?
RT wurde zu dem Zeitpunkt noch als nutzloses Gimmick eingestuft, da die Karten sowieso nicht genug Performance dafür hatten.
DLSS in der Version 1.0 wurde auch nur als Spielerei ohne echten Nutzen angesehen.
Der Turing Launch fand einige Monate nach dem ersten Miningcrash statt und wurde extra ein paar Monate verschoben, da noch so viele Karten auf Lager waren, die sich nicht mehr verkauft haben.
Selbst die UVP waren bereits so hoch gewählt, dass es im Vergleich zur Vorgängergeneration keine Verbesserung gab. Der reale Verkaufspreis einer 2080 war teurer als der einer fast gleich schnellen 1080 Ti.
Es gab auch sonst keine Engpässe oder Probleme mit neuen Fertigungsverfahren (12nm war eine Verbesserung des bewährten 16nm Prozesses).
Aktuell muss man einfach abwarten bis sich die Lage normalisiert hat. Ansonsten wird man nie Preise sehen, die in der Nähe der UVP sind oder darunter.
Wann das der Fall sein wird weiß keiner. Und wenn es sich normalisiert, werden die höheren Produktionskosten weitergeben.
Unter dem Schnitt werden die Preise steigen oder höher sein, als zu Pascal/Turing Zeiten :wink:
Die aktuelle Chipkrise, Miningboom etc. kommt noch dazu, aber selbst unter normalen Bedinungen wäre Ampere in den ersten Monaten nie um den UVP verkaufen worden es sei denn AMD hätte zur aggressiven Druck aufgebaut.
sorry aber ich hab meine 3090 zum UVP bekommen, also ich würde dich jetzt als Lügner deklarieren, rein "subjektiv".
Die Boardpartner heulen nur rum weil sie noch mehr Marge wollen. 100$ reichen denen nicht mehr, es muss immer mehr werden.
Die 3090 ist wie oben erwähnt von dem Aufschlag ausgenommen, genauso wie die 3080 Ti. Wenn diese über UVP sind, dann liegt es rein an der aktuellen Marktsituation.
Die Margen der AIBs liegen bei ca. 10%, bei Nvidia sind es ca. 40% vom Verkaufspreis. Dafür tragen die AIBs aber auch das gesamte Risiko mit Garantieleistungen auch wenn Nvidia etwas beim Referenzdesign verbockt hat oder über ihre Treiber auf einmal zu hohe Taktraten fahren und die Kunden die Karten dann einschicken (siehe Ampere Launch).
alles eine frage der nachfrage. die 3080 tuf hätte man auch direkt für 750€ anbieten können, weil sie deutlich besser ist als die FE und andere basismodelle. stattdessen hat man sie für 699€ angeboten und auch verkauft, incl. marge.
Angeboten wurde sie um den Preis, da die AIBs einen Einführungsrabatt von 50$ für alle im September verkauften Karten erhalten haben (die man wohl an einer Hand abzählen konnte). Danach wurde der Rabatt gestrichen bevor die ersten wirklichen Lieferungen kamen. Das hatte nur den Sinn, damit die Karten bei Distributoren billiger gelistet werden.
die marge bei nv karten war schon immer höher als bei amd karten. deshalb lagen die customs der amd karten auch deutlich über dem ref. modell. bei nv ist das ref. modell eigentlich die FE und die basis varianten sind die ref. modelle. welche günstiger sind als die FE modelle. deshalb bleibt auch genug marge hängen.
Das war zu Pascal Zeiten bzw. davor vielleicht noch so.
Nvidia hat hat ein Referenzmodell, das jedoch nur an die AIBs gesendet und nicht verkauft wird. Nach irgendetwas müssen sich die AIBs ja orientieren, wenn sie ihre Karten designen und dabei vor Launch nicht einmal funktionsfähige Treiber haben, die mehr können als nur das Testprogramm von Nvidia.
Die Founders Edition ist eine eigene Sonderedition, die z.B. bei Ampere auch extrem vom Referenzdesign abweicht.
Es ist trotzdem eine reine Behauptung, die nicht auf irgendwelchen Fakten beruht.
Zur Situation bei Turing habe ich ja oben schon meinen Senf dazu gegeben.
Was die Ampere Preise angeht ist der Beweis hier:
https://www.youtube.com/watch?v=SxtfNcm45xk
Das Video statt noch von VOR dem Marktstart
Dampf
2021-09-13, 23:55:05
Wenn man darüber nachdenkt, dass Turing bis heute noch weit davon entfernt ist, voll ausgereizt zu werden... echt eine krasse Architektur. Hoffentlich kommen bald Spiele, die Mesh Shading und SFS nutzen.
Badesalz
2021-09-14, 09:40:55
@Dampf
Da du ja nicht einfach nur 100% Auslastung meinst:
Welche Soft reizt heute einen Broadwell aus? :usweet:
Linmoum
2021-09-19, 11:11:19
Laut Greymon gibt's erneut 384bit und GDDR6X mit AD102.
https://mobile.twitter.com/greymon55/status/1439486356548325387
horn 12
2021-09-19, 12:29:27
Oh Gott
Das bricht Nvidia noch Genick irgendwann
Thunder99
2021-09-19, 12:51:58
Denke nicht, da noch zu viel unbekannt ist.
Dann sind ja 24GB beim Topmodel gesetzt und darunter 20/10 etc.. (hoffe auf 20, damit bei 256bit dann die erforderlichen 16GB gibt). Produktpolitisch wäre es so einfach...
OgrEGT
2021-09-19, 13:06:12
Laut Greymon gibt's erneut 384bit und GDDR6X mit AD102.
https://mobile.twitter.com/greymon55/status/1439486356548325387
Bin mir nicht sicher aber GDDR6x wird sicher noch höher takten und so noch mehr Leistungsaufnahme erzeugen vor allem wenn evtl auch mehr Speicher verbaut wird... alleine dadurch wird die gesamte Leistungsaufnahme im Verhältnis GPU vs Speichersystem im Vergleich zu AMD immer ungünstiger da AMD anteilig mehr Leistung für die GPUs zur Verfügung hat und nicht für das Speichersystem...
384bit ist auch wieder ungünstig... entweder nur 12Gb oder gleich 24gb für die 4080... 48Gb für die 4090...
Entscheidend wird sein ob sie den 102er gegen N33 stellen müssen oder ob diesmal der 104er reicht...
Platos
2021-09-19, 13:13:01
Greymon geht ja auch von 320Bit für die 4080 aus und 384 für die 4090.
Edit: Also 20GB für 4080 und 24GB/48GB für 4090.
Linmoum
2021-09-19, 13:15:15
Denke nicht, da noch zu viel unbekannt ist.
Dann sind ja 24GB beim Topmodel gesetzt und darunter 20/10 etc.. (hoffe auf 20, damit bei 256bit dann die erforderlichen 16GB gibt). Produktpolitisch wäre es so einfach...Es ging horn sicherlich nicht um die Speicherconfig.
Sondern darum, dass die Karten mit GDDR6X einfach nur versoffen sind, die 3070Ti zieht rund 30% mehr als die 3070 mit GDDR6. Das ist auch nicht mehr unbekannt. Aber NV bleibt auch keine andere Wahl, HBM werden sie allein aus Margengründen niemals im Desktop bringen und da sie (noch) keine Cache-Lösung wie AMD haben, reicht gerade nach oben hin einfacher GDDR6 auch nicht aus.
dildo4u
2021-09-19, 13:23:47
Games müssen nur höhere Anforderungen stellen hier sind über 100% Leistung von 3060 zu 3080 Ti selbe Speichermenge.
https://abload.de/img/deathloops7j26.png
https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/3/#diagramm-deathloop-2560-1440-raytracing
https://abload.de/img/doomrt9vjph.png
https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Raytracing-RTX-Update-DLSS-Benchmarks-Review-1374898/
Wird reden immer noch von der massen an Cross Gen Games die in CPU/API Limits laufen, das wird sich erst 2022 ändern.
Platos
2021-09-19, 13:34:06
Games müssen nur höhere Anforderungen stellen hier sind über 100% Leistung von 3060 zu 3080 Ti selbe Speichermenge
Und was willst du damit sagen? Das die Speichermenge (12GB) in dem Spiel nicht zu wenig ist unter 1440p ? Die 3080Ti ist im 4k Perfomance Index auch etwa 2.2x schneller. Das passt also ziemlich genau.
Besser hättest du die 3070/3060Ti mit 3080Ti und 3060 verglichen. In 4k ist nämlich die 3080Ti in den min. FPS doppelt so schnell wie die 3070 (Im 4k Perf. Index ist aber die 3080Ti "nur" 46% schneller und nicht wie hier 100% schneller).
In 1440p ist die 3060 sogar minimalst schneller, wie die 3070 (also abzüglich Messtoleranz ergibt das Gleichstand). Laut 4K Perf Index müsste aber die 3070 52% schneller sein. Laut FHD Perf. Index müsste die 3070 45% schneller sein. Man sieht also in dem Spiel ganz deutlich, dass 8GB zu wenig ist.
https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/3/#diagramm-deathloop-3840-2160-raytracing
basix
2021-09-19, 13:36:49
Sondern darum, dass die Karten mit GDDR6X einfach nur versoffen sind, die 3070Ti zieht rund 30% mehr als die 3070 mit GDDR6. Das ist auch nicht mehr unbekannt. Aber NV bleibt auch keine andere Wahl, HBM werden sie allein aus Margengründen niemals im Desktop bringen und da sie (noch) keine Cache-Lösung wie AMD haben, reicht gerade nach oben hin einfacher GDDR6 auch nicht aus.
GDDR6X in der ersten Iteration ist wirklich versoffen. Ich denke aber, dass das Micron und Nvidia bewusst ist und sie hier entsprechend viel für Optimierungen investieren werden. 384bit G6X bei ~24 GT/s sind völlig OK. Die effektive Taktfrequenzen sind hierbei ja nur gleichauf mit 12 GT/s G6. Allerdings ist Fully Differential Signalling einfach energieaufwändiger als Single Ended.
Und: Laut Gerüchten soll Lovelace/Hopper mit "bigger Caches" daherkommen. Evtl. nicht gleich 128MByte aber evtl. 32MByte. Das sollte die Energieffizienz ebenfalls steigern.
dildo4u
2021-09-19, 13:39:24
Und was willst du damit sagen? Das die Speichermenge (12GB) in dem Spiel nicht zu wenig ist unter 1440p ? Die 3080Ti ist im 4k Perfomance Index auch etwa 2.2x schneller. Das passt also ziemlich genau.
Besser hättest du die 3070/3060Ti mit 3080Ti und 3060 verglichen. In 4k ist nämlich die 3080Ti in den min. FPS doppelt so schnell wie die 3070 (Im 4k Perf. Index ist aber die 3080Ti "nur" 46% schneller und nicht wie hier 100% schneller).
In 1440p ist die 3060 sogar minimalst schneller, wie die 3070 (also abzüglich Messtoleranz ergibt das Gleichstand). Laut 4K Perf Index müsste aber die 3070 52% schneller sein. Laut FHD Perf. Index müsste die 3070 45% schneller sein. Man sieht also in dem Spiel ganz deutlich, dass 8GB zu wenig ist.
https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/3/#diagramm-deathloop-3840-2160-raytracing
Was ich geschrieben habe schwer zu bewerten wie ineffizent die großen Nvidia Modelle sind wenn die eher in CPU/APU Limits laufen als AMD oder Nvidia Low End.
Platos
2021-09-19, 13:46:13
Was ich geschrieben habe schwer zu bewerten wie ineffizent die großen Nvidia Modelle sind wenn die eher in CPU/APU Limits laufen als AMD oder Nvidia Low End.
Ok. Auf jeden Fall sieht man, dass 8GB ganz klar zu wenig ist und ich vermute 10GB kratzen auch gerade so an der Grenze (siehe News von Leonidas. Die 3080 hat in den min FPS nochmals ein etwas schlechteres Verhältnis von avg und P0.2, wie die Karten mit mind. 12GB).
BlacKi
2021-09-19, 13:48:08
hat ampere nicht generell zuviel bandbreite? die meisten spiele reagieren kaum auf bandbreitenänderungen.
sieht man auch an der 3070 vs 3070ti. die unterschiede zwischen diesen beiden karten gehen wohl eher auf den höheren takt und mehr recheneinheiten zurück als auf die 35% mehr bandbreite.
mich hätte interessiert, wieviel die 3080 mit 16gb gddr6(x) an 256bit wirklich verloren hätte.
ob sich NV mit 320bit nicht selbst ins bein geschossen hat? vermutlich wollte man der 3080 keine 16gb geben, damit man den uvp preis niedriger halten kann. die karte ist wohl mit 10gb 320bit einfach billiger als 256bit mit 16gb.
dildo4u
2021-09-19, 13:51:12
Daher würde ich 3060 vs 3080 TI vergleichen, die 3070 TI könnte in Vram Limits laufen in hohen Settings mit RT.
+122% klingt doch spannend :-)
https://m.3dcenter.org/news/geruechtekueche-nvidias-ad102-chip-soll-mit-gleich-122-mehr-rechenleistung-antreten
Sunrise
2021-09-19, 21:30:47
Klingt nicht unrealistisch, wir reden hier immerhin von 5nm bei TSMC, bei laut TSMC sehr guter Yieldkurve (besser als der bereits sehr gute N7) und evtl. gibts auch wieder eigene Anpassungen. Jedenfalls hat NV da sicher eine extrem gute Basis, um auch hohe Takte fahren zu können bei gutem Yield, und es wird auch seine Gründe haben, warum Samsung da absolut nicht mithalten konnte.
Das große Fragezeichen ist dann wieder die Verfügbarkeit, aber ich gehe von gesalzenen Preisen aus (UVP), weshalb der Bedarf darüber besser als bisher reguliert werden kann. Man muss sich einfach daran gewöhnen, dass ab sofort bei sehr hoher Mehrperformance auf sehr teuren Technologiebasen die Preise steigen.
The_Invisible
2021-09-19, 23:04:14
hat ampere nicht generell zuviel bandbreite? die meisten spiele reagieren kaum auf bandbreitenänderungen.
sieht man auch an der 3070 vs 3070ti. die unterschiede zwischen diesen beiden karten gehen wohl eher auf den höheren takt und mehr recheneinheiten zurück als auf die 35% mehr bandbreite.
mich hätte interessiert, wieviel die 3080 mit 16gb gddr6(x) an 256bit wirklich verloren hätte.
ob sich NV mit 320bit nicht selbst ins bein geschossen hat? vermutlich wollte man der 3080 keine 16gb geben, damit man den uvp preis niedriger halten kann. die karte ist wohl mit 10gb 320bit einfach billiger als 256bit mit 16gb.
Gab/Gibt halt keine 16gbit G6X Module, man hätte also das teure Platinendesign der 3090 inkl. allen Problemen hernehmen müssen oder normale g6 Module auf 256bit was wohl zuwenig ist.
Sollte sich nächste Gen ja erledigen, tippe daher auch auf 16/20/24gb Ausstattungsvarianten.
BlacKi
2021-09-19, 23:45:29
oder normale g6 Module auf 256bit was wohl zuwenig ist.
was ich ja bezweifle. asaraki betrieb seine 3080 auch mit maximalem vram underclocking, genau wie ich. die performance einbußen sind kaum messbar, je nach spiel. eine 3080 mit 12 gb 192bit gddr6x hätte geringere bandbreite auch ausgebessert. die platine ist ja praktisch gleich mit der 3090, nur fehlen 2 bausteine in den slots.
so oder so, ich denke man wollte den kosten niedrig halten und gleichzeitig die bestellten gddr6x abnehmen um keine strafzahlungen leisten zu müssen.
man könnte als super modell nochmals eine mit 12gb gddr6 192bit angebundene 3070 super bringen. mit der 1070ti hat man damals auch einen fast gleichschnelleren 1080 chip gebracht mit geringerer bandbreite.
Die Speicherchips selbst sollen ja nicht das Problem bzw. sogar effizienter als GDDR6 sein. Das Speicherinterface ist versoffen... das kann NVidia ja fixen ;)
Linmoum
2021-09-20, 09:49:14
Das SI der 3070Ti ist also versoffen, das der 3070 aber nicht? :confused:
basix
2021-09-20, 11:00:16
Das SI der 3070Ti ist also versoffen, das der 3070 aber nicht? :confused:
Richtig ;)
G6X funktioniert einfach anders. Obwohl die Taktraten der den Daten-PHYs bei 19 Gbps nur so hoch sind wie bei 9.5 Gbps G6, wird das SI anders betrieben. Ein paar Teile der internen Ansteuerung, Register und Buffer usw. müssen wohl mit 19/14 und somit mit +35% Takt laufen oder z.B. +35% mehr Registerplatz belegen (letzteres hat man wohl nicht zur Verfügung oder wäre Verschwendung, wenn nicht bei G6 schon ausgenutzt). Nur schon der höhere Takt kann zu 2...2.5x Energieverbrauch dieser Teile führen. Ausserdem wird man wohl nicht Single Ended sondern Differential Signaling verwenden (da PAM-4 höhere Anforderungen an Signal-to-Noise stellt), was ebenfalls mehr Energie braucht.
So einfach sich der Unterschied anhört, im Detail ist da noch deutlich mehr dahinter.
Edit:
Die Speicherchips selbst sollen ja nicht das Problem bzw. sogar effizienter als GDDR6 sein. Das Speicherinterface ist versoffen... das kann NVidia ja fixen ;)
Bezüglich pJ/bit sind die Speicherchips laut Micron effizienter. Absolut gesehen benötigen sie mehr Energie. Ich denke aber auch, dass der Grossteil des Mehrverbrauchs vom SI der GPU kommt. Mit einem Respin / Redesign / TSMC / whatever kann man da sicher einiges herausholen.
Sollte sich nächste Gen ja erledigen, tippe daher auch auf 16/20/24gb Ausstattungsvarianten.
Ja, tippe ich auch. Jetzt wäre nur noch nice, wenn man beim normalen G6 3.0 GByte Module bekommen würde. Dann hätte RDNA3 sehr ähnliche Speichermengen (12 / 18 / 24 GByte bei 128 / 192 / 256bit)
dargo
2021-09-20, 11:34:19
Klingt nicht unrealistisch, wir reden hier immerhin von 5nm bei TSMC, bei laut TSMC sehr guter Yieldkurve (besser als der bereits sehr gute N7) und evtl. gibts auch wieder eigene Anpassungen. Jedenfalls hat NV da sicher eine extrem gute Basis, um auch hohe Takte fahren zu können bei gutem Yield, und es wird auch seine Gründe haben, warum Samsung da absolut nicht mithalten konnte.
Das große Fragezeichen ist dann wieder die Verfügbarkeit, aber ich gehe von gesalzenen Preisen aus (UVP), weshalb der Bedarf darüber besser als bisher reguliert werden kann. Man muss sich einfach daran gewöhnen, dass ab sofort bei sehr hoher Mehrperformance auf sehr teuren Technologiebasen die Preise steigen.
2000-2500$ UVP für den Topdog und 3000-4000€ Straßenpreis. ;D
Nightspider
2021-09-20, 12:13:36
Vielleicht arbeitet Nvidia mit Micron ja an so etwas wie eigenem GDDR7 oder GDDR6XX. ^^
Sunrise
2021-09-20, 13:40:24
2000-2500$ UVP für den Topdog und 3000-4000€ Straßenpreis. ;D
999-1499 USD/EUR für High-End und 1599-1999 USD/EUR Enthusiast ist denke ich ausgemachte Sache.
Man kann dann binnen anhand Taktbarkeit/Defekten(SI) und entsprechendem Speicherausbau und hat dann noch genug Platz für den Refresh von Ampere darunter, und somit kann NV die Refresh-Nachfolger auf noch Samsungs Node billiger in den Markt geben (das war wohl auch die Idee von GA103) und hat gleichzeitig noch obenrum die 5nm-Kapazität für die extreme Mehrleistung und deutlich mehr Speicher. Somit kann man ebenso gut die notwendige Kapazität steuern.
IMHO perfekt für ein neues Line-Up, dann man hat dann zwei Quellen, ist ultra-flexibel und weiterhin ist der Großteil des Marktes abgedeckt. Natürlich wird es darunter auch noch Angebot geben, ich spreche jetzt bewusst erstmal nur über die Top-SKUs.
Würde auch erklären, warum NV beim Speicherausbau sehr viele der SKUs gecancelt hatte, denn die Mehrperformance wird an deutlich mehr Speicher gekoppelt und wenn neue GPUs deutlich mehr Speicher haben, hat man mehr Kaufanreiz, man greift daher lieber zu den neuen (z.B. 16GB, 20GB, 24GB...) Größen und kann den Mehrpreis auch besser rechtfertigen.
Ich denke man kann sich schon ganz gut vorstellen, was NV vorhat. Auch die Margen werden dadurch deutlich besser werden.
ChaosTM
2021-09-20, 13:53:55
Wenn die Chip Knappheit vorüber und Mining hoffentlich kollabiert ist, normalisieren sich auch die Preise wieder. 1500 zahlen die Leute nur aus Verzweiflung und weil dank Covid viele zu Hause bleiben und daher viel Geld überblieb.
Am besten wär natürlich ein totaler Crypto Kollaps.
Das renkt sich wieder ein (Hoff ich)
Add.: Und Intel spielt auch bald mit. Wenn der top Chip wirklich 3070er Level erreicht und günstig genug wird, gibt's einen kleine Erdrutsch.
Sunrise
2021-09-20, 14:08:32
Wenn die Chip Knappheit vorüber und Mining hoffentlich kollabiert ist, normalisieren sich auch die Preise wieder. 1500 zahlen die Leute nur aus Verzweiflung und weil dank Covid viele zu Hause bleiben und daher viel Geld überblieb.
Am besten wär natürlich ein totaler Crypto Kollaps.
Das renkt sich wieder ein (Hoff ich)
Add.: Und Intel spielt auch bald mit. Wenn der top Chip wirklich 3070er Level erreicht und günstig genug wird, gibt's einen kleine Erdrutsch.
Auch Intel wird nichts verschenken, vor allem wenn sie darauf angewiesen sind, extern zu fertigen, weil sie es nicht schaffen, für ihre eigenen Anforderungen genug Angebot (High-End-Fertigung) bereitzustellen.
Entweder sie können das, oder aber sie spielen nicht in der gleichen Liga wie AMD/NV und dann können sie sowieso keine ähnlichen Preise verlangen.
Wie der erste Eintritt genau abläuft werden wir dann sehen, aber Intel redet leider einfach zuviel.
Screemer
2021-09-20, 14:12:36
Nichts wird sich mehr normalisieren. Die Preisgestaltung ist die neue Realität.
ChaosTM
2021-09-20, 14:37:57
Die Leute sind verzweifelt derzeit weil es einfach nix gibt. Hauptschuldiger ist der Crypto Bullshit. und natürlich die Pandemie -> Perfekt Storm.
Sobald das weg ist, werden speziell NV die Umsätze wegbrechen. Die pfeifen momentan auf uns Gamer und verkaufen lieber En-Block an Miner. Das wird sich rächen, speziell wenn Gebrauchtkarten wieder mal den Markt überfluten.
Die Leute sind ja nicht komplett verblödet. Der Markt reguliert das wieder.
Außer der Crypto Irrsinn bleibt dauerhaft bestehen.
dargo
2021-09-20, 14:51:24
Wenn die Chip Knappheit vorüber und Mining hoffentlich kollabiert ist, normalisieren sich auch die Preise wieder.
Wann soll diese Situation nach deiner Glaskugel eintreten? Meine Glaskugel sagt das könnt ihr euch 2022 komplett abschminken. Selbst 2023 rechne ich noch nicht damit.
ChaosTM
2021-09-20, 15:08:22
Ich hab keine Glaskugel. ;)
Momentan hängt alles am Mining* und Intel. Letzteres ist aber eine eher schwache Hoffnung.
*der Crypro Blödsinn lebt von Zyklen - die Spezialisten kassieren dabei 2x ab - einmal beim Hype selbst und dann beim Shorten wenn alle in Panik abstoßen.
Auf letzteres hoffe ich. Sonst dauert es noch 1-2 Jahre mindestens, ja..
Thunder99
2021-09-20, 17:54:02
Zu lange zu hohe Preise wird der Markt mit nicht gekauften Produkte quittieren, da schlicht irgendwann das Geld ausgeht für so einen Luxus. 2021 ist durch, da gibt es keine Entspannung mehr aber es ist dennoch realistisch, dass 2022 es besser werden kann wenn die Impfung weltweit >70% erreicht.
Lovelace wird höher einsteigen, als Ampere aber nicht das Preisniveau default wie die aktuellen Straßenpreise haben :wink:.
aufkrawall
2021-09-20, 18:08:51
Momentan hängt alles am Mining* und Intel.
Das ist nicht zutreffend. Die abnormal hohe Nachfrage, unterbrochene Lieferketten und sonstige Bauteileknappheit könnten die Preise auch komplett ohne Mining noch über lange Zeit absurd hochhalten.
DavChrFen
2021-09-20, 18:11:28
Vielleicht arbeitet Nvidia mit Micron ja an so etwas wie eigenem GDDR7 oder GDDR6XX. ^^
Ich dachte auch dass NVidia da pro Übertragung doppelt so viele Sannungszustände wie jetzt machen wollte( ich hoffe ich habe das richtig formuliert). Aber ob das nach wie vor der Plan ist weiß ich nicht. Aber falls das kommt wird der Speichercontroller nach wie vor saufen.
iamthebear
2021-09-20, 22:15:06
Ich weiß nicht so recht, ob noch mehr Signalpegel bezüglich der Energieeffizienz da so eine gute Idee sind. Schließlich geht es im Endeffekt ja darum die Anzahl der übertragenen Bits pro Watt bzw. pro Fläche zu steigern.
Angeblich gibt es zu GDDR7 aber schon einen JEDEC Entwurf und Testgeräte, um die eigenen Komponenten auf Konformität zu prüfen:
https://www.smart-dv.com/memory/gddr7.html
Ich weiß nicht sicher, ob es echt ist, aber ein simpler Schreibfehler scheint es zumindest nicht zu sein, weil die bieten das Ding auch für GDDR6 an und da sind die technischen Daten teilweise abweichend.
Let's make a summary.
3090S 10752 24GB G6X
3080S 8960 12GB G6X
3070S 5888 8G G6X
3060S 5632 12G G6
Although I doubt the specs of some of them and the name of 90S.
https://mobile.twitter.com/kopite7kimi/status/1440516490164260868?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1440516 490164260868%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Fnvidia-geforce-rtx-30-super-lineup-rumored-specs-3090-super-10752-cores-24-gb-3080-super-8960-cores-12-gb-3070-super-5888-cores-8-gb-3060-super-5632-cores-12-gb%2F
Hmm Mal gucken wie das smooth in Richtung Lovelace führt...
Leonidas
2021-09-22, 12:29:32
Bei Preisen und Wattagen?
Lovelace-bezogen: AD103 bestätigt, AD107 nicht existent
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-21-september-2021
Dürfte man nach unten weiterhin mit Amperes auffüllen. Also ähnliche Strategie wie bei RDNA3.
DavChrFen
2021-09-22, 20:33:40
hm, die 12GB dürften sich noch mehr wie jetzt wie ein Speicherkrüppel anfühlen. Keine 1,5GiB-Module in Sicht? Oder liefert man die dann im Refresh nach?
Lurtz
2021-09-22, 22:19:45
Falls ich eine 3060 Super mit 12 GB als FE bekäme könnte ich meine 3070 verkaufen :uup:
Thunder99
2021-09-23, 10:39:42
hm, die 12GB dürften sich noch mehr wie jetzt wie ein Speicherkrüppel anfühlen. Keine 1,5GiB-Module in Sicht? Oder liefert man die dann im Refresh nach?
Denke eher die 12GB sind die neuen 8GB. Ausreichend und daher lange genutzt.
1.5GB Module kommen dann, wenn sie bestellt werden. Aktuell gibt es ja keine Gerüchte dazu.
Geldmann3
2021-09-24, 20:36:52
So könnte ich mir das RTX 4000er Lineup vorstellen:
https://pbs.twimg.com/media/FAEX5YVWQAEcWGa?format=png&name=small (https://twitter.com/HIG5HLeader/status/1441460200460988417/photo/1)
RTX 4090
Die RTX 4090 wird lediglich ein Halo-Produkt, um auch in Zeiten, in welchen man die Performance-Krone mal nicht halten kann, mit etwas zu glänzen.
Da ein solch großer Chip schwer zu produzieren wird, muss der Preis erneut nach oben.
Weil Nvidia, wie gewohnt, knauserig mit dem Vram umgehen wird, gibt es kein Upgrade zu den 24GB der RTX 3090.
Die TDP könnte man auf dem Papier bei ,,sauberen" 400 Watt festsetzen, kann mir jedoch vorstellen, dass die Karte in der Praxis sogar etwas mehr ziehen wird.
Bei der ,,praktischen Gaming-Performance", im GPU Limit, tippe ich auf 75% Leistungssteigerung.
RTX 4080
Da 1000$ mittlerweile das neue ,,Normal" für ein High-End Produkt sind, kann ich mir vorstellen, dass Nvidia die Karte bei etwa diesem Preis ansetzt.
Mit 35% mehr Performance als eine RTX 3090 sollte die Karte anhand der Chipausbeute bei diesem Preis in ausreichenden Mengen herzustellen sein.
Nvidia kann hier das Argument ,,50% schneller als eine RTX 3090" bringen, auch wenn die Praxis wohl eher bei 35% liegen wird. Nvidia wird sich hier schon schöne Raytracing-Benchmarks heraussuchen, um zu zeigen, dass die neue Architektur noch besser beim Verfolgen von Strahlen geworden ist.
300 Watt sehe ich hier einfach als realistisch an, wenn ich bei der größten Lösung von 400 Watt ausgehe.
16GB VRam werden für die nächsten Generationen eventuell die neuen 8GB. Nvidia wären 12GB lieber, damit Gamer sich schneller was neues kaufen müssen. Doch angesichts der Konkurrenz und weil DLSS und Raytracing in hohen Auflösungen Vram zum Frühstück fressen, vermute ich, schlagen sie sich diesen bittersüßen Gedanken wieder aus dem Kopf. Und mit letzteren Features muss man natürlich unbedingt nochmal werben. Niedrige Auflösungen zu pushen ergibt ab jetzt zudem keinen Sinn mehr, denn dann landen wir schnell im CPU-Limit.
RTX 4070
Jope, ich denke Nvidia steigert den Preis der 70er Karten auf knapp 750€. Sie werden eine schöne Präsentation auf dem Launch-Event abliefern, welche die Preissteigerung mal wieder völlig verschleiert. Jensen könnte z.b. erst zeigen, dass man mit der RTX 3070 schneller ist als eine RTX 3090, das legendäre Topmodell der letzten Generation und ganz am Ende, wenn der Hype wieder voll da ist, kommt dann der Preis von ,,nur" 749$, jehaaa! 15% mehr Performance für 50$ mehr als eine RTX 3080. Das klingt für mich so schlecht, dass es schon unrealistisch ist. Doch da ich von AMD in diesem Preisbereich ähnliche Performance erwarte, hat Nvidia hier nächstes Jahr keinen Anreiz das zu unterbieten. Immerhin feiert man auch noch immer den ,,Nvidia Bonus" bei den Gamern. Sicher wird man auch ganz toll zeigen wie viel schneller die Karte Raytraced usw. (RTX 3090 +20%?)
RTX 4060
Nvidia wird es zwar nicht sagen, doch das ist dann die neue RTX 3070. Über die 12GB Vram werden viele froh sein. Über 10 müsste Nvidia sich nächstes Jahr jedenfalls ernsthaft schämen.
Für die MSRP einer RTX 3070 bekommt man dann immerhin praktisch 15% mehr Gaming-Performance. Einerseits muss der 500$ Preisbereich dann erstmals die Enttäuschungen mitmachen, die vorher nur den 200-350€ Preisbereich getroffen haben. 15% sind schon mager, finde ich. Andererseits vermute ich, dass die Karten nächstes Jahr in ausreichenden Mengen produziert werden können, praktisch wird es also doch eine enorme Preissenkung sein. Ich denke Nvidia war es letztes Jahr von Anfang an klar, dass die Karten nicht zu ihrer MSRP verkauft werden. Die niedrigen Preise haben Nvidia, genau wie die Mining-Sperre, wie einen Helden bei Gamern dastehen lassen, völlig zu Unrecht, meiner Meinung nach.
Ja, und so könnte ich mir das RTX 4000er Lineup vorstellen.
Natürlich gibt es performancemäßig noch riesen Lücken, die man dann noch mit den super-duper und Ti Karten füllen kann.
Thunder99
2021-09-24, 21:30:45
Gar nicht so unrealistisch...
iamthebear
2021-09-24, 23:07:37
Ich denke nicht, dass Nvidia die 700 Euro der 80er Serie antasten wird. Falls sie die Preise erhöhen wollen word einfach oben eine 90 Ti drauf gelegt.
Oder erhöhen die Differenz zwischen UVP und normalem Preis noch weiter.
Abgesehen davon bezweifle ich dass es nur 75% mehr Performance werden. Nvidia geht von 8nm auf 5nm. Das sind 2 Full Node Steps.
Ich denke man wird oben schon ein dementsprechend großes Monster bringen. Dieses muss ja nicht billig bzw. überhaupt lieferbar sein.
Abgesehen davon denke ich nicht. dass Nvidia das untere Lineup schon eingestellt hat. Die haben panische Angst vor Intel denn wenn deren Karten auch nur halbwegs brauchbar sind schießen die 200-300 Euro Karten im OEM Bereich raus und dann kommen 90% der Kunden gar nicht mehr auf die Idee 700 Euro für eine GPU zu zahlen wenn sie sowieso nur Fortnite und Lol zocken. Das wird nur jetzt gezahlt weil es sonst nichts anderes gibt.
Geldmann3
2021-09-25, 01:15:06
Ich denke nicht, dass Nvidia die 700 Euro der 80er Serie antasten wird. Falls sie die Preise erhöhen wollen word einfach oben eine 90 Ti drauf gelegt.
Oder erhöhen die Differenz zwischen UVP und normalem Preis noch weiter.
Halte ich für möglich. Wer weiß schon, wie sie das Ganze benamen. Jedenfalls in dieser Generation haben sie allerdings zuerst die 90er Serie rausgebracht und mit der Ti gewartet, bis sie eine bessere Fertigungsausbeute bekommen. Und das aktuelle ist wahrscheinlich das, was Nvidias nächstem Namensschema am nächsten kommt. Doch sie könnten die höchste Lösung auch Ultratron 6000 nennen. (Hmmm cooler Name ;D:freak:)
Abgesehen davon bezweifle ich dass es nur 75% mehr Performance werden. Nvidia geht von 8nm auf 5nm. Das sind 2 Full Node Steps.
Ich denke man wird oben schon ein dementsprechend großes Monster bringen. Dieses muss ja nicht billig bzw. überhaupt lieferbar sein.
Puh, ich wünschte, ich könnte recht sicher sagen, dass es die 75% sind, doch anhand unterschiedlicher Berechnungen kann ich durchaus auch bei bis zu 120% Performance herauskommen. (110% realistisch) Aber 75% wäre bereits die größte Steigerung, die Nvidia seit 5,5 Jahren rausgebracht hat. So gesehen wäre mehr hyped und statistisch unwahrscheinlich. Nvidia hat jetzt auch kein komplett neues Fertigunskonzept wie MCM parat, doch eben viel mehr Transistoren, was am Ende ja entscheidend ist. Ich hoffe auf 110%, tippe aber auf 75%, da Nvidia zu viele Bottlenecks nicht ausräumen kann.
Abgesehen davon denke ich nicht. dass Nvidia das untere Lineup schon eingestellt hat. Die haben panische Angst vor Intel denn wenn deren Karten auch nur halbwegs brauchbar sind schießen die 200-300 Euro Karten im OEM Bereich raus und dann kommen 90% der Kunden gar nicht mehr auf die Idee 700 Euro für eine GPU zu zahlen wenn sie sowieso nur Fortnite und Lol zocken. Das wird nur jetzt gezahlt weil es sonst nichts anderes gibt.
Bin mal gespannt, wie sich Intel auf den Markt auswirken wird, ich schätze tatsächlich positiv und hoffe, dass in den nächsten Jahren auch der ,,untere" Preisbereich wieder mehr umkämpft wird. Außerdem ist zu hoffen, dass auch die High-End-Preise mit Intel an Board wieder etwas herunterkommen. Doch die neuen Fertigungsverfahren sind andererseits so teuer, dass das für die absoluten High-End-Chips nur schwer vorstellbar ist. Die werden eher noch teurer.
Gouvernator
2021-09-25, 02:00:02
Weil Nvidia, wie gewohnt, knauserig mit dem Vram umgehen wird, gibt es kein Upgrade zu den 24GB der RTX 3090.
Nope. Merkt meine Worte, der Top Chip wird mindestens 48Gb VRAM bekommen. Denn bis heute ist aus diesem Grund auf 3090 kein DSR möglich mit 8K. Sprich wenn man blind 4xDSR auswählen würde dann crasht jedes Game unwiederbringlich bis zu einer Neuinstallation. Und bei 100+% auf eine 3090 sind wird durchgehend bei 8K60. Da ist schon Luft für 16K. Mein Bauchgefühl sagt 60Gb VRAM für Top-Tier und 24Gb für den Rest.
Geldmann3
2021-09-25, 02:04:46
;D Sorry, das glaube ich nicht, jedenfalls nicht für eine Consumer Karte (RTX 4xxx)
Ich habe in 8k ebenfalls bemerkt, dass mir die 24GB LEIDER viel zu oft knapp werden oder gar 8K unmöglich machen und wünsche mir daher mehr. 32GB am liebsten. Mehr ist besser. Doch wir sind auch nicht normal. :freak:
Niemals verbaut Nvidia 48GB oder gar mehr in der nächsten Consumer Karte. Wollen wir um 10€ wetten? ;D
Also ich wäre positiv beeindruckt, wenn es so wäre und da eine Karte für unter 2000€ rauskommt.
Aber nononononono
Also ich finde, 48GB Vram wären angemessen für die RTX 4090.
Doch das tut Nvidia nicht.
Wir sollen doch die 5000er Serie kaufen...
Wenn sie wieder eine Titan einführen, für 3K, da könnte ich es mir vorstellen.
Eine Titan wäre Marketingtechnisch allerdings suboptimal für Nvidia, wenn sie von AMDs MCM-Designs für weniger Geld in der Luft zerissen wird, bezüglich der Gaming-Performance.
Durchgehend 8k@60FPS? Also ich habe mit meiner RTX 3090 nicht mal durchgehend 8K@30FPS in aktuellen Games, selbst, wenn der Vram noch reicht.
Kommt natürlich ganz auf das Game an.
Gouvernator
2021-09-25, 07:13:31
Mit 60 FPS meine ich alle Games die man heute mit einer 3090 in ca. 35 FPS zocken kann. Und das sind fast alle dank reduzierten Details aber native 8K bzw. DLSS Q. Alle Games die man heute mit 8K60 zocken kann mit entsprechenden Tweaks, sind mit Lovelace@50Gb VRAM 100% 16K30 Kandidaten. Mit angepasster Render-Resolution ergibt es eh eine viel größere Auflösungspalette. Mit 16K DSR sind 50% Renderresolution noch immer 8K und von da an kann man steigern. Wenn der VRAM nicht fehlt.
PS.
Ich würde sogar behaupten das die VRAM Größe bei NextGen die bestimmende Komponente wird. Wer den größten VRAM hat der wird die Nase vorn haben. Bei so viel Leistung von AMD spielen dann weder Ray Tracing noch DLSS eine Rolle. Denn wie ich festgestellt habe, bringt DLSS minimal was gegen FSR. Und sie beide verlieren gegen einfache reduzierung der internen Renderresolution. Sprich eine potente GPU mit mehr VRAM für 10k-16k ist an sich deutlich besser als eine genau so potente ohne VRAM.
The_Invisible
2021-09-25, 08:15:52
Ihr seit schon ein bisschen verrückt mit eurem VRAM Fetisch ;)
Wenn ihr mehr Speicher wollt kauft eine A6000 mit 48GB, für die restlichen 99,999999% wirds einfach egal sein zudem keiner mit einstelligen Bildraten durch die Gegend ruckeln will...
OgrEGT
2021-09-25, 08:41:29
K$ for the K wenns so weitergeht :ugly:
Gouvernator
2021-09-25, 09:49:16
48Gb ist doch das absolute Minimum, damit das Game nicht gleich crasht. Ich will nur mal vor Augen führen auf welche VRAM Größe man längerfristig eh kommen muss.
Um jetzige Games so komfortabel zu zocken in 16k, wie auf einer 3090@8k - muss man die 24Gb mal 4 nehmen. Das sind 96Gb VRAM. Die offizielle "16K" Karte soll mit nicht weniger als diese 96Gb antreten. Analog zur jetzigen offiziellen "8K" 3090.
Aber als Zwischenschritt um mal die 16K vorzubereiten und auszutesten muss man wenigstens eine 60Gb Karte einschieben. Weil, die meisten Games kommen noch mit ca. 15Gb VRAM in 8K aus.
Ja. Das ist Next-Gen.
Geldmann3
2021-09-25, 10:17:45
Ihr seit schon ein bisschen verrückt mit eurem VRAM Fetisch ;)
Wenn ihr mehr Speicher wollt kauft eine A6000 mit 48GB, für die restlichen 99,999999% wirds einfach egal sein zudem keiner mit einstelligen Bildraten durch die Gegend ruckeln will...
haha, habe ja geschrieben, dass wir nicht mehr normal sind und ich daher nicht glaube, dass Nvidia 48GB Vram in der RTX 4090 verbaut. ;D
Ich erinnere mich noch genau, wie ich im RTX 30xx Verfügbarkeitsthread damals mit dem Gedanken gespielt habe, mir eine RTX 3080 zu kaufen und Raff dann zu mir meinte, ich solle lieber eine RTX 3090 nehmen, denn der könnte ich einfach jeden Workload vorwerfen. Und ja, eine RTX 3080 wäre nach allem, was ich jetzt sehe, einer der größten Fehlkäufe meines Lebens gewesen. Wegen den 10GB Vram. Meine ganzen AI / Video Workflows würden so nicht funktionieren. Hell, es wäre ja sogar ein Downgrade gegen meine 2080 Ti gewesen. Und selbst in Games sehe ich, (selbst in 4k) eigentlich täglich diese 10GB Vram überschritten. Wobei ich zugeben muss, dass wenn Nvidia von Anfang an eine RTX 3080 Ti mit 12GB Vram günstiger angeboten hätte, ich zu dieser gegriffen hätte. Wäre aber nach jetzigem Wissensstand ebenfalls ein Fehler gewesen. Ja, selbst meine 6900 XT mit ihren 16GB Vram macht meine aktuellen Workflows nur aus dem letzten Loch pfeifend mit. Doch ja, wir sind nicht der normale Gamer. Wir sind zurzeit die 0,5%. Ich würde behaupten, für die meisten würden 12GB Vram dieses Jahr völlig ausreichen. Für die 10 bei der RTX 3080, sollte Nvidia sich jedoch schämen. Also, ähmm, wenn ich mir so meine Metriken in den unterschiedlichsten Szenarien anschaue, zerstört Nvidia dieses Produkt damit regelrecht UND unnötig! Ich meine, mit 16GB Vram wäre das eine Karte, mit der man noch 6 Jahre hätte zocken können. So halbiert Nvidia die Lebenszeit. Doch das ist natürlich genau so gewollt. Daran sieht man, dass Ampere als sehr kurzlebiges Produkt konzipiert war.
basix
2021-09-25, 10:49:37
So gern ich maximalen Speicherausbau sehen will: Es ist einfach sinnfrei für 99.999% des Markts. Und wegen dem letzten 0.001% wird Nvidia nicht den eh schon teueren Speicher verdoppeln. Das ist ökonomischer Unsinn.
24 GByte sind für 4K mehr als genug. Alles >4K kann man mit DLSS, FSR 2.0, XeSS oder TSR anpeilen. Ihr wollt das vielleicht nicht, aber die HW-Hersteller wollen das genauso wie die Game Devs. Mit 4K Renderauflösung kann man den Speicherbedarf im Zaum halten und mit Temporal Upsampling die Auflösung erhöhen. Das ermöglicht deutlich detaillierteres Rendering als es in 8K nativ oder gar 16K möglich wäre. Um es in Gouvernators Worten zu sagen: Das ist Next-Gen.
Und: 8K oder 16K ist schön und gut, ein Grossteil der Gamer wäre aber auch mit 4K60 oder 4K120 schon zufrieden. Die Mehrheit sitzt wohl noch auf 1440p.
Geldmann3
2021-09-25, 10:53:35
Jedenfalls für die nächste Generation sehe ich das auch so. Für temporales Upsampling bei 8K benötigt man jedoch auch die 24GB Vram.
https://i.ibb.co/jycqQwv/DLSS-Resolution.png (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12776687&postcount=2191)
Und bei nativen 8K kommt man dann oft nicht mehr mit den 24GB Vram aus.
Kann es aber eh nicht flüssig rendern.
basix
2021-09-25, 11:02:14
Wie gesagt, 24 GByte sind genug für 4K ;)
Mich erstaunt es aber jetzt trotzdem ein wenig, dass sich mit DLSS Performance der Speicherbedarf um +50% erhöht. Hätte deutlich weniger erwartet (so 1-2 GByte).
BlacKi
2021-09-25, 11:05:40
Jedenfalls für die nächste Generation sehe ich das auch so. Für temporales Upsampling bei 8K benötigt man jedoch auch die 24GB Vram.
[/URL][URL]https://i.ibb.co/jycqQwv/DLSS-Resolution.png (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12776687&postcount=2191)
Und bei nativen 8K kommt man dann oft nicht mehr mit den 24GB Vram aus.
Kann es aber eh nicht flüssig rendern.die tabelle lässt aber den zusätzlichen vramverbrauch aber stärker aussehen als er es bei gleichen fps wäre. mit dem UP preset wäre der vram verbrauch nicht 50% höher als nativ 4k, die fps aber schon vergleichbarer.
The_Invisible
2021-09-25, 11:16:57
Jedenfalls für die nächste Generation sehe ich das auch so. Für temporales Upsampling bei 8K benötigt man jedoch auch die 24GB Vram.
https://i.ibb.co/jycqQwv/DLSS-Resolution.png (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12776687&postcount=2191)
Und bei nativen 8K kommt man dann oft nicht mehr mit den 24GB Vram aus.
Kann es aber eh nicht flüssig rendern.
Naja vorher bitte 3-4x mehr Leistung laut fps Werten ;)
Könnte daher vielleicht für RTX4000 interessant werden wenn die die RT-Leistung entsprechend aufbohren, jetzt aber völlig uninteressant. Darum meine ich ja das die VRAM-Menge zur Leistung passen muss.
Geldmann3
2021-09-25, 11:40:41
die tabelle lässt aber den zusätzlichen vramverbrauch aber stärker aussehen als er es bei gleichen fps wäre. mit dem UP preset wäre der vram verbrauch nicht 50% höher als nativ 4k, die fps aber schon vergleichbarer.
Naja, ich finde, um ehrlich zu sein, dass Ultra-Performance in 8K einfach nicht mehr gut aussieht. Selbst, wenn ich nativ auf 4K+TAA heruntergehe, sieht das dann besser aus. Damit würde sich der Sinn von 8K für mich negieren. Performance in 8K hingegen sah in diesem Fall ziemlich nach nativen 8K für mich aus. ,,Gut genug für alle" würde ich da sagen. UT matscht und ,,artefaktet" dagegen leider selbst in 8k sehr.
Für Konsoleros ist Ultra-Performance in 8K eines Tages sicher gut genug, wenn man eh ein paar Meter vom TV entfernt sitzt, sieht man den Matsch nicht.
In diesem Szenario könnte man sich IMHO aber auch gleich 8K sparen und 4K@Performance rendern.
Gouvernator
2021-09-25, 11:54:04
So gern ich maximalen Speicherausbau sehen will: Es ist einfach sinnfrei für 99.999% des Markts. Und wegen dem letzten 0.001% wird Nvidia nicht den eh schon teueren Speicher verdoppeln. Das ist ökonomischer Unsinn.
24 GByte sind für 4K mehr als genug. Alles >4K kann man mit DLSS, FSR 2.0, XeSS oder TSR anpeilen. Ihr wollt das vielleicht nicht, aber die HW-Hersteller wollen das genauso wie die Game Devs. Mit 4K Renderauflösung kann man den Speicherbedarf im Zaum halten und mit Temporal Upsampling die Auflösung erhöhen. Das ermöglicht deutlich detaillierteres Rendering als es in 8K nativ oder gar 16K möglich wäre. Um es in Gouvernators Worten zu sagen: Das ist Next-Gen.
Und: 8K oder 16K ist schön und gut, ein Grossteil der Gamer wäre aber auch mit 4K60 oder 4K120 schon zufrieden. Die Mehrheit sitzt wohl noch auf 1440p.
Aber wenn man Jensen zugehört hat, dann will er die Grafiktechnologie eher an die einsame Spitze treiben. Das macht strategisch viel mehr Sinn. Und heute stehen dafür die Zeichen so gut wie nie. Laut ihm haben von Anfang an die regulären Handelspreise die Grafiktechnologie gehemmt. Nun da die Preise jedes erdenkliches Tabu gebrochen haben, kann Jensen so viel VRAM reinpacken wie es in 3000$ Budget für eine "neue" Gamer-Karte reinpasst. Deswegen gehe ich ja von 60Gb aus. :D
PS.
Auch die so genannte "Entwickler" als Markt darf man nicht unterschätzen. Heute kann jeder Hinz und Kunz an UE 5.0 basteln. Das macht teilweise mehr Spaß als kommerzielle Games spielen. Und mit den neusten Assets die da kommen braucht man massig VRAM. In einem Video hat jemand den alten Asset mit dem neuen Megascan der gleichen Halbtreppe verglichen. Die alte wollte 70Mb VRAM und die neue 700Mb. Es würde einfach Spaß machen normale Auflösung einfach mit solchen Assets vollknallen.
Geldmann3
2021-09-25, 12:05:39
60GB Vram, aber natürlich....
Platos
2021-09-25, 12:07:30
Für 4k sollten 16GB genug sein. 12GB wird aber bei vielen Spielen Probleme machen. Bei 8K wirds wahrscheinlich 28-32GB sein, welche benötigt würden, um "sicher" zu sein.
Aber ganz ehrlich, 16K ist doch total unnötig. Zuerst mal 8K 60 hinkriegen... Und DSR ist verschwendete Leistung. Die per DSR gewonnene bessere Grafikqualität steht in keinster Weise zur aufgebrachten Rechenleistung. Und bei 8K sowieso nicht.
Bei 8K würde man vermutlich durch 120Hz (Bewegtschärfe) deutlich mehr an Grafikqualität gewinnen, wie durch DSR. Aber so oder so, zuerst muss man mal 60FPS erreichen und dafür wird wahrscheinlich eine 4090 auch nicht immer reichen. Und für DSR müsste man dann eher so die 90FPS erreichen, damit man DSR überhaupt sinnvoll einsetzten kann. DSR ergibt also mit Lovelace keinen wirklichen Sinn in den meisten Fällen.
Und DSR nutzen, um dann in 30FPS zu spielen, ergibt sowieso überhaupt keinen Sinn. Da wird die Bewegtschärfe einfach einen Strich in die Rechnung machen. Irgendwann kriegt man keine bessere Optik mehr, wenn man aber gleichzeitig bei 30FPS rumrennt. Sobald man sich bewegt, würde die Grafikqualität direkt schlecht werden. Da ist quasi jegliche höhere Auflösung einfach nur noch total nutzlos.
Bis man 8k90 hinkriegt (@max Details), um die übrigen 30FPS für DSR zu nutzen, wird es mindestens bis zum Lovelace-Nachfolger (2024/2025) dauern. Wenn nicht sogar bis zum übernächsten, also 2026/2027. Ist ja nicht so, als würden die Spiele stehen bleiben. Die Anforderungen werden natürlich steigen.
Lieber soll es 8k 120Hz TVs geben
Gouvernator
2021-09-25, 12:41:14
Seit wann lassen sich Games durch hohe Hz besser verkaufen, als durch hohe Auflösung? Diese wird immer steigen. Nur diesemal sind wir an den Punkt angelangt, wo der VRAM exorbitant steigen muss. Um die mögliche Renderauflösung mitzunehmen.
Dank 30 FPS Limit plus Freesync sieht Vieles jetzt schon in 8K bombatischer aus als ein Pixar Film. Ich zocke Tales of Arise neues JRPG. Dort sind die Kämpfe so geregelt das du anstatt manuell, einfach die Party kämpfen lassen kannst (musst nur eine Strategie festlegen). Und das eröffnete mir ganz neue Art der Unterhaltung. Das ist wie gesagt, ein JRPG im Pixar-Film Format. Wo man sabbernd die Action verfolgt.
An was denkt man zuerst bei diesem Bild wenn man links oben keine weitere Anzeige sieht...?
https://abload.de/img/talesofarise_2021_09_b6kbn.jpg (https://abload.de/image.php?img=talesofarise_2021_09_b6kbn.jpg)
Platos
2021-09-25, 13:40:19
Ich denke bei diesem Bild, dass der Kopf dieses Wesens ziemlich unscharf ist, weil zu wenig FPS ;) Und das sage ich als jemand, der auch oft in 30FPS zockt und gezockt hat.
Was aus Marketinggründen mehr zieht, spielt doch keine Rolle jetzt für die Frage, ob es Sinn macht, bei 8K überhaupt noch auf höhere Auflösungen zu setzen (per DSR!) oder eben nicht besser auf höhere Frameraten.
Und ich bin wirklich nicht der High-FPS Fetischist. Aber DSR wird die Schärfe bei solchen Frameraten unter 8k+ halt nur bei Screenshots erhöhen ;) In Bewegung würde man mehr von Schärfe profitieren, wenn man die 120Hz anstrebt.
Also ohne Bewegtunschärfe stockt es dann einfach (no gO) und mit ist es eben unscharf. Bei 120Hz kann man das auch ausschalten bzw. selbst mit Bewegtunschärfe sieht es bei 120Hz schärfer aus, wie bei 60Hz.
Btw. sage ich, dass in den nächsten 20 Jahren 16K für normale Leute keine Relevanz haben wird (vlt. für riesige TVs in Restaurants für Fussballmatches etc.). 16K wirds in Filmen auch in 20 Jahren noch nicht geben und 16K wird in Spielen auch irrelevant sein. D.h es wird keinen Markt geben, in denen sich TVs verkaufen lassen. Abgesehen davon wird es durch EU-Gesetzte sowieso nicht möglich sein. Es ist schon ein grosses Fragezeichen, ob nicht 8K TVs bald verschwinden werden (für ne Weile). Importieren kann man das natürlich trotzdem noch, wird aber den Markt nicht gerade gross halten.
Ich weiss auch nicht, wie du darauf kommst, dass 16K in absehbarer Zeit irgendwie gross im Massenmarkt ankommen wird.
Man wird nach 8K auf 120Hz slogans setzen, bevor man höhere Auflösungen verbaut. Darauf wette ich (ohne Wetteinsatz :D)
Geldmann3
2021-09-25, 14:31:17
Was haben denn EU-Gesetze mit dem Thema zu tun?
Ich denke da höchstens an Regularien welche den Stromverbrauch von Komponenten limitieren.
Gegen die ich mit aller Kraft kämpfen werde. :D
Wenn wir uns am Stromverbrauch aufhängen, wird mein VR-Traum nie wahr.
Gouvernator
2021-09-25, 15:19:40
Was aus Marketinggründen mehr zieht, spielt doch keine Rolle jetzt für die Frage, ob es Sinn macht, bei 8K überhaupt noch auf höhere Auflösungen zu setzen (per DSR!) oder eben nicht besser auf höhere Frameraten.
Ich wollte gerade bei D2:R mit Renderauflösung auf 150% gehen um genau das zu prüfen. Crash. Geht nur bis 140% (17Gb VRAM). Aber schon ab 125% sehe ich recht deutliche bzw. hübsche Verbesserung. TAA abgeschaltet weil das sieht man nicht mehr. Und von 125% auf 140% sehe ich kaum noch Unterschied. Leichtes DSR geht also auch mit 8K.
Platos
2021-09-25, 15:57:14
Was haben denn EU-Gesetze mit dem Thema zu tun?
Ich denke da höchstens an Regularien welche den Stromverbrauch von Komponenten limitieren.
Gegen die ich mit aller Kraft kämpfen werde. :D
Wenn wir uns am Stromverbrauch aufhängen, wird mein VR-Traum nie wahr.
Ja genau, EU Richtlinien zum Stromverbauch. Ich glaube ab 2023 (oder so, müsste nochmals nachschauen) haben auch 8K TVs einen Macimalstromverbauch. Die neuen Energierichtlinien schreiben nun ja bei TVs auch einen maximalstromverbauch vor (das gabs bisher nicht). Dieser zählt dann glaube ich ab 2023 auch für 8K TVs.
Viel machen wirst du da nicht können, ausser TVs vom Ausland importieren. Vlt. gehts dann z.B aus der UK, aber vlt. überhnehmen die ja die Regelung auch.
Ich glaube Samsung oder LG hat ja mal rumgeheult, dass die 8K TVs so vom Markt verschwinden. Ein anderer Hersteller soll gesagt haben, dass es möglich ist (hab das nicht mehr so genau im Kopf). Also ich denke nicht,dass 8K TVs komplett verschwinden. Aber evtl. werden sie abgespec(k)t.
Ich wollte gerade bei D2:R mit Renderauflösung auf 150% gehen um genau das zu prüfen. Crash. Geht nur bis 140% (17Gb VRAM). Aber schon ab 125% sehe ich recht deutliche bzw. hübsche Verbesserung. TAA abgeschaltet weil das sieht man nicht mehr. Und von 125% auf 140% sehe ich kaum noch Unterschied. Leichtes DSR geht also auch mit 8K.
Ich bin mir ja ziemlich sicher, dass du das in relativ statischen Momenten verglichen hast und nicht in z.B einer Drehbewegung. Bei Bewegegung wird 120FPS deutlich mehr Schärfe bringen, wie ein bisschen DSR. Beweist ja schon dein Bild. Der Kopf rechts wäre selbst in 4K in gleicher Qualität, da er einfach durch Bewegung verschwommen ist.
Geldmann3
2021-09-26, 21:46:44
Angesichts der Situation bei TSMC und des Marktes, kann ich mir vorstellen, dass wir die ersten Lovelace GPUs bereits nächsten Mai, Juni sehen werden. RTX 4060 und RTX 4080 vllt. im Mai. Dann die RTX 4070 im Juni, für Leute, die man an dieser Stelle noch nicht abgrasen konnte.
Weiterhin könnte dies bedeuten, dass die Top-GPU erst in Q1/Q2 2023 released wird.
So würden wir nächstes Jahr nur etwa +35% Performance zur RTX 3090 für 999$ von Nvidia sehen.
Ich weiß, das klingt jetzt ganz anders als der ganze Hype, der durchs Netz geht.^^
Schätze Nvidia will AMD noch einmal zuvor kommen, um nochmal maximal Marktanteil zu gewinnen. Spart sich jedoch die dicksten Chips, ja, kündigt diese nicht einmal an und überrascht dann später, ohne große Ankündigung, mit der RTX 4090 mit +75% Performance zur RTX 3090 für Nvidia-Enthusiasten. Die Top-MCM-Lösungen von AMD werden mit Lovelace dann ungeschlagen bleiben, weshalb man beim Top-Chip schön still bleibt und nur die RTX 4080 früh als schnellste GPU der Welt feiern lässt, bevor AMD dann ~im August mit RDNA3 loslegt.
Ist natürlich weit vorgegriffen und sehr spekulativ.
Ich vermute, Nvidia braucht selbst noch bis mindestens Ende 2023, bis sie selbst mit MCM-Designs für Gamer aufwarten können.
Das würde mir nicht gefallen, denn ich würde dann nächstes Jahr kein Upgrade zu meiner RTX 3090 bekommen, denn auf 16GB Vram mache ich kein Downgrade, auch nicht für 35% mehr Performance. Doch es ist ja auch nur eine Theorie.
Geldmann3
2021-09-27, 22:25:13
Weiterhin gehe ich davon aus, dass Nvidia bei der Einführung der nächsten GPU-Generation einen starken Fokus auf die AI-Funktionalitäten der eigenen Grafikkarten legen wird.
Da das einer der wenigen Bereiche ist, in denen man selbst AMDs MCM-Designs haushoch schlagen wird.
Sorry für den zweiten Post, wollte den letzten eigentlich editieren.
Platos
2021-09-27, 22:39:46
Du meinst, mit einer Art DLSS 3.0 dann nochmals ordentlich zulegen ? Oder "nur" durch Hardware ?
Geldmann3
2021-09-27, 23:04:56
Weiß nicht, ob wir DLSS 3.0 sehen werden.
Möglich.
Doch Nvidia wird bestimmt jede Menge Software zeigen, die von den Tensor-Cores profitiert und mit nichts auf dem Desktop ansatzweise so schnell läuft, wie mit RTX Karten, besonders RTX 4000.
basix
2021-09-28, 10:32:56
DLSS 3.0 wäre schon denkbar:
- Keine Schlieren
- 3D-Motion Vectors
- Einbezug der Framerate oder anders gesagt Samples/Zeit (falls noch nicht gemacht)
- Sparsity Unterstützung (doppelte Performance für Ampere+)
- Mipmap Forcing, damit Matsch vermieden wird
- Bessere Qualität, speziell <4K
- Bessere Qualität von Ultra Performance
- Ultra Quality / DLAA Mode
- Einstellbarer Schärferegler, Qualität auf CAS-Niveau
- Dynamic Resolution bei fixed FPS bei allen Spielen verfügbar
- ...
Da gibt es schon noch ein paar Stellschrauben ;)
Neurosphere
2021-09-28, 10:52:26
Irgendwas wird NV neben der reinen HW wohl bringen. Wen wir davon ausgehen das AMD wirklich stark wird diese Gen wird NV sich stärker auf die Features stürzen. Ray könnte da etwas ins hintertrefen geraten, zumindest Marketingtechnisch, falls AMD da aufschließt.
DLSS ist so ein kann aber nicht muss. Zwar ist man da weiter als AMD, aber ein alleinstellungsmerkmal hätte man auch mit DLSS gegen FSR und auch gegen Intels Lösung nicht mehr wirklich.
NV macht ja viel im Bereich KI, evtl. wird da mal was kommen, das sie Entwicklern für ihre Games vorgefertigte, lernende KIs an die Hand geben können usw usw.
Dural
2021-09-28, 10:56:34
NV muss gar nichts bringen, sie haben einen doppelten Fertigungsschritt und überspringen 7nm, und kommen von 8nm (10nm) gleich auf 5nm. AMD hat nur einen Schritt von 7nm auf 5nm.
Zudem wird das Problem GDDR6X ziemlich sicher gelöst sein, NV ist in einer sehr komfortable Lage würde ich mal behaupten.
BlacKi
2021-09-28, 11:23:18
und ich dachte amd würde erstmal bei 6nm bleiben. aber ausruhen werden die nicht, ihr mcm design wird sicher potentiell schnell werden, auch wenn vl nochmals teurer als alles bisher. mcm wird wohl nicht bei den gaming chips bei nv erscheinen. ein +-500mm² 5nm mono chip wird aber auch reichen um amd mit 6nm und mcm kontra bieten zu können.
6nm sind bei AMD nur IOD und N33. N31 und 32 sind 5nm, also wie bei NV dann.
Intel wird sicherlich Battlemage in Richtung 23 dann bringen mMn, also nicht allzu weit entfernt dann sicherlich auch in N5.
Man kann aber auch nicht von 8LPP auf N5 mit AMDs N7 auf N5 vergleichen, da spielen zu viele Faktoren eine Rolle.
Troyan
2021-09-28, 11:49:10
Natürlich kann man es. Samsungs 8nm Prozess ist vom Energiebedarf zwar in der Nähe von TSMCs 7nm DUV Prozess, aber die Packdichte liegt irgendwo bei 50%.
WedgeAntilles
2021-09-28, 11:50:31
Irgendwas wird NV neben der reinen HW wohl bringen. Wen wir davon ausgehen das AMD wirklich stark wird diese Gen wird NV sich stärker auf die Features stürzen. Ray könnte da etwas ins hintertrefen geraten, zumindest Marketingtechnisch, falls AMD da aufschließt.
DLSS ist so ein kann aber nicht muss. Zwar ist man da weiter als AMD, aber ein alleinstellungsmerkmal hätte man auch mit DLSS gegen FSR und auch gegen Intels Lösung nicht mehr wirklich.
NV macht ja viel im Bereich KI, evtl. wird da mal was kommen, das sie Entwicklern für ihre Games vorgefertigte, lernende KIs an die Hand geben können usw usw.
Naja, ob Intel wirklisch schon ein ernsthafter Konkurrent für die 4070, 4080 und 4090 wird bezweifle ich.
Jedenfalls nicht zu Beginn des Produktzyklus. Mit Alchemist auf keinen Fall, der ist ja - wenn es gut läuft - bei 3070.
Und wann kommt dann Battlemage? Irgendwann 2023? Aber ob Battlemage dann direkt aufschließt steht ja auch noch in den Sternen.
In wie fern AMD so wahnsinnig aufholt muss man auch erstmal sehen.
Falls Nvidia die RT Performance z.B. nur um 60% steigert, muss AMD die RT Performance schon um 140% steigern, nur um gleichzuziehen.
Inwiefern jetzt ein 140% Performanceplus bei AMD gegenüber 60% Plus bei Nvidia realistisch ist darf jeder selber überlegen.
(Und da ist DLSS nicht mal mit drin!)
Und da irgendwann mal die Benchmarks aufhören müssen, bei neuen Spielen RT zu deaktivieren und extra zu benchen (früher gerechtfertigt, inzwischen ein absoluter Schwachsinn) dürfte Nvidia ganz bestimmt keine schlaflosen Nächte haben.
ChaosTM
2021-09-28, 12:08:36
RT ist leider fast nur ein PR Feature ohne wirklich großen Mehrwert bisher.
Wirklich gute Implemetationen sind noch sehr rar. DLSS hingehen sehe ich da schon viel eher als echtes Killer Feature.
Ist der 5er TSMC Prozess eigentlich schon offiziell?
Würde mich fast wundern, wenn NV von Samsung abrücken würde. Hab mich damit aber in letzter Zeit kaum beschäftigt. Bin dank mobiler 3080er viel am spielen momentan. ;)
Neurosphere
2021-09-28, 12:13:52
NV muss gar nichts bringen, sie haben einen doppelten Fertigungsschritt und überspringen 7nm, und kommen von 8nm (10nm) gleich auf 5nm. AMD hat nur einen Schritt von 7nm auf 5nm.
Zudem wird das Problem GDDR6X ziemlich sicher gelöst sein, NV ist in einer sehr komfortable Lage würde ich mal behaupten.
Naja, ob Intel wirklisch schon ein ernsthafter Konkurrent für die 4070, 4080 und 4090 wird bezweifle ich.
Jedenfalls nicht zu Beginn des Produktzyklus. Mit Alchemist auf keinen Fall, der ist ja - wenn es gut läuft - bei 3070.
Und wann kommt dann Battlemage? Irgendwann 2023? Aber ob Battlemage dann direkt aufschließt steht ja auch noch in den Sternen.
In wie fern AMD so wahnsinnig aufholt muss man auch erstmal sehen.
Falls Nvidia die RT Performance z.B. nur um 60% steigert, muss AMD die RT Performance schon um 140% steigern, nur um gleichzuziehen.
Inwiefern jetzt ein 140% Performanceplus bei AMD gegenüber 60% Plus bei Nvidia realistisch ist darf jeder selber überlegen.
(Und da ist DLSS nicht mal mit drin!)
Und da irgendwann mal die Benchmarks aufhören müssen, bei neuen Spielen RT zu deaktivieren und extra zu benchen (früher gerechtfertigt, inzwischen ein absoluter Schwachsinn) dürfte Nvidia ganz bestimmt keine schlaflosen Nächte haben.
Mal ganz ehrlich: Würden Unternehme so handeln wie ihr es hier beschreibt, also sich dekadent in der eignen Selbstsicherheit laben, dann gebe es sie nicht lange!
Nvidia wird alles abwägen und schauen wie sie darauf reagieren. Nicht um sonst gab es zwischendurch das Gerücht NV könnte auch den Profichip im B2C bringen. NV wird sich darauf vorbereiten das AMD schneller sein könnte und mit ziemlicher Sicherheit deckt das auch RT ab. Es geht dabei nicht darum ob AMD am Ende schneller ist, es geht um Optionen. Was würden die Anleger sagen wenn AMD NV schlägt und NV kann nicht passend antworten?
Platos
2021-09-28, 12:23:21
und ich dachte amd würde erstmal bei 6nm bleiben. aber ausruhen werden die nicht, ihr mcm design wird sicher potentiell schnell werden, auch wenn vl nochmals teurer als alles bisher. mcm wird wohl nicht bei den gaming chips bei nv erscheinen. ein +-500mm² 5nm mono chip wird aber auch reichen um amd mit 6nm und mcm kontra bieten zu können.
Was hat das Multichip-Design mit der "Schnelligkeit" zu tun? Eher noch, wird es schwierig, da keine üblen Latenzen zu haben (siehe Zen1, bei Grafikkarten wirds ja noch schwieriger). Das Multichip-Design ist einfach günstiger ab einer gewissen DIE-Grösse.
Es wird aber eher noch mehr Strom verbrauchen. In dieser Generation sind AMD und Nvidia ähnlich vom Stromverbrauch, allerdings steht nvidia mit 8nm (10nm) da und AMD mit 7nm TSMC. Beide sollen aber auf 5nm TSMC wechseln. Also ist der Sprung bei nvidia höher und dazu kommt noch, dass ein Multichip-Design mehr Strom verbrauchen müsste. Man kann also durch diese Faktoren ertwarten, dass die Effizienz mit Lovelace besser sein wird, als bei RDNA3.
Wobei die Effizienz im Auslieferungszustand natürlich immer davon abhängt, wie weit weg vom Sweetspot getaktet wird.
Natürlich kann man es. Samsungs 8nm Prozess ist vom Energiebedarf zwar in der Nähe von TSMCs 7nm DUV Prozess, aber die Packdichte liegt irgendwo bei 50%.
Das ist einfach Unsinn. Du vergleichst einfach Äpfel mit Birnen.
BlacKi
2021-09-28, 13:07:02
Was hat das Multichip-Design mit der "Schnelligkeit" zu tun? Eher noch, wird es schwierig, da keine üblen Latenzen zu haben (siehe Zen1, bei Grafikkarten wirds ja noch schwieriger). Das Multichip-Design ist einfach günstiger ab einer gewissen DIE-Grösse.
Es wird aber eher noch mehr Strom verbrauchen. In dieser Generation sind AMD und Nvidia ähnlich vom Stromverbrauch, allerdings steht nvidia mit 8nm (10nm) da und AMD mit 7nm TSMC. Beide sollen aber auf 5nm TSMC wechseln. Also ist der Sprung bei nvidia höher und dazu kommt noch, dass ein Multichip-Design mehr Strom verbrauchen müsste. Man kann also durch diese Faktoren ertwarten, dass die Effizienz mit Lovelace besser sein wird, als bei RDNA3.
Wobei die Effizienz im Auslieferungszustand natürlich immer davon abhängt, wie weit weg vom Sweetspot getaktet wird.
wenn die fläche günstiger wird, dann kann man mehr verwenden. was die performance verbessert, und man kann effizienter boosten, weil fläche billiger. das hängt halt alles zusammen.
robbitop
2021-09-28, 13:23:41
Mit steigender Tensor Leistung kann man auch den NN Ansatz verändern und verbessern. Ich kann mich an einen Artikel / Interview erinnern, bei dem NV gesagt hatte, dass sie beim NN viele Kompromisse eingehen mussten, damit es noch mit aktueller Hardware mit sinnvollem Overhead läuft. Wir sind bei diesen Verfahren ja gerade erst am Anfang.
Ich kann mir also bei den NN Upscaling / AA Verfahren gut vorstellen, dass da noch einiges an Luft nach oben ist.
WedgeAntilles
2021-09-28, 13:43:04
Mal ganz ehrlich: Würden Unternehme so handeln wie ihr es hier beschreibt, also sich dekadent in der eignen Selbstsicherheit laben, dann gebe es sie nicht lange!
Nvidia wird alles abwägen und schauen wie sie darauf reagieren. Nicht um sonst gab es zwischendurch das Gerücht NV könnte auch den Profichip im B2C bringen. NV wird sich darauf vorbereiten das AMD schneller sein könnte und mit ziemlicher Sicherheit deckt das auch RT ab. Es geht dabei nicht darum ob AMD am Ende schneller ist, es geht um Optionen. Was würden die Anleger sagen wenn AMD NV schlägt und NV kann nicht passend antworten?
Du kannst dein Portfolio nicht sehr kurzfristig massiv ändern.
Das einzige, was du kurzfristig ändern kannst ist der Preis.
Und glaubst du nicht, dass es noch ein Zwischending zwischen: "Oh mein Gott, AMD ist so stark und wir sind so schwach" und Dekadenz "uns kann keiner was" gibt?
Und genau da sehe ich Nvidia - natürlich weiß nvidia, dass sie Konkurrenz von AMD haben. Aber sie werden eben dennoch keine schlaflosen Nächte haben.
Und schlussendlich kommt es den Anlegern nicht drauf an wer schneller ist - sondern ob die Zahlen stimmen.
Und die stimmen.
Rekordgewinne, Rekordabsätze und steigender Marktanteil.
Das nennt sich gesundes Selbstbewusstsein - denn abseits von diesem Forum spielt AMD auf dem Weltmarkt im GraKa Bereich eine extrem untergeordnete Rolle und interessiert die meisten Käufer wenig bis gar nicht.
Mit der attraktiven 5700XT hat man ein bisschen Marktanteil gewonnen, den Nvidia jetzt mit der (ach so furchtbaren, stromhungrigen, speicherkrüppeligen) Ampere-Generation wieder zurückgewonnen hat.
Kann sich Nvidia ausruhen und - ähnlich wie Intel - 5 Jahre lang mehr oder weniger nix liefern?
Nein, natürlich nicht.
Tut Nvidia ja aber auch nicht.
Bei den Zukunftsprojekten DLSS und RT sind sie deutlich besser aufgestellt als AMD.
Wie gesagt, falls Nvidia 60% zulegt muss AMD schon 140% zulegen, damit Gleichstand entsteht.
Und da ist DLSS nicht eingerechnet.
Und bei Gleichstand wird weiterhin die große Masse zu Nvidia greifen - falls AMD nicht massiv günstiger ist. Wobei man ja die letzten 12 Monate gesehen hat wie AMD seine Preise setzt. Nämlcih sehr hoch.
Aber klar, wenn man natürlich unterstellt AMD verdreifacht seine Leistung und Intel holt nur 30% Zuwachs raus - ja, dann steht es wirklich schlecht um Nvidia und dann sollte Nvidia schlaflose Nächte haben.
Aber wer tut das schon?
Neurosphere
2021-09-28, 14:06:45
Du kannst dein Portfolio nicht sehr kurzfristig massiv ändern.
Das einzige, was du kurzfristig ändern kannst ist der Preis.
Ich habe über Features geschrieben in Software.
Und glaubst du nicht, dass es noch ein Zwischending zwischen: "Oh mein Gott, AMD ist so stark und wir sind so schwach" und Dekadenz "uns kann keiner was" gibt
Und genau da sehe ich Nvidia - natürlich weiß nvidia, dass sie Konkurrenz von AMD haben. Aber sie werden eben dennoch keine schlaflosen Nächte haben.
Natürlich gibt es etwas dazwischen, davon schrieb ich ja. Das NV schlaflose Nächte hätte habe ich nirgends behauptet, das kam von dir.
Und schlussendlich kommt es den Anlegern nicht drauf an wer schneller ist - sondern ob die Zahlen stimmen.
Und die stimmen.
Rekordgewinne, Rekordabsätze und steigender Marktanteil.
Das nennt sich gesundes Selbstbewusstsein - denn abseits von diesem Forum spielt AMD auf dem Weltmarkt im GraKa Bereich eine extrem untergeordnete Rolle und interessiert die meisten Käufer wenig bis gar nicht.
Mit der attraktiven 5700XT hat man ein bisschen Marktanteil gewonnen, den Nvidia jetzt mit der (ach so furchtbaren, stromhungrigen, speicherkrüppeligen) Ampere-Generation wieder zurückgewonnen hat.
Steht außer Frage, Stammanleger sind da auch nicht so wild was das betrifft. Alles andere werden sie auf Dauer merken und wie du oben geschrieben hast können sie nicht schnell darauf aus HW-Sicht reagieren.
Kann sich Nvidia ausruhen und - ähnlich wie Intel - 5 Jahre lang mehr oder weniger nix liefern?
Nein, natürlich nicht.
Tut Nvidia ja aber auch nicht.
Bei den Zukunftsprojekten DLSS und RT sind sie deutlich besser aufgestellt als AMD.
Das sind keine Zukunftsprojekte. RT wird Technologiebedingt ein langfristiger Begleiter, aber DLSS ist doch schon aus Marketingsicht ein alter Hut.
Wie gesagt, falls Nvidia 60% zulegt muss AMD schon 140% zulegen, damit Gleichstand entsteht.
Und da ist DLSS nicht eingerechnet.
Und bei Gleichstand wird weiterhin die große Masse zu Nvidia greifen - falls AMD nicht massiv günstiger ist. Wobei man ja die letzten 12 Monate gesehen hat wie AMD seine Preise setzt. Nämlcih sehr hoch.
Warum greift denn die große Masse zu NV?
Aber klar, wenn man natürlich unterstellt AMD verdreifacht seine Leistung und Intel holt nur 30% Zuwachs raus - ja, dann steht es wirklich schlecht um Nvidia und dann sollte Nvidia schlaflose Nächte haben.
Aber wer tut das schon?
Strohmann-Argument?! Ich habe weder das eine noch das andere geschrieben.
WedgeAntilles
2021-09-28, 15:04:11
Strohmann-Argument?! Ich habe weder das eine noch das andere geschrieben.
Ich habe geschrieben:
"Und da irgendwann mal die Benchmarks aufhören müssen, bei neuen Spielen RT zu deaktivieren und extra zu benchen (früher gerechtfertigt, inzwischen ein absoluter Schwachsinn) dürfte Nvidia ganz bestimmt keine schlaflosen Nächte haben."
Daraufhin hast du geschrieben:
"Mal ganz ehrlich: Würden Unternehme so handeln wie ihr es hier beschreibt, also sich dekadent in der eignen Selbstsicherheit laben, dann gebe es sie nicht lange!"
Ich sage Nvidia hat keine schlaflose Nächte sondern können ruhig schlafen. Du sagst wenn sie so handeln würden wie ich schreibe gingen sie pleite.
Daraus schließt sich zwangsläufig, dass Nvidia gemäß deiner Ansicht schlaflose Nächte haben MUSS.
Denn gemäß deiner Aussage ist ja alleine die Eigenschaft ruhig schlafen zu können schon "in der eigenen Selbstsicherheit laben"
Und dann habe ich an einem mathematischen Beispiel gezeigt, warum Nvidia meiner Meinung nach super schlafen kann.
Und eben einen Fall entworfen, in dem Nvidia nicht mehr ruhig schlafen könnte.
Quasi für beide Fälle ein Beispielszenario - welches Szenario jemand für wahrscheinlicher hält ist jedem selber überlassen. Und damit natürlich auch die Ansicht, ob Nvidia jetzt ruhig schlafen kann oder ob Nvidia es eben nicht kann.
Ist aber egal, bringt einen nicht weiter.
Blediator16
2021-09-28, 16:11:35
Ich habe geschrieben:
Soll ich mal deine Aussagen zu RDNA2 herauskramen, die du damals gebetsmühlenartig von dir gegeben hast? Du warst der festen Überzeugung, dass NV mit dem Prozessprung, den AMD bereits mit RDNA1 hinter sich hatte, vollends zerstört wird und es absolut nicht sein kann, dass RDNA2 nur annähernd es mit Ampere aufnehmen wird.
Was man wahrscheinlich sagen kann ist, dass AMD und Nvidia nicht mehr die selben Ziele verfolgen wie noch vor 5 oder 10 Jahren.
WedgeAntilles
2021-09-28, 16:16:20
Soll ich mal deine Aussagen zu RDNA2 herauskramen, die du damals gebetsmühlenartig von dir gegeben hast? Du warst der festen Überzeugung, dass NV mit dem Prozessprung, den AMD bereits mit RDNA1 hinter sich hatte, vollends zerstört wird und es absolut nicht sein kann, dass RDNA2 nur annähernd es mit Ampere aufnehmen wird.
Was man wahrscheinlich sagen kann ist, dass AMD und Nvidia nicht mehr die selben Ziele verfolgen wie noch vor 5 oder 10 Jahren.
Und? Ich habe geschrieben "Meine Meinung".
Außerdem bezog ich mich primär auf RT und habe RT als wichtigeres Feature angesehen als es Stand jetzt noch ist. Daher ging ich davon aus, dass AMD 0 Chance hat. Was bei RT auch zutrifft.
Den nächsten Satz den ich übrigens damals geschrieben habe, hast du ebenfalls schön ignoriert: Ich habe gesagt, dass Nvidia mit Ampere die Marktanteile, die sie gegen die 5700XT verloren haben zurückgewinnen werden.
Das ist sogar passiert - wenn auch aus eher anderen Gründen.
Von der Seite: Schön wenn du nur ganz spezifische Aspekte zitierst und den Rest weglässt.
Im wissenschaftlichen Bereich grenzt das an Fälschung, aber da es dich glücklich macht bin ich auch zufrieden :)
Aber da du ja scheinbar sehr darunter leidest, dass dein geliebtes RDNA 2 Marktanteile verliert statt zu gewinnen freue ich mich natürlich, wenn du dich besser fühlst indem du mich so verzerrend zitierst. Ich stehe dir da jederzeit gerne zur Verfügung :)
Platos
2021-09-28, 16:30:15
wenn die fläche günstiger wird, dann kann man mehr verwenden. was die performance verbessert, und man kann effizienter boosten, weil fläche billiger. das hängt halt alles zusammen.
Die Fläche wird immer teurer und durch Multichip-Design kann man bei grossen Chips die Preise halten (im Bestfall). Günstiger! wie vorher, werden sie eher nicht werden bei neuen Fertigungsverfahren (also 5nm TSMC Multichip Design verglichen mit 7nm TSMC monolitish). Man wird also nicht mehr Fläche verbauen können (wollen), wie bei 7nm TSMC.
Der Preis sinkt vlt. innerhalb des selben Fertigungsverfahren, wenn man ein MC-Design wählt (logischerweise), aber da man ja ein neues Verfahren nimmt, welches viel teurer ist, wird es im Endeffekt nicht "günstiger" werden, so dass man einfach insgesammt mehr Fläche haben kann. Zumindest sehe ich das so, wenn du eine Quelle hast, die was anderes belegt, dann immer her damit.
Aber!: Abgesehen davon der ewige Trugschluss von Multchip-Design: Man kann nicht einfach grösser bauen. Der Stromverbrauch sinkt nicht, weil die Chips kleiner sind. Die steigen eher noch wegen der zusätzlichen Logik zwischen den Chips. Also tendentiell sind sogar eher nur kleinere Flächen möglich bei gleichem Stromverbrauch (aufgeteilt in die Anzahl Chiplets dann).
Man kann natürlich den Stromverbrauch (wieder) erhöhen, aber das geht natürlich nicht beliebig. Das kann man maximal noch 1-2 Generationen machen. Spätestens dann werden auch die letzten da draussen was dagegen haben und irgendwann wird auch die EU was dagegen unternehmen wollen (ein Faktor, den man vlt. nicht bedenkt).
vinacis_vivids
2021-09-28, 16:33:02
17.000$ pro kostet ein 300mm 12-Zoll Wafer im 5nm Prozess.
300mm ergibt eine Fläche von 70685,83 mm²
Falls NV wieder die typische Schiene fährt sind es 650-750mm² pro Chip fürs Marketing Highend.
~700mm² 5nm GPU sind zwei Generationen übersprungen von 8nm. Ich glaube nicht an den Weihnachtsmann.
Da ist AMD`s Weg der Migration von 7nm zu 6nm viel sanfter und auch bezahlbarer für den Konsumenten, egal ob professionell oder Laie.
Derzeit verliert Nvidia A100 826mm² 8nm gegen AMD MI100 750mm² 7nm
Gut im HPC sind es auch nur 1,4-1,5Ghz Takt.
Nvidia hat krassen Rückstand beim GPU-Takt, weil das Design über Jahre nicht verbessert wurde sondern bei 1,8-2,0Ghz stagniert ist. Ich wüsste nicht woher dieser große Optimismus der Nvidianer kommen sollte. Das Knowhow für die hohe Taktung der CU`s hat Nvidia gar nicht.
Ich lehne mich da entspannt zurück und mein Geld wette ich auf AMD & Lisa :D
Thunder99
2021-09-28, 17:05:57
Takt ist nicht alleine entscheidend. Finde 1.7-2GHz jetzt nicht gering. Am Ende kommt es doch darauf an wie das Zusammenspiel ist.
MCM soll mehr verbrauchen als Mono Chip? Da wäre ich nicht so vorschnell. Ein Zen 3 verbraucht auch weniger als Intel.
Platos
2021-09-28, 17:26:02
MCM soll mehr verbrauchen als Mono Chip? Da wäre ich nicht so vorschnell. Ein Zen 3 verbraucht auch weniger als Intel.
Jaa... Schonmal den Fertigungsvorteil angesehen :D ?
-/\-CruNcher-/\-
2021-09-28, 17:31:38
Jaa... Schonmal den Fertigungsvorteil angesehen :D ?
Hehe diese Aussage muss man sich auf der Zunge zergehen lassen so lange wie Intel AMD damit quasi die ganzen jahre unter druck gesetzt hatt und plötzlich rattert kurz das Gerüst dieser Strategie nachdem GOFLO endlich Geschichte ist und TSMC mitmacht Intel den Boden etwas wegzuziehen :D
Bin gespannt wie viel Erfolg Amazon Flex mit so einer Druck Strategie gegen DHL haben wird ;)
Troyan
2021-09-28, 18:06:33
Derzeit verliert Nvidia A100 826mm² 8nm gegen AMD MI100 750mm² 7nm
Gut im HPC sind es auch nur 1,4-1,5Ghz Takt.
Nvidia hat krassen Rückstand beim GPU-Takt, weil das Design über Jahre nicht verbessert wurde sondern bei 1,8-2,0Ghz stagniert ist. Ich wüsste nicht woher dieser große Optimismus der Nvidianer kommen sollte. Das Knowhow für die hohe Taktung der CU`s hat Nvidia gar nicht.
Ich lehne mich da entspannt zurück und mein Geld wette ich auf AMD & Lisa :D
Stimmt, der krasse Nachteil von 35 TFLOPs gegen 22 TFLOPs. Und wie A100 mit 19,5 TFLOPs gegen 12 TFLOPs erst so richtig verliert.
Gott, wieviele Trolle das Forum hat, ist wirklich bemerkenswert. ;D
basix
2021-09-28, 18:17:54
MCM soll mehr verbrauchen als Mono Chip? Da wäre ich nicht so vorschnell. Ein Zen 3 verbraucht auch weniger als Intel.
Vergleicht man Mono vs. MCM mit selben Specs, wird Mono typ. energieffizienter sein. Das liegt am erhöhten Energiebedarf von off-chip Leitungen.
Das weicht sich mit TSMCs DBI aber massiv auf (AMDs V-Cache basiert auf DBI). Zudem kann man halb so grosse Chips besser binnen. Ich denke deshalb, dass man netto mit MCM energieffizienter als Mono ist:
- DBI
- Besseres Binning
- Optimierte Cache-Fertigungstechnologie und reduzierte Cache-Fläche (Leakage, active power, kürzere Datenleitungen)
Oder anders: Man kann einfach >Reticle Limit gehen und die Taktraten reduzieren. Dann ist man massiv energieeffizienter.
Troyan
2021-09-28, 18:21:17
Warum sollte Offchip-Cache effizienter werden, aber OnChip-Cache nicht? Je weiter Daten transferiert werden müssen, umso ineffizienter wird es.
Das Problem bei einem MCM Design ist die starre Grafikpipeline, die Scheduling zum Höllenritt macht. Raytracing ist genauso ein Problem.
basix
2021-09-28, 18:28:21
V-Cache Chiplets haben ~1.5x dichter gepackten Cache und einen auf Cache optimierten Fertigungsprozess (64MByte = 36mm2 vs. 128MB = 108mm2 bei N21). Beides bietet Vorteile bezüglich Energieeffizienz. Stacked man den Cache zusätzlich, verkürzen sich die durchschnittlichen Distanzen für den Datentransfer. Ebenfalls vorteilhaft.
Bei AMDs MCD nehme ich nicht an, dass mehrere von denen gestacked werden. Eher nebeneinander und die GCDs obendrauf. Aber auch so verkürzen sich die durchschnittlichen Distanzen für die Datenübertragung, da die GCDs ja gleich über dem Cache sitzen. Und optimierte Fertigungsprozesse nutzen? Unbedingt.
Edit:
Wie das Scheduling bei MCM gelöst wird? Keine Ahnung, sehen wir dann. Auch Nvidia wird mittelfristig diesen Weg gehen.
Warum sollte Offchip-Cache effizienter werden, aber OnChip-Cache nicht? Je weiter Daten transferiert werden müssen, umso ineffizienter wird es.
Das Problem bei einem MCM Design ist die starre Grafikpipeline, die Scheduling zum Höllenritt macht. Raytracing ist genauso ein Problem.
Da das kein klassisches MCM ist. Hier werden andere Technologien verwendet, wie es aussieht. Sieht bisher mehr so aus, als würde das eine Art Stacking über TSVs werden, ähnlich wie bei Zen3. Es gibt wohl auch insgesamt 4 Cache-Dies, bei N32 dann wohl nur 3. Damit würde N31 aus 6 Chiplets bestehen, 4x I/O+Cache + 2x GCD.
You want to go for the reactor?
Geldmann3
2021-10-06, 01:17:10
Nope. Merkt meine Worte, der Top Chip wird mindestens 48Gb VRAM bekommen. Denn bis heute ist aus diesem Grund auf 3090 kein DSR möglich mit 8K. Sprich wenn man blind 4xDSR auswählen würde dann crasht jedes Game unwiederbringlich bis zu einer Neuinstallation. Und bei 100+% auf eine 3090 sind wird durchgehend bei 8K60. Da ist schon Luft für 16K. Mein Bauchgefühl sagt 60Gb VRAM für Top-Tier und 24Gb für den Rest.
Habe nochmal drüber nachgedacht, könnte ja durchaus sein, dass Nvidia eine Titan 48GB für 3K in den Markt wirft, für alle, die diesen Preis zu zahlen bereit sind. Die RTX 4090 könnte man zugunsten der Fertigungsausbeute dann noch immer später releasen, für alle Hyper-Enthusiasten, die ihre Finger lange genug stillhalten und auf 24GB Vram verzichten konnten.
Könnte dann so aussehen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76939&stc=1&d=1633475642 (https://twitter.com/perschistence/status/1445525610831306752?s=20)
Könnte durchaus auch Q4 werden, Q3 ist ja nur so eine verrückte These von mir. :rolleyes:
Dann wäre mein Upgrade ja noch 2 Jahr hin. Bzw. Lovelace würde ganz ausgelassen, wenn schon der Nachfolger am Horizont ist.
3090 User würde man mit dem Linup nicht massenhaft zum Wechseln bewegen.
rentex
2021-10-06, 11:57:54
Dann wäre mein Upgrade ja noch 2 Jahr hin. Bzw. Lovelace würde ganz ausgelassen, wenn schon der Nachfolger am Horizont ist.
3090 User würde man mit dem Linup nicht massenhaft zum Wechseln bewegen.
Aber zum zeitigen Verkauf der Karten ;-D
Dann wäre mein Upgrade ja noch 2 Jahr hin. Bzw. Lovelace würde ganz ausgelassen, wenn schon der Nachfolger am Horizont ist.
3090 User würde man mit dem Linup nicht massenhaft zum Wechseln bewegen.
Das ist ein 2-Jahres-Zyklus, das kann man durchaus planen.
Platos
2021-10-06, 13:13:24
Irgendwie finde ich es etwas unseriös, so eine ausführlich gestaltete "Roadmap" zu machen mit komplett frei erfundenen Daten.
Auch wenn da spekulativ steht. Es gibt keinen Gerüchtestatus wieder, es ist einfach nur frei erfunden.
Neurosphere
2021-10-06, 13:47:41
Sind halt Träume und Wünsche.
Platos
2021-10-06, 14:00:39
Ja, und das verpackt in eine "seriös" wirkende Tabelle. Das erachte ich als unseriös. Man sollte anstatt spekulativ eher "based on wishes" oder "based on what I want" oder "based on what I expect" hinschreiben.
Das wäre passender.
Es ist hald das eine auf Basis von vorhandenen Gerüchten mit technisch logischen Argumenten zu spekulieren und etwas anderes, wenn man einfach so frei aus der Leber raus etwas sich ausdenkt, wie mans gerne hätte.
Spekulieren ist eben nicht gleich spekulieren. Man kann seriös spekulieren und man kanns ins träumen abgleiten lassen (unseriös). Dann sollte man es nicht mehr als Spekulation kennzeichnen. Spekulation bedeutet m.M.n nicht, dass man etwas ohne jegliche Basis frei erfindet.
Geldmann3
2021-10-06, 14:04:06
Wishes? :D
Also wünschen würde ich mir etwas anderes.
3K, 1,8K sind viel zu teuer.
Ja, ich bin übrigens höchst unseriös.
unl34shed
2021-10-06, 14:14:12
"based on what I expect" hinschreiben.
Was sind Spekulationen noch mal?
Platos
2021-10-06, 14:14:29
Es wirkt für mich einfach so. Also ich meine ja nicht dich als Person, sondern eben, dass man einfach irgendwelche Daten/Preise usw. annimmt, obwohl es keine Grundlage dazu gibt, und diese dann in eine optisch "bessere" Tabelle einpflegt. Als aussenstehnder, der dich hier im Forum nicht kennt, erweckt das falsche Eindrücke.
Ist nur meine Meinung. Muss man ja nicht so sehen.
Es erweckt einfach den Eindruck, als entspringt das irgend etwas Seriösem. Genau so entstehen aber "falsche" Gerüchte, vor allem bei Sprachbarrieren. Gibts ja manchmal aus chinesischen Foren.
Wie lange hast du eig. an so einer Tabelle? Ist das nicht ne unheimliche Arbeit? Was ist das eig. für ne Software?
Platos
2021-10-06, 14:17:23
Was sind Spekulationen noch mal?
Ich würde Spekulation nicht mit raten gleichsetzen oder aus dem Bauch raus. Das muss schon auf etwas vorhandenem basieren, aus dem man dann versucht in die Zukunft zu projizieren. Also nicht einfach "in die Glaskugel" schauen.
Oder aber, es ist dann einfach eine sehr schlechte/unseriöse spekulation, wenn man das so macht.
Also:
- In die Glaskugel schauen= keine/unseriöse/schlechte Spekulation.
- Gute/seriöse Spekulation: Versuchen möglichst aufgrund von vorhandenem Wissen in die Zukunft abzuleiten und zwar mit möglichst wenigen Annahmen und mit möglichst logisch argumentierbaren. Und wenn möglich mit Verweisen auf historisch schon genau so eingetretenen Ereignissen etc. Also die Annahme sollte irgend eine Basis haben, nicht einfach wild aus den Haaren herbeigezogen.
Klarstellung: Man kann natürlivh auch letzteres machen, aber ich (persönlich!) finde, man sollte diese Information nicht "seriös verpackt" aussehen lassen.
Wie gesagt, das ist mein Standpunkt und ich gebe hier nur meine konstruktive Kritik ab. Mehr nicht.
Geldmann3
2021-10-06, 14:26:05
Es wirkt für mich einfach so. Also ich meine ja nicht dich als Person, sondern eben, dass man einfach irgendwelche Daten/Preise usw. annimmt, obwohl es keine Grundlage dazu gibt, und diese dann in eine optisch "bessere" Tabelle einpflegt. Als aussenstehnder, der dich hier im Forum nicht kennt, erweckt das falsche Eindrücke.
Ist nur meine Meinung. Muss man ja nicht so sehen.
Es erweckt einfach den Eindruck, als entspringt das irgend etwas Seriösem. Genau so entstehen aber "falsche" Gerüchte, vor allem bei Sprachbarrieren. Gibts ja manchmal aus chinesischen Foren.
Wie lange hast du eig. an so einer Tabelle? Ist das nicht ne unheimliche Arbeit? Was ist das eig. für ne Software?
Habe eine Software namens ,,Excel" dafür verwendet. ;) :D
Hätte auch gedacht, dass sowas viel länger dauert, doch mit dem Style war ich irgendwie nach 5-10 Minuten fertig. Was doch überraschend viel Zeit gekostet hat, war das Zusammentragen der Daten. Von außen sieht es vielleicht so aus, als seien die Daten da nur so reingehauen, aus der Luft gezogen. Doch ich habe mich zuvor natürlich in alle möglichen, angeblichen Leaks eingelesen, auch das drumherum TSMC, die Kunden, die voraussichtliche Auslastung, Leute aus der Industrie, die ich Kenne, die Geschichte der GPUs und der Release-Zyklen. Da kann man schon ziemlich tief in den Kaninchenbau fallen und für die AMD-Roadmap vor einiger Zeit habe ich daher noch viel länger gebraucht. Sicher lernt man auch einiges daraus.^^ Da sind doch schon einige Stunden reingeflossen.
Platos
2021-10-06, 14:32:20
Ja aber wenn du so viele Quellen angesehen hast, könntest du diese ja irgendwo vermerken.
Aber das grafische kriegst du so hin mit Excell?
WedgeAntilles
2021-10-06, 16:42:22
Ich würde Spekulation nicht mit raten gleichsetzen oder aus dem Bauch raus. Das muss schon auf etwas vorhandenem basieren, aus dem man dann versucht in die Zukunft zu projizieren. Also nicht einfach "in die Glaskugel" schauen.
Im Englischen gibt es da den schönen (wie ich finde) Begriff "educated guess".
Das ist kein wildes raten sondern eine begründete Einschätzung.
Da ist es sprachlich eindeutiger um was es sich handelt.
Platos
2021-10-06, 19:47:49
Im Englischen gibt es da den schönen (wie ich finde) Begriff "educated guess".
Das ist kein wildes raten sondern eine begründete Einschätzung.
Da ist es sprachlich eindeutiger um was es sich handelt.
Ja, das gefällt mir auch definiv besser :up:
Leonidas
2021-10-10, 13:02:41
wohl bekomms:
PCI Express 5.0 bringt neuen "High Power Connector" für 600 Watt Stromverbrauch
https://www.3dcenter.org/news/pci-express-50-bringt-neuen-high-power-connector-fuer-600-watt-stromverbrauch
https://www.3dcenter.org/dateien/abbildungen/PCI-Express-5.0-High-Power-Connector.jpg
Skysnake
2021-10-10, 14:54:48
Naja, das war eigentlich klar seit dem die HPC Hersteller ihre Kühlungen auf 600W+ devices auslegen
PS bei den CPUs ist die Marschrichtung au h ganz klar
Thunder99
2021-10-10, 20:39:13
wohl bekomms:
PCI Express 5.0 bringt neuen "High Power Connector" für 600 Watt Stromverbrauch
https://www.3dcenter.org/news/pci-express-50-bringt-neuen-high-power-connector-fuer-600-watt-stromverbrauch
https://www.3dcenter.org/dateien/abbildungen/PCI-Express-5.0-High-Power-Connector.jpg
Der Anfang vom Ende :(
Ex3cut3r
2021-10-10, 20:43:24
WTF?! Was für ne lächerliche Entwicklung?
Das macht es ja nur Sinn, ne Performance Karte höchstens bis zur 70er Modell zu kaufen, die hoffentlich mit "nur" 300W auskommt.
Sind wir technologisch so am ende?
1000W NT wird wohl in einigen Jahren Standard werden. Fürs Klima, für die Abwärme im Zimmer natürlich ein K.O Kriterium, mal im ernst wer möchte den im Dachboden im Hochsommer mit 600W GPUs beim Zocken daneben sitzen, das ist ja die Hölle wortwörtlich!
Skysnake
2021-10-10, 21:03:32
Tja vielleicht ist 8k Gameing ja doch keine gute Idee ;)
BlacKi
2021-10-10, 21:09:57
WTF?! Was für ne lächerliche Entwicklung?
Das macht es ja nur Sinn, ne Performance Karte höchstens bis zur 70er Modell zu kaufen, die hoffentlich mit "nur" 300W auskommt.
Sind wir technologisch so am ende?
1000W NT wird wohl in einigen Jahren Standard werden. Fürs Klima, für die Abwärme im Zimmer natürlich ein K.O Kriterium, mal im ernst wer möchte den im Dachboden im Hochsommer mit 600W GPUs beim Zocken daneben sitzen, das ist ja die Hölle wortwörtlich!
meine 2070s hatte schon ein PT von 316w^^
Geächteter
2021-10-10, 21:48:26
Der Anfang vom Ende :(
Auf jeden Fall ne weitere Zersplitterung des PC-Marktes. Silizium ist so gut wie am Ende, vielleicht bekommt man noch das Doppelte pro Transistor vom jetzt bestem Fertigungsprozess raus und der Rest kommt nur noch durch Höhe und Breite und da ordentlich Ampere durchjagen. Bis 2030 dürften die 600 Watt auch wieder aufgefrühstückt sein und das Silizim am Ende seines Shrinks. Vielleicht sollte man bis dahin auch noch mal ne Inventur der Erdkruste gemacht haben, was überhaupt noch da ist wie lange es noch reicht, bevor die High-Tech-Party allerorten und disruptiv zu Ende ist.
Platos
2021-10-10, 22:02:50
Tja vielleicht ist 8k Gameing ja doch keine gute Idee ;)
Das hat doch nix damit zu tun. Die Karten werden einfach höchst ineffizient betrieben und für die letzten Prozent extrem viel Strom verballert.
Mit 250W hat man bei ner 3090 nicht sooo viel weniger Perfomance. Mit Lovelace oder dem Nachfolger sollte 8K auch mit 250W möglich sein unter DLSS Perfomance.
Wenn man allerdings dann einfach in Zukunft 2 Chiplets draufklatsch, die je ~200W verballern, ist das natürlich was anderes. (Und auch das hat nix mit 8K zu tun).
][immy
2021-10-11, 00:28:55
wohl bekomms:
PCI Express 5.0 bringt neuen "High Power Connector" für 600 Watt Stromverbrauch
https://www.3dcenter.org/news/pci-express-50-bringt-neuen-high-power-connector-fuer-600-watt-stromverbrauch
https://www.3dcenter.org/dateien/abbildungen/PCI-Express-5.0-High-Power-Connector.jpg
uiuiui, das ist doch schon krank.
Zum einen der potentielle "Verbrauch" zum anderen die Kühlung.
Und 600W über die winzigen Leitungen des Mainboards zu schicken. Also die im Verhältnis "dicken" Kabel sind mir da doch sehr viel lieber. Warum sollte man die dafür nötigen Ströme über so winzige Leitungen wie auf dem Mainboard schicken. Das hab ich die letzten paar Generationen sowieso noch nicht verstanden. Wenn am Ende eh Stecken vom Netzteil (die mir ein deutlich besseres Gefühl geben) notwendig sind, warum sollte man dann die Ströme vom Hauptconnector der so oder so ans Mainboard geht noch weiter belasten mit den strömen der Grafikkarte.
Wie viel dann potentiell über die Platine geleitet werden muss, wenn dann 2 PCIe 5 16x Slots vorhanden sind ...
Der_Korken
2021-10-11, 00:44:25
WTF?! Was für ne lächerliche Entwicklung?
Das macht es ja nur Sinn, ne Performance Karte höchstens bis zur 70er Modell zu kaufen, die hoffentlich mit "nur" 300W auskommt.
Wie ich im RDNA3-Thread schon schrieb: Da die Preistrend hin zum Kleinwagen geht, löst sich das "Problem" für den Normaluser dadurch, dass er den ganzen Zirkus sowieso nicht bezahlen kann bzw. will. Und ja, 600W Abwärme sind ein Problem. Leise und kompakte Systeme lassen sich damit nicht bauen, egal wie viel Geld mal reinsteckt.
Mit 250W hat man bei ner 3090 nicht sooo viel weniger Perfomance. Mit Lovelace oder dem Nachfolger sollte 8K auch mit 250W möglich sein unter DLSS Perfomance.
Wenn man allerdings dann einfach in Zukunft 2 Chiplets draufklatsch, die je ~200W verballern, ist das natürlich was anderes.
Darauf scheint es ja hinauszulaufen, wenn man sich die Prognosen zu RDNA3 ansieht. Es wird einfach mehr Silizium verbaut, um mehr Leistung zu erreichen (außer AMD und Nvidia finden auf einmal eine Wundertechnologie um doppelt so viele Shader pro Transistor unterzubringen). Da außerdem der Preis pro Transistor seit längerem kaum noch sinkt und Besserung da nicht zu erwarten ist, kann man sich ja ausrechnen, wo das hinführt.
BlacKi
2021-10-11, 00:55:37
mit wakü sind 600w kein problem. es gab schon vor vielen jahren eine referenzkarte mit wakü.
eine 3090 mit wakü kann sicherlich die grenzen von 600w ausloten ohne auf thermische probleme zu stoßen.
mit 5nm wird das schwieriger, aber ein 600w stecker bedeutet auch nicht 600w verbrauch.
deLuxX`
2021-10-11, 06:36:07
(außer AMD und Nvidia finden auf einmal eine Wundertechnologie um doppelt so viele Shader pro Transistor unterzubringen)
Naja, wenn das findet das einer der Lieferanten wie TSMC, ASML,…
Aber das kann man sich die nächsten Jahre abschminken. Die Roadmaps stehen.
basix
2021-10-11, 09:31:48
...aber ein 600w stecker bedeutet auch nicht 600w verbrauch.
Aber in Richtung 450W scheint es dann zu gehen. Nvidias momentaner 12p Stecker ist für 500W ausgelegt.
Edit:
Solch hohe Wattagen sind Heimanwender und Hobby-Anwendungen wie Spiele einfach dämlich. Ja, die GPUs würden dann etwas weniger fps oder Grafikqualität liefern, aber wäre das so dramatisch? Für hohe Stromverbräuche braucht man dickere Kabel, dickere Netzteile, dickere PCBs, dickere Kühlkörper und für was? 25-30% mehr Performance? Dazu wird die Bude unangenehm aufgeheizt. Nett.
Für HPC kann es Sinn machen. Weil dort hat man neben der GPU-Leistung pro Node auch noch CPUs, Netzwerk, Platzbedarf etc. Dort steigt übers Datencenter gesehen sogar die Energieeffizienz, wenn man die einzelnen GPUs höher taktet.
Und nicht falsch verstehen: Wenn ein paar wenige Enthusiasten ihre GPUs mit 500W betreiben ist das ihre Entscheidung. Das Problem ist eher, das dann selbst die Entry-Level GPUs 200W verbrauchen. Bei den meisten anderen Dingen wird auf Effizienz geprügelt (zum Teil auch zu viel), aber hier den Verbrauch innerhalb weniger Jahre verdoppeln. Macht Sinn, ja. Und wie gesagt, das für ein paar fps und Qualitätsfeatures mehr, welche man dann halt erst 2 Jahre später eh erhalten hätte.
Platos
2021-10-11, 10:51:08
Und nicht falsch verstehen: Wenn ein paar wenige Enthusiasten ihre GPUs mit 500W betreiben ist das ihre Entscheidung. Das Problem ist eher, das dann selbst die Entry-Level GPUs 200W verbrauchen. Bei den meisten anderen Dingen wird auf Effizienz geprügelt (zum Teil auch zu viel), aber hier den Verbrauch innerhalb weniger Jahre verdoppeln. Macht Sinn, ja. Und wie gesagt, das für ein paar fps und Qualitätsfeatures mehr, welche man dann halt erst 2 Jahre später eh erhalten hätte.
Genau das ist es. Es geht ja nicht darum, daas nur die Enthusiasten-Grafikkarten mehr Energie benötigen, es geht darum, dass der Stromverbrauch dann durchs Band durch steigt/steigen könnte (ziemlich sicher wird).
Und wie ich ja schon (irgendwo) sagte: Es scheint so, als bringt man in Zukunft nichts mehr neues unterhalb der xx60-er. Alles unterhalb wir mit den 60-er der alten Gen abgedeckt. Es gibt dann also dafür keinen niedrigeren Stromverbrauch.
Es könnte also gut sein, dass in Zukunft die xx60-er die niedrigste Wattstufe sind. Und wenn die wieder ansteigt, dann gibts bald nix mehr unter 200W.
vinacis_vivids
2021-10-11, 10:53:44
Die aktuelle Generation verbraucht schon knapp 400W bei NV und hat 3x8Oin Stromstecker für 525W.
https://www.techpowerup.com/review/gainward-geforce-rtx-3080-ti-phantom-gs/2.html
https://abload.de/thumb/power-gamingghk8p.png (https://abload.de/image.php?img=power-gamingghk8p.png)
Das Problem bei NV ist, dass der Takt architekturbedingt einfach schlecht skaliert. ~1.8Ghz seit 5-6 Jahren ohne echten Fortschritt. Dafür gibs zu hohe Temperaturen beim Speicher, Hotspot und GPU.
Die Watt-Brechstange erinnert an Intels letzten Tage als Markführer.
Bei einem 5nm riesen Singel-Chip wird Lovelace einfach nur extrem teurer und schlechter was Preis-Leistung angeht.
Ist doch super... hübscher kleiner Stecker mit niedriger Impedanz statt diesen zwei Klötzen die man bisher an jeder high end Karte findet. Muss ja nicht ausgereizt werden das Ding.
Troyan
2021-10-11, 11:26:46
Die aktuelle Generation verbraucht schon knapp 400W bei NV und hat 3x8Oin Stromstecker für 525W.
https://www.techpowerup.com/review/gainward-geforce-rtx-3080-ti-phantom-gs/2.html
https://abload.de/thumb/power-gamingghk8p.png (https://abload.de/image.php?img=power-gamingghk8p.png)
Das Problem bei NV ist, dass der Takt architekturbedingt einfach schlecht skaliert. ~1.8Ghz seit 5-6 Jahren ohne echten Fortschritt. Dafür gibs zu hohe Temperaturen beim Speicher, Hotspot und GPU.
Die Watt-Brechstange erinnert an Intels letzten Tage als Markführer.
Bei einem 5nm riesen Singel-Chip wird Lovelace einfach nur extrem teurer und schlechter was Preis-Leistung angeht.
Komisch, ich sehe bei der 3090 10,2 GFLOPs/w und bei der 6900XT 7,68GFLOPs/w.
Schon erbärmlich, wie schlecht AMD mit mehr Takt skaliert. Krass. :eek:
Da werden mit PCIe5 ja echt neue Netzteile fällig, weil mit nem neuen Kabel ist es ja offensichtlich nicht getan. Aber ehrlich gesagt ist das auch gut so. Wir brauchen schon dringend einen vernünftigen GPU-Stecker. NV mit ihrem proprietären Steckern machen es ja vor, aber ein echter PCIe-Standard dafür ist einfach notwendig. Und den bis 600W zu spezifizieren ist absolut sinnvoll.
Thunder99
2021-10-11, 12:36:23
Eine Anpassung des Standards auf heutigen Bedarf macht Sinn. Denke auch, dass die 600W einfach die Absicherung für die Zukunft wird.
Ich finde aber auch bedenklich, dass die Leistungsaufnahme derzeit nur eine Richtung kennt, nach oben... . Die Probleme das in den Griff zu bekommen (Spulenfiepen) wird da nicht besser.
Ich bin übrigens Stolz, nur ein 500W Netzteil zu brauchen für mein System ;) (3600er & 1080Ti). Das soll auch so bleiben :wink:
WedgeAntilles
2021-10-11, 12:38:55
Ich finde aber auch bedenklich, dass die Leistungsaufnahme derzeit nur eine Richtung kennt, nach oben... . Die Probleme das in den Griff zu bekommen (Spulenfiepen) wird da nicht besser.
Auch die Hardware-Probleme dürften mit noch höheren Verbräuchen wohl auch nicht gerade besser werden.
Keine Ahnung ob die "New-World" Probleme primär darin liegen, aber als Laie würde ich trotzdem behaupten dass mit 350W, 400W, 500W... die Probleme eher zu- als abnehmen...
rentex
2021-10-11, 12:54:34
@HOT +1
amdfanuwe
2021-10-11, 13:16:04
Ich finde aber auch bedenklich, dass die Leistungsaufnahme derzeit nur eine Richtung kennt, nach oben... .
Genau. Back to the roots. Waren noch Zeiten, als die CPU noch ohne Kühler auskam und die Zusatzkarten allein durch den Slot mit Power bedient wurden.
Immer das gleiche gejammer bei technischem Fortschritt. Muß man ja nicht mitmachen.
basix
2021-10-11, 13:20:39
Genau. Back to the roots. Waren noch Zeiten, als die CPU noch ohne Kühler auskam und die Zusatzkarten allein durch den Slot mit Power bedient wurden.
Immer das gleiche gejammer bei technischem Fortschritt. Muß man ja nicht mitmachen.
Mehr Verbrauch setze ich aber nicht zwingend mit technischem Fortschritt gleich ;) OK, die Kühler werden dadurch besser :D Höhere Effizienz, that's the way to go.
Eine Voodoo1 hatte ja nur ein paar Watt pro Chip ;). eine 9700 hatte schon 37W, dann gings rasant rauf bis zur 8800GTX mit 155W. Nächster Meilenstein war die GTX480 mit 250W. Seit dem stagnierte es mehr oder weniger, die RTX3080/90 sind halt der nächste Meilenstein, die 4080/90 werden das weiter nach oben treiben. Bei 450W bleiben wir dann wieder ne ganze Weile mMn.
davidzo
2021-10-11, 14:43:24
Immer das gleiche gejammer bei technischem Fortschritt. Muß man ja nicht mitmachen.
Ich sehe da keinen technischen Fortschritt. Ich bin mir auch relativ sicher, dass das aus Sicht aus der Zukunft als eine bedauernswert rückständige Phase der Halbleiterentwicklung gesehen werden wird.
Dass wir heute iphones mit größerer Grafikperformance haben als eine Xbox One, dass nenne ich Fortschritt. Ein simpler Zuwachs and Performance bei einem Nahezu gleichen Zuwachs an Energieverbrauch ist kein Fortschritt. Ampere sieht beängstigend nach Stillstand aus wenn man es zur mittlerweile drei Jahre alten Turing Architektur vergleicht.
Ich bin einfach nicht bereit für ein Spielzeug mehr Energie zu verbraten als für z.T. lebenswichtige reale Bedürfnisse zusammen, wie Kühlschrank, Herd, Mikrowelle, Toaster, Föhn, Staubsauger. Das ist völlig außerhalb der Proportionen für etwas was nur "Zeitvertreib" istl. Genau wie SUVs völlig außer Proportionen sind für etwas was nur "sicher von A nach B" transportieren soll. Ich bedauere die Leute die ein so beschissenes Realleben/Job/Beziehung/Gesundheit haben dass sie diesem "Zeitvertreib" soviel mehr Wert beimessen um so verrückte Trends mit zu machen. Das ist am Ende nur Prokrastination, Verdrängung von Tatsachen ihres beschissenen Lebens. Ich befürworte daher eine Strompreissteigerung um 200-300%, kann gar nicht früh genug kommen wenn ich Nvidias und AMDs Pläne so sehe :biggrin:. Die Egomanen lernen es eben nur auf die harte Tour das es so nicht weiter geht. Besser noch: progressive Strom besteuerung, denn dann müssen die "Verursacher" eben auch am meisten dafür bezahlen was sie der Gesamtgesellschaft antun. Wir kommen schon noch dahin dass wir wirklichen Fortschritt als solchen erkennen und Rückschritte auch als Rückschritte.
Für mich persönlich sind 200Watt für absehbare Zeit das obere Limit, also nicht viel mehr als meine GTX980, imo eine sehr vernünftige Highendkarte für ihre Zeit. Das ist die Grenze wo ich es leise und ohne exorbitanten Aufwand Luftkühlen kann und alles noch in ein Mini ITX Case auf meinen Schreibtisch passt.
Es kommt für mich einfach nicht in Frage auf einen größeren Tisch, ein größeres Zimmer (Aufheizung), eine womöglich größere Wohnung zu wechseln bloß wegen etwas so banalem wie einem Spielzeug.
Troyan
2021-10-11, 14:46:55
Also Real-Time-Raytracing bei 350W ist wohl Fortschritt als Rasterizing-Grafik bei 300W.
Sardaukar.nsn
2021-10-11, 14:52:04
Mit diversen Konsolen, mobilen Geräten und sogar streaming (Stadia und co.) Gibt es doch heute mehr Möglichkeiten denn je relativ stromsparend zu spielen. Ich verstehe die Aufregung nicht.
davidzo
2021-10-11, 14:55:12
Weiß nicht, mir fällt es schwer in den meisten Spielen überhaupt einen Unterschied zu sehen, und selbst wenn weiß ich häufig nicht ob es nun besser oder schlechter aussieht.
Ich sehe diese mixed RT/rasterizing Karten als Krücken und DXR als technologisch Sackgasse. In 10 Jahren werden wir 100% RT haben, also den Rasterizingteil einfach weglassen können. Das vereinfacht enorm den Aufwand für die assets artists, da viel weniger baked in sein wird. Bis dahin kann man mir aber mit artefarktverursachenden Mischtechnologien gestohlen bleiben. Lieber cleanes sauberes highres rasterizing anstatt unsauberer rauschiger aber "realistischerer" Pixelbrei.
Also Real-Time-Raytracing bei 350W ist wohl Fortschritt als Rasterizing-Grafik bei 300W.
Ich hätts zwar nicht gedacht, aber da muss ich dir mal uneingeschränkt recht geben und ich würd sogar noch weitergehen und sagen, RT wird bei 450W immer noch den Fortschritt rechtfertigen. Das braucht halt enorm mehr Rohleistung, die ja irgendwo hin muss.
davidzo
Die Entwicklung ist schleichend. Aber RT wird in nicht allzuferner Zukunft Grundvoraussetzung für viele Spiele werden. Natürlich extrem sparsam eingesetzt dank der Konsolen, aber dennoch.
rentex
2021-10-11, 15:38:43
@davidzo Hart aber ehrlich. Im Grunde richtig, was du schreibst.
Thunder99
2021-10-11, 16:51:26
Genau. Back to the roots. Waren noch Zeiten, als die CPU noch ohne Kühler auskam und die Zusatzkarten allein durch den Slot mit Power bedient wurden.
Immer das gleiche gejammer bei technischem Fortschritt. Muß man ja nicht mitmachen.
Das kann nicht ewig so weitergehen, oder willst du ein AKW betreiben für einen PC? ;)
Es ist Überspitz aber dennoch berechtigt.
amdfanuwe
2021-10-11, 17:20:09
Das kann nicht ewig so weitergehen, oder willst du ein AKW betreiben für einen PC? ;)
Es ist Überspitz aber dennoch berechtigt.
Ist doch die gleiche Entwicklung wie beim Auto.
Ich fahr ja auch keinen Porsche oder Ferrari, obwohl ich mir das dank AMD und Nvidia Aktienspekulation mittlerweile leisten könnte, um damit bei 16l/100km Verbrauch schneller im Stau zu stehen.
Die Kisten gibt es halt, auch wenn das in meinen Augen Unsinn ist.
Bei PCs gehts halt ebenso. So lange die Firmen mit irgendwelchen Spinnereien Geld machen können, wird sowas eben auch angeboten.
Sind doch wir, die Verbraucher, die durch Konsumverzicht den Herstellern den Stinkefinger zeigen müssen.
Letztendlich wird alles entwickelt, was möglich ist. Was im Markt überlebt, entscheidet doch der Gesetzgeber und der Verbraucher.
Thunder99
2021-10-11, 17:54:46
RT only kann ich mir nicht in absehbarer Zeit vorstellen. Und RT für den Mehrverbrauch nur verantwortlich zu machen muss Mal bewiesen werden. Gibt's da Messungen?
Am Ende entscheidet der Verbraucher ob er das mit geht oder nicht, das stimmt. Finde aber die Entwicklung wie gesagt bedenklich...
boxleitnerb
2021-10-11, 17:55:07
Genau. Back to the roots. Waren noch Zeiten, als die CPU noch ohne Kühler auskam und die Zusatzkarten allein durch den Slot mit Power bedient wurden.
Immer das gleiche gejammer bei technischem Fortschritt. Muß man ja nicht mitmachen.
So ein Schwachsinn. Mehr muss man dazu nicht sagen.
amdfanuwe
2021-10-11, 18:07:59
So ein Schwachsinn. Mehr muss man dazu nicht sagen.
Tolles Argument.
rentex
2021-10-11, 18:15:28
So ein Schwachsinn. Mehr muss man dazu nicht sagen.
Warum? Der technischer Fortschritt kann es wohl nicht sein. Also, warum Schwachsinn?
Geächteter
2021-10-11, 21:22:03
RT only kann ich mir nicht in absehbarer Zeit vorstellen. Und RT für den Mehrverbrauch nur verantwortlich zu machen muss Mal bewiesen werden. Gibt's da Messungen?
Am Ende entscheidet der Verbraucher ob er das mit geht oder nicht, das stimmt. Finde aber die Entwicklung wie gesagt bedenklich...
Bei der Spielequalität sieht man ja schon, wie es steil bergab in der Masse durch Kosten, Aufwand, Ertrag und Unvermögen geht.
K. I. bis heute auch so gut wie nicht existent in Spielen, vielleicht sogar noch schlechter als bis 2007. Grakapowerzuwachs gegenüber der RTX 3090 mit maximal möglich kleinstem Fertigungsprozess und besserer, breiterer Architektur und 600 Watt dauerhaft ausgereizt vielleicht noch um den Faktor 3,5- 4 besser.
Welten kann man da auch nicht mehr ausreißen, dafür Mondpreise, Wärme und Kühlungsaufwand. Wenn die in der Hardware- und Softwarebranche nicht bald die Kurve kriegen, gibt's ne saubere Bruchlandung.
Platos
2021-10-11, 21:48:48
Mit diversen Konsolen, mobilen Geräten und sogar streaming (Stadia und co.) Gibt es doch heute mehr Möglichkeiten denn je relativ stromsparend zu spielen. Ich verstehe die Aufregung nicht.
Es gibt bei weitem nicht alle Spiele auf den Konsolen und sind da auch nicht wirklich geeignet (RTS z.B). Shooter genau so. Wobei mittlerweile ja der Trend besteht, Konsolen und PC SPieler (ja sogar Handyspieler :D ) zu mischen. Da ist der Spass sowieso vorbei...
Aber abgesehen davon gibts z.B Leute, die vlt. keine Konsole haben wollen oder vlt. Leute, die einfach die Entwicklung kritisieren? "Kannst ja was anderes kaufen" ist hald einfach ein schwaches Argument, wenn es kein richtiger Ersatz ist.
RT-Only ist nicht wünschenswert. Lasst den Entwicklern ihre Freiheit, das geht mit reinem RT nicht mehr so einfach und das frisst auch unfassbar viel Leistung für Nüsse, wenn man mit Rasterizing-Techniken gleiche Ergebnisse erzielen kann. Die Technik hat auch Nachteile. RT wird seinen Platz bekommen und sämtliche Beleuchtung und Verschattung wird künftig RT sein. Aber vieles anderes bleiben Rasterizing-Techniken, weil es einfach sinnlos ist, RT auf alles anzuwenden.
Platos
2021-10-12, 11:14:45
RT-Only ist nicht wünschenswert. Lasst den Entwicklern ihre Freiheit, das geht mit reinem RT nicht mehr so einfach und das frisst auch unfassbar viel Leistung für Nüsse, wenn man mit Rasterizing-Techniken gleiche Ergebnisse erzielen kann. Die Technik hat auch Nachteile. RT wird seinen Platz bekommen und sämtliche Beleuchtung und Verschattung wird künftig RT sein. Aber vieles anderes bleiben Rasterizing-Techniken, weil es einfach sinnlos ist, RT auf alles anzuwenden.
Und warum geht das nicht mehr so einfach bzw. schränkt RT die Freiheit der Entwickler ein?
Und welche Nachteile hat RT abgesehen von der benötigten Rechenleistung?
Und warum geht das nicht mehr so einfach bzw. schränkt RT die Freiheit der Entwickler ein?
Und welche Nachteile hat RT abgesehen von der benötigten Rechenleistung?
Künstlerische Manipulation.
davidzo
2021-10-12, 11:54:03
Bitte?
RT heißt nicht gleich unbiased rendering. Mitnichten, sind doch alle realtime RT renderer aktuell sogar biased. Insofern hast du auch bei RT alle künstlerischen freiheiten, es wird nur einfacher weil man die vielen fake-effekte die sich gegenseitig beeinfluss und artefarkte erzeugen können, weglassen kann.
RT-only bietet fürs art design alle Freiheiten die man sich wünschen kann. die ganzen effekte wie spiegelungen, dynamic global illumination, penumbra shadows, etc. die man bei rasterizing aufwändig faken muss, können durch das Renderingprinzip gelöst werden, unbegrenzte Leistung vorrausgesetzt. De fakto ist der workflow in den ganzen editoren ja schon vorhanden, wenn die Lightmaps berechnet und texturen gebacken werden. Da ist ein großer Teil von Raytracing, nur eben lahmes software RT auf der CPU.
bloodflash
2021-10-12, 12:30:48
Ich sehe da keinen technischen Fortschritt. Ich bin mir auch relativ sicher, dass das aus Sicht aus der Zukunft als eine bedauernswert rückständige Phase der Halbleiterentwicklung gesehen werden wird.
Danke! Auch für den Rest Deines Beitrages.
Der Verzicht auf Konsum und auch Bequemlichkeit ist für viele noch undenkbar. Gerade Autos, Flugreisen und elektronische Gadgets sind im Privatbereich die Spitze des schon Jahrzehnte andauernden "Weiter so" und "mir doch egal".
Dass mache Raubbau und Ausbeutung immer noch mit "technologischen Fortschritt" gleichsetzen und glauben, dass irgendwelche technischen Entwicklungen gegen diese Probleme helfen, setzt dem Ganzen noch die Krone auf.
Die Wahlergebnisse für die FDP zeigen auch, dass das nicht nur wohlsituierte, gutverdienende Mittvierziger sind, sondern dass da auch eine neue Generation an Unbelehrbaren nachwächst.
BTT:
Persönlich setze ich auch die 200W als Maximum an. Dann muss das aber auch ein Biest sein. Mir wären deutlich unter 150W lieber.
Wie nV und AMD mit teils 50% Mehrverbrauch 10% Benchmarkspitzen aus den Karten rauslutschen ist ist nicht mehr feierlich. Selbst eine 3090 liesse sich mit sparsameren Speicher und optimalen Betriebspunkten auf unter 200W drücken. Dann hätten auch die OCler mehr Spass am unsinnigen Verheizen.
Thunder99
2021-10-12, 13:30:11
Was hat die FDP damit zu tun? Die Partei mag zwar ihre Schwächen haben, aber steht für Weiterentwicklung und Fortschritt. Dieser kann auch ausgewogen sein mit der Umwelt.
Wir werden wohl echt das technisch mögliche sehen, auch im Negativen wenn es um absolute Leistungsaufnahme geht. Und das manuelle Optimieren liegt nicht jedem oder kann nicht jeder machen.
Nebenbei, gestiegene Energiepreise und höherer Verbrauch passen nicht zusammen. Die Rechnung wird noch böse Überraschungen geben.
Sardaukar.nsn
2021-10-12, 14:59:30
Die Wahlergebnisse für die FDP zeigen auch, dass das nicht nur wohlsituierte, gutverdienende Mittvierziger sind, sondern dass da auch eine neue Generation an Unbelehrbaren nachwächst.
Ich denke das hat wenig mit einer Partei zu tun. Solche Topmodelle sind auch immer ein Statussymbol. Ob jetzt das neueste iPhone oder eine große Grafikkarte. Hingegen ist der PKW bei den jüngeren Leute eher uninteressant geworden.
Hängt natürlich auch mit den sozialen Medien und den Influencern, oft Sportler oder Schauspieler zusammen :freak: https://i.imgur.com/9re7rVe.jpg oder https://www.technopat.net/wp-content/uploads/2020/12/Henry-Cavill-RTX-3090-1.jpg
Bitte?
RT heißt nicht gleich unbiased rendering. Mitnichten, sind doch alle realtime RT renderer aktuell sogar biased. Insofern hast du auch bei RT alle künstlerischen freiheiten, es wird nur einfacher weil man die vielen fake-effekte die sich gegenseitig beeinfluss und artefarkte erzeugen können, weglassen kann.
RT-only bietet fürs art design alle Freiheiten die man sich wünschen kann. die ganzen effekte wie spiegelungen, dynamic global illumination, penumbra shadows, etc. die man bei rasterizing aufwändig faken muss, können durch das Renderingprinzip gelöst werden, unbegrenzte Leistung vorrausgesetzt. De fakto ist der workflow in den ganzen editoren ja schon vorhanden, wenn die Lightmaps berechnet und texturen gebacken werden. Da ist ein großer Teil von Raytracing, nur eben lahmes software RT auf der CPU.
Na sehen wir doch mal wo der Markt hingeht. Sollen wir wetten? Ich wette, es wird volles RT in Spielen in den nächsten 15 Jahren nicht geben, weil es eine völlig sinnlose Leistungsverplästerung ist.
Platos
2021-10-12, 16:52:15
Na sehen wir doch mal wo der Markt hingeht. Sollen wir wetten? Ich wette, es wird volles RT in Spielen in den nächsten 15 Jahren nicht geben, weil es eine völlig sinnlose Leistungsverplästerung ist.
Aber darum ging es ja nicht. Du hast gesagt, durch RT ist keine künstlerische Darstellung (du nennst es Manipulation) mehr möglich (oder weniger). Das hat erstmal nichts mit der Leistung zu tun und wird es auch in 15 Jahren nicht.
iamthebear
2021-10-14, 23:18:47
Dass mit RT viele Effekte für die Entwickler einfacher umgesetzt werden können ist klar.
Solange der Entwickler aber auch noch leistungsschwächere Karten unterstützen will, die für RT nicht die notwendige Power haben spart er sich ja keinen Aufwand. Er hat den RT Aufwand zusätzlich zum normalen Code.
Derzeit wird noch versucht, dass alles zumindest in Low Settings auf einer GTX 1060 6GB flüssig läuft.
Auf der anderen Seite ist selbst eine 3090 noch weit davon erntfernt aktuelle RT Only Spiele flüssig darzustellen. Quake RT zählt nicht denn das hat sonst eine Grafikqualität wie aus den 90ern.
Wie lange wird es wohl dauern bis eine 5 Jahre alte Einsteigerkarte die Performance einer 3090 hat? 10 Jahre? Eher 15?
Die Frage die ich mir stelle ist:
Selbst wenn Rasterizing komplizierter umzusetzen ist aber der Code bzw. die Engines dafür sind fertig. Dazu noch optional ein paar Spiegeleffekte dort wo es Sinn macht. Aber wozu mehr Performance opfern wenn für den Kunden alles so läuft wie es soll?
Platos
2021-10-15, 09:50:41
Also man kann ja wie bei allem auch, einen Regler einbauen. Es muss ja nicht gleich RTX 3090 RT Leistung sein. Aber bis die erreicht ist bei einem 60-er Modell, gehts wohl noch 2, maximal 3 Chipgenerationen (also 3-5 Jahre). Also bei ner 5 Jahre alten GPU dann eben 8-10 Jahre. Die RT Leistung nimmt schon ziemlich krass schnell zu.
Also ~2030
Mandalore
2021-10-21, 14:16:15
Weiß man eigentlich schon ob Ada die SCM Version von Hopper darstellt?
Leonidas
2021-10-22, 14:43:24
Nicht wirklich. Es gibt wahrscheinlich erhebliche Architektur-Unterschiede, womit man beides nicht vermengen kann.
dargo
2021-10-22, 15:31:16
Also man kann ja wie bei allem auch, einen Regler einbauen. Es muss ja nicht gleich RTX 3090 RT Leistung sein.
Tut man doch schon weil selbst eine RTX 3090 noch viel zu lahm ist. Oder warum wird bsw. das Wasser in Legion nach paar Metern nur noch mit SSR gespiegelt? Aktuell sind das nichts weiter als Kompromisse auf Sparflamme. Nennst es dann als DEV nur halt RT Ultra (obwohl es eigentlich low-medium ist) damit der Pöbel sich stolz auf die Schulter klopfen kann. ;D
Edgecrusher86
2021-10-23, 13:12:44
Hardware kann nie schnell genug sein - es gibt immer Härtefälle. :)
Nun ja, ich werde wohl die Next-Gen überspringen - 2023/2024 wird dann komplett aufgerüstet - vermutlich dann mit dem dicken Arrow Lake + RTX 5090. 48T klingt halbwegs zukunftstauglich von 16T kommend - Fokus Gaming.
PCI-E 5.0 dürfte dann auch komplett vorhanden sein - in der CPU + PCH. Dann kann man auch eine flotte 5.0 x4 M.2 verbauen für das System und Games.
Das dürfte dann die doppelte bis dreifache Leistung im Vergleich zur aktuellen Konfig bieten. ;)
Platos
2021-10-23, 13:27:33
Realistisch wäre vermutlich tatsächlich eher 3-3.5-Fache Perfomance, aber eine 5090 wird dann vlt. auch 2-3k kosten.
Nightspider
2021-10-23, 13:50:27
Eine RTX5090 kommt frühestens 2024.
Alles andere ist Träumerei.
Edgecrusher86
2021-10-23, 17:36:32
Ich rechne mit 5000€ für die RTX 5090- wenn die Bestände dann immer noch knapp sein sollten [Scalper-Preise] - ja, Ende 2024 - sowas um den Dreh. Die RTX 4090 dürfte bei 3000-4000€ landen; MSRP sicherlich $1999(+) für die FE.
Zur Leistungssteigerung - besser tiefer stapeln, als zu hoch - über doppelt so schnell als Ampere für Lovelace wird schon schwer werden.
BlacKi
2021-10-23, 17:37:51
ich rechne mit 9999€ damit man unter den 10k bleibt.
Edgecrusher86
2021-10-23, 17:40:01
Weitere fünf Jahre danach könnte das durchaus realistisch sein - zumindest, wenn er dann wieder eine TITAN bringen möchte. ;)
Platos
2021-10-23, 19:02:21
ich rechne mit 9999€ damit man unter den 10k bleibt.
Da musst du keine 3090 mehr bringen. Dann kannst du die Serie gleich einstampfen.
Wenn PC Gaming sich an den heutigen Strassenpreisen anpasst, wird es in 10 Jahren tot sein.
Thunder99
2021-10-23, 19:53:32
Zurück zum eigentlichen Thema hier :) ;)
Was wird denn jetzt erwartet wieviel die Karten saufen werden?
- 4090 450W
- 4080 350 - 450W
- 4070 300 - 350W
- 4060 250 - 300W
Oder doch nur das Top Modell extrem viel und der Rest relativ normal wie maximal Ampere?
BlacKi
2021-10-23, 20:39:33
ich weiß es nicht. könnte mir aber vorstellen, das man nicht über 500mm² geht, wenn man beim mono Die bleibt. ob man da 450w wegkühlen kann? bei 350w und mehr als 600mm² geht das noch. 400w ist anspruchsvoller und für 450w würde ich wakü vorschlagen.
ich glaub nicht an 500mm² und 450w. entweder der chip wird größer, dann wirds trotzdem haarig mit 450w, oder man bleibt mit anspruchsvollen 350w auf sub 500mm².
Edgecrusher86
2021-10-24, 08:59:19
Wobei sich eine größere Fläche wieder besser kühlen ließe - mich würden wieder 600mm² und mehr nicht wundern - lasse mich gerne überraschen. ;)
Die bis zu 550W spekulierten TGP für die 4090er klingen schon zu extrem - gut, evtl. mag das dann auch für die Speerspitze der Customs gelten (ASUS Strix OC oder Matrix Platinum, Colorful Kudan, EVGA K|NGP|N, Galax Hall of Fame OC Lab, Gigabyte Aorus Xtreme oder MSI Lightning Z)
und man bleibt bei 450W für die FE, was natürlich immer noch eine böse Entwicklung wäre in meinen Augen, wenn man auch noch mit Feintuning deutlich gegen wirken kann und vermutlich locker 2/3 der Performance auch bei ~ 300-350W erreichen könnte, so als Beispiel. ;)
Auch bin ich ja mal gespannt, wie die Kühllösungen dann aussehen sollten - ich kann mir durchaus 3,5 Slot wie bei GB diese Generation gebracht oder gar 4 Slot vorstellen und öfters 120mm oder gar 140mm Lüfter, was bei Überbreite der PCBs ja auch kein Problem wäre.
Das Ganze müsste dann aber am besten 2-3 Stützen bekommen. Da wäre eine AiO Fullcover-Lösung samt 360/480mm Radiator doch schon deutlich effektivier.
HBM2E/3 wäre in Zukunft auch eine schöne Sache - zumindest könnte man diesen ja für die 102er Karten liefern [angenommen die RTX 4080 bekommt den 103er Chip] - wenn man eh jenseits der $1199 MSRP liegt, ist der Kostenfaktor mMn kein Argument mehr.
Das liefert massiv Bandbreite und bis zu 24GB pro Stack und spart bestimmt 30-50W TGP ein. Das hätte auch schon Ampere ab der RTX 3070 Ti aufwärts geschmeckt. :)
Aber vermutlich wird es bei GDDR6X oder einem Nachfolger bleiben für die nächste Generation zumindest noch.
AffenJack
2021-10-24, 10:48:21
ich weiß es nicht. könnte mir aber vorstellen, das man nicht über 500mm² geht, wenn man beim mono Die bleibt. ob man da 450w wegkühlen kann? bei 350w und mehr als 600mm² geht das noch. 400w ist anspruchsvoller und für 450w würde ich wakü vorschlagen.
ich glaub nicht an 500mm² und 450w. entweder der chip wird größer, dann wirds trotzdem haarig mit 450w, oder man bleibt mit anspruchsvollen 350w auf sub 500mm².
Wie kommst du überhaupt darauf, dass Lovelace nur 500mm² sein sollte?
Nach allem, was man hört wird AMD mit 1000mm² Monstern ankommen und du glaubst Nvidia gibt einfach auf und nimmt nur Midrange mit unter 500mm² mit?
Nvidia dürfte ziemlich genau wissen, womit AMD ankommt und es wird Nv klar sein, dass man gegen MCM nur was machen kann, wenn man All-In geht. Unter 600mm² wird Lovelace nicht werden. Die werden an die Grenze des machbaren gehen.
Nicht wirklich. Es gibt wahrscheinlich erhebliche Architektur-Unterschiede, womit man beides nicht vermengen kann.
Erhebliche Unterschiede im Aufbau haben auch GA100 und GA102 und trotzdem sind sie für Nv die gleiche Architektur. Ich vermute das gleiche wie Mandalore, dass Lovelace in vielen Teilen Hopper ohne MCM darstellt und nur wegen MCM eine Unterscheidung im Namen hat. Deshalb würde ich auch einen Gaming Hopper nicht auschließen, den Kopite7kimi ja glaube mal in Spiel gebracht hat als mögliche Alternative, wenn man zu sehr hinterher hängt.
basix
2021-10-24, 11:06:12
Wenn die +70% SMs sowie grössere Caches für Lovelace stimmen, erwarte ich eher ~700mm2. Auch in 5nm.
Bei Hopper MCM @ Grafikkarte müsste aber eine Randbedingung erfüllt sein: Raytracing Cores. Bei GA100 war das nicht der Fall.
Platos
2021-10-24, 11:26:55
Man muss auch bedenken, dass Lovelace in 5nm kommt. Und die Kühllösung war schon bei der 3090 ein Monstrum für 350 Watt.
Wenn jetzt der DIE der 4090 in etwa gleich gross wird, wie bei der 3090, würden 450W schon eine deutlich bessere Kühllösung brauchen. Also entweder gleich Wasserkühlung (bezweifle ich) oder eine noch fettere Kühllösung???
Und wenn der Chip noch etwas kleiner wird, dann wird noch schwerer. Wenn er gleich gross bleibt, wäre das in 5nm schon extrem teuer. Also mindestens 1999$, wenn nicht 2499$. Und da ich erwarte, dass der Chip eher in ähnliche Grössenregionen geht, wie der der 3090, sieht 2499$ schon fast wahrscheinlicher aus.
Aber was ich sagen will: Nimmt der Stromverbrauch zu, wird die Kühllösung noch teurer.
Troyan
2021-10-24, 11:44:14
Es werden keine 450W oder so ein Quatsch. Die Ampere-Quadro-Karten liegen bei 300W mit GDDR6. Das entspricht exakt Turing. Mit Ampere-Next wird bestimmt auch das Speicherinterface GDDR6X angepasst und optimiert.
w0mbat
2021-10-24, 14:40:11
Ich kann mir 450W stock auch nicht vorstellen.
BlacKi
2021-10-24, 14:46:21
Wie kommst du überhaupt darauf, dass Lovelace nur 500mm² sein sollte?
Nach allem, was man hört wird AMD mit 1000mm² Monstern ankommen und du glaubst Nvidia gibt einfach auf und nimmt nur Midrange mit unter 500mm² mit?
1000mm²? junge junge, 2k€ uvp? und dank der miner dann 4k€? ist das die gaming karte?
Linmoum
2021-10-24, 14:49:53
Was AffenJack da schreibt bezieht sich aber auf alle Dies zusammen. Spekulierte 300-400mm2 pro GCD und dazu noch das MCD.
Aber die Diskussion ist eh sinnfrei, da NV keine Ahnung hatte, ob der Konkurrent im Desktop vor einem selbst schon mit MCM ankommt. Die Entwicklung von Lovelace hat ja nicht erst letztes Jahr begonnen.
Thunder99
2021-10-24, 16:01:55
Die 450W wurden ja von den bekannten Leakern spekuliert, gesagt. Ich hoffe es auch nicht aber als völliger Unsinn kann man es noch nicht abtun.
Wenn wirklich die Leistungsaufnahme der 3090 Super/Ti steigt, dann gehe ich (leider) davon aus, dass diese auch beim Nachfolger steigen wird.
Edgecrusher86
2021-11-05, 13:24:06
Wie ich mir RTX 4090 FE vorstelle:
https://abload.de/img/ololololnxjlg.jpg
:freak: ;D
E: Und den Nachfolger - die GeForce RTX 5090 Station:
https://abload.de/img/rtx5090station97j20.jpg
Skysnake
2021-11-05, 17:51:09
Passt auf das die nicht das Lachen im Halse stecken bleibt
Edgecrusher86
2021-11-05, 18:36:15
Naja, ich sag es mal so - allerspätestens, wenn eine 60er Karte eine reguläre vierstellige MSRP hat, geht es wohl mit PC-Gaming so richtig in den Keller.
Ich muss ja nicht alles mitmachen - es kommen eh nicht mehr viele gute Titel heraus, die einen Kauf rechtfertigen würden. Die 40er Serie werde ich daher wohl überspringen. UWQHD + hier und dort DLSS Support machen es möglich.
Wenn es ein gutes und sinniges Update wäre, könnte ich mir auch eine Performance-Karte vorstellen - etwa 60 Ti oder 70 / Ti - wie früher zu der Zeit als Schüler mit GT/GTS. ;)
Es ist schon eine sehr unsinnige Entwicklung, die im Grafiksegment eingeschlagen wird - man sollte lieber zusehen, dass man bei maximal 300W bleibt - das langt doch völlig.
Am Beispiel Ampere sieht man, dass bei 500W auch keine 20% Mehrleistung heraus holt, es sind dann eher 10% oder ein wenig darüber - also im Vergleich zu 320/350W.
Zum Glück hat man als User ja die Möglichkeit hier Anpassungen vorzunehmen - maximale Performance oder sinnvolle Performance [mitsamt möglicher Reserven].
Das hat AMD bei N21 in meinen Augen richtig gut gemacht - maximal 300W ab Werk für die Highend-Karten - nicht noch 50-100W drauf gegeben, um die letzten 5-10% mehr raus zu holen.
Schnäppchenjäger
2021-11-05, 18:54:52
Naja, ich sag es mal so - allerspätestens, wenn eine 60er Karte eine reguläre vierstellige MSRP hat, geht es wohl mit PC-Gaming so richtig in den Keller.
Ich muss ja nicht alles mitmachen - es kommen eh nicht mehr viele gute Titel heraus, die einen Kauf rechtfertigen würden. Die 40er Serie werde ich daher wohl überspringen. UWQHD + hier und dort DLSS Support machen es möglich.
Wenn es ein gutes und sinniges Update wäre, könnte ich mir auch eine Performance-Karte vorstellen - etwa 60 Ti oder 70 / Ti vorstellen - wie früher zu der Zeit als Schüler mit GT/GTS. ;)
Es ist schon eine sehr unsinnige Entwicklung, die im Grafiksegment eingeschlagen wird - man sollte lieber zusehen, dass man bei maximal 300W bleibt - das langt doch völlig.
Am Beispiel Ampere sieht man, dass bei 500W auch keine 20% Mehrleistung heraus holt, es sind dann eher 10% oder ein wenig darüber - also im Vergleich zu 320/350W.
Zum Glück hat man als User ja die Möglichkeit hier Anpassungen vorzunehmen - maximale Performance oder sinnvolle Performance [mitsamt möglicher Reserven].
Das hat AMD bei N21 in meinen Augen richtig gut gemacht - maximal 300W ab Werk für die Highend-Karten - nicht noch 50-100W drauf gegeben, um die letzten 5-10% mehr raus zu holen.Eben. Auch für mich kommt keine Karte jenseits der 70er in Frage. Wird sich vermutlich zwischen 60-70 einpendeln. Die haben genug Leistung und verbrauchen nicht so viel wie ein halbes Kernkraftwerk.
Edgecrusher86
2021-11-05, 19:56:55
Gut, ich meine, ich fahre die 90er hier idR auch sehr sparsam - Low-Clock UV, Auflösung, Framecap samt G-SYNC machen es möglich, dass ich SP-Titel bei grob 140-200W und zumeist 50/60 fps spielen kann - bei 13xx MHz und 73x mV - in der Regel.
Letztens mal BFV angeworfen mit 80er Cap - war immer noch extrem sparsam so - nur 140W im Mittel - hätte mehr erwartet. BF1 mit 100er Cap war meine ich 200-230W herum - mit denselben Taktraten.
Gut, das mag vielleicht daran gelegen haben, dass BFV etwas CPU lastiger ist - hehe.
Es ist dann eher ein mögliches Abwägen, ob sich eine Enthusiasten- oder Highend-Karte noch lohnt preislich. Mitnehmen würde ich es schon im Prinzip, aber nicht zu etwa 2000€+ MSRP.
Die 1650€ für die Trinity waren schon derby - quasi dasselbe wie das Ex 1080 Ti FE SLI samt Bridge zuvor (knapp darunter). Nun ja, maximal 1900€ für eine Strix OC hätte ich gezahlt.
Ich hätte mir ja gerne Jensens Backstein geschnappt, aber natürlich war wieder einmal nix verfügbar - seit Turing ein echtes Trauerspiel, was FE-Karten betrifft...
Bei Pascal konnte man auch ohne Probleme zwei Karten vorbestellen und hatte diese dann zum Launchtag im Haus.
Hauptsache eine Performance-Karte hätte dann in Zukunft mindestens auch 24GB oder mehr - ein Downgrade möchte ich nicht mehr machen - das ist viel zu oft geschehen in der Vergangenheit.
Nun ja, wie ich Onkel Huang kenne, wird auch eine RTX 5070 maximal 16GB bekommen - wie vermutlich auch der Vorgänger - langt ja. :D
Thunder99
2021-11-05, 20:29:51
Je länger man wartet, desto tiefer kann man bei den Karten einsteigen für eine geile Performance ;D. Dann passt auch der Stromverbrauch ;D.
Echt spannend was es wirklich wird aber gemäß des neuen Standards vom PCI-E 5.0 Stecker können wir schon uns Ausmalen wo die Reise hingehen (kann). Keine schöne Entwicklung, meiner Meinung nach.
300W sollten das Maximum bleiben, da es mit vertretbaren Aufwand zu kühlen ist.
Neurosphere
2021-11-05, 23:23:23
Was man letzten Endes braucht hängt ziemlich stark vom verwendeten Monitor und der dazugehörigen Auflösung ab.
Zocke ich auf Full HD? QHD? WQHD? 4K?
Brauche oder möchte ich 60Hz? 120Hz? 144Hz? 240Hz?
Es gibt heute halt so viele Möglichkeiten die GPU auszureizen jenseits der reinen Bildqualität (ja, Auflösung ist auch Qualli. Mir gehts mehr ums Prinzip.) die ein Spiel bietet.
TheAntitheist
2021-11-12, 05:49:54
AMD hat noch nie die größten GPUs gemacht, daher bezweifle ich das jetzt auf einmal so ein Monster Chip kommt. Passt einfach nicht in ihre Philosophie. Die machen jetzt das erste mal Gewinn, können aber nicht genug Chips herstellen, gerade zu diesen Zeiten macht so ein Monster Chip gar kein Sinn, weil sie die Wafer für CPUs nutzen könnten die 10x profitabler sind. Die Kuh melken bis es wieder in 2-3 Jahren wieder etwas bergab geht. Nvidia hat den Vorteil das sie einen viel größeren Fertigungs-leap machen und schon technologisch vorne waren UND bestimmt 5x mehr in die Forschung investieren. Wenn AMD auch ML und RT auf ihren Die unterbringen, wird dafür schon mal ne Menge Platz drauf gehen.
dargo
2021-11-12, 06:05:18
AMD braucht auch keinen Monsterchip für die anvisierten 75 TFLOPs FP32.
https://mobile.twitter.com/greymon55/status/1457929587069837315
Dank 5nm + 6nm ist AMD auch wesentlich flexibler.
TheAntitheist
2021-11-12, 06:32:00
hier sprachen manche von einem 1000mm² Chip, darauf bezog ich mich.
Für Lovelace sagt der gleiche Typ das:
AD102
5nm TSMC
144SM 18432CUDA
384bit 24G GDDR6X 21Gbps?
2.3~2.5GHz?
85~92T FP32?
Das monolitisch wäre ein riesen Sprung für Nvidia.
Und wir sehen ja wie flexibel AMD ist mit 7nm... 0,0 da sie gar nicht genug bekommen. Nvidia kann ihre Midrange karten auch bei Samsung herstellen lassen und kaufen immernoch fast genauso viele Wafer bei TSMC wie AMD.
dargo
2021-11-12, 06:35:20
Das ist natürlich Quatsch, sowas wäre unbezahlbar.
Und wir sehen ja wie flexibel AMD ist mit 7nm... 0,0 da sie gar nicht genug bekommen.
Was hast du an 5nm + 6nm TSMC nicht verstanden? Zumal AMD bei RDNA3 nur noch kleinere Dies fertigen wird. Auch gehe ich nicht unbedingt von gleicher Situation bei RDNA3 aus wie noch Ende 2020 wo die Konsolen die höchste Priorität hatten. Jedenfalls habe ich nichts von einem Konsolenrefresh für Ende 2022 mitbekommen der die 5/6nm Kapazitäten gefährden würde.
OgrEGT
2021-11-12, 06:40:00
hier sprachen manche von einem 1000mm² Chip, darauf bezog ich mich.
Bei AMD wird RDNA3 nicht mehr monolithisch sein sondern auf Chiplets basieren die kleiner sind und damit einfacher und günstiger zu fertigen sein werden.
Auch wird RDNA3 wieder IF$ nutzen so dass ein kleineres Speicherinterface ausreicht mit günstigerem VRAM.
Bei NV wird man sehen müssen ob so ein großer Monolith realisiert wetden kann und falls ja in welchen Stückzahlen und zu welchem Preis das möglich sein wird.
basix
2021-11-12, 07:27:27
Genau, AMD soll Chiplets benutzen. Bei N31:
- 2x GCD mit je 30 WGP und somit 120 CU
- MCD = 256-512 MByte Infinity Cache, 3D-Stacked (vermutlich ähnlich/gleiche Technik wie bei EFB, siehe MI200). Laut Gerüchten könnten das 4x Die mit jeweils 64-128MB Cache sowie 64bit SI sein
Gesamthaft sind diese 3-6 Chips dann ~1000mm2 gross. Die einzelnen Chips sind deutlich kleiner. Für die 5nm GCDs sind ~400mm2 im Gespräch.
robbitop
2021-11-12, 09:54:17
AMD hat noch nie die größten GPUs gemacht, daher bezweifle ich das jetzt auf einmal so ein Monster Chip kommt. Passt einfach nicht in ihre Philosophie. Die machen jetzt das erste mal Gewinn, können aber nicht genug Chips herstellen, gerade zu diesen Zeiten macht so ein Monster Chip gar kein Sinn, weil sie die Wafer für CPUs nutzen könnten die 10x profitabler sind. Die Kuh melken bis es wieder in 2-3 Jahren wieder etwas bergab geht. Nvidia hat den Vorteil das sie einen viel größeren Fertigungs-leap machen und schon technologisch vorne waren UND bestimmt 5x mehr in die Forschung investieren. Wenn AMD auch ML und RT auf ihren Die unterbringen, wird dafür schon mal ne Menge Platz drauf gehen.
Genau deshalb macht AMD mit rdna3 Chiplets in Kombination mit modernem packaging was hohe Interconnect Banbdreite bei möglichst wenig Energiebedarf ermöglicht. So kann man mit relativ kleinen Chips eben den ganzen Productstack skalieren. Von unten bis nach ganz oben.
——————-
zu den 144 SMs für AD102. So monströs ist das nicht. Das sind gerade einmal +75 SMs. Und das bei locker 1,5 Fullnodesprüngen. Samsungs 8 nm ist ja eher ein 10 nm Prozess. Und man geht iirc zu TSMCs 5 nm.
AMD bewarb in ihrer Keynode 2x density ggü 7nm TSMC und 1,25x perf.
Wenn man sich dazu mal Samsung vs TSMC ISO anschaut: siehe das Anandtech review wo sie Power von einem A55 in tsmc n5 vs Samsung 5nm vs TSMC n7 gemessen haben. Da war Samsungs 5 nm eher auf dem Level von TSMCs n7. Insofern ist der Sprung von Samsungs 8nm auf TSMCs n5 wahrscheinlich größer als man im ersten Moment denken könnte. Insofern kann ich die Begeisterung über läppische +75% mehr Units überhaupt nicht nachvollziehen. Ich gehe aber davon aus, dass die SMs an sich dann auch mehr können.
basix
2021-11-12, 13:56:32
Ich gehe aber davon aus, dass die SMs an sich dann auch mehr können.
Mehr Takt ist ja schon lange im Gespräch. Von Seiten Raytracing erwarte ich ein Update. Und vermutlich wird man die FP32/Tensor-Leistung besser auf die Strasse bringen (Stichworte: Grössere Caches, evtl. ein zusätzlicher Execution Port, wieder Double Rate FP16)
AffenJack
2021-11-12, 15:52:53
Genau, AMD soll Chiplets benutzen. Bei N31:
- 2x GCD mit je 30 WGP und somit 120 CU
- MCD = 256-512 MByte Infinity Cache, 3D-Stacked (vermutlich ähnlich/gleiche Technik wie bei EFB, siehe MI200). Laut Gerüchten könnten das 4x Die mit jeweils 64-128MB Cache sowie 64bit SI sein
Gesamthaft sind diese 3-6 Chips dann ~1000mm2 gross. Die einzelnen Chips sind deutlich kleiner. Für die 5nm GCDs sind ~400mm2 im Gespräch.
Wird trotzdem unbezahlbar werden. Wafer in 6nm und 5nm sind so teuer, da wird man N31 sowieso nicht unter 1000€ bekommen und der Vollausbau nochmal deutlich drüber. N31 wird nen Prestigechip um Nvidia keine Chance zu lassen und die werden sie auch nicht haben. Nvidia kann einfach max auf ~650mm² gehen. Das wird nicht reichen, wenn AMD einen mit Fläche totschlägt und alles was Nvidia tun kann ist den Chip an die Kotzgrenze zu takten, damit man halbwegs in die Nähe kommt.
Wirklich interessant dürften eher N32, AD104 und N33 werden.
Laut Kopite7kimi kommen AD102 und AD104 in Q3 2022. Damit dürfte man immerhin nen Zeitvorteil gegenüber AMD haben, wo N33 für Q4 22 und N31 für Q1 23 spekuliert wird.
dargo
2021-11-12, 16:03:17
Wird trotzdem unbezahlbar werden. Wafer in 6nm und 5nm sind so teuer, da wird man N31 sowieso nicht unter 1000€ bekommen und der Vollausbau nochmal deutlich drüber.
Wie kommt man auf die Idee AMD würde beim Topdog und den spekulierten Daten nur 1000€ verlangen? Erst recht wenn das Ding tatsächlich mit 32GB Vram kommen sollte? Und mal ehrlich in der Gegend von 1000€ wäre das sogar ein Schnäppchen wenn man sieht was man heute tatsächlich für den Preis bekommt. :freak:
robbitop
2021-11-12, 16:08:21
Mehr Takt ist ja schon lange im Gespräch. Von Seiten Raytracing erwarte ich ein Update. Und vermutlich wird man die FP32/Tensor-Leistung besser auf die Strasse bringen (Stichworte: Grössere Caches, evtl. ein zusätzlicher Execution Port, wieder Double Rate FP16)
Und endlich den Registerengpass von Ampere loswerden -> die müssten verdoppelt werden.
AffenJack
2021-11-12, 16:25:34
Wie kommt man auf die Idee AMD würde beim Topdog und den spekulierten Daten nur 1000€ verlangen? Erst recht wenn das Ding tatsächlich mit 32GB Vram kommen sollte? Und mal ehrlich in der Gegend von 1000€ wäre das sogar ein Schnäppchen wenn man sieht was man heute tatsächlich für den Preis bekommt. :freak:
Ich rede nicht vom Top Dog. Ich denke, dass nichtmal der Salvage unter 1000€ landen wird. AMD wird es wie bei Threadripper machen und sich den Top Dog vergolden lassen, wenn man konkurrenzlos ist. Da würden mich 1999€ nicht wundern. Die Situation gerade zeigt vor allem, dass man es verlangen kann.
Troyan
2021-11-12, 16:40:31
Genau, AMD soll Chiplets benutzen. Bei N31:
- 2x GCD mit je 30 WGP und somit 120 CU
- MCD = 256-512 MByte Infinity Cache, 3D-Stacked (vermutlich ähnlich/gleiche Technik wie bei EFB, siehe MI200). Laut Gerüchten könnten das 4x Die mit jeweils 64-128MB Cache sowie 64bit SI sein
Gesamthaft sind diese 3-6 Chips dann ~1000mm2 gross. Die einzelnen Chips sind deutlich kleiner. Für die 5nm GCDs sind ~400mm2 im Gespräch.
MI200 benutzt 2x 700mm^2+ Chips und ist gerade mal im Schnitt 2,2x schneller als A100 bei leicht weniger als 90% mehr Stromaufnahme.
Klar, kommt AMD da in 5nm mit 400mm^2 aus. :rolleyes:
robbitop
2021-11-12, 17:00:41
Ich rede nicht vom Top Dog. Ich denke, dass nichtmal der Salvage unter 1000€ landen wird. AMD wird es wie bei Threadripper machen und sich den Top Dog vergolden lassen, wenn man konkurrenzlos ist. Da würden mich 1999€ nicht wundern. Die Situation gerade zeigt vor allem, dass man es verlangen kann.
Wo ist das Problem? Angebot und Nachfrage.
Wenn der top dog zu teuer ist gibt es unter ihm sicherlich einen kompletten Produktstack mit vielen SKUs.
Oder man verzichtet oder man kauft gebraucht das Vorgängermodell.
basix
2021-11-12, 19:48:03
MI200 benutzt 2x 700mm^2+ Chips und ist gerade mal im Schnitt 2,2x schneller als A100 bei leicht weniger als 90% mehr Stromaufnahme.
Klar, kommt AMD da in 5nm mit 400mm^2 aus. :rolleyes:
Äpfel und Birnen und so...
Dovregubben
2021-11-12, 20:37:23
Wird trotzdem unbezahlbar werden. Wafer in 6nm und 5nm sind so teuer, da wird man N31 sowieso nicht unter 1000€ bekommen und der Vollausbau nochmal deutlich drüber.
Der Waferpreis spielt nur eine Rolle, wenn es wie jetzt nicht genug Kapazität gibt. Selbst bei den angeblichen 17k pro 5nm Wafer kann man ja schnell überschlagen wie "schlimm" die Waferpreise wirklich für die Hersteller sind.
TheAntitheist
2021-11-12, 21:26:37
Das ist natürlich Quatsch, sowas wäre unbezahlbar.
Was hast du an 5nm + 6nm TSMC nicht verstanden? Zumal AMD bei RDNA3 nur noch kleinere Dies fertigen wird. Auch gehe ich nicht unbedingt von gleicher Situation bei RDNA3 aus wie noch Ende 2020 wo die Konsolen die höchste Priorität hatten. Jedenfalls habe ich nichts von einem Konsolenrefresh für Ende 2022 mitbekommen der die 5/6nm Kapazitäten gefährden würde.
was hast du denn bitte nicht daran verstanden das es vllt gar nicht genug Kapazitäten dafür gibt? Wenn AMD schon nicht genug für 7nm bekommen hat dann erst recht nicht für 5nm, da gibts viel potentere Firmen... und was das mit einem Konsolen refresh zu tun hat ist auch merkwürdig. Dafür steigt doch Nvidia wieder als großer Abnehmer ein, der Prozess ist neu und Apple wird noch mehr 5nm kaufen weil sie ja jetzt auch noch ne menge für ihre iMacs etc. brauchen. Denk mal ein bisschen weiter bevor du große Töne spuckst und frech wirst.
TheAntitheist
2021-11-12, 21:29:41
Bei AMD wird RDNA3 nicht mehr monolithisch sein sondern auf Chiplets basieren die kleiner sind und damit einfacher und günstiger zu fertigen sein werden.
Auch wird RDNA3 wieder IF$ nutzen so dass ein kleineres Speicherinterface ausreicht mit günstigerem VRAM.
Bei NV wird man sehen müssen ob so ein großer Monolith realisiert wetden kann und falls ja in welchen Stückzahlen und zu welchem Preis das möglich sein wird.
Das steigert die Ausbeute ja, dennoch hat AMD noch nie große Chips gebaut, du gehst gar nicht auf alles ein was ich schrieb. Immer nur fetzen aus allem zu reissen ist auch quatsch. eher werden die 2x400mm² machen als 2x500mm². Dazu rechnet man noch die Verluste aus dem MC Design und den Technologischen Rückschritt, schon reicht Nvidia wieder ein 500-600mm².
€dit: Die Gerüchte sehen ja auch genau DAS.
Neurosphere
2021-11-12, 22:59:32
Das steigert die Ausbeute ja, dennoch hat AMD noch nie große Chips gebaut, du gehst gar nicht auf alles ein was ich schrieb. Immer nur fetzen aus allem zu reissen ist auch quatsch. eher werden die 2x400mm² machen als 2x500mm². Dazu rechnet man noch die Verluste aus dem MC Design und den Technologischen Rückschritt, schon reicht Nvidia wieder ein 500-600mm².
€dit: Die Gerüchte sehen ja auch genau DAS.
Die Gerüchte sehen den Top Dog mit vermutlich 4 Chips und insgesamt wohlmöglich 1000mm².
Von der Ausbeute wird NV das Nachsehen haben wenn sie mit einem konkurierenden monolitischen Chip kommen der halt pro Chip deutlich größer ist.
Zur Verfügbarkeit für AMD, zum einen kommen ja nicht alle Chips in 5nm sondern auch 6nm, man kann also etwas aufteilen, zum anderen sind die Veträge schon gemacht und AMD wird wohl wissen was drin ist. Hatten wir von TSMC nicht mal die Aufteilung der 5nm Kapazitäten irgendwo als Bild?
Rein von der ganzen Thematik sind wir aber irgendwie im falschen Thread...
Troyan
2021-11-12, 23:38:27
Der Waferpreis spielt nur eine Rolle, wenn es wie jetzt nicht genug Kapazität gibt. Selbst bei den angeblichen 17k pro 5nm Wafer kann man ja schnell überschlagen wie "schlimm" die Waferpreise wirklich für die Hersteller sind.
Deswegen macht es Sinn gleich drei Chips zu verwenden. :freak:
Ein MCM Design ist nur dann sinnvoll, wenn man keinen großen Chip produzieren kann. Nur ist ein MCM Design auch deutlich ineffizienter, wodurch mehr Fläche für in Relation weniger Leistung benötigt wird.
Nightspider
2021-11-13, 00:24:02
Wenn AMD schon nicht genug für 7nm bekommen hat dann erst recht nicht für 5nm
Die Aussage ist so bescheuert das man sie alleine deswegen schon zitieren muss.
robbitop
2021-11-13, 05:58:53
Durch Chiplets lässt sich aber Kosten sparen. Yield geht bei kleineren Chips deutlich hoch und man kann mehr Fläche des runden Wavers an den Kanten nutzen. Und man muss nicht den neusten teuersten Prozess für I/O und 2D und Videobeschleunigung und ähnliches nutzen.
Chiplets sind die Zukunft. Das wird bei NV auch früher oder später so kommen.
iamthebear
2021-11-13, 11:38:59
Das Problem ist, dass sich AMD einfach zu wenig Kapazitäten bestellt hat. Normalerweise ist TSMC auf 90% Auslastung. Jeder bestellt ca. 2-3 Jahre vorher das was er glaubt dass er braucht und wenn man mehr braucht, bestellt man von den restlichen 10% halt etwas nach. Nun ist TSMC auf 100% und alle die zu wenig bestekkt haben die haben Pech gehabt.
Apple hat es nur sehr leicht getroffen. Die haben jedoch einen eher konstanten Absatz und hatten keine Steigerung.
AMD hatte kräftige Steigerungen und wusste z.B. vor 2 Jahren nicht wie die Marktsituation sein würde. Deshalb haben sie weniger bestellt und sind nun von ihrem eigenen Erfolg bzw. der Marktsituation komplett überrascht.
Die Autohersteller waren so doof, dass sie in den 2 Monaten Lockdown alles abbestellt haben weil sie dachten es kommt eine Wirtschaftskrise aber durch die ganzen Staatshilfen war das Gegenteil der Fall.
Wenn AMD an mehr Lieferbarkeit interessiert wäre hätten sie Anfang 2020 kräftig 5nm Kapazitäten einkaufen können. Ob sie das getan haben wird man sehen. Ich glaube, dass sowohl Nvidia als auch AMD mit der aktuellen Marktsituation gar nicht so unglücklich sind.
AffenJack
2021-11-13, 11:58:19
Das Problem sind doch gar nicht mehr die Wafer. Apple hat bei TSMC Bestellungen reduziert, weil sie nicht genügend Smartphones bauen können. Nvidia könnte wahrscheinlich auch bei Samsung mehr produzieren. Hilft aber alles nichts, wenn du Chips hast, die du nicht zu Karten zusammen bauen kannst. Aktuell sind das Problem in der Lieferkette eher die kleinen Mircochips,ICs und Texas Instruments etc. ist wohl viel eher das Problem als TSMC. Wenn Apple jetzt wegen TI weniger bei TSMC abnimmt, wird auch TSMC von ihrem hohen Ross runterkommen müssen und ihre Preiserhöhungen nicht lange durchhalten können.
Slipknot79
2021-11-13, 12:06:20
Also ich habe hier noch nen TI-89 rumliegen, wenn NV dafür ne 3090 springen lässt, bekommt der Laden von mir den Taschenrechner. :redface:
Dural
2021-11-14, 10:54:08
Chiplets sind die Zukunft. Das wird bei NV auch früher oder später so kommen.
Nein, mit raster wird man um einen mono Die nicht herumkommen. Mit RT sieht das anders aus, aber das wird noch dauern.
Nv hat schon vor rund 10 jahren ein mehr Die konzept vorgestellt, es ist also schon sehr lange im gespräch.
basix
2021-11-14, 11:04:20
Nein, mit raster wird man um einen mono Die nicht herumkommen.
Diese Aussage wird nicht gut altern. Sobald AMDs N31/32 erscheinen haben wir Multi-Die, Chiplets und 3D-Stacking. Auch für Raster.
robbitop
2021-11-14, 11:17:21
Das galt früher mal. Dank modernem packaging kann man jetzt Signale für 2-3 Größenordnungen weniger an Energie von Chip zu Chip bekommen. Entsprechend lassen sich die dafür erforderlichen Bandbreiten umsetzen um mehrere Chips so zu verbinden, so dass sie sich wie ein einziger Chip verhalten. Völlig transparent zur Anwendung oder zum Treiber ist alles Hardware.
Ob in einnem monolithischen Chip oder in Chiplets - die Einheiten sind miteinander über eine Fabric verbunden und kommunizieren. Obiges ging bis vor kurzem halt nicht. InfoLSI und Co verändern das weil es die Limitierung jetzt nicht mehr gibt. Und ich vermute, dass Chiplets und Stacking gerade erst anfangen und noch viel viel mehr an Innovationen dort in den nächsten Jahren zu sehen sein wird.
Troyan
2021-11-14, 11:35:33
Die Einheiten sind über Cache-Ebenen miteinander verbunden. L2 Cache ist zig fach schneller als L3 und vorallem Offchip. MCM ist ineffizient, weil die Chips aktiv immer miteinander kommunizieren und synchronisieren müssen. Daten müssen dauernd über mehrere Ebenen ausgetauscht werden. Dazu müssen die Daten im L3 Cache vorliegen, was dank mehr Geometrie und Raytracing zur kompletten Überforderung führen wird. Ampere ist mit Raytracing in Hybrid-Spielen 50% schneller bei gleicher Anzahl an Transistoren. AMD muss massive OnChp-Caches verwenden, um nicht dauernd Offchip gehen zu müssen, wodurch die Produktionskosten massiv ansteigen. Die angeblich 512mb sind lächerlich wenig, wenn alleine schon das BVH in Spielen zwischen 500 und 1000MB groß sein kann.
robbitop
2021-11-14, 11:40:47
Schau dir den VCache an. Keine Latenzverluste, kein höherer Energiebedarf, keine extra Fabric dafür, riesen Bandbreite. Es wird einfach über ubumps verbunden.
Aller Voraussicht werden wir es zu rdna3 ja sehen. Wenn es nicht gehen würde oder nicht sinnvoll wäre würde es nicht gemacht werden. Es ist albern, dass dahergelaufene Laien in einem Forum besser bewerten können wolle als Profis die den Chip designen. AMD macht das nicht zum Spaß und hat sicher haufenweise Studien und RnD investiert um zu bewerten ob es sinnvoll ist.
Laut aktuellen Gerüchten ist der Lovelace Nachfolger auch chiplet basiert. Mal sehen ob du dich dann noch an diese Konversation erinnern wirst. ;)
Nightspider
2021-11-14, 13:00:01
Die angeblich 512mb sind lächerlich wenig, wenn alleine schon das BVH in Spielen zwischen 500 und 1000MB groß sein kann.
Dann guck dir mal an wofür die popeligen 128mb schon gereicht haben und was AMD aus den noch kleineren Chips mit 32MB herausholt.
Wo Nvidia ein 192 Bit Speicherinterface benötigt ist AMD dank 32mb IF$ sogar mit 128 Bit SI schneller.
Den Vorteil von Cache kleinzureden ist angesichts der Tatsachen unnötig.
robbitop
2021-11-14, 14:08:44
Für eine gute Hitrate muss der Cache im Vergleich zum Dataset nicht riesig sein. Klingt für mich als wenn das Prinzip von Caches und Sprungvorhersage nicht verstanden wurde. :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.