PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias AD102-Chip soll mit gleich +122% mehr Rechenleistung antreten


Leonidas
2021-09-19, 18:08:45
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ad102-chip-soll-mit-gleich-122-mehr-rechenleistung-antreten

Platos
2021-09-19, 20:55:47
(Sehr) hohe Perfomancesteigerungen weisen m.M.n auch auf einen steigenden Listenpreis hin. Ich glaube kaum, dass es +122% gibt für's selbe Geld. Und dann auch noch unter 5nm. Vlt. wird das ja eine 2500$ Karte:freak:

Wäre zu schön um wahr zu sein. Und ausserdem will ich nicht wissen, wie die 2.2Ghz erreicht werden :D Ich sehe schon die 420W für die Founders Edition. Custom vlt. dann 450-500W. ^^

Geldmann3
2021-09-19, 21:10:04
Gut geschrieben Leonidas, besser hätte ich es nicht zusammenfassen oder erörtern können! (y)

- Skynet in Terminator 3 lief angeblich mit 60 Teraflops, damit ist die RTX 4090 33% schneller als Skynet. haha

Sardaukar.nsn
2021-09-19, 22:55:58
Wenn das nur ansatzweise stimmt, wird es deutlich mehr RTX 4090 Nachfrage als Angebot geben.

Geldmann3
2021-09-19, 23:00:00
Wirklich, bei einer MSRP von ca. 1749$?

Hmm, könnte sein...

iamthebear
2021-09-19, 23:06:11
Wenn die 30% stimmen, dann ergeben sich diese wohl kaum aus der Fertigung alleine.

30% Steigerung würde man nur bekommen wenn man:
a) Als Basiswert einen relativ moderaten Grundtakt annimmt (z.B. 1.2 GHz)
b) Den neuen Chip so weit hoch taktet, dass dieser bei gleicher Shaderanzahl genauso viel verbraucht wie der vorherige Chip (+30% frequency @ iso power)

Ich gehe davon aus, dass die Taktsteigerung größtenteils von Architekturänderungen kommt siehe RDNA => RDNA2. Sprich man opfert einige Transistoren und etwas IPC, um dafür jedoch mehr Takt raus zu holen.
Die Speicherbandbreite wird wohl durch zusätzliche Caches kompensiert werden. Das muss jedoch nicht zwingend ein L3 Cache wie bei AMD sein. Man könnte auch einfach die L2 Caches vergrößern. Das würde wohl denselben Effekt haben.

Was den Preis angeht, so denke ich nicht, dass Nvidia ihren UVP erhöhen wird. Sie werden wohl einfach die Modellnamen dementsprechend ausrichten z.B.:
.) 4090 (1500) und 4090 Ti (2000) bekommen AD102
.) 4080 (700) und 4080 Ti (1000) bekommen AD104
.) 4070 (500) und 4070 Ti (600) bekommen AD106

Je nachdem wie konkurrenzfähig die Intel Chips sind überlegt man sich ob es Sinn macht darunter noch einmal AD107/AD108 aufzulegen. Ich kann mir aber auch gut vorstellen, dass man es bleiben lässt wenn es nicht notwendig ist nachdem Nvidia ja gesehen hat, dass die 200 Euro Käufer auch 500 Euro zahlen wenn es unten kein Angebot gibt. AMD wird sich vermutlich genauso verhalten.

Leonidas
2021-09-20, 04:37:32
Ich gehe davon aus, dass die Taktsteigerung größtenteils von Architekturänderungen kommt siehe RDNA => RDNA2. Sprich man opfert einige Transistoren und etwas IPC, um dafür jedoch mehr Takt raus zu holen.

Sehr gut denkbar. Bei AMD hat es ja viel gebracht - und NV kann nun nicht so weit zurückstehen, sonst muß man immer die fetteren Chips auflegen (weniger Takt = mehr Einheiten notwendig).




Skynet in Terminator 3 lief angeblich mit 60 Teraflops

In der Tat:
https://www.youtube.com/watch?v=_Wlsd9mljiU&t=163s

Schnitzl
2021-09-20, 09:20:22
bezüglich der Tabelle "4K-Perf vs. Vorgänger": 2080 hatte soweit ich weiss den TU104 Chip, während die 3080 den GA102 Chip hat, d.h. meiner Meinung nach ist die Tabelle entweder falsch oder unlogisch.
Genauso hätte die 3070 eigentlich 3080 heissen sollen, nur die 3060 stimmt (GA106)

Damit wird das Bild verzerrt und Perf-Steigerung suggeriert, die im Vergleich zum Vorgängerchip so nicht da ist.

Leonidas
2021-09-20, 09:29:33
Die Beschriftung lautete "xx80" - und nicht Chipversionen.

Beides sind suboptimale Vergleiche, weil NV in neuerer Zeit da viel hin- und hergeschoben hat. Für diesen Fall hab ich mich für den Grafikkarten-basierten Vergleich entschieden. Relevant an den Werten ist sowieso eher die grundsätzliche Höhe - welche zuletzt nie (im Durchschnitt) in die Nähe von +100% kam.

Schnitzl
2021-09-20, 09:43:40
nun, im gesamten Artikel wird über die Chipversionen geschrieben ;)

Leonidas
2021-09-20, 10:15:22
Guter Punkt, habe ich nicht bedacht. Die Beschriftung der Tabelle ist aber dennoch eindeutig.

Nazar
2021-09-20, 14:28:42
Dann wird, wenn man der Tabelle folgt, die 4080 endlich doppelt so schnell sein, wie eine 2080 Ti? :confused:
So betrachtet ist das Ergebnis dann wohl doch nicht so toll.
Erst bremst man sich selber aus, bzw. liefert einen unterirdisch schlechten Performance Sprung im RZ ab und feiert ein Jahr später einen "enormen" Sprung, weil man endlich die "Bremse", dank Fertigungsveränderung" lösen konnte? :freak:
Und ich bin immer noch daran interessiert, welche 3080 48% schneller als eine 2080 Ti war, bei welchen Kosten (bitte keinen Listenpreis nennen ;)), und welcher Abwärme.
Und die Tests und Gegenüberstellung zu einer 2080 Ti kann ich kaum erwarten.
Wenn ich dann die Informationen zum DLAA lese, dann kann ich mir schon gut vorstellen, woher dieser "Sprung" kommen soll und wird. :wink:
Das nächste Alleinstellungsmerkmal auf Kosten der Gamer ist da.
Naja, so wird niemanden langweilig.
Mögen die Glaubenskriege weitergehen und Fakten auf dem Scheiterhaufen weiterhin verbrannt werden. :freak:

Gast
2021-09-20, 16:58:16
und nVidia feuert demzufolge aus allen Rohren, will unbedingt seine Performance-Spitzenposition behalten.

Dann müsste nVidia effizienten HBM-Speicher verbauen. Bei den Preisen und Verlustleistungen ist GDDR6X unpassend.

iamthebear
2021-09-20, 23:32:59
Und ich bin immer noch daran interessiert, welche 3080 48% schneller als eine 2080 Ti war, bei welchen Kosten (bitte keinen Listenpreis nennen ;)), und welcher Abwärme.

Grundsätzlich ist die 3080 schon 40% schneller als die 2080 Ti (weiß nicht woher die 48% stammen, das wurde wohl von der 3070 hochgerechnet ohne den Taktunterschied zu berücksichtigen).
Nur kommen durch den Treiberoverhead von Nvidia nur ca. 33% davon an, weil einfach die CPU bremst.

Was den Preis angeht:
Die 3080 war zeitweise unter 1100 Euro zu haben, aktuell auf 1300. Die 2080 Ti hat real auch 1200 Euro gekostet (trotz 1K Listenpreis).

Und die Abwärme: Mein Gott, wenn es stört, dann stellt man die TDP halt 50W niedriger ein. Die 4% die man dadurch verliert lassen sich leicht verschmerzen.

Ultron
2021-09-22, 01:47:04
Grundsätzlich ist die 3080 schon 40% schneller als die 2080 Ti (weiß nicht woher die 48% stammen, das wurde wohl von der 3070 hochgerechnet ohne den Taktunterschied zu berücksichtigen).
Nur kommen durch den Treiberoverhead von Nvidia nur ca. 33% davon an, weil einfach die CPU bremst.

Was den Preis angeht:
Die 3080 war zeitweise unter 1100 Euro zu haben, aktuell auf 1300. Die 2080 Ti hat real auch 1200 Euro gekostet (trotz 1K Listenpreis).

Und die Abwärme: Mein Gott, wenn es stört, dann stellt man die TDP halt 50W niedriger ein. Die 4% die man dadurch verliert lassen sich leicht verschmerzen.

Ich hab für die 3080 ganz regulär 699€ bezahlt.