PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Infoschwung zu GeForce RTX 3060 Ti, 3070 Ti 16GB & 3090 Ti


Leonidas
2022-01-15, 14:21:13
Link zur News:
https://www.3dcenter.org/news/infoschwung-zu-geforce-rtx-3060-ti-geforce-rtx-3070-ti-16gb-geforce-rtx-3090-ti

Aroas
2022-01-15, 14:24:11
Sieht eigentlich überhaupt noch jemand durch bei den ganzen Ampere Modellen, die NVidia auf den Markt schmeißt?

Platos
2022-01-15, 15:42:49
Interessiert mich gar nicht mehr. Bis die Preise wieder normal sind, kann mir jede Grafikkarte am Arsch vorbei gehen.

Aroas
2022-01-15, 16:58:28
Geht mir genauso. Ich sehe halt nur immer größere Tabellen mit Ampere Modellen und frage mich dabei, was das überhaupt soll.

iamthebear
2022-01-15, 17:05:36
Mittlerweile ist für mich die aktuelle Generation komplett uninteressant geworden. P/L mäßig rechnet sich das einfach nicht. Ich werde das Ganze aussitzen bis wieder Vernunft eingekehrt ist. Mit 1080p kann man auch bequem spielen.

Ex3cut3r
2022-01-15, 18:23:25
Mir kanns auch egal sein. Bin mit einer 3080 Ti schon eingedeckt.

Mal sehen was Lovelace so treiben wird. Ansonsten kann ich mir auch vorstellen die 40er Gen komplett zu überspringen.

rokko
2022-01-15, 19:40:00
Sieht eigentlich überhaupt noch jemand durch bei den ganzen Ampere Modellen, die NVidia auf den Markt schmeißt?
geht mir auch so.

Einfach aussitzen und Geld sparen.

Tigerfox
2022-01-15, 20:21:16
Das mit der 3060Ti und dem GA103 verstehe ich nicht, glaube es aber angesichts der Quellen.

Der GA103 ist ja nun eindeutig größer und damit teurer zu produzieren als der GA104, wenn er schon in einer 3080Ti mobile 58SM hat. Es ist noch nicht sicher, aber da sich die Anzahl der SM einigermaßen bestätig hat, kann man auch davon ausgehen, dass die Gerüchte zum Speicherinterface (320Bit) ein Körnchen Wahrheit haben.

Es wurde schon häufiger kolportiert, dass der GA103 pinkompatibel zu GA102 und GA104 sei. Nur verstehe ich nicht, was NV davon hat, den GA104 ausgerechnet in seiner beschnittensten Form durch den größeren Chip zu ersetzen. Hat man soviele teildefekte Chips, dass es sich lohnt, die dort loszuwerden, oder erreichen die nicht die Taktraten der stärkeren Modelle?

Überhaupt kann der Chip doch garnicht so konfiguriert sein, dass er beide anderen Chips ersetzen kann. Die Aufteilung der SMs auf die GPCs ist bis jetzt bei allen drei Chips anders (GA106: 10SM pro GPC, 3 GPC, daher 48 ROPs; GA104: 8 SM pro GPC, 6 GPC, daher 96 ROPs; GA102: 12 SM pro GPC, 7 GPC, daher 112 ROPs)

Wenn der GA103 ein 320Bit-SI, ist es am wahrscheinlichsten, dass er auf der Konfiguration dew GA102 basiert. Da könnte man die 58 SM der 3080Ti mobile immer noch halbwegs sinnvoll mit 6 GPC konfigurieren, indem nicht ein GPC ganz, sondern alle halb abgeschaltet werden und in zweien noch jeweils eins extra. 6 GPC müssen es aber sein, da die 3080Ti Mobile noch 96 ROPs hat.
Möglich wäre natürlich auch ein verdoppelter GA106 mit 6 GPC und damit genau 60SM. Eine Konfiguration wie im GA104 ist aber nicht möglich, da es dann 8 statt 6 GPC für 58SM und damit 128 ROPs sein müssten.
Und da beginnt auch das Problem für eine RTX 3060Ti auf GA103-Basis - die 80 ROPs der 3060Ti hießen bei beiden Konfigurationen mindestens 5 GPC, also eigentlich 50 bis 60 SM, wovon dann entweder 2-3 oder 4-5 in jedem GPC deaktivert sein müssten, um bei 5 GPC auf die 38 SM der RTX 3060Ti zu kommen - klingt für mich nach totaler Verschwendung von Chipfläche.

Ich hoffe, dass ist echt nur Auschußverwertung. Mich interessiert die 3060Ti nicht wirklich, obwohl sie preislich noch am ehesten sinnvoll für mich wäre, aber die ist mir schon auf GA104-Basis zu sehr eingeschränkt und ein zu kleiner Sprung von meiner RTX 2070 (non-Super).
Aber ich fände eine Karte auf GA103-Basis unterhalb der 3080, aber oberhalb der 3070Ti interessant, eben mit dieses 58SM.

WedgeAntilles
2022-01-15, 21:03:30
Sieht eigentlich überhaupt noch jemand durch bei den ganzen Ampere Modellen, die NVidia auf den Markt schmeißt?
Indirekt.
Wieviele Modelle sind zu einem halbwegs normalen Preis verfügbar?
0?
Ok, Thema erledigt.

Kann man das jetzt als "ich überschaue es" definieren oder nicht^^

Ahnungsloser Passant
2022-01-16, 01:07:38
Sieht eigentlich überhaupt noch jemand durch bei den ganzen Ampere Modellen, die NVidia auf den Markt schmeißt?

Ich hätte ja auch gedacht, dass sie mit den neuen Kartenversionen ein paar alte mal vom Markt nehmen wie zum Beispiel diejenigen mit den sehr niedrigen Speicher/Performance Verhältnis. Jede Karte hat bei der Einführung wohl einen gewissen, nachvollziehbaren Grund für ihre Einführung gehabt, aber das Gesamtbild bewegt sich inzwischen von "Flickenteppich" zu "Clusterfuck" (inkl 2060 12GB.)

Aroas
2022-01-16, 01:26:19
Jede Karte hat bei der Einführung wohl einen gewissen, nachvollziehbaren Grund für ihre Einführung gehabt...

Nicht wirklich. Eine RTX 3070 war mit 8GB schon von vornherein zu mager bestückt.

Eine RTX 3060 hat mit 12GB hingegen einfach unnötig viel Speicher.

Bei der RTX 3080 kann man sich über die 10 GB auch streiten.

Das hat alles irgendwie so ein "Geschmäckle".

Mortalvision
2022-01-16, 10:08:03
Was erwartet ihr? Das ist doch das übliche BS bingo von nvidia mit dem Speicher außer beim Highend Vollausbau. Im Vergleich dazu wird man bei AMD seit Jahren mit Speicher zugeworfen, z.B. die 380X mit 8GB Vega VII mit 16 GB hbm2 und 1 TB/s Durchsatz. Einzig die Fury war dank 4 GB HBM ne Bruchlandung

Tigerfox
2022-01-16, 13:17:38
Nicht wirklich. Eine RTX 3070 war mit 8GB schon von vornherein zu mager bestückt.

Eine RTX 3060 hat mit 12GB hingegen einfach unnötig viel Speicher.

Bei der RTX 3080 kann man sich über die 10 GB auch streiten.

Das hat alles irgendwie so ein "Geschmäckle".

Da hat mal wieder jemand keine Ahnung. Das Leben ist kein Wunschkonzert. Die möglichen Speichermengen hängen direkt vom Speicherinterface ab. Da kann auch Nvidia nicht viel machen.
Seit Lämgerem haben Grafikchips eine gewissen Anzahl 32Bit-Speichercontroller, die eben durch Zusammenarbeit und Parallelisierung ein 64/128/192/256/320/384Bit-Speicherinterface ergeben. Als Ampere erschienen ist, gab es wohl sowohl GDDR6, als auch GDDR6X nur in 1GB-Chipgrößen. Man kann entweder einen oder zwei Chips an jeden Controller hängen.
Es waren also bisher nur 2 oder 4GB an 64Bit, 4 oder 8GB an 128Bit, 6 oder 12GB an 192Bit, 8 oder 16GB an 256Bit, 10 oder 20GB an 320Bit und 12 oder 24GB an 384Bit möglich.

Speicher ist in diesen Zeiten nicht billig, zwei Chips erhöhen auch die Komplexität und damit die Kosten des PCB und, gerade im Fall von GDDR6X, erzeugen sie ordentlich Abwärme, die dann auch auf der Rückseite und oft ungekühlt Platz finden müssen.
Eine echte Lösung sind 2GB-Chips, die es für GDDR6 inzwischen gibt und bei AMD sowie bei RTX 2060 12GB und RTX 3060 auch verwendet werden. Diese kosten zwar immer noch mehr als 1GB-Chips, aber weniger als zwei davon und verursachen nicht wesentlich mehr Abwärme bzw. sind auch komplett auf der Vorderseite montierbar. Für GDDR6X kommen diese aber wohl erst jetzt.

Ja, man konnte schon bei der RTX 2060 und teils schon vorher bei der GTX 1060 nachweisen, dass 6GB schnell zu wenig sind, genauso wie man Ende 2020 schon zeigen konnte, dass auch 8GB und 10GB zu wenig sind (in UHD oder gar 5K mit HDR und AA/AF auf Anschlag, also wenn den meisten Karten ohnehin die Puste ausgeht) und dass ließ vermuten, dass der Speicher in absehbarer Zeit für mehr Spiele zu wenig sein könnte.

Aber was wäre die Alternative gewesen? Ist eine 3060Ti/3070 mit 16GB wirklich preislich noch gegenüber einer 3070Ti und 3080 attraktiv? Ist eine 3080/Ti mit 20/24GB wirklich noch deutlich günstiger als eine 3090 anzubieten?

Du schreibst, 12GB für die 3060 und die neue 2060 waren zuviel, aber die Alternative wären 6GB gewesen, eindeutig zu wenig. Statt der neuen 2060 12GB hätte ich auch einfach eine Neuauflage der alten 2060S oder 2070 mit 8GB sinnvoll gefunden, aber NV wird seine Gründe haben, entweder, weil günstige 12GB für die Speicherfetischisten nach mehr Zukunftssicherheit klingen, oder, weil man so noch alle TU106 verwenden kann, egal ob ein paar SM oder ein paar Speichercontroller defekt sind.
Die 3080 12GB und 3080Ti zeigen auch, dass das Problem mit GDDR6X bei wachsender Speichermenge schlimmer wird, weil man nicht 6 oder 8, sondern gleich 10 bis 12 zusätzliche Speicherchips draufknallen müsste, dann auch mit richtig viel zusätzlicher Abwärme.

Ein früherer Lösungsansatz für krumme Speichermengen hat sich, gottseidank, nicht durchgesetzt, weil er eine Mogelpackung war. Bei einigen Geforce GTX 400/500/600 mit 192Bit (z.B. GTX 460 SE, 550Ti, 660(Ti)) hat man einfach an einen der damals noch 64Bit breiten Speichercontroller einen doppelt so großen Baustein gesteckt, um bei drei Controllern trotzdem auf 1GB bzw. 2GB zu kommen (2x256MB+1x512MB bzw. 2x512MB+1x1GB). Dumm nur, dass dann nur 768MB bzw. 1.5GB mit der vollen Bandbreite angesprochen wurden und die restlichen 256 bzw. 512MB nur mit 64Bit.
Spätestens bei der GTX 970, wo es aufgrund des Designs gar nicht anders ging, dass durch Abschalten einer gewissen Anzahl SM auch ein Speichercontroller nicht mehr versorgt wurde, so dass die Karte 3,5GB an 224Bit und 512MB an 32Bit hatte statt 4GB an 256Bit, hat soviel Aufmerksamkeit auf sich gezogen, dass Nvidia derartige Konfigurationen seitdem vermieden hat. Damals hat das garnicht unangemessen viel Performance gekostet, heute schneidet die GTX 970 AFAIK tatsächlich überproportional schlecht gegenüber der 980 ab.

Ein anderer Ansatz, krumme Speicherbausteine mit 1,5GB, haben wohl nie den Markt erreicht. Keine Ahnung, ob daran noch gearbeitet wird, 1,5GB dürften inzwischen keinen mehr interessieren, 3GB wären der nächste interessante Zwischenschritt, so dass man statt 8/12/16/20/24GB 12/18/24/30/36GB erreichen kann.

Leonidas
2022-01-17, 04:29:12
Danke @ Tigerfox für die ausführliche Erläuterung.

3-GByte-Speicherchips sind Spezifikations-gerecht, sind aber nie praktisch gebaut wurden als GDDR. Als normaler DDR geht so etwas aber derzeit in Fertigung - allerdings nur für den Server-Bereich mit (wahrscheinlich) dementsprechenden Preisen.

Gast
2022-01-17, 11:06:07
Ein anderer Ansatz, krumme Speicherbausteine mit 1,5GB, haben wohl nie den Markt erreicht. Keine Ahnung, ob daran noch gearbeitet wird, 1,5GB dürften inzwischen keinen mehr interessieren, 3GB wären der nächste interessante Zwischenschritt, so dass man statt 8/12/16/20/24GB 12/18/24/30/36GB erreichen kann.

Die sind Gang und Gäbe, nur nicht bei GDDR. Im LPDDR-Bereich gab und gibt es alle möglichen Zwischengrößen.

Gast
2022-01-17, 11:31:18
Ein früherer Lösungsansatz für krumme Speichermengen hat sich, gottseidank, nicht durchgesetzt, weil er eine Mogelpackung war. Bei einigen Geforce GTX 400/500/600 mit 192Bit (z.B. GTX 460 SE, 550Ti, 660(Ti)) hat man einfach an einen der damals noch 64Bit breiten Speichercontroller einen doppelt so großen Baustein gesteckt, um bei drei Controllern trotzdem auf 1GB bzw. 2GB zu kommen (2x256MB+1x512MB bzw. 2x512MB+1x1GB). Dumm nur, dass dann nur 768MB bzw. 1.5GB mit der vollen Bandbreite angesprochen wurden und die restlichen 256 bzw. 512MB nur mit 64Bit.


Wenn man das schon so aufdröselt sollte man es auch fertig machen.

Es sind nicht 1,5GB@192bit + 512MB@64bit sondern 2x128MB@64bit + 2x128MB@64bit + 2x256MB@64bit.


Spätestens bei der GTX 970, wo es aufgrund des Designs gar nicht anders ging, dass durch Abschalten einer gewissen Anzahl SM auch ein Speichercontroller nicht mehr versorgt wurde, so dass die Karte 3,5GB an 224Bit und 512MB an 32Bit hatte statt 4GB an 256Bit, hat soviel Aufmerksamkeit auf sich gezogen, dass Nvidia derartige Konfigurationen seitdem vermieden hat.


Das Speicherinterface der GTX970 ist ein ganz normales mit 8x512MB@32bit.
Das "Problem" der Karte ist nicht das Speicherinterface, das ist vollständig da und funktionsfähig. An jedem Speichercontroller hängen allerdings beim GM104 2 ROP und L2 Partitionen. Von diesen hatte man (im ganzen Chip) eine deaktiviert, weshalb einer der 32bit Speichercontroller plötzlich nur mehr den halben L2 zur Verfügung hat. Damit entsteht unter hoher Last im übrig gebliebenen L2 ein "Stau".

Das Ergebnis ist zwar ähnlich zum Fall mit unterschiedlichen Bestückungen pro Kanal, aber technisch ein ganz anderer und in der Theorie auch performanter.
Das interessante an dem Ganzen ist, dass Nvidia die Hardware extra dafür designt hat, es gibt nämlich beim GM104 einen Link zwischen den beiden L2 Partitionen der es ermöglicht 2 32bit Speichercontroller an eine einzelne L2 Partition anzuschließen. Ohne dies wäre ein derartiges Konstrukt technisch gar nicht möglich gewesen.

Wobei das große Problem an der 970 gar nicht die Tatsache wie sie aufgebaut ist war, sondern dass man das am Anfang verschwiegen, bzw. nicht nur verschwiegen sondern sogar falsche Informationen über die L2/ROP-Konfiguration ausgegeben hat.

Sweepi
2022-01-17, 14:40:12
Spätestens bei der GTX 970, wo es aufgrund des Designs gar nicht anders ging, dass durch Abschalten einer gewissen Anzahl SM auch ein Speichercontroller nicht mehr versorgt wurde, so dass die Karte 3,5GB an 224Bit und 512MB an 32Bit hatte statt 4GB an 256Bit[...]

In meiner Erinnerung war das kein technischer Zwang, die GTX 970 im Notebook hatte nämlich auch einen SM weniger als die 980, aber trotzdem das volle 256 Bit Speicherinterface. Kann mich aber auch irren.

Gast
2022-01-17, 17:54:41
In meiner Erinnerung war das kein technischer Zwang, die GTX 970 im Notebook hatte nämlich auch einen SM weniger als die 980, aber trotzdem das volle 256 Bit Speicherinterface. Kann mich aber auch irren.

Es hat auch nichts mit den SMs zu tun, sondern mit den ROPs, die waren bei Maxwell noch nicht in den SMs.

Das volle Speicherinterface haben beide, aber die Desktop-Variante hat weniger aktive ROPs