PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41

robbitop
2023-09-10, 18:22:31
Der kostet auch mal eben 670€, nur schlappe 74% teurer als ein 13700K. :freak:

Jo aber wenn man sich das feinste vom feinsten hinstellen will? Siehe 4090? Ging ja darum, dass AMD die schnellste CPU für Gaming (klar Ausnahmen gibts immer) stellt. Aber P/L ist sicherlich der 13600K interessanter.

Slipknot79
2023-09-11, 01:24:11
Warum auch immer - er hätte die Kaufentscheidung auch ohne mich getroffen. Gebrauchte telativ neue HW gibt es immer. Schau dir Kleinanzeigen an.


Ged darum, dass du Abzocke nicht supporten willst. Nur, dass dein Move das Teil bei gebraucht zu kaufen nix bringt. Dann wird eben der Verkäufer deiner gebrauchten 2x abgezockt. NV wird es egal sein, ob es eine Person 2x abzockt oder 2 Personen jeweils 1x. (y)

robbitop
2023-09-11, 08:17:37
Ged darum, dass du Abzocke nicht supporten willst. Nur, dass dein Move das Teil bei gebraucht zu kaufen nix bringt. Dann wird eben der Verkäufer deiner gebrauchten 2x abgezockt. NV wird es egal sein, ob es eine Person 2x abzockt oder 2 Personen jeweils 1x. (y)
Nope. Denn er/sie hätte die Entscheidung auch ohne mich getroffen. Ergo habe ich keinen Einfluss. Und ggf ist eine 4080 oder 4090 gebraucht in 2025 ja auch die atteaktivere Entscheidung - wie es aus P/L Sicht die gebrauchte 3080 Ende 2022 war. Der jeweilige Käufer hat eh vor Nextgen zu kaufen. Entsprechend nehme ich das alte Modell nur ab was eh weg gemusst hätte.

dargo
2023-09-11, 08:22:48
Leider mittlerweile eine veraltete bzw. falsche Denkweise. Bei Spielen muss man neuerdings immer öfters Shader Kompilieren, sei es vor dem Spielstart (Hallo Uncharted und Last of Us) oder während des Spielens Fortnite (aktuellste UE5 Version) Und der Spaß beginnt immer wieder von vorne, wenn man den GPU Treiber wechselt.

Nvidia rls alle 2 Wochen einen HotFix oder neuen Treiber, heißt also, alle 2 Wochen muss ich bei Last of Us z.B. mit einem 5700X 20-25 Minuten vor dem Bildschirm hocken, bis ich wieder spielen kann.
Selbst schuld wenn du mit deiner freien Zeit nichts anfangen kannst. First World Problems. Ich habe hier genau so viele Gegenbeispiele wo ich nur wenige Sekunden warten muss.... Hogwarts Legacy zum Bleistift aktuell. Vor Hogwarts Legacy musste ich bei Ratchet & Clank: Rift Apart auch kaum warten.


Vielen Cores/Threads helfen einfach extrem mittlerweile. :wink:
Ist nichts weiter als ein Gerücht.

Slipknot79
2023-09-11, 10:44:56
Nope. Denn er/sie hätte die Entscheidung auch ohne mich getroffen. Ergo habe ich keinen Einfluss. Und ggf ist eine 4080 oder 4090 gebraucht in 2025 ja auch die atteaktivere Entscheidung - wie es aus P/L Sicht die gebrauchte 3080 Ende 2022 war. Der jeweilige Käufer hat eh vor Nextgen zu kaufen. Entsprechend nehme ich das alte Modell nur ab was eh weg gemusst hätte.

Der Erstkauf der 3080 war der Erst-Abzock. Der Zweit-Abzock ist dann eben der Kauf des Käufers einer Nachfolgekarte, z.B. eine Abzock-4070.
Die Umwelt wird auch nicht dadurch geschont, dass man gebrauchte Autos kauft, sondern dadurch, dass man verzichtet.

BlacKi
2023-09-11, 11:11:48
Der Erstkauf der 3080 war der Erst-Abzock. Der Zweit-Abzock ist dann eben der Kauf des Käufers einer Nachfolgekarte, z.B. eine Abzock-4070.
Die Umwelt wird auch nicht dadurch geschont, dass man gebrauchte Autos kauft, sondern dadurch, dass man verzichtet.indirekt schon

robbitop
2023-09-11, 11:30:21
Der Erstkauf der 3080 war der Erst-Abzock. Der Zweit-Abzock ist dann eben der Kauf des Käufers einer Nachfolgekarte, z.B. eine Abzock-4070.
Die Umwelt wird auch nicht dadurch geschont, dass man gebrauchte Autos kauft, sondern dadurch, dass man verzichtet.
Nochmal: der zweite Kauf wäre auch ohne mich passiert. Ich hab da keinen Einfluss. Es sei denn man kommt mit Sinnlosargumenten: "wenn alles es so machen würden". Ist aber nicht so. Eine gebrauchte GPU wird eh gekauft auch ohne mich. Also habe ich keinen echten direkten Einfluss.
Das ist für mich "good enough". Denn verzichten geht nicht - ich bin und bleibe Gamer. Also ist das "the next best thing".

Für mich ist hier EoD.

Timbaloo
2023-09-11, 13:13:18
"Propellerjunge"
Alter hab ich lange gebraucht... ;D

robbitop
2023-09-11, 13:28:01
Hat Raff sich ausgedacht ^^ Auf manche passt es einfach.

Altehardware
2023-09-11, 16:40:22
Keine ada chips mehr bis 2025
Dann müsste nvidia aber ordentlich an der Preischraube drehen nach unten. Daran glaube ich nicht
Den wenn die rx7700xt in sagen wir mal 6 Wochen auf 440€ fällt was sehr stark anzunehmen ist wird man die rtx4060ti 16gb auf 399€ setzen müssen
Und da nvidia die bom teuer verkauft muss nvidia die kosten für den chip vram bundle senken.

Das wird nvidia nicht tun eher wird man nen refresh der rtx4060 super 42sm bringen gleichfalls mit rtx4070 super mehr alu aktiv etwa 54sm

Diese sku waren schonmal in Gerüchten drin wurden aber verworfen weil diese nicht aktuell sind.
Der rtx4060ti 16gb fehlt es an Bandbreite ein Modell mit gddr6x würde das lösen ohne am design was zu tun.
Die rtx4070 könnte so bleiben aber man müsste die uvp auf 499$ senken.

Die Optionen sind da und da nvidia sehr zickig auf Preissenkungen reagiert ist ein super refresh von 2 sku denkbar.
Aktuell reicht sogar nur einen aus. Das ginge sogar mit verändertem vram Bestückung was keine neuen release entspräche und still abgehen kann.

Das entspricht aber nicht nvidia character.

Und wer denkt das nvidia voll auf ai abfährt sei gesagt das isn trend der alsbald aufhören wird.
Vom dem was ich über ai weiß ist alles an den Modellen gpl und die firmen brauchen nur Datenbanken und daran wird es scheitern. Abseits Forschung und Unterhaltung lässt sich da kaum bis nix verwerten ai ist nett aber derzeit weil es eben keine genauen Ergebnisse erzeugt unbrauchbar und geld lässt sich da auch nur bedingt machen.
Wenn es Erfolg hat wäre Medien manipulation Bildverbessserung und kreative ersetzen Schauspieler und Musiker. Also das worauf die ai hin trainiert wird.

Nützliche dinge wird es schwieriger. Bis man an grenzen stößt die der Korrektheit der Ergebnisse nicht brauchbar sind.
Im Gegensatz zu algos können ai Fehler machen und das ist gewollt. Die frage die man stellt wird beantwortet aber es hängt primär von der Datenbank ab ob diese brauchbar sind und das muss ein mensch immer prüfen. nix mit Arbeitsplatzersetzung.
Ai wird die Zukunft eher ergänzend sein als Hilfe beim Arbeitsplatz aber der Arbeiter muss das nachvollziehen müssen können.
Soweit zu nvidia verabschiede sich von gamer gpu Markt
Das wird nicht passieren aktuell macht man viel geld damit weil große firmen investieren aber das ist einmalig bis man eigene chips entwickelt.
Weil ein verdienst hat man damit aktuell nicht es ist Spielerei und hilfreich für Medienmanipulation oder datendurchsuchen vom internet. Also das wofür nur Regierungen bezahlen würden.

Eine Firma plant man nicht nur bis zum nächsten tag sondern in Jahren voraus. Das gilt besonders für tech unternehmen stehste still gehste Pleite

robbitop
2023-09-11, 16:50:09
Wer glaubt, dass AI nur ein Trend ist, der lebt auf dem Mond. AI wird eher immer weiter wachsen. Es ist abzusehen, dass das das ganze Jahrhundert prägen wird. Wir haben gerade einmal die Spitze des Eisbergs gesehen, was mit AI möglich ist. Das geht nie wieder weg.

dargo
2023-09-11, 17:04:18
Naja... erstmal abwarten wie die Gesetzgebung in Europa zukünftig bei AI ausfällt. Ich sehe da auch viele Gefahren wenn man nicht aufpasst. Irgendwie erinnert mich die ganze Entwicklung bei AI an den Merkelspruch "Internet ist für uns Neuland". :D

Fragman
2023-09-11, 17:28:30
Das Thema AI und Gesetzgebung ist tot, bevor es in Angriff genommen wurde, oder sein wird.
Das hätte man wahrscheinlich vor 10 Jahren oder so anpacken müssen, wenn nicht schon in den 80zigern.

Ich will aber auch erstmal gern mehr davon profitieren, bevor wir darüber reden, was vielleicht möglich ist wenn man Unfug damit treibt. :D

robbitop
2023-09-11, 21:03:23
Jap heute wird man abgehängt wenn man glaubt AI aufhalten zu können.
Und Europa ist schon lange nicht mehr der Nabel der Welt.

dargo
2023-09-11, 21:17:31
Und Europa ist schon lange nicht mehr der Nabel der Welt.
Lol... ich wohne aber da. ;) Was interessieren mich da andere Kontinente insbesondere dann bei der Gesetzgebung bezüglich AI?

robbitop
2023-09-11, 21:20:23
Es ging doch um den AI Markt. Und die Auswirkungen auf GPUs bzw Chipkontingente und das funktioniert wor fast alles global.
Aber wie gesagt: da kommt keiner dran vorbei.

Platos
2023-09-11, 22:29:41
Das Thema AI und Gesetzgebung ist tot, bevor es in Angriff genommen wurde, oder sein wird.
Das hätte man wahrscheinlich vor 10 Jahren oder so anpacken müssen, wenn nicht schon in den 80zigern.

Ich will aber auch erstmal gern mehr davon profitieren, bevor wir darüber reden, was vielleicht möglich ist wenn man Unfug damit treibt. :D

Es ist nie zu spät Gesetze für AI zu machen, ausser natürlich die Welt geht achon unter.

Wobei natürlich der Fehler immer sein wird, dass man denkt, es ist ja noch Zeit und wir sind ja noch lange nicht so weit, während dem schon irgendwo ein Chinese freudig daran rumbastelt.

Sardaukar.nsn
2023-09-11, 23:03:49
Aktuell wurde Teslas "Dojo" enorm hoch bewertet, das Thema wird uns sicher noch begleiten https://www.manager-magazin.de/unternehmen/autoindustrie/tesla-aktie-mit-kursrallye-morgan-stanley-bejubelt-ki-rechner-dojo-und-setzt-400-dollar-kursziel-a-38feb6c8-bc36-4838-9e8a-9ca5edcfbfe6

Virtual
2023-09-11, 23:22:17
Aktuell wurde Teslas "Dojo" enorm hoch bewertet, das Thema wird uns sicher noch begleiten https://www.manager-magazin.de/unternehmen/autoindustrie/tesla-aktie-mit-kursrallye-morgan-stanley-bejubelt-ki-rechner-dojo-und-setzt-400-dollar-kursziel-a-38feb6c8-bc36-4838-9e8a-9ca5edcfbfe6
"Enorm hoch bewertet" - Waaaas!? Eine Studie ist keine wissenschaftliche Veröffentlichung. Hier gibt es keine Peer Reviews, hier bekommt der Auftraggeber (welcher zahlt!) das gewünschte Ergebnis.
Der Dummschwätzer Analyst Adam Jonas von Morgan Stanley will Tesla-Kurs pushen und dabei noch ein depperte Privatanleger übervorteilen, um selbst ordentlich abkassieren zu können.
Hier geht es nicht um AI, sondern um Kasse machen. Dieser Primi-Artikel ist in einem Technik-Forum für den Ar***.

Rampage 2
2023-09-11, 23:34:49
das wäre wie einen krüppel zu kaufen, siehe 3090ti.

Bitte was!? Die 3090 Ti ist zweifellos die *beste GPU* der Ampere-Generation, wenn man von dem irrsinnigen Preis bzw. P/L-Verhältnis mal absieht: 24GB VRAM, voller GA102-Chip, schnellerer GDDR6X-Speicher und vor allem eine verbesserte Spannungsregulierung (Notabschaltungen bei HighEnd-Netzteilen sind damit passé). Wenn du mir nicht glaubst bzgl. Letzterem, dann schau dir buildzoid's 3090Ti-Review auf YT an;)

https://www.windowscentral.com/hardware/nvidia/nvidia-reportedly-cancels-rtx-4090-ti
https://www.gamestar.de/artikel/geruecht-rtx-4090-ti,3398231.html
https://www.pcwelt.de/article/2010305/geforce-rtx-4090-ti-soll-gestrichen-worden-sein.html
https://winfuture.de/news,137623.html

Nvidia will ernsthaft 15-25% Mehrleistung einfach so brachliegen lassen? :eek:

R2

Exxtreme
2023-09-11, 23:40:15
Nvidia will ernsthaft 15-25% Mehrleistung einfach so brachliegen lassen? :eek:

R2

Wird eher auf <10% hinauslaufen. So krass beschnitten ist der jetzige AD102 jetzt nicht.

Rampage 2
2023-09-12, 00:07:51
Wird eher auf <10% hinauslaufen. So krass beschnitten ist der jetzige AD102 jetzt nicht.

AD102 Full vs. RTX 4090:

- 12,5% mehr Recheneinheiten

- 12 vs. 11 GPCs (sollte bedeutsamer skalieren als bloße Erhöhung von Recheneinheiten; siehe RTX 2070 Super)

- Vermutlich höheres PT und dadurch durchgängig 3GHz Chiptakt:naughty: -> ca. 10% höherer durchschnittlicher Chiptakt.

- 33% mehr L2-Cache

- Vermutlich 24Gbps GDDR6X oder gar 28Gbps GDDR7 -> also mindestens 14,3% mehr Bandbreite. Durch den 33% größeren Cache eher 25-35% mehr effektive BB.

Also IMHO sind 15-25% Performance-Lift vs. RTX 4090 definitiv im realistischem Bereich:)

R2

Slipknot79
2023-09-12, 01:11:22
Nochmal: der zweite Kauf wäre auch ohne mich passiert. Ich hab da keinen Einfluss. Es sei denn man kommt mit Sinnlosargumenten: "wenn alles es so machen würden". Ist aber nicht so. Eine gebrauchte GPU wird eh gekauft auch ohne mich. Also habe ich keinen echten direkten Einfluss.
Das ist für mich "good enough". Denn verzichten geht nicht - ich bin und bleibe Gamer. Also ist das "the next best thing".

Für mich ist hier EoD.

Eben, dann grapscht eben ein anderer zu, wenn du es nicht machst und es bleibt eben beim "System" Abzocke. Hier ist also gar nix "next best", du bekommst bestenfalls eine gebraucht-GPU billiger als Neukauf und damit endet es auch, das ist das einzige "next best". Darüber hinaus gibts aber sonst kein "next best" und auch kein "supporte die Abzocke nicht", die Schlussfolgerung stellt sich gar nicht, sie existiert gar nicht.

Tesseract
2023-09-12, 01:14:30
die 4090 hat im schnitt sogar minimal weniger shader pro GCP als ein vollausbau und größere chips bekommt man schlechter saturated als kleinere; den größeren cache und schnelleren GDDR6x bräuchte man um die größere shaderzahl füttern zu können damit von der höheren shaderleistung auch was ankommt; GDDR7 kann der controller wahrscheinlich sowieso nicht.

nie im leben holt ein voller 102 taktbereinigt mehr als +10% raus. mit binning und takt in summe vielleicht teuer erkaufte +15%. das ist einfach zu wenig solange man sowieso die schnellste karte hat und keine consumerversion mit 48GB auflegen will.

Leonidas
2023-09-18, 08:58:56
Nvidia will ernsthaft 15-25% Mehrleistung einfach so brachliegen lassen? :eek:

Macht aus mittelfristiger Perspektive Sinn.

Denn: Alles was man derzeit nicht an möglicher Performance bringt, erhöht die plakative Mehrperformance der Nachfolgegeneration.

=Floi=
2023-09-18, 09:17:09
Ist am ende völlig belaanglos. Die nachfolgegen. war immer überlegen.
Es dauerte oft, aber dann kam die neue gen. besser zur geltung.


Die zeiten sind einfach vorbei, wo man volle chips kaufen konnte. Es lohnt sich für NV nicht. Die verkaufens eventuell unter der hand oder über ein teures sondermodell für geschäftskunden.

Thunder99
2023-09-18, 09:47:10
AD102 ist zu stark daher nicht nötig im Consumer Bereich, auch dank AMD. Profi sieht die Sache anders aus und da wird ja nicht immer die Höhe Bandbreite gebraucht.

Wir sehen höchstens ein Refresh von Karten wenn AMD ernsthaft ein Refresh macht. Derzeit ja sehr spekulativ.

Exxtreme
2023-09-18, 09:52:10
Also IMHO sind 15-25% Performance-Lift vs. RTX 4090 definitiv im realistischem Bereich:)

R2

Nein. Das Problem ist, dass schon der teildeaktivierte AD102 an der RAM-Bandbreite verhungert. Das Erhöhen des Chiptaktes hat praktisch keine Auswirkungen, das Übertakten des RAMs aber schon. AD102 braucht eigentlich GDDR7 oder eine 512-Bit breite Speicheranbindung damit er richtig Stoff gibt.

Fragman
2023-09-18, 09:59:51
Für die breite Masse an Kunden macht die mögliche Mehrperformance auch keinen Unterschied, da die sowieso nur an der Spitze der Produktlinie zu bekommen wäre.

Würde man die gesamte Produktlinie entsprechend neu einordnen wären bei dieser Gen auch die Preise um genau diesen Wert erhöht.
Was dann auch bei AMD zu entsprechend höheren Marktpreisen führen könnte.

The_Invisible
2023-09-18, 13:29:38
Nein. Das Problem ist, dass schon der teildeaktivierte AD102 an der RAM-Bandbreite verhungert. Das Erhöhen des Chiptaktes hat praktisch keine Auswirkungen, das Übertakten des RAMs aber schon. AD102 braucht eigentlich GDDR7 oder eine 512-Bit breite Speicheranbindung damit er richtig Stoff gibt.

Verstehe auch nicht warum man nicht wenigstens den schnelleren Speicher der 4080 verbaut hat, vielleicht zu viel 21Gbit auf Halde. Aber gut, +1000Mhz Speicher sind eigentlich immer möglich.

HOT
2023-09-18, 13:45:05
Das Ding wird mMn sowieso 750mm² groß, da kann man ja auch 512Bit gut verbauen. Das Package wäre dann auch groß genug für 16 6x-Module.

PHuV
2023-09-19, 16:39:55
Ups, falscher Thread.

Fragman
2023-09-19, 16:46:34
Sprich, sparen für 2025 ist schon angesagt?

Oder man richtet einen Birthday Fundraiser in den sozialen Medien ein.

horn 12
2023-10-07, 09:15:07
Abseits der Gerüchte das Keine TI von Nvidia geplant waren
kommt nun Anfang 2024 zum Preis der 4080 eine NEUE 4080TI

https://videocardz.com/newz/nvidia-reportedly-working-on-geforce-rtx-4080-ti-with-ad102-gpu-for-early-2024-release#disqus_thread

Lowkey
2023-10-07, 09:52:29
Tja wohin mit den halbdefekten GPUs?

HOT
2023-10-07, 09:53:39
Oh hervrorragend. Interessantes Produkt und ne Preissenkung kommt dann ja endlich auch. Damit dürfte die 4080 auf $900 fallen und die 4070Ti auf $700. Die nimmt dann ja den Spot der 4080 ein.

00-Schneider
2023-10-07, 09:54:17
Wird die normale 4080 dann eingestampft, oder gibts nen Preisrutsch um 100-200$ nach unten?

HOT
2023-10-07, 10:07:23
Würd ich sagen, die ist eh zu teuer und verkauft sich ja auch schlecht.

AffenJack
2023-10-07, 10:28:42
Oh hervrorragend. Interessantes Produkt und ne Preissenkung kommt dann ja endlich auch. Damit dürfte die 4080 auf $900 fallen und die 4070Ti auf $700. Die nimmt dann ja den Spot der 4080 ein.

Du bist zu optimistisch. Die 4080 wird auf 999$ gehen und nicht tiefer. Bis 1199$ ist noch genug Platz zur 4080Ti und ich gehe von aus, dass die 4080Ti sowieso nicht soviel besser werden wird. Da ist einfach nur Restverwertung von AD102.

Dann kann man sich noch freuen, wenn die 4070Ti auf 750$ fällt.

DrFreaK666
2023-10-07, 11:08:52
Abseits der Gerüchte das Keine TI von Nvidia geplant waren...

Please note that this post is tagged as a rumor.

;)

Edgecrusher86
2023-10-07, 11:52:17
Das war zu erwarten - zu groß ist die Lücke zwischen RTX 4090 und RTX 4080. Außerdem hat man noch keine 20GB im Portfolio. Ich sage, es wird wie die RTX 5000 Ada, nur mit 320-bit SI und somit 20 statt 32GB sein. Also 100 SMs -> 12800 CUDA Cores.
Die TGP schätze ich auf 370-400W ein. Das Modell sollte sich wohl in etwa 15-20% unterhalb der RTX 4090 einordnen - ich tippe mal auf ca. 64 TF/s FP32 (=> Boost @ 2,5 GHz); die RTX 4080 kommt hier auf 48,6 TF/s FP32, das wäre also 1/3 darunter.
Die RTX 4090 wird mit 81,9 TF/s FP32 angegeben, was dann ~ 28% höher wäre als die kommende Ti / S. Beim VRAM dürfte es wohl 21 Gbps werden (840 GB/s).

Ja, ich gehe auch davon aus, dass die RTX 4080 dann auf 999 USD/€ MSRP gesenkt wird - weniger bestimmt nicht.

E: Habe mal ein angepasstes Blockdiagramm eingefügt. ;)

maximus_hertus
2023-10-07, 12:12:56
Preissenkung um mindestens 200 USD? Möglich, aber imo wahrscheinlicher ist eine Art "Rebranding":

4090 - bleibt wie gehabt - 1699 USD
4080"S" - AD102 - 1199-1299 USD
4070"S" - leicht abgespeckte 4080 - 999 USD
Der Rest bleibt wie gehabt.

Die normale 4080 ist dann EOL.

Eine 5080 wird man sicher gerne mit den 1199 USD der 4080 vergleichen und nicht mit einer 999 USD 4080.

Und man hebt die 70er auf 999 USD. Das macht es einfacher das eine 5070 Serie besser aussieht.

Edgecrusher86
2023-10-07, 12:48:12
Hm, ich glaube weniger an eine weitere 70er oberhalb der 70 Ti. Es mag natürlich sein, dass man in Zukunft die RTX 5070 Ti zu 999 USD bepreisen wird - aber eine "4080 LE" als dritte 4070er sehe ich 2024 nicht.
Die 5070 Ti wird dann wohl eher mit der 4080 verglichen werden [die 5070 mit der 4070 Ti] - mit besseren P/L - ich gehe jetzt auch einmal von 16GB für die GB 70er Serie aus.

HOT
2023-10-07, 13:47:01
Du bist zu optimistisch. Die 4080 wird auf 999$ gehen und nicht tiefer. Bis 1199$ ist noch genug Platz zur 4080Ti und ich gehe von aus, dass die 4080Ti sowieso nicht soviel besser werden wird. Da ist einfach nur Restverwertung von AD102.

Dann kann man sich noch freuen, wenn die 4070Ti auf 750$ fällt.
Das passt nicht. Auf $900 wird die 4080 auf jeden Fall fallen mit dem Release der TI und die wird auf keinen Fall mehr kosten als die jetzige 4080. Die passen einfach die Preise auf ein normales Gefüge an.
Und ich denke auch eher, dass man auf 112SMs zurückgreifen wird.

- 112SMs
- 320-350W
- 20GB 19GT/s
- kleinerer L2$?

DrFreaK666
2023-10-07, 13:57:16
Nvidia passt die Preise auf ein normales Gefüge an :lol:

reaperrr
2023-10-07, 15:41:20
- 112SMs
Oder 110.

Sowohl 10 GPCs mit je 1 deaktiviertem SM, als auch 11 GPCs mit je 2 deaktivierten SM würde 110 ergeben.
Kann natürlich auch 112 sein, aber ich tippe auf mindestens 1 komplett deaktivierten GPC, und 11x11 oder 10x12 halte ich für unwahrscheinlich, da jeweils zu nah an der 4090 von der ALU-Zahl her.


- 320-350W
Halte 350W für wahrscheinlicher, mit 4080-TBP würde sie dann doch ein gutes Stück niedriger takten und dadurch in manchen Spielen nicht so viel schneller sein, aus Marketing-Sicht nicht ganz ideal.
Mit 350W könnte sie immer noch eine niedrigere TBP als die 79XTX für sich beanspruchen, bei klar besserer Performance.

Außerdem werden die meisten Hersteller eh nur leicht abgespeckte 4090-Boards verwenden, die wären mit 320W schon fast unterfordert ^^'

- 20GB 19GT/s
Sämtliche 4000er ab der 4070 haben G6X@21-22,4 Gbps, warum sollten sie hier plötzlich auf 19 Gbps runtergehen?

Macht nur Sinn, wenn sie auf billigeren G6 wechseln, aber dann braucht die eigene Boards und kann nicht einfach 4090-Boards mit ein paar Speicherchips weniger verwenden. IMO deshalb unwahrscheinlich, die wird mMn ganz normalen G6X@21Gbps haben, nur halt lediglich 20GB@320bit.


- kleinerer L2$?
L2 könnte u.U. auch 80MB groß sein, wegen der 320bit... aber andererseits ist mehr L2 als bei der 4090 allein schon aus Marketing-Sicht etwas fraglich.
60MB sind daher wahrscheinlicher, ja.
Und für Performance ca. mittig zwischen 4080 und 4090 reichen 60MB wegen dem breiteren SI auch.

y33H@
2023-10-07, 16:44:01
Kein voller GA103, hmpf.

Altehardware
2023-10-08, 06:08:41
viel wichtiger ist das Gerücht einer kompletten refresh der Serie
rtx4060 ti 12gb ad104 38sm +-450$ (Meine sku wenn die so kommt)
rtx4070 ad104 52sm +- 650$
rtx4070 ti 16gb ad103 68sm +-850$
rtx4080ti 20gb ad102 100sm +-1200$
rtx4090ti ad102 142sm +- 1800$

Ich ahne aber das man auch den ad106 mit 30sm als rtx4060 16gb bringt
Namen können sich ändern ich geh von ner super Serie aus.
Das lässt vermuten das blackwell (rtx50) sich auf n2 node verschieben wird somit vor q2-q4 2026 nix wird

Nightspider
2023-10-08, 06:50:54
Das lässt vermuten das blackwell (rtx50) sich auf n2 node verschieben wird

nie und nimmer

N2 kommt später, wäre viel zu neu, zu teuer, zu unreif (yield rate!) und bestimmt nicht in dem Volumen verfügbar, welches NV Anfang 2025 für Blackwell gebrauchen würde

y33H@
2023-10-08, 10:33:44
142 SMs und vollen L2 für eine RTX 4090 Ti fände ich eine attraktive Karte.

Thunder99
2023-10-09, 12:56:08
Kein voller GA103, hmpf.

Wird wohl Laptop und Server vorenthalten bleiben.

aceCrasher
2023-10-09, 15:46:43
142 SMs und vollen L2 für eine RTX 4090 Ti fände ich eine attraktive Karte.
Kommt auf den Preis an.

HOT
2023-10-09, 16:25:55
MMn wurde hier auch wieder einiges durcheinandergeworfen.

Ich würde sagen, da GB2xx sicherlich noch bis übernächstes Jahr dauert, sollte er in N3x kommen wohl eher Richtung Q3 oder 4, dass es auch noch ein Super-Refresh geben wird, die 4080Ti zur CES und Super dann im Frühjahr oder so. MMn wird das Lineup wie folgt aussehen können:

(4090 Super, 136SMs oder so, volle 96MB L2$, 24GB 24GT/s, 450-500W)
4090 evtl. EOL
4080Ti, 110SMs, 20GB aus Kostengründen und aus Stromspargründen nur günstigerer 19GT/s GDDR6X, 350W
4080 Super, 84SMs, 256Bit 24GT/s GDDR6X, 320W
glücklose 4080 -> EOL
4070Ti 16GB Super -> wie 4070Ti oder besser nur auf AD103-Basis mit vollen 16GB
4070 Super -> ~50 SMs, 12GB schneller GDDR6X
glücklose 4070 EOL
4060 Super -> 36-42SMs, AD104, 12GB GDDR6
glücklose 4060Ti EOL
4060 bleibt

Man muss halt bedenken, dass NV alles dafür tun wird, die Preise irgendwie soweit wie möglich oben zu halten. Mit Refresh geht das ganz gut. AMD wird dann mit N48 ab der 4070Ti abwärts konkurrieren können.

Thunder99
2023-10-09, 18:26:17
Oder einfach Nichts machen und die Preise oben halten. Wieso ein Refresh und Kosten haben bei schwacher Konkurrenz?

HOT
2023-10-09, 18:57:05
Es ist ja nur schwache Konkurrenz über der 4070Ti. Ansonsten wird das nicht klappen ohne schnellere Karten. Und die 4090-Käufer sind eh abgefrühstückt, um noch jemanden in die Preisbereiche zu locken brauchst du auch hier neues.

Ne 4080 Super ist sicher über der 7900XTX und für $900 würde man eine Menge Käufer, die bisher gezögert haben, motivieren beispielsweise. Auch die 4070Ti, die viel viel zu teuer ist, wird auch etwas im Preis fallen, aber der Rest vom Fest ist nur schneller als Konkurrenz und hat gleiche Preispunkte wie bisher. Auch schönes Beispiel ist die 7800XT. Ne 4070 Super würde immer schneller sein als ne 7800XT, diese müsste im Preis auf <$500 runter, die 4070 Super aber könnte ihren $550 Preispunkt halten, was ne 4070 nicht packen wird, die muss runter im Preis mittelfristig.

horn 12
2023-10-09, 19:34:48
Die 7900 XTX ist gleichauf, teilweise etwas schneller und wenige Male fast gleich auf mit 4090
eine 4080 TI bringt vielleicht 8 bis 12% Mehrleistung, mehr ist aber auch da nicht drinnen.
Dann würde man zwar gleich mit XTX oder schneller sein,- aber AMD kann die Karte wohl bis 849 bis 899 Euro runtersetzen bei Wo möglichem Release.

The_Invisible
2023-10-09, 19:48:43
Die 7900 XTX ist gleichauf, teilweise etwas schneller und wenige Male fast gleich auf mit 4090

Dafür in RT erheblich langsamer und bei Nvidia gibts noch besseres DLSS/3.5. Nvidia weiß das auch, die sind ja nicht blöd.

Frage mich eher welche Käufer da für eine 4080 Ti übrigbleiben... Diejenigen die auf günstige Grakas warten mal nicht und diejenigen die über 1k kaufen haben eh schon zugeschlagen. Die Karte kommt dafür zu spät, würde ja nix sagen wenn es eine 4090Ti wäre.

HOT
2023-10-09, 22:08:27
Die, die keine 1,7k ausgeben wollen aber trotzdem hohe Leistung und genug Speicher wollen. Die Lücke zwischen der 4080, die viel zu teuer ist und sich deshalb nicht gut verkauft und der 4090 ist riesig. RT spielte in dieser Betrachtung keine Rolle. Eine 4080 Super wäre einer 7900XTX auch im Rendering überlegen mMn.

horn 12
2023-10-09, 22:32:48
Ja, aber so viel sind es ja auch nicht.
oftmals 15 bis 20% - In Ausnahefällen knappe 30%

eine 4080TI / Super kommt nicht auf <10% einer 4090 ran.
Schneller als eine 7900XTX wird sie aber sicherlich sein.

Raff
2023-10-09, 22:37:43
Mit AD103(-400) könnte man Navi 31 XTX beim Rasterizing nur knapp schlagen, mit einer Art AD102-250 hingegen locker. Ein 20-GiB-Modell zwischen 4080 und 4090 wäre schon klasse, aber Nvidia hat an sinnvollen Ergänzungen nur wenig Interesse - siehe RTX-30-Reihe.

MfG
Raff

basix
2023-10-09, 23:15:36
Naja, sinnvolle Ergänzung bei 1000+ Euro Karten ist irgendwie - irritierend ;)

Eine 4080 Ti und alle Karten darunter rutschen entsprechend um einen Preispunkt runter, OK, das wäre nice. Wenn es aber einfach eine neue Karte für dann 1500 Euro gibt, naja, nicht wirklich sinnvoll.

Thunder99
2023-10-10, 13:17:53
Mit AD103(-400) könnte man Navi 31 XTX beim Rasterizing nur knapp schlagen, mit einer Art AD102-250 hingegen locker. Ein 20-GiB-Modell zwischen 4080 und 4090 wäre schon klasse, aber Nvidia hat an sinnvollen Ergänzungen nur wenig Interesse - siehe RTX-30-Reihe.

MfG
Raff

Stimmt
Sie reagieren nur wenn sie müssen, aber dann mit entsprechenden Kosten wie am Beispiel 3080 10GB -> 12GB Version :freak:

Edgecrusher86
2023-10-18, 08:48:43
Alles Super - Reloaded? Am besten gefällt mir ja die mittlere...:D

https://abload.de/img/screenshot2023-10-180jvfi1.png

https://twitter.com/hongxing2020/status/1714448105553436876?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1714448 105553436876%7Ctwgr%5Ef21faab11d460f90d4a5e82ca05365eaa2f72354%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Fnvidia-geforce-rtx-40-super-gpus-4080-super-4070-ti-super-4070-super-launch-rumor%2F

Wäre ich ein Marketing-Mann, ich würde eher auf zum Beispiel RTX 4085 (oder RTX 4080 Ti), RTX 4075 Ti und RTX 4075 zurück greifen. Bevor es Ti Super wäre -> Ultra. :D

Fragman
2023-10-18, 10:09:42
Machen die Überhaupt noch Sinn wenn in einem Jahr schon die neue Gen da ist?
Oder doch nicht?
Da blickt keiner mehr durch bei nv...

Edgecrusher86
2023-10-18, 10:45:31
Sinn bedingt, aber eine gute Restverwertung sicher -möglichst Gewinn bringend im Frühjahr wohl. ^^

dildo4u
2023-10-18, 10:48:47
4070 Refreches werden keine 24GB bekommen daher mäh.

Leonidas
2023-10-18, 12:11:48
Machen die Überhaupt noch Sinn wenn in einem Jahr schon die neue Gen da ist?

Wer sagt denn das wieder? Gaming-Blackwell steht 2025 an. Hat nix mit HPC-Blackwell zu tun.

The_Invisible
2023-10-18, 12:43:39
4070 Refreches werden keine 24GB bekommen daher mäh.

Wenn man schon den AD102 für die 4080Ti hernimmt kann man eventuell auch den AD103 für 4070/Ti Refresh hernehmen, mit 16GB und Leistung zwischen 4070 und 4070Ti + vernünftigen Preis wär das schon lecker :D

Exxtreme
2023-10-18, 12:55:03
vernünftigen Preis

Copium Überdosis incoming! ;D

Mehr VRAM wird sich Nvidia fürstlich bezahlen lassen. Sieht man schon an der 4060 Ti 16 GB. Der zusätzliche VRAM kostet so um die 5 - 10 USD.

robbitop
2023-10-18, 14:57:25
Du meinst 4060ti?

Exxtreme
2023-10-18, 15:29:16
Ja, sorry. :)

Fragman
2023-10-18, 15:36:02
Wer sagt denn das wieder? Gaming-Blackwell steht 2025 an. Hat nix mit HPC-Blackwell zu tun.

Genau deshalb meine Verwirrung.
Ich war jetzt nicht mehr sicher, ob 2025 noch steht oder das geändert wurde.

nordic_pegasus
2023-10-18, 19:52:48
Wird wohl Laptop und Server vorenthalten bleiben.

es gibt aktuell kein Produkt, welches den vollen AD103 (84 SM) nutzt. Im Desktop-Gaming Segment gibt es nur die 4080 mit AD103, hier sind 76 SM aktiv. Im Laptop-Segment hat die "Mobile 4090" ebenfalls den AD103 mit 76 aktiven SM. Bei den Workstations gibt es gar kein Modell, welches AD103 nutzt. Hier ist zwischen der RTX 5000 (AD102 mit 100 SM) und RTX 4500 (AD104 mit 60 SM) wohl auch kein Platz mehr für eine AD103 Karte.

Bei AD102 nutzt ebenfalls keine Karte den Vollausbau mit 144 SM, ähnlich zu Volta (max. 80 von 84 SM aktiv) sind selbst bei den Workstations maximal 142 SMs aktiv. Das ist nachvollziehbar mit Blick auf die Nachfrage im AI-Bereich.

Aber was macht Nvidia mit den AD103 Chips ohne Defekte? Würde nicht eine auslaufende 4080 und gleichzeitig eine 4080 Super mit AD103 Vollausbau sinnvoll sein, damit der Preis gehalten werden kann?

Thunder99
2023-10-19, 08:39:21
Ggf ist ein Fehler vorhanden der das verhindert und es bräuchte ein Respinn?

DrFreaK666
2023-10-22, 12:57:20
4080 Super laut Gerüchten mit 20GB
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-rumored-to-feature-20gb-memory

wird bestimmt ein Schnäppchen ^^

rentex
2023-10-22, 13:09:34
4080 Super laut Gerüchten mit 20GB
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-rumored-to-feature-20gb-memory

wird bestimmt ein Schnäppchen ^^

Machen es 4GB besser? Wohl kaum.

Platos
2023-10-22, 13:11:34
Je nachdem kann das sehr wohl ein Unterschied machen. Kommt auf die verwendete Auflösung drauf an. Dazu gibts ja nun langsam genug PCGH Tests dazu.

DrFreaK666
2023-10-22, 13:41:36
In welchen Tests sieht man, dass 16GB nicht ausreichen?

Thunder99
2023-10-22, 14:34:46
Am Beispiel 10GB vs. 12GB hat man es gesehen. Am Beispiel 16GB vs. 24GB gibt es denke ich auch Beispiele mit Extrem Settings wo man es merkt. Also sind 20GB nicht unnütz wenn es die GPU selber schafft und nur am Speicher "verhungern" sollten (bei extrem Settings).

Dovregubben
2023-10-22, 14:43:24
Am Beispiel 10GB vs. 12GB hat man es gesehen. Am Beispiel 16GB vs. 24GB gibt es denke ich auch Beispiele mit Extrem Settings wo man es merkt. Also sind 20GB nicht unnütz wenn es die GPU selber schafft und nur am Speicher "verhungern" sollten (bei extrem Settings).
Es wird auch Fälle geben bei denen 10 Petabyte zu wenig ist. Was ist aber jetzt für Punkt für aktuelle Spiele am Markt?

Platos
2023-10-22, 14:50:40
Es kommt halt auf die Auflösung drauf an.

In 5k und mehr wirds sehr oft die 16GB sprengen. Hier mal nur zur Veranschaulichung: https://www.youtube.com/watch?v=l6FBlQ29UG0


Aber es ist ja jetzt schon stand heute in 4k in einigen Spielen (Hogwarts Legacy z.B) schon sehr, sehr nah an 16GB. Also um mal "realistisch" zu bleiben ("nur" 4k Auflsöung): Wer sich ne Grafikkarte für 4K anschafft, wird sich heute gut überlegen müssen, ob er 16GB oder mehr nimmt. Wenn stand jetzt schon Spiele oft 14-15.xGB Speicher brauchen, würde sich so ne 20GB Version natürlich 1A anbieten, wenn man nicht 2 Jahre später schon zur nächsten Grafikkarte umsteigt.

Edit: Mods sind da natürlich noch gar nicht eingerechnet. Wer gern auch mal ein Spiel modded, der profitiert dann sowieso schnell mal von 20GB unter 4k.

DrFreaK666
2023-10-22, 15:23:44
Es kommt halt auf die Auflösung drauf an.

In 5k und mehr wirds sehr oft die 16GB sprengen. Hier mal nur zur Veranschaulichung: https://www.youtube.com/watch?v=l6FBlQ29UG0...

Naja, in den Beispielen ist teilweise sogar die 4090 zu langsam für 8k. Sehe da nicht wo die 16GB limitieren, bevor der Chip limitiert

Exxtreme
2023-10-22, 15:38:42
Die RTX 4090 bekommt schon mit UHD massivste Probleme und man muss öfter auf Upscaling ausweichen. Zudem limitiert auch noch DP1.4 bei 8KUHD. Selbst mit DSC kommt man hier an die Grenzen.

Altehardware
2023-10-22, 15:47:12
bevor 20 gb vram zu pflicht wird gibt es die ps6 schon min 2 Jahre also frühestens 2030
Zur ps6 vermutliche konfig
8 kern Cpu mit 40cu 4,5ghz mcm.
Ergeben mit 32gb Systemram gddr7 32gbiit 40gbps
26,9tf (das entspricht der rtx3090)
24gb nutzbaren Spielespeicher mit 1280gb/s Bandbreite bei 64 rop =288gpixel und die kommt q1 2028

Woher ich das weiß nun ich kenne die feetigung fortschritte und Planungen sowie auch die releasezeiten von tsmc im groben.
Der n2 node ist früher bereit als gedacht q4 2025 ud das ergibt dann n2x für produkte ab 2027
n2 wird nur 15% takt geben aber n2x 25% Takt.

als gpu erwarte ichd as nvidai dann das blackwell desigfn umsetzen wird in n2 das wäre 2026
aktuell mit hoppr ansatz angelehntes design mit 128fp32 +64 int32 derzeit n5 1,8ghz mit n3 2,1ghz mit n2 etwa 2,5ghz
wenn amn das design zusätzlich die 15% dichte aufgibt nochmal 7,5% mehr takt.
ergeben 1,8*1,15*1,15*1,075=2,55ghz
Erst mit n2x und der Takt Explosion Sind es 3,19ghz
Zugleich steigt die Transistor dichte an quasi 50% da gaa verwendet wird.
Also sehe ich da gx107 2 gpc (18sm per gpc) 36sm 3,1 =35,0tf 60er sku
gx106 4gpc 72sm 60 aktiv = 58,5tf 70er sku
gx105 6gpc 108sm 96 aktiv = 93,0 tf 80er sku
gx103 8 gpc 144sm 128 aktiv =139,0tf 90er sku
ab q2 2027

aktuell ist blackwell einfach ada mit gddr7 und 24gbit chips auf n4x
daher nehme ich an das der name blackwell exklusiv für die quadro reihe bleibt und es nur nen ada refresh am desktop gibt.

Sicher wissen wir das 16sm per gpc gibt die 88fp32 per sm bestehen bleiben und das es auf n4x geht quasi maximal 11% Takt. bei gleicher chipdichte dafür gesenkten SI
quasi werden die gpu billiger weil mehr alu aktiv sind in den sku.

gb207 60er sku 40$
32sm 3,1ghz =17,4tf 8 pcie5 lanes (+51%) 64bit si 12gb
gb206 70er sku 50$
64sm (60aktiv) 3,1ghz = 32tf (+45%) 96bit si 18gb
gb205 80er 70$
96sm 84 aktiv =45tf (+21%) 224bit si 21gb
gb203 90er sku 150$
144sm (142 aktiv) 3,1ghz = 77,4tf (+21%) 256bit si 24gb

Wie das dann vermarktet wird ist offen. und hängt von amd Konkurrenz ab. insbesondere bei den Preisen.
Derzeit gibt es die rx7700xt mit knapp 19tf für 450€
Nvidia hat nix dagegen zusetzen abseits der rtx4070 mit 22tf ab 590€
Ich denke aber das nvidia hier dxr perf als vergleich nimmt das lässt sich derzeit nicht beziffern sondern nur messen. Da vieles vom Treiber abhängt
So gesehen passt es derzeit. erst wenn amd rx7700xt auf nur noch 399$ fällt bei uns 439€ derzeit. Wird man reagieren müssen.
rtx4060ti 16gb ~13-16tf 470€ aktuell min muss die sku ab 419$/475€ kosten
Was genau dem aktuellem preis entspricht
Die rx7700xt ist gleich schnell in dxr wie die rtx4060ti 16gb
Dafür aber in raster min um 25% schneller. Dazu die höhere Bandbreite was der sku deutlich in 1440p hilft und bald in 1080p sogar helfen wird.

The_Invisible
2023-10-22, 16:08:21
Die RTX 4090 bekommt schon mit UHD massivste Probleme und man muss öfter auf Upscaling ausweichen. Zudem limitiert auch noch DP1.4 bei 8KUHD. Selbst mit DSC kommt man hier an die Grenzen.

HDMI2.1 hat mehr Bandbreite, damit gehen auch 8k/120Hz mit DSC. Und selbst mit DP2.1 braucht man DSC.

Platos
2023-10-22, 19:55:40
Naja, in den Beispielen ist teilweise sogar die 4090 zu langsam für 8k. Sehe da nicht wo die 16GB limitieren, bevor der Chip limitiert

Das kommt darauf an, mit welchen Frameraten man sich begnügt. Reichen einem 30-40FPS, dann ist die Karte nicht zu langsam. Und ausserdem gabs da ja auch einige Beispiele mit 50FPS+.

Aber das war ja 8k. Es gibt auch noch z.B 5k

Und desweiteren habe ich ja auch gesagt, dass man heute schon in 4k 15.x GB in manchen Spielen verbaucht. Und ebenfalls habe ich angemerkt, dass somit in Zukunft 16GB durchaus geknackt werden könnte, ergo wären 20GB auch in "nur" 4k empfehelenswert, wenn man die Karte wenigstens 2-3 Generationen behalten will (4-6 Jahre).

Die RTX 4090 bekommt schon mit UHD massivste Probleme und man muss öfter auf Upscaling ausweichen. Zudem limitiert auch noch DP1.4 bei 8KUHD. Selbst mit DSC kommt man hier an die Grenzen.

Bei 8K stimmt das, aber es gibt ja auch noch andere Auflösungen (ich habe ja gesagt über 4k). Also z.B 5120x2160 oder 2880p. Und bei 8k hatte ich eher 4k Monitor +DSR im Kopf.

DrFreaK666
2023-10-22, 20:46:44
Ja. Schon möglich, dass 16GB in gewissen Situationen in Zukunft öfter limitieren werden

basix
2023-10-22, 21:21:11
Bei 4K sehe ich mit 16GB keine Probleme. Sobald man höher geht, ist mehr Speicher schon nicht verkehrt. CP2077 belegt mit Pathtracing in 4K ca. 12 GByte (DLSS-Q / DLAA, weiss nicht mehr genau). Bei 8K mit DLSS-P sind es 22 GByte. 8K DLSS-Q stürzt ab, zu wenig Speicher. Je nach Anwendungszenario und Monitor wären hier sogar >24 GByte von Vorteil.

HOT
2023-10-22, 21:27:36
20GB sind besser als 16. Wenn das Ding 20 hat, finde ich die richtig interessant. Ich finds einfach schön längerfristig den Puffer von 4GB zu haben. Von 20 auf 24 ist irrelevant, dem würde ich zustimmen.

reaperrr
2023-10-22, 21:45:14
Machen es 4GB besser? Wohl kaum.
Wahrscheinlich selten, aber 20GB impliziert auch 320bit, also 25% breiteres SI.

Und Speicherbandbreite hat die alte 4080 jetzt nicht gerade viel für die Rohleistung.

Und evtl. auch 80 MB L2, wobei ich NV auch zutraue, dass sie den auf 60 MB stutzen, damit der Vorteil zur 4080 bloß nicht zu groß wird und sie der 4090 bloß nicht zu nah kommt...:rolleyes:

The_Invisible
2023-10-22, 21:47:06
Bei 4K sehe ich mit 16GB keine Probleme. Sobald man höher geht, ist mehr Speicher schon nicht verkehrt. CP2077 belegt mit Pathtracing in 4K ca. 12 GByte (DLSS-Q / DLAA, weiss nicht mehr genau). Bei 8K mit DLSS-P sind es 22 GByte. 8K DLSS-Q stürzt ab, zu wenig Speicher. Je nach Anwendungszenario und Monitor wären hier sogar >24 GByte von Vorteil.

8k DLSS-P sind 4k nativ, mit Pathtracing eh nicht spielbar. Das einzige aktuelle Spiel das bei mir >16GB nimmt ist Diablo 4 und da frag ich mich warum eigentlich... wobei das auch mit 16GB ohne Probleme läuft.

aufkrawall
2023-10-22, 22:21:16
Ratchet & Clank RT FG knackt spätestens mit rBAR auch die 16GB nach 1-2 Level-Wechseln.

Ex3cut3r
2023-10-22, 22:59:22
Bringt es denn was rBar per Inspector für das Spiel extra zu aktivieren? @ GeForce

basix
2023-10-23, 08:26:30
Wahrscheinlich selten, aber 20GB impliziert auch 320bit, also 25% breiteres SI.

Und Speicherbandbreite hat die alte 4080 jetzt nicht gerade viel für die Rohleistung.

Und evtl. auch 80 MB L2, wobei ich NV auch zutraue, dass sie den auf 60 MB stutzen, damit der Vorteil zur 4080 bloß nicht zu groß wird und sie der 4090 bloß nicht zu nah kommt...:rolleyes:
Ja, etwas mehr Bandbreite täte gut. 80 MByte L2$ würden zudem langsameren und somit günstigeren Speicher erlauben. Und die 4090 bietet ja eh nochmals +20% Bandbreite obendrauf. Das würde schon passen.

8k DLSS-P sind 4k nativ, mit Pathtracing eh nicht spielbar. Das einzige aktuelle Spiel das bei mir >16GB nimmt ist Diablo 4 und da frag ich mich warum eigentlich... wobei das auch mit 16GB ohne Probleme läuft.

CP2077 war nur ein Beispiel. Auch die UE5 Demos / Titel krallen sich oftmals 16...20 GByte mit 8K DLSS-P. Und das ist sehr wohl spielbar auf einer 4090, wenn man vom Cinematic Setting absieht.

Platos
2023-10-23, 10:14:02
Ja also wenn du 8k spielst, ist auch 24GB nochmals ein deutlicher Vorteil.

Aber eben: Selbst wenn du "nur" 5k nutzt, wird man sehr schnell über 16GB kommen, da man heute schon in 4k immer öfter sehr nah an 16GB kommt.

Also für 4k wäre 20GB eine sehr zukunftstaugliche Karte. Wenn jetzt schon der eine oder andere (bekannte) Titel sehr nah an 16GB kommt oder ihn gar übertrifft (laut Aufkrawall R&C), ist doch klar, dass für jeden, der eine Grafikkarte 4-6 Jahre behalten will, 20GB eig. ideal ist (für 4k).

Vor 2 Jahren war das noch anders. Da gab es nur ganz wenige Spiele, die über 12GB in 4k gezogen haben. Heute kommt eins nach dem anderen, dass 14- nah an 16GB ziehen kann in 4k.

Weltraumeule
2023-10-24, 13:33:34
Ich möchte in den kommenden Wochen von 3060 auf 4070 wechseln und dabei die günstigste mit drei Lüftern für 600-620 € nehmen, Gigabyte oder KFA2.
Die 600 € sind dabei bereits über meine Schmerzgrenze weit hinaus.
Auf die 4070 Super mit 16 GB zu warten würde sich nicht lohnen oder? Die würde bestimmt nicht für 600 € angeboten werden und die alte 4070 auf 550 € oder niedriger fallen? Also wäre es nicht falsch die 4070 bereits jetzt zu kaufen?

HOT
2023-10-24, 15:10:57
Also da würd ich doch echt auf das Super Refresh warten und gucken was da bei rumkommt. Jetzt noch ne Ada zu kaufen, wo das so kurz bevorsteht, ich weiß ja nicht.

VooDoo7mx
2023-10-24, 18:11:48
Ich möchte in den kommenden Wochen von 3060 auf 4070 wechseln und dabei die günstigste mit drei Lüftern für 600-620 € nehmen, Gigabyte oder KFA2.
Die 600 € sind dabei bereits über meine Schmerzgrenze weit hinaus.
Auf die 4070 Super mit 16 GB zu warten würde sich nicht lohnen oder? Die würde bestimmt nicht für 600 € angeboten werden und die alte 4070 auf 550 € oder niedriger fallen? Also wäre es nicht falsch die 4070 bereits jetzt zu kaufen?

Eine "4070" mit 16 GiB müsste auf den nächst größeren Chip AD103 setzen, welcher auch in der 4080 verwendet wird.

Wenn es so eine Karte geben sollte, wäre diese dann sowohl von der Leistung und auch dem Preis zwischen einer 4070Ti und 4080 also nichts mit 600€.
Das wäre dann eine 4070Ti Super.

Der AD104 der bei der 4070 und 4070Ti verwendet wird, kann nur mit 12 oder 24GiB (doppelseitig) GDDR6X bestückt werden.

Erst mit der Nachfolgegeneration + GDDR7 ist 16GiB bei einen 192Bit Speicherinterface möglich.

Das heißt wenn du jetzt eine Grafikkarte kaufen willst und die gebotene Leistung für den Preis für dich ok ist, dann kauf jetzt eine. die Preise sind aktuell sowieso am stagnieren bzw sogar leicht am steigen. Es muss nur wieder eine globale Verwerfung geben und die Preise könnten wieder explodieren.
Die spekulierten Modelle werden auch keine bestehenden SKUs ersetzen sondern nur Lücken Portfolio schließen und auch preislich genau diese Lücken bedienen.
Billiger wird es erst werden wenn 2025 die Nachfolgegeneration aufschlägt.

Also da würd ich doch echt auf das Super Refresh warten und gucken was da bei rumkommt. Jetzt noch ne Ada zu kaufen, wo das so kurz bevorsteht, ich weiß ja nicht.

Woher willst du wissen das so ein Refresh überhaupt kommt und wenn ja wann dieser kommt?
Und selbst wenn, woher willst du wissen ob die spekulierten Refresh Modelle überhaupt ein besseres P/L Verhältnis haben?
Wegen ein paar Twitter Spacken die vor dem RDNA3 und Ada Launch zu 99,9% dümmste und falsche Grütze abgesondert hat?
Ist der kurz bevorstehende Super Launch jetzt die ultimative Wahrheit?

Im Endeffekt haben wir 0 gesicherte Informationen.

aufkrawall
2023-10-24, 18:21:26
Bringt es denn was rBar per Inspector für das Spiel extra zu aktivieren? @ GeForce
Ja, paar % mehr. Mit Windows Insider Builds crasht sogar Windows nach Beenden des Spiels nicht mehr. :D

VooDoo7mx
2023-10-24, 18:27:24
Ja, paar % mehr. Mit Windows Insider Builds crasht sogar Windows nach Beenden des Spiels nicht mehr. :D

Ja es wird wohl einen Grund haben warum nVidia das im Treiber nicht aktiviert. :facepalm:

Und daraus jetzt wieder ein "16GiB reicht nicht" Argument machen... :facepalm:

aufkrawall
2023-10-24, 18:30:15
Das hat nichts mit den 16GB zu tun, jedes Spiel braucht x% mehr VRAM mit rBAR. Aber Hauptsache uninformiert rumblöken, wie ungewohnt von dir...

DrFreaK666
2023-10-26, 12:49:12
4080 Super wohl weiterhin AD103
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-listed-with-ad103-gpu-and-new-device-id

HOT
2023-10-26, 13:35:29
Hab ja eh den Verdacht, dass es beides geben wird, Super und Ti, aber die Ti erst deutlich später, die Super schon zur CES. Das wird auch die Verwirrung bei den Gerüchten verursachen. Ich halte es schon für sehr wahrscheinlich, dass man die 4090 auf 4080Ti und 4090Ti aufteilen wird. Man kann einfach erheblich mehr verdienen so.

Thunder99
2023-10-26, 14:06:04
Full AD103 kommt, läuft ;D
Mit etwas mehr Takt und TDP 10%+ zur 4080?

nordic_pegasus
2023-10-26, 14:51:50
Full AD103 kommt, läuft ;D
Mit etwas mehr Takt und TDP 10%+ zur 4080?

AD103 scheint wohl wirklich kaputt zu sein. Leonadis hatte im September 2022 dazu geschrieben.
https://www.3dcenter.org/news/news-des-26-september-2022

Demnach sollten wohl physikalisch 84 Shader Cluster vorhanden sein, aber Nvidia selbst gibt nur 80 SM an, wovon wiederum bei der RTX 4080 nur 76 SM aktiv sind.

Sofern Nvidia das Problem nicht zwischenzeitlich gefixt hat, kann eine RTX 4080 Super auf AD103 Basis maximal nur 80 SM nutzen.

Linmoum
2023-10-26, 15:00:10
Diese angeblichen 84 SM erinnern mich an P10 damals, wo die Medien berichtet hatten, dass man "hinter vorgehaltener Hand" unmittelbar in Erfahrung gebracht haben wollte, der Chip hätte tatsächlich 40 CU statt der von AMD öffentlich genannten 36. War natürlich auch eine Ente, wenig überraschend.

HOT
2023-10-26, 16:02:03
Full AD103 kommt, läuft ;D
Mit etwas mehr Takt und TDP 10%+ zur 4080?
Ist komplett uninteressant das Teil. Da werden die wieder 1200€ für haben wollen, viel zu teuer dafür und auch für 16GB völlig inakzeptabel.

nordic_pegasus
2023-10-26, 17:51:09
Diese angeblichen 84 SM erinnern mich an P10 damals, wo die Medien berichtet hatten, dass man "hinter vorgehaltener Hand" unmittelbar in Erfahrung gebracht haben wollte, der Chip hätte tatsächlich 40 CU statt der von AMD öffentlich genannten 36. War natürlich auch eine Ente, wenig überraschend.

warum sollte Nvidia bei AD103 als einziger Ada Lovelace Karte unterschiedliche Shader-Engines verwenden? Diese haben bei AD102 bis AD106 immer 12 SM. AD103 hat 7 Engines, also theoretisch müssten es 7x12=84 SM sein. Laut offiziellem Block-Diagramm von Nvidia sind es aber 6x12 plus 1x8 und damit 80 SM, wovon bei der 4080 nur 74 aktiv sind.

Auch passt die Zahl der ROPs bei AD103 mit 112 nicht zum sonstigen ROP zu SM Verhältnis von Ada Lovelace (ist immer 4 zu 3). Die 112 ROPs deuten eigentlich auf 84 SM.

Wie gesagt, im September 2022 wurde spekuliert, dass irgendein Fehler dazu führt, dass 4 SMs deaktiviert werden müssen.

Altehardware
2023-10-27, 04:43:52
Um mal Klarzumachen nvidia ada design ist beim ad103 speziell aber auch gewollt verwirrend
Es sind 8 gpc zu je 12sm wovon aber 4 je gpc 4 sm deaktiv und 4 eine sm deaktiv sind darum diese krumme zahl.
Warum deaktiviert man so dermaßen den chip kurz um höhere chiptaktraten zu erreichen
Ein voller ad103 chip dürfte maximal bei 2,2ghz Schluss sein wegen zu hoher Hitzeentwicklung
80sm wären machbar und sind offiziell der vollausbau
Das wäre genau 15% des chips so agiert da man auch beim ad104 (72sm 60aktiv 15%) und ad102 (144 sm 128sm 15%)
Einzig der ad107 ist quasi voll Ausbau da dieses design einen geringere chipdichte hat
Das Si bemisst sich auf 45% mit sram wie bei allen chips aber die alu sind größer als bei allen anderen chips. womit der Takt höher sein kann
Darum ist das der einzige chip mit voll Ausbau der verkauft wird.
Der ad106 hat auch physisch 48sm wovon nur 36sm aktiv sind auch wegen der chipdichte.
Das ist 33% chipfläche die eingespart wurde. Diese sind vorhanden aber deaktiv um die wärme zu verteilen. Also 4 gpc mit je 9sm aktiv von 12sm

Die nächste gen wird das nochmal extremer da der gb206 nur noch 2 gpc hat 32sm bei 3,1ghz maxed 130mm² dafür werden aber auch nur maximal 1-2sm deaktiviert je gpc

Also wird es einenrtx4080 super geben mit nen ad103 und maximal 80sm da dann 8*2 sm deaktiv sind
Also grob wird man kaum schneller sein als die rtx4080 die jetzt real 37tf erreicht die neue super maximal 39tf also +6% das Erinnert doch sehr an dem super refresh von 2019
Womit dann klar ist das es so werden wird

rtx4060 super 36sm (ad106) 16gb gddr6 20gbps + 6% und mehr Bandbreite +11% =320gb/s 479€/419$
rtx4070 super 52sm (ad104) 12gb gddr6 18gbps +13% und weniger Bandbreite 432gb/s 669€
rtx4080 super 80sm (ad103) gddr6x 24gbps +6% und bissl mehr Bandbreite 768gb/s 1369€

Das wäre Sinnvoller als das man den ad103 stärker beschneidet und den ad104 Sinnfrei beschneidet und der ad106 verwaisen würde da keine sku frei wären.

das passt auc zur amd konkurrenz
rx7700xt wird damit egschlöagen um 5% in raster
rx7800xt wird geschalgen um 10%
rx7900xtx wird geschlagen um 2%
Damit könnte man die preise stabilisieren und das wäre auch sofort nach ankündigung zur ces veröffentlichen ab 3 Woche januar.

dildo4u
2023-10-27, 11:38:42
Ich erwarte keine 1000$ für die 4080 Super wenn die 4090 Richtung 2k tendiert.

8l6CsPzIZFw

HOT
2023-10-27, 11:53:58
Das muss man getrennt sehen. Die 4090 wird ja nur deshalb teurer, weil in China die jetzt nachgefragt werden wie bekloppt. Tom hat auch unrecht, NV sieht das keinen Cent mehr von, das stecken sich die AIBs ein, was da jetzt mehr verdient wird. NV verkauft nur die FEs teurer. Das hat mit den Super Preisen rein gar nichts zu tun. Egal ob das Embargo dann am 1.1. steht oder nicht, dann wird die Nachfrage nach den 4090 auf jeden Fall einbrechen, weil der chinesische Markt dann gesättigt ist nach den Hamsterkäufen.
Von daher stimme ich ihm da genausowenig zu, er interpretiert da echt viel Unsinn rein, wie immer eben, dann wird es für NV auch attraktiver auch die AD102er neu aufzulegen. NV kann dann mehr 102er für die gleiche Marge verkaufen mit einer teureren 4090Ti (ca. $1800) und einer für mehr Käufer interessanten 4080Ti ($1300).
Ich wette, wir sehen zur CES die 3 Super Karten und zum April hin dann ne 4080Ti und 4090Ti. Und AMD, da hat Tom ein weiteres Mal schlichtweg unrecht, senkt einfach die EK-Preise um $100 und ist fertig damit. Die sind halt nur 300mm² groß und zur Jahresmitte (veilleicht früher, weil die Zeit drängt, N31 loszuwerden) wird AMD die 4070Ti Super einfach mit einem voll aktivierten N48 kontern und die N31/32 gehen dann sowieso EOL um das Packaging für MI300 freizumachen.

Eine 4080 Super für $999 fänd ich dann schon wieder interessant.

dildo4u
2023-10-27, 12:03:32
Die 4080 ist ziemlich Konkurrenzfähig zu 7900XTX was Performance angeht wenn die 4070 Ti Super 16GB bekommt ist die Preissenkung damit Praktisch vollzogen.
Das Problem für AMD in der Klasse ist man kann Raytracing nicht weg reden was man im Low End probieren kann.

HOT
2023-10-27, 12:07:08
Ist wurscht, AMD verkauft die XTX einfach für $800-850 und fertig und die 7900XT für $700. Ich wette, die können bis $500 runtergehen ohne draufzulegen. Und N48 wird noch deutlich günstiger werden für AMD und löst dein RT-Dilemma z.T. wieder auf.

Thunder99
2023-10-27, 12:38:51
Danke dir. Gut erklärt und nachvollziehbar :up:

Leonidas
2023-10-31, 15:05:12
Diese angeblichen 84 SM erinnern mich an P10 damals, wo die Medien berichtet hatten, dass man "hinter vorgehaltener Hand" unmittelbar in Erfahrung gebracht haben wollte, der Chip hätte tatsächlich 40 CU statt der von AMD öffentlich genannten 36. War natürlich auch eine Ente, wenig überraschend.

Ok, möglich ist alles. Aber 36 oder 40 CU passt allesamt zu 4 RE bei P10. Aber 80 CU passen nicht zu 7 RE bei AD103. Und dass es wirklich so ungleich designt sein soll, ist einfach arg unwahrscheinlich. Noch dazu, wo Kopite ja 84 SM vorhergesagt hatte. So ist das Ding wahrscheinlich zum Tape-Out gegangen:
https://www.3dcenter.org/news/geruechtekueche-korrigierte-hardware-daten-zu-nvidias-ada-lovelace-generation-inkl-gpc-tpc-und-




Es sind 8 gpc zu je 12sm wovon aber 4 je gpc 4 sm deaktiv und 4 eine sm deaktiv sind darum diese krumme zahl.

7 GPC bei AD103.

Altehardware
2023-11-01, 01:39:35
Das geht nicht
Nvidia gpu sind geometrisch so designt

Eine raster engine = 24sm =24rop =96 tmu=96 tensor =24rt cores voila ad107 mit 2 gpc
----------------------------------
gpc=12sm in zwei tpc =6sm
Tpc 6sm
----------------------------------
L2 cache
----------------------------------
gpc=12sm in tpc =6sm
Tpc =6sm
---------------------------------

Das man hier keine Tabelle einfügen Kann?

Von den Dimensionen her stimmt das nicht das sieht dann so aus
https://www.techpowerup.com/gpu-specs/docs/nvidia-ada-architecture.pdf
Seite 7 Bild
natürlich wird da der komplette schematische Inhalt gezeigt des ad102 lässt aber auch Sachen aus wie fp64 die je sm 2 fp64 haben und die sfu wird generell nicht mehr dargestellt da heutzutage nur noch für spezielle fp64 Operationen benötigt werden.
Darum sind Aufteilungen in ungeraden nicht möglich
Daher hat ad106 ga106 und sogar tu106 sowie gp106 und gm206 dieselbe Logik
Das geht bis kepler zurück (gtx6xx) mit gk206
Fermi (gtx4xx) war noch ganz anders designt und hat hatte nur eine raster engine per chip
Somit ist ad106 4gpc nicht drei und ad104 sogar 6 gpc keine 5 und ad103 8 gpc und nicht 7
Das nvidia die chips beschneidet um höher Taktraten und yield zu erreiche sollte klar sein.
das ziel ist es möglichst alle sku auf denselben Takt zu bringen darum diese krummen sm mengen in den sku
Den ein ad104 ad106 ist deutlich dichter gepackt als ein ad102 oder ad107 die unterschiede sind klein etwa 5% aber vorhanden
Die Ursache ist das SI und sram die sich nicht mehr verkleinern lassen seit n12

horn 12
2023-11-01, 02:07:27
@Altehardware
Dein Zitat:

Der Markt wird sich ab q2 2024 komplett ändern da amd rdna4 endlich die Architektur gefixt hat und nvidia reagieren muss

Wie schnell wird dann maximal RDNA 4 in Quartal 2 im Jahr 2024
und wie muss Nvidia dann reagieren ?

reaperrr
2023-11-01, 03:46:10
Das geht nicht
Nvidia gpu sind geometrisch so designt
(...)
Von den Dimensionen her stimmt das nicht das sieht dann so aus
https://www.techpowerup.com/gpu-specs/docs/nvidia-ada-architecture.pdf
Seite 7 Bild
Das Schaubild hat bloß gar nichts mit dem tatsächlichen physischen Layout zu tun.

Und in der PDF steht auf Seite 32 auch ganz klar, dass AD103 7 GPCs hat. Vollausbau sind 7x12 = 84 SM, bei der 4080 sind 4 TPC/8 SM deaktiviert. Natürlich ist es dann auch technisch möglich, alle zu aktivieren.

Altehardware
2023-11-01, 05:00:35
Dann erkläre mal wie man kohärent die daten bei gleicher Latenz halten willst wenn die geometrische form nicht identisch ist
Das ginge nur wenn die gpc in einer reihe wären was sie nicht sind und das wegen der Latenzen Ansonsten wäre der L2 nicht mittig
Das ist erforderlich bei nen Reinen fp32 Ansatz darum greift ja die Formel alu mal Takt mal 2
Das wird auch nvidia nie ändern.
man siehe sich ältere gen an etwa tesla2 (gtx2xx) wo da der L2 cache ist, mal davon abgesehen das man früher je chip eine eigene rasterengine entworfen hat also da gab es nur eine engine und nicht so wie jetzt das diese quasi modular ist
https://www.nvidia.com/docs/io/55506/geforce_gtx_200_gpu_technical_brief.pdf
ab Seite 10
Ist was blöd beschrieben erklärt sich aber mittels tesla paper von 2006 wo die Funktion der sfu erklärt wird.
https://www.techpowerup.com/gpu-specs/docs/nvidia-tesla-architecture.pdf
Seite drei wird es ersichtlich das hat man etwas blöd dargestellt im gtx280 paper
abseits mehr alu und mehr cache hat sich da nix getan.

Leonidas
2023-11-01, 08:39:09
AD103 hat ganz klar 7 GPC *. Jegliche Erklärung dieses Umstands muß sich an diesen Fakt anpassen. Mit 8 GPC hätte AD103 im übrigen max. 96 SM, weit weg von den derzeit 80 SM. NV hat im kompletten ADA-Lineup die Regel "1 GPC = 12 SM". Altehardware muß da einen kleinen Gedankenfehler haben.

* Ergibt sich auch aus den 112 ROPs. Alle ADA-Chips haben 16 ROPs pro GPC. 7x16 = 112. Mit 8 GPCs müssten es 128 ROPs sein. Da man keine ROPs mehr einzeln deaktivieren kann, können zwangsläufig nur 7 GPC aktiv oder vorhanden sein. 8 GPC können unmöglich aktiv sein (und sind natürlich auch nicht vorhanden).

mksn7
2023-11-01, 12:14:11
Man sieht doch auf dieshots von AD103 recht eindeutig dass die SMs alle oben in einer Reihe sind, und der L2 unten. Bei AD102 ist der L2 klassisch in der Mitte, und die SMs jeweils oben und unten.

Bei A100 und H100 sind die L2's sogar in zwei separate Blöcke mit 2x20 und 2x25 MB aufgeteilt. Bei AD102 ist der L2 cache auch sgementiert als 2x36MB, da hätten die zwei Cachesegmente auch nicht unbedingt nebeneinander liegen müssen.

reaperrr
2023-11-01, 12:50:01
Dann erkläre mal wie man kohärent die daten bei gleicher Latenz halten willst wenn die geometrische form nicht identisch ist
Das ginge nur wenn die gpc in einer reihe wären was sie nicht sind
Natürlich sind sie das.

https://i.ibb.co/z2PbNnf/2b396c87-0cf0-41e1-98a0-9ae121c5cdea-1960x1380.jpg

Sonst dürften die 5 GPC von AD104 oder die 3 GPC von AD106 genausowenig gehen.

Wenn Nvidia in ihrer offiziellen Dokumentation 7 GPC sagen, sind es auch 7 GPC. Ich versteh nicht, was daran so schwer zu glauben sein soll.

AD102 ist der einzige Dektopchip, bei dem der CP nebst L2 mittig zwischen zwei Reihen GPCs sitzt. Ab AD103 abwärts sind die GPCs alle in einer Reihe und der CP/L2 quasi mehr oder weniger am Rand des Chips.

mksn7
2023-11-01, 17:21:18
Bei A100 und H100 sind die L2's sogar in zwei separate Blöcke mit 2x20 und 2x25 MB aufgeteilt. Bei AD102 ist der L2 cache auch sgementiert als 2x36MB, da hätten die zwei Cachesegmente auch nicht unbedingt nebeneinander liegen müssen.

Ich wollte die Segmentierung des L2 cache bei AD102 so wie bei A100 und H100 gerade nochmal mit Messungen belegen, hab aber gemerkt dass sich diese These nicht halten lässt. In einem benchmark den ich gemacht hatte, hab ich vergessen bei der Berechnung des Datenvolumens mit einzubeziehen dass ich zwei grids bearbeite. Außerdem war da noch ein kleiner bump, dann sah das so aus als hätte die L40 (=AD102) nur 2x36 MB.

Schaut man sich eine Latenzmessung an, dann sieht man fast gleichförmig Latenz bis hoch zu 96MB (die L40 hat hier den Vollausbau des AD102). Anders als bei H100 und A100, die bei 25 bzw 20 MB ein kleines Zwischenplateau haben, wenn das erste cache segment voll ist und aus dem anderen cache segment geladen wird.

https://raw.githubusercontent.com/te42kyfo/gpu-benches/20db037db63e868f1825e8c49f7efba4c7cc6617/gpu-latency/latency_plot.svg

(die komischen DRAM Latenzen der RX6900XT bitte ignorieren. Für einen einzelnen thread taktet die nicht ihr Speicherinterface hoch... benchmarks von meinem gpu-bench repository https://github.com/te42kyfo/gpu-benches)

Bei der L2 Bandbreite sieht man auch die volle Bandbreite bis 96MB, anders als die A100, die schon bei etwa 30MB (macht Sinn dass das genau zwichen 20 und 40MB liegt, weil wegen des zufälligen placements von thread blocks auch die duplication in dem L2 cache segmenten etwa einen Faktor 1 1/2 ausmacht) aus dem L2 rausfällt.

https://github.com/te42kyfo/gpu-benches/raw/master/gpu-l2-cache/cuda-cache.svg

Edit: ich hab beim letzten Graphen gerade die H100 Daten hinzugefügt.

Skysnake
2023-11-01, 17:33:34
Wow krasser Bandbreitenunterschied zwischen AMD und nVidia. Hätte das so in der Form nicht erwartet. Ich muss mich wohl doch wieder intensiver mit GPUs beschäftigen.

Die Latenzen der Mi210 sehen ja katastrophal aus. Gibt es dafür eine Begründung?

mksn7
2023-11-01, 17:49:57
Zu Latenzen zunächst der Hinweis, dass die hier in cycles angegeben ist. Latenz in ns sagt mehr über die Implementierung aus, in cycles mehr über den Effekt. Das hilft der MI210 aber auch nicht.

Die DRAM und L2 Latenzen der MI210 sind ja ok (abgesehen davon, dass >40MB irgendwas komisches (TLB?) passiert). Aber der L1 cache von GCN war schon immer schnarchlahm und winzig. Oder, von der anderen Seite gesehen, NVIDIA zaubert seit der V100 irgendwie mit ihrem L1 cache (groß, niedrige Latenz, hohe Bandbreite).


Bei den L2 cache Bandbreiten tummeln sich ja alle etwa bei 5 TB/s, außer der der Mi100. Bei den DRAM Bandbreiten ist die A100 (80GB Version) einfach ungeschlagen, und die L40 und RX6900XT haben halt kein HBM. Bei den NVIDIA GPUs ist der große last level Cache halt der schnelle L2 cache, da ist bei AMD der Infinity cache zwar das größte cache level, aber auch vergleichsweise langsam. Das ist bei RDNA3 aber wohl besser, wenn auch da der Infinity Cache leider kleiner ist.

Die Auswahl an GPUs ist nicht ganz ausgeglichen, ich hab vor allem Zugang zu HPC GPUs, die RX6900XT haben wir uns wegen des Infinity Caches gekauft.

Edit: ich hab beim letzten Graphen gerade die H100 Daten hinzugefügt. Holy Moly, ist das das Distributed Shared Memory Network? Ich hätte nicht gedacht dass global loads da drin hitten können, sondern nur explizites addressing via shared memory loads. Oder doch nur was bei der replacement policy gedreht? Edit: das data set pro thread block dürfte einfach nur zu klein sein für den größeren L1 cache der H100. Bei allen anderen GPUs sind die Daten auf jeden Fall raus aus den L1's, bei der H100 gibts eine chance dass ein thread block auf einem data set arbeitet dass ein anderer thread block auf der gleichen SM vorher bearbeitet hat. Da muss ich morgen mal meine Daten fixen.

Außerdem ist das nur die PCIe Variante der H100, die hat das gleiche Speicherinterface wie die A100_SXM4_80GB.

reaperrr
2023-11-01, 18:35:49
Wow krasser Bandbreitenunterschied zwischen AMD und nVidia. Hätte das so in der Form nicht erwartet. Ich muss mich wohl doch wieder intensiver mit GPUs beschäftigen.

Die Latenzen der Mi210 sehen ja katastrophal aus. Gibt es dafür eine Begründung?
Kein L0 und sowohl kleine als auch relativ langsame L1-Caches je CU, würde ich sagen.

Der L2 ist bis 6MB dann ja konkurrenzfähig, nur muss auf den wegen der mageren L1 schon ziemlich früh zugegriffen werden und da der L2 auch nur 6MB groß ist, danach dann schon relativ früh auf den HBM2e.

Leonidas
2023-11-02, 12:20:59
4070Ti-Super und 4080-Super mit gleicher TDP, 4070S mit 20W mehr.
https://videocardz.com/newz/nvidia-geforce-rtx-4080-4070ti-4070-super-gpus-rumored-to-require-320-285-220w-power

Ist vmtl. aber untragisch, da alle Original-Modelle noch einigen Spielraum unter der TDP haben. Ada-Refresh wird diesen Spielraum dann ausnutzen, braucht deswegen nicht nominell mehr TDP.

dildo4u
2023-11-02, 12:25:14
700€ 4070 Super kommt vermutlich der Chip war wirklich extrem kastriert.
Wird dicht an der 7900XT landen daher wirds nicht billiger.

HOT
2023-11-02, 12:34:30
Ne, die 4070Ti Super wird zur 7900XT aufschließen. 4070 Super ist weit entfernt. Dürfte aber klar die 7800XT schlagen und eher in Richtung 7900GRE gehen.

gnomi
2023-11-02, 16:58:07
Super langweilig.
Einfach nicht kaufen bzw. die normalen Karten im Abverkauf.
Dann gehen die Preise runter und die 4080TI kommt zu Ostern. :wink:

Langlay
2023-11-02, 17:05:27
Ne 4080ti seh ich nicht wirklich, wenn dann bringt Nvidia ne 4090TI. Die 4090 ist gut positioniert. Ne 4080ti müsste vom Preis her relativ nahe der 4090 sein, wenn die Performance auch ähnlich ist. Für Nvidia wäre es sinnvoller ne 4090TI zu bringen und diese für 1799-1999$ über der 4090 zu positionieren.

gnomi
2023-11-02, 17:48:50
Es wird auf jeden Fall schwer jetzt in der Haupt Saison.
Nvidia bringt nur noch DLSS mit Frame Generation Benchmarks.
Dazu ein paar gesponserte große Spiele.
Und schon wird sehr gut verkauft, weil eben dieser spezielle Markt viel Geld und Null Prinzipien hat. :freak:

HOT
2023-11-02, 18:24:55
Ne 4080ti seh ich nicht wirklich, wenn dann bringt Nvidia ne 4090TI. Die 4090 ist gut positioniert. Ne 4080ti müsste vom Preis her relativ nahe der 4090 sein, wenn die Performance auch ähnlich ist. Für Nvidia wäre es sinnvoller ne 4090TI zu bringen und diese für 1799-1999$ über der 4090 zu positionieren.
Wenn bringen die beides. Entweder es bleibt bei der 4090 oder die wird von 4090Ti und 4080Ti abgelöst, anders ergibt das keinen Sinn. Das wird aber erst dann passieren, wenn die China-Sache gelöst ist.

Leonidas
2023-11-03, 11:22:30
GeForce RTX 40 Refresh-Lösungen mit zumeist derselben TDP
+ Infos zum Speicherinterface und VRAM der 4070Ti-S
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-40-refresh-loesungen-mit-zumeist-derselben-tdp

Das Bild klart sich nunmehr langsam auf. Die drei neuen Karten werden wohl die drei alten komplett obsolet machen. Unsicher sind noch die Preislagen sowie was NV in HighEnd- und Mainstream-Segment macht.

Troyan
2023-11-03, 11:27:16
Wenn die 4070 TI Super mit 16GB für $799 verkauft wird, dann wäre das doch top.

Hatstick
2023-11-03, 11:28:17
Schade, habe auf eine RTX 4070 Super mit 16GB gehofft aber irgendein neues Ti Modell braucht eh keiner und die Super Modelle werden sie preislich noch ein Stück höher ansetzen, also 4070 Ti Super für 1000€?
Das passt doch und macht die rund... für nVidia. :freak:

The_Invisible
2023-11-03, 11:31:48
Ne 4080ti seh ich nicht wirklich, wenn dann bringt Nvidia ne 4090TI. Die 4090 ist gut positioniert. Ne 4080ti müsste vom Preis her relativ nahe der 4090 sein, wenn die Performance auch ähnlich ist. Für Nvidia wäre es sinnvoller ne 4090TI zu bringen und diese für 1799-1999$ über der 4090 zu positionieren.

Für mich macht die 4090Ti eigentlich am wenigsten Sinn da eh schon außer Konkurrenz. Außer Jensen ist langweilig und er will eine OOTB 100TFlops Karte raushauen.

Aber was wissen wir schon :D

HOT
2023-11-03, 11:41:05
Jo vom größten Schrott nach der 4060Ti 8GB, die 4070Ti mit 12GB zur besten Karte am Markt als 4070Ti Super mit 16GB.

The_Invisible

Ganz im Gegenteil. Die 4090Ti greift die ganzen Ultra-High-End-Käufer nochmals ab, wenn die 15-20% mehr Leistung bietet. Eine 5090 ist ja auf absehbare Zeit nicht in Sicht. Die verkaufen dann einfach ihre 4090, die ist ja, mangels Konkurrenz, nach wie vor was wert. Und NV könnte mit einer 4080Ti gleichzeitig mehr Leute ansprechen als bisher.

Hatstick
2023-11-03, 11:53:36
Interessanterweise würde nvidia mit der 4070Ti 16GB sogar der 7900XT Dampf machen.
Sind die 20GB gegen die 12GB wirklich noch ein Kaufargument, wird das VRAM Eis für AMD wie bei der RTX 4070 (zumindest 12GB vs. 16GB der 7800XT) immer dünner, weil wir vom Featureset nicht groß diskutieren müssen, das nVidia in einer ganz eigenen Liga spielt und (ich persönlich) auf 4GB weniger verzichten würde aber klar zur nVidia greifen würde.

Overall aber klar, Gen ist durch.
Jetzt noch fast 1000€ für eine 16GB nVidia mit einer guten Performance kaufen ist trotz allem absolut uninteressant aber nVidia kann ja gefühlt eh machen was sie wollen.
Leider auch der 7000er AMD Reihe geschuldet, die leider gerade beim Featureset ganz dünn bestückt ist.

PS: 949€ klingt doch realistisch als Straßenpreis für die 4070Ti 16GB. Uff...

HOT
2023-11-03, 12:02:13
Die 7900XT kann nur noch über den Preis konkurrieren. Wenn die 4070Ti Super ca. $750 kostet, muss die 7900XT auf den Preis der GRE abrutschen.
Ich denke aber das wird nicht passieren, weil AMD aufgrund des massiven Packagingbedarfs für die MI300X, diesen Markt sowieso austrocknen wird bis N48 diese Chips ersetzt.

Und NV wird die Preise senken, um die Verkäufe anzukurbeln. Die 4070Ti für >$800 läuft extrem schlecht nach einem recht guten Start, die 4080 läuft seit Beginn extrem schlecht. NV hat aber mittlerweile soviel KI-Zeug ausgeliefert, dass der Markt so oder so toppen wird, egal ob China kommt oder nicht. Man muss die Verkäufe dann in andere Kanäle leiten, Grafik wird dann wieder interessanter für NV. Die 4080 Super für $999 und die 4070Ti Super für $799 sind realistisch, Strassenpreise fallen sicherlich darunter. Die Vorgängermodelle werden sicherlich EOL gehen, nur die 4070 wird bleiben.

horn 12
2023-11-03, 14:41:02
AMD kann wenn möchten die 7900XT und XTX für wohl 679 und 849 Euro locker verkaufen wenn sie denn möchten, wollten und NV Druck ausüben würde!

Dann wäre man immer noch 200 bis 250 Euro Günstiger (bei XTX)
bei knapper Niederlage oder Zumindest Gleichstand.

dildo4u
2023-11-03, 15:14:00
Mal aktuelle Benches angeguckt fast alles braucht upsampling und FSR ist absolute Gülle was gerade passiert spricht nicht dafür 800€ AMD Karten zu kaufen.

DrFreaK666
2023-11-03, 15:52:16
"absolute Gülle". Man kanns auch übertreiben

dildo4u
2023-11-03, 16:15:17
Der Einsatz macht kein Sinn wenn UE4/5 Games TSR nutzen könnten.
Und auf Konsole bist du am Arsch wenn dir die Entscheidung abgenommen wird.

ComputerBase wird dieses Mal das Upsampling nicht explizit analysieren, hat sich dies aber durchaus genauer angesehen. DLSS und TSR sind dabei die klaren Gewinner, FSR ist dagegen unbenutzbar. Denn AMDs Technologie kommt mit der Vegetation im Spiel und der dazugehörigen Kameradrehung überhaupt nicht zurecht – die Disocclusion-Problematik sorgt für eine Flimmerorgie.

DLSS und TSR agieren dagegen auf einem hohen Niveau und sind gut einsetzbar

https://www.computerbase.de/2023-11/wrc-benchmark-test/

Exxtreme
2023-11-03, 16:30:48
"absolute Gülle". Man kanns auch übertreiben

Je nach Content ist es das aber. Rennspiele sind so eine Art FSR-Endgegner. Denn da bewegt man sich in einer hohen Geschwindigkeit und man hat sehr viel halbtransparente Vegetation. Und da schlägt die Disocclusion-Problematik extrem stark zu.

DrFreaK666
2023-11-03, 18:43:42
Der Einsatz macht kein Sinn wenn UE4/5 Games TSR nutzen könnten.
Und auf Konsole bist du am Arsch wenn dir die Entscheidung abgenommen wird. Bei Konsolen wird es allerdings nicht genutzt, daher gehe ich davon aus, dass die Performance dann nicht so geil ist



https://www.computerbase.de/2023-11/wrc-benchmark-test/

Natürlich ist TSR sinnvoller, sollte es bei ähnlicher Qualität nicht deutlich langsamer sein, sondern zumindest gleichschnell.

HOT
2023-11-03, 21:45:34
Die Entwicklung bleibt ja nicht stehen bei Upscaling.

TheAntitheist
2023-11-04, 00:00:06
Die Entwicklung bleibt ja nicht stehen bei Upscaling.
bei AMD schon, Epic hat sie ja schon weit überholt... und das ganz schön schnell. AMD ist bei allem einfach zu langsam, zu spät oder zu schlecht.

DrFreaK666
2023-11-04, 03:23:33
bei AMD schon, Epic hat sie ja schon weit überholt... und das ganz schön schnell. AMD ist bei allem einfach zu langsam, zu spät oder zu schlecht.

Epic hat also auch schon eigenes FG in die Engine integriert?

dildo4u
2023-11-04, 06:04:31
Je nach Content ist es das aber. Rennspiele sind so eine Art FSR-Endgegner. Denn da bewegt man sich in einer hohen Geschwindigkeit und man hat sehr viel halbtransparente Vegetation. Und da schlägt die Disocclusion-Problematik extrem stark zu.
Ich bin mal ehrlich es gibt genau ein Game wo es mich überzeugt hat Diablo 4.
Alles andere egal ob Ego Shooter oder Third Person Game ist eine Katastrophe.
Jedi Survivor wurde bis Heute nicht gefixt einfach weil es die Technik nicht hergibt und das Game könnte das Gen 5 TSR nutzen dafür muss es nicht mit UE5 gebaut werden.

HOT
2023-11-04, 09:09:36
bei AMD schon, Epic hat sie ja schon weit überholt... und das ganz schön schnell. AMD ist bei allem einfach zu langsam, zu spät oder zu schlecht.
Ist doch nicht wahr.

dildo4u
2023-11-04, 09:21:56
Ist doch nicht wahr.
Computerbase hat doch gerade wieder erwähnt das FSR versagt.

https://www.computerbase.de/2023-11/wrc-benchmark-test

Epic entwickelt TSR ständig weiter selbst in Bewegung wird es immer besser.

TSR Epic Fortnite mit UE5.4

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13428986#post13428986

robbitop
2023-11-04, 09:27:14
Ist doch nicht wahr.

Dass FSR Upsampling seit grob 1 Jahr stillsteht (2.1 war die letzte Version, die BQ Verbesserung brachte) und TSR mittlerweile davon gezogen ist? Tomaten auf den Augen?
AMD hat FSR Upsampling viel zu lange liegen lassen.

HOT
2023-11-04, 09:53:24
Das heißt doch nicht, dass das so bleibt. Und fast alle künftigen Implementationen werden ziemlich offensichtlich eh FSR3 werden. Ob da dann FG bei ist, zeigt sich dann. Ihr macht euch das echt sehr einfach.

robbitop
2023-11-04, 09:58:45
Es geht doch un den status quo und nicht das vielleicht in der Zukunft.

HOT
2023-11-04, 10:07:15
Na und? Der Status Quo ist klar, aber das muss ja so nicht bleiben.

DrFreaK666
2023-11-04, 10:13:57
Computerbase hat doch gerade wieder erwähnt das FSR versagt...

Und bei Forza war es gut. Aber gut, Oktober ist halt schon ewig her :rolleyes:
Merkst du eigentlich nicht, dass du immer UE-Games nimmst, wenn es um schlechte Beispiele geht (Jedi Survivor, jetzt WRC)!?
Vielleicht sollte man den Übeltäter dort suchen

dildo4u
2023-11-04, 10:25:20
FSR ist kaputt bei Forza es bringt nur 10%, Performance das verhalten gabs es auch schon bei Forza Horizon 5.
Ich habe echt den Eindruck ihr setzt es gar nicht selber sein.


Und zusätzlich ist die Qualität fragwürdig.

https://youtu.be/Qy72tf-l48g?si=AULxCR981NSBh5ft&t=965

robbitop
2023-11-04, 10:28:41
Na und? Der Status Quo ist klar, aber das muss ja so nicht bleiben.

Aber darum ging es doch gar nicht. Es wurde gesagt wie es ist und du hast gesagt, dass das nicht stimmt. Was blödsinn ist. Gib es doch wenigstens mal zu anstatt die goalpodts zu bewegen.

DrFreaK666
2023-11-04, 10:30:24
FSR ist kaputt bei Forza es bringt nur 10%, Performance das verhalten gabs es auch schon bei Forza Horizon 5.
Ich habe echt den Eindruck ihr setzt es gar nicht selber sein.


Und zusätzlich ist die Qualität fragwürdig.

https://youtu.be/Qy72tf-l48g?si=AULxCR981NSBh5ft&t=965

Natürlich setze ich es nicht ein, da ich kein Forza hab. CB für Pro-Argumente herzunehmen ist wieso genau eigentlich nicht gestattet? Außerdem ging es um Qualität, nicht um Performance

basix
2023-11-04, 10:37:06
Dass FSR Upsampling seit grob 1 Jahr stillsteht (2.1 war die letzte Version, die BQ Verbesserung brachte) und TSR mittlerweile davon gezogen ist? Tomaten auf den Augen?
AMD hat FSR Upsampling viel zu lange liegen lassen.

Ganz Stillstand war es ja nicht: FSR 2.2, Frame Generation, AFMF.

Und es gibt Beispiele, wo FSR2 sehr gut funktioniert. Alan Wake 2 als aktuelles Beispiel. Ich glaube, DLSS hat einfach Vorteile, weil es Problemstellen besser umschifft, ohne Developer-Liebe zu brauchen. FSR2 funktioniert gut, wenn gut integriert. Braucht aber anscheinend etwas mehr Aufwand bei den Problemstellen.

AMD sollte genau hier anpacken, dass es mit möglichst wenig Developer-Aufwand möglichst gut aussieht. Und weiter verbesserte "Grundqualität" nimmt sicher jeder gerne mit. Mit Ray Reconstruction steht aber schon der nächste Punkt an, welchen ich gerne in FSR3 sehen würde. Gerade weil AMDs Karten und allenfalls auch Konsolen von dem stark profitieren könnten.

dildo4u
2023-11-04, 10:39:53
Und es gibt Beispiele, wo FSR2 sehr gut funktioniert. Alan Wake 2 als aktuelles Beispiel.

Genau dort versagt es gerade massiv so lange man keine extrem hohe Grundauflösung nutzt.

https://youtu.be/JawxvOF__4Q?si=6XizRFhHu86FOSsb&t=668

basix
2023-11-04, 10:42:59
Das ist eines der grössten Schwachstellen von FSR2, korrekt. DLSS kommt besser mit geringen Auflösungen klar.

robbitop
2023-11-04, 11:14:52
Ganz Stillstand war es ja nicht: FSR 2.2, Frame Generation, AFMF.

Und es gibt Beispiele, wo FSR2 sehr gut funktioniert. Alan Wake 2 als aktuelles Beispiel. Ich glaube, DLSS hat einfach Vorteile, weil es Problemstellen besser umschifft, ohne Developer-Liebe zu brauchen. FSR2 funktioniert gut, wenn gut integriert. Braucht aber anscheinend etwas mehr Aufwand bei den Problemstellen.

AMD sollte genau hier anpacken, dass es mit möglichst wenig Developer-Aufwand möglichst gut aussieht. Und weiter verbesserte "Grundqualität" nimmt sicher jeder gerne mit. Mit Ray Reconstruction steht aber schon der nächste Punkt an, welchen ich gerne in FSR3 sehen würde. Gerade weil AMDs Karten und allenfalls auch Konsolen von dem stark profitieren könnten.

Ich habe bewusst upsampling geschrieben. Bis auf den Namen ist FG ein anderes Verfahren. Und optisch ist mit 2.2 und 3.0 bzw des Upsampling nichts mehr passiert.

Ich habe bei FSR 2/3 Upsampling mittlerweile den Eindruck dass es nicht nur Implementierung ist. Es scheint auch Contentabhängigkeit zu geben.

Hatstick
2023-11-04, 11:45:34
War eigentlich schon auf dem Sprung meine 6800XT gegen die RTX 4070 zu tauschen aber mit den Refreshes ist es eigentlich nie verkehrt zu warten, wobei sie die 4070 Super mit Sicherheit ein Stück höher positionieren werden, weil dann nach unten gar keine Luft mehr für die normale 4070 sein wird.
Naja, mal abwarten, was da noch für Infos kommen.

Troyan
2023-11-04, 11:53:53
Warte bis zur CES Anfang Januar. Dann sollten die Karten offiziell vorgestellt werden, wenn sie existieren sollten. Macht aktuell kein Sinn, was neues zu kaufen.

DrFreaK666
2023-11-04, 11:57:50
...Ich habe bei FSR 2/3 Upsampling mittlerweile den Eindruck dass es nicht nur Implementierung ist. Es scheint auch Contentabhängigkeit zu geben.

War Vegetation nicht schon immer eine Schwäche von FSR?
Mich wundert es eher, dass es bei UE-Games bescheiden aussieht. Sehe ich das falsch? Gibt es auch positive UE-Beispiele?

HOT
2023-11-04, 12:39:15
War eigentlich schon auf dem Sprung meine 6800XT gegen die RTX 4070 zu tauschen aber mit den Refreshes ist es eigentlich nie verkehrt zu warten, wobei sie die 4070 Super mit Sicherheit ein Stück höher positionieren werden, weil dann nach unten gar keine Luft mehr für die normale 4070 sein wird.
Naja, mal abwarten, was da noch für Infos kommen.
Das lohnt sich kaum. Dann spiel nativ. Entweder ne Preisklasse drüber oder du lässt es besser.

Aber darum ging es doch gar nicht. Es wurde gesagt wie es ist und du hast gesagt, dass das nicht stimmt. Was blödsinn ist. Gib es doch wenigstens mal zu anstatt die goalpodts zu bewegen.

Nene, ich weigere mich einfach solche starren Ansichten dauernd ertragen zu müssen. Ein X370 war auch mal ne Aufrüstsackgasse. Einfach mal entspannt bleiben und schauen was da kommt. Zu kaufen lohnt sich eh kaum was z.Zt. Ich empfehle auf jeden fall keine einzige Radeon z.Zt., weil die jetzigen eh quasi EOL sind und durch N4x ersetzt werden und bei NV muss man die Preissenkung abwarten. Auch ne 4090 ist nicht empfehlenswert, allein aufgrund des Preises.
Leute bleibt bei euren GPUs, sofern die noch halbwegs was taugen und kauft N4x vs. BM vs. 16GB AD103-Karten wenns soweit ist.

Hatstick
2023-11-04, 12:56:05
@Troyan!

Ja, die Zeit kann man jetzt noch abwarten und dann schauen, wie es Anfang nächsten Jahres aussieht.

@HOT!

Beim Wechsel geht es hauptsächlich um das Streaming auf Twitch, da gibt es leider keine Alternative zum nVidia Encoder, wenn man die Qualität und Effizienz heranzieht.
x264 saugt viel zu sehr an der CPU und den AMD Encoder kann man qualitativ in die Tonne kloppen aber die zwei Monate kann ich auch noch abwarten.

Thunder99
2023-11-04, 12:57:02
...
Overall aber klar, Gen ist durch.
Jetzt noch fast 1000€ für eine 16GB nVidia mit einer guten Performance kaufen ist trotz allem absolut uninteressant aber nVidia kann ja gefühlt eh machen was sie wollen.
Leider auch der 7000er AMD Reihe geschuldet, die leider gerade beim Featureset ganz dünn bestückt ist.
...


Das würde ich nicht sagen. Die Gen ist so lange attraktiv so lange nichts besseres kommt was günstiger oder besser ist.
Heute noch ist das Geld gut angelegt wenn man für 1 Jahr und mehr Spaß haben möchte.
Denke nicht, die nachfolgende Generation wird besser vom Preis/Leistung nach allem was wir bisher gesehen haben von Nvidia :wink:

horn 12
2023-11-04, 13:09:51
Rechne sowieso das, wenn überhaupt nur der TOP Dog der 5000-er Serie kommt in etwa einem Jahr,
und erst Frühjahr 2025 die 4080(Super) event. gar 4080TI dessen Nachfolger erhält.

DrFreaK666
2023-11-04, 13:12:32
Rechne sowieso das, wenn überhaupt nur der TOP Dog der 5000-er Serie kommt in etwa einem Jahr,
und erst Frühjahr 2025 die 4800(Super) event. gar 4080TI dessen Nachfolger erhält.

Könnte gut sein: Consumer melken

robbitop
2023-11-04, 18:43:26
Nene, ich weigere mich einfach solche starren Ansichten dauernd ertragen zu müssen. Ein X370 war auch mal ne Aufrüstsackgasse. Einfach mal entspannt bleiben und schauen was da kommt.
Das hast du aber so nicht formuliert. Entsprechend war der Post BS. Der Fakt, dass du jetzt ausweichst und ja was ganz anderes gemeint hast, zeigt, dass man dich nicht ernst nehmen kann, weil man sich auf das geschriebene Wort nicht verlassen kann und offenbar eine Hellseher braucht um zu wissen was du eigentlich mit deinen Posts meinst - oder muss annehmen dass du sowieso wieder die goalposts verschiebst.

Total lächerlich einen Fakt abzustreiten mit der Begründung, dass sich Dinge in Zukunft ändern können. X-D
Ach ne was du nicht sagst - alles kann und nichts muss.

prinz_valium_2
2023-11-07, 10:07:31
4070TI Super für $499 wäre doch ne gute Karte.
Who am I kidding.

Aber so kann man wenigstens auf die 5000er Serie warten und dann die 4000er Super im Abverkauf kaufen, falls sich die Preise immer noch nicht normalisiert haben.

Mit dem Super refresh sind die Karten im mittleren Performance Segment endlich wieder respektabel. Bei der 4000er war ja nur die 4090 eine gute Karte. Aber da ist die barrier to entry einfach viel zu hoch für viele.

DrFreaK666
2023-11-07, 10:19:37
... Mit dem Super refresh sind die Karten im mittleren Performance Segment endlich wieder respektabel...

Wir wissen immer noch nicht wie teuer die Karten wirklich werden

dildo4u
2023-11-07, 10:48:04
4070TI Super für $499 wäre doch ne gute Karte.
Who am I kidding.

Aber so kann man wenigstens auf die 5000er Serie warten und dann die 4000er Super im Abverkauf kaufen, falls sich die Preise immer noch nicht normalisiert haben.

Mit dem Super refresh sind die Karten im mittleren Performance Segment endlich wieder respektabel. Bei der 4000er war ja nur die 4090 eine gute Karte. Aber da ist die barrier to entry einfach viel zu hoch für viele.

Die 4070 wird weiter verkauft, 700€ sind logsich für die Super.
Da sie genau zwischen 7800xt und 7900xt landen wird.

Die TI soll 16GB haben was sie unbezahlbar macht.(Siehe 4060 Ti 16GB)

TheAntitheist
2023-11-07, 21:26:58
Die 4070 wird weiter verkauft, 700€ sind logsich für die Super.
Da sie genau zwischen 7800xt und 7900xt landen wird.

Die TI soll 16GB haben was sie unbezahlbar macht.(Siehe 4060 Ti 16GB)
ganz schlechter Vergleich, wenn eine 4070XYZ 16GB bekommen soll, dann wird das ein AD103 sein müssen wegen dem Speicherinterface, ergo muss sie natürlich schon deutlich teurer werden.

][immy
2023-11-07, 22:20:08
Gibt es eigentlich einen Grund warum nicht mal die Top Modelle pcie 5 nutzen?
Mittlerweile ist es schon länger verfügbar, aber es ist nichts an Markt verfügbar.
Klar ist es ein Nischenfeature und bringt vermutlich noch weniger als der minimale Sprung von Version 3 auf 4. Aber nicht mal im Enthusiasten Bereich...

Raff
2023-11-07, 22:22:58
Mein Guess: In Zeiten stagnierender Fertigung überlegen die Ingenieure zweimal, was sie implementieren. Denn auch ungenutztes Zeugs braucht Transistoren und kleinere Chips sind günstiger als größere. Das war zwar schon immer so, aber früher konnte man eben ständig schrumpfen.

MfG
Raff

][immy
2023-11-07, 22:25:19
Mein Guess: In Zeiten stagnierender Fertigung überlegen die Ingenieure zweimal, was sie implementieren. Denn auch ungenutztes Zeugs braucht Transistoren und kleinere Chips sind günstiger als größere. Das war zwar schon immer so, aber früher konnte man eben ständig schrumpfen.

MfG
Raff
Vollkommen klar, aber nicht mal die Karten im 4 stelligen Bereich mit Traummarge...

Raff
2023-11-07, 22:27:49
Spitzer Stift vs. absolute Größe -> Kosten-Nutzen-Rechnung sagt nein. Aber ist bloß ins Blaue geraten. Die kommenden Dinger werden das bestimmt haben. Ich hoffe ja, dass Intel mit Battlemage den Anfang macht, das wäre spannend.

MfG
Raff

Exxtreme
2023-11-07, 22:47:02
Die haben bestimmt Tests gefahren. Und wenn PCIe5 keinerlei nenneswerte Vorteile bringt dann lässt man es weg.

basix
2023-11-07, 22:48:15
Sogar AMD mit einer eigenen PCIe 5.0 Plattform hat kein PCIe 5.0 auf den dGPUs. Machte wohl keinen Sinn.

Leonidas
2023-11-08, 13:02:05
Aus Performance-Gründen würde man PCIe 5.0 wohl mitnehmen, selbst wenn der Gewinn nur minimal ist. Aber es kostet satt Strom - und ist damit eine recht ineffiziente Performance-Maßnahme. Die höhere Datenrate von PCIe 5.0 gibt es schlicht nicht umsonst.

y33H@
2023-11-08, 13:07:12
Braucht PCIe Gen5 mehr Energie auch wenn die höhere Geschwindigkeit vs Gen4 gar nicht genutzt wird?

basix
2023-11-08, 14:10:27
Sollte eigentlich nicht. PCIe 5.0 benutzt wie PCIe 4.0 noch NRZ (PCIe 6.0 geht auf PAM4) und wenn man die Frequenz runterdreht, nehmen die dynamischen Verluste entsprechend ab.

PCIe 5.0 Controller sind evtl. etwas komplexer, sollte aber nicht viel ausmachen verglichen mit den PHY.

Tesseract
2023-11-08, 17:28:54
ihr interpretiert da zu viel rein. die PCIe-logik ist weitgehend unabhängig vom rest des chips, eine weitere potenzielle fehlerquelle und relativ performanceunkritisch, ergo geringe priorität beim chipdesign. ist bei display engines, memory controllern usw auch so.

dildo4u
2023-11-10, 08:23:27
4090 soll erstmal verschwinden bis sie außerhalb von China produzieren können.


W5K8GM2fNDM

gnomi
2023-11-10, 09:50:08
Klingt alles soweit einleuchtend und erinnert an Turing.
Hätte trotzdem gerne noch die 4080TI gesehen.
4080 (Super) ist jetzt auch nicht so schnell, wenn PT ins Spiel kommt...

HOT
2023-11-10, 10:03:03
Ob die 4070 mit 6X-RAM dann auch EOL geht? Soll ja stattdessen eine GDDR6-Variante kommen. Würde zu einem Preiscut Richtung $500 passen.

4080S -> $999
4070TIS -> $849
4070S (de facto 4070Ti Preissenkung) -> $649
4070 G6 -> $500-550

Die XTX wird sich dann auch auf $850 begeben, das ist der richtige Wettbewerber dafür.

dildo4u
2023-11-10, 11:03:01
Ob die 4070 mit 6X-RAM dann auch EOL geht? Soll ja stattdessen eine GDDR6-Variante kommen. Würde zu einem Preiscut Richtung $500 passen.

4080S -> $999
4070TIS -> $849
4070S (de facto 4070Ti Preissenkung) -> $649
4070 G6 -> $500-550

Die XTX wird sich dann auch auf $850 begeben, das ist der richtige Wettbewerber dafür.

NV wird nicht draufzahlen wenn man den selben Speed mit GDDR6 bekommen kann es wurde eher über produziert daher gab es z.b die 3060 TI mit GDDR6X.

HOT
2023-11-10, 12:59:34
NV wird nicht draufzahlen wenn man den selben Speed mit GDDR6 bekommen kann es wurde eher über produziert daher gab es z.b die 3060 TI mit GDDR6X.

Der Speicher, den die 3060Ti bekommen hat ist eine völlig andere Baustelle :freak:, ich hab aber 0 Bock dir das jetzt zu erklären. Wenn NV billiger 18GT G6 kaufen kann statt teureren 6X ist das durchaus ne Überlegung, die die anstellen werden ;).

dildo4u
2023-11-10, 13:25:54
Yields werden mit der Zeit besser GDDR6X ist alte Technologie, eine 4070 braucht keine Top Spec (24GBPS) kann also den Ausschuss nutzen.
Wenn alle neuen Chips aus 2023 nicht minimal 21 GBPS schaffen läuft massiv was falsch.
Auf der 3060 TI läuft der Speicher so langsam weil sie ein 256 Bit Interface hatte das hat nicht zwangsweise mit der Qualität der Chips zu tun.


21 GPBS war Stand 2020.

https://www.tomshardware.com/news/micron-reveals-gddr6x-details-the-future-of-memory-or-a-proprietary-dram

Der_Korken
2023-11-10, 13:33:43
So dumm das in diesen Preisgefilden klingt, aber es wäre erfreulich, wenn sich preislich endlich mal was am Markt tut. Die 4070Ti S wäre eine leicht langsamere 4080 mit vollen 16GB VRAM. Für 850$ ist das schon deutlicher mehr P/L als die 1200$ der 4080. Ich hätte Nvidia auch zugetraut den AD103 wenigstens noch auf 14 oder gar 12GB zu beschneiden, damit die Spieler auch ja kein Byte zu viel VRAM bekommen.

dildo4u
2023-11-10, 13:42:02
Ohne 16 GB kann man die 7900XT nicht irrelevant machen.
Bin gespannt ob AMD die wirklich für 700€ verkaufen will um zumindest die schon produzierten abzusetzen.

Leonidas
2023-11-10, 13:47:06
4080S -> $999
4070TIS -> $849
4070S (de facto 4070Ti Preissenkung) -> $649
4070 G6 -> $500-550

Sieht mir ein wenig zu schön aus, um wahr zu sein. Ich denke, es läuft eher so:
4080S -> $1199
4070Ti-S -> $899
4070S -> $699
4070-G6 -> $549
... wobei die 4070S nicht wirklich die Performance der 4070Ti erreicht.

dildo4u
2023-11-10, 13:53:49
1200 machen nur Sinn wenn die 4090 nicht wieder kommt fand das interessant selbst 200$ über MSRP ist die 4090 ok was Preis/Leistung angeht.


H_0kOogEXwA

horn 12
2023-11-10, 13:56:52
AMD wird alles in etwa so belassen wie bisher wenn man schon die 7900 GRE für 610 Euro zu kaufen bekommt.

https://giosatech.com/it/schede-video/53690-karta-graficzna-xfx-radeon-rx-7900-gre-gaming-16gb-gddr6-3-fan-840191502415.html

PS:
Versenden sogar nach Deutschland, Spanien, Frankreich, Portugal, Italien

Altehardware
2023-11-10, 14:29:12
wo bleibt meine rtx4060 super 38sm 12gb für 380$/420€ 180w
Alles andere braucht einfach zu viel Strom

Langlay
2023-11-10, 14:40:22
Alles andere braucht einfach zu viel Strom

Undervolting ist das Stichwort, dann saufen die Ada Karten im Vergleich zu den AMD Karten gefühlt fast garnichts. Also 100W weniger sind schon drin im Maximum (bei den größeren Karten).

YeahBuoy!
2023-11-10, 14:45:09
Ob die 4070 mit 6X-RAM dann auch EOL geht? Soll ja stattdessen eine GDDR6-Variante kommen. Würde zu einem Preiscut Richtung $500 passen.

4080S -> $999
4070TIS -> $849
4070S (de facto 4070Ti Preissenkung) -> $649
4070 G6 -> $500-550

Die XTX wird sich dann auch auf $850 begeben, das ist der richtige Wettbewerber dafür.

Selbst als Nettopreise fände ich das überraschend günstig sollte es so kommen. Derzeit kriegt man bspw. die reguläre 4080 für rund 1200 €. Vielleicht kommt man irgendwann Richtung Juli-August 2024 in diese Preisregionen, je nachdem wie stark die Nachfrage tatsächlich geht.

AMD ist mit der derzeit billigsten XTX bei 805€ netto / 959 € brutto (https://geizhals.de/asrock-radeon-rx-7900-xtx-phantom-gaming-oc-a2863475.html?hloc=at&hloc=de) gar nicht so weit von der 850er Marke entfernt, aber ob die AIBs bzw. Handel nochmal 90€ an Marge auf absehbare Zeit abdrücken wollen bezweifle ich aktuell.

TheCounter
2023-11-10, 15:02:04
Undervolting ist das Stichwort, dann saufen die Ada Karten im Vergleich zu den AMD Karten gefühlt fast garnichts. Also 100W weniger sind schon drin im Maximum (bei den größeren Karten).

Jop, meine 4090 braucht gerade mal 80W mehr als meine 3080 (320W zu 240W), hält sich also wirklich in Grenzen.

basix
2023-11-10, 15:21:48
1200 machen nur Sinn wenn die 4090 nicht wieder kommt fand das interessant selbst 200$ über MSRP ist die 4090 ok was Preis/Leistung angeht.
Selbst als Nettopreise fände ich das überraschend günstig sollte es so kommen. Derzeit kriegt man bspw. die reguläre 4080 für rund 1200 €. Vielleicht kommt man irgendwann Richtung Juli-August 2024 in diese Preisregionen, je nachdem wie stark die Nachfrage tatsächlich geht.

Achtung: Preis Rant incoming ;)
Die 4090 war noch nie wirklich OK bei P/L ;) Selbst 1500.- waren sehr viel Geld. Nur weil eine 4080 so schlecht bezüglich P/L ist, macht das nicht automatisch eine 4090 zu einem Produkt mit gutem P/L. Nur um mal zu vergleichen: Vor Turing kostete das Spitzenmodel abgesehen von Titanen <800.-. Und eigentlich ist die 4090 eine 4080 Ti nach dem Schema von früherTM. AD103 ist deutlich kleiner als GP102, TU102/TU104/TU106(!) & GA102 und leicht kleiner wie GA104. Und hat eine MSRP von 1200$. 16 GByte hin oder her: Nicht gutes P/L.

Heute wird schon "gefrohlockt", dass man beim 2. schnellsten Modell (mit deutlich kleinerem, 2. grössten Chip) <1000.- sehen könnte (4080 Super). Soweit haben sie uns also schon gebracht, dass wir uns so an solche Preise gewöhnt haben. Eine 4090 für 1000.-, das wäre eine Ansage ;)

Ich habe nichts gegen hohe Preise, wenn der Gegenwert stimmt. Nur haben die Preise die letzten 5-7 Jahre deutlich stärker angezogen als der Gegenwert. Jetzt kann man sagen: Ist fast überall so. Das macht den Sachverhalt aber auch nicht besser. Die von MLID kolportierten Preise sind OK und diese Produkte hätte man so bei 40er Release sehen sollen. Dann wäre das noch vertretbar gewesen. 1000.- für eine 4080S wäre verglichen zu einer 3080 10GB zu MSRP dennoch ein Stillstand bezüglich P/L gewesen (+50% Performance/Speicher bei +50% Preis).

Troyan
2023-11-10, 15:28:15
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=85962&stc=1&d=1699626594
https://www.purepc.pl/test-wydajnosci-alan-wake-ii-wysokie-wymagania-ale-grafika-rewelacyjna-prawdziwy-next-gen-potrzebuje-mocnego-sprzetu?page=0,19

1,7x teurer, 4x mehr Leistung als die 7900XTX. Die 4090 ist endlich mal wieder wirklich richtiges High-End.

robbitop
2023-11-10, 15:36:12
Ja geil fettige 46 fps mit einer bald 2000€ GPU :up:
Das sind richtig geile Zeiten

Troyan
2023-11-10, 15:41:28
Ja, 46 FPS mit Grafik, die unerreicht ist. Das ist High-End. Deswegen kauft man High-End.

Tesseract
2023-11-10, 15:47:04
Vor Turing kostete das Spitzenmodel abgesehen von Titanen <800.-. Und eigentlich ist die 4090 eine 4080 Ti nach dem Schema von früherTM.


nicht wirklich. titan ist nix anderes als ein marketingname. wenn man karten in... nennen wir es mal "hardwarekomplexitätsklassen" (chipgröße im verhältnis zum node) einteilt ist die einzige andere consumerkarte neben der 4090 die titan V. GA102 ist klar darunter, TU102 auch. GP102 eher sogar zwei klassen.

Troyan
2023-11-10, 15:58:31
Wobei TU102 mit 750mm^2 eigentlich etwas ist, was niemand dachte, wäre möglich zu produzieren. Das finde ich auch High-End.

Exxtreme
2023-11-10, 16:05:45
Naja, eher Faktor 1,85 teurer. Die Preise für die RTX 4090 sind wieder ordentlich nach oben gegangen. Und ja, Radeon-Besitzer können dieses Spiel nur aussitzen. ;D

YeahBuoy!
2023-11-10, 16:28:34
Achtung: Preis Rant incoming ;)
Die 4090 war noch nie wirklich OK bei P/L ;) Selbst 1500.- waren sehr viel Geld. Nur weil eine 4080 so schlecht bezüglich P/L ist, macht das nicht automatisch eine 4090 zu einem Produkt mit gutem P/L. Nur um mal zu vergleichen: Vor Turing kostete das Spitzenmodel abgesehen von Titanen <800.-. Und eigentlich ist die 4090 eine 4080 Ti nach dem Schema von früherTM. AD103 ist deutlich kleiner als GP102, TU102/TU104/TU106(!) & GA102 und leicht kleiner wie GA104. Und hat eine MSRP von 1200$. 16 GByte hin oder her: Nicht gutes P/L.

Heute wird schon "gefrohlockt", dass man beim 2. schnellsten Modell (mit deutlich kleinerem, 2. grössten Chip) <1000.- sehen könnte (4080 Super). Soweit haben sie uns also schon gebracht, dass wir uns so an solche Preise gewöhnt haben. Eine 4090 für 1000.-, das wäre eine Ansage ;)

Ich habe nichts gegen hohe Preise, wenn der Gegenwert stimmt. Nur haben die Preise die letzten 5-7 Jahre deutlich stärker angezogen als der Gegenwert. Jetzt kann man sagen: Ist fast überall so. Das macht den Sachverhalt aber auch nicht besser. Die von MLID kolportierten Preise sind OK und diese Produkte hätte man so bei 40er Release sehen sollen. Dann wäre das noch vertretbar gewesen. 1000.- für eine 4080S wäre verglichen zu einer 3080 10GB zu MSRP dennoch ein Stillstand bezüglich P/L gewesen (+50% Performance/Speicher bei +50% Preis).

Oh, von frohlocken kann keine Rede sein. Ich glaube eher das MLID bzw. HOT eher optimistische Annahmen bzgl. des Preis haben und das NV vermutlich höhere Beträge aufrufen wird.

iamthebear
2023-11-10, 23:57:38
Die 4090 ist keine Titan, sondern so stark beschnitten, dass man sie schon eher mit einer 3080 vergleichen kann. Nur weil Nvidia sich aus taktischen Gründen den Release von Full AD102 macht das die 4090 nicht besser.

Die 4080 hat 1.9x weniger SMs als das Topmodell. Das entspricht einer 3070 sowohl was die Relation zum Topmodell angeht als auch was sämtliche andere Daten angeht: Die size, Speicherinterface, Energieverbrauch (wenn man die TDP nicht künstlich hochschraubt). Das ist eine Preissteigerung von 2.4x und selbst die 500 Euro für die 3070 waren schon nicht unbedingt der Knaller. Früher hat man um 500 Euro das Topmodell bekommen.

Es wäre jedoch unfair Nvidia alleine die ganze Schuld daran zu geben. Es ist jeder in der Lieferkette, der sich deutlich höhere Margen genehmigt als früher. TSMC lässt sich ihre mittlerweile 3 Jahre alte 5nm Fertigung auch vergolden genauso wie ASML ihre EUV Systeme, die die Investitionskosten so stark treiben.

Das Problem ist einfach, dass es hier nur mehr jeweils ein Unternehmen gibt, das technisch und preislich konkurrenzfähige Produkte herstellen kann und die nützen das natürlich auch.

basix
2023-11-11, 00:23:35
nicht wirklich. titan ist nix anderes als ein marketingname. wenn man karten in... nennen wir es mal "hardwarekomplexitätsklassen" (chipgröße im verhältnis zum node) einteilt ist die einzige andere consumerkarte neben der 4090 die titan V. GA102 ist klar darunter, TU102 auch. GP102 eher sogar zwei klassen.

"hardwarekomplexitätsklassen" ist wohl eine sehr eigenartig definierte Grösse ;)

Titan habe ich ausgeklammert, weil es immer den grössten Chip mit normalem Salvage Grad als "normale" Karte gab (780, 980 Ti, 1080 Ti, 2080 Ti). Performance Unterschied war meistens sehr gering. Das ist ganz anders als bei AD103 und AD102.

Und wieso sollten die oben genannten Chips so weit unter AD102 liegen? Bei GP102 gebe ich dir so halb recht, die anderen waren aber beide grösser als AD102 und auch im mehr oder minder neuesten verfügbaren Node. TU102 blieb auf dem "selben" Prozess wie GP102, war aber viel grösser und +25% grösser als AD102. Die 4090 ist ganz klar keine Titan V, dazu ist man zu weit weg vom Reticle Limit ;)

Sunrise
2023-11-11, 09:31:11
Ja geil fettige 46 fps mit einer bald 2000€ GPU :up:
Das sind richtig geile Zeiten
Man merkt, dass Gaming trotz massenhafter Marktdurchdringung am PC wiedermal zum Luxus-Gut verkommen ist.

Das Thema wiederholt sich immer wieder und es kommt mir so vor, als wären das wieder Vobis und Escom-Zeiten, wo man für sowas 4.000-5.000 DM auf den Tisch legen musste.

Macht keinen Spaß und lässt nur noch mehr Leute Richtung Konsole abwandern.

Jupiter
2023-11-11, 09:43:13
Der Konsument muss nicht in den höchsten Einstellungen spielen. Ich finde es klasse wenn Spiele heutzutage wie Crysis damals auch auf die Zukunft ausgelegt werden. Zumal 2000 Euro im Vergleich zu den Kosten anderer Freizeitaktivitäten nicht so viel ist. Bei Lautsprechern ist man für 2000 Euro das Stück in der Mittelklasse. High-End-Projektoren gibt es ab etwa 15 000 Euro.

Fragman
2023-11-11, 10:36:29
lässt nur noch mehr Leute Richtung Konsole abwandern.

Was nicht nötig wäre wenn diese PC Spieler ihre Einstellungen entsprechend den Konsolen wählen würden.
Das wissen wir nicht erst sein Alan Wake 2. ;)

Platos
2023-11-11, 12:17:13
Was nicht nötig wäre wenn diese PC Spieler ihre Einstellungen entsprechend den Konsolen wählen würden.
Das wissen wir nicht erst sein Alan Wake 2. ;)

Ein schlechtes Argument, da die Preise für Grafikkarten ganz klar massiv teurer wurden die letzten Jahre. Es geht um das P/L, dass am PC immer schlechter wird. Natürlich kann man Regler bedienen, aber die Hardwareanforderung steigt immer weiter und die Preise dazu auch.

Ergo könnten immer mehr Leute auf Konsole abwandern.

Tesseract
2023-11-11, 12:44:06
Bei GP102 gebe ich dir so halb recht, die anderen waren aber beide grösser als AD102 und auch im mehr oder minder neuesten verfügbaren Node.

es geht nicht darum ob es der neueste node ist sondern um so dinge wie preis pro mm². ein 5nm chip mit z.B. 600mm² ist ein ganz anderes kaliber als 12nm mit 600mm².

in der vergangenheit gab es mehrmals den fall wo eine consumerkarte in neue größen vorgedrungen ist die einfach keinen vergleichbaren vorgänger hatte, z.B. 8800GTX, 2013 Titan, 2080Ti und Titan V. ob und wieviel davon salvage ist spielt eher eine untergeordnete rolle, diese chips waren produktionstechnisch einfach wesentlich komplexer als alles davor.

AffenJack
2023-11-11, 12:47:57
Die 4090 ist ganz klar keine Titan V, dazu ist man zu weit weg vom Reticle Limit ;)

Nimmst du Produktionskosten, könnte eine 4090 sogar über der Titan V liegen. Diesize ist bei fortgeschrittenen Nodes überhaupt kein Argument mehr, da die Waferkosten massiv steigen im Vergleich zu früher.
Nvidia sollte wirklich die 4090/AD102 streichen und dann können die Leute zufrieden sein und ihr Ego streicheln, dass sie die größte GPU haben.

Ein schlechtes Argument, da die Preise für Grafikkarten ganz klar massiv teurer wurden die letzten Jahre. Es geht um das P/L, dass am PC immer schlechter wird. Natürlich kann man Regler bedienen, aber die Hardwareanforderung steigt immer weiter und die Preise dazu auch.

Ergo könnten immer mehr Leute auf Konsole abwandern.

Und wo ist das bei Konsolen anders?

Ne PS4 wurde nach 2 Jahren Ende 2015 auf 350€ gesenkt. Ne PS5 kostet hier 550€ und damit 50€ als bei Release nach 3 Jahren, statt dass der Preis runterging. Nach gleicher Lebensdauer sind wir also bei 60% Preissteigerung. Für dei PS5 Pro werden sogar 599-699$ spekuliert, dann sind wir bei 650-750€.

Sardaukar.nsn
2023-11-11, 12:52:05
Ein schlechtes Argument, da die Preise für Grafikkarten ganz klar massiv teurer wurden die letzten Jahre. Es geht um das P/L, dass am PC immer schlechter wird. Natürlich kann man Regler bedienen, aber die Hardwareanforderung steigt immer weiter und die Preise dazu auch.

Ergo könnten immer mehr Leute auf Konsole abwandern.

Als ich in den 90ern mit dem PC anfing waren die Preise bei Vobis, Escom und co aber auch mehr als ordentlich. Gefühlt musste man auch oft für neue Spiele aufrüsten. Also damals™ alles besser/günstiger kann ich nicht unbedingt mitgehen.

Exxtreme
2023-11-11, 12:56:38
Als ich in den 90ern mit dem PC anfing waren die Preise bei Vobis, Escom und co aber auch mehr als ordentlich. Gefühlt musste man auch oft für neue Spiele aufrüsten. Also damals™ alles besser/günstiger kann ich nicht unbedingt mitgehen.

Das Problem sind ausschließlich die Grafikkarten. Die sind so ziemlich die einzige Komponente wo das P/L-Verhältnis immer schlechter wurde. Bei RAM, SSDs, CPUs etc. ist das überhaupt nicht zu beobachten. Intel hatte schon CPUs, die kosteten 1000 EUR. Wenn man die Inflation berücksichtigt dann wäre man jetzt bei 1500 EUR.

Linmoum
2023-11-11, 13:05:39
Grafikkarten sind auch bei weitem die einzige Komponente, bei denen die Produktionskosten massiv höher liegen im Vergleich zu früher. Sich stumpf über irgendwelche Preise oder P/L zu beschweren, ohne das näher zu beleuchten, ist naiv und auch nicht zielführend.

XSX und PS5 sind mittlerweile seit 3 Jahren erhätlich. Statt die Preise zu senken, haben Sony und Microsoft den Preis sogar erhöht. P/L bei Konsolen ist also über die Jahre schlechter geworden. Was eigentlich überhaupt nicht der Fall sein dürfte, da die Produktionskosten hier nach unten gehen. Konsolenspieler werden hier also (auch) aktuell mit der Zeit abgezockt.

Edgecrusher86
2023-11-11, 13:12:21
Das Problem sind ausschließlich die Grafikkarten. Die sind so ziemlich die einzige Komponente wo das P/L-Verhältnis immer schlechter wurde. Bei RAM, SSDs, CPUs etc. ist das überhaupt nicht zu beobachten. Intel hatte schon CPUs, die kosteten 1000 EUR. Wenn man die Inflation berücksichtigt dann wäre man jetzt bei 1500 EUR.

Wie sieht es mit MoBos aus? :freak:
Gerade seit 2020 und Z490 sind die Preise unverhältnismäßig angezogen.

Tesseract
2023-11-11, 13:18:03
klar gibt es die steigerungen bei CPUs auch, siehe threadripper. diese produktklassen sind für spiele halt nicht so relevant weil sie nicht skalieren wie GPUs aber in workloads die mit CPU-cores so gut skalieren wie spiele mit GPUs gab es auch hier massive komplexitätssteigerungen.

P/L wurde, abgesehen von crypto- und coronashortages, btw. nie schlechter. am ehesten noch von pascal auf turing weil wie anfangs features brach lagen aber dafür hat sich turing über die jahre viel besser entwickelt.

The_Invisible
2023-11-11, 13:18:40
Das Problem sind ausschließlich die Grafikkarten. Die sind so ziemlich die einzige Komponente wo das P/L-Verhältnis immer schlechter wurde. Bei RAM, SSDs, CPUs etc. ist das überhaupt nicht zu beobachten. Intel hatte schon CPUs, die kosteten 1000 EUR. Wenn man die Inflation berücksichtigt dann wäre man jetzt bei 1500 EUR.

Das war aber HEDT, die Mainstream waren höchstens bei 350-400, von daher auch schöne Steigerung.

basix
2023-11-11, 13:30:18
es geht nicht darum ob es der neueste node ist sondern um so dinge wie preis pro mm². ein 5nm chip mit z.B. 600mm² ist ein ganz anderes kaliber als 12nm mit 600mm².

in der vergangenheit gab es mehrmals den fall wo eine consumerkarte in neue größen vorgedrungen ist die einfach keinen vergleichbaren vorgänger hatte, z.B. 8800GTX, 2013 Titan, 2080Ti und Titan V. ob und wieviel davon salvage ist spielt eher eine untergeordnete rolle, diese chips waren produktionstechnisch einfach wesentlich komplexer als alles davor.

Dann ist deine "Hardwarekomplexitätsklasse" aber was anderes. Du sagtest "Chipgrösse im Verhältnis zum Node". Das ist eine rein technologische Definition. Und diese muss man dann auch normiert auf den Node zur jeweiligen Zeit sehen. Dass neue Chips in neuen Nodes generell komplexer (=mehr Transistoren) sind ist völlig normal. Komplexer anhand Chipgrösse, Transistorzahl, Node und Herstellung zur gegebenen Zeit ist was anderes. Zum Beispiel N24 ist viel, viel komplexer als G80 (8x mehr Transistoren). Dennoch war G80 zu seiner Zeit sicher komplexer im Relativ-Vergleich.

Dazu: Preise & Kosten sind was ganz anderes. Das ist einfach Geld und hat mit "Komplexität" rein gar nichts zu tun. Kosten pro mm2 steigen sicher und "muss" man berücksichtigen. Wenn man sich aber ein wenig in die Details einliest, sind die Grafikkarten-Preise deutlich stärker gestiegen als die Herstellungskosten. Kannst ja mal Nvidia Geschäftsergebnisse heute mit 2018 oder 2013 vergleichen (und rein auf Client GPUs bezogen, ohne Datacenter). Die Margen sind enorm gestiegen. Das freut die Aktionäre, nicht aber den Gamer. Ich habe das für mich so gelöst: Ich bin selbst Aktionär geworden. Gestiegene Preise kann ich durch das locker kompensieren. Die Lösung des Grundproblems ist das aber nicht, nur eine Kompensation.

Nimmst du Produktionskosten, könnte eine 4090 sogar über der Titan V liegen. Diesize ist bei fortgeschrittenen Nodes überhaupt kein Argument mehr, da die Waferkosten massiv steigen im Vergleich zu früher.
Inkl. HBM var Titan V sicher nicht günstiger ;)

Auf den "nackten" Chip gesehen: Vielleicht. Nimmt man geometrischen Yield zur Grundlage, yielded AD102 ~1.8x besser als GV100. GV100 hat also 1.8x schlechtere Yields bei 1.3x grösserem Die. Da kann N4 vs. 12nm 2x teurer sein bei iso-chip-size und GV100 wäre immer noch teurer ;)

Nvidia sollte wirklich die 4090/AD102 streichen und dann können die Leute zufrieden sein und ihr Ego streicheln, dass sie die größte GPU haben.
Ego ist doch völlig egal. Das schlechte P/L zieht sich ja durch den ganzen Produktstack. Und wer mit 30y+ bezüglich Sinnhaftigkeit einer Produktanschaffung sein Ego nicht im Griff hat, sollte zuerst mal daran arbeiten ;)

Zumal 2000 Euro im Vergleich zu den Kosten anderer Freizeitaktivitäten nicht so viel ist. Bei Lautsprechern ist man für 2000 Euro das Stück in der Mittelklasse. High-End-Projektoren gibt es ab etwa 15 000 Euro.
Solche Vergleiche sind sinnlos. Wer sich so teuere Lautsprecher und Projektoren anschafft, ist eine kleine und sehr spezifische Zielgruppe. Ein 0815 Gamer kann auch der Schüler, Student, Handwerker, alleinerziehender Elternteil usw. sein. Die haben schlichtweg nicht zu viel Geld übrig. Wie gesagt: P/L ist im gesamten Produktstack daneben, nicht nur bei der 4090. Die 4090 ist nur das Vehikel, damit man alles darunter nach oben ziehen kann. Die 4090 bekommt den "Shitstorm" ab, weil halt teuerst Karte. Unten rum sagt man dann: Ach, 4070 Ti für 800+ Euro ist doch voll OK -> Weil der Referenzpunkt der teuersten Karte deutlich nach oben gerutscht ist (2000.- anstatt 1000.-)

Exxtreme
2023-11-11, 13:47:38
Das war aber HEDT, die Mainstream waren höchstens bei 350-400, von daher auch schöne Steigerung.

Das waren keine HEDT-CPUs sondern stinknormale überteuerte Pentiums. Damals war AMD aber auch ziemlich schwach.

dildo4u
2023-11-11, 13:51:29
Wenn 4090 verschwindet kann NV die 5090 als 2000€ GPU vermarkten und hätte vermutlich die selbe Preis/Leistung der 4080 Super.

Tesseract
2023-11-11, 19:57:53
Dann ist deine "Hardwarekomplexitätsklasse" aber was anderes. Du sagtest "Chipgrösse im Verhältnis zum Node". Das ist eine rein technologische Definition. Und diese muss man dann auch normiert auf den Node zur jeweiligen Zeit sehen.

das mache ich doch, aber das reticle limit ist wieder was anderes, das kann je nach prozess ungewöhnlich groß oder klein ausfallen. wenn der 700mm² chip im nächsten node bzgl. yield, kosten etc. in etwa einem 500mm² chip entspricht dann ist das der logische nachfolger. das ganze in klassen einzuteilen ist naheliegend weil es immer einen bestimmten chip gab der sich recht deutlich weiter nach oben orientiert hat und später kamen dann andere chips die in einem ähnlichen bereich lagen.

wie dem auch sei, die marketing-namensgebung hat oft wenig mit der tatsächlichen komplexität der chips zu tun.

iamthebear
2023-11-12, 19:24:21
Der Konsument muss nicht in den höchsten Einstellungen spielen. Ich finde es klasse wenn Spiele heutzutage wie Crysis damals auch auf die Zukunft ausgelegt werden. Zumal 2000 Euro im Vergleich zu den Kosten anderer Freizeitaktivitäten nicht so viel ist. Bei Lautsprechern ist man für 2000 Euro das Stück in der Mittelklasse. High-End-Projektoren gibt es ab etwa 15 000 Euro.

1.) Der Unterschied ist, dass Crysis damals komplett neue Maßstäbe in der Bildqualität gesetzt hat. Das war seiner Zeit wirklich mindestens 5 Jahre voraus.
Die Spiele, die heute so stark kritisiert werden sehen jedoch nicht besser aus als die vor 2 Jahren, die noch mit doppelter Framerate gelaufen sind. Man kann nicht behaupten, dass City Skylines neue Maßstäbe bei der Grafikqualität setzt.
Einzig Alan Wake 2 ist von der Grafik über dem Niveau der meisten Spiele von vor 2 Jahren aber dieses hat auch genug Probleme. Das AA von FSR2 ist grauenhaft, alles ist komplett verschwommen (hat nichts mit FSR2 zu tun), Texturen laden oft nur sehr langsam (mit 16GB VRAM) obwohl die Karten alle winzig sind und sich die Charaktere im Zeitlupentempo bewegen.

Das ist aber nicht nur ein PC Thema. Die aktuelle Konsolengeneration ist deutlich schneller als der Vorgänger und sollte bei gleicher Optimierung locker 4K60 schaffen. In der Praxis ist die Performance nicht besser als bei der Vorgängergeneration.

2.) Wenn ich über 700 Euro in eine GPU investiere, dann interessiert es mich nicht in 1080p zu spielen. Selbst die 1080 Ti vor über 6 Jahren war schon eine solide 1440p Karte, die 3080 und 6800 XT waren solide 4K Karten und as noch ohne DLSS/FSR.

3.) Das es andere Hobbies gibt, die auch teuer sind mag sein. Aber das ist so ein Argument wie "ein gutes Rennrad kostet 10K+ deshalb muss das Paar Laufschuhe jetzt auch mindestens 5K kosten".

dargo
2023-11-12, 20:24:15
Der Konsument muss nicht in den höchsten Einstellungen spielen. Ich finde es klasse wenn Spiele heutzutage wie Crysis damals auch auf die Zukunft ausgelegt werden. Zumal 2000 Euro im Vergleich zu den Kosten anderer Freizeitaktivitäten nicht so viel ist. Bei Lautsprechern ist man für 2000 Euro das Stück in der Mittelklasse.
Ich hoffe bloß du stellst dir den tollen Lautsprecher nicht ohne weitere Maßnahmen einfach so in den Raum mit den üblichen, vielen tollen Raummoden hin. X-D Aber um das mal aufzugreifen... gute Lautsprecher sind eine einmalige Investition. Die stelle ich hin und brauche die nie wieder ersetzen. Es sei denn die fallen aufgrund eines Defektes aus, was eher eine Seltenheit ist.

Leonidas
2023-12-06, 15:32:47
4090D is on track, with no delay.
More Spec:
Base clock 2280 (higher than 4090)
Boost clock 2520 (same as 4090)
https://twitter.com/Zed__Wang/status/1732299018443898966

dildo4u
2023-12-14, 13:30:31
Januar Launch Dates für die Super Serie.


https://videocardz.com/newz/nvidia-geforce-rtx-40-super-launch-scheduled-for-january-17-24-and-31-with-rtx-4070-super-leading-the-way

Leonidas
2023-12-14, 16:50:37
https://twitter.com/hms1193/status/1735278438116905383
https://pbs.twimg.com/media/GBTyigcasAAebh8?format=png

DrFreaK666
2023-12-16, 15:02:36
RTX 4080 SUPER vs RTX 4080: +3-5% Faster On Average
RTX 4070 Ti SUPER vs RTX 4070 Ti: +15% Faster On Average
RTX 4070 SUPER vs RTX 4070: +14% Faster On Average
https://wccftech.com/nvidia-embargo-geforce-rtx-4080-super-rtx-4070-ti-super-rtx-4070-super-launch-leak/

Die 4080 Super wird wohl eher ein Witz!?

Langlay
2023-12-16, 15:06:17
Die 4080 Super wird wohl eher ein Witz!?

Ja, war doch von Anfang an klar, was sollen 512 CUs (10240 CUvs. 9728 CU) mehr schon großartig reißen wenn die TDP auch noch gleich bleibt.

dildo4u
2023-12-16, 15:13:58
Und man kann sie in China verkaufen.

The_Invisible
2023-12-16, 15:39:35
Ist ja nichts neues und war bei der 2080 super schon so, beim Neukauf nimmt man halt die paar Prozent mehr Leistung mit

reaperrr
2023-12-16, 16:05:04
https://wccftech.com/nvidia-embargo-geforce-rtx-4080-super-rtx-4070-ti-super-rtx-4070-super-launch-leak/

Die 4080 Super wird wohl eher ein Witz!?
In Sachen Performance-Steigerung, ja.

Dafür sinkt hier halt der MSRP gegenüber dem Vorgänger recht deutlich (um 200$), Nvidia wird halt damit argumentieren, dass man ja etwas mehr Performance für deutlich weniger Geld bekommt.

Dass die 4070 TiS wahrscheinlich nur ~10% langsamer bei 15-20% niedrigerem Preis wird und die 4080S damit in Sachen P/L auch beim Refresh die schlechteste Karte ist, interessiert NV nicht so. Es geht mehr darum, dass die 4080S bei ähnlichem P/L-Verhältnis die 79XTX deutlich mehr unter Druck setzt.

Summa Summarum geht es NV wohl darum, gegen jede AMD-SKU eine Karte mit mindestens identischer Raster-Perf/$, besserer Effizienz und überlegenem RT zu platzieren, weil sie wissen, dass dann entweder keiner mehr AMD kauft oder AMD die Preise senken muss (wodurch speziell bei N31 dann vmtl. auch nicht mehr so wahnsinnig viel Marge übrig bleibt).

basix
2023-12-16, 20:13:19
Kleine Speku:
- 4070S = 499$
- 4070 TiS = 699$
- 4080S = 899$

Mit diesen Preispunkt hätte Nvidia ein gutes Angebot. Und dann wäre es eigentlich so, wie es bei Ada Release hätte sein sollen ;)

Für mich wäre vor allem die 4070S eine gute Karte. Für viele erschwinglich und in den meisten Fällen auf ähnlichem Niveau wie die Vorgänger-Generation-Spitze (~3080 Ti).

Denniss
2023-12-17, 11:53:00
Bei den Preisen ist aber eine gewaltige Menge Wunschdenken dabei - wird nicht passieren. NV war noch nie für günstige Preise bekannt

DrFreaK666
2023-12-17, 12:01:12
Kleine Speku:
- 4070S = 499$
- 4070 TiS = 699$
- 4080S = 899$


Sorry, aber da muss ich nur lachen :lol:
Die schnelleren Karten werden günstiger als die alten. Ganz bestimmt

basix
2023-12-17, 12:11:04
Bei den Preisen ist aber eine gewaltige Menge Wunschdenken dabei - wird nicht passieren. NV war noch nie für günstige Preise bekannt

Nein waren sie nicht. Aber: Nvidia verdient momentan 90% ihres Geldes im AI/ML Sektor, Ada ist 1 Jahr alt und komplett abgeschrieben (Kosten schon lange wieder eingespielt) und der Covid Effekt ist langsam vorbei. Unter dem Strich: Nvidia könnte es sich leisten, Gamer-GPUs etwas günstiger anzubieten und damit beim Kunden wieder als "der Gute" angesehen zu werden. Mindshare und so.

Aber stimmt schon. Nvidia ist nicht bekannt dafür, Margen liegen zu lassen ;)

AD104 in Form der 4070 gibt es bereits für ~550 Euro, wäre also hinsichtlich Marge mehr oder minder identisch mit der 4070S für 499$ / 550 Euro (selber Chip, selbe VRAM-Menge, Salvage). Die 4080 bleibt wie Blei in den Regalen liegen und hier muss man runter mit den Preisen, sonst kauft das schlicht niemand und man lässt AMD hier Freiraum (7900 XT/X). Und die 4070 Ti ist jetzt auch kein Verkaufsschlager. AD103 ist jetzt nicht so viel grösser als AD104 und VRAM ist deutlich im Preis gesunken. 1.4x Preis (699$ -> 499$) bei 1.29x Chipgrösse und 1.33x VRAM hört sich nach einer Margensteigerung verglichen mit der 4070/4070S an ;) Verglichen mit der 4070 Ti und 4080 wären die Margen kleiner aber wie gesagt: Das sind sich schlecht verkaufende SKUs, die GPUs sind 1 Jahr alt und Covid Effekte (teurere Bauteile) sind zu grossen Teilen weg. Jetzt geht es darum, die Volumen zu steigern (=unter dem Strich mehr Geld verdienen) und das geht nur mit günstigeren Preisen.

Sorry, aber da muss ich nur lachen :lol:
Die schnelleren Karten werden günstiger als die alten. Ganz bestimmt
Wie oben geschrieben: Diese Preispunkte sind nicht unbegründet. Erwarten kann es man sicher nicht, aber darauf hoffen. Ich hoffe für all jene, die sich eine GPU kaufen wollen und wegen den hohen Preisen nicht wollten oder konnten (ich bin eingedeckt). Oder sind alle hier schon so desillusioniert / pessimistisch, dass man nie mehr auf verbesserte Preispunkte hoffen kann? ;)

Edit:
Um das noch kurz abzurunden:

4070S = Gleicher Preis wie 4070 heute, ~1.15...1.2x schneller
4070TiS = Gleicher Preise iwe 4070 TI heute, ~1.1x schneller und 1.33x VRAM
4080S = 80% des Preises einer 4080 heute, ~1.05x schneller


So extrem gross sind die P/L Sprünge unter dem Strich also gar nicht. Bei den eher schlecht verkaufenden SKUs eher etwas besser, was allerdings auch logisch wäre, wenn man die verkaufen will.

dildo4u
2023-12-17, 12:29:26
4080 wird nicht verschwinden die geht eher auf 1k und mehr für Refresh.
Das Modell sah schlecht aus als es 4090 für 1700€ gab was nicht mehr der Fall ist.
Selbst mit Path Tracing in Alan Wake bringt sie max 40%+

w0mbat
2023-12-17, 12:32:59
Sorry, aber da muss ich nur lachen :lol:
Die schnelleren Karten werden günstiger als die alten. Ganz bestimmt
Ich glaube auch nicht, dass es so günstig wird, aber Nvidia wird auf jeden fall aggressiver bepreisen. Turing SUPER war auch nicht teurer bei mehr Leistung.

DrFreaK666
2023-12-17, 13:14:58
As Nvidia CEO Jensen Huang puts it "the idea that the chip is going to go down in cost over time, unfortunately, is a story of the past."

Wieso sollte er sich da plötzlich widersprechen? Die Karten werden gekauft, weil Nvidia drauf steht und "Nvidia schon länger dabei ist als AMD" (Das hat tatsächlich jemand behauptet)

Dampf
2023-12-17, 13:25:29
Sorry, aber da muss ich nur lachen :lol:
Die schnelleren Karten werden günstiger als die alten. Ganz bestimmt

Da kennst du aber Jensen nicht.

Denkst du, der Mann wacht jede Nacht ohne Grund schweißgebadet auf, in Sorge um Nvidia? Er weiß genau: der gute Ruf von Nvidia bei Gamern ist derzeit angeknackst, den wiederherzustellen wird ihm wichtiger sein, als Profit!

Ich habe Nächte durchgemacht, um mehr über die Person Jensen Hang in Erfahrung zu bringen und sei dir versichert: Besser wie ich, kennt den keiner.

Rechne mit mehr VRAM und einem massiven Price-Cut, den AMD-Fans zum Zittern bringen wird!

Von mir hast du es zuerst gehört.

dildo4u
2023-12-17, 13:34:36
Macht kein Sinn aggressiver zu sein ich glaube man sollte nicht Verkäufe in der EU als Maßstab nehmen.
Die 4080 out performt die 7900XTX deutlich, nur die 6700XT performt besser.
Wenn man nur Videos von Mores Law schaut möchte man meinen niemand hat jemals eine 4080 gekauft. :lol:


https://store.steampowered.com/hwsurvey/videocard/

DrFreaK666
2023-12-17, 13:45:40
In a moment of saying the quiet part out loud, Greg Estes, the vice president of corporate marketing at Nvidia, said: “[Jensen] sent out an email on Friday evening saying everything is going to deep learning, and that we were no longer a graphics company. By Monday morning, we were an AI company. Literally, it was that fast.”

Klingt echt so als würde er sich um Gamer Sorgen machen.

Lurtz
2023-12-17, 14:22:27
Was manche hier für Illusionen haben :ugly: Klar, nVidia mit einem Rekord-Quartal nach dem nächsten im Rücken wird auf ein paar Selbstbau-Gamer eingehen, die unzufrieden sind...

reaperrr
2023-12-17, 15:14:50
Kleine Speku:
- 4070S = 499$
- 4070 TiS = 699$
- 4080S = 899$
Sorry, aber da muss ich nur lachen :lol:
Die schnelleren Karten werden günstiger als die alten. Ganz bestimmt
Die 4080S ja, die anderen natürlich nicht.

Wie schon gesagt, NV will AMD an jedem Preispunkt das Wasser abgraben. Und die 4070 TiS wird zu schnell, als dass sie die 4080S für mehr als 200$ teurer anbieten könnten.

So wird das Line-Up bald aussehen:

4090 (außerhalb China) - 1389$ MSRP
4090D (China) - 1389$ MSRP
4080 Super - 999$ - 79XTX-Killer
4070 TiS - 849$ - 79XT-Killer
4070 Super - 649$ - 78XT-OC-/79GRE-Killer
4070 - 549$ - 77XT-OC/78XT-Ref-Killer
4060Ti-16G - 449$ - Kaufen die Leute trotz schwacher Leistung lieber als 77XT

Nvidia ist so viel populärer und bei Perf/W und RT sowie Upscaling-Qualität so weit vorn, dass das reicht.