Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
prinz_valium_2
2022-09-09, 15:13:03
Holy fuck. Die Preise.
https://twitter.com/harukaze5719/status/1568219143098494978?s=20&t=R96y_ArsYcxb7v5tYiOhVA
Habe mir gerade einen Ryzen 5 5600 für 150€ bei Ebay von Cyperport gekauft.
Ob es jemals wieder gute Mittelklasse GPUs für 150 bis 300€ geben wird?
Adam D.
2022-09-09, 15:36:46
Holy fuck. Die Preise.
https://twitter.com/harukaze5719/status/1568219143098494978?s=20&t=R96y_ArsYcxb7v5tYiOhVA
Habe mir gerade einen Ryzen 5 5600 für 150€ bei Ebay von Cyperport gekauft.
Ob es jemals wieder gute Mittelklasse GPUs für 150 bis 300€ geben wird?
Auf die Preise kannst du ungefähr so viel geben wie auf die Postings von vinacis_vivids. Das sind eindeutig Platzhalter, Nvidia wird wahrscheinlich selbst noch nicht die finale Preisgestaltung entschieden haben.
prinz_valium_2
2022-09-09, 16:07:32
Auf die Preise kannst du ungefähr so viel geben wie auf die Postings von vinacis_vivids. Das sind eindeutig Platzhalter, Nvidia wird wahrscheinlich selbst noch nicht die finale Preisgestaltung entschieden haben.
Final nicht. Aber Händler haben eine Ahnung und ein gutes Gespür.
Ergo werden die finalen Preise nicht plötzlich bei der Hälfte liegen.
War ja bei den geleakten AM5 X670e High-End Boards genauso.
Platos
2022-09-09, 16:08:39
Auf die Preise kannst du ungefähr so viel geben wie auf die Postings von vinacis_vivids. Das sind eindeutig Platzhalter, Nvidia wird wahrscheinlich selbst noch nicht die finale Preisgestaltung entschieden haben.
;D;D
Aber mal im Ernst:
1. Es ist quasi ne Titan und da können solche Preise durchaus aufgerufen werden.
2. Selbst bei solchen Preisen, hat das überhaupt gar keine Aussagekraft auf die kleineren Modelle.
Tomahawk
2022-09-09, 16:27:40
Der neue Preis der 3090 Ti ist für mich ein klares Indiz, wie die Preise der 4090 aussehen werden. Gut möglich, dass sie so viel teurer sein wird wie viel sie schneller sein wird. 2.000 Euro wäre mein Tipp. Es kann natürlich auch anders ausgehen: Es gab auch "günstige" Dickschiffe, z.B. 780 Ti / 980 Ti/ 1080 Ti.
Im Endeffekt hängt es aber davon ab, wie viele Karten nVidia verkaufen will (und produzieren kann).
BlacKi
2022-09-09, 16:30:04
Final nicht. Aber Händler haben eine Ahnung und ein gutes Gespür.
Ergo werden die finalen Preise nicht plötzlich bei der Hälfte liegen.
War ja bei den geleakten AM5 X670e High-End Boards genauso.
tatsächlich gabs shops, die die 3090ti für 5500 australische $ angeboten haben.
https://www.techradar.com/news/nvidia-rtx-3090-ti-price-is-leaked-but-surely-the-gpu-wont-be-this-expensive
wenn man also etwas reininterpretieren möchte, dann das die 4090 eine günstigere uvp haben wird, als die 3090ti zum release, welche 1999us$ betrug. ich halte 1799us$ nicht für ausgeschlossen. +- wird das schon hinkommen.
AffenJack
2022-09-09, 16:42:58
Der neue Preis der 3090 Ti ist für mich ein klares Indiz, wie die Preise der 4090 aussehen werden. Gut möglich, dass sie so viel teurer sein wird wie viel sie schneller sein wird. 2.000 Euro wäre mein Tipp. Es kann natürlich auch anders ausgehen: Es gab auch "günstige" Dickschiffe, z.B. 780 Ti / 980 Ti/ 1080 Ti.
Im Endeffekt hängt es aber davon ab, wie viele Karten nVidia verkaufen will (und produzieren kann).
Zu teuer, man hat ja oben noch Luft für den Vollausbau. Ich würde drauf wetten, dass ne 4090 das gleiche wie die 3090 kosten wird, also 1500$. Sind in deutschland dann allerdings 1800€ gerade.
ChaosTM
2022-09-09, 16:52:48
Hängt vieles von AMD und deren Leistung und Verfügbarkeit ab und wie viel NV noch auf Halde hat.
Ende September gibts vielleicht einen Paperlaunch mit ein paar Karten zu Mondpreisen (2k+), um die Situation auszuloten.
BlacKi
2022-09-09, 17:01:14
der erste drop zb. bei notebooksbilliger könnte karten zur uvp haben, danach denke auch ich, werden die preise hochgehen bis die karten per schiff da sind.
iamthebear
2022-09-09, 18:28:54
4090: 16384 Cores, 3,0Ghz ~ 98.3 Tflops fp32
20k Score bedeutet 5 Tflops pro 1k Score.
6900XT: 5120 SP, 2,8Ghz ~ 28.6 Tflops fp32
12,4k Score bedeutet 2,3 Tflops pro 1k Score.
Ada ist was Rasterizing angeht vermute ich auf dem Level der Vega uArch. Da wird dermaßen viel Energie für wenig Leistung verballert, das ist einfach nicht ökonomisch.
Vermutlich takten die Tensor-Cores/RT Cores auch beim Raster mit hoch und verballern zusätzlich Energie. Das ist einfach schwach. NV muss das Zeug, was nicht läuft einfach mal ausschalten.
Sorry aber Performance/TFlop ist eine der sinnlosesten Metriken, die es zum Vergleich von 2 GPU Architekturen gibt.
Was zählt ist Performance/mm² bzw. Performance/Transistor (falls fertigungsneutral betrachtet). Meinetwegen auch noch Performance/Watt wenn man die 2 GPUs am selben Punkt in der Taktkurve betrachtet.
Oder anders betrachtet. Was wäre wohl die bessere Variante:
a) 25% mehr Transistoren in eine Verdopplung der FP32 Einheiten investieren und damit 50% mehr Performance holen => Performance/TFlop sinkt um 25%.
b) Den FMA Support streichen => 5% weniger Transistoren, 20% weniger Performance aber 1.6x Performance/TFlop
Platos
2022-09-09, 19:20:56
Vor allem kann man TFLOPS nur innerhalb einer Generation eines Herstellers vergleichen. Alles andere ist einfach nur extrem laienhaft.
Aber ist ja auch kein Wunder, das ist V_V. Der kann nicht objektiv bleiben. Vorher lernen Schweine fliegen.
Rampage 2
2022-09-09, 19:54:03
Sorry aber Performance/TFlop ist eine der sinnlosesten Metriken, die es zum Vergleich von 2 GPU Architekturen gibt.
Ich halte Perf/TFlop schon für wichtig, weil es der primaere Indikator für die (In-)Effizienz eines SM (bzw. CU bei AMD) und damit für die (In-)Effizienz einer Mikroarchitektur ist. Ich haette lieber eine GPU, die die theoretische Leistung auch voll auf die Strasse bringt anstatt dass dieselbe Leistung nur 66% der theoretischen Leistung ist. Turing war die Kroenung bei Perf/TFlop (und auch bei Perf pro GB/sek. Bandbreite, was die Bandbreiteneffizienz angeht) und Ampere war da wieder ein deutlicher Rückschritt, also ineffizienter, weil nur 65-75% der theoretischen Rechenleistung auf die Strasse gebracht werden konnte - deswegen auch der Eindruck einer "Luftpumpe"; aehnlich wie Vega, nur nicht ganz so schlimm;)
Auch wenn es für die letztendliche Leistung vielleicht keine Rolle spielt, haette ich viel lieber eine effiziente GPU die die vorhandene Rohleistung auch entsprechend umsetzt, statt eine Luftpumpe.
Edit: Dasselbe gilt auch für CPUs;) (Stichwort Intel Pentium 4 oder AMD Bulldozer)
R2
Neurosphere
2022-09-09, 21:17:54
Für den Nutzer gibt es im Endeffekt nur drei wichtige Indikatoren,
Absolute Performance
Performance pro €
Performance pro Watt
Reihenfolge sei jedem selbst überlassen. Alles andere ist zwar eine schöne Zahlenspielerei und zeigt was möglich ist usw. usw., aber letzten Endes kaufe ich aus den drei Gründen oben.
ChaosTM
2022-09-09, 21:22:31
Performance/Fanboy ;)
ChaosTM
2022-09-09, 21:24:54
@ Neurosphere
wäre schön, aber spielts ned
Beispiel: NV hat die schnellste Karten when (mostly useless) RTX verfügbar ist
AMD: sucks, cos ist has not the above..
usw..
Platos
2022-09-09, 21:32:00
Für den Nutzer gibt es im Endeffekt nur drei wichtige Indikatoren,
Absolute Performance
Performance pro €
Performance pro Watt
Reihenfolge sei jedem selbst überlassen. Alles andere ist zwar eine schöne Zahlenspielerei und zeigt was möglich ist usw. usw., aber letzten Endes kaufe ich aus den drei Gründen oben.
Der Absolute Stromverbrauch wird auch noch den einen oder anderen interessieren. So als Ergänzung.
Dann natürlich noch so indirekte Dinge wie Lautstärke, Kühlbarkeit (obs drosselt use.)
ChaosTM
2022-09-09, 21:32:48
Was lernen wir daraus - Gar nichts. ;)
BlacKi
2022-09-09, 21:32:51
performance pro watt. wen interessiert das, abseits einiger nerds. aber cashual käufer sind sehr markengebunden, die kaufen sowieso irgendeine nv karte nach ihrem portmonee.
Nazar
2022-09-09, 21:40:45
DLSS zum 100 % kann ohne RTX verwendet werden. Ich kenne kein Spiel, bei dem dies nicht möglich ist.
Dazu viele Spiele haben DLSS und kein RTX.
Was ist so schwer endlich mal alles im Kontext zu lesen und zu verstehen. Wie kann man nur so einfältig sein? Hast du dir den Link überhaupt komplett angesehen und das was ich im Vorfeld dazu schrieb auch durchgelesen?
Offensichtlich ist es nicht mehr möglich, dass selbst kleinste Zusammenhänge so erkannt werden, wie sie zweifelsfrei beschrieben wurden.
Ich gehe hier davon aus, dass es ein gewisses Maß an Wissen, um die Zusammenhänge gibt und nicht, dass ich erneut den paar "Kleinkindern" erneut alles was normal ist erklären muss.
In meinem ersten Posting in diesem Fall ging es um die Umstände der Testmethode, und was alles zu einer Verfälschung der Ergebnisse führen kann.
Daraufhin meldete sich "klein Egon" und machte darauf aufmerksam, dass DLSS nichts mit RT zu tun hat, was im Kern zwar richtig ist, aber vollkommen falsch, wenn es um den vorherigen Kontext geht. DLSS war ganz zu Anfang fast nur für RT Spiele aktivierbar (Was man wissen sollte, wenn man sich hier auf eine Diskussion dazu einlässt!).
Um das zu veranschaulichen, habe ich einen Link gewählt, wo dieser Hinweis versteckt vorhanden ist, um ihm die Chance zu geben selber darauf zu kommen, dass er auf etwas verwiesen hat, was ich nicht einmal im Ansatz behauptet habe.
So, Unterricht für die Vorschule beendet. :rolleyes:
robbitop
2022-09-10, 00:12:03
Was nennenswert ist, dass die 80 und 70 relativ gesehen zum 90 weniger SPs haben.
Die 3080 hatte grob 80% der Units, die 4080 anscheinen unter 60%.
Mit der 70er Serie sieht es ähnlich aus. Grob 45% ggü 60%.
Radeonfreak
2022-09-10, 00:18:14
Platz für eine 3080 Super und TI um die Kühe zu melken?
wolik
2022-09-10, 00:21:53
Daraufhin meldete sich "klein Egon" und machte darauf aufmerksam, dass DLSS nichts mit RT zu tun hat, was im Kern zwar richtig ist, aber vollkommen falsch,
;D
Ich habe auf diesen Kommentar geantwortet: "dass es DLSS oft nur in Verbindung mit RT gab und immer noch gibt.
Meiner Erfahrung nach gibt es heute kein einziges Spiel, für das DLSS RTX aktiviert sein muss.
Diese Aussage ist falsch.
Du kannst mir sicher ein solches Spiel nennen. Es gibt wahrscheinlich einen von hundert, von denen ich noch nie gehört habe.
:wink:
Edgecrusher86
2022-09-10, 06:34:17
Für gute RT Leistung brauchst du auch gute Rasterleistung (zumindest bei aktuellen Renderpipeline). Beides ist wichtig.
Ja, aber es steht ja außer Frage, dass NV auch dort nicht abliefert - wenn man den TSE Score mit 1,9x X 3090 als Basis nimmt (sei es jetzt inklusive OC oder nicht).
y33H@
2022-09-10, 08:03:54
99% aller normalen Spieler erkennen nicht, ob RT aktiviert ist oder nicht.Das ist völliger BS bzw deine eigene Wahrnehmung anderen übergeholfen.
y33H@
2022-09-10, 08:12:36
DLSS war ganz zu Anfang fast nur für RT Spiele aktivierbar.Das erste Spiel mit DLSS war Final Fantasy 15 - was nie Raytracing unterstützt hat ^^
Thunderburne
2022-09-10, 08:33:23
Ich bin jetzt eigentlich nur gespannt auf den Preis für die 4090 .
Leistung wird die schon haben da hab ich keine Zweifel dran!
Adam D.
2022-09-10, 08:46:40
Ich bin jetzt eigentlich nur gespannt auf den Preis für die 4090 .
Leistung wird die schon haben da hab ich keine Zweifel dran!
Spielt der Preis wirklich so eine große Rolle, angesichts der Tatsache, dass sie mit >1500€ sowieso nur für einen unfassbar kleinen Teil der Käuferschaft interessant ist und denen das wahrscheinlich egal ist, ob es 1500, 1800 oder 2000€ sind?
Mir macht eher die Riesenlücke zwischen 4090 und 4080/4070 Sorgen, weil zu befürchten ist, dass "Normalos" generationenübergreifend mit deutlich weniger Leistungsplus abgespeist werden könnten (bei trotzdem zu erwartenden Mondpreisen, insbesondere zu Beginn).
Troyan
2022-09-10, 09:00:43
Aus China: https://twitter.com/harukaze5719/status/1568463483414671361?cxt=HHwWgsDTwczOpsQrAAAA
Angelich mehr als 24k Punkte in Timespy Extreme.
nochmal: es gibt keine "L2 geschwindigkeit" oder "L3 größe". dass ein L2 so groß sein kann wie ein L3 einer anderen architektur kann durchaus sein, das allein sagt aber nichts darüber aus welche cachehierarchie in ihrer gesamtheit schneller ist.
L2 Cache wird immer schneller sein, da die ComputeUnits direkt mit diesem verbunden sind. Dazu ist die Größe auch beschränkt, weil die Komplexibilität mit zunehmender Anzahl an L2-Slices und ComputeUnit sich stark erhöht. Genau dieses Problem hat nVidia mit HPC-Ampere gelöst, indem nur noch die Hälfte der ComputeUnits an einer Partition angebunden und der L2-Cache per Interconnect verbunden sind.
horn 12
2022-09-10, 09:06:57
Ja, der Performance Unterschied wird diesesmal wirklich viel Größer werden.
Gehe von Mindestens 45 bis gar knapp 55% aus, welche die RTX 4080 langsamer werden wird als die 4090 und dann hat man Platz für eine Super und TI Version.
97xx Shader Gegenüber 16xxx Shadereinheiten sind ja schon über 50%
auch wenn RTX 4080 vielleicht höher taktet.
Die 4090 soll wohl ein Alleinstellungsmal erreichen, und eine Titan setzt dem noch einen Oben drauf.
Auch dieser Wert ist purer BS und vielleicht richtig geraten. Es gibt keine Treiber, die jemand nutzen könnte. Vor NDA keine Performance. Erst wenn die Samples zu den Testern gehen, bekommen die einen funktionierenden Treiber. Nicht mal die Vendors haben Treiber, nur was, um die elektrische Funktion zu gewährleisten.
Sardaukar.nsn
2022-09-10, 09:40:54
Was nennenswert ist, dass die 80 und 70 relativ gesehen zum 90 weniger SPs haben.
Die 3080 hatte grob 80% der Units, die 4080 anscheinen unter 60%.
Mit der 70er Serie sieht es ähnlich aus. Grob 45% ggü 60%.
Danke das du es ansprichst. Mir stört das auch sehr. Meine 3080 läuft konstant über 2ghz und ist mit mehr als 19.000 3Dmark Score Rohleistung sehr nah an einer 3090. https://www.3dmark.com/3dm/67078605
Bei der 4000er Generation wird das nicht mehr möglich sein. Also direkt die 4090 kaufen? Alles darunter scheint viel deutlicher abgespeckt als bisher.
Thunderburne
2022-09-10, 10:00:25
Spielt der Preis wirklich so eine große Rolle, angesichts der Tatsache, dass sie mit >1500€ sowieso nur für einen unfassbar kleinen Teil der Käuferschaft interessant ist und denen das wahrscheinlich egal ist, ob es 1500, 1800 oder 2000€ sind?
Mir macht eher die Riesenlücke zwischen 4090 und 4080/4070 Sorgen, weil zu befürchten ist, dass "Normalos" generationenübergreifend mit deutlich weniger Leistungsplus abgespeist werden könnten (bei trotzdem zu erwartenden Mondpreisen, insbesondere zu Beginn).
Jo für mich macht es einen Unterschied !
1500 könnte ich mir gefallen lassen !
2000 wäre mir schon viel zu viel!
Es gibt auch in diesem Preisbereich Leute die das noch Abwegen ich bin nicht reichund muss für das Geld schon was ableisten !
Bei mir steht die PV Anlage aktuell im Fokus in diesem Herbst das kostet halt auch noch mal.
Somit schau ich schon auf das Geld!
Zu der Lücke es wird wohl ne 4080Ti mit 20GB geben nur wann ist die Frage?
Neurosphere
2022-09-10, 10:08:20
https://www.chiphell.com/forum.php?mod=viewthread&tid=2442233&page=2#pid50610057
https://pbs.twimg.com/media/FcRM8pTakAE-atW?format=png&name=small
https://pbs.twimg.com/media/FcRNDi-aMAM2p3U?format=png&name=large
Quelle:
https://twitter.com/harukaze5719/status/1568463483414671361
Edith:
Trojan war schneller, hab's übersehen.
Thunderburne
2022-09-10, 10:11:43
Aus China: https://twitter.com/harukaze5719/status/1568463483414671361?cxt=HHwWgsDTwczOpsQrAAAA
Angelich mehr als 24k Punkte in Timespy Extreme.
Die 20% Mehrleistung werden Extrem teuer erkauft bei 800W.
Da wünscht man sich fast SLI zurück !
Meridian12
2022-09-10, 10:17:56
Jo für mich macht es einen Unterschied !
1500 könnte ich mir gefallen lassen !
2000 wäre mir schon viel zu viel!
Es gibt auch in diesem Preisbereich Leute die das noch Abwegen ich bin nicht reichund muss für das Geld schon was ableisten !
Bei mir steht die PV Anlage aktuell im Fokus in diesem Herbst das kostet halt auch noch mal.
Somit schau ich schon auf das Geld!
Zu der Lücke es wird wohl ne 4080Ti mit 20GB geben nur wann ist die Frage?
1500 Euro ist auch bei mir die Grenze, was ich schon für total bekloppt halte.Und damit meine ich die 4090.
Mache ich nur weil meine 1080ti defekt ist und ich jetzt eine Leih 970 habe.
Da will ich einmal richtig rein gehen und dann 6 Jahre Ruhe haben.Aber mehr wird es nicht.
Bei 1999 für 4090 und die 4080 für 1499 gebe ich natürlich gar kein Geld bei NVIDIA aus. Dann wird es halt eine 7900 wenn die Leistungsmässig nah an der 4090 ist und wenige rals 1500 Euro kostet.
Troyan
2022-09-10, 10:23:19
Naja, ein iPhone 14 kostet jetzt schon 1000€ und da steckt ein 100mm^2 Chip drin. Da sind 1500€ für 24GB und 600mm^2 auch nicht mehr als teuer zu betrachten.
Wenn ich überlege, dass bei Apple die Preise sich von 2008 (iphone 3g) zu heute fast verdreifacht haben und nVidia schon 2008 für 550€ eine GTX280 verkauft hat, sind die Preissenkungen noch im Rahmen.
Nicht zu vergessen: R&D für 4nm sowie die Architektur kostet immer mehr pro Generation. Ergo steigen die Preise aufgrund von Inflation sowieso an.
DrFreaK666
2022-09-10, 10:55:13
Naja, ein iPhone 14 kostet jetzt schon 1000€ und da steckt ein 100mm^2 Chip drin. Da sind 1500€ für 24GB und 600mm^2 auch nicht mehr als teuer zu betrachten.
Wenn ich überlege, dass bei Apple die Preise sich von 2008 (iphone 3g) zu heute fast verdreifacht haben und nVidia schon 2008 für 550€ eine GTX280 verkauft hat, sind die Preissenkungen noch im Rahmen.
Nicht zu vergessen: R&D für 4nm sowie die Architektur kostet immer mehr pro Generation. Ergo steigen die Preise aufgrund von Inflation sowieso an.
Das iPhone hat aber nicht nur ein neues SoC und eine neue Kühlung in den Jahren spendiert bekommen
OgrEGT
2022-09-10, 11:12:42
Die 20% Mehrleistung werden Extrem teuer erkauft bei 800W.
Da wünscht man sich fast SLI zurück !
Wie... die 4090 hat kein SLI? 1,6kW FTW :freak:
Im Ernst... 24k bei 800W shined nicht so bright... ist auch noch nicht klar wie hoch die Leistungsaufnahme bei den 20k war?
Slipknot79
2022-09-10, 11:22:47
4090Ti?
Dropen jetzt schon so viele gute Chips vom 4090er-Band, dass man ne gleich Ti auflegen can?
iamthebear
2022-09-10, 11:23:30
Was nennenswert ist, dass die 80 und 70 relativ gesehen zum 90 weniger SPs haben.
Die 3080 hatte grob 80% der Units, die 4080 anscheinen unter 60%.
Mit der 70er Serie sieht es ähnlich aus. Grob 45% ggü 60%.
Das Ada Lineup entspricht ziemlich genau dem Ampere Lineup. Nvidia hat lediglich die Bezeichnungen der Karten um 1 Stufe verschoben, damit sie keinen Shitstorm für die erneute Preiserhöhung haben:
4090: 1.12x weniger SMs, weniger TDP, L2 beschnitten => entspricht der 3080
4080/AD103 76SM: 1.9x weniger SMs, 256Bit SI => entspricht der 3070
4070/AD104 56SM: 2.6x weniger SMs, 192Bit SI => entspricht der 3060 (leicht darüber)
4060 Ti 48SM (Spekulation): 4x weniger SMs, 160Bit => entspricht der 3050 (leicht darüber)
Ich habe langsam das Gefühl, dass "eine Geforce soll dasselbe wie e8ne Konsole kosten" sich nur auf den GPU bezogen hat und man bei den GPU Preisen eher Richtung 1000$ zielt.
L2 Cache wird immer schneller sein, da die ComputeUnits direkt mit diesem verbunden sind. Dazu ist die Größe auch beschränkt, weil die Komplexibilität mit zunehmender Anzahl an L2-Slices und ComputeUnit sich stark erhöht. Genau dieses Problem hat nVidia mit HPC-Ampere gelöst, indem nur noch die Hälfte der ComputeUnits an einer Partition angebunden und der L2-Cache per Interconnect verbunden sind.
L2 ist einfach nur das 2. Cache Level. Das hat nichts damit zu tun wie dieser angebunden ist und wie dieser geshared wird.
In der Praxis wird die letzte Cachestufe bei einem 2 stufigen System meistens schneller sein als mit einem 3 stufigen System aber das muss nicht zwingend der Fall sein. Es gibt hier einige Räder an denen gedreht werden kann.
Bei Ada wirst du vermutlich Recht haben aber für zukünftige Generationen wäre ich hier nicht so sicher, ob Nvidia mit steigendem Bandbreitenbedarf nicht auch auf mehr Density statt Bandbreite setzt.
Auch dieser Wert ist purer BS und vielleicht richtig geraten. Es gibt keine Treiber, die jemand nutzen könnte. Vor NDA keine Performance. Erst wenn die Samples zu den Testern gehen, bekommen die einen funktionierenden Treiber. Nicht mal die Vendors haben Treiber, nur was, um die elektrische Funktion zu gewährleisten.
Also ich habe das so verstanden:
.) Zuerst können die AIBs nur den Thermal Test von Nvidia laufen lassen => Da leaken nur Taktraten und sehr grobe Schätzungen.
.) Danach gibt es das finale BIOS aber immer noch beschnittener Treiber. Damit laufen einige Applikationen wie 3DMark. Irgendwie müssen die Hersteller ja prüfen können ob ihre Karten funktionieren => Dann leaken 3DMark Scores
.) Finale Treiber gibt es erst zur vor NDA Fall (z.B. 1 Woche vorher) => Dann leaken Spiele Scores. Zu dem Zeitpunkt aber meist nicht spannend da dies nach der Vorstellung ist.
Jo für mich macht es einen Unterschied !
1500 könnte ich mir gefallen lassen !
2000 wäre mir schon viel zu viel!
Es gibt auch in diesem Preisbereich Leute die das noch Abwegen ich bin nicht reichund muss für das Geld schon was ableisten !
Bei mir steht die PV Anlage aktuell im Fokus in diesem Herbst das kostet halt auch noch mal.
Somit schau ich schon auf das Geld!
Zu der Lücke es wird wohl ne 4080Ti mit 20GB geben nur wann ist die Frage?
Du solltest den aktuellen EUR/Dollar Kurs beachten. 1500$ netto sind aktuell schon 1800 Euro brutto. Dazu kommt noch der übliche Nvidia Aufschlag mit ihren gelogenen UVPs und wird sind locker auf 2000 Euro. Das ist dann aber nur die stark beschnittene 4090 und unter der Voraussetzung, dass ausreichende Mengen im Markt sind.
Neurosphere
2022-09-10, 12:42:37
Verfolgt man die Kommentare im Tweat war die Karte wohl übertaktet:
https://twitter.com/CharlieLiao82/status/1568464516035317761
Linmoum
2022-09-10, 12:51:31
kimi hat auch mal wieder was:
AD106 is not very strong. The typical TSE score is < 7000.
And both AD106 and AD107 are using PCIE x8.
https://twitter.com/kopite7kimi/status/1568464748316102661
Edgecrusher86
2022-09-10, 12:55:19
Die 20% Mehrleistung werden Extrem teuer erkauft bei 800W.
Da wünscht man sich fast SLI zurück !
2x 400W oder 1x 800W ist auch egal. :freak:
basix
2022-09-10, 13:14:21
kimi hat auch mal wieder was:
https://twitter.com/kopite7kimi/status/1568464748316102661
Bei 36 SMs ja nicht so überraschend, das man nur auf einer ~3070 (Ti) zu liegen kommt. Wären in etwa ~2.5 GHz auf 36 SMs bei Ampere IPC.
Passt von dem her ja nicht schlecht: Ersatz für 3070 (Ti) mit 8GByte VRAM. Als 4050 Ti wäre das doch eine gute Karte.
BlacKi
2022-09-10, 13:19:20
kimi hat auch mal wieder was:
https://twitter.com/kopite7kimi/status/1568464748316102661
für mich ein indiz für pcie 5.0
basix
2022-09-10, 13:22:49
für mich ein indiz für pcie 5.0
Kommt drauf an. Ich sehe AD106 eigentlich bei 4050 (Ti) und AD107 als Mobile only. PCIe 4.0 x8 sollte bei 8 GByte und 1080p Gaming eigentlich reichen.
AffenJack
2022-09-10, 13:31:20
Kommt drauf an. Ich sehe AD106 eigentlich bei 4050 (Ti) und AD107 als Mobile only. PCIe 4.0 x8 sollte bei 8 GByte und 1080p Gaming eigentlich reichen.
Ich glaube nicht, dass AD106 die 4050 stellen wird. Würde eher 4060 und 4050Ti erwarten und 4050 mit AD107. Wäre dann so ein ~50% Sprung von der 3060 zur 4060, was durchaus realistisch erscheint.
Einzig bei der 4090 wird der Sprung größer als üblich, damit man den Abstand zur 4080 vergrößern kann und den Preis eher rechtfertigt.
Thunderburne
2022-09-10, 13:33:20
2x 400W oder 1x 800W ist auch egal. :freak:
Nö dann hättest du aber min 40% Mehrleistung SLI konnte Teils mit 80-90% skalieren !
So war das gemeint !
Halt das man im SLI bei 800W mehr FPS raushaut !
Jetzt fangt bloß nicht mit Microruckler an !
BlacKi
2022-09-10, 14:05:52
Kommt drauf an. Ich sehe AD106 eigentlich bei 4050 (Ti) und AD107 als Mobile only. PCIe 4.0 x8 sollte bei 8 GByte und 1080p Gaming eigentlich reichen.was mir aber noch eingefallen ist, die 3050 könnte 16x, genau wie die 3060, weil sie auf demselben chip basieren. vl ist das auch nur wie bei dem ad106 nachträglich weggeschnitten worden und die gpu kann theoretisch 16x.
robbitop
2022-09-10, 14:16:51
Ja, aber es steht ja außer Frage, dass NV auch dort nicht abliefert - wenn man den TSE Score mit 1,9x X 3090 als Basis nimmt (sei es jetzt inklusive OC oder nicht).
Wie „nicht abliefert“? 1,9 ist der größte Gen zu Gen Sprung seit grob 15 Jahren.
Zuletzt war es ein Spektrum von 1,4-1,6.
Monsta
2022-09-10, 14:47:31
Wie „nicht abliefert“? 1,9 ist der größte Gen zu Gen Sprung seit grob 15 Jahren.
Zuletzt war es ein Spektrum von 1,4-1,6.
Das gilt dann aller Vorraussicht nur für den Topdog. Da ist mir der Leistungssprung relativ egal.
Die 60,70 und 80er sind ja jeweils eine Klasse runtergerutscht. Ob die auch ca. doppelt so schnell werden, da bin ich mal gespannt.
Dovregubben
2022-09-10, 14:58:12
Die 60,70 und 80er sind ja jeweils eine Klasse runtergerutscht. Ob die auch ca. doppelt so schnell werden, da bin ich mal gespannt.
Da ist doch nicht viel runtergerutscht. Die 3080 wurde wegen AMD stärker und wir haben den GA103 nicht im Desktop gesehen. Man hat doch mit verbunden Augen gesehen, dass das Produktportfolio am oberen Ende komplett kaputt komprimiert war.
In dieser Generation scheint Nvidia die Notwendigkeit nicht zu sehen und der normale Abstand wird wieder hergestellt.
BlacKi
2022-09-10, 14:58:31
Das gilt dann aller Vorraussicht nur für den Topdog. Da ist mir der Leistungssprung relativ egal.
Die 60,70 und 80er sind ja jeweils eine Klasse runtergerutscht. Ob die auch ca. doppelt so schnell werden, da bin ich mal gespannt.edit: scheint wohl doch recht viel zu werden. wenn man annimmt ad106 mit 6xxx TSE punkten wird eine 4050, dann wird die 4050 grob 2,3x schneller als ihr vorgänger, wovon ich anhand der 8x ausgehe. wenn sie als 4060 kommt sind es eher 1,6x.
fondness
2022-09-10, 15:15:58
Wie „nicht abliefert“? 1,9 ist der größte Gen zu Gen Sprung seit grob 15 Jahren.
Zuletzt war es ein Spektrum von 1,4-1,6.
Es ist aber schon ein Unterschied, ob die Leistungsaufnahme gleich bleibt oder deutlich steigt wie diesmal.
basix
2022-09-10, 15:18:39
Deshalb Nvidias "Meisterstück" mit der 3090 Ti, dann kann man 450W vs. 450W vergleichen ;)
BlacKi
2022-09-10, 15:18:55
Es ist aber schon ein Unterschied, ob die Leistungsaufnahme gleich bleibt oder deutlich steigt wie diesmal.
bei der 3090 zur 4090 ist es prozentual sogar gesunken. turing zu ampere +40% bei referenz vs referenz. ampere zu ada nur +28%.
basix
2022-09-10, 15:22:40
Full AD102 vs. Full GA102 wird es bei gleicher TDP und sinnvollen Betriebsmodi (ergo optimiertes Setting) wohl auf <2x Energieffizienz hinauslaufen (ich tippe auf ~1.6...1.7x). Schlecht ist es dennoch nicht, vor allem da der Takt auch deutlich steigt.
BlacKi
2022-09-10, 15:31:23
gpus selbst sind sowieso nie 100% vergleichbar. die unterscheiden sich sowieso immer. aber bei full ada vs full ampere, bei sagen wir 450w ist der vergleich unfair, die 3090ti boostet an der kotzgrenze und ada boostet imeffizienteren bereich. daher liegt die effizienz deutlich höher als 2x.
Tomahawk
2022-09-10, 16:33:28
Selbst bei Ampere vs. Turing hat nVidia einen Effizienzvorteil von 1.9X angegeben. Keine Grafikkarte hat das auch nur annähernd realisiert.
robbitop
2022-09-10, 17:17:07
Das gilt dann aller Vorraussicht nur für den Topdog. Da ist mir der Leistungssprung relativ egal.
Die 60,70 und 80er sind ja jeweils eine Klasse runtergerutscht. Ob die auch ca. doppelt so schnell werden, da bin ich mal gespannt.
Wenn die Specs so stimmen, ist es wirklich eine "Verarschung". Die SKUs rutschen relativ gesehen zum Top Dog (verglichen mit der Vergangenheit) alle eine Stufe runter. Die 4080 mit AD103 ist dann eher eine Art 4070 (wenn man die Rate der SPs zwischen der 4080 zur 4090 mit der 3090 und der 3080 und 3070 vergleicht).
Mal schauen was AMD macht. Wenn AMD das nicht tut, kann es gut sein, dass NVs kleinere SKUs stark unter Druck geraten.
AD103 ist von der Relation her eigentlich ein 104. Ein 103 müsste ein Stück mehr SP und die size haben.
Also müssten eigentlich alle, die immer die 70er Serie kaufen nun die 80er Serie kaufen um das gleiche Upgrade bekommen oder sie werden mit 60er Leistung abgespeist.
4080/4090 = 9728/16384 = 59 % (AD103 Vollausbau / AD102 Vollausbau = 10752/18432 = 58%)
3080/3090 = 8704/10496 = 82%
3070/3090 = 5888/10496 = 56 %
2080/2080ti = 2944/4352 = 67%
1080/1080ti = 2560/3584 = 71%
GA104 Vollausbau/GA102 Vollausbau = 2560/3840 = 66%
Navi31/Navi32= 7680/12288 = 62 %
7900XT/7800XT = 8192/12288 = 66%
6900XT/6800XT = 4608/5120 = 90%
Ein voller AD103 vergleichen mit der 4090 (10752/16384) wäre ungefähr beim dem Verhältnis bei dem man bei Turing war (aber ohne die Super!). Die 3080 ist historisch gesehen relativ stark für eine 80er gewesen aber die 4080 sieht historisch gesehen relativ schwach aus. Das gleiche gilt für die 70er und 60er.
AMD scheint mit der 800er SKU aber auch deutlich tiefer anzusetzen - nicht ganz so tief wie NV in der 80er. Naja man muss abwarten ob die SKUs sich genau so bewahrheiten. Ggf. sind das ja noch nicht die Top 800er und 80er.
Quelle für die SPs aller SKUs die oben genannt wurden: Techpowerup
[...]
Also ich habe das so verstanden:
.) Zuerst können die AIBs nur den Thermal Test von Nvidia laufen lassen => Da leaken nur Taktraten und sehr grobe Schätzungen.
.) Danach gibt es das finale BIOS aber immer noch beschnittener Treiber. Damit laufen einige Applikationen wie 3DMark. Irgendwie müssen die Hersteller ja prüfen können ob ihre Karten funktionieren => Dann leaken 3DMark Scores
.) Finale Treiber gibt es erst zur vor NDA Fall (z.B. 1 Woche vorher) => Dann leaken Spiele Scores. Zu dem Zeitpunkt aber meist nicht spannend da dies nach der Vorstellung ist.
[...]
Soweit richtig, nur die Scores, die man da bekommt sind BS und viel langsamer als die finalen Scores. Performanceleaks sind immer Müll und gefaked, das kann man mit Gewissheit sagen. Natürlich kann einer davon zufällig gut geschätzt sein und halbwegs richtig liegen, dann wird der jeweilige Leaker halt abgefeiert hinterher (deswegen machen die das ja), aber es bleibt eben Fake. Es gibt keine Scores, da nur ein stark beschnittener Treiber zur Verfügung steht.
BlacKi
2022-09-10, 17:53:13
Wenn die Specs so stimmen, ist es wirklich eine "Verarschung". Die SKUs rutschen relativ gesehen zum Top Dog (verglichen mit der Vergangenheit) alle eine Stufe runter. ich glaube jeder weiß, das die 3080 in sachen performance und preis eine der geilsten karten war. lediglich der fehlende vram war ein downer.
aber warst nicht du derjenige der gesagt hat, das nv die karte so günstig angesetzt hat, das sie die karte kaum profitabel verkaufen konnten? und jetzt, da die 4080 scheinbar wohl eine bessere marge für nv drin ist, verarscht nv seine kunden?
tja, so ist es eben wenn man den leuten erst etwas schenkt, und dann wenn man weniger gibt, fühlen sich die leute verarscht XD
robbitop
2022-09-10, 18:43:17
Es ist aber schon ein Unterschied, ob die Leistungsaufnahme gleich bleibt oder deutlich steigt wie diesmal.
Davon war erstens nicht die Rede und zweitens nimmt doch die Energieeffizienz trotzdem zu. Er wird schneller als er mehr verbraucht. Wer den gleichen Verbrauch haben will, greift zu einer SKU darunter und hat trotzdem mehr Leistung nur halt nicht die brutalen Faktor 2.
Solange die Energieffizienz passt, es ein breites Produktspektrum mit allen möglichen TDPs gibt und man die TDP sogar selbst einstellen kann ist doch alles bestens und für jeden ist etwas dabei.
aufkrawall
2022-09-10, 18:47:56
VRAM für "Mittelklasse" (<600€) abwarten. Nach den letzten Gerüchten sieht es da potenziell furchtbar aus.
robbitop
2022-09-10, 18:50:46
ich glaube jeder weiß, das die 3080 in sachen performance und preis eine der geilsten karten war. lediglich der fehlende vram war ein downer.
Dennoch wie du siehst war das Verhältnis zwischen 80 und 80ti/90 noch nie so extrem.
aber warst nicht du derjenige der gesagt hat, das nv die karte so günstig angesetzt hat, das sie die karte kaum profitabel verkaufen konnten?
Das waren Leaker wie MLID und RGT. Und tatsächlich wurde die 3080 nie in representativen Mengen für die UVP verkauft. Die drops bei NBB waren so klein, dass es eher Alibi Drops waren. Jetzt wo Mining wegfällt brechen auf einmal die Zahlen bei NV ein was die These von MLID damals dass NV große Mengen teurer an Miningunternehmen verkauft hat (was jetzt ja alles wegbricht) erhärtet. Bei den 699 sind wir bis heute nicht.
und jetzt, da die 4080 scheinbar wohl eine bessere marge für nv drin ist, verarscht nv seine kunden?
Eher weil die 4080 historisch gesehen eher eine 4070. Und ich bin nicht der einzige der das so sieht. Und wesentlich wichtiger: die Zahlen lügen nicht. ;)
tja, so ist es eben wenn man den leuten erst etwas schenkt, und dann wenn man weniger gibt, fühlen sich die leute verarscht XD
Das ist inhaltlich und sachlich inkorrekt. Wäre die 3080 wirklich in repräsentativen Stückzahlen (und nicht erst kurz vor EOL) zur UVP gekommen, würde es ggf. etwas anders aussehen. Kam sie aber nie. Und alles was so nah an EOL ist, muss sowieso anders bewertet werden weil Abverkaufszeit.
Wenn man sich NV's Margen historisch anschaut inkl der Ampere Zeit wird klar, dass genau das Gegenteil geschah - da wurde nichts "geschenkt". (was okay ist - es ist eine Firma und die will Geld verdienen und im Sinne des Investors maximiert man Profit - ich habe nichts dagegen. Ein stärkerer Wettbewerb ist das entsprechende Gegengewicht an dem es eben etwas mangelt - was schlecht für den Endverbraucher ist. Ein erstarkendes Intel als 3. Spieler wäre langfristig am besten für den Endverbraucher weil es den Wettbewerb stärkt und das Preis/Leistungsverhältnis senkt.)
BlacKi
2022-09-10, 19:13:05
verarscht wird hier trotzdem keiner. zumal wir nichtmal wissen wie es preislich wird.
Tomahawk
2022-09-10, 19:14:19
Dennoch wie du siehst war das Verhältnis zwischen 80 und 80ti/90 noch nie so extrem.
Es war auch eine absolute Ausnahme, dass die 80er Karte den Top-Chip bekommen hat. Das gab es sonst nicht.
robbitop
2022-09-10, 20:11:51
verarscht wird hier trotzdem keiner. zumal wir nichtmal wissen wie es preislich wird.
Faktisch natürlich nicht. Dass das eher ein sprachliches Stilmittel ist, sollte aus dem Kontext klar sein.
Nvidia kann verkaufen was sie wollen. Verarscht fühlen kann man sich aber trotzdem in dem Kontekt. ;)
Es war auch eine absolute Ausnahme, dass die 80er Karte den Top-Chip bekommen hat. Das gab es sonst nicht.
Richtig. Aber auch Turing und Pascal und Maxwell haben die 80 nie so klein gegenüber der 80ti gehalten. Das ist der Punkt.
Zumal man sich natürlich als Endkunde auch an gewisse Dinge gewöhnt, die nicht selbstverständlich sind. Ein Beispiel ist, dass AM4 5 Jahre lang CPU Architekturen abgedeckt hat. Klar könnte AMD mit AM5 jetzt nur noch 1 Gen oder 2 Gen anbieten. War ja nur eine Ausnahme mit AM4. Aber wenn man ehrlich ist: man gewöhnt sich als Endkunde daran und das ist dann einfach die neue Baseline. Ein Präzedenszfall sozusagen. Alles darunter ist dann ärgerlich. Wenn man als Endkunde ehrlich ist, denkt doch jeder als Endkunde so. Und warum auch nicht?
Da wir ja hier alle Endkunden sind, finde ich es immer etwas merkwürdig, wenn Endkunden etwas verteidigen, was negativ für Endkunden ist.
Tomahawk
2022-09-10, 20:18:13
nVidia hat mit den 60er Karten oftmals die 80er Karten der Vorgängergeneration egalisiert (1060 vs. 980, 2060 vs. 1080, 3060 vs. 2080 [hier nicht ganz]). Das scheint dieses Mal doch auch mehr als locker zu gelingen. Es gibt einfach nur eine sehr starke 90er, die es sonst nicht gab.
Da wir ja hier alle Endkunden sind, finde ich es immer etwas merkwürdig, wenn Endkunden etwas verteidigen, was negativ für Endkunden ist.
Es ist eine Frage der Interpretation. In meinen Augen ist AD102 sowas wie die Titan damals. Eine Karte, die nicht für den "normalen" Enthusiasten gedacht ist. Die Karten rutschen nicht eine Stufe "runter", sondern es gibt ein Angebot darüber. Wie z.B. auch damals bei der Titan V.
Edit:
Ich glaube auch, dass es dafür einen relevanten Markt gibt. Eine 80er Karte kann nicht mehr als 1.000 Euro kosten. Wenn man eine Karte darüber für 1.500 bis 3.000 Euro anbieten möchte, dann muss sie auch mind. 20% schneller sein. Eine Titan RTX war z.B. sehr unattraktiv ggü. einer 2080 Ti. Gut möglich, dass nVidia es dieses Mal "besser" machen möchte.
Platos
2022-09-10, 20:31:57
Aber wenn man ehrlich ist: man gewöhnt sich als Endkunde daran und das ist dann einfach die neue Baseline.
Korrekt, das gilt auch für Preiserhöhungen/negative Dinge. Einmalig ist für immer. Ist ja dann (irgendwann) "normal".
BlacKi
2022-09-10, 21:05:35
Faktisch natürlich nicht. Dass das eher ein sprachliches Stilmittel ist, sollte aus dem Kontext klar sein.
Nvidia kann verkaufen was sie wollen. Verarscht fühlen kann man sich aber trotzdem in dem Kontekt. ;)
ok, ich lass es mal als stilmittel gelten, weil du es als stilmittel von der 3080 kommend erklärst.;)
aber in dem stil, muss ich dich leider in die kategorie horn und vini vidi vaci einordnen XD
iamthebear
2022-09-10, 21:16:31
Da ist doch nicht viel runtergerutscht. Die 3080 wurde wegen AMD stärker und wir haben den GA103 nicht im Desktop gesehen. Man hat doch mit verbunden Augen gesehen, dass das Produktportfolio am oberen Ende komplett kaputt komprimiert war.
In dieser Generation scheint Nvidia die Notwendigkeit nicht zu sehen und der normale Abstand wird wieder hergestellt.
Bei der 3080 magst du mit GA103 tatsächlich Recht haben aber bei Ada rutscht ja das gesamte Lineup nach unten. Die 4070 ist mit 56SM schon 2.6x unter dem 102 Die. Das gab es noch nie auch nur annähernd.
Es ist aber schon ein Unterschied, ob die Leistungsaufnahme gleich bleibt oder deutlich steigt wie diesmal.
Was die Verlustleistung angeht so würde ich einmal abwarten. Bei der 4090 könnten die 450W stimmen aber beim Rest glaube ich nicht viel von den TDP Angaben die da herum schwirren. Ein Teil davon ist Fake, ein Teil davon nur die maximale Verlustleistung der Testboards, was so alleine schon wegen der BOM Kosten nie so ausgeliefert werden wird.
Soweit richtig, nur die Scores, die man da bekommt sind BS und viel langsamer als die finalen Scores. Performanceleaks sind immer Müll und gefaked, das kann man mit Gewissheit sagen. Natürlich kann einer davon zufällig gut geschätzt sein und halbwegs richtig liegen, dann wird der jeweilige Leaker halt abgefeiert hinterher (deswegen machen die das ja), aber es bleibt eben Fake. Es gibt keine Scores, da nur ein stark beschnittener Treiber zur Verfügung steht.
Also ich würde davon ausgehen, dass Nvidia die Treiber mittlerweile bis auf ein paar kleinere Bugs schon längst fertig hat. Dass Spiele nicht laufen hat nur den Grund, dass die absichtlich deaktiviert wurden. Bei 3DMark ist nichts deaktiviert und das ist auch das Erste worauf sich die Treiberoptimierer stürzen. Mag sein, dass es noch den ein oder anderen Prozentpunkt nach oben (oder auch nach unten) gehen wird aber an der groben Einordnung wird sich nicht viel ändern.
Dass das (mit Ausnahme von @qbitleaks) nicht nur geraten ist erkennt man daran, dass alle groß protestieren wenn einmal ein Wert etwas zu hoch oder zu tief war. Als kopite seine >18K gepostet hat kamen ziemlich schnell RGT und AGF und haben unabhängig davon gepostet, dass da was nicht stimmt und Full AD102 um die 24K liegt.
ich glaube jeder weiß, das die 3080 in sachen performance und preis eine der geilsten karten war. lediglich der fehlende vram war ein downer.
Es wäre eine der geilsten Karten gewesen wenn sie jemals um den UVP erhältlich gewesen wäre. Die 700 Euro waren zu keinem Zeitpunkt real.
aber warst nicht du derjenige der gesagt hat, das nv die karte so günstig angesetzt hat, das sie die karte kaum profitabel verkaufen konnten? und jetzt, da die 4080 scheinbar wohl eine bessere marge für nv drin ist, verarscht nv seine kunden?
Ich denke da bringst du etwas durcheinander:
.) Die Founders Edition sind preislich nicht rentabel. Das hat aber nichts mit dem Die an sich zu tun, sondern daran, dass der Kühler ein reines Marketingkonzept ist, der sich in Serie nicht profitabel fertigen lässt. Wenn man nur gefühlte 10 Stück davon auflegt ist der Preis ja egal.
.) Weiters wird von Nvidia bewusst ein UVP angesetzt, zu dem die AIBs die Karten nicht mehr rentabel verkaufen können. Diese haben zu normalen Zeiten lediglich eine Marge von 10%.
Nvidia hat (über alle Sparten zusammen) eine Marge von 67% (also einkaufen um 100$ verkaufen um 300$). Selbst wenn die 3080 wirklich eine 700$ Karte wäre würden sie sich immer noch eine goldene Nase verdienen. Bei AMD sieht es auf Grund der VRAM Kosten leider anders aus. Die haben in Summe mit RDNA2 nur knapp schwarze Zahlen geschrieben.
Es war auch eine absolute Ausnahme, dass die 80er Karte den Top-Chip bekommen hat. Das gab es sonst nicht.
Kommt immer darauf an, was man hier vergleicht. Bis einsschließlich Pascal war die 700$ Karte noch das Topmodell. Bei Turing waren es 1.5x hinter dem 102 Die und Nvidia hat sich da einen ordentlichen Shitstorm eingefangen. Jetzt mit Ada sind es 1.9x.
Ich habe den Eindruck als versucht Nvidia wie damals 2018 fallende Umsätze nach dem Miningcrash durch höhere Preise zu kompensieren. Das hat damals schon nicht funktioniert und wird es mit AMD und nicht stornierbaren 5nm Wafer Kontingenten erst Recht nicht. Zumindest wünsche ich es ihnen, dass sie kräftig auf die Schnauze fallen.
robbitop
2022-09-10, 21:37:19
@Tomahawk
NV kann machen was sie wollen. Aber außergewöhnlich sieht es für mich nicht aus wie eine „Klasse darüber“. 600 mm2 im neusten Prozess ist nicht zu verachten - aber gab es schon x mal als normales Top Tier.
Die Titan V wäre soetwas.
@iamthebear
This :up:
aber in dem stil, muss ich dich leider in die kategorie horn und vini vidi vaci einordnen XD
Der war unter der Gürtellinie :D X-D
BlacKi
2022-09-10, 23:23:02
Es wäre eine der geilsten Karten gewesen wenn sie jemals um den UVP erhältlich gewesen wäre. Die 700 Euro waren zu keinem Zeitpunkt real..
es wurden karten zu diesem preispunkt in euro verkauft. das die karten dann teurer verkauft wurden, bzw. die guten chips lieber in 3080ti/3090 versionen verkauft wurden lag nur am mining booom. hätte es den nicht gegeben, dann wäre er doch ziemlich realistisch gelegen.
ich hoffe selbiges auf die next gen.
Lehdro
2022-09-10, 23:36:41
hätte es den nicht gegeben, dann wäre er doch ziemlich realistisch gelegen.
Der Fakt dass selbst jetzt nicht die 700€ erreicht werden spricht wohl dafür dass das nie realistisch war - oder zumindest nicht gewollt. Siehe auch alle Karten darunter.
[...]
Also ich würde davon ausgehen, dass Nvidia die Treiber mittlerweile bis auf ein paar kleinere Bugs schon längst fertig hat. Dass Spiele nicht laufen hat nur den Grund, dass die absichtlich deaktiviert wurden. Bei 3DMark ist nichts deaktiviert und das ist auch das Erste worauf sich die Treiberoptimierer stürzen. Mag sein, dass es noch den ein oder anderen Prozentpunkt nach oben (oder auch nach unten) gehen wird aber an der groben Einordnung wird sich nicht viel ändern.
[...]
Ja und wo soll der dann herkommen? Dafür müsste der Treiber doch leaken, ich hab bereits 3x erklärt, dass die Vendors keinen fertigen Treiber bekommen sondern erst die Tester, sobald sie unter NDA testen. Klar hat NV einen laufenden Treiber, aber nur intern und der wird mit Argusaugen bewacht, das ist der sensibelste Teil, der Performancewerte an die Öffentlichkeit bringen kann und das wird nicht passieren, daher sind alle bisherigen "Performancewerte" purer BS, das geht nicht.
NV entwickelt einen Treiber, der dürfte einen guten Stand haben. Z.B. Asus entwickelt eine Karte und bekommt dafür den Chip, aber die bekommen keinen fertigen Treiber, sondern nur einen Funktionstreiber, mit dem sie die Karte auf Funktion testen können. Asus weiss selbst bis zum Test nicht, wie die Performance der eigenen Karte ist, die Performance ist ne Blackbox für den Hersteller. Igor wird ja auch nicht Müde das zu erklären, aber sobald irgendjemand irgendwelche blödsinnigen Performancewerte raushaut springen alle wie bescheuert darauf auf. Aber es ist schlichtweg nicht möglich, dass die Leaker die Performance kennen.
robbitop
2022-09-11, 01:32:28
Der Fakt dass selbst jetzt nicht die 700€ erreicht werden spricht wohl dafür dass das nie realistisch war - oder zumindest nicht gewollt. Siehe auch alle Karten darunter.
Jap. Es ist super offensichtlich, dass die 700€ nie real waren. Alles dünne Ausreden.
BlacKi
2022-09-11, 01:39:33
Der Fakt dass selbst jetzt nicht die 700€ erreicht werden spricht wohl dafür dass das nie realistisch war - oder zumindest nicht gewollt. Siehe auch alle Karten darunter.es gibt keine fakten dazu. abhaken. spielt auch keine rolle mehr, der wechselkurs und der zeitverlauf können das nicht auflösen. lediglich amd anhänger geilen sich daran auf. die uvp ist schon lange erreicht, in asien schon lange, bei uns gibt es schlichtweg eine verwerfung.
alles ausreden. die karte wurde für 699€ verkauft, und danach ging alles den bach runter, incl wechselkurs.
Ex3cut3r
2022-09-11, 01:46:36
Die kostet doch selbst im Nvidia Shop keine 699€ sondern 759€
Die billigste 3080 10GB bei GH.de fängt bei 798,00€ an.
https://abload.de/img/unbenanntmgi2c.png
Sry, aber ich sehe das wie Robbitop. Die 699 und auch später 759€ waren ein Placebo Preis, den gab es einfach real nicht, bis auf 5 Modelle im Monat, worüber sich dann 3000 Bots streiten dürften.
Die 4080 wird 999€ "kosten" da lege ich mich fest. Real beim Einzelhändler dann ab 1200€.
BlacKi
2022-09-11, 01:50:51
boah exe warum hab ich den wechselkurs erwähnt...
ich sag 699$ für die 4080 und damit 829 oder 839€. also dieselbe uvp. mag sein, das der abstand zur 4090 steigt, dennoch selber preis.
Ex3cut3r
2022-09-11, 02:54:31
Spielt doch keine rolle. Den FE Preis gab es in Wahrheit einfach nicht. Das war einfach wirklich Marketing vom feinsten. Und viele Leute verkauften ihre 2080 Ti total unter wert, weil Sie wirklich glaubten an eine 3080 FE ganz normal für 699€ zu kaufen.
BlacKi
2022-09-11, 02:58:50
sie sind so gekommen. fakten sind fakten. das man dann im nachhinein die verkaufszahlen gedrosselt hat indem man lieber 3090 und 3080tis verkauft hat, will ich nichtmal abstreiten. das ist auch bei amd passiert.
aber das die 3080 einen uvp preis von 699€ hatte und auch so verkauft wurde ist fakt, darüber braucht man nicht streiten. alles andere stempelt euch als fakten verdreher und lügner XD
Ex3cut3r
2022-09-11, 05:17:09
Wo ist das Fakt? Wenn 10 Leute von 100.000 potenziellen Kunden im Monat eine 3080 FE für 699€ kaufen könnten? Das ist kein Fakt, sondern Bullshit Bingo.
Ich hätte da irgendwie mehr erwartet von dir, als den üblichen Fanboy. Wenn versucht du zu verteidigen?
dildo4u
2022-09-11, 05:33:13
Natürlich wurde kaum was für 700€ verkauft nicht mal die 6800XT Karten sind dort und Nvidia Aufschlag ist ein Fakt bis AMD sie mal durch die Bank schlägt.
Bis das passiert gibt es keine Schnäppchen auch weil die neuen Lovelace UVP an den schwachen Euro angepasst werden.
Gott1337
2022-09-11, 05:39:01
Natürlich wurde kaum was für 700€ verkauft nicht mal die 6800XT Karten sind dort und Nvidia Aufschlag ist ein Fakt bis AMD sie mal durch die Bank schlägt.
Bis das passiert gibt es keine Schnäppchen auch weil die neuen Lovelace UVP an den schwachen Euro angepasst werden.
AMD hat eine 4% Marge und du willst das sie noch runter gehen? ;D
hat man ja bei den CPUs gesehen, die Preise sind extrem nach oben gegangen.
Wenn sich etwas verbessert dann die Performance, die Preise aber kaum.
Platos
2022-09-11, 08:34:36
Es geht doch darum, dass ein Händler kein Verlust macht und wenn die von Anfang an (wenn auch wenig) für 699 verkauft wurden, heist das, dass es durchaus so machbar war.
Dass die Preise jetzt nicht runter gehen im Euroland, liegt am schwachen Euro und daran, dass die Händler auf Karten sitzen, die sie damals teurer eingekauft haben.
Dazu gabs doch nun mittlerweile genug Artikel von Leonidas.
Also 699 war ein realistischer Preis. Der Preis wurde dann nie mehr eingehalten, weils schlicht Mining gab und jetzt der Euro abgekackt ist und die Für hohe Preise eingekauft haben. Nicht umsonst fibt nvidia interne Rabatte auf schon gekauftes Zeug. Dass die Boardpartner jammern, ist klar. Das ist jetzt aber bei weitem kein "Indiz". Das tun die immer.
OgrEGT
2022-09-11, 09:30:25
https://forum.beyond3d.com/threads/nvidia-ada-speculation-rumours-and-discussion.62474/post-2262911
Das wäre eine mögliche Erklärung für den 20k Leak bei 3GHz... AD103... Leistungsaufnahme :uexplode:
24k mit AD102 at 800W...
Sunrise
2022-09-11, 09:41:10
https://forum.beyond3d.com/threads/nvidia-ada-speculation-rumours-and-discussion.62474/post-2262911
Das wäre eine mögliche Erklärung für den 20k Leak bei 3GHz... AD103... Leistungsaufnahme :uexplode:
24k mit AD102 at 800W...
Die 800W sind mit ziemlicher Sicherheit Quatsch… da spielt jemand mit Falschinfos und lacht sich im Hintergrund kaputt.
BlacKi
2022-09-11, 11:07:57
Wo ist das Fakt? Wenn 10 Leute von 100.000 potenziellen Kunden im Monat eine 3080 FE für 699€ kaufen könnten? Das ist kein Fakt, sondern Bullshit Bingo.ich kann das nicht akzeptieren. du musst mir erklären, warum ein händler die karte für 699€ verkauft? erklär mir das! wie kommt es dazu?
na? na? nv hat den preis so festgelegt, die AIBs sind zu dem preis mitgegangen, die händler haben diese karten zu diesem preis nicht nur angeboten, sondern sogar verkauft, mit marge. es gibt keine logische erklärung dafür, das der uvp nicht echt war. ich habe es noch nie erlebt, das ein händler unter der uvp produkte zum release angeboten hat, erst recht nicht ohne rabattaktion.
basix
2022-09-11, 11:38:31
ich kann das nicht akzeptieren. du musst mir erklären, warum ein händler die karte für 699€ verkauft? erklär mir das! wie kommt es dazu?
na? na? nv hat den preis so festgelegt, die AIBs sind zu dem preis mitgegangen, die händler haben diese karten zu diesem preis nicht nur angeboten, sondern sogar verkauft, mit marge. es gibt keine logische erklärung dafür, das der uvp nicht echt war. ich habe es noch nie erlebt, das ein händler unter der uvp produkte zum release angeboten hat, erst recht nicht ohne rabattaktion.
Eine 3080 für 699$ ist laut vielen Berichten aber zulasten der Marge von Nvidia und den Boardpartnern gegangen. Laut Gerüchten hat Nvidia den Partnern bei Release für die erste Chargen der Karten einen Geldbetrag zugestanden (50...100$ glaube ich), welcher den Boardpartnern überhaupt erst eine Marge ermöglich habe. Deswegen kann es gut sein, dass ganz kurz nach Release man Karten zu guten Preisen bekam, auf Kosten von Nvidias Marge. Deswegen auch die ganzen Aussagen von wegen Fake-UVP, da nur die allerersten Karten für diesen Preis kaufbar waren (in sehr geringen Mengen).
Neben der geringen Marge bei UVP kamen Ende 2020 bis heute noch erhöhte Halbleiter- und Speicherpreise dazu und ich könnte wetten, dass bei 699$ da nicht viel Marge übriggeblieben wäre, für niemanden in der Lieferkette. Nvidia sieht lieber ~1000$ für eine GA102 Karte, damit sie ihre 60+% Marge halten können (siehe 3080 12GB und 3080 Ti). Aufgrund des Mining-Booms sind die Preise aber noch viel höher durch die Decke geschossen. Da haben vor allem die Boardpartner und Händler daran verdient, Nvidia nur an den hohen Stückzahlen.
basix
2022-09-11, 12:40:29
https://forum.beyond3d.com/threads/nvidia-ada-speculation-rumours-and-discussion.62474/post-2262911
Das wäre eine mögliche Erklärung für den 20k Leak bei 3GHz... AD103... Leistungsaufnahme :uexplode:
20K @ AD103 wäre sehr stark. Passt aber nicht zu anderen Leaks wie z.B. 7K bei AD106 oder auch den Resultaten einer 3090 Ti, welche ~11K schafft. Eine 3090 Ti läuft bei ~1.9...2.0 GHz. Bei selbem Takt müsste die AD103 Karte ~13K Punkte schaffen und somit +20% IPC. Und im Vergleich wirken dann die >24K für den 144SM Full Fat AD102 dann auch etwas gering. Dazu müsste diese Karte bei so ~2.3...2.4 GHz laufen.
OgrEGT
2022-09-11, 13:07:26
20K @ AD103 wäre sehr stark. Passt aber nicht zu anderen Leaks wie z.B. 7K bei AD106 oder auch den Resultaten einer 3090 Ti, welche ~11K schafft. Eine 3090 Ti läuft bei ~1.9...2.0 GHz. Bei selbem Takt müsste die AD103 Karte ~13K Punkte schaffen und somit +20% IPC. Und im Vergleich wirken dann die >24K für den 144SM Full Fat AD102 dann auch etwas gering. Dazu müsste diese Karte bei so ~2.3...2.4 GHz laufen.
Die Karte zum 20k Leak soll ja 3GHz gelaufen sein... die Temps sollen dazu bei um 65°C gewesen sein... ggf mit WaKü?
fondness
2022-09-11, 13:41:05
Davon war erstens nicht die Rede und zweitens nimmt doch die Energieeffizienz trotzdem zu. Er wird schneller als er mehr verbraucht. Wer den gleichen Verbrauch haben will, greift zu einer SKU darunter und hat trotzdem mehr Leistung nur halt nicht die brutalen Faktor 2.
Solange die Energieffizienz passt, es ein breites Produktspektrum mit allen möglichen TDPs gibt und man die TDP sogar selbst einstellen kann ist doch alles bestens und für jeden ist etwas dabei.
Natürlich nimmt die energieeffizienz zu, alleine schon wegen den shrink. Aber zu sagen es gab schon lange nicht mehr einen solchen Leistungssprung und dabei die Leistungsaufnahme nicht mal zu erwähnen ist absurd. Entscheidend wird sein, wie sehr die perf/Watt steigt. Dass man mit mehr TDP mehr Leistung bekommt ist keine Kunst.
Platos
2022-09-11, 14:08:50
Eine 3080 für 699$ ist laut vielen Berichten aber zulasten der Marge von Nvidia und den Boardpartnern gegangen. Laut Gerüchten hat Nvidia den Partnern bei Release für die erste Chargen der Karten einen Geldbetrag zugestanden (50...100$ glaube ich), welcher den Boardpartnern überhaupt erst eine Marge ermöglich habe. Deswegen kann es gut sein, dass ganz kurz nach Release man Karten zu guten Preisen bekam, auf Kosten von Nvidias Marge. Deswegen auch die ganzen Aussagen von wegen Fake-UVP, da nur die allerersten Karten für diesen Preis kaufbar waren (in sehr geringen Mengen).
Neben der geringen Marge bei UVP kamen Ende 2020 bis heute noch erhöhte Halbleiter- und Speicherpreise dazu und ich könnte wetten, dass bei 699$ da nicht viel Marge übriggeblieben wäre, für niemanden in der Lieferkette. Nvidia sieht lieber ~1000$ für eine GA102 Karte, damit sie ihre 60+% Marge halten können (siehe 3080 12GB und 3080 Ti). Aufgrund des Mining-Booms sind die Preise aber noch viel höher durch die Decke geschossen. Da haben vor allem die Boardpartner und Händler daran verdient, Nvidia nur an den hohen Stückzahlen.
Gerüchte sagt ja schon alles. Es gibt dazu Gerüchte.
Wie richtig die Gerüchteküche liegen kann, hat man die letzten Monate wunderbar gesehen.
Welches Gerücht war das eigentlich?
dargo
2022-09-11, 14:11:00
AMD hat eine 4% Marge und du willst das sie noch runter gehen? ;D
Fake News! :cop:
iamthebear
2022-09-11, 14:43:07
Natürlich nimmt die energieeffizienz zu, alleine schon wegen den shrink. Aber zu sagen es gab schon lange nicht mehr einen solchen Leistungssprung und dabei die Leistungsaufnahme nicht mal zu erwähnen ist absurd. Entscheidend wird sein, wie sehr die perf/Watt steigt. Dass man mit mehr TDP mehr Leistung bekommt ist keine Kunst.
Was hat denn die Leistungsaufnahme damit zu tun? Die Rede war von Leistungssprung bzw. Performance und nicht von Energieeffizienz. Ja 450W sind mir auch zu viel, aber ich stecke sowieso keine 2K in eine GPU und alles ab AD103 ist bereits im akzeptablen Bereich.
https://forum.beyond3d.com/threads/nvidia-ada-speculation-rumours-and-discussion.62474/post-2262911
Das wäre eine mögliche Erklärung für den 20k Leak bei 3GHz... AD103... Leistungsaufnahme :uexplode:
24k mit AD102 at 800W...
Sorry aber das ist Schwachsinn. AD103 hat 84SM, die 4080 angeblich nur 76SM. Das ist etwas mehr als die Hälfte von Full AD102. Da werden um die 13-14K heraus kommen, mehr nicht.
Die 20-21K bzw. 3GHz dürfte ein 4090 AIB Modell um die 500-550W sein.
robbitop
2022-09-11, 14:44:23
Natürlich nimmt die energieeffizienz zu, alleine schon wegen den shrink. Aber zu sagen es gab schon lange nicht mehr einen solchen Leistungssprung und dabei die Leistungsaufnahme nicht mal zu erwähnen ist absurd. Entscheidend wird sein, wie sehr die perf/Watt steigt. Dass man mit mehr TDP mehr Leistung bekommt ist keine Kunst.
Ich finde das nicht absurd. Es sind 600mm2. Damit war seit über einem Jahrzent egal mit welcher tdp kein 2x Sprung drin. Bei AMD wohl auch mit n31.
Ich finde es jedenfalls toll, dass es zumindest die Option so gewaltiger Sprünge gibt.
Die 2x Sprünge waren aber auch als es sie noch gab in den 2000endern immer mit mehr TDP erkauft. Die 9700pro war viel fetter als die 8500. G80 ebenso als G71. Da wurde die TDP und die size ordentlich erhöht.
Zu erwarten, dass es 2x ohne tdp Erhöhung gibt ist eher absurd.
Wie gesagt: Energieeffizienz steigt und wahrscheinlich auch nicht unterdurchschnittlich im historischen Vergleich. Es gibt Optionen für alle TDPs und eine wx Option. Ich verstehe das Geseier nicht.
—————
Mir ist auch nicht klar wie man noch an der Echtheit der 699 uvp der 3080 zweifeln kann. Es ist ABVERKAUFSZEIT. Die Lager sind VOLL. Der Markt wird zusätzlich von 2nd hand mining Karten geschwemmt. Next Gen launch ist für diesen Monat angekündigt. Alle GPUs gehen richtig fett rabbatiert weg. Und immernoch gibts selbst bei newegg (wer jetzt auf dem usd/eur kurs rumreitet) keine 3080 für 699. Und selbst wenn ist das in der Abverkaufszeit schon immer nochmal ordentlich rabbattiert. Schaut man sich andere Karten an wie die 6900xt: die gibt es 100usd unter uvp. Die Geforce 3090 sogar 500 usd unter uvp bei newegg! Da kann man sicherlich noch weiter recherchieren und noch massiv mehr Beispiele finden. Es war schon IMMER so, dass in der Abverkaufszeit der Straßenpreis unter der UVP war und zwar massiv. Und es ist auch jetzt so. Mit AMD CPUs und sicherlich auch vielen GPUs. Nur mit der 3080 nicht - die kommt nicht mal auf ihre UVP. Komisch…
Die Diskussion ist absurd. Man muss schon sehr ein Propellerjunge sein um das nicht wahr haben zu wollen.
Platos
2022-09-11, 14:59:51
War es auch schon immer so, dass es 2 Jahre lang in Folge solche extreme Preiserhöhungen gab?
Nein, offensichtkicherweise sind wir nicht in einem "war schon immer so" Markt.
Die Händler haben zu überteuerten Preise gekauft und werden es jetzt nicht los.
AMD ist kein Masstab. Da gibts auch bei den CPUs massiv Rabbatte, ebenfalls war das bei den GPUs auch so vor 2020.
robbitop
2022-09-11, 15:04:50
Schau dir die 3090 an. 999 usd bei newegg - 500usd unter uvp! Es gibt genug Beispiele wenn man da recherchiert. Alles an Hardware ist extrem verfügbar und günstig im Moment.
Und natürlich ist auch AMD ein Maßstab. Für die gelten die gleichen Randbedingungen und Herausforderungen. Inflation, USD/EUR Preis, Rohstoffe, gleiche Branche. Das gilt auch für alle anderen Komponenten. RAM, SSDs, Mainboards. Alles Halbleiterprodukte und alle sind durch die gleiche Krise gegangen. Und da wird alles günstig und verfügbar verkauft im Moment. Aber klar - die Krisengründe gelten ausschließlich für die 3080. Das ist absurd.
Es gibt genug Indizien die alle die gleiche Sprache sprechen. Die 699 waren einfach zu knapp für das Gebotene. Kann ja jeder „glauben“ was er will. Für mich ist die Sache klar genug.
Ex3cut3r
2022-09-11, 15:10:45
Aber klar - die Krisengründe gelten ausschließlich für die 3080. Das ist absurd.
Es gibt genug Indizien die alle die gleiche Sprache sprechen. Die 699 waren einfach zu knapp für das Gebotene. Kann ja jeder „glauben“ was er will. Für mich ist die Sache klar genug.
This!
:up:
iamthebear
2022-09-11, 15:25:06
Das ist bei Nvidia jetzt auch nicht unbedingt etwas Neues. Die 2080 Ti gab es auch bis auf die letzten 2-3 Monate vor Ampere Ankündigung auch nie um 1000 Euro.
Thunderburne
2022-09-11, 15:28:08
Ich sag nur gut das keine neuen Top Spiele anstehen !
Sollen erstmal die early Birds zu schlagen hab das Gefühl das die Kaufkraft massiv gelitten hat in den letzten Monaten und es noch dicker kommt !
Bin gespannt wann die ganzen Hersteller bei der harten Realität angekommen sind denke Max nach Weinachten!
Platos
2022-09-11, 15:30:47
Schau dir die 3090 an. 999 usd bei newegg - 500usd unter uvp! Es gibt genug Beispiele wenn man da recherchiert. Alles an Hardware ist extrem verfügbar und günstig im Moment.
Und natürlich ist auch AMD ein Maßstab. Für die gelten die gleichen Randbedingungen und Herausforderungen. Inflation, USD/EUR Preis, Rohstoffe, gleiche Branche. Das gilt auch für alle anderen Komponenten. RAM, SSDs, Mainboards. Alles Halbleiterprodukte und alle sind durch die gleiche Krise gegangen. Und da wird alles günstig und verfügbar verkauft im Moment. Aber klar - die Krisengründe gelten ausschließlich für die 3080. Das ist absurd.
Es gibt genug Indizien die alle die gleiche Sprache sprechen. Die 699 waren einfach zu knapp für das Gebotene. Kann ja jeder „glauben“ was er will. Für mich ist die Sache klar genug.
Top-End Modelle wie die 3090 haben ja auch eine viel grössere Margen :confused: Natürlich ist es da wesentlich einfacher unter die UVP zu gehen. Das Argument ist also komplett hinfällig.
Und nein, es gilt ja nicht nur für die 3080. Ebenfalls für die 3070, 3060 usw.
Und bezüglich AMD und selbe Regeln: Ja, sie haben die selben Regeln. Ändert nur nichts daran, dass es auch schon vor 2020 bei nvidia weniger starke Rabatte gab, wie bei AMD. Die RX 580 und die 1060 sind da ein Beispiel. Bei AMD ist der Preisverfall schon immer höher gewesen. Daraus jetzt auf einmal was abzuleiten, funktioniert nicht. Du missachtest auch komplett, dass nvidia deutlich beliebter bei Miner war in dieser Generation. Das dürfte bei den Einkaufspreisen für die Hardware möglicherweise auch einen Einfluss gehabt haben.
Ja wenn das für dich klar genug ist, dann schön. Nur weil du das so siehst, wird es nur nicht zum Fakt. Ich sehe es eben anders. Es gibt keine Fakten dazu, also mach keinen draus. Deine Meinung ? Ok, akzeptiere ich. Es als Fakt darstellen hingegen nicht. Es ist keiner.
Das ist bei Nvidia jetzt auch nicht unbedingt etwas Neues. Die 2080 Ti gab es auch bis auf die letzten 2-3 Monate vor Ampere Ankündigung auch nie um 1000 Euro.
Der "reale" Listenpreis war da ja auch nicht 999. Schon von Anfang an hat keine Sau das für 999 angeboten. Das hingegen, war ein Fakelistenpreis!
Natürlich galt dieser nur für die FE, soweit ich weiss. "Verarsche" ist es natürlich trotzdem. Und auch schon zu Turing-Zeiten war der Markt kaputt. Mining hat 2017 angezogen und sich immer wieder dazwischen abgeflacht. Das gibts aber (mit viel Auswirkung) nicht erst seit Ampere, nur war es da eben noch schlimmer.
robbitop
2022-09-11, 15:40:44
„Viel größer ist gut“. Ja klar sind da die Margen höher. Aber wir sprechen von einer Reduktion um 1/3 - also 500 usd. Wohingegen die 3080 noch über der UVP ist als gar nicht reduziert wurde faktisch gesehen. Also unendlich höher. Also gibt es offenbar irgendwo in der Kette keine Marge so dass man die uvp nicht erreicht. Ergo unrealistische uvp.
Eine UVP die man nie erreicht ist keine seriöse UVP. Dann gilt das offenbar auch für die Produkte unterhalb der 3080. Alle anderen Hersteller kriegen es auch hin spätestens zum Abverkauf UVP oder darunter zu liefern. Und das gilt auch für Intel. Und auch wie gesagt RAM und SSD und Mainboard hersteller. Alle nur die Ampere SKUs nicht. Komisch.
Platos
2022-09-11, 15:50:32
Dass die Händler in der Hochpreisphase selbst mehr bezahlt haben könnten, als sonst üblich, kommt dir dabei nicht in den Sinn?
Sind dir die ganzen News von Leonidas entgangen, die genau darum gingen?
Jetzt bist du aber schon von der Kernaussage abgewichen. Vorher war sie noch, dass die UVP nicht erreicht werden kann (von Anfang an nicht), jetzt bezieht es sich auf die jetzige Marktsituation. Ja, jetzt kann sie vermutlich nicht erreicht werden, weil die Händler möglicherweise einfach teurer eingekauft haben. Die Sitzen jetzt auf der Ware.
Und ja, die Margen sind bei diesen Topmodellen absurd hoch. Eigentlich sollte das auffallen, wenn man bedenkt, dass der selbe Chip (ok, weniger Speicher), für deutlich weniger weniger Geld weg geht - sogar jetzt. Die 3090 ist ein Titan, keine 80Ti wie zu Pascalzeiten. Titanen waren schon immer mit absurden Margen ausgestattet bei sonst gleichem Chip.
1080Ti war auch 50% teurer in der Titan"version". Top Modelle musst du nicht als Vergleich nehmen, das ist einfach Blödsinn. CPUs aber schon gar nicht.
Ich sage ja nicht, dass du zu 100% falsch liegst. Du stellst es einfach als Fakt dar, was es nicht ist.
robbitop
2022-09-11, 15:58:12
Natürlich kann man auch nicht gpus in den Vergleich nehmen da sie alle praktisch gleiche Randbedingungen haben. Alle schaffe es ihre UVPs sogar zu unterbieten aktuell.
Im Endeffekt zählt „auf dem Platz“. Ist das Produkt für seine UVP in großen Stückzahlen verfügbar gewesen? Nein. Sind andere Produkte Radeons, Intel Cores, SSDs das gewesen? Ja. Nicht in der Chipkrise selbst aber praktisch seit 6 Monaten.
Eine UVP nutzt dem Endkunden nichts wenn sie keine repräsentative Gültigkeit hat. Ein Alibidrop von 20 Karten bei nbb zählt da halt nicht.
Die UVP ampere war offenbar zu knapp. Jetzt kann man stundenlang philosophieren warum aber am Ende zählt halt „auf dem Platz“.
Aus Endkundensicht hoffe ich, dass diese Shinanogans jetzt nicht der neue Standard sind.
Platos
2022-09-11, 16:02:30
Kundensicht ist doch ein ganz anderes Thema. Wie gesagt, du änderst deine Aussage.
Natürlich ist es scheisse, dass die Preise da sind, wo sie sind. Das würde wohl kaum jemand bestreiten.
Übrigens: https://www.newegg.com/zotac-geforce-rtx-3080-zt-a30820d-10plhr/p/N82E16814500525?Item=9SIAMFBJGA2333&Description=3080%2012gb&cm_re=3080_12gb-_-9SIAMFBJGA2333-_-Product&quicklink=true
Das ist fast bei UVP. Sag mir jetzt nur nicht, die Händler bieten das mit Verlust an. 12GB Version, versteht sich. Die 40$ kannst du den 2 GB mehr Speicher geben. Da hast du deine UVP mehr oder weniger.
https://www.newegg.com/gigabyte-geforce-rtx-3080-ti-gv-n308tgaming-oc-12gd/p/N82E16814932436R?Item=N82E16814932436R&Description=3080%2012gb&cm_re=3080_12gb-_-14-932-436R-_-Product&quicklink=true
Die 3080Ti gibts hier für 800$. Wenn das geht, dann geht die 3080 auch für 700$. Es ging immer darum (so wie ich das von dir verstanden habe), dass es nicht möglich wäre ohne Verluste.
Dass die Preise kacke sind, sehe ich natürlich auch so. Die sollten 30% unter Listenpreis sein. Jetzt ist nicht nur die GPU schon jahre alt, es ist/sollte Abverkaufe sein, da die neue Gen ansteht.
Hier die 3070Ti: https://www.newegg.com/gigabyte-geforce-rtx-3070-ti-gv-n307tgaming-oc-8g/p/N82E16814932443?Item=N82E16814932443&Description=3080%2012gb&cm_re=3080_12gb-_-14-932-443-_-Product&quicklink=true
30$ über UVP. Ist also alles möglich bei Ampere. Über die paar Dollar müssen wir jetzt nicht streiten. Und dass Händler keine Verluste machen, auch nicht bei Angeboten, bestreitest du ja wohl nicht oder ?
robbitop
2022-09-11, 16:08:32
Tja aber es gibt die 3080 halt nicht für 699. Und wie gesagt: wir sind in der Abverkaufszeit - in 9 Tagen ist das Ding Alteisen weil Nextgen kommt - da liegt man normalerweise deutlich unter UVP.
Platos
2022-09-11, 16:11:33
Tja aber es gibt die 3080 halt nicht für 699. Ind wie gesagt: wir sind in der Abverkaufszeit - da liegt man normalerweise deutlich unter UVP.
Aha, 5,8%. Darauf beharrst du jetzt :D Wie gesagt, ist das hier die 12GB Version, die durchaus 5,8% teurer sein darf. Dass du auf so einem minimalen Unterschied pochst, trotz des Speicherunterschieds, zeigt, dass dir die Argumente ausgehen.
Mach dich nicht lächerlich.
Dein Argument war anfänglich, dass der Listenpreis der 3080 niemals realistisch war, weil die Karte nicht für diesen Preis verkauft werden könne (wenn ich das falsch verstanden habe, korrigiere mich).
Ich liefere dir die 3080 mit 12GB (es ging nicht um diese Version) für 5.8% mehr und du sagst mir "Tja aber es gibt die 3080 halt nicht für 699" ?
Mach dich nicht lächerlich, ehrlich.
Und bezüglich dem normalerweise: Nach 2 Jahren ist dir nicht aufgefallen,dass der Markt nicht mehr normal ist?
Edit: Ums nochmals zu erwähnen: Es geht nicht darum, ob die Preise irgendwo sein "sollten". Selbst im Abverkauf macht kein Händler minus. Es geht darum, dass du behauptet hast (wie gesagt, wenn ich das falsch verstanden habe, sags mir), dass dieser Listenpreis nicht machbar gewesen wäre ohne Verluste.
OgrEGT
2022-09-11, 16:17:34
Das ganze Thema um UVP von Ampere bzgl realistisch oder nicht hat mit dem Thema Lovelace eigentlich nichts zu tun...
Gott1337
2022-09-11, 16:18:13
Fake News! :cop:
da wurde doch ein Diagramm gepostet... hör auf wieder zu Lügen.
robbitop
2022-09-11, 16:20:00
@Platos
Achte bitte auf deinen Ton und werde nicht unsachlich. Oft entkräftest du Argumente gar nicht mit Substanz sondern ignorierst sie mit Phrasen wie „das ist nicht vergleichbar“ ohne dass da klar zu erkennen ist warum das zwangsweise nicht vergleichbar ist. Wo sind da die Argumente?
Ich empfehle, hier rein sachlich zu bleiben anstatt anzufangen, mit solchen Dingen wie „dir gehen die Argumente aus“ und „mach dich nicht lächerlich“. Ist ein Diskussionslevel was IMO nicht erstrebenswert ist und hier keinen Mehrwert bietet. Wenn das so bleibt ist das für mich EOD.
BTT:
Es geht um die 3080 SKU mit 10 gb. Jetzt konstruierst du das über eine andere SKU mit 12 gb. Und wie gesagt: ich habe von Anfang an gesagt, dass die Abverkaufszeit aus meiner Sicht nicht zählt - weil (siehe AMD aktuell oder halt historisch beide) - dort unter UVP verkauft wird.
Ich stehe nach wie vor zu der Aussage die UVP war nie realistisch. Wenn man sie erst zum Abverkauf liefern kann ist das ein Faktor.
Platos
2022-09-11, 16:27:46
@Platos
Achte bitte auf deinen Ton und werde nicht unsachlich. Oft entkräftest du Argumente gar nicht mit Substanz sondern ignorierst sie mit Phrasen wie „das ist nicht vergleichbar“ ohne dass da klar zu erkennen ist warum das zwangsweise nicht vergleichbar ist. Wo sind da die Argumente?
Ich empfehle, hier rein sachlich zu bleiben anstatt anzufangen, mit solchen Dingen wie „dir gehen die Argumente aus“. Ist ein Diskussionslevel was IMO nicht erstrebenswert ist.
Es geht um die 3080 SKU mit 10 gb. Jetzt konstruierst du das über eine andere SKU mit 12 gb. Und wie gesagt: ich habe von Anfang an gesagt, dass die Abverkaufszeit aus meiner Sicht nicht zählt - weil (siehe AMD aktuell oder halt historisch beide) - dort unter UVP verkauft wird.
Ich stehe nach wie vor zu der Aussage die UVP war nie realistisch. Wenn man sie erst zum Abverkauf liefern kann ist das ein Faktor.
Ja gut, dann liefere du bitte mal ein Argument. Beweise habe ich ja noch keine gesehen von dir. Die Karten wurden für den Preis verkauft und sind jetzt auch wieder schon praktisch da angekommen.
Wenn ich dir eine höherwertige/teurere Grafikkarte für 5.8% über der UVP der anderen liefere, dann genügt dir das nicht? Naja, für mich ist das schon so, dass dir die Argumente ausgehen, ansonsten müsstest du nicht an solchen Kleinigkeiten festhalten. Ist ja der selbe Chip (mit 2 mehr Einheiten aktiviert), mehr Speicher und im grossen und ganzen war es das. Bisschen grössere Grafikkarte für bisschen mehr. Wie gesagt, du beharrst auf einem formalen Unterschied. Praktisch ist es aber vergleichbar.
Das aus deiner Sicht abverkauf nicht zählt, ist nicht meine Sicht. Objektiv ist das nunmal nicht, wenn du mit "aus meiner Sicht" kommst und dann aber Behauptungen aufstellst.
Aus meiner Sicht sind wir nicht in einem normalen Markt. Daher das mit dem nicht existenten Abverkauf.
Aber ich merke schon, wir drehen uns im Kreis. Du hast deine Sicht, ich meine. Wir kommen nicht weiter anscheinend.
Edit: Die UVP war zumindest irrelevant. Weil sie in der Praxis nie (lange) eingehalten wurde und es jetzt zu spät dafür ist.
robbitop
2022-09-11, 16:38:26
Dann muss man die Frage nachder Definition einer „realistischen UVP“ stellen. Ist sie trotzdem realistisch wenn die UVP erst kurz vor EOL (nur fast/geraade eben so) erreicht wird (wohingegen alle anderen Marktteilnehmer das mit ihren UVPs schon mitten im Lebenszyklus schaffen)?
OK wenn das die Definition ist: dann war Amperes UVP fast/knapp realistisch. :up:
Für mich ist das nicht die Definition (wie ich seit Anfang an gesagt habe) und ich glaube da scheiden sich bei uns die Geister.
Da es dafür keine klare Definition gibt kann es wohl jeder für sich so auslegen. Insofern: agree to disagree.
Meine Definition ist geprägt durch die aus Endkundensicht gesehene Erwartung welche eben auf der Historie von HW bis zum heutigen Tag gewachsen ist. Und nach dieser war die UVP hingegen nicht realistisch. Die UVPs von Intels Core, AMDs Ryzen, AMDs Radeon, Crucial/Samsung… SSD, Asus/gigabyte Mainboards uswusf schon.
Ich wundere mich dann allerdings bei Endkunden (ich gehe davon aus dass wir alle Endkunden sind), die dann eher die Definition wählen, die gerade noch als Feigenblatt aus Sicht des Herstellers genügt. Aber naja - kann ja jeder so sehen wie er möchte.
iamthebear
2022-09-11, 16:51:28
Der UVP ist eine Preisempfehlung, die bereits zum Release gilt ohne irgendwelche Rabbattaktionen und zwar nicht nur beim allerbilligsten Geizhalshändler, sondern überall, auch beim kleinen Hardwareladen um die Ecke wo auch noch wirklich Beratung inkludiert ist.
Und ich darf noch einmal erinnern: Der offizielle UVP der 3080 ist in Deutschland trotz gefallenem Eurokurs immer noch 759 Euro. Um den Preis habe ich noch keine 3080 länger als ein paar Stunden gesehen.
Im Fall der Founders Edition kann ma die Schuld ja nicht einmal auf die AIBs oder den Handel schieben und das Argument der zu hohen Nachfrage hält auch nicht mehr.
Platos
2022-09-11, 17:19:44
@Robbitop: Ich habe das so verstanden, dass du behauptest, nvidia habe eine Schein-UVP rausgegeben, die selbst bei normalen Marktbedinungen nicht gehalten werden würde.
Das sehe ich anders. Viel eher würde ich darüber spekulieren, wo die Preissteigerungen anfangen. Beim Händler? Beim Grosshändler? Beim Boardpartner ? Bei nvidia ?
Wenn ich mir den neuen Artikel von Leonidas anschaue, scheint es mir eher so, als hätte nvidia (mindestens verzögert) die Preise schon bei sich in der Kette (also am Anfang) erhöht. Falls das der Fall ist, dann wäre das z.B ein Grund für eine Schein-UVP.
Naja, wie auch immer: Die Listenpreise sind bezogen auf die Realität unrealistisch. Sie wurden am Anfang praktisch nie eingehalten und jetzt ist UVP zu viel für kurz vor Launch der nächsten Gen. Aber für mich ist das trotzdem kein Folgebeweis, dass die UVP in einem normalen Marktumfeld zwingend nicht "realistisch" gewesen wäre (nur eben in der jetzigen realen Situation).
@iamthebear: Ist die Foundersedition denn irgendwo verfügbar ?
robbitop
2022-09-11, 17:45:20
Naja wie gesagt alle anderen haben es ja auch geschafft. Klar kann es immer noch Restzweifel darüber geben, dass es Randbedingungen gab, die nur auf Ampere zutrafen. Aber der Großteil der Randbedingungen traf auf alle anderen Marktteilnehmern im Halbleitergeschäft auch zu. Es mag als Beweis nicht genügen - aber um ernsthafte Zweifel an der Realität der UVP zu hegen? IMO auf jeden Fall.
Wie gesagt: ich hoffe, diese „UVPs“ waren eine einmalige Sache bei Ampere und werden nicht das neue Normal.
Thunder99
2022-09-11, 19:27:38
UVP waren zu Ampere Zeiten nur realistisch, wenn der Markt nicht zu kaputt gewesen wäre wie auch die Krisen nicht wären.
Zu Lovelace kann man schon mehr erwarten, dass die UVP nach dem Anfang erreicht wird oder zumindest um die herum die Preise sind. Liefersituation hat sich verbessert und der Markt kühlt insgesamt etwas ab.
Prognose ist Mitte 2023 haben wir Preise unter UVP.
Finde es spannend, dass es immer noch nicht klar ist welche TDP die Karten haben.
Schätze:
- 4090 450W bis 600W im OC Mode
- 4080 320/350 bis 420W im OC Mode
- 4070 280/300 bis 350W im OC Mode
robbitop
2022-09-11, 19:39:46
Ich zweifle eben aus obigen Gründen daran, denn auch außerhalb Krisenzeiten wirde die UVP dann nicht erreicht obwohl der Wettbewerb es schaffte sobald Verfügbarkeit zurück kam. Also seit vielen Monaten. Hundertprozentig sicher wird man es nie wissen. Der Zweifel bleibt.
Swissr
2022-09-11, 22:22:23
Finde es spannend, dass es immer noch nicht klar ist welche TDP die Karten haben.
Schätze:
- 4090 450W bis 600W im OC Mode
- 4080 320/350 bis 420W im OC Mode
- 4070 280/300 bis 350W im OC Mode
Hoffe dass es nicht so kommt und wir nicht deutlich über 300 Watt bei 4070/4080 sehen. Erinnere mich noch an die 3080 die knapp 20-30% schneller als die 2080Ti war, allerdings auch mit 20-25% höherem Strombedarf...
Hoffe ebenfalls auf gute Undervoltingfähigkeiten bei 4080 und 4090.
Tangletingle
2022-09-11, 22:32:30
da wurde doch ein Diagramm gepostet... hör auf wieder zu Lügen.
Das spiegelt sich auch in der Bruttomarge wider, die Ende 2021 im Jahresvergleich um 5,6 Prozentpunkte auf rund 50 Prozent stieg. Damit erreichte AMD fast Intels Niveau von zuletzt 53,6 Prozent. Bei der operativen Marge hat AMD den Konkurrenten mit 25 Prozent bereits knapp überholt.
->https://www.heise.de/news/Gewinnexplosion-AMD-verdient-fleissig-an-hohen-Grafikkartenpreisen-mit-6345770.html
Gott1337
2022-09-11, 23:06:09
->https://www.heise.de/news/Gewinnexplosion-AMD-verdient-fleissig-an-hohen-Grafikkartenpreisen-mit-6345770.html
Damit hast du bewiesen das du nicht lesen kannst, ich sagte für die GPUs
iamthebear
2022-09-12, 00:19:14
Wie gesagt: ich hoffe, diese „UVPs“ waren eine einmalige Sache bei Ampere und werden nicht das neue Normal.
Diese "UVPs" sind bei Nvidia bereits die 3. Generation in Folge normal.
Bei Pascal war es noch ein dezenter Aufschlag von ca. 5-10%
Bei Turing waren es dann schon 20% (600 statt 500 für die 2070, 850 statt 700 für die 2080 und 1200 statt 1000 für die 2080 Ti). Das hat sich erst 1 Jahr später kurz vor Einführung der Super Karten für die 2070/80 gelegt. Die 2080 Ti blieb bis kurz vor dem Ampere Launch auf 1200 Euro.
Ampere nur kurz nach Launch um 20% mehr gelistet aber nicht erhältlich. Danach war sie bis vor ein paar Monaten durchgehend nur für Mondpreise zu haben und selbst jetzt 2 Wochen für Ada Vorstellung sind die Hälfte der Karten auf Geizhals immer noch über 1000 Euro gelistet und das ist jeweils der günstigste Händler.
Slipknot79
2022-09-12, 00:50:43
Es war schon IMMER so, dass in der Abverkaufszeit der Straßenpreis unter der UVP war und zwar massiv.
Kommt darauf an: 5-10% unter UVP war bisher immer der Normalpreis.
Die 500USD unter UVP bei der 3090, das ist Abverkaufspreis.
Die UVP nutzt sehr wohl etwas: Kaufentscheidung. War der Grund warum ich noch nie in Herstellershops eingekauft habe. Weil ich immer wusste, das die Preise (also zu UVP) viel zu hoch sind, Partnerkarten (Einstiegskarten, also nix Strix ....) waren dann 5-10% unter UVP.
An der UVP can man sich sehr gut orientieren ob man ein Trottelkunde ist oder ob der Markt halbwegs gesund ist. (y)
robbitop
2022-09-12, 04:46:34
Pascal war mittelfristig iirc zuu UVP und darunter kaufbar. Ich hab meine 1080 ti deutlich unter UVP erworben Ende 2016 iirc. Turing weiß ich nicht - hat mich null interessiert damals weil der Performance Bump zu klein war.
Nazar
2022-09-12, 05:53:32
AMD hat eine 4% Marge und du willst das sie noch runter gehen? ;D
hat man ja bei den CPUs gesehen, die Preise sind extrem nach oben gegangen.
Wenn sich etwas verbessert dann die Performance, die Preise aber kaum.
da wurde doch ein Diagramm gepostet... hör auf wieder zu Lügen.
Damit hast du bewiesen das du nicht lesen kannst, ich sagte für die GPUs
https://ir.amd.com/news-events/press-releases/detail/1044/amd-reports-fourth-quarter-and-full-year-2021-financial
Ich bin leider auch nicht in der Lage richtig zu lesen, denn ich (als Aktienbesitzer) kann beim besten Willen nirgends etwas herauslesen, was sich nur auf eine Marge alleine auf den Gewinn bei GPUs bezieht. Es wurden mir auch noch nie solche Daten zur Verfügung gestellt.
Es gibt eine Sparte, in der sowohl der CPU als auch der GPU zusammengefasst werden (Gaming) und die machte, wenn ich richtig lesen kann, den Hauptanteil des Gewinns aus.
Würdest du bitte aufzeigen, wo genau du die 4% Marge herausliest oder wo ich das nachlesen kann?
Gott1337
2022-09-12, 06:41:39
https://ir.amd.com/news-events/press-releases/detail/1044/amd-reports-fourth-quarter-and-full-year-2021-financial
Ich bin leider auch nicht in der Lage richtig zu lesen, denn ich (als Aktienbesitzer) kann beim besten Willen nirgends etwas herauslesen, was sich nur auf eine Marge alleine auf den Gewinn bei GPUs bezieht. Es wurden mir auch noch nie solche Daten zur Verfügung gestellt.
Es gibt eine Sparte, in der sowohl der CPU als auch der GPU zusammengefasst werden (Gaming) und die machte, wenn ich richtig lesen kann, den Hauptanteil des Gewinns aus.
Würdest du bitte aufzeigen, wo genau du die 4% Marge herausliest oder wo ich das nachlesen kann?
wir haben von GPUs geredet, so schwer ist es nicht den Kontext dann herzustellen... das Diagramm wurde hier im Forum gepostet, ich werds nicht suchen.
basix
2022-09-12, 08:16:45
@Nazar: Neueste Quartalszahlen anschauen. AMD hat jetzt nach abgeschlossener Xilinx Übernahme die Sparten umgestellt:
https://ir.amd.com/financial-information
Gaming umfasst nur noch Radeon, Konsolen und vermutlich so Zeugs wie das Steam Deck. 4% sind aber nicht korrekt. AMD gibt 11% Operating Margin an. Bei Ryzen und Co. sind es etwas mehr als 30%. Bei Overall 54% Bruttomarge über alle Segmente.
Neurosphere
2022-09-12, 08:24:30
Könnten wir trotzdem zurück zum Thema kommen? Die Quartalszahlen von AMD haben nicht wirklich was mit Lovelace zu tun.
basix
2022-09-12, 08:26:15
+1 ;)
Tangletingle
2022-09-12, 08:26:48
Damit hast du bewiesen das du nicht lesen kannst, ich sagte für die GPUs
Damit hast du bewiesen, dass du nicht lesen kannst. Es ist völlig scheiß egal welche Sparte die Marge einfährt. Wenn du den letzten Quartalsbericht auch gelesen hättest, statt dich an irgendwelchen "Diagrammen" aus dem Internet aufzuhängen, dann hättest du evtl. festgestellt wie falsch die 4% sind. AMD hat einfach mehr Luft Overall und rein im GPU segment liegt man bei >10% operational.
https://www.techpowerup.com/298768/nvidias-third-largest-ada-gpu-the-ad106-features-pcie-x8-interface
Da wird der 106er wohl nur die 4050 wie es aussieht. Damit dürfte die 4060 auf AD104 basieren.
Platos
2022-09-12, 09:20:12
Wo steht da was von 4050 ?
OgrEGT
2022-09-12, 09:31:27
https://videocardz.com/newz/gigabyte-confirms-eleven-custom-geforce-rtx-4090-graphics-cards-through-eec-filing
11 4090 Modelle von Gigabyte...
why_me
2022-09-12, 10:17:11
Warum braucht es 11 unterschiedliche 4090 Modelle nur von Gigabyte?
Erscheint mir nur Sinnvoll, wenn die Preise deutlich niedriger sind als aktuell angenommen und man dadurch viel verkauft, anders kann sich das doch kaum rechnen...
dargo
2022-09-12, 10:20:38
Weil dank des hohen Verbrauchs jetzt auch noch AIO-/ und Wasserlösungen dazu kommen.
BlacKi
2022-09-12, 10:46:33
Wo steht da was von 4050 ?
das leitet er von der x8 lane zahl ab, wenn ich richtig liege.
wenn das stimmt, legt die 4050 weit über 2x an performance zum vorgänger zu mit fast 7000tse punkten. vl kommt sie auch als 4050ti mit höherem pricetag. spekulieren kann man viel.
prinz_valium_2
2022-09-12, 10:48:51
https://videocardz.com/newz/gigabyte-confirms-eleven-custom-geforce-rtx-4090-graphics-cards-through-eec-filing
11 4090 Modelle von Gigabyte...
Unglaublich. Es gab mal Zeiten, da gab es EINE Titan.
Was auch mehr als ausreicht. Hoffen wir die AIBs bleiben drauf sitzen.
Wo steht da was von 4050 ?
Was ist steht ist eben Blödsinn, das ist ja nicht die Information. Die Information ist, dass der nur PCIe8x bekommt und das wird man bei einer 4060 eher nicht machen.
Mein Tipp:
AD106 -> 4050 und 4050Ti als Nachfolger der GP107-Karten sowie mobil 4060
AD107 -> alles kleiner 4050 und mobil MX
AMD wird ja N33 offenbar auch auf das 7600(XT)-Niveau runterziehen, von daher steht da wohl vor allem im Mainstreammarkt ein gewaltiger Performancesprung bevor.
Ich vermutete ja schon lange, dass NV einfach die Codenamen einen Punkt heruntergesetzt hat. Was GA104 war ist nun AD103, was GA106 war ist nun AD104. Ich hatte ja schon von Anfang an den Verdacht (also schon 2021), dass das Lineup so aussehen könnte:
AD102 -> 4080, 4090
AD103 -> 4070 (4080, 4090 Mobil)
AD104 -> 4060 (4070 Mobil)
AD106 -> 4050 (4060 Mobil)
AD107 -> OEM-Krempel und mobil MX
Bin mal gespannt, in welche Richtung das jetzt wirklich geht. Aber AMD macht es ja offenbar ähnlich:
N31 -> 7800, 7900
N32 -> 7700 (vielleicht auch Mobil)
N33 -> 7600 (soll ja knapp N21-Leistung haben, wäre dann 7800 und 7700 Mobil)
N2xS und N24 darunter
BlacKi
2022-09-12, 10:53:58
Unglaublich. Es gab mal Zeiten, da gab es EINE Titan.
Was auch mehr als ausreicht. Hoffen wir die AIBs bleiben drauf sitzen.
wurde die non aorus waterforce gestrichen? wenn nicht, wirds sogar nochmal 2 modelle mehr geben.
Neurosphere
2022-09-12, 11:22:21
Die oberen beiden mit dem W in der Bezeichnung sind die Waterforce Modell.
Edith: Aaaaaahhhhhh non Aorus. Gibbet nicht, gibbet die jetzt überhaupt?
Thunder99
2022-09-12, 14:15:16
Ressourcen Verschwendung wenn noch immer Chipmangel herrscht, ganz toll :freak:
4080 mit dem AD102 würden die 420W erklären. Hoffe es nicht...
Das war nur das, was ich vor nem Jahr spekuliert hatte, nicht das, was heute wahrscheinlich ist.
Thunderburne
2022-09-12, 15:02:50
https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/
prinz_valium_2
2022-09-12, 15:05:17
https://wccftech.com/zotac-geforce-rtx-4090-custom-graphics-card-leaked-pictured-massive-quad-slot-coolers/
https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX-4090-2.jpg
https://cdn.videocardz.com/1/2022/09/ZOTAC-4090-AMP-AIRO.jpg
robbitop
2022-09-12, 15:05:30
Ressourcen Verschwendung wenn noch immer Chipmangel herrscht, ganz toll :freak:
4080 mit dem AD102 würden die 420W erklären. Hoffe es nicht...
4080 hat afaik den ad103
Thunderburne
2022-09-12, 15:09:04
Langsam wird es ernst😍
Linmoum
2022-09-12, 15:09:13
Also tatsächlich PCIe 4.0, wenn ich das auf der rechten Seite unter Key Features in der zweiten Zeile richtig sehe.
Edit: Jup, definitiv 4.
dargo
2022-09-12, 15:12:20
Quad-Slot-Kühler? ;D
Thunder99
2022-09-12, 15:13:14
4080 hat afaik den ad103
Dann sollte die normale TDP niedriger sein :)
Auf den Bildern, 3 Slot oder mehr/weniger?
r3ptil3
2022-09-12, 15:15:03
Also tatsächlich PCIe 4.0, wenn ich das auf der rechten Seite unter Key Features in der zweiten Zeile richtig sehe.
https://i.ibb.co/Yjzj4wv/image.png
Jap
dargo
2022-09-12, 15:15:16
Auf den Bildern, 3 Slot oder mehr/weniger?
4. ;)
Ex3cut3r
2022-09-12, 15:22:19
Für 450W hätte ich da jetzt einen dickeren Ziegelstein erwartet, da ist meine TUF 3080 Ti mächtiger. O_o
Oder mal wieder Zotac Billig Custom?
basix
2022-09-12, 15:25:24
https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX-4090-2.jpg
https://cdn.videocardz.com/1/2022/09/ZOTAC-4090-AMP-AIRO.jpg
Man beachte die ominösen kritischen Kondensatoren auf der GPU-Rückseite ;) :D
Zum Box-Aufdruck: "Enhance!" ....ach, klappt nicht :D
dildo4u
2022-09-12, 15:29:49
Zotac Top Produkt nennt sich Holo, die scheint eine Stufe drunter.
https://www.zotac.com/de/product/graphics_card/zotac-gaming-geforce-rtx-3090-ti-amp-extreme-holo-0
Ex3cut3r
2022-09-12, 15:30:51
Täuscht glaube ich auf den Bildern, beim zweiten mal betrachten, muss ich doch sagen, ist glaube ich ein Ziegel Stein Deluxe.
Ohne GPU Stütze wurde ich das Ding nicht einbauen wollen.
Thunderburne
2022-09-12, 15:34:07
Monster!
Dem kann man ja Gott sei Dank mit Wakü Abhilfe schaffen!
Thunder99
2022-09-12, 15:43:00
Monster!
Dem kann man ja Gott sei Dank mit Wakü Abhilfe schaffen!
So manche Systeme werden da an die Grenze kommen ;D
r3ptil3
2022-09-12, 15:48:20
Habe mal die Länge der Karte oben berechnet auf Basis der Komponenten (Kondensatoren etc.) auf der Rückseite: Mit dem Plastikzeug des Kühlers könnte die Karte deutlich über 35cm lang sein. :freak:
Troyan
2022-09-12, 15:53:20
Der Schriftzug von "RTX 4090" entspricht dem des Bildes der angeblichen RTX 4080.
Thunderburne
2022-09-12, 16:19:06
So manche Systeme werden da an die Grenze kommen ;D
Da hab ich zum Glück vorgesorgt!
https://s20.directupload.net/images/220912/temp/d3a3pc7d.jpg (https://www.directupload.net/file/d/6670/d3a3pc7d_jpg.htm)
Gruß
Ex3cut3r
2022-09-12, 16:23:39
;D
Abnormal. Die GPU sieht da so mickrig aus. ^^
Redneck
2022-09-12, 16:25:23
https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX-4090-2.jpg
https://cdn.videocardz.com/1/2022/09/ZOTAC-4090-AMP-AIRO.jpg
Sieht aus wie ne Warp Spule der Enterprise
Thunderburne
2022-09-12, 16:52:04
;D
Abnormal. Die GPU sieht da so mickrig aus. ^^
3080Ti FE
RTX 4080 November!
https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/
Ex3cut3r
2022-09-12, 17:16:07
RTX 4080 November!
https://wccftech.com/nvidia-geforce-rtx-4090-launches-in-october-rtx-4080-in-november-in-16-gb-340w-12-gb-285w-flavors/
An eine 4080 mit 192-Bit Bus und "nur" 12GB VRAM kann ich nicht wirklich glauben.
Das ist auch purer zusammengesponnener Blödsinn. AFAIK ist das ja nur aufgrund zweier geleakter PCBs zusammengesponnen worden, da hat dann irgendein Honk ne 4080 daraus gemacht und die nehmen das für bare Münze.
Ich hab ja eher den Verdacht, dass wir es hier mit einer 4070 und einer 4070Ti, maximal einer 4080 zu tun haben. Das passt ja auch, 4070 mit billigem PCB und 12GB und die andere dann mit teurerem PCB und 16GB.
3070 220W -> 4070 285W
3070Ti 290W -> 4070Ti (?) 340W
Wenn die 4090 450W braucht würde ich bei der 4080 eher die Lücke suchen, das wäre dann um die 375W, vielleicht die 400W.
Platos
2022-09-12, 17:22:19
Sieht aus wie ne Warp Spule der Enterprise
Ich finde, es sieht aus wie ein Spielzeug-Elektroauto auf dem Kopf gedreht, dessen Räder noch fehlen (nicht negativ gemeint) ^^
Neurosphere
2022-09-12, 17:39:28
https://pbs.twimg.com/media/FcdpQgeWAAQYXM5?format=png&name=900x900
:freak::freak::freak::freak:
https://twitter.com/Sebasti66855537/status/1569338848949288961
r3ptil3
2022-09-12, 17:40:49
Da hab ich zum Glück vorgesorgt!
https://s20.directupload.net/images/220912/temp/d3a3pc7d.jpg (https://www.directupload.net/file/d/6670/d3a3pc7d_jpg.htm)
Gruß
Und andere erreichen die gleiche Leistung (max. -10%) in einem winzigen 10l Gehäuse.
Neurosphere
2022-09-12, 17:45:04
Und andere erreichen die gleiche Leistung (max. -10%) in einem winzigen 10l Gehäuse.
Blasphemie!!!
https://abload.de/img/rechnerdpd4r.jpg
:biggrin:
crux2005
2022-09-12, 17:53:13
Für 450W hätte ich da jetzt einen dickeren Ziegelstein erwartet, da ist meine TUF 3080 Ti mächtiger. O_o
Oder mal wieder Zotac Billig Custom?
AMP Extreme ist die dickste Zotac.
Aber der Kühler wirkt auch auf mich billig. ;(
Zotac Top Produkt nennt sich Holo, die scheint eine Stufe drunter.
https://www.zotac.com/de/product/graphics_card/zotac-gaming-geforce-rtx-3090-ti-amp-extreme-holo-0
Holo haben sie mit der 30 Serie eingeführt und bezeichnet nur die extra Beleuchtung. AMP Extreme ist schon das beste was sie haben.
robbitop
2022-09-12, 17:58:19
An eine 4080 mit 192-Bit Bus und "nur" 12GB VRAM kann ich nicht wirklich glauben.
Man darf nicht vergessen, dass mit Ada jetzt wie in RDNA2 auch riesige Caches kommen, die deutlich den Bandbreitenbedarf reduzieren.
AD103 hat halt auch nur 56% der Units wie AD102. Kommt also hin.
Da kommt gar nix hin, so ein Quatsch. Da fehlt massiv Bandbreite und W um auch nur in die Nähe der größeren Karte zu kommen.
robbitop
2022-09-12, 18:15:32
Da kommt gar nix hin, so ein Quatsch. Da fehlt massiv Bandbreite und W um auch nur in die Nähe der größeren Karte zu kommen.
Geht das auch sachlich mit Fakten? Der Post ist wertlos.
Ich habe die Anzahl an SM vor ein paar Seiten gepostet. AD102 und AD103 und der jeweiligen Zuordnung zu 4090 und 4080. Quelle TPU.
Es sind mit AD103 nur 56% der SMs von AD102*, der widerum 384 bit hat - gleiche Cachemenge pro SM. Seit rdna2 wissen wir wie effektiv so große Caches sind.
Bitte widerlege mit Fakten und Quellen, warum das nicht hinkommt. Ansonsten gibts da keinen Mehrwert außer leere Zweifel.
*Und genau das habe ich stark kritisiert vor ein paar Seiten. Weil es bedeutet, dass die 80 diesmal relativ zur 90 (verglichen mit Ampere) ungewöhnlich schwach wird. Hast du das nicht mitbekommen?
Thunderburne
2022-09-12, 18:19:14
An eine 4080 mit 192-Bit Bus und "nur" 12GB VRAM kann ich nicht wirklich glauben.
Ich Tipe da auch viel mehr auf eine 4070.
Gruss
Ex3cut3r
2022-09-12, 18:35:36
Man darf nicht vergessen, dass mit Ada jetzt wie in RDNA2 auch riesige Caches kommen, die deutlich den Bandbreitenbedarf reduzieren.
AD103 hat halt auch nur 56% der Units wie AD102. Kommt also hin.
Natürlich. Das habe ich auch im Hinterkopf. Allerdings scheint der Top Dog dann trotzdem wieder 384 Bit Interface zu haben, grade bei den dicken Cache müsste dann eigentlich eine 256 Bit SI wie bei AMD ausreichen. Glaube stand jetzt nicht daran, das Nvidia mit aufgebohrten L2 Caches and AMDs "Infinity Cache" rankommt. Kann aber auch falsch liegen.
Ein 192-Bit SI passt vom Gefühl eher zu einer 4070 oder 4060 IHMO.
Geht das auch sachlich mit Fakten? Der Post ist wertlos.
Ich habe die Anzahl an SM vor ein paar Seiten gepostet. AD102 und AD103 und der jeweiligen Zuordnung zu 4090 und 4080. Quelle TPU.
Es sind mit AD103 nur 56% der SMs von AD102*, der widerum 384 bit hat - gleiche Cachemenge pro SM. Seit rdna2 wissen wir wie effektiv so große Caches sind.
Bitte widerlege mit Fakten und Quellen, warum das nicht hinkommt. Ansonsten gibts da keinen Mehrwert außer leere Zweifel.
*Und genau das habe ich stark kritisiert vor ein paar Seiten. Weil es bedeutet, dass die 80 diesmal relativ zur 90 (verglichen mit Ampere) ungewöhnlich schwach wird. Hast du das nicht mitbekommen?
Was für Fakten? Und was für Quellen? :freak:
robbitop
2022-09-12, 18:45:35
Natürlich. Das habe ich auch im Hinterkopf. Allerdings scheint der Top Dog dann trotzdem wieder 384 Bit Interface zu haben, grade bei den dicken Cache müsste dann eigentlich eine 256 Bit SI wie bei AMD ausreichen. Glaube stand jetzt nicht daran, das Nvidia mit aufgebohrten L2 Caches and AMDs "Infinity Cache" rankommt. Kann aber auch falsch liegen.
Ein 192-Bit SI passt vom Gefühl eher zu einer 4070 oder 4060 IHMO.
Naja AD102 ist auch doppelt so schnell wie navi21. Entsprechend hat er auch einen höheren Bandbreitenbedarf trotz großen Caches. Also 50% breiteres SI und höherer Speichertakt.
(eine Variable bleibt noch wie effizient man pro MiB Cache ist in Bezug auf Hitrate in Relation zu Navi21)
AD102 hat im Vollausbau mit 18432 SM 384 bit. Das wäre also mal für eine 4090 ti.
Die 4080 soll 9728 SMs haben. Sind 52%. Also rein nach Adam Riese geht das für mich auf.
Was nicht heisst, dass die 4080 nicht auch ein 256 bit si haben kann. Aber rein von der Balancierung und Skalierung würde eben auch 192 bit reichen.
Was für Fakten? Und was für Quellen? :freak:
Also nur leeres Gequatsche. Dachte ich mir. Danke für‘s Gespräch.
DrFreaK666
2022-09-12, 19:09:00
...
Also nur leeres Gequatsche. Dachte ich mir. Danke für‘s Gespräch.
Wir sind hier im Speku-Forum. Bis zum 20.9 gibt es keine Fakten und dann wahrscheinlich auch nur zur 4090 (womöglich)
The_Invisible
2022-09-12, 19:37:35
Natürlich. Das habe ich auch im Hinterkopf. Allerdings scheint der Top Dog dann trotzdem wieder 384 Bit Interface zu haben, grade bei den dicken Cache müsste dann eigentlich eine 256 Bit SI wie bei AMD ausreichen. Glaube stand jetzt nicht daran, das Nvidia mit aufgebohrten L2 Caches and AMDs "Infinity Cache" rankommt. Kann aber auch falsch liegen.
Ein 192-Bit SI passt vom Gefühl eher zu einer 4070 oder 4060 IHMO.
AMD geht ja bei der neuen Gen auch auf 384bit, eine "Grundbandbreite" wird man anscheinend immer benötigen und die Chips werden immer fetter. Eine 192bit 4080 wäre aber wirklich merkwürdig, gibts da keine 1,5GB Speicherchips um das zu erklären? Hätts so von Nvidia glaub ich auch noch nie gegeben.
@Topic
Endlich geht mal etwas weiter, finde die Bilder aber klasse, ohne Treiber sind die nix anderes als ein teurer Briefbeschwerer. :D Freu mich schon auf den Hardwareherbst
fondness
2022-09-12, 19:54:07
Man darf nicht vergessen, dass mit Ada jetzt wie in RDNA2 auch riesige Caches kommen, die deutlich den Bandbreitenbedarf reduzieren.
AD103 hat halt auch nur 56% der Units wie AD102. Kommt also hin.
Deshalb könnte man trotzdem mehr wie 12 GB vram verbauen. Aber vermutlich muss man wie üblich bei Nvidia für ausreichend vram Reserve den top dog kaufen. Von daher sind die specs plausibel.
Ex3cut3r
2022-09-12, 20:00:12
Deshalb könnte man trotzdem mehr wie 12 GB vram verbauen. Aber vermutlich muss man wie üblich bei Nvidia für ausreichend vram Reserve den top dog kaufen. Von daher sind die specs plausibel.
Naja. Eine 4080 kommt wohl diesmal mit 16GB. Das ist sicherlich für viele mehr als ausreichend. Allerdings mit AD103 stand jetzt. Irgendwie wäre noch eine 4080 Ti mit 20GB und AD102 schöner, wer warten will/kann.
fondness
2022-09-12, 20:02:35
Ich finde das nicht absurd. Es sind 600mm2. Damit war seit über einem Jahrzent egal mit welcher tdp kein 2x Sprung drin. Bei AMD wohl auch mit n31.
Ich finde es jedenfalls toll, dass es zumindest die Option so gewaltiger Sprünge gibt.
Es sind 600mm2 in 4nm tsmc vs 8nm Samsung, der eher ein 10nm Prozess ist. Ergo fast 2 mal full node shrink. Dazu 100 Watt mehr vs Ampere wenn ich mal die unselige 3090ti ignoriere. Der Vergleich mit navi31 ist zudem seltsam, denn mal davon abgesehen dass man da noch nicht viel weiß ist ein Navi31 eben auch nicht auf diese TDP ausgelegt. Ein AD103 wird mit 450 W auch keine doppelte Performance liefern ( der wohl eher der Gegner von navi31 wird).
robbitop
2022-09-12, 20:06:25
Wir sind hier im Speku-Forum. Bis zum 20.9 gibt es keine Fakten und dann wahrscheinlich auch nur zur 4090 (womöglich)
Mehr als „das ist Quatsch und kann nicht sein“ darf es aber schon sein. Rechnen mit geleakten SMs, rechnen mit existierenden Bandbreitenbedarfen bisheriger SKUs (gb/s pro tflop) usw. Es darf schon mehr sein um Zweifel zu untermauern um irgendwas „Quatsch“ zu nennen.
Redneck
2022-09-12, 20:12:49
https://pbs.twimg.com/media/FcdpQgeWAAQYXM5?format=png&name=900x900
:freak::freak::freak::freak:
https://twitter.com/Sebasti66855537/status/1569338848949288961
Jensens neue Superyacht.. Mal schauen wie lange sie schwimmt bevor sie untergeht
davidzo
2022-09-12, 21:18:01
Aber der Kühler wirkt auch auf mich billig. ;(
Geht mir genauso.
Die unglücklichen Kurven sind für mich abgelutschte 2000er Stil-Elemente. Sieht richtig beschissen aus!
Von Zotac hatte ich eigentlich was Kantiges erwartet, die sind traditionell eigentlich eher mit minimalistischer und scharfkantiger Lüfterblende. Es gab schöneres, aber das war immerhin ein gewisser Stil.
Dabei hatte Nvidia doch so großen Wert auf gutes Industriedesign gelegt bei Ampere und mit Maxwell, Pascal und Turing erst seine Materialien- und Designsprache neu entwickelt.
Wäre schade wenn dass jetzt alles aufgegeben wird und gegen so eine hässliche Banane getauscht wird. Ich hoffe also auf wesentlich besser designte FE-Modelle. Gerne aber ohne den sinnlos teuren schnickschnack der RTX3K Modelle. Ein Triplefan Kühler mit geraden Lamellen-Stacks wie AMD nutzt ist sicher wesentlich günstiger und hat eine bessere Flächenausnutzung und Wörmeverteilung dank Vaporchamber als die hunderten unique/einzelnen gestanzten und gebogenen verlöteten Lamellen bei Ampere FEs.
Mittlerweile haben aber auch die Edelmarken EVGA und PNY ihren guten Stil verloren. Die vormals günstigen Partnermarken haben da wesentlich schönere und effizientere Designs, wie Galax HOF, Palit, Inno3d, Colorful. MSI und Asus sind da auch icht schlecht, aber vom Design nur Mittelklasse würde ich sagen.
crux2005
2022-09-12, 21:25:53
Geht mir genauso.
Die unglücklichen Kurven sind für mich abgelutschte 2000er Stil-Elemente. Sieht richtig beschissen aus!
Von Zotac hatte ich eigentlich was Kantiges erwartet, die sind traditionell eigentlich eher mit minimalistischer und scharfkantiger Lüfterblende. Gibt schöneres, aber das war immerhin ein gewisser Stil.
Vielleich wollten sie sich mit dem Design von anderen abheben. ASUS und MSI hatten die Jahre auch ähnliche kantige Designs.
Ich hoffe also auf wesentlich besser designte FE-Modelle. Gerne aber ohne den sinnlos teuren schnickschnack der RTX3K Modelle. Ein Triplefan Kühler mit geraden Lamellen-Stacks wie AMD nutzt ist sicher wesentlich günstiger und hat eine bessere Flächenausnutzung und Wörmeverteilung dank Vaporchamber als die hunderten unique/einzelnen gestanzten und gebogenen verlöteten Lamellen bei Ampere FEs.
Glaube die 40er FE Modelle werden nicht viel anders als die 30er. Würde mir trotzdem reichen. Die "Premium" Modelle sind mir zu überteuert. Eine 4070 FE wäre ideal. Aber wird es bei mir sicher nicht zu kaufen geben.
The_Invisible
2022-09-12, 21:44:10
Das Design ist mir ziemlich egal muss ich sagen so lange es gut kühlt, verschwindet eh im BigTower... komme halt noch aus einer Zeit wo beige Stand der Dinge war :D
aceCrasher
2022-09-12, 22:21:12
Mittlerweile haben aber auch die Edelmarken EVGA und PNY ihren guten Stil verloren.
Seit wann ist denn PNY eine "Edelmarke"? Die haben gerade mal ein 3090ti Modell und das wirkt eher budget. Auch deren "XLR8" 3080(ti) sind preislich und qualitativ low end. Nvidia-Edelmarken wären für mich EVGA, Asus und KFA HOF.
[...]
Also nur leeres Gequatsche. Dachte ich mir. Danke für‘s Gespräch.
Mehr als „das ist Quatsch und kann nicht sein“ darf es aber schon sein. Rechnen mit geleakten SMs, rechnen mit existierenden Bandbreitenbedarfen bisheriger SKUs (gb/s pro tflop) usw. Es darf schon mehr sein um Zweifel zu untermauern um irgendwas „Quatsch“ zu nennen.
Jo, kann ich 1:1 zurückgeben. Denn du sprichst hier von "Fakten", aber es gibt schlichtweg keine. Es gibt verschiedene Informationsschnipsel, die man zusammenfügen kann, aber das sind eben keine Fakten. Welches Produkt welche Bezeichnung letztendlich erhält weiss man sicher bei der 4090 (wie eben auch die Specs), sonst aber eben bei keinem Produkt, das final wäre. Sonst geistern nur SM-Zahlen und verschiedene PCBs mit verschiedenen Speicherausstattungen herum, die dann von irgendwem irgendwas zugeordnet werden. Das sind aber weder zuverlässige Quellen noch irgendwelche Fakten sondern in 99% irgendwelche Spekulationen und Interpretationen.
robbitop
2022-09-12, 22:37:27
Die Faktenlage mag nicht bestätigt sein - aber man kann mit dem arbeiten was man hat. Bandbreitenbedarfe pro Flop aus vergangenen uArchs und den Informationsschnipseln die es aus der Gerüchtelage gibt und sonst was. Irgendwas mit Substanz. Einfach nur „Quatsch“ zu rufen ohne das mit Substanz zu hinterlegen und sich jetzt zu rechtfertigen, dass es keine bestätigten Informationen gibt ist substanzlos.
iamthebear
2022-09-12, 22:45:20
https://twitter.com/kopite7kimi/status/1569315750401429504?s=20&t=V-_N9ZJm-V-k0P5r_hh8Gg
Laut kopite sollen 96MB vs. 72MB (also 33.3% mehr L2) für mindestens 10% mehr Performance sorgen.
Laut der Hitrate Grafik von AMD wären 96MB statt 72MB ca. 20% mehr effektive Speicherbandbreite.
Wenn das stimmt, so wäre Ada also mehr durch den Speicher limitiert als durch die Shader. Dann wäre eine 4080 12GB näher an der 4070 als an der 4080 16GB.
Umgekehrt wäre die Karte bei den aktuellen VRAM Preisen auch kostenmäßig näher an der 4070 als an der 4080 16GB.
Es kann auch gut sein, dass Nvidia auch die Lücke zwischen 4070 und 4080 schließen will, denn meine Vermutung ist, dass genau da Full Navi32 rein fallen wird.
robbitop
2022-09-12, 22:48:46
Wobei noch zu berücksichtigen ist, wie gut die hitrate pro mib Cache verbessert wird. Das muss zwischen rsna2 und Ada nicht gleich sein.
Aktuelle Gerüchte sprechen für N31 für 16 mib pro MCD a 6 Stück. Also 96 MiB und damit eine Reduktion ausgehend von N31 obwohl man über doppelt so viel FP32 Rohleistung hat.
Ggf ist die Effizienz der Hitrate pro MiB Cache besser geworden oder man hat mehr Bandbreiteneffizienz in der uArch gefunden.
RDNA2 ist nur ein einziger Datenpunkt.
Troyan
2022-09-13, 00:45:44
Man kann doch nicht L2 Cache mit IC vergleichen. . AMDs Cache ist als Puffer für die Bandbreite vorgesehen. Der vergrößerte L2 Cache soll mehr Daten auf dem Chip für die Compute Units bereitstellen.
Tesseract
2022-09-13, 00:56:09
wo soll da der unterschied sein? cache kann sich in details durch eviction/writeback/usw. strategien unterscheiden aber cache ist immer ein "puffer" für speicherzugriffe.
robbitop
2022-09-13, 01:07:46
Hör doch auf mit deinen Argumenten - einfach auf die Zahl schauen. :D
L2 ist besser als L3 völlig unabhängig von allen Randbedingungen. Die Zahl nach dem "L" ist kleiner und L3 ist viel dümmer und langsamer als L2. X-D
*Sarkasmus*
Leonidas
2022-09-13, 06:20:20
/Bild gelöscht, gab es schon.
Das mit den 10% Differenz zwischen 72 und 96 MB ist ganz schön harsch. Das deutet darauf hin, dass die Cache-Mengen bei NV recht knapp angesetzt wurden. Sprich, die kleineren Grafikchips dürften um so stärker unter 4K skalieren.
OgrEGT
2022-09-13, 07:05:04
/Bild gelöscht, gab es schon.
Das mit den 10% Differenz zwischen 72 und 96 MB ist ganz schön harsch. Das deutet darauf hin, dass die Cache-Mengen bei NV recht knapp angesetzt wurden. Sprich, die kleineren Grafikchips dürften um so stärker unter 4K skalieren.
Wie geht das eigentlich rechnerisch auf mit 96MiB oder 72MiB L2? Dieser muss ja irgendwie mit den SMs verbunden sein und kann nicht beliebig deaktiviert werden ohne Auswirkung auf die Anzahl aktiver SMs?
144SMs bei 96MiB sind 2MiB pro 3SMs
Bei 72MiB sind dann nur 108SMs aktiv?
Edit
Bei Hopper sinds 1.25MiB pro 3SMs...
Korvaun
2022-09-13, 07:28:03
Ich kann mir gut vorstellen wie nV aktuell alle möglichen Varianten durchprobiert um ihre 50% Marge zu halten und die neuen Karten trotzdem noch auf einem einigermaßen erträglichen Preisniveau anzubieten. Das könnte dann dazu führen das alles unterhalb von 4090 komplett auf Kante designed wird (also noch mehr als sonst schon bei nV), minimaler Materialeinsatz für möglichst viel Leistung... 12GB 4080 würde da absolut ins Bild passen.
...
Also nur leeres Gequatsche. Dachte ich mir. Danke für‘s Gespräch.
gibts schon Infos zu den genauen Cachegrößen bei RTX 4000?
Leonidas
2022-09-13, 08:16:36
Ja, hier:
https://www.3dcenter.org/news/geruechtekueche-korrigierte-hardware-daten-zu-nvidias-ada-lovelace-generation-inkl-gpc-tpc-und-
Laut Kopite soll alles außer 4090 mit vollem L2 antreten (natürlich nicht, wenn Speicherinterface beschnitten wird).
Geldmann3
2022-09-13, 08:57:37
Ich kann mir gut vorstellen, wie nV aktuell alle möglichen Varianten durchprobiert um ihre 50% Marge zu halten und die neuen Karten trotzdem noch auf einem einigermaßen erträglichen Preisniveau anzubieten. Das könnte dann dazu führen, dass alles unterhalb von 4090 komplett auf Kante designt wird (also noch mehr als sonst schon bei nV), minimaler Materialeinsatz für möglichst viel Leistung... 12GB 4080 würde da absolut ins Bild passen.
Hoffe mal nicht, dass das passieren wird. Die RTX 3080 Ti für den Zweitrechner war bereits einer der größten Fehlkäufe meines Lebens. Hänge bei dem Ding dauernd an den 12GB VRam. Mit meiner RTX 3090 dachte ich zuvor, dass ich den Vram gar nicht so dringend brauchen würde, bis ich ihn dann nicht mehr hatte. Mir kommt nichts mehr unter 16GB Vram ins Haus. (Eher mehr)
Wobei Nvidia traut man alles zu. Bei der RTX 3070 8GB und der RTX 3080 10GB haben sie schließlich auch Karten für die Tonne produziert. Wären in meinen Augen beides super Karten, hätten sie jeweils 2GB Vram mehr.
Technisch hatte Nvidia hier die Wahl zwischen 8/16 und 10/20GB, hatte beide Varianten wohl bereits aufgesetzt. Hat sich am Ende jedoch volle Kanne für die geplante Obsoleszenz entschieden.
Denke aber diesmal sehen wir 16GB bei der 4080, weil die anderen Möglichkeiten nur ein anderer Chip, komische Ram-Chips, ein beschnittendes Speicherinterface oder nur läppische 8GB VRam wären. Außerdem, bei der Performanceklasse ist es nötig... Doch die RTX 3070 hätte auch 11 GB nötig gehabt, aber nur 8 bekommen. Daher halte ich es für nicht undenkbar, dass Nvidia doch das Verbrechen begeht und 12GB reinfummelt. Hoffen wir es mal nicht.
The_Invisible
2022-09-13, 09:27:03
Wo hängst du bitte mit 12GB "dauernd" im Limit?
Spiele selbst nativ in 4k und je nachdem auch mit DLDSR und wüsste nicht wo das der Fall sein soll... hört sich für mich nach starker Übertreibung an oder du hast eine andere Karte als ich...
Edgecrusher86
2022-09-13, 09:33:11
Für 4K ist 12GB doch noch recht ordentlich - für 5K/8K würde ich natürlich auch zu mindestens 16, besser 24GB raten. :D
dildo4u
2022-09-13, 09:36:00
Das sind oft Software Probleme da in DX12 die Entwickler den Speicher selber verwalten müssen.
Dying Light hat z.b grad wieder ein Fix dafür bekommen, Spiderman könnte sowas auch vertragen.
PC improvements:
Improved management of GPU memory in DirectX 12 mode, especially when Ray-Tracing is enabled.
https://dyinglightgame.com/news/community-update-1-is-live-now/
Dural
2022-09-13, 10:07:14
Allgemein finde ich die Daten die aktuell genannt werden ziemlich unglaubwürdig. Die Differenz von 4080 zur 4090 ist viel zu hoch. Die 4090 soll 70% mehr Alus gegenüber 4080 haben? AD102 nur für die 4090? Kann ich mir nicht vorstellen.
Edgecrusher86
2022-09-13, 10:25:08
Macht vermutlich aus marketingtechnischen Gründen Sinn, wenn 4090 und 4090 Ti sich weiter absetzen können vom Rest des Portfolios. Dann werden vermutlich mehr dicke Karten gekauft. :biggrin:
Ich tippe dann auf $699-749 MSRP für die RTX 4080 12GB (oder evtl. RTX 4070 Ti) und $799-899 MSRP für die RTX 4080 16GB. RTX 4090 wird dann locker $1749 haben; soll ja günstiger als die RTX 3090 Ti werden, angeblich.
;D
Abnormal. Die GPU sieht da so mickrig aus. ^^
Habe mal eben kurz den Dyson angeschmissen, extra für dich. :freak:
https://abload.de/img/img_20220913_101712tqi8l.jpg https://abload.de/img/img_20220913_1017202oie4.jpg
Pascal und Ampere habe ich dann aber unter Luft gefahren und da ich eh immer undervolte und idR mit fps Limit spiele, wird das in Zukunft erst recht so sein - von mir aus darf Jensen die Karten auch doppelt so lang und stark bauen. ;D;D;D
Die 3090 werkelt gerade beim Kollegen in einer externen dGPU Box für den Laptop - nutze bis Oktober erstmal nur den kleinen PC samt IGP. Wenn man für 1800€ eine RTX 4090 bekommt, darf er mir die Zotac abkaufen. ^^
Für die CPU wird der 560er Radi auch noch etwas länger ausreichend sein. ;)
Platos
2022-09-13, 10:25:52
Für 4K ist 12GB doch noch recht ordentlich - für 5K/8K würde ich natürlich auch zu mindestens 16, besser 24GB raten. :D
Für 4k ist 12GB eher das absolute Mininmun und nicht gerade eine Grösse, die ich mir zulegen würde, wenn ich die Grafikkarte länger behalten will.
Watch Dogs Legion ist z.B ein Titel, der so ~11.5GB zieht bei 4k Ultra und RT. Ist nur ein Beispiel um zu verdeutlichen, ist aber natürlich nicht der einzige Titel, der viel Speicher frisst.
https://www.youtube.com/watch?v=5vzv-DEZg_Y
Edit: Man muss ja sehen, dass es hier nicht um eine 3080Ti geht, sondern um eine potentielle 4080 mit 12GB. D.H die "lebt" auch viel länger und muss nicht ausgetauscht werden von der Rechenleistung. D.H die Karte wird viel mehr Spielen begegnen, denen 12GB nicht mehr reicht in 4k, wie es eine 3080Ti tut. Unter 12GB für 4k muss man aber gar nicht erst anfangen. Das sprengt ja schon jetzt in einigen Spielen komplett den Speicher in 4k.
Das gilt natürlich auch für die 4070. Wenn die mit 10GB kommt, ist sie Elektroschrott unter 4k Nutzung.
Edgecrusher86
2022-09-13, 10:36:21
Ja, 12GB ist so 2015, ich weiß. Ja, ich sage mal - dick ist der Puffer da nicht für 4K aber erstmal ausreichend - vor allem wenn DLSS zum Einsatz kommt.
Ich hätte die RTX 3080 zum Beispiel auch gleich mit 12GB gebracht und die RTX 3070 Ti mit 10GB. Insofern ist es schon gut, wenn RTX 4080 nun 16GB bekommt - das langt oft ja auch für 8K. :)
E: Es mag sein, dass es bei Nutzung einer RTX 3080 Ti vielleicht "nur" 10-11GB wäre in W_D III. Ein bisschen mehr wird dann ja oft benutzt, wenn mehr zur Verfügung steht.
Thunderburne
2022-09-13, 10:37:41
Für 4K ist 12GB doch noch recht ordentlich - für 5K/8K würde ich natürlich auch zu mindestens 16, besser 24GB raten. :D
Ich hatte die 3080Ti noch mal würde ich die für 4K nicht kaufen .
Mit der 3000ner Gen war das in Ordnung für die nächsten 2 Jahre würde ich mindestens auf 16GB setzen!
Allgemein finde ich die Daten die aktuell genannt werden ziemlich unglaubwürdig. Die Differenz von 4080 zur 4090 ist viel zu hoch. Die 4090 soll 70% mehr Alus gegenüber 4080 haben? AD102 nur für die 4090? Kann ich mir nicht vorstellen.
Seh ich auch so.
Linmoum
2022-09-13, 10:45:44
Wie viel SM die einzelnen Chips im Vollausbau haben, ist doch seit dem Leak bei NV hinlänglich bekannt. Darüber gibt's doch gar nichts mehr zu spekulieren.
Edgecrusher86
2022-09-13, 10:47:56
Wobei ja 20-30% Abstand ja früher normal war von Performance- zur Highendklasse bei NV.
Thunder99
2022-09-13, 11:01:27
Die Ampere Karten lagen ja auch sehr nah beieinander. Passt dann zur 4080 die auf Sterioiden ist damit der Abstand nicht zu extrem ist aber dennoch groß genug ist für die 4080Ti auf AD102 Basis
AD102
4090Ti SM 14x
4090 SM 128
4080Ti SM 1xx
AD103
4080 SM 8x
Was meint ihr?
basix
2022-09-13, 11:21:32
Man kann doch nicht L2 Cache mit IC vergleichen. . AMDs Cache ist als Puffer für die Bandbreite vorgesehen. Der vergrößerte L2 Cache soll mehr Daten auf dem Chip für die Compute Units bereitstellen.
Man sollte Trolle ja nicht füttern...
Somit confirmed: Der L2$ von Nvidia bringt entsprechend keinen Bandbreitenmultiplikator? :whisper:
Und in den 128MByte L3$ von Navi 21 kann man keine Daten auf dem Chip speichern und, verglichem mit dem VRAM, mit erhöhter Bandbreite & geringerer Latenz für die CUs vorhalten? :whisper:
Thunderburne
2022-09-13, 11:48:54
https://videocardz.com/newz/nvidia-ad102-gpu-reportedly-has-more-than-75-billion-transistors
Troyan
2022-09-13, 13:21:12
Man sollte Trolle ja nicht füttern...
Somit confirmed: Der L2$ von Nvidia bringt entsprechend keinen Bandbreitenmultiplikator? :whisper:
Und in den 128MByte L3$ von Navi 21 kann man keine Daten auf dem Chip speichern und, verglichem mit dem VRAM, mit erhöhter Bandbreite & geringerer Latenz für die CUs vorhalten? :whisper:
Du scheinst nicht sehr wissend zu sein. Wieso gibt es einen L2 Cache wohl bei GPUs? Ein L3 Cache ist ein Puffer zum externen Speicher, ein L2 Cache ermöglicht den Austausch von Daten zwischen ComputeUnits ohne die Daten rausschreiben zu müssen.
Der Effekt ist, dass bei HPC-Ampere und Hopper die ComputeUnits bis zu 50MB L2 Cache für Daten haben.
https://videocardz.com/newz/nvidia-ad102-gpu-reportedly-has-more-than-75-billion-transistors
Das wäre so überraschend wie damals Volta (und Turing). Aber durch Hopper war klar, dass nVidia durch Forschung so dermaßen viele Transistoren auf die Fläche packen kann, dass sie kein Chiplet-Design benötigen.
Gipsel
2022-09-13, 13:46:21
Du scheinst nicht sehr wissend zu sein. Wieso gibt es einen L2 Cache wohl bei GPUs? Ein L3 Cache ist ein Puffer zum externen Speicher, ein L2 Cache ermöglicht den Austausch von Daten zwischen ComputeUnits ohne die Daten rausschreiben zu müssen.Also dienen beide am Ende dem gleichen Zweck, willst Du sagen?
Troyan
2022-09-13, 13:51:10
Da AMD aktuell einen zusätzlichen L2 Cache hat, ergibt deine Aussage mal wieder keinen Sinn. Nichts neues. Daher lass mich mal basix zitieren:
Man sollte Trolle ja nicht füttern...
Meridian12
2022-09-13, 13:54:51
Ich will endlich echte finale Tests sehen :D
Dieses ganze rumgeeiere, rumspekulieren reicht mir mittlerweile :D
Gipsel
2022-09-13, 13:57:04
Da AMD aktuell einen zusätzlichen L2 Cache hat, ergibt deine Aussage mal wieder keinen Sinn. Nichts neues. Daher lass mich mal basix zitieren:Um Dir mal den Spiegel vorzuhalten:
Du scheinst nicht sehr wissend zu sein.
Du verstehst offenbar nicht, wie Multi-Level Caches funktionieren. Auch ein L3 ermöglicht es, Daten auf dem Chip zu halten, der dann von anderen SMs/CUs gelesen werden kann, ohne auf den VRAM zuzugreifen. Der L2 macht im Prinzip das Gleiche, ist dabei aber kleiner und schneller, nicht viel anders als bei CPUs :wink:.
why_me
2022-09-13, 14:03:51
@Troyan: Du laberst hier mal wieder einen Müll, unfassbar...
Cache ist Cache, egal ob L0,1,2,3. Alle haben die Aufgabe Daten möglichst lokal zu halten und damit Leerlauf zu verhindern.
Was du bei deinem ganzen geschwafel aber irgendwie unterschlägst, ist dass es auch einen Grund gibt, warum niedrigere Caches deutlich kleiner sind als höhere. Die latenz. Das mag zwar bei GPUs nicht ganz so wichtig sein, kann aber auch eine negative auswirkung auf die Performance bei Nvidia haben.
Tesseract
2022-09-13, 14:19:56
Du scheinst nicht sehr wissend zu sein. Wieso gibt es einen L2 Cache wohl bei GPUs? Ein L3 Cache ist ein Puffer zum externen Speicher, ein L2 Cache ermöglicht den Austausch von Daten zwischen ComputeUnits ohne die Daten rausschreiben zu müssen.
ich weiß nicht wie oft das noch gesagt werden muss, aber da ist kein unterschied. die CU greifen auf adressen im speicher zu und dieser zurgiff geht so lange die cachelevel "nach unten" bis die daten entweder gefunden sind oder auf den DRAM zugegriffen werden muss. wenn ein on-chip speicher eigene adressen hat, d.h. unabhängig vom speicher verwendbar ist, ist das kein cache sondern ein scratchpad (cell hatte z.B. sowas für die SPE).
Gipsel
2022-09-13, 14:27:20
auch einen Grund gibt, warum niedrigere Caches deutlich kleiner sind als höhere. Die latenz. Das mag zwar bei GPUs nicht ganz so wichtig sein, kann aber auch eine negative auswirkung auf die Performance bei Nvidia haben.Mal so als Anmerkung, AMD hat eigentlich gesagt, warum man bei den RDNA(2)-Chips zusätzliche Cache-Level eingezogen hat (aus den L1-Caches sind ja [quasi die Numerierung verschoben] L0 geworden und man hat zusätzlich die L1-Caches pro Shader-Array eingeschoben, mit RDNA2 kam dann halt noch der Infinity-Cache als 4. Cachestufe dazu). Es reduziert die Anzahl der Clients am L2 und damit die Anforderungen an das Fabric zwischen den Caches (bzw. zwischen den SMs/CUs und dem L2/Inf-$). Die L1-Caches halten Daten im Shaderarray (und auch die ROPs hängen am L1), so daß weniger Kommunikation über den L2 laufen muß. Sprich, es erhöht die Datenlokalität und reduziert die nötige L2-Bandbreite und damit den nötigen Aufwand für die entsprechenden Verbindungen (auf Kosten von etwas höherer Latenz zum Speicher, effektive/mittlere Latenz kann dadurch aber sogar sinken).
Bei nV hat Ampere zwar die ROPs auch in die GPCs hinein verlagert, allerdings gibt es wohl keinen Cache pro GPC, an dem die direkt hängen (vorher waren die direkt mit den L2-/Memory-Controller-Partitionen verbunden). Dies legt nahe, daß die ROPs auch Clients des Fabrics zwischen SMs und L2-Cache darstellen (quasi die Situation wie bei AMD pre-RDNA). Aber nVs Aussagen dazu traue ich manchmal nicht so ganz.
basix
2022-09-13, 14:33:54
:popcorn::D
Troyan sollte man bei AMD vs. Nvidia ignorieren, da kommt nichts brauchbares raus ("Hail Nvidia" ist das einzige, was gesagt wird).
Die grösseren L2-Caches bei Nvidia kommen sicher mit einem Latency-Hit daher, ist also nicht kostenfrei. Die durchschnittliche / effektive Speicherlatenz wird allerdings sinken, und genau das ist der grosse Vorteil (Ampere ist meistens Memory Bound, ALUs sind genug da). Dazu der Vorteil, dass man einen Bandbreitenmultiplikator zum VRAM bekommt. Wie schon von Vorrednern gesagt: Höhere Datenlokalität / mehr lokaler Speicher = Weniger Zugriffe auf die nächste Stufe in der Speicherhierarchie nötig, ergo weniger VRAM Zugriffe nötig, ergo schmaleres Off-Chip Interface möglich (in GByte/s).
Dass Lovelace einen gesplitteten L2 wie A100 und H100 bekommt? Sehr gut möglich. Gipsel hat es angetönt: Komplexe Routing Netzwerke. Mit einem Split des L2-Caches reduziert man hier die Anforderungen.
mksn7
2022-09-13, 14:49:43
Die 2x20MB L2 cache bei A100 haben kaum schlechtere Latenzen als die 6MB von V100:
https://github.com/te42kyfo/cuda-benches/blob/master/cuda-latency/cache_plot.svg
Dafür kann man den Split schön sehen, bei ab 20MB geht die Latenz ein bisschen hoch. Bei H100 verbaut man weiterhin recht konservative 50MB (wohl 2x25MB), bei einem deutlich massiveren chip also weniger als bei den Gaming GPUs. Die große L2 cache Größe in den gaming GPUs wird vielleicht nur mit anderen Nachteilen realisiert, die man nicht haben wollte.
Einen Kontakt bei AMD (allerdings nicht aus der Gaming GPU Sparte) hab ich mal gefragt warum die RDNA2 chips noch einen separaten L2 cache haben. Der Grund ist wohl Energieeffizienz. Ein hit im I$ bräuchte wohl mehr Energie als ein hit im L2 cache.
Gipsel
2022-09-13, 14:54:39
ich weiß nicht wie oft das noch gesagt werden muss, aber da ist kein unterschied. die CU greifen auf adressen im speicher zu und dieser zurgiff geht so lange die cachelevel "nach unten" bis die daten entweder gefunden sind oder auf den DRAM zugegriffen werden muss. wenn ein on-chip speicher eigene adressen hat, d.h. unabhängig vom speicher verwendbar ist, ist das kein cache sondern ein scratchpad (cell hatte z.B. sowas für die SPE).In dem Zusammenhang vielleicht ganz lustig, aber kann RDNA2 den Infinity-Cache nicht sogar in einen Scratchpad-Modus umschalten, in dem dann der externe Speicher mitsamt Controllern abgeschaltet werden kann? Ist quasi ein Stromsparfeature wenn nur eine Desktopoberfläche dargestellt werden muß. Der Framebuffer paßt dann in den (nun direkt als Scratchpad addressierten) Cache und die Refreshes laufen auch direkt aus diesem. Aber Standardfunktionsweise ist schon als Cache. Und das ist hier langsam ein wenig doll OT. :redface:
Gipsel
2022-09-13, 14:58:18
Einen Kontakt bei AMD (allerdings nicht aus der Gaming GPU Sparte) hab ich mal gefragt warum die RDNA2 chips noch einen separaten L2 cache haben. Der Grund ist wohl Energieeffizienz. Ein hit im I$ bräuchte wohl mehr Energie als ein hit im L2 cache.Ja, das haben kleinere Caches oft an sich. Alternativ ist es schlicht schneller (weswegen auch bei CPUs bekannt ist, daß es mehrere Cache-Level mit genau der gleichen "Abdeckung" gibt).
Dural
2022-09-13, 18:13:09
Wie viel SM die einzelnen Chips im Vollausbau haben, ist doch seit dem Leak bei NV hinlänglich bekannt. Darüber gibt's doch gar nichts mehr zu spekulieren.
Ich habe kein Problem mit den Chip Daten, wobei auch diese sehr ungewöhnlich sind.
Ich bezweifle nur das zwischen 4080 und 4090 70% Leistungsdifferenz herrscht, jedenfalls auf dem Papier Takt zu Takt.
Wenn die Daten stimmen kann das nur folgende Gründe haben:
1. NV will einen 4080 Preisbrecher.
2. Die Ada GPUs verbrauchen zu viel, um eine 4090 im vernünftigen Rahmen zuhalten muss NV den Takt runter nehmen und in die Breite gehen.
robbitop
2022-09-13, 18:42:31
Ja wenn die Gerüchte sich bewahrheiten wird das die relativ zum top dog schwächste 80 die es je gab.
Langlay
2022-09-13, 18:45:31
1. NV will einen 4080 Preisbrecher.
Ja klaro und der Papst verteilt demnächst auf'm Christopher Street Day Kondome.
Gott1337
2022-09-13, 19:14:48
Ja klaro und der Papst verteilt demnächst auf'm Christopher Street Day Kondome.
Da verteilt ja eher ISIS die Bibel ;D
Sardaukar.nsn
2022-09-13, 19:28:52
Ja wenn die Gerüchte sich bewahrheiten wird das die relativ zum top dog schwächste 80 die es je gab.
Das befürchte ich auch. Je nach Preis der 4090 könnte meine 3080 dann doch noch etwas länger bleiben.
Gibt es denn in Reichweite schon ein Killer-Spiel bzw. Systemseller wie es ja bei Konsolen heißt?
Bei Ampere war es für viele ja CP2077 inkl. RT auch wenn es nicht dem Hype gerecht wurde.
crux2005
2022-09-13, 19:36:11
Hatten nicht die x60 Karten mal die 1/2 der ALUs des vollen Chips? :D
Das befürchte ich auch. Je nach Preis der 4090 könnte meine 3080 dann doch noch etwas länger bleiben.
Gibt es denn in Reichweite schon ein Killer-Spiel bzw. Systemseller wie es ja bei Konsolen heißt?
Bei Ampere war es für viele ja CP2077 inkl. RT auch wenn es nicht dem Hype gerecht wurde.
Aktuell würde ich nur für CP77 und evtl. RDR2 mehr Leistung brauchen.
Edit: GR: Breakpoint und Valhalla wären auch noch Kandidaten.
Ansonsten kommen nächstes Jahr viele Spiele raus. Aber z.B. CP77 hat gezeigt das es besser ist erst 1+ Jahr nach dem Spiel eine passende Karte kaufen und nicht umgekehrt.
ChaosTM
2022-09-13, 19:36:22
NV wird sich sicher wieder ein spezielles Spiel einfallen lassen, ohne deren GPU es nicht wirklich "brauchbar" läuft".
robbitop
2022-09-13, 19:48:52
Ich sehe es so, dass GPU Leistung wie Geld ist: man kann nie genug davon haben. 4K+Max Details+120fps oder mehr und ansonsten noch Downsampling (gekoppelt mit dlss/fsr2.X). Die Leistung kann man immer ausschöpfen.
ChaosTM
2022-09-13, 19:53:13
Natürlich, aber es wird wieder ein Spiel (oder vielleicht 2) geben, wo NV Lichtjahre voraus ist.
Das macht dann den Unterschied. Good Marketing ;)
OgrEGT
2022-09-13, 19:54:57
https://videocardz.com/newz/gigabyte-geforce-rtx-4090-gaming-oc-graphics-card-has-been-pictured
70mm dick 4Slots...
Die Höhe und Länge der Karte ist dabei auch nicht zu unterschätzen... Das Ding ist groß...
Sardaukar.nsn
2022-09-13, 19:57:31
Dank einer gute Implementierung von DLSS hatte meine 3080 nachträglich bei vielen Spielen noch mal einen ordentlichen Schub bekommen. Das hatte ich damals beim Kauf noch nicht so erwartet. Vielleicht gibt es bei Ada aber auch ein neues Killer-Feature?
crux2005
2022-09-13, 19:57:52
Ich sehe es so, dass GPU Leistung wie Geld ist: man kann nie genug davon haben. 4K+Max Details+120fps oder mehr und ansonsten noch Downsampling (gekoppelt mit dlss/fsr2.X). Die Leistung kann man immer ausschöpfen.
Das wollen uns die Firmen weismachen. Wirklich brauchen tust du es aber nicht. ;) Gerade in der aktuellen Zeit wo viele Menschen in Europa kein Zuhause oder Geld für Heizung haben.
aceCrasher
2022-09-13, 20:10:40
https://videocardz.com/newz/gigabyte-geforce-rtx-4090-gaming-oc-graphics-card-has-been-pictured
70mm dick 4Slots...
Die Höhe und Länge der Karte ist dabei auch nicht zu unterschätzen... Das Ding ist groß...
Sieht indentisch zum Gigabyte 3090ti Gaming Kühler aus. Das Gerücht dass die 3090ti Kühler/Platinen ein Testlauf für die nächste Gen wird scheint sich also zu bewahrheiten.
Thunderburne
2022-09-13, 20:13:36
https://www.tweaktown.com/news/88259/colorful-igame-geforce-rtx-4080-ultra-oc-spotted-oh-man-here-we-go/index.html
RTX 4080 Picture
OgrEGT
2022-09-13, 20:25:29
Sieht indentisch zum Gigabyte 3090ti Gaming Kühler aus. Das Gerücht dass die 3090ti Kühler/Platinen ein Testlauf für die nächste Gen wird scheint sich also zu bewahrheiten.
Stimmt... dachte die 3090ti wäre noch 3Slot... ist aber auch 70mm...
r3ptil3
2022-09-13, 20:48:31
https://cdn.wccftech.com/wp-content/uploads/2022/09/Gigabyte-GeForce-RTX-4090-Gaming-OC-Windforce-3X-Graphics-Card-_1-low_res-scale-4_00x-scaled.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/09/Gigabyte-GeForce-RTX-4090-Gaming-OC-Windforce-3X-Graphics-Card-_2-low_res-scale-4_00x-scaled.jpg
War schon auf der RTX 3090 Ti kein schlechter Kühler.
iamthebear
2022-09-13, 21:58:27
Hatte nicht die x60 Karten mal die 1/2 der ALUs des vollen Chips
Ich kann mich noch an meine GTX 295 erinnern. Das war gleich 2 Mal der Top Die mit 2x470mm² im damals neuen 55nm Prozess und gekostet hat sie 400 Euro.
Und heute sind wir froh wenn wir EINEN 400mm² Die bei der 4080 um 700 Euro bekommen.
Tja damals war die Margen von Nvidia noch bei 30% statt 67% d.h. 100$ Waferpreis wurde um 140$ verkauft, jetzt um 300$.
robbitop
2022-09-13, 22:06:23
Ob sie damit „durchkommen“ hängt von AMD ab. Wenn sie eine salvage n31 sku haben die sie für einen guten Preis verkaufen, könnte es schon sein, dass sie NV dazu bewegen, eine 80 Super kit wenigstens vollem AD103 zu bauen oder eine 80ti mit teildeaktiviertem AD102.
Alternativ könnte AMD beim „Melken“ aber auch mitspielen und den n32 entgegensetzen.
Genau wegen sowas wäre es gut langfristig einen dritten Mitspieler im GPU Markt zu haben.
Relativ gesehen scheint die jetzige 80 eher eine 70 zu sein (in relation zum Topdog). Die Karten darunter (70 und 60) scheint es wohl auch so zu gehen, dass man eine Klasse kleiner kauft.
Neurosphere
2022-09-13, 22:11:50
Da kommt es halt ganz drauf an ob AMD mithalten kann oder ob man wirklich dual GDC Karten bringen muss.
crux2005
2022-09-13, 22:29:59
Ich kann mich noch an meine GTX 295 erinnern. Das war gleich 2 Mal der Top Die mit 2x470mm² im damals neuen 55nm Prozess und gekostet hat sie 400 Euro.
Und heute sind wir froh wenn wir EINEN 400mm² Die bei der 4080 um 700 Euro bekommen.
Tja damals war die Margen von Nvidia noch bei 30% statt 67% d.h. 100$ Waferpreis wurde um 140$ verkauft, jetzt um 300$.
Die hatte ich auch. Wie viel die gekostet hat kann ich dir aber nicht mehr sagen. Denke es waren mehr als 400€.
Erinnere mich nur an den schwarzen löchrigen Kühler der recht warm und laut wurde. Dafür aber nur 2-Slot und mit dem Loch am Ende. Löcher hatte auch die 480 GTX aka Thermi. :D
robbitop
2022-09-13, 22:34:30
Da kommt es halt ganz drauf an ob AMD mithalten kann oder ob man wirklich dual GDC Karten bringen muss.
Ja darauf kommt es an. Laut Gerüchten kommt kein multi GCD zu RDNA3. Soll wohl für Graphics mit RDNA3 nocht nicht möglich sein. Ist wohl erst mit RDNA4 soweit.
ChaosTM
2022-09-13, 22:36:30
Wir wissen genau nichts in der Beziehung, außer was uns die paar (Fanboy) Vorschauen Prophezeien.
Das macht die ganze Sache ja auch so spicy :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.