Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
rentex
2020-08-18, 12:15:52
Das wäre ja noch gut...
Edgecrusher86
2020-08-18, 12:18:23
Das wäre ja noch gut...
In Anbetracht der massiven 24GB und des dicken Chips / PCBs - ja. :freak:
Wenn es sich ähnlich verhält, wie vor zwei Jahren, läge eine FE dann bei groben 1559€ im NV Shop.
E: Korrektur -> $1499 MRSP wären dann ja etwa 1559€ inkl. hier - naja gut - vielleicht spart man ein wenig, da 16% statt 19%.
Grobe 1510-1520€ bei 16% [1512,23€]. ;)
rentex
2020-08-18, 12:28:15
Eben. Wie schon mal geschrieben, wird NV keine Mondpreise aufrufen. Da macht AMD und Corona durchaus was aus. Nicht viel aber dennoch.
Edgecrusher86
2020-08-18, 12:30:13
Im Endeffekt war der Preisanstieg ja schon heftig genug von Pascal auf Turing - zumindest wenn man 1080 Ti FE mit 2080 Ti FE vergleicht ->
819€ zu 1259€ [+53,7%] für im Mittel +35-40% Mehrleistung in Raster [4K] + RT & DLSS oben drauf. Es würde schon den ein oder anderen
potentiellen Kunden abschrecken, wenn der Preis in Richtung $/€ 2000 ginge. Minus 1000 USD MSRP auf die TITAN RTX wäre sicher eine gute Verkaufsformel.
Der Chip selber dürfte dank Samsung FF 10nm+ relativ "günstig" sein - der VRAM von Micron noch das teuerste mit wohl um die 300€ Kosten grob geschätzt.
Das PCB wird allerdings auch ein Stück teurer, da wohl erstens ausgelegt für beste Signaldurchgänge und zweitens einige Phasen mehr verbaut werden.
Der Kühler mag auch teurer werden - für die RTX 3090 FE wird man wohl wieder auf eine fette Vapor-Chamber setzen. Das der 3080 (10GB). soll etwas kleiner und günstiger ausfallen;
bei der 3080 20GB Variante orientiere man sich wieder am Aufbau der RTX 3090 FE.
Sunrise
2020-08-18, 12:33:11
Ein neuer Post von wjm47196 @ CH:
https://abload.de/img/preis3090qrkaz.png
https://www.chiphell.com/thread-2252850-1-1.html
Wenn es so stimmen sollte:
RTX 3090 ab $1399
RTX 3090 FE für $1499
Das wird die MSRP sein.
Bei den Preisen werden die NV aus den Händen gerissen. Vor allem wenn es sich tatsächlich um die 24GB-Version handeln sollte.
Ob NV/AIBs genug Chips und RAM sourcen kann/können, um die gewaltige Nachfrage zu bedienen?
BlacKi
2020-08-18, 12:33:46
wenn die FE ohne doppelten speicher kommt und die 3090 mrsp 100$ weniger kosten wird nämlich 1400$, dann wird es eine 12gb 3090 geben?
Das gilt offenbar nur für die 3080.
Mrickz
2020-08-18, 12:34:29
Im Endeffekt war der Preisanstieg ja schon heftig genug von Pascal auf Turing - zumindest wenn man 1080 Ti FE mit 2080 Ti FE vergleicht -> 819€ zu 1259€ [+53,7%] für im Mittel +35-40% Mehrleistung in Raster + RT.
Jupp das stimmt. Ich weiss nicht warum Leute erwarten, dass die RTX 3080 Ti / 3090 oder wie auch immer das Equivalent zur 2080 Ti nun heißen wird um die 2000€ kosten soll.
Das wäre ein gigantischer Preisanstieg. Ein unverschämt gigantischer.
Die Karte wird maximal 1400€ (Founders Edition) kosten und manch einer wird denken es wäre "günstig" :biggrin:
dildo4u
2020-08-18, 12:39:12
Nicht mit 24 GB, die 3080 wird BIG Navi in Schach halten aber nur 10 GB haben um auf 800€ zu kommen.
Edgecrusher86
2020-08-18, 12:40:23
Ja, um die $1500 bzw. 1500€ für die FE würde die Verkaufszahlen bezüglich Enthusiasten sicher in die Höhe treiben, da diese noch die $2500 MSRP [2800€] der TITAN RTX mit 24GB im Hinterkopf haben.
Das wäre ganz nach dem Geschäftsmann Jensen -> "The more graphics cards you buy, the more money you save!" :D
Ja, die Preise werden in der Regel ja sehr spät festgelegt und teilweise erst im Laufe des Review-Tages der Presse genannt, aber es wäre ein kluger Schachzug, wenn man eine recht hohe Marge mit guten Absatzzahlen kombinieren möchte.
Sollte es so kommen, dann sehe ich eine RTX 3080 10GB FE auch bei um die 800-900€. Eine Custom mit 20GB entsprechend +150-200€ darüber [Basis-Preis].
Die RTX 2080 FE war mit $699 gelistet und kostete bei uns zum Launch 849€. Das mag man nun auch wieder anpeilen für die 10GB Werks-Karte.
MiamiNice
2020-08-18, 12:46:57
Da kann man ja glatt 2 kaufen.
Je mehr man kauft desto mehr spart man, yay :wink:
€: Bei 1,5 pro Karte muss man sicher Monate warten bis man eine bekommt, wenn man nicht ganz ganz schnell ist.
Edgecrusher86
2020-08-18, 12:51:21
Da kann man ja glatt 2 kaufen.
Je mehr man kauft desto mehr spart man, yay :wink:
€: Bei 1,5 pro Karte muss man sicher Monate warten bis man eine bekommt, wenn man nicht ganz ganz schnell ist.
Das wär das Ziel. Eine neue NVL-Bridge wird es ja auch geben - macht dann nochmals locker 100€ drauf [80€ sind es nun]. :cool:
Ich meine, die RTX 2080 Ti FE war auch innerhalb von 2-3 Std. nach dem GC-Event ausverkauft bezüglich Vorbestellungen im NV Shop
und so richtig weiter ging das dann erst Ende Oktober bis Laufe November. :wink:
Leonidas
2020-08-18, 13:24:23
Proprietäre Schrauben
Wäre doch mal eine Idee für den 1. April bei NV ...
Ein neuer Post von wjm47196 @ CH:
https://www.chiphell.com/thread-2252850-1-1.html
Weiss jemand, was er mit "Double Eleven" meint?
MiamiNice
2020-08-18, 13:26:18
Bring die nicht auf komische Ideen sonst kannst demnächst noch einen Werkzeugsatz bei NV mit bestellen damit du den sinnlosen Luftkühler runter bekommst. Natürlich zum Vorzugspreis 😂
r3ptil3
2020-08-18, 13:29:30
Der Moment wenn 1500.- $ als Schnäppchen bezeichnet werden für eine Grafikkarte. :D
Alles über 1000$ mit der maximalen Speichergrösse ist unverhältnismässig - ganz einfach.
Edgecrusher86
2020-08-18, 13:36:26
Vielleicht ist Navi 22 gemeint. Ich vermute, dass die GPU bei der Series X auf Navi 22 basieren könnte zum Beispiel - dort sind 52/60CUs [1,825 GHz] aktiv bei 130-140W und 12 TF/s FP32 grob. Ähnliches war schon mit GP102 @ 800mV UV machbar bei grob 1,7 GHz und haut mich nicht vom Hocker. Zum Beispiel habe ich letztens PCars 2 in 3440 maxed out mit 1,67 GHz und 800mV @ 60 fps Cap per CP gespielt - der Verbrauch lag meist um die 120-130W. Ab und an ist er auf 150W hoch.
TU102 dürfte das mit grob 20-30W ermöglichen als GP102.
Wobei im Kontext GA102 eher Navi 21 passen würde.
11.11. - hm, das macht wohl mehr Sinn. ^^
Ja, 1500 für ein Stück HW, das viele maximal zwei Jahre nutzen werden, verkauft einem nur der ultimative Geschäftsmann als Schnäppchen. ^^
MiamiNice
2020-08-18, 13:48:09
1500 Steine / 24 Monate = 62,5€ Monat
Günstiger als fast jedes andere Hobby. Da geht noch was :wink:
So wird das gerechnet :freak:
unl34shed
2020-08-18, 13:49:49
Weiss jemand, was er mit "Double Eleven" meint?
Mein googlefu spuckt dazu 11. November aus. "Singles' Day Festival"
Dachte erst, das bezieht sich auf Performance, scheint aber das mögliche Release date zu sein.
Sunrise
2020-08-18, 13:52:38
Der Moment wenn 1500.- $ als Schnäppchen bezeichnet werden für eine Grafikkarte. :D
Alles über 1000$ mit der maximalen Speichergrösse ist unverhältnismässig - ganz einfach.
Eine 5700XT (250mm² Die) mit 8GB massenfähig erhältlichem GDDR6-VRAM kostet um die 350-400 EUR.
Jetzt vergleichen wir mit:
Einer 3090, mit GA102 und 627mm² Die (das 2,5fache!) und mit dem besten verfügbaren 24GB GDDR6X (das 3fache! an Speichermenge), sehr komplexer Platine und sonstigen Bauteilen...
Da sind 1200 EUR IMHO schon gerechtfertigt. Leider...
1500 EUR wären etwas drüber, aber immernoch OK für das beste am Markt verfügbare Produkt. Die Titan zählt für mich nicht mehr als Gaming-SKU.
PS: Natürlich nur unter der Prämisse, dass das auch die 24GB-Version ist und die nicht $500 US Aufpreis kostet... und wir dann bei $2000 US landen.
rentex
2020-08-18, 14:01:26
1500 Steine / 24 Monate = 62,5€ Monat
Günstiger als fast jedes andere Hobby. Da geht noch was :wink:
So wird das gerechnet :freak:
Ich rechne mit 600€, wegen erfolgtem Verkauf meiner alten 2080Ti ;-)
Also 25€ im Monat @ 2 Jahren...
TheAntitheist
2020-08-18, 14:04:07
Eine 5700XT (250mm² Die) mit 8GB massenfähig erhältlichem GDDR6-VRAM kostet um die 350-400 EUR.
Jetzt vergleichen wir mit:
Einer 3090, mit GA102 und 627mm² Die (das 2,5fache!) und mit dem besten verfügbaren 24GB GDDR6X (das 3fache! an Speichermenge), sehr komplexer Platine und sonstigen Bauteilen...
Da sind 1200 EUR IMHO schon gerechtfertigt. Leider...
1500 EUR wären etwas drüber, aber immernoch OK für das beste am Markt verfügbare Produkt. Die Titan zählt für mich nicht mehr als Gaming-SKU.
PS: Natürlich nur unter der Prämisse, dass das auch die 24GB-Version ist und die nicht $500 US Aufpreis kostet... und wir dann bei $2000 US landen.
dann musst du aber auch mit einberechnen das größere DIEs immer deutlich teurer werden und der GDDR6X wohl deutlich teurer ist pro Gb, als jener bei der 5700XT. Dazu noch die viel teurere Entwicklung und Kühlung.
Aber die ganze Rechnung passt nicht, da man es mit RDNA2 vergleichen muss.
Sunrise
2020-08-18, 14:11:58
dann musst du aber auch mit einberechnen das größere DIEs immer deutlich teurer werden und der GDDR6X wohl deutlich teurer ist pro Gb, als jener bei der 5700XT. Dazu noch die viel teurere Entwicklung und Kühlung.
Aber die ganze Rechnung passt nicht, da man es mit RDNA2 vergleichen muss.
Steht ja auch alles da, der massenfähige 14Gbps GDDR6 verglichen mit High-End GDDR6X mit angenommenen 21Gbps und der 2,5fachen Speichermenge. Allein das ist schon beachtlich.
Da der Die viel größer ist, ist der in Relation natürlich deutlich teurer, dafür eben nur Samsung 8nm... dennoch das 2,5fache an Die-Größe. Auch nicht ohne (N21 kommt wohl max. um die 505mm²).
Die restliche Karte (teure Platine, Bauteile...) wird auch nicht billig sein, last but not least der viel teurere Kühler bei der hohen TDP. AMD wird da auf ähnlicher Höhe liegen (min. 280W TDP).
Wenn man die Dinge in Relation setzt passt das IMHO alles ziemlich gut, das muss man leider so konstatieren.
Für 1500 EUR würde ich mir die beste Gaming-Karte kaufen, wenn die Leistung ordentlich zunimmt. Big Navi kommt leider später, sonst hätte man einen besseren Vergleich. Es ist total unvernünftig, ja, aber das ist eben mittlerweile für viele (auch dank Corona) wieder ein Bereich, wo das Geld etwas lockerer sitzt. Entertainment findet aktuell leider umso mehr zuhause statt. Man darf nicht vergessen, dass man mit so einer Karte auch locker 2 Jahre seine Spaß haben wird. Ein iPhone Pro Max kommt jedes Jahr für >1000 EUR neu raus, und das ist "nur" ein Handy, zum richtigen Zocken vollkommen ungeeingt.
Palpatin
2020-08-18, 14:16:40
Dazu kommen noch die kosten für rest der Hardware, Monitor, Eingabegetäte, VR, Software usw.
Ist nicht das teuerste Hobby, aber bei weitem auch nicht das günstigste.
Sweepi
2020-08-18, 14:17:05
Weiss jemand, was er mit "Double Eleven" meint?
Ziemlich sicher 11. November, siehe auch:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12385324&postcount=14
Zergra
2020-08-18, 14:21:51
Wenn die 3080 mit 20GB nicht als FE erscheint, dürfte sie ja als Custom eher im Oktober auf den Markt kommen ?
Edgecrusher86
2020-08-18, 14:23:56
Eine Übersetzung zu den beiden Colorful-Modellen:
https://abload.de/img/colorfulv5jf8.png
https://www.chiphell.com/thread-2252497-1-1.html
Extreme Preise werden dort genannt - aber naja, das wird kaum für uns gelten.
Wer soll denn die Karten kaufen außer ein paar Bencher und Hardcore-Enthusiasten?!
Wobei eine 2080 Ti iGame Kudan 10th Anniv. ja glaube 2800 USD kostete...haha.
Zergra
2020-08-18, 14:27:39
Weiss jemand, was er mit "Double Eleven" meint?
Ja klar,
Am 11.11 wird BigNavi für 1111$ vorgestellt.
1500 Steine / 24 Monate = 62,5€ Monat
Günstiger als fast jedes andere Hobby. Da geht noch was :wink:
So wird das gerechnet :freak:
Würde das eher auf Spielstunden rechnen.. :D
horn 12
2020-08-18, 14:29:49
AMD bietet wohl für 549 / 749 und 899/949 Euro die BIG Navi Karten an
und sticht NV somit komplett aus!
Leonidas
2020-08-18, 14:31:24
Ziemlich sicher 11. November, siehe auch:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12385324&postcount=14
Mein googlefu spuckt dazu 11. November aus. "Singles' Day Festival"
Dachte erst, das bezieht sich auf Performance, scheint aber das mögliche Release date zu sein.
Klaro, danke.
Fragman
2020-08-18, 14:35:15
AMD bietet wohl für 549 / 749 und 899/949 Euro die BIG Navi Karten an
und sticht NV somit komplett aus!
Sollten die nv Preise stimmen (was ich nicht glaube), kannst Du diese Preise vergessen und auf alle 200€ drauf geben. Denn das wird AMD dankenswerterweise mitnehmen und Lisa und Jensen bei der nächsten Familienfeier um einen Berg voll Geld herumtanzen. :D
rentex
2020-08-18, 14:37:05
Ja klar,
Am 11.11 wird BigNavi für 1111$ vorgestellt.
Würde das eher auf Spielstunden rechnen.. :D
Macht man bei jedem anderen Hobby ebenfalls so.
Oder sind das dann für dich dann die "gefahrenen Kilometer"?
Zergra
2020-08-18, 14:39:38
Bei mir nicht so einfach möglich, da man eben im Sommer mehr unterwegs ist als im Winter... beim PC ist es halt anders herum. Daher finde ich Stunden sinnvoller.
horn 12
2020-08-18, 15:00:31
@Fragman
So Hohe Preise nahm AMD bis dato nie, ausgenommen der VII
und man weiss wo NV diesmal schwächelt und fährt ihnen mitten in die Parade hinein.
MiamiNice
2020-08-18, 15:05:29
Bei mir nicht so einfach möglich, da man eben im Sommer mehr unterwegs ist als im Winter... beim PC ist es halt anders herum. Daher finde ich Stunden sinnvoller.
Das Zeug steht doch trotzdem zuhause rum, ob Du es nun nutzt oder halt nicht. Es wird auch nach der selben Zeit entsorgt - ob Du es nutzt oder nicht.
Von daher ... :biggrin::wink::tongue:
Zergra
2020-08-18, 15:19:46
Das Zeug steht doch trotzdem zuhause rum, ob Du es nun nutzt oder halt nicht. Es wird auch noch der selben Zeit entsorgt - ob Du es nutzt oder nicht.
Von daher ... :biggrin::wink::tongue:
Grundsätzlich ja, aber wenn ich etwas 1000h nutze, ist man eben Bereit mehr zu zahlen als wenn man 10h damit verbringt. :biggrin:. Daher wäre man eher bei 1,5$ pro Spielstunde, da sind die meisten Spiele teurer :freak:
Edgecrusher86
2020-08-18, 15:31:06
@Fragman
So Hohe Preise nahm AMD bis dato nie, ausgenommen der VII
und man weiss wo NV diesmal schwächelt und fährt ihnen mitten in die Parade hinein.
R9 295X2 -> $1499 MSRP. Gegenüber der TITAN Z mit $2999 natürlich ein Schnapper. :freak:
Also zumindest ähnlich der RTX 3080 FE 10GB wird man den vollen N21 schon setzen - ist die Leistung gleich, dann darf es auch z.B. +100 mehr sein
wegen 16GB und wohl 1152 GB/s bis 1296 GB/s Bandbreite bei 16 - 18 Gbps GDDR6 an einem 512-bit SI.
E: Um auf die Leistung zurück zu kommen. Ich erwarte zwischen der RTX 3090 und RTX 3080 im GPU-Limit eine Differenz von um die 20%.
20,6-23,5% weniger Einheiten [5248 oder 5376 zu 4352] dürften wohl kombiniert mit einem kolportierten 32,6% Unterschied in der Bandbreite
bei ähnlichen Taktraten zu besagten 20% Plus zu Gunsten des Flaggschiffes führen. In etwa 40-50% Vorsprung auf TU102 sollten machbar sein.
Das PCB der "kleinen" RTX 3080 soll ja auch etwas kompakter ausfallen,
sodass hier vielleicht auch das (100%) PowerTarget um bis zu 50W niedriger liegen könnte. 300W zu 350W wären z.B. 16,7%. Der RTX 3080 20GB könnte
man ja vielleicht 20W mehr PT verpassen, damit sie ähnlich boostet wie die 10GB Version. Man dürfte eine Steigerung von 20-30% auf TU102 erreichen.
Eine 3070 16GB oder 3070 Ti 16GB dürfte dann auch in etwa 20% unterhalb der RTX 3080 liegen - Performance-Level ähnlich TU102, maximal wohl 5-10% darunter. Eine 3070 8GB [2944SP] dann wohl über das PT geregelt eher Richtung 5-10%
widerum hinter der 16GB Version mit GA104 Vollausbau. Mögliche PTs für beide Karten wären z.B. 250W und 225W. Man könnte dort dann z.B. 17-18 Gbps GDDR6X statt
19 Gbps GDDR6X verbauen, um die Kosten zu senken.
Die RTX 3060 mit vermutlich ebenso 8GB darf man wohl mit 2304 SPs erwarten bei etwa 200W. Als VRAM langt z.B. auch 15,5 Gbps, um TU104 anzugreifen.
Die Karte dürfte grob um die 20-25% unterhalb der RTX 3070 liegen.
Ist alles nur wild spekuliert. :)
davidzo
2020-08-18, 16:00:08
Ziemlich sicher 11. November, siehe auch:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12385324&postcount=14
Eigentlich würde an der Stelle im Satz die 2080Ti /TU102 Sinn machen. Das ist auch woran wir Ampere immer vergleichen.
Big navi barely caught up with the 2080ti so it is only a hope that Jensen/Huang will lower the prices for the new performance level too.
Nur ist double eleven nunmal 2020 und nicht 2080 und 102 ist auch nicht eleven... :rolleyes:
Aber nein, wjm47196 haut natürlich seine exklusive Info zum Navi Releasedate in einem kleinen nebensatz zur 3090ti heraus. Eher steht double eleven nur für 111einselflelelelelele
Lowkey
2020-08-18, 16:21:07
Die 2080Ti Sondereditions mit 1500+ verkaufen sich nicht.
rentex
2020-08-18, 16:38:52
Die 2080Ti Sondereditions mit 1500+ verkaufen sich nicht.
? Welche und worauf schließt du das?
Lev Arris
2020-08-18, 16:41:01
... sollten sich diese horrenden Preise bewahrheiten werde ich das Gaming auf eine Konsole ( PS5 ) verlegen, und das gesparte Geld in mein primäres Hobby stecken um neues Equipment zu kaufen ( Blaser f16 sporting ... hehehe)
ganz ehrlich ... mit der Erhöhung damals bei Pascal, meine 1080'er hat 799€gekostet, ist mein rationales Limit erreicht ... soviel zocke ich dann doch nicht mehr, das sich das rentiert
Ich warte natürlich die finalen Daten der Karte ab, Leistung, Preis, Verbrauch ... nach den derzeitigen Spekulationen, verabschiede ich mich aber schonmal mental davon.
glg Maik
TurricanM3
2020-08-18, 16:47:33
So teuer, dass ich Konsolero werde, können die Karten gar nicht werden. :freak:
MiamiNice
2020-08-18, 16:55:18
So teuer, dass ich Konsolero werde, können die Karten gar nicht werden. :freak:
Dito :D
Thunder99
2020-08-18, 16:56:45
Maus und Tastatur können nicht ersetzt werden :D
unl34shed
2020-08-18, 16:59:17
Eigentlich würde an der Stelle im Satz die 2080Ti /TU102 Sinn machen. Das ist auch woran wir Ampere immer vergleichen.
Ergibt keinen sinn.
Hab noch etwas mehr gegoogelt, double eleven ist wohl so etwas wie black friday, also release davor um die Verkäufe mit zu nehmen.
Wenn man bei Chiphell auf die zweite Seite blättert, da steht:
"Isn’t it great for Double 11, it’s only been more than two months"
Ergibt im Zusammenhang mit 2080Ti mMn. wenig Sinn.
BlacKi
2020-08-18, 17:00:07
So teuer, dass ich Konsolero werde, können die Karten gar nicht werden. :freak:
das stimmt, aber die konsolen könnten irgendwann so interessant werden das ich wechsle.
es hat sich schon etwas getan in richtung M+T +120hz + häufigere hardwareupgrades alle 4 jahre. aber ist leider noch nicht dort wo ich es in erwägung ziehe. mein hauptrechner mutiert schon gerade zum reinen gaming rechner.
Zergra
2020-08-18, 17:06:35
das stimmt, aber die konsolen könnten irgendwann so interessant werden das ich wechsle.
es hat sich schon etwas getan in richtung M+T +120hz + häufigere hardwareupgrades alle 4 jahre. aber ist leider noch nicht dort wo ich es in erwägung ziehe. mein hauptrechner mutiert schon gerade zum reinen gaming rechner.
Die Preise sind eben noch nicht fix (für die Konsolen -> Tippe für das Topmodell eher Richtung 8-900€).
Die Preise für Konsolen Games würde ich niemals zahlen, unter dem Strich rechnet sich das Einfach nicht. Dazu die gruselige Gamepad Steuerung.
Da höre ich lieber ganz auf.
Und wenn die Preise zu hoch sind, kann man immer noch ziemlich gut mit der Vorgängergeneration zocken.
Adam D.
2020-08-18, 17:11:14
Und wenn die Preise zu hoch sind, kann man immer noch ziemlich gut mit der Vorgängergeneration zocken.
Da Nvidia ja anscheinend Turing bis auf die unteren Segmente auslaufen lässt, ist das Argument leider nicht so einfach (abgesehen vom Gebrauchtmarkt natürlich).
Auch wenn ich Nvidia grundsätzlich so einschätze, dass sie jede Preissteigerung mit Freude mitnehmen, so kann ich mir in der aktuellen Situation nicht vorstellen, dass sie die Preise derart heftig anziehen. Es könnte ja auch sein, dass sie das mittlere Performance-Segment einigermaßen kaufbar platzieren für die breitere Masse und dafür ganz oben ordentlich drauflegen (gerechtfertigt durch tonnenweise Speicher).
Zergra
2020-08-18, 17:15:12
Ja gebraucht muss halt eine Alternative sein.
Ich Tippe immer noch auf relativ stabile Preise:
Die 3080 10GB wird ähnlich der 2080 auf den Markt kommen, die 20GB dafür 150-200€ teurer.
Die 3090 heißt nicht ohne Grund so, damit geht man in ein neues Preissegment, daher über der 3080TI.
Die 3090 heißt nicht ohne Grund so, damit geht man in ein neues Preissegment, daher über der 3080TI.
Ich habe ehrlicherweise gedacht die 3090 soll in den Preisbereich zwischen ×080 und einem Spitzenmodel von später (3090 Ti). Wenn NV da noch einen drauf setzt beim Preis, dann warte ich mit dem Kauf. 👀
Thunder99
2020-08-18, 19:21:07
Um Mal nicht komplett gegen die Preispolitik von Nvidia zu bashen muss gesagt werden, dass wir wohl nie erfahren was so ein Chip bzw Karte wirklich kostet. Auch nicht wie viel es mehr kostet (Unabhängig von der Marge).
rentex
2020-08-18, 19:35:40
Noch 13 Tage...
Troyan
2020-08-18, 19:39:52
Um Mal nicht komplett gegen die Preispolitik von Nvidia zu bashen muss gesagt werden, dass wir wohl nie erfahren was so ein Chip bzw Karte wirklich kostet. Auch nicht wie viel es mehr kostet (Unabhängig von der Marge).
Wir hatten die Diskussion als Turing kam. Leute verstehen nicht, dass die Fertigung noch der günstige Teil ist. Jede heutige Karte subventioniert die Entwicklung von Architekturen >2 Jahre in Zukunft.
Du bezahlst also Fertigung, Garantie, Softwaresoftware, Spieleentwicklerunterstützung, Forschung und Entwicklung.
Das irrsinnige ist ja, dass man bei Turing mehr Chip für den selben Preis bekommen hat als bei Pascal: TU106 ist 50% größer und kostete mit 14gbit/s das selbe wie die GTX1080 beim Ende. Ist also nicht so, dass man mehr bezahlt hat und nicht mehr erhalten hat. Das die Chipfläche eben nicht für Rastering raufging, ist dann eine andere Diskussion.
Du bezahlst also Fertigung, Garantie, Softwaresoftware, Spieleentwicklerunterstützung, Forschung und Entwicklung. Softwaresoftwaresoftware nicht zu vergessen 👍🙊
rentex
2020-08-18, 19:54:33
@Troyan Genau und das vergessen die meisten User.
Mangel76
2020-08-18, 19:58:27
Wir hatten die Diskussion als Turing kam. Leute verstehen nicht, dass die Fertigung noch der günstige Teil ist. Jede heutige Karte subventioniert die Entwicklung von Architekturen >2 Jahre in Zukunft.
Du bezahlst also Fertigung, Garantie, Softwaresoftware, Spieleentwicklerunterstützung, Forschung und Entwicklung.
Das irrsinnige ist ja, dass man bei Turing mehr Chip für den selben Preis bekommen hat als bei Pascal: TU106 ist 50% größer und kostete mit 14gbit/s das selbe wie die GTX1080 beim Ende. Ist also nicht so, dass man mehr bezahlt hat und nicht mehr erhalten hat. Das die Chipfläche eben nicht für Rastering raufging, ist dann eine andere Diskussion.
Vergesst die Dividende nicht: NVIDIA pays out 13.94% of its earnings out as a dividend.
https://www.marketbeat.com/stocks/NASDAQ/NVDA/dividend/
nordic_pegasus
2020-08-18, 20:21:58
Das irrsinnige ist ja, dass man bei Turing mehr Chip für den selben Preis bekommen hat als bei Pascal: TU106 ist 50% größer und kostete mit 14gbit/s das selbe wie die GTX1080 beim Ende. Ist also nicht so, dass man mehr bezahlt hat und nicht mehr erhalten hat. Das die Chipfläche eben nicht für Rastering raufging, ist dann eine andere Diskussion.
wo ist als Konsument im Gaming-Bereich der Vorteil, wenn ein TU106 deutlich an Chipfläche wächst aber nicht an Leistung? Es wird ja immer betont, dass die Tensor- und RT-Cores nicht viel Fläche benötigen. Warum ist Turing so fett geworden? Was wurde hier so massiv aufgebohrt, was aber am Ende kaum Leistung gebracht hat?
Bitte nicht vergessen, dass ein x06 Chip traditionell für die xx60 Karten genutzt wird. Bei Turing ist aber der volle Tu106 in die RTX 2070 gewandert, später dann als Salvage in die RTX 2060 Super.
Du vergleichst also den vollen GP104 Chip der GTX 1080 mit einem vollen Tu106 der RTX 2070. Ich finde hier passt der Sprung in Chipfläche nicht zum Leistungssprung. Ein fairer Vergleich wäre der (Salvage) GP104 der GTX 1070 mit dem vollen TU106 der RTX 2070.
Pascal war ein Paradebeispiel für eine effiziente, kleine Architektur und dennoch massiver Leistungssteigerung zu Maxwell. Und da sind wir doch wieder am Ur-Problem von Turing. Preis ist explodiert, die Leistung nur moderat. Ob Nvidia dafür riesige Chips benötigt hat, interessiert mich als Kunden nicht.
Zergra
2020-08-18, 20:32:18
Ich habe ehrlicherweise gedacht die 3090 soll in den Preisbereich zwischen ×080 und einem Spitzenmodel von später (3090 Ti). Wenn NV da noch einen drauf setzt beim Preis, dann warte ich mit dem Kauf. 👀
Da kommt doch eher eine Titan an die Spitze. Für eine TI gibt es da keinen Platz.
Ggf. könnte man eine 3080TI rausbringen, also quasi eine 3080Super....
crux2005
2020-08-18, 20:47:46
Ist das schon bekannt? GTC 2020 im Oktober:https://www.techpowerup.com/271112/nvidia-announces-gtc-2020-keynote-to-be-held-on-october-5-9
BlacKi
2020-08-18, 20:51:03
war aber nichts für gaming dabei oder hab ich was überlesen?
Thunder99
2020-08-18, 20:54:26
Softwaresoftwaresoftware nicht zu vergessen 👍🙊
Ergo 50% mehr zahlen für RT in einigen wenigen Spielen?
Nazar
2020-08-18, 21:23:35
Eine 5700XT (250mm² Die) mit 8GB massenfähig erhältlichem GDDR6-VRAM kostet um die 350-400 EUR.
Jetzt vergleichen wir mit:
Einer 3090, mit GA102 und 627mm² Die (das 2,5fache!) und mit dem besten verfügbaren 24GB GDDR6X (das 3fache! an Speichermenge), sehr komplexer Platine und sonstigen Bauteilen...
Da sind 1200 EUR IMHO schon gerechtfertigt. Leider...
1500 EUR wären etwas drüber, aber immernoch OK für das beste am Markt verfügbare Produkt. Die Titan zählt für mich nicht mehr als Gaming-SKU.
PS: Natürlich nur unter der Prämisse, dass das auch die 24GB-Version ist und die nicht $500 US Aufpreis kostet... und wir dann bei $2000 US landen.
Gerechtfertigt? :eek:
OMG... ernsthaft, wie kann man nur von gerechtfertigt bei solchen Preisen reden... sowas werde ich nie begreifen. :freak:
Die Preise sind alle komplett übertrieben und schuld haben die Käufer (hier muss ich mich leider selbst einreihen) und Personen die solche Preise als gerechtfertigt bezeichnen... :rolleyes:
Es wäre eventuell gerechtfertigt, wenn der nVidia CEO die Karten persönlich ausliefern würde und man ihm 30 Minuten in den Hintern treten dürfte, dann wäre es vielleicht gerechtfertigt aber auch nur eventuell! :rolleyes:
=Floi=
2020-08-18, 22:01:35
Gerechtfertigt? :eek:
OMG... ernsthaft, wie kann man nur von gerechtfertigt bei solchen Preisen reden...
Solange man für ein diskussion nicht offen ist, lohnt es sich auch nicht darüber zu diskutieren. :rolleyes:
Sunrise
2020-08-18, 22:08:31
Um Mal nicht komplett gegen die Preispolitik von Nvidia zu bashen muss gesagt werden, dass wir wohl nie erfahren was so ein Chip bzw Karte wirklich kostet. Auch nicht wie viel es mehr kostet (Unabhängig von der Marge).
Die BOM kann man recht gut abschätzen, wie bei jedem Produkt (inkl. iPhones), aber die Entwicklungskosten müsste man ebenso einrechnen, ergibt also keinen Sinn, da das pro Generation mehrere hundert Millionen, bzw. sogar Billions/Milliarden sind...
Wie willst du das in den Preis rechnen?
Thunder99
2020-08-18, 22:25:29
Die BOM kann man recht gut abschätzen, wie bei jedem Produkt (inkl. iPhones), aber die Entwicklungskosten müsste man ebenso einrechnen, ergibt also keinen Sinn, da das pro Generation mehrere hundert Millionen, bzw. sogar Billions/Milliarden sind...
Wie willst du das in den Preis rechnen?
Abschätzen. Eine Kalkulation gibt es ja aber die Marge macht das zusätzlich zu den gestiegenen Kosten halt extrem teuer seit Turing. Grund ist auch die mangelnde Konkurrenz welches Nvidia blendende Quartalszahlen beschert. Erst wenn AMD im gleichen Gefilde am oberen Ende wildert und Intel kommt (sofern es klappt) wird es eine Preiskorrektur geben die uns zu gute kommt.
deLuxX`
2020-08-18, 23:05:59
Der Markt bestimmt den „gerechtfertigten“ Preis.
Damit ist alles gesagt und man kann sich wieder den inhaltlichen Themen widmen.
BlacKi
2020-08-18, 23:12:09
Der Markt bestimmt den „gerechtfertigten“ Preis.
Damit ist alles gesagt und man kann sich wieder den inhaltlichen Themen widmen.
+1
w0mbat
2020-08-19, 00:01:06
Der Markt bestimmt den „gerechtfertigten“ Preis.
Damit ist alles gesagt und man kann sich wieder den inhaltlichen Themen widmen.
Mit einem quasi-Monopol, wie es Nvidia im high-end aktuell hat, bestimmt der "Markt" gar nix.
BlacKi
2020-08-19, 00:05:05
Mit einem quasi-Monopol, wie es Nvidia im high-end aktuell hat, bestimmt der "Markt" gar nix.
natürlich. wenn keiner die 2080ti gekauft hätte, dann wäre der preis recht schnell gesunken. dasselbe gilt für alle karten. die leute sind einfach bereit dazu, fertig.
w0mbat
2020-08-19, 00:17:02
Das glaubst du doch selber nicht, oder? Also, dass Nvidia wirklich schnell die Preise anpassen würde?
Oh my sweet summer child :D
BlacKi
2020-08-19, 00:17:49
glaub ich, aber es würde nicht passieren das die leute die finger weg lassen.
Mrickz
2020-08-19, 00:23:18
w0mbat hat recht. Nvidia bestimmt den Preis. Die Leute haben keine Alternative. Die RTX Karten verkauften sich EXTREM schlecht am Anfang und der Preis ging nicht nach unten -> https://www.tomshardware.com/news/nvidia-rtx-2080-2070-earnings,38618.html
Was hätten die durstigen Jungs machen sollen? Eine RX 5900 XT kaufen die es nicht gibt?
Nvidia wird auch wieder den Preis der RTX 30 Series bestimmen und ihr werdet nichts machen können. Egal ob ihr kauft oder nicht, aber nicht kaufen wird keine Option für viele sein, denn es wird nach Cyberpunk 2077 gegiert.
In einer ironischen Weise habt ihr ja schon recht, dass der Markt bestimmt. Der Markt bestimmt mit jeder Generation mehr zu bezahlen. 500$ damals, dann 800$, jetzt 1200$ und bald 1500$. Danach dann 2000$. :freak:
BlacKi
2020-08-19, 00:34:54
das ist blödsinn. der markt sind die leute. mit einer 2060 kann man auch zocken. die signalwirkung wäre deutlich gewesen. das problem dabei ist, die leute wollen diese karten, daran lässt sich nichts ändern.
Mrickz
2020-08-19, 00:37:26
das ist blödsinn. der markt sind die leute. mit einer 2060 kann man auch zocken. die signalwirkung wäre deutlich gewesen. das problem dabei ist, die leute wollen diese karten, daran lässt sich nichts ändern.
Signalwirkung hätte da sein müssen. Wie in dem Link zu sehen -46%. Aber warum auch man kann ja Preise um 54% anheben
Armaq
2020-08-19, 00:49:57
Was sagt denn der aktuelle Quartalsbericht? Wieviel Überschuss machen Sie, denn dann kennen wir ja ein paar grobe Anhaltspunkte. Nvidia würde natürlich den Preis senken, wenn es keinerlei Abnahme gäbe. Müssen nur alle die 5700 nehmen und schon passt Nvidia die Preise an.
Ich bin deutlich stärker auf AMD gespannt und ggf. sogar Intel in 2021 als auf Nvidia.
Der Markt bestimmt den „gerechtfertigten“ Preis.
Damit ist alles gesagt und man kann sich wieder den inhaltlichen Themen widmen.
In einem Monopol-Markt (und das ist der Enthusiast-Spieler-GPU-Markt seit Fiji(?)), bestimmt der Monopolinhaber den Preis.
980 Ti - 730 Euro ($649)
1080 Ti - 750 Euro ($699)
2080 Ti - 1200 Euro (1259 bei Founders Edition) ($999)
Wenn du bedenkst, dass selbst die 2080 garkeine Konkurenz hatte, hätte NVidia bei der 2080 Ti jegliche Konfiguration nehmen können die das Maximum an Chipausbeute bedeutet um den Preisanstieg im Rahmen zu halten.
=Floi=
2020-08-19, 01:53:41
nur hast du den denkfehler, das der chip normalerweise viel teurer verkauft wird und nicht als billige gaming krücke.
nur hast du den denkfehler, das der chip normalerweise viel teurer verkauft wird und nicht als billige gaming krücke.
Ist das wirklich der Unterschied beim TU102 gegenüber z.B. GP102 der die saftige Preissteigerung erklärt?
=Floi=
2020-08-19, 03:12:32
Natürlich nicht, aber NV könnte sich diese produkte auch sparen und sie erst garnicht anbieten.
Die top end karten sind einfach eine preisklasse nach oben gewandert. Diesen markt gab es früher nicht. Hier will man auch nicht die breite masse erreichen, sondern leute, welche auch nen 911er GT3/GT2 oder einen mclaren kaufen.
Daredevil
2020-08-19, 03:29:13
Aber echt mal, ein 800mm2+ Chip kann man doch mal für nen Penny anbieten, da hat der Hersteller doch überhaupt keine Kosten und Risiken.
Die top end karten sind einfach eine preisklasse nach oben gewandert.
Eben, das ist was hier viele anmerken. Das Problem ist ja nicht, dass es da irgendwo eine super teure tolle Karte gibt, für Reiche. Es ist eine Spielerkarte die in Reviews usw. ganz normal genutzt wird, mit "In voller Pracht läuft das auf einer 980Ti/1080Ti/2080Ti". Wo du vor 3 Jahren als Enthusiast dachtest "Die 700Euronen ist mir das Wert", jetzt sind es 1200, und bald 1500+ ?
Diesen markt gab es früher nicht. Hier will man auch nicht die breite masse erreichen, sondern leute, welche auch nen 911er GT3/GT2 oder einen mclaren kaufen.Dieser Markt war früher Titan-Territorium. Eigentlich nicht wirklich eine Spielerkarte/Strassenfahrzeug, aber doch das 9+Ultra (bzw. die SLI Konfiguration wenn du einen GT2 hast).
Und das ist ja auch ok, du zahlst 10x den Preis um dir morgens beim Bäcker die Brötchen super schnell mit einem GT2 zu erwerben.
Es testet auch fast kein Magazin Spiele mit Titans und Entwickler machen die "Ultra" Konfiguration nicht dafür.
Aber ich denke es ist dennoch seltsam wenn Volkswagen jetzt die Bugatti Preisklasse für Jedermann entdeckt hat und dem Enthusiast/GTI Fahrer wird gesagt: "Kannst dir den Polo GTI für vormals Golf GTI Preise kaufen" oder die Spottversion: "Aber echt mal, ein Golf GTI Sportfahrwerk mit Rennslicks und Pit-Crew kann man doch mal für nen Penny anbieten"
Cubitus
2020-08-19, 07:56:45
Falls die Karten an der 2k Grenze kratzen werden, bleibt eine 2080TI aber auch wertstabil..
Das läuft dann so ab, diejenigen welche den Preis nicht zahlen können oder wollen, werden sich nach einer gebrauchten 2080ti umschauen.
Der Gebrauchtmarkt wird sich aufgrund des Ausverkaufs im Retail Markt, auf 700-800 Euro einpendeln, immer noch besser als 2k auszugeben.
Was wiederum dafür sorgt, dass ein 2080Ti Besitzer im Idealfall 1200 Euro wie vor zwei Jahren, ausgeben wird.. :biggrin:
Edit: Natürlich wären 2k ein hartes Brot und jenseits von gut und Böse, bleibt abzuwarten.
In meinem bekannten Zocker Kreis, werden 1500 Euro als absolute Schmerzgrenze gehandelt..
Nazar
2020-08-19, 08:13:22
Solange man für ein diskussion nicht offen ist, lohnt es sich auch nicht darüber zu diskutieren. :rolleyes:
Und wenn sie nicht gestorben sind, dann leben sie noch heute.
Eine Kuh macht muh, viele Kühe machen Mühe.
Eine Schwalbe auf dem Dach macht noch keinen Sommer.
You made my day! :freak:
Ich glaube fast, dass die meisten Personen, die das Wort "gerechtfertigt" benutzen, überhaupt nicht wissen was es bedeutet. :rolleyes:
Hier werden Parallelen zum Stockholmsyndrom sichtbar; die "Opfer" (Kunden) sympathisieren und rechtfertigen die ihnen angetanen Taten ihres Peinigers (Verkäufers). Jeder wie er möchte aber bitte hört auf anderen erzählen zu wollen, dass nVidia gegenüber den Kunden auch nur in irgend einer Weise gerecht handelt. Das ist mit absoluter Sicherheit Blödsinn. :freak:
Korvaun
2020-08-19, 08:19:08
Wie hoch ist die Nettogewinnmarge bei nV? 30-40%? Und da ist auch immer die ach so teure Forschung und Entwicklung mit eingerechnet. Dann will der Kartenhersteller auch noch was verdienen...
Ganz grob ist bei jeder Karte locker 30%+ reiner Gewinn. Der gesamte Markt könnte locker 20%+ günstiger werden und alle beteiligten Firmen würden trotzdem noch GUT verdienen. Aber das reicht heute leider ja nicht mehr. Jeder der diese Preise irgendwie rechtfertigt hilft den Firmen nächstes mal NOCH MEHR Geld zu verlangen... (ist aber natürlich auch allgemein so, siehe z.b. Autoindustrie, was da für Rabatte gehen und trotzdem machen die Firmen noch Milliardengewinne).
Timbaloo
2020-08-19, 08:19:18
Das glaubst du doch selber nicht, oder? Also, dass Nvidia wirklich schnell die Preise anpassen würde?
Oh my sweet summer child :D
Warum hat man dann den Super-Refresh gemacht? :rolleyes:
Zergra
2020-08-19, 08:57:58
Warum hat man dann den Super-Refresh gemacht? :rolleyes:
So konnten sich sich die Preissenkung sparen. Die bringen also lieber einen Refresh, bevor die Preise gesenkt werden.
rentex
2020-08-19, 09:04:23
Bevor irgendein Review veröffentlicht worden ist, kann man sich Kommentare über das Kaufverhalten der Kunden im Grunde sparen.
Dr.Doom
2020-08-19, 09:06:19
In meinem bekannten Zocker Kreis, werden 1500 Euro als absolute Schmerzgrenze gehandelt..
Gut zu wissen, dann werden die Preise sicherlich auf ~1700€ gesetzt. Der baumelnden Möhre vor der Nase, widersteht man nicht lange. Und -- pardauz! -- mehr aus der Tasche geleihert, als angedacht. :freak:
Bisher war ich eigentlich gegen immer weiter steigende Preise, nicht nur für das Topmodell, sondern auch für die "kleineren" Karten, die natürlich auch aufrücken.
Mittlerweile bin ich eher dafür: rauf mit den Preisen, rauf, rauf! Lasst die Leute bluten für ihr elitäres Hobby.
Höher, schneller, weiter? Gerne doch! *hand aufhalt*
basix
2020-08-19, 09:16:15
Also ich fand die Preise von Turing überrissen (ja ich habe eine 2080 Ti...die Technologie dahinter hat mich gelockt). 1000$ ist schon sehr viel, könnte man aber noch einigermassen begründen (teurer werdende Prozesse, grosse Die, teurer Speicher, teueres PCB). Ich rede hier aber von 1000$ für die grosse Version mit 22-24 GByte Speicher.
1500$ oder gar 2000$? Es scheint, dass einige Leute hier viel Geld mit Nvidia Aktien gemacht haben :freak:
Die werden nicht teurer werden. Ich denke, dass NV eher niedrigpreisig in diese Saison starten wird, da die anderen Anbieter nicht schwach sind und weil es diesmal sogar nicht nur AMD ist. Man möchte doch die Erstkäufer abgrasen.
Thunder99
2020-08-19, 09:47:56
Nvidia hat halt Preise erhöht und der Markt hat nach ihrem Geschmack reagiert. Wie es bei Ampere wird muss sich zeigen.
Das sie geringere Preise ansetzen können haben sie ja gezeigt. GT200 ;)
Bin echt gespannt was kommt und wie es umgesetzt ist :).
Edgecrusher86
2020-08-19, 09:57:44
Wobei NV sicherlich auch gut verdient, wenn eine, für viele Leute unerschwingliche bzw. unsinnig teuer erscheinende RTX 3090 die Leistungskrone inne hat. Dann kauft man halt zum Beispiel eine RTX 3060 oder RTX 3070 für grob 350-600. Im Vergleich zu früher, als Big Chip Salvage 300-350 kostete, hat NV auch so immer noch gutes Geld eingenommen.
Ich will natürlich nicht bestreiten, dass kleinere Prozesse und RND ein Vielfaches kosten, als damals. Alleine auch die Anzahl der Mitarbeiter bei NV ist ja extrem gestiegen, wobei man natürlich auch neue Gewinn bringende Märkte erschließt, keine Frage.
Die quasi Monopolstellung im Consumer-Markt diskreter Grafikkarten lässt sich natürlich nicht verneinen.
Letztendlich wird halt woanders auch so gehandelt. Schaut mal, was für einen Wagen man sich für grob 200k DM Neupreis kaufen konnte und nun, was mit 100k Euro möglich sind. Wir sprechen hier teils über sportliche Vierzylinder mit voller Ausstattung!!!
Oder zum Beispiel für 40-50k - bekommt man einen schnellen A1 mit dicker Ausstattung.
Oder Beispiel Supermarkt. Früher für 150DM gab es einen vollen Einkaufswagen und heute für 75 Euro ist es bestenfalls die Hälfte.
Klar, ein wenig Inflation kam sicherlich hinzu, unverhältnismäßig bleibt eine solche Entwicklung dennoch. Solange die Kunden bereit sind, das zu bezahlen, wird es keine Änderung geben.
Gut, bezüglich Grafikkarten kann man auch festhalten, dass früher Highend jährlich abgelöst wurde bis grob 2006.
Hat man früher zum Beispiel jedes Jahr 400-650 Euro für das Beste am Markt ausgegeben, sind es nun alle zwei bis zweieinhalb Jahre 1000+ Euro. Ein wenig relativiert sich somit das Ganze. Eine Ausnahmen war wohl die GeForce 2 Ultra für 1300-1500DM.
Ja, Highend-HW war nie günstig, aber auch die schnellsten Karten bleiben, gerade auch über einen längeren Zeitraum gesehen, bezahlbar.
Eine Karte wie die TITAN RTX würde ich aber auch höchstens kaufen, wenn ich das doppelte oder dreifache Gehalt hätte, sprich so eine Karte mal spontan mit einem Monatsgehalt erwerben könnte. Ansonsten steht der Aufpreis zur Ti in keinem Verhältnis, wenn man nur damit spielen möchte.
Es mag sein, dass NV die 3090 als geistigen Nachfolger bringt.
E: Es mag nur eine Vermutung sein, sollte aber zutreffen:
https://abload.de/img/iojxkj7.png
https://www.chiphell.com/forum.php?mod=viewthread&tid=2253007&extra=page%3D1%26filter%3Dtypeid%26typeid%3D223
Schade, dass man bei DP nicht mal in die Puschen kommen - früher war es doch gefühlt bei HDMI mit 1.x so - nun ist es genau umgekehrt mit dem DisplayPort der Fall.
DP1.5 mit bis zu 64,8 Gbps und 8K60 unkomprimiert wurde ja schon Anfang 2018 für einen Release innerhalb der folgenden 18 Monate angekündigt...
Es scheint, dass der Standard dann somit erst nach Erscheinen von Ampere und Big Navi fertig wird. ;(
BlacKi
2020-08-19, 10:33:21
Nvidia würde natürlich den Preis senken, wenn es keinerlei Abnahme gäbe. Müssen nur alle die 5700 nehmen und schon passt Nvidia die Preise an.
nichtmal unbedingt die 5700, es reicht schon wenn die leute sich weigern karten über 500€ zu kaufen. das ganze segment würde erst im preis gesenkt, und dann irgendwann eingestellt werden.
aber das ganze ist nur theorie, denn die gamer würden gerne mehr zahlen für schnellere karten.
für den mainstream sehe ich aber erstmal keine gefahr. auch dass das ganze noch weiter massiv ausartet, denn wo man die preise anhebt, lässt man platz für die konkurenz, das hilft der konkurenz dranzubleiben.
Sweepi
2020-08-19, 10:56:33
von Display Port 1.5 höre ich zum ersten Mal, die Specs von DP 2.0 liegen vor:
https://vesa.org/press/vesa-publishes-displayport-2-0-video-standard-enabling-support-for-beyond-8k-resolutions-higher-refresh-rates-for-4k-hdr-and-virtual-reality-applications/
TheAntitheist
2020-08-19, 11:01:17
nichtmal unbedingt die 5700, es reicht schon wenn die leute sich weigern karten über 500€ zu kaufen. das ganze segment würde erst im preis gesenkt, und dann irgendwann eingestellt werden.
das wäre bissl dumm und würde nicht das Resultat hervorbringen was du gerne hättest. Die würden einfach keine Highend Karten mehr herstellen, so einfach ist das...
Nur das Midrange karten auch langsamer werden würden, da die RND kosten nicht mehr so gut aufgesplittet werden können :rolleyes:
Bisschen mehr kaufmännisches denken, oder Logik wäre echt angebracht.
wolik
2020-08-19, 11:04:48
Nvidia versucht "Schmerzgrenze" zu ertasten. Mit Titan RTX für 2,5K hat das wohl voll daneben gegangen. Ich schätze Titan RTX wurde kaum verkauft. Lieder man kann sich nicht auf Statistik von Mindfactory stützen. Und deswegen dieses mal wird neues "Kind geboren".RTX 3090. Etwa günstiger als Titan RTX, 2K ?. Wir werden sehen.
sChRaNzA
2020-08-19, 11:06:32
Ob die Preise gerechtfertigt sind oder nicht sei mal dahin gestellt. Was sicher ist, dass ich mir persönlich(!) solche Karten einfach nicht mehr leisten kann.
Im Vergleich zu Spielen, die über die ganzen Jahre sehr wertstabil geblieben sind, war bei den GPUs schon ein enormer Anstieg der Preise zu erkennen. So viel, dass ich beim absoluten High-End einfach raus bin, und das obwohl ich die gerne kaufen würde. Aber leider steigt mein Gehalt nicht in entsprechender Weise.
Ja, ich könnte über Monate oder Jahre darauf sparen, um dann beim Erscheinen das Top-Modell zu kaufen. Aber das ist es mir bei den Preisen auch nicht mehr wert.
Dann lieber eine Konsole, einen Satz neuer Winterreifen, einen neuen Herd und die Garage renovieren. :ugly:
prinz_valium_2
2020-08-19, 11:10:44
Wie hoch ist die Nettogewinnmarge bei nV? 30-40%? Und da ist auch immer die ach so teure Forschung und Entwicklung mit eingerechnet. Dann will der Kartenhersteller auch noch was verdienen...
Ganz grob ist bei jeder Karte locker 30%+ reiner Gewinn. Der gesamte Markt könnte locker 20%+ günstiger werden und alle beteiligten Firmen würden trotzdem noch GUT verdienen. Aber das reicht heute leider ja nicht mehr. Jeder der diese Preise irgendwie rechtfertigt hilft den Firmen nächstes mal NOCH MEHR Geld zu verlangen... (ist aber natürlich auch allgemein so, siehe z.b. Autoindustrie, was da für Rabatte gehen und trotzdem machen die Firmen noch Milliardengewinne).
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/profit-margins#:~:text=Profit%20margin%20can%20be%20defined%20as%20the%20percentage,mar gin%20as%20of%20July%2031%2C%202019%20is%2026.93%25.
Daredevil
2020-08-19, 11:16:55
das wäre bissl dumm und würde nicht das Resultat hervorbringen was du gerne hättest. Die würden einfach keine Highend Karten mehr herstellen, so einfach ist das...
Nur das Midrange karten auch langsamer werden würden, da die RND kosten nicht mehr so gut aufgesplittet werden können :rolleyes:
Bisschen mehr kaufmännisches denken, oder Logik wäre echt angebracht.
Dito, manche verstehen hier echt nicht, dass HighEnd immer auch die anderen Klassen mit finanziert, sei es von der Deckung der Entwicklungskosten her, als auch von der Marge.
Empfehle hier die Elon Musk Biografie, da versteht man gut, wieso man "von oben nach unten" arbeitet.
Jemand, der sich nun ne 3080 kauft und gute RT Performance haben könnte und die 2080ti verteufelt wegen des Preises, versteht am Ende einfach nicht, dass die 2080ti/RTX/Quadro Käufer diesen Weg geebnet haben.
Ein Ryzen 3600 wird auch nur verschenkt, weil es Leute gibt, die bereitwillig 3700€ für AMDs Threadripper ausgeben.
Warum darf es eigentlich einen 3700€ Prozessor geben für Pro User, aber keine Pro Grafikkarte für 2000€?
( Ja Leute, GPUs sind mehr als Minecraft Beschleuniger )
BlacKi
2020-08-19, 11:23:40
früher gings doch auch ohne? oh wait, da waren die gewinne kleiner. dahin will man natürlich nicht zurück...
Geächteter
2020-08-19, 11:30:39
früher gings doch auch ohne? oh wait, da waren die gewinne kleiner. dahin will man natürlich nicht zurück...
Wenn es der Konsument mitmacht... Einfach die Mehrheit mal ein Jahr kein nvidia-High-End kaufen, dann tut es auch dort weh. Eigentlich macht es auch die Spieleindustrie leicht, größtenteils alles Aktuelle recht trist und buggy und die angekündigten "Blockbuster" auch imho langweilig. Vielleicht besser die vielen Geldscheine in die Spielindustrie hinleiten, damit das absaugende Kapitalgesocks in dieser Branche nicht mehr gebraucht wird.
Daredevil
2020-08-19, 11:33:52
"Früher" waren Grafikkarten Grafikkarten und keine hocheffizienten Bauteile, welche man im Prosumer Bereich nutzt, um ML Applikationen zu beschleunigen, Raytracing in Games als auch CAD Programmen zu berechnen und durch Cuda/Metal viele Workloads von der CPU zu holen, weil CPUs da einfach abstinken.
Grafikkarten sind nichts mehr, was nur zum Spielen genutzt wird und deswegen gibt es auch dort eine neue Klasse, die Leute in ihrem Job vorran bringt.
Die Leute möchten GPU Leistung und zahlen dafür auch, weil sie selbst mit einer 13k GPU schneller Geld verdienen als mit einer 500€ GPU.
Wenn es die teuerste Karte im Sortiment nicht geben würde, wären die kleinsten Karten deutlich schlechter, weil die Entwicklung nicht finanziert wird.
https://abload.de/img/unbenanntvwjcv.png
"Früher ging es auch so" ist der kleine Bruder von "Das machen wir schon immer so", das stillt aber den Fortschritt und bringt ihn nicht vorran.
Selbst wenn Nvidia eine 20k GPU rausbringt und keiner aus dem Forum sie kauft, bringt uns das mit unserer süßen Technik doch weiter, weil Entwicklung entsteht.
Armaq
2020-08-19, 11:52:33
Es gibt ja auch noch die ganzen pfiffigen Leute, die die Consumer Karten kaufen und dann für andere Zwecke nutzen. Da geht einiges.
Edgecrusher86
2020-08-19, 11:59:02
von Display Port 1.5 höre ich zum ersten Mal, die Specs von DP 2.0 liegen vor:
https://vesa.org/press/vesa-publishes-displayport-2-0-video-standard-enabling-support-for-beyond-8k-resolutions-higher-refresh-rates-for-4k-hdr-and-virtual-reality-applications/
Ok, da war ich etwas vor schnell - es wurde 2018 nur gemutmaßt, dass es DP1.5 heißen könnte....ist auch egal. Verspätet sich auf jeden Fall.
https://www.computerbase.de/2018-01/displayport-naechste-generation-doppelte-datenrate/
E: Man hat die Spec dann auf 77,37 Gbps angehoben - ja, 2018 war die Rede von 64,8 Gbps für den kommenden Standard - CB hatte mit der Nomenklatur DP1.5 gerechnet.
2019 hat die VESA es angekündigt - erinnert mich an eine neue PCI-E Spec - 4.0 sollte Ende 2017 marktreif werden. Bei AMD hat es bis H2/2019 gedauert.
Intel wird es H2/2020 für Ice Lake-SP bringen und Rocket Lake-S erscheint erst Q1/2021 (ja, man hatte es bei Comet Lake-S etwas verbockt gehabt).
PCI-E 5.0 wird dann auch frühstens mit Zen 5 oder entsprechenen Intel Cove kommen -> 2024ff.
Sagen wir einfach, bei Hopper/RDNA3 wird DP2.0 dann kommen in 2021/2022. :)
Ob die Preise gerechtfertigt sind oder nicht sei mal dahin gestellt. Was sicher ist, dass ich mir persönlich(!) solche Karten einfach nicht mehr leisten kann.
Im Vergleich zu Spielen, die über die ganzen Jahre sehr wertstabil geblieben sind, war bei den GPUs schon ein enormer Anstieg der Preise zu erkennen. So viel, dass ich beim absoluten High-End einfach raus bin, und das obwohl ich die gerne kaufen würde.
Ist ja kein Problem? Jeder sollte in seinem Preisrahmen kaufen und wenn ihm der Performance Unterschied ausreicht. Der Anspruch das Topmodell kaufen zu können ist nur ein psychologisches Problem. Das kann man in den wenigsten Lebensbereichen.
Daredevil
2020-08-19, 13:30:21
Ob die Preise gerechtfertigt sind oder nicht sei mal dahin gestellt. Was sicher ist, dass ich mir persönlich(!) solche Karten einfach nicht mehr leisten kann.
Im Vergleich zu Spielen, die über die ganzen Jahre sehr wertstabil geblieben sind, war bei den GPUs schon ein enormer Anstieg der Preise zu erkennen. So viel, dass ich beim absoluten High-End einfach raus bin, und das obwohl ich die gerne kaufen würde. Aber leider steigt mein Gehalt nicht in entsprechender Weise.
Ja, ich könnte über Monate oder Jahre darauf sparen, um dann beim Erscheinen das Top-Modell zu kaufen. Aber das ist es mir bei den Preisen auch nicht mehr wert.
Dann lieber eine Konsole, einen Satz neuer Winterreifen, einen neuen Herd und die Garage renovieren. :ugly:
Ja, ich warte auch auf nen 2000€ Tesla, weil mir 50k dann dich zu teuer sind in der Großstadt und ich den Wert nicht sehe. :D
Nur weil es teurere Karten gibt, heißt das ja nicht automatisch, das günstige Karten damit entwertet werden oder der Preisbereich komplett weg fällt.
Man kann heute mit einer RX580 ( Vor einem Jahr 100€ ) immer noch jedes Spiel spielen mit einem FullHD60 ( Vor Jahren 100€ ) Monitor.
FullHD und 60fps ist eine Basis, wer danach nach mehr Auflösung oder FPS giert, zahlt direkt überproportional mehr Geld.
Auf einer 2080ti kannst du nicht 10x besser spielen als auf einer RX580.
Mit einem Tesla kannst du nicht 10x schneller fahren als mit einem Golf.
Mit einem Threadripper kannst du nicht 20x mehr berechnen als mit einem 3600.
Preis und Wert sind hier die entscheidenden Faktoren.
Wenn die Karte 2000€ kostet und "nur" das doppelte leistet wie eine 700€ Karte, haben wir eine inbalance zwischen Preis und Wert.
Wenn eine Karte 2000€ kosten würde und 10x mehr leistet als eine 500€ Karte, würdest du vielleicht doch zugreifen.
Dir ist es das einfach nicht Wert. Das ist okay.
Die EGO Spielereien und das Alpha getue braucht es irgendwann dann auch nicht mehr.
Mir ist eine 2080ti auch keine 1000€+ Wert, deswegen kaufe ich sie gebraucht und nur, wenn sie stark im Angebot ist. Also so um die 800-900€ rum.
Da kann ich für mich die Preis/Leistung und den persönlichen Wert erhalten.
stinki
2020-08-19, 13:36:29
@Daredevil
Genau meine Meinung!(y)
Niemand muss eine 2080Ti oder 3090 für den Preis kaufen.
Oder braucht diese unbedingt um zu spielen.
Jeder kann und darf soviel Geld wie er hat und möchte für etwas ausgeben das es ihm Wert ist. Da ist bei Grafikkarten nicht anders als bei jedem anderen Konsumgut.
Troyan
2020-08-19, 13:41:24
Diese Diskussion hatten wir auch schon bei Turing. Fertigung skaliert nicht 1:1 mit Leistung und somit mit Preis. Wenn man für 60% Mehrleistung die doppelten Fertigungskosten hat, dann kann das Produkt eben nicht nur 60% mehr kosten, sondern vielleicht 100%.
Ergo macht es Sinn, dass eine RTX2070 für $500 verkauft werden kann und eine 2080TI eben erst für $999. Des Weiteren ist auch die verfügbare Menge geringer, wenn die Fertigung zum limitierenden Faktor wird.
Es trifft nunmal die Realität auf die Unwissenheit. Leute wünschen sich was, das in der Realität nicht möglich ist. Und dann werden diese Leute eben aufbrausig.
sChRaNzA
2020-08-19, 13:59:00
Ist ja kein Problem? Jeder sollte in seinem Preisrahmen kaufen und wenn ihm der Performance Unterschied ausreicht. Der Anspruch das Topmodell kaufen zu können ist nur ein psychologisches Problem. Das kann man in den wenigsten Lebensbereichen.
Ich sage ja nicht, dass es ein Problem ist. Ich sage nur, dass es schade ist, da mich die Thematik und Technik bis jetzt sehr interessiert hat. Interessieren tut es mich ja immer noch, nur persönlich Hand anlegen kann ich an die Technik dann eben nicht mehr.
Sollte es noch teurer werden, dann wird es halt immer mehr Menschen so gehen. Irgendwann wird es da schon eine Grenze geben. Ich freue mich ja für alle die sich so etwas leisten wollen und können, ich und einige meiner Bekannten sind dafür dann halt raus und wechseln auf Konsolen, bleiben ein paar Generationen hinterher und / oder lassen dieses Hobby halt gänzlich sein.
Ja, ich warte auch auf nen 2000€ Tesla...
Ich habe nicht umsonst geschrieben, dass es "meine persönliche" Meinung ist und ich nicht infrage stelle, ob die Preise gerechtfertigt sind oder nicht.
pixeljetstream
2020-08-19, 14:11:19
Ich sage ja nicht, dass es ein Problem ist. Ich sage nur, dass es schade ist, da mich die Thematik und Technik bis jetzt sehr interessiert hat. Interessieren tut es mich ja immer noch, nur persönlich Hand anlegen kann ich an die Technik dann eben nicht mehr.
die Architektur ist ja fast immer die gleiche in einer Generation, ergo hat man auch mit den kleineren chips alle features (wenn du das mit Technik meinst). Hab selbst immer die 60er/70er gekauft weil die Features da waren zum programmieren und es damals in mein Budget passte. Erst nach 5–6 Jahren im Job dann zur 1080 gegriffen die auch immer noch benutze. Aber ich konnte auch quake1 mit reduzierter Auflösung bei 13 FPS spielen ;) das ist alles extrem subjektiv wieviel man selbst so haben will an Performance. Aber Zugang zur Technik, Cuda etc. war IMO immer gegeben.
BlacKi
2020-08-19, 14:26:37
@Daredevil
Genau meine Meinung!(y)
Niemand muss eine 2080Ti oder 3090 für den Preis kaufen.
Oder braucht diese unbedingt um zu spielen.
Jeder kann und darf soviel Geld wie er hat und möchte für etwas ausgeben das es ihm Wert ist. Da ist bei Grafikkarten nicht anders als bei jedem anderen Konsumgut.
das widerspricht allerdings nicht der ursprungsaussage, bzw. geht an jener komplett vorbei.
Daredevil
2020-08-19, 14:36:51
Ich habe nicht umsonst geschrieben, dass es "meine persönliche" Meinung ist und ich nicht infrage stelle, ob die Preise gerechtfertigt sind oder nicht.
In deinem Post schwomm so ein "Ich würde gerne auch vorne mit dabei sein, kann es aber nicht :(" Ding mit.
Ich wollte damit nur sagen, nur weil Karten teurer sind und neue Preisregionen erklommen werden, verpasst du nichts oder bist im Nachteil.
Es ist ja nicht so, als würden generell alle neuen Karten 2000€ kosten und jeder andere muss sich bis zum Jahre 2100 mit Polaris, Pascal und Vega beschäftigen. ^^
Adam D.
2020-08-19, 14:42:27
Es ist ja nicht so, als würden generell alle neuen Karten 2000€ kosten und jeder andere muss sich bis zum Jahre 2100 mit Polaris, Pascal und Vega beschäftigen. ^^
Du hast alles zum Thema gesagt, ich finde auch, wir können die Diskussion jetzt mal beenden. Es ist hier im Forum leider einfach so, dass Everyday-Gamer und Enthusiasten gleichermaßen vertreten sind, weshalb die Debatte immer so hitzig verläuft - aber das schon seit Ewigkeiten, ohne dass irgendetwas Neues beigetragen wird.
Lasst die Leute ihre Luxushardware kaufen, es beschwert sich ja auch niemand, dass eine Q8 teurer als ein Polo ist, obwohl beide vier Räder und nen Motor haben.
Sunrise
2020-08-19, 14:50:50
...Lasst die Leute ihre Luxushardware kaufen, es beschwert sich ja auch niemand, dass eine Q8 teurer als ein Polo ist, obwohl beide vier Räder und nen Motor haben.
Eben, es gibt vor allem jetzt mit AMD bald auch Konkurrenz und Intel scheint ja auch irgendwann nachzukommen. Die Konsolen werden auch sicher super, die haben ja auch einen recht guten Werterhalt, man kann sich ja auch mal woanders umschauen.
Damals habe ich mir nen ordentliches Abit-Board, einen P3 650MHz Slot1 Coppermine, ne Geforce 256 DDR und einen Iiyama 22" CRT gegönnt, weil ich dafür monatelang in einem quasi verlängerten Ferienjob gearbeitet habe und hatte damit 5-7 Jahre lang meinen Spaß. Das waren insgesamt locker mal 3000 DM, die ich vorher noch niemals in den Händen hatte.
Wenn man nicht genug verdient, oder es einem den Preis nicht Wert ist, sich eine 3090/Titan zu leisten, dann ist es eben so. Irgendwann wird sich ein Preis einpendeln, der für die IHVs noch gangbar ist und wenn nicht, werden die Preise angepasst.
IMHO ist das alles noch ok, wenn Handys (iPhone Pro Max 512GB) 1649 EUR kosten... mit einer High-End Grafikkarte hat man sehr sehr lange seinen Spaß.
Dieser kranke Drang, immer das Beste zu wollen, sich aber über die Preise zu beschwehren ist unverständlich, außer man hat vom Typ her irgendwelche Komplexe, und schaut jedem Porsche-Fahrer neidisch hinterher. Scheint ja auch so eine deutsche Sache zu sein... merkt man auch direkt wenn bestimmte Porsche-Fahrer eigene Verkehrsregeln aufstellen, dass es hier nichtmehr um Spaß geht.
TurricanM3
2020-08-19, 14:54:55
Naja, mit meiner ersten 2080 Ti hatte ich nicht lange Spaß. :freak:
Ich hoffe so ein Debakel gibt es dieses mal nicht.
Schnäppchenjäger
2020-08-19, 15:06:24
Es gibt ja auch noch die ganzen pfiffigen Leute, die die Consumer Karten kaufen und dann für andere Zwecke nutzen. Da geht einiges.Was denn zum Beispiel? Komm mir jetzt nicht mit Folding@Home oder sowas :tongue:
sChRaNzA
2020-08-19, 15:10:20
In deinem Post schwomm so ein "Ich würde gerne auch vorne mit dabei sein, kann es aber nicht :(" Ding mit.
Ich wollte damit nur sagen, nur weil Karten teurer sind und neue Preisregionen erklommen werden, verpasst du nichts oder bist im Nachteil.
Es ist ja nicht so, als würden generell alle neuen Karten 2000€ kosten und jeder andere muss sich bis zum Jahre 2100 mit Polaris, Pascal und Vega beschäftigen. ^^
So etwas schwomm da nicht mit, bzw so sollte es nicht gemeint sein. Wie du aber selber sagtest kommt es auch darauf an, was jemand mit einer Karte vor hat. Thema VRAM zum Beispiel. Da geht ja nicht einmal um die reine Rohleistung einer Karte. Brauche ich, aus welchen Gründen auch immer, aber mehr als 6/8 GB wird es preislich schon spannend.
Um den Schwung auf das eigentliche Thema wieder zu bekommen, hoffe ich hier einfach auf Ampere und BigNavi.
Edgecrusher86
2020-08-19, 15:21:28
Ich habe mal auf Basis der RTX 2080 Ti FE ein Mockup eines möglichen RTX 3090 PCBs mit Paint gebastelt. Angenommen, auch das PCBs des Top-Dogs wäre nur 21,3cm lang - wo sollen 20+ Phasen und 12x GDDR6X [pro Seite] samt I/O Platz finden? Den Stecker könnte man sicher mit einem Flachbandkabel "auslagern" - aber ob das bei den kolportierten Verbrauchswerten sinnig wäre, sei mal dahin gestellt. Wir reden ja von weit jenseits der 300W. Zumal ich hier am I/O ein paar Bauteile mit Phasen zugepflastert habe - das müsste man dann alles etwas Richtung rechts verschieben.
NO LEAK - RTX 3090 FE PCB MOCKUP - 10,5" via RTX 2080 Ti FE PCB @ EVGA:
https://abload.de/img/3090femockupu5jht.jpg
Bei einer kompakteren Lösung müsste man wohl soviel wie möglich auf die Rückseite auslagern.
Daredevil
2020-08-19, 15:35:52
Warum denn nicht auf der Rückseite?
Die Vega 56/64 von Gigabyte hatte seine ( viele? ) SpaWas auch auf der Rückseite um sie dort passiv braten zu lassen. ^^
PS: Ne 3080 mit 10GB und 20GB anbieten zu wollen ist halt auch typisch Nvidia. :D
10GB sind zuwenig, 20GB zuviel. Egal wie man es macht, macht man es verkehrt.
( Völlig egal, ob das jetzt 2080ti Leistung ist oder ~30% mehr/weniger )
Rampage 2
2020-08-19, 15:41:53
@Daredevil
Genau meine Meinung!(y)
Niemand muss eine 2080Ti oder 3090 für den Preis kaufen.
Oder braucht diese unbedingt um zu spielen.
Jeder kann und darf soviel Geld wie er hat und möchte für etwas ausgeben das es ihm Wert ist. Da ist bei Grafikkarten nicht anders als bei jedem anderen Konsumgut.
Darum geht es doch gar nicht - natürlich kauft jeder nur das, wofür er Geld ausgeben kann oder will. Es geht darum, dass die Luxus-Käufer, die diese Preispolitik mitmachen (also völlig überteuerte HW zu Mondpreisen kaufen), der restlichen Käuferschaft damit schaden, die *keine* unbegrenzten Geldmittel hat.
Denn diese hat die indirekten Konsequenzen dieses Verhaltens zu tragen: wenn eine xx102 3090 nunmehr 1500$ kostet, dann zieht es auch die Preise der unteren Leistungssegmente (xx104, xx106) mit nach oben - ganz unabhängig von Entwicklungs- und Fertigungskosten (große Die-Size, etc.) ! Eine 3080, die normalerweise 600-700$ kosten würde/müsste, wird fortan 800-1000$ kosten und eine 3070 (Ti), welche normalerweise "nur" 400-500$ kosten würde/müsste, wird nunmehr 700-800$ kosten.
Ein Käufer, der in der Vergangenheit nicht genug Geld für eine xx102-GPU (Bsp: GTX 1080Ti, Titan X) aber genug Geld für eine xx104-GPU (Bsp: GTX 1080) hatte, wird sich diesmal keine GPU im xx80-Leistungssegment (RTX 3080) kaufen können, weil diese mehrere hundert Dollar teurer geworden ist; ebenso wird sich jemand, der bisher genug Kaufkraft für eine GPU im xx70-Leistungssegment (Bsp: GTX 1070) hatte, diesmal keine gleichartige GPU (RTX 3070/Ti) kaufen können, weil diese ebenfalls mehrere hundert Euro teurer geworden ist - wegen einer Preispolitik, die durch das Käuferverhalten bekräftigt wurde!
Ganz zu schweigen davon, dass es seit Turing zum allerersten Mal keinen Fortschritt beim P/L-Verhältnis mehr gegeben hat: Eine GeForce 2 Ultra anno 2000 kostete 1500DM - zwei Jahre später (2002) gab es mit der GeForce 4 MX eine Einsteiger-/Mittelklasse-GPU, die noch schneller als eine GF2U war, zu einem Bruchteil dessen Preises (200-400 DM ?) zu kaufen. Also kostenlose Leistungssteigerung. Das war bis Pascal der Fall. Heute sind wir an einem Punkt angekommen, wo jedes % mehr GPU-Leistung auch fast entsprechend mehr $ Geld kostet.
Klartext: eine RTX 4090, die doppelt so schnell ist wie eine RTX 3090, würde nach dieser Logik 3000$ kosten:freak::freak:
R2
Daredevil
2020-08-19, 15:47:07
Nvidia kann auch einfach ein Jahr warten, bis die Fertigung günstiger wird. Wäre dir das lieber?
Bei solchen Preisen wird die Hersteller Garantie (Dauer und Leistung) immer wichtiger.
Hat mich bis jetzt nie interessiert aber bei Ampere werde ich wohl gezielt mir eine Graka mit möglichst langer Garantie Dauer und guten Service kaufen.
mironicus
2020-08-19, 15:59:24
Ist Ampere wohl der letzte monolithische Chip von NVidia bevor sie wie AMD auf Chiplets wechseln?
Rampage 2
2020-08-19, 15:59:59
Nvidia kann auch einfach ein Jahr warten, bis die Fertigung günstiger wird. Wäre dir das lieber?
Ich bin mir sicher, dass die aktuellen/zukünftigen Wucherpreise nichts (mehr) mit den Fertigungs-/Entwicklungskosten zu tun haben - zumal die 8nm-Fertigung ziemlig billig sein dürfte. Ebenso ist die Die-Fläche nicht gestiegen, sondern geschrumpft auf Maxwell-Niveau. Das heißt, die Wucher-Preise, die mit Turing eingeführt wurden, müssten eigentlich nicht steigen, sondern sinken. Nun kann man das aufwändige PCB, den extrem schnellen GDDR6X-Speicher und die doppelte Speicherkapazität als Argumente für den Preisanstieg anführen - aber selbt in dem Fall würde das bedeuten, dass eine RTX 3090 mehr oder weniger soviel kosten sollte, wie eine derzeitige 2080Ti es tut (999$), denn die billigere Fertigung und die kleinere Die-Size sollten diese zusätzlichen Kosten beträchtlich egalisieren!
Lange Rede, kurzer Sinn: vielmehr als die höheren Entwicklungs-/Fertigungskosten, ist die Marge (seit Turing) die Nvidia nicht aufgeben (oder sogar steigern) will, der Hauptgrund für die zukünftigen Mondpreise!
R2
Daredevil
2020-08-19, 16:02:31
Wer bist du denn, dass du einschätzen kannst, dass eine 8nm Fertigung "billig" ist?
Arbeitest du bei Samsung, in der Industrie, oder woher bekommst du diese Daten?
Rampage 2
2020-08-19, 16:03:44
Wer bist du denn, dass du einschätzen kannst, dass eine 8nm Fertigung "billig" ist?
Mit Sicherheit billiger als TSMC's 7nm EUV, oder etwa nicht? :|
R2
MiamiNice
2020-08-19, 16:08:42
Verstehe euren derartigen Aufriss hier nicht. Um mal die schönen Autovergleiche zu bringen. Die wenigsten hier werden sich bei Porsche und Co. umschauen. Einfach weil sie wissen das sie das Geld nicht dafür haben. Sie werden wahrscheinlich eher nach VW gehen oder einem Asiaten.
NV ist von einer kleinen Firma aufgestiegen zu einer nobel Firma. Noch dazu ist der Gaming Markt für NV nicht mehr so relevant. Hinterher weinen bringt da nichts, einfach mal AMD kaufen gehen, obwohl ich denke das die die Margen auch haben wollen.
Vielleicht Verzicht üben? Ne gebrauchte 2080TI kaufen? Ne Konsole?
Weinen und argumentieren wird absolut null helfen. Mal auf NV Aktienkurs geschaut?
Wer nicht zahlt ist draußen, so einfach ist das.
Timbaloo
2020-08-19, 16:13:03
Ist Ampere wohl der letzte monolithische Chip von NVidia bevor sie wie AMD auf Chiplets wechseln?
Die Nachfolge-Architektur Hopper wurde schon eigentlich schon immer als Multi-Chip-Design gehandelt.
stinki
2020-08-19, 16:15:52
Der Endkundenpreis eines Produkts hat nur am Rande etwas mit den Herstellungskosten zu tun.
In der freien Marktwirtschaft kann eine Firma jeden beliebigen Preis für ein Produkt ansetzen.
Die Firma entscheidet was für sie der beste/richtige Preis ist und kann diesen jederzeit anpassen.
Wenn die 2080Ti für Nvidia den falschen Preis gehabt hätte, hätte ihn Nvidia auch angepasst. Haben sie aber nicht, also war es für Nvidia wohl der richtige Preis. Das wird bei 3090/3080Ti/3080 und allen anderen 30xx Karten nicht anders werden und sein.
Sweepi
2020-08-19, 17:08:37
[..]Es geht darum, dass die Luxus-Käufer, die diese Preispolitik mitmachen (also völlig überteuerte HW zu Mondpreisen kaufen), der restlichen Käuferschaft damit schaden, die *keine* unbegrenzten Geldmittel hat. [...]
Gegenthese: Die Industrie laueft, wie bei CPU-IPC, Fertigungs-Nodes, auch bei der GPU perfomance gegen die weiche Wand des Gesetzes vom abnehmenden Grenzertrag.
Die hohen Margen (nicht Gewinn/"Gewinnmargen") bei den "Luxus" Produkten helfen, die hohen Entwicklungskosten zu decken. Das führt zu mehr Produkt/Preis (!= FP32/Preis) in den Preislagen, in denen es Konkurrenz gibt.
Sollte es noch teurer werden, dann wird es halt immer mehr Menschen so gehen. Irgendwann wird es da schon eine Grenze geben. Ich freue mich ja für alle die sich so etwas leisten wollen und können, ich und einige meiner Bekannten sind dafür dann halt raus und wechseln auf Konsolen, bleiben ein paar Generationen hinterher und / oder lassen dieses Hobby halt gänzlich sein.
Du gibst das Hobby auf, weil du dir nicht mehr das Beste vom Besten leisten kannst? Das wird dann aber in vielen Hobbies zum Problem :freak:
WedgeAntilles
2020-08-19, 17:35:46
Du gibst das Hobby auf, weil du dir nicht mehr das Beste vom Besten leisten kannst? Das wird dann aber in vielen Hobbies zum Problem :freak:
Give me High-End or give me Death!
sChRaNzA
2020-08-19, 17:38:01
Du gibst das Hobby auf, weil du dir nicht mehr das Beste vom Besten leisten kannst? Das wird dann aber in vielen Hobbies zum Problem :freak:
Nein.
Schlagt mich, aber die nun kolportierten 1400 USD finde ich jetzt nicht unbedingt billig, aber 1700€ hat man für die besten Customs bereits bei Turing bezahlt. Ich finde das liegt noch so im Rahmen. Mal schauen wie BN performt und zu welchem Preis, dann wird entschieden. Meiner 5700XT geht im FS 2020 so ziemlich die Luft aus, obwohl das Spiel bereits auf Med. sehr gut aussieht.
Lanicya
2020-08-19, 17:53:28
Du gibst das Hobby auf, weil du dir nicht mehr das Beste vom Besten leisten kannst? Das wird dann aber in vielen Hobbies zum Problem :freak:
Ich werde es aufgeben müssen, weil der Preis, den Ich bereit bin zu zahlen, immer näher kommt. Ich will gar nicht das beste vom Besten. Es gibt auch noch was darunter.
gruß
Reaping_Ant
2020-08-19, 17:54:19
Ich verstehe nicht ganz, was das Ziel der Preisdiskussion im Moment ist. Letztlich sollte es doch darauf hinaus laufen, dass man sich die Leistung und den Preis des Produktes ansieht und sich dann entscheidet, ob es einem die Anschaffung wert ist. Ob das Produkt dann 3090, 3080 oder auch 3060 heißt ist doch egal. Wenn ich bisher eine 1080 hatte und eine 3060 mir ausreichend Mehrleistung zu einem akzeptablen Preis bietet, dann kann es mir doch egal sein, was eine 3090 kostet.
Allenfalls kann man sich darüber beschweren, dass man für die selbe Mehrleistung im gleichen Zeitraum mehr bezahlt als früher (oder eben länger warten muss), aber das sollte in Anbetracht der langsameren Fortschritte in der Fertigung eigentlich niemanden überraschen.
Für mich persönlich ist die Schwelle bei 50% Mehrleistung gegenüber meiner 1080 bei vergleichbarem Stromverbrauch und ca. 500 Euro. Solange es das nicht gibt, warte ich halt.
sChRaNzA
2020-08-19, 18:00:57
Ich verstehe nicht ganz, was das Ziel der Preisdiskussion im Moment ist.
Naja, es ist halt ein Spekulation-Forum. Der Preis gehört da halt, abseits der Technik, auch irgendwie mit dazu. Wie schreibt Leonidas dazu auf der Startseite:
Trotz dass damit die 2000-Dollar-Nachricht wahrscheinlich vom Tisch ist, kann diese Preisgestaltung dennoch nicht gefallen, denn dies dürfte dann sicherlich auch Preissteigerungen bei den nachfolgenden Ampere-Karten nach sich ziehen. Gerade da die GeForce RTX 3080 diesesmal auf demselben Grafikchip (GA102) basiert bzw. technisch näher am Spitzenmodell dran liegt, könnte auch ein dementsprechend kleinerer Preisabstand zum Spitzenmodell folgen – was die GeForce RTX 3080 gefährlich nahe an die 1000-Dollar-Grenze (oder gar darüber!) führen würde. Sofern dies bei der regulären 3080er Version mit 10 GB Speicher noch nicht der Fall ist, kann dies in jedem Fall bei deren 20-GB-Ausführung passieren. Ob dies die Grafikkarten-Käufer dann noch mittragen wollen, wenn es gleich zwei Modelle mit vierstelligem Preispunkt in nVidias Gaming-Portfolio gibt, wäre etwas zu bezweifeln.
wolik
2020-08-19, 18:07:42
Ist Ampere wohl der letzte monolithische Chip von NVidia bevor sie wie AMD auf Chiplets wechseln?
Hoffnung und Gerüchte ja. Aber kein einzige Produkt auf dieses Basis (MCM). Von Intel kommt was, werden wir sehen. Ob was bei CPU gut geklappt hat, bei GPU Möglich ist?
BlacKi
2020-08-19, 18:49:38
Mit Sicherheit billiger als TSMC's 7nm EUV, oder etwa nicht? :|
R2
die wafer sind günstiger, aber da man weniger chips herausbekommt, weil die chips größer sind und sich der verschnitt erhöht, bleiben vl noch effektiv 10-20% unterschied von chip zu chip.
jetzt sagst du, warum geht nv nicht direkt auf 7nm wenn die nur 10-20% mehr kosten, dafür spart man doch am strom! tja, amd hat sich wohl großzügig eingekauft. ja, nv hat wohl kapazitäten erhalten aber nicht genug. jene kapazitäten werden für den a100 genutz, dort ist der stromsparvorteil von größerem vorteil, denn man kann schließlich die gamer karten auch mit 40% mehr power in den mark schicken:freak:
Die Nachfolge-Architektur Hopper wurde schon eigentlich schon immer als Multi-Chip-Design gehandelt.
wenn man nicht eine architektur dazwischen schiebt wie turing.
wir haben schon 2014/15 gedacht, das hbm bald überall zu finden ist.
Zossel
2020-08-19, 19:00:50
jetzt sagst du, warum geht nv nicht direkt auf 7nm wenn die nur 10-20% mehr kosten, dafür spart man doch am strom! tja, amd hat sich wohl großzügig eingekauft. ja, nv hat wohl kapazitäten erhalten aber nicht genug. jene kapazitäten werden für den a100 genutz, dort ist der stromsparvorteil von größerem vorteil, denn man kann schließlich die gamer karten auch mit 40% mehr power in den mark schicken:freak:
Ist doch nur gut wenn in der derzeitigen Situation auch Kohle zu Samsung fließt. Offensichtlich gibt es Leute sie sich gut dabei fühlen.
crux2005
2020-08-19, 19:15:48
12 Tage 22 Std. und noch immer keine genaueren Leaks zu Ampere? Hauptsache 4 Seiten gefüllt mit Diskussion über Preise, die noch nicht einmal bekannt sind. :freak:
sChRaNzA
2020-08-19, 19:19:27
Wäre hier irgendetwas bekannt, dann müssten wir ja auch nicht ''spekulieren''. :ugly:
rentex
2020-08-19, 19:27:05
Darum geht es doch gar nicht - natürlich kauft jeder nur das, wofür er Geld ausgeben kann oder will. Es geht darum, dass die Luxus-Käufer, die diese Preispolitik mitmachen (also völlig überteuerte HW zu Mondpreisen kaufen), der restlichen Käuferschaft damit schaden, die *keine* unbegrenzten Geldmittel hat.
Denn diese hat die indirekten Konsequenzen dieses Verhaltens zu tragen: wenn eine xx102 3090 nunmehr 1500$ kostet, dann zieht es auch die Preise der unteren Leistungssegmente (xx104, xx106) mit nach oben - ganz unabhängig von Entwicklungs- und Fertigungskosten (große Die-Size, etc.) ! Eine 3080, die normalerweise 600-700$ kosten würde/müsste, wird fortan 800-1000$ kosten und eine 3070 (Ti), welche normalerweise "nur" 400-500$ kosten würde/müsste, wird nunmehr 700-800$ kosten.
Ein Käufer, der in der Vergangenheit nicht genug Geld für eine xx102-GPU (Bsp: GTX 1080Ti, Titan X) aber genug Geld für eine xx104-GPU (Bsp: GTX 1080) hatte, wird sich diesmal keine GPU im xx80-Leistungssegment (RTX 3080) kaufen können, weil diese mehrere hundert Dollar teurer geworden ist; ebenso wird sich jemand, der bisher genug Kaufkraft für eine GPU im xx70-Leistungssegment (Bsp: GTX 1070) hatte, diesmal keine gleichartige GPU (RTX 3070/Ti) kaufen können, weil diese ebenfalls mehrere hundert Euro teurer geworden ist - wegen einer Preispolitik, die durch das Käuferverhalten bekräftigt wurde!
Ganz zu schweigen davon, dass es seit Turing zum allerersten Mal keinen Fortschritt beim P/L-Verhältnis mehr gegeben hat: Eine GeForce 2 Ultra anno 2000 kostete 1500DM - zwei Jahre später (2002) gab es mit der GeForce 4 MX eine Einsteiger-/Mittelklasse-GPU, die noch schneller als eine GF2U war, zu einem Bruchteil dessen Preises (200-400 DM ?) zu kaufen. Also kostenlose Leistungssteigerung. Das war bis Pascal der Fall. Heute sind wir an einem Punkt angekommen, wo jedes % mehr GPU-Leistung auch fast entsprechend mehr $ Geld kostet.
Klartext: eine RTX 4090, die doppelt so schnell ist wie eine RTX 3090, würde nach dieser Logik 3000$ kosten:freak::freak:
R2
Bullshit. Das meiste Geld wird mit den unteren Segmenten verdient, dazu regelt der Markt die Preise (in der Regel, später runter). Dann gibt es ja noch den Gebrauchtmarkt. Man kann natürlich anderen die Schuld für alles geben...sehr billig.
Gouvernator
2020-08-19, 19:39:45
Ich denke das Rennen wird eine 3080 10Gb machen, 10Gb VRAM reicht für 4K vollkommen. Die Leute nehmen einfach den Speed für 120Hz/FPS mit. Scheiß auf 20Gb/24Gb. Nach meinen Tests in 8K/30Hz vs 4k/120Hz würde ich zu 90% immer 120Hz wählen. Wenn eine 3080 10Gb richtig "günstig" ~700€ daherkommt dann gibt es eigentlich kein Grund Richtung 1500€ 24Gb zu schielen.
BlacKi
2020-08-19, 19:47:21
Bullshit. Das meiste Geld wird mit den unteren Segmenten verdient
punkt
rentex
2020-08-19, 19:51:35
So läuft das doch immer...
Screemer
2020-08-19, 20:06:44
Wer bist du denn, dass du einschätzen kannst, dass eine 8nm Fertigung "billig" ist?
Arbeitest du bei Samsung, in der Industrie, oder woher bekommst du diese Daten?
Wenn man sich den Jahresbericht und die Progrssion über die letzten Jahre ansieht, mit Blick auf die Margen im gamingbereich von nv, dann kann man das durchaus so sagen.
punkt
In dem sich das generationeninterne plv seit Fermi um was 50-70% (?) verringert hat. Das stützt genau seine These. Zu behaupten das Anziehen der Preise der toppeodukte hätte keine Auswirkungen auf mid-range und low-end gehabt zeugt von ziemlich verzerrte Wahrnehmung.
rentex
2020-08-19, 20:22:49
Wenn man sich den Jahresbericht und die Progrssion über die letzten Jahre ansieht, mit Blick auf die Margen im gamingbereich von nv, dann kann man das durchaus so sagen.
In dem sich das generationeninterne plv seit Fermi um was 50-70% (?) verringert hat. Das stützt genau seine These. Zu behaupten das Anziehen der Preise der toppeodukte hätte keine Auswirkungen auf mid-range und low-end gehabt zeugt von ziemlich verzerrte Wahrnehmung.
Und du ignorierst die zunehmenden Entwicklungs-und Herstellungskosten.
Neurosphere
2020-08-19, 21:08:47
Wer bist du denn, dass du einschätzen kannst, dass eine 8nm Fertigung "billig" ist?
Arbeitest du bei Samsung, in der Industrie, oder woher bekommst du diese Daten?
Wenn man sich den Jahresbericht und die Progrssion über die letzten Jahre ansieht, mit Blick auf die Margen im gamingbereich von nv, dann kann man das durchaus so sagen.
Das der 8nm bei Samsung so günstig sein soll entstammt den ersten Preisgerüchten:
·
12. Aug.
I call False
Same Prices as Turing IMO
3090/80ti 999$
3080 699$
3070 499$
3060 399$-349$
3050ti 199$
3050 149$
remember its 8nm samsung = cheap AF
Allerdings hat er mit seiner Preiseinschätzung nach bisherigem Stand ziemlich daneben gelegen.
BlacKi
2020-08-19, 21:12:26
In dem sich das generationeninterne plv seit Fermi um was 50-70% (?) verringert hat.
es hat sich im vergleich zur konkurenz nicht stark verändert.
Zergra
2020-08-19, 21:14:06
Das der 8nm bei Samsung so günstig sein soll entstammt den ersten Preisgerüchten:
Ein Grund muss es ja geben das NV zu Samsung gegangen ist. Definitiv nicht wegen der Kapazität, besser ist die Fertigung auch nicht. Daher muss der Preis schon besser sein.
Sunrise
2020-08-19, 21:48:13
Ein Grund muss es ja geben das NV zu Samsung gegangen ist. Definitiv nicht wegen der Kapazität, besser ist die Fertigung auch nicht. Daher muss der Preis schon besser sein.
Der Preis muss klar besser sein, zudem Samsung soll sehr aggressiv nach Kundenaufträgen ringen, sie wollen ja TSMC überholen (...)
NV muss sich bei Samsung auch keine Sorgen machen, was Kapazität angeht, während bei TSMC zuviele Kunden die Produktionslinien gebucht haben.
Screemer
2020-08-19, 21:53:30
Und du ignorierst die zunehmenden Entwicklungs-und Herstellungskosten.
Dann dürften die Margen nicht wachsen. Es geht mir rein um den Überschuss. Der steigt seit Jahren massiv und zwar nicht proportional zum höheren Geschäftsaufkommen.
es hat sich im vergleich zur konkurenz nicht stark verändert.
Strohmann. Nur weil "die anderen" opportunisitsch nachziehen heißt das nicht, dass seine These falsch ist.
BlacKi
2020-08-19, 22:05:18
Strohmann. Nur weil "die anderen" opportunisitsch nachziehen heißt das nicht, dass seine These falsch ist.
tatsache ist, das die HW teurer wird. da spielt vieles mit rein. aber noch tatsacher:freak: ist, das alles über der 2070s überteuert ist. das war mit der 980ti 1080ti, ja im prinzip mit kepler ebenfalls noch nicht so.
basix
2020-08-19, 22:26:19
tatsache ist, das die HW teurer wird. da spielt vieles mit rein. aber noch tatsacher:freak: ist, das alles über der 2070s überteuert ist. das war mit der 980ti 1080ti, ja im prinzip mit kepler ebenfalls noch nicht so.
Naja, die 680 war in meinen Augen überteuert. Nur 2GB (die Konkurrenz hatte 3GB) und ein Midrange Chip. Die 980 Ti und 1080 Ti fand ich zwar teuer aber vom P/L her noch OK. Vor allem hat sich die 1080 Ti seit dem Release vor 3.5(!) Jahren extrem gut gehalten. Die 1080 non-Ti fand ich wiederum unattraktiv und grenzwertig vom Preis her.
Turing hat dann ab der 2080 den Vogel abgeschossen, die 2070 war OK.
Leonidas
2020-08-20, 04:28:03
Allerdings hat er mit seiner Preiseinschätzung nach bisherigem Stand ziemlich daneben gelegen.
... deswegen gebe ich besser keine mehr ab. Liege auch meistens daneben. Am Ende fest oftmals eine entscheidende Infos, die das ganze logisch erklärt - und ohne dieses Detail kann man kein logisch aufgebautes Preisschema hinbekommen, was dann auch noch stimmt.
rentex
2020-08-20, 05:51:41
Moin und hier ein wenig Morgenlektüre:
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
dargo
2020-08-20, 06:51:38
Ich rieche hier einen zweiten Fermi.
MiamiNice
2020-08-20, 07:14:27
Klingt jedenfalls brachial. I like.
mironicus
2020-08-20, 07:28:31
vGybS2OELw8
Linmoum
2020-08-20, 08:37:45
Klingt jedenfalls brachial. I like.Wird ein Tampereturenmonster. :cool:
Wasser ist's egal, aber die restlichen 95% mit Luftkühlung werden schön kotzen. Die AiB ja scheinbar auch, aber wen wundert's. Wenn man das zähmen will, braucht's fette Kühler. Fette Kühler sind teuer und low-cost wird man in dem Bereich sofort merken.
Kann man aber nur hoffen, dass es zumindest NV selbst besser hinkriegt und sich nicht wieder dasselbe Problem mit dem Speicher zeigt, wie schon bei der 2080Ti und die deswegen abschmieren.
MiamiNice
2020-08-20, 08:42:31
Ob wir wohl Sandwich Wasserblöcke sehen die den Ram direkt mitkühlen?
Zergra
2020-08-20, 09:06:50
Ob wir wohl Sandwich Wasserblöcke sehen die den Ram direkt mitkühlen?
Gute Frage, irgendwas muss es da ja geben. Der Mora wartet schon :biggrin:
Ggf. wären die einseitigen Versionen besser zu Kühlen.
sChRaNzA
2020-08-20, 09:09:06
Könnte es bei der FE, und ihrem Kühlkörper, da nicht zu Platzproblemen, je nach verbautem CPU-Kühler, kommen oder habe ich da einen Denkfehler?
Adam D.
2020-08-20, 09:37:30
Könnte es bei der FE, und ihrem Kühlkörper, da nicht zu Platzproblemen, je nach verbautem CPU-Kühler, kommen oder habe ich da einen Denkfehler?
Naja, bei mir ist zwischen üppigem Luftkühler und PCB-Rückseite immer noch ordentlich Platz, da müssten die ja schon mächtig hoch bauen, damit das zu Problemen führt.
Zergra
2020-08-20, 09:39:13
Kommt halt sehr auf die Mainboard und Kühler Kombination an. Je nachdem könnte es schon Probleme geben. Bei neueren Board sitzt der ersten PCIe 16 Slot aber oft etwas tiefer.
BlacKi
2020-08-20, 09:48:07
Ob wir wohl Sandwich Wasserblöcke sehen die den Ram direkt mitkühlen?
gabs schon, aber nur per heatpipe von der backplate auf die vorderseite.
Thunderburne
2020-08-20, 09:48:49
https://videocardz.com/newz/nvidia-geforce-rtx-3090-3080-pg133a-board-gets-rra-certification
WedgeAntilles
2020-08-20, 09:52:05
Diese (vermutlichen) Hitzeprobleme - wird das am ehesten ein Problem der Spitzenmodelle 3080 / 3090 sein?
Oder wird das auch die Mittelklasse 3060/3070 betreffen?
(Falls man da überhaupt eine Prognose wagen kann)
Zergra
2020-08-20, 09:53:34
Liegt halt an der doppelten Speicherbestückung die das verstärkt. Das dürften die kleineren Modelle ja nicht haben.
WedgeAntilles
2020-08-20, 09:57:03
Danke!
Ggf. die 3070TI mit 16 GB (so es diese Variante denn gibt, sicher ist da ja noch nichts.)
rentex
2020-08-20, 10:02:53
Könnte es bei der FE, und ihrem Kühlkörper, da nicht zu Platzproblemen, je nach verbautem CPU-Kühler, kommen oder habe ich da einen Denkfehler?
Diese Frage kam mir ebenfalls schon...
Dural
2020-08-20, 10:14:28
Wie so sollte es?
Der Lüfter oben ist ja mehr in der Region der Speicher Slots, und laut ATX wird die warme Luft hinten durch einen Lüfter (Netzteil) raus geblasen.
Ich finde den Kühler richtig genial durchdacht.
Igor redet von 60W off-Chip-Verlustleistung, die wohl das Problem ist und die NV veranlasst hat, sehr teure Vaporchambers für die Founders-Edition einzukaufen. Die Doppelbestückung verstärkt das Problem etwas, wird aber ja auch separat gekühlt.
Die Hersteller tappen übrigens lt. Igor noch im Dunkeln, was nichts gutes für die Verfügbarkeit bedeutet, da die ja nicht mal angefangen haben zu produzieren. Igor sagt zwar 2. Septemberhälfte gibts Produkte, aber mit den Schwierigkeiten wird sich das mMn auf Oktober verzögern. Die FEs bekommt man eben im September irgendwann (recht überteuert aufgrund des bescheuerten Konzeptes), die Customs mMn aber nicht. Das wird am 1. ein absoluter Paperlaunch mMn. Viellicht passiert auch gar nix und er stellt die Serie nur vor.
Troyan
2020-08-20, 10:23:12
Richtig, die tappen alle soweit im Dunkeln, dass die Putzfrau bei Colorful einfach mal so über eine Platine einer Gaming-Ampere Karte gestolpert ist.
Lmao. Echt. Wir haben Fotos gesehen. Die AIBs haben alle schon Ahnung, was auf sie zu kommt.
Adam D.
2020-08-20, 10:29:41
Lmao. Echt. Wir haben Fotos gesehen. Die AIBs haben alle schon Ahnung, was auf sie zu kommt.
Du bist einfach völlig unfähig, einmal was nuanciertes zu schreiben - das ist echt unglaublich.
Natürlich haben sie Ahnung, was auf sie zukommt. Es hat niemand was anderes behauptet. Dass es zwei Wochen vor Vorstellung aber noch kein einigermaßen finales BIOS zu geben scheint und auch die finalen Taktraten noch nicht stehen, ist doch trotzdem erstmal wichtig, festzuhalten.
Die FE's werden schon irgendwann relativ zügig nach der Vorstellung kaufbar sein (teuer und in kleinen Mengen vielleicht). Wenn die Boardpartner erst im Oktober liefern, juckt das doch keinen. AMD kommt eh allem Anschein nach erst im November/Dezember.
Linmoum
2020-08-20, 10:30:04
Fotos oder Platinen offenbaren dir nicht die Performance und ohne BIOS kannste Karten auch schlecht ausliefern. Bis die Karten dann in der ganzen Welt landen, vergehen dann auch mehr als nur ein paar Tage.
BlacKi
2020-08-20, 10:30:24
Diese Frage kam mir ebenfalls schon...
zwischen meinem d15 und der backplate der gpu sinds bei mir 15mm. eine dickere backplate geht vielleicht, mit flacher heatpipe, naja, das wars dann auch schon.
Dass es zwei Wochen vor Vorstellung aber noch kein einigermaßen finales BIOS zu geben scheint und auch die finalen Taktraten noch nicht stehen, ist doch trotzdem erstmal wichtig, festzuhalten.
es ist wohl nur der vram das problem, dafür brauchts kein bios.
robbitop
2020-08-20, 10:33:03
Die Nachfolge-Architektur Hopper wurde schon eigentlich schon immer als Multi-Chip-Design gehandelt.
Darauf sollte man nicht viel geben. MCM gibt es seit mindestens 1 Jahrzehnt immer wieder als Gerücht.
Für Compute und für CPUs ist das relativ einfach, weil viel weniger Interdependenz und weniger Anforderungen an die Bandbreite.
Für 3D Grafik damit MCM transparant zur Anwendung funktioniert sind die Anforderungen ziemlich hoch in Bezug auf Bandbreite.
Das ist keinesfalls unmöglich - jedoch kosten Signale pro Bit wesentlich mehr Energie, wenn sie den Chip verlassen müssen. Datentransfers machen in modernen GPUs bereits ohne Verlassen des Chips den Löwenanteil der Leistungsaufnahme aus.
Dazu kommt, dass man entsprechend dann auf jedem Chip zusätzliche sehr breite Interfaces inkl. der PHYs und sersdes beherbergen muss. Das erhöht die Gesamtchipfläche nochmal stark.
Mit 3D Stacking wäre das sicherlich weniger problematisch - aber dann bekommt man ein thermisches Problem.
All diese Hindernisse müssen so deutlich überkommen werden, dass die Gesamtvorteile die o.g. Nachteile überwiegen. Diese Probleme gibt es für MCM bei Compute Chips und CPUs eben kaum. Deshalb gibt es das ja bereits. Und das wirkt auf viele so als wenn das bei 3D GPUs auch schon um die Ecke ist. Und ja es gibt Forschung und Patente dazu.
IMO sollte man da noch sehr skeptisch bleiben.
Troyan
2020-08-20, 10:34:21
Du bist einfach völlig unfähig, einmal was nuanciertes zu schreiben - das ist echt unglaublich.
Natürlich haben sie Ahnung, was auf sie zukommt. Es hat niemand was anderes behauptet. Dass es zwei Wochen vor Vorstellung aber noch kein einigermaßen finales BIOS zu geben scheint und auch die finalen Taktraten noch nicht stehen, ist doch trotzdem erstmal wichtig, festzuhalten.
Die FE's werden schon irgendwann relativ zügig nach der Vorstellung kaufbar sein (teuer und in kleinen Mengen vielleicht). Wenn die Boardpartner erst im Oktober liefern, juckt das doch keinen. AMD kommt eh allem Anschein nach erst im November/Dezember.
Woher sollen AIBs wissen, wie Sie Karten produzieren sollen, wenn nVidia denen nicht die Spezifikationen gegeben hat. Bios hat Null Auswirkung auf die. Die produzieren nicht erst Karten, wenn die das Bios erhalten.
Linmoum
2020-08-20, 10:35:01
es ist wohl nur der vram das problem, dafür brauchts kein bios.Schau dir Igors Video an, die Boardpartner haben von Nvidia noch kein BIOS bekommen. Darum geht es. Das ist ein Problem, wenn du Karten losschiffen willst. Ohne geht's nicht und je später sie es bekommen, desto länger dauert es, bis die Karten in den Handel kommen.
Adam D.
2020-08-20, 10:39:34
Woher sollen AIBs wissen, wie Sie Karten produzieren sollen, wenn nVidia denen nicht die Spezifikationen gegeben hat. Bios hat Null Auswirkung auf die. Die produzieren nicht erst Karten, wenn die das Bios erhalten.
Es geht ja auch nicht um Monate, sondern um Wochen. Das finale BIOS muss ja auch noch getestet werden, dann gehen die Karten raus, das dauert schon etwas.
Wenn Igor zudem diskutiert, dass die AIBs noch fleißig am Kühldesign werkeln, dann kann das ja auch heißen, dass nicht alle sofort was am Start haben. Obwohl das wohl nur die 3090 (und evtl. die 3080 20GB) betreffen dürfte.
Daredevil
2020-08-20, 10:44:57
Mal völlig unabhängig davon, wie es am Ende wird.
Ich finde es schlicht lächerlich, dass Nvidia/AIBs/Kunden sich mit 24 Speicherbausteinen auf einer winzigen Platine rumärgern müssen und komplizierte Kühlungen erfordert, anstatt einfach die Speicherausstattung der VII z.B. zu kopieren oder halt gänzlich auf HBM2 zu setzen, wenn man eh schon einen Premium Preis verlangen möchte.
GDDR6X hat für mich direkt diese "Wir müssen 50$ sparen, deswegen verbauen wir massenweise scheiße" Mentalität, die ich überhaupt nicht mag. Da wird dann eine "alte" Technik hochgezüchtet und alles wird zugepflastert mit Speicher, anstatt einfach mal "modern" zu werden in der Hinsicht.
Das macht die Bude gerade sehr umsymphatisch. 24 Speicherbausteine bedeutet halt eben auch eine viel größere Wahrscheinlichkeit, dass der Speicher mal defekt sein könnte, da hat Nvidia ja schon mit der 2080ti bewiesen, dass man nicht an jeder Stelle sparen sollte.
Kann GDDR6/X denn eigentlich irgendwas besser, außer günstiger zu sein? So wenn man Vor- und Nachteile auf eine Waage liegt?
dargo
2020-08-20, 10:50:48
Kann GDDR6/X denn eigentlich irgendwas besser, außer günstiger zu sein?
Nein.
WedgeAntilles
2020-08-20, 10:53:04
GDDR6X hat für mich direkt diese "Wir müssen 50$ sparen, deswegen verbauen massenweise wir scheiße" Mentalität, die ich überhaupt nicht mag.
Sehr guter und wichtiger Punkt.
Mercedes hatte ja auch die Gier immer mehr zu sparen - und hatte dann große Qualitätsprobleme.
Was zu ner Premiummarke halt so gar nicht passt.
Über kurz oder lang merken die Kunden das aber und dauerhaft ist man so nicht erfolgreich.
Natürlich versuchen Hersteller bei der Produktion zu sparen. Ist ja grundsätzlich auch sinnvoll.
Aber gerade im Premiumbereich - mit den entsprechenden Verkaufspreisen - kann das auch zu großen Problemen führen wenn die Einsparungen zu schlechterer Qualität (seien es Ausfälle, größere Hitze oder sonst was) führen.
Solange man alleine am Markt ist, ist das nicht ganz so tragisch.
Wenn dann aber die Konkurrenz aufholt verliert man ganz schnell eine ganze Menge Kunden, die jahrelang bei einem waren weil es halt keine Alternative gab.
Ob man bei Verkaufspreisen von über 1000 Euro jetzt wirklich krampfhaft versuchen muss in der Fertigung 50 Euro einzusparen? Bezweifle ich.
Es deutet schon manches darauf hin, dass sich Nvidia bei Ampere teilweise verkalkuliert hat und die Gier noch mal 50 Euro mehr Marge zu bekommen eine sehr unglückliche Entscheidung war.
MiamiNice
2020-08-20, 11:05:18
Deswegen baut AMD jetzt wieder von HBM auf GDDR um?
BlacKi
2020-08-20, 11:08:07
Kann GDDR6/X denn eigentlich irgendwas besser, außer günstiger zu sein? So wenn man Vor- und Nachteile auf eine Waage liegt?
das ist sicherlich nichtmal mehr der finanzielle vorteil. wenn du 50$ am ram sparst und 50$ am kühler raushaust, hast du nichts gewonnen.
ich glaube da steckt mehr dahinter. ich würde sagen es ist die verfügbarkeit in massen. weil sonst wieder jemand meint ich würde dinge behaupten ich nicht weiß, obwohl man das klar aus dem kontext ableiten kann - ich weiß es nicht, aber es ist mein bester rateversuch.
Schau dir Igors Video an, die Boardpartner haben von Nvidia noch kein BIOS bekommen. Darum geht es. Das ist ein Problem, wenn du Karten losschiffen willst. Ohne geht's nicht und je später sie es bekommen, desto länger dauert es, bis die Karten in den Handel kommen.
natürlich hab ich das video gesehen, du scheinbar nicht. natürlich haben die biose. nur das finale fehlt. https://youtu.be/vGybS2OELw8?t=799 igor hat gesagt, es gibt hersteller die das hitzeproblem gelöst haben https://youtu.be/vGybS2OELw8?t=559 woher sollen die performance leaks denn sonst herkommen. d.h. es wird direkt zu start wohl auch direkt karten mit custom kühler geben.
Grendizer
2020-08-20, 11:18:10
Evtl. waren der Stromverbrauch von Micron im Vorfeld auch optimistischer geschäzt, als das was man erreichen konnte ? Oder meint ihr das GDDR6X schon direkt bei der Planung von nVidia verfügbar war mit allen Specs ? Ich befürchte, das der ursprüngliche Plan deutlich weniger Verbrauch vorsah... und jetzt muss man auch noch die doppelte Menge kühlen.
mironicus
2020-08-20, 11:19:12
Deswegen baut AMD jetzt wieder von HBM auf GDDR um?
Mit einem 512 Bit Speicherinterface brauchst du keinen übertakteten, heißen und stromfressenden GDDR6X-Speicher. Für 384 Bit aber schon wenn du über 1 TB Speicherdurchsatz haben willst.
Daredevil
2020-08-20, 11:29:02
Eine Doppelbestückung ist für Nvidia ja jetzt auch nichts neues. Ne Quadro 8000 hat 48GB GDDR6 Speicher und da werden 24GB auf der Rückseite passiv gekühlt.
Und mit dem sind sie auch sehr erfolgreich, wie man an den aktuellen Zahlen sieht.
Vielleicht ist ja GDDR6X auch die bessere Wahl schlussendlich, weil die damit massiv an Kohle verdienen bzw. Karten günstiger gestalten. Ich würde mir für "die beste" Karte allerdings immer noch HBM2 wünschen und jede Karte ohne HBM ist für mich automatisch eine Abwertung und lässt für mich das "Premium" vor Nvidia stark verblassen.
LasterCluster
2020-08-20, 11:35:34
Ich finde es schlicht lächerlich, dass Nvidia/AIBs/Kunden sich mit 24 Speicherbausteinen auf einer winzigen Platine rumärgern müssen und komplizierte Kühlungen erfordert, anstatt einfach die Speicherausstattung der VII z.B. zu kopieren oder halt gänzlich auf HBM2 zu setzen, wenn man eh schon einen Premium Preis verlangen möchte.
MMn ist das Gerücht absolut glaubwürdig, dass Nvidia ursprünglich in 7nm produzieren wollte. Dann wäre auch mit GDDR6X die TBP im Rahmen geblieben.
Adam D.
2020-08-20, 11:47:28
MMn ist das Gerücht absolut glaubwürdig, dass Nvidia ursprünglich in 7nm produzieren wollte. Dann wäre auch mit GDDR6X die TBP im Rahmen geblieben.
Das hätte aber wohl nicht maßgeblichen Einfluss auf den heißen Speicher gehabt, oder meinst du, dass NV in 7nm einen 512Bit-Bus verbauen wollte? Die von Igor spekulierten 230W für die GPU sind ja nicht mal so ein großes Problem.
Mal völlig unabhängig davon, wie es am Ende wird.
Ich finde es schlicht lächerlich, dass Nvidia/AIBs/Kunden sich mit 24 Speicherbausteinen auf einer winzigen Platine rumärgern müssen und komplizierte Kühlungen erfordert, anstatt einfach die Speicherausstattung der VII z.B. zu kopieren oder halt gänzlich auf HBM2 zu setzen, wenn man eh schon einen Premium Preis verlangen möchte.
GDDR6X hat für mich direkt diese "Wir müssen 50$ sparen, deswegen verbauen wir massenweise scheiße" Mentalität, die ich überhaupt nicht mag. Da wird dann eine "alte" Technik hochgezüchtet und alles wird zugepflastert mit Speicher, anstatt einfach mal "modern" zu werden in der Hinsicht.
Das macht die Bude gerade sehr umsymphatisch. 24 Speicherbausteine bedeutet halt eben auch eine viel größere Wahrscheinlichkeit, dass der Speicher mal defekt sein könnte, da hat Nvidia ja schon mit der 2080ti bewiesen, dass man nicht an jeder Stelle sparen sollte.
Kann GDDR6/X denn eigentlich irgendwas besser, außer günstiger zu sein? So wenn man Vor- und Nachteile auf eine Waage liegt?
Das kann man wohl so 1:1 unterschreiben.
Deswegen baut AMD jetzt wieder von HBM auf GDDR um?
Das wird auf den Preisbereich ankommen. Aber auch AMD wird die 50€ gerne sparen.
Mit einem 512 Bit Speicherinterface brauchst du keinen übertakteten, heißen und stromfressenden GDDR6X-Speicher. Für 384 Bit aber schon wenn du über 1 TB Speicherdurchsatz haben willst.
Und noch ein viel wichtigerer Punkt: Du brauchst keine Doppelbestückung! Du kannst 32GB mit Einfachbestückung problemlos erreichen. Micron scheint ja bei GDDR6X auch ordentlich hinterher zu hinken: Zu hoher Stromverbrauch, keine 2GB-Chips... und das wälzt NV jetzt mal wieder auf die Platinenhersteller ab. Das wird sich mMn diesmal aber mit massiven Verzögerungen rächen.
Das hätte aber wohl nicht maßgeblichen Einfluss auf den heißen Speicher gehabt, oder meinst du, dass NV in 7nm einen 512Bit-Bus verbauen wollte? Die von Igor spekulierten 230W für die GPU sind ja nicht mal so ein großes Problem.
Das ist sehr spekulativ. Ich würde eher darauf tippen, dass NV die Kosten von N7 einfach gescheut hat und deshalb zur Konkurrenz gegangen ist. Die hat aber eben nur 8LPP als letzten DUV-Prozess. Und ich denke schon, dass NV+ Micron GDDR6X zusammen ausgetüftelt haben als Vorläufer von GDDR7 aber mit GDDR6-Technik. Die haben sich das bestimmt eher so wie bei 5X vorgestellt, da sich dort die Verbrauch stark in Grenzen hielt. Das ist diesmal einfach in die Hose gegangen und da beide Liefern müssen, haben sie den Salat. NV wurstet das wie gesagt jetzt auf die Boardpartner ab.
Fragman
2020-08-20, 11:59:12
Bevor man hier steil geht, sollte man abwarten was nv liefern wird.
Hier wird der Verbrecher gehängt, bevor er eine Tat begeht. Schon recht grenzwertig die Diskussion.
Thunder99
2020-08-20, 12:01:05
Preisdiskussion ist ja deshalb da, weil es viele interessiert und bewegt.
Macht etwa der hochgetaktete RAM Probleme?
LasterCluster
2020-08-20, 12:03:04
Das hätte aber wohl nicht maßgeblichen Einfluss auf den heißen Speicher gehabt, oder meinst du, dass NV in 7nm einen 512Bit-Bus verbauen wollte? Die von Igor spekulierten 230W für die GPU sind ja nicht mal so ein großes Problem.
Auch wenn die 230W alleine machbar sind, macht das die Gesamtkühlung doch anspruchsvoller als sagen wir mal 180W.
Geächteter
2020-08-20, 12:08:05
Da kann man wohl auch von neuen ungeahnten Höhen bei der RMA-Rate ausgehen.
BlacKi
2020-08-20, 12:09:28
Das hätte aber wohl nicht maßgeblichen Einfluss auf den heißen Speicher gehabt, oder meinst du, dass NV in 7nm einen 512Bit-Bus verbauen wollte? Die von Igor spekulierten 230W für die GPU sind ja nicht mal so ein großes Problem.
ich wollte dasselbe schreiben, aber er hat sich garnicht direkt auf die temperaturen bezogen. aber selbst wenn, ganz von der hand zu weißen ist das nicht. warum? weil wie iggy schon meinte,die vram nun von beiden seiten gebraten werden.
die 10/12gb varianten werden einfacher zu kühlen sein, das ist einfach fakt. und wenn 7nm 30w sparen würde, würden die recht nahen vram blöcke auch weniger heiß werden. so könnte man die 3080/3090 bei gleicher performance auf 225/250w drücken. wie vor vielen monaten wohl geplant.
Troyan
2020-08-20, 12:12:19
Bevor man hier steil geht, sollte man abwarten was nv liefern wird.
Hier wird der Verbrecher gehängt, bevor er eine Tat begeht. Schon recht grenzwertig die Diskussion.
Da sind wir schon weit genug entfernt. Hier wird nur noch selbst ausgedachter Unsinn geschrieben.
Lustig ist, dass die selben Leute behaupten, AMD würde nicht bei 400W+ und mehr liegen, da die auf dem selben Prozess mit der selben Architektur die Effizienz einfach mal so verdoppeln. Komplett irre.
Linmoum
2020-08-20, 12:17:26
Da sind wir schon weit genug entfernt. Hier wird nur noch selbst ausgedachter Unsinn geschrieben.Dafür, dass Igor Fantasien verbreitet, hätte ich gerne einen Beleg deinerseits.
Davon ab, hier Leuten in einem Spekulationsforum vorzuwerfen, sie würden sich womöglich Dinge zusammenreimen auf Grundlage von bestehenden Gerüchten... Mein Gott, man kann es auch mal einfach nur nicht übertreiben.
Lustig ist, dass die selben Leute behaupten, AMD würde nicht bei 400W+ und mehr liegen, da die auf dem selben Prozess mit der selben Architektur die Effizienz einfach mal so verdoppeln. Komplett irre.Komplett irre ist hier was ganz anderes. Zudem geht es hier um Nvidia und nicht AMD.
Aber ja, hohe Effizienzsprünge innerhalb desselben Prozesses sind natürlich ausgeschlossen. Wie bei Kepler zu Maxwell. Oh, ups...
Zossel
2020-08-20, 12:19:20
Nein.
Hier steht was:
09:39PM EDT - Q: With 20 channels GDDR6, is that really cheaper than 2 stacks HBM? A: We're not religious about which DRAM tech to use. We needed the GPU to have a ton of bandwidth. Lots of channels allows for low latency requests to be serviced. HBM did have an MLC model thought about, but people voted with their feet and JEDEC decided not to go with it.
https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-pt
Lawmachine79
2020-08-20, 12:19:58
Mit einem 512 Bit Speicherinterface brauchst du keinen übertakteten, heißen und stromfressenden GDDR6X-Speicher.
Aber ein Flugzeugträgerdeck als PCB.
Thunderburne
2020-08-20, 12:24:33
Aber ein Flugzeugträgerdeck als PCB.
Wo ist da das Problem?
Akkarin
2020-08-20, 12:24:36
Wieso ist GGDR6X eigentlich so Stromfressend, mit PAM4 entspricht 20gbps doch "nur" 10gbps welche nach draußen geleited werden müssen. Oder gehts hier um Ram-interne Frequenzen die das ganze so heiß machen ?
Ob wir wohl Sandwich Wasserblöcke sehen die den Ram direkt mitkühlen?
Das ist bei wakü nicht notwendig, weil genug wärme über die platine abgeführt wird. Da wird der Speicher auf der Rückseite keine 50 grad warm.
weihnachtskatze
2020-08-20, 12:32:16
Gut, dass der Sommer fast vorbei ist. Für Winter wird das Teil wohl genau richtig sein.
MiamiNice
2020-08-20, 12:52:38
Das ist bei wakü nicht notwendig, weil genug wärme über die platine abgeführt wird. Da wird der Speicher auf der Rückseite keine 50 grad warm.
Meinst also es kommt eine normale Backplate, wie gehabt. Schade eigentlich.
Wo ist da das Problem?
Deine GPU muss immer kurz aussetzen wenn ein Flugzeug landet :freak:
Gut, dass der Sommer fast vorbei ist. Für Winter wird das Teil wohl genau richtig sein.
Ketzer :tongue:
ChaosTM
2020-08-20, 12:57:31
Wievie das Ding verbraucht ist mir eher egal. (100% Ökostrom ;) ) Aber ich will es NICHT oder nur minimal aus meinem System herauhören unter Last.
dreamweaver
2020-08-20, 13:43:32
Wievie das Ding verbraucht ist mir eher egal. (100% Ökostrom ;) ) Aber ich will es NICHT oder nur minimal aus meinem System herauhören unter Last.
Geht mir auch so.
Aber wenn das wirklich alle solche Krachbolzen werden, bleibt dann wohl nur schnell noch ne 2080 super mit den gute Lüftern abzugreifen. Oder alternativ diesmal nur ne 70er. Aber 2080 super vs 3070 ?
ChaosTM
2020-08-20, 13:44:03
vGybS2OELw8
Das könnte laut werden bzw. teuer
BlacKi
2020-08-20, 13:55:58
auf der nächsten seite poste ich es dann nochmal^^
Gipsel
2020-08-20, 14:02:31
Hier steht was:
09:39PM EDT - Q: With 20 channels GDDR6, is that really cheaper than 2 stacks HBM? A: We're not religious about which DRAM tech to use. We needed the GPU to have a ton of bandwidth. Lots of channels allows for low latency requests to be serviced. HBM did have an MLC model thought about, but people voted with their feet and JEDEC decided not to go with it.
https://www.anandtech.com/show/15994/hot-chips-2020-live-blog-microsoft-xbox-series-x-system-architecture-600pm-ptWobei das Gefettete als Argument gegen HBM wenig taugt. Das nimmt sich da nicht viel mit GDDR6.
Jeder HBM-Stack wird bekannterweise über acht jeweils 128bit breite unabhängige Kanäle (bzw. dann 16x 64Bit pseudo channels optional ab HBM2) angebunden, was dann bei zwei Stacks bis zu 16 (32 pseudo) Kanäle ermöglicht.
Das 320Bit GDDR6-Interface der XBSX bindet jeden Chip mit 32 Bit an, die nochmal in jeweils zwei 16bit breite Kanäle unterteilt sind (daher kommen die 20 Kanäle in der Frage). Ich sehe da in dem Vergleich keinen wirklichen Vorteil bei der Anzahl der Kanäle auf Seiten von GDDR6 (insbesondere bei Nutzung des pseudo channel Features von HBM2).
Dural
2020-08-20, 14:13:16
GDDR6 ist einfach schlicht billiger und deutlich variabler.
Meiner Meinung nach ist HBM im Gaming Bereich schon Geschichte.
Daredevil
2020-08-20, 14:19:59
Meiner Meinung nach ist HBM im Gaming Bereich schon Geschichte.
Richtig. Grafikkarten werden aber nicht nur im Gaming Bereich genutzt
rpEplnyOi-4
Aber vielleicht ist das ja auch alles Zeug, was in Zukunft einfach in die Cloud fliegt. :<
Wundert mich jetzt ehrlich gesagt schon, das ne Titan V mit HBM daherkam und die Quadros "nur" mit GDDR6, aber da macht die Masse wohl viel aus.
ChaosTM
2020-08-20, 14:21:34
So "variabel" dass man es kaum noch kühlen kann. Das ist die Kehrseite, wenn man Sachen außerhalb der Specs betreibt. Wenn Igor denn recht hat..
Hauwech
2020-08-20, 14:23:24
Meinst also es kommt eine normale Backplate, wie gehabt. Schade eigentlich.
Man muss aber auch dazu sagen das viele Backplates rein für die Optik sind und zur Kühlung nix beitragen. Ich denke, eine vernünftig gestaltete Backplate die mindestens den Speicher mitkühlt und ein bisschen Luftzug durch die Frontlüfter bekommt, sollte problemlos machbar sein.
Daredevil
2020-08-20, 14:24:00
Im besten Falle behält Nvidia alles so, wie es ist, weil Speicher Temps kann man sich ja nur bei AMD anschauen.
AMD Forum: "Omg hotspot Temp 112°C, Memory 87°C, VRM 89°C!!!!!"
Nvidia Forum: "GPU Temp 75°C"
Wer macht sich wohl mehr Gedanken am Ende. :D
Zergra
2020-08-20, 14:27:38
Das Problem war aber bei AMD eher bei günstigen Karten, bei teuren Karten hat man einfach mehr Geld für ein Kühler.
Das wird dann Problematisch wenn man versucht Vega billig zu verkaufen. Die besseren Designs hatten die Probleme nicht.
Lawmachine79
2020-08-20, 14:46:46
Wo ist da das Problem?
Mein Fehler...
Lehdro
2020-08-20, 14:47:44
Ich rieche hier einen zweiten Fermi.
Das wäre doch für alle das Beste:
+50% mehr VRAM als die Konkurrenz
+30% mehr Leistung als die Konkurrenz
+25% OC Potenzial
+ Memepotenzial
- kostet 35% mehr als die Konkurrenz
- ein bisschen säuferisch veranlagt
- hitzig
- lauter Stockkühler
Sieht auf jeden Fall besser aus als das was sonst so rumspekuliert wird, weiß jetzt nicht wo das Problem wäre, falls es denn wirklich so kommt :freak:
MiamiNice
2020-08-20, 14:49:30
Sieht auf jeden Fall besser aus als das was sonst so rumspekuliert wird, weiß jetzt nicht wo das Problem wäre, falls es denn wirklich so kommt :freak:
Ist nicht in der Farbe der Liebe :wink:
Zergra
2020-08-20, 14:54:22
Das wäre doch für alle das Beste:
+50% mehr VRAM als die Konkurrenz
+30% mehr Leistung als die Konkurrenz
+25% OC Potenzial
+ Memepotenzial
- kostet 35% mehr als die Konkurrenz
- ein bisschen säuferisch veranlagt
- hitzig
- lauter Stockkühler
Sieht auf jeden Fall besser aus als das was sonst so rumspekuliert wird, weiß jetzt nicht wo das Problem wäre, falls es denn wirklich so kommt :freak:
Das könnte diesmal genau so werden. Alleine mit dem RAM sind wir auf einem guten Weg.
rentex
2020-08-20, 14:59:51
Sehr guter und wichtiger Punkt.
Mercedes hatte ja auch die Gier immer mehr zu sparen - und hatte dann große Qualitätsprobleme.
Was zu ner Premiummarke halt so gar nicht passt.
Über kurz oder lang merken die Kunden das aber und dauerhaft ist man so nicht erfolgreich.
Natürlich versuchen Hersteller bei der Produktion zu sparen. Ist ja grundsätzlich auch sinnvoll.
Aber gerade im Premiumbereich - mit den entsprechenden Verkaufspreisen - kann das auch zu großen Problemen führen wenn die Einsparungen zu schlechterer Qualität (seien es Ausfälle, größere Hitze oder sonst was) führen.
Solange man alleine am Markt ist, ist das nicht ganz so tragisch.
Wenn dann aber die Konkurrenz aufholt verliert man ganz schnell eine ganze Menge Kunden, die jahrelang bei einem waren weil es halt keine Alternative gab.
Ob man bei Verkaufspreisen von über 1000 Euro jetzt wirklich krampfhaft versuchen muss in der Fertigung 50 Euro einzusparen? Bezweifle ich.
Es deutet schon manches darauf hin, dass sich Nvidia bei Ampere teilweise verkalkuliert hat und die Gier noch mal 50 Euro mehr Marge zu bekommen eine sehr unglückliche Entscheidung war.
Gut möglich. Erst hat man es mit TSMC übertrieben und dann ein mögliches Temperatur Problem mit dem Spreicher...dann diese strikte Funkstille bei den Leaks...da kommt was zusammen.
sulak
2020-08-20, 15:01:34
Bei doppelter Chip Bestückung für den RAM reichen die 15% effizienter sein des GDDR6x wohl nicht aus, damit auch die kleineren Karten den bekommen?
Leider sind die PDFs von Micron ja offline...
Ein Bild is noch zu finden, wo bleibt HBM2E ^.^
https://www.io-tech.fi/wp-content/uploads/2020/08/micron-gddr6x-leak-20200814.jpg
Daredevil
2020-08-20, 15:04:00
Leider sind die PDFs von Micron ja offline...
Schau mal hier :)
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Ampere-Micron-bestaetigt-GDDR6X-fuer-Geforce-RTX-3090-1356213/galerie/3426713/
Nazar
2020-08-20, 15:04:57
Da sind wir schon weit genug entfernt. Hier wird nur noch selbst ausgedachter Unsinn geschrieben.
Lustig ist, dass die selben Leute behaupten, AMD würde nicht bei 400W+ und mehr liegen, da die auf dem selben Prozess mit der selben Architektur die Effizienz einfach mal so verdoppeln. Komplett irre.
Würdest du auch nur einmal versuchen deine Behauptungen irgendwie zu begründen!? :freak:
Und nein, die Spekulationen anderer, die sich die Mühe machen logische Schlüsse zu ziehen, als "irre" oder "dumm" hinzustellen, ist keine Argumentation, nicht mal im Kindergarten! :wink:
Dural
2020-08-20, 15:16:52
Das ist ja auch das Problem bei HBM, es wurde deutlich geringere Leistungsaufnahme versprochen die nie eingehalten wurde.
Die 3090 wird um die 1TF/s haben, bei 24GB. Denkt ihr eigentlich das ist für Free?!?
Seitenweise wird über mehr Speicher diskutiert, und wenn ihr es bekommt jammert ihr gleich wegen dem Verbrauch :freak: Muss man nicht ernst nehmen oder?
Linmoum
2020-08-20, 15:37:02
Das ist ja auch das Problem bei HBM, es wurde deutlich geringere Leistungsaufnahme versprochen die nie eingehalten wurde.Da bin ich ja mal auf deine Quelle(n) für gespannt.
Lehdro
2020-08-20, 15:38:53
Das ist ja auch das Problem bei HBM, es wurde deutlich geringere Leistungsaufnahme versprochen die nie eingehalten wurde.
NV selber hat es doch veranschaulicht:
https://www.3dcenter.org/dateien/abbildungen/nVidia-Looming-Memory-Power-Crisis.vorschau2.jpg
Das ganze ist zudem durchaus komplexer als von dir dargestellt. (https://www.3dcenter.org/news/nvidia-sieht-langfristig-stromverbrauchsprobleme-bei-hbm-speicher) Übrigens "lustig" das GDDR6X anscheinend jetzt genau dasselbe passiert was NV damals HBM prophezeit hat. :freak:
Seitenweise wird über mehr Speicher diskutiert, und wenn ihr es bekommt jammert ihr gleich wegen dem Verbrauch :freak: Muss man nicht ernst nehmen oder?
Ich habe dem ganzen aber folgendes entnommen: Der Speicher braucht angeblich so viel, weil er so hoch taktet. Nicht primär weil es so viel ist. Großer Unterschied.
Adam D.
2020-08-20, 15:39:56
Das ist ja auch das Problem bei HBM, es wurde deutlich geringere Leistungsaufnahme versprochen die nie eingehalten wurde.
Die 3090 wird um die 1TF/s haben, bei 24GB. Denkt ihr eigentlich das ist für Free?!?
Seitenweise wird über mehr Speicher diskutiert, und wenn ihr es bekommt jammert ihr gleich wegen dem Verbrauch :freak: Muss man nicht ernst nehmen oder?
Diese tendenziöse Polarisierung von Troyan und dir NERVT EXTREM. Hier jammert ABSOLUT NIEMAND. Es wird diskutiert und abgewogen, die einzigen, die jammern, seid ihr in Bezug auf eine Lesart der Diskussion hier, die bewusst immer auf bösartige Unterstellung setzt. Es wird überlegt, warum sich NV zu diesem Schritt entschlossen hat, was das für Auswirkungen auf Preis, Kühlung etc. hat. Den Rest dichtet ihr dazu.
Zergra
2020-08-20, 15:59:23
NV selber hat es doch veranschaulicht:
https://www.3dcenter.org/dateien/abbildungen/nVidia-Looming-Memory-Power-Crisis.vorschau2.jpg
Das ganze ist zudem durchaus komplexer als von dir dargestellt. (https://www.3dcenter.org/news/nvidia-sieht-langfristig-stromverbrauchsprobleme-bei-hbm-speicher) Übrigens "lustig" das GDDR6X anscheinend jetzt genau dasselbe passiert was NV damals HBM prophezeit hat. :freak:
Ich habe dem ganzen aber folgendes entnommen: Der Speicher braucht angeblich so viel, weil er so hoch taktet. Nicht primär weil es so viel ist. Großer Unterschied.
Die Kommentare zu der News sind interessant...:freak:
Lehdro
2020-08-20, 16:10:12
Die Kommentare zu der News sind interessant...:freak:
Ich schaue mir auch gerne mal 1-2 Jahre später noch die 3DC Newskommentare zu damals "kommenden" Technologien an. Ist immer wieder sehr erheiternd. Vor allem wie immer in beide Richtungen gekeift wurde und im Endeffekt alles und auch nichts eingetreten ist :cool:
Daredevil
2020-08-20, 16:32:43
Ich habe dem ganzen aber folgendes entnommen: Der Speicher braucht angeblich so viel, weil er so hoch taktet. Nicht primär weil es so viel ist. Großer Unterschied.
Profitipp: Underclocking. :D
Mache ich bei meiner VII/2080ti auch, wenn Bandbreite nicht ausgereizt werden kann.
Sweepi
2020-08-20, 16:51:03
NV selber hat es doch veranschaulicht:
https://www.3dcenter.org/dateien/abbildungen/nVidia-Looming-Memory-Power-Crisis.vorschau2.jpg
Das ganze ist zudem durchaus komplexer als von dir dargestellt. (https://www.3dcenter.org/news/nvidia-sieht-langfristig-stromverbrauchsprobleme-bei-hbm-speicher)
Der Performance / Watt Graph sieht wie folgt aus:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71177
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71178
Hat jemand Daten für GDDR6? Hab diese hier "abgelesen":
https://www.3dcenter.org/dateien/abbildungen/nVidia-Looming-Memory-Power-Crisis.jpg
dargo
2020-08-20, 17:22:16
Die 3090 wird um die 1TF/s haben, bei 24GB. Denkt ihr eigentlich das ist für Free?!?
Und was ist jetzt so besonders daran? Die Radeon VII hatte 1TB/s schon vor ~1,5 Jahren.
Das wäre doch für alle das Beste:
+50% mehr VRAM als die Konkurrenz
+30% mehr Leistung als die Konkurrenz
+25% OC Potenzial
+ Memepotenzial
- kostet 35% mehr als die Konkurrenz
- ein bisschen säuferisch veranlagt
- hitzig
- lauter Stockkühler
Sieht auf jeden Fall besser aus als das was sonst so rumspekuliert wird, weiß jetzt nicht wo das Problem wäre, falls es denn wirklich so kommt :freak:
Und deine Annahmen in Bezug der Konkurrenz rührt woher? Das einzig stichhaltige was ich bisher gesehen habe, war ein VR-Bench als eGPU, wo die Konkurrenz ne Ti um ~30% geplättet hat! Ansonsten weiß man nichts Bestimmtes.
Zergra
2020-08-20, 17:42:11
Und deine Annahmen in Bezug der Konkurrenz rührt woher? Das einzig stichhaltige was ich bisher gesehen habe, war ein VR-Bench als eGPU, wo die Konkurrenz ne Ti um ~30% geplättet hat! Ansonsten weiß man nichts Bestimmtes.
Das Bezieht sich auf Fermi im Vergleich zu Konkurrenz damals ;)
Ah, sorry-so genau verfolge ich den Thread leider nicht. Tut mir leid mal wieder Schrott gepostet zu haben
unl34shed
2020-08-20, 18:19:35
Der Performance / Watt Graph sieht wie folgt aus:
...
Hat jemand Daten für GDDR6? Hab diese hier "abgelesen":
Du könntest oben die Zahlen von Micron als Anhaltspunkt nehmen. Allerdings scheinen die sich nur auf den Memory alleine zu beziehen und den I/O auszuklammern.
Mit 9pJ/b kommt man bei GDDR5 für 400GB/s nämlich nur auf 28.8W, also fehlen zu den Nvidia Angaben in dem Graph ~45W. Das scheint sich recht gut mit dem Roten Balken für I/O zu decken.
Bei GDDR6X sind es alleine für den Speicher bereits 52-58W, hinzu kommt noch ein unbekannter Teil für den I/O-Bereich. Der I/O sollte denke ich weniger verbrauchen als bei GDDR5, aber ich würde vermute, dass es zwischen 20-30W sein werden. Damit wäre man bei ~11-12.5 GB/W.
Wieviel Völter braucht es eigentlich um die Performance bei GDDR6x gesichert abzurufen?
Zossel
2020-08-20, 19:01:16
Wieviel Völter braucht es eigentlich um die Performance bei GDDR6x gesichert abzurufen?
Ohne die Amper krass zu skillen passiert da nix.
Was jetzt keine Antwort auf meine Frage ist. Den normalen GDDR6 bekommst du unter Luft schwer gekühlt und der läuft afaik mit 1.35V. Wenn die X-Variante nun 1.5V oder mehr braucht, dann Gute N8 um 6. HBM for Consumer? Den Aufwand fürs PCB usw. hätten se billiger haben können. Für ne 3080 liegt alleine das Kühlkonstrukt bei 155€. Klar dass dies auf den Endkunden abgeführt wird. So oder so ist das Ding ein Fail
Daredevil
2020-08-20, 20:34:25
Den normalen GDDR6 bekommst du unter Luft schwer gekühlt und der läuft afaik mit 1.35V
Aber wie macht die Quadro 8000 das denn?
Die hat hinten 24GB GDDR6 verbaut und kommt weder mit Kühler, noch mit Backplate.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.servethehome.com%2Fwp-content%2Fuploads%2F2019%2F11%2FNVIDIA-Quadro-RTX-8000-Sync.jpg&f=1&nofb=1
und trotzdem kann man auch hier ein "Sandwich" bauen.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Ftechgage.com%2Fwp-content%2Fuploads%2F2019%2F03%2FNVIDIA-Quadro-RTX-8000-Dual-GPU-Configuration.jpg&f=1&nofb=1
Wenn man GDDR6 "kaum unter Luft" kühlen kann, dann müsste die Rückseite im SLI ja quasi verglühen, weil gänzlich ungekühlt.
wolik
2020-08-20, 20:39:22
So oder so ist das Ding ein Fail
Oder, Meisterleistung? Wir werden bald erfahren.
mboeller
2020-08-20, 20:56:49
Aber wie macht die Quadro 8000 das denn?
So: Speicher Bandbreite: 672 GB/s
Es sind nur 14Gb/sec Speicherchips und keine mit 21Gb/sec
https://www.alternate.de/PNY/Quadro-RTX-8000-Grafikkarte/html/product/1572408
So: Speicher Bandbreite: 672 GB/s
Es sind nur 14Gb/sec Speicherchips und keine mit 21Gb/sec
https://www.alternate.de/PNY/Quadro-RTX-8000-Grafikkarte/html/product/1572408
Exakt
TheAntitheist
2020-08-20, 21:15:43
Exakt
dafür sinds aber auch doppelt so viele im SLI betrieb. Ich finde die Frage schon berechtigt und nicht ausreichend beantwortet.
Oder, Meisterleistung? Wir werden bald erfahren.
Mit nem PCB dass so Dick ist wie ein Backstein? Ganz ehrlich: Wenn Navi 21 auf HBM setzt, dann ist Ampere schneller Geschichte, als dass Jensen die GPUs in den Backofen bekommt. Ich meine NV fährt alles auf und ich glaube NV weiß viel mehr über BN als wir. Es könnte für ne 3090 zu einem Sieg reichen, aber ich glaube mit den kolportierten 1400$ ist relativ wenig verdient
monstar-x
2020-08-20, 21:45:03
Was jetzt keine Antwort auf meine Frage ist. Den normalen GDDR6 bekommst du unter Luft schwer gekühlt und der läuft afaik mit 1.35V. Wenn die X-Variante nun 1.5V oder mehr braucht, dann Gute N8 um 6. HBM for Consumer? Den Aufwand fürs PCB usw. hätten se billiger haben können. Für ne 3080 liegt alleine das Kühlkonstrukt bei 155€. Klar dass dies auf den Endkunden abgeführt wird. So oder so ist das Ding ein Fail
Und das kannst du anhand von ein paar Twitter Leaker beurteilen oder besitzt du tatsächlich die fachliche Expertise und Arbeitest als Engineering bei einem Chiphersteller?
Ich denke es ist ersteres... und somit danke für das Gespräch.
Zergra
2020-08-20, 21:57:20
Nochmal zu HBM, da wird es nicht an 50€ scheitern, die kann man auch so an den Kunden weiterreichen. Alleine durch das gigantisch große Interface hat man bei HBM automatisch eine größere Latenz, weil jedes einzelne Bit nach jedem Zyklus abgefragt wird. Da hilft dann mehr Takt oder die große Bandbreite nur bedingt.
Armaq
2020-08-20, 22:00:51
Ich seh das Problem einfach beim Endkunden. Die 2080Ti ist kaum noch zu bändigen, jetzt noch eine 3090 mit 350Watt ist einfach nicht drin ohne WaKü und auch dann geht die Abwärme irgendwo hin. Ich hab kein kleines Gehäuse und 3 Spots für einen Radi, aber ich kühle mit NDH15 und Luft, bald muss ich ne Klimaanlage daneben stellen, aber nur für den Innenraum vom Gehäuse.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.