Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Hübie
2018-01-03, 21:36:24
Haben nicht Hynix, Micron und Samsung GDDR6 angekündigt? :| Der Preis könnte unterhalb von G5X liegen, da der im Gegensatz zu G5X auch für AMD absehbar war und es somit viel wahrscheinlicher ist, dass eine breite Palette an Produkten damit in der Pipeline ist. Zehn 32-Bit-Controller würden auch gehen. Alles kein Thema mehr. 8 GB ist entry level, das wird man wohl kaum machen. Aber gleich 16 GB sind ebenso unwahrscheinlich.

ps: Happy new year :smile:

=Floi=
2018-01-04, 02:02:44
Je nach Spiel tut sie es aber. Interessant ist wieviel GFLOPs/GB/s im NV Portfolio vergeben sind. Das ist je nach Produkt total unterschiedlich:

GTX1060 6GB: 22,8 (die 8GT/s Version) -> hat die wenigste Rechenleistung pro Bandbreite. Kein Bottleneck in der Bandbreite.
GTX1070: 25,2
GTX1070ti: 32! -> größte Rechenleistung pro Bandbreite. Je nach Spiel im Bandbreitenbottleneck.
GTX1080: 27,7
GTX1080ti: 23,4

Eine GTX2080@336GB/s läge bei 33,8. Ich tippe darauf, dass die erhöhte Anzahl an SMs dann nicht voll durchschlägt ggü der 1080.



echt cooles post!

Den vergleich könnte man noch weiter spinnen, bis zum G80. Wäre auch ne tolle news.


edit
Die 8GB waren anfangs auch viel und jetzt nur noch ausreichend.
Mit viel Vram kann man auch ganz andere sachen machen. Das geht beim streaming an, über detailierteres lod bis hin zu schnelleren ladezeiten.
Es kommt auch aufs spiel drauf an, aber es gibt ein paar tolle möglichkeiten mehr vram zu nützen, wenn er vorhanden ist.

=Floi=
2018-01-04, 02:07:54
Es gibt aber hier mehr dynamik, Intel hatte den cloud markt schon und hatte es verpennt was "neues aufzumachen". nvidia brauch eine gute cash cow für forschung und diversifizierung, das ist immer noch high performance graphics/gaming. Funktioniert imo aber nur wenn die Leute upgraden. Consumer CPU hat ja das problem dass die games ja meist nicht so mörder CPUs mehr brauchen, weniger upgrade druck. Die positive Lage rund um deep learning ist jetzt gerade gut, aber Intel/AMD/andere werden massiv kommen, da wo was zu holen ist. Zurückfallen wäre genau das was die "Gegner" stark macht. Imo klappt nur full steam ahead (inklusive Eisberggefahr), aber allzu starkes schwächeln und zögern könnten die analysten als "das war's nun mit dem vorsprung" auslegen, und dann nicht mehr glauben dass noch was kommt. Die Anzahl der Mitarbeiter hat sich in den letzten 10 Jahren verdoppelt... Die wollen ja was reißen, wenn man da Handbremse verordnet gehen die Leute und lösen die Probleme bei der Konkurrenz.

intel ging im cosumer markt komplett auf mobile. die cpus wurden zar sparsamer aber immer noch mit dieser krüppligen GPU!
Hätten sie mal den gpu-mist weggelassen, hätte es auch schon eher 6 und 8 kerne gegeben. Den weg ging man bewusst nicht und man lief AMD hier ein großes scheunentor offen.

Slashman
2018-01-04, 06:01:12
Ich hoffe halt das Nvidia die GA106 besser macht als jetzt. GP106 ist ja nur halb so stark wie eine GP104 an Shadern. Der Unterschied ist schon heftig.

Ich könnte mir Vorstellen das die Ampere Gen etwas ausgeglichener ist:

GA102 = 4096 Shader, 96-128 ROPs, 160-256 TMUs (450mm² 12nm)
GA104 = 3072 Shader, 64-96 ROPs, 128-160 TMUs (300mm²)
GA106 = 1920 Shader, 48 ROPs, 96 TMUs (200mm²)
GA108 = 1280 Shader, 32 ROPs, 64 TMUs (150mm²)

Alle mit GDDR6 Chips. Wobei ich mit denken kann das GA102 auch mit HBM2 Vram kommt.

Dann könnte man folgende Grafikkarten formen:

GTX TitanA = 4096 Shader 1,4 GHz (GA102 Vollausbau)
GTX 1180 Ti = 3840 Shader 1,4 GHz (GA102)
GTX 1180 = 3072 Shader 1,7 GHz (GA104 Vollausbau)
GTX 1170 = 2560 Shader 1,7 GHz (GA104)
GTX 1160 = 1920 Shader 1,8 GHz (GA106 Vollausbau)
GTX 1150 Ti = 1536 Shader 1,7 GHz (GA106)
GTX 1150 = 1280 Shader 1,7 GHz (GA108 Vollausbau)
GTX 11X0 = 1024 Shader 1,6 GHz (GA108)

So hätte man ohne Probleme jedes Segment abgedeckt. Von Low End bis HPC Chips. Ich hoffe das gerade GA106 viel besser wird.

Ich meine nochmal sollte der Abstand von GTX 1180 zu GTX 1160 nicht so groß sein.

robbitop
2018-01-04, 07:03:13
106 ist immer 1/3 von 102
104 ist 2/3 von 102.

Dennoch war gp106 so stark wie gm104 und locker schnell genug für fullhd. GP104 dann für 1440p und GP102 für 4k.
GP106 profitiert ein Stück weit davon, dass sie pro gflop die meiste Bandbreite hat. Die GPU kann ihre Leistung gut entfalten.

Slashman
2018-01-04, 09:07:39
106 ist immer 1/3 von 102
104 ist 2/3 von 102.

Dennoch war gp106 so stark wie gm104 und locker schnell genug für fullhd. GP104 dann für 1440p und GP102 für 4k.
GP106 profitiert ein Stück weit davon, dass sie pro gflop die meiste Bandbreite hat. Die GPU kann ihre Leistung gut entfalten.

Nur weil es so in den letzten Jahren war muss es nicht immer so sein.

Palpatin
2018-01-04, 10:13:10
GP106 profitiert ein Stück weit davon, dass sie pro gflop die meiste Bandbreite hat. Die GPU kann ihre Leistung gut entfalten.
Dürfte aber ein kleines Stück sein, da Speicher OC ohne Chip OC auf der 1080 so gut wie gar nichts bringt. Denke es liegt eher am besseren ROP L2 Cache verhältniss zu den ALUs, das die 1060 im Normalfall mehr als 50% von der 1080 leistet.

robbitop
2018-01-04, 10:28:14
Nur weil es so in den letzten Jahren war muss es nicht immer so sein.
Dass 106 ~1/3 vom 100/102 ist, ist schon seit Fermi so. Also sehr lange. Somit recht wahrscheinlich, dass es bei Ampere auch so ist. Zumal GP106 eine erfolgreiche und schnelle Karte war. Auch war sie dank kleinem Die und 192bit SI relativ günstig und somit hatte soe eine gute Gewinnspanne. Sie hat sich auch ganz hervorragend verkauft. Ich sehe nichts dass NV dazu bewegen würde, das für Nachfolgegenerationen zu ändern.
104 war bei Fermi auch ~2/3. Bei Kepler eher ~1/2. Bei Maxwell wurde es dann 2/3.


1/3, 2/3 und 3/3 wirken sinnvoll und konkludent. Dass es so bleibt kann keiner garantieren. Aber ich halte es für hoch wahrscheinlich, dass die Faktoren im Groben so bleiben.

reaperrr
2018-01-04, 12:36:41
1/3, 2/3 und 3/3 wirken sinnvoll und konkludent. Dass es so bleibt kann keiner garantieren. Aber ich halte es für hoch wahrscheinlich, dass die Faktoren im Groben so bleiben.
Ich auch, weil es sicher auch beim Chip-Design/Layout Aufwand spart, wenn die Zahl der SM je GPC unter den Chips gleich und die Zahl der GPCs gerade ist (außer bei den 1-GPC-Chips, die sind aber sicherlich generell nicht so aufwändig zu designen).

Außerdem bringt GDDR6 gerade so viel mehr Bandbreite pro Chip, dass man die SI-Breite so lassen und trotzdem 40% mehr SM je Chip "füttern" könnte.

Einzig bei GA106 bin ich mir nicht ganz sicher, ob der eher schnelleren Speicher oder ein breiteres SI bekommt (letzteres wäre natürlich negativ für die Produktionskosten, von daher IMO unwahrscheinlicher).
Falls schnelleren Speicher, dann sicher nur 12Gbps G6 oder G5X, bei breiterem SI bleibt es mMn bei G5@8Gbps.

Hübie
2018-01-04, 17:57:54
Ich hoffe halt das Nvidia die GA106 besser macht als jetzt. GP106 ist ja nur halb so stark wie eine GP104 an Shadern. Der Unterschied ist schon heftig.

Ich könnte mir Vorstellen das die Ampere Gen etwas ausgeglichener ist:

GA102 = 4096 Shader, 96-128 ROPs, 160-256 TMUs (450mm² 12nm)
GA104 = 3072 Shader, 64-96 ROPs, 128-160 TMUs (300mm²)
GA106 = 1920 Shader, 48 ROPs, 96 TMUs (200mm²)
GA108 = 1280 Shader, 32 ROPs, 64 TMUs (150mm²)

Alle mit GDDR6 Chips. Wobei ich mit denken kann das GA102 auch mit HBM2 Vram kommt.

Dann könnte man folgende Grafikkarten formen:

GTX TitanA = 4096 Shader 1,4 GHz (GA102 Vollausbau)
GTX 1180 Ti = 3840 Shader 1,4 GHz (GA102)
GTX 1180 = 3072 Shader 1,7 GHz (GA104 Vollausbau)
GTX 1170 = 2560 Shader 1,7 GHz (GA104)
GTX 1160 = 1920 Shader 1,8 GHz (GA106 Vollausbau)
GTX 1150 Ti = 1536 Shader 1,7 GHz (GA106)
GTX 1150 = 1280 Shader 1,7 GHz (GA108 Vollausbau)
GTX 11X0 = 1024 Shader 1,6 GHz (GA108)

So hätte man ohne Probleme jedes Segment abgedeckt. Von Low End bis HPC Chips. Ich hoffe das gerade GA106 viel besser wird.

Ich meine nochmal sollte der Abstand von GTX 1180 zu GTX 1160 nicht so groß sein.

Und nun frage ich dich: Woher soll die Leistungssteigerung von 30-45% kommen, wenn der top dog nur 4096 ALUs hat. Pascal hat keinesfalls ein Bandbreiten oder Auslastungsproblem. Auch die Granularität ist ziemlich ausgewogen. Takt ebenfalls. Den kannst du fast nur durch einen neuen Prozess und mehr Transistoren erkaufen. Es spräche kaum etwas gegen ein 320 Bit GDDR6 interface (10*32), 36 SM mit je 128 FP32 ALUs bei ~550 mm² unter TSMC 12 nm. Man hatte in der Vergangenheit schon größere Chips als top dog. :smile:

Der_Korken
2018-01-04, 18:24:34
Besonders interessant sind imho die Andeutungen, dass es sich um eine komplett neue Architektur handeln soll. Dadurch ist all das Durchrechnen von SMs und GPCs womöglich komplett hinfällig, weil der Chip ganz anders aufgebaut ist.

Wäre es ein nur ein Upgrade von Pascal, würde ich auf 7 SMs pro GPC tippen (+40%), was ziemlich genau zur Taktsteigerung von GDDR6 zum ersten GDDR5X entspräche, sodass man das alte SI einfach lassen kann und nur über den Takt kommt (Ausnahme vielleicht GA106 mit 128Bit@GDDR6). Außerdem hat auch V100 eine durch 7 teilbare Anzahl an SMs (84=6*14). Ausgehend von V100 könnte man damit auf +~33% mehr Fläche 40% mehr ALUs unterbringen, die durch Architekturverbesserungen aber keinen Mehrverbrauch haben. Also GTX2080=GTX1080+40% bei 180W, GTX2080Ti=GTX1080Ti+40% bei 250W, usw. Für den quasi gleichen Fertigungsprozess wäre das schon recht beeindruckend.

robbitop
2018-01-04, 21:33:04
Manche munkeln auch, dass Ampere eher ein Pascal Refresh war. Was ist schon eine neue mArch? In letzter Zeit sehen wir eigentlich eher Evolution als Revolution. Pascal und Maxwell sind sich sehr ähnlich. Auch vieles von Maxwell fußt bereits auf Kepler und den mobilen Kepler in Tegra K1.
Auch Volta scheint abseits der Tensorcores auch eine Evolution zu sein. Mehr Performance pro Rohleistung kam jedenfalls bei Volta (Titan V) offenbar nicht herum. Auch Pascal hat hier nur sehr geringe Steigerung ggü Maxwell gezeigt. Perf/W ging allerdings stetig nach oben.

Troyan
2018-01-04, 22:27:05
Lmao - der Sprung auf Maxwell von Kepler ist mehr als das was AMD seit 2012 mit GCN gemacht hat. Eigentlich ist es schon Blasphemie zu behaupten, dass "vieles von Maxwell fuße bereit auf Kepler".

Es ist einfach zu behaupten, es passiere nichts viel, wenn man es nicht auf anhieb sieht. Das ändert nichts daran, dass eine Verbesserung des Perf/W um 50%, wie es bei GV100 der Fall ist, auf einem ähnlichen Prozess massiv ist, wenn kleinere Prozesse im Grunde keine Verringerung der Spannung mehr ermöglichen.

pixeljetstream
2018-01-04, 22:55:36
Alle Chips sind nach wie vor Teil der Fermi Familie. Die große Revolution pro Generation bleibt aus, allerdings ist die Summe an Evolutionen nicht zu unterschätzen. Die meisten großen funktionalen Bausteine werden für sich optimiert.

Hätte Intel mit Larrabee Erfolg gehabt, hätte es stärkere Veränderung im Gesamtkonzept gegeben. Aber jetzt ist alles zu komplex um das Risiko einzugehen sehr große Dinge umzustruktieren.

Was hier groß ist, liegt am Betrachter.
Don't fix what ain't broke.

Die Summe der Arbeit pro Zeit nimmt aber zu, auch wenn es nicht immer so sichtbar ist. Ein nicht unwesentlicher Teil ist es kleine Dinge zu verbessern, effizienter zu machen etc. ohne das irgendwas fürs Marketing rausspringt. Hier ein Prozent da eins usw.

robbitop
2018-01-05, 07:37:49
Lmao - der Sprung auf Maxwell von Kepler ist mehr als das was AMD seit 2012 mit GCN gemacht hat. Eigentlich ist es schon Blasphemie zu behaupten, dass "vieles von Maxwell fuße bereit auf Kepler".

Es ist einfach zu behaupten, es passiere nichts viel, wenn man es nicht auf anhieb sieht. Das ändert nichts daran, dass eine Verbesserung des Perf/W um 50%, wie es bei GV100 der Fall ist, auf einem ähnlichen Prozess massiv ist, wenn kleinere Prozesse im Grunde keine Verringerung der Spannung mehr ermöglichen.

Oße speedbumps müssen nicht zwangsläufig eine neue mArch bedeuten. Manchmal sind auch kleine Speedbumps mit einer neuen mArch verbunden. Schaue dir mal die Maxwell mArch an. Da gibt es gute writeups die Stück für Stück zeigen was an Kepler geändert wurde, u zu Maxwell zu kommen.

Pixeljetstream als nv Mitarbeiter bestätigt es ja.

Hübie
2018-01-05, 08:10:36
Eben darum denke ich, dass Ampére durch kleine Optimierungen, mehr Takt, aber vor allem durch mehr Recheneinheiten seine Leistung gewinnt. Man wird wohl einen SM sehen, der Volta ähnelt.

pixeljetstream
2018-01-05, 08:31:58
Jeder definiert vermutlich anders was er mit mArch meint. Die SM als größter Baustein verändert sich schon ordentlich. Da ich eher von der Grafik komme ist für mich aber der Ablauf der Grafikpipeline als solche "relevanter" bzw. Umsetzung der APIs, daher der Hinweis auf Fermi.
Wenn jemand jetzt eher fixiert ist wie einzelne Instruktionen im shader ausgeführt werden, so sind die Unterschiede seit Fermi natürlich größer.

Es gibt zwei gegenläufige Trends: Generalisierung und Spezialisierung. Big picture mäßig ist klar ersteres der langfristige Trend. Möglichst flexibel Resourcen wiederverwenden und etwaige Spezialisierung rückbauen, da sie nicht der Allgemeinheit dienen. Aber da wo nötig, wo die Abstraktion zu viel Effizienz kostet werden immer noch neue Schneisen geschlagen ala Tensorcores.

Larrabee hatte es übertrieben mit ersterem und imo war der Ur-GCN auch schon mehr general purpose (mehr compute fokus, breiter, mehr raw power). NV erscheint da konservativer, obwohl man ja bei anderen Dingen wie Cuda durchaus viel innovatives investierte ohne zu wissen ob es sich auszahlt. Aber auch hier steht eher die Problemlösung als ganzes, statt einfaches Werkzeug im Vordergrund.

Hübie
2018-01-05, 09:14:47
Es ist ja auch immer ein Spagat zwischen ILP und TLP. Bei compute workloads wird ein hohes Maß an TLP sinnvoller sein, was bei graphics wohl eher Richtung ILP geht. Ob man jetzt bei Ampére ebenfalls einen Warp Scheduler und Dispatcher pro Cluster im SM hat stelle ich mal in Frage, wenn wir davon ausgehen, dass auch hier 128 ALUs pro SM verbaut sind.
Unter µArch verstehe ich eine Strukturierung der (graphics) pipeline vom Anfordern der Daten bis hin zur Bildschirmausgabe inklusive der ISA. Frontend (DMA, HS/DS/GS/Tess./Vertex fetch, dispatch, WS etc.) Recheneinheiten (FP16/32/64 ALU, TC, SFU, L/SU etc...), Speicher (L1/2/3$, Register), TMU/TAU und backend (vornehmlich ROPs). Wenn der überwiegende Teil neu strukturiert ist und die ISA stark erweitert wurde definiere ich es als neue µArch. Bis Pascal habe ich es nicht definiert, aber da gibt es offenbar keine Konventionen. Auch wenn Fermi schon ziemlich weit entfernt ist wurde im groben (abseits der Gx100-Chips) immer nur etwas umstrukturiert oder wie Caches vergrößert. Das ist allerdings stark simplifiziert und soll keineswegs bedeuten, es sei ein Klacks gewesen. ;) ;)

Bucklew
2018-01-05, 09:45:54
Dafür, dass NVIDIA ja immer nur Refreshes von Fermi abliefert und AMD mit jedem Chip die Grafikwelt revolutioniert, ist die Entwicklung der Kräfteverhältnisse aber irgendwie ziemlich krumm. :cool:

Oder ist Revolution doch nicht so gut, wie immer alle danken? :ugly:

Hübie
2018-01-05, 10:56:47
Wer sagt, dass es nur refreshes sind? Es sind Iterationen mit stetiger Weiterentwicklung der Basis die Fermi lieferte. Ein Refresh ist eher ein metalspin ohne wirkliche Neuerungen bzw. signifikante Leistungssteigerungen. Das AMD mit jedem Chip die Grafikwelt revolutioniert lese ich ebenfalls zum ersten Mal. :confused: AMD macht im Prinzip nichts anderes. Deren CU ist weitgehend unangetastet seit Tahiti (4 SIMD Units (je 16 ALUs), eine Skalareinheit, LDS etc.). Iirc hat sich auch die Anzahl an Threads pro CU nicht verändert (8 Work groups, 64 wavefronts).

Bucklew
2018-01-05, 12:40:03
Wer sagt, dass es nur refreshes sind?
Lies doch mal die Speku-Threads, mit den Postings der üblichen Verdächtigen.

Da heißt es dann gern sowas:
Der Pascale refresh kommt dann halt als Volta mit kleinen Verbesserungen
(über Volta)
So, kann mal ein Pro kurz zusammenfassen inwiefern sich Pascal von Maxwell unterscheidet? Habe im CB Forum vorhin Maxwell-refresh gelesen.
(über Pascal)

Irgendwie immer alles nur Refrehes bei NVIDIA ;D

Das AMD mit jedem Chip die Grafikwelt revolutioniert lese ich ebenfalls zum ersten Mal.
Schreibt sogar AMD selbst:
We’ve revolutionized everything a gaming card can and should be while making it more accessible than ever. Have the freedom to play everything from the latest eSports titles to the most popular AAA games or experience the next level of immersion with exceptional VR, powered by revolutionary LiquidVRTM technology. We’ve created a technological revolution that’s ready to roll, right out-of-the-box.
https://gaming.radeon.com/en/rx/
Wird natürlich gern von den üblichen Verdächtigen aufgegriffen:
Navi soll in PCIe 4.0 kommen. Also 7nm Fertigung​, GPU,Memory-Skalierung. Das wird eine Revolution sein im Hinblick auf VR.

Grundsätzlich ist so - leider auch hier im Forum - dass Prä-Launch AMD immer bis zum geht nicht mehr hochgelobt wird und NVIDIA immer schlecht gemacht. Und noch viel schlimmer: Jeder der nicht mit dem Tenor in Einklang ist, wird nieder gemacht, siehe Igor. Man lese sich mal die Spekulationsthreads zu Polaris und Pascal durch, da war im April quasi klar, dass NVIDIA Monate später mit einer Schrottkarte kommt, während AMD Monate vorher den Burner überhaupt haben wird. Wie es wirklich war, wissen wir jetzt alle.

Das ist wirklich nervig und ich weiß nicht, was der Sinn dahinter ist.

BoMbY
2018-01-05, 13:13:58
Na, warten wir mal ab was da mit Ampere kommt, wenn denn was kommt. Was Konkretes gibt es da bisher auch nicht, trotz 27 Seiten Gelaber.

Jedenfalls hatte ich schon mal zu 100% damit recht, dass kein Volta für Gamer geben wird (außer man zählt die 3000,- Euro Titan V dazu). Im Moment hat NVidia jedenfalls erstmal weitere Pascal in der Pipeline.

Locuza
2018-01-05, 13:26:27
Na, warten wir mal ab was da mit Ampere kommt, wenn denn was kommt. Was Konkretes gibt es da bisher auch nicht, trotz 27 Seiten Gelaber.

Jedenfalls hatte ich schon mal zu 100% damit recht, dass kein Volta für Gamer geben wird (außer man zählt die 3000,- Euro Titan V dazu). Im Moment hat NVidia jedenfalls erstmal weitere Pascal in der Pipeline.
Diese 100% gelten dann wohl eher nur der Semantik oder?
Die Kernfrage war schließlich, wie sehr sich Volta für Konsumenten unterscheiden wird und wenn das Kind einfach nur Ampere heißt, dann ändert das effektiv wenig an den Vermutungen welche viele gepflegt haben.

Und welche weiteren Pascal stehen denn in der Pipeline an?

Hübie
2018-01-05, 13:35:07
So gesehen hatte ich dann auch 100%ig Recht. :rolleyes: Was bisher übrigens seitens NVIDIA nie angesprochen wurde ist das OCN. Hier hatten wir ja mal die Thematik eines packet based network und ich kann mir denken, dass NV hier weiter ist als man vermuten würde. Da gibt's abet afaik nichts offizielles und somit kann auch pixeljetstream nichts dazu beisteuern.

@Bucklew: Ehrlich gesagt lese ich von diesen Personen nicht alles und auch nicht so genau. :D Das was AMD ausgesagt hat bezieht sich eher auf VR und den Preis...

Bucklew
2018-01-05, 13:37:00
Im Moment hat NVidia jedenfalls erstmal weitere Pascal in der Pipeline.
Q.E.D. ;D

Danke dafür.

Übrigens: Von Pascal wusste wir im Januar 2016 ebenfalls Nichts.

Hübie
2018-01-05, 13:54:10
Er möchte doch nur unnütz sticheln, weil AMD im Grunde auch nur Tahitis in der Pipeline hat. Zeugt eigentlich auch nur davon, dass er sich wenig bis gar nicht mit Architekturen auseinander gesetzt hat und / oder schon mehr von Ampére weiß als wir (was ich mal stark bezweifel). ;)

Edit: Das wir nichts wissen ist doch ein positives Signal. Keine Leaker mehr und die sind noch nicht bei den AIBs angekommen (ergo noch 3 Monate bis Launch). Ich wüsste auch nicht dass NV plötzlich ein Dreiviertel Jahr im Voraus ne große Welle schlägt. Ist nicht deren Marketing-Stil.

Bucklew
2018-01-05, 15:35:55
Er möchte doch nur unnütz sticheln
Komisch, wenn man das in AMD-Threads wagt, wird sofort die rote Karte gezückt. Macht es jemand in den NVIDIA-Threads, werden die abgestraft, die darauf eingehen.

Auch daher ja dieses Ungleichgewicht. Wer Negatives zu NVIDIA postet, wird gern beschützt.

Ist nicht deren Marketing-Stil.
Den Stil kennen wir seit Maxwell: Ankündigung, fixen Termin, Hardlaunch.

Pascal war ja ein Paradebeispiel, wie man AMD inzwischen an der Nase herum führt. Hardlaunch ein paar Tage nach der Präsentation, mit großer Verfügbarkeit. AMD hatte Monate vorher einen Polaris-Launch für das H1 versprochen, dann mit Mühe und Not noch den 29.6. für die Präsentation in das H1 gequetscht und dann war selbst der Launch im H2 ein klassisches Paperlaunch.

Hier mal zwei Beispiele aus dem Heiseforum zur Pascal (GP100) Präsentation von der GTC 2016:
https://www.heise.de/forum/heise-online/News-Kommentare/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen/Nvidia-ist-zu-langsam/posting-28449312/show/
https://www.heise.de/forum/heise-online/News-Kommentare/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen/Eigentlich-Enttaeuschend-Da-wird-wohl-AMD-vorbeiziehen/posting-28446192/show/
Herrliche Satire, wenn das heute liest ;D

scully1234
2018-01-05, 16:03:28
Im Moment hat NVidia jedenfalls erstmal weitere Pascal in der Pipeline.

Dann muss das wohl in irgend einem Paralleluniversum geschehen.

Hier und jetzt in der realen Welt geht Pascal demnächst EOL


So gesehen hatte ich dann auch 100%ig Recht. :rolleyes: ...

nüschts du hast gefailt zu Weihnachten, ich hatte recht mit Titan Volta ,als Prestigeobjekt unterm Baum=)

Ich wüsste auch nicht dass NV plötzlich ein Dreiviertel Jahr im Voraus ne große Welle schlägt. Ist nicht deren Marketing-Stil.

Einer der Gründe warum hier nicht so viel geredet wird, wenn man im Vorfeld nicht so laut trommelt

here it comes deal with it ist manchmal nicht so frustrierend ,wie die andere Strategie

Hübie
2018-01-05, 16:20:41
Sorry, Buklew, aber auf diese AMD-hat-dies-und-das-gesagt-Schei*e gehe ich nicht weiter ein. Beschäftige dich doch nicht mit so einem unwichtigen Kram. :)

@scully1234: BoMbY's Logik zufolge schon. ;) Hast du dir etwa ne Titan V gegönnt? X-D

rentex
2018-01-05, 16:21:39
Komisch, wenn man das in AMD-Threads wagt, wird sofort die rote Karte gezückt. Macht es jemand in den NVIDIA-Threads, werden die abgestraft, die darauf eingehen.

Auch daher ja dieses Ungleichgewicht. Wer Negatives zu NVIDIA postet, wird gern beschützt.


Den Stil kennen wir seit Maxwell: Ankündigung, fixen Termin, Hardlaunch.

Pascal war ja ein Paradebeispiel, wie man AMD inzwischen an der Nase herum führt. Hardlaunch ein paar Tage nach der Präsentation, mit großer Verfügbarkeit. AMD hatte Monate vorher einen Polaris-Launch für das H1 versprochen, dann mit Mühe und Not noch den 29.6. für die Präsentation in das H1 gequetscht und dann war selbst der Launch im H2 ein klassisches Paperlaunch.

Hier mal zwei Beispiele aus dem Heiseforum zur Pascal (GP100) Präsentation von der GTC 2016:
https://www.heise.de/forum/heise-online/News-Kommentare/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen/Nvidia-ist-zu-langsam/posting-28449312/show/
https://www.heise.de/forum/heise-online/News-Kommentare/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen/Eigentlich-Enttaeuschend-Da-wird-wohl-AMD-vorbeiziehen/posting-28446192/show/
Herrliche Satire, wenn das heute liest ;D

Nicht nur Satire, sondern realitätsverweigernde Aussagen...

scully1234
2018-01-05, 16:37:37
Hast du dir etwa ne Titan V gegönnt? X-D

Nein die Frau will dieses Jahr nach Kuba=)

5CH4CHT3L
2018-01-05, 16:47:46
Nvidia hat Zeit.
Wenn sie eine neue Generation rausbringen, dann hat die auch (weitaus) mehr Performance. Deswegen ist die 1080 schon seit fast 2 Jahren am Markt ohne Refresh (im Gegensatz zu Polaris).
Wobei man im Moment nichtmal unbedingt so viel Leistung brauchen würde. Spiele sind dieses Jahr kaum anpsruchsvoller geworden und die DP / HDMI - Standards fangen an zu limitieren. Wenn dann nächstes Jahr die Monitore mit den neuen Standards kommen (4k/120Hz, UWQHD/144Hz usw.) wird auch wieder mehr Leistung gefordert.

Timbaloo
2018-01-05, 16:48:10
Nein die Frau will dieses Jahr nach Kuba=)
Ja, da sagt man bei der Einreisekontrolle ungern, dass man eine Titan V im Gepäck hat.

Hübie
2018-01-05, 17:17:31
Nein die Frau will dieses Jahr nach Kuba=)

Haha. Und wenn sie weg ist holst du dir eine Titan V weil du nur ein Ticket gezahlt hast, oder wie darf ich das verstehen? :biggrin::biggrin::biggrin:
Mein damaliger Chef starb in Cuba. Zwischen Rum und Nutten lässt es sich offenbar gut leben. X-D

@5CH4CHT3L: Wobei auch nicht klar ist, ob schon früher etwas wirklich Neues gekommen wäre. Wahrscheinlich hätte man Pascal aufgefrischt, wenn die Konkurrenz besser wäre (höher GPU- und RAM-Takt, fertig).

Bucklew
2018-01-05, 17:27:26
Wahrscheinlich hätte man Pascal aufgefrischt, wenn die Konkurrenz besser wäre (höher GPU- und RAM-Takt, fertig).
Ja, das hätte man sicherlich getan, wenn Vega besser und/oder früher da gewesen wäre.

Ich erwarte daher mit einem Ampere einen deutlichen Schritt, weil man das R&D für einen Pascal-Refresh gespart und in Volta/Ampere gesteckt hat.

PS: Ich würde so Bullshit, auch von AMD, gern ignorieren, nur leider ist das nicht möglich und zerstört das Forenleben nicht nur hier. Selbst im PCGH bekommt ein gewisser Troll hier aus dem Forum richtigen Gegenwind, wenn er wieder mit seinen FakeNews über die Vega-Performance ankommt. Hier ist das irgendwie kein Problem. Sehr merkwürdig.

Hübie
2018-01-05, 17:39:56
Na ja. Du kannst Menschen nicht ändern. Wobei ich es verstehe und ja auch einige Male gesperrt wurde. Wir können jedoch wenigstens hier, wo wir vermehrt unter 'uns' sind, so ein Schmarrn einfach außen vor lassen. AMD bekommt auch dieses Jahr wieder eine Chance bei mir, aber es wird halt immer schwieriger und seit Fermi konnten die mich einfach nicht überzeugen (bei Kepler war's ne Knappe Kiste, aber die 4GB-GK104-GPU im SLi hat bei mir am Ende das Rennen gewonnen).

Kriton
2018-01-05, 17:58:54
Kommt hier auch noch was Gehaltvolles oder nur AMD-Bashing? Ich frage nur mal so.

Hübie
2018-01-05, 18:29:24
Wir arbeiten dran. Dein Beitrag trägt allerdings auch nichts bei. Lassen wir das. Meine Speku habe ich ja geäußert: 4608 ALUs (288 TMUs, 17 TFLOPs bei 1500 MHz), 320 Bit (80 ROPs) und 10 GB. Alles krumm und schief, aber es ist ne Speku. :D

pixeljetstream
2018-01-05, 18:37:21
Wie Bucklew sagt, imo sind die Zeiten vom klassischen refresh vorbei (minimal Änderung/shrink), wieso so viel Geld ausgeben und so wenig "neues" dabei lernen, neue Entwickelungen erproben... jetzt wo es immer wichtiger wird über Architekturverbesserungen im Detail bzw. neue Features die Fortschritte zu erzielen.

BlacKi
2018-01-05, 19:12:05
Wir arbeiten dran. Dein Beitrag trägt allerdings auch nichts bei. Lassen wir das. Meine Speku habe ich ja geäußert: 4608 ALUs (288 TMUs, 27 GFLOPs bei 1500 MHz), 320 Bit (80 ROPs) und 10 GB. Alles krumm und schief, aber es ist ne Speku. :D
GA104?

sieht bei mir so aus:

3584cuda (+40%) an 256bit SI 14gbps (+40%) mit ganzen 16GB Gddr6 speicher, bei 1900-2000mhz typischem boost, auf 400-420mm², mit einem ca. 200w starkem PT.

achja, preis steht auch schon fest^^ 649$ msrp, die Fön Edition 749$.

Für später: Told you so!

scully1234
2018-01-05, 20:06:56
Wie Bucklew sagt, imo sind die Zeiten vom klassischen refresh vorbei (minimal Änderung/shrink), wieso so viel Geld ausgeben und so wenig "neues" dabei lernen, neue Entwickelungen erproben... jetzt wo es immer wichtiger wird über Architekturverbesserungen im Detail bzw. neue Features die Fortschritte zu erzielen.

weg von Moores Law hin zum Stacked Design=)

Edgecrusher86
2018-01-05, 22:20:03
So, dann will ich auch mal. :biggrin:

Name|TITAN Xa|TITAN A|GTX 2080 Ti|GTX 2080|GTX 2070 Ti|GTX 2070|GTX 2060 6/12GB|GTX 2060 3/6GB

Release ~|Q2 2019|Q3 2018|Q1 2019|Q2 2018|Q3/4 2019|Q2 2018|Q3 2018|Q3 2018
Chip ~|GA102-430|GA102-400|GA102-350|GA104-400|GA104-300|GA104-200|GA106-400|GA106-400
Transistoren ~|16-17 Mrd.|16-17 Mrd. |16-17 Mrd. |10-11 Mrd. |10-11 Mrd. | 10-11 Mrd. | 6-7 Mrd. | 6-7 Mrd.
DIE-Size ~|630-650mm²|630-650mm²|630-650mm²|400-430mm²|400-430mm²|400-430mm²|250-280mm²|250-280mm²
CCs FP32 ~|5376|5120|5120|3584|3328|2688|1792|1664
TMUs ~|336|320|320|224|208|168|112|104
ROPs ~|144|144|136|96|96|96|72|72
GPU Basistakt MHz ~|1502|1455|1502|1708|1708|1607|1607|1607
GPU-Boost MHz ~|1607|1556|1607|1810|1797|1797|1810|1810
TF/s FP32 Boost ~|17,28|15,93|16,46|12,97|11,96|9,66|6,49|6,02|
VRAM-Takt Gbps ~|16|14|15,4|14|11|11|11|11
VRAM|12/24 GB G6|12/24 GB G6|11/22 GB G6| 8/16 GB G6| 8/16 GB G5X| 8/16 GB G5X|6/12 GB G5X|3/6 GB G5X
Speicherinterface|384-bit|384-bit|352-bit|256-bit|256-bit|256-bit|192-bit|192-bit
Speicherbandbreite ~|768,7 GB/s|672 GB/s|678,2 GB/s|448 GB/s|352 GB/s|352 GB/s|264 GB/s|264 GB/s
Texturfüllrate Boost ~|540 GT/s|497,9 GT/s|514,2 GT/s|405,4 GT/s|373,8 GT/s|301,9 GT/s|202,7 GT/s|188,2 GT/s
Pixelfüllrate Boost ~|231,4 GP/s|224,1 GP/s|218,6 GP/s|173,8 GP/s|172,5 GP/s|172,5 GP/s|130,3 GP/s|130,3 GP/s



Vermeintlich 6 GPCs a 7 SM klingt sinnig für Ampere. Nur die ROPs sind dann etwas verwirrend bei den angeblichen 128 ROPs für den V100 (16GB).
Bleibt es nicht so wie bei Pascal mit max. 96 ROPs, wäre 144 ROPs eine nächstmöglich teilbare Menge bei 6 GPCs...192 ROPs wäre natürlich auch möglich, aber sicher etwas viel. :wink:
Das Verhältnis TMUs/ROPs wäre mit 144 aber unrund (~ 2,33x) -> 2,5x ist es bei Pascal - 3,5x wäre es für Ampere bei weiterhin 96 ROPs. :uponder:
Da die TITAN V deren 96 hat, klingt das auch für Ampere plausibel. Dann müsste ich die Tabelle noch einmal ändern. :freak:

NV typisch den garantierten Boost angegeben bei der Rechenleistung. Die Taktraten werden natürlich nur grob stimmen, da Volta ein wenig andere Taktstufen aufweist,
aber alles nur grob als Annäherung zu sehen. 11 Gbps GDDR5X für die kleineren Karten dürfte eigentlich auch eine ausreichende Bandbreite liefern.
Mal sehen, was davon in einigen Monaten noch stimmt. :D

Version 2:

Name|TITAN Xa|TITAN A|GTX 2080 Ti|GTX 2080|GTX 2070 Ti|GTX 2070|GTX 2060 6/12GB|GTX 2060 3/6GB

Release ~|Q2 2019|Q3 2018|Q1 2019|Q2 2018|Q3/4 2019|Q2 2018|Q3 2018|Q3 2018
Chip ~|GA102-430|GA102-400|GA102-350|GA104-400|GA104-300|GA104-200|GA106-400|GA106-400
Transistoren ~|16-17 Mrd.|16-17 Mrd. |16-17 Mrd. |10-11 Mrd. |10-11 Mrd. | 10-11 Mrd. | 6-7 Mrd. | 6-7 Mrd.
DIE-Size ~|630-650mm²|630-650mm²|630-650mm²|400-430mm²|400-430mm²|400-430mm²|250-280mm²|250-280mm²
CC FP32|5376|5120|5120|3584|3328|2688|1792|1664
TMUs|336|320|320|224|208|168|112|104
ROPs|96|96|88|64|64|64|48|48
GPU Basistakt MHz ~|1502|1455|1502|1708|1708|1607|1607|1607
GPU-Boost MHz ~|1607|1556|1607|1810|1797|1797|1810|1810
TF/s FP32 Boost ~|17,28|15,93|16,46|12,97|11,96|9,66|6,49|6,02|
VRAM-Takt Gbps ~|16|14|15,4|14|11|11|11|11
VRAM|12/24 GB G6|12/24 GB G6|11/22 GB G6| 8/16 GB G6| 8/16 GB G5X| 8/16 GB G5X|6/12 GB G5X|3/6 GB G5X
Speicherinterface|384-bit|384-bit|352-bit|256-bit|256-bit|256-bit|192-bit|192-bit
Speicherbandbreite ~|768,7 GB/s|672 GB/s|678,2 GB/s|448 GB/s|352 GB/s|352 GB/s|264 GB/s|264 GB/s
Texturfüllrate Boost ~|540 GT/s|497,9 GT/s|514,2 GT/s|405,4 GT/s|373,8 GT/s|301,9 GT/s|202,7 GT/s|188,2 GT/s
Pixelfüllrate Boost ~|154,3 GP/s|149,4 GP/s|141,4 GP/s|115,8 GP/s|115 GP/s|115 GP/s|86,9 GP/s|86,9 GP/s


MfG
Edge

Timbaloo
2018-01-05, 22:44:30
Das sieht nicht blöd aus. Also die Formatierung.

:D

Im Ernst, so ähnlich würde ich den GA204 auch tippen, aber ohne zu wissen was sich an der Arch ändert ist das alles müßig.

=Floi=
2018-01-05, 23:32:39
Bei NV mag es auch deswegen so gleich aussehen, weil die die effizienz des frontends so pervers verbessert haben. Die SP sind zwar wichtig, aber wurden bei den alten generationen auch nie ausgelastet. Maxwell ging dann schon einen großen schritt in diese richtung und bei pascal konnte man das noch weiter fortsetzen.

Hier wäre eine interne auslastungsanzeige der SP sehr interessant gewesen.



Ich bleibe eher bei 1536, 3072 und 4606 SPs im vollausbau der chips. mehr wird es wohl nicht werden.

scully1234
2018-01-05, 23:59:24
So, dann will ich auch mal. :biggrin:



MfG
Edge

Bin gespannt wie lange es dauert bis das einer aufgreift u ne News produziert=)

crux2005
2018-01-06, 00:17:55
Bin gespannt wie lange es dauert bis das einer aufgreift u ne News produziert=)

Habe gerade genau das gleiche Gedacht. ;D

Der_Korken
2018-01-06, 00:22:29
So, dann will ich auch mal. :biggrin:


Dem würde ich mich anschließen. Alles +40% klingt einfach stimmig - unter der Voraussetzung, dass sich am Aufbau der SMs/GPCs nichts fundamentales ändert.

Eventuelle Alternative: Falls der Verbrauch doch steigt und GA104 z.B. bei 200W landet, könnte GA102 auch in 7nm kommen (wurde hier schon spekuliert), damit man die bisher magische Grenze von 250W nicht überschreitet. Der xx2-Chip kam bisher ja immer etwas später, sodass es sich vielleicht lohnt hier gleich auf 7nm zu setzen. Dann könnte Nvidia den Chip auch etwas fetter als GA104+50% machen, damit der Verbrauch nicht kleiner als bei letzterem ist^^

reaperrr
2018-01-06, 00:58:43
An eine 3GB-2060 glaube ich nicht (die Speichermenge ist inzwischen einfach in zu vielen Spielen zu wenig), eher machen sie es diesmal wie bei der neuen China-Variante der 1060 und bringen eine 160bit/5GB-Variante.

Version 2 der Tabelle macht mehr Sinn, weil die ROPs bei Nvidia an das Speicherinterface gekoppelt sind. Deshalb hat V100 im Vollausbau auch 128 (32 je HBM-Interface, bei der Titan V dürften demnach nur 96 aktiv sein).

Hübie
2018-01-06, 01:54:22
GA104?

Natürlich nicht. Denk doch mal nach :wink:

Platos
2018-01-06, 02:33:43
Natürlich nicht. Denk doch mal nach :wink:

Ja aber was hat denn 27 TFLOPs und nur 10GB ?

Hübie
2018-01-06, 04:28:03
Ups, typo. 17 TFLOps nicht 27 GLOPs X-D

Edit: Hab das mal überdacht und finde so sieht das ganz gut aus:

https://abload.de/img/spekulativer_ga102bpuqo.png (http://abload.de/image.php?img=spekulativer_ga102bpuqo.png)

Ist mir aber zu wenig Veränderung. :D

AffenJack
2018-01-06, 12:07:44
Das wäre immernoch ein Pascal vom Cacheaufbau oder? Ich wette, der Cache wird ähnlich wie bei Volta mit nem schnellen großen L1 werden. Dementsprechend muss es schon 144-192 Kb L1 pro SM mit 128SP werden. Man wird die Cachemengen im Vergleich zu Pascal nicht verkleinern. V100 hat auch die LD/ST Units verdoppelt im Vergleich zu Pascal. Ist das nur weil FP und Int jetzt getrennt sind oder was hat das für Auswirkungen und macht das einen Sinn für eine Spielegpu?

Außerdem einfach zu wenig Shader. Ich geh wie Blacki und Edgecrusher von den V100 Shaderzahlen aus. Bei GA104 eben 2/3 davon. Nur mit 128 SP/SM, aber mit neuem L1 Cache. Ich glaube auch nicht an eine Steigerung der ROPs. Davon hat man genug und ist da AMD sowieso noch klar überlegen. Höchstens werden deren fähigkeiten irgendiwe aufgebohrt.

Hübie
2018-01-06, 13:01:40
Iirc hat Pascal noch die Unterteilung mit 96 KB L1 und 48 KB read only. Also könnte man jetzt 128 KB L1$ und keinen ro$ veranschlagen. Darauf habe ich noch nicht so viel Wert gelegt, aber gut dass du es ansprichst. Diese Tabelle arbeitet weitgehend automatisch und ist durch c&p entstanden, da nimmt man ungewollt Dinge mit. :D Wenn wir von einer Steigerung bei der Auslastung und höheren Taktraten ausgehen sind 4608 CC imo ausreichend. Seit Kepler wurde stets mit weniger CC mehr Leistung erreicht: 780 Ti 2880->980Ti 2816->1080 2560*. Diese Karten liegen relativ nah beieinander wenn es um die Anzahl der ALUs geht, aber selbst bei gleichem Takt zieht die 1080 beide ab. Jetzt gehen wir von einer marginalen Steigerung der 'IPC' aus und verbauen im Gegensatz zur TXp noch mehr Cache und mehr CCs. Dann mussten kalkulatorisch 40% Steigerung drin sein und man kanibalisiert nicht sofort sie Titan V, welche durch Produktdifferenzierung abseits stehen soll.

*Die 1080 habe ich genommen, weil die eben von den Rohdaten bei 1200 MHz dicht zusammen liegen und jede Karte diesen Takt bewerkstelligen könnte. ;)

Edgecrusher86
2018-01-06, 13:04:25
Bin gespannt wie lange es dauert bis das einer aufgreift u ne News produziert=)

Also den ersten Satz sollte man sich vorher schon übersetzen (lassen). Vielleicht nicht unbedingt, wenn man nur auf Klicks aus ist. :D


Ja, 6GB sind meiner Meinung nach auch das Minimum, was eine "kleine GTX 2060" sinnvollerweise haben sollte. Theoretisch könnte man ja auch wieder den VRAM doppelseitig verbauen ab der "GTX 2070", sofern erstmal nur 8Gb Chips verfügbar sind und spätestens für die 2019er Modelle dann 16Gb verwenden.
Außerdem könnten ja auch krumme VRAM-Bestückungen möglich sein, zumindest bis maximal zur 70er Karte - eventuell auch mit GDDR6?!. Gut, entsprechende Module müssten natürlich auch erstmal auf dem Markt sein, ist klar. Also sowas wie eine 9GB "GTX 2060" oder eine 12GB "GTX 2070".
16GB und mehr dann bei den Highend-Varianten ab 80er aufwärts.

Also 30-40% sollte Ampere ja jeweils drauf legen auf Pascal (zumindest gegenüber der TITAN X (Pascal) sowie 1080 Ti). Mit maximal 4608 SPs (11% unterhalb 5120), müsste man wohl grob 15% höhere Taktraten fahren,
um die Einheiten auszugleichen. Also als Beispiel würde ein typical Boost um die 1733 MHz hier grob 16 TF/s bringen. Sicher möglich, aber der Chip dürfte mit mehr Einheiten und niedrigeren Taktraten effizienter diese Leistung erreichen.
Der Vorteil eines kleineren Chips wäre sicher die Wirtschaftlichkeit, denn dieser dürfte grob 530-540mm² groß sein. Auf der anderen Seite hätte es ein GA104 mit 3072 SPs und um die 350-360mm² sicher nicht leicht, sich deutlich vor GP102 zu setzen -
für 12 TF/s zum Beispiel bräuchte es einen typical Boost um die 1,95 GHz.


Name|TITAN Xa|TITAN A|GTX 2080 Ti|GTX 2080|GTX 2070 Ti|GTX 2070|GTX 2060 10GB|GTX 2060 5GB
Release ~|Q2 2019|Q3 2018|Q1 2019|Q2 2018|Q3/4 2019|Q2 2018|Q3 2018|Q3 2018
Chip ~|GA102-430|GA102-400|GA102-350|GA104-400|GA104-300|GA104-200|GA106-400|GA106-400
Transistoren ~|14-15 Mrd.|14-15 Mrd. |14-15 Mrd. |8-9 Mrd. |8-9 Mrd. | 8-9 Mrd. | 5-6 Mrd. | 5-6 Mrd.
DIE-Size ~|530-540mm²|530-540mm²|530-540mm²|350-360mm²|350-360mm²|350-360mm²|210-240mm²|210-240mm²
CC FP32|4608|4352|4352|3072|2944|2304|1536|1408
TMUs|288|272|272|192|184|144|96|88
ROPs|96|96|88|64|64|64|48|48
GPU Basistakt MHz ~|1607|1556|1607|1822|1822|1708|1708|1708
GPU-Boost MHz ~|1797|1721|1797|1949|1936|1936|1949|1949
TF/s FP32 Boost ~|16,56|14,98|15,64|11,97|11,4|8,92|5,99|5,49|
VRAM-Takt Gbps ~|15|13|14,4|13|12|12|12|12
VRAM|24 GB G6|24 GB G6|22 GB G6|16 GB G6|16 GB G6/G5X|14 GB G6/G5X|10 GB G6/G5X|5 GB G6/G5X
Speicherinterface|384-bit|384-bit|352-bit|256-bit|256-bit|224-bit|160-bit|160-bit
Speicherbandbreite ~|720 GB/s|624 GB/s|634,1 GB/s|416 GB/s|384 GB/s|336 GB/s|240 GB/s|240 GB/s
Texturfüllrate Boost ~|517,5 GT/s|468,1 GT/s|488,8 GT/s|374,2 GT/s|356,2 GT/s|287,8 GT/s|187,1 GT/s|171,5 GT/s
Pixelfüllrate Boost ~|172,5 GP/s|165,2 GP/s|158,1 GP/s|124,7 GP/s|123,9 GP/s|123,9 GP/s|93,6 GP/s|93,6 GP/s



Mit extrem hohen max. Boost könnte man 30-40% drauf legen, ansonsten könnten es wohl 20-30% auf Pascal werden, abseits von LL-APIs.
Aber alles nach oben hin offen, wenn Ampere deutlich effizienter arbeitet, wäre vielleicht auch so ein großer Sprung wie Kepler auf Maxwell 2.0 möglich.
Scheint so, als müsse ich mich von 12Gb Modulen verabschieden, denn weiterhin maximal 8Gb sind gelistet - und ich denke nicht, dass eine GTX 970 Reloaded im Sinne von NV ist. :D
Ja, dann wäre zum Beispiel 160-bit plus 5GB eine Möglichkeit wie aktuell bei der Asien GTX 1060 oder etwa 224-bit und 14GB bei der 2070. Es bleibt spannend. ;)

E: Im Prinzip würde dann auch 13 Gbps GDDR6 wie von Micron gefertigt, völlig ausreichend sein für 2018er Karten bei weniger Einheiten. Vermutlich könnte man später auch 15 Gbps ohne Probleme bauen.
Den kleineren Modellen hingegen könnte man für ein gekürztes SI 12 Gbps verpassen. Hier gibt es bekanntlich auch GDDR5X.

vinacis_vivids
2018-01-06, 21:54:42
Real:
Volta: 815mm² - 21,1Mrd - 25,9Mio/mm²
GP102: 471mm² - 12Mrd - 25,4Mio/mm²
GP104: 314mm² - 7,2Mrd - 22,9Mio/mm²
GP106: 200mm² - 4,4Mrd - 22Mio/mm²

Die spekulierten Werte aus der Tabelle:
GA102: 540mm² - 15Mrd - 27,7Mio/mm²
GA104: 360mm² - 9Mrd - 25Mio/mm²
GA106: 240mm² - 6Mrd - 25Mio/mm²

Das dichteste, was TSMC mit 12nm packen kann sind 25,9Mio/mm²
Ausgehend von GP104-7,2Mrd. -> GP102-12Mrd. müssen +66% Trasitoren her um ~35-40% Leistungsplus zu erzielen. Das wären ~ 20Mrd Transitoren gepackt mit der besten Fertigung (Volta 12nm) 25,9Mio/mm² kommt ein Chip von ~770mm² raus.

Träumereien von einem neuen "high-end" ~540mm² Chip, der alles wegfegt ist ein reines Wunschdenken. Dazu auch kein HBCC, keine LL-API Verbesserung wird das Potential zum Fail immer größer.

Hübie
2018-01-06, 22:14:44
Ein typischer v_v. Da gehen wir mal dezent nicht drauf ein, OK?

Soviel mir jetzt bekannt ist startet G6 da wo G5X aufgehört hat. Wie wir Jensen kennen hat er aber noch die secret sauce mit drin. Es muss also unter Umständen nicht mal ein 15% höherer Takt sein um auf das Gleiche Niveau zu kommen. ;)

BlacKi
2018-01-06, 22:16:50
Also 30-40% sollte Ampere ja jeweils drauf legen auf Pascal (zumindest gegenüber der TITAN X (Pascal) sowie 1080 Ti).


ich rechne locker mit 50% eher 60% ga104 ggü. gp104. wegen des fehlenden deutlichen shrinks wird die fläche durch die decke gehen. die letzten % werden mit dem powertarget reguliert.

30-40% ggü. der vorgänger gen reicht nicht für ein 2 jahres update. niemals!

robbitop
2018-01-07, 08:47:57
Ein typischer v_v. Da gehen wir mal dezent nicht drauf ein, OK?

Soviel mir jetzt bekannt ist startet G6 da wo G5X aufgehört hat. Wie wir Jensen kennen hat er aber noch die secret sauce mit drin. Es muss also unter Umständen nicht mal ein 15% höherer Takt sein um auf das Gleiche Niveau zu kommen. ;)

Wäre ich skeptisch. Gesetz des sinkenden Grenzertrags. Maxwell und Pascal sollten die größten Früchte geerntet haben. Mehr als 10% Bandbreiteneffizienzsteigerung ggü Pascal würde mich zumindest skeptisch machen.

Hübie
2018-01-07, 09:24:28
Der Satz mit dem Takt bezog sich auf Edgecrusher's Aussage bzgl. der GPU, nicht des Speichers. :smile: Wenn man es also schafft Latenzen in den ALUs zu senken und gleichzeitig die Auslastung steigert muss man keine 15% mehr Takt ausreizen. Wer weiß was unter der Haube noch so möglich ist?

@BlacKi: Umsteiger von 980 Ti OC auf 1080 Ti OC berichten von 45% Zugewinn der Leistung...

robbitop
2018-01-07, 13:09:54
Tja auch dort brachte Pascal nahezu keinen Vorteil (mehr Performance bei normierter Rohleistung) ggü Maxwell. Volta scheint auch keine zu bringen (Titan V ist in Spielen nicht schneller als es die Rohleistungsdifferenz erklären würde - eher idR drunter - wobei der Stand der Treiber natürlich zur Disposition steht). Auch hier stelle ich das Gesetz des sinkenden Grenzertrags mal in den Raum. Insgesamt lasten aktuelle NV mArchs ihre ALUs schon ziemlich ordentlich aus. So seht, dass AC (oder bessere Kontrolllogik/Caches) nur noch wenig holen können wird.

basix
2018-01-07, 13:50:47
Wäre ich skeptisch. Gesetz des sinkenden Grenzertrags. Maxwell und Pascal sollten die größten Früchte geerntet haben. Mehr als 10% Bandbreiteneffizienzsteigerung ggü Pascal würde mich zumindest skeptisch machen.

Nun ja, Bandbreiteneffizienz ist nicht nur eindimensional. Entweder man verringert die erforderliche Bandbreite mit z.B. Kompression. Oder man erhöht die Datenlokalität mit einem Tile Based Ansatz. Oder man steigert die Effizienz des Speichercontrollers hinsichtlich Throughput von BW_max zu BW_peak. GV100 ist bei letzterem z.B. viel stärker als GP100. Bei den Grafik-Chips ist das Optimierungspotential natürlich kleiner, aber irgendwas zwischen 10-20% können sicher noch drin liegen, ohne dass man etwas verrückt neues erfinden muss.

BlacKi
2018-01-07, 14:17:25
@BlacKi: Umsteiger von 980 Ti OC auf 1080 Ti OC berichten von 45% Zugewinn der Leistung...
davon hab ich aber nicht geredet. ohne oc bezogen sagt der 4k 3dc index 60%.

BlacKi
2018-01-07, 14:50:01
mhh, nice, aber was willst du damit sagen?

@hübie

https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1080-ti/launch-analyse-nvidia-geforce-gtx-1080-ti-seite-3

da sinds sogar 75% im schnitt.

wie gesagt 30-40% reichen vorne und hinten nicht.

LSSJBroly
2018-01-07, 15:00:45
da sinds sogar 75% im schnitt.


Kommt eher hin. Ich bin noch von ner 980Ti OC auf ne 1080Ti OC gewechselt und hab im Mittel immer + 60% gesehen, in einigen Fällen sogar richtung 80%

robbitop
2018-01-07, 15:10:16
1080ti @2GHz (übliche OC Taktrate): 14,33 TFLOPs
980ti @1,5GHz (dito): 8,44 TFLOPs

Sind schon ~70% mehr Rohleistung für die 1080 ti. Pascal bringt ~5-10% mehr Leistung pro TFLOP. 75-80 % höhere Frameraten im GPU Limit(!!!) sollten nicht unrealistisch sein.

Bucklew
2018-01-07, 17:53:45
Ausgehend von GP104-7,2Mrd. -> GP102-12Mrd. müssen +66% Trasitoren her um ~35-40% Leistungsplus zu erzielen.
Blödsinn. Da es eine neue Architektur ist, wird Perf/Transistor sich natürlich steigern. Sonst könnte man es sich ja auch sparen. Wie

Träumereien von einem neuen "high-end" ~540mm² Chip, der alles wegfegt ist ein reines Wunschdenken.
Stimmt, es reicht ja schon der zwei Jahre alte 314mm² midrange Chip, um alles von der Konkurrenz weg zu fegen bei 2/3 der Leistungsaufnahme ;D

Mancko
2018-01-07, 17:59:53
Btw wenn ich Nvidia wäre würde ich versuchen die Leistung mit Ampere noch durch ein paar Maßnahmen hier und da zu steigern und vor allem den ganzen AI und HPC Quatsch loszuwerden um dann nochmal mit einer abgespeckten GPU gemütlich ins High End Rennen gehen zu können. Das Geld was die mit der Masche seit Kepler verdienen holt AMD sowieso nicht mehr ein. Das fehlt bei denen auf dem R&D Konto und so lassen sich auch die ganzen Produkte gemütlich am Markt plazieren. Nvidia ist echt in einer extrem guten Position. Im Grunde schauen die bei den Moves von AMD aktuell nur entspannt zu. Sie wissen, dass sie durch die deutlich geringeren Herstellungskosten eklatant im Vorteil sind. Würde mich ja nicht wundern wenn die es in Q4 auf ordentlich über 60% Marge geschafft haben. Die Konkurrenz krebst bei knapp über der Hälfte herum.

Timbaloo
2018-01-07, 20:51:19
Btw wenn ich Nvidia wäre würde ich versuchen die Leistung mit Ampere noch durch ein paar Maßnahmen hier und da zu steigern und vor allem den ganzen AI und HPC Quatsch loszuwerden um dann nochmal mit einer abgespeckten GPU gemütlich ins High End Rennen gehen zu können.
Ähm, genau das ist das Konzept von Ampere: Die Trennung von Pro und Consumer.

spotz
2018-01-07, 21:32:04
In den letzten beiden Seiten stand nichts über einen Nachfolger für die 1050 Ti. Meint ihr das Nvidia einfach den alten Chip unter neuen Namen anbietet oder wird es da auch was Neues geben? Der wäre ja auch besonders für Notebooks interessant.

BlacKi
2018-01-07, 21:36:25
da es für die 50er reihe bisher immer aktuelle neue chips gab wird es wohl auch diesmal ampere chips für das segment geben.

Mortalvision
2018-01-07, 21:38:50
Meine Spekulation:

Eine Abspeckung von Ampere gibts dann bestimmt auf dem Niveau der 970/rx480, evtl. sogar mit 3/6GB als 1150Ti. Die 1160 mit 4/8 GB. Die 1170 nur mit 8, die 1180 mit hoffentlich 9/12 GB. Eine 1080Ti nächsten Herbst/ Winter mit 15GB (Titan Ampere mit 16GB?) wäre supi, auch trotz steigender Speicherpreise.

AffenJack
2018-01-07, 22:39:01
da es für die 50er reihe bisher immer aktuelle neue chips gab wird es wohl auch diesmal ampere chips für das segment geben.

Da war 7nm aber auch nicht so nah dran. Ich könnte mir vorstellen, dass man diesmal auf ein volles Lineup verzichtet und einige GPUs erst in 7nm neu auflegt. GX107 wäre für mich ein Topkandidat für Samsungs 7nm EUV Prozess. Da Apple und QC TSMC 7nm DUV erstmal auslasten werden, aber Samsung Ende 2018 mit 7nm EUV loslegen will, wäre das vielleicht ne Möglichkeit.

Troyan
2018-01-08, 06:23:25
Pegasus soll Mid-2018 an die Partner gehen mit "two next-generation NVIDIA GPUs".


Pegasus is built on two Xavier SoCs and two next-generation NVIDIA GPUs. Customers will get the first samples of Pegasus with its 320 trillion operations per second of processing performance in mid-2018.
https://blogs.nvidia.com/blog/2018/01/07/drive-xavier-processor/

Damit sollte der Zeitraum auf 6 Monate eingeschränkt sein.

Nightspider
2018-01-08, 06:38:20
@BlacKi: Umsteiger von 980 Ti OC auf 1080 Ti OC berichten von 45% Zugewinn der Leistung...


Kann schon rein rechnerisch nicht sein.

980ti == 1070

1080 = 1070 + 30%

1080ti = 1080 + 30%

1,3*1,3 = 169%

Und das deckt auch meine Erfahrung. Kumpel hat auch 980ti SLI durch 1080ti ersetzt und ist flüssiger unterwegs.

Hübie
2018-01-08, 09:40:28
Du gehst von stock Karten aus. Ich bezog mich dabei auf einige Aussagen im Luxx, aber es ist gut möglich, dass die besonders gute GM200 hatten und / oder es nicht mehr aktuell ist. ;) Meine Karte ist z.B. exakt 1070 Ti Niveau. Aber wie auch immer. Die 1080 Ti liegt offenbar doch eher bei +75% (1440p/4k) wenn man im Index nach schaut.

@robbitop: Ich weiß nicht wie viel Potenzial grundsätzlich in einer Umstrukturierung oder Optimierung der Renderpipeline steckt, aber NV betreibt genug R&D dass die ein gewisses Portfolio haben. Und wer weiß schon was da alles drin steckt? Es ist gut möglich, dass bei gleicher ALU Anzahl und gleichem Takt 10% mehr heraus kommen. Die restlichen 5% dann Takt erhöhen; fertig. So in etwa meine Idee der neuen Gen. :smile:

Bucklew
2018-01-08, 09:59:44
Ampere werden wir also definitiv im H1 als HardLaunch sehen.

Nachdem AMD für 2018 keinerlei Gaming-Produkte mehr vorstellen wird, hat NVIDIA 12-18 Monate komplett freie Bahn ohne jede Konkurrenz. Pascal ist ja heute schon nahezu konkurrenzlos. Da knallen gerade die Sektkorken :D

Rancor
2018-01-08, 11:43:04
Ampere werden wir also definitiv im H1 als HardLaunch sehen.

Nachdem AMD für 2018 keinerlei Gaming-Produkte mehr vorstellen wird, hat NVIDIA 12-18 Monate komplett freie Bahn ohne jede Konkurrenz. Pascal ist ja heute schon nahezu konkurrenzlos. Da knallen gerade die Sektkorken :D

Ja total super..... nicht. Die Preise werden unmenschlich werden.

BlacKi
2018-01-08, 11:51:58
Ja total super..... nicht. Die Preise werden unmenschlich werden.
mit 50$ teurer für die 2080 musst du schon rechnen. mehr wirds IMO nicht, wenn die miner die finger weg lassen.

Bucklew
2018-01-08, 11:53:44
Ja total super..... nicht. Die Preise werden unmenschlich werden.
Ruf in Sunnyvale an und beschwer dich ;)

basix
2018-01-08, 12:17:42
Ruf in Sunnyvale an und beschwer dich ;)

Toll ist es immer noch nicht. Oder hast du Nvidia Aktien?

Ohne Konkurrenz keine anständigen Preispunkte und irgendwann mal kein grosser Fortschritt mehr (siehe Intel).

Bucklew
2018-01-08, 12:23:03
Ohne Konkurrenz keine anständigen Preispunkte und irgendwann mal kein grosser Fortschritt mehr (siehe Intel).
Wer bringt denn aktuell mehr Fortschritt in Sachen Grafik? NVIDIA oder AMD?

BlacKi
2018-01-08, 12:32:50
Ohne Konkurrenz keine anständigen Preispunkte und irgendwann mal kein grosser Fortschritt mehr (siehe Intel).
das bedingt die akzeptanz von umsatzverlusten. "siehe intel" wieviele sitzen auf 4-6 jahre alten cpus fest ohne upgradezwang? intel hat die serversparte, kann sich das leisten, aber nvidia will verdienen, deshalb glaube ich an fortschritt im sinne des kunden.

basix
2018-01-08, 12:39:59
Das ist eine Momentaufnahme und auch nicht auf alle Anwendungsgebiete übertragbar. Hat z.B. Nvidia etwas wie eine Radeon SSG zu bieten ;)

Intel war auch mal hoch innovativ. Zwischen Core Architektur bis Sandy Bridge ging die Post ab. Danach hat man sich vor allem darauf konzentriert: Optimierung der eigenen Profitabilität. Höchstens im Mobile Sektor sind gute Stromsparmechanismen hinzugekommen, zudem ging man im Server-Geschäft in die Breite. Aber AMD schafft mit Zen, EPYC und Raven Ridge "aus dem Stand" praktisch die selbe oder gar höhere Effizienz. Noch zum Thema Profitabilität: Was macht Nvidia gerade mit den Grafikkarten-Preisen sowie Innovation? Seit Pascal kam für Gamer gar nichts, sogar die Preise sind fast noch die gleichen wie zum Erscheinen der 1080 GTX. Zudem schon 3x Titan Xp Versionen (Salvage, Full, Star Wars). Mit Ampere kommt wieder was neues und ich bin überzeugt, dass es technisch ein gutes Produkt werden wird. Innovation mal wieder einen Schritt vorwärts. Bei den Preisen wird man einen Schritt "rückwärts" gehen. Höher werden sie mit fast sicherer Wahrscheinlichkeit.

Mich interessiert Server und HPC / Machine Learning wenig für den Alltagsgebrauch (aus technischem Interesse natürlich trotzdem ;)). Mich interessiert vor allem Desktop - und hier ist schon seit dem Erscheinen von Haswell und Pascal ein wenig ein Plateau ohne grösseren Fortschritt erreicht. Nvidia ist für uns Enduser sicher innovativer als momentan AMD, da mehr Performance beim Kunden ankommt. Aber seit dem Erscheinen von Pascal? "Tote Hose".

scully1234
2018-01-08, 12:47:09
das bedingt die akzeptanz von umsatzverlusten. "siehe intel" wieviele sitzen auf 4-6 jahre alten cpus fest ohne upgradezwang? intel hat die serversparte, kann sich das leisten, aber nvidia will verdienen, deshalb glaube ich an fortschritt im sinne des kunden.

Das ist das was bei der Monopoldiskussion und "unmenschlichen Preisen" immer ein Paradoxon reißt, in die Weltuntergangsargumentation vom bösen Kapitalisten=)

Der kann nur soweit gehen wie der Consumer mitgeht, überreizt er sein Angebot stagniert die Nachfrage ,und er bleibt auf dem Berg an Hardware sitzen.

Wenn man also verdienen will, muss man a: attraktive Hardware liefern und b:die Preise an den Verdienst der Menschen anpassen, alles andere ist über kurz oder lang zum Scheitern verurteilt

Das wird sich mit Ampere and beyond niemals ändern

Wake
2018-01-08, 12:51:41
Wer braucht schon fehlende Konkurrenz wenn es Mining gibt? (https://www.reddit.com/r/pcmasterrace/comments/7os8rn/gtx_1080tis_went_from_750_to_just_under_1000ish/)

Bei Newegg sind fast alle 1080 Tis über Nacht out of stock oder auf 1000$+ gegangen. (https://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=-1&IsNodeId=1&Description=1080%20ti&bop=And&Order=PRICE&PageSize=36)

Dural
2018-01-08, 12:53:42
Amd hat bis heute keine vernünftig antwort auf pascal, und werden es auch nicht auf ampere haben. Das gibt einem schon zu denken und wird preislich ziemlich sicher schlecht für uns ausfallen.
Wenigstens hat es amd jetzt selber auch eingesehen und stellt den gaming bereich vorerst auf eis, mal schauen ob von amd überhaupt mal wider was vernünftiges im gaming bereich kommen wird.

scully1234
2018-01-08, 13:02:04
Bei Newegg sind fast alle 1080 Tis über Nacht out of stock oder auf 1000$+ gegangen. (https://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=-1&IsNodeId=1&Description=1080%20ti&bop=And&Order=PRICE&PageSize=36)

zu früh EOL gegangen und jetzt kommt nix mehr nach bis Ampere...

Rancor
2018-01-08, 13:03:41
Das ist das was bei der Monopoldiskussion und "unmenschlichen Preisen" immer ein Paradoxon reißt, in die Weltuntergangsargumentation vom bösen Kapitalisten=)

Der kann nur soweit gehen wie der Consumer mitgeht, überreizt er sein Angebot stagniert die Nachfrage ,und er bleibt auf dem Berg an Hardware sitzen.

Wenn man also verdienen will, muss man a: attraktive Hardware liefern und b:die Preise an den Verdienst der Menschen anpassen, alles andere ist über kurz oder lang zum Scheitern verurteilt

Das wird sich mit Ampere and beyond niemals ändern

Hat man ja gesehen, was bei Intel passiert ist, als Sie das quasi Monopol für mehrere Jahre inne hatten. Marginale Verbesserungen pro Gen und deutlich höhere Preise.

Pascal war schon teurer als Maxwell, siehe 1070 vs 970 @ Release. Ampere wird nochmals drauflegen und die Leute werden es mangels Alternative kaufen.
Warum man sich über den Untergang der Grafiksparte vom AMD so freut, erschließt sich mir einfach nicht. Nvidia Fan hin oder her.

Bucklew
2018-01-08, 13:04:14
Aber seit dem Erscheinen von Pascal? "Tote Hose".
Echt unglaublich, dass NVIDIA tatsächlich Zeit braucht für neue Produkte und nicht mindestens zwei Tage nach dem Launch von Pascal direkt Ampere hinterher raus haut ;D

Hat man ja gesehen, was bei Intel passiert ist, als Sie das quasi Monopol für mehrere Jahre inne hatten. Marginale Verbesserungen pro Gen und deutlich höhere Preise.
Was hat Intel mit NVIDIA zu tun?

Fakt ist, dass die Innovation in Sachen Grafik aktuell von NVIDIA kommt. Auch wenn sie seit gut 2 Jahren praktisch konkurrenzlos sind. Da jetzt schon den Teufel an die Wand zu malen, ohne dass es Hinweise darauf gibt, ist einfach nur FUD. Tretet lieber AMD in den Arsch, als bei NVIDIA rum zu motzen. Die können nun wirklich am wenigsten für die Preise.

Pascal war schon teurer als Maxwell, siehe 1070 vs 970 @ Release. Ampere wird nochmals drauflegen und die Leute werden es mangels Alternative kaufen.
Schlappe 379 vs. 329 US$. AMD hat den gleichen Sprung von der FuryX auf die RX Vega getätigt, ebenfalls 50US$.

Angesichts der Preislage von Vega ist die Diskussion über die angeblich überzogenen NVIDIA-Preise einfach nur ein Witz.

scully1234
2018-01-08, 13:10:21
Pascal war schon teurer als Maxwell, siehe 1070 vs 970 @ Release. Ampere wird nochmals drauflegen und die Leute werden es mangels Alternative kaufen.


Wir bleiben mal beim Geforce, auch wenn man dazu die ollen Kamellen rauskramen muss

11 November 2000

Gibt es Anwender, die 1500 Mark für eine Grafikkarte ausgeben? Es scheint so (http://www.tomshardware.de/mega-power-zum-mega-preis-die-elsa-gladiac-ultra,testberichte-227.html)

Jetzt rechne noch die Inflation und allgemeine Rohstoffkostensteigerung,neben den immer teureren Strukturverkleinerungen bei TSMC u Co

Was hat sich also signifikant verändert, in den letzten 17 Jahren?

Außer das sie neben der Geforce Sparte noch ein Titan Label kreiert haben, für die Nerds unter den Enthusiasten ,hat sich rein gar nix verändert am Preisgefüge

Die Ti ehemals Geforce Ultra ist weiterhin bei 600- 700 Euro kaufbar gewesen, oder damals für umgerechnet 1500 DM um eben mal das Gedächtnis aufzufrischen

Man kann sich das Negative auch künstlich herbei reden, wenn man die Vergangenheit dafür schier ausblendet

basix
2018-01-08, 13:16:12
Echt unglaublich, dass NVIDIA tatsächlich Zeit braucht für neue Produkte und nicht mindestens zwei Tage nach dem Launch von Pascal direkt Ampere hinterher raus haut ;D

Zwei Punkte:

"Zwei Tage" ist gut. Zwei Jahre ist eigentlich in PC-Hardware Dimensionen eine wahnsinnige Zeitspanne zwischen Pascal und Ampere. Ich sitze immer noch auf einer 980 Ti ;)
Bitte richtige Personen zitieren ;)

Rancor
2018-01-08, 13:22:35
Wir bleiben mal beim Geforce, auch wenn man dazu die ollen Kamellen rauskramen muss

11 November 2000



Jetzt rechne noch die Inflation und allgemeine Rohstoffkostensteigerung,neben den immer teureren Strukturverkleinerungen bei TSMC u Co

Was hat sich also signifikant verändert, in den letzten 17 Jahren?

Außer das sie neben der Geforce Sparte noch ein Titan Label kreiert haben, für die Nerds unter den Enthusiasten ,hat sich rein gar nix verändert am Preisgefüge

Die Ti ehemals Geforce Ultra ist weiterhin bei 600- 700 Euro kaufbar gewesen, oder damals für umgerechnet 1500 DM

Man kann sich das Negative auch künstlich herbei reden, wenn man die Vergangenheit dafür schier ausblendet

Man könnte auch einfach mal seine grüne Brille abnehmen und nicht alles rosa rot malen. Finde dich damit ab, das du bei Ampere mehr Euronen auf den Tisch legen musst. Die 2070 wird sicher an die 600€ kosten, die 2080 ggd 1000€. Angebot und Nachfrage bestimmen nunmal den Preis und mangels Konkurrenz wird der Preis eben steigen. Das sind einfache marktwirtschaftliche Zusammenhänge.

Ich gebe auch in keinster Weise NV die Schuld dafür. Wäre ich Huang würde ich es genauso machen,solange die Leute es kaufen. ( und das werden Sie )
Mir geht es eher darum, das hier immer der AMD Untergang im GPU Bereich gefeiert wird. Ich verstehe es nicht.

Platos
2018-01-08, 13:22:37
Und wie lange hat AMD für Vega gebraucht Sagen wir mal für die Custom Designs? Die sind ja noch nciht mal jetzt da, also 2 Jahre kommen sehr gut hin. Oder mehr als 1.5 Jahre für die Referenz-Modelle. Und dann haben sie noch nicht mal sehr gute Hardware abgeliefert, sondern eher eine Bastler-Kiste.

Aber Nvidia ist jetzt der Böse und AMD der gute? Dazu kommt auch noch, dass eine Preisdiskussion wirklich etwas lächerlich ist, wenn man sich die Preise bei Vega so anschaut.

Platos
2018-01-08, 13:24:23
Man könnte auch einfach mal seine grüne Brille abnehmen und nicht alles rosa rot malen. Finde dich damit ab, das du bei Ampere mehr Euronen auf den Tisch legen musst. Die 2070 wird sicher an die 600€ kosten. Die 2080 ggf. sogar 1000€.
Ich gebe auch in keinster Weise NV die Schuld dafür. Wäre ich Huang würde ich es genauso machen.
Mir geht es eher darum, das hier immer der AMD Untergang im GPU Bereich gefeiert wird. Ich verstehe es nicht.

Es wird doch eher darüber gemeckert, wann AMD im Grafikkarten-Bereich endlich mal aus dem Tiefschlaf erwacht. Der Rest sind einzelne Spinnner.

Troyan
2018-01-08, 13:26:08
Die Kosten für die Fertigung steigen. Die Gewinne durch die Fertigung reduzieren sich. Verbesserungen kommen rein durch Anpassung der Architektur. Das wiederum kostet deutlich mehr Geld. Man muss sich nur ansehen, dass bei den GPUs um %-Pünktchen gekämpft wird. Das ist nicht mehr wie früher, wo ein reiner Shrink den Stromverbrauch halbiert (G70 -> G71).

Davon abgesehen ist es schon komisch, dass nVidia kritisiert wird. AMD verkauft bis Polaris das selbe Zeug immer wieder und erst mit Vega konnte man Maxwell aus Technologiesicht überwinden (oder gleichziehen). Und Maxwell kam September 2014 auf den Markt...

scully1234
2018-01-08, 13:27:01
Man könnte auch einfach mal seine grüne Brille abnehmen und nicht alles rosa rot malen. Finde dich damit ab, das du bei Ampere mehr Euronen auf den Tisch legen musst. Die 2070 wird sicher an die 600€ kosten. Die 2080 ggf. sogar 1000€.


Und das wird eben nicht passieren! Find dich damit ab das es die letzten 17 Jahre schon so war(den Link hatte ich dir geliefert).

Wenn dann nur auf Seiten der Händler wegen Verknappung der Karten, die sich am Miningboom versuchen gesund zustoßen.

Die 2070 wird sicher an die 600€ kosten. Selbst wenn NV den UVP auf 500€ setzt

Äußere Einflüsse kann der Konzern aber nicht beeinflussen, wenn Preistreiberei wegen Mining stattfindet, dann ist das eine andere Baustelle

Die Erfahrung zeigt klar das der UVP auch gehalten wird ,oder gar unterschritten,wenn genug Ware vorhanden ist

Bucklew
2018-01-08, 13:27:06
Zwei Tage" ist gut. Zwei Jahre ist eigentlich in PC-Hardware Dimensionen eine wahnsinnige Zeitspanne zwischen Pascal und Ampere. Ich sitze immer noch auf einer 980 Ti ;)
Ich auch auf einer 980. Die Karten sind eben so gut, da fällt es schwer, eine Neuanschaffung zu rechtfertigen.

In den zwei Jahren seit Pascal hat NVIDIA eine komplette Chipserie von 610mm² Fläche bis hinunter auf 70mm² herausgebracht. Wüsste nicht, was es da zu meckern gibt. Die Konkurrenz hat gerade mal einen Bruchteil dieser einen Serie abgedeckt.

Und nun kommt eben die neue Serie im Frühjahr. Was sollte es da zu meckern geben? Ich verstehe es wirklich nicht. Der Abstand zwischen 400er und 600er Serie war ebenfalls exakt zwei Jahre. 600er zu 900er war sogar mehr als zwei Jahre.

Mir geht es eher darum, das hier immer der AMD Untergang im GPU Bereich gefeiert wird. Ich verstehe es nicht.
Wo wird das denn bitte "gefeiert"? Es ist wenn schon reine Schadenfreude, wenn man (wie vor dem Pascal/Polaris-Launch) von der roten Fraktion die ganze Zeit völlig fernab der Indizienlage abgewatscht wird, nur weil man nicht an den Wunderchip Polaris oder Vega glaubt.

Rancor
2018-01-08, 13:29:41
Und das wird eben nicht passieren!!! Wenn dann nur auf Seiten der Händler wegen Verknappung der Karten, die sich am Miningboom gesund stoßen

Es ist doch völlig egal wer für die Preissteigerung verantwortlich ist. Wenn Ampere im Mining schneller als VEGA wird und 50% schneller als Pascal im Gaming, dann halleluja...
Ampere wird teurer werden, das ist absehbar.


Wo wird das denn bitte "gefeiert"? Es ist wenn schon reine Schadenfreude, wenn man (wie vor dem Pascal/Polaris-Launch) von der roten Fraktion die ganze Zeit völlig fernab der Indizienlage abgewatscht wird, nur weil man nicht an den Wunderchip Polaris oder Vega glaubt.

Es ist einfach absurd Schadenfreude für eine Sache zu empfinden, die einem im Endeffekt selber trifft.

Bucklew
2018-01-08, 13:33:08
Es ist doch völlig egal wer für die Preissteigerung verantwortlich ist. Wenn Ampere im Mining schneller als VEGA wird und 50% schneller als Pascal im Gaming, dann halleluja...
NVIDIA wird aufpassen, dass das mit dem Mining nicht passiert. Anders als AMD, die ja auch sehr gerne spezielle Treiber für die Miner veröffentlichen.

Es ist einfach absurd Schadenfreude für eine Sache zu empfinden, die einem im Endeffekt selber trifft.
Lies doch bitte nochmal, was ich schrieb. Du hast es offensichtlich nicht verstanden.

Timbaloo
2018-01-08, 13:33:47
Kinners, hier sollte es um Technik gehen, nicht darum wer das längere Sandkastenspielzeug hat :rolleyes:

Rancor
2018-01-08, 13:36:42
NVIDIA wird aufpassen, dass das mit dem Mining nicht passiert. Anders als AMD, die ja auch sehr gerne spezielle Treiber für die Miner veröffentlichen.

Und wie soll NV das machen ? Meinst du sie schreiben vor, wer was kaufen darf? Ich glaube das ist dem Huang völlig latte, solange seine Produkte verkauft werden


Lies doch bitte nochmal, was ich schrieb. Du hast es offensichtlich nicht verstanden.
Habe ich. Du empfindest Schadenfreude darüber das VEGA/Polaris schlechter als Pascal ist, weil dir AMD Fans gesagt haben, das das nicht so sein wird

Ich verstehe es trotzdem nicht. Ich bin eher ernüchtert und enttäuscht und hoffe das AMD den richtigen Weg noch findet ( so wie sie es mit Ryzen getan haben ), anstatt den: "Ich habe es doch gesagt" raushängen zu lassen.
Das sage ich als langjähriger und aktueller Nvidia Kunde.

Kinners, hier sollte es um Technik gehen, nicht darum wer das längere Sandkastenspielzeug hat :rolleyes:

Es ist der Speku Thread... da kann man auch über möglich Preise spekulieren.

scully1234
2018-01-08, 13:44:03
Es ist doch völlig egal wer für die Preissteigerung verantwortlich ist. Wenn Ampere im Mining schneller als VEGA wird und 50% schneller als Pascal im Gaming, dann halleluja...
Ampere wird teurer werden, das ist absehbar.


Irgendwann hat der Miningboom sein Endstadium erreicht, und dann platzt die Blase schneller als im Imobilienbereich damals

Auch wenn immer gesagt wird die Verschlüsselung wäre nicht zu knacken...

Ich hab mit diesen Umweltverschmutzern auch kein Mitleid dann, nur weil die eigene Raffgier sämtliche ökologischen Bedenken über Board wirft.

Aber um das nochmal auf den Punkt zu bringen, klammert man diese Spinner aus, dann ist u bleibt UVP die Linie die gehalten wird

Rancor
2018-01-08, 13:45:45
Irgendwann hat der Miningboom sein Endstadium erreicht, und dann platzt die Blase schneller als im Imobilienbereich damals

Auch wenn immer gesagt wird die Verschlüsselung wäre nicht zu knacken...

Ich hab mit diesen Umweltverschmutzern auch kein Mitleid dann, nur weil die eigene Raffgier sämtliche ökologischen Bedenken über Board wirft.

Aber um das nochmal auf den Punkt zu bringen, klammert man diese Spinner aus, dann ist u bleibt UVP die Linie die gehalten wird

Wurde sie bei Pascal auch nicht und da war noch nix mit Mining Boom, die 1070 FE lag bei knapp 500€ ( UVP 379$ ) zu Release. Aber meinetwegen glaube eben daran. Du wirst es ja sehen.

Bucklew
2018-01-08, 13:50:26
Und wie soll NV das machen ? Meinst du sie schreiben vor, wer was kaufen darf? Ich glaube das ist dem Huang völlig latte, solange seine Produkte verkauft werden
NVIDIA hatte noch nie Produkte mit übertriebener Shaderleistung, wie bei AMD. Da ist schon mal der erste Punkt.

Daneben kennt NVIDIA ihre Zielgruppe und für NVIDIA ist es viel sinnvoller, ein gutes Gaming-Produkt 50US$ mehr im Channel verlangen zu können, als eine tolle Miningkarte zu haben, bei denen die Händlerpreise ins Unermessliche schießen - wie bei AMD eben.

Wir werden von NVIDIA sicherlich nie einen Blockchain-Treiber sehen. Die wissen schon, warum.

Habe ich. Du empfindest Schadenfreude darüber das VEGA/Polaris schlechter als Pascal ist, weil dir AMD Fans gesagt haben, das das nicht so sein wird
Ich sag ja: Du hast es nicht verstanden. Niemand freut sich darüber, dass AMD so schlecht ist. Man freut sich tatsächlich darüber, dass man während der Vor-Präsentationsphase (so wie jetzt) Recht hatte mit seinen Vorhersagen, die einem die AMD-Fans ständig als angebliche FUD um die Ohren gehauen haben. Selbst als jedem neutralen Beobachter klar war, dass Vega nur GTX1080 sein wird, wurde jeder, der das mal kurz angedeutet hat, in den entsprechenden Threads gnadenlos fertig gemacht. Lies es gern mal nach.

Ich verstehe es trotzdem nicht. Ich bin eher ernüchtert und enttäuscht und hoffe das AMD den richtigen Weg noch findet ( so wie sie es mit Ryzen getan haben ), anstatt den: "Ich habe es doch gesagt" raushängen zu lassen.
Das sage ich als langjähriger und aktueller Nvidia Kunde.
Dass man den AMD-Fans hinterher die lange Nase zeigt hat wenig mit der Sicht auf die Situation zu tun.

Wurde sie bei Pascal auch nicht und da war noch nix mit Mining Boom. Aber meinetwegen glaube eben daran. Du wirst es ja sehen.
Nochmal: Wir reden von 50US$. Von 329US$ auf 370US$. Und du behauptest was von 600€. Soll das Trolling sein? Dann sag es wenigstens, kann man sich die Diskussion mit dir sparen, wenn es dir eh nicht um die Diskussion geht.

Rancor
2018-01-08, 13:53:22
Nochmal: Wir reden von 50US$. Von 329US$ auf 370US$. Und du behauptest was von 600€. Soll das Trolling sein? Dann sag es wenigstens, kann man sich die Diskussion mit dir sparen, wenn es dir eh nicht um die Diskussion geht.

Der UVP der 1070 FE lag bei 379$ + VAT. Hierzulande kostet das Ding Anfang knappe 500€ inkl.

Ich gehe von + 100$ auf den UVP aus, seitens NV, wenn die 2070 die 1080TI knackt ( und davon kann man ausgehen ) Also 479$ für die 1070. Dazu die spezielle Situation und man ist bei 600€ inkl. natürlich.

Bucklew
2018-01-08, 13:57:38
Ich gehe von + 100$ auf den UVP aus, seitens NV, wenn die 2070 die 1080TI knackt. Also 479$ für die 1070. Dazu die spezielle Sitaution und man ist bei 600€ inkl. natürlich.
Gut, halte ich für Quatsch und bin dann gern in ein paar Monaten schadenfroh ;)

Andererseits muss man mal klar sagen, dass 1080Ti-Leitung für 600€ verdammt günstig wäre. Schau mal nach, was ne Vega-Karte kostet und die verballert dann wahrscheinlich bei der gleichen Leistung mehr als das doppelte an Energie. Rein auf das Marktumfeld bezogen wäre das ein Schnapper. Ist leider so und ist maximal NVIDIAs Schuld, dass das Produkt so gut ist.

Wird aber so nicht kommen. Es gibt keine Notwendigkeit für eine 2070 600€ zu verlangen. Damit ruiniert man sich den Umsatz, weil einfach nicht genug Käufer da sind.

Rancor
2018-01-08, 14:01:37
Ich halte es für sehr wahrscheinlich. Wir werden es sehen. Vllt. gibts ja während der CES schon UVPs ^^:D

Triniter
2018-01-08, 14:09:39
Gut, halte ich für Quatsch und bin dann gern in ein paar Monaten schadenfroh ;)

Andererseits muss man mal klar sagen, dass 1080Ti-Leitung für 600€ verdammt günstig wäre. Schau mal nach, was ne Vega-Karte kostet und die verballert dann wahrscheinlich bei der gleichen Leistung mehr als das doppelte an Energie. Rein auf das Marktumfeld bezogen wäre das ein Schnapper. Ist leider so und ist maximal NVIDIAs Schuld, dass das Produkt so gut ist.

Wird aber so nicht kommen. Es gibt keine Notwendigkeit für eine 2070 600€ zu verlangen. Damit ruiniert man sich den Umsatz, weil einfach nicht genug Käufer da sind.
Ohne jetzt wirklich tief in den Spekulationen drin zu sein würde ich auch davon ausgehen, dass man die neue xx70 eher in der Leistung etwas nach unten korrigiert als das man den UVP zu weit nach oben setzt. Auf der anderen Seite war xx70 und xx80 nie wirklich weit voneinander entfernt. Ich bin aber auf alle Fälle mal gespannt wo wir am Ende wirklich landen werden, sowohl von der Leistung bei den beiden Modellen als auch vom UVP bzw. Straßenpreis.

=Floi=
2018-01-08, 16:33:05
Warum man sich über den Untergang der Grafiksparte vom AMD so freut, erschließt sich mir einfach nicht.

ne schelle für den hype und die dreistigkeit welche sie da abgezogen haben ist aber schon nötig. :rolleyes:
Viel bla bla, viel neue technik und nix funktioniert richtig und der treiber war trotz gut 1 jahr entwicklungsmöglichkeit zum start auch zum vergessen.

So, nun vom gehate zum spekulativen. Vega für instinct dürfte nicht nur die marge erheblich anheben, sondern auch die treiberentwicklung immens entlasten. Das dürfte über die lebenszeit viel geld sparen.
Auf der anderen seite verteilt man mit einer breiten basis auch alle kosten und kann mehrfach geld abschöpfen, sofern das produkt profitabel ist.


Die zeit der günstigen karten dürfte auch bei NV vorbei sein. Selbst mit konkurrenz steigen die kosten einfach extrem an.

=Floi=
2018-01-08, 16:37:02
Echt unglaublich, dass NVIDIA tatsächlich Zeit braucht für neue Produkte und nicht mindestens zwei Tage nach dem Launch von Pascal direkt Ampere hinterher raus haut ;D


ich hätte aber gerne mal ein statement von NV zu den refreshes. sterben die aus oder kommen die bei bedarf wieder?
Ohne refresh und bei 2 jahren lebensdauer kann man dann auch 3 monate früher etwas teurer kaufen. Bei einem refresh lohnt es sich eher zu warten.

Bucklew
2018-01-08, 16:44:27
ich hätte aber gerne mal ein statement von NV zu den refreshes. sterben die aus oder kommen die bei bedarf wieder?
Ohne refresh und bei 2 jahren lebensdauer kann man dann auch 3 monate früher etwas teurer kaufen. Bei einem refresh lohnt es sich eher zu warten.
Ich schätze man hat nach dem Polaris-Launch gesehen, dass ein Refresh unnötig ist. Also hat man die R&D Ressourcen auf Volta/Ampere/usw. verlagert.

Mancko
2018-01-08, 20:09:33
Ampere werden wir also definitiv im H1 als HardLaunch sehen.

Nachdem AMD für 2018 keinerlei Gaming-Produkte mehr vorstellen wird, hat NVIDIA 12-18 Monate komplett freie Bahn ohne jede Konkurrenz. Pascal ist ja heute schon nahezu konkurrenzlos. Da knallen gerade die Sektkorken :D

Ich dachte AMD wollte Vega noch shrinken? Kam doch heute irgendwo in den News. Das NAVI dieses Jahr nix mehr wird war eh klar. Haben auch nur die allergrößten Optimisten daran geglaubt. Vega als Shrink wird natürlich nicht so viel bringen da die Architekturnachteile ja im Grunde bleiben, es sei denn AMD baut da noch was um und macht mehr Anpassungen als nur einen Shrink.

Thunder99
2018-01-08, 20:23:22
Ampere H1? I don't think so ;)

Bleiben wir mal realistisch und sagen H2. Sonst wäre ja die 1070 Ti ja nur sehr kurz am Markt.

scully1234
2018-01-08, 20:26:31
1070ti ist Resteverwertung, nicht mehr nicht weniger

Der Prozess wird besser laufen so das man nicht mehr soviel teildefekte Chips hat die in die alte 1070er Range abrutschen


Die spielt für einen Launch keine strategische Rolle

Mortalvision
2018-01-08, 20:34:05
Leutz, ich glaube nächstes Jahr, also 2019 werden wir eine Intel GPU sehen, mit analogen Tensor-Cores für AI. Wenn hier eine Firma auf den Putz hauen kann, und das mit richtig viel Kohle im Säckel, dann Intel. Die werden nvidia bestimmt nicht das Geschäftsfeld autonomes Fahren überlassen wollen, notfalls als ASIC und nicht als kompatible x86 GPU.

crux2005
2018-01-08, 20:36:40
Leutz, ich glaube nächstes Jahr, also 2019 werden wir eine Intel GPU sehen, mit analogen Tensor-Cores für AI. Wenn hier eine Firma auf den Putz hauen kann, und das mit richtig viel Kohle im Säckel, dann Intel. Die werden nvidia bestimmt nicht das Geschäftsfeld autonomes Fahren überlassen wollen, notfalls als ASIC und nicht als kompatible x86 GPU.

Bezug zum Thema?

scully1234
2018-01-08, 20:50:34
Leutz, ich glaube nächstes Jahr, also 2019 werden wir eine Intel GPU sehen, mit analogen Tensor-Cores für AI. Wenn hier eine Firma auf den Putz hauen kann, und das mit richtig viel Kohle im Säckel, dann Intel. Die werden nvidia bestimmt nicht das Geschäftsfeld autonomes Fahren überlassen wollen, notfalls als ASIC und nicht als kompatible x86 GPU.

Na mit Xeon PHI ging das schon mal nach hinten los. Jetzt müssen sie das Know How von AMD u Koduri ,erstmal in ein verfügbares Produkt umsetzen, und das entwickelt sich nicht mal schnell in 2 Jahren

Sicher unterschätzen sollte man Intel da nicht, aber für Ampere und den Folgechip spielt das erstmal keine Rolle, was Intel da zusammenkocht

Architektonisch werden sie wohl auf Vega aufbauend, was neues konstruieren (falls sie die Patente verwenden dürfen,was auch noch nicht sicher ist, nach so einigen drohenden Statements von AMD), und der Chip war für Nvidia keine ernsthafte Gefahr, also muss man schon ganz schön Gas geben bei Intel

Thunder99
2018-01-08, 21:29:26
Leutz, ich glaube nächstes Jahr, also 2019 werden wir eine Intel GPU sehen, mit analogen Tensor-Cores für AI. Wenn hier eine Firma auf den Putz hauen kann, und das mit richtig viel Kohle im Säckel, dann Intel. Die werden nvidia bestimmt nicht das Geschäftsfeld autonomes Fahren überlassen wollen, notfalls als ASIC und nicht als kompatible x86 GPU.
Nur mit Geld machst du aber keine gute GPU, siehe Intels letztes Projekt Larrabe

horn 12
2018-01-08, 21:47:15
Nun GTX 2070 wird wohl zwischen GTX 1080 und 1080 TI zu liegen kommen mit 499 bis 569 Euro, sprich Ähnlich der RX Vega 64
GTX 2080 dann 15% über einer GTX 1080TI für 699 bis 749 Euro nimm ich mal stark an, NUR reine Spekultion meinerseits.

BlacKi
2018-01-08, 22:31:53
Nun GTX 2070 wird wohl zwischen GTX 1080 und 1080 TI zu liegen kommen mit 499 bis 569 Euro, sprich Ähnlich der RX Vega 64
GTX 2080 dann 15% über einer GTX 1080TI für 699 bis 749 Euro nimm ich mal stark an, NUR reine Spekultion meinerseits.
endlich mal ne speku von dir die ich so absegnen würde^^

Ampere H1? I don't think so ;)

Bleiben wir mal realistisch und sagen H2. Sonst wäre ja die 1070 Ti ja nur sehr kurz am Markt.

insider infos sagen produktionsbeginn mitte februar, vorstellung ende märz, was erfahrungsgemäßg bedeutet das man die 4 wochen später lagerhaltig kaufen kann(zu mondpreisen ca. 800€ die ersten 1-2 wochen).

scully1234
2018-01-08, 22:35:52
vielleicht sind die Mondpreise anfänglich sogar besser als die Miningpreise danach:D


Ich hoffe ja noch das Spectre u Co der Miningbranche die unknackbaren Keys ausließt, das wäre doch mal was positives für die normale Gesellschaft

Dann ist endlich Ruhe mit dem ökologischen Wahnsinn

Platos
2018-01-09, 03:19:00
Gut, halte ich für Quatsch und bin dann gern in ein paar Monaten schadenfroh ;)

Andererseits muss man mal klar sagen, dass 1080Ti-Leitung für 600€ verdammt günstig wäre. Schau mal nach, was ne Vega-Karte kostet und die verballert dann wahrscheinlich bei der gleichen Leistung mehr als das doppelte an Energie. Rein auf das Marktumfeld bezogen wäre das ein Schnapper. Ist leider so und ist maximal NVIDIAs Schuld, dass das Produkt so gut ist.

Wird aber so nicht kommen. Es gibt keine Notwendigkeit für eine 2070 600€ zu verlangen. Damit ruiniert man sich den Umsatz, weil einfach nicht genug Käufer da sind.

Das wäre mir persönlich immer noch zu wenig Mehrleistung. Quasi 1080 Preis und 1080Ti Leistung. Also plus 25-35% (je nach Spiel). 1080Ti Perfomance für den gleichen Preis oder eben 10% mehr als 1080Ti und 10% mehr Preis wäre dann schon das mindeste, mit was ich mich zufrieden geben würde.

Na mit Xeon PHI ging das schon mal nach hinten los. Jetzt müssen sie das Know How von AMD u Koduri ,erstmal in ein verfügbares Produkt umsetzen, und das entwickelt sich nicht mal schnell in 2 Jahren

Sicher unterschätzen sollte man Intel da nicht, aber für Ampere und den Folgechip spielt das erstmal keine Rolle, was Intel da zusammenkocht

Architektonisch werden sie wohl auf Vega aufbauend, was neues konstruieren (falls sie die Patente verwenden dürfen,was auch noch nicht sicher ist, nach so einigen drohenden Statements von AMD), und der Chip war für Nvidia keine ernsthafte Gefahr, also muss man schon ganz schön Gas geben bei Intel

Welche Statements ? Könntest du eins verlinken?

scully1234
2018-01-09, 05:33:03
Welche Statements ? Könntest du eins verlinken?


Gegenüber Fortune äußerte sich ein nicht näher genannter AMD-Sprecher etwas schärfer: "Wir haben branchenführende IP-Grafiklösungen und werden diese, wenn nötig, mit Nachdruck verteidigen." Fortune zufolge könnte die Aussage auf anstehende Klagen hindeuten. (https://www.heise.de/newsticker/meldung/Uebertritt-von-AMD-Chefarchitekt-Koduri-zu-Intel-Nvidia-Chef-aeussert-sich-AMD-droht-3887316.html)

zum Weggang von Koduri der Presse mitgeteilt

Thunder99
2018-01-09, 11:38:28
Ok,
Dann hoffe ich Mal für das Gewissen, dass der Kauf der 1080Ti nicht umsonst war :freak:

Platos
2018-01-09, 11:54:23
zum Weggang von Koduri der Presse mitgeteilt

Danke

fp69
2018-01-09, 13:15:38
Für den Speku-Thread hole ich meine Glaskugel raus:

Die 2060 sehe ich sowohl beim Preis als auch der Leistung auf dem Niveau der 1070.
Die anderen Karten entsprechend...
Die Entwicklung des Euro wird auch interessant sein.

Platos
2018-01-09, 15:27:30
Für den Speku-Thread hole ich meine Glaskugel raus:

Die 2060 sehe ich sowohl beim Preis als auch der Leistung auf dem Niveau der 1070.
Die anderen Karten entsprechend...
Die Entwicklung des Euro wird auch interessant sein.

Lol, du willst also sagen Preis/Leistung 0% (!!) Fortschritt ?:biggrin:

tm0975
2018-01-09, 15:43:09
Lol, du willst also sagen Preis/Leistung 0% (!!) Fortschritt ?:biggrin:

geforce halt ;D

da amd nach wie vor nicht in ausreichenden stückzahlen vega liefern kann, wird das wohl nicht besser werden.

fp69
2018-01-09, 15:46:38
@Platos
Das meine ich tatsächlich, denn die Kosten des kleineren F-prozesses sind vermutlich höher als
die, die es für die Fertigung der aktuellen Gen. benötigte. Erst der Refresh könnte dann eine 3060
bei gleichem Preis einer 2060 eine schnellere Karte hervorbringen.

Der Fortschritt wäre zumindest der, dass die Effizienz, also die Leistung pro Watt, steigt.
Und die 2080 dürfte zudem die neue schnellste Graka vorübergehend sein.

|MatMan|
2018-01-09, 17:02:49
Der für Ampere spekulierte 12nm Prozess ist nur ein etwas aufgebohrter 16nm Prozess, also inzwischen bewährte Technik. D.h. auch größere GPUs lassen sich mit hohen Stückzahlen relativ günstig herstellen. Wenn nVidia will, können sie bestimmt dieselben Preispunkte bedienen wie zum Pascal Launch, mit ähnlichen Margen. Erst der nachfolgende 7nm Prozess wird wieder signifikant teurer.

Platos
2018-01-09, 17:04:16
@Platos
Das meine ich tatsächlich, denn die Kosten des kleineren F-prozesses sind vermutlich höher als
die, die es für die Fertigung der aktuellen Gen. benötigte. Erst der Refresh könnte dann eine 3060
bei gleichem Preis einer 2060 eine schnellere Karte hervorbringen.

Der Fortschritt wäre zumindest der, dass die Effizienz, also die Leistung pro Watt, steigt.
Und die 2080 dürfte zudem die neue schnellste Graka vorübergehend sein.

Das glaubst du doch selbst nicht, nicht mal in deinen Träumen ;)

Thunder99
2018-01-09, 17:25:05
We will see

fp69
2018-01-09, 22:31:46
Wenn |MatMan| Recht hat, war ich einer Irrung erlegen. Ich ging von 7nm aus, was auch immer das aus Sicht von Nv heißen mag.
Meine Aussage gilt dann selbstredend für die übernächste und in abgeschwächter Form für die kommende Gen..

@Platos

Übe dich in Weisheit und bleibe seriös.
Dein Unterton ist unangebracht.

Rampage 2
2018-01-09, 23:13:56
Für den Speku-Thread hole ich meine Glaskugel raus:

Die 2060 sehe ich sowohl beim Preis als auch der Leistung auf dem Niveau der 1070.
Die anderen Karten entsprechend...
Die Entwicklung des Euro wird auch interessant sein.

2060: ~ 1080-Leistung (evtl. auch 5-10% langsamer)

2070: 1080Ti-Leistung (evtl. ein paar Prozent schneller oder langsamer)

2080: TXp (Vollausbau) + 5-20% mehr Leistung (Ich gehe von 10-15% ggü. der TXp aus)

R2

Platos
2018-01-09, 23:27:44
@Platos

Übe dich in Weisheit und bleibe seriös.
Dein Unterton ist unangebracht.

Hast du wohl recht, war unangebracht. Glaube aber nicht daran, dass das so herauskommt, wie du es voraussagst.

scully1234
2018-01-10, 02:52:29
Wenn |MatMan| Recht hat, war ich einer Irrung erlegen. Ich ging von 7nm aus, was auch immer das aus Sicht von Nv heißen mag.


Die sind auch nicht vollends vom Tisch als Option, jedenfalls für die hochpreisigen Chips der 102 Riege

AMD hat angekündigt aggressiv noch dieses Jahr auf den 7nm Prozess von Glofo zu wechseln

Sieht Nvidia darin eine Gefahr für ihre Marktanteile,und zieht alle Register , könnte das mit dem Titan Brand, auch bei TSMC geschehen

Die sowieso derzeit am weitesten fortgeschritten sind ,mit der Produktion erster Chips in der Strukturgröße

Palpatin
2018-01-10, 07:51:52
Ich erwarte auch eine signifikate Preiserhöhung für die neue Generation, allerdings nicht aufgrund des neuen Prozesses (optimierter 14nm) oder Profitgier sondern schlicht und einfach weil sich die Speicherpreise seit dem Release der 1080 fast verdreifacht haben. Das wird bei der nächsten Gen voll auf den von NV empfohlenen Preis durchschlagen.

fp69
2018-01-10, 09:13:14
@Rampage 2

Dein "Angebot" nehme ich sofort an. Gefällt, sofern der Preis stimmen würde.

@Platos

Alles fein.
Voraussagen möchte ich hier aber nichts. Es ist eher meine Vermutung/Befürchtung.

@scully1234 und Palpatin

Spannend wird das Jahr definitiv. Hoffentlich werden wir nicht zu hart gebeutelt.

BlacKi
2018-01-10, 10:53:19
nvidia kauft keinen speicher auf der straße, deren preise sind vertraglich geregelt. nur weil die preise auf der straße anziehen, heißt das nicht das nvidia ebenfalls draufzahlen muss.

ich kann die skepsis an der speicherverdoppelung nicht nachvollziehen, als wäre das etwas neues. jede chip gen hätte eurer meinung nach massiv teurer werden und beim speicher sparen müssen.

AffenJack
2018-01-10, 11:04:03
nvidia kauft keinen speicher auf der straße, deren preise sind vertraglich geregelt. nur weil die preise auf der straße anziehen, heißt das nicht das nvidia ebenfalls draufzahlen muss.

ich kann die skepsis an der speicherverdoppelung nicht nachvollziehen, als wäre das etwas neues. jede chip gen hätte eurer meinung nach massiv teurer werden und beim speicher sparen müssen.

Die Preise diktiert immernoch der Markt. Nvidia kann da machen was sie wollen, wenn die Preise hochgehen zahlen auch sie mehr. Dementsprechend bin ich sicher wir sehen keine Verdopplung oder nur für einen exorbitanten Preis. Vielleicht wirst ja die Auswahl haben 599$ mit 8GB oder 699$ mit 16 GB.

ShinyMcShine
2018-01-10, 11:11:35
2060: ~ 1080-Leistung (evtl. auch 5-10% langsamer)

2070: 1080Ti-Leistung (evtl. ein paar Prozent schneller oder langsamer)

2080: TXp (Vollausbau) + 5-20% mehr Leistung (Ich gehe von 10-15% ggü. der TXp aus)

R2
Das ist doch viel zu optimistisch. Wenn man von AMD keinen Druck spürt, dann wird NV wohl kaum solche Leistungssprünge anbieten...

Bucklew
2018-01-10, 11:30:40
Das ist doch viel zu optimistisch. Wenn man von AMD keinen Druck spürt, dann wird NV wohl kaum solche Leistungssprünge anbieten...
Doch, weil man nur damit die Besitzer von Maxwell/Pascal-Karten zum Umstieg bewegen wird.

BlacKi
2018-01-10, 11:33:42
Die Preise diktiert immernoch der Markt. Nvidia kann da machen was sie wollen, wenn die Preise hochgehen zahlen auch sie mehr. Dementsprechend bin ich sicher wir sehen keine Verdopplung oder nur für einen exorbitanten Preis. Vielleicht wirst ja die Auswahl haben 599$ mit 8GB oder 699$ mit 16 GB.
nvidia kauft beim hersteller, nicht auf dem markt. die preise sind im vorfeld fix. die brauchen sicherheit im preisgefüge. ich glaube das gddr5x teurer war als gddr5, aber auch das gddr6 deutlich billiger für nvidia ist als es gddr5x war, zumindest pro gb.

AffenJack
2018-01-10, 11:44:50
Doch, weil man nur damit die Besitzer von Maxwell/Pascal-Karten zum Umstieg bewegen wird.

Maxwell Besitzer wird man am ehesten ansprechen, aber es geht eh um die technische Machbarkeit. Das hat einmal mit Maxwell geklappt, aber zu glauben Nvidia schafft solche Sprünge jedes Mal ist einfach zu optimistisch. 40% von Chip zu Chip wäre schon ne gute Leistung und liegt im Bereich des möglichen, aber an 60% glaube ich nicht. Ich rede hierbei auch nicht von Cherrypicking, sondern vom Durchschnitt. In DX12 Spielen mit FP16... könnte ich mir 60% dann auch vorstellen, aber eben nicht in den Standardparcours. Die Leistung der Titan V ist ja auch sehr gemischt und im Durchschnitt nicht so toll.

nvidia kauft beim hersteller, nicht auf dem markt. die preise sind im vorfeld fix. die brauchen sicherheit im preisgefüge. ich glaube das gddr5x teurer war als gddr5, aber auch das gddr6 deutlich billiger für nvidia ist, als es gddr5x war. zumindest pro gb.

Jo im vorfeld, für vielleicht 6 Monate. In einem so volatilen Markt wird dir niemand viel längere Preisgarantien geben. Hilft nur nicht, wenn die Preise schon über eine längere Zeit steigen.

robbitop
2018-01-10, 11:52:08
Ggf verdoppelt man den Speicher auch nicht sondern Faktor 1.5. Je nach dem über das SI und/oder über Chips mit 1.5x Kapazität (wenn es das geben sollte).

GA106 - 4gb/8gb
GA104 - 12 gb
GA102 - 16 gb

Möglich ist vieles.

RLZ
2018-01-10, 13:13:27
Doch, weil man nur damit die Besitzer von Maxwell/Pascal-Karten zum Umstieg bewegen wird.
Die Überzeugt man aber doch nicht, durch ein paar Prozent beim Benchmarkbalken mehr. Mir ist mein Maxwell nun in der Praxis zu langsam und nur deswegen werde ich bei Ampere wieder zugreifen... Alternativen gibt es ja keine.

TwoBeers
2018-01-10, 13:35:19
Mir ist mein Maxwell nun in der Praxis zu langsam und nur deswegen werde ich bei Ampere wieder zugreifen... Alternativen gibt es ja keine.

+1

Also fast, noch is mir die 970 nicht zu langsam, aber 2018 wird es sicher so weit sein.
Ich hatte auf AMD gehofft, wurde enttäuscht und hoffe nun auf nVidia. ;)

Ich habe aber auch keine Lust 600,- € für eine neue Grafikkarte auszugeben. Ich hoffe da kommt was gescheites im 400,- € Bereich .. und auch lieferbar .. arrrgh Miner!!!

@scully1234 hat da auch einen guten Einwand gebracht .. Mondpreise am Anfang oder Minerpreise danach, man weiß gar nicht was schlimmer ist. ;(

Bucklew
2018-01-10, 13:47:42
Die Überzeugt man aber doch nicht, durch ein paar Prozent beim Benchmarkbalken mehr.
Warum nicht? Je höher die Mehrleistung zum Preispunkt X, desto größer das Interesse, desto höher der Umsatz.

Platos
2018-01-10, 15:05:30
Das ist doch viel zu optimistisch. Wenn man von AMD keinen Druck spürt, dann wird NV wohl kaum solche Leistungssprünge anbieten...

Man ist auch immer dein eigener Konkurrent. Selbst wenn man keine andere Konkurrenz hat, wird etwas leisten müssen, ansonsten kann man Kunden nicht zum Umstieg bewegen. (Siehe auch Intel; die meisten Steigen nicht vor 4 Jahren um).

Man muss also m.M.n mindestens 30% mehr Leistung pro Preis bringen. Vlt. gibts auch max. 10% mehr Preis aber dafür 40% mehr Leistung oder ähnliches.





Ggf verdoppelt man den Speicher auch nicht sondern Faktor 1.5. Je nach dem über das SI und/oder über Chips mit 1.5x Kapazität (wenn es das geben sollte).

GA106 - 4gb/8gb
GA104 - 12 gb
GA102 - 16 gb

Möglich ist vieles.

Sieht realistisch aus. Nach 2 Jahren "können" sie nicht beim gleichen bleiben, aber eine Verdopplung ist schon auch ein bisschen (zu) viel. Also +50% hört sich realistisch an.

Timbaloo
2018-01-10, 17:21:52
oder über Chips mit 1.5x Kapazität (wenn es das geben sollte).
Zumindest laut Spec soll es das geben können meine ich gelesen zu haben. Ist natürlich die Frage ob die Hersteller das auch produzieren...

basix
2018-01-10, 18:10:40
Muss man das? Oder kann man nicht einfach 8 GBit und 16 GBit Chips mixen? Bandbreite usw. bleibt davon ja unangetastet, ausser dass die grösseren Module evtl. den höheren "Bandbreiten-Pressure" haben (da mehr Daten in den Modulen Platz haben).

scully1234
2018-01-10, 19:21:35
Ich bin mir sicher Nvidia wird ein Produkt bringen das solide ist, und sich in den Markt einfügt wie der Rest des Portfolios

MadPenguin
2018-01-10, 19:59:05
Also nochmals ganz normal: Bin fix davon überzeugt, dass wir beim Spitzenmodell von Nvidia ca. 20% Leistungszuwachs sehen werden. Diesen werden sie sich außerdem fürstlich bezahlen lassen. Und da wir es inzwischen gewohnt sind und nichts dagegen sagen dürfen, freuen wir uns darüber, yeah!

Bucklew
2018-01-10, 20:04:11
Diesen werden sie sich außerdem fürstlich bezahlen lassen.
Wenn ich mir die "Leistung" des Vega Chips angucke, waren die Pascalkarten reine Schnäppchen.

Man kann doch angesichts des Vergleichs von Vega und Pascal nicht behaupten, dass NVIDIA ihre Kunden da melken oder fürstliche Preise aufrufen würde.

pixeljetstream
2018-01-10, 20:35:51
Laut steam hw survey haben 1.3 % ne 1080/1080 Ti
Maxwell 970-980 Ti haben immerhin noch 2.7 %, das heißt die sind dann denke ich schon potentielle VoltaNext Kandidaten.

33% sind auf Pascal
23% sind auf Maxwell
19% sind auf Kepler

Da die mainstream Karten (x50/x60) überwiegen, sind das noch sehr viele die man zu nem Upgrade bringen kann. Die kaufen dann halt was immer gerade aktuell ist.

Hab die Resultate mal in google docs geschmissen
https://docs.google.com/spreadsheets/d/1UiAFQuPOpDv9PpFqTymFrdifI-IaeQDzZ9VpzdH5pbg/edit?usp=sharing

Natürlich sind die, die das highend haben auch die, die am ehesten wieder zum highend greifen, aber es gibt schon welche die das Spiel nicht mit jeder Generation mitmachen. Imo hat das nix mit melken oder sonstwas zu tun, es muss jeder selbst wissen wie zufrieden man ist etc.

Aus Herstellersicht, hab ich ja bereits erwähnt, dass es keinen Sinn macht sich zurückzuhalten, die Kosten für die Entwicklung, das Personal etc. sind so oder so da, und tendenziell eben immer höher, also macht man das beste aus dem Zeitrahmen den der Chip hat. Es gibt immer nen Schwung unsichtbarer Arbeit, die getan werden muss um langfristig Verbesserungen zu erzielen. Da nv in verschiedenen Märkten ist könnte man sich als Gamer natürlich etwas sorgen, dass zu viele Kompromisse gemacht werden. Aber die Tatsache, dass Volta so direkt nicht als Gaming Chip kam sondern nur für Science/HPC/Automotive ist doch eigentlich in der Hinsicht positiv.

MadPenguin
2018-01-10, 20:36:04
Man kann doch angesichts des Vergleichs von Vega und Pascal nicht behaupten, dass NVIDIA ihre Kunden da melken oder fürstliche Preise aufrufen würde.

Ist mMn nicht vergleichbar, da Pascal lange vor Vega veröffentlicht worden ist. Egal nun. Hat nun wiklich nichts mehr mit dem Thema zu tun.

Bucklew
2018-01-10, 20:40:34
Ist mMn nicht vergleichbar, da Pascal lange vor Vega veröffentlicht worden ist. Egal nun. Hat nun wiklich nichts mehr mit dem Thema zu tun.
Weil es deine These von den gemolkenen NVIDIA-Kunden absolut zerstört? ;D

Dass Pascal lange vor Vega kam macht die Sache nur besser für NVIDIA.

Bubba2k3
2018-01-10, 20:49:15
So, nun bitte wieder zum Thema zurück.
Danke.

Rampage 2
2018-01-11, 06:17:09
Ggf verdoppelt man den Speicher auch nicht sondern Faktor 1.5. Je nach dem über das SI und/oder über Chips mit 1.5x Kapazität (wenn es das geben sollte).

GA106 - 4gb/8gb
GA104 - 12 gb
GA102 - 16 gb 18GB (384Bit SI x 1.5)

Möglich ist vieles.

Korrigiert;)

Egal, wie schnell oder langsam der GA104 Vollausbau sein wird - mehr als 650€ (= 1300DM... soviel hat damals die GF2 Ultra gekostet und entspricht eigentlich GA102!) wird Nvidia dafür wohl nicht verlangen können. Selbst die 600€ UVP für die 1080 waren fast schon unerhört und 650€ ist absolute Schmerzgrenze für einen Performancechip! (+100€ Aufschlag für die Fool's Edition - damit kann man auch ordentlich abmelken...)

R2

robbitop
2018-01-11, 08:12:45
Die Melkerei aka hohen Gewinnspannen bleiben so lange, wie es der Markt zulässt. Ohne herausfordernden Wettbewerb bleibt das so. Dort wo es vergleichbare Produkte gibt, die auch hohe Marktanteile holen, ist der Preis ja ok. Siehe die 106 Reihe.

Man kann als Spieler viel Geld sparen, wenn man es mit Details und Auflösung nicht all zu sehr übertreibt. ;)

Rancor
2018-01-11, 08:26:56
Weil es deine These von den gemolkenen NVIDIA-Kunden absolut zerstört? ;D

Dass Pascal lange vor Vega kam macht die Sache nur besser für NVIDIA.

Nö, gerade weil es zu Pascal Release überhaupt keine Alternative gab, waren die Preise bzw. der UVP einfach mal ~100$ höher im Vergleich zum Maxwell Release.

Nvidia ist nicht die Heilsarmee. Wenn sie höhere Preise nehmen können, dann werden Sie das tun. Man darf auch nicht vergessen das sich die DRAM Preise mehr als verdoppelt haben seit dem Pascal Release.

Rampage 2
2018-01-11, 08:57:53
Die Melkerei aka hohen Gewinnspannen bleiben so lange, wie es der Markt zulässt. Ohne herausfordernden Wettbewerb bleibt das so. Dort wo es vergleichbare Produkte gibt, die auch hohe Marktanteile holen, ist der Preis ja ok. Siehe die 106 Reihe.


Nur wird dann kaum jemand diese Karten kaufen - außer denjenigen, die 1080Ti-Leistung für einen etwas geringeren Preis haben wollen. Irgendwann ist die Grenze endgültig erreicht - zumal Viele es dann für den Wucherpreis nicht mehr kaufen *können* selbst wenn sie es *wollten*. Weil das Budget/Kaufkraft dafür nicht mehr ausreicht.

Zumal man "Puffer" für eine zukünftige 2080Ti lassen muss - die wird diesmal wohl nicht unterhalb von 750€ UVP antreten, es sei denn AMD bringt endlich mal etwas Gescheites...


Man kann als Spieler viel Geld sparen, wenn man es mit Details und Auflösung nicht all zu sehr übertreibt. ;)

Die wichtigste Frage ist, ob die Leistung neuer GPUs schneller/höher ansteigt als die Anforderungen neuer Spiele?

1080p ist immer noch die Standardauflösung für viele PC-Spieler, aber wenn die 2060 die Leistung einer 1080 erreicht, dann könnte 1440p zum neuen Mainstream werden...

Und Details zurücksetzen geht ja mal gar nicht - das ist ein Relikt, das in den frühen 2000er Jahren sein Ende fand:freak:

Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann;)

R2

ShinyMcShine
2018-01-11, 09:22:27
Nur wird dann kaum jemand diese Karten kaufen - außer denjenigen, die 1080Ti-Leistung für einen etwas geringeren Preis haben wollen. Irgendwann ist die Grenze endgültig erreicht - zumal Viele es dann für den Wucherpreis nicht mehr kaufen *können* selbst wenn sie es *wollten*. Weil das Budget/Kaufkraft dafür nicht mehr ausreicht.
Es wird dafür wieder genauso Käufer geben. Bei Pascal hat sich die Allgemeinheit wegen der Preise auch aufgeregt und trotzdem wurden die teuren Karten gut verkauft. Der Preis ist da wohl weniger entscheidend.

Und Details zurücksetzen geht ja mal gar nicht - das ist ein Relikt, das in den frühen 2000er Jahren sein Ende fand:freak:

Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann;)

R2

Das stimmt doch bei weitem nicht. Du verallgemeinerst viel zu sehr ("Man" und "*alle*"). Dann müssten laut Steam-HW Survey viel mehr Spieler Highend-Karten haben (siehe Post von pixeljetstream). Schließlich braucht man für einige Spiele in 1080p heute schon eine Karte der Klasse 1080 aufwärts um in FullHD mit max. Details (was auch AA auf Anschlag bedeutet) alles flüssig spielen zu können (ARK, Middle-Earth 2). Aber wir wollen hier keine Diskussion über "flüssig" anstoßen...

Auch bei Ampere werden sich viele (wenn nicht die meisten) wieder die Karten zwischen 200-300€ kaufen und damit wirst Du bestimmt nicht auf die Leistung einer 1080 kommen.

My 2 cents...

Bucklew
2018-01-11, 09:41:15
Nö, gerade weil es zu Pascal Release überhaupt keine Alternative gab, waren die Preise bzw. der UVP einfach mal ~100$ höher im Vergleich zum Maxwell Release.
Nö, der UVP Unterschied war 50US$. Spar dir deine Fake News.

970/1070: 329/379 US$
980/1080: 549/599 US$

Das Ganze für die erste Grafikkarte im neuen Fertigungsnode, mehr als ein Jahr vor der Konkurrenz mit deutlich schlechterem Chip, mit breiter Verfügbarkeit ab Launch. Absolut fair.

scully1234
2018-01-11, 09:52:40
Korrigiert;)

Egal, wie schnell oder langsam der GA104 Vollausbau sein wird - mehr als 650€ (= 1300DM... soviel hat damals die GF2 Ultra gekostet und entspricht eigentlich GA102!)
R2

Und Inflation / Teuerungsrate, gestiegene Rohstoffkosten, komplizierter werdende Herstellung,und erst kürzlich exorbitante Speicherpreise gibts in der Milchmädchenrechnung nicht?

Weil dann wirds schon schwerer wenn nicht gar unmöglich hier mit der Melkthese zu argumentieren, wenn man unliebsame Variablen ,nicht einfach aus der Gleichung nimmt

Aber wenigsten scheint ins Bewusstsein schon mal die damaligen Preise zurück zu kehren.

Gejammert hat man damals dort übrigens genauso, und ich hab mir als Jungspunt trotzdem eine Elsa Gladiac 2 Ultra leisten können, neben Weib(ern) ,Suff und Gesang=)

Verändert hat sich da im Grunde gar nix,nur das das in Klammern stehende,nicht mehr existent ist;D

BlacKi
2018-01-11, 10:49:52
Nö, gerade weil es zu Pascal Release überhaupt keine Alternative gab, waren die Preise bzw. der UVP einfach mal ~100$ höher im Vergleich zum Maxwell Release.

Nvidia ist nicht die Heilsarmee. Wenn sie höhere Preise nehmen können, dann werden Sie das tun. Man darf auch nicht vergessen das sich die DRAM Preise mehr als verdoppelt haben seit dem Pascal Release.
erstens war die FE 150$ teurer(nv hat sich entschieden die FE teurer zu verkaufen weil sie von ihrer kühlung überzeugt sind), und zweitens lag derrMSRP preis bei nur 50$ ggü. der 980.

wie gesagt hat nv andere speicherpreise.


Auch bei Ampere werden sich viele (wenn nicht die meisten) wieder die Karten zwischen 200-300€ kaufen und damit wirst Du bestimmt nicht auf die Leistung einer 1080 kommen.

My 2 cents...
am anfang wird die 2060, wohl den deppenaufpreis haben, aber nach ein paar monaten wir die karte wohl auf der straße bei 300€ liegen, knapp über dem preis der 1060 derzeit und in der performance ziemlich nah an die 1080 rankommen.



Und Details zurücksetzen geht ja mal gar nicht - das ist ein Relikt, das in den frühen 2000er Jahren sein Ende fand:freak:

Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann;)

R2
sry, was für ein BS. einfach ohne grund oft einfach mal 30% der fps in den sand setzen für nix? ich mit der 1080ti spiele anspruchsvolle spiele nie mit allem auf ultra.

scully1234
2018-01-11, 11:15:28
wie gesagt hat nv andere speicherpreise.

na da wäre ich mir noch nicht so sicher ,die Auswirkungen werden sie auch zu spüren bekommen in der Kasse, wenn auch als Großabnehmer nicht ganz so drastisch wie der kleine Man

Rancor
2018-01-11, 11:46:29
Nö, der UVP Unterschied war 50US$. Spar dir deine Fake News.

970/1070: 329/379 US$
980/1080: 549/599 US$


http://www.pcgameshardware.de/Geforce-GTX-1080-8G-Grafikkarte-262111/News/GTX-1070-Euro-UVPs-guenstiger-1222781/

499€ Für die 1070 FE inkl.. Die GTX 970 hat sogar nur 329€ inkl gekostet. Also spar du dir mal deine Fake News.


Geforce GTX 980 - UVP: 549 US-$/538 Euro (452 EUR + MwSt.)
Geforce GTX 970 - UVP: 329 US-$/321 Euro (270 EUR + MwSt.)

Nvidias neue Grafikkarten, die Geforce GTX 980 und die Geforce GTX 970, kommen zu Preisen von rund 540 respektive 325 Euro auf den Markt und basieren wie die GTX 750 Ti auf der energieeffizienten Maxwell-Architektur.


http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/

Nimm deine grüne Brille ab. Bist ja quasi dargo in grün. Und die Situation heute ist eine ganz andere, viel schlechtere.
RAM Preise viel höher, Mining Boom + keine Konkurrenz durch AMD. Somit ist es sehr wahrscheinlich das Amperekarten nochmal teurer als die Pascalpendants werden.

Palpatin
2018-01-11, 12:05:22
Fairerweise muss man noch anmerken das der Dollar Kurs 2014 bei ca 1,3€ stand und 2016 bei ca 1,1€. Sprich 20% der Preiserhöung der Währungsschwankung geschuldet sind.
Jetzt sind wir bei ca 1,2€ pro Dollar -> Dadurch wird die nächste Gen bei uns grundsäztlich 10% günstiger. Speicherpreise haben sich aber seit dem Release der 1080 mehr als verdoppelt, was sich sicherlich auf den Preis von GA104 auswirken wird auch dann wenn die Speichermenge bei GA104 gleich bleibt.

Bucklew
2018-01-11, 12:11:23
499€
~100$
Fake News eben. :biggrin:

Merkst, dass du Bullshit mit dem Dollarpreis erzählst hast und kommst jetzt mit dem Europreis um die Ecke.

Dabei beachtest du nicht mal den Umrechnungskurs Dollar/Euro in deinem Vergleich. Völlig lächerlich.

Nimm deine grüne Brille ab. Bist ja quasi dargo in grün. Und die Situation heute ist eine ganz andere, viel schlechtere.
Es hat nichts mit einer grünen Brille zu tun, wenn man nachweist, dass euer "NVIDIA zockt ihre Kunden ab!!!!11" wenig faktische Substanz hat.

RAM Preise viel höher, Mining Boom + keine Konkurrenz durch AMD. Somit ist es sehr wahrscheinlich das Amperekarten nochmal teurer als die Pascalpendants werden.
Ampere mag von mir aus teurer werden, das ist gar nicht der Punkt. Der Punkt ist, dass die Karten den Preis wert sind. Das ist doch der Knackpunkt. Pascal war eben jenes und wenn es Ampere auch ist, wo ist da das Problem?

Wenn du eine (hypotetische) GTX 2060 mit Vega Leistung für 350€ bekommst, bei einem Bruchteil der Leistungsaufnahme, wo ist da das fucking Problem?

Fairerweise muss man noch anmerken das der Dollar Kurs 2014 bei ca 1,3€ stand und 2016 bei ca 1,1€. Sprich 20% der Preiserhöung der Währungsschwankung geschuldet sind.
Jetzt komm doch bitte dem hysterischen Mob nicht mit Fakten! Es geht doch hier nicht darum, sachlich die Faktenlage zu betrachten, sondern darum, NVIDIA als Abzockerbude darzustellen. Die Fakten sind da absolut zweitrangig!

TwoBeers
2018-01-11, 12:13:42
Da die mainstream Karten (x50/x60) überwiegen, sind das noch sehr viele die man zu nem Upgrade bringen kann. Die kaufen dann halt was immer gerade aktuell ist.


Schöner post. :up:

Und hier finde ich, liegt der Hund begraben, in welchem Preisbereich liegen denn 1050/1060? 150-300 € max.
Was für Leistung können wir da 2018 erwarten? 1080 Niveau? 1070? Lohnt sich dann ein Aufrüsten überhaupt noch?

Und wer sich 2016/17 ne 1050 gekauft hat, dann wahrscheinlich um damit Overwatch oder Dota flüssig zu spielen, das kann er damit auch noch die nächsten Jahre. Dieser Käufer wird sich keine neue Karte besorgen.

dargo
2018-01-11, 12:17:03
Und Details zurücksetzen geht ja mal gar nicht - das ist ein Relikt, das in den frühen 2000er Jahren sein Ende fand:freak:

Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann;)

Wer sagt das? Du? :ulol: Volle Details sind nicht immer sinnvoll, außer vielleicht für den IHV. ;) Erstens muss ich schon die Lupe rauskramen bei manchen Details. Zweitens hast du mit vollen Details teilweise sogar Grafikfehler. Aktuelles Beispiel wäre Forza Motorsport 7.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11596490&postcount=1182

Rancor
2018-01-11, 12:21:59
Selbst mit 20% Währungsschwankungen ist es ein gewaltiger Unterschied zwischen 329€ und 499€ UVP, wenn wir mal bei den 70iger bleiben.

Stein des Anstoßes war ja, das Bucklew und Co. es so toll finden das VEGA nicht konkurrenzfähig ist ( in Bezug auf Ampere )und von AMD bis 2019 wohl nichts mehr zu erwarten sei.
Darauf entgegnete ich nur, das das überhaupt nicht toll ist, da wir ( Nvidia Kunden ) dafür blechen werden. Das will er aber überhaupt nicht einsehen.

Ich bin beim UVP davon ausgegangen, das er im $ und € gleich ist. Mein Fehler, gebe ich gerne zu. Das er im € aber sogar noch weiter auseinander liegt als meine 100$ ( die ich im Kopf hatte ) hätte ich nicht gedacht.
Selbst unter Berücksichtigung des Wechselkurses sind es bei der 70iger trotzdem immer noch knapp 100 €. Wenn man von 329€ zu 499€ ausgeht die in Deutschland ja veranschlagt wurden.

Das Problem dabei ist einfach, das sich die Preisregionen für die Performanceklasse immer weiter nach hinten schiebt. Man sieht es ja auch an den Titanen. ( Titan V jetzt mal außen vor ).

nordic_pegasus
2018-01-11, 13:21:19
@topic: Könnte NV´s Ankündigung der BFGD u. U, auf die kommende Leistungsfähigkeit der High-End/Enthuisast Karten hinweisen?


bei den spekulierten Preisen für diese BFGD Dinger (3.000$+) wird Nvidia hier sicherlich von einem 1080Ti/TitanXp Nachfolger ausgehen. Und die sollten hoffentlich UHD mit mindestens 60 fps in normalen Lebenslagen erzeugen können.

vinacis_vivids
2018-01-11, 16:00:50
Die Preise der GPU'S werden mehr durch die compute Leistung bestimmt denn Gaming-Leistung. Das haben die meisten hier noch nicht verstanden.

Blediator16
2018-01-11, 16:26:06
Könnte ein Mod diesen Thread bitte von diesen Kleinkriegen befreien?

@topic: Könnte NV´s Ankündigung der BFGD u. U, auf die kommende Leistungsfähigkeit der High-End/Enthuisast Karten hinweisen?

MfG
Yamo

Dieser TV ist quasi DOA bzw. würde ich eher als Studie bezeichnen. Ich kann mir nicht vorstellen, dass das Ding mehr als 20 mal über die Theke geht.

Grendizer
2018-01-11, 16:37:47
Dieser TV ist quasi DOA bzw. würde ich eher als Studie bezeichnen. Ich kann mir nicht vorstellen, dass das Ding mehr als 20 mal über die Theke geht.


Ich finde die Geräte ziemlich spannend für das Wohnzimmer. Ich habe an meinem FHD einen Steam Link dranhängen und der PC steht im Büro. Viele Spiele gehen gemütlich vom Sofa aus. Das für alle Spiele auch ohne Steam auf einem 65 Zoll UHD... Why not ?

Blediator16
2018-01-11, 16:52:36
Ich finde die Geräte ziemlich spannend für das Wohnzimmer. Ich habe an meinem FHD einen Steam Link dranhängen und der PC steht im Büro. Viele Spiele gehen gemütlich vom Sofa aus. Das für alle Spiele auch ohne Steam auf einem 65 Zoll UHD... Why not ?

Deswegen sage ich ja auch eher eine Studie. Spannend ist jedes Stück Technik, was es in der Form noch nicht gab. Ich denke allerdings, dass sie Premiumpreise auf Premiumpreise draufschlagen werden.

Hübie
2018-01-11, 18:37:10
Die Preise der GPU'S werden mehr durch die compute Leistung bestimmt denn Gaming-Leistung. Das haben die meisten hier noch nicht verstanden.

Pi mal Daumen dürfte es passen (ohne jetzt alles nachzurechnen). Der Punkt ist, dass die Leistung stetig günstiger zu haben ist: Die 760 hat die Leistung der 670, kostete jedoch weniger. Die 970 hat die Leistung der 780 Ti und kostete weniger. Die 1070 hat die Leistung der 980 Ti, kostet jedoch weniger. Also wird über Zeitraum X, Leistungsklasse Y günstiger. Schauen wir uns Marktsegmente auf Basis von Namensschemata an, ist es ein auf und ab mit Trend nach oben, selbst wenn die Steigerungsrate nach Inflation und Wechselkursschwankungen normalisiert wird. Insofern hat Rancor Recht. Ob und wieviel könntet ihr ausrechnen, anstatt hier zu schwadronieren. Ich habe dafür keine Zeit. Können wir das jetzt ad acta legen?

scully1234
2018-01-11, 18:42:58
mit Trend nach oben, selbst wenn die Steigerungsrate nach Inflation und Wechselkursschwankungen normalisiert wird. Insofern hat Rancor Recht.

Ich hatte den Link zur alten G2 Ultra verlinkt von vor 17 Jahren , Rancor hat bis zur 1080 TI eben nicht recht

selbst wenn ich keine Inflation u andere Variablen verrechne, die ich aber müsste ,stehen hier 1500 DM Elsa GF2Ultra gegen ca 750 Euro GTX 1080Ti UVP vs UVP

und das sind beides die Big Chipvarianten

nalye
2018-01-11, 18:43:51
Hier ist mal wieder Ruhe drin, sonst gibt es wieder Auszeiten

pixeljetstream
2018-01-11, 23:02:58
Da Pascal ja sowohl kleiner als auch deutlich mehr Hz hatte ist der Sprung schon historisch gewesen. Gibt leider keinen 3dcenter index vom Fermi zum Keplersprung.
Muss jeder selbst wissen woran er glauben mag, neue node oder nicht etc.

https://docs.google.com/spreadsheets/d/e/2PACX-1vSnE2mTHKyDU7MmSkeuIuudRcUy-I1AR7j5mRNE8G8egWztLkNi-Axv96wi6KN3r61maNtHbvaAwQv3/pubchart?oid=623412986&format=image

Timbaloo
2018-01-11, 23:13:33
Ergibt 7xx/6xx überhaupt Sinn?

pixeljetstream
2018-01-11, 23:34:08
Für 4xx oder 5xx fehlen halt die daten, ist stupide gen 2 gen. GK2xx ist ja auch ein "optimierter" GK1xx, so sehen wir halt unterschiedliche Auswirkungen der Vergangenheit.
Wenn ich jetzt nur zahlen mit großen Sprüngen zeige, ist das auch suggestiv.
So findet jeder was und jeder hat Recht -> maximale Harmonie ;)

basix
2018-01-11, 23:39:05
Nun gut, 6xx / 7xx / 9xx waren alle 28nm. Dass hier nicht die allergrössten Sprünge drin sind sollte eigentlich klar sein. Von Fermi auf Kepler ist ein riesiger Sprung, aber kommt drauf an ob man 6xx oder 7xx vergleicht. Hier liegt die Die Size dazwischen, wo die 680er etwa einen halb so grossen Chip hatte bei mittlerweile +50% Leistung. Bei 9xx zu 7xx ist es so, das die Chips im selben Prozess deutlich kleiner(!) wurden im selben Node und trotzdem schneller waren. Das Problem ist, dass nur die Ti Varianten mittlerweile den grossen Chip tragen, das verfälscht das Ergebnis.

Hier gibt es gute Vergleichstest bis zurück zu Fermi und Cypress (Midrange und Highend):
https://www.computerbase.de/2017-01/radeon-hd-7870-vs-r9-380-rx-480-vergleich/
https://www.computerbase.de/2017-01/radeon-hd-7970-290x-fury-x-vergleich/#abschnitt_radeon_hd_5870_6970_7970_r9_290x_und_fury_x_im_vergleich
https://www.computerbase.de/2017-01/geforce-gtx-760-960-1060-vergleich/2/
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/

Hübie
2018-01-11, 23:46:19
Von 950 auf 1050 ist echt nur so ein kleiner Zuwachs? :|

Um die Preisdiskussion mal zu beenden:

https://abload.de/img/preissteigerungsrate_40jgy.jpg (http://abload.de/image.php?img=preissteigerungsrate_40jgy.jpg)

Klarer Trend. Linear ebenfalls überdeutlich und selbst mit Inflation ist da nix zu retten. Wenn ich jetzt die Gewinne der GeForce-Sparte von NV darüber lege deckt sich dies relativ gut (mit Versatz). Daraus schlussfolgere ich auch ohne Stückzahlen, dass NV stetig mehr Geld pro GPU-Segment einnimmt, wobei die Anzahl seit der 7000er-Reihe signifikant gewachsen ist und mit Kepler einen Höhepunkt erreichte (Einführung der Titan) bzw. mit Pascal durch Abdeckung aller Segemente (ULP bis HPC). Die Margen sind also gewachsen.

Edit: Die 2080 Ti ist natürlich nur spekulativ drin.

Platos
2018-01-11, 23:55:33
Interessant wäre jetzt, inwiefern die Leistung pro Preisklasse zugenommen hat.

Leistung der 50-er, 60-er, 70-er usw. zu vergleichen, bringt nicht so viel, da sie ja nicht immer gleich viel kosten.

Man müsste jetzt also immer die Karten miteinander vergleichen, die vom Preis her möglichst nahe beieinnder sind und dann noch hochrechnen. Inflation usw. ist da halt nicht mit drinn, aber das ist sie nie.

@Hübi: Was bedeutet denn "normalisiert" ? und was ist das für ein Programm ?

Hast du die genauen UVP Preise zum release von all den Karten ?

pixeljetstream
2018-01-11, 23:58:18
Nun gut, 6xx / 7xx / 9xx waren alle 28nm. Dass hier nicht die allergrössten Sprünge drin sind sollte eigentlich klar sein. Von Fermi auf Kepler ist ein riesiger Sprung, aber kommt drauf an ob man 6xx oder 7xx vergleicht. Hier liegt die Die Size dazwischen, wo die 680er etwa einen halb so grossen Chip hatte bei mittlerweile +50% Leistung. Bei 9xx zu 7xx ist es so, das die Chips im selben Prozess deutlich kleiner(!) wurden im selben Node und trotzdem schneller waren. Das Problem ist, dass nur die Ti Varianten mittlerweile den grossen Chip tragen, das verfälscht das Ergebnis.

Hier gibt es gute Vergleichstest bis zurück zu Fermi und Cypress (Midrange und Highend):
https://www.computerbase.de/2017-01/radeon-hd-7870-vs-r9-380-rx-480-vergleich/
https://www.computerbase.de/2017-01/radeon-hd-7970-290x-fury-x-vergleich/#abschnitt_radeon_hd_5870_6970_7970_r9_290x_und_fury_x_im_vergleich
https://www.computerbase.de/2017-01/geforce-gtx-760-960-1060-vergleich/2/
https://www.computerbase.de/2017-01/geforce-gtx-780-980-ti-1080-vergleich/2/

Danke für die Links. Hatte schon gar nicht mehr im Kopf wie gut Kepler war. Privat sprang ich von Fermi auf Maxwell, das war sehr deutlich.

Hübie
2018-01-12, 00:11:40
@Platos: Zugegeben sind Werte bis zur 7800 schwierig zu finden, daher kann ich nicht garantieren, dass diese stimmen. Normalisiert heißt Wert in dem Monat wo sie heraus kam (durchschnittliche Inflation über 12 Monate und dann halt Stichtag 1. des jeweiligen Monats). Ist eigentlich aus versehen mit rein gerutscht und kann ignoriert werden. Das Programm ist Excel. ;)

Palpatin
2018-01-12, 08:32:33
Klarer Trend. Linear ebenfalls überdeutlich und selbst mit Inflation ist da nix zu retten.
Wenn man die Geforce 2 Ultra als Grundlage nimmt schon, dann wäre man laut Inflationsrechner genau bei 730$ für die 1080ti. Allerdings waren die Ultras nie sonderlich relevant, man hat ja in der Grafik auch z.B. die 7800 512 (650$) oder die 8800 ultra (830$) raus gelassen, weil dadurch ein ganz anderes Bild entstanden wäre.

Bucklew
2018-01-12, 08:50:55
Leider kommt der Sprung ab 2013 von der Verwendung der Ti-Versionen, statt der Non-Ti wie bei der 600er Serie. Interessant wäre es, wie sich der Preis mit nur den x80 Versionen verhalten hätte.

Thunder99
2018-01-12, 09:22:25
Wenn man es genau machen möchte muss man wenn dann die gleiche Kategorie von Chips nehmen.

Interessant ist es, dass wir nach wie vor so wenig über Ampere wissen.

Timbaloo
2018-01-12, 09:50:45
Interessant ist es, dass wir nach wie vor so wenig über Ampere wissen.
Quatsch, der Thread ist bereits 35 Seiten lang, da müssen wir ja schon unglaublich viel darüber wissen ;)

Im Ernst: Finde ich auch interessant.

Bucklew
2018-01-12, 10:06:30
Find ich nicht, was bei Pascal kein Stückchen anders.

Hübie
2018-01-12, 10:18:29
Leider kommt der Sprung ab 2013 von der Verwendung der Ti-Versionen, statt der Non-Ti wie bei der 600er Serie. Interessant wäre es, wie sich der Preis mit nur den x80 Versionen verhalten hätte.

Das ist eben das schwierige daran. Welches Segment betrachten wir hier? Zugegeben: Die 680 wurde stets nur als Highend, statt Enthusiast betrachtet. Dafür müsste ich die 690 ansetzen, denn preislich war die 780 Ti oder die GF2 Ultra Enthusiast. Ich habe mich dafür entschieden die maximal möglich erhältliche Gamer-Karte ins Portfolio aufzunehmen. Das schließt jegliche Titan aus. Der Grund ist, dass man mit diesen Versionen in der näheren Vergangenheit mehr Geld generierte als mit Titanen. Es ist ein müßiges Thema, da Grenzen fließen, neu definiert werden und in eine gewissen Art die persönlichen Ansichten mit einfließen.

@Thunder99: Ich wette mit dir, dass Ampére ein ziemlicher Kurzschluss war / ist. Solange nichts bei den AiBs liegt, wird da auch nix kommen und da wir Ende März spekulieren (29.??), wird vor Mitte Februar kaum etwas brauchbares kommen, vermute ich. Das Wettbüro ist also noch offen. :biggrin:

Bucklew
2018-01-12, 11:12:10
Ich habe mich dafür entschieden die maximal möglich erhältliche Gamer-Karte ins Portfolio aufzunehmen.
Mach es doch mal für die 680/780/980/1080, so aus Interesse :)

Gern auch die x70er als Vergleich.

Ich sehe die Ti als ein Segment, das zuvor von den Dual-GPU Karten abgedeckt wurde (590 & Co). Der Vergleich 680/780Ti ist IMHO unpassend.

Platos
2018-01-12, 11:15:05
Das ist eben das schwierige daran. Welches Segment betrachten wir hier? Zugegeben: Die 680 wurde stets nur als Highend, statt Enthusiast betrachtet. Dafür müsste ich die 690 ansetzen, denn preislich war die 780 Ti oder die GF2 Ultra Enthusiast. Ich habe mich dafür entschieden die maximal möglich erhältliche Gamer-Karte ins Portfolio aufzunehmen. Das schließt jegliche Titan aus. Der Grund ist, dass man mit diesen Versionen in der näheren Vergangenheit mehr Geld generierte als mit Titanen. Es ist ein müßiges Thema, da Grenzen fließen, neu definiert werden und in eine gewissen Art die persönlichen Ansichten mit einfließen.

@Thunder99: Ich wette mit dir, dass Ampére ein ziemlicher Kurzschluss war / ist. Solange nichts bei den AiBs liegt, wird da auch nix kommen und da wir Ende März spekulieren (29.??), wird vor Mitte Februar kaum etwas brauchbares kommen, vermute ich. Das Wettbüro ist also noch offen. :biggrin:

Wo hast du denn die Preise nun her? Hast du bei Geizhals oder ähnlichem nachgeschaut? Gibt es hier im 3DCenter irgendwo ein Vergleich, wo man die UVP von den letzten paar Generationen findet? Ab GTX 400 reicht mir. Weil wie hier schon angemerkt; Vergleiche zwischen Modellnamen hat keinen Sinn. Man muss Preisklassen vergleichen. Auch Chip zu Chip ist nicht besser. Schliesslich sind das auch nur Namen.

Also entweder so oder Leistung pro Watt. Alles andere bringt nichts. Aber wenn ich weiss, wo ich die UVP zu Release herbekomme (vlt. hier im Forum), dann erstelle ich gerne so eine Grafik. Würde mich selbst mal interessieren.

BlacKi
2018-01-12, 11:22:02
Find ich nicht, was bei Pascal kein Stückchen anders.
da hatte man ne roadmap, auch wenn diese im endeffekt garkeine geforce daten zeigte.

ansonsten hält sich nv immer bedeckt bis zur vorstellung. leaks gabs zb. nur vom kühler shroud. und selbst nach der vorstellung wussten wir nicht alles.

Mach es doch mal für die 680/780/980/1080, so aus Interesse :)

Gern auch die x70er als Vergleich.

Ich sehe die Ti als ein Segment, das zuvor von den Dual-GPU Karten abgedeckt wurde (590 & Co). Der Vergleich 680/780Ti ist IMHO unpassend.

sehe ich ähnlich. einfach die chips der Gxx04 reihe nehmen, da bekommt man einen guten stabilen wert hin. dann sieht man nämlich auch das die preise um genau 50$ pro gen steigen, nicht mehr und nicht weniger, somit kann man sich ausmalen wo die 2080 liegen wird.

die x70 reihe wird mal so mal so beschnitten, solide werte wird man nicht erhalten.

Hübie
2018-01-12, 11:33:41
Mach es doch mal für die 680/780/980/1080, so aus Interesse :)

Gern auch die x70er als Vergleich.

Ich sehe die Ti als ein Segment, das zuvor von den Dual-GPU Karten abgedeckt wurde (590 & Co). Der Vergleich 680/780Ti ist IMHO unpassend.

Gerne doch. Da ich aktuell aber gut ausgelastet bin kann es dauern und u.U. vergesse ich das. Dann bitte noch mal nachfragen.

Wo hast du denn die Preise nun her? Hast du bei Geizhals oder ähnlichem nachgeschaut? Gibt es hier im 3DCenter irgendwo ein Vergleich, wo man die UVP von den letzten paar Generationen findet? Ab GTX 400 reicht mir. Weil wie hier schon angemerkt; Vergleiche zwischen Modellnamen hat keinen Sinn. Man muss Preisklassen vergleichen. Auch Chip zu Chip ist nicht besser. Schliesslich sind das auch nur Namen.

Also entweder so oder Leistung pro Watt. Alles andere bringt nichts. Aber wenn ich weiss, wo ich die UVP zu Release herbekomme (vlt. hier im Forum), dann erstelle ich gerne so eine Grafik. Würde mich selbst mal interessieren.

Die Preise sind offizielle MSRP zur Einführung. Teils aus PMs, Reviews oder eben aus den letzten Folien (Maxwell, Pascal). Ich werde bei Gelegenheit mal sales @nvidia antickern und aus persönlichem Interesse nach den alten MSRP fragen. ;)

Platos
2018-01-12, 12:07:04
Die Preise sind offizielle MSRP zur Einführung. Teils aus PMs, Reviews oder eben aus den letzten Folien (Maxwell, Pascal). Ich werde bei Gelegenheit mal sales @nvidia antickern und aus persönlichem Interesse nach den alten MSRP fragen. ;)

Könntest du mir diese Preise per PN schicken? Oder die, die du jetzt verwendest hast, gehen auch. Falls es dann Unterschiede gibt, wenn du nachfragst, kannst du das ja noch mitteilen, falls du daran denkst :)

Hübie
2018-01-12, 12:09:32
Ich glaube nicht dass die so geheim sind. :D Du kannst die auch dem Graphen entnehmen.

Edit:
Guten Abend. Hier die versprochene Preisliste, welche ich verwendet habe. Wenn da was falsch sein sollte meldet euch mit Quelle und ich ändere es ab. :smile:

Monat Jahr Chip Modell Segment Preis [USD]
9 2000 NV16 GF2 Ultra Enthusiast $499
10 2001 NV20 GF3 Ti 500 Enthusiast $349
2 2002 NV25 GF 4600 Ti Enthusiast $399
5 2003 NV35 GF FX 5900 Ultra Enthusiast $499
4 2004 NV40 GF 6800 Ultra Enthusiast $499
6 2005 G70 GF 7800 GTX Highend $649
11 2006 G80 GF 8800 GTX Highend $599
6 2008 GT200 GF GTX 280 Highend $649
3 2010 GF100 GF GTX 480 Highend $499
3 2012 GK104 GF GTX 680 Highend $499
11 2013 GK110 GF 780 Ti Highend $699
6 2015 GM200 GF 980 Ti Highend $649
3 2017 GP102 GF 1080 Ti Highend $699
3 2018 GA102 GF 2080 Ti Highend $749?

fp69
2018-01-13, 12:41:55
Danke für die Mühe. Sehr interessant.
Leider haben wir eine Unbekannte (Miner), die uns Spekus gehörig in die Suppe spucken könnte.

pixeljetstream
2018-01-13, 12:51:31
Mach lieber Mal dicke Fragezeichen beim letzten Eintrag. Finde nie gut wenn man Fiktion mit Realdaten einfach vermischt.

Thunder99
2018-01-13, 13:09:57
@Hubie: Allright ;D

Wovon wir aber ausgehen können ist, dass wenn die 2080 spürbar schneller ist den gleichen Preispunkt (UVP) haben wird wie die 1080Ti. Wenn die Karte schlechter/langsamer ist dementsprechend weniger kostet. Siehe GTX480 "Desaster" von Nvidia ;)

Was haltet ihr von der Konstellation 2080/2060 jeweils 12nm, 2050 7nm (als Test) um dann die Prozesserfahrung auf 7nm 2080Ti/Titan "XA" anzuwenden?

BlacKi
2018-01-13, 13:32:40
Wovon wir aber ausgehen können ist, dass wenn die 2080 spürbar schneller ist den gleichen Preispunkt (UVP) haben wird wie die 1080Ti. Wenn die Karte schlechter/langsamer ist dementsprechend weniger kostet. Siehe GTX480 "Desaster" von Nvidia ;)
ist das so?

war die 980 und die 1080 teurer als die 780ti und die 980ti? daher stelle ich mir die frage warum es ausgerechnet diesmal so sein soll.

maximus_hertus
2018-01-13, 14:06:27
ist das so?

war die 980 und die 1080 teurer als die 780ti und die 980ti? daher stelle ich mir die frage warum es ausgerechnet diesmal so sein soll.

Damals gab es 3 Grafikchiphersteller (Intel, nV, AMD), heute nur noch 2 (Intel, nV). Da Intel jedoch nur "onBoard"-GPUs herstellt, hat nV ein Monopol. Dazu wird man wahrscheinlich bei der Chipgröße ordentlich zulegen, so dass man entsprechend die Preise gegenüber Pascal anziehen möchte (um die Marge zu halten / auszubauen).

Über all diesen Spekus kommen noch die Miner. Aktuell wird ja quasi jede Grafikkarte verkauft die sich nicht bei 3 irgendwo versteckt.

In den letzten 5-7 Tagen hat es ja ordentlich angezogen. Aktuell gehen die Custom GTX 1060 wieder stramm in Richtung 400 Euro...

vinacis_vivids
2018-01-13, 14:10:13
Heute nur noch 2 GPU Hersteller? Wtf?

BlacKi
2018-01-13, 14:14:41
Damals gab es 3 Grafikchiphersteller (Intel, nV, AMD), heute nur noch 2 (Intel, nV). Da Intel jedoch nur "onBoard"-GPUs herstellt, hat nV ein Monopol. Dazu wird man wahrscheinlich bei der Chipgröße ordentlich zulegen, so dass man entsprechend die Preise gegenüber Pascal anziehen möchte (um die Marge zu halten / auszubauen).

Über all diesen Spekus kommen noch die Miner. Aktuell wird ja quasi jede Grafikkarte verkauft die sich nicht bei 3 irgendwo versteckt.

In den letzten 5-7 Tagen hat es ja ordentlich angezogen. Aktuell gehen die Custom GTX 1060 wieder stramm in Richtung 400 Euro...
ich rede über uvp preise des herstellers, genau wie amd s vega wird die nicht am straßenpreis angepasst werden.

was dann wirklich auf der straße bezahl wird, darüber können wir viel reden, aber nie richtig liegen.

Thunder99
2018-01-13, 14:22:48
ist das so?

war die 980 und die 1080 teurer als die 780ti und die 980ti? daher stelle ich mir die frage warum es ausgerechnet diesmal so sein soll.
Ja, laut CB war die 1080 zum Beginn (UVP in Euro!):
Kurzzusammenfassung: Die GeForce GTX 1080 ist zweifelsohne die neue Oberliga. Und das gilt auch für den Preis. 789 Euro verlangt Nvidia für das Referenzdesign mit neuem Namen.
Und die 980 war auch teurer als die 780Ti, siehe CB Quelle (https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/)

Ist doch klar, dass bei (nahezu) gleichem oder erprobten Prozess die Preise stabil oder sinken können. Es ist aber immer in Bezug auf die Geschwindigkeit zu sehen ob der Preis eher sinkt oder eher steigt. Und gerade bei den derzeitigen Marktpreisen für GDDR sowie den Wafern erwarte ich eher steigende Preise als fallende.

BlacKi
2018-01-13, 14:31:39
was den straßenpreis angeht "könnt" ihr recht haben aber da spielt vieles rein was wir bis april garnicht abschätzen können(euro kurs, Lieferbarkeit,etc.). ich bin eben von der uvp des herstellers ausgegangen.

HOT
2018-01-13, 14:55:24
Ich glaube nicht dass die so geheim sind. :D Du kannst die auch dem Graphen entnehmen.

Edit:
Guten Abend. Hier die versprochene Preisliste, welche ich verwendet habe. Wenn da was falsch sein sollte meldet euch mit Quelle und ich ändere es ab. :smile:

Monat Jahr Chip Modell Segment Preis [USD]
9 2000 NV16 GF2 Ultra Enthusiast $499
10 2001 NV20 GF3 Ti 500 Enthusiast $349
2 2002 NV25 GF 4600 Ti Enthusiast $399
5 2003 NV35 GF FX 5900 Ultra Enthusiast $499
4 2004 NV40 GF 6800 Ultra Enthusiast $499
6 2005 G70 GF 7800 GTX Highend $649
11 2006 G80 GF 8800 GTX Highend $599
6 2008 GT200 GF GTX 280 Highend $649
3 2010 GF100 GF GTX 480 Highend $499
3 2012 GK104 GF GTX 680 Highend $499
11 2013 GK110 GF 780 Ti Highend $699
6 2015 GM200 GF 980 Ti Highend $649
3 2017 GP102 GF 1080 Ti Highend $699
3 2018 GA102 GF 2080 Ti Highend $749


Die Tabelle stimmt ja hinten und vorne nicht.
2011 fehlt GF110, 2014 die 980 und 2016 die 1080. Zudem sind G70, G80, GT200, GF100/110, GM200 und GP102 Enthusiast und nicht High-End :freak:. Und als letzten Punkt kannst erst mal GA104 für 800€ eintragen. Ob wir 2018 völlig ohne Konkurrenz überhaupt einen GA102 als nicht-Titan sehen werden ist auch mehr als fraglich.

reaperrr
2018-01-13, 15:33:12
Was haltet ihr von der Konstellation 2080/2060 jeweils 12nm, 2050 7nm (als Test) um dann die Prozesserfahrung auf 7nm 2080Ti/Titan "XA" anzuwenden?

2050(Ti) aka GA107 will ich nicht ganz ausschließen, aber GA102 ist extrem unwahrscheinlich.

Wenn GA102 wie üblich die anderthalbfachen Specs von GA104 haben sollte, würde der in 7nm zu klein ausfallen, um ein 384bit SI unterzubringen, Stichwort Pad-Limitierung. Tahiti/Tonga mit ihren ~350mm² sind mit das kleinste, was man sinnvoll mit einem 384bit-SI ausstatten kann, da würde der GA102 mit den vermuteten Specs höchstwahrscheinlich ein Stück drunter landen.

Nvidia's Architektur-Vorsprung wird mit Ampere so groß sein, dass wir mMn vor Mitte 2019 keine 7nm-Desktop-Chips von denen sehen werden, eher später, außer vielleicht einen GV100-Nachfolger (der im Desktop dann entweder gar nicht oder für 4000+ € kommt).

Ampere wird meiner Einschätzung nach neben der Perf/Watt die Leistung pro mm² um ~20% verbessern und dazu noch die PCB- und Kühlerkosten im Vergleich zur jeweils ähnlich schnellen Pascal-Karte senken, somit erhöht Nvidia wahrscheinlich nochmal seine Margen. 7nm wäre von Design-Kosten, Volumen, Ausbeute und anfänglichen Wafer-Preisen kontraproduktiv.
Macht mehr Sinn, sich das für den Ampere-Nachfolger aufzuheben, dann kann man auch gleich von 7 auf ~10 SM je GPC hochgehen, das erhöht die Perf./mm² und damit auch die Preise pro Chip, die man nehmen kann, und man entgeht gleichzeitig eventuellen Pad-Limitierungen.

horn 12
2018-01-13, 15:49:06
Und wo siehst du bitte dann Performance mässig die GTX 2070 / 2080 / 2080TI

TGKlaus
2018-01-13, 16:13:46
Damals gab es 3 Grafikchiphersteller (Intel, nV, AMD), heute nur noch 2 (Intel, nV).

:facepalm:

Bucklew
2018-01-13, 16:57:20
Heute nur noch 2 GPU Hersteller? Wtf?
Heizungsbauer, deren Heizungen zufälligerweise 3D-Grafik erzeugen, zählen eben nicht :freak:

Hübie
2018-01-13, 18:02:40
Die Tabelle stimmt ja hinten und vorne nicht.
2011 fehlt GF110, 2014 die 980 und 2016 die 1080. Zudem sind G70, G80, GT200, GF100/110, GM200 und GP102 Enthusiast und nicht High-End :freak:. Und als letzten Punkt kannst erst mal GA104 für 800€ eintragen. Ob wir 2018 völlig ohne Konkurrenz überhaupt einen GA102 als nicht-Titan sehen werden ist auch mehr als fraglich.

Tue uns doch den Gefallen und lese bitte auch auf der vorherigen Seite. :rolleyes: Die Tabelle stimmt so schon unter der genannten Prämisse. Wenn du das gelesen hast komm wieder.

@pixeljetstream: Hast Recht. Hab's geändert.

vinacis_vivids
2018-01-13, 18:07:16
Die Tabelle ist ne nette Spielerei ohne nennenswerte Erkenntnisse.

Thunder99
2018-01-13, 18:14:59
Wer sagt denn, dass GA102 zwingend mit GDDR6 kommt? HBM Gen2 kann ja auch sein

Hübie
2018-01-13, 18:46:09
Die Tabelle ist ne nette Spielerei ohne nennenswerte Erkenntnisse.

Es ging mir darum, die Diskussion bzgl. Preissteigerungen mal etwas zu entflammen, da sich einige offensichtlich zu hoch geschaukelt haben. Ich bin ja manchmal auch zu offensiv. ;) Die Erkenntnis: NV macht immer mehr Geld mit Spielechips ist natürlich nicht neu. Das Preis eine relative Zahl ist, dagegen schon - wenn man den Argumentationen von einigen hier folgt.

Die 749$ habe ich natürlich provokativ mal angesetzt, da die auch nicht unwahrscheinlich sind. NV hat mittlerweile schon fast zwei Jahre Vorsprung zu AMD.

horn 12
2018-01-13, 19:31:39
Nope

GTX 2070 wird der RX 64 nicht davonlaufen können und mit RX Vega 56 /64 ist AMD gerade bei Neuen, kommenden Game gut aufgestellt...
GTX 2080 gleich schnell als GTX 1080TI und da kommt AMD immer öfters auch (knapp) drann.
Effizienz sei mal dahingestellt, hier hinkt AMD Gewaltig nach

Timbaloo
2018-01-13, 19:45:21
Die 2080 wird nie und nimmer auf 1080ti-Niveau rauskommen...

Lehdro
2018-01-13, 19:47:57
Monat Jahr Chip Modell Segment Preis [USD]
9 2000 NV16 GF2 Ultra Enthusiast $499
10 2001 NV20 GF3 Ti 500 Enthusiast $349
2 2002 NV25 GF 4600 Ti Enthusiast $399
5 2003 NV35 GF FX 5900 Ultra Enthusiast $499
4 2004 NV40 GF 6800 Ultra Enthusiast $499
6 2005 G70 GF 7800 GTX Highend $649
11 2006 G80 GF 8800 GTX Highend $599
6 2008 GT200 GF GTX 280 Highend $649
3 2010 GF100 GF GTX 480 Highend $499
3 2012 GK104 GF GTX 680 Highend $499
11 2013 GK110 GF 780 Ti Highend $699
6 2015 GM200 GF 980 Ti Highend $649
3 2017 GP102 GF 1080 Ti Highend $699
3 2018 GA102 GF 2080 Ti Highend $749?



Wenn du aber die 7800 GTX 512 meinst, schreib das auch hin, der Unterschied ist groß. Die 7800 GTX kam 06/2005 raus, die 7800 GTX 512 im November. Zwischen den beiden liegen auch 100$ im Preis.
Zum Preis können wir sagen, dass nVidia selbst 549 Euro als unverbindliche Preisempfehlung für eine 7800 GTX mit 256 MB Texturspeicher angibt. (https://www.computerbase.de/2005-06/test-nvidia-geforce-7800-gtx-sli/17/)
Das war damals 1:1 vom Dollar übernommen.

Zu der Tabelle ist noch anzumerken das NV quasi schon seit Ewigkeiten immer "Titans" angeboten hat, die damals aber nie so hießen:

Angefangen von der GF2 Ultra (~500$ gegenüber den "vernünftigen" 350$ für die originale erste Geforce 2, die GTS). Lustiges Detail:
On their 2001 product web page, Nvidia initially placed the Ultra as a separate offering from the rest of the GeForce 2 lineup (GTS, Pro, Ti).
Über die Geforce 3 (500$ gegenüber den TI 500er die später(!) kamen und nur ~349$ kosteten trotz mehr Speicher und mehr MHz), hin zu den Geforce 6800 Ultras mit 512MB statt den 256 MB (für knapp 100$ Aufpreis). Dann noch die oben angesprochene, kaum verfügbare, aber damals wahnsinnig schnelle und leise 7800 GTX 512. Weiterhin bemerkenswert ist die damals extreme 8800 Ultra, die GTX 285 mit 2GB, gefolgt von den Geforce 580 Modellen mit 3 GB VRAM bis hin zur ersten wirklichen TITAN.

Ich kann da über die Jahre durchaus den Anspruch von NV erkennen immer das beste technische mögliche zum absoluten Premiumpreis zu verkaufen. Heute heißt das Kind halt TITAN.

Thunder99
2018-01-13, 20:26:23
Blöd nur, dass die 580 gerade mal ein reparierter GF100 war der wiederum nicht so wirklich berauschend war und die meisten TITAN am Anfang immer kastriert daher kamen.

Die 2080 "muss" schneller sein als die 1080Ti, ansonsten würde das üble Presse bedeuteten oder einen attraktiven Preis sowie "nur" 8-12GB VRAM. An 16GB glaube ich erst wenn ich es sehe!

horn 12
2018-01-13, 20:32:50
2080 nur geringfügig schneller, gleichschnell als GTX 1080 TI wäre schon ein FAIL
In diese Fußstapfen wird schon Vega 64 treten, zumindest die Custom Karten.

TheAntitheist
2018-01-13, 20:41:48
2080 nur geringfügig schneller, gleichschnell als GTX 1080 TI wäre schon ein FAIL
In diese Fußstapfen wird schon Vega 64 treten, zumindest die Custom Karten.
zum Glück hab ich nichts getrunken als ich das gelesen habe :D

crux2005
2018-01-13, 20:55:58
Nope

GTX 2070 wird der RX 64 nicht davonlaufen können und mit RX Vega 56 /64 ist AMD gerade bei Neuen, kommenden Game gut aufgestellt...
GTX 2080 gleich schnell als GTX 1080TI und da kommt AMD immer öfters auch (knapp) drann.
Effizienz sei mal dahingestellt, hier hinkt AMD Gewaltig nach

2080 nur geringfügig schneller, gleichschnell als GTX 1080 TI wäre schon ein FAIL
In diese Fußstapfen wird schon Vega 64 treten, zumindest die Custom Karten.

Also sagst du die Ampere wird ein FAIL. Gut das wir hier vernünftig Diskutieren können. :freak:

horn 12
2018-01-13, 20:57:58
FAIL in dem Sinne dass man bereits mit GTX 2080 wesentlich schneller als GTX 1080TI sein müsste, denn die GTX 2080TI wird wohl nicht unter 850 Euro zu liegen kommen.
Und gerade in Neuen Games holt eine RX 64 gewaltig auf.

=Floi=
2018-01-13, 21:42:34
Die Tabelle ist ne nette Spielerei ohne nennenswerte Erkenntnisse.

Es ist aber vieles bekannt oder nach einem bestimmtem schema geordnet.
Das mit den 50$ bei den nettopreisen wusste ich nicht. Die performancesteigerung wird sich auch an den vorgängern orientieren. Der ram aubau verdoppelte sich ebenfalls bei den generatiossprüngen (auch wenn es keine völlig neuen generationen waren)

Ein blick in die vergangenheit ist manchmal auch nicht schlecht. :)


kannst ja mal so eine rote tabelle machen. Die SP leistungen bei AMD wäre mal nett.

Thunder99
2018-01-14, 01:29:12
Problem bei AMD ist halt, dass sie nur bei wenigen Spielen die theorietische Performance auf die Straße bringen können

Hübie
2018-01-14, 02:57:17
Wenn du aber die 7800 GTX 512 meinst, schreib das auch hin, der Unterschied ist groß. Die 7800 GTX kam 06/2005 raus, die 7800 GTX 512 im November. Zwischen den beiden liegen auch 100$ im Preis.

Das war damals 1:1 vom Dollar übernommen.

Zu der Tabelle ist noch anzumerken das NV quasi schon seit Ewigkeiten immer "Titans" angeboten hat, die damals aber nie so hießen:

Angefangen von der GF2 Ultra (~500$ gegenüber den "vernünftigen" 350$ für die originale erste Geforce 2, die GTS). Lustiges Detail:

Über die Geforce 3 (500$ gegenüber den TI 500er die später(!) kamen und nur ~349$ kosteten trotz mehr Speicher und mehr MHz), hin zu den Geforce 6800 Ultras mit 512MB statt den 256 MB (für knapp 100$ Aufpreis). Dann noch die oben angesprochene, kaum verfügbare, aber damals wahnsinnig schnelle und leise 7800 GTX 512. Weiterhin bemerkenswert ist die damals extreme 8800 Ultra, die GTX 285 mit 2GB, gefolgt von den Geforce 580 Modellen mit 3 GB VRAM bis hin zur ersten wirklichen TITAN.

Ich kann da über die Jahre durchaus den Anspruch von NV erkennen immer das beste technische mögliche zum absoluten Premiumpreis zu verkaufen. Heute heißt das Kind halt TITAN.

Für dich gilt das gleiche wie für HOT. Bitte lesen! Ich diskutiere gerne, wenn der Kontext klar ist. Ich ändere gerne den MSRP der 7800 GTX, wenn diese Juni 2995 tatsächlich mit nur 256 MB an den Start ging. Ich verstehe deinen Durchfall sonst nicht so richtig, da sich grundlegend nichts an dem Trend unter den genannten Voraussetzungen ändert.

Noch mal: Schnellste single GPU mit neuer µArch zum Zeitpunkt X. GF2 Ultra steht drin, GTX 580 ist keine neue µArch; genau so wenig wie all die Tesla-Derivate ala 285... Würde ich unbeliebte Dual-GPUs oder Titan mit rein nehmen wäre der gleitende Mittelwert seit Kepler hässlich - oder verklickert ihr mir dann dass Titan Z und V nicht hinein gehören weil [insert random argument to fit my argument]??? :confused: C'mon...

@horn12: FAIL ist sowas was wie Pentium 4, R600, GF100 oder Bulldozer. :rolleyes:

@vinacis_vivids: Nein das stimmt so nachweislich nicht, denn V64 und 1080 Ti schenken sich in W2 nach aktuellem Stand nix. Von den anderen 154 Titeln aus 2017 in denen V64 gerade so mit der 1080 OC mit hält sprechen wir jetzt besser nicht, sonst blamiere ich dich. :redface: Warst Du nicht einer derjenigen Personen die sich in AMD-Threads über die Anwesenheit potenzieller Nicht-AMD-Käufer beschwerten? Mir war so... Wie wahrscheinlich ist es dass du Ampere kaufst?

Platos
2018-01-14, 03:42:18
Danke für die Liste

Das Problem am ganzen ist eben auch, man kann schlecht 70-er mit 70-er vergleichen, weil der Preis bei denen immer wieder stark schwanken. GTX 970 UVP 320 Euro und GTX 1070 UVP 499 Euro. (GTX 770 & 760 399 Euro). Der Fortschritt ist so eigentlich unmöglich zu analysieren. Modell zu Modell hat keinen Sinn, weil der Preis so unterschiedlich ist und wenn ich jetzt den Mittelwert von 320Euro und 499Euro (410) nehme, und dann bei der GTX 970 & 1070 die Perfomance hochrechne bzw. runter rechne, ist das Bild auch verfälscht. Man kann ja auch nicht das P/L von einer 300 Euro Karte mit einer 500 Euro Karte vergleichen, das kann man nie.

Also muss man die 1070 eigentlich mit den 80-er bis vor Pascal vergleichen.

Ich werde ml versuchen mit dem Perfomance-Index und den UVPs was zu basteln :biggrin: Wobei UVPs auch nicht wirklich realitätsnah sind. Man müsste den Durchschnittspreis der ersten 2 Monate nehmen. Die Referenz-Modelle sind aber seit den FE auch teuerer. Also alles irgendwie schwierig.

TheAntitheist
2018-01-14, 04:19:05
sollten wir das nicht mal inflationsbereinigt durchrechnen?

Platos
2018-01-14, 06:35:54
sollten wir das nicht mal inflationsbereinigt durchrechnen?

Doch, das wäre natürlich besser. Aber dann müsste man auch noch den Dollar-Kurs mit einbeziehen, sonst ist das gleich wieder nichts Wert. Oder eine andere Möglichkeit wäre, Realpreise zu nehmen und keine Listenpreise. Also Quasi den Strassenpreisdurchschnitt im 1. Monat ab Release. Problem ist dann nur, von welcher Karte. Aber dann müsste man keinen Dollar Kurs mit einbeziehen. Wäre sowieso realistischer als Listenpreise, die so nicht unbedingt auf dem Markt anliegen müssen.
Aber wer macht das :biggrin:

http://de.inflation.eu/inflationsraten/deutschland/historische-inflation/vpi-inflation-deutschland.aspx

http://www.finanzen.ch/devisen/historisch/us_dollar-euro-kurs
(Unten kann man den Kurs bis zu 2008 genau auf den Tag nachschauen)

TheAntitheist
2018-01-14, 07:15:40
wir sollten schon die inflationsrate der USA nehmen, aber diese wäre auch teilweise trügerisch weil die Ölpreise in den letzten Jahren die generelle Inflationsrate maßgeblich beeinflusst haben.

Hübie
2018-01-14, 11:13:32
sollten wir das nicht mal inflationsbereinigt durchrechnen?

Im Graphen auf Seite 35 findest du bereits den Inflationsbereinigten Realpreis. Allerdings habe ich das nicht akkumuliert, sondern nur für das jeweils laufende Jahr genommen. Die Inflation seit der GF2 Ultra bis 2017 beträgt in den USA 15,51%. Das könnte ich rückwärts gerechnet nachreichen. Aber nicht heute, denk ich.

MasterElwood
2018-01-14, 11:36:22
2080 nur geringfügig schneller, gleichschnell als GTX 1080 TI wäre schon ein FAIL
In diese Fußstapfen wird schon Vega 64 treten, zumindest die Custom Karten.

1070er war ca. gleichschnell wie 980TI - sehe keinen Grund warum das jetzt anders werden sollte. Immerhin hat sich NV ja viel Zeit gelassen zwischen PAS und VOL... äh... AMP.

Poook
2018-01-14, 12:19:00
Im Graphen auf Seite 35 findest du bereits den Inflationsbereinigten Realpreis. Allerdings habe ich das nicht akkumuliert, sondern nur für das jeweils laufende Jahr genommen. Die Inflation seit der GF2 Ultra bis 2017 beträgt in den USA 15,51%. Das könnte ich rückwärts gerechnet nachreichen. Aber nicht heute, denk ich.

Es sind 42.3% und da scheint noch nicht der Zinseszinseffekt reingerechnet zu sein.
http://www.usinflationcalculator.com/

Troyan
2018-01-14, 12:26:32
Und da sind noch nichtmal die direkten Kosten für die Chipentwicklung und -fertigung enthalten. So ein GP104 kostet wohl alleine mehr als doppelte als ein GK104 von 2012.

Poook
2018-01-14, 12:31:40
Und da sind noch nichtmal die direkten Kosten für die Chipentwicklung und -fertigung enthalten. So ein GP104 kostet wohl alleine mehr als doppelte als ein GK104 von 2012.

Allerdings sind die Absatzzahlen in einer ganz anderen Dimension wodurch sich die Fixkosten wieder etwas relativieren.

Troyan
2018-01-14, 12:34:37
Ja - aber nur bei nVidia. Bei AMD sieht es düster aus. Das ist das große Problem: Kein Geld für die Herausforderungen und damit Produkte, die nicht konkurrenzfähig sind.

pixeljetstream
2018-01-14, 12:53:17
für die diskussion hier interessiert das (chipkosten) aber nicht, da interessiert der preis für den kunden, insofern finde ich eine inflationsbereinigte tabelle schon sinnvoll.

man könnte auch analysieren wieviel leistung pro preis von generation zu generation dazukommt.
(Leistung Generation 2/ Preis Generation 2) / (Leistung Generation 1 / Preis Generation 1)
Sprich wieviel "günstiger" ist die Mehrleistung zum vorherigen Produkt.
Der Haken ist halt ein ordentlicher Leistungsindex. Flops allein ist halt nicht immer optimal.

Hab mal etwas Zeit verschwendet ;)
https://docs.google.com/spreadsheets/d/1_gMVYLI-dGmrwFvZRqqOs11HEam51pzFejOeKsNKoLw/edit?usp=sharing
an sich gefällt mir die Produktauswahl aber nicht, die x80 bzw. x70 Klasse ohne Ti/Ultra usw. ist imo interessanter

Troyan
2018-01-14, 12:56:24
Das eine impliziert das andere. Wenn die Herstellung eines Chips 50% mehr kostet als vor 10 Jahren, dann spiegelt sich das immer auch im Verkaufspreis wider.

Das ist ein großes Problem bei der Diskussion. Es ist eben nicht alles stillgestanden. 70% Mehrleistung ist heutzutage aufwendiger als vor 10 bis 15 Jahren.

reaperrr
2018-01-14, 13:25:23
Und wo siehst du bitte dann Performance mässig die GTX 2070 / 2080 / 2080TI
GTX 2070: 0-10% vor 1080 FE (mindestens 21 SM, aber evtl. nur 3 GPCs, genaue Perf. hängt von Takt und Architekturverbesserungen ab)
GTX 2080: 1080Ti Ref +/-5% (je nach Spiel)
2080 Ti: 1080Ti +30-40%

TDP dabei ca. auf Niveau des jeweiligen 10x0-Vorgängers, vielleicht ein paar Watt mehr Real-Verbrauch.

Chipfläche jeweils Vorgänger + ~20-25% (also GA104 ~375-390mm², GA102 ~580-600mm²)

BlacKi
2018-01-14, 14:31:40
GTX 2070: 0-10% vor 1080 FE (mindestens 21 SM, aber evtl. nur 3 GPCs, genaue Perf. hängt von Takt und Architekturverbesserungen ab)
GTX 2080: 1080Ti Ref +/-5% (je nach Spiel)
2080 Ti: 1080Ti +30-40%

TDP dabei ca. auf Niveau des jeweiligen 10x0-Vorgängers, vielleicht ein paar Watt mehr Real-Verbrauch.

Chipfläche jeweils Vorgänger + ~20-25% (also GA104 ~375-390mm², GA102 ~580-600mm²)
? die 2070/80 sind nur ca. 25% schneller aber die 2080ti gleich 40% ggü. des vorgängers? sehr komisch...

Es sind 42.3% und da scheint noch nicht der Zinseszinseffekt reingerechnet zu sein.
http://www.usinflationcalculator.com/

wow, da könnte man tatsächlich behaupten das grafikkarten günstiger werden statt teurer.

Kriton
2018-01-14, 14:38:17
Für dich gilt das gleiche wie für HOT. Bitte lesen! Ich diskutiere gerne, wenn der Kontext klar ist. Ich ändere gerne den MSRP der 7800 GTX, wenn diese Juni 2995 tatsächlich mit nur 256 MB an den Start ging. Ich verstehe deinen Durchfall sonst nicht so richtig, da sich grundlegend nichts an dem Trend unter den genannten Voraussetzungen ändert.


Bei einer rein inhaltlichen Anmerkung muss man nun wirklich nicht sofort persönlich werden.

Unabhängig davon: Wenn man sich die gestiegenen Gewinne Nvidias ansieht, frage ich mich schon, wie man glauben kann, dass sie die Preise nicht stärker erhöhen als es die eigenen Kosten getan haben. In Anbetracht ihrer Zahlen macht das aus Sicht Nvidias ja auch Sinn.
Und hatten wir nicht seinerzeit auch die Diskussion, dass der XX4-Chip plötzlich in derselben Riege wie der frühere XX0-Chip verkauft wurde?

Mir ist klar, dass gleich wieder die üblichen Verdächtigungen mit Verteidigungen kommen werden. Aber ich klage nicht an, sondern stelle maximal fest. Und (im Gegensatz zu einigen anderen hier) kann ich zwischen meinen (als Verbraucher) und den Interessen Nvidias unterscheiden. Dass das immer wieder nicht differenziert wird ist... irritierend.

Bucklew
2018-01-14, 14:39:23
70% Mehrleistung ist heutzutage aufwendiger als vor 10 bis 15 Jahren.
Stimmt, zumal häufig einfach nur die TDP hochgezogen wurde. Man müsste auch noch den Faktor "TDP" mit einbeziehen.

MadPenguin
2018-01-14, 15:53:40
Ja - aber nur bei nVidia. Bei AMD sieht es düster aus. Das ist das große Problem: Kein Geld für die Herausforderungen und damit Produkte, die nicht konkurrenzfähig sind.

Diese Generation bestimmt. Durch Ryzen und Epyc wird AMD jedoch endlich genügen Geld reinspülen, um in 2-3 Jahren auch bei den GPUs wieder mitmischen zu können mMn.

Platos
2018-01-14, 16:26:35
Mit der Inflation alleien kann man das sowieso nicht berechnen.

Und bei elektronik ist es sowieso so ne Sache mit der Inflation.

Hübie
2018-01-14, 16:36:56
Bei einer rein inhaltlichen Anmerkung muss man nun wirklich nicht sofort persönlich werden.

Unabhängig davon: Wenn man sich die gestiegenen Gewinne Nvidias ansieht, frage ich mich schon, wie man glauben kann, dass sie die Preise nicht stärker erhöhen als es die eigenen Kosten getan haben. In Anbetracht ihrer Zahlen macht das aus Sicht Nvidias ja auch Sinn.
Und hatten wir nicht seinerzeit auch die Diskussion, dass der XX4-Chip plötzlich in derselben Riege wie der frühere XX0-Chip verkauft wurde?

Mir ist klar, dass gleich wieder die üblichen Verdächtigungen mit Verteidigungen kommen werden. Aber ich klage nicht an, sondern stelle maximal fest. Und (im Gegensatz zu einigen anderen hier) kann ich zwischen meinen (als Verbraucher) und den Interessen Nvidias unterscheiden. Dass das immer wieder nicht differenziert wird ist... irritierend.

Wo bin ich persönlich geworden? Wegen dem "Durchfall"? Ich ärgere mich nun mal darüber, wenn nicht gelesen wird. Machen viele auch gerne bei Artikeln... Argumentativ bin ich sonst voll bei dir. Die Preise sind stärker gestiegen als sie hätten "müssen".

pixeljetstream
2018-01-14, 17:05:24
Bei einer rein inhaltlichen Anmerkung muss man nun wirklich nicht sofort persönlich werden.

Unabhängig davon: Wenn man sich die gestiegenen Gewinne Nvidias ansieht, frage ich mich schon, wie man glauben kann, dass sie die Preise nicht stärker erhöhen als es die eigenen Kosten getan haben. In Anbetracht ihrer Zahlen macht das aus Sicht Nvidias ja auch Sinn.
Und hatten wir nicht seinerzeit auch die Diskussion, dass der XX4-Chip plötzlich in derselben Riege wie der frühere XX0-Chip verkauft wurde?

Mir ist klar, dass gleich wieder die üblichen Verdächtigungen mit Verteidigungen kommen werden. Aber ich klage nicht an, sondern stelle maximal fest. Und (im Gegensatz zu einigen anderen hier) kann ich zwischen meinen (als Verbraucher) und den Interessen Nvidias unterscheiden. Dass das immer wieder nicht differenziert wird ist... irritierend.

Der Preis ergibt sich aus Angebot/Nachfrage am Markt. Selbst bei gleichem Preis kann man den Gewinn steigern wenn:
- die eigene Effizienz erhöht wird, Kosten der Entwicklung (perf/mm² für die Produkte, yield etc.)
- mehr Umsatz erzielt wird in Märkten mit höheren Magen.

Wenn mehr Leute x80 tis kaufen als früher, steigt der Gewinn, selbst wenn man am Preis nix dreht.

Keine Firma verschenkt irgendwas, es wird immer im Markt ausgelotet welche Preise für welchen Umsatz sorgen etc. Ohne jetzt Ahnung davon zu haben würde ich sagen, dass immer mit etwas Puffer gearbeitet wird um es weder in die eine noch andere Richtung zu übertreiben, damit man auf die Dynamik des Weltmarkts reagieren kann.

Wie Du sagst, statt an den Preisen zu drehen, werden einfach neue Kategorien/Preissegemente aufgemacht. Dann wird halt mal die Titan zwischen GeForce und Quadro platziert und gesehen was bei rauskommt.

Über die letzten Generationen wurde die Kurve "steiler" ergo mehr Leistung pro Preis

https://docs.google.com/spreadsheets/d/e/2PACX-1vSnE2mTHKyDU7MmSkeuIuudRcUy-I1AR7j5mRNE8G8egWztLkNi-Axv96wi6KN3r61maNtHbvaAwQv3/pubchart?oid=593367141&format=image

Ich hab lediglich den 1080Ti Perf wert relativ zur 1080 anhand des 4k index skaliert, da fullhd index sonst zu limitierend.
Man könnte auch noch mehr Produkte eintragen, habe die jeweiligen non-Ti von x50 bis x80 + x80 Ti, sowie beide 1060er.
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units