PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Hübie
2017-12-18, 14:34:04
Ich hatte mal ausgerechnet, dass man ca. 5,5 mal so viele GP104 full verkaufen müsste um den Gewinn der GP104 cut zu erwirtschaften. The same with every chip. :D Plus, Minus X.

Edit: 5,61 um genau zu sein.

RLZ
2017-12-18, 15:45:08
Generell verdient man sich mit v100 schon dumm und dämlich. Würde mich nicht wundern, wenn das der ertragreichste Chip für Nv jemals wird, obwohl er nur in relativ kleinen stückzahlen verkauft wird.
Erstmal muss er die Kosten wieder einspielen. Imo ist Volta erstmal ein Prestigeobjekt.

scully1234
2017-12-18, 16:03:40
Wenn das Oak Ridge nicht schon querfinanziert hat

https://www.olcf.ornl.gov/summit/

und Sierra nicht vergessen...

https://www.youtube.com/watch?v=OoajYVQuIhA

+ das was IBM da noch verwertet

https://youtu.be/VxIoWKp6NV0?t=198

Bucklew
2017-12-18, 16:04:16
Imo ist Volta erstmal ein Prestigeobjekt.
Nicht wirklich. Klar, die Entwicklung von GV100 hat sicherlich Jahre gedauert und Milliarden gekostet - aber da wird ja auch die grundlegende Architekturentwicklung mit einberechnet. Und die verteilt sich später auch noch auf die Gaming-Chips.

basix
2017-12-18, 16:45:08
Die Milliarden, die Jensen jeweils nennt, sind eh "Fantasiezahlen". Das sind einfach die R&D-Ausgaben zusammengerechnet, welche wahrscheinlich irgendwo seit Entwicklung Kepler oder gar noch früher seit G80 angefallen sind. Eine einzelne Architektur ist nie und nimmer so aufwändig zu entwickeln, ausser man beginnt von Scratch.

scully1234
2017-12-18, 17:01:51
Coral bekommt nun auch auf 3 Großcluster verteilt Volta V100

https://www.youtube.com/watch?v=KsgC3o6z45g

ich glaub Nvidia hat da genügend Kundschaft für den Chip

Timbaloo
2017-12-18, 17:14:05
Könnt ihr endlich mal mit dem Volta-Müll aufhören?

HOT
2017-12-18, 17:17:14
Kommt da einmal was Interessantes und tiefergehendes... :freak:

=Floi=
2017-12-18, 17:47:20
Ich hatte mal ausgerechnet, dass man ca. 5,5 mal so viele GP104 full verkaufen müsste um den Gewinn der GP104 cut zu erwirtschaften.

ich verstehe den satz nicht.
bezogen darauf, dass beim CUT mehr chips pro wafer abfallen?

Hübie
2017-12-18, 18:48:38
Korrekt. Die finden einen reißenden Absatz, was eben für die Chips darüber schwer wird zu erreichen, wenn man die Defektraten betrachtet.
To put it in a nutshell: Die Kohle wird nicht oben rum gemacht. ;)

@basix: Es ist in der Tat alles schwer zuzuordnen (allein weil man parallel an mehreren µArchs arbeitet und Grundlagenforschung in mehrere Chips einfließen), aber neue GPUs werden mit den Alten simuliert (also ein HPC im "Keller" von NV der die Verschaltungen simuliert). Das kalkulatorisch umzulegen ist schon schwer genug. Über 3-4 oder gar 5 Jahre hinweg mit allen vorangegangenen Forschungen kommt es schon hin, dass man aus dem neunstelligen Bereich hinaus wächst. Eine ähnliche Diskussion hatte ich mal mit Angiesan bzgl. des R&D Budgets. Die Wahrheit ist vermutlich irgendwo in der Mitte zu finden. ;)

Thunder99
2017-12-18, 18:53:08
Mich würde es nicht wundern, wenn Ampere Volta ist nur ohne dem ganzen Profi Krams wie GP102 vs GP100

Hübie
2017-12-18, 19:00:33
Na ja es ist möglich das Rad immer neu zu definieren, aber man kann es nicht neu erfinden. ;)

reaperrr
2017-12-18, 21:42:43
Mich würde es nicht wundern, wenn Ampere Volta ist nur ohne dem ganzen Profi Krams wie GP102 vs GP100
Auszuschließen ist es nicht, aber sowohl der Zeitunterschied als auch der abweichende Code-Name und anvisierte Markt lassen zumindest auf ein paar auf Spiele ausgerichtete Verbesserungen hoffen. Zwischen Maxwell 1.0 und 2.0 lagen ja auch nur ein paar Monate, ein paar mehr Verbesserungen als nur "Profi-Krams rausschneiden" sollte also schon drin sein.

Iruwen
2017-12-18, 22:28:25
Nvidia hat Intel im Nacken, mit seinem riesen Budget

Hat ihnen bei Larrabee auch nicht geholfen. Oder gegen Ryzen.

pixeljetstream
2017-12-18, 22:38:54
Die holen nur tief Luft :) die kommen schon noch.

scully1234
2017-12-19, 00:51:19
Hat ihnen bei Larrabee auch nicht geholfen. Oder gegen Ryzen.

Larrabee war ne Sackgasse, darum hat man ja nun Koduri eingekauft, um den Bereich umzukrempeln.

Und Ryzen hat man doch schon wieder eingefangen mit Coffee Lake.

Intels Fehler war es vielleicht, es in der Bulldozer Aera "etwas" schleifen zu lassen, aber auch die sind lernfähig.

Intel zu weichzuspülen wäre die selbe Falle, in die Intel erst getappt ist bei AMD, ich denke nicht das Jensen sich da verleiten lässt den selben Fehler zu begehen

Korvaun
2017-12-19, 07:46:18
Na Intel hat ja jetzt den Ex-AMD-Ober-Grafik-Guru Raja Koduri, der haut nu wieder mal einen raus und dann ist Intel bestimmt ganz sicher die Nummer 1 im High-End-Graka-Business ;)

Palpatin
2017-12-19, 08:47:06
Bisher fehlten Intel auch die dafür notwendigen Patente, aber gut möglich das sie diesbezüglich einen Deal mit AMD gemacht haben.

Hübie
2017-12-19, 09:26:29
Ich bin mir gar nicht mal so sicher dass Intel da wirklich einen Grafikchip baut. Eher einen fetten SIMD-Chip mit onboard-RAM. Ist hier aber nicht Thema, also bitte back to Ampère (Name gefixt). :D

Timbaloo
2017-12-19, 10:03:17
Amperé. :D
Ich war derart schlecht in Französisch, aber das tut sogar mir weh :D

Hübie
2017-12-19, 10:08:37
Hatte ich nie, aber das erste E hatte den Strich nach links, stimmt. :D

Sven77
2017-12-19, 10:12:02
Ich war derart schlecht in Französisch, aber das tut sogar mir weh :D

Ampereeee

Hübie
2017-12-19, 10:20:38
Ampereeee

X-D Im Kopf sah das wegen René so gut aus. :redface:

scully1234
2017-12-26, 12:19:19
Laut Igor ist Q1 angepeilt für Ampere

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11586431&postcount=8015

BlacKi
2017-12-26, 12:32:38
naja, ist zwar eindeutig formuliert, aber woanders sagte er, das die chinesen mitte januar die produktion hochfahren, aber erst anfang Q2 die karten kommen werden.

soderso ich bin gespannt.

reaperrr
2017-12-26, 12:49:22
Laut Igor ist Q1 angepeilt für Ampere

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11586431&postcount=8015
Kann man natürlich so interpretieren, aber streng genommen hat er nur gesagt, dass GDDR6 für den Zeitraum angepeilt ist, nicht dass es definitiv einen Graka-Release damit in Q1 geben wird.
Erstmal muss genug Speicher produziert und getestet + gebinnt werden, dann muss der auf die PCBs gepflanzt und die Karten nochmal getestet werden und dann muss das ganze noch verpackt und - je nach zu erwartender Nachfrage - in Launch-tauglichen Stückzahlen an die Händler verschickt werden.

Sicherlich machbar, aber kann halt auch Anfang Q2 werden.

BlacKi
2017-12-26, 12:54:34
Kann man natürlich so interpretieren, aber streng genommen hat er nur gesagt, dass GDDR6 für den Zeitraum angepeilt ist, nicht dass es definitiv einen Graka-Release damit in Q1 geben wird.
Erstmal muss genug Speicher produziert und getestet + gebinnt werden, dann muss der auf die PCBs gepflanzt und die Karten nochmal getestet werden und dann muss das ganze noch verpackt und - je nach zu erwartender Nachfrage - in Launch-tauglichen Stückzahlen an die Händler verschickt werden.

Sicherlich machbar, aber kann halt auch Anfang Q2 werden.
nein, er hat es so formuliert :"Ampere kann GDDR6 und der kommt in Q1."

robbitop
2017-12-26, 13:03:33
Aber wahrscheinlich erstmal nur die 104 und 106 GPUs. Sind dann sicher noch ein paar Monate bis die GA102 als (2080?)Ti kommt.

Digidi
2017-12-26, 13:06:58
Wenn ampere Q1 kommt ist das dann 12 nm? Dann wird der Leistungsrpung wohl eher dürftig bleiben und die Shaderanzahl nur moderat wachsen.

BlacKi
2017-12-26, 13:16:28
Aber wahrscheinlich erstmal nur die 104 und 106 GPUs. Sind dann sicher noch ein paar Monate bis die GA102 als (2080?)Ti kommt.
wieso glaubst du das GA102 als TI 2018 kommt? zuerst werden die Chips als Titanen für 1500$ verkloppt, ca 9 monate danach erst als TI. die TI kommt erst 2019.

Ich denke das GA104 den anfang macht.

@Digi

12nm reicht für 50-60% ggü. der 1080. natürlich muss man die chipfläche deutlich erhöhen.

Timbaloo
2017-12-26, 13:17:53
Wenn ampere Q1 kommt ist das dann 12 nm? Dann wird der Leistungsrpung wohl eher dürftig bleiben und die Shaderanzahl nur moderat wachsen.

Die Leistung dürfte in der Region sein wie man es gewohnt ist. Die Chips werden halt durch den geringen Prozessunterschied etwas größer rauskommen. GA104 so bei 380-400mm².

Digidi
2017-12-26, 13:18:36
12nm reicht für 50-60% ggü. der 1080. natürlich muss man die chipfläche deutlich erhöhen.

Dann bist du da etwas über der 1080ti und hast die gleiche Chipfläche wie die 1080ti. Ich frage mich wo dann die neue 2080ti hingeht. Die müsste dann eigentlich in 7nm kommen. 12nm wird ansonsten zu teuer wie man ja an der titan V erkennt.

scully1234
2017-12-26, 13:19:32
@Digi

12nm reicht für 50-60% ggü. der 1080. natürlich muss man die chipfläche deutlich erhöhen.

Ist ja nicht so als hätte man nicht schon mal 500-600mm² Chips gefertigt im Geforce Sektor

robbitop
2017-12-26, 13:24:14
Bestätigt ist ja noch nichts. Aber 12 nm erhöhen die Packdichte nicht besonders ggü 16 nm. ~5%. Aber die dice waren zu Pascal verglichen mit Maxwell relativ klein.

Ich tippe auf 5120 SPs im Vollausbau des GP102. Also 1/3 mehr SPs als GP102. Entsprechend wäre, sofern die Verteilungen so bleiben, wie sie waren GA104: 3328
GA106 hätte entsprechend 1.664 SPs.

Ggf. hat GA102 auch noch 1...3 SMs mehr. Dann hätte GA104 1-2SMs mehr und GA106 1 SM mehr.

wieso glaubst du das GA102 als TI 2018 kommt? zuerst werden die Chips als Titanen für 1500$ verkloppt, ca 9 monate danach erst als TI. die TI kommt erst 2019.

Ich denke das GA104 den anfang macht.

@Digi

12nm reicht für 50-60% ggü. der 1080. natürlich muss man die chipfläche deutlich erhöhen.
Ja ich fürchte, dass die GA102 als Ti noch lange dauert. AMD muss mal den Druck erhöhen. Scheiß Salamitaktik/Gewinnmaximierung. :D

12 nm bringt nur 5% Flächenvorteil. Deutliche Leistungssteigerung pro Transistor oder pro ALU sehe ich noch nicht wirklich. Sollte man aber auch nicht ausschließen.
Deutlich mehr Takt sind bei 12 nm auch nicht zu erwarten.

Ggf. holt man 5-10% mehr Taktnormierte Leistung, 5-10% mehr Takt und ~1/3 mehr Breite (linear extrapoliert und den "shrink" einbezogen käme man dann auf ~600sqmm bei GA102). Käme man auf gute ~50% mehr Leistung.

BlacKi
2017-12-26, 13:26:20
Dann bist du da etwas über der 1080ti und hast die gleiche Chipfläche wie die 1080ti. Ich frage mich wo dann die neue 2080ti hingeht. Die müsste dann eigentlich in 7nm kommen. 12nm wird ansonsten zu teuer wie man ja an der titan V erkennt.
die 980 hatte 398mm². würde mich nicht wundern wenn man die 400mm² knackt.

mit schnellerem gddr6 und 600+mm² könnte man die TI 2019 bringen. oder wenns billiger geht in 7nm.

robbitop
2017-12-26, 13:32:26
Die GA104 wird billiger als die 1080ti. Dank GDDR6 braucht sich wahrscheinlich nur 256 bit. Spart man 3 GiB RAM und das PCB wird weniger komplex und man spart etwas Fläche auf dem die für den Controller. Wahrscheinlich ist die GPU auch etwas kleiner, weil man weniger SPs braucht/hat als GP102. Ich tippe auf ~420 sqmm statt 471 sqmm.
Und die Spannungsversorgung ist ggf auch ein wenig billiger.

BlacKi
2017-12-26, 13:35:55
ausserdem ist der 12nm schon lange in betrieb, die kosten für jenen liegen deutlich unter den preisen von 2016 für 16nm.

Kriton
2017-12-26, 14:09:47
nein, er hat es so formuliert :"Ampere kann GDDR6 und der kommt in Q1."

Nach unseren Sprachregeln bezieht sich das "kommt in Q1" aber auf GDDR6, weil es als letztes genannt wurde. Und das passt dann auch wieder zu Ampere in Q2. Also kein Widerspruch in seinen Aussagen.

Hübie
2017-12-26, 14:16:40
Afaik 10. Mai Vorstellung und 29. Mai Launch. 14Gbps GDDR6 am 256 Bit Bus.

scully1234
2017-12-26, 14:22:35
Nach unseren Sprachregeln bezieht sich das "kommt in Q1" aber auf GDDR6, weil es als letztes genannt wurde. Und das passt dann auch wieder zu Ampere in Q2. Also kein Widerspruch in seinen Aussagen.

Er sagte Vorstellung auf der GDC ,Release kurz danach, also nehme ich mal an er meinte auch Q1 auf die Karte bezogen,und nicht auf den Speicher

Kriton
2017-12-26, 14:32:36
Es steht Dir natürlich frei bei Dieser Meinung zu bleiben. Ich sage nur, dass der proklamierte Widerspruch sprachlich nicht vorliegt.
Und Dein verlinktes Zitat spricht für meine Argumentation.

Im Übrigen sagte er (nur):


Ist doch bekannt, dass Micron den GDDR6 fertig hat. Ampere sollte sicher zur GDC vorgestellt werden, Launchevent kurz darauf. Meine Vermutung.

Ich kann da Deine Aussage nicht herauslesen, selbst wenn ich die selbst zugegebene Vermutung als Realität nehme.
Zumal die GDC 2018 Ende März stattfindet.

reaperrr
2017-12-26, 14:34:46
Die GA104 wird billiger als die 1080ti. Dank GDDR6 braucht sich wahrscheinlich nur 256 bit. Spart man 3 GiB RAM und das PCB wird weniger komplex und man spart etwas Fläche auf dem die für den Controller. Wahrscheinlich ist die GPU auch etwas kleiner, weil man weniger SPs braucht/hat als GP102. Ich tippe auf ~420 sqmm statt 471 sqmm.
Und die Spannungsversorgung ist ggf auch ein wenig billiger.
Ich denke, die Ersparnis wird größer sein.

Neben 1/3 des SI fällt auch 1/3 der ROPs weg, evtl. 1 MB L2 (wobei der bei GV100 ja um 50% größer wurde, also nicht 100% sicher), dazu passend wahrscheinlich auch nur 4 GPCs mit je 7(?) SM und 3-5% Flächenersparnis durch 12nm.
Also eher GM204-Regionen, sprich <= 400mm². Außer natürlich, die erhöhte Effizienz wurde teilweise durch mehr Fläche erkauft.

scully1234
2017-12-26, 14:35:12
Zumal die GDC 2018 Ende März stattfindet.

Nach meiner Definition ist das noch Q1 für die Karte

Timbaloo
2017-12-26, 14:38:23
Die 420mm² für den GA104 passen auch nicht so recht zu den 600mm² für GA102. Letzterer würde da eher bei 630mm² rauskommen (Verhältnis 1.5, siehe GP102 zu GP104 und GM200 zu GM204). Und warum sich am Größenverhältnis was ändern sollte sehe ich nicht.

robbitop
2017-12-26, 14:45:56
20 sqmm entsprechen 5%. Diese Genauigkeit trifft man im spekulativen Bereich doch sowieso nicht. Insofern ist es müßig, über diese Granularität zu diskutieren. 400 sqmm +/-10% und 600 sqmm +/-10%. So in etwa wird es sicherlich werden.

Poook
2017-12-26, 14:51:56
Dann bist du da etwas über der 1080ti und hast die gleiche Chipfläche wie die 1080ti. Ich frage mich wo dann die neue 2080ti hingeht. Die müsste dann eigentlich in 7nm kommen. 12nm wird ansonsten zu teuer wie man ja an der titan V erkennt.

Der Preis der Titan V hat meiner Meinung nach wenig mit den Produktionskosten zu tun. Ich halte den eher für einen Testballon um zu sehen wie weit sie gehen können.

scully1234
2017-12-26, 14:59:35
Der Preis der Titan V hat meiner Meinung nach wenig mit den Produktionskosten zu tun..

stimmt so ein 815mm² Chip gibts zum Nulltarif bei Aldi auf dem Grabbeltisch


http://www.pcgameshardware.de/Volta-Codename-266151/News/Nvidia-GV100-Produktionskosten-Geforce-2017-1235632/

und Entwicklungskosten,PCB,Interposer und HBM Geraffel ,bezahlt auch die Mutter Theresa,und vernünftige Margen sind auch abwegig bei einem börsennotierten Unternehmen :D

horn 12
2017-12-26, 15:21:37
Dann wird aber GTX 2070 knapp GTX 1080 TI Referenz Leistung erhalten
und eine GTX 2080 wohl GTX 1080 TI Custom, maximale 10% drüber.

BlacKi
2017-12-26, 15:30:24
Dann wird aber GTX 2070 knapp GTX 1080 TI Referenz Leistung erhalten
und eine GTX 2080 wohl GTX 1080 TI Custom, maximale 10% drüber.
zwischen 1070 und 1080 liegen ca 25%. wenn also die 2070 knapp an die 1080ti rankommt, dann gehe ich nicht von bloß 10% über der 1080ti aus.

die x70er varianten sind sowieso kein guter anhaltspunkt, die werden mal so und so beschnitten.

wie gesagt legt nvidia bei der fullchip variante immer ca 60% drauf, daran kann man sich besser orientieren.

HOT
2017-12-26, 16:12:49
Eine 1080Ti Referenz ist grad mal 20% schneller als ne 1080 Referenz. Wenn die 2080 jetzt nativ 3384 Shader hätte, (was nicht unwahrscheinlich ist bei der Bandbreite) ist kaum mehr als 25-30% über der 1080 zu erwarten, entsprechend der Speicherbandbreite - bei erhöhter TDP selbstverständlich. Der Chip käme sicherlich bei 400mm² knapp raus. Natürlich wird Ampere sicherlich den besseren Support für async compute von Volta erben, also bei DX12 und Vulkan durchaus schneller sein als Pascal.

Timbaloo
2017-12-26, 16:30:56
Irgendwie ist es doch GP104 (314mm²) -> GA104 (spek. ~400mm²) eine recht ähnliche Situation wie GK104 (294mm²) -> GM104 (398mm²). Da war Maxwell ~50% schneller als Kepler bei ~gleicher Leistungsaufnahme.

O.K. da waren recht deutliche Architekturänderungen drin, worüber wir bei Ampere noch so gut wie nichts wissen (von umgelabelter und abgespeckter Volta Arch bis zu "komplett eigenes Ding" ist irgendwie alles drin). Aber 25-30% halte ich für zu wenig, vor allem wenn die Leistungsaufnahme sogar höher sein soll...

Außer natürlich NV hat R&D für Consumer-Chips zu AMD ausgegliedert...

BlacKi
2017-12-26, 16:43:04
Eine 1080Ti Referenz ist grad mal 20% schneller als ne 1080 Referenz.
CB hat in den 4k benchmarks sagenhafte 35% gemessen. der 3dcenter index 4k sagt 32,5%. und nu?

aufkrawall
2017-12-26, 16:48:47
Irgendwie ist es doch GP104 (314mm²) -> GA104 (spek. ~400mm²) eine recht ähnliche Situation wie GK104 (294mm²) -> GM104 (398mm²). Da war Maxwell ~50% schneller als Kepler bei ~gleicher Leistungsaufnahme.

Es waren ca. ~70%:
https://www.anandtech.com/bench/product/1348?vs=1351

Timbaloo
2017-12-26, 16:55:18
Ich habe die 770 zum Vergleich genommen, nicht die 680. Die ~50% waren von TPU:

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/26.html

BlacKi
2017-12-26, 17:04:55
nein nein, ihr liegt alle falsch, die mitte ist richtig. das hab ich euch doch schon gesagt!^^

gtx 680 3dc index 360%

gtx 980 3dc index 570%

=58%

somit erhält die 2080 einen 3dcenter index von ca 1500 punkten.

aufkrawall
2017-12-26, 17:07:58
Die 770 hat allerdings 220W TDP, während die 980 180W hat:
http://www.tomshardware.com/reviews/geforce-gtx-770-gk104-review,3519-25.html
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html
Das ist halt die PT-Einstellung, irgendwelche Spiele laufen da immer rein. Ich hatte eine GTX 670 OC, Trine 2 mit SSAA an und das Teil glühte.
980 vs. 680 sind 180W PT vs. 180W PT.

Timbaloo
2017-12-26, 17:16:20
So, da hat eine Karte mit ~10% Mehrleistung ~12% mehr Leistungsaufnahme (in Metro LL) bei identischen Chip. Geniale Erkenntnis. Das bringt uns hier richtig weit. Oder willst du auf irgendwelche synthetischen Benchmarks hinaus? Die bringen uns sogar noch viel weiter...

aufkrawall
2017-12-26, 17:22:05
Glaub halt weiter an deine Milchmädchenrechnung. Ich hatte zwar GK104 und GM204 im Rechner + Wattmeter, aber du bist ja offenkundig trotzdem der Experte.
Unbelehrbarkeit im 3DC, die Xte...

BlacKi
2017-12-26, 17:22:12
jetzt bringt ihr alles durcheinander. referenz produkte hatten 980=165w, 770=230w, 680=180w.

wenn nun GA104 kommt und wäre zu langsam bei geringem verbrauch, dann würden die lieber mit dem verbrauch hochgehen als den leistungseinbruch hinzunehmen. bei der 980 wären auch lockenr 70-80% drinngewesen, wenn man ein 230w powertarget gewählt hätte. aber das wollte man nicht. man hat seine 60% auch mit 165w PT erreicht.

aufkrawall
2017-12-26, 17:26:35
jetzt bringt ihr alles durcheinander. referenz produkte hatten 980=165w
:rolleyes:
https://abload.de/thumb/980ekq3q.png (http://abload.de/image.php?img=980ekq3q.png)
https://www.techpowerup.com/vgabios/163505/evga-gtx980-4096-140905
+ siehe Link oben.
:rolleyes:

Lauter Experten hier...

Edit: 770 hat 228W:
https://abload.de/thumb/770idrfw.png (http://abload.de/image.php?img=770idrfw.png)
https://www.techpowerup.com/vgabios/141629/evga-gtx770-2048-130522

Kriton
2017-12-26, 17:27:01
Nach meiner Definition ist das noch Q1 für die Karte

Langsam wird es echt ermüdend.

Natürlich ist Ende März noch Q1, aber die Aussage war ja auch "kurz darauf" und das kann durchaus Q2 bedeuten. Er hat kein spezifisches Datum genannt. Und die GDC endet am 23. März.

Ich sage nicht, wann der Lauch oder sogar die Verfügbarkeit ist. Ich merke nur an, dass der behauptete Widerspruch in Igors Aussagen nur in der Fantasie einiger hier besteht, aber sich nicht aus seinen Aussagen ergibt. Daher kamen wir!

Igor sagte GDDR6 zur GDC und Ampere kurz darauf. In einem anderen Post: Ampere in Q2. Beide Aussagen passen durchaus zusammen. Um mehr ging es nicht.

Timbaloo
2017-12-26, 17:28:09
Glaub halt weiter an deine Milchmädchenrechnung. Ich hatte zwar GK104 und GM204 im Rechner + Wattmeter, aber du bist ja offenkundig trotzdem der Experte.
Unbelehrbarkeit im 3DC, die Xte...
Ich nehme die Zahlen aus den Links die du mir gibst. Wenn dir die Zahlen nicht passen, dann verlinke sie nicht. Aber wenn du weiterhin meinst, dass es maßgebliche Effizienzunterschiede zwischen der 680 und der 770 gab, bitte, gerne, danke.

aufkrawall
2017-12-26, 17:28:50
Wie viel Weihnachtssekt muss man intus haben, um das in meine Worte zu legen...

Timbaloo
2017-12-26, 17:39:42
Wenn du also doch der Meinung bist, dass es keine maßgeblichen Effizienzunterschiede zwischen der 680 und der 770 gibt, was macht es dann für einen verfickten Unterschied welche ich als Vergleich heranziehe?

Warum musst du wegen so eine pedantischen Kinderkacke ständig irgendwelche Threads kaputtmachen? Du trägst hier genau nix bei mit deinem "oh ich hatte dies und das und mit Wattman", das interessiert doch keine Sau!

aufkrawall
2017-12-26, 17:51:02
Irgendwie ist es doch GP104 (314mm²) -> GA104 (spek. ~400mm²) eine recht ähnliche Situation wie GK104 (294mm²) -> GM104 (398mm²). Da war Maxwell ~50% schneller als Kepler bei ~gleicher Leistungsaufnahme.
Wenn du GK104 vs. GM204 bei 180W PT vergleichst, kommen da nicht nur +50% für GM204 bei raus. Bei Weitem nicht & eod. Fröhliche Weihnachten.

Timbaloo
2017-12-26, 18:02:27
Also bei meiner genannten Referenz (TPU) ist es die gleiche Leistungsaufnahme. Dir auch schöne Weihnachten.

Ex3cut3r
2017-12-26, 18:40:49
Eine 1080Ti Referenz ist grad mal 20% schneller als ne 1080 Referenz.

Wo hast du das denn her? Es sind eigentlich immer 30-35% je nach Auflösung.

Schön das Ampere mit GDDR6 kommt und dann noch in Q1, dann wird kein normaler Mensch außer die AMD Hardcore Fans noch Vega kratzen. Achja und die Freesync Abhängigen.

scully1234
2017-12-26, 19:16:11
dann wird kein normaler Mensch außer die AMD Hardcore Fans noch Vega kratzen.

Das ist auch der Grund warum man sich im anderen Thread den Mund fusselig redet,über die spärliche Verfügbarkeit zu Weihnachten, obwohl AMD zu dieser Erkenntnis auch schon gelangt sein dürfte,und keine Überproduktionen mehr riskiert ,für ein Produkt was in 3-4 Monaten EOL ist.

Rollt Nvidia mit Ampere ein komplettes Portfolio aus, ist der Drops mindestens bis Navi gelutscht

robbitop
2017-12-26, 19:20:32
HBM war keine all zu schlaue Idee für Consumer Produkte offenbar. Verfügbarkeit und Preis. Bei Fijii die Speichermenge.

Wahrscheinlich hatte AMD jeweils keine Wahl wegen der Bandbreitenlimitierung. Da hätte man echt eher was machen müssen.

fondness
2017-12-26, 19:29:07
Wahrscheinlich hatte AMD jeweils keine Wahl wegen der Bandbreitenlimitierung. Da hätte man echt eher was machen müssen.

Den Grund kann man ausschließen. Die 484GB/s von vega hätte man bsw. völlig problemlos auch mit GDDR erreicht. Selbst bei Fiji war das kein Argument. Der Grund für den HBM war u.a. der Intel Deal und was man noch von Vega sehen wird. Das sind nämlich Einsatzgebiete, die mit GDDR-Interface nicht machbar sind.

Timbaloo
2017-12-26, 19:30:05
OT: Hängen die Radeons immer noch so arg an der Bandbreite? Ich meine HBM war auch ein Effizienzbaustein (wenngleich weniger effektiv als erwartet).

robbitop
2017-12-26, 20:05:42
Bereits Hawaii braucht 512bit GDDR5. Fijii wäre mit GDDR5 verhungert oder hätte ein 768 bit SI gebraucht. Auch Vega scheint in Bezug auf HBM2 nicht überdimensioniert zu sein. Der Bandbreitenbedarf bei AMDs aktuellen mArchs ist schon ziemlich hoch...
512bit GDDR5X wäre ggf ausreichend für Vega...

fondness
2017-12-26, 20:16:38
Bereits Hawaii braucht 512bit GDDR5. Fijii wäre mit GDDR5 verhungert oder hätte ein 768 bit SI gebraucht. Auch Vega scheint in Bezug auf HBM2 nicht überdimensioniert zu sein. Der Bandbreitenbedarf bei AMDs aktuellen mArchs ist schon ziemlich hoch...
512bit GDDR5X wäre ggf ausreichend für Vega...

Ähm gp102 hat mit einem 384 bit si mehr Bandbreite als Vega10. Hawaii hatte nur sehr niedrig getakteten Speicher.

aufkrawall
2017-12-26, 20:19:43
Bei Wikipedia stehen die Transferraten in GB/s.

|MatMan|
2017-12-26, 20:45:08
Ähm gp102 hat mit einem 384 bit si mehr Bandbreite als Vega10. Hawaii hatte nur sehr niedrig getakteten Speicher.
Die GTX 1080 hat 320 GB/s und ist im Mittel etwa so schnell wie Vega64 mit 484 GB/s. Die GTX 1080Ti hat auch 484 GB/s und ist deutlich schneller als Vega64 (laut Index im Mittel). Was willst du also mit deiner Aussage zeigen?

Locuza
2017-12-26, 20:55:33
Die GTX 1080 hat 320 GB/s und ist im Mittel etwa so schnell wie Vega64 mit 484 GB/s. Die GTX 1080Ti hat auch 484 GB/s und ist deutlich schneller als Vega64 (laut Index im Mittel). Was willst du also mit deiner Aussage zeigen?
Der Kontext war robbitops Behauptung, dass ein 512-Bit breites GDDR5X Interface für Vega gegebenenfalls ausgereicht hätte, es bräuchte aber "nur" ein 384-Bit breites Interface mit 10(11) Gbps wie beim GP102, um auf die praktisch selbe Bandbreite zu kommen oder gar mehr zu bekommen.

robbitop
2017-12-26, 20:57:58
Ähm gp102 hat mit einem 384 bit si mehr Bandbreite als Vega10. Hawaii hatte nur sehr niedrig getakteten Speicher.

GP102 hat aber auch massiv mehr Leistung. Vergleichbar ist gp104. Und der hat deutlich weniger Bandbreite.

Der Kontext war robbitops Behauptung, dass ein 512-Bit breites GDDR5X Interface für Vega gegebenenfalls ausgereicht hätte, es bräuchte aber "nur" ein 384-Bit breites Interface mit 10(11) Gbps wie beim GP102, um auf die praktisch selbe Bandbreite zu kommen oder gar mehr zu bekommen.

Das stimmt wohl. 384 bit gddr5x oder 512 bit gddr5.

Lange Rede kurzer Sinn: die Kernaussagen sind, dass hbm eine unkluge Idee war und AMDs mArchs nicht besonders bandbreiteneffizient sind- was leider die BOM in die Höhe treibt da man breiter angebundenen Speicher für gleiche Performance liefern muss als die Konkurrenz.

reaperrr
2017-12-26, 21:39:26
GP102 hat aber auch massiv mehr Leistung. Vergleichbar ist gp104. Und der hat deutlich weniger Bandbreite.



Das stimmt wohl. 384 bit gddr5x oder 512 bit gddr5.

Lange Rede kurzer Sinn: die Kernaussagen sind, dass hbm eine unkluge Idee war und AMDs mArchs nicht besonders bandbreiteneffizient sind- was leider die BOM in die Höhe treibt da man breiter angebundenen Speicher für gleiche Performance liefern muss als die Konkurrenz.
Wobei ich meine, in irgendeinem Test gelesen zu haben (kA wo, daher keine Quellenangabe möglich), dass die real ankommende Bandbreite bei V10 extrem niedrig ist, sogar noch deutlich niedriger als bei Fiji.
Problem ist möglicherweise also gar nicht so sehr das schwächere TBR oder schwächere DCC, sondern dass der Controller-Overhead und/oder die Verwendung von IF und/oder höhere HBM2-Latenz verhindert, dass überhaupt die volle nominelle Bandbreite zur Verfügung gestellt wird, sondern die real ankommende Bandbreite - noch vor Berücksichtigung von TBR und DCC - kaum über 1080 FE-Niveau liegt.

Locuza
2017-12-26, 21:53:54
Das war die Beyond3D-Suite die unter anderem PCGH verwendet hat:
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/

Die seltsamen Ergebnisse waren vor allem bei der Frontiers Edition ausgeprägt, mit der RX Vega sieht eig. alles in Ordnung aus.
Die effektive Texturbandbreite zeigt die B3D-Suite immer noch unter einer Fury X, aber AIDA64 weißt dafür eine höhere Bandbreite aus, obwohl die theoretische Bandbreite ein wenig geringer ausfällt.

Übrigens soll dank dem IF die Texture-Cache Read/Write-Latency deutlich gesunken sein, im Vergleich zum älteren Interconnect von Fiji.
-67% bei Writes und -41% bei Reads:
https://youtu.be/jVNuZ4Rfs6k?t=46m14s

PS: Das ganze könnte man vielleicht in einen AMD/Vega-Thread verschieben.

fondness
2017-12-27, 08:06:50
Der Kontext war robbitops Behauptung, dass ein 512-Bit breites GDDR5X Interface für Vega gegebenenfalls ausgereicht hätte, es bräuchte aber "nur" ein 384-Bit breites Interface mit 10(11) Gbps wie beim GP102, um auf die praktisch selbe Bandbreite zu kommen oder gar mehr zu bekommen.

Danke, genau darum ging es und um nichts anderes. Keine Ahnung warum man sich da gleich genötigt fühlt einen Schwanzvergleich zu machen. GP102 diente nur als Vergleich um zu zeigen, dass 384 bit ausreichend gewesen wären für die 484 gb/s von Vega 10. Der hbm hatte eine ganz bestimmten Grund und dieser wird sich auch mehr und mehr darstellen in der Zukunft.

robbitop
2017-12-27, 09:12:28
Danke, genau darum ging es und um nichts anderes. Keine Ahnung warum man sich da gleich genötigt fühlt einen Schwanzvergleich zu machen. GP102 diente nur als Vergleich um zu zeigen, dass 384 bit ausreichend gewesen wären für die 484 gb/s von Vega 10. Der hbm hatte eine ganz bestimmten Grund und dieser wird sich auch mehr und mehr darstellen in der Zukunft.

Ja da hast du Recht. :)

Zu letzterem: mag sein. Die Frage ist, ob es das wert wa, damit es in der Zukunft was bringt. Offenbar scheint es schlauer zu sein, Dinge erst dann zu bringen, wenn sie gebraucht werden. Siehe auch schon SM3 im NV40. Transistoren, die keine Mehrperformance und somit zu Lebzeit keinen Vorteil brachten. Oder NV3x oder R600 etc.

NV kann sich es leisten HBM bei einem teuren Enterprise Produkt zu erproben. AMD muss es bei den Consumerprodukten machen.

fondness
2017-12-27, 18:11:19
Ja da hast du Recht. :)

Zu letzterem: mag sein. Die Frage ist, ob es das wert wa, damit es in der Zukunft was bringt. Offenbar scheint es schlauer zu sein, Dinge erst dann zu bringen, wenn sie gebraucht werden. Siehe auch schon SM3 im NV40. Transistoren, die keine Mehrperformance und somit zu Lebzeit keinen Vorteil brachten. Oder NV3x oder R600 etc.

NV kann sich es leisten HBM bei einem teuren Enterprise Produkt zu erproben. AMD muss es bei den Consumerprodukten machen.

Ohne HBM wäre Vega auch nicht schneller, ich denke hier wird zu viel hinein interpretiert in Dinge die man nicht weiß. Auch Polaris20 ist kaum verfügbar, obwohl kein HBM verwendet wird. Klar HBM wird etwas teurer sein, aber der Preis scheint aktuell nicht das Problem zu sein. Durch den HBM kann man völlig neue Märkte erschließen wie big APUs on socket oder auch integrierte Lösungen wie mit den Intel-APUs. Als reiner GPU-Hersteller tut man sich da natürlich etwas leichter keine Frage, aber AMD braucht möglichst flexible Lösungen für verschiedene Einsatzgebiete. Es wurde noch nicht alle Vega-Produkte vorgestellt.

BlacKi
2017-12-27, 20:15:32
mhhh, ob ich für meine 1080ti mitte märz noch ca 650€ bekomme?^^

um dann einen monat später für fast dasselbe geld die ca 20% schnellere 2080 zu kaufen?:uponder:

MadPenguin
2017-12-27, 20:20:31
mhhh, ob ich für meine 1080ti mitte märz noch ca 650€ bekomme?^^

um dann einen monat später für fast dasselbe geld die ca 20% schnellere 2080 zu kaufen?:uponder:

Darf ich jetzt ganz ehrlich fragen, ob ihr wirklich glaubt, dass Ampere bereits im April kaufbar sein wird? Nicht euer Ernst oder? Das ist doch reines Wunschdenken...

Screemer
2017-12-27, 20:22:42
Igor sprach schon mehrfach von q1. Soweit ich weiß sprach er auch von kaufbar.

MadPenguin
2017-12-27, 20:24:27
Igor sprach schon mehrfach von q1. Soweit ich weiß sprach er auch von kaufbar.

Hmmm. Das ist natürlich interessant. Wie zuverlässig sind solche Infos 3-4 Monate zuvor?

AffenJack
2017-12-27, 20:26:33
Selbst abseits von Igor weiß ich nicht, wieso das Wunschdenken sein sollte. Im Mai sind es 2 Jahre seit Pascallaunch. 2 Jahre ist der normale Architekturzyklus bei Nv.

BlacKi
2017-12-27, 20:28:08
Hmmm. Das ist natürlich interessant. Wie zuverlässig sind solche Infos 3-4 Monate zuvor?
er hat gesagt das die produktion nach dem neujahrfest der chinesen anläuft, ca. mitte januar?

gelistet wurden die 1080 karten direkt nach der vorstellung anfang mai, ausgeliefert ende mai, anfang juni.

MadPenguin
2017-12-27, 20:30:11
Selbst abseits von Igor weiß ich nicht, wieso das Wunschdenken sein sollte. Im Mai sind es 2 Jahre seit Pascallaunch. 2 Jahre ist der normale Architekturzyklus bei Nv.

Weil man die Kuh noch lange melken kann, solange AMD nichts wirklich gutes entgegenzusetzen hat? Vielleicht wird Vega refresh endlich das, was Vega hätte sein sollen. Bis dann (vielleicht) braucht Nvidia nichts wirklich Neues.....und eventuell danach auch noch nichts

AffenJack
2017-12-27, 20:31:47
er hat gesagt das die produktion nach dem neujahrfest der chinesen anläuft, ca. mitte januar?

gelistet wurden die 1080 karten direkt nach der vorstellung anfang mai, ausgeliefert ende mai, anfang juni.

Dieses Jahr sehr spät mitte Februar. Daher ist eine Kaufbarkeit in Q1 sehr unwahrscheinlich. Aber Ende April schon gut möglich.

Weil man die Kuh noch lange melken kann, solange AMD nichts wirklich gutes entgegenzusetzen hat? Vielleicht wird Vega refresh endlich das, was Vega hätte sein sollen. Bis dann (vielleicht) braucht Nvidia nichts wirklich Neues.....und eventuell danach auch noch nichts

So funktioniert das Geschäft nicht. Das Zeug ist seit Jahren in Entwicklung und wird dann gebaut, wenn es fertig ist. Es macht keinen Sinn bessere Produkte nach hinten zu verschieben, da diese normalerweise Marktanteile und/order Margen steigern. Außerdem kommst du dann den nächsten Produkten in 7nm immer mehr in die Quere.

BlacKi
2017-12-27, 20:33:23
was mir sorgen macht, ist das die ampere karten dann vl auch für miner interessant werden könnten. dann hält das mining problem vl auch bei nv einzug, nur nicht so dramatisch.

Dieses Jahr sehr spät mitte Februar.
urghs, so kann man daneben liegen...

Rampage 2
2017-12-27, 20:49:32
Selbst abseits von Igor weiß ich nicht, wieso das Wunschdenken sein sollte. Im Mai sind es 2 Jahre seit Pascallaunch. 2 Jahre ist der normale Architekturzyklus bei Nv.

Naja, nach einer Vorstellung/Launch dauert es idR ein paar Wochen oder Monate bis die ersten kaufbaren Produkte erscheinen...

GTC ist doch Ende März, oder? Kaufbare Produkte dann Ende April/Anfang Mai...

R2

Timbaloo
2017-12-27, 21:11:50
Letztlich ist ein Monat hin oder her auch nicht entscheidend...

Rampage 2
2017-12-27, 22:06:24
Letztlich ist ein Monat hin oder her auch nicht entscheidend...

Da GTC streng genommen im Q1 (vor April 2018) und eine eventuelle Verfügbarkeit dann im Q2 (nach April 2018) ist, könnte Igor's Aussage durchaus hinkommen.

R2

Kriton
2017-12-28, 13:47:17
Igor sprach schon mehrfach von q1. Soweit ich weiß sprach er auch von kaufbar.

Nein, er sprach von Q2. Q1 war auf GDDR6 bezogen.

Screemer
2017-12-29, 21:40:18
Nach unseren Sprachregeln bezieht sich das "kommt in Q1" aber auf GDDR6, weil es als letztes genannt wurde. Und das passt dann auch wieder zu Ampere in Q2. Also kein Widerspruch in seinen Aussagen.nach meinem Sprachverständnis müsste vor „kommt in“ noch ein „dieser“ stehen um sich auf letzteres zu beziehen.

Kriton
2017-12-29, 22:46:44
nach meinem Sprachverständnis müsste vor „kommt in“ noch ein „dieser“ stehen um sich auf letzteres zu beziehen.

wir werden etwas OT, aber ok.
Du meinst eine Ersetzung?

Ich vermute, Du hast wegen des unvollständigen Zitats den Satz falsch gelesen.
Der Satz lautete ja: "Ampere kann GDDR6 und der kommt in Q1."

Ist meine Annahme (dass Du das "der" überlesen hast")korrekt?

Wenn da weder "der" noch "dieser" stünde, gäbe ich Dir recht.

Oder würdest Du durch die Ersetzung von "der" durch "dieser" einen anderen Bezug annehmen?
Eine Ergänzung wäre sprachlich falsch.

Im Übrigen verweise ich darauf, dass meine Darstellung zu seiner anderen Aussage passt, während die Diskussion ja aus dem behaupteten Widerspruch resultiert. Ockhams Rasiermesser spricht also auch jenseits der sprachlichen Regelungen IMHO für mich.

Screemer
2017-12-29, 23:13:23
Korrekt. Das fehlende der hat mich zu dieser Annahme geführt. Damit bezieht sich q1 eindeutig auf gddr6. :up:

Kriton
2017-12-29, 23:22:23
Korrekt. Das fehlende der hat mich zu dieser Annahme geführt. Damit bezieht sich q1 eindeutig auf gddr6. :up:

Und dafür habe ich ca. 1 Stunde grammatikalische Regeln gescannt um den Bezug sauber belegen zu können (bevor ich gesehen habe, was eigentlich passiert ist). :freak:
Und ich war bisher nicht einmal erfolgreich im Auffinden...

=Floi=
2017-12-30, 00:17:36
könnte ampere nicht GDDRX5 und GDDR6 kompatibel sein?
Ich trau es NV auch zu, dass sie in aller gemütlichkeit GDDR5X nochmal bringen und erst später zum refresh die schnelleren speicherchips.

Loeschzwerg
2017-12-30, 00:39:16
Gut möglich, zumal GDDR6 scheinbar mehr Gemeinsamkeiten zu GDDR5X hat als Unterschiede :)

In der FAQ antwortet Micron auf die Frage "Can GDDR6 operate in GDDR5X-like mode?" mit Yes. Damit könnte ein GDDR6 Ctrl. in der GPU vermutlich recht einfach mit GDDR5X umgehen.

reaperrr
2017-12-30, 04:16:45
Warum sollte NV bei Ampere noch auf 5X setzen, wenn der nur von einem Hersteller produziert wird, während alle drei in Q1 die Massenproduktion von (schnellerem) G6 hochfahren?

Ich will nicht ausschließen, dass sie G5X noch bei irgendeinem Modell einsetzen (z.B. wenn Micron die G5X-Preise wegen der Konkurrenz unter den G6-Preis senkt), aber garantiert nicht beim 1080-Nachfolger. Der kriegt mindestens 14Gbps GDDR6.

robbitop
2017-12-30, 09:33:28
Eine GPU wird auch immer für eine dazugehörige Bandbreite ausgelegt. Einfach gddr5x statt gddr6 zu nutzen würde bedeuten, dass man dann entweder das Interface breiter machen muss (teurer) oder dass die GPU durch Bandbreitenmangel deutlich langsamer wird. Letzteres wäre auch dumm, da Transistorverschwendung. Weniger Recheneinheiten und somit ein kleinerer Die hätten dann für gleiche Performance auch gereicht. Sowas macht kein ihv da nicht sinnvoll.

HOT
2017-12-30, 11:45:40
Es gibt sicherlich 5X als 14GT/s und auch 6 wird nicht mehr Bandbreite mitbringen beim Start. Es ist also egal, welchen Speicher NV bei GA104 verbaut. 14GT/s kann man als gesetzt ansehen.

robbitop
2017-12-30, 12:27:50
Naja bei gleicher Frequenz ist es für den Kunden und den ihv egal. Wobei 14gt für 5x sicher recht viel ist und die bins entsprechend ggf mager aussehen, was ggf zu höheren preisen als beim 6er führen kann.

Timbaloo
2017-12-30, 13:04:07
Je nach Verfügbarkeit von DDR6 würde ich auf eine 2070 mit DDR5X tippen.

Loeschzwerg
2017-12-30, 13:06:30
Jup, zumindest bei den kleineren bzw. Salvage Karten.

Der_Korken
2017-12-30, 14:17:12
Gibt es bei GDDR6 jetzt eigentlich auch "schiefe" VRAM-Größen, also z.B. 1,5GB pro Chip? Ich sehe bei einer potenziellen GTX 2080 mit 256bit SI und 14Gbps-GDDR6 nämlich das Problem, dass 8 GB zu Lebzeiten zu knapp werden könnten, während 16GB wiederum total übertrieben (und teuer) wirken. 12GB würden hier eigentlich optimal passen. Die 2070 könnte dann z.B. nur 7 Speicherchips mit insgesamt 10,5GB bekommen.

Ex3cut3r
2017-12-30, 14:44:49
Warum sollten 16GB zu viel sein? sehe ich nicht so. 2012-Kepler 2GB, 2014 Maxwell-4GB, 2016 Pascal-8GB, 2018 Ampere-16GB Wenn nicht, wäre es für mich schon eine kleine Enttäuschung. :(

Mit 8GB habe ich schon heute Nachladeruckler in Cod WW2, gut das Game sieht eigentlich kacke aus, KA wohin der speicher geht, aber erst wenn ich Shadow Map-Auflösung auf High setze, verschwinden die.

BlacKi
2017-12-30, 14:56:09
kann ich auch nicht ganz nachvollziehen.

wir haben schon mitte 2016 den 8gb speicher füllen können. mit nur 12gb hätte ich angst, die nächsten 2 1/4 jahre nicht über die runden zu kommen. das sollte bei einem, neu kommenden, nicht mal erschienenen, produkt nicht auftreten.

=Floi=
2017-12-30, 21:20:53
Warum sollte NV bei Ampere noch auf 5X setzen, wenn der nur von einem Hersteller produziert wird, während alle drei in Q1 die Massenproduktion von (schnellerem) G6 hochfahren?

du gibst ja selbst die antwort. weil es nicht verfügbar ist. Ich halte auch Q1 für GDDR6 für zu spät. Das wird nur was, wenn es schon jetzt für NV vom band läuft.

Timbaloo
2017-12-30, 21:51:30
Kartenproduktion 3 Monate auf Halde? Ich glaube nicht. Chips ja, Karten (also Bestückung) nicht.

reaperrr
2017-12-30, 21:56:33
du gibst ja selbst die antwort. weil es nicht verfügbar ist. Ich halte auch Q1 für GDDR6 für zu spät. Das wird nur was, wenn es schon jetzt für NV vom band läuft.
Es war von Produktionsbeginn im Januar die Rede (für GDDR6, für NV nur Q1). GDDR5X hatte man noch nicht mal so richtig als Massenprodukt auf dem Radar, bevor die 1080 erschien.

Ich bleibe dabei, dass Nvidia zu Gunsten von GDDR6 eher den Launch um ein paar Wochen verschieben würde, als nochmal auf die Micron-exklusive Zwischenlösung GDDR5X zu setzen. Allein schon deshalb, weil bei mehr Konkurrenz mittelfristig bessere Preise ausgehandelt werden können.

Ich denke auch, dass zumindest Samsung und Hynix ihren 12 Gbps und 14 Gbps GDDR6 schon längst produktionsreif haben und den Start der Massenproduktion einfach davon abhängig machen, was für Aufträge sie von Nvidia (und evtl. AMD) kriegen.

Der_Korken
2017-12-31, 01:01:15
Warum sollten 16GB zu viel sein? sehe ich nicht so. 2012-Kepler 2GB, 2014 Maxwell-4GB, 2016 Pascal-8GB, 2018 Ampere-16GB Wenn nicht, wäre es für mich schon eine kleine Enttäuschung. :(


Sagen wir mal so: Der Speicherausbau beim Performance-Chip war bei Nvidia zuletzt nicht unbedingt üppig. Natürlich würden 16GB besser passen als 8GB, aber vielleicht macht es Nvidia so wie bei Kepler und bringt die 16GB erst mit einem Refresh. 12GB würden im Verhältnis zur 1080Ti imho am besten passen.

aceCrasher
2017-12-31, 11:15:24
Hoffentlich kommt wenigstens die TI mit 16GB+, 12GB würden mir da fast schon knapp erscheinen.

AffenJack
2017-12-31, 11:26:33
Bisher hat Samsung als einziger Fertiger Chips mit 16Gb angekündigt, während Micron und Hynix jeweils von 8Gb Chips sprachen. Ich würde mir nicht viel Hoffnung machen, dass wir daher ne Verdopplung von Ram in dieser Gen sehen. Es könnte sein, dass erstmal nur das nächste Titan-Äquivalent 24GB mit den 16Gb Chips bekommt.
Aber vielleiecht haben wir ja Glück und die 2080 kommt auch mit 16GB, die 2070 bleibt aber sicherlich bei 8GB.

Thunder99
2017-12-31, 12:10:34
Die Speichermenge sehe ich auch eher bei 12GB außer AMD bringt 16GB als Konter. Dann "muss" Nvidia mehr haben.

unl34shed
2017-12-31, 12:19:10
Mussten Nvidia bis Fij noch nie, warum jetzt? Bzw. war das auch kein "muss".
Der einzige Grund, warum sie aktuell so viel Speicher haben ist, weil sie immernoch GDDR5(X) nutzen und durch die Interface Breite bzw. die benötigte Bandbreite dazu "genötigt" werden.

Der_Korken
2017-12-31, 14:22:16
Vielleicht zieht Nvidia auch einfach mit ihrem eigenen HBCC nach, dann wären 8GB völlig unproblematisch.

aufkrawall
2017-12-31, 14:47:55
Kennst du auch nur einen Test mit Vega, der diese Vermutung nahelegen würde?

robbitop
2017-12-31, 15:43:28
Der Nachteil an HBCC ist der enorme RAM Bedarf. Wenn es nur ein bisschen mehr RAM Bedarf wäre: OK. Aber empfohlen wird ja damit dann 32 GB RAM.
Ich hoffe, dass das besser wird.

BlacKi
2017-12-31, 15:49:58
Der Nachteil an HBCC ist der enorme RAM Bedarf. Wenn es nur ein bisschen mehr RAM Bedarf wäre: OK. Aber empfohlen wird ja damit dann 32 GB RAM.
Ich hoffe, dass das besser wird.
soll ich 200€ extra für ram ausgeben weil bei der grafikkarte beim vram gegeizt wird, was dann je nach spiel, nicht nicht immer komplett rund läuft?

solche spielereien leistet sich NV niemals.

aufkrawall
2017-12-31, 15:55:31
Warum sollte das nächste Top-Modell nicht 16GB haben? Sie können es ja teuer genug verkaufen, und für den Salvage was vom Interface abschnippeln.

BoMbY
2017-12-31, 16:44:47
solche spielereien leistet sich NV niemals.

*hust* Die schaffen es ja schon den auf der GPU vorhandenen Speicher zu verkrüppeln - die machen alles, wenn es nur einen Cent pro GPU spart.

Troyan
2017-12-31, 17:05:25
Die letzte High-End Karte von nVidia, die nicht mehr Speicher als ihr Vorgänger hatte, war G92 ala 8800GTS und 9800GTX. Seitdem gibt es immer mehr Speicher.

Es werden also beim GTX1080 Nachfolger mehr als 8GB.

dargo
2017-12-31, 17:38:07
Kennst du auch nur einen Test mit Vega, der diese Vermutung nahelegen würde?
Ich kenne mindestens einen. :devil:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

Der Nachteil an HBCC ist der enorme RAM Bedarf. Wenn es nur ein bisschen mehr RAM Bedarf wäre: OK. Aber empfohlen wird ja damit dann 32 GB RAM.
Ich hoffe, dass das besser wird.
Von wem? Von den Ram-Fetischisten? :biggrin:

soll ich 200€ extra für ram ausgeben weil bei der grafikkarte beim vram gegeizt wird, was dann je nach spiel, nicht nicht immer komplett rund läuft?

solche spielereien leistet sich NV niemals.
Der war gut! Ich sag nur GTX970. ;D ;D ;D

BlacKi
2017-12-31, 17:49:58
*hust* Die schaffen es ja schon den auf der GPU vorhandenen Speicher zu verkrüppeln - die machen alles, wenn es nur einen Cent pro GPU spart.
roflcopter, der ram war aber drauf! die haben die karte verkrüppelt und haben dabei keinen cent gespart!

Timbaloo
2017-12-31, 17:53:17
roflcopter, der ram war aber drauf! die haben die karte verkrüppelt und haben dabei keinen cent gespart!
Vergiss es, die werden dieses Jahr nicht mehr schlau.

BlacKi
2017-12-31, 17:55:33
wäre ein guter vorsatz für nächstes jahr^^

dargo
2017-12-31, 18:05:02
roflcopter, der ram war aber drauf! die haben die karte verkrüppelt und haben dabei keinen cent gespart!
Da hast du auch wieder recht. :)

Kriton
2017-12-31, 18:15:31
roflcopter, der ram war aber drauf! die haben die karte verkrüppelt und haben dabei keinen cent gespart!

Kommt darauf an, wie man es betrachtet. Sie hätten auch mehr Speicher mit vernünftiger Anbindung verkaufen können. Sie sind ja nur diesen Weg mit den verkrüppelten 0,5 gegangen, weil sie eben nicht mehr RAM nutzen wollten, aber mindestens 4GB auf der Verpackung stehen sollte und genau 4 GB mit einer vernünftigen Anbindung nicht möglich war.
Das Argument steht also.

BlacKi
2017-12-31, 18:31:08
Kommt darauf an, wie man es betrachtet. Sie hätten auch mehr Speicher mit vernünftiger Anbindung verkaufen können. Sie sind ja nur diesen Weg mit den verkrüppelten 0,5 gegangen, weil sie eben nicht mehr RAM nutzen wollten, aber mindestens 4GB auf der Verpackung stehen sollte und genau 4 GB mit einer vernünftigen Anbindung nicht möglich war.
Das Argument steht also.
es sind 4gb verbaut, keinen cent gespart, bei der 1080ti hamse speicher gespart. dort fehlt ein speicherstein, bei der 970 sind alle vorhanden.

Timbaloo
2017-12-31, 18:34:12
Ich habe ja meine eigene Theorie zur 970: NV hat die absichtlich so kaputtgemacht, dass die AMD-Fanfraktion wenigstens etwas zu feiern hat die nächsten Jahre ;)

Kriton
2017-12-31, 18:41:53
es sind 4gb verbaut, keinen cent gespart, bei der 1080ti hamse speicher gespart. dort fehlt ein speicherstein, bei der 970 sind alle vorhanden.

Liest Du eigentlich auch was ich schreibe? Das ist eine ernstgemeinte Frage (no pun intended). Wenn ja (und es ein Verständnisproblem ist), dann erkläre ich es gern noch einmal anders, aber Deine Aussage ignoriert vollkommen was ich geschrieben habe.

Timbaloo
2017-12-31, 18:45:13
Worauf Kriton hinaus möchte (denke ich) ist: Man hätte der 980 8GB und der 970 dann 7GB spendieren können. Da hat er natürlich wieder recht.

Aber Hand aufs Herz: Wer glaubt, dass NV nach der 970 nochmal so einen "Speicherkrüppel" (in welches Problem ich btw. irgendwie noch nie reingelaufen bin...) bringt? Also ich nicht. Das Thema wird doch nur zum AMD-Circlejerk immer wieder rausgeholt.

aufkrawall
2017-12-31, 18:47:38
Ich kenne mindestens einen. :devil:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11590271&postcount=1120

Nett, endlich mal ein Beweis, dass das Feature wirklich funktionieren kann. Unfassbar, wie komplett nutzlos die gesamte die "Fachpresse" ist.

dargo
2017-12-31, 18:49:02
Aber Hand aufs Herz: Wer glaubt, dass NV nach der 970 nochmal so einen "Speicherkrüppel" (in welches Problem ich btw. irgendwie noch nie reingelaufen bin...) bringt? Also ich nicht. Das Thema wird doch nur zum AMD-Circlejerk immer wieder rausgeholt.
Och... bei der GTX660 (2GB vs. 3GB) hat NV es auch schon praktiziert. Nur war es nicht ganz so ein Unfall wie das Design der GTX970. ;)

Nett, endlich mal ein Beweis, dass das Feature wirklich funktionieren kann. Unfassbar, wie komplett nutzlos die gesamte die "Fachpresse" ist.
Du sagst es. :D Wobei ich dabei sagen muss, dass ich durch Zufall darauf durch Popeye gestoßen bin. Es ist heute halt sehr schwer die 8GB zu sprengen.

BlacKi
2017-12-31, 19:37:31
Liest Du eigentlich auch was ich schreibe? Das ist eine ernstgemeinte Frage (no pun intended). Wenn ja (und es ein Verständnisproblem ist), dann erkläre ich es gern noch einmal anders, aber Deine Aussage ignoriert vollkommen was ich geschrieben habe.
ich hab tatsächlich überlesen worauf du hinauswolltest, aber nur weil das so absurd war.

denn dann müsste man sagen: "nvidia wäre zu geizig gewesen um der 970 7gb zu geben." wie gesagt ist das absurd, wie verquer muss man im kopf sein?

Kriton
2017-12-31, 23:35:19
@ Timbaloo: Korrekt.

ich hab tatsächlich überlesen worauf du hinauswolltest, aber nur weil das so absurd war.

denn dann müsste man sagen: "nvidia wäre zu geizig gewesen um der 970 7gb zu geben." wie gesagt ist das absurd, wie verquer muss man im kopf sein?

Ich gehe mal niht auf die persönliche Ebene ein.

Es geht mir nicht um die Frage ob das wirtschaftlich sinnvoll gewesen, sondern um den Umstand, dass es durchaus andere Möglichkeiten gegeben hätte. Das wollte Nvidia schlicht nicht (teurer), gleichwohl wollten sie nicht 3,5 GB auf die Packung schreiben.
Das Dilemma ist bei Nvidia also hausgemacht (3,5 GB wäre ja machbar gewesen), daher sehe ich da kein Argument drin, dass betriebswirtschaftliche Gründe gegen 7 GB gesprochen hätten. Daher sehe ich durchaus eine Einsparung gegenüber den 7 GB, respektive einer dadurch notwendigen Speichererweiterung der 980.

Davon unabhängig: Würde die 970 (in einigen Szenarien) von 7 GB profitieren?

=Floi=
2018-01-01, 00:25:13
Davon unabhängig: Würde die 970 (in einigen Szenarien) von 7 GB profitieren?

Ja, da würde es eine menge games geben. Die leistung reicht oft noch aus, aber selbst mit 1080p kann man über 4gb locker füllen.

Man muss den VRAM aber auch als eine kostenfrage sehen. Wir verdoppeln diesen ja und da dürfte es um die 100€ aufpreis sein.
Das trifft auch auf ampere zu.

BlacKi
2018-01-01, 01:28:22
@ Timbaloo: Korrekt.



Ich gehe mal niht auf die persönliche Ebene ein.

Es geht mir nicht um die Frage ob das wirtschaftlich sinnvoll gewesen, sondern um den Umstand, dass es durchaus andere Möglichkeiten gegeben hätte. Das wollte Nvidia schlicht nicht (teurer), gleichwohl wollten sie nicht 3,5 GB auf die Packung schreiben.
Das Dilemma ist bei Nvidia also hausgemacht (3,5 GB wäre ja machbar gewesen), daher sehe ich da kein Argument drin, dass betriebswirtschaftliche Gründe gegen 7 GB gesprochen hätten. Daher sehe ich durchaus eine Einsparung gegenüber den 7 GB, respektive einer dadurch notwendigen Speichererweiterung der 980.

Davon unabhängig: Würde die 970 (in einigen Szenarien) von 7 GB profitieren?es ist wirtschschaftlich absolut absurd einer salvage karte mehr ram zu geben als dem full chip, so ein schwachsinn... aber funny^^

x-force
2018-01-01, 02:23:09
es ist wirtschschaftlich absolut absurd einer salvage karte mehr ram zu geben als dem full chip, so ein schwachsinn... aber funny^^

da verwechselst du was:
technisch ist das absurd.

wirtschaftlich hat es sinn, denn scherze wie eine 4gb gt 730 oder r7 240 und rx550 werden gebaut und gekauft.

BlacKi
2018-01-01, 02:34:50
da verwechselst du was:
technisch ist das absurd.

wirtschaftlich hat es sinn, denn scherze wie eine 4gb gt 730 oder r7 240 und rx550 werden gebaut und gekauft.
technisch ist es machbar, aber wirtschaftlich absurd, keiner kauft mehr die überteuerte 980.

x-force
2018-01-01, 02:36:36
die hätte genauso 8gb haben können, aber dann würde nvidia uns mehr fortschritt zugestehen, als ihnen lieb ist.

=Floi=
2018-01-01, 02:39:38
er fragte ob es vorteile gehabt hätte, wenn es eine 7GB 970er gegeben hätte. das schliesst keine 980er mit 8gb aus. WTF?
Es ging um die leistung und um sonst nichts!
Es ging darum ob es der karte gut getan hätte und das täte es bei allen 3 modellen. Der 970er, 980er und der 980ti täten 12gb auch gut. Das problem ist eher, dass NV soetwas verbietet.

gnomi
2018-01-01, 10:42:21
Die 4GB der 980 und 6 GB der 980 TI passen imho aber schon sehr gut. (VRAM Games wie Mittelerde und Deus Ex sind kein Maßstab, in 1080-1440P lässt sich zumeist sogar noch auf Ultra super spielen)
Verbesserte Versionen hätten den Erfolg der recht schnell nachgeschobenen, effizienteren Pascal Generation ziemlich gestört.
Die 970 war aber zumindest technisch ein dreister Fehltritt.
Aber fast amüsant, wer da alles wegen ein paar Euro Ersparnis diese Karte gekauft hat! (nicht nur Dau, sondern viele Profis)
Ich glaube daher eher an die Theorie, dass nvidia mit dieser Karte die Midrange Kunden in die höhere Premium Klasse bewegen wollte.
Umgetauscht wurde ja zumeist eh nicht. Ich denke vielen fiel auch eh (zunächst) nichts groß auf, und die nächste Karte war wieder nvidia und teurer...

robbitop
2018-01-01, 11:00:23
Ein paar EUR sind wohl stark untertrieben. Wenn der vram nicht limitiert hat, war das p/l der 970 deutlich besser. Bei Pascal ist das (zumindest zeitweise) anders. Die Leistung skalierte nahezu mit dem Preis.

basix
2018-01-01, 11:26:11
Die 1070 war dann aber einiges teurer. Aber nicht so extrem bei Release wie jetzt.

Die 970 war rein technisch gesehen eine 4GB Karte (der Speicher konnte belegt werden, auch wenn der Treiber das versucht hat zu verhindern). Aber wie schon viel geschrieben ist es eher eine 3.5 + 0.5 GB Karte. Was wesentlich schwerer wiegt ist die Tatsache, dass Nvidia erstens nicht ganz korrekte Spezifikationen angegeben hat und erst nach massivem öffentlichem Druck zugegeben hat, dass da und dort was im Chip beschnitten wurde ("interne Missverständnisse blabla"). Hätte dies Nvidia von vornherein klar kommuniziert, wäre die Karte immer noch gleich gut und wahrschenlich der selbe Kassenschlager geworden. Die Leistung in Spielen und Benches stimmte ja, mit Ausnahme der Lag-Spikes.

So nun fertig in alten Geschichten gewühlt. Ampere ist wesentlich interessanter ;)

pixeljetstream
2018-01-01, 12:16:56
Die Leistung skalierte nahezu mit der Leistung.
Das sollte sie auch, zumindest in unserem Universum ;)

Einige hier haben so Mastermind Strategien, die Realität ist aber oft viel einfacher, zu viel "um die Ecke denken" ist imo nicht praktikabel in einer Welt wo keiner weiß wo es genau hin geht.

Es gibt Produkte mit mehr VRAM im Workstationbereich afaik bei beiden Anbietern, ergo ist die Geschichte mit der Größe eher Angebot und Nachfrage imo.

Der Content im Gaming Markt verändert sich ja nicht von heute auf morgen, da der einen viel größeren Bereich abdecken muss. Es geht ja imo um die sinnvolle Auslastung und nicht um Benchmarks für paar wenige im ultra high-end in speziellen Titeln.

Imo ist der Anstieg im Mainstream daher interessanter. Wann kommen X GB bei den meisten Gamern an. Laut steam survey haben 50% 2-3 GB und 25% 4-8GB. Meine Karte hat 24 GB also 8-12x so viel wie die meisten. Welches Game würde mir dafür eine wesentliche Steigerung bieten?

robbitop
2018-01-01, 13:24:33
Brainfart/typo. Sollte aber aus dem Kontext lesbar sein, dass ich meinte, dass die Leistung mit dem Preis skalierte. :rolleyes:

Der_Korken
2018-01-01, 13:52:17
Kennst du auch nur einen Test mit Vega, der diese Vermutung nahelegen würde?

Nein (außer dargos persönlichen Test), aber das liegt nicht daran, dass der HBCC erwiesenermaßen nichts bringt, sondern dass es nach wie vor extrem schwer ist, überhaupt Testfälle zu generieren, in denen mehr als 8GB VRAM benötigt werden. Was bezüglich der Frage, ob 8GB noch zeitgemäß sind, ein bisschen für sich spricht.

Der Nachteil an HBCC ist der enorme RAM Bedarf. Wenn es nur ein bisschen mehr RAM Bedarf wäre: OK. Aber empfohlen wird ja damit dann 32 GB RAM.

Die Empfehlung ist wohl eher wie die Netzteilempfehlungen zu verstehen, die bezüglich der Watt-Zahlen auch immer völlig übertrieben sind. Der HBCC braucht höchstens so viel RAM, wie das Spiel mehr allokiert, als die Graka VRAM hat. Allokiert das Spiel 10GB und die Karte hat 8, werden höchstens 2GB von der Karte okkupiert. Alles andere wäre ja bescheuert.

soll ich 200€ extra für ram ausgeben weil bei der grafikkarte beim vram gegeizt wird, was dann je nach spiel, nicht nicht immer komplett rund läuft?

solche spielereien leistet sich NV niemals.

Für 200€ bekommst du 16GB RAM. Wenn du den exklusiv für die GPU nutzt, würdest du sie von 8 auf 24GB hochboosten. Das klingt doch nach einem fairen Preis.

Angenommen Nvidia verbaut 8 statt 16GB und macht die Karte dadurch >100€ billiger. Für 100€ bekommst du (im Mittelwert) die fehlenden 8GB als RAM. Wenn 8GB VRAM+8GB RAM sich leistungstechnisch genauso verhalten wie 16GB VRAM ohne HBCC (so ähnlich behauptet AMD das auf ihren Folien), hast du nichts verloren, aber du kannst zusätzlich die 8GB noch für andere Sachen nutzen. Ein übergroßer VRAM liegt den Großteil der Zeit einfach brach, da er nicht für andere Zwecke missbraucht werden kann.

Insbesondere wenn gar nicht 16GB sondern nur 11GB VRAM gebraucht werden, werden auch nur 3GB RAM abgezwackt, d.h. man muss eventuell gar nicht so viel RAM dazukaufen, wie bei der Graka mutmaßlich eingespart wurde. Außerdem ist nicht gesagt, dass von der Graka ausgelagerte Daten im RAM landen. Sachen, die überhaupt nie angefasst werden, können bis auf die Platte ausgelagert werden.

Ich bin überzeugt, dass auch Nvidia mittelfristig auf ein ähnliches Modell umsteigen wird, weil es die Hardwareressourcen viel effektiver nutzt.

Troyan
2018-01-01, 14:01:59
HBCC ist eine sinnlose Technik für Spiele. Wer meint, dass 16GB/s oder von mir auch 32GB/s ausreichend sind, wieso wird an immer schnellerem Speicher geforscht? Richtig, weil es nicht ausreichend ist.

Mit DX12 und Vulkan kann der Entwickler selbstständig bestimmen, wann Daten zur GPU kommen. HBCC ist einfach sinnlos, da der Treiber keine Ahnung hat, wann Daten wirklich benötigt werden. Der Rest ist Optimierungen, die auch ohne HBCC funktionieren und schon seit Jahren gemacht werden.

basix
2018-01-01, 14:15:39
Etwas als sinnlose Technik bezeichnen, wo es erwiesenermassen Ergebnisse gibt mit +50% Leistungsgewinn finde ich schon ein wenig vermessen. Es ist nicht der heilige Gral, kann aber helfen. Ausserdem werden dann so Dinge wie die SSG überhaupt sinnvoll ermöglicht.

Der_Korken
2018-01-01, 14:19:51
HBCC ist eine sinnlose Technik für Spiele. Wer meint, dass 16GB/s oder von mir auch 32GB/s ausreichend sind, wieso wird an immer schnellerem Speicher geforscht? Richtig, weil es nicht ausreichend ist.

Seit wann ist eine Speicherhierachie eine sinnlose Technik? Wenn du ein gleichverteiltes Zugriffsmuster über den gesamten allokierten Speicher hast, dann bringt der HBCC natürlich nichts, aber das trifft auf sämtliche Cache-Implementierungen zu, von CPU-Caches über RAM-Paging bis hin zu GPUs. Caching lebt immer dadurch, dass es wenig Daten gibt, die oft angefragt werden und viele Daten, die kaum angefragt werden, sodass man nur wenig statt viel schnellen Speicher braucht.


Mit DX12 und Vulkan kann der Entwickler selbstständig bestimmen, wann Daten zur GPU kommen. HBCC ist einfach sinnlos, da der Treiber keine Ahnung hat, wann Daten wirklich benötigt werden. Der Rest ist Optimierungen, die auch ohne HBCC funktionieren und schon seit Jahren gemacht werden.

HBCC arbeitet vollkommen transparent und benötigt keine externen Optimierungen. Darüber dürfte jeder Entwickler froh sein. Außerdem bietet ein HBCC neben dem Paging afaik auch andere Vorteile, wie z.B. ein asynchrones Nachladen aus dem RAM, ohne die gesamte GPU dafür zu blockieren.

robbitop
2018-01-01, 14:30:10
Die hohe Bandbreite des VRAMs wird hauptsächlich vom framebuffer und gbuffer benötigt. Die x360, xbone und auch die gt3e profitieren aus genau diesem Grund so enorm von ihrem LLC (edram bzw sram). Gerade Texturen haben ja eine hohe hitrate im L2 Cache. Auch liegen häufig assets im Speicher, die häufg nicht gebraucht werden. Bei Konsolen kümmert sich der Entwickler um einen Mechanismus, dass diese Speicherhierarchie zu keinem Bottleneck wird. Hier läuft es halt über den Treiber. Und es scheint zu funktionieren- jedoch noch nicht ganz ausgereift zu sein.

Troyan
2018-01-01, 14:35:22
Seit wann ist eine Speicherhierachie eine sinnlose Technik? Wenn du ein gleichverteiltes Zugriffsmuster über den gesamten allokierten Speicher hast, dann bringt der HBCC natürlich nichts, aber das trifft auf sämtliche Cache-Implementierungen zu, von CPU-Caches über RAM-Paging bis hin zu GPUs. Caching lebt immer dadurch, dass es wenig Daten gibt, die oft angefragt werden und viele Daten, die kaum angefragt werden, sodass man nur wenig statt viel schnellen Speicher braucht.

Wenn du Daten nicht brauchst, ist HBCC unsinn. Wenn du Daten brauchst, ist HBCC sinnlos, da 16GB/s selbst für Low-End Maßstäben lächerlich gering sind (GT1030 hat 48GB/s, Switch hat 24GB/s).


HBCC arbeitet vollkommen transparent und benötigt keine externen Optimierungen. Darüber dürfte jeder Entwickler froh sein. Außerdem bietet ein HBCC neben dem Paging afaik auch andere Vorteile, wie z.B. ein asynchrones Nachladen aus dem RAM, ohne die gesamte GPU dafür zu blockieren.

Nichts davon ist HBCC abhängig und wird seit Jahren durch den Treiber erledigt. Der Sinn von "Page Migration" ist, dass die GPU direkten Zugriff auf Speicher außerhalb der GPU ohne dass dieser vorher geladen werden muss. Das ist jedoch für Echtzeitanwendungen wie Spiele, die mit hohen Frames laufen sollen, ungenügend. Deswegen gibt es per DX12 und Vulkan die Möglichkeit per Copy-Engine explizit die Daten im Voraus zu laden und dann aus dem GPU-Speicher zulesen.

Ehrlich, die ganze Welt forscht an schnelleren Interconnect zwischen CPU, GPU und Co und nun kommen die Leute aus der Ecke und meinen, dass 16GB/s eigentlich vollkommen ausreichend wären.

Das hat aber nichts mit Ampere zu tun.

BlacKi
2018-01-01, 14:35:48
Für 200€ bekommst du 16GB RAM. Wenn du den exklusiv für die GPU nutzt, würdest du sie von 8 auf 24GB hochboosten. Das klingt doch nach einem fairen Preis.

Angenommen Nvidia verbaut 8 statt 16GB und macht die Karte dadurch >100€ billiger. Für 100€ bekommst du (im Mittelwert) die fehlenden 8GB als RAM. Wenn 8GB VRAM+8GB RAM sich leistungstechnisch genauso verhalten wie 16GB VRAM ohne HBCC (so ähnlich behauptet AMD das auf ihren Folien), hast du nichts verloren, aber du kannst zusätzlich die 8GB noch für andere Sachen nutzen. Ein übergroßer VRAM liegt den Großteil der Zeit einfach brach, da er nicht für andere Zwecke missbraucht werden kann.

Insbesondere wenn gar nicht 16GB sondern nur 11GB VRAM gebraucht werden, werden auch nur 3GB RAM abgezwackt, d.h. man muss eventuell gar nicht so viel RAM dazukaufen, wie bei der Graka mutmaßlich eingespart wurde. Außerdem ist nicht gesagt, dass von der Graka ausgelagerte Daten im RAM landen. Sachen, die überhaupt nie angefasst werden, können bis auf die Platte ausgelagert werden.

Ich bin überzeugt, dass auch Nvidia mittelfristig auf ein ähnliches Modell umsteigen wird, weil es die Hardwareressourcen viel effektiver nutzt.
ich benötige keine 24gb grafikspeicher, nicht nächstes jahr und auch nicht übernächstes.
nvidia bekommt den speicher günstiger als ich und schneller ist er noch obendrein. was hilft es mir die karte 100€ günstiger zu kaufen wenn ich 200€ extra ausgeben soll.
ich habe derzeit keine pläne meine 16gb zu erweitern, wenn nun 8gb des grafikspeichers nicht mehr ausreichen muss ich vermutlich aufstocken um den hbcc nutzen zu können.

ich frag mich, warum man nicht 2 verschiedene speicher sorten auf der gpu verbaut. günstigen langsamen und schnellen teureren. dann muss der ganze datenmüll nicht durch den PCIE.

Der_Korken
2018-01-01, 14:53:03
Wenn du Daten nicht brauchst, ist HBCC unsinn. Wenn du Daten brauchst, ist HBCC sinnlos, da 16GB/s selbst für Low-End Maßstäben lächerlich gering sind (GT1030 hat 48GB/s, Switch hat 24GB/s).

Du unterstellst immer noch, dass alle Daten gleichwahrscheinlich angefragt werden. In diesem Fall gebe ich dir ja Recht (s.o.). Wird ein Teil der Daten aber nur 1/100 so häufig angefragt, ist es kein Verlust, wenn die an einem langsamen 16GB/s-Bus hängen. Natürlich kann es immer passieren, dass dadurch mal ein Datenstau entsteht, aber wenn die Warhscheinlichkeit dafür lächerlich gering ist, nimmt man das eben in Kauf. Am Ende können wir sowieso nur spekulieren, wie gut es funktioniert, da es bisher keiner ausführlich getestet hat bzw. testen konnte.


Nichts davon ist HBCC abhängig und wird seit Jahren durch den Treiber erledigt. Der Sinn von "Page Migration" ist, dass die GPU direkten Zugriff auf Speicher außerhalb der GPU ohne dass dieser vorher geladen werden muss. Das ist jedoch für Echtzeitanwendungen wie Spiele, die mit hohen Frames laufen sollen, ungenügend. Deswegen gibt es per DX12 und Vulkan die Möglichkeit per Copy-Engine explizit die Daten im Voraus zu laden und dann aus dem GPU-Speicher zulesen.

Das hat aber nichts mit Ampere zu tun.

Wenn das Nachladen bei Anfrage (also bei "HBC miss") zu langsam ist, dann reicht die Technik selbst tatsächlich nicht aus. Ist das aber tatsächlich so (ernstgemeinte Frage)?

Der Bezug zu Ampere kam eigentlich nur aus meiner Frage, wieviel VRAM Nvidia wohl bei der 2080 verbauen wird und ob 8GB nicht sogar reichen könnten, wenn Ampere einen eigenen HBCC mitbringt.

ich benötige keine 24gb grafikspeicher, nicht nächstes jahr und auch nicht übernächstes.
nvidia bekommt den speicher günstiger als ich und schneller ist er noch obendrein. was hilft es mir die karte 100€ günstiger zu kaufen wenn ich 200€ extra ausgeben soll.
ich habe derzeit keine pläne meine 16gb zu erweitern, wenn nun 8gb des grafikspeichers nicht mehr ausreichen muss ich vermutlich aufstocken um den hbcc nutzen zu können.

ich frag mich, warum man nicht 2 verschiedene speicher sorten auf der gpu verbaut. günstigen langsamen und schnellen teureren. dann muss der ganze datenmüll nicht durch den PCIE.

Natürlich sind 24GB totaler Overkill, aber du hast 200€ Aufpreis in die Runde geworfen und dafür bekommst du nunmal 16GB zusätzichen RAM. Nvidia bekommt Speicher ziemlich sicher günstiger, aber den Preis werden sie nicht 1:1 an die Kunden weitergeben. Bezüglich der Aufrüstbarkeit: Wenn die Spiele von heute nur 8GB brauchen, brauchst du den HBCC ja nicht zu nutzen. Wenn in einem Jahr der RAM billiger ist, kannst du bei Bedarf immer noch aufstocken, wenn die 8GB VRAM nicht reichen sollten -> Geld gespart.

Unterschiedlich schnelle Speicher ergeben wenig Sinn. Der VRAM ist ja deswegen schnell, weil alle Speicherchips parallel angesprochen werden. Also wäre es immer besser alle Speicherchips zu einem schnellen Speicher zusammenzutun als am Ende zwei langsame Speicher zu haben. Es bräuchte schon sowas wie eDRAM als "L3 Cache" und dazu langsamen, aber großen VRAM damit der Ansatz Sinn ergibt.

Kriton
2018-01-01, 14:55:53
er fragte ob es vorteile gehabt hätte, wenn es eine 7GB 970er gegeben hätte. das schliesst keine 980er mit 8gb aus. WTF?
Es ging um die leistung und um sonst nichts!
Es ging darum ob es der karte gut getan hätte und das täte es bei allen 3 modellen. Der 970er, 980er und der 980ti täten 12gb auch gut. Das problem ist eher, dass NV soetwas verbietet.

So ist es.
Wir kamen von der Frage ob mit den 3,5 + 0,5 GB gespart wurde. Und die Antwort ist ja. Ansonsten hätte man (technisch sinnvolle) 7GB verbauen müssen (wenn man mindestens 4 GB auf die Packung schreiben will und es nicht sinnlos anbindet) und zusätzlich insgesamt 8 GB bei der 980.
deswegen ist es auch nicht absurd, sondern dem Umstand geschuldet, dass Nvidia sparen wollte. Darum ging es im Übrigen.

dargo
2018-01-01, 14:56:14
HBCC ist eine sinnlose Technik für Spiele. Wer meint, dass 16GB/s oder von mir auch 32GB/s ausreichend sind, wieso wird an immer schnellerem Speicher geforscht? Richtig, weil es nicht ausreichend ist.

Mit DX12 und Vulkan kann der Entwickler selbstständig bestimmen, wann Daten zur GPU kommen. HBCC ist einfach sinnlos, da der Treiber keine Ahnung hat, wann Daten wirklich benötigt werden. Der Rest ist Optimierungen, die auch ohne HBCC funktionieren und schon seit Jahren gemacht werden.
Ein typischer Troyan Post wieder. AMD liefert hier ein bahnbrechendes Feature (übrigens nicht nur für Spiele) und der Fanboy sagt es wäre sinnlos... weil, kommt ja nicht von Nvidia. :rolleyes: Wie gut, dass ich ein praktisches Beispiel liefern kann. :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11591198&postcount=8255

Bisher leider nur ein Spiel da es unheimlich schwer ist die 8GB von Vega zu sprengen.


ich habe derzeit keine pläne meine 16gb zu erweitern, wenn nun 8gb des grafikspeichers nicht mehr ausreichen muss ich vermutlich aufstocken um den hbcc nutzen zu können.

Bitte informiere dich erstmal wie HBCC überhaupt funktioniert bevor hier wieder seitenlang FUD verbreitet wird! Ich habe ebenfalls 16GB Arbeisspeicher und aktuell keine Pläne auf 24GB oder gar 32GB zu gehen. Jedenfalls nicht bei den aktuellen Speicherpreisen. Mit Hilfe von China ändert sich das hoffentlich langfristig. Und dennoch sehe ich gravierende Vorteile dank HBCC obwohl ich "nur" 16GB Arbeisspeicher habe. Zugegeben... ist etwas künstlich gestelltes Szenario mit den 5K und Streaming @Extrem. Ich würde mit so tiefen Frames niemals Shooter spielen wollen. Die Funktionsweise von HBCC zeigt dieses Szenario aber sehr gut.

BlacKi
2018-01-01, 15:17:33
Natürlich sind 24GB totaler Overkill, aber du hast 200€ Aufpreis in die Runde geworfen und dafür bekommst du nunmal 16GB zusätzichen RAM. Nvidia bekommt Speicher ziemlich sicher günstiger, aber den Preis werden sie nicht 1:1 an die Kunden weitergeben. Bezüglich der Aufrüstbarkeit: Wenn die Spiele von heute nur 8GB brauchen, brauchst du den HBCC ja nicht zu nutzen. Wenn in einem Jahr der RAM billiger ist, kannst du bei Bedarf immer noch aufstocken, wenn die 8GB VRAM nicht reichen sollten -> Geld gespart.

Unterschiedlich schnelle Speicher ergeben wenig Sinn. Der VRAM ist ja deswegen schnell, weil alle Speicherchips parallel angesprochen werden. Also wäre es immer besser alle Speicherchips zu einem schnellen Speicher zusammenzutun als am Ende zwei langsame Speicher zu haben. Es bräuchte schon sowas wie eDRAM als "L3 Cache" und dazu langsamen, aber großen VRAM damit der Ansatz Sinn ergibt.
wenn ich die karte mit 16gb ram wieder verkaufe erhalte ich auch wieder mehr für die karte, also ist das argument unsinn. das führt auch den hbcc mit dem teuren arbeitsspeicher ins absurdum. bei vega war es ein muss, da 16gb wie bei der FE zu teuer war um sie für 500$ zu verkaufen.

die daten im vram benötigen nicht alle dieselbe geschwindigkeit, es wären keine schnell angebundenen 16gb nötig, wenn 8gb sehr schnell angebunden wären, die gpu dann entscheiden könnte daten auf den langsamen speicher auslagern zu können. aber bitte nicht in den ram über den pcie! das ist mein begrenzter ram, der ebenfalls sehr teuer ist und obendrein noch die pcie bandbreite schmälert.

wir wissen garnicht was passiert wenn mal wirklich 8gb oder gar 16gb vom hbcc ausgelagert werden, wie sollen solche mengen durch den pcie ohne jenen zu schmälern?


Bitte informiere dich erstmal wie HBCC überhaupt funktioniert bevor hier wieder seitenlang FUD verbreitet wird!blablabla

Ich habe ebenfalls 16GB Arbeisspeicher und aktuell keine Pläne auf 24GB oder gar 32GB zu gehen. Jedenfalls nicht bei den aktuellen Speicherpreisen. Mit Hilfe von China ändert sich das hoffentlich langfristig. Und dennoch sehe ich gravierende Vorteile dank HBCC obwohl ich "nur" 16GB Arbeisspeicher habe. Zugegeben... ist etwas künstlich gestelltes Szenario mit den 5K und Streaming @Extrem. Ich würde mit so tiefen Frames niemals Shooter spielen wollen. Die Funktionsweise von HBCC zeigt dieses Szenario aber sehr gut.
was ist wenn nun spiele, wie das kommende farcry5, nun 14gb ram benötigen und dein grafikspeicher überläuft?

ach ja, dann ist es software schrott, das kennen wir ja.

robbitop
2018-01-01, 15:22:04
Ich verstehe nicht, warum hbcc schlechtgeredet wird. Es ist technisch absolut schlüssig und sinnvoll.

BlacKi
2018-01-01, 15:29:56
Ich verstehe nicht, warum hbcc schlechtgeredet wird. Es ist technisch absolut schlüssig und sinnvoll.
für amds vega ja. auf meiner (zukünftigen) nvidiakarte nicht.

aufkrawall
2018-01-01, 15:31:31
Es würde natürlich auch für Nvidia-GPUs Sinn machen, besser optional als gar nicht. Den praktischen Nutzen sollte man trotzdem nicht überbewerten, erst recht nicht bei den momentanen RAM-Preisen.

robbitop
2018-01-01, 15:32:26
für amds vega ja. auf meiner (zukünftigen) nvidiakarte nicht.

Es wäre immer sinnvoll. Es ist eine OPTION. Nicht jeder tauscht seine graka wie andere ihre Unterwäsche. Viele nutzen ihre Grakas gern länger. VRAM Mangel tritt nach 2-3 Jahren gern auf. Man schaue sich die 780, die 970 und die 980 an. Gerade Maxwell ist von der Leistung her noch vielen schnell genug.

In meinem 2t PC ist bspw eine 970, die davon jetzt profitieren könnte.

Der_Korken
2018-01-01, 15:34:49
die daten im vram benötigen nicht alle dieselbe geschwindigkeit, es wären keine schnell angebundenen 16gb nötig, wenn 8gb sehr schnell angebunden wären, die gpu dann entscheiden könnte daten auf den langsamen speicher auslagern zu können. aber bitte nicht in den ram über den pcie! das ist mein teurer begrenzter ram, der ebenfalls sehr teuer ist und obendrein noch die pcie bandbreite schmälert.

Die Idee mit den zwei VRAMs klingt verlockend, aber sie funktioniert nicht. Angenommen wir wollen die kommende GTX2080 mit VRAM bestücken. Bei 256bit SI hätten wir acht Speicherkanäle mit je 32bit Busbreite und je einem GDDR6-Speicherchip mit 1GB und 14Ghz Takt, also 8GB mit 448GB/s. Du willst aber jetzt zwei getrennte Speicher, einen schnellen, einen langsamen, wobei der schnelle VRAM nicht langsamer als 448GB/s sein darf und die Gesamtgröße über 8GB liegt (wenn das nicht erfüllt wäre, könnte man auch gleich bei der ersten Lösung bleiben).

Das könnte z.B. so aussehen, dass man die GDDR6-Chips von oben durch 512MB-Chips ersetzt und noch vier weitere GDDR5-Chips mit je 2GB Kapazität und 8Ghz Takt verbaut. Das wären insgesamt 12GB, wobei die ersten 4 mit 448GB/s und die folgenden 8 mit 128GB/s. Um das zu realisieren, sind aber nun zwölf statt acht Speicherchips nötig, d.h. die GPU braucht insgesamt ein 384bit-SI, um den Speicher ansprechen zu können. Was würde nun passieren, wenn man statt der Konfig oben einfach zwölf GDDR5-Chips mit 1GB Größe und 8Ghz verbaut? Das wäre auf jeden Fall billiger, da alte und einfache Technik (kein GDDR6, keine 2GB-Chips), würde aber ebenfalls auf 12GB kommen, die aber durchgehend mit 384GB/s angebunden wären. Also vermutlich nicht schlechter als die teure Lösung mit getrennten Speichern. Nimmt man jetzt vielleicht noch billigen GDDR6 mit 10Ghz, wäre sie sogar in allen Belangen überlegen.

-> getrennte Speicher mit gleicher Technik macht i.d.R. keinen Sinn.

dargo
2018-01-01, 15:37:03
blablabla

Zeige mir bitte mehr von deinen Argumenten.


was ist wenn nun spiele, wie das kommende farcry5, nun 14gb ram benötigen und dein grafikspeicher überläuft?

Das würde ich sogar begrüßen, denn...

1. Könnte ich den Regler ganz einfach Richtung 16GB (oder halt 14GB) im HBCC-Segment schieben. Mehr bedarf es nicht.
2. Eine Titan XP wäre dann nur noch Elektronikschrott. ;D

Aber keine Sorge... das wird nicht passieren. Nicht in 2019 und schon gar nicht 2018. Dieser Fall wäre Selbstmord für jeden Publisher. Es sei denn man will keine Stückzahlen am PC absetzen.

btw.
HBCC ist für performante APUs Gold wert! Wird in diesem Thread hier aber zu sehr OT.

BlacKi
2018-01-01, 15:40:49
Es wäre immer sinnvoll. Nicht jeder tauscht seine graka wie andere ihre Unterwäsche. Viele nutzen ihre Grakas gern länger. VRAM Mangel tritt nach 2-3 Jahren gern auf. Man schaue sich die 780, die 970 und die 980 an.
unnötige verschwendung von silizium bis dahin.

später muss man sehen wie gut sich 8-16gb durch den pcie quälen lassen. derzeit sieht man ein paar hundert mb ausgelagert.

ich rede ihn ja nicht schlecht, sondern äussere befürchtungen.

robbitop
2018-01-01, 15:46:14
Wieviel Transistoren kostet das denn? Wahrscheinlich nicht signifikant. Wie groß ist der Effekt? Signifikant. Eine 1050 2gb oder eine 1060 3gb oder eine 960 2gb (sind von der Anzahl der Karten am Markt sicherlich mit die präsentesten Karten) würden davon schon heute profitieren. Aber schön, wenn man nur auf sich selbst schauen kann.

Und das sage ich als jemand der im 1. PC immer die schnellste GPU hat (aktuell gp102).

BlacKi
2018-01-01, 15:48:24
Das würde ich sogar begrüßen, denn...

1. Könnte ich den Regler ganz einfach Richtung 16GB (oder halt 14GB) im HBCC-Segment schieben. Mehr bedarf es nicht.

was ich meinte war 14gb im ram belegt (nichtvram) und deine 8gb vram laufen nicht nur 2gb über, sondern 3 gb?

sag nicht das es nicht so kommt, irgendwann kommt es so. die 2070 kommt imo mit 16gb hat dann keine probleme, du schon du musst auf die ssd schieben.

Die Idee mit den zwei VRAMs klingt verlockend, aber sie funktioniert nicht. Angenommen wir wollen die kommende GTX2080 mit VRAM bestücken. Bei 256bit SI hätten wir acht Speicherkanäle mit je 32bit Busbreite und je einem GDDR6-Speicherchip mit 1GB und 14Ghz Takt, also 8GB mit 448GB/s. Du willst aber jetzt zwei getrennte Speicher, einen schnellen, einen langsamen, wobei der schnelle VRAM nicht langsamer als 448GB/s sein darf und die Gesamtgröße über 8GB liegt (wenn das nicht erfüllt wäre, könnte man auch gleich bei der ersten Lösung bleiben).

Das könnte z.B. so aussehen, dass man die GDDR6-Chips von oben durch 512MB-Chips ersetzt und noch vier weitere GDDR5-Chips mit je 2GB Kapazität und 8Ghz Takt verbaut. Das wären insgesamt 12GB, wobei die ersten 4 mit 448GB/s und die folgenden 8 mit 128GB/s. Um das zu realisieren, sind aber nun zwölf statt acht Speicherchips nötig, d.h. die GPU braucht insgesamt ein 384bit-SI, um den Speicher ansprechen zu können. Was würde nun passieren, wenn man statt der Konfig oben einfach zwölf GDDR5-Chips mit 1GB Größe und 8Ghz verbaut? Das wäre auf jeden Fall billiger, da alte und einfache Technik (kein GDDR6, keine 2GB-Chips), würde aber ebenfalls auf 12GB kommen, die aber durchgehend mit 384GB/s angebunden wären. Also vermutlich nicht schlechter als die teure Lösung mit getrennten Speichern. Nimmt man jetzt vielleicht noch billigen GDDR6 mit 10Ghz, wäre sie sogar in allen Belangen überlegen.

-> getrennte Speicher mit gleicher Technik macht i.d.R. keinen Sinn.

ich hab nichts gegen den hbcc, stell dir einfach einen vega vor mit onboard dram statt einer onboard ssd wie schon vergestellt wurde.

stell dir mal vega vor mit 2x 2gb hbm ram und dem hbcc + 128/256bit angebundenem 12/16gb onboard ddr4, oder gddr5.

ich glaube der großteil des speicher ist mit texturen voll, welche keine hohe bandbreite benötigt.

robbitop
2018-01-01, 15:51:09
Bin ich wieklich mal gespannt, ob ga104 mit 16gb kommt. Der Konkurrenzdruck ist so hoch nicht. Gerade bei der 2070 könnte ich mir weniger vram als 16gb vorstellen.

dargo
2018-01-01, 15:53:22
Es würde natürlich auch für Nvidia-GPUs Sinn machen, besser optional als gar nicht.
So wie ich Nvidia kenne wird das nicht passieren. Dadurch hätte Nvidia einen Kaufanreiz für den Nachfolger weniger. ;) Ich lasse mich aber gerne vom Gegenteil überzeugen. Etwas schade, dass HBCC nicht schon bei Fiji fertig war. Allerdings war Fiji von der Die-Size schon am Limit.

was ich meinte war 14gb im ram belegt (nichtvram) und deine 8gb vram laufen nicht nur 2gb über, sondern 3 gb?

sag nicht das es nicht so kommt, irgendwann kommt es so. die 2070 kommt imo mit 16gb hat dann keine probleme, du schon du musst auf die ssd schieben.
Wovon redest du überhaupt? In deinem genannten Fall bräuchte die Applikation schon 24GB Grafikspeicher. Wer soll das Spiel 2018 denn kaufen? :ulol: Zumal deine GTX2070 dann mit 16GB komplett überfordert wäre. Mich beschleicht das Gefühl du hast das HBCC Konzept überhaupt nicht verstanden.

Edit:
Oder meinst du wenn die Applikation mindestens 14GB Arbeitsspeicher und mehr als 8GB Vram braucht? In dem Fall stecke ich mir zusätzlich 8GB DDR4 in den Rechner und die Sache ist geritzt. Wird aber vor der PS5 sicherlich nicht passieren, also das mit den min. 14GB Arbeitsspeicher. Ich wüsste aktuell nicht mal welches Spiel mehr als 8GB Arbeitsspeicher unbedingt braucht.

x-force
2018-01-01, 16:00:46
um mal realistisch zu werden:

wenn der grafikkarte nach 3 jahren der ram ausgeht, hat sie auch garantiert nicht mehr die leistung um max details flüssig darzustellen.
das ist dann einzig und allein für die texturenqualität sinnvoll, jedoch ist da die letzte qualitätsoption häufig eh nicht sinnvoll, weil man die unterschiede mit der lupe suchen muss.

theoretisch schön, praktisch mit ordentlicher basis nutzlos.

Troyan
2018-01-01, 16:01:18
Bitte, es bringt überhaupt nichts. Können wir endlich davon aufhören hier über etwas zu reden, dass keinem relevanten Nutzen hat? Sobald per Frame mehr als der Onboard-Speicher benötigt wird, bringt HBCC nichts. Es ist nutzlos. Es ist nur relevant, wenn unnötige Daten in den Speicher sollen und dauernd von der Platte gelesen wird. Das ist aber vollkommende Verschwendung von GPUs.

Gerade Wolfenstein 2 mit der GTX1080TI getestet: Unterschied in 5K 3,5GB - Resultat ist null Unterschied im Bild. Warum sollte ich also 3,5GB verschwenden?

Timbaloo
2018-01-01, 16:03:14
Bin ich wieklich mal gespannt, ob ga104 mit 16gb kommt. Der Konkurrenzdruck ist so hoch nicht. Gerade bei der 2070.
Naja, gerade um 1080ti-ler umzustimmen wären 16GB ein gutes Argument.

robbitop
2018-01-01, 16:06:17
Naja, gerade um 1080ti-ler umzustimmen wären 16GB ein gutes Argument.

Ein sinnvolles Upgrade von gp102 wäre ga102 und nicht ga104. Bei der 2070 könnte ich es mir vorstellen dass es weniger als 16 gb sind.

@hbcc
Für aktuelle highend Karten ggf noch nicht sinnvoll. Für mainstream gpus aber schon. Oder ältere highends. AMD hatte doch rott mit 2gb vram und hbcc demonstriert. Lief in der Demo erstaunlich gut. Scheint schon sinnvoll zu sein.
Natürlich könnte man auch Texturdetails reduzieren. Ist aber nett wenn manes nicht muss. Bis auf vram kosten bessere Texturen nichts.

dargo
2018-01-01, 16:10:05
um mal realistisch zu werden:

wenn der grafikkarte nach 3 jahren der ram ausgeht, hat sie auch garantiert nicht mehr die leistung um max details flüssig darzustellen.

Sehe ich überhaupt nicht so. Eine GTX970/980 oder R9 290 mit 4GB sind auch heute noch wunderbare 1080p Karten (erstere mit gewissen Einschränkungen). Beim Speicher wirds hier und da aber schon mal langsam knapp. Mit HBCC bist du da auch schön flexibel. Du könntest als Beispiel ein Segment aus 6GB oder halt 8GB erstellen. Wie man es halt möchte oder braucht.

Timbaloo
2018-01-01, 16:13:23
Ein sinnvolles Upgrade von gp102 wäre ga102 und nicht ga104.
Seh ich genauso dass das nicht sinnvoll ist, es ist auch nicht sinnvoll eine Titan irgendwas zu kaufen, aber es gibt trotzdem jede Menge Leute die von Galt102 auf Gneu104 wechseln. NV hat alles richtig gemacht wenn man die Zahl der Wechsler GP102 -> GA104 -> GA102 maximiert.

BlacKi
2018-01-01, 16:13:54
Wovon redest du überhaupt? In deinem genannten Fall bräuchte die Applikation schon 24GB Grafikspeicher. Wer soll das Spiel 2018 denn kaufen? :ulol: Zumal deine GTX2070 dann mit 16GB komplett überfordert wäre. Mich beschleicht das Gefühl du hast das HBCC Konzept überhaupt nicht verstanden.
ich hab das gefühl du willst nur nicht verstehen worauf ich hinaus will.

das spiel belegt normalen ram(in meinem beispiel 14gb) deine grafikkarte belegt dein verfügbarer vram ist wird voll und beginnt überzulaufen. wo gehen die daten denn hin?

eine 16gb karte bietet mit 16gb ram ingesammt 32gb speicherplatz.

eine 8gb+hbcc karte mit 16gb ram hat 24gb speicher.

maximus_hertus
2018-01-01, 16:15:37
Oder man geht in die Vollen:

GTX 2080, GA104, 16 GiB, 799 USD, ca. 15-20% vor der 1080 Ti
GTX 2070, GA104, 16 GiB, 549 USD, ca. 1080 Ti FE Performance, jedoch rund -50-75W Stromverbrauch und halt mehr VRAM

GTX 2060 Ti, GA104, 8 GiB, 399 USD, etwas schneller als die GTX 1080 / Vega 64

Damit könnte man vom Enthusiasten bis zum Oberklassen-Gamer alles mitnehmen.


Es sei denn, GA102 kommt zeitnah, dann würde ich von 8 GiB für alle GA104 Karten ausgehen.

BlacKi
2018-01-01, 16:22:28
Oder man geht in die Vollen:

GTX 2080, GA104, 16 GiB, 799 USD, ca. 15-20% vor der 1080 Ti
GTX 2070, GA104, 16 GiB, 549 USD, ca. 1080 Ti FE Performance, jedoch rund -50-75W Stromverbrauch und halt mehr VRAM

GTX 2060 Ti, GA104, 8 GiB, 399 USD, etwas schneller als die GTX 1080 / Vega 64

Damit könnte man vom Enthusiasten bis zum Oberklassen-Gamer alles mitnehmen.


Es sei denn, GA102 kommt zeitnah, dann würde ich von 8 GiB für alle GA104 Karten ausgehen.
die titan ga102 wird auch noch 2018 kommen, vl q2/q3?

da traditionell bei nvidia immer 50$ draufgehauen werden, gehe ich von 650$ msrp aus also 750$ für die 2080FE. die 2070 wird wohl ebenfalls wieder 20% langsamer und wohl auch einen knapp 20% niedrigeren preis erhalten. 16gb sind für weitere 2 jahre nicht zuviel, wir hatten januar 2016 auch keinerlei anwendungszwecke für 8gb vram. so sehen auch 16gb genauso OP aus, sind es in 2 jahren aber nichtmehr.

Timbaloo
2018-01-01, 16:22:52
Es sei denn, GA102 kommt zeitnah, dann würde ich von 8 GiB für alle GA104 Karten ausgehen.
Was ich mir auch mal gedacht habe: Wenn der GA102 nicht zeitnah kommt, dann könnte NV gleich einen Kansas City Shuffle machen und GA102 gar nicht mehr auf 12nm bringen...

scully1234
2018-01-01, 18:11:58
Es sei denn, GA102 kommt zeitnah, dann würde ich von 8 GiB für alle GA104 Karten ausgehen.

Ich würde meinen GA104 beerbt die derzeitige Titan mit 12 GB und verbaut höhertaktenden GDDR5x , und GA102 stockt in Form der neuen Titan auf 16GB auf,und das relativ zeitgleich mit dem kleinen GA104, weil GP102 als big Chip schon EOL gegangen ist.

Als Titan Derivat dann vielleicht schon in 7nm mit frischem GDDR6 ,weil es sich finanziell rechnet,und man Erfahrungen sammeln kann mit dem Prozess...

basix
2018-01-01, 19:37:09
GA102 in 7nm wäre aber eher kleiner als ein GA104 in 12LP oder ein riesiger Performancesprung im Portfolio. Irgendwie beides unwahrscheinlich.

scully1234
2018-01-01, 20:11:05
GA102 in 7nm wäre aber eher kleiner als ein GA104 in 12LP .

Einen Strukturgrößenwechsel hat man selbst innerhalb einer Serie schon mal vollzogen nämlich bei der GTX 260

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/GTX-260-65nm-vs-55nm-677034/

So unwahrscheinlich auf zwei Prozesse zu setzen ist das also nicht, zumal man mit der Titan aufgrund des exclusiven Preises ,ja kein wirkliches Risiko eingeht, sollten die Yields noch nicht dort sein wo sie hingehören.

Und zudem sammelt man so noch Erfahrungen mit dem Prozess ,bevor man GA104 auch umstellt ,wenn er wirtschaftlicher ist

Der Volta Chip kam ja auch als erstes in "12 nm" daher, obwohl er viel größer war als seine Pascal Kollegen, weil er das Risiko über den Preis minimiert hat
http://www.pcgameshardware.de/Volta-Codename-266151/News/Fertigung-von-neuen-12-nm-GPUs-startet-2017-1236211/

=Floi=
2018-01-01, 21:54:47
Wieviel Transistoren kostet das denn? Wahrscheinlich nicht signifikant. Wie groß ist der Effekt? Signifikant. Eine 1050 2gb oder eine 1060 3gb oder eine 960 2gb (sind von der Anzahl der Karten am Markt sicherlich mit die präsentesten Karten) würden davon schon heute profitieren. Aber schön, wenn man nur auf sich selbst schauen kann.



und du willst uns jetzt erzählen, dass man damit 100-200% des vrams damit ersetzen kann?
hört auf damit. Es ist und bleibt schwachsinn. 10-20% vram kann man damit vielleicht sinnvoll einsparen aber bei mehr wird es zu stuttering führen.
Bei den kleineren karten macht es das auch nicht besser. Die kleinen überhänger (bis 10%) im vram kann ich jetzt auch schon auslagern.

Sinnvoll kostet es vor allem treiberarbeit und personal. Denke das ist an sich garnicht so günstig.

Das könnte auch mal dargo testen. Ob es bei 10gb oder 12gb vram@ 8k noch rund läuft. Ich möchte mal über einen ganzen levl oder über eine bestimmte zeit die frametimes sehen!

Thunder99
2018-01-01, 21:56:47
Kann man. Es kommt auf die Implementierung drauf an.

Korvaun
2018-01-01, 22:31:13
Wenn Ampere im 1/2Q2018 kommt seh ich nicht mehr als 8GB bei 2070/2080er Karten. Solange die Konsolen nicht mehr Speicher als aktuell bieten brauchts das auch nicht wirklich, da alle Engines von Multiplats auf <8GB optimiert werden. Im "Notfall" könnte nV ja auch einfach noch ne 16GB-Extraversion nachschieben (z.B. 4Q2018) wenn die entsprechenden Speicherchips dann schon gut verfügbar sind. Wahrscheinlicher werden 16GB als Zwischengeneration Q2/2019.

crux2005
2018-01-02, 01:49:19
Die Ampere "GTX 2080" sollte IMHO 12 GiB VRAM haben, sonst wäre sie für viele uninteressant. Also 384bit SI + GDDR5X.

Platos
2018-01-02, 04:54:17
und du willst uns jetzt erzählen, dass man damit 100-200% des vrams damit ersetzen kann?
hört auf damit. Es ist und bleibt schwachsinn. 10-20% vram kann man damit vielleicht sinnvoll einsparen aber bei mehr wird es zu stuttering führen.
Bei den kleineren karten macht es das auch nicht besser. Die kleinen überhänger (bis 10%) im vram kann ich jetzt auch schon auslagern.

Sinnvoll kostet es vor allem treiberarbeit und personal. Denke das ist an sich garnicht so günstig.

Das könnte auch mal dargo testen. Ob es bei 10gb oder 12gb vram@ 8k noch rund läuft. Ich möchte mal über einen ganzen levl oder über eine bestimmte zeit die frametimes sehen!

Speicherhirarchie ist eigentlich immer gut, nur muss man die jeweiligen Speichermengen richtig wählen. Bei Vega kann das in Zukunft durchaus die Langlebigkeit erhöhen, wenn ein Spiel dann mal 9-10GB zieht, also man 1-2GB mehr gebrauchen könnte. (Besser als nicht vorhanden).

Wenn man jetzt aber weniger Grafikspeicher verbaut, "weil man ja HBCC hat", dann wird das logischerweise kein Vorteil sein, wenn (!) dann nvidia mehr Grafikspeicher mit bringt.

Fazit: Als kleinen Bonus oben drauf ist das natürlich super, aber als richtigen Grafikspeicher-Ersatz ist das ein Witz. Ich glaube aber kaum, dass AMD in Zukunft weniger Grafikspeicher als nvidia verbaut. Wenn sie also weiterhin mind. gleich auf sind (was ich mal stark annehme), dann ist HBCC sicher nur Vorteilhaft (Man kann es ja auch immer noch abschalten und nur bei Spielen einschalten, die es brauchen könnten).

Wenn sie wirklich weniger Speicher (als nvidia) verbauen würden, dann wäre das etwa genau das selbe, wie bei der GTX 970.

Nightspider
2018-01-02, 05:16:14
Ich will gar nicht wissen wie teuer alleine 16GB GDDR6 Chips sind und kann es mir daher auch nicht so recht für GA104 vorstellen.

Ideal wären wirklich 12GB. 16GB sind overkill für dieses Leistungssegment.

Ich sehe einfach keinen Anwendungsfall für 16GB.

Beim Top Model GA102 aber gerne.

Oder meint ihr die Xbox One X Ports werden so viel mehr VRAM schlucken?

robbitop
2018-01-02, 12:18:32
und du willst uns jetzt erzählen, dass man damit 100-200% des vrams damit ersetzen kann?
hört auf damit. Es ist und bleibt schwachsinn. 10-20% vram kann man damit vielleicht sinnvoll einsparen aber bei mehr wird es zu stuttering führen.
Bei den kleineren karten macht es das auch nicht besser. Die kleinen überhänger (bis 10%) im vram kann ich jetzt auch schon auslagern.

Sinnvoll kostet es vor allem treiberarbeit und personal. Denke das ist an sich garnicht so günstig.

Das könnte auch mal dargo testen. Ob es bei 10gb oder 12gb vram@ 8k noch rund läuft. Ich möchte mal über einen ganzen levl oder über eine bestimmte zeit die frametimes sehen!
Wieso will "ich" das erzählen? AMD hat dies klar demonstriert. Ich habe auch mehrere Beispiele von Konsolen genannt, bei denen das funktioniert hat (dort mittels Entwickler). Wenn man sich anschaut, welche Dinge, wieviel Speicher und wieviel Bandbreite benötigen und was gut gecacht werden kann, sollte klar sein, dass obiges sinnvoll ist, sofern der Treiber das transparent für die Anwendungen darstellen kann.

scully1234
2018-01-02, 12:51:01
Nvidia will have two big GPUs in 2018

Nvidia will have a GPU that will come in 2018 to replace the Pascal based GTX 1000 series and won’t be a cut down version of Volta. It will be a brand new unit designed from scratch. Jensen already announced the next generation Post Volta GPU in European GTC in October 2017.

The new DRIVE PX Pegasus is necessary for Level 5 autonomous driving for robo taxis in the future and has two Post Volta big GPUs. (http://www.fudzilla.com/news/graphics/45225-nvidia-has-two-big-gpus-in-2018)

Kann das sein das das Pegasus Board 2 x GA102 unterbringt + die zwei Tegra Chips und nicht mehr wie 500 Watt verbraucht:confused:

dargo
2018-01-02, 12:52:36
Ich will gar nicht wissen wie teuer alleine 16GB GDDR6 Chips sind und kann es mir daher auch nicht so recht für GA104 vorstellen.

This.

Ich tippe auf 8GB bei 2070/2080 wegen 256Bit SI. Alles andere wäre in diesem Preissegment Verschwendung und würde mich überraschen. Es sei denn Nvidia möchte das Preisniveau noch ne Stufe nach oben hieven. :tongue:

Bucklew
2018-01-02, 12:55:29
Ich tippe auf 8GB bei 2070/2080 wegen 256Bit SI.
Völliger Blödsinn, NVIDIA hat mit einem neuen Chip noch nie die Speichergröße gleich gelassen.

680: 2GB
780: 3GB
980: 4GB
1080: 8GB

Immer dieses FUD von den AMD-Trollen :freak:

Troyan
2018-01-02, 13:04:48
Nvidia will have two big GPUs in 2018

Kann das sein das das Pegasus Board 2 x GA102 unterbringt + die zwei Tegra Chips und nicht mehr wie 500 Watt verbraucht:confused:

Wer weiß. Offiziell ist nur, dass auf dem Pegasus Board der Voltanachfolger verwendet wird.

Jupiter
2018-01-02, 13:06:40
16GB erachte ich für GA104 als ausgeschlossen aber vielleicht täusche ich mich da. Ich rechne mit 8-12GB VRAM.

Daredevil
2018-01-02, 13:21:40
Ne aktuelle Dual GPU wäre mit schnellem Speicher wäre vermutlich auch der feuchte Traum der Minenarbeiter.
Sowas muss ja nur am Rande den Gaming Markt ankratzen, Hauptsache Nvidia verkauft den Kram wie blöd.

scully1234
2018-01-02, 13:25:05
Sowas in der Art
http://research.nvidia.com/publication/2017-06_MCM-GPU:-Multi-Chip-Module-GPUs?ClickID=aw0powzzvslapy5y5rrs050szpksytrnzsks

dargo
2018-01-02, 13:36:30
Ich rechne mit 8-12GB VRAM.
Aber wie willst du die 12GB performant genug realisieren? Das ginge nur mit einem 384Bit oder 192Bit SI. Ersteres wäre zwar nicht unmöglich aber teurer. Und beim GA102 dann ein fettes 512Bit SI notwendig. Zweiteres wäre mit 336GB/s etwas mager für die 2080 mit 14Gbps.

AffenJack
2018-01-02, 13:57:57
Nvidia will have two big GPUs in 2018

Kann das sein das das Pegasus Board 2 x GA102 unterbringt + die zwei Tegra Chips und nicht mehr wie 500 Watt verbraucht:confused:

Es ist Fud, daran was die schreiben sollte man sich nicht aufhängen. Ich glaube nicth, dass wir 2 big GPUs haben werden, wie Fud denkt. Volta Nachfolger wird erst 2019 kommen. Zu Pegasus, jo ich gehe von 2 xGA102 aus. Passt am besten zu den 500W TDP und die TOPS passen zu 5374 Shadern wie bei V100.

Thunder99
2018-01-02, 13:59:10
Kann man seit GDDR5X nicht krumme Speicherbestückungen bei vollem SI realisieren? :confused:

dildo4u
2018-01-02, 14:15:43
Hier gibt es 160 Bit mit 5GB kann man dann nicht 320bit mit 10GB bauen?

https://videocardz.com/74547/nvidia-to-launch-geforce-gtx-1060-with-5gb-memory

Nightspider
2018-01-02, 14:38:01
Vielleicht gibts auch einfach zwei Versionen mit 8 oder 16 GB. Das wäre jedenfalls die beste Variante.

dargo
2018-01-02, 14:57:51
Hier gibt es 160 Bit mit 5GB kann man dann nicht 320bit mit 10GB bauen?

https://videocardz.com/74547/nvidia-to-launch-geforce-gtx-1060-with-5gb-memory
Man kann vieles, ob das sinnvoll bzw. wirtschaftlich ist ist wieder eine andere Geschichte. Die Speichercontroller müssen immer gleich breit ausgelegt sein. Und wenn du am Ende 320Bit haben willst musst du 384Bit verbauen und eben Teile davon deaktivieren. Schlau ist sowas beim Topdog einer Reihe allerdings nicht. Die Extrawurst der 1060 für China ist nur eine "Resteverwertung" der vollen 1060 mit 192Bit SI und eben 6GB.

Platos
2018-01-02, 17:13:24
This.

Ich tippe auf 8GB bei 2070/2080 wegen 256Bit SI. Alles andere wäre in diesem Preissegment Verschwendung und würde mich überraschen. Es sei denn Nvidia möchte das Preisniveau noch ne Stufe nach oben hieven. :tongue:

Aufgrund dessen, dass die letzte Gen 2 Jahre her ist, wird es eher kein Refresh. Also glaube ich kaum, dass nicht mehr Speicher drinn liegen wird. Vlt. bei der 70-er aber bei der 80-er nie im Leben. Aber 16GB halte ich auch für übertrieben. Das wird dann vermutlich eher die Titan Ampere & xx80Ti haben. Aber ich denke 10GB für die 70-er sollte schon drinn liegen und 12GB für die 80-er. Das wäre auch ein "gutes" Argument für einige 1080Ti Besitzer die dann zu den (vermutlich) 25% Mehrleistung auch noch ein ganzes GB mehr Speicher haben :biggrin:

Und warum denkst du, dass keine krumme Zahl genommen wird? Wurde ja auch schon bei der 1080Ti gemacht (die 970 musst du jetzt nicht als Argument bringen, hast du jetzt genug in diesem Thread und ist auch ne ganz andere Geschichte ;) )

Mehr "müssen" sie ja bringen. Haben sie bis jetzt immer bei einem "Nicht-Refresh". Und nach 2 Jahren wird es sehr wahrscheinlich kein Refresh.
Und wie sieht das nochmals mit der Geschwindigkeit von GDDR6 aus? Ich meinte, Leonidas hat mal einen Artikel dazu geschrieben, wo zu lesen war, dass man mit GDDR6 (in der Praxis) schlussendlich (leichter) höhere Taktraten erreicht.

Daredevil
2018-01-02, 17:20:49
Also momentan "muss" Nvidia nicht wirklich viel bringen bei aktuellem Marktstand, die Leistunggssteigerung eines Refreshs würde vielleicht schon ausreichen, um AMD im Zaum zu halten.
Wenn eine OneX aber schon mit 12GB kommt bei einem Polaris Chip, wird sich das PC Master Race nicht die Blöße geben.

Der_Korken
2018-01-02, 17:22:05
Aber wie willst du die 12GB performant genug realisieren? Das ginge nur mit einem 384Bit oder 192Bit SI.

Vielleicht nicht. Es wurde afaik mal gemunkelt, dass es für GDDR6 (oder gar schon für GDDR5X?) auch Speicherchips mit "ungerader" Speichermenge geben soll, d.h. 0,75 oder 1,5 oder 3,0 oder ... GB pro Chip. Damit ginge auch 12GB@256bit.

AffenJack
2018-01-02, 17:27:34
10 oder 12 Gb gehen nicht, wenn man nicht komische Speicherinterfaces verbaut. Daher wird das eher nix. Die Herstellungsprozess entwickeln sich nunmal nicht mehr so schnell. Entweder man verdoppelt jetzt den Ram oder 1 Jahr danach, wenn 7nm kommt und dann wahrscheinlich der deutlich größere Leistungssprung. Ich gehe erst bei 7nm von der Verdopplung aus, außer man bringt vielleicht ne 2080 mit 8 und 16Gb. Aber nur 16Gb wird man alleine schon deshalb nicht bringen, weil dann der Preis nochmal um 100$ hoch geht. 2080 mit 8Gb für 599$ und 16Gb für 699$ könnte schon eher passieren.

@Der Korken
In Theorie kann es die Speicherchips geben. In der Praxis sind am Anfang keine solchen angekündigt und kommen wenn dann später.

BlacKi
2018-01-02, 17:28:42
ich weiß nicht was die konsolen diskussion überhaupt soll, das war bisher immer komplett abgekoppelt. jede chipgen gabs die doppelte menge seit 2010. das wird sich jetzt nicht plötzlich ändern. die spieleindustrie nimmt sich was im oberen segment da ist. d.h. wir haben 2019 schon 12-16gb in gebrauch. wie schon weiter vorne geschrieben, haben wir mit 8gb vram anfang 2016 auch nichts anfangen können.

Daredevil
2018-01-02, 17:34:41
Warum sollte Nvidia überhaupt schon Mitte des Jahres mit einem neuen "Schlachtschiff" auftauchen, wenn die Konkurrenz momentan nicht wenig, sondern nahezu nichts zu bieten hat ab MidEnd? ( Verfügbarkeit, Preisgestaltung, Performance/Watt )
Nvidia wird doch nicht seine solide Pascal Generation gegen eine Karte aus seinen eigenen Reihen stellen. Die braucht es doch erst, wenn AMD seine Vega Architektur ( Hoffentlich ) mehr in den Griff bekommen hat beim Refresh.

Warum also nicht Mitte des Jahres MidEnd mit 6/8GB mit günstigeren Speicher und zum Herbst/Winter mit 16GB aus vollen Rohren schießen?

dargo
2018-01-02, 17:44:12
Vielleicht nicht. Es wurde afaik mal gemunkelt, dass es für GDDR6 (oder gar schon für GDDR5X?) auch Speicherchips mit "ungerader" Speichermenge geben soll, d.h. 0,75 oder 1,5 oder 3,0 oder ... GB pro Chip. Damit ginge auch 12GB@256bit.
Wäre mir zwar neu. Aber klar... in dem Falle, dass einzelne Chips keine geraden, ganzen Zahlen sind ginge das natürlich.


Und warum denkst du, dass keine krumme Zahl genommen wird? Wurde ja auch schon bei der 1080Ti gemacht (die 970 musst du jetzt nicht als Argument bringen, hast du jetzt genug in diesem Thread und ist auch ne ganz andere Geschichte ;) )

Eine 1080TI ist auch nur "Resteverwertung" der Titan.

scully1234
2018-01-02, 17:44:27
Warum sollte Nvidia überhaupt schon Mitte des Jahres mit einem neuen "Schlachtschiff" auftauchen, wenn die Konkurrenz momentan nicht wenig, sondern nahezu nichts zu bieten hat ab MidEnd? ( Verfügbarkeit, Preisgestaltung, Performance/Watt )

Weil ausruhen auf den eigenen Lorbeeren schon öfters nach Hinten losgegangen ist

Jensen sollte wohl wissen wer ihm im Nacken sitzt, somal die Chips ja nicht nur für den Geforce gebacken werden

Autonomes Fahren, AI sind Felder wo es sicherlich gut tut,komfortablen Abstand vom nächsten Mitberwerber zu erlangen,somal diese Märkte riesiges Potential haben. Und wenn man da beiläufig die Geforce Sparte mitzieht, ist das gewiss kein Nachteil für die Festigung im Marktsegment

AffenJack
2018-01-02, 17:44:36
@Daredevil
Weil das wirtschaftlich keinen Sinn macht. Du lässt dein Produkt ,was dir mehr margen/marktanteile sichert, nicht ewig auf Halde liegen bis der Konkurrenz ankommt und du deine Margen verlierst. 3 Monate Unterschied wie bei der Titan M und 980Ti erwarte ich und mehr nicht. Was bringt dir der große Chip in 12nm, wenn AMD mit 7nm ankommt? Das ergibt keinen Sinn. Einzig möglich wäre, dass Nvidia den großen chip schon lange auf 7nm geplant hat. Dagegen spricht aber sowohl die Hynixmeldung mit 384Bit, als auch Drive PX Pegasus, was möglicherweise einen GA102 benutzt.

Bucklew
2018-01-02, 17:45:33
Warum sollte Nvidia überhaupt schon Mitte des Jahres mit einem neuen "Schlachtschiff" auftauchen, wenn die Konkurrenz momentan nicht wenig, sondern nahezu nichts zu bieten hat? ( Verfügbarkeit, Preisgestaltung, Performance/Watt )
Einfach: Pascal ist jetzt zwei Jahre alt. In der aktuellen Marktsituation kämpft NVIDIA praktisch nur gegen sich selbst. Ein Refresh mit 15% mehr Leistung (1080->2080) würde (fast) niemanden zum Umstieg bewegen.

Eine 2080 mit ~50% Mehrleistung ggü der 1080 würde aber sehr viele Nutzer zum Umstieg bewegen können. Mehr Umsteiger -> Mehr Umsatz.

Daredevil
2018-01-02, 17:47:22
Ich meinte damit ja auch nicht, dass sie sich ausruhen sollen, sondern das man vielleicht etwas besser vorbereitet/vorproduziert und dann auch richtig mit einem Paukenschlag abliefern kann.

Eine 1070ti war ja auch einfach nur Feintuning als Reaktion auf kommenden Custom Karten von Vega. ( Behaupte ich jetzt einfach mal, sonst sehe ich den Sinn nicht. :D )
So kann man ein wenig besser beobachten, was der Mitbewerber macht, sollte aber nicht wie Intel dann ich Zugzwang kommen. ^^

Bucklew
2018-01-02, 17:48:59
sondern das man vielleicht etwas besser vorbereitet/vorproduziert und dann auch richtig mit einem Paukenschlag abliefern kann.
Vielleicht bereitet man genau das seit knapp zwei Jahren vor und zeigt das im Q2....? :)

Timbaloo
2018-01-02, 17:50:27
Aber warum sollte man sich Umsatz/Gewinn durch die Lappen gehen lassen nur um einen Paukenschlag zu produzieren? Und NV wird bei Ampere sicher nichts überstürzen, warum auch.

Daredevil
2018-01-02, 17:50:58
Eine 2080 mit ~50% Mehrleistung ggü der 1080 würde aber sehr viele Nutzer zum Umstieg bewegen können. Mehr Umsteiger -> Mehr Umsatz.
Das mag stimmen, aber verschenken werden sie auch keine Karte, die 50% mehr leistet als eine aktuelle Karte, die ~500€ kostet.
Das würde die Lust am umsteigen dann auch eher abmildern.

Vielleicht bereitet man genau das seit knapp zwei Jahren vor und zeigt das im Q2....? :)
Ja gut... stimmt... ein wenig Zeit hatten sie ja schon. :D

BlacKi
2018-01-02, 17:52:23
amd ist doch schon praktisch aus dem rennen wegen der miner. wenn also nvidia mein geld 2018 haben will, dann muss da was kommen. wenn jemand ne 8gb 1080 hat, wer sollte dann auf die 2080 12gb oder noch schlimmer auf 8gb wechseln? das wäre ein tragischer einbruch im umsatz, das werden sie sich nicht leisten wollen.

scully1234
2018-01-02, 17:52:49
Ich meinte damit ja auch nicht, dass sie sich ausruhen sollen, sondern das man vielleicht etwas besser vorbereitet/vorproduziert und dann auch richtig mit einem Paukenschlag abliefern kann.

darauf würde ich mich bei den neuen Märkten nicht verlassen, sondern abliefern so schnell als möglich, um sich dort zu zementieren solange es kein anderer kann

basix
2018-01-02, 17:56:27
amd ist doch schon praktisch aus dem rennen wegen der miner.

GV100 zeigt eine Bärenstarke Mining-Performance auf der Titan V. Evtl. bekommt Nvidia mit Ampere das selbe Problem, wer weiss.

Sowas in der Art
http://research.nvidia.com/publication/2017-06_MCM-GPU:-Multi-Chip-Module-GPUs?ClickID=aw0powzzvslapy5y5rrs050szpksytrnzsks

Sowas wird AMD mit guter Wahrescheinlichkeit mit Navi bringen (Stichworte Scalability und NextGen Memory auf ihrer Roadmap). Threadripper / EPYC zeigen wohin die Reise geht. Nvidia wird sicherlich auch in diese Richtung gehen, einfach weil günstig herstellbare DIE zu einer "riesen GPU" zusammengeclustert werden können und GV100 die Grenze des machbaren aufzeigt. Die Skalierbarkeit ist einfach irgendwann zu Ende, wenn die Fertigungsprozesse im länger auseinaderliegen. Das von dir verlinkte Paper zeigt eine 256 SM GPU bestehend aus 4 Slices mit je 64 SM. Total also 16384 Shader-Cores. Sie haben in Simulationen 90% der Leistung einer monolithischen GPU erreicht. Für die professionellen Architekturen wird das zu 100% kommen, für Consumer wahrscheinlich ein wenig später ebenfalls. Die Krux hier ist die Wirtschaftlichkeit: HBM2/3 vs. GDDR5/6 sowie das Packaging / Stacking / Interposer / EMIB usw.

Daredevil
2018-01-02, 18:06:42
darauf würde ich mich bei den neuen Märkten nicht verlassen, sondern abliefern so schnell als möglich, um sich dort zu zementieren solange es kein anderer kann
Deswegen sagte ich ja, erst auf den Bereich konzentrieren, der noch nicht in Stein gemeißelt ist. Der MidEnd Markt rund um Polaris.

Wenn Nvidia Mitte des Jahres eine Effiziente GPU auf den Markt bringt mit zusätzlich schnellem VRAM, wird das Ding von den Minern Tonnenfach aus der Hand gerissen. Da wäre es schade, wenn Nvidia nebenbei seine Ressourcen noch für den HighEnd Markt verbraucht.

Weil dann haben die Gamer da nichts von und die Miner arbeiten sich langsam von unten nach oben und versuchen den Markt aufzufressen, wie die letzten zwei Jahre auch.

scully1234
2018-01-02, 18:09:44
Wenn Nvidia Mitte des Jahres eine Effiziente GPU auf den Markt bringt mit zusätzlich schnellem VRAM, wird das Ding von den Minern Tonnenfach aus der Hand gerissen. Da wäre es schade, wenn Nvidia nebenbei seine Ressourcen noch für den HighEnd Markt verbraucht.
.

Aber das kann ich doch mit Ampere beides besser abdecken, solange die Produktionskapazitäten es zulassen

Und zudem sichere ich mir neue Marktanteile mit den Highendchips, in Gebieten die noch keiner besetzt hat ,beispielsweise mit der Pegasus Platine für Level 5 Fahrzeuge

Netter Nebeneffekt ist ,das sich Teile der Entwicklung eines Chips, eben nun von mehreren Märkten finanzieren lässt.

Daredevil
2018-01-02, 18:17:15
Wenn Nvidia beides abdecken kann, ist das natürlich Ideal, klar. ^^

AMD würde mit Sicherheit momentan auch mehr Vegas auf den Markt schmeißen, weil die unheimlich begehrt sind, die haben ja anscheinend schon ein paar Problemchen mit ihren Kapazitäten.

Ich kenn mich nur mit Gaming und ein wenig Mining aus. Die Profi Bereich, da habe ich Null Ahnung. Aber klar, da ist die Leistung mit Sicherheit schon im Sommer sehr begehrt. :)

BlacKi
2018-01-02, 18:18:39
GV100 zeigt eine Bärenstarke Mining-Performance auf der Titan V. Evtl. bekommt Nvidia mit Ampere das selbe Problem, wer weiss.
es würde die situation bei amd entspannen das stimmt. aber nvidias verfügbarkeit würde es nicht so hart treffen wie bei amd, weil die stückzahlen höher sind.

Mancko
2018-01-03, 09:07:53
Warum sollte Nvidia überhaupt schon Mitte des Jahres mit einem neuen "Schlachtschiff" auftauchen, wenn die Konkurrenz momentan nicht wenig, sondern nahezu nichts zu bieten hat ab MidEnd? ( Verfügbarkeit, Preisgestaltung, Performance/Watt )
Nvidia wird doch nicht seine solide Pascal Generation gegen eine Karte aus seinen eigenen Reihen stellen. Die braucht es doch erst, wenn AMD seine Vega Architektur ( Hoffentlich ) mehr in den Griff bekommen hat beim Refresh.

Warum also nicht Mitte des Jahres MidEnd mit 6/8GB mit günstigeren Speicher und zum Herbst/Winter mit 16GB aus vollen Rohren schießen?

Nvidia konkurriert primär mit sich selber. Wenn sie also die Verkaufszahlen einigermaßen halten wollen müssen sie auch die eigene aktuelle Generation (Pascal) klar und deutlich schlagen. Zudem ist die Gelegenheit günstig AMD so richtig unter Druck zu setzen und zwar auch finanziell.

Bucklew
2018-01-03, 09:23:43
Das mag stimmen, aber verschenken werden sie auch keine Karte, die 50% mehr leistet als eine aktuelle Karte, die ~500€ kostet.
Das würde die Lust am umsteigen dann auch eher abmildern.
Doch, das nennt sich "Fortschritt" :)

Anders wird niemand von Pascal auf Ampere umsteigen. 50% mehr für 700€ kann ein GTX1080Ti Besitzer auch heute haben und sich ne Custom Ti kaufen.

tm0975
2018-01-03, 10:18:30
Zudem ist die Gelegenheit günstig AMD so richtig unter Druck zu setzen und zwar auch finanziell.

1. davon hätte niemand was
2. amd verdient sein geld in erster linie mit konsolenchips und cpus

Palpatin
2018-01-03, 10:22:31
Aber wie willst du die 12GB performant genug realisieren? Das ginge nur mit einem 384Bit oder 192Bit SI. Ersteres wäre zwar nicht unmöglich aber teurer. Und beim GA102 dann ein fettes 512Bit SI notwendig. Zweiteres wäre mit 336GB/s etwas mager für die 2080 mit 14Gbps.
Wenn man weiter an der effizienz gearbeitet hat wäre das vermutlich kein Problem:

Speicherbandbreite:
680 = 192
780 = 288
980 = 224
1080 = 320
*2080 = 336

192 Bit Si für die 2080 könnte also passen.

ndrs
2018-01-03, 10:24:59
Die Speichercontroller müssen immer gleich breit ausgelegt sein. Und wenn du am Ende 320Bit haben willst musst du 384Bit verbauen und eben Teile davon deaktivieren.
Üblicherweise waren doch bisher immer 64bit breite Controller verbaut. Daher sollten auch 320 bit kein Problem sein.

Troyan
2018-01-03, 10:28:29
Seit Maxwell sind es 32bit Controller. Deswegen kommt die GTX1080TI auch mit 352bit und die GTX970 konnte mit 3,5GB bei 224bit verkauft werden.

Bucklew
2018-01-03, 10:43:01
1. davon hätte niemand was
2. amd verdient sein geld in erster linie mit konsolenchips und cpus
1. Was hätten wir davon, wenn NVIDIA neue Chips noch 12 Monate zurück hält? Noch weniger. Wenn NVIDIA es als einziger schafft, vernünftige GPUs zu entwickeln, dann will ich die lieber jetzt haben, als morgen. Freuen wir uns doch, dass NVIDIA nicht die Intel Salamitaktik fährt.
2. Das war vor wenigen Monaten noch anders. Und es ist ja nicht so, als würde es AMD nicht probieren.

pixeljetstream
2018-01-03, 10:55:04
Nvidia konkurriert primär mit sich selber. Wenn sie also die Verkaufszahlen einigermaßen halten wollen müssen sie auch die eigene aktuelle Generation (Pascal) klar und deutlich schlagen. Zudem ist die Gelegenheit günstig AMD so richtig unter Druck zu setzen und zwar auch finanziell.
Ja und nein, nicht die Leute vergessen die zwar NV haben aber keine Pascal. Beim Druck stimme ich Dir zu.

dargo
2018-01-03, 11:16:55
Üblicherweise waren doch bisher immer 64bit breite Controller verbaut. Daher sollten auch 320 bit kein Problem sein.
Gabs sowas eigentlich jemals? Also eine ungerade Zahl der Speichercontroller? Stelle ich mir etwas unwirtschaftlich vor. Ich kenne mich da zwar nicht so aus, aber wenn ich mir als Beispiel Fiji mit den vier Speichercontrollern anschaue...
https://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2016/Die-Shot-AMD-Fiji-10.jpg

Wären drei nicht etwas Verschwendung bei der Die-Size?

Edit:
Oder von mir aus GP102 mit seinen 12 Speichercontrollern.
https://cdn.wccftech.com/wp-content/uploads/2016/03/Nvidia-GP102-Block-Diagram.jpg

Wenn du da was weg nimmst bleibt einiges an ungenutzter Die-Fläche.

Daredevil
2018-01-03, 11:31:05
Ja und nein, nicht die Leute vergessen die zwar NV haben aber keine Pascal. Beim Druck stimme ich Dir zu.
Stimmt, ne 980ti konnte ja auch noch locker mit einer GTX1070 mithalten Performancemäßig.

scully1234
2018-01-03, 11:56:40
1. davon hätte niemand was
2. amd verdient sein geld in erster linie mit konsolenchips und cpus

und du meinst der Status Quo besteht dort nun für immer?

Sony u MS müssen auch mal wieder die nächste Next Gen bringen...


Dann wird sich angesehen wer was liefern kann, und vor allem zu welchem Preis.

Die Performance stimmt bereits, jetzt muss nur noch die Marge stimmen für Nvidia, und das geht mit einem kleineren performanteren Chip gewiss ebenfalls in die richtige Richtung

Andernfalls wartet man eben bis es passt ,derzeit tut man sich ja eh keinen Gefallen damit Zulieferer zu werden für die Sparfüchse, wenn man sich AMDs prekäre Lage ansieht

robbitop
2018-01-03, 12:11:41
Wenn man weiter an der effizienz gearbeitet hat wäre das vermutlich kein Problem:

Speicherbandbreite:
680 = 192
780 = 288
980 = 224
1080 = 320
*2080 = 336

192 Bit Si für die 2080 könnte also passen.
Bandbreiteneffizienz unterliegt sicher auch dem Gesetz des sinkenden Grenzertrags. Maxwell und Pascal haben mit ihrem TBR+DCC in Verbindung mit ihrem Cachesystem die wesentlichen Früchte wahrscheinlich bereits geerntet.

HOT
2018-01-03, 12:29:13
Seit Maxwell sind es 32bit Controller. Deswegen kommt die GTX1080TI auch mit 352bit und die GTX970 konnte mit 3,5GB bei 224bit verkauft werden.

Quatsch 32bit controller wurden schon beim g80 verwendet.

ndrs
2018-01-03, 13:28:44
Gabs sowas eigentlich jemals? Also eine ungerade Zahl der Speichercontroller?
GF106, GK106 hatten, soweit ich weiß, nativ 192bit. Also 3x64. Wenn das geht, wüsste ich nicht, warum 5x64 nicht gehen sollte.

Wie von Troyan und HOT angemerkt können es auch 32bit sein. Durch Deaktivierung wurde 32bittige Granularität ja auch schon mehrfach genutzt. In den Disshots erkennt man aber meist 64bit-große Blöcke im Layout.

Ob es sich layoutmäßig effizient lösen lässt? Wenn man will bestimmt. Es gibt ja genug Blöcke außerhalb des Shaderarrays, die nur einmal vorhanden sind und damit per se assymetrisch (UVD, PCIe, Video-out, ...)

Nightspider
2018-01-03, 14:12:02
Die Chancen stehen gut das wieder neue, leistungsfähigere Video Encoder und Decoder verbaut sind oder?

Bucklew
2018-01-03, 14:25:54
Würde ich von ausgehen, ja. Wobei sicherlich wie bisher im GA10(2-x) den besseren Decoder, als im GA100, wenn es den jemals gibt ;)

Ob wir wohl tatsächlich einen GA100 sehen werden? Also nicht GA100 im Sinne von GP102, sondern eher einen Chip relativ im Spektrum oberhalb von GP102? Quasi wie GP100/GV100, nur halt als riesigen Gaming-Chip für die Titan.

Palpatin
2018-01-03, 15:05:38
Bandbreiteneffizienz unterliegt sicher auch dem Gesetz des sinkenden Grenzertrags. Maxwell und Pascal haben mit ihrem TBR+DCC in Verbindung mit ihrem Cachesystem die wesentlichen Früchte wahrscheinlich bereits geerntet.
Mit 336 GB/s wäre man aber schon 33% über der 1070TI welche ja auch nicht nur an der Bandbreite hängt. Geht man von einer Gesamtperformance von ca + 50% auf die 1070Ti aus braucht es dann nicht mehr viel Optimierung.

robbitop
2018-01-03, 17:37:18
Je nach Spiel tut sie es aber. Interessant ist wieviel GFLOPs/GB/s im NV Portfolio vergeben sind. Das ist je nach Produkt total unterschiedlich:

GTX1060 6GB: 22,8 (die 8GT/s Version) -> hat die wenigste Rechenleistung pro Bandbreite. Kein Bottleneck in der Bandbreite.
GTX1070: 25,2
GTX1070ti: 32! -> größte Rechenleistung pro Bandbreite. Je nach Spiel im Bandbreitenbottleneck.
GTX1080: 27,7
GTX1080ti: 23,4

Eine GTX2080@336GB/s läge bei 33,8. Ich tippe darauf, dass die erhöhte Anzahl an SMs dann nicht voll durchschlägt ggü der 1080.


Zum Vergleich:
RX580: 24,1 -> soweit ich weiß im Bandbreitenbottleneck
Vega 64: 27,6 -> soweit ich weiß gut ausbalanciert -> V10 ist also effizienter in Bezug auf Bandbreite als P10/20.

Die Zahlen sind aber mit den Zahlen von AMD nicht vergleichbar, da die NVs ein Stück mehr Leistung pro GFLOPs erzeugen. AMD braucht sicherlich >30% mehr Bandbreite pro realer Leistung.


Ich habe den Quotient aus Rechenleistung / Bandbreite genommen. Die Werte jeweils aus der Datenbank zu den Referenzmodellen bei Techpowerup.

Timbaloo
2018-01-03, 18:31:54
Zu knapp darf die Bandbreite nicht ausgelegt sein, sonst bringt OC kaum noch was. Also 192Bit halte ich für unwahrscheinlich.

crux2005
2018-01-03, 18:41:01
Wenn man weiter an der effizienz gearbeitet hat wäre das vermutlich kein Problem:

Speicherbandbreite:
680 = 192
780 = 288
980 = 224
1080 = 320
*2080 = 336

192 Bit Si für die 2080 könnte also passen.

Worüber wird hier bitte Diskutiert? :freak:

Die Bandbreite der "GTX 2080" geht eher in Richtung >500 GB/s.
Das ist ganz einfach mit einem 384bit SI machbar. Zum Vergleich. Die Maxwell Titan hatte 336.5 GB/s, die GTX 1080 hat 320 GB/s. Preisfrage, wie viel Bandbreite hat die Titan Xp? :P

Troyan
2018-01-03, 19:15:09
GDDR6 steigt bei 14gbps ein. Das sind 40% mehr als bei der normalen GTX1080. Wir werden mindesten rund 450GB/s beim Nachfolger sehen.

tm0975
2018-01-03, 19:19:59
1. Was hätten wir davon, wenn NVIDIA neue Chips noch 12 Monate zurück hält? Noch weniger. Wenn NVIDIA es als einziger schafft, vernünftige GPUs zu entwickeln, dann will ich die lieber jetzt haben, als morgen. Freuen wir uns doch, dass NVIDIA nicht die Intel Salamitaktik fährt.
2. Das war vor wenigen Monaten noch anders. Und es ist ja nicht so, als würde es AMD nicht probieren.

1. das ist schon ganz schön naiv. hast du ja bei intel gesehen, was passiert ist in den 5 jahren vor zen. und nvidia würde es auch nicht anders machen. ergo liefert nvidia nur, wenn sie müssen. daher sollte amd mal endlich aus den puschen kommen.
2. vor wenigen monaten waren es nur die customs...

AffenJack
2018-01-03, 19:40:40
GDDR6 steigt bei 14gbps ein. Das sind 40% mehr als bei der normalen GTX1080. Wir werden mindesten rund 450GB/s beim Nachfolger sehen.

GDDR6 beginnt bei 12gbps. Aber ansonsten gehe ich genauso von aus, dass wir 14gbps beim 1080 Nachfolger mit 256Bit sehen werden. 1070 Nachfolger passen dann die 12gbps gut dazu.

pixeljetstream
2018-01-03, 19:43:42
1. das ist schon ganz schön naiv. hast du ja bei intel gesehen, was passiert ist in den 5 jahren vor zen. und nvidia würde es auch nicht anders machen. ergo liefert nvidia nur, wenn sie müssen. daher sollte amd mal endlich aus den puschen kommen.
2. vor wenigen monaten waren es nur die customs...

Es gibt aber hier mehr dynamik, Intel hatte den cloud markt schon und hatte es verpennt was "neues aufzumachen". nvidia brauch eine gute cash cow für forschung und diversifizierung, das ist immer noch high performance graphics/gaming. Funktioniert imo aber nur wenn die Leute upgraden. Consumer CPU hat ja das problem dass die games ja meist nicht so mörder CPUs mehr brauchen, weniger upgrade druck. Die positive Lage rund um deep learning ist jetzt gerade gut, aber Intel/AMD/andere werden massiv kommen, da wo was zu holen ist. Zurückfallen wäre genau das was die "Gegner" stark macht. Imo klappt nur full steam ahead (inklusive Eisberggefahr), aber allzu starkes schwächeln und zögern könnten die analysten als "das war's nun mit dem vorsprung" auslegen, und dann nicht mehr glauben dass noch was kommt. Die Anzahl der Mitarbeiter hat sich in den letzten 10 Jahren verdoppelt... Die wollen ja was reißen, wenn man da Handbremse verordnet gehen die Leute und lösen die Probleme bei der Konkurrenz.