Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Hübie
2018-01-14, 17:11:55
Das ist ja auch richtig so. Nur weil man eine Feststellung abgibt, bedeutet dies nicht, dass da eine Wertung hinter steht. ;) Die Inflation kumulativ zu betrachten halte ich für wenig sinnvoll, da die Kosten damals anfielen und der Gewinn damals erwirtschaftet wurde. Daher entschied ich mich für die jährlich Basis. Die GF2 Ultra müsste heute 711$ kosten, aber iirc liegt die 1080 Ti kontinuierlich drüber.
Lehdro
2018-01-14, 17:32:49
Bei einer rein inhaltlichen Anmerkung muss man nun wirklich nicht sofort persönlich werden.
Aber echt. Da springt er gleich an wie ein V8. ;D
Vorallem noch mit "Durchfall" gleichzusetzen obwohl es durchaus valide Punkte bei der größeren Betrachtungsweise ergibt. Ich habe nur ne Anmerkung gemacht, zwecks "TITANS". Dass die Tabelle durch deine Einschränkung (schnellste SingleGPU mit neuer Arch) ziemlich einschränkend ist, da am realen Markt vorbei haben auch schon viele festgestellt. Dass du das ganze dann auf ein Jahr beschränkst, also Refreshes die innerhalb des selben Kalenderjahres zählst, aber nicht welche das eigentliche Releasekalenderjahr verlassen, obwohl der zeitliche Abstand untereinander gleich ist (meist weit unter 1 Jahr) setzt dem ganzen die Krone auf. Du tust so als wären nur Refreshes relevant die das Kalenderjahr NICHT verlassen, was aber kompletter Unsinn ist. Außerdem zählst du die FX 5900 Ultra, aber nicht die FX5950 Ultra, das macht so auch laut deiner Aussage keinen Sinn:
Ich habe mich dafür entschieden die maximal möglich erhältliche Gamer-Karte ins Portfolio aufzunehmen.
Wenn dir das alles egal ist ignoriere bitte diesen Post und den Spoiler, für den Rest, der vielleicht an einer Diskussion über die reale Preisentwicklung bei NV interessiert ist, gehts im Spoiler weiter, mitsamt korrigierter Tabelle:
Monat Jahr Chip Modell Segment Preis [USD] Anmerkung
4 2000 NV16 GF2 GTS Highend $349 Neue µArch
9 2000 NV16 GF2 Ultra Enthusiast $499 Refresh
2 2001 NV20 GF3 Enthusiast $499 Neue µArch
10 2001 NV20 GF3 Ti 500 Highend $349 Refresh
2 2002 NV25 GF4 Ti 4600 Highend $399 Neue µArch
2 2003 NV28 GF4 Ti 4800 Highend $399 Refresh
3 2003 NV30 GF FX 5800 Ultra Highend $399 Neue µArch
8 2003 NV35 GF FX 5950 Ultra Enthusiast $499 Refresh+Shrink
4 2004 NV40 GF 6800 Ultra Enthusiast $499 Neue µArch
6 2005 G70 GF 7800 GTX Highend $549 Neue µArch
11 2005 G70 GF 7800 GTX 512 Enthusiast $649 Refresh
3 2006 G71 GF 7900 GTX Highend $499 Refresh+Shrink
11 2006 G80 GF 8800 GTX Highend $599 Neue µArch
5 2007 G80 GF 8800 Ultra Enthusiast $830 Refresh
6 2008 GT200 GF GTX 280 Highend $649 Neue µArch
1 2009 GT200b GF GTX 285 Highend $400 Refresh+Shrink
3 2010 GF100 GF GTX 480 Highend $499 Neue µArch
9 2010 GF110 GF GTX 580 Highend $499 Refresh
3 2012 GK104 GF GTX 680 Highend $499 Neue µArch
5 2013 GK110 GF 780 Enthusiast $649 -
11 2013 GK110 GF 780 Ti Enthusiast $699 -
9 2014 GM104 GF 980 Highend $549 Neue µArch
6 2015 GM200 GF 980 Ti Enthusiast $649 -
5 2016 GP104 GF 1080 Highend $599 Neue µArch
3 2017 GP102 GF 1080 Ti Enthusiast $699 -
Die Tabelle sieht dann deutlich anders aus, wenn man sich nicht komplett unnötig einschränkt und einfach nur schaut was das jeweils schnellste von NV ist und nicht an Jahren festtackert, sondern an den realen Releasecyclen. Die einzigen Ausnahmen die ich hier mache sind:
- extrem seltene Auflagen zb "6800 Ultra Extreme Edition" von NV angekündigt, exclusiv und limitiert von eVGA verkauft
- TITAN Brands
- simple Speicherverdopplungen ohne große Taktratenänderungen (6800 Ultra 512, GTX 285 2GB, GTX 580 3 GB)
- ich nehme die reale MSRP, nicht den FE Preis
Platos
2018-01-14, 17:40:42
Das ist ja auch richtig so. Nur weil man eine Feststellung abgibt, bedeutet dies nicht, dass da eine Wertung hinter steht. ;) Die Inflation kumulativ zu betrachten halte ich für wenig sinnvoll, da die Kosten damals anfielen und der Gewinn damals erwirtschaftet wurde. Daher entschied ich mich für die jährlich Basis. Die GF2 Ultra müsste heute 711$ kosten, aber iirc liegt die 1080 Ti kontinuierlich drüber.
Dann vergleichst du aber den Preis quasi immer nur mit dem Vorjahr. D.H man kann dann nicht die GTX 780Ti mit der 1080 TI vergleichen. Man müsste zum Zeitpunkt vom Release bis jetzt hochrechnen.
Produktionskosten sind egal, es entscheidet nur der Preis der Grafikkarte. Man will ja nicht wissen, warum ist der Preis gesteigen oder ob die Steigerung gerechtfertigt ist, da Kosten höher sind, sondern nur um wie viel der Konsumentenpreis höher ist.
BlacKi
2018-01-14, 17:48:55
Man will ja nicht wissen, warum ist der Preis gesteigen oder ob die Steigerung gerechtfertigt ist, da Kosten höher sind, sondern nur um wie viel der Konsumentenpreis höher ist.
die ausgangsfrage war doch eigentlich, das nvidia seine produkte jedes jahr unverhältnismaßig teurer verkauft. das kann man mit straßenpreisen einfach nicht beantworten.
und wenn du nun zu einem ergebinis gekommen bist das die produkte wirklich massiv teurer geworden sind oder eben nicht, was willst du mit der feststellung dann anfangen?
da gibts eben nur eine sache was du machen kannst, entweder mehr geld ausgeben oder eben nicht.
Platos
2018-01-14, 17:50:02
@ ledro: Eigentlich wollten wir hier doch wissen, wie viel Leistung bekommt man (in DE) für Preis X an Datum Y. Also eigentlich sollten wir auch Strassenpreise in DE in Euro und die Inflation von DE nehmen und nicht Preise vom hersteller empfohlen.
die ausgangsfrage war doch eigentlich, das nvidia seine produkte jedes jahr unverhältnismaßig teurer verkauft. das kann man mit straßenpreisen einfach nicht beantworten.
und wenn du nun zu einem ergebinis gekommen bist das die produkte wirklich massiv teurer geworden sind oder eben nicht, was willst du mit der feststellung dann anfangen?
da gibts eben nur eine sache was du machen kannst, entweder mehr geld ausgeben oder eben nicht.
Ja, diese Frage kannst du nur sehr schwer beantworten. So eine Frage lässt sich nicht "schnell schnell" in nem Forum mit ein paar Inflationszahlen berechnen.
Mir erscheint es viel sinnvoller/interesannter zu fragen, wie viel Leistung man für Geldmenge x bekommt. Also das ist quasi eine indirekte Antwort darauf, ob wir hier wirklich eine massive teuerung erfahren. Weil wenn der Fortschritt gleich/ähnlich bleibt, ist es auch nicht wirklich eine Teuerung. Es ist nur eine verschiebung der Preisklassen.
Die Frage, die du jetzt erwähnst, die kann man fast nicht beantworten bzw. lässt sich das nicht mit einer simplen Inflationszahl berechnen. Vor allem haben wir hier null Einsicht in Produktionsverfahren ect. Und wenn man es ernsthaft berechnen will, dann braucht man auch klare Zahlen und keine Bauchgefühl-Schätzungen.
Lehdro
2018-01-14, 18:32:12
@ ledro: Eigentlich wollten wir hier doch wissen, wie viel Leistung bekommt man (in DE) für Preis X an Datum Y. Also eigentlich sollten wir auch Strassenpreise in DE in Euro und die Inflation von DE nehmen und nicht Preise vom hersteller empfohlen.
Da hast du vollkommen recht, da müsste man sich aber auf eine Grundlage zum einordnen der jeweiligen "richtigen" Preise einigen. Sprich von wann ich den Preis der jeweiligen Generation nehme. Manche Generationen hatten ja enorme Preisschwankungen innerhalb sehr kurzer Zeit (zb GTX 280). Das wird eher schwer, MSRP hingegen steht fest und ist zumindest direkt zum Launch auch real vorhanden gewesen.
pixeljetstream
2018-01-14, 18:40:28
Mir erscheint es viel sinnvoller/interesannter zu fragen, wie viel Leistung man für Geldmenge x bekommt.
Hab eine Grafik ergänzt bei https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11604424#post11604424
Platos
2018-01-14, 18:45:03
Da hast du vollkommen recht, da müsste man sich aber auf eine Grundlage zum einordnen der jeweiligen "richtigen" Preise einigen. Sprich von wann ich den Preis der jeweiligen Generation nehme. Manche Generationen hatten ja enorme Preisschwankungen innerhalb sehr kurzer Zeit (zb GTX 280). Das wird eher schwer, MSRP hingegen steht fest und ist zumindest direkt zum Launch auch real vorhanden gewesen.
Ja gut, das stimmt schon. Aber was willst du jetzt nehmen? Listenpreise in Euro in DE oder die Listenpreise in Dollar ?
Platos
2018-01-14, 18:53:49
@ Lehdro: Sind das in deiner Tabelle eigentlich Listenpreise bei Release? Also die GTX 1080 wurde z.B mal gesenkt. Welcher hast du genommen?
Hab eine Grafik ergänzt bei https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11604424#post11604424
Ja sowas meinte ich.
Allerdings gibt es ein paar Punkte die man beachten müsste.
- Es müsste Inflationsbereinigt sein
- Dann darf man auch keine Modelle vergleichen, die im Preis zu weit von einander entfernt sind. Also wenn nach Beachtung der Inflation die GTX 970 und GTX 1070 immer noch so weit auseinander sind, kann man das fast nicht vergleichen. Die GTX 1070 war zumindest in DE vom Listenpreis her näher an der GTX 980 als an der 970. Es war also von der Preisklasse her gesehen eigentlich der Nachfolger der GTX 980 und nicht der der 970.
Edit: Und natürlich die Perfomance. Was nimmt man da? Nimmst du da einfach die Rechenleistung in FLOPs? Weil das wäre vlt. auch nicht gaaanz so genau auf Gaming zu übertragen. Vor allem, wenn man noch verschieden grosse Speicher hat. Der Perfomance Index vom 3d Center reicht dafür nur bis zu GTX 600 zurück.
pixeljetstream
2018-01-14, 19:06:25
Die Inflation der letzten Jahre, war jetzt nicht so stark, es schiebt die Punkte nur ein bißchen nach rechts. Ich denke psychologisch wird man die 200$ für ne 7xx Karte mit der jetzigen Zeit gut vergleichen können. Imo muss man es nicht übertreiben, es geht ja nur grob um Trends.
Hübie
2018-01-14, 19:16:56
Dann vergleichst du aber den Preis quasi immer nur mit dem Vorjahr. D.H man kann dann nicht die GTX 780Ti mit der 1080 TI vergleichen. Man müsste zum Zeitpunkt vom Release bis jetzt hochrechnen.
Produktionskosten sind egal, es entscheidet nur der Preis der Grafikkarte. Man will ja nicht wissen, warum ist der Preis gesteigen oder ob die Steigerung gerechtfertigt ist, da Kosten höher sind, sondern nur um wie viel der Konsumentenpreis höher ist.
Richtig. Ich sage ja nicht, dass es die eine Sicht gibt, die ultimativ und richtig ist. Man kann es aus einer Vielzahl von Perspektiven betrachten und kommt oft zu verschiedenen Ergebnissen.
@Lehdro: Ja klar, ist das interessant. :smile: Ich will hier keineswegs den Eindruck erwecken, dass meine Tabelle die Referenz ist. Betrachtet man es allerdings aus diesen Standpunkt, stiegen die Preise überproportional. Betrachtet man es wiederum wie pixeljetstream, gibt es mehr "bang for the bucks". Ich habe mich trotz 740€ für eine GM200 entschieden, weil die Mehrleistung ggü. der 780 Ti bspw. ordentlich war.
Übrigens ist GK110 ebenfalls eine neue µArch, da der ganze compute Krams drin ist, den GK104 nicht hat (dynamic paralism, FP64 etc.). Wie du siehst ist es nicht einfach. Eine GF2 Ultra ist ebenfalls kein refresh sondern ein enthusiast product weils möglich war. :D
Platos
2018-01-14, 19:33:59
Die Inflation der letzten Jahre, war jetzt nicht so stark, es schiebt die Punkte nur ein bißchen nach rechts. Ich denke psychologisch wird man die 200$ für ne 7xx Karte mit der jetzigen Zeit gut vergleichen können.
https://de.statista.com/statistik/daten/studie/165718/umfrage/inflationsrate-in-den-usa/
Wenn die Zahlen stimmen, dann wäre die GTX 680 nicht 499 Dollar sondern 532 Dollar, wenn man sie mit den 599 Dollar der GTX 1080 vergleichen will. Der Preisunterschied wäre von der 680 auf die 1080 "nur" noch + 12.5% anstatt + 20.0%.
Wenn ich jetzt die Flops pro Dollar ausrechne: Dann ist der Ansteig von Flops/Dollar von der GTX 680 auf 1080 ohne Inflation 255.00% und mit 239.18%. Das ist dann doch nicht mehr nur ein bisschen. Edit: Korrigiert
Lehdro
2018-01-14, 20:01:54
Ja gut, das stimmt schon. Aber was willst du jetzt nehmen? Listenpreise in Euro in DE oder die Listenpreise in Dollar ?
MSRP in Dollar, weil es das immer als Referenz gibt.
@ Lehdro: Sind das in deiner Tabelle eigentlich Listenpreise bei Release? Also die GTX 1080 wurde z.B mal gesenkt. Welcher hast du genommen?
Den bei Release.
Edit: Und natürlich die Perfomance. Was nimmt man da?
Da du maximal direkt aufeinanderfolgende Generationen vergleichen kannst in realistischen Szenarien, d.h. bevor sie obsolet waren, würde ich den Vergleich zum Vorgänger in der Liste vorschlagen.
Sprich: Die GF 2 Ultra legt +xx% zur GTS drauf. Die GF3 legt +xx% zur GF 2 Ultra zu usw.
Richtig. Ich sage ja nicht, dass es die eine Sicht gibt, die ultimativ und richtig ist. Man kann es aus einer Vielzahl von Perspektiven betrachten und kommt oft zu verschiedenen Ergebnissen.
Und das ist alles richtig und wichtig um das alles einordnen zu können. Siehe auch die Gx104 Vergleich untereinander - die sind sehr interessant und die dicken Chips interessieren da auch nicht. Ebenso die "dicken" Chips nur untereinander.
@Lehdro: Ja klar, ist das interessant. :smile: Ich will hier keineswegs den Eindruck erwecken, dass meine Tabelle die Referenz ist. Betrachtet man es allerdings aus diesen Standpunkt, stiegen die Preise überproportional.
Ich glaube da können wir alle zustimmen.
Betrachtet man es wiederum wie pixeljetstream, gibt es mehr "bang for the bucks".
Das trifft vorallem auf die Mittelklasse zu, völlig richtig.
Übrigens ist GK110 ebenfalls eine neue µArch, da der ganze compute Krams drin ist, den GK104 nicht hat (dynamic paralism, FP64 etc.).
Das ist wahr, allerdings nicht in dem Maße wie eine wirklich neue µArch. Müsste man sich aber als Kennzeichnung was einfallen lassen, weil "nur größer" stimmt halt definitiv nicht, da hast du recht.
Eine GF2 Ultra ist ebenfalls kein refresh sondern ein enthusiast product weils möglich war. :D
Ein Refresh des Lineups ist sie aber sehr wohl, technisch hast du aber recht.
Wie du siehst ist es nicht einfach.
Ohja.
pixeljetstream
2018-01-14, 20:42:19
@Lehdro Guck Dir Mal den Link an
https://docs.google.com/spreadsheets/d/1_gMVYLI-dGmrwFvZRqqOs11HEam51pzFejOeKsNKoLw/edit?usp=sharing
Auch wenn das ganz nun sehr off topic ist...
Rampage 2
2018-01-15, 21:31:21
Es wird dafür wieder genauso Käufer geben. Bei Pascal hat sich die Allgemeinheit wegen der Preise auch aufgeregt und trotzdem wurden die teuren Karten gut verkauft. Der Preis ist da wohl weniger entscheidend.
Ja, aber je höher der Preis, desto geringer die Zahl potentieller Käufer - resultierend in entsprechend geringen Verkaufszahlen. Ich meine jetzt nicht zukünftige Käufer, die monatelang sparen werden/müssen, um sich eine 650+ € Karte zu kaufen. Ich spreche von den monatlichen Verkaufszahlen im Hier-und-Jetzt. Wenn 80-90% der potentiellen Käufer monatelang sparen muss, um das Geld für diese Preisklasse aufzubringen, dann werden die monatlichen Verkaufszahlen miserabel sein - zumindest für die ersten 2-3 Monate.
Das stimmt doch bei weitem nicht. Du verallgemeinerst viel zu sehr ("Man" und "*alle*"). Dann müssten laut Steam-HW Survey viel mehr Spieler Highend-Karten haben (siehe Post von pixeljetstream). Schließlich braucht man für einige Spiele in 1080p heute schon eine Karte der Klasse 1080 aufwärts um in FullHD mit max. Details (was auch AA auf Anschlag bedeutet) alles flüssig spielen zu können (ARK, Middle-Earth 2). Aber wir wollen hier keine Diskussion über "flüssig" anstoßen...
Ich hatte zumindest immer das Gefühl gehabt, dass allerspätestens seit G80 kaum noch ein Spiel mit reduzierten Details gespielt werden musste - natürlich auch hier Ausnahmen inbegriffen. Eine Mittelklasse-GPU war oft ausreichend. Die 9600 GT war die erste Mittelklasse-GPU mit 256Bit Speicherinterface und hatte auch sonst eine enorme Rohleistung für ihre Leistungsklasse.
1.) Ausnahmen mit Extremanforderungen wird es immer geben - die zählen nicht dazu;)
2.) Nein, AA & AF zählen nicht zu "max. Details". Mit "max. Settings" spreche ich von Effektqualität (+ Texturqualität und Detailreichtum). AA & AF steigern die Bildqualität;)
Wobei man AF ruhig doch dazuzählen kann - da es heutzutage kaum noch Leistung kostet und die Texturqualität steigert. Ich kann mir kein Spiel mehr ohne AF vorstellen:freak:
Ich kann Crysis 1 durchaus auch mit meiner vollen Custom-Config spielen, wenn ich kein AA dazuschalte - AA kann für die Framerates Welten ausmachen.
Auch bei Ampere werden sich viele (wenn nicht die meisten) wieder die Karten zwischen 200-300€ kaufen und damit wirst Du bestimmt nicht auf die Leistung einer 1080 kommen.
My 2 cents...
Die 2060 könnte durchaus nah an die 1080 herankommen - und wenn das eintritt, dann wird 1440p Mainstream-tauglich.
sry, was für ein BS. einfach ohne grund oft einfach mal 30% der fps in den sand setzen für nix? ich mit der 1080ti spiele anspruchsvolle spiele nie mit allem auf ultra.
Was heißt "für nix" ?
R2
BlacKi
2018-01-15, 22:07:09
Was heißt "für nix" ?
R2
wenn ultra details nicht besser aussehen als hoch oder mittel und dabei nur leistung kosten.
Hübie
2018-01-15, 22:48:09
2.) Nein, AA & AF zählen nicht zu "max. Details". Mit "max. Settings" spreche ich von Effektqualität (+ Texturqualität und Detailreichtum). AA & AF steigern die Bildqualität;)
Wobei man AF ruhig doch dazuzählen kann - da es heutzutage kaum noch Leistung kostet und die Texturqualität steigert. Ich kann mir kein Spiel mehr ohne AF vorstellen:freak:R2
Du kannst doch in einer Diskussion nicht klar deklarierte Wortbedeutungen verändern und erwarten andere sehen es genau so. Wenn man von maximalen Details spricht inkludiert das alles. Maximal ist nicht steigerungsfähig. Wenn du im Kopf daraus maximale Effektqualität machst und für maximale Bildqualität keinen Sammelbegriff mehr hast, dann schreibe das besser so hin. Details sind per se ein Teil des Ganzen und da wird nicht unterschieden, weil Effekte Teil des Bildes und somit der Bildqualität sind. Bitte überdenke da mal deine Definition. ;)
ShinyMcShine
2018-01-15, 23:11:46
Ja, aber je höher der Preis, desto geringer die Zahl potentieller Käufer - resultierend in entsprechend geringen Verkaufszahlen. Ich meine jetzt nicht zukünftige Käufer, die monatelang sparen werden/müssen, um sich eine 650+ € Karte zu kaufen. Ich spreche von den monatlichen Verkaufszahlen im Hier-und-Jetzt. Wenn 80-90% der potentiellen Käufer monatelang sparen muss, um das Geld für diese Preisklasse aufzubringen, dann werden die monatlichen Verkaufszahlen miserabel sein - zumindest für die ersten 2-3 Monate.
R2
NVIDIA wird schon ganz genau wissen, wie viel die für Ihre Produkte verlangen können, meinst Du nicht? Bestimmt besser als wir...
Außerdem: Ja, je höher der Preis, desto geringer die Zahl der Käufer, aber die Einnahmen pro Käufer sind höher! Auch hierfür wird NVIDIA Zahlen haben.
1.) Ausnahmen mit Extremanforderungen wird es immer geben - die zählen nicht dazu;)
2.) Nein, AA & AF zählen nicht zu "max. Details". Mit "max. Settings" spreche ich von Effektqualität (+ Texturqualität und Detailreichtum). AA & AF steigern die Bildqualität;)
R2
Sorry, aber Punkt 1 lass' ich nicht gelten! Warum? Weil Du in dem entsprechenden vorigen Post gesagt hast "Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann".
Und zu Punkt 2 sage ich mal, dass wohl die wenigsten volle Details wollen aber flimmerige Kanten. Da werden wohl eher die meisten auf ein Paar Effekt-Details verzichten und AA einschalten, vor allem bei 1080p!
Die 2060 könnte durchaus nah an die 1080 herankommen - und wenn das eintritt, dann wird 1440p Mainstream-tauglich.
R2
Das wird eben mMn nicht passieren. Erstens muss die 2060 nahe an die 1080 kommen, das ist ein sehr großes Fragezeichen, und zweitens ist die 1080 bei Weitem keine 1440p-Sorglos-Karte und dementsprechend wird auch die 2060 wohl keine werden. Zumal um 1440p Mainstream zu machen auch noch entsprechende Monitore dazu gehören...
VG
Shiny
Rampage 2
2018-01-15, 23:23:52
Sorry, aber Punkt 1 lass' ich nicht gelten! Warum? Weil Du in dem entsprechenden vorigen Post gesagt hast "Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann".
Okay, Korrektur: mit "alle" meine ich 99% der Spiele:wink:
Und zu Punkt 2 sage ich mal, dass wohl die wenigsten volle Details wollen aber flimmerige Kanten. Da werden wohl eher die meisten auf ein Paar Effekt-Details verzichten und AA einschalten, vor allem bei 1080p!
Das könnte stimmen - aber dennoch gehöre ich zu Jenen, denen volle Effektqualität wichtiger ist als Flimmern;)
...und zweitens ist die 1080 bei Weitem keine 1440p-Sorglos-Karte und dementsprechend wird auch die 2060 wohl keine werden...
Nicht!? :eek:
Bei 1440p denke ich automatisch an die 1070 - ich habe 1080 als Maßstab angegeben, um mich abzusichern...
R2
basix
2018-01-16, 08:23:59
Also eine 1080 ist definitiv eine 1440p Karte. 1070 / 980 Ti sind wunderbar in 1440p. Nicht jedes Spiel schafft durchgängig 60fps aber es ist alles flüssig (gut ich habe G-Sync, macht gefühlt sicher was aus bei <60fps). Mit der 1080 sollte man die 60fps in den allermeisten Fällen halten können, bei vielen Spielen ist man auch gut darüber. Es ist eher so, dass die 1080 Ti knapp dran ist bei 4k anstatt die 1080 bei 1440p ;)
Dural
2018-01-16, 11:16:08
Interessant das alle meinen das Ampere teurer wird, ich wäre mir da gar nicht so sicher ;)
Hübie
2018-01-16, 13:30:38
Besser vom schlechtesten ausgehen und dann positiv überrascht werden, als umgekehrt. Wirtschaftspsychologie. ;)
robbitop
2018-01-16, 13:47:18
Und Details zurücksetzen geht ja mal gar nicht - das ist ein Relikt, das in den frühen 2000er Jahren sein Ende fand:freak:
Man kauft sich eine GPU mit der man *alle* Spiele der nächsten 1-2 Jahre mit vollen Details spielen kann;)
R2
Ironie? Es gibt in vielen Spielen viele Detailsettings, dessen Vorteil man im Blindtest nicht erkennt und die in Summe aber z.T. beachtliche FPS Steigerungen bringen. Nvidia.com hat fast zu jedem AAA Titel ein Optimisation Guide.
Damit kann man entweder Geld sparen, oder höhere Bewegtschärfe (high refresh rate Monitore) genießen oder eine Auflösung höher gehen oder Anti-Aliasing nutzen (oder gar downsampling).
Bildqualität pro Performance geht auf jeden Fall so deutlich besser. Einfach nur blind alle Regler nach rechts ist nicht besonders effizient. ;)
Die Leistung steigt jedenfalls klar schneller als die Anforderungen. Man schaue sich die "Standardauflösung" über den Verlauf der letzten 1-2 Dekaden an.
Die GP106/P10 haben genug Leistung für 1080p60 in nahezu allen Spielen. Mit obigen Tweaks gehen häufig (aber nicht immer) auch 1440p60. Dank VRR kann man auch dynamische Einbrüche/Schwankungen akzeptieren. Das macht auch nochmal die Ausnutzung der Leistung besser.
zweitens ist die 1080 bei Weitem keine 1440p-Sorglos-Karte
Wie ist "Sorgloskarte" definiert? IMO ist selbst die 1070 für 99% aller Spiele ausreichend um 1440p60 zu schaffen. Es sei denn, dass mal irgendein AA Verfahren besonders überteuert ist oder ein Einzelspiel nicht besonders effizient mit den Ressourcen umgeht.
Bei AA fällt mir MSAA ein, was bei DR Engines nur relativ mittelmäßig wirkt und extrem teuer ist. Hier ist ein gutes TAA oft die bessere Wahl. Oder Oversampling (=Supersampling).
Blediator16
2018-01-16, 14:55:23
Interessant das alle meinen das Ampere teurer wird, ich wäre mir da gar nicht so sicher ;)
Das werden dann die Miner mitentscheiden können :freak:
BlacKi
2018-01-16, 15:02:38
Das werden dann die Miner mitentscheiden können :freak:
ich glaube nicht, das sie etwas an der UVP ändern können. lediglich die verfügbarkeit.
JaniC
2018-01-16, 15:39:23
Wenn man mit "sorglos" 60fps meint, dann ist die 1080 sicher dabei. Aber einige haben halt schon mehr als 60hz und da wird es dann oft eng, die meisten "AAA" Titel (Prey, Tomb Raider, Wildlands, Division, BF, Witcher 3, Deus Ex...) laufen dann halt "nur" mit 80-100fps und man hätte dann vielleicht schon gerne 144fps oder mehr.
Ich als 1440p 144hz User warte auf jeden Fall gespannt auf die neue Generation und bin froh, dann endlich umsteigen zu können.
Preise werden dank Mining natürlich happig werden, das suckt irgendwie.
BlacKi
2018-01-16, 15:45:51
Ich als 1440p 144hz User warte auf jeden Fall gespannt auf die neue Generation und bin froh, dann endlich umsteigen zu können.
Preise werden dank Mining natürlich happig werden, das suckt irgendwie.
absolut, bei 1440p sehe ich auch nur eine 1080ti aufwärts für max 1 jahr akzeptabel. zum glück wird die 2080ti 2019 zur rechten zeit erscheinen.
was mining angeht, bin ich gespannt wie es die tage/wochen weiter geht. seit einigen stunden gehts ganz schön bergab.
Blediator16
2018-01-16, 16:16:09
ich glaube nicht, das sie etwas an der UVP ändern können. lediglich die verfügbarkeit.
Am Ende zählt sowieso nur der Marktpreis.
robbitop
2018-01-16, 17:41:21
@Blacki/JaniC
Die Frage ist, ob man abseits von kompetativem Multiplayer im Blindtest den Unterschied zwischen 144fps und 90...100fps (jeweils auf einem 144Hz VRR Monitor) auch sieht und davon profitiert.
In schnellen Multiplayerspielen - insbesondere kompetativ - gehe ich da mit. Aber bspw bei Witcher 3 sehe ich persönlich ab 80...90 fps kaum noch Vorteile.
BlacKi
2018-01-16, 17:56:06
definiere profitieren? einen unterschied fühlen tut man in jedem fall. gäbe es einen 1000hz monitor mit vrr würde man auch einen unterschied zwischen 300 und 1000fps spüren können. es gibt da kein limit.
JaniC
2018-01-16, 18:17:40
@robbi: Jo, bei Witcher gebe ich dir recht. Aber es dippt eben manchmal auch auf 60-70fps runter, und das merkt man dann schon deutlich.
Schön wäre, wenn man mit 2080 / 2080 Ti halt echt immer und überall über 100fps hat und vielleicht sogar Hairworks on all characters nutzen kann. Das wäre dann sorglos. ;)
robbitop
2018-01-16, 18:28:13
@blacki
Die Bewegtschärfe nimmt immer weiter zu und der Inputlag sinkt. Aber das Gesetz des sinkenden Grenzertrags schlägt schnell zu. Ab einem gewissen Punkt nimmt der Mehrwert deutlich ab IMO. Gerade bei Singleplayer Games.
Ich persönlich finde effiziente Betriebspunkte immer gut. :)
@robbi: Jo, bei Witcher gebe ich dir recht. Aber es dippt eben manchmal auch auf 60-70fps runter, und das merkt man dann schon deutlich.
Schön wäre, wenn man mit 2080 / 2080 Ti halt echt immer und überall über 100fps hat und vielleicht sogar Hairworks on all characters nutzen kann. Das wäre dann sorglos. ;)
Gerade Hairworks ist ein Feature was bei W3 IMO deutlich zu viel Leistung für das Gebotene kostet. :)
Abschalten und zack hat man mehr fps - könnte eine andere Auflösung fahren oder mit einer günstigeren GPU zocken (bei minimalem BQ Verlust IMO)...
ShinyMcShine
2018-01-16, 18:45:05
Also eine 1080 ist definitiv eine 1440p Karte. 1070 / 980 Ti sind wunderbar in 1440p. Nicht jedes Spiel schafft durchgängig 60fps aber es ist alles flüssig (gut ich habe G-Sync, macht gefühlt sicher was aus bei <60fps). Mit der 1080 sollte man die 60fps in den allermeisten Fällen halten können, bei vielen Spielen ist man auch gut darüber. Es ist eher so, dass die 1080 Ti knapp dran ist bei 4k anstatt die 1080 bei 1440p ;)
Wenn ich mir Spiele wie AC: O, das neue Middle-Earth, Anno 2205, DX:MK oder sogar Witcher 3 anschaue, dann ist eine 1080 meist nur so knapp über 60fps bei den durchschnittlichen fps unter 1440p, manchmal sogar drunter. Das 99th Percentile liegt laut CB sogar klar unter 60 fps bei z.B. AC: O und ME2. Und nicht jeder hat G-Sync. Das ist dann für mich kein problemloses Betreiben von 1440p.
Wie ist "Sorgloskarte" definiert? IMO ist selbst die 1070 für 99% aller Spiele ausreichend um 1440p60 zu schaffen. Es sei denn, dass mal irgendein AA Verfahren besonders überteuert ist oder ein Einzelspiel nicht besonders effizient mit den Ressourcen umgeht.
Bei AA fällt mir MSAA ein, was bei DR Engines nur relativ mittelmäßig wirkt und extrem teuer ist. Hier ist ein gutes TAA oft die bessere Wahl. Oder Oversampling (=Supersampling).
Auch hier schaue ich mir die Benchmarks bei CB an und dann hat eine 1070 halt doch keine 60 fps bei z.B. AC: O und ME2. Es ist halt Ansichtssache, klar. Und deswegen ist eine 1070 für mich keine gute Wahl für 1440p und eine 1080 nur mit Kompromissen bei den Grafikeinstellungen.
VG
Shiny
JaniC
2018-01-16, 19:02:31
Gerade Hairworks ist ein Feature was bei W3 IMO deutlich zu viel Leistung für das Gebotene kostet. :)
Abschalten und zack hat man mehr fps - könnte eine andere Auflösung fahren oder mit einer günstigeren GPU zocken (bei minimalem BQ Verlust IMO)...
Jo, aktuell mit GTX1080 habe ich es auch aus, klar. Ist es nicht wert. Ist dann aber schonmal nicht mehr sorglos, egal wie gut das Feature nun "optimiert" ist oder nicht.
Stimme Shiny da voll zu.
gravitationsfeld
2018-01-16, 19:07:36
definiere profitieren? einen unterschied fühlen tut man in jedem fall. gäbe es einen 1000hz monitor mit vrr würde man auch einen unterschied zwischen 300 und 1000fps spüren können. es gibt da kein limit.
Die Aussage halte ich fuer fragwuerdig. Und doch, es gibt definitiv ein Limit.
Hübie
2018-01-16, 21:11:02
Man kann die Leute mal in Blindtests schicken. ;D Die Ergebnisse wären sicher spannend.
=Floi=
2018-01-16, 22:06:31
Die Aussage halte ich fuer fragwuerdig. Und doch, es gibt definitiv ein Limit.
liegt oft auch an triple buffering und solchen spässen.
Bin gespannt, ob es abseits der leistung auch brauchbare neuerungen gibt. Ich habe zwar keine großen hoffnungen, aber eventuell ist etwas dabei.
Timbaloo
2018-01-16, 22:58:40
Bin gespannt, ob es abseits der leistung auch brauchbare neuerungen gibt. Ich habe zwar keine großen hoffnungen, aber eventuell ist etwas dabei.
Was war denn die letzte Innovation (welche nicht direkt oder indirekt auch wieder nur an Leistung/Effizienz gedreht hat)? G-Sync/Freesync? Mit echten Innovationen ist doch schon lange nichts mehr los in der Branche... Weder GPU noch CPU...
BlacKi
2018-01-16, 23:16:17
ist es noch zu früh um auf Displayport 1.5 zu hoffen?
Palpatin
2018-01-16, 23:25:32
Was war denn die letzte Innovation (welche nicht direkt oder indirekt auch wieder nur an Leistung/Effizienz gedreht hat)? G-Sync/Freesync? Mit echten Innovationen ist doch schon lange nichts mehr los in der Branche... Weder GPU noch CPU...
HDR war das letzte große Ding, als kleineres aber recht cooles Feature wär noch ANSEL zu nennen.
Platos
2018-01-16, 23:25:43
liegt oft auch an triple buffering und solchen spässen.
Man müsste mal mit einer 10'000 FPS Kamera einen 144Hz Monitor aufnehmen (mit 144FPS natürlich). Man würde bestimmt sehen, dass es keine sauberen 144 FPS sind.
@Blacki: So wie ich das verstanden habe, ist eine Veröffentlichung in 18 Monaten geplant. D.h die Spezifikationen. Also in der nächsten GPU-Gen vlt.
=Floi=
2018-01-16, 23:27:03
Für mich ganz klar Downsampling!
Über den treiber realisiert funktioniert es auch bei den problemfällen. (GTA4 )
Gsync an sich ist schon gut umgesetzt. Knackpunkt ist hier der kostenfaktor und die eigene elektronik. Ein eigener software stack für die monitorhersteller wäre hier besser geeignet.
Eine einsicht in den echten verbrauch des chips und keine angabe der prozentzahlen würde ich mir wünschen. Einen betriebsstundenzähler und eine errechnete verbrauchsmesseung der kwh.
Das 16xAF frist noch immer gut performance.
Einen erheblich überarbeiteten Multimonitor betrieb. Das glaube ich, ist bis heute nicht gefixt.
HDMI IN
Bessere lüfter/kühler für die FE/Titan. Wasserkühlung.
USB3 anschluss auf der karte.
Nicht NV marketing bullshit, sondern wirklich brauchbare sachen in der praxis.
Was ich nicht möchte wäre eine handy app und noch mehr RGB-Leds.
gravitationsfeld
2018-01-16, 23:27:17
Warum sollten es keine sauberen 144Hz sein?
Platos
2018-01-16, 23:58:27
Warum sollten es keine sauberen 144Hz sein?
Also ich wollte damit sagen, wenn 144Hz angezeigt wird (selbst bei Gsync) wird es bei den meisten trotzdem ab und zu zu Einbrüchenkommen, die dann eben Sichtbar sind und man deshalb vlt. denkt, es läge an der (immer noch) zu niedrigen Framerate.
Aber dennoch, ich würde gerne mal ein 144Hz Monitor beim gaming mit einer 10'000FPS kamera sehen (und 60Hz auch gleich).
Rampage 2
2018-01-17, 00:21:25
Ist 10nm für Ampere mittlerweile 100% ausgeschlossen?
R2
dildo4u
2018-01-17, 00:29:27
TSMC geht von 12 auf 7nm.
Digidi
2018-01-17, 01:25:35
Ampere Kommt in 12nm. Tsmc wird erst Mitte bis Ende des Jahres mit 7nm fertig sein. Man kann hoffen das 7nm nicht auch so Probleme macht wie 14nm....
Hinzu kommt das einige großen wie Qualcomm hi Tsmc gewechselt sind die auch 7nm Chips benötigen. Da sieht es für große Dies erst Mal schlecht aus.
aufkrawall
2018-01-17, 01:56:17
Blurbusters haben Kram wie 144Hz schon intensiv geprüft, bitte keine komischen Stories erfinden.
Platos
2018-01-17, 02:12:57
Hast du denn einen Link dazu?
basix
2018-01-18, 11:19:15
Samsung hat 18 Gbps GDDR6 in Massenproduktion:
https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/
Könnte Nvidia nun die SI-Breite bei Ampere reduzieren?
Hätte mehrere Vorteile: Abgrenzung gegen Pascal und Ampere-Nachfolger was Speicherbandbreite als auch Speichermenge anbelangt.
192 bit @ 16 Gbit/s = +20% Bandbreite verglichen zur GTX 1080
288 bit @ 18 Gbit/s = +22% Bandbreite verglichen zur GTX 1080 Ti
192 bit @ 2 GByte / Modul = 12 GByte
288 bit @ 2 GByte / Modul = 18 Gbyte
Kombiniert mit einer besseren Bandbreitennutzung verglichen zu Pascal liegen trotzdem +1/3 Leistung drin gegenüber den entsprechenden Pascal Derivaten.
Das reduzierte SI lässt nochmals jeweils ca. +1/3 Luft nach oben für die 7nm Chips, welche dann vielleicht nochmal +50% drauf legen. Würde für mich Sinn machen.
Der_Korken
2018-01-18, 11:30:51
GTX1080:
10Gbps, 256bit SI => 320GB/s (100%)
GTX1080Ti:
11Gbps, 352bit SI => 484GB/s (151%)
GA104:
14Gbps, 256bit SI => 448GB/s (140%), 8/16GB VRAM
16Gbps, 256bit SI => 512GB/s (160%), 8/16GB VRAM
16Gbps, 192bit SI => 384GB/s (120%), 12GB VRAM
18Gbps, 192bit SI => 432GB/s (135%), 12GB VRAM
Von der Bandbreite her wäre Alternative 1 für mich die logischste, bloß die 16GB VRAM könnte preislich ziemlich reinhauen und 8GB wird wieder zu knapp. Alternativen 3 und 4 würden von den 12GB her gut passen, aber 3 ist imho zu langsam, wenn man die 1080Ti überholen will. Die 4 könnte reichen, aber es setzt voraus, dass 18Gbps-Chips von Anfang an verfügbar sind. Das stell ich mir schwer vor, da GDDR3 und GDDR5 auch nur mit langsameren Chips eingestiegen sind und erst über die Jahre die volle Bandbreite verfügbar war.
Edgecrusher86
2018-01-18, 12:06:16
Nicht schlecht, dass Samsung schon jetzt bis zu 18 Gbps sowie 16Gb produzieren kann. Hatte man zuvor Ersteres wohl erst deutlich später (nicht 2018) und Letzteres nicht vor H2 erwartet.
Ja, das bietet deutlich mehr Möglichkeiten.
Im Prinzip reicht maximal 14 Gbps für dieses Jahr aus bei maximal 40% mehr SPs pro Kategorie gegenüber Pascal. Ich denke, dass mehr als 448 GB/s kaum zu erwarten sind für eine GTX 2080. Wie gesagt, mit Ausnahme der GTX 680 war die Speicherbandbreite eines 104er-Chips immer geringer als Highend der vorherigen Generation. Eventuell bringt man 2019 noch Modelle mit zum Beispiel 2 Gbps mehr heraus, als erstes sicherlich bei der Vollausbau-TITAN, dann definitiv auch schnelleren VRAM bei einer Ti mit maximal 352-bit und evtl. etwas später auch für Karten analog zur GTX 1080 11 Gbps von damals.
Kurzfristig wird man bestimmt nichts mehr ändern können. GA104 dürfte ja bald schon in Massenproduktion gehen und die TITAN evtl. drei Monate danach. Der GA106 könnte zeitlich auch grob in Q3 erscheinen.
Zumindest bei der GTX 2070 würde es mich nicht wundern, wenn sie auch bei maximal 14 Gbps ein geringeres SI und damit auch weniger VRAM als eine GTX 2080 hätte - zum Beispiel 192-bit @ 14 Gbps (336 GB/s, +31%) mit 12GB VRAM.
Setzt sich von der alten Generation ab, aber bewahrt auch noch einen ordentlichen Abstand zur 80er, die kurzfristig wieder "The new King" sein dürfte. Preislich vermutlich $649-699, also grob bei den 819€ MSRP der 1080 Ti liegend.
Da könnte man sicherlich auch 16GB verbauen, damit auch ein paar GP102 Besitzer schon einmal zuschlagen. Ein Stillstand bei 8GB für GA104 macht eigentlich keinen Sinn, wenn man im Falle der 80er GP102 etwas schlagen möchte und die Ampere-Generation vermutlich bis 2020 auf dem Markt bleiben dürfte. ;)
10GB wäre das absolute Minimum (also quasi TESLA K20 x2), aber an ein 320-bit SI mag ich nicht so recht glauben und 160-bit @ 18 Gbps (360 GB/s) auch nicht. Das wäre maximal für eine 70er Karte ok, aber nicht für ein Modell, dass auch eine Xp ein wenig schlagen sollte.
Mit 192-bit sähe das natürlich schon besser aus, aber da müsste man beim Spitzenmodell gleich in die Vollen (18 Gbps) gehen, wie der Korken schon ausgeführt hat - recht unwahrscheinlich. Bliebe ja auch noch z.B. 224-bit und 14GB über (224-bit @ 16 Gbps ~ 448 GB/s...@ 14 Gbps ~ 392 GB/s...@ 12 Gbps ~ 336 GB/s) . :)
Da TSMC ja bis 815mm² gehen kann, dürfte es kein Problem sein, wenn man sich bei der DIE-Size an Maxwell 2.0 orientiert oder zumindest bei Enthusiast auch etwas übertreffen würde.
Hübie
2018-01-18, 12:50:49
Man sollte nicht immer auf den Leim gehen und zu kleine Interfaces veranschlagen, da I/O ja nicht über die volle Busbreite statt findet (z.B. Texture up- & downloads, welche ja sicherlich 70-80% des workloads am MC ausmachen). Wenn der Bus zu schmal ist verliert man Parallelität und es kommt zum Stau (Queue). Die Relation zu den SMs muss stimmen.
Daher gehe ich davon aus, dass man 256 Bit als Vollausbau hat und daran 14-16 Gbps I/O-speed Chips. Die 18 Gbps könnten ein Hinweis auf die ganz großen Chips sein (GP102-Nachfolger). Wobei man hier selbst in späten Phasen noch andere Chips verbauen kann, da Samsung & Co so eine Entwicklung nie alleine machen. Validiert wird immer am Produkt (Samsung SoC?) und den passenden IMC gibt es folglich schon länger. Iirc gehen dieses Jahr alle Großen mit G6 an den Start...
AffenJack
2018-01-18, 13:19:30
Ich würde 18 Gbps jetzt nicht überinterpretieren und nicht davon ausgehen, dass dieser genutzt wird. Bei GDDR5 damals wurde 9 Gbps auch schon ewig als in Produktion angekündigt und trotzdem bis vor kurzem nicht eingesetzt. Ich glaube nicht, dass wir 18 Gbps irgendwo sehen werden dieses Jahr. Maximal ne Titan kann ich mir mit 18 Gbps vorstellen. Alles normale dürfte 16-14 Gbps haben. Ne 2080 mit 14 Gbps hat schon 40% mehr Bandbreite als die normale 1080 und das dürfte ausreichend sein. Den Rest Luft von GDDR6 lässt man sich eher für die 7nm Gen übrig.
Hübie
2018-01-18, 13:23:56
Micron hatte Ende '16 schon 16 Gbps, nur schien der Prozess noch nicht optimal gewesen zu sein um genügend abzuwerfen... Schwer zu beurteilen was da nun kommt.
robbitop
2018-01-18, 13:25:38
Man sollte nicht immer auf den Leim gehen und zu kleine Interfaces veranschlagen, da I/O ja nicht über die volle Busbreite statt findet (z.B. Texture up- & downloads, welche ja sicherlich 70-80% des workloads am MC ausmachen). Wenn der Bus zu schmal ist verliert man Parallelität und es kommt zum Stau (Queue). Die Relation zu den SMs muss stimmen.
Daher gehe ich davon aus, dass man 256 Bit als Vollausbau hat und daran 14-16 Gbps I/O-speed Chips. Die 18 Gbps könnten ein Hinweis auf die ganz großen Chips sein (GP102-Nachfolger). Wobei man hier selbst in späten Phasen noch andere Chips verbauen kann, da Samsung & Co so eine Entwicklung nie alleine machen. Validiert wird immer am Produkt (Samsung SoC?) und den passenden IMC gibt es folglich schon länger. Iirc gehen dieses Jahr alle Großen mit G6 an den Start...
Dafür gibt es doch entsprechende Caches und Granularität der Speichercontroller (bei NV 32 bit pro Kanal) um den Verschnitt zu senken und möglichst viel zusammen zu fassen.
Im Endeffekt spielt die Rohbandbreite IMO die entscheidende Rolle. Man schaue mal, was NV bei GP107 aus 64 bit noch an Performance rausquetscht (in relation zur vorhandenen Rohleistung).
192bit für GA104 hätte natürlich den Charme, dass man den VRAM nicht gleich um Faktor 2 erhöhen müsste. Ggf. wird Ampere auch nochmal etwas an Bandbreiteneffizienz herausholen.
Die 1070ti zeigt ja, dass man gar nicht so viel Bandbreite pro normierter Performance braucht. Das andere "Extrem" @Pascal ist die 1060. Die hat deutlich mehr Bandbreite pro normierter Performance.
Bucklew
2018-01-18, 13:27:27
Ich schätze wie Hübie, dass wir bei GA104 wie bei GP104 ebenfalls ein 256bit SI sehen werden.
Dazu Optimierungen in der Kompression auf dem Bus und mehr/besseren Caches und 20% auf die 1080Ti sollten drin sein :)
Bitte nicht mehr als 8Gb bei der 2070. Das triebe den Preis leider nennenswert hoch.
Oder einfach zwei Vers. anbieten, dann wäre jeder glücklich.
Ich könnte mir die 2060 im 192SI vorstellen. Die könnte mir 8Gb dann zum PLV-Kracher werden.
Palpatin
2018-01-18, 15:03:11
Ich könnte mir die 2060 im 192SI vorstellen. Die könnte mir 8Gb dann zum PLV-Kracher werden.
192SI und 8GB wird es nicht geben. Das wären dann 12 oder 6 GB.
Hübie
2018-01-18, 15:04:29
Dafür gibt es doch entsprechende Caches und Granularität der Speichercontroller (bei NV 32 bit pro Kanal) um den Verschnitt zu senken und möglichst viel zusammen zu fassen.
Im Endeffekt spielt die Rohbandbreite IMO die entscheidende Rolle. Man schaue mal, was NV bei GP107 aus 64 bit noch an Performance rausquetscht (in relation zur vorhandenen Rohleistung).
192bit für GA104 hätte natürlich den Charme, dass man den VRAM nicht gleich um Faktor 2 erhöhen müsste. Ggf. wird Ampere auch nochmal etwas an Bandbreiteneffizienz herausholen.
Die 1070ti zeigt ja, dass man gar nicht so viel Bandbreite pro normierter Performance braucht. Das andere "Extrem" @Pascal ist die 1060. Die hat deutlich mehr Bandbreite pro normierter Performance.
Ohne Zweifel sind Caches sinnvoll, nur ist der Integrationsaufwand höher als bei MCs und am Ende muss man sich die Frage stellen ob das Weglassen zweier MCs a 32 Bit es erlaubt dafür einen SM plus größere Caches mehr zu verbauen. Am Ende muss die definierte Zielvorgabe erreicht werden und die heißt eben "+X% Perf/W = Preis Y" um es mal einfach auszudrücken. Du bist selber Ingenieur und kennst dich sicher mit R&D aus. Da so eine GPU aus vielen Modulen besteht, kann ich mir wie gesagt besser vorstellen, dass man eben 256 Bit integriert, anstatt hier herunter zu gehen und wo anders aufpumpen zu müssen. Hochtakt MCs verbrauchen wahrscheinlich noch mal mehr Fläche (ob signifikant weiß ich jedoch nicht), mehr SRAM-cells plus das OCN welches ja bei Caches komplexer sein dürfte als beim DRAM MC. Betrachten wir es historisch:
GK104: 256 Bit
GM204: 256 Bit
GP104: 256 Bit
GA104: 256 Bit (?)
Lehdro
2018-01-18, 15:21:41
Das andere "Extrem" @Pascal ist die 1060. Die hat deutlich mehr Bandbreite pro normierter Performance.
Und mit der 9Gbps (1060) / 11 Gbps (1080) Version jeweils nochmals mehr: Trotzdem bringt das durch die Bank nochmal rund 3 - 5% (https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/).
Es ist halt so das Pascal auch ohne besonders viel Bandbreite schon hohe Performance abliefert, aber trotzdem sehr gut damit nach oben skaliert. Spricht für eine ausgewogene Architektur.
Ich denke NV wird schon eher auf mehr anstatt weniger Bandbreite setzen und eher die zweithöchste Ausbaustufe @256Bit anstreben. Die ganz tollen Chips halten sie sich dann für die Topmodelle bereit: 2080 Ti und Titans.
basix
2018-01-18, 15:28:17
Nun es gibt mehrere Möglichkeiten:
Ampere mit gleichem SI wie heute und 14-16 Gbit/s. Ungünstig bezüglich Preise (GA104 mit 16GB ist teuer) oder Speicherausstattung (GA104 mit 8GB ist schade bezüglich zukünftigen Anforderungen). Dafür ist der Speichertakt recht handzahm.
Ampere mit schmalerem SI, dafür mehr Speichertakt. Gut bezüglich Speichermenge (GA104 mit 12GB ist eigentlich optimal). Dafür muss aber der Speichertakt sehr hoch gewählt werden und man ist auf 16 GBit Module fixiert.
Bei +30-50% Leistung pro GPU-Klasse wären bei gleichen SI-Breiten 14 Gbit/s für GA104 und 16 Gbit/s für GA102 eigentlich optimal. Wenn es nur +30% werden reicht überall 14 Gbit/s.
Schlussendlich wird der Preis pro Speichermenge und pro Speichertakt ausschlaggebend sein. Ob man hier alle Variablen kannte bei den entsprechenden Designentscheidungen kannte ist aber offen.
Folgendes würde meiner Meinung nach gut passen. Sehr gut ausbalancierte Speichermengen und Speicherbandbreiten. Umso teurer das Produkt, desto schneller und teurer der Speicher, was aber über den höheren Preis sowieso abgefangen wird. Überall etwas mehr Speicher aber nicht so viel, dass man bei der nächsten Generation keinen "Sprung" mehr anbieten kann ohne sehr tief in die Tasche zu greifen.
GA102 mit 288 bit SI @ 18 Gbit/s @ 18 GByte
GA104 mit 192 bit SI @ 16 Gbit/s @ 12 GByte
GA106 mit 128 bit SI @ 14 Gbit/s @ 8 GByte.
GA107 mit 96 bit SI @ 12 Gbit/s @ 6 GByte.
robbitop
2018-01-18, 15:29:36
Ohne Zweifel sind Caches sinnvoll, nur ist der Integrationsaufwand höher als bei MCs und am Ende muss man sich die Frage stellen ob das Weglassen zweier MCs a 32 Bit es erlaubt dafür einen SM plus größere Caches mehr zu verbauen. Am Ende muss die definierte Zielvorgabe erreicht werden und die heißt eben "+X% Perf/W = Preis Y" um es mal einfach auszudrücken. Du bist selber Ingenieur und kennst dich sicher mit R&D aus. Da so eine GPU aus vielen Modulen besteht, kann ich mir wie gesagt besser vorstellen, dass man eben 256 Bit integriert, anstatt hier herunter zu gehen und wo anders aufpumpen zu müssen. Hochtakt MCs verbrauchen wahrscheinlich noch mal mehr Fläche (ob signifikant weiß ich jedoch nicht), mehr SRAM-cells plus das OCN welches ja bei Caches komplexer sein dürfte als beim DRAM MC. Betrachten wir es historisch:
GK104: 256 Bit
GM204: 256 Bit
GP104: 256 Bit
GA104: 256 Bit (?)
Ich wollte damit nicht sagen, dass weitere Caches und höhere Granularität noch implementiert werden müssen. Das ist uralter kalter Kaffee.
robbitop
2018-01-18, 15:35:29
Und mit der 9Gbps (1060) / 11 Gbps (1080) Version jeweils nochmals mehr: Trotzdem bringt das durch die Bank nochmal rund 3 - 5% (https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/).
Es ist halt so das Pascal auch ohne besonders viel Bandbreite schon hohe Performance abliefert, aber trotzdem sehr gut damit nach oben skaliert. Spricht für eine ausgewogene Architektur.
Ich denke NV wird schon eher auf mehr anstatt weniger Bandbreite setzen und eher die zweithöchste Ausbaustufe @256Bit anstreben. Die ganz tollen Chips halten sie sich dann für die Topmodelle bereit: 2080 Ti und Titans.
Naja der von dir verlinkte Artikel sind 2 custom Modelle der gtx1060, die ziemlich hoch takten (GPU). Entsprechend ist ein höherer Speichertakt natürlich auch sinnvoll (ggü der Referenz Version).
3-4% Skalierung bei 12,5 % mehr Takt halte ich nicht für eine "sehr gute" Skalierung. GP106 ist ziemlich gesättigt. Ein kleines bisschen geht immer.
Pascal ist sehr effizient mit der Bandbreite. Die Balance hingegen hat nichts mit der mArch zu tun sondern, wie der IHV auf einem konkreten Produkt Bandbreite und Rohleistung ausbalanciert.
X-Bow
2018-01-18, 15:36:00
Ist mir was entgangen und es ist schon länger klar das Ampere nur Gaming-Volta ist und keine eigene Architektur oder warum schreibt CB hier https://www.computerbase.de/2018-01/samsung-gddr6-18gbps/ so selbstverständlich das Ampere die für Spiele optimierte Version von Volta ist?
Timbaloo
2018-01-18, 17:13:14
Die Frage ist was jeder für sich unter "optimiert" versteht. Pascal ist ja auch ein optimierter Maxwell...
Ich würde nicht zuviel in einen CB-Artikel zu einem Thema hineininterpretieren welcher nur am Rande mit Ampere zu tun hat.
Bucklew
2018-01-18, 17:35:15
Man kann sicherlich über die Definition diskutieren.
Volta hat massive Verbesserungen gegenüber Pascal, u.A. 50% bessere Perf/Watt für FP32-Berechnungen. Das wird sich garantiert so auch in Ampere zeigen.
Dass Ampere nur ein optimierter Volta für Gaming sein soll, ist IMHO völlig in Ordnung. Gegenüber Pascal ist das garantiert eine massive Verbesserung.
192SI und 8GB wird es nicht geben. Das wären dann 12 oder 6 GB.
Danke. Dann 192SI mit 6Gb und bei der 2070 das 256SI mit 8Gb.
Stillstand beim V-Ram? Ja, damit in 2019 quasi an allen Fronten eine Steigerung angeboten werden kann. NV bräuchte dieses Jahr eigentlich gar nicht liefern, also nur nicht die Latte zu hoch hängen. Hoffentlich!
Rampage 2
2018-01-18, 19:04:37
Nun es gibt mehrere Möglichkeiten:
Ampere mit gleichem SI wie heute und 14-16 Gbit/s. Ungünstig bezüglich Preise (GA104 mit 16GB ist teuer) oder Speicherausstattung (GA104 mit 8GB ist schade bezüglich zukünftigen Anforderungen). Dafür ist der Speichertakt recht handzahm.
Ampere mit schmalerem SI, dafür mehr Speichertakt. Gut bezüglich Speichermenge (GA104 mit 12GB ist eigentlich optimal). Dafür muss aber der Speichertakt sehr hoch gewählt werden und man ist auf 16 GBit Module fixiert.
Warum vergessen immer alle, dass GDDR5X & GDDR6 auch krumme Speicherbestückungen ermöglichen? Damit könnte ein GA104 mit 256Bit SI angebunden werden und trotzdem 12GB VRAM haben (8x 1,5GB).
Und 192Bit SI beim GA104 Vollausbau geht einfach nicht - selbst mit 16Gbps Speichertakt erreicht es dann nur 384GB/sek. (klar zu wenig) und sogar mit diesem 18Gbps Speicher wären es nur 432GB/sek. (immer noch ein bisschen zu wenig).
Selbst die naheliegende Annahme von 14Gbps Speicher @ 256Bit (= 448GB/sek.) liegt IMO am untersten Ende dessen, was ein GA104 an Bandbreite benötigt. MMn könnte Nvidia bei GA104 gleich auf 16Gbps gehen - diese Taktstufe ist ja seit Ende 2017 lieferbar (also für GDDR6).
R2
Warum vergessen immer alle, dass GDDR5X & GDDR6 auch krumme Speicherbestückungen ermöglichen?
R2
Nicht alle.^^ Hat mich meine nachlassende Erinnerung doch nicht getäuscht.
|MatMan|
2018-01-18, 19:47:14
Theorie und Praxis. Scheinbar werden die "krummen" Speichermengen nicht gefertigt.
basix
2018-01-18, 20:03:25
Wissen um krumme Speicherdinger habe ich schon, nur habe ich das noch nie Live bei einer Grafikkarte gesehen und momentan lese ich nur von 8 Gbit und 16 Gbit Modulen...
Timbaloo
2018-01-18, 20:11:36
Ich glaube auch nicht an "krumme" Chips rechtzeitig zum GA104 Release. Später kann das schon kommen.
Lehdro
2018-01-18, 20:27:02
Naja der von dir verlinkte Artikel sind 2 custom Modelle der gtx1060, die ziemlich hoch takten (GPU). Entsprechend ist ein höherer Speichertakt natürlich auch sinnvoll (ggü der Referenz Version).
Und wer hat so alles eine Referenz 1080/1060? Doch eher die wenigsten, da teuer und laut + heiß. Sehe den Kritikpunkt jetzt nicht wirklich als realistisch an wenn ich mir die hauptsächlich verkauften Modelle anschaue: Non Referenz.
3-4% Skalierung bei 12,5 % mehr Takt halte ich nicht für eine "sehr gute" Skalierung.
Klar, wenn ich mir den worst case rauspicke.
Es sind aber zb +5% bei +10% mehr Bandbreite im Schnitt bei der GTX 1080. Das ist mehr als die meisten anderen Generationen davor von sich behaupten konnten. Vorallem wenn man die schlechteren Timings mit einbezieht.
GP106 ist ziemlich gesättigt. Ein kleines bisschen geht immer.
Manchmal aber auch nicht, siehe Fury. Oder fast gar nicht, wie man an der R9 290X vs der R9 390X gesehen hat, da verpufft 1 GHz Memorytakt im Nichts.
Pascal ist sehr effizient mit der Bandbreite. Die Balance hingegen hat nichts mit der mArch zu tun sondern, wie der IHV auf einem konkreten Produkt Bandbreite und Rohleistung ausbalanciert.
Die Balance ergibt sich doch direkt aus der mArch. Große Caches und auch Kompressionstechnologien sind doch direkt für die real eingesetzte Endbalance verantwortlich die man sinnvoll anstreben kann. Denn nur so kann man sich langsameren Speicher oder kleinere Interfaces überhaupt erst erlauben.
horn 12
2018-01-18, 21:30:11
GTX 2070 8GB DDR6 GTX 1080 plus 10% für 499 bis 549 Euro
GTX 2080 12GB DDR6 GTX 1080TI plus 10 bis 15% für 699 bis 749 Euro
GTX 2080TI 16 GB DDR6 im Sommer, Spätsommer für 949 bis 999 Euro
und 35% schneller als GTX 1080TI
Hat mit gerade die Lederjacke auf Mail geschrieben.
Thunder99
2018-01-18, 21:42:21
Btw, wenn ein Großkunde was will und es technisch geht kriegt er es auch, auch wenn es nicht in der Presse und Katalog steht ;)
basix
2018-01-18, 22:24:02
Btw, wenn ein Großkunde was will und es technisch geht kriegt er es auch, auch wenn es nicht in der Presse und Katalog steht ;)
Ist immer eine Frage des Preises ;)
AffenJack
2018-01-18, 23:39:59
Hynix schreibt übrigens sogar schon, dass deren GDDR6 schon jetzt verfügbar ist.
https://abload.de/img/hynix3kk6z.png (http://abload.de/image.php?img=hynix3kk6z.png)
https://www.skhynix.com/cha/support/technicalSupport.jsp
Nur in kleineren Kapazitäten und Geschwindigkeiten. Aber von den Spezifikationen völlig ausreichend für eine 2070 mit 8Gb.
Hübie
2018-01-19, 01:56:09
Ich wollte damit nicht sagen, dass weitere Caches und höhere Granularität noch implementiert werden müssen. Das ist uralter kalter Kaffee.
Das weiß ich. Offenbar hast du meinen Text missverstanden. Ein Cache ist ja ein Modul was mitten drin sitzt und angebunden werden muss. Je mehr Cache und SMs desto komplexer das OCN. Iirc skaliert ein MC zwar nicht linear mit den Transistoren (weil der ja kaum welche hat), aber so schlecht dass man gleich zwei Kanäle für die Performanceklasse weg lässt wohl auch nicht.
Es ist möglich dass GA104 mit 192 Bit kommt, jedoch sehe ich da jetzt nicht den Vorteil ggü. 256 Bit, der sich lohnen würde.
Nightspider
2018-01-19, 03:40:38
Die 18GBPS Chips wird sich Samsung sicherlich gut bezahlen lassen so das diese zu teuer für die Referenzkarten sein werden.
Schon alleine deswegen weil Samsung im Moment noch der einzige Hersteller ist, der diese anbieten kann.
Es wäre aber sehr cool wenn Nvidia es den Boardpartnern erlauben würde auch schnelleren VRAM zu verbauen.
Eine GTX 2080 OC+ mit 18GBPS Chips würde bestimmt nochmals 5-10% schneller sein und vor allem erreicht man dieses Leistungsplus ja ohne merklich höheren Stromverbrauch. Dann kann man das Powerlimit für die GPU nutzen und den GPU Clock weiter steigern.
Hübie
2018-01-19, 11:52:47
Die 18GBPS Chips wird sich Samsung sicherlich gut bezahlen lassen so das diese zu teuer für die Referenzkarten sein werden.
Schon alleine deswegen weil Samsung im Moment noch der einzige Hersteller ist, der diese anbieten kann.
Es wäre aber sehr cool wenn Nvidia es den Boardpartnern erlauben würde auch schnelleren VRAM zu verbauen.
Eine GTX 2080 OC+ mit 18GBPS Chips würde bestimmt nochmals 5-10% schneller sein und vor allem erreicht man dieses Leistungsplus ja ohne merklich höheren Stromverbrauch. Dann kann man das Powerlimit für die GPU nutzen und den GPU Clock weiter steigern.
NVIDIA hat ja bewiesen, dass sie keine Schmerzen mit Hochpreismodellen haben. :biggrin: Wie teuer 18Gbps-Chips werden hängt A) vom Vertragsvolumen und der -dauer ab, B) die Ausbeute und C) die Kapazität, welche gebraucht wird. Da Flash aktuell fällt und DRAM steigt, stehen die Chancen schlecht, dass wir den auf einer 2080 innerhalb eines halben Jahres nach Start sehen.
Spekulation bzgl. des Speichermarktes:
Ab 2019 müsste sich der gesamte Speichermarkt wieder entspannen, da Fabs online gegangen sind und das ramp up hinter sich haben. Obendrein steigen Smartphoneabsätze nur marginal und Tabletabsätze sinken. Notebook weiß ich gerade nicht und PC-Absatz sinkt ja (angeblich? - wobei mir hier nicht klar ist ob Komponenten oder Komplett-PCs gemeint sind). Das einzige was wächst ist halt Server-Business (allumfassend für kleine Server in einer Firma bis Supercomputer).
basix
2018-01-19, 16:17:58
Zur Speicherspeku: Smartphone Absatz stagniert vielleicht, aber die durchschnittliche Speichermenge pro Gerät steigt. Und solange DRAM Fabs auf Flash umgerüstet werden weil höherer Profit macht es die Situation auch nicht besser.
Hübie
2018-01-19, 18:31:37
Ich muss zugeben, dass ich da kein echten Überblick habe, was da kommt. Sehe ständig Modelle mit 4 GB. Meins ist zwei Jahre alt und hat 3... Signifikant scheint die Steigerung nicht zu sein. Aber dennoch gutes Argument an dass ich nicht gedacht habe. :up:
scully1234
2018-01-19, 18:45:28
Hynix schreibt übrigens sogar schon, dass deren GDDR6 schon jetzt verfügbar ist.
Dadurch das mehrere auf den GDDR6 Zug jetzt wieder aufspringen sollte es da für die Chips keine Engpässe geben
aceCrasher
2018-01-19, 20:21:42
Ich muss zugeben, dass ich da kein echten Überblick habe, was da kommt. Sehe ständig Modelle mit 4 GB. Meins ist zwei Jahre alt und hat 3... Signifikant scheint die Steigerung nicht zu sein. Aber dennoch gutes Argument an dass ich nicht gedacht habe. :up:
Das Problem sind nicht wirklich die High end Modelle der etablierten marken - sondern, dass Firmen wie Xiaomi ab 200€ schon 4GB verbauen und über 400 konsequent 6GB.
Dann gibts natürlich noch Firmen wie OnePlus und Razer die gleich 8 verbauen.
Hübie
2018-01-20, 00:20:15
Das wird aber eher DDR3LP sein und der ist ja noch massenhaft am Markt und hat hohe yield rates. 78 Modelle mit 6GB findet man auf Geizhals. Der Smartphonemarkt selber wuchs jetzt so um die drei Prozent. Also dramatisch scheint das jetzt nicht zu sein. Ich bin jedenfalls positiv gestimmt, was GDDR6 angeht. Allerdings frage ich mich, warum Micron dann G5X weiter herstellt... :confused:
Rampage 2
2018-01-20, 22:28:50
Kann man mittlerweile fest davon ausgehen, dass GA102 die gleiche Anzahl an Shadereinheiten, SMs, ROPs & TMUs haben wird wie GV100? Nämlich 84 SMs und 5376 SPs im Vollausbau; 7 SMX pro GPC. Da wohl auch Ampere in 12nm kommen wird, ist einfach kein Platz mehr für noch mehr - und weniger als 5000 SPs aber auch nicht, da sich GV102 dann nicht mehr ausreichend von GP102 absetzen kann... (die Taktmauer ist ja im Großen und Ganzen erreicht, denn Pascal schafft ja bereits 2,1 GHz!)
Durch Abfall des HPC-Krams und der Tensor-Cores und 5% höherer Packdichte als 16FF+ sollte man das Ganze in 600 - 650mm^2 quetschen können, oder nicht?
R2
aceCrasher
2018-01-21, 01:37:06
5% höherer Packdichte als 16FF+ sollte man das Ganze in 600 - 650mm^2 quetschen können, oder nicht?
R2
Ist GV100 nicht selbst schon in 12FFN gefertigt?
=Floi=
2018-01-21, 01:37:45
Es gab vor zig seiten hier eine logische skalierung 1/3 2/3 3/3 und damit kommt man auf 4608 für den vollausbau.
1536
3072
4608
Die shader waren bei den letzten generationen sowas von unwichtig. Durch das verbesserte frontend und den takt hat man die leistung zigmal mehr gesteigert.
Die SPs waren bei den alten karten eher blender, weil man deren leistung nicht wirklich auf die straße bringt.
reaperrr
2018-01-21, 01:56:33
Es gab vor zig seiten hier eine logische skalierung 1/3 2/3 3/3 und damit kommt man auf 4608 für den vollausbau.
1536
3072
4608
1792
3584
5376
Ist auch eine logische Skalierung :smile:
Der_Korken
2018-01-21, 02:25:54
Kann man mittlerweile fest davon ausgehen, dass GA102 die gleiche Anzahl an Shadereinheiten, SMs, ROPs & TMUs haben wird wie GV100? Nämlich 84 SMs und 5376 SPs im Vollausbau; 7 SMX pro GPC.
Nein. Theoretisch könnte die GPU komplett anders aufgebaut sein, d.h. gar keine GPCs oder SMs besitzen, sondern etwas anderes. Es gab ein paar Hints, dass Ampere eine neue Mikroarchitektur sein wird, von daher nicht völlig abwegig. Es kann natürlich auch beides eintreffen, d.h. gleicher Aufbau mit GPCs/SMs, aber dafür komplett anderer interner Aufbau der SMs, so wie bei Kepler -> Maxwell. Würde man einfach von einer Evolutionsstufe wie bei Maxwell -> Pascal ausgehen, würden 5376 SPs (=42SMs, nicht 84 da die Computechips weniger SPs pro SM haben) für GA102 Sinn ergeben. Generell wirken beide Varianten mit 1536/3072/4608 und 1792/3584/5376 stimmig.
robbitop
2018-01-21, 09:34:41
Wer hat das denn gehinted? Ich habe zB auch häufiger rumors gelesen, dass es nur ein Pascal Refresh ist.
Anzahl der ALUs würde ich auch so schätzen:
ga102 vollausbau = gv100 vollausbau
ga104 = 2/3 x ga102
ga106 = 1/3 x ga102
ga107 = 1/5 x ga102
ga108 = 1/10 x ga102
Ich tippe auf nur sehr geringfügig höhere ipc (rohleistungsnormierte performance ist gemeint) und nur geringfügig höhere Taktraten. Jeweils max 10%.
Hübie
2018-01-21, 09:57:50
Es gab vor zig seiten hier eine logische skalierung 1/3 2/3 3/3 und damit kommt man auf 4608 für den vollausbau.
1536
3072
4608
Die shader waren bei den letzten generationen sowas von unwichtig. Durch das verbesserte frontend und den takt hat man die leistung zigmal mehr gesteigert.
Die SPs waren bei den alten karten eher blender, weil man deren leistung nicht wirklich auf die straße bringt.
Meinst du das?
https://abload.de/img/spekulativer_ga102bpuqo.png (http://abload.de/image.php?img=spekulativer_ga102bpuqo.png)
basix
2018-01-21, 12:18:33
Ich würde eher 5376 bevorzugen, einfach weil dann das Leistungspotential gegen oben höher ist. Die +40% SMs würden auch mit der Aussage von Lederjacke bezüglich +50% Energieeffizienz der Shader zusammenpassen. Zudem passt dann auch 16GBit/s GDDR6 gegenüber den heutigen 11 GBit/s bei GP102. Ein GPC auf GP104 kostet gerade mal 40-45mm2; ein leerer SM-Chluster bestehend aus 128 Cuda Cores 4-5mm2. Belässt man die Anzahl GPCs und erhöht die SMs auf 7 pro GPC könnte man bei 550-600mm2 landen.
pixeljetstream
2018-01-21, 14:34:41
Nein. Theoretisch könnte die GPU komplett anders aufgebaut sein, d.h. gar keine GPCs oder SMs besitzen, sondern etwas anderes. Es gab ein paar Hints, dass Ampere eine neue Mikroarchitektur sein wird, von daher nicht völlig abwegig.
Theoretisch geht sehr viel, aber es ist doch praktisch sehr abwegig etwas komplett über den Haufen zu werfen, mit dem man seit Jahren gut fährt. Es ist ja ein enormer Rattenschwanz der an der grundsätzlichen Architektur dran hängt. Nicht nur die Bausteine selbst, alle Analysetools, alle Performancemetriken der Simulation, alle Vergleichsmöglichkeiten mit dem vorherigen und daraus resultierend viele Erfahrungswerte würde sowas zu einem gigantischen Risiko werden lassen. Wäre es wirtschaftlich nötig das einzugehen?
Stetige Evolution ist die bessere Wahl, weshalb die Refreshtheorie auch unwahrscheinlich ist, wie schon vor paar Seiten geschrieben. Bitte nicht einfach sowas unreflektiert hinnehmen, solche einfachen Theorien kommen immer dann auf wenn den Menschen die Komplexität des Ganzen nicht bewusst ist, was in diesem Forum eigentlich nicht der Fall sein sollte.
aufkrawall
2018-01-21, 15:03:50
Manche Leute hier (ich meine jetzt explizit nicht Der_Korken) sind leider unverbesserlich, was das Aufstellen völlig hahnebüchener Theorien anbelangt.
Ins eine Ohr rein und so...
=Floi=
2018-01-21, 15:20:14
naja so abwegig wäre seine idee auch nicht, doch mal mehr zu ändern und bestimmte sachen zu überdenken. NV forsch ja auch weiter.
Es gibt noch immer die idee mit den cpu cores und ich könnte mir schon vorstellen, dass an DP oder den tensor cores gedreht wird um alle shader tauglich zu machen.
Es wird sicherlich nicht bei ampere passieren aber irgendwann wird der schritt nötig werden um die steigerungen beizubehalten. Aktuell sehe ich aber auch keinen wirklichen grund an den shadern groß was zu verändern.
Umgedreht muss sich NV auch verändern weil es der markt fordert und weil sich die technik weiterentwickelt.
Ich möchte zu den hahnebüchnen ideen mal den planet3dnow aplilscherz mit den dual core A64 erinnern oder es gibt auch noch genug andere sachen wie smartphones oder 400ps 3l quad turbo diesel welche vorher auch nie vorstellbar waren.
Wirtschaftliche gründe oder technische grenzen gibt es auch oft genug, aber manchmal gibt es auch positive überraschungen.
AffenJack
2018-01-21, 15:29:34
naja so abwegig wäre seine idee auch nicht, doch mal mehr zu ändern und bestimmte sachen zu überdenken. NV forsch ja auch weiter.
Es gibt noch immer die idee mit den cpu cores und ich könnte mir schon vorstellen, dass an DP oder den tensor cores gedreht wird um alle shader tauglich zu machen.
Es wird sicherlich nicht bei ampere passieren aber irgendwann wird der schritt nötig werden um die steigerungen beizubehalten. Aktuell sehe ich aber auch keinen wirklichen grund an den shadern groß was zu verändern.
Umgedreht muss sich NV auch verändern weil es der markt fordert und weil sich die technik weiterentwickelt.
Vielleicht irgendwann in weiter Zukunft mag das passieren, wenn die anforderungen weiter auseinandergehen. Aber erstmal wird das eben nicht passieren. Huang betonte auch oft genug auf Conference Calls, dass Nvidia ihre Vorteile daraus zieht, eine Architektur von Mobil/Auto über Gamegpus bis zu HPC zu haben. Mittlerweile gibts da zwar Unterschiede im Detail, je nach Aufgabengebiet, aber die grundlegende Architektur ist eben gleich. Daher wird Ampere auch bestimmt auf Volta basieren und nicht auf Pascal.
Der_Korken
2018-01-21, 16:31:16
Wer hat das denn gehinted? Ich habe zB auch häufiger rumors gelesen, dass es nur ein Pascal Refresh ist.
"Hints" war vielleicht etwas hochgestochen, nennen wir es lieber Gerüchte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11549653#post11549653
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11591992#post11591992
Da Maxwell bis dahin 3,5 Jahre alt sein wird und Nvidia nicht gerade am Hungertuch nagt, könnte es durchaus ein paar größere Änderungen geben. Bei V100 gab es gegenüber Pascal auch deutlich mehr Änderungen als man auf den ersten Blick sieht. Ich will hier keinen Hypetrain starten, denn neue Architektur heißt nicht automatisch, dass alles besser wird. Es könnte aber die Spekulation um die Anzahl der GPCs und SMs obsolet machen.
pixeljetstream
2018-01-21, 16:43:17
@AffenJack, genau, Evolution heißt auch nicht, dass sich nix langfristig ändert. Gen to Gen fällt es nur nach außen nicht so auf. Jeder Chip ist ja nicht die beste Form der Architektur, sondern die best möglichste für den Zeitrahmen, Kosten etc.
Es ist halt nichts worüber man groß Marketing macht, ob nun unit XYZ doppelt so flott ist, wenn sie 2% an nem Frame ausmacht. Aber all die Summe an kontinuierlichen Verbesserung macht's halt aus.
gravitationsfeld
2018-01-21, 16:44:08
naja so abwegig wäre seine idee auch nicht, doch mal mehr zu ändern und bestimmte sachen zu überdenken. NV forsch ja auch weiter.
Es gibt noch immer die idee mit den cpu cores und ich könnte mir schon vorstellen, dass an DP oder den tensor cores gedreht wird um alle shader tauglich zu machen.
Es wird sicherlich nicht bei ampere passieren aber irgendwann wird der schritt nötig werden um die steigerungen beizubehalten. Aktuell sehe ich aber auch keinen wirklichen grund an den shadern groß was zu verändern.
Umgedreht muss sich NV auch verändern weil es der markt fordert und weil sich die technik weiterentwickelt.
Ich möchte zu den hahnebüchnen ideen mal den planet3dnow aplilscherz mit den dual core A64 erinnern oder es gibt auch noch genug andere sachen wie smartphones oder 400ps 3l quad turbo diesel welche vorher auch nie vorstellbar waren.
Wirtschaftliche gründe oder technische grenzen gibt es auch oft genug, aber manchmal gibt es auch positive überraschungen.
Es gibt gewisse funamentale Regeln der Physik, die man im Chip-Design beachten muss. Einer davon ist die Signallaufzeit. Das erzwingt, dass man bei billionen von Transistoren den Chip in einzelne Teile zerlegt die ueber ein Netzwerk miteinander kommunizieren. Das Problem ist in den letzten Jahren schlimmer, nicht besser geworden.
Demzufolge ist extrem abwegig eine GPU zu bauen, die nicht aus SMs, CUs, Slices oder wie auch immer man es nennt aufgebaut ist.
pixeljetstream
2018-01-21, 17:37:49
"Hints" war vielleicht etwas hochgestochen, nennen wir es lieber Gerüchte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11549653#post11549653
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11591992#post11591992
Da Maxwell bis dahin 3,5 Jahre alt sein wird und Nvidia nicht gerade am Hungertuch nagt, könnte es durchaus ein paar größere Änderungen geben. Bei V100 gab es gegenüber Pascal auch deutlich mehr Änderungen als man auf den ersten Blick sieht. Ich will hier keinen Hypetrain starten, denn neue Architektur heißt nicht automatisch, dass alles besser wird. Es könnte aber die Spekulation um die Anzahl der GPCs und SMs obsolet machen.
Am Ende zitieren alle Heise, also genau eine Quelle, super...
Die Aussage, dass es kein einfacher GV1xx wird, ist ja im Prinzip schon alles, wenn man das als "from scratch" bezeichnet, okay...
Jeder von uns hat denke ich ne andere Vorstellung von "größere Änderung". Wenn ich auf Foren wie hier "neue Architektur from scratch" lese, denke ich eher an die großen sichtbaren Wechsel bei Curie zu Tesla, bzw. Tesla zu Fermi. Sowas halte ich aber eben nicht für realistisch. Wie Du sagst ist es heute oft etwas mehr verborgen, sei es der L1/SM kram in GV100 oder halt das Tilecaching bei Maxwell. Ich arbeite selbst an Features die eher nach aussen sichtbar sind, also für Entwickler und manchmal indirekt via Marketing für alle, was es ermöglicht die Dinge zu präsentieren etc. Aber es gibt eben so viel Toparbeit von Leuten die kaum sichtbar sein wird, weil sie halt an jenen Prozenten hier und dort feilen, sei es im Treiber oder in der Hardware.
Hübie
2018-01-21, 19:07:48
Da könnten z.B. effizientere Algorithmen zur Darstellung von (semi-) Transparenzeffekten drunter fallen - oder sogar Hardwarelösungen ähnlich Intels OIT.
Als völlig neu definiere ich den Aufbau der GPU inkl. Frontend, GPC, SM und ROPs. From scratch bedeutet eben vom Reißbrett an und da sehe ich absolut keine Not zu. Also können wir das ausschließen. NV ist immer für ne Überraschung gut und es wird wieder eins, zwei Marketing-Features geben die irgendwann kein Arsch mehr interessieren (mother f*cking anti aliasing ;D).
Ps: Ich musste übelst lachen, als Jensen BFGD vorgestellt hat und er sich selbst zusammenreißen musste. Alle im Saal dachten das gleiche. X-D
Ex3cut3r
2018-01-21, 19:10:04
Ich denke mal intern, wird auch Big Fucking Gaming Display gesagt. :biggrin:
Ich selbst nenne es auch so.
Hübie
2018-01-21, 19:14:12
Klar. Damals haben Ryan Shrout und Tom Petersen voll abgefeiert und immer wieder mother f*cking anti aliasing gesagt. ;D Sind halt, wie wir auch, nur große Kinder.
aufkrawall
2018-01-21, 19:24:28
Beim ach so geilen Feature MFAA. :freak:
Aber wenigstens hat das noch ohne GFE funktioniert...
Hübie
2018-01-21, 19:28:28
Welches BQ-Feature braucht denn GFE? Oder beziehst du dich auf Ansel?
aufkrawall
2018-01-21, 19:45:49
Ansel und nun Freestyle. Ich rechne für Ampere nicht mit neuen Features außerhalb von GFE.
Ich hab nichts per se gegen GFE, aber das Teil so mit Telemetrie und anderen Online-Checks vollzustopfen ist eine Frechheit gegenüber dem Kunden.
Edit: Kann sein, dass Ansel auch ohne GFE geht, weiß ich nicht mehr.
gravitationsfeld
2018-01-21, 19:58:10
Als völlig neu definiere ich den Aufbau der GPU inkl. Frontend, GPC, SM und ROPs.
Da ist nicht viel an der Struktur was man viel aendern koennte. ROPs koennten eventuell mit den Shadern vereinheitlicht werden, aber das ist ein groesseres Problem was die Latenzen und das Scheduling im Chip angeht.
Selbst wenn man andere Render-Algorithmen als Dreiecks-Rasterisierung bringen wuerde, wuerde sich an der Aufteilung des Chips nicht viel aendern. Wie gesagt, die Signallaufzeiten erzwingen eine Lokalisierung in Sub-Einheiten.
Hübie
2018-01-22, 00:44:52
Da bin ich voll bei dir. Daher sehe ich das auch nicht als "from scratch", was auch immer da kommen mag. Es sind eben sinnvolle Iterationen die sich der (künftigen) Entwicklung beugen und versuchen neue Fetures einzuleiten / durchzusetzen. Bei MFAA wusste man im Prinzip schon, dass es nix wird, weil es wieder so eine per App-Geschichte ist. Nett, aber langfristig unbrauchbar (wird sicherlich nicht mehr gepflegt).
@aufkrawall: Nein, ich hatte Ansel mal ohne GFE versucht, aber geht nicht. Alt+F2 fruchtete nicht. :D Man kann die Telemetrie easy unterbinden, wenn man mag (HOSTS, Firewall, Reroute, loop.. mehr fällt mir gerade nicht ein :D).
Tesseract
2018-01-22, 01:01:19
die größte architekturänderung sehe ich in zukunft eher bei multi-chip-designs ähnlich threadripper nur eben für GPUs und dazu muss einiges am memorycontroller und scheduling geändert werden damit das rund läuft. aber die kostenersparnis ist sicher enorm wenn man mehrere kleine, leicht zu fertigende chips auf einen interposer klatscht statt den 500-800mm²+ monsterchips mit yields aus der hölle.
@aufkrawall: Nein, ich hatte Ansel mal ohne GFE versucht, aber geht nicht. Alt+F2 fruchtete nicht. :D
klar geht das. ich hatte GFE auf dem system hier noch nie oben, aber ansel ist verfügbar - zumindest in den spielen die offiziell unterstützt werden.
Hübie
2018-01-22, 01:08:55
Hast du denn auch Alt+F2 gedrückt und konntest da alles einstellen / aufnehmen? Die Meldung erschien bei mir zwar, aber beim Drücken der Tastenkombi passierte nix. Erst als GFE drauf war lief es. Weiß gerade nicht mehr welches Spiel es war. Damals in Witcher 3 war's genau so. :|
Für Multichip-Designs braucht man auch ein fähiges, breites Netzwerk. Leider ist dies in aktuellen GPUs von NV ein riesiges Fragezeichen. Keiner außerhalb NVs weiß ob es schon paketbasiert ist oder nicht.
Tesseract
2018-01-22, 01:17:29
ja, funktionierte alles... in witcher 3 und dishonored 2. weiß nicht mehr ob ich es noch wo probiert habe.
Hübie
2018-01-22, 03:23:20
Ok dann war es entweder ein Fehler oder es wurde etwas geändert.
Da könnten z.B. effizientere Algorithmen zur Darstellung von (semi-) Transparenzeffekten drunter fallen - oder sogar Hardwarelösungen ähnlich Intels OIT.
Du meinst Intels Pixelsync? Das wurde durch DX12 Rastered Ordered Views subsumiert und ist seit Maxwell verfügbar. Hat erstmal auch wenig mit OIT zu tun, ermöglicht aber effizientere Umsetzungen davon.
Hübie
2018-01-22, 12:56:17
Ah okay. Ich meinte aber auch so etwas:
Hashed Alpha Testing
p4TYf5DDpbQ
Wobei ich nicht weiß inwieweit man da etwas mit Hardware sinnvoll verbessern könnte. :D
scully1234
2018-01-22, 16:42:51
Ich denke mal intern, wird auch Big Fucking Gaming Display gesagt. :biggrin:
Ich selbst nenne es auch so.
ist auch "etwas ungeschickt" ,im Land of the free ,solch eine Abkürzung zu wählen, wo jeder hinter jeden Absatz das f Wort setzen tut
Kein Wunder das dann solch eine Assoziation zu Stande kommt:D
Thunder99
2018-01-25, 23:01:42
Ich könnte mir vorstellen (finde es aber nicht positiv wegen der nicht abschaltbaren Telemetrie) wenn Nvidia das CP durch GFE ersetzt, sprich die restlichen Funktionen vom CP in GFE integriert :freak:
Hübie
2018-01-25, 23:40:34
Man kann die Telemetrie selbst deaktivieren. :D HOSTS-Datei z.B. (services.gfe.nvidia.com: 152.195.52.18, gfwsl.geforce.com: 152.195.53.31)
Thunder99
2018-01-26, 07:29:13
Was ich meine ist ein Schalter im Programm ;) aber das könntest du dir ja gedacht haben :D.
Allzuviel mehr Einheiten erwarte ich nicht bei Ampere. So +30%. Beim kleinen GA104 haben sie ja mehr Spielraum was die Die Größe anbelangt, beim GA102 eher nicht wenn man GV als Maßstab nimmt. So groß wird wohl kaum im Consumer Markt zu den dort üblichen Preisen verkauft werden.
Hübie
2018-01-26, 07:43:08
Ja das habe ich auch so aufgefasst, alles gut. :smile:
Troyan
2018-02-02, 19:39:19
Das hier bei Twitter gesehen: https://twitter.com/repi/status/959439233382518784
O_o - Tensor-Cores bei Geforce-Produkten ohne Limitierung?
scully1234
2018-02-02, 20:40:11
also quasi schon als Verwendung in Games/Gameengines?
Das ging ja schneller als gedacht
Mortalvision
2018-02-02, 20:49:06
Jupp, das AI Potenzial moderner games liegt ja meist hübsch brach...
scully1234
2018-02-02, 20:55:11
Ich weiss auch was EA damit vor hat, die generieren damit ihre intelligenten Lotboxen "duck u weg"
Edit: neulich sprachen wir erst über den möglichen Einsatz
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11572199&postcount=1531
AffenJack
2018-02-02, 21:28:02
Ich denke da wird es erstmal aber eher um Contenterstellung gehen. Das dürfte der erste Schritt sein und in Spiele wird erst danach folgen.
Thunder99
2018-02-05, 09:58:20
Wenn dann werden es paar ausgewählte Spiele haben. Kann mir nicht vorstellen, dass es voll durchstarten wird da es Nvidia only ist. Dann müssten ja die Entwickler das einbauen, bei AMD primitive Shader und und und... . Wer kann sich das leisten? Ohne ordentlich Förderung seitens der GPU Hersteller wohl kaum jemand. Gameworks ahoi...
=Floi=
2018-02-05, 10:04:09
phys x ist ja noch immer eine nische und ist meilenweit von mehr verbreitung entfernt. Im grunde finde ich die breite verfügbarkeit der technologie nicht schlecht.
Rancor
2018-02-05, 10:12:17
Wenn dann werden es paar ausgewählte Spiele haben. Kann mir nicht vorstellen, dass es voll durchstarten wird da es Nvidia only ist. Dann müssten ja die Entwickler das einbauen, bei AMD primitive Shader und und und... . Wer kann sich das leisten? Ohne ordentlich Förderung seitens der GPU Hersteller wohl kaum jemand. Gameworks ahoi...
Außerdem ist diese Entwicklung gar nicht so toll. Dieser proprietäre Scheiss, egal ob NV oder AMD ist letztendlich nur schlecht für uns als Kunden.
basix
2018-02-05, 19:38:43
Außerdem ist diese Entwicklung gar nicht so toll. Dieser proprietäre Scheiss, egal ob NV oder AMD ist letztendlich nur schlecht für uns als Kunden.
Proprietär ist nicht gut. Aber neue Technologien bringen schon was. Nimmt man GV100 als Referenz, erreicht man mit TensorCores 8x mehr FLOPs im selben Energiebudget gegenüber FP32. Je nach dem ob die Genauigkeit und die Art der Berechnung passen, ist das ein Quantensprung bei der Leistung. Da Google und auch andere AI-Firmen auf Tensoroperationen setzen, wird sich das schon verbreiten. Die API wird hier wichtiger sein.
Leonidas
2018-02-07, 08:45:13
TSMC geht von 12 auf 7nm.
Sicher?
IMO wird TSMC haufweisen Smartphone-SoCs in 10nm herstellen. 10nm wird ein ganz normaler Node für TSMC werden, kein 20nm-Wiedergänger.
Was jetzt nix darüber sagt, ob nVidia 10nm verwenden wird oder nicht.
dildo4u
2018-02-07, 09:04:03
Amd will ja sogar schon Vega in 7nm Samplen würde mich wundern wenn der Ampere Nachfolger 2020 in 10nm kommt.
Ich gehe davon aus das Ampere wie Pascal zwei Jahre aktuell ist.
AffenJack
2018-02-07, 09:39:39
Sicher?
IMO wird TSMC haufweisen Smartphone-SoCs in 10nm herstellen. 10nm wird ein ganz normaler Node für TSMC werden, kein 20nm-Wiedergänger.
Was jetzt nix darüber sagt, ob nVidia 10nm verwenden wird oder nicht.
Auch SoC Hersteller haben wenig Interesse an 10nm. Aber die großen bringen 1,2 SoCs dafür. Das wird ein Übergangsprozess zwischen 16nm und 7nm, wie 20nm damals eben. Dss Desinteresse an 10nm ist wohl auch einer der Gründe, wieso 12nm gemacht wurde. Die Herstelller wollten einen besseren Node, ohne die hohen Kosten von 10nm.
BlacKi
2018-02-07, 10:25:33
Amd will ja sogar schon Vega in 7nm Samplen würde mich wundern wenn der Ampere Nachfolger 2020 in 10nm kommt.
Ich gehe davon aus das Ampere wie Pascal zwei Jahre aktuell ist.
dafür würde ich meine hand nicht ins feuer legen. der 16nm prozess bewies sich als sehr gut um die 2 jahre zu überbrücken, aber der 12nm für 2 jahre?;(
AffenJack
2018-02-07, 12:19:18
dafür würde ich meine hand nicht ins feuer legen. der 16nm prozess bewies sich als sehr gut um die 2 jahre zu überbrücken, aber der 12nm für 2 jahre?;(
Glaube ich nicht dran. Dementsprechend glaube ich aber auch nicht an eine volle 12nm Gen, sondern nur einen Teil. GX107, GX108 sehe ich weiterhin bei Samsung in 7nm EUV. Die könnten relativ früh nächstes Jahr kommen, wenn Samsungs Prozess läuft. In 12nm höchstens GA106, GA104 und GA102. Man hat auch 1 Jahr nach GM200 16nm gebracht und heutzutage hat man deutlich mehr Ressourcen für R&D. Höchstens könnte Nv 7nm ohne EUV bei TSMC überspringen. Dann wäre das möglich und das würde dann wirklich eher 2020 werden.
Aber erstmal müssen demnächst mal Infos zu Ampere kommen, alles andere ist zu weit in der Zukunft. Wenn das Ding im April launchen soll, sollte es langsam Leaks geben.
NV hat ja 12 gemacht weil 10 nicht geeignet war. Sonst hätte man wohl kaum 800mm² in kauf genommen.
|MatMan|
2018-02-07, 16:21:10
10nm waren für Volta wohl schlicht noch nicht fertig.
Das hätte man auch noch 1/4 Jahr verzögern können. Daran wirds nicht gelegen haben und das hätte denen nicht weh getan - sogar 1/2 Jahr später wär nicht tragisch gewesen. Geklappt hätte das sicherlich, aber man wollte offensichtlich nicht. Das wird vom Performancestandpunkt her einfach nicht so pralle gewesen sein. Dafür ist das Kosten/Nutzen-Verhältnis einfach zu schlecht, wie bei 20nm damals.
10nm scheidet gänzlich aus. Entweder man macht 12FFN oder 7, aber 10 werden wir zu 99,999% nicht sehen.
horn 12
2018-02-07, 18:46:13
Und dafür kommt wohl eine GTX 2070 mit 20% weniger Stromverbrauch mit plus/minus GTX 1080 Leistung.
und eine GTX 2080 mit gute 10% weniger Stomaufnahme und knappe bis identische GTX 1080TI Leistung.
Custom Modelle der Neuen Generation wohl in Reichweite der GTX 1080TI Custom Versionen.
Timbaloo
2018-02-07, 20:00:05
edit, nevermind, verlesen. Kann gelöscht werden.
5CH4CHT3L
2018-02-07, 20:08:56
Und dafür kommt wohl eine GTX 2070 mit 20% weniger Stromverbrauch mit plus/minus GTX 1080 Leistung.
und eine GTX 2080 mit gute 10% weniger Stomaufnahme und knappe bis identische GTX 1080TI Leistung.
Custom Modelle der Neuen Generation wohl in Reichweite der GTX 1080TI Custom Versionen.
Naja Nvidia hat sich eigentlich die letzten Jahre nicht lumpen lassen und die 70er GPU immer in die Nähe der alten 80ti gebracht
crux2005
2018-02-07, 20:21:00
Wenn es so weiter geht, kommt Amphere für Spieler erst im Sommer. :(
|MatMan|
2018-02-07, 20:48:15
Das hätte man auch noch 1/4 Jahr verzögern können. Daran wirds nicht gelegen haben und das hätte denen nicht weh getan - sogar 1/2 Jahr später wär nicht tragisch gewesen. Geklappt hätte das sicherlich, aber man wollte offensichtlich nicht. Das wird vom Performancestandpunkt her einfach nicht so pralle gewesen sein. Dafür ist das Kosten/Nutzen-Verhältnis einfach zu schlecht, wie bei 20nm damals.
Man hatte es offensichtlich eilig mit Volta wegen dem DL Zeugs. Da wartet man nicht ein halbes Jahr und kann sich nichtmal sicher sein, dass es auch funktioniert (neuer Prozess). 16nm war inzwischen gut bekannt und daher genau die richtige Wahl. Dazu spielen die Kosten im V100 Segment wohl eher eine etwas untergeordnete Rolle.
Man kann man IMO nicht davon ableiten, dass der 10nm Prozess unbrauchbar ist. Wenn 7nm noch zu weit weg ist, traue ich nVidia zu den 10mm Prozess auch zu benutzen. Und sei es nur für einen V100 Nachfolger, falls sie bei DL noch mehr Druck machen wollen.
Hübie
2018-02-07, 20:53:15
Das hier bei Twitter gesehen: https://twitter.com/repi/status/959439233382518784
O_o - Tensor-Cores bei Geforce-Produkten ohne Limitierung?
Darf ich fragen, was dich zu dieser Aussage verleitet hat? Da steht nix von Tensor Cores für Geforce und auch nicht, dass Johann diese für seinen content nutzen will (wird). Oder fehlt mir irgendwas in der Mobilansicht? :|
Nach meinen Informationen sind keine TC in die GA104-Chips. Eh, das fürs Gaming einsatzfähig wäre geht noch einige Zeit ins (lahmarschige) Softwareland.
Thunder99
2018-02-07, 20:55:34
Wenn es so weiter geht, kommt Amphere für Spieler erst im Sommer. :(
Wenn sie echt ab Februar produzieren wohl kaum :confused:
horn 12
2018-02-08, 20:25:47
Na, 3D-Center ist mal Optimistisch für GTX 2070 ca. 1080 TI Performance
und GTX 2080TI ganze 70 bis 80% vor einer GTX 1080TI.
Dann würde eine GTX 2080 ca. 30 bis 35% vor einer GTX 1080TI liegen für
a) kleine Schwester: 599 Euro
b) bis 849 Euro für die große Schwester 2080 falls dies stimmen sollte...
Grendizer
2018-02-08, 20:46:44
Ist ja nVidia und nicht AMD ;D
BoMbY
2018-02-08, 21:01:32
Darf ich fragen, was dich zu dieser Aussage verleitet hat? Da steht nix von Tensor Cores für Geforce und auch nicht, dass Johann diese für seinen content nutzen will (wird). Oder fehlt mir irgendwas in der Mobilansicht? :|2
Vermutlich braucht der jetzt eine AI auf Tensor-Core-Basis um die DX12-Krüppel-Implementierung in Frostbite zu reparieren ...
Hübie
2018-02-08, 21:28:22
Na, 3D-Center ist mal Optimistisch für GTX 2070 ca. 1080 TI Performance
und GTX 2080TI ganze 70 bis 80% vor einer GTX 1080TI.
Dann würde eine GTX 2080 ca. 30 bis 35% vor einer GTX 1080TI liegen für
a) kleine Schwester: 599 Euro
b) bis 849 Euro für die große Schwester 2080 falls dies stimmen sollte...
Warum? Die 970 schlug die 780 Ti und die 1070 ist ~980 Ti Niveau. Was soll denn jetzt optimistisch sein, wenn spekuliert wird eine 2070 schlägt eine 1080 Ti oder ist zumindest auf Augenhöhe?
@BombY: Da steht trotzdem nix von Tensor Cores und / oder machine learning...
scully1234
2018-02-08, 21:37:02
Darf ich fragen, was dich zu dieser Aussage verleitet hat? Da steht nix von Tensor Cores für Geforce und auch nicht, dass Johann diese für seinen content nutzen will (wird). Oder fehlt mir irgendwas in der Mobilansicht? :|
.
Ist die Titan V kein entarteter Geforce Ableger mehr?:)
Sicher gehts da primär wohl erstmal um Kontenterstellung im eigentlichen Sinn, sonst hätte er sich das mit dem "Warm Up some Tensor Units" und der Titan V auch erspart in dem EA Gamekontext
Heist aber nicht, das man sich solche Möglichkeiten nicht auch für eine zukünftige Integration in die eigentliche Engine vorstellen könnte, wenn es dabei hilft enorm Rechenleistung einzusparen,und das auf weniger Silizumfläche zu integrieren ,als ordinäre FP32 Units
MasterElwood
2018-02-08, 21:46:48
Warum? Die 970 schlug die 780 Ti und die 1070 ist ~980 Ti Niveau. Was soll denn jetzt optimistisch sein, wenn spekuliert wird eine 2070 schlägt eine 1080 Ti oder ist zumindest auf Augenhöhe?
Genau! NV hats die letzten 2 Generationen vorgemacht.
PLUS: Noch NIE war eine sooo lange Pause zwischen 2 Generationen. Da müssen die auch was bringen. Weil: auch wenns keine Konkurrenz gibt - was MOTIVIERT dann Leute Kohle für ein Upgrade auszugeben wenn nur ein Upgrädchen is...
basix
2018-02-08, 21:48:19
Heist aber nicht, das man sich solche Möglichkeiten nicht auch für eine zukünftige Integration in die eigentliche Engine vorstellen könnte, wenn es dabei hilft enorm Rechenleistung einzusparen,und das auf weniger Silizumfläche zu integrieren ,als ordinäre FP32 Units
Wenn man nicht auf 8x FP16 Tensor Operationen geht gegenüber FP32 sondern z.B. nur auf 1x dafür simultane Ausführung mit FP32, könnte es je nachdem sicher einen schönen Boost geben. 1x sollte nur wenig Bandbreite und Power Budget von FP32 wegfressen und auch die Chipfläche sollte sich in Grenzen halten.
Zum 3DC Artikel: Könnte so kommen, ist aber schon optimistisch und wäre am oberen Limit einzuordnen. Überraschen lasse ich mich aber gerne :)
BoMbY
2018-02-08, 22:25:07
@BombY: Da steht trotzdem nix von Tensor Cores und / oder machine learning...
"Time to warm up some DL tensor cores and also do some new shiny rendering (more info at GDC in our @seed talks)! Thanks @nvidia"
Ex3cut3r
2018-02-08, 22:31:38
Warum? Die 970 schlug die 780 Ti und die 1070 ist ~980 Ti Niveau. Was soll denn jetzt optimistisch sein, wenn spekuliert wird eine 2070 schlägt eine 1080 Ti oder ist zumindest auf Augenhöhe?
@BombY: Da steht trotzdem nix von Tensor Cores und / oder machine learning...
Etwas OT. Aber wie kann man das eigentlich bei AMD vergleichen?
Eine RX 470 schlägt doch keine Fury X? Oder eine R9 270X hat doch nie eine HD 7970/280x geschlagen? Kann man irgendwie gar nicht vergleichen.
Genau! NV hats die letzten 2 Generationen vorgemacht.
PLUS: Noch NIE war eine sooo lange Pause zwischen 2 Generationen. Da müssen die auch was bringen. Weil: auch wenns keine Konkurrenz gibt - was MOTIVIERT dann Leute Kohle für ein Upgrade auszugeben wenn nur ein Upgrädchen is...
Da braucht keiner motiviert werden. Die Karten werden in kurzer Zeit ausvekauft sein.
Gibt nämlich genug Leute die Pascal übersprungen haben und hungrig auf neue Karten sind. ;D
Ich denke der Leistungszuwach wird geringer als bei den letzten beiden Generationen ausfallen, zumal keine absehbare Konkurenz am Markt ist.
Einen saftigen Preisanstieg wird sich Nvidia aber nicht durch den Lappen gehen lassen. :rolleyes:
Hübie
2018-02-09, 02:54:47
"Time to warm up some DL tensor cores and also do some new shiny rendering (more info at GDC in our @seed talks)! Thanks @nvidia"
Hm. Dann wurde letztes Mal nicht alles geladen (teste gerade diverse Browser auf meinem Blödfon). Jetzt hab ich's gelesen. :redface:
Danke!
@Ex3cut3r: Das kann man gar nicht vergleichen. NVIDIA orientiert sich auch herzlich wenig an AMD, da beide sehr unterschiedliche Strategien fahren und die Produktzyklen stark abweichen. Seit Jahr und Tag bringt NV ein lineup from top to bottom (seit Maxwell durchgängig sogar übergreifend zu mobile ULP Chips). Bei Kepler gab es noch kleine Fermis wenn ich mich recht entsinne.
Bei AMD hat man halt mehrere Linien. Die 270X ist ein rebrand der 7870 und die 470X ein Ersatz für die 390. Das passt da alles nicht so gut zusammen, weil auch häufig die Strategie geändert oder angepasst wird. Man hat eben nur ein Bruchteil des RnD-Budgets ggü. NV.
AffenJack
2018-02-09, 17:36:40
Hmm, so langsam hege ich Zweifel an einem Release im April von Ampere. Wir hören nix und der JHH haut sowas im Conference Call raus:
But most appointing is that, we expect Pascal to continue to be world’s best gaming platform for foreseeable future.
Man sollte in Aussagen vor Investoren nicht zuviel interpretieren und zu zukünftigen Produkten äußert man sich eh nicht, aber genauso könnte es heißen, dass Ampere etwas später zu erwarten ist. Vielleicht erst zur nächsten Computex und somit genau 2 Jahre nach Pascal.
Hübie
2018-02-09, 18:03:37
Ooooder es ist so wie es schon durchscheinte: Ampére ist mehr ein Pascal-refresh als ein Volta-Ableger. Denn wenn wir ehrlich sind ist sogar GP100 näher an Volta als an jeder Pascal GPU.
Um pixeljetstream da mal zu zitieren:
Was hier groß ist, liegt am Betrachter.
Don't fix what ain't broke.
Robbitop sagt auch dass wir hier im Bereich des abnehmenden Grenzertrages sind und wenn meine Infos stimmen, dann gibt es auch keine Tensor Cores in GA1xx. Eine Änderung auf 64 CUDA-Cores pro SM ist ebenfalls unwahrscheinlich und sonst? Tja da gibt es nicht wirklich viele Angriffsvektoren, da man bpsw. beim Cache schon die größten Kritikpunkte abgearbeitet hat. Das einzige was mir spontan einfällt sind irgendwelche Begrenzungen bzgl. der Speicherverwaltung (ich erinnere mich nicht mehr genau was der Inhalt war).
Das preemption sehe ich ebenfalls nicht als ein Problem an, auch wenn es in Wolfenstein 2 mittels der async compute shader keine Verbesserung gibt (was imo ein Indiz für sehr gute Auslastung und Balance ist).
Was bleibt? Die Erhöhung der Einheiten (also GPC/SM/ALU, TMU/TAU, ROP/L2$-slice...) und natürlich bessere Effizienz. Letzteres hat man mir gesagt soll noch mal einen Sprung ähnlich Kepler <-> Maxwell machen (was imo beachtlich war, dafür dass wir uns innerhalb eines Prozesses bewegten).
Mal aus Neugier: Wie könnte man eigentlich die Effizienz prozess-neutral normieren? Also ein hypothetischer Maxwell in 16 nm und ein hypothetischer Pascal in 28 nm (etc.)? Einfach die TSMC Kennzahlen mal heran ziehen? :smile:
w0mbat
2018-02-09, 22:46:26
http://www.guru3d.com/news-story/rumor-nvidia-ampere-might-launch-as-geforce-gtx-2070-and-2080-on-april-12th.html
Guru3D sagt 12.4. für GTX 2070 und GTX 2080. GTX 2070 >= GTX 1080 Ti
Timbaloo
2018-02-09, 22:54:39
Das ganz offensichtliche engineering target.
Unicous
2018-02-09, 23:04:07
http://www.guru3d.com/news-story/rumor-nvidia-ampere-might-launch-as-geforce-gtx-2070-and-2080-on-april-12th.html
Guru3D sagt 12.4. für GTX 2070 und GTX 2080. GTX 2070 >= GTX 1080 Ti
Damit hat das "Gerücht" einen perfekten Kreis beschrieben, ist zum Ursprung zurückgekehrt und ist somit bestätigt.:up:
pixeljetstream
2018-02-09, 23:41:38
Denn wenn wir ehrlich sind ist sogar GP100 näher an Volta als an jeder Pascal GPU.
Ich bin ehrlich und widerspreche
Um pixeljetstream da mal zu zitieren
Excuse me. Das war im Zusammenhang von Theorien das quasi alles über den Haufen geworfen wird, from scratch neue Architektur, was imo nicht sinnvoll ist.
Ich hatte mich auch so geäußert dass ich auch das andere Extrem die Pascal spin off Theorie für sinnfrei halte, man investiert doch nicht in eine neue Generation einfach so zum Spaß.
Hübie
2018-02-10, 00:40:05
Na ja du sagtest auch dass es vom Betrachter abhängt (siehe Zitat), was denn nun eine neue µArch sei. Also sollten wir da mal ansetzen. ;)
GP100 hat keine Tensor Cores, aber sonst ist vieles näher an Volta als an Pascal - zumindest high level betrachtet.
Du bist da sicher näher an der Materie während wir nur oberflächliche Diagramme und Charts angucken können. Und von da aus betrachtet sieht ein GP100 eher wie ein GV100 aus. 64 ALUs /SM mit 64 KB Cache und mehr DP-Units als die restlichen GP10x. Okay die Anzahl der Dispatcher ist gleich: zwei pro 32 ALUs. Das wir das auch nicht beurteilen können liegt daran, dass ein Großteil Nebelkerzen sind. Hilf uns auf die Sprünge.
@w0mbat: Die haben auch nur abgekritzelt. ;D
Edit: Hier (https://forums.anandtech.com/threads/gp100-and-gp104-are-different-architectures.2473319/) wird das was ich meine ganz gut auf den Punkt gebracht.
scully1234
2018-02-10, 01:08:12
Man sollte in Aussagen vor Investoren nicht zuviel interpretieren und zu zukünftigen Produkten äußert man sich eh nicht, aber genauso könnte es heißen, dass Ampere etwas später zu erwarten ist. Vielleicht erst zur nächsten Computex und somit genau 2 Jahre nach Pascal.
vielleicht will man auf Gedeih und Verderb doch noch auf 7nm runter...
Locuza
2018-02-10, 01:12:09
@ Hübie
Bei Nvidia kann man als Vergleich die CUDA Capability heranziehen, da werden die unterschiedlichen Kennzahlen aufgelistet und auch spezifische Features aufgezählt (6.0 = GP100, 6.1 = GP102-108, 7.0 = Volta):
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#compute-capabilities
GP100 verwendet anders balancierte SM-Cluster, aber die ISA, die meisten Features und die allgemeine Funktionsweise ist praktisch gleich.
GV100 besitzt eine andere ISA, ein anderes Cache-System, welches sich nicht nur in der Größe der Caches unterscheide und neue Features.
Eine High-Level-Perspektive ist natürlich ungenau, noch ungenauer wird es wenn man von den groben Eckdaten nur wenige herauspickt.
Hübie
2018-02-10, 03:29:04
Na ja nur hat GP100 2:1 FP16 und FP64, dafür dann aber nicht 4-fache INT8 wie die anderen Pascal (iirc). Auch die Cache-Größen sind näher an V100 wenn man es auf die Rechenblöcke herunter bricht (64/64 vs 96/128). Der Warp-Scheduler ist dagegen wieder mehr Pascal und weniger Volta, also ja kann man jetzt drüber streiten - oder auch nicht.
Aus der Perspektive kann man nun fragen: Ist Ampére Volta ohne Tensor Cores? Dann ist es imo ein Pascal++. Refresh war wohl eine ungünstige Ausdrucksweise meinerseits. ;)
Locuza
2018-02-10, 05:40:11
Und inwiefern hilft die Ausdrucksweise Pascal++?
Ich sehe keinen logischen Strang der dazu führen würde, wenn Ampere genauso aufgebaut wäre wie Volta, nur ohne Tensor-Cores, denn Volta hat eine andere ISA, führt FMA-Operationen in 4-Zyklen durch, gegenüber 6 bei allen Maxwell/Pascals, hat eine andere Cache-Hierarchy und kann dank getrennter FP und INT-Pipes beides gleichzeitig ausführen.
Der Bezugspunkt Pascal ergibt für mich insofern keinen Sinn.
Ich bin ehrlich und widerspreche
Excuse me. Das war im Zusammenhang von Theorien das quasi alles über den Haufen geworfen wird, from scratch neue Architektur.
Ich hatte mich auch so geäußert dass ich auch das andere Extrem die Pascal spin off Theorie für sinnfrei halte, man investiert doch nicht in eine neue Generation einfach so zum Spaß.
Na sie hätten das Teil wohl kaum "gen4" genannt, wenn es nicht auch auf dem Maxwell-Prinzip aufbauen würde. "From Scratch" würde ich mit 7nm erwarten, aber nicht hierfür. Nach Ampere und Navi werden die Karten komplett neu gemischt. Aber jetzt ist relativ klar was kommt.
pixeljetstream
2018-02-10, 09:35:10
Wie definierst Du "from scratch", was würde sich am Aufbau ändern oder was in der Vergangenheit würdest Du als solches bezeichnen.
Mein Standpunkt ist ja dass weder das eine Extrem (from scratch) noch das andere (refresh) wirtschaftlich Sinn macht wenn die Technik vorangebracht wird. Einzelne Bausteine erfahren durchaus größere Änderungen, aber alles übern Haufen zu werfen ist zu viel Risiko.
Aber vielleicht sehe ich das auch zu eng wenn jemand from scratch schreibt, irgendwas ist ja immer neu :)
horn 12
2018-02-10, 09:38:11
Aktualisierte Homepage Startseite
und da geht es von 25-30% über 70 bis 80
und dann 180% Mehrperformance gegenüber GTX 1070 / 1080
Wird wohl ersteres werden!
2-teres wäre echt an der Grenze und würde auch mich zwingen umzusteigen.
AffenJack
2018-02-10, 09:38:11
Na ja nur hat GP100 2:1 FP16 und FP64, dafür dann aber nicht 4-fache INT8 wie die anderen Pascal (iirc). Auch die Cache-Größen sind näher an V100 wenn man es auf die Rechenblöcke herunter bricht (64/64 vs 96/128). Der Warp-Scheduler ist dagegen wieder mehr Pascal und weniger Volta, also ja kann man jetzt drüber streiten - oder auch nicht.
Aus der Perspektive kann man nun fragen: Ist Ampére Volta ohne Tensor Cores? Dann ist es imo ein Pascal++. Refresh war wohl eine ungünstige Ausdrucksweise meinerseits. ;)
Vor allem beim Cache versteh ich deine Argumentation Null. Das ist als würdest du behaupten Intel und AMD haben die gleiche CPU Arch, wenn sich deren Cachegröße zufällig bei 1 Chip gleicht. Volta hat einen völlig anderen Cacheaufbau als Pascal. Das ist ein viel größerer Unterschied. Andere ISA, Trennung INT/ FP. Eher ist Pascal ein Kepler++, als dass Volta selbst ohne Tensor Cores noch ein Pascal ist.
Wie definierst Du "from scratch", was würde sich am Aufbau ändern oder was in der Vergangenheit würdest Du als solches bezeichnen.
Mein Standpunkt ist ja dass weder das eine Extrem (from scratch) noch das andere (refresh) wirtschaftlich Sinn macht wenn die Technik vorangebracht wird. Einzelne Bausteine erfahren durchaus größere Änderungen, aber alles übern Haufen zu werfen ist zu viel Risiko.
Struktur und Organisation werden sich halt wohl kaum ändern. Das ist glaub ich das, was Hübie meinte. Von der Organisation her wird Ampere sich an Maxwell und Pascal orientieren.
Wie ich schon früher geschrieben habe, waren für mich G80 bis Tesla eine Generation, Fermi bis Kepler und Maxwell bis Ampere.
Bei der Nachfolgegeneration wird man, genau wie bei AMD, kaum einen Stein auf dem anderen lassen, da werden einfach neue Strukturen nötig sein um noch größere Organisationsformen zu ermöglichen ohne dabei die Effizienz zu verlieren. Mehr als die 5300 Shader der GV100 könnte auf der Maxwell-Basis kaum möglich sein, genau wie bei Navis (mMn) 128 CUs Schluss sein wird mit GCN.
Natürlich erfahren in der Praxis einzelne Komponenten sehr starke Änderungen. Der neue Rasterizer der Vega ist sicherlich nicht mit dem Vorgängermodell vergleichbar. Auch Ampere wird vereinzelt schon recht starke Änderungen im Vergleich zu Pascal erhalten.
Letztendlich ist das alles Definitionssache, wie man das sieht, wie groß irgendwelche Änderungen irgendwo sind.
pixeljetstream
2018-02-10, 11:04:56
ja mit der Definitionssache hast definitiv Recht, was mich bei Hübie's Aussage halt störte ist das plötzlich Pascal im Vordergrund trat statt Volta als Basis.
Und wie Du schreibst ,der Druck aus weniger mehr zu machen steigt in der Tat. Wenn die Chips rauskommen, ist ja nicht jeder Baustein in seinem bestmöglichsten Zustand, vom Design her, sondern von dem was im Zeitrahmen machbar war. Das heißt es gibt immer etwas von dem man weiß, dass es besser geht ohne wirklich am Gesamtgerüst rütteln zu müssen (siehe Volta's Cache). Ergo passt Deine Analogie ganz gut, auch wenn das Haus dann am Ende immer noch Hersteller Stil aussieht ;)
Hübie
2018-02-10, 12:31:23
Ist gut, ihr habt mich überzeugt. Dann bezeichne ich Ampere eher als Volta - TC, einverstanden? Mir ist nicht klar ob es nun eine super komplexe Änderung ist den Cache zusammenzufassen und konfigurierbar zu machen oder ob es, relativ betrachtet, einfach ist - daher auch meine vielleicht blauäugige Argumentation. Getrennte FP/INT gab's doch schon bei Pascal.
Locuza
2018-02-10, 22:01:19
Es ist noch gar nicht klar, wie Ampere aussehen wird und welche Änderungen dort im Vergleich zu Pascal und Volta bestehen.
Entsprechend muss man das einfach abwarten
Bezüglich INT/FP im Volta-Whitepaper:
Simultaneous Execution of FP32 and INT32 Operations
Unlike Pascal GPUs, which could not execute FP32 and INT32 instructions simultaneously, the Volta GV100 SM includes separate FP32 and INT32 cores, allowing simultaneous execution of FP32 and INT32 operations at full throughput, while also increasing instruction issue throughput.
Dependent instruction issue latency is also reduced for core FMA math operations, requiring only four clock cycles on Volta, compared to six cycles on Pascal.
Many applications have inner loops that perform pointer arithmetic (integer memory address calculations) combined with floating-point computations that will benefit from simultaneous execution of FP32 and INT32 instructions.
Each iteration of a pipelined loop can update addresses (INT32 pointer arithmetic) and load data for the next iteration while simultaneously processing the current iteration in FP32.
gravitationsfeld
2018-02-10, 22:09:41
Sollte einiges bringen, ich versteh nur nicht warum sie immer noch keine skalare Rechen-Einheit haben. Die meisten Adresskalkulationen sind ziemlich uniform.
Hübie
2018-02-10, 22:20:47
Braucht man die denn zwingend? Wie werden Adressen denn momentan auf einer Geforce berechnet?
@Locuza: Hier (https://devblogs.nvidia.com/mixed-precision-programming-cuda-8/) steht halt dass GP100 FP16 und INT32 (4*INT8) beherrscht, aber dann eben nicht simultan oder wie? Das war mir bisher nie so klar bzw. ist es das eigentlich immer noch nicht, denn wo wird hier aufgetrennt? Auf GPC-Ebene? Auf SM-Ebene? Oder Compute blocks? :confused:
Locuza
2018-02-10, 22:43:53
DPA4 (4xINT8) gilt in dem Fall nur für GP102-106 (Vermutlich auch 107/8 und möglicherweise den Pascal Tegra).
Laut Whitepaper nicht simultan, vermutlich hat Nvidia bei Pascal INT und FP-Pipes an einem Port gehabt und nur jeweils die eine oder andere Pipe verwenden können, ähnlich wie es Intel bei ihren CPUs umsetzt.
Bei Volta ist es nun unabhängig.
Das ganze wäre logischerweise auf Core-Ebene, mit weiteren Anpassungen drum herum, was das Schedulung angeht.
gravitationsfeld
2018-02-10, 23:07:42
Braucht man die denn zwingend? Wie werden Adressen denn momentan auf einer Geforce berechnet?
SIMD halt. Jeder "Thread" berechnet sie, egal ob sie gleich sind oder nicht.
Es geht nicht um "zwingend brauchen", es geht darum, dass was GCN macht effizienter ist.
Leonidas
2018-02-11, 06:06:10
Damit hat das "Gerücht" einen perfekten Kreis beschrieben, ist zum Ursprung zurückgekehrt und ist somit bestätigt.:up:
Warte noch, bis es in 1-2 Monaten nochmals aus Fernost "bestätigt" wird!
Hübie
2018-02-11, 11:02:35
SIMD halt. Jeder "Thread" berechnet sie, egal ob sie gleich sind oder nicht.
Es geht nicht um "zwingend brauchen", es geht darum, dass was GCN macht effizienter ist.
Entschuldige wenn diese Frage unsinnig ist:
Kann man diese Speicheradressberechnung parallel bzw. simultan zu anderen Berechnung auf einem SIMD-Block laufen lassen oder ist dieser dann 'blockiert'?
@Locuza: Gestern ist mir dass dann etwas klarer geworden. Danke. :up: Und stimmt: GP100 hat FP64 bis FP16 mit deutlich besseren Raten als GP10x, welche wiederum bessere INT-Raten hat. Da Frage ich mich: "Warum haben die Gamer-Chips eigentlich bessere INT-Raten - wird bei Spielen viel Integer genutzt?" :uponder:.
basix
2018-02-11, 11:25:11
Es gibt ein paar sehr energieffiziente Teslas / Quadros für DL. Glaube sogar eine 60W Version mit GP104.
pixeljetstream
2018-02-11, 12:25:40
@Hübie, es wäre viel teurer die Ergebnisse dann wieder auszutauschen. Also du müsstest mehrere Adressberechnungen von unterschiedlichen warps sammeln, dann gemeinsam ausführen und wieder verteilen, viel zu kompliziert. AMD spart sich auch register, weil die dann auch per wavefront sind, statt per thread, was sich bei ihren breiteren Wavefronts vermutlich schon nicht unwesentlich auswirkt.
@basix http://images.nvidia.com/content/pdf/tesla/184457-Tesla-P4-Datasheet-NV-Final-Letter-Web.pdf (Tesla P4 mit 50/75 Watt angegeben)
Troyan
2018-02-11, 12:32:38
@Locuza: Gestern ist mir dass dann etwas klarer geworden. Danke. :up: Und stimmt: GP100 hat FP64 bis FP16 mit deutlich besseren Raten als GP10x, welche wiederum bessere INT-Raten hat. Da Frage ich mich: "Warum haben die Gamer-Chips eigentlich bessere INT-Raten - wird bei Spielen viel Integer genutzt?" :uponder:.
GP100 war der erste Pascal-Chip, der sein Tape-Out hatte. Da hat es 2x INT16 und 4x INT8 nicht in den Chip geschafft.
Hübie
2018-02-12, 17:37:56
Das klingt in dem Kontext, dass GP100 eh einen kurzen Lebenzyklus hatte relativ plausibel, ja. Daran hatte ich nicht gedacht.
ps: Heute die vorletzte Hausarbeit für's Studium abgegeben. Jetzt ist der Kopf wieder etwas freier. :D
@pixeljetstream: Also liegt der Nachteil bei einer fehlenden Skalareinheit aktuell einfach darin, dass man einen SIMD-Slot für eine Skalarberechnung "verbrät"? Ist das so tragisch? Mir ist der Vorteil jetzt noch nicht so richtig klar, sorry. :redface:
pixeljetstream
2018-02-12, 20:03:22
ja, wie gravitationsfeld schon sagte es ist einfach per Definition effizienter nicht N mal das gleiche zu berechnen, also sollte eigentlich einleuchten das 1x besser als Nx, insofern die anderen dann Nx was anderes tun können ;)
gravitationsfeld
2018-02-12, 20:20:56
Skalareinheit kann parallel arbeiten auf GCN, das macht auch Branches auf Konstanten "kostenlos", weil die SIMDs sich erst gar nicht darum kuemmern muessen.
Das teilweise Aequivalent dazu bei NVIDIA ist die UBO-Hardware. Die macht z.B. Read-Coalescing bei uniformen Loads von den SIMDs. Bei AMD muss man das in Software machen, wenn der Compiler es nicht selber erkennt. Der "Konstanten"-Cache haengt bei AMD auch einfach an der Skalar-Einheit.
Hübie
2018-02-12, 23:43:17
ja, wie gravitationsfeld schon sagte es ist einfach per Definition effizienter nicht N mal das gleiche zu berechnen, also sollte eigentlich einleuchten das 1x besser als Nx, insofern die anderen dann Nx was anderes tun können ;)
Kann man das nicht einfach im Register halten, Abgleichen ob andere Threads das Ergebnis brauchen und denen geben? Klingt nach einem Netzwerk... :freak: Wie auch immer ich danke euch. :smile:
Edgecrusher86
2018-02-13, 16:09:50
Hm...
The new GPU gaming chip, code named Turing, is expected to be unveiled next month.
https://www.reuters.com/article/us-nvidia-results-research/frenzied-demand-for-nvidias-graphic-chips-shoot-prices-through-the-roof-idUSKBN1FT2AW
Warum Turing? :confused: Besteht die GPU den Turingtest? X-D
Bucklew
2018-02-13, 16:17:16
Warum Turing?
Warum Tesla? Warum Fermi? Warum Maxwell? Warum Pascal? :eek:
Hm...
https://www.reuters.com/article/us-nvidia-results-research/frenzied-demand-for-nvidias-graphic-chips-shoot-prices-through-the-roof-idUSKBN1FT2AW
Aha, da ist NVs 7nm-Generation :D. Die Frage ist nur, ob Volta-Nachfolger oder Ampere-Nachfolger.
dildo4u
2018-02-13, 17:38:48
Das passt doch Super KI ist im GPU Bereich das Schlagwort für die nästen Jahre.Für KI Beschleunigung braucht man keine FP 64,es ist also nicht zwingend ein reiner Gameing Chip.
Thunder99
2018-02-13, 17:40:41
Eventuell auch überhaupt nicht vergleichbar mit Pascal, Volta, etc sondern ein eigener Chip für einen ganz speziellen Bereich (dafür verdammt schnell)
BlacKi
2018-02-13, 18:03:08
Das passt doch Super KI ist im GPU Bereich das Schlagwort für die nästen Jahre.Für KI Beschleunigung braucht man keine FP 64,es ist also nicht zwingend ein reiner Gameing Chip.
also haben wir bald alle KIs in den gaming rechnern?
Platos
2018-02-13, 18:29:34
Das passt doch Super KI ist im GPU Bereich das Schlagwort für die nästen Jahre.Für KI Beschleunigung braucht man keine FP 64,es ist also nicht zwingend ein reiner Gameing Chip.
Gaming wurde bei nvidida in letzter Zeit aber immer mehr zu nur Gaming und ist immer mehr individualisiert worden. Gibt ja auch keinen GP 100 bei GeForce mehr usw.
Hübie
2018-02-13, 18:41:59
GP100 war doch offensichtlich nur ein Intermezzo. GV100 gibt es zwar nicht offiziell fürs Gaming aber bisher sehe ich von Titan V im speziellen fast nur Spielebenchmarks. ;) Da ist also eine falsche Marktadressierung passiert (wahrscheinlich sogar bewusst).
Turing würde ich jetzt nicht mit Gaming-Chips verbinden... :| Da ist zwar Potenzial, aber noch gibt's keine Standards. Wäre imo zu früh einen Chip darauf hin zu entwickeln, oder was meint ihr? Die Adaption von Softwarestacks dauert ewig.
Platos
2018-02-13, 18:46:41
GP100 war doch offensichtlich nur ein Intermezzo. GV100 gibt es zwar nicht offiziell fürs Gaming aber bisher sehe ich von Titan V im speziellen fast nur Spielebenchmarks. ;) Da ist also eine falsche Marktadressierung passiert (wahrscheinlich sogar bewusst).
Turing würde ich jetzt nicht mit Gaming-Chips verbinden... :| Da ist zwar Potenzial, aber noch gibt's keine Standards. Wäre imo zu früh einen Chip darauf hin zu entwickeln, oder was meint ihr? Die Adaption von Softwarestacks dauert ewig.
Stimmt zwar, aber vom Preis her war die für mich jenseits von Gaming. Aber jeder wie er will :biggrin:
Wobei der Preis nicht entscheidet, aber man hat ja gesehen, dass der Schwerpunkt der Karte definitiv nicht beim Gaming gesetzt wurde:biggrin:
Hübie
2018-02-13, 18:57:35
Für 3.000,-€ ist sie in jedem mini HPC Cluster ein Schnäppchen. Für Gamer das Gegenteil. Wenn Geld bei mir keine Rolle spielen würde, dann würde ich mir auch eine für 5.000,-€ kaufen, solange es denn top tier für den Moment ist. :D Aber da 99,922% aller Haushalte unternehmerisch denken und handeln kommt es eben nicht in Frage so viel dafür auszugeben. :D Was Turing sein soll können wir ja eh nur mutmaßen, wenn wir nicht mal Specs von Ampére kennen.
AffenJack
2018-02-13, 20:05:55
Turing muss kein Gaming Chip sein. Gut möglich, dass da der Fehler bei Reuters liegt. Es ist klar, dass eine GPU mit massiver Tensor Core Leistung in Q2 kommt, denn diese ist für Drive PX Pegasus angekündigt. Sogar mit mehr TC Flops als Volta V100. Also packt Nv entweder massiv TCs in eine Gaming Gpu oder es ist ein seperater Chip. Ich glaube an den seperaten Chip und dieser passt dann eben zu Turing.
Ampere dagegen wären die Gamingchips. Fudzilla kam anfang des Jahres auch mit einer News, dass es dieses Jahr verschiedene Chips geben wird:
https://www.fudzilla.com/news/graphics/45225-nvidia-has-two-big-gpus-in-2018
Ich hasse zwar Fud, aber auch ein blindes Huhn findes mal ein Korn und das passt mit der Reutersmeldung einfach ziemlich gut.
Hübie
2018-02-13, 20:48:47
Ich hätte es nicht besser formulieren können, AffenJack. :up: Das waren meine Gedanken.
Auch Computerbase verbindet den Namen Turing mit einem Chip für KI-Berechnungen:
Nvidia Turing: Fragwürdige Gerüchte über neue Nvidia-GPU für Spieler (https://www.computerbase.de/2018-02/nvidia-turing-rumor/)
Da ja schon Ampere als GPU-Nachfolger für Spieler bekannt gegeben wurde, was soll da plötzlich eine GPU mit Turing als Spieler-GPU sein? :confused:
Turing muss kein Gaming Chip sein. Gut möglich, dass da der Fehler bei Reuters liegt. Es ist klar, dass eine GPU mit massiver Tensor Core Leistung in Q2 kommt, denn diese ist für Drive PX Pegasus angekündigt. Sogar mit mehr TC Flops als Volta V100. Also packt Nv entweder massiv TCs in eine Gaming Gpu oder es ist ein seperater Chip. Ich glaube an den seperaten Chip und dieser passt dann eben zu Turing.
Ampere dagegen wären die Gamingchips.
Vermutung:
Ab Pascal spaltet sich die Entwicklung auf in Volta und Ampere, und Turing ist der Nachfolger von Volta?
Timbaloo
2018-02-13, 23:13:40
Passt aber irgendwie nicht zum angeblich zeitnahen Release.
Platos
2018-02-13, 23:34:31
Für 3.000,-€ ist sie in jedem mini HPC Cluster ein Schnäppchen. Für Gamer das Gegenteil. Wenn Geld bei mir keine Rolle spielen würde, dann würde ich mir auch eine für 5.000,-€ kaufen, solange es denn top tier für den Moment ist. :D Aber da 99,922% aller Haushalte unternehmerisch denken und handeln kommt es eben nicht in Frage so viel dafür auszugeben. :D Was Turing sein soll können wir ja eh nur mutmaßen, wenn wir nicht mal Specs von Ampére kennen.
Ich würde selbst dann immer "nur" höchstens die "normale" Titan nehmen oder xx80 und dann zur xx80ti springen usw. Es sei denn natürlich, die eine 3000 Titan wäre auch wenigstens viel besser als eine "normale" Titan im Gaming. Dann würde ich auch mehr bezahlen.
Und ja, die Karte ist eigentlich vom Namen her gesehen (GeForce) wirklich am falschen Platz. Sie ist ja nicht grundsätzlich schlecht, nur eben als Gaming-Karte.
Es wird eher spannend, wie bei dem Nachfolger das Preis-/Leistungsverhältnis sein wird. Da Nvidia es nun schon zur Genüge ausgereizt hat, sehe ich für eine potentielle 2080 (TI) einen Einstiegspreis von >=800 $, ich schätze mal 899 € als Founders Edition. Warum? Weil sie es können. :frown:
Platos
2018-02-13, 23:40:16
Es wird eher spannend, wie bei dem Nachfolger das Preis-/Leistungsverhältnis sein wird. Da Nvidia es nun schon zur Genüge ausgereizt hat, sehe ich für eine potentielle 2080 (TI) einen Einstiegspreis von >=800 €.
Ja was jetzt, 80TI oder non TI? Für eine Ti wäre das ja jetzt nicht sooo schlimm, für eine 80-er wäre das schon viel. Aber die letzte 80-er hat doch auch ca. 750 Euro gekostet, anfangs ? Aber ja, kann sein, aber ich hoffe mal nicht, auch wenn es vermutlich so sein könnte. Irgendwann sind dann die 50-er die neuen 60-er usw. (wobei sie das zum jetzigen Preispunkt ja schon sind).
Thunder99
2018-02-14, 07:58:10
Eine Erhöhung erwarte ich auch. Wenn es günstiger wird heißt es in der Regel das was nicht so ist wie es sein sollte.
Bei gleichem Preis passt alles und Nvidia ist zufrieden mit der Marge
Ja was jetzt, 80TI oder non TI?
Sorry, ich dachte, alle hätten hier die Releases im Blick und im Gedächnis:
https://www.3dcenter.org/news/nvidia-ampere-geruechtekueche-gp102-produktion-bereits-eingestellt-ga104-seit-februar-produktio
Anfang Q2 kommt die 2080, ~Q4/2018-Q1/2019 dann die 2080 TI. Ist doch seit der 9xx-Serie bei Nvidia so, erst folgt
xx80
Titan ? ca. 3-4 Monate später
xx80 TI ca. 2-4 Monate später
Ich setze das mittlerweile als Allgemeinwissen voraus. :cool:
Bucklew
2018-02-14, 09:37:54
Eine 2080-Karte für 899US$ ergibt überhaupt gar keinen Sinn. Damit würde sich NVIDIA den Umsatz im Gamingbereich kaputt machen.
Spannend wird eher die 2070 mit Vega64-Leistung bei nicht mal der Hälfte der Leistungsaufnahme, da wären 499US$ ein ziemlich geiler Preis, wenn man sich mal die Vega-Preise anschaut.
Thunder99
2018-02-14, 09:50:41
Finde ich nicht das es ein geiler Preis wäre. Dies ist bezogen auf die letzten Generationen bei 399-449$.
Die 80er wird dann eher bei 749 landen wenn sie wirklich gut ist.
Preise von Vega braucht es da nicht
Bucklew
2018-02-14, 11:42:43
Vega gibt es aktuell nicht für unter 800€.
Eine 749€ GTX2070, noch dazu lieferbar, wäre ja quasi ein Schnapper.
Man sollte keine Preisdiskussion führen, ohne die aktuelle Situation zu beachten.
MadPenguin
2018-02-14, 11:47:59
Vega gibt es aktuell nicht für unter 800€.
Eine 749€ GTX2070, noch dazu lieferbar, wäre ja quasi ein Schnapper.
Man sollte keine Preisdiskussion führen, ohne die aktuelle Situation zu beachten.
Du kannst doch keine durchs Mining verzerrten Preise mit UVP Preise vergleichen :)
MadPenguin
2018-02-14, 11:49:48
Spannend wird eher die 2070 mit Vega64-Leistung bei nicht mal der Hälfte der Leistungsaufnahme, da wären 499US$ ein ziemlich geiler Preis, wenn man sich mal die Vega-Preise anschaut.
Habe ich was verpasst und es gibt schon leaks? Leistung und Aufnahme schon bekannt? ;D
Bucklew
2018-02-14, 11:54:53
Du kannst doch keine durchs Mining verzerrten Preise mit UVP Preise vergleichen :)
Warum nicht? Muss ich durch Mining verzerrte Preise etwa nicht bezahlen? :rolleyes:
Habe ich was verpasst und es gibt schon leaks? Leistung und Aufnahme schon bekannt? ;D
Glaubst du wirklich nach zwei Jahren legt NVIDIA +10% Leistung bei identischer Leistungsaufnahme nach? :rolleyes:
Bleibt doch mal realistisch.
Könnte vielleicht auch eine auf mining spezialisierte GPU werden. Turing war in WW2 an der entschlüsselung der Enigma beteilligt... also Kryptographie. Fänd ich auf jeden fall gut, weil die miner dann die gamer GPUs in frieden lassen würden.
Timbaloo
2018-02-14, 12:53:34
Könnte vielleicht auch eine auf mining spezialisierte GPU werden. Turing war in WW2 an der entschlüsselung der Enigma beteilligt... also Kryptographie. Fänd ich auf jeden fall gut, weil die miner dann die gamer GPUs in frieden lassen würden.
Naja, es würde die Preise der Gaming-Chips dennoch nicht unbeeinflusst lassen, denn die Fertigungskapazitäten sind begrenzt und wenn der Bedarf an Mining-Chips so bleibt, dann werden halt auch wieder die Kapazitäten für Gaming knapper, und ergo teurer.
Aber blöd finde ich die Idee nicht. Allzu viel R&D wird man dafür nicht brauchen, rechnen dürfte sich so ein Konstrukt schnell, und der Druck auf die Radeon Group wäre immens.
Troyan
2018-02-14, 12:59:14
Kapazitäten gibt es genug. Die Nachfrage ist das Problem. Es ist eben ein Glaubenssprung: Wird Mining bzw. Blockchain immer so bedeuten sein, dass solche "Mining"-Produkte einen Markt haben.
AlphaNUSS
2018-02-14, 13:01:40
Die gaming karten werden so lange gekauft, wie es sich lohnt damit zu minen. Dedizierte mining Karten ändern daran nichts
Timbaloo
2018-02-14, 13:04:46
Die gaming karten werden so lange gekauft, wie es sich lohnt damit zu minen. Dedizierte mining Karten ändern daran nichts
Wenn man davon ausgeht, dass dedizierte Mining-Karten hinsichtlich Hash/W besser sind, dann wird das Gaming-Karten sehr schnell sehr uninteressant.
Hübie
2018-02-14, 13:41:52
Eine 2080-Karte für 899US$ ergibt überhaupt gar keinen Sinn. Damit würde sich NVIDIA den Umsatz im Gamingbereich kaputt machen.
Spannend wird eher die 2070 mit Vega64-Leistung bei nicht mal der Hälfte der Leistungsaufnahme, da wären 499US$ ein ziemlich geiler Preis, wenn man sich mal die Vega-Preise anschaut.
Seit Kepler ersetzen die 70er die top tiers der Geforce Reihe (580<->670, 680<->770, 780 Ti<->970, 980 Ti<->1070, 1080 Ti<->2070(?)).
Also würde der Logik folgend Vega64 mal mit der 60er und mal knapp mit der 70er konkurrieren (bei wahrscheinlich viel zu hohem Preis und Verbrauch).
Wenn man davon ausgeht, dass dedizierte Mining-Karten hinsichtlich Hash/W besser sind, dann wird das Gaming-Karten sehr schnell sehr uninteressant.
Man sieht es doch aktuell: es gibt ASICs fuer Bitcoin und das aendert an der Nachfrage rein gar nichts, weil es etliche Altcoins gibt, die sich eben auch oder nur mit GPUs effizient schuerfen lassen. Ausserdem sind die neueren ja auch speziell auf GPUs designt. Und da gibt es auch groessere Unterschiede was die Effizienz anbelangt, trotzdem ist durch die Bank alles ausverkauft und nicht nur die effizientesten Karten. Nur weil Nvidia bei equihash besser ist, wird trotzdem noch AMD gekauft usw.
Also würde der Logik folgend Vega64 mal mit der 60er und mal knapp mit der 70er konkurrieren (bei wahrscheinlich viel zu hohem Preis und Verbrauch).
Analog zu Fiji halt...
Eine 2080-Karte für 899US$ ergibt überhaupt gar keinen Sinn. Damit würde sich NVIDIA den Umsatz im Gamingbereich kaputt machen.
Schau Dir doch mal die Grafikkartenpreise beim Lauch in den letzten Jahren an, die sind stetig stark gestiegen. Und trotzdem hat sich das alles verkauft wie geschnitten Brot. Da liegt es nahe, daß Nivida den Teufel tun wird, und die Preise senkt. Dazu kommen noch die von Dir erwähnten Minerpreise, die alles hochjagen. Ich fürchte, wir werden unter 800-900 € für eine 2080 bei den ersten Lauchpreisen nicht weggkommen.
Z.B. lag die Gainward Founders Edition 1080 beim Launch bei 789 €, so wie alle Founder Editions von anderen Herstellern. Die Ti-Version eine Weile später vom gleichen Hersteller bei 819 € beim Launch.
Könnte vielleicht auch eine auf mining spezialisierte GPU werden. Turing war in WW2 an der entschlüsselung der Enigma beteilligt... also Kryptographie. Fänd ich auf jeden fall gut, weil die miner dann die gamer GPUs in frieden lassen würden.
Das liegt wirklich nahe, nur wie hier einige zurecht bemerken, das wird den Markt nicht besänftigen, wenn nicht Nvidia entsprechende Stückzahlen zum entsprechenden Preis raushaut.
Ich glaub nicht an steigende Preise. Schon das jetzige Verhalten von NV bezüglich des Minings lässt erahnen, dass die Sorge haben Spieler als Kundschaft zu verlieren. Man wird mMn auch versuchen mit Ampere Spiele und Compute-Markt zu trennen.
Die 2070 wirds sicherlich für 500-550€ geben und die 2080 für 650 €+.
Timbaloo
2018-02-14, 14:13:28
Man sieht es doch aktuell: es gibt ASICs fuer Bitcoin und das aendert an der Nachfrage rein gar nichts, weil es etliche Altcoins gibt, die sich eben auch oder nur mit GPUs effizient schuerfen lassen.
Also du sagst selbst, dass es Bitcoins gibt die sich auch oder gar nur mit GPUs effizient berechnen lassen. Und ich sage es kann ein Design, abgeleitet von einem GPU-Design, geben welches effizienter als eine klassische GPU arbeitet (ohne dabei eine fixed function "Architektur" zu sein). Das sagt mir der gesunde Menschenverstand. Die relevante Frage ist: Sieht NV einen strategischen Vorteil einen solchen Chip auch zu bauen.
Der Rest ist Meinungsrauschen.
AlphaNUSS
2018-02-14, 14:13:39
Wenn man davon ausgeht, dass dedizierte Mining-Karten hinsichtlich Hash/W besser sind, dann wird das Gaming-Karten sehr schnell sehr uninteressant.
Das setzt aber auch voraus, dass die mining Karten in ausreichender Stückzahl vorhanden sind. Wenn der Bedarf nicht gedeckt wird, werden auch wieder die gaming Karten von minern gekauft..
Ravenhearth
2018-02-14, 14:19:58
Ich bin ehrlich gesagt überrascht, dass wir immer noch nicht wissen, ob Ampere nun in 12nm oder 10nm kommt. Soweit ich das sehe, ist beides möglich, und wenn Nvidia nicht auf 10nm geht, würden sie potenziell einige Leistung liegen lassen. Gibt es denn handfeste Argumente gegen die Nutzung von 10nm (Kapazitäten, Kosten, etc.)?
Bucklew
2018-02-14, 14:21:06
Schau Dir doch mal die Grafikkartenpreise beim Lauch in den letzten Jahren an, die sind stetig stark gestiegen.
Nö, sind sie nicht:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11604424&postcount=750
Im oberen Bereich ist die Verschiebung im Preis nahezu irrelevant (x80 z.B. von 980 auf 1080 gerade mal 50US$), dafür gibt es keinerlei Abflachung in der Leistung mehr in diesem Bereich.
Selbst wenn man den Sprung Maxwell->Pascal interpoliert, so läge eine GTX2080 bei 649US$, eine GTX2070 bei 429US$. 429US$ für Vega64-Leistung bei halber Leistungsaufnahme wäre einfach ein Schnäppchen.
Diese Generation könnten wir aber auch einen Maxwell-Moment sehen, wo von Kepler (780 für 699US$) es um 100US$ runter ging auf 599. Dann läge die GTX2080 bei 499US$. Möglich wäre es, die Fertigungskosten sollten sich nicht massiv verändern zwischen 1080 und 2080, anders, als sie sich eben zwischen 980 und 1080 verändert (und damit eben die Preissteigerung für die 1080 notwendig gemacht) haben .
AlphaNUSS
2018-02-14, 14:28:34
Die gtx 970 hat zu realese 350€ gekostet, die gtx 1070 hingen 500€.
https://geizhals.eu/?phist=1167950&age=9999
https://geizhals.de/?phist=1456552&age=9999
Klevapalis
2018-02-14, 14:34:42
Die GTX1070 gab es auch für deutlich unter 500€.
Alleine 15% der Preissteigerung gehen auf den Wechselkurs (0,77€ im Sept. 14, 0,88€ im Juni 16)
AlphaNUSS
2018-02-14, 14:38:19
Welche denn? Laut PCGH Test und geizhals ist kein Modell für unter 500€ rausgekommen. Das blower Lüfter Modell von MSi gabs für 480€.
Hübie
2018-02-14, 15:18:01
Können wir die bereits x-Fach durchgekaute Preisdiskussion lassen? :rolleyes:
@iuno: Fiji (Edit: damit meine ich FuryX!) war zu Release schon nicht gut und ist mittlerweile Schrott. Vega wird mit der Zeit wahrscheinlich besser werden. Aber nichts desto trotz bedeutet es, dass NV über 1,5 Jahre Vorsprung vor AMD hat, ähnlich wie es Intel im CPU-Sektor hatte. Wie schnell sich ein Blatt wendet wurde dort aber ebenso gezeigt, also nix auf die Goldwaage legen. ;)
Turing würde ich auch so einordnen wie Timbaloo sagt: Ein ASIC mit allem was in der GPU fürs Mining genutzt wird. Die brauchen keinen UVD, Displaycontroller, keine TMU Sampler, keine ROPs und vieles vom Frontend gar nicht. Die Rechenblöcke und den Scheduler kann man entsprechend breiter bauen. Man überlege mal was in 300 mm² so alles rein ginge und was man für absurde Preise aufrufen könnte. :D Wahrscheinlich möchte man einen Markt erschließen um die (noch?!) Haupteinnahmequelle strategisch zu schützen. Kurzfristig mag es egal sein wohin man GPUs verkauft, aber wenn durch GPU-Preise viele Käufer zu Konsolen gedrängt werden, verliert man ne Käuferbasis auf längere Zeit und spielt nebenbei AMD zu.
Der Mining-Markt unterliegt noch zu vielen Schwankungen (Unsicherheit) und die Nachfrage könnte entweder rapide absacken oder zunehmen. Dafür gibt es noch zu wenig Erfahrungswerte wie sie selber sagen.
Momentan rechnet man wohl nur über Umwege hoch wie viele GPUs im Mining-Bereich gelandet sind (dank der GFE Telemetriedaten hat man ja schon einen guten Anhaltspunkt).
Bucklew
2018-02-14, 15:25:58
Intel hat sich natürlich stark bei den Innovationen zurück gehalten und nur marginale Leistungssteigerungen geliefert. Klar konnte AMD da plötzlich doch wieder mit halten.
Bei NVIDIA kann man dieses abflachen - zumindest bisher - nicht erkennen. Pascal hat eine ordentliche Schippe Leistung oben drauf gelegt und ich glaube nicht, dass der nächste Gamingchip, egal wie er heißt, da großartig anders sein wird.
Können wir die bereits x-Fach durchgekaute Preisdiskussion lassen? :rolleyes:
@iuno: Fiji war zu Release schon nicht gut und ist mittlerweile Schrott. ....
... wie man bspw. hier eindeutig sieht http://gamegpu.com/action-/-fps-/-tps/kingdom-come-deliverance-test-gpu-cpu
Denke endlich mal darüber nach, was du dir hier immer wieder anmaßt.
Bucklew
2018-02-14, 15:56:20
Mjam, Kirschen!
Hübie
2018-02-14, 16:11:29
OT zu Fiji:
Das hat weder was mit Anmaßen noch mit einer Kirsche zu tun. :rolleyes: Ich gehe jede Wette ein dass meine 980 Ti auch in KCD Fiji zersägt - momentan ist das wohl eh nicht repräsentativ. Und komm mir nicht mit FullHD (:P). Davon ab: Die Russen kannst du eh vergessen (kein Frameverlauf, 0,1-1% low). Was fühlst du dich denn so auf den Schlips getreten?
Hier eine Analyse die ich vor ~1 Jahr erstellt habe (werde ich bei Gelegenheit noch mal erweitern so dass neue Titel und Treiber drin sind).
https://abload.de/img/furyx_to_980tinepzw.png (http://abload.de/image.php?img=furyx_to_980tinepzw.png)
Zu Release trennten die beiden 10%, Q1'17 dann nur noch 6% (und das bei einer Ti die mit 1006-1076 MHz läuft!). Jede 980 Ti die ich kenne boostet deutlich höher wie z.B. nur die aus dem HWL:
https://abload.de/img/gm200-asci-list9duf3.png (http://abload.de/image.php?img=gm200-asci-list9duf3.png)
est. Max Minus eins, zwei Stages, dann hast du den Realtakt der dauerhaft im Spiel ist. Durchschnitt sind 1311 MHz, was dem was PCGH (1356 MHz) nimmt nah kommt. Wie viele Fiji Besitzer sind hier noch geblieben und wie viele sind noch zufrieden und wie viele GM-200-Besitzer konnten Pascal bequem überspringen? Ich bleibe dabei: Fiji ist mittlerweile Schrott weil man ständig herunter regeln muss.
Timbaloo
2018-02-14, 16:19:42
... wie man bspw. hier eindeutig sieht http://gamegpu.com/action-/-fps-/-tps/kingdom-come-deliverance-test-gpu-cpu
Denke endlich mal darüber nach, was du dir hier immer wieder anmaßt.
Also verglichen mit dem Speicherkrüppel GTX 970 laut PCGH zwischen 30% und 45% schneller. Bei einem 50% größeren Chip und HBM.
Ich muß sagen die 970 altert verdammt gut ;D
http://www.pcgameshardware.de/Kingdom-Come-Deliverance-Spiel-16151/Specials/Benchmark-Test-Review-Gameplay-1249935/
PS: Diese rauspicken von einzelnen Benchmarks (dann auch noch von russischen Seiten) ist eine Sünde die hier mit dem Tod bestraft werden sollte.
Hübie
2018-02-14, 16:24:24
Warum mit einer 970 vergleichen? FuryX war weder preislich noch von Performance oder dem Verbrauch auch nur in der Nähe dieser. Das die 970 generell keinen langen Zyklus hat, war imo damals schon klar und die ist noch mehr Schrott als Fiji. All meine Freunde sind von dem Müll weg. Nun aber bitte b2t. :smile:
N0Thing
2018-02-14, 16:37:05
PS: Diese rauspicken von einzelnen Benchmarks (dann auch noch von russischen Seiten) ist eine Sünde die hier mit dem Tod bestraft werden sollte.
Diese russische Seite macht nun mal gute und ausführliche Benchmarks. Cherry picking ist aber in der Tat immer uncool.
Diese Generation könnten wir aber auch einen Maxwell-Moment sehen, wo von Kepler (780 für 699US$) es um 100US$ runter ging auf 599. Dann läge die GTX2080 bei 499US$. Möglich wäre es, die Fertigungskosten sollten sich nicht massiv verändern zwischen 1080 und 2080, anders, als sie sich eben zwischen 980 und 1080 verändert (und damit eben die Preissteigerung für die 1080 notwendig gemacht) haben .
Glaube ich nicht, die 1080 startete mit $699 UVP, da würde ich mindestens $599 UVP für eine GTX 2080 erwarten, wenn sie von der Leistung an eine 1080Ti heran kommt.
Hängt am Ende aber wohl von der gewählten Fertigung ab und den damit möglichen Verbesserungen der Chips.
Hübie
2018-02-14, 17:03:26
MSRP waren 599$ + taxes und die FE wurde für 699,-$ verkauft.
https://wccftech.com/nvidia-geforce-gtx-1080-launch/
Edit: Wobei man ja zugeben muss, dass die Strategie etwas verwirrend ist. Die dient in erster Linie nur NV und zeigt den AIBs den Stinkefinger (und die können es sich leisten).
N0Thing
2018-02-14, 17:23:57
Die Founders Edition war mit $699 veranschlagt, die Preise der Custom Boards kann man schlecht als Referenz heran ziehen, wenn früher auch nur die Preise der Referenzkarten für den Preisvergleich zur Verfügung stehen und die Boardpartner am Ende je nach Modell den kalkulierten MSRP sowohl nach oben als auch nach unten hin verlassen.
https://blogs.nvidia.com/blog/2016/05/06/geforce-gtx-1080/
Hübie
2018-02-14, 18:31:38
Fiji war so wohl was Leistung, Verbrauch und Preis angeht ein Gegner der 980 Ti nicht der 980.
Bucklew
2018-02-14, 18:44:42
Die Fiji war niemals Gegner der GTX980, dafür gab es die GTX980Ti, die exakt den gleichen Preispunkt wie die FuryX hatte (beide 649US$).
Das ist jetzt genau die gleiche Art von peinlichem Geschichtsrevisionismus, wie wenn heute die Vega64 mit der GTX1080 verglichen wird. Mag Leistungsmäßig passen, auf technischer und/oder preislicher Ebene aber, ist der Gegner in beiden Fällen die Ti-Version gewesen.
TGKlaus
2018-02-14, 18:47:00
Auf Grundlage des Preises der unterschiedl. Fury Nitro Karten, der TRI-X oder Windforce. :rolleyes:
Hübie
2018-02-14, 18:51:07
Moment. Sprichst du von Fury non-X? Dazu gibt es doch kaum noch Benchmarks. Wo findest du denn welche zu aktuellen Titeln? Link plz. 980 vs. Fury sehe ich mittlerweile nirgendwo auf einschlägigen Seiten mehr. :uponder: Und wenn du mit custom vs. custom an kommst, dann verlinke doch auch diese. Danke!
ps: Für mich ist alles was lahmer ist als meine Schrott, denn meine ist schon echt lahm geworden...
Klevapalis
2018-02-14, 19:08:53
Die non-X Karten waren deutlich teurer, als vergleichbare OC-GTX980-Karten.
Auch hier kein wirklicher Vergleich. Spätestens wenn man die Leistungsaufnahme noch mit in den Focus zieht, ist die Aussage von Hübie völlig korrekt. Immerhin reden wir von 200-250W für die GTX980, während die großen OC-Versionen der Fury locker 300W und mehr gezogen haben.
dargo
2018-02-14, 19:31:59
Immerhin reden wir von 200-250W für die GTX980, während die großen OC-Versionen der Fury locker 300W und mehr gezogen haben.
Verklärte Erinnerungen?
http://www.tomshardware.de/sapphire-radeon-r9-fury-nitro-benchmarks-undervolting,testberichte-242032-4.html
Klevapalis
2018-02-14, 19:49:04
Verklärte Erinnerungen?
http://www.tomshardware.de/sapphire-radeon-r9-fury-nitro-benchmarks-undervolting,testberichte-242032-4.html
Liest du eigentlich, was du so verlinkst? :rolleyes:
Wehe, wenn sie losgelassen wird! Dann wird die Fury wirklich zur Furie und saugt sich an der 12-Volt-Schiene des Netzteils fest. Die knapp 330 Watt, die wir nun im Stresstest messen, ließen sich mit BIOS Nummer 2 sicher noch deutlich toppen, aber wir belassen es aus Sicherheitsgründen besser bei dieser Last, denn es ist auch so bereits deutlich zu viel.
Jetzt kommt bestimmt dargo wieder mit *seiner* UV-Fury, die ja nur 299W zieht, wenn er da mit seinem 10€-Conrad-"Mess"gerät schaut ;D
Linmoum
2018-02-14, 19:52:18
Dann reden wir auch nicht von 200-250W für die 980, sondern von 280W. Damit deine eigenen Werte mal eben ausgehebelt. Erstaunlich, wie sehr man sich selbst widersprechen und schachmatt setzen kann.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html
x-force
2018-02-14, 19:53:53
man sollte aber nicht äpfel mit birnen vergleichen.
meine 980 zog nach bios flash auch 275w mit maximalem oc. in ähnlichen bereichen würde auch eine 1070 liegen, würde sie in furmark und co nicht gedrosselt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.