Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing-Nachfolger (Refresh?), H2/2019
Godmode
2018-11-14, 22:07:44
Es gibt keinen Thread dazu und Ampere scheint eher wieder ein HPC-Chip zu werden.
Der Nachfolger zu Turing wird in 7nm gefertigt werden, dass kann man wohl fix annehmen. Die Frage die sich mir stellt ist, ob Turing als Refresh kommt, also einfach ein Shrink von Turing mit einigen Anpassungen, so wie Vega 20 oder ob wieder ganz was neues kommt. Nvidia macht normalerweise keine einfachen Shrinks, weil das oft nicht die gewünschte Leistungssteigerung bringt. Das Design müsste also schon auf TSMCs 7nm Node angepasst werden.
Was man auch annehmen kann ist, dass die Chips kleiner sein werden. Dadurch könnte dann auch die Leistungssteigerung kleiner ausfallen, als der verkleinerte Prozess vermuten ließe.
Weiters wäre dann noch die Frage des Speichers: Wieder GDDR6 oder doch mal HBM? Ich tippe eher auf GDDR6, weil auf Turing sind ja noch nicht die schnellsten Chips verbaut, IIRC. Speichermenge wird auch interessant. Ich traue ihnen echt zu, dass sie uns nochmal 8 GB für den 104er Chip servieren.
Die Preise sollten fallen, sonst kann das Zeug ja keiner mehr kaufen. Die frage ist, ob das unter 7nm möglich sein wird. Klar der Chip wird wieder kleiner, dadurch auch die Verlustleistung geringer, was eine billigere Platine erlauben könnte. Wenn dann dafür aber z.B. 16 GB statt 8 verbaut werden, wird es wieder teurer. Die verkauften Stückzahlen zu Turing wären echt mal interessant.
=Floi=
2018-11-14, 22:16:31
Preisanpassung!
Alles andere macht doch keinen sinn.
Die ramkrüppel gehören auch 2019 in die tonne.
w0mbat
2018-11-14, 22:54:01
Ich sehe folgendes Problem: die RTX Hardware ist aktuell noch viel zu langsam, hier muss Nvidia also stark in die Breite gehen. Aber RTX wird auch die nächsten Jahre noch nicht viel bringen. Ich denke sie haben sich hier etwas in die Ecke Manövriert.
Blasen sie den RTX Teil weiter auf braucht das viel Platz, machen sie es nicht, bleibt es weiterhin ein Gimmick.
pixeljetstream
2018-11-14, 23:52:35
Es gibt hier zum Thema RTX immer noch eine fundamentale Fehleinschätzung von vielen. Raytracing Effekte wie Reflektionen sind deshalb teuer weil das Shading des Treffpunkts mit der gleichen Komplexität abläuft wie sonst die Pixel auch (ein bisschen mehr weil man die vertices selbst interpolieren muss). Die klassischen Bildraum-Verfahren benutzen andere schon berechnete Pixel bzw. aus vorherigen Frames.
Sprich das Shading ist "gratis".
Es gibt auch sowas wie dynamische reflections probes etc. aber deren Aufwand lässt sich Recht gut kontrollieren mit Qualitätsabstrichen.
Auch ist die Überführung in die Raytracingdatenstruktur via compute shader. Will sagen, generische "shading" horsepower ist durch nichts zu ersetzen. Ein besseres Umgehen mit Divergenz und Ressourcen kommt allen Bereichen zu Gute.
Daher halte ich die Theorie, dass man das eine dem anderen opfern muss für falsch.
Morgenlicht
2018-11-15, 00:36:33
@pixeljetstream – danke für die angerissene Klarheit.
Ich finde es auch schade, daß so viele dem RTX zu wenig Leistung zusprechen bzw. als Gimmick/Nischenerscheinung abtun. Das RTX scheint nicht nur dem offensichtlichen zu dienen wie korrekte Schatten/Reflexionen, sondern soll wohl auch einsetzbar sein, anhand der für Oberflächen definierten Materialeigenschaften Strahlenverfolgung für Sound.
Leonidas
2018-11-15, 04:05:55
Nun, vielleicht läßt sich diese Fehleinschätzung ja hiermit korrigieren. Ich würde ja beim Turing-Nachfolger (ich denke, NV läßt es komplett unter "Ampere" laufen) auf einen Mittelweg tippen: Mehr Einheiten für alle Anwendungsfälle, resultierend aus den mit 7nm kleineren Strukturbreiten. Vergleichsweise Maxwell zu Pascal.
Korvaun
2018-11-15, 09:08:29
Das die erste 7nm Generation entscheidend billiger wird glaube ich nicht. Zumindest die 3080ti wird anfangs für 7nm nen dicker Brummer sein (400-500mm2 ?) wenn die sich auch ordentlich zur 2080ti absetzten soll. Dazu möglicherweise mehr RAM, das kostet alles...
mboeller
2018-11-15, 09:26:31
ich nehme nicht an, dass Nvidia gleich einen 2080Ti Nachfolger bringen wird.
Da Navi eine Midrange GPU wird/werden soll gehe ich davon aus, dass Nvidia zuerst auch eine Midrange GPU in 7nm bringen wird. Ende Q2/Anfang Q3 2019 sollte sich das ausgehen.
Die 2070ti/2080ti Nachfolger würde ich ich dann erst Ende Q3 2019 erwarten.
Godmode
2018-11-15, 09:28:10
Ich sehe folgendes Problem: die RTX Hardware ist aktuell noch viel zu langsam, hier muss Nvidia also stark in die Breite gehen. Aber RTX wird auch die nächsten Jahre noch nicht viel bringen. Ich denke sie haben sich hier etwas in die Ecke Manövriert.
Blasen sie den RTX Teil weiter auf braucht das viel Platz, machen sie es nicht, bleibt es weiterhin ein Gimmick.
Man kann das auch ganz anders sehen: RTX wird im Profibereich gewünscht und da man keinen extra Chip auflegen will, bekommen die Spielen eben auch RTX.
AffenJack
2018-11-15, 09:55:04
Bevor man überhaupt über den Turingnachfolger diskuttiert, würde ich erstmal fragen,wann und in welchem Prozess der Rest der Turinggen kommen wird oder wie das 20 Series Lineup aufgefüllt wird. Laut der geleakten Notebookroadmap könnte das Mitte 2019 der Fall sein und die 2060 und 2050Ti erscheinen. Aber auf welcher Basis? 7nm Turingshrink?
Es würde mich nicht wundern, wenn es mehr Leistung erst in 2020 von Nv geben wird und dann erst 2070-2080Ti ersetzt werden.
Godmode
2018-11-15, 11:46:38
in 12nm macht 2060 oder 2050Ti keinen Sinn, IMHO. Die Chips wären zu groß und der Preis dann für die Masse zu hoch. Ich weiß nicht, ob man in der Mittelklassen den Preis dermaßen anziehen kann, ohne dass die Nachfrage implodiert. Mir kommt es ja so vor, als würde so gut wie niemand eine Turing Karte kaufen. Klar ein paar hier haben schon zugeschlagen, aber wenn ich das mit früheren Launches vergleiche, ist das subjektiv schon eine deutlich kleinere Käufergruppe.
2019 passiert da eh gar nix. Vor Mitte 2020 ist eine Nachfolgegeneration pure Illusion. Ist auch absolut nicht nötig, u.A. weil AMD ja 2019 nichts relevantes bieten wird.
Brillus
2018-11-15, 12:06:12
Mich würde auch interessieren woher der Zeitpunkt her kommt.
reaperrr
2018-11-15, 14:01:58
Naja, dass sowohl der GV100-Nachfolger als auch die kleinen Turings in 7nm kommen würden, und das auch eher früher als später, war finde ich abzusehen.
GA100 braucht den neuen Prozess um überhaupt noch mehr Einheiten als GV100 verbauen zu können, außerdem kann NV für diese Chips so viel Geld verlangen, dass die anfänglich hohen Waferpreise und schlechten Yields hier nichts ausmachen.
Und die kleinen Turings brauchen 7nm um überhaupt Fortschritte bei Perf/mm² und nennenswerte Fortschritte bei Perf/W erzielen zu können, was zumindest im Mobil-Markt beides relevant ist. Außerdem kommen kleine Chips in einem neuen Prozess eher auf vernünftige Yield-Raten.
Wenn GP106-108 alle Nachfolger erhalten, sind das zusammen mit GA100 ja schon 4 Chips.
TU102/4/6 werden aber mMn nicht vor Frühjahr 2020 ersetzt, Nvidia ersetzt normalerweise keine Chips schon nach 9-12 Monaten, jedenfalls nicht wenn die Konkurrenz sie nicht dazu zwingt. Die Nachfolger kommen dann vermutlich auch direkt in 7nm+, der bis dahin wohl fertig sein sollte. Haben sie bei Maxwell -> Pascal auch schon so gemacht (16nm Gen1 übersprungen).
Ich finde es auch schade, daß so viele dem RTX zu wenig Leistung zusprechen bzw. als Gimmick/Nischenerscheinung abtun.
Bei Hardware von zu wenig Leistung zu sprechen macht ohne definierten Workload nie Sinn. Trotzdem kann es durch zuwenig Leistung für die relevante Workloads zum Gimmick werden.
Nun sind erstmal die Entwickler gefragt rauszufinden, was man mit der aktuellen Hardware tun kann und will. Wir wissen ja auch nicht, was in BF5 bei den Reflektionen limitiert.
Godmode
2018-11-15, 18:46:14
2019 passiert da eh gar nix. Vor Mitte 2020 ist eine Nachfolgegeneration pure Illusion. Ist auch absolut nicht nötig, u.A. weil AMD ja 2019 nichts relevantes bieten wird.
Das Produkt kommt wenn es fertig ist, bzw. der Prozess eine kostengünstige Fertigung erlaubt.
Dural
2018-11-15, 20:19:15
Das problem dürfte eher sein das ein "tu107" in 7nm den tu106 in 12nm wahrscheinlich überflüssig machen würde.
AffenJack
2018-11-15, 20:41:41
Denke ich nicht. Ein TU116, der so aufgebaut ist wie ein GP106, also halbe Shaderzahl von TU104. Spekulativ sollte das 300 mm² in 12nm sein. Nehmen wir Vega20 als Beispiel (1,6x Density in 7nm), gehen etwas hoch, weil Vega auch mehr Interface usw hat auf 1,8x Density Verbesserung, sindwa also bei 166 mm² in 7nm. Packen wir dazu auch noch 64 Bit Speicherinterface, damit es auch da wie GP106 aussieht.
Dann dürftest du bei 1536SP mit 192Bit bei ~190mm² rauskommen und hast noch immer etwas Abstand zum TU106. Könnte auch ingesamt nur ein halber TU104 werden, also mit 128 Bit Interface.
Dural
2018-11-16, 00:56:40
Und der mehr takt den 7nm sicher zulassen wird und eventuell optimierungen hast du eingerechnet? ;)
Da ist es von den 1500sp plötzlich nicht mehr so weit zum tu106, aber ein halber tu104 hört sich gut an, da könntest du recht haben.
Korvaun
2018-11-16, 07:37:03
Das Problem von nV für alle nachfolgenden Chips sind ja wohl die RT/Tensor cores. Es dürfen eigentlich nicht weniger werden als auf der RTX2070 um überhaupt noch einigermaßen sinnvoll einsetzbar zu sein. Das begrenzt die Fläche nach unten doch sehr stark, auch in 7nm. Oden nV lässt den RTX-Teil komplett weg, dann können sie wirklich kleine Chips bauen in 7nm, is halt schlecht fürs Marketing ;)
Genau wie GP107 und 108 werden TU107 und 108 von Samsung kommen. Da ist also nichts mit 7nm. Die belasten doch ihre 12FFN nicht mit den Billigchips.
Zudem wird NV auch in 7nm wieder den Yield im Auge haben, vor EUV kann man das also eh vergessen. Einzig AM100 könnt ich mir in DUV vorstellen.
Dural
2018-11-16, 10:30:07
Man wird es halt so machen wie immer, man erhöht die RT Einheiten pro SP zb. um das doppelte. Somit hat man auf einen schlag theoretisch die doppelte RT Leistung, und unter 7nm dürfte das auch nicht wirklich viel kosten.
Aber ehrlich gesagt glaube ich nicht das die RT Leistung alleine von den RT Einheiten abhängt, da dürfte im ganzen Chip Verbesserungen möglich sein.
AffenJack
2018-11-16, 10:42:20
RT Cores erhöhen ist alleine wahrscheinlich sinnlos. Der Workload in ganz anderen Bereichen des Chips verändert sich und deshalb muss da überall Optimierung reinfließen. Siehe dazu die Twitterposts von Sebastian Aaltonen, die ich im RT Thread verlinkt habe.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11853952#post11853952
Dural
2018-11-16, 10:54:52
Jep sehe ich auch so, eventuell sind bei Turing ja alleine durch Optimierungen noch Steigerungen möglich, ich glaube sogar ganz sicher.
BoMbY
2018-11-16, 11:09:11
Alles was es von NVidia in 2019 in 7nm geben wird ist vermutlich ein Nachfolger für den GV100. Außer AMD's Navi wird ein außerordentlicher Kracher, und kommt relativ früh in 2019.
Edgecrusher86
2018-11-16, 17:49:03
Eine Spekulation meinerseits - Namen natürlich Schall und Rauch - aber mich würde es nicht wundern, wenn die Chips ähnlich groß wie Maxwell 2.0 ausfallen, obwohl ein neuer Prozess genutzt wird, da man massig in Compute, RT und TC stecken dürfte - viel mehr Einheiten braucht es dank hohen zu erwartenden Taktplus (analog zu Pascal) wohl auch nicht. Mal schauen - vll. liege ich ja ziemlich daneben, aber da seit GK der 104er Chip auch immer genau 512 SPs im Vollausbau mehr bekommen hat, könnte dies auch nun wieder der Fall sein.
Ich würde auch von größeren Abständen der Performance-Chips zum Highend ausgehen. Der VRAM dürfte dann aber definitiv einmal verdoppelt werden. :)
Ich kann es schon vor dem geistigen Auge sehen, wie Huang die 3080 FE hochhält und sie als P/L-Kracher bewirbt -> $999 MSRP, schneller als 2080 Ti und 16GB. ;D
Q3/4 2019 dürfte der GV100 Nachfolger kommen - hier erwarte ich zwischen 5760-6144 SPs sowie 32GB HBM2. Der Desktop-Markt dürfte allerfrühstens Q2/2020 mit den 104er und 106er Modellen bedient werden - die Enthusiasten dürfen die auch erstmal kaufen und dann frühstens Q1/2021 die nächste Ti. Ach ja, und eventuell haut der gute Herr Ende 2019 noch den TITAN V Nachfolger mit 16 oder 24GB heraus für läppische $4999. :freak:
Just my Glaskugel - grob 40-50% klassische Mehrleistung mit etwas IPC+ obendrauf - der Rest geht Richtung RTX. Mehr braucht es nicht, um auf dem Thron zu bleiben - von AMD erwarte ich 2019 jedenfalls RTX 2070-2080 Leistung mit Navi - ein "Highend-Ableger" mit 16GB HBM2 und höheren Taktraten könnte etwas darüber liegen. Intel ist vermutlich auch gut beraten, wenn man 2020 TU102 Leistung bringt.
Name|RTX 3080 Ti FE|RTX 2080 Ti FE
Release ~|H1 2021(?)|Q3 2018
Chip ~|AM102-300(?)|TU102-300
Transistoren ~|28000M(?)|18600M
DIE-Size ~|600mm²(?)|754mm²
Fertigung (nm) |7FF TSMC|12FFN TSMC
TDP: | 260W|260W
Max. PT: |320W|320W
PEG: | 4.0 x16|3.0 x16
D3D: |12 (12_3) (?)|12 (12_1)
FP32+INT32 Cores: |5120|4352
FP64 Cores: |160|136
Tensor Cores (TC): |1280|554
Raytracing Cores (RT): |160|68
TMUs|320|272
ROPs|88|88
GPU Basistakt MHz ~ |1600|1350
GPU-Boost MHz ~|2000|1635
TF/s FP32 Boost ~|20,4|14,23
TF/s FP64 Boost ~|0,64|0,44
VRAM-Takt Gbps ~|18|14
VRAM|22456MB GDDR6|11264MB GDDR6
Speicherinterface|352-bit|352-bit
Speicherbandbreite ~|792 GB/s|616 GB/s
L2 Cache Size: |8448-11264 KB|5632 KB
Shared Memory Size / SM: |96-128 KB|64 KB
Register File Size / SM: |256 KB|256 KB
Register File Size / GPU: |20480 KB | 17408 KB
Texturfüllrate Boost ~|640,0 GT/s|444,7 GT/s
Pixelfüllrate Boost ~|176,0 GP/s|143,9 GP/s
Rohleistung Rasterizing ~ |143%|100%
Name|RTX 3080 FE|RTX 2080 FE
Release ~|H2 2020(?)|Q3 2018
Chip ~|AM104-400(?)|TU104-400
Transistoren ~|20600M(?)|13600M
DIE-Size ~|435mm²(?)|545mm²
Fertigung (nm) |7FF TSMC|12FFN TSMC
TDP: | 225W|225W
Max. PT: |285W|285W
PEG: | 4.0 x16|3.0 x16
D3D: |12 (12_3) (?)|12 (12_1)
FP32+INT32 Cores: |3456|2944
FP64 Cores: |108|92
Tensor Cores (TC): |864|368
Raytracing Cores (RT): |108|46
TMUs|216|184
ROPs|64|64
GPU Basistakt MHz ~ |1700|1515
GPU-Boost MHz ~|2100|1800
TF/s FP32 Boost ~|14,5|10,6
TF/s FP64 Boost ~|0,44|0,33
VRAM-Takt Gbps ~|18|14
VRAM|16384MB GDDR6|8192MB GDDR6
Speicherinterface|256-bit|256-bit
Speicherbandbreite ~|576 GB/s|448 GB/s
L2 Cache Size: |6144-8192 KB|4096 KB
Shared Memory Size / SM: |96-128 KB|64 KB
Register File Size / SM: |256 KB|256 KB
Register File Size / GPU: |13824 KB | 11776 KB
Texturfüllrate Boost ~|453,6 GT/s|331,2 GT/s
Pixelfüllrate Boost ~|134,4 GP/s|115,2 GP/s
Rohleistung Rasterizing ~ |137%|100%
Name|RTX 3070 FE|RTX 2070 FE
Release ~|H2 2020(?)|Q3 2018
Chip ~|AM106-400(?)|TU106-400
Transistoren ~|16100M(?)|10600M
DIE-Size ~|355mm²(?)|445mm²
Fertigung (nm) |7FF TSMC|12FFN TSMC
TDP: | 185W|185W
Max. PT: |215W|215W
PEG: | 4.0 x16|3.0 x16
D3D: |12 (12_3) (?)|12 (12_1)
FP32+INT32 Cores: |2688|2304
FP64 Cores: |84|72
Tensor Cores (TC): |672|288
Raytracing Cores (RT): |84|36
TMUs|168|144
ROPs|64|64
GPU Basistakt MHz ~ |1600|1410
GPU-Boost MHz ~|2000|1710
TF/s FP32 Boost ~|10,75|7,88
TF/s FP64 Boost ~|0,34|0,25
VRAM-Takt Gbps ~|18|14
VRAM|16384MB GDDR6|8192MB GDDR6
Speicherinterface|256-bit|256-bit
Speicherbandbreite ~|576 GB/s|448 GB/s
L2 Cache Size: |6144-8192 KB|4096 KB
Shared Memory Size / SM: |96-128 KB|64 KB
Register File Size / SM: |256 KB|256 KB
Register File Size / GPU: |10752 KB | 9216 KB
Texturfüllrate Boost ~|336,0 GT/s|246,2 GT/s
Pixelfüllrate Boost ~|128,0 GP/s|109,4 GP/s
Rohleistung Rasterizing ~ |136%|100%
Ob es jetzt Sinn machen würde, z.B. auch die Register deutlich aufzublähen (Faktor 1,5-2x)...gute Frage.
E: Also egal wie, die RT-Performance muss definitiv mindestens verdoppelt werden - ob man das jetzt mit mehr Einheiten schafft oder anderen Kniffen, ist eigentlich egal - ansonsten bleibt die Technik auch nächste Generation nur eine nette Spielerei für interaktive Techdemos -> 60+ fps @ 1080p mit 1300€+ Karten...also ich sage mal, WQHD@60 fps müssen mit BF V, SotTR oder Metro: Exodus schon laufen mit RT on @ 30 series Enthusiast.
Ein erneuter Preisanstieg würde mich auch nicht wundern, wenn NV weiterhin noch einsam auf dem Thron sitzt:
Ti FE für $1499-1759 MSRP
Non Ti FE für $999 MSRP
70 FE für $749 MSRP
Ravenhearth
2018-11-16, 19:04:23
Ein Markt unter $500 scheint wohl nicht mehr zu existieren :redface:
Edgecrusher86
2018-11-16, 20:11:45
Doch schon - 3050 (Ti) etwa und darunter. :freak:
Also wenn es in der Tat weiter so hoch geht, dürfte die entsprechende 60er um die 500 kosten, also quasi die 70er ablösen im Preis.
E: Also die 2070 kostet schon mindestens 505 Euro Stand heute - die günstigste.
Platos
2018-11-16, 20:34:48
Du meinst die 80-er ? Die 70-er 'war' ja eig. mal bei so etwa 400 und nicht 500. 550 ist dann schon eher 80-er Niveau von vor 4 Jahren.
Also wenn dass so weiter geht, ist eher die 50ti die 70-er am ablösen :freak:
Gut, mir eig. egal, welchen Namen jetzt die Dinger haben. Hauptsache das P/L sinkt nicht, wie bei Turing :freak:
MasterElwood
2018-11-21, 12:24:29
Also ich erwarte das NV versuchen werden ihren guten Ruf wiederherzustellen. also:
mind. +50% Leistung geg. direkten Vorgänger
+100% RT Leistung (= 50% weniger Einbruch bei RT Zuschaltung)
11GB non TI / 16GB TI
Das sollte in 7nm Möglich und auch bezahlbar sein. Mit sowas sollten die meisten Nörgler dann wieder das Maul halten :wink:
SKYNET
2018-11-21, 14:33:59
Also ich erwarte das NV versuchen werden ihren guten Ruf wiederherzustellen. also:
mind. +50% Leistung geg. direkten Vorgänger
:ulol:
wartest du eigentlich noch vor dem kamin auf den weihnachtsmann am 24.? :ulol:
ich gehe mal grob von 15-20% mehr rohleistung aus, und 50-80% bei der RT leistung.
Ex3cut3r
2018-11-21, 14:38:38
50% mehr Leistung wird es schon sein, allerdings wird es nicht billiger. :biggrin:
AMD kommt mit einen Vega 64 Nachfolger laut 3Dcenter siehe Hauptseite, erst ende 2019/Anfang 2020 um die Ecke. Wenn Nvidia schon nächsten Herbst 7nm GPUs bringen kann, wird es Arschteuer, und AMD ist "gefühlt" 3 Generationen zurück. :redface:
mironicus
2018-11-21, 14:51:13
1599-1899 Euro für eine 3080 Ti sind dann wohl realistisch, wenn es bis dahin keine Konkurrenz gibt.
=Floi=
2018-11-21, 14:57:44
wir wissen noch nicht, ob die RT cores limitieren. Das wird nämlich ein gutes thema, wie skalierbar das ganze wird.
edit
NV könnte einfach den großen chip für die consumer streichen. :ugly:
SKYNET
2018-11-21, 15:10:09
1599-1899 Euro für eine 3080 Ti sind dann wohl realistisch, wenn es bis dahin keine Konkurrenz gibt.
ob die dann aber RT haben ist fraglich, aber langt wenn die rohleistung auf level der 3080(non Ti) ist und dafür nur der halbe preis aufgerufen wird(= 550-600€), dann ist NV zumindest wieder in dem bereich unterhalb der Ti version am sack :cool:
MasterElwood
2018-11-21, 15:11:42
1599-1899 Euro für eine 3080 Ti sind dann wohl realistisch, wenn es bis dahin keine Konkurrenz gibt.
Warum? Die Hauptgründe warum die RTX Karten so teuer sind sind die wahnsinnige Größe und die momentan hohen Speicherpreise.
Und beides sollte bis/mit 7nm erledigt sein
MasterElwood
2018-11-21, 15:13:55
:ulol:
wartest du eigentlich noch vor dem kamin auf den weihnachtsmann am 24.? :ulol:
ich gehe mal grob von 15-20% mehr rohleistung aus, und 50-80% bei der RT leistung.
Ich hab DIREKTEN Vorgänger geschrieben.
SKYNET
2018-11-21, 15:27:07
Ich hab DIREKTEN Vorgänger geschrieben.
ja, also 2080Ti --> 3080Ti
und darauf war auch meine aussage bezogen ;)
Linmoum
2018-11-21, 15:29:09
Ergibt halt einfach Null Sinn, weil schon alleine der Sprung auf 7nm mehr als 15-20% bringen wird.
BoMbY
2018-11-21, 15:34:27
Ernsthaft? Jetzt fangt Ihr schon wieder die nächste Runde maßloses gehype an? Wo die letzte Enttäuschung erst etwa einen Monat zurück liegt?
BigKid
2018-11-21, 15:44:25
Warum? Die Hauptgründe warum die RTX Karten so teuer sind sind die wahnsinnige Größe und die momentan hohen Speicherpreise.
Und beides sollte bis/mit 7nm erledigt sein
Und ich glaub das immernoch noch nicht. Die Karten kosten genau so viel wie NVIDIA glaubt dafür abgreifen zu können. Und ohne Konkurrenz ist das eben mehr als mit...
NVidia fährt immernoch dicke GEWINNE ein - trotz Pascals auf Halde etc...
Man hätte auch die Marge etwas runter fahren können um gewisse Preis-Schall-Mauern nicht zu reissen. Hat man aber nicht...
Mich persönlich würde es als Konsument jedenfalls freuen wenn man sich da ne blutige Nase holt und etwas zurückrudern muss !
SKYNET
2018-11-21, 16:11:50
Ergibt halt einfach Null Sinn, weil schon alleine der Sprung auf 7nm mehr als 15-20% bringen wird.
glaubst du wohl selber nicht... :rolleyes:
Ex3cut3r
2018-11-21, 16:19:46
glaubst du wohl selber nicht... :rolleyes:
Ähhm, doch. Ein so großer Technologie Sprung alleine, bringt wie er schon richtig gesagt hat, 10-20% rein. Und bitte eine vernünftige Groß und Kleinschreibung, deine Texte sind einfach eine Zumutung sonst.
Troyan
2018-11-21, 17:43:26
Ernsthaft? Jetzt fangt Ihr schon wieder die nächste Runde maßloses gehype an? Wo die letzte Enttäuschung erst etwa einen Monat zurück liegt?
Was hat Vega@7nm mit nVidias 7nm Produkten zu tun?
BoMbY
2018-11-21, 20:52:47
Was hat Vega@7nm mit nVidias 7nm Produkten zu tun?
Was? Ich rede von der RTX 2000 Reihe, die deutlich, deutlich hinter all den Fantasien hier zurück geblieben ist.
Klevapalis
2018-11-26, 10:56:04
Was? Ich rede von der RTX 2000 Reihe, die deutlich, deutlich hinter all den Fantasien hier zurück geblieben ist.
Die RTX-Reihe hat alle Fantasien massiv übertroffen.
Sogar deine:
wie im anderen Thread schon gesagt vermute ich stark es kommt in Q2/2018 ein Pascal-Refresh
Fantasien übertroffen... sehr gut. Die meisten stellten sich eher ne GTX mit 50% mehr Leistung vor :freak:.
Klevapalis
2018-11-26, 11:05:46
Die meisten stellten sich eher ne GTX mit 50% mehr Leistung vor
Eben.
Vorgestellt wurde ein einfacher Refresh mit mehr DX11-Perf, geliefert wurde die größte Innovation in Sachen 3D-Grafik seit mindestens 10 Jahren :up:
Nightspider
2018-11-26, 11:14:22
...die keiner haben will. :up:
Klevapalis
2018-11-26, 11:23:59
...die keiner haben will.
Bookmarked, da lachen wir beide dann in 5 Jahren drüber :cool:
Sven77
2018-11-26, 11:39:29
...die keiner haben will. :up:
der keine Ahnung hat
w0mbat
2018-11-26, 11:45:42
Bookmarked, da lachen wir beide dann in 5 Jahren drüber :cool:
Ja, da werde wir alle drüber lachen, wie über PhysX. Turing hat ist ein Enttäuschung auf ganzer Linie. Schwache Performance und extrem teuer.
THEaaron
2018-11-26, 11:53:03
Eh PhysX ist proprietär während RTX den DXR Standard implementiert. Das ist schon was anderes.
RTX ist genauso proprietär. Das Denoising muss ja AFAIK über DirectML gelöst werden, wenn man nicht RTX verwenden will. Das geht dann ab dem Win10 Frühjahrsupdate nächstes Jahr
Klevapalis
2018-11-26, 12:26:05
Ja, da werde wir alle drüber lachen
Ja, wir werden in fünf Jahren, wenn RayTracing Standard ist, herrlich über eure Innovationsfeindlichkeit lachen :up:
RTX ist genauso proprietär.
Völliger Blödsinn. RTX ist nur der Marketingname für DXR-Support.
DXR untersützt kein denoising, nur das reine Raytracing. Also nix Blödsinn, für RTX braucht man eine proprietäre Schnittstelle.
Klevapalis
2018-11-26, 13:27:27
DXR untersützt kein denoising, nur das reine Raytracing.
DXR kann auch nicht frittieren. Ist aber völlig irrelevant, schließlich geht es um RayTracing. Und dort ist DXR schlicht genauso ein Standard wie DX11.
Leonidas
2018-11-26, 16:48:33
RayTracing soll doch auch über Vulkan gehen, ergo wenigstens Plattform-unabhängig:
https://devblogs.nvidia.com/vulkan-raytracing/
w0mbat
2018-11-26, 17:17:38
Ja, wir werden in fünf Jahren, wenn RayTracing Standard ist, herrlich über eure Innovationsfeindlichkeit lachen :up:
Genau, in 5 Jahren von 1080p/<60 für RT Spiegelungen zu 2160p/144 für komplettes RT ;D
Klevapalis
2018-11-26, 19:15:40
2160p/144
Packt das deine Radeon in irgendeinem aktuellen Spiel? :rolleyes:
Sag ja: Innovationsfeindlich. Nur um die Technologie per se bashen zu können (weil, der Lieblingshersteller wird sie ja auf absehbare Zeit nicht liefern können), werden völlig unrealistische Anforderungen an eine neue Technologie gestellt, während man selbst mit nem regebrandeten Chip aus dem Jahre 2013 rumgammelt, der die eigenen Ansprüche nicht mal bei Monkey Island schafft.
Kannste dir nicht aus denken.
w0mbat
2018-11-26, 19:52:24
Ne, aber die habe ich aber auch vor zwei Jahren gebraucht für 150€ gekauft und nich neu für 1300€+.
Und ja, wir wissen dass Nvidia innovationsfeindlich ist mit ihrem ganzen proprietären BS, aber du musst Nvidia deswegen doch nicht so bashen, das kommt wirklich komisch (auch wenn es dein Lieblingshersteller ist, weiß nicht wieso du das erwähnst).
Versuch doch bitte mal dich normal zu verhalten.
Klevapalis
2018-11-26, 22:51:38
Und ja, wir wissen dass Nvidia innovationsfeindlich ist mit ihrem ganzen proprietären BS
Ja echt innovationsfeindlich diese proprietäre DXR, das NVIDIA da entwickelt hat ;D ;D
Werde diese offensichtliche Trollposting einfach mal melden :up: Diese ständige Shreddern von NVIDIA-Threads durch salty AMDler muss wirklich nicht sein.
Leonidas
2018-11-27, 08:31:16
Ist das hier die Grafikkarten-Variante von Spy vs. Spy? Nicht, das ich mich nicht amüsieren würde ...
http://www.loadthegame.com/wp-content/uploads/2014/11/AMD-versus-Nvida-news-635x357-635x330.jpg
Rancor
2018-11-27, 09:09:13
Dieser Hersteller Bias ist ehh absolut irrational. Beide Unternehmen wollen den Kunden die Kohle aus der Tasche ziehen.
Ich halte RTX auch einfach für zu verfrüht, bin mir aber sicher, das man mit dem Turing Nachfolger eine deutlich bessere Performance an Tag legen wird und spätestens dann sollte AMD irgendetwas äquivalentes bieten können.
Klevapalis
2018-11-27, 10:17:49
Nicht, das ich mich nicht amüsieren würde ...
Sollte man sich nicht als Administrator eher Sorgen um die Qualität des Forums machen, bei solch sinnlosem Thread-Geshredder?
Leonidas
2018-11-27, 10:48:24
Ich habe in dem Augenblick versucht, das ganze eher scherzhaft als mit der Moralkeule anzugehen. Erfahrungsgemäß bringt letzteres nichts, die Leute fetzen sich in unverminderter Härte weiter. Im konkreten Fall kam hinzu, das es noch nicht unter der Gürtellinie war.
SKYNET
2018-11-27, 10:49:00
Sollte man sich nicht als Administrator eher Sorgen um die Qualität des Forums machen, bei solch sinnlosem Thread-Geshredder?
ich würd mir sorgen um die qualität machen, wenn der admin selber nen stock im arsch hätte, und nicht selber mal mit nem zwinkernden auge durchs forum streift.
Klevapalis
2018-11-27, 11:00:13
Ich habe in dem Augenblick versucht, das ganze eher scherzhaft als mit der Moralkeule anzugehen. Erfahrungsgemäß bringt letzteres nichts, die Leute fetzen sich in unverminderter Härte weiter.
Komisch, dass das nur in NVIDIA-Threads so ist. Aber gut, musst du ja wissen, welche Zielgruppe du willst. Wohl eher AMD-Fanboys. Da müssen die NVIDIA-Threads eben geshreddert werden mit völligem Bullshit.
SKYNET
2018-11-27, 11:20:32
Komisch, dass das nur in NVIDIA-Threads so ist. Aber gut, musst du ja wissen, welche Zielgruppe du willst. Wohl eher AMD-Fanboys. Da müssen die NVIDIA-Threads eben geshreddert werden mit völligem Bullshit.
outch... also entweder ist deine brille so grün, das du nicht mitbekommst das in den AMD fäden genau so gehandhabt wird, oder du schaust garnicht in diese fäden rein... :confused:
AffenJack
2018-11-27, 11:26:32
Komisch, dass das nur in NVIDIA-Threads so ist. Aber gut, musst du ja wissen, welche Zielgruppe du willst. Wohl eher AMD-Fanboys. Da müssen die NVIDIA-Threads eben geshreddert werden mit völligem Bullshit.
Du musst einfach härter in den AMD Threads trollen, um das auszugleichen, wenn du der Meinung bist. Das ist hier die gewollte Linie.
nalye
2018-11-27, 11:40:26
Och Leute, haben wir es jetzt langsam wieder?
w0mbat
2018-11-27, 12:20:17
Vor allem verstehe ich nicht, wieso er meint, dass hier "getrollt" wird.
Mein erster Kommentat hier lautete wie folgt:
Ich sehe folgendes Problem: die RTX Hardware ist aktuell noch viel zu langsam, hier muss Nvidia also stark in die Breite gehen. Aber RTX wird auch die nächsten Jahre noch nicht viel bringen. Ich denke sie haben sich hier etwas in die Ecke Manövriert.
Blasen sie den RTX Teil weiter auf braucht das viel Platz, machen sie es nicht, bleibt es weiterhin ein Gimmick.
Und danach bin ich auch nicht vom Thema abgewichen, sondern habe auf seine Aussagen ("in 5 Jahren werden wir alle drüber lachen") geantwortet. Das ist doch kein getrolle. Ich denke wirklich, dass RTX noch eine ganze Weile braucht, bis es wirklich marktreif und kein Gimmick mehr ist.
Und das stellt Nvidia eben vor ein Problem. Stecken sie mehr Die-Fläche in RTX, macht das die Karten nur teurer (vor allem im teuren 7nm Prozess) aber nicht schneller. Tun sie es nicht, geben sie ihr aktuell anspruchvollstes Projekt auf.
Dass RT irgendwann kommt ist klar. Dass es toll aussehen kann auch. Aber die Frage hier ist doch wie sich das jetzt in den nächsten 2-3 Jahren entwickelt. Niemand kauft sich eine 3080 Ti um in 1080p/60 zu zocken, auch wenn die Spiegelungen noch so hübsch sind.
AffenJack
2018-11-27, 13:04:03
Und das stellt Nvidia eben vor ein Problem. Stecken sie mehr Die-Fläche in RTX, macht das die Karten nur teurer (vor allem im teuren 7nm Prozess) aber nicht schneller. Tun sie es nicht, geben sie ihr aktuell anspruchvollstes Projekt auf.
Nur müssen sie mit dem was sie haben für die nächste Gen da fast nix mehr reinstecken. Da in RT die Shaderleistung, ebenso wie beim Rasterisieren, einer der hauptlimitierenden Faktoren ist, können sie mit der nächsten Gen einfach Turing nach oben skalieren. Die Entwickler können damit erstmal rumspielen und dann wünsche äußern, was in die Next-Next-Gen für RT rein soll.
Die erste 7nm Gen wird eh nur sowas wie Maxwell->Pascal, also ein Turing mit kleinen Änderungen. Deutlich interessanter wird die Frage, wann sich AMD und Nvidia mit MS/Intel auf einen Standard in Sachen Mesh/Primitive Shader einigen können. Das dürfte in der nächsten Gen DX12.2/13 ein größeres Feature sein. Frage wird nur, welche GPUs das dann schon unterstützen werden. Mit viel Glück werden vielleicht sogar Turing/Navi kompatibel dazu.
Platos
2018-11-27, 21:43:14
Ich denke wirklich, dass RTX noch eine ganze Weile braucht, bis es wirklich marktreif und kein Gimmick mehr ist.
Und das stellt Nvidia eben vor ein Problem. Stecken sie mehr Die-Fläche in RTX, macht das die Karten nur teurer (vor allem im teuren 7nm Prozess) aber nicht schneller. Tun sie es nicht, geben sie ihr aktuell anspruchvollstes Projekt auf.
Dass RT irgendwann kommt ist klar. Dass es toll aussehen kann auch. Aber die Frage hier ist doch wie sich das jetzt in den nächsten 2-3 Jahren entwickelt. Niemand kauft sich eine 3080 Ti um in 1080p/60 zu zocken, auch wenn die Spiegelungen noch so hübsch sind.
Es wird definitiv noch solange gehen, bis mind. die -60er Versionen brauchbare RT-Leistung haben. Und mit 60-er meine ich eigentlich max. 300 Eurogrenze. Also bei nvididas Preisen wohl eher die 50 ti. Also ja, wird natürlich schon noch ne Weile gehen. Wer denkt/dachte, dass das in einem Jahr breittflächig in (fast) jedem AAA Spiel (gut) umgesetzt wird, der träumt hald Nachts auch noch vom Osterhasen.
Aber ich gehe eher davon aus, dass sie - mit Architekturverbesserung - ordentlich an RT Leistung zulegen werden. RT haben die nicht mal so eben in der letzten Gen. geplant. Das wird durchgezogen und ist, wie ja hier schon mehrfach erwähnt wurde, kein Gimmick.
Und da AMD im Moment nicht gerade der Held im Bereich Gaming-GPUs ist, ist es der Ideale Zeitpunkt, Tensor-und RT-Cores Auszubauen. Ich denke eine RTX 3080TI wird in etwa um die ~ 540mm² haben und somit sollte es noch im bezahlbaren Bereich liegen.
Ich würde mir von einer "3080Ti" ein wirklich fettes Leistungsplus wünschen.
Min 16GB Ram und min doppelt so schnell wie ne 2080Ti, oder besser noch mehr...viel mehr.
8K ist schon auf dem Weg in den Markt und will auch versorgt werden.
Die Kosten und der Verbrauch wären mir nahezu egal :biggrin:
( und auch ob sie dann RT hat oder nicht, die Leistung muss passen. )
RayTracing soll doch auch über Vulkan gehen, ergo wenigstens Plattform-unabhängig:
https://devblogs.nvidia.com/vulkan-raytracing/
Zitat: ...many developers want to embrace a more open approach using Vulkan...
Das wäre wünschenswert !
m.f.g. JVC
Wenn man den Prozess einrechnet und eine effizientere RT-Integration berücksichtigt wird man da so bei ca. 50% mehr Rohleistung und mMn mit doppelter bis 3-facher RT-Leistung rechnen können.
RayTracing soll doch auch über Vulkan gehen, ergo wenigstens Plattform-unabhängig:
https://devblogs.nvidia.com/vulkan-raytracing/
Mein English ist eher schlecht ...
Aber das klingt so wie wenn NV Vulkan unterstützen würde ?
Zitat:
"Vulkan is a hardware-agnostic API, and we’ve made sure VKRay is hardware agnostic as well. The entire API can be implemented on top of existing Vulkan compute functionality. We’ve also gone to great lengths to make sure that the extension fits well with existing Vulkan API concepts. Memory allocation, resource handling, and shader language/bytecode are handled in the same way that the core Vulkan API prescribes."
Dann würde NV ja einen "fremden/offiziellen" Standard unterstützen ?
( dann würde ich Vulkan wesentlich mehr Chancen einräumen als DX12 ^^ )
Oder relativieren sie nur alles, halten an der eigenen Lösung fest ?
( das "on top" irritiert mich etwas, darüber-darauf ... klingt nicht nach "zusammenarbeit" )
Fehlt nur noch das sie auch noch Free-Sync unterstützen und ich hoffe das tun sie bald mal :)
( technisch könnten sie es ja, wenn sie wollten, auch auf der 10xx Serie ermöglichen ;) )
Irgendwie hab ich grad nen Funken Hoffnung darauf,
das NV mal was für "uns" tut und nicht nur für "sich selbst" ^^
m.f.g. JVC
p.s.: Das wäre was, gutes RT in Software durch Vulkan, was über die CPU und über die GPU laufen kann = Perfekte Ressourcenausnützung des ganzen PC´s :up:
BoMbY
2018-11-30, 18:40:07
Wenn man den Prozess einrechnet und eine effizientere RT-Integration berücksichtigt wird man da so bei ca. 50% mehr Rohleistung und mMn mit doppelter bis 3-facher RT-Leistung rechnen können.
Also mindestens. Vielleicht auch die 10-fache Leistung. Und die werden bestimmt alle mind. 64 GB GDDR7 Speicher haben, und nur noch 100 Watt verbrauchen bei doppelter bis dreifacher Gesamtleistung. Und der Release-Preis wird natürlich auch bei dieser Generation wieder deutlich niedriger sein. :freak:
MasterElwood
2018-12-04, 09:31:44
Also mindestens. Vielleicht auch die 10-fache Leistung. Und die werden bestimmt alle mind. 64 GB GDDR7 Speicher haben, und nur noch 100 Watt verbrauchen bei doppelter bis dreifacher Gesamtleistung. Und der Release-Preis wird natürlich auch bei dieser Generation wieder deutlich niedriger sein. :freak:
Kannst du auch erklären WARUM du versuchen musst lustig zu sein?
+50 Prozent Rohleistung is absolut nichts ungewöhnliches bei einem NV Generationssprung (schon garnicht wenns von 12 auf 7nm geht) - und die RT Cores machen nur einen sehr kleinen Teil vom Die aus - sind also relativ leicht zu verdoppeln oder dreifachen.
Also wo is dein Problem?
Leonidas
2019-01-05, 06:22:40
Ein japanischer Artikel nennt IBM und nVidia als Erstabnahmer für Samsungs 7nm-Fertigung.
Samsung selber hatte im Herbst schon gesagt, das sie unter 7nm eine GPU für HPC bauen werden.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-januar-2019
rentex
2019-01-05, 09:16:52
Solange RTX nicht in der Masse verfügbar und darüberhinaus in höheren Auflösungen spielbar wird, ist es eben eine unausgereifte Spielerei. Es ist eben wie mit allen Innovationen...kommen sie nicht in der Breite, verschwinden sie nach einer gewissen Zeit...
Mag ja sein das es schick aussieht und total revolutionär ist, wenn es aber nicht in sämtlichen Auflösungen und in hohen FPS darstellbar ist, greift niemand zu...außer ein paar Enthusiasten, die dann noch genug finanzielle Mittel haben.
Bis RTX in der Mittelklasse angekommen ist, wird es noch mindestens 3- 4 GPU Generationen dauern, bis dahin wird sich durch Intels eintritt in den Markt und AMDs stetigen Aufstieg einiges verändern...ob dann das Thema RTX dann noch relevant für Nvidia bleibt (getrieben durch die Mitbewerber)?
Feststellung: Es gibt jetzt neben AMD/Intel/Nvidia Fanboys auch noch RTX Fanboys.
basix
2019-01-05, 13:19:20
Ich bin felsenfest davon überzeugt, dass Raytraycing mit der nächsten GeForce Generation in 7nm auch bei den 200-300 Euro Karten Einzug halten wird. Das ist dann schon eine relativ breite Gamer-Basis. Bei <100 Euro wird es vermutlich knapp, aber es könnte RT auch für das ganze Portfoilio kommen. Wieso? Nvidia will seinen eigenen Technologiestandard etablieren, um eine vorteilhafte Konkurrenzsituation zu erhalten (Sprichwort Technologievorsprung). Sonst hätte man sich RTX gleich sparen können. Für die Mittelklasse reicht ja schon 1080p/60, das sollte mit dem 7nm Transistorbudget schon drin liegen. Am oberen Ende des Spektrums wäre es dann 4K/60 inkl. RTX. Ebenfalls erreichbar.
rentex
2019-01-05, 13:54:57
Extrem optimistisch. Bei der momentanen Preispolitik Nvidias, wird das erst ab der übernächsten Generation passieren!
Troyan
2019-01-05, 14:03:53
Raytracing und DLSS gehen Hand in Hand. Sollte der Leak zur 2060 stimmen, dann wird es Raytracing für 1080p/60FPS mit DLSS ab 15.01 für 350€+ geben.
Ab hier läuft der normale Zyklus einfach wieder von vorne los. 7nm bringt vielleicht 50% mehr Leistung.
spotz
2019-01-06, 02:18:00
Ich wäre da vorsichtig zuviel von der 7nm Fertigung zu erwarten. Man darf nicht vergessen, dass Tu102 und 104 grob doppelt so viel Fläche belegen wie GP102 und 104.
Bei einer geschätzten Flächenersparnis von 60% bei der 7nm Fertigung passen nicht mehr viele weitere Recheneinheiten hinein, wenn Nvidia ähnliche Chipflächen wie bei Pascal anpeilt. Dafür spricht auch der häufige Hinweis in den 3DC News, dass die 7nm Fertigung teuer sei, weshalb erwartet wird das die ersten 7nm Chip eher etwas kleiner sein werden.
Leonidas
2019-01-06, 05:48:13
Ich bin felsenfest davon überzeugt, dass Raytraycing mit der nächsten GeForce Generation in 7nm auch bei den 200-300 Euro Karten Einzug halten wird.
Bis RTX in der Mittelklasse angekommen ist, wird es noch mindestens 3- 4 GPU Generationen dauern,
Beides wird passieren. NV wird RTX in der nächsten Generation bis hinunter zur 50er Klasse anbieten. Aber nutzbar wird es nur in den oberen Klassen sein, da die Anforderungen an RT mit der Zeit steigen werden, sprich die 2020er RT-Titel mehr RT-Power benötigen als mit einer RTX 3050 verfügbar sein wird.
woodsdog
2019-01-06, 10:36:07
Raytraycing ist weder auf Mobile noch Konsolen auf absehbare Zeit verfügbar. In 1-2 Jahren VIELLEICHT im mainstream PC-Bereich bei ~200 Eur. In wie fern es dann dort wirklich nutzbar und nicht nur ein Checklisten-Feature ist, wissen wir nicht.
wieviel % vom Markt haben damit auf absehbare Zeit kein nützliches Raytraycing? 90%? Mehr?
Das ist ein Muh-PC-Master-Race Elite-Feature...
Bucklew
2019-01-06, 11:44:51
Beides wird passieren. NV wird RTX in der nächsten Generation bis hinunter zur 50er Klasse anbieten. Aber nutzbar wird es nur in den oberen Klassen sein, da die Anforderungen an RT mit der Zeit steigen werden, sprich die 2020er RT-Titel mehr RT-Power benötigen als mit einer RTX 3050 verfügbar sein wird.
Nein, dazu wird es - wie heute schon bei BFV und wie seit Jahrzehnten bei Rasterizing - einfach einen Qualitätsregler geben.
Wer keine 2080 hat, wird eben von "High" auf "Medium" oder "Low" stellen müssen.
Warum auch immer plötzlich ein Feature nicht mehr nutzbar sein soll, nur weil man mit späteren Spielen die Qualitätsstufe runter regeln muss. War doch schon immer so, wenn man sich eine Grafikkarte für ~300€ zugelegt hat.
AffenJack
2019-01-06, 13:38:16
Beides wird passieren. NV wird RTX in der nächsten Generation bis hinunter zur 50er Klasse anbieten. Aber nutzbar wird es nur in den oberen Klassen sein, da die Anforderungen an RT mit der Zeit steigen werden, sprich die 2020er RT-Titel mehr RT-Power benötigen als mit einer RTX 3050 verfügbar sein wird.
Nutzbar wird es auch in den unteren Klassen. Die Leistungsanforderungen werden eher durch das Addieren anderer RT Effekte steigen. Reflektionen sind ja anscheinend (nach Remedys Control Zahlen) ein sehr teurer RT Effekt. Aber eben auch der am einfachsten sichtbare. In Zukunft gibts dann RT reflektionen, Schatten, AO...
Die kleinen Karten werden dann eben nur für 1080p 60FPS mit RT AO geeignet sein.
Leonidas
2019-01-06, 16:50:43
Ja okay, stimmt natürlich = über Leistungsregler wird das gehen. Meine Rede ging von Max-RT-Qualität aus. Die wird sich in den nächsten Jahren nur bei den Spitzen-Karten konzentrieren, denn die Max-RT-Qualität wird vermutlich deutlich ansteigen - denn die Spieleentwickler wollen was zeigen, denen nützt ein halbgares Feature wenig.
Bucklew
2019-01-06, 16:52:22
Ja okay, stimmt natürlich = über Leistungsregler wird das gehen. Meine Rede ging von Max-RT-Qualität aus.
Wenn das die Maßgabe ist, dann ist jedes Grafikfeature nicht nutzbar :rolleyes:
Rampage 2
2019-01-15, 18:50:50
Spielt der Fertigungsprozess überhaupt noch eine Rolle? Damit meine ich nicht die Größe der Chipfläche, sondern die Kosten pro Transistor - hier wurde gesagt, dass Letzteres der entscheidende Faktor dafür ist, wie groß ein Chip sein kann, ohne dass die Herstellungskosten durch die Decke gehen. Das heißt, wenn 7nm nur 0,333x soviel Chipfläche wie 12nm benötigt, dann muss ein einzelner Transistor auch gleichzeitig 3x so billig (0,333x = invertiertes 3x) in der Herstellung sein wie 12nm, damit die 0,333x Skalierung auch vollständig ausgenutzt werden kann - also in der Theorie z.B. ein Gx102 mit 13824 SPs bei der gleichen Chipfläche wie ein aktueller TU102.
Sofern dies nicht der Fall ist, dann gehe ich von folgender Konfiguration für Gx102 und Gx104 aus:
Gx102:
Variante 1:
- 6 GPCs
- 96 SMs
- 6144 SPs
- 192 RT-Cores (Erhöhung der RT-Cores pro SM von 1 auf 2)
- 1536 oder 768 Tensor-Cores
- 144 ROPs (GDDR6) oder 128 ROPs (HBM2/3)
- 384 oder 288 TMUs (GDDR6) oder 384 TMUs (HBM2/3)
- 384 Bit GDDR6 SI @ 16-20 Gbps @ 24GB VRAM
oder: 4-Stack 4096 Bit HBM2/3 SI @ 2.0 GHz @ 32GB VRAM
Chiptakt: 1.6+ GHz Base, ~ 1.8 GHz Boost, max. OC: 2.2 GHz
Hinweis: Gx102 hätte 96 TMUs pro HBM2/3-Stack
Variante 2:
- 6 GPCs
- 120 SMs
- 7680 SPs
- 240 RT-Cores (Erhöhung der RT-Cores pro SM von 1 auf 2)
- 1920 oder 960 Tensor-Cores
- 144 ROPs (GDDR6) oder 128 ROPs (HBM2/3)
- 360 TMUs (GDDR6) oder 384 TMUs (HBM2/3)
- 384 Bit GDDR6 SI @ 16-20 Gbps @ 24GB VRAM
oder: 4-Stack 4096 Bit HBM2/3 SI @ 2.0 GHz @ 32GB VRAM
Chiptakt: wie Variante 1
Hinweis: Gx102 hätte 96 TMUs pro HBM2/3-Stack
Gx104:
Variante 1:
- 4 GPCs
- 64 SMs
- 4096 SPs
- 128 RT-Cores (Erhöhung der RT-Cores pro SM von 1 auf 2)
- 1024 oder 512 Tensor-Cores
- 96 ROPs (GDDR6) oder 64 ROPs (HBM2/3)
- 256 oder 192 TMUs (GDDR6) oder 256 TMUs (HBM2/3)
- 256 Bit GDDR6 SI @ 16-20 Gbps @ 16GB VRAM
oder: 2-Stack 2048 Bit HBM2/3 SI @ 2.0 GHz @ 16GB VRAM
Chiptakt: 1.8+ GHz Base, ~ 2 GHz Boost, max. OC: 2.2-2.3 GHz
Hinweis: Gx104 hätte 128 TMUs pro HBM2/3-Stack
Variante 2:
- 4 GPCs
- 80 SMs
- 5120 SPs
- 160 RT-Cores (Erhöhung der RT-Cores pro SM von 1 auf 2)
- 1280 oder 640 Tensor-Cores
- 96 ROPs (GDDR6) oder 64 ROPs (HBM2/3)
- 240 TMUs (GDDR6) oder 256 TMUs (HBM2/3)
- 256 Bit GDDR6 SI @ 16-20 Gbps @ 16GB VRAM
oder: 2-Stack 2048 Bit HBM2/3 SI @ 2.0 GHz @ 16GB VRAM
Chiptakt: wie Variante 1
Hinweis: Gx104 hätte 128 TMUs pro HBM2/3-Stack
Sofern die These mit Kosten/Transistor wahr ist, halte ich Variante 1 für wahrscheinlicher...
R2
Ravenhearth
2019-01-15, 23:58:20
7nm HPC von TSMC hat auch nicht die dreifache Packdichte, sondern nur die doppelte. Die dreifache gilt für 7FF, das scheint aber nix für PC-Chips zu sein.
Dural
2019-01-16, 09:53:52
Ich finde die Diskussionen von wegen zu wenige Leistung für RT immer so interessant. :wink:
1. Man hat bei GPUs IMMER zu wenig Leistung
2. Selbst eine GPU in 20 Jahren wird man mit Grafik/RT in die Knie zwingen können. Aus einem ganz einfachen Grund, den die Anforderungen steigen ja auch immer wie mehr, die Qualität wird immer wie besser. Also fängt es bei Punkt 1 wieder an. :wink:
Das wird erst aufhören, so bald wir Grafik haben die von Real nicht zu unterscheiden ist, aber ich denke das wird noch dauern.
rentex
2019-01-16, 19:59:46
1. Kommt auf die aktuelle GPU im Rechner an und der genutzten Auflösung.
2. Wenn man keinen "Standard" für RT definiert hat, was das maximal darstellbare sein soll, kann man das immer behaupten.
RT von Nvidia wirkt in seinem aktuellen Zustand wie zusammengezimmert und schnell auf den Markt geschmissen, ohne viel mit Spieleentwickler zusammen gesessen zu sein.
Dural
2019-01-17, 09:22:06
RT ist ein standard.
Und ja ist ein ziemlicher schnell schuss, so eine GPU zimmert man in wenigen Wochen zusammen. :rolleyes:
In der Regel muss zuerst die Hardware da sein, bis die Software angepasst wird. Das war schon vor 20 Jahren so. Wenn man ein bisschen überlegt eigentlich auch ziemlich logisch...
DrumDub
2019-01-17, 09:48:09
da muss ich dural recht geben. wobei die art der anpassungen ja immer komplexer geworden ist. 1996 war das bei glide noch nicht so das problem, wenn es bereits einen software renderer gab. allerdings gibt es heute auch die besseren tools für entwickler ... man müsste also mal nen entwickler fragen, der seit damals dabei ist, wie groß die unterschiede sind.
Calypso
2019-01-17, 09:52:18
ja, aber will ich als Hersteller Grafikkarten mit neuen Features verkaufen, muss ich auch dafür sorgen, dass es gezeigt/genutzt wird. Nvidia ist aber eben gern dabei, ein Geschlossenes System anzustreben. Und dass es bisher nur EIN Spiel für das neue Feature gibt, sollte einem schon zu denken geben - und ja, sieht nach außen hin nach einem Schnellschuß aus. Geht aber nicht in die grüne Brille von Dural. Ich glaub ich muss mir die Ignore-List mal anschauen und paar Leute eintragen, macht das Lesen von wichtigen Dingen hier eindeutig besser.
Dural
2019-01-17, 10:59:04
So ein Schwachsinn, die Turing GPU war ca. 5 Jahren in Entwicklung, davon muss NV seit min. 3 Jahre aktiv an RT gearbeitet haben. Anders ist das gar nicht zu Stämmen.
Schon nur die ganze Software dahinter benötigt wohl locker 1-2 Jahre.
Neue Technologien brauchten schon immer Zeit, manche zig Jahre.
rentex
2019-01-17, 15:50:41
RT ist ein standard.
Und ja ist ein ziemlicher schnell schuss, so eine GPU zimmert man in wenigen Wochen zusammen. :rolleyes:
In der Regel muss zuerst die Hardware da sein, bis die Software angepasst wird. Das war schon vor 20 Jahren so. Wenn man ein bisschen überlegt eigentlich auch ziemlich logisch...
Aus dem THW Forum:
DXR ungleich RTX. Microsoft erlaubt ja auch Texturverbesserungen per ML, DLSS ist proprietär, was aber auch erst einmal einen Sinn ergibt, wenn man es auf Spiele hin optimiert und Bibliotheken schaffen muss. Oder die Spieleschmieden liefern gleich das passende Material, dann wäre DLSS obsolet. Wobei da wohl eher die Hölle zufriert, leider :D
Microsofts DXR dient wohl als Basis für Nvidias RTX. Wenn AMD dazustösst wird es wohl zwei Varianten geben.
Aus dem THW Forum:
DXR ungleich RTX. Microsoft erlaubt ja auch Texturverbesserungen per ML, DLSS ist proprietär, was aber auch erst einmal einen Sinn ergibt, wenn man es auf Spiele hin optimiert und Bibliotheken schaffen muss. Oder die Spieleschmieden liefern gleich das passende Material, dann wäre DLSS obsolet. Wobei da wohl eher die Hölle zufriert, leider :D
Microsofts DXR dient wohl als Basis für Nvidias RTX. Wenn AMD dazustösst wird es wohl zwei Varianten geben.
Es gibt Momente in denen man merkt, dass jemand nicht die geringste Ahnung hat, wovon er redet. Ich hatte gerade eben beim Lesen so einen Moment.
pixeljetstream
2019-01-17, 18:42:21
RTX : Marketing Name von NV um die Teile im Treiber und der HW die primär mit raytracing zu tun haben.
DXR: MS Standard für raytracing in dx12. Hersteller basteln wie beim normalen dx auch Treiber dafür. Ohne spezielle Treiber gibt's ein generisches Fallback. Das war bei tessellation damals übrigens ähnlich. Gab's für Entwickler auch ne Referenz über compute shader für ältere HW.
Microsoft lädt regelmäßig ein um Wünsche und Ideen für zukünftige Versionen auszutauschen. Es gibt Planungsphasen mit HW und SW Herstellern unter NDA. Entwickler/AMD wußten also vorher was kommt als GDC 2018 dxr angekündigt wurde.
NV macht ca. 10 Jahre Forschung in raytracing auf gpu. Sieht man an unzähligen Veröffentlichungen auf Siggraph etc. Mit den ersten CUDA Versionen wurde das schon gezeigt.
SW Entwickler machen das auch ne Weile, es ist imo daher kein Schnellschuss oder Alleingang (Imagination hatte es auch Mal probiert). AMD hat auch Lösungen zu dem Thema ne Weile. Es ist im Prinzip nix neues, neu ist nur dass man es nun verstärkt mit hybrid für hohe frameraten wagt.
Obwohl vieles diskutiert und simuliert wurde und auf volta dann ja immerhin lauffähig. So ist der Zeitraum einfach immer noch extrem kurz als das man richtig gute Erfahrung sammeln konnte. Das wird aber logischerweise immer flotter. Sieht man ja auch ein wenig am Fortschritt in BFV.
Es gibt nun vieles zu erlernen und erfahren in der Dynamik der neuen HW.
Imo wird hier unterschätzt wie viel einfacher das ist mit echter HW. Theorie vs Praxis. Langsamer Simulator vs flotte Hardware.
Man kann solche Dinge nicht endlos planen, die Komplexität ist zu groß. Irgendwann muss man einen Ansatz wagen.
Man hätte Marketing technisch vielleicht etwas auf die Bremse gehen sollen bei den gamern. Bei der Siggraph war es okay, weil eh alle irgendwie raytracing machen und als Entwickler besser einschätzen können was wie lange braucht. Aber beim gaming muss diese Anpassung und Erfahrung erst gemacht werden.
Ich hab noch von keinem Entwickler gehört dass er die Features doof findet, Kritik gibt's meist nur an der API, und wie gewohnt halt Wunsch nach mehr low-level. Man wird sehen wie sich das nun weiter entwickelt. Ist ja erst die erste Version von dem ganzen.
Man hätte Marketing technisch vielleicht etwas auf die Bremse gehen sollen bei den gamern.
Das bringt auch nichts. Bei Gamern steigen Ahnungslosigkeit, Anspruch und öffentliches Bashing gleichzeitig in absurder Geschwindigkeit. Es eskaliert immer an allen Enden, egal ob Technik oder was anderes, direkt.
rentex
2019-01-17, 19:05:29
Das bringt auch nichts. Bei Gamern steigen Ahnungslosigkeit, Anspruch und öffentliches Bashing gleichzeitig in absurder Geschwindigkeit. Es eskaliert immer an allen Enden, egal ob Technik oder was anderes, direkt.
Im grobem stimmt meine Aussage. Frage ist, was mit dir nicht stimmt?
Bist du sowas wie ein RTX Fanboy?
Ich weiß was ich möchte und das ist was am Bildschirm ankommt.
Lern mal etwas Benehmen. Ganz einfach!
pixeljetstream
2019-01-17, 20:19:36
@rentex, dass du deine eigene Aussage verstehst sollte nicht verwundern ;)
Ich finde es aber auch etwas zusammenhangslos, und fragte mich auch manchmal was der eine Satz mit dem anderen zu tun hat, aber gibt schlimmeres ;)
Im übrigen denke ich das je nachdem wie gut dlss funktioniert langfristig die SW Hersteller sowas selbst machen und mitliefern. Im Moment wäre der Aufwand/Nutzen zu hoch, daher nimmt NV sein Schicksal selbst in die Hand. Aber sagen wir in 4 Jahren sieht das anders aus. Das ist auch kein Hölle zufrieren, als Hersteller profitierst du anfangs der Trendsetter zu sein, indirekt Nachfrage nach mehr gpu Rechenzentren zum trainieren etc. Ergo ML in gaming als gesamtes langfristig zu etablieren (wenn es klappt) Es geht nicht darum der einzige zu sein. Als erster viel Erfahrung zu sammeln ist schon gut genug. Das ist beim raytracing nun auch so. AMD und Intel können nun auch "leichter" einsteigen weil sie nun auch konkrete Szenarien vorliegen haben.
Dural
2019-01-17, 20:59:42
Ich find es nur noch schlimm, der frust muss bei vielen relativ gross sein, auf was auch immer.
Jedoch muss man auch sagen das es NV mit den preisen etwas übertrieben hat, man hätte auf etwas margen verzichten müssen. Die meisten sind nicht fähig einen preis richtig einzuschätzen, die schauen nur auf FPS/Dollar.
Im grobem stimmt meine Aussage. Frage ist, was mit dir nicht stimmt?
Nein. Sie stimmt nicht mal im Groben. :freak:
Und nein, ich bin kein RTX Fanboy.
Mal was konstruktives:
Wenn man sich Maxwell -> Pascal anschaut, ist es ziemlich wahrscheinlich, dass es wohl etwas kleinere architektonische Änderungen beim 7nm-Turing geben wird. Wahrscheinlich ist, dass man RT massiv aufstocken wird, das die Chipgrößen und das Powerbudget das jetzt zulassen. Auf der Grundlage, und mit der Annahme, dass NV erst mal nicht so übertreiben möchte mit der Chipgröße (wie teuer sollen die Dinger noch werden) würde ich mal auf folgende Specs tippen:
TU206 -> 2048 SP, 96 RT-Cores, ~230mm², 192Bit 18Gbps GDDR6 (12GB), 160-180W TDP, ~2000MHz
TU204 -> 3584 SP, 168 RT-Cores, ~350mm², 256Bit 18Gbps GDDR6 (16GB), 210W TDP, ~2000MHz
TU202 -> 5376 SP, 252 RT-Cores, ~480mm², 384Bit 18Gbps GDDR6 (24GB), 260W TDP, ~2000MHz
Alle in 7LPP.
BlacKi
2019-01-19, 22:41:14
Mal was konstruktives:
sieht zwar gut aus, ist aber ins blaue geraten.
Rampage 2
2019-01-20, 01:14:57
TU204 -> 3584 SP, 168 RT-Cores, ~350mm², 256Bit 18Gbps GDDR6 (16GB), 210W TDP, ~2000MHz
Alle in 7LPP.
Und ich hatte noch gedacht, die von mir genannten 4096 SPs für Gx104/204 wären das "absolut" vertretbare Minimum:freak:
R2
sieht zwar gut aus, ist aber ins blaue geraten.
Nein wirklich, schockierend... :freak:
Rampage 2 der Fokus wird mMn auf der Nutzbarkeit von RT liegen.
AffenJack
2019-01-20, 12:15:28
Mal was konstruktives:
Wenn man sich Maxwell -> Pascal anschaut, ist es ziemlich wahrscheinlich, dass es wohl etwas kleinere architektonische Änderungen beim 7nm-Turing geben wird.
Geh ich soweit mit.
Wahrscheinlich ist, dass man RT massiv aufstocken wird, das die Chipgrößen und das Powerbudget das jetzt zulassen.
Nein, Nvidia muss RT nicht massiv aufstocken, wenn wie bei BFV sowieso das Shading und nicht RT limitiert. Daher macht es kein Sinn die Arch hier groß zu verändern. Stattdessen einfach eine gleichmäßige Erhöhung, RT vielleicht mit leichten Architekturveränderungen, die da mehr Speed bringen. Erst die größere Architekturveränderung danach kann RT nochmal stark ausbauen, wenn die Softwareumgebungen besser passen und man mehr Erfahrungen mit RT hat.
Alle in 7LPP.
Zu den Spekus sag ich nix, weil das bisher noch zuviel raten ist. Hier gehe ich aber von 7nm EUV aus. Nv überspringt 7nm DUV ist meine Theorie.
Nein, Nvidia muss RT nicht massiv aufstocken, wenn wie bei BFV sowieso das Shading und nicht RT limitiert.
Da wir nicht wissen, was beim Shading für RT limitiert (Vermutungen bei Performanceproblemen sind in 99% der Fälle falsch), kann es durchaus sinnvoll sein die Architektur an den passenden Stellen leicht zu ändern.
Rampage 2
2019-01-20, 19:02:52
Rampage 2 der Fokus wird mMn auf der Nutzbarkeit von RT liegen.
Dasselbe hatte ich in meinen Spekus auch angedeutet (Erhöhung RT-Cores pro SM von 1 -> 2), aber vor allem wenn man sich vor Augen führt, dass der Leistungsanstieg von Turing bei der klassischen Rendering-Leistung zu wenig ist, kann man davon ausgehen, dass *spätestens* die Nachfolge-Generation (Ampere oder whatever) diesen Mangel addressieren wird - wo eine Generation Untergewicht hat, wird logischerweise mit der darauffolgenden Generation durch Übergewicht auskompensiert...
Und das geht abseits von Architekturverbesserungen (da ist kaum noch was zu holen) nur durch mehr Einheiten und/oder mehr Takt. 4096 SPs sind ja auch gar nicht viel mehr als TU104 (+33% bzw. +39% zur 2080), sondern für einen neuen Fullnode (7nm) sogar SEHR konservativ...:wink:
R2
Das wird sicher nicht passieren. Der Sprung ist ja auch 2 Iterationen aufgeteilt, neue Architektur im alten Prozess, neuer Prozess mit "alter" Architektur. Man kann also allerhöchstens einen Sprung wie von Maxwell auf Pascal erwarten. Aber ich denke, das wäre etwas hochgegriffen, weil mehr RT eben noch hinzu kommt und Turing deutlich mehr an die Grenzen geht als Maxwell es tat.
Leonidas
2019-01-23, 16:35:13
Wenn man sich Maxwell -> Pascal anschaut, ist es ziemlich wahrscheinlich, dass es wohl etwas kleinere architektonische Änderungen beim 7nm-Turing geben wird. Wahrscheinlich ist, dass man RT massiv aufstocken wird, das die Chipgrößen und das Powerbudget das jetzt zulassen. Auf der Grundlage, und mit der Annahme, dass NV erst mal nicht so übertreiben möchte mit der Chipgröße (wie teuer sollen die Dinger noch werden) würde ich mal auf folgende Specs tippen:
TU206 -> 2048 SP, 96 RT-Cores, ~230mm², 192Bit 18Gbps GDDR6 (12GB), 160-180W TDP, ~2000MHz
TU204 -> 3584 SP, 168 RT-Cores, ~350mm², 256Bit 18Gbps GDDR6 (16GB), 210W TDP, ~2000MHz
TU202 -> 5376 SP, 252 RT-Cores, ~480mm², 384Bit 18Gbps GDDR6 (24GB), 260W TDP, ~2000MHz
Würde ich ähnlich sehen. Viel mehr Shader-Einheiten kann NV nicht bringen, denn erst einmal muß man von den riesigen Die-Größen runterkommen. Dagegen dürften die Anforderungen an RT deutlich steigen, denn BFV ist ja erst einmal der Anfang und der ist nun nicht gerade überzeugend. Die Spieleentwickler können definitiv mehr - aber sie werden nicht mehr zeigen, wenn die HW hierfür fehlt. Also klar mehr RT-Cores pro Shader-Cluster bei NVs 7nm-Generation.
Hier gehe ich aber von 7nm EUV aus. Nv überspringt 7nm DUV ist meine Theorie.
Zustimmung. Man hat extra lange gewartet, dies dürfte der Zielsetzung von 7nm EUV dienen.
Edgecrusher86
2019-01-24, 17:19:28
Ja, das dürfte wohl hin kommen - das Plus an Einheiten möglichst gering halten, und den Rest mit Taktplus und etwas IPC wett machen - maximal RT/TC (mehr als) verdoppeln. 5376 SP ist dann was für eine TITAN, 5120 klingen für die Ti plausibel. Chipgrößen kleiner halten und die Effizienz weiter zu steigern dürfte wohl das Primärziel sein.
3584 SP dürften die Performanceklasse knapp über TU102-300 platzieren - kann man ja wie auch einen x06er Chip bis auf 2,1 GHz boosten lassen.
"TU206" soll wohl 2688 SP sein?! Ein "216" dürfte dann 1792 SP bekommen. ;)
Preislich wird es aber sicherlich derbe werden - da erwarte ich für die xx80 Ti mindestens 300 USD, xx80 non Ti 200-250 USD, xx70 200 USD, sowie für die 60er 130 USD Aufschlag (MSRP).
TITAN (GDDR6): 2999-3499 USD MSRP
3080 Ti: $1499 MSRP
3080: $950-999 MSRP
3070: $750 MSRP
3060: $500 MSRP
E: Wobei für H2/2019 würde mich ja ein HPC Nachfolger von V100 nicht überraschen mit grob 6144 SP - eine entsprechende TITAN mit 24GB HBM2 (768-921 GB/s) darf man dann Richtung 5000 USD platzieren.
Der eigentliche TU-Nachfolger wird dann grob H2/2020 kommen.
Käsetoast
2019-01-24, 18:11:20
würde ich mal auf folgende Specs tippen:
TU206 -> 2048 SP, 96 RT-Cores, ~230mm², 192Bit 18Gbps GDDR6 (12GB), 160-180W TDP, ~2000MHz
TU204 -> 3584 SP, 168 RT-Cores, ~350mm², 256Bit 18Gbps GDDR6 (16GB), 210W TDP, ~2000MHz
TU202 -> 5376 SP, 252 RT-Cores, ~480mm², 384Bit 18Gbps GDDR6 (24GB), 260W TDP, ~2000MHz
Alle in 7LPP.
Halte ich ganz ehrlich für Träumerei (auch wenn es ein sehr schöner ist ;) ). Ich denke NVIDIA muss in erster Linie eines tun, nämlich die Chips klein kriegen, um in bezahlbare Regionen zu kommen. Außerdem wird 7nm selbst mit EUV immer noch verdammt teuer sein. Damit wird nahezu der gesamte Vorteil von 7nm durch die Flächenverkleinerung aufgefressen. Ich denke da eher an Folgendes (ich nenne es mal fiktiv die 3000er Serie):
3080 Ti: Identisch zur 2080 Ti, aber mit 16GB GDDR6, 5120 SP, 80 RT-Cores
3080 (Salvage der TI): 12 GB, 4096 SP, 68 RT-Cores
3070: 8 GB, 3072 SP, 68 RT-Cores
3060 (Salvage der 3070): 8 GB, 2048 SP, 56 RT-Cores
Warum ich das so sehe?
1.)
Einen "TU202" wird es erstmal nicht geben. Dafür ist die 7nm Produktion zu teuer. Da wird man 1-2 Jahre später dann was großes als Titan nachschieben was mehr Chipfläche einnimmt...
2.)
Chipflächenverkleinerung ist der Hauptfokus. Natürlich muss man auch an der Rohleistung was steigern, aber wenn man nicht direkt wieder teurer werden muss, dann geht das nur sehr moderat. Was RT angeht ist es hier dann wesentlich, dass die 3080 als Salvage und die 3070 als voller Chip die gleiche Anzahl an RT-Cores hat wie die 2080 Ti, denn wie Tests gezeigt haben ist das die Anzahl, bei der die Performance für eine sinnvolle Anwendung reicht. Das sollte so gesehen "Standard" werden und findet sich daher sowohl bei der 3080 als auch 3070. Hier deutlich mehr zu verbauen macht keinen Sinn. Es wird kaum genutzt und deutlich mehr Einheiten würden deutlich mehr Fläche bedeuten - NVIDIA muss aber unbedingt die Chips und damit die Preise klein kriegen - momentan ist Turing preislich für die meisten einfach eher uninteressant...
3.)
Was man an Mehrperformance holt, holt man also nur minimal durch mehr Recheneinheiten und zusätzlich durch leichte Taktsteigerungen via 7nm und letztendlich über IPC Verbesserungen. Wird nicht überragend sein, aber was die Karten verkauft, wird eben der Preis sein, der deutlich unter Turing liegen wird - ich würde da so was denken wie:
3080 Ti - 700 $
3080 - 500 $
3070 - 400 $
3060 - 300 $
Irgendwann später dann eine Titan für so 1000 $...
Edgecrusher86
2019-01-24, 18:24:57
Das geht aber auch nur auf, wenn je 12Gb G6 verbaut werden würden. Dann käme man auf 16,5GB für die 3080 Ti. Eine 3070 mit weiterhin 8GB wäre schon recht arm - also 224-bit und 10,5GB wären dann möglich. Für eine 60er wären 8GB wohl noch ok. Nun ja, seit Pascal haben 70er und 80er ja wieder gleich viel VRAM - wäre auch möglich, dass man jeweils 12GB verbauen würde.
So recht mag ich aber nicht an solche krummen Bestückungen denken, auch wenn 16,5GB sicher ausreichend für eine Next Gen Ti wären. ;)
Preislich wird Jensen aber sicherlich einen Teufel tun und dem Kunden entgegen kommen - günstiger wird nichts mehr werden - nur teurer.
Käsetoast
2019-01-24, 18:38:49
Preislich wird Jensen aber sicherlich einen Teufel tun und dem Kunden entgegen kommen - günstiger wird nichts mehr werden - nur teurer.
Ich denke das wird von den Verkaufszahlen abhängen. Ich glaube nicht, dass sich Turing so gut verkauft wie Pascal. Gerade wenn AMD mit Navi tatsächlich was Gutes im Midrange auf die Beine gestellt bekommt, werden NVIDIA der große Batzen an Midrange Kunden, den dieses Segment nunmal bildet, sicherlich ein Stück weit weglaufen. Da wird man reagieren müssen denke ich. Aber auch so dürfte die Menge an Kunden, die Turing Preise bezahlen, nicht mehr so groß sein wie bei Pascal Kunden...
Die derzeitigen Turing Preise sind halt nur so, weil man im Profi CG Bereich Fuß fassen will und hier potentiell Milliarden verdienen kann. Deswegen einmal eine nur mäßige Gamer Generation zu liefern kann man da locker in Kauf nehmen und das AMD gerade so schwächelt kommt da doch gerade recht...
Leonidas
2019-01-25, 11:25:37
Noch sehe ich das nicht, das Turing nicht gut verkauft wird. Im HighEnd-Bereich das schnellste, im Mainstream-Bereich reicht "GEFORCE" als Verkaufsargument - das wird gut weggehen, gerade angesichts der abgespeckten TU116/TU117-Chips. Zudem Verkaufszeitraum über ein Jahr, da wird NV gut Kasse machen.
Erst wenn die Geschäftszahlen wirklich was anderes aussagen, sollte man Turing geschäftlich anders bewerten als bislang Maxwell & Pascal.
Daredevil
2019-01-25, 11:38:45
Die Bedenken, dass Raytracing sehr schlecht läuft, müssten ja seit dem großen Patch BFV auch relativ schnell verflossen sein.
Eine Luftpumpe ist dieses Feature keinesfalls, das hat man allerdings am Anfang ( oder eher vor dem Anfang ) gesagt.
Calypso
2019-01-25, 11:44:27
also dass Turing so ein Selbstläufer sein soll sehe ich noch nicht - dazu passen die Nummern x60 und 70 etc. nicht so richtig zum Preis. Da könnte ich mir schon vorstellen, dass da nicht so losgekauft wird wie bei Pascal. Nicht jeder gibt > 350 Euro für ne x60er Karte aus...
Zu mal Pascal wenn man sich einfach mal die Umfrage-Auswertung von Pascal zu Turing ansieht, dann kann ich mir nicht vorstellen, dass eine UNterschied von 45 % positiv (Pascal) zu 17 % (Turing) sich nirgendwo widerspiegelt...
Dural
2019-01-25, 12:01:29
AMD ist bei den PC Gamer schon lange nicht mehr präsent, sieht euch doch nur mal die Steam Zahlen an.
Alleine die 1080Ti kommt auf mehr Steam Marktanteil als RX480+580+590 zusammen! Die 1060 hat einen Anteil von sagenhaften 15.39% gegenüber 1,28% der RX480+580 obwohl Massenhaft Polaris Mining Karten relativ günstig in den Umlauf gebracht wurden. :rolleyes: übrigens hat es die 590 nicht mal geschafft aufgelistet zu werden, im Gegensatz zur 2070+2080, das ding muss brutal laufen ;)
Das AMD zeug liegt wie Blei in den Regalen, keiner will es haben. Wenn die 1660 Karten im Handel sind könnte AMD die 590 eigentlich auch gleich einstellen, kann mir wirklich nicht vorstellen das da ein Gamer überhaupt noch eine 590 kauft.
https://store.steampowered.com/hwsurvey/videocard/
wolik
2019-01-25, 12:12:44
Die Bedenken, dass Raytracing sehr schlecht läuft, müssten ja seit dem großen Patch BFV auch relativ schnell verflossen sein.
Eine Luftpumpe ist dieses Feature keinesfalls, das hat man allerdings am Anfang ( oder eher vor dem Anfang ) gesagt.
Bei 0,22% 2080 (2080Ti ist wohl dabei) und RT läuft nur bei RTX Karten, (wie gut andere Thema) und wie einfach zu implementieren sehen wir bei SWOTR.
Warten wir auf Metro E. Wenn Morgen 1180Ti mit 30% Leistung auf 2080Ti rauskommt, werde ich sofort umsteigen.
Dural
2019-01-25, 12:15:31
Nein, die Ti ist da nicht drin. Bei NV werden die Karten genau unterschieden, bei AMD eher nicht.
Mit anderen Worten, die 2080 hat sich von allen Turing Karten wahrscheinlich am besten verkauft, obwohl die überall praktisch nicht gut weg kam.
Bösewicht
2019-01-25, 14:27:36
im Mainstream-Bereich reicht "GEFORCE" als Verkaufsargument - das wird gut weggehen..
Ja und das auch absolut zu Recht.:smile:
Die meisten werden sich nicht daran stören 50-60-70€ mehr für eine x60 Karte zu Investieren wenn ich mir so ansehe wie viel Geld für Handys, Applewatch, VR und das alles ausgegeben wird.
Vieles Relativiert sich auch ganz schnell wenn der Wiederverkaufspreis nach 2 Jahre bei 50% liegt.
Dural
2019-01-25, 14:57:31
Mir viel gerade auf das bei Steam gar keine Vega gelistet ist, NV erreicht mit den RTX 2070 + 2080 Karten in 2-3 Monaten schon deutlich mehr Steam Marktanteil als AMD mit Vega in 1,5 Jahren (!!!)
Das muss man sich mal auf der Zunge zergehen lassen. Wenn man sich so mancher Kommentar durchliess fragt man sich schon in welcher Traumwelt die leben.
Käsetoast
2019-01-25, 15:25:13
Das muss man sich mal auf der Zunge zergehen lassen. Wenn man sich so mancher Kommentar durchliess fragt man sich schon in welcher Traumwelt die leben.
Wobei man fairerweise sagen muss, dass gerade Vega DIE Paradekarte war, die wegen dem Mining nicht nur quasi unkäuflich, da nicht lieferbar, war, sondern wenn doch dann auch zu wirklich kranken Fantasiepreisen, die kaum ein Mensch zahlen wollte (wenn man nicht per Mining damit Geld verdienen wollte)...
Dass im Verhältnis gesehen kaum Vegas in Spielerechnern gelandet sind, verwundert also nicht. Das schmälert NVIDIAs Marktmacht natürlich nicht, aber Vega würde ich für solche Betrachtungen nun wirklich überhaupt nicht heranziehen...
mkh79
2019-01-25, 15:35:38
Die Bedenken, dass Raytracing sehr schlecht läuft, müssten ja seit dem großen Patch BFV auch relativ schnell verflossen sein.
Eine Luftpumpe ist dieses Feature keinesfalls, das hat man allerdings am Anfang ( oder eher vor dem Anfang ) gesagt.
Verstehe ich dich richtig, dass du sagst, RT liefe gut?
Hast du es selbst gespielt?
Screemer
2019-01-25, 15:45:27
Ja und das auch absolut zu Recht.:smile:
Die meisten werden sich nicht daran stören 50-60-70€ mehr für eine x60 Karte zu Investieren wenn ich mir so ansehe wie viel Geld für Handys, Applewatch, VR und das alles ausgegeben wird.
Vieles Relativiert sich auch ganz schnell wenn der Wiederverkaufspreis nach 2 Jahre bei 50% liegt.
Wtf? Mainstream ist der Preisbereich von 150-250€, wegen mir auch 300€ was aber schon eher performance ist. da gibt's was von nv? Ne 1060, die mittlerweile in allen Belangen von Polaris in allen Iterationen den Arsch versokt bekommt. Genau so verhielt es sich über die letzten Generationen. Wie kann man sowas feiern? Der relative wiederverkaufswert unterscheidet sich halt Mal überhaupt nicht. Was du grad mit hohem Verkaufswert fühlst ist die allgemeine Preisspirale seit 2 Generationen und der damit zusammenhängenden Preis im Gebrauchtmarkt.
Bösewicht
2019-01-25, 16:19:09
ich feier das nicht nur was will man gegen die AMD Preispolitik machen?
Ich sehe bei nvidia ein besseres Preis/Leistung also warum sollte ich die noch dafür bestrafen wenn sie ihren Job gut machen das musst du mir erklären?
Hab eine 3/4 stunde lang preise der letzten 12 Monate von Nvidia und AMD und der 1070 und 56 und aktuell 2060 verglichen und da kann man doch nicht sagen das Nvidia sein Job schlecht gemacht hat?
Nvidia sein Preis-Leistungs-Verhältnis im vergleich zur Konkurrenz ist doch gut.
Ich Kaufe mir eine 2060 und nach 2 Jahren bekomme ich 180 Euro für die Karte zurück:up:
edit:
die 50-70€ beziehen sich auf 1060/480 release preis, was dafür aber an mehrwert geboten wird ist doch in Ordnung?
mehr als 1070 performance + DLSS und RT was in Zukunft mehr Bild und FPS unter FullHD bringt.
schaut man sich die 2060 bench zur inflator demo an die hat durch dlss weniger frame drops als eine 1080 mit 8gb ram
edit edit
das sind ja quasi 10€ im monat für mein hobby ;)
Die Bedenken, dass Raytracing sehr schlecht läuft, müssten ja seit dem großen Patch BFV auch relativ schnell verflossen sein.
Eine Luftpumpe ist dieses Feature keinesfalls, das hat man allerdings am Anfang ( oder eher vor dem Anfang ) gesagt.
Quark, das hat überhaupt nix geändert. Es ist immer noch auf FullHD beschränkt, nur mit dem Unterschied, dass die 2080 und 70 nicht komplett unbrauchbar sind mit RT.
Ich sehe aber einfach nicht, dass RT wirklich zieht als Verkaufsargument, erst recht nicht bei den Preisen. Das Problem bei NV sind diese gewaltigen Chipgrößen. Die werden aufgrund der Preise lange nicht soviel verkaufen und gleichzeitig müssen die diese Preise aber abrufen, um die Rendite bei den Chipgrößen hoch zu halten. Für NV wird Turing mMn zur Flop-Generation, erst recht wenn AMD es schafft, was gleichwertiges zur 2080 dauerhaft anzubieten.
RT sehen nur die Fanboys mit der rosaroten Brille als Verkaufsschlager, der Durchschnittsuser hat schon längst kapiert, dass RT für hohe Auflösungen nicht nutzbar ist. Die komplette Turing-Generation ist trotz RT genauso zukunftstauglich wie nin-RT-Karten, denn Spiele, die mit RT für spätere Generation erscheinen, werden mit Turing eh unspielbar sein mit RT.
Und die 2080ti ist ne Chimäre. Es ist eigentlich ne Titan, denn man bewegt sich im vierstelligen Bereich und eine Karte mit dem Chip wird sich für NV unter 800€ Verkaufspreis nicht reniteren. Den kann man eigentlich nicht mit zum normalen Portfolio zählen - wird natürlich überall gemacht, weil er halt 2080ti heißt.
mkh79
2019-01-25, 19:05:28
Deswegen meine Frage, ob er es gespielt hat.
Ich habe es ein paar Mal mit der Ti gespielt und es ist auf WQHD bei mir grottenschlecht gelaufen, so völlig unspielbar.
Auch auf FHD Frametimes aus der Hölle.
Im Multiplayer komplett zu vergessen, selbst auf DXR low.
Screemer
2019-01-25, 19:16:30
die 50-70€ beziehen sich auf 1060/480 release preis, was dafür aber an mehrwert geboten wird ist doch in Ordnung?
mehr als 1070 performance + DLSS und RT was in Zukunft mehr Bild und FPS unter FullHD bringt.
schaut man sich die 2060 bench zur inflator demo an die hat durch dlss weniger frame drops als eine 1080 mit 8gb ram
Wenn das in Ordnung wäre, dann würden wir heute tausende von euro für Performancekarten bezahlen. Also: Nein es ist nicht in Ordnung.
y33H@
2019-01-25, 19:27:27
Es ist immer noch auf FullHD beschränkt, nur mit dem Unterschied, dass die 2080 und 70 nicht komplett unbrauchbar sind mit RT.1440p läuft auf einer RTX 2080 im Singleplayer wunderbar.
btw, die GTX 1660 Ti kommt passend am 15ten Februar - an dem Tag launcht auch Metro Exodus :cool:
Screemer
2019-01-25, 19:35:21
Was natürlich bei nem Titel der hauptsächlich auf MP setzt, die dortigen Probleme aufwirft :ugly:
horn 12
2019-01-25, 20:41:01
Die 6GB Ram werden der ganzen Palette unter RTX 2070 das Genick brechen im Jahr 2019
und AMD weiß dies gekonnt zu promoten.
Screemer
2019-01-25, 20:52:18
Die 6GB Ram werden der ganzen Palette unter RTX 2070 das Genick brechen im Jahr 2019
und AMD weiß dies gekonnt zu promoten.
gekonnt? na da bin ich mal gespannt. ich wage das zu bezweifeln.
Leonidas
2019-01-26, 04:50:49
Die 6GB Ram werden der ganzen Palette unter RTX 2070 das Genick brechen im Jahr 2019
und AMD weiß dies gekonnt zu promoten.
gekonnt? na da bin ich mal gespannt. ich wage das zu bezweifeln.
Genau das ist die Frage. Noch sehe ich da gar nix. Ich sehe auch bei AMD keinen, der da mal richtig mitdenkt und so was überhaupt anstösst. Ich würde Diss-Paper auflegen lassen, die sich eingehend mit 6 GB vs. 8 GB beschäftigen. Da lassen sich genügend Ansatzpunkte bei wenig Nachgraben finden - und noch viel bessere, wenn man mehr nachgräbt. NV mal die schlechtere praktische Texturenqualität nachzuweisen, weil zu wenig Speicher da ist, hätte doch richtig was. Doch geht AMD diesen Weg? Nada, da wird in dieser Frage geträumt. Dabei liegt hier das Popcorn doch schon bereit ...
Bösewicht
2019-01-26, 08:10:40
Wenn das in Ordnung wäre, dann würden wir heute tausende von euro für Performancekarten bezahlen. Also: Nein es ist nicht in Ordnung.
ach komm schon dieses argument bringt ihr hier seid jahren und seitdem ist einfach alles teurer geworden.
ich kann eine firma nicht haten wenn alle anderen das auch machen oder sogar schlimmer sind.
ich hätte auch gerne die zeit zurück in der man mit 100dm mit zwei einkaufswagen zum auto gerollt ist:redface:
ich bin mir ziemlich sicher das inflationsbereinigt, steigende kosten usw alles mit eingerechnet inkl. mehr performance zur vorgängergeneration die karten nach wie vor top sind und im vergleich zur konkurrenz nicht zu teuer.
Ein Iphone xs ist zu teuer, ein fast perfektes wirklich geiles gerät aber viel viel zu teuer.
Die 6GB Ram werden der ganzen Palette unter RTX 2070 das Genick brechen im Jahr 2019
und AMD weiß dies gekonnt zu promoten.
ich vermute ehr das die 6gb mit steigender DLSS verfügbarkeit immer mehr entlastet wird und unter fullhd die 6gb nicht so schnell schlapp machen.
Laut steam charts spielen keine 10% mit mehr als 1920x1080 auflösung damit ist das thema über jahre hinweg noch nicht so relevant.
SKYNET
2019-01-26, 10:10:29
Genau das ist die Frage. Noch sehe ich da gar nix. Ich sehe auch bei AMD keinen, der da mal richtig mitdenkt und so was überhaupt anstösst. Ich würde Diss-Paper auflegen lassen, die sich eingehend mit 6 GB vs. 8 GB beschäftigen. Da lassen sich genügend Ansatzpunkte bei wenig Nachgraben finden - und noch viel bessere, wenn man mehr nachgräbt. NV mal die schlechtere praktische Texturenqualität nachzuweisen, weil zu wenig Speicher da ist, hätte doch richtig was. Doch geht AMD diesen Weg? Nada, da wird in dieser Frage geträumt. Dabei liegt hier das Popcorn doch schon bereit ...
naja, warum machen das nichtmal einschlägige webseiten? achja, ich weiss warum... tests zur bildqualität, sind dank des knebel NDAs durchweg untersagt.
basix
2019-01-26, 10:14:52
ich vermute ehr das die 6gb mit steigender DLSS verfügbarkeit immer mehr entlastet wird und unter fullhd die 6gb nicht so schnell schlapp machen.
Laut steam charts spielen keine 10% mit mehr als 1920x1080 auflösung damit ist das thema über jahre hinweg noch nicht so relevant.
Da wäre ich vorsichtig, dass DLSS sich wirklich so breit durchsetzt. Aber für 1080p sollte eine 6GB Karte noch gut reichen, allerdings schon heute mit Ausnahmen, wo man Framedrops hat. Alles in allem finde ich die 2060 ja eine gute Karte. Aber wenn man die Karte eben 2-3 Jahre behalten will, sind die 6GB schon etwas knapp.
pixeljetstream
2019-01-26, 10:36:44
Genau das ist die Frage. Noch sehe ich da gar nix. Ich sehe auch bei AMD keinen, der da mal richtig mitdenkt und so was überhaupt anstösst. Ich würde Diss-Paper auflegen lassen, die sich eingehend mit 6 GB vs. 8 GB beschäftigen. Da lassen sich genügend Ansatzpunkte bei wenig Nachgraben finden - und noch viel bessere, wenn man mehr nachgräbt. NV mal die schlechtere praktische Texturenqualität nachzuweisen, weil zu wenig Speicher da ist, hätte doch richtig was. Doch geht AMD diesen Weg? Nada, da wird in dieser Frage geträumt. Dabei liegt hier das Popcorn doch schon bereit ...
Vermutlich weil sie auch noch Grafikkarten mit weniger als 8gb im aktuellen Programm haben ;) RadeonPro GCN4 kommt auch mit 2 und 4 GB daher.
Leonidas
2019-01-26, 10:45:30
Möglicherweise. Sogar sehr gut denkbar.
pixeljetstream
2019-01-26, 10:54:01
Imo ist eine Verlagerung der Diskussion in Sachen Bildqualität zweischneidig. Zum einen ist ja das texturstreaming Anwendungssache und nicht Hersteller. Zum anderen zieht der Konkurrenz mit zwei Qualitätsfeatures (RT, DLSS) ins Marketing. Hier aufzuspringen und ebenfalls Qualität statt Performance/Price zu pushen, könnte nach hinten los gehen. Imo werden sie klassisch mit Navi einfach 4k Performance zeigen. Da sollten die extra GB helfen.
Und ihre wichtigsten 2 Kunden verkaufen noch auch HW mit relativ gesehen weniger RAM.
Troyan
2019-01-26, 10:56:32
Dafür müsste Navi erstmal schnell genug für 4K sein. Vega7 wird es nicht sein, wenn die Werte von AMD stimmen.
4K ist einfach überbewertet. Spiele gerade die Anthem-Demo und alle grafischen Probleme lassen sich durch 4K nicht lösen. Es brauch andere Ansätze und andere Techniken.
Da wäre ich vorsichtig, dass DLSS sich wirklich so breit durchsetzt. Aber für 1080p sollte eine 6GB Karte noch gut reichen, allerdings schon heute mit Ausnahmen, wo man Framedrops hat. Alles in allem finde ich die 2060 ja eine gute Karte. Aber wenn man die Karte eben 2-3 Jahre behalten will, sind die 6GB schon etwas knapp.
Durchsetzen wird sich höchstens ne Lösung auf DirectML-Basis. Aber man darf eines nicht vergessen: Das mag zwar für kleine Karten interessant sein. Aber es widerspricht dem PC-Gaming als Solches. Man hat ja einen entsprechenden Rechner für entsprechende Qualität.
Troyan
dann eben WQHD, dafür sind die 6GB auch zu knapp. Die sind eigentlich immer zu knapp, so eine dämliche Designentscheidung zu treffen muss man erst mal hinbekommen. Die behindern ihre Verkäufe mit der Scheisse total unnötig.
pixeljetstream
2019-01-26, 11:05:28
Dafür müsste Navi erstmal schnell genug für 4K sein. Vega7 wird es nicht sein, wenn die Werte von AMD stimmen.
4K ist einfach überbewertet. Spiele gerade die Anthem-Demo und alle grafischen Probleme lassen sich durch 4K nicht lösen. Es brauch andere Ansätze und andere Techniken.
Muss nur schneller als die xx60 Karten sein. Der Rest ist dann Meinungssache. Also ich würde als Hersteller so handeln ;) klassisch das betonen wo man schneller ist.
HOT, Behinderung? Die 1060 ist die meist verkaufteste Grafikkarte der letzten Jahre.
Wobei wir im falschen thread sind, diese Diskussion gehört zu den aktuellen Chips.
SKYNET
2019-01-26, 11:15:53
HOT, Behinderung? Die 1060 ist die meist verkaufteste Grafikkarte der letzten Jahre.
zum erscheinungs zeitpunkt waren die 6GB ja auch noch ok, aber jetzt sinds sies halt nicht mehr... erstrecht nicht bei der rohleistung der 2060.
naja, warum machen das nichtmal einschlägige webseiten? achja, ich weiss warum... tests zur bildqualität, sind dank des knebel NDAs durchweg untersagt.
So weit wird es nie kommen, keine Sorge. Ordentliche BQ-Tests sind einfach schweineaufwendig. Und wenn man sowas macht, dann richtig. Kommt Zeit, kommt Test. :)
MfG,
Raff
SKYNET
2019-01-26, 11:39:08
So weit wird es nie kommen, keine Sorge. Ordentliche BQ-Tests sind einfach schweineaufwendig. Und wenn man sowas macht, dann richtig. Kommt Zeit, kommt Test. :)
MfG,
Raff
dann mal los... husch husch, alles stehen und liegen lassen und pascal, turing, polaris, vega & VII gegneinander testen ;)
Screemer
2019-01-26, 11:45:20
ich bin mir ziemlich sicher das inflationsbereinigt, steigende kosten usw alles mit eingerechnet inkl. mehr performance zur vorgängergeneration die karten nach wie vor top sind und im vergleich zur konkurrenz nicht zu teuer.
Ein Iphone xs ist zu teuer, ein fast perfektes wirklich geiles gerät aber viel viel zu teuer.
Dann glaubst du eben falsch. Seit 2015, also dem Release der 980 Serie, hat wir eine durchsnittliche Inflation von 4,5%. Damit würden 250€ in etwa 261€ heute entsprechen. Eine 960, die gut 60% schneller als ihr Vorgänger war, bekamst du damals schon für unter 200€, also ähnlichem Preispunkt wie ihr Vorgänger. Die 2060 ist in etwa genau so viel schneller als ihr Vorgänger. Diese kostet aber mit <280€ bei den costums gut 20% weniger. Das war auch noch zu Hochzeiten vom Mining und Rampreisen. Solche Preissteigerungen im gleichen Marktsegment gab es noch nie bzw. haben 2015 begonnen. Das iPhone ist übrigens ein ziemlich schlechtes Beispiel. l
basix
2019-01-26, 12:26:50
4K ist einfach überbewertet. Spiele gerade die Anthem-Demo und alle grafischen Probleme lassen sich durch 4K nicht lösen. Es brauch andere Ansätze und andere Techniken.
Zum ersten: Da wage ich mal reinzugrätschen. Habe beides getestet und 4K ist ein guter Sprung. Gefühlt weniger gross als von 1920x1200 auf WQHD (obwohl gleichzeitig 24" auf 27") aber Details kommen deutlich besser zur Geltung. Auch feine Geometrie profitiert deutlich (z.B. auch das Gras in Witcher 3). Für mich wäre 4K vermutlich einfach die "Endstation" für die nächsten 10 Jahre. Dann lieber mehr Details und höhere FPS.
Zum zweiten: Stimme dir da zu. Meiner Meinung nach ist z.B. Raytracing die Zukunft. Ich hoffe dass das einfach eher schnell als langsam geht bei der Umstellung auf die neuen Verfahren. Aber das geht nur mit Konsolen-Rückgrat.
BlacKi
2019-01-26, 12:37:00
Dann glaubst du eben falsch. Seit 2015, also dem Release der 980 Serie, hat wir eine durchsnittliche Inflation von 4,5%. Damit würden 250€ in etwa 261€ heute entsprechen. Eine 960, die gut 60% schneller als ihr Vorgänger war, bekamst du damals schon für unter 200€, also ähnlichem Preispunkt wie ihr Vorgänger. Die 2060 ist in etwa genau so viel schneller als ihr Vorgänger. Diese kostet aber mit <280€ bei den costums gut 20% weniger. Das war auch noch zu Hochzeiten vom Mining und Rampreisen. Solche Preissteigerungen im gleichen Marktsegment gab es noch nie bzw. haben 2015 begonnen. Das iPhone ist übrigens ein ziemlich schlechtes Beispiel. l
die marge die für nv bei der 2060 hinten hängen bleibt wäre bei 200€ wohl garnicht existent. davon abgesehen wäre eine solche preispolitik für amd der untergang. das die preise so sind wie sie sind, das hat seine gründe und die sind nicht nur negativ. eine 980ti war nach dem erscheinen der 1080 keine 400€ mehr wert, ein jahr nach dem release der karte. der wert hat sich halbiert. das ist mit der 1080ti "dank" ua. der preise nicht passiert. ihr lasst halt alle aspekte weg die euch einfach nicht in den kram passen.
Geächteter
2019-01-26, 12:40:54
Aber das geht nur mit Konsolen-Rückgrat.
An den Konsolen liegt es nicht, es liegt am Halbleiter. Schnelle und große Performancesprünge sind nicht mehr zu erwarten, weder bei CPUs, gerade das absolut Notwendige single-threaded, noch bei GPUs. Konsequentes Raytracing kann wohl schnell den Rechenbedarf um zig Vielfache ansteigen lassen, und Vielfache sind in Anbetracht einer sich dem Ende seiner Enwicklung nahenden Siliziumtechnologie halt ne Hausnummer eines Burj Khalifa.
pixeljetstream
2019-01-26, 12:46:54
Die Historie ist aber dass durch Spezialisierung Sprünge gemacht wurden. Sonst hätten wir auch keine Grafikkarten ;) eben weil man keine generischen Units nutzt hat man Luft nach oben (Video Decoder etc.)
basix
2019-01-26, 12:51:01
An den Konsolen liegt es nicht, es liegt am Halbleiter. Schnelle und große Performancesprünge sind nicht mehr zu erwarten, weder bei CPUs, gerade das absolut Notwendige single-threaded, noch bei GPUs. Konsequentes Raytracing kann wohl schnell den Rechenbedarf um zig Vielfache ansteigen lassen, und Vielfache sind in Anbetracht einer sich dem Ende seiner Enwicklung nahenden Siliziumtechnologie halt ne Hausnummer eines Burj Khalifa.
Da vermischt du aber was ;) Raytracing in Spielen wird sich nur durchsetzen, wenn dies die Games breit genug unterstützen. Und diese Breite erreicht man über die Konsolen. Das war mein Gedanke.
Dass es dann vielleicht nicht so schnell geht wie ich es mir erhoffe: Dann zieht dein Argument. Es kann sein, dass die nächsten Konsolen Raytracing nur oberflächlich unterstützen können. Einfach aus Kostengründen bezüglich Chipgrösse. Aber wenn ich mir anschaue, was man aus einer 1.8 TFLOPs PS4 zaubern kann, geht ja vielleicht doch was.
Geächteter
2019-01-26, 12:57:38
Die Historie ist aber dass durch Spezialisierung Sprünge gemacht wurden. Sonst hätten wir auch keine Grafikkarten ;) eben weil man keine generischen Units nutzt hat man Luft nach oben (Video Decoder etc.)
Seit geraumer Zeit gibt es nur noch Sprünge im Bling, Shine, Buzzwords, Versprechungen und Anteil von Leder bei Pressekonferenzen. Zählen tut, was auf dem Platz passiert und da ist es seit einiger Zeit alles andere als disruptiv.
Gut, die Preise nähern sich immerhin dem Disruptiven.
Bösewicht
2019-01-26, 13:08:42
Dann glaubst du eben falsch. Seit 2015, also dem Release der 980 Serie, hat wir eine durchsnittliche Inflation von 4,5%. Damit würden 250€ in etwa 261€ heute entsprechen. Eine 960, die gut 60% schneller als ihr Vorgänger war, bekamst du damals schon für unter 200€, also ähnlichem Preispunkt wie ihr Vorgänger. Die 2060 ist in etwa genau so viel schneller als ihr Vorgänger. Diese kostet aber mit <280€ bei den costums gut 20% weniger. Das war auch noch zu Hochzeiten vom Mining und Rampreisen. Solche Preissteigerungen im gleichen Marktsegment gab es noch nie bzw. haben 2015 begonnen. Das iPhone ist übrigens ein ziemlich schlechtes Beispiel. l
Die 5% Steigerung hat aber auch auf zulieferer einfluss und es werden eben mehr als nur eine komponente teurer das ganze kann also auch mehr als 5% werden.
Außerdem steigen die Kosten für kleinere Vertigungsverfahren und Ram nanntest du ja auch schon.
Es Steigen auch Betriebs und Personalkosten und die kannst du nicht alle in deine 4,5% packen das wird sicher nicht so einfach pauschal funktionieren.
Auch investiert nvidia sehr viel geld und das ist ein faktor den du in prozente überhaupt nicht benennen kannst da es nicht viel mehr wie raten ist.
für ein Sony w800i hab ich noch 300 bezahlt und heute kostet vergleichbares auch doppelt und dreimal so viel, versuch das mal alleine auf die inflation zu schieben
so und jetzt habe ich mal geschaut, auch schon zur dm -> euro zeit haben die ca. x60 - x70 und dessen konkurrenz auch schon bei 250$angefangen und sind bis zum highend auf 400$ oder auch mal mehr hoch... ohne quellen oder beweise kommentiere ich nicht zum 100x irgendwelche meinungen.
pixeljetstream
2019-01-26, 13:10:02
@ Geächteter, vielleicht meinen wir nicht das gleiche. Wir sehen zum Beispiel enorme Sprünge in Sachen inferencing bei einigen Herstellern, was durch Spezialisierung erreicht wurde. Derartige Units sind in Smartphones etc. Das zeigt ja dass trotz zähem Fortschritt bei der Fertigung oder "generischer Verfahren", es immer noch vorwärts geht.
Geächteter
2019-01-27, 00:02:11
@ Geächteter, vielleicht meinen wir nicht das gleiche. Wir sehen zum Beispiel enorme Sprünge in Sachen inferencing bei einigen Herstellern, was durch Spezialisierung erreicht wurde. Derartige Units sind in Smartphones etc. Das zeigt ja dass trotz zähem Fortschritt bei der Fertigung oder "generischer Verfahren", es immer noch vorwärts geht.
Ja das ist klar, aber jetzt beim Rendern von 3D gibts doch keine brachliegenden Potenziale, die man mit neuen "Spezialeinheiten" lösen könnte. Mit RTX lässt sich jetzt viel schneller prüfen als bisher, was gemacht werden muss, aber gemacht werden muss es dann trotzdem.
Wenn jetzt auch Bereiche, die nicht im Blickfeld des Spielers liegen, berechnet und gerendert werden müssen, bekommt die CPU und die GPU ordentlich mehr auf die Ohren. Man kann sich verabschieden, dass man mit Silizium jemals ne Realitätssimulation in Echzeit mit 30 fps++ hinbekommt. Alleine die KI in heutigen Spielen ist lächerlich, die eigentliche "echte" Weitsicht ebenfalls, weil hinten und vorne die Power fehlt. Physik ist jetzt auch nicht gerade die genaueste.
Timbaloo
2019-01-27, 00:27:21
Ja genau, hören wir auf.
SKYNET
2019-01-29, 10:09:00
Ja das ist klar, aber jetzt beim Rendern von 3D gibts doch keine brachliegenden Potenziale, die man mit neuen "Spezialeinheiten" lösen könnte. Mit RTX lässt sich jetzt viel schneller prüfen als bisher, was gemacht werden muss, aber gemacht werden muss es dann trotzdem.
Wenn jetzt auch Bereiche, die nicht im Blickfeld des Spielers liegen, berechnet und gerendert werden müssen, bekommt die CPU und die GPU ordentlich mehr auf die Ohren. Man kann sich verabschieden, dass man mit Silizium jemals ne Realitätssimulation in Echzeit mit 30 fps++ hinbekommt. Alleine die KI in heutigen Spielen ist lächerlich, die eigentliche "echte" Weitsicht ebenfalls, weil hinten und vorne die Power fehlt. Physik ist jetzt auch nicht gerade die genaueste.
och, wenn cih mir die legooptik von vor 15 jahren anschaue und was jetzt geht, ist das schon recht ordentlich.... das einzige game das selbst heute noch relativ gut aussieht ist crysis, aber das lief ja auch erst auf hardware die 6-7 jahre später kam halbwegs annehmbar bzw. gut erst 10 jahre später X-D
Brillus
2019-03-21, 16:03:09
Nach der NV Hausmesse möchte ihr hier nochmal meine Kritik am Titel wiederholen, das grundlos ein 7nm Chip impliziert wird.
Dural
2019-03-21, 16:26:17
Was?
Der Turing Nachfolger wird zwangsweisse in 7nm kommen, was den sonst?!? :rolleyes:
Was?
Der Turing Nachfolger wird zwangsweisse in 7nm kommen, was den sonst?!? :rolleyes:
Der Nachfolger Ja.
Es geht um einen Refresh, welcher nicht unwahrscheinlich ist.
Und auch nicht auf 7nm, sondern auf "12nm".
m.f.g. JVC
AffenJack
2019-03-21, 20:15:17
Doch ein Refresh ist äußerst unwahrscheinlich. Nvidia hat seit 6 Jahren keine Refreshs mehr gemacht. Allerhöchstens bringt man einen Turing mit veränderter Ramkonfiguration.
Von mir aus aber hoffentlich mit hdmi2.1 :)
Doch ein Refresh ist äußerst unwahrscheinlich. Nvidia hat seit 6 Jahren keine Refreshs mehr gemacht. Allerhöchstens bringt man einen Turing mit veränderter Ramkonfiguration.
Ein Sprung wie Maxwell zu Pascal mit größtenteils gleicher Architektur ist dennoch die wahrscheinlichste Variante.
Brillus
2019-03-22, 17:14:46
Was?
Der Turing Nachfolger wird zwangsweisse in 7nm kommen, was den sonst?!? :rolleyes:
Sorry 2019 impliziert wird war gemeint, hab mich verschrieben.
AffenJack
2019-03-22, 19:04:53
Ein Sprung wie Maxwell zu Pascal mit größtenteils gleicher Architektur ist dennoch die wahrscheinlichste Variante.
Für den 7nm Nachfolger natürlich, da erwarte ich nix anderes. Mir gings darum, dass es keinen 12nm refresh geben wird.
rentex
2019-03-23, 15:08:34
Auf 7nm GPUs von NV werden wir wohl länger warten...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-7nm-Zusaetzliche-Kosten-Bezahlen-Vorteile-Erzielen-1278177/
Linmoum
2019-03-23, 15:11:12
Lederjacke ist echt der Knaller.
Man will Vorteile und 7nm ist (noch) zu teuer, deswegen vorerst keine Pläne. Aber dann die Chips durch den RT-Kram unnötig größer (und damit teurer) machen bei gleichzeitig noch mehr Nach- als Vorteilen. Geile Logik. :up: ;D
rentex
2019-03-23, 15:18:38
Ich hoffe er verschätzt sich diesmal richtig. Wenn das so zutrifft, werden wir bis Herbst 2020 nichts neues oder in 7nm sehen.
Auf 7nm GPUs von NV werden wir wohl länger warten...
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-7nm-Zusaetzliche-Kosten-Bezahlen-Vorteile-Erzielen-1278177/
Liest sich für mich eher wie ne mittlere Katastrophe. Man bekommt es offenbar nicht hin oder hat sich mit dem Fertiger schlichtweg verschätzt. Bei 500mm²+ Chips von zu hohen Kosten zu faseln ist Situationskomik.
dildo4u
2019-03-23, 15:38:17
Kein Plan wie du das jetzt einschätzen willst,erst mal abwarten ob AMD 7nm GPUs um 300€ in vernünftigen Mengen liefern kann.Navi scheint deutlich weiter weg als Zen 2,da die Chilplets wesentlich kleiner sind als neue Midrange GPUs.
Das wird kein Problem sein.
Aber mir ist da auch noch eine weitere Sache aufgefallen: Vielleicht will NV einfach keine teuren Masken bauen, die man wegschmeißen kann, wenn die neuen Konsolen überraschendes bringen sollten.
rentex
2019-03-23, 15:41:41
Was sollten sie den überraschendes bringen?
Mancko
2019-03-23, 19:09:08
Liest sich für mich eher wie ne mittlere Katastrophe. Man bekommt es offenbar nicht hin oder hat sich mit dem Fertiger schlichtweg verschätzt. Bei 500mm²+ Chips von zu hohen Kosten zu faseln ist Situationskomik.
Vielleicht ist es aber auch das übliche Gelaber um einfach den Leuten zu zeigen, dass so schnell nix neues kommt. Dann kann man alles was es aktuell gibt in Ruhe verkaufen. Ist ja nicht so als ob Nvidia hier grad den riesen Druck hätte. Die 7nm der Konkurrenz schaffen es ja nicht vorbei zu ziehen und das Ökosystem fehlt ohnehin. Das regel sowieso das meisste.
Tesseract
2019-03-23, 19:21:06
warum muss man da schon wieder verschwörungstheorien auspacken? die naheliegenste erklärung ist genau die die gegeben wurde: 7nm hat momentan wohl noch höhere margen, konkurrenzfähig sind die produkte trotzdem, ergo macht es wirtschaftlich sinn mit 7nm noch zu warten.
Linmoum
2019-03-23, 19:29:36
Turing kam einfach viel zu spät noch in 12nm, um jetzt schon einen 7nm-Nachfolger anzukündigen. Das ergibt einfach absolut keinen Sinn zum jetzigen Zeitpunkt, schließlich ist das Turing-Lineup noch nicht einmal komplett ausgerollt.
Mich wundert eher, dass man vom spekulierten Ampere nichts gehört hat. Da hätte ich eine Ankündigung in 7nm erwartet.
Leonidas
2019-03-25, 07:51:34
Vielleicht ist es aber auch das übliche Gelaber um einfach den Leuten zu zeigen, dass so schnell nix neues kommt. Dann kann man alles was es aktuell gibt in Ruhe verkaufen. Ist ja nicht so als ob Nvidia hier grad den riesen Druck hätte. Die 7nm der Konkurrenz schaffen es ja nicht vorbei zu ziehen und das Ökosystem fehlt ohnehin. Das regel sowieso das meisste.
Diesen Gedankengang muß man immer mit ein kalkulieren!
Juni 2018: ............ Launch der nächsten GeForce-Generation laut nVidia "nicht all zu bald" zu erwarten (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-juni-2018)
August 2018: ........ nVidia stellt mit Quadro RTX 5000, 6000 & 8000 die ersten Teile der Turing-Generation vor (https://www.3dcenter.org/news/nvidia-stellt-mit-quadro-rtx-5000-6000-8000-die-ersten-teile-der-turing-generation-vor)
September 2018: ... Launch von GeForce RTX 2080 & 2080 Ti: Erste Testberichte gehen online (https://www.3dcenter.org/news/launch-von-geforce-rtx-2080-2080-ti-erste-testberichte-gehen-online)
rentex
2019-03-25, 13:13:33
Also Juli 2019 kommt dann was😉
mironicus
2019-03-25, 14:33:15
NVidia sieht halt kein Handelsbedarf. Sie haben ihr Portfolio fast schon komplett umgestellt, jetzt muss erst mal AMD ihre neuen Produkte vorstellen. Vielleicht hat NVidia dann wieder einen neuen Grund, sich über AMD lustig zu machen, wenn sie es mit Navi nicht schaffen, die 12 nm-Chips von NVidia in Sachen Effizienz zu schlagen.
NV wollte ja mit Samsung zusammenarbeiten. Ich spekulier jetzt mal ganz wild und denke, dass NV 6LPP nutzen könnte, der jetzt in die Tapeout-Phase geht:
http://www.pcgameshardware.de/CPU-CPU-154106/News/Samsung-7-6-5-nm-EUV-Tape-Out-1280249/
Alles in Allem scheint Samsung nur unwesentlich später dran zu sein als TSMC.
AffenJack
2019-04-23, 19:23:09
Jupp, die Meldungen passen alle ziemlich gut zusammen, da 6nm ja auch ein Costum-node werden soll. Dürfte am Ende nix anderes als ein für HPC optimiertes 7nm Prozess von Samsung sein.
Also, Samsung is collaborating with customers on 6nm, a customized EUV-based process node, and has already received the product tape-out of its first 6nm chip.
Bis auf Nvidia mit 12FFN und AMD in gewisser Weise mit GF, haben eigentlich keine Hersteller Custom-Nodes benutzt, auch wenn TSMCs Mobile Nodes bestimmt stark auf Apple angepasst sind.
Dazu passt Samsungs Meldung eines 6nm Tapeouts perfekt zu den Infos von Ashraf Eassa, dass Ampere vor kurzem seinen tapeout hatte.
prinz_valium
2019-04-23, 20:37:27
Ihr geht also davon aus, dass Nvidia 7nm normal belichtet komplett überspringt und gleich auf 7nm mit EUV abzielt?
Wenn das der fall ist, dann kommt schon mal auf keinen Fall noch was in diesem Jahr.
Aber würde mich natürlich freuen, dann hat man noch mehr gewonnen, die miserable Turing Generation übersprungen zu haben.
Aber ich glaube trotzdem nicht dran. Nvidia wird erst auf 7nm gehen und dann mit EUV optimieren und einen Refresh bringen. Als ob die sich selbst ihr gutes Geschäft kaputt machen, so gut wie es im Moment bei denen läuft...
BlacKi
2019-04-23, 20:52:20
wenn man sich die mühe macht eine fertigung extra anzupassen auf die bedürfnisse, dann macht es keinen sinn auf was fremdes auszuweichen. ein angepasster fertigungsprozess wird kosteneffektiver sein. falls der prozess zu gut läuft, macht man halt die chips kleiner ;)
Ihr geht also davon aus, dass Nvidia 7nm normal belichtet komplett überspringt und gleich auf 7nm mit EUV abzielt?
Wenn das der fall ist, dann kommt schon mal auf keinen Fall noch was in diesem Jahr.
Aber würde mich natürlich freuen, dann hat man noch mehr gewonnen, die miserable Turing Generation übersprungen zu haben.
Aber ich glaube trotzdem nicht dran. Nvidia wird erst auf 7nm gehen und dann mit EUV optimieren und einen Refresh bringen. Als ob die sich selbst ihr gutes Geschäft kaputt machen, so gut wie es im Moment bei denen läuft...
Samsung hat nur 7 EUV. Ich vermute, dass NV den überspringt und direkt 6nm EUV macht.
Hübie
2019-05-04, 19:23:43
Zumindest hat Zeiss genug Optiken an ASML geliefert die wiederum seit letztem Jahr fleißig bei den Foundries um- bzw. ausbauen. ;)
prinz_valium
2019-05-05, 02:03:06
Samsung hat nur 7 EUV. Ich vermute, dass NV den überspringt und direkt 6nm EUV macht.
Das wäre dann aber etwas ganz anderes als TSMC
Die haben 7nm GUV
und 7nm+ EUV
sowie 6nm EUV, welche wiederum etwas schlechter als 7nm+ ist, aber dafür mit den selben tools wie 7nm GUV benutzt werden können und eine einfacher migration erlaubt.
https://i.imgur.com/b45TGrq.png
Wie verhält sich dann 6nm EUV bei Samsung im vergleich zu deren 7nm EUV?
6nm nutzt mehr EUV-Layer als 7 EUV, ist also besser. Samsung macht keinen DUV-Prozess in 7nm. 7LPP ist bereits EUV und 8 LPP ist ein 10nm-Derivat.
reaperrr
2019-05-05, 10:36:59
6nm nutzt mehr EUV-Layer als 7 EUV, ist also besser.
Aus Kosten-Sicht, in Sachen Effizienz/Performance soll 7FF+ wohl minimal die Nase vorn haben (bei TSMC).
Dafür sind aber die Design-Rules von 6EUV mit 7DUV kompatibel, weshalb die meisten Kunden mit 7DUV-Designs die Chip-Updates/"Shrinks" auf 6EUV statt 7EUV portieren werden.
prinz_valium
2019-05-06, 12:38:18
Aus Kosten-Sicht, in Sachen Effizienz/Performance soll 7FF+ wohl minimal die Nase vorn haben (bei TSMC).
Dafür sind aber die Design-Rules von 6EUV mit 7DUV kompatibel, weshalb die meisten Kunden mit 7DUV-Designs die Chip-Updates/"Shrinks" auf 6EUV statt 7EUV portieren werden.
Genau das sagte ich ja^^
Nun möchte ich aber wissen, wie das ganze bei Samsung im Vergleich aussieht.
Sowohl im vergleich zueinander, als auch die beiden Samsung nodes unter sich.
Dural
2019-05-07, 09:38:26
Ohha NV sagt das ihre 12nm Chips billiger sind als die Gegenstücke in 7nm :eek:
Sage ich das nicht seit gefühlt 6 Monaten... aber die Forum Spezialisten wissen ja alles besser. :wink:
dildo4u
2019-05-07, 10:50:10
Klar wäre eine 500mm² GPU in 7nm massiv teurer,daher sind die AMD GPUs keine 500mm².Die größte 7nm GPU wird erstmal die 330mm² Radeon 7 bleiben und die lässt sich offenbar zum selben Preis wie die 550mm² Turing verkaufen.
Für NV macht 7nm noch kein Sinn da sie deutlich fettere Dies bauen wollen und damit kalkulieren sie und nicht mit deutlich kleineren Chips.
Auch Nvidia könnte einen kompakten Testballon in 7 nm DUV bauen. Das Vorgehen wäre normal.
MfG,
Raff
Aus Kosten-Sicht, in Sachen Effizienz/Performance soll 7FF+ wohl minimal die Nase vorn haben (bei TSMC).
Dafür sind aber die Design-Rules von 6EUV mit 7DUV kompatibel, weshalb die meisten Kunden mit 7DUV-Designs die Chip-Updates/"Shrinks" auf 6EUV statt 7EUV portieren werden.
Wo kommt dieser Quatsch her?
amdfanuwe
2019-05-07, 13:33:15
.Die größte 7nm GPU wird erstmal die 330mm² Radeon 7 bleiben und die lässt sich offenbar zum selben Preis wie die 550mm² Turing verkaufen.
Wobei man bedenken muß, dass Gaming für die Radeon VII nicht die Haupteinahmequelle ist.
was würd ich für eine kleine lowpower nvidia gpu in 7nm geben, die auch noch in laptops verbaut werden könnte.. (ähnlich der 750ti)
robbitop
2019-05-08, 16:47:57
Eine gute low power GPU ist doch TU117. 12 nm ist schon ein gutes Stück energieeffizienter als 16FF. Ich denke mal ähnliches wird sicherlich mit Ampere(?) in 7 nm dann in 2020 erscheinen. Ähnliche Leistungsaufnahme aber schneller.
horn 12
2019-05-15, 07:04:42
https://wccftech.com/nvidia-geforce-rtx-20-refresh-graphics-cards-16-gbps-memory-tackle-amd-radeon-navi/
BullShit oder Navi doch stärker als gedacht und knapp RTX 2070 / 2080 Level ?
rentex
2019-05-15, 07:09:41
Klingt nach der gleichen Vorgehensweise wie bei der 1080.
BlacKi
2019-05-15, 10:19:15
Klingt nach der gleichen Vorgehensweise wie bei der 1080.
ich fand die karten waren preislich ein witz. gekontert haben die jedenfalls nichts. und die 1070ti war eigentlich auch nicht nötig wegen der mining preise.
Leonidas
2019-05-15, 10:28:07
https://wccftech.com/nvidia-geforce-rtx-20-refresh-graphics-cards-16-gbps-memory-tackle-amd-radeon-navi/
BullShit oder Navi doch stärker als gedacht und knapp RTX 2070 / 2080 Level ?
Ergibt fast nur dann Sinn, wenn der eigentliche Turing-Nachfolger mindestens ein dreiviertel Jahr entfernt ist.
rentex
2019-05-15, 10:34:34
Was nach der Aussage Nvidias zum 7nm Fertigungsprozess, durchaus möglich ist.
robbitop
2019-05-15, 10:49:58
ich fand die karten waren preislich ein witz. gekontert haben die jedenfalls nichts. und die 1070ti war eigentlich auch nicht nötig wegen der mining preise.
Zumal die 1060 9 GBPS und die 1080 11 GBPS auch kaum von der extra Bandbreite profitiert haben.
Turing hat ja pro Flop wesentlich mehr Bandbreite als fast jeder Pascal (bis auf GP106) - wenn man da nicht deutlich die GPU Taktrate anhebt, wird es außerhalb von Raytracing (Bandbreitenbedarf ist dort wesentlich höher und mit ein Grund für die hohe Bandbreite pro Flop bei Turing - trotz verbesserter DCC) nicht viel bringen.
Ergibt fast nur dann Sinn, wenn der eigentliche Turing-Nachfolger mindestens ein dreiviertel Jahr entfernt ist.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/
NV bereitet sicherlich wieder einen eigenen 6nm-Prozess vor bei TSMC. 7 DUV scheidet gänzlich aus und 7 EUV wird NV sicher nicht ideal genug sein für eine Custom-Anpassung. Das dauert also noch laaange bis wir NV-Grafikkarten sehen werden. Ende 2020 würd ich als allergünstigsten Termin ansehen.
Auch bezüglich RT ist man ganz schön kleinlaut geworden.
Hübie
2019-05-19, 18:45:24
Definiere mal Nachfolger? Ende 2020 jedenfalls nicht. Du wirst dich wundern.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/
Auch bezüglich RT ist man ganz schön kleinlaut geworden.
Von DLSS hört man auch nix mehr.
(dieses "teure upscaling" hat mich eh nie interessiert)
Anfangs sah man noch Folien mit +100% und mehr ...
m.f.g. JVC
Definiere mal Nachfolger? Ende 2020 jedenfalls nicht. Du wirst dich wundern.
Ich glaube nicht. Es wär ja auch nicht nötig. Die 2080(ti) sitzt fest im Sattel, AMD kann an der 2080 mit N20 vllt. noch kratzen. Und NV wird die Großchip-Strategie nicht aufgeben und sowohl Prozess als auch Design auf Yield optimieren, damit man weiterhin stromsparende Großchips fertigen kann, auch in 6nm.
7 DUV kam bei Smartphones als Endprodukt Ende 2018, 7 EUV wird Ende 2019 kommen und 6 EUV dann Ende 2020. An V20 sieht man, was da außerhalb dessen geht, also wie der Releasezeitraum aussieht. Da NV 6FFN vorbereiten wird, wird man zuerst einen GV100-Nachfolger releasen wollen und danach irgendwann Gaminchips - im besten Falle releasen die AM100 und AM104 gleichzeitig. Das wird aber erst nach dem Release der Smartphones mit 6FF-Chips passieren.
Das reißt natürlich ein ganz schönes Loch in die 7nm-Wunschträume der NV-Jünger, das versteh ich. Aber die Interpretation ist denke ich schlüssig und nachvollziehbar.
JVC
DLSS ist aus meiner Sicht in erster Linie ein Marketingkniff. Damit kann man Turing+RT deutlich schneller darstellen als er ist.
nordic_pegasus
2019-05-20, 09:18:30
Definiere mal Nachfolger? Ende 2020 jedenfalls nicht. Du wirst dich wundern.
was sagt denn Deine Glaskugel? Wird es einen Turing-Refresh geben mit ggf. Shrink oder kommt direkt eine neue Architektur im neuen Prozess?
Das Nvidia bis Ende 2020 keine Produktlinie auf den Markt bringt, kann ich mir auch in Ermangelung von Konkurrenz im High-End Bereich nicht vorstellen. Nvidia wird wahrscheinlich die jährliche Salamie-Taktik von Intel kopieren.
BigKid
2019-05-23, 14:33:49
Von DLSS hört man auch nix mehr.
(dieses "teure upscaling" hat mich eh nie interessiert)
Anfangs sah man noch Folien mit +100% und mehr ...
m.f.g. JVC
Natürlich hörst du von DLSS nix mehr weil du auch von Raytracing nichts hörst...
Diese extreme Steigerung durch DLSS bekommst du nur dort wo du pro Pixel extrem sparen kannst - also bei Raytracing... und vielleicht noch im Randmarkt 4k... Und da würde es auch gewaltig was bringen...
Zum Tradeoff von etwas Bildquali... Aber das hast du bei den ganzen "Verschmier" AA Modis auch...
... Randmarkt 4k... Und da würde es auch gewaltig was bringen...
Randmarkt :freak: ok dann bin ich dort angesiedelt mit 4k(5K)
(das benötigt man einfach bei 65")
Zum Tradeoff von etwas Bildquali... Aber das hast du bei den ganzen "Verschmier" AA Modis auch...
Eben, beides für mich, nicht akzeptabel ...
Egal, NV beachte ich erst wieder, wenn sie HDMI 2.1 unterstützen.
(inklusive VRR!)
m.f.g. JVC
BigKid
2019-05-23, 15:20:37
Randmarkt :freak: ok dann bin ich dort angesiedelt mit 4k(5K)
(das benötigt man einfach bei 65")
Eben, beides für mich, nicht akzeptabel ...
Egal, NV beachte ich erst wieder, wenn sie HDMI 2.1 unterstützen.
(inklusive VRR!)
m.f.g. JVC
Sind wir doch ehrlich - die meisten sind noch in 1080p unterwegs...
Die Vernünftigen in WQHD und dann gibts ein paar Spinner die in 4k 132:9 unterwegs sind ;)
Die Vernünftigen in WQHD und dann gibts ein paar Spinner die in 4k 132:9 unterwegs sind ;)
Danke :smile:
Dann bin ich zu mindestens kein Spinner mit 16:9 :freak:
(ich verabscheue "sehschlitze")
m.f.g. JVC
Timbaloo
2019-05-23, 17:02:50
Egal, NV beachte ich erst wieder, wenn sie HDMI 2.1 unterstützen.
(inklusive VRR!)
Wie oft willst du das eigentlich noch hier erzählen? Akzeptier, dass du eine komplett irrelevante Randgruppe innerhalb der irrelevanten Randgruppen bist und behellige uns nicht ständig mit deiner Meinung. Es interessiert wirklich keine Sau.
Linmoum
2019-05-23, 19:02:56
Und warum sollte das irrelevanter als die Zielgruppe von Raytracing sein? Betrifft zurzeit genauso nur eine lächerlich kleine Randgruope (nichtnnur vom Markt her, sondern auch die fast nicht vorhandene Integration in Spielen) und da hat es Nvidia auch nicht gekümmert. ;)
Platos
2019-05-24, 19:35:39
Was betrachtest du denn als Refresh ? "Richtig" neue Architekturen gibt es doch sowieso selten. Also kann man eh nur von evolution sprechen.
Oder meinst du, dass nvidia bei der nächsten gen nicht 7nm oder mehr nutzt? (Dann würde ich gerne mal wissen, wie du dir vorstellst, wie man mit 800+mm2 in der jetztigen Gen da mit gleichem Fertigungsverfahren noch was reissen will?)
Und Aucturus, oder wie das denn heissen mag, hat doch bestätigt Hardware RT Einheiten (wie auch immer die aussehen sollen). Oder war es nur per Software ??
Cubitus
2019-05-26, 12:02:07
Vielleicht gibt es auch nur eine neue Technik „super“ eventuell AI gestütztes Dynamic Super Resolution..
AffenJack
2019-05-26, 12:29:34
Software passt nicht zur Aufmachung des Teasers. Entweder irgendwas Tegra oder eben eine neue Klasse an GPUs mit 16Gbps Ram?
crux2005
2019-05-26, 21:15:18
GamersNexus meint "GeForce Super". Es sollen Turing Grafikkarten (2060/70/80) mit höheren RAM Takt sein. https://www.youtube.com/watch?v=PEAVSAoC_Tg
Ravenhearth
2019-05-26, 21:22:22
Hätte den VRAM-Takt jetzt nicht als großes Problem bei Turing eingeschätzt, insb. bei der 2070, die so viel Bandbreite wie die 2080 hat. Wie viel wird das bringen? Kaum mehr als ein paar Prozent, oder?
=Floi=
2019-05-26, 21:28:15
GamersNexus meint "GeForce Super". Es sollen Turing Grafikkarten (2060/70/80) mit höheren RAM Takt sein. https://www.youtube.com/watch?v=PEAVSAoC_Tg
wenn das wirklich so kommt --> :facepalm:
dann kann nv echt einpacken, weil deren produkterweiterungen echt immer nur mist sind.
die 1070ti war ja auch so ne tote hose...
crux2005
2019-05-26, 21:41:51
Hätte den VRAM-Takt jetzt nicht als großes Problem bei Turing eingeschätzt, insb. bei der 2070, die so viel Bandbreite wie die 2080 hat. Wie viel wird das bringen? Kaum mehr als ein paar Prozent, oder?
Bei der 2060 und 2080 sollte es schon 3-5% mehr Leistung bringen ohne drastisch die Kosten für nVidia zu erhöhen.
Morgenlicht
2019-05-27, 11:39:43
"super" - www.facebook.com/TweakTown/videos/2089912161302209/ (https://www.facebook.com/TweakTown/videos/2089912161302209/)
Apparently tweaktown is streaming the conference on facebook
Ravenhearth
2019-05-27, 14:32:14
Also, hat Nvidia jetzt irgendwas vorgestellt? Wofür war der "super"-Teaser?
rentex
2019-05-27, 15:03:29
Wohl für nichts...
Laut Hardware Unboxed (https://www.youtube.com/watch?v=Orrnn7xCTsY) wird erst auf der E3 enthüllt, was es mit "Super" auf sich hat. Na mal sehen.
SKYNET
2019-05-30, 02:11:44
Laut Hardware Unboxed (https://www.youtube.com/watch?v=Orrnn7xCTsY) wird erst auf der E3 enthüllt, was es mit "Super" auf sich hat. Na mal sehen.
*gähn* SUPER langweilig
Leonidas
2019-06-06, 14:23:47
Lebenszeichen eines echten Turing-Nachfolgers:
nVidias 7nm-Generation "Ampere" tritt im Jahr 2020 in Samsungs 7nm EUV-Fertigung an
https://www.3dcenter.org/news/geruechtekueche-nvidias-7nm-generation-ampere-tritt-im-jahr-2020-samsungs-7nm-euv-fertigung
Sunrise
2019-06-06, 14:38:24
Also doch Samsung, 40% billiger sind natürlich ein heftiges Argument...dann noch EUV, quasi ein no-brainer für NV.
Ich will garnicht wissen, was NV da präsentiert, da das wohl die Generation werden wird, in welcher Raytracing dann wohl im PC-Bereich durchschlägt und man das als Messlatte für den PC (auch um sich von Konsolen zu distanzieren) nehme kann.
Da wird AMD und Intel dann erstmal wieder die Aufholjagd starten müssen, auch wenn man noch nicht weiß was von Intel da kommen wird.
Screemer
2019-06-06, 14:56:01
Du glaubst also bis nächstes Jahr gibt es auch nur einen signifikanten Spieleanteil mit RT? Solange keine Heimkonsole RT-fähig ist wird sich da imho bis auf 1-2 Hände voll gar nichts tun. Wie viele PC exclusives sind denn in den letzten 5 Jahren mit AAA-qualität und Budget released worden?
Also doch Samsung, 40% billiger sind natürlich ein heftiges Argument...dann noch EUV, quasi ein no-brainer für NV.
Da bin ich dann mal gespannt, wie viel von der "Ersparnis" beim Kunden ankommt :biggrin:
Falls die 2080 SUPER Ti 12Gb nur noch ~799-899.- kostet
und ~20-25% schneller ist ... dann wäre das für mich in Ordnung ;)
(HDMI 2.1 wäre ein Muss)
Aber mal abwarten, falls "Navi 20" mit 16GB und HDMI 2.1 kommt
dann stünden die Karten bei mir schlecht für NV :wink:
m.f.g. JVC
p.s.: RT ist in meinen Augen noch ziemlich tot.
Bevor es nicht die Konsolen können, wird es sich kaum auf breiter Front durchsetzen...
(NV´s "Alleingang" mit "eigener extra Hardware" empfinde ich eher als störendes Sperrfeuer gegen den Standard)
Leo, rechne auf alles mal ein halbes Jahr drauf bei deiner News, dann kommts vielleicht hin. Liest sich ohnehin sehr utopisch das Ganze.
Linmoum
2019-06-06, 16:08:57
Also doch Samsung, 40% billiger sind natürlich ein heftiges Argument...dann noch EUV, quasi ein no-brainer für NV.
Ich will garnicht wissen, was NV da präsentiert, da das wohl die Generation werden wird, in welcher Raytracing dann wohl im PC-Bereich durchschlägt und man das als Messlatte für den PC (auch um sich von Konsolen zu distanzieren) nehme kann.
Da wird AMD und Intel dann erstmal wieder die Aufholjagd starten müssen, auch wenn man noch nicht weiß was von Intel da kommen wird.
Ob es tatsächlich Samsung wird und was an den 40% dran ist bleibt erst einmal abzuwarten.
Die Marktdurchdringung von RT ist bisher eine völlige Katastrophe und es ist unwahrscheinlich, dass sich das urplötzlich ändern wird. Spätestens hier merkt man, wie wichtig die entsprechende Unterstützung durch die nächste PS und Xbox sein wird. Davon hängt es ab, ob RT durchschlägt und nicht von Nvidias Turing-Nachfolger.
Ansonsten ist 2020 lang, AMD fängt jetzt auch damit an, Gaming und Profi/HPC zu trennen mit separaten Chips. Wenn Nvidia nächstes Jahr 7nm EUV Produkte auf den Markt bringt, wird das bei AMD auch der Fall sein. Von daher gibt es keine Aufholjagd, zumal weder konkretes zu RDNA (und dem High-End-Chip nächstes Jahr), noch zu Ampere bekannt ist. Es betrifft also nicht nur Intel wo noch nichtggenau klar ist, was wir zu sehen bekommen werden. ;)
Ampere legt vielleicht nochmal einen Sprung wie von Maxwell zu Pascal hin, vielleicht hält sich das aber genauso in Grenzen wie jetzt mit Turing. Who knows.
Sunrise
2019-06-06, 17:21:16
...Die Marktdurchdringung von RT ist bisher eine völlige Katastrophe und es ist unwahrscheinlich, dass sich das urplötzlich ändern wird. Spätestens hier merkt man, wie wichtig die entsprechende Unterstützung durch die nächste PS und Xbox sein wird. Davon hängt es ab, ob RT durchschlägt und nicht von Nvidias Turing-Nachfolger.
Das Thema mit den Konsolen stimmt natürlich, allerdings nimmt RT im Moment niemand wirklich Ernst, weil es aktuell nur in sauteuren GPUs und ohne viel Unterstützung im Markt brach liegt. Turing ist IMHO nichts Halbes und nichts Ganzes, und dann noch viel zu teuer.
Sowas braucht breitere Unterstützung in HW im Markt, und wenn man qualitativ bessere Pixel liefern will geht an RT bzw. Hybridem-Rendering wohl wenig vorbei.
Wenn NV ähnliche Sprünge mit Ampere wie bei Pascal hinbekommt und RT in gleichem Maße schneller wird, sieht es zumindest mal deutlich besser aus. Das interessiert natürlich dann erst die breitere Masse, wenn dann aufgrund guter HW Spiele kommen, die jeder spielen will und man das integriert.
Ich habe jedenfalls noch niemand gesehen der sich wegen RT eine GPU für >800 EUR kauft, wenn das im Endeffekt brach liegendes Beiwerk ist. Die sind dann bis auf die super Neugierigen in besseres Klopapier auf Jahre gesehen besser investiert. Der Mehrwert ist fast nicht existent aktuell. Irgendwo musste man aber mal anfangen, so falsch war das nicht, wenn auch aus Spielersicht unverständlich.
basix
2019-06-06, 17:46:53
Ampere legt vielleicht nochmal einen Sprung wie von Maxwell zu Pascal hin, vielleicht hält sich das aber genauso in Grenzen wie jetzt mit Turing. Who knows.
Das "Problem" von Nvidia ist, dass die Turing Chips extrem gross sind und eine verglichen mit den Vorgängern eine erhöhte TDP besitzen. Geht man wieder auf maximal ca. 450...500mm2 wie bei Pascal zurück (7nm ist ja teuer) liegen verglichen mit Turing vielleicht noch +30-50% SMs drin. Mehr Leistung gibt es dann nur mit mehr Takt und/oder Effizienzgewinn pro Einheit. Wenn man die TDP wieder auf das Niveau der Turing-Vorgänger bringen will, kann man den Takt aber nicht wirklich höher schrauben, sondern müsste in eher reduzieren. Bei ca. 2x Effizienzgewinn durch 7nm könnte man bei +50% SMs den Takt aber vermutlich plus-minus gleich lassen wie heute. Bleiben also noch +50% Leistung übrig. Ganz OK aber nicht umwerfend viel. Zumindest nicht ganz so viel wie Maxwell --> Pascal. Eher so Kepler --> Maxwell, trotz deutlich besserem Prozess.
Das würde natürlich anders aussehen, falls sie die Architektur nochmals ein gutes Stück überarbeiten.
Bucklew
2019-06-06, 21:02:34
40% Preisvorteil ist ein Wort, die Frage ist, ob schlussendlich der TSMC Prozess oder der von Samsung besser sein wird.
Wenn sie nahezu identisch sind, wäre das nun das 2. Mal, dass NVIDIA bei einem neuen Prozeß einen großen Vorteil ggü AMD hat. AMD wird ja kaum wechseln, wo man mit Vega20 und Zen erst zu TSMC (weg von GloFo, mit einem Samsung-identischen Prozess) gewechselt ist.
Grendizer
2019-06-06, 21:09:43
Habe jetzt auch das Gefühl, das AMD mit TSMC für Grafikkarten aufs falsche Pferd gesetzt haben könnte. Bei der Vega VII hat der 7nm Prozess nur bedingt gezündet und wenn der Samsung Prozess bei gleicher Leistung dann tatsächlich 40% billiger sein sollte, kann AMD noch nichtmal über den Preis gehen. nVidia wird sich wieder dumm und dämlich verdienen, da die Karten natürlich preislich oberhalb der entsprechenden AMD Pendants positioniert werden, da sie ja auch noch 2nd Generation RT haben.
Linmoum
2019-06-06, 21:48:45
40% Preisvorteil ist ein Wort, die Frage ist, ob schlussendlich der TSMC Prozess oder der von Samsung besser sein wird.
Die Frage ist erst einmal, ob die 40% nicht ein Hirngespinst sind.
robbitop
2019-06-06, 22:09:21
TSMC hatte (bis auf wenige Einzelfälle) eigentlich den besten Trackrecord für Produktionsprozesse für GPUs. Zumindest was time to market und Performance angeht. Die angeblichen 40% billiger müssen in der Praxis erstmal bewiesen werden. Zumal ja auch 6 nm schon in Erwartung steht. IMO fährt man mit TSMC nicht schlecht.
Blediator16
2019-06-06, 22:30:51
Ich finde bei der angegebenen Quelle EETimes keine Angabe zu den 40% günstigeren Preisen von Samsung. Kann mir jemand auf die Sprünge helfen?
https://www.eetimes.com/document.asp?doc_id=1334769
Grendizer
2019-06-06, 22:32:53
habe das mal gefunden:
https://www.heise.de/newsticker/meldung/Samsung-fertigt-7-Nanometer-Chips-mit-EUV-Belichtern-4195040.html
Nicht nur kleinere Strukturbreiten lassen sich mit EUV erreichen, die Produktion wird auch vereinfacht. Samsung zufolge reicht eine einzige Maske, um eine Schicht eines Wafers zu belichten, bei Immersionslithographie sollen es dem Unternehmen zufolge bis zu vier sein. Die Masken, die im Laufe der Produktion verschleißen und ausgetauscht werden müssen, sind in den letzten Jahren zu einem immer größeren Kostenfaktor bei der Chipproduktion geworden.
-------------------------------
Also mehr pro Wafer und weniger Verschleiß. Keine Ahnung ob das für 40% reicht
In dem eetimes Artikel stand unten ja auch folgendes:
For example, a single EUV exposure can sometimes reduce the mask count for a layer by a ratio of up to 5:1. However, double patterning with immersion steppers can help reduce edge-placement errors, she noted.
Ravenhearth
2019-06-06, 22:37:31
TSMC hat aber halt auch 7nm EUV...
Daran allein kann das nicht liegen
Grendizer
2019-06-06, 22:38:18
TSMC hat aber halt auch 7nm EUV...
Daran allein kann das nicht liegen
Aber noch nicht für die derzeitigen AMD Modelle, oder ?
Ravenhearth
2019-06-06, 22:39:49
Nein, aber nächstes Jahr (für AMD).
Blediator16
2019-06-06, 22:42:53
Soweit ich weiß soll Samsung ca. einen Quartal Vorsprung haben. Da bereits 40% Rabatt zu gewähren scheint mir absurd hoch zu sein.
Relic
2019-06-06, 22:50:11
Soweit ich weiß soll Samsung ca. einen Quartal Vorsprung haben. Da bereits 40% Rabatt zu gewähren scheint mir absurd hoch zu sein.
Rabatt schön und gut, aber wenn die Yields nicht stimmen hilft dir der ganze Rabatt nichts. Und Samsung hat ja jetzt auch nicht die meiste Erfahrung mit großen Dies, wie sie von Nvidia benötigt werden. Und dazu ein brandneuer Prozess.
Fände das jetzt ein zu großes Risiko für mich als Marktführer darauf ohne Not einzulassen.
Ein mittelgroßen Chip zum Test ok, aber nicht eine ganze Generation. Da gibts mehr zu verlieren als zu gewinnen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.