Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
TheGood
2020-06-11, 19:12:52
Ich frag mich wann Igor in den letzten 20 Jahren zur seriösen Quelle wurde. Etwas mehr Begründungen bei seinen Aussagen fände ich mal nett. Aktuell finde ich seinen Stil unter aller Sau.
er hat mal eine gute Trefferquote und tatsächlich viele Kontakte, das brauch tman glaub nicht herunterzureden.
Du hat aber recht dass er aktuell ziemlich zum Plauderer wird und mit den Wörtern LEAK und Spekulatius mächtig hausieren geht. Ich sehe das bei ihm als promotion für seine Homepage.
genervt
2020-06-11, 19:29:11
och, ich finde das sehr sympathisch wie er es macht. wirkt mächtig entspannt. ist wie Opa, der vom Krieg erzählt.
nordic_pegasus
2020-06-11, 19:42:36
och, ich finde das sehr sympathisch wie er es macht. wirkt mächtig entspannt. ist wie Opa, der vom Krieg erzählt.
oder Käpt'n Blaubär, der sich das alles nur ausdenkt für eine gute Geschichte ;-)
MiamiNice
2020-06-11, 19:50:07
Ich hatte gerade auf dem Pot noch eine ganz andere Eingebung.
NV ist aktuell ziemlich viel wert. So richtig viel und der Grund dafür ist unter anderem deren Repurtation. AMD ist im GPU Bereich quasi nicht existient. Auch der Name AMD hat im GPU Bereich null Gewicht.
Wenn AMD jetzt eine Karte bringen würde die mit NV gleich zieht oder überholt entwertet das NV als Marke und AMD würde massiv Repurtation gewinnen.
Es ist also für Lederjacke unter alllen Umständen erforderlich weiterhin als Tech Leader und generell als "geilste" Sonne am GPU Himmel angesehen zu werden, sonst ist nämlich Ende mit der dicken Marge.
Es wird daher unter keinen Umständen passieren das NV eine "lasche" Generation bringen wird, da AMD technisch in der Lage ist stark aufzuschließen.
Ergo sollte beim Top Gaming Ampere 7nm gesichert sein und irgendwas über 50% more Power. Von AMD erwartet man schließlich 2080TI +30% Power im dicken Navi.
BoMbY
2020-06-11, 19:59:24
Auch der Name AMD hat im GPU Bereich null Gewicht.
Aber nur wenn man eine sehr grüne Brille auf hat. Lässt halt nur zum Beispiel außer Acht dass AMD GPUs in der aktuellen und kommenden Generation von Spiele-Konsolen laufen.
crux2005
2020-06-11, 19:59:50
Edit, wobei wenn man die Rohre allein für sich betrachtet, und auch wie lang diese sind, dann würden die 300 Watt schon Sinn ergeben..
Die Heatpipes bei der 480er GTX waren vergleichbar dick, aber kürzer..
Ich glaube der Kühler kann 300W abführen und das relativ leise. Gerade der 2. Lüfter sollte auf mit relativ niedrigen RPM viel Fläche schnell (nur 2 Slots tiefer Kühlkörper) kühlen können.
Trotzdem finde ich den Kühler als ganzes einfach over engineered. 2 Lüfter auf verschiedenen Seiten, V förmige Kühlrippen, V PCB und noch ein X in der Mitte.
Die "V"s kann ich ja noch verstehen (mehr Fläche, bessere Kühlleistung). Aber das X wird mMn. nur für die Trennung der 2 Lüfter und kühlung der Spawas benutzt. Falls sich es herausstellt das es auch noch mehr bringt dann gut.
Was mir aber nicht in den Kopf geht ist wieso zwei Lüfter auf verschiedenen Seiten der Karte angebracht sind. Das gleiche ließe sich mit zwei Lüfter auf gleicher Seite auch, und evtl. sogar besser lösen. Mir fallen zwei Gründe ein. NV will die warme Luft nicht zum CPU Kühler schicken (unwahrscheinlich) oder sie wollen einfach nicht dem aktiven SB Kühler die Luft stehlen (wahrscheinlicher). Jemand noch eine andere Idee wieso die zwei Lüfter auf verschiedene Seiten sind?
z.B. bei mir im Corsair 800D Gehäuse wäre der FE Kühler ein Fail weil im Boden unter der Grafikkarte ein 120mm Lüfter ist der nach oben bläst und der Grafikkarten kühler genau auf gleicher Stelle nach unten. Deswegen glaube ich wird NV Kritik ernten obwohl sie sich sicher was gedacht haben.
Deshalb trägt der hintere Lüfter der gerade durchblasen kann mehr als 70% zur Kühlleistung bei. Der wird trotz des high FPI Radiators in dem er hinten verbaut ist 2x bis 3x mehr Luftdurchsatz haben als der vordere Lüfter am Slotblech.
Kühlleistung Teil 1 vs Teil 2 hätte ich vom Bauch aus auch als 40-60 oder 30-70 geschätzt.
Der Lüfter direkt auf GPU ist ja sehr ineffizient wie ich schon mehrmals geschrieben habe. Der einzige Vorteil ist das ein Teil der Wärme relativ schnell aus dem Gehäuse befördert wird und die heatpipes nicht überhitzen sollten.
Da sind nicht mehrere Platten. Das sind entweder optische Täuschungen durch den Winkel und die schwarzen Lamellen oder das sind eben Fin-Stacking Verbinder bzw. Auflagepunkte. Die schrägen Lamellen des zentralen heatsinks schweben ja nicht im luftleeren Raum. Zumal die Vapor chamber an dieser Stelle schmaler ist, unter den Lamellenenden sieht man ja nacktes PCB. Zentral dadrunter sind die vier Heatpipes welche etwas nach Innen, Richtung GPU gebogen sind. Die Flächen über dne Heatpipes können also nur die Auflagepunkte für die beiden Lamellenpakete sein. beidseitig gekrümmte Heatpipes sind zwar eine ganz schlechte Auflagefläche für Lamellen, aber anscheinend stopft nvidia da einfach viel Lot rein und hofft auf das beste.
Du hast Recht. Es sind Auflagepunkte oder Stacking connections.
Diese Lamellen sind ja auch kaum luftdurchströmt, sind wohl hauptsächlich für die Ästhetik da.
Evtl. wie Cubitus vorgeschlagen hat um die Spawas besser zu kühlen.
MiamiNice
2020-06-11, 20:01:13
Aber nur wenn man eine sehr grüne Brille auf hat. Lässt halt nur zum Beispiel außer Acht dass AMD GPUs in der aktuellen und kommenden Generation von Spiele-Konsolen laufen.
Wenn interessiert das? Damit holt man keine Repurtation. Die holt man nur mit der schnellsten Desktop Grafikkarte.
AMD liefert schon ewig Chips für die Türstopper. Ruftechnisch hat ihnen das nichts gebracht auch die Synergie Effkete, die man erwartet hat, blieben aus.
Was in Kosolen für HW läuft, juckt halt einfach keinen.
Cubitus
2020-06-11, 20:27:11
Wahrscheinlich wird sich das bei Dir kaum auswirken, da wie es ausschaut, Du einen Unterdruck (2x rein, 3x raus + NT raus) im System hast. Viel schlechter wird es daher wahrscheinlich kaum werden.
In Deinem Tower dürfte verdammt viel Luft über die hinteren Mesh Dinger eingezogen werden was für massiv Verwirbelungen in Deinem System sorgen dürfte.
Ich würde definitiv ein anderes Gehäuse nutzen wollen für die Art von HW. Der obere Frontlüfter arbeitet gegen den voderen Top Lüfter, zumindest sieht es stark danach aus, gerade weil das Gehäuse sehr klein ausschaut. Wie viel Luft da generell beim CPU Lüfter ankommt, mag ich gar nicht drüber nachdenken. Sieht so aus als würde er die Frischluft, ungenutzt, wieder oben raus werfen.
Kann man das Gehäuse nicht auf Wasser umrüsten - dürfte ordentlich was her machen bei der Kiste und Platz für 2 x 120/140er Radis scheint da zu sein.
Eventuell auch nur ein kleiner Loop für die GPU, die gibt es auch geschlossen, da brauchst keinen AGB und den ganzen anderen Stuff.
Hab mir schon Gedanken über die Lüfter gemacht, die zwei Front-Lüfter ziehen frische Luft ins Gehäuse soweit richtig,
der erste Lüfter auf der Oberseite zieht Luft nach oben raus, aber jetzt kommts der linke Lüfter im Deckel holt frische Luft rein und trifft damit genau auf den CPU-Kühler.
Das Netzteil ist komplett passiv und hat keinen Lüfter, der hintere Teil wird vom 120 mm Lüfter und von der GPU entlüftet.
Aber den Gedanken das System unter Wasser zu setzen hatte ich auch schon, du kannst sowohl oben als auch unten Radis verbauen, auch die Front wäre so gesehen möglich..
Mittlerweile ist es ein AMD 3900x dem würde Wasser sicherlich auch nicht schaden ;)
Wobei ich die meiste Zeit eh im Eco Modus unterwegs bin, unter Last sind es dann knappe 50-60 Grad..
Was mir aber nicht in den Kopf geht ist wieso zwei Lüfter auf verschiedenen Seiten der Karte angebracht sind. Das gleiche ließe sich mit zwei Lüfter auf gleicher Seite auch, und evtl. sogar besser lösen. Mir fallen zwei Gründe ein. NV will die warme Luft nicht zum CPU Kühler schicken (unwahrscheinlich) oder sie wollen einfach nicht dem aktiven SB Kühler die Luft stehlen (wahrscheinlicher). Jemand noch eine andere Idee wieso die zwei Lüfter auf verschiedene Seiten sind?
Eventuell weil immer mehr User die Karte zum Gehäusefenster, durch Riser-Adapter ausrichten und Nvidia auch in dem Fall für genügend Kühlung sorgen möchte.. Ansonsten macht dieses Design ja eigentlich so keinen Sinn.. :confused:
X-Bow
2020-06-11, 20:57:54
Das kommt ganz auf das Gehäuse an, bei 21,3 cm Länge und kleinen Cases kann das durchaus der Fall sein.
So siehts bei mir aus :(
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12203589&postcount=4497
Der Fan 2 auf der Rückseite der Karte wird sich schon negativ auf den Luftstrom auswirken...
Du wirst keine Probleme bekommen. Durch so eine Gehäuselüfter wird die Luft relativ wenig beschleunigt. Selbst wenn alle Lüfter eines Gehäuses die Luft aus dem Gehäuse rausschaufelt bekommst nicht wirklich ein Problem. Mich würde wundern wenn da dann überhaupt ein Druckabfall messbar wäre.
Das ergibt eigentlich grundsätzlich keinen Sinn die Luft von oben nach unten zu blasen. Warme Luft möchte nach oben steigen, und Gehäuse sind in der Regel darauf ausgelegt die warme Luft nach oben/hinten rauszulassen, und kühle Luft von unten/vorne zuzuführen. Alles was man damit erreicht ist dass man in vielen Fällen die Wahrscheinlichkeit für einen Hitzestau erhöht.
Warme Luft will nicht nach oben steigen sondern wird von kalter Luft verdrängt.
Die erwärmte Luft aus dem Lüfter wird sich ziemlich sicher einfach nur mit der "frischen" Luft von außerhalb vermischen und dabei runter kühlen (vorausgesetzt die "frische" Luft ist kühler)
Wichtig ist nur das man die Wärmeenergie abführt.
Ein ideales Gehäuse und Luft-Flow ist ja schön und gut, in der Realität ist es Wurst ob dein Gehäuse voller Kabel und Hindernissen hängt, es ändert sich an der Kühlleistung unerheblich etwas.
Dural
2020-06-11, 21:04:50
Marketing, so hat die karte optisch nur einen lüfter.
TheAntitheist
2020-06-11, 21:07:14
och, ich finde das sehr sympathisch wie er es macht. wirkt mächtig entspannt. ist wie Opa, der vom Krieg erzählt.
gibt schon sehr unsympathische folgen, wo er sich immer über das "Super" 100 mal lustig macht oder bei AMD war es wegen dem Power management namen oder sowas...
eher für dumme gemacht und fördert schön den "Krieg" zwischen den lagern der jeweiligen Hersteller. Hat schon was von Bild
dargo
2020-06-11, 21:10:14
Ich bin grundsätzlich ja dafür, bei allem über 300W generell auf Wakü bzw. AiO zu gehen. So ein 120mm Radi ist zwar nicht die Welt, aber das ist immer noch deutlich besser als reine Luftkühlung.
Wobei eine gute Grafikkarte laut Jensen ja gar keine Wasserkühlung braucht. Also hat sich das eh erledigt. :ulol:
Ich mag immer noch nicht so recht glauben, dass Nvidia einen 350W Heizofen bringen will und AMD sogar einen 400W Heizofen. :freak: Irgendwie riecht das nach Streuung von Falschinformationen.
BoMbY
2020-06-11, 21:18:25
Warme Luft will nicht nach oben steigen sondern wird von kalter Luft verdrängt.
Die erwärmte Luft aus dem Lüfter wird sich ziemlich sicher einfach nur mit der "frischen" Luft von außerhalb vermischen und dabei runter kühlen (vorausgesetzt die "frische" Luft ist kühler)
Wichtig ist nur das man die Wärmeenergie abführt.
Die Semantik ist unerheblich. Das Ergebnis bleibt das gleiche. Die Luft unten im Gehäuse wird wärmer, folglich wird auch die Hardware wärmer, weil die Kühlleistung verringert wird.
Rampage 2
2020-06-12, 00:03:00
Ein anderes Beispiel ist Intel. Ihr 14nm Prozess würde auf dem Papier eine viel höhere Packdichte zulassen.
Wurde das Problem der Packdichte (= weniger Platz, um Abwärme abzuführen) nicht schon damals bei Ivy Bridge (2012) als allererster Chip in 22nm und 3D-Stacking thematisiert? Ivy Bridge ließ sich schlechter übertakten als Sandy Bridge und anfangs machte man den geringeren Platz für die Abwärme dafür verantwortlich, obwohl in Wirklichkeit vermutlich eher Intel's Entscheidung TIM für den IHS zu verwenden (Sandy Bridge war noch verlötet), die eigentliche Ursache dafür gewesen sein dürfte...
Wieso macht das Intel also nicht? Wieso haben sie den Poly Pitch zwischen Coffee Lake und Kaby Lake sogar vergrössert? Ah ja, das wird generell mit höheren Taktraten in Verbindung gebracht;)
Oder was Intel mit seinem 14nm++ gemacht hat.
Hatte Intel das nicht schon bei Kaby Lake gemacht? Laut Intel war schon KBL mit einem "+" versehen und ließ sich deutlich höher takten als Skylake - wurde nicht auch da der Pitch/die Die-Fläche vergrößert (= mehr Platz zum Abführen) ? Skylake ließ sich eher mies übertakten (4.6-4.8 GHz) aber Kaby Lake ging richtig gut (4.8-5.0 GHz) und manche Exemplare schafften bereits 5.2 GHz:smile:
Ergo sollte beim Top Gaming Ampere 7nm gesichert sein und irgendwas über 50% more Power. Von AMD erwartet man schließlich 2080TI +30% Power im dicken Navi.
Wenn GA102 tatsächlich ~ 2.5 GHz Takt schaffen sollte, könnte das hinkommen - ansonsten müsste Nvidia die Architektureffizienz nochmals um 20% steigern...
R2
Sunrise
2020-06-12, 00:09:19
Wenn GA102 tatsächlich ~ 2.5 GHz Takt schaffen sollte, könnte das hinkommen - ansonsten müsste Nvidia die Architektureffizienz nochmals um 20% steigern...
Werden sie wohl schaffen, Boost oder wie auch immer, trotz weiterhin verbesserter Architektur-Effizienz, die dafür genutzt wird. Von AMD wissen sie, dass RDNA2 min. 2,25GHz relativ problemlos boosten kann.
Der neue Kühler ist sicher kein Zufall gewesen...
Alex1973
2020-06-12, 02:12:30
Zitat von Alex1973 Beitrag anzeigen
Was ich überhaupt nicht verstehe ist dieses, GeForce RTX 2060 1920 Shader-Einheiten und GeForce RTX 3060 auch 1920 Shader-Einheiten ?
Das kann ich sehr gut nachvollziehen ! Geht mir genau so.
Leonidas
2020-06-12, 04:24:12
Igor schätzt die neuen schnellen GDDR6 auf 2,5W pro Chip, wäre bei 12 8Gb Chips 30W.
Die bisherigen GDDR6 brauchen ca. 2W pro Chip, wäre bei 12 8Gb Chips 24W und das kommt auch hin.
Ich bin mir ziemlich sicher, das die Speicherchip-Hersteller bei ihren TDP-Angaben den alten Geist der TDP hochhalten und daher einen Maximal-Wert mit Reserve angeben, der in der Praxis nie erreicht wird.
Meine Erfahrung aus Stromverbrauchs-Messungen ist, das zwischen 4 und 8 GB (allerdings GDDR5) nur ca. 3 Watt Realverbrauch unter Spielen liegen (gleicher Chip, gleiche Taktraten, gleiches Interface natürlich).
Dural
2020-06-12, 09:33:34
Ist richtig, aus Erfahrung ist vor allem die Anzahl an Speicher Chips entscheidend, und natürlich der Takt.
Die Kapazität pro Chip macht kaum was aus.
Übrigens Kommando zurück bei den 8LPP :D. Der ist offenbar besser als es den Anschein machte.
Der Exynos 9820 hat 7,5-8Mia Transistoren und kommt auf eine Packdichte von 65mio/mm², ein High-Performance-Chip hätte also fast die gleiche Packdichte wie bei N7. Samsungs 7LPP kann übrigens höhere Packdichten erreichen als N7+, das nur als Nebeninfo :D.
In der Praxis kann man wahrscheinlich mit N7P etwas höher packen, also ca. 47-48mio/mm² und bei 8LPP käme man vllt. zu 40-42mio/mm² (was i.Ü. besser passt bei 627mm² nebenbei), aber bei der HPC-Leistung könnte der Leistungsunterschied zwischen den beiden Prozessen geringer ausfallen als man so denkt. Bei Perf/W am Sweetspot wird N7 immer besser sein, das spielt hier aber keine Rolle. Der Prozess könnte sich als gute Wahl erweisen.
robbitop
2020-06-12, 11:06:20
Mobile Chips packen dichter. Waren manche mobile SoCs nicht mit N7 sogar bei 9x Mio/mm2? Das ist schon ein Stück mehr.
Der A12 hatte 71mio/mm², das ist jetzt nicht so viel mehr.
Kirin 990 G5 in N7+ packt 91mio/mm², das ist aber nicht N7.
Hübie
2020-06-12, 12:09:20
Mobile mit Desktop zu vergleichen ist so wie LKW und PKW.
Soweit ich weiß hat Igor Kontakte zu MSI und Gigabyte, was NVIDIA betrifft. Die bekommen nur das an Infos was die gerade brauchen. EVGA und ASUS sind da m.W.n. schon etwas enger angebunden. Aber die Infos werden so falsch nicht sein. ;)
Ich bin guter Dinge, dass ich meine gute alte 980 Ti in jeder Metrik - außer Preis - verdoppeln kann (wenn es dann nur 11 statt 12 GB sind; Schwamm drüber).
robbitop
2020-06-12, 12:28:59
Der A12 hatte 71mio/mm², das ist jetzt nicht so viel mehr.
Kirin 990 G5 in N7+ packt 91mio/mm², das ist aber nicht N7.
A13 liegt bei knapp 100 mio/mm². A12 ist kalter Kaffee.
Wenn man schon Top Notch vergleicht - dann top notch für beide mobilprozesse. Denn 8 nm wird sich für High Performance ASICs auch anders verhalten.
Grundsätzlich sehe ich das wie huebie:
Mobile mit Desktop zu vergleichen ist so wie LKW und PKW.
Spielt aber auch keine Geige. Es ist jedenfalls so, dass 8 LPP mitnichten ausscheidet aus dem Rennen, es bleibt alles offen.
robbitop
2020-06-12, 12:39:44
Naja 100 86 Mio/mm² zu 65 Mio/mm² für topnotch jeweils ist schon noch ein Unterschied.
Wobei Packdichte an sich auch sekundär ist für eine GPU. 8 nm wird pro Wafer deutlich günstiger sein. Performance/Energy sind da sicherlich wichtig.
Wie kommst du auf 100mio? So ein Quatsch!
Das Ding ist 98,5mm² groß und hat 8,5Mia Transistoren, rechne
Und der ist N7P
Vielleicht sollten wir mal anfangen von den gleichen Dingen zu reden...
Also:
Exynos 9820 8LPP: 127mm² bei 8mia Transistoren knapp 63mio/mm²
Apple A12 N7 (ohne alles): 83mm² bei 5,9mia 71mio/mm²
Apple A13 N7P: 98,5mm² bei 8,5Mia 86mio/mm²
Vergleich doch nicht Äpfel mit Birnen dauernd, das nervt.
Natürlich ist das nicht 1:1 auf HPC-Chips übertragbar, aber auch bei mobile ist der Unterschied zwischen 8 LPP und N7 relativ klein. Im HPC wird der tendenziell nochmals deutlich kleiner ausfallen. Es spricht nichts dagegen, dass ein 8 LPP-Chip mit >40mio/mm² bestückt ist, das würde also auf jeden Fall passen.
robbitop
2020-06-12, 12:57:01
Mäßige bitte deinen Ton und bleibe sachlich.
Ja A13 mit 100 Mio/mm² war schlampig gegooglet.
Was den Vergleich angeht:
1. N7P hat laut Chipwiki keinen Densityvorteil ggü N7:
https://en.wikichip.org/wiki/7_nm_lithography_process - entsprechend ist hier davon auszugehen, dass Apple hier von der Designseite nachgelegt hat. Entsprechend gilt 86 zu 63 Mio Tr/mm². sind 36% mehr Dichte. Und das ist schon wenig Vorteil dafür, dass 8 nm eigentlich ein 10 nm Prozess ist und wir hier um fast einen Fullnode Sprung in Differenz sprechen.
2. Wenn man schon den top of the line density Prozess zum Vergleich wählt - dann für beide Seiten. Am Ende wird sich das bei HP Komponenten eh nicht durchschlagen.
Ich bin einfach stinking, weil das gar nicht der Punkt ist auf dem hier dauernd herumgeritten wird.
Der Punkt ist der: Wenn ein Chip mit 63mio/mm² mobil möglich ist, ist ein HPC-Chip mit 40-42mio/mm² auch möglich, Ende der Geschichte. Ob 7 oder 8nm sehen wir dann, aber das kategorisch ausschließen geht halt nicht.
Ich bin mir ziemlich sicher, das die Speicherchip-Hersteller bei ihren TDP-Angaben den alten Geist der TDP hochhalten und daher einen Maximal-Wert mit Reserve angeben, der in der Praxis nie erreicht wird.
Geben denn Speicherchip Hersteller einen TDP an? Samsung gibt im öffentlichen Datenblatt (https://www.micron.com/-/media/client/global/documents/products/data-sheet/dram/gddr/gddr6/gddr6_sgram_8gb_brief.pdf?rev=df26f883f56a4a05b41edb492b78d6b8) nur eine Betriebstemperatur an. Die Verlustleistung ist überhaupt nicht angegeben und hängt auch massiv mit der Ansteuerung zusammen.
Hübie
2020-06-12, 13:13:07
Ich bin einfach stinking, weil das gar nicht der Punkt ist auf dem hier dauernd herumgeritten wird.
Der Punkt ist der: Wenn ein Chip mit 63mio/mm² mobil möglich ist, ist ein HPC-Chip mit 40-42mio/mm² auch möglich, Ende der Geschichte. Ob 7 oder 8nm sehen wir dann, aber das kategorisch ausschließen geht halt nicht.
Wer sagt denn, dass es nicht möglich ist? Zeitreisen sind theoretisch sogar möglich...
Ich möchte dir nur mal ein paar Prozessgrößen bei der Lithografie geben, die großen Einfluss auf das Ergebnis bzw. das Produkt haben:
Betriebsspannung der Anlage, Stromdichte des Siliziumchips, address grid, Auflösung, Direct write Präzision und Genauigkeit beim Stitching. Du schießt mit deiner Aussage gefühlt etwas aus der Hüfte ohne zu argumentieren oder dich in die Diskussion mit einzubringen durch stichhaltige Beweise. Dazu würde es ja reichen, wenn du Jahr für Jahr vergangene Prozesse und Chips miteinander vergleichst (mobil SoC <-> GPU). Wobei du schon erkennen müsstest, dass es kaum unterschiedlicher zugehen könnte, was SoC- und GPU-Verlgeiche angeht.
ps: Die Packdichte ist ebenfalls eine relativ schlechte Angabe, da sie über den gesamten Chip und nicht über die reinen Recheneinheiten gelegt wird. Caches, ALUs und IMC haben völlig unterschiedliche gate-to-gate-pitches. Somit ist das eine sehr grobe Einordnung eines gemittelten Wertes.
robbitop
2020-06-12, 13:13:44
Ich bin einfach stinking, weil das gar nicht der Punkt ist auf dem hier dauernd herumgeritten wird.
Der Punkt ist der: Wenn ein Chip mit 63mio/mm² mobil möglich ist, ist ein HPC-Chip mit 40-42mio/mm² auch möglich, Ende der Geschichte. Ob 7 oder 8nm sehen wir dann, aber das kategorisch ausschließen geht halt nicht.
Wackelige Argumentation IMO. Grundsätzlich kann man das aber natürlich nicht ausschließen. Tut IMO formal auch niemand. Lediglich skeptisch betrachten und hinterfragen. Und genau das gehört zu einer Kontroverse dazu. Emotionen sind in einer sachlichen Diskussion IMO nicht sinnvoll/angebracht.
Maorga
2020-06-12, 13:32:52
Samsung’s GDDR6 packs in 16Gb graphics DRAM, consuming up to 60 percent less power compared to the 8Gb solution with the same density configuration. Quelle: https://www.samsung.com/semiconductor/dram/gddr6/
Zu Igor:
Die 60 Watt sind meiner Meinung nach sehr spekulativ für den RAM.
Die TBP (Thermalboardpower) von RTX 3090 und RTX3080 haben einen unterschied von 30 W in der TBP. Nun wenn aber die RTX 3080 nicht mal halb soviel Speicher hat wie die 3090 (24 GiB zu 10 GiB), würde dies bedeuten allein vom Speicher spart sich das System 35 Watt.
Geht man nun davon aus, dass die DIE selbst auch noch beschnitten ist, dann ergibt die TBP von 320 Watt für die 3080 keinen Sinn.
Der Umkehrschluss davon wäre die 3090 ist ein totales Fehlprodukt - sie könnte sich nicht von der 3080 absetzen.
GDDR6 wird aber tatsächlich schon sehr heiß. Im normalen Plastikgehäuse steigen die Temperaturen trotz Kühlung schon gern mal auf 75° und mehr, was auf recht hohen Stromverbrauch ja hindeutet.
Ich hab die Vermutung, dass bei GDDR6X ein neues Gehäuse geschaffen wurde, was die Wärme besser ableiten kann. Dann kann man "normalen" GDDR6 einfach höher Takten beispielsweise, was nicht heißen soll, dass das so ist.
Robbi, war nicht persönlich gemeint ;). Aber man ist auch kein Roboter ;D.
Hübie
2020-06-12, 14:01:44
Plastikgehäuse? :confused:
BlacKi
2020-06-12, 14:09:26
Plastikgehäuse? :confused:
https://gzhls.at/i/08/67/1870867-n5.jpg
Hübie
2020-06-12, 14:15:16
Oh, ach so. :redface: Ich dachte er meinte das Package vom DDR6-RAM sei aus Kunststoff. :freak:
ps: Das auf dem Bild sieht mir aber nicht nach Kunsstoff aus...
Klar Kunststoff, was denn sonst, genau wie VRM-Packages.
BlacKi
2020-06-12, 14:51:47
wth? iamout.
Dampf
2020-06-12, 23:57:11
Ampere muss sich ranhalten, RDNA2 scheint Turing in Sachen RT Leistung signifikant überlegen zu sein. Auf der PS5 laufen sehr viele Titel in nativem 4K inklusive RT-Reflektionen. Turing ist davon weit entfernt.
Kein guter Look für Nvidia imo.
maximus_hertus
2020-06-12, 23:57:49
Quintessenz: mit Ampere altere ich nur wenige Jahre, während der Radeon nutzende Zwillingsbruder ein Aiming hat, als ob er 50 Jahre älter wäre?
Houston, AMD hat ein Problem ;)
Zurück zum Topic:
Falls sich die Gerüchte bewahrheiten, sieht Ampere ja gar nicht gut aus. Nochmal 8 GB bei über 500 Euro Karten? Das wäre echt bitter.
y33H@
2020-06-12, 23:58:04
Turing ist bei Release der PS4 und XSX auch schon zwei Jahre alt, das ist ne halbe Ewigkeit.
Dampf
2020-06-13, 00:04:20
Turing ist bei Release der PS4 und XSX auch schon zwei Jahre alt, das ist ne halbe Ewigkeit.
Das ist schon wahr. Aber es ist ja AMDs erster Versuch und sie konnten von Nvidias Erfahrungen nicht profitieren.
Ich könnte mir auch vorstellen, dass Sonys Raytracing API einfach effizienter läuft als DXR 1.0 auf Turing GPUs. Da könnte DXR 1.1 eventuell Abhilfe verschaffen, aber bisher sehe ich da noch keine Indizien davon. Eventuell bringt es auf Turing nichts da die Architektur zu alt ist, sonst hätte man schon was dazu gesehen.
y33H@
2020-06-13, 00:07:49
Ohne zu wissen was genau in welcher Auflösung wie mit RT gerendert wurde, ist das ohnehin kaum vergleichbar.
Davon ab: Wo gibt's denn geile Ingame-PS5-Footage mit bestätigen Raytracing-Effekten?
MfG
Raff
Troyan
2020-06-13, 00:13:04
Die 1080p/30FPS Gameplay-Demo von Ratchet. Und selbst hier wird Raytracing nur teilweise eingesetzt. Alles andere hat kein Gameplay mit Raytracing gehabt.
Dampf
2020-06-13, 00:19:50
Davon ab: Wo gibt's denn geile Ingame-PS5-Footage mit bestätigen Raytracing-Effekten?
MfG
Raff
Digital Foundry hat ein neues Video rausgehauen und die PS5 Titel analysiert. Gran Tourismo läuft in 4K60 mit Raytracing, nativ versteht sich. Ratchet und Clank läuft ebenfalls in nativem 4K und bietet RT Reflektionen. Dieses Katzen-Spiel scheint auch in 4K und bietet RT-Reflektionen. Die neue Capcom IP bietet auch RT-Reflektionen.
https://www.youtube.com/watch?v=KVnBikbYGic
Die 1080p/30FPS Gameplay-Demo von Ratchet. Und selbst hier wird Raytracing nur teilweise eingesetzt. Alles andere hat kein Gameplay mit Raytracing gehabt.
Nope. Natives 4K, Reflektionen auf Clank und auf dem Boden (mit ein paar Anpassungen einiger Objekte)
RDNA2 scheint sehr gute RT Performance zu bieten. Bei Turing kannst du die RT Auflösung noch so weit runterstellen, natives 4K mit irgendeinem RT Effekt bei Frameraten jenseits der 15 FPS ist ein Ding der Unmöglichkeit. Chapeau AMD.
Troyan
2020-06-13, 00:27:47
Ja "auf den Boden". Und auch nur dort, wo der Entwickler es will. Es ist kein Fullscene-Raytracing, wie wir es aus PC-Spielen kennen.
Du sollest erstmal warten, bis die Spiele spielbar sind. Alles andere ist Marketing. Und Wolfenstein YB läuft auf einer RTX2070 mit 30FPS mit Reflektionen, die auf jedes Objekt angewendet wird: https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-rtx
-=Popeye=-
2020-06-13, 00:30:08
Ich sehe da nur viel Matsch und Kurzsichtigkeits Filter.
TheAntitheist
2020-06-13, 00:42:25
Korrektur: Schneller als das Licht im Vakuum. Schneller als das Licht im selben Medium geht schon.
Und Reisen in die Zukunft wären theoretisch sehr wohl möglich.
nö, dafür müsste die Information, wie die Zukunft aussehen würde, ja irgendwo gespeichert sein. Für alle anderen müsste die Zeitlinie aber weiter gehen wie sonst auch. Zeit ist relativ, du kannst sie dehnen und stauchen aber nicht überspringen. Wo in jedem Atom ist die Vergangenheit, Gegenwart und Zukunft für jeden Moment gespeichert?
Sind Zeitreisen physikalisch möglich?
https://www.youtube.com/watch?v=h5numuNTtnE
Dampf
2020-06-13, 00:45:48
Ja "auf den Boden". Und auch nur dort, wo der Entwickler es will. Es ist kein Fullscene-Raytracing, wie wir es aus PC-Spielen kennen.
Du sollest erstmal warten, bis die Spiele spielbar sind. Alles andere ist Marketing. Und Wolfenstein YB läuft auf einer RTX2070 mit 30FPS mit Reflektionen, die auf jedes Objekt angewendet wird: https://gamegpu.com/action-/-fps-/-tps/wolfenstein-youngblood-test-rtx
Wolfenstein Youngblood und R&C sind zwei ganz andere Ligen. Wolfenstein Youngblood läuft ohne RTX jenseits der 130 FPS Marke auf einer halbwegs potenten GPU. Das ist null aufwendig im Vergleich zu sowas wie Ratchet und Clank.
Dass der PC Brute-Force nutzt ist ja nicht meine Schuld. Dann soll man halt auf dem PC effizienteres Raytracing in ausgewählten Szenen anwenden, denn dass RT auf dem PC zu viel zieht ist ja der Grund, warum so viele Leute von Turing abgeneigt sind. RDNA2 wird zeigen, wie das richtig geht so wie es jetzt auch schon auf den Konsolen der Fall ist, währenddessen wird bei Ampere und Turing wieder viel Performance draufgehen für was, das man eh kaum sieht...
Alex1973
2020-06-13, 00:47:51
Davon ab: Wo gibt's denn geile Ingame-PS5-Footage mit bestätigen Raytracing-Effekten?
MfG
Raff
Das ist alles sehr unerfreulich, RT wird wohl in der nächste Konsolen Generation keinere Rolle spielen wegen Software- Entwicklern, die wie gebannt auf Konsolen schielen. Und dabei hat nVidia
grade zu alle Ressourcen drauf verwettet. Und nun werden wir kaum RT Spiele genießen trotz des ganzen Potentials, alles umsonst gewesen?
Es ist sehr schlecht für PC Spieler das PS 5 so schlecht ist.
Dampf
2020-06-13, 00:49:02
Das ist alles sehr furchtbar, RT wird wohl in der nächste Konsolen Generation keine wichtige Rolle spielen wegen Software- Entwicklern, die wie gebannt auf Konsolen schielen. Und dabei hat nVidia
grade zu alle Ressourcen drauf verwettet. Und nun werden wir kaum RT Spiele genießen trotz des ganzen Potentials, alles umsonst gewesen?
Es ist sehr schlecht für PC Spieler das PS 5 so schlecht ist, noch schlechter als für Konsolenspieler selbs, die zahlen sich ja wenigstens nich dumm und dämlich oder?
Dir ist schon klar, dass die Mehrheit der im Sony Feed gezeigten Spiele, RT Effekte einsetzen...
Troyan
2020-06-13, 00:51:04
Und was ist so aufwendig an RaC? Das ist ein Current-Gen Game auf einer 10TFlops Konsole. Logisch läuft das in 4K mit 30FPS (die Videos sind in 30FPS aufgenommen). Da ist nichts Next-Gen.
Du feierst hier eine reduzierte Qualität ab. Das wäre so, als wenn man die Konsolen feiert in 1440p mit 60FPS anstelle von 4K mit 30FPS zu rendert. Selbe Argumentation, null Logik.
Alex1973
2020-06-13, 00:54:02
Dir ist schon klar, dass die Mehrheit der im Sony Feed gezeigten Spiele, RT Effekte einsetzen...
Ja, aber dafür reicht eine kapute rtx 2060 bei ebay für 150 euro, und wozu eine RTX 3090ti super geil.
Ja ich weiß man könnte darauf Eier braten, oder was isst du so gern.
Dampf
2020-06-13, 00:55:20
Und was ist so aufwendig an RaC? Das ist ein Current-Gen Game auf einer 10TFlops Konsole. Logisch läuft das in 4K mit 30FPS (die Videos sind in 30FPS aufgenommen). Da ist nichts Next-Gen.
Du feierst hier eine reduzierte Qualität ab. Das wäre so, als wenn man die Konsolen feiert in 1440p mit 60FPS anstelle von 4K mit 30FPS zu rendert. Selbe Argumentation, null Logik.
Hast du das Spiel überhaupt mal angesehen? Da werden innerhalb von 2 Sekunden ganze Welten geladen, dank der SSD. Die Geometrie, Polygon-Count ist absolut beispielos. Von den Partikel und Lichteffekten ganz zu schweigen... Das ist definitiv Next Gen.
So schlecht sehen die Reflektionen aber nicht aus, im Gegenteil. Die sind schön scharf, ähnlich wie auf dem PC. BF5 musste auch schon ein Mix aus SSR und RT bei geringerer Auflösung nutzen, damit es spielbare FPS gab.
Ja, aber dafür reicht eine kapute rtx 2060 bei ebay für 150 euro, und wozu eine RTX 3090ti super geil.
Ja ich weiß man könnte darauf Eier braten, oder was isst du so gern.
Das ist Blödsinn. Die 2060 ist für 1080p gemacht, bei RT rendert sie mit DLSS in 720p um gute FPS zu bekommen. Von nativem 4K ist das ganz weit entfernt.
Troyan
2020-06-13, 01:03:53
Bist du ein Parodieaccount? Ich kenne nur den Trailer hier: https://www.youtube.com/watch?v=ai3o0XtrnM8
Da sehe ich Low-Poly Welten, 08/15 Wasser, LoD-Probleme und geile Texturnachladesachen (9GB/s sind wohl zu langsam lmao).
Das ist alles Pre-Alpha und wird bestimmt noch besser. Aber RaC hat nichts mit Next-Gen zu tun.
Die Reflektionen in RaC lassen haufenweise Geometrie vermissen. Selbst offensichtliche Dinge wie die Blockarde fehlt komplett: https://youtu.be/TiImwSE2RuQ?t=40
Und BF5 hat SSR wieder integriert, weil das BVH Alphatest-Sachen nicht erfasst hat. Hatte Null zu tun mit dem, was du schreibst.
crux2005
2020-06-13, 01:05:38
Ampere mit HBM wäre eine Überraschung:
https://www.reddit.com/r/nvidia/comments/h0ow4x/rtx_3080_pcb_recreation_with_hbm2e/?utm_content=media&utm_medium=post_embed&utm_name=a4b461e2b384457c9d50cda1e6e68aa5&utm_source=embedly&utm_term=h0ow4x
Wird wohl seine feuchte Fantasie sein.
Dir ist schon klar, dass die Mehrheit der im Sony Feed gezeigten Spiele, RT Effekte einsetzen...
Falsch.
Alex1973
2020-06-13, 01:07:26
Das ist Blödsinn. Die 2060 ist für 1080p gemacht, bei RT rendert sie mit DLSS in 720p um gute FPS zu bekommen. Von nativem 4K ist das ganz weit entfernt.
Nvidia hat bei Ampere massiv auf RT gesetzt , das meine ich mit brachliegender Leistung, weil Konsolen den kleinsten gemeinsamen Nenner liefern. Und nun unterstützt PS 5 zwar RT aber nur begrenzt, ein wenig.
Damit wird RT am PC auch nur ein Effekt bleiben und nicht massiv auftreten, und ich als großer Fan von RT fürchte nun das Schlimmste.
Teilst du diese mehr als logische Befürchtung nicht?
unl34shed
2020-06-13, 01:13:24
Nvidia hat bei Ampere massiv auf RT gesetzt , das meine ich mit brachliegender Leistung, weil Konsolen den kleinsten gemeinsamen Nenner liefern.
Wie viel schneller wird den die RT Leistung von Ampere?
Dampf
2020-06-13, 01:15:57
Nvidia hat bei Ampere massiv auf RT gesetzt , das meine ich mit brachliegender Leistung, weil Konsolen den kleinsten gemeinsamen Nenner liefern. Und nun unterstützt PS 5 zwar RT aber nur begrenzt, ein wenig.
Damit wird RT am PC auch nur ein Effekt bleiben und nicht massiv auftreten, und ich als großer Fan von RT fürchte nun das Schlimmste.
Teilst du diese mehr als logische Befürchtung nicht?
Naja, die RT Performance von Ampere liegt noch in den Sternen, da können wir noch keine Aussagen treffen.
Ich versteh was du meinst, aber da die meisten PC Karten keine DXR Beschleunigung haben, werden Spiele die von grundauf für RT entwickelt werden, auch erstmal nur Wunschdenken bleiben. Ich persönlich bin sehr von der RT Performance von den Konsolen überrascht, ich hätte nie gedacht dass so viele Titel Raytracing Effekte überhaupt nutzen und dann noch in nativem 4K und in der Qualität (kein Checkerboarding!) das lässt doch auf eine gute RT Leistung von RDNA2 hoffen, also würde ich mir da echt keine Sorgen machen. Mach dir lieber Sorgen um die ganzen Pascal, Maxwell, GCN und RDNA1 Grafikkarten, die auf dem Markt so rumwuseln.
MiamiNice
2020-06-13, 01:16:13
Wie viel schneller wird den die RT Leistung von Ampere?
Leider direkt um die 200% zur 2080TI von diesem so tollem Feature.
Alex1973
2020-06-13, 01:25:25
das lässt doch auf eine gute RT Leistung von RDNA2 hoffen, also würde ich mir da echt keine Sorgen machen. Mach dir lieber Sorgen um die ganzen Pascal, Maxwell, GCN und RDNA1 Grafikkarten, die auf dem Markt so rumwuseln.
Da könntest du wiederum recht haben, es gibt Gerüchte, die darauf hindeuten, dass PS5 mehr als dreifache RT Leistung ein RTX 2080ti hat.(32 Gigarays vs 10Gigarays der 2080Ti )
Troyan
2020-06-13, 01:27:04
Im Beyond3d.com Forum hat jemand mal die Fehler in der Pre-Alpha zusammengefasst: https://forum.beyond3d.com/posts/2132300/
Genauso wie in GT7 fehlt Geometrie und die Qualität ist auch deutlich unter nativer Auflösung.
Daher sollte man erstmal auf die fertigen Spiele warten.
Leonidas
2020-06-13, 04:45:53
Wunder der Menschenliebe und öffentlich gezeigten Zuneigung ... Nehmt Euch ein Zimmer!
BtT:
Bis auf die Problematik der Speichermengen dürfte Ampere vermutlich nicht ganz so schlimm herauskommen wie hier oftmals vermutet wird. Es besteht kaum Spielraum für die Preise nach oben, da bei dieser Generation der Direkt-Vergleich zu den Feature-gleichen NextGen-Konsolen möglich ist. Normale Raster-Grafik wird nur +35% drauflegen, aber RT-Grafik wohl deutlich schneller laufen, hinzukommend verstärkt DLSS als fps-Bringer. Eigentlich isses genau das, was wir wollten: Wenn schon RT, dann aber bitte performant, so das die Spieleentwickler einen Anreiz haben, es auch zu nutzen.
So oder so dürfte AMD mittels Big Navi für die preisliche Korrektur sorgen. Da kann sich NV nicht gerade alles erlauben.
MasterElwood
2020-06-13, 08:03:39
10 GiB für die Oberklasse, welche bisher mit 8 GiB herumgegurkt ist: prima. Nicht geil, aber gut.
11 GiB im Jahr 2020, wo schon das Enthusiastmodell von 2015 mit 12 GiB antrat: am Arsch.
12 GiB würde ich gerade so durchgehen lassen. Aber nur gerade so. Denn Grafikkarten werden nicht für den Bestcase gebaut, bei dem alle Möglichkeiten der effizienten Nutzung bedacht werden, sondern für "das echte Leben" - also viele Grützspiele. Deren Probleme konnte man früher bequem mit dicker Hardware erschlagen. Geht nicht mehr, wenn das erschwingliche Produkt ein Speicherkrüppel ist.
MfG
Raff
Ausser sie schrauben wieder an der Speicher-Komprimierung. Könnte mir durchaus vorstellen dass sie etwas zeigen wie: "Selbes Game braucht auf einer 3080 30% weniger Platz als auf einer 2080".
Dann reichen auch 8/10/11 GIG....
MasterElwood
2020-06-13, 08:13:56
Normale Raster-Grafik wird nur +35% drauflegen
Warum wird das dauernd wiederholt so als wäre es schon bestätigt?
Bei nur +35% würden auch die härtesten NV-Fanboys Richtung rot wandern. Wie soll sich NV das erlauben können mit Rot am Start zur selben Zeit? :facepalm:
y33H@
2020-06-13, 08:57:47
Ausser sie schrauben wieder an der Speicher-Komprimierung. Könnte mir durchaus vorstellen dass sie etwas zeigen wie: "Selbes Game braucht auf einer 3080 30% weniger Platz als auf einer 2080". Dann reichen auch 8/10/11 GIG ...Die Kompression betrifft idR nur die Bandbreite und nicht den benötigten Speicherplatz.
wolik
2020-06-13, 08:58:34
Wieso schreibt Ihr in nVidia Ampere Thread über SSD und PS5?
3090. 12Gb oder 24Gb? Das ist die Frage. Preis ist "egal".
unl34shed
2020-06-13, 09:40:35
Warum wird das dauernd wiederholt so als wäre es schon bestätigt?
Bei nur +35% würden auch die härtesten NV-Fanboys Richtung rot wandern. Wie soll sich NV das erlauben können mit Rot am Start zur selben Zeit? :facepalm:
Nach den aktuellen Leaks hat GA102 im Vollausbau nur 20% mehr Shader als eine 2080Ti, selbst mit mehr IPC und Takt wird die Karte wohl keine Wunder verrichten können.
y33H@
2020-06-13, 09:44:47
20% ALUs + 10% IPC + 10% Takt wären +45% ;-)
Edgecrusher86
2020-06-13, 09:45:15
Also selbst mit sehr konservativen 2 GHz für eine 3090 (5248SP, Vollausbau dann 2021 als zum Beispiel "Super"... könnte man ja dann mit 24GB bringen und das aktuelle Modell mit 22GB) und angenommen nur +10% IPC sollte GA102 sich bei Rasterizing mit grob +40% von einer 1,8 GHz 2080 Ti absetzen können, sofern nicht irgendetwas limitiert. Bandbreite dürfte es sicherlich nicht sein bei mindestens 19 Gbps und 352-384-bit SI. Grobe Milchmädchen-Rechnung, aber schon arg pessimistisch angesetzt.
+35% wäre doch arg wenig, wenn RDNA2 locker +20-30% auf TU102 bringen sollte.
unl34shed
2020-06-13, 10:11:37
Ob 35 oder 40% ist jetzt auch kein großer Unterschied, ok für manche sind 5% Welten, die 35% könnten etwas konservativ sein, aber wohl auch nicht zu weit weg. Aber die Erwartungshaltung mancher hier (vor ein paar Seiten) war 50-70% vor Big Navi.
Unterm Strich sollte es ein knappes Rennen werden zwischen Navi und Ampere. Sie haben eine ähnliche CU/SM Zahl (+5% Nvidia), vermutlich ähnliche IPC und vermutlich auch Takt. Am Ende dürfte die Krone darüber entschieden werden, wer die Karte höher prügeln wird.
Troyan
2020-06-13, 10:20:26
Stimmt, nVidia wird nur 30% drauflegen, weil die auch unfähig sind. Der Konkurrent dagegen, der wird natürlich auf dem selben Prozess mehr erreichen. Macht zwar kein Sinn, muss aber so sein. Kann anders nicht sein.
Wieso sollte es ein knappes Rennen werden, wenn nVidia noch nicht auf 7/8nm ist? Da wünsche ich mir ehrlich eine Erklärung. Denn immerhin kann nVidia 800mm^2 produzieren, wo der Konkurrent bei ca. 500mm^2 stehen bleiben wird.
unl34shed
2020-06-13, 10:29:47
Stimmt, nVidia wird nur 30% drauflegen, weil die auch unfähig sind. Der Konkurrent dagegen, der wird natürlich auf dem selben Prozess mehr erreichen. Macht zwar kein Sinn, muss aber so sein. Kann anders nicht sein.
Wieso sollte es ein knappes Rennen werden, wenn nVidia noch nicht auf 7/8nm ist? Da wünsche ich mir ehrlich eine Erklärung. Denn immerhin kann nVidia 800mm^2 produzieren, wo der Konkurrent bei ca. 500mm^2 stehen bleiben wird.
Und wieder wirfst du nur wirr irgendwelche Zahlen um dich, ohne irgendwie mit fakten (bzw anhand der aktuellen Leaks) zu argumentieren.
Der Stand aktuell:
80CUs vs 84 SMs
Gleiche IPC in current gen -> sehr wahrscheinlich gleich bei Ampere vs RDNA2
2,x GHz auf beiden Seiten -> Sehr wahrscheinlich TDP Limitiert, wer mehr mehr erlaubt wird am Ende vorne landen.
Und hör bitte auf, nur mit mm² (oder HPC Performance Steigerungen) um dich zu schmeißen und fang mal an vernünftig zu argumentieren oder lass es einfach.
Troyan
2020-06-13, 10:37:50
Du bist derjenige, der leicht verwirrt ist.
16nm gegen 7nm. Welche der beiden Firmen kann seinen neuen Chip auf einen neuen Prozess shrinken? Muss wohl mit "n" anfangen.
TU104 hat 13,6 Mrd. Transistoren und ist in der 2080 super ca. 30% schneller und 10% effizienter als die 5700XT. Du berhauptest also, dass nVidia bei einem Shrink von 16nm auf 7nm mit neuer Architektur einen geringeren Sprung macht als AMD von RDNA1 auf 2?
Achja, einfacher Shrink von TU104 landet wohl bei ~300mm^2 bei 150W. Hm, wo liegt dann wohl ein doppelter TU104?
So ja, fang mal an hier argumentativ darzulegen, wieso nVidia mit Ampere weniger erreichen sollte als AMD.
unl34shed
2020-06-13, 10:54:43
Du bist derjenige, der leicht verwirrt ist.
16nm gegen 7nm. Welche der beiden Firmen kann seinen neuen Chip auf einen neuen Prozess shrinken? Muss wohl mit "n" anfangen.
Und zum x-ten mal, es sind 12nm! Das ist ein kleiner aber feiner Unterschied. Hat aber damit wie ich die Leistung abschätze überhaupt nichts zu tun...
Achja, einfacher Shrink von TU104 landet wohl bei ~300mm^2 bei 150W. Hm, wo liegt dann wohl ein doppelter TU104?
Das Problem ist, dass es wohl keinen 96SM Ampere (2x TU104) Chip von Nvidia geben wird, also ist die Rechnung irgendwie sinn frei. :confused:
Nach aktuellen Leaks scheint es ein 84SM Chip zu werden.
So ja, fang mal an hier argumentativ darzulegen, wieso nVidia mit Ampere weniger erreichen sollte als AMD.
Bitte leg mir nicht etwas in den Mund, was ich so nicht gesagt habe. Oder wo habe ich gesagt, dass Nvidia weniger erreicht? Meine Argumentation basiert auf den aktuellen Leaks mit Anzahl der Shadern, erwartetem Takt und der Annahme, das man wieder TDP limitiert sein wird.
Edgecrusher86
2020-06-13, 10:58:38
Wenn jetzt 2,2 GHz gehalten werden würden, dürften es Richtung 50% sein. Noch mehr Takt würde mich positiv überraschen bei dem großen Chip.
In Compute lastigen Anwendungen wie der idTech 6/7 legt man sicherlich nochmals zweistellig gegenüber TU zu.
Wenn man jetzt von +90-100% auf N10 bei AMD aus geht und +40-50% mit GA102 Richtung Vollausbau auf die TITAN RTX oder Werks-OC 2080 Ti, so dürfte NV in 4K in vielen Titeln grob 10-15 fps über AMD liegen, teils weniger, teils auch Richtung 20 fps, je nach Engine. Ausgehend vom PCGH Index 2020 v1.1 in einigen fordernden Titeln. Glaskugel-Modus Off. :D
Mal sehen, was final heraus kommt - wenn AMD die Karte auch mit jenseits der 300W betreiben sollte, so mag auch unter FP32 +110% auf RDNA möglich sein. Aber sicherlich ist auch bei Team Green noch eine Steigerung dazu möglich, sodass im besten Fall vielleicht auch Pascal ähnliche Steigerungen (+60-70% af GM20x) zu erreichen sein könnte.
Troyan
2020-06-13, 11:29:11
Und zum x-ten mal, es sind 12nm! Das ist ein kleiner aber feiner Unterschied. Hat aber damit wie ich die Leistung abschätze überhaupt nichts zu tun...
Es gibt keinen "richtigen" 12nm Prozess bei TSMC. Er hat die selben Eigenschaften wie der 16nmFF Prozess. Der 16nm Prozess wurde einfach umbenannt.
Das Problem ist, dass es wohl keinen 96SM Ampere (2x TU104) Chip von Nvidia geben wird, also ist die Rechnung irgendwie sinn frei. :confused:
Nach aktuellen Leaks scheint es ein 84SM Chip zu werden.
Das war kein Bezug auf die Leaks. Offensichtlich sagt bei Ampere die reine Anzahl an SMs erstmal nichts aus. Siehe auch GA100.
Bitte leg mir nicht etwas in den Mund, was ich so nicht gesagt habe. Oder wo habe ich gesagt, dass Nvidia weniger erreicht? Meine Argumentation basiert auf den aktuellen Leaks mit Anzahl der Shadern, erwartetem Takt und der Annahme, das man wieder TDP limitiert sein wird.
Du behauptest, es werde ein Kopf and Kopf Rennen geben. Ergo denkst du, dass nVidia weniger Leistungssteigerungen erreicht als AMD. Da muss man dir nichts in den Mund legen.
Wer wissen will, wie die Leistungssteigerung von Samsung 14nm auf 8/10nm Prozess aussieht, kann bei Anandtech vorbeischauen: https://www.anandtech.com/show/12520/the-galaxy-s9-review/6
Dort werden die Samsung und Qualcomm SoCs gemessen. Zwei verschiedene SoCs, mit zwei verschiedenen GPU Architekturen auf dem selben Prozess. Und im Schnitt liegt die Effizienzsteigerung bei ca. 1,8x.
BlacKi
2020-06-13, 11:34:10
Da könntest du wiederum recht haben, es gibt Gerüchte, die darauf hindeuten, dass PS5 mehr als dreifache RT Leistung ein RTX 2080ti hat.(32 Gigarays vs 10Gigarays der 2080Ti )
aha. und zum thema raytracing: mit meiner pascal karte schaffe ich in CoD MW mit raytracing ebenfalls 60fps. wieviel raytracing da genutzt wird stelle ich mal in frage. man hat ja auch mit der cryengine und der v56 schon "raytracing" gesehen. wie willst du das einordnen? vermutlich stammt das gerücht aus einer hochrechnung von 2 unterschiedlichen spielen mit unterschiedlicher RT qualität. welches du nun nutzt um die RT performance zu bewerten.
Wenn jetzt 2,2 GHz gehalten werden würden, dürften es Richtung 50% sein. Noch mehr Takt würde mich positiv überraschen bei dem großen Chip.
wenn die gerüchte stimmen zum verbrauch, dann wundert mich das nicht. verbesserter prozess(stromsparprozess), massiv mehr stromverbrauch und kaum mehr CU. und was eben viele wieder weglassen, 65% mehr speicherbandbreite, wenn die grüchte stimmen. bei der steigerung der bandbreite, reichen schon +40% mehr rechenleistung um die +50% in spielen zu knacken.
Beim Rasterizing hingen viele Spiele nicht im Bandbreitenlimit, ergo gibts deshalb auch keine große Steigerung. Die Bandbreite braucht man für RT.
16% mehr Shader und 20% mehr Takt kann man rechnen, dazu noch etwas Effizienz. Sind natürlich viele Unbekannte nach wie vor, aber ich würde vor zu großen Erwartungen warnen. 40% kann man sicherlich schaffen, wenn man will, aber die Konzentration auf RT wird ihren Tribut fordern. Das ist kein Pascal.
Troyan
2020-06-13, 12:03:10
Echt? Warum nicht? Erkläre das mal. Wäre doch mal eine Abwechslung, wenn man seinen Quatsch argumentativ erörtern müsste, oder?
Also du behauptest, dass nVidia mit einem kompletten Full-Node Shrink bei 350W 40% Mehrleistung schafft? Gleichzeitig behauptest du aber auch, dass die Firma ohne kompletten Full-Node Shrink bei 300W die Leistung verdoppeln werde?
Naja, Logik mal wieder.
unl34shed
2020-06-13, 12:11:19
Es gibt keinen "richtigen" 12nm Prozess bei TSMC. Er hat die selben Eigenschaften wie der 16nmFF Prozess. Der 16nm Prozess wurde einfach umbenannt.
Wenn es nur ein umbenannter 16nm Prozess ist, frag ich mich, warum Nvidia Zeit und Ressourcen investiert um ihm ihren Stempel aufzudrücken. Aus Jux und Tollerei wird man das nicht gemacht haben.
NVIDIA TURING KEY FEATURES
NVIDIA Turing is the world’s most advanced GPU architecture. The high-end TU102 GPU includes 18.6 billion transistors fabricated on TSMC’s 12 nm FFN (FinFET NVIDIA) high-performance manufacturing process.
Quelle: https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
Oder Hier:
The process is a smaller version of TSMC's 16nm FinFET technology
...
The nominal 12nm process will have lower leakage and better cost characteristics, it was said.
Quelle: https://www.eenewsanalog.com/news/report-tsmc-relabel-process-12nm
Ich spreche nicht ab, dass es auf der 16nm Node basiert, aber es heißt eben 12nm und ist ein verbesserter 16nm Prozess und sollte sich daher nicht 1 zu 1 auf TSMCs 16 vs 7nm Werte projizieren lassen.
Das war kein Bezug auf die Leaks. Offensichtlich sagt bei Ampere die reine Anzahl an SMs erstmal nichts aus. Siehe auch GA100.
Die ganzen großen Zahlen für GA100 vs GV100 basieren alle nur auf HPC Workloads und haben halt nichts mit Gaming/Consumer zu tun.
Rein auf FP32 hat sich bei GA100 kaum etwas getan. Die einzige massive Verbesserung waren die Tensor Cores und die bringen stand jetzt im Gaming nichts. Tricksereien wie DLSS mal ausgenommen.
Du behauptest, es werde ein Kopf and Kopf Rennen geben. Ergo denkst du, dass nVidia weniger Leistungssteigerungen erreicht als AMD. Da muss man dir nichts in den Mund legen.
Wo soll es denn herkommen? Von den Tensor Cores? Die bringen im Gaming nichts. Eiffizienzmäsig stehen dem Shrink AMDs 50% perf/W angabe gegenüber und zumindest mit GA100 sieht Ampere anhand der TDP jetzt nicht so toll aus was die Effizienz angeht. Ja die Tensor Cores haben ordentlich zugelegt aber abseits davon?
Der Mobilprozessor Vergleich ist irgendwie wie Äpfel und Birnen zu vergleichen...
aha. und zum thema raytracing: mit meiner pascal karte schaffe ich in CoD MW mit raytracing ebenfalls 60fps. wieviel raytracing da genutzt wird stelle ich mal in frage. man hat ja auch mit der cryengine und der v56 schon "raytracing" gesehen. wie willst du das einordnen? vermutlich stammt das gerücht aus einer hochrechnung von 2 unterschiedlichen spielen mit unterschiedlicher RT qualität. welches du nun nutzt um die RT performance zu bewerten.
Offizielle zahlen von Microsoft zur Xbox sind 380giga ray-triangle-intersections. Lässt sich auch mit CU * 4 (TMUs) * Takt nachrehnen. Ergibt für die PS5 320 und die 2080Ti da nur ein RT Core pro SM ca. 100. Die Gigrays sind das ganze dann einfach durch 10 geteilt.
Es gibt keinen "richtigen" 12nm Prozess bei TSMC. Er hat die selben Eigenschaften wie der 16nmFF Prozess. Der 16nm Prozess wurde einfach umbenannt.
Das war kein Bezug auf die Leaks. Offensichtlich sagt bei Ampere die reine Anzahl an SMs erstmal nichts aus. Siehe auch GA100.
Du behauptest, es werde ein Kopf and Kopf Rennen geben. Ergo denkst du, dass nVidia weniger Leistungssteigerungen erreicht als AMD. Da muss man dir nichts in den Mund legen.
Wer wissen will, wie die Leistungssteigerung von Samsung 14nm auf 8/10nm Prozess aussieht, kann bei Anandtech vorbeischauen: https://www.anandtech.com/show/12520/the-galaxy-s9-review/6
Dort werden die Samsung und Qualcomm SoCs gemessen. Zwei verschiedene SoCs, mit zwei verschiedenen GPU Architekturen auf dem selben Prozess. Und im Schnitt liegt die Effizienzsteigerung bei ca. 1,8x.
Du vergisst aber, dass das schnellste Produkt seitens NV im Portfolio derzeit noch die 2080ti ist, AMD als Referenz lediglich 5700xt hat. AMD sollte es schaffen die Leistung der xt zu verdoppeln, NV hängt wohl bei 40-50% einer ti - folglich Gleichstand +/-. Entscheidend wird die RT-Performance sein und hier sehe ich NV deutlich vorne.
Linmoum
2020-06-13, 12:17:33
Echt? Warum nicht? Erkläre das mal. Wäre doch mal eine Abwechslung, wenn man seinen Quatsch argumentativ erörtern müsste, oder?
Also du behauptest, dass nVidia mit einem kompletten Full-Node Shrink bei 350W 40% Mehrleistung schafft? Gleichzeitig behauptest du aber auch, dass die Firma ohne kompletten Full-Node Shrink bei 300W die Leistung verdoppeln werde?
Naja, Logik mal wieder.
Der eine Hersteller steigert die Shaderanzahl um knapp 24% (ausgehend von der 2080Ti) laut aktueller Gerüchtelage. Der andere verdoppelt sie mal eben.
Warum kommt da also beim letzteren wohl eine größere Leistungssteigerung zustande? Hmm... Ich glaube, das ist ein Fall für Galileo Mystery.
IPC ist architekturbedingt, daher Prozess egal. Bleibt nur noch der Takt für mehr Performance durch den Prozess. Ansonsten keine Ahnung wer hier behauptet, eine Leistungsverdoppelung, ausgehend von 225W, wäre mit 300W möglich.
pixeljetstream
2020-06-13, 12:37:03
Offizielle zahlen von Microsoft zur Xbox sind 380giga ray-triangle-intersections. Lässt sich auch mit CU * 4 (TMUs) * Takt nachrehnen. Ergibt für die PS5 320 und die 2080Ti da nur ein RT Core pro SM ca. 100. Die Gigrays sind das ganze dann einfach durch 10 geteilt.
Mit Troyan diskutieren ist praktisch sinnfrei.
Allerdings zu dem Rechenbeispiel der gigarays, NV hat keine Angaben der theoretischen per clock Leistung der RT cores gemacht. Sondern die veröffentlichten Zahlen sind Mittelwerte über verschiedenen Szenen die getraced wurden (ergo memory subsystem performance minimal shading, etc. ist da mit drin). Die theoretische Leistung ist nicht öffentlich.
robbitop
2020-06-13, 12:43:43
Der 12nm Prozess ist in der Praxis zwar nicht dichter aber er steigert die Energieeffizienz. 8LPP ist AFAIK dichter als 10 nm (basiert aber auf diesem) und ist energieeffizienter. N7 und N7P sind sicherlich noch ein Schritt weiter.
Bei AMD kommt ein Großteil des großen Performancesprungs daher, dass es bei RDNA1 nur ein Mainstramchip gab aber keinen High End Chip.
Allerdings hat man mächtig damit zu tun, die Energieeffizienz der uArch zu verbessern, denn ansonsten müßte man anständig den Takt senken bei >/= 80 CUs oder der Verbrauch würde nach oben schießen. Das tat man offenbar laut AMDs Angabe von +50% Energieeffizienz.
Ich würde aber darauf tippen, dass der Ampere Top Dog nach wie vor vorn liegt. Aber es keinen riesen großen Abstand mehr gibt.
Das wäre gut für den Konsumenten, denn dann gibt es im High End endlich wieder Wettbewerb. Entsprechend ist die Chance da, dass das P/L wieder etwas besser wird.
Lehdro
2020-06-13, 13:07:20
[...] so dürfte NV in 4K in vielen Titeln grob 10-15 fps über AMD liegen, teils weniger, teils auch Richtung 20 fps, je nach Engine.
Was ist denn das für eine behinderte Performanceangabe? 10-15 fps, 20 fps bei welcher Basis? Der Benchmarkindex von PCGH ist verdammt breit! Ausgehend von 30 FPS ist das super, ausgehend von 100 FPS ist das eher nix?! Als nächstes erzählst du noch das 10°C doppelt so warm sind wie 5°C oder was?
Bleib doch bitte bei Prozentangaben, dieses dämliche "xy is on average 5 fps faster" kann doch bitte in den DAU Foren bleiben wo es hingehört.
unl34shed
2020-06-13, 13:19:44
Allerdings zu dem Rechenbeispiel der gigarays, NV hat keine Angaben der theoretischen per clock Leistung der RT cores gemacht. Sondern die veröffentlichten Zahlen sind Mittelwerte über verschiedenen Szenen die getraced wurden (ergo memory subsystem performance minimal shading, etc. ist da mit drin). Die theoretische Leistung ist nicht öffentlich.
Was ist denn das für ein Misst, TFLOPs, Füllraten, etc. sind alles Peakwerte aber hier macht man das nicht?
Aber wie viel soll ein RT Core pro Takt berechnen können? Bei einem intersect pro Takt kommt man auf 100giga intersections. 10 intersects pro Ray scheint wohl Standard zu sein und damit würde man auf die 10gigarays kommen. Ich bezweifel halt dass hier 50% (bei 2 Intersects/Clock) oder mehr auf der Strecke liegen bleiben. Kann mich aber irren, bitte einmal blinzeln, falls es so ist :freak:
SKYNET
2020-06-13, 15:25:48
20% ALUs + 10% IPC + 10% Takt wären +45% ;-)
und weil nix davon linear skaliert, und hinzukommt um das maximale an der theoretischen mehrleistung nutzen zu können, auch 45% mehr bandbreite her muss, bleiben da im besten fall 2/3 von über, im schnitt wohl eher nur die hälfte --> 23%(gerundet)
RT wird ampere nen dickes stück drauf legen, aber rohpower wird das teil ne enttäuschung werden für die fanboys :D
pixeljetstream
2020-06-13, 15:35:17
Wenn die RT Effekte zulegen sollen muss zwangsläufig die generische Leistung auch steigen. Warum betrachten so viele dies unabhängig? Wieviel theoretischen triangle und pixel through put die Raster Pipeline hat guckt sich doch auch niemand getrennt an und schließt dann auf die Leistung im Spiel (mal abgesehen von digidi hab ich hier noch keine heißen Debatten dazu gesehen ;) ). Dazu bedarf es genauen Analysen welche Teile der hw zu wieviel Prozent das bottleneck in nem Frame sind. Und das bei unterschiedlichen Titeln, Leveln etc. Es gibt nicht diese einfachen Rückschlüsse, sonst hätten wir doch noch viel mehr hw Hersteller in dem Bereich. Die Titel von heute sind in ihrem Anforderungsverhalten an die hw viel komplexer als vor 10 Jahren.
Mal ein Beispiel Bilder von Analysen mit nsight. Bilder aus der docu
https://docs.nvidia.com/nsight-graphics/2020.3/UserGuide/graphics/gpu_trace_trace_compare.png
https://docs.nvidia.com/nsight-graphics/2020.3/UserGuide/graphics/gpu_trace_tab_summary.png
https://docs.nvidia.com/nsight-graphics/2020.3/UserGuide/graphics/gpu_trace_regime_table.png
Undertaker
2020-06-13, 16:15:22
und weil nix davon linear skaliert, und hinzukommt um das maximale an der theoretischen mehrleistung nutzen zu können, auch 45% mehr bandbreite her muss, bleiben da im besten fall 2/3 von über, im schnitt wohl eher nur die hälfte --> 23%(gerundet)
RT wird ampere nen dickes stück drauf legen, aber rohpower wird das teil ne enttäuschung werden für die fanboys :D
Das klingt mir deutlich zu pessimistisch. IPC-Steigerungen gibt man generell netto an, Takt skaliert abseits von Bandbreitenlimits annähernd linear und eine ALU-Steigerung sollte bei Beseitigung sonstiger Bottlenecks auch größtenteils durchschlagen. Bleibt noch die Bandbreite, mal schauen wie effizient Ampere damit umgeht. Rein praktisch gedacht glaube ich nicht, dass man eine neue Generation mit weniger als <35- 40% Leistungssteigerung (abseits von RT) auf den Markt bringen würde. Ich könnte mir eher vorstellen, dass es noch (spürbar) mehr wird, aber das nur als Bauchgefühl. ;)
WedgeAntilles
2020-06-13, 16:18:56
und weil nix davon linear skaliert, und hinzukommt um das maximale an der theoretischen mehrleistung nutzen zu können, auch 45% mehr bandbreite her muss, bleiben da im besten fall 2/3 von über, im schnitt wohl eher nur die hälfte --> 23%(gerundet)
Wenn die Gerüchte und Prognosen sich die nächsten paar Monate ähnlich entwickeln wie sie es die letzten paar Monate getan habe, haben wir beim Launch von Ampere dann WENIGER Leistung als es Turing hatte ;D
Timbaloo
2020-06-13, 16:24:33
Wenn die RT Effekte zulegen sollen muss zwangsläufig die generische Leistung auch steigen. Warum betrachten so viele dies unabhängig?
Weil nur ein kleiner Teil der Nutzer hier überhaupt ansatzweise verstanden hat was RT-Kerne sind und was sie zumindest ungefähr machen. Deswegen halten sich auch Gerüchte über den vermeintlich hohen Flächenbedarf für RT-Kerne so hartnäckig. Man redet viel, aber weiß nichts.
dargo
2020-06-13, 17:26:08
Normale Raster-Grafik wird nur +35% drauflegen, aber RT-Grafik wohl deutlich schneller laufen, hinzukommend verstärkt DLSS als fps-Bringer.
Das ist ein Witz oder? :| :O :ulol:
Troyan
2020-06-13, 18:27:13
Wenn es nur ein umbenannter 16nm Prozess ist, frag ich mich, warum Nvidia Zeit und Ressourcen investiert um ihm ihren Stempel aufzudrücken. Aus Jux und Tollerei wird man das nicht gemacht haben.
Quelle: https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
Oder Hier:
Quelle: https://www.eenewsanalog.com/news/report-tsmc-relabel-process-12nm
Ich spreche nicht ab, dass es auf der 16nm Node basiert, aber es heißt eben 12nm und ist ein verbesserter 16nm Prozess und sollte sich daher nicht 1 zu 1 auf TSMCs 16 vs 7nm Werte projizieren lassen.
Da du hier ein Insider bist, kannst du bestimmt quantitative Zahlen nennen. TSMC sieht sich dazu nicht genötigt. Die packen "12nm" und 16nm immer zusammen.
Die ganzen großen Zahlen für GA100 vs GV100 basieren alle nur auf HPC Workloads und haben halt nichts mit Gaming/Consumer zu tun.
Rein auf FP32 hat sich bei GA100 kaum etwas getan. Die einzige massive Verbesserung waren die Tensor Cores und die bringen stand jetzt im Gaming nichts. Tricksereien wie DLSS mal ausgenommen.
Wo soll es denn herkommen? Von den Tensor Cores? Die bringen im Gaming nichts. Eiffizienzmäsig stehen dem Shrink AMDs 50% perf/W angabe gegenüber und zumindest mit GA100 sieht Ampere anhand der TDP jetzt nicht so toll aus was die Effizienz angeht. Ja die Tensor Cores haben ordentlich zugelegt aber abseits davon?
Du hast es eben nicht wirklich verstanden. nVidia steht vor einem Full-Node shrink. Alleine das reduziert massiv den Stromverbrauch bei selber Leistung. Die haben durch den Shrink annährend doppelte Transistorenanzahl zur Verfügung, um die Architektur zu verbessern.
Deine Logik ist auch fazinierend. Immerhin scheinst du zu denken, dass nVidia für Gaming die Effizienz nicht deutlich erhöhen kann. Gleichzeitig aber ist es belanglos, dass es für HPC/DL Workload getan wurde. Das wäre - nach deinen Worten - überhaupt nicht möglich.
Der Mobilprozessor Vergleich ist irgendwie wie Äpfel und Birnen zu vergleichen...
Wieso? Nutzt nVidia nicht den Mobile-Prozess für GA100? ;D
basix
2020-06-13, 20:03:46
Doppelte Einheitenzahl vs. +25% ist eine deutlich andere Ausgangslage. Da sollte bei ersterem der Effizienzgewinn höher ausfallen. Bei letzterem kommt noch der Prozess dazu. Laut AMD machte der bei Navi gerade mal 30% oder so aus. Ich würde da bei Ampere aufgrund 7nm alleine keine Wunder erwarten.
Momemtan sieht es nach ähnlicher IPC und ähnlicher Einheitenzahl aus. Takt sieht auch ähnlich aus. Unschärfe von +/-10%. Wer dann am Schluss vorne liegt, sehen wir dann. Ich hoffe ja generell, dass beide möglichst stark werden mit aber max. 10-20% dazwischen. Das würde uns als Kunden bessere Preise bescheren ;)
BoMbY
2020-06-13, 21:34:38
NVidia ist glaube ich mental an einem ähnlichen Punkt wie Intel vor wenigen Jahren, zumindest was die Gaming-Produkte angeht. Man tut weniger als man könnte, weil man glaubt dass niemand kontern kann, selbst wenn man es langsam angehen lässt.
Würde mich nicht wundern wenn die in zwei Jahren dann Jim Keller anheuern.
Digidi
2020-06-13, 23:46:49
Laut Igors nachrechungen kommt Nvidia Chip auf etwas über 630mm². Wenn as wirklich die 10nm sind und AMD 7nm hat dann wird es für Nvidia recht eng.
https://www.igorslab.de/350-watt-fuer-nvidias-neues-ampere-spitzenmodell-rtx-3090-ich-rechne-mal-nach-warum-der-wert-so-stimmt/
reaperrr
2020-06-13, 23:46:58
Weil nur ein kleiner Teil der Nutzer hier überhaupt ansatzweise verstanden hat was RT-Kerne sind und was sie zumindest ungefähr machen. Deswegen halten sich auch Gerüchte über den vermeintlich hohen Flächenbedarf für RT-Kerne so hartnäckig. Man redet viel, aber weiß nichts.
Jup, dass die 1600er Mainstream-Turings ohne RT-Kerne, mit zusätzlich noch zu normalen FP16-Einheiten herabgestutzten TCs, sowie wenigstens ~3% mehr Pachdichte von 12FFN ggü. 16FF+ trotzdem noch massiv mehr Fläche je SM als Pascal benötigen und nur grob ~10% Fläche gegenüber der vollwertigen Turing-Architektur eingespart haben, wollen manche nicht wahrhaben bzw. wurde schon wieder vergessen/verdrängt.
NVidia ist glaube ich mental an einem ähnlichen Punkt wie Intel vor wenigen Jahren, zumindest was die Gaming-Produkte angeht. Man tut weniger als man könnte, weil man glaubt dass niemand kontern kann, selbst wenn man es langsam angehen lässt.
Würde mich nicht wundern wenn die in zwei Jahren dann Jim Keller anheuern.
Oder in 6 Monaten...:wink:
pixeljetstream
2020-06-14, 13:07:02
NVidia ist glaube ich mental an einem ähnlichen Punkt wie Intel vor wenigen Jahren, zumindest was die Gaming-Produkte angeht. Man tut weniger als man könnte, weil man glaubt dass niemand kontern kann, selbst wenn man es langsam angehen lässt.
Alles klar. Und deswegen hatte Turing auch nicht alle möglichen technischen Neuerungen die jetzt auch zufällig in den Konsolen sind ;)
Es gibt kein langsam angehen. Man bezahlt sehr viele gute Ingenieure nicht für das Rummsitzen. Selbst bei hohen Marktanteil muss man sich selbst deutlich genug schlagen.
Es ist viel wahrscheinlicher, dass man als Aussenstehender die Architekturentwicklungen zunehmend schwerer nachvollziehen kann, weil das detaillierte Wissen fehlt und weil die Thematik selbst nicht einfacher wird.
Es wird hier auch nicht Tagespolitik betrieben, man muss eine Balance aus den Anforderungen populärer Titel mit "alter", zum Verkaufszeitpunkt "aktueller" und "zukünftiger" Technik finden. Letzteres ist natürlich besonders schwer, weil keiner genau weiß was wird. Aber man kennt die Trends der Industrie, tauscht sich aus etc. Man entwickelt ja nicht ziellos eine Architektur nach der anderen, sondern es gibt langfristige Trends/Projekte etc. Alles was man dann im Zeitplan schafft kommt halt in den Chip.
Nur weil für eine normale Person dies alles nicht sichtbar ist, heißt es nicht dass all diese Arbeit nicht existiert.
Edgecrusher86
2020-06-14, 13:25:21
Bleib doch bitte bei Prozentangaben, dieses dämliche "xy is on average 5 fps faster" kann doch bitte in den DAU Foren bleiben wo es hingehört.
Ja, schon klar - es war jetzt auch eher nur eine sehr grobe Hochrechnung für etwas, was man so in etwa erwarten kann. Ich hoffe, es ist ok, wenn ich die Bilder poste - es werden wohl 99th Percentile sein; ich hatte avg. fps geschrieben.
Basis waren jeweils wie gesagt RTX TITAN (~ AIB 2080 Ti OC) +40/50% für GA102 und RX 5700XT +90/100% für Navi 21 XTX. Entstand im Urlaub aus Langeweile bei Regenwetter. :D Die GTX 1080 Ti ist auch enthalten.
4K und UWQHD - Hochrechnung 12 Titel - Basis PCGH GPU-Leistungsindex 2020 v1.1 (Core-i9 9900K @ 5,0/4,9 GHz, 32GB DDR4-3866, W10 x64 v1909):
https://abload.de/img/spekuamperebignavibigh0j7u.png
https://abload.de/img/spekuamperebignavibigwakym.png
[/B]
Dural
2020-06-14, 13:35:54
Das ist ein Witz oder? :| :O :ulol:
Für AMD zu schlagen dürfte es locker reichen...
Troyan
2020-06-14, 13:41:19
Doppelte Einheitenzahl vs. +25% ist eine deutlich andere Ausgangslage. Da sollte bei ersterem der Effizienzgewinn höher ausfallen. Bei letzterem kommt noch der Prozess dazu. Laut AMD machte der bei Navi gerade mal 30% oder so aus. Ich würde da bei Ampere aufgrund 7nm alleine keine Wunder erwarten.
Und nVidia hat keine GPUs unter TU102? Nur mal zum Denken:
TU102 hat doppelte soviele Recheneinheiten und 50% mehr Speichercontroller als TU106. TU102 hat jedoch nur 73% mehr Transistoren und ist 70% größer.
Nehmen wir mal TU104 auf 7/8nm mit 45MT/mm^2. Das sind dann 303mm^2. Skaliert man diesen Chip genauso wie TU106 -> TU102 käme man bei 520mm^2, 6144 Cores mit 384bit raus.
Offensichtlich wird die Leistungssteigerung deutlich höher liegen als die ganzen Zahlen andeuten.
Edgecrusher86
2020-06-14, 14:00:09
96SM für GA102 im Vollausbau wäre natürlich eine schöne Finte für AMD - dann würde sich zum Beispiel 90SM (5760SP) für 2020 und ein entsprechender Refresh in 2021 anbieten. Bis zu 21 Gbps GDDR6X und +50-64% Bandbreite auf TU102-400/300 wären dann wohl auch abseits RT sinnvoll. Auf jeden Fall hätte man dan, ausgehend von 5760SP für die RTX 3090 schnell nochmals locker +5-7% Mehrleistung gegenüber 5376/5248SP und bei 6144SP gar um die +10% auf 5376SP [5760SP vs. 5248SP = +9,76%; 6144SP vs. 5376SP = +14,3%].
Für Enthusiasten wäre so etwas sicherlich begrüßenswert. Um einen TU102 entsprechend aufzublähen und dann mit einem Shrink auf ~ 630mm2 zu bringen, bräuchte es grob +60% Packdichte auf TSMC N12 (24,67 Mio/mm2) - das sollte auch der Samsung 8LPP Prozess locker her bringen - auch unter der Berücksichtigung dass z.B. diverse Caches sich auch vergrößern werden dürften für GA102.
E: Igor geht davon aus, dass die spekulierten $150 für den FE-Kühler sich auf die Variante mit Vapor Chamber beziehen, die man derzeit auch gegen die, uns schon bekannte, mit Heatpipes gegen testen soll.
Zudem hat er auch aus den bisherigen Launch-Erfahrungen eine Roadmap bis zum Release gebastelt:
https://abload.de/img/5e6jjv.png
https://www.youtube.com/watch?v=6fOAwmQ5UDw
Digidi
2020-06-14, 17:22:15
96SM für GA102 im Vollausbau wäre natürlich eine schöne Finte für AMD - dann würde sich zum Beispiel 90SM (5760SP) für 2020 und ein entsprechender Refresh in 2021 anbieten. Bis zu 21 Gbps GDDR6X und +50-64% Bandbreite auf TU102-400/300 wären dann wohl auch abseits RT sinnvoll. Auf jeden Fall hätte man dan, ausgehend von 5760SP für die RTX 3090 schnell nochmals locker +5-7% Mehrleistung gegenüber 5376/5248SP und bei 6144SP gar um die +10% auf 5376SP [5760SP vs. 5248SP = +9,76%; 6144SP vs. 5376SP = +14,3%].
Für Enthusiasten wäre so etwas sicherlich begrüßenswert. Um einen TU102 entsprechend aufzublähen und dann mit einem Shrink auf ~ 630mm2 zu bringen, bräuchte es grob +60% Packdichte auf TSMC N12 (24,67 Mio/mm2) - das sollte auch der Samsung 8LPP Prozess locker her bringen - auch unter der Berücksichtigung dass z.B. diverse Caches sich auch vergrößern werden dürften für GA102.
E: Igor geht davon aus, dass die spekulierten $150 für den FE-Kühler sich auf die Variante mit Vapor Chamber beziehen, die man derzeit auch gegen die, uns schon bekannte, mit Heatpipes gegen testen soll.
Zudem hat er auch aus den bisherigen Launch-Erfahrungen eine Roadmap bis zum Release gebastelt:
https://abload.de/img/5e6jjv.png
https://www.youtube.com/watch?v=6fOAwmQ5UDw
Die leaks sind schon recht eindeutig. Glaube das wir 5376 shader sehen. Die 630mm deuten zudem darauf hin das es dann 8nm von Samsung werden. Wenn wir 630nm in 7nm sehen, dann passen die 5376 shader nicht dann kommt man dann bei 6500 irgendwo raus.
Hauwech
2020-06-14, 19:08:05
Hmm bezüglich des Rams bei den neuen Karten sofern es bei den altbekannten max 11/12GB bleibt: Die Xbox hat ja 16GB Ram in Mischbestückung, 6x2GB und 4x1GB Chips. Die GPU kann ja auf 10GB mit 560GB/s und auf weitere 3,5GB mit 336GB/s zugreifen. Zwar nicht toll aber immerhin.
Könnte nV sowas ähnliches nutzen um vielleicht auch 16GB Karten anzubieten falls AMD mit 16GB als das von Kumar erwähnte "halo product" anrückt? Oder zumindest dann als Refresh nächstes Jahr?
Ein entsprechender 8GB Abstand zur 24GB Karte wäre ja immer noch gewahrt. Der "mehrRam" müsste ja ähnlich der Xbox auch nicht mit möglichen 19, 20 oder 21Gbps angebunden sein sondern vielleicht mit 16Gbps (falls das bei der näheren Platzierung am die überhaupt technisch möglich ist). Für, ich sag mal, Daten die nicht dauernd neu geladen werden müssten oder weniger kritisch sind, sollte das doch gehen, oder?
Bei der Xbox gab es bis jetzt anscheinend auch keinen riesigen Shitstorm deswegen. Wenn es von Anfang an so kommuniziert wird, sollte das ja ok sein um alleine schon ein neues "970-Gate" zu vermeiden. Von der Programmierung wird es wahrscheinlich dann schon aufwendiger aber wenn es auf der XBox funktioniert, warum sollte es dann nicht auch bei nV funktionieren.
Da nV ja bei Samsung fertigen lässt und, meiner Meinung nach, auch ein bisschen als Aushängeschild für deren Fertigung dient / dienen könnte, könnte es ja durchaus sein das sie bei so einer Mischbestückung die nötigen 2GB Chips ja auch ein bisschen billiger kriegen. Von irgendwelchen 1,5GB Chips hat man ja bis jetzt noch gar nichts gehört das die überhaupt irgendjemand produziert. Was denkt ihr?
Akkarin
2020-06-14, 20:23:10
Bei der XBox können sowohl MS als auch die Spieleentwickler dafür sorgen dass in dem "langsamen" RAM auch auch nur Daten liegen, die nur "langsam" geladen werden müssen.
Bei einer add-in GPU ist das eher problematisch.
1. Welche Daten gibt es denn überhaupt die von der GPU nur "langsam" gelesen werden müssen ? Die XBox füttert ja nicht nur die GPU, sondern auch die CPU vom selben RAM, und CPUs brauchen idr. weniger Bandbreite.
2. Will nVidia sich soviel Arbeit machen und extra Treiber schreiben was automatisch wo hin gespeichert wird ?
3. Kaum ein Spieleentwickler wird extra für nur eine GraKa Gen extra anfangen ihre Spiele so zu programieren das sie mit irgendwelchen komischen RAM konfigs klar kommen. Vor allem: was ist mit alten Spielen ?
Konsolen können sich Sachen erlauben die in einem generischen PC einfach nicht gehen. Eher nimmt NV die kosten für eine RAM verdopplung hin. Besonders nach dem 970 PR Desaster.
y33H@
2020-06-14, 21:25:05
Für die GTX 970 gab/gibt es offenbar entsprechende Optimierungen.
BoMbY
2020-06-14, 21:26:12
Man könnte einen langsameren Speicherbereich eventuell als Preload-Buffer für Texturen verwenden, das könnte man auch sicher im Treiber machen. Ähnlich wie der HBCC bei AMD, auch wenn der da nicht besonders viel gebracht hat. Dann schiebt man da Texturen rein die gerade nicht aktiv benötigt werden, aber bei welchen die Wahrscheinlichkeit hoch ist dass sie nochmal gezogen werden müssen. Wobei das natürlich immer noch deutlich schlechter ist als einfach einen größeren einheitlichen Speicher zu haben.
Jupiter
2020-06-14, 21:30:56
Falls Nvidia wirklich einen vermutlich deutlich schlechteren 8nm-Prozess von Samsung nimmt, werde ich mir einen Kauf genau überlegen. Eigentlich wollte ich etwas um die 1000 Euro kaufen aber für diesen Preis kaufe ich mir sicher keine gammelige und veraltete Fertigung. Solch eine Aktion wäre von Nvidia sehr peinlich. Sie sollten nicht zu gierig werden.
robbitop
2020-06-14, 21:38:10
Wobei der Prozess nicht zwangsweise mit dem Produkt und dessen Güte zusammenhängen muss. Zuletzt ist Turing auf einem alten Prozess gefertigt. Trotzdem passen Performance und Energieeffizienz.
Oder aber Beispiele aus der Vergangenheit: die Radeon 9700pro/R300 war nur in 150nm gefertigt, während NV30/geforce fx 5800 in 130 nm war. Trotzdem langsamer und heißer.
Geforce GTX 8800 / G80 war nur in 90 nm wohingegen R600/Radeon 2900XT im moderneren 80nm gefertigt war. Dennoch war Energieeffizienz und Performance bei der Geforce besser.
Oder aber die Geforce 7900 vs Radeon X1900XT. Gleicher Fertigungsprozess mit massiven Vorteilen für die Radeon.
Wichtig ist am Ende wie das Produkt aussieht.
Ex3cut3r
2020-06-14, 21:45:38
Das stimmt. Trotzdem ist das aber Samsung erster Versuch mit Nvidia. AMDs Versuch mit Globalfoundries um Polaris fand ich auch nicht so pralle.
nordic_pegasus
2020-06-14, 21:48:56
Wichtig ist am Ende wie das Produkt aussieht.
Sofern GA102 vor BigNavi landet und auch die 30-40% auf Turing bringt, wird dann trotzdem die Frage kommen, was mit 7nm TSMC möglich gewesen wäre.
Einen Preisvorteil beim Kunden für den vermutlich günstigeren 8nm Prozess von Samsung wird Nvidia sicherlich nicht durchreichen. Und AMD wird zumindest das Preisniveau von Nvidia mitgehen. Die RadeonVII war auch kein Preisbrecher bezogen auf Leistung (von den Fertigungskosten mal abgesehen, war aber auch nur ein Abfallprodukt der Profi-Reihe).
Ich bin verwundert, dass hier im Thread kaum über Preise spekuliert wird. Wenn GA102 im Vollausbau mit 24GB als 3090 und nicht "Titan A" kommt, glaubt hier jemand an einen Preis unterhalb der Titan RTX?
Jupiter
2020-06-14, 21:53:46
Wobei der Prozess nicht zwangsweise mit dem Produkt und dessen Güte zusammenhängen muss. Zuletzt ist Turing auf einem alten Prozess gefertigt. Trotzdem passen Performance und Energieeffizienz.
Oder aber Beispiele aus der Vergangenheit: die Radeon 9700pro/R300 war nur in 150nm gefertigt, während NV30/geforce fx 5800 in 130 nm war. Trotzdem langsamer und heißer.
Geforce GTX 8800 / G80 war nur in 90 nm wohingegen R600/Radeon 2900XT im moderneren 80nm gefertigt war. Dennoch war Energieeffizienz und Performance bei der Geforce besser.
Oder aber die Geforce 7900 vs Radeon X1900XT. Gleicher Fertigungsprozess mit massiven Vorteilen für die Radeon.
Wichtig ist am Ende wie das Produkt aussieht.
Das können sie bei den günstigeren Klassen machen, aber bei 102 und um die 1000 € erwarte ich bei Grafikkarten mit das beste vom besten. Außerdem wäre mein Stromverbrauch mit meiner ganzen Anlage dann deutlich über 1000 Watt.
davidzo
2020-06-14, 22:03:43
Falls Nvidia wirklich einen vermutlich deutlich schlechteren 8nm-Prozess von Samsung nimmt, werde ich mir einen Kauf genau überlegen. Eigentlich wollte ich etwas um die 1000 Euro kaufen aber für diesen Preis kaufe ich mir sicher keine gammelige und veraltete Fertigung. Solch eine Aktion wäre von Nvidia sehr peinlich. Sie sollten nicht zu gierig werden.
Oh, dann ist Turing bestimmt der letzte Dreck für dich gewesen. Da war man mit 12nm vs 7nm Vega20 einen ganzen Fullnode hintenan. Noch dazu hat die radeon VII ja schon 16GB HBM2 und nicht so veraltetes DDR-gelöt.
Tja, man muss halt Prioritäten setzen!
robbitop
2020-06-14, 22:09:41
Absoluter Klamauk. Es interessiert niemanden, was für ein Fertigungsprozess genutzt wird. Nur wie das Produkt performt. Siehe VKZ von Turing.
Jupiter
2020-06-14, 22:20:27
Wann erschien Vega und wann kam Turing? Vega kam später. Zumal ich mir keine Turing Grafikkarte kaufte. Davon abgesehen ist Vega für Videospiele ein schlechtes Produkt, weshalb es selbst die 7nm nicht retten konnten. Ich gebe keine 1000 Euro für eine Grafikkarte mit stark veralteten Prozess und wenigen 11 GB VRAM aus, nur weil Nvidia trotz des hohen Premiumpreises noch mehr auf kosten der Qualität sparen wollte. Da muss Ampere mit der 102er in 11 GB Version schon deutlich günstiger als 1000 Euro werden.
Edgecrusher86
2020-06-14, 22:21:26
Rumor: NVIDIA Planning To Introduce A Traversal Coprocessor With The RTX 3090 GPU
https://wccftech.com/nvidia-traversal-coprocessor-rtx-3090-gpu/
Coreteks - A REVOLUTION in graphics is coming:
https://www.youtube.com/watch?v=i537qwchiAw&feature=youtu.be
Das klingt doch alles recht unglaubwürdig - sowas hätte auch lange Signalwege und macht vermutlich keinen Sinn, ausgelagert zu werden.
Dampf
2020-06-14, 22:36:24
Das Patent ist doch einfach nur ein RT-Core, oder nicht? Ist auch von 2018.
crux2005
2020-06-14, 23:24:05
Ich bin verwundert, dass hier im Thread kaum über Preise spekuliert wird. Wenn GA102 im Vollausbau mit 24GB als 3090 und nicht "Titan A" kommt, glaubt hier jemand an einen Preis unterhalb der Titan RTX?
Du kannst nicht über Preis "spekulieren" sofern nichts bekannt ist. Ampere Leistung, Big Navi Leistung, VRAM Kapazitäten etc.
Du kannst nur raten. Ich rate die Preise bleiben so wie jetzt oder sinken bei manchen Produkten minimal falls AMD druck macht. Es ist ein Next-gen Konsolen Jahr also kann ich mir keine Preiserhöhungen vorstellen.
btw: aus der Vergangenheit wo ich Leaks hier und da mal bekommen habe kann ich dir sagen, das die Leaks bezüglich Preisen am ende zu 99% falsch waren. ;D Die HW Daten waren geschätzt 60%+ richtig. Ähnlich wird es anderen ergangen sein. Der Preis kann zu einfach noch am Release Tage geändert werden. Deswegen wird darüber minimal geschrieben, spekuliert etc.
Rumor: NVIDIA Planning To Introduce A Traversal Coprocessor With The RTX 3090 GPU
https://wccftech.com/nvidia-traversal-coprocessor-rtx-3090-gpu/
Kann ich mir nicht vorstellen. Ja, die Latenzen mit RT wäre zu schlecht. Habe aber auch begrenztes Wissen.
Gipsel
2020-06-14, 23:24:15
Das Patent ist doch einfach nur ein RT-Core, oder nicht? Ist auch von 2018.Genau (oder sogar nur das Interface dazu). Das Patent bezeichnet den RT-Coprozessor eindeutig als Teil der GPU und nicht als separaten Chip. Keine Ahnung, was sich dieser Gerüchteverteiler bei CoreTeks mal wieder ausgedacht hat.
Kurz: Blödsinn.
Das klingt doch alles recht unglaubwürdig - sowas hätte auch lange Signalwege und macht vermutlich keinen Sinn, ausgelagert zu werden.
Damit man sowas anfängt, müsste das einen größeren Teil der GPU ausmachen. Dann hätten wir aber ganz viele Strahlen für die ich jeweils (abgesehen von einfachen Schatten und AO) pro Stahl nochmal ein Fragment shaden muss... Macht alles keinen Sinn.
Leonidas
2020-06-15, 04:02:56
Das ist ein Witz oder? :| :O :ulol:
Wurde schon vor Monaten derart genannt:
https://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle
Zudem deutet die geringe Steigerung der Anzahl der Shader-Cluster klar darauf hin.
Dural
2020-06-15, 09:19:53
Das wären immerhin rund 100% mehr Leistung als das aktuell schnellste 7nm Produkt von AMD.
Und das mit einer RT Leistung die AMD wahrscheinlich noch in Jahren nicht haben wird.
Ich glaube es könnte "schlimmer" für NV sein ;)
Slipknot79
2020-06-15, 09:40:07
Wurde schon vor Monaten derart genannt:
https://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle
Zudem deutet die geringe Steigerung der Anzahl der Shader-Cluster klar darauf hin.
Pixeljetstream meinte aber, man kann das nicht so getrennt betrachten? Will man RT Leistung pushen, muss man auch an der anderen Schraube ordentlich drehen? :redface:
Klevapalis
2020-06-15, 09:42:53
Ich glaube es könnte "schlimmer" für NV sein ;)
Ist ja jetzt nichts Neues, dass es beim Launch der NVIDIA-Produkte bei gewissen Leuten lange Gesichter gibt. Und wenn AMD dann nachzieht noch längere :ugly: ;D
dargo
2020-06-15, 10:00:23
Wurde schon vor Monaten derart genannt:
https://www.3dcenter.org/news/geruechtekueche-gaming-ampere-wieder-nur-mit-ca-35-mehrperformance-dafuer-aber-rtx-fuer-alle
Zudem deutet die geringe Steigerung der Anzahl der Shader-Cluster klar darauf hin.
Aber jetzt mal ernsthaft... nach zwei Jahren lächerliche +35%? Wo soll das in Zukunft hinführen? Alle 5 Jahre Faktor 2? X-D Ich meine es war schon irgendwo absehbar, dass die Leistung immer langsamer ansteigt. Das zeigt auch wunderbar Turing. Nvidia erfindet mit der 2080TI eine neue Preisklasse im Gamingbereich (irgendwo natürlich dann nachvollziehbar bei einem 754mm² Die wenn man solches Monster bringen muss um sich einigermaßen vom Vorgänger abzusetzen). Man stelle sich vor die 2080TI gäbe es gar nicht. Dann wäre bei 2080S Schluß. Turing wäre dann eine richtige Lachnummer gegenüber Pascal. Da muss dringend was Großes im GPU-Bereich passieren. So ne Art Chiplets bzw. mehr als eine GPU parallel ohne die bekannten Nachteile. Oder irgendeine "secret sauce" die die Kosten erheblich senkt. Ansonsten werden das in Zukunft sehr langweilige Jahre im Gaming-GPU-Bereich.
Platos
2020-06-15, 10:02:07
Korrigiere: Turing ist ne richtige Lachnummer, auch mit der 2080Ti.
Und bezüglich Chiplets: Ich sehe da eig. keine Relevanz für nvidia, da AMD kein wirklicher Marktgegner ist bisher. Man kann nur hoffen, dass RDNA 2 was liefern kann.
Edit: Und eig. läufts ja gut bei TSMC. Jetzt mit EUV gehts sicherlich mal bis "2nm".
Klar, es wird wahrscheinlich teurer, das kann sein. Aber wenn man mehrere Chiplets nutzt, braucht man auch noch etwas für die Kommunikation der Chiplets (siehe AMD bei den CPUs). Und die Bandbreite muss ums X-Fache höher sein als bei CPUs. Das wird also ziemlich teuer, ergo lohnt sich das erst, wenn die Fertigungen so teuer werden, dass es sich lohnt.
Solange aber AMD keine richtige Konkurrenz ist und nvidia gemütlich auf alten Prozessen rumeiern kann, gibts ja keine Gründe, für sowas.
Dampf
2020-06-15, 10:12:50
Naja, der richtig große Sprung wird wohl eher Hopper im 5nm+ Verfahren und MCM Design.
Ampere wird wohl Turing+, das war aber schon lange klar imo.
Cubitus
2020-06-15, 10:16:31
Schwierig, dass ist Cutting-Edge-Science...
Es ist nur noch mit größerem Aufwand möglich wirkliche Verbesserungen zu erreichen, da schenken sich Nvidia und AMD wenig.
Natürlich spielen auch die Fertigungsprozesse und die Chipausbeute eine große Rolle. Mittlerweile sind GPUs derart riesig, dass es in deren Fertigungstechnolgie massive Fortschritte geben müsste..
Am Reißbrett können die Ingenieure theoretisch viel planen aber es hapert dann an der Umsetzung oder eben an den Kosten..
Zudem sind die die Beschränkungen für das Environment, also Karten und Gehäuse-Größe + Stromverbrauch auch limitierende Faktoren.
Auch deshalb werden böse Stimmen laut, dass sich Cloud-Gaming in Zukunft durchsetzen wird.
Mehrere fette Cluster im RZ können bei entsprechender Skalierung die Leistung einer diskreten GPU überbieten..
Was aber immer geht sind Verbesserungen durch Software, und da hat was die Qualität anbelangt,
Nvidia imo die Nase in Ihren Treiber etwas weiter vorn.. Siehe DLSS allg, oder Sharpen für Vulkan als auch DirectX11-12 um nur mal zwei Beispiele zu nennen..
Platos
2020-06-15, 10:17:35
@cubitus: Ich hoffe mal, dass es zu meinen Lebzeiten immer noch Grafikkarten etc. (für Konsumenten) gibt :D
Aus meiner Sicht hängt das alles von AMD ab. Wenn nvidia weiterhin AMD mit einem älteren Prozess entgegen treten kann, wird es aus meiner Sicht für nvidia in den nächsten 1-2 Gen. kein Bedürfnis für "GPU-Chiplets" oder sowas geben.
Naja, der richtig große Sprung wird wohl eher Hopper im 5nm+ Verfahren und MCM Design.
Ampere wird wohl Turing+, das war aber schon lange klar imo.
Und wieso sollte Hopper ein MCM Design haben? Ohne MCM könnte man deine Aussage genauso gut 1 Jahr in die Vergangenheit verfrachten und auf Ampere beziehen. Damals haben auch die meisten gedacht, 7nm für Gaming und richtig Bumms.
Adam D.
2020-06-15, 10:39:32
Aber jetzt mal ernsthaft... nach zwei Jahren lächerliche +35%? Wo soll das in Zukunft hinführen? Alle 5 Jahre Faktor 2? X-D Ich meine es war schon irgendwo absehbar, dass die Leistung immer langsamer ansteigt. Das zeigt auch wunderbar Turing. Nvidia erfindet mit der 2080TI eine neue Preisklasse im Gamingbereich (irgendwo natürlich dann nachvollziehbar bei einem 754mm² Die wenn man solches Monster bringen muss um sich einigermaßen vom Vorgänger abzusetzen). Man stelle sich vor die 2080TI gäbe es gar nicht. Dann wäre bei 2080S Schluß. Turing wäre dann eine richtige Lachnummer gegenüber Pascal. Da muss dringend was Großes im GPU-Bereich passieren. So ne Art Chiplets bzw. mehr als eine GPU parallel ohne die bekannten Nachteile. Oder irgendeine "secret sauce" die die Kosten erheblich senkt. Ansonsten werden das in Zukunft sehr langweilige Jahre im Gaming-GPU-Bereich.
Im Kern hast du natürlich recht, aber ich finde deine Wortwahl etwas problematisch. Nvidia bewegt sich am Rand des technisch Machbaren und wirtschaftlich Vertretbaren - und es ist ja nicht so, als würden da nur irgendwelche Amateure arbeiten. Und natürlich könnte NV die Preise etwas senken und würde immer noch gut verdienen, aber das Preisgefüge spiegelt ja gerade wider, dass auch kein Konkurrent diese Performance-Sprünge hinlegen kann, die man noch von vor 10 Jahren kannte. Wahrscheinlich (und das sage ich als absoluter Laie) lässt sich GPU-Workload auch nicht so einfach parallelisieren, sonst hätten wir da ja längst mal was in die Richtung gesehen.
Und es ist ja auch nicht so, als würde der inzwischen recht gemächliche Anstieg der Rohleistung nicht auch Innovation hervorbringen, s. RTX und DLSS (abseits der ganzen Kinderkrankheiten bei so neuen Technologien, an sich ist das ja schon eine wünschenswerte Entwicklung).
Leonidas
2020-06-15, 10:47:43
Aber jetzt mal ernsthaft... nach zwei Jahren lächerliche +35%?
Ich irre mich bei dieser Vorhersage wirklich gerne. Weil - mehr wollen wir garantiert haben. Aber so sind nun einmal die derzeit besten Vorhersagen. Am Stand der Gerüchteküche kann ich nix ändern.
Hopper im 5nm+ Verfahren und MCM Design. .
Sofern Hopper tatsächlich schon MCM bringt, dann sicherlich in dieser Generation rein für HPC. Selbst wenn man MCM auch für Gaming vorhat, wird man es langsam und bedacht angehen.
robbitop
2020-06-15, 11:14:39
MCM bei 3D Grafik hätte auch einige Nachteile und Hürden. Kostet Chipfläche für die Interfaces, Serdes,phys für die Interchipkommunikation und der Datenaustausch kostet wesentlich mehr Energie pro Bit off chip als Onchip. Signale müssen aus dem Chip raus und dazu weitere Strecken zurücklegen. Für HPC macht das eher Sinn, da viel weniger Interdependenz im Workload. Per 3D Stacking wäre das weniger problematisch - aber dann wird im Gegenzug die Temperatur/Kühlung problematisch.
Ich bin da se sekptisch. Ich glaube es erst, wenn ich es sehe.
Klevapalis
2020-06-15, 11:16:17
Ich bin da se sekptisch. Ich glaube es erst, wenn ich es sehe.
Gerade wo MCM im großen (aka SLI/Crossfire) tot ist.
Sogar mit NVLink.
dildo4u
2020-06-15, 11:39:28
Ich irre mich bei dieser Vorhersage wirklich gerne. Weil - mehr wollen wir garantiert haben. Aber so sind nun einmal die derzeit besten Vorhersagen. Am Stand der Gerüchteküche kann ich nix ändern.
Die 35% machen hinten und vorne kein Sinn dafür muss man kein 21Gbps Ram verbauen wenn die 2080 Ti nur mit 14 bestückt ist.
Klevapalis
2020-06-15, 11:41:58
Zumal warum shrinkt NVIDIA da nicht einfach TU102. Da kämen +35% auch locker bei heraus.
Wie schon mehrfach gesagt: Wie immer im Vorfeld wird mal angenommen, dass NVIDIA über zwei Jahre null Fortschritte erzielt. Das wird solange wiederholt, bis es jeder glaubt. Und dann werden beim Launch die Gesichter wieder lang und alle wundern sich warum. War so bei Pascal, Turing usw.
Das wären immerhin rund 100% mehr Leistung als das aktuell schnellste 7nm Produkt von AMD.
Und das mit einer RT Leistung die AMD wahrscheinlich noch in Jahren nicht haben wird.
Ich glaube es könnte "schlimmer" für NV sein ;)
Was zu beweisen war. Die Konsolen lassen eher an anderes Bild erahnen.
Chip zu Chip wäre
TU102 -> GA102 ~35% rasterizing + 1x0% mehr RT-Leistung
TU104 -> GA104 ~15% rasterizing + 80-100% mehr RT-Leistung
denkbar.
Klevapalis
Nein, nicht zwingend. Das zeigt Vega 20 ganz gut. Allein nur Fertigung bringt nicht mal 20%. Deshalb kann man das mit den 8LPP ganz entspannt sehen. Der hat vielleicht nicht mal wesentlich weniger HPC-Leistung als N7 und die Packdichte im HPC wird mAn auch nicht entscheidend geringer ausfallen. Dafür wird er NV nur die ca. 2/3 kosten. Ich behaupte, dass ein TU102 in N7 grad mal 20% drauflegt und da ist Ampere-RT- und Tensorleistung nicht mit drin.
dildo4u
das ihr immer das RT vergesst...
Klevapalis
2020-06-15, 11:52:30
Nein, nicht zwingend. Das zeigt Vega 20 ganz gut. Allein nur Fertigung bringt nicht mal 20%.
NVIDIA ist nicht AMD und der Prozess ist seitdem 18 Monate gereift.
Trotzdem kein zielführendes Argument. Ich hab mein Posting noch ergänzt.
Klevapalis
2020-06-15, 12:06:04
Trotzdem kein zielführendes Argument. Ich hab mein Posting noch ergänzt.
Ist aber - wie üblich von dir - nur Blödsinn. Was NVIDIA aus einem Nodesprung rausholt, hat Pascal doch ziemlich gut gezeigt. Natürlich käme da deutlich mehr raus als 20%.
Aber stimmt, NVIDIA ist ja per se unfähig und legt nach zwei Jahren + Nodesprung nur 35% drauf ;D ;D ;D
Das hab ich doch nicht gesagt, also weder noch, aber du hast geschrieben ein TU102 in 7nm hätte 35% mehr Leistung. Das stimmt einfach nicht.
Klevapalis
2020-06-15, 12:25:25
Das hab ich doch nicht gesagt, du hast geschrieben ein TU102 in 7nm hätte 35% mehr Leistung. Das stimmt nicht, punkt.
Das sagt TSMC. Von wegen "Das stimmt nicht".
Nur weil es AMD vor 18 Monaten hin hingekriegt hat, sagt das doch nix über NVIDIA aus :rolleyes:
Jetzt dreh ich den Spieß mal um, warum soll NV hier zaubern können und AMD nicht?
Das ist alles hypothetisch. NV hat einen neuen Chip gebaut, der für den Anwendungszweck künftiger Spiele designt ist (was Pascal i.Ü. nicht war), das ist der Stand heute. Ampere ist ja kein Turing reloaded, sondern eine neue, große Evolutionsstufe auf dem Weg zu besserer Grafik dank RT.
Troyan
2020-06-15, 13:01:59
nVidia produziert seit Monaten GA100. Der Chip hat 55 Mrd. Transistoren und in Form von A100 wohl immer noch ca. 50 Mrd.
TU104 hat 13,6 Mrd. Transistoren. Ein doppelter TU104 mit 384bit läge bei ca. 23 Mrd. Und dieser Chip hätte 60% Mehrleistung gegenüber RTX2080TI.
Und das soll unmöglich sein? Aha.
X-Bow
2020-06-15, 14:05:05
nVidia produziert seit Monaten GA100. Der Chip hat 55 Mrd. Transistoren und in Form von A100 wohl immer noch ca. 50 Mrd.
nVidia "produziert" gar nichts, und das schon seit längerem als nur "Monaten". :rolleyes:
Klevapalis
2020-06-15, 14:15:58
Jetzt dreh ich den Spieß mal um, warum soll NV hier zaubern können und AMD nicht?
NVIDIA zaubert ja nicht, sondern entwickelt inzwischen sehr viel näher an der physikalischen Ebene als dies AMD bei GPUs tut. Siehe wie gesagt Pascal und vergleiche hier mal das unterschiedliche R&D.
35% auf Turing nach zwei Jahren mit Nodeshrink sind natürlich Quatsch, das sollte doch jedem klar sein.
Das ist kein Shrink wie Pascal, das ist jetzt viel mehr. Das ist einfach nicht vergleichbar. Pascal ist ein Maxwell mit Async-Compute-Fix, das wars.
Außerdem sprang Pascal von 28nm planar (!), welches ein 32nm-halfnode ist, auf 16nm FinFET. Also bitte..
Dural
2020-06-15, 14:29:05
Was diskutiert ihr die ganze Zeit an den 35% rum?
Es war doch von Anfang an klar wo NV die Prioritäten angesetzt hat, Stichwort lautet RT und Tensor.
Ich rechne stark mit 100-200% mehr RT Leistung als mit Turing.
reaperrr
2020-06-15, 14:36:52
nVidia produziert seit Monaten GA100. Der Chip hat 55 Mrd. Transistoren und in Form von A100 wohl immer noch ca. 50 Mrd.
;D
Dir ist schon klar, dass das alles der selbe Chip ist und demnach auch kein Unterschied bei der Transistorzahl besteht?
Mir wäre auch neu, dass man nur die Zahl der aktiven Transistoren zählt...
dargo
2020-06-15, 14:40:00
Was diskutiert ihr die ganze Zeit an den 35% rum?
Es war doch von Anfang an klar wo NV die Prioritäten angesetzt hat, Stichwort lautet RT und Tensor.
Ich rechne stark mit 100-200% mehr RT Leistung als mit Turing.
Und das soll zum Upgrade bewegen? Sorry... aber RT ist noch lange kein Zugpferd. Zumal ich sowieso an deine 100-200% mehr RT-Performance nicht glaube (angenommen die +35% Shaderpower stimmen). Es sei denn die letzten Informationen RT würde zum großen Teil an Shaderpower hängen falsch seien.
Klevapalis
2020-06-15, 14:44:49
Das ist kein Shrink wie Pascal, das ist jetzt viel mehr.
Ja eben ;D
Wieso sollen da +35% realistisch sein, wenn es nicht nur ein reiner Shrink ist, sondern eine überarbeitete Architektur? ;D
Schön, dass du plötzlich deinen ganzen Postings hier zu 100% widersprichst.
Es ist unmöglich mit dir sinnvoll zu diskutieren... deswegen lass ich das jetzt. Du drehst dir allles wie du es gern hättest und machst daraus Widersprüche, die nicht da sind, da hab ich keinen Nerv zu.
Was diskutiert ihr die ganze Zeit an den 35% rum?
Es war doch von Anfang an klar wo NV die Prioritäten angesetzt hat, Stichwort lautet RT und Tensor.
Ich rechne stark mit 100-200% mehr RT Leistung als mit Turing.
genau.
dargo
hat doch bei Turing schon mal funktioniert.
dargo
2020-06-15, 15:24:30
dargo
hat doch bei Turing schon mal funktioniert.
Was hat bei Turing funktioniert? Ich habe keinen großen Ansturm auf Turing gesehen, du etwa? Du nimmst doch hoffentlich nicht die paar Nerds in den Foren als Maßstab oder etwa doch? :tongue: Bei Steam (ich weiß Steam ist so eine Sache, wenn du aber bessere Quellen hast nur her damit bitte) sind die ersten 7 Plätze mit Geforces ohne RT-Einheiten belegt und Pascal @GTX 1060 + GTX 1050TI mit Abstand noch am stärksten vertreten.
https://store.steampowered.com/hwsurvey/videocard/
dargo
2020-06-15, 15:33:33
Kein Thema... gib mir bitte andere Quellen, was die globalen Absatzzahlen im Verhältnis zu Pascal angeht. :)
Wen interessiert das? Schau dir NVs Zahlen an, das sagt alles.
Klevapalis
2020-06-15, 15:40:48
Es ist unmöglich mit dir sinnvoll zu diskutieren... deswegen lass ich das jetzt. Du drehst dir allles wie du es gern hättest und machst daraus Widersprüche, die nicht da sind, da hab ich keinen Nerv zu.
Wenn es einfach keinen Sinn ergibt, was du schreibst, dann kann ich da nix für.
Deine Trefferquote ist ja nicht ohne Grund unterirdisch.
Was hat bei Turing funktioniert? Ich habe keinen großen Ansturm auf Turing gesehen, du etwa?
Also ich sehe da ne Turing-Karte in den Top5 und die erste mit RTX auf Platz 7.
Angesichts der unterschiedlichen Zeiträume der Verfügbarkeit (über 4 Jahre vs. 20 Monate) ist das sicherlich nicht schlecht.
Und Pascal war eben ne grandios gute Architektur. Wobei die doch auch schon laut euch total überteuert gewesen sein soll :P
Jetzt drehst du völlig frei... Zitiere wenigstens die richtigen Leute. Und meine Trefferquote ist mir einfach scheissegal. Dass das ne Rolle spielt zeigt spricht auch Bände ;D.
SentinelBorg
2020-06-15, 15:51:41
Was hat bei Turing funktioniert? Ich habe keinen großen Ansturm auf Turing gesehen, du etwa? Du nimmst doch hoffentlich nicht die paar Nerds in den Foren als Maßstab oder etwa doch? :tongue: Bei Steam (ich weiß Steam ist so eine Sache, wenn du aber bessere Quellen hast nur her damit bitte) sind die ersten 7 Plätze mit Geforces ohne RT-Einheiten belegt und Pascal @GTX 1060 + GTX 1050TI mit Abstand noch am stärksten vertreten.
https://store.steampowered.com/hwsurvey/videocard/
Man muss sich dabei aber auch immer die gewaltige Menge an Steam Usern vor Auge führen. Steam hatte zuletzten 20 Millionen gleichzeitig eingeloggte User. Selbst bei nur ca. 9% von denen mit RTX Karten (durch die Super Versionen sind die auch etwas verstreut in der Liste), sind das immer noch gut 1.8 Millionen. In Wirklichkeit natürlich noch viel mehr, weil selbst in besten Tagen nicht alle gleichzeitig eingeloggt sind.
Edit: Die Anzahl an Steam Accounts liegt wohl bei über einer Milliarde, die Anzahl an als aktiv gezählten Users bei über 100 Millionen derzeit.
maximus_hertus
2020-06-15, 16:01:02
Es ist unmöglich mit dir sinnvoll zu diskutieren... deswegen lass ich das jetzt. Du drehst dir allles wie du es gern hättest und machst daraus Widersprüche, die nicht da sind, da hab ich keinen Nerv zu.
Klevapalis hat doch recht.
Ampere wird doppelte oder mehr fps im Vergleich zu Turing bringen bei ähnlichem Stromverbrauch, also am Ende ein massive Performance / Watt Verbesserung.
Das ist jetzt die Referenz-Erwartung. Kommt am Ende weniger, wird der Hype-Train böse an die Wand fahren...
Klevapalis
2020-06-15, 16:13:03
Das ist jetzt die Referenz-Erwartung. Kommt am Ende weniger, wird der Hype-Train böse an die Wand fahren...
Also bisher waren die Erwartungen an NVIDIA immer massiv tief gestapelt. Genau wie die von AMD massiv übertrieben.
Sei es Pascal/Polaris+Vega oder auch Turing/Navi. Jedes Mal kam NVIDIA viel früher und viel stärker als spekuliert und AMD deutlich später und schwächer.
Wie war das noch mit Polaris 6 Monate vor Pascal? ;D Wie war das noch mit dem 1080Ti-Killer Vega1? ;D
Hier mal ein Beispiel von meinem Kumpel HOT aus dem September 2015:
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt.
Statt Q4 bzw Q1 wurde es Q2 für GP104 & Co ;D
Tipp: Es spricht niemand von deiner "Verdoppelung". Sehr wohl aber deutlich mehr als +35%. Das sollte eigentlich jedem klar sein, dass das Quatsch ist.
Troyan
2020-06-15, 16:27:36
Man muss sich dabei aber auch immer die gewaltige Menge an Steam Usern vor Auge führen. Steam hatte zuletzten 20 Millionen gleichzeitig eingeloggte User. Selbst bei nur ca. 9% von denen mit RTX Karten (durch die Super Versionen sind die auch etwas verstreut in der Liste), sind das immer noch gut 1.8 Millionen. In Wirklichkeit natürlich noch viel mehr, weil selbst in besten Tagen nicht alle gleichzeitig eingeloggt sind.
Edit: Die Anzahl an Steam Accounts liegt wohl bei über einer Milliarde, die Anzahl an als aktiv gezählten Users bei über 100 Millionen derzeit.
Steam hat über 200 Millionen aktive Konten. Selbst 1% sind dann schon 2 Millionen User.
Dampf
2020-06-15, 16:42:59
Das ist jetzt die Referenz-Erwartung. Kommt am Ende weniger, wird der Hype-Train böse an die Wand fahren...
Und andere erwarten gar 4x mehr FPS in Raytracing-Games weil es irgendein dahergelaufener YouTuber angeblich von "Quellen" gehört hat :D
Klevapalis hat doch recht.
Ampere wird doppelte oder mehr fps im Vergleich zu Turing bringen bei ähnlichem Stromverbrauch, also am Ende ein massive Performance / Watt Verbesserung.
Das ist jetzt die Referenz-Erwartung. Kommt am Ende weniger, wird der Hype-Train böse an die Wand fahren...
Der ist bei Turing schon böse gecrasht und bei Volta erst mal ;).
Das ist doch nix neues. Nur bei AMD schmiert man es immer aufs Brot, bei NV heißt es dann immer "Pascal war aber...". Das Messen mit zweierlei Maß hat hier schon Tradition.
Die Performance lässt sich eh heute nicht sauber überschlagen. Das wird dann eher so sein, dass
1.) klassische DX11 Games nicht wesentlich schneller laufen werden als die reinen Rohdaten hergeben
2.) DX12 und Vulkan-Games mit heutiger Technik schon effizienter werden als bei Turing
3.) RT-aktive Games dann eben RT so performant darstellen können, als wär es eine SSAO-Technik (überspitzt dargestellt), was Turing eben nicht kann.
So einfach kann man die Performance auch gar nicht bestimmt, da bin ich voll bei Pixeljetstreams Aussagen.
Und einer, der mutwillig Zitate fälscht, aus dem Zusammenhang reißt und sich überhaupt das so zusammenstellt wie er es gern hätte um mich zu diskreditieren, mit so einem destruktiven Verhalten sollte man besser nicht konform gehen, selbst wenn er recht hätte. Darum gehts ihm aber offensichtlich nicht ;).
robbitop
2020-06-15, 16:47:17
Wobei AMD schon einen ziemlichen turnaround hingelegt hat. Bei CPUs und seit rdna geht es auch mit gpus los. NV wird man so schnell nicht konsistent schlagen können IMO - aber man kann und imo wird man die Lücke stark verkürzen können.
NV ist nicht intel und ist nicht eingeschlafen. Die haben immer gas gegeben und ihr RnD immer weiter aufgebaut. Und auch ihr marketing. Und sie haben auch ein top Management.
Das AMD aus 2020 darf man nicht mehr mit dem AMD aus 2016 vergleichen imo.
Mangel76
2020-06-15, 16:55:43
Zumal hier eine Steigerung gegenüber einer 5700XT mit einer Steigerung gegenüber der 2080Ti verglichen wird. Natürlich könntr AMD da 100% draufpacken, wenn es gut läuft. NV kann halt schwerlich mal eben so 100 % auf die 2080 Ti drauflegen. Worüber streitet ihr euch da? Von der IPC waren Navi und Turing fast gleich außerhalb von RT. Warum sollte N21 nicht in die Nähe von GA102 kommen, wenn die etwa gleiche Einheitenzahl haben?
Troyan
2020-06-15, 16:58:55
Und wieder wird ignoriert, dass nVidia einen kompletten Full-Node shrink vor sich hat.
Wie genau kann AMD also den Abstand verringern, wenn die einen Full-Node shrink hinter nVidia liegen?
Zumal hier eine Steigerung gegenüber einer 5700XT mit einer Steigerung gegenüber der 2080Ti verglichen wird. Natürlich könntr AMD da 100% draufpacken, wenn es gut läuft. NV kann halt schwerlich mal eben so 100 % auf die 2080 Ti drauflegen. Worüber streitet ihr euch da? Von der IPC waren Navi und Turing fast gleich außerhalb von RT. Warum sollte N21 nicht in die Nähe von GA102 kommen, wenn die etwa gleiche Einheitenzahl haben?
Weil ein doppelter TU104 schon 30% schneller wäre als ein doppelter Navi10.
Und wie genau könnte AMD einen Navi10 einfach so verdoppeln, wenn Navi10 225W benötigt und bei TU102 mit 275W auf 8nm (shrink) dies nicht möglich wäre?
Mangel76
2020-06-15, 17:06:58
Und wieder wird ignoriert, dass nVidia einen kompletten Full-Node shrink vor sich hat.
Wie genau kann AMD also den Abstand verringern, wenn die einen Full-Node shrink hinter nVidia liegen?
Weil ein doppelter TU104 schon 30% schneller wäre als ein doppelter Navi10.
Und wie genau könnte AMD einen Navi10 einfach so verdoppeln, wenn Navi10 225W benötigt und bei TU102 mit 275W auf 8nm dies nicht möglich wäre?
Indem man FPS pro Watt deutlich erhöht und den Takt entsprechend anpasst. Nichts, was andere nicht auch schon gemacht hätten. Und wie der Fullnodeshrink sich auswirken wird, weiß kein Mensch, denn wir kennen weder die Eigenschaften von 12FFN, der schon sehr auf Effizienz getrimmt war, noch den tatsächlichen Prozess für Ampere. Und am Ende wird lieber der Takt erhöht und schon ist aus halbem Verbrauch nur noch +25% Leistung geworden. Wenn sich 350W bestätigen, scheint NV es auch nötig zu haben.
Troyan
2020-06-15, 17:11:54
Wie sich der Shrink auswirkt, sieht man an GA100. 2,6x mehr Transistoren. Selbst 2x mehr auf 8nm ist machtbar. Mehr muss man hier also nicht mehr schreiben.
Im Gegensatz zu AMD hat nVidia den Sprung zu 7nm/8nm vor sich. Vielleicht einfach mal akzeptieren.
Na ja, das ist mit seinem 1/4 Salvage und 400W bei nicht mal 1,4GHz ein sehr schlechtes Beispiel. Der ist eindeutig auf Packdichte ausgelegt, das ist ne völlig neue Qualität, die mit den kommenden hochgetakteten Varianten kaum Gemeinsamkeiten hat. Es wird doch auch akzeptiert, dass der Sprung kommen wird. Aber der wird eben nicht ausfallen wie der 1 1/2 Fullnode-Sprung von 28 auf 16nm mit planar auf FinFET. Ich glaube, das sollte auch mal akzeptiert werden. Die Performancesprünge werden immer geringer. Den nächsten größeren Satz wird man vermutlich erst bei GAAFET wieder sehen, bis dahin gehts in Trippelschritten (also aus Performancesicht). Was da wirklich geht, wenn man niedrige TDPs braucht sieht man an Renoir ziemlich gut. Das ist die eigentliche Stärke des Prozesses, aber das braucht man halt so nicht bei einer GPU, die auf maximalen Takt getrimmt wird und 300W verballert. MaxQ hingegen wird mit dem neuen Prozess übelst einschlagen. Das wird aber eh erst in 21 was.
Mangel76
2020-06-15, 17:18:04
Wie sich der Shrink auswirkt, sieht man an GA100. 2,6x mehr Transistoren. Selbst 2x mehr auf 8nm ist machtbar. Mehr muss man hier also nicht mehr schreiben.
Im Gegensatz zu AMD hat nVidia den Sprung zu 7nm/8nm vor sich. Vielleicht einfach mal akzeptieren.
Der hat doch aber 7nm und 400W, wobei ein großer Teil stillgelegt ist bei sehr niedrigem Takt. Daher ein ganz dummes Beispiel, weil es eher das Gegenteil belegt. GA102 kann sich aber auch wieder anders verhalten, vor allem wenn er noch auf einem anderen Prozess kommt.
Troyan
2020-06-15, 17:22:40
Die Diskussion hatten wir schon. Weder sind 1410Mhz bei ~50 Mrd. Transistoren wenig (normiert auf A100) noch ist es relevant, ob nVidia 85/100 des Chips deaktiviert, wenn die Leistungssteigerung bei vergleichbaren und im Releasestand gemessenen 3x gegenüber V100 liegt.
Und es ist schön, dass du ohne Wissen und Information weißt, was nVidia macht.
dargo
2020-06-15, 17:32:15
Wie sich der Shrink auswirkt, sieht man an GA100.
Du vergleichst hier ernsthaft GA100 mit den kommenden Gaming-Ablegern? :freak: Das Ding taktet mit mickrigen 1,4GHz und frisst dabei trotz ~16% deaktivierten Shadern und HBM 400W (100W mehr als Volta @12nm).
https://www.computerbase.de/2020-05/nvidia-ga100-ampere/#abschnitt_das_ist_der_voll_aktivierte_ga100
Dass man dir noch erklären muss wie Spannung mit dem Takt in Bezug auf Verlustleistung skaliert finde ich echt erschreckend. Nur mal so als Beispiel weil die 1,4GHz gerade gut reinpassen. Navi 10 hat bei 1,4GHz 800mV hinterlegt (ich rede nicht vom UV). In so einem P-State dürfte die GPU weniger als die Hälfe vs. Referenz verbrauchen. Die Rechnung ist simpel... wenig Takt bei wenig Spannung = hohe Effizienz. Je weiter man sich beim Takt vom Sweetspot entfernt umso stärker leidet die Effizienz da die Spannung überproportional ansteigen muss.
Mangel76
2020-06-15, 17:41:30
Die Diskussion hatten wir schon. Weder sind 1410Mhz bei ~50 Mrd. Transistoren wenig (normiert auf A100) noch ist es relevant, ob nVidia 85/100 des Chips deaktiviert, wenn die Leistungssteigerung bei vergleichbaren und im Releasestand gemessenen 3x gegenüber V100 liegt.
Und es ist schön, dass du ohne Wissen und Information weißt, was nVidia macht.
Ich habe nichts behauptet, ich habe gesagt falls...
Also was ist jetzt deine Aussage? Erst heißt es, NV könnte durch Nodesprung die Transistoren verdoppeln bei gleichem Verbrauch. Jetzt haben sie mehr als verdoppelt, dafür musste aber auch die TDP erhöht und der Takt gesenkt werden trotz deutlicher Beschneidung. Alles keine Überraschung.
Und das sagt alles nicht viel über die Gamingableger aus, denn die haben RT-Einheiten und vielleicht einen anderen Prozess, dazu andere Workloads. Ob es bei der hohen TC-Zahl bleibt, ist abzuwarten. Und was sie auf keinen Fall machen, ist eine Verdopplung der SM. Also wo soll die große Steigerung herkommen? Niemand sagt, dass NV gepennt hat. Sie werden versuchen, die RT-Leistung zu erhöhen, um dem zum Durchbruch zu verhelfen. Unter RT kann die Leistung sicher auch im 100% oder mehr steigen. Außerhalb von RT glaube ich das nicht.
Für AMD dürfte es dagegen sehr viel leichter sein, so eine Steigerung zu erreichen, vor allem weil sie bisher nur Midrange haben. Eine Verdoppelung der Leistung einer 5700XT ist viel einfacher, da man einfach mehr CUs in N21 packen kann und einfach einen größeren Die baut. Mit besserer Effizienz und passendem Takt oder auch mit 400W passt das dann auch. Wie N21 und GA102 dann zueinander stehen werden, werden wir sehen.
Klevapalis
2020-06-15, 17:48:32
Das Ding taktet mit mickrigen 1,4GHz und frisst dabei trotz ~16% deaktivierten Shadern und HBM 400W (100W mehr als Volta @12nm).
Wen interessiert das, angesichts der massiv gestiegenen Leistung?
Und zwar deutlich mehr als die +33% Leistungsaufnahme.
Also was ist jetzt deine Aussage? Erst heißt es, NV könnte durch Nodesprung die Transistoren verdoppeln bei gleichem Verbrauch. Jetzt haben sie mehr als verdoppelt, dafür musste aber auch die TDP erhöht und der Takt gesenkt werden trotz deutlicher Beschneidung. Alles keine Überraschung.
Ist ein Chip mit mehr als doppelter Transistorzahl nicht doch irgendwie ein verdoppelter Chip (so man die gleiche Grundarchitektur nutzt?) ;D
Wäre das nicht genau 2080Ti + 100%?
Ich sehe jetzt nicht, wieso NVIDIA mit GA102 nicht die GA100 Strategie fahren sollten und - wenn es für den Prozess eben das Beste ist - die Transistorzahl massiv hochfährt, um die IPC zu steigern und dafür niedrig zu takten.
Für AMD dürfte es dagegen sehr viel leichter sein, so eine Steigerung zu erreichen, vor allem weil sie bisher nur Midrange haben. Eine Verdoppelung der Leistung einer 5700XT ist viel einfacher, da man einfach mehr CUs in N21 packen kann und einfach einen größeren Die baut.
Ja, das ist so viel einfacher, dass man selbst mit der versprochenen P/W Verbesserung - wie kennen AMDs nicht sonderlich guten Track record, was das angeht - bei um die 300W für das Modell landet. Und realistisch eben nicht +100% mehr Leistung hat, sondern eher so 80-90%.
dargo
2020-06-15, 17:52:03
Wen interessiert das, angesichts der massiv gestiegenen Leistung?
Und zwar deutlich mehr als die +33% Leistungsaufnahme.
Welchen Gamer interessieren die Workloads vom GA100? :rolleyes:
Ich sehe jetzt nicht, wieso NVIDIA mit GA102 nicht die GA100 Strategie fahren sollten und - wenn es für den Prozess eben das Beste ist - die Transistorzahl massiv hochfährt, um die IPC zu steigern und dafür niedrig zu takten.
Aha... also sind die Kosten im Gaming-Bereich jetzt egal oder wie? Was soll denn deiner Meinung nach so ein GA102 kosten? 2.000€ oder eher 3.000€? Ja... das wird dann der Verkaufsschlager schlechthin.
Troyan
2020-06-15, 17:54:13
Also das ist das verstehe:
Wenn A100 bei 1,33x mehr Strom 3x mehr Leistung liefere, dann wäre das Ergebnis so erwartbar gewesen. Tüdü.
BTW: Das ist eine Effizienzsteigerung von 2,25x. Und selbst die reinen theoretischen Werte mit DP über TC bzw. FP16 liegen bei 1,875x.
Beides deutlich höher als das, was AMD verspricht.
Dass man dir noch erklären muss wie Spannung mit dem Takt in Bezug auf Verlustleistung skaliert finde ich echt erschreckend. Nur mal so als Beispiel weil die 1,4GHz gerade gut reinpassen. Navi 10 hat bei 1,4GHz 800mV hinterlegt (ich rede nicht vom UV). In so einem P-State dürfte die GPU weniger als die Hälfe vs. Referenz verbrauchen.
Logik anyone here? Wieviele Transistoren hat noch mal Navi10? 10,3 Mrd.? Also 1/5 von A100 bei 1/2 des Verbrauchs.
Wieso taktet eigentlich Navi nicht auf ~3500Mhz? Das müsste ja möglich sein.
Ist es eigentlich zuviel verlangt kausale Zusammenhänge zu verstehen?
Klevapalis
2020-06-15, 17:54:34
Welchen Gamer interessieren die Workloads vom GA100?
Die wenigsten, aber NVIDIA kann nicht nur Gaming-Workloads optimieren, wie wir aus Erfahrung wissen.
Stemmt euch ruhig dagegen, aber was habt ihr denn davon Ampere tot zu reden, bevor es überhaupt die ersten Informationen oder Leaks zum Thema Leistung gibt? :ugly:
Ihr seid mit Pascal und Turing bereits genauso auf die Fresse gefallen. Wie war das noch mit dem Pascal-Refresh Turing? Wie langweilig das doch wird? Warum NVIDIA keine Innovationen abliefert? ;D
Kaum kommt mit Turing die Innovation stehen die gleichen Leute da und wünschen sich einen Pascal-Refresh :facepalm:
dargo
2020-06-15, 18:00:33
Logik anyone here? Wieviele Transistoren hat noch mal Navi10? 10,3 Mrd.? Also 1/5 von A100 bei 1/2 des Verbrauchs.
Wieso taktet eigentlich Navi nicht auf ~3500Mhz? Das müsste ja möglich sein.
Ist es eigentlich zuviel verlangt kausale Zusammenhänge zu verstehen?
Dir Logik zu erklären wäre eine Lebensaufgabe. Ich belasse dir deine Logik besser. Aber vielleicht verstehst du es in einer Geforce-Sprache? ;D Takte deine 2080TI mit 1,4GHz bei der hinterlegten Spannung mit diesem Takt und vergleiche die Verlustleistung vs. Referenz.
btw.
Nach deiner Logik müsste die RTX 2070S ja 3,5Ghz GPU-Takt machen. Oh... wait? :uponder:
Klevapalis
2020-06-15, 18:01:30
Takte deine 2080TI mit 1,4GHz bei der hinterlegten Spannung mit diesem Takt und vergleiche die Verlustleistung vs. Referenz.
Was ne Logik. Wo ein A100 ja einfach nur ein runtergetakteter GV100 ist.
:facepalm:
unl34shed
2020-06-15, 18:02:07
Also das ist das verstehe:
Wenn A100 bei 1,33x mehr Strom 3x mehr Leistung liefere, dann wäre das Ergebnis so erwartbar gewesen. Tüdü.
BTW: Das ist eine Effizienzsteigerung von 2,25x. Und selbst die reinen theoretischen Werte mit DP über TC bzw. FP16 liegen bei 1,875x.
3x durch spezial Hardware (DP-Tensor Cores) verglichen mit einer GPU ohne dieser Hardware..... dazu kommt noch, dass DP-Tensor noch weniger relevant für den Desktop/Consumer Bereich sind wie DP Operationen allgemein.
Generell ist er Vergleich mit GA100 und Transistoren total daneben, das kann man dir aber so oft sagen, wie man will, du willst es einfach nicht verstehen.
Klevapalis
2020-06-15, 18:15:45
Generell ist er Vergleich mit GA100 und Transistoren total daneben
Eigentlich nicht, schließlich kommt der heute immer begrenzende Faktor Leistungsaufnahme durch die Transistoren zustande. Wenn NVIDIA in der Lage ist entsprechende viele Transistoren im GA100 zu implementieren - können sie es im GA102 genauso.
Ob die Transistoren dann hinterher eine HPC-Workload oder eine Grafik-Workload abarbeiten, ist der Physik egal.
Mangel76
2020-06-15, 18:17:52
Also das ist das verstehe:
Wenn A100 bei 1,33x mehr Strom 3x mehr Leistung liefere, dann wäre das Ergebnis so erwartbar gewesen. Tüdü.
BTW: Das ist eine Effizienzsteigerung von 2,25x. Und selbst die reinen theoretischen Werte mit DP über TC bzw. FP16 liegen bei 1,875x.
Beides deutlich höher als das, was AMD verspricht.
Logik anyone here? Wieviele Transistoren hat noch mal Navi10? 10,3 Mrd.? Also 1/5 von A100 bei 1/2 des Verbrauchs.
Wieso taktet eigentlich Navi nicht auf ~3500Mhz? Das müsste ja möglich sein.
Ist es eigentlich zuviel verlangt kausale Zusammenhänge zu verstehen?
Mensch, du vergleichst hier Spezialanwendungen, die nichts mit Gamingleistung zu tun haben. Vergleich doch mal die gamingrelevanten Leistungswerte, dann sieht die Rechnung ganz anders auch. Spielt aber keine Rolle, weil GA100 nicht GA102 ist. Letzterer wird bei Gaming sehr viel besser aussehen. Aber auch da werden doppelte Transistoren nicht doppelte Leistung ergeben.
Mangel76
2020-06-15, 18:19:45
Ob die Transistoren dann hinterher eine HPC-Workload oder eine Grafik-Workload abarbeiten, ist der Physik egal.
Deswegen hat jeder Chip immer den gleichen Verbrauch, kommt ja nur auf die Zahl der Transistoren an. Oh man...
Troyan
2020-06-15, 18:25:06
3x durch spezial Hardware (DP-Tensor Cores) verglichen mit einer GPU ohne dieser Hardware..... dazu kommt noch, dass DP-Tensor noch weniger relevant für den Desktop/Consumer Bereich sind wie DP Operationen allgemein.
Generell ist er Vergleich mit GA100 und Transistoren total daneben, das kann man dir aber so oft sagen, wie man will, du willst es einfach nicht verstehen.
Volta hat keine speziallen TensorCores? Wow, man lernt immer wieder was neues hier.
Und Navi10 unterstützt kein FP16? Wow, gleich zwei neue Erkenntnisse.
Nein, der einzige, der was nicht versteht, bist du. Beantworte doch einfach mal eine Frage:
A100 liefert dreimal mehr Leistung im Training (MP FP16) von Bert als V100. Bei einer Mehraufnahme an Strom von 1,33x ist dies entweder
a) eine Effizienzsteigerung von 2,25x oder
b) "ich habe keine Ahnung, möchte aber aus irgendwelchen komischen Gründen dauernd in nVidia-Threads rumspammen und wiederhole daher immer wieder und wieder und wieder, dass A100 nicht wirklich effizienter als V100 ist."
Bin auf deine Antwort gespannt. Weil eine Diskussion mit dir endet ja schon an der Tatsache, dass Realität überhaupt nicht anerkannt wird.
Mensch, du vergleichst hier Spezialanwendungen, die nichts mit Gamingleistung zu tun haben. Vergleich doch mal die gamingrelevanten Leistungswerte, dann sieht die Rechnung ganz anders auch. Spielt aber keine Rolle, weil GA100 nicht GA102 ist. Letzterer wird bei Gaming sehr viel besser aussehen. Aber auch da werden doppelte Transistoren nicht doppelte Leistung ergeben.
Ich kann schlecht "Nichts" mit A100 vergleichen. Im Gegensatz zu einigen anderen hier, die ebenfalls "Nichts" kennen, aber schon jetzt haufenweise Aussagen zu irgendwelchen Produkten treffen können, aber das einzig reale Produkt komplett ignorieren.
unl34shed
2020-06-15, 18:35:20
Volta hat keine speziallen TensorCores? Wow, man lernt immer wieder was neues hier.
Und Navi10 unterstützt kein FP16? Wow, gleich zwei neue Erkenntnisse.
Nein, der einzige, der was nicht versteht, bist du. Beantworte doch einfach mal eine Frage:
A100 liefert dreimal mehr Leistung im Training (MP FP16) von Bert als V100. Bei einer Mehraufnahme an Strom von 1,33x ist dies entweder
a) eine Effizienzsteigerung von 2,25x oder
b) "ich habe keine Ahnung, möchte aber aus irgendwelchen komischen Gründen dauernd in nVidia-Threads rumspammen und wiederhole daher immer wieder und wieder und wieder, dass A100 nicht wirklich effizienter als V100 ist."
Hab ich irgendetwas davon behauptet, was du da schreibst?
Zu deinen Punkten:
- Volta hat keine DP-Tensor Cores
- DP != FP16
- ML Training interessiert in Desktop/Consumer nicht -> Effizienzsteigerung für Desktop/Consumer egal
- b) habe ich nie behauptet, bitte zitiere mal, wo ich das geschrieben habe.
robbitop
2020-06-15, 18:35:36
Wir werden es ja sehen. IMO ist es nicht unwahrscheinlich dass N2x 80CUs bei 2-2,2 GHz erreicht. Bei rund 300W.
GA102 kommt vermutlich im Vollausbau auf 84 SMs und ähnlichen Takt. Leistungsaufnahme und Performance pro SM ist noch unklar. Ich tippe darauf, dass die Lücke (außerhalb von dlss und rt) nicht so riesig sein wird. Mein Tip ist ~10%.
Ich kann mir aber gut vorstellen, dass GA102 in RT ein gutes Stück schneller sein wird und man bei DLSS nachlegen wird. In Punkto BQ und Verbreitung.
dargo
2020-06-15, 18:47:44
Eigentlich nicht, schließlich kommt der heute immer begrenzende Faktor Leistungsaufnahme durch die Transistoren zustande. Wenn NVIDIA in der Lage ist entsprechende viele Transistoren im GA100 zu implementieren - können sie es im GA102 genauso.
Natürlich können sie es, nur selbst Nvidia wäre nicht so bescheuert einen GA102 mit über 800mm² in 7/8nm zu bringen weil der Kostenfaktor limitiert.
Klevapalis
2020-06-15, 18:52:41
Vergleich doch mal die gamingrelevanten Leistungswerte, dann sieht die Rechnung ganz anders auch.
Natürlich wird GA102 eine ganz andere Gamingleistung pro Transistor haben als GA100. Nennt sich Diversifikation. :P
Deswegen hat jeder Chip immer den gleichen Verbrauch, kommt ja nur auf die Zahl der Transistoren an. Oh man...
Wenn du für zwei unterschiedliche Workloads auf zwei Chips mit der gleichen Anzahl Transistoren rechnest und die Chips identische Auslastung haben - wirst du natürlich die identische Leistungsaufnahme sehen. Das ist reine Physik.
Die Rechenleistung ist KEINE physikalische Größe und nicht definiert!
Natürlich können sie es, nur selbst Nvidia wäre nicht so bescheuert einen GA102 mit über 800mm² in 7/8nm zu bringen weil der Kostenfaktor limitiert.
Dann nimm einen sinnvollen Wert, z.B. 600mm² und setz die A100-Transistordichte (65 Millionen pro mm²) ein.
-> 39 Milliarden Transistoren (+110% auf TU102)
PS: Toll wie Moderation mal wieder gezielt die Meinung beeinflusst :rolleyes:
mironicus
2020-06-15, 18:53:28
Statt 35% mehr Shaderleistung und 100% mehr RT-Leistung hätte ich es lieber genau umgekehrt.
unl34shed
2020-06-15, 18:56:45
Dann nimm einen sinnvollen Wert, z.B. 600mm² und setz die A100-Transistordichte (65 Millionen pro mm²) ein.
-> 39 Milliarden Transistoren (+110% auf TU102)
Und dann läuft das ding mit 1,4 vielleicht 1,5GHz, weil große Packdichte und hoher Takt nicht zusammenpassen. Physik und so...
dargo
2020-06-15, 19:00:43
Dann nimm einen sinnvollen Wert, z.B. 600mm² und setz die A100-Transistordichte (65 Millionen pro mm²) ein.
Sind denn 600mm² überhaupt schon gesichert für GA102? Selbst diese Größe stelle ich mir sehr teuer vor.
Klevapalis
2020-06-15, 19:13:47
Und dann läuft das ding mit 1,4 vielleicht 1,5GHz, weil große Packdichte und hoher Takt nicht zusammenpassen. Physik und so...
Ne 2080Ti hat auch nur 1,35 GHz Basistakt. Wäre 1,5 Ghz nochmal +10% mehr Leistung ;D
Sind denn 600mm² überhaupt schon gesichert für GA102? Selbst diese Größe stelle ich mir sehr teuer vor.
Was heißt gesichert? Du sagst 800mm² ist zu teuer, aber was willst du dann? NVIDIA ist schon häufiger mit 600mm² TopDog im Gaming ins Rennen gegangen.
Nimm von mir aus 500mm², bist du immer noch bei >90% auf ne 2080Ti.
Und ihr diskutiert ernsthaft über 35% :facepalm:
Sunrise
2020-06-15, 19:13:48
Sind denn 600mm² überhaupt schon gesichert für GA102? Selbst diese Größe stelle ich mir sehr teuer vor.
Ist eine Schätzung von Igor (627mm²), basierend u.a. auf dem geleakten neuen Kühlerdesign und seiner Secret Sauce.
dargo
2020-06-15, 19:17:22
Ist eine Schätzung von Igor (627mm²), basierend u.a. auf dem geleakten neuen Kühlerdesign und seiner Secret Sauce.
Interessante Schätzung. :freak:
Klevapalis
2020-06-15, 19:19:45
Interessante Schätzung. :freak:
Weil es dir nicht in den Kram passt? :facepalm:
Ist eine Schätzung von Igor (627mm²), basierend u.a. auf dem geleakten neuen Kühlerdesign und seiner Secret Sauce.
https://media.giphy.com/media/rbzLgG9VR0QMw/giphy.gif
Auf gut Deutsch:
Er rät ins Blaue und macht einen auf:
https://media.giphy.com/media/wDGCA2dv9VJxC/giphy.gif
dargo
2020-06-15, 19:21:25
Was heißt gesichert? Du sagst 800mm² ist zu teuer, aber was willst du dann?
Nichts weiter als die Größe vom GA102.
NVIDIA ist schon häufiger mit 600mm² TopDog im Gaming ins Rennen gegangen.
AMD auch, Vergangenheit sollte man Vergangenheit sein lassen. Die immer kleineren Fertigungsprozesse werden immer teurer.
Nimm von mir aus 500mm², bist du immer noch bei >90% auf ne 2080Ti.
>90% von was? Das mit dem Takt/Packdichte und Physik hast du schon verstanden?
Sunrise
2020-06-15, 19:26:51
Interessante Schätzung. :freak:
Da wird auch noch etwas Redundanz mit drin sein, egal ob jetzt 8LPP oder N7.
NV wird mehr Einheiten verbauen, gleichzeitig den Takt erhöhen (N7) und Verbesserungen einfließen lassen.
GA100 auf N7 HPC ist ja massiv deaktiviert als A100 in den Markt gebracht worden. NV wird da bei den Gaming-Ablegern ähnlich vorgehen, daher auch die gelakten, krummen Zahlen für die Gaming-Ableger - und evtl. sogar nochmal nachlegen, je nachdem wie AMD vorlegt. Die Titan könnte dann der Vollausbau sein, aber das werden wir dann sehen.
Ist nur die Frage, ob die 505mm² von AMD denn stimmen, oder ob das eine Finte war.
Auf gut Deutsch:
Er rät ins Blaue und macht einen auf:
So schlecht geraten empfinde ich das jetzt nicht. Man kommt auch auf min. 600mm², wenn man sich anhand des Shrinks, der höheren Anzahl an SMs relativ zu TU102, des wahrscheinlich komplexeren Aufbaus der Einheiten und etwas Redundanz hinzurechnet. Weniger als 550mm2 eher nicht, mehr als 700mm² wäre dann für die Ausbeute das KO.
Aber ja, wir sind hier im Speku-Forum, hier sind Vermutungen ja gerne gesehen vollkommen normal.
MiamiNice
2020-06-15, 20:01:01
Wir werden es ja sehen. IMO ist es nicht unwahrscheinlich dass N2x 80CUs bei 2-2,2 GHz erreicht. Bei rund 300W.
GA102 kommt vermutlich im Vollausbau auf 84 SMs und ähnlichen Takt. Leistungsaufnahme und Performance pro SM ist noch unklar. Ich tippe darauf, dass die Lücke (außerhalb von dlss und rt) nicht so riesig sein wird. Mein Tip ist ~10%.
Ich kann mir aber gut vorstellen, dass GA102 in RT ein gutes Stück schneller sein wird und man bei DLSS nachlegen wird. In Punkto BQ und Verbreitung.
Und genau weil man diese 10% so schön "tippen" kann, denke ich, wir sehen hier Nebelkerzen. Das darf Nvidia absolut nicht passieren wenn deren Margen nicht rutschen sollen und Jensen wäre ganz schön dämlich wenn er das zulässt. Die Peitsche knallt (noch) nicht mit der RT Power - das ist für die Masse absolut uninteressant.
Mich würde es nicht wundern wenn Gaming Ampere anlog zum dicken Ampere wird. Brachial. Ich vermute mittlerweile wir werden doch die +75% zur 2080TI Karten sehen.
Eigentlich kann es nicht anders sein wenn NV noch das ist, was sie sein wollen.
Und dazu mit Leos Worten im Hinterkopf, wäre es absolut lustig wenn die Teile zu Kampfpreisen kommen wegen Konsolen und AMD.
Damit würde sich NV den Namen noch ein wenig tiefer in die Herzen der Spieler gravieren.
Ich würds Ihnen aktuell zutrauen.
Mangel76
2020-06-15, 20:27:24
Natürlich wird GA102 eine ganz andere Gamingleistung pro Transistor haben als GA100. Nennt sich Diversifikation. :P
Deshalb ja meine Aussage, dass sich die schlecht vergleichen lassen, weil diversifiziert auf unterschiedliche Einsatzzwecke mit anderen Anforderungen.
Wenn du für zwei unterschiedliche Workloads auf zwei Chips mit der gleichen Anzahl Transistoren rechnest und die Chips identische Auslastung haben - wirst du natürlich die identische Leistungsaufnahme sehen. Das ist reine Physik.
:
Komisch, meine GPU zeigt mir je nach Spiel ganz unterschiedliche Werte für Takt und Verbrauch. Wie du schreibst, hängt das eben von der Auslastung ab und die ist in typischen Gamingszenarien eben anders als bei HPC und auch von Spiel zu Spiel anders. Und wenn NV eben massig Transistoren bei GA100 in FP64-Funktionen und anderen HPC-Kram steckt, dann lässt sich daraus eben auch nichts für GA102 schließen. An Steigerung der gamerelevanten Leistung pro SM ist bisher noch gar nicht bekannt, die meisten zusätzlichen Transistoren sind dafür völlig irrelevant. Kann gut sein, dass die 400W nur bei Auslastung der TC gebraucht werden ähnlich AVX bei CPU. Wer weiß das schon?
crux2005
2020-06-15, 20:30:04
Die 35% machen hinten und vorne kein Sinn dafür muss man kein 21Gbps Ram verbauen wenn die 2080 Ti nur mit 14 bestückt ist.
Ich sehe das anders. Wozu mehr als 35-40% bringen wenn das ggü. der Konkurrenz reicht. Danach kann ja ein Super Refresh kommen. ;)
Also bisher waren die Erwartungen an NVIDIA immer massiv tief gestapelt. Genau wie die von AMD massiv übertrieben.
Ja, NV macht gute Arbeit was Leaks, PR und Marketing angeht.
robbitop
2020-06-15, 20:44:39
Und genau weil man diese 10% so schön "tippen" kann, denke ich, wir sehen hier Nebelkerzen. Das darf Nvidia absolut nicht passieren wenn deren Margen nicht rutschen sollen und Jensen wäre ganz schön dämlich wenn er das zulässt. Die Peitsche knallt (noch) nicht mit der RT Power - das ist für die Masse absolut uninteressant.
Mich würde es nicht wundern wenn Gaming Ampere anlog zum dicken Ampere wird. Brachial. Ich vermute mittlerweile wir werden doch die +75% zur 2080TI Karten sehen.
Eigentlich kann es nicht anders sein wenn NV noch das ist, was sie sein wollen.
Und dazu mit Leos Worten im Hinterkopf, wäre es absolut lustig wenn die Teile zu Kampfpreisen kommen wegen Konsolen und AMD.
Damit würde sich NV den Namen noch ein wenig tiefer in die Herzen der Spieler gravieren.
Ich würds Ihnen aktuell zutrauen.
Das Problem ist, dass die Problemgröße bei 3D Grafik nur beschränkt Parallelisierbarkeit bietet. Entsprechend kann man nur begrenzt sinnvoll SMs weiter hoch skalieren. Siehe Maxwell->Pascal->Turing. Man versucht mehr Leistung über Takt und IPC pro SM zu erreichen. Das scheint immer mehr Transistoren zu kosten. Die Zeiten der großen Leistungssprünge sind offenbar vorbei. Auch bringen die Fullnodeshrinks leider weniger Density- und Energysprünge als früher.
Auch bleibt noch abzuwarten ob 7nm oder 8nm bei GA102 zum Einsatz kommt.
MiamiNice
2020-06-15, 22:12:24
Ich schätze NV wird das Teil unglaublich hoch takten, wurde ja schon von diversen Seiten angedeutet. Man überschlage die bekannten Specs mit ca. 2,5 Ghz da kommt schon bissel was rum.
Könnte man eigentlich vorhandene Einheiten zum Rastern zweckentfremden? Also z.b. Tensor oder RT Cores? Könnte man das über den Treiber realisieren?
Guten Morgen
...+75%...
...+Kampfpreis...wegen Konsolen und AMD...
Damit würde sich NV den Namen noch ein wenig tiefer in die Herzen der Spieler gravieren.
Ich würds Ihnen aktuell zutrauen.
Das wäre natürlich fein und auch der einzige für mich Plausible Grund
warum man auf 350 Watt rauf geht.
Wenn NV aber mit 350Watt +75% bringt, dann vermutlich nur
weil AMD doch stärker als erwartet ist (auch mehr als 300Watt bringt...).
Ach ist das spannend :smile:
Ich freue mich auf eine gute Auswahl, zu nem hoffentlich gutem Preis, im Herbst :D
M.f.G. JVC
Hakim
2020-06-16, 11:51:45
Ich glaub den 320w-350w erst wenn wirklich so kommt. Ich denke für die schnellsten Modelle wie 80ti (90) oder Titan ok evt. Aber eine 80er mit 320w? Wo es von vielen gekauft wird und die Vorgänger nur 165 und 180w hatten?
Adam D.
2020-06-16, 12:03:50
Ich freue mich auf eine gute Auswahl, zu nem hoffentlich gutem Preis, im Herbst :D
M.f.G. JVC
Das sind dieselben vergeblichen Hoffnungen wie vor jedem Launch. Die 300€ der PS4 Pro hat auch keinen interessiert, als Turing gelauncht wurde. Ampere wird bestimmt wieder schweineteuer.
Edgecrusher86
2020-06-16, 12:07:37
215W und 250W war es bei den direkten Vorgängern 2080 und 2080S.
Ich bin immer noch überzeugt davon, dass solche Angaben höchstens mit maximierten PTs sinnig wären - da durfte eine 2080S ja 280W ziehen. Da nun wohl hinunter zur 3080 ein Salvage des 102er Verwendung finden dürfte,
würde eine gewisse Erhöhung schon Sinn machen, aber weit mehr als 250-260W in dem Fall und 300W für die schnellste Karte default wäre sehr hoch und wohl höchstens dann sinnvoll, wenn die Konkurrenz in direkter Schlagdistanz wäre.
Falls die Angaben in dem neusten Video von Moore's Law is dead (https://www.youtube.com/watch?v=H8W_0gFzRGk) kein Fake wären [deren Richtigkeit er auch selbst anzweifelt], müsste NV sicher auch den Verbrauch erhöhen, um zumindest noch einen halbwegs ordentlichen Abstand von zum Beispiel +15-20% zu realisieren:
Die angebliche RX 6900XT mit 448-bit SI + 18 Gbps G6:
https://abload.de/img/1599970.2300000002_imqwjv4.png
Das soll in 4K sein:
https://abload.de/img/1647785.925_imageexk8t.png
RT:
https://abload.de/img/1676158.405_imagewyklk.png
E: das wirkt auch nicht sehr glaubwürdig:
https://abload.de/img/6v1kgv.png
:D :D :D
Laut dem angeblichen Leaker aber nur die zweit schnellste Karte - AdoredTV hatte noch bis zu 512-bit und 20 Gbps ins Spiel gebracht zuletzt [1280 GB/s] bei ebenfalls 80CU und 400W. :freak:
In mancherlei Hinsicht wirkt das ganze doch etwas komisch. Zum Beispiel äußerte sich AMD ja, dass man keinen Blower mehr anbieten wolle für die Referenzkarten.
Sinnig wäre dies hier schon (sieht exakt aus wie der RX 5700 Kühler + die AiO der V64 LCE), um VRM und GDDR6 aktiv zu kühlen und die AiO nur die GPU übernehmen zu lassen.
Komisch mutet auch das Alais in den Überschriften an [ULTIMATE 4K GAMING EXPERIENCE bei den ersten Slide] oder Weglassen der 2 bei RDR - wenn auch so etwas nicht unmöglich wäre, dass es übersehen wurde -
gerade in einer frühen und nicht öffentlichen Vorstellungsfolie.
Der Performance-Hit mit RT scheint auch viel zu gering zu sein mit unterhalb 10%. Entweder es wurde entsprechend cherry picking mit RT low und 1080p betrieben, oder es ist absoluter Quark.
Bei Ampere in 4K RT Ultra dürfte man sicherlich auch zumindest noch 20-30% statt 50%+ von TU erwarten.
robbitop
2020-06-16, 12:09:32
Ich schätze NV wird das Teil unglaublich hoch takten, wurde ja schon von diversen Seiten angedeutet. Man überschlage die bekannten Specs mit ca. 2,5 Ghz da kommt schon bissel was rum.
Könnte man eigentlich vorhandene Einheiten zum Rastern zweckentfremden? Also z.b. Tensor oder RT Cores? Könnte man das über den Treiber realisieren?
Die Tensorcores steuern mWn die INTs bei. Auch nutzt man sie potenziell für das Denoisen bei RT. RT Cores sind halt fixed function HW. Fixed Function ist super effizient (Energie/Platz) aber dafür extrem anwendungsspezifisch. Ist halt immer der Kompromiss GP<->FF.
genervt
2020-06-16, 12:16:31
Guten Morgen
Das wäre natürlich fein und auch der einzige für mich Plausible Grund
warum man auf 350 Watt rauf geht.
Wenn NV aber mit 350Watt +75% bringt, dann vermutlich nur
weil AMD doch stärker als erwartet ist (auch mehr als 300Watt bringt...).
Ach ist das spannend :smile:
Ich freue mich auf eine gute Auswahl, zu nem hoffentlich gutem Preis, im Herbst :D
M.f.G. JVC
Bei Kampfpreisen gehen die Aktionäre auf die Barrikaden. Aktie im Sinkflug. Nein, die versuchen Leistung auch weiterhin teuer zu verkaufen. AMD zieht ja mit, siehe 5700XT. Ich stelle mich nicht auf einen Preiskampf ein. Aber mal wieder Augenhöhe und eine Leistungssteigerung im unteren Marktsegment. 5500XT und 1660 waren ja nur Seitwärtsschritte.
Pumpi74
2020-06-17, 08:18:01
Der Konkurrenzdruck wird von den Konsolen kommen. Wer kauft sich eine Grafikkarte für 1000€ wenn es für 500€ ein komplettes Spielsystem gibt das aufgrund von "SoftwareToTheMatall" ähnlich schnell ist.
Und ja, die Shrinkschritte werden im Maximum kleiner, nur wenn nVidia einen Schritt auslässt dann gibt es eben doch "FullNode's". Das nVidia ihre Reserven jetzt in RTX pumpt ist nur sinnvoll. Erstens steht man dann von Anfang an den Konsolen nicht nach, und zweitens wird demnächst die richtige RTX Software mit den neuen Konsolen kommen. Dann wird auch recht schnell klar das die Cores nicht wie bei Turing im Prinzip verschwendet wurden sondern das sie erheblich zum Aha-Erlebniss beitragen. (Sagt ein RTX Skeptiker der froh ist seinen RTX-Turing-Klump rechtzeitig wieder los geworden zu sein).
MfG
dargo
2020-06-17, 08:39:23
Die Tensorcores steuern mWn die INTs bei. Auch nutzt man sie potenziell für das Denoisen bei RT.
Welche Spiele nutzen die Tensorcores fürs Denoising? Vor kurzem war es noch kein Einziges.
dildo4u
2020-06-17, 08:55:32
Ich sehe das anders. Wozu mehr als 35-40% bringen wenn das ggü. der Konkurrenz reicht. Danach kann ja ein Super Refresh kommen. ;)
Dann braucht man immer noch nicht den schnellen Ram und hätte jetzt eine höhere Marge und könnte erst die Super Version damit bestücken.
robbitop
2020-06-17, 09:01:46
Welche Spiele nutzen die Tensorcores fürs Denoising? Vor kurzem war es noch kein Einziges.
Soll noch kommen afaik.
dargo
2020-06-17, 09:06:05
Soll noch kommen afaik.
Also alles noch ungelegte Eier. ;) Hast du dazu eine Quelle? :) Wenn es technisch machbar ist wäre das natürlich ein guter Speedup für RT.
robbitop
2020-06-17, 09:23:21
Deswegen schrieb ich „potenziell“. Puh man liest so viel und vieles ist eine Weile her - somit leider keine Quelle. Ich meine pixeljetstream hat sowas mal angedeutet.
IIRC war das Hauptproblem, dass die TCs nicht zur Render API exponiert waren. Entsprechend schwierig ist es sie anzusprechen. Das soll sich aber ändern.
ChaosTM
2020-06-17, 09:27:16
Der Coretek hoschi meint es komme ein RT-Coprozessor auf der Rückseite. Daher die Konstruktion und der enorme Stromverbrauch .. ;)
Timbaloo
2020-06-17, 09:52:33
Deswegen schrieb ich „potenziell“. Puh man liest so viel und vieles ist eine Weile her - somit leider keine Quelle. Ich meine pixeljetstream hat sowas mal angedeutet.
IIRC war das Hauptproblem, dass die TCs nicht zur Render API exponiert waren. Entsprechend schwierig ist es sie anzusprechen. Das soll sich aber ändern.
Genau so hab ich das auch verstanden.
unl34shed
2020-06-17, 10:11:58
Der Coretek hoschi meint es komme ein RT-Coprozessor auf der Rückseite. Daher die Konstruktion und der enorme Stromverbrauch .. ;)
Er bezieht sich dabei aber AFAIK auf ein Patent, dass eben diesen CoProzessor als Teil der GPU sieht (= RT Cores).
Du hast dann noch das gleiche Problem wie bei MCM und der Datenlokalität und der Bandbreite. Hinzu kommt noch das Problem mit der Kühlung, wenn er auf der Rückseite sitzen soll und wirklich für mehr als 2-5W verantwortlich ist.
dargo
2020-06-17, 10:30:42
Der Coretek hoschi meint es komme ein RT-Coprozessor auf der Rückseite. Daher die Konstruktion und der enorme Stromverbrauch .. ;)
Das ergibt überhaupt keinen Sinn. Erst bläst Nvidia bei Turing die SMs für RT auf und jetzt soll dafür ein Coprozessor bei Ampere kommen der noch dazu weit vom Geschehen sitzt? Dann wäre der Weg von Turing ja kompletter Fehlschuss gewesen.
Gipsel
2020-06-17, 10:36:39
Hatten wir schon vor ein paar Seiten (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12337734#post12337734) (da fängt es an (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12337679#post12337679)). Ist klar Blödsinn.
pixeljetstream
2020-06-17, 10:45:04
Deswegen schrieb ich „potenziell“. Puh man liest so viel und vieles ist eine Weile her - somit leider keine Quelle. Ich meine pixeljetstream hat sowas mal angedeutet.
IIRC war das Hauptproblem, dass die TCs nicht zur Render API exponiert waren. Entsprechend schwierig ist es sie anzusprechen. Das soll sich aber ändern.
Also jenseits von DLSS ist mir bisher auch kein Einsatz der TCs bei gaming bekannt. Allerdings bei offline denoising (Blender etc.) und diversen content tools ist inferencing schon ein Thema. Und viele Artists haben ja auch GeForce.
Wie ihr schreibt gibt es bisher keinen direkten Zugriff der standardisiert ist. NV hat für Vulkan eine Extension, aber solange Intel und AMD da nix anbieten, dürfte das für gaming nicht relevant sein. Wenn dann eher indirekt durch Direct ML.
reaperrr
2020-06-17, 19:06:45
Mich würde es nicht wundern wenn Gaming Ampere anlog zum dicken Ampere wird. Brachial. Ich vermute mittlerweile wir werden doch die +75% zur 2080TI Karten sehen.
Eigentlich kann es nicht anders sein wenn NV noch das ist, was sie sein wollen.
Und dazu mit Leos Worten im Hinterkopf, wäre es absolut lustig wenn die Teile zu Kampfpreisen kommen wegen Konsolen und AMD.
Und am Ende sind es dann doch "nur" 40-50% und ne ähnliche Preisstruktur wie bei Turing und das Gejammer ist wieder groß...
Alex1973
2020-06-17, 19:32:17
Was mich interessiert, ist die Frage, ob man die 8 Gb Vram und weniger der Grafikkarten der Ampere Generation überhaupt jemand empfehlen kann als Neukauf, in Anbetracht der 10 GB der xbox.(Nur für Gpu)
Da müssen doch bei PC Grafikkarte mindesten 12 Gb drauf? Ansonsten wäre das ein Kauf für 1 Jahr und dann ebey Ware.
Also viel Mühe um nichts.
Und wir reden hier über RTX 3070 Ti für 600 Euro oder so, mit 8 GB drauf.
Somit sind die einzigen Ampere, die langfristig was taugen ab RTX 3080 für 800 Euro.
Von Seiten des Ampere Produzenten wird diese Tatsache scheinbar total ignoriert.
Gut, wenn man damals zu Zeiten der PS 4 eine low-end Grafikkarte mit 2 GB Vram angeboten hat,
war allen klar, wegen den 120 euro.
Aber heute sind low-end Grakas für 500 Euro mit 6 GB genauso zu nichts zu gebrauchen. Wer wird die überhaupt kaufen? Nostalgiker?
Befinden sich da nich manche Leute außerhalb der Realität ? (LSD;D)
Also meine nächste Graka hat mindesten 12 GB drauf, alles andere ist unrealistisch,(Also spare ich schon mal 1000 Euro mindestens) oder gibt es andere Meinungen dazu,wohl eher nicht trotz Meinungsfeiheit.
sentinel_first
2020-06-17, 19:53:53
Wie bei NV üblich, die teureren Karten kann man etwas länger nutzen, die günstigeren halt nicht, je nach Anspruch natürlich.
Das Preisgejammer höre ich jetzt schon, also knapp 2000€ für eine "gutste" high-end Custom werden sicherlich aufgerufen werden und auch fix ausverkauft sein.
Wer Premium haben möchte kauft sowieso keine AMD oder Intel - Karte und der Preis ist da eher zweitrangig, das Prestige muss erhalten werden PUNKT
(Vielleicht wird die 2000€ - Schallmauer diesmal getestet ?)
Alex1973
2020-06-17, 20:00:47
Wer Premium haben möchte kauft sowieso [..]Von welchem Premium redust du? Ich rede von low end für 500 euro mit 6 GB Vram drauf. Wer braucht low end und zahlt 500.
Man kann doch nicht einfach die neue Situation wegen Konsolen ignorieren.
Ich bin schon sehr gespannt, wie das ganze ausgeht. Für Popcorn wurde schon vorgesorgt;D Es kauft bald nur sowieso jeder bei AMD, das halte ich für viel wahrscheinlicher.
sentinel_first
2020-06-17, 20:11:32
Wer Premium haben möchte kauft sowieso [..]Von welchem Premium redust du? Ich rede von low end für 500 euro mit 6 GB Vram drauf. Wer braucht low end und zahlt 500.
CS:GO - Spieler in FHD @ 300FPS :biggrin:
Ansonsten,ich hatte meine Aussage allgemein formuliert.
BlacKi
2020-06-17, 20:55:18
Da müssen doch bei PC Grafikkarte mindesten 12 Gb drauf? Ansonsten wäre das ein Kauf für 1 Jahr und dann ebey Ware.
das eine hat mit dem anderen nichts zu tun. die ps4 hatte 5-6gb verfügbaren ram als es 3-4gb karten gab. trotzdem konnte man noch gut mit 2-3 gb spielen, das hat sich erst geändert, als die 4-6gb gpus kamen.
wolik
2020-06-17, 22:38:35
Und genau weil man diese 10% so schön "tippen" kann, denke ich, wir sehen hier Nebelkerzen. Das darf Nvidia absolut nicht passieren wenn deren Margen nicht rutschen sollen und Jensen wäre ganz schön dämlich wenn er das zulässt. Die Peitsche knallt (noch) nicht mit der RT Power - das ist für die Masse absolut uninteressant.
Mich würde es nicht wundern wenn Gaming Ampere anlog zum dicken Ampere wird. Brachial. Ich vermute mittlerweile wir werden doch die +75% zur 2080TI Karten sehen.
Eigentlich kann es nicht anders sein wenn NV noch das ist, was sie sein wollen.
Und dazu mit Leos Worten im Hinterkopf, wäre es absolut lustig wenn die Teile zu Kampfpreisen kommen wegen Konsolen und AMD.
Damit würde sich NV den Namen noch ein wenig tiefer in die Herzen der Spieler gravieren.
Ich würds Ihnen aktuell zutrauen.
75% bei RT ? Mag sein.
"die Teile zu Kampfpreisen kommen wegen Konsolen und AMD" :confused:
"Damit würde sich NV den Namen noch ein wenig tiefer in die Herzen der Spieler gravieren.":facepalm:
Was mich interessiert, ist die Frage, ob man die 8 Gb Vram und weniger der Grafikkarten der Ampere Generation überhaupt jemand empfehlen kann als Neukauf, in Anbetracht der 10 GB der xbox.(Nur für Gpu)
8Gb? Why not? Wichtig ist doch nur Auflösung in welche man Spielt. unter 4K 8Gb ist doch ok.
Und am Ende sind es dann doch "nur" 40-50% und ne ähnliche Preisstruktur wie bei Turing und das Gejammer ist wieder groß...
Es gehört zu jeder Verkaufsstrategie, willige Käufer zu bedienen. Warum kauft dann alle zwei Jahre jemand ein neues Auto? 1. Weil sie es sich leisten können... 2: Die Befriedigung.
50% wäre gut, sehr gut sogar.
crux2005
2020-06-17, 23:01:09
Dann braucht man immer noch nicht den schnellen Ram und hätte jetzt eine höhere Marge und könnte erst die Super Version damit bestücken.
Ist doch nichts bestätigt. Sehe das Problem nicht. :)
Dural
2020-06-18, 09:19:13
Falls es der aller letzte noch nicht verstanden hat:
"Kampfpreise" wird es nicht mehr geben!
Die Herstellung und Entwicklung ist zu komplex und teuer geworden, dazu will Lisa Geld verdienen...
Die Zeiten wie mit 55nm und früher sind definitiv vorbei.
WedgeAntilles
2020-06-18, 10:18:10
Also meine nächste Graka hat mindesten 12 GB drauf, alles andere ist unrealistisch,(Also spare ich schon mal 1000 Euro mindestens) oder gibt es andere Meinungen dazu,wohl eher nicht trotz Meinungsfeiheit.
Wenn du 4K zockst, ist das vermutlich die richtige Entscheidung.
Allerdings soll es laut Gerüchten noch Leute geben, die nicht 4k spielen.
Sondern Full HD oder WQHD. Ich weiß, absolut unvorstellbar.
Und für die sind 8GB Ram ausreichend für sicherlich 3 Jahre.
Wie genau da die Preisgestaltung sein wird muss man abwarten.
Und wenn die sehr schlecht ist und AMD das deutlich bessere Produkt hat kauft man halt ne Karte von AMD.
Sehe da jetzt noch nicht das ganz riesige Problem und begreife auch nicht ganz, warum da jetzt ein Fass aufgemacht wird?
Falls die Preisgestaltung von Nvidia völlig unverschämt ist UND die von AMD ebenfalls mies ist - dann kann man sich doch immer noch echauffieren, oder?
BlacKi
2020-06-18, 10:25:12
ihr dürft das auch nicht an die weiterentwicklung der spiele hängen ob nun 8gb reichen oder nicht. das hängt nur daran, ob genug gpus mit 12-16gb in den spielerechnern vertreten sind. dann wird die speichermenge genutzt.
anders ausgedrückt: gäbe es nur 4-6gb karten in den spielerechnern, dann bräuchte man auch nicht mehr vram! die entwickler nehmen was da ist. sind nur 2gb in den rechnern vorhanden dann reichen auch für bald erscheinende spiele auch 2gb. gäbe es auf den karten 32gb, dann bräuchten die spiele wohl bald 20-30gb vram.
Hakim
2020-06-18, 15:02:33
Geht das nicht nach was am meisten genutzt wird, um möglichst große Zielgruppe zu haben? Schaut man sich die Steam Daten an, macht man sich das Leben unnötig schwer wenn man an den 6gb und 8gb Besitzern vorbei entwickelt
Dural
2020-06-18, 17:48:57
Ist HBM eigentlich definitiv raus?
Ich komme mit dem kleinen PCB und den bis zu 384Bit / 24GB und 600mm2 + GPU nicht so klar.
Das muss auf diesen engen Platzverhältnissen ja der Horror sein. Dazu noch die 350W+ (Spannungsversorgung!!!) irgend was kann da nicht stimmen.
Edgecrusher86
2020-06-18, 18:05:01
https://abload.de/img/img_9281ebkouu2k7v.jpg
Also im Prinzip möglich mit GDDR und den Platzverhältnissen - hier die Zotac GTX 1080 Ti Mini mit 250-300W PT.
Anscheinend würde der VRAM ja nochmals deutlich näher an den Sockel heran rücken. Nur die V-förmige Aussparung würde nochmal einiges an Platz klauen.
E: HBM wäre natürlich optimal, auch für die Tatsache, dass man beidseitg Phasen platzieren könnte.
https://abload.de/img/nvidia-egx-a100-conve03jcn.jpg
A100 EGX
BiZiNiZz
2020-06-18, 18:12:55
An sich schon krass, wie zwar ewig viele Gerüchte im Umlauf sind, teils relativ Identisch. Aber eigentlich wissen wir über Gaming Ampere genau nichts, außer vielleicht der Kühler, der aber auch nur ein Konzept sein kann. Vielleicht kommt auch nVidia mit HBM über das komplette Lineup an, dank einem guten Deal mit Samsung. Wir wissen halt genau nicht:freak:
Troyan
2020-06-18, 18:22:12
Apropos Samsung, hier von gestern:
Unidentified Company Representative
And I think this is – that’s very helpful is – I think this is a related question on China. TSMC is a critical supplier to NVIDIA. If there was a political situation that developed, where NVIDIA was blocked from using TSMC. what’s NVIDIA’s wafer foundry contingency plan?
Colette Kress
Yes. So several years ago, probably more than five years ago, our path on creating multiple foundries or multiple foundry manufacturers was important to us. It was important to us from an enterprise risk standpoint. Enterprise risk that says often times in many different parts of the world, global conditions change, whether it be weather conditions, geopolitical, things change, and/or just basic over supply and demand with many of them changes.
Our thoughts on creating another foundry was an important part of that. Now keep in mind, it wasn’t an overnight decision, nor was it a something that we could put in place quickly. So over those years, we now have a dual overall fab support model. We use TSMC. We also use Samsung.
In many cases, we will take an architecture and we will work in terms of the development of that architecture with both fabs, we can and could choose to split an architecture across our fabs and not just have singly on one overall fab provider.
To be clear, TSMC is a great partner. They have been with us since the beginning of time. We truly appreciate that partnership. That partnership is not just focused on their machines and their ability to spit out chips, it is really understanding the processes and how they work. And we’re pleased to have now also built that with Samsung. And we have very similar, but a different partnership and a different process as it relates to overall Samsung.
https://seekingalpha.com/article/4354214-nvidia-corporation-nvda-management-presents-on-nasdaq-virtual-42nd-investor-conference?page=10
Dural
2020-06-18, 19:03:41
Das ist doch eine Pascal Karte, klar kleinere GPU und definitiv keine Spannungsversorgung für 350Watt+. Dazu fehlt links auch das Dreieck, der Aufbau wäre so auch nicht möglich.
Ich bin überrascht das dies noch nirgends aufgefallen ist.
BlacKi
2020-06-18, 19:06:04
Ich bin überrascht das dies noch nirgends aufgefallen ist.
doch hab ich schon mehrmals angemerkt. is aber egal.
Linmoum
2020-06-19, 13:00:03
2nd Gen NVIDIA TITAN
GA102-400-A1 5376 24GB 17Gbps
GeForce RTX 3090
GA102-300-A1 5248 12GB 21Gbps
GeForce RTX 3080
GA102-200-Kx-A1 4352 10GB 19Gbps
https://twitter.com/KkatCorgi/status/1273889616282521603
Irgendwie hoffe ich immer noch, dass die umhergeisternden Speichermengen einfach nur ein Fake sind.
robbitop
2020-06-19, 13:05:52
Für die Titan nur 17gt/s? Klingt merkwürdig.
Edgecrusher86
2020-06-19, 13:41:22
Niemals bekommt eine TITAN im Vollausbau 23,5% weniger Bandbreite als ein möglicher Ti-Ersatz, auch wenn sie einige Monate vor dieser erscheinen würde.
Ansonsten gäbe es höchstens einen möglichen Grund: 16Gb statt 8Gb zu verbauen, um so doppelseitig 24 Chips total zu sparen und sich hier 17 Gbps als das derzeitig mögliche Maximum heraus stellen würde.
In Anbetracht der Tatsache, dass bei TU bis hinunter zur 2060 [Ausnahmen 2080S und 2080 Ti 16 Gbps] und bei GP die X(P) und 1080 non Ti denselben Speicher je verbaut hatten, sieht solch eine Konstellation doch extrem unwahrscheinlich aus.
E: Anhand der Zahlen:
TITAN RTX zweite Gen : 816 GB/s
RTX 3090: 1008 GB/s
RTX 3080: 760 GB/s
Die TITAN hätte bei 23,6% mehr Einheiten nur 7,4% mehr Bandbreite als die 3080?!
BlacKi
2020-06-19, 14:20:09
die tabelle bei wccftech... i rofled hard.
AffenJack
2020-06-19, 14:44:00
Ansonsten gäbe es höchstens einen möglichen Grund: 16Gb statt 8Gb zu verbauen, um so doppelseitig 24 Chips total zu sparen und sich hier 17 Gbps als das derzeitig mögliche Maximum heraus stellen würde.
Genau davon würde ich da ausgehen. Ich glaube immernoch, dass der Ram eher eine Speziallösung (wie GDDR5X bei Micron) ist und den niemand sonst groß verwenden wird. Daher lohnt sich keine seperate Fertigung von 16Gb Chips.
BlacKi
2020-06-19, 14:52:03
Das ist doch eine Pascal Karte, klar kleinere GPU und definitiv keine Spannungsversorgung für 350Watt+. Dazu fehlt links auch das Dreieck, der Aufbau wäre so auch nicht möglich.
Ich bin überrascht das dies noch nirgends aufgefallen ist.
weiterführend hab ich diese gedanken:
ich wollte nochmals nachhaken was mir bei der ankündigung von ga100 aufgefallen ist, aber noch nicht angesprochen wurde.
wo sind die spannungswandler auf dem board? und was sind das für goldene dinger? sind das neuartige spannungswandler? oder einfach nur stromverbindungen so wie ich mir eigentlich denke?
könnte es sein, das wir auf den gamingkarten eine ähnliche lösung für das platzproblem sehen werden?
https://abload.de/thumb/gaagkld.png (https://abload.de/image.php?img=gaagkld.png)
Dural
2020-06-19, 15:46:16
Das ist die Spannungsversorgung.
Das sind Digitale SPW aus Silizium, gab es frühere relativ häufig auf ATI Karten oder auch auf Mainboards von zb. Abit und DFI.
Plötzlich sind die aber praktisch überall verschwunden, keine Ahnung wie so. Wahrscheinlich sehr teuer, aber wenn es um viel Leistung auf relativ wenig Platz geht wird es nach wie vor das beste sein.
EVGA 790i Ultra Digital PWM Edition:
https://www.youtube.com/watch?v=5jlo5mfwnjM
https://extreme.pcgameshardware.de/members/der8auer-albums-evga-790i-sli-ftw-digital-pwm-667-picture6359-evga-790i-sli-ftw-digital-pwm-8.jpg
BlacKi
2020-06-19, 16:15:48
wow, nice!
dann nehme ich alles zurück in bezug darauf dass das pcb zu klein für 350w wäre.
robbitop
2020-06-19, 16:54:22
Wobei ich mich frage, warum man sich ohne Not mit dem PCB so unter Druck setzt. Extra teure Sonderlösungen nur um alles besonders kurz zu machen? Der Vorteil erschließt sich mir zum jetzigen Zeitpunkt irgendwie nicht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.