Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
basix
2021-07-13, 15:48:28
Die noch kühlbare Power Density liegt nach Faustregel bei etwa 100W/cm2. Siehe CPUs (z.B. 7700K mit 126mm2) und GPUs (z.B. 5700 XT mit 251mm2, V20 mit 331mm2). Von Nvidias A100 gibt es 500W Derivate bei 826mm2.
Es ist nicht so, dass 500W nicht geht. Ich halte es bei Gaming-GPUs einfach für sinnfrei. Weil? Bei 300W wird man noch ~80% der Performance haben, ist viel einfacher zu kühlen und man benötigt nicht gleich ein neues Netzteil. Für die letzten 25% Performance weiss man hoffentlich die Regler zu bedienen.
Und es ist mir lieber, wenn die Enthusiasten hier dann manuell diese +25% OC betreiben anstatt dass der GraKa-Energieverbrauch des gesamten Marktes nach oben getrieben wird. Die meisten werden ihre GPU nämlich so betreiben: Default OOTB.
Skysnake
2021-07-13, 22:23:24
Also A100 SMX4 gibt es in manchen HPC Systemen bereits jetzt mit 500W. Die Systeme sind auch für 500W GPUs ausgelegt. Wenn ich mich recht erinnere sind einige auf bis zu 700W pro Beschleuniger ausgelegt. Also da wird in den nächsten Jahren noch einiges kommen.
iamthebear
2021-07-13, 22:29:18
1.) Die Frage ist immer, ob eine GPU die Leistungsaufnahme wirklich braucht oder ob diese bloß so hoch getrieben wurde, um in Benchmarks besser da zu stehen.
Im Fall von Ampere kann man locker 20% Verlustleistung sparen und verliert dabei < 5% Performance.
Was ist euch lieber:
.) Eine 400W Karte, von der ihr wisste, dass sie vom Kühlungskonzept, VRMs etc. auf 400W ausgelegt ist und ihr sie jederzeit auf gemütliche 300W runter takten könnt oder wohin auch immer ihr wollt und dort schön gemütlich und leise 10 Jahre übersteht.
.) Oder eine Karte, die von vornherein auf 300W konzipiert und an Billigskomponenten im Centbereich gespart wurde, wobei der Lüfter schon auf Anschlag läuft und die es kaum durch die Garantiezeit schafft.
Wenn die Karte die Verlustleistung wirklich braucht, weil sie einfach so viele Shader hat: Ja gut, dann braucht sie die Leistung eben. Wenn die Fertigung nicht mehr hergibt, dann können weder Nvidia noch AMD etwas daran ändern. Zaubern kann keiner. Da muss man halt eine Entscheidung treffen, ob man wirklich das Topmodell haben will, oder ob es nicht auch eine Karte im 500 Euro Bereich auch tut oder man überhaupt bei seiner alten Karte bleibt, wenn diese noch ausreicht.
2.) Das mit den 100W/cm² ist für CPUs mit fettem Kühlkörper, wo es darum geht die Hitze auf den Kühlkörper zu bringen ein guter Ansatz. Bei einer High End GPU im 600mm² Bereich würde ich allerdings eher auf die gesamte Verlustleistung schauen. Das ist immerhin noch eine PCIe Karte und das Problem ist hier weniger der DIE selbst, sondern, dass man die Hitze einfach nicht mehr vernünftig von der Karte weg bringt. Alles nach hinten raus blasen geht nicht mehr, alles was man im Gehäuse verteilt muss am Ende auch irgendwie raus und erhitzt z.B. Mainboard VRMs und die Platine der GPU grillt man irgendwann auch schon mit samt dem VRAM (was vor allem bei GDDR6X ein Problem ist, da der von sich aus schon ziemlich warm wird).
3.) RTX IO ist dazu da, um das Laden von der SSD zu beschleunigen, da Texturen von der GPU entpackt werden können, was die Ladezeiten verkürzt.
Falls der VRAM ausgeht, so ist es jedoch deutlich performanter die Daten über eine 16GB/s Verbindung in den RAM auszulagern statt dieser jedes Mal erneut mit 1-2GB/s (bei SATA SSDs oder Festplatten noch deutlich weniger) von der SSD zu laden und dann noch einmal neu entpacken zu müssen.
Generell denke ich, dass Technologien wie RTX IO nur auf Konsolen wirklich sinnvoll sind, da diese viel zu wenig RAM haben (16GB shared vs. 32GB RAM + 8GB VRAM am PC) und eine schwache CPU, jedoch eine relativ schnelle SSD. Ob es wirklich notwendig ist, weiß ich allerdings nicht. Bereits jetzt sind Spiele 100GB groß. Viel größer können die Texturenpakete auf Konsolen nicht mehr werden, sonst passt bald nur mehr 1 Spiel auf die SSD und man muss jedes Spiel sofort wieder deinstallieren, wenn man ein anderes spielen will.
4.) Der Preis von GDDR6X liegt schätze ich irgendwo im Bereich von 3-5 Euro/GB. 8GB mehr zu verbauen wäre kostenmäßig nicht das Ende der Welt. Das Problem ist, dass Nvidia den VRAM zur Produktsegmentierung nützt. Wer die Karten professionell nutzt und den VRAM wirklich braucht, der muss sich eine 3090 holen. Wer nur normal spielt und mit 10GB genug hat, der kann sich eine 3080 holen.
Thunder99
2021-07-13, 22:38:23
Keine deiner Varianten.
Und 10GB sind heute schon nicht genug. Erst ab 12GB kannst du sorgenlos spielen (wenn es die Neusten sind und RT max.).
Bei Lovelace braucht man über 10 oder 12GB nicht mehr nachzudenken. 12GB wär sicherlich allenfalls noch was für die 4060, das wars dann aber auch.
Screemer
2021-07-13, 22:47:36
Bei Lovelace braucht man über 10 oder 12GB nicht mehr nachzudenken. 12GB wär sicherlich allenfalls noch was für die 4060, das wars dann aber auch.
die wette machst du sicher ohne nvidia.
Hat bei Pascal ja auch geklappt.
=Floi=
2021-07-13, 23:53:39
kennst du das wenn der vram ausgeht und die texturen nachgeladen werden?
mich fuckt das jeden tag den ich COD CW spiele ab und ich habe 8gb! Die 10 texturen für den battlepass brauchen gute 5 sek von einer ssd. :ugly:
Nur ist das in deiner theorie schön und gut, aber es ist zu langsam! Nur was im VRAM ist, passt. Man könnte jetzt schon genug im ram vorhalten. Macht man auch nicht.
BlacKi
2021-07-14, 02:40:03
mich fuckt das jeden tag den ich COD CW spiele ab und ich habe 8gb! Die 10 texturen für den battlepass brauchen gute 5 sek von einer ssd. :ugly:
Nur ist das in deiner theorie schön und gut, aber es ist zu langsam! Nur was im VRAM ist, passt. Man könnte jetzt schon genug im ram vorhalten. Macht man auch nicht.das problem ist nicht der vram. das problem hast du auch mit 24gb, das texturen nachgeladen werden. keine ahnung woran genau das liegt, aber das nachladen zu optimieren ist besser als einfach blind vram draufzuschmeißen, das hilft nämlich nur beim 2 laden. beim ersten laden hast du mit 8gb genau den gleichen ladefehler wie mit 24 oder 48 gb. nicht umsonst muss man mit viel vram erstmal eine runde rumfahren/laufen um überhaupt auslastung zu bekommen. und beim ersten laden spielt es keine rolle, ob 8 oder 24gb. beim spielstart wird nicht alles gleich in den vram geladen.
wichtig ist, dass das texturen nachladen problemlos funktioniert. wenn es das tut, dann funktioniert es auch mit 8gb.
-/\-CruNcher-/\-
2021-07-14, 05:19:12
1.) Die Frage ist immer, ob eine GPU die Leistungsaufnahme wirklich braucht oder ob diese bloß so hoch getrieben wurde, um in Benchmarks besser da zu stehen.
Im Fall von Ampere kann man locker 20% Verlustleistung sparen und verliert dabei < 5% Performance.
Was ist euch lieber:
.) Eine 400W Karte, von der ihr wisste, dass sie vom Kühlungskonzept, VRMs etc. auf 400W ausgelegt ist und ihr sie jederzeit auf gemütliche 300W runter takten könnt oder wohin auch immer ihr wollt und dort schön gemütlich und leise 10 Jahre übersteht.
.) Oder eine Karte, die von vornherein auf 300W konzipiert und an Billigskomponenten im Centbereich gespart wurde, wobei der Lüfter schon auf Anschlag läuft und die es kaum durch die Garantiezeit schafft.
Wenn die Karte die Verlustleistung wirklich braucht, weil sie einfach so viele Shader hat: Ja gut, dann braucht sie die Leistung eben. Wenn die Fertigung nicht mehr hergibt, dann können weder Nvidia noch AMD etwas daran ändern. Zaubern kann keiner. Da muss man halt eine Entscheidung treffen, ob man wirklich das Topmodell haben will, oder ob es nicht auch eine Karte im 500 Euro Bereich auch tut oder man überhaupt bei seiner alten Karte bleibt, wenn diese noch ausreicht.
2.) Das mit den 100W/cm² ist für CPUs mit fettem Kühlkörper, wo es darum geht die Hitze auf den Kühlkörper zu bringen ein guter Ansatz. Bei einer High End GPU im 600mm² Bereich würde ich allerdings eher auf die gesamte Verlustleistung schauen. Das ist immerhin noch eine PCIe Karte und das Problem ist hier weniger der DIE selbst, sondern, dass man die Hitze einfach nicht mehr vernünftig von der Karte weg bringt. Alles nach hinten raus blasen geht nicht mehr, alles was man im Gehäuse verteilt muss am Ende auch irgendwie raus und erhitzt z.B. Mainboard VRMs und die Platine der GPU grillt man irgendwann auch schon mit samt dem VRAM (was vor allem bei GDDR6X ein Problem ist, da der von sich aus schon ziemlich warm wird).
3.) RTX IO ist dazu da, um das Laden von der SSD zu beschleunigen, da Texturen von der GPU entpackt werden können, was die Ladezeiten verkürzt.
Falls der VRAM ausgeht, so ist es jedoch deutlich performanter die Daten über eine 16GB/s Verbindung in den RAM auszulagern statt dieser jedes Mal erneut mit 1-2GB/s (bei SATA SSDs oder Festplatten noch deutlich weniger) von der SSD zu laden und dann noch einmal neu entpacken zu müssen.
Generell denke ich, dass Technologien wie RTX IO nur auf Konsolen wirklich sinnvoll sind, da diese viel zu wenig RAM haben (16GB shared vs. 32GB RAM + 8GB VRAM am PC) und eine schwache CPU, jedoch eine relativ schnelle SSD. Ob es wirklich notwendig ist, weiß ich allerdings nicht. Bereits jetzt sind Spiele 100GB groß. Viel größer können die Texturenpakete auf Konsolen nicht mehr werden, sonst passt bald nur mehr 1 Spiel auf die SSD und man muss jedes Spiel sofort wieder deinstallieren, wenn man ein anderes spielen will.
4.) Der Preis von GDDR6X liegt schätze ich irgendwo im Bereich von 3-5 Euro/GB. 8GB mehr zu verbauen wäre kostenmäßig nicht das Ende der Welt. Das Problem ist, dass Nvidia den VRAM zur Produktsegmentierung nützt. Wer die Karten professionell nutzt und den VRAM wirklich braucht, der muss sich eine 3090 holen. Wer nur normal spielt und mit 10GB genug hat, der kann sich eine 3080 holen.
Gerade da liegt aber doch das immense Potenzial eben Hardware Komplexität weiter zu reduzieren und somit auch einen höheren User reach zu haben und Ressourcen einzusparen oder anderweitig zu verteilen.
https://abload.de/img/noargumentdgkf9.jpg
30Super is one step in Jensen's smooth upgrade to Ada Lovelace.
https://twitter.com/kopite7kimi
aufkrawall
2021-07-15, 11:47:54
Würde mich sehr wundern, wenn die Karten mit genug VRAM nicht direkt mit Wucher-MSRPs auf den Markt gelassen werden.
BlacKi
2021-07-15, 13:57:50
hat die 2070S, hat die 2080s mehr speicher gehabt? wenn die super modelle im nächsten jahr erscheinen, mit oder ohne vram upgrade, dann verschiebt sich next ampere nach hinten. wenn die dieses jahr noch kommen, dann glaub ich noch an next ampere 2022.
Lehdro
2021-07-15, 15:10:07
Die 2060S hatte mehr Speicher, war auch bitter nötig. Genauso wie jetzt eben alles unter 10 GiB, siehe 3060 vs 3060 Ti/3070/Ti mit RT.
Geldmann3
2021-07-17, 02:41:07
In letzter Zeit höre ich in der Gerüchteküche immer wieder, dass die RTX 4000 Serie doppelt so schnell werden soll wie die RTX 3000er Serie.
Kann mir irgendjemand erklären, wie das klappen soll, mit Samsungs 5nm?
Ich kann mir mit einem großen Chip maximal +60% errechnen, das wäre aber schon bei über 400W Leistungsaufnahme und mit phänomenalen IPC Sprüngen. Eher würde ich von Samsungs 5nm deutlich weniger erwarten.
Neosix
2021-07-17, 04:11:14
Das ist auch Blödsinn am Ende. Nvidia hat bei Turing zu Ampere z.B. auch angegeben die RT Leistung würde um 300% steigen. Am Ende, nach unabhängigen Tests war es nur etwa +80%. Klar die 300% werden sicherlich in irgend einem Theoretischem Szenario unter Einsatz von DLSS auch erreicht. Haben in der Praxis jedoch keine Relevanz. "Nackt" konnte die Leistung unterm Strich nicht mal verdoppelt werden. Ich wette wir werden hier am Ende wieder bei +50% bestenfalls landen. Auch wenn AMD jetzt Druck macht und weiter Einheiten verdoppelt, die Leistungsaufnahme verdoppeln können auch sie nicht. Dazu bringen die aktuellen Shrinks auch selbst viel weniger Sparpotenzial als früher.
=Floi=
2021-07-17, 04:29:29
In letzter Zeit höre ich in der Gerüchteküche immer wieder, dass die RTX 4000 Serie doppelt so schnell werden soll wie die RTX 3000er Serie.
Von Horn? :D
Ich denke für RTX kann das wirklich zutreffen. Was am ende davon der gamer hat steht auf einem anderen blatt.
Die aktuellen architekturen sind so effizient, dass sie nur noch über die leistungsaufnahme skalieren. Ich finde das noch immer faszinierend.
Es zählen nicht die einheiten, sondern wie viel die karte verbrauchen darf.
Nightspider
2021-07-17, 06:00:12
Dachte horn faselt nur bei AMD Hardware realitätsfremdes Zeug?
Thunder99
2021-07-17, 10:52:39
320/350W sind für mich nicht effizient. Wenn es jetzt noch mehr wird sehe ich es als sehr problematisch an.
Die P/W mag zwar gut sein, aber zu welchem absoluten Preis?
DavChrFen
2021-07-17, 17:28:20
https://www.techpowerup.com/284612/samsung-exynos-2200-soc-built-on-4-nm-packs-faster-rdna2-gpu
Ist das in irgendeiner Form relevant für Lovelace/Hopper oder dann erst für den Nachfolger?
BlacKi
2021-07-17, 17:33:31
ist denn 5nm tsmc schon ausgeschlossen?
Piefkee
2021-07-17, 17:53:49
ist denn 5nm tsmc schon ausgeschlossen?
Die meistens Leaks meinen es sei N5 von TSMC für AMD und Nvidia…ob Nvidia zurück von Samsung auf TSMC geht bezweifle ich persönlich. Dafür ist Samsung zu blillig und TSMC zu teuer
BlacKi
2021-07-17, 18:17:25
ich glaube nicht daran das tsmc teurer ist als samsung. das man gaming ampere nicht auf 7nm gebracht hat und nur den A100 auf tsmc gelassen hat, hat vermutlich kapazitäts gründe. wenn NV aus seinen fehlern gelernt hat, dann hat sich NV rechtzeitig 5nm kapazitäten gesichert. die 3080/90 war nicht wirklich viel billiger durch samsungs prozesse. der höhere verbrauch treibt einen rattenschwanz hinter sich her. wäre GA102 in 7nm gekommen, hätte man wohl bei 270w-300w bleiben können, und wäre wohl auch kleiner als navi21.
-/\-CruNcher-/\-
2021-07-17, 18:23:05
Das macht alles keinen Sinn der Plan war sicherlich von Anfang an AMD mit ihrem Sparse/Raytrace approach zu schlagen, dabei die Kosten der Hardware zu reduzieren (dabei TSMC gleichzeitig zu zeigen, wir können auch anders) und die insgesammte Skalierung weiter dabei auf die RT/Tensor Cores zu verschieben die Interoperabilität mit den AMD Konsolen gewährleisten und gleichzeitig die Dominanz über ihr Raytracing über derer zu halten.
Alles sehr eindeutig am Produkt Endergebniss zu sehen.
BlacKi
2021-07-17, 18:37:27
das macht keinen sinn, denn tsmcs 7nm ist nicht so furchtbar teuer, wenn man die gespartefläche und die einsparungen am board und kühlung mit reinnimmt. soviel billiger kann samsung nicht sein, das man 50-80w extra stromverbrauch in kauf nimmt. nicht nvidia.
-/\-CruNcher-/\-
2021-07-17, 18:40:57
Dieser extra Stromverbrauch existiert mit DLSS nicht er wird kompensiert was auch klar darauf hindeutet, dass es mit einberechnet worden ist.
BlacKi
2021-07-17, 18:42:18
fuck, er trollt mich nur...
-/\-CruNcher-/\-
2021-07-17, 18:52:12
denk was du willst
Nightspider
2021-07-17, 21:25:36
das macht keinen sinn, denn tsmcs 7nm ist nicht so furchtbar teuer, wenn man die gespartefläche und die einsparungen am board und kühlung mit reinnimmt. soviel billiger kann samsung nicht sein, das man 50-80w extra stromverbrauch in kauf nimmt. nicht nvidia.
Man macht das ja auch um die Konkurrenz von TSMC etwas zu stärken. TSMC hat fast ein Monopol an der Spitze und lässt sich das eben auch gut bezahlen.
Langfristig ist es gut Samsung zu stärken und TSMC etwas Druck zu nehmen.
Und GA102 ist mit 628mm² recht groß. Kann mir schon vorstellen das der gleiche Chip bei TSMC 40-50 Euro mehr gekostet hätte.
BlacKi
2021-07-17, 21:40:46
Man macht das ja auch um die Konkurrenz von TSMC etwas zu stärken. TSMC hat fast ein Monopol an der Spitze und lässt sich das eben auch gut bezahlen.
Langfristig ist es gut Samsung zu stärken und TSMC etwas Druck zu nehmen.
Und GA102 ist mit 628mm² recht groß. Kann mir schon vorstellen das der gleiche Chip bei TSMC 40-50 Euro mehr gekostet hätte.
du wirst mir aber zustimmen das der chip in 7nm wohl erheblich kleiner geworden wäre als in 10nm++, das verrechnet sich in etwa, weil man auch deutlich an den vrm boardlayout und kühlung sparen kann. und bei 700-1500€ sind das kaum mehrkosten absolut gesehen. der nachteil bleibt mit hohem verbrauch und hitze. ich kann mir nicht vorstellen das eine firma diese nachteile absichtlich inkauf nimmt. das ist aus der not geboren. nicht geplant. deshalb glaub ich an 5nm tsmc. natürlich räume ich ein, das ich mich irren kann. tsmc könnte auch einfach amd favorisieren. so wie ich es dachte, als nv praktisch alles bei tsmc machen ließ.
Zossel
2021-07-17, 21:46:37
Generell denke ich, dass Technologien wie RTX IO nur auf Konsolen wirklich sinnvoll sind, da diese viel zu wenig RAM haben (16GB shared vs. 32GB RAM + 8GB VRAM am PC) und eine schwache CPU, jedoch eine relativ schnelle SSD. Ob es wirklich notwendig ist, weiß ich allerdings nicht. Bereits jetzt sind Spiele 100GB groß. Viel größer können die Texturenpakete auf Konsolen nicht mehr werden, sonst passt bald nur mehr 1 Spiel auf die SSD und man muss jedes Spiel sofort wieder deinstallieren, wenn man ein anderes spielen will.
Wollt Ihr ewig im RAM-Limit spielen?
Oder ineffiziente Architekturen teuer mit Ressourcen übertünchen?
Langlay
2021-07-17, 22:48:47
tsmc könnte auch einfach amd favorisieren. so wie ich es dachte, als nv praktisch alles bei tsmc machen ließ.
Derjenige der das meiste Geld da lässt ist der King. Zur Zeit ist das natürlich eher AMD als Nvidia. Aber wenn Nvidia die Brieftasche nur weit genug aufmacht ist das nichts was sich nicht ändern kann. Ist halt die Frage ob man das will.
TSMC kriegt ihre Wafer schon unter den Mann, klaro willste niemand vor den Kopf stossen, aber wenn die Nachfrage hoch und die Konkurrenz klein ist, werden sie halt auch ihre Marge optimieren.
ChaosTM
2021-07-17, 23:08:36
Das ist kein Bazar, wo der Meistbietende kurzfristig den Zuschlag bekommt. Das gibt es Dinge wie "Verträge". ;)
Nvidia wird sich sicher alle Optionen offen halten, aber warum sollte man Samsung den Rücken kehren ? Die haben wahrscheinlich mehr freie Kapazitäten als TSMC. Wie wichtig es ist liefern zu können zeigt(e) die CPU Situation.
Man hält mit Ampere immer noch den gleichen Marktanteil, obwohl AMD mit RDNA2 abseits von RTRT und DLSS praktisch aufgeschlossen hat.
BlacKi
2021-07-18, 01:12:16
schon klar. aber wenn man schon 2019 verträge mit nv gemacht hat für 5nm, eben weil das mit 7nm so schief ging(aka nicht genug kapazitäten bekommen), dann würde ich mich drum kümmern dass das mit 5nm in der next gen nicht wieder vorkommt.
-/\-CruNcher-/\-
2021-07-18, 01:50:05
Nvidia verlor den GPU Lawsuit gegen Samsung, daraufhin ist man sich ein wenig entgegengekommen.
Allerdings nur bis zu dem Punkt als Nvidia dann ARM schlucken wollte war das erstmal vorbei.
Für den HPC Ampere Chip war Samsung nie eine Option für den Pro/Consumer Ampere die Gelegenheit.
Jensen ist und bleibt ein Genie, wenn es um solche strategischen Entscheidungen geht.
Er wusste, dass die Nvidia PRO/Consumer Desktop User den Mehrverbrauch schlucken werden, weil die Raytracing Performance höher ausfallen würde und zeitgleich hat er damit lukrativ noch bei den Netzteilen mit abgesahnt.
Die einzigen die Richtig verarscht worden sind 3070 TI aufwärts da ist die Balance einfach richtig im Arsch durch die Samsung Entscheidung.
Aber wie gesagt als Normal Raster Gamer kann man jederzeit den Verbrauch auf oldshool level mit DLSS balancieren, weil DLSS nicht nur nach vorne (mehr Performance) sondern auch rückwärts (Strom sparen) funktioniert , wenn man die Framerate locked.
Nvidias Cluster Trainings Gewinn geht in beide Richtungen zu nutzen.
Nightspider
2021-07-18, 02:13:28
du wirst mir aber zustimmen das der chip in 7nm wohl erheblich kleiner geworden wäre als in 10nm++, das verrechnet sich in etwa, weil man auch deutlich an den vrm boardlayout und kühlung sparen kann. und bei 700-1500€ sind das kaum mehrkosten absolut gesehen. der nachteil bleibt mit hohem verbrauch und hitze. ich kann mir nicht vorstellen das eine firma diese nachteile absichtlich inkauf nimmt. das ist aus der not geboren. nicht geplant. deshalb glaub ich an 5nm tsmc. natürlich räume ich ein, das ich mich irren kann. tsmc könnte auch einfach amd favorisieren. so wie ich es dachte, als nv praktisch alles bei tsmc machen ließ.
Bezüglich der Flächenskalierung zwischen Samsung 8nm und TSMC 7nm hab ich ehrlich gesagt gerade keine Ahnung aber ja, würde mich nicht wundern wenn der Chip bei TSMC eventuell 10-20% kleiner gewesen wäre.
Die Sache ist halt auch:
Nvidia war jahrelang im Vorteil und die können, wie man sieht, selbst verkrüppelte 10GB Karten für 1000 Euro verkaufen und verkaufen enorm viel 1500 Euro Grafikkarten.
OBWOHL die Karten hätten besser sein können.
Und wenn jetzt NV etwas bei Samsung spart und langfristig einen Plan B (Samsung Partner B) neben TSMC hat, dann ist das in mehreren Hinsichten gut, nicht nur weil man kurzfristig etwas Geld spart.
Ich kann mir auch vorstellen das Nvidia jetzt, wo AMD Druck macht, die Highend Karten wieder bei TSMC fertigen lassen will (vielleicht ab 4nm?).
Nvidia wird auch ein Chiplet-Design anstreben und wenn NV dann günstig viele Chiplet Tiles bei Samsung fertigen lassen kann, dann kommt man am Ende vielleicht auch auf viel Leistung für wenig Produktionskosten.
Samsung ist ja gar nicht so schlecht dabei kleine Chips zu fertigen.
Oder man lässt halt alles rauf bis zur RTX5060 oder 5050 als monolithische Chips günstig von Samsung fertigen und die highend Karten bekommen ihre Chiplets von TSMC. Wer weiß.
ChaosTM
2021-07-18, 02:32:30
Oven-Jensen ist in der Tat ein Marketing Genie. Aus Anlegersicht liebe ich den Mann, aber seine double/multiple dipping Strategie in letzter Zeit ist extrem nervig für anspruchsvolle Gamer, die nicht jedes Jahr neue Hardware kaufen wollen.
BlacKi
2021-07-18, 02:44:00
das bezweifle ich hart. stellt euch mal vor, amd und nv gamings chips würden die prozesse tauschen, und das wäre der fall, wenn nv die kapazitäten bei tsmc bekommen hätte. dann stünde man mit 275w der 3090 mit 450mm²tsmc der 6900xt mit 350-370w mit 750mm² in samsungs 10++ gegenüber. glaubt ihr ernsthaft, jensen macht diesen tausch um dann mit dem schlechteren prozess 20$ marge mehr zu machen(geschätzte werte)? wenn das so wäre, würde ich ihn als verrückt erklären.
es geht hier nicht um 3090 in 7nm vs 3090 10nm++, sondern um 3090 10nm++ vs 6900xt 7nm und umgekehrt. beide können nicht in ausreichender kapazität produziert werden. jensen hat den kürzeren gezogen. fertig.
-/\-CruNcher-/\-
2021-07-18, 02:44:38
@ChaosTM
Jensen sieht das ganz Pragmatisch "Du willst Porsche fahren auf dem PC dann zahl auch ordentlich" ansonsten zahl vernünftig und komm ein wenig über die Konsolen Audi Brand anstellle von Volkswagen Brand ;)
ChaosTM
2021-07-18, 02:47:43
Jensen sieht das ganz Pragmatisch "Du willst Porsche fahren auf dem PC dann Zahl ordentlich" ansonsten Zahl vernünftig und komm ein wenig über die Konsolen (Audi) Brand anstellle von Volkswagen Brand ;)
Jensen verkauft Porsches mit 10 Liter Tanks ;)
-/\-CruNcher-/\-
2021-07-18, 02:50:29
*ROFL* :D
Wie gesagt auf dem Armaturenbrett gibt es noch den Öko Button ;)
Allerdings kann der auch ab und zu klemmen bzw. nicht so consumer convenient den auch immer drücken zu können :D
Kannst aber ja auch ne rote Kappe draufschrauben dann sollte es immer klappen mit dem Öko Mode allerdings wohl nicht so effizient gibt es leider noch keine Tests, die sich die FSR Kappe Reverse anschauen und wie das Einsparungspotential eigentlich aussieht ;)
ChaosTM
2021-07-18, 02:55:43
Die LOD Verkrüppelung von Cyberpunk 77 kommt nicht von ungefähr. Mit einem VRAM Pool von 10Gb ist einfach nicht mehr machbar.
"The way it`s meant to be played " :D
Nightspider
2021-07-18, 03:37:05
das bezweifle ich hart. stellt euch mal vor, amd und nv gamings chips würden die prozesse tauschen, und das wäre der fall, wenn nv die kapazitäten bei tsmc bekommen hätte. dann stünde man mit 275w der 3090 mit 450mm²tsmc der 6900xt mit 350-370w mit 750mm² in samsungs 10++ gegenüber. glaubt ihr ernsthaft, jensen macht diesen tausch um dann mit dem schlechteren prozess 20$ marge mehr zu machen(geschätzte werte)? wenn das so wäre, würde ich ihn als verrückt erklären.
es geht hier nicht um 3090 in 7nm vs 3090 10nm++, sondern um 3090 10nm++ vs 6900xt 7nm und umgekehrt. beide können nicht in ausreichender kapazität produziert werden. jensen hat den kürzeren gezogen. fertig.
Wir werden es wahrscheinlich nie genau erfahren.
Gut möglich das seit 2019, wo die Kapazitäten für N7 aufgeteilt waren, die IHVs begonnen haben schon eher größere Mengen zu bestellen so das TSMC im Vorraus schon die Fabriken ausbauen kann. Wenn NV, AMD, Intel und Apple 2019 schon riesige Bestellungen für 2022/2023 aufgegeben haben, dann wäre das die Erklärung für die 100Mrd Großinvestition seitens TSMC. Dann sind die Kunden aber auch verpflichtet die Kapazitäten zu nehmen.
Mit Glück für uns Konsumenten gibts in 2-2,5 Jahren ein Überangebot. Da wird gerade so scheiße viel Geld in den Halbleitermarkt gepumpt das es zwangsläufig zu einem Schweinezyklus kommen müsste und durch Chiplet Designs beider IHVs werden wir in grob 2,5 Jahren sicherlich auch deutlich interessantere Grafikkarten bekommen.
Zumindest gibt es dann nicht mehr der Ausrede von schlechterer Yieldrate für große und teure Grafikchips, wenn man auch 2-4 Chiplets zusammenschalten kann. Davon haben wir früher ja immer geträumt zu SLI Zeiten. :)
=Floi=
2021-07-18, 04:32:15
das macht keinen sinn, denn tsmcs 7nm ist nicht so furchtbar teuer, wenn man die gespartefläche und die einsparungen am board und kühlung mit reinnimmt. soviel billiger kann samsung nicht sein, das man 50-80w extra stromverbrauch in kauf nimmt. nicht nvidia.
Samsungs prozess ist verfügbar und das war wohl auch wichtig. Bei TSMC würde man anstehen und mit samsung kann man skalieren.
Wenn dann auch noch der preis besser ist, sehe ich das nicht so dramatisch. Auch die nächste gen wird von denen kommen. Man hat sich jetzt auf samsung festgelgt.
Den mehrverbrauch spinnst du dir zusammen. Es gibt keine belege und je mehr die architektur mit SPs zugeballtert wird, desto mehr braucht sie strom. Wahrscheinlich ging NV deswegen die jahre davor so sparsam mit den shadereinheiten um, weil diese saufen wie eine horde wikinger.
Du musst auch mal bedenken, dass zb eine 2070S nur 2560SPs hat und eine 3080ti über 10000SPs.
Heute lastet man diese einheiten auch richtig aus im vergleich zu früher.
Die teuren profi chips sind viel stärker selektiert und auf effizienz gebinnt. Diese karten laufen mit erheblich weniger spannung.
DavChrFen
2021-07-18, 20:28:41
Ist das eigentlich schon gesichert, dass NV auf Chiplets geht? Halte ich nach wie vor für unwahrscheinlich.
Neurosphere
2021-07-18, 21:50:15
Ist das eigentlich schon gesichert, dass NV auf Chiplets geht? Halte ich nach wie vor für unwahrscheinlich.
Für Lovelace (Ampere next) vermutlich nicht, für Hopper (HPC) vermutlich.
Leonidas
2021-07-21, 08:43:53
nVidia's Hopper will tape-out soon
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-juli-2021
Langlay
2021-07-21, 16:22:49
Das ist kein Bazar, wo der Meistbietende kurzfristig den Zuschlag bekommt. Das gibt es Dinge wie "Verträge". ;)
Du kannst aber davon ausgehen, wenn diese Verträge verhandelt werden geht es zu wie auf dem Bazar.
Und ich hab ja auch nichts von Kurzfristig gesagt.
Leonidas
2021-07-23, 11:03:11
GH100 Hardware-Daten teilweise bestätigt. Plus schönes (inoffizielles) Block-Diagramm:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-juli-2021
https://www.3dcenter.org/dateien/abbildungen/User-made-block-diagram-of-nVidia-GH100.png
Edgecrusher86
2021-07-24, 11:23:58
Laut Greymon55 soll NV für AD zu 100% auf TSMC 5nm setzen - sicher ist er aber nicht, ob N5 oder N5P.
https://videocardz.com/newz/nvidia-geforce-rtx-40-ada-lovelace-series-design-allegedly-finalized-using-tsmc-5nm
Troyan
2021-07-24, 13:41:40
5nm TSMC für HPC/AI und Samsung für Gaming. Die werden ihre Zwei-Fabrik Strategie nicht aufgeben.
fondness
2021-07-24, 14:16:55
5nm TSMC für HPC/AI und Samsung für Gaming. Die werden ihre Zwei-Fabrik Strategie nicht aufgeben.
Naja, bisher war es ja eigentlich HPC/AI und High-End-Gaming TSMC und Lowend Samsung. Bei Ampere ist das wohl eher aus der Not geboren, würde mich also nicht wundern, wenn High-End Gaming in Zukunft wieder von TSMC kommt. Zumal natürlich die TSMC Prozesse einfach besser sind.
Edgecrusher86
2021-07-24, 14:30:50
Man kann ja durchaus auch wieder zweigleisig im Desktop-Markt fahren, etwa 102+104er bei TSMC und 106+107 bei Samsung.
Oder zumindest den 102er bei TSMC und den Rest bei Samsung.
E: Bei TSMC sollten die Kapazitäten auch etwas steigen - 100 Mrd. USD für die nächsten drei Jahre stehen für neue fabs an.
Troyan
2021-07-24, 14:33:30
Fabriken kosten Milliarden aufzubauen. Investitionen in die Architektur liegt dagegen in den Händen von nVidia. Mit Samsung kann man deutlich mehr GPUs produzieren wie man auch aktuell sieht.
Leonidas
2021-07-24, 15:03:26
Das ist eine Frage, wie rechtzeitig man sich Kapazitäten sichert. Mit Samsung ist man ja seitens NV eigentlich überhaupt nicht zufrieden. Da hatte man keine Konkurrenz um Kapazitäten und AMD hingegen stand voll auf dem Schlauch - und Samsung konnte trotzdem nicht ausreichend liefern.
Troyan
2021-07-24, 15:04:52
Woher kommen solche Aussagen? nVidia ist zufrieden mit Samsung - sei es von den Kapazitäten wie auch von der Ausbeute. Ampere hat auch keinen weiteren Respin benötigt, sondern wurde ebenfalls innerhalb von vier Monate von Tape-Out bis Verkauf gebracht.
Und die Quartalszahlen im Gaming-Bereich geben nVidia recht.
aufkrawall
2021-07-24, 15:05:03
Lag das nicht eher am Mining-Hype?
BlacKi
2021-07-24, 15:13:01
Mit Samsung kann man deutlich mehr GPUs produzieren wie man auch aktuell sieht.sehen kannst du daran garnichts. denn nv ist nur zu tsmc, weil sie sie kapazitäten nicht bekommen haben. IMHO notgedrungen.
bei tsmc hätte man bessere gpus produzieren lassen können. und samsung ist nicht halb so teuer, samsung ist nicht deutlich billiger. tsmcs 7nm ist pro gate gerechnet sogar nur 6,2% teurer als tsmcs 16nm. früher war es normal, das der kleinere prozess eigentlich billiger war. und jetzt legt man ein paar prozent mehr drauf wenn man den besten prozess haben will.
ich würde sogar behaupten, dass das fertige produkt bei tsmc billiger wäre, als wenn man man es bei samsung fertigen lassen würde.
und nv ging nur zu samsung, weil sie bei tsmc nicht rechtzeitig kapazitäten reserviert haben.
Troyan
2021-07-24, 15:18:21
nVidia produziert bei Samsung, weil man sich vor Jahren für eine zwei Herstellerstrategie entschieden hat. Daher kann nVidia schneller wachsen als AMD, die ja laut einigen hier anscheinend soviel Kapazitäten bei TSMC haben.
TSMC wird noch Jahre ausgebucht sein. Das hat nichts mit reservieren zu tun. Wenn man wachsen will, muss man auch die Kapazitäten haben. Und TSMC als einzigen Anbieter von modernen Nodes wird zum massiven Risiko für eine Firma wie nVidia.
Leonidas
2021-07-24, 15:27:19
Kopite7kimi: GH100 and AD10X are based on TSMC5.
https://twitter.com/kopite7kimi/status/1418884426289885190
PS: Inhaltlich habt Ihr alle Recht. Auch ich würde jederzeit zuerst auf Samsung tippen.
Thunder99
2021-07-24, 15:34:03
Ihr schießt alle gegen Samsung, dass deren Prozess ja so schlecht ist. Gibt es da irgendwelche Beweise oder ernsthafte Anhaltspunkte?
Oder reden wir da von 50W oder +/-200MHz? Ich behaupte es liegt primär am Speicherinterface mit GDDR6X. Ein Beispiel gibt es ja mit der 3070(TI).
Troyan
2021-07-24, 15:37:48
Weil niemanden irgendwas mehr interessiert. Samsungs 8nm Prozess ist von der Effzienz nicht schlechter als der 7nm Prozess von TSMC. Einzig die Packdichte unterscheidet sich deutlich, aber hier hat AMD trotz großen Cache ja nicht geglänzt.
Linmoum
2021-07-24, 15:46:44
Ihr schießt alle gegen Samsung, dass deren Prozess ja so schlecht ist. Gibt es da irgendwelche Beweise oder ernsthafte Anhaltspunkte?Guck dir Turing und Ampere an. Die 3070 ist genauso schnell wie eine 2080Ti, die Effizienz (Perf/Watt) ist aber nur um ~25% gestiegen. Das ist einfach nicht gut für den Nodeunterschied.
Trollyans Behauptung, dass Samsung 8nm auf einem Niveau mit N7 von TSMC ist, ist daher mal wieder trollig. Wobei, wenn er das annimmt, müsste er andererseits eingestehen, dass der in Relation geringe Effizienzgewinn an Ampere liegt und Nvidia mit Ampere ineffizienter geworden ist.
Thunder99
2021-07-24, 15:50:55
Hast du einen Gegenbeweis? Es sind alles Mutmaßungen. Einzig mit der 3070(TI) haben wir Daten.
Im Vergleich zur 2080Ti ist meine Meinung es liegt mehr an der Architektur anstelle von Prozess.
vinacis_vivids
2021-07-24, 17:12:47
Die Effizienz ist von Turing auf Ampere weniger als 25% gestiegen.
3070 ~ 220W ~ 77,5fps -> 2,84 W/fps
2080Ti ~ 250W ~ 76,4fps -> 3,27 W/fps
https://tpucdn.com/review/gigabyte-geforce-rtx-3070-ti-gaming-oc/images/average-fps_3840-2160.png
Es sind gerade mal 15% Effizienzsteigerung.
Was sehr gut gestiegen ist, die die Packdichte von 12nm auf 8nm. Von großer Effizienzsteigerung kann keine Rede sein.
ZeXes
2021-07-24, 20:13:22
Kopite7kimi: GH100 and AD10X are based on TSMC5.
https://twitter.com/kopite7kimi/status/1418884426289885190
PS: Inhaltlich habt Ihr alle Recht. Auch ich würde jederzeit zuerst auf Samsung tippen.
Seitdem er den Bullshit mit dem Lovelace Switch Soc gelabert hat, glaube ich dem Typen kein Wort mehr. Einer der vielen Pseudo-Twitter Leaker. Da steckt meist nie viel dahinter.
Zu mal es kein Wild guess ist das Hopper in 5nm bei TSMC für HPC erscheinen wird.
Der Gaming Chip wird schon aus Kostengründen bei Samsung in voraussichtlich '5nm' gefertigt werden.
BlacKi
2021-07-24, 20:44:31
also kurz gesagt, man versucht das monolitische lovelace zu finalisieren, falls das schiefläuft, kommt hopper mit mcm :freak: ob das für beides gilt, hpc und gaming? oder kommt hopper so oder so in mcm für hpc und für gaming steht das noch offen?
wird die namensgebung nur durch mcm vs monolitisch unterschieden? oder könnte man sogar noch weiter gehen, das hopper = lovelace+mcm? kommt die 4000er reihe wenn lovelace klappt früher, als wenn man hopper nimmt? hat lovelace schon tapeout hingelegt, wenn hopper bald taped?
soviele fragen:freak:
The_Invisible
2021-07-24, 22:15:29
Die LOD Verkrüppelung von Cyberpunk 77 kommt nicht von ungefähr. Mit einem VRAM Pool von 10Gb ist einfach nicht mehr machbar.
"The way it`s meant to be played " :D
Welche LOD-Verkrüppelung? Des Game rennt in 4k nativ/max mit meiner 3080 Ti unter 20fps, was helfen dann einstellige Frameraten?
Geldmann3
2021-07-24, 22:17:43
Ich vermute das RTX 4000 Topmodell kommt Q4 2022 oder Q1 2023 für 1999$ MSRP, verbraucht rund 400 Watt und verdoppelt dabei knapp die Performance der RTX 3090, mit TSMCs 5nm.
BlacKi
2021-07-24, 23:24:03
Ich vermute das RTX 4000 Topmodell kommt Q4 2022 oder Q1 2023 für 1999$ MSRP, verbraucht rund 400 Watt und verdoppelt dabei knapp die Performance der RTX 3090, mit TSMCs 5nm.
die titan rtx hat 2800€ gekostet. schockieren würden sie damit niemanden, ausser leute die sich echauffieren wollen.
reaperrr
2021-07-24, 23:52:31
Samsungs 8nm Prozess ist von der Effzienz nicht schlechter als der 7nm Prozess von TSMC.
Äh, naja, das ist nun doch etwas sehr optimistisch.
Sogar Samsung selbst, die nicht gerade fürs Tiefstapeln bekannt sind, geben für 8LPP nur ~10% weniger Verbrauch bei gleichem Takt gegenüber 10LPP an, und keine Perf/Taktverbesserung bei gleichem Verbrauch (die wird da sein, aber zu niedrig um damit werben zu können).
Zum Vergleich: Bei TSMC wird schon für N7 40% weniger Verbrauch bei gleichen Specs (Takt u. Transistoren), bzw. 20% mehr Perf (Takt oder Transistoren bei gleichem Verbrauch) ggü. deren 10nm angegeben.
Und RDNA2 wird in N7P gefertigt, der nochmal 10% mehr Effizienz bei gleichem Takt oder 7% mehr Takt bei gleichem Verbrauch erlaubt.
Also ich würde schon sagen, dass Ampere in N7P mindestens ~15-20% mehr Takt bei gleichem Verbrauch, oder ähnliche Taktraten bei ~25-30% geringerem Verbrauch erreicht hätte, oder halt ne Kombi daraus (10% mehr Takt, 15% weniger Verbrauch oder sowas). Durch das zu lange Taktieren und Zuspätkommen bei TSMC hat Nvidia mMn bei Ampere schon einen deutlicheren Sieg gegen RDNA2 verschenkt.
Dass die Verfügbarkeit dann vielleicht noch schlechter gewesen wäre, steht auf einem anderen Blatt.
also kurz gesagt, man versucht das monolitische lovelace zu finalisieren, falls das schiefläuft, kommt hopper mit mcm ob das für beides gilt, hpc und gaming? oder kommt hopper so oder so in mcm für hpc und für gaming steht das noch offen?
Tippe auf Letzteres, bzw. eher umgekehrt.
Man schiebt Lovelace als risikolosere Weiterentwicklung der Gaming-Ampere ein, um mehr Zeit für die Chiplet-Gaming-Hopper (oder wie auch immer die Gaming-Architektur von Hopper heißen wird, tippe ja eher darauf, dass Hopper wie Volta nur HPC ist und ne Gaming-spezifische Weiterentwicklung erst [deutlich] später unter anderem Namen kommt) zu haben.
Wäre nicht überrascht, wenn es jetzt auch bei NV zwischen HPC und Gaming immer weiter auseinander geht.
A100 hat ja auch nicht wirklich die gleiche Architektur wie die Gaming-Ampere (allein schon, weil die zusätzlichen FP32-ALUs je SM fehlen).
Lovelace wird IMO mehr GamingAmpere++ (ein + für 5nm, eines für Architekturverbesserungen), und der Nachfolger wird dann lose auf Hopper aufgebaut, mit Gaming-spezifischen Verbesserungen und in 4 oder 3nm.
Leonidas
2021-07-25, 05:25:53
Einer der vielen Pseudo-Twitter Leaker.
"Pseudo"-Leaker, der im Mai 2019 die gesamte Ampere-Gen vollkommen korrekt beschrieben hat:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-mai-2020
Troyan
2021-07-25, 10:27:08
Äh, naja, das ist nun doch etwas sehr optimistisch.
Sogar Samsung selbst, die nicht gerade fürs Tiefstapeln bekannt sind, geben für 8LPP nur ~10% weniger Verbrauch bei gleichem Takt gegenüber 10LPP an, und keine Perf/Taktverbesserung bei gleichem Verbrauch (die wird da sein, aber zu niedrig um damit werben zu können).
Zum Vergleich: Bei TSMC wird schon für N7 40% weniger Verbrauch bei gleichen Specs (Takt u. Transistoren), bzw. 20% mehr Perf (Takt oder Transistoren bei gleichem Verbrauch) ggü. deren 10nm angegeben.
TSMC redet genauso viel Marketing. Q855 war ca. 15% effzienter als Q845. Und Qualcomm hat Q855 breiter gebaut und niedriger getaktet - 17% weniger Takt mit 50% mehr Ausführungseinheiten: https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/3
Die nehmen sich nicht viel auf Transistorebene. Aber die Packdichte erlaubt breitere Architekturen mit niedriger Taktung.
Thunder99
2021-07-25, 10:32:50
Am Ende wird es wohl an Architektur bzw Betriebspunkt und Prozess sein :wink:
Wenn sie beim Nachfolger wieder <300W gehen wäre das sehr zu begrüßen.
robbitop
2021-07-25, 12:15:47
Naja gerade was Power angeht scheinen aktuell die Samsung Prozesse nicht äquivalent zu den TSMCs zu sein. Das hatte Anandtech anhand der Leistungsaufnahme von einem A55 Core ermittelt. N7, N5 und Samsungs 5nm. Da lag Samsungs 5nm auf dem Niveau von TSMCs N7 und der N5 lag signifikant vorn.
Von der Dichte mag es hinkommen. Aber Power ist eben schon auch sehr wichtig.
Ampere in N7 wäre sicherlich ein Stück energieeffizienter gewesen. Aber der Fertigungsprozess ist eben nur die andere Seite der Medallie - die uArch die andere.
Mit Maxwell sah man das IMO am extremsten. Bei gleichem Fertigungsprozess wie Kepler deutlich energieeffizienter.
Mal sehen wie hoch die Kosten für die Energieeffizienz sind, wenn man bei GPUs anfängt Chiplets zu implementieren. :) RDNA3 soll ja darauf setzen.
Dank Info LSI scheint der Hit ggf relativ überschaubar zu sein. Wird dann sicherlich nicht uninteressant welche Prozesse für welches Chiplet genutzt werden und ob die Caches gestapelt werden und wie ein IO Chiplet an ein Compute Chiplet angebunden wird. Zu teuer darf das Package nicht werden.
Wenn man das kosteneffzient in der Griff bekommt (gilt für alle IHVs) ist nochmal ein Stück mehr drin. Interessante Zeiten IMO.
Mal sehen ob man dann auch mal reine edram Chiplets (braucht spezielle Fertigungsprozesse bringt dafür aber eine vielfach höhere Speichersichte als sram) sehen wird.
Troyan
2021-07-25, 13:17:48
Es geht um die GPUs. Der Sprung von 8nm auf 5nm bei Samsung ist deutlich größer als von TSMCs 7nm auf 5nm: https://www.anandtech.com/show/16463/snapdragon-888-vs-exynos-2100-galaxy-s21-ultra/6
nVidia kann also bei Samsung bleiben und deutlich mehr mitnehmen als AMD.
basix
2021-07-25, 13:56:00
Ich denke nicht, dass Nvidia für GL10x auf TSMC zurückwechselt. Eher bekommen sie bei Samsung einen TSMC N12 alike Custom Prozess von Samsung. Der sollte Perf/W sowie allfällige Yield Probleme verbessern und man sollte deutlich mehr Kapazität zu günstigeren Preis bei TSMC erhalten. Evtl. erreicht man damit nicht TSMCs N5P, aber extrem weit hinten wird man damit nicht liegen. Nvidias Stärke liegt hier immer noch in der Architektur.
AMD hätte aber dennoch zwei Vorteile: N5P und Chiplets. Vor allem letzteres würde AMD erlauben, deutlich mehr Silizium beim Top End Chip zu verwenden. Und das ist bezüglich max. Performance einfach ein Vorteil (breiter aber tiefer getaktet und somit energieeffizienter)
Nightspider
2021-07-28, 22:07:13
Ich wusste jetzt nicht genau wohin mit der Frage:
Gibts zwischen den Modellen und auch zwischen den IHVs noch große Unterschiede was die Polygonleistung betrifft? Ist man da noch großartig limitiert bei effizienten Engines?
Hab das Gefühl das seit Jahren kaum noch über die Anzahl der Polygone usw gesprochen wird.
Bei Ratchet & Clank Rift Apart hab ich gar das Gefühl das Figuren quasi schon perfekt aussehen.
Wäre irgendwie cool wenn man bei NextGen Spielen beispielsweise mehr "echte" runde Steine usw herumliegen hätte, da ist mittlerweile ja noch viel gefaked bei der Umgebung. Was da bisher noch eher gebremst hat war wohl die Anzahl der Draw Calls und damit die API und CPU.
Wird man bei der Spieleentwicklung noch durch die Polygonleistung gebremst oder sind das dann wirklich eher die Draw Calls?
Edgecrusher86
2021-07-30, 14:48:41
https://abload.de/img/screenshot2021-07-3013bjri.jpg
https://videocardz.com/newz/next-gen-flagship-gpus-nvidia-ad102-and-amd-navi31-might-both-draw-more-than-400w-of-power#disqus_thread
Nichts Neues im Grunde.
Hm, also ich weiß ja nicht, aber die bisherigen Prognosen erscheinen doch viel zu hoch zu sein.
RDNA3 ~ 2,7x RDNA2 und AD102 ~ 2,2x, selbst mit 60WGP (15360SP) und 144SM (18432CC) und je TSMC N5(P) plus z.B. 50% verbesserte Effizienz auf die Vorgänger-Generationen.
Dann bräuchte auch AMD locker 450W TGP und NV sicherlich 50-75W mehr, sollte man wieder auf G6X setzen.
Bei solchen Verbrauchswerten sind AiOs für die Referenzkarten eigentlich Pflicht, sollen es keine 3 bis 3,5 Slot-Monster werden.
Mal eine ganz grobe Rechnung:
AMD RDNA3 -> + 170% auf RDNA2 -> Boost durch Einheiten +110% (60 WGP) auf die Straße gebracht (3x SPs verbaut) - Taktratenboost + 30% (3 GHz zu ~ 2,3 GHz der RX 6900XT).
NV AD102 -> + 120% auf GA102 -> Boost durch Einheiten + 60% auf die Straße gebracht (+ 71% verbaut) - Taktratenboost + 40% (2,5 GHz zu ~ 1,8 GHz der RTX 3090).
Nahe liegend wäre doch eigentlich, dass man, um die Effizienz im neuen Prozess massiv zu steigern neben sehr großen Caches und massiv Einheiten wäre die beste Methode sicher niedrige Taktraten
[z.B. max. 10% Mehrtakt] und entsprechend geringe Spannungen. Also mehr oder weniger 50-70% Mehrleistung auf die aktuelle Generation bei ähnlichen Power-Budgets fände ich sinnvoller -
am liebsten maximal 300W TGP auf beiden Seiten. Mehr ist höchstens im Winter angenehm. :D
Man muss ja auch bedenken, dass zu schnelle Karten gar nicht im Sinne der Hersteller sein dürfen - das Groß der Gamer würde bei über doppelter Leistung doch sogar zwei Generationen aussetzen und nicht eine.
Da müsste man schon seitens der Devs mit extremen RT-Einsatz entgegen wirken - aber im Prinzip bleibt die gemeinsame Basis ja PS5 & Series X - also kann man auch nicht übertreiben,
denn dann wäre auch mithilfe FSR nur 4K30 machbar [optional vielleicht noch einen 4K60 Performance-Mode exkl. RT]. Gut, hier wären natürlich eine PRO und Gegenpart möglich in zwei oder drei Jahren.
Bezüglich MSRPs erwarte ich $/€ 1499 für das AMD-Topmodell "7900XT(X)" und $/€ 1749-1999 bei NV für die RTX 4090 - was die Straßenpreise betrifft: Bestimmt wieder + $/€ 500-1000; wenn das mal schickt.
Ich zitiere mich einmal selbst - die Schätzungen finde ich ziemlich übertrieben - sehe eigentlich auch keinen Sinn darin, dass die IHVs nun eine Mehrleistung höher als je zuvor fahren sollten (Ausnahmen sind vielleicht G80 oder TU vs. GP bei RT); gerade im Bezug auf die Konsolen(-ports).
Die generelle Entwicklung finde ich auch nicht gut. Lieber 300W TGP und 10-15% weniger Leistung, als einen Ofen zu haben. Gut, zumindest kann man ja noch Hand anlegen, aber dennoch - das müsste nicht ab Werk sein.
Thunder99
2021-07-30, 17:40:52
>400W Leistungsaufnahme, ne klar :ucrazy2::ucrazy3:
Da wird ja Ampere ja wieder interessant... :freak:
Ich werde nicht müde zu betonen, dass ich mein aktuelles System mit einem 500W Netzteil betreibe, ohne OC :wink:
dargo
2021-07-30, 17:46:23
Neue Heizungen incoming. ;D Echt nur noch albern die GPU-Entwicklungen wenn das wirklich zutrifft.
ZeXes
2021-07-30, 18:57:09
Scheint so als würde NVIDIA annehmen, dass AMD mit RDNA3 der große Wurf gelingen würde, sodass man jetzt noch versucht das Maximale aus den vorhandenen herauszuholen. Zur Not zu Lasten des Verbrauchs.
Schön anzusehen, dass AMD wieder NVIDIA Paroli bieten kann. Wenn jetzt intel es noch schaffen würde konkurrenzfähige Grafikkarten auf den Markt zu bringen, dann umso besser für den Konkurrenzkampf.
BlacKi
2021-07-30, 19:08:09
450-500w? also alles beim alten^^ und da wäre auch noch mehr drin.
https://youtu.be/ve6_ZLDJgqI?t=63
woher wollen die wissen in welche tdp die karte geschnürt wird?
Linmoum
2021-07-30, 19:09:52
Naja, MCM war früher oder später absehbar bei beiden. Der Zeitpunkt ist natürlich das spannende an der der Geschichte. Sicher möglich, dass NV nicht so früh damit gerechnet hat, da nach aktuellen Gerüchten Lovelace ja noch monolithisch sein soll. Das wäre auf jeden Fall ein ziemlicher Nachteil. Sowohl was u.a. Yields, als auch die maximale Performance nach oben hin angeht
DavChrFen
2021-07-30, 21:42:11
Aber man hat doch jetzt schon Probleme die Einheiten auszulasten. Ich kann mir nicht vorstellen, dass das mit Chiplets besser wird. Kann also sein, das aktuell monolithisch ein Vorteil ist. Vor allem bei kleinen Auflösungen.
Felixxz2
2021-07-31, 00:31:18
Die sind natürlich hoch relevant bei 2000$ GPUs :freak:
Sieht atm schon danach aus, als ob AMD dieses mal am ganz großen Rad dreht.
(Gilt sowohl für NV als auch AMD, ich pack das einfach mal hier in den Faden weil hier ja grad so schön über die 400+ Watt diskutiert wird.)
Deutlich gesteigerte Leistungsaufnahmen der 5nm Top Dog Chips und was uns sonst noch darüber aus Leaks bekannt ist - lass uns (ja, du und ich, wir beide) doch einfach mal rein ins Blaue spekulieren, um zu sehen welches gedankliche Bild sich damit malen lässt. Ich male und schreibe, und du ließt und kommentierst wenn dir was Schlaues dazu einfällt, OK?!
Also, loß geht's, und ich versetze mich jetzt einfach mal in die Position von NV bzw AMD hinein (jaja, ein ordentlicher Sack Größenwahn gehört da schon dazu um so eine Position glaubwürdig auszufüllen; ich gebe mein Bestes):
Teil 1 - Grundlagen
Mein Geschäftsmodell ist das Replacement-Modell. Ich möchte meinen Kunden gerne alle 2...3 Jahre eine neue Graphikkarte verkaufen, auch wenn es die alte durchaus noch tut (um es mal mit Pispers Worten auszudrücken).
Dafür gibt es jedes zweite Jahr eine neue Graphikchip Generation auf dem jeweils besserem Prozess-Node, welche natürlich jeweils aussreichend an Performance zulegen muss um den Käufern entsprechend attraktiv zu erscheinen.
Und mithilfe von Chip-Refresh gibt es jedes andere zweite Jahr eine neue Graphikkarten Generation, die dem Käufer vor allem vor allem durch ein besseres Performance/Preis Verhältnis schmackhaft gemacht wird.
Im Gegensatz zu früher (in den guten alten Zeiten) reichen aber die Möglichkeiten die die jeweils aktuellen Prozess-Nodes jeweils so bieten (vor allem in Performance/Watt Verbesserungen und höheren Taktraten) für die angestrebten jährliche Performance-Verbesserungen bei Weitem nicht mehr aus.
Desweiteren befinde ich mich aber auch noch in einer angespannten Wettbewerbssituation mit einem potenten Wettbewerber, und kann mir daher keine Schwächen im eigenen Portfolio erlauben.
Auch sollte ich versuchen das leistungsstärkere Spitzenmodell hinzubekommen, weil die Performance-Krone dem Käufer gegenüber eine Kompetenzführerschaft suggeriert, und sich dadurch positiv auf die Wahrnehmung der eigenen Marke, des kompletten eigen Portfolios, und damit letztendlich auf Absatz und Marktanteil auswirkt.
Teil 2 - Vergangenheit bis zur Gegenwart / die letzten Jahre
Mein erster Schritt ist also die Taktraten per Architektur und Chipdesign hochzutreiben (über das was die neuen Prozess-Nodes jeweils mit sich bringen), um so die benötigten Performance-Gewinne zu generieren. Das bedingt zwar eine höhere Leistungsaufnahme, geht aber bezüglich Chipfläche und damit Produktionskosten noch halbwegs kostenneutral über die Bühne.
Mein zweiter Schritt sind Architekturverbesserungen mit dem Ziel von verbesserter Datenlokalität, um so dem Anstieg der Leistungsaufnahme entgegenzuwirken.
Genau das ist die letzten Jahre passiert, und inzwischen sind hier leider die leicht bis mittelschwer erreichbaren Früchte alle abgepflückt.
Teil 3 - Gegenwart & Planung der 5nm Chip Generation
Darunter muss wohl mindestens eine Zitrone gewesen sein, und wenn ich die schon mal in der Hand habe, dann nicht zögern sondern sogleich herzhaft zubeißen.
Also folgt der dritte Schritt: Performance generieren durch Chipfläche(n) stark erhöhen und Shader-Anzahl explodieren lassen. Das führt aber sowohl zu stark steigenden Kosten als auch zu stark steigender Leistungsaufnahme quer durch das gesamte Portfolio, und das wiederum wird meinen Kunden nicht besonders schmecken. Stellt sich die Frage: Wie denen das am besten verkaufen?
Architekturverbesserungen und Taktratenerhöhung stehen natürlich nach wie vor auf dem Programm, doch die erzielten Verbesserungen werden nun leider komplett von den Skalierungsnachteilen der erhöhten Shader-Anzahl aufgefressen.
Auch ist bald der 5nm FinFet Prozess erreicht, und danach kommt mit 3nm FinFet der letzte FinFet Prozess vor der Ablösung durch GaaFet. Die Vergangenheit (20nm planar) hat gezeigt dass der letzte Prozess einer Transistor-Technologie gerne die letzten Reserven irgendwie zusammenkratzt, und deshalb gerne mal hitzköpfig daherkommt. Ich muss also damit rechnen, dass 3nm FinFet für Graphikchips ggf nicht ganz so gut geeignet ist, oder im schlimmsten Fall analog zu 20nm planar gar komplett übersprungen werden muss. Bis GaaFet für grosse Graphik-Chips oder mittelgrosse Graphik-Chiplets einsetzbar ist kann es dauern, 5nm FinFet könnte also 3...4 Jahre durchhalten müssen.
Also stelle ich folgenden Plan für meine 5nm Chipgeneration auf:
Mit der 5nm Chipgeneration werden nicht nur eine sondern zwei Refresh Generationen bedient, und sogar eine dritte Refresh Generationen steht als eiserne Reserve bereit.
Das verteilt auch die Entwicklungskosten der 5nm Chips auf mehrere Jahre als bisher üblich, und hilft mit der Kostenproblematik.
Sobald die Industrie (Smartphone SOC Hersteller), auf 3nm FinFet wechselt werden 5nm FinFet Kontingente frei. Damit sollte sich für die zweite Lebenshälfte der 5nm Chips deutlich bessere Produktionskosten mit den Foundries aushandeln lassen.
Solange ein besserer Prozess zur Verfügung steht, ist als für mich immer kritisch, aus Kostengründen auf dem alten Prozess zu bleiben, da die Gefahr besteht dass der Wettbewerber dies ausnützt und auf den neuen Prozess wechselt. Wenn der neue Prozess aber für Graphik-Chips wenig taugt, kann ich relativ risikolos auf dem alten Prozess zu bleiben, da der Wettbewerber dies wahrscheinlich genauso handhabt.
Um aus der 5nm Chipgeneration 2 bis 3 Refreshes herausholen zu können, muss der Top-Dog so richtig hoch angesetzt werden. Also entspricht der 5nm Vize-Dog in etwa dem 7/8nm Top-Dog plus dem normaler Zwei-Jahres-Generations-Schritt. Und dann wird noch der 5nm Top-Dog als ganz neue Performanceklasse noch oben drauf gepackt.
Ziel zum Launch der 5nm Chipgeneration ist nicht, den Top-Dog auch wirklich zu verkaufen. er dient primär anderen Zwecken (etwa analog der Strategie die NV seit Jahren mit dem Titan Label fährt):
a) Wenn der eigene Top-Dop vor dem des Konkurrenten liegt, wirkt sich das beim Kunden positiv auf die Wahrnehmung des kompletten 5nm Portfolios aus, und damit entsprechend auf den Absatz bzw den eigenen Marktanteil.
b) Der Top-Dop trägt ein irrwitziges Preisschild von (Zahl hier frei zu Illustrations-Zwecken erfunden) 4000 EUR, und ein unerhörtes Leistungslabel von (Zahl hier wieder frei zu Illustrations-Zwecken erfunden) 500 Watt. Damit werden die Kunden schon einmal unbewusst darauf vorbereitet, dass Preise und Leistungsaufnahme in den nächsten Jahren deutlich anziehen werden. Ein Kunde der mit sowas überrascht wird reagiert deutlich kritischer und rebellischer als einer der das schon von Weiten hat kommen sehen.
c) Der Top-Dop erfüllt die verkaufs-psychologische Rolle der teuren Alternative. Das kennen wird ja aus dem Supermarkt: neben der billigeren Hausmarke liegt gerne die teuere Herstellermarke. Im Vergleich erscheint dem Kunden die Hausmarke dann deutlich attraktiver als wenn keine teuere Alternative daneben liegen würde.
Oder hier als Illustration (wieder mit völlig fiktiven Zahlen): Eine Midrange Karte für 499 EUR, 300 Watt, 300 Performance Punkten erscheint gegenüber einem Top Dog mit 4000 EUR, 500 Watt, 500 Performance Punkten deutlich attraktiver als gegenüber einem Top-Dop mit "nur" 1000 EUR, 400 Watt, 400 Performance Punkten.
Die wenigen Kunden die bereit sind für den Top-Dop den initial aufgerufenen Preis hinzublättern, werden natürlich gerne bedient.
Der Top-Dop wird erst mit der zweiten Refresh-Generation, also etwa 2 Jahre nach Start der 5nm Grahikkarten, mit für Käufer erträglichem Preisschild in den gewollten Verkauf entlassen (analog wie die NV Titan Karten nach einem Jahr als xx80Ti Karten mit gleichem Chip aber deutlich reduziertem Preisschild). Bis dahin haben sich voraussichtlich auch die 5nm Yield weiter verbessert und der 5nm Prozess ist in billiger verfügbar.
In den Refresh Generationen müssen die Kunden dann mit zunehmend steigender Leistungsaufnahme konfrontiert werden um damit die Performancezunahme zu ermöglichen, aber das kann per Salami-Scheiben-Taktik gut an den Gamer gebracht werden.
Hier als Illustration (wieder mit völlig fiktiven Zahlen):
Eine Midrange Karte erscheint initial für 499 EUR, 300 Watt, 300 Performance.
Nach einem Jahr erscheint der 1. Refresh mit 499 EUR, 333 Watt, 333 Performance.
Da denkt sich der Kunde: "Na 33 Watt mehr machen das Kraut nun auch nicht fett", und das Angebot sieht im Vergleich zum Vorjahres-Angebot attraktiv aus.
Nach einem weiteren Jahr erscheint der 2. Refresh mit 499 EUR, 366 Watt, 366 Performance.
Wiederum denkt sich der Kunde: "Na 33 Watt mehr machen das Kraut nun auch nicht fett", und das Angebot sieht im Vergleich zum Vorjahres-Angebot attraktiv aus.
Und wenn es sein muss, erscheint nach einem weiteren Jahr der 3. Refresh mit 499 EUR, 399 Watt, 399 Performance. Und wiederum ...
Wenn ich mir Chiplets technologisch leisten kann, dann sollte ich die von Anfang an bringen, wenn das irgendwie möglich ist. Erst mit GaaFet auf Chiplets umzustellen ist ungünstig spät, und mitten im der 5nm Phase umzustellen ist kostentechnisch extrem ungünstig.
Yupp, die Puzzlestücke scheinen zusammenzupassen und der Plan könnte so funktionieren.
P.S. Das ist eine reine Gedankenübung zu Spekulationszwecken - sie enthält keinerlei Aussage meinerseits inwieweit es so kommen könnte oder vielleicht halt auch doch ganz anders
ChaosTM
2021-07-31, 08:52:07
Die Kurzform: 10GB High End Grakas sind/waren schon obsolet als sie auf den Markt kamen. CP77.. cough. Wegen diesen Krüppeln haben wir das grausliche LOD Problem. The way it's meant to be played. :D
ZeXes
2021-07-31, 09:32:08
Nach einem weiteren Jahr erscheint der 2. Refresh mit 499 EUR, 366 Watt, 366 Performance.
Wiederum denkt sich der Kunde: "Na 33 Watt mehr machen das Kraut nun auch nicht fett", und das Angebot sieht im Vergleich zum Vorjahres-Angebot attraktiv aus.
Und wenn es sein muss, erscheint nach einem weiteren Jahr der 3. Refresh mit 499 EUR, 399 Watt, 399 Performance. Und wiederum ...
So ein Spielchen kannst du nur bis zu einem gewissen Punkt spielen. Irgendwann hat alles seine Grenzen und die Kunden sind nicht mehr bereit solche Karten zu erwerben.
Ich halte ja 400W für High End Karten als das absolute Maximum. Mehr kannst du eigentlich fast keinen mehr erklären und der Kreis der Interessenten wird signifikant sinken.
Ich persönlich bin bei diesen Wattzahlen schon lange raus. Maximal 300W. Mehr nicht.
The_Invisible
2021-07-31, 09:36:39
Die Kurzform: 10GB High End Grakas sind/waren schon obsolet als sie auf den Markt kamen. CP77.. cough. Wegen diesen Krüppeln haben wir das grausliche LOD Problem. The way it's meant to be played. :D
Wie oft wiederholst das noch und wo trifft es zu bitte?
Wie gesagt, in CP77 hat man in 4k nativ so 20fps herum bevor irgendein Speicher limitiert, willst da noch mehr Details reinpacken damit es mit 10fps rennt?
seaFs
2021-07-31, 10:24:43
So ein Spielchen kannst du nur bis zu einem gewissen Punkt spielen. Irgendwann hat alles seine Grenzen und die Kunden sind nicht mehr bereit solche Karten zu erwerben.
Ich halte ja 400W für High End Karten als das absolute Maximum. Mehr kannst du eigentlich fast keinen mehr erklären und der Kreis der Interessenten wird signifikant sinken.
Ich persönlich bin bei diesen Wattzahlen schon lange raus. Maximal 300W. Mehr nicht.
Das ist doch bereits seit G80 der Fall. Klar, eine 8800GTX hat 180W geworfen, High End war dennoch SLI mit 2 oder gar 3 Karten, was dann 360W und mehr entspricht. Mit Fermi wurde High Ende noch hungriger. Da MultiGPU vom Hersteller nicht mehr entwickelt wird, steht sozusagen das Leistungsbudget von zwei alten Grafikkarten im HighEnd Rechner einer einzigen neuen Karte zur Verfügung. Energetisch hat sich damit nicht viel verändert und der ATX-Standard passt sich eh dem elektrischen Verbraucher an.
ChaosTM
2021-07-31, 12:28:46
Wie oft wiederholst das noch und wo trifft es zu bitte?
Wie gesagt, in CP77 hat man in 4k nativ so 20fps herum bevor irgendein Speicher limitiert, willst da noch mehr Details reinpacken damit es mit 10fps rennt?
10GB laufen schon bei 1800p voll. Gerade wieder probiert. Mehr lasst die Engine nicht zu. Warum wohl? Es ist wirklich so einfach. CP hätte ein weit besseres LOD ohne diese Einschränkungen und bei der Auflösung ist es noch gut spielbar. 10GB sind einfach ein Scherz für eine High End(ige) Karte und nicht zukunftstauglich. Kundenverarsche und Double Dipping at its best.
Unter 1800p geh ich selten. 1440 müsste ich mir extra anschaun.
The_Invisible
2021-07-31, 13:01:28
10GB laufen schon bei 1800p voll. Gerade wieder probiert. Mehr lasst die Engine nicht zu. Warum wohl? Es ist wirklich so einfach. CP hätte ein weit besseres LOD ohne diese Einschränkungen und bei der Auflösung ist es noch gut spielbar. 10GB sind einfach ein Scherz für eine High End(ige) Karte und nicht zukunftstauglich. Kundenverarsche und Double Dipping at its best.
Unter 1800p geh ich selten. 1440 müsste ich mir extra anschaun.
Unter 1800p nativ mit max Details/RT hast du nicht mal 30fps mit einer 3080, was soll da spielbar sein? Wennst schon auf Speicher herumreiten willst nimm wenigstens Minecraft RTX oder Youngblood als Beispiel, in CP77 limitiert auf jeden Fall die GPU vorher.
Ändert aber nichts an der Aussage das viel öfter einfach die GPU Leistung limitiert statt Speicher, sieh dir mal The Ascent an.
Ansonsten einfach eine 3090 kaufen und gut ist ; )
dargo
2021-07-31, 18:39:04
Das ist doch bereits seit G80 der Fall. Klar, eine 8800GTX hat 180W geworfen, High End war dennoch SLI mit 2 oder gar 3 Karten, was dann 360W und mehr entspricht. Mit Fermi wurde High Ende noch hungriger. Da MultiGPU vom Hersteller nicht mehr entwickelt wird, steht sozusagen das Leistungsbudget von zwei alten Grafikkarten im HighEnd Rechner einer einzigen neuen Karte zur Verfügung. Energetisch hat sich damit nicht viel verändert und der ATX-Standard passt sich eh dem elektrischen Verbraucher an.
Dieser Vergleich ist ziemlicher Quatsch. Bei SLI hast du die Wärmeabgabe auf mehrere Karten bzw. Kühler verteilt. Das ist das Hauptproblem bei Lukü und nicht der Verbrauch als solcher. Wie lang sollen diese spekulierten Karten @400+W werden? 400mm mit 2,5-3kg Gewicht? :freak:
ChaosTM
2021-07-31, 19:10:13
Unter 1800p nativ mit max Details/RT hast du nicht mal 30fps mit einer 3080, was soll da spielbar sein? Wennst schon auf Speicher herumreiten willst nimm wenigstens Minecraft RTX oder Youngblood als Beispiel, in CP77 limitiert auf jeden Fall die GPU vorher.
Ändert aber nichts an der Aussage das viel öfter einfach die GPU Leistung limitiert statt Speicher, sieh dir mal The Ascent an.
Ansonsten einfach eine 3090 kaufen und gut ist ; )
Für CP77 mit RT gibts das wirklich tolle DLSS. Damit ist es perfekt spielbar, nur eben mit beschissenem LOD.
Für mich und alle die die Karte länger als 2 Jahre verwenden wollen und Augenschonende Auflösungen bevorzugen, ist diese einfach wertlos. Perfekts Marketing von der backenden Lederjacke, das muss man ihm lassen. ;)
Und ich will ja eine 3090er, nur eben nicht um > 2K. 1750 ist mein virtuelles Limit.
wolik
2021-07-31, 20:00:01
400+ ist kein Problem. Es geht doch um MCM?, und weniger zu erwarten wäre nicht seriös. Schon jetzt mit DLSS werden Spiele (The Ascent, Chernobylite) kaum Leistung verbrauchen, was bedeutet kein Strom ziehen. Bis jetzt gibt es kein einziges Spiel, das mehr als 40Tflops (3090) in 4K benötigt. Vielen Dank an DLSS. 8K ist (selbst für mich) kaum interessant. Es gibt noch viele Probleme zu lösen.
Ich hoffe die Geschichte wie einst bei Titan RTX wiederholt sich nicht. Goldenes Regal Blei.
TheAntitheist
2021-07-31, 20:42:32
Für CP77 mit RT gibts das wirklich tolle DLSS. Damit ist es perfekt spielbar, nur eben mit beschissenem LOD.
Für mich und alle die die Karte länger als 2 Jahre verwenden wollen und Augenschonende Auflösungen bevorzugen, ist diese einfach wertlos. Perfekts Marketing von der backenden Lederjacke, das muss man ihm lassen. ;)
Und ich will ja eine 3090er, nur eben nicht um > 2K. 1750 ist mein virtuelles Limit.
mit direct Storage kann erst mal den VRAM verbrauch, falls die Devs es richtig einsetzen, drastisch senken.
BlacKi
2021-07-31, 21:04:54
mit direct Storage kann erst mal der VRAM verbrauch, falls die Devs es richtig einsetzen, drastisch sinken.
das wird ein key feature um grafikkartenpreise in zukunft nicht explodieren zu lassen. so wie damals die leute bei dlss skeptisch waren und jetzt aufgrund der verbreitung und der verbesserung des features praktisch keiner mehr in frage stellt. perf/quali ist auf jeden fall ein gewinn.
ChaosTM
2021-07-31, 21:07:54
Direct Storage wird die PCs endlich zu den (ach so grindigen) Konsolen aufschließen lassen.
Erschreckend, dass MS das noch nicht in 10 eingebaut hat, aber wie soll man Windows 11 sonst an die Mann*in (scnr) bringen?
dargo
2021-07-31, 21:32:40
400+ ist kein Problem. Es geht doch um MCM?, und weniger zu erwarten wäre nicht seriös. Schon jetzt mit DLSS werden Spiele (The Ascent, Chernobylite) kaum Leistung verbrauchen, was bedeutet kein Strom ziehen. Bis jetzt gibt es kein einziges Spiel, das mehr als 40Tflops (3090) in 4K benötigt. Vielen Dank an DLSS.
Die Logik erschließt sich mir nicht. Wenn DLSS der heilige Gral ist... ähm, die Lösung für die hohen Verbräuche, wieso bringt dann NV beim Nachfolger so einen Heizofen?
ChaosTM
2021-07-31, 21:45:40
Balkenlänge..
Man hat Angst, dass AMDs "Balken" etwas länger sein könnte und vice versa. Daher die idiotischen Stromverbräuche bei NV und AMD..
Wie effizient eine moderne GPU sein kann zeigen die mobile 3070er oder 3080er. Letztere kommt mit 90 Watt sehr nahe an eine 3060 Desktop mit 170Watt heran.
Badesalz
2021-07-31, 21:59:09
das wird ein key feature um grafikkartenpreise in zukunft nicht explodieren zu lassen.
so wie damals die leute bei dlss skeptisch waren und jetzt aufgrund der verbreitung und der verbesserung des features praktisch keiner mehr in frage stellt. perf/quali ist auf jeden fall ein gewinn.Da lagen die Nerven wohl schon blank oder? Solange gewartet um das mit dlss wieder rauszuhauen, und keine Gelegenheit weit und breit. Ah egal. Nehmen wir halt direct storage für ...die... Analogie.
:uclap:
Wie effizient eine moderne GPU sein kann zeigen die mobile 3070er oder 3080er. Letztere kommt mit 90 Watt sehr nahe an eine 3060 Desktop mit 170Watt heran.Die Gamer bekommen vom Waffer halt die doppellten Abfälle. HPC->Mobile->Gaming. Oder doch nicht? ;)
Nightspider
2021-08-01, 12:11:23
mit direct Storage kann erst mal den VRAM verbrauch, falls die Devs es richtig einsetzen, drastisch senken.
Das kannst du aber vergessen.
Niemand wird das in alte Spiele einbauen und in neuen Spielen wird das genutzt um bessere Qualität zu bekommen, bei begrenztem VRAM.
Und vergiss mal nicht das die neuen Konsolen trotzdem doppelt so viel physischen VRAM bekommen haben wie die letzte Generation hatte und Spiele wie Horizon Zero Dawn auf dem PC schon Probleme gemacht haben, wo die Konsolen noch viel weniger VRAM hatten. ;)
Und die Verbreitung von NVMe SSDs unter Gamern ist noch relativ gering, vor allem was 6GB/s SSDs angeht.
BlacKi
2021-08-01, 12:28:05
Die Logik erschließt sich mir nicht. Wenn DLSS der heilige Gral ist... ähm, die Lösung für die hohen Verbräuche, wieso bringt dann NV beim Nachfolger so einen Heizofen?
was hat denn stromverbrauch mit dlss zu tun? ich meine ich kann auch mit dlss 400w verbraten. und zwar in form von qualität und performance.
Das kannst du aber vergessen.
Niemand wird das in alte Spiele einbauen und in neuen Spielen wird das genutzt um bessere Qualität zu bekommen, bei begrenztem VRAM.
Und vergiss mal nicht das die neuen Konsolen trotzdem doppelt so viel physischen VRAM bekommen haben wie die letzte Generation hatte und Spiele wie Horizon Zero Dawn auf dem PC schon Probleme gemacht haben, wo die Konsolen noch viel weniger VRAM hatten. ;)
Und die Verbreitung von NVMe SSDs unter Gamern ist noch relativ gering, vor allem was 6GB/s SSDs angeht.
er hat das falsch formuliert. natürlich wird der verbrauch weiter steigen und auch der vram ausbau. aber die steigerung von der benötigten vram belegung wird damit sinken.
ich glaube auch nicht das die texturen durch die bandbreite der ssd limitiert sind, ich glaube die sind engine limitiert, aber mit absicht, damit es nicht zu rucklern kommt. das hat man früher so feststellen können, als es nachladeruckler gab. man lässt lieber die texturen langsamer nachladen damit es nicht ruckelt. da wird direct storage vorallendingen ansetzen, bei der cpu belastung.
denn wenn du bei CoD MW nachladende texturen hast(und man das optisch feststellen kann), dann müsste man eigentlich davon ausgehen, das die ssd hier nicht hinterherkommt. wenn du die bandbreite überwachen lässt, bemerkst du aber keinen peak in richtung max auslastung. weil die engine das verhindert, um keine ruckler zu erzeugen egal wie stark deine cpu ist oder wieviel kapazitäten frei liegen ohne das es zu rucklern kommt.
mal angenommen man hat eine ssd mit 7gb/s, dann kann man damit innerhalb von 0,14s ein 1gb nachladen. ohne direct storage. mit DS kannst du damit 2gb texturen nachladen. das ganze kann man so ausgleichen, das man schon vorher mit dem laden anfängt bevor die szene auf dem bildschirm erscheint.
Badesalz
2021-08-01, 13:13:44
was hat denn stromverbrauch mit dlss zu tun? ich meine ich kann auch mit dlss 400w verbraten. und zwar in form von qualität und performance.Beides ist zumeist leicht schwierig...
Nightspider
2021-08-01, 14:43:39
@Blacki:
Ich denke mal die IOPS werden sogar wichtiger sein als die Bandbreite der SSD, denn man schaufelt ja nicht immer 1-2 GB große files in den VRAM sondern tauscht winzige Teile on the fly aus. Das wird schon ein recht filigraner Balanceakt, da das Maximum aus dem SSD Vorteil herauszuholen und nicht alle Spiele werde das nutzen. Die Ingenieure sprachen ja davon, das man den effektiven Speicher damit um ein vielfaches erhöhen kann, wenn ich mich nicht irre. Man kann schließlich den kompletten VRAM innerhalb weniger Sekunden komplett austauschen.
Da werden sich die Entwickler sicherlich auch langsam herantasten.
TheAntitheist
2021-08-01, 17:41:43
Das kannst du aber vergessen.
Niemand wird das in alte Spiele einbauen und in neuen Spielen wird das genutzt um bessere Qualität zu bekommen, bei begrenztem VRAM.
Und vergiss mal nicht das die neuen Konsolen trotzdem doppelt so viel physischen VRAM bekommen haben wie die letzte Generation hatte und Spiele wie Horizon Zero Dawn auf dem PC schon Probleme gemacht haben, wo die Konsolen noch viel weniger VRAM hatten. ;)
Und die Verbreitung von NVMe SSDs unter Gamern ist noch relativ gering, vor allem was 6GB/s SSDs angeht.
die Leute die eine 3080 haben, werden wohl auch eine nvme SSD haben oder meinste nicht?
Und wer redet denn bitte davon dass das in alte Spiele implementiert wird? Da ist doch gar nicht mehr VRAM nötig... Ihr tut immer so als ob der VRAM Verbrauch nur von der Auflösung abhängig ist, die Wahrheit ist aber eine ganz andere... nur der Framebuffer wird größer, den meisten Platz nehmen aber Texturen, Modelle und vllt noch Animationen ein aber nicht die Framebuffer.
wolik
2021-08-01, 17:50:57
Die Logik erschließt sich mir nicht. Wenn DLSS der heilige Gral ist... ähm, die Lösung für die hohen Verbräuche, wieso bringt dann NV beim Nachfolger so einen Heizofen?
Ja wer die längsten hat :biggrin:.Dazu NV wurde selber zum Overclocker.
Und seit wann haben wir brauchbare DLSS oder FSR?
NV versucht immer noch, 8K-Gaming zu verkaufen. Und neue Glotzen laufen mit 120 fps. Ich hatte noch nie zu viel Leistung :wink:
Nur für normale 4K/60fps reichen mir 3090 (mit DLSS) völlig aus.
Nightspider
2021-08-01, 19:27:13
die Leute die eine 3080 haben, werden wohl auch eine nvme SSD haben oder meinste nicht?
Wer weiß wie viele Leute wirklich ein NVMe Drive haben.
Und dann ist die Frage ob NVMe Drives mit 3GB/s überhaupt reichen.
Und bis Direct Storage implementiert ist und eine Rolle spielt und die Leute alle auf Win11 gewechselt sind...bis dahin spielt die 3080 schon gar keine Rolle mehr.
Bis dahin werden sicherlich noch einige Spiele erscheinen, wo die Besitzer von Ampere mit 10 oder 8GB VRAM kotzen werden.
TheAntitheist
2021-08-02, 05:44:39
die meisten Leute behalten ihre GPUs weit über 4 Jahre, also das wird noch passen... Klar wirds Spiele geben da wirds eng, was sollen Radeon besitzer sagen bei Spielen die RTRT vorraussetzen? da haperts nicht am VRAM aber an der RT Leistung... es gibt immer was zu Motzen.
dargo
2021-08-02, 06:15:57
die meisten Leute behalten ihre GPUs weit über 4 Jahre, also das wird noch passen... Klar wirds Spiele geben da wirds eng, was sollen Radeon besitzer sagen bei Spielen die RTRT vorraussetzen? da haperts nicht am VRAM aber an der RT Leistung... es gibt immer was zu Motzen.
Das selbe was Pascalbesitzer und Turingbesitzer ohne RTX machen. Zumal es nicht mal Games gibt die RT voraussetzen, was auf absehbare Zeit auch so bleiben wird. Direct Storage wird übrigens auch noch ein Weilchen am PC ein Fremdwort. Solche Features brauchen viele Jahre für eine Marktdurchdringung. Ein PC ist keine Konsole.
Badesalz
2021-08-02, 06:30:38
Wer weiß wie viele Leute wirklich ein NVMe Drive haben.
Und dann ist die Frage ob NVMe Drives mit 3GB/s überhaupt reichen.Gibts überhaupt Flags ;) mit welchen der Coder überhaupt abfragen könnte, ob das Spiel jetzt von einer SSD oder Nvme am PCIe3 oder Nvme am PCIe4 usw. hängt?
So könnte das Spiel die... Ladestrategie (Routine) entsprechend wählen. Wenn nicht wird das auf dem PC wirklich EWIG dauern.
die meisten Leute behalten ihre GPUs weit über 4 Jahre, also das wird noch passen... Klar wirds Spiele geben da wirds eng, was sollen Radeon besitzer sagen bei Spielen die RTRT vorraussetzen? da haperts nicht am VRAM aber an der RT Leistung... es gibt immer was zu Motzen.
Ne 3060Ti bis 3080 aber nicht, die haben einfach zu wenig RAM. Kepler war 2015 auch abgemeldet. 2015 war die Fury mit 4GB für UHD sehr knapp bestückt, wenn wir uns erinnern. Der RAM-Verbrauch ist enorm gestiegen. Von 2013 2GB über 2015 4GB, 2016 6GB auf 2020 8GB. Das geht weiter, das hört nicht auf. 2022 sind auf 8GB nicht mehr volle Details möglich und 10GB auf UHD/VR zu wenig, 2023 werden die Amperes mit wenig Speicher unbrauchbar, genau wie Kepler mMn.
Und 12_2-Spiele sind auf den Radeons kein Problem. Sieht man an Exodus. Dann bleibt RT halt runtergestellt, aber das ist weit weniger schlimm als VRAM-Mangel. Und ich schließe mich meinen Vorrednern an, die meisten setzen auf SATA-SSDs. NVMe-SSDs haben nicht soo viele und davon die meisten haben keine Spiele-NVMe sondern nur OS oder eben nur QLC-Drives wie die 660p.
basix
2021-08-02, 09:06:22
Ich denke es sollte kein Problem sein, das Spiel auf der NVMe zu installieren oder von der SATA-SSD oder gar HDD rüberzukopieren. Mit Steam und Battle.net eine Sache von 3 Klicks. Bei Epic, Origin & Uplay etwas mühsam, geht aber auch (was für Bananensoftware bezüglich Benutzerfreundlichkeit...).
Am PC wird man so Sachen wie in Ratchet & Clank eh nicht sehen. DirectStorage wird aber definitiv die Ladezeiten verringern und das Streaming verbessern. Eine NVMe liefert bei Read auch bei Einsteigermodellen >1.8 GByte/s und eine relativ niedrige Latenz. Diese Minimalspec. zusammen mit den SW-Überarbeitungen von DirectStorage und Sampler Feedback Streaming wird schon einen sehr grossen Boost bei Ladezeiten, allgemeinem Detailgrad sowie Texturen bringen. Falls man es ausreizen will: Das Game macht einen SSD-Read Benchmark beim starten. Das Streaming wird dann entsprechend angepassst (z.B. weniger Weitsicht, schlechtere Texturen oder mehr RAM-Bedarf)
Edit:
Gibt es bei Vulkan eigentlich einen DirectStorage Gegenpart?
Edit 2:
Was gutes Streaming bringen kann, zeigt die UE5 mit Nanite bereits. Trotz enormem Detailgrad benötigt man nur 4...5 GByte VRAM (glaube bei 4K TSR @ 1080p Renderresolution, siehe Digital Foundry Analyse). Und die UE5 läuft anstandslos auch auf einer SATA-SSD.
Theorie -> Paxis. Ist ja schön, dass das geht, aber im Real-World-Einsatz mit Spiel sieht das nunmal ganz anders aus als ne Techdemo.
dargo
2021-08-02, 09:45:30
Auch die UE5 ist Zukunftsmusik. Bis damit Spiele kommen dauert es auch noch etwas. Mal ganz davon ab... imho erscheinen die schönsten Spiele mit UE´s nicht zum Zeitpunkt vom Marketing in Form von Techdemos dieser Engines sondern eher zum Lebensende dieser.
basix
2021-08-02, 09:57:48
Ihr versteift euch auf die "Techdemo" ;) Es ging nur darum, dass man mit einer wesentlich langsameren SATA-SSD bei entpsrechneder SW-Umsetzung schon einen sehr hohen Detailgrad erreichen kann. Deswegen sollte das mit DirectStorage auch mit den langsamsten NVMe SSDs auch im "Praxiseinsatz" (;)) gut klappen. Also egal ob QLC oder 5 Jahre alt, vor allem da eigentlich nur die Leseleistung relevant ist. Selbst die ach so schlechten QLC SSDs schaffen bei neuen Modellen typischerweise >3GByte/s sequentiell. Und auch bei ungünstigen Zugriffsmustern sind die langsamsten NVMe QLC SSDs lesend typischerweise >4x schneller als die schnellsten SATA SSDs.
Troyan
2021-08-02, 10:09:51
Bei DirectStorage geht es um Lesen und nicht Schreiben. Und da reicht auch schon eine simple PCIe3.0 SSD aus, um die selbe unkomprimierte Leistung der Series X zu erreichen.
Badesalz
2021-08-02, 10:22:23
Edit:
Gibt es bei Vulkan eigentlich einen DirectStorage Gegenpart?Ich glaub da haben sich Sony und AMD schon irgendwie geeinigt... Von da kommt das ja eigentlich auch.
Würde ich jedenfalls meinen, wenn AMD nicht komplett gepennt hat.
Nightspider
2021-08-02, 10:44:15
Eventuell braucht es ja nicht mal die API und Direct Storage um die low hanging fruits bei SSDs zu bekommen.
Wenn Ubisoft und Co. die Mindestanforderung auf NVMe SSD hochsetzen würde könnten sie so schon viel besser Dinge nachladen, auch ohne Direct Storage. Das würde auch unter Vulkan schon helfen.
Aber wäre natürlich schön wenn für Vulkan da auch noch etwas kommt aber natürlich wäre es nur logisch wenn AMD mit seinen Partnern an einem Vulkan Pedant arbeiten würde, schließlich hat AMD ja auch vieles für die PS5 und XSX umgesetzt und da schon während der Entwicklung einiges mitgenommen.
Sony meint ja auch sie wollen mehr PC Portierungen von PS5 Spielen bringen. (Spiele werden halt immer teurer)
Klar werden QLC-SSDs zuerst reichen, aber AFAIK geht DS mit SATA gar nicht, sondern nur mit NVMe.
Wie man es auch dreht und wendet, wir werden 2022 einige Leuchtturmprojekte mit DS sehen und 23 wird das dann langsam in die breite Masse übertragen. Wie schon erwähnt sind die SSDs für Spieler jetzt auch kein großes Hindernis, aber es geht eben auch darum, wie so ein Betriebswirtschaftler die ganze Sache bewertet, und da ist es Fakt, dass z.Zt. mit NVMe-"Zwang" eben viel weniger Spieler erreicht werden. Dem reicht es aber, wenn 8GB grad so akzeptabel läuft, was man als Konsument einer 600€-teuren 3070 oder 3080 ja nicht unbedingt erwarten würde.
Und wenn 3080 oder 3070 eben keinen besonderen Spass mehr machen (und etliche PCGH-Tests mit neueren 22er-Titeln den Speichermangel andauernd bescheinigen werden) werden die Spieler auch bereitwillig die nächste Generation kaufen, deshalb macht NV das ja mit den geringen Speichermengen, die haben nämlich auch Betriebswirtschaftler ;).
Bei AMD ist das ein bisschen anders, da nicht absehbar ist, dass AMD den Markt bei 50% Marktanteil und mehr bedienen kann.
Nightspider
grade Sonys Portierungen werden nicht unbedingt auf DS setzen. Solange der Content noch grad in 8GB passt (Abstriche sind da egal), wird man das so machen.
OgrEGT
2021-08-02, 17:38:01
Das selbe was Pascalbesitzer und Turingbesitzer ohne RTX machen. Zumal es nicht mal Games gibt die RT voraussetzen, was auf absehbare Zeit auch so bleiben wird. Direct Storage wird übrigens auch noch ein Weilchen am PC ein Fremdwort. Solche Features brauchen viele Jahre für eine Marktdurchdringung. Ein PC ist keine Konsole.
Turing Karten können ja jetzt auch FSR nutzen um mit RT wieder auf mehr FPS zu kommen :freak:
dargo
2021-08-02, 21:44:28
Und für die Radeons gilt da nicht oder was? 3DC-Logik.
Thunder99
2021-08-03, 21:53:30
Was nützt DS wenn die Breite Masse HDD und SATA SSD besitzt? Ihr überschätzt die Durschlagskraft vom Feature.
Ich sehe keinen wirklichen Vorteil bei DS auf PC
Sorry wenn ich etwas ausholen, aber...
1. Bei Konsolen waren die HDDs super billige Laptop Hardware. Bei der PS3 hatten manche 20 MB/s und bei der PS4 75 MB/smit 60 IOPS. Quelle https://techgage.com/article/sonys-playstation-4-pro-system-performance-hdd-vs-ssd-testing/
Ob die jetzt eine SSD mit PCIe bei 5 GB/s oder eine SATA bei 500 MB/s einbauen, das reicht um Ladezeiten auf 1% von der PS4 zu reduzieren, wenn die Entwickler einfach von 1000x IOPS ausgehen, weil du nicht z.b. 60 ganze Texturen pro Sekunde bekommst, sondern 60000 Mips die du brauchst. Klar hypen die das mit tollen Marketingnamen.
2. Beim PC kann jeder der will seine SSD haben, aber auch eine billige HDD, was ändert sich mit DS?
2.1 langsame HDD ohne DS: sagen wir 100 MB/s mit 2:1 Kompression der Daten. Das Laden von 5GB Texturen und Meshes dauert also ca 5000/200 (bzw. 2.5 GB mit 100 MB/s ) = 25s, das Hochkopieren ins VRAM wird parallel gemacht, aber selbst wenn nicht, mit standard PCIe3 bei 32 GB/s kostet das kopieren dann noch 0.16s also 25s.
2.2 selbe HDD mit DS: immer noch 25s
2.3 5GB/s SSD ohne DS: 0.5s Laden + 0.16s Hochkopieren: 0.66s
2.4 5GB/s SSD mit DS: 0.5s Laden ins VRAM.
Ich sehe wirklich nicht, wieso DS beim PC gebraucht wird. Ohne DS, Daten im CPU RAM auf Vorrat halten ist doch viel mehr von Vorteil als DS von SSD. Klar, HDD oder SSD ist signifikant, aber DS?
basix
2021-08-04, 20:24:52
Es stellt halt den Entwicklern ein Framework zur Verfügung und hat ebenso eine NVMe SSD als Mindestanforderung. Das spart 1. Arbeit für die Entwickler und 2. kann man HDDs und SATA-SSDs für die Spieleentwicklung ignorieren. Spart ebenfalls Arbeit und man kann die Spieleengine besser auf DS auslegen. Zudem passt man damit die PC Minimum-Spec. den NextGen Konsolen an. Kann gut sein, das NextGen only Spiele dann auch eine NVMe SSD und DS als Mindestovoraussetzung mitbringen werden.
Edit:
Was nützt DS wenn die Breite Masse HDD und SATA SSD besitzt? Ihr überschätzt die Durschlagskraft vom Feature.
NextGen Konsolen ;)
Und eine NVMe SSD, welche man als OS + Spiele Laufwerk benutzt, ist heute nicht so teuer. Für eine WD Blue SN550 500GB oder Crucal P2 500GB zahlt man ~50 Euro. Laufwerke >= 3GB/s kriegt man ab ~60 Euro. Wenn man x-hundert Euro für eine GPU und CPU fürs Gaming zahlt, darf es wohl auch etwas für die SSD sein. 500GB reichen für alle Spiele. Eine zweite SATA-SSD mit 500GB-2TB kann man dazu nehmen, wenn man die Spiele nicht neu installieren will (Spiele rüberkopieren). Kostet dich bei 500GB + 500GB ~100 Euro und man ist gerüstet für die Zukunft. Typischerweise hat man eine SATA-SSD als System- und Spieleplatte aber eh schon im Rechner. Wenn nicht: Mein Beileid ;)
Fast alle verkauften Motherboards seit 2015-2016 unterstützen wohl zumindest einen einzelnen NVMe Slot mit PCIe 3.0 4x. Sogar Z97 für Haswell unterstützte m.2. Drives. Ich sehe da nicht das Problem.
ChaosTM
2021-08-04, 21:02:04
DS sollte jetzt schon in Windows funktionieren. Das implementieren ist sicher keine Hexerei. Nur würde dann niemand auf 11 wechseln. ;)
Für Spiele, die immer noch nur einen Main-Thread benutzen, wäre das unbezahlbar wegen der sinkenden CPU Last. Der FS2020 wird auch stark davon profitieren. NVME Slots gibts schon lange genug wie basix schon angemerkt hat. Und selbst auf SATA600 Systemen würde das einiges bringen, muss aber nicht unbedingt sein.
Das der PC wieder mal hinter den Konsolen her hinkt ist einfach eine Schande.
Und wer heutzutage noch eine HDD fürs Spielen benutzt, dem ist sowieso nicht mehr zu helfen. :D
Nightspider
2021-08-04, 21:03:02
Ich sehe keinen wirklichen Vorteil bei DS auf PC
Im realen Einsatz interessieren die sequenziellen Übertragungsraten der SSDs wenig, die dürften real deutlich niedriger ausfallen weil viel kleine Teile on the fly ausgetauscht werden.
Du lädst ja nicht ein mal 5GB sondern du lädst 1000 mal 5Mb oder so ähnlich.
Und DS spart Latenz und vor allem wird die CPU nicht so belastet.
Siehe auch Folie zu RTX IO das auf DS basiert:
https://images.nvidia.com/geforce-com/international/images/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-announcing-rtx-io.jpg
Aber wir kommen hier vom Thema ab.
basix
2021-08-04, 21:08:20
NVME Slots gibts schon lange genug...
Bei Notebooks ist eine eingebaute NVMe SSD sogar schon seit einiger Zeit eher die Regel als die Ausnahme. Ist einfach kompakter als ein SATA-Drive.
The_Invisible
2021-08-04, 21:48:28
Ne 3060Ti bis 3080 aber nicht, die haben einfach zu wenig RAM. Kepler war 2015 auch abgemeldet. 2015 war die Fury mit 4GB für UHD sehr knapp bestückt, wenn wir uns erinnern. Der RAM-Verbrauch ist enorm gestiegen. Von 2013 2GB über 2015 4GB, 2016 6GB auf 2020 8GB. Das geht weiter, das hört nicht auf. 2022 sind auf 8GB nicht mehr volle Details möglich und 10GB auf UHD/VR zu wenig, 2023 werden die Amperes mit wenig Speicher unbrauchbar, genau wie Kepler mMn.
Und 12_2-Spiele sind auf den Radeons kein Problem. Sieht man an Exodus. Dann bleibt RT halt runtergestellt, aber das ist weit weniger schlimm als VRAM-Mangel. Und ich schließe mich meinen Vorrednern an, die meisten setzen auf SATA-SSDs. NVMe-SSDs haben nicht soo viele und davon die meisten haben keine Spiele-NVMe sondern nur OS oder eben nur QLC-Drives wie die 660p.
Also in 4k limitiert in CP2077, Control oder Ascent mit RT klar die GPU Leistung bevor es einen VRAM Mangel gibt, vor allem bei den kleineren Karten. Den Radeons hilft der große VRAM da auch nichts weiter. Qualitätsmäßig macht es da keinen Unterschied ob man RT oder Texturdetails reduzieren muss, ich möchte jedenfalls auf RT nicht mehr verzichten. Benchmarks wo die Karte mit mehr VRAM dann 15 statt 5 fps hat helfen auch nicht weiter.
Meiner Meinung wird zuviel auf den VRAM herumgeritten, ich hätte noch nie eine Karte getauscht weil der VRAM zu klein wurde sondern immer wegen der Leistung.
Der VRAM Verbrauch damals ist so massiv gestiegen weil die PS4 mal eben 16x mehr Speicher hatte als der Vorgänger, die PS5 hat das gerade mal verdoppelt und die XBox SeriesX hat wegen ihrem "Frankenstein" RAM gerade mal 10GB schnellen Speicher bereit.
dargo
2021-08-05, 06:19:17
NextGen Konsolen ;)
Und eine NVMe SSD, welche man als OS + Spiele Laufwerk benutzt, ist heute nicht so teuer. Für eine WD Blue SN550 500GB oder Crucal P2 500GB zahlt man ~50 Euro. Laufwerke >= 3GB/s kriegt man ab ~60 Euro.
Nützt dir trotzdem nichts wenn kein Turing/Ampere oder RDNA2 im Rechner steckt. Du kannst als Entwickler nicht einfach die Masse an PC-Spielern ignorieren. Das ist finanziell Selbstmord.
btw.
Ich will gar nicht wissen wie viele Gamingrechner es noch gibt wo die Bretter gar keinen NVMe Steckplatz haben. Ich bin noch sehr skeptisch was DS am PC angeht. Das einzige was ich mir vorstellen kann ist, dass DEVs bei den PC-Ports in der Übergangsphase beide Varianten anbieten. Ich kann nur nicht einschätzen wie aufwendig bzw. teuer beide Varianten wären. Wenn die DEVs aus finanziellen Gründen keinen Bock darauf haben wird es noch sehr lange dauern bis DS sich am PC durchsetzt.
Also in 4k limitiert in CP2077, Control oder Ascent mit RT klar die GPU Leistung bevor es einen VRAM Mangel gibt, vor allem bei den kleineren Karten. Den Radeons hilft der große VRAM da auch nichts weiter. Qualitätsmäßig macht es da keinen Unterschied ob man RT oder Texturdetails reduzieren muss, ich möchte jedenfalls auf RT nicht mehr verzichten. Benchmarks wo die Karte mit mehr VRAM dann 15 statt 5 fps hat helfen auch nicht weiter.
Meiner Meinung wird zuviel auf den VRAM herumgeritten, ich hätte noch nie eine Karte getauscht weil der VRAM zu klein wurde sondern immer wegen der Leistung.
Der VRAM Verbrauch damals ist so massiv gestiegen weil die PS4 mal eben 16x mehr Speicher hatte als der Vorgänger, die PS5 hat das gerade mal verdoppelt und die XBox SeriesX hat wegen ihrem "Frankenstein" RAM gerade mal 10GB schnellen Speicher bereit.
Lt PCGH limitiert grade bei RT der VRAM stark. So kommt es bei verschiedenen Titeln, dass die 3060 die 3060Ti wegen VRAM-Mangels, und nicht nur bei UHD, überholt. Das war ein Eigentor. Erst recht wenn man auf RT steht sollte man keinesfalls ne 8GB-Karte kaufen.
dargo
Dem kann man nur zustimmen. Zudem kommt hier hinzu, dass beispielsweise Sony ne eigene API hat und DS überhaupt nicht nutzt. Die werden mMn auch bei den PC-Ports nicht auf DS gehen. Die Verbreitung dauert sicherlich Jahre.
Dampf
2021-08-05, 09:45:00
Lt PCGH limitiert grade bei RT der VRAM stark. So kommt es bei verschiedenen Titeln, dass die 3060 die 3060Ti überholt. Das war ein Eigentor. Erst recht wenn man auf RT steht sollte man keinesfalls ne 8GB-Karte kaufen.
Laut PCGH limitiert der VRAM immer.
Ich hatte mit 6 GB in den meisten RT-Titeln keine Probleme auf 1440p mit DLSS. Nur in Cyberpunk und Watch Dogs hatte ich das Gefühl, für RT Abstriche machen zu müssen, denn mit max Texturen läuft da der VRAM recht schnell voll. Aber sonst? Nope.
In 4K kann das natürlich anders sein.
Die Messungen lügen nicht. Und das wird bei neuen Titeln ja nicht besser. Wie soll das gehen?
Dampf
2021-08-05, 09:51:14
Die Messungen lügen nicht. Und das wird bei neuen Titeln ja nicht besser. Wie soll das gehen?
Welche Messungen?
Next Gen Titel werden auch neue, deutlich effizientere Streaming Techniken wie Sampler Feedback + Directstorage oder Virtual Textures nutzen. :smile:
dargo
2021-08-05, 10:17:08
Next Gen Titel werden auch neue, deutlich effizientere Streaming Techniken wie Sampler Feedback + Directstorage oder Virtual Textures nutzen. :smile:
Das haben dir welche DEVs gezwitchert? Afaik ist Avatar: Frontiers of Pandora der erste Next Gen Titel welcher 2022 kommt. Ich schlage vor wir warten diesen Titel erstmal ab sofern nicht was anderes als Next Gen früher kommt. Bevor wieder falsche Hoffnungen hier geschnürt werden.
dildo4u
2021-08-05, 12:00:52
Flight Sim hat es doch gezeigt wo es hingeht sie müssen Ram Verbräuche senken da die Serie S nur 10GB für alles hat, dafür brauchste keine neue Techniken sondern verbesserte Streaming Strategien.
Du kannst mit den neuen Konsolen deutlich aggressiver zu werke gehen, da die die Lame CPU nicht mher limitiert.
Es wirds wenige AAA Games geben die die CPU so hart treffen wie eine Flug Simulation und das rennt schon ok und wird mit Patches sicherlich besser mit der Zeit.
dargo
2021-08-05, 12:03:18
Flight Sim hat mir nur eins gezeigt... der PC spielte bei Optimierungen keine besondere Rolle (einfach Bananensoftware auf die Meute schmeißen und fertig). Erst mit den Konsolenoptimierungen profitierte auch der PC davon.
Dampf
2021-08-05, 12:12:13
Flight Sim hat mir nur eins gezeigt... der PC spielte bei Optimierungen keine besondere Rolle (einfach Bananensoftware auf die Meute schmeißen und fertig). Erst mit den Konsolenoptimierungen profitierte auch der PC davon.
Na zum Glück gibt es die schwachbrüstige Series S ;)
dildo4u
2021-08-05, 12:44:00
Alle anderen Games achten noch weniger auf PC, das einzige was 16 GB bei AMD macht ist das sie nicht liefern können.
Bei Steam ist immer noch nix von RDNA2 zu sehen.
The_Invisible
2021-08-05, 15:30:06
Lt PCGH limitiert grade bei RT der VRAM stark. So kommt es bei verschiedenen Titeln, dass die 3060 die 3060Ti wegen VRAM-Mangels, und nicht nur bei UHD, überholt. Das war ein Eigentor. Erst recht wenn man auf RT steht sollte man keinesfalls ne 8GB-Karte kaufen.
Kommt drauf an wie lange man die Karte behalten will, derzeit und nächstes Jahr fährt man auch mit 8Gb noch gut bevor die GPU-Leistung zu sehr (mit RT) einbricht und man dann sowieso Details runterschalten muss. Man darf nicht vergessen das vor einem Jahr 8GB bis zur 2080er Klasse vertreten waren und jetzt wohl langsam zum "Sweet Point" der Entwickler werden.
Auf Avatar bin ich auch schon gespannt, hoffe mal es wird doch nicht auch so ein Konsole-Downgrade geben :D
Als wenn die S da was daran ändern würde :freak:. So ein Quatsch. Besseres Streaming trifft die Konsole, da beide SSD-Streaming-Techniken haben. Der PC bekommt die aber erst mal nur theoretisch.
Neue Spiele werden mehr VRAM verbrauchen nicht weniger. Das ist total sonnenklar. Natürlich werden die Devs darauf achten, dass 8GB auch weiterhin grade so nutzbar ist, aber vom Optimum ist das halt weit entfernt.
WedgeAntilles
2021-08-05, 20:11:23
Natürlich werden die Devs darauf achten, dass 8GB auch weiterhin grade so nutzbar ist, aber vom Optimum ist das halt weit entfernt.
Ja, weil die 0,5% aller Gamer die eine 3090 haben ja so wahnsinnig relevant sind^^
Halt, ich vergas noch die 3080 mit 10GB und 2080TI - das sind ja auch noch mal 0,5% oder so.
Damit dürften ca. 1,5-2% der Gamer eine GraKa mit mehr als 8GB Ram haben.
Glaubst du wirklich, das ist auf Sicht von den nächsten 2 Jahren eine relevante Zielgruppe für die Spieleentwickler?
TheAntitheist
2021-08-05, 20:30:12
glaube HOT meinte eher damit, das ULTRA eben nicht für 10GB Karten optimiert wird, was ja auch nicht schlimm ist... Man muss ja nur die Texturauflösung etwas runter schrauben und das wars. Das war früher auch so, da konnte man erst eine Gen später die Texturen voll aufdrehen.
TheAntitheist
2021-08-05, 20:32:46
Flight Sim hat mir nur eins gezeigt... der PC spielte bei Optimierungen keine besondere Rolle (einfach Bananensoftware auf die Meute schmeißen und fertig). Erst mit den Konsolenoptimierungen profitierte auch der PC davon.
Das war aber auch schon früher so nur jetzt haben die neuen Konsolen einfach mal deutlich mehr power als über 90% der "Gamer" PCs. Aber der MSFS ist da eine krasse Ausnahme, die haben da Teilweise den Code von 1995 benutzt (sagte der Chef von Asobo) was ja schon eine krasse Frechheit ist.
€dit: sorry für den Doppelpost, kA was ich da verbockt hab.
WedgeAntilles
2021-08-06, 09:36:38
glaube HOT meinte eher damit, das ULTRA eben nicht für 10GB Karten optimiert wird, was ja auch nicht schlimm ist... Man muss ja nur die Texturauflösung etwas runter schrauben und das wars. Das war früher auch so, da konnte man erst eine Gen später die Texturen voll aufdrehen.
Ja, wenn man es auf Ultra bezieht stimme ich zu.
Klang für mich so, dass man Games mit 8GB VRAM in Zukunft mit Müh und Not auf Low spielen können wird.
ChaosTM
2021-08-06, 09:53:51
Das schön am PC Gaming war früher, das man für zukünftige Generationen entwickelt hat. Crysis anyone? ;)
Dank NV und deren "Bezahlpolitik" passiert momentan genau das Gegenteil. Ein auf 10GB beschränkter VRAM pool, damit die 3080er ja nicht so dumm dasteht wie sie in Wirklichkeit eigentlich ist.
Unnötig und grauslich für alle High End Besitzer. Ob das jetzt mit vernünftigen Bildraten spielbar ist oder nicht ist völlig irrelevant. Das hat Crytek auch nicht geschert zum Glück. :D
Thomas Gräf
2021-08-06, 10:44:35
Flight Sim hat mir nur eins gezeigt... der PC spielte bei Optimierungen keine besondere Rolle (einfach Bananensoftware auf die Meute schmeißen und fertig). Erst mit den Konsolenoptimierungen profitierte auch der PC davon.
Guter Konter :biggrin:
Mir hat der neue FlightSim gezeigt das Microsoft einen Pubs auf ihr DX12 geben. Das war mal der Marketing Spruch um auf WIN10 zu wechseln, erinnert Ihr Euch?
Der FlightSim hätte allen aufzeigen können, hey wir sind Microsoft und wir können es. Aber nein, stattdessen geben sie die ganze Last auf ein kleines Studio.
Ach Ärgern bringt ja auch nix, es lebe Vulkan. ;)
rentex
2021-08-06, 10:53:22
Wo du es sagst....genau :rolleyes:
dargo
2021-08-06, 11:18:04
Guter Konter :biggrin:
Mir hat der neue FlightSim gezeigt das Microsoft einen Pubs auf ihr DX12 geben. Das war mal der Marketing Spruch um auf WIN10 zu wechseln, erinnert Ihr Euch?
Der FlightSim hätte allen aufzeigen können, hey wir sind Microsoft und wir können es. Aber nein, stattdessen geben sie die ganze Last auf ein kleines Studio.
Ach Ärgern bringt ja auch nix, es lebe Vulkan. ;)
Das kommt natürlich noch oben drauf. Diese Applikation noch mit D3D11 am PC zu bringen ist einfach nur noch peinlich.
Thunder99
2021-08-06, 12:55:27
glaube HOT meinte eher damit, das ULTRA eben nicht für 10GB Karten optimiert wird, was ja auch nicht schlimm ist... Man muss ja nur die Texturauflösung etwas runter schrauben und das wars. Das war früher auch so, da konnte man erst eine Gen später die Texturen voll aufdrehen.
Das ist für mich ein NoGo. Texturen sind dass, was man am ehsten sieht.
Die mittleren Karten haben ja 12GB und sind daher auch mehr und mehr vertreten, denke ich.
Leider gab es das ja immer wieder. GPU Hui, Speichermenge Pfui (Fiji, 3070er/80er, Kepler mit 2GB,...)
TheAntitheist
2021-08-06, 13:21:41
Das ist für mich ein NoGo. Texturen sind dass, was man am ehsten sieht.
Die mittleren Karten haben ja 12GB und sind daher auch mehr und mehr vertreten, denke ich.
Leider gab es das ja immer wieder. GPU Hui, Speichermenge Pfui (Fiji, 3070er/80er, Kepler mit 2GB,...)
Ich kann dir sagen das du keinen Unterschied zwischen unkomprimierten und komprimierten Texturen während des spielens siehst. Das ist ja was oft bei "Ultra" passiert. sonst hast du vollkommen recht, noch. Aber wie gesagt, 10GB sollten locker reichen wenn die Devs mal alles ausnutzen was die Hardware hergibt. (natürlich für die nächsten 4 Jahre).
The_Invisible
2021-08-06, 14:20:19
Das schön am PC Gaming war früher, das man für zukünftige Generationen entwickelt hat. Crysis anyone? ;)
Dank NV und deren "Bezahlpolitik" passiert momentan genau das Gegenteil. Ein auf 10GB beschränkter VRAM pool, damit die 3080er ja nicht so dumm dasteht wie sie in Wirklichkeit eigentlich ist.
Unnötig und grauslich für alle High End Besitzer. Ob das jetzt mit vernünftigen Bildraten spielbar ist oder nicht ist völlig irrelevant. Das hat Crytek auch nicht geschert zum Glück. :D
Auch bei Crysis hat die GPU Leistung limitiert, die Karten (8800Ultra) gurkten da in 1280x1024 bei so 30fps herum. Hätten die Karten da 10GB VRAM gehabt hätte es genau nichts geholfen. :D
WedgeAntilles
2021-08-06, 14:38:33
Ich kann dir sagen das du keinen Unterschied zwischen unkomprimierten und komprimierten Texturen während des spielens siehst. Das ist ja was oft bei "Ultra" passiert. sonst hast du vollkommen recht, noch.
+1
ChaosTM
2021-08-06, 14:54:09
Bei Crysis hat alles limitiert. Auch die CPU, weil nur ein Thread unterstützt wurde.
Darum geht es aber nicht. Damals hat Crytek kein Geld genommen/ bezahlt bekommen, um gewisse Hardware auszuschließen bzw zu bremsen.
Im Fall von Cyberpunk 2077 ist das aber ganz klar passiert und das verurteile ich.
Ein CP77 ohne grausliche LOD pop-ins darf ruhig mit <10 fps auf einer 3090er "laufen". ;)
Solche künstlichen Kastrierungen eines Spiels sollten einfach nicht sein.
=Floi=
2021-08-06, 18:11:00
Auch bei Crysis hat die GPU Leistung limitiert, die Karten (8800Ultra) gurkten da in 1280x1024 bei so 30fps herum. Hätten die Karten da 10GB VRAM gehabt hätte es genau nichts geholfen. :D
Was für ein nonsens. eine 3080ti hat aber genug leistung für mehr vram!
Bei anderen karten trifft das auch zu und generell könnte man die BQ mit mehr vram noch sehr einfach steigern ohne dass man jetzt 100% mehr gpu power bräuchte.
The_Invisible
2021-08-10, 10:45:40
Was für ein nonsens. eine 3080ti hat aber genug leistung für mehr vram!
Bei anderen karten trifft das auch zu und generell könnte man die BQ mit mehr vram noch sehr einfach steigern ohne dass man jetzt 100% mehr gpu power bräuchte.
Mit RTX eben nicht, in CP2077 hast mit 4k@allMax gerade mal so 20fps, mit DLSS kommt man in spielbare Regionen. In Ascent werden die kleinen Karten quasi auch unspielbar bevor der VRAM (wahnsinnige 4-5GB in 4k) ausgeht (https://www.computerbase.de/2021-08/the-ascent-benchmark-test/3/#abschnitt_the_ascent_braucht_keinen_vram)
Wie gesagt, ich hätte lieber doppelt so viele Leistung statt VRAM, wenn die nächste Gen wirklich so drauflegt (2-3 mal performance) sollten es schon so >=16GB sein
Edgecrusher86
2021-08-10, 11:17:11
Ja, dem kann ich zustimmen - anhand dutzender eigener "nativer" Tests in den Auflösungen 3440x1440 - 5160x2160 - 6880x2880 - 10420x4320 und 13760x5760 auf einer RTX 3090, dass zumeist, selbst wenn der VRAM nur zum Teil belegt ist (Beispielsweise 5-12GB Allocation, nicht dediziert) selbst in 5160x2160 das ein oder andere Mal die Karte bei ~ 1,8 GHz ihre Probleme hat, 60+ fps zu schaffen - spätestens in 6880x2880, also 5K+ in 21:9 bewegen wir uns dann meistens in den 30-40er fps Regionen - die Titel müssen schon top optimiert sein wie etwa ein DOOM Eternal, damit etwa in 10320x4320 noch ~ 40 fps möglich sind bei ~ 16GB VRAM Allocation - nativ wie gesagt - mit DLSS Q sollten hier zumindest die 60 fps machbar sein - getestet hatte ich das aber noch nicht. Insofern sind die 12GB auch für den großen GA102 in meinen Augen nicht wirklich ein merkliches Bottleneck - bei theoretisch doppelter Leistung später wäre es natürlich der Fall, klar. Die 10GB der RTX 3080 können natürlich auch schon heute limitieren bei 4K + RT (nativ), das steht außer Frage.
Ich sage mal so - es ist "nice to have", dass der VRAM unter "alltäglichen Auflösungen" bei der Lebenszeit der Karte nie limitieren wird als Gamer, aber der praktische Nutzen oberhalb 12GB ist meistens jedoch gering. Es gibt ja auch Engines, die dann einfach deutlich mehr auslagern, wenn verfügbar ist - etwa die FrostBite 3 oder Infinity Ward 5 Engine. Das bedeutet aber nicht, dass es zum Beispiel mit 10-12GB ruckeln würde.
Um Beispiel hier zu nennen -> BF1 in 6880x2880 im SP [Panzer Level am Anfang] -> ~ 15,5GB Allocation auf RTX 3090 bei 83 fps vs. 70 fps auf GTX 1080 Ti SLI bei ~ 6,4GB VRAM Allocation.
Beides läuft flüssig ohne jedwede merkliche Drops.
Die dediziert VRAM-Nutzung liegt dann ja immer noch grob 1,5-3GB darunter - das kommt ja auch noch hinzu. Insofern hat dann zum Beispiel die RTX 3080 Ti nochmals mehr Luft. ;)
Um auf Lovelace zurück zu kommen:
Die Performance-Klasse a la "RTX 4070" sollte natürlich zumindest 12GB aufweisen und Highend "RTX 4080" 16GB(+). Alles darunter wäre deutlich zu wenig.
Eine Karte mit der Leistung der RTX 3090 ist im Bezug auf Gaming nicht auf 24GB angewiesen. Es mag zwar schön sein, dass man sich 8K(+) in der Praxis bei zum Beispiel 20-30 fps
unter maximalen Details ansehen kann, aber mehr als eine interaktive Techdemo ist so etwas für mich nicht.
Thunder99
2021-08-10, 11:52:43
Persönlich soll eher die GPU die Puste ausgehen anstelle vom VRAM. Bei Ampere haben sie es verbock. Bei Lovelace erwarte ich da entsprechende Korrekturen!
Performance/Middle bis 12GB
High-End bis 20GB
Enthuiast bis 24GB
Edgecrusher86
2021-08-10, 12:41:22
Ja, 24GB wird für eine RTX 4090 dicke schicken - zur Not kann man gegen AMD [mit vermutlich 32GB für Navi 31] immer noch eine 48GB TITAN nachschieben mit dem Vollausbau.
Zossel
2021-08-11, 06:10:20
Kann es einen besseren Beleg für die Notwendigkeit für die Abschaffung der Legacy Speicherverwaltung zugunsten einer PS5-artigen Speicherverwaltung geben als diese Diskussionen über VRAM hier?
rentex
2021-08-11, 14:04:30
Kann es einen besseren Beleg für die Notwendigkeit für die Abschaffung der Legacy Speicherverwaltung zugunsten einer PS5-artigen Speicherverwaltung geben als diese Diskussionen über VRAM hier?
Das ist genau so mühsam, wie die PS/ Hubraum Debatte beim Kfz :rolleyes:
Zossel
2021-08-11, 17:34:31
Das ist genau so mühsam, wie die PS/ Hubraum Debatte beim Kfz :rolleyes:
PS oder Hubraum ist doch scheiß egal, Drehmoment zählt :-)
robbitop
2021-08-11, 18:25:06
PS oder Hubraum ist doch scheiß egal, Drehmoment zählt :-)
Aber nur das Drehmoment am Rad. ;)
Undertaker
2021-08-11, 19:43:52
Auch das ist ohne Betrachtung der Drehzahl bzw. Geschwindigkeit ziemlich egal, hier zieht z.B. ein Suzuki Jimmy mit 1,5l Saugmotor dank Untersetzungsgetriebe locker manchen Sportwagen ab. Zumindest <10km/h. :D Für die klassische Performancemetrik eines PKW reicht hingegen ein Blick auf die Leistung in jenem Drehzahlbereich, den man in Abhängigkeit der Gangspreizung des Getriebes benötigt. Und da moderne Getriebe recht eng gestuft sind und übliche Turbomotoren breite Leistungsplateaus haben, liegt im optimalen Gang fast immer die Maximalleistung an. "Drehfreude" oder Drehmoment des Motors sind letztlich irrelevante Faktoren bzw. nur noch für das subjektive Empfinden der Leistung, nicht aber für die mögliche Beschleunigung relevant.
Sorry für den kleinen Exkurs, aber das musste noch ergänzt werden. :D End of OT. ;)
rentex
2021-08-11, 20:42:02
Tja, das 3DC Forum...unbelehrbar, aber trotzdem unterhaltsam. Unsere Pappenheimer der HW Forenwelt.
robbitop
2021-08-11, 21:00:34
Auch das ist ohne Betrachtung der Drehzahl bzw. Geschwindigkeit ziemlich egal, hier zieht z.B. ein Suzuki Jimmy mit 1,5l Saugmotor dank Untersetzungsgetriebe locker manchen Sportwagen ab. Zumindest <10km/h. :D Für die klassische Performancemetrik eines PKW reicht hingegen ein Blick auf die Leistung in jenem Drehzahlbereich, den man in Abhängigkeit der Gangspreizung des Getriebes benötigt. Und da moderne Getriebe recht eng gestuft sind und übliche Turbomotoren breite Leistungsplateaus haben, liegt im optimalen Gang fast immer die Maximalleistung an. "Drehfreude" oder Drehmoment des Motors sind letztlich irrelevante Faktoren bzw. nur noch für das subjektive Empfinden der Leistung, nicht aber für die mögliche Beschleunigung relevant.
Sorry für den kleinen Exkurs, aber das musste noch ergänzt werden. :D End of OT. ;)
Das war natürlich universal gemeint. Zu jeder Geschwindigkeit das maximale Radmoment ;)
Und das kommt am Ende auf maximale Motorleistung heraus:
(und damit auch die maximale Antriebskraft). F = m * a. Massennomiert ist F~a. Und Mrad = F * Rrad - also Mrad ~ F
Damit Mrad maximal ist muss P maximal sein. P = 2*pi*M*n. ;)
Durch Übersetzung kann man M erhöhen, reduziert damit aber die Drehzahl n. Am Ende will man immer Mrad maximieren - für jede Anfangs- und Endgeschwindigkeit.
Ergo maximale Leistung und möglichst ideale Übersetzung. Dank moderner 8 stufenautomatik ist das praktisch immer gegeben (hohe Spreizung bei feiner Granularität). Ergo kann man sagen: Nur Leistung zählt (gewichtsnormiert und für Vollgasbeschleunigung).
Sprüche wie hohes Drehmoment zählt, sind nur urbane Legenden. Oder treffen darauf zu wenn man bei niedrigen Drehzahlen mehr Teilleistung haben will
Genau so ist es... wir interessieren uns also für die Leistungskurve. Oder besser gesagt wenn man das komplette System betrachtet Radleistung gemittelt über alle Geschwindigkeitsbereiche / Fahrzeuggewicht.
Hab leider nur um die 450nm an der Kurbelwelle... aber bei 6.500 Umdrehungen ;D
Badesalz
2021-08-15, 10:25:17
Kann es einen besseren Beleg für die Notwendigkeit für die Abschaffung der Legacy Speicherverwaltung zugunsten einer PS5-artigen Speicherverwaltung geben als diese Diskussionen über VRAM hier?Die Notwendigkeit ergibt sich ja nicht in der realen Welt, sondern nur innerhalb der Forenblasen ;)
Was mich aber allgemein wundert ist, daß es auch 2021 noch keine Tools gibt die in etwa 1GB Schritten im Hintergrund Vram "belegen" und man DANN sein Spiel startet und sich anschaut was da wirklich Sache ist. Oder gibt es die?
Dampf
2021-08-15, 10:44:50
Das ist für mich ein NoGo. Texturen sind dass, was man am ehsten sieht.
Die mittleren Karten haben ja 12GB und sind daher auch mehr und mehr vertreten, denke ich.
Leider gab es das ja immer wieder. GPU Hui, Speichermenge Pfui (Fiji, 3070er/80er, Kepler mit 2GB,...)
Die Frage ist halt, wie gut die Texturen auf den jeweiligen Stufen aussehen werden, sobald richtige Next Gen Titel erscheinen.
Wenn du eben dann mit Techniken wie Sampler Feedback und DirectStorage schon auf Mittel Texturen hast, die selbst bei genauer Betrachtung super scharf sind, denke ich, dass es die meisten nicht stören wird, die Texturstufe zu reduzieren. Ultra Texturen würden dann vielleicht bei 8K Auflösung und höher Sinn ergeben. In die Richtung könnte es sich entwickeln und in dem Use-Case würden dann auch 12 GB und mehr VRAM nützlich sein.
Platos
2021-08-15, 11:41:36
Bis am PC Direct Storage kommt, gehts sicher noch ne Weile.
SamLombardo
2021-08-17, 09:18:12
Ohne jetzt den kompletten Thresd gelesen zu haben: Ist 2022 eigentlich für lovelace immer noch Stand der Dinge? Oder hat sich da schon was nach hinten verschoben?
w0mbat
2021-08-17, 09:48:10
Wir wissen es einfach noch nicht, aber Ende 2022/Anfang 2023 scheint ein guter Tipp zu sein.
Troyan
2021-08-17, 09:52:54
Ohne jetzt den kompletten Thresd gelesen zu haben: Ist 2022 eigentlich für lovelace immer noch Stand der Dinge? Oder hat sich da schon was nach hinten verschoben?
Laut nVidia kommt 2022 für HPC "Ampere Next". Wird also auch für die Gaming-Sparte so sein.
robbitop
2021-08-17, 10:29:34
Es waren zuletzt doch eigentlich immer 2 Jahre. Also sollte 2022 der Ampere Nachfolger kommen. Wenn es bei 2 Jahren bleibt dann Q3 2022.
Linmoum
2021-08-17, 10:35:46
Es waren zuletzt doch eigentlich immer 2 Jahre. Also sollte 2022 der Ampere Nachfolger kommen. Wenn es bei 2 Jahren bleibt dann Q3 2022.Pascal -> Mai 2016
Turing -> September 2018.
;)
Ampere waren dann wieder glatt zwei Jahre. Ich würde wahrscheinlich auf Oktober/November 2022 tippen.
basix
2021-08-17, 10:44:05
Holiday Season 2022 ist vermutlich am wahrscheinlichsten, ja. Zumindest für High End.
SamLombardo
2021-08-17, 11:07:53
Danke euch allen für die Antworten.
davidzo
2021-08-17, 14:37:46
Es waren zuletzt doch eigentlich immer 2 Jahre. Also sollte 2022 der Ampere Nachfolger kommen. Wenn es bei 2 Jahren bleibt dann Q3 2022.
Die bisherige Gerüchteküche sprach von Q4 22 bis Q1-23, bzw. sogar von 12/22. Es wird also möglicherweise knapp werden noch in 2022 eine Karte zu bekommen.
nope
2022 12or2023Q1
https://twitter.com/TtLexington/status/1421858042568531968
und:
https://twitter.com/greymon55/status/1412049686945427456
robbitop
2021-08-17, 14:45:36
Pascal -> Mai 2016
Turing -> September 2018.
;)
Ampere waren dann wieder glatt zwei Jahre. Ich würde wahrscheinlich auf Oktober/November 2022 tippen.
Will sagen es war schon lange nicht mehr < 2 Jahre zwischen 2x uArchs. Insofern bin ich bei Gerüchten, die es deutlich eher sehen sehr skeptisch.
Badesalz
2021-08-17, 20:13:54
Laut nVidia kommt 2022 für HPC "Ampere Next". Wird also auch für die Gaming-Sparte so sein.Ich denke das wird schon eine Priorität haben den "HPC Ampere Next" zu bringen, noch bevor AMD eine MI300 als fast fertig ankündigt... Die beeilen sich da grad ziemlich.
Daher glaube ich nicht an 2023. Das wäre jedenfalls als ein Rückschlag zu werten.
Slipknot79
2021-08-18, 01:22:29
Die bisherige Gerüchteküche sprach von Q4 22 bis Q1-23, bzw. sogar von 12/22. Es wird also möglicherweise knapp werden noch in 2022 eine Karte zu bekommen.
https://twitter.com/TtLexington/status/1421858042568531968
und:
https://twitter.com/greymon55/status/1412049686945427456
Dann kann man sagen, dass die 2080Ti gut gealtert sein wird (y). Dank DLSS sowieso (y).
OgrEGT
2021-08-31, 10:13:03
GeForce RTX 40 series with NVIDIA Lovelace GPUs again rumored to use TSMC N5 process
https://videocardz.com/newz/geforce-rtx-40-series-with-nvidia-lovelace-gpus-again-rumored-to-use-tsmc-n5-process
BlacKi
2021-08-31, 11:33:53
Will sagen es war schon lange nicht mehr < 2 Jahre zwischen 2x uArchs. Insofern bin ich bei Gerüchten, die es deutlich eher sehen sehr skeptisch.
es wäre für nv von vorteil wenn man die karten so früh wie möglich bringt, da man ja die alten karten weiter produziert, und somit mit n5 nur die kapazitäten erweitert, nicht umstellt. moar money for nv.
allerdings könnte schlichtweg auch n5 nicht ready sein für die nv chips. damit will ich sagen, vl hat nv es garnicht in der hand, wann die karten kommen.
Leonidas
2021-08-31, 12:09:22
nVidia wird sicherlich beides so früh wie möglich bringen - HPC und Gaming. Die Zeiten, wo man mal Piano machen konnte, sind vorbei - der Wettbewerb ist auf Augenhöhe und teilweise sogar recht breit (HPC).
und noch mal betont auf twitter:
Remember that:
30Super is one step in Jensen's smooth upgrade to Ada Lovelace.
https://twitter.com/kopite7kimi/status/1432998649718398978
=> was kann damit gemeint sein?
edit:
was kann hier für Lovelace "bereits vorweggenommen" werden?
ChaosTM
2021-09-03, 12:09:33
Die Dame hieß Linda btw. :D
robbitop
2021-09-03, 12:23:46
Ggf gibts einen Shrink? Es gab ja mal Gerüchte um einen GA103 in 7nm.
Platos
2021-09-03, 12:41:11
Also wenn der Sprung von 30S zu 40 "smooth" werden würde, dann hoffe ich doch mal, dass 30S auf magische Weise wirklich super wird.
die unschöne Interpretation (die ja wohl nicht gemeint sein kann),
mit Super beginnt bereits die Gewöhnung an:
- höhere TPD
- höhere Preise
- kein NV Link mehr (auch nicht bei der 4090)
Lehdro
2021-09-03, 16:03:33
die unschöne Interpretation (die ja wohl nicht gemeint sein kann),
mit Super beginnt bereits die Gewöhnung an:
- höhere TPD
- höhere Preise
- kein NV Link mehr (auch nicht bei der 4090)
Mehr Speicher.
Neurosphere
2021-09-03, 16:11:09
Kein unerwarteter Leistungssprung?
Thunder99
2021-09-03, 16:14:51
Noch höhere TDP wird noch mehr an Akzeptanz verlieren.
BlacKi
2021-09-03, 17:37:30
Noch höhere TDP wird noch mehr an Akzeptanz verlieren.
in deiner kleinen welt vl. die käufergruppen interessiert das nicht. aber ich bin mir sicher, die sub 250w käufer werden ragen, als gäbs kein morgen.
iamthebear
2021-09-04, 21:15:14
1.) Die Käufer interessiert es relativ wenig und wen es stört kann man das Power Target ja auch reduzieren.
Das Problem liegt eher darin, dass es ab einer gewissen Temperatur einfach nicht mehr sinnvoll kühlbar ist. Wasserkühlung ist nur im OEM Bereich massentauglich. Solange die Karten aber einzeln verkauft werden spießt das einfach so sehr mit der Case Kompatibilität.
Ja klar ein bisschen Luft nach oben ist bei der Luftkühlung auch aber jenseits von 400-450W wird dann bald Schluss sein. Vor allem wenn man es mit 5nm Chips zu tun hat, wo der Die jetzt nicht so so riesig sein dürfte wird man dann auch schon Probleme bekommen die Hitze überhaupt vom Die zu schaffen.
2.) Die 400+ Watt von Lovelace entstehen vermutlich nur dadurch, dass auch ein Chip verbaut wird, der doppelt so viele schaltende Transistoren hat. Kauft man im Performancebereich einer 3070 Ti oder 3080 wird es kaum schlimmer werden als es bereits ist und falls doch, so befindet man sich in einem Bereich wo man die TDP easy um 50-100W senken kann ohne dass die Performance nennenswert einbricht.
3.) Also ich vermute, dass die "smoothe Transition to Lovelace“ sich schon eher auf die Performance bezogen hat.
Eine Möglichkeit wäre, dass Nvidia Ampere in TSMC 6nm neu auflegt. Die Designkosten dafür sollten überschaubar sein, da GA100 ja bereits für 7nm designed wurde, was kompatibel zu 6nm ist. Es müssten vermutlich nur die RT Teile portiert werden, falls das nicht damals schon passiert ist.
Eine andere Möglichkeit ist, dass gleich mit 5nm Lovelace gestartet wird, jedoch mit dem unteren Ende des Lineup, damit Intel nicht den ganzen Sub 300 Markt alleine abgreift und damit man sich was den Yield angeht langsam vortasten kann. Ich denke nicht, dass die Ausbeute der ersten 700mm² 5nm Dies so prickelnd sein wird.
Thunder99
2021-09-04, 21:47:07
in deiner kleinen welt vl. die käufergruppen interessiert das nicht. aber ich bin mir sicher, die sub 250w käufer werden ragen, als gäbs kein morgen.
Sie interessieren sich für leise Karten, wenn sie sich mit der Thematik befassen. Leider sieht es immer schlechter aus oder die Karten sind mega groß und schwer. Echt toll :freak:
Ich kritisiete die Entwicklung, nicht die Leute
OgrEGT
2021-09-05, 14:51:02
Wenn die Entwicklung so weitergehen würde, dass Mehrleistung nur noch durch Erhöhung der elektrischen Leistungsaufnahme möglich wäre, dann wird die Physik die Grenzen setzen und es kommt zum Stillstand.
Wo die Grenze liegt... ob bei 500W oder 1000W, keine Ahnung. Irgendwann ist auch eine WaKü am Ende, dann muss Kompressorkühlung her :freak:
Die große Frage ist eben, was am Ende herauskommt... also welche Leistung (FPS + Bildqualität) mit welchem Aufwand und Kosten realisiert werden kann.
Edit:
Passt hier auch ganz gut rein :uexplode:
(Aus dem RTX30 Verfügbarkeit Thread)
etwas OT aber es muss ein.
https://youtu.be/0frNP0qzxQc
ChaosTM
2021-09-05, 15:11:19
Große Monolithen werden aussterben müssen, so wie die Dinos ;)
BlacKi
2021-09-05, 15:32:29
Ich kritisiete die Entwicklung
es gab auch früher laute 250w karten. was ist jetzt dein punkt? lass doch die leute ihre 500w karten kaufen. dir wird doch nichts weggenommen. effizienz bleibt auch bei 500w karten ein wichtiges ziel. und das wirds auch immer sein.
die kleineren karten werden ja nicht langsamer, wenn es immer größere karten gibt.
Lurtz
2021-09-05, 16:58:44
es gab auch früher laute 250w karten. was ist jetzt dein punkt? lass doch die leute ihre 500w karten kaufen. dir wird doch nichts weggenommen. effizienz bleibt auch bei 500w karten ein wichtiges ziel. und das wirds auch immer sein.
die kleineren karten werden ja nicht langsamer, wenn es immer größere karten gibt.
Natürlich gibt es irgendwann den Punkt wo der absolute Verbrauch zu hoch ist, egal wie effizient die Karte an dem Punkt ist.
BlacKi
2021-09-05, 19:23:01
neue gerüchte
little earlier then late 2022^^
https://twitter.com/nerdtechgasm/status/1430832150526324739
Platos
2021-09-05, 19:25:53
Also wenn ich das richtig verstehe, ist das eig. eher ne Verfügbarkeitsangabe von TSMC 5nm und nicht wirklich Lovelace.
AffenJack
2021-09-05, 19:33:53
Also wenn ich das richtig verstehe, ist das eig. eher ne Verfügbarkeitsangabe von TSMC 5nm und nicht wirklich Lovelace.
Es geht um Kopites Post und der hat sich in seinem Tweet auf die früheren Angaben zu Lovelace bezogen. Da hieß es Q4 22 - Q1 23.
Ein bisschen früher sollte also die Timeline in Richtung 2 Jahre nach Ampere schieben, also Herbst 2022.
[...]
3.) Also ich vermute, dass die "smoothe Transition to Lovelace“ sich schon eher auf die Performance bezogen hat.
Eine Möglichkeit wäre, dass Nvidia Ampere in TSMC 6nm neu auflegt. Die Designkosten dafür sollten überschaubar sein, da GA100 ja bereits für 7nm designed wurde, was kompatibel zu 6nm ist. Es müssten vermutlich nur die RT Teile portiert werden, falls das nicht damals schon passiert ist.
Eine andere Möglichkeit ist, dass gleich mit 5nm Lovelace gestartet wird, jedoch mit dem unteren Ende des Lineup, damit Intel nicht den ganzen Sub 300 Markt alleine abgreift und damit man sich was den Yield angeht langsam vortasten kann. Ich denke nicht, dass die Ausbeute der ersten 700mm² 5nm Dies so prickelnd sein wird.
Das ist sicherlich pures Wunschdenken. Es wird keine Transition auf einen anderen Prozess geben, diesen Blödsinn hatten wir schon zig mal durchgekaut. Das ist schlichtweg zu teuer, weil sämtliche Chips dafür neu designt werden müssten. Dafür hätte es i.Ü. auch schon seit mindesten 1/2 Jahr auch Tapeout-Meldungen geben müssen, es ist nichts dergleichen passiert.
Troyan
2021-09-06, 10:47:46
Laut Computerbase bezahlt Apple für 5nm das doppelte gegenüber 7nm. Nur so als Anhangspunkt, wieso es eigentlich irrsinnig wäre wieder zu TSMC zu wechseln.
/edit: Erklärt dann auch, wieso Qualcomm wieder zu Samsung gewechselt ist. Das sind einfach irre Preise, die TSMC aufrufen kann.
fondness
2021-09-06, 10:52:18
Laut Computerbase bezahlt Apple für 5nm das doppelt gegenüber 7nm. Nur so als Anhangspunkt, wieso es eigentlich irrsinnig wäre wieder zu TSMC zu wechseln.
/edit: Erklärt dann auch, wieso Qualcomm wieder zu Samsung gewechselt ist. Das sind einfach irre Preise, die TSMC aufrufen kann.
Wenn man durch einen besseren Prozess einen Wettbewerbsvorteil erzielen kann, kann sich das unterm Strich halt trotzdem rechnen. Bzw. werden die Preissteigerungen bei Samsung kaum kleiner sein.
Troyan
2021-09-06, 11:10:27
Wenn Apple 5nm verlässt, werden viel mehr Firmen sich um die Kapazitäten prügeln. Der Preis wird also noch höher liegen. Für nVidia ist das locker eine Verdreifachung gegenüber den deutlich günstigeren 8nm DUV Prozess von Samsung.
Sunrise
2021-09-06, 12:20:31
Was uns somit auch klar die Richtung aufzeigt:
Es wird leider Normalität, dass die dGPU-Preise in Zukunft nicht billiger werden können, bzw. kein IHV mehr Interesse daran hat, billiger zu verkaufen, erst Recht nicht NV. Zusätzlich wird die Herstellung bzgl. des Stacking/Packaging komplexer. Dann kommt auch noch die erhöhte Nachfrage an SoCs hinzu.
Das wird (ist es bereits eigentlich jetzt schon) dann damit enden, dass große dGPUs purer Luxus sind, ähnlich wie gebrauchte Kleinwagen.
Intel könnte hier eine Chance haben, weil sie die Fertigung/Packaging/Stacking quersubventionieren können und hier ist viel Boden gut zu machen. Wenn sie es nicht wieder mit übertriebenem Hype-Marketing verkacken.
BlacKi
2021-09-06, 13:11:40
Wenn Apple 5nm verlässt, werden viel mehr Firmen sich um die Kapazitäten prügeln. Der Preis wird also noch höher liegen. Für nVidia ist das locker eine Verdreifachung gegenüber den deutlich günstigeren 8nm DUV Prozess von Samsung.
die sind doch schon längst entschieden. und ich denke, nv hat sich einen großen teil gesichert. nicht nur für hpc.
Laut Computerbase bezahlt Apple für 5nm das doppelte gegenüber 7nm. Nur so als Anhangspunkt, wieso es eigentlich irrsinnig wäre wieder zu TSMC zu wechseln.
/edit: Erklärt dann auch, wieso Qualcomm wieder zu Samsung gewechselt ist. Das sind einfach irre Preise, die TSMC aufrufen kann.
das dumm ist, alle werden teurer. ausserdem kann man mit teuren 5nm chips besser preissteigerungen rechtfertigen. ausserdem doppelte waferkosten oder doppelte transistorkosten? das ist nicht ganz dasselbe.
Thunder99
2021-09-06, 14:57:37
Preissteigerungen werden auf den Kunden umgelegt. Gibt dazu ja schon inoffizielle Infos, dass das iPhone 13 noch teurer wird.
Bei Grafikkarten, ausserhalb der derzeitigen Preislage, kann man auch eine Preissteigerung erwarten.
Slipknot79
2021-09-06, 21:20:46
Einfach HighEnd-Grafikkarten in den Inflationswarenkorb reinlegen, Problem solved. :redface:
Launch october 2022:
https://wccftech.com/nvidia-geforce-rtx-30-super-ampere-refresh-q1-2022-geforce-rtx-40-ada-love-lace-q4-2022-launch-rumor/
Badesalz
2021-09-09, 12:43:19
Wow... Damit hätte AMD noch für so einiges Zeit bis zu den nächsten tape-outs.
robbitop
2021-09-09, 12:54:36
Das war doch nicht überraschend oder? Es ist schon ewig nicht mehr < 24 Monate zwischen Generationen gewesen.
Geächteter
2021-09-09, 13:43:54
Einfach HighEnd-Grafikkarten in den Inflationswarenkorb reinlegen, Problem solved. :redface:
Können eigentlich den kompletten Elektronikmarkt reinlegen. Für große Bevölkerungsteile von Europa wird in 25 Jahren vieles der Infomationstechnologie nicht mehr leistbar sein und auch die Verfügbarkeit schlechter als in der DDR am Ende ihrer Lebenszeit sein, wenn nicht gegengesteuert werden. Damit geht es dann auch wieder back to the roots ins Vorzeitinformationszeitalter.
Die "Budget"phones haben heute weniger Rechenpower als High-End vor 7 Jahren und die Anforderungen von Software durch Fehlprogrammierung steigen immer weiter. Derweil wandern ehemals eigentlich noch nutzbare vormals High-End-SOCs, hergestellt unter massivem Energie- und Ressourcenverbrauch mit in die Presse, weil das Display oder der Akku im Arsch ist.
Badesalz
2021-09-09, 15:12:21
Das war doch nicht überraschend oder? Es ist schon ewig nicht mehr < 24 Monate zwischen Generationen gewesen.Den Zeitpunkt find ich für NV halt schlecht, weil AMD halt dabei ist Anlauf zu nehmen. Ok, vielleicht gehts halt auch nicht schneller, aber auch wenn mein Biasometer kleinwenig bei den Radeons ist, soviel Zeit hätte ich AMD sonst nicht gegeben ;)
Aber ok. Das macht den Markt nur interessanter. Ist ja nichts weswegen ich traurig bin :tongue:
BlacKi
2021-09-09, 15:17:33
denkst du wirklich, nv hat konkurenz?:freak:
ich glaube, die preise bleiben kaputt. deshalb ist es auch komplett egal wer wann was rausbringt. das einzigste was zählt ist, je früher, desto mehr geld:cool:
Badesalz
2021-09-09, 15:56:41
denkst du wirklich, nv hat konkurenz?:freak: Rede ich von "jetzt"?
Linmoum
2021-09-09, 15:58:16
denkst du wirklich, nv hat konkurenz?:freak: Wenn sich die bisher erstaunlich übereinstimmenden Gerüchte tatsächlich bewahrheiten sollten, ist diesmal nicht die Frage, ob Nvidia Konkurrenz hat. ;)
Aber man braucht mit Q4 2022 nun wahrlich nicht überrascht sein, das konnte bzw. kann man ganz gut für die nächste Gen bei beiden Herstellern ansetzen.
BlacKi
2021-09-09, 16:12:03
Rede ich von "jetzt"?
glaubst du wirklich, die situation nächstes jahr ist komplett anders aussieht?
Badesalz
2021-09-09, 16:22:35
Rede ich von einer KOMPLETT anderen Situation?
Du bist irgendwie seltsam...
Leonidas
2021-09-10, 13:15:24
Radeon RX 7000 und GeForce RTX 40 sollen nahezu zeitgleich im Oktober 2022 antreten
https://www.3dcenter.org/news/geruechtekueche-radeon-rx-7000-und-geforce-rtx-40-sollen-nahezu-zeitgleich-im-oktober-2022-antr
die unschöne Interpretation (die ja wohl nicht gemeint sein kann),
mit Super beginnt bereits die Gewöhnung an:
- höhere TPD
- höhere Preise
- kein NV Link mehr (auch nicht bei der 4090)
Doch, genau das dürfte gemeint sein.
Badesalz
2021-09-10, 15:10:28
Ich kann mir kaum vorstellen, daß noch höhere TDPs egal ob Daddeln, Workstation oder HPC eine Option darstellen können.
Linmoum
2021-09-10, 15:15:54
Ich sehe da überhaupt kein Problem, wenn in Relation die Leistung (und damit Effizienz) dafür dennoch deutlich steigt.
Und dort, wo weniger Verbrauch angezeigt ist, wird es dann halt entsprechende SKUs geben.
boxleitnerb
2021-09-10, 15:23:41
Ich sehe da überhaupt kein Problem, wenn in Relation die Leistung (und damit Effizienz) dafür dennoch deutlich steigt.
Und dort, wo weniger Verbrauch angezeigt ist, wird es dann halt entsprechende SKUs geben.
Würde die Effizienz deutlich steigen, wäre es nicht nötig. Wenn wir so effizienzlimitiert wären, würde die Lücke zwischen den schnellsten und langsameren (mobilen) GPUs größer werden, weil man das dort nicht gut weggekühlt bekommt.
Sorry, denke immer noch es ist der völlig falsche Weg.
aufkrawall
2021-09-10, 15:27:34
Muss bei AMD mit Chiplets nicht so sein, also stark erhöhte Effizienz und Performance gleichzeitig. Ich fürchte, sofern Nvidia nicht noch irgendein Ass im Ärmel hat, werden die den Verbrauch nur so hochziehen, um wenigstens etwas weniger abgeschlagen gegen Chiplets zu sein. Momentan noch sehr spekulativ, aber wie gut soll Lovelace denn sonst sein?
boxleitnerb
2021-09-10, 15:30:32
Irgendwie hab ich auch das Gefühl. An einen neuen G80 glaube ich nicht. Selbst der hätte nicht so eingeschlagen, wenn er das Powerbudget von G71 gehabt hätte.
Lurtz
2021-09-10, 15:57:33
Ich sehe da überhaupt kein Problem, wenn in Relation die Leistung (und damit Effizienz) dafür dennoch deutlich steigt.
Und dort, wo weniger Verbrauch angezeigt ist, wird es dann halt entsprechende SKUs geben.
Natürlich ist der absolute Verbrauch irgendwann ein Problem.
Vielleicht verbietet die EU Consumer-GPUs mit mehr als 250 Watt ja demnächst ;D
ChaosTM
2021-09-10, 16:00:24
Deshalb hab ich jetzt eine Laptop mit mobiler 3080er. Sauschnell und trotzdem Effizient. Dank ANC Kopfhörer ist auch die Lautstärke kein Problem im Extra Turbo Mode (165Watt @ GPU). Im Desktop Modus hört man das Ding so gut wie gar nicht.
aufkrawall
2021-09-10, 16:01:54
Das wird die wohl nicht sonderlich interessieren, wenn die GPUs mit deutlich >250W sowieso nur für vierstellige Beträge kaufbar sein werden. Die Annahme, dass der Markt langfristig kaputt ist, ist ja mittlerweile kein bloßes Schreckgespenst mehr.
ChaosTM
2021-09-10, 16:02:55
Vor `23 wird sich da nix beruhigen befürchte ich..
Badesalz
2021-09-10, 16:08:05
Ich sehe da überhaupt kein Problem, wenn in Relation die Leistung (und damit Effizienz) dafür dennoch deutlich steigt. Du meinst 1kW Netzteile und eine Warmwasserkühlung werden sich zum Ende nächstes Jahres verkaufen wie warme Semmeln?
BlacKi
2021-09-10, 16:48:36
Du meinst 1kW Netzteile und eine Warmwasserkühlung werden sich zum Ende nächstes Jahres verkaufen wie warme Semmeln?
er meint, wenn die leistung noch halbwegs nach oben skaliert. siehe 3080 vs 3090. was willst du mit einer 3080 mit 450w PT. das skaliert kaum nach oben. eine 3090 kann bis 450w skalieren, vl sogar noch darüber hinaus.
wenn der chip groß genug ist, dann können auch 500w noch sinnvoll sein.
Deshalb hab ich jetzt eine Laptop mit mobiler 3080er. Sauschnell und trotzdem Effizient. Dank ANC Kopfhörer ist auch die Lautstärke kein Problem im Extra Turbo Mode (165Watt @ GPU). Im Desktop Modus hört man das Ding so gut wie gar nicht.
dude, du weißt schon dass das ne gedrosselte (aber gebinnte)3070 ist?
Linmoum
2021-09-10, 16:49:17
Ich meine, dass die überwältigende Mehrheit der Leute, die in dieser Preis- und Leistungsklasse einkaufen, bereits im Voraus wissen, was bei xy Watt auf sie zukommt und was sie dafür ggf. brauchen werden.
Für mich ist die Effizienz entscheidender als einfach nur der reine Verbrauch isoliert betrachtet. Gilt nicht für jeden, ist mir bewusst. Aber sich jede Seite aufs Neue darüber zu beschweren, hilft wenig weiter.
Lurtz
2021-09-10, 16:52:14
Das wird die wohl nicht sonderlich interessieren, wenn die GPUs mit deutlich >250W sowieso nur für vierstellige Beträge kaufbar sein werden. Die Annahme, dass der Markt langfristig kaputt ist, ist ja mittlerweile kein bloßes Schreckgespenst mehr.
Wer hätte gedacht dass der PC mal durch zu viel Leistung durch die Konsolen besiegt werden würde.
Das was man ehemals als Mittelklasse bezeichnet hätte wurde von beiden Herstellern im Grunde abgeschafft, und im Einstiegsbereich kriegt man nur veralteten Krempel angedreht.
Ich meine, dass die überwältigende Mehrheit der Leute, die in dieser Preis- und Leistungsklasse einkaufen, bereits im Voraus wissen, was bei xy Watt auf sie zukommt und was sie dafür ggf. brauchen werden.
Für mich ist die Effizienz entscheidender als einfach nur der reine Verbrauch isoliert betrachtet. Gilt nicht für jeden, ist mir bewusst. Aber sich jede Seite aufs Neue darüber zu beschweren, hilft wenig weiter.
In dem was mal die Mittelklasse war gehen Verbrauch und Kosten doch auch durch die Decke.
Linmoum
2021-09-10, 17:01:21
Naja, was ist Mittelklasse nach heutigem Stand? 2xx€? 3xx€? 4xx€? Im Bereich von 3xx€-4xx€ erschien vor kurzem erst eine der/die aktuell effizienteste(n) Karte(n) am Markt.
Nach unten hin wird man zukünftig zwangsläufig nur noch APUs bekommen, das lohnt sich einfach deutlich mehr als noch extra dGPUs dafür aufzulegen.
BlacKi
2021-09-10, 17:06:43
Naja, was ist Mittelklasse nach heutigem Stand? 2xx€? 3xx€? 4xx€? Im Bereich von 3xx€-4xx€ erschien vor kurzem erst eine der/die aktuell effizienteste(n) Karte(n) am Markt.
Nach unten hin wird man zukünftig zwangsläufig nur noch APUs bekommen, das lohnt sich einfach deutlich mehr als noch extra dGPUs dafür aufzulegen.
du störst sie nur beim ragen.
ChaosTM
2021-09-10, 17:28:51
dude, du weißt schon dass das ne gedrosselte (aber gebinnte)3070 ist?
Natürlich nicht :D
Und nein, die mobile 3080er hat etwas mehr "Kerne" (knapp über 6k vs 5888) und "gedrosselt" ist da auch nix. Die zu erreichende Geschwindigkeit hängt, wie bei allen Grakas an der Kühllösung und der Menge an Energie die man hineinsteckt. Warum das Ding "3080er" heißt weiß auch nur NV. Ist eigentlich eine klare "Lüge".
Immerhin geht CP77 @ Ultra/RT bei 2400p mit DLSS auf Ultra.
Man muss aber ehrlicherweise sagen, dass RT hauptsächlich FPS frisst bei sehr geringer Mehr-Qualität. ;)
Bis RDNA3 reicht das auf jeden Fall dicke. Das Desktop Sys wird verkauft.
Platos
2021-09-10, 17:43:04
Naja, wenn du dich für Effizienz interessierst, müssten eig. jegliche Akkubasierten Geräte ein No-Go sein ;)
Aber kann natürlich praktisch sein, wenn man sowieso ein Laptop braucht und dann aber keinen Desktop mehr.
ChaosTM
2021-09-10, 17:48:03
Der Akku ist bei 50% Ladung eingeparkt. Den brauch ich kaum.
Spiel mich gerade mit Metro Exodus Enhanced. DAS ist geiles RT, du lieber Schwan..
Platos
2021-09-10, 17:54:51
Du meinst, du nimmst den Akku raus und betreibst das Gerät direkt per Kabel?
Na wenn das geht mit diesem Laptop, dann why not. Mache ich mit meinem alten Laptop auch so (bei mir aber, weil der Akku tot ist).
ChaosTM
2021-09-10, 18:09:58
Du meinst, du nimmst den Akku raus und betreibst das Gerät direkt per Kabel?
Na wenn das geht mit diesem Laptop, dann why not. Mache ich mit meinem alten Laptop auch so (bei mir aber, weil der Akku tot ist).
Nein, der Akku bleibt drinnen, wird aber per Weichware auf 50% Ladezustand gehalten zwecks Langzeit-Lagerung.
Bin fasziniert von dem Gerät. Hätte nicht gedacht, dass ein so dünnes Gerät so schnell und nebenbei "relativ" leise sein kann.
Mein alter 7700/1070er Laptop war fast doppelt so dick und lauter.
Badesalz
2021-09-11, 00:55:13
Ich meine, Schonmal danke! Ich dachte ich muss jetzt wieder nur mit den Übersetzungsversuchen von blacki leben :uup:
dass die überwältigende Mehrheit der Leute, die in dieser Preis- und Leistungsklasse einkaufen, bereits im Voraus wissen, was bei xy Watt auf sie zukommt und was sie dafür ggf. brauchen werden.Worauf basiert die Annahme, daß diese Käuferklasse keine eigenen Schmerzgrenzen hat?
Mal davon ab, daß TDP bei kleineren Modellen zwar mit der Leistung mit nach unten skaliert, aber trotzdem wieder höher gegenüber dem Vorgänger liegt.
Und auch mal davon ab, daß bei NV weiterhin ordentlicher Batzen mit Gaming gemacht wird, aber weniger mit den Topmodellen (?)
Für mich ist die Effizienz entscheidender als einfach nur der reine Verbrauch isoliert betrachtet.Ich halte das für sehr speziell...
Thunder99
2021-09-11, 10:08:57
Für mich ist eine bessere Effizienz, wenn die neuen Karten mehr Performance liefern bei annähernd gleichem oder weniger Verbrauch. Ich habe mir halt persönlich ein Limit gesetzt (Stand heute), was eine Grafikkarte maximal verbrauchen soll.
Sonst ist man echt gezwungen, so lange zu warten bis es die Leistung gibt mit einem entsprechenden Verbrauch.
Wie viel Zeit gab es zwischen Turing Refresh und Ampere?
Badesalz
2021-09-11, 10:15:23
@Thunder99
Ich eigentlich auch (Erwartungshaltung) aber auf diese Effizienz - in nennenswerten Größen - muss man eigentlich eher 2 Generationen warten. Das kann dann schonmal dauern :usweet:
MiamiNice
2021-09-11, 10:35:38
Ihr immer mit eurer Effizienz.
Power muss das Gerät haben. Beii den Preisen ist es vollkommen irrelevant was da an Strom verschluckt wird. Eine 4090 wird sicherlich 2k€ UVP haben - die Straßenpreise kann sich da jeder denken.
Menschen die so viel Geld bereit sind auszugeben, ka**en auf Effizienz.
Badesalz
2021-09-11, 10:52:00
Ihr immer mit eurer Effizienz.
Power muss das Gerät haben. Beii den Preisen ist es vollkommen irrelevant was da an Strom verschluckt wird. Eine 4090 wird sicherlich 2k€ UVP haben - die Straßenpreise kann sich da jeder denken.
Menschen die so viel Geld bereit sind auszugeben, ka**en auf Effizienz.Du tust jetzt so als wenn der Gedanke, daß es noch andere als nur Prolos und Proleten gibt, irgendwie unsinnig wäre.
Mal davon ab, daß es mir nicht ganz klar ist warum sich diese Diskussion nur um das absolute Topmodell drehen sollte.
Linmoum
2021-09-11, 12:40:32
Ihr immer mit eurer Effizienz.
Power muss das Gerät haben. Beii den Preisen ist es vollkommen irrelevant was da an Strom verschluckt wird. Eine 4090 wird sicherlich 2k€ UVP haben - die Straßenpreise kann sich da jeder denken.
Menschen die so viel Geld bereit sind auszugeben, ka**en auf Effizienz.Wenn ich von 320W auf 400W eine Performancesteigerung habe, die dann vielleicht 5-6% beträgt, bin ich doch nicht so bescheuert und entscheide mich für letzteres.
Ich hab 'ne fette Wakü und die Karte bei 4x°C zu halten ist in der Größenordnung kein Problem.
Trotzdem lasse ich meinen Verstand nicht aussetzen in solchen Fällen. Wenn aber eine entsprechende Skalierung nach oben hin vorhanden ist, dann hab ich selbstverständlich absolut kein Problem damit, (viel) mehr durchzujagen. ;)
iamthebear
2021-09-11, 17:14:20
Also meiner Meinung nach entsteht das subjektive Gefühl der hohen Preislage zum Großteil durch 2 Dinge:
a) Nvidias gelogene UVP Angaben, durch die unrealistische Erwartungen geschürt werden
b) Die Tatsache, dass im unteren Performancebereich gar nichts mehr lieferbar ist.
Vor 1 Jahr hat man auch nicht mehr Performance um dasselbe Geld bekommen:
.) Statt der 3070 hat man die 2080 Ti um 1000 Euro gekauft
.) Statt der 3060 Ti hat man die 2080 Super um 700 Euro gekauft
.) Statt der 3060 hat man die 2070 Super um 500 Euro gekauft
Platos
2021-09-11, 17:34:03
gelogene UVP? Was soll daran bitte gelogen sein ?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.