Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Slipknot79
2021-11-14, 18:20:34
Ich nehme an Tombmansche Mikroruckler wird es nicht geben bei Chiplets? Oo
robbitop
2021-11-14, 18:51:24
Ist die Frage ernst gemeint? Das ganze verhält sich wie ein monolithischer Chip. Ob die CUs/SMs chipintern verbunden sind oder extern interessiert die nicht die Bohne so lange genug Bandbreite vorhanden ist. Und genau das war bis dato die Hürde. Dank modernen Packaging Technologien wie InfoLSI und Stacking ist das nun grundsätzlich machbar.
Das micro Ruckler Thema gab es eben, weil obiges damals nicht machbar war und man mittels AFR beide GPUs unabhängig voneinander beschäftigt hatte. Das Framepacing war dann im Eimer und es war Frickelei die nicht transparent zur Anwendung lief. Je komplexer die Renderpipelines desto schwieriger war es und desto schlechter lief es am Ende.
Nightspider
2021-11-14, 18:53:50
Ich nehme an Tombmansche Mikroruckler wird es nicht geben bei Chiplets? Oo
Wenn sich die Chiplets nach außen hin wie ein einziger Chip verhalten nein. Sollte eigentlich klar sein.
AffenJack
2021-11-14, 19:17:33
Ist die Frage ernst gemeint? Das ganze verhält sich wie ein monolithischer Chip. Ob die CUs/SMs chipintern verbunden sind oder extern interessiert die nicht die Bohne so lange genug Bandbreite vorhanden ist. Und genau das war bis dato die Hürde. Dank modernen Packaging Technologien wie InfoLSI und Stacking ist das nun grundsätzlich machbar.
InfoLSI würde nicht ausreichen, da sind die Bandbreiten zu gering. Deshalb ist Aldebaran auch noch 2 GPUs. Mit SoIC wie beim V-Cache passts dann und wird die Basis für N31/N32 sein.
Um mal wieder zu Nv zu kommen:
kopite7kimi
@kopite7kimi
I forgot to tell you before, GH180=TH500+GH100 with 3D stacked.
That means Grace Hopper=Grace+Hopper.
Nvidia dürfte also etwa 1 Jahr später mit SoIC ankommen, allerdings in APU Form.
basix
2021-11-14, 20:33:10
Was ist TH500?
AffenJack
2021-11-14, 21:39:04
Was ist TH500?
Kopite hat den Codenamen für Grace genutzt, auch wenn der nicht groß passt. Die Frage ist natürlich auch, ob GH180 wirklich was neues mit GH100 ist oder nur Hopper Arch plus Grace und dann passt das zu Atlan. Macht in meinen Augen mehr Sinn. Glaube nicht, dass man zu GH100 noch ne CPU packen kann, außer man verwendet nur 1 Gpu Die plus Grace.
basix
2021-11-15, 09:10:51
Atlan soll ja Grace-Next sein?! Bei diesen Codenamen sehe ich gerade nicht durch.
Ausblick auf Hoppers Chiplet Aufbau?
Nvidia-Beschleuniger kombiniert AI- und HPC-Chiplets
https://www.golem.de/news/copa-gpu-nvidia-beschleuniger-kombiniert-ai-und-hpc-chiplets-2201-162292.html
Leonidas
2022-01-17, 09:36:24
Greymon55:
I don't know whether it is 4090 or 4090TI, but there is a model that can reach 600W.
https://www.3dcenter.org/news/news-des-1516-januar-2022
basix
2022-01-17, 11:42:01
Spricht für ~500W TDP mit max. 600W via erhöhtem Power Limit. Allenfalls sind die 600W auch "nur" dem neuen PCIe Stecker geschuldet, welcher bis zu 600W zulässt. Dann geht auch nur 600W und nicht mehr. Das muss dann aber nicht mit der TDP übereinstimmen. Könnten auch weniger sein. Mit dem neuen Stecker hat man zumindest die Möglichkeit, bis auf 600W zu gehen. Und wenn Lovelace zeitlich vor RDNA3 kommt, hätte man ein 4090 Ti inkl. Brechstange in der Hinterhand.
Guat, brauch ich keinen Shunt Mod machen :P
r3ptil3
2022-01-17, 11:56:42
Nach der RTX 3090 Ti mit 480W PL, traue ich denen auch die 600W zu.
Wenn die Fake-Leaks zur Realität werden.
https://cdn.vox-cdn.com/thumbor/pHPK3WiU5XKHOjqA_DOZslJ77K0=/1400x788/filters:format(jpeg)/cdn.vox-cdn.com/uploads/chorus_asset/file/22412965/rtx4090joke.jpg
Wobei auch hier die Frage: Unter 70° halten? Schwierig...
Neurosphere
2022-01-17, 12:33:24
Spricht für ~500W TDP mit max. 600W via erhöhtem Power Limit. Allenfalls sind die 600W auch "nur" dem neuen PCIe Stecker geschuldet, welcher bis zu 600W zulässt. Dann geht auch nur 600W und nicht mehr. Das muss dann aber nicht mit der TDP übereinstimmen. Könnten auch weniger sein. Mit dem neuen Stecker hat man zumindest die Möglichkeit, bis auf 600W zu gehen. Und wenn Lovelace zeitlich vor RDNA3 kommt, hätte man ein 4090 Ti inkl. Brechstange in der Hinterhand.
Ich meine 600 Watt gehen alleine über den Stecker. Es gingen noch weitere 75 Watt über den Steckplatz.
600W gehen nur noch mit Wasser ;).
basix
2022-01-17, 15:36:14
Ich meine 600 Watt gehen alleine über den Stecker. Es gingen noch weitere 75 Watt über den Steckplatz.
Klar, aber viel Spass dabei bei >600W den PCIe Slot nicht zu überlasten.
Lehdro
2022-01-17, 15:56:12
Klar, aber viel Spass dabei bei >600W den PCIe Slot nicht zu überlasten.
Vom PCIe zieht man dann nur noch den Strom für LEDs (RGB!) und die Lüfter. :freak:
basix
2022-01-17, 15:58:04
Wenn du das entsprechend so auf dem Grafikkarten PCB mit zwei getrennten Rails umsetzt: Jo, wieso nicht ;)
Aber auch den PCIe 600W Stecker sollte man nicht dauerhauft grenzbelasten ;)
Ne, an mehr als 550W TDP glaube ich nicht. Darüber wird man mMn nicht gehen. Und wie schon angedeutet: Ohne Wakü oder Turbine fast nicht mehr kühlbar. Oder wollt ihr 5kg Grafikkarten?
Neurosphere
2022-01-17, 16:12:48
Wenn du das entsprechend so auf dem Grafikkarten PCB mit zwei getrennten Rails umsetzt: Jo, wieso nicht ;)
Die Spannungsversorgung wird schlicht aufgeteilt, das wird eh schon so gemacht.
Aber auch den PCIe 600W Stecker sollte man nicht dauerhauft grenzbelasten ;)
Zum einen heißt es ja nicht das man nur einen Stecker nimmt und zum anderen sind da genug Sicherheiten drin um das Ding ohne Probleme dauerhaft mit 600 Watt zu betreiben.
Ne, an mehr als 550W TDP glaube ich nicht. Darüber wird man mMn nicht gehen. Und wie schon angedeutet: Ohne Wakü oder Turbine fast nicht mehr kühlbar. Oder wollt ihr 5kg Grafikkarten?
Dürfte auf AiO hinauslaufen, ja.
ChaosTM
2022-01-17, 16:38:15
(Quad) SLI ging auch irgendwie, nur konnte man da die Kühlung auf 2-4 Karten verteilen.
Wo die Grenze für eine Karte liegt ist schwer zu sagen.
DavChrFen
2022-01-20, 21:13:21
Da gibt es dann eine neue Challenge bei Übertaktern: Wer schafft es zuerst 1000W durch die GPU zu jagen.
Es wird vermutlich 3-Slot Kühler und AIO geben. Ich sehe darin kein Problem.
Wo ich eher ein Problem sehe ist, dass es vermutlich Netzteile geben wird, die die sehr schwankenden Last mit 600W nicht abkönnen. Da gab es ja auch schon beim Release der 3090 ein par Kandidaten.
TheAntitheist
2022-01-21, 13:28:18
Da gibt es dann eine neue Challenge bei Übertaktern: Wer schafft es zuerst 1000W durch die GPU zu jagen.
Es wird vermutlich 3-Slot Kühler und AIO geben. Ich sehe darin kein Problem.
Wo ich eher ein Problem sehe ist, dass es vermutlich Netzteile geben wird, die die sehr schwankenden Last mit 600W nicht abkönnen. Da gab es ja auch schon beim Release der 3090 ein par Kandidaten.
hab meine 3090 sogar mit einem 550 Watt Netzteil betrieben, weil ich dachte ich hab ein 650er. ging ein halbes Jahr sogar ganz gut aber dann ging der PC einmal ohne was aus und dann hab ich mal nachgeguckt. Also SO krass kann das gar nicht sein.
basix
2022-01-21, 14:25:21
Kommt auf dein restliches System, die konkrete 3090 als auch die Güte des Netzteils an ;)
Evtl. erinnerst du dich noch daran, dass einige Reviewer bei ihren Testsystem ein Stepup beim Netzteil machen mussten, weil aufgrund Überlast jeweils eine Notabschaltung stattfand. Und die Netzteile dieser Testsysteme sind üblicherweise eher überdimensioniert.
iamthebear
2022-01-22, 00:19:18
Also bei einer 2000+ Euro GPU sehe ich eigentlich nicht wirklich ein Problem diese mit einer AIO auszuliefern.
Theoretisch könnte man das Topmodell (z.B. 4950 Ti) mit 600W auch nur an OEMs liefern, die dann ein eigenes Gehäuse dafür bauen. Das wird dann eine Limited Edition und die reguläre 4090 Ti kommt mit 450W. Ich bezweifle ja, dass Lovelace diese Verlustleistung wirklich braucht. Die Karten werden nur bis ans Maximum getrieben.
Die Frage ist nur ob man die Hitze dann überhaupt noch vom Die wegbekommt.
Leonidas
2022-01-29, 10:38:11
GH100 has a huge single die of slightly less than 1000mm².
https://twitter.com/kopite7kimi/status/1487253688280240129
Nebenbei interessanter Hinweis auf ältere Kopie-Aussage:
Let's look forward to Hopper with 48V power and 1xxxW consumption.
https://twitter.com/kopite7kimi/status/1450295574461227008
Sunrise
2022-01-29, 11:00:51
GH100 has a huge single die of slightly less than 1000mm².
https://twitter.com/kopite7kimi/status/1487253688280240129
Das wird mit ziemlicher Sicherheit eher das Package sein…
robbitop
2022-01-29, 11:03:55
Dann wäre es aber keine Schlagzeile wert oder? Sowas gab es doch schon x mal.
Sunrise
2022-01-29, 11:06:18
Dann wäre es aber keine Schlagzeile wert oder? Sowas gab es doch schon x mal.
Begrenzt da nicht das Reticle Limit? Wir haben ja immerhin einen neuen Prozess und was NV da noch geändert hat, wissen wir nicht.
EDIT:
Ich hab mich mal kurz auf den aktuellen Stand gebracht. NV will das wohl mit einer COPA-GPU lösen, da gibts ein Research Paper dazu. Muss ich mir mal genauer anschauen… allerdings wäre dann rein technisch das RL weiterhin intakt, man umgeht es nur geschickt.
Leonidas
2022-01-29, 11:33:16
Das wird mit ziemlicher Sicherheit eher das Package sein…
Nein, ist das Die. Auch die Vorgänger waren schon größer als 800mm²
allerdings wäre dann rein technisch das RL weiterhin intakt, man umgeht es nur geschickt.
Wie genau? Bisher dachte ich man geht den Weg der mehrfachen Belichtung.
basix
2022-01-29, 11:44:08
Das wird mit ziemlicher Sicherheit eher das Package sein…
Gleich unter dem Tweet kommt kopite selbst mit genau dem. Anscheinend ist das Die aber grösser als GA100.
Etwas überraschend, dass immer noch monolithisch
GV100 815mm2
GA100 826mm2
Reticle Limit 858mm2
Linmoum
2022-01-29, 11:51:03
Bisher war man ja davon überzeugt, dass zumindest Hopper nicht mehr monolithisch sein würde. Dann sehen wir bei Nvidia frühestens... 2024? erste Produkte als MCM-Approach. Sportlich.
Dann hoffen wir für Hopper mal, dass da bei dem großen Die und N5 auch genug Ausbeute vorhanden ist. Von den Preisen mal ganz zu schweigen, das wird astronomisch.
basix
2022-01-29, 12:06:19
Ganz unmöglich ist "monolithic Single Die" mit 1000mm2 nicht. Wafer stitching oder evtl. was ähnliches wie Cerebras mit der WSE macht?
AffenJack
2022-01-29, 12:30:49
Gleich unter dem Tweet kommt kopite selbst mit genau dem. Anscheinend ist das Die aber grösser als GA100.
Etwas überraschend, dass immer noch monolithisch
GV100 815mm2
GA100 826mm2
Reticle Limit 858mm2
Ich glaube auch eher an 850. Kopite hat schon zurück gerudert und meinte dann eher 900.
Greymon hat dann auch noch geposted, dass GH100 der Monolithische Singlechip ist. Aber es MCM Versionen gibt.
Leonidas
2022-01-29, 13:21:54
Greymon55 hat bestätigt, dass das MCM einfach nur unter anderem Codenamen läuft:
https://twitter.com/3DCenter_org/status/1487368673308254209
Sunrise
2022-01-29, 13:30:37
Hier noch das Research Paper von Nvidia von meinem vorherigen Beitrag:
GPU Domain Specialization via Composable On-Package Architecture (https://dl.acm.org/doi/10.1145/3484505)
Es gäbe also mehrere Varianten, das würde auch auf die bisherigen Gerüchte passen. NV will ja vor allem DL pushen, da sind sie wohl an mehrere Grenzen gestoßen. Wenn man das aber macht, hat man unnötigen Ballast, also gibts mehrere Varianten aber evtl. mit gleicher oder leicht abgewandelter, monolithischer Basis.
Das umgeht dann ebenso das Reticle Limit…
Nightspider
2022-01-29, 15:43:19
Ich habe mich eh gefragt wie Nvidia MCM Chiplet Design realisieren könnte.
AMD hat ja schon jahrelang am Infinity Cache gearbeitet und diesem auch zum Connect zwischen Chips weiterentwickelt und hält auch Patente drauf.
Wie könnte Nvidias Lösung dafür aussehen? Die müsste ja ganz anders aussehen.
Wie die Yields wohl bei einem 1000mm² Chip ausfallen?
basix
2022-01-29, 18:52:09
Wie die Yields wohl bei einem 1000mm² Chip ausfallen?
Da 5nm etwa die selben Yield Raten wie 7nm hat, läuft es bei einem Die @ Reticle Limit auf das raus: ~45%
Mit Salvage wie bei GA100 (-1x Speichercontroller, -1x GPC, -4x SMs) wird der Yield sicher recht ordentlich sein. Vermutlich 80%+ und somit ~50 funktionsfähige Die pro Wafer.
Bei ~10k$ pro Wafer wäre das pro GPU ~200$. Der HBM wird ein Vielfaches davon kosten.
BlacKi
2022-01-29, 22:14:03
Greymon55 hat bestätigt, dass das MCM einfach nur unter anderem Codenamen läuft:
https://twitter.com/3DCenter_org/status/1487368673308254209
also hopper mono und lovelace multi
AffenJack
2022-01-29, 23:34:09
Ich habe mich eh gefragt wie Nvidia MCM realisieren könnte.
AMD hat ja schon jahrelang am Infinity Cache gearbeitet und diesem auch zum Connect zwischen Chips weiterentwickelt und hält auch Patente drauf.
Wie könnte Nvidias Lösung dafür aussehen? Die müsste ja ganz anders aussehen.
Wie die Yields wohl bei einem 1000mm² Chip ausfallen?
Genauso wie AMD bei Aldebaran. AMD nimmt einfach Infinity Fabric, Nvidia wird entweder Nvlink nehmen oder alternativ Ground Reference Signaling. Gibt ja schon seit 2017 Veröffentlichungen von Nvidia zu Multichip und Chips im Labor. Nur hat man bisher keinen Chip damit veröffentlicht. MCM ist überhaupt kein Problem, das ist Uralttechnik.
Interessant wird es erst wie irgendwann mal Nvidias Chiplet Architektur im Vergleich zu AMDs werden. Bei RDNA3 sind wir schließlich nicht mehr bei MCM.
also hopper mono und lovelace multi
Nee, GH100 = Single Die und GH200 oder so etwas MultiDie.
BlacKi
2022-01-29, 23:47:59
lovelace als namensgeber*in raus? diskriminierung^^
AffenJack
2022-01-29, 23:58:38
Wieso raus? Lovelace ist Consumer, Hopper Datacenter.
BlacKi
2022-01-30, 00:01:01
danke
-/\-CruNcher-/\-
2022-01-30, 01:29:23
Der Nachnahme an sich ist schon krass
Auch die Unterschiede Lovelace eine gehobene Wissenschaftlerin Hopper eine Militärwissenschaftlerin, wobei sicherlich auch das Britische Militär Lovelace ständig im nacken gessesen hat.
Nightspider
2022-01-30, 02:03:26
Genauso wie AMD bei Aldebaran. AMD nimmt einfach Infinity Fabric, Nvidia wird entweder Nvlink nehmen oder alternativ Ground Reference Signaling. Gibt ja schon seit 2017 Veröffentlichungen von Nvidia zu Multichip und Chips im Labor. Nur hat man bisher keinen Chip damit veröffentlicht. MCM ist überhaupt kein Problem, das ist Uralttechnik.
Interessant wird es erst wie irgendwann mal Nvidias Chiplet Architektur im Vergleich zu AMDs werden. Bei RDNA3 sind wir schließlich nicht mehr bei MCM.
War blöd formuliert von mir, meinte eigentlich auch eher Chiplet Design und nicht MCM, weil MCM ja nicht für Gaming taugt.
Wie Nvidias Chiplet Lösung für Gaming aussehen wird ist noch die Frage. Ob so eine Lösung vielleicht auch erst 2 Jahre nach Lovelace/Hopper kommt?
iamthebear
2022-01-30, 17:36:57
Die grundsätzliche Frage ist: Wozu sollte Nvidia bei den Gaming Chips Chiplets einsetzen?
Yieldraten sind kein Thema. Die sind selbst bei AD102 im Bereich von 500-700mm² noch akzeptabel wenn man einige Shader deaktiviert. Bei AD104 und kleiner (das was wirklich real gekauft werden wird) ist es überhaupt kein Thema mehr.
Bei AMD hat das Chiplet Design in erster Linie den Zweck den Cache auszulagern. Der wird dann in 6nm produziert, da SRAM nicht gut mit 5nm skaliert. Nur was will Nvidia in den 2. Chip stopfen? Ein IO Die macht bei GPUs vermutlich wenig Sinn.
Man darf bei dem ganzen nicht vergessen, dass Chiplets auch Nachteile haben:
.) Höherer Entwicklungsaufwand nur für einen High End Die
.) Höherer Energiebedarf wenn man Daten von einem Doe zum anderen transportieren will (auch wenn es hier deutliche Fortschritte gibt)
.) Höhere Packaging Kosten
Nightspider
2022-01-30, 18:24:34
Die grundsätzliche Frage ist: Wozu sollte Nvidia bei den Gaming Chips Chiplets einsetzen?
Um AMD nicht die Spitze zu überlassen?
basix
2022-01-31, 11:48:59
Bei der heutigen News (https://www.3dcenter.org/news/news-des-2930-januar-2022) zu Hopper frage ich mich, ob die SMs wie die Gaming Amperes auf 128 FP-Cores pro SM oder zumindest auf Full-Rate FP64 mit 64 FP-Cores pro SM gehen werden. Ich meine, GH100 soll grösser als GA100 werden und nur 144 vs. 128 SMs pro Die mitbringen? Trotz 5nm vs. 7nm? Und dann noch ohne Gaming GPU-Teile? Was würde GH100 dann so fett machen? Klar, die grösseren Caches und potenteren Tensor Cores machen was aus. Aber so viel? Full Rate FP64 würde sich hier mMn anbieten. Bei sogar noch etwas mehr Takt als be GA100 könnten so gut 2.5x FP64 Performance für GH100 rauskommen. Das würde in etwa den Erwartungen enstprechen. Und bei GH200 wären das dann 5x (bei dann aber 1000W)
Noch als Vergleich: AMD bringt 8192 CUs mit sehr hoher FP64-Performance in 6nm auf ~700m2.
Troyan
2022-01-31, 12:12:50
Bei 50% Effizienz ist es eben auch nur A100 Niveau. Außerdem wird nVidia viel mehr in TensorCores investieren, um diese für FP64 verwenden. Normale Vec8 Cores machen dann nur noch wegen Portierbarkeit sinn.
basix
2022-01-31, 12:22:19
Ach Troyan, lass einfach mal solche Sticheleien gegen AMD weg. Das unterminiert nämlich jeweils deine Aussagen ;) Es geht nicht um Performance Output sondern was man flächenmässig unterbringen kann. Bleib doch stattdessen bei Vergleichen zu den Nvidia Vorgängern ;)
Bei GH100 ist für mich eine Auslegung ähnlich wie bei MI200 ziemlich naheliegend:
- Full Rate FP64
- Ausgebauter FP64-Support für die Tensor Cores
Beides zusammen führt zu jeweils ~2.5x FP64 Performance verglichen mit GA100. Dass es noch mehr Tensor-Cores pro GPC gibt halte ich für eher unwahrscheinlich. Da wird man eher in nochmals stärker ausgebaute Sparsity-Features investieren.
Alles in allem wäre GH200 dann schon extrem fett:
- ~50 TFlops FP64
- ~100 TFlops FP64-Matrix
- ~800 TFlops FP16-Matrix
Wenn Nvidia extrem auf die Kacke hauen will, gibt es noch eine SKU mit mehr SMs oder deutlich mehr Takt. Um sich dann "World's first PetaFlops on-a-chip" auf die Fahne schreiben zu können (naja, wären genau genommen zwei Chips ;)). Wäre sowieso interessant: 1x GH200 vs. DGX-1 mit 8x V100 :D
Edit:
Wenn Nvidia den selben Salvage-Grad wie bei GA100 anlegt (-1x GPC, -4x SM) kommen 7808 FP-Cores bei GH100 raus. Setzt Nvidia den Boost-Clock auf 2.01 GHz, würden wir be exakt 1004 TFlops FP16 Throughput landen. Bei 500W pro GPU, wieso nicht.
TheAntitheist
2022-02-01, 07:12:17
Um AMD nicht die Spitze zu überlassen?
brauchen sie dafür nach stand jetzt aber nicht? Alle Gerüchte sagen mehr FP Leistung. Gehen wir davon aus das LL sie besser auf den Boden bringt und RT noch schneller wird. AMD muss erst ML/Tensor Kerne hinzufüren und HW RT. Da geht schon ne Menge platz für drauf.
basix
2022-02-01, 09:48:12
AMD muss erst ML/Tensor Kerne hinzufüren und HW RT. Da geht schon ne Menge platz für drauf.
Viel Platz benötigen Tensor & RT nicht.
Es gab damals bei Turing Analysen dazu:
- 8.94mm2 pro SM ohne Tensor/RT
- 10.89mm2 pro SM mit Tensor/RT
https://www.reddit.com/r/hardware/comments/baajes/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/
Im Falle von Nvidia sind das also gerade mal +22% mehr Fläche pro SM. Bei RDNA2 machen die CUs <50% des gesamten Die aus. Also kann man von ~10% Steigerung der Chipfläche ausgehen. Das ist mehr als verkraftbar.
Leonidas
2022-02-08, 10:39:50
140 Mrd. Transen bei GH100:
https://www.3dcenter.org/news/news-des-7-februar-2022
... ich denke aber, dass zumindest diese Angabe dann das 2-Chip-Modul meint.
r3ptil3
2022-02-12, 13:40:44
Gedanke: Nvidia streicht die RTX 3090 TI kommentarlos, stattdessen wird es die Karte zwar zu kaufen geben in geringer Stückzahl (nur über die Boardpartner), aber eine Vorstellung wird es nicht mehr geben.
Lovelace Release wird dafür vorgezogen auf Juni 2022.
Thunder99
2022-02-12, 13:45:50
Wie sollen sie es schaffen im Juni zu releasen wenn sie es nicht schaffen die Stabilitätsprobleme von der 3090Ti in den Griff zu bekommen? Auch nur ein Gedanke :)
Leonidas
2022-02-12, 14:55:04
Vorziehen ist nicht. Es gab für AD102 noch nichtmal eine Tape-Out-Meldung. Da ist nix mit "schneller machen".
für die, die es nicht erwarten können:
https://pbs.twimg.com/media/FLY15RzWUAIwrJK?format=jpg
robbitop
2022-02-12, 15:04:49
Es wird immer so getan als seien die „Tensor Cores“ was besonderes. Das Marketing wirkt offenbar :D
Das sind einfach nur ALUs, die Matritzen statt Vektoren rechnen. Das gibt es schon Ewigkeiten.
r3ptil3
2022-02-12, 15:22:00
Gab es eine Pre Tape Meldung nicht schon im August 2021?
Kann ja auch sein, dass dies nun bereits Ende 2021 vollzogen wurde
Linmoum
2022-02-12, 15:24:48
Selbst bei einem Tape Out Ende 2021 wäre Juni viel zu früh.
r3ptil3
2022-02-12, 15:29:26
Stimmt auch wieder.
Irgendwie kann (oder will) ich mir Ende Jahr trotzdem nicht so richtig vorstellen.
AffenJack
2022-02-12, 15:38:38
Wieso nicht? 2 Jahre sind der normale Zyklus bei Nvidia. Frühes Q4, evtl. Paperlaunch in Q3 ist wieder am wahrscheinlichsten.
Dinge vorziehen kannst du nur früh in der Entwicklung, aber es gibt auch keinerlei Druck Dinge vorzuziehen, da man eh alles verkauft. Sollte AMD Lovelace mit RDNA3 schlagen, dann könnte es sein, dass Nvidia ihre darauffolgende Gen versucht etwas vorzuziehen, um nicht 2 Jahre hintendran zu sein.
iamthebear
2022-02-12, 16:20:12
Die Frage ist wie man "schlagen" im GPU Bereich definiert. Klar es ist ein kleiner Knacks für das Ego von Jensen wenn das Navi31 Topmodell schneller ist als das AD102 Topmodell.
Aber wie relevant ist das für den Großteil der Käufer wirklich welcher Hersteller nun das schnellere 2000+ Euro Modell und wir reden hier immer noch von UVP.
Viel relevanter ist eher die Frage wer die bessere 500-700 Euro Karte hat, denn das ist der Bereich, der für die meisten Käufer relevant ist. Hier lässt sich ein technologischer Nachteil jedoch relativ einfach kompensieren, indem man die eigenen Preise nach oben bzw. unten korrigiert. Wenn AMD 10% schneller ist werden sie nicht so einfach Nvidia die ganzen Kunden abwerben. Dann wird Nvidia die Preise senken bzw. AMD erhöhen und alles was bleibt ist etwas mehr bzw. weniger Marge, die sowieso noch dick genug ausfällt.
Selbst wenn sich der Markt normalisiert und AMD um 50% schneller ist könnte Nvidia immer noch die Preise um 30-40% senken und würde immer noch mit Gewinn in der Gamingsparte aussteigen. AMD hat das jahrelang so praktiziert.
r3ptil3
2022-02-12, 16:25:29
10% schneller... wenn die Spekulationen stimmen, dann sind es aber keine 10 und auch keine 20%.
BlacKi
2022-02-12, 16:36:09
kann der tape out nicht unbemerkt schon gesehen sein?
Ich denke, davon hätten wir schon gehört. Zu N3x gab es eine Tapeout Terminplan, der geleakt war IIRC, aber bei NV war bisher noch gar nix. Immerhin meint Igor, dass NV mit der 3090Ti schon mal wieder die Boarddesigner für ADxxx üben lässt.
Troyan
2022-02-12, 18:31:51
kann der tape out nicht unbemerkt schon gesehen sein?
Natürlich. Gaming-Ampere hatte sein Tape-Out im Mai 2020. nVidia benötigt nur noch knapp fünf Monate vom Tape-Out zum Marktstart.
Hopper wird in fünf Wochen vorgestellt.
Linmoum
2022-02-12, 18:38:10
Mai kann nicht sein, da kimi bereits Anfang März 2022 von Tape Out für Ampere sprach.
Davon ab bringen reine "xy hatte Tape Out schon"-Meldungen sowieso wenig, wenn man nicht genau weiß, wann das der Fall war.
robbitop
2022-02-12, 19:51:15
Nie und nimmer. Nicht mit Maskenfertigung, Bringup, Validierung und Respins und Ramp 5 Monate. All das ist für einen Launch nötig. Gibt es für diese Aussage eine Quelle?
Je komplexer Chips und Prozesse desto länger dauert das eher.
Troyan
2022-02-12, 20:02:17
Sie hatten eine Q&A mit den Finanzleuten nach Präsentation. Dort hat Jeff Fischer den Zeitplan darlegt.
Was du auflistet, ist die alte Welt. nVidia hat seit über 10 Jahren massiv in Design und Validierung investiert. Die haben auch erst letztens eine Firma gekauft, um den Prozess zu beschleunigen: https://blogs.nvidia.com/blog/2021/10/08/oski-formal-verification/
/edit: Von nVidia ein bisschen was über die Nutzung von AI für die Prozesse: https://blogs.nvidia.com/blog/2021/12/07/ai-acceleration-dally-dac/
robbitop
2022-02-12, 20:20:29
Finde ich bei google nichts dazu. Ohne Beleg ist die Aussage nichts wert. Die Links zeigen keine konkrete Timeline die deine 5 Monate belegen.
Natürlich muss man in Validierung massiv investieren. Immerhin sind die GPUs und Prozesse um Größenordnungen komplexer. Das besagt allein aber noch nichts. Genauso den Kauf eines anderen Unternehmens (der sich dann ja erst auf soätere Produkte auswirkt)
Neurosphere
2022-02-12, 21:58:31
Rein aus wirtschaftlicher Sicht würde es für NV schon sinn machen bei einer langsameren Riege als AMD früher am MArkt zu sein. Die die kaufen wollen greifen dann zu und nur die wenigsten würden wieder schwenken wenn ein paar Monate später RDNA3 kommt.
Natürlich hat NV ein sehr gutes Marketing, aber (wenn es sich bewahrheitet) eine langsamere Arch und evtl. keine Vorteile mehr in RT und DLSS wird man nur schwer argumentieren können.
BlacKi
2022-02-12, 22:06:52
Je komplexer Chips und Prozesse desto länger dauert das eher.
ich hab das gefühl, die werden immer kürzer. siehe ampere. damals hat man auch von 8 monaten geredet.
Platos
2022-02-12, 22:45:54
Natürlich hat NV ein sehr gutes Marketing, aber (wenn es sich bewahrheitet) eine langsamere Arch und evtl. keine Vorteile mehr in RT und DLSS wird man nur schwer argumentieren können.
;D
Es ist im Grunde noch gar nichts bekannt. Die Gerüchte ändern fast schon täglich. Die "keine Vorteile in RT und DLSS" sind dann auch einfach mal pure "Glaskugelei" :D
Linmoum
2022-02-12, 23:12:50
Naja, was grobe Performance-Targets angeht sind es zu beiden kommenden Gens eigentlich schon seit Monaten die immer wieder gleichen Gerüchte.
Können natürlich alle falsch liegen, aber dass Leute wie kimi bei NV oder greymon/RGT bei AMD keine Dummschwätzer sind, sollte sich mittlerweile doch rumgesprochen haben.
Neurosphere
2022-02-12, 23:26:45
;D
Es ist im Grunde noch gar nichts bekannt. Die Gerüchte ändern fast schon täglich. Die "keine Vorteile in RT und DLSS" sind dann auch einfach mal pure "Glaskugelei" :D
Viel mehr konjunktiv hätte ich aber auch nicht reinpacken können...
AffenJack
2022-02-13, 11:33:37
Naja, was grobe Performance-Targets angeht sind es zu beiden kommenden Gens eigentlich schon seit Monaten die immer wieder gleichen Gerüchte.
Können natürlich alle falsch liegen, aber dass Leute wie kimi bei NV oder greymon/RGT bei AMD keine Dummschwätzer sind, sollte sich mittlerweile doch rumgesprochen haben.
Performancegerüchte bevor die Chips im Labor ordentlich laufen sind aber eigentlich auch lächerlich. In 90% der Fälle haben sich so frühe Performanceangaben als falsch und nur erfunden heraus gestellt. Daher wäre ich da sehr vorsichtig und würde dem erstmal nicht allzu viel glauben schenken. Genauso wie die Verbrauchsangaben die rumschwirren.
Erstmal sollten ordentliche Infos zu den Releasedaten kommen, bzw sich zeigen ob die Daten der Realität entsprechen, die Greymon, RTG, kopite verbreiten.
Linmoum
2022-02-13, 11:46:19
Deswegen schrieb ich ja auch von Performance-Targets. ;)
Klar ist nichts final. Beim Verbrauch sowieso, den kann man auch noch wenige Tage vor Launch hochziehen, wenn es sein muss. Aber dass man intern trotzdem Vorstellungen/Erwartungen hat, wo das Endprodukt grob bei der Performance landen soll, ist ja logisch.
Leonidas
2022-02-13, 15:58:04
kann der tape out nicht unbemerkt schon gesehen sein?
Selbstverständlich. Ich denke sogar, dass ist schon passiert. Trotzdem kann NV seine Pläne (normalerweise) nicht um einen Tag vorverlegen. Alles ist genau geplant und insbesondere nach Tape-Out wird nur noch unter Hochdruck gearbeitet.
Bezüglich der genauen Zeitspanne zwischen TO und Release würde ich wirklich gern mal was genaueres hören. Gern wird da natürlich die eigene Leistung übertrieben, wenn beispielsweise ein falsches TO-Datum angesetzt wird - nicht der Zeitpunkt von der Tape-Lieferung an den Chiphersteller, sondern der Zeitpunkt wenn das erste Silizium fertig ist. Insofern bin ich bei 5 Monaten eher skeptisch. Je komplexer die Chips werden, um so weniger wahrscheinlich ist das.
r3ptil3
2022-02-20, 19:21:32
Wie kommen die Leaks eigentlich nun zu einer dermassen höheren Performance?
Lovelace ist ja jetzt plötzlich gleichauf mit Navi 31.
Ich würde jetzt grob vermuten, dass man daher plötzlich mit 500W+ rechnen muss.
Wie kommen die Leaks eigentlich nun zu einer dermassen höheren Performance?
Lovelace ist ja jetzt plötzlich gleichauf mit Navi 31
Fanboy getue, damit man einfach wieder vor AMD sein kann.
iamthebear
2022-02-20, 20:42:11
Das AD102 Performance Target von 2.2x ist nun schon seit 9 Monaten bekannt. Ich weiß nicht was daran die große Überraschung sein soll.
Dass Nvidia nicht einfach nur die Shaderanzahl um 70% erhöht hat sollte klar sein. Was viele konsequent verdrängen ist, dass Nvidia bei der Fertigung derzeit fast einen ganzen Node hinter AMD ist und mit Lovelace istes teilweose umgekehrt (Navi33 wird komplett in 6nm gefertigt, Navi21/22 zumindest der Infinity Cache, bei Lovelace ist alles 5nm).
Was RT angeht so muss sich das erst einmal zeigen, ob AMD hier tatsächlich aufgeholt hat. Aus dem Bauch heraus würde ich sagen sie werden eher versuchen das Ganze mit reiner FP32 Performance zu erschlagen.
Als DLSS Konkurrent gibt es bisher soviel ich weiß nur Gerüchte über KI Einheiten aber ob dies schon für RDNA3 gilt bzw. überhaupt für einen DLSS Konkurrenten verwendet wird bzw. dieser brauchbar ist bzw. entsprechende Verbreitung hat ist noch alles mehr als fraglich. Allerdings ist das eher ein Argument für die Mainstreamkarten die nur 720p oder 1080p interne Auflösung schaffen und dann 2x oder mehr hochskalieren müssen. AD102/Navi31 werden sowieso mehr als schnell genug sein für 4K und selbst im Duell FSR UQ vs. DLSS Quality sind Qualität und Framerate noch ziemlich gleich.
vinacis_vivids
2022-02-20, 21:01:30
GM200 - 06/2015 - 8,0 Mrd Tr. - 601mm - 28nm
GP102 - 08/2016 - 11,8 Mrd Tr. - 471mm² - 16nm (+47,5%)
TU102 - 09/2018 - 18,6 Mrd. Tr. - 754mm² - 12nm (+57% Tr.)
GA102 - 09/2020 - 28,3 Mrd. Tr. - 628mm² - 8nm (+52% Tr.)
Konkurrenz:
Navi21 - 10/2020 - 26,8 Mrd. Tr. - 520mm² - 7nmTSMC
Dichte: 51,5 Mio. Tr. /mm²
Durchschnittliche prozentuale Zunahme an Transistoren +52% -> Berechnungsgrundlage
Durchnittliche Chipgröße als Flächenabschätzung, SingelChip -> 613,5 mm²
??102 - 06-09/2022 - 43,0 Mrd Tr. - ~613mm² - 5nm TSMC
Dichte: ~70 Mio. Tr. / mm²
Der 5nm TSMC-Chip von Nvidia mit 613mm² wird auf jeden Fall sehr teuer und rar werden. Mal schauen ob der Preis sich auch rechtfertigt.
Die spannendste Frage bleibt ob NV das breite, veraltete und stromhungrige SI weiter verwendet oder nun auch Richtung AMD sich bewegt mit einem größeren Cache.
Tesseract
2022-02-20, 21:37:50
im Duell FSR UQ vs. DLSS Quality sind Qualität und Framerate noch ziemlich gleich.
nichtmal ansatzweise. in cyperpunk beispielsweise ist FSR UQ in bewegung eher irgendwo zwischen B und P und in einer statischen szene die sich über mehrere frames stabilisieren konnte oft hinter DLSS UP. in ganz bösen szenen mit viel aliasing verstärkt FSR UQ die artefakte teilweise so hart dass man das feature vielleicht besser ganz ausschalten sollte.
die features sind absolut nicht vergleichbar.
TheAntitheist
2022-02-21, 14:19:14
Wie kommen die Leaks eigentlich nun zu einer dermassen höheren Performance?
Lovelace ist ja jetzt plötzlich gleichauf mit Navi 31.
Ich würde jetzt grob vermuten, dass man daher plötzlich mit 500W+ rechnen muss.
gab vorher schon Gerüchte das Lovelace stärker sein wird. Auch die neuesten Gerüchte sagen uns nicht welche Leistung dort angegeben wird. Nur Raster oder RT? hat AMD jetzt Tensor Kerne oder nicht? Diese beiden Faktoren können ja schon 3x mehr Speed bedeuten.
Erinnert euch an RDNA2, wann gab es die Gerüchte über den Infinity Cache? und bei Ampere über die verdoppelten FPs? wenige Wochen bis Tage.
Platos
2022-02-21, 14:36:35
Naja, schlussendlich spielt es keine Rolle, ob nun AMD oder nvidia 5% vorne ist, wenn AMD immer noch kein temporales Upscalingverfahren hat. Solange das bei AMD nicht möglich ist, ist für mich jede AMD Karte inakzeptabel.
Alte Spiele, bei denen es kein DLSS gibt, haben mit Lovelace sowieso genug Leistung und bei neuen Spielen wäre nvidia einfach wieder 40-70% vor AMD, weil man AMDs Lösung nur beim Bildervergleich brauchen kann (naja, eig. ja nicht mal dort).
Bezüglich RT: Für mich wichtig, da ich meine GPUs bisher immer lange behalten habe. Gerade in Zeiten, bei denen nicht sicher ist, wie schnell die Preise wieder übertreiben, habe ich lieber was Zukunftfähiges. Bei RT kann ich mir aber durchaus vorstellen, dass AMD da nah an nvidia rankommt und das muss es auch. An einen DLSS Konter glaube ich aber nicht (bei RDNA3 Launch). Und somit ist eig. auch RT bei AMD indirekt wieder unbrauchbar, solange es keinen DLSS Konter gibt. Denn aktiviert man DLSS bei RT, ist nvidia wieder meilenweit voraus. Dann relativiert sich die reine Rohpower gleich wieder.
Also ich sehe da eher schwarz für AMD. RT dürfte bei der nächsten Gen. bis hinab zur 3060/3070 brauchbare FPS liefern (mit DLSS), deswegen ist das dann auch nicht mehr nur ein Papierfeature (wie jetzt bei allem unter 3080).
Und noch zu den Karten ansich: Bei diesen Leistungssteigerungen frage ich mich doch immer wieder, wie dann der Faktor (hier 2-2.5) bei anderen Grafikkarten aussehen. Auch so hoch? Wenn ja, bin ich ja mal gespannt, wie der Stromverbrauch aussieht. 4070/7800 dann mit 250-300W? :D
w0mbat
2022-02-21, 14:46:06
Wer sich eine Graka kauft um dann mit upscaling zu spielen hat die Kontrolle über sein Leben verloren. Du hast gerade echt geschrieben, wenn man auf ner Nvidia GPU die Auflösung stark senkt ist sie schneller als ne AMD Karte, die die volle Auflösung berechnet :ugly:
Platos
2022-02-21, 14:48:41
Wer sich eine Graka kauft um dann mit upscaling zu spielen hat die Kontrolle über sein Leben verloren. Du hast gerade echt geschrieben, wenn man auf ner Nvidia GPU die Auflösung stark senkt ist sie schneller als ne AMD Karte, die die volle Auflösung berechnet :ugly:
Natürlich... Das muss es sein. Anders kann man sein geliebtes AMD auch nicht mehr verteidigen, wombat. Weil was besseres fällt dir ja nicht mehr ein. Vlt. wäre ja mal etwas mehr Inhalt eine Idee.
BlacKi
2022-02-21, 14:54:54
Wenn ja, bin ich ja mal gespannt, wie der Stromverbrauch aussieht. 4070/7800 dann mit 250-300W? :D
davon ist auszugehen. macht aber nichts, die preise werden mit hochgehen. d.h. letztenendes nur, das man eine neue performanceklasse über enthusiast schafft und mit höherem verbrauch und höheren preisen versieht. du kriegst deine +60% gegenüber einer 3080 bei leicht niedrigerem stromverbrauch und ähnlicher preisklasse.
an die 2,5x glaub ich nicht.
Thunder99
2022-02-21, 14:55:43
Btw, AMD wird was bringen, laut Gerüchten.
Da muß Nvidia erstmal liefern mit den neuen Karten, damit sie konkurrenzfähig bleiben.
Ich befürchte ja eine 4070 sprengt schon die 300W, einfach zu viel... mMn
Troyan
2022-02-21, 14:57:54
Ja, laut Gerüchten. Nach dem Megaflop RDNA, dem MegamegaflopRDNA2 glauben Leute eben daran, dass beim nächsten es besser wird. Immer der selbe Unsinn.
Lovelace wird Lichtjahre besser werden. So wie Ampere Lichtjahre besser ist.
Platos
2022-02-21, 15:00:02
davon ist auszugehen. macht aber nichts, die preise werden mit hochgehen. d.h. letztenendes nur, das man eine neue performanceklasse über enthusiast schafft und mit höherem verbrauch und höheren preisen versieht. du kriegst deine +60% gegenüber einer 3080 bei leicht niedrigerem stromverbrauch und ähnlicher preisklasse.
an die 2,5x glaub ich nicht.
Ja, also ich glaube natürlich auch nicht an 2-Fache Leistung bei gleichem (Listen)Preis. Aber Vorgänger zu Vorgänger. Auch wenn das keine Rolle Spielt. Bei gleichem Preis halte ich 70-80% für möglich, glaube aber eher an die 30-60%.
Nur: Wenn die Preisklassen immer weiter steigen, was gibts dann unten? Die 3050 kostet heute schon (Listenpreis) 249$. Wenn die Preise noch weiter steigen, wird die 3050 den Preis einer 970 haben und darunter gibts dann für Gaming nichts mehr?
Mich betrifft das nicht, aber krass wäre das trotzdem
Platos
2022-02-21, 15:01:16
Btw, AMD wird was bringen, laut Gerüchten.
Da muß Nvidia erstmal liefern mit den neuen Karten, damit sie konkurrenzfähig bleiben.
Ich befürchte ja eine 4070 sprengt schon die 300W, einfach zu viel... mMn
Welches Gerücht war das und was soll das laut Gerücht sein? Temproales Upsampling oder nicht? Und auf solche flauen Gerüchte gebe ich grundsätzlich nichts.
Ps: Leonidas, auf dem Handy ist es wirklich mühsam, 2 Leute in einer Nachricht zu zitieren. Man müsste den Text kopieren und dann beim anderen bearbeiten und wieder einfügen.
aceCrasher
2022-02-21, 15:06:36
Ja, laut Gerüchten. Nach dem Megaflop RDNA, dem MegamegaflopRDNA2 glauben Leute eben daran, dass beim nächsten es besser wird. Immer der selbe Unsinn.
Lovelace wird Lichtjahre besser werden. So wie Ampere Lichtjahre besser ist.
Der "MegaMegaFlopRDNA2"??? RDNA2 ist die beste AMD Grafikkartengenerationen seit Ewigkeiten. Abgesehen vom Featureset (Raytracing, DLSS) sehe ich nicht was es zu bemängeln gibt. Top rasterization Performance, überlegene Effizienz und großzügige Speicherausstattung. Freunde von mir die jahrelang den Kauf einer AMD Karte kategorisch ausgeschlossen haben sind vor kurzem auf RDNA2 gewechselt, alleine schon weil die Preislage so viel besser gegenüber Ampere ist. Schau dir mal die Preise einer 6600(XT) an und dann nochmal die Preise eine 3060 - da weiß ich was ich kaufe.
Platos
2022-02-21, 15:08:44
Ja, laut Gerüchten. Nach dem Megaflop RDNA, dem MegamegaflopRDNA2 glauben Leute eben daran, dass beim nächsten es besser wird. Immer der selbe Unsinn.
Lovelace wird Lichtjahre besser werden. So wie Ampere Lichtjahre besser ist.
"Abgesehen" von RT und dem fehlen eines DLSS Konters war RDNA2 eigentlich (bei manchen Karten) sehr gut. Die Preise und Speicherkonfigurationen waren bei AMD bei manchen Karten einfach ziemlich eigenartig (schlecht). Bei anderen dann aber wieder grandios. Ok, nvidia hat ähnliche Energieeffizienz bei ner deutlich älteren Samsung Fertigung hingekriegt. Schlussendlich zählt aber, was hinten raus kommt und nicht, wie das gemacht wurde.
"Nur" die RT Leistung und das fehlen von temporalem Upsampling machen RDNA2 leider zu einem nicht konkurrenzfähigen Produkt (solange man nicht zufälligerweise kein einziges Spiel spielt, dass DLSS supportet).
Naja, schlussendlich leider alles Theorie bei den Strassenpreisen.
Troyan
2022-02-21, 15:16:01
Der "MegaMegaFlopRDNA2"??? RDNA2 ist die beste AMD Grafikkartengenerationen seit Ewigkeiten. Abgesehen vom Featureset (Raytracing, DLSS) sehe ich nicht was es zu bemängeln gibt. Top rasterization Performance, überlegene Effizienz und großzügige Speicherausstattung. Freunde von mir die jahrelang den Kauf einer AMD Karte kategorisch ausgeschlossen haben sind vor kurzem auf RDNA2 gewechselt, alleine schon weil die Preislage so viel besser gegenüber Ampere ist. Schau dir mal die Preise einer 6600(XT) an und dann nochmal die Preise eine 3060 - da weiß ich was ich kaufe.
Cool Story, bro. Eine 3060 ist die Lösung auf die Frage, oder? :freak:
Computerbase hat Guardians nachgetestet: https://www.computerbase.de/2022-02/guardians-of-the-galaxy-lod-patch-benchmark/#abschnitt_raytracing_verhaelt_sich_gleich
64 FPS 3080TI gegen 49 FPS bei der 6900XTXH in 4K. Eins ist spielbar, das andere nicht.
Bleibt doch einfach in den AMD Threads. Hier ist nur Lovelace interessant.
Platos
2022-02-21, 15:20:31
Die Leistung der jeweiligen Karten kann man wunderbar in Leonidas' Perf.-Index nachlesen. Einzelne Cherry-Picking-Tests kann man sich schenken...
aceCrasher
2022-02-21, 15:30:42
Cool Story, bro. Eine 3060 ist die Lösung auf die Frage, oder? :freak:
Computerbase hat Guardians nachgetestet: https://www.computerbase.de/2022-02/guardians-of-the-galaxy-lod-patch-benchmark/#abschnitt_raytracing_verhaelt_sich_gleich
64 FPS 3080TI gegen 49 FPS bei der 6900XTXH in 4K. Eins ist spielbar, das andere nicht.
Bleibt doch einfach in den AMD Threads. Hier ist nur Lovelace interessant.
Ich schreibe "Abgesehen vom Featureset (Raytracing, DLSS) sehe ich nicht was es zu bemängeln gibt."
- nenne also explizit RT als Schwäche, und du kommst mit einem RT Benchmark? :confused:
Es gibt auch genug Leute die entweder keine Spiele mit RT spielen, oder denen RT der Aufpreis nicht wert ist. Ich würde sogar sagen dass es, noch, die Meisten sind.
Tesseract
2022-02-21, 16:05:49
Abgesehen vom Featureset (Raytracing, DLSS) sehe ich nicht was es zu bemängeln gibt.
ist objektiv berachtet halt ein ziemlich gravierender mangel wenn man ein breites spektrum an spielen spielt.
aufkrawall
2022-02-21, 16:13:04
Es erscheinen halt auch leider immer noch D3D11-Spiele und AMD macht da schlicht einen auf bockig und verweigern ihren Kunden ihnen Treiber, der nicht ständig Stutter- und Einbruch-Probleme hat. Wär nun wirklich nicht so schwer für so ein milliardenschweres Unternehmen, unter Linux für OpenGL sieht es ja wesentlich besser aus (btw. auch bei Intel).
Gibt noch andere erwähnenswerte Dinge, aber OT hier...
Troyan
2022-02-21, 16:21:54
Ich schreibe "Abgesehen vom Featureset (Raytracing, DLSS) sehe ich nicht was es zu bemängeln gibt."
- nenne also explizit RT als Schwäche, und du kommst mit einem RT Benchmark? :confused:
Es gibt auch genug Leute die entweder keine Spiele mit RT spielen, oder denen RT der Aufpreis nicht wert ist. Ich würde sogar sagen dass es, noch, die Meisten sind.
Ich komme nicht mit einem Raytracing-Benchmark, sondern mit einer qualitätssteigernden Einstellung in einem Computerspiel.
Es gibt keine rationale Begründung, wieso AMD in der nächsten Runde besser darstehen würde. Eine RTX3070 liefert gegenüber der 5700XT 50% Mehrleistung, die 6700XT nur 30%. Die Ausgangsbasis bei nVidia ist dermaßen besser, das es schon absurd ist, was Leute hier glauben.
basix
2022-02-21, 16:46:25
Es gibt keine rationale Begründung, wieso AMD in der nächsten Runde besser darstehen würde.
Ich könnte jetzt alte Posts von dir rauskramen, wo du etwas ähnliches zu RDNA2 und Ampere gesagt hast. "Unmöglich, dass AMD +100% schneller wird in selbem Node", "Nvidia kommt von 12nm und geht auf 7/8nm, logisch ist Nvidia energieffizienter und schneller" ;)
Das mit der rationalen Erklärung kannst du dir also getrost stecken ;) Nvidia ist momentan sicher der Marktführer und AMD der Underdog. Underdogs sollte man aber nicht unterschätzen ;) Nvidias Ausgangslage ist gut. AMD hat seit RDNA aber gut aufgeholt (IPC, Energieffizienz). Im Endeffekt wollen wir hier vor allem eines: Möglichst schnelle Grafikkarten zu bezahlbaren Preisen. Ob von AMD oder Nvidia ist doch wurst.
Thunder99
2022-02-21, 17:21:01
Ja, laut Gerüchten. Nach dem Megaflop RDNA, dem MegamegaflopRDNA2 glauben Leute eben daran, dass beim nächsten es besser wird. Immer der selbe Unsinn.
Lovelace wird Lichtjahre besser werden. So wie Ampere Lichtjahre besser ist.
RDNA2 ist kein Mega Flop, wie kommst du darauf? :freak: Sie sind so konkurrenzfähig wie noch nie seit Hawaii.
Sie haben lediglich eine schwache RT Leistung. Aber DLSS ist nicht uneingeschränkt zu empfehlen sondern kommt drauf an. Nvidia hat mit ihren Karten, trotz besserem Speichermanagement, oftmals ein VRAM Problem.
Wie schon geschrieben, Nvidia muss mit den neuen Karten die Energieeffizienz bessern und mehr VRAM anbieten. Finde nämlich eher Ampere ist der Flop bzw beschränkt
Denniss
2022-02-21, 17:40:07
Bitte füttert den Troll doch nicht, mit rationalen Argumenten ist da nicht anzukommen. Kopfschütteln, Ignore und fertig.
Tesseract
2022-02-21, 17:41:44
Aber DLSS ist nicht uneingeschränkt zu empfehlen sondern kommt drauf an.
kommt auf was an?
aufkrawall
2022-02-21, 17:46:24
kommt auf was an?
Auf den Content und wie gelungen die Integration ist.
Aber es ist auf jeden Fall unterm Strich ein so großer Vorteil, dass viele User nicht mehr drauf verzichten werden. Ohne DLSS-Gegenspieler und mit dem miesen RT, sind die RDNA2-Produkte im Grunde komplett überteuert. Wobei ich auch für billig nicht auf die Vorteile verzichten würde. Wieso AMD dafür belohnen, dass sie es nicht auf die Reihe bekommen?
Tesseract
2022-02-21, 17:54:31
ich hätte gern mal ein konkretes beispiel. aus meiner sicht passt das was ich in der praxis sehe und was einige hier schreiben absolut nicht zusammen. welcher content?
aufkrawall
2022-02-21, 17:59:02
ich hätte gern mal ein konkretes beispiel. aus meiner sicht passt das was ich in der praxis sehe und was einige hier schreiben absolut nicht zusammen. welcher content?
Du kannst in WD Legion jede Version reinkopieren, die du willst: Es smeart trotzdem viel mehr als in SotTR. RDR2 sieht auch einfach nur kacke in Bewegung aus.
=Floi=
2022-02-21, 18:09:05
sondern mit einer qualitätssteigernden Einstellung in einem Computerspiel.
Nur ist DLSS nicht qualitätssteigernd wenn man von nativ ausgeht!
Mir fehlt noch immer ein natives DLSS, wo nur optimierungen wie gleiche flächen, feste hintergründe, etc. mitgenommen werden. Auch eine senkung der leistungsaufnahme bei quasi standbild würde ich mir mal wünschen. 200 watt bei ner bewegung des bildes sind 2022 einfach arm, aber NV hat ja AI. :rolleyes:
Tesseract
2022-02-21, 18:14:09
Du kannst in WD Legion jede Version reinkopieren, die du willst: Es smeart trotzdem viel mehr als in SotTR. RDR2 sieht auch einfach nur kacke in Bewegung aus.
genau diese spiele habe ich nicht. ist das ein implementationsproblem oder liegt das an einer bestimmten art von content bzw. gibt es da vergleichsvideos?
in zumindest metro exodus EE, SotTR, control waren die ergebnisse sehr konsistent, cyperpunkt sieht in der aktuellen version bisher auch gut aus.
Nur ist DLSS nicht qualitätssteigernd wenn man von nativ ausgeht!
doch, ist es in extrem vielen fällen selbst wenn man die fps ignoriert und mit dem fps-unterschied sowieso.
aufkrawall
2022-02-21, 18:25:43
genau diese spiele habe ich nicht. ist das ein implementationsproblem oder liegt das an einer bestimmten art von content bzw. gibt es da vergleichsvideos?
in zumindest metro exodus EE, SotTR, control waren die ergebnisse sehr konsistent.
In Videos sieht man das sehr schlecht, zumindest mit YT-Kompression. Was sicher ist, ist dass manche Spiele (z.B. Doom Eternal) mit DLSS 2.3.x-Versionen stärker smearen als mit 2.2.6/2.2.11./2.2.15. Imho liegt es ansonsten sowohl an der Implementierung, als auch am Content.
Aber wie schon gesagt, funktioniert es trotzdem in einer größeren Anzahl an Spielen so gut, dass man es jetzt deshalb auch nicht kaputt reden muss. Es ist die Zukunft schon jetzt und wird irgendwann noch besser sein (hoffentlich bald, und nicht weitere Teil-Rückschritte wie bei 2.3 :redface: ). Das TAA kotzt mich in vielen Spielen wesentlich stärker an...
rentex
2022-02-21, 18:38:57
Ampere ist wohl dermaßen grenzwertig in Leistung und Verbrauch, das RDNA2 ein Wunder der Technik ist.
Dural
2022-02-21, 19:56:04
Die AMD Karten liegen bei uns wie Blei in den Regalen, keiner will sie. Wenn sie gekauft werden oft nur weil kein RTX Gegenstück lieferbar ist.
Manchmal habe ich das Gefühl das AMD alleine von den armen deutschen lebt. Die Deutschen sind pro Nase die ärmsten in der EU, selbst Griechen und Italiener haben ein größeres Vermögen :confused:
Was mich seit Jahren verwundert, wie so ihr noch so friedlich seit, in anderen Regionen der Welt gäbe es schon lângst Aufstände.
Geldmann3
2022-02-21, 20:18:57
Habe nochmal drüber nachgedacht, könnte ja durchaus sein, dass Nvidia eine Titan 48GB für 3K in den Markt wirft, für alle, die diesen Preis zu zahlen bereit sind. Die RTX 4090 könnte man zugunsten der Fertigungsausbeute dann noch immer später releasen, für alle Hyper-Enthusiasten, die ihre Finger lange genug stillhalten und auf 24GB Vram verzichten konnten.
Könnte dann so aussehen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76939&stc=1&d=1633475642 (https://twitter.com/perschistence/status/1445525610831306752?s=20)
Könnte durchaus auch Q4 werden, Q3 ist ja nur so eine verrückte These von mir. :rolleyes:
Das hatte ich vor 4 Monaten gepostet und halte es prinzipiell noch immer für realistisch. Natürlich weiß ich nicht, wie genau die Karten heißen werden oder wie viel sie kosten. Doch 2,5x Performance hielt ich schon immer für ein wenig HubbaBubba. Bei Ampere hieß es zuvor auch überall +80%, was haben wir bekommen? +45%. Trotz großer Fertigungssprünge, größerem Chip und neuer Architektur sehe ich dafür nicht die technische Grundlage. +80% wären bereits ein fast doppelt so großer Schritt, wie wir ihn die letzten 2 Generationen bekamen. Ich kann mir vorstellen, dass wir 1,25x in sehr synthetischen Szenarien, wie dem ART-MARK sehen. Doch das war es dann auch. Nicht bei gängigen Auflösungen, in Games.
Zudem halte ich auch die 600 Watt, auch, wenn sie vom lieben Greymon55 immer wieder genannt werden, für zu hoch gegriffen. Vielleicht für längere Lastspitzen, doch nicht für die TDP solch einer Karte. Wie sieht das denn auf dem Papier aus? ;D
Außerdem braucht Nvidia gar nicht die Rohleistungs-Krone, wenn sie mit DLSS 3.0 einen Framerate-Multiplikator in der Hinterhand haben. ;)
Bringt dann nicht mehr soo viel in Games.
AMD würde sich wundern, wenn sie bald die Rohleistungs-Krone haben, aber DLSS 3.0 die Framerate mithilfe der Motion-Vectoren nahezu ohne zusätzliche Latenz hochskalieren kann.
VR-Motion-Reprojection macht es vor. Meine Vive Pro 2 verdoppelt oder vervierfacht die Framerate anhand der Bewegungsdaten des Headsets ohne zusätzliche Input-Latenz.
Nur die Artefakte bei sich bewegenden Objekten sind gerade das Problem.
Doch das lässt sich mit AI lösen.
So wie Jenson bei der 2080 Ti auf der Bühne erstmals Raytracing und DLSS als das Beste seit der Erfindung der Bratwurst präsentiert hat (Was es theoretisch auch war), könnte es diesmal mit DLSS 3.0 geschehen.
Mit DLSS 3.0 könnte Nvidia mit +1000% Performance, oder 500% Performance in ihren Charts buhlen, wie sie es bei der 2000er Serie mit der Steigerung der Raytracing-Performance taten.
Das könnte ein Spektakel werden.^^
DLSS 3.0 könnte man theoretisch in 2 Modi einführen, einem Performance und einem Low-Latency-Mode.
Der Performance Modus könnte in allen Games funktionieren, sorgt allerdings für mehr Artefakte, zusätzliche Input-Latenz und beherrscht ,,nur" eine Verdopplung der Framerate.
Der Low-Latency Mode muss von Developern in Games implementiert werden, wie es bisher der Fall ist. Beherrscht dafür dank der Motion-Vektoren aber bis zu einer Vervierfachung der Framerate und verursacht keine zusätzliche Latenz, da nicht auf den nächsten Frame gewartet werden muss, sondern approximiert wird.
Schaut euch an, was Nvidia schon jetzt mit nur ein paar Bildern in 2 Sekunden Trainingszeit (https://www.youtube.com/watch?v=j8tMk-GE8hY) erzielen kann.
Kann mir jedoch auch vorstellen, dass das VIELLEICHT nur mit Lovelace gehen wird, eventuell muss man das in die Hardware backen.
Die bisherigen, normalen Tensor-Cores haben bereits genug mit DLSS 2.3 zu tun.
Neurosphere
2022-02-21, 21:29:21
Zudem halte ich auch die 600 Watt, auch, wenn sie vom lieben Greymon55 immer wieder genannt werden, für zu hoch gegriffen. Vielleicht für längere Lastspitzen, doch nicht für die TDP solch einer Karte. Wie sieht das denn auf dem Papier aus? ;D
Ich denke auch das da in der Gerüchteküche irgendwas mit den 600 Watt durch PCIe 5.0 16 Pin durcheinandergwürfelt wurde. Mehr als Ampere dürfte es bei den Leistungsaufnahme aber sein.
...DLSS 3.0...1000%...
Die Leistungsmöglichkeiten von DLSS sind ebenfalls begrenzt. Ich bekommen nicht viel mehr Performance, um so mehr wieder herumgerechnet werden muss um das Bild nicht zu versauen, desto mehr wird auch wieder berechnet.
Performance würde ich nicht wesentlich mehr von eine potentiellen DLSS 3.0 erwarten, eher ein weiter verbessertes Bild im Vergleich zu jetzt. Falls DLSS 3.0 überhaupt kommt. Ich denke auch NV macht was mit KI, aber in eine andere Richtung.
aufkrawall
2022-02-21, 21:34:00
Manchmal habe ich das Gefühl das AMD alleine von den armen deutschen lebt. Die Deutschen sind pro Nase die ärmsten in der EU, selbst Griechen und Italiener haben ein größeres Vermögen :confused:
Hat nichts mit der Kaufkraft zu tun und in DE gibt es mehr gutbezahlte Industrie-Jobs als kleine Länder drumherum insgesamt Einwohner haben.
Nur was das mit Radeons zu tun haben soll, die ebenfalls absurd teuer geworden sind, will sich mir nicht erschließen. Muss man sich dafür irgendwas einwerfen? :confused:
ChaosTM
2022-02-21, 21:36:00
@Geldmann - kommt drauf an ob der Crypto Mining Markt kollabiert oder nicht. Wenn ja sind die Preise nicht mehr haltbar und man nähert sich wieder dem alten Level an.
Wenn nicht, dann sind das wohl die neuen "Listenpreise" - so wie jetzt. ;)
Der Verbrauch könnte hinkommen. Durch die bessere Fertigungstechnik sollte/könnte man mit 400 Watt auskommen.
Der Leistungsgewinn liegt vielleicht etwas zu niedrig, oder man hält ein paar % für den Refresh zurück. Kommt drauf an, wie stark AMD wirklich sein wird.
Platos
2022-02-22, 01:19:03
5-10-Fache Perfomance mit DLSS 3.0?
Sag mal, was rauchst du eigentlich :D?
Geldmann3
2022-02-22, 02:45:53
;D HAHAHA, AI-Projekte auf Github.
Ne verstehe schon, meine Aussage ist schon absurd.
2,5x durch die Hardware + 4x durch Realtime-FPS-Upsampling.
Die GPU rechnet dann intern nur noch in 1080p@30FPS und herauskommen 4k bei 120FPS.:rolleyes:
Im FS2020 mache ich das jetzt schon in der VR. Geht aber nur sauber, wenn sich nichts außer deinem eigenen Flugzeug bewegt.
Doch mit Motion Vektoren und AI ist auch das lösbar, denke ich.
Versuche ich das Ganze in GTA V habe ich zwar 120FPS wenn ich mich umschaue, Autos ziehen jedoch dicke Schlieren hinter sich her.
Das muss noch gefixt werden.
Kombinieren wir das mit DLSS 2.3-Performance, dann haben wir es schon.
Entwickler die DLSS implementiert haben, hätten zudem nur minimalen Update-Aufwand.
Nur die DLSS-Version muss erhöht werden.
Denn die nötigen Daten wie die Motion-Vektoren werden schließlich schon an das SDK geliefert.
Platos
2022-02-22, 03:00:07
Wie kommst du von 30FPS auf 120FPS?
Geldmann3
2022-02-22, 03:02:17
Kam gerade darauf, weil ich im FS2020 nur 24FPS targete und auf 120FPS upsample. Und es sieht auch wirklich aus wie 120 und hat keine zusätzliche Latenz. Dank der Headset-Motion-Daten. Das wäre dann sogar 5x. Doch ich wollts mal nicht übertreiben und bei sich drehenden Propellern sieht das schon übel aus. (Gibt sogar extra Mods dagegen) Genau wie bei anderen sich bewegenden Fahrzeugen. Doch das ist ja auch jahrealte Technik ohne AI.
Hat mich ja mega beeindruckt, hätte nie gedacht, dass das wie echte 120FPS wirkt.
Leider kann ich es nicht aufzeichnen.
In Videos sieht man die ,,original FPS".
Und ich habe gehört, die Motion-Compensation (https://www.vive.com/au/support/cosmos/category_howto/what-is-motion-compensation.html) meiner Vive Pro 2 wäre noch ziemlich schlecht.
Platos
2022-02-22, 03:12:07
Aber was hat das mit nvidia zu tun? Bin vlt. nicht auf dem neuesten Stand. DLSS macht ja aus 30FPS nicht mehr FPS.
Geldmann3
2022-02-22, 03:13:50
Ja, doch was nicht ist kann ja noch werden. ;)
Mit Lovelace vielleicht?
Platos
2022-02-22, 03:23:29
Aber wie geht sowas ohne Latenzen? Es müssten ja mindestens 2 Frames schon fertig gerendert sein, damit man noch ein oder zwei weitere dazwischen "quetschen" kann.
Bei 30FPS wären das immerhin 66 ms. Also es bräuchte doch mindestens 2 Bilder, sonst gehts nicht.
Grundsätzlich gefällt mir die Idee ja, wenn! es denn so ordentlich ungesetzt würde!, wie jetzt DLSS bei Auflösungsupscaling. Ich glaube aber nicht, dass das mit Lovelace kommt. Soll doch schon im Sep. Launchen.
robbitop
2022-02-22, 07:37:00
Also ich würde sagen das kostet wenigstens 1x Frame Latenz wenn es eine Chance haben soll (trotz AI) gut zu funktionieren. Und zwar die Frametime vor dem zeitlichen Upsampling. Dann hat man mehrere/beliebig viele Frames aus der Vergangenheit und eines aus der Zukunft. Wären bei 30 fps inputframerate dann also +33 ms. Dazu käme dann noch ein Teil an Processing. Ziel damit es sinnvoll funktioniert ist sicherlich ein Bruchteil der Zielframetime. 1-2 ms. Also +35 ms mindestens. Das sollte gerade noch für die meisten nicht spürbar sein.
Wie gut das artefaktarm funktionieren wird muss man sehen. Ob es irgendwann gut funktionieren kann: kann ich mir gut vorstellen. In Anbetracht der Ergebnisse von AI für Denoising und temporale Rekonstruktion im Vergleich zu vorherigen Verfahren. Es gibt ja in TVs und auch für MadVR Verfahren die das können. Nicht Artefaktfrei aber ganz passabel und halt ohne AI. Es gibt eine Offline Lösung für Videoediting mit AI die sieht gut aus aber braucht sehr lange zum Rechnen und hat außer dem Framebuffer auch nichts womit sie rechnen kann. Also warum nicht? Irgendwann zumindest.
Ich kann mir aber vorstellen dass das unglaublich viel Rechenleistung kostet. Wenn das alles über die Tensor Cores möglich ist, kommen wir da irgendwann mal hin. Wenn der Rest der GPU dafür genutzt werden muss, muss man vergleichen ob es sich lohnt oder ob man mit der Rechenleistung herkömmlich die volen fps zu rechnen nicht schneller ist.
Es gibt Dinge in der Natur und Technik die sind hoch nicht linear. Wenn so ein Verfahren exponentiell mehr Rechenleistung braucht (arbiträrere Zahlen: mit Artefakten ein millionstel Kosten mit wenig Artefakten 0,1% mit fast keinen Artefakten 10% und mit gar keinen Artefakten dann 1000%. Gesetz des abnehmenden Grenzertrags) damit es gut funktioniert kann es entweder noch eine Weile in der Zukunft liegen oder sich einfach sogar nicht lohnen.
Meine Vermutung ist: noch nicht zu Lovelace aber irgendwann schon. Und man sollte daran forschen, damit man nicht der zweite ist. (das gilt für jeden IHV)
Geldmann3
2022-02-22, 08:36:11
Gehe ebenfalls davon aus, dass wir das mit Lovelace noch nicht sehen, hoffe es allerdings schon.
Ich meine durchaus, dass das möglich ist, ohne auf den nächsten Frame zu warten. Bei der Motion Kompensation in VR wartet man schließlich auch nicht auf den nächsten Frame, das würde den Spieler schließlich Motionsick machen.
Im Prinzip scheint es im Moment so zu funktionieren, dass man das Bild einfach ein Stück gegen die Richtung verschiebt, in welche der Spieler den Kopf bewegt. Da sich fast nur die Blickrichtung ändert, bleiben die ,,Zwischenframes" so perspektivisch korrekt. Bis hierhin kostet es fast keine Rechenleistung. Ändert sich jedoch etwas anderes, als der Viewport des Spielers, reichen die Input-Motion-Vektoren nicht mehr aus. Dann versucht man etwas intelligenter zu arbeiten. Games mit DLSS liefern im Prinzip jedoch bereits auch die Motion Vektoren für alles andere. Wahrscheinlich würde es für die Zwischenframes sogar genügen, die Objekte zweidimensional im Frame übereinander zu verschieben, bis der nächste Keyframe da ist. Hier muss die AI schnell alles im 2D-Space separieren, doch sie hat schließlich auch den Tiefen-Buffer zur Hand. Sollte damit keine Meisterleistung für diese sein. Die Motion-Vectoren für alles stehen selbstverständlich bereits zu Beginn des Renderings des nächsten Keyframes bereit, sonst könnte die Karte diesen ja nicht rendern. Daher gibt es eigentlich keinen zwingenden Grund auf den nächsten Frame zu warten. Mit Realaufnahmen ginge das genauso wie DLSS nicht, da man weder den Tiefenbuffer, noch die Motion-Vectoren zur Hand hat. Ist die AI besonders schlau, macht sie sogar Transformations-3D-Stuff.
Wir wissen genau, in welche Richtung sich jeder Pixel bewegt und wir wissen genau wie weit dieser Pixel von der Kamera entfernt ist, somit können wir auf die nächsten (zwischen)Frames schließen, ohne auf diese zu warten.
Schwierig wird es nur z.b. wenn ein von einem anderem verdecktes Objekt weiter ins Bild rückt und somit kleine Bereiche aufgedeckt werden, die vorher noch nicht sichtbar waren. Doch ein bisschen Content-Aware-Fill kann man von der AI ja hoffentlich erwarten, muss ja auch nur ein paar ms den Augen des Nutzers standhalten.
Eigentlich würde ich denken, dass das nicht so gut funktionieren kann, doch ich habe es halt in der VR gesehen.
Nur noch ein paar Unschönheiten müssen weg.
Platos
2022-02-22, 14:05:50
Ok, aber sowas wie bei VR geht hald nicht. Dadurch, dass man den Kopf bewegt, kann man theoretisch genau feststellen (eye tracking), wohin sich der Kopf (bzw. hier die Augen) bewegt. Bei normalem Gaming geht das nicht.
Ist man schon in Bewegung (und ändert diese nicht mehr), kann das alles gut funktionieren. Aber wenn man gerade eine Änderung durchführt, braucht es m.M.n eben wie robbitop sagt, mindestens 1 Frame aus der Zukunft.
Im Grunde habe ich genau das gemeint. Es braucht mind. eins hinten und eins vorne. Das hintere ist nur schon passiert und somit eig. gar nicht einzurechnen in der Latenzzeit, das war ein denkfehler. Ich ging von Frame 1 und 2 aus. Quasi, wenn man das Spiel startet.
Ich denke, von 60 auf 120FPS dürfte das dann am interessantesten sein. Dann wäre die Latenzzeit mit 16.6ms auch ziemlich niedrig. Auf jeden Fall keine vervierfachung
von 30 auf 120FPS. Allerdings dürfte der Nutzen "nur" beim flüssigeren Gameplay liegen und nicht bei niedrigeren Latenzen für Shooter. Aber für mich spirlt das keine Rolle und für 99% aller Gamer (bei 16.6ms).
Aber finde die Idee super. Ich hoffe doch, sowas kommt irgendwann!
-/\-CruNcher-/\-
2022-02-22, 15:39:48
nichtmal ansatzweise. in cyperpunk beispielsweise ist FSR UQ in bewegung eher irgendwo zwischen B und P und in einer statischen szene die sich über mehrere frames stabilisieren konnte oft hinter DLSS UP. in ganz bösen szenen mit viel aliasing verstärkt FSR UQ die artefakte teilweise so hart dass man das feature vielleicht besser ganz ausschalten sollte.
die features sind absolut nicht vergleichbar.
Wenigstens tun einige ihren Job noch korrekt auch wenn es immer komplexer wird richtige Beurteilungen zu treffen ;)
Mann muss Game Engines jetzt mehr wie Video Codecs in ihrer Render und Psy Effizienz betrachten ;)
robbitop
2022-02-22, 15:43:09
Ich denke schon, dass diese Motion compensation etwas anders ist als eine Zwischenbildberechnung. Andere Randbedingungen und Herausforderungen. Außerdem: je mehr Daten man hat, desto besser kommt man zu konkludenten Ergebnissen. Und ich würde behaupten, dass das Zielframe sehr sehr wertvoll dafür ist. Entsprechend ist es die Latenz wert.
Geldmann3
2022-02-22, 16:01:13
Ok, aber sowas wie bei VR geht hald nicht. Dadurch, dass man den Kopf bewegt, kann man theoretisch genau feststellen (eye tracking), wohin sich der Kopf (bzw. hier die Augen) bewegt. Bei normalem Gaming geht das nicht.
Den Kopf zu bewegen ist nichts anders als die Kamera in einem normalen Game.
Ist man schon in Bewegung (und ändert diese nicht mehr), kann das alles gut funktionieren. Aber wenn man gerade eine Änderung durchführt, braucht es m.M.n eben wie robbitop sagt, mindestens 1 Frame aus der Zukunft.
Das ist ein Denkfehler, da kann keine Änderung mehr durchgeführt werden, wenn die GPU bereits angefangen hat den nächsten ,,echten" Frame zu rendern. Alle Änderungen auf die der nächste Frame hinausläuft liegen schon fest und alle Inputs sind erst wieder für den übernächsten relevant. Also kann man für den nächsten Zwischenframes berechnen ohne zusätzliche Latenz.
Bin mir jedoch auch recht sicher, dass der nächste Frame sehr hilfreich wäre.
Das aber kostet dann wieder Latenz.
-/\-CruNcher-/\-
2022-02-22, 16:07:41
;D HAHAHA, AI-Projekte auf Github.
Ne verstehe schon, meine Aussage ist schon absurd.
2,5x durch die Hardware + 4x durch Realtime-FPS-Upsampling.
Die GPU rechnet dann intern nur noch in 1080p@30FPS und herauskommen 4k bei 120FPS.:rolleyes:
Im FS2020 mache ich das jetzt schon in der VR. Geht aber nur sauber, wenn sich nichts außer deinem eigenen Flugzeug bewegt.
Doch mit Motion Vektoren und AI ist auch das lösbar, denke ich.
Versuche ich das Ganze in GTA V habe ich zwar 120FPS wenn ich mich umschaue, Autos ziehen jedoch dicke Schlieren hinter sich her.
Das muss noch gefixt werden.
Kombinieren wir das mit DLSS 2.3-Performance, dann haben wir es schon.
Entwickler die DLSS implementiert haben, hätten zudem nur minimalen Update-Aufwand.
Nur die DLSS-Version muss erhöht werden.
Denn die nötigen Daten wie die Motion-Vektoren werden schließlich schon an das SDK geliefert.
Du liegst garnicht verkehrt der FPS Upsampler exestiert in Nvidias treiber schon eine ganze Zeit ;)
Viel interessanter wird aber sein wie sich Physx weiterentwickelt und wann wir das Mega Comeback Special sehen das alle parts von Nvidias Hardware optimal kombiniert ;)
Und schlussendlich Nvidias neue Human Realtime Simulation die alles in sich vereint natürlich Jensens Clone mit ordentlicher Rocker Mähne (spart man sich auch die kontroverse mit einer weiblichen Person) auf der Virtuellen Bühne den Titel "It Just Works" zum Besten gebend ;)
"Yes it just woooooooorks dum dum dum "
"yes it just woooooooorks dum dum dum"
"PhysX headbang"
vinacis_vivids
2022-02-22, 17:17:22
Bei Ampere limitiert mittlerweile die Latenz viel viel stärker als die reine Rechengeschwindigkeit.
https://abload.de/img/ampere_rdna2_mem7ekng.png
Was Geldmann3 hier raucht, kann er mir auch mal schicken, wenn es nicht süchtig macht :freak:
Beim Nachfolger Lovelace wirds kaum anders sein. Nvidia hat bisher keine Technik zeigen können, die das Bandbreitenproblem löst. Ich kann nicht nachvollziehen wieso dieses DLSS-Zeugt so hochgejubelt wird.
Bildqualität geht abwärts durch Verringerung der Rechenpräzision und die grünen Käufer jubeln :freak:
robbitop
2022-02-22, 17:36:19
Latenzen sind für GPUs in der Regel unkritisch, da extrem viele Threads in-flight sind. Das ist anders gelagert als CPUs. Ob diese denn "limitiert" müsste man erstmal nachweisen.
DLSS reduziert die Rechenleistung und ist auch nicht ganz artefaktfrei. Die Ergebnisse sind aber stark abhängig von der Implementierung. Es spart eben eine hohe Menge an Rechenleistung insbesondere bezogen auf den Einfluss auf die Bildqualität.
Das Endresultat ist mehr BQ pro TFLOP, da mehr Rechenleistung gespart wird als BQ geopfert wird (zumindest in guten Implementierungen ist das so):
Durch die gewonnene Rechenleistung ist also mehr möglich. Hat man dann Leistung über kann man DLDSR mit DLSS kombinieren und kommt dann auf die gleiche Auflösung wie nativ aber bei gesteigerter BQ.
Oder aber es ermöglicht GPUs mit weniger Leistung höhere Auflösungen als sonst möglich wären und ermöglicht damit auch mehr BQ.
Man erreicht TFLOP normiert oder fps normiert mehr BQ, weil man die gesparten TFLOPs besser investieren kann. Wenn man das nicht tut, dann stimme ich zu -> es ist dann in der Regel ein BQ Reduktion. Aber es ermöglicht tatsächlich eine BQ Steigerung pro TFLOP.
Ist diese Zwischenbildberechnung bei VR nichts anderes als dass man einen anderen Ausschnitt aus der (während eines Frames statischen) Welt vor dem virtuellen Auge? Es funktioniert ja extrem gut aber ich ging bisher davon aus, dass die GPU einen Frame auf ne virtuelle Leinwand in meinem HMD erzeugt und wenn ich vor dem nächsten Frame den Kopf bewege sehe ich das selbe Frame nur etwas verschoben. Also natürlich schon interpoliert etc., aber eben kein echtes "Zwischenframe" mit verändertem Inhalt.
mksn7
2022-02-23, 11:22:44
Bei Ampere limitiert mittlerweile die Latenz viel viel stärker als die reine Rechengeschwindigkeit.
https://abload.de/img/ampere_rdna2_mem7ekng.png
GPU Latenzen waren früher noch höher, und das war auch ok. Ich mag solche Latenzplots in ns immer nicht so. Das ist zwar gut um die physikalische Implementierung unterschiedlicher chips zu vergleichen, aber um herauszfinden was das für die performance der Architektur bedeutet, sind clock cycles viel besser.
Meine eigenen Messungen für eine 3080 zeigen da 500 cycles DRAM Latenz und eine Speicherbandbreite von ~700 GB/s- Um herauszufinden was das für die Performance bedeutet, können wir mittels Little's Law ausrechnen wieviel Parallelität es benötigt um das Speicherinterface auszulasten.
700GB/s / 8B / 1.950GHz * 500 cyc = ~22000 threads
Das sind 16% der 68*2048 threads die auf einer 3080 gleichzeitig laufen können. Bei sehr schlechter occupancy, also wenn ein Kernel die vollen 255 Register oder sehr viel shared memory belegt, kann einem das natürlich auf die Füße fallen. Außerdem steigt die Latenz mit steigender Auslastung, so dass man für die maximale Bandbreite nochmal ein paar mehr threads benötigt.
TL;DR: Wenn mindestens 16% der threads einer 3080 auf einen 8B Speicherzugriff warten, ist das Speicherinterface ausgelastet. Die restlichen 86% können irgendwas rechnen. Geringe Latenzen sind schon super, schlagen aber nicht 1:1 auf die performance durch.
Geldmann3
2022-02-23, 11:40:32
Ist diese Zwischenbildberechnung bei VR nichts anderes als dass man einen anderen Ausschnitt aus der (während eines Frames statischen) Welt vor dem virtuellen Auge? Es funktioniert ja extrem gut aber ich ging bisher davon aus, dass die GPU einen Frame auf ne virtuelle Leinwand in meinem HMD erzeugt und wenn ich vor dem nächsten Frame den Kopf bewege sehe ich das selbe Frame nur etwas verschoben. Also natürlich schon interpoliert etc., aber eben kein echtes "Zwischenframe" mit verändertem Inhalt.
Ja, in den einfachsten Implementierungen ist das Alles. Und es funktioniert schon sehr gut, solange sich nur Dein Viewport verändert und keine anderen Objekte im Bild. Doch das könnte man bestimmt ganz gut mit AI-Kontern. Besonders Nvidia. Die Motion-Vektoren, die DLSS schon hat, könnten man verwenden wie beim Video-Dekodieren.
robbitop
2022-02-23, 12:03:59
@mksn7
Naja es gibt dafür ja auch noch Caches oder? Entsprechend muss man das nach deren Hitrate / Reuse rechnen. Dazu kommt, dass Spiele in der Regel ja deutlich weniger compute lastig sind als reine Computeanwendungen (z.B. aus dem Bereich HPC).
unl34shed
2022-02-23, 14:26:52
Ja, in den einfachsten Implementierungen ist das Alles. Und es funktioniert schon sehr gut, solange sich nur Dein Viewport verändert und keine anderen Objekte im Bild. Doch das könnte man bestimmt ganz gut mit AI-Kontern. Besonders Nvidia. Die Motion-Vektoren, die DLSS schon hat, könnten man verwenden wie beim Video-Dekodieren.
Ein Motion Vektor funktioniert afaik nur, wenn die Objekte nicht schnell ihre Richtung ändern.
Beim Fußball dürfte der Ball vermutlich für die Zwischenframes erstmal durch den Pfosten gehen, bis die Engine im nächsten Frame einen neuen Vektor für das abprallen berechnet hat. Ghostinger Artefakte.
Auch bin ich mit bei Rotationen unsicher, aber die dürften in so einem Vektor nicht berücksichtigt werden (oder?). Bei einem Flugsimulator müsste der Rotor dann je nach throttle im Durchmesser zunehmen.
mksn7
2022-02-23, 15:40:02
@mksn7
Naja es gibt dafür ja auch noch Caches oder? Entsprechend muss man das nach deren Hitrate / Reuse rechnen. Dazu kommt, dass Spiele in der Regel ja deutlich weniger compute lastig sind als reine Computeanwendungen (z.B. aus dem Bereich HPC).
Mit caches könnte man die gleiche Rechnung machen. Geringere Latenz, mehr Bandbreite, das hebt sich teilweise auf.
Platos
2022-02-23, 15:43:23
Ich glaube weiterhin, dass man mindestens 1 Frame in der Zukunft braucht und das "aktuelle" (das letzte "echte" Frame). Ansonsten entstehen genau solche Fehler, wie beim Beispiel mit dem Fussball und dem Pfosten. Es braucht einfach eins, ansonsten entstehen Fehler. Bei Grafik spielt es keine Rolle, wenn es nicht wahrheitsgeträu vom Ki-Algorithmus "erdacht" wird, hauptsache es sieht gleichgut/besser aus wie ohne. Bei einer Bewegung ist das aber was anderes. Da kann man sich nicht einfach was "erahnen", das geht nicht.
Und bei einem Frame vorberechnet ensteht dann zwingend eine Latenzzeit bestehend aus der Zeit des einen "echten" Frame, das vorgerechnet wird und der Zeit, die benötigt wird, um das Zwischenframe zu erzeugen. Die muss dann möglichst nahe bei 0 sein, ansonsten gibts eine für die jeweilgie Framerate viel zu hohe Latenzzeit. Selbst wenn das Zwischenframe eine vernachlässigbar kleine Latenzzeit hat (0.1ms), wäre die Latenzzeit immer noch 2x höher, wie die dauer eines Frames (die Framerate wird ja verdoppelt bzw. die Frametime halbiert). Das macht übrigens auch die Anwendung bei grösserer "echter" Frameraten schwieriger:
Berechnet man "echte" 30FPS, ist die Latenzzeit 33ms+Zwischenframe. Sagen wir mal, man würde sehr niedrige 5ms benötigen, wäre danach die Latenzzeit 38ms bzw. 1.15x grösser, wie ein "echtes" frame (30FPS) bzw. 2.3x grösser, wie das Frame der verdoppelten Framerate (60FPS) - und mit der muss man ja vergleichen. Das ist schon jetzt ne ordentliche Zeit. Will man allerdings 60 "echte" FPS in 120FPS "upscalen", dann hätte man 16+5=21ms, was dann auf einmal 1.3x mehr ist, wie ein 60FPS Frame und schon 2.6x mehr, wie ein 120FPS Frame.
Würde man die Framerate gar verfierfachen, wäre das ganze allerdings viel extremer. Von 30 FPS auf 120FPS wäre das nun nicht mehr 38ms, sondern 48ms. Es braucht nun nämlich 3 Zwischenbilder mit je 5ms und ein Frame von der vierfachen Framerate (120fps) wäre 8.3ms. Somit hat man nacher eine Latenzzeit, die 5.8x grösser ist, wie sie eig. bei einem 120FPS Frame wäre. Da kann man dann auch mal in Frage stellen, ob das überhaupt noch sinnvoll ist. Selbst, wenn das Zwischenbild 0.1ms brauchen würde (also zu vernachlässigen wäre), wäre die Latenzzeit immer noch ein Vierfaches der Zeit eines Frames.
Also Fazit: M.M.n wird es für eine möglichst Artefaktfreie Umsetzung immer 1 Frame in der Zukunft brauchen und somit eine Latenzzeit von diesem einen Frame+ Zwischenbildberechnung geben. Für eine Verdopplung ergibt das noch sinn (und ist wegen der Latenzzeit ohnehin schon genug schwierig), eine Vervierfachung ist da aber m.M.n völlig sinnfrei.
Motion Vektoren können auch nicht in die Zukunft schauen (bzw. können sie keine Bewegungsänderungen vorhersehen). Das ist logisch betrachtet einfach nicht lösbar aus meiner Sicht. Man kann keine Bewegungen vorhersehen, die es noch nicht gibt. Das ist eine ganz andere Baustelle, wie wenn man ein bereits fertiges Bild upscaled. Ein komplett neues Bild kann man sich nicht "erahnen" ohne Vergleichswerte von hinten und vorne. M.M.n völlig unmöglich.
Meine Meinung: Mir würde die Verdopplung von 60FPS auf 120FPS mehr gefallen, da dort die Latenzzeit mit 16.6ms+5ms deutlich vertretbarer ist, wie die 33ms+5ms. Wobei man die angenommenen 5ms auch mal zuerst hinkriegen muss... Vlt. ist das ganze auch gar nicht sinnvoll umsetzbar und die Berechnungszeit des Zwischenbildes ist immer viel zu hoch und somit das ganze Vorhaben sinnfrei.
Leonidas
2022-02-23, 15:43:30
Greymon55:
If you buy an ad102, have a 1500W power supply ready.
https://twitter.com/greymon55/status/1496450137090109442
Platos
2022-02-23, 16:10:57
Geil :D
Bitte bei künftigen Tests den Preis eines neuen Nezteil miteinberechnen. Brauchen "alle" ein neues NT, muss man das schliesslich auch einberechnen.
Geldmann3
2022-02-23, 16:42:24
Motion Vektoren können auch nicht in die Zukunft schauen (bzw. können sie keine Bewegungsänderungen vorhersehen). Das ist logisch betrachtet einfach nicht lösbar aus meiner Sicht. Man kann keine Bewegungen vorhersehen, die es noch nicht gibt. Das ist eine ganz andere Baustelle, wie wenn man ein bereits fertiges Bild upscaled. Ein komplett neues Bild kann man sich nicht "erahnen" ohne Vergleichswerte von hinten und vorne. M.M.n völlig unmöglich.
Wie schonmal geschrieben, die Motion Vektoren müssen nicht in die Zukunft schauen, die Zukunft steht schon fest.
Schritt 1: GPU beginnt den folgenden ,,echten" Frame zu rendern. (Dafür muss sie schon genau wissen wie dieser Aussieht, sonst könnte sie ihn nicht rendern, bis hierhin KANN sich nichts mehr ändern!" Völlig egal was der Nutzer jetzt eingibt oder was sich in der Game-Engine intern ändert. Die Änderung kommt sowieso frühestens im übernächsten ,,echten" Frame an.)
Schritt 2: Während die GPU also bereits den nächsten Hauptframe rendert, kennt die Zwischenbildberechnung nun bereits die Position aller Objekte jetzt und die Position aller Objekte im kommenden, echten Frame. Da die GPU schon angefangen hat diesen zu rendern, kann sich dort nichts mehr ändern. Es müssen keine Bewegungen vorhergesehen werden, die es noch nicht gibt, denn auch der nächste Frame liegt sowieso immer in der Vergangenheit!
Schritt 3: Das Zwischenbild wird ausgegeben, in dem sich alles in der Mitte zwischen Frame 1 und Frame 2 befindet. So wie bei simpler Motion-Reprojection + AI Cleanup.
Schritt 4: Der nächste ,,echte" Frame wird ausgegeben.
usw...
Angenommen in Frame 1 trifft der Ball auf einen Pfosten und in Frame 2 ist dieser bereits wieder davon abgeprallt und auf dem Rückweg zum Spieler.
Klar, das könnte man nicht extrapolieren. Doch wie häufig passiert sowas?
(Ließe sich eines Tages auch lösen, indem man die Motion Vektoren intern schneller aktualisiert als nur einmal jeden Frame, (Von der Physik-Engine) doch lasst uns für den Anfang mal nicht zu viel fordern.)
-/\-CruNcher-/\-
2022-02-23, 16:54:20
Was du ansprichst macht auch die Direkte Verknüpfung zum GPU Memory so wichtig autark vom CPU Memory nur das ermöglicht die Motion Vektors effizient in die Zukunft zu predicten mit minimaler latenz durch CPU/Memory und PCI-E Bus hin zum VRAM eben direkt über CPU/PCI-E Bus zum VRAM Bidirektional.
Ist auch der erste Schritt zu sehr effizienten GPU/AI Discrete Video Codecs.
Viele verkennen diesen Vorteil von RBAR noch er wird auch die DLSS effizienz optimieren.
AMD steht in der Theorie sogar noch ein ticken besser dar momentan vor allem wenn die fortlaufende Xilinx integration fahrt auf nimmt.
Das Design wird schon ein brocken für Nvidia zu schlucken.
Allerdings sehe ich persönlich Intel an der absoluten Spitze aber AMD könnte jetzt sehr schnell Nvidia vom Platz hauen
fondness
2022-02-23, 17:02:29
Greymon55:
If you buy an ad102, have a 1500W power supply ready.
https://twitter.com/greymon55/status/1496450137090109442
I am not clear at the moment whether one model has three TGP ranges or whether it has three models but the TGP number of the AD102 is 450W-650W-850W, of course this is not the final specification and there may be some deviation.
https://twitter.com/greymon55/status/1496509701273833475?t=mFEGdyUyeMc2m1A8QeX0mg&s=19
dargo
2022-02-23, 17:27:17
Greymon55:
If you buy an ad102, have a 1500W power supply ready.
https://twitter.com/greymon55/status/1496450137090109442
Einfach nur eine Lachnummer die GPU-Entwicklung im Desktop.
Ah, da weiss man ja, wo auf einmal die Mehrleistung mit dem 2,5 mal besser herkam :freak:.
BlacKi
2022-02-23, 17:33:51
Einfach nur eine Lachnummer die GPU-Entwicklung im Desktop.das war doch zu erwarten. bei soviel siliziumfläche und erwartendem powerttarget war klar, das die netzteil empfehlung wohl nicht bei 1000w stehen bleiben wird. bei amd wird das genauso aussehen. die verbauen vermutlich noch mehr siliziumfläche als nv dank mcm.
da wird der bereich enthusiast bereich neu definiert oder gleich ein ganz neues segment über enhtusiast platziert.
zum glück muss man ja nicht mitgehen.
dargo
2022-02-23, 17:59:53
das war doch zu erwarten. bei soviel siliziumfläche und erwartendem powerttarget war klar, das die netzteil empfehlung wohl nicht bei 1000w stehen bleiben wird. bei amd wird das genauso aussehen.
Dann bekommt AMD hoffentlich auch genug Shitstorm dafür ab.
BlacKi
2022-02-23, 18:01:54
Dann bekommt AMD hoffentlich auch genug Shitstorm dafür ab.warum? lass doch die superenthusiasten ihre überteuerte stromfressende karten kaufen. was juckt dich das? alles kann, nichts muss.
-/\-CruNcher-/\-
2022-02-23, 18:55:46
Dann bekommt AMD hoffentlich auch genug Shitstorm dafür ab.
So einfach ist das nicht wenn man über den Telerand Games schaut, es gibt eben workloads da ist es effizienter für Kurze Zeit mehr Power Output zu investieren als weniger aber dafür sehr viel länger.
Natürlich macht es für Gamer absolut keinen Sinn aber das muss jeder für sich selbst entscheiden und man kann ja hoffen das die meisten die Richtige Entscheidung treffen.
Wer über den gesammten Konsolen Output geht ist schon heute weit abseits von Normal ;)
Der Maximale Output einer Next Gen Konsole ist ein gutes Ziel
Linmoum
2022-02-23, 19:12:05
Der Shitstorm wird natürlich ausbleiben, solange die Effizienz dennoch deutlich steigt. Dass das passieren wird, davon kann man fast schon sicher ausgehen.
Ex3cut3r
2022-02-23, 19:18:04
Stand jetzt. Finde ich diese Entwicklung auch nicht gut. Ich habe mit einer 3080 Ti @ Asus TUF und 350W Verbrauch in jedem Spiel Probleme mit der Lautstärke. Wenn ich dazu noch die Tür meines Zimmer schließe, wird es ich nach 2 Std. Ausgiebiger Spielezeit in einem Titel der z.B. auch die CPU gut fördert, wirklich fühl und spürbar wärmer. (Mit offenen Fenster geht es) Gut, im Winter jetzt vlt. nicht soooo wichtig, aber unangenehm mit normalen Pulli für diese Jahreszeit wird es dann schon. Im Sommer kann ich mir das eigentlich überhaupt nicht vorstellen. Da werde ich das Ding auf 250W max festtackern! Wenn nicht sogar auf 230W
ChaosTM
2022-02-23, 19:20:35
Einfach nur eine Lachnummer die GPU-Entwicklung im Desktop.
Deshalb spiel ich jetzt mit einem Laptop und 130 bis maximal 170 Watt Verbrauch - dank DLSS und FSR in 4K.
400 Watt GPUs my Ass. .. ;)
Linmoum
2022-02-23, 19:23:17
Verlangt ja auch keiner, dass man das gut findet. Bleibt natürlich jedem selbst überlassen.
Mich würde es aber nicht wundern, wenn man ganz oben dann in der Spitze nur noch auf AiO/Wakü geht, auch schon im Auslieferungszustand. Wäre sinnvoller und weniger Aufwand, als das ganze mit Material zu erschlagen, was natürlich trotzdem möglich wäre. Ok, bei >800W dann sicher nicht mehr, aber bis 500W sollte das insgesamt weniger problematisch sein, wenn man denn will.
-/\-CruNcher-/\-
2022-02-23, 19:27:26
Deshalb spiel ich jetzt mit einem Laptop und 130 bis maximal 170 Watt Verbrauch - dank DLSS und FSR in 4K.
400 Watt GPUs my Ass. .. ;)
Ja wie gesagt bis zu 70W Einsparung Lokal mit DLSS das ist schon eine Hausnummer die aber nie wirklich mit einbezogen wird ;)
r3ptil3
2022-02-23, 19:36:05
https://i.ibb.co/KmsLMjM/1.png
https://wccftech.com/nvidia-geforce-rtx-40-ada-lovelace-gpus-september-launch-upto-850w-tdp-rumor/
Interessant ist es aber trotzdem, zudem wird ja nur die RTX 4080 mit 450 TDP für die meisten interessant sein, sofern Nvidia jetzt nicht mit 12Gb VRAM daherkommt.
BlacKi
2022-02-23, 19:40:07
Ja wie gesagt bis zu 70W Einsparung Lokal mit DLSS das ist schon eine Hausnummer die aber nie wirklich mit einbezogen wird ;)weil das nie wirklich jemand interessiert. ich kaufe mir ja nicht eine 3080 320w karte um sie dann mit 250w laufen zu lassen. da kann ich mir auch eine 3070 holen und dabei geld sparen. stattdessen nutzt du doch die freigefordene leistung um die grafik zu verbessern. oder wie gesagt, 1-2 klassen niedriger einzukaufen.
horn 12
2022-02-23, 19:42:55
Und wie soll man dies kühlen, dem Kunden Beibringen als Ehemaliger Effizienz König... ?
Dann wird eine Stagnation beim Kauf eintreten und wer will/ möchte schon ein 450/ 600 Watt Monster im Rechner?
WASSERKÜHLUNG OBENDRAUF, ist auch nicht Jedermanns Sache!
BlacKi
2022-02-23, 19:45:33
aber eine 3090 war schon nicht jeder mans sache und trotzdem ziemlich beliebt. das sind keine mainstreamkarten. das der mainstream sowas nicht kauft versteht sich doch von selbst.
Thunder99
2022-02-23, 19:52:51
Der Shitstorm wird natürlich ausbleiben, solange die Effizienz dennoch deutlich steigt. Dass das passieren wird, davon kann man fast schon sicher ausgehen.
Gilt deine Aussage auch wenn die GPU hypothetisch 10000W Gesamt verbraucht? ;). Nichts gegen dich, aber ich schreibe dass, um die Leute wachzurütteln. Es kann nicht ewig immer mehr werden. Die Kosten explodieren und werden nicht weniger bei der Energie, samt Aufwand die Watt zu kühlen.
Die Rechnung geht nach meiner Meinung nicht mehr auf, da es schön-rechnerei ist.
@BlaK: Eine 3080 @300W ist deutlich schneller als eine 3070Ti @300W
BlacKi
2022-02-23, 19:59:27
@BlaK: Eine 3080 @300W ist deutlich schneller als eine 3070Ti @300W
es ging ja auch um eine 3080/70 bei 250w, die 70w ersparnis halt.
-/\-CruNcher-/\-
2022-02-23, 20:21:13
300W als Maximum ist so auch absolut vertrettbar als Mainstream das ist Konsolen Maximum.
r3ptil3
2022-02-23, 20:26:18
Und wie soll man dies kühlen, dem Kunden Beibringen als Ehemaliger Effizienz König... ?
Dann wird eine Stagnation beim Kauf eintreten und wer will/ möchte schon ein 450/ 600 Watt Monster im Rechner?
WASSERKÜHLUNG OBENDRAUF, ist auch nicht Jedermanns Sache!
Ich verstehe das Problem nicht.
Ein führender Konzern in der Branche wie Nvidia, wird vorher schon exakt berechnet haben was der Markt will.
Und wenn Nvidia ein 600 bis 800W Monster bringt, dann hat das auch seinen Grund. Performance-Führerschaft verteidigen, Geforce-Marke weiter aufbauen usw.
Für die relevante Kundschaft in der Mitte, gibt es dann immer noch Produkte mit 200-400W. Und wenn das Produkt schlecht ist, damit meine ich die Performance, Effizienz, Verbrauch, Kühlung, tut sich Nvidia ja auch keinen Gefallen damit. Andernfalls ist das Produkt oder die Serie einfach schlecht und die Runde geht dann evtl. an AMD.
Beschwert sich denn jemand bei der RTX 3090 über die Kühlung, welche in 95% noch mit Luft gekühlt wird? Nein, das einzige was man mit der RTX 3090 assoziiert, ist: Keine Nachteile, keine Schwächen - das absolut beste Produkt auf dem Markt.
Wirkt sich natürlich entsprechend auch auf die kleineren Produkte aus.
Ich bin richtig neugierig auf die neuen Produkte.
dargo
2022-02-23, 20:39:36
Stand jetzt. Finde ich diese Entwicklung auch nicht gut. Ich habe mit einer 3080 Ti @ Asus TUF und 350W Verbrauch in jedem Spiel Probleme mit der Lautstärke.
Hör bloß auf. Laut diversen Experten hier ist das noch problemlos leise kühlbar. :wink: Meine Vermutung... diese "Experten" verstehen unter leise was völlig anderes als ich.
Beschwert sich denn jemand bei der RTX 3090 über die Kühlung, welche in 95% noch mit Luft gekühlt wird? Nein, das einzige was man mit der RTX 3090 assoziiert, ist: Keine Nachteile, keine Schwächen - das absolut beste Produkt auf dem Markt.
Weiß nicht ob das als Beschwerde durchgeht, eventuell nur Unsicherheit.
https://www.computerbase.de/forum/threads/rtx-3090-memory-junktion-temperature-senken.2017746/
Aber schon wieder witzig wie sich die Lage plötzlich geändert hat. Bei RDNA1 wurden noch 90+°C beim Vram Hotspot bemängelt. Heute sind 100+°C beim Hotspot einer RTX 3090 völlig normal. :rolleyes:
Linmoum
2022-02-23, 20:45:49
Ist es mit entsprechendem Materialaufwand auch. Die Frage ist nur, ob man das als Hersteller will. Sonst nichts.
Dass man mit einer TUF bei 350W "Probleme mit der Lautstärke" hat, halte ich aber ansonsten für eine große Überdramatisierung. Ok, wenn er mit dem Performance-BIOS unterwegs ist, dann mag das sogar stimmen. Aber warum sollte man sowas tun? :freak:
Im Übrigen muss man das ganze auch immer nur in Relation zur Temperatur setzen. Manche Karten laufen mit >2000rpm und dümpeln dann bei lächerlichen 70°C oder sogar noch weniger rum. Laut CB hat eine 3080 TUF 73°C bei 1730rpm. Das ist lächerlich, da ist noch massiver Spielraum - bei der Temperatur nach oben und den Lüftern nach unten.
dargo
2022-02-23, 20:51:57
Ist es mit entsprechendem Materialaufwand auch. Die Frage ist nur, ob man das als Hersteller will. Sonst nichts.
Was theoretisch möglich ist ist irrelevant. Es zählt nur das was released wird. Und mal ehrlich... sollen jetzt 3kg Backsteine verkauft werden? Zumal du ganz genau auch weißt, dass der zusätzliche Materialaufwand auch entsprechend vergütet werden will.
Im Übrigen muss man das ganze auch immer nur in Relation zur Temperatur setzen. Manche Karten laufen mit >2000rpm und dümpeln dann bei lächerlichen 70°C oder sogar noch weniger rum. Laut CB hat eine 3080 TUF 73°C bei 1730rpm. Das ist lächerlich, da ist noch massiver Spielraum - bei der Temperatur nach oben und den Lüftern nach unten.
Nur ist das so pauschal gesagt leider falsch. Nicht nur die GPU entwickelt Hitze. Bei zu wenig Drehzahl an den Lüftern kann dir zb. der Vram überhitzen. Mal davon abgesehen ist die Edge-Temperatur der GPU ziemlich uninteressant. Die richtige Kerngröße heißt Hotspot. Und sorry... aber 1730RPM an den Lüftern ist weit von leise entfernt. Bring das mal Richtung 1100-1200RPM, dann sprechen wir von leise.
Sunrise
2022-02-23, 20:52:11
Lovelace sieht mehr und mehr nach Brechstange aus.
GPU an der Kotzgrenze, trotz 5nm
GDDR6X an der Kotzgrenze, zugleich mehr VRAM
Ich gratuliere AMD schonmal…
ChaosTM
2022-02-23, 20:58:12
Wenn bei der neuen Generation 200 Watt Karten abfallen, die 3080er Niveau erreichen bzw überschreiten, könnte der Standrechner wieder mehr Verwendung finden.
Man muss ja nicht immer zu den ganz fetten Dingern greifen.
Ich glaube kaum, dass sich AMD und NV viel nehmen werden beim Verbrauch.
r3ptil3
2022-02-23, 21:01:01
Weiß nicht ob das als Beschwerde durchgeht, eventuell nur Unsicherheit.
https://www.computerbase.de/forum/threads/rtx-3090-memory-junktion-temperature-senken.2017746/
Aber schon wieder witzig wie sich die Lage plötzlich geändert hat. Bei RDNA1 wurden noch 90+°C beim Vram Hotspot bemängelt. Heute sind 100+°C beim Hotspot einer RTX 3090 völlig normal. :rolleyes:
Durfte bei der RX 5700 auch 105° heiss werden. Ein Problem war es nur, weil es den Leuten nicht gefiel.
Ändert am Gesamtbild der RTX 3090 auch nicht viel, was du auch selber zugeben musst, wenn du ehrlich bist.
Eine RTX 3090 mit guter Kühlung und Undervolting auf 250-280W? Mit dem Featureset ist das halt im Gesamtpaket das beste was man aktuell kriegen kann.
Was aber nicht bedeutet, dass ich persönlich keine RX 6800/6900 präferiere.
basix
2022-02-23, 21:21:46
I am not clear at the moment whether one model has three TGP ranges or whether it has three models but the TGP number of the AD102 is 450W-650W-850W, of course this is not the final specification and there may be some deviation.
https://twitter.com/greymon55/status/1496509701273833475?t=mFEGdyUyeMc2m1A8QeX0mg&s=19
850W? Klar. 350W * 2.2 = 770W. Man wäre also vermutlich nichtmal effizienter als Ampere.
So ein Quatsch. Auf diese Meldung würde ich nichts geben. Selbst der PCIe 5.0 Stromstecker geht "nur" bis max. 600W.
Ich tippe eher darauf, dass die AD102 Karten mit 450W kommen. Die 650W / 850W sind entweder Bullshit oder einfach gewisse Peak Anforderungen an die Netzteile (z.B. 450W Durchschnitt, für 10ms können 650W gezogen werden, für 1ms 850W).
Und selbst 450W sind eigentlich wahnsinnig. Vielleicht will man aber hier einfach das typische Psychospielchen abziehen: Alle erwarte eine abartige Leistungsaufnahme von 600-800W. Dagegen sehen die dann releasten 450W gleich richtig sparsam aus, obwohl sie es nicht sind.
Ex3cut3r
2022-02-23, 22:28:51
Hör bloß auf. Laut diversen Experten hier ist das noch problemlos leise kühlbar. :wink: Meine Vermutung... diese "Experten" verstehen unter leise was völlig anderes als ich.
Weiß nicht ob das als Beschwerde durchgeht, eventuell nur Unsicherheit.
https://www.computerbase.de/forum/threads/rtx-3090-memory-junktion-temperature-senken.2017746/
Aber schon wieder witzig wie sich die Lage plötzlich geändert hat. Bei RDNA1 wurden noch 90+°C beim Vram Hotspot bemängelt. Heute sind 100+°C beim Hotspot einer RTX 3090 völlig normal. :rolleyes:
Ist natürlich alles subjektiv, klar. Aber für mich wird es ab 1300 RPM kritisch, war schon immer so. 1500 RPM nehme ich auch schon richtig wahr. Optimal sind für mich 700-1100 RPM. Die TUF im Performance BIOS versucht aber ständig unter der 70 Grad Marke zu bleiben, dafür erhöht auch schon mal wenn der Fette Chip richtig mit RT, DLSS sowie Raster beschäftigt ist, die RPM auch mal auf fast 2500 RPM um unter den 70 zu bleiben (69 Grad)
Der Quiet Modus wiederum lässt fast 2000 RPM bei etwas über 73 (Max 75 bisher gesehen) Grad einpendeln, bei gleichem Energie Verbrauch. :freak: Für was der Performance Modus überhaupt das Standard BIOS ist, ist mir jedenfalls ein Rätsel von ASUS. :biggrin:
Was löblich ist, ist die Hysterese von ASUS, die Lüfter drehen schön langsam auf und ab. Die alte 2080 von Gigabyte, kannte sowas nicht, da war es entweder Zero Fan, oder Boooooom und dann erst einpendeln aber auch rabiat. :freak:
Slipknot79
2022-02-23, 23:50:49
Greymon55:
If you buy an ad102, have a 1500W power supply ready.
https://twitter.com/greymon55/status/1496450137090109442
MOAR! Warum nur 1500W?
K, der Bugatti hat auch nicht moar als 1500PS.
(y)
Sehr geile Entwicklung, ist nur begrüßenswert. (y)
Ich will akustisch vernehmen, wie die Platine zufolge thermischer Spannungen knistert. (y)
aufkrawall
2022-02-24, 01:00:10
Ich werd mir wohl ein neues Gehäuse besorgen müssen, bei dem das Board auf die linke Seite verschraubt wird und ich somit nicht im Luftstrom sitze. Mache ich Witze? Bin mir noch nicht sicher...
Geldmann3
2022-02-24, 04:50:58
850W TDP? Unglaublich wie absurd die Gerüchte ausarten, das wäre sustained nicht kühlbar, in einem normalen Case. 450 Watt wären in einem Massenprodukt noch denkbar, wenn man sich dadurch verspricht nicht hinter die Konkurrenz zu fallen.
Ich bleibe bei den 400W (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12925952&postcount=861).
aceCrasher
2022-02-24, 10:36:40
Also 500W kann ich mir mit einer AIO persönlich schon vorstellen... Ich glaube absolut dass Jenson so weit gehen würde um die Performance Krone mit allen Mitteln zu verteidigen.
Geldmann3
2022-02-24, 10:46:48
Glaube nicht, dass Nvidia sich auf das Niveau von AMDs Fury-Fail mit AIO damals herablässt.
Das haben sie einfach nicht nötig.
mironicus
2022-02-24, 10:52:09
Erinnert mich irgendwie an Intel, die eine 250 Watt-CPU brauchen um eine 105 Watt-CPU zu schlagen. :)
Wird dieses Mal wohl genau so sein, um 4-5% schneller zu sein braucht NVidia viel mehr TDP als AMD. :)
Geldmann3
2022-02-24, 11:30:28
Nvidia sollte die Karte dann RTX 5 nennen.
500 Watt bei 5nm.
Edit:
Unglaublich, dass der Müll jetzt auch von PCGH wiedergekäut (https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Deutlich-hoehere-TDP-und-moeglicher-Ankuendigungstermin-1389912/) wird:
Es gibt neue Gerüchte zur Geforce RTX 4090, die sich um die TDP und die Veröffentlichung drehen. Die Karte soll einerseits das 2,5-fache der Leistung des Vorgängers liefern, verarbeitet dabei aber auch potenziell das Doppelte an Energie.
Klaaar, das ergibt ja auch voll Sinn, beim Umstieg von Samsungs 8nm auf TSMCs 5nm + Architekturverbesserungen. :freak:
Der_Korken
2022-02-24, 14:19:54
850W sind total aberwitzig. Zum einen technisch, weil das schon 2,5x so viel wie eine 3090 ist und man somit selbst ohne Effizienzgewinn durch 5nm auf so ein Ergebnis kommen könnte bei "nur" 2,5facher 3090-Leistung. Zum anderen produktpolitisch, weil der Käuferkreis für sowas marginal ist. Wie schon einige schrieben braucht man dafür fast schon ein eigenes Gehäuse oder aber eine Custom-Loop mit entsprechend großem Gehäuse für entsprechend große/viele Radiatoren. Per Luft allein sehe ich nicht wie das gekühlt werden soll. Das typische Layout mit 3 auf das PCB gerichteten Axiallüftern wird nicht aufgehen, weil sich bei 850W das Gehäuse in kürzester Zeit aufgeheizt hat und die Karte durch den schlechten Airflow im eigenen Saft schmort. Abgesehen davon, dass die Axiallüfter bei den üblichen 100mm Durchmesser wahrscheinlich mit >4K drehen müssten, um überhaupt genug Durchsatz zu erzeugen - insbesondere dann, wenn man die Kühlung auf 4 oder 5 Slots Dicke erweitert, da braucht man erstmal genug statischen Druck.
Nein, ich glaube eher dass die Zahl entweder Unsinn ist, sich auf was anderes bezieht z.B. einkalkulierte Lastspitzen auf Seiten des Netzteils oder VRM-Dimensionierung oder das ganze irgendeine Speziallösung ist, wo Nvidia zwei AD102-GPUs auf ein Package packt und per MCM zusammen laufen lässt. Also so ähnlich wie GTX690 oder R9 295 nur in sinnvoll.
BlacKi
2022-02-24, 17:36:10
Ich werd mir wohl ein neues Gehäuse besorgen müssen, bei dem das Board auf die linke Seite verschraubt wird und ich somit nicht im Luftstrom sitze. Mache ich Witze? Bin mir noch nicht sicher...vertical mount:biggrin:
ChaosTM
2022-02-24, 17:52:56
Nvidia sollte die Karte dann RTX 5 nennen.
500 Watt bei 5nm.
Edit:
Unglaublich, dass der Müll jetzt auch von PCGH wiedergekäut (https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Deutlich-hoehere-TDP-und-moeglicher-Ankuendigungstermin-1389912/) wird:
Klaaar, das ergibt ja auch voll Sinn, beim Umstieg von Samsungs 8nm auf TSMCs 5nm + Architekturverbesserungen. :freak:
Eben - würde mich schwer wundern, wenn sie 400 nennenswert überschreiten oder überhaupt erreichen.
Was die Boardpartner dann machen, who knows.
Ex3cut3r
2022-02-24, 18:16:09
Also 500W kann ich mir mit einer AIO persönlich schon vorstellen... Ich glaube absolut dass Jenson so weit gehen würde um die Performance Krone mit allen Mitteln zu verteidigen.
Der Putin der GPUs. :biggrin:
Bloß nicht die Performance Krone abgeben, sonst droht er mit einem Watt Sturm.
Sehe ich es aber sehr gelassen, aktuell bietet mir die 3080 Ti für 1440p (+DLSS) immens viel Leistung. Bin stand jetzt absolut gewillt, die neue Gen komplett auszulassen.
Timolol
2022-02-24, 18:33:26
Hm ich hab ansich immer Vsync an. Sind jetzt beim neuen Monitor 144FPS/Hz.
Wird Leistung kurz benötigt, zieht es halt und die FPS gehen mal kurz runter. Die meiste Zeit isses ja dann eh festgetackert (zumindest bei mir so). Oder man hat halt irgendwelche hirnrissigen 8K Auflösungen. Dann muss man halt die ganze Zeit Leistung ballern.
400W kann ich mir noch vorstellen. Theoretisch kann man mit Luft alles kühlen, das ist halt auch so ein Mythos. Man braucht halt Kühlfläche. Ergo müssten die Karten Astronomisch groß werden. Das ist doch aktuell schon echt scheiße.
Und du hast halt echt ne große Heizung mitten im PC welche zudem alles verbaut. Ich weis nicht.
Mit Wakü isses eh egal, wenn man Platz für Radiatoren hat.
BlacKi
2022-02-24, 18:40:35
Hm ich hab ansich immer Vsync an. Sind jetzt beim neuen Monitor 144FPS/Hz.
Wird Leistung kurz benötigt, zieht es halt und die FPS gehen mal kurz runter. Die meiste Zeit isses ja dann eh festgetackert (zumindest bei mir so). Oder man hat halt irgendwelche hirnrissigen 8K Auflösungen. Dann muss man halt die ganze Zeit Leistung ballern.
400W kann ich mir noch vorstellen. Theoretisch kann man mit Luft alles kühlen, das ist halt auch so ein Mythos. Man braucht halt Kühlfläche. Ergo müssten die Karten Astronomisch groß werden. Das ist doch aktuell schon echt scheiße.
Und du hast halt echt ne große Heizung mitten im PC welche zudem alles verbaut. Ich weis nicht.
Mit Wakü isses eh egal, wenn man Platz für Radiatoren hat.oder halt drehzahl. wobei man sagen muss, das die die kühler für ampere deutlich verbessert haben. die 80w die die 3090 mehr als die 2080ti zieht, schaffen die kühler von ampere fast ohne drehzahlerhöhung weg. und der kühler der 3090 schafft bei 1500-1700rpm auch schon 400w weg.
wenn die neuen gpu kühler nochmals besser werden, halte ich 500w per luft mit 1700-2000rpm wegzukühlen für machbar. und das ist auf jeden fall zumutbar von der lautstärke, nur leise ist das nicht.
Troyan
2022-02-24, 18:44:38
Theoretisch könnte man solche eGPUs wie von Gigabyte produzieren und per Thunderbolt anschließen: https://geizhals.de/gigabyte-aorus-rtx-3080-ti-gaming-box-gv-n308tixeb-12gd-a2563531.html
Platos
2022-02-24, 21:25:16
Wie schonmal geschrieben, die Motion Vektoren müssen nicht in die Zukunft schauen, die Zukunft steht schon fest.
Schritt 1: GPU beginnt den folgenden ,,echten" Frame zu rendern. (Dafür muss sie schon genau wissen wie dieser Aussieht, sonst könnte sie ihn nicht rendern, bis hierhin KANN sich nichts mehr ändern!" Völlig egal was der Nutzer jetzt eingibt oder was sich in der Game-Engine intern ändert. Die Änderung kommt sowieso frühestens im übernächsten ,,echten" Frame an.)
Schritt 2: Während die GPU also bereits den nächsten Hauptframe rendert, kennt die Zwischenbildberechnung nun bereits die Position aller Objekte jetzt und die Position aller Objekte im kommenden, echten Frame. Da die GPU schon angefangen hat diesen zu rendern, kann sich dort nichts mehr ändern. Es müssen keine Bewegungen vorhergesehen werden, die es noch nicht gibt, denn auch der nächste Frame liegt sowieso immer in der Vergangenheit!
Schritt 3: Das Zwischenbild wird ausgegeben, in dem sich alles in der Mitte zwischen Frame 1 und Frame 2 befindet. So wie bei simpler Motion-Reprojection + AI Cleanup.
Schritt 4: Der nächste ,,echte" Frame wird ausgegeben.
usw...
Angenommen in Frame 1 trifft der Ball auf einen Pfosten und in Frame 2 ist dieser bereits wieder davon abgeprallt und auf dem Rückweg zum Spieler.
Klar, das könnte man nicht extrapolieren. Doch wie häufig passiert sowas?
(Ließe sich eines Tages auch lösen, indem man die Motion Vektoren intern schneller aktualisiert als nur einmal jeden Frame, (Von der Physik-Engine) doch lasst uns für den Anfang mal nicht zu viel fordern.)
Das was du da beschreibst, ist ja eben genau der Punkt mit dem einen Frame. Es gibt dann genau die Latenz für dieses eine "echte" Frame. Das muss vorgehalten werden.
Und zur Bewegung: Wie oft das passiert? Ständig natürlich. Z.b bei einem Kampf bei jeder Änderung der Perspektive oder wenn man z.B ausweicht. Jedes mal, wenn man die Laufrichtung ändert usw. usw. Das passiert in einer Minute unzählige Male.
r3ptil3
2022-02-24, 22:04:55
Edit:
Unglaublich, dass der Müll jetzt auch von PCGH wiedergekäut (https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Deutlich-hoehere-TDP-und-moeglicher-Ankuendigungstermin-1389912/) wird:
Klaaar, das ergibt ja auch voll Sinn, beim Umstieg von Samsungs 8nm auf TSMCs 5nm + Architekturverbesserungen. :freak:
Ist mir auch aufgefallen... die Qualität der PCGH Beiträge leiden darunter. Die News vom 5800X3D letztens genau so.
Hoffe sie selektieren mal aus und bringen wirklich nur noch qualitativen Content.
TheAntitheist
2022-02-24, 23:02:36
Ich geh mal davon aus das 850 Watt Netzteile empfohlen werden wegen den Peaks und etwas Luft nach oben. Dann würde auch 450Watt beim Topmodel passen.
Geldmann3
2022-02-25, 03:50:56
Ja, davon würde ich ebenfalls ausgehen.
Wobei ich noch immer eher von 400 Watt TDP ausgehe
850W könnten aufgrund der Spikes schon on the edge sein, wie es bei der RTX 3090 / RTX 3080 mit 750 Watt Netzteilen der Fall ist. Kenne da Leute die plötzlich Blackscreens bekamen bzw. deren Netzteil ganz abgeraucht ist.
Sogar einen 850 Watt Fall. :freak:
Das 850er hatte allerdings scheinbar bereits einige Jahre auf dem Buckel.
In meinen Augen, so crazy sich das anhört, ist man selbst bei einer RTX 3090 erst mit 1000 Watt save.
Zu oft habe ich erlebt, dass Leute random Blackscreens bekamen, monatelang nicht wussten, woran es liegt und ein Netzteilwechsel half dann.
Meistens wurde ich komisch angeschaut, wenn ich ganz vorsichtig gesagt habe, dass das 750er vielleicht das Problem ist.
Und am Ende half es...
Es kommt eben auch sehr auf die Qualität des Netzteiles an.
-/\-CruNcher-/\-
2022-02-25, 04:19:31
Das was du da beschreibst, ist ja eben genau der Punkt mit dem einen Frame. Es gibt dann genau die Latenz für dieses eine "echte" Frame. Das muss vorgehalten werden.
Und zur Bewegung: Wie oft das passiert? Ständig natürlich. Z.b bei einem Kampf bei jeder Änderung der Perspektive oder wenn man z.B ausweicht. Jedes mal, wenn man die Laufrichtung ändert usw. usw. Das passiert in einer Minute unzählige Male.
Chaotic Motion
850W TDP? Unglaublich wie absurd die Gerüchte ausarten, das wäre sustained nicht kühlbar, in einem normalen Case. 450 Watt wären in einem Massenprodukt noch denkbar, wenn man sich dadurch verspricht nicht hinter die Konkurrenz zu fallen.
Ich bleibe bei den 400W (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12925952&postcount=861).
Die Frage ist auf welche logik teile bezieht sich der Verbrauch der hier gemunkelt wird im peak ?
Nvidias eigener Logik Burn test wären alle chip teile bei synchroner aktivierung + memory ?
Geht man davon aus das Tensor und RT komplexer werden und der Anteil höher wird auch die kompensation mit 5nm vorausichtlich nicht mehr effizient genug sein.
Der Letzte große Effiziensprung war Maxwell der wir sich so schnell nicht mehr wiederholen mit der erhöhten kombinierten komplexität allerdings wird Tensor große teile des verlusts weiterhin abfedern und in Performance umsetzen.
Geldmann3
2022-02-25, 06:02:44
Das was du da beschreibst, ist ja eben genau der Punkt mit dem einen Frame. Es gibt dann genau die Latenz für dieses eine "echte" Frame. Das muss vorgehalten werden.
Und zur Bewegung: Wie oft das passiert? Ständig natürlich. Z.b bei einem Kampf bei jeder Änderung der Perspektive oder wenn man z.B ausweicht. Jedes mal, wenn man die Laufrichtung ändert usw. usw. Das passiert in einer Minute unzählige Male.
Bin mir noch nicht sicher, ob Du zu 100% verstanden hast, wie ich das meine?
Denn die von dir beschriebenen Szenarien könnte man auch dann nicht besser lösen, wenn man den nächsten Frame bereits hätte. Denn die Positionsinformationen des nächsten Frames hätte der Algorithmus schließlich bereits. Klar wäre es noch besser, das Ganze schon als fertiges Bild vorliegen zu haben, um Zwischenbilder zu berechnen. Wobei Du mit Motion Vektoren, die häufiger als einmal je Frame aktualisiert werden würden, die Latenz sogar verbessern könntest. Denn dann würden die Zwischenframes Zustandsänderungen anzeigen, bevor sie im nächsten, echten Frame gerendert sind. Wir können also sogar eine deutliche Verringerung der Latenz erreichen. Im Falle des von der Wand abprallenden Balles könntest Du in den Fake-Frames, dank der Realtime-Motion-Vektoren sogar Zustände sehen, die Du in den echten Frames niemals zu Gesicht bekommen würdest und das früher, als der nächste Frame fertig gerendert ist. Während Du in den echten Frames lediglich einmal siehst, dass der Ball kurz davor ist auf die Wand zu prallen und dann im nächsten Frame siehst wie der Ball bereits von der Wand abgeprallt ist, könntest Du ihn in den Fake Frames theoretisch sogar von der Wand ,,abprallen" sehen. Und sollten die Motion Vektoren nur einmal pro Frame aktualisiert werden, so wird es auch nicht schlechter als vorher. Dann würdest Du sehen, wie der Ball für einige Millisekunden kurz vor der Wand in der Luft steht, bevor er wieder zurückkommt. Genauso, wie es ohne die Zwischenframes wäre.
Man muss auch bedenken, was mit Motion-Vektoren gemeint ist. Nicht was sich gerade mit welcher Geschwindigkeit in welche Richtung bewegt. Sondern die Änderung der Positionen zwischen den Frames. Ansonsten würde der Ball in den Zwischenframes natürlich durch die Wand hindurch fliegen.
In VR-Applikationen ist es nicht unüblich (https://youtu.be/ya8vKZRBXdw?t=881), sogar 2 Frames im Vorraus zu predicten und zu rendern, bevor man die aktuellen Eingaben des Users überhaupt hat. Um Motion Sickness zu vermeiden.
Platos
2022-02-25, 09:10:04
Ja gut, dann liegt der Unterschied schlussendlich aber "nur" beim fertigen Bild und den Motion Vektoren. Aber bei beiden Methoden braucht es das selbe Frame (nämlich das in der Zukunft aus Sicht des Gamers). Während dem bei mir das ganze Frame fertig gerendert wird, werden bei dir als aller erstes nur die Motion vektoren berechnet und dann gleich darauf basierend das Zwischenbild berechnet (und somit nach deutlich weniger Rechenzeit schon damit begonnen und das "echte" Frame wird dann nach dieser "kurzen" Rechenzeit Parallel quasi weitergerendert).
Das meinst du? Naja, wie gut das funktioniert, weiss ich nicht. Dafür habe ich mich zu wenig eingelesen bei Motion Vektoren. Aber: Auf jeden Fall braucht es die "Bewegungsangaben" des Frames der Zukunft. Ich dachte immer, du willst das nur mit dem Frame der Vergangenheit machen und dann irgend ne Bewegung "erahnen". Deswegen meinte ich, es braucht immer mindestens dieses eine Frame (in der Zukunft).
Wir meinen aber auf jeden Fall das selbe Frame, nur wird bei mir das ganze Frame zuerst berechnet und dann rein Graphisch ein Zwischenbild berechnet aus Frame A & B und bei dir eben nur eine vektorielle Angabe (Bewegungsänderung?) aus dem Frame B vorgerendert und die Graphische Komponente dann aus A irgendwie interpretiert mithilfe der Bewegungsvektoren aus Frame B.
Auf jeden Fall gehts aber nicht mit nur einem echten Frame. Es braucht das Frame A (Vergangenheit) und das Frame B (Zukunft). Immer aus Sicht des Spielers. Berechnet ist es vlt. schon oder die Bewegungen sind schon festgelegt. Angezeigt wird es aber noch nicht, liegt also noch in der Zukunft aus Sicht des Spielers.
basix
2022-02-25, 14:55:47
Theoretisch kann man mit Luft alles kühlen, das ist halt auch so ein Mythos. Man braucht halt Kühlfläche.
Kühlfläche ist nicht alles. Der grosse Vorteil von Wasser ist, dass die Wärme schnell abtransportiert wird. Das hat man mit Luft nicht unbedingt. Selbst ein 1m3 grosser Kühler hilft dir nichts, wenn man die Hitze nicht schnell genug vom Chip wegbringt. Hier gibt es schon gewisse Konstruktionslimits.
500W sind definitiv noch zu kühlen, das verbrauchen die ganzen HPC-GPUs ja auch. Ist dann aber definitiv nicht leise.
Leise zu kühlen ist aber nur eine Sache. Ich habe zwar schon gerne warme Füsse aber gleich schwitzen will ich nicht ;) Und es gibt auch noch andere Komponenten im Gehäuse, welche das Mehr an Hitze ertragen müssen. Oder man vergrössert eben die Kühlleistung, was auch nicht nur Vorteile haben kann (mehr Aufwand, mehr Kosten, höhere Lautstärke).
TheAntitheist
2022-02-25, 15:28:41
J
850W könnten aufgrund der Spikes schon on the edge sein, wie es bei der RTX 3090 / RTX 3080 mit 750 Watt Netzteilen der Fall ist. Kenne da Leute die plötzlich Blackscreens bekamen bzw. deren Netzteil ganz abgeraucht ist.
Sogar einen 850 Watt Fall. :freak:
Ich hab meine 3090 "aus versehen" mit einem 550W Seasonic betrieben weil ich immer dachte es wäre ein 650W NT. Lief ein Jahr ganz gut, bis es hin und wieder einfach mal aus ging. Hab dann mal nachgeschaut und war ganz verwundert das es nur 550W hat :D also es kommt, wie du sagtest, wirklich auf die Qualität an.
aceCrasher
2022-02-25, 15:35:31
Leise zu kühlen ist aber nur eine Sache. Ich habe zwar schon gerne warme Füsse aber gleich schwitzen will ich nicht ;)
PC auf den Tisch stellen ;D
TheAntitheist
2022-02-25, 15:38:03
PC auf den Tisch stellen ;D
Das werd ich nie verstehen, nimmt Platz weg, sieht scheisse aus, Licht und Geräusche stören...
aceCrasher
2022-02-25, 15:39:40
Das werd ich nie verstehen, nimmt Platz weg, sieht scheisse aus, Licht und Geräusche stören...
Da steckt so viel Arbeit drin - die will ich doch sehen! Es gibt nichts schöneres als das Wasser in meinem Wakü Ausgleichsbehälter plätschern zu sehen. Außerdem saugt er da oben viel viel weniger Staub an.
iamthebear
2022-02-25, 19:05:53
Also mal ehrlich ich glaube die Sache mit den 850W nicht. Das wird vielleicht das maximal einstellbare Limit sein, was dann einfach temperaturlimitiert wird bzw. durch den maximalen Takt.
Oder aber es handelt sich hier nur um eine Sonderauflage für bestimmte AIBs, wobei ich bezweifle dass das selbst mit Wasser noch kühlbar ist zumindest nicht durch eine 420er AIO.
Aber falls doch: Ich will mir 850W im Sommer nicht unbedingt vorstellen.
boxleitnerb
2022-02-25, 19:21:00
Vor allem wozu? Bisher gab es immer Sprünge von 30-60%, die man dem Kunden gut verkaufen konnte, danach ein Refresh von nochmal 10-15%.
Warum jetzt diese brachiale Performance? Faktor 2-2,5 hatten wir nicht seit...immer? Lieber 2x +75% mit 12-18 Monaten dazwischen, bei jeweils 300W und gut ist.
dargo
2022-02-25, 19:28:03
Vor allem wozu? Bisher gab es immer Sprünge von 30-60%, die man dem Kunden gut verkaufen konnte, danach ein Refresh von nochmal 10-15%.
Warum jetzt diese brachiale Performance?
Weil die Konkurrenz mit 2,5x N21 kommt.
Troyan
2022-02-25, 19:34:19
Vor allem wozu? Bisher gab es immer Sprünge von 30-60%, die man dem Kunden gut verkaufen konnte, danach ein Refresh von nochmal 10-15%.
Warum jetzt diese brachiale Performance? Faktor 2-2,5 hatten wir nicht seit...immer? Lieber 2x +75% mit 12-18 Monaten dazwischen, bei jeweils 300W und gut ist.
Weil die Leute sich nonsense Schwachsinn ausdenken und es auf Twitter posten.
boxleitnerb
2022-02-25, 19:35:23
Weil die Konkurrenz mit 2,5x N21 kommt.
Stellst du dich doof und willst wieder rot vs. grün spielen? :freak:
Natürlich kann man da dieselbe Frage stellen.
AffenJack
2022-02-25, 19:39:53
Vor allem wozu? Bisher gab es immer Sprünge von 30-60%, die man dem Kunden gut verkaufen konnte, danach ein Refresh von nochmal 10-15%.
Warum jetzt diese brachiale Performance? Faktor 2-2,5 hatten wir nicht seit...immer? Lieber 2x +75% mit 12-18 Monaten dazwischen, bei jeweils 300W und gut ist.
Den Performancesprung mit mehr Leistung kann ich mir sogar wirklich vorstellen, wenn das am Ende von beiden der Ersatz für Crossifre/SLI auf einer Karte wird.
Aber 800W sind einfach nur absurd. Wer das ernsthaft für bare Münze nimmt....
In Richtung 600W kann ich mir dagegen sogar vorstellen, wenn man an die Grenzen von PciE5 geht. Ist am Ende eben 1x 600W, statt 2x 300W.
dargo
2022-02-25, 19:46:17
Stellst du dich doof und willst wieder rot vs. grün spielen? :freak:
Schlecht geschissen heute?
TheAntitheist
2022-02-25, 20:31:27
Schlecht geschissen heute?
eher du oder? denn 2.5xN21 würde unter RT und mit DLSS nur auf die gleiche Performance in manchen Titeln kommen wie eine 3090... wenn das alles ist dann gute Nacht.
iamthebear
2022-02-25, 22:20:29
Vor allem wozu? Bisher gab es immer Sprünge von 30-60%, die man dem Kunden gut verkaufen konnte, danach ein Refresh von nochmal 10-15%.
Warum jetzt diese brachiale Performance? Faktor 2-2,5 hatten wir nicht seit...immer? Lieber 2x +75% mit 12-18 Monaten dazwischen, bei jeweils 300W und gut ist.
Aus Sicht von Nvidia:
Weil man diesmal 2 Node Shrinks auf einmal hat und gemerkt hat und denkt, dass selbst über den 1500 Euro einer 3090 noch ein Markt besteht, den man abdecken will
Aus Sicht von AMD:
Weil man nun durch Chiplets nicht mehr in der maximalen Größe begrenzt ist und das Topmodell 1 Tier über dem bisherigen Lineup launched. Navi32 ist der eigentliche Nachfolger von Navi21 und Navi33 ist der Nachfolger von Navi22. Navi31 wird ein neues Topmodell darüber (laut Gerüchten UVP > 2000$).
eher du oder? denn 2.5xN21 würde unter RT und mit DLSS nur auf die gleiche Performance in manchen Titeln kommen wie eine 3090... wenn das alles ist dann gute Nacht.
RT? Nun ja wenn man meint, dass man das unbedingt braucht...
Also ich bin nicht bereit die Hälfte meiner Framerate für ein Feature zu opfern, das der Großteil der Spieler in einem Blindtest gar nicht erkennt.
DLSS ist ein sehr wichtiges Feature für die kleineren Modelle aber bei mehr als 2x über einer 3090 ziemlich sinnlos wenn 4K Ultra immer noch mehr als flüssig ist und für 8K fehlen noch die notwendigen Schnittstellenstandards. Wenn ich > 2K in eine GPU 8nvestiere interessieren mich 60Hz mit DSC unter HDMI 2.1 relativ wenig.
r3ptil3
2022-02-25, 23:02:54
Die Kommentare hier gerade...
Wie kann man nur RT+DLSS mit AMD und RT+nativer Auflösung vergleichen?
Und zu den Twitter-Gerüchten: Die Leaker die das gepostet haben, lagen auch in der Vergangenheit oftmals richtig, daher ist es nicht so weit hergeholt, dass die Gerüchte relativ glaubwürdig sind.
Aus Sicht von AMD macht m.M.n. übrigens der extreme Navi31 dahingehend Sinn, da man mit der extremen Rohleistung, die RT-Schwäche abfangen kann.
Linmoum
2022-02-25, 23:19:40
Da ist nichts extrem dran. Das ist einfach ein logischer Schritt, der seit über zwei Jahren schon bei CPUs etabliert ist und wo jetzt auch die Zeit gekommen ist, bei GPUs abseits von HPC nachzuziehen. Mit potentiellen 3xxmm² Dies wirst du zudem auch sehr hohe Yields haben. Du kannst zudem enorm in die Breite gehen, was du mit einem Single-Die in der Form einfach nicht wirst tun können und was dir ganz neue Möglichkeiten bei der Spitzenperformance ermöglicht.
NV wird genauso nachziehen müssen, wenn nicht jetzt schon mit Lovelace/Hopper, dann halt in 2-3 Jahren mit der nächsten Gen. Kommen wird es bei allen Herstellern, der eine ist dann halt nur nicht so schnell wie der andere. Aber die großen Nachteile wird man für eine Gen auch überleben.
aufkrawall
2022-02-25, 23:52:17
Wie kann man nur RT+DLSS mit AMD und RT+nativer Auflösung vergleichen?
Indem man es tut und feststellt, dass es mit DLSS häufig massiv besser anstatt schlechter aussieht:
Q48HwOJ1a70
Anstatt mit FSR, müsste man vs. DLSS AMD eigentlich eher umgekehrt mit SSAA via Resolution Scale >100% testen. Nicht in jedem Spiel mit DLSS, in einigen aber schon.
Dampf
2022-02-26, 01:45:58
Indem man es tut und feststellt, dass es mit DLSS häufig massiv besser anstatt schlechter aussieht:
https://youtu.be/Q48HwOJ1a70
Anstatt mit FSR, müsste man vs. DLSS AMD eigentlich eher umgekehrt mit SSAA via Resolution Scale >100% testen. Nicht in jedem Spiel mit DLSS, in einigen aber schon.
Sehr richtig, DLSS bekämpft ein paar Probleme, die nativ und FSR so mit sich bringen.
DLSS Performance sieht sehr gut aus und bringt deutlich mehr Leistung als FSR UQ.
-/\-CruNcher-/\-
2022-02-26, 02:16:52
Aus Sicht von Nvidia:
Weil man diesmal 2 Node Shrinks auf einmal hat und gemerkt hat und denkt, dass selbst über den 1500 Euro einer 3090 noch ein Markt besteht, den man abdecken will
Aus Sicht von AMD:
Weil man nun durch Chiplets nicht mehr in der maximalen Größe begrenzt ist und das Topmodell 1 Tier über dem bisherigen Lineup launched. Navi32 ist der eigentliche Nachfolger von Navi21 und Navi33 ist der Nachfolger von Navi22. Navi31 wird ein neues Topmodell darüber (laut Gerüchten UVP > 2000$).
RT? Nun ja wenn man meint, dass man das unbedingt braucht...
Also ich bin nicht bereit die Hälfte meiner Framerate für ein Feature zu opfern, das der Großteil der Spieler in einem Blindtest gar nicht erkennt.
DLSS ist ein sehr wichtiges Feature für die kleineren Modelle aber bei mehr als 2x über einer 3090 ziemlich sinnlos wenn 4K Ultra immer noch mehr als flüssig ist und für 8K fehlen noch die notwendigen Schnittstellenstandards. Wenn ich > 2K in eine GPU 8nvestiere interessieren mich 60Hz mit DSC unter HDMI 2.1 relativ wenig.
Entschuldige mal also wer Artefakte von Screen Space solutions in einem Blindtest nicht erkennt, das kann ich nicht glauben.
Sicherlich wird es den meisten Competive Gamern am Arsch vorbei gehen, da geb ich dir recht.
Aber leute die etwas mehr Visuele Simulationsstabilität verlangen garantiert nicht und je nach Szenario wird das auch im Blindtest durchaus aufzeigbar.
Es ist ja nicht so das diese Blindtests überhaupt nicht stattfinden.
WedgeAntilles
2022-02-26, 11:03:30
RT? Nun ja wenn man meint, dass man das unbedingt braucht...
Also ich bin nicht bereit die Hälfte meiner Framerate für ein Feature zu opfern, das der Großteil der Spieler in einem Blindtest gar nicht erkennt.
Blöde Frage, aber warum interessiert dich, was andere Leute sehen oder nicht sehen? :rolleyes:
Wenn DU keinen Unterschied siehst, lohnt es sich für dich nicht. Egal ob jeder andere einen sieht.
Wenn DU einen Unterschied siehst, lohnt es dich für dich. Egal ob jeder andere keinen sieht.
Davon abgesehen ist die Hälfte der Bildrate eben auch so ein Thema:
Ich denke mal, dass 99,9% keinen Unterschied zwischen 60 Frames und 120 Frames bemerken - spielt nach deiner Logik also ebenfalls keine Rolle.
Das Problem bei RT: Wenn man von z.B. 90 Frames auf 40 Frames fällt.
Ja, das merkt man.
Aber wenn man von 160 Frames auf 80 Frames fällt? Ist das so dramatisch? Wo soll da der Unterschied sein?
Ab einer 3070 kannst du RT dazunehmen und hast dennoch genug Frames für ein völlig flüssiges Spiel.
Bei AMD kannst du das eben nicht einmal mit einer 6900XT.
Natürlich "muss" man dann bei AMD RT deaktivieren.
Aber warum solltest du das bei Nvidia tun?
Und falls du doch noch mehr Frames willst nimmste halt DLSS dazu.
RT + DLSS bringt dir mehr Frames und sieht häufig besser aus als als ohne RT und ohne DLSS.
Natürlich ist RT absoluter Luxus.
Es kostet "zu viel" Leistung für das, was es bringt. Keine Diskussion.
Der Witz ist aber halt, dass dir Nvidia-Karten so viel Leistung bringen, dass du dir diesen Luxus leisen kannst. Weil eben immer noch genug übrig bleiben.
Der Verlust an Frames in Prozent ist völlig irrelevant.
Wenn die Basis der Frames hoch genug ist kann ich auch auf 90% Frames verzichten.
Ob ich 1500 Frames oder 150 Frames habe - für fast alle egal.
Wenn ich aber nur 60 Frames habe kann ich nicht auf 50% verzichten.
OgrEGT
2022-02-26, 11:13:33
@WedgeAntilles
Da stimme ich Dir zu
Es gibt aber auch Stimmen die so tun als ob man ohne RT gar nicht mehr spielen kann... das ist auch nicht richtig...zumal die Unterschiede in meinen Augen noch marginal sind und den Spielspaß in keiner Weise beeinflussen.
Dampf
2022-02-26, 11:14:21
Die Entwickler interessieren sich nicht dafür, ob ihr euch für RT interessiert oder nicht.
Wenn Raytracing fundamentaler Bestandteil der Engine und es nicht mehr abschaltbar sein wird, dann werden GPUs mit besserer HW-Beschleunigung logischerweise schneller laufen.
Das wird schneller passieren, als viele denken.
Neurosphere
2022-02-26, 12:43:43
Die Entwickler interessieren sich nicht dafür, ob ihr euch für RT interessiert oder nicht.
Haha, natürlich tun sie das. Ist RT für den Markt nicht interessant, wird es auch nicht großflächig supportet.
Siehe aus der Vergangeheit die ganzen anderen großen Dinge die als revolutionierend angesehen wurden aber doch mangels support klanglos verschwunden sind.
Das wird bei RT wohl nicht passieren, aber die Aussage ist hat trotzdem falsch.
Timbaloo
2022-02-26, 12:49:03
Raytracing wird nicht verschwinden. Raytracing wird immer intensiver eingesetzt werden.
Dampf
2022-02-26, 12:55:39
Haha, natürlich tun sie das. Ist RT für den Markt nicht interessant, wird es auch nicht großflächig supportet.
Siehe aus der Vergangeheit de ganzen anderen großen Dinge die als revolutionierend angesehen wurden aber doch klanglos verschwunden sind.
Sorry, aber du liegst so falsch wie man nur falsch liegen kann.
Raytracing erleichtert den Entwicklern so vieles und spart Zeit und Geld. Noch dazu sieht es deutlich besser aus.
Lumen nutzt beispielsweise ausschließlich Raytracing und profitiert sehr von HW-Beschleunigung. Das wird die Beleuchtungstechnik, die in UE5 Next Gen Games eingesetzt wird.
Manche Spiele wie das Next Gen Avatar Game haben schon angekündigt, die Beleuchtung exklusiv über Raytracing zu ermöglichen.
Entwickler wie 4A Games die schon die hevorragende Arbeit mit Metro Exodus EE geleistet haben (IMO die RT Referenz besonders auch was Performance angeht) haben schon betont, dass sie in Zukunft voll auf RT setzen werden.
Du kannst auch jeden Entwickler unterschiedlichster Studios und Engines auf Twitter anschreiben, du wirst keinen finden der RT nicht als große Sache sieht.
Und mit den guten Implementationen wie die aus Metro Exodus EE wachen auch langsam die RT Skeptiker auf und sehen wie großartig RT sein kann, wenn es richtig eingesetzt wird.
Was aber passieren wird: RT wird als Buzzword verschwinden. Es wird dann einfach voll in die Spiele integriert und nichts mehr besonderes sein.
ChaosTM
2022-02-26, 13:01:13
Raytracing wird nicht verschwinden. Raytracing wird immer intensiver eingesetzt werden.
Das proprietäre RTX wird verschwinden, Realtime Raytracing ist aber klar die Zukunft. ;)
AffenJack
2022-02-26, 13:25:13
Das proprietäre RTX wird verschwinden, Realtime Raytracing ist aber klar die Zukunft. ;)
RTX wird nicht verschwinden. Das ist schlicht Nvidias Label für deren gesponserte Games und wird auch bleiben. Ansonsten wird Raytracing immer mehr eingesetzt werden und es wird spannend, wann die ersten AAA Games kommen, die es vorraussetzen (Metro zähl ich nicht, da nur Zusatzversion).
Wen interessiert bei der nächsten Gen denn groß, ob er bei 4K 150 oder 200 FPS hat, wenn man die kolporierten Leistungsangaben für N31/AD102 anschaut?
Es wird drauf ankommen, wer bei Raytracing ordentliche Leistung zeigt.
Naaa, die neuen Konsolen können RT derart schlecht, dass ist das ernsthaft bezweifle.
aufkrawall
2022-02-26, 15:42:31
@WedgeAntilles
Da stimme ich Dir zu
Es gibt aber auch Stimmen die so tun als ob man ohne RT gar nicht mehr spielen kann... das ist auch nicht richtig...zumal die Unterschiede in meinen Augen noch marginal sind und den Spielspaß in keiner Weise beeinflussen.
Kommt aufs Spiel an. Die SSR in CyberPunk oder die Beleuchtung in Dying Light 2 ohne RT sind schon sehr schlimm. Ich verstehe auch solche Lowend-Ansprüche nicht, wenn man schon hunderte Euro ausgibt.
ChaosTM
2022-02-26, 15:47:51
Naaa, die neuen Konsolen können RT derart schlecht, dass ist das ernsthaft bezweifle.
Das RT beim Spinnenmann ist ganz ansehnlich. Und der (Pro) Refresh der Konsolen ist auch nicht mehr soo weit weg.
Dovregubben
2022-02-26, 15:51:40
Haha, natürlich tun sie das. Ist RT für den Markt nicht interessant, wird es auch nicht großflächig supportet.
Den Entwickler geht das großzügig am Arsch vorbei. In die Engines kommt, was sie für sinnvoll halten. Die Spieler werden da nicht gefragt. Spiele, die jetzt starten, kommen in 3-4 Jahren raus. Da sind wir 2 GPU Generationen weiter und haben mindestens die Refresh Konsolen. Auf beispielsweise Realtime GI zu setzen ist auch keine spontane Entscheidung. Die wird ganz am Anfang getroffen, weil sie den ganzen Entwicklungsworkflow beeinflusst.
robbitop
2022-02-26, 16:08:36
Das RT beim Spinnenmann ist ganz ansehnlich. Und der (Pro) Refresh der Konsolen ist auch nicht mehr soo weit weg.
Es ist völlig unklar, ob es dieses Mal einen Refresh geben wird. Damals wollte man von 1080p auch auf 4K. Ein neues völlig marktrelevantes Format gibt es dieses Mal aber nicht. Könnte auch eine einmalige Sache gewesen sein.
Dovregubben
2022-02-26, 16:18:06
Es ist völlig unklar, ob es dieses Mal einen Refresh geben wird. Damals wollte man von 1080p auch auf 4K. Ein neues völlig marktrelevantes Format gibt es dieses Mal aber nicht. Könnte auch eine einmalige Sache gewesen sein.
Ist die Büchse der Pandora mal geöffnet, dreht man das nicht mehr einfach zurück. Man muss damit rechnen, dass die Konkurrenz mit einem Refresh kommt und hat daher nicht viel Spielraum als zumindest das Design fertig da liegen zu haben, um zu reagieren.
Dazu fordern immer mehr Vielspieler 60fps während die Framerate schon langsam abzusinken beginnt. Noch 1-2 Jahre und wir sind wieder bei 30fps mit ~1440p. Ideale Voraussetzungen um eine Pro in den Markt zu drücken.
Platos
2022-02-26, 16:25:41
Die Verkaufszahlen der PS4 Pro belegen sehr gut, dass die meisten Leute nicht bereit sind, pro Generation 2 Konsolen zu kaufen. 30FPS ist übrigens ganz normal bei Konsolen...
Mit Konsolen macht man kein Geld und die PS4 Pro war auch eher da, um 4k TVs zu pushen, nicht um mehr Leute zu Sony zu bringen.
robbitop
2022-02-26, 16:50:30
Ist die Büchse der Pandora mal geöffnet, dreht man das nicht mehr einfach zurück. Man muss damit rechnen, dass die Konkurrenz mit einem Refresh kommt und hat daher nicht viel Spielraum als zumindest das Design fertig da liegen zu haben, um zu reagieren.
Dazu fordern immer mehr Vielspieler 60fps während die Framerate schon langsam abzusinken beginnt. Noch 1-2 Jahre und wir sind wieder bei 30fps mit ~1440p. Ideale Voraussetzungen um eine Pro in den Markt zu drücken.
Das ist eine Filterblase. Die Mehrzahl weiß gar nicht was das ist. Und noch gibt es weder Gerüchte noch Hinweise darauf.
Thunder99
2022-02-26, 17:46:53
Die RT Diskussion hat was mit dem Chip zu tun?
Welche Gerüchte gibt es zu den TDP der kleineren Karten? Also xx70 abwärts?
TheAntitheist
2022-02-27, 00:30:30
Die RT Diskussion hat was mit dem Chip zu tun?
Welche Gerüchte gibt es zu den TDP der kleineren Karten? Also xx70 abwärts?
also wenn du das nicht verstehst...
OgrEGT
2022-02-27, 10:07:24
Kommt aufs Spiel an. Die SSR in CyberPunk oder die Beleuchtung in Dying Light 2 ohne RT sind schon sehr schlimm. Ich verstehe auch solche Lowend-Ansprüche nicht, wenn man schon hunderte Euro ausgibt.
Ich sage nicht dass man RT Effekte nicht sehen kann oder dass sie im ein oder anderen Spiel nicht gut aussehen... man muss aber nicht anderen ihren grundsätzlichen Anspruch an Qualität oder Ästhetik absprechen denen das Feature ggf. noch nicht wichtig genug ist... Spielspaß bedingt sich nicht ausschließlich und alleine durch begrenzte RT Effekte... sie tragen ggf etwas zur Atmosphäre und Immersion bei... viel wichtiger mMn sind Spaß, Story, Spielmechanik, Strategie oder Herausforderung...
basix
2022-02-27, 10:55:09
Naaa, die neuen Konsolen können RT derart schlecht, dass ist das ernsthaft bezweifle.
In den nächsten 2 Jahren werden wir massive Fortschritte bei den RT-Implementationen sehen. Bezüglich schwacher Konsolen-HW habe ich hier vor allem SW-Fortschritte im Sinn. Metro Exodus Enhanced Edition und UE5 zeigen ja schon, dass sehr viel gehen kann. Und das sind die ersten Implementationen ihrer Art. Das noch kombiniert mit neuen / besseren Temporal Upsampling Algorithmen, welchen auf der Konsolen-HW läuft, und dann wird es massig Fortschritt geben.
robbitop
2022-02-27, 12:18:59
Es gibt sehr gute Umsetzungen von SSR, Schatten und Beleuchtung. Da fällt RT dann ggf. weniger stark in's Gewicht als bei manchmal richtig schlechten Umsetzungen.
Jo, das wird ja auch kommen, das passt ja auch gut. Aber "immer mehr RT", das seh ich nicht. Es wird dafür Standardimplementierungen geben, die überall eingesetzt werden. Ohne 12_2U kommt man dann nicht mehr weit.
AffenJack
2022-02-28, 20:07:38
Und schon sind es bei Greymon nur noch 350-450W+?
84-144sm
1.9-2.2GHz+
350-450W+
Combining these together allows the AD102 to achieve raster performance of 2x or more.
https://twitter.com/greymon55/status/1498252425026699268?s=20&t=7KYSwWkqHq9KBOqI3rV4gA
Solch absurden Zahlen, wie 850W sollte man einfach nicht ernst nehmen.
Sunrise
2022-02-28, 20:16:37
Mag sein, aber Partner-Designs benötigen definitiv mehr Spielraum. 5nm ist kein Wundermittel, wenn der Chip immens komplexer wird und deutlich schnellerer (und mehr) GDDR6X ist auch nicht umsonst.
Wenn NV schon hart an die Grenze takten will, müssen sie einen Tod sterben.
TheAntitheist
2022-02-28, 22:53:11
Jo, das wird ja auch kommen, das passt ja auch gut. Aber "immer mehr RT", das seh ich nicht. Es wird dafür Standardimplementierungen geben, die überall eingesetzt werden. Ohne 12_2U kommt man dann nicht mehr weit.
dann liegst du zu 100% falsch. DAS kann ich dir versprechen... warum sollten devs nicht auf RT setzen? Es macht alles soviel einfacher und sieht geil aus (GI zumindest) Sieht man ja auch schön an der UE5, die setzt voll auf RT.
du klingst wie einer der sagte "3D Spiele? Das setzt sich nicht durch" genauso wie DVDs, Internet oder Wechselstrom :D
NVIDIA Ada, Hopper, and Blackwell GPUs
https://videocardz.com/newz/nvidia-ada-ad102-107-hopper-gh100-202-blackwell-gb100-102-gpu-confirmed
edit: auf deutsch https://www.computerbase.de/2022-03/nvidia-next-gen-ada-hopper-blackwell/
wenn das so kommt, scheint es zu 3 strikt getrennten GPU-Hardware "Arten" zu führen:
- Ada: Visual
- Hopper: KI
- Blackwell: HPC/DP
dann liegst du zu 100% falsch. DAS kann ich dir versprechen... warum sollten devs nicht auf RT setzen? Es macht alles soviel einfacher und sieht geil aus (GI zumindest) Sieht man ja auch schön an der UE5, die setzt voll auf RT.
du klingst wie einer der sagte "3D Spiele? Das setzt sich nicht durch" genauso wie DVDs, Internet oder Wechselstrom :D
Lesen + Verstehen.
Ich sage, dass GI und Schatten sicherlich standard werden, auch auf den Konsolen, jedenfalls teilweise. Aber alles andere ist halt Unsinn, da wird gar nix erleichtert, weil das auf den Konsolen schlichtweg nicht geht. RT abseits dessen auf dem PC wird immer Mehrarbeit für den Entwickler sein.
WedgeAntilles
2022-03-01, 10:56:28
- Ada: Visual
Nvidia hat Linda falsch geschrieben :(
wenn das so kommt, scheint es zu 3 strikt getrennten GPU-Hardware "Arten" zu führen:
- Ada: Visual
- Hopper: KI
- Blackwell: HPC/DP
das sollte dann ja eigentlich dazu führen, dass man die Chipfläche deutlich effizienter für den jeweiligen Zweck nutzen kann.
Ob es an der Chip gesamt Effizienz (Strombedarf pro Leistung) etwas ändert glaube ich nicht wirklich, da man ja auch bei einem "Multi-Use"-Chip die gerade nicht genutzten Teile "abschalten" kann.
TheAntitheist
2022-03-01, 13:22:08
Lesen + Verstehen.
Ich sage, dass GI und Schatten sicherlich standard werden, auch auf den Konsolen, jedenfalls teilweise. Aber alles andere ist halt Unsinn, da wird gar nix erleichtert, weil das auf den Konsolen schlichtweg nicht geht. RT abseits dessen auf dem PC wird immer Mehrarbeit für den Entwickler sein.
Ich habe genau gelesen was du sagtest, du sagtest das RT sich 100% nicht durchsetzen wird und es eine Standardimplementierung geben (offensichtlicherweise OHNE RT weil sich RT ja nicht durchsetzt) wird die auf Technik ohne RT setzt. Sonst wäre deine Aussage ja noch bescheuerter.
Und das RT Mehraufwand ist, ist einfach quatsch. Man spart einfach so unmengen Zeit weil man die ganzen lightprobes nicht mehr rein frickeln muss, dann muss man kein RT mehr prebaken etc. Dazu musste man neben jeder Lampe auch noch eine Lightprobe setzen, weil Meshes ja nicht emittieren und das dann so zu platzieren das es so natürlich wie möglich aussieht ist extrem ätzend und dauert einfach ewig.
Ich habe genau gelesen was du sagtest, du sagtest das RT sich 100% nicht durchsetzen wird und es eine Standardimplementierung geben (offensichtlicherweise OHNE RT weil sich RT ja nicht durchsetzt) wird die auf Technik ohne RT setzt. Sonst wäre deine Aussage ja noch bescheuerter.
Und das RT Mehraufwand ist, ist einfach quatsch. Man spart einfach so unmengen Zeit weil man die ganzen lightprobes nicht mehr rein frickeln muss, dann muss man kein RT mehr prebaken etc. Dazu musste man neben jeder Lampe auch noch eine Lightprobe setzen, weil Meshes ja nicht emittieren und das dann so zu platzieren das es so natürlich wie möglich aussieht ist extrem ätzend und dauert einfach ewig.
Du hast es also nicht verstanden ;).
Natürlich wird es RT-Standardimplementationen für GI und Schatten geben bei den Konsolen, auch beschleunigt, jedenfalls teilweise, vielleicht auch die ein oder andere Spiegelung, denn für eine komplette Schatten und Lichtimplementation reicht die Leistung der Konsolen schlichtweg nicht. RT ist also ne reine Qualitätsverbesserung aus Konsolensicht. Aber dass man mit RT die Arbeit erleichtern würde, das ist schlicht quatsch.
Klar wird es weiterhin auch weitgehende RT-Implementationen auf dem PC geben, aber wie gesagt, ist das Mehraufwand für die Entwickler. RT macht also definitiv nicht weniger Arbeit auf absehbare Zeit - vielleicht punktuell, aber nicht aufs gesamte Projekt gesehen.
Vielleicht wird es mit der nächsten Konsolengeneration ja anders. Vielleicht gibt es für PC einige große RT-Würfe, aber das ist nicht der Standard in Zukunft. Gibt dann halt auf dem PC ein paar Reflexionen zusätzlich und das ist dann die tolle RT-Implementation.
basix
2022-03-01, 13:45:58
UE5 und Metro Exodus Enhanced sind bereits auf Fully-RT alike Workflow umgestiegen. Dinge wie Screenspace Reflections wird es aus Performancegründen immer noch geben, das hat bei Beleuchtung und Global Illumination aber wenig beizutragen, das wird zur Runtime berechnet.
RT/Lumen ersetzt Light Baking, Shadow Maps, Unmengen an Light Probes, herkömmliches Ambient Occlusion usw. und das bereits heute. Das ist bereits viel Arbeit, die wegfällt. Bei der UE5 kommt noch das LoD Authoring dazu, welches mittels Nanite nun automatisch zur Runtime passiert.
UE5 und Metro Exodus Enhanced sind bereits auf Fully-RT alike Workflow umgestiegen. Dinge wie Screenspace Reflections wird es aus Performancegründen immer noch geben, das hat bei Beleuchtung und Global Illumination aber wenig beizutragen, das wird zur Runtime berechnet.
RT/Lumen ersetzt Light Baking, Shadow Maps, Unmengen an Light Probes, herkömmliches Ambient Occlusion usw. und das bereits heute. Das ist bereits viel Arbeit, die wegfällt. Bei der UE5 kommt noch das LoD Authoring dazu, welches mittels Nanite nun automatisch zur Runtime passiert.
Aber das ist doch kein RTX oder DXR, oder? Dann reden wir aneinander vorbei.
basix
2022-03-01, 13:58:01
Metro Exodus setzt auf DXR auf.
Lumen kann DXR verwenden, muss aber nicht (SW only als lower quality Lösung). Lumen auf der Konsole verwendet aber eindeutig die HW-Beschleunigung. Wird es am PC also auch tun, wenn entsprechende HW verfügbar ist (Turing+, RDNA2+)
DXR ist ja nur die Schnittstelle, um die HW-Beschleunigung zu exposen. Die Implementation in einer Engine ist dann wieder was anderes, da gibt es dann eine Vielzahl von Lösungen.
Thunder99
2022-03-01, 13:58:35
also wenn du das nicht verstehst...
Was hat RT Diskussion über Qualität und Sinnhaftigkeit in einem Chip Spekulation Thread zu suchen? Es ist ein eigenes Thema meiner Meinung nach. Bin aber kein Mod...
Sorry für das OT
Metro Exodus setzt auf DXR auf.
Lumen kann DXR verwenden, muss aber nicht (SW only als lower quality Lösung). Lumen auf der Konsole verwendet aber eindeutig die HW-Beschleunigung. Wird es am PC also auch tun, wenn entsprechende HW verfügbar ist (Turing+, RDNA2+)
DXR ist ja nur die Schnittstelle, um die HW-Beschleunigung zu exposen. Die Implementation in einer Engine ist dann wieder was anderes, da gibt es dann eine Vielzahl von Lösungen.
Aber genau das meinte ich ja auch. Ok, dann gibts eben doch Arbeitserleichtung, dann lag ich falsch.
Leonidas
2022-03-01, 14:42:01
wenn das so kommt, scheint es zu 3 strikt getrennten GPU-Hardware "Arten" zu führen:
- Ada: Visual
- Hopper: KI
- Blackwell: HPC/DP
Nein. Blackwell ist schlicht der Hopper-Nachfolger für HPC.
Dampf
2022-03-01, 15:03:27
Was hat RT Diskussion über Qualität und Sinnhaftigkeit in einem Chip Spekulation Thread zu suchen? Es ist ein eigenes Thema meiner Meinung nach. Bin aber kein Mod...
Sorry für das OT
Weil RT ein signifikanter Bestandteil von Lovelace wird.
Lasst die Arbeit lieber die Mods erledigen.
Leonidas
2022-03-01, 16:20:43
Mögliche Hardware-Daten zu nVidias Ada-Lovelace-Grafikchips aufgetaucht
https://www.3dcenter.org/news/geruechtekueche-moegliche-hardware-daten-zu-nvidias-ada-lovelace-grafikchips-aufgetaucht
AD102: 144 SM @ 384-bit, 4080/4090
AD103: 96 SM @ 320-bit, 4060Ti/4070
AD104: 48 SM @ 256-bit, 4060
AD106: 32 SM @ 192-bit, 4050
AffenJack
2022-03-01, 16:47:22
Mögliche Hardware-Daten zu nVidias Ada-Lovelace-Grafikchips aufgetaucht
https://www.3dcenter.org/news/geruechtekueche-moegliche-hardware-daten-zu-nvidias-ada-lovelace-grafikchips-aufgetaucht
AD102: 144 SM @ 384-bit, 4080/4090
AD103: 96 SM @ 320-bit, 4060Ti/4070
AD104: 48 SM @ 256-bit, 4060
AD106: 32 SM @ 192-bit, 4050
Soweit ich das eher verstehe fehlt AD103 oder 104 bei den Daten. Das unterste ist dann 107.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.