Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Troyan
2022-09-22, 13:38:32
Natürlich kann man ohne realen Kosten plus yields von tsmc nur spekulieren. Aber wenn die Flächenangaben stimmen, dann kostet das 308mm2 Die von Navi31 vielleicht 1/3 von dem AD102, eher weniger. 6nm wafer werden zudem erheblich günstiger sein und die winzigen 37.5 mm2 dies nutzen die runde wafer Fläche perfekt aus. Dazu noch billigere kühlung und Stromversorgung. Halbe Kosten halte ich da nicht für unwahrscheinlich.
Also erstmal wäre es nur die Hälfte, weil halbe Größe. Zweitens müsste AMD in den 300mm^2 38 Mrd. Transistoren unterbekommen. Drittens benötigt AMD auf 6nm die doppelte Fläche vorallem für den Cache als bei 5nm, wodurch hier die selben Kosten entstehen. Viertens ist das Packaging aufwendiger als bei nVidia. Wie AMD beim selben Verbrauch "billigere Kühlung und Stromversorgung" realisieren würde, ist dann echt lustig.
https://twitter.com/i/web/status/1572874656398426112
Da waren die Leaks wohl korrekt.
Dann ist der L2 Cache wohl jetzt an die GPC angebunden und nicht mehr per Memorycontroller.
Sunrise
2022-09-22, 13:39:13
Natürlich kann man ohne realen Kosten plus yields von tsmc nur spekulieren. Aber wenn die Flächenangaben stimmen, dann kostet das 308mm2 Die von Navi31 vielleicht 1/3 von dem AD102. 6nm wafer werden zudem erheblich günstiger sein und die winzigen 37.5 mm2 dies nutzen die runde wafer Fläche perfekt aus. Dazu noch billigere kühlung und Stromversorgung. Halbe Kosten halte ich da nicht für unwahrscheinlich.
Nicht das Packaging vergessen. Lisa Su wirbt ja jetzt auch schon für 3/2nm die Fertigungs-Partner an… das ist ein essentieller Part bei der Strategie die AMD verfolgt.
Relativ zu NVs Lösung sollte AMDs Weg dennoch spottbillig sein, mal davon ab dass Dichte allein irrelevant ist, weil das Ergebnis zählt. AMD hat nicht umsonst gesagt, dass “Big” nicht gleich besser bedeutet. AMD geht da viel granulärer dran als NV, die eigentlich keine Wahl haben, da ich davon ausgehe, dass die Schere hier noch weiter auseinander geht, wenn man (wir reden hier ja nicht über HPC-Lösungen) es nichtmehr schafft, Produkte zu Preisen zu verkaufen, welche der Konkurrent wohl massiv unterbieten kann.
NV sieht sich wahrscheinlich im Recht, weil sie weiterhin die Käufer auf ihrer Seite haben, und was liegt da näher als die Sache nicht zu verkomplizieren, und auf den kleineren Node zu springen ohne außenrum zuviel zu verändern.
Daredevil
2022-09-22, 13:39:35
Natürlich kann man ohne realen Kosten plus yields von tsmc nur spekulieren. Aber wenn die Flächenangaben stimmen, dann kostet das 308mm2 Die von Navi31 vielleicht 1/3 von dem AD102. 6nm wafer werden zudem erheblich günstiger sein und die winzigen 37.5 mm2 dies nutzen die runde wafer Fläche perfekt aus. Dazu noch billigere kühlung und Stromversorgung. Halbe Kosten halte ich da nicht für unwahrscheinlich.
Es besteht übrigens immer noch die Möglichkeit, dass es doch nicht "einfach mal so" möglich ist, das man mehrere DIEs zusammen klebt und dann die Performance astrein skaliert. AMD hat das mit jeder Generation in ihren CPUs perfektioniert und hat Intel damit angegriffen, aber unbewaffnet ist Intel offensichtlich nicht, obwohl sie im Grunde nur Schund auf den Markt werfen.
In Chiplets, vermutlich(?) auch bei der GPU ist sicherlich massiv viel R&D geflossen, damit man hier keinen Rohrkrepierer riskiert, vermutlich mehr, als man für einen monolithischen DIE ausgeben muss?!
Und selbst der Infinity Cache hatte bei RDNA2 seine Schwächen, wenn wirklich viel gefordert wurde, das ist selbstverständlich eine sehr starke Technik geworden, ähnlich wie Zen3DCache, aber auch hier gibt es auch viele Risiken. Wenn AMD Chiplets in die GPU Sparte bringt, birgt das ebenso Risiken und/oder hohe Kosten, fernab von der Fertigung.
Wo viel Risiko, da aber natürlich auch eine hohe Upside, ich würde es AMD gönnen, möchte es aber erst lauffähig sehen in verschiedenen Szenarien. Zaubern können die auch nicht. Vega und VegaII ist nicht so lange her, das waren beides ebenso Experiment, die leider nur über den Preis geglückt sind, obwohl sie am Ende nicht günstig herzustellen waren mit ihren HBM.
Meridian12
2022-09-22, 13:43:21
WANN gibt denn jetzt Tests von ganzen Hardwareseiten??
Die Präsentation war doch komplett für den Arsch.Ausser dass man sagen kann, ohne DLSS3 traut NVIDIA ihren Karten nicht viel zu und die Preise sind ein Witz :D
Daredevil
2022-09-22, 13:44:27
Vermutlich wird Nvidia erst den Verkauf starten und danach kommen dann die Tests, war das bei der 3090 nicht auch der Fall? Also im Oktober rum, wenn die Karten so oder so auf den Markt kommen.
Konami
2022-09-22, 13:44:48
Es gibt keinen zusätzlichen Lag mit DLSS 3. Es interpoliert nicht aus zwei vorhandenen Frames das Mittelbild, sondern interpoliert aus vergangenen Informationen das nächste Frame.
Was nicht im selben Zuge sinken wird, ist die Eingabelatenz.
nVidias eigener Deep Learning VP Bryan Catanzaro verkauft DLSS3 so, dass in Verbindung mit Reflex die Gesamt-Latenz am Ende ca. die gleiche bleibt:
NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency.
(Quelle) (https://twitter.com/ctnzr/status/1572328438354292736)
Simple Arithmetik sollte dir sagen: wenn ich an einer Stelle x Millisekunden subtrahiere, und das Ergebnis y gleich bleibt, dann muss ich an anderer Stelle x addieren. DLSS3 muss Lag verursachen.
Ravenhearth
2022-09-22, 13:45:17
Also erstmal wäre es nur die Hälfte, weil halbe Größe. Zweitens müsste AMD in den 300mm^2 38 Mrd. Transistoren unterbekommen. Drittens benötigt AMD auf 6nm die doppelte Fläche vorallem für den Cache als bei 5nm, wodurch hier die selben Kosten entstehen. Viertens ist das Packaging aufwendiger als bei nVidia. Wie AMD beim selben Verbrauch "billigere Kühlung und Stromversorgung" realisieren würde, ist dann echt lustig.
1) Halbe Größe bedeutet auch besserer Yield, also weniger als halbe Kosten.
2) Warum "müssen" sie 38 Mrd. Transistoren unterbekommen? Nur um die gleiche Dichte wie Nvidia zu erreichen? Wozu?
3) 5nm liefert nicht die doppelte Dichte bei Cache und schon gar nicht bei den Speicherinterfaces, deswegen sind die 6nm Chips nicht automatisch doppelt so groß.
4) Ja.
5) Wer sagt was vom selben Verbrauch? Aktuell sieht es eher nach 350W aus.
6) Nicht vergessen, dass AMD kein GDDR6X nutzt, sondern normalen GDDR6.
Vielleicht landet AMD nicht ganz bei der Hälfte der Kosten, aber ich könnte mir vorstellen, dass die 7900 XT nicht teurer herzustellen ist als die 4080 16GB.
Kriegsgeier
2022-09-22, 13:48:25
Deswegen und auch nur deswegen pusht Nvidia das so sehr nach vorne, da sie diese Power im Gaming benötigen, in Pro Workloads und in ihrer Enterprise Serien. Apple macht genau das gleiche und zieht mit ihren SoCs nicht ( mehr ) in reiner Leistung davon, sondern mit ihren KI Fähigkeiten. Google macht exakt das gleiche mit ihren Tensor Prozessor.
Reine Leistung ist ab einem bestimmten Punkt nicht mehr skalierbar, dort hilft KI. Raytracing wäre ohne dieses Feature heute immer noch nicht nutzbar, natürlich investiert man dort in die Zukunft.
Im Endeffekt sind diese "KI-Einheiten" eine Art FPGA-Einheiten. Und dieses "berechnen" passiert wohl als eine Art Durchlauf dieser Einheiten.
Verstehe ich das Richtig?
Troyan
2022-09-22, 13:50:23
nVidias eigener Deep Learning VP Bryan Catanzaro verkauft DLSS3 so, dass in Verbindung mit Reflex die Gesamt-Latenz am Ende ca. die gleiche bleibt:NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency.
(Quelle) (https://twitter.com/ctnzr/status/1572328438354292736)
Simple Arithmetik sollte dir sagen: wenn ich an einer Stelle x Millisekunden subtrahiere, und das Ergebnis y gleich bleibt, dann muss ich an anderer Stelle x addieren. DLSS3 muss Lag verursachen.
Nein. Das ist so nicht. Du kannst auch eine geringere Eingabelatenz als Renderlatenz haben und dann hätte man mit DLSS 3 ein besser Ergebnis als ohne.
Beispiel: Wenn deine Eingabelatenz bei 10ms ist, aber die GPU benötigt 20ms mit DLSS 3 um Frames darzustellen, dann kommt am Ende exakt das selbe Ergebnis raus als wenn du 20ms nativ renderst. Daher die Kombination mit Reflex, um die Latenz zu niedrig wie möglich zu bekommen.
Freestaler
2022-09-22, 13:51:39
Es wird spannend. Bei hohen nativ FPS wird man nicht merken, jedoch auch nicht brauchen, und bei zu tiefen nativen fps wird der Lag (selbst wenn bei 0ms durch dlss3 sein würde) nicht besser. In zeiten wo man VRR hat, ist ja auch nicht wirklich merklich wichtig. Oder wie tiefe muss es da gehen? Unter 24fps? Wieviel Games laufen bei euch mit max 24fps? Ich bin gespannt und will offen bleiben fürnznabhängige Review. Der geschmackt des reines Benchmarkfeature bleibt aber.
@Troyan, was, dlss3.0 geratene Bilder sollen jetzt auch deinen Maus/Tastatur input enthalten? Wird ja immer besser. Wieso rendert man dann überhaupt noch ;-), Ps, das gerdenderte dlss Frame hat bereits mehr lag als nativ. Das nach erzeugete sowieso.
Konami
2022-09-22, 13:54:07
Nein. Das ist so nicht. Du kannst auch eine geringere Eingabelatenz als Renderlatenz haben und dann hätte man mit DLSS 3 ein besser Ergebnis als ohne.
Beispiel: Wenn deine Eingabelatenz bei 10ms ist, aber die GPU benötigt 20ms mit DLSS 3 um Frames darzustellen, dann kommt am Ende exakt das selbe Ergebnis raus als wenn du 20ms nativ renderst. Daher die Kombination mit Reflex, um die Latenz zu niedrig wie möglich zu bekommen.
Warum würde er dann die Formulierung "same system latency" verwenden? "System latency" ist meinem Verständnis nach die Gesamtlatenz von Input bis Output.
Edit: Und auch nVidia verwendet den Begriff so, z.B. hier:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/reflex-low-latency-platform/nvidia-reflex-end-to-end-system-latency-terminology.png
https://www.nvidia.com/en-us/geforce/guides/system-latency-optimization-guide/
Daredevil
2022-09-22, 13:56:27
Ich verstehe auch gar nicht die Diskussion.
Wenn ich 30fps mit 30fps Input Lag spielen kann oder 80fps mit 30fps Input Lag, nehme ich ritterlich vermutlich nicht das erste. Haben is besser als wollen. :v
Exxtreme
2022-09-22, 13:57:35
Es wird spannend. Bei hohen nativ FPS wird man nicht merken, jedoch auch nicht brauchen, und bei zu tiefen nativen fps wird der Lag (selbst wenn bei 0ms durch dlss3 sein würde) nicht besser. In zeiten wo man VRR hat, ist ja auch nicht wirklich merklich wichtig. Oder wie tiefe muss es da gehen? Unter 24fps? Wieviel Games laufen bei euch mit max 24fps? Ich bin gespannt und will offen bleiben fürnznabhängige Review. Der geschmackt des reines Benchmarkfeature bleibt aber.
Wie gesagt, hängt vom Spiel ab. Pauschal kann man das nicht beantworten. Für MMORPGs reichen 40 fps dicke was Eingabelatenz angeht. Kann man die fps DLSS3 aber auf 80 fps hochziehen dann wird man schon was merken, dass das flüssiger ist. Bei Strategiespielen oder Aufbauspielen oder Adventures wird das ähnlich sein. Bei schnellen Shootern will man dann doch lieber nativ 100+ fps haben. :)
Konami
2022-09-22, 13:57:54
Ich verstehe auch gar nicht die Diskussion.
Wenn ich 30fps mit 30fps Input Lag spielen kann oder 80fps mit 30fps Input Lag, nehme ich ritterlich vermutlich nicht das erste. Haben is besser als wollen. :v
Der Punkt ist, dass man Reflex auch ohne DLSS3-Fake-Frames haben kann. Reflex ist eine gute Technologie, keine Frage. Den Sinn von DLSS3 zweifle ich an (abseits von "langsamen" Games à la MS Flight Sim), weil es eben die mit Reflex losgewordene Latenz wieder in anderer Form reinbringt.
why_me
2022-09-22, 14:02:44
Für MMORPGs reichen 40 fps dicke was Eingabelatenz angeht.
Kommt auf das MMO an, bei tabtarget mag das stimmen, bei neueren "action" MMOs kann das schon wieder anders aussehen.
Und ob die 80 FPS dann am ende Flüssiger aussehen oder ob es zu micro-rucklern wie damals bei SLI kommt oder ganz anderen negativen Effekten kommt, ist auch noch eine offene Frage.
Saugbär
2022-09-22, 14:05:19
Wird aus dem AD106 jetzt eigendlich eine 4070?
Freestaler
2022-09-22, 14:07:00
Ne du nimmst Dlss2, was effektiv die FPS erhöht 30 auf 50 und den Lag verkürzt (wenn auch nicht gleichgut wie effektivnativ). Und dank VRR ist das flüssig. Eben mal ernsthaft. Bei 30fps nativ sind wir doch mit dlss2 und vrr flüssig. Nicht mehr flüssig sind wir bei unter 20fps nativ. Und da nerft das inputlag egal wieviel fps drauss werden mit Ghostbildern welche das lag nicht verbessern.
Exxtreme
2022-09-22, 14:08:51
Ne du nimmst Dlss2, was effektiv die FPS erhöht 30 auf 50 und den Lag verkürzt (wenn auch nicht gleichgut wie effektivnativ). Und dank VRR ist das flüssig. Eben mal ernsthaft. Bei 30fps nativ sind wir doch mit dlss2 und vrr flüssig. Nicht mehr flüssig sind wir bei unter 20fps nativ. Und da nerft das inputlag egal wieviel fps drauss werden.
Also ich merke Eingabeverzögerung noch bei 50 fps. :freak: Erst so ab 60 fps bin ich zufrieden. Und ja, ich habe es ausprobiert. :)
Platos
2022-09-22, 14:11:37
Wird aus dem AD106 jetzt eigendlich eine 4070?
Du meinst die 4080 8GB :freak:;D
Troyan
2022-09-22, 14:23:16
Warum würde er dann die Formulierung "same system latency" verwenden? "System latency" ist meinem Verständnis nach die Gesamtlatenz von Input bis Output.
Edit: Und auch nVidia verwendet den Begriff so, z.B. hier:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/reflex-low-latency-platform/nvidia-reflex-end-to-end-system-latency-terminology.png
https://www.nvidia.com/en-us/geforce/guides/system-latency-optimization-guide/
Weil DLSS 3 eben keinen Lag einführt, wenn die Systemlatenz identisch ist. Normalerweise müsste man mit mindesten einen Frame im Puffer arbeiten, um das interpolierte erzeugen zu können.
Ex3cut3r
2022-09-22, 14:25:06
Also Interpolierte 60 FPS (von 30 FPS) fühlen sich doch richtig kacke an. Für einen Shooter eine Katastrophe. Oder übersehe hier was?
Gipsel
2022-09-22, 14:25:07
Ich frage mich auf welchem Hardwarelevel (gem IMG Tec) Ada Lovelace nun ist:
Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
https://www.imaginationtech.com/products/ray-tracing/
Intel hatte für Arc meine ich auch eine Sortierfunktion vorgestellt.
Die bisherigen Einschätzungen (ich hab die Quelle leider nicht mehr) waren:
RDNA2: Level 2
Turing/Ampere: Level 3
Intel ARC: Level ~3,5Bester Tipp: Ada liegt bei 4 (3,5+).
SER übernimmt vermutlich das, was IMG "coherency sorting" nennt.
Konami
2022-09-22, 14:26:44
Weil DLSS 3 eben keinen Lag einführt, wenn die Systemlatenz identisch ist. Normalerweise müsste man mit mindesten einen Frame im Puffer arbeiten, um das interpolierte erzeugen zu können.
Mann, dein Ruf eilt dir zwar voraus, aber solche Dickköpfigkeit finde ich immer wieder erstaunlich. Welchen Teil seines Tweets verstehst du nicht? :freak:
"NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency."
Vielleicht reden wir auch nur aneinander vorbei.
Nein, DLSS3 (im Sinne von DLSS3 + Reflex zusammen) führt keinen Lag ein im Vergleich zum Vanilla-Mode ohne Reflex. Aber ja, das reine DLSS3 führt Lag ein im Vergleich zu Reflex ohne Frame Generation.
Daredevil
2022-09-22, 14:31:13
Mann, dein Ruf eilt dir zwar voraus, aber solche Dickköpfigkeit finde ich immer wieder erstaunlich. Welchen Teil seines Tweets verstehst du nicht? :freak:
"NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency."
Das bedeutet du hast mit einer Nvidia Karte die gleiche Latenz und signifikant mehr Bilder als mit einem Konkurrenzprodukt, wo ist das Problem?
Gift und Gegengift.
RT > DLSS
DLSS3 > Reflex
8K > DL-DSR
usw.
Konami
2022-09-22, 14:40:30
Das bedeutet du hast mit einer Nvidia Karte die gleiche Latenz und signifikant mehr Bilder als mit einem Konkurrenzprodukt, wo ist das Problem?
Gift und Gegengift.
RT > DLSS
DLSS3 > Reflex
8K > DL-DSR
usw.
Wie (wiederholt) gesagt: Für mich sind Reflex und DLSS3 einfach zwei komplett verschiedene Paar Schuhe. Reflex gibt es schon länger. Und ich bin eh schon nVidia-User. Aus meiner Sicht ist die Aussage "DLSS3 erhöht die Latenz nicht" also einfach unehrlich – ein Marketing-Stunt, der die Nachteile des neuen Zaubertricks mit einem (technologisch völlig unabhängigen) alten Hut zu kaschieren versucht.
Exxtreme
2022-09-22, 14:42:01
Kommt auf das MMO an, bei tabtarget mag das stimmen, bei neueren "action" MMOs kann das schon wieder anders aussehen.
Und ob die 80 FPS dann am ende Flüssiger aussehen oder ob es zu micro-rucklern wie damals bei SLI kommt oder ganz anderen negativen Effekten kommt, ist auch noch eine offene Frage.
Ja. Aber MMORPGs kleben praktisch immer an der CPU. Da wirst du in aller Regel mit viel mehr GPU-Leistung trotzdem nichts rausholen. Mit DLSS3 kannst du die fps aber wieder verdoppeln obwohl das mit viel mehr Rastersizer-Leistung gar nicht möglich gewesen wäre. Ergo muss man das halt ausprobieren. Aber ich vermute mal, dass MMORPGs davon sehr profitieren werden.
Platos
2022-09-22, 14:44:38
Ja. Aber MMORPGs kleben praktisch immer an der CPU. Da wirst du in aller Regel mit viel mehr GPU-Leistung trotzdem nichts rausholen. Mit DLSS3 kannst du die fps aber wieder verdoppeln obwohl das mit viel mehr Rastersizer-Leistung gar nicht möglich gewesen wäre. Ergo muss man das halt ausprobieren. Aber ich vermute mal, dass MMORPGs davon sehr profitieren werden.
Oder hald Strategiespiele/Aufbauspiele. Da kommts meistens auch nicht auf Latenzen an. Aber man hängt oft im CPU-Limit.
davidzo
2022-09-22, 14:44:58
Vielleicht reden wir auch nur aneinander vorbei.
Nein, DLSS3 (im Sinne von DLSS3 + Reflex zusammen) führt keinen Lag ein im Vergleich zum Vanilla-Mode ohne Reflex. Aber ja, das reine DLSS3 führt Lag ein im Vergleich zu Reflex ohne Frame Generation.
Auf ein und dieselbe Karte/system bezogen, hast du recht. Aber das ist nicht wie nvidia es uns verkauft.
Nvidia vergleicht sich in den eigenen Folien aber nunmal nicht mit dem vanilla Mode, sondern mit hypotetischen 200% bis 400% realen FPS. Die Technologie ist sicher gut, aber der Vergleich ist selbstgewählt und damit muss man sich auch der Methodenkritik stellen.
Benchmarks sind zum Vergleich mit der Konkurrenz und vorherigen Serie gedacht, nicht mit sich selbst.
Wenn jetzt der Navi31 TopDog zum Beispiel 60FPS nativ liefert, die 4080 aber 80FPS mit DLSS3, dann ist das eben kein kompetitiver Vergleich weil die nativen FPS von Navi31 mit viel niedrigerer Eingabelatenz daher gehen. Der Hinweis auf Reflex ist nur whataboutism und hat damit gar nichts zutun, zum Teil unterstützen die Spiele um die es geht das gar nicht.
Zudem hat jede Bewegungsvektorbasierte Interpolation riesige Probleme am Bildrand und mit verdeckten Objekten. Alles was in den vorherigen Frames noch nicht sichtbar war kann eine AI-interpolation unmöglich generieren. Verdeckte Objekte tauchen eben nur auf echten Frames auf, nicht auf DLSS3 Interpolationen.
Tesseract
2022-09-22, 14:48:52
Wie (wiederholt) gesagt: Für mich sind Reflex und DLSS3 einfach zwei komplett verschiedene Paar Schuhe. Reflex gibt es schon länger. Und ich bin eh schon nVidia-User. Aus meiner Sicht ist die Aussage "DLSS3 erhöht die Latenz nicht" also einfach unehrlich – ein Marketing-Stunt, der die Nachteile des neuen Zaubertricks mit einem (technologisch völlig unabhängigen) alten Hut zu kaschieren versucht.
so wie ich das verstanden habe geht es darum, dass reflex jetzt teil des "bundles" ist. reflex ohne DLSS3 hat zwar niedrigere latenz als mit aber es wird kein DLSS3 ohne reflex geben, d.h. die latenz mit DLSS3 wird in der regel nicht schlechter sein als komplett ohne reflex/DLSS.
hätte außerdem den vorteil, dass alle 20 und 30er karten in DLSS3 spielen zu ihrem DLSS2-legacy-mode immer reflex bekommen.
Jupiter
2022-09-22, 14:51:19
Bei NVidia sehe ich eine Vision und das ist spannend. Mal sehen, was AMD demnächst präsentieren wird.
Den USD-Preis der RTX 4090 finde ich in Ordnung. Die RTX 4080 12 GB hätte dagegen nie als eine RTX 4080 bezeichnet werden dürfen. Schade, dass die RTX 4080 16 GB ein relativ niedriges Leistungs/Kostenverhältnis hat. Ähnlich wie bei der GTX 980. Bei der RTX 3080 war das anders.
prinz_valium_2
2022-09-22, 14:52:31
Fine es schade, dass hier fast gar nicht über die neuen Kühllösungen geredet wird.
Da haben wird Grundsätzlich Vaporchambers zusammen mit Heatpipes.
Aber dann gibt es jetzt auch noch extra tief in die Vaporchamber eingelassene Heatpipes.
Wir haben Quadratische Heatpipes für mehr Kontaktfläche.
Bis zu 13 Heatpipes, wobei die Anzahl alleine natürlich nicht viel aussagt.
Push/Pull Lüfter Konfigurationen wie bei einer CPU.
Ist schon eine Menge Neuerungen, was natürlich der Abwärme geschuldet ist. Fände es aber toll, wenn diese Sachen auch in den Kleineren Modellen Einzug halten würden.
Tesseract
2022-09-22, 14:53:49
über kühllösungen zu diskutieren ist sinnlos so lange diese nicht in den händen unabhängiger reviewer sind.
Daredevil
2022-09-22, 14:53:52
Wie (wiederholt) gesagt: Für mich sind Reflex und DLSS3 einfach zwei komplett verschiedene Paar Schuhe. Reflex gibt es schon länger. Und ich bin eh schon nVidia-User. Aus meiner Sicht ist die Aussage "DLSS3 erhöht die Latenz nicht" also einfach unehrlich – ein Marketing-Stunt, der die Nachteile des neuen Zaubertricks mit einem (technologisch völlig unabhängigen) alten Hut zu kaschieren versucht.
Der Vergleich ist halt "Ohne Features" und "Mit Features".
Wenn du Reflex jetzt schon nutzt und mit DLSS3 Latenz drauf kommt, hast du natürlich aus deiner jetzigen Situation einen erneuten Nachteil, klar.
Hättest du keine Nvidia GPU mit diesen beiden Features, würde dir aber beides fehlen. Das ist ja der Sinn der Werbung von Nvidia. ^^
Jupiter
2022-09-22, 14:59:21
Besteht eine realistische Möglichkeit, dass die Grafikkartepreise während der Generation sinken? Im letzten Jahrzehnt konnte ich das nicht beobachten. Kurz vor der nächsten Generation kosteten Grafikkarten meist das Gleiche wie zu Beginn. Da ist warten eigentlich sinnlos.
Troyan
2022-09-22, 15:02:18
Mann, dein Ruf eilt dir zwar voraus, aber solche Dickköpfigkeit finde ich immer wieder erstaunlich. Welchen Teil seines Tweets verstehst du nicht? :freak:
"NVIDIA Reflex removes significant latency from the game rendering pipeline by removing the render queue and more tightly synchronizing the CPU and GPU. The combination of NVIDIA Reflex and DLSS3 provides much faster FPS at about the same system latency."
Vielleicht reden wir auch nur aneinander vorbei.
Nein, DLSS3 (im Sinne von DLSS3 + Reflex zusammen) führt keinen Lag ein im Vergleich zum Vanilla-Mode ohne Reflex. Aber ja, das reine DLSS3 führt Lag ein im Vergleich zu Reflex ohne Frame Generation.
Nein, das stimmt eben nicht. Hier das Video von Cyberpunk: https://www.youtube.com/watch?v=eGHjP9zq53w&t=5s
DLSS 2.0 mit Performance und DLSS 3 nehmen sich bei der Systemlatenz nichts.
Daredevil
2022-09-22, 15:04:48
Nein, das stimmt eben nicht. Hier das Video von Cyberpunk: https://www.youtube.com/watch?v=eGHjP9zq53w&t=5s
DLSS 2.0 mit Performance und DLSS 3 nehmen sich bei der Systemlatenz nicht.
Du weißt aber nicht, ob Reflex bei DLSS2 an oder aus war. (:
Exxtreme
2022-09-22, 15:08:41
Besteht eine realistische Möglichkeit, dass die Grafikkartepreise während der Generation sinken? Im letzten Jahrzehnt konnte ich das nicht beobachten. Kurz vor der nächsten Generation kosteten Grafikkarten meist das Gleiche wie zu Beginn. Da ist warten eigentlich sinnlos.
Möglichwerweise ja. Die Crypto-Miner kaufen nicht mehr die Lagerhallen leer. Und mal schauen. Wenn selbst den hartgesottensten Nvidia-Fans diese Preise zu hoch sind und sie nichts kaufen dann wird es auch billiger werden mit der Zeit. Und auch mal gucken was AMD bringt. Kann sein, dass sie viel günstiger werden und dann werden die Händler auch nachziehen müssen.
Nazar
2022-09-22, 15:10:52
Japp. Aber mit sowas habe ich tatsächlich gerechnet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13102136#post13102136). Schau dir mal die Steamcharts an mit welcher Auflösung die Mehrheit so spielt. Mehr Rastersizer-Performance wäre eine Optimierung für ~3% der Spielerschaft, und damit komplett an der Kundschaft vorbei. Von DLSS3 werden sehr viel mehr Spieler profitieren. Ergo erscheint mir das viel sinnvoller auch wenn man das Cheat ansieht.
Natürlich, ist das so gesehen sinnvoller, wenn denn RTx und/oder DLSS wirklich den vermuteten Anklang finden, zumal nicht jedes Spiel diese Features von Haus aus unterstützt. ;)
Gerade die von nV gezeigten Balken, und auch der Text dazu, sprechen von den "Next-Gen-Spielen", zu denen derzeit -laut nV- nur CP77 zählt.
Wenn man aber diesen Weg als Argument für die Entwicklung geht, muss man sich über ein paar Details klar werden.
1. Aufwand -> Nutzen in der Entwicklung
2. Ist RT überhaupt sinnvoll und "kostengünstig" in Spielen einsetzbar#?
3. Wird RT von der Mehrheit der Spieler als solches erkannt?
4. Warum wird RT, ein System zu BQ Verbesserung, erst sinnvoll einsetzbar, wenn man dafür ein System benötigt, das offensichtlich die BQ Verbesserung torpediert?
5. Erst zukünftige Spiele werden, wenn dafür vorgesehen, mit DLSS 3.x arbeiten können.
6. DLSS 3.x wird nicht auf alten RTX GPUS laufen. Die meisten Spieler werden aufgrund diverser Situationsabhängigkeiten weiter mit alter HW spielen müssen. Also kommt nicht nur RT viel zu früh, sondern auch DLSS 3.x?
Klar sollte jedem sein, dass RZ keine Leistungsreserven hat/benötigt, da die Entwicklung so stark in Richtung RT abgedriftet ist.
Anstatt Spielen mehr BQ overall zu verpassen, setzte man auf RT Inseln, die selbst mit DLSS, für das Gebotene, immer noch viel zu viel Leistung fordern.
Wohin hätte die Reise gehen können:
Größere Welten mit glaubhafterer und viel detaillierterer Umgebung.
Erhöhung der Sichtweiten, bessere Texturen und vielem mehr.
Wer glaubt, dass RZ ausreichend ist, hat, zumindest aus meiner Sicht, das Wesentliche der Grafikentwicklung aus den Augen verloren.
Anstatt uns auf eine deutliche Verbesserung, und im Gesamtbild, bessere, umfangreichere und harmonischere Grafik zu konzentrieren, wurde die Entwicklung in Richtung Werbung für ein unfertiges "Feature" gedrückt: RTX.
Wir haben mit RTX ein Feature, welches den Spielen nicht guttut.
Entweder wirken die Spiele vollkommen abgedreht, sodass der eigentliche Sinn von RT komplett verloren geht (mehr "Realismus"), oder die Wirkung harmoniert nicht mit dem Rest des Spiels (Licht- und Schatteninseln).
Und um nun den übertrieben hohen Leistungsverbrauch (zumal die meisten Spieler die "Vorteile" von RTX erst (wenn überhaupt) auf Vergleichsbildern erkennen) wieder auszugleichen, wird dann eine, in den überwiegenden Fällen, !!Bildverschlechterungssoftware!! (DLSS) eingesetzt (Texturverfälschung, Flimmer, Unschärfe, Artefakte, etc.). :freak:
RTX wird, wenn nV und AMD (oder jemand anderem) nichts Weltbewegendes einfällt, noch über mehr als 10 Jahre nicht auf dem Leistungsniveau vom RZ ankommen. Zumindest nicht ohne DLSS (oder etwas Ähnlichem).
Ich habe bis heute noch kein einziges RT Spiel gesehen, welches ohne großer BQ Einschnitte war (auch ohne DLSS), weil es immer wieder diese RT-Inseln gibt, die über das LoD System immer wie zugeschaltet wirken. Plötzlich wird aus RZ Beleuchtung eine RT-Beleuchtung. Und damit der Nutzer das merkt, sind die Unterschiede teilweise so gewaltig (CP77), dass man den Eindruck hat, dass man per Knopfdruck von einer Grafikengine in eine andere wechselt.
Richtig "pervers" wird es dann mit DLSS.
Wann wurde in der Spielewelt beschlossen, dass das neue "Geil", ein Bild mit vollkommen unscharfen und verfälschten Texturen und Bewegungsartefakten sein soll? Das Memo habe ich verpasst und finde es deshalb immer "geil", wenn sich RT-Freaks allen Ernstes und aus voller Überzeugung über !!Bildqualität!! im Zusammenhang mit RT und/oder DLSS austauschen.
Genauso als würden mir Blinde etwas über Farbpaletten und deren Einfluss auf mein Sehempfinden erzählen und dabei mir ein schönes Rot aus Weiß und Schwarz mixen wollen. :rolleyes: :eek: :freak:
TLD, RZ lohnt sich nur "nicht", weil des Kaisers neue Kleider an jeder Straßenecke verkauft werden, und niemand in der Medienlandschaft genügend große Eier in der Hose hat, um zu sagen: "Aber der ist doch nur nackig!"
Aber wir werden ja sehen, ob die Käufer wirklich so dumm sind, wie nV annimmt. :wink:
why_me
2022-09-22, 15:18:21
Du weißt aber nicht, ob Reflex bei DLSS2 an oder aus war. (:
Hat CP2077 überhaupt Reflex?
Und der rot markierte Text ist auch recht eindeutig.
DLSS3 braucht Reflex um die niedrige latenz zu halten, das Argument, dass es die gleiche latenz wie DLSS hat, bestätigt das ja nur...
Aber was ich icht jetzt frage, ist das jetzt eine interpolation und damit ein buffern des letzten frames (würde die latenz/Reflex erklären) oder eine estimation was in frame +1 passiert? :confused:
Linmoum
2022-09-22, 15:22:05
Besteht eine realistische Möglichkeit, dass die Grafikkartepreise während der Generation sinken? Im letzten Jahrzehnt konnte ich das nicht beobachten. Kurz vor der nächsten Generation kosteten Grafikkarten meist das Gleiche wie zu Beginn. Da ist warten eigentlich sinnlos.Sinkenden Preisen hat Jensen schon eine Absage erteilt. Ist hier vor ein paar Seiten auch verlinkt worden.
Nazar
2022-09-22, 15:22:13
Cyberpunk bleibt und ist immer noch das bekannteste Franchise Weltweit, welches hohe Anforderungen an die Hardware hat. Demnach ist es völlig nachvollziehbar, dass man dieses Spiel als "Show a Feature" nimmt.
Du wirst mir kein anderen Spiel nennen können, welches mehr gefragt ist als dieses Spiel. ( Neben Flugsimulator für extreme Anforderungen und Portal für Nerds ;) )
Und? Was genau ändert das an der Aussage, dass es derzeit nur ein 2 Jahre altes Spiel gibt, dass das DLSS 3.x Feature Set nutzen kann? :confused:
Was ich sehr interessant finde, in Portal kann RT den Geometrieanteil und die Texturen verändern. It's Magic. ;D
Troyan
2022-09-22, 15:25:37
Du weißt aber nicht, ob Reflex bei DLSS2 an oder aus war. (:
Native 4K bei 22 FPS mit Renderzeit von 46ms: 166ms
DLSS 2 Performance mit 62 FPS mit 16ms: 62ms
Systemlatenz sinkt jedoch um 102ms. Reflex war da schon an, weil es eben jetzt auch immer Bestandteil von DLSS 3 ist.
Daredevil
2022-09-22, 15:34:00
Und? Was genau ändert das an der Aussage, dass es derzeit nur ein 2 Jahre altes Spiel gibt, dass das DLSS 3.x Feature Set nutzen kann? :confused:
Diese Aussage gab es nicht. ;)
DrFreaK666
2022-09-22, 15:39:45
Das heißt: wenn jemand seit jeher mit Reflex spielt, dann lässt er die Finger am besten von DLSS 3, da die Latenz dann sinkt trotz höherer FPS?
aufkrawall
2022-09-22, 15:41:22
hätte außerdem den vorteil, dass alle 20 und 30er karten in DLSS3 spielen zu ihrem DLSS2-legacy-mode immer reflex bekommen.
Ist leider schon wieder ein ziemlich guter Grund, kein AMD zu kaufen. :redface:
Sardaukar.nsn
2022-09-22, 15:42:27
Fine es schade, dass hier fast gar nicht über die neuen Kühllösungen geredet wird.
Da haben wird Grundsätzlich Vaporchambers zusammen mit Heatpipes.
Aber dann gibt es jetzt auch noch extra tief in die Vaporchamber eingelassene Heatpipes.
Der Aufwand ist schon enorm. Wobei es da auch unterschiede gibt, bei Asus ist der Vaporchamber wohl nur in der Strix, nicht in der TUF.
Ich würde auch gerne noch eine Version mit richtigen Lüftern sehen, wie das Noctua Sondermodell.
Neben der sehr ansprechenden Inno3D Frostbite (https://videocardz.net/inno3d-geforce-rtx-4090-24gb-ichill-frostbite) gibt es mit der Gigabyte Waterforce WB (https://videocardz.net/gigabyte-geforce-rtx-4090-24gb-aorus-xtreme-waterforce-wb) immerhin wohl eine zweite echte WaKü-Karte: https://videocardz.net/nvidia-geforce-rtx-4090
Troyan
2022-09-22, 15:44:47
Digitalfoundry hatte sich mal Reflex angesehen - hier der Teil bei 120Hz: https://youtu.be/TuVAMvbFCW4?t=921
Selbst mit Reflex ist die Systemlatenz immer deutlich über den z.B. 8,3ms der Renderzeit. In Destiny 2 z.B. benötigt das System zusätzliche 23,8 ms und in Fornite 19,1 ms.
Das heißt: wenn jemand seit jeher mit Reflex spielt, dann lässt er die Finger am besten von DLSS 3, da die Latenz dann sinkt trotz höherer FPS?
Nein, Latenz bleibt identisch.
Sardaukar.nsn
2022-09-22, 15:45:49
Besteht eine realistische Möglichkeit, dass die Grafikkartepreise während der Generation sinken? Im letzten Jahrzehnt konnte ich das nicht beobachten. Kurz vor der nächsten Generation kosteten Grafikkarten meist das Gleiche wie zu Beginn. Da ist warten eigentlich sinnlos.
Allein schon wegen der Inflation wird das nicht viel günstiger werden. Ich behaupte jetzt mal wer früh eine 4090 zur UVP bekommt, wird die nach 12 Monaten mir sehr überschaubaren Abschlag wieder los werden können.
Der Lag wird nicht steigen. Es ist aber so, läuft das Spiel mit 30 fps und man benutzt DLSS3 um es auf 60 fps zu bringen dann wird man trotzdem die Eingabelatenz von 30 fps haben. Gibt sicherlich Spiele wo das egal ist, ja. :)kannst du ausführen wie deiner Meinung nach ein Zwischenbild eingefügt werden kann ohne das aktuelle Bild zu verzögern?
robbitop
2022-09-22, 15:49:24
Nein, das stimmt eben nicht. Hier das Video von Cyberpunk: https://www.youtube.com/watch?v=eGHjP9zq53w&t=5s
DLSS 2.0 mit Performance und DLSS 3 nehmen sich bei der Systemlatenz nichts.
Immer diese Äpfel/Birnenvergleiche.
Der einzig sinnvolle Vergleich ist:
DLSS3.0 (inkl Reflex) mit hochgepumpter FPS - sagen wir auf 120 fps hochgepumpt
vs
120 herkömmliche FPS inklusive Reflex.
Und genau da ist es gar nicht möglich, dass es keine Latenznachteile gibt.
Für mich ist der FPS count (ob hochgepumpt oder nicht) ein Indikator für eine gewisse Reaktivität. 120 fps bedeuten für mich was und genau das wird mit hoch gepumpten fps ggf verwässert. Ja es ist nicht schlechter als 60 echte fps oder sogar etwas besser. Aber für mich ist das was man claimt und das ist die hochgepumpte Zahl der Benchmark sofern man Latenzmessungen macht.
Man macht die Äpfel/Birne Vergleiche um gut dazustehen - aber es ist ein verzerrter Vergleich.
kannst du ausführen wie deiner Meinung nach ein Zwischenbild eingefügt werden kann ohne das aktuelle Bild zu verzögern?
Es wird nach meinem Verständnis kein Zwischenbild eingefügt sondern ein Zukünftiges generiert.
M4xw0lf
2022-09-22, 15:50:31
kannst du ausführen wie deiner Meinung nach ein Zwischenbild eingefügt werden kann ohne das aktuelle Bild zu verzögern?
Es sind keine "Zwischen"bilder, sondern Extrapolation.
DrFreaK666
2022-09-22, 15:50:58
...
Nein, Latenz bleibt identisch.
Latenz mit Reflex vs DLSS 3 ist identisch? Das klingt aber anders
Thomas Gräf
2022-09-22, 15:51:14
...
Wohin hätte die Reise gehen können:
Größere Welten mit glaubhafterer und viel detaillierterer Umgebung.
Erhöhung der Sichtweiten, bessere Texturen und vielem mehr.
Wer glaubt, dass RZ ausreichend ist, hat, zumindest aus meiner Sicht, das Wesentliche der Grafikentwicklung aus den Augen verloren.
Anstatt uns auf eine deutliche Verbesserung, und im Gesamtbild, bessere, umfangreichere und harmonischere Grafik zu konzentrieren, wurde die Entwicklung in Richtung Werbung für ein unfertiges "Feature" gedrückt: RTX.
Wir haben mit RTX ein Feature, welches den Spielen nicht guttut.
...
Super auf den Punkt gebracht. Ganz genau auch meine Ansicht zu den Dingen. ;)
Exxtreme
2022-09-22, 15:53:57
kannst du ausführen wie deiner Meinung nach ein Zwischenbild eingefügt werden kann ohne das aktuelle Bild zu verzögern?
Es wird kein Zwischenbild eingefügt sondern ein neues Bild generiert, von dem DLSS3 glaubt, dass die Spielengine es so generiert hätte. :) Von diesen generierten Bildern weiss aber die Spielengine nichts. Ergo verhält sie exakt so als ob es kein DLSS3 gibt.
Troyan
2022-09-22, 15:54:49
Stimmt, glaubhafte Welten mit Fake-Beleuchtung, kaputten Schatten, miserabler Ausleuchtung, beschissenen SSRs und vorallem alles statisch ohne Interaktion. Unglaubliche tolle Welten - also so wie Morrowind.
why_me
2022-09-22, 15:55:30
Es sind keine "Zwischen"bilder, sondern Extrapolation.
Wenn das so wäre, warum braucht man dann Reflex um die Latenz gleich zu behalten? Das passt mMn. nicht zu der Aussage aus dem Q&A.
Wenn Extrapoliert wird, dann kann ich das aktuell berechnete Frame ja ohne Probleme ausgeben und bekomme keine zusätzliche Latenz.
Erst wenn ich das aktuelle Bild Puffern muss, weil ich vorher noch etwas zwischenrein schieben will, erhöhrt sich die Latenz und genau da greift dann auch Reflex und reduziert sie wieder.
DrFreaK666
2022-09-22, 15:55:46
Im Bereich Physik tut sich leider sehr wenig
Nazar
2022-09-22, 16:01:27
Stimmt, glaubhafte Welten mit Fake-Beleuchtung, kaputten Schatten, miserabler Ausleuchtung, beschissenen SSRs und vorallem alles statisch ohne Interaktion. Unglaubliche tolle Welten - also so wie Morrowind.
Ich wusste gar nicht, dass du so gegen RT und DLSS bist. :confused:
Aber ok, ich muss dir hier wirklich einmal zustimmen, allerdings macht mich der Punkt mit den SSRs doch ein wenig stutzig. :freak:
Ach, was solls, wenn wir schon mal einer Meinung sind. ;)
unl34shed
2022-09-22, 16:04:08
Wenn Extrapoliert wird, dann kann ich das aktuell berechnete Frame ja ohne Probleme ausgeben und bekomme keine zusätzliche Latenz.
Erst wenn ich das aktuelle Bild Puffern muss, weil ich vorher noch etwas zwischenrein schieben will, erhöhrt sich die Latenz und genau da greift dann auch Reflex und reduziert sie wieder.
Auch stellt sich beim extrapolieren die Frage, was bei einem Kameraschwenk passiert, weil da gibt es auf einer Seite des Bildschirms keine Informationen mit denen DLSS3 arbeiten kann.
Hier wäre Interpolation besser, da man wenigstens weiß wo die Reise bei dem Bild hingehen soll.
Nazar
2022-09-22, 16:06:39
Es wird kein Zwischenbild eingefügt sondern ein neues Bild generiert, von dem DLSS3 glaubt, dass die Spielengine es so generiert hätte. :) Von diesen generierten Bildern weiss aber die Spielengine nichts. Ergo verhält sie exakt so als ob es kein DLSS3 gibt.
Hm, selbst wenn man unterschiedliche Begriffe benutzt (einfügt und generieren), so sollte es doch offensichtlich sein, dass, egal welche Form von "Tätigkeit" !!zusätzlich!! benötigt wird, um ein Ergebnis zu erreichen, !!immer!! ein !!zusätzlicher!! (Zeit)Aufwand vonnöten ist. Denn selbst etwas Generiertes ist vollkommen zwecklos, wenn es anschließen nicht dem dafür vorgesehenen Prozess hinzugefügt wird. ;)
Edit Aussage Vergessen:
Es wird !!immer!! eine Verzögerung geben, wenn ein zusätzlicher Prozess eingeflochten wird, oder aus diesem Prozess etwas zusätzlich eingebunden werden muss.
aufkrawall
2022-09-22, 16:06:41
Auch stellt sich beim extrapolieren die Frage, was bei einem Kameraschwenk passiert, weil da gibt es auf einer Seite des Bildschirms keine Informationen mit denen DLSS3 arbeiten kann.
Das Gleiche wie bei TAA: Die vorangegangenen Bilder lassen ziemlich viele Rückschlüsse zu und ein Frame weiter gibts schon wieder neue Informationen.
Sardaukar.nsn
2022-09-22, 16:06:50
Zotac 4090 Trinity - £1679 (https://www.overclockers.co.uk/zotac-geforce-rtx-4090-trinity-amp-extreme-airo-24gb-gddr6x-pci-express-graphics-card-gx-13g-zt.html)
Gigabyte AORUS 4090 - £1999 (https://www.overclockers.co.uk/gigabyte-aorus-geforce-rtx-4090-master-24gb-gddr6x-pci-express-graphics-card-gx-1fd-gi.html)
unl34shed
2022-09-22, 16:08:14
Das Gleiche wie bei TAA: Die vorangegangenen Bilder lassen ziemlich viele Rückschlüsse zu und ein Frame weiter gibts schon wieder neue Informationen.
Also irgendwas erfinden und Motion Blur schmiere drüber, damit es keiner merkt?
Zossel
2022-09-22, 16:09:59
https://twitter.com/i/web/status/1572874656398426112
Info on the L2 cache for Ada Lovelace / AD102:
The full AD102 GPU includes 98,304 KB of L2 cache (a 16x increase over the 6,144 KB in a full GA102).
The GeForce RTX 4090 includes 73,728 KB of L2 cache (a 12x increase over the 6144 KB in the GeForce RTX 3090 Ti).
Da waren die Leaks wohl korrekt.
Und die Latenzen von dem L2 dürften recht hoch sein, wie wirkt sich das auf die Performance von Spielen oder anderen Anwendungen aus?
Exxtreme
2022-09-22, 16:12:06
Hm, selbst wenn man unterschiedliche Begriffe benutzt (einfügt und generieren), so sollte es doch offensichtlich sein, dass, egal welche Form von "Tätigkeit" !!zusätzlich!! benötigt wird, um ein Ergebnis zu erreichen, !!immer!! ein !!zusätzlicher!! (Zeit)Aufwand vonnöten ist. Denn selbst etwas Generiertes ist vollkommen zwecklos, wenn es anschließen nicht dem dafür vorgesehenen Prozess hinzugefügt wird. ;)
Das ist richtig. Aber es ist so, dass die Spieleengine mit der halben Geschwindigkeit läuft als das, was dargestellt wird. Und da lässt sich vieles zwischen den Engine-Ticks berechnen. Wie gesagt, man bekommt die Eingabelatenz, mit der die Spieleengine nativ läuft. Besser wird es nicht, schlechter aber womöglich auch nicht. Am besten einfach testen sobald man es testen kann.
aufkrawall
2022-09-22, 16:14:09
Also irgendwas erfinden und Motion Blur schmiere drüber, damit es keiner merkt?
DLSS ist dabei ja besser als anderes TAA, Stichwort Disocclusion. Ich wär da nicht so pessimistisch, spätestens irgendwann wird das so sauber aussehen, dass es viele Kritiker unterm Strich überzeugen wird. Notfalls mit noch mehr TC-Leistung in der Zukunft.
Zossel
2022-09-22, 16:15:05
Reine Leistung ist ab einem bestimmten Punkt nicht mehr skalierbar, dort hilft KI. Raytracing wäre ohne dieses Feature heute immer noch nicht nutzbar, natürlich investiert man dort in die Zukunft.
Wie wirken sich hohe Auflösungen auf die reine Raytracing-Performance aus? Wahrscheinlich wird das reine Raytracing doch sowieso nur mit extrem reduzierter Auflösung gerechnet.
Und Raytracing braucht keine KI.
Zossel
2022-09-22, 16:22:47
Sinkenden Preisen hat Jensen schon eine Absage erteilt. Ist hier vor ein paar Seiten auch verlinkt worden.
Die normative Kraft des Faktischen hat schon so Einige überzeugt Dinge zu tun die vorher ausgeschlossen wurden.
davidzo
2022-09-22, 16:25:00
Interessant dass Jensen nichtmal in den später zum Editors Day herausgegebenen Folien irgendeinen Hinweis auf den L2 Cache erlaubt. Der ist so eitel dass er nichtmal das kleinste Anzeichen einer Technologieführerschaft AMDs in einem isolierten Teilbereich zugeben könnte.
Dovregubben
2022-09-22, 16:26:26
Das ist richtig. Aber es ist so, dass die Spieleengine mit der halben Geschwindigkeit läuft als das, was dargestellt wird.
Warten wir einfach mal die API ab. Bei VR ist inzwischen Common Practice, dass man ein Bild aus aktuelleren Eingabeinformationen extrapoliert. Wäre seltsam, wenn die DLSS 3 API das nicht auch hergeben würde, dass das Spiel hier ein Update liefert.
Troyan
2022-09-22, 16:37:00
Interessant dass Jensen nichtmal in den später zum Editors Day herausgegebenen Folien irgendeinen Hinweis auf den L2 Cache erlaubt. Der ist so eitel dass er nichtmal das kleinste Anzeichen einer Technologieführerschaft AMDs in einem isolierten Teilbereich zugeben könnte.
Klar. Genau. :freak:
dildo4u
2022-09-22, 16:46:08
4090 in Cyberpunk 1440p Ultra RT + PSYCHO 60fps ohne DLSS3.(mit 170)
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
Troyan
2022-09-22, 16:47:42
Hat blaidd gestern schon gespoiltert. Aber
2850MHz?! Lmao.
Dampf
2022-09-22, 16:51:49
4090 in Cyberpunk 1440p Ultra RT + PSYCHO 60fps ohne DLSS3.(mit 170)
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
Da hatte ich deutlich mehr erwartet. Knapp 60 FPS in 1440p in einem 2 Jahre alten Spiel ist echt arm, vor allem wenn man die angeblich so stark gesteigerte RT Leistung bedenkt. Ich hab mal ein Meme erstellt, das die Situation treffend beschreibt:
https://i.imgflip.com/6ub0s9.jpg
Es wird nach meinem Verständnis kein Zwischenbild eingefügt sondern ein Zukünftiges generiert.Die motion vectors die vorhanden sind beziehen sich aber auf das vorherige Bild. Wenn du das nächste extrapolieren würdest, dann hättest du auch Vorhersagenfehler und somit u.U. Ruckler.
Ich denke man kommt nicht drumherum beide Bilder zu kennen.
aufkrawall
2022-09-22, 16:52:31
CP77 RT läuft aber auch einfach stinklangsam vs. DL2 RT.
Troyan
2022-09-22, 16:56:58
Da hatte ich deutlich mehr erwartet. Knapp 60 FPS in 1440p in einem 2 Jahre alten Spiel ist echt arm, vor allem wenn man die angeblich so stark gesteigerte RT Leistung bedenkt. Ich hab mal ein Meme erstellt, das die Situation treffend beschreibt:
https://i.imgflip.com/6ub0s9.jpg
Nein, die GPU wird wie bei Ampere nicht super ausgelastet. Mit Raytracing taktet meine 3090 auch fast durchgehend bei 1900MHz in 4K. :rolleyes:
Das Update bringt SER und das sollte dann deutlich helfen.
/edit: Ich finde es fazinierend, dass der Stromverbrauch bei DLSS 3 so deutlich sinkt. Scheint wohl, dass die TensorCores deutlich effizienter geworden sind. Fast 22% Ersparnis beim selben Takt ist schon seltsam.
davidzo
2022-09-22, 16:58:36
Also Interpolierte 60 FPS (von 30 FPS) fühlen sich doch richtig kacke an. Für einen Shooter eine Katastrophe. Oder übersehe hier was?
Die motion vectors die vorhanden sind beziehen sich aber auf das vorherige Bild. Wenn du das nächste extrapolieren würdest, dann hättest du auch Vorhersagenfehler und somit u.U. Ruckler.
Ich denke man kommt nicht drumherum beide Bilder zu kennen.
Jo, es ist halt alles auf dem neuen Frame drauf und schön detailliert gerendert. Alles außer der Gegner der gerade um die Ecke kommt und dich sniped. Für den gabs halt noch keine Motion vectors und AI-Training content ;D
dildo4u
2022-09-22, 17:00:59
Da hatte ich deutlich mehr erwartet. Knapp 60 FPS in 1440p in einem 2 Jahre alten Spiel ist echt arm, vor allem wenn man die angeblich so stark gesteigerte RT Leistung bedenkt. Ich hab mal ein Meme erstellt, das die Situation treffend beschreibt:
https://i.imgflip.com/6ub0s9.jpg
Das Pikante ist das ist ohne den RT Overdrive Modus.
Dampf
2022-09-22, 17:05:28
Nein, die GPU wird wie bei Ampere nicht super ausgelastet. Mit Raytracing taktet meine 3090 auch fast durchgehend bei 1900MHz in 4K. :rolleyes:
Das Update bringt SER und das sollte dann deutlich helfen.
/edit: Ich finde es fazinierend, dass der Stromverbrauch bei DLSS 3 so deutlich sinkt. Scheint wohl, dass die TensorCores deutlich effizienter geworden sind. Fast 22% Ersparnis beim selben Takt ist schon seltsam.
Mal abwarten. PCGH und co werden das sicherlich testen.
Das mit dem Stromverbrauch ist aber in der Tat erfreulich, das könnte besonders für Laptops sehr nützlich sein.
BlacKi
2022-09-22, 17:36:47
kommen die reviews eigentlich vor dem 12. oktober? zumindest die, die ein nda unterschrieben haben?
Freestaler
2022-09-22, 17:39:07
Wie würde man überhaupt merken, wenn doch interpoliert wird? Normales Testootls haben wohl keine dlss3.0, und ein Frame würde reichen. Ergebnis wäre Rückstand um ein halbes natives Frame.
Linmoum
2022-09-22, 17:51:03
4x 8-pin-to-12VHPWR cable (Limited service life with up to 30 connect / disconnects)
https://www.zotac.com/de/node/1164552#spec
Mal unabhängig davon, wie man das überprüfen will. Aber wtf? ;D
unl34shed
2022-09-22, 17:53:09
Wie würde man überhaupt merken, wenn doch interpoliert wird? Normales Testootls haben wohl keine dlss3.0, und ein Frame würde reichen. Ergebnis wäre Rückstand um ein halbes natives Frame.
Da sollten sich einfache Tests für schreiben lassen, wenn es mal in einer Engine drin ist. Leerer Raum und du teleportierst auf Knopfdruck ein Objekt von A nach B. Wird dazwischen ein "Geist" erstellt wird interpoliert, wenn nicht, vermutlich nicht.
E: Extrapoliert wäre dann vielleicht, wenn ein "Geist" weiter in Richtung Motionvektor auftaucht.
Der Abstand in dem teleportiert wird, muss vermutlich entsprechend klein sein, damit es als Bewegung gewertet wird, ich bezweifel das Nvidia für jeden Pixel das ganze Bild scanned beim optical flow.
Zossel
2022-09-22, 17:57:03
https://www.zotac.com/de/node/1164552#spec
Mal unabhängig davon, wie man das überprüfen will. Aber wtf? ;D
Wird nicht cool wenn man damit unterschiedliche Spannungsregler zusammen schaltet und die sich dann gegenseitig in den thermal runaway regeln.
Sardaukar.nsn
2022-09-22, 17:57:32
/edit: Ich finde es fazinierend, dass der Stromverbrauch bei DLSS 3 so deutlich sinkt. Scheint wohl, dass die TensorCores deutlich effizienter geworden sind. Fast 22% Ersparnis beim selben Takt ist schon seltsam.
Über 100 Watt weniger Verbrauch im Beispiel, finde ich schon enorm. Wenn du bei weniger anspruchsvollen Spielen an die Hz-Grenze des Monitors kommst (was durchaus der Fall sein sollte) wird das auch interessant für den Verbrauch.
Der Rest des Ada Lovelace Lineup ist jetzt auch bekannt...
https://i.imgur.com/6eULCZG.jpg
BlacKi
2022-09-22, 18:03:07
nv hat sich damit echt keinen gefallen getan...
Zossel
2022-09-22, 18:05:59
Jo, es ist halt alles auf dem neuen Frame drauf und schön detailliert gerendert. Alles außer der Gegner der gerade um die Ecke kommt und dich sniped. Für den gabs halt noch keine Motion vectors und AI-Training content ;D
Die menschliche Reaktionszeit liegt bei ca. 0,2 Sekunden. Ich denke du übertreibst.
DrFreaK666
2022-09-22, 18:13:00
...
/edit: Ich finde es fazinierend, dass der Stromverbrauch bei DLSS 3 so deutlich sinkt. Scheint wohl, dass die TensorCores deutlich effizienter geworden sind. Fast 22% Ersparnis beim selben Takt ist schon seltsam.
Sank der Stromverbrauch nicht immer beim Einsatz von DLSS?
dildo4u
2022-09-22, 18:16:54
Sank der Stromverbrauch nicht immer beim Einsatz von DLSS?
Hängt natürlich vom Game ab mit Performance DLSS kommst du oft in CPU Limits wo sich die Karte natürlich langweilt, bisher scheinen alle DLSS3 Werte mit dem Performance Modus gemacht worden sein.
Dampf
2022-09-22, 18:33:27
Ich hab mal versucht, den neuen Lederjacken Modus in Cyberpunk mit Psycho RT in nativen 1440p zu vergleichen:
https://imgsli.com/MTI2NzI2
aufkrawall
2022-09-22, 18:48:41
Jo, es ist halt alles auf dem neuen Frame drauf und schön detailliert gerendert. Alles außer der Gegner der gerade um die Ecke kommt und dich sniped. Für den gabs halt noch keine Motion vectors und AI-Training content ;D
Das NN arbeitet nicht so, dass es irgendwelche Gegner "erkennt". Das setzt einfach nur kleine Pixelhaufen so zusammen, dass ein anständiges größeres Ganze entsteht. Wenn, sind da punktuell Artefakte, wie man ja auch schon in den bisherigen Schnipseln von DF gesehen hat.
Und 30 fps sind natürlich der Worst Case. Von 70fps mit Reflex auf "interpolierte" 138fps sind da schon eine wesentlich sinnvollere Verbesserung (gesetzt den Fall, dass die Artefakte nicht zum Davonlaufen aussehen).
Ex3cut3r
2022-09-22, 18:50:20
Ich hab mal versucht, den neuen Lederjacken Modus in Cyberpunk mit Psycho RT in nativen 1440p zu vergleichen:
https://imgsli.com/MTI2NzI2
Falsches FOV bei dir. ;)
Das Nvidia Bild hat wohl 75 oder 70. (Geschätzt)
Aber so erahnen kann man es schon. Overdrive scheint wie Psycho schon ziemliche FPS Verschwendung zu sein. Aber gut, muss man selber wissen. Man ist ja erwachsen genug, also die meisten. ^^
EDIT:
Ne, scheint das richtige FOV zu sein, nur der Abstand ist bei dir falsch, ich glaub Nvidias Screenshot steht näher an der Treppe.
Troyan
2022-09-22, 18:59:14
Sank der Stromverbrauch nicht immer beim Einsatz von DLSS?
Gerade mal getestet. Also nicht bei Ampere. Der Verbrauch ist ähnlich zwischen nativ und DLSS Quality.
Ich könnte mir vorstellen, dass nVidia bei Lovelace DLSS per FP8 berechnet und dann einfach nur relativ 4x länger sich Zeit lässt. Damit kostet DLSS genauso viel wie bei Ampere, aber benötigt nur 1/4 der Energie mit den TensorCores.
Platos
2022-09-22, 19:12:25
Sank der Stromverbrauch nicht immer beim Einsatz von DLSS?
Gerade mal getestet. Also nicht bei Ampere. Der Verbrauch ist ähnlich zwischen nativ und DLSS Quality.
Ich könnte mir vorstellen, dass nVidia bei Lovelace DLSS per FP8 berechnet und dann einfach nur relativ 4x länger sich Zeit lässt. Damit kostet DLSS genauso viel wie bei Ampere, aber benötigt nur 1/4 der Energie mit den TensorCores.
Naja, indirekt sinkt er natürlich schon bei gleicher FPS-Zahl. Mindestens mit nem Powerlimit, dass die gleiche FPS-Zahl unter DLSS erreicht, wie ohne DLSS und ohne Powerlimit (falls die GPU da zu blöd dazu ist).
Also FPS/Watt steigt auf jeden Fall.
Troyan
2022-09-22, 19:13:55
nVidia hatte ja kein FPS-Limit. FPS ging auf 170FPS und der Stromverbrauch 110W runter.
robbitop
2022-09-22, 19:25:06
Hm, selbst wenn man unterschiedliche Begriffe benutzt (einfügt und generieren), so sollte es doch offensichtlich sein, dass, egal welche Form von "Tätigkeit" !!zusätzlich!! benötigt wird, um ein Ergebnis zu erreichen, !!immer!! ein !!zusätzlicher!! (Zeit)Aufwand vonnöten ist. Denn selbst etwas Generiertes ist vollkommen zwecklos, wenn es anschließen nicht dem dafür vorgesehenen Prozess hinzugefügt wird. ;)
Edit Aussage Vergessen:
Es wird !!immer!! eine Verzögerung geben, wenn ein zusätzlicher Prozess eingeflochten wird, oder aus diesem Prozess etwas zusätzlich eingebunden werden muss.
Nicht wirklich. Bei 60 fps gibt es alle 16 ms einen neuen Frame. Wenn aus 60 fps 120 fps gedoppelt (mit einem Frame in die Zukunft) werden sollen, hat die GPU 8 ms Zeit dafür damit der zusätzliche Frame rechtzeitig ohne Verzögerung kommt.
Aber das hat mit der Eingabelatenz nichts zu tun weil es für diesen Extrapolierten Frame zu dem Zeitpunkt noch keine Eingabe gibt sondern erst zum nächsten echten Frame.
Tesseract
2022-09-22, 19:31:07
wurde das eigentlich wirklich so gesagt? ich wäre davon ausgegangen, dass der frame interpoliert wird, d.h. information aus beiden anliegenden frames enthält. das bischen weniger lag kann doch die potenziellen artefakte nicht wert sein.
Sardaukar.nsn
2022-09-22, 19:33:02
nVidia hatte ja kein FPS-Limit. FPS ging auf 170FPS und der Stromverbrauch 110W runter.
Durchaus ein Thema. Wenn dir DLSS hilft das FPS Maximum deines Monitors zu erreichen, wird das massiv Rechenleistung bzw. Watt Verbrauch senken.
Wobei die Fraktion 1080-1440p mit 4090 sicher überschaubar bleibt und sich eher für eine fixere CPU interessiert.
Troyan
2022-09-22, 19:37:30
Durchaus ein Thema. Wenn dir DLSS hilft das FPS Maximum deines Monitors zu erreichen, wird das massiv Rechenleistung bzw. Watt Verbrauch senken.
Wobei die Fraktion 1080-1440p mit 4090 sicher überschaubar bleibt und sich sicher für eine fixere CPU interessiert.
Schau dir das Video an. Die GPU war mit 96% gegenüber 98% identisch ausgelastet. Die CPU-Last ist entsprechend gestiegen. Also auch kein V-Sync Limit.
Mit Turing und Ampere spart man bei DLSS nur, wenn man ein Limit hat. Ansonsten hat die Karte den selben Verbrauch.
Lovelace hat mit FP8 4x Tensorleistung als Ampere mit FP16. Das wäre das wirkliche Killerfeature, wenn nVidia DLSS für Lovelace "effizienter" gemacht hätte.
robbitop
2022-09-22, 19:40:54
Die motion vectors die vorhanden sind beziehen sich aber auf das vorherige Bild. Wenn du das nächste extrapolieren würdest, dann hättest du auch Vorhersagenfehler und somit u.U. Ruckler.
Ich denke man kommt nicht drumherum beide Bilder zu kennen.
So hat NV es aber beschrieben. Ich würde von der Robustheit der Daten inuitiv eine Zwischenbildberechnung auch für stabiler halten. Kostet aber dann nochmal zusätzliche Latenz.
Thomas Gräf
2022-09-22, 19:46:59
Tada...kam eben per Mehl. ;)
https://www.ekwb.com/news/ek-goes-above-and-beyond/
Doch mit großer Leistung kommt große Hitze. EK® - der führende Hersteller von Premium-Flüssigkeitskühlung - ist bereit, diesen Nebeneffekt von mehr FPS zu bekämpfen und bietet EK-Quantum Vector² Wasserblöcke von Anfang an an, um sicherzustellen, dass Enthusiasten jedes Gramm Leistung aus der Ada Lovelace Architektur herausholen können. Die Founders Edition von NVIDIA ist das erste PCB, das vollständig von Vector² abgedeckt wird. Für diejenigen, die die bestmögliche Kühlung wünschen, werden auch aktive Backplate-Lösungen angeboten, bei denen die GPU der 40er-Serie zwischen zwei Wasserblöcken eingebettet ist, die mit einem einzigen Anschluss verbunden sind.
Übersetzt mit www.DeepL.com/Translator (kostenlose Version)
...denn es geht um jedes Gramm ;D
aufkrawall
2022-09-22, 19:54:56
Mit Turing und Ampere spart man bei DLSS nur, wenn man ein Limit hat. Ansonsten hat die Karte den selben Verbrauch.
Nö, sinkt etwas.
Neurosphere
2022-09-22, 19:54:57
Tada...kam eben per Mehl. ;)
https://www.ekwb.com/news/ek-goes-above-and-beyond/
EKWB hat sich mit den Preisen auch an NV gehalten....
So hat NV es aber beschrieben. Ich würde von der Robustheit der Daten inuitiv eine Zwischenbildberechnung auch für stabiler halten. Kostet aber dann nochmal zusätzliche Latenz.
Die Frage ist auch wie gleichmäßig der Frame ausgeworfen wird. Interpoliert liegen ja schon Daten vor welche Zeit zwischen de beiden Frames vergeht.
Extrapoliert ist es unbekannt. Allerdings kann man sich hier ebenfalls an vorrangegangene Zeiten richten.
Bleibt nur die Frame wie groß der Zeitbdarf für Berechnung und Ausgabe ist. NV kann natürlich auch den Weg gehe und etwas Sicherheitspuffer einbauen, also sich einen oder zwei Frames für die Berechnugn Zeit lassen. Dadurch wird nur das Ergebnis immer schlechter weil nicht mehr ganz so aktuell.
Edith: Boa, mal den Knoten aus den Fingern genommen.
Zossel
2022-09-22, 19:57:18
...denn es geht um jedes Gramm ;D
Elektronen haben ja schließlich eine Masse :-)
Troyan
2022-09-22, 19:59:19
Die Frage ist auch wie gleichmäßig der Frame ausgeworfen wird. Interpoliert liegen ja schon Daten vor welche Zeit zwischen de beiden Frames vergeht.
Extrapoliert ist es unbekannt. Allerdingas kann man sich hier ebenfalls an vorrangegangene Zeit richten.
Bleibt nur die Frame wie groß der Zeitbdarf für Berechnung und Ausgabe ist. NV kann natürlich ach den weg gehe und etwas Sicherheitspuffer einbauen, also sich einen oder zwei Frames für die BErechnugn zeit lassen. Dadurch wird nur das Ergebnis immer schlechter weil nicht mehr ganz so aktuell.
Naja, das ist ja wie bei DLSS. Benötigt das neue Frame länger, wird das nächste Frame hinten angestellt.
Schaut man sich an, dass mit DLSS 3 204 Frames möglich sind, liegt die Erzeugerzeit wohl bei unter 5ms.
Linmoum
2022-09-22, 20:02:57
4090 in Cyberpunk 1440p Ultra RT + PSYCHO 60fps ohne DLSS3.(mit 170)
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/Ist die Lüftersteuerung so eingestellt, dass die GPU bei ~50-55 Grad gehalten werden soll, oder was? Ansonsten keine Ahnung, wie NV bei angeblich rund 110W weniger auf nur quasi identische Temperaturen kommen will...
Troyan
2022-09-22, 20:05:17
Hehe:
The limit of RTX 4090 is 3.45GHz.
https://twitter.com/kopite7kimi/status/1572809150123638784
RoNsOn Xs
2022-09-22, 20:06:22
Ich empfinde die unter 60°C ziemlich erstaunlich. Kenne ich so gar nicht von GPUs mit Luftkühlung. Wann gabs das zuletzt? Bisher sagt dazu niemand etwas.
Sardaukar.nsn
2022-09-22, 20:10:34
Tada...kam eben per Mehl. ;)
https://www.ekwb.com/news/ek-goes-above-and-beyond/
...denn es geht um jedes Gramm ;D
Haut mich gar nicht vom Hocker. Ich bin ja in dem Markt unterwegs, aber finde den Alphacool Block technisch deutlich spannender. Erstmals Chrom statt Nickel , deutlich feinere Kühlfinnen und wohlmöglich die besten Wärmepaste und Pads am Markt. Preis ist auch okay: https://www.alphacool.com/detail/index/sArticle/30435
ABER ich möchte gar nicht mehr wie bei der aktuellen Suprim einen sehr guten Luftkühler anschaffen den ich eh nicht benutze. Daher ist mein Focus im Moment auf einer fertigen Wakü-Karte.
Troyan
2022-09-22, 20:10:49
Naja, offener Aufbau. Der Kühler ist megadick. Meine 3090 bei 22°C und 375W läuft bei ~67°C.
Jupiter
2022-09-22, 20:12:15
Ich hab mal versucht, den neuen Lederjacken Modus in Cyberpunk mit Psycho RT in nativen 1440p zu vergleichen:
https://imgsli.com/MTI2NzI2
Falsches FOV bei dir. ;)
Das Nvidia Bild hat wohl 75 oder 70. (Geschätzt)
Aber so erahnen kann man es schon. Overdrive scheint wie Psycho schon ziemliche FPS Verschwendung zu sein. Aber gut, muss man selber wissen. Man ist ja erwachsen genug, also die meisten. ^^
EDIT:
Ne, scheint das richtige FOV zu sein, nur der Abstand ist bei dir falsch, ich glaub Nvidias Screenshot steht näher an der Treppe.
Ich testete eine andere Stelle. Die Unterschiede sind erheblich.
https://imgsli.com/MTI2NzMw
Psycho ist keine Verschwendung. Noch immer nicht das DF-Video gesehen?
Möglichwerweise ja. Die Crypto-Miner kaufen nicht mehr die Lagerhallen leer. Und mal schauen. Wenn selbst den hartgesottensten Nvidia-Fans diese Preise zu hoch sind und sie nichts kaufen dann wird es auch billiger werden mit der Zeit. Und auch mal gucken was AMD bringt. Kann sein, dass sie viel günstiger werden und dann werden die Händler auch nachziehen müssen.
Der 4 nm-Prozess ist neu. Der wird günstiger und vielleicht schlägt sich das mal aufd en preis nieder, wenn die Nachfrage geringer sein wird als sonst.
Sinkenden Preisen hat Jensen schon eine Absage erteilt. Ist hier vor ein paar Seiten auch verlinkt worden.
Manchmal muss sich der Realität gestellt werden. Wenn sich die Grafikkarten langsam absetzen, könnten sie günstiger werden. Allerdings kosten die RTX 3080er usw. nauch kaum weniger als zum Start. Hier gab es allerdings die sehr hohe Nachfrage.
Allein schon wegen der Inflation wird das nicht viel günstiger werden. Ich behaupte jetzt mal wer früh eine 4090 zur UVP bekommt, wird die nach 12 Monaten mir sehr überschaubaren Abschlag wieder los werden können.
Aus der Sicht könnte das stimmen.
Ex3cut3r
2022-09-22, 20:18:23
Was soll mir das jetzt sagen? Das ist doch Overdrive.
Mach mal bitte so einen Vergleich mit RT Medium und Psycho.
BlacKi
2022-09-22, 20:28:26
EKWB hat sich mit den Preisen auch an NV gehalten....
der kühler kostet auch für die 3080 schon 284€ https://www.ekwb.com/shop/ek-quantum-vector-fe-rtx-3080-d-rgb-black-special-edition
Daredevil
2022-09-22, 20:39:04
Ich empfinde die unter 60°C ziemlich erstaunlich. Kenne ich so gar nicht von CPUs mit Luftkühlung. Wann gabs das zuletzt? Bisher sagt dazu niemand etwas.
Völlig normal für den FE GPU Kühler von Nvidia, wenn die Karte nicht auf volle Pulle läuft. 200w kühlt der 3090 Kühler mit 800rpm quasi lautlos weg.
Der Kühler der 4090 ist ja noch dicker.
prinz_valium_2
2022-09-22, 21:11:23
Hehe:
https://twitter.com/kopite7kimi/status/1572809150123638784
Wenn das Erreichbare wäre, ein Traum
Jupiter
2022-09-22, 21:21:37
Was soll mir das jetzt sagen? Das ist doch Overdrive.
Mach mal bitte so einen Vergleich mit RT Medium und Psycho.
Psycho ist heller
https://imgsli.com/MTI2NzM1
https://imgsli.com/MTI2NzM2
https://imgsli.com/MTI2NzM3
Ex3cut3r
2022-09-22, 21:24:41
Psycho ist heller
https://imgsli.com/MTI2NzM1
https://imgsli.com/MTI2NzM2
Aha. Heller also. Du könntest mit Medium ja einfach das Gamma im Options Menü hochstellen. :ulol:
Hoffentlich hast du jetzt verstanden. RT Medium reicht bereits völlig aus, und kommt mit GA102 schon relativ günstig daher, es sieht um Welten besser aus, als gar kein RT AO zu haben, aber alles andere ist FPS Verschwendung.
Neurosphere
2022-09-22, 21:24:47
der kühler kostet auch für die 3080 schon 284€ https://www.ekwb.com/shop/ek-quantum-vector-fe-rtx-3080-d-rgb-black-special-edition
Du Vergleichst hier die Special Edition, die normale kostet derzeitauch 240€. Ich glaube die war zum Release etwas günstiger, generell ist EKWB im VErgleich mit WC usw aber doch überteuert.
Jupiter
2022-09-22, 21:26:04
Die Stellen auf der Rückseite sind heller. Objekte, welche eine Lichtreflexion erhalten. Je heller die globale Lichtquelle, desto deutlicher. Sieht für mich filmischer aus.
https://imgsli.com/MTI2NzM4
Dampf
2022-09-22, 21:30:29
Aha. Heller also. Du könntest mit Medium ja einfach das Gamma im Options Menü hochstellen. :ulol:
Hoffentlich hast du jetzt verstanden. RT Medium reicht bereits völlig aus, und kommt mit GA102 schon relativ günstig daher, es sieht um Welten besser aus, als gar kein RT AO zu haben, aber alles andere ist FPS Verschwendung.
Es gibt Szenen, wo Ultra vs Medium RT Beleuchtung einen gewaltigen Unterschied macht.
Aber größtenteils hast du recht.
Troyan
2022-09-22, 21:32:19
Cyberpunk benutzt schon ein Realtime GI-Methode. Die größten Unterschied liegt bei der indirekten Beleuchtung ohne sichtbare Lichtquelle. Also wenn man unter einer Brücke ist, oder nachts in Seitengassen.
aufkrawall
2022-09-22, 21:37:28
Die GI in CP77 wirkt einfach alt vs. die in DL2, der Effekt in städtischen Außenarealen mit stark geblocktem Sonnenlicht ist oft viel zu gering vs. RT off. Kostet auch viel mehr, nur wofür... Die Schatten sind auch glitchiger.
crux2005
2022-09-22, 21:58:34
mGARjRBJRX8
EVGA leaves and everyone loses their mind.
;D;D;D
GrimReaper85
2022-09-22, 22:32:28
How does the RTX 40 Series perform compared to the 30 series if DLSS frame generation isn't turned on? (https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636)
https://uploads.disquscdn.com/images/914c8314c2c25fd0bb844530a8b6ab83f91ed166e8d27a57b9eef8e66c37de3e.png
Mir ist gerade aufgefallen, dass sie hier von AMD gesponserte Spiele verwenden (wie dumm kann man sein?):
https://www.amd.com/en/gaming/featured-games
Und AMD war in AC Valhalla 25% besser als Nvidia in der letzten Generation:
https://www.youtube.com/watch?v=nxQ0-QtAtxA&t=398s
Also 160% könnten am Ende 200% sein bei 50 Spieldurchschnitt. Das sollte es fast so schnell machen wie 7900 XT.
Diese Schätzungen könnten also immer noch richtig sein:
https://www.3dcenter.org/news/news-des-18-mai-2022
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-4080-im-timespy-um-47-bzw-65-schneller-als-ihre-ampere-vorgaen
Höchstwahrscheinlich 1,8x 3090 -> 4090 und 2,0x 6900 XT -> 7900 XT.
prinz_valium_2
2022-09-22, 22:41:30
How does the RTX 40 Series perform compared to the 30 series if DLSS frame generation isn't turned on? (https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636)
https://uploads.disquscdn.com/images/914c8314c2c25fd0bb844530a8b6ab83f91ed166e8d27a57b9eef8e66c37de3e.png
Mir ist gerade aufgefallen, dass sie hier von AMD gesponserte Spiele verwenden (wie dumm kann man sein?):
https://www.amd.com/en/gaming/featured-games
Und AMD war in AC Valhalla 25% besser als Nvidia in der letzten Generation:
https://www.youtube.com/watch?v=nxQ0-QtAtxA&t=398s
Also 160% könnten am Ende 200% sein bei 50 Spieldurchschnitt. Das sollte es fast so schnell machen wie 7900 XT.
Diese Schätzungen könnten also immer noch richtig sein:
https://www.3dcenter.org/news/news-des-18-mai-2022
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-4080-im-timespy-um-47-bzw-65-schneller-als-ihre-ampere-vorgaen
Höchstwahrscheinlich 1,8x 3090 -> 4090 und 2,0x 6900 XT -> 7900 XT.
Ich sag es doch. Absolut komisch.
Die richtige 4080 macht bei jedem Spiel 20% aber die 4090 macht alles zwischen knapp50 und 70
aufkrawall
2022-09-22, 22:43:29
RE V dürfte auch mit RT sein, auch wenn das eher "RTchen" heißen sollte.
basix
2022-09-22, 22:44:28
https://youtu.be/mGARjRBJRX8
Hmm, im Video ist anscheinend bei allen Partnern kein Bild zur 4080 12GB verfügbar, auf keiner einzigen Homepage. Hat Jensen die bereits als 4070 gelabelten Karten kurzfristig zur 4080 12GB gemacht? :freak:
unl34shed
2022-09-22, 22:46:50
Aber es wird doch zwischen Nvidia und Nvidia vergleichen, wieso sollte das dann Worstcase sein und in anderen Spielen besser skalieren? :confused:
r3ptil3
2022-09-22, 23:03:41
kommen die reviews eigentlich vor dem 12. oktober? zumindest die, die ein nda unterschrieben haben?
Wäre zumindest eine Zumutung, wenn bei einem solchen Produkt zeitgleich zum Verkaufsstart auch der Start der Reviews wäre.
Bin aber erstaunt, dass ein so rasches Startdatum für den Verkauf gewählt wurde. Sind ja nur noch 2,5 Wochen.
Linmoum
2022-09-22, 23:06:43
MSI hatte in einem Livestream einen Zeitplan mit diversen Daten, da standen u.a. der 26.09. und 05.10. mit NDA drin und noch irgendwas Mitte Oktober. Letzteres und 26.09. sind eigentlich offensichtlich (RTL/Zen4), 05.10. könnte Ada sein.
crux2005
2022-09-22, 23:06:59
Wäre zumindest eine Zumutung, wenn bei einem solchen Produkt zeitgleich zum Verkaufsstart auch der Start der Reviews wäre.
Bin aber erstaunt, dass ein so rasches Startdatum für den Verkauf gewählt wurde. Sind ja nur noch 2,5 Wochen.
Sie wollen doch Karten vor der Konkurrenz verkaufen. Logisch.
GrimReaper85
2022-09-22, 23:16:06
Aber es wird doch zwischen Nvidia und Nvidia vergleichen, wieso sollte das dann Worstcase sein und in anderen Spielen besser skalieren? :confused:
Ich bin gerade gekommen, um dasselbe zu schreiben, ich war nur dumm.
wolik
2022-09-22, 23:34:03
Psycho ist heller
https://imgsli.com/MTI2NzM1
https://imgsli.com/MTI2NzM2
https://imgsli.com/MTI2NzM3
Ich kann die Leute nicht verstehen, die behaupten, den Unterschied auf solchen Bildern zu erkennen.
Ex3cut3r
2022-09-22, 23:44:23
Da spielt das Marketing dem Gehirn einen Streich. Psycho ist (Very High) und Medium klingt so nach Medium. Das muss also viel schlechter aussehen, bis man dann zwei Bilder erstellt und vergleicht, und dann sieht man erst, der Unterschied ist Minimal, aber kostet einfach mal 10-12 FPS. :freak:
Maximum Settings sind halt oft selbst mit einer High End Karte nicht immer Optimal. Und bei CP77 nimmt man mehr jede Leistung gerne mit.
=Floi=
2022-09-23, 04:17:42
Das von vornherein zu verteufeln und nur "echte" Frames zu wollen, ist mMn nicht zielführend, wenn wir bei gleichem Verbrauch alle 3 Jahre ca. doppelte Leistung wollen. Das klappt doch heute schon nicht mehr...
Dann können wir auch wieder zum alten unterfilterten AF zurückkehren...
Man kann eben sehr viel bescheissen und sieht auch nicht den echten wert der hardware. Am ende zahlst für 1440p @ wenig brei vs 1440p @ viel brei.
Das kann es einfach nicht sein.
aufkrawall
2022-09-23, 04:32:03
Eh, doch. Hast mit DLSS2/FSR2 auch defakto einen höheren AF-Level als nativ TAA, um mal bei deinem Beispiel zu bleiben.
Sardaukar.nsn
2022-09-23, 06:17:23
Zitat von Gamers Nexus:
EVGA leaves and everyone loses their mind.
;D;D;D
Die Amis mit ihrem Hype um EVGA :rolleyes:
Im Bereich Wasserkühlung waren die mit der Hydrocooper viel zu spät dran und hatten für die hot chips auf der Rückseite der 3090 auch keine gute Lösung.
Einzig interessant war eine Kooperation mit Optimus, aber die kam halt auch wie gesagt spät und teuer. Das Design auf Grund des langen EVGA PCB auch nicht so überzeugend.
https://i.imgur.com/R3vZrCj.jpg
Wenn die Mitbewerber zum Launch der 4090 gute und fertige WaKü-Karten liefern können wird den EVGA Brettern in diesem Bereich niemand nachtrauern.
https://i.imgur.com/axOjEGq.jpg
boxleitnerb
2022-09-23, 06:24:53
Dann können wir auch wieder zum alten unterfilterten AF zurückkehren...
Man kann eben sehr viel bescheissen und sieht auch nicht den echten wert der hardware. Am ende zahlst für 1440p @ wenig brei vs 1440p @ viel brei.
Das kann es einfach nicht sein.
Sorry, aber da steht kein Argument. „Brei“, muss so eine Übertreibung sein? Dann hättest du gar nichts mehr spielen dürfen, fast jedes AA bringt etwas Unschärfe, hätten wir 2000 in 4-8K rechnen sollen?
Einfach offen sein, das ist nicht zu viel verlangt. Heißt nicht, dass man neue Lösungsansätze nicht kritisch betrachten kann. Es wird auch dabei stetigen Fortschritt geben.
Sardaukar.nsn
2022-09-23, 06:52:13
Ein paar erste Daten aus der CP2077 Demo. Vielleicht sind ja doch 3 Ghz drin?
https://i.imgur.com/VW8TdKb.png
Quelle: https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
dildo4u
2022-09-23, 07:11:19
Diese Settings mit einer OC 3090 TI, und für Leute die sich wundern warum die 4090 so kalt ist nicht vergessen der Kühler wurde für 600Watt ausgelegt.
Denke nicht das die TI ein Neuen bekommt.
KsnkG3HU6QM
Adam D.
2022-09-23, 08:27:57
Diese Settings mit einer OC 3090 TI, und für Leute die sich wundern warum die 4090 so kalt ist nicht vergessen der Kühler wurde für 600Watt ausgelegt.
Denke nicht das die TI ein Neuen bekommt.
https://youtu.be/KsnkG3HU6QM
Können wir einfach mal aufhören, diese Werte ständig zu "diskutieren"? Die sagen nichts aus, bis wir wissen, bei welcher Lautstärke sie erreicht werden.
Daredevil
2022-09-23, 08:39:14
Diese Settings mit einer OC 3090 TI, und für Leute die sich wundern warum die 4090 so kalt ist nicht vergessen der Kühler wurde für 600Watt ausgelegt.
Denke nicht das die TI ein Neuen bekommt.
https://youtu.be/KsnkG3HU6QM
Nie im Leben sind das reale Temperaturen mit LuKü, selbst wenn man den Oschi auf 100% RPM dreht. :D
dargo
2022-09-23, 08:49:37
Ich kann die Leute nicht verstehen, die behaupten, den Unterschied auf solchen Bildern zu erkennen.
Ist nur noch Comedy, und sowas hier wird dann (absichtlich?) völlig ignoriert. Nextgen Grafik. :crazy:
Hq44rQRL9-o
Platos
2022-09-23, 09:21:38
Und was hat das Video jetzt mit Ada Lovelace zu tun ?
Linmoum
2022-09-23, 09:26:00
AD103
Transistor count: 45.9B
80 SMs (10,240 CUDA cores)
64MB L2 cache
112 ROPs
Die size: 378.6mm2
AD104
Transistor count: 35.8B
60 SMs (7680 CUDA cores)
48MB L2 cache
80 ROPs
Die size: 294.5mm2
RTX 4080 12GB is a full AD104
https://mobile.twitter.com/RyanSmithAT/status/1573190256492711936
Troyan
2022-09-23, 09:40:44
Ein paar erste Daten aus der CP2077 Demo. Vielleicht sind ja doch 3 Ghz drin?
https://i.imgur.com/VW8TdKb.png
Quelle: https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
Immerhin scheint der Kühler vernünftig zu sein. :eek:
Neurosphere
2022-09-23, 09:42:00
Ein paar erste Daten aus der CP2077 Demo. Vielleicht sind ja doch 3 Ghz drin?
https://i.imgur.com/VW8TdKb.png
Quelle: https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
Das sind ausgehend von den avg-Frames 68% mehr Leistung, bei 40% höherem Takt.
Wo fließen die ganzen Transistoren eigentlich hin?
Dural
2022-09-23, 09:44:29
Ein ad102 full hat bei 3GHz 110Tflops, das sind 175% mehr Rohpower als eine 3090Ti.
Und sie diskutieren über Preise... so eine Karte würde ich auf der Stelle für 3K+ kaufen, ohne mit der Wimper zu zucken ;)
Die 4090 ist mir leider viel zu beschnitten, am Anfang wird wohl nur die 4080 12Gb in Frage kommen :rolleyes:
Kriegsgeier
2022-09-23, 09:45:14
ADA ist keine reinrassige GAMER-GPU eher eine für Datacenter entwickelte...
Nvidia überlässt das Feld AMD!
Kriegsgeier
2022-09-23, 09:46:49
Ein ad102 full hat bei 3GHz 110Tflops, das sind 175% mehr Rohpower als eine 3090Ti.
Und sie diskutieren über Preise... so eine Karte würde ich auf der Stelle für 3K+ kaufen, ohne mit der Wimper zu zucken ;)
Die 4090 ist mir leider viel zu beschnitten, am Anfang wird wohl nur die 4080 12Gb in Frage kommen :rolleyes:
Selten soviel Widerspruch in einem Post gelesen ;) Sorry
Linmoum
2022-09-23, 09:48:25
Ein ad102 full hat bei 3GHz 110Tflops, das sind 175% mehr Rohpower als eine 3090Ti.
Und sie diskutieren über Preise... so eine Karte würde ich auf der Stelle für 3K+ kaufen, ohne mit der Wimper zu zucken ;)Die 4090 geht doch in Ordnung. Über die Preise diskutiert man eigentlich nur bei den beiden kleineren, gerade der der eigentlichen 4070 (oder doch sogar eher xx60? ;) ) ist absolut lächerlich.
https://i.redd.it/vq0bjcg4jcp91.png
Dural
2022-09-23, 09:51:04
Überhaupt nicht...
Ich mag einfach keine "defekten" chips, so einfach ist das.
Kriegsgeier
2022-09-23, 09:51:30
Das Bild sagt mehr als tausend Worte ;)
Troyan
2022-09-23, 09:52:22
Warum hat dich eigentlich nie die Bandbreite und das Speicherinterface von RDNA2 gestört? Hm, hm?
So hatte die 250€ RX480 hat schon 256bit. Wie erbärmlich ist dann eigentlich eine 1000€ Karte mit 256bit zu verkaufen?
Daredevil
2022-09-23, 09:53:12
Warum hat dich eigentlich nie die Bandbreite und das Speicherinterface von RDNA2 gestört? Hm, hm?
So hatte die 250€ RX480 hat schon 256bit. Wie erbärmlich ist dann eigentlich eine 1000€ Karte mit 256bit zu verkaufen?
Sollte man eigentlich alle mit der Radeon VII vergleichen, die aktuellen Sparbrötchen von AMD, mh? :D
Am Ende ist doch wichtig, was auf die Straße kommt.
Kriegsgeier
2022-09-23, 09:53:13
Überhaupt nicht...
Ich mag einfach keine "defekten" chips, so einfach ist das.
Aha, deswegen hast du dir auch für 2000€ eine 3090Ti zugelegt? Kurz vor dem Erscheinen einer neuen Generation, richtig?
Intel Core i9 12900K - nVidia GeForce RTX 3090Ti
Troyan
2022-09-23, 09:53:55
Sollte man eigentlich alle mit der Radeon VII vergleichen, die aktuellen Sparbrötchen von AMD, mh? :D
Am Ende ist doch wichtig, was auf die Straße kommt.
Richtig. Nicht vergessen, AMD hat vor kurzen für 250€ 64bit verhögert. ;D
Dachte ja immer, dass Cache so toll wäre. Aber wenn nVidia es macht, ist dann wieder auch nicht recht.
Platos
2022-09-23, 09:55:03
so eine Karte würde ich auf der Stelle für 3K+ kaufen, ohne mit der Wimper zu zucken ;)
Die meisten mit bisschen Verstand aber nicht;D:freak:
dildo4u
2022-09-23, 09:56:06
Es ist eher lächerlich sich am Speicherinterface aufzuhängen, vorallem da AMD gezeigt hat das mit genug Cache es locker ausgeglichen werden kann.
Die 4080 12GB wird vermutlich der Sweet Spot sein was Performance per Watt angeht, der Preis scheint das einzig ersichtliche Problem zu sein.
Platos
2022-09-23, 09:59:30
Die 4080 12GB wird vermutlich der Sweet Spot sein was Performance per Watt angeht, der Preis scheint das einzig ersichtliche Problem zu sein.
Im Auslieferungszustand möglicherweise, aber ansonsten natürlich die 4090.
Dural
2022-09-23, 10:03:26
naja die 4080 sind Kassenschlager für NV, habe ich ja gleich gesagt.
Aber das nur auf 192Bit zu reduzieren finde ich falsch, die Karte hat immerhin die Leistung einer 3090 und die hat 384Bit. NV hat es somit geschafft, ganze 192Bit Si zu kompensieren. Sowas gab es in der Geschichte von NV noch nie, wir fällt jedenfalls nichts ein.
Linmoum
2022-09-23, 10:03:51
Performance/Watt dürfte schon bei der 16 GiB besser sein, die hat nur eine 35W höhere TGP.
Troyan
2022-09-23, 10:08:09
naja die 4080 sind Kassenschlager für NV, habe ich ja gleich gesagt.
Aber das nur auf 192Bit zu reduzieren finde ich falsch, die Karte hat immerhin die Leistung einer 3090 und die hat 384Bit. NV hat es somit geschafft, ganze 192Bit Si zu kompensieren. Sowas gab es in der Geschichte von NV noch nie, wir fällt jedenfalls nichts ein.
Dafür gibt es den Cache. Bandbreite lässt sich nur noch durch HBM erhöhen und das ist 3x teurer als GDDR6.
Also Cache rein, Speichercontroller raus und mehr Transistoren für andere Sachen verwenden.
dargo
2022-09-23, 10:08:52
Das Bild sagt mehr als tausend Worte ;)
Sorry, aber das ist Blödsinn. Wen interessiert das Speicherinterface wenn die Leistung trotzdem passt? Ein N22 hat auch nur 192Bit SI mit sogar mickrigen 384GB/s beim Speicher. ;)
Dural
2022-09-23, 10:09:51
Ich glaube rechnerisch führt gar kein Weg an der 4090 vorbei.
Interessant ist ja das die 4090 nur 72MB Cache hat, die 24MB mehr sowie 10% mehr Alus könnte man spüren.
Für die TopDog Karte ist die 4090 ziemlich abgespeckt.
dildo4u
2022-09-23, 10:11:57
Wenn man 3DMark Bencht klar dann hat man vielleicht +70% von 4080 12G zur 4090, ich tippe aber drauf das die dicken Karten in echtem Gameplay sehr schnell in diverse CPU Limits laufen.
Wir haben am PC kaum Games die die neuere Hardware nutzen NV fällt auch nix anderes ein als Cyberpunk zum tausend Mal zu Highlighten.
basix
2022-09-23, 10:12:04
Ein ad102 full hat bei 3GHz 110Tflops, das sind 175% mehr Rohpower als eine 3090Ti.
Und sie diskutieren über Preise... so eine Karte würde ich auf der Stelle für 3K+ kaufen, ohne mit der Wimper zu zucken ;)
Rohpower ist schön. Leistung auf der Strasse ist aber schöner ;)
Und wenn man nicht auf Perf/$ schaut, hat man zu viel Geld. Ich nehme gerne Spenden von solchen Leuten an ;)
Aber das nur auf 192Bit zu reduzieren finde ich falsch, die Karte hat immerhin die Leistung einer 3090 und die hat 384Bit. NV hat es somit geschafft, ganze 192Bit Si zu kompensieren. Sowas gab es in der Geschichte von NV noch nie, wir fällt jedenfalls nichts ein.
Ich stimme zu, dass die Breite des SI egal ist (Speichermenge ist schon eher relevant). Aber ob die 3090 geschlagen wird? Könnte knapp werden (ausserhalb von DLSS3 ;))
https://mobile.twitter.com/RyanSmithAT/status/1573190256492711936
Wie erwartet, ist AD104 ~300mm2 gross. AD103 ist aber etwas kleiner als ich es erwartet hätte. Und für beide zahlt man >1000 Euro ;D
Dafür gibt es den Cache. Bandbreite lässt sich nur noch durch HBM erhöhen und das ist 3x teurer als GDDR6.
Also Cache rein, Speichercontroller raus und mehr Transistoren für andere Sachen verwenden.
Holy, dass man das mal aus Troyans Mund hört hätte ich nie gedacht. Bei RDNA2 vs. Ampere hörte sich das immer ganz anders an. Aber jetzt macht es Nvidia ja auch, nun ist es Nice ;D
(ich warte nun auf dein L2$ vs. L3$ gebashe)
Dural
2022-09-23, 10:15:35
Ja Ada scheint besonders verschwenderisch mit der Rohpower umzugehen.
Die Frage ist halt wieso. Eventuell halt doch ein Bandbreiten, Si, und Cache Problem.
Exxtreme
2022-09-23, 10:16:06
Natürlich, ist das so gesehen sinnvoller, wenn denn RTx und/oder DLSS wirklich den vermuteten Anklang finden, zumal nicht jedes Spiel diese Features von Haus aus unterstützt. ;)
Gerade die von nV gezeigten Balken, und auch der Text dazu, sprechen von den "Next-Gen-Spielen", zu denen derzeit -laut nV- nur CP77 zählt.
Wenn man aber diesen Weg als Argument für die Entwicklung geht, muss man sich über ein paar Details klar werden.
Vielleicht kann man DLSS3 auch per Treiber erzwingen. Dann bräuchte man keinen expliziten Support.
1. Aufwand -> Nutzen in der Entwicklung
2. Ist RT überhaupt sinnvoll und "kostengünstig" in Spielen einsetzbar#?
3. Wird RT von der Mehrheit der Spieler als solches erkannt?
4. Warum wird RT, ein System zu BQ Verbesserung, erst sinnvoll einsetzbar, wenn man dafür ein System benötigt, das offensichtlich die BQ Verbesserung torpediert?
5. Erst zukünftige Spiele werden, wenn dafür vorgesehen, mit DLSS 3.x arbeiten können.
6. DLSS 3.x wird nicht auf alten RTX GPUS laufen. Die meisten Spieler werden aufgrund diverser Situationsabhängigkeiten weiter mit alter HW spielen müssen. Also kommt nicht nur RT viel zu früh, sondern auch DLSS 3.x?
Das Problem ist wohl eher, dass man mit viel mehr Rastersizer-Leistung kaum noch viel bessere Grafikqualität hinbekommen kann. Das Gesetz des abnehmenden Grenzertrages schlägt hier durch. Und deshalb ist RT der neueste Schrei. Denn von 0 RT auf bissl RT ist trotzdem ein gewaltiger Sprung.
Klar sollte jedem sein, dass RZ keine Leistungsreserven hat/benötigt, da die Entwicklung so stark in Richtung RT abgedriftet ist.
Anstatt Spielen mehr BQ overall zu verpassen, setzte man auf RT Inseln, die selbst mit DLSS, für das Gebotene, immer noch viel zu viel Leistung fordern.
Wohin hätte die Reise gehen können:
Derzeit ist CP77 so ziemlich das einzige käufliche Spiel, welches auf RT setzt. Und das würde ich nicht als Referenz nehmen wenn man sich den Zustand des Spiel ansieht.
Größere Welten mit glaubhafterer und viel detaillierterer Umgebung.
Erhöhung der Sichtweiten, bessere Texturen und vielem mehr.
Das geht dann eher auf die CPU und weniger auf Rastersizer der Grafikkarte. :)
Wer glaubt, dass RZ ausreichend ist, hat, zumindest aus meiner Sicht, das Wesentliche der Grafikentwicklung aus den Augen verloren.
Anstatt uns auf eine deutliche Verbesserung, und im Gesamtbild, bessere, umfangreichere und harmonischere Grafik zu konzentrieren, wurde die Entwicklung in Richtung Werbung für ein unfertiges "Feature" gedrückt: RTX.
Ich sage nicht, dass es ausreichend ist. Ich sage nur, für 97% der Spieler ist das reiner Overkill da diese Spieler diese Rastersizer-Leitung gar nicht abrufen können.
Wir haben mit RTX ein Feature, welches den Spielen nicht guttut.
Entweder wirken die Spiele vollkommen abgedreht, sodass der eigentliche Sinn von RT komplett verloren geht (mehr "Realismus"), oder die Wirkung harmoniert nicht mit dem Rest des Spiels (Licht- und Schatteninseln).
Und um nun den übertrieben hohen Leistungsverbrauch (zumal die meisten Spieler die "Vorteile" von RTX erst (wenn überhaupt) auf Vergleichsbildern erkennen) wieder auszugleichen, wird dann eine, in den überwiegenden Fällen, !!Bildverschlechterungssoftware!! (DLSS) eingesetzt (Texturverfälschung, Flimmer, Unschärfe, Artefakte, etc.). :freak:
Daran ist aber nicht RT schuld sondern unerfahrene Programmierer oder zu ungeduldige BWLer in den Spielefirmen.
RTX wird, wenn nV und AMD (oder jemand anderem) nichts Weltbewegendes einfällt, noch über mehr als 10 Jahre nicht auf dem Leistungsniveau vom RZ ankommen. Zumindest nicht ohne DLSS (oder etwas Ähnlichem).
Und RZ hat auch 20 Jahre gebraucht.
Ich habe bis heute noch kein einziges RT Spiel gesehen, welches ohne großer BQ Einschnitte war (auch ohne DLSS), weil es immer wieder diese RT-Inseln gibt, die über das LoD System immer wie zugeschaltet wirken. Plötzlich wird aus RZ Beleuchtung eine RT-Beleuchtung. Und damit der Nutzer das merkt, sind die Unterschiede teilweise so gewaltig (CP77), dass man den Eindruck hat, dass man per Knopfdruck von einer Grafikengine in eine andere wechselt.
Richtig "pervers" wird es dann mit DLSS.
Wann wurde in der Spielewelt beschlossen, dass das neue "Geil", ein Bild mit vollkommen unscharfen und verfälschten Texturen und Bewegungsartefakten sein soll? Das Memo habe ich verpasst und finde es deshalb immer "geil", wenn sich RT-Freaks allen Ernstes und aus voller Überzeugung über !!Bildqualität!! im Zusammenhang mit RT und/oder DLSS austauschen.
Genauso als würden mir Blinde etwas über Farbpaletten und deren Einfluss auf mein Sehempfinden erzählen und dabei mir ein schönes Rot aus Weiß und Schwarz mixen wollen. :rolleyes: :eek: :freak:
Siehe oben. Ich würde den stinkenden Bughaufen CP77 jetzt nicht als Referenz nehmen.
TLD, RZ lohnt sich nur "nicht", weil des Kaisers neue Kleider an jeder Straßenecke verkauft werden, und niemand in der Medienlandschaft genügend große Eier in der Hose hat, um zu sagen: "Aber der ist doch nur nackig!"
Aber wir werden ja sehen, ob die Käufer wirklich so dumm sind, wie nV annimmt. :wink:
Ich glaube nicht, dass die Käufer so dumm sind. Die Preise sind jenseits von gut und böse.
Kriegsgeier
2022-09-23, 10:17:29
ADA ist kein Gamer-Chip - eher ein für AI optimierter Profichip
Edgecrusher86
2022-09-23, 10:18:25
Ich glaube rechnerisch führt gar kein Weg an der 4090 vorbei.
Interessant ist ja das die 4090 nur 72MB Cache hat, die 24MB mehr sowie 10% mehr Alus könnte man spüren.
Für die TopDog Karte ist die 4090 ziemlich abgespeckt.
Zumindest im 3DFurzMark waren es ca. 20% Differenz - ich denke mal bei 3,0 GHz auf beiden. Das ist in der Tat viel. Ja, das nervt mich auch etwas, dass nicht gleich die Ti raus kommt....wobei bei Jensen ja alles möglich ist. Vielleicht wartet er nur auf den AMD-Launch und haut Dezember mal spontan was nach und die 4090 Käufer dürfen nochmals löhnen ;D - ich denke aber nicht, da 2023 und Anfang bis Mitte 2024 auch noch bedient werden wollen.
Troyan
2022-09-23, 10:19:53
Holy, dass man das mal aus Troyans Mund hört hätte ich nie gedacht. Bei RDNA2 vs. Ampere hörte sich das immer ganz anders an. Aber jetzt macht es Nvidia ja auch, nun ist es Nice ;D
(ich warte nun auf dein L2$ vs. L3$ gebashe)
War nie gegen Cache. Mehr Cache ist besser als wenig. Aber wenn Cache unnötig Platz wegnimmt, dann ist er unbrauchbar. Und man konnte sich über RDNA2 lustig machen. :eek:
Ailuros
2022-09-23, 10:29:36
Holy, dass man das mal aus Troyans Mund hört hätte ich nie gedacht. Bei RDNA2 vs. Ampere hörte sich das immer ganz anders an. Aber jetzt macht es Nvidia ja auch, nun ist es Nice ;D
(ich warte nun auf dein L2$ vs. L3$ gebashe)
:popcorn:
Spass beiseite; ich lese immer und immer wieder ueber den Stromverbrauch fuer Ada. Bei so verrueckt hohen Frequenzen wundert es mich dass es immer noch jemand wundert. Die Frage ist dann eher wie oft bzw. wie lange eine solche GPU auf maximaler Frequenz laufen muss. Ja "bis zu" Verbrauchswerte sind hoch, aber mich interessiert viel mehr wie es im taeglichen Gebrauch sprich Spielen aussieht und dafuer warte ich erstmal unabhaengige reviews bzw. Analysen ab.
Am Rand machen es viele andere IHVs wie Apple in Ihrem Reich auch nicht anders. Die GPUs laufen auch hier fuer ihre Relativierung auf ziemlich hohen peak Frequenzen, wobei eben in allem ULP dank DVFS es einfach zum throtteln kommt. Kurzzeit-peaks werden trotz allem erreicht wenn noetig.
Eine high end desktop GPU ist zwar ein diametrisch anderes Tier, es ist aber trotz allem so dass NVIDIA eben nicht bloed ist und versucht von solchen Trends zu lernen und kleine Anteile davon dort fuer sie einzusetzen wo es auch wirklich Sinn macht.
Last but not least: SER oder wie immer es NV fuer Ada bezeichnet ist einer der "workarounds" fuer die ziemlich breiten SIMDs. Breite SIMDs sind keine panacea wie sie noch vor kurzer Zeit beschrieben wurden.
Ehrliche Frage: was genau hat sich in den RT Einheiten in Ada geaendert? Ich hab womoeglich etwas verpasst, denn bis jetzt hab ich nichts diebezueglich gesehen.
Kriegsgeier
2022-09-23, 10:35:47
genial wäre 4090 @ 2000 MHz gegen eine 3090 @ 2000 MHz zu sehen...
Edgecrusher86
2022-09-23, 10:36:12
Ein paar erste Daten aus der CP2077 Demo. Vielleicht sind ja doch 3 Ghz drin?
https://i.imgur.com/VW8TdKb.png
Quelle: https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/
Was mich daran mehr interessiert - wie wäre der Verbrauch, wenn man dort DLSS 3 spaßeshalber zusätzlich auf 60 fps geparkt hätte - ich gehe einfach einmal davon aus => > 250W. Dann sind wir wohl bei 4x °C auf der GPU. :cool:
Troyan
2022-09-23, 10:41:27
Ehrliche Frage: was genau hat sich in den RT Einheiten in Ada geaendert? Ich hab womoeglich etwas verpasst, denn bis jetzt hab ich nichts diebezueglich gesehen.
2x Triangle Intersection Rate, Unterstützung für Displacement Mapping und bessere Leistung bei Alpha-Test Effekten.
Kriegsgeier
2022-09-23, 10:41:29
genau das! Über 60 FPS brauche ich z.B. nicht. Unterschied zwischen 60 und z.B. 90 FPS noch spürbar aber der Unterschied ist überhaupt nicht vergleichbar mit 30 FPS vs. 60 FPS
Daher: wenn alles mit 60 FPS läuft bin ich zufrieden ;) Und das sage ich mit meinen 8700k @ 5GHz + 3090 @ WaKü @ 2000 MHz
Auch bei GSync Monitor mit 100 Hz würde ich das unterschreiben!
dargo
2022-09-23, 10:44:01
Das Problem ist wohl eher, dass man mit viel mehr Rastersizer-Leistung kaum noch viel bessere Grafikqualität hinbekommen kann. Das Gesetz des abnehmenden Grenzertrages schlägt hier durch.
Woran machst du das fest? Die DEVs haben sich immer noch nicht von den Lastgen Konsolen in der Entwicklung verabschiedet. Zumindest bei den Sachen die für den PC released/geportet wurden.
Und deshalb ist RT der neueste Schrei. Denn von 0 RT auf bissl RT ist trotzdem ein gewaltiger Sprung.
Sehe ich völlig anders. Ich sehe selbst auf höchsten RT-Settings oft genug jede Menge Fuckups. Man muss nur mal genauer hinschauen.
Kriegsgeier
2022-09-23, 10:49:48
zu den Preisen:
USD nun bei 0,97566 EUR!
Exxtreme
2022-09-23, 10:58:49
Woran machst du das fest? Die DEVs haben sich immer noch nicht von den Lastgen Konsolen in der Entwicklung verabschiedet. Zumindest bei den Sachen die für den PC released/geportet wurden.
Eben. Also warum etwas kaufen was wegen Rücksicht auf Konsolen gar nicht ausgenutzt werden kann?
Sehe ich völlig anders. Ich sehe selbst auf höchsten RT-Settings oft genug jede Menge Fuckups. Man muss nur mal genauer hinschauen.
Welches Spiel? Der stinkende Bughaufen CP77?
Troyan
2022-09-23, 11:03:20
Muss man Ende 2022 weiterhin darüber diskutieren, dass Raytracing die Zukunft ist? Einfach Control spielen. Das Spiel ist 3 1/2 Jahre alt.
Doom Eternal läuft auf einer 3090 in 4K mit fast 120FPS. Auch hohe native Auflösungen mit Raytracing sind heutzutage möglich.
Ph0b0ss
2022-09-23, 11:15:05
Dann sind wir wohl bei 4x °C auf der GPU. :cool:
Die gezeigten GPU-Temperaturen unter 60°C sehen zwar toll aus, aber wer weiß was die neuen Chips für Hotspot-Temperaturen haben? Dank 4N sind da sicher 30-35°C (oder mehr) Delta von Hotspot zu allgemeiner GPU-Temperatur denkbar.
Kriegsgeier
2022-09-23, 11:16:51
und mit "fast" sehe ich immer noch was von RayTracing?
PS: zu den EarlyAdopter Preisen: sagt denen danke, die eine 4090 für 2400€ kaufen werden. Denn diese Leute finanzieren die allgemeine Entwicklungen in dem Bereich!
Troyan
2022-09-23, 11:22:20
Seit DLSS gibt es überhaupt kein Grund mehr, sich überhaupt noch High-End GPUs zu kaufen. Wem Raytracing egal ist, dem ist auch native Auflösung egal. Wem PS4 Grafik ausreichend erscheint, der hat auch keine Probleme mit vernünftigen Upscaling.
Sinnlose Diskussion geführt von Leuten, die Grafik nur sekundär empfinden.
Kriegsgeier
2022-09-23, 11:26:46
nein! Es hat was mit Weitsicht zu tun, die nun mal die NVIDIA Ingenieure am ehesten haben.
Diese haben schon ca. von 5 Jahren erkannt, dass die Technologie, die wir jetzt haben (auch mit 1 nm Fertigung) zur eine Sackgasse führt!
Daher wurde entschieden voll auf RT zu setzen
Sardaukar.nsn
2022-09-23, 11:28:35
Für eine gute Custom 4090 wird man sicher in der Region 2300€ auf den Tisch legen müssen. Wenn man den überhaupt was bekommt.
Mittelklasse wird es wohl erst erst geben wenn die Ampere Karten abverkauft sind.
Troyan
2022-09-23, 11:30:39
Für eine gute Custom 4090 wird man sicher in der Region 2300€ auf den Tisch legen müssen. Wenn man den überhaupt was bekommt.
Mittelklasse wird es wohl erst erst geben wenn die Ampere Karten abverkauft sind.
Die Founders Edition ist doch ausreichend. Aber laut nVidia würde man dieses Jahr nicht viele Lovelace-Karten verkaufen...:rolleyes:
nein! Es hat was mit Weitsicht zu tun, die nun mal die NVIDIA Ingenieure am ehesten haben.
Diese haben schon ca. von 5 Jahren erkannt, dass die Technologie, die wir jetzt haben (auch mit 1 nm Fertigung) zur eine Sackgasse führt!
Daher wurde entschieden voll auf RT zu setzen
Rasterizing ist für Weiterentwicklung am Ende. Epic hat mit der UE5 ja auch Raytracing als Standard für Lumen etabliert. Es macht einfach kein Sinn mehr auf alternative World-Space Verfahren zu setzen, die kaum schneller aber optisch schlechter aussehen. Außerdem ist der Aufwand für vernünftige Soft-Shadows erheblich höher als mit Raytracing.
Kriegsgeier
2022-09-23, 11:32:41
4090Fe würde ich sogar als NonPlusUltra betrachten: sollen wesentlich geringere Stromspitzen haben. Also bessere Stromversorgung. Und wenn man es sowieso unter Wasser setzt - dann immer FE!
DrFreaK666
2022-09-23, 11:34:45
... Es macht einfach kein Sinn mehr auf alternative World-Space Verfahren zu setzen...
So leid es mir tut: Ein großer Teil der Games wird weiterhin nicht auf RT setzen
The_Invisible
2022-09-23, 11:39:38
Stimmt es das der gleiche Kühler für alle 4080/4090 FE Modelle verwendet wird?
Die unter 60°C für die 4090 finde ich schon beeindruckend, wäre halt noch die Frage wie leise das ist bzw ob es anfällig für spulenfiepen ist.
Troyan
2022-09-23, 11:39:49
Von Computerbase:
Die GeForce RTX 4080 16 GB FE und die GeForce RTX 4090 nutzen den identischen Kühler – dies war bei der Ampere-Generation noch anders.
https://www.computerbase.de/2022-09/geforce-rtx-4000-dlss-3-founders-edition-technik/#abschnitt_neue_kuehlung_und_bessere_stromversorgung_fuer_die_founders_edition
So leid es mir tut: Ein großer Teil der Games wird weiterhin nicht auf RT setzen
Indie-Spiele? Jo. AAA Games? Wenn AMD bezahlt, ja. Muss man dafür eine neue Karte kaufen? Nein.
Sardaukar.nsn
2022-09-23, 11:57:25
4090Fe würde ich sogar als NonPlusUltra betrachten: sollen wesentlich geringere Stromspitzen haben. Also bessere Stromversorgung. Und wenn man es sowieso unter Wasser setzt - dann immer FE!
Für die FE mit dreieckig ausgeschnittenen PCB hat EW schon einen Wasserblock lieferbar. In der Hinsicht läuft das deutlich besser als noch zum Ampere Launch. https://www.ekwb.com/shop/ek-quantum-vector2-fe-rtx-4090-d-rgb-nickel-plexi
Ravenhearth
2022-09-23, 12:19:42
Das sind ausgehend von den avg-Frames 68% mehr Leistung, bei 40% höherem Takt.
Wo fließen die ganzen Transistoren eigentlich hin?
71% mehr Einheiten, größerer Cache, vielleicht auch in den höheren Takt? Man muss beim Vergleich mit der 3090 Ti zudem bedenken, dass der Chip der 4090 ordentlich beschnitten ist. Ein Vollausbau wäre eventuell 20% schneller, hätte hier also die ~doppelte Leistung. Natürlich bei noch mehr Verbrauch.
Ailuros
2022-09-23, 12:27:37
2x Triangle Intersection Rate, Unterstützung für Displacement Mapping und bessere Leistung bei Alpha-Test Effekten.
Danke. Eigentlich mehr https://www.techpowerup.com/299130/nvidia-ada-ad102-block-diagram-and-new-architectural-features-detailed
Nun ja, es gab mal eine Zeit wo "sorting" und "chunking" eher Suenden fuer NV waren. Ist alles aber schon in der korrekten Richtung.
OT: unter normalen Umstaenden reimt der Herr hier so manche merkwuerdige These zusammen, hat aber generell diesmal schon recht:
https://forum.beyond3d.com/threads/nvidia-ada-speculation-rumours-and-discussion.62474/page-82#post-2265067
Das dumme ist dass NV heute schwer etwas davon entfernen kann; noch schlimmer es gibt keine schnelle und problemlose API Definition mehr um solche Probleme eventuell selbst langfristig zu loesen. Wenn man bedenkt welchen quasi nutzlosen Ballast heutige GPUs herumschleppen muessen, wird es vielleicht schon langsam Zeit dass IHVs an die Minimalisierung von fixed function hw und eher in Richtung "programmability" denken.
Ailuros
2022-09-23, 12:30:05
71% mehr Einheiten, größerer Cache, vielleicht auch in den höheren Takt? Man muss beim Vergleich mit der 3090 Ti zudem bedenken, dass der Chip der 4090 ordentlich beschnitten ist. Ein Vollausbau wäre eventuell 20% schneller, hätte hier also die ~doppelte Leistung. Natürlich bei noch mehr Verbrauch.
Ich bin mir nicht sicher dass sich der Verbrauch sehenswert aendert bei gleichen Frequenzen und "nur" der Deaktivierung von N clusters auf einer GPU.
Ravenhearth
2022-09-23, 12:34:16
Wenn man bedenkt welchen quasi nutzlosen Ballast heutige GPUs herumschleppen muessen, wird es vielleicht schon langsam Zeit dass IHVs an die Minimalisierung von fixed function hw und eher in Richtung "programmability" denken.
Gibt es nicht Gerüchte in diese Richtung für RDNA4?
Dovregubben
2022-09-23, 12:37:08
So leid es mir tut: Ein großer Teil der Games wird weiterhin nicht auf RT setzen
Ein großer Teil der Spiele macht einen großen Haufen auf moderne Grafiktechnologie und ist eh nur Pixeloptik, 2D, whatever. Das Argument zählt so garnicht.
DrFreaK666
2022-09-23, 12:47:11
...Indie-Spiele? Jo. AAA Games? Wenn AMD bezahlt, ja. Muss man dafür eine neue Karte kaufen? Nein.
Du bist ziemlich kurzsichtig. Gibt es nur AAA und Indie-Games? :ugly:
Troyan
2022-09-23, 12:50:16
Für das neue Monkey Island benötigt man wohl keine 4080 12GB, oder? Wenn man schon High-End kauft, will man auch High-End erhalten. Seit DLSS ist native Auflösung auch kein Argument mehr, wenn bei DLSS Performance ~90% Bildqualität und 50% mehr Leistung gegenüber nativ erhalten kann. Eine 3060 mit 12GB ist dann ein besserer Kauf als eine 3080TI, die das Bild nativ rendert.
Nazar
2022-09-23, 12:54:59
How does the RTX 40 Series perform compared to the 30 series if DLSS frame generation isn't turned on? (https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/?=&linkId=100000150864636)
https://uploads.disquscdn.com/images/914c8314c2c25fd0bb844530a8b6ab83f91ed166e8d27a57b9eef8e66c37de3e.png
Mir ist gerade aufgefallen, dass sie hier von AMD gesponserte Spiele verwenden (wie dumm kann man sein?):
https://www.amd.com/en/gaming/featured-games
Und AMD war in AC Valhalla 25% besser als Nvidia in der letzten Generation:
https://www.youtube.com/watch?v=nxQ0-QtAtxA&t=398s
Also 160% könnten am Ende 200% sein bei 50 Spieldurchschnitt. Das sollte es fast so schnell machen wie 7900 XT.
Diese Schätzungen könnten also immer noch richtig sein:
https://www.3dcenter.org/news/news-des-18-mai-2022
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4070-4080-im-timespy-um-47-bzw-65-schneller-als-ihre-ampere-vorgaen
Höchstwahrscheinlich 1,8x 3090 -> 4090 und 2,0x 6900 XT -> 7900 XT.
Ich meine mal gelesen zu haben, dass die Spiele deshalb so gut auf AMD GPUs ansprechen, da sie sehr gut mit dem hohen Takt der AMD GPUs skalieren sollen.
Man könnte es also auch anders sehen.
Wie schlecht müssen erst andere Spiele laufen, dass nVidia gerade mit diesen Spielen werben muss?
Man kann zwar nVidia Dummheit vorwerfen, aber nicht, dass sie so dämlich sind, dass sie Spiele nutzen, die nV so nie wirklich gelegen haben, wenn es nVidia nicht doch einen vorteil bringen würde. :wink:
Dural
2022-09-23, 13:27:57
Lustige Theorie.
4090 (2850mhz) hat 130% mehr Flops als 3090. Ich kann mir nicht vorstellen daß wir da was unter 70% im Schnitt sehen werden. Es ist ja oder weniger dieselbe Architektur. Außer die Spiele skalieren dort oben wirklich nicht mehr gut, aber das selbe Problem dürfte da auch amd haben.
Troyan
2022-09-23, 13:29:23
Na, die 2850MHz entstehen, weil der Chip nicht vollständig ausgelastet wird. Der hohe Takt garantiert, dass Pipeline-Bubbles und Ineffzienz sich nicht so extrem ausschlägt wie bei Ampere, wo der Takt nur ca. 10% höher lag als bei Turing.
Ailuros
2022-09-23, 13:34:57
Gibt es nicht Gerüchte in diese Richtung für RDNA4?
IMHO zu frueh, soll aber nichts heissen.
Troyan
2022-09-23, 13:39:44
Mesh-Shading ist doch schon ein Schritt dorthin. UE5 ist im Grunde auch eine Compute-Pipeline für Geometrie.
Matrix316
2022-09-23, 13:45:19
mQ1ln7zxpA4 bei 3:32
MS FS doppelte Performance in 4K? Shut up and take my Money! :D
davidzo
2022-09-23, 13:50:23
https://youtu.be/mQ1ln7zxpA4 bei 3:32
MS FS doppelte Performance in 4K? Shut up and take my Money! :D
Die Auflösung dazu hatten wir doch schon. Die Erklärung ist ziemlich ernüchternd: Die testen im CPUlimit und mit DLSS3. Da die interpolierten Frames nich von der CPU vorberechnet werden müssen verdoppeln sich die FPS im CPU-Limit.
Jede andere Karte würde mit frame Interpolation ganz genau so verdoppelte Frames bringen, die messen hier nicht die GPU hardware, sondern die Software.
Exxtreme
2022-09-23, 13:55:19
Heise hat jetzt auch einen Rant veröffentlicht:
https://www.heise.de/meinung/Kommentar-zu-RTX-4000-Grafikkarten-Nvidia-wen-wollt-Ihr-veralbern-7273912.html
Ja, so geht es mir grad auch. :)
Troyan
2022-09-23, 14:03:43
Mal wieder ein Rant von Heise. Kommt zu jeden Launch. :cool:
Nervt nur noch. Mimimimim vom feinsten.
Mal davon abgesehen: Welche Leistung erbringt eigentlich Heise? Texte schreiben kann jeder. Wieso kostet also deren Magazin im Handel Geld?
/edit: Ein Heise Abo mit 24 Heften kostet also pro Heft knapp 6€ und hat bestimmt viel Werbung: https://shop.heise.de/c-t-jahresabo-heft-CT000002
Ziemliche Abzocke. Werbefinanziert sollte kostenlos sein.
Felixxz2
2022-09-23, 14:04:22
Also +68% in Cyberpunk sieht ja nicht so wahnsinnig toll aus. Vor allem in nem sehr RT lastigen Game, soll doch die RT Leistung nochmal stark angestiegen sein oder?
Grendizer
2022-09-23, 14:07:33
Mal wieder ein Rant von Heise. Kommt zu jeden Launch. :cool:
Nervt nur noch. Mimimimim vom feinsten.
Mal davon abgesehen: Welche Leistung erbringt eigentlich Heise? Texte schreiben kann jeder. Wieso kostet also deren Magazin im Handel Geld?
Naja ... ob es Mimimi ist, werden wir in der Zukunft sehen. Allerdings denke ich, das mittelfristig bei derart steigenden Preisen PC Gaming harte Zeiten bevorstehen.
Wenn dann eine RTX 4060 bei über 600 Euro steht, wirds schwer werden für den Mainstream.
Bei den aktuellen Preisen dürften wir dann eine 4070 bei 699$ erwarten und eine 4060 bei 499$, es sei denn AMD unterbietet die Preise deutlich bei ähnlicher Leistung.
basix
2022-09-23, 14:11:10
Aus meiner Sicht hat sich Nvidia mit der abstrusen Präsentation und mit den Preisen ins eigene Bein geschossen:
+ Produkte an sich wären in Ordnung (etwas Overkill bei TDP und Kühlerdesign ;))
+ Die neuen Features sind cool
+ Sinnvolle Speicherausstattungen
+/- Nicht ganz so hohe Performancesteigerungen beim Top Dog wie erhofft (60-70%), aber OK
-- P/L bei den 4080ern geringer(!) als bei den direkten Vorgängern (3070, 3080 10GB)
Nazar
2022-09-23, 14:11:18
Die Founders Edition ist doch ausreichend. Aber laut nVidia würde man dieses Jahr nicht viele Lovelace-Karten verkaufen...:rolleyes:
Rasterizing ist für Weiterentwicklung am Ende. Epic hat mit der UE5 ja auch Raytracing als Standard für Lumen etabliert. Es macht einfach kein Sinn mehr auf alternative World-Space Verfahren zu setzen, die kaum schneller aber optisch schlechter aussehen. Außerdem ist der Aufwand für vernünftige Soft-Shadows erheblich höher als mit Raytracing.
Lumen = Raytracing = Standard? :confused: Erzähl bitte mehr.
Du erwähnst Lumen und schreibst dann so einen Text? :freak:
Wie viele moderne Siele sind eigentlich RT only?
Mein Enkel ist 3 Jahre alt und dem könnte ich bei so einer Argumentation keine Vorwürfe machen; was ist deine Begründung?
prinz_valium_2
2022-09-23, 14:20:51
AD104
Transistor count: 35.8B
60 SMs (7680 CUDA cores)
48MB L2 cache
80 ROPs
Die size: 294.5mm2
RTX 4080 12GB is a full AD104
Für das Ding verlangen die wirklich über 1000€
Eine PS5 hat einen ungefähr gleich goßen SOC, 16GB RAM und auch eine massive Kühllösung (zumindest die ersten Revisionen)
Gibt aber noch alles andere dazu
Troyan
2022-09-23, 14:22:52
Naja ... ob es Mimimi ist, werden wir in der Zukunft sehen. Allerdings denke ich, das mittelfristig bei derart steigenden Preisen PC Gaming harte Zeiten bevorstehen.
Wenn dann eine RTX 4060 bei über 600 Euro steht, wirds schwer werden für den Mainstream.
Bei den aktuellen Preisen dürften wir dann eine 4070 bei 699$ erwarten und eine 4060 bei 499$, es sei denn AMD unterbietet die Preise deutlich bei ähnlicher Leistung.
Das Problem ist, dass Inflation nicht nur 2% bei Techunternehmen betrug. Die bezahlen Unmengen an die Leute, weil die komplette Branche im Wettbewerb zueinander steht.
Es bedarf massiv mehr Aufwand um vernünftige Chips in diesen Prozessnodes herstellen zu können - angefangen von den Maschinenherstellern, Fertigungsunternehmen bis Designer (nVidia und Co.).
All diese Kosten werden pro Chip umgelegt. Da kann Heise noch soviel ranten, wenn 300mm^2 heute 6x mehr kosten als vor 6 Jahren (Pascal), dann bekommt man eben diese Leistung nicht mehr für $649. Das geht einfach nicht.
Für das Ding verlangen die wirklich über 1000€
Eine PS5 hat einen ungefähr gleich goßen SOC, 16GB RAM und auch eine massive Kühllösung (zumindest die ersten Revisionen)
Gibt aber noch alles andere dazu
Eine PS5 skaliert auch aus 1080p hoch. Toller Vergleich.
ChaosTM
2022-09-23, 14:32:03
Der Heise Artikel triffts recht gut.
Viel Blabla und DLSS soll die fehlenden Performance verschleiern.
Von der Fake 12er "3080"er gar nicht zu reden.
Classic NV
Fragman
2022-09-23, 14:37:35
Naja ... ob es Mimimi ist, werden wir in der Zukunft sehen. Allerdings denke ich, das mittelfristig bei derart steigenden Preisen PC Gaming harte Zeiten bevorstehen.
Wenn dann eine RTX 4060 bei über 600 Euro steht, wirds schwer werden für den Mainstream.
Bei den aktuellen Preisen dürften wir dann eine 4070 bei 699$ erwarten und eine 4060 bei 499$, es sei denn AMD unterbietet die Preise deutlich bei ähnlicher Leistung.
Kleine Anmerkung, denn das kann man nicht oft genug betonen, die 4070 haben wir bereits und die kostet 899 Dollar, auch wenn sie 4080 12GB heißt.
Die 4070 mit diesem Namen dürfte eher eine xx60 sein. Aktuell kann man sicher mit 699 Dollar spekulieren.
Wobei dieses Lineup mit den noch verbliebenen Amperekarten keinen wirklichen Sinn macht. Leistungstechnisch wird beim selben Preis nicht soviel mehr Leistung herausspringen.
Angekündigt sind die ja auch erst fürs nächste Jahr.
Meridian12
2022-09-23, 14:38:53
Und dennoch kaufen die wenigsten für 1100 Euro eine 4070.
Es ist scheissegal wie schnell die Karten sind. Ab einem gewissen Preis wird nichts mehr gekauft, weil Geld nicht da ist.
Eine 3 mal so schnelle 4090ti wie die 4090 für 5000 Euro wird wie oft gekauft??
Na? Ratet mal? Hätte doch das beste Euro Frames Verhältnis. Die müsste doch dann weggehen wie warme Semmel??
Nein, tut sie nicht, weil die allerallerallerwenigsten Privatpersonen 5000 Euro für eine GPU ausgeben KÖNNEN.
Und selbst 4stellig können halt viele nicht ausgeben. 2000 Euro noch viel weniger.
Und viele dürfen das auch nicht, weil die Regierung da ihr Veto einlegt, obwohl finanziell sogar möglich :D
Kurzum, wenn die "MUSSneusteundbestehaben" Fraktion gekauft hat, werden die Dinger wie Blei in den Läden liegen.
Ich hoffe ja das AMD seine Chance nutzt. Die haben die einmalige Chance NVIDIA so richtig,richtig,richtig ans Bein zu pinkeln.
dargo
2022-09-23, 14:40:02
Welches Spiel? Der stinkende Bughaufen CP77?
Schau dir bsw. die Reflektionen aus der Nähe bei Spiderman Remastered oder WD: Legion an.
Muss man Ende 2022 weiterhin darüber diskutieren, dass Raytracing die Zukunft ist? Einfach Control spielen. Das Spiel ist 3 1/2 Jahre alt.
Habe ich, der Denoiser überzeugt mich überhaupt nicht. Es sei denn man steht auf Ameisenhaufen.
Platos
2022-09-23, 14:40:03
Kleine Anmerkung, denn das kann man nicht oft genug betonen, die 4070 haben wir bereits und die kostet 899 Dollar, auch wenn sie 4080 12GB heißt.
Die 4070 mit diesem Namen dürfte eher eine xx60 sein. Aktuell kann man sicher mit 699 Dollar spekulieren.
Wobei dieses Lineup mit den noch verbliebenen Amperekarten keinen wirklichen Sinn macht. Leistungstechnisch wird beim selben Preis nicht soviel mehr Leistung herausspringen.
Angekündigt sind die ja auch erst fürs nächste Jahr.
Ja, damit wird man rechnen müssen.
Fake 4070 699$
Fake 4060 499$
Fake 4050 349$ ?
All diese Kosten werden pro Chip umgelegt. Da kann Heise noch soviel ranten, wenn 300mm^2 heute 6x mehr kosten als vor 6 Jahren (Pascal), dann bekommt man eben diese Leistung nicht mehr für $649. Das geht einfach nicht.
Sicher ginge das noch, Nvidia will bloß mit allen Mitteln versuchen seine fürstliche Marge oben zu halten. Während des Miningbooms war die bei über 60%, nach dem Crash ist man zurück bei über 40% was immer noch sehr viel ist.
Hör endlich auf zu relativieren und Nvidia bis aufs Äußerste zu verteidigen. Jensen will nur unser Geld, alles andere interessiert ihn nicht. Sieht man doch schön daran wie er allen Ampere Käufern bei DLSS 3 den Mittelfinger zeigt. Zum jetzigen Zeitpunkt ist Ada maximal unsexy, beim klassischen Rasterizing und ohne Hilfsmittel rechne ich trotz massiv gestiegener Rohleistung und einer irrwitzigen Anzahl an Transistoren mit inkonsistenten und enttäuschenden Zuwächsen verglichen mit GA102.
Exxtreme
2022-09-23, 14:44:51
Ich hoffe ja das AMD seine Chance nutzt. Die haben die einmalige Chance NVIDIA so richtig,richtig,richtig ans Bein zu pinkeln.
Die Frage ist nur ob sie es machen. Es ist nämlich so, bieten sie eine vergleichbare Leistung zu einem halbierten Preis an dann könnte es sein, dass die Nvidia-Grafikkarten entweder gar nicht oder nur unter massiven Verlusten verkauft werden können. Und das könnte einige Hersteller der Grafikkarten in echte Bredouille bringen wenn man Berge an nicht verkauften Grafikkarten abschreiben muss. Die werden garantiert betteln, dass AMD das nicht macht, mit Ausnahme von AMD-exklusiven Herstellern natürlich.
Troyan
2022-09-23, 14:46:49
Sicher ginge das noch, Nvidia will bloß mit allen Mitteln versuchen seine fürstliche Marge oben zu halten. Während des Miningbooms war die bei über 60%, nach dem Crash ist man zurück bei über 40% was immer noch sehr viel ist.
Hör endlich auf zu relativieren und Nvidia bis aufs Äußerste zu verteidigen. Jensen will nur unser Geld, alles andere interessiert ihn nicht. Sieht man doch schön daran wie er allen Ampere Käufern bei DLSS 3 den Mittelfinger zeigt. Zum jetzigen Zeitpunkt ist Ada maximal unsexy, beim klassischen Rasterizing und ohne Hilfsmittel rechne ich trotz massiv gestiegener Rohleistung und einer irrwitzigen Anzahl an Transistoren mit inkonsistenten und enttäuschenden Zuwächsen verglichen mit GA102.
Heise hat den Preis eines Einzelhefts von 4,70€ (2016) auf 5,90€ (2022) angehoben. Entspricht einer Preissteigerung von 25,5%.
Die 4080 12GB mit 300mm^2 kostet mit $899 38,5% mehr gegenüber der GTX1080FE ($649).
Wenn man betrachtet, was es heißt überhaupt ein 4/5nm Chip produzieren zu können, ist der Rant von Heise nichts weiter um Hetze zu schnüren.
Sunrise
2022-09-23, 14:48:44
Die Frage ist nur ob sie es machen. Es ist nämlich so, bieten sie eine vergleichbare Leistung zu einem halbierten Preis an dann könnte es sein, dass die Nvidia-Grafikkarten entweder gar nicht oder nur unter massiven Verlusten verkauft werden können. Und das könnte einige Hersteller der Grafikkarten in echte Bredouille bringen wenn man Berge an nicht verkauften Grafikkarten abschreiben muss. Die werden garantiert betteln, dass AMD das nicht macht, mit Ausnahme von AMD-exklusiven Herstellern natürlich.
Um mal realistisch zu bleiben, wird AMD sich natürlich anhand der Leistung orientieren (müssen) und evtl. etwas Abschlag geben, aber der $999 Preispunkt ist ihnen ja relativ wichtig.
Wenn sie langsamer sind (die 4090 ist ja das Halo-Produkt, das sogar noch etwas Spielraum nach oben hat, weil stark disabled) dann orientiert man sich eben an der Vorlage der 4080er Preise.
Das wiederum hat NV aber bereits einkalkuliert, deshalb verlangt man aktuell ja auch noch "Schweinepreise" für die 4080. Das ist ein Markttest, bis AMD vorstellt.
Grendizer
2022-09-23, 14:51:39
Die Frage ist nur ob sie es machen. Es ist nämlich so, bieten sie eine vergleichbare Leistung zu einem halbierten Preis an dann könnte es sein, dass die Nvidia-Grafikkarten entweder gar nicht oder nur unter massiven Verlusten verkauft werden können. Und das könnte einige Hersteller der Grafikkarten in echte Bredouille bringen wenn man Berge an nicht verkauften Grafikkarten abschreiben muss. Die werden garantiert betteln, dass AMD das nicht macht, mit Ausnahme von AMD-exklusiven Herstellern natürlich.
Hallo .... AMD ist auch grundsätzlich eine AG ... also werden sie die Karte der Leistung entsprechend einpreisen und natürlich das Preisniveau der Konkurrenz als Maßstab nehmen, warum sollten sie auf Geld verzichten, wenn sie nachziehen ? Wie gesagt die Ryzen 5000er CPUs waren im Preis auch sehr selbstbewusst. Ich glaube nicht das AMD bei den GPUs viel anders agieren werden. Wenn sie DLSS 3.0 Performance einpreisen müssen, werden wir evtl. nicht maximal überzogenene Preise sehen, aber das AMD karten richtig günstig werden, da glaube ich nicht wirklich dran.
monstar-x
2022-09-23, 14:52:33
Wenn dann eine RTX 4060 bei über 600 Euro steht, wirds schwer werden für den Mainstream.
Wieso soll es schwer werden, wenn die Leistung stimmt.
Wenn die kleine RTX 4060 in 4K > 60FPS bringt (egal ob mit DLSS3), dann sind 600€ in Ordnung, denkst du die meisten Gamer kennen den Unterschied zwischen ADA102 und ADA 106, mitnichten.
Die sehen die Leistung und für das gebotene sind 600€ in Ordnung.
Meridian12
2022-09-23, 14:55:31
Ja, damit wird man rechnen müssen.
Fake 4070 699$
Fake 4060 499$
Fake 4050 349$ ?
Ich habe dir mal die richtigen Namen der Grafikkarten aufgeschrieben :D
4080 8GB 699$
4080 6GB 499$
4080 4GB 349$
So passt es besser.
Die 4080 12GB mit 300mm^2 kostet mit $899 38,5% mehr gegenüber der GTX1080FE ($649). .
Dir ist schon bewusst, dass die 4080 12 GB sich eigentlich mit falschem Namen schmückt? Auf der Karte müsste 4070 oder 4060 stehen.
Grendizer
2022-09-23, 14:57:24
Wieso soll es schwer werden, wenn die Leistung stimmt.
Wenn die kleine RTX 4060 in 4K > 60FPS bringt (egal ob mit DLSS3), dann sind 600€ in Ordnung, denkst du die meisten Gamer kennen den Unterschied zwischen ADA102 und ADA 106, mitnichten.
Die sehen die Leistung und für das gebotene sind 600€ in Ordnung.
Der Preispunkt ist aber für Mainstream zu hoch. Da ist dann irgendwo der Punkt, wo man das Geld für den Gaming PC des Kindes, Neffen usw. nicht mehr ausgibt.
Die Dinger sind doch klassische Karten die in einem 700-900 Euro komplett Gaming PC verbaut sind. Und das ist meiner Meinung nach eine extrem wichtige Klasse, weil die genau so das typische Weihnachten/Geburstag Geschenk der Familie abdeckt.
Troyan
2022-09-23, 15:00:33
Dir ist schon bewusst, dass die 4080 12 GB sich eigentlich mit falschem Namen schmückt? Auf der Karte müsste 4070 oder 4060 stehen.
Inwieweit machst du das fest? GTX1080 hatte mit GP104 auch nur einen 292mm^2 Chip. Stromverbrauch lag hier bei 160W. Der große Chip ist in die Titan Pascal #1 gewandert.
GTX4080 12GB hat auch einen 300mm^2 Chip, jedoch einen Stromverbrauch von 285W (35W höher als bei der Titan Pascal).
nVidia wechselt Chipgröße und Kartennamen dauernd.
Exxtreme
2022-09-23, 15:01:36
Hallo .... AMD ist auch grundsätzlich eine AG ... also werden sie die Karte der Leistung entsprechend einpreisen und natürlich das Preisniveau der Konkurrenz als Maßstab nehmen, warum sollten sie auf Geld verzichten, wenn sie nachziehen ? Wie gesagt die Ryzen 5000er CPUs waren im Preis auch sehr selbstbewusst. Ich glaube nicht das AMD bei den GPUs viel anders agieren werden. Wenn sie DLSS 3.0 Performance einpreisen müssen, werden wir evtl. nicht maximal überzogenene Preise sehen, aber das AMD karten richtig günstig werden, da glaube ich nicht wirklich dran.
Ich bin mir sicher, AMD will auch die eigenen Marktanteile steigern. Und das geht sehr einfach wenn die Konkurrenz überteuert ist oder als überteuert wahrgenommen wird. Und Marktanteile steigern geht am besten über den Preis.
Ich habe dir mal die richtigen Namen der Grafikkarten aufgeschrieben :D
4080 8GB 699$
4080 6GB 499$
4080 4GB 349$
So passt es besser.
Du meinst:
4080 3,5GB 349$
:D
Dural
2022-09-23, 15:01:53
Der Heise Artikel triffts recht gut.
Viel Blabla und DLSS soll die fehlenden Performance verschleiern.
Von der Fake 12er "3080"er gar nicht zu reden.
Classic NV
Von heise kommt in sachen NV auch ziemlich viel blabla.
Und überhaupt, welche fehlende Performance? Und welche fehlende Performance zu welchem Gegenstück? Es gibt aktuell nichts nur annähernd was schnelleres ab nächsten Monat zu kaufen. So gesehen ist der Preis für die 4090 ein Schnäppchen.
Meridian12
2022-09-23, 15:02:47
Hallo .... AMD ist auch grundsätzlich eine AG ... also werden sie die Karte der Leistung entsprechend einpreisen und natürlich das Preisniveau der Konkurrenz als Maßstab nehmen, warum sollten sie auf Geld verzichten, wenn sie nachziehen ? Wie gesagt die Ryzen 5000er CPUs waren im Preis auch sehr selbstbewusst. Ich glaube nicht das AMD bei den GPUs viel anders agieren werden. Wenn sie DLSS 3.0 Performance einpreisen müssen, werden wir evtl. nicht maximal überzogenene Preise sehen, aber das AMD karten richtig günstig werden, da glaube ich nicht wirklich dran.
Wieso verzichtet AMD auf Geld? Wenn sie statt 1000 Karten mit 300 Euro Gewinn, 5000 Karten verkaufen mir 150 Euro Gewinn??
AMD muss versuchen NVIDIA Käufer zu AMD zu locken. Und das geht am leichtesten über den Preis, wenn die Leistung stimmt.
Marktanteile zu besitzen ist auch wichtig für Investoren usw. Da ist es sehr hilfreich wenn man seinen 20% Marktanteil auf 35%+ steigern könnte.
Das schafft man aber nicht mit Preisen, die zB 150 Dollar unterhalb von NVIDIA liegen.
basix
2022-09-23, 15:04:00
Und das könnte einige Hersteller der Grafikkarten in echte Bredouille bringen wenn man Berge an nicht verkauften Grafikkarten abschreiben muss. Die werden garantiert betteln, dass AMD das nicht macht, mit Ausnahme von AMD-exklusiven Herstellern natürlich.
Oder ein Weg für die Boardpartner, Nvidia den Stinkefinger zu zeigen. Aber ja, ansonsten ist das ein sehr guter Punkt. AMD würde damit aber indirekt mehr Nvidia helfen als irgendwem sonst.
Meridian12
2022-09-23, 15:04:00
Du meinst:
4080 3,5GB 349$
:D
Nein, 4080 4GB!!
Aber Ok, die letzten 500MB sind natürlich langsamer angebunden als der restliche 3,5GB Speicher :D
Neurosphere
2022-09-23, 15:12:44
:popcorn:
Hier gehts ja wieder zu.
Im moment sehe ich nur das Ada zum großen Teil aus Transistoren besteht die ich als Kunde bezahle ich aber von denen ich nicht direkt etwas habe.
AMD hat nach derzeitigem Stand eine gute Chance mit RDNA3 dagegen halten zu können, es muss aber auch nicht so kommen.
Abwarten, Tee trinken. Trotzdem erstaunlich wie manche für Unternehmen in die Bresche springen scheinbar ohne dort auf der Gehaltsliste zu stehen.
basix
2022-09-23, 15:17:19
...ohne dort auf der Gehaltsliste zu stehen.
Who knows :D
Dural
2022-09-23, 15:19:55
Lustig würde ich es ja finden wenn AMD nicht die Performance von NV erreicht. Mit einem hochkomplexen Chip und 384Bit, so von wegen Preise.
Und wenn ich schaue wie extrem selbstbewusst NV in dieser Generation vorgeht, würde ich definitiv nicht zu viel erwarten.
Ich glaube die meisten AMD Jünger würden noch ohne AA zocken wenn sie damit schneller als NV wären ;)
AMD hat schon vor über einem Jahr gesagt das auch bei ihnen "Billig" vorbei ist.
Lustig finde ich auch das NV schuld an der Ramschwährung Euro ist und die 19% MwSt wohl auch. Ihr müsst nicht gegen NV hetzen, viel besser wäre eure Energie gegen eure Regierung gerichtet. Ihr verarmt ja nur noch, und begreift es nicht mal.
FastAndy
2022-09-23, 15:20:51
Für das Ding verlangen die wirklich über 1000€
Nein, wer es noch immer nicht begriffen hat:
Sie bieten die Karten nur so an, ohne Kaufverpflichtung. :rolleyes:
Wer nicht mag, behält halt seine alte Karte und lebt weiter. Davon geht die Welt nicht unter.
Es kann sich nicht jeder immer unnötige Luxusartikel leisten. So funktioniert das einfach nicht.
Redneck
2022-09-23, 15:21:15
Mal wieder ein Rant von Heise. Kommt zu jeden Launch. :cool:
Nervt nur noch. Mimimimim vom feinsten.
Mal davon abgesehen: Welche Leistung erbringt eigentlich Heise? Texte schreiben kann jeder. Wieso kostet also deren Magazin im Handel Geld?
/edit: Ein Heise Abo mit 24 Heften kostet also pro Heft knapp 6€ und hat bestimmt viel Werbung: https://shop.heise.de/c-t-jahresabo-heft-CT000002
Ziemliche Abzocke. Werbefinanziert sollte kostenlos sein.
C't war für mich (als ich das Mag vor 30-35 Jahren gelesen hatte, eine Institution).
Aber wie jämmerlich (mimimi) ist das, jetzt einen rant gegen ein Mag oder die Presse zu starten, nur weil die nicht deiner Meinung sind.. spricht Bände.
why_me
2022-09-23, 15:25:39
Und wenn ich schaue wie extrem selbstbewusst NV in dieser Generation vorgeht, würde ich definitiv nicht zu viel erwarten.
Hast du eine andere Präsentation gesehen als alle anderen hier?
Wäre Nvidia wirklich Selbstbewust, hätten sie kein DLSS3 gebraucht um auf längere Balken zu kommen, sondern hätten es als zusätzliches Feature beworben.
E:
@Troyan: Du könntest ja auch sachlich gegen heise argumentieren, als vom thema abzulenken und dich über komische dinge bei heise aufzuregen. Haben sie vielleicht doch Recht, mit dem, was sie da schreiben?
basix
2022-09-23, 15:30:02
Lustig würde ich es ja finden wenn AMD nicht die Performance von NV erreicht. Mit einem hochkomplexen Chip und 384Bit, so von wegen Preise.
Ehm, das mit hochkomplex werden wir ja noch sehen. Nvidias 76 Mrd. Transistor-Monster ist natürlich nicht auch hochkomplex :rolleyes:
Wenn man die aktuelle gehandelten Chipgrössen von N31 nehmen will:
- 308mm2 @ N5 --> 38 Mrd Transistoren (ich nehme AD102 mal als Referenz, inkl. sehr dichtem L2-Cache, dafür ist auch mehr IO drauf)
- 6*38mm2 @ N6 --> 6*2.5 = ~15 Mrd Transistoren (Zen 3 CCD als Basis, wo 32MB anstatt 16MB drauf sind)
- Total ~55 Mrd
Das ist mMn sogar eine recht konservative Schätzung (heisst viele Transistoren). Wären ~2x so viel wie bei N21, trotz weniger Infinity Cache und entschlackten Shader-Engines.
Sunrise
2022-09-23, 15:32:06
Lustig würde ich es ja finden wenn AMD nicht die Performance von NV erreicht. Mit einem hochkomplexen Chip und 384Bit, so von wegen Preise.
Und wenn ich schaue wie extrem selbstbewusst NV in dieser Generation vorgeht, würde ich definitiv nicht zu viel erwarten.
Ich glaube die meisten AMD Jünger würden noch ohne AA zocken wenn sie damit schneller als NV wären ;)
AMD hat schon vor über einem Jahr gesagt das auch bei ihnen "Billig" vorbei ist.
Lustig finde ich auch das NV schuld an der Ramschwährung Euro ist und die 19% MwSt wohl auch. Ihr müsst nicht gegen NV hetzen, viel besser wäre eure Energie gegen eure Regierung gerichtet. Ihr verarmt ja nur noch, und begreift es nicht mal.
Viele die nur am Motzen sind, sind wohl auch immer die ersten, welche mangels alternativen, privaten Beschäftigungen auf den Bestellknopf drücken, sobald z.B. die 4090 vorgestellt wird.
Die Mentalität hat sich auch grundlegend geändert, damals hatte man 1000 DM für nen P3 ausgegeben, dazu noch ne Geforce 3 für 1200 DM und der gesamte PC hat 4500 DM gekostet (mit Monitor wohlgemerkt).
Ich glaub das einzige, was wirklich nervt ist, dass man bei der 4090 eben keinen vollen Chip bekommt, denn ansonsten kann ich das Teil sicher dermaßen undervolten, dass man damit sicher 2-3 Jahre wieder Spaß hat.
Wir müssen auf AMD warten, um das ganze mal ordentlich einordnen zu können. Die Zeiten von 649 EUR für ne quasi High-End SKU sind aber definitiv lange vorbei...
Meridian12
2022-09-23, 15:44:34
Lustig würde ich es ja finden wenn AMD nicht die Performance von NV erreicht. Mit einem hochkomplexen Chip und 384Bit, so von wegen Preise.
Und wenn ich schaue wie extrem selbstbewusst NV in dieser Generation vorgeht, würde ich definitiv nicht zu viel erwarten.
Ich glaube die meisten AMD Jünger würden noch ohne AA zocken wenn sie damit schneller als NV wären ;)
AMD hat schon vor über einem Jahr gesagt das auch bei ihnen "Billig" vorbei ist.
Lustig finde ich auch das NV schuld an der Ramschwährung Euro ist und die 19% MwSt wohl auch. Ihr müsst nicht gegen NV hetzen, viel besser wäre eure Energie gegen eure Regierung gerichtet. Ihr verarmt ja nur noch, und begreift es nicht mal.
Was verstehst du unter "Performance nicht erreicht"? Und auf welche Karte bezogen?
Das der Navi 31 nicht die 4090ti schlägt? Glaube das erwartet niemand.
Und 95% Performance der 4090 für 1200 Euro, wäre das für dich nicht erreicht?Also Schrottkarte?
Ich persönlich rechne sogar damit, dass erst mit dem nächsten AMD Chip das Potential der Architektur zum tragen kommt.
Wenn was extrem neue Wege geht, dann ist die 1.0 Version oftmals eher Übung,siehe DLSS1 zu DLSS2. (wobei das ja Software ist,aber nur als Vergleich)
So oder so, kommt es dir nicht merkwürdig vor, dass NVIDIA ständig nur DLSS3 als Perfomancebalken gebracht hat?
Warum? Weil man ohne UPSACLER keine schöne 2-4x Perfomance Angaben für die NVIDIA Fanboys gehabt hätte?
Redneck
2022-09-23, 15:50:41
Was verstehst du unter "Performance nicht erreicht"? Und auf welche Karte bezogen?
Das der Navi 31 nicht die 4090ti schlägt? Glaube das erwartet niemand.
Und 95% Performance der 4090 für 1200 Euro, wäre das für dich nicht erreicht?Also Schrottkarte?
Ich persönlich rechne sogar damit, dass erst mit dem nächsten AMD Chip das Potential der Architektur zum tragen kommt.
Wenn was extrem neue Wege geht, dann ist die 1.0 Version oftmals eher Übung,siehe DLSS1 zu DLSS2. (wobei das ja Software ist,aber nur als Vergleich)
So oder so, kommt es dir nicht merkwürdig vor, dass NVIDIA ständig nur DLSS3 als Perfomancebalken gebracht hat?
Warum? Weil man ohne UPSACLER keine schöne 2-4x Perfomance Angaben für die NVIDIA Fanboys gehabt hätte?
Lass doch mal das Fanboy Dingens.. Das bringt doch nicht weiter.
Es ist auch völlig Wumpe, was wir hier schreiben, weil der Markt es ohnehin richten wird. Der Markt für Grakas in diesem Preissegment dürfte relativ überschaubar sein weswegen es auf die 4050/60/70 ankommt und die muessen sich bewähren und entsprechend bepreist sein
prinz_valium_2
2022-09-23, 15:55:51
Nein, wer es noch immer nicht begriffen hat:
Sie bieten die Karten nur so an, ohne Kaufverpflichtung. :rolleyes:
Wer nicht mag, behält halt seine alte Karte und lebt weiter. Davon geht die Welt nicht unter.
Es kann sich nicht jeder immer unnötige Luxusartikel leisten. So funktioniert das einfach nicht.
Ich verstehe wie die Marktwirtschaft funktioniert.
Und genau das ist der Grund weswegen ich von immer nVidia GPUs auf wahrscheinlich nie wieder nVidia GPUs umspringen werde.
Mir als Kunde ist ein gutes Produkt zu einem guten Preis wichtig.
Zur Not geht auch ein gutes Produkt zu einem schlechten Preis, oder ein schlechtes Produkt zu einem guten Preis.
nVidia geht aber leider den Weg ein schlechtes Produkt zu einem schlechten Preis anzubieten.
Das mögen andere Marktteilnehmer nicht so sehen, aber wir sehen dann in den nächsten 5 Jahren, wer Recht behält.
Pumpi74
2022-09-23, 16:22:25
GTX1080 hatte mit GP104 auch nur einen 292mm^2 Chip.
Das ist ein sehr guter Punkt, und damit kann man eigentlich auch die Preisfrage abschließen. Denn da Pascal als fair bepreist galt und wir in den letzten 6 Jahren eine heftige Inflation hatten, ist der Preis der 4080 12GB eigentlich ausreichend gerechtfertigt. Man hätte in der Zeit eher 200% mehr RZ-Leistung erwartet, statt der 150%, nur dafür gibt es eben auch RTX und DLSS satt. Ob es einem passt oder nicht ist ne andere Frage.
Es dauert heute einfach länger bis die Preise pro Leistung runter gehen. Immerhin gehen sie noch runter. Das schöne ist das man auch tolle 1440p Monitore mit HDR bekommt. Dafür reicht eine RTX 3080 12GB noch lange. Letztere wird man schon bald für um die 600€ bekommen. also alles gut.
basix
2022-09-23, 16:23:18
Statt also sich über den Namen so dermaßen aufzuregen, sollte er den Leser eher mal kommunizieren, was Inflation ist.
Mit alles auf Inflation abzuschieben machst du dir es aber doch allzu einfach. Man kann es drehen und wenden wie man will: Die 4080 12GB/16GB sind bezüglich Perf/$ einfach schwach.
GA102 = 628mm2 Samsung 8nm
AD104 = 295mm2 TSMC N4
AD103 = 379mm2 TSMC N4
3080 10GB = 699$
4080 16GB = 1199$
4080 12GB = 899$
Hinsichtlich Chipgrösse, Speichermenge und Preis sind die beiden 4080er sehr vergleichbar aufgestellt. Ist in allen Metriken in etwa +33%.
Jetzt, selbst wenn dass 300mm2 Die von AD104 gleich teuer wie GA102 sein sollte, da TSMC und N4 (>2x so teuer pro mm2), ist der Preis von 899$ immer noch zu hoch. Die +200$ sind wegen nur +2GByte Speicher und erhöhten Speicherpreisen nicht erklärbar. Dazu die potentiell geringeren Kosten für PCB, Elektronik und Kühler, welche auch bei den momentan hohen Material-Preisen nicht einen so hohen Preisunterschied ausmachen können.
AMD bietet N22 mit 12GByte für 479$ an. Die neuesten Preise sind sogar auf 379$ gefallen. Da müsste N4 verglichen mit N7 sowie G6 vs. G6X mehr als doppelt so teuer sein, um den Preispunkt hinsichtlich der Produktionskosten rechtfertigen zu können. Entweder zieht Nvidia also massive Margen ab, oder Lovelace ist ein massives Fehldesign hinsichtlich Komponenten- und Produktionskosten.
Das ist ein sehr guter Punkt, und damit kann man eigentlich auch die Preisfrage abschließen. Denn da Pascal als fair bepreist galt und wir in den letzten 6 Jahren eine heftige Inflation hatten, ist der Preis der 4080 12GB eigentlich ausreichend gerechtfertigt.
Dir ist hoffentlich bewusst, dass Pascal einen starken Preisanstieg pro [mm2] verglichen mit Maxwell mitbrachte. Und mit Einführung von Pascal die Gewinne von Nvidia durch die Decke gingen.
Redneck
2022-09-23, 16:37:22
wir in den letzten 6 Jahren eine heftige Inflation hatten,
Wie bitte? Die muss völlig am mir vorbei gegangen sein. Das fing doch alles erst mit dem Ukraine Krieg und der damit verbundenen Energie Knappheit an.. Aber ok.. Zu sehr OT
Sunrise
2022-09-23, 16:39:38
Dir ist hoffentlich bewusst, dass Pascal einen starken Preisanstieg pro [mm2] verglichen mit Maxwell mitbrachte. Und mit Einführung von Pascal die Gewinne von Nvidia durch die Decke gingen.
Korrekt, der Shitstorm war dementsprechend.
Die Erklärung war: GP104 ist jetzt High-End und High-End ist teuer! :D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.