Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Troyan
2022-10-01, 10:56:53
Gesamtscore. Die Einzeltests varieren von 0 Mehrleistung bis zu 2x.
Badesalz
2022-10-01, 11:08:16
https://videocardz.com/newz/geforce-rtx-4090-is-60-faster-than-rtx-3090-ti-in-geekbench-cuda-test
Hier steht was von +60% zur 3090ti...Die, wie auch wccftech erfüllen die ihnen aufgetragenen Aufgaben. Richtig?
edit:
Mit 7950X auf X670E :up: Im Schnitt +60% für nen vollen Trolli 50€ Scheine :tongue: :wink:
Sardaukar.nsn
2022-10-01, 11:14:20
2-4X faster :freak:
Badesalz
2022-10-01, 11:51:53
Quelle? Welcher Test?
Slipknot79
2022-10-01, 11:52:52
Schnäppchen - Schnäppchen - Schnäppchen :D
https://pics.computerbase.de/1/0/5/1/9/5-8c748eedb342e8c4/1-2160.e03611e5.png
https://pics.computerbase.de/1/0/5/1/9/5-8c748eedb342e8c4/2-2160.aab61200.png
PicLinks bei CB ausgeliehen.:smile:
Die Strix hat 500EUR Aufpreis. Die kann man sich sparen in dem man ein Einstiegsmodell kauft und für die 500EUR kann man sich ne Wakü zusammenbasteln, man hat dadurch ein leiseres Teil verbaut oder man erhält mehr MHz als mit der Strix. (y) Obwohl, könnte knapp werden mit den 500EUR, aber selbst wenn es etwas moar ist, man hat dann einfach eine Wakü mit ihren Vorteilen. (y)
Thunder99
2022-10-01, 11:53:56
Bezüglich Preis, TSMC hat wohl auch seinen Anteil dran warum die Karten so viel teuerer sind.
Erwarte dennoch die 4080 16GB längerfristig unter 1000€.
OgrEGT
2022-10-01, 11:57:44
Die, wie auch wccftech erfüllen die ihnen aufgetragenen Aufgaben. Richtig?
edit:
Mit 7950X auf X670E :up: Im Schnitt +60% für nen vollen Trolli 50€ Scheine :tongue: :wink:
Da steht +60% Gesamtscore und das die Ergebnisse nicht auf Gaming übertragbar sind... mehr kann und sollte man aus diesem Score nicht herauslesen...
Troyan
2022-10-01, 12:01:59
Bezüglich Preis, TSMC hat wohl auch seinen Anteil dran warum die Karten so viel teuerer sind.
Erwarte dennoch die 4080 16GB längerfristig unter 1000€.
Sind ja nur 100€... Sobald Early Adapters abgezogen sind, wird der Preis fallen.
/edit: Arg, 16GB. Ne, die wirst du nicht unter 1000€ bekommen.
Badesalz
2022-10-01, 12:06:52
Da steht +60% Gesamtscore und das die Ergebnisse nicht auf Gaming übertragbar sind...
Das ist richtig. Das geht erst mit 3dmark :ulol:
mehr kann und sollte man aus diesem Score nicht herauslesen...
Findest du?
Thunder99
2022-10-01, 12:07:24
Sind ja nur 100€... Sobald Early Adapters abgezogen sind, wird der Preis fallen.
/edit: Arg, 16GB. Ne, die wirst du nicht unter 1000€ bekommen.
Nicht ausgeschlossen, wenn die AMD Karten stark werden :)
Troyan
2022-10-01, 12:19:15
Die Karte müsste deutlich günstiger sein als die $1199 in Amerika.
Hatten wir den Vergleich zwischen FE Kühler der 4090 und 3090TI schon?
https://i.redd.it/74vv7e2xn1r91.png
Sardaukar.nsn
2022-10-01, 12:41:47
Ich glaube die Ära der luftgekühlten Grafikkarten geht so langsam zu Ende.
https://i.imgur.com/eREEpuN.png
basix
2022-10-01, 12:50:53
Holy :D
2-4X faster :freak:
...in future Games ;)
Die Karte müsste deutlich günstiger sein als die $1199 in Amerika.
Hatten wir den Vergleich zwischen FE Kühler der 4090 und 3090TI schon?
https://i.redd.it/74vv7e2xn1r91.png
Neben grösserem Lüfterdurchmesser auch ander Geometrie der Lüfterblätter. Interessant.
robbitop
2022-10-01, 12:58:46
Soweit ich weiß ist der Durchmesser der Lüfter gewachen. Entsprechend legt man den Lüfter anders aus - es sind weniger Rotorblätter geworden und entsprechen muss die Geometrie dann auch angepasst werden.
So interessant das sein mag - da gibt es so viele Innovationen nicht mehr. Das ist einfach eine andere Auslegung des FANs.
unl34shed
2022-10-01, 13:05:53
Bezüglich Preis, TSMC hat wohl auch seinen Anteil dran warum die Karten so viel teuerer sind.
Erwarte dennoch die 4080 16GB längerfristig unter 1000€.
TSMC kann teurer sein, will ich nicht abstreiten, dass die Karten so viel teurer sind ist aber pure Gier und der Glaube Nvidias, das ihre Kunden Vollidioten sind. Anders kann man es eigentlich nicht erklären...
Mit dem größeren Kühler durch den hohen Verbrauch und meinet wegen durch TSMC sind 100$, vielleicht auch noch bis zu 200$ mehr, noch zu rechtfertigen, hier sind es aber 600$ und mehr!
Die 4080 16GB bekommt mit AD103 nicht mehr den größten Die, dieser ist mit 380mm² mit GA104 (390mm²) vergleichbar. GA104 Karten wurde zwischen 399$ und 599$ bepreist, mit TSMC sollen es jetzt 1199$ sein, also 2-3x... :confused:
Da die 4080 ein auf 90% beschnittenen Chip nutzt kann man sie wohl mit der 3070 und 499$ MSRP vergleichen, also eine Preiserhöhung um Faktor 2,4 (+700$ oder +140%).
Ja man bekommt 8GB mehr, aber die kosten nicht mal 100$...
Gleiches Spiel mit der 4080 12GB, noch ein kleinerer Chip mit AD104 (295mm²), der fast gleich groß ist wie GA106 (280mm²). Hier hatten GA106 Karten eine MSRP von 250$ bis 330$ mit AD104 sind jetzt 899$, also das 2,72-3,6x ... :freak:
Hier hat man mit der 3060 ebenfalls 12GB aber nicht den vollen Die für 330$ bekommen. Also eine 2.72x Preiserhöhung (+570$ oder +172%).
Der Vollständigkeit halber noch die 4090, hier hat man mit AD102 und GA102 ebenfalls vergleichbar Größen mit etwas über 600mm², GA102 gab es Karten zwischen 699$ und 1999$, die Karte mit 90% der SMs war die 3080 12GB und hat 799$ gekostet, also auch hier eine Preiserhöhung um Faktor 2 (+800$ oder +100%).
Und das sind wohlgemerkt die Preise für die ganze Karte, der Chip ist nur ein Teil davon! Wenn es TSMCs Schuld wäre, müssten sich die Waferkosten im Vergleich zu Samsung mehr als vervierfacht haben. Dagegen sprechen aber die Chips in gleicher Größe und Preis zu Ampere von AMD und Intel, die bei TSCM gefertigt werden. Wenn man also in 7nm gleich teuer bei TSMC iwe 8nm Samsung produzieren kann, werden 5nm nicht um Faktor 4+ teurer geworden sein. Auch ist Ryzen 7000 nicht wirklich teurer geworden obwohl ja 5nm genutzt wird.
PS: Ja, es ist bei den Vergleichen GDDR6X vs GDDR6 aber wenn Nvidia hier 100te Dollar mehr pro GB zahlen sollte ist das ihr Problem.
r3ptil3
2022-10-01, 13:09:15
Die 60% waren ja genau das, was man hier ja auch erwartet hat.
Nicht mehr und nicht weniger.
Was ich an den Riesen-Kühlern gut finde: Wenn ich die Karte nach meinen persönlichen Wünschen auslege, ist der Kühler dann praktisch lautlos.
Habe ich das richtig in Erinnerung, dass mit einem nativen 12VHPWR-Anschluss, die Stromversorgung intelligenter funktioniert? Sprich gerade starke Spannungsänderungen etc. besser geregelt werden können?
Müsste vielleicht auch am IDLE-Verbrauch eine Rolle spielen.
Troyan
2022-10-01, 13:12:35
Mit Raytracing in 4K liegt der Unterschied eher bei 2x. Da ist einfach viel mehr Last vorhanden. In Portal RTX ist die 4090 mit DLSS Performance >75% schneller als die 3090TI.
Wir befinden uns immer noch im Übergang vom puren Rasterizing zu Hybrid-Rendering.
unl34shed
2022-10-01, 13:15:38
Troyan +75% sind 1.75x nicht 2x und weit weg von 4x :wave:
Troyan
2022-10-01, 13:17:37
Troyan +75% sind 1.75x nicht 2x und weit weg von 4x :wave:
Trollo, DLSS Performance skaliert aus 1080p hoch.
Deine Postings nerven nur noch.
basix
2022-10-01, 13:26:53
Deine Postings nerven nur noch.
Glashaus und so :rolleyes:
Slipknot79
2022-10-01, 13:33:54
Bezüglich Preis, TSMC hat wohl auch seinen Anteil dran warum die Karten so viel teuerer sind.
Erwarte dennoch die 4080 16GB längerfristig unter 1000€.
Ich bin mir sicher, dass Lederjacke hier ne dicke Marge draufballert. Das hat sich schon bei der 3090Ti gezeigt. Aus 2200EUR werden plötzlich 1300EUR und das nur weil die Miner weggebrochen sind.
Wir können davon ausgehen, dass die 4090 auch gute 700-800EUR Luft nach unten hat, locker. Lederjacke probiert aber erstmal 2k aus.
Das liegt sicher nicht hauptsächlich an TSMC.
Ich bin noch hin- und hergeRYZEN, zwischen "die Preise werden nicht halten, wo sind die Miner? Außerdem kaum Interesse an den 1300EUR Karten, Lager sollen ja voll sein" und "die Preise werden halten, kaum Stückzahlen".
Ich warte also noch up auf den AMD Move. Ende Nov bis Mitte Dez kann ich dann entscheiden und bis dahin auch die Nachrichtenlage zur Verfügbarkeit vs Interesse verfolgen.
Die Preise stören mich ja nicht mal. Es stört mich nur, wenn ich das Teil um 2k kaufe und 3 Sekunden später kommt nen drop auf 1400EUR. (y)
ChaosTM
2022-10-01, 13:35:38
Alle die deinen Götzen (oder Arbeitgeber?) NV auch nur minimal kritisieren nerven dich.
Und sollte DLSS 3 wirklich wie angekündigt (bei mehr als einer handvoll Spiele) funktionieren.
Wäre das in der Tat ein sehr starkes Kaufargument. Speziell mit Blickrichtung VR fast unbezahlbar.
Meridian12
2022-10-01, 13:42:50
Und sollte DLSS 3 wirklich wie angekündigt (bei mehr als einer handvoll Spiele) funktionieren.
Wäre das in der Tat ein sehr starkes Kaufargument. Speziell mit Blickrichtung VR fast unbezahlbar.
Wenn es dort überhaupt funktioniert.
Irgendwo stand, dass das in VR nicht funktioniert, weil da die beiden Linsen zeitlich etwas verschoben berechnet werden (sowas in der Art).
Hoffe ja das war eine Falschmeldung,weil dort ja fast 4K zweimal gerendert werden muss.
Deswegen will ich auch reine 4K Tests ohne DLSS ,RT usw haben.
Ich wil sehen was die Karte kann und nicht, wie toll sie um Upsacling ist.
Redneck
2022-10-01, 13:43:16
Die Preisdiskussion ist müssig.. Entweder man hat das Geld oder eben nicht. Dann muss man nur die inneren und/oder äußeren Widerstände überwinden (ich erinnere mich noch, als ich damals die 6900 von nem scalper geholt habe und meine Frau mich fragte, wieviel ich dafür ausgegeben hätte und die mich dann wie ein Pferd angeschaut hat, als ich ihr den Preis nannte. Da kam ich mir selber wieder etwas blöd vor.. Wurde dadurch wieder etwas geerdet).
basix
2022-10-01, 13:44:12
Ich sehe auch VR als mögliche Killerapplikation für DLSS3. Motion Sickness und so. Mit 70-80fps rendern und 144Hz Ausgabe wäre so denkbar. Ich kann aber nicht beurteilen, ob Input Lag bei VR eine grosse Rolle spielt.
Linmoum
2022-10-01, 13:51:49
Entweder man hat das Geld oder eben nicht.Also das ist ja nun wirklich Quatsch.
Oder würdest du dir auch eine kleine 150g Tüte Gummibärchen für 15€ kaufen, weil du das Geld ja hast? Nur weil man etwas hat, muss man trotzdem nicht ein offensichtlich maßlos überteuertes Produkt kaufen.
Meridian12
2022-10-01, 13:54:00
Wegen VR will ich mir ja eine 4090 zulegen. Aber nicht zu dem Preis. VR ist sooo ein Wahnsinn,wenn man es mal erlebt hat.
Spiele gerade HL2 in VR, das ist so dermassen was anderes wie auf dem Monitor. Hammer.
Jetzt wo die neue Playstation Brille rauskommt,dazu Apple auf den VR Zug aufspringt, wird VR wohl immer wichtiger werden und somit auch hoffentlich immer wichtiger für AMD und NVIDIA bei der Entwicklung ihrer Brillen.
Troyan
2022-10-01, 13:55:03
Also das ist ja nun wirklich Quatsch.
Oder würdest du dir auch eine kleine 150g Tüte Gummibärchen für 15€ kaufen, weil du das Geld ja hast? Nur weil man etwas hat, muss man trotzdem nicht ein offensichtlich maßlos überteuertes Produkt kaufen.
Deswegen warten die Leute auch auf Raptor Lake. :cool:
FastAndy
2022-10-01, 14:20:24
60% auf die 3090 fände ich schon mega.:smile:
Nur weil man etwas hat, muss man trotzdem nicht ein offensichtlich maßlos überteuertes Produkt kaufen.
Die Karten sind für viele nicht maßlos überteuert, sondern gerechtfertigt. Das verstehen einige hier nicht und werden dann noch beleidigend ("Vollidioten" etc).
ChaosTM
2022-10-01, 14:26:50
Deswegen warten die Leute auch auf Raptor Lake. :cool:
ich persönlich würde als Spieler eher auf die "3D"s warten.
neue Plattform vs. Auslaufmodell.
Blase
2022-10-01, 14:35:30
Mit Raytracing in 4K liegt der Unterschied eher bei 2x. Da ist einfach viel mehr Last vorhanden. In Portal RTX ist die 4090 mit DLSS Performance >75% schneller als die 3090TI.
Wir befinden uns immer noch im Übergang vom puren Rasterizing zu Hybrid-Rendering.
Habe ich vielleicht die eine oder andere Seite hier überlesen...
... aber wer von den potenziellen 4090 Käufern spielt denn überhaupt mit DLSS@Performance? :freak: Wo sind die DLSS@Quality Vergleiche?
Ist ja so, als ob man sie in 1080p Auflösung anschaut und dann darauf großartig Rückschlüsse zieht. Kann man machen - geht nur sicherlich am Gros der tatsächlichen Käuferschaft vorbei...
MfG Blase
Dito, hier auch VR. Die 3090 ist schon verkauft, da ich jedes % Leistung brauche, auch wenns teuer erkauft ist :-/
Frag mich jetzt nur, ob AMD diesmal in Raster erheblich schneller werden könnte als NV. Fürchte, die 4090 wird an der Bandbreite hängen. Hitrate des Caches wird bei 2x6400x4200 Pixel sicher nicht berauschend sein. Brauche für DCS eigentlich nur Rohleistung, im FS2020 könnte DLSS3 interessant werden, so es denn mit VR funktioniert. Wobei die Zwischenbildberechnung der Brille/VR-Software ja zumindest die Kopfbewegung berücksichtigt, selbst wenn das Game selbst langsam läuft. Da DLSS3 das sicher nicht kann, funktionierts für VR dann leider nicht so gut bzw. zwar flüssig aber mit Übelkeit.
TobiWahnKenobi
2022-10-01, 15:44:00
kann man sich so sehr beim HMD vergreifen, dass leidensdruck entsteht ? LOL - mein beileid zu deiner VR wahl.
(..)
mfg
tobi
Troyan
2022-10-01, 15:53:46
Habe ich vielleicht die eine oder andere Seite hier überlesen...
... aber wer von den potenziellen 4090 Käufern spielt denn überhaupt mit DLSS@Performance? :freak: Wo sind die DLSS@Quality Vergleiche?
Ist ja so, als ob man sie in 1080p Auflösung anschaut und dann darauf großartig Rückschlüsse zieht. Kann man machen - geht nur sicherlich am Gros der tatsächlichen Käuferschaft vorbei...
MfG Blase
Wenn nichts übrig bleibt?! :eek:
Habe Control mit Raytracing auf meinem 4K Monitor und 2080TI mit DLSS Performance gezockt, weil Raytracing viel mehr zur Bildqualität beigetragen hat als native Auflösung (spartiales Upscaling ist keine Alternative).
DLSS Performance war ein Beispiel, weil DigitalFoundry nur das als Preview verwenden dürfte. Aber ich glaube nicht, dass viele Cyberpunk mit weniger als 40FPS in 4K zocken würden...
30 FPS sind am PC nicht hinnehmbar. Zockt sich ja richtig mies mit Maus und Keyboard.
basix
2022-10-01, 16:19:37
... aber wer von den potenziellen 4090 Käufern spielt denn überhaupt mit DLSS@Performance? :freak: Wo sind die DLSS@Quality Vergleiche?
Ist ja so, als ob man sie in 1080p Auflösung anschaut und dann darauf großartig Rückschlüsse zieht. Kann man machen - geht nur sicherlich am Gros der tatsächlichen Käuferschaft vorbei...
Gibt auch >4K und dann DSR ;)
Thunder99
2022-10-01, 16:31:24
Habe ich vielleicht die eine oder andere Seite hier überlesen...
... aber wer von den potenziellen 4090 Käufern spielt denn überhaupt mit DLSS@Performance? :freak: Wo sind die DLSS@Quality Vergleiche?
Ist ja so, als ob man sie in 1080p Auflösung anschaut und dann darauf großartig Rückschlüsse zieht. Kann man machen - geht nur sicherlich am Gros der tatsächlichen Käuferschaft vorbei...
MfG Blase
Marketing halt. 4x mehr liest sich besser als nur 2.3
DrFreaK666
2022-10-01, 17:38:05
Habe ich vielleicht die eine oder andere Seite hier überlesen...
... aber wer von den potenziellen 4090 Käufern spielt denn überhaupt mit DLSS@Performance? :freak: Wo sind die DLSS@Quality Vergleiche?
Ist ja so, als ob man sie in 1080p Auflösung anschaut und dann darauf großartig Rückschlüsse zieht. Kann man machen - geht nur sicherlich am Gros der tatsächlichen Käuferschaft vorbei...
MfG Blase
Die Benchmarks kommen sobald Nvidia ihre Finger nicht mehr im Spiel hat. Also schon am Mittwoch
Nazar
2022-10-01, 18:19:31
Alle die deinen Götzen (oder Arbeitgeber?) NV auch nur minimal kritisieren nerven dich.
Und sollte DLSS 3 wirklich wie angekündigt (bei mehr als einer handvoll Spiele) funktionieren.
Wäre das in der Tat ein sehr starkes Kaufargument. Speziell mit Blickrichtung VR fast unbezahlbar.
DLSS in VR ist noch "sinnvoller" als in Spielen.
In der VR möchte man crisp & sharp und DLSS ist das genaue Gegenteil davon.
Es ist einfach nur verwaschen. Die immer noch teilweise vorhanden Bildartefakte und das Bewegungsschmieren tun dann den Rest, damit man von DLSS in der VR einen möglichst großen Abstand gewinnt.
Was in 2D für einige noch funktionieren mag, wird in VR wohl eher zu Kotzorgien führen. ;)
kann man sich so sehr beim HMD vergreifen, dass leidensdruck entsteht ? LOL - mein beileid zu deiner VR wahl.
(..)
mfg
tobi
Meinst Du mich? Was will man machen... mit Schlüsselloch-FoV oder VGA Auflösung will ich nicht spielen. Freue mich schon auf die nächste Generation HMDs, auch wenn die Grafikkarten hinterher hinken.
aufkrawall
2022-10-01, 18:28:14
Dumm nur, dass nativ TAA meist noch viel verwaschener ist. Aber das kapieren die Hater nicht...
ChaosTM
2022-10-01, 18:29:59
Dumm nur, dass nativ TAA meist noch viel verwaschener ist. Aber das kapieren die Hater nicht...
Das müsste man allgemein bekannter machen. TAA ist leider meistens Müll
Nazar
2022-10-01, 18:30:05
Wir befinden uns immer noch im Übergang vom puren Rasterizing zu Hybrid-Rendering.
Egal was du nimmst, die Dosierung passt nicht. ;)
E: Das ist es doch, worum es hier geht, und was ändert es jetzt an der Tatsache, dass die Leistung der GPUs dafür auch noch 10 Jahre nicht ausreichend ist, und man Stilmittel verwenden muss, welche die angebliche Verbesserung der BQ ins Absurde abdriften lässt?
Dumm nur, dass nativ TAA meist noch viel verwaschener ist. Aber das kapieren die Hater nicht...
Aber die Hater
1. können lesen
2. wissen, dass eine Relativierung über ein anderes Übel kein Argument ist
und
3. wissen, dass das nichts an der Tatsache ändert, dass für VR nur pure RZ Leistung zählt. ;)
iamthebear
2022-10-01, 18:34:11
Die Schärfe ist bei DLSS deutlich höher als klassische Renderingmethoden.
Was die Artefakte angeht: Manchmal sind diese mehr als mit Native, manchmal aber auch deutlich weniger. TAA ghosted je nach Spiel teilweise enorm.
Wo ich jedoch meine Bedenken habe ist Frame Generation mit DLSS 3.0. Der erhöhte Input Lag wird sich in VR bestimmt nicht toll anfühlen.
aufkrawall
2022-10-01, 18:44:16
2. wissen, dass eine Relativierung über ein anderes Übel kein Argument ist
Ist keine Relativierung, sondern das Entlarven der Alternativen als eben keiner. Entweder Ameisenhaufen ohne AA oder mit Steinzeit-MSAA, beruhigte Matsche durch TAA, oder ein schlaueres TAA/U mit DLSS2/FSR2 mit unterm Strich häufig besserer BQ bei gleichzeitig höherer Performance. So siehts nun mal aus, auch wenn das nicht in dein Weltbild passt...
Dass mehr Lag durch DLSS 3 insbesondere bei VR Murks ist, ist klar.
ChaosTM
2022-10-01, 18:50:15
Ist keine Relativierung, sondern das Entlarven der Alternativen als eben keiner. Entweder Ameisenhaufen ohne AA oder mit Steinzeit-MSAA, beruhigte Matsche durch TAA, oder ein schlaueres TAA/U mit DLSS2/FSR2 mit unterm Strich häufig besserer BQ bei gleichzeitig höherer Performance. So siehts nun mal aus, auch wenn das nicht in dein Weltbild passt...
Dass mehr Lag durch DLSS 3 insbesondere bei VR Murks ist, ist klar.
Wenn es bei den 3ms bleibt, wäre ich hoch erfreut..
teezaken
2022-10-01, 18:56:06
ich finde DLSS in vielen Spielen sehr gut, auch besser als Nativ und nutze es eigentlich fast immer.
Aber leider haben wir auch Spiele wie Cyberpunk wo DLSS eine Lightshow abliefert und Bloom und Blendeffekte einfügt wo keine hinsollten (ist die FSR 2 mod da besser?), auf der anderenseite ghostet das TAA extrem bei manchen Objekten.. man kann also nicht gewinnen egal was man nimmt in manchen Games.
In Control sieht aber DLSS, auch wenns nur version 2.2 ist, imo besser aus als Nativ @ Quality.
Alles ausgehend von 4k.
TobiWahnKenobi
2022-10-01, 19:04:54
Meinst Du mich? Was will man machen... mit Schlüsselloch-FoV oder VGA Auflösung will ich nicht spielen. Freue mich schon auf die nächste Generation HMDs, auch wenn die Grafikkarten hinterher hinken.
ja sicher dich.. ich habe über die jahre geschätzt 120 VR titel zusammengekauft. für PC und PS.. mein oculus-ordner ist mit 800GiB daten zugemüllt. wirklich gespielt habe ich davon nix.. reingeschaut und gut.. und das hatte so absolut gar nichts mit der darstellung zu tun. einzig beat saber starte ich ab und zu noch, aber das braucht nun wirklich keine mördergraka.
ich find's überbewertet.. also das VR gelumpe allgemein.. hatte nie das gefühl dass irgendwo leistung fehlt. ich hatte allerdings schon seit dekaden keine kleinen grafikkarten mehr. wenn ich eine neue haben möchte, kaufe ich das größte modell und fertig.. ich begründe das aber immer mit "kauf aus gewohnheit".. also nicht weil ich irgendwo meine, die potenzielle leistung für irgendwas zu brauchen. bin halt gelegenheitsspieler mit wenig zeit, und zuviel spielzeug :)
(..)
mfg
tobi
ChaosTM
2022-10-01, 19:12:53
Schön für dich und deine VR Spiele.
Um den FS2020 in VR genießen zu können wir/kann man gar nicht genug FPS haben.
Oculus VR is lieb, Hat/haben aber mit einer echten VR Experience wenig zu tun.
TobiWahnKenobi
2022-10-01, 19:19:31
puh.. halte ich auch für übertrieben. ich habe alle VR HMDs, die ich nach der rift gekauft habe wieder zurückgegeben. war mir keinen aufpreis wert. aber mag hinhauen.. wenn man diesen flightsim spielen möchte braucht man leistung. nur warum will man den spielen? das spiel ist müll.
edit:
ich schaue mir das nächste woche mal an (gern auch in VR) - habe von montag bis sonntag frei..
(..)
mfg
tobi
crux2005
2022-10-01, 19:29:31
nur warum will man den spielen? das spiel ist müll.
(..)
mfg
tobi
FS2020 ist mehr oder weniger Müll der aber excellent aussieht. Für die meisten Hobbyflieger reicht das.
Alle die es seriöser wollen fliegen richtige Sims.
Edgecrusher86
2022-10-01, 19:30:26
Naja, um es mal provokativ auszudrücken, die 4090 ist nicht das High End wie beim TV Vergleich. Das wäre dann eher der Vollausbau. Die 4090 ist hier das 83-er Model, die 97 Zoll Version kommt erst noch, dann als Titan. Die Preise dafür könnten dann leicht Richtung 3500 Euro gehen.
Aber macht eh keinen Sinn drüber zu reden da dank Ampere die Preise verzerrt sind. Das haben wir im TV Bereich ja so nicht. ok, genug getrollt... :D
Ich würde eher gleich auf $3999 MSRP wetten. :freak:
Vielleicht weniger, sollte das als 4090 Ti kommen, als TITAN aber bestimmt deutlich über der TITAN RTX oder V.
ChaosTM
2022-10-01, 19:30:57
FS2020 ist mehr oder weniger Müll der aber excellent aussieht. Für die meisten Hobbyflieger reicht das.
Alle die es seriöser wollen fliegen richtige Sims.
Und das wären ?
Ex3cut3r
2022-10-01, 19:59:21
Müll ist ein heftiges Wort, ich wurde einfach sagen, es ist nicht so gut programmiert. Denn selbst mit DX12 spuckt das Teil nicht viel wanhsinnig mehr FPS als mit dem DX11 Pfad aus.
Dampf
2022-10-01, 20:00:14
Für das, was on Display ist, läuft es doch echt super.
MiamiNice
2022-10-01, 20:21:33
Und das wären ?
Falcon 4.0 mit BMS Update
DCS a.k.a. Digital Combat Simulator
Halt Spiele die weniger mit Grafik blenden dafür mit dem Sim Aspekt und Gameplay überzeugen.
Ich empfinde den FS auch als technisch massiv unzulänglich. Wobei das noch geschönt für unmöglich ist.
Persönlich finde ich ihn auch langweilig, weil man keine Action hat. Allerdings vermittelt der FS schon eine Stange Wissen (das vergessen die Profis gerne), deswegen ist er imo nicht Müll. Ansonsten würde ich die Müll Aussage direkt unterschreiben.
PS: Der "Hobby FS Flieger" bekommt in den genannten Spielen meist nicht mal das Flugzeug vom Boden. Ohne Kumpels / YT Videos oder klassisch "bibeldicke" Handbücher studieren, geht g0r nichts in diesen Sims. Bzw. geht schon, mit RL Erfahrung XD
crux2005
2022-10-01, 21:03:59
Allerdings vermittelt der FS schon eine Stange Wissen (das vergessen die Profis gerne), deswegen ist er imo nicht Müll. Ansonsten würde ich die Müll Aussage direkt unterschreiben.
PS: Der "Hobby FS Flieger" bekommt in den genannten Spielen meist nicht mal das Flugzeug vom Boden.
Nein. Tut er nicht. Du kannst fast alles auf "AUTO" Einstellen dann hebt der Flieger er auch automatisch ab.
Badesalz
2022-10-01, 21:11:24
Mit Raytracing in 4K liegt der Unterschied eher bei 2x. Da ist einfach viel mehr Last vorhanden. In Portal RTX ist die 4090 mit DLSS Performance >75% schneller als die 3090TI.Was ist das? DLSS3 gibt es nicht für die 3000er. Was vergleicht man hier?
Sardaukar.nsn
2022-10-01, 21:14:06
Plant Nvidia vielleicht gar keine Mittelklasse mit der Ada Generation?
nVidia hat die RTX 4000er Karten ganz klar als Premiumsegment oberhalb der bestehenden RTX 3080/3070 und 3060 platziert. Das konnte man dieser Folie zur Vorstellung der RTX 4090+4080 entnehmen.
Das ist eine ganz klare Sache. Die "kleine" RTX 4080 bildet ab $899 die Untergrenze des Premiumsegments, die RTX 4080 mit 16GB die Mitte und die RTX 4090 rundet das Premiumsegment nach oben hin ab.
Und darunter geht es mit der RTX 3000er Serie weiter und zwar der RTX 3060/3070 und 3080 (die 3080Ti und 3090 fehlen vermutlich, weil die Überbestände hier vergleichsweise gering sind).
https://i.imgur.com/AOPvBjl.jpg
Plant Nvidia vielleicht gar keine Mittelklasse mit der Ada Generation?
Interessant. Auch eine Art, mittelfristig die Lager zu leeren.
Irgendwann kommt aber vermutlich schon die Ada Mittelklasse.
unl34shed
2022-10-01, 21:53:46
Ada Midrange ist die 4080 12GB für 899$ oder was sonst ist ein Chip mit weniger als der Hälfte an SMs von AD102?
=Floi=
2022-10-01, 21:58:32
kann man sich nicht leisten. Das waren immer imho über 80% des volumens.
Gerade bei den preisen der größeren karten und man darf die konsolen nicht vergessen!
Ihr unterschätzt auch marktanteil und das brand an sich.
Meridian12
2022-10-01, 22:29:22
Ada Midrange ist die 4080 12GB für 899$ oder was sonst ist ein Chip mit weniger als der Hälfte an SMs von AD102?
Aber wer kauft das Ding denn?? Kommt deswegen DLSS3, damit man einen Grund für die 4060ti hat zum 4080ti Preis?
Für 1100 Euro sind alle informiert über die Karte. Kurzum, jeder Käufer weiß dann, dass er ne 4060ti (lassen wir es ne 4070 halt sein) zum 4080er Preis gekauft hat.
Das er eine Fake 4080er Karte gekauft hat,die eigentlich ein beschissenes P/L hat.
Selbst wenn die Karte etwas schneller als eine 3090 ist, würde ich mich massiv wohler fühlen mit einer 3090 mit gleichem Preis. Weil das ist die Knallerkarte der letzten Generation.
Keine Ahnung ob das anderen auch so geht, aber ich würde mich niemals wohl fühlen mit einer 4080 mit 12GB ,weil ich mich ständig mit der Karte, auch wenn sie von der reinen Leistung sehr gut ist im Vergleich zur Amperegeneration, von NVIDIA verarscht und abgezockt fühlen würde.
iamthebear
2022-10-01, 22:30:58
Irgendwann muss Nvidia ja die Million Wafer, die sie bereits bezahlt haben bei TSMC auch abnehmen. Dagegen sind die Ampere Karten ja nahezu lächerlich.
Selbst wenn die Karte etwas schneller als eine 3090 ist, würde ich mich massiv wohler fühlen mit einer 3090 mit gleichem Preis. Weil das ist die Knallerkarte der letzten Generation.
Keine Ahnung ob das anderen auch so geht, aber ich würde mich niemals wohl fühlen mit einer 4080 mit 12GB ,weil ich mich ständig mit der Karte, auch wenn sie von der reinen Leistung sehr gut ist im Vergleich zur Amperegeneration, von NVIDIA verarscht und abgezockt fühlen würde.
Wie weiter vorne in diesem Thread gezeigt wurde, gab es 80er schon in diversen Leistungsklassen.
Die "Knallerkarte der letzten Generation" interessiert mich jetzt eben nicht, genausowenig die Bezeichnung.
Ich kaufe die Karte, die für WQHD und Raytracing sehr hohe Qualität bietet und das ausgewogenste P/L hat. Egal ob die nun 4080, 3090, 4060 Ti oder 4070 heißt. Oder evtl. gar von AMD sein wird...
Morgenlicht
2022-10-01, 23:51:06
Ein wenig Lektüre vor der Nachtruhe:
images.nvidia.com ... nvidia-ada-gpu-architecture.pdf (https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf)
Slipknot79
2022-10-02, 01:08:37
Ein wenig Lektüre vor der Nachtruhe:
images.nvidia.com ... nvidia-ada-gpu-architecture.pdf (https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf)
Die 2080Ti hat mehr tensor cores als jeweils die 3090Ti oder 4090 (Seite 13). Was das auch immer heißen mag. :redface:
Die 2080Ti hat mehr tensor cores als jeweils die 3090Ti oder 4090 (Seite 13). Was das auch immer heißen mag. :redface:
Schau dir die Specs an, die Tensor Cores von Turing sind trotzdem die langsamsten.
Bemerkenswert finde ich hingegen, dass Nvidia sich diesmal viel Luft für die 4090 Ti lässt. Der volle AD102 hat 18432 Shader, 144 RT Cores und 576 Tensor Cores. Nvidia wird sich den vollen AD102 wohl aber noch fürstlicher bezahlen lassen als den vollen GA102 :frown:
Gott1337
2022-10-02, 02:08:06
Die 2080Ti hat mehr tensor cores als jeweils die 3090Ti oder 4090 (Seite 13). Was das auch immer heißen mag. :redface:
Warum vergleichst du nicht einfach die Tensorleistung, dann wäre dein Post hinfällig
Nazar
2022-10-02, 02:10:05
Die Probleme von DLSS (Erhöhung des Lags, Smearing, Blurr), werden in der VR nochmals deutlich hervorgehoben, da man alles durch "Vergrößerungsgläser" sieht, also wie in den Vergleichsbildern, wo die Probleme erst so richtig in der Vergrößerung deutlich werden.
Ich persönlich lege darauf keinen Wert. ;)
Damit die Probleme von DLSS in den Hintergrund treten, und man es in der VR einsetzen könnte, ohne dass die bisherigen Probleme so verstärkt auffallen, muss die Auflösung nochmals erhöht werden. Das führt dazu, dass wir erst einmal viel mehr RZ Leistung für die VR benötigen (Faktor 2 bis 4). Aber sobald diese vorhanden ist, benötigen wir auch kein DLSS mehr.
Und wenn man um die Wichtigkeit von extrem niedrigen Frametimes in der VR weiß (< 10ms wären gut, 5ms optimal), dann ist eine Erhöhung der FT um "nur" 3 ms ein gewaltiger Batzen. FPS sind hierbei erstmal reine Nebensache. ;)
VR hat selber mit Smearing/Ghosting zu kämpfen, wenn dann noch DLSS Smearing und das Blurring dazu kommen, dann ist das einfach zu viel des Guten.
DLSS wäre in etwa so gut für VR wie V-Sync für 2D. Ich kann mir nicht vorstellen, dass sich das viele antun würden. ;)
Slipknot79
2022-10-02, 02:14:43
Schon klar, dass die Tensorleistung insgesamt offensichtlich höher ist.
Ist aber mehr die Frage, warum man nicht mehr tensor cores in die 3090Ti bzw 4090 reingeballert hat. Schneller und moar davon, warum nicht? Kann ja kein Platzmangel gewesen sein?
ChaosTM
2022-10-02, 02:42:50
Die Probleme von DLSS (Erhöhung des Lags, Smearing, Blurr), werden in der VR nochmals deutlich hervorgehoben, da man alles durch "Vergrößerungsgläser" sieht, also wie in den Vergleichsbildern, wo die Probleme erst so richtig in der Vergrößerung deutlich werden.
Ich persönlich lege darauf keinen Wert. ;)
Damit die Probleme von DLSS in den Hintergrund treten, und man es in der VR einsetzen könnte, ohne dass die bisherigen Probleme so verstärkt auffallen, muss die Auflösung nochmals erhöht werden. Das führt dazu, dass wir erst einmal viel mehr RZ Leistung für die VR benötigen (Faktor 2 bis 4). Aber sobald diese vorhanden ist, benötigen wir auch kein DLSS mehr.
Und wenn man um die Wichtigkeit von extrem niedrigen Frametimes in der VR weiß (< 10ms wären gut, 5ms optimal), dann ist eine Erhöhung der FT um "nur" 3 ms ein gewaltiger Batzen. FPS sind hierbei erstmal reine Nebensache. ;)
VR hat selber mit Smearing/Ghosting zu kämpfen, wenn dann noch DLSS Smearing und das Blurring dazu kommen, dann ist das einfach zu viel des Guten.
DLSS wäre in etwa so gut für VR wie V-Sync für 2D. Ich kann mir nicht vorstellen, dass sich das viele antun würden. ;)
DLSS 3 wäre praktisch der heilige Gral für alle VR User.
wenn sich das wirklich in 3ms abwickeln lässt -- GIB !
..auf den sinnfreien rest der textwand geh ich nicht ein - wie immmer
y33H@
2022-10-02, 08:27:16
DLSS 2.0 verursacht Lag?
Redneck
2022-10-02, 09:05:00
Also das ist ja nun wirklich Quatsch.
Oder würdest du dir auch eine kleine 150g Tüte Gummibärchen für 15€ kaufen, weil du das Geld ja hast? Nur weil man etwas hat, muss man trotzdem nicht ein offensichtlich maßlos überteuertes Produkt kaufen.
Du hast den Nachfolgesatz vergessen. So, wie Du es aus dem Text entnommen hast, war es nicht gemeint.
Wer das Geld nicht hat, braucht sich auch gar keine Gedanken über eine Anschaffung machen, die anderen müssen halt überlegen, ob es Ihnen das wert ist (mir sind 2k definitiv zu viel des Guten für einen Elektronikartikel, der nach spätestens 2 Jahren schon wieder zum alten Eisen gehört.. Da sind die technikzyklen einfach zu kurz und dadurch die Wertverluste zu gross). Wem das aber egal ist, soll sich doch damit eindecken. Hat ja jeder andere Prämissen im Leben.
MiamiNice
2022-10-02, 09:05:21
DLSS 2.0 verursacht Lag?
Merkst bzw. spürst Du das nicht?
DrFreaK666
2022-10-02, 09:09:22
DLSS 2.0 verursacht Lag?
Don't feed the troll ;)
Sardaukar.nsn
2022-10-02, 09:09:58
@Redneck Ist halt wie bei Apple, da gibt es ja scheinbar auch genug Leute die sich regelmäßig die neue Ware kaufen.
Etwas Lektüre zum Sonntag: https://www.docdroid.net/JLtxp1Z/nvidia-ada-gpu-architecture-pdf
Ich finde dort (S.36) sieht selbst der 4080 12GB gegenüber der 3080 12GB gar nicht so schlecht aus. TFLOPS bzw. RT-TFLOPS etwa +55%. UVP war ja gleich.
MiamiNice
2022-10-02, 09:34:31
Don't feed the troll ;)
Er tollt in diesem Fall nicht. Kleines 1 x 1 des kompetitiven Gamers: Schalte jedwede Form der Bildverbesserung ab wegen dem Input Lag.
Bei VR ist Input Lag ein Garant für Übelkeit. Will man auf keinen Fall erleben, dann ist nämlich der Tag gelaufen ( Spreche aus Erfahrung).
BiG OnE
2022-10-02, 10:18:16
Was, unser Obergamer hat doch nicht etwa einen schwachen Magen?
unl34shed
2022-10-02, 11:09:16
Ich finde dort (S.36) sieht selbst der 4080 12GB gegenüber der 3080 12GB gar nicht so schlecht aus. TFLOPS bzw. RT-TFLOPS etwa +55%. UVP war ja gleich.
Ja, die sieht nicht so schlecht aus, solange man sie isoliert betrachtet und ignoriert, das Nvidia 1.5-2 Full-Node Shrinks bei Ada hatte. Mit der 4090 zB. bekommst du +138% TFLOPs fürs in etwa das gleiche Geld (+6%) verglichen mit der 3090.
Ein gleich großen Sprung bei den TFLOPs zur 4080 12GB bekommst du in etwa von der 3060Ti (+147%) (3070 sind +97%), nur zahlst du dann auch +173% mehr, also weniger TFLOPs/$ :confused:
basix
2022-10-02, 11:25:24
Ein wenig Lektüre vor der Nachtruhe:
images.nvidia.com ... nvidia-ada-gpu-architecture.pdf (https://images.nvidia.com/aem-dam/Solutions/geforce/ada/nvidia-ada-gpu-architecture.pdf)
Register, L1 usw. bleiben also gleich von der Kapazität her wie bei Ampere.
y33H@
2022-10-02, 11:34:27
Doof, dass die RTX 4090 den relativ zum Vollausbau am meisten kastrierten Chip aufweist :freak:
robbitop
2022-10-02, 11:36:05
Und keine Erhöhung der Scheduler resources pro SM - gleich wie Ampere (pascal hatte 2x Scheduler resources pro SM von Ampere bei gleichem FP Durchsatz). Entsprechend wächst auch die Auslastung der SMs nicht.
AffenJack
2022-10-02, 11:36:15
Register, L1 usw. bleiben also gleich von der Kapazität her wie bei Ampere.
Jupp, man geht komplett in Richtung Raytracing. Alle Architekturänderungen/Features sind darauf angelegt da besser zu werden. während man den Rest alles so sein lässt. Ich hätte zumindest kleinere Änderungen erwartet.
Vor allem mit 3 Features, die nur eventuell in DXR integriert werden könnten ist man da schon auf einem ziemlich riskanten Weg.
Thunder99
2022-10-02, 11:38:09
Plant Nvidia vielleicht gar keine Mittelklasse mit der Ada Generation?
https://i.imgur.com/AOPvBjl.jpg
Übergangsweise eventuell aber generell wäre echt hart. Entweder sind nicht genug Kapazitäten vorhanden für die kleineren Karten und oder die kleineren Karten sind hypothetisch 0 besser als die bestehenden zu mehr Kosten :freak:
fondness
2022-10-02, 11:38:10
Doof, dass die RTX 4090 den relativ zum Vollausbau am meisten kastrierten Chip aufweist :freak:
Logisch, bei so einem großen Chip.
Badesalz
2022-10-02, 11:51:13
Und keine Erhöhung der Scheduler resources pro SM - gleich wie Ampere (pascal hatte 2x Scheduler resources pro SM von Ampere bei gleichem FP Durchsatz). Entsprechend wächst auch die Auslastung der SMs nicht.Eine durchdachte Entscheidung. Mit dem aktuellen Design und Prozess wollte man damit unter 1kW bleiben.
Übergangsweise eventuell aber generell wäre echt hart. Entweder sind nicht genug Kapazitäten vorhanden für die kleineren Karten und oder die kleineren Karten sind hypothetisch 0 besser als die bestehenden zu mehr Kosten :freak:Blödsinn. Sie haben weltweit noch stadtteilgroße Lagerflächen mit den 3000ern. Das muss erst raus.
why_me
2022-10-02, 11:53:02
Übergangsweise eventuell aber generell wäre echt hart. Entweder sind nicht genug Kapazitäten vorhanden für die kleineren Karten und oder die kleineren Karten sind hypothetisch 0 besser als die bestehenden zu mehr Kosten :freak:
Die Lager sind doch noch voll mit Ampere Chips, da würden neue Karten im diesem Preisbereich nur den Abverkauf torpedieren.
Auch Kapazität sollte kein Problem sein, Nvidia wollte doch die bestellten Wafer bei TSMC senken, weil sie angeblich zu viel bestellt haben.
Nvidia hat sich mMn komplett mit Mining verzockt und hat für eine hohe Nachfrage produziert, die es aktuell nicht mehr gibt. Da Mining aktuell quasi tot ist, bleiben sie auf den Altkarten sitzen und haben jetzt Probleme die neuen Karten unters Volk zu bringen. Das Ende vom Lied sind jetzt Mittelklassechips, mit dem Namen und Preis von Highend, damit die Amperekarten noch abverkauft werden können.
Mal schauen, wie sich AMD hier verhält. Ob sie die Preiserhöhung mitnehmen oder Nvidia in die Parade fahren.
y33H@
2022-10-02, 12:05:44
Logisch, bei so einem großen Chip.Finde ich angesichts des Preises dennoch blöd ...
Troyan
2022-10-02, 12:27:45
Jupp, man geht komplett in Richtung Raytracing. Alle Architekturänderungen/Features sind darauf angelegt da besser zu werden. während man den Rest alles so sein lässt. Ich hätte zumindest kleinere Änderungen erwartet.
Vor allem mit 3 Features, die nur eventuell in DXR integriert werden könnten ist man da schon auf einem ziemlich riskanten Weg.
Gaming-Ampere hat doch die große SM Änderung vorweggenommen. Mehr ist technisch nicht möglich ohne Effizienz und Auslastung zu verlieren. So liefert ein 380mm^2 5nm Chip die selbe FP32 Rechenleistung wie eine 550W MI250X Karte - also 1/4 der Größe bei gleicher Leistung.
Und AD103 ist hat noch massenweise Transistoren in Dinge investiert, die CNDA2 fehlen: Mehr L2 Cache, vollständige GPU, TensorCores mit selber Leistung, RT Cores etc.
why_me
2022-10-02, 12:34:15
Und schon wieder ein doofer Äpfel mit Birnen vergleich....
basix
2022-10-02, 12:42:43
Jupp, man geht komplett in Richtung Raytracing. Alle Architekturänderungen/Features sind darauf angelegt da besser zu werden. während man den Rest alles so sein lässt. Ich hätte zumindest kleinere Änderungen erwartet.
Vor allem mit 3 Features, die nur eventuell in DXR integriert werden könnten ist man da schon auf einem ziemlich riskanten Weg.
Bei den SMs gäbe es ja was, was die Auslastung verbessert: SER. Würde auch bei RZ was bringen. Anscheinend aber vor allem bei RT hilfreich.
robbitop
2022-10-02, 13:16:55
Bei den SMs gäbe es ja was, was die Auslastung verbessert: SER. Würde auch bei RZ was bringen. Anscheinend aber vor allem bei RT hilfreich.
Bringt aber wohl bei Rasterizing weniger und es muss explizit implementiert werden damit es gut funktioniert.
Meridian12
2022-10-02, 13:21:24
Wann genau sind die Testberichte eigentlich zu erwarten? Am 12ten beim Verkaufsstart oder schon vorher?
wolik
2022-10-02, 14:06:02
Wann genau sind die Testberichte eigentlich zu erwarten? Am 12ten beim Verkaufsstart oder schon vorher?
05.10.?
AffenJack
2022-10-02, 15:04:32
Bei den SMs gäbe es ja was, was die Auslastung verbessert: SER. Würde auch bei RZ was bringen. Anscheinend aber vor allem bei RT hilfreich.
SER dürfte bei Rasterisierung, wie robbitop schon schreibt kaum was bringen. Das ist vor allem für wirklich schnelles RT der nächste Schritt, wodurch Nvidia irgendwo auf Level 4 oder sogar Level 5 von IMGs RT Levels landet.
In Spielen, die SER nutzen könnte der Abstand bei RT zu AMD sogar noch anwachsen im Vergleich zur aktuellen Situation. Aber es ist eben die Frage, wie schnell das in DXR kommt und ob genau Nvidias Implementierung unterstützt wird. Wir haben jetzt mit Nvidias SER und Intels Traversal Shader zwei sehr interessante RT Technologien, wo bei beiden erstmal nur über die Implementierung in DXR diskutiert wird. Allerdings sind sich beide einig, dass AMDs Inline RT Ansatz schlecht ist und AMD sollte wohl eher schleunigst gucken, dass man den beiden folgt bevor man RT komplett abgehängt wird.
Das gab es schon seit Ewigkeiten nicht mehr, dass sich zwischen konkurierenden Features auf einen Standard geeinigt werden muss. Da sieht man auch, dass gerade unglaublich viel geschieht bei RT. Erst 2024 können wir dann wohl langsam wieder mit Featureparität bei RT rechnen.
ja sicher dich.. ich habe über die jahre geschätzt 120 VR titel zusammengekauft. für PC und PS.. mein oculus-ordner ist mit 800GiB daten zugemüllt.
Joa.. hilft ja nix wenn nur Schrott dabei war bzw. wenn es für Dich keinen Usecase gibt. Für Flighsim ist VR ein Gamechanger. Mach mal in DCS nen Dogfight, wenn Du mit der Maus oder nem Joystick umhergucken musst :freak:
Schätze für Race-Sims wird es ähnlich sein. Und ja, leider sind die Games/Sims nicht für VR entwickelt worden. Ne Engine die sowieso schon fordert, wird bei dem extremen Pixelcount eben richtig garstig. FS2020 ging vor DLSS sooo beschissen... jetzt ists okay.
Aber BTT: kanns kaum noch abwarten. Hoffentlich haben die Karten mit vorinstallierter Wakü oder zumindest die FE dann auch ein Powerlimit, mit dem man den Chip loslassen kann.
Meridian12
2022-10-02, 15:29:31
05.10.?
Fällt da die NDA? Oder wird das vermutet mit dem 5ten?
=Floi=
2022-10-02, 15:31:52
Auch Kapazität sollte kein Problem sein, Nvidia wollte doch die bestellten Wafer bei TSMC senken, weil sie angeblich zu viel bestellt haben.
Nvidia hat sich mMn komplett mit Mining verzockt und hat für eine hohe Nachfrage produziert, die es aktuell nicht mehr gibt. Da Mining aktuell quasi tot ist, bleiben sie auf den Altkarten sitzen und haben jetzt Probleme die neuen Karten unters Volk zu bringen. Das Ende vom Lied sind jetzt Mittelklassechips, mit dem Namen und Preis von Highend, damit die Amperekarten noch abverkauft werden können.
Mal schauen, wie sich AMD hier verhält. Ob sie die Preiserhöhung mitnehmen oder Nvidia in die Parade fahren.
Das ist doch einfach käse. Denkt doch mal nach!
Würde es das wirklich geben, hätte man eher günstigere karten vorgestellt, damit man masse an waferfläche absetzen kann.
Die paar 2000€ karten mit 608mm2 chip reissen da null raus.
NV könnte sich schon besser anstrengen, aber der zug ist abgefahren. Die user sitzen bei NV in der dritten klasse.
why_me
2022-10-02, 15:45:37
Verstehe grade nicht wirklich, auf was du hinaus willst.
Die Lager sind mit 3000er Karten voll von Nvidia. Würde man kleinere Karten einer neuen Gen vorstellen, verkaufen sich die alten Karten nicht mehr so gut, bzw müsste man noch weiter mit den Preisen bei der alten Gen runter.
Die paar 608mm² Karten fressen aber auch ordentlich Wafer, im schlimmsten Fall legt man die halt auch auf lager, bevor man die 3000er Karten als Verlust abschreiben muss.
TobiWahnKenobi
2022-10-02, 16:23:26
Joa.. hilft ja nix wenn nur Schrott dabei war bzw. wenn es für Dich keinen Usecase gibt. Für Flighsim ist VR ein Gamechanger. Mach mal in DCS nen Dogfight, wenn Du mit der Maus oder nem Joystick umhergucken musst :freak:
Schätze für Race-Sims wird es ähnlich sein. Und ja, leider sind die Games/Sims nicht für VR entwickelt worden. Ne Engine die sowieso schon fordert, wird bei dem extremen Pixelcount eben richtig garstig. FS2020 ging vor DLSS sooo beschissen... jetzt ists okay.
Aber BTT: kanns kaum noch abwarten. Hoffentlich haben die Karten mit vorinstallierter Wakü oder zumindest die FE dann auch ein Powerlimit, mit dem man den Chip loslassen kann.
ich weiss was du meinst, aber dafür muss man wirklich fan ganz spezieller genres sein. ist ja auch legitim.. ich bins zum glück nicht. allerdings würde ich mir von aufgerissen powerlimits nicht zuviel erwarten. das was voll aufgerissen hinten rauskam war schon bei der 3090 strix mit ihren 480W reichlich enttäuschend.. nur um das wort überflüssig zu vermeiden. es suggerierte auf dem papier und in der theorie mehr als es brachte. ausser auf dem messgerät für die verbratenen kilowattstunden.
(..)
mfg
tobi
Badesalz
2022-10-02, 17:44:34
So liefert ein 380mm^2 5nm Chip die selbe FP32 Rechenleistung wie eine 550W MI250X Karte - also 1/4 der Größe bei gleicher Leistung.MI250X? MI250X liefert zwar nur um die 48 Tflops bei FP32, aber das interessiert keine einzige Sau die sowas als Option erwägt.
Die interessiert, daß es die 48 Tflops auch mit FP64 macht. H100 bringt den aus NVs Sicht gebührenden Abstand bei den kleineren Bitformaten. Da leben sie bisher mit jeder Generation in dem eigenen Universum.
FP64 holen sie aber noch nichtmal wieder nur auf (weit davon entfernt). Und das mit 700W. Ja man kann die TensorCores dafür mitbemühen. Dann kann man aber auch die MatrixCores mitbemühen.
PS:
Kann es sein, daß du klinisch relevant Overbiased bist oder so?
robbitop
2022-10-02, 18:28:45
Ist das eine rhetorische Frage? :D
Badesalz
2022-10-02, 18:56:13
Ne kein Scherz. Das kannst du doch keinem erklären. Es ist ja nicht so, daß es so wie grad zwischen AMD-Intel läuft.
Da muss man also nicht im 4000er Thread mit Schnappatmung plötzlich was von Aldebaran erzählen...
Aber auf jeden Fall lustig =) Also so gleich ganz missen möchte man das auch nicht :tongue:
DrFreaK666
2022-10-02, 19:06:27
Ne kein Scherz. Das kannst du doch keinem erklären. Es ist ja nicht so, daß es so wie grad zwischen AMD-Intel läuft.
Da muss man also nicht im 4000er Thread mit Schnappatmung plötzlich was von Aldebaran erzählen...
Aber auf jeden Fall lustig =) Also so gleich ganz missen möchte man das auch nicht :tongue:
Erzähl was vom Fön oder Tegra 2 :D
monstar-x
2022-10-02, 20:29:48
Aber wer kauft das Ding denn?? Kommt deswegen DLSS3, damit man einen Grund für die 4060ti hat zum 4080ti Preis?
Für 1100 Euro sind alle informiert über die Karte. Kurzum, jeder Käufer weiß dann, dass er ne 4060ti (lassen wir es ne 4070 halt sein) zum 4080er Preis gekauft hat.
Das er eine Fake 4080er Karte gekauft hat,die eigentlich ein beschissenes P/L hat.
Selbst wenn die Karte etwas schneller als eine 3090 ist, würde ich mich massiv wohler fühlen mit einer 3090 mit gleichem Preis. Weil das ist die Knallerkarte der letzten Generation.
Ich habe mich für eine 3090 entschieden, hab gebraucht 800€ für eine 4 Monat alte FE mit Rechnung hingelegt. Da ich nicht vorhabe meinen sehr guten 165HZ WQHD ASUS Monitor in den nächsten 4-6 Jahren zu ersetzten. War das zu dem Preis für mich ein sehr guter Deal. Meine 3080 hab ich für 775€ verkauft.
MiamiNice
2022-10-02, 22:08:17
nice glhf :up:
Platos
2022-10-02, 22:32:34
Halte mittlerweile auch ausschau für 3090-er. Ich warte allerdings, bis die günstiger werden.
monstar-x
2022-10-02, 22:40:19
Halte mittlerweile auch ausschau für 3090-er. Ich warte allerdings, bis die günstiger werden.
Noch günstiger als 800€? Ich denke die Preise für die 3090 werden nach rls der 4080 gleich bleiben oder steigen, wahrscheinlich wird so werden wie letztes Mal, als als alle ihre 2080Ti für n äpple und ein Ei 450-550€ verkauft haben um später festzustellen dass das sehr dumm war, weil die an keine 3070/80/90 gekommen sind.
Ich habe etwas gewatet und meine Strix 2080ti für 1000€ verkauft 😂
Platos
2022-10-02, 22:50:23
Das ging auch nur, weil die Situation die Preise steigen lassen hat.
Und ja, ich warte, bis es tiefer fällt, auf jeden Fall. Kann ja auch noch Monate gehen. Und falls es nicht klappt, auch nicht schlimm.
wurde das video zu DLSS3 + Latenz von DF (https://www.youtube.com/watch?v=6pV93XhiC1Y) besprochen? Ich habe die letzten 10 Seiten hier gelesen aber nichts gesehen :freak:
In Manchen Benchmarks steigt die Latenz minimal gegenüber DLSS2, bei manchen viel mehr, deswegen wird Reflex immer eingeschaltet, um die extra Latenz zu kompensieren. (ca 17:30 im Video).
Ich finde es echt gut, dass den Spielern die Wahl gegeben wird, nicht nur ob DLSS an/aus, sondern auch zwischen Version 2 und 3.
Troyan
2022-10-03, 09:19:39
MI250X? MI250X liefert zwar nur um die 48 Tflops bei FP32, aber das interessiert keine einzige Sau die sowas als Option erwägt.
Die interessiert, daß es die 48 Tflops auch mit FP64 macht. H100 bringt den aus NVs Sicht gebührenden Abstand bei den kleineren Bitformaten. Da leben sie bisher mit jeder Generation in dem eigenen Universum.
FP64 holen sie aber noch nichtmal wieder nur auf (weit davon entfernt). Und das mit 700W. Ja man kann die TensorCores dafür mitbemühen. Dann kann man aber auch die MatrixCores mitbemühen.
PS:
Kann es sein, daß du klinisch relevant Overbiased bist oder so?
Who cares? Interessiert es dich nicht, dass eine RTX4080 16GB überall sonst schneller ist? FP32, TF32, BF16, Integer, Int-Tensor etc.
Und jetzt frage dich: Wie kann es sein, dass ein Chip mit 1/4 der Größe mit nur einem Fullnode kleiner schneller ist. Das zeigt einfach, dass die ComputeUnits von nVidia meilenweit voraus sind.
BTW: Hopper ist 11,5% schneller geworden: https://videocardz.com/newz/nvidia-updates-hopper-h100-data-center-gpu-fp32-performance-from-60-to-67-tflops
Thunderburne
2022-10-03, 09:30:13
wurde das video zu DLSS3 + Latenz von DF (https://www.youtube.com/watch?v=6pV93XhiC1Y) besprochen? Ich habe die letzten 10 Seiten hier gelesen aber nichts gesehen :freak:
In Manchen Benchmarks steigt die Latenz minimal gegenüber DLSS2, bei manchen viel mehr, deswegen wird Reflex immer eingeschaltet, um die extra Latenz zu kompensieren. (ca 17:30 im Video).
Ich finde es echt gut, dass den Spielern die Wahl gegeben wird, nicht nur ob DLSS an/aus, sondern auch zwischen Version 2 und 3.
Die Spiele bekommen einen Schalter für Frame Generation implementiert also für die Zwischenbild Berechnung!
Man sieht halt auch das das Feature keine Echten FPS generiert da DLSS 2.0 62FPS 58ms ausspuckt und DLSS 3.0 mit Frame Generation bei 101 FPS auch nur 55-58ms raus haut dort sieht man das der Input Leg nicht weniger wird und man z.b nicht von einem 100/120/144HZ Monitor profitiert.
Es ist aber ein Super Feature um die Smoothness im Bild zu steigern wenn die FPS im 30-60 FPS Bereich liegen.
Thunder99
2022-10-03, 09:32:44
Laut denen mit Takterhöhung und damit TDP Erhöhung (auch wenn nur up to 700W steht)
Platos
2022-10-03, 10:43:17
Es ist aber ein Super Feature um die Smoothness im Bild zu steigern wenn die FPS im 30-60 FPS Bereich liegen.
Auf jeden Fall. Ist ein super Feature. nur leider halt wieder nur für eine Handvoll Spiele. Es ist ja selbst jetzt 4 Jahre später nach DLSS immer noch so, dass manche grosse Spiele kein DLSS kriegen und viele unbekannte sowieso nicht.
Aber viele Leute werden mit Inlutlag keine Probleme haben auf 30FPS (dann auf 60FPS mit 30FPS inputlag). Gerade wenn es um Rollenspiele und RTS geht. Da spielt das nicht so ne Rolle.
Wo es aber sicherlich sehr schlecht sein wird ist unterhalb von 30 FPS. Von 15 auf 30 FPS wird man da sicher nicht gebrauchen können.
Badesalz
2022-10-03, 13:59:57
Who cares? Interessiert es dich nicht, dass eine RTX4080 16GB überall sonst schneller ist? FP32, TF32, BF16, Integer, Int-Tensor etc.Ich? Was hab ich damit zu tun? Es interessiert halt niemanden der GPGPU wegen FP64 macht. Who cares? Den Kontext sofort wieder aus den Augen verloren?
Wer was anderes machen will wiegt er nach gewohnten Parametern - so sollte es jedenfalls sein :frown: - wie die Erfahrungswerte was Stabilität und Verbrauch der gebotenen Systeme angeht, und wählt entweder das eine oder andere. Man wird niemanden verachten der für sich die bessere Wahl getroffen hat. Meist sieht man da eben die 100er. Jeder weiß was sie leisten können.
Und damit sehe ich hier immernoch keinen Spielraum für deine Exzesse. Bleib beim Gaming. Alles wird gut...
basix
2022-10-03, 14:40:13
Wo es aber sicherlich sehr schlecht sein wird ist unterhalb von 30 FPS. Von 15 auf 30 FPS wird man da sicher nicht gebrauchen können.
Vielleicht kommt man ja in den GSync / FreeSync Bereich des Monitors ;)
Aber ja, umso tiefer die FPS, desto schlimmer ist +1 fps Delay. Allerdings muss man auch sagen, dass bei geringen FPS die Optical Flow Engine genug Zeit haben sollte, dass relativ zu bestehendem Input Lag nicht so wahnsinning viel Delay dazukommt. Ich nehme an, dass die OFE ~konstant rechnen muss bei gegebener Auflösung. Allerdings werden die Darstellungsfehler sicher grösser ausfallen, da innerhalb 60ms bei gerenderten 16fps mehr Kamera-Bewegung dazwischen liegt als bei 16ms und 60fps.
Beispiel: OFE benötigt 20ms für die Bildberechnung
- 100fps -> 40ms input lag -> +20ms OFE -> 60ms input lag -> 1.5x
- 20fps -> 200ms input lag -> +20ms OFE -> 220ms input lag -> 1.1x
Ob das bei der OFE aber wirkich so konstant verhält, werden Tests zeigen. 20fps werden sich immer noch Kacke anfühlen, aber visuell sind 40fps bereits viel besser. Und unter Umständen kommt eben so in den FreeSync / GSync Bereich, was obendrauf das Tearing eliminiert.
Platos
2022-10-03, 17:45:41
Vielleicht kommt man ja in den GSync / FreeSync Bereich des Monitors ;)
Aber ja, umso tiefer die FPS, desto schlimmer ist +1 fps Delay. Allerdings muss man auch sagen, dass bei geringen FPS die Optical Flow Engine genug Zeit haben sollte, dass relativ zu bestehendem Input Lag nicht so wahnsinning viel Delay dazukommt. Ich nehme an, dass die OFE ~konstant rechnen muss bei gegebener Auflösung. Allerdings werden die Darstellungsfehler sicher grösser ausfallen, da innerhalb 60ms bei gerenderten 16fps mehr Kamera-Bewegung dazwischen liegt als bei 16ms und 60fps.
Beispiel: OFE benötigt 20ms für die Bildberechnung
- 100fps -> 40ms input lag -> +20ms OFE -> 60ms input lag -> 1.5x
- 20fps -> 200ms input lag -> +20ms OFE -> 220ms input lag -> 1.1x
Ob das bei der OFE aber wirkich so konstant verhält, werden Tests zeigen. 20fps werden sich immer noch Kacke anfühlen, aber visuell sind 40fps bereits viel besser. Und unter Umständen kommt eben so in den FreeSync / GSync Bereich, was obendrauf das Tearing eliminiert.
Warum ist der Inputlag bei 100FPS bei 40ms und bei 20FPS bei 200ms?
Aber ansonsten: Was bringt denn FreeSync? Das minimiert ja nicht den Input lag? Also das Problem mit dem Inputlag bleibt bestehen. der Inputlag bei 20FPS und darunter wird schon sehr grenzwertig sein für alles, was man in Echtzeit spielt. Wie du ja achon sagst, werden auch die fehler zunehmen bei schnelleren Bewegungen.
Also ich denke, bei Rollenspielen und Echtzeitstrategiespielen (RTS) sollte man "erst" ab 30 FPS spielen und dann eben 60 FPS durch DLSS 3.0 kriegen. Bei nicht Echtzeitspielen (Beispiel: Divinity-Teile) wäre vermutlich auch 20 FPS ok. Aber darunter würde ich nie gehen bei nem Divinity. Man läuft da ja immer noch rum ausserhalb der Kämpfe und selbst das muss halbwegs flüssig spielbar sein.
Aber Frage zu DLSS 3.0: Ist das nun eine Kombination von DLSS 2.x und dieser "Framegeneration" ? Also salopp gesagt: kriegt man dann idealerweise die üblichen +50-70% FPS im Quality-Mode und dann oben drauf noch 100% mehr FPS durch diese Frameinsertion? Also dann z.B +60% durch klassisches DLSS 2.x und +100% nochmals durch DLSS 3.0. Das wäre dann 1.6x 2.0=3.2-Fache FPS?
Gibts da einen guten Artikel?
aufkrawall
2022-10-03, 18:11:37
Aber Frage zu DLSS 3.0: Ist das nun eine Kombination von DLSS 2.x und dieser "Framegeneration" ? Also salopp gesagt: kriegt man dann idealerweise die üblichen +50-70% FPS im Quality-Mode und dann oben drauf noch 100% mehr FPS durch diese Frameinsertion? Also dann z.B +60% durch klassisches DLSS 2.x und +100% nochmals durch DLSS 3.0. Das wäre dann 1.6x 2.0=3.2-Fache FPS?
Ja. Aber 50-70% mit Quality gibt es btw. nur mit RT (dann aber mitunter auch >70%). Ohne RT sind es mit Q in 1440p auf der 3060 eher 20% (RDR2) bis 45% (aktuelle UE4/5-Spiele).
Platos
2022-10-03, 18:29:36
Ja. Aber 50-70% mit Quality gibt es btw. nur mit RT (dann aber mitunter auch >70%). Ohne RT sind es mit Q in 1440p auf der 3060 eher 20% (RDR2) bis 45% (aktuelle UE4/5-Spiele).
Ah ok, danke.
Und ja, stimmt, ist natürlich nur in manchen Titeln 50-70%. Also wie gesagt, eben idealerweise.
Aber könnte es möglicherweise sein, dass dieser stärkere Effekt unter RT mit Lovelace geringer wird, weil die RT Last steigt ? Oder ist das eine generelle stärke von DLSS unter RT?
aufkrawall
2022-10-03, 18:34:22
Aber könnte es möglicherweise sein, dass dieser stärkere Effekt unter RT mit Lovelace geringer wird, weil die RT Last steigt ? Oder ist das eine generelle stärke von DLSS unter RT?
Ich denke, mit DLSS läuft da nichts anders als ohne. Ich würde davon ausgehen, dass RT auch Lovelace weiterhin gut in niedrigen Auflösungen auslasten wird, wenn das schon bei Ampere der Fall war. Die Denoiser-Last ist ja auch sehr hoch und von Nvidia perfekt auf ihre Hardware abgestimmt.
basix
2022-10-03, 19:45:56
Warum ist der Inputlag bei 100FPS bei 40ms und bei 20FPS bei 200ms?
Schau dir moderne Spiele an. 40ms bei 100fps sind nicht ungewöhlich. Und die 200ms sind einfach 5x davon um es mir einfach zu machen. Ist in Realität weniger, evtl. 150ms. Ist für das Beispiel und das Aufzeigen des Umstandes aber egal.
Aber ansonsten: Was bringt denn FreeSync? Das minimiert ja nicht den Input lag? Also das Problem mit dem Inputlag bleibt bestehen. der Inputlag bei 20FPS und darunter wird schon sehr grenzwertig sein für alles, was man in Echtzeit spielt. Wie du ja achon sagst, werden auch die fehler zunehmen bei schnelleren Bewegungen.
Nicht den Input Lag, aber das visuelle Erlebnis. Tearing ist eine Art "Zusatz-Stottern". Hast du selbst einen G-Sync / Freesync Monitor? Ich merk ziemlich gut den Unterschied zwischen On/Off.
Also ich denke, bei Rollenspielen und Echtzeitstrategiespielen (RTS) sollte man "erst" ab 30 FPS spielen und dann eben 60 FPS durch DLSS 3.0 kriegen. Bei nicht Echtzeitspielen (Beispiel: Divinity-Teile) wäre vermutlich auch 20 FPS ok. Aber darunter würde ich nie gehen bei nem Divinity. Man läuft da ja immer noch rum ausserhalb der Kämpfe und selbst das muss halbwegs flüssig spielbar sein.
Deswegen sage ich ja: 20fps wird sich immer noch schei**e anfühlen. Aber solange die Input Latenz faktisch gleich bleibt, wäre gefühlt nicht schlechter immerhin das visuelle Bild + allenfalls kein Tearing die Vorteile von DLSS. Je nachdem ist das schon sehr viel Wert, wenn es halt einfach nicht für mehr reicht (z.B. APUs). Netto zumindest der Benefit auf visueller Seite. Verlust auf Input Lag Seite wäre minim.
Mit einer 4080+ sind 20fps + DLSS3 Frame Generation natürlich bedeppert.
Aber Frage zu DLSS 3.0: Ist das nun eine Kombination von DLSS 2.x und dieser "Framegeneration" ? Also salopp gesagt: kriegt man dann idealerweise die üblichen +50-70% FPS im Quality-Mode und dann oben drauf noch 100% mehr FPS durch diese Frameinsertion? Also dann z.B +60% durch klassisches DLSS 2.x und +100% nochmals durch DLSS 3.0. Das wäre dann 1.6x 2.0=3.2-Fache FPS?
So in etwa, ja. Ohne Frame Generation ist es einfach DLSS2 + Reflex (welches ich zu 100% einfach immer dazuschalten würde). Mit Frame Generation, welches jedes 2. Bild interpoliert, wird es zu DLSS3. Ganz einfach. Da Frame Generation auch etwas Performance kostet, sind 2x der ideale Fall. Kann erreicht werden, muss aber nicht.
Gibts da einen guten Artikel?
Dieses Bild beschreibt es eigentlich am Besten:
https://www.digitaltrends.com/wp-content/uploads/2022/09/nvidia-dlss-3-reconstructs-pixels.jpg?fit=3579%2C987&p=1
Dieser Artikel ist auch OK: Hier sieht man, dass es nicht immer für 2x Performance reicht, wenn DLSS3 Frame Generation zugeschaltet wird.
https://hothardware.com/news/dlss-3-frame-generation-digital-foundry-testing
Nvidia offiziell:
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/
https://developer.nvidia.com/blog/accelerating-ultrarealistic-game-development-with-nvidia-dlss-3-and-rtx-path-tracing/
Platos
2022-10-03, 21:27:32
Ah ok, danke für die ausführliche Antwort. Die Technik ist erstmal ja schon gut.
Aber bisher hat man ja auch schon die einen oder anderen Screenshots mit ziemlich beschissenem Ergebnis gesehen (durch DLSS 3.0). Vlt. wird es wieder wie bei DLSS 1.0 laufen. So richtig gut wird dann vlt. die nächste Generation bei dieser Technik. Aber erstmal die Launchreviews abwarten.
Ich habe nen FreeSync Monitor und beim TV nutze ich einfach VSync. Also habe nie Tearing.
Aber ja, es ist natürlich besser mit 20FPS Inputlag aber 40FPS Visuell, aber ich denke, ich stelle in so einer Situation lieber die Grafik runter, als 20FPS-Like Inputlag zu haben. Dann stelle ich es so ein, dass ich 30 FPS habe bzw, mit DLSS 3.0 dann stabile 60FPS. Also mit DLSS 3.0 würde ich nie unter 60FPS gehen (output dann). Das muss dann natürlich jeder selbst für sich entscheiden.
Wobei ich auch schon 20FPS im Endgame von AoE2 hatte :D Lustig ist es aber nicht ^^
MiamiNice
2022-10-03, 21:40:27
Ich kann den Nutzen von DLSS3 am PC leider nicht nachvollziehen, wo es gerade darum geht. Meines Verständnis nach sorgt es in erster Linie für eine flüssigere Animation, wenn man über den entsprechenden Hz freudigen Monitor verfügt. Außerdem sorgt es für ein höheres Ergebnis am FPS Counter - was aber eigentlich, dank G-Sync, egal ist. Aber was DLSS3 eben nicht bringt ist ein besseres Spielgefühl, das wäre eine Reduktion des Input Lags. Außerdem, es ist eine Zwischenbildberechnung, die doch irgendwie nachteilig sein muss. Ich schaue einen Frame auf ein echtes Bild, der nächste Frame ist "ausgedacht", der nächste wieder ein echtes Bild.
Wenn das so stimmt - warum sollte man so ein Feature nutzen?
basix
2022-10-03, 21:41:05
Ja bei Settings bin ich bei dir.
Als erstes würde ich vermutlich den DLSS Performance Mode ansteuern, wenn es wirklich nur 20fps sind, egal welche Auflösung :) Low Details -> Medium macht oftmals eine riesen Unterschied in der Optik aus, das wäre für eine APU oder Low Tier mGPU schon nicht schlecht.
Solange die DLSS Performance und Frame Generation Nachteile nicht zu gravierend sind, könnte das bei diesem Use Case schon einen deutlichen Unterschied machen.
Wenn man eine GPU hat, die High oder Very High mit 20fps stemmen kann, stellt man halt auf Medium zurück. Auch OK.
Aber mal schauen, wie sich Frame Generation in der Praxis bewährt. Wie gesagt, umso höher die FPS, desto geringer dessen Qualitätsanforderungen (es fällt einfach weniger auf). Könnte ab einem gewissen Punkt einfach so schlecht aussehen, dass sich Frame Generation nicht lohnt.
Wenn das so stimmt - warum sollte man so ein Feature nutzen?
Lange P....eh... Balken :D
MiamiNice
2022-10-03, 21:55:24
Wir sollten alle Intel kaufen, nur schon aus Prinzip. NV geht es viel zu gut.
Alle regen sich über den Preis oder Watts auf. DLSS3 ist eigentlich die Verarschung überhaupt seitens NV ever ...
Platos
2022-10-03, 22:01:39
Ja bei Settings bin ich bei dir.
Als erstes würde ich vermutlich den DLSS Performance Mode ansteuern, wenn es wirklich nur 20fps sind, egal welche Auflösung :) Low Details -> Medium macht oftmals eine riesen Unterschied in der Optik aus, das wäre für eine APU oder Low Tier mGPU schon nicht schlecht.
Solange die DLSS Performance und Frame Generation Nachteile nicht zu gravierend sind, könnte das bei diesem Use Case schon einen deutlichen Unterschied machen.
Wenn man eine GPU hat, die High oder Very High mit 20fps stemmen kann, stellt man halt auf Medium zurück. Auch OK.
Aber mal schauen, wie sich Frame Generation in der Praxis bewährt. Wie gesagt, umso höher die FPS, desto geringer dessen Qualitätsanforderungen (es fällt einfach weniger auf). Könnte ab einem gewissen Punkt einfach so schlecht aussehen, dass sich Frame Generation nicht lohnt.
Was mir gerade noch einfällt: Frame Generation wird mit ziemlicher Sicherheit in manchen Spielen die Animationen verändern.
Beispiel: Japanische "Animegames" wie z.B Nier Automata haben spezielle Animationen, bei denen der Charakter (eben wie in einem Anime) sich relativ "unnatürlich" bewegt. Die Bewegungen fühlen sich dann schnell an, weil es vom einen zum nächsten Bild eig. einen ziemlichen Sprung ist. Also die Animationen sind einfach so gemacht, dass sich das so anfühlt, egal ob man nun in 30 oder 120FPS spielt.
Fügt man nun aber einfach ein Bild ein, wo eig. keins sein sollte, wird die Animation flüssiger werden, weil es möglicherweise (!Spekulation), diesen Animationsstil nicht versteht. Es fügt einfach gleichmässig ein Bild ein, achtet dabei vlt. aber nicht auf solche Speziellen Animationen. Ich meine jetzt nicht flüssiger im Sinne von mehr FPS, sondern die Animation könnte dabei ihren "Stil" verlieren.
Das ganze kann man wunderbar beobachten, wenn man Animes interpoliert. Dabei tritt genau das auf.
Allerdings: Im Digital Foundry Video wird genau das verglichen: Offline interpoliert vs. nvidias DLSS 3.0. Man muss schon sagen, dass nvidia da wirklich erstaunlich gut ist. jede Interpolationssoftware, die ich bisher genutzt habe, macht das nicht ansatzweise so gut (im Sinne von wenig Fehler).
Savay
2022-10-03, 22:14:07
Jop, DLSS3.0 hätte ich schon gerne für den nächsten OLED TV...kommt da mal einer mit nem Ada basierenden Tegra?!
Für PC Games können sie es aber behalten. :tongue:
Platos
2022-10-03, 22:21:39
Und nochmals bezüglich Latenz/Inputlag und DLSS 3.0:
Die Latenz steigt anscheinend nicht (oder nur minimal) mit Reflex bei DLSS 3.0. Sie wird nicht besser wie bei DLSS 2.x, ja, aber ohne DLSS wäre sie definitiv schlechter. Es wird ja zuerst einmal auf "klassische" weise die FPS gesteigert (wie bei DLSS 2.x) und dadurch sinkt erstmal die Latenz (die "echte" Framerate steigt ja"). D.h verglichen mit nativ und DLSS 3.0 sinkt die Latenz trotzdem. Nur eben nicht entsprechnd wie man es von der FPS Zahl erwarten würde. Aber wenn man DLSS 3.0 mit nativ vergleicht, sollte der Inputlag auf jeden Fall sinken.
Natürlich ist das dann abhängig davon, wie viel FPS man ohne die Framegeneration erreichen kann. Also ob sie mit DLSS 2.x nur 20% oder eben 70% steigt. Dementsprechend besser ist dann auch der Inputlag.
aufkrawall
2022-10-03, 22:47:15
Oder anders ausgedrückt: Mit Reflex und DLSS 2 ist die Latenz massiv gesunken, DLSS 3 erhöht sie teilweise wieder auf fast das Doppelte dessen (nach Zahlen von DF).
Platos
2022-10-03, 22:52:42
So kann man es auch sagen, ja ^^
Sardaukar.nsn
2022-10-04, 05:56:16
Wer von euch war das?
https://i.imgur.com/humadjT.jpg
Thunder99
2022-10-04, 09:17:16
Gibt es DLSS V3 nur im Performance Mode oder auch im Qualität Mode? Wurde seitens Nvidia nichts erwähnt.
Troyan
2022-10-04, 09:23:51
Ist unabhängig von der Stufe. nVidia hat gegenüber der Presse Quality bei Cyberpunk verwendet.
Aber bisher hat man ja auch schon die einen oder anderen Screenshots mit ziemlich beschissenem Ergebnis gesehen (durch DLSS 3.0). Vlt. wird es wieder wie bei DLSS 1.0 laufen. So richtig gut wird dann vlt. die nächste Generation bei dieser Technik. Aber erstmal die Launchreviews abwarten.
Schau dir einfach das an: https://twitter.com/pixelmager/status/1575833476896620546?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1575833 476896620546%7Ctwgr%5Ef08b274dc1e5cd3d0815992f5f1a94811a5fd2b0%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-ada-speculation-rumours-and-discussion.62474%2Fpage-95
Sind 12 Sekunden nur mit den generierten Frames und jedes bleibt jeweils 33,3ms stehen. Das ist in Bewegung auch aufgrund Sample and Hold kaum bemerkbar.
Wer von euch war das?
https://i.imgur.com/humadjT.jpg
Wenn echt, würde es den Leak von vor 6 Wochen bestätigen. Dort lief Timespy ja auch mit 3000MHz.
/edit: An der selben Stelle mit meiner 375W 3090: ~125 FPS. Wären 83,2% mehr. Interessant auch, dass diese Karte bei 408W liegt, meine 3090 nutzt die 375W vollständig aus. 3000MHz scheint der höchste Boost-Step zu sein. Da ginge wohl noch so einiges mehr, wenn das Bild real ist... :eek: :cool:
Cubitus
2022-10-04, 09:47:46
Ich kann den Nutzen von DLSS3 am PC leider nicht nachvollziehen, wo es gerade darum geht. Meines Verständnis nach sorgt es in erster Linie für eine flüssigere Animation, wenn man über den entsprechenden Hz freudigen Monitor verfügt. Außerdem sorgt es für ein höheres Ergebnis am FPS Counter - was aber eigentlich, dank G-Sync, egal ist. Aber was DLSS3 eben nicht bringt ist ein besseres Spielgefühl, das wäre eine Reduktion des Input Lags. Außerdem, es ist eine Zwischenbildberechnung, die doch irgendwie nachteilig sein muss. Ich schaue einen Frame auf ein echtes Bild, der nächste Frame ist "ausgedacht", der nächste wieder ein echtes Bild.
Wenn das so stimmt - warum sollte man so ein Feature nutzen?
Achtung, ich weiß auf was du raus willst.
Du denkst an die Zwischenbildberechnung von den TVs.
So einfach ist es aber nicht:
Es werden Zwischenbilder zwischen den einzelnen Frames "erzeugt"
--> korrekt, sowas kann auch ein TV, einfach ein Bild doppeln ist keine Rocket Science.
Wie die Bilder bei DLSS3 erzeugt werden macht den erheblichen Unterschied zum TV aus:
Die GPU analysiert aufeinanderfolgende gerenderte Frames, um identische Pixel zu identifizieren, und berechnet dann eine so eine Art von Landkarte, um Veränderungen darzustellen.
Diese Änderungen werden dann mit Bewegungsvektoren der Spiel-Engine kombiniert, um ein Zwischenbild zu erstellen. Es finden dann komplexe Berechnungen statt.
Es wird dadurch ein neues Zwischenframe (aus dem nichts ^^) generiert welches schon Informationen für das eigentlich zweite Bild enthält. --> Damit wird auch die CPU entlastet.
Um DLSS3 auf ein Spiel anzupassen, werden die Vektor-Daten in eine Nvidia TrainingsKI eingespeist, um Entscheidungen zu treffen, wie ein "neues" Bild mit DLSS 3 erzeugt werden soll.
Je nachdem wie gut die KI-Trainiert ist, wird die Bildqualität besser, unschöne Fehler im Zwischenbild werden somit verhindert.
Natürlich entsteht durch so ein Zwischenbild immer eine Latenz, welche Nvidia versucht mit Reflex herunterzudrücken. Für Singel player wäre eine höhere Latenz zumindest nicht so schlimm.
Es wird sich in Tests zeigen, wie hoch die Latenz im jeweiligen Spiel sein wird. Ich gehe aber davon aus, dass diese wesentlich geringer sein wird, als wie bei der klassischen Zwischenbildberechnung beim TV.
Ein Betrug ist diese Technik jedenfalls nicht, sondern schon ziemlich nice, vor allem wenn diese Tec so funktioniert wie versprochen.
Sardaukar.nsn
2022-10-04, 10:02:17
Wenn echt, würde es den Leak von vor 6 Wochen bestätigen. Dort lief Timespy ja auch mit 3000MHz.
Zumindest ist das Foto jetzt wieder bei r/nvidia verschwunden. NDA?
Wenn sich die 4090 als 3GHz OC Monster herausstellt könnte sich die Leistung zu Ampere schon annähernd verdoppeln. Naja, vielleicht erfahren wir morgen mehr.
Troyan
2022-10-04, 10:11:52
Naja, das Problem ist viel mehr, dass die 4090 so breit ist, dass man ohne richtig viel Last und Arbeit keine 100% Gesamtauslastung hinbekommt. Unter dem Vorbehalt, dass das Bild real ist, sieht man, dass Timespy in 1440p die GPU nicht vollständig auslastet - ergo genug Spielraum den höchsten Booststep nutzen zu können.
Könnte wirklich sein, dass Lovelace taktechnisch massiv spielraum hat und somit die Skalierung in Spielen in geringeren Auflösungen jedenfalls besser funktioniert.
Thunder99
2022-10-04, 10:13:59
Bin auch auf die Tests gespannt wie es ausschaut bei 350W, 300W und falls es geht 250W :D
Sardaukar.nsn
2022-10-04, 10:16:37
Für die Gesamtauslastung benötigt man sicher einen RT Benchmark. Timespy ist ja "nur" DX12 in 1440p.
r3ptil3
2022-10-04, 10:17:51
Bin auch auf die Tests gespannt wie es ausschaut bei 350W, 300W und falls es geht 250W :D
Genau so!
Mit den riesigen Kühlern erwarte ich bei 300W unter Last, eine unhörbare Grafikkarte.
Troyan
2022-10-04, 10:21:03
Man benötigt Raytracing + SER. Mit divergierenden Rays entstehen Bubbles und das führt auch wieder zur ineffizienz - siehe die Cyberpunk-Demo von nVidia. Dort lief die 4090FE mit 2820MHz (12% mehr als der Boost-Takt).
Cyberpunk mit Overdrive RT scheint in die Richtung zu gehen. Nimmt man die DLSS 3 Zahlen (gegen nativ 4K bei 4090) und die Vergleichszahlen zur 3090TI, liefert die 4090 in 4K die selben Frames wie die 3090TI mit DLSS Performance (also knapp 3x schneller).
dildo4u
2022-10-04, 10:44:25
Der neue 3DMark Test wurde im Februar gezeigt könnte langsam mal kommen vielleicht zur 4090 Release.
https://benchmarks.ul.com/news/get-ready-for-3dmark-speed-way
Edgecrusher86
2022-10-04, 11:07:22
Genau so!
Mit den riesigen Kühlern erwarte ich bei 300W unter Last, eine unhörbare Grafikkarte.
Und vielleicht 100W passiv. ;D
Bsp. aus der Praxis hier: CoD CW MP -> UWQHD (DLSS Q), maxed out, aber RT off - 80er fps Cap -> ~ 150W mit 3090 UV 1,3x GHz @ 725-737mV - sub 50 Grad GPU bei ~ 1400RPM. :D
Troyan
2022-10-04, 11:08:38
Ah, jemand glaubt noch an das Spulenfiepenwunder. :D
r3ptil3
2022-10-04, 11:09:09
Gibt wohl doch etwas mehr Probleme mit der RTX 4090 und den Zen4 Boards.
Gigabyte hat bereits das zweite BIOS-Update draussen für die unveröffentlichen B650 Modelle (auch mit PCIe 4.0):
https://i.ibb.co/7gCXR44/image.png
Edgecrusher86
2022-10-04, 11:11:27
Irgendwie gibt es immer reichlich Probleme mit allen neuen AMD-Chipsätzen/Sockeln über die letzen Jahre....Das wäre für mich schon ein absolutes No-Go bezüglich eines möglichen Kaufs.
Teils dauerte es ja grob 1 Jahr(!) bis es Fixes gab! Dagegen ist bei Intel nur alle Jahre mal was Größeres im Argen - etwa SB und S-ATA damals.
Badesalz
2022-10-04, 11:15:01
Wenn es das Prob nur mit der 4090 gibt, liegts garantiert an AMD...
Edgecrusher86
2022-10-04, 11:17:35
Die Fehlerhäufigkeit spricht halt Bände. Sofern die das nicht bei künftigen Produkten mal abstellen, kommt mir kein AMD mehr ins Haus - vor allem nicht zu Premium-Preisen - siehe X670E Boards.
Die letzte CPU war aber ganz okay - ein Clawhammer. :D
r3ptil3
2022-10-04, 11:19:46
Wenn man die Schwächen der neuen Zen4 bzgl. IDLE Verbrauch ansieht, liegt das Problem auch nicht sehr weit entfernt davon bzw. hat ja damit zu tun.
Könnte wohl hindeuten, dass der Verbrauch mit der RTX 4090 im IDLE zu hoch ist, weil anscheinend der PCIe BUS auch im IDLE auf sämtlichen Lanes aktiv bleibt.
MiamiNice
2022-10-04, 11:33:47
Irgendwie gibt es immer reichlich Probleme mit allen neuen AMD-Chipsätzen/Sockeln über die letzen Jahre....Das wäre für mich schon ein absolutes No-Go bezüglich eines möglichen Kaufs.
Teils dauerte es ja grob 1 Jahr(!) bis es Fixes gab! Dagegen ist bei Intel nur alle Jahre mal was Größeres im Argen - etwa SB und S-ATA damals.
HMDs und andere USB Geräte disconnecten noch immer random von AM4 Chipsätzen. Trotz Wissens und mehrmaligen Patches seitens AMD bis dato heute nicht behoben.
Das ist DER Grund warum ich kein AMD kaufe, so gut Zen4 auch ist und so sehr ich in den letzten Tagen darüber sinniert habe. Nicht mal wenn es 1000€ günstiger ist bei vergleichbarer Leistung. Absolutes No Go.
Thunder99
2022-10-04, 11:52:01
Die Fehlerhäufigkeit spricht halt Bände. Sofern die das nicht bei künftigen Produkten mal abstellen, kommt mir kein AMD mehr ins Haus - vor allem nicht zu Premium-Preisen - siehe X670E Boards.
Die letzte CPU war aber ganz okay - ein Clawhammer. :D
Wer weiß was Raptor Lake für Probleme mit sich bringt bei der neuen Plattform was nicht kommuniziert worden ist. ;)
Die AM5 Plattform ist deutlich stabiler und ausgereifter als die vorherige Plattform zum Start.
Edgecrusher86
2022-10-04, 11:52:17
Das ist schon traurig, ja. Nun ja, Zen 4 hätte ich eh nicht gekauft - auch als Fanboy nicht - wenn Zen 4 3D an steht. ;)
Wer weiß was Raptor Lake für Probleme mit sich bringt bei der neuen Plattform was nicht kommuniziert worden ist. ;)
Die AM5 Plattform ist deutlich stabiler und ausgereifter als die vorherige Plattform zum Start.
Abwarten, wie stabil und ausgereift das so ist - einige Dinge fallen ja erst im Laufe der Zeit auf, wenn es mal nicht so passt. :cool:
Raptor-Lake setzt zumindest auf eine bewärte Plattform - der neue Chipsatz bringt kaum Änderungen mit.
Gut, zurück zur Dame Ada. :D
Erstmal Bild Nummer 3 als neuen Wallpaper gegönnt ->
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
Hat was:
https://abload.de/img/screenshot2022-10-041slftc.png
:D
dildo4u
2022-10-04, 12:01:44
Nicht nur AMD versaut es oft zur Release.
Nvidia scheint diesmal gelernt zu haben nicht vergessen was mit den Ampere Partner Karten passiert ist, die Hersteller konnten Last Wechsel nicht testen weil sie kein Treiber hatten.
Wenn es jetzt vor Release Bios Fixes gibt scheinen die Board Partner diesmal vorab testen zu können.
Thunder99
2022-10-04, 12:14:00
Nicht nur AMD versaut es oft zur Release.
Nvidia scheint diesmal gelernt zu haben nicht vergessen was mit den Ampere Partner Karten passiert, die Hersteller konnten Last Wechsel nicht testen weil sie kein Treiber hatten.
Wenn es jetzt vor Release Bios Fixes gibt scheinen die Board Partner diesmal vorab testen zu können.
So sieht es aus und gut für uns Kunden :)
fondness
2022-10-04, 12:23:31
HMDs und andere USB Geräte disconnecten noch immer random von AM4 Chipsätzen. Trotz Wissens und mehrmaligen Patches seitens AMD bis dato heute nicht behoben.
Das ist DER Grund warum ich kein AMD kaufe, so gut Zen4 auch ist und so sehr ich in den letzten Tagen darüber sinniert habe. Nicht mal wenn es 1000€ günstiger ist bei vergleichbarer Leistung. Absolutes No Go.
Frei nach Albert Einstein, es ist leichter, einen Atomkern zu spalten als ein Vorurteil.
TobiWahnKenobi
2022-10-04, 12:28:56
ich finds verständlich. besonders wenn man eine ärgerliche AMD plattform dann nach warterei, vertröstungen und drölfzig vergeblichen updates nicht mal mehr abgestoßen bekommt.
(..)
mfg
tobi
Radeonfreak
2022-10-04, 12:38:35
Gibt wohl doch etwas mehr Probleme mit der RTX 4090 und den Zen4 Boards.
Gigabyte hat bereits das zweite BIOS-Update draussen für die unveröffentlichen B650 Modelle (auch mit PCIe 4.0):
https://i.ibb.co/7gCXR44/image.png
Hoffentlich ist das Problem nur Am5 spezifisch.
Mangel76
2022-10-04, 12:50:31
ich finds verständlich. besonders wenn man eine ärgerliche AMD plattform dann nach warterei, vertröstungen und drölfzig vergeblichen updates nicht mal mehr abgestoßen bekommt.
(..)
mfg
tobi
Komisch, ich habe in 2 Rechnern 4 Boards mit X370, X570 und B550 von Asus, MSI und Gigabyte und dazu 5 verschiedene CPUs von Zen 1-3 gehabt. Und nie hatte ich irgendwelche Probleme mit Standardfunktionen wie USB o.ä. Dagegen machte mein Intel-NB mächtig Ärger mit der Dockingstation, während ein AMD-NB anstandslos damit funktioniert.
Exxtreme
2022-10-04, 12:56:19
Komisch, ich habe in 2 Rechnern 4 Boards mit X370, X570 und B550 von Asus, MSI und Gigabyte und dazu 5 verschiedene CPUs von Zen 1-3 gehabt. Und nie hatte ich irgendwelche Probleme mit Standardfunktionen wie USB o.ä. Dagegen machte mein Intel-NB mächtig Ärger mit der Dockingstation, während ein AMD-NB anstandslos damit funktioniert.
Naja, die AMD Chipsätze haben/hatten größere Probleme mit VR-Brillen. Da gab es ständig Disconnects etc. Ist aber offenbar behoben.
wolik
2022-10-04, 12:59:28
USA vs DE
https://www.newegg.com/p/pl?N=100007709%20601408872&PageSize=60&Order=1
https://www.notebooksbilliger.de/produkte/rtx%25204090?loadedProducts=30
MiamiNice
2022-10-04, 13:02:33
Naja, die AMD Chipsätze haben/hatten größere Probleme mit VR-Brillen. Da gab es ständig Disconnects etc. Ist aber offenbar behoben.
Hast Du dazu einen Link. Ich habe in den letzten Tagen gefragt und diverse Links bekommen. Da hieß es immer das AMD gepacht hat, mehrmals, es besser geworden, aber nicht weg ist. Dann gibt es diverse "Workarounds" für das Problem, die funktionieren können aber nicht müssen.
https://www.google.com/search?q=amd+hmd+workaround&oq=amd+hmd+workaround&aqs=chrome..69i57j33i160.6376j0j7&sourceid=chrome&ie=UTF-8
Da gibt es ne menge zu lesen, leider viele mit Problemen und 2022 als Postdatum.
FastAndy
2022-10-04, 13:02:52
ich hatte bei amd usb probleme am dark hero. ging nach irgendeinem bios update aber weg. finde die plattform trotzdem top
denke es wird dann trotzdem der 13900k demnext :smile:
grakas kaufe ich aber nur nvidia. da hinkt mir persönlich amd zu sehr hinterher
USA vs DE
https://www.newegg.com/p/pl?N=100007709%20601408872&PageSize=60&Order=1
https://www.notebooksbilliger.de/produkte/rtx%25204090?loadedProducts=30
nichts vorbestellbar obwohl es überall steht -.-
verstehe ich nicht
Exxtreme
2022-10-04, 13:08:48
Hast Du dazu einen Link. Ich habe in den letzten Tagen gefragt und diverse Links bekommen. Da hieß es immer das AMD gepacht hat, mehrmals, es besser geworden, aber nicht weg ist. Dann gibt es diverse "Workarounds" für das Problem, die funktionieren können aber nicht müssen.
https://www.google.com/search?q=amd+hmd+workaround&oq=amd+hmd+workaround&aqs=chrome..69i57j33i160.6376j0j7&sourceid=chrome&ie=UTF-8
Da gibt es ne menge zu lesen, leider viele mit Problemen und 2022 als Postdatum.
Also ich weiss, dass das ab AGESA 1.2.0.2 behoben wurde. Aber auch nur ein recht spezielles Disconnect-Problem.
https://www.reddit.com/r/Amd/comments/m2wqkf/updated_agesa_coming_for_intermittent_usb/
Und wenn ich die Suche mit Intel wiederhole dann kommen auch Probleme zum Vorschein.
Thunder99
2022-10-04, 13:49:08
Und es heißt nicht wenn eine Serie Mal ein Fehler hatte, dass es auch die nächste Generation hat.
Sardaukar.nsn
2022-10-04, 14:11:11
Laut Igor gibt es morgen erstmal nur Unboxing, Fotos usw.
Troyan
2022-10-04, 14:11:44
Laut Igor gibt es morgen erstmal nur Unboxing, Fotos usw.
nVidia angst vor Intel? :eek:
r3ptil3
2022-10-04, 14:20:27
Laut Igor gibt es morgen erstmal nur Unboxing, Fotos usw.
Ne oder? :mad:
Linmoum
2022-10-04, 14:26:17
Diese Unboxing NDAs sind die pure Seuche. Wie die GPUs aussehen, weiß ich vorher schon. Wie sie dann aber auch hinsichtlich Kühlung und Lautstärke performen werden immer noch nicht.
Badesalz
2022-10-04, 14:29:31
Gut, zurück zur Dame Ada. :D
Erstmal Bild Nummer 3 als neuen Wallpaper gegönnt ->
https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4090/
Hat was:
https://abload.de/img/screenshot2022-10-041slftc.png
:D
Glück gehabt :tongue:
https://www.youtube.com/watch?v=mGARjRBJRX8
PS:
Hmm... (EVGA)
https://www.youtube.com/watch?v=p-VCHOp9PKw
Sardaukar.nsn
2022-10-04, 15:19:03
Ne oder? :mad:
https://www.igorslab.de/community/threads/geforce-rtx-4090-und-2x-rtx-4080-ada-lovelace-startet-ab-oktober.7023/page-20#post-184603
Wenn es schlecht läuft starten die Reviews der Custom Karten und der Verkauf gleichzeitig am 12.10. um 15 Uhr. :hammer:
Spring
2022-10-04, 15:42:27
So kann man die Kunden auch ins Blaue rennen lassen. Wird genug geben, die das ohne zu hinterfragen kaufen, egal ob richtiges Review oder nicht ;)
Btw seit über 20 Jahren AMD Kunde (CPU/GPU) und weder disconnects oder inkompabillitäten mit AMD gehabt (last nv: Geforce 4 Ti 4200 / last Intel: P4 Northwood). Nur erwähnt, weil hier im Thread wieder Märchenstunde ist.
Also ich weiss, dass das ab AGESA 1.2.0.2 behoben wurde. Aber auch nur ein recht spezielles Disconnect-Problem.
https://www.reddit.com/r/Amd/comments/m2wqkf/updated_agesa_coming_for_intermittent_usb/
Und wenn ich die Suche mit Intel wiederhole dann kommen auch Probleme zum Vorschein.
Danke :up:
Badesalz
2022-10-04, 15:58:25
Ich muss mal genauer nachgucken was das alles für Boards sind die in den dicken Eisen verbaut werden.
Da ist es nämlich so, daß sich die Nodes in den Großrechnern/Superrechnern mit Zen3 Epycs grundsätzlich nicht gleich um Welten was absolute Leistung oder Perf/Watt absetzen vom TeamBlue, SONDERN was die (Anwendungs)Stabilität angeht.
Also wohl andersrum als beim s.g. Konsumenten (?) :wink:
unl34shed
2022-10-04, 15:58:57
Wenn es schlecht läuft starten die Reviews der Custom Karten und der Verkauf gleichzeitig am 12.10. um 15 Uhr. :hammer:
War doch abzusehen nach dem es keine 4080 12GB (4060Ti) FE gibt. Könnte ja sonst schon zum Start einen Vergleich der Karten geben. So steht nur die 4080 16GB (4070) in den Reviews und man hat keine 20% langsamere 4080 daneben stehen... Werden bestimmt ein paar drauf reinfallen...
Badesalz
2022-10-04, 16:03:38
Morgen darf nur Unboxing ran. Übermorgen nur synthetische Benches. Am Donnerstag nur Anwendungen und Verbrauch. Freitag ist Ruhetag. Spiele also erst ab Samstag, ohne Verbrauch. Das darf man Mitte nächster Woche nachreichen.
Meridian12
2022-10-04, 16:10:15
Laut Igor gibt es morgen erstmal nur Unboxing, Fotos usw.
Was soll ich denn mit dem Blödsinn bei einer CPU? Sieht die anders aus als der 12900 oder 11900?
Ein Unboxing einer CPU ist ja mal komplett lächerlich und unnötig :freak:
Ex3cut3r
2022-10-04, 16:40:39
Die Fehlerhäufigkeit spricht halt Bände. Sofern die das nicht bei künftigen Produkten mal abstellen, kommt mir kein AMD mehr ins Haus - vor allem nicht zu Premium-Preisen - siehe X670E Boards.
Die letzte CPU war aber ganz okay - ein Clawhammer. :D
Willst du echt die 4090 mit deiner Haswell Gurke betreiben? CPU Limit ahoi. Selbst in 4K.
anorakker
2022-10-04, 16:41:13
Unboxing Videos sind echt ne journalistische Bankrott Erklärung :rolleyes: Da kann ich mir auch gleich nur die Werbebrochüren durchlesen.
Deisi
2022-10-04, 17:04:46
Hast Du dazu einen Link. Ich habe in den letzten Tagen gefragt und diverse Links bekommen. Da hieß es immer das AMD gepacht hat, mehrmals, es besser geworden, aber nicht weg ist. Dann gibt es diverse "Workarounds" für das Problem, die funktionieren können aber nicht müssen.
https://www.google.com/search?q=amd+hmd+workaround&oq=amd+hmd+workaround&aqs=chrome..69i57j33i160.6376j0j7&sourceid=chrome&ie=UTF-8
Da gibt es ne menge zu lesen, leider viele mit Problemen und 2022 als Postdatum.
Es gab generell disconnects bei den USB Ports. Ganz gefixt wurde das bei mir ca im Mai 2021 (Asus Dark Hero). Konnte so meine VR Brille fast ein halbes Jahr nicht nutzen. War aber zu faul, dann wieder auf Intel zu switchen wegen Wakü, Verfügbarkeit etc. :freak:
r3ptil3
2022-10-04, 17:11:56
Vielleicht auch wieder Zeit, trotz des relativ grossen Performancesprungs, den Anreiz auszublenden und auf den 3. November zu warten.
Wenn die Reviews tatsächlich erst am 12.10 kommen, dann weiß ich nur eines bestimmt und zwar, dass ich nicht wie geplant gleich zum Verkaufsstart eine RTX 4090 AIRO, Suprim oder Strix bestelle, sondern mind. eine Woche Zeit lasse, bis mehr Hintergrundinfos rauskommen. Genau dafür wäre der 05.10 ja sinnvoll gewesen.
ChaosTM
2022-10-04, 17:17:53
Ich erwarte massive AMD Leaks rund um den release Tag, sollte RDNA3 gut mithalten können. Wird spaßig/spannend.
MiamiNice
2022-10-04, 17:27:15
Und es heißt nicht wenn eine Serie Mal ein Fehler hatte, dass es auch die nächste Generation hat.
Es geht nicht um den Fehler an sich, es geht um den Umgang des Herstellers mit dieser Art von Fehlern. Da bekleckert sich AMD leider nicht mit Ruhm und das ist mein Problem. Ich möchte mich nicht ärgern müssen, egal wo das Problem liegt.
Spring
2022-10-04, 17:39:37
Es geht nicht um den Fehler an sich, es geht um den Umgang des Herstellers mit dieser Art von Fehlern. Da bekleckert sich AMD leider nicht mit Ruhm und das ist mein Problem. Ich möchte mich nicht ärgern müssen, egal wo das Problem liegt.
Und das hat Intel bei Meltdown & Spectre besser hinbekommen (inkl Performancehit)?
Wir kommen vom Thema ab.
Falls schon hier gepostet: Sry
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/News/Nvidia-falsche-Angabe-Tensor-Core-Leistung-1404556/
Durch die ungewöhnlichen Werte kamen schnell Spekulationen auf - beispielsweise, dass Nvidia bei der Geforce RTX 4090 auf eine künstliche Limitierung setzen könnte, damit die Grafikkarte keine Gefahr für die hauseigenen Profi-Modelle darstellt. Der wirkliche Grund für die Werte ist aber viel einfacher: Nvidia hat heute Morgen reagiert und eine aktualisierte Version des Dokuments veröffentlicht, denn die Performance-Werte waren schlicht falsch. Statt der alten Angaben ist nun die Rede von 330,4 beziehungsweise 165,2 TFLOPS. Damit ist die RTX 4090 laut Nvidia auch in dieser Disziplin deutlich schneller als die kleineren Schwestermodelle.
Badesalz
2022-10-04, 17:53:01
Ja natürlich ist sie deutlich schneller als der Rest der 40er. Das war bei den 30er ja nicht anders. 3090 war deutlich schneller als 3060ti/3070 und auch als 3070ti...
BlacKi
2022-10-04, 18:18:27
https://www.igorslab.de/community/threads/geforce-rtx-4090-und-2x-rtx-4080-ada-lovelace-startet-ab-oktober.7023/page-20#post-184603
Wenn es schlecht läuft starten die Reviews der Custom Karten und der Verkauf gleichzeitig am 12.10. um 15 Uhr. :hammer:dann testest du die karte halt zuhause, und schickst sie bei nichtgefallen wieder zurück^^
Sardaukar.nsn
2022-10-04, 18:21:39
Ich bin da ganz optimistisch, interessiere mich ja eh für ein Nischen Modell einer nicht so populären Marke. Da halten sich die Scalper hoffentlich etwas zurück.
EDIT: Die MSI Suprim X von wccftech läuft scheinbar recht zügig... https://i.imgur.com/1ZK94L3.jpg
Ex3cut3r
2022-10-04, 19:31:53
509W Peak. :eek:
horn 12
2022-10-04, 19:37:34
Geht alles in die Falsche Richtung, Besser wäre 250 bis 350 Watt (maximal)
und halt nur 25 bis 45 % Oberhalb der Vorgänger Karte!
dargo
2022-10-04, 19:39:54
509W Peak. :eek:
Warum so verwundert bei einer Custom MSI? :confused: Ich hätte eher 550-600W erwartet. :D
Sardaukar.nsn
2022-10-04, 19:43:26
Wenn die Effizienz unterm Strich passt? Wenn ich die Kommentare so richtig verstehe hat er mit entsprechend Takt eben die 100 TFLOPs erreicht. Die 3090 Ti lag bei ~40
@Ex3cut3r: Der Verbrauch kommt auch immer auf die Anwendung an. Ein "normaler" Timespy Durchlauf wird sicher nicht das Maximum sein. RT war bei mir immer am anspruchsvollsten. Extrembeispiel vom Verbrauch war Quake 2 RTX mit Vulkan Raytracing.
@horn 12: Die kleine 4080 mit 285W wird wohl etwa so schnell sein wie die 3090 Ti mit 450W. Finde ich schon fortschrittlich.
The_Invisible
2022-10-04, 19:48:18
https://www.igorslab.de/community/threads/geforce-rtx-4090-und-2x-rtx-4080-ada-lovelace-startet-ab-oktober.7023/page-20#post-184603
Wenn es schlecht läuft starten die Reviews der Custom Karten und der Verkauf gleichzeitig am 12.10. um 15 Uhr. :hammer:
Gibt's da wieder so ein PCGH Unboxing mit Raff :D
Troyan
2022-10-04, 20:02:17
Ich bin da ganz optimistisch, interessiere mich ja eh für ein Nischen Modell einer nicht so populären Marke. Da halten sich die Scalper hoffentlich etwas zurück.
EDIT: Die MSI Suprim X von wccftech läuft scheinbar recht zügig... https://i.imgur.com/1ZK94L3.jpg
Ergibt Sinn. 3GHz werden wohl öfters bei 450W zu sehen sein. 3,1GHz bei 509W sind 55% mehr als die 3090TI bei 450W. Eigentlich schon ziemlich extrem absurd für 76 Mrd. Transistoren.
Badesalz
2022-10-04, 20:04:13
509W Peak. :eek:Scheint so ausgelegt wie die Zen4. Mit 380W wäre sie wahrscheinlich auch 2,5% langsamer :usweet: Geht ja nicht...
Der Pimpf wollte die neue Stromleitung aber bestimmt nicht aus einer Laune heraus haben. Das war für die also schon eine ganze Weile absehbar. Ich weiß nur nicht warum ihr euch wundert. dargo hat doch eh mehr erwartet :ulol:
Gibt's da wieder so ein PCGH Unboxing mit Raff :DSagt man da jetzt "unboxing" zu? Also wenn er dabei ordentlich einen an der Stange ab-dance-t, schalte ich auf jeden Fall ein :uhippie: Sonst wüsste ich nicht wozu...
@Troyan
450W für 3.0Ghz und 509W für 3.1Ghz ergeben für dich "Sinn"?
@all
Der meint doch nicht 61°C??
Ex3cut3r
2022-10-04, 20:13:08
Das erklärt natürlich diese Ziegelsteine, also ohne Krücke/Stütze, wurde ich das meinem Mainboard nicht antun wollen. Im Sommer und einen Top Game release muss man quasi UV betreiben, damit es Zimmer IMHO aushaltbar ist, ich habe im Sommer meine 3080 Ti TUF mit 250W betrieben, und selbst das hat mein Zimmer ziemlich aufgeheizt. (Spiderman-Remastered Release)
Badesalz
2022-10-04, 20:14:50
@horn 12: Die kleine 4080 mit 285W wird wohl etwa so schnell sein wie die 3090 Ti mit 450W. Finde ich schon fortschrittlich.Du vergleichst Software, nicht Hardware. Ohne DLSS3 wird da wohl nichts draus und das gibts ganz erstaunlicherweise nicht für RTX30.
Wenn die Effizienz unterm Strich passt?Hast du immernoch einen Absolutverbrauch. Würdest du einen Drehstrom-Netzteil betreiben, wenn die Graka bei 1.5kW 380Tflops machen würde?
The_Invisible
2022-10-04, 20:18:31
Sagt man da jetzt "unboxing" zu? Also wenn er dabei ordentlich einen an der Stange ab-dance-t, schalte ich auf jeden Fall ein :uhippie: Sonst wüsste ich nicht wozu...
Ka, aber das erwarte ich schon mindestens ;D
@Ex3cut3r
Jap, meine Karte das gleiche, selbst bei einstelligen Temps draußen wird das Büro schnell warm, ich weiß gar nicht ob die normale Heizung hier funktioniert : D
Sardaukar.nsn
2022-10-04, 20:19:51
@Badesalz Beide haben rechnerisch 40TFLOPs. Oberhalb von 12GB VRAM Bedarf ist die 3090Ti natürlich im Vorteil. Ansonsten wird das auch ohne DLSS gut vergleichbar.
r3ptil3
2022-10-04, 20:20:59
Das ist ja gar nicht so schlimm wie gedacht.
Jeder Kenner weiß, dass MSI die Suprim-Modelle am absolut noch erträglichen Maximum betreibt.
Die RTX 3090 Ti Suprim, war sogar ein bisschen höher.
D.h. für mich praktisch identischer Verbrauch wie bei der RTX 3090 Ti, welche undervolted auch bei 300W spitzenmässig lief.
Badesalz
2022-10-04, 20:24:30
@bardh
Das ist natürlich ein Punkt. Wenn dann eher so =) Nur kleiner/leichter sind die anderen auch nicht so wirklich ;)
@Sardaukar.nsn
Wir werden es zeitig erfahren.
Das erklärt natürlich diese Ziegelsteine, also ohne Krücke/Stütze, wurde ich das meinem Mainboard nicht antun wollen.Die Volldeppen haben ja irgendwann auch die Schiene VORNE wegrationalisiert. Du hast da jetzt nichts mehr.
Daher auch garnicht so selten, jetzt schon, daß die Leute diese Seite der Graka mit den Stromstrippen quasi an irgendwas abhängen und diese abstützen.
Das ist alles nur noch ein Klamauk. 4-Slot Design, 3,15 :D Slot Design... Google mal nach "grafikkarte hängt durch". Das Prob kommt ja nicht erst mit der 40. Mit der 40 wird man aber bald auch den ganzen Tower von außen links abstützen müssen...
Ex3cut3r
2022-10-04, 20:31:18
Jo. Gut analysiert. :biggrin:
dargo
2022-10-04, 20:39:52
Wenn die Effizienz unterm Strich passt? Wenn ich die Kommentare so richtig verstehe hat er mit entsprechend Takt eben die 100 TFLOPs erreicht. Die 3090 Ti lag bei ~40
Du machst Effizienz anhand von TFLOPs fest? Löl...
Sardaukar.nsn
2022-10-04, 20:41:04
Die 4080er sehen auf den ersten Blick nicht so toll aus. Die Größe, Speicherinterface usw.
Wenn man beim Whitepaper etwas genauer hinschaut finde ich den Ansatz durchaus interessant. Der deutliche Ausbau des Cache und die extreme Taktsteigerung +900mhz machen da einiges wieder wett. Wenn am Ende so was wie 3090 Performance mit ~200-250 Watt heraus kommt fände ich das okay. Die DLSS Sache kommt ja noch oben drauf. Leider werden die 4080er Reviews wohl noch etwas dauern.
@drago: TFLOPS ungleich FPS, schon klar. Aber hast du schon bessere Vergleichswerte?
Badesalz
2022-10-04, 20:41:49
@Ex3cut3r
No shit Sherlock. Früher haben wir auf die linke Seitenwand Dämmmatten wegen silent geklebt, jetzt werden wir bald auf die rechte Seitenwand Streifen Auswuchtgewichte für Alufelgen kleben. Sonst kippt der ganze Müllhaufen um.
dargo
2022-10-04, 20:44:26
TFLOPS ungleich FPS, schon klar. Aber hast du schon bessere Vergleichswerte?
Wofür der ganze Aufwand? Es kommen doch spätestens zum Launch genug Tests. :freak:
BlacKi
2022-10-04, 20:46:34
@all
Der meint doch nicht 61°C??passt zu den anderen bekannten grad
Badesalz
2022-10-04, 20:48:45
Also Tcase? :usweet:
BlacKi
2022-10-04, 20:56:39
Also Tcase? :usweet:bei den cyberpunk bench leaks waren das auch unter 60° gpu temp.
Sardaukar.nsn
2022-10-04, 21:05:26
bei den cyberpunk bench leaks waren das auch unter 60° gpu temp.
Ebenso in den Leaks zu 3dmark: https://www.notebookcheck.net/Supposed-Nvidia-GeForce-RTX-4090-3DMark-Time-Spy-Extreme-listing-highlights-magnificent-performance-uplift-and-sky-high-clock-speeds.648825.0.html
Die bessere Kühlbarkeit ist vielleicht ein Vorteil des großen Die gegenüber einem Chiplet Design mit mehreren kleinen Hotspots.
Badesalz
2022-10-04, 21:15:30
Die bessere Kühlbarkeit ist vielleicht ein Vorteil des großen Die gegenüber einem Chiplet Design mit mehreren kleinen Hotspots.Bei 500W auf jeden Fall...
why_me
2022-10-04, 21:48:19
Auch wenn der Chip kühl bleibt, die Bude heizt das trotzdem auf. Mag zwar bei den aktuellen Gaspreisen nicht ganz so schlecht sein, aber spätestens im Sommer wird es mit 500W unterm Tisch kein Spaß mehr.
basix
2022-10-04, 21:59:57
509W Peak. :eek:
Wäre doch gar nicht so schlecht bei 3.1GHz. Wäre ~250-300W bei 2.5 GHz und somit ideal für mich :D
iamthebear
2022-10-04, 22:00:31
Die bessere Kühlbarkeit ist vielleicht ein Vorteil des großen Die gegenüber einem Chiplet Design mit mehreren kleinen Hotspots.
AD102 ist kleiner als Turing und Ampere zuvor.
Ich denke, dass sich das mit den 60 Grad ziemlich bapd ändern wird wenn die Karte mit dem riesigen Kühler nicht mehr offen betrieben wird sondern im normalen Durchschnittsgehäuse steckt.
Um ehrlich zu sein mache ich mir um die Kühlung der GPU keine Sorgen sondern eher, dass die ganze Warme Luft den RAM und die M.2 SSD grillt.
Sardaukar.nsn
2022-10-04, 22:30:38
Es muss ja auch nicht immer höher, schneller, weiter sein.
Die kleine 4080-12GB genannte Karte liefert dank großem Cache und +900mhz Takt die gleiche Rechenleistung wie eine 3090 Ti. Benötigt statt maximal 450W aber nur 285W. Mit etwas Undervolting halte ich einen 200-250W Sweetspot für sehr realistisch. Wohl gemerkt Leistung einer 3090. Finde ich okay. Sachen wie DLSS 3 kommen natürlich noch oben drauf.
Spring
2022-10-04, 22:39:12
Es muss ja auch nicht immer höher, schneller, weiter sein.
Die kleine 4080-12GB genannte Karte liefert dank großem Cache und +900mhz Takt die gleiche Rechenleistung wie eine 3090 Ti. Benötigt statt maximal 450W aber nur 285W. Mit etwas Undervolting halte ich einen 200-250W Sweetspot für sehr realistisch. Wohl gemerkt Leistung einer 3090. Finde ich okay. Sachen wie DLSS 3 kommen natürlich noch oben drauf.
Wird hier gerade die verkappte 4070 schön geredet?
Also wenn man sich so eine Karte holt, dann doch wohl eher die 16GB 4080 oder am Besten gleich die 4090. Auch die kann man sinnvoll mit UV betreiben, sofern man von den Husarenpreisen nicht abgeschreckt wird.
Troyan
2022-10-04, 22:40:26
nVidia hat Werte für Overwatch 2 veröffentlicht:
https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/
1440p:
3080: 249 FPS
4080: 296 FPS (+18,8%)
4080: 368 FPS (+24,4%)
4090: 507 FPS (+37,7%)
crux2005
2022-10-04, 22:47:16
nVidia hat Werte für Overwatch 2 veröffentlicht:
https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/
1440p:
3080: 249 FPS
4080: 296 FPS (+18,8%)
4080: 368 FPS (+24,4%)
4090: 507 FPS (+37,7%)
Ggü. 3080. T(r)oll. ;D
Sardaukar.nsn
2022-10-04, 22:49:53
Wird hier gerade die verkappte 4070 schön geredet?
Also wenn man sich so eine Karte holt, dann doch wohl eher die 16GB 4080 oder am Besten gleich die 4090. Auch die kann man sinnvoll mit UV betreiben, sofern man von den Husarenpreisen nicht abgeschreckt wird.
Anders herum wird ein Schuh draus. Warum kann Nvidia für eine 4080-12GB Karte diesen auch für mich frechen Preis verlangen?
Vielleicht stimmt unterm Strich das Verhältnis zwischen Leistung/Verbrauch/Preis und natürlich Konkurrenz ja doch.
Troyan
2022-10-04, 22:50:14
Ist irgendwas zwischen 3090 und 3090TI.
Cubitus
2022-10-04, 22:50:32
Jetzt gar nicht auf den Bench bezogen.
Die 4080 16 GB ggü. der 4090 zu schwach.
Ganz ehrlich die 4090 ist die geilere Karte. Außer vom Preis..
Anders herum wird ein Schuh draus. Warum kann Nvidia für eine 4080-12GB Karte diesen auch für mich frechen Preis verlangen?
Vielleicht stimmt unterm Strich das Verhältnis zwischen Leistung/Verbrauch/Preis und natürlich Konkurrenz ja doch.
die 4080 8 GB, tritt vielleicht gegen AMDs Top-Gaming Chip an.
Vielleicht suckt AMD richtig ab, NV weiß das und bietet dagegen die umgelabelte 4070 an, einfach weil es ausreicht ;D
Ex3cut3r
2022-10-04, 23:13:11
Die 4080 8 GB, tritt vielleicht gegen AMDs Top-Gaming Chip an.
Vielleicht suckt AMD richtig ab, NV weiß das und bietet dagegen die umgelabelte 4070 an, einfach weil es ausreicht ;D
Sarkasmus? RDNA 2 war schon sehr konkurrenzfähig, was die Raster Leistung anging. Ich glaube kaum, das RDNA 3 nun plötzlich ein Rohrkrepierer wird.
Ich sehe eher, dass Nvidia Anfang nächstens Jahres eine saftige Preisminderung vorantreibt, weil man diesmal total übers Ziel hinausgeschossen hat, was die Preise angeht, und die paar "Freaks" zum rls. Zuschlagen werden, der Rest aber Regal liegen bleiben wird.
Meridian12
2022-10-05, 00:11:42
nVidia hat Werte für Overwatch 2 veröffentlicht:
https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/
1440p:
3080: 249 FPS
4080: 296 FPS (+18,8%)
4080: 368 FPS (+24,4%)
4090: 507 FPS (+37,7%)
Jo, ich brauche unbedingt 500 Frames die Sekunde.Mit 250 schlafe ich ein vorm Monitor.:freak:
Aber NVIDIA will wieder die Leute verarschen. Warum wohl nimmt man eine 3080, 3070 und 3060 aber KEINE 3090???
Glaube das kann sich jeder denken. Sähe halt doch doof aus, wenn die neue Megageniale Fake 4080 unter der 3090 auftauchen würde. Also lieber weglassen.;D
Schnitzl
2022-10-05, 00:15:52
das sieht nicht gut aus, vermutlich wird das die nVidia Produktpalette sein bis Mitte 2023...
4090
4080/16
4080/12
3080
3070
3060
ich glaub ich schaue lieber auf eBay nach ner 3090 :(
FastAndy
2022-10-05, 00:19:37
nVidia hat Werte für Overwatch 2 veröffentlicht:
https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/
1440p:
3080: 249 FPS
4080: 296 FPS (+18,8%)
4080: 368 FPS (+24,4%)
4090: 507 FPS (+37,7%)hammer die 4090:smile:
Tesseract
2022-10-05, 00:24:19
RDNA 2 war schon sehr konkurrenzfähig, was die Raster Leistung anging. Ich glaube kaum, das RDNA 3 nun plötzlich ein Rohrkrepierer wird.
chiplets sind definitiv eine unsicherheit für RDNA3, besonders auf den mittelklassekarten. im absoluten high-end wo monolithische chips sich dem reticle limit nähern und yields schlecht werden klar ein skalierungsvorteil, aber sie haben ganz klar auch einen overhead der auf GPUs wahrscheinlich größer ist als auf CPUs weil der interconnect nicht latenzkritisch sondern bandbreitenkritisch ist was ihn potenziell fett macht. falls es stimmt dass der inifnity cache auf dem OID sitzt müssen da ganz schöne datenraten durch die interconnects, das frisst transistoren und bei jedem transfer energie. vorteile durch binning bei chiplets (weniger salvage, besser spannungskurve) müssen diesen nachteil erst mal überkommen bevor sie anfangen ein vorteil zu sein.
könnte durchaus sein, dass RDNA3 zur neuen fury wird wo fortschrittliche technologie die im HPC-bereich enorme vorteile bringt diese im "kleinen" rahmen nicht so auspielen kann wie erwartet.
Weltraumeule
2022-10-05, 00:46:45
Wird hier gerade die verkappte 4070 schön geredet?
Also wenn man sich so eine Karte holt, dann doch wohl eher die 16GB 4080 oder am Besten gleich die 4090. Auch die kann man sinnvoll mit UV betreiben, sofern man von den Husarenpreisen nicht abgeschreckt wird.
Die verkappte 4070 ist gut - für unter 600 €
Daher warte ich bis der Preis sinkt in 2 Jahren :(
unl34shed
2022-10-05, 01:38:58
Wird hier gerade die verkappte 4070 schön geredet?
Also wenn man sich so eine Karte holt, dann doch wohl eher die 16GB 4080 oder am Besten gleich die 4090. Auch die kann man sinnvoll mit UV betreiben, sofern man von den Husarenpreisen nicht abgeschreckt wird.
Nein die verkappte 4060 Ti (4080 12GB) wird versucht schön zu reden, die 4080 16GB ist eine verkappte 4070. Auf der Basis hat man mehr als eine Verdopplung des Preises erzielt und die Leute fressen es ;)
Btw. die 4090 ist auch verhältnismäßig stark beschnitten, aber von dem Haufen zumindest noch die mit dem geringsten Preisaufschlag.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13124788&postcount=6515
Badesalz
2022-10-05, 02:01:06
@Tesseract
Nun... Absolut unwahrscheinlich :rolleyes:
Ex3cut3r
2022-10-05, 02:37:04
chiplets sind definitiv eine unsicherheit für RDNA3, besonders auf den mittelklassekarten. im absoluten high-end wo monolithische chips sich dem reticle limit nähern und yields schlecht werden klar ein skalierungsvorteil, aber sie haben ganz klar auch einen overhead der auf GPUs wahrscheinlich größer ist als auf CPUs weil der interconnect nicht latenzkritisch sondern bandbreitenkritisch ist was ihn potenziell fett macht. falls es stimmt dass der inifnity cache auf dem OID sitzt müssen da ganz schöne datenraten durch die interconnects, das frisst transistoren und bei jedem transfer energie. vorteile durch binning bei chiplets (weniger salvage, besser spannungskurve) müssen diesen nachteil erst mal überkommen bevor sie anfangen ein vorteil zu sein.
könnte durchaus sein, dass RDNA3 zur neuen fury wird wo fortschrittliche technologie die im HPC-bereich enorme vorteile bringt diese im "kleinen" rahmen nicht so auspielen kann wie erwartet.
Ok, klingt alles logisch, was du da aufzählst, aber warum sollte AMD denn ausgerechnet jetzt den Sprung auf Chiplets machen, wenn man es nicht halbwegs performant hinbekommt? Ich glaube AMD hat das schon ganz gut unter Kontrolle, sollte RDNA 3 nicht absolut gleichwertig was die Raster Leistung angeht, wenn nicht sogar ein klein wenig besser als LoveLace, wäre RDNA 3 eine Enttäuschung.
Troyan
2022-10-05, 02:37:08
Bei purepc.pl gibt es diese Folie:
https://www.purepc.pl/image/felieton/2022/09/29_nvidia_geforce_rtx_4000_piec_powodow_dla_ktorych_nowa_generacja_kart_graficzn ych_moze_okazac_sie_rozczarowaniem_6_b.jpg
https://www.purepc.pl/nvidia-geforce-rtx-4000-piec-powodow-dla-ktorych-nowa-generacja-kart-graficznych-moze-okazac-sie-rozczarowaniem
Spider-Man ist neu, hat nVidia auf deren Seite weggelassen. Kann auch kein DLSS 3 sein, da Spider-Man in 1080p CPU-limitiert ist...
Reaping_Ant
2022-10-05, 03:12:47
Selbst wenn man die 4080 12GB mal wohlwollend als "echte" 4080er und damit als Nachfolger der 3080 akzeptiert, ist da keinerlei Fortschritt im Bezug auf Preis/Leistung erkennbar. Die Karte ist 30% teurer (1100 Liste vs. 850 Strasse fuer die 3080 12GB), aber gerade mal 20% schneller (angenommen die 4080 12GB kommt +- auf 3090 Ti Level raus).
Rein leistungsmaessig ist der Vortschritt sogar durchaus mit Ampere vs. Turing zu vergleichen (wo die "3080 8GB", also die 3070, auf dem Level des vorigen Topmodells 2080Ti lag, nur halt mit weniger VRAM), aber die Preise sind dieses Mal halt im gleichen Masse bis ueberproportional mitgestiegen.
Gut, die Leistungsaufnahme ist niedriger und es gibt DLSS3 als neues Feature, aber trotzdem recht ernuechternd. Wenn sich das im Performance-Segment so fortsetzt, darf ich wohl ein oder gar zwei Generationen abwarten bis ich ~50% Mehrperformance zu einem aehnlichen Preis im Vergleich zu meiner 3070 bekomme. Aber wer weiss, vielleicht erleben wir ja nochmal einen GTX 280 vs. HD 4870 Moment und NV muss die Preise bald um 30% senken.
BlacKi
2022-10-05, 05:12:45
Glaube das kann sich jeder denken. Sähe halt doch doof aus, wenn die neue Megageniale Fake 4080 unter der 3090 auftauchen würde. Also lieber weglassen.;D
als ob eine 3090 in overwatch 2 mehr als 19% schneller als die 3080 wäre. das ist sie nichtmal in anderen spielen.
DrFreaK666
2022-10-05, 06:50:15
als ob eine 3090 in overwatch 2 mehr als 19% schneller als die 3080 wäre. das ist sie nichtmal in anderen spielen.
Die 3090 Ti ist laut CB im Durchschnitt 21% schneller als eine 3080 in 1440p.
dargo
2022-10-05, 08:22:41
Ggü. 3080. T(r)oll. ;D
Meine Güte... Interpolation scheint ja hier für einige echt ein unlösbares Problem zu sein. :rolleyes:
Eine 3090TI ist 20-24% schneller als eine 3080. Je nachdem ob man jetzt 1440p oder 4k als Maßstab nimmt.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Heißt also die 4080 12GB und 4080 16GB sind ungefähr so schnell wie die 3090TI in diesem Test.
Die Prozentangaben von Troyan bei 4080 16GB falsch gedeutet. Im Prinzip heißt es also die 4080 12GB ist etwas langsamer in diesem Test als die 3090TI. Wahrscheinlich 4080 12GB = ~3090.
Cubitus
2022-10-05, 08:22:49
wenn nicht sogar ein klein wenig besser als LoveLace, wäre RDNA 3 eine Enttäuschung.
Wie gesagt ich vermute einen schwachen RDNA 3 damit sich Nvidia traut eine langsame 4080 GTX zu veröffentlichen.
dargo
2022-10-05, 08:31:04
chiplets sind definitiv eine unsicherheit für RDNA3, besonders auf den mittelklassekarten.
Was ein Blödsinn. GCD + MCDs gibt es nur im High-End bei RDNA3, nämlich bei N31 + N32. N33 ist monolithisch.
btw.
Was will man auch mit Chiplets bei einem N33 wenn das Teil monolithisch @N6 schon bei ~200mm² rauskommt? :ulol:
Exxtreme
2022-10-05, 08:37:16
Wie gesagt ich vermute einen schwachen RDNA 3 damit sich Nvidia traut eine langsame 4080 GTX zu veröffentlichen.
Ich glaube nicht, dass RDNA3 grundsätzlich schwach wird. Ich glaube aber, Lovelace wird was RT angeht Kreise um RDNA3 drehen. RDNA3 ist von der Transistoranzahl her glaub nur halb so groß wie Lovelace. Ich glaube, die werden RT zu größeren Teilen mittels Shader machen und das wird arg bremsen.
Timbaloo
2022-10-05, 08:38:32
Ich glaube, die werden RT zu größeren Teilen mittels Shader machen und das wird arg bremsen.
Ich hoffe doch, dass sie den Fehler mit RDNA3 nicht wieder machen.
Exxtreme
2022-10-05, 08:41:36
Ich hoffe doch, dass sie den Fehler mit RDNA3 nicht wieder machen.
Das ist eher eine Kostenfrage. Wenn die eine Vorgabe bekommen, dass der Chip maximal so und soviel kosten darf und das für mehr Transistoren nicht reicht dann werden sie es wieder so machen.
Cubitus
2022-10-05, 08:52:54
Ich glaube nicht, dass RDNA3 grundsätzlich schwach wird. Ich glaube aber, Lovelace wird was RT angeht Kreise um RDNA3 drehen. RDNA3 ist von der Transistoranzahl her glaub nur halb so groß wie Lovelace. Ich glaube, die werden RT zu größeren Teilen mittels Shader machen und das wird arg bremsen.
Schön differenziert gesehen, aber ja so wird es schon kommen.
genau, schwach ist relativ, wenn der Preis stimmt und die allg. Raster-Leistung ausreicht wird auch RDNA3 seine Käufer finden.
Nvidia lässt sich wiederrum seine HighEnd Boliden vergolden.
Wie gesagt die 4090 ist von den Specs her wirklich eine großartige Karte, vor allem gegenüber der kompletten 4080er Serie.
Spielraum zur 4090TI bleibt immer noch, welche dann im kommenden Jahr erscheint.
Dort wird der Preis bei 2000 USD liegen. Wobei ich denke der Unterschied zur 4090 wird geringer ausfallen als der Unterschied zur 4080 (16 GB)
Somit bleibt die 4090 die wirklich einzige Enthusiasten Karte die es in nächster Zeit zu kaufen gibt.
Sardaukar.nsn
2022-10-05, 08:58:47
DF hat gestern noch einen Wochenbericht, bei ca. 1:20:20 geht man noch mal auf DLSS 3 ein wobei natürlich noch die NDA gilt.
tb3P_Tdn2HA
Nazar
2022-10-05, 09:00:39
nVidia hat Werte für Overwatch 2 veröffentlicht:
https://www.nvidia.com/en-us/geforce/news/overwatch-2-out-now-geforce-rtx-reflex-high-fps/
1440p:
3080: 249 FPS
4080: 296 FPS (+18,8%)
4080: 368 FPS (+24,4%)
4090: 507 FPS (+37,7%)
Thanks to the incredible power of the GeForce RTX 40 Series, Overwatch 2 has increased its framerate cap from 400 FPS to 600 FPS.
:ulol4:
Genau, jetzt weiß jeder, dass man eine 4090 braucht, um von ein 400 FPS Cap auf ein 600 FPS Cap kommen zu können.
BTW: wer spielt überhaupt Overwatch 2? ;D
Anders herum wird ein Schuh draus. Warum kann Nvidia für eine 4080-12GB Karte diesen auch für mich frechen Preis verlangen?
Vielleicht stimmt unterm Strich das Verhältnis zwischen Leistung/Verbrauch/Preis und natürlich Konkurrenz ja doch.
Ich kann gar nicht die Menge an Drogen aufzählen, die ich nehmen müsste, um auch nur in die Nähe so einer Auffassung geraten zu können. ;D
Sardaukar.nsn
2022-10-05, 09:04:10
@Nazar: Die absolute Zahl der FPS sind in dem Fall doch egal. Entscheidend ist das die theoretische Rohleistung der 4090 auch real in FPS ankommt.
In meinem Fall z.B. mit einer 3080 10GB halt eine Verdopplung.
The_Invisible
2022-10-05, 09:04:46
Ich glaube nicht, dass RDNA3 grundsätzlich schwach wird. Ich glaube aber, Lovelace wird was RT angeht Kreise um RDNA3 drehen. RDNA3 ist von der Transistoranzahl her glaub nur halb so groß wie Lovelace. Ich glaube, die werden RT zu größeren Teilen mittels Shader machen und das wird arg bremsen.
Wenns wirklich so kommt und die RT Leistung wieder so weit zurückliegt bleibt für mich jedenfalls wieder nur Nvidia. Zocke gerade wieder intensiver Cyberpunk und das ist mit RT einfach ein ganz anderes Spiel. Auch Control & DL2 will man eigentlich nicht mehr anders zocken...
Exxtreme
2022-10-05, 09:06:20
BTW: wer spielt überhaupt Overwatch 2? ;D
https://www.twitch.tv/directory?sort=VIEWER_COUNT
Ist auf Platz 1 wenn man "Just chatting" weglässt weil das kein Spiel ist.
Wenns wirklich so kommt und die RT Leistung wieder so weit zurückliegt bleibt für mich jedenfalls wieder nur Nvidia. Zocke gerade wieder intensiver Cyberpunk und das ist mit RT einfach ein ganz anderes Spiel. Auch Control & DL2 will man eigentlich nicht mehr anders zocken...
Sehe ich genauso. Wenn RDNA3 in RT komplett abgehängt wird dann kaufe ich eine NV-Karte im Frühjahr. :)
Virtual
2022-10-05, 09:32:39
https://www.twitch.tv/directory?sort=VIEWER_COUNT
Ist auf Platz 1 wenn man "Just chatting" weglässt weil das kein Spiel ist.
Verzeih mir bitte meine Unkenntnis, aber warum schließt du von der Anzahl der Zuschauer auf Twitch auf die Anzahl der aktiven Spieler dieses Spiels oder eines beliebigen Spiels? Ich wäre dir dankbar, wenn du meine Verständnislücke mit nachvollziehbaren Fakten auffüllen könntest, auch wenn dieser Faden der Spekulation gewidmet ist und die Frage nicht die 4000er Serie betrifft. Vielen Dank!
Btw, ich schaue bei manchem Spiel(er) gerne zu, würde es aber selbst nie spielen. Viele Spiele sind zum Zuschauen gut geeignet, aber selbst spielen, nein Danke! Da spiele ich lieber anderes.
Spring
2022-10-05, 09:39:31
OW 2 ist halt frisch rausgekommen, klar das dies gehyped ist und einen hohen Spielercount hat - auch mit den typischen Probs (never play on patchday):
Overwatch 2: „Verbindung zum Spielserver fehlgeschlagen“ – Probleme und Warteschlangen zum Start (https://mein-mmo.de/overwatch-2-start-warteschlangen/)
Warum nvidia sich mit den Werten bei OW (2) brüstet, ist bissl seltsam, da es wie Valorant halt eine einfache Comic-Style Engine ist.
Das haut keine GPU um, die nicht schon 10 Jahre alt ist und selbst da geht es noch mit reduzierter Auflösung/Details, jede RTX 4xxx Karte ist da schlicht overkill.
Cubitus
2022-10-05, 09:45:50
Anders herum wird ein Schuh draus. Warum kann Nvidia für eine 4080-12GB Karte diesen auch für mich frechen Preis verlangen?
Vielleicht stimmt unterm Strich das Verhältnis zwischen Leistung/Verbrauch/Preis und natürlich Konkurrenz ja doch.
Dieses Jahr ist schon besonders.
Wenn du auf Pascal Zeiten zurückblickst, ist die 104 Serie die eigentliche 4080 GTX (12GB)
Das in der gleichen Serie ein 103 Chip auftaucht ist schon außergewöhnlich.
Ich finde es komisch:
Eigentlich hätte Nvidia es auch so machen können:
4080GTX --> 104
4080GTX (TI) --> 103
4090GTX --> 102
So macht es doch am meisten Sinn.
Später schiebt man noch ne 4070er mit einem 106er Chip nach.
Und die 4070TI basiert dann eben auf einem 104er
Dann wäre auch niemand verwundert oder pissed gewesen und man hätte das komplette Leistung Spektrum abdecken können.
Troyan
2022-10-05, 09:49:39
Fläche kostet nunmal auf 5nm. Der Abstand existiert, weil es kein Sinn macht bei 450mm^2 aufzuhören. Dann kann man gleich an die Grenzen gehen.
Die Skalierung in den nVidia-Zahlen von OW2 sieht eigentlich ziemlich gut aus. 4090 ist gegenüber der 4080 12GB 72% schneller bei 58% mehr Strom. Schaut man sich die 4080 12GB gegenüber der 3070 an, dann skaliert die 3090TI deutlich schlechter gegenüber der 3070TI: ~50% Mehrleistung für 58% mehr Strom.
Nazar
2022-10-05, 10:01:15
Wenn ich es nicht verkaufe, bzw. keine Abnehmer finde, ergibt es auch keinen Sinn. ;)
E:
Wenn ich dann auch sehe, was für seltsame Benchmarks nVidia gerade raushaut, dann kommt es mir immer mehr so vor, als ob nVidia gerade sein Heil in der Flucht nach vorne sucht.
Ich vermute, dass es hier um die Weltwirtschaft geht, und dass man so schnell wie möglich seine Ware zu den höchst möglichen Preisen losschlagen möchte, da nVidia sehr wohl weiß, dass die Kunden immer weniger Geld im Laufe der Zeit zur Verfügung haben werden und einige jetzt schnell noch kaufen werden, solange noch etwas gespartes vorhanden ist. Auch schon für Weihnachten.
Denn sehe ich mir die Benchmarks, die Spiele und wie getestet wurde genau an, dann verstehe ich nicht, wie man um Himmels willen immer und immer wieder übersehen kann, dass keiner der Benchmarks aussagekräftig ist!?
DLSS 3 versus DLSS 2 und fast alles im Performance RTX Modus.
Keine Mag hinterfragt die Zusammenhänge!
Welche Verlustleistung? Lautstärke? Hitze im Gehäuse? Wie lange wurde mit welcher Szene getestet? Welche Treiberunterschiede? Warum immer mit Bewegungs- und Tiefenunschärfe? Warum nur Performancemodus? Warum, je nach Test, unterschiedliche Auflösungen?
Zu Recht wird auch im 3D-Forum, immer wieder bei anderen Herstellern darauf hingewiesen, dass die Auskünfte recht dürftig sind.
Nur wundert es mich erneut, dass gerade das, was bei anderen als sehr schlecht bewertet wird, nämlich die ungenügend Auskünfte, bei nVidia komplett unter den Tisch, nein, sogar noch positiv bewertet werden?
Die Produktvorstellung von nVidia, lässt mehr Fragen offen, als die der RDNA3 Vorstellung seitens AMD während Ryzen vorgestellt wurde.
Ist wirklich niemanden aufgefallen, dass nVidia eigentlich nicht mehr gezeigt hat, als es in den Spekulationen schon aufgezeigt wurde?
Dieselben Fragen wie zuvor sind immer noch offen, aber die Magz und Autoren schweigen dazu beharrlich.
Wieso eigentlich, wenn sich vorher, bei der RDNA3 "Vorstellung", dann so aufgeregt hat?
Wo ist hier die Aufregung?
DLSS 3 wird so gehypt, dass man den Eindruck gewinnt, RTX und DLSS haben die Plätze getauscht.
Warum wird das nicht hinterfragt, dass RT eigentlich nur noch ein Nebenprodukt von DLSS 3.X ist?
Folgt man der Meinungsmache, dann ist DLSS das neue RTX.
Stattdessen werden mit aller Macht teilweise dümmliche Ausreden für die seltsamen Werte und die mit Abstand schlechteste Produktvorstellung seitens nVidia erfunden.
Da komm mal einer mit!? :rolleyes::freak:
Diese ganzen Codenamen und Namensanpassung sind nichts anderes als eine Rechtfertigung einfach sehr viel Geld abzugreifen. Eigentlich ist der AD 103 ein AD104 und alle Nummern dürften eine Stufe heruntergestuft gehören (also 104 -> eigentlich 106 usw.). Und dass eine 4080 12GB 4080 heißt und sogar noch ein kleinerer Chip ist, ist einfach nur dreist, mehr nicht.
Spring
2022-10-05, 10:03:44
Diese ganzen Codenamen und Namensanpassung sind nichts anderes als eine Rechtfertigung einfach sehr viel Geld abzugreifen. Eigentlich ist der AD 103 ein AD104 und alle Nummern dürften eine Stufe heruntergestuft gehören (also 104 -> eigentlich 106 usw.). Und dass eine 4080 12GB 4080 heißt und sogar noch ein kleinerer Chip ist, ist einfach nur dreist, mehr nicht.
https://cdn3.emoji.gg/emojis/1716_this.png
unl34shed
2022-10-05, 10:06:23
Fläche kostet nunmal auf 5nm.
Aber sicher nicht Faktor 4 oder mehr gegenüber Samsung 8nm um diese Preise zu rechtfertigen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.